

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、隨著可穿戴智能移動終端的發(fā)展,智能終端的安全問題日益突出?;诓綉B(tài)的用戶身份識別方法利用可穿戴設(shè)備內(nèi)置的傳感器實現(xiàn)對用戶身份的識別,具有設(shè)備無關(guān)性、不受場景的限制和對用戶非干擾等特點,是一種有效的非干擾用戶身份識別方法。
傳統(tǒng)的非干擾步態(tài)識別方法在可穿戴智能終端設(shè)備風險控制領(lǐng)域的應(yīng)用還存在一些問題,大多數(shù)已有的方案是通過加速度傳感器、陀螺儀等多種傳感器對步態(tài)進行身份識別與驗證,從而進行手機的風險控制。由于識別的方法設(shè)置了許多限
2、制條件,造成該技術(shù)的推廣和使用具有一定的困難。例如:傳感器設(shè)備要固定在腳踝、膝蓋、腰部等位置同時需要將手機放在特定位置并保證特定朝向,用戶需要做特定的動作。其次,通過步態(tài)進行身份識別與驗證的技術(shù)應(yīng)用到風險控制領(lǐng)域需要一套完整可靠的系統(tǒng)架構(gòu)。因此,本文提出一種與位置、行為無關(guān)的非干擾的身份識別與驗證方法,通過用戶行為與設(shè)備位置的特征遷移提取有效的特征并構(gòu)建多元數(shù)據(jù)融合模型實現(xiàn)非干擾用戶身份的識別,并以此為核心建立了一套完整的系統(tǒng)實現(xiàn)架構(gòu)和
3、原型系統(tǒng)。該架構(gòu)方法的實現(xiàn)提高了用戶身份識別的準確度和魯棒性、改善人機交互體驗。實驗結(jié)果表明本文設(shè)計的系統(tǒng)架構(gòu)也有利于系統(tǒng)整體精度的提升且該方法具有較高的識別率和極低FPR(假陽率)的特點,從而在非干擾用戶的情況下提高了APP和智能手機等智能終端設(shè)備的安全性。本文主要貢獻如下:
(1)提出了一種面向用戶非干擾步態(tài)身份識別的有效特征提取方法。為了消除步態(tài)身份識別過程中用戶行為和設(shè)備位置的影響,除了提取用戶步態(tài)特征還分別提取用戶行
4、為特征和設(shè)備位置位置特征;同時,針對由于個體差異性和設(shè)備位置的差異導(dǎo)致的用戶行為模型和位置模型漂移問題,提出了一種基于行為位置相關(guān)的特征遷移學(xué)習方法,利用遷移成分分析將不同用戶行為和設(shè)備位置的源域和目標域變換到相同的重構(gòu)希爾波特空間,以消除特征的差異性、提高非干擾步態(tài)身份識別魯棒性。
(2)提出了一種多元數(shù)據(jù)融合的非干擾步態(tài)身份識別方法。為了解決用戶行為和可穿戴設(shè)備位置對步態(tài)身份識別的影響,利用加速度傳感器數(shù)據(jù)針對用戶行為和可
5、穿戴設(shè)備位置分別進行有效特征提取;利用隨機森林(RandomForest,RF)算法分別構(gòu)建用戶行為和可穿戴設(shè)備位置識別模型,構(gòu)建多元數(shù)據(jù)融合的非干擾步態(tài)身份識別模(Multi-model Data Fusion based Unobtrusive identification Method,MD-UIM)。實驗結(jié)果表明,在選取用戶行為習慣與智能設(shè)備位置關(guān)系的五種組合能進行有效的識別,測試精度較傳統(tǒng)方法提升了5%,同時驗證了有效特征提取
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于步態(tài)及人臉特征的身份識別方法研究.pdf
- 基于步態(tài)深度信息的人體身份識別方法研究.pdf
- 基于特征融合和SVM的步態(tài)識別方法研究.pdf
- 基于視觸覺多特征融合的步態(tài)識別方法研究.pdf
- 基于人體特征信息融合的身份識別方法研究.pdf
- 基于數(shù)據(jù)融合的綜合識別方法研究.pdf
- 人體步態(tài)識別方法研究.pdf
- 基于數(shù)據(jù)融合的表情識別方法研究.pdf
- 基于數(shù)據(jù)融合的結(jié)構(gòu)損傷識別方法研究.pdf
- 基于數(shù)據(jù)融合的結(jié)構(gòu)損傷識別方法研究
- 基于數(shù)據(jù)融合的運動目標識別方法研究.pdf
- 基于協(xié)同表示的步態(tài)識別方法研究.pdf
- 視頻監(jiān)控中人體步態(tài)識別方法研究.pdf
- 基于步態(tài)的身份識別研究.pdf
- 多生物特征身份識別方法研究.pdf
- 基于角度及輪廓特征的步態(tài)識別方法研究.pdf
- 基于圖像序列的人體步態(tài)識別方法研究.pdf
- 基于Fisher準則和數(shù)據(jù)融合的說話人識別方法研究.pdf
- 基于步態(tài)的身份識別算法研究.pdf
- 基于步態(tài)分析的身份識別研究.pdf
評論
0/150
提交評論