

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著計(jì)算機(jī)視覺(jué)和模式識(shí)別理論的發(fā)展,步態(tài)識(shí)別作為一種新穎的生物特征識(shí)別技術(shù),近年來(lái)引起了國(guó)內(nèi)外學(xué)者的關(guān)注。步態(tài)識(shí)別旨在根據(jù)行人的走路姿勢(shì)實(shí)現(xiàn)對(duì)個(gè)人身份的識(shí)別,具有遠(yuǎn)距離、非接觸、難偽裝、模仿或隱藏的特點(diǎn)。在安全敏感場(chǎng)所的視頻監(jiān)控、訪問(wèn)控制、輔助破案等方面具有廣泛的應(yīng)用價(jià)值。
由于人的行走方向是任意的,當(dāng)攝像頭固定時(shí),人的行走方向與攝像機(jī)光軸所成夾角是任意的,即步態(tài)視角通常是未知的。而不同視角下觀察到的同一個(gè)人的人體外觀差異很大
2、。從而導(dǎo)致同一個(gè)人不同步態(tài)視角視圖之間的變化大于不同人不同步態(tài)視角視圖之間的變化,使算法識(shí)別性能在視角改變時(shí)急劇下降。因此,為了構(gòu)建一個(gè)待識(shí)別序列視角未知的完整步態(tài)識(shí)別算法,提高步態(tài)識(shí)別算法的識(shí)別性能,促進(jìn)步態(tài)識(shí)別技術(shù)朝著實(shí)用化的方法發(fā)展,本文給出了基于子空間學(xué)習(xí)的多視角步態(tài)識(shí)別算法,本文主要工作如下:
1)給出了基于步態(tài)能量圖投影信息的步態(tài)視角識(shí)別算法
針對(duì)待識(shí)別步態(tài)序列視角未知問(wèn)題,本文以步態(tài)能量圖為基礎(chǔ),通過(guò)分
3、析不同視角步態(tài)能量圖的特點(diǎn),提出了一種基于步態(tài)能量圖投影信息的步態(tài)視角識(shí)別算法。該算法采用步態(tài)視圖兩級(jí)分類機(jī)制,先利用步態(tài)能量圖投影信息將待識(shí)別步態(tài)序列分成前視圖和后視圖兩類,再分別對(duì)每一類視圖進(jìn)行細(xì)分類,從而實(shí)現(xiàn)步態(tài)視角識(shí)別。實(shí)驗(yàn)結(jié)果表明,該算法充分利用步態(tài)能量圖投影信息,提高了步態(tài)視角識(shí)別算法性能,取得了較好的識(shí)別效果。
2)給出了基于視圖一致性的多視角判別分析步態(tài)識(shí)別算法
為了提高多視角步態(tài)識(shí)別算法性能,本文采
4、用子空間學(xué)習(xí)的方法,以MvDA為框架,結(jié)合步態(tài)視角識(shí)別算法,將結(jié)合視圖一致性的多視角判別分析應(yīng)用于交叉視角步態(tài)識(shí)別,給出了一種基于視圖一致性的多視角判別分析步態(tài)識(shí)別算法。實(shí)結(jié)果表明,該算法優(yōu)化了步態(tài)視圖判別分析性能,提高了多視角步態(tài)識(shí)別算法性能。
3)給出了基于視角識(shí)別的加權(quán)融合多視角步態(tài)識(shí)別算法
針對(duì)待識(shí)別步態(tài)視角與數(shù)據(jù)庫(kù)中步態(tài)視角不一致問(wèn)題,本文結(jié)合步態(tài)視角識(shí)別算法,提出了一種基于視角識(shí)別的加權(quán)融合多視角步態(tài)識(shí)別
5、算法。該算法以步態(tài)視角識(shí)別為基礎(chǔ),利用相近視角加權(quán)融合,將匹配總分值作為步態(tài)識(shí)別的依據(jù),對(duì)數(shù)據(jù)庫(kù)中未包含的步態(tài)視角視圖進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明,該算法對(duì)未知視角視圖步態(tài)識(shí)別魯棒性較好。
為了驗(yàn)證基于子空間學(xué)習(xí)的多視角步態(tài)識(shí)別算法的識(shí)別性能,本文使用中科院CASIA-B數(shù)據(jù)集124人11個(gè)視角的步態(tài)數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。從中隨機(jī)抽取74人作為訓(xùn)練集,其余50人作為測(cè)試集。實(shí)驗(yàn)結(jié)果顯示本文的步態(tài)識(shí)別準(zhǔn)確性在待識(shí)別視角參與訓(xùn)練時(shí)為86.18%
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于關(guān)節(jié)點(diǎn)提取和多視角步態(tài)識(shí)別算法.pdf
- 基于Procrustes形狀頻譜分析的多視角步態(tài)識(shí)別算法.pdf
- 基于多源信息的步態(tài)識(shí)別算法研究.pdf
- 基于子空間人臉識(shí)別算法的研究.pdf
- 基于子空間人臉識(shí)別算法的研究
- 基于多視角學(xué)習(xí)的餐具檢測(cè)和識(shí)別算法研究.pdf
- 基于小波描述子和人體骨架模型的多視角融合步態(tài)識(shí)別.pdf
- 基于改進(jìn)稀疏子空間學(xué)習(xí)算法的人臉識(shí)別研究.pdf
- 基于機(jī)器學(xué)習(xí)和多視角信息融合的步態(tài)識(shí)別系統(tǒng)的研究.pdf
- 基于多類特征融合的步態(tài)識(shí)別算法.pdf
- 基于共享子空間學(xué)習(xí)的多視角數(shù)據(jù)分析.pdf
- 多視角局部子空間學(xué)習(xí)方法研究.pdf
- 基于步態(tài)的身份識(shí)別算法研究.pdf
- 基于子空間分析的臉識(shí)別算法研究.pdf
- 基于子空間學(xué)習(xí)的行人再識(shí)別研究.pdf
- 基于數(shù)據(jù)重構(gòu)的子空間人臉識(shí)別算法研究.pdf
- 基于自適應(yīng)隨機(jī)深度子空間的魯棒性步態(tài)識(shí)別.pdf
- 基于子空間方法的人臉識(shí)別算法研究.pdf
- 基于步態(tài)特征的身份識(shí)別算法研究.pdf
- 基于子空間分析的手背靜脈識(shí)別算法研究.pdf
評(píng)論
0/150
提交評(píng)論