2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩133頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、在未來(lái)的人與計(jì)算機(jī)的交互中,計(jì)算機(jī)要感知人的意圖及行為在很大程度上需要依靠視覺(jué)系統(tǒng)。計(jì)算機(jī)視覺(jué)傳感器具有體積小、被動(dòng)性及非接觸式的特點(diǎn),可以應(yīng)用在任何場(chǎng)合。采用視覺(jué)對(duì)人體步態(tài)及行為識(shí)別已經(jīng)引起了人工智能與模式識(shí)別研究者的濃厚興趣,步態(tài)及行為識(shí)別技術(shù)的研究可以促進(jìn)人工智能和模式識(shí)別理論的發(fā)展,具有重要的理論意義;步態(tài)及行為識(shí)別技術(shù)在安全智能監(jiān)控,老年人監(jiān)護(hù),人員身份認(rèn)證等應(yīng)用中都起著至關(guān)重要的作用。
  然而由于現(xiàn)實(shí)環(huán)境及人體運(yùn)動(dòng)的

2、復(fù)雜性,步態(tài)及行為識(shí)別至今仍面臨較多的困難。本文研究的目的是為了提高步態(tài)及行為識(shí)別算法的性能,解決客觀環(huán)境對(duì)識(shí)別的影響,促使步態(tài)及行為識(shí)別技術(shù)朝著更實(shí)用化,實(shí)時(shí)性的方向發(fā)展。本課題的研究成果及主要?jiǎng)?chuàng)新點(diǎn)如下:
  (1)提出了基于紋理分析的運(yùn)動(dòng)人體分割方法
  針對(duì)在視頻圖像中,提取的前景人體圖像通常含有陰影,為消除陰影,提出采用紋理匹配的方式,使提取的前景人體圖像的紋理與背景相應(yīng)位置的紋理進(jìn)行匹配,如相近則判定為陰影。在進(jìn)

3、行匹配時(shí),為提取的前景人體圖像建立基于像素點(diǎn)的顏色及紋理的混合特征向量,采用支持向量機(jī)進(jìn)行特征向量分類。實(shí)驗(yàn)表明該方法有較好的分割效果。
  (2)研究了基于子空間的步態(tài)識(shí)別方法
  根據(jù)步態(tài)的輪廓圖像序列,計(jì)算出表達(dá)步態(tài)的特征圖像,即步態(tài)能量圖(GEI)及主動(dòng)能量圖(AEI),研究采用基于核的主成分分析法及基于核判別分析法對(duì)特征圖像進(jìn)行特征提取及降維,通過(guò)核映射將樣本數(shù)據(jù)映射到核空間,再在核空間中實(shí)施運(yùn)算,對(duì)運(yùn)算的特征向量

4、采用支持向量機(jī)進(jìn)行分類。實(shí)驗(yàn)表明該方法在固定的條件下有較好的識(shí)別率。
  (3)提出了基于稀疏表示的步態(tài)識(shí)別方法
  針對(duì)步態(tài)識(shí)別中識(shí)別率高的算法比較耗時(shí),難以實(shí)時(shí)應(yīng)用的問(wèn)題,提出建立以分段的幀差能量圖稀疏表示系數(shù)作為狀態(tài)特征的隱馬爾可夫模型,對(duì)步態(tài)的分段幀差能量圖進(jìn)行稀疏表達(dá),建立步態(tài)字典,通過(guò)快速稀疏分解算法,實(shí)現(xiàn)步態(tài)的快速識(shí)別。同時(shí)研究了基于重構(gòu)誤差的步態(tài)識(shí)別方法及基于區(qū)分字典的步態(tài)識(shí)別方法。實(shí)驗(yàn)表明該方法有較高識(shí)別率

5、及較少的識(shí)別時(shí)間,可以應(yīng)用在實(shí)時(shí)場(chǎng)合。
  (4)提出了基于動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)的步態(tài)識(shí)別方法
  針對(duì)穿外套、背包等衣著變化對(duì)步態(tài)識(shí)別結(jié)果的影響,提出了基于動(dòng)靜態(tài)信息相融合的動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)識(shí)別模型,從概率角度對(duì)模型進(jìn)行了推理與學(xué)習(xí),并對(duì)模型進(jìn)行了魯棒性分析。同時(shí)根據(jù)步態(tài)行走的多尺度信息,提出了基于雙尺度動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)及多信息融合的步態(tài)識(shí)別方法,從整體與局部特征出發(fā),建立動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)識(shí)別模型。實(shí)驗(yàn)表明該方法可以大大降低衣著變化對(duì)

6、步態(tài)識(shí)別結(jié)果的影響。
  (5)提出了人體連續(xù)行為分割與識(shí)別方法
  針對(duì)連續(xù)的、長(zhǎng)時(shí)間的、包含多種行為的運(yùn)動(dòng)序列無(wú)法分割問(wèn)題,提出了人體連續(xù)行為分割與識(shí)別方法,構(gòu)建動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)模型對(duì)分類的行為序列進(jìn)行識(shí)別;同時(shí)構(gòu)建基于時(shí)間序列的連續(xù)行為分類網(wǎng)絡(luò),通過(guò)兩次分割來(lái)得到最佳的行為分割,第一次采用視頻分段識(shí)別的方式實(shí)現(xiàn)粗分割,第二次采用Viterbi算法在粗分割的基礎(chǔ)上得到最佳的行為分類。實(shí)驗(yàn)表明該方法有較好的行為分割率及識(shí)別率

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論