版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著現(xiàn)代技術(shù)的發(fā)展,人們對(duì)智能化生活的要求越來(lái)越高,計(jì)算機(jī)視覺(jué)和模式識(shí)別技術(shù)作為推動(dòng)人類生活智能化的重要技術(shù),獲得廣泛關(guān)注并取得快速發(fā)展。作為計(jì)算機(jī)視覺(jué)重要研究方向的人體動(dòng)作識(shí)別技術(shù)涉及到多個(gè)領(lǐng)域,具有巨大的使用價(jià)值和應(yīng)用前景,無(wú)數(shù)研究工作者針對(duì)這個(gè)課題進(jìn)行了大量研究,該課題已發(fā)展成為當(dāng)前最熱門的研究課題之一。
早期動(dòng)作視頻處理技術(shù)都是基于彩色RGB圖像的視頻處理方法,由于彩色圖像均由二維數(shù)據(jù)構(gòu)成,圖像易受光照影響,處理程序繁
2、瑣且效果不佳,所以尋找新的圖像表征方法成為人們的共識(shí)。Kinect深度傳感器的出現(xiàn)使我們能夠獲得深度圖像,深度圖像包含圖像深度信息和人體骨骼點(diǎn)信息。本文基于Kinect提取的骨骼點(diǎn)信息,對(duì)人體動(dòng)作識(shí)別方法進(jìn)行以下研究,主要內(nèi)容包括:
第一,闡述人體動(dòng)作識(shí)別課題的研究背景和意義,分析當(dāng)前國(guó)內(nèi)外人體動(dòng)作識(shí)別領(lǐng)域現(xiàn)狀和尚待解決的問(wèn)題。掌握動(dòng)作識(shí)別的具體流程,深入分析目標(biāo)檢測(cè)、特征表示、特征提取和分類識(shí)別等主流方法的優(yōu)缺點(diǎn)。認(rèn)識(shí)并研究
3、了當(dāng)前已有的人體動(dòng)作數(shù)據(jù)庫(kù)以及Kinect工作原理。
第二,本文提出了一種基于骨骼局部空間特征的人體動(dòng)作識(shí)別算法。該方法首先通過(guò)骨骼數(shù)據(jù)提取人體骨骼關(guān)節(jié)點(diǎn)的空間位置差特征、空間角度特征和關(guān)節(jié)夾角特征,并進(jìn)行歸一化,然后將得到的特征送入隱馬爾科夫模型分類器進(jìn)行分類和識(shí)別。通過(guò)在MSR3D Action數(shù)據(jù)庫(kù)上仿真實(shí)驗(yàn),證明該方法對(duì)于較復(fù)雜的動(dòng)作序列的有較好的識(shí)別效果,并且在高難度的交叉測(cè)試中相對(duì)已有方法識(shí)別率有所提高。
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于Kinect相機(jī)的人體行為識(shí)別方法研究.pdf
- 基于視頻的人體動(dòng)作識(shí)別方法研究.pdf
- 基于kinect的人體連續(xù)動(dòng)作識(shí)別研究.pdf
- 基于Kinect平臺(tái)融合視頻信息和骨骼點(diǎn)數(shù)據(jù)的人體動(dòng)作識(shí)別.pdf
- 基于kinect人體骨架模型的人體動(dòng)作識(shí)別研究.pdf
- 基于Kinect骨架信息的人體動(dòng)作識(shí)別.pdf
- 基于關(guān)節(jié)模型的人體動(dòng)作識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于Kinect的人體姿態(tài)估計(jì)與動(dòng)作識(shí)別.pdf
- 基于深度圖像和骨骼數(shù)據(jù)的人體動(dòng)作識(shí)別.pdf
- 基于立體視覺(jué)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于流形學(xué)習(xí)的人體動(dòng)作識(shí)別方法研究.pdf
- 基于視頻和三維動(dòng)作捕捉數(shù)據(jù)的人體動(dòng)作識(shí)別方法的研究.pdf
- 應(yīng)用Kinect的人體行為識(shí)別方法研究與系統(tǒng)設(shè)計(jì).pdf
- 基于分層時(shí)空特征模型的人體動(dòng)作識(shí)別方法研究.pdf
- 基于Kinect的人體動(dòng)作識(shí)別系統(tǒng)與實(shí)現(xiàn).pdf
- 基于高魯棒性特征的人體動(dòng)作識(shí)別方法研究.pdf
- 基于kinect的人體姿勢(shì)識(shí)別方法在舞蹈訓(xùn)練中的應(yīng)用
- 基于骨骼定位的人體動(dòng)作識(shí)別算法研究與實(shí)現(xiàn).pdf
- 視頻數(shù)據(jù)中人體動(dòng)作識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論