版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、人體行為識(shí)別在視頻監(jiān)控和人機(jī)交互中具有重要應(yīng)用,是一個(gè)既重要又富有挑戰(zhàn)性的課題。傳統(tǒng)行為識(shí)別大都作用在RGB圖像序列上,由于可見光相機(jī)獲得的數(shù)據(jù)信息會(huì)受到光照、陰影和環(huán)境變化等因素的干擾,影響了行為識(shí)別的準(zhǔn)確性。隨著傳感技術(shù)的發(fā)展,尤其是微軟推出Kinect設(shè)備后,獲得深度圖像的代價(jià)急速下降,激發(fā)了學(xué)者們研究和應(yīng)用該類圖像的興趣。深度圖像和可見光圖像不同,深度圖像受到光照、陰影、色度、環(huán)境變化等外界影響比較小,影響深度圖像的只是物體的空
2、間位置,在一定程度上,根據(jù)距離信息可以解決利用RGB圖像進(jìn)行行為識(shí)別時(shí)難以將人體分割出來(lái)的問題。因此,本文主要研究基于深度數(shù)據(jù)和深度數(shù)據(jù)與RGB圖像結(jié)合的人體行為識(shí)別的問題,研究重點(diǎn)集中于人體運(yùn)動(dòng)變化過程的描述和行為特征的提取上。主要研究成果如下:
1、為了很好地捕獲人體運(yùn)動(dòng)變化過程,本文首先定義了一種新的基于深度數(shù)據(jù)的運(yùn)動(dòng)歷史圖像,即深度差值運(yùn)動(dòng)歷史圖像,在此基礎(chǔ)上,提出一種新的RGB圖前景分割方法,該方法將去除背景的深度圖
3、與RGB圖進(jìn)行對(duì)應(yīng)像素相乘,從而獲得RGB圖像中人體的大概區(qū)域,然后再捕獲RGB視頻序列的人體運(yùn)動(dòng)變化過程,即深度限制RGB圖差值運(yùn)動(dòng)歷史圖像,這種差值運(yùn)動(dòng)歷史圖像比傳統(tǒng)的運(yùn)動(dòng)歷史圖像更好的描述人體運(yùn)動(dòng)變化過程。
2、由于不同物體從不同視角去觀察能夠獲得不同的信息,且這些信息具有一定的互補(bǔ)作用,有助于提高行為識(shí)別的準(zhǔn)確性。因此本文提出了利用人體運(yùn)動(dòng)變化過程的側(cè)軸投影法(正投影圖/上投影圖/左投影圖)來(lái)描述不同視角下的人體運(yùn)動(dòng)變
4、化過程。
3、在目前的研究中,基于深度數(shù)據(jù)的行為識(shí)別已經(jīng)取得了一定的進(jìn)展,但還沒有一個(gè)公認(rèn)的、魯棒性好的行為描述子,因此本文提出了一種能較好的捕獲人體運(yùn)動(dòng)空間分布的分層分塊均值特征,并引入成功應(yīng)用于場(chǎng)景分割的GIST和PHOG特征作為行為描述子,進(jìn)一步提出使用融合特征作為人體行為描述子。實(shí)驗(yàn)證明本文提出的行為特征具有很好的魯棒性和區(qū)分性,其識(shí)別率遠(yuǎn)高于一些具有代表性的行為描述子。
4、雖然深度圖像有著各種優(yōu)點(diǎn),但是可
溫馨提示
- 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度數(shù)據(jù)的人體動(dòng)作識(shí)別.pdf
- 基于深度數(shù)據(jù)包檢測(cè)與深度數(shù)據(jù)流檢測(cè)相結(jié)合的業(yè)務(wù)識(shí)別技術(shù)研究.pdf
- 基于Kinect深度數(shù)據(jù)及組合特征的靜態(tài)手勢(shì)識(shí)別研究.pdf
- Kinect深度數(shù)據(jù)修復(fù)算法研究.pdf
- 融合深度數(shù)據(jù)的人機(jī)交互手勢(shì)識(shí)別研究.pdf
- 基于深度數(shù)據(jù)的虛擬人重建與蒙皮動(dòng)畫算法.pdf
- 基于Kinect深度數(shù)據(jù)輔助的機(jī)器人帶噪語(yǔ)音識(shí)別.pdf
- 基于自學(xué)習(xí)的深度數(shù)據(jù)恢復(fù).pdf
- 深度數(shù)據(jù)包和深度數(shù)據(jù)流檢測(cè)技術(shù)研究.pdf
- 結(jié)合深度數(shù)據(jù)和AdaBoost的人臉檢測(cè)算法研究.pdf
- 基于多視角彩色—深度數(shù)據(jù)的物體三維重建算法研究.pdf
- 彭悅 3d深度數(shù)據(jù)的精度優(yōu)化算法研究
- 基于深度數(shù)據(jù)的人體視頻編輯.pdf
- 基于深度視覺的物體識(shí)別算法研究.pdf
- 基于深度數(shù)據(jù)的人臉旋轉(zhuǎn)角度估計(jì)及三維人臉識(shí)別的研究.pdf
- 動(dòng)態(tài)深度數(shù)據(jù)匹配及其應(yīng)用.pdf
- 基于行為圖像區(qū)域的行為識(shí)別算法研究.pdf
- 基于深度序列的人體行為識(shí)別研究.pdf
- 面向深度數(shù)據(jù)包檢測(cè)的正則表達(dá)式匹配算法研究.pdf
- 基于深度學(xué)習(xí)的人臉識(shí)別算法.pdf
評(píng)論
0/150
提交評(píng)論