版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、近年來(lái),人機(jī)交互日趨成為國(guó)內(nèi)外研究的熱點(diǎn)之一。用戶(hù)與虛擬系統(tǒng)的交互也成為人們探索的重點(diǎn)。人手作為人類(lèi)交流的一種重要方式,自然而然成為科學(xué)家們的興趣點(diǎn)之一。如何通過(guò)人手指令信息與虛擬系統(tǒng)進(jìn)行交互是一項(xiàng)重要的研究課題。傳統(tǒng)的人機(jī)交互多借助于諸如數(shù)據(jù)手套、位置跟蹤儀之類(lèi)的外部設(shè)備進(jìn)行交互。這些交互方式比較笨重繁瑣,限制了人類(lèi)的交互自由,違背了人類(lèi)自然交互的意愿。
基于視覺(jué)的手勢(shì)交互通過(guò)對(duì)自然人手的動(dòng)作信息進(jìn)行捕捉完成同虛擬系統(tǒng)的交互
2、任務(wù)?;谝曈X(jué)的手勢(shì)交互一般僅需要一個(gè)或者多個(gè)攝像頭來(lái)記錄手勢(shì)信息,人手不需要佩戴其他電子設(shè)備,擺脫了可穿戴式電子設(shè)備的束縛。基于視覺(jué)的手勢(shì)交互研究一般包括手勢(shì)分割、跟蹤、特征提取和識(shí)別四個(gè)部分。手勢(shì)識(shí)別在人機(jī)交互領(lǐng)域占有十分重要的地位。準(zhǔn)確的手勢(shì)識(shí)別能夠保證交互的順利進(jìn)行。
本論文依托國(guó)家自然科學(xué)基金(No.61173079)“基于認(rèn)知機(jī)理和手勢(shì)動(dòng)畫(huà)的三維人機(jī)交互界面研究”和山東省自然科學(xué)基金重點(diǎn)項(xiàng)目(No.ZR2011FZ
3、003)“面向自然人手跟蹤的3D人機(jī)交互界面中的關(guān)鍵問(wèn)題研究”項(xiàng)目基金的支持,對(duì)單目攝像頭條件下的手勢(shì)識(shí)別問(wèn)題進(jìn)行了研究。具體研究?jī)?nèi)容如下:
(1)建立了基于單目攝像頭的虛擬裝配平臺(tái)。主要運(yùn)用OpenGL、OpenCV、3DMAX等技術(shù)實(shí)現(xiàn)該裝配平臺(tái)的搭建與組裝。通過(guò)攝像頭獲取人手的圖像信息,虛擬系統(tǒng)接收到人手圖像信息后對(duì)其進(jìn)行分析處理,并根據(jù)得出的手勢(shì)分析結(jié)果作出相應(yīng)的交互反應(yīng)。
(2)手勢(shì)分割和特征提取是手勢(shì)識(shí)別
4、的重要前提。本文對(duì)RGB空間下獲取的手勢(shì)膚色特征進(jìn)行高斯建模,采用訓(xùn)練好的高斯模型進(jìn)行手勢(shì)分割。特征提取方面,我們使用了基于二值圖像的密度分布特征方法和輪廓點(diǎn)檢測(cè)方法進(jìn)行提取。密度分布特征的方法具有平移不變性、縮放不變性和旋轉(zhuǎn)不變形的優(yōu)點(diǎn),輪廓點(diǎn)檢測(cè)的方法能夠?qū)⒅讣庥行У靥崛〕鰜?lái),從而得到比較準(zhǔn)確的手勢(shì)圖像特征參數(shù)。
(3)本文提出了兩種語(yǔ)義手勢(shì)識(shí)別方法:區(qū)間比例算法和圖像融合法。首先提出了一種語(yǔ)義手勢(shì)的概念,并對(duì)其進(jìn)行了簡(jiǎn)單
5、的分類(lèi)。區(qū)間比例方法通過(guò)對(duì)手勢(shì)圖像的有效分區(qū)獲得有效特征,并采用歐氏距離的方法進(jìn)行手勢(shì)識(shí)別;圖像融合法則是將語(yǔ)義手勢(shì)的所有動(dòng)態(tài)圖像信息融合在一幅圖像中,通過(guò)對(duì)一幅靜態(tài)圖的識(shí)別完成語(yǔ)義手勢(shì)的識(shí)別。這兩種方法都有令人滿意的識(shí)別效果。
(4)本文將認(rèn)知心理學(xué)的相關(guān)理論成果用于本文的研究,提出了一種認(rèn)知行為模型進(jìn)行語(yǔ)義手勢(shì)的識(shí)別。首先,分析本文建立的虛擬雪人裝配場(chǎng)景,設(shè)置手勢(shì)的識(shí)別點(diǎn),選用大量的實(shí)驗(yàn)者來(lái)獲取認(rèn)知信息,并訓(xùn)練基于該交互場(chǎng)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于認(rèn)知行為模型庫(kù)和Kinect平臺(tái)的實(shí)時(shí)手勢(shì)跟蹤算法研究.pdf
- 基于視覺(jué)信息的手勢(shì)識(shí)別算法與模型研究.pdf
- 基于智能算法的鼠標(biāo)手勢(shì)識(shí)別的應(yīng)用研究.pdf
- 基于多特征的手勢(shì)識(shí)別算法研究與應(yīng)用.pdf
- 基于OpenCV的實(shí)時(shí)手勢(shì)識(shí)別與應(yīng)用研究.pdf
- 基于視覺(jué)的手勢(shì)識(shí)別及其應(yīng)用研究.pdf
- 基于空間序列遞歸模型的手勢(shì)識(shí)別算法研究.pdf
- 基于視覺(jué)的手勢(shì)識(shí)別及其交互應(yīng)用研究.pdf
- 基于單目視覺(jué)的手勢(shì)識(shí)別應(yīng)用研究.pdf
- 基于視覺(jué)的手勢(shì)識(shí)別算法研究與實(shí)現(xiàn).pdf
- 基于視覺(jué)的手勢(shì)識(shí)別算法研究.pdf
- 認(rèn)知行為
- 積極認(rèn)知行為療法與認(rèn)知-行為療法的對(duì)比研究.pdf
- 手勢(shì)識(shí)別及其應(yīng)用研究.pdf
- 手勢(shì)識(shí)別技術(shù)的應(yīng)用研究.pdf
- 基于深度圖像的手勢(shì)識(shí)別方法與應(yīng)用研究.pdf
- 動(dòng)態(tài)手勢(shì)識(shí)別及應(yīng)用研究.pdf
- 基于膚色和SVM的手勢(shì)識(shí)別及其應(yīng)用研究.pdf
- 基于Kinect的手勢(shì)識(shí)別研究與應(yīng)用.pdf
- 針對(duì)手臉交互行為的手勢(shì)識(shí)別算法研究.pdf
評(píng)論
0/150
提交評(píng)論