2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩70頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、研發(fā)可用于自然場(chǎng)景中的自動(dòng)人臉表情識(shí)別系統(tǒng)是人機(jī)交互的重要目標(biāo)之一,然而自然場(chǎng)景中人的頭部是不斷運(yùn)動(dòng)的,因此想要把人臉表情識(shí)別系統(tǒng)應(yīng)用于現(xiàn)實(shí)場(chǎng)景中首先要解決圖像中不斷變化的人臉姿態(tài)問題。現(xiàn)階段任意姿態(tài)人臉表情識(shí)別系統(tǒng)主要可以分為三類:1)分別為每種人臉姿態(tài)的表情圖像建立對(duì)應(yīng)的表情識(shí)別模型;2)忽略姿態(tài)因素,為各種姿態(tài)的人臉表情圖像建立單一的表情識(shí)別模型;3)通過建立不同姿態(tài)間映射關(guān)系進(jìn)行姿態(tài)歸一化,為不同姿態(tài)的人臉表情圖像建立統(tǒng)一的表情

2、識(shí)別模型。第一種多分類器方式需要根據(jù)姿態(tài)的不同訓(xùn)練眾多模型,且需要為每個(gè)模型單獨(dú)調(diào)節(jié)參數(shù)。第二種單一分類器無法去除姿態(tài)的干擾信息也必然會(huì)影響模型最終的表情識(shí)別率。第三種統(tǒng)一分類器多是通過定位人臉關(guān)鍵特征點(diǎn)學(xué)習(xí)非正臉圖像與正臉圖像映射關(guān)系的方法提取對(duì)姿態(tài)具有魯棒性的特征,從而使任意姿態(tài)的人臉表情識(shí)別任務(wù)可以在一個(gè)統(tǒng)一的模型中完成。這很大程度依賴于關(guān)鍵特征點(diǎn)定位的準(zhǔn)確性,尤其是側(cè)臉狀態(tài)下的關(guān)鍵特征點(diǎn)定位目前仍然存在很大困難。因此為了解決這三

3、種方法所存在的問題,本文提出基于層次狄利克雷模型和快速自動(dòng)編碼器的任意姿態(tài)人臉表情識(shí)別方法。文章的主要內(nèi)容如下:
 ?。?)提出基于層次狄利克雷模型的任意姿態(tài)人臉分割、人臉表情識(shí)別方法。針對(duì)當(dāng)人臉表情圖像中人臉姿態(tài)變化復(fù)雜時(shí)需要為每種姿態(tài)分別建立模型和調(diào)節(jié)參數(shù)而引起的模型效率低的問題,以及忽略姿態(tài)因素為不同姿態(tài)建立單一模型帶來的模型識(shí)別率低的問題,提出基于層次狄利克雷模型的任意姿態(tài)人臉關(guān)鍵區(qū)域分割、人臉表情識(shí)別方法。該方法通過將姿

4、態(tài)因素加入傳統(tǒng)狄利克雷模型中,由主題模型學(xué)習(xí)中間層特征,使模型在學(xué)習(xí)過程中可以共享不同姿態(tài)之間的特征信息,從而使任意姿態(tài)人臉表情識(shí)別任務(wù)可在一個(gè)完整統(tǒng)一的模型中完成。通過構(gòu)建人臉關(guān)鍵區(qū)域分割、人臉表情識(shí)別的層次結(jié)構(gòu)得到一種從粗糙到精細(xì)的表情識(shí)別模型,從而提高模型的效率。通過結(jié)合局部紋理特征和其所對(duì)應(yīng)的幾何特征學(xué)習(xí)得到特征之間的幾何約束,從而提高模型的穩(wěn)定性與識(shí)別率。在 RAFD和BU-3DFE兩個(gè)公開人臉表情數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果表明,與現(xiàn)

5、階段所提方法在同等條件下相比,該方法能有效解決人臉表情圖像中不斷變化的姿態(tài)問題,將最終的平均表情識(shí)別率提高了0.4%~16.2%。
 ?。?)提出基于空間連貫特征的快速任意姿態(tài)人臉表情識(shí)別方法。針對(duì)人臉表情識(shí)別中出現(xiàn)的由于特征點(diǎn)定位不準(zhǔn)確而影響任意姿態(tài)人臉表情識(shí)別結(jié)果的問題,以及層次狄利克雷模型中隨著姿態(tài)不斷增加而引起模型復(fù)雜度逐漸增加的問題,提出基于空間連貫特征的快速任意姿態(tài)人臉表情識(shí)別方法。該方法通過將任意姿態(tài)的非正臉圖像從像

6、素級(jí)別將其映射為所對(duì)應(yīng)的正臉圖像,避免了特征點(diǎn)定位不準(zhǔn)確的問題。通過基于對(duì)表情貢獻(xiàn)較大的關(guān)鍵區(qū)域的無監(jiān)督特征學(xué)習(xí)方法提取對(duì)光照、圖像扭曲等因素更具魯棒性的特征,提高了模型的效率以及表情的識(shí)別率。通過將無監(jiān)督特征學(xué)習(xí)得到的學(xué)習(xí)型特征與其所對(duì)應(yīng)的關(guān)鍵區(qū)域的幾何信息相結(jié)合,形成具有空間連貫特性的混合特征,提高了模型的效率和穩(wěn)定性。在公開的包含任意姿態(tài)人臉表情識(shí)別圖像的標(biāo)準(zhǔn)庫(kù)BU-3DFE上,從多個(gè)方面驗(yàn)證了所提方法的有效性,實(shí)驗(yàn)結(jié)果表明該方法

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論