

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著智能計(jì)算的發(fā)展,人們逐漸習(xí)慣于通過人機(jī)交互解決社會(huì)生活中遇到的問題。計(jì)算智能體如果可以了解和掌握人類內(nèi)在的情感體驗(yàn),就可以提高人機(jī)交互的合理性和協(xié)同性,實(shí)現(xiàn)生動(dòng)、無縫的交互??紤]到情感計(jì)算與現(xiàn)實(shí)研究的復(fù)雜性,本文以面部表情的實(shí)時(shí)分析研究為基礎(chǔ),探討被觀測(cè)主體的外在面部表情表達(dá)與內(nèi)在情感體驗(yàn)之間的聯(lián)系機(jī)制,取得了以下主要研究成果:
提出基于張量的坐標(biāo)空間變換方法,將面部特征矢量從像素空間轉(zhuǎn)換到參數(shù)空間,統(tǒng)一矢量維度,降低
2、數(shù)據(jù)處理的復(fù)雜度,提高實(shí)時(shí)分析的效率和準(zhǔn)確率。理論證明了進(jìn)行張量空間轉(zhuǎn)換的合理性,實(shí)現(xiàn)了面部特征矢量的幾何和物理特性在空間變換的過程中保持不變。實(shí)驗(yàn)驗(yàn)證了該方法可以有效的提高面部表情識(shí)別的精度和實(shí)時(shí)分析的效率。
從智能認(rèn)知的角度,定義組織環(huán)境和個(gè)體面部表情分析模型。組織環(huán)境中的參與主體受組織規(guī)范約束,增強(qiáng)了分析研究的可操作性和可信性;個(gè)體模型對(duì)組織環(huán)境中特定的主體進(jìn)行面部表情識(shí)別分析,通過模型間的協(xié)同交互迭代傳遞主體的面部
3、表情聚類結(jié)構(gòu),完善模型自身的分析能力。由協(xié)同交互改進(jìn)的面部表情識(shí)別算法收斂更快,并給出全局優(yōu)化的面部表情聚類分布。
在個(gè)體模型的基礎(chǔ)上,建立面部表情的貝葉斯網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)參與主體面部表情的動(dòng)因分析和預(yù)測(cè)推理。引入?yún)f(xié)同交互改進(jìn)面部表情網(wǎng)絡(luò)的結(jié)構(gòu)學(xué)習(xí)算法,提高了面部表情網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)質(zhì)量。在構(gòu)建的面部表情網(wǎng)絡(luò)中,可以實(shí)時(shí)分析影響主體面部表情表達(dá)的環(huán)境動(dòng)因,以及預(yù)測(cè)主體下一時(shí)刻最有可能表達(dá)的面部表情狀態(tài)。該方法為通過面部表情分析情
4、感體驗(yàn)做了基礎(chǔ)準(zhǔn)備。
基于上述研究,設(shè)計(jì)了通過面部表情研究情感體驗(yàn)一致性分布的分析模型。該模型用以發(fā)現(xiàn)主體是否隱藏了應(yīng)該表達(dá)的情感特征,其面部表情表達(dá)與內(nèi)在的情感體驗(yàn)是否一致。模型將面部表情特征和面部表情狀態(tài)定義為情感特征證據(jù),結(jié)合協(xié)同依賴的評(píng)估算法實(shí)現(xiàn)對(duì)情感體驗(yàn)的協(xié)調(diào)度一致性分析,給出主體的情感體驗(yàn)分布圖。該分布圖是最具“個(gè)性化的”面部表情分析和情感計(jì)算認(rèn)知結(jié)果。
綜上所述,該研究工作在較高層次上對(duì)人類外在
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于姿態(tài)和表情的雙模態(tài)情感識(shí)別方法研究
- 基于姿態(tài)和表情的雙模態(tài)情感識(shí)別方法研究.pdf
- 基于人臉表情識(shí)別的情感研究.pdf
- 基于表情和語音雙模態(tài)的兒童情感識(shí)別研究.pdf
- 基于面部表情的情感計(jì)算建模系統(tǒng).pdf
- 基于面部表情和生理信號(hào)的雙模態(tài)情感識(shí)別研究.pdf
- 基于改進(jìn)PAD情感模型的表情識(shí)別研究.pdf
- 基于情感模型的表情識(shí)別及應(yīng)用研究.pdf
- 融合人臉表情和語音的雙模態(tài)情感識(shí)別研究.pdf
- 基于情感幾何特征和支持向量機(jī)的人臉表情識(shí)別研究.pdf
- 基于表情時(shí)空特征的認(rèn)知情感狀態(tài)識(shí)別研究.pdf
- 人臉面部表情的情感識(shí)別研究.pdf
- 基于面部表情分析的情感語音識(shí)別.pdf
- 基于統(tǒng)計(jì)方法的面部表情識(shí)別研究.pdf
- 基于交互式進(jìn)化計(jì)算的虛擬表情建模.pdf
- 融合面部表情的語音情感識(shí)別研究.pdf
- 基于動(dòng)態(tài)表情識(shí)別的情感計(jì)算技術(shù).pdf
- 基于特征融合和稀疏表示的表情識(shí)別方法研究.pdf
- 基于K階情感強(qiáng)度模型的動(dòng)態(tài)表情識(shí)別.pdf
- 基于深度學(xué)習(xí)的表情識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論