2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩135頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、包括情感計(jì)算和情感識(shí)別在內(nèi),以人為中心的,對(duì)人的情感和認(rèn)知的研究是目前人工智能領(lǐng)域的一個(gè)熱點(diǎn)研究方向。對(duì)這一方向的研究將有助于推動(dòng)實(shí)現(xiàn)人與機(jī)器之間的自然交互。雖然目前情感計(jì)算和情感識(shí)別的研究已經(jīng)取得了初步的成果,但是由于缺乏堅(jiān)實(shí)的心理學(xué)和認(rèn)知科學(xué)的理論基礎(chǔ),在研究中還存在諸多待解決的關(guān)鍵問(wèn)題。本文就人臉表情識(shí)別系統(tǒng)所涉及的特征選擇和識(shí)別方法進(jìn)行研究。這些研究工作不僅能推動(dòng)計(jì)算機(jī)表情識(shí)別、計(jì)算機(jī)情感仿真等的進(jìn)展,而且對(duì)于自然人機(jī)交互、遠(yuǎn)程

2、教育、醫(yī)療看護(hù)、游戲娛樂(lè)等應(yīng)用領(lǐng)域都有重要意義。
   本文以粗糙集理論為基礎(chǔ),研究了粗糙集屬性約簡(jiǎn)算法,并把粗糙集屬性約簡(jiǎn)算法作為一種人臉表情識(shí)別系統(tǒng)的特征選擇方法。根據(jù)人臉幾何特征直觀(guān)性好的優(yōu)點(diǎn),以人臉的幾何特征作為研究對(duì)象,對(duì)人臉表情識(shí)別的重要特征進(jìn)行研究。此外,本文還基于粗糙集理論,結(jié)合集成學(xué)習(xí)理論,對(duì)人臉表情識(shí)別方法進(jìn)行研究。取得的主要研究成果如下:
   1)提出了基于粗糙集屬性約簡(jiǎn)的人臉表情識(shí)別的特征選擇方

3、法。
   本文引入粗糙集理論,提出了采用粗糙集屬性約簡(jiǎn)算法作為一種人臉表情識(shí)別的特征選擇方法?;诮?jīng)典粗糙集理論,采用基于信息熵的屬性約簡(jiǎn)算法和特征選擇的屬性約簡(jiǎn)算法對(duì)人臉表情識(shí)別采用的特征進(jìn)行了特征選擇,并提出了一種RS+SVM的人臉表情識(shí)別方法。研究結(jié)果表明,相比較傳統(tǒng)的特征選擇算法,粗糙集屬性約簡(jiǎn)方法不僅能有效地降低特征的維度、得到人臉表情識(shí)別的重要特征,而且基于這些重要特征,能得到較好的人臉表情識(shí)別結(jié)果。
  

4、 2)提出了自主式的人臉表情特征選擇算法。
   本文基于粗糙集理論和面向領(lǐng)域的數(shù)據(jù)驅(qū)動(dòng)的數(shù)據(jù)挖掘模型思想,對(duì)連續(xù)值信息系統(tǒng)的屬性約簡(jiǎn)方法進(jìn)行了研究,提出了一個(gè)自主式的屬性約簡(jiǎn)算法,首先,將條件屬性集對(duì)決策的可區(qū)分性作為知識(shí)的一種屬性特征,并基于粗糙集理論提出一種可區(qū)分性的度量方法。然后,根據(jù)在知識(shí)獲取過(guò)程中可區(qū)分性的不變性原則,提出了一個(gè)針對(duì)連續(xù)值信息系統(tǒng)的自主式屬性約簡(jiǎn)算法(SARA),該算法可以從訓(xùn)練數(shù)據(jù)中自動(dòng)獲取控制學(xué)習(xí)

5、過(guò)程所需要的參數(shù)。研究結(jié)果表明,該方法在不依賴(lài)于領(lǐng)域?qū)<蚁闰?yàn)知識(shí)的情況下也能得到很好的結(jié)果。本文把SARA作為一種人臉表情識(shí)別的特征選擇方法,把SARA挑選的表情特征應(yīng)用于人臉表情識(shí)別,得到了很好的人臉表情識(shí)別結(jié)果,同時(shí)還得到了在人臉的幾何特征中嘴部的特征對(duì)人臉表情識(shí)別起到最重要作用的結(jié)論。
   3)基于粗糙集理論和集成學(xué)習(xí)理論,提出了一種選擇性集成的人臉表情識(shí)別方法。
   首先,基于經(jīng)典粗糙集理論的可辨識(shí)矩陣求出信

6、息系統(tǒng)的多個(gè)約簡(jiǎn),并對(duì)得到的多個(gè)約簡(jiǎn)訓(xùn)練多個(gè)候選分類(lèi)器。然后,基于雙誤的差異性度量方法,對(duì)候選分類(lèi)器按差異度進(jìn)行聚類(lèi)。最后,采用選擇性集成的策略,從每?jī)深?lèi)候選分類(lèi)器中選擇出差異性最大的分類(lèi)器進(jìn)行相對(duì)多數(shù)投票,得到集成的輸出結(jié)果。仿真實(shí)驗(yàn)結(jié)果表明,該方法得到了良好的表情識(shí)別結(jié)果。
   4)基于擴(kuò)展的粗糙集理論和集成學(xué)習(xí)理論,提出了一種動(dòng)態(tài)選擇的人臉表情識(shí)別方法。
   首先,基于面向領(lǐng)域的數(shù)據(jù)驅(qū)動(dòng)的數(shù)據(jù)挖掘模型思想,提出

7、了一個(gè)求核屬性的算法和一個(gè)基于信息熵的求多個(gè)屬性約簡(jiǎn)的算法。然后采用該方法求出信息系統(tǒng)的多個(gè)約簡(jiǎn),并根據(jù)得到的多個(gè)約簡(jiǎn)訓(xùn)練候選分類(lèi)器集合。最后,根據(jù)多分類(lèi)器的本地精確性,基于動(dòng)態(tài)選擇的策略從候選分類(lèi)器集合中挑選出最優(yōu)的分類(lèi)器對(duì)待識(shí)別的樣本進(jìn)行分類(lèi)識(shí)別。該方法成功用于直接處理人臉表情特征的連續(xù)值屬性,仿真實(shí)驗(yàn)結(jié)果表明,該方法得到了良好的表情識(shí)別結(jié)果。
   5)開(kāi)發(fā)了一個(gè)語(yǔ)音和視頻的雙模情感識(shí)別系統(tǒng)
   基于本文的研究成

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論