版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、語(yǔ)音情感識(shí)別是情感計(jì)算研究方向的重要研究分支,它通過(guò)分析語(yǔ)音中情感的特征,進(jìn)而識(shí)別語(yǔ)音中的情感狀態(tài)。語(yǔ)音情感識(shí)別在翻譯系統(tǒng)、航線(xiàn)監(jiān)控系統(tǒng)、E-learning、移動(dòng)智能終端等領(lǐng)域有廣泛應(yīng)用。由于集成多分類(lèi)器已經(jīng)被證明比單一分類(lèi)器具有更好的識(shí)別效果,聚類(lèi)集成使用反映樣本內(nèi)在結(jié)構(gòu)的聚類(lèi)信息輔助識(shí)別,以提高分類(lèi)器的整體識(shí)別率,因此,本文的主要工作是從增量學(xué)習(xí)和融合算法兩個(gè)方面結(jié)合聚類(lèi)信息探索高效、準(zhǔn)確、泛化性能好的語(yǔ)音情感識(shí)別方法。論文主要工
2、作內(nèi)容如下:
(1)提出基于結(jié)合聚類(lèi)信息和多分類(lèi)器集成的語(yǔ)音情感融合識(shí)別方法。在使用多分類(lèi)器集成的語(yǔ)音情感識(shí)別方法中,為了將聚類(lèi)信息融入到語(yǔ)音情感識(shí)別中,同時(shí)避免因語(yǔ)音信號(hào)情感特征分布誤差導(dǎo)致分類(lèi)器總體識(shí)別率低的問(wèn)題,提出基于結(jié)合聚類(lèi)信息和多分類(lèi)器集成的語(yǔ)音情感融合識(shí)別方法。首先使用語(yǔ)音情感訓(xùn)練樣本訓(xùn)練多個(gè)基本分類(lèi)器,使用多種聚類(lèi)方法對(duì)訓(xùn)練樣本進(jìn)行聚類(lèi)劃分;然后為了得到每種聚簇劃分中聚簇號(hào)和類(lèi)別之間的對(duì)應(yīng)關(guān)系,使用圖聚類(lèi)標(biāo)簽傳
3、播算法計(jì)算聚簇類(lèi)別信息。將測(cè)試樣本的聚類(lèi)類(lèi)別信息和基本分類(lèi)器的預(yù)測(cè)結(jié)果使用協(xié)議最大化方法進(jìn)行語(yǔ)音情感識(shí)別。實(shí)驗(yàn)結(jié)果表明:使用圖聚類(lèi)標(biāo)簽傳播算法后,集成多分類(lèi)器的總體識(shí)別率比原有集成多分類(lèi)器提高了8.33%,對(duì)六類(lèi)典型情感的識(shí)別率提高至73.89%,比SVM和Ada Boost高出3.33%和8.99%。
(2)提出基于動(dòng)態(tài)增量學(xué)習(xí)的語(yǔ)音情感識(shí)別方法。由于樣本之間的分布差異導(dǎo)致樣本間的聚類(lèi)信息存在誤差,為了提高結(jié)合聚類(lèi)信息的集成
4、多分類(lèi)器的泛化能力,則對(duì)該集成多分類(lèi)器進(jìn)行增量學(xué)習(xí)。首先根據(jù)訓(xùn)練樣本的聚類(lèi)劃分動(dòng)態(tài)選擇近鄰訓(xùn)練樣本對(duì)新增測(cè)試樣本進(jìn)行融合識(shí)別;然后根據(jù)選定近鄰樣本的識(shí)別結(jié)果對(duì)集成多分類(lèi)器中的聚類(lèi)信息進(jìn)行增量學(xué)習(xí),如果選定近鄰樣本的識(shí)別率低于設(shè)定閾值,則將新增測(cè)試樣本及錯(cuò)誤識(shí)別的樣本歸為一個(gè)新簇,并重新計(jì)算集成多分類(lèi)器的聚類(lèi)信息,否則直接將新增測(cè)試樣本加入訓(xùn)練樣本集便于后續(xù)樣本的識(shí)別。將此算法應(yīng)用于語(yǔ)音情感識(shí)別,實(shí)驗(yàn)結(jié)果表明,該方法對(duì)6種典型情感的平均識(shí)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于ANN和GMM融合的語(yǔ)音情感識(shí)別方法的研究.pdf
- 基于特征融合的語(yǔ)音情感識(shí)別方法的研究.pdf
- 基于深度學(xué)習(xí)和遷移學(xué)習(xí)的語(yǔ)音情感識(shí)別方法研究.pdf
- 基于流形學(xué)習(xí)的語(yǔ)音情感識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的語(yǔ)音情感識(shí)別方法的研究.pdf
- 基于多粒度特征融合的維度語(yǔ)音情感識(shí)別方法研究.pdf
- 基于RBF的語(yǔ)音情感識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的文本語(yǔ)音耦合情感識(shí)別方法研究.pdf
- 基于稀疏表示的語(yǔ)音情感特征學(xué)習(xí)與識(shí)別方法研究.pdf
- 自適應(yīng)語(yǔ)音情感識(shí)別方法研究.pdf
- 語(yǔ)音情感識(shí)別方法及其應(yīng)用研究.pdf
- 多特征結(jié)合的語(yǔ)音情感識(shí)別方法研究.pdf
- 基于集成學(xué)習(xí)的人臉識(shí)別方法研究.pdf
- 基于高層信息融合的短語(yǔ)音說(shuō)話(huà)人識(shí)別方法研究.pdf
- 語(yǔ)音情感特征提取及識(shí)別方法研究.pdf
- 基于主動(dòng)學(xué)習(xí)的語(yǔ)音情感識(shí)別研究.pdf
- 基于特征融合的光纖周界入侵行為集成識(shí)別方法研究.pdf
- 基于分類(lèi)方法的語(yǔ)音情感識(shí)別研究.pdf
- 基于生理信號(hào)的情感識(shí)別方法研究.pdf
- 基于特征融合和SVM的步態(tài)識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論