

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、計(jì)算機(jī)學(xué)科的快速發(fā)展對(duì)人類(lèi)社會(huì)產(chǎn)生了巨大的影響,人類(lèi)與計(jì)算機(jī)之間的通信交流越來(lái)越成為計(jì)算機(jī)系統(tǒng)智能化、人性化的關(guān)鍵技術(shù),新型的人機(jī)交互技術(shù)正在逐步地成為研究的熱點(diǎn)。研究表明,在人機(jī)交互中需要解決的重要問(wèn)題之一是“情感智能”的能力。目前,對(duì)于情感信息處理的研究正處在起步階段,其中語(yǔ)音信號(hào)中的情感信息處理也越來(lái)越受到研究者的重視。語(yǔ)音情感識(shí)別是“情感計(jì)算”研究的一個(gè)重要分支,近年發(fā)展迅速,前景廣闊。
本文首先對(duì)情感語(yǔ)句進(jìn)行了預(yù)
2、加重、端點(diǎn)檢測(cè)、分幀加窗等預(yù)處理,為了提取能夠反映情感信息的特征參數(shù),統(tǒng)計(jì)分析了能量相關(guān)、基頻相關(guān)、時(shí)長(zhǎng)相關(guān)特征在不同情感狀態(tài)下的全局特征。在已經(jīng)提取的語(yǔ)音信號(hào)特征中,選用基音頻率的一、二階差分,短時(shí)能量的一、二階差分,10階LPCC和10階MFCC形成特征矢量,并歸一化作為識(shí)別階段的輸入。
介紹并分析了隱馬爾可夫(HMM)模型和徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBF)兩種識(shí)別方法各自的優(yōu)缺點(diǎn)。為了達(dá)到優(yōu)勢(shì)互補(bǔ)的目的,本文提出并建立了
3、基于HMM和RBF的混合識(shí)別模型。針對(duì)每一種語(yǔ)音情感,設(shè)計(jì)一個(gè)HMM模型。HMM模型訓(xùn)練準(zhǔn)則采用基于ML(Maximum Likelihood)的Baum-Welch算。在訓(xùn)練過(guò)程中,利用每一個(gè)HMM模型對(duì)情感語(yǔ)音信號(hào)進(jìn)行狀態(tài)分割,即采用Viterbi算法得到了最優(yōu)化的狀態(tài)序列。在識(shí)別階段,將HMM的狀態(tài)累計(jì)概率輸入到RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別,通過(guò)RBF神經(jīng)網(wǎng)絡(luò)的非線性映射能力進(jìn)行映射。RBF神經(jīng)網(wǎng)絡(luò)的決策結(jié)果作為最終的識(shí)別結(jié)果。本文語(yǔ)料
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于HMM與RBF的語(yǔ)音情感識(shí)別.pdf
- 基于SVM和HMM混合模型的語(yǔ)音情感識(shí)別和性別識(shí)別.pdf
- 基于HMM和人工神經(jīng)網(wǎng)絡(luò)混合模型的漢語(yǔ)語(yǔ)音情感識(shí)別.pdf
- 基于hmm和pnn的混合語(yǔ)音識(shí)別模型研究
- 基于HMM和PNN的混合語(yǔ)音識(shí)別模型研究.pdf
- 一種基于HMM和RBF網(wǎng)絡(luò)混合的語(yǔ)音識(shí)別算法研究.pdf
- 基于HMM模型的語(yǔ)音情感識(shí)別的研究.pdf
- 基于HMM的情感語(yǔ)音識(shí)別.pdf
- 基于HMM和ANN混合模型的語(yǔ)音識(shí)別技術(shù)的研究.pdf
- 基于RBF的語(yǔ)音情感識(shí)別方法研究.pdf
- 基于ANN和HMM模型的口吃語(yǔ)音識(shí)別研究.pdf
- 一種基于HMM和WNN混合模型的語(yǔ)音識(shí)別方法.pdf
- 基于“產(chǎn)生-判別”混合模型的語(yǔ)音情感識(shí)別研究.pdf
- 基于HMM-ANN混合模型的語(yǔ)音識(shí)別系統(tǒng)研究.pdf
- 基于HMM與ANN混合模型語(yǔ)音識(shí)別系統(tǒng)的研究與實(shí)現(xiàn).pdf
- 基于高斯混合模型的語(yǔ)音情感識(shí)別研究與實(shí)現(xiàn).pdf
- 高斯混合模型用于語(yǔ)音情感識(shí)別研究.pdf
- 基于語(yǔ)音混合特征的情感識(shí)別研究.pdf
- 基于HMM模型的混合特征參數(shù)語(yǔ)音識(shí)別方法的研究.pdf
- 多重ANN-HMM混合模型在語(yǔ)音識(shí)別中的應(yīng)用.pdf
評(píng)論
0/150
提交評(píng)論