

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、說(shuō)話人識(shí)別是一項(xiàng)根據(jù)說(shuō)話人的聲音信號(hào)提取出表征說(shuō)話人個(gè)性的特征參數(shù)來(lái)自動(dòng)識(shí)別說(shuō)話人身份的生物認(rèn)證技術(shù)。因其獨(dú)特的方便性、經(jīng)濟(jì)性、準(zhǔn)確性,被廣泛應(yīng)用在信息安全、通信、司法、軍事等各種需要安全認(rèn)證的領(lǐng)域。說(shuō)話人識(shí)別的兩個(gè)關(guān)鍵部分是特征提取和模式匹配,而大量的研究表明,說(shuō)話人識(shí)別的問(wèn)題主要是來(lái)自于說(shuō)話人的特征提取上,因此,本文在對(duì)說(shuō)話人識(shí)別系統(tǒng)的基本原理進(jìn)行了分析和研究的基礎(chǔ)上,重點(diǎn)研究說(shuō)話人的特征提取。
本研究主要內(nèi)容包括:⑴線性
2、預(yù)測(cè)系數(shù)(LPC)和梅爾頻率倒譜系數(shù)(MFCC)是說(shuō)話人識(shí)別中最常用的兩種特征參數(shù),將這兩種參數(shù)組合,雖然在一定程度上提高了識(shí)別率,但卻增加了特征參數(shù)的維數(shù),使得計(jì)算量加大。針對(duì)此問(wèn)題,本文提出將LPC系數(shù)融入到MFCC系數(shù)的計(jì)算里的特征提取方法,該方法首先計(jì)算語(yǔ)音信號(hào)的LPC系數(shù),求出LPC功率譜;然后將LPC功率譜通過(guò)三角形濾波器組,并取對(duì)數(shù);最后將對(duì)數(shù)后的輸出做離散余弦變換,得到新的特征參數(shù):線性預(yù)測(cè)梅爾頻率倒譜系數(shù)(LPMFCC
3、)。LPMFCC參數(shù)兼具LPC參數(shù)的聲道特性和MFCC參數(shù)的聽覺(jué)特性,雖增加了一步計(jì)算,但不增加參數(shù)的維數(shù),運(yùn)算量相對(duì)較少。將LPMFCC方法分別應(yīng)用到基于VQ和基于GMM的說(shuō)話人識(shí)別系統(tǒng)中進(jìn)行實(shí)驗(yàn)仿真。實(shí)驗(yàn)結(jié)果表明,本文提出的LPMFCC方法在純凈語(yǔ)音環(huán)境下在基于VQ的說(shuō)話人識(shí)別系統(tǒng)中,較LPC方法和MFCC方法識(shí)別率能提高18.57%和10.00%;在基于GMM的說(shuō)話人識(shí)別系統(tǒng)中,與LPC方法和MFCC方法相比,識(shí)別率也分別提高了1
4、1.72%和2.00%,在不同噪聲環(huán)境下LPMFCC方法的識(shí)別性能均明顯改善。⑵Mel濾波器組在低頻區(qū)域分布密集,在高頻區(qū)域分布稀疏,使得 MFCC系數(shù)忽略了高頻信息。針對(duì)此不足,采用將Mel濾波器組進(jìn)行翻轉(zhuǎn),得到翻轉(zhuǎn)梅爾頻率倒譜系數(shù)IMFCC的方法。利用MFCC系數(shù)和IMFCC系數(shù)的互補(bǔ)特點(diǎn),討論MFCC和IMFCC特征的融合在系統(tǒng)中的應(yīng)用,首先將兩者分別輸入到同一種分類器中,得到各自的匹配得分,然后將兩者得分加權(quán)融合得到融合匹配分?jǐn)?shù)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 說(shuō)話人識(shí)別中特征組合方法的研究.pdf
- 基于聲門特征的說(shuō)話人識(shí)別研究.pdf
- 基于缺失特征重建的說(shuō)話人識(shí)別.pdf
- 基于韻律特征的SVM說(shuō)話人識(shí)別.pdf
- 基于倒譜特征的說(shuō)話人識(shí)別算法研究.pdf
- 基于多特征決策融合的說(shuō)話人識(shí)別研究.pdf
- 基于語(yǔ)音混合特征說(shuō)話人識(shí)別的研究.pdf
- 基于特征模糊度分析的說(shuō)話人識(shí)別.pdf
- 基于韻律特征和SVM的說(shuō)話人識(shí)別.pdf
- 基于倒譜特征的說(shuō)話人識(shí)別方法研究.pdf
- 基于改進(jìn)的特征參數(shù)的說(shuō)話人識(shí)別研究.pdf
- 基于特征選擇及其融合方法的說(shuō)話人識(shí)別.pdf
- 基于聽覺(jué)特征參數(shù)的說(shuō)話人識(shí)別技術(shù)
- 基于Fisher準(zhǔn)則的說(shuō)話人識(shí)別特征參數(shù)提取研究.pdf
- 基于特征空間軌跡動(dòng)態(tài)多重匹配的說(shuō)話人識(shí)別研究.pdf
- 基于聽覺(jué)特征參數(shù)的說(shuō)話人識(shí)別技術(shù).pdf
- 噪聲環(huán)境下基于個(gè)性特征的說(shuō)話人識(shí)別研究.pdf
- 基于融合特征與高斯混合模型的說(shuō)話人識(shí)別研究.pdf
- 基于EMD的說(shuō)話人識(shí)別研究.pdf
- 基于說(shuō)話人識(shí)別的特征參數(shù)提取改進(jìn)算法的研究.pdf
評(píng)論
0/150
提交評(píng)論