說話人識別中的特征參數(shù)提取和識別算法研究.pdf_第1頁
已閱讀1頁,還剩113頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、隨著云計(jì)算,大數(shù)據(jù)時(shí)代的到來,移動(dòng)環(huán)境下的多模態(tài)自然人機(jī)交互,包括面向服務(wù)機(jī)器人的語音交互需求,對話系統(tǒng)及安全驗(yàn)證系統(tǒng),都對當(dāng)前的說話人識別技術(shù)提出更大的挑戰(zhàn)?;ヂ?lián)網(wǎng)時(shí)代對數(shù)據(jù)分析提出了更高的要求,分析的顆粒度越來越小,對用戶行為數(shù)據(jù)的分析也越來越關(guān)鍵。得益于豐富多樣的終端存儲與處理,語音作為人類獲取信息最有效、最自然的方式,其采集保存與應(yīng)用變得越來越方便,智能語音交互和安全驗(yàn)證受到更為廣泛的關(guān)注。說話人識別是通過對說話人語音信號的參數(shù)

2、分析和特征提取,依據(jù)訓(xùn)練的說話人特定模型進(jìn)行待測語音的身份認(rèn)定。
  本文首先對說話人識別課題的研究意義及發(fā)展歷程等進(jìn)行了綜述性的介紹,并指出了當(dāng)前說話人識別領(lǐng)域的研究熱點(diǎn)和難點(diǎn)問題。在前人取得的研究成果的基礎(chǔ)上,針對說話人識別任務(wù),在端點(diǎn)檢測預(yù)處理,鑒別性特征提取和識別算法三個(gè)環(huán)節(jié)進(jìn)行了系統(tǒng)且較為深入的研究,設(shè)計(jì)了文本無關(guān)的說話人識別實(shí)驗(yàn)系統(tǒng),包括對語音片段端點(diǎn)的檢測模塊、預(yù)處理模塊、針對鑒別性分析的特征提取模塊和多種創(chuàng)新性識別

3、算法模塊,并進(jìn)行了充分的理論分析與實(shí)驗(yàn)驗(yàn)證。主要?jiǎng)?chuàng)新性工作如下:
  1.提出了一種多層次框架的魯棒性語音端點(diǎn)檢測算法,該算法的優(yōu)勢在于充分考慮各種特征的特性將多種特征方法有機(jī)結(jié)合在一起,并引入了投票機(jī)制,保證了算法在不同噪聲條件下的魯棒性,提高了低信噪比情況下的端點(diǎn)檢測精度。該算法由三個(gè)模塊組成,在語音增強(qiáng)模塊中,首先利用判決引導(dǎo)方法估計(jì)先驗(yàn)信噪比,然后利用改進(jìn)的維納濾波方法進(jìn)行噪聲抑制;在特征提取和投票模塊中,分別提取多種具有

4、鑒別意義的短時(shí)特征。鑒于部分特征更適合特定的噪聲條件,因此采用投票的模式增強(qiáng)特征的可靠性和辨別能力;在分類模塊中,采用兩個(gè)標(biāo)準(zhǔn)語音數(shù)據(jù)庫訓(xùn)練的不同信噪比下的SVM模型,最后采用"one-against-one"的方法來有效確定語音/非語音段。在不同類型噪聲條件下,信噪比20dB時(shí),語音/非語音的平均正確檢測率可以達(dá)到97.8%。
  2.提出了兩種用于說話人識別的鑒別性特征提取方法。首先鑒于說話人個(gè)性信息在不同頻帶呈不均勻分布的原

5、理,基于F-ratio值來衡量不同子頻帶對說話人個(gè)性信息的區(qū)分度,通過實(shí)驗(yàn)數(shù)值分析及量化,設(shè)計(jì)非均勻?yàn)V波器,提取非均勻鑒別性特征,在仿真實(shí)驗(yàn)中,NUFCC特征的識別率比MFCC特征平均提高了2.23%,表明該特征作為針對說話人識別任務(wù)提取的特征,能夠有效利用不同子頻帶的信息,改善系統(tǒng)的性能,具有良好的區(qū)分性。其次提出提取漢語單字音節(jié)特征的方法,該方法基于經(jīng)典的語音幀特征分析理念,結(jié)合漢語自身的音節(jié)結(jié)構(gòu)和發(fā)音特點(diǎn),對語音幀序列進(jìn)行進(jìn)一步處

6、理,找到單個(gè)漢字的典型幀序列,然后將幀序列的特征矢量進(jìn)行拼接得到該字的特征矢量。這種以單字為單位提取的特征矢量能更為集中地反映說話人發(fā)聲過程中的典型特征,去除邊緣信息的鑒別干擾,并且能更好地表征說話人單字發(fā)音中相鄰語音幀之間的連續(xù)性。
  3.提出了基于環(huán)域采樣和集成策略的k近鄰說話人識別算法,充分利用特征矢量的空間分布特性,采用基于環(huán)域處理的分層采樣方法,以語音信號特征矢量的環(huán)域搜索代替?zhèn)鹘y(tǒng)的全局搜索方式,可以減少運(yùn)算量,加快搜

7、索速度,實(shí)驗(yàn)結(jié)果表明,基于環(huán)域的分層采樣算法在識別階段速度提高了5.1~5.5倍,對識別率的影響很小。進(jìn)一步在集成學(xué)習(xí)策略中,提出利用概率準(zhǔn)則生成訓(xùn)練集的算法。該算法(命名為BagWithProb)隨機(jī)產(chǎn)生集合的樣本中心,根據(jù)概率分布關(guān)系選擇新樣本,逐步加入當(dāng)前集合,生成新的訓(xùn)練集。該方法可以確保訓(xùn)練集之間較大的差異性,進(jìn)一步提高識別系統(tǒng)的泛化能力,在15s的訓(xùn)練數(shù)據(jù)下,BagWithProb策略下的集成系統(tǒng)的幀平均識別率可達(dá)94.1%

8、,說話人分類的最終判決取決于測試語音的所有幀的識別結(jié)果,因此個(gè)別幀的識別錯(cuò)誤對總的識別結(jié)果的影響較小,所以本文提出的基于環(huán)域采樣和集成策略的k近鄰說話人識別算法能在基本不損失識別精度的前提下,大大提高識別速度,并且改善系統(tǒng)的泛化能力。
  4.提出了深度置信網(wǎng)絡(luò)在說話人識別方面的兩個(gè)角度的應(yīng)用,在深度學(xué)習(xí)理論指導(dǎo)下,一個(gè)角度是采用DBN網(wǎng)絡(luò)作為分類器實(shí)現(xiàn)模型建模,通過DBN的訓(xùn)練,對輸入的頻譜特征進(jìn)行建模,識別階段,利用訓(xùn)練好的D

9、BN網(wǎng)絡(luò)實(shí)現(xiàn)識別任務(wù)。實(shí)驗(yàn)結(jié)果表明,不同測試文件類型下,當(dāng)測試時(shí)長達(dá)到5s以上,隱層數(shù)為4時(shí),平均識別率能達(dá)到97.13%,驗(yàn)證了使用深度置信網(wǎng)絡(luò)實(shí)現(xiàn)說話人識別的可行性與有效性;另一個(gè)角度是利用DBN網(wǎng)絡(luò)的訓(xùn)練提取Bottleneck特征,并將該特征作為后續(xù)的傳統(tǒng)識別模型的輸入,實(shí)現(xiàn)說話人識別。Bottleneck+GMM算法在測試時(shí)長是6s情形下的識別率平均達(dá)到99.04%,表明該算法在干凈語音條件下已經(jīng)可以達(dá)到非常好的性能,并且在訓(xùn)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論