2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩113頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、隨著云計(jì)算,大數(shù)據(jù)時(shí)代的到來,移動(dòng)環(huán)境下的多模態(tài)自然人機(jī)交互,包括面向服務(wù)機(jī)器人的語(yǔ)音交互需求,對(duì)話系統(tǒng)及安全驗(yàn)證系統(tǒng),都對(duì)當(dāng)前的說話人識(shí)別技術(shù)提出更大的挑戰(zhàn)?;ヂ?lián)網(wǎng)時(shí)代對(duì)數(shù)據(jù)分析提出了更高的要求,分析的顆粒度越來越小,對(duì)用戶行為數(shù)據(jù)的分析也越來越關(guān)鍵。得益于豐富多樣的終端存儲(chǔ)與處理,語(yǔ)音作為人類獲取信息最有效、最自然的方式,其采集保存與應(yīng)用變得越來越方便,智能語(yǔ)音交互和安全驗(yàn)證受到更為廣泛的關(guān)注。說話人識(shí)別是通過對(duì)說話人語(yǔ)音信號(hào)的參數(shù)

2、分析和特征提取,依據(jù)訓(xùn)練的說話人特定模型進(jìn)行待測(cè)語(yǔ)音的身份認(rèn)定。
  本文首先對(duì)說話人識(shí)別課題的研究意義及發(fā)展歷程等進(jìn)行了綜述性的介紹,并指出了當(dāng)前說話人識(shí)別領(lǐng)域的研究熱點(diǎn)和難點(diǎn)問題。在前人取得的研究成果的基礎(chǔ)上,針對(duì)說話人識(shí)別任務(wù),在端點(diǎn)檢測(cè)預(yù)處理,鑒別性特征提取和識(shí)別算法三個(gè)環(huán)節(jié)進(jìn)行了系統(tǒng)且較為深入的研究,設(shè)計(jì)了文本無關(guān)的說話人識(shí)別實(shí)驗(yàn)系統(tǒng),包括對(duì)語(yǔ)音片段端點(diǎn)的檢測(cè)模塊、預(yù)處理模塊、針對(duì)鑒別性分析的特征提取模塊和多種創(chuàng)新性識(shí)別

3、算法模塊,并進(jìn)行了充分的理論分析與實(shí)驗(yàn)驗(yàn)證。主要?jiǎng)?chuàng)新性工作如下:
  1.提出了一種多層次框架的魯棒性語(yǔ)音端點(diǎn)檢測(cè)算法,該算法的優(yōu)勢(shì)在于充分考慮各種特征的特性將多種特征方法有機(jī)結(jié)合在一起,并引入了投票機(jī)制,保證了算法在不同噪聲條件下的魯棒性,提高了低信噪比情況下的端點(diǎn)檢測(cè)精度。該算法由三個(gè)模塊組成,在語(yǔ)音增強(qiáng)模塊中,首先利用判決引導(dǎo)方法估計(jì)先驗(yàn)信噪比,然后利用改進(jìn)的維納濾波方法進(jìn)行噪聲抑制;在特征提取和投票模塊中,分別提取多種具有

4、鑒別意義的短時(shí)特征。鑒于部分特征更適合特定的噪聲條件,因此采用投票的模式增強(qiáng)特征的可靠性和辨別能力;在分類模塊中,采用兩個(gè)標(biāo)準(zhǔn)語(yǔ)音數(shù)據(jù)庫(kù)訓(xùn)練的不同信噪比下的SVM模型,最后采用"one-against-one"的方法來有效確定語(yǔ)音/非語(yǔ)音段。在不同類型噪聲條件下,信噪比20dB時(shí),語(yǔ)音/非語(yǔ)音的平均正確檢測(cè)率可以達(dá)到97.8%。
  2.提出了兩種用于說話人識(shí)別的鑒別性特征提取方法。首先鑒于說話人個(gè)性信息在不同頻帶呈不均勻分布的原

5、理,基于F-ratio值來衡量不同子頻帶對(duì)說話人個(gè)性信息的區(qū)分度,通過實(shí)驗(yàn)數(shù)值分析及量化,設(shè)計(jì)非均勻?yàn)V波器,提取非均勻鑒別性特征,在仿真實(shí)驗(yàn)中,NUFCC特征的識(shí)別率比MFCC特征平均提高了2.23%,表明該特征作為針對(duì)說話人識(shí)別任務(wù)提取的特征,能夠有效利用不同子頻帶的信息,改善系統(tǒng)的性能,具有良好的區(qū)分性。其次提出提取漢語(yǔ)單字音節(jié)特征的方法,該方法基于經(jīng)典的語(yǔ)音幀特征分析理念,結(jié)合漢語(yǔ)自身的音節(jié)結(jié)構(gòu)和發(fā)音特點(diǎn),對(duì)語(yǔ)音幀序列進(jìn)行進(jìn)一步處

6、理,找到單個(gè)漢字的典型幀序列,然后將幀序列的特征矢量進(jìn)行拼接得到該字的特征矢量。這種以單字為單位提取的特征矢量能更為集中地反映說話人發(fā)聲過程中的典型特征,去除邊緣信息的鑒別干擾,并且能更好地表征說話人單字發(fā)音中相鄰語(yǔ)音幀之間的連續(xù)性。
  3.提出了基于環(huán)域采樣和集成策略的k近鄰說話人識(shí)別算法,充分利用特征矢量的空間分布特性,采用基于環(huán)域處理的分層采樣方法,以語(yǔ)音信號(hào)特征矢量的環(huán)域搜索代替?zhèn)鹘y(tǒng)的全局搜索方式,可以減少運(yùn)算量,加快搜

7、索速度,實(shí)驗(yàn)結(jié)果表明,基于環(huán)域的分層采樣算法在識(shí)別階段速度提高了5.1~5.5倍,對(duì)識(shí)別率的影響很小。進(jìn)一步在集成學(xué)習(xí)策略中,提出利用概率準(zhǔn)則生成訓(xùn)練集的算法。該算法(命名為BagWithProb)隨機(jī)產(chǎn)生集合的樣本中心,根據(jù)概率分布關(guān)系選擇新樣本,逐步加入當(dāng)前集合,生成新的訓(xùn)練集。該方法可以確保訓(xùn)練集之間較大的差異性,進(jìn)一步提高識(shí)別系統(tǒng)的泛化能力,在15s的訓(xùn)練數(shù)據(jù)下,BagWithProb策略下的集成系統(tǒng)的幀平均識(shí)別率可達(dá)94.1%

8、,說話人分類的最終判決取決于測(cè)試語(yǔ)音的所有幀的識(shí)別結(jié)果,因此個(gè)別幀的識(shí)別錯(cuò)誤對(duì)總的識(shí)別結(jié)果的影響較小,所以本文提出的基于環(huán)域采樣和集成策略的k近鄰說話人識(shí)別算法能在基本不損失識(shí)別精度的前提下,大大提高識(shí)別速度,并且改善系統(tǒng)的泛化能力。
  4.提出了深度置信網(wǎng)絡(luò)在說話人識(shí)別方面的兩個(gè)角度的應(yīng)用,在深度學(xué)習(xí)理論指導(dǎo)下,一個(gè)角度是采用DBN網(wǎng)絡(luò)作為分類器實(shí)現(xiàn)模型建模,通過DBN的訓(xùn)練,對(duì)輸入的頻譜特征進(jìn)行建模,識(shí)別階段,利用訓(xùn)練好的D

9、BN網(wǎng)絡(luò)實(shí)現(xiàn)識(shí)別任務(wù)。實(shí)驗(yàn)結(jié)果表明,不同測(cè)試文件類型下,當(dāng)測(cè)試時(shí)長(zhǎng)達(dá)到5s以上,隱層數(shù)為4時(shí),平均識(shí)別率能達(dá)到97.13%,驗(yàn)證了使用深度置信網(wǎng)絡(luò)實(shí)現(xiàn)說話人識(shí)別的可行性與有效性;另一個(gè)角度是利用DBN網(wǎng)絡(luò)的訓(xùn)練提取Bottleneck特征,并將該特征作為后續(xù)的傳統(tǒng)識(shí)別模型的輸入,實(shí)現(xiàn)說話人識(shí)別。Bottleneck+GMM算法在測(cè)試時(shí)長(zhǎng)是6s情形下的識(shí)別率平均達(dá)到99.04%,表明該算法在干凈語(yǔ)音條件下已經(jīng)可以達(dá)到非常好的性能,并且在訓(xùn)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論