2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩82頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、隨著計算機技術(shù)及人工智能等技術(shù)的發(fā)展,說話人識別在近幾年也有了長足的進展。自從Reynolds提出將GMM(Gaussian Mixture Model,高斯混合模型)用于說話人識別之后,GMM便一直是說話人識別領(lǐng)域的研究熱點。盡管之后研究人員又提出了許多新的效果更好的說話人識別方法,如GMM-SVM,JFA,i-vector等,但這些方法均基于GMM模型,系統(tǒng)中GMM模型性能的好壞直接關(guān)系著系統(tǒng)的識別性能,因此對GMM模型本身的研究十

2、分必要。
  本文的主要研究內(nèi)容如下:
  第一,UBM背景模型數(shù)據(jù)選擇。UBM是說話人識別系統(tǒng)的核心,在選擇背景說話人數(shù)據(jù)時,通常的做法都是使數(shù)據(jù)覆蓋盡量多的說話人、通道以及麥克風(fēng)類型,然而過多的數(shù)據(jù)中必然存在冗余,會增加UBM模型訓(xùn)練的復(fù)雜度。為了剔除冗余數(shù)據(jù),Hansen提出在原始背景說話人數(shù)據(jù)中選擇部分用于訓(xùn)練UBM的方法。本文在第三章首先驗證了Hansen所提出的數(shù)據(jù)選擇方法的有效性,并且在其基礎(chǔ)上對其中的智能特征

3、選擇方法IFS采用跳幀方式改進。NIST數(shù)據(jù)庫上的實驗證明,利用改進的方法使得UBM訓(xùn)練時間由原來的3小時46分鐘縮短為9分鐘,在大大降低模型訓(xùn)練時間的同時,系統(tǒng)等錯誤率EER有了0.47%的提升。
  第二,基于GMM token配比相似度校正得分的說話人識別方法。在實驗中我們觀察到,不同說話人的GMM token分布模式是不同的,而同一個說話人相同內(nèi)容的語句的GMM token分布模式趨于一致,根據(jù)這一點我們提出了一種基于GM

4、M token配比相似度校正得分的說話人識別方法。該方法根據(jù)測試語句GMM token配比和模型訓(xùn)練語句的GMM token配比相似度對測試得分進行校正,有效降低測試語句中部分impostor測試語句的測試得分,從而有效提升系統(tǒng)EER性能。MASC@CCNT上實驗表明,系統(tǒng)等錯誤率EER相對基準有0.87個百分點的提升。
  第三,基于GMM token的短語識別。由于語音的GMM token序列刻劃了語音中音素內(nèi)容的變化過程,所

5、以被廣泛的應(yīng)用于語種識別和方言識別。而語音的GMM token配比向量則刻劃了語音中音素內(nèi)容的組成信息,根據(jù)這一點我們提出一種基于GMM token配比相似度的短語識別方法,在7個人(5名男性,2名女性)的“前左右”指令集上準確率為100%,而MASC@CCNT庫上準確率為88.8%。另外,通過觀察不同短語的語圖進一步發(fā)現(xiàn),不同短語發(fā)音的起始部分的各個頻帶的能量分布差別很大,因此我們進一步提出基于起始語音片段的短語識別方法,該方法只需要

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論