基于稀疏編碼的魯棒說話人識別方法研究.pdf_第1頁
已閱讀1頁,還剩122頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、說話人識別又稱聲紋識別,是一種通過語音確定說話人身份的技術(shù)。由于使用語音具有采集方便、成本低廉等優(yōu)點,說話人識別被廣泛用于生物認(rèn)證、安全監(jiān)控、軍事偵查和金融交互等領(lǐng)域,具有廣闊的應(yīng)用前景。數(shù)十年來,世界各國的研究機構(gòu)和公司企業(yè)紛紛投入大量人力物力展開研究,有力地推動了說話人識別技術(shù)的發(fā)展。目前說話人識別技術(shù)已逐步從實驗室走向應(yīng)用,而現(xiàn)實環(huán)境的復(fù)雜性對說話人識別提出了更高的要求,包括魯棒性、實時性、識別率和穩(wěn)定性等。這就要求在說話人識別關(guān)

2、鍵環(huán)節(jié)上有所突破,尤其是語音活動檢測、特征提取,以及說話人模型的構(gòu)建等方面。
  目前的說話人識別技術(shù)在干凈語音環(huán)境下有理想的識別率,但在噪聲環(huán)境下,其性能會急劇降低,這阻礙了說話人識別技術(shù)走向現(xiàn)實應(yīng)用。本文針對說話人識別技術(shù)缺乏噪聲魯棒性的問題,將稀疏編碼技術(shù)用于說話人識別的各個環(huán)節(jié),包括語音活動檢測、語音特征提取和說話人建模等,提出了系統(tǒng)的解決方案,以提高說話人系統(tǒng)在噪聲環(huán)境下的識別率,主要工作包括以下幾個方面:
  首

3、先,從理論上分析了兩種稀疏編碼方法對噪聲的建模能力,為稀疏編碼的應(yīng)用奠定了基礎(chǔ)。稀疏編碼在對噪聲的建模方面有兩種方式:第一種用殘差對噪聲建模,噪聲的理論模型是高斯白噪聲,其內(nèi)在的假定在于語音在語音字典上稀疏,而噪聲在語音字典上不稀疏,白噪聲在任何字典上都表現(xiàn)得不稀疏,滿足了這一要求;第二種采用一個噪聲字典對噪聲建模,其內(nèi)在假定在于語音和噪聲在各自的字典上稀疏,且在自己的字典上比在對方的字典上更稀疏。本文從理論上分析了這兩種稀疏編碼方式重

4、構(gòu)信號時誤差的上下限,然后用實驗驗證了理論分析的結(jié)論,表明當(dāng)噪聲不稀疏時,第一種方法和第二種方法的重構(gòu)誤差在理論上有相同的下限和不同的上限;當(dāng)噪聲也可能稀疏時,第二種方法增加了一個字典對噪聲建模,融入了更多先驗知識,其重構(gòu)誤差上限要低于第一種方法。
  然后,針對語音活動檢測容易受到噪聲影響的問題,基于稀疏編碼構(gòu)建噪聲字典,提出了一種對噪聲魯棒的語音活動檢測方法。語音活動檢測是說話人識別的第一步,能減少算法處理的數(shù)據(jù)量,提高識別效

5、率。目前的語音活動檢測方法雖然也考慮了噪聲,但只能解決噪聲環(huán)境已知,且噪聲環(huán)境不變的情況。當(dāng)噪聲環(huán)境發(fā)生改變,或者噪聲不平穩(wěn),其性能將急劇降低。本文首先采用高斯混合模型識別噪聲類型;然后將經(jīng)過訓(xùn)練后的噪聲字典與語音字典拼接成一個大字典;最后,將混噪語音稀疏表示在拼接后的大字典上,并用語音字典上的稀疏表示實現(xiàn)語音和非語音的判定。從結(jié)果上看,本文的方法實現(xiàn)了對噪聲環(huán)境的感知,能有針對性地選擇字典去適應(yīng)噪聲,在復(fù)雜噪聲環(huán)境下取得了更好的識別效

6、果。
  接下來,提出了兩種對噪聲不敏感的特征提取方法。特征提取是說話人識別中的關(guān)鍵環(huán)節(jié)。一方面我們要求特征具有區(qū)分性;另一方面,我們希望特征受到噪聲的干擾盡可能地小。本文提出的第一種特征采用了感知最小方差無畸變響應(yīng)技術(shù),同時采用了平移差分倒譜算法,有效地融入了說話人語音的長時信息。所提取的特征不僅在干凈環(huán)境下能取得良好性能,而且在混噪語音以及信道失配等聲學(xué)條件下也優(yōu)于目前主流的特征。在YOHO數(shù)據(jù)庫和ROSSI數(shù)據(jù)庫上的實驗結(jié)果

7、表明,該特征在噪聲和信道畸變的情況下能有效提高識別系統(tǒng)的魯棒性。第二種特征將混噪語音分解在語音字典上,然后用稀疏表示重構(gòu)語音,并提取梅爾倒譜特征用于模型訓(xùn)練和識別。由于稀疏編碼可以用殘差或者用噪聲字典對噪聲建模,使得重構(gòu)后的信號不含有噪聲,因此能提取到受噪聲影響小的語音特征。
  最后,提出了兩階段稀疏分解的說話人識別框架。目前的說話人識別方法普遍將所有說話人字典拼接在一起形成一個大字典,雖然具有一定的區(qū)分性,但是存在兩方面問題。

8、一方面拼接出來大字典原子數(shù)目過于龐大,降低了識別效率;另一方面,競爭的類別過多,稀釋了真實說話人的競爭力。所提出的方法在第一階段將待識別語音被分解到每個說話人字典上,然后通過重構(gòu)計算殘差,并對殘差進行排序后,選取一個包含真實說話人的字典子集;第二階段將新字典子集拼接成一個大字典,再次將待識別語音分解到大字典上,用各字典上的稀疏表示計算得分后識別說話人。這種結(jié)構(gòu)在第一階段去除了大量無關(guān)說話人字典,減少了算法的時間復(fù)雜度;第二階段采用區(qū)分式

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論