版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著人類(lèi)社會(huì)的發(fā)展,人們之間的交互方式越來(lái)越多樣化,語(yǔ)音信息做為人類(lèi)特有的生物特征之一,在人類(lèi)的身份識(shí)別或確認(rèn)上有著重要的地位,有些研究者稱(chēng)之為人類(lèi)最天然的生物特征。說(shuō)話人識(shí)別技術(shù)或者說(shuō)聲紋識(shí)別技術(shù)是一種依據(jù)人類(lèi)的語(yǔ)音特征進(jìn)行的身份識(shí)別技術(shù)。其在很多領(lǐng)域已經(jīng)有了非常重要的應(yīng)用,比如互聯(lián)網(wǎng)、軍事安全、遠(yuǎn)程控制、通信系統(tǒng)、門(mén)禁系統(tǒng)等等。
自上世紀(jì)80年代以來(lái),神經(jīng)網(wǎng)絡(luò)迅猛發(fā)展。最近幾年,多倫多大學(xué)教授辛頓提出的深度學(xué)習(xí)理論在圖像識(shí)
2、別領(lǐng)域已經(jīng)取得了非常好的效果,其在mnist手寫(xiě)字?jǐn)?shù)據(jù)集上的識(shí)別率已經(jīng)可以高達(dá)百分之99。深度學(xué)習(xí)是一種基于深度即多層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方式,與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,深度學(xué)習(xí)克服了非凸函數(shù)陷入局部最小值的缺點(diǎn),并且可以從底向上學(xué)習(xí)更好的特征。本文對(duì)前饋神經(jīng)網(wǎng)絡(luò)、自動(dòng)編碼機(jī)、深度信念網(wǎng)絡(luò)在說(shuō)話人識(shí)別技術(shù)上的應(yīng)用進(jìn)行了全面分析比較。本人主要完成了以下幾方面工作:
第一,綜述了說(shuō)話人識(shí)別技術(shù)的研究歷史及現(xiàn)狀,分析不同說(shuō)話人識(shí)別技術(shù)的優(yōu)缺點(diǎn)
3、,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)是說(shuō)話人識(shí)別的嶄新方向。
第二,研究了說(shuō)話人識(shí)別模型語(yǔ)音預(yù)處理階段的工作,包括分幀、梅爾倒譜頻率參數(shù)、模型和算法等,詳細(xì)介紹了MFCC參數(shù)的計(jì)算過(guò)程。
第三,探討了前饋神經(jīng)網(wǎng)絡(luò)在說(shuō)話人識(shí)別技術(shù)上的應(yīng)用,分析比較了不同神經(jīng)層數(shù)及神經(jīng)元個(gè)數(shù)以及其他參數(shù)對(duì)識(shí)別率的影響,并且提出前饋神經(jīng)網(wǎng)絡(luò)與高斯混合模型結(jié)合的方法,使神經(jīng)網(wǎng)絡(luò)工作在GMM的概率輸出空間,獲取了不同說(shuō)話人之間的交互信息,提高了說(shuō)話人識(shí)別率以
4、及模型的魯棒性。
第四,分析了深度學(xué)習(xí)在說(shuō)話人識(shí)別上的應(yīng)用。主要分析比較了兩種深度學(xué)習(xí)模型,即自動(dòng)編碼機(jī)和深度信念網(wǎng)絡(luò)的識(shí)別效果。證明了深度學(xué)習(xí)在說(shuō)話人識(shí)別領(lǐng)域是優(yōu)于普通的前饋神經(jīng)網(wǎng)絡(luò)的。首次提出使用降噪自動(dòng)編碼機(jī)和受限波爾茲曼機(jī)混合模型(HDAE-RBMM)進(jìn)行說(shuō)話人識(shí)別,研究了其在不同組合狀態(tài)下模型的性能,證明了使用降噪自動(dòng)編碼機(jī)作為淺層模型、受限波爾茲曼機(jī)作為深層模型結(jié)合了兩者的優(yōu)勢(shì),可以有效提高識(shí)別率,并且隨著網(wǎng)絡(luò)層數(shù)
5、的提升效果越明顯。
第五,使用整流線性單元代替普通的激活函數(shù)對(duì)深度網(wǎng)絡(luò)進(jìn)行了改進(jìn),分別探討了預(yù)訓(xùn)練和未經(jīng)預(yù)訓(xùn)練的情況下深度模型的性能,實(shí)驗(yàn)證明使用整流線性單元的深度網(wǎng)絡(luò)模型可以極大提升訓(xùn)練速度,并且從稀疏度的角度來(lái)看,使用整流線性單元的未經(jīng)預(yù)訓(xùn)練的深度網(wǎng)絡(luò)可以達(dá)到和經(jīng)過(guò)預(yù)訓(xùn)練的深度模型同樣的稀疏度,因而其識(shí)別率比使用sigmoid類(lèi)函數(shù)要高許多,甚至可以和經(jīng)過(guò)預(yù)訓(xùn)練的深度模型較接近。但是整流線性單元與預(yù)訓(xùn)練模型結(jié)合的效果并不是
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度學(xué)習(xí)的說(shuō)話人識(shí)別研究.pdf
- 說(shuō)話人識(shí)別方法的研究.pdf
- 基于深度學(xué)習(xí)的說(shuō)話人識(shí)別建模研究.pdf
- 基于深度學(xué)習(xí)的表情識(shí)別方法研究.pdf
- 基于說(shuō)話人轉(zhuǎn)換的語(yǔ)音識(shí)別方法.pdf
- 基于深度學(xué)習(xí)的短語(yǔ)音說(shuō)話人識(shí)別研究.pdf
- 基于PLDA模型的說(shuō)話人識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的說(shuō)話人識(shí)別技術(shù)研究.pdf
- 基于小波變換的說(shuō)話人識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的圖像特征識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的植物葉片識(shí)別方法研究.pdf
- 基于模型聚類(lèi)的說(shuō)話人識(shí)別方法研究.pdf
- 基于倒譜特征的說(shuō)話人識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的視頻人臉識(shí)別方法.pdf
- 基于GMM和SVM的說(shuō)話人識(shí)別方法研究.pdf
- 基于VQ-HMM的說(shuō)話人識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的玻璃缺陷識(shí)別方法研究.pdf
- 說(shuō)話人識(shí)別方法與策略的研究.pdf
- 基于深度學(xué)習(xí)的語(yǔ)音情感識(shí)別方法的研究.pdf
- 基于稀疏編碼的魯棒說(shuō)話人識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論