版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、高速發(fā)展的計(jì)算機(jī)水平和音頻處理技術(shù),使得人們對(duì)于從海量數(shù)據(jù)中獲取到感興趣的人聲,越來(lái)越有需求。另一方面,如何對(duì)獲取到的各類(lèi)音頻進(jìn)行合理有效的管理,也是目前存在的一大挑戰(zhàn)。在此背景下,為了滿(mǎn)足上述需要,說(shuō)話(huà)人分離這一關(guān)鍵技術(shù)應(yīng)運(yùn)而生,其主要涉及兩個(gè)過(guò)程:說(shuō)話(huà)人分割和說(shuō)話(huà)人聚類(lèi)。
說(shuō)話(huà)人分離系統(tǒng)幾乎無(wú)任何可供參考的先驗(yàn)信息使用,容易受環(huán)境或者建模方法的影響,使得分割和聚類(lèi)時(shí)說(shuō)話(huà)人片段的類(lèi)純度得不到保證。另外,基于距離準(zhǔn)則的層次聚類(lèi)
2、方式一旦出現(xiàn)聚類(lèi)誤差,會(huì)一直的向上傳遞。因此本文主要在說(shuō)話(huà)人分割和聚類(lèi)的建模方法以及類(lèi)別提純上展開(kāi)了探索和研究,主要工作和創(chuàng)新點(diǎn)如下:
第一,說(shuō)話(huà)人分離前端語(yǔ)音端點(diǎn)檢測(cè)(VAD)和類(lèi)別提純方面的研究。針對(duì)基線系統(tǒng)中存在的低能量語(yǔ)音難以召回以及噪聲難以去除的情形,引入了深度學(xué)習(xí)的方法,在分離前端進(jìn)行改進(jìn)。針對(duì)層次聚類(lèi)時(shí)出現(xiàn)聚類(lèi)誤差向上傳遞的情況,提出了基于貝葉斯信息準(zhǔn)則(BIC)的短時(shí)類(lèi)別提純方法,削弱由層次聚類(lèi)帶來(lái)的誤差向上傳
3、遞的影響。實(shí)驗(yàn)結(jié)果表明,基于深度學(xué)習(xí)的語(yǔ)音端點(diǎn)檢測(cè),能有效的降低說(shuō)話(huà)人分離時(shí)的虛警和漏警,并且降低說(shuō)話(huà)人分離錯(cuò)誤率,且基于短時(shí)BIC類(lèi)別提純的方法,能更新部分聚類(lèi)錯(cuò)誤的說(shuō)話(huà)人片段,提高后續(xù)說(shuō)話(huà)人聚類(lèi)的類(lèi)純度。
第二,說(shuō)話(huà)人轉(zhuǎn)折點(diǎn)檢測(cè)建模方法的研究。探索了基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的建模方法在說(shuō)話(huà)人轉(zhuǎn)折點(diǎn)檢測(cè)中的應(yīng)用,利用其強(qiáng)大的模型表達(dá)能力,提高說(shuō)話(huà)人分割的準(zhǔn)確性。實(shí)驗(yàn)結(jié)果表明,這種基于深度學(xué)習(xí)的轉(zhuǎn)折點(diǎn)檢測(cè)建模方法相比于傳統(tǒng)的
4、BIC建模方法,無(wú)論是在轉(zhuǎn)折點(diǎn)檢測(cè)的準(zhǔn)確率和召回率,還是對(duì)整個(gè)系統(tǒng)的分離錯(cuò)誤率(DER)來(lái)說(shuō),都獲得了一定的效果提升。
第三,說(shuō)話(huà)人聚類(lèi)時(shí)的因子分析建模方法研究。傳統(tǒng)的以貝葉斯信息準(zhǔn)則作為相似性度量的說(shuō)話(huà)人分離技術(shù),在短時(shí)對(duì)話(huà)的分離任務(wù)中能取得較好的效果,但是隨著對(duì)話(huà)時(shí)長(zhǎng)的增加,BIC的單高斯模型不足以描述不同說(shuō)話(huà)人數(shù)據(jù)的分布,且層次聚類(lèi)時(shí)區(qū)分相同說(shuō)話(huà)人和不同說(shuō)話(huà)人的門(mén)限值難以劃定。針對(duì)此問(wèn)題,本文嘗試基于短時(shí)BIC和長(zhǎng)時(shí)概率
5、線性判別分析(PLDA)融合的方法,充分利用BIC在短時(shí)聚類(lèi)的可靠性和PLDA在長(zhǎng)時(shí)段上的優(yōu)異區(qū)分性,來(lái)實(shí)現(xiàn)說(shuō)話(huà)人聚類(lèi)過(guò)程。實(shí)驗(yàn)表明,因子分析框架下的說(shuō)話(huà)人信息建模方法能有效的降低說(shuō)話(huà)人分離錯(cuò)誤率,使得性能相對(duì)提升34.2%。
第四,說(shuō)話(huà)人聚類(lèi)過(guò)程中的變分貝葉斯(VB)調(diào)優(yōu)方法研究。通過(guò)與因子分析框架下的全差異空間相結(jié)合,將傳統(tǒng)的層次聚類(lèi)方式轉(zhuǎn)化為在保證最優(yōu)化目標(biāo)函數(shù)的前提下,對(duì)某個(gè)片段屬于某個(gè)說(shuō)話(huà)人的最大后驗(yàn)概率估計(jì)的一種軟
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于因子分析的說(shuō)話(huà)人確認(rèn).pdf
- 基于因子分析概率統(tǒng)計(jì)模型的說(shuō)話(huà)人識(shí)別.pdf
- 基于聯(lián)合因子分析的耳語(yǔ)音說(shuō)話(huà)人識(shí)別研究.pdf
- 基于因子分析和支持向量機(jī)的耳語(yǔ)說(shuō)話(huà)人識(shí)別.pdf
- 基于因子分析的與文本無(wú)關(guān)的說(shuō)話(huà)人辯認(rèn)方法研究.pdf
- 基于小波分析的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于GMM的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于特定文本的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于粒子濾波方法的說(shuō)話(huà)人跟蹤技術(shù)研究.pdf
- 基于漢語(yǔ)元音映射的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于文本無(wú)關(guān)的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于高斯混合模型的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于VQ與HMM的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于GMM的說(shuō)話(huà)人識(shí)別技術(shù)研究與實(shí)現(xiàn).pdf
- 基于矢量量化的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 基于支持向量機(jī)和小波分析的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 多說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
- 因子分析
- 基于HHT與信息融合的說(shuō)話(huà)人識(shí)別技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論