基于循環(huán)神經(jīng)網(wǎng)絡(luò)的中文人名識(shí)別的研究.pdf_第1頁
已閱讀1頁,還剩55頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、中文人名識(shí)別任務(wù)是中文信息處理領(lǐng)域中的基礎(chǔ)任務(wù),其性能的好壞將直接影響到其他任務(wù)的性能。中文人名的隨意性使其在未登錄詞中占有較大的比重,解決未登錄詞識(shí)別問題首先要解決人名識(shí)別問題。因此,解決中文人名識(shí)別問題具有重要的意義。
  現(xiàn)有基于統(tǒng)計(jì)的中文人名識(shí)別方法存在特征選取復(fù)雜和人工干預(yù)等問題,針對這些問題,本文提出了一種基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks)的中文人名識(shí)別方法,該方法僅采用詞向量作為模

2、型的特征且無需人工干預(yù),有效降低了特征選取的復(fù)雜性和人工干預(yù)對實(shí)驗(yàn)造成的影響。此外,詞向量可以通過大量未標(biāo)注的中文數(shù)據(jù)訓(xùn)練獲得,然后將蘊(yùn)含豐富語義信息的詞向量作為循環(huán)神經(jīng)網(wǎng)絡(luò)模型的輸入,可以使模型學(xué)習(xí)到更多的信息,提升模型的性能。
  本文將模型分為兩個(gè)階段:模型構(gòu)建階段和后處理階段。
  在模型構(gòu)建階段,我們將重點(diǎn)放在詞向量的優(yōu)化策略上。針對詞向量的優(yōu)化問題,本文提出了三種策略:
  (1)將word2vec訓(xùn)練得到

3、的詞向量替換循環(huán)神經(jīng)網(wǎng)絡(luò)模型的隨機(jī)初始詞向量
  (2)對詞向量訓(xùn)練語料進(jìn)行數(shù)詞泛化操作
  (3)改進(jìn)word2vec模型,將特征信息融入詞向量實(shí)驗(yàn)結(jié)果表明,通過詞向量的優(yōu)化操作,中文人名識(shí)別模型的F值提高了2.23%。
  在后處理階段,通過上下文規(guī)則對候選人名進(jìn)行過濾;采用基于篇章的全局?jǐn)U散操作召回在某一位置由于信息不足識(shí)別不出而在其他位置能夠被識(shí)別的人名;使用基于篇章的局部擴(kuò)散操作識(shí)別篇章信息中有名無姓或者有姓

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論