版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、搜索引擎中文分詞原理與實現(xiàn)搜索引擎中文分詞原理與實現(xiàn)因為中文文本中,詞和詞之間不像英文一樣存在邊界,所以中文分詞是一個專業(yè)處理中文信息的搜索引擎首先面對的問題,需要靠程序來切分出詞。一、一、Lucene中的中文分詞中的中文分詞Lucene在中處理中文的常用方法有三種,以“咬死獵人的狗”為例說明之:單字:【咬】【死】【獵】【人】【的】【狗】二元覆蓋:【咬死】【死獵】【獵人】【人的】【的狗】分詞:【咬】【死】【獵人】【的】【狗】Lucene
2、中的StardTokenizer采用單子分詞方式,CJKTokenizer采用二元覆蓋方式。1、Lucene切分原理Lucene中負責語言處理的部分在g.apache.lucene.analysis包,其中,TokenStream類用來進行基本的分詞工作,Analyzer類是TokenStream的包裝類,負責整個解析工作,Analyzer類接收整段文本,解析出有意義的詞語。通常不需要直接調用分詞的處理類analysis,而是由Luce
3、ne內存內部來調用,其中:(1)在索引階段,調用addDocument(doc)時,Lucene內部使用Analyzer來處理每個需要索引的列,具體如下圖:圖1Lucene對索引文本的處理IndexWriterindex=newIndexWriter(indexDirectynewCnAnalyzer()用于支持分詞的分析器!incrementalIndexWriter.MaxFieldLength.UNLIMITED)(2)在搜索階段
4、,調用QueryParser.parse(queryText)來解析查詢串時,QueryParser會調用Analyzer來拆分查詢字符串,但是對于通配符等查詢不會調用Analyzer。Analyzeranalyzer=newCnAnalyzer()支持中文的分詞QueryParserparser=newQueryParser(Version.LUCENE_CURRENT“title“analyzer)因為在索引和搜索階段都調用了分詞過
5、程,索引和搜索的切分處理要盡量一致,所以分詞效果改變后需要重建索引。為了測試Lucene的切分效果,下面是直接調用Analysis的例子:Analyzeranalyzer=newCnAnalyzer()創(chuàng)建一個中文分析器TokenStreamts=analyzer.tokenStream(“myfield“newStringReader(“待切分文本“))取得Token流含第一個字符的節(jié)點有指針指向下一個字符的節(jié)點,依次類推。這樣組成一
6、個層次結構的樹,樹的第一層包括所有單詞的第一個字符,樹的第二層包括所有單詞的第二個字符,依次類推,數(shù)字搜索樹的最大高度是詞典中最長單詞的長度。比如:如下單詞序列組成的詞典(asatbebyheinisitofonto)會生成如下圖所示的數(shù)字搜索樹:圖3數(shù)字搜索樹數(shù)字搜索樹的結構獨立于生成樹時單詞進入的順序,這里,Trie樹的高度是2。因為樹的高度很小,在數(shù)字搜索Trie樹種搜索一個單詞的速度很快。但是,這是以內存消耗為代價的,樹中每個節(jié)
7、點都需要很多內存。假設每個詞都是由26個小寫英文字母中的一個組成的,這個節(jié)點中會有26個指針。所以不太可能直接用這樣的數(shù)字搜索樹來存儲中文這樣的大字符集。Trie樹在實現(xiàn)上有一個樹類(SearchTrie)和一個節(jié)點類(TrieNode)。SearchTrie的主要方法有兩個:(1)增加單詞到搜索樹,方法原型是:addWd(Stringwd)。(2)從文本的指定位置開始匹配單詞,方法原型是:matchLong(Stringtextint
8、offset)。2、三叉Trie樹在一個三叉搜索樹(TernarySearchTrie)中,每一個節(jié)點包括一個字符,但和數(shù)字搜索樹不同,三叉搜索樹只有三個指針:一個指向左邊的樹;一個指向右邊的樹;還有一個向下,指向單詞的下一個數(shù)據(jù)單元。三叉搜索樹是二叉搜索樹和數(shù)字搜索樹的混合體。它有和數(shù)字搜索樹差不多的速度但是和二叉搜索樹一樣只需要相對較少的內存空間。樹是否平衡取決于單詞的讀入順序。如果按順序后的順序插入,則生成方式最不平衡。單詞的讀入
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于中文分詞的搜索引擎設計實現(xiàn).pdf
- 搜索引擎中文分詞技術研究.pdf
- 基于Nutch搜索引擎的中文分詞算法研究與實現(xiàn).pdf
- 搜索引擎中中文分詞與糾錯模塊的設計與實現(xiàn).pdf
- 搜索引擎原理
- Web搜索引擎原理與實現(xiàn).pdf
- 中文搜索引擎中分詞算法的研究和實現(xiàn).pdf
- 搜索引擎工作原理
- 搜索引擎原理07065
- 中文分詞技術在搜索引擎中的研究與應用.pdf
- 搜索引擎原理06190
- 搜索引擎技術原理
- [學習]搜索引擎優(yōu)化與搜索引擎營銷
- 中文智能搜索引擎.pdf
- Internet中文智能搜索引擎漢語自動分詞系統(tǒng)設計.pdf
- 搜索引擎工作原理概述
- 基于自動分詞的企業(yè)文檔搜索引擎設計與實現(xiàn).pdf
- 搜索引擎基本工作原理
- 校園網(wǎng)搜索引擎核心技術——中文自動分詞.pdf
- 移動中文新聞搜索引擎的設計與實現(xiàn).pdf
評論
0/150
提交評論