改進的SVM+算法在文本分類中的應用研究.pdf_第1頁
已閱讀1頁,還剩56頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、本文從理論以及實驗兩個層次對支持向量機算法進行了深入的研究,同時將改進算法運用在文本分類中。
  首先,本文詳細的介紹了文本分類系統(tǒng)的總體模型,包括:文本表示、特征選擇方法、文本分類算法。認真研究了支持向量機算法的基本原理,并且對支持向量機訓練算法中訓練時間長和消耗內(nèi)存大的缺點加以討論,隨后詳細的討論了SVM訓練算法的改進算法,包括:Chunking算法、大規(guī)模分解法。
  其次詳細的分析了SMO序列最小化優(yōu)化算法,同時詳細

2、的研究了GeneralizedSMO訓練算法在訓練時間上要優(yōu)于SMO算法,由于SMO算法在有限的步驟之內(nèi)不能得到一個精確的值。分析了在訓練樣本數(shù)相差比較大的情況下基于不同的懲罰系數(shù)C+和C-算法,并詳細的研究了新學習理論:基于特權(quán)信息學習。該學習理論在現(xiàn)有的機器學習理論基礎(chǔ)上加入了人類教學的元素,在訓練階段加入信息中隱藏的解釋、意見、比較等等?;谝陨嫌柧殐?yōu)化算法和新學習理論基礎(chǔ)上,設(shè)計了本文核心算法。
  最后本文利用搭建的系統(tǒng)

3、,對改進算法的性能作了詳細的實驗研究。在特征提取上去除了一些不具代表性的特征項,在特征選擇上基于tf-idf的思想去除信息增益值小于設(shè)定的閾值的特征詞。核函數(shù)選取高斯徑向基核函數(shù),同時在文章中給出了改進算法的核心偽代碼。為了測試改進算法的優(yōu)越性,實驗對比了改進算法的準確率、召回率和訓練時間。實驗表明改的算法在訓練時加入對兩個類別施加不同懲罰系數(shù)的方法,該算法可以較好的處理了文本分類中非平衡數(shù)據(jù)集的問題。改進算法加入了文本特權(quán)信息不但提高

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論