畢業(yè)論文----基于遺傳算法的核支持向量機(jī)研究_第1頁
已閱讀1頁,還剩7頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、<p>  基于遺傳算法的核支持向量機(jī)研究</p><p>  摘 要:針對傳統(tǒng)支持向量機(jī)識別能力的缺陷,本文重點研究了基于支持向量機(jī)和遺傳算法的混合算法,并就適定性函數(shù)做了深入研究。該算法的主要思想是在分類建模時使用支持向量機(jī)模型,但在求解決策超平面的最優(yōu)化問題時使用遺傳算法?;旌纤惴軌蛑苯拥玫椒诸惓矫娴南禂?shù),這在經(jīng)典的支持向量機(jī)分類技術(shù)中很難實現(xiàn)。根據(jù)具體的數(shù)學(xué)模型、染色體及適定性函數(shù)的不同,

2、分別建立了三種混合算法。仿真結(jié)果顯示了這一算法廣闊的發(fā)展前景。</p><p>  關(guān)鍵詞:支持向量機(jī);核方法;遺傳算法;分類問題</p><p>  Abstract:Concerning the shortcomings of recognition of traditional support vector machines, this paper focuses on the hy

3、bridization between support vector machines and genetic algorithm and does an in-depth qualitative research on fitness function. The main idea of the algorithm is considering the classification task as in SVM but using a

4、n genetic algorithm to solve the optimization problem of determining the decision function. They can explicitly acquire the coefficients of the separating hyper</p><p>  Key words:support vector machine ker

5、nel methods genetic algorithm classification problem</p><p><b>  引 言</b></p><p>  核支持向量機(jī)(KSVMs)[1]是近幾年發(fā)展起來的主要用于解決分類問題的新算法,它基于嚴(yán)密的統(tǒng)計學(xué)習(xí)理論,通過巧妙地引入核函數(shù),將低維問題通過非線性映射投射到高維特征空間,并在特征空間中采用線性可

6、分支持向量機(jī)解決分類問題。KSVMs也是數(shù)據(jù)挖掘技術(shù)的新方法,在模式分類、函數(shù)逼近、概率密度估計及回歸分析等理論領(lǐng)域,支持向量機(jī)取得了良好的效果,并已成功應(yīng)用到諸如手寫數(shù)字識別、文本分類、語音識別、人臉檢測等技術(shù)領(lǐng)域。遺傳算法(GA)[2]是模擬生物在自然環(huán)境下的遺傳和進(jìn)化過程而形成的一種自適應(yīng)全局優(yōu)化概率搜索方法,與其他尋優(yōu)算法相比,遺傳算法有許多獨特的優(yōu)點。因此,若我們能將KSVM和GA兩種方法有機(jī)整合到一起,可能得到一個具有更好分

7、類效果、更高靈活性的混合算法[3]。</p><p>  基于遺傳算法的核支持向量機(jī)新算法</p><p><b>  2.1 新算法總說</b></p><p>  圖2-1展示了新算法的基本步驟。</p><p>  圖2-1 新算法基本步驟</p><p>  2.2 基于遺傳算法的核支持向

8、量機(jī)新算法</p><p><b>  1. 混合算法一</b></p><p><b>  (1) 數(shù)學(xué)模型</b></p><p><b>  (2-1)</b></p><p>  其中為訓(xùn)練樣本總數(shù)。求解上面最優(yōu)化問題,得到最優(yōu)解,則分類函數(shù)為</p>&

9、lt;p><b>  (2-2)</b></p><p><b>  (2) 適定性函數(shù)</b></p><p><b>  設(shè)定適定性函數(shù)為:</b></p><p><b>  (2-3)</b></p><p><b>  函數(shù)為&l

10、t;/b></p><p><b>  (2-3)</b></p><p>  其中為(2-1)中模型對“軟邊界”的懲罰因子,為(2-1)中對不滿足“約束條件”樣本的懲罰。我們可以很容易理解式(2-3)適定性函數(shù)設(shè)置的理由。</p><p>  下面說明如上定義適定性函數(shù)的原因:式(2-3)中式(1)的最小化就是分類邊界的最大化,目的是增

11、強(qiáng)算法的魯棒性,提高預(yù)測正確率;式(2)最小化就是降低訓(xùn)練樣本分類邊界的模糊程度,目的是提高訓(xùn)練樣本分類正確性;式(3)最小化目的是使種群中個體盡可能滿足模型(2-1)中的限制條件。</p><p>  (3) 算法具體步驟</p><p>  1) 編碼方案及染色體設(shè)置</p><p>  由于和都是實數(shù),所以我們采用浮點編碼方式("double vec

12、tor")。由于松弛變量在適定性函數(shù)中出現(xiàn),我們也將它體現(xiàn)在染色體的結(jié)構(gòu)中。和人工設(shè)定它的值(如10,100,1000等),值的大小體現(xiàn)了對約束條件的重視程度。在本模型的仿真中,設(shè)定,當(dāng)然可以根據(jù)自己需要在程序中改變這兩個“懲罰因子”。</p><p>  這樣,染色體結(jié)構(gòu)為:</p><p><b>  (2-4)</b></p><p

13、>  其中,為特征數(shù),為樣本數(shù)目。</p><p><b>  初始種群設(shè)定</b></p><p>  初始種群由滿足下列條件的染色體向量隨機(jī)生成:</p><p><b>  (2-5)</b></p><p><b>  遺傳算子的設(shè)定</b></p>

14、<p>  遺傳算子選擇如下:Tournament Selection(錦標(biāo)賽選擇)和Elitist Selection(最佳個體保存法)、Intermediate Crossover(中間交叉)、Uniform Mutation(均勻變異)。</p><p><b>  停機(jī)條件設(shè)定</b></p><p>  a)某固定代數(shù);b)某固定停滯代數(shù);c)適

15、定性函數(shù)平均變化率小于某一固定值;d)適定性函數(shù)值小于某一固定值。</p><p>  以上任意一個條件達(dá)到算法就停止。</p><p><b>  2. 混合算法二</b></p><p>  混合算法二將核參數(shù)加入進(jìn)化,這樣可能通過一次進(jìn)化得到最優(yōu)核參數(shù),同時達(dá)到更好的分類和預(yù)測效果。</p><p>  混合算法二

16、的數(shù)學(xué)模型、適定性函數(shù)、遺傳算子和停機(jī)條件的設(shè)定同混合算法一。</p><p>  (1) 編碼方案及染色體設(shè)定</p><p>  由于加入染色體的“基因”也是普通的實數(shù),所以仍采用浮點方式編碼染色體。</p><p>  這樣,染色體結(jié)構(gòu)變?yōu)椋?lt;/p><p><b>  (2-6)</b></p>&

17、lt;p>  其中,為特征數(shù);為樣本數(shù)目;為RBF核參數(shù);和為多項式核參數(shù),其中為多項式指數(shù),為正整數(shù);和為核的兩個實參數(shù)。</p><p>  (2) 初始種群設(shè)定</p><p>  初始種群由滿足下列條件的染色體向量隨機(jī)生成:</p><p>  2-7)

18、 </p><p>  但是,上面設(shè)定的種群的搜索空間過大,必然導(dǎo)致收斂速度過慢,甚至由于初始種群數(shù)量太小、種進(jìn)化群代數(shù)不夠等情況無法得到收斂解。因此,綜合考慮核參數(shù)的實際意義以及的運行特點,設(shè)定實際搜索空間為:</p><p>  (2-8)

19、 </p><p>  需要說明的是,多項式核參數(shù)的實際搜索空間比原始空間大大減少。最初仿真實驗中,設(shè)定的范圍是,然而實驗得到的訓(xùn)練和預(yù)測的正確率都不到50%。跟蹤調(diào)試后發(fā)現(xiàn),所有的分類結(jié)果都是正數(shù),且進(jìn)化得到的值很大。進(jìn)一步研究發(fā)現(xiàn),分類效果不好,是的初始種群范圍過大所致。將c范圍縮小到0和10之間,得到了較好的分類效果。可見初始種群的設(shè)定也是相當(dāng)重要的。</p><p>

20、<b>  3. 混合算法三</b></p><p><b>  (1) 數(shù)學(xué)模型</b></p><p>  無論是混合算法一還是混合算法二,我們都假設(shè)每一個訓(xùn)練樣本對預(yù)測的貢獻(xiàn)是一樣大的。但是實際應(yīng)用中,每個樣本對分類正確性的影響是不相同的,為了正確體現(xiàn)這種差別,我們可以對樣本進(jìn)行加權(quán),這樣就得到了如下的數(shù)學(xué)模型:</p>&l

21、t;p><b>  (2-9)</b></p><p>  其中,是第個樣本的權(quán)值,體現(xiàn)了我們對第個樣本能否被正確分類的重視程度;為對“軟邊界”的懲罰因子;為訓(xùn)練樣本總數(shù)。</p><p><b>  (2) 適定性函數(shù)</b></p><p>  相應(yīng)地,適定性函數(shù)設(shè)置為:</p><p>

22、<b>  (2-10)</b></p><p><b>  函數(shù)為</b></p><p><b>  (2-11)</b></p><p>  其中為(3-9)中模型對“軟邊界”的懲罰因子,為(3-9)中不滿足“約束條件”樣本的懲罰因子,是第個樣本的權(quán)值。</p><p>

23、  (3) 算法具體步驟</p><p>  編碼方案、染色體設(shè)定、初始種群、遺傳算子選擇等,可以參照混合算法一或者混合算法二。</p><p><b>  (4) 算法預(yù)處理</b></p><p>  綜合上面分析可知,我們需要預(yù)先確定每個訓(xùn)練樣本的權(quán)值。這需我們對訓(xùn)練樣本有一個充分的了解或者通過“預(yù)處理”技術(shù)得到。</p>

24、<p><b>  算法仿真及分析</b></p><p>  為了驗證本文提出新算法的有效性,本章使用數(shù)據(jù)庫中的數(shù)據(jù)集進(jìn)行仿真。數(shù)據(jù)集共270個數(shù)據(jù)樣本,特征數(shù)為13,共2類。將數(shù)據(jù)集合分成訓(xùn)練集和預(yù)測集合兩部分,隨機(jī)選前200個樣本作為訓(xùn)練數(shù)據(jù),剩下70個作為預(yù)測樣本。仿真結(jié)果如下。</p><p><b>  1. 混合算法一</b&g

25、t;</p><p>  每個核函數(shù)分別進(jìn)行10次仿真,其中核參數(shù)設(shè)置如表,統(tǒng)計結(jié)果下表:</p><p>  從表中可以看出,在沒有用到“k-折交叉驗證”的情況下,得到的分類結(jié)果是非常好的。在如表所設(shè)的核參數(shù)和懲罰因子條件下,多項式核和核的訓(xùn)練樣本和預(yù)測樣本的平均正確率都達(dá)到了80%以上,簡單內(nèi)積核的平均正確率也達(dá)到了70%以上。從表還可以看出本算法的實時性是很好的。</p>

26、<p>  2. 混合算法一改進(jìn)</p><p>  遺傳算法還有一個好處,就是它可以與一些其它的尋優(yōu)算法結(jié)合使用,這樣可能達(dá)到更好的搜索結(jié)果。本節(jié)以"模式搜索"算法與遺傳算法結(jié)合為例,研究這種改進(jìn)混合算法的優(yōu)劣。</p><p>  對四個核函數(shù)分別進(jìn)行10次、10次、5次、5次仿真,其中核參數(shù)設(shè)置如表,仿真結(jié)果如下:</p><p&

27、gt;  對比表3-1和表3-2,可知簡單內(nèi)積核函數(shù)的訓(xùn)練和預(yù)測的正確率都有所提高,這體現(xiàn)了加入模式搜索算法的效果。但是,同樣可以明顯地觀察到,改進(jìn)算法平均運行時間比混合算法一長了十倍以上。綜上可知,對分類正確率要求高的問題,可以考慮加入其它尋優(yōu)算法提高分類正確率,并且需要經(jīng)過嚴(yán)格驗證。然而對于時效性要求較高的問題,這樣的改進(jìn)意義不是很大。</p><p><b>  3. 混合算法二</b>

28、;</p><p>  每個核函數(shù)分別進(jìn)行10次仿真,得到的最優(yōu)核參數(shù)和分類正確率結(jié)果如下:</p><p>  對比表3-1和表3-3,可知訓(xùn)練集和預(yù)測集的分類正確率總體來說有所提高,尤其對混合算法一中分類正確率較低的核。雖然多項式核函數(shù)分類正確率有一點降低,但平均運行時間卻減少了。</p><p>  4. 混合算法二改進(jìn)</p><p>

29、;  本節(jié)將“優(yōu)化工具箱”和遺傳算法結(jié)合,進(jìn)一步研究這種改進(jìn)混合算法的優(yōu)劣。為了方便與前面的結(jié)果進(jìn)行比較,其它設(shè)定不變。對四個核函數(shù)分別運行了5次實驗,得到的最優(yōu)核參數(shù)和分類正確率結(jié)果如下:</p><p>  對比表3-3和表3-4,可知到對數(shù)據(jù)集,最優(yōu)核參數(shù)大約為3;多項式最優(yōu)核參數(shù)在2附近,為1。加入“優(yōu)化工具箱”的混合算法二的分類正確率并沒有明顯的提高,甚至對于有些核函數(shù)還降低了很多,比如多項式核。<

30、;/p><p>  縱觀上面四個仿真實驗結(jié)果,簡單內(nèi)積核的分類效果很好,說明數(shù)據(jù)復(fù)雜度不是很高,基本線性可分。核的效果也不錯,多項式核的效果還算可以但不是很穩(wěn)定,而核在四個實驗中表現(xiàn)都不是很好。</p><p><b>  結(jié) 論</b></p><p>  支持向量機(jī)自從90年代中期興起以來由于其優(yōu)良的性能迅速成為研究熱點,然而支持向量機(jī)的解法

31、一直是一個難題。本文參考國內(nèi)外支持向量機(jī)技術(shù)最新研究進(jìn)展,將遺傳算法的“優(yōu)勝劣汰,適者生存”思想應(yīng)用到支持向量機(jī)解法中,提出了一種新的基于遺傳算法的核支持向量機(jī)技術(shù),在應(yīng)用智能算法解決支持向量機(jī)求解方面做出了自己的貢獻(xiàn)。</p><p><b>  本文主要工作如下:</b></p><p>  (1) 針對傳統(tǒng)的支持向量機(jī)解法不能實時求出分類超平面系數(shù)這一問題進(jìn)行了

32、分析,根據(jù)支持向量機(jī)原問題的數(shù)學(xué)模型,建立了混合算法一。設(shè)定了相關(guān)的適定性函數(shù),并將分類超平面的系數(shù)和松弛變量編入染色體中進(jìn)行進(jìn)化尋優(yōu)。最后用仿真,并得到了很好的分類結(jié)果。</p><p>  (2) 將核參數(shù)也加入到染色體編碼中,使算法得到最優(yōu)分類超平面的同時,進(jìn)化得到最優(yōu)核參數(shù),這就是混合算法二。通過仿真,混合算法二的分類效果優(yōu)于混合算法一。</p><p>  (3) 混合算法三:考

33、慮到單個樣本對分類正確性的貢獻(xiàn)不同,引入“樣本權(quán)值”的概念,改進(jìn)了經(jīng)典支持向量機(jī)數(shù)學(xué)模型,并重新設(shè)定了適定性函數(shù)。</p><p>  (4) 針對混合算法一和混合算法二各自提出改進(jìn)算法:在遺傳算法中加入其它尋優(yōu)算法。如將“模式搜索”加入混合算法一、“最優(yōu)化工具箱”加入混合算法二。并分別對這兩個改進(jìn)算法進(jìn)行了仿真,對比、分析了仿真結(jié)果。</p><p><b>  參考文獻(xiàn)<

34、;/b></p><p>  鄧乃揚, 田英杰. 數(shù)據(jù)挖掘中的新方法--支持向量機(jī). 2004:49-342</p><p>  朱劍英. 智能系統(tǒng)非經(jīng)典數(shù)學(xué)方法. 華中科技大學(xué)出版社,1999:239-283</p><p>  R. Stoean, M. Preuss and C. Stoean. Concerning the Potential of

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論