版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、博士學(xué)位論文帶光滑正則項(xiàng)前饋神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的收斂性分析ConvergenceAnalysisofLearningAlgorithmswithSmoothingRegularizationforFeedforwardNeuralNetworks作者姓名:學(xué)科、專業(yè):學(xué)號(hào):指導(dǎo)教師:完成日期:范欽偉計(jì)算數(shù)學(xué)專業(yè)11001030吳微教授2014年5月19日大連理工大學(xué)DalianUniversityofTechnology大連理工大學(xué)博士學(xué)
2、位論文摘要鑒于神經(jīng)網(wǎng)絡(luò)強(qiáng)大的非線性映射能力,人工神經(jīng)網(wǎng)絡(luò)近幾十年來得到了快速的發(fā)展。在智能信息處理,模式識(shí)別,特征提取,壓縮感知等諸多領(lǐng)域已有成功應(yīng)用。梯度下降法是前饋神經(jīng)網(wǎng)絡(luò)常用的學(xué)習(xí)算法,主要有兩種學(xué)習(xí)方式:批處理和在線學(xué)習(xí)。但是訓(xùn)練速度慢是反向傳播神經(jīng)網(wǎng)絡(luò)(BP網(wǎng)絡(luò))的一個(gè)主要缺陷。已有的研究成果表明,訓(xùn)練過程中,滿足逼近精度要求的前提下,較小規(guī)模的網(wǎng)絡(luò),其泛化表現(xiàn)較好。為了克服BP網(wǎng)絡(luò)訓(xùn)練速度慢,泛化能力差的缺陷,在更新公式中加
3、入動(dòng)量項(xiàng)、懲罰項(xiàng)(也稱為正則項(xiàng))是常用的改進(jìn)辦法。已有文獻(xiàn)多采用L2形式的懲罰項(xiàng),起到了壓制權(quán)值過大增長的目的,而加入動(dòng)量項(xiàng)則加快了訓(xùn)練速度。但如何能簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu),取得較好的稀疏化效果,降低成本,也是神經(jīng)網(wǎng)絡(luò)優(yōu)化的一個(gè)重要方面。最近流行的£l/2正則化方法在稀疏效果方面有著獨(dú)特的優(yōu)勢(shì)。但由于所用誤差函數(shù)在原點(diǎn)附近不光滑,因此收斂性分析遇到困難。且數(shù)值試驗(yàn)顯示在迭代過程中出現(xiàn)了振蕩現(xiàn)象。為此我們采用光滑化技術(shù),解決了這一難題。本文的研究內(nèi)
4、容著重于把L,/2正則化方法和動(dòng)量項(xiàng)方法引入到前饋神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過程中來,以改進(jìn)網(wǎng)絡(luò)性能。同時(shí)我們給出算法的收斂性分析。本文的具體研究內(nèi)容概括如下:1第一章回顧神經(jīng)網(wǎng)絡(luò)相關(guān)的背景知識(shí)。2第二章考慮帶光滑£l,2正則項(xiàng)的三層前饋神經(jīng)網(wǎng)絡(luò)批處理算法的收斂性。首先證明了網(wǎng)絡(luò)誤差函數(shù)的單調(diào)性,接著給出了改進(jìn)后算法的強(qiáng)、弱收斂性定理的嚴(yán)格證明。通過光滑化誤差函數(shù),克服了非光滑化Ll,2正則化算法帶來的誤差函數(shù)、梯度范數(shù)在數(shù)值試驗(yàn)中出現(xiàn)的震蕩現(xiàn)象。數(shù)
5、值試驗(yàn)驗(yàn)證了理論結(jié)果,并且比較試驗(yàn)顯示改進(jìn)后算法在諸多方面更有優(yōu)勢(shì)。3第三章給出了帶光滑Ll/2正則項(xiàng)前饋神經(jīng)網(wǎng)絡(luò)在線學(xué)習(xí)方式下的收斂性分析。無正則項(xiàng)時(shí)現(xiàn)有文獻(xiàn)在關(guān)于網(wǎng)絡(luò)收斂性證明中需要權(quán)值有界這一假設(shè)條件,但現(xiàn)實(shí)中這一條件比較苛刻,無法驗(yàn)證。本文嚴(yán)格證明了帶光滑Ll/2正則項(xiàng)時(shí)前饋神經(jīng)網(wǎng)絡(luò)權(quán)值學(xué)習(xí)過程中的有界性,使得證明神經(jīng)網(wǎng)絡(luò)算法收斂性的假設(shè)條件得到較大程度的弱化。我們還嚴(yán)格證明了該在線神經(jīng)網(wǎng)絡(luò)算法的強(qiáng)、弱收斂性。4第四章研究了帶光
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 前饋神經(jīng)網(wǎng)絡(luò)梯度訓(xùn)練算法的幾個(gè)收斂性結(jié)果.pdf
- 兩種前饋型神經(jīng)網(wǎng)絡(luò)中梯度學(xué)習(xí)算法的收斂性.pdf
- 帶自適應(yīng)步長神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的收斂性分析.pdf
- 帶懲罰項(xiàng)的BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法的收斂性.pdf
- 區(qū)間神經(jīng)網(wǎng)絡(luò)的算法收斂性分析.pdf
- 遞歸神經(jīng)網(wǎng)絡(luò)梯度學(xué)習(xí)算法的收斂性.pdf
- 帶動(dòng)量項(xiàng)的BP神經(jīng)網(wǎng)絡(luò)收斂性分析.pdf
- 遞歸神經(jīng)網(wǎng)絡(luò)幾個(gè)梯度學(xué)習(xí)算法的收斂性.pdf
- 幾種高階神經(jīng)網(wǎng)絡(luò)的梯度算法收斂性分析.pdf
- 神經(jīng)網(wǎng)絡(luò)逆向迭代算法的收斂性.pdf
- 兩類神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法收斂性研究.pdf
- 高階神經(jīng)網(wǎng)絡(luò)的梯度訓(xùn)練算法收斂性分析.pdf
- 前饋神經(jīng)網(wǎng)絡(luò)工作機(jī)理分析與學(xué)習(xí)算法.pdf
- 模糊神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)收斂性與閾值可去性.pdf
- 高階雙并聯(lián)神經(jīng)網(wǎng)絡(luò)批處理梯度算法收斂性
- 高階雙并聯(lián)神經(jīng)網(wǎng)絡(luò)批處理梯度算法收斂性.pdf
- 動(dòng)量項(xiàng)前饋神經(jīng)網(wǎng)絡(luò)恒模盲均衡算法的研究.pdf
- 基于PSO與BP前饋神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的研究.pdf
- 前饋神經(jīng)網(wǎng)絡(luò)算法研究及其應(yīng)用.pdf
- 前饋神經(jīng)網(wǎng)絡(luò)的奇異學(xué)習(xí)動(dòng)態(tài)研究.pdf
評(píng)論
0/150
提交評(píng)論