matlab船舶考試用_第1頁
已閱讀1頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

1、BP BP神經(jīng)網(wǎng)絡 神經(jīng)網(wǎng)絡基本原理 基本原理反向傳播網(wǎng)絡(Back-Propagation Network,簡稱BP網(wǎng)絡)是將W-H學習規(guī)則一般化,對非線性可微分函數(shù)進行權(quán)值訓練的多層網(wǎng)絡。它是一種多層前向反饋神經(jīng)網(wǎng)絡,其神經(jīng)元的變換函數(shù)是S型函數(shù)。它利用誤差反向傳播算法對網(wǎng)絡進行訓練。權(quán)值的調(diào)整采用反向傳播(Back- propagation)的學習算法。輸出量為0到1之間的連續(xù)量,它可實現(xiàn)從輸入到輸出的任意的非線性映射。BP網(wǎng)絡主

2、要用于下述方面①函數(shù)逼近:用輸入矢量和相應的輸出矢量訓練一個網(wǎng)絡逼近一個函數(shù);②模式識別和分類:用一個特定的輸出矢量將它與輸入矢量聯(lián)系起來;把輸入矢量以所定義的合適方式進行分類;③數(shù)據(jù)壓縮:減少輸出矢量維數(shù)以便于傳輸或存儲。具有較強泛化性能:使網(wǎng)絡平滑地學習函數(shù),使網(wǎng)絡能夠合理地響應被訓練以外的輸入。泛化性能只對被訓練的輸入/輸出對最大值范圍內(nèi)的數(shù)據(jù)有效,即網(wǎng)絡具有內(nèi)插值特性,不具有外插值性。超出最大訓練值的輸入必將產(chǎn)生大的輸出誤差。網(wǎng)

3、絡結(jié)構(gòu) 網(wǎng)絡結(jié)構(gòu)一個具有r個輸入和一個隱含層的神經(jīng)網(wǎng)絡模型結(jié)構(gòu)。BP網(wǎng)絡具有一層或多層隱含層,除了在多層網(wǎng)絡上與前面已介紹過的模型有不同外,其主要差別也表現(xiàn)在激活函數(shù)上。BP網(wǎng)絡的激活函數(shù)必須是處處可微的,因此它不能采用二值型的閥值函數(shù){0,1}或符號函數(shù){-1,1}。BP網(wǎng)絡經(jīng)常使用的是S型的對數(shù)或正切激活函數(shù)和線性函數(shù)。BP網(wǎng)絡特點有以下幾點:①輸入和輸出是并行的模擬量;②網(wǎng)絡的輸入輸出關系是各層連接的權(quán)因子決定,沒有固定的算法;③

4、權(quán)因子通過學習信號調(diào)節(jié)。學習越多,網(wǎng)絡越聰明;④隱含層越多,網(wǎng)絡輸出精度越高,且個別權(quán)因子的損壞不會對網(wǎng)絡輸出產(chǎn)生大的影響;⑤只有當希望對網(wǎng)絡的輸出進行限制,如限制在0和1之間,那么在輸出層應當包含S型激活函數(shù);⑥在一般情況下,均是在隱含層采用S型激活函數(shù),而輸出層采用線性激活函數(shù)??臻g內(nèi),使得在低維空間內(nèi)的線性不可分的問題在高維空間內(nèi)線性可分。RBF神經(jīng)網(wǎng)絡結(jié)構(gòu)簡單、訓練簡潔而且學習收斂速度快,能夠逼近任意非線性函數(shù),因此它已被廣泛應

5、用于時間序列分析、模式識別、非線性控制和圖形處理等領域。網(wǎng)絡結(jié)構(gòu) 網(wǎng)絡結(jié)構(gòu)徑向基函數(shù)(RBF)法是一種三層靜態(tài)前向網(wǎng)絡,分別為輸入層,隱含層和輸出層。第一層為輸入層,它由信號源結(jié)點組成;第二層為隱含層,其單元數(shù)視所要描述的問題而定;第三層為輸出層,它對輸入模式的作用做出響應。它是一種將輸入矢量擴展到高維空間中的神經(jīng)網(wǎng)絡學習方法。 RBF神經(jīng)網(wǎng)絡結(jié)構(gòu)十分類似于多層感知器(MLP),也屬于多層靜態(tài)前向網(wǎng)絡的范疇。訓練 訓練&預測的思

6、路 預測的思路在RBF網(wǎng)絡中,隱含層所做的非線性變換通常是固定不變的,輸入通過隱含層被映射到一個新的向量空間,輸出層在新的向量空間中重新進行線性組合并且它對權(quán)值是線性的, 當隱含層結(jié)點個數(shù)及作用函數(shù)類型和中心等參數(shù)確定后,對權(quán)值的學習就可采用線性優(yōu)化的策略因而可以得到很快的學習速度,這也是R B F網(wǎng)絡對控制尤其對自適應控制非常有吸引力的特點。構(gòu)造和訓練一個R B F神經(jīng)網(wǎng)絡就是要讓映射函數(shù)經(jīng)過學習,從而確定每隱層神經(jīng)元參數(shù)(中心,寬度

7、)的確定一般要采用非線性優(yōu)化的策略。參數(shù)影響 參數(shù)影響①SPREAD為徑向基函數(shù)的擴展系數(shù),默認值為1.0。合理選擇SPREAD是很重要的,其值應該足夠大,是徑向基神經(jīng)元能夠?qū)斎胂蛄克采w的區(qū)間都產(chǎn)生響應,但也不要求大到所有的徑向基神經(jīng)元都如此,只要部分徑向基神經(jīng)元能夠?qū)斎胂蛄克采w的區(qū)間產(chǎn)生響應就足夠了。SPREAD的值越大,其輸出結(jié)果越光滑,但太大的SPREAD值會導致數(shù)值計算上的困難。因此,在網(wǎng)絡設計的過程中,需要用不同的SP

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論