matlab船舶考試用_第1頁
已閱讀1頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、BP BP神經(jīng)網(wǎng)絡(luò) 神經(jīng)網(wǎng)絡(luò)基本原理 基本原理反向傳播網(wǎng)絡(luò)(Back-Propagation Network,簡稱BP網(wǎng)絡(luò))是將W-H學(xué)習(xí)規(guī)則一般化,對非線性可微分函數(shù)進(jìn)行權(quán)值訓(xùn)練的多層網(wǎng)絡(luò)。它是一種多層前向反饋神經(jīng)網(wǎng)絡(luò),其神經(jīng)元的變換函數(shù)是S型函數(shù)。它利用誤差反向傳播算法對網(wǎng)絡(luò)進(jìn)行訓(xùn)練。權(quán)值的調(diào)整采用反向傳播(Back- propagation)的學(xué)習(xí)算法。輸出量為0到1之間的連續(xù)量,它可實現(xiàn)從輸入到輸出的任意的非線性映射。BP網(wǎng)絡(luò)主

2、要用于下述方面①函數(shù)逼近:用輸入矢量和相應(yīng)的輸出矢量訓(xùn)練一個網(wǎng)絡(luò)逼近一個函數(shù);②模式識別和分類:用一個特定的輸出矢量將它與輸入矢量聯(lián)系起來;把輸入矢量以所定義的合適方式進(jìn)行分類;③數(shù)據(jù)壓縮:減少輸出矢量維數(shù)以便于傳輸或存儲。具有較強(qiáng)泛化性能:使網(wǎng)絡(luò)平滑地學(xué)習(xí)函數(shù),使網(wǎng)絡(luò)能夠合理地響應(yīng)被訓(xùn)練以外的輸入。泛化性能只對被訓(xùn)練的輸入/輸出對最大值范圍內(nèi)的數(shù)據(jù)有效,即網(wǎng)絡(luò)具有內(nèi)插值特性,不具有外插值性。超出最大訓(xùn)練值的輸入必將產(chǎn)生大的輸出誤差。網(wǎng)

3、絡(luò)結(jié)構(gòu) 網(wǎng)絡(luò)結(jié)構(gòu)一個具有r個輸入和一個隱含層的神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)。BP網(wǎng)絡(luò)具有一層或多層隱含層,除了在多層網(wǎng)絡(luò)上與前面已介紹過的模型有不同外,其主要差別也表現(xiàn)在激活函數(shù)上。BP網(wǎng)絡(luò)的激活函數(shù)必須是處處可微的,因此它不能采用二值型的閥值函數(shù){0,1}或符號函數(shù){-1,1}。BP網(wǎng)絡(luò)經(jīng)常使用的是S型的對數(shù)或正切激活函數(shù)和線性函數(shù)。BP網(wǎng)絡(luò)特點有以下幾點:①輸入和輸出是并行的模擬量;②網(wǎng)絡(luò)的輸入輸出關(guān)系是各層連接的權(quán)因子決定,沒有固定的算法;③

4、權(quán)因子通過學(xué)習(xí)信號調(diào)節(jié)。學(xué)習(xí)越多,網(wǎng)絡(luò)越聰明;④隱含層越多,網(wǎng)絡(luò)輸出精度越高,且個別權(quán)因子的損壞不會對網(wǎng)絡(luò)輸出產(chǎn)生大的影響;⑤只有當(dāng)希望對網(wǎng)絡(luò)的輸出進(jìn)行限制,如限制在0和1之間,那么在輸出層應(yīng)當(dāng)包含S型激活函數(shù);⑥在一般情況下,均是在隱含層采用S型激活函數(shù),而輸出層采用線性激活函數(shù)??臻g內(nèi),使得在低維空間內(nèi)的線性不可分的問題在高維空間內(nèi)線性可分。RBF神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)簡單、訓(xùn)練簡潔而且學(xué)習(xí)收斂速度快,能夠逼近任意非線性函數(shù),因此它已被廣泛應(yīng)

5、用于時間序列分析、模式識別、非線性控制和圖形處理等領(lǐng)域。網(wǎng)絡(luò)結(jié)構(gòu) 網(wǎng)絡(luò)結(jié)構(gòu)徑向基函數(shù)(RBF)法是一種三層靜態(tài)前向網(wǎng)絡(luò),分別為輸入層,隱含層和輸出層。第一層為輸入層,它由信號源結(jié)點組成;第二層為隱含層,其單元數(shù)視所要描述的問題而定;第三層為輸出層,它對輸入模式的作用做出響應(yīng)。它是一種將輸入矢量擴(kuò)展到高維空間中的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)方法。 RBF神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)十分類似于多層感知器(MLP),也屬于多層靜態(tài)前向網(wǎng)絡(luò)的范疇。訓(xùn)練 訓(xùn)練&預(yù)測的思

6、路 預(yù)測的思路在RBF網(wǎng)絡(luò)中,隱含層所做的非線性變換通常是固定不變的,輸入通過隱含層被映射到一個新的向量空間,輸出層在新的向量空間中重新進(jìn)行線性組合并且它對權(quán)值是線性的, 當(dāng)隱含層結(jié)點個數(shù)及作用函數(shù)類型和中心等參數(shù)確定后,對權(quán)值的學(xué)習(xí)就可采用線性優(yōu)化的策略因而可以得到很快的學(xué)習(xí)速度,這也是R B F網(wǎng)絡(luò)對控制尤其對自適應(yīng)控制非常有吸引力的特點。構(gòu)造和訓(xùn)練一個R B F神經(jīng)網(wǎng)絡(luò)就是要讓映射函數(shù)經(jīng)過學(xué)習(xí),從而確定每隱層神經(jīng)元參數(shù)(中心,寬度

7、)的確定一般要采用非線性優(yōu)化的策略。參數(shù)影響 參數(shù)影響①SPREAD為徑向基函數(shù)的擴(kuò)展系數(shù),默認(rèn)值為1.0。合理選擇SPREAD是很重要的,其值應(yīng)該足夠大,是徑向基神經(jīng)元能夠?qū)斎胂蛄克采w的區(qū)間都產(chǎn)生響應(yīng),但也不要求大到所有的徑向基神經(jīng)元都如此,只要部分徑向基神經(jīng)元能夠?qū)斎胂蛄克采w的區(qū)間產(chǎn)生響應(yīng)就足夠了。SPREAD的值越大,其輸出結(jié)果越光滑,但太大的SPREAD值會導(dǎo)致數(shù)值計算上的困難。因此,在網(wǎng)絡(luò)設(shè)計的過程中,需要用不同的SP

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論