版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、<p><b> 目錄</b></p><p><b> 摘要1</b></p><p><b> 關(guān)鍵詞2</b></p><p> Abstract2</p><p> Key words2</p><p><b&g
2、t; 引言2</b></p><p> 1 BP神經(jīng)網(wǎng)絡(luò)概述3</p><p> 1.1 基本原理3</p><p> 1.2 BP算法學(xué)習(xí)過程4</p><p> 2 空氣質(zhì)量檢測模型的建立6</p><p><b> 2.1樣本數(shù)據(jù)6</b></p&
3、gt;<p> 2.1.1收集和整理分組6</p><p> 2.1.2輸入/輸出變量的確定及其數(shù)據(jù)的預(yù)處理7</p><p> 2.2神經(jīng)網(wǎng)絡(luò)拓撲結(jié)構(gòu)的確定7</p><p> 2.2.1隱層數(shù)7</p><p> 2.2.2隱層節(jié)點數(shù)7</p><p> 2.3神經(jīng)網(wǎng)絡(luò)的訓(xùn)練8
4、</p><p> 2.4神經(jīng)網(wǎng)絡(luò)模型參數(shù)的確定10</p><p> 2.4.1隱層的數(shù)目10</p><p> 2.4.2隱層神經(jīng)元數(shù)的選擇10</p><p> 2.4.3 學(xué)習(xí)率和動量因子13</p><p> 2.4.4 初始權(quán)值的選擇13</p><p> 2.
5、4.5 收斂誤差界值Emin13</p><p> 2.4.6輸入數(shù)據(jù)的預(yù)處理13</p><p> 3 MATLAB實現(xiàn)和結(jié)果分析14</p><p> 3.1 MATLAB神經(jīng)網(wǎng)絡(luò)工具箱的應(yīng)用14</p><p> 3.2 基于MATLAB的BP算法的實現(xiàn)過程14</p><p> 3.3訓(xùn)練
6、神經(jīng)網(wǎng)絡(luò)15</p><p><b> 4結(jié)語23</b></p><p><b> 致謝23</b></p><p><b> 參考文獻23</b></p><p> 基于神經(jīng)網(wǎng)絡(luò)的空氣質(zhì)量檢測</p><p> 摘要:空氣質(zhì)量的好壞
7、反映了空氣污染程度,它是依據(jù)空氣中污染物濃度的高低來判斷的。污染物濃度由于受風(fēng)向、風(fēng)速、氣溫、濕度、污染源排放情況等多種因素的影響,使得空氣質(zhì)量問題具有很大的不確定性和一定的復(fù)雜性。神經(jīng)網(wǎng)絡(luò)作為一種描述和刻畫非線性的強有力工具,具有較強的自學(xué)習(xí)、自組織、自適應(yīng)能力等特點,特別適合于對具有多因素性、不確定性、隨機性、非線性和隨時間變化特性的對象進行研究。本文基于神經(jīng)網(wǎng)絡(luò)的BP算法,利用MATLAB神經(jīng)網(wǎng)絡(luò)工具箱建立了空氣質(zhì)量模型。文中,采
8、用MATLAB 的rand()函數(shù)在各級評價標(biāo)準內(nèi)按隨機均勻分布方式內(nèi)插生成訓(xùn)練樣本和檢驗樣本,利用premnmx()函數(shù)對數(shù)據(jù)進行預(yù)處理,調(diào)用激活函數(shù)對網(wǎng)絡(luò)權(quán)值進行訓(xùn)練,并同其他評價方法比較,取得了良好的評價結(jié)果。同時表明此方法具有一定的客觀性和積極性。</p><p> 關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò);空氣質(zhì)量; MATLAB神經(jīng)網(wǎng)絡(luò)工具箱</p><p> The detection of
9、 air quality based on neural network </p><p> Abstract:The quality of air quality reflects the extent of air pollution, which is based on the concentration of pollutants in the air to determine the level of
10、 the air. Concentration of pollutants due to wind direction, wind speed, air temperature, humidity, pollutant emissions and other factors, makes the issue of air quality is a great uncertainty and a certain degree of com
11、plexity. Neural network description and characterization as a powerful tool for non-linear phenomenon, with strong self-</p><p> Key words:BP neural network; Air quality; MATLAB neural network toolbox</p
12、><p><b> 引言</b></p><p> 神經(jīng)網(wǎng)絡(luò)(又稱人工神經(jīng)網(wǎng)絡(luò),Neural Networks),是由眾多簡單的神經(jīng)元連接而成的一個網(wǎng)絡(luò),通過模擬人腦細胞的分布式工作特點和自組織功能實現(xiàn)并行處理、自學(xué)習(xí)和非線性映射等功能。盡管每個神經(jīng)元結(jié)構(gòu)、功能都不復(fù)雜,但網(wǎng)絡(luò)的整體動態(tài)行為卻是極為復(fù)雜的,可以組成高度非線性動力學(xué)系統(tǒng),從而可以表達很多復(fù)雜的物理系統(tǒng)。
13、神經(jīng)網(wǎng)絡(luò)作為一種描述和刻畫非線性現(xiàn)象的強有力工具,具有較強的自學(xué)習(xí)、自組織、自適應(yīng)能力等特點,特別適合于對具有多因素性、不確定性、隨機性、非線性和隨時間變化特性的對象進行研究[5]。 神經(jīng)網(wǎng)絡(luò)在環(huán)境科學(xué)與工程中的應(yīng)用如環(huán)境質(zhì)量評價、環(huán)境系統(tǒng)因素預(yù)測、環(huán)境因素定量關(guān)系模擬、構(gòu)效分析、成因分析和污染防治系統(tǒng)建模已取得了令人矚目的進展。</p><p> 空氣質(zhì)量預(yù)報主要是依靠環(huán)境空氣質(zhì)量自動監(jiān)測系統(tǒng)連續(xù)不斷地實時監(jiān)
14、測數(shù)據(jù),并自動傳輸?shù)娇刂剖?,?jīng)數(shù)據(jù)處理后得出當(dāng)天的空氣污染指數(shù),再向社會公布。自動監(jiān)測系統(tǒng)每4分鐘就產(chǎn)生一組監(jiān)測數(shù)據(jù),連續(xù)不斷地測量,然后計算出小時均值和日均值,一般來說,日均值是采用上一天中午12時到次日12時的數(shù)據(jù)。根據(jù)環(huán)境空氣質(zhì)量標(biāo)準和各項污染物對人體健康和生態(tài)的影響來確定各級污染物濃度的限值,詳細請參照附錄表一:中華人民共和國國家標(biāo)準空氣質(zhì)量標(biāo)準(GB3095-1996)各項污染物的濃度限值(1999年)。</p>
15、<p> 環(huán)境空氣質(zhì)量由于受風(fēng)向、風(fēng)速、氣溫、濕度、污染源排放情況等多種因素的影響,使得環(huán)境空氣質(zhì)量問題具有很大的不確定性。論文將BP神經(jīng)網(wǎng)絡(luò)應(yīng)用到環(huán)境空氣質(zhì)量當(dāng)中,利用MATLAB的神經(jīng)網(wǎng)絡(luò)工具箱訓(xùn)練網(wǎng)絡(luò),建立起了環(huán)境空氣質(zhì)量檢測模型。 </p><p> 1 BP神經(jīng)網(wǎng)絡(luò)概述</p><p><b> 1.1 基本原理</b></p>
16、<p> BP神經(jīng)網(wǎng)絡(luò)是一種利用誤差反向傳播算法的人工神經(jīng)網(wǎng)絡(luò),具有很強的自學(xué)習(xí)自適應(yīng)抗干擾能力。其網(wǎng)絡(luò)結(jié)構(gòu)由輸入層中間層(隱層)和輸出層構(gòu)成,輸入層接收到的信號經(jīng)過隱層激活放大后再由輸出層,信號傳遞時每一層神經(jīng)元通過權(quán)值只影響下一層神經(jīng)元的狀態(tài),結(jié)構(gòu)模型圖如圖1 </p><p> 圖1 BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型圖</p><p> 其基本原理是:先從基礎(chǔ)數(shù)據(jù)中給出有代表
17、性的網(wǎng)絡(luò)輸入信號(即訓(xùn)練樣本),并根據(jù)所要關(guān)心的具體問題構(gòu)造出期望的目標(biāo)信號(教師樣本)輸入網(wǎng)絡(luò),然后在網(wǎng)絡(luò)學(xué)習(xí)和自適應(yīng)過程中,通過輸入信號在正向的激活放大傳播和誤差的反向傳播,不斷修改和調(diào)整各層神經(jīng)元的連接權(quán)值,使輸出信號與期望目標(biāo)輸出信號間的誤差減至最小,當(dāng)其值小于某一給定值時,即認為完成或訓(xùn)練好該神經(jīng)網(wǎng)絡(luò),在此基礎(chǔ)上將進行下一步的預(yù)測或擬合。</p><p> 1.2 BP算法學(xué)習(xí)過程</p>
18、<p> BP算法學(xué)習(xí)過程由信號的正向傳播與誤差的反向傳播兩個過程組成。</p><p> 設(shè)輸入為P,輸入神經(jīng)元有r個,隱含層內(nèi)有s1個神經(jīng)元,激活函數(shù)為F1,輸出層內(nèi)有s2個神經(jīng)元,對應(yīng)的激活函數(shù)為F2,輸出為A,目標(biāo)矢量為T。</p><p> ?。ㄒ唬┱騻鞑ィ狠斎霕颖尽斎雽印麟[層(處理)→輸出層</p><p> 隱含層中第i個神經(jīng)
19、元的輸出為:</p><p> 輸出層第k個神經(jīng)元的輸出為:</p><p><b> 定義誤差函數(shù)為:</b></p><p> 注1:若輸出層實際輸出與期望輸出(教師信號)不符,則轉(zhuǎn)入2)(誤差反向傳播過程)</p><p> ?。ǘ┱`差反向傳播[2]:輸出誤差(某種形式)→隱層(逐層)→輸入層</p&
20、gt;<p><b> 輸出層的權(quán)值變化</b></p><p> 對從第i個輸入到第k個輸出的權(quán)值,有:</p><p><b> 其中:</b></p><p><b> 同理可得:</b></p><p><b> 隱含層權(quán)值變化<
21、/b></p><p> 對從第j個輸入到第i個輸出的權(quán)值,有:</p><p><b> 其中:</b></p><p><b> 同理可得:</b></p><p> 在MATLAB工具箱中,上述公式的計算均已編成函數(shù)的形式,通過簡單的書寫調(diào)用即可方便地獲得結(jié)果。</p>
22、;<p> 誤差反向傳播過程實際上是通過計算輸出層的誤差,然后將其與輸出層激活函數(shù)的一階導(dǎo)數(shù)相乘來求得。由于隱含層中沒有直接給出目標(biāo)矢量,所以利用輸出層的進行誤差反向傳遞來求出隱含層權(quán)值的變化量。然后計算,并同樣通過將與該層激活函數(shù)的一階導(dǎo)數(shù)相乘,而求得,以此求出前層權(quán)值的變化量。如果前面還有隱含層,沿用上述同樣方法依此類推,一直將輸出誤差一層一層的反推算到第一層為止。</p><p> 注2:
23、權(quán)值調(diào)整的過程,也就是網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練過程(這也就是學(xué)習(xí)的由來→權(quán)值調(diào)整)。</p><p> BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練流程圖,如圖2</p><p> 圖2 BP神經(jīng)網(wǎng)絡(luò)算法流程圖</p><p> 2 空氣質(zhì)量檢測模型的建立</p><p> 2.1樣本數(shù)據(jù)[7]</p><p> 2.1.1收集和整理分組
24、</p><p> 采用BP神經(jīng)網(wǎng)絡(luò)方法建模的首要和前提條件是有足夠多典型性好和精度高的樣本。而且,為監(jiān)控訓(xùn)練(學(xué)習(xí))過程使之不發(fā)生“過擬合”和評價建立的網(wǎng)絡(luò)模型的性能和泛化能力,必須將收集到的數(shù)據(jù)隨機分成訓(xùn)練樣本、檢驗樣本(10%以上)和測試樣本(10%以上)3部分。此外,數(shù)據(jù)分組時還應(yīng)盡可能考慮樣本模式間的平衡。</p><p> 2.1.2輸入/輸出變量的確定及其數(shù)據(jù)的預(yù)處理&l
25、t;/p><p> 一般地,BP網(wǎng)絡(luò)的輸入變量即為待分析系統(tǒng)的內(nèi)生變量(影響因子或自變量)數(shù),一般根據(jù)專業(yè)知識確定。若輸入變量較多,一般可通過主成份分析方法壓減輸入變量,也可根據(jù)剔除某一變量引起的系統(tǒng)誤差與原系統(tǒng)誤差的比值的大小來壓減輸入變量。輸出變量即為系統(tǒng)待分析的外生變量(系統(tǒng)性能指標(biāo)或因變量),可以是一個,也可以是多個。一般將一個具有多個輸出的網(wǎng)絡(luò)模型轉(zhuǎn)化為多個具有一個輸出的網(wǎng)絡(luò)模型效果會更好,訓(xùn)練也更方便。
26、</p><p> 由于BP神經(jīng)網(wǎng)絡(luò)的隱層一般采用Sigmoid轉(zhuǎn)換函數(shù),為提高訓(xùn)練速度和靈敏性以及有效避開Sigmoid函數(shù)的飽和區(qū),一般要求輸入數(shù)據(jù)的值在0~1之間。因此,要對輸入數(shù)據(jù)進行預(yù)處理。一般要求對不同變量分別進行預(yù)處理,也可以對類似性質(zhì)的變量進行統(tǒng)一的預(yù)處理。如果輸出層節(jié)點也采用Sigmoid轉(zhuǎn)換函數(shù),輸出變量也必須作相應(yīng)的預(yù)處理,否則,輸出變量也可以不做預(yù)處理。</p><p
27、> 預(yù)處理的方法有多種多樣,各文獻采用的公式也不盡相同。但必須注意的是,預(yù)處理的數(shù)據(jù)訓(xùn)練完成后,網(wǎng)絡(luò)輸出的結(jié)果要進行反變換才能得到實際值。再者,為保證建立的模型具有一定的外推能力,最好使數(shù)據(jù)預(yù)處理后的值在0.2~0.8之間。</p><p> 2.2神經(jīng)網(wǎng)絡(luò)拓撲結(jié)構(gòu)的確定</p><p><b> 2.2.1隱層數(shù)</b></p><p
28、> 一般認為,增加隱層數(shù)可以降低網(wǎng)絡(luò)誤差(也有文獻認為不一定能有效降低),提高精度,但也使網(wǎng)絡(luò)復(fù)雜化,從而增加了網(wǎng)絡(luò)的訓(xùn)練時間和出現(xiàn)“過擬合”的傾向。Hornik等早已證明:若輸入層和輸出層采用線性轉(zhuǎn)換函數(shù),隱層采用Sigmoid轉(zhuǎn)換函數(shù),則含一個隱層的MLP網(wǎng)絡(luò)能夠以任意精度逼近任何有理函數(shù)。顯然,這是一個存在性結(jié)論。這實際上已經(jīng)給了我們一個基本的設(shè)計BP網(wǎng)絡(luò)的原則,應(yīng)優(yōu)先考慮3層BP網(wǎng)絡(luò)(即有1個隱層)。</p>
29、<p> 實際上誤差精度的提高可以通過增加隱含層中神經(jīng)元數(shù)目來獲得,其訓(xùn)練效果要比增加隱層數(shù)更容易觀察和實現(xiàn)。所以一般情況下,應(yīng)優(yōu)先考慮增加隱含層中的神經(jīng)元數(shù)。另外一個問題:能不能僅用具有非線性激活函數(shù)的單層網(wǎng)絡(luò)來解決問題呢?結(jié)論是:沒有必要或效果不好。因為能用單層非線性網(wǎng)絡(luò)解決的問題,用自適應(yīng)線性網(wǎng)絡(luò)一定也能解決,而且自適應(yīng)線性網(wǎng)絡(luò)的運算速度還更快。而對于只能用非線性函數(shù)解決的問題,單層精度又不夠高,也只有增加層數(shù)才能
30、達到期望的結(jié)果。這主要還是因為一層網(wǎng)絡(luò)的神經(jīng)元數(shù)被所要解決的問題本身限制造成的。</p><p> 2.2.2隱層節(jié)點數(shù)</p><p> 在BP 網(wǎng)絡(luò)中,隱層節(jié)點數(shù)的選擇非常重要,它不僅對建立的神經(jīng)網(wǎng)絡(luò)模型的性能影響很大,而且是訓(xùn)練時出現(xiàn)“過擬合”的直接原因,但是目前理論上還沒有一種科學(xué)的和普遍的確定方法。</p><p> 目前多數(shù)文獻中提出的確定隱層節(jié)點
31、數(shù)的計算公式都是針對訓(xùn)練樣本任意多的情況,而且多數(shù)是針對最不利的情況,一般工程實踐中很難滿足,不宜采用。事實上,各種計算公式得到的隱層節(jié)點數(shù)有時相差幾倍甚至上百倍。為盡可能避免訓(xùn)練時出現(xiàn)“過擬合”現(xiàn)象,保證足夠高的網(wǎng)絡(luò)性能和泛化能力,確定隱層節(jié)點數(shù)的最基本原則是:在滿足精度要求的前提下取盡可能緊湊的結(jié)構(gòu),即取盡可能少的隱層節(jié)點數(shù)。研究表明,隱層節(jié)點數(shù)不僅與輸入/輸出層的節(jié)點數(shù)有關(guān),更與需解決的問題的復(fù)雜程度和轉(zhuǎn)換函數(shù)的形式以及樣本數(shù)據(jù)的
32、特性等因素有關(guān)。</p><p> 在確定隱層節(jié)點數(shù)時必須滿足下列條件:</p><p> (1)隱層節(jié)點數(shù)必須小于N-1(其中N為訓(xùn)練樣本數(shù)),否則,網(wǎng)絡(luò)模型的系統(tǒng)誤差與訓(xùn)練樣本的特性無關(guān)而趨于零,即建立的網(wǎng)絡(luò)模型沒有泛化能力,也沒有任何實用價值。同理可推得:輸入層的節(jié)點數(shù)(變量數(shù))必須小于N-1。</p><p> (2)訓(xùn)練樣本數(shù)必須多于網(wǎng)絡(luò)模型的連接權(quán)
33、數(shù),否則,樣本必須分成幾部分并采用“輪流訓(xùn)練”的方法才可能得到可靠的神經(jīng)網(wǎng)絡(luò)模型。</p><p> 總之,若隱層節(jié)點數(shù)太少,網(wǎng)絡(luò)可能根本不能訓(xùn)練或網(wǎng)絡(luò)性能很差;若隱層節(jié)點數(shù)太多,雖然可使網(wǎng)絡(luò)的系統(tǒng)誤差減小,但一方面使網(wǎng)絡(luò)訓(xùn)練時間延長,另一方面,訓(xùn)練容易陷入局部極小點而得不到最優(yōu)點,也是訓(xùn)練時出現(xiàn)“過擬合”的內(nèi)在原因。因此,合理隱層節(jié)點數(shù)應(yīng)在綜合考慮網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜程度和誤差大小的情況下用節(jié)點刪除法和擴張法確定。&
34、lt;/p><p> 2.3神經(jīng)網(wǎng)絡(luò)的訓(xùn)練</p><p><b> ?。ㄒ唬┯?xùn)練</b></p><p> BP網(wǎng)絡(luò)的訓(xùn)練就是通過應(yīng)用誤差反傳原理不斷調(diào)整網(wǎng)絡(luò)權(quán)值使網(wǎng)絡(luò)模型輸出值與已知的訓(xùn)練樣本輸出值之間的誤差平方和達到最小或小于某一期望值。雖然理論上早已經(jīng)證明:具有1個隱層(采用Sigmoid轉(zhuǎn)換函數(shù))的BP網(wǎng)絡(luò)可實現(xiàn)對任意函數(shù)的任意逼近。
35、但遺憾的是,迄今為止還沒有構(gòu)造性結(jié)論,即在給定有限個(訓(xùn)練)樣本的情況下,如何設(shè)計一個合理的BP網(wǎng)絡(luò)模型并通過向所給的有限個樣本的學(xué)習(xí)(訓(xùn)練)來滿意地逼近樣本所蘊含的規(guī)律(函數(shù)關(guān)系,不僅僅是使訓(xùn)練樣本的誤差達到很?。┑膯栴},目前在很大程度上還需要依靠經(jīng)驗知識和設(shè)計者的經(jīng)驗。因此,通過訓(xùn)練樣本的學(xué)習(xí)(訓(xùn)練)建立合理的BP神經(jīng)網(wǎng)絡(luò)模型的過程,在國外被稱為“藝術(shù)創(chuàng)造的過程”,是一個復(fù)雜而又十分煩瑣和困難的過程。</p><
36、p> 由于BP網(wǎng)絡(luò)采用誤差反傳算法,其實質(zhì)是一個無約束的非線性最優(yōu)化計算過程,在網(wǎng)絡(luò)結(jié)構(gòu)較大時不僅計算時間長,而且很容易限入局部極小點而得不到最優(yōu)結(jié)果。目前雖已有改進BP法、遺傳算法(GA)和模擬退火算法等多種優(yōu)化方法用于BP網(wǎng)絡(luò)的訓(xùn)練(這些方法從原理上講可通過調(diào)整某些參數(shù)求得全局極小點),但在應(yīng)用中,這些參數(shù)的調(diào)整往往因問題不同而異,較難求得全局極小點。這些方法中應(yīng)用最廣的是增加了沖量(動量)項和自適應(yīng)調(diào)整的改進BP算法。&l
37、t;/p><p> (二)學(xué)習(xí)率和沖量系數(shù)</p><p> 學(xué)習(xí)率影響系統(tǒng)學(xué)習(xí)過程的穩(wěn)定性。大的學(xué)習(xí)率可能使網(wǎng)絡(luò)權(quán)值每一次的修正量過大,甚至?xí)?dǎo)致權(quán)值在修正過程中超出某個誤差的極小值呈不規(guī)則跳躍而不收斂;但過小的學(xué)習(xí)率導(dǎo)致學(xué)習(xí)時間過長,不過能保證收斂于某個極小值。所以,一般傾向選取較小的學(xué)習(xí)率以保證學(xué)習(xí)過程的收斂性(穩(wěn)定性),通常在0.01~0.8之間。</p><p
38、> 增加沖量項的目的是為了避免網(wǎng)絡(luò)訓(xùn)練陷于較淺的局部極小點。理論上其值大小應(yīng)與權(quán)值修正量的大小有關(guān),但實際應(yīng)用中一般取常量。通常在0~1之間,而且一般比學(xué)習(xí)率要大。</p><p> (三)網(wǎng)絡(luò)的初始連接權(quán)值</p><p> BP算法決定了誤差函數(shù)一般存在(很)多個局部極小點,不同的網(wǎng)絡(luò)初始權(quán)值直接決定了BP算法收斂于哪個局部極小點或是全局極小點。因此,要求計算程序必須能夠自
39、由改變網(wǎng)絡(luò)初始連接權(quán)值。由于Sigmoid轉(zhuǎn)換函數(shù)的特性,一般要求初始權(quán)值分布在-0.5~0.5之間比較有效。</p><p> ?。ㄋ模┚W(wǎng)絡(luò)模型的性能和泛化能力</p><p> 訓(xùn)練神經(jīng)網(wǎng)絡(luò)的首要和根本任務(wù)是確保訓(xùn)練好的網(wǎng)絡(luò)模型對非訓(xùn)練樣本具有好的泛化能力(推廣性),即有效逼近樣本蘊含的內(nèi)在規(guī)律,而不是看網(wǎng)絡(luò)模型對訓(xùn)練樣本的擬合能力。從存在性結(jié)論可知,即使每個訓(xùn)練樣本的誤差都很?。?/p>
40、以為零),并不意味著建立的模型已逼近訓(xùn)練樣本所蘊含的規(guī)律。因此,僅給出訓(xùn)練樣本誤差(通常是指均方根誤差RSME或均方誤差、AAE或MAPE等)的大小而不給出非訓(xùn)練樣本誤差的大小是沒有任何意義的。</p><p> 要分析建立的網(wǎng)絡(luò)模型對樣本所蘊含的規(guī)律的逼近情況(能力),即泛化能力,應(yīng)該也必須用非訓(xùn)練樣本(檢驗樣本和測試樣本)誤差的大小來表示和評價,這也是之所以必須將總樣本分成訓(xùn)練樣本和非訓(xùn)練樣本而絕不能將全部
41、樣本用于網(wǎng)絡(luò)訓(xùn)練的主要原因之一。判斷建立的模型是否已有效逼近樣本所蘊含的規(guī)律,最直接和客觀的指標(biāo)是從總樣本中隨機抽取的非訓(xùn)練樣本(檢驗樣本和測試樣本)誤差是否和訓(xùn)練樣本的誤差一樣小或稍大。非訓(xùn)練樣本誤差很接近訓(xùn)練樣本誤差或比其小,一般可認為建立的網(wǎng)絡(luò)模型已有效逼近訓(xùn)練樣本所蘊含的規(guī)律,否則,若相差很多(如幾倍、幾十倍甚至上千倍)就說明建立的網(wǎng)絡(luò)模型并沒有有效逼近訓(xùn)練樣本所蘊含的規(guī)律,而只是在這些訓(xùn)練樣本點上逼近而已,而建立的網(wǎng)絡(luò)模型是對
42、訓(xùn)練樣本所蘊含規(guī)律的錯誤反映。因為訓(xùn)練樣本的誤差可以達到很小,因此,用從總樣本中隨機抽取的一部分測試樣本的誤差表示網(wǎng)絡(luò)模型計算和預(yù)測所具有的精度(網(wǎng)絡(luò)性能)是合理的和可靠的。</p><p> 值得注意的是,判斷網(wǎng)絡(luò)模型泛化能力的好壞,主要不是看測試樣本誤差大小的本身,而是要看測試樣本的誤差是否接近于訓(xùn)練樣本和檢驗樣本的誤差。</p><p> (五)合理網(wǎng)絡(luò)模型的確定</p&g
43、t;<p> 對同一結(jié)構(gòu)的網(wǎng)絡(luò),由于BP算法存在(很)多個局部極小點,因此,必須通過多次(通常是幾十次)改變網(wǎng)絡(luò)初始連接權(quán)值求得相應(yīng)的極小點,才能通過比較這些極小點的網(wǎng)絡(luò)誤差的大小,確定全局極小點,從而得到該網(wǎng)絡(luò)結(jié)構(gòu)的最佳網(wǎng)絡(luò)連接權(quán)值。必須注意的是,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程本質(zhì)上是求非線性函數(shù)的極小點問題,因此,在全局極小點鄰域內(nèi)(即使網(wǎng)絡(luò)誤差相同),各個網(wǎng)絡(luò)連接權(quán)值也可能有較大的差異,這有時也會使各個輸入變量的重要性發(fā)生變化
44、,但這與具有多個零極小點(一般稱為多模式現(xiàn)象)(如訓(xùn)練樣本數(shù)少于連接權(quán)數(shù)時)的情況是截然不同的。此外,在不滿足隱層節(jié)點數(shù)條件時,總也可以求得訓(xùn)練樣本誤差很小或為零的極小點,但此時檢驗樣本和測試樣本的誤差可能要大得多;若改變網(wǎng)絡(luò)連接權(quán)初始值,檢驗樣本和測試樣本的網(wǎng)絡(luò)計算結(jié)果會產(chǎn)生很大變化,即多模式現(xiàn)象。</p><p> 對于不同的網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)模型的誤差或性能和泛化能力也不一樣。因此,還必須比較不同網(wǎng)絡(luò)結(jié)構(gòu)的模
45、型的優(yōu)劣。一般地,隨著網(wǎng)絡(luò)結(jié)構(gòu)的變大,誤差變小。通常,在網(wǎng)絡(luò)結(jié)構(gòu)擴大(隱層節(jié)點數(shù)增加)的過程中,網(wǎng)絡(luò)誤差會出現(xiàn)迅速減小然后趨于穩(wěn)定的一個階段,因此,合理隱層節(jié)點數(shù)應(yīng)取誤差迅速減小后基本穩(wěn)定時的隱層節(jié)點數(shù)。</p><p> 總之,合理網(wǎng)絡(luò)模型是必須在具有合理隱層節(jié)點數(shù)、訓(xùn)練時沒有發(fā)生“過擬合”現(xiàn)象、求得全局極小點和同時考慮網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜程度和誤差大小的綜合結(jié)果。設(shè)計合理BP網(wǎng)絡(luò)模型的過程是一個不斷調(diào)整參數(shù)的過程,
46、也是一個不斷對比結(jié)果的過程,比較復(fù)雜且有時還帶有經(jīng)驗性。這個過程并不是想象的那樣,隨便套用一個公式確定隱層節(jié)點數(shù),經(jīng)過一次訓(xùn)練就能得到合理的網(wǎng)絡(luò)模型(這樣建立的模型極有可能是訓(xùn)練樣本的錯誤反映,沒有任何實用價值)。</p><p> 雖然神經(jīng)網(wǎng)絡(luò)的類型很多,建立神經(jīng)網(wǎng)絡(luò)模型時,根據(jù)研究對象的特點,可以考慮不同的神經(jīng)網(wǎng)絡(luò)模型。 前饋型BP網(wǎng)絡(luò)即誤差逆?zhèn)鞑ド窠?jīng)網(wǎng)絡(luò)是最常用、最流行的神經(jīng)網(wǎng)絡(luò)。BP網(wǎng)絡(luò)的輸入和輸出關(guān)系
47、可以看成是一種映射關(guān)系,即每一組輸入對應(yīng)一組輸出。由于網(wǎng)絡(luò)中神經(jīng)元作用函數(shù)的非線性,網(wǎng)絡(luò)實現(xiàn)是復(fù)雜的非線性映射。關(guān)于這類網(wǎng)絡(luò)對非線性的逼近能力,Hornikl等分別利用不同的方法證明了如下一個事實:僅含有一個隱層的前向網(wǎng)絡(luò)能以任意精度逼近定義在Rn的一個緊集上的任意非線性函數(shù)。誤差反向算法是最著名的多層前向網(wǎng)絡(luò)訓(xùn)練算法,盡管存在收斂速度慢、局部極值等缺點,但可通過各種改進措施來提高它的收斂速度、克服局部極值現(xiàn)象,而且具有簡單、易行、計算
48、量小、并行性強等特點,目前仍是多層前向網(wǎng)絡(luò)的首選算法。</p><p> 2.4神經(jīng)網(wǎng)絡(luò)模型參數(shù)的確定</p><p> 由于傳統(tǒng)的誤差反傳BP算法較為成熟,且應(yīng)用廣泛,因此努力提高該方法的學(xué)習(xí)速度具有較高的實用價值。BP算法中有幾個常用的參數(shù),包括學(xué)習(xí)率,動量因子,形狀因子λ及收斂誤差界值E等。這些參數(shù)對訓(xùn)練速度的影響最為關(guān)鍵。</p><p> 2.4.1
49、隱層的數(shù)目</p><p> 理論上雖然證明了這類網(wǎng)絡(luò)的逼近能力,對于網(wǎng)絡(luò)結(jié)構(gòu)的要求,并沒有給出明確的說明。因而在應(yīng)用中神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)確定常常有人為的主觀性和藝術(shù)性,缺乏一個指導(dǎo)原則。而網(wǎng)絡(luò)訓(xùn)練與結(jié)構(gòu)緊密相關(guān),太大的網(wǎng)絡(luò)結(jié)構(gòu)在訓(xùn)練時效率不高,而且還會由于過擬合(overfitting)造成網(wǎng)絡(luò)的性能脆弱,泛化能力(generalization ability)下降;太小的網(wǎng)絡(luò)可能就根本不收斂??紤]到本研究的
50、特點,結(jié)合不同隱層網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練結(jié)果,本文選擇了隱層數(shù)L=1的網(wǎng)絡(luò)結(jié)構(gòu)模型。</p><p> 2.4.2隱層神經(jīng)元數(shù)的選擇</p><p> 隱層神經(jīng)元數(shù)的選擇是一個十分復(fù)雜的問題。因為沒有很好的解析式表示,可以說隱層神經(jīng)元數(shù)與問題的要求、輸入層與輸出層神經(jīng)元的數(shù)量、訓(xùn)練樣本的數(shù)量等都有直接關(guān)系。事實上隱層神經(jīng)元太少不可能將網(wǎng)絡(luò)訓(xùn)練出來,但太多又使學(xué)習(xí)時間過長,使網(wǎng)絡(luò)不“不強壯”,泛
51、化能力下降,即不能識別以前沒有直接接收到的樣本,容錯性差。</p><p> 隱層神經(jīng)元數(shù)為4,5的訓(xùn)練結(jié)果如下:</p><p> 圖3 隱層神經(jīng)元為4的訓(xùn)練結(jié)果</p><p> 圖4 隱層神經(jīng)元為5的訓(xùn)練結(jié)果</p><p> 同理比較神經(jīng)元數(shù)為6,9,10等等,可得當(dāng)隱層神經(jīng)元數(shù)為5時最好,所以,隱層節(jié)點為5個。</p&
52、gt;<p> 神經(jīng)網(wǎng)絡(luò)模型的各層節(jié)點數(shù)分別為:輸入層3個;隱層5個;輸出層1個。</p><p> 綜合以上所述,建立空氣質(zhì)量檢測神經(jīng)網(wǎng)絡(luò)模型如圖3所示。</p><p> 圖5 空氣質(zhì)量檢測神經(jīng)網(wǎng)絡(luò)模型</p><p> 2.4.3 學(xué)習(xí)率和動量因子 </p><p> BP算法本質(zhì)上是優(yōu)化計算中的梯度下降法,利用
53、誤差對于權(quán)、閥值的一階導(dǎo)數(shù)信息來指導(dǎo)下一步的權(quán)值調(diào)整方向,以求最終得到誤差最小。為了保證算法的收斂性,學(xué)習(xí)率必須小于某一上限,一般取0<<1,而且越接近極小值,由于梯度變化值逐漸趨于零,算法的收斂就越來越慢。在網(wǎng)絡(luò)參數(shù)中,學(xué)習(xí)率和動量因子是很重要的,它們的取值直接影響到網(wǎng)絡(luò)的性能,主要是收斂速度。為提高學(xué)習(xí)速度,應(yīng)采用大的。但太大卻可能導(dǎo)致在穩(wěn)定點附近振蕩,乃至不收斂。針對具體的網(wǎng)絡(luò)結(jié)構(gòu)模型和學(xué)習(xí)樣本,都存在一個最佳的學(xué)習(xí)率和動量因子,
54、它們的取值范圍一般0~1之間,視實際情況而定。</p><p> 2.4.4 初始權(quán)值的選擇</p><p> 在前饋多層神經(jīng)網(wǎng)絡(luò)的BP算法中,初始權(quán)、閾值一般是在一個固定范圍內(nèi)按均勻分布隨機產(chǎn)生的。一般文獻認為初始權(quán)值范圍為-1~+1之間,初始權(quán)值的選擇對于局部極小點的防止和網(wǎng)絡(luò)收斂速度的提高均有一定程度的影響,如果初始權(quán)值范圍選擇不當(dāng),學(xué)習(xí)過程一開始就可能進入“假飽和”現(xiàn)象,甚至進
55、入局部極小點,網(wǎng)絡(luò)根本不收斂。初始權(quán)、閾值的選擇因具體的網(wǎng)絡(luò)結(jié)構(gòu)模式和訓(xùn)練樣本不同而有所差別,一般應(yīng)視實際情況而定。本文采用newff()函數(shù)自動完成權(quán)值和閾值的初始化。</p><p> 2.4.5 收斂誤差界值Emin </p><p> 在網(wǎng)絡(luò)訓(xùn)練過程中應(yīng)根據(jù)實際情況預(yù)先確定誤差界值。誤差界值的選擇完全根據(jù)網(wǎng)絡(luò)模型的收斂速度大小和具體樣本的學(xué)習(xí)精度來確定。當(dāng)Emin 值選擇較小時
56、,學(xué)習(xí)效果好,但收斂速度慢,訓(xùn)練次數(shù)增加。如果Emin值取得較大時則相反。本文神經(jīng)網(wǎng)絡(luò)的誤差界值Emin為0.001,即在迭代計算時誤差值E﹤Emin=0.001時,則認為學(xué)習(xí)完成,停止計算,輸出結(jié)果。</p><p> 2.4.6輸入數(shù)據(jù)的預(yù)處理 </p><p> 在BP算法中,神經(jīng)元具有飽和非線性特征(如果神經(jīng)元的總輸入與閾值相距甚遠,神經(jīng)元的實際輸出要么為最大值、要么為最小值)
57、。前饋型靜態(tài)網(wǎng)絡(luò)的神經(jīng)元作用函數(shù)的總輸入是與其相連的其它神經(jīng)元輸出的加權(quán),在使用BP算法時,要防止神經(jīng)元進入飽和狀態(tài),必須限制與其相連的其它神經(jīng)元的輸出幅值。由于輸入層只起數(shù)據(jù)傳送作用,層中的神經(jīng)元是扇區(qū)單元,通常使用線性作用函數(shù)(輸出等于輸入),不存在飽和狀態(tài)。第一隱層中的神經(jīng)元通常采用飽和非線性作用函數(shù),學(xué)習(xí)過程中會出現(xiàn)飽和現(xiàn)象,因此要防止此層神經(jīng)元進入飽和,必須限制網(wǎng)絡(luò)輸入的幅值。所以,為減少平臺現(xiàn)象出現(xiàn)的可能,加快學(xué)習(xí),應(yīng)對網(wǎng)絡(luò)
58、的輸入樣本進行歸一化(或稱正則化)處理,這也是BP算法必須對輸入數(shù)據(jù)進行預(yù)處理的真正原因。本文使用的標(biāo)準化方法如下:</p><p> [P,minp,maxp,T,mint,maxt]=premnmx(p,t);</p><p> 式中,p為輸入量,t為輸出量,P和T為經(jīng)過歸一化處理后的實驗數(shù)據(jù)。</p><p> 3 MATLAB實現(xiàn)和結(jié)果分析</
59、p><p> 3.1 MATLAB神經(jīng)網(wǎng)絡(luò)工具箱的應(yīng)用</p><p> 在網(wǎng)絡(luò)訓(xùn)練過程中使用的是Matlab 6.5 for Windows軟件,對于BP神經(jīng)元網(wǎng)絡(luò)的訓(xùn)練使用了Neural Networks Toolbox for Matlab。美國的Mathwork公司推出的MATLAB軟件包既是一種非常實用有效的科研編程軟件環(huán)境,又是一種進行科學(xué)和工程計算的交互式程序。MATLAB中
60、的神經(jīng)網(wǎng)絡(luò)工具箱以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),利用MATLAB腳本語言構(gòu)造出典型的神經(jīng)網(wǎng)絡(luò)激活函數(shù),使設(shè)計者對所選網(wǎng)絡(luò)的計算變成對激活函數(shù)的調(diào)用,可以大大方便權(quán)值訓(xùn)練,減少訓(xùn)練程序工作量,有效的提高工作效率,為用戶提供了極大方便。</p><p> 3.2 基于MATLAB的BP算法的實現(xiàn)過程</p><p> (1) 原始數(shù)據(jù)的預(yù)處理。</p><p> (2) 數(shù)據(jù)歸
61、一化。為了適應(yīng)網(wǎng)絡(luò)的訓(xùn)練,以便與網(wǎng)絡(luò)向前傳播輸出值對比計算目標(biāo)函數(shù)誤差,需要對數(shù)據(jù)進行歸一化。通過premnmx()函數(shù)進行歸一化處理,其數(shù)據(jù)分布在[-1~1]之間。</p><p> (3) BP網(wǎng)絡(luò)模型的建立。MATLAB的神經(jīng)網(wǎng)絡(luò)工具箱提供了最多3層向前網(wǎng)絡(luò),隱層神經(jīng)元傳遞函數(shù)多為S型函數(shù),這種非線性傳遞函數(shù)神經(jīng)元可以學(xué)習(xí)輸入輸出之間的線性和非線性關(guān)系;輸出層神經(jīng)元傳遞函purelin(),這種純線性傳遞
62、函數(shù)可以拓寬網(wǎng)絡(luò)輸出。網(wǎng)絡(luò)輸入層和隱層節(jié)點數(shù)對網(wǎng)絡(luò)性能有較大影響。隱層節(jié)點數(shù)太多,網(wǎng)絡(luò)訓(xùn)練時間長;節(jié)點太少,誤差精度又達不到要求。</p><p> (4)BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。在訓(xùn)練之前必須對權(quán)值和閾值的初始化,采用MATLAB中newff函數(shù)可自動完成這一過程。newff函數(shù)常用格式為:</p><p> net=newff(PR,[S1 S2 … SN],{TF1 TF2 … TF
63、N},BTF);</p><p> 式中,PR為R×2維矩陣,表示R維輸入矢量中每維輸入的最小值與最大值之間的范圍;[S1 S2 … SN]中各元素分別表示各層神經(jīng)元的數(shù)目;{TF1 TF2 … TFN}中各元素分別表示各層神經(jīng)元采用的傳遞函數(shù);BTF表示神經(jīng)網(wǎng)絡(luò)訓(xùn)練時采用的訓(xùn)練函數(shù)。應(yīng)用minmax函數(shù)可以求出樣本的輸入范圍,使用附加動量法和自適應(yīng)學(xué)系速率相結(jié)合的技術(shù)算法函數(shù)traingdx為訓(xùn)練函
64、數(shù),設(shè)定訓(xùn)練次數(shù)、要求精度、學(xué)習(xí)率等訓(xùn)練參數(shù),進行網(wǎng)絡(luò)訓(xùn)練,使網(wǎng)絡(luò)的學(xué)習(xí)值和期望值達到精度要求,保存權(quán)值和閾值。</p><p> (5) 網(wǎng)絡(luò)仿真。訓(xùn)練結(jié)束后,利用sim函數(shù)對訓(xùn)練后的網(wǎng)絡(luò)進行網(wǎng)絡(luò)仿真,調(diào)用postreg函數(shù)對訓(xùn)練后網(wǎng)絡(luò)的仿真輸出和目標(biāo)輸出做線性回歸分析,以檢驗網(wǎng)絡(luò)的訓(xùn)練效果。 </p><p><b> 3.3訓(xùn)練神經(jīng)網(wǎng)絡(luò)</b></
65、p><p> 空氣質(zhì)量評價標(biāo)準參照表1,具體見附錄1中華人民共和國國家標(biāo)準環(huán)境空氣質(zhì)量標(biāo)準(GB3095-1996)各項污染物的濃度限值(1999年)</p><p> 表一 空氣質(zhì)量評價標(biāo)準參照</p><p> (1)準備工作訓(xùn)練樣本、檢測樣本及其期望目標(biāo)的生成。</p><p> 訓(xùn)練樣本[4][6]:采用MATLAB 的rand(
66、)函數(shù)在各級評價標(biāo)準內(nèi)按隨機均勻分布方式內(nèi)插生成訓(xùn)練樣本,小于一級標(biāo)準生成200 個,一、二級標(biāo)準之間生成200 個,二、三級標(biāo)準之間生成200個,共形成600個訓(xùn)練樣本。解決了過去僅用各級評價標(biāo)準作為訓(xùn)練樣本,導(dǎo)致訓(xùn)練樣本數(shù)過少和無法構(gòu)建檢測樣本的問題。</p><p><b> 步驟:</b></p><p> 用MATLAB新建一個M文件,內(nèi)容如下:<
67、/p><p> p1(1,:)=0+0.05.*rand(1,200);</p><p> p1(2,:)=0+0.05.*rand(1,200);</p><p> p1(3,:)=0+0.04.*rand(1,200);</p><p> p2(1,:)=0.05+0.1.*rand(1,200);</p><p&
68、gt; p2(2,:)=0.05+0.05.*rand(1,200);</p><p> p2(3,:)=0.04+0.04.*rand(1,200);</p><p> p3(1,:)=0.15+0.1.*rand(1,200);</p><p> p3(2,:)=0.1+0.05.*rand(1,200);</p><p> p
69、3(3,:)=0.08+0.04.*rand(1,200);</p><p> p=[p1 p2 p3];</p><p><b> 運行生成如下所示:</b></p><p> 圖6 輸入變量生成結(jié)果</p><p> 檢測樣本:用生成訓(xùn)練樣本同理的方法生成檢測樣本,小于一級標(biāo)準生成50個,一、二級標(biāo)準之間生成
70、50個,二、三級標(biāo)準之間生成50個,共形成150個檢測樣本。</p><p> 期望目標(biāo)(對于訓(xùn)練樣本與檢測樣本):采用一個輸出神經(jīng)元,小于一級標(biāo)準的訓(xùn)練樣本和檢測樣本的期望目標(biāo)輸出為1;一、二級標(biāo)準之間的訓(xùn)練樣本和檢測樣本的期望目標(biāo)輸出為2;同理,二、三級標(biāo)準之間的訓(xùn)練樣本和檢測樣本的期望目標(biāo)輸出為3。</p><p><b> 步驟:</b></p>
71、;<p> 用MATLAB新建一個M文件,內(nèi)容如下:</p><p> t1=ones(1,200);</p><p> t2=1+ones(1,200);</p><p> t3=2+ones(1,200);</p><p> t=[t1 t2 t3];</p><p> 保存為t.m,運行
72、生成如下所示:</p><p> 圖7 期望目標(biāo)生成結(jié)果</p><p> (2)空氣質(zhì)量評價等級的劃分界限</p><p> 據(jù)上述生成訓(xùn)練樣本與檢測樣本目標(biāo)輸出的思路可以確定一、二、三各級空氣的網(wǎng)絡(luò)輸出范圍分別為: ≈1 ≈2 ≈3</p><p> (3) 原始數(shù)據(jù)的預(yù)處理</p><p> 試驗兩種預(yù)
73、處理方案:其一,歸一化,利用PREMNMX函數(shù)將原始數(shù)據(jù)歸一化到-1與1之間;其二,不歸一化,原始數(shù)據(jù)不進行預(yù)處理。</p><p><b> (4) 構(gòu)建網(wǎng)絡(luò)</b></p><p> BP網(wǎng)絡(luò)輸入神經(jīng)元數(shù)取決于空氣質(zhì)量評價標(biāo)準的指標(biāo)數(shù),根據(jù)題意定為3,輸出層神經(jīng)元數(shù)設(shè)定為1,利用MATLAB中的函數(shù)訓(xùn)練網(wǎng)絡(luò),確定所需隱層單元數(shù)。隱層激勵函數(shù)為tansig()函
74、數(shù),輸出層激勵函數(shù)為線性函數(shù)purelin()</p><p> 網(wǎng)絡(luò)對象建立的主程序如下所示:</p><p> [R, Q]=size(p) ; [S2, Q]=size(t) ;S1=5;</p><p> [P,minp,maxp,T,mint,maxt]=premnmx(p,t);%對數(shù)據(jù)進行預(yù)處理</p><p> net
75、=newff(minmax(P),[5, 1],{ ‘tansig’,‘purelin’},‘ traingdx’);</p><p> 文中所構(gòu)建的BP網(wǎng)絡(luò)具有一個隱層和一個輸出層,其中隱層共有5個神經(jīng)元,輸出有1個神經(jīng)元,隱層和輸出層的傳遞函數(shù)分別為tansig和purelin,采用的訓(xùn)練函數(shù)為traingdx,其他均采用BP網(wǎng)絡(luò)的默認設(shè)置。在調(diào)用該網(wǎng)絡(luò)程序時,對所有作為輸入單元的數(shù)據(jù)均要通過premnmx
76、()函數(shù)進行預(yù)處理。</p><p><b> 程序運行生成:</b></p><p> 圖8 網(wǎng)絡(luò)net生成結(jié)果</p><p> (5)訓(xùn)練網(wǎng)絡(luò)如下:</p><p> net.trainFcn=’traingdx’;</p><p> net.trainParam.epochs=7
77、000;</p><p> net.trainParam.goal=1e-3;</p><p> net.trainParam.lr=0.05; </p><p> (net,tr)=train(net,P,T);</p><p><b> 運行結(jié)果如下:</b></p><p><
78、b> 圖9 訓(xùn)練實現(xiàn)</b></p><p> (6)訓(xùn)練樣本結(jié)果仿真</p><p> Y=sim(net,P);</p><p> y=postmnmx(Y,mint,maxt);</p><p><b> figure(1)</b></p><p><b&g
79、t; x=1:600;</b></p><p> plot(x,y,'+b',x,t,'or');</p><p> xlabel('輸入');</p><p> ylabel('輸出');</p><p> text(200,1,'一級 優(yōu)'
80、;);</p><p> text(400,2,'二級 良好');</p><p> text(400,3.3,'三級 差');</p><p> text(100,3,'藍色+ 實際輸出')</p><p> text(100,2.7,'紅色o 目標(biāo)輸出')</p
81、><p> 運行結(jié)果如下圖所示:</p><p> 圖10 訓(xùn)練樣本結(jié)果仿真</p><p> ?。?)調(diào)用postreg函數(shù)對訓(xùn)練后網(wǎng)絡(luò)的仿真輸出和目標(biāo)輸出做線性回歸分析,以檢驗網(wǎng)絡(luò)的訓(xùn)練效果。</p><p> [m,b,r]=postreg(y,t);</p><p> 運行如下圖所示: </p&
82、gt;<p> 圖11 線性回歸分析圖</p><p> R為輸出矢量和目標(biāo)矢量之間的相關(guān)系數(shù),當(dāng)R為1時,輸出和目標(biāo)矢量之間的相關(guān)性最好,從圖上知R=0.999,說明相關(guān)性比較好。</p><p> 檢驗樣本輸出結(jié)果:</p><p> 圖12 檢驗樣結(jié)果仿真本圖</p><p> 由上圖可知:對訓(xùn)練樣本而言,當(dāng)輸
83、入為小于一級標(biāo)準的限值時輸出均在1左右;當(dāng)輸入大于一級限值小于二級限值時,輸出均在2左右;當(dāng)輸入大于二級限值小于三級限值時,輸出均在3左右。同樣,檢驗樣本的檢測結(jié)果也比較符合目標(biāo)輸出。</p><p> 表2 部分樣本檢驗結(jié)果和期望輸出比較表</p><p> 表3用物元評價法[3]、模糊綜合評判法[3]、灰色聚類法[3]和本文方法分別對部分樣本的大氣環(huán)境質(zhì)量評價。結(jié)果比較表明:本文
84、的方法與灰色聚類法的評價結(jié)果是相同的, 與物元評價法的評價結(jié)果也很接近??梢? BP 人工神經(jīng)網(wǎng)絡(luò)用于大氣環(huán)境評價是可行的, 能夠反映大氣環(huán)境質(zhì)量狀況。</p><p><b> 表3 結(jié)果比較</b></p><p><b> 4結(jié)語</b></p><p> 利用MATLAB的rand函數(shù)生成評價訓(xùn)練樣本、檢測樣
85、本及其對應(yīng)目標(biāo)輸出的方法,可以產(chǎn)生足夠數(shù)量的訓(xùn)練與檢測樣本,能較好地避免過去僅用評價標(biāo)準作為訓(xùn)練樣本帶來的訓(xùn)練樣本數(shù)少和不能構(gòu)建檢測樣本問題,對提高網(wǎng)絡(luò)的泛化能力具有較為顯著的效果。</p><p> 在應(yīng)用MATLAB工具箱函數(shù)實現(xiàn)BP網(wǎng)絡(luò)功能時,應(yīng)將原始數(shù)據(jù)進行歸一化,否則,網(wǎng)絡(luò)難以收斂。</p><p><b> 致謝</b></p><
86、;p> 伴著論文的即將完成,心情也開始慢慢地輕松起來。從開始進入課題到搜集資料,從寫稿到反復(fù)修改,期間經(jīng)歷了喜悅、煩躁、痛苦和彷徨,在寫作論文的過程中心情是如此復(fù)雜。有多少可敬的師長、同學(xué)、朋友給了我無言的幫助,在這里請接受我誠摯的謝意!</p><p> 最后感謝我的導(dǎo)師xx老師。她為人隨和熱情,治學(xué)嚴謹細心。在閑聊中她總是能像知心朋友一樣鼓勵你,在論文的寫作和措辭等方面她也總會以“專業(yè)標(biāo)準”嚴格要求
87、你,從選題、定題開始,一直到最后論文的反復(fù)修改、潤色,x老師始終認真負責(zé)地給予我深刻而細致地指導(dǎo),幫助我開拓研究思路,精心點撥、熱忱鼓勵。正是x老師的無私幫助與熱忱鼓勵,我的畢業(yè)論文才能夠得以順利完成,謝謝x老師。</p><p><b> 參考文獻</b></p><p> [1]徐東,吳錚編著?;贛ATLAB6.X的系統(tǒng)分析與設(shè)計——神經(jīng)網(wǎng)絡(luò)(第二版)(M)
88、西安電子科技大學(xué)出版社,2002年</p><p> [2]叢爽編著。面向MATLAB工具箱的神經(jīng)網(wǎng)絡(luò)理論與應(yīng)用第二版(M)中國科學(xué)技術(shù)大學(xué)出版社,2003年</p><p> [3]李祚泳,丁晶,彭荔紅編著。環(huán)境質(zhì)量評價原理與方法(M)化學(xué)工業(yè)出版社,2004</p><p> [4]譚璇,羅定貴等基于MATLAB實現(xiàn)的ANN方法在地下水質(zhì)評價中的應(yīng)用(J)
89、北京大學(xué)學(xué)報(自然科學(xué)版),第40卷,第2期,2004年3月</p><p> [5]周德儉等編著。智能控制(M),重慶大學(xué)出版社2005年</p><p> [6]趙玉杰,師榮光,高懷友等編著?;贛ATLAB6.x的BP人工神經(jīng)網(wǎng)絡(luò)的土壤環(huán)境質(zhì)量評價方法研究(J)農(nóng)業(yè)環(huán)境科學(xué)學(xué)報</p><p> [7]劉長安 人工神經(jīng)網(wǎng)絡(luò)的研究方法及應(yīng)用(M),20
90、04年</p><p> [8]中華人民共和國國家標(biāo)準環(huán)境空氣質(zhì)量標(biāo)準(GB3095-1996)各項污染物的濃度限值(1999年)</p><p> [9]張志涌等編著MATLAB基礎(chǔ)教程</p><p> [10]Neural Network Toolbox User’sGuide (Version 4) The Math Works Inc , 2001.
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于單片機的空氣質(zhì)量檢測系統(tǒng)畢業(yè)論文
- 基于單片機的空氣質(zhì)量檢測系統(tǒng)畢業(yè)論文
- 基于灰色神經(jīng)網(wǎng)絡(luò)組合模型的空氣質(zhì)量預(yù)測.pdf
- 基于單片機的空氣質(zhì)量檢測儀-畢業(yè)論文
- 基于單片機的空氣質(zhì)量檢測儀 -畢業(yè)論文
- 基于單片機的空氣質(zhì)量檢測儀-畢業(yè)論文
- 基于zigbee的空氣質(zhì)量檢測
- 基于bp神經(jīng)網(wǎng)絡(luò)的秦嶺北麓中部空氣質(zhì)量預(yù)報研究
- 基于人工神經(jīng)網(wǎng)絡(luò)的空氣質(zhì)量評價及預(yù)報方法的研究.pdf
- 城市區(qū)域空氣質(zhì)量的BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究.pdf
- 基于BP神經(jīng)網(wǎng)絡(luò)的秦嶺北麓中部空氣質(zhì)量預(yù)報研究.pdf
- plc空氣質(zhì)量檢測設(shè)計
- 基于BP神經(jīng)網(wǎng)絡(luò)的空氣質(zhì)量預(yù)測及可視化的實現(xiàn).pdf
- 人工神經(jīng)網(wǎng)絡(luò)在空氣質(zhì)量預(yù)測中的應(yīng)用研究.pdf
- 人工神經(jīng)網(wǎng)絡(luò)在城市空氣質(zhì)量預(yù)報中的應(yīng)用研究.pdf
- RBF神經(jīng)網(wǎng)絡(luò)在城市空氣質(zhì)量評價中的應(yīng)用研究.pdf
- 基于gprs的空氣質(zhì)量檢測系統(tǒng)的設(shè)計
- 畢業(yè)設(shè)計--基于zigbee的空氣質(zhì)量檢測儀設(shè)計
- 基于BP-GA神經(jīng)網(wǎng)絡(luò)的六安市空氣質(zhì)量預(yù)測研究.pdf
- 濰坊空氣質(zhì)量
評論
0/150
提交評論