2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩82頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、在實際工程問題中,存在大量的類別不均衡問題,如故障診斷、網(wǎng)絡入侵檢測等。且該類問題具有明顯的時間特點,尤其是在大規(guī)模數(shù)據(jù)環(huán)境下,數(shù)據(jù)通常是按序到達,是一種典型的在線不均衡分類問題。極限學習機作為一種單隱層前饋神經(jīng)網(wǎng)絡,具有極端快速的特點,同時其泛化性能良好,可有效解決在線貫序數(shù)據(jù)的分類問題。然而,極限學習機通常是以提高樣本整體的分類精度為目標,當類別嚴重不均衡時,極易導致分類面偏移,造成“虛假”的分類效果。因此,本文將根據(jù)數(shù)據(jù)特點和應用

2、需求,在前端充分采集數(shù)據(jù)和處理數(shù)據(jù)的基礎上,進行后端機器學習理論和算法的研究,提出一系列更適合在線不均衡分類問題的算法。主要工作和貢獻如下:
  (1)為提高不均衡在線貫序數(shù)據(jù)中少類樣本的分類精度,提出一種基于不均衡樣本重構的加權在線極限學習機算法。該算法的關鍵是在提取數(shù)據(jù)分布特性的基礎上,對不均衡樣本重構。為此,引入主曲線的概念,并在此基礎上改進SMOTE方法,從而提高少類樣本的過采樣質量,同時,為突出樣本重要性,采用動態(tài)加權的

3、思想,根據(jù)訓練誤差為在線樣本賦以相應大小的權重。最終在不增加算法復雜度的前提下,對少類樣本的預測精度更高,同時數(shù)值穩(wěn)定性良好。
  (2)針對現(xiàn)有分類算法泛化性能較低的問題,提出一種基于留一交叉驗證的在線極限學習機算法,既實現(xiàn)了對在線泛化誤差的快速有效估計,又大大降低了時間復雜度。為解決在線樣本的不均衡問題,根據(jù)留一誤差進行欠采樣,同時,為保證模型的簡約性,采用增刪機制動態(tài)更新網(wǎng)絡權值,并從信息熵的角度給出在線欠采樣過程中存在損失

4、信息上界,進而從理論上證明了該算法的有效性。
  (3)為進一步提高不均衡在線數(shù)據(jù)中少類樣本的識別率,同時盡可能減少多類樣本的分類精度損失,提出一種基于混合采樣策略的在線極限學習機算法。該算法在遵循樣本分布特性的同時,根據(jù)樣本重要度指標篩選最具價值的樣本點,實現(xiàn)樣本重構。同時為保證模型的泛化性能,根據(jù)在線留一誤差進行動態(tài)模型調(diào)整,以確保最優(yōu)網(wǎng)絡結構,并通過理論分析和大量仿真實驗證明該算法的合理性和有效性。
  本文研究不僅拓

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論