2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩70頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、數(shù)據(jù)挖掘是指從數(shù)據(jù)庫(kù)中抽取隱含的、具有潛在使用價(jià)值信息的過(guò)程,是一種新型的數(shù)據(jù)分析技術(shù)。數(shù)據(jù)分類是數(shù)據(jù)挖掘中一個(gè)重要的內(nèi)容。分類存在很多方法,其中決策樹(shù)算法以其易于提取顯式規(guī)則、計(jì)算量相對(duì)較小、可以顯示重要的決策屬性和較高的分類準(zhǔn)確率等優(yōu)點(diǎn)而得到廣泛的應(yīng)用。
   然而決策樹(shù)算法是不穩(wěn)定的,為了提高決策樹(shù)的分類性能,本文引入了集成學(xué)習(xí)技術(shù)。集成學(xué)習(xí)是一種新的機(jī)器學(xué)習(xí)范式,它使用多個(gè)分類器來(lái)解決同一個(gè)問(wèn)題,能夠顯著地提高學(xué)習(xí)系統(tǒng)的

2、泛化能力。因此從20世紀(jì)90年代開(kāi)始,對(duì)集成學(xué)習(xí)理論和算法的研究成為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)熱點(diǎn)。
   本文圍繞決策樹(shù)和集成學(xué)習(xí)理論進(jìn)行了相關(guān)的研究,主要研究工作包括:
   1.ID3算法是最具有影響的一種決策樹(shù)生成算法。該算法根據(jù)屬性的信息增益來(lái)選擇分裂屬性,但是易偏向于選擇屬性值個(gè)數(shù)較多的屬性,而屬性值個(gè)數(shù)多的屬性卻并不一定是最優(yōu)的分裂屬性。為了克服ID3算法的不足,將熵均值決策與樣本分布決策進(jìn)行了融合,本文提出了一種

3、新的決策樹(shù)構(gòu)造算法MIDT(MultipleInformation Decision Tree)。實(shí)驗(yàn)表明,MIDT算法在分類正確率和穩(wěn)定性上優(yōu)于ID3算法和參數(shù)估計(jì)決策樹(shù)算法。
   2.單變量決策樹(shù)算法造成樹(shù)的規(guī)模龐大,規(guī)則復(fù)雜,不易理解,而多變量決策樹(shù)是一種有效用于分類的數(shù)據(jù)挖掘方法,構(gòu)造的關(guān)鍵是根據(jù)屬性之間的相關(guān)性選擇合適的屬性組合構(gòu)成一個(gè)新的屬性作為節(jié)點(diǎn)。結(jié)合粗糙集原理中的知識(shí)依賴性度量和信息系統(tǒng)中條件屬性集的離散度概

4、念,提出了一種多變量決策樹(shù)的構(gòu)造算法DTRD(Decision Tree based on Rough set and Dispersion degree)。在UCI上部分?jǐn)?shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,我們提出的多變量決策樹(shù)算法的分類性能與傳統(tǒng)的ID3算法以及基于核方法的多變量決策樹(shù)的分類效果相比,有一定的提高。
   3.集成成員分類器之間要有一定的差異性,否則集成在一起意義不大。由于差異性度量沒(méi)有統(tǒng)一的定義,研究人員提出了多種不同的

5、差異性度量方法。我們?cè)诜治龀S玫牟町愋远攘炕A(chǔ)上,提出了一種新的分類器差異性度量方法CDEC(Correctresults,Disagreement and Exponential Count of errorS)。綜合考慮了集成中兩個(gè)分類器對(duì)模式分類一致正確、分類不一致情況,同時(shí)抑制了分類器同時(shí)發(fā)生分類錯(cuò)誤的情況,并以此為基礎(chǔ)提出了一種新的分類器選擇性集成方法。在UCI上部分?jǐn)?shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,CDEC能有效的度量分類器之間的差異性

6、,并能較好的用于選擇性集成中成員分類器的選擇過(guò)程。
   4.AdaBoost算法對(duì)噪聲很敏感,在訓(xùn)練樣本具有噪聲數(shù)據(jù)時(shí),分類性能較差。我們提出了一種用于噪聲數(shù)據(jù)分類的局部Boosting算法,即LAdaBoost。其主要思想是:在每次迭代過(guò)程中,計(jì)算每個(gè)訓(xùn)練樣本的局部錯(cuò)誤率,利用局部錯(cuò)誤率更新樣本被選作用于訓(xùn)練下一個(gè)分類器的概率。對(duì)一個(gè)新的樣本進(jìn)行分類時(shí),考慮了該樣本和它鄰域內(nèi)的每個(gè)訓(xùn)練樣本的近似度。在UCI部分?jǐn)?shù)據(jù)集上的實(shí)驗(yàn)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論