版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、數(shù)據(jù)挖掘是指從數(shù)據(jù)庫(kù)中抽取隱含的、具有潛在使用價(jià)值信息的過(guò)程,是一種新型的數(shù)據(jù)分析技術(shù)。數(shù)據(jù)分類是數(shù)據(jù)挖掘中一個(gè)重要的內(nèi)容。分類存在很多方法,其中決策樹(shù)算法以其易于提取顯式規(guī)則、計(jì)算量相對(duì)較小、可以顯示重要的決策屬性和較高的分類準(zhǔn)確率等優(yōu)點(diǎn)而得到廣泛的應(yīng)用。
然而決策樹(shù)算法是不穩(wěn)定的,為了提高決策樹(shù)的分類性能,本文引入了集成學(xué)習(xí)技術(shù)。集成學(xué)習(xí)是一種新的機(jī)器學(xué)習(xí)范式,它使用多個(gè)分類器來(lái)解決同一個(gè)問(wèn)題,能夠顯著地提高學(xué)習(xí)系統(tǒng)的
2、泛化能力。因此從20世紀(jì)90年代開(kāi)始,對(duì)集成學(xué)習(xí)理論和算法的研究成為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)熱點(diǎn)。
本文圍繞決策樹(shù)和集成學(xué)習(xí)理論進(jìn)行了相關(guān)的研究,主要研究工作包括:
1.ID3算法是最具有影響的一種決策樹(shù)生成算法。該算法根據(jù)屬性的信息增益來(lái)選擇分裂屬性,但是易偏向于選擇屬性值個(gè)數(shù)較多的屬性,而屬性值個(gè)數(shù)多的屬性卻并不一定是最優(yōu)的分裂屬性。為了克服ID3算法的不足,將熵均值決策與樣本分布決策進(jìn)行了融合,本文提出了一種
3、新的決策樹(shù)構(gòu)造算法MIDT(MultipleInformation Decision Tree)。實(shí)驗(yàn)表明,MIDT算法在分類正確率和穩(wěn)定性上優(yōu)于ID3算法和參數(shù)估計(jì)決策樹(shù)算法。
2.單變量決策樹(shù)算法造成樹(shù)的規(guī)模龐大,規(guī)則復(fù)雜,不易理解,而多變量決策樹(shù)是一種有效用于分類的數(shù)據(jù)挖掘方法,構(gòu)造的關(guān)鍵是根據(jù)屬性之間的相關(guān)性選擇合適的屬性組合構(gòu)成一個(gè)新的屬性作為節(jié)點(diǎn)。結(jié)合粗糙集原理中的知識(shí)依賴性度量和信息系統(tǒng)中條件屬性集的離散度概
4、念,提出了一種多變量決策樹(shù)的構(gòu)造算法DTRD(Decision Tree based on Rough set and Dispersion degree)。在UCI上部分?jǐn)?shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,我們提出的多變量決策樹(shù)算法的分類性能與傳統(tǒng)的ID3算法以及基于核方法的多變量決策樹(shù)的分類效果相比,有一定的提高。
3.集成成員分類器之間要有一定的差異性,否則集成在一起意義不大。由于差異性度量沒(méi)有統(tǒng)一的定義,研究人員提出了多種不同的
5、差異性度量方法。我們?cè)诜治龀S玫牟町愋远攘炕A(chǔ)上,提出了一種新的分類器差異性度量方法CDEC(Correctresults,Disagreement and Exponential Count of errorS)。綜合考慮了集成中兩個(gè)分類器對(duì)模式分類一致正確、分類不一致情況,同時(shí)抑制了分類器同時(shí)發(fā)生分類錯(cuò)誤的情況,并以此為基礎(chǔ)提出了一種新的分類器選擇性集成方法。在UCI上部分?jǐn)?shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,CDEC能有效的度量分類器之間的差異性
6、,并能較好的用于選擇性集成中成員分類器的選擇過(guò)程。
4.AdaBoost算法對(duì)噪聲很敏感,在訓(xùn)練樣本具有噪聲數(shù)據(jù)時(shí),分類性能較差。我們提出了一種用于噪聲數(shù)據(jù)分類的局部Boosting算法,即LAdaBoost。其主要思想是:在每次迭代過(guò)程中,計(jì)算每個(gè)訓(xùn)練樣本的局部錯(cuò)誤率,利用局部錯(cuò)誤率更新樣本被選作用于訓(xùn)練下一個(gè)分類器的概率。對(duì)一個(gè)新的樣本進(jìn)行分類時(shí),考慮了該樣本和它鄰域內(nèi)的每個(gè)訓(xùn)練樣本的近似度。在UCI部分?jǐn)?shù)據(jù)集上的實(shí)驗(yàn)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于決策樹(shù)的隧道識(shí)別技術(shù)研究.pdf
- 基于決策樹(shù)的郵件分類技術(shù)研究.pdf
- 基于決策樹(shù)方法的屬性推斷技術(shù)研究及應(yīng)用.pdf
- 數(shù)據(jù)采掘中的決策樹(shù)采掘技術(shù)研究.pdf
- 基于決策樹(shù)的J波檢測(cè)技術(shù)研究.pdf
- 基于集成學(xué)習(xí)的演化決策樹(shù)方法研究.pdf
- 決策樹(shù)風(fēng)險(xiǎn)決策
- 有序決策樹(shù)在SOCA下的擴(kuò)展及模糊有序決策樹(shù)的研究.pdf
- 決策樹(shù)的后期修剪技術(shù)
- 基于決策樹(shù)的數(shù)據(jù)挖掘算法的技術(shù)研究.pdf
- 基于決策樹(shù)的多分類器的集成及應(yīng)用.pdf
- 決策樹(shù)分類及剪枝算法研究.pdf
- 決策樹(shù)例題
- 基于決策樹(shù)增量學(xué)習(xí)的成像目標(biāo)分類技術(shù)研究.pdf
- 基于決策樹(shù)算法的IT行業(yè)客戶流失預(yù)測(cè)技術(shù)研究.pdf
- 數(shù)據(jù)挖掘決策樹(shù)分類技術(shù)及應(yīng)用的研究.pdf
- 決策樹(shù)算法的研究及應(yīng)用.pdf
- 決策樹(shù)生成系統(tǒng).pdf
- 聚類下決策樹(shù)的選擇性集成.pdf
- 基于差分隱私的決策樹(shù)發(fā)布技術(shù)研究與應(yīng)用.pdf
評(píng)論
0/150
提交評(píng)論