基于深度森林的小數(shù)據(jù)集分類研究
【文章頁數(shù)】:59 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1選擇禮物問題的一顆決策樹
彩薔霾呤骷?傻囊恢旨?裳?埃?哂心P統(tǒng)?問?、模型竻矀?低、可并行操作等優(yōu)點(diǎn)。這一部分從決策樹擴(kuò)展到集成學(xué)習(xí),逐步擴(kuò)展到深度森林模型原理。2.1.1決策樹原理決策樹是一種常見的基于樹結(jié)構(gòu)的學(xué)習(xí)方法。決策樹中的每個(gè)內(nèi)部節(jié)點(diǎn)表示特征屬性的選取試驗(yàn),每個(gè)分支表示屬性的試驗(yàn)結(jié)果,葉結(jié)點(diǎn)....
圖2-3集成學(xué)習(xí)框架
第2章基本理論基礎(chǔ)9Gini(D)是從數(shù)據(jù)集D中隨機(jī)抽取兩個(gè)樣品的結(jié)果,以及類別標(biāo)記不相符的可能性。也就是說,Gini(D)越小D的純度越校在此基礎(chǔ)上,將屬性a的基尼指數(shù)定義為:1||<sub>,</sub>()||VvvvDGiniindexDaGiniDD2.6然后選擇候選集....
圖2-4Stacking算法框架
??蠐λ婊?≡衿渲?一個(gè)。加權(quán)表決與加權(quán)平均數(shù)相似。標(biāo)準(zhǔn)的絕對多數(shù)表決方法為“可靠性預(yù)測”提供了一種選擇。學(xué)習(xí)方法:如果有大量的訓(xùn)練數(shù)據(jù),適合用“學(xué)習(xí)方法”來結(jié)合學(xué)習(xí)者。stacking[47]是學(xué)習(xí)方法的典型代表。如圖2-4所示,Stacking是一個(gè)綜合性的分層模型框架,通常....
圖2-5深度森林的多粒度滑窗框架
第2章基本理論基礎(chǔ)13究表明,將學(xué)習(xí)者的輸出類概率作為二級學(xué)習(xí)者的輸入屬性,MRL作為二級學(xué)習(xí)算法[58]和MLR中的各種屬性集[49]是比較好的。2.1.3深度森林原理深度森林是一種新的決策樹集成方法。這一方法提供了一種串聯(lián)結(jié)構(gòu)深層森林的集成,從而能夠?qū)W習(xí)數(shù)據(jù)特性。如果輸入較大....
本文編號:4034173
本文鏈接:http://www.wukwdryxk.cn/kejilunwen/zidonghuakongzhilunwen/4034173.html
下一篇:沒有了