C4.5算法概述
《C4.5算法概述》由會(huì)員分享,可在線閱讀,更多相關(guān)《C4.5算法概述(13頁(yè)珍藏版)》請(qǐng)?jiān)谘b配圖網(wǎng)上搜索。
. 目錄 1 決策樹算法 2 1.1 具體應(yīng)用場(chǎng)景和意義 2 1.2 現(xiàn)狀分析 3 2 C4.5算法對(duì)ID3算法的改進(jìn) 4 3 C4.5算法描述 7 3.1 C4.5算法原理 7 3.2 算法框架 8 3.3 C4.5算法偽代碼 9 4 實(shí)例分析 9 5 C4.5算法的優(yōu)勢(shì)與不足 12 5.1 C4.5算法的優(yōu)勢(shì) 12 5.2 C4.5算法的不足: 12 參考文獻(xiàn) 12 C4.5算法綜述 摘要 最早的決策樹算法是由Hunt等人于1966年提出的CLS。當(dāng)前最有影響的決策樹算法是Quinlan于1986年提出的ID3和1993年提出的C4.5。ID3只能處理離散型描述屬性,它選擇信息增益最大的屬性劃分訓(xùn)練樣本,其目的是進(jìn)行分枝時(shí)系統(tǒng)的熵最小,從而提高算法的運(yùn)算速度和精確度。ID3算法的主要缺陷是,用信息增益作為選擇分枝屬性的標(biāo)準(zhǔn)時(shí),偏向于取值較多的屬性,而在某些情況下,這類屬性可能不會(huì)提供太多有價(jià)值的信息。C4.5是ID3算法的改進(jìn)算法,不僅可以處理離散型描述屬性,還能處理連續(xù)性描述屬性。C4.5采用了信息增益比作為選擇分枝屬性的標(biāo)準(zhǔn),彌補(bǔ)了ID3算法的不足。 C4.5算法在ID3算法的基礎(chǔ)上進(jìn)行了改進(jìn),對(duì)于預(yù)測(cè)變量的缺值處理、剪枝技術(shù)、派生規(guī)則等方面作了較大的改進(jìn),既適合于分類問(wèn)題,又適合于回歸問(wèn)題,是目前應(yīng)用最為廣泛的歸納推理算法之一,在數(shù)據(jù)挖掘中收到研究者的廣泛關(guān)注。 1 決策樹算法 1.1具體應(yīng)用場(chǎng)景和意義 決策樹(Decision Tree)是用于分類和預(yù)測(cè)的主要技術(shù),它著眼于從一組無(wú)規(guī)則的事例推理出決策樹表示形式的分類規(guī)則,采用自頂向下的遞歸方式,在決策樹的內(nèi)部節(jié)點(diǎn)進(jìn)行屬性值的比較,并根據(jù)不同屬性判斷從該節(jié)點(diǎn)向下分支,在決策樹的葉節(jié)點(diǎn)得到結(jié)論。因此,從根節(jié)點(diǎn)到葉節(jié)點(diǎn)就對(duì)應(yīng)著一條合理規(guī)則,整棵樹就對(duì)應(yīng)著一組表達(dá)式規(guī)則。基于決策樹算法的一個(gè)最大的優(yōu)點(diǎn)是它在學(xué)習(xí)過(guò)程中不需要使用者了解很多背景知識(shí),只要訓(xùn)練事例能夠用屬性即結(jié)論的方式表達(dá)出來(lái),就能使用該算法進(jìn)行學(xué)習(xí)。 決策樹算法在很多方面都有應(yīng)用,如決策樹算法在醫(yī)學(xué)、制造和生產(chǎn)、金融分析、天文學(xué)、遙感影像分類和分子生物學(xué)、機(jī)器學(xué)習(xí)和知識(shí)發(fā)現(xiàn)等領(lǐng)域得到了廣泛應(yīng)用。 決策樹技術(shù)是一種對(duì)海量數(shù)據(jù)集進(jìn)行分類的非常有效的方法。通過(guò)構(gòu)造決策樹模型,提取有價(jià)值的分類規(guī)則,幫助決策者做出準(zhǔn)確的預(yù)測(cè)已經(jīng)應(yīng)用在很多領(lǐng)域。決策樹算法是一種逼近離散函數(shù)值的方法。它是一種典型的分類方法,首先對(duì)數(shù)據(jù)進(jìn)行處理,利用歸納算法生成可讀的規(guī)則和決策樹,然后對(duì)新數(shù)據(jù)進(jìn)行分析。本質(zhì)上決策樹是通過(guò)一系列規(guī)則對(duì)數(shù)據(jù)進(jìn)行分類的過(guò)程。 決策樹的典型算法有ID3、C4.5和CART等,基于決策樹的分類模型有如下幾個(gè)特點(diǎn):(1)決策樹方法結(jié)構(gòu)簡(jiǎn)單,便于理解;(2)決策樹模型效率高,對(duì)訓(xùn)練集較大的情況較為適合;(3)決策樹方法通常不需要接受訓(xùn)練集數(shù)據(jù)外的知識(shí);(4)決策樹方法具有較高的分類精確度。 在決策樹算法中,最常用的、最經(jīng)典的是C4.5算法,它在決策樹算法中的主要優(yōu)點(diǎn)是:形象直觀。該算法通過(guò)兩個(gè)步驟來(lái)建立決策樹:樹的生成階段和樹的剪枝階段。該算法主要基于信息論中的熵理論。熵在系統(tǒng)學(xué)上是表示事物的無(wú)序度,是系統(tǒng)混亂程度的統(tǒng)計(jì)量。C4.5基于生成的決策樹中節(jié)點(diǎn)所含的信息熵最小的原理。它把信息增益率作為屬性選擇的度量標(biāo)準(zhǔn),可以得出很容易理解的決策規(guī)則。 1.2 現(xiàn)狀分析 決策樹技術(shù)是迄今為止發(fā)展最為成熟的一種概念學(xué)習(xí)方法。它最早產(chǎn)生于二十世紀(jì)60年代,是由Hunt等人研究人類概念建模時(shí)建立的學(xué)習(xí)系統(tǒng)(CLS,Concept Learning System),到70年代末,J Ross Quinlan提出ID3算法,此算法的目的在于減少樹的深度。但是忽略了葉子數(shù)目的研究。1975年和1984年,分別有人提出CHAID(Chi-squared Automatic Interaction Detection)和CART(Classification and Regression Tree,亦稱BFOS)算法。1986年,J.C.Schlimmer提出ID4算法。1988年,P.E.Utgoff提出ID5R算法。1993年,Quinlan本人以ID3算法為基礎(chǔ)研究出C4.5/C5.0算法,C4.5算法在ID3算法的基礎(chǔ)上進(jìn)行了改進(jìn),對(duì)于預(yù)測(cè)變量的缺值處理、剪枝技術(shù)、派生規(guī)則等方面作了較大的改進(jìn),既適合于分類問(wèn)題,又適合于回歸問(wèn)題,因而是目前應(yīng)用最為廣泛的歸納推理算法之一,在數(shù)據(jù)挖掘中收到研究者的廣泛關(guān)注。 數(shù)據(jù)挖掘需要選擇復(fù)雜度低的算法和并行高效的策略,復(fù)雜度低的算法包括盡量把全局最優(yōu)問(wèn)題轉(zhuǎn)化成局部最優(yōu)的問(wèn)題和近似線性或盡量低階的多項(xiàng)式復(fù)雜度算法等,而高效并行的策略包括需要有高超的遞歸改為循環(huán)的技巧和盡量避免使用全局信息等。 現(xiàn)在研究者們還在繼續(xù)研究改進(jìn)的決策樹算法,對(duì)于C4.5算法研究人員們從不同的角度對(duì)其進(jìn)行了相應(yīng)的改進(jìn),其中有針對(duì)C4.5算法處理連續(xù)型屬性比較耗時(shí)的改進(jìn),利用數(shù)學(xué)上的等價(jià)無(wú)窮小提高信息增益率的計(jì)算效率等等方面。本報(bào)告時(shí)針對(duì)C4.5算法本身進(jìn)行的分析和算法實(shí)現(xiàn),同時(shí)會(huì)考慮進(jìn)一步的深入學(xué)習(xí)。 2 C4.5算法對(duì)ID3算法的改進(jìn) 決策樹構(gòu)造的輸入是一組帶有類別標(biāo)記的例子,構(gòu)造的結(jié)果是一棵二叉樹或多叉樹。二叉樹的內(nèi)部節(jié)點(diǎn)(非葉子節(jié)點(diǎn))一般表示為一個(gè)邏輯判斷,如形式為a=aj的邏輯判斷,其中a是屬性,aj 是該屬性的所有取值:樹的邊是邏輯判斷的分支結(jié)果。多叉樹(ID3)的內(nèi)部結(jié)點(diǎn)是屬性,邊是該屬性的所有取值,有幾個(gè)屬性值就有幾條邊。樹的葉子節(jié)點(diǎn)都是類別標(biāo)記。 由于數(shù)據(jù)表示不當(dāng)、有噪聲或者由于決策樹生成時(shí)產(chǎn)生重復(fù)的子樹等原因,都會(huì)造成產(chǎn)生的決策樹過(guò)大。因此,簡(jiǎn)化決策樹是一個(gè)不可缺少的環(huán)節(jié)。尋找一棵最優(yōu)決策樹,主要應(yīng)解決以下3個(gè)最優(yōu)化問(wèn)題:①生成最少數(shù)目的葉子節(jié)點(diǎn);②生成的每個(gè)葉子節(jié)點(diǎn)的深度最小;③生成的決策樹葉子節(jié)點(diǎn)最少且每個(gè)葉子節(jié)點(diǎn)的深度最小。 ID3算法是一種經(jīng)典的決策樹算法,它從根節(jié)點(diǎn)開始,根節(jié)點(diǎn)被賦予一個(gè)最好的屬性。隨后對(duì)該屬性的每個(gè)取值都生成相應(yīng)的分支,在每個(gè)分支上又生成新的節(jié)點(diǎn)。對(duì)于最好的屬性的選擇標(biāo)準(zhǔn),ID3采用基于信息熵定義的信息增益來(lái)選擇內(nèi)節(jié)點(diǎn)的測(cè)試屬性,熵(Entropy)刻畫了任意樣本集的純度。 ID3算法存在的缺點(diǎn):(1)ID3算法在選擇根節(jié)點(diǎn)和內(nèi)部節(jié)點(diǎn)中的分支屬性時(shí),采用信息增益作為評(píng)價(jià)標(biāo)準(zhǔn)。信息增益的缺點(diǎn)是傾向于選擇取值較多是屬性,在有些情況下這類屬性可能不會(huì)提供太多有價(jià)值的信息。(2)ID3算法只能對(duì)描述屬性為離散型屬性的數(shù)據(jù)集構(gòu)造決策樹。 ID3算法的局限是它的屬性只能取離散值,為了使決策樹能應(yīng)用與連續(xù)屬性值,Quinlan給出了ID3的一個(gè)擴(kuò)展算法,即C4.5算法。C4.5算法是ID3的改進(jìn),其中屬性的選擇依據(jù)同ID3。它對(duì)于實(shí)值變量的處理與接下來(lái)論述的CART算法一致,采用多重分支。C4.5算法能實(shí)現(xiàn)基于規(guī)則的剪枝。因?yàn)樗惴ㄉ傻拿總€(gè)葉子都和一條規(guī)則相關(guān)聯(lián),這個(gè)規(guī)則可以從樹的根節(jié)點(diǎn)直到葉子節(jié)點(diǎn)的路徑上以邏輯合取式的形式讀出。 決策樹的分類過(guò)程就是把訓(xùn)練集劃分為越來(lái)越小的子集的過(guò)程。理想的結(jié)果是決策樹的葉子節(jié)點(diǎn)的樣本都有同類標(biāo)記。如果是這樣,顯然決策樹的分支應(yīng)該停止了,因?yàn)樗缘念悇e已經(jīng)被分開了。 C4.5算法之所以是最常用的決策樹算法,是因?yàn)樗^承了ID3算法的所有優(yōu)點(diǎn)并對(duì)ID3算的進(jìn)行了改進(jìn)和補(bǔ)充。C4.5算法采用信息增益率作為選擇分支屬性的標(biāo)準(zhǔn),克服了ID3算法中信息增益選擇屬性時(shí)偏向選擇取值多的屬性的不足,并能夠完成對(duì)連續(xù)屬性離散化是處理,還能夠?qū)Σ煌暾麛?shù)據(jù)進(jìn)行處理。C4.5算法屬于基于信息論(Information Theory)的方法,它是以信息論為基礎(chǔ),以信息熵和信息增益度為衡量標(biāo)準(zhǔn),從而實(shí)現(xiàn)對(duì)數(shù)據(jù)的歸納分類。 C4.5算法主要做出了以下方面的改進(jìn): (1)用信息增益率來(lái)選擇屬性 克服了用信息增益來(lái)選擇屬性時(shí)偏向選擇值多的屬性的不足。信息增益率定義為: GainRatio(S, A) = Gain(S,A)SplitInfo(S,A) (1) 其中,Grain(S,A)與ID3算法中的信息增益相同,而分裂信息SplitInfo(S, A)代表了按照屬性A分裂樣本集S的廣度和均勻性。 SplitInfo(S, A) = -i=1c|Si||S|Log2|Si||S| (2) (2) 其中,S1到Sc是c個(gè)不同值的屬性A分割S而形成的c個(gè)樣本子集。如按照屬性A把S集(含30個(gè)用例)分成了10個(gè)用例和20個(gè)用例兩個(gè)集合,則SplitInfo(S,A)=-1/3*log(1/3)-2/3*log(2/3)。 (2)可以處理連續(xù)數(shù)值型屬性 C4.5算法既可以處理離散型描述屬性,也可以處理連續(xù)性描述屬性。在選擇某節(jié)點(diǎn)上的分枝屬性時(shí),對(duì)于離散型描述屬性,C4.5算法的處理方法與ID3相同,按照該屬性本身的取值個(gè)數(shù)進(jìn)行計(jì)算;對(duì)于某個(gè)連續(xù)性描述屬性Ac,假設(shè)在某個(gè)節(jié)點(diǎn)上的數(shù)據(jù)集的樣本數(shù)量為total,C4.5算法將作以下處理: ①將該節(jié)點(diǎn)上的所有數(shù)據(jù)樣本按照連續(xù)型描述的屬性的具體數(shù)值,由小到大進(jìn)行排序,得到屬性值的取值序列{A1c,A2c,……Atotalc}。 ②在取值序列生成total-1個(gè)分割點(diǎn)。第i(0z] = c (3) 其中N是實(shí)例的數(shù)量,f=E/N為觀察到的誤差率(其中E為N個(gè)實(shí)例中分類錯(cuò)誤的個(gè)數(shù)),q為真實(shí)的誤差率,c為置信度(C4.5算法的一個(gè)熟人參數(shù),默認(rèn)值為0.25),z為對(duì)應(yīng)于置信度c的標(biāo)準(zhǔn)差,其值可根據(jù)c的設(shè)定值通過(guò)查正態(tài)分布表得到。通過(guò)該公式即可計(jì)算出真實(shí)誤差率q的一個(gè)置信區(qū)間上限,用此上限為該節(jié)點(diǎn)誤差率e做一個(gè)悲觀的估計(jì): e = f+z22N+ZfN-f2N+z24N21+z2N (4) 通過(guò)判斷剪枝前后e的大小,從而決定是否需要剪枝。 (4)對(duì)于缺失值的處理 在某些情況下,可供使用的數(shù)據(jù)可能缺少某些屬性的值。假如- 1.請(qǐng)仔細(xì)閱讀文檔,確保文檔完整性,對(duì)于不預(yù)覽、不比對(duì)內(nèi)容而直接下載帶來(lái)的問(wèn)題本站不予受理。
- 2.下載的文檔,不會(huì)出現(xiàn)我們的網(wǎng)址水印。
- 3、該文檔所得收入(下載+內(nèi)容+預(yù)覽)歸上傳者、原創(chuàng)作者;如果您是本文檔原作者,請(qǐng)點(diǎn)此認(rèn)領(lǐng)!既往收益都?xì)w您。
下載文檔到電腦,查找使用更方便
10 積分
下載 |
- 配套講稿:
如PPT文件的首頁(yè)顯示word圖標(biāo),表示該P(yáng)PT已包含配套word講稿。雙擊word圖標(biāo)可打開word文檔。
- 特殊限制:
部分文檔作品中含有的國(guó)旗、國(guó)徽等圖片,僅作為作品整體效果示例展示,禁止商用。設(shè)計(jì)者僅對(duì)作品中獨(dú)創(chuàng)性部分享有著作權(quán)。
- 關(guān) 鍵 詞:
- C4
鏈接地址:http://www.hcyjhs8.com/p-13144352.html