决策树模型中最为流行的是C4.5算法,  该类算法70年代末,J Ross Quinlan提出ID3算法,此算法的目的在于减少树的深度。但是忽略了叶子数目的研究。1993年,Quinlan本人以ID3算法为基础研究出C4.5/C5.0算法,C4.5算法在ID3算法的基础上进行了改进,对于预测变量的缺值处理、剪枝技术、派生规则等方面作了较大的改进,既适合于分类问题,又适合于回归问题。在R包中,有如下的算法包可完成C4.5 分类计算,如下,分别以鸢尾花数据集为例进行验证

  • partykit::ctree
  • RWeka::J48
  • C50:C5.0
  • 总结及对比分析

partykit::ctree 


  • 所需安装的R包如下:

    install.packages("RWeka")
    install.packages("party")
    install.packages("partykit")
  • 数据集iris包含五个指标萼片长度、萼片宽度、花瓣长度、花瓣宽度、三种花类型, 建立模型
    set.seed(1234)
    #从iris数据集中随机抽70%定义为训练数据集,30%为测试数据集
    ind <- sample(2, nrow(iris), replace=TRUE, prob=c(0.7, 0.3))
    trainData <- iris[ind==1,]
    testData <- iris[ind==2,]
    library(party)
    #建立决策树模型预测花的种类
    myFormula <- Species ~ Sepal.Length + Sepal.Width + Petal.Length + Petal.Width
    iris_ctree <- ctree(myFormula, data=trainData)
    # 查看预测的结果
    table(predict(iris_ctree), trainData$Species)
  • 结果如下:

    > table(predict(iris_ctree), trainData$Species)
    
                 setosa versicolor virginica
    setosa 40 0 0
    versicolor 0 37 3
    virginica 0 1 31
  • 对照数据结构看决策图

    > #输出决策树图
    > head(trainData,10)
    Sepal.Length Sepal.Width Petal.Length Petal.Width Species
    1 5.1 3.5 1.4 0.2 setosa
    2 4.9 3.0 1.4 0.2 setosa
    3 4.7 3.2 1.3 0.2 setosa
    4 4.6 3.1 1.5 0.2 setosa
    6 5.4 3.9 1.7 0.4 setosa
    7 4.6 3.4 1.4 0.3 setosa
    8 5.0 3.4 1.5 0.2 setosa
    9 4.4 2.9 1.4 0.2 setosa
    10 4.9 3.1 1.5 0.1 setosa
    11 5.4 3.7 1.5 0.2 setosa
    > plot(iris_ctree)
  • 输出结果图如下:

  • 对测试集进行预测
    > testPred <- predict(iris_ctree, newdata = testData)
    > table(testPred, testData$Species) testPred setosa versicolor virginica
    setosa 10 0 0
    versicolor 0 12 2
    virginica 0 0 14
  • 在测试集上结果看模型有较好的泛化能力

RWeka::J48


  • RWeka包在上例已经安装,测试及训练数据见上例

    library(RWeka)
    library(party)
    #训练与测试样本见上例
    m1<-J48(Species~.,data=trainData)
    table(trainData$Species,predict(m1))
    plot(m1)
  • m1结果如下:
  • 预测结果
    > testPred <- predict(m1, newdata = testData)
    > table(testPred, testData$Species) testPred setosa versicolor virginica
    setosa 10 0 0
    versicolor 0 12 1
    virginica 0 0 15
  • 从结果上看,貌似比ctree训练算法稍强点, 需大的数据来深入对比

C50:C5.0


  • C5.0 是Ross Quinlan 1998年提出来的,对C4.5做了很多改进,目前他是作为商业机密在售卖。该算法引入了Boosting的算法框架,比前面提到的算法性能更快,对内存的使用更有效,决策树更小等等。更详细的请访问他的个人主页查阅文章http://www.rulequest.com/see5-unix.htmlhttp://rulequest.com/download.html%20
  • 用法:C5.0(formula, data, weights, subset, na.action = na.pass, ...)
    > library(C50)
    > #ls("package:C50")
    > #训练与测试样本见上例
    > m_c50 <- C5.0(Species ~., data = trainData)
    > C5imp(m_c50)
    Overall
    Petal.Length 100.00
    Petal.Width 64.29
    Sepal.Length 0.00
    Sepal.Width 0.00
  • plot(m_c50) 输出图结果如下:

  • 从图上可发现建树差异,预测结果正确率:
    > c50_pred <- predict(m_c50,newdata = testData)
    > table(c50_pred, testData$Species) c50_pred setosa versicolor virginica
    setosa 10 0 0
    versicolor 0 12 2
    virginica 0 0 14

总结及对比分析


  • 上几节仅是对不同包的算法进行了介绍,数据量太小,比较不出在资源占用、正确率方面的差异,下面以较大数据的情况,对这三个包的结果进行对比分析,正确率如下:
  • 其中C50算法中提供的函数,最重要的参数如下:
    > myFormula <- Type ~.
    > m.C50 <- C5.0(myFormula, data = mytrain)
    > C5imp(m.C50)
    Overall
    DV 100.00
    LV 66.07
    LT 51.07
  • 对比资源占用如下图:
  • 对比正确率

ML(4.1): R C4.5的更多相关文章

  1. ML: 聚类算法R包-对比

    测试验证环境 数据: 7w+ 条,数据结构如下图: > head(car.train) DV DC RV RC SOC HV LV HT LT Type TypeName 1 379 85.09 ...

  2. ML: 聚类算法R包-模糊聚类

    1965年美国加州大学柏克莱分校的扎德教授第一次提出了'集合'的概念.经过十多年的发展,模糊集合理论渐渐被应用到各个实际应用方面.为克服非此即彼的分类缺点,出现了以模糊集合论为数学基础的聚类分析.用模 ...

  3. ML: 聚类算法R包 - 模型聚类

    模型聚类 mclust::Mclust RWeka::Cobweb mclust::Mclust EM算法也称为期望最大化算法,在是使用该算法聚类时,将数据集看作一个有隐形变量的概率模型,并实现模型最 ...

  4. ML: 聚类算法R包-网格聚类

    网格聚类算法 optpart::clique optpart::clique CLIQUE(Clustering In QUEst)是一种简单的基于网格的聚类方法,用于发现子空间中基于密度的簇.CLI ...

  5. ML: 聚类算法R包-层次聚类

    层次聚类 stats::hclust stats::dist    R使用dist()函数来计算距离,Usage: dist(x, method = "euclidean", di ...

  6. ML: 聚类算法R包-K中心点聚类

    K-medodis与K-means比较相似,但是K-medoids和K-means是有区别的,不一样的地方在于中心点的选取,在K-means中,我们将中心点取为当前cluster中所有数据点的平均值, ...

  7. ML(4.3): R Random Forest

    随机森林模型是一种数据挖掘模型,常用于进行分类预测.随机森林模型包含多个树形分类器,预测结果由多个分类器投票得出. 决策树相当于一个大师,通过自己在数据集中学到的知识对于新的数据进行分类.俗话说得好, ...

  8. ML(4.2): R CART

    CART模型 :即Classification And Regression Trees.它和一般回归分析类似,是用来对变量进行解释和预测的工具,也是数据挖掘中的一种常用算法.如果因变量是连续数据,相 ...

  9. ML: 聚类算法R包 - 密度聚类

    密度聚类 fpc::dbscan fpc::dbscan DBSCAN核心思想:如果一个点,在距它Eps的范围内有不少于MinPts个点,则该点就是核心点.核心和它Eps范围内的邻居形成一个簇.在一个 ...

随机推荐

  1. javascript--- document.write()和 innerHTML的区别

    document.write是直接写入到页面的内容流,如果在写之前没有调用document.open, 浏览器会自动调用open.每次写完关闭之后重新调用该函数,会导致页面被重写. innerHTML ...

  2. SQL基础日期函数

    --dateadd 将制定的数值添加到指定的日期部分后的日期 select dateadd(mm,4,'01/01/99') -- 返回:以当前的日期格式返回05/01/99 --datediff 二 ...

  3. PHP:第三章——PHP中嵌套函数和条件函数

    PHP中的嵌套函数: <?php header("Content-Type:text/html;charset=utf-8"); function A(){ echo &qu ...

  4. POJ 2896 另解暴力

    就是简单的用strstr函数对字符串进行处理. 另解:暴力(就是用strstr函数对字符串进行处理)另解:暴力(普通的字符串处理 .关键是strstr函数): #include<stdio.h& ...

  5. DTD——demo

    body, table{font-family: 微软雅黑; font-size: 10pt} table{border-collapse: collapse; border: solid gray; ...

  6. C++字符串函数之append()、insert()

    仅记录自己比较容易忘的几个: B.insert(1,A,2,2) 将A中的从第3个字符开始的2个字符插入到B的第1个字符后面(字符串A和B实际上分别是const char [5]和const char ...

  7. SharePoint 企业搜索-PowerShell

    1. 显示企业搜索服务信息 Get-SPEnterpriseSear1chService 2. 显示企业搜索服务实例 Get-SPEnterpriseSearchServiceInstance 3. ...

  8. FMX StringGrid向上滑动自动加载记录(二)

    写完FMX StringGrid向上滑动自动加载记录(一)自己也觉得不理想,实现的别扭与复杂,现在找到更好的实现方法,原来,StringGrid从基类TCustomPresentedScrollBox ...

  9. ImportError: cannot import name 'path'

    ImportError: cannot import name 'path' django的版本问题 先卸载 django1.11.14 重新安装最新的django2.0.7

  10. 计算 S=a+aa+aaa+aaaa+a.......a【转载】

    package java算法; import java.util.Scanner; /* * 计算 S=a+aa+aaa+aaaa+a.......a */ public class numadd { ...