一.决策树 决策树一般以选择属性的方式不同分为id3(信息增益),c4.5(信息增益率),CART(基尼系数),只能进行线性的分割,是一种贪婪的算法,其中sklearn中的决策树分为回归树和分类树两种,默认的是CART的决策树,下面介绍CART决策树 分支条件:二分类问题(只用来构建二叉树) 分支方法:对于连续特征的情况:比较阈值,高于某个阈值就属于某一类,低于某个阈值属于另一类.对于离散特征:抽取子特征,比如颜值这个特征,有帅.丑.中等三个水平,可以先分为帅和不帅的,不帅的里面再分成丑和中等的