Decision Trees (DT)是用于分类和回归的非参数监督学习方法. 目标是创建一个模型,通过学习从数据特征推断出的简单决策规则来预测目标变量的值. 例如,在下面的例子中,决策树从数据中学习用一组if-then-else决策规则逼近正弦曲线. 树越深,决策规则越复杂,模型也越复杂. 决策树的优点: 易于理解和解释.树可以被可视化. 需要很少的数据准备.其他技术通常需要数据标准化,需要创建虚拟变量,并删除空白值.但请注意,该模块不支持缺少的值. 使用树(即,预测数据)的成本在用于训练树的数…