本文为senlie原创,转载请保留此地址:http://www.cnblogs.com/senlie/ 决策树---------------------------------------------------------------------1.描述:以树为基础的方法可以用于回归和分类.树的节点将要预测的空间划分为一系列简单域划分预测空间的规则可以被建模为一棵树,所以这种方法也叫决策树方法bagging,随机森林,boosting 是多棵决策树组合起来采用投票方式产生一个预测结果的方法机制…
Bootstraping: 名字来自成语“pull up by your own bootstraps”,意思是依靠你自己的资源,称为自助法,它是一种有放回的抽样方法,它是非参数统计中一种重要的估计统计量方差进而进行区间估计的统计方法.其核心思想和基本步骤如下:(1) 采用重抽样技术从原始样本中抽取一定数量(自己给定)的样本,此过程允许重复抽样.(2) 根据抽出的样本计算给定的统计量T.(3) 重复上述N次(一般大于1000),得到N个统计量T.(4) 计算上述N个统计量T的样本方差,得到统计量…
1.bootstrap   在原始数据的范围内作有放回的再抽样M个, 样本容量仍为n,原始数据中每个观察单位每次被抽到的概率相等, 为1/n , 所得样本称为Bootstrap样本.于是可得到参数θ的一个估计值θ^(b),这样重复若干次,记为B .为了可以避免一些误差点对少量树的决策影响. 2.决策树 : 信息熵: Ent(D) = - ΣPk*logPk, Ent(D)的值越小,则D的纯度越高           信息增益: ID3中使用, 存在过拟合的情况, 避免过拟合的方法,1. 通过si…
看了一篇介绍这几个概念的文章,整理一点点笔记在这里,原文链接: https://machinelearningmastery.com/bagging-and-random-forest-ensemble-algorithms-for-machine-learning/ 1.Bootstrap Method The bootstrap is a powerful statistical method for estimating a quantity from a data sample. Thi…
分类算法:对目标值进行分类的算法    1.sklearn转换器(特征工程)和预估器(机器学习)    2.KNN算法(根据邻居确定类别 + 欧氏距离 + k的确定),时间复杂度高,适合小数据    3.模型选择与调优    4.朴素贝叶斯算法(假定特征互独立 + 贝叶斯公式(概率计算) + 拉普拉斯平滑系数),假定独立,对缺失数据不敏感,用于文本分类    5.决策树(找到最高效的决策顺序--信息增益(关键特征=信息熵-条件熵) + 可以可视化)    6.随机森林(bootstarp(又放回…
参考链接: https://www.bilibili.com/video/av26086646/?p=8 <统计学习方法> 一.决策树算法: 1.训练阶段(决策树学习),也就是说:怎么样构造出来这棵树? 2.剪枝阶段. 问题1:构造决策树,谁当根节点?例:相亲时为啥选年龄作为根节点? H(X)为事件发生的不确定性. 事件X,Y相互独立,概率P(X),P(Y).认为:P(几率越大)->H(X)越小,如今天正常上课.P(几率越小)->H(X)越大,如今天翻车了. 熵是表示随机变量不确定…
数据来自 UCI 数据集 匹马印第安人糖尿病数据集 载入数据 # -*- coding: utf-8 -*- import pandas as pd import matplotlib matplotlib.rcParams['font.sans-serif']=[u'simHei'] matplotlib.rcParams['axes.unicode_minus']=False from sklearn.tree import DecisionTreeClassifier from sklea…
一.概念 XGBoost全名叫(eXtreme Gradient Boosting)极端梯度提升,经常被用在一些比赛中,其效果显著.它是大规模并行boosted tree的工具,它是目前最快最好的开源boosted tree工具包.XGBoost 所应用的算法就是 GBDT(gradient boosting decision tree)的改进,既可以用于分类也可以用于回归问题中. 1.回归树与决策树  事实上,分类与回归是一个型号的东西,只不过分类的结果是离散值,回归是连续的,本质是一样的,都…
http://www.cnblogs.com/maybe2030/p/4585705.html 阅读目录 1 什么是随机森林? 2 随机森林的特点 3 随机森林的相关基础知识 4 随机森林的生成 5 袋外错误率(oob error) 6 随机森林工作原理解释的一个简单例子 7 随机森林的Python实现 8 参考内容 回到顶部 1 什么是随机森林? 作为新兴起的.高度灵活的一种机器学习算法,随机森林(Random Forest,简称RF)拥有广泛的应用前景,从市场营销到医疗保健保险,既可以用来做…
在集成学习中,主要分为bagging算法和boosting算法.随机森林属于集成学习(Ensemble Learning)中的bagging算法. Bagging和Boosting的概念与区别该部分主要学习自:http://www.cnblogs.com/liuwu265/p/4690486.html Bagging(套袋法)bagging的算法过程如下: 从原始样本集中使用Bootstraping方法随机抽取n个训练样本,共进行k轮抽取,得到k个训练集.(k个训练集之间相互独立,元素可以有重复…