Boosting

boosting和bagging很类似,所使用的多个分类器类型都是一致的。另外,他们的主要区别点如下:

boosting中不同的分类器是通过串行得到的,每个分类器都是根据已经训练出来的分类器的性能来进行训练。 bagging中不同的分类器之前是没有影响的。

boosting最终的分类结果是各个基本分类器的加权得到,bagging分类器的权重是相等的。

boosting不改变所给的训练数据,只是改变所给训练数据的一个权值的分布。

Boosting的主要版本:AdaBoost, GBDT

接下来就介绍一下AdaBoost:

Ada Boost是一个Linear Aggregation的例子。是对分类错误的example权重提高,一步一步的得到不同的弱分类器,最后融合这些分类器的算法。

从样本中有放回抽样得到每次的训练集,以u纪录出现的次数。

在原始数据集上来看,就相当于是对不同的样本错误采取加权来计算Ein,当前g就是寻找这些加权后的最小Ein,现在我换一种思路,不再是每次放回抽样,然后怎样怎样,而是:

我现在有了g1,g1在一些样本上分类错误,在另一些样本上分类正确,我要怎么由g1得到g2呢?

由于我们希望不同的g差别很大,所以我们希望在新样本上,g1的表现很差,什么叫表现很差呢?就是和你随便猜的表现差不多,

也就是在 u(t + 1)上g1一半分错,一半分对。

所以就可以由之前的数据,进行“加权”得到新的数据进行训练得到g2。

假设之前的错误率为 r,那么正确分类的数据就要乘以 r,错误分类的数据就要乘以(1 - r)

定义方块t:

也就是说,如果这次分对了,那么权重就乘以方块t,分错了就除以方块t。这样对于错误率小于1/2的弱分类器,方块t就会大于1,错误的数据的权重就会得到加强。

好了,有了以上的描述,那么接下来就正式一点的来理一理这个算法Ada boost.

就是首先因为是平方误差,所以初始化权重u为1/N,然后每次就是在数据上找一个g,这基于 min Ein.然后由分类数据的对错确定数据之后的一个权重。

得到新数据之后再训练得到g2,然后得到新权重,然后。。。鸡生蛋,蛋生鸡,子子孙孙无穷尽也。。。

这其中,不能再使用uniform aggregation了,因为你第一次好的数据,在第二次差到极致,你这么组合有意思么?所以,这里采用Linear aggregation。而且这里的权重为ln(方块t)

所以,我们的AdaBoost只要搭配一个弱弱的演算法就好了,那么现在就介绍一个弱弱的演算法Decision Stump

就看单一的feature,在里面决定你要切在哪里,哪边为正,哪边为负。那么我们可以搜索所有参数的组合,得到最好的Decision Stump

物理上看,就比如一个二维的。每次只能切水平刀,竖直刀。

对于权重和更新参数的另一种更新规则,统计学习方法教材上有更详细的描述,而且我觉得那种更新方法似乎更有道理。

Adaboost优缺点:

优点:分类时,分类精度高

    弱分类器好选择

    构造简单,结果可理解

    不容易产生过拟合

缺点:对异常值明感

Adaptive Boosting的更多相关文章

  1. 机器学习技法:08 Adaptive Boosting

    Roadmap Motivation of Boosting Diversity by Re-weighting Adaptive Boosting Algorithm Adaptive Boosti ...

  2. 机器学习技法笔记:08 Adaptive Boosting

    Roadmap Motivation of Boosting Diversity by Re-weighting Adaptive Boosting Algorithm Adaptive Boosti ...

  3. 随机森林(Random Forest),决策树,bagging, boosting(Adaptive Boosting,GBDT)

    http://www.cnblogs.com/maybe2030/p/4585705.html 阅读目录 1 什么是随机森林? 2 随机森林的特点 3 随机森林的相关基础知识 4 随机森林的生成 5 ...

  4. 机器学习技法总结(五)Adaptive Boosting, AdaBoost-Stump,决策树

    上一讲主要利用不同模型计算出来的g.採用aggregation来实现更好的g.假设还没有做出来g.我们能够採用bootstrap的方法来做出一系列的"diversity"的data ...

  5. 自适应增强(Adaptive Boosting)

    简介 AdaBoost,是英文”Adaptive Boosting“(自适应增强)的缩写,是一种迭代提升算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成 ...

  6. 一步一步理解AdaBoosting(Adaptive Boosting)算法

    最近学习<西瓜书>的集成学习之Boosting算法,看了一个很好的例子(https://zhuanlan.zhihu.com/p/27126737),为了方便以后理解,现在更详细描述一下步 ...

  7. aggregation(2):adaptive Boosting (AdaBoost)

    给你这些水果图片,告诉你哪些是苹果.那么现在,让你总结一下哪些是苹果? 1)苹果都是圆的.我们发现,有些苹果不是圆的.有些水果是圆的但不是苹果, 2)其中到这些违反"苹果都是圆的" ...

  8. 【Adaptive Boosting】林轩田机器学习技法

    首先用一个形象的例子来说明AdaBoost的过程: 1. 每次产生一个弱的分类器,把本轮错的样本增加权重丢入下一轮 2. 下一轮对上一轮分错的样本再加重学习,获得另一个弱分类器 经过T轮之后,学得了T ...

  9. 转载:bootstrap, boosting, bagging 几种方法的联系

    转:http://blog.csdn.net/jlei_apple/article/details/8168856 这两天在看关于boosting算法时,看到一篇不错的文章讲bootstrap, ja ...

随机推荐

  1. 根据值设置select的选中项

    $('.selector').attr("checked", true); <s:iterator value="jobSelect" id=" ...

  2. 使用nssm将bat文件注册为windows service (eg:solr, nodejs)

    nssm下载:http://pan.baidu.com/s/1sjAEevj _install.bat @echo off Set BasePath=D:\Tools %BasePath%\nssm- ...

  3. ssh框架复习

    1.Hibernate中实体类的创建规则是什么? 2.hibernate中实体类的三种状态? 三种状态: 1. new 出来一个新对象 TakeTime takeTime = new TakeTime ...

  4. BZOJ2752: [HAOI2012]高速公路(road)(线段树 期望)

    Time Limit: 20 Sec  Memory Limit: 128 MBSubmit: 1820  Solved: 736[Submit][Status][Discuss] Descripti ...

  5. CentOS使用yum安装drbd

    CentOS 6.x系统要升级到最新的内核才支持 CentOS 6.x rpm -ivh http://www.elrepo.org/elrepo-release-6-6.el6.elrepo.noa ...

  6. 【c学习-6】

    void myFunction4(){ //根据用户字段和密码字段判定是否允许登录 //定义原密码和用户字段 char user[10]={"liupeng"};//设置用户名字段 ...

  7. ethereum(以太坊)(十二)--应用(一)__集资(构造函数/映射)

    pragma solidity ^0.4.4; contract funder{ //0xca35b7d915458ef540ade6068dfe2f44e8fa733c //0x14723a09ac ...

  8. dts--tests(一)

    cmdline.py """ DPDK Test suite. Test cmdline. """ import utils from te ...

  9. P1282

    题目描述 多米诺骨牌有上下2个方块组成,每个方块中有1~6个点.现有排成行的 上方块中点数之和记为S1,下方块中点数之和记为S2,它们的差为|S1-S2|.例如在图8-1中,S1=6+1+1+1=9, ...

  10. 第三章:Web表单

    感谢作者 –> 原文链接 本文翻译自 The Flask Mega-Tutorial Part III: Web Forms 这是Flask Mega-Tutorial系列的第三部分,我将告诉你 ...