Ensemble learning - 集成算法 ▒ 目的 让机器学习的效果更好, 量变引起质变 继承算法是竞赛与论文的神器, 注重结果的时候较为适用 集成算法 - 分类 ▒ Bagging - bootstrap aggregation ◈ 公式 ◈ 原理 训练多个分类器取平均, 并行 的训练一堆的分类器 ◈ 典例 随机森林 ◈ 随机 输入 - 数据源采样随机 - 在原有数据上的进行 60% - 80% 比例的有放回的数据取样 数据量相同, 但是每个树的样本数据各不相同 特征 - 特征选择随机…
集成学习 集成算法 随机森林(前身是bagging或者随机抽样)(并行算法) 提升算法(Boosting算法) GBDT(迭代决策树) (串行算法) Adaboost (串行算法) Stacking ———————————————————————————————————————————— 集成算法  集成学习的思想是将若干个学习器(分类器&回归器)组合之后产生一个新学习器. 弱分类器(weaklearner)指那些分类准确率只稍微好于随机猜测的分类器(准确率稍大于百分之50,可以是之前学过的逻辑…
一.集成学习的思路 共 3 种思路: Bagging:独立的集成多个模型,每个模型有一定的差异,最终综合有差异的模型的结果,获得学习的最终的结果: Boosting(增强集成学习):集成多个模型,每个模型都在尝试增强(Boosting)整体的效果: Stacking(堆叠):集成 k 个模型,得到 k 个预测结果,将 k 个预测结果再传给一个新的算法,得到的结果为集成系统最终的预测结果: 二.增强集成学习(Boosting) 1)基础理解 Boosting 类的集成学习,主要有:Ada Boos…
Jackknife,Bootstraping, bagging, boosting, AdaBoosting, Rand forest 和 gradient boosting 这些术语,我经常搞混淆,现在把它们放在一起,以示区别.(部分文字来自网络,由于是之前记的笔记,忘记来源了,特此向作者抱歉) Bootstraping: 名字来自成语"pull up by your own bootstraps",意思是依靠你自己的资源,称为自助法,它是一种有放回的抽样方法,它是非参数统计中一种重…
目的:为了让训练效果更好 bagging:是一种并行的算法,训练多个分类器,取最终结果的平均值 f(x) = 1/M∑fm(x) boosting: 是一种串行的算法,根据前一次的结果,进行加权来提高训练效果 stacking; 是一种堆叠算法,第一步使用多个算法求出结果,再将结果作为特征输入到下一个算法中训练出最终的预测结果 1.Bagging:全程boostap aggregation(说白了是并行训练一堆分类器) 最典型的算法就是随机森林 随机森林的意思就是特征随机抽取,即每一棵数使用60…
一.集成学习算法的问题 可参考:模型集成(Enxemble) 博主:独孤呆博 思路:集成多个算法,让不同的算法对同一组数据进行分析,得到结果,最终投票决定各个算法公认的最好的结果: 弊端:虽然有很多机器学习的算法,但是从投票的角度看,仍然不够多:如果想要有效果更好的投票结果,最好有更多的算法参与:(概率论中称大数定理) 方案:创建更多的子模型,集成更多的子模型的意见: 子模型之间要有差异,不能一致: 二.如何创建具有差异的子模型 1)创建思路.子模型特点 思路:每个子模型只使用样本数据的一部分:…
优化算法 先导知识:泰勒公式 \[ f(x)=\sum_{n=0}^{\infty}\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n \] 一阶泰勒展开: \[ f(x)\approx f(x_0)+f'(x_0)(x-x_0) \] 二阶泰勒展开: \[ f(x)\approx f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2}(x-x_0)^2 \] 梯度下降法 \[ \begin{align*} &f(x)=f(x^k)+g_k^T*(x-x^…
零. Introduction 1.learn over a subset of data choose the subset uniformally randomly (均匀随机地选择子集) apply some learning algorithm 解决第一个问题 :Boosting 算法 不再随机选择样本,而是选择the samples we are not good at? 寻找算法解决我们当下不知道如何解决的问题--学习的意义 baic idea behind boosting : f…
KNN算法是解决分类问题的最简单的算法.同时也是最常用的算法.KNN算法也可以称作k近邻算法,是指K个最近的数据集,属于监督学习算法. 开发流程: 1.加载数据,加载成特征矩阵X与目标向量Y. 2.给定一个新的数据,算出新数据和所有数据的距离,找到距离最近的前K个数据,K的取值范围一般是3-15个.凭经验. 3.统计前K个距离最近的样本对应的类别,然后少数服从多数,将这个数据划分为出现次数最多的那个类别. 注:这里面的距离指的是欧式距离 优缺点: 简单 支持多分类 K的取值会影响结果 噪声数据敏…
目的:让机器学习效果更好,单个不行,群殴啊! Bagging:训练多个分类器取平均 Boosting:从弱学习器开始加强,通过加权来进行训练 (加入一棵树,比原来要强) Stacking:聚合多个分类或回归模型(可以分阶段来做) bagging模型 全称:bootstrap aggregation(说白了就是并行训练一堆分类器) 最典型代表:随机森林 随机:数据采样随机,特征选择随机 森林:很多个决策树并行放在一起 构造树模型 由于二重随机性,使得每个树基本上都不会一样,最终的结果也会不一样.…