1.bagging减少variance Bagging对样本重采样,对每一重采样得到的子样本集训练一个模型,最后取平均.由于子样本集的相似性以及使用的是同种模型,因此各模型有近似相等的bias和variance(事实上,各模型的分布也近似相同,但不独立),所以bagging后的bias和单个子模型的接近,一般来说不能显著降低bias. 若各模型独立,则 若各模型完全相等,则 此时不会降低variance.bagging方法得到的各子模型是有一定相关性的,属于上面两个极端状况的中间态,因此可以一定…
具体讨论可见于此知乎问题,有很多种理解方向,甚至这一个命题可能本来就不成立!…
这是在kaggle上的一个练习比赛,使用的是ImageNet数据集的子集. 注意,mxnet版本要高于0.12.1b2017112. 下载数据集. train.zip test.zip labels 然后解压在data文件夹下 1. 数据 1.1 整理数据 将解压后的数据整理成Gluon能够读取的形式,这里我直接使用了zh.gluon.ai教程上的代码 导入各种库 import math import os import shutil from collections import Counte…
前言 前面的文章中介绍了决策树以及其它一些算法,但是,会发现,有时候使用使用这些算法并不能达到特别好的效果.于是乎就有了集成学习(Ensemble Learning),通过构建多个学习器一起结合来完成具体的学习任务.这篇文章将介绍集成学习,以及其中的一种算法 AdaBoost. 集成学习 首先先来介绍下什么是集成学习: 构建多个学习器一起结合来完成具体的学习任务,常可获得比单一学习器显著优越的泛化性能,对"弱学习器" 尤为明显(三个臭皮匠,顶个诸葛亮) 也称为Multi-Classif…
一般提升模型效果从两个大的方面入手 数据层面:数据增强.特征工程等 模型层面:调参,模型融合 模型融合:通过融合多个不同的模型,可能提升机器学习的性能.这一方法在各种机器学习比赛中广泛应用, 也是在比赛的攻坚时刻冲刺Top的关键.而融合模型往往又可以从模型结果,模型自身,样本集等不同的角度进行融合. 模型融合是后期一个重要的环节,大体来说有如下的类型方式: 加权融合(投票.平均) 硬投票 软投票 boosting/bagging(集成学习) stacking/blending 本文主要介绍sta…
模型融合 有的时候我们手头可能有了若干个已经训练好的模型,这些模型可能是同样的结构,也可能是不同的结构,训练模型的数据可能是同一批,也可能不同.无论是出于要通过ensemble提升性能的目的,还是要设计特殊作用的网络,在用Caffe做工程时,融合都是一个常见的步骤. 比如考虑下面的场景,我们有两个模型,都是基于resnet-101,分别在两拨数据上训练出来的.我们希望把这两个模型的倒数第二层拿出来,接一个fc层然后训练这个fc层进行融合.那么有两个问题需要解决:1)两个模型中的层的名字都是相同的…
话不多说,直接上代码 def stacking_first(train, train_y, test): savepath = './stack_op{}_dt{}_tfidf{}/'.format(args.option, args.data_type, args.tfidf) os.makedirs(savepath, exist_ok=True) count_kflod = 0 num_folds = 6 kf = KFold(n_splits=num_folds, shuffle=Tru…
当你的深度学习模型变得很多时,选一个确定的模型也是一个头痛的问题.或者你可以把他们都用起来,就进行模型融合.我主要使用stacking和blend方法.先把代码贴出来,大家可以看一下. import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn.metrics import roc_curve SEED = 222 np.random.seed(SEED) from sklearn.mod…
Bagging 从原始样本集中抽取训练集.每轮从原始样本集中使用Bootstraping(有放回)的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中).共进行k轮抽取,得到k个训练集.(我们这里假设k个训练集之间是相互独立的,事实上不是完全独立) 每次使用一个训练集得到一个模型,k个训练集共得到k个模型.但是是同种模型.(注:k个训练集虽然有重合不完全独立,训练出来的模型因为是同种模型也是不完全独立.这里并没有具体的分类算法或回归方法,我们可以根据具体问…
本文为senlie原创,转载请保留此地址:http://www.cnblogs.com/senlie/ 决策树---------------------------------------------------------------------1.描述:以树为基础的方法可以用于回归和分类.树的节点将要预测的空间划分为一系列简单域划分预测空间的规则可以被建模为一棵树,所以这种方法也叫决策树方法bagging,随机森林,boosting 是多棵决策树组合起来采用投票方式产生一个预测结果的方法机制…