他通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能. adaboost提高那些被前一轮弱分类器错误分类样本的权重,而降低那些被正确分类样本的权重,这样使得,那些没有得到正确分类的数据,由于其权重的加大而受到后一轮的弱分类器的更大的关注.在组合阶段,加大分类误差率小的若分类器的权值(误差率越小,权重越大),使其在表决中起较大的作用,减少分类误差率大的弱分类器的权值,使其在表决中起较小的作用. 转自 http://blog.csdn.net/v_july_v/art…