本篇文章分为两个部分,前一部分主要简单介绍K近邻,后一部分是一个例子 第一部分--K近邻简介 从字面意思就可以容易看出,所谓的K近邻,就是找到某个样本距离(这里的距离可以是欧式距离,曼哈顿距离,切比雪夫距离等)最近的K个数据,根据最近的K个邻居属于什么分类,来判断这个样本属于什么分类. 简单说一下优缺点: 优点:简单,适合于多分类问题(multi-modal,对象具有多个类别标签), kNN比SVM的表现要好. 缺点:I:计算量大 II.如果某个分类占绝对优势,分类的效果很差,比如,印度阿三主…