KNN最近的规则,主要的应用领域是未知的鉴定,这一推断未知的哪一类,这样做是为了推断。基于欧几里得定理,已知推断未知什么样的特点和最亲密的事情特性;

K最近的邻居(k-Nearest Neighbor,KNN)分类算法,这是一个理论上更加成熟的方法,习算法之中的一个。该方法的思路是:假设一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。KNN算法中。所选择的邻居都是已经正确分类的对象。该方法在定类决策上仅仅根据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 KNN方法尽管从原理上也依赖于极限定理,但在类别决策时,仅仅与极少量的相邻样本有关。

因为KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的。因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其它方法更为适合。

  KNN算法不仅能够用于分类,还能够用于回归。通过找出一个样本的k个近期邻居,将这些邻居的属性的平均值赋给该样本。就能够得到该样本的属性。更实用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成正比(组合函数)。

  该算法在分类时有个基本的不足是,当样本不平衡时。如一个类的样本容量非常大,而其它类样本容量非常小时。有可能导致当输入一个新样本时。该样本的K个邻居中大容量类的样本占多数。

该算法仅仅计算“近期的”邻居样本。某一类的样本数量非常大,那么或者这类样本并不接近目标样本。或者这类样本非常靠近目标样本。

不管如何。数量并不能影响执行结果。

能够採用权值的方法(和该样本距离小的邻居权值大)来改进。该方法的还有一个不足之处是计算量较大,由于对每个待分类的文本都要计算它到全体已知样本的距离,才干求得它的K个近期邻点。眼下经常使用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比較适用于样本容量比較大的类域的自己主动分类。而那些样本容量较小的类域採用这样的算法比較easy产生误分。

K-NN能够说是一种最直接的用来分类未知数据的方法。

基本通过以下这张图跟文字说明就能够明确K-NN是干什么的

简单来说,K-NN能够看成:有那么一堆你已经知道分类的数据,然后当一个新数据进入的时候。就開始跟训练数据里的每一个点求距离,然后挑离这个训练数据近期的K个点看看这几个点属于什么类型。然后用少数服从多数的原则,给新数据归类。

算法步骤:

step.1---初始化距离为最大值

step.2---计算未知样本和每一个训练样本的距离dist

step.3---得到眼下K个最临近样本中的最大距离maxdist

step.4---假设dist小于maxdist,则将该训练样本作为K-近期邻样本

step.5---反复步骤2、3、4,直到未知样本和全部训练样本的距离都算完

step.6---统计K-近期邻样本中每一个类标号出现的次数

step.7---选择出现频率最大的类标号作为未知样本的类标号

KNN的matlab简单实现代码

function target=KNN(in,out,test,k)

% in:       training samples data,n*d matrix

% out: training samples' class label,n*1

% test:     testing data

% target:   class label given by knn

% k:        the number of neighbors

ClassLabel=unique(out);

c=length(ClassLabel);

n=size(in,1);

% target=zeros(size(test,1),1);

dist=zeros(size(in,1),1);

for j=1:size(test,1)

    cnt=zeros(c,1);

    for i=1:n

        dist(i)=norm(in(i,:)-test(j,:));

    end

    [d,index]=sort(dist);

    for i=1:k

        ind=find(ClassLabel==out(index(i)));

        cnt(ind)=cnt(ind)+1;

    end

    [m,ind]=max(cnt);

    target(j)=ClassLabel(ind);

end

R语言的实现代码例如以下

library(class)

data(iris)

names(iris)

m1<-knn.cv(iris[,1:4],iris[,5],k=3,prob=TRUE)

attributes(.Last.value)

library(MASS)

m2<-lda(iris[,1:4],iris[,5])  与判别分析进行比較

b<-data.frame(Sepal.Length=6,Sepal.Width=4,Petal.Length=5,Petal.Width=6)

p1<-predict(m2,b,type="class")

C++ 实现 :

//    KNN.cpp     K-近期邻分类算法

//

////////////////////////////////////////////////////////////////////////////////////////////////////////

#include <stdlib.h>

#include <stdio.h>

#include <memory.h>

#include <string.h>

#include <iostream>

#include <math.h>

#include <fstream>

using namespace std;

////////////////////////////////////////////////////////////////////////////////////////////////////////

//

//    宏定义

//

////////////////////////////////////////////////////////////////////////////////////////////////////////

#define  ATTR_NUM  4                        //属性数目

#define  MAX_SIZE_OF_TRAINING_SET  1000      //训练数据集的最大大小

#define  MAX_SIZE_OF_TEST_SET      100       //測试数据集的最大大小

#define  MAX_VALUE  10000.0                  //属性最大值

#define  K  7

//结构体

struct dataVector {

 int ID;                      //ID号

 char classLabel[15];             //分类标号

 double attributes[ATTR_NUM]; //属性 

};

struct distanceStruct {

 int ID;                      //ID号

 double distance;             //距离

 char classLabel[15];             //分类标号

};

////////////////////////////////////////////////////////////////////////////////////////////////////////

//

//    全局变量

//

////////////////////////////////////////////////////////////////////////////////////////////////////////

struct dataVector gTrainingSet[MAX_SIZE_OF_TRAINING_SET]; //训练数据集

struct dataVector gTestSet[MAX_SIZE_OF_TEST_SET];         //測试数据集

struct distanceStruct gNearestDistance[K];                //K个近期邻距离

int curTrainingSetSize=0;                                 //训练数据集的大小

int curTestSetSize=0;                                     //測试数据集的大小

////////////////////////////////////////////////////////////////////////////////////////////////////////

//

//    求 vector1=(x1,x2,...,xn)和vector2=(y1,y2,...,yn)的欧几里德距离

//

////////////////////////////////////////////////////////////////////////////////////////////////////////

double Distance(struct dataVector vector1,struct dataVector vector2)

{

 double dist,sum=0.0;

 for(int i=0;i<ATTR_NUM;i++)

 {

  sum+=(vector1.attributes[i]-vector2.attributes[i])*(vector1.attributes[i]-vector2.attributes[i]);

 }

 dist=sqrt(sum);

 return dist;

}

////////////////////////////////////////////////////////////////////////////////////////////////////////

//

//    得到gNearestDistance中的最大距离,返回下标

//

////////////////////////////////////////////////////////////////////////////////////////////////////////

int GetMaxDistance()

{

 int maxNo=0;

 for(int i=1;i<K;i++)

 {

  if(gNearestDistance[i].distance>gNearestDistance[maxNo].distance) maxNo = i;

 }

    return maxNo;

}

////////////////////////////////////////////////////////////////////////////////////////////////////////

//

//    对未知样本Sample分类

//

////////////////////////////////////////////////////////////////////////////////////////////////////////

char* Classify(struct dataVector Sample)

{

 double dist=0;

 int maxid=0,freq[K],i,tmpfreq=1;;

 char *curClassLable=gNearestDistance[0].classLabel;

 memset(freq,1,sizeof(freq));

 //step.1---初始化距离为最大值

 for(i=0;i<K;i++)

 {

  gNearestDistance[i].distance=MAX_VALUE;

 }

 //step.2---计算K-近期邻距离

 for(i=0;i<curTrainingSetSize;i++)

 {

  //step.2.1---计算未知样本和每一个训练样本的距离

  dist=Distance(gTrainingSet[i],Sample);

  //step.2.2---得到gNearestDistance中的最大距离

  maxid=GetMaxDistance();

  //step.2.3---假设距离小于gNearestDistance中的最大距离,则将该样本作为K-近期邻样本

  if(dist<gNearestDistance[maxid].distance)

  {

   gNearestDistance[maxid].ID=gTrainingSet[i].ID;

   gNearestDistance[maxid].distance=dist;

   strcpy(gNearestDistance[maxid].classLabel,gTrainingSet[i].classLabel);

  }

 }

 //step.3---统计每一个类出现的次数

 for(i=0;i<K;i++) 

 {

  for(int j=0;j<K;j++)

  {

   if((i!=j)&&(strcmp(gNearestDistance[i].classLabel,gNearestDistance[j].classLabel)==0))

   {

    freq[i]+=1;

   }

  }

 }

 //step.4---选择出现频率最大的类标号

 for(i=0;i<K;i++)

 {

  if(freq[i]>tmpfreq) 

  {

   tmpfreq=freq[i];

    curClassLable=gNearestDistance[i].classLabel;

  }

 }

 return curClassLable;

}

////////////////////////////////////////////////////////////////////////////////////////////////////////

//

//    主函数

//

////////////////////////////////////////////////////////////////////////////////////////////////////////

void main()

{  

 char c;

    char *classLabel="";

 int i,j, rowNo=0,TruePositive=0,FalsePositive=0;

 ifstream filein("iris.data");

 FILE *fp;

 if(filein.fail()){cout<<"Can't open data.txt"<<endl; return;}

 //step.1---读文件 

 while(!filein.eof())

 {

  rowNo++;//第一组数据rowNo=1

  if(curTrainingSetSize>=MAX_SIZE_OF_TRAINING_SET)

  {

   cout<<"The training set has "<<MAX_SIZE_OF_TRAINING_SET<<" examples!"<<endl<<endl;

   break ;

  }  

  //rowNo%3!=0的100组数据作为训练数据集

  if(rowNo%3!=0)

  {   

   gTrainingSet[curTrainingSetSize].ID=rowNo;

   for(int i = 0;i < ATTR_NUM;i++)

   {     

    filein>>gTrainingSet[curTrainingSetSize].attributes[i];

    filein>>c;

   }   

   filein>>gTrainingSet[curTrainingSetSize].classLabel;

   curTrainingSetSize++;

   

  }

  //剩下rowNo%3==0的50组做測试数据集

  else if(rowNo%3==0)

  {

   gTestSet[curTestSetSize].ID=rowNo;

   for(int i = 0;i < ATTR_NUM;i++)

   {    

    filein>>gTestSet[curTestSetSize].attributes[i];

    filein>>c;

   }  

   filein>>gTestSet[curTestSetSize].classLabel;

   curTestSetSize++;

  }

 }

 filein.close();

 //step.2---KNN算法进行分类,并将结果写到文件iris_OutPut.txt

 fp=fopen("iris_OutPut.txt","w+t");

 //用KNN算法进行分类

 fprintf(fp,"************************************程序说明***************************************\n");

 fprintf(fp,"** 採用KNN算法对iris.data分类。为了操作方便,对各组数据加入rowNo属性,第一组rowNo=1!\n");

 fprintf(fp,"** 共同拥有150组数据,选择rowNo模3不等于0的100组作为训练数据集,剩下的50组做測试数据集\n");

 fprintf(fp,"***********************************************************************************\n\n");

 fprintf(fp,"************************************实验结果***************************************\n\n");

 for(i=0;i<curTestSetSize;i++)

 {

        fprintf(fp,"************************************第%d组数据**************************************\n",i+1);

  classLabel =Classify(gTestSet[i]);

     if(strcmp(classLabel,gTestSet[i].classLabel)==0)//相等时,分类正确

  {

   TruePositive++;

  }

  cout<<"rowNo: ";

  cout<<gTestSet[i].ID<<"    \t";

  cout<<"KNN分类结果:      ";

cout<<classLabel<<"(正确类标号: ";

  cout<<gTestSet[i].classLabel<<")\n";

  fprintf(fp,"rowNo:  %3d   \t  KNN分类结果:  %s ( 正确类标号:  %s )\n",gTestSet[i].ID,classLabel,gTestSet[i].classLabel);

  if(strcmp(classLabel,gTestSet[i].classLabel)!=0)//不等时,分类错误

  {

  // cout<<"   ***分类错误***\n";

   fprintf(fp,"                                                                      ***分类错误***\n");

  }

  fprintf(fp,"%d-最临近数据:\n",K);

  for(j=0;j<K;j++)

  {

  // cout<<gNearestDistance[j].ID<<"\t"<<gNearestDistance[j].distance<<"\t"<<gNearestDistance[j].classLabel[15]<<endl;

   fprintf(fp,"rowNo:  %3d   \t   Distance:  %f   \tClassLable:    %s\n",gNearestDistance[j].ID,gNearestDistance[j].distance,gNearestDistance[j].classLabel);

  }

  fprintf(fp,"\n");

 }

    FalsePositive=curTestSetSize-TruePositive;

 fprintf(fp,"***********************************结果分析**************************************\n",i);

 fprintf(fp,"TP(True positive): %d\nFP(False positive): %d\naccuracy: %f\n",TruePositive,FalsePositive,double(TruePositive)/(curTestSetSize-1));

 fclose(fp);

    return;

}

以上引用网上资料;总结。

kNN(K-Nearest Neighbor)最近的分类规则的更多相关文章

  1. K NEAREST NEIGHBOR 算法(knn)

    K Nearest Neighbor算法又叫KNN算法,这个算法是机器学习里面一个比较经典的算法, 总体来说KNN算法是相对比较容易理解的算法.其中的K表示最接近自己的K个数据样本.KNN算法和K-M ...

  2. K Nearest Neighbor 算法

    文章出处:http://coolshell.cn/articles/8052.html K Nearest Neighbor算法又叫KNN算法,这个算法是机器学习里面一个比较经典的算法, 总体来说KN ...

  3. K nearest neighbor cs229

    vectorized code 带来的好处. import numpy as np from sklearn.datasets import fetch_mldata import time impo ...

  4. K-Means和K Nearest Neighbor

    来自酷壳: http://coolshell.cn/articles/7779.html http://coolshell.cn/articles/8052.html

  5. 基本分类方法——KNN(K近邻)算法

    在这篇文章 http://www.cnblogs.com/charlesblc/p/6193867.html 讲SVM的过程中,提到了KNN算法.有点熟悉,上网一查,居然就是K近邻算法,机器学习的入门 ...

  6. 机器学习笔记(十)---- KNN(K Nearst Neighbor)

    KNN是一种常见的监督学习算法,工作机制很好理解:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个"邻居"的信息来进行预测.总结一句话就是&quo ...

  7. [机器学习系列] k-近邻算法(K–nearest neighbors)

    C++ with Machine Learning -K–nearest neighbors 我本想写C++与人工智能,但是转念一想,人工智能范围太大了,我根本介绍不完也没能力介绍完,所以还是取了他的 ...

  8. Nearest neighbor graph | 近邻图

    最近在开发一套自己的单细胞分析方法,所以copy paste事业有所停顿. 实例: R eNetIt v0.1-1 data(ralu.site) # Saturated spatial graph ...

  9. 【cs231n】图像分类-Nearest Neighbor Classifier(最近邻分类器)【python3实现】

    [学习自CS231n课程] 转载请注明出处:http://www.cnblogs.com/GraceSkyer/p/8735908.html 图像分类: 一张图像的表示:长度.宽度.通道(3个颜色通道 ...

随机推荐

  1. 给工程师的 10 条哲理(浅薄者迷信运气,强者相信因果,软件复制成本为零,文凭不重要,AWS使得创业成本为零,每个手机都是口袋里的强大电脑)

    无论是主题分布式数据库,微服务,Soylent,尤伯杯,或者矮人要塞,我们试图从物质分离出来炒作,推迟叙事的客人.与尊重有软件工程日报的社论部分客观性. 一位渠道的成员说,“当软件工程每日的意见公布, ...

  2. Python逐块读取大文件行数的代码 - 为程序员服务

    Python逐块读取大文件行数的代码 - 为程序员服务 python数文件行数最简单的方法是使用enumerate方法,但是如果文件很大的话,这个方法就有点慢了,我们可以逐块的读取文件的内容,然后按块 ...

  3. JAVA NIO 选择器

    为什么要使用选择器 通道处于就绪状态后,就可以在缓冲区之间传送数据.可以采用非阻塞模式来检查通道是否就绪,但非阻塞模式还会做别的任务,当有多个通道同时存在时,很难将检查通道是否就绪与其他任务剥离开来, ...

  4. phpStorm打开提示 failed to create JVM 的解决的方法

    phpStorm 软件打开执行提示 failed to create JVM的解决的方法. 改动文件 D:\Program Files (x86)\JetBrains\PhpStorm 7.1.3\b ...

  5. AMFPHP1.4与PHP5.3及以上版本号不兼容问题的解决

    近期在升级PHP5.4版本号,AMFPHP出现了兼容性问题.解决过程记录例如以下. 1.ereg类相关函数改动为preg相关函数. 2.通过错误日志输出的提示.将全部以静态方式调用的类函数加入stat ...

  6. hdu 3309 Roll The Cube ( bfs )

    Roll The Cube Time Limit: 3000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others) To ...

  7. java.lang.IllegalAccessError: class javax.activation.SecuritySupport12 cannot access its superclass

    最近加入新的项目组,eclipse + tomcat7 + spring +ibatis + restful 遇到了这样的问题, 说是不能访问父类,我一开始以为是版本的原因,但是久经更改,错误依然,实 ...

  8. Android菜鸟的成长笔记(27)——ViewPager的使用

    ViewPager是Android 3.0以上能够使用的API. 一.ViewPager能干什么? 1.微信5.0中连带滑动用ViewPager能够轻松实现. 2.实现相似于新浪微博的导航引导界面. ...

  9. 在word 中复选框划勾或叉的方法

    输入大写字母R.大写字母Q ,然后将字体改为Wingdings 2, 就分离得到带框的勾和叉.

  10. 自写jquery网页回到顶部效果,渐隐图标,引用js文件就可以

    唔.进来开发需求,当网页内容草鸡多的时候,用户就须要有个button高速回到顶部,而不是自己去滚滑轮~ 原本以为比較难的说,由于上头要求所实用js来实现,哪个页面引用,哪个页面显示. 于是乎,本屌丝就 ...