kNN--近邻算法
kNN--近邻算法
kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。
在机器学习中常用于分类。
数学内容:
欧氏距离公式,矩阵运算,归一化数值
python模块:
numpy,operator(用其中的itemgetter做排序),listdir(列出目录中的文件),matplotlib.pyplot(可视化数据分析数据),
PIL(对图片进行处理)
from numpy import *
import operator
from os import listdir def createDataSet():
groups=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
lables=['A','A','B','B']
return groups,lables #k-近邻算法
def classify0(inX, dataset,labels,k):
#获取样本集中有几组数据
datasetSize=dataset.shape[0]
#欧氏距离公式 计算距离
diffMat=tile(inX, (datasetSize, 1)) - dataset
sqDiffMat=diffMat**2
sqDistances=sqDiffMat.sum(axis=1)
distances=sqDistances**0.5
#按距离递增排列,返回样本集中的index
sortedDistances=distances.argsort()
classCount={}
for i in range(k):
#根据距离递增的顺序,获取与其对应的类别(即目标变量)
voteIlabel=labels[sortedDistances[i]]
#为k个元素所在的分类计数
classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
#通过对比每个类别出现的次数(即classCount value),以递减的顺序排序
sortedCount=sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
#返回计数最大的那个类别的值
return sortedCount[0][0] #准备数据
def file2matrix(filename):
fr=open(filename)
arrayOLines=fr.readlines()
#获取文件行数
numberOflines=len(arrayOLines)
#创建一个以文件行数为行,3列的矩阵
returnMatrix=zeros((numberOflines,3))
#定义一个存放目标变量(类别)的数组
classLabelVector=[]
index=0
#遍历文件
for line in arrayOLines:
line=line.strip()
listFromLine=line.split('\t')
#把文件前三列添加到返回的矩阵中
returnMatrix[index:]=listFromLine[0:3]
#文件最后一列(对应的类别)添加到类别数组中
classLabelVector.append(int(listFromLine[-1]))
index+=1
#返回数据特征矩阵和类别数组
return returnMatrix,classLabelVector #通过公式 "newValue=(oldValue-min)/(max-min)" 将任意取值范围的特征值转化为0到1区间内的值
def autoNorm(dataset):
#返回每列的最小值
minVals=dataset.min(0)
#返回每列的最大值
maxVals=dataset.max(0)
#返回最大值与最小值的差
ranges=maxVals-minVals
#创建与dataset同行同列的0矩阵
normDataset=zeros(shape(dataset))
#返回dataset的行数
m=dataset.shape[0]
#创建一个重复m次的minVals矩阵,并与dataset相减
normDataset=dataset-tile(minVals,(m,1))
#newValue=(oldValue-min)/(max-min)
normDataset=normDataset/tile(ranges,(m,1))
return normDataset,ranges,minVals #测试算法
def datingClassTest():
#设定测试数据比例
hoRatio=0.10
#返回格式化后的数据和其标签
datingDataMat,datingLabels=file2matrix('datingTestSet2.txt')
#归一化数据值
normMat,ranges,minVals=autoNorm(datingDataMat)
#数据的行数
m=normMat.shape[0]
#测试数据的行数
numTestVecs=int(m*hoRatio)
#设置错误预测计数器
errorCount=0.0
#向k-近邻算法中传numTestVecs个测试数据,并把返回的预测数据与真实数据比较返回,若错误,计数器加1
for i in range(numTestVecs):
"""
调用k-近邻算法,为其传入参数,
normMat[i]:第i个测试数据,
normMat[numTestVecs:m,:]:从numTestVecs到m个样本数据,(m可以不写,相当于从numTestVecs索引开始,取剩下所有的normMat数据)
datingLabels[numTestVecs:m]:从numTestVecs到m个样本数据对应的标签
3:k的值
"""
classifierResult=classify0(normMat[i],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
#判断预测数据与真实数据,如果是错误的,则以红字体输出,并错误预测计数器加1
if (classifierResult!=datingLabels[i]):
print("\033[0;31mthe classifier came back with: %d, the real answer is: %d\033[0m" % (classifierResult, datingLabels[i]))
errorCount+=1.0
else:
print("the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i]))
print("the total error rate is:%f" %(errorCount/float(numTestVecs))) #约会系统
def classifiyPerson():
#设定分类(标签)列表
resultList=["not at all", "in small doses", "in large doses"]
#提示用户输入相应内容
percentTats=float(input("percentage of time spent playing video games?"))
ffMiles=float(input("frequent filer miles earned per year?"))
iceCream=float(input("liters of ice cream consumed per year?"))
#把用户输入的三个特征值格式化成numpy.array数据类型
inArr=array([ffMiles,percentTats,iceCream])
#准备样本数据及对应标签
datingDataMat,datingLabels=file2matrix('datingTestSet2.txt')
#归一化样本数据并返回ranges和minVals,以便归一化用户输入的数据
normMat,ranges,minVals=autoNorm(datingDataMat)
#调用k-近邻算法,并把传入的预测数据特征做归一化
classifierResult=classify0((inArr-minVals)/ranges,normMat,datingLabels,3)
#打印出预测出的类别,因为样本数据中的类别(标签)为1,2,3,其index是0,1,2,所以要用预测出的分类(1,2,3)减1
print("You will probably like this person: %s" %(resultList[classifierResult-1])) #将32x32的二进制图像文件转换成1x1024的向量
def img2vector(filename):
#创建一个1x1024的0矩阵
returnVect=zeros((1,1024))
fr=open(filename)
"""
因为已知文件是32x32,即有文件中32行内容,通过readline()方法遍历文件,得到文件的每行内容lineStr
再遍历每行内容lineStr,并把遍历出的内容添加到returnVect矩阵里
"""
for i in range(32):
lineStr=fr.readline()
for j in range(32):
returnVect[0,32*i+j]=int(lineStr[j])
return returnVect #手写数字识别系统
def handwritingClassTest():
#创建数据标签集合
hwLabels=[]
#列出目录冲所有文件
trainingFileList=listdir('digits/trainingDigits')
#得到文件个数,也就是训练数据的行数
m=len(trainingFileList)
#创建一个m行,1024列的0矩阵
trainingMat=zeros((m,1024))
"""
通过遍历所有训练文件,得到文件名,其对应的数字(eg:0_7.txt),并把数字添加到hwLabels集合,
通过上面的img2vector函数,得到一个与该文件对应的1x1024矩阵,并添加到trainingMat矩阵中
"""
for i in range(m):
fileNameStr=trainingFileList[i]
fileStr=fileNameStr.split('.')[0]
classNumStr=int(fileStr.split('_')[0])
hwLabels.append(classNumStr)
trainingMat[i,:]=img2vector('digits/trainingDigits/%s' % fileNameStr)
#对测试数据做同样的操作
testFileList=listdir('digits/testDigits')
mTest=len(testFileList)
errorCount=0.0
for i in range(mTest):
fileNameStr=testFileList[i]
fileStr=fileNameStr.split('.')[0]
classNumStr=int(fileStr.split('_')[0])
vectorUnderTest=img2vector('digits/testDigits/%s' % fileNameStr)
classifierResult=classify0(vectorUnderTest,trainingMat,hwLabels,3)
if (classifierResult!=classNumStr):
print("\033[0;31mthe classifier came back with: %d, the real answer is: %d\033[0m" % (classifierResult,classNumStr))
errorCount+=1
else:
print("the classifier came back with: %d, the real answer is: %d" %(classifierResult,classNumStr))
print("\nthe total number of errors is: %d" % errorCount)
print("\nthe total error rate is: %f" %(errorCount/float(mTest))) #在网上找数字图片做测试
def imgNumClassTest(filename):
hwLabels=[]
trainingFileList=listdir('digits/trainingDigits')
m=len(trainingFileList)
trainingMat=zeros((m,1024))
for i in range(m):
fileNameStr=trainingFileList[i]
fileStr=fileNameStr.split('.')[0]
classNumStr=int(fileStr.split('_')[0])
hwLabels.append(classNumStr)
trainingMat[i,:]=img2vector('digits/trainingDigits/%s' % fileNameStr)
vectorUnderTest=img2vector(filename)
classifierResult=classify0(vectorUnderTest,trainingMat,hwLabels,3)
print(classifierResult)
约会网站案列数据分析代码:
"""
分析数据
""" import kNN
from numpy import *
import matplotlib
import matplotlib.pyplot as plt datingDataMat,datingLabels=kNN.file2matrix('datingTestSet2.txt')
#创建一个图片窗口,默认是1(figure1)
fig=plt.figure()
#在图片窗口创建两行一列的子图,并使用第一行第一列,即211的含义
ax1=fig.add_subplot(211)
"""
创建散点图,x轴是datingDataMat第一列的数据,y轴是datinDataMat第二列的数据,
后面两个参数一个代表颜色,一个代表点的大小,两个参数同时放大15倍,然后这个时候就是同一个label用一种颜色和大小表示出来,
不同的label的点的大小和颜色会不一样。
"""
ax1.scatter(datingDataMat[:,1],datingDataMat[:,2],15*array(datingLabels),15*array(datingLabels))
#设置x轴标签
plt.xlabel('Play game takes time')
#设置y轴标签
plt.ylabel('Eat ice-cream') #在图片窗口中使用第一行第二列
ax2=fig.add_subplot(212)
#把datingLabels转成numpy.array类型
datingLabels=array(datingLabels)
#取datingLabels中值等于1的index
idx_1=where(datingLabels==1)
#idx_1即datingTestSet2.txt文件中第四列值为1的行数,则获取idx_1行,第一二列的数据创建散点图,为这些点设置颜色,大小,label
p1=ax2.scatter(datingDataMat[idx_1,0],datingDataMat[idx_1,1],color = 'm', label='Hate', s = 50)
idx_2=where(datingLabels==2)
p2=ax2.scatter(datingDataMat[idx_2,0],datingDataMat[idx_2,1],color = 'c', label='General', s = 30)
idx_3=where(datingLabels==3)
p3=ax2.scatter(datingDataMat[idx_3,0],datingDataMat[idx_3,1],color = 'r', label='Like', s = 10)
plt.xlabel('Flying')
plt.ylabel('Play game takes time')
#创建图示放置在左上角
plt.legend(loc='upper left')
#显示图片
plt.show()
手写数字识别系统图片转文本文件代码:
from PIL import Image
import numpy as np
import matplotlib.pyplot as plt def img2txt(img_path, txt_name):
"""
将图像数据转换为txt文件
:param img_path: 图像文件路径
:type txt_name: 输出txt文件路径
""" #把图片转成二值图像,并设长宽均为32
im = Image.open(img_path).convert('').resize((32, 32)) # type:Image.Image
#plt.imshow(im)
#plt.show() #将上面得到的图像转成array数组
data = np.asarray(im)
#将上面得到的数组保存在到文本文件中,指定存储数据类型为整型,分隔符
np.savetxt(txt_name, data, fmt='%d', delimiter='')
kNN--近邻算法的更多相关文章
- KNN近邻算法
K近邻(KNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一.所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表.kNN算法的核 ...
- 机器学习之利用KNN近邻算法预测数据
前半部分是简介, 后半部分是案例 KNN近邻算法: 简单说就是采用测量不同特征值之间的距离方法进行分类(k-Nearest Neighbor,KNN) 优点: 精度高.对异常值不敏感.无数据输入假定 ...
- 机器学习入门KNN近邻算法(一)
1 机器学习处理流程: 2 机器学习分类: 有监督学习 主要用于决策支持,它利用有标识的历史数据进行训练,以实现对新数据的表示的预测 1 分类 分类计数预测的数据对象是离散的.如短信是否为垃圾短信,用 ...
- 机器学习实战笔记(Python实现)-01-K近邻算法(KNN)
--------------------------------------------------------------------------------------- 本系列文章为<机器 ...
- 基本分类方法——KNN(K近邻)算法
在这篇文章 http://www.cnblogs.com/charlesblc/p/6193867.html 讲SVM的过程中,提到了KNN算法.有点熟悉,上网一查,居然就是K近邻算法,机器学习的入门 ...
- 机器学习之K近邻算法(KNN)
机器学习之K近邻算法(KNN) 标签: python 算法 KNN 机械学习 苛求真理的欲望让我想要了解算法的本质,于是我开始了机械学习的算法之旅 from numpy import * import ...
- class-k近邻算法kNN
1 k近邻算法2 模型2.1 距离测量2.2 k值选择2.3 分类决策规则3 kNN的实现--kd树3.1 构造kd树3.2 kd树搜索 1 k近邻算法 k nearest neighbor,k-NN ...
- 机器学习——KNN算法(k近邻算法)
一 KNN算法 1. KNN算法简介 KNN(K-Nearest Neighbor)工作原理:存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分 ...
- k近邻算法(KNN)
k近邻算法(KNN) 定义:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别. from sklearn.model_selection ...
- 1. K近邻算法(KNN)
1. K近邻算法(KNN) 2. KNN和KdTree算法实现 1. 前言 K近邻法(k-nearest neighbors,KNN)是一种很基本的机器学习方法了,在我们平常的生活中也会不自主的应用, ...
随机推荐
- 轻量ORM-SqlRepoEx (十二)SqlRepoEx 2.0.1 至 2.2.0 版本更新说明
一.功能变化 (一).强化特性支持 1.部分类型拥有复杂属性: 2.有些属性不是来源于数据库 3.用户在原来的代码中使用 SqlRepoEx ,减少字段与数据库字段之间的冲突: 4.为支持新的特性及优 ...
- DDL-常见的约束
一.常见的约束NOT NULL:非空,该字段的值必填UNIQUE:唯一,该字段的值不可重复DEFAULT:默认,该字段的值不用手动插入有默认值CHECK:检查,mysql不支持PRIMARY KEY: ...
- Knowledge-Reserve
Knowledge-Reserve ComputerOperatingSystem 编译 静态库&动态库(Linux) 静态链接&动态链接 内存 内联函数&宏 Static&a ...
- Oracle 执行计划的查看方式
访问数据的方法:一.访问表的方法:1.全表扫描,2.ROWID扫描 二.访问索引的方法:1.索引唯一性扫描,2.索引范围扫描,3.索引全扫 ...
- angular路由传参和获取路由参数的方法
1.首先是需要导入的模块 import { Router } from "@angular/router";//路由传参用到 import{ActivatedRoute,Param ...
- code#5 P4 逻辑树
逻辑树 时间限制: 3.0 秒 空间限制: 512 MB 相关文件: 题目目录 题目描述 有一棵树,叫逻辑树. 这个树有根,有 2N−1 个节点,其中 N 个叶子,每个非叶节点恰好有两个孩子. 每 ...
- source .bashrc 报错:virtualenvwrapper.sh: There was a problem running the initialization hooks.
在Ubuntu下安装完virtualenv.virtualenvwrapper,然后设置环境文件 .bashrc 接着 source .bashrc,产生错误信息 首先确认了 libpam-mount ...
- 使用CURL实现GET和POST方式请求
/** 使用curl方式实现get或post请求@param $url 请求的url地址@param $data 发送的post数据 如果为空则为get方式请求return 请求后获取到的数据 */f ...
- Spring框架中用到的设计模式(转)
主要参考这篇文章 http://blog.didispace.com/spring-design-partern/
- PTA基础编程题目集6-4求自定类型元素的平均 (函数题)
6-4 求自定类型元素的平均 (10 分) 本题要求实现一个函数,求N个集合元素S[]的平均值,其中集合元素的类型为自定义的ElementType. 函数接口定义: ElementType Aver ...