import numpy as np
import sklearn.datasets #加载原数据
import matplotlib.pyplot as plt
import random #点到各点距离
def PointToData(point,dataset):
a = np.multiply(dataset - point,dataset - point)
# print('a',a)
distence = np.sqrt(a[:,0]+a[:,1])
return distence #选择初始的k个中心簇
def startpoint(k,dataset):
m, n = np.shape(dataset)
index1 = random.randint(0,len(dataset) - 1)
A = [] # 初始的k个中心簇
A_dit = [] # 初始所有点到中心簇的距离
A.append(dataset[index1])
sum_dis = np.zeros((m, 1))
flag_mat = np.ones((m,1))
flag_mat[index1] = 0
for i in range(0, k - 1):
A_dit.append((PointToData(A[i], dataset)).reshape(-1,1) )
# print('A_dit[{}]:{}'.format(i,A_dit[i]))
sum_dis =(sum_dis + A_dit[i]) * flag_mat
# print('sum_dis[{}]:{}'.format(i,sum_dis))
Index = np.argmax(sum_dis)
flag_mat[Index] = 0
# print('选的Index:',Index)
A.append(dataset[Index])
return A #加载数据
Data = sklearn.datasets.load_iris()
dataset = Data.data[:,0:2] # #小数据测试编码
# test = dataset[0:15,:]
# testm,testn = np.shape(test)
# print(test) #测试k
# k = 4
#初始点测试函数
# Apoint = startpoint(k,test)
# print('Apoint',Apoint)
#距离函数测试
# d = PointToData(test[0,:],test)
# print('d,d+d:',d,d+d) def classfy(dataset,Apoint):
m,n = np.shape(dataset)
dis_li = []
num = 0
for point in Apoint:
distence = PointToData(point,dataset)
dis_li.append(distence)
if num == 0:
dis_li_mat = dis_li[num]
else:
dis_li_mat = np.column_stack((dis_li_mat,dis_li[num]))
num += 1
result = np.argmin(dis_li_mat,axis=1)
# print('dis_li:',dis_li)
# print('dis_li_mat:\n', dis_li_mat)
# print('classfy:',result)
return result
# label2 = classfy(test,Apoint)
# print('label2:',label2) #求分类的新中心
def Center(dataset,label,k):
i = 0
newpoint = []
for index in range(k):
flag = (label==index)
# print('flag,i:',flag,i)
num = sum(flag)
# print('num:',num,index)
a = flag.reshape(-1,1) * dataset
newpoint.append(np.sum(a,axis = 0)/num)
i += 1
# print(newpoint)
return newpoint
# testcenter = center(test,label2,k)
# print('testcenter:',testcenter) #K-means主体函数
def myK(k,dataset):
Startpoint = startpoint(k,dataset)
m,n = np.shape(Startpoint)
centerpoint = Startpoint
labelset = classfy(dataset,Startpoint)
newcenter = Center(dataset,labelset,k)
# print('外:cecnterpoint', centerpoint)
# print('外:newcenter', newcenter)
flag = 0
for i in range(k):
for j in range(n):
if centerpoint[i][j] != newcenter[i][j]:
flag = 1
while flag:
print('循环')
# print('里:cecnterpoint', centerpoint)
# print('里:newcenter', newcenter)
flag = 0
for i in range(k):
for j in range(n):
if centerpoint[i][j] != newcenter[i][j]:
flag = 1
# print('flag:',flag)
centerpoint = newcenter[:]
labelset = classfy(dataset,centerpoint)
newcenter = Center(dataset, labelset, k)
# print('final_resultlabel:',labelset)
# print('cenerpoint:', centerpoint)
return labelset,centerpoint #测试
k=5
final_label,centerpoint = myK(k,dataset)
print('centerpoint:',centerpoint)
mat_center = np.mat(centerpoint) #画图
# plt.scatter(test[:,0],test[:,1],40,10*(labelset+1))
plt.scatter(dataset[:, 0], dataset[:, 1],40,10*(final_label+1))
plt.show()

机器学习之--kmeans聚类简单算法实例的更多相关文章

  1. 机器学习六--K-means聚类算法

    机器学习六--K-means聚类算法 想想常见的分类算法有决策树.Logistic回归.SVM.贝叶斯等.分类作为一种监督学习方法,要求必须事先明确知道各个类别的信息,并且断言所有待分类项都有一个类别 ...

  2. 机器学习中K-means聚类算法原理及C语言实现

    本人以前主要focus在传统音频的软件开发,接触到的算法主要是音频信号处理相关的,如各种编解码算法和回声消除算法等.最近切到语音识别上,接触到的算法就变成了各种机器学习算法,如GMM等.K-means ...

  3. 机器学习-K-means聚类及算法实现(基于R语言)

    K-means聚类 将n个观测点,按一定标准(数据点的相似度),划归到k个聚类(用户划分.产品类别划分等)中. 重要概念:质心 K-means聚类要求的变量是数值变量,方便计算距离. 算法实现 R语言 ...

  4. 菜鸟之路——机器学习之Kmeans聚类个人理解及Python实现

    一些概念 相关系数:衡量两组数据相关性 决定系数:(R2值)大概意思就是这个回归方程能解释百分之多少的真实值. Kmeans聚类大致就是选择K个中心点.不断遍历更新中心点的位置.离哪个中心点近就属于哪 ...

  5. 机器学习:K-Means聚类算法

    本文来自同步博客. 前面几篇文章介绍了回归或分类的几个算法,它们的共同点是训练数据包含了输出结果,要求算法能够通过训练数据掌握规律,用于预测新输入数据的输出值.因此,回归算法或分类算法被称之为监督学习 ...

  6. 【机器学习】K-means聚类算法与EM算法

    初始目的 将样本分成K个类,其实说白了就是求一个样本例的隐含类别y,然后利用隐含类别将x归类.由于我们事先不知道类别y,那么我们首先可以对每个样例假定一个y吧,但是怎么知道假定的对不对呢?怎样评价假定 ...

  7. 机器学习: K-means 聚类

    今天介绍机器学习里常见的一种无监督聚类算法,K-means.我们先来考虑在一个高维空间的一组数据集,S={x1,x2,...,xN}" role="presentation&quo ...

  8. 机器学习之KMeans聚类

    零.学习生成测试数据 from sklearn.datasets import make_blobs from matplotlib import pyplot # create test data ...

  9. 【Python学习笔记】使用python进行kmeans聚类

    使用python进行kmeans聚类 假设我们要解决一个这样的问题. 以下是一些同学,大萌是一个学霸,而我们想要找到这些人中的潜在学霸,所以我们要把这些人分为两类--学霸与非学霸. 高数 英语 Pyt ...

随机推荐

  1. 解决ssh连接linux服务器速度慢

    服务器端sshd配置文件 /etc/ssh/sshd_config 看是否有如下的两条配置条目 GSSAPIAuthentication no UseDNS no 如果前面带#,请把#删掉,或者新添加 ...

  2. Hadoop-2.7.3-src 源码编译

    Hadoop-2.7.3 编译 1.需要环境梳理 BUILDING JDK1.7+ maven 3.0 or later findbugs 1.3.9 protocolBuffer 2.5.0 cma ...

  3. HTML界面多语言切换

    我在做个人网站时考虑到多语言转换的问题,最后在JS文件中将所有文字数据储存然后设置HTML中的class与key属性来达到多语言效果.当然,还有一个别的方法,就是所有有文字内容的div都用不同语言写一 ...

  4. Excel——使用INDEX和SMALL实现条件筛选

    如下图所示,如何实现Excel自带的筛选功能呢?(对的,就是软件自带的功能) 如何实现: B13的公式:=IFERROR(INDEX(B:B,SMALL(IF(A$1:A$10=B$12,ROW($1 ...

  5. (Python3) 求中位数 代码

    def zhongweishu(a): new=sorted(a) if len(a)%2==0: s=(new[int(len(a)/2-1)]+new[int(len(a)/2)])/2 else ...

  6. mysql的order by注入

    最近在做一些漏洞盒子后台项目的总结,在盒子众多众测项目中,注入类的漏洞占比一直较大.其中Order By注入型的漏洞也占挺大一部分比例,这类漏洞也是白帽子乐意提交的类型(奖金高.被过滤概览小).今天给 ...

  7. 为什么单片机中既有Flash又有EEPROM

    单片机运行时的数据都存在于RAM(随机存储器)中,在掉电后RAM 中的数据是无法保留的,那么怎样使数据在掉电后不丢失呢?这就需要使用EEPROM 或FLASHROM 等存储器来实现. 插播一段:ROM ...

  8. 浅入深出Vue系列

    浅入深出Vue导航 导航帖,直接点击标题即可. 文中所有涉及到的资源链接均在最下方列举出来了. 前言 基础篇 浅入深出Vue:工具准备之WebStorm搭建及配置 浅入深出Vue之工具准备(二):Po ...

  9. git怎样删除未监视的文件untracked files

    # 删除 untracked files git clean -f # 连 untracked 的目录也一起删掉 git clean -fd # 连 gitignore 的untrack 文件/目录也 ...

  10. 题解 P4093 【[HEOI2016/TJOI2016]序列】

    这道题原来很水的? noteskey 一开始以为是顺序的 m 个修改,然后选出一段最长子序列使得每次修改后都满足不降 这 TM 根本不可做啊! 于是就去看题解了,然后看到转移要满足的条件的我发出了黑人 ...