机器学习中的算法主要分为两类,一类是监督学习,监督学习顾名思义就是在学习的过程中有人监督,即对于每一个训练样本,有对应的标记指明它的类型。如识别算法的训练集中猫的图片,在训练之前会人工打上标签,告诉电脑这些像素组合在一起,里面包含了一只猫。而自然界中更多的数据样本,事实上是没有这些标记的,而我们针对这些没有标记的数据样本,对它们进行学习的算法就叫做无监督学习。聚类算法就是一种典型的无监督学习的算法。俗话说,物以类聚,聚类算法通常就是把分散在空间中的样本按照一定的规则聚集在一起。K-Means聚类算法是聚类算法中最简单最易于实现的一种。
 
在说明K-Means聚类算法的思想之前,我们先要搞懂距离的测量。
针对2维空间的点两个点X=(1,2) Y=(3,4),通常我们将两个点之间的距离所采用的方法都是欧式距离
sqrt((1-3)² +(2-4)²)
欧氏距离表示的就是两点在欧氏空间中线段的长度
 
但除了欧式距离之外我们还有很多度量距离的方法,比如曼哈顿距离
 
因为曼哈顿城区很方正,从一个地方走到另一个地方的距离就等于,起点的X坐标与终点坐标的X坐标差的绝对值加上起点Y坐标与终点Y坐标的差的绝对值,推广到n维欧氏空间,
针对两个向量的比较,我们还能够使用向量的余弦夹角来定义相似性,也可以用来进行向量间距离的度量
在K-means聚类中,通常还是采用欧氏距离来表示样本间的距离,在这里只是说明对于样本,我们是可以采用不同的度量方法去判断样本间的距离的。距离的度量就不做推广了。
 
K-Means聚类算法的思想其实很简单,K代表了聚类结果中包含了几个簇,也就是聚类结果有几个集合,这个K值是需要进行聚类的人手工添加的。
1.人工确定K的值后,我们先将在样本空间中随机选取K个值作为聚类的中心
2.接着遍历样本集,计算每一个样本到各个中心的距离,将样本点归类到离它最近的中心所属的簇
3.计算出每一个簇的中心
4.重复2,3直到收敛
 
用数学来表示这个思想就是:
1.初始化 t = 0(t代表迭代次数), 随机选取k个中心点c1,…ck
2.将样本分配到每个中心
3.更新簇中心
4 t=t+1 ,重复2,3,知道Ct不在变化
 
k-Means聚类算法运行过程
 
 
K-Means聚类的优缺点
优点:
简单,算法效率高
易于实现
 
缺点:
需要人工设置K值
对离群点敏感
容易掉入局部最小值
 
 
一点小思考,如果样本空间大,而样本集并没有均匀的分布在样本空间中,那第一步的初始化就不能以在随机在样本空间中生成的方法产生,而应该在样本集中随机选点来产生中心。甚至在样本中可能有一些偏离样本集中心太大的样本,我们把这样的样本叫做离群点,针对离群点,会对k-Means算法造成很大的影响,通常将这样的样本取出单独分析,因为这些样本作为高频信息,本身就具有很好的研究价值。还有一个问题就是,K-Means聚类的收敛性,以及当k相同时,它的收敛结果都是一样的吗?
 
可以证明k-Means算法是可以收敛的,但是随机的初始点不同,k-Means即使在k相同的情况下,也会得到不同的结果。因为我们有可能会陷入局部最优,而不是全局最优解中。
 
K-Means收敛性:
首先我们定义畸变函数:
 
畸变函数表示每个样本点到其质心的距离平方和。K-Means算法的目的就是将畸变函数调整到最小。假设畸变函数没有到达最小值,那么首先可以固定每个类的质心,调整每个样例的所属的类别c来让J函数减少,同样,固定C,调整每个类的质心μ也可以使J减小。这两个过程就是内循环中使J单调递减的过程。当J递减到最小时,μ和c也同时收敛。(在理论上,可以有多组不同的μ和c值能够使得J取得最小值,但这种现象实际上是很少见的)。
由于畸变函数J是非凸函数,意味着我们不能保证取得的最小值是全局最小值,也就是说k-Means对质心初始位置的选取比较感冒,但一般情况下k-means达到的局部最优已经满足需求。但如果你怕陷入局部最优,那么可以选取不同的初始值多跑几遍k-Means,然后取其中最小的J对应的μ和c输出。
 
 
针对K-Means掉入局部最小值的优化
二分K-Means算法:
 
首先将所有点看成一个簇
当簇的数目小于k时
 对于每一个簇
       计算总误差
       在给定的簇上面进行K-Means聚类(k=2)
       计算将该簇一分为二后的总误差
选择使得误差最小的那个簇进行划分操作
 
因为K-Means算法中初始的随机种子点会对最后的结果产生深远的影响,除了上面提到的多次运行产生结果外,也有改进的K-Means++算法:
假设已经选取了n个初始聚类中心(0<n<k),则在选取第n+1个聚类中心时,距离当前n个聚类中心越远的点会有更高的概率被选中为第n+1个聚类中心。既聚类中心的距离离得越远越好。
 
1.先随机挑选随机点当做种子点
2.针对每个点,我们都计算其和最近的种子点的距离D(x)并计算所有D(x)的距离sum(D(x))
3.再取一个随机值,用权重的方式来取计算下一个种子点,先取一个能落在sum(D(x))中的随机值Random,然后用Random-=D(x),直到其<=0,此时的点就是下一个种子点
4.重复2,3直到选出k个种子点
5.进行k-means算法
 
 
K-Means在计算机视觉领域的应用
1.对图像像素进行聚类
对像素进行聚类通常有两种分类方法,一是根据图片的灰度值(也就是响应值)进行聚类,二是根据图片的色彩空间进行聚类
这个地方就可以用到文章开头提到的距离度量问题,在针对灰度值进行聚类是,因为每个灰度值都是一个标量,我们可以采用欧氏距离来度量距离,但针对色彩空间进行聚类,例如RBG,每一个RGB值我们都可以看做一个三维向量,那针对向量进行距离的度量,我们就应该采用向量间的夹角的余弦来定义。
下图是图片基于灰度值以及色彩空间进行k-means聚类的结果
 
2.针对图像算法中的一些向量特征,例如SIFT中的128维兴趣点特征,构建一个匹配框架,将学习到兴趣点进行聚类,建立一个匹配字典,再匹配新的特征时,对各个簇进行匹配
 
后记:阅读了大量资料后,我发现K-Means算法与EM算法应该有很多内在的联系,笔者没有学习过EM算法,暂时不对这部分进行记录,学习EM算法后,再对这部分进行更新

K-Means 聚类的更多相关文章

  1. ML: 聚类算法-K均值聚类

    基于划分方法聚类算法R包: K-均值聚类(K-means)                   stats::kmeans().fpc::kmeansruns() K-中心点聚类(K-Medoids) ...

  2. 【转】算法杂货铺——k均值聚类(K-means)

    k均值聚类(K-means) 4.1.摘要 在前面的文章中,介绍了三种常见的分类算法.分类作为一种监督学习方法,要求必须事先明确知道各个类别的信息,并且断言所有待分类项都有一个类别与之对应.但是很多时 ...

  3. 5-Spark高级数据分析-第五章 基于K均值聚类的网络流量异常检测

    据我们所知,有‘已知的已知’,有些事,我们知道我们知道:我们也知道,有 ‘已知的未知’,也就是说,有些事,我们现在知道我们不知道.但是,同样存在‘不知的不知’——有些事,我们不知道我们不知道. 上一章 ...

  4. 机器学习实战5:k-means聚类:二分k均值聚类+地理位置聚簇实例

    k-均值聚类是非监督学习的一种,输入必须指定聚簇中心个数k.k均值是基于相似度的聚类,为没有标签的一簇实例分为一类. 一 经典的k-均值聚类 思路: 1 随机创建k个质心(k必须指定,二维的很容易确定 ...

  5. Python实现kMeans(k均值聚类)

    Python实现kMeans(k均值聚类) 运行环境 Pyhton3 numpy(科学计算包) matplotlib(画图所需,不画图可不必) 计算过程 st=>start: 开始 e=> ...

  6. 机器学习理论与实战(十)K均值聚类和二分K均值聚类

    接下来就要说下无监督机器学习方法,所谓无监督机器学习前面也说过,就是没有标签的情况,对样本数据进行聚类分析.关联性分析等.主要包括K均值聚类(K-means clustering)和关联分析,这两大类 ...

  7. R与数据分析旧笔记(十五) 基于有代表性的点的技术:K中心聚类法

    基于有代表性的点的技术:K中心聚类法 基于有代表性的点的技术:K中心聚类法 算法步骤 随机选择k个点作为"中心点" 计算剩余的点到这个k中心点的距离,每个点被分配到最近的中心点组成 ...

  8. 第十篇:K均值聚类(KMeans)

    前言 本文讲解如何使用R语言进行 KMeans 均值聚类分析,并以一个关于人口出生率死亡率的实例演示具体分析步骤. 聚类分析总体流程 1. 载入并了解数据集:2. 调用聚类函数进行聚类:3. 查看聚类 ...

  9. K均值聚类的失效性分析

    K均值聚类是一种应用广泛的聚类技术,特别是它不依赖于任何对数据所做的假设,比如说,给定一个数据集合及对应的类数目,就可以运用K均值方法,通过最小化均方误差,来进行聚类分析. 因此,K均值实际上是一个最 ...

  10. 机器学习算法与Python实践之(五)k均值聚类(k-means)

    机器学习算法与Python实践这个系列主要是参考<机器学习实战>这本书.因为自己想学习Python,然后也想对一些机器学习算法加深下了解,所以就想通过Python来实现几个比较常用的机器学 ...

随机推荐

  1. swap分区的扩展

    Linux中Swap(即:交换分区),类似于Windows的虚拟内存,就是当内存不足的时候,把一部分硬盘空间虚拟成内存使用,从而解决内存容量不足的情况.swap分区在非高内存的服务器上必不可少,但是s ...

  2. Git 用户名和邮箱

    用户名邮箱的作用 用户名和邮箱地址是本地git客户端的一个变量,不随git库而改变. 每次commit都会用用户名和邮箱纪录. github的contributions统计就是按邮箱来统计的. 查看用 ...

  3. linux 邮件服务器

    邮件通信系统协议及概念:软件角色:MUA:邮件客户端MTA:邮件服务端MDA:邮件服务端模块邮件客户端:Mail User Agent,邮件用户代理邮件服务端:Mail Transfer Agent, ...

  4. JavaScript递归原理

    JavaScript递归是除了闭包以外,函数的又一特色呢.很多开发新手都很难理解递归的原理,我在此总结出自己对递归的理解. 所谓递归,可以这样理解,就是一个函数在自身的局部环境里通过自身函数名又调用, ...

  5. Innotop简单介绍

      Innotop介绍 Innotop是一款Perl脚本编写.开源.功能强大的MySQ的监控工具,它通过文本模式(命令行模式)监控,功能强大,配置简单,易于使用等等特性.Innotop这个项目位于ht ...

  6. Vue项目搭建及原理二

    p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; text-align: justify; font: 10.5px "Trebuchet MS"; ...

  7. RTlinux3.2安装

    ( 1 ).前言 2003 年以后, fmslabs 的 RTLinux Free 版本为 3.2Pre ,和以前的 RTLinux 3.1 比较,不再需要必须从 2.4.4 的内核上安装. RTLi ...

  8. HeapAlloc,GlobalAlloc,LocalAlloc,VirtualAlloc,malloc,new的异同

    1. 首先我们来看HeapAlloc: MSDN上的解释为:HeapALloc是从堆上分配一块内存,且分配的内存是不可移动的(即如果没有连续的空间能满足分配的大小,程序不能将其他零散的 空间利用起来, ...

  9. thinphp 整合ueditor

    我的ueditor是部署在public/editor 部署前台页面 <script type="text/javascript" > var UEDITOR_HOME_ ...

  10. 引导加载程序之争: LILO 和 GRUB

    在不考虑他们的工作或专业情况下,所有 Linux 用户都会使用的是哪个工具?引导加载程序.通过本文了解引导加载程序的工作原理,认识两个流行的引导加载程序 LILO(LInux LOader)和 GNU ...