系列文章:数据挖掘算法之决策树算法

      k-means算法可以说是数据挖掘中十大经典算法之一了,属于无监督的学习。该算法由此衍生出了很多类k-means算法,比如k中心点等等,在数据挖掘领域,很多地方都会用到该算法,他能够把相似的一类很好的聚在一起。一类指的是,他们之间的相似度较高,计算相似度的常用度量有欧氏距离、余弦定理等。本算法采用的是欧式距离度量。这个对理解k-means算法不会造成任何实质性的影响。

为了更好的说明k-means算法是把属于一类的对象聚成一个簇的,下面贴两张图,一张是100个数据对象是,K=2的情况【图1】。

另外一张是1000个数据对象,k=3的情况,希望大家看完图能够加深对K-means算法的理解。

[图1 objectNum=100 k=2]

[图2 objectNum=1000 k=3]

k-means算法的中心思想其实就是迭代,通过不断的迭代,使聚类效果达到局部最优,为什么我们说局部最优呢?因为K-means算法的效果的优劣性和最初选取的中心点是有莫大关系的,我们只能在初始中心点的基础上达到局部最优解。

k-means算法的过程如下:

1)从N个文档随机选取K个文档作为质心(即中心点)
2)对剩余的每个文档测量其到每个质心的距离,并把它归到最近的质心的类
3)重新计算已经得到的各个类的质心
4)迭代2~3步直至新的质心与原质心相等或小于指定阈值(我们这里实际上用迭代次数代替了阈值的功能),算法结束
输入: 一个数据集dataset,类个数k
          输出:k个小的数据集,也就是K个类。
 该算法会有一些缺点主要是:
    1、计算量大,不断的迭代,不断的计算,计算量大事在所难免了。
    2、K值的指定也是一个难点,很多时候我们并不知道k是多少?
    3、只能得到局部最优解,这一点我们在前面已经讨论过了。
    算法能够一行行读txt数据,当然其他格式数据也是可以的,稍微改动下即可。相当方便实用。本着开源的方式,附上90%代码:void produceData(string fileName,int maxNum,int objectNum);方法代码没有附上,该方法用来产生随机数据。如果需要全部源代码请点赞后留下email地址,我将会在第一时间发到你邮箱,不便之处敬请原谅,毕竟写一篇文章也不是那么容易,我只是想看看到底能帮助到多少人,谢谢理解!
   
#include<iostream>
#include<fstream>
#include<vector>
#include<random>
#include<time.h>
#include<string.h>
using namespace std;
const int maxNum=0x1<<;
const int repeatMax=;//控制迭代的上限,这里主要从效率的角度来考虑。一般来说迭代50--100次就能达到很好的效果
const int AttributeCount=;//数据属性维度.
const int ClusterK=;//聚成的簇的数量
typedef double AttributeType;
struct Object{//数据项的数据结构
AttributeType attribute[AttributeCount];
};
vector<Object> allObj;//保存所有的数据
Object cluster[][ClusterK];//各个簇的数据项,这里假定每个簇的最大量为1000了,可以写成vector的数据结构,
Object oldcenter[ClusterK];//旧的各个中心点
int oldCluObjNum[ClusterK];//旧的各个簇有多少数据量
Object center[ClusterK];//对比旧的中心点
int CluObjNum[ClusterK];//对比旧的各簇的数据量
void getAllobject(ifstream &ifs);//加载所有数据
void kmeans(ifstream &ins);//算法
void produceData(string fileName,int maxNum,int objectNum);//随机产生数据,fileName文件名,maxNum数据的最大数,objectNum数据个数
int cloestCluster(Object obj);//返回当前数据项与哪个簇最近
void initCenter();//初始化各中心点
void updateCluster(int cluK,Object obj);//更新簇结构
bool isChange();//判断迭代之后中心点是否改变,若没有改变可以迭代结束了,得到局部最优解
void copyCenter();//复制到旧的中
void computeCenter();//重新计算中心点
AttributeType Distance(Object obj,Object obj2);//计算两个点之间的距离
int main(){
//produceData("data2.txt",100,50);
ifstream ifs;
ifs.open("data2.txt");
kmeans(ifs);
ifs.close();
system("pause");
} void kmeans(ifstream &ins){
getAllobject(ins);
initCenter();
for(int i=;i<ClusterK;i++){
center[i]=allObj[i];
CluObjNum[i]=;
}
int repeat=;
while(isChange()&&repeat<repeatMax){//一直迭代,直到中心点不再改变,或者达到迭代的上限
copyCenter();
for(vector<Object>::iterator begin=allObj.begin();begin<allObj.end();begin++){
int closestK=cloestCluster(*begin);
updateCluster(closestK,*begin);
}
computeCenter();
for(int i=;i<ClusterK;i++){
cout<<"第"<<i<<"个簇,他们之间的中心点是:";
char file[]={'c','l','u','s','t','e','r',static_cast<char>(i+''),'.','t','x','t','\0'};
ofstream out;
out.open(file,ifstream::trunc);//输入到各个簇的文件中保存
for(int l=;l<AttributeCount;l++){
cout<<center[i].attribute[l]<<" ";
}
cout<<endl;
for(int m=;m<=CluObjNum[i];m++){
for(int j=;j<AttributeCount;j++)
out<<cluster[m][i].attribute[j]<<" ";
out<<endl;
}
cout<<endl;
out.close();
}
cout<<endl;
repeat++;
}
}
void updateCluster(int cluK,Object obj){//把obj更新到cluK簇中,同时项增加1
cluster[CluObjNum[cluK]+][cluK]=obj;
CluObjNum[cluK]++;
}
void computeCenter(){
for(int i=;i<ClusterK;i++){
for(int m=;m<AttributeCount;m++){
double sum=;
for(int j=;j<CluObjNum[i];j++){
sum+=cluster[j][i].attribute[m];
}
center[i].attribute[m]=sum/CluObjNum[i];
}
}
}
void copyCenter(){
for(int i=;i<ClusterK;i++){
oldCluObjNum[i]=CluObjNum[i];
CluObjNum[i]=;
for(int j=;j<AttributeCount;j++){
oldcenter[i].attribute[j]=center[i].attribute[j];
}
}
}
void initCenter(){
Object obj;
for(int i=;i<AttributeCount;i++){
obj.attribute[i]=-;
}
for(int i=;i<ClusterK;i++){
oldcenter[i]=obj;
}
}
int cloestCluster(Object obj){
AttributeType sq=maxNum,m=maxNum;
int theCloest=;
for(int i=;i<ClusterK;i++){
m=Distance(obj,center[i]);
if(m<sq){
theCloest=i;
sq=m;
}
}
return theCloest;
}
AttributeType Distance(Object obj,Object obj2){
AttributeType dis=;
for(int i=;i<AttributeCount;i++){
dis+=(obj.attribute[i]-obj2.attribute[i])*(obj.attribute[i]-obj2.attribute[i]);
}
return dis;
} bool isChange(){
for(int i=;i<ClusterK;i++){
for(int j=;j<AttributeCount;j++)
if(oldcenter[i].attribute[j]!=center[i].attribute[j])
return true;
}
return false;
}
void getAllobject(ifstream &ifs){
while(ifs){
Object obj;
for(int i=;i<AttributeCount;i++)
ifs>>obj.attribute[i];
allObj.push_back(obj);
}
}

以下提供我的一个数据集运行的最终结果:

版权所有,欢迎转载,但是转载请注明出处:潇一

数据挖掘算法之k-means算法的更多相关文章

  1. 机器学习算法之Kmeans算法(K均值算法)

    Kmeans算法(K均值算法) KMeans算法是典型的基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大.该算法认为簇是由距离靠近的对象组成的,因此把得到紧凑 ...

  2. 图说十大数据挖掘算法(一)K最近邻算法

    如果你之前没有学习过K最近邻算法,那今天几张图,让你明白什么是K最近邻算法. 先来一张图,请分辨它是什么水果 很多同学不假思索,直接回答:“菠萝”!!! 仔细看看同学们,这是菠萝么?那再看下边这这张图 ...

  3. 机器学习(Machine Learning)算法总结-K临近算法

    一.算法详解 1.什么是K临近算法 Cover 和 Hart在1968年提出了最初的临近算法 属于分类(classification)算法 邻近算法,或者说K最近邻(kNN,k-NearestNeig ...

  4. 机器学习——KNN算法(k近邻算法)

    一 KNN算法 1. KNN算法简介 KNN(K-Nearest Neighbor)工作原理:存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分 ...

  5. 【算法】K最近邻算法(K-NEAREST NEIGHBOURS,KNN)

    K最近邻算法(k-nearest neighbours,KNN) 算法 对一个元素进行分类 查看它k个最近的邻居 在这些邻居中,哪个种类多,这个元素有更大概率是这个种类 使用 使用KNN来做两项基本工 ...

  6. 机器学习算法之K近邻算法

    0x00 概述   K近邻算法是机器学习中非常重要的分类算法.可利用K近邻基于不同的特征提取方式来检测异常操作,比如使用K近邻检测Rootkit,使用K近邻检测webshell等. 0x01 原理   ...

  7. KNN 与 K - Means 算法比较

    KNN K-Means 1.分类算法 聚类算法 2.监督学习 非监督学习 3.数据类型:喂给它的数据集是带label的数据,已经是完全正确的数据 喂给它的数据集是无label的数据,是杂乱无章的,经过 ...

  8. Python实现机器学习算法:K近邻算法

    ''' 数据集:Mnist 训练集数量:60000 测试集数量:10000(实际使用:200) ''' import numpy as np import time def loadData(file ...

  9. 数据挖掘十大算法--K-均值聚类算法

    一.相异度计算  在正式讨论聚类前,我们要先弄清楚一个问题:怎样定量计算两个可比較元素间的相异度.用通俗的话说.相异度就是两个东西区别有多大.比如人类与章鱼的相异度明显大于人类与黑猩猩的相异度,这是能 ...

  10. 基于改进人工蜂群算法的K均值聚类算法(附MATLAB版源代码)

    其实一直以来也没有准备在园子里发这样的文章,相对来说,算法改进放在园子里还是会稍稍显得格格不入.但是最近邮箱收到的几封邮件让我觉得有必要通过我的博客把过去做过的东西分享出去更给更多需要的人.从论文刊登 ...

随机推荐

  1. abp ef codefirst 设置默认值

    public partial class tableIsWaringfiled : DbMigration { public override void Up() { //设置默认值为true Add ...

  2. BI商业智能培训系列——(一)概述

    简介: Business Intelligence,简称 BI. 商业智能,是指用现代的技术进行数据分析,以实现商业价值,这些技术包括数据仓库技术,线上分析处理技术,数据挖掘,数据展现技术等. 以往的 ...

  3. MPS添加管理设备实例NS的过程

    MPS添加管理设备实例NS的过程 MPS添加实例NS设备节点: > show snmp community Done > > add snmp community public al ...

  4. [洛谷P2801]教主的魔法

    题目大意:有$n$个数,$q$个操作.两种操作: $M\;l\;r\;w:$把$[l,r]$所有数加上$w$ $A\;l\;r\;c:$查询$[l,r]$内大于等于$c$的元素的个数. 题解:分块,对 ...

  5. BZOJ5297 [Cqoi2018]社交网络 【矩阵树定理】

    题目链接 BZOJ5297 题解 最近这玩意这么那么火 这题要用到有向图的矩阵树定理 主对角线上对应入度 剩余位置如果有边则为\(-1\),不然为\(0\) \(M_{i,i}\)即为以\(i\)为根 ...

  6. 雅礼集训 Day6 T1 Merchant 解题报告

    Merchant 题目描述 有\(n\)个物品,第\(i\)个物品有两个属性\(k_i,b_i\),表示它在时刻\(x\)的价值为\(k_i\times x+b_i\). 当前处于时刻\(0\),你可 ...

  7. POJ3207 Ikki's Story IV – Panda's Trick

    Time Limit: 1000MS   Memory Limit: 131072K Total Submissions: 9426   Accepted: 3465 Description liym ...

  8. Android ANR 详解

    ANR简介 ANR,是“Application Not Responding”的缩写,即“应用程序无响应”.在Android中,ActivityManagerService(简称AMS)和Window ...

  9. [9018_1592]USACO 2014 Open Silver Fairphoto

    题目描述 Farmer John's N cows (1 <= N <= 100,000) are standing at various positions along a long o ...

  10. penGL入门学习(六)

    http://blog.csdn.net/sun6255028/article/details/5090067 今天要讲的是动画制作——可能是各位都很喜欢的.除了讲授知识外,我们还会让昨天那个“太阳. ...