》原理曾经的博客中已经有对meanshift原理的解释,这里就不啰嗦了。国外的资料看这:http://people.csail.mit.edu/sparis/#cvpr07

》源代码

核心代码(參考网络)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
//============================Meanshift==============================//
void MyClustering::MeanShiftImg(IplImage
* src , IplImage * dst , 
float r
int Nmin
,
int Ncon
)
{
    int i
, j , p ,k=0,run_meanshift_slec_number=0;
    int pNmin;                              //mean
shift产生的特征的搜索框内的特征数
    IplImage
* temp , * gray;                       
//转换到Luv空间的图像
    CvMat
* distance , * result , *mask;                
//
    CvMat
* temp_mat ,*temp_mat_sub ,*temp_mat_sub2 ,* final_class_mat;         
//Luv空间的图像到矩阵,图像矩阵与随机选择点之差。
    CvMat
* cn ,* cn1 , * cn2 , * cn3;
    double /*covar_img[3]
,*/
 avg_img[3];       //图像的协方差主对角线上的元素和,各个通道的均值
    double r1;          //搜索半径
    int temp_number;
    meanshiftpoint
meanpoint[25];       
//存储随机产生的25点
    CvScalar   
cvscalar1,cvscalar2;
    int order[25];
    Feature
feature[100];           
//特征
    double  shiftor;
    CvMemStorage
* storage=NULL;
    CvSeq
* seq=0 , * temp_seq=0 , *prev_seq;
//---------------------------------------------RGB
to Luv空间,初始化----------------------------------------------
    temp           
=   cvCreateImage(cvSize(src->width,src->height),IPL_DEPTH_8U, src->nChannels);
    gray           
=   cvCreateImage(cvSize(src->width,src->height),IPL_DEPTH_8U, 1);
    temp_mat       
=   cvCreateMat(src->height,src->width,CV_8UC3);
    final_class_mat
=   cvCreateMat(src->height,src->width,CV_8UC3);
    mask           
=   cvCloneMat(temp_mat);
    temp_mat_sub   
=   cvCreateMat(src->height,src->width,CV_32FC3);
    temp_mat_sub2  
=   cvCreateMat(src->height,src->width,CV_32FC3);
    cvZero(temp);
    cvCvtColor(src,temp,CV_RGB2Luv);                    //RGB
to Luv空间
    distance       
=   cvCreateMat(src->height,src->width,CV_32FC1);
    result         
=   cvCreateMat(src->height,src->width,CV_8UC1);
    cvConvert(temp,temp_mat);                           //IplImage
to Mat
    cn 
=   cvCreateMat(src->height,src->width,CV_32FC1);
    cn1
=   cvCloneMat(cn);
    cn2
=   cvCloneMat(cn);
    cn3
=   cvCloneMat(cn);
    storage
= cvCreateMemStorage(0);
//-------------------------------------------计算搜索窗体半径
r --------------------------------------------
    if(r!=NULL)
        r1=r;
    else
    {
        cvscalar1  
=   cvSum(temp_mat);
        avg_img[0] 
=   cvscalar1.val[0]/(src->width * src->height);
        avg_img[1] 
=   cvscalar1.val[1]/(src->width * src->height);
        avg_img[2] 
=   cvscalar1.val[2]/(src->width * src->height);
        cvscalar1  
=   cvScalar(avg_img[0],avg_img[1],avg_img[2],NULL);
        cvScale(temp_mat,temp_mat_sub,1.0,0.0);
        cvSubS(temp_mat_sub
, cvscalar1 , temp_mat_sub ,NULL);
        cvMul(temp_mat_sub
, temp_mat_sub , temp_mat_sub2);
        cvscalar1  
=   cvSum(temp_mat_sub2);
        r1         
=   0.4*cvSqrt( (cvscalar1.val[0] + cvscalar1.val[1] + cvscalar1.val[2])/(src->width * src->height));;
    }
    //初始化随机数生成种子
    srand((unsigned)time(NULL));
     
//--------------------循环,使用meanshift进行特征空间分析。终止条件是Nmin--------------------------------------
    do
    {
//--------------------------------------------初始化搜索窗体位置-------------------------------------------
        run_meanshift_slec_number++;
        cvSet(distance,cvScalar(r1*r1,NULL,NULL,NULL),NULL);
        for(
i = 0 ; i < 25 ; i++)
        {
            meanpoint[i].pt.x
rand()%src->width;
            meanpoint[i].pt.y
rand()%src->height;
        }
        cvScale(temp_mat,temp_mat_sub,1.0,0.0);
        for(
i = 0 ; i < 25 ; i++)
        {
            /*cvSubS(temp_mat_sub
,cvScalar(cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,0),
                cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,1),
                cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,2),
                NULL),temp_mat_sub,NULL);*/
            cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
            cvSubS(temp_mat_sub,cvScalar(cvmGet(cn,meanpoint[i].pt.y,meanpoint[i].pt.x),
                cvmGet(cn1,meanpoint[i].pt.y,meanpoint[i].pt.x),
                cvmGet(cn2,meanpoint[i].pt.y,meanpoint[i].pt.x),NULL),temp_mat_sub,NULL);
            cvMul(temp_mat_sub,temp_mat_sub,temp_mat_sub2,1);
            cvSplit(temp_mat_sub2,cn,cn1,cn2,NULL);
            cvAdd(cn,cn1,cn3,NULL);
            cvAdd(cn2,cn3,cn3,NULL);            //cn3中存放着,当前随机点与空间中其他点距离的平方。
            cvCmp(cn3,distance,result,CV_CMP_LE);       //距离小于搜索半径则result对应位为1
            cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);
            cvscalar1  
=   cvSum(result);
            meanpoint[i].con_f_number
= (
int)cvscalar1.val[0];
        }
        for(i
= 0 ; i < 25 ; i++)
        {
            order[i]=i;
        }
        for(i
= 0 ; i < 25 ; i++)
            for(j
= 0 ; j < 25-i-1; j++)
            {
                if(meanpoint[order[j]].con_f_number
< meanpoint[order[j+1]].con_f_number)
                {
                    temp_number=order[j];
                    order[j]=order[j+1];
                    order[j+1]=temp_number;
                }
            }
//--------------------------------------------meanshift算法------------------------------------------------  
        double  temp_mean[3];
 
        for(
i = 0 ; i < 25 ; i++)
        {
            cvScale(temp_mat,temp_mat_sub,1.0,0.0);
            cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
            temp_mean[0]   
=   cvmGet(cn  , meanpoint[order[i]].pt.y , meanpoint[order[i]].pt.x);
            temp_mean[1]   
=   cvmGet(cn1 , meanpoint[order[j]].pt.y , meanpoint[order[i]].pt.x);
            temp_mean[2]   
=   cvmGet(cn2 , meanpoint[order[j]].pt.y , meanpoint[order[i]].pt.x);
 
            //meanshift过程
            do
            {
                //计算出在搜索窗体内的特征点,而且生成相应的模板,即相应的点置一的矩阵表示相应的点在搜索框内
                cvScale(temp_mat,temp_mat_sub,1.0,0.0);
                cvSubS(temp_mat_sub,cvScalar(temp_mean[0],temp_mean[1],temp_mean[2],NULL),temp_mat_sub,NULL);
                cvMul(temp_mat_sub,temp_mat_sub,temp_mat_sub2,1);
                cvSplit(temp_mat_sub2
, cn , cn1 , cn2 , NULL );
                cvAdd(cn,cn1,cn3,NULL);
                cvAdd(cn2,cn3,cn3,NULL);            //cn3中存放着。当前随机点与空间中其他点距离的平方。
                cvCmp(cn3,distance,result,CV_CMP_LE);       //距离小于搜索半径则result对应位为0XFF
                 
                 
                //计算shiftor
                cvCopy(temp_mat
, final_class_mat ,NULL);               
//
                cvMerge(result
, result ,result ,NULL,mask);
                cvAnd(final_class_mat
, mask ,final_class_mat ,NULL);   
//与mask(3通道,0XFF)做与操作,把搜索半径外的点置零
                cvScale(final_class_mat,temp_mat_sub,1.0,0.0);          //搜索半径内的点从8U转换成32F
 
                cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);      //对应位set
1
                cvscalar1  
=   cvSum(result);              
//reslut
作为 模板 ,返回搜索窗体内的特征数
 
                cvSubS(temp_mat_sub,cvScalar(temp_mean[0],temp_mean[1],temp_mean[2],NULL),temp_mat_sub,result);
                cvscalar2  
=   cvSum(temp_mat_sub);
                cvscalar2.val[0]
= cvscalar2.val[0]/cvscalar1.val[0] ;
                cvscalar2.val[1]
= cvscalar2.val[1]/cvscalar1.val[0] ;
                cvscalar2.val[2]
= cvscalar2.val[2]/cvscalar1.val[0] ;
                shiftor    
=   cvSqrt(
pow(cvscalar2.val[0],
2) + 
pow(cvscalar2.val[1],
2) +    
pow(cvscalar2.val[2],
2));
                temp_mean[0]=temp_mean[0]+cvscalar2.val[0];
                temp_mean[1]=temp_mean[1]+cvscalar2.val[1];
                temp_mean[2]=temp_mean[2]+cvscalar2.val[2];
                /*cvCopy(temp_mat
, final_class_mat ,NULL); //
                cvMerge(result
, result ,result ,NULL,mask);
                cvAnd(final_class_mat
, mask ,final_class_mat ,NULL);   //与result做与操作,把搜索半径外的点置零
                cvScale(final_class_mat,temp_mat_sub,1.0,0.0);         
//搜索半径内的点从8U转换成32F
                cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
                cvSubS(cn
, cvScalar(temp_mean[0],NULL,NULL,NULL),cn,result);
                cvSubS(cn1,
cvScalar(temp_mean[1],NULL,NULL,NULL),cn1,result);
                cvSubS(cn2,
cvScalar(temp_mean[2],NULL,NULL,NULL),cn2,result);
                cvMerge(cn,cn1,cn2,NULL,temp_mat_sub);
                cvscalar2  
=   cvSum(temp_mat_sub);
                shiftor    
=   cvSqrt(pow(cvscalar2.val[0] , 2) + pow(cvscalar2.val[1] , 2) +  pow(cvscalar2.val[2] , 2));
                temp_mean[0]=temp_mean[0]+cvscalar2.val[0];
                temp_mean[1]=temp_mean[1]+cvscalar2.val[1];
                temp_mean[2]=temp_mean[2]+cvscalar2.val[2];*/
            }
            while(shiftor>0.1);  //meanshift算法过程
//--------------------------------------------去除不重要特征-----------------------------------------------
            if(k==0)
            {
                feature[k].pt.x
= temp_mean[0];
                feature[k].pt.y
= temp_mean[1];
                feature[k].pt.z
= temp_mean[2];
                feature[k].number=
(
int)cvscalar1.val[0];   //由于小于等于的情况成立时。result相应位置是0XFF,不成立时相应位置为0
                pNmin  
= (
int)cvscalar1.val[0];                //此特征搜索窗体内,特征空间的向量个数
                feature[k].result=cvCreateMat(src->height,src->width,CV_8UC1);
                cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);
                cvCopy(result,feature[k].result,NULL);
                k++;
            }
            else
            {
                int flag
= 0;
                for(j
= 0 ; j < k ; j++)
                {
                    if(pow(temp_mean[0]-feature[j].pt.x
, 2) + 
pow(temp_mean[1]-feature[j].pt.y
,2) + 
pow(temp_mean[2]-feature[j].pt.z,
2)
                        <
r1*r1)
                    {
                        flag
= 1;
                        break;
                    }
                }
                if(flag==0)
                {
                    feature[k].pt.x
= temp_mean[0];
                    feature[k].pt.y
= temp_mean[1];
                    feature[k].pt.z
= temp_mean[2];
                    feature[k].number=(int)cvscalar1.val[0];
                    pNmin  
= (
int)cvscalar1.val[0];                //此特征搜索窗体内,特征空间的向量个数
                    feature[k].result=cvCreateMat(src->height,src->width,CV_8UC1);
                    cvCopy(result,feature[k].result,NULL);
                    k++;
                    //if(pNmin
< Nmin )
                    // 
break;
                }
            }//去除不重要特征
            //if(pNmin
< Nmin)
            // 
break;
        }   //
 
    }while(pNmin
> Nmin || run_meanshift_slec_number>60 );
 
    //------------------------------------------------后处理---------------------------------------------------------
    cvSetZero(result);
    for(
i = 0 ; i < k ; i ++)
    {
        cvOr(result,feature[i].result,result,NULL);
    }
 
    cvScale(temp_mat,temp_mat_sub,1.0,0.0);
    cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
 
    for(i
= 0 ; i < src->width ; i++)
        for(
j = 0 ; j < src->height ; j++)
        {
            if(cvGetReal2D(result,j,i)==0)      //未分类的像素点。进行分类。为近期的特征中心
            {
                double unclass_dis
, min_dis;
                int min_dis_index;
                for(
p = 0 ; p < k ; p++ )
                {
                    unclass_dis
pow(feature[p].pt.x
- cvmGet(cn,j,i),2)   
//(temp_mat,i,j,0)
,2)
                        pow(feature[p].pt.y
- cvmGet(cn1,j,i),2) 
//(temp_mat,i,j,1)
,2)
                        pow(feature[p].pt.z
- cvmGet(cn2,j,i),2);
//(temp_mat,i,j,2)
,2);
                    if(p==0)
                    {
                        min_dis
= unclass_dis;
                        min_dis_index
= p;
                    }
                    else
                    {
                        if(unclass_dis
< min_dis)
                        {
                            min_dis
= unclass_dis;
                            min_dis_index
= p;
                        }
                    }
                }//
end for 与特征比較
                cvSetReal2D(feature[min_dis_index].result
,j  ,i ,1);
            }
        }//完毕未分类的像素点的分类
    cvSetZero(final_class_mat);
    for(
i = 0 ; i < k ; i++)
    {
        cvSet(temp_mat,
cvScalar(
rand()%255,rand()%255,rand()%255,rand()%255),
feature[i].result);
        cvCopy(temp_mat,final_class_mat,feature[i].result);
    }
    cvConvert(final_class_mat,dst);
    //删除小于Ncon大小的区域
    for(
i = 0 ; i < k ; i++)
    {
        cvClearMemStorage(storage);
        if(seq)
cvClearSeq(seq);
        cvConvert(
feature[i].result , gray);
        cvFindContours(
gray , storage , & seq ,
sizeof(CvContour)
, CV_RETR_LIST);
        for(temp_seq
= seq ; temp_seq ; temp_seq = temp_seq->h_next)
        {
            CvContour
* cnt = (CvContour*)seq;
            if(cnt->rect.width
* cnt->rect.height < Ncon)
            {
                prev_seq
= temp_seq->h_prev;
                if(prev_seq)
                {
                    prev_seq->h_next
= temp_seq->h_next;
                    if(temp_seq->h_next)
temp_seq->h_next->h_prev = prev_seq ;
                }
                else
                {
                    seq
= temp_seq->h_next ;
                    if(temp_seq->h_next
) temp_seq->h_next->h_prev = NULL ;
                }
            }
        }//
        cvDrawContours(src,
seq , CV_RGB(0,0,255) ,CV_RGB(0,0,255),1);
    }
 
    //----------------释放空间-------------------------------------------------------  
    cvReleaseImage(&
temp);
    cvReleaseImage(&
gray);
    cvReleaseMat(&distance);
    cvReleaseMat(&result);
    cvReleaseMat(&temp_mat);
    cvReleaseMat(&temp_mat_sub);
    cvReleaseMat(&temp_mat_sub2);
    cvReleaseMat(&final_class_mat);
    cvReleaseMat(&cn);
    cvReleaseMat(&cn1);
    cvReleaseMat(&cn2);
    cvReleaseMat(&cn3);
}

》效果

执行时间16.5s

原图:

切割图:

被改写了的原图:

From:         http://www.cnblogs.com/skyseraph/

新浪微博:http://weibo.com/u/1645794700/home?

wvr=5&c=spr_web_360_hao360_weibo_t001

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

from=front" style="">

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

【图像算法】彩色图像切割专题八:基于MeanShift的彩色切割的更多相关文章

  1. SSE图像算法优化系列二十三: 基于value-and-criterion structure 系列滤波器(如Kuwahara,MLV,MCV滤波器)的优化。

    基于value-and-criterion structure方式的实现的滤波器在原理上其实比较简单,感觉下面论文中得一段话已经描述的比较清晰了,直接贴英文吧,感觉翻译过来反而失去了原始的韵味了. T ...

  2. 基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统)

    基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统) zouxy09@qq.com http://blog.csdn.net/zouxy09 一年多前开始接触计算机视觉这个领域的时候,年幼无 ...

  3. 开发指南专题八:JEECG微云高速开发平台数据字典

       开发指南专题八:JEECG微云高速开发平台数据字典的使用 1.标签中使用数据字典 数据字典为系统中可能用到的字典类型数据提供了使用的便利性和可维护性.下面拉框标签<t:dictSele ...

  4. J2EE进阶(十八)基于留言板分析SSH工作流程

    J2EE进阶(十八)基于留言板分析SSH工作流程   留言板采用SSH(Struts1.2 + Spring3.0 + Hibernate3.0)架构.   工作流程(以用户登录为例):   首先是用 ...

  5. 基于MeanShift的目标跟踪算法及实现

    这次将介绍基于MeanShift的目标跟踪算法,首先谈谈简介,然后给出算法实现流程,最后实现了一个单目标跟踪的MeanShift算法[matlab/c两个版本] csdn贴公式比较烦,原谅我直接截图了 ...

  6. 图像切割—基于图的图像切割(Graph-Based Image Segmentation)

     图像切割-基于图的图像切割(Graph-Based Image Segmentation) Reference: Efficient Graph-Based Image Segmentation ...

  7. SQL语句复习【专题八】

    SQL语句复习[专题八] 序列 Sequence.数据库对象是 oracle 专有的.作用:可以将某一列的值使用序列,来实现自动增长的功能.访问序列的值.[序列有两个属性 nextval currva ...

  8. 【Microsoft Azure 的1024种玩法】八. 基于Azure云端轻松打造一款好用的私有云笔记

    [简介] Leanote一款开源云笔记软件,它使用Go的Web框架revel和MongoDB开发完成的,其是目前为止发现的最有bigger的云笔记,它支持markdown输入,代码高亮,多人协作,笔记 ...

  9. 本图片处理类功能非常之强大可以实现几乎所有WEB开发中对图像的处理功能都集成了,包括有缩放图像、切割图像、图像类型转换、彩色转黑白、文字水印、图片水印等功能

    import java.awt.AlphaComposite; import java.awt.Color; import java.awt.Font; import java.awt.Graphic ...

随机推荐

  1. 区间DP POJ 1141 Brackets Sequence

    Brackets Sequence Time Limit: 1000MS   Memory Limit: 65536K Total Submissions: 29520   Accepted: 840 ...

  2. [转]Intent和PendingIntent的区别

    intent英文意思是意图,pending表示即将发生或来临的事情. PendingIntent这个类用于处理即将发生的事情.比如在通知Notification中用于跳转页面,但不是马上跳转. Int ...

  3. hdu 4111 Alice and Bob 记忆化搜索 博弈论

    Alice and Bob Time Limit: 20 Sec  Memory Limit: 256 MB 题目连接 http://acm.hdu.edu.cn/showproblem.php?pi ...

  4. wpf 分别用前台和后台 两种方法 绘制矩形 填充

    xaml: <Window x:Class="WpfApplication1.MainWindow" xmlns="http://schemas.microsoft ...

  5. 解决office2007-安装程序找不到office.zh-cn\Setup.xml

    安装Microsoft Office Project Standard 2007时出现了小问题,经过百度google一番后才发现安装office2007与安装vs2008有着紧密的联系,参见:http ...

  6. Fiddler2 抓取手机APP数据包

    原文:http://blog.goyiyo.com/archives/2044 下载安装运行后,查出运行机器的IP,手机连接同一网域内的WIFI,手机WIFI连接设置里的高级里,代理设置填写上Fidd ...

  7. 第八章openwrt 703N使用HUB(集线器)插U盘等设备

    在这里就要吐槽一下了,在网上一搜索竟然没有一篇详细的关于703N使用hub后挂载u盘的文章,想了很久问了别人还弄了一天晚上终于弄好了.好吧下面开始言归正传: 1.其实一般质量可以的集线器例如SSK这类 ...

  8. [Android 新特性] 改进明显 Android 4.4系统新特性解析

    Android 4.3发布半年之后,Android 4.4随着新一代Nexus5一起出现在了用户的面前,命名为从之前的Jelly Bean(果冻豆)换成了KitKat(奇巧).这个新系统究竟都有怎样的 ...

  9. Webharvest网络爬虫应用总结,web-harvest 编写脚本 读取 百度 博客 实例

      Webharvest网络爬虫应用总结 Web-Harvest是一个Java开源Web数据抽取工具.它能够收集指定的Web页面并从这些页面中提取有用的数据.其实现原理是,根据预先定义的配置文件用ht ...

  10. Qt正则表达式提取数据

    这几天在上嵌入式课程设计,需要用到Qt,这个是信号与槽的,寒假的时候也简单学习了一些,但是没有怎么深入,又回过来看了看Qt,发现Qt的ui界面配置与Android的好像,当然Qt也可以拿来开发Andr ...