》原理曾经的博客中已经有对meanshift原理的解释,这里就不啰嗦了。国外的资料看这:http://people.csail.mit.edu/sparis/#cvpr07

》源代码

核心代码(參考网络)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
//============================Meanshift==============================//
void MyClustering::MeanShiftImg(IplImage
* src , IplImage * dst , 
float r
int Nmin
,
int Ncon
)
{
    int i
, j , p ,k=0,run_meanshift_slec_number=0;
    int pNmin;                              //mean
shift产生的特征的搜索框内的特征数
    IplImage
* temp , * gray;                       
//转换到Luv空间的图像
    CvMat
* distance , * result , *mask;                
//
    CvMat
* temp_mat ,*temp_mat_sub ,*temp_mat_sub2 ,* final_class_mat;         
//Luv空间的图像到矩阵,图像矩阵与随机选择点之差。
    CvMat
* cn ,* cn1 , * cn2 , * cn3;
    double /*covar_img[3]
,*/
 avg_img[3];       //图像的协方差主对角线上的元素和,各个通道的均值
    double r1;          //搜索半径
    int temp_number;
    meanshiftpoint
meanpoint[25];       
//存储随机产生的25点
    CvScalar   
cvscalar1,cvscalar2;
    int order[25];
    Feature
feature[100];           
//特征
    double  shiftor;
    CvMemStorage
* storage=NULL;
    CvSeq
* seq=0 , * temp_seq=0 , *prev_seq;
//---------------------------------------------RGB
to Luv空间,初始化----------------------------------------------
    temp           
=   cvCreateImage(cvSize(src->width,src->height),IPL_DEPTH_8U, src->nChannels);
    gray           
=   cvCreateImage(cvSize(src->width,src->height),IPL_DEPTH_8U, 1);
    temp_mat       
=   cvCreateMat(src->height,src->width,CV_8UC3);
    final_class_mat
=   cvCreateMat(src->height,src->width,CV_8UC3);
    mask           
=   cvCloneMat(temp_mat);
    temp_mat_sub   
=   cvCreateMat(src->height,src->width,CV_32FC3);
    temp_mat_sub2  
=   cvCreateMat(src->height,src->width,CV_32FC3);
    cvZero(temp);
    cvCvtColor(src,temp,CV_RGB2Luv);                    //RGB
to Luv空间
    distance       
=   cvCreateMat(src->height,src->width,CV_32FC1);
    result         
=   cvCreateMat(src->height,src->width,CV_8UC1);
    cvConvert(temp,temp_mat);                           //IplImage
to Mat
    cn 
=   cvCreateMat(src->height,src->width,CV_32FC1);
    cn1
=   cvCloneMat(cn);
    cn2
=   cvCloneMat(cn);
    cn3
=   cvCloneMat(cn);
    storage
= cvCreateMemStorage(0);
//-------------------------------------------计算搜索窗体半径
r --------------------------------------------
    if(r!=NULL)
        r1=r;
    else
    {
        cvscalar1  
=   cvSum(temp_mat);
        avg_img[0] 
=   cvscalar1.val[0]/(src->width * src->height);
        avg_img[1] 
=   cvscalar1.val[1]/(src->width * src->height);
        avg_img[2] 
=   cvscalar1.val[2]/(src->width * src->height);
        cvscalar1  
=   cvScalar(avg_img[0],avg_img[1],avg_img[2],NULL);
        cvScale(temp_mat,temp_mat_sub,1.0,0.0);
        cvSubS(temp_mat_sub
, cvscalar1 , temp_mat_sub ,NULL);
        cvMul(temp_mat_sub
, temp_mat_sub , temp_mat_sub2);
        cvscalar1  
=   cvSum(temp_mat_sub2);
        r1         
=   0.4*cvSqrt( (cvscalar1.val[0] + cvscalar1.val[1] + cvscalar1.val[2])/(src->width * src->height));;
    }
    //初始化随机数生成种子
    srand((unsigned)time(NULL));
     
//--------------------循环,使用meanshift进行特征空间分析。终止条件是Nmin--------------------------------------
    do
    {
//--------------------------------------------初始化搜索窗体位置-------------------------------------------
        run_meanshift_slec_number++;
        cvSet(distance,cvScalar(r1*r1,NULL,NULL,NULL),NULL);
        for(
i = 0 ; i < 25 ; i++)
        {
            meanpoint[i].pt.x
rand()%src->width;
            meanpoint[i].pt.y
rand()%src->height;
        }
        cvScale(temp_mat,temp_mat_sub,1.0,0.0);
        for(
i = 0 ; i < 25 ; i++)
        {
            /*cvSubS(temp_mat_sub
,cvScalar(cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,0),
                cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,1),
                cvGetReal3D(temp_mat,meanpoint[i].pt.x,meanpoint[i].pt.y,2),
                NULL),temp_mat_sub,NULL);*/
            cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
            cvSubS(temp_mat_sub,cvScalar(cvmGet(cn,meanpoint[i].pt.y,meanpoint[i].pt.x),
                cvmGet(cn1,meanpoint[i].pt.y,meanpoint[i].pt.x),
                cvmGet(cn2,meanpoint[i].pt.y,meanpoint[i].pt.x),NULL),temp_mat_sub,NULL);
            cvMul(temp_mat_sub,temp_mat_sub,temp_mat_sub2,1);
            cvSplit(temp_mat_sub2,cn,cn1,cn2,NULL);
            cvAdd(cn,cn1,cn3,NULL);
            cvAdd(cn2,cn3,cn3,NULL);            //cn3中存放着,当前随机点与空间中其他点距离的平方。
            cvCmp(cn3,distance,result,CV_CMP_LE);       //距离小于搜索半径则result对应位为1
            cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);
            cvscalar1  
=   cvSum(result);
            meanpoint[i].con_f_number
= (
int)cvscalar1.val[0];
        }
        for(i
= 0 ; i < 25 ; i++)
        {
            order[i]=i;
        }
        for(i
= 0 ; i < 25 ; i++)
            for(j
= 0 ; j < 25-i-1; j++)
            {
                if(meanpoint[order[j]].con_f_number
< meanpoint[order[j+1]].con_f_number)
                {
                    temp_number=order[j];
                    order[j]=order[j+1];
                    order[j+1]=temp_number;
                }
            }
//--------------------------------------------meanshift算法------------------------------------------------  
        double  temp_mean[3];
 
        for(
i = 0 ; i < 25 ; i++)
        {
            cvScale(temp_mat,temp_mat_sub,1.0,0.0);
            cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
            temp_mean[0]   
=   cvmGet(cn  , meanpoint[order[i]].pt.y , meanpoint[order[i]].pt.x);
            temp_mean[1]   
=   cvmGet(cn1 , meanpoint[order[j]].pt.y , meanpoint[order[i]].pt.x);
            temp_mean[2]   
=   cvmGet(cn2 , meanpoint[order[j]].pt.y , meanpoint[order[i]].pt.x);
 
            //meanshift过程
            do
            {
                //计算出在搜索窗体内的特征点,而且生成相应的模板,即相应的点置一的矩阵表示相应的点在搜索框内
                cvScale(temp_mat,temp_mat_sub,1.0,0.0);
                cvSubS(temp_mat_sub,cvScalar(temp_mean[0],temp_mean[1],temp_mean[2],NULL),temp_mat_sub,NULL);
                cvMul(temp_mat_sub,temp_mat_sub,temp_mat_sub2,1);
                cvSplit(temp_mat_sub2
, cn , cn1 , cn2 , NULL );
                cvAdd(cn,cn1,cn3,NULL);
                cvAdd(cn2,cn3,cn3,NULL);            //cn3中存放着。当前随机点与空间中其他点距离的平方。
                cvCmp(cn3,distance,result,CV_CMP_LE);       //距离小于搜索半径则result对应位为0XFF
                 
                 
                //计算shiftor
                cvCopy(temp_mat
, final_class_mat ,NULL);               
//
                cvMerge(result
, result ,result ,NULL,mask);
                cvAnd(final_class_mat
, mask ,final_class_mat ,NULL);   
//与mask(3通道,0XFF)做与操作,把搜索半径外的点置零
                cvScale(final_class_mat,temp_mat_sub,1.0,0.0);          //搜索半径内的点从8U转换成32F
 
                cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);      //对应位set
1
                cvscalar1  
=   cvSum(result);              
//reslut
作为 模板 ,返回搜索窗体内的特征数
 
                cvSubS(temp_mat_sub,cvScalar(temp_mean[0],temp_mean[1],temp_mean[2],NULL),temp_mat_sub,result);
                cvscalar2  
=   cvSum(temp_mat_sub);
                cvscalar2.val[0]
= cvscalar2.val[0]/cvscalar1.val[0] ;
                cvscalar2.val[1]
= cvscalar2.val[1]/cvscalar1.val[0] ;
                cvscalar2.val[2]
= cvscalar2.val[2]/cvscalar1.val[0] ;
                shiftor    
=   cvSqrt(
pow(cvscalar2.val[0],
2) + 
pow(cvscalar2.val[1],
2) +    
pow(cvscalar2.val[2],
2));
                temp_mean[0]=temp_mean[0]+cvscalar2.val[0];
                temp_mean[1]=temp_mean[1]+cvscalar2.val[1];
                temp_mean[2]=temp_mean[2]+cvscalar2.val[2];
                /*cvCopy(temp_mat
, final_class_mat ,NULL); //
                cvMerge(result
, result ,result ,NULL,mask);
                cvAnd(final_class_mat
, mask ,final_class_mat ,NULL);   //与result做与操作,把搜索半径外的点置零
                cvScale(final_class_mat,temp_mat_sub,1.0,0.0);         
//搜索半径内的点从8U转换成32F
                cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
                cvSubS(cn
, cvScalar(temp_mean[0],NULL,NULL,NULL),cn,result);
                cvSubS(cn1,
cvScalar(temp_mean[1],NULL,NULL,NULL),cn1,result);
                cvSubS(cn2,
cvScalar(temp_mean[2],NULL,NULL,NULL),cn2,result);
                cvMerge(cn,cn1,cn2,NULL,temp_mat_sub);
                cvscalar2  
=   cvSum(temp_mat_sub);
                shiftor    
=   cvSqrt(pow(cvscalar2.val[0] , 2) + pow(cvscalar2.val[1] , 2) +  pow(cvscalar2.val[2] , 2));
                temp_mean[0]=temp_mean[0]+cvscalar2.val[0];
                temp_mean[1]=temp_mean[1]+cvscalar2.val[1];
                temp_mean[2]=temp_mean[2]+cvscalar2.val[2];*/
            }
            while(shiftor>0.1);  //meanshift算法过程
//--------------------------------------------去除不重要特征-----------------------------------------------
            if(k==0)
            {
                feature[k].pt.x
= temp_mean[0];
                feature[k].pt.y
= temp_mean[1];
                feature[k].pt.z
= temp_mean[2];
                feature[k].number=
(
int)cvscalar1.val[0];   //由于小于等于的情况成立时。result相应位置是0XFF,不成立时相应位置为0
                pNmin  
= (
int)cvscalar1.val[0];                //此特征搜索窗体内,特征空间的向量个数
                feature[k].result=cvCreateMat(src->height,src->width,CV_8UC1);
                cvAndS(result,cvScalar(1,NULL,NULL,NULL),result,NULL);
                cvCopy(result,feature[k].result,NULL);
                k++;
            }
            else
            {
                int flag
= 0;
                for(j
= 0 ; j < k ; j++)
                {
                    if(pow(temp_mean[0]-feature[j].pt.x
, 2) + 
pow(temp_mean[1]-feature[j].pt.y
,2) + 
pow(temp_mean[2]-feature[j].pt.z,
2)
                        <
r1*r1)
                    {
                        flag
= 1;
                        break;
                    }
                }
                if(flag==0)
                {
                    feature[k].pt.x
= temp_mean[0];
                    feature[k].pt.y
= temp_mean[1];
                    feature[k].pt.z
= temp_mean[2];
                    feature[k].number=(int)cvscalar1.val[0];
                    pNmin  
= (
int)cvscalar1.val[0];                //此特征搜索窗体内,特征空间的向量个数
                    feature[k].result=cvCreateMat(src->height,src->width,CV_8UC1);
                    cvCopy(result,feature[k].result,NULL);
                    k++;
                    //if(pNmin
< Nmin )
                    // 
break;
                }
            }//去除不重要特征
            //if(pNmin
< Nmin)
            // 
break;
        }   //
 
    }while(pNmin
> Nmin || run_meanshift_slec_number>60 );
 
    //------------------------------------------------后处理---------------------------------------------------------
    cvSetZero(result);
    for(
i = 0 ; i < k ; i ++)
    {
        cvOr(result,feature[i].result,result,NULL);
    }
 
    cvScale(temp_mat,temp_mat_sub,1.0,0.0);
    cvSplit(temp_mat_sub,cn,cn1,cn2,NULL);
 
    for(i
= 0 ; i < src->width ; i++)
        for(
j = 0 ; j < src->height ; j++)
        {
            if(cvGetReal2D(result,j,i)==0)      //未分类的像素点。进行分类。为近期的特征中心
            {
                double unclass_dis
, min_dis;
                int min_dis_index;
                for(
p = 0 ; p < k ; p++ )
                {
                    unclass_dis
pow(feature[p].pt.x
- cvmGet(cn,j,i),2)   
//(temp_mat,i,j,0)
,2)
                        pow(feature[p].pt.y
- cvmGet(cn1,j,i),2) 
//(temp_mat,i,j,1)
,2)
                        pow(feature[p].pt.z
- cvmGet(cn2,j,i),2);
//(temp_mat,i,j,2)
,2);
                    if(p==0)
                    {
                        min_dis
= unclass_dis;
                        min_dis_index
= p;
                    }
                    else
                    {
                        if(unclass_dis
< min_dis)
                        {
                            min_dis
= unclass_dis;
                            min_dis_index
= p;
                        }
                    }
                }//
end for 与特征比較
                cvSetReal2D(feature[min_dis_index].result
,j  ,i ,1);
            }
        }//完毕未分类的像素点的分类
    cvSetZero(final_class_mat);
    for(
i = 0 ; i < k ; i++)
    {
        cvSet(temp_mat,
cvScalar(
rand()%255,rand()%255,rand()%255,rand()%255),
feature[i].result);
        cvCopy(temp_mat,final_class_mat,feature[i].result);
    }
    cvConvert(final_class_mat,dst);
    //删除小于Ncon大小的区域
    for(
i = 0 ; i < k ; i++)
    {
        cvClearMemStorage(storage);
        if(seq)
cvClearSeq(seq);
        cvConvert(
feature[i].result , gray);
        cvFindContours(
gray , storage , & seq ,
sizeof(CvContour)
, CV_RETR_LIST);
        for(temp_seq
= seq ; temp_seq ; temp_seq = temp_seq->h_next)
        {
            CvContour
* cnt = (CvContour*)seq;
            if(cnt->rect.width
* cnt->rect.height < Ncon)
            {
                prev_seq
= temp_seq->h_prev;
                if(prev_seq)
                {
                    prev_seq->h_next
= temp_seq->h_next;
                    if(temp_seq->h_next)
temp_seq->h_next->h_prev = prev_seq ;
                }
                else
                {
                    seq
= temp_seq->h_next ;
                    if(temp_seq->h_next
) temp_seq->h_next->h_prev = NULL ;
                }
            }
        }//
        cvDrawContours(src,
seq , CV_RGB(0,0,255) ,CV_RGB(0,0,255),1);
    }
 
    //----------------释放空间-------------------------------------------------------  
    cvReleaseImage(&
temp);
    cvReleaseImage(&
gray);
    cvReleaseMat(&distance);
    cvReleaseMat(&result);
    cvReleaseMat(&temp_mat);
    cvReleaseMat(&temp_mat_sub);
    cvReleaseMat(&temp_mat_sub2);
    cvReleaseMat(&final_class_mat);
    cvReleaseMat(&cn);
    cvReleaseMat(&cn1);
    cvReleaseMat(&cn2);
    cvReleaseMat(&cn3);
}

》效果

执行时间16.5s

原图:

切割图:

被改写了的原图:

From:         http://www.cnblogs.com/skyseraph/

新浪微博:http://weibo.com/u/1645794700/home?

wvr=5&c=spr_web_360_hao360_weibo_t001

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

from=front" style="">

rightmod=1&wvr=6&mod=personinfo" class="name S_txt1" title="CV机器视觉2013" style="">CV机器视觉2013

【图像算法】彩色图像切割专题八:基于MeanShift的彩色切割的更多相关文章

  1. SSE图像算法优化系列二十三: 基于value-and-criterion structure 系列滤波器(如Kuwahara,MLV,MCV滤波器)的优化。

    基于value-and-criterion structure方式的实现的滤波器在原理上其实比较简单,感觉下面论文中得一段话已经描述的比较清晰了,直接贴英文吧,感觉翻译过来反而失去了原始的韵味了. T ...

  2. 基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统)

    基于meanshift的手势跟踪与电脑鼠标控制(手势交互系统) zouxy09@qq.com http://blog.csdn.net/zouxy09 一年多前开始接触计算机视觉这个领域的时候,年幼无 ...

  3. 开发指南专题八:JEECG微云高速开发平台数据字典

       开发指南专题八:JEECG微云高速开发平台数据字典的使用 1.标签中使用数据字典 数据字典为系统中可能用到的字典类型数据提供了使用的便利性和可维护性.下面拉框标签<t:dictSele ...

  4. J2EE进阶(十八)基于留言板分析SSH工作流程

    J2EE进阶(十八)基于留言板分析SSH工作流程   留言板采用SSH(Struts1.2 + Spring3.0 + Hibernate3.0)架构.   工作流程(以用户登录为例):   首先是用 ...

  5. 基于MeanShift的目标跟踪算法及实现

    这次将介绍基于MeanShift的目标跟踪算法,首先谈谈简介,然后给出算法实现流程,最后实现了一个单目标跟踪的MeanShift算法[matlab/c两个版本] csdn贴公式比较烦,原谅我直接截图了 ...

  6. 图像切割—基于图的图像切割(Graph-Based Image Segmentation)

     图像切割-基于图的图像切割(Graph-Based Image Segmentation) Reference: Efficient Graph-Based Image Segmentation ...

  7. SQL语句复习【专题八】

    SQL语句复习[专题八] 序列 Sequence.数据库对象是 oracle 专有的.作用:可以将某一列的值使用序列,来实现自动增长的功能.访问序列的值.[序列有两个属性 nextval currva ...

  8. 【Microsoft Azure 的1024种玩法】八. 基于Azure云端轻松打造一款好用的私有云笔记

    [简介] Leanote一款开源云笔记软件,它使用Go的Web框架revel和MongoDB开发完成的,其是目前为止发现的最有bigger的云笔记,它支持markdown输入,代码高亮,多人协作,笔记 ...

  9. 本图片处理类功能非常之强大可以实现几乎所有WEB开发中对图像的处理功能都集成了,包括有缩放图像、切割图像、图像类型转换、彩色转黑白、文字水印、图片水印等功能

    import java.awt.AlphaComposite; import java.awt.Color; import java.awt.Font; import java.awt.Graphic ...

随机推荐

  1. 【原】Eclipse更改字符编码,精华版

  2. PHP 日期的加减

  3. unix-软件安装

    检查软件是否已经安装 rpm -qa|grep 软件标识名 在线安装软件 yum -y install 软件标识名

  4. MEF 导入(Import)和导出(Export)

    前言: MEF不同于其他IOC容器(如:Castle)很重要的原因在于它使用了特性化编程模型(涉及到两个概念:“特性”和“编程模型”). 特性(Attribute):举例来说就是我们在开发过程中在类上 ...

  5. js复制兼容:ZeroClipboard复制到剪切板(支持IE、FF、Chrome)

    注意:ZeroClipboard在本地测试无法直接使用,必须在服务器上测试,如http://localhost... 准备:ZeroClipboard.swf 和 ZeroClipboard.js 小 ...

  6. 如何使用Omnifocus做时间管理 4 多项目管理

    这一篇和大家分享作为一个管理者,可能遇到的时间管理挑战和如何用omnifocus应对这些挑战. 张经理在一家IT公司上班,从程序员开始打拼了5年,凭借权威的技术能力当上了项目经理,同时管理三个项目,苦 ...

  7. WINDOWS常用端口列表

    按端口号可分为3大类: (1)公认端口(Well Known Ports):从0到1023,它们紧密绑定(binding)于一些服务.通常这些端口的通讯明确表明了某种服务的协议.例如:80端口实际上总 ...

  8. .NET:用T4消除代码重复,对了,也错了

    背景 我需要为int.long.float等这些数值类型写一些扩展方法,但是我发现他们不是一个继承体系,我的第一个思维就是需要为每个类型重复写一遍扩展方法,这让我觉得非常不爽,但是我还是不情愿的写了, ...

  9. 《Linux兵书》

    <Linux兵书> 基本信息 作者: 刘丽霞    杨宇 丛书名: 程序员藏经阁 出版社:电子工业出版社 ISBN:9787121219924 上架时间:2014-1-13 出版日期:20 ...

  10. [Linux] ubuntu下查看CHM的软件

    本文旨在介绍linux下的常见chm阅读软件及其安装,并针对一些问题给出解决方法. 一.CHMSEE 这个比较常见了,呵呵. 安装: sudo apt-get install chmsee 之后在应用 ...