论文笔记《Feedforward semantic segmentation with zoom-out features》
【论文信息】
《Feedforward semantic segmentation with zoom-out features》
CVPR 2015
superpixel-level,fully supervised,CNN
【方法简单介绍】
首先对输入图像以superpixel为单位提取CNN特征(使用VGG16),然后把这些特征作为CNN classifier(使用imageNet)的输入,imageNet输出是每一个superpixel的class。
【细节记录】
feature
特征提取过程是,对每一个卷积层的输出,用双线性插值的方法做upsampling使之与原图尺寸一致。然后对superpixel s的区域做pooling,这样就得到一个特征向量,这个向量的维度就是当前卷积层的卷积核个数。
例如以下图:

是对每一个superpixel下表中是VGG每一层提取特征的情况:

把每一层的输出向量连接起来,就得到终于的CNN特征。是12416维的。
作者通过实验证明,把每一个卷积层的输出都连接起来形成的特征是最优的:
version=auto&filename=QQ%E6%88%AA%E5%9B%BE20150801222314.png" width="417" height="261" style="margin:0.2em 0px; padding:0px; border:1px solid rgb(217,217,217); vertical-align:middle; max-width:100%; width:auto; height:auto">
zoom-out
原因在于,CNN的每一个卷积层,设卷积核大小不变,由于有下採样。图像在逐步变小。所以实际上卷积核所能感知的范围是逐步增大的,也就是文中所说的zoom out
version=auto&filename=QQ%E6%88%AA%E5%9B%BE20150801222950.png" width="519" height="454" style="margin:0.2em 0px; padding:0px; border:1px solid rgb(217,217,217); vertical-align:middle; max-width:100%; width:auto; height:auto">
在superpixel level。红色框区域和蓝色框区域,也就是CNN的浅层。输出的特征是local feature,主要包括这个小区域的颜色信息和密度信息,它和相邻的superpixel的特征会有较大差异。
把superpixel向外zoom out。在proximal level,能够得到橄榄色的区域。在这个level提取的特征主要捕捉superpixel周围其它superpixel的信息。已经不是local的信息了,应该是neiboring的信息。对于离得近的superpixel(如A和B的橄榄绿框),它们在这个level的receptive fileds会有较多的overlap。它们之间存在smoothness。在这一层面的特征表示会有些相似。而假设离得远(A和C),overlap小。那么它们的特征表示会有较大差异。
version=auto&filename=QQ%E6%88%AA%E5%9B%BE20150801223517.png" width="469" height="317" style="margin:0.2em 0px; padding:0px; border:1px solid rgb(217,217,217); vertical-align:middle; max-width:100%; width:auto; height:auto">
继续向外zoom out,在distant level。紫色的蓝色的区域,经常带来较大的overlap,可以在superpixel之间建立联系,而且,此时的感知区域已经可以包括一些object,所以这个level提取的特征会包括object的一些形状信息、空间位置信息、复杂的颜色和梯度信息。一些方法用CRF来挖掘这类信息。这样做经常带来复杂的难以求解的模型。
再zoom out,在scene level,就是对整幅图片感知,得到的是global的信息。这level的特征主要包括的信息是”what kind of an image we are looking at“,能够基本限定class的范围。
【实验设计】
1,选择combine哪些层输出的feature。最后结果最好的是全部层的输出连起来得到的feature
2,和现有的方法在VOC的结果比較mean IoU。是最优(Hypercolumns, FCN-8s, SDS, DivMbest+rerank, Codemaps, O2P, Regions&parts, D-sampling, Harmony potentials.)
3,和现有方法在SBD的结果比較pixel accuracy, class accuracy是最优(Multiscale convnet, recurrent CNN, Pylon, Recursive NN, Multilevel)
【总结】
长处
1。它把CNN每一层的特征都拿出来使用,兼顾了local信息和global信息。
2,直接使用image classification的现有成果,不用自己训练网络。方便高效,易于推广。
3,实验结果FCN的方法结果还好。
缺点
从作者贴出的example来看,切割的边缘还是有些粗糙。原因是:本文方法是直接基于superpixel做特征提取和分类的,提取的superpixel是不够准确的。一个superpixel中可能包括了多个class。要优化这个边缘,应该还是要挖掘出pixel level的细节信息。
version=auto&filename=QQ%E6%88%AA%E5%9B%BE20150801225749.png" width="1148" height="508" style="margin:0.2em 0px; padding:0px; border:1px solid rgb(217,217,217); vertical-align:middle; max-width:100%; width:auto; height:auto">
论文笔记《Feedforward semantic segmentation with zoom-out features》的更多相关文章
- 《Vision Permutator: A Permutable MLP-Like ArchItecture For Visual Recognition》论文笔记
论文题目:<Vision Permutator: A Permutable MLP-Like ArchItecture For Visual Recognition> 论文作者:Qibin ...
- [place recognition]NetVLAD: CNN architecture for weakly supervised place recognition 论文翻译及解析(转)
https://blog.csdn.net/qq_32417287/article/details/80102466 abstract introduction method overview Dee ...
- 论文笔记系列-Auto-DeepLab:Hierarchical Neural Architecture Search for Semantic Image Segmentation
Pytorch实现代码:https://github.com/MenghaoGuo/AutoDeeplab 创新点 cell-level and network-level search 以往的NAS ...
- 论文笔记——Rethinking the Inception Architecture for Computer Vision
1. 论文思想 factorized convolutions and aggressive regularization. 本文给出了一些网络设计的技巧. 2. 结果 用5G的计算量和25M的参数. ...
- 论文笔记:Fast Neural Architecture Search of Compact Semantic Segmentation Models via Auxiliary Cells
Fast Neural Architecture Search of Compact Semantic Segmentation Models via Auxiliary Cells 2019-04- ...
- 论文笔记:ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware
ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware 2019-03-19 16:13:18 Pape ...
- 论文笔记:DARTS: Differentiable Architecture Search
DARTS: Differentiable Architecture Search 2019-03-19 10:04:26accepted by ICLR 2019 Paper:https://arx ...
- 论文笔记:Progressive Neural Architecture Search
Progressive Neural Architecture Search 2019-03-18 20:28:13 Paper:http://openaccess.thecvf.com/conten ...
- 论文笔记:Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation
Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation2019-03-18 14:4 ...
- 论文笔记系列-DARTS: Differentiable Architecture Search
Summary 我的理解就是原本节点和节点之间操作是离散的,因为就是从若干个操作中选择某一个,而作者试图使用softmax和relaxation(松弛化)将操作连续化,所以模型结构搜索的任务就转变成了 ...
随机推荐
- FastReport.Net使用:[38]关系的使用
打印所有成绩 1. 数据源准备 接下来我们需要打印学生成绩,而成绩表中无姓名,我们通过建立Realtion关系来打印数据. 2. 创建Relation关系 在数据视图上的动作下拉菜单中选择“新建关系” ...
- 【BZOJ 4361】 4361: isn (DP+树状数组+容斥)
4361: isn Time Limit: 10 Sec Memory Limit: 256 MBSubmit: 218 Solved: 126 Description 给出一个长度为n的序列A( ...
- codevs 1214 线段覆盖
1214 线段覆盖 时间限制: 1 s 空间限制: 128000 KB 题目等级 : 黄金 Gold 题目描述 Description 给定x轴上的N(0<N<100)条线段,每个线段 ...
- [BZOJ4627][BeiJing2016]回转寿司(线段树)
从左到右处理,设到当前数R的前缀和为cnt[i],则以i为右端点的合法的区间左端点j必然是L<=cnt[i]-cnt[j-1]<=R,即cnt[i]-R<=cnt[j-1]<= ...
- [BZOJ4338][BJOI2015]糖果(扩展Lucas)
先求出式子$P_{C_{K+m-1}^{m}}^{n}$,然后对于排列直接$O(n)$求解,对于组合用扩展Lucas求解. 但这题数据并没有保证任何一个模数的质因子的$p^k$在可线性处理的范围内,于 ...
- python 3.x和2.x不同和改动
参考于http://www.runoob.com/python/python-2x-3x.html 因为这几天换了电脑,之前电脑里装的是python2.x,因为那时候刚学的时候,很多教程都是用2.x. ...
- 打开/查找xcode6的沙盒地目录
用以下代码 打开沙盒目录 NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainM ...
- Si4355 低电流 Sub-GHz接收器
Silicon Labs 的 Si4355 是易于使用的.低电流.Sub-GHz EZRadio® 接收器.覆盖所有主要波段,结合了即插即用的简单性和需要处理各种不同应用的灵活性.紧凑的 3 mm x ...
- 【spring cloud】spring cloud 使用feign调用,1.fallback熔断器不起作用,2.启动报错Caused by: java.lang.ClassNotFoundException: com.netflix.hystrix.contrib.javanica.aop.aspectj.Hystri解决
示例GitHub源码地址:https://github.com/AngelSXD/springcloud 1.首先使用feign调用,需要配置熔断器 2.配置熔断器需要将熔断器注入Bean,熔断器类上 ...
- FIS常用命令
命令 用途 简写 fis --version 查看版本 fis -v fis install 安装 fis release 发布项目 fis server start 启动一个服务器用于预览项 ...