1. 阅读论文:Understanding the Effective Receptive Field in Deep Convolutional Neural Networks 理解感受野

  • 定义receptive field, or field of view (感受野)

A unit in convolutional networks only depends on a region of the input. This region in the input is the receptive field for that unit. (一个神经节点只从输入中的一个局部区域中获取信息,这个局部区域称为当前神经节点的感受野)。由于输入中感受野之外的区域不影响当前神经节点的值,所以要合理地控制感受野的大小,让感受野覆盖整个相关的区域,特别是在一些密集预测的任务上,比如:语义分割,深度估计和光流估计等任务。

定义--补充:
在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。 ——博客园
在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。 ——蓝荣祎
大家知道现在CNN深度学习越来越深,为了压缩计算量,越到后面的层数往往feature size越来越小,但参与“决策”往往是最后几层网络(当然有FPN等神迹)因此如何保证小的网络仍然具有全局性是构建CNN网络的一个重要依据,感受野便是一个考量feature map中每个神经元具有多少全局性的指标。
  • 增大感受野的操作
  1. 增加网络的层数,加深网络深度。理论上可以线性地增大感受野,每一层产生的感受野的增量为卷积核的大小。
  2. 下采样: 下采样可以成倍地增大感受野。
  3. dilate :dilate操作可以成倍地增大感受野。

注:VGG和ResNet等使用了1,2。 deeplab系列额外使用了3。

  • 论文的主要观点:
  1. 感受野中的像素对神经节点输出的贡献是不一样的,更具体一些是:感受野中心的像素的贡献更大些。理由:Forward pass过程:中心像素有更多的路径将该像素的信息传递给神经节点,边缘的像素有较少的路径将其像素信息传递给神经节点。相似地, Backward pass过程:感受野中心像素从相应的神经节点获取的梯度也更多。
  2. 理论感受野区域中的像素的贡献符合Gaussian分布。由于Gaussian分布从中心高边快速衰减,有效感受野只是是理论感受野的一部分。
  • 结论:
  1. 卷积核权重均匀分布和随机分布时,有效感受野服从(近似服从)Gaussian分布。
  2. ReLU操作的加入也会使得有效感受野服从(近似服从)Gaussian分布。
  3. dropout的加入不会改变有效感受野的Gaussian分布
  4. 下采样和dilation 会增加有效感受野的大小,下采样效果更明显。
  5. skip-connections会减小有效感受野的大小。
  6. 只包含卷积层的情况下,随着卷积层数  的增加有效感受野   倍增加。与理论感受野相比,有效感受野   缩小。
  • 减弱有效感受野Gaussian分布带来的损失的方法(增大有效感受野的方法)
  • (1)修改权重的初始化:减少卷积核中心的参数初始化的scale,增大卷积核边缘参数初始化的scale。不论scale策略如何,有效感受野Gaussian分布的情况仍不能解决。

    (2)改变CNN结构:使用dilation操作稀疏连接输入和卷积核,使用非矩形(no grid-like)的稀疏连接。

理论感受野大小的计算

在学习计算感受野之前,先可视化一下感受野吧。举一个例子,原始图像为 ,卷积核(Kernel Size)为 ,padding 为 ,stride为 ,依照此卷积规则,连续做两次卷积。熟悉卷积过程的朋友都知道第一次卷积结果是 大小的feature map,第二次卷积结果是 大小的feature map。整个过程如图所示:

第一次卷积得到3*3的 feature map,RF为3*3

第二次卷积得到2*2的 feature map

黄色feature map对应的感受野是7*7大小

如图所示,第一层卷积结束后,感受野是3*3。在第二层卷积结束了,感受野是7*7。

--理论感受野大小的计算公式

1)这种方式为从后往前推,即计算哪层的感受野,就把它当做网络的最后一层,然后往前推导:

 

【注】:

最后一层(卷积层或池化层)输出特征图感受野的大小等于卷积核的大小。
第i层卷积层的感受野大小和第i层的卷积核大小和步长有关系,同时也与(i+1)层感受野大小有关。
计算感受野的大小时忽略了图像边缘的影响,即不考虑padding的大小。

2)这种是从前往后推,逐层计算感受野的大小(还计算了神经元中心坐标):

2. 验证RF Size计算

FOMORO AI

三个高级工程师搞的网站,可以简单的输入网络参数,就直接把你的感受野计算出来。

参考:

1、Paper Reading: 理解感受野

2、卷积神经网络中感受野的详细介绍

3、卷积神经网络中的感受野计算详细指南

4、对CNN感受野一些理解

理解CNN中的感受野(receptive-field)的更多相关文章

  1. 神经网络中的感受野(Receptive Field)

    在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小.神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和po ...

  2. 关于感受野 (Receptive field) 你该知道的事

    Receptive field 可中译为“感受野”,是卷积神经网络中非常重要的概念之一. 我个人最早看到这个词的描述是在 2012 年 Krizhevsky 的 paper 中就有提到过,当时是各种不 ...

  3. 理解CNN中的通道 channel

    在深度学习的算法学习中,都会提到 channels 这个概念.在一般的深度学习框架的 conv2d 中,如 tensorflow .mxnet ,channels 都是必填的一个参数. channel ...

  4. 基于TensorFlow理解CNN中的padding参数

    1 TensorFlow中用到padding的地方 在TensorFlow中用到padding的地方主要有tf.nn.conv2d(),tf.nn.max_pool(),tf.nn.avg_pool( ...

  5. Understanding the Effective Receptive Field in Deep Convolutional Neural Networks

    Understanding the Effective Receptive Field in Deep Convolutional Neural Networks 理解深度卷积神经网络中的有效感受野 ...

  6. Deep Visualization:可视化并理解CNN(转)

    转载地址:https://zhuanlan.zhihu.com/p/24833574 一.前言 CNN作为一个著名的深度学习领域的“黑盒”模型,已经在计算机视觉的诸多领域取得了极大的成功,但是,至今没 ...

  7. Deep Visualization:可视化并理解CNN

    原文地址:https://zhuanlan.zhihu.com/p/24833574 一.前言 CNN作为一个著名的深度学习领域的“黑盒”模型,已经在计算机视觉的诸多领域取得了极大的成功,但是,至今没 ...

  8. Receptive Field Block Net for Accurate and Fast Object Detection

    Receptive Field Block Net for Accurate and Fast Object Detection 作者:Songtao Liu, Di Huang*, and Yunh ...

  9. CNN中感受野的理解

    本文摘自看完还不懂卷积神经网络“感受野”?那你来找我 作者:程序_小白链接:https://www.jianshu.com/p/9305d31962d8 一.到底什么是“感受野”(接受野Recepti ...

随机推荐

  1. URI与URL详解

    URL 与 URI 很多人会混淆这两个名词. URL:(Uniform/Universal Resource Locator 的缩写,统一资源定位符). URI:(Uniform Resource I ...

  2. 《团队名称》第八次团队作业:Alpha冲刺day4

    项目 内容 这个作业属于哪个课程 2016计算机科学与工程学院软件工程(西北师范大学) 这个作业的要求在哪里 实验十二 团队作业8-软件测试与ALPHA冲刺 团队名称 快活帮 作业学习目标 (1)掌握 ...

  3. BJOI2018 day2

    双人猜数游戏 Alice 和 Bob 是一对非常聪明的人,他们可以算出各种各样游戏的最优策略.现在有个综艺节目<最强大佬>请他们来玩一个游戏.主持人写了三个正整数 \(s\) .\(m\) ...

  4. Java逆变(Covariant)和协变(Contravariant)

    1. 定义 逆变和协变描述的经过类型变换后的类型之间的关系.假如A和B表示类型,f表示类型变换,A ≤B表示A是B的子类型,那么 如果A ≤B,f(A) ≤f(B),那么f是协变 如果A ≤B,f(B ...

  5. Android Studio中每次打开工程Gradle sync龟速解决办法

    问题描述 自己使用android studio后,发现每次一打开工程,软件就在Grandle sync.sync就算了,而且这个步骤还必须过TZ,并且时间超级长,可能睡完觉起来还没有下载好.下面是正在 ...

  6. java stackoverflowerror与outofmemoryerror区别

    1.stackoverflow: 每当java程序启动一个新的线程时,java虚拟机会为他分配一个栈,java栈以帧为单位保持线程运行状态:当线程调用一个方法是,jvm压入一个新的栈帧到这个线程的栈中 ...

  7. Vue与REACT两个框架的区别和优势对比

    VUE和REACT两个JavaScript框架都是当下比较受欢迎的,他们两者之间的区别有那些,各自的优缺点是什么,本文将为你呈现. 简单介绍 除非你最近一直不关注前端的发展,不然你肯定听说过由Face ...

  8. WPF——OXY绘图

    private PlotModel _plotModel; public PlotModel plotModel { get { return _plotModel; } set { _plotMod ...

  9. [BUAA软工]提问回顾与个人总结

    提问回顾与个人总结 项目 内容 所属课程 2019春季计算机学院软件工程(任健) 所属作业 提问回顾与问题总结 课程目标 理解软件工程的作用和重要性,提升工程能力,团队协作能力 作业目标 回顾软工课程 ...

  10. RNN 权重共享

    之前在几篇博客中说到了权重共享,但都觉得不够全面,这里做个专题,以后有新的理解都在此更新. 1. 减少运算只是锦上添花之前说到权重共享可以减少运算,是的,但这样说好像是可有可无,只是运算量大小的问题, ...