知识点

  • mAP:detection quality.

Abstract

  • 本文提出一种基于快速区域的卷积网络方法(快速R-CNN)用于对象检测。
  • 快速R-CNN采用多项创新技术来提高训练和测试速度,同时提高检测精度。
  • 采用VGG16的网络:VGG: 16 layers of 3x3 convolution interleaved with max pooling + 3 fully-connected layers

Introduction

  • 物体检测相对于图像分类是更复杂的,应为需要物体准确的位置。
    • 首先,必须处理许多候选对象位置(通常称为“proposal”)。
    • 其次,这些候选者只提供粗略的定位,必须进行精确定位才能实现精确定位。
    • 这些问题的解决方案经常损害 速度准确性简单性

R-CNN and SPPnet

  • R-CNN(Region-based Convolution Network)具有几个显著的缺点:
    • 训练是一个多级管道。
    • 训练在空间和时间上是昂贵的。
    • 物体检测速度很慢。
  • R-CNN是慢的,因为它对每个对象proposal执行ConvNet正向传递,而不共享计算(sharing computation)。
  • Spatial pyramid pooling networks(SPPnets),利用sharing computation对R-CNN进行了加速,但是SPPnets也具有明显的缺点,像R-CNN一样,SPPnets也需要:
    • 训练是一个多阶段流程,
    • 涉及提取特征,
    • 用对数损失精简网络
    • 训练SVM
    • 赋予边界框回归。
    • 特征也需要也写入磁盘。
  • 但与R-CNN 不同 ,在[11]中提出的fine-tuning算法不能更新在空间金字塔池之前的卷积层。 不出所料,这种限制(固定的卷积层)限制了非常深的网络的精度。

Contributions

  • Fast R-CNN优点:
  1. 比R-CNN,SPPnet更高的检测质量(mAP)
  2. 训练是单阶段的,使用多任务损失(multi-task loss)
  3. 训练可以更新所有网络层
  4. 特征缓存不需要磁盘存储

Fast R-CNN architecture and training

  • 整体框架

  • 快速R-CNN网络将整个图像一组object proposals作为输入。

    • 网络首先使用几个卷积(conv)和最大池层来处理整个图像,以产生conv feature map。
    • 然后,对于每个对象proposal, 感兴趣区域(RoI)池层 从特征图中抽取固定长度的特征向量。
    • 每个特征向量被馈送到完全连接(fc)层序列,其最终分支成两个同级输出层:
      • 一个产生对K个对象类加上全部捕获的“背景”类的softmax概率估计(one that produces softmax probability estimates over K object classes plus a catch-all “background” class)
      • 另一个对每个K对象类输出四个实数,每组4个值编码提炼定义K个类中的一个的的边界框位置。(another layer that outputs four real-valued numbers for each of the K object classes. Each set of 4 values encodes refined bounding-box positions for one of the K classes.)

The RoI pooling layer

  • Rol pooling layer的作用主要有两个:
    • 一个是将image中的RoI定位到feature map中对应patch
    • 另一个是用一个单层的SPP layer将这个feature map patch下采样为大小固定的feature再传入全连接层。
  • RoI池层使用最大池化将任何有效的RoI区域内的特征转换成具有H×W(例如,7×7)的固定空间范围的小feature map,其中H和W是层超参数 它们独立于任何特定的RoI。
  • 在本文中,RoI是conv feature map中的一个矩形窗口。
  • 每个RoI由定义其左上角(r,c)及其高度和宽度(h,w)的四元组(r,c,h,w)定义。
  • RoI层仅仅是Sppnets中的spatial pyramid pooling layer的特殊形式,其中只有一个金字塔层.

Initializing from pre-trained networks

  • 用了3个预训练的ImageNet网络(CaffeNet/ VGG_CNN_M_1024 /VGG16)。预训练的网络初始化Fast RCNN要经过三次变形:
  1. 最后一个max pooling层替换为RoI pooling层,设置H’和W’与第一个全连接层兼容。
  2. 最后一个全连接层和softmax(原本是1000个类)替换为softmax的对K+1个类别的分类层,和bounding box 回归层。
  3. 输入 大专栏  深度学习论文笔记:Fast R-CNN修改为两种数据:一组N个图形,R个RoI,batch size和ROI数、图像分辨率都是可变的。

Fine-tuning for detection

  • 利用反向传播算法进行训练所有网络的权重是Fast R-CNN很重要的一个能力。

  • 我们提出了一种更有效的训练方法,利用在训练期间的特征共享(feature sharing during training)。

  • 在Fast R-CNN训练中, 随机梯度下降(SGD)小批量分层采样 ,首先通过采样N个图像,然后通过从每个图像采样 R/N个 RoIs。

  • 关键的是,来自同一图像的RoI在向前和向后传递中 共享计算 和存储。

  • 此外为了分层采样,Fast R-CNN使用了一个流水线训练过程,利用一个fine-tuning阶段来联合优化一个softmax分类器和bounding box回归,而非训练一个softmax分类器,SVMs,和regression在三个独立的阶段。

  • Multi-task loss:

    • 两个sibling输出层:
      • 第一层:输出离散概率分布(针对每个RoIs),$p=(p_0,…,p_K)$,分别对应$K+1$个类。p是在一个全连接层的$K+1$个输出上的softmax。
      • 第二层:输出bounding-box的回归偏移(bounding-box regression offsets),针对K object classes中的每一个类,计算$t^k=(t^k_x,t^k_y,t^k_w,t^k_h)$,具体见R-CNN得补充材料,里面有很详细的介绍bounding box regression
    • 每一个训练RoIs被标注一个ground truth类$u$,和一个ground truth bounding box 回归目标$v$。
    • 两个loss,以下分别介绍:
      • 对于分类loss,是一个N+1路的softmax输出,其中的N是类别个数,1是背景。
      • 对于回归loss,是一个4xN路输出的regressor,也就是说对于每个类别都会训练一个单独的regressor的意思,比较有意思的是,这里regressor的loss不是L2的,而是一个平滑的L1,形式如下:

  • 我们利用一个multi-task loss L 在每个被标注的RoI上来联合训练分类器和bounding box regression

  • Mini-batch sampling:在微调时,每个SGD的mini-batch是随机找两个图片,R为128,因此每个图上取样64个RoI。从object proposal中选25%的RoI,就是和ground-truth交叠至少为0.5的。剩下的作为背景。

  • Back-propagation through RoI pooling layers:

    • RoI pooling层计算损失函数对每个输入变量x的偏导数,如下:

      y是pooling后的输出单元,x是pooling前的输入单元,如果y由x pooling而来,则将损失L对y的偏导计入累加值,最后累加完R个RoI中的所有输出单元。下面是我理解的x、y、r的关系:

Scale invariance

  • 这里讨论object的scale问题,就是网络对于object的scale应该是要不敏感的。这里还是引用了SPP的方法,有两种:
    • brute force (single scale),也就是简单认为object不需要预先resize到类似的scale再传入网络,直接将image定死为某种scale,直接输入网络来训练就好了,然后期望网络自己能够学习到scale-invariance的表达。
    • image pyramids (multi scale),也就是要生成一个金字塔,然后对于object,在金字塔上找到一个大小比较接近227x227的投影版本,然后用这个版本去训练网络。
  • 可以看出,2应该比1更加好,作者也在5.2讨论了,2的表现确实比1好,但是好的不算太多,大概是1个mAP左右,但是时间要慢不少,所以作者实际采用的是第一个策略,也就是single scale。
  • 这里,FRCN测试之所以比SPP快,很大原因是因为这里,因为SPP用了2,而FRCN用了1。

Fast R-CNN detection

  • 大型全连接层很容易的可以通过将他们与 truncated SVD(奇异值分解) 压缩来加速计算。

Main results

  • All Fast R-CNN results in this paper using VGG16 fine-tune layers conv3 1 and up; all experments with models S and M fine-tune layers conv2 and up.

Design evaluation

Do we need more training data?

  • 在训练期间,作者做过的唯一一个数据增量的方式是水平翻转。 作者也试过将VOC12的数据也作为拓展数据加入到finetune的数据中,结果VOC07的mAP从66.9到了70.0,说明对于网络来说, 数据越多就是越好的。

深度学习论文笔记:Fast R-CNN的更多相关文章

  1. 深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes

    来自:CVPR 2014   作者:Yi Sun ,Xiaogang Wang,Xiaoao Tang 题目:Deep Learning Face Representation from Predic ...

  2. 深度学习论文笔记:Deep Residual Networks with Dynamically Weighted Wavelet Coefficients for Fault Diagnosis of Planetary Gearboxes

    这篇文章将深度学习算法应用于机械故障诊断,采用了“小波包分解+深度残差网络(ResNet)”的思路,将机械振动信号按照故障类型进行分类. 文章的核心创新点:复杂旋转机械系统的振动信号包含着很多不同频率 ...

  3. 深度学习课程笔记(一)CNN 卷积神经网络

    深度学习课程笔记(一)CNN 解析篇 相关资料来自:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html 首先提到 Why CNN for I ...

  4. 重磅︱文本挖掘深度学习之word2vec的R语言实现

    每每以为攀得众山小,可.每每又切实来到起点,大牛们,缓缓脚步来俺笔记葩分享一下吧,please~ --------------------------- 笔者寄语:2013年末,Google发布的 w ...

  5. (zhuan) 126 篇殿堂级深度学习论文分类整理 从入门到应用

    126 篇殿堂级深度学习论文分类整理 从入门到应用 | 干货 雷锋网 作者: 三川 2017-03-02 18:40:00 查看源网址 阅读数:66 如果你有非常大的决心从事深度学习,又不想在这一行打 ...

  6. 【深度学习系列3】 Mariana CNN并行框架与图像识别

    [深度学习系列3] Mariana CNN并行框架与图像识别 本文是腾讯深度学习系列文章的第三篇,聚焦于腾讯深度学习平台Mariana中深度卷积神经网络Deep CNNs的多GPU模型并行和数据并行框 ...

  7. 深度学习word2vec笔记之算法篇

    深度学习word2vec笔记之算法篇 声明:  本文转自推酷中的一篇博文http://www.tuicool.com/articles/fmuyamf,若有错误望海涵 前言 在看word2vec的资料 ...

  8. (转)深度学习word2vec笔记之基础篇

    深度学习word2vec笔记之基础篇 声明: 1)该博文是多位博主以及多位文档资料的主人所无私奉献的论文资料整理的.具体引用的资料请看参考文献.具体的版本声明也参考原文献 2)本文仅供学术交流,非商用 ...

  9. 深度学习word2vec笔记之基础篇

    作者为falao_beiliu. 作者:杨超链接:http://www.zhihu.com/question/21661274/answer/19331979来源:知乎著作权归作者所有.商业转载请联系 ...

随机推荐

  1. PyTorch基础——使用卷积神经网络识别手写数字

    一.介绍 实验内容 内容包括用 PyTorch 来实现一个卷积神经网络,从而实现手写数字识别任务. 除此之外,还对卷积神经网络的卷积核.特征图等进行了分析,引出了过滤器的概念,并简单示了卷积神经网络的 ...

  2. 利用CSS制作背景变色的横向导航栏

    1.表单 页面如下: <html> <head> <title>注册表单页面</title> </head> <body> &l ...

  3. Hardy-Weinberg laws

    I.3 Diploids with two alleles: Hardy-Weinberg laws 假设子代是Aa,AA,aa的概率分别是PAa,PAA,Paa,A的基因概率是P1,a的基因概率是P ...

  4. CCP 协议

    转载 1.  CCP协议概述 CCP(CAN Calibration Protocol)是一种基于CAN总线的匹配标定协议.ECU都需要经过匹配标定的过程,从而确定其运行参数和控制参数.有时为了实现对 ...

  5. LGOJ2257 YY的GCD

    这题美好体验就是卡常 Description link 求 \[\sum^{n}_ {i=1} \sum^m_{j=1} [gcd(i,j)\in prime]\] 其中:\(1\leq n,m \l ...

  6. [LC] 167. Two Sum II - Input array is sorted

    Given an array of integers that is already sorted in ascending order, find two numbers such that the ...

  7. xpath-helper使用

    xpath-helper提取不到frame元素时: https://blog.csdn.net/skywinne/article/details/83832126

  8. Codeforces Roundd #573 (Div. 2)

    D. Tokitsukaze, CSL and Stone Game 题意:有n堆石头,每人每次只能去一颗石子,若轮到当前人没任何一堆石子可以取或当前人取到后剩下有俩堆石子个数相同则当前人输: 给定石 ...

  9. peculiar|retreated|civilize|conceivable

    ADJ-GRADED 奇怪的:古怪的:不寻常的If you describe someone or something as peculiar, you think that they are str ...

  10. Ubuntu14 定时查询任务进程存活状态以及定时杀死进程和重启

    #!/bin/bash while true do pkill -f "savePic.py" python ./savePic.py & #fi sleep 3600 d ...