二阶段目标检测网络-Faster RCNN 详解
本文为学习笔记,部分内容参考网上资料和论文而写的,内容涉及
Faster RCNN
网络结构理解和代码实现原理。
Faster RCNN 网络概述
backbone
为 vgg16
的 faster rcnn
网络结构如下图所示,可以清晰的看到该网络对于一副任意大小 PxQ
的图像,首先缩放至固定大小 MxN
,然后将 MxN
图像送入网络;而 Conv layers 中包含了 13 个 conv 层 + 13 个 relu 层 + 4 个 pooling 层;RPN
网络首先经过 3x3 卷积,再分别生成 positive anchors
和对应 bounding box regression
偏移量,然后计算出 proposals
;而 Roi Pooling
层则利用 proposals 从 feature maps 中提取 proposal feature
送入后续全连接和 softmax 网络作 classification
(即分类: proposal
是哪种 object
)。
Conv layers
论文中
Faster RCNN
虽然支持任意图片输入,但是进入Conv layers
网络之前会对图片进行规整化尺度操作,如可设定图像短边不超过 600,图像长边不超过 1000,我们可以假定 \(M\times N=1000\times 600\)(如果图片少于该尺寸,可以边缘补 0,即图像会有黑色边缘)。
13
个conv
层:kernel_size=3, pad=1, stride=1
,卷积公式:N = (W − F + 2P )/S+1
,所以可知conv
层不会改变图片大小13
个relu
层: 激活函数,增加非线性,不改变图片大小4
个pooling
层:kernel_size=2,stride=2
,pooling
层会让输出图片变成输入图片的 1/2。
所以经过 Conv layers
,图片大小变成 \((M/16) \ast (N/16)\),即:\(60\ast 40(1000/16≈60,600/16≈40)\);则 Feature Map
尺寸为 \(60\ast 40\ast 512\)-d (注:VGG16 是512-d, ZF 是 256-d,d
是指特征图通道数,也叫特征图数量),表示特征图的大小为 \(60\ast 40\),数量为 512
。
RPN 网络
RPN
在 Extractor
(特征提取 backbone )输出的 feature maps 的基础之上,先增加了一个 3*3
卷积(用来语义空间转换?),然后利用两个 1x1
的卷积分别进行二分类(是否为正样本)和位置回归。RPN 网络在分类和回归的时候,分别将每一层的每一个 anchor 分为背景和前景两类,以及回归四个位移量,进行分类的卷积核通道数为9×2
(9 个 anchor,每个 anchor 二分类,使用交叉熵损失),进行回归的卷积核通道数为 9×4
(9个anchor,每个 anchor 有 4 个位置参数)。RPN是一个全卷积网络(fully convolutional network),这样对输入图片的尺寸就没有要求了。
RPN 完成 positive/negative 分类
+ bounding box regression 坐标回归
两个任务。
Anchors
在RPN
中,作者提出了anchors
,在代码中,anchors 是一组由 generate_anchors.py 生成的矩形框列表。运行官方代码的 generate_anchors.py
可以得到以下示例输出.这里生成的坐标是在原图尺寸上的坐标,在特征图上的一个像素点,可以对应到原图上一个 \(16\times 16\)大小的区域。
[[ -84. -40. 99. 55.]
[-176. -88. 191. 103.]
[-360. -184. 375. 199.]
[ -56. -56. 71. 71.]
[-120. -120. 135. 135.]
[-248. -248. 263. 263.]
[ -36. -80. 51. 95.]
[ -80. -168. 95. 183.]
[-168. -344. 183. 359.]]
其中每行的 4 个值 \((x_{1}, y_{1}, x_{2}, y_{2})\) 表矩形左上和右下角点坐标。9 个矩形共有 3 种形状,长宽比为大约为 \(width:height \epsilon \{1:1, 1:2, 2:1\}\) 三种,如下图。实际上通过 anchors 就引入了检测中常用到的多尺度方法。
注意,
generate_anchors.py
生成的只是 base anchors,其中一个 框的左上角坐标为 (0,0) 坐标(特征图左上角)的 9 个 anchor,后续还需网格化(meshgrid)生成其他 anchor。同一个 scale,但是不同的 anchor ratios 生成的 anchors 面积理论上是要一样的。
然后利用这 9
种 anchor
在特征图左右上下移动(遍历),每一个特征图上的任意一个点都有 9
个 anchor
,假设原图大小为 MxN,经过 Conv layers 下采样 16 倍,则每个 feature map 生成 (M/16)*(N/16)*9
个 anchor
。例如,对于一个尺寸为 62×37 的 feature map,有 62×37×9 ≈ 20000 个 anchor,并输出特征图上面每个点对应的原图 anchor 坐标。这种做法很像是暴力穷举,20000 多个 anchor,哪怕是蒙也能够把绝大多数的 ground truth bounding boxes 蒙中。
因此可知,anchor
的数量和 feature map
大小相关,不同的 feature map 对应的 anchor 数量也不一样。
生成 RPN 网络训练集
在这个任务中,RPN 做的事情就是利用(AnchorTargetCreator
)将 20000 多个候选的 anchor 选出 256 个 anchor 进行分类和回归位置。选择过程如下:
- 对于每一个 ground truth bounding box (
gt_bbox
),选择和它重叠度(IoU)最高的一个anchor
作为正样本; - 对于剩下的 anchor,从中选择和任意一个 gt_bbox 重叠度超过
0.7
的 anchor ,同样作为正样本;特殊情况下,如果正样本不足128
(256 的 1/2),则用负样本凑。 - 随机选择和
gt_bbox
重叠度小于0.3
的 anchor 作为负样本。
本和正样本的总数为256
,正负样本比例1:1
。
positive/negative 二分类
由 \(1\times 1\) 卷积实现,卷积通道数为 \(9\times 2\)(每个点有 9 个 anchor,每个 anchor 二分类,使用交叉熵损失),后面接 softmax 分类获得 positive anchors,也就相当于初步提取了检测目标候选区域 box(一般认为目标在 positive anchors 中)。所以可知,RPN 的一个任务就是在原图尺度上,设置了大量的候选 anchor
,并通过 AnchorTargetCreator
类去挑选正负样本比为 1:1
的 256
个 anchor
,然后再用 CNN
(\(1\times 1\) 卷积,卷积通道数 \(9\times 2\)) 去判断挑选出来的 256
个 anchor
哪些有目标的 positive anchor
,哪些是没目标的 negative anchor
。
在挑选 1:1
正负样本比例的 anchor
用作 RPN
训练集后,还需要计算训练集数据对应的标签。对于每个 anchor
, 对应的标签是 gt_label
和 gt_loc
。gt_label
要么为 1
(前景),要么为 0
(背景),而 gt_loc
则是由 4
个位置参数 \((t_x,t_y,t_w,t_h)\) 组成,它们是 anchor box
与 ground truth bbox
之间的偏移量,因为回归偏移量比直接回归座标更好。在 Faster RCNN
原文,positive anchor
与 ground truth
之间的偏移量 \((t_{x}, t_{y})\) 与尺度因子 \((t_{w}, t_{h})\) 计算公式如下:
t_{x} = (x-x_{a})/w_{a}, t_{y}=(y-y_{a})/h_{a} \\
t_{w} = log(w/w_{a}), t_{h}=log(h/h_{a}) \\
t_{x}^{\ast } = (x^{\ast }-x_{a})/w_{a}, t_{y}^{\ast}=(y^{\ast}-y_{a})/h_{a} \\
t_{w}^{\ast } = log(w^{\ast }/w_{a}), t_{h}^{\ast }=log(h^{\ast }/h_{a})
\end{aligned}\]
参数解释:where \(x, y, w,\) and \(h\) denote the box’s center coordinates and its width and height. Variables \(x, x_{a}\),and \(x^{*}\) are for the predicted box, anchor box, and groundtruth box respectively (likewise for \(y, w, h\)).
计算分类损失用的是交叉熵损失,计算回归损失用的是 Smooth_L1_loss
。在计算回归损失的时候,只计算正样本(前景)的损失,不计算负样本的位置损失。RPN
网络的 Loss 计算公式如下:
公式解释:Here, \(i\) is the index of an anchor in a mini-batch and \(p_{i}\) is the predicted probability of anchor i being an object. The ground-truth label \(p_i^{\ast}\) is 1 if the anchor is positive, and is 0 if the anchor is negative. \(t_{i}\) is a vector representing the 4 parameterized coordinates of the predicted bounding box, and \(t_i^*\) is that of theground-truth box associated with a positive anchor.
RPN 生成 RoIs(Proposal Layer)
RPN
网络在自身训练的同时,还会由 Proposal Layer
层产生 RoIs
(region of interests)给 Fast RCNN(RoIHead)作为训练样本。RPN 生成 RoIs 的过程( ProposalCreator
)如下:
- 对于每张图片,利用它的
feature map
, 计算(H/16)× (W/16)×9
(大概 20000)个anchor
属于前景的概率,以及对应的位置参数,并选取概率较大的12000
个 anchor; - 利用回归的位置参数,修正这
12000
个anchor
的位置,得到RoIs
; - 利用非极大值((Non-maximum suppression, NMS)抑制,选出概率最大的
2000
个RoIs
。
在 RPN 中,从上万个 anchor 中,选一定数目(2000 或 300),调整大小和位置生成
RoIs
,用于 ROI Head/Fast RCNN 训练或测试,然后ProposalTargetCreator
再从RoIs
中会中选择128
个RoIs
用以 ROIHead 的训练)。
注意:RoIs 对应的尺寸是原图大小,同时在 inference
的时候,为了提高处理速度,12000 和 2000 分别变为 6000 和 300。Proposal Layer
层,这部分的操作不需要进行反向传播,因此可以利用 numpy/tensor 实现。
RPN 网络总结
- RPN 网络结构:生成 anchors -> softmax 分类器提取 positvie anchors -> bbox reg 回归 positive anchors -> Proposal Layer 生成 proposals
- RPN 的输出:
RoIs(region of interests)
(形如2000×4
或者300×4
的tensor
)
ROIHead/Fast R-CNN
RPN
只是给出了 2000 个 候选框,RoI Head
在给出的 2000 候选框之上继续进行分类和位置参数的回归。ROIHead
网络包括 RoI pooling
+ Classification
(全连接分类)两部分,网络结构如下:
由于 RoIs
给出的 2000
个 候选框,分别对应 feature map
不同大小的区域。首先利用 ProposalTargetCreator
挑选出 128
个 sample_rois
, 然后使用了 RoI Pooling
将这些不同尺寸的区域全部 pooling
到同一个尺度 \(7\times 7\) 上,并输出 \(7\times 7\) 大小的 feature map
送入后续的两个全连接层。两个全连接层分别完成类别分类和 bbox
回归的作用:
FC 21
用来分类,预测RoIs
属于哪个类别(20个类+背景)FC 84
用来回归位置(21个类,每个类都有4个位置参数)
论文中之所以设定为 pooling 成 7×7 的尺度,其实是为了网络输出是固定大小的
vector or matrix
,从而能够共享 VGG 后面两个全连接层的权重。当所有的 RoIs 都被pooling 成(512×7×7)的 feature map 后,将它 reshape 成一个一维的向量,就可以利用 VGG16 预训练的权重来初始化前两层全连接(FC 4096
)。
Roi pooling
RoI pooling
负责将 128
个 RoI
区域对应的 feature map
进行截取,而后利用 RoI pooling
层输出 \(7\times 7\) 大小的 feature map
,送入后续的全连接网络。从论文给出的 Faster R-CNN
网络结构图中,可以看到 Rol pooling
层有 2
个输入:
- 原始的
feature maps
RPN
输出的RoIs
(proposal boxes
, 大小各不相同)
RoI Pooling 的两次量化过程:
(1) 因为 proposals
是对应 \(M\times N\) 的原图尺寸,所以在原图上生成的 region proposal 需要映射到 feature map
上(坐标值缩小 16 倍),需要除以 \(16/32\)(下采样倍数),这时候边界会出现小数,自然就需要量化。
(2) 将 proposals
对应的 feature map
区域水平划分成 \(k\times k\) (\(7\times 7\)) 的 bins
,并对每个 bin
中均匀选取多少个采样点,然后进行 max pooling
,也会出现小数,自然就产生了第二次量化。
Mask RCNN 算法中的 RoI Align 如何改进:
ROI Align
并不需要对两步量化中产生的浮点数坐标的像素值都进行计算,而是设计了一套优雅的流程。如下图,其中虚线代表的是一个 feature map
,实线代表的是一个 roi
(在这个例子中,一个 roi
是分成了 \(2\times 2\) 个 bins
),实心点代表的是采样点,每个 bin
中有 4
个采样点。我们通过双线性插值的方法根据采样点周围的四个点计算每一个采样点的值,然后对着四个采样点执行最大池化操作得到当前 bin
的像素值。
RoI Align
具体做法:假定采样点数为 4
,即表示,对于每个 \(2.97\times 2.97\) 的 bin
,平分四份小矩形,每一份取其中心点位置,而中心点位置的像素,采用双线性插值法进行计算,这样就会得到四个小数坐标点的像素值。
更多细节内容可以参考 RoIPooling、RoIAlign笔记。
ROI Head 训练
RPN 会产生大约 2000 个 RoIs ,ROI Head 在给出的 2000 个 RoIs 候选框基础上继续分类(目标分类)和位置参数回归。注意,这 2000 个 RoIs 不是都拿去训练,而是利用 ProposalTargetCreator(官方源码可以查看类定义) 选择 128 个 RoIs 用以训练。选择的规则如下:
- 在和
gt_bboxes
的IoU
大于0.5
的RoIs
内,选择一些(比如32
个)作为正样本 - 在和
gt_bboxes
的IoU
小于等于0
(或者0.1
)RoIs
内,的选择一些(比如 \(128 - 32 = 96\) 个)作为负样本
选择出的 128
个 RoIs
,其正负样本比例为 3:1
,在源码中为了便于训练,还对他们的 gt_roi_loc
进行标准化处理(减去均值除以标准差)。
- 对于分类问题, 和
RPN
一样,直接利用交叉熵损失。 - 对于位置的回归损失,也采用 Smooth_L1 Loss, 只不过只对正样本计算损失,而且是只对正样本中的对应类别的 \(4\) 个参数计算损失。举例来说:
- 一个
RoI
在经过FC84
后会输出一个84
维的loc
向量。 如果这个RoI
是负样本, 则这84
维向量不参与计算L1_Loss
。 - 如果这个
RoI
是正样本,且属于 类别 \(k\), 那么向量的第 \((k×4,k×4+1 ,k×4+2, k×4+3)\) 这 \(4\) 位置的值参与计算损失,其余的不参与计算损失。
- 一个
ROI Head 测试
ROI Head
测试的时候对所有的 RoIs
(大概 300
个左右) 计算概率,并利用位置参数调整预测候选框的位置,然后再用一遍极大值抑制(之前在 RPN
的ProposalCreator
也用过)。这里注意:
- 在
RPN
的时候,已经对anchor
做了一遍NMS
,在Fast RCNN
测试的时候,还要再做一遍,所以在Faster RCNN框架中,NMS操作总共有 2 次。 - 在
RPN
的时候,已经对anchor
的位置做了回归调整,在Fast RCNN
阶段还要对RoI
再做一遍。 - 在
RPN
阶段分类是二分类,而Fast RCNN/ROI Head
阶段是21
分类。
概念理解
在阅读 Faster RCNN
论文和源码中,我们经常会涉及到一些概念的理解。
四类损失
在训练 Faster RCNN
的时候有四个损失:
RPN
分类损失:anchor
是否为前景(二分类)RPN
位置回归损失:anchor
位置微调RoI
分类损失:RoI
所属类别(21
分类,多了一个类作为背景)RoI
位置回归损失:继续对RoI
位置微调
四个损失相加作为最后的损失,反向传播,更新参数。
三个 creator
Faster RCNN 官方源码中有三个 creator
类分别实现不同的功能,不能弄混,各自功能如下:
AnchorTargetCreator
: 负责在训练RPN
的时候,从上万个anchors
中选择一些(比如256
)进行训练,并使得正负样本比例大概是1:1
。同时给出训练的位置参数目标,即返回gt_rpn_loc
和gt_rpn_label
。ProposalTargetCreator
: 负责在训练RoIHead/Fast R-CNN
的时候,从RoIs
选择一部分(比如128
个,正负样本比例1:3
)用以训练。同时给定训练目标, 返回(sample_RoI
,gt_RoI_loc
,gt_RoI_label
)。ProposalCreator
: 在RPN
中,从上万个anchor
中,选择一定数目(2000
或者300
),调整大小和位置,生成RoIs
,用以Fast R-CNN
训练或者测试。
其中 AnchorTargetCreator
和 ProposalTargetCreator
类是为了生成训练的目标,只在训练阶段用到,ProposalCreator
是 RPN
为 Fast R-CNN
生成 RoIs
,在训练和测试阶段都会用到。三个 creator
的共同点在于他们都不需要考虑反向传播(因此不同框架间可以共享 numpy
实现)。
参考资料
二阶段目标检测网络-Faster RCNN 详解的更多相关文章
- 物体检测丨Faster R-CNN详解
这篇文章把Faster R-CNN的原理和实现阐述得非常清楚,于是我在读的时候顺便把他翻译成了中文,如果有错误的地方请大家指出. 原文:http://www.telesens.co/2018/03/1 ...
- 目标检测算法Faster R-CNN
一:Faster-R-CNN算法组成: 1.PRN候选框提取模块: 2.Fast R-CNN检测模块. 二:Faster-R-CNN框架介绍 三:RPN介绍 3.1训练步骤:1.将图片输入到VGG或Z ...
- [转]CNN目标检测(一):Faster RCNN详解
https://blog.csdn.net/a8039974/article/details/77592389 Faster RCNN github : https://github.com/rbgi ...
- 【目标检测】Faster RCNN算法详解
Ren, Shaoqing, et al. “Faster R-CNN: Towards real-time object detection with region proposal network ...
- (二)目标检测算法之R-CNN
系列博客链接: (一)目标检测概述 https://www.cnblogs.com/kongweisi/p/10894415.html 概述: 1.目标检测-Overfeat模型 2.目标检测-R-C ...
- 第三十五节,目标检测之YOLO算法详解
Redmon, J., Divvala, S., Girshick, R., Farhadi, A.: You only look once: Unified, real-time object de ...
- faster rcnn 详解
转自:https://zhuanlan.zhihu.com/p/31426458 经过R-CNN和Fast RCNN的积淀,Ross B. Girshick在2016年提出了新的Faster RCNN ...
- 【转】目标检测之YOLO系列详解
本文逐步介绍YOLO v1~v3的设计历程. YOLOv1基本思想 YOLO将输入图像分成SxS个格子,若某个物体 Ground truth 的中心位置的坐标落入到某个格子,那么这个格子就负责检测出这 ...
- 目标检测 1 : 目标检测中的Anchor详解
咸鱼了半年,年底了,把这半年做的关于目标的检测的内容总结下. 本文主要有两部分: 目标检测中的边框表示 Anchor相关的问题,R-CNN,SSD,YOLO 中的anchor 目标检测中的边框表示 目 ...
- 目标检测:SSD算法详解
一些概念 True Predict True postive False postive 预测为正类 False negivate True negivate 预测为负类 真实为 ...
随机推荐
- 安全强化Linux 服务器的七个步骤
这篇入门文章将向你介绍基本的 Linux 服务器安全知识.虽然主要针对 Debian/Ubuntu,但是你可以将此处介绍的所有内容应用于其他 Linux 发行版.我也鼓励你研究这份材料,并在适用的情况 ...
- Windows界面个人常用快捷键
分享一下个人常用快捷键. 说明:字母排序规则遵循字母表(a->z) 快捷键 介绍 windows+d 由当前应用直接返回桌面,再按一次回到应用 windows+e 打开文件资源管理器 windo ...
- PHP全栈开发(五):PHP学习(1.基础语法)
PHP脚本在服务器上执行,然后将纯HTML的结果返回给浏览器. 听上去很厉害的样子,所以说PHP是服务器端的语言啦.HTML才是前端啦. PHP文件的默认文件扩展名是".php" ...
- Python全栈工程师之从网页搭建入门到Flask全栈项目实战(1) - ES6标准入门和Flex布局
1.简述 1.什么是ES6?ES6, 全称 ECMAScript 6.0,是 JavaScript 的下一个版本标准,2015年6月份发版.ES6的主要目的是为了解决 ES5 的先天不足. 2.了解E ...
- Hbase之权限控制
Hbase之权限控制 -- 只读权限 grant '{userName}','R','{namespaceName:tableName}' -- 写入权限 grant '{userName}','W' ...
- API接口笔记
1.基类 定义返回信息 protected $user; //用户表 protected $token; //用户token protected $isSuccess = FALSE; //状态是 ...
- Linux实战笔记__Centos7上搭建DVWA网站(基于宝塔)
安装宝塔套件 宝塔官网有远程安装代码https://www.bt.cn/bbs/thread-19376-1-1.html 下载DVWA并上传至/www/wwwroot目录 下载地址: 配置数据库连接 ...
- JUC(11)各种锁的理解(公平锁、可重入锁、自旋锁、死锁)
文章目录 1.公平锁.非公平锁 2.可重入锁 3.自旋锁 4.死锁 1.公平锁.非公平锁 公平锁:非常公平.不能插队.必须先来后到 非公平锁:非常不公平.可以插队.(默认非公平) 可以修改为公平锁 2 ...
- AT24C02
AT24C02是一款拥有256bytes(32Page)的EEPROM. 一 :特点(部分) 1:双线接口: 2:双向数据传输协议: 3:400KHz波特率: 4:硬件写保护: 5:最大5ms写入同步 ...
- while循环条件不成立却无法跳出死循环的问题
在进入循环的时候,实际上是将A从内存加载到寄存器里面运行的,在整个循环中,A这个变量都只是在读取寄存器里面的值. 而当进入中断的时候,中断里面会从内存加载A到寄存器,修改完之后又存到内存里,然后退出中 ...