全卷积目标检测:FCOS
全卷积目标检测:FCOS
FCOS: Fully Convolutional One-Stage Object Detection
原文链接:https://arxiv.org/abs/1904.01355
代码链接:https://github.com/tianzhi0549/FCOS/
摘要
本文提出了一种完全卷积的一级目标检测器(FCOS),以模拟语义分割,以逐像素预测的方式解决目标检测问题。几乎所有最先进的目标探测器,如RetinaNet、SSD、YOLOv3和更快的R-CNN,都依赖于预定义的锚定盒。提出的探测器FCOS是锚箱自由,通过消除预先定义的锚箱集合,FCOS完全避免了训练过程中锚箱计算重叠等与锚箱相关的复杂计算。更重要的是,还避免了与锚箱相关的所有超参数,这些参数通常对最终的检测性能非常敏感。ResNeXt-64x4d-101的FCOS在单模型单尺度的AP中,仅采用后处理非最大抑制(NMS),就达到了44.7%,大大超过了以往的单级检测器,具有简单的优点。首次展示了一种更简单灵活的检测框架,以提高检测精度。希望所提出的FCOS框架可以作为许多其他实例级任务的简单而强大的替代方案。
算法流程
本文贡献
1. 现在,检测已与许多其他FCN可解决的任务(如语义分割)统一在一起,使重用这些任务中的思想变得更加容易。
2. 检测变得无提议(proposal)且无锚(anchor),这大大减少了设计参数的数量。设计参数通常需要进行急速调整,并涉及许多技巧以实现良好的性能。因此新检测框架使检测器(尤其是其训练)变得相当简单。
3. 通过消除锚框,新型检测器完全避免了与锚框相关的复杂计算,例如IOU计算以及训练期间锚框与真值之间的匹配,从而加快了训练和测试的时间,并且减少了训练内存。
4. 在没有奇淫技巧的情况下一阶段检测器中获得了最先进的结果。还表明,提出的FCOS可以在两阶段检测器中用作区域提议网络(RPN),并且比基于锚的RPN对应项实现明显更好的性能。鉴于更简单的无锚检测器的性能更好,鼓励社区重新考虑在物体检测中使用锚框的必要性,目前,锚框被视为事实上的检测标准。
5. 提议的检测器可以立即扩展以解决其他视觉任务,而只需进行最小的修改,包括实例分割和关键点检测。这种新方法可以成为许多实例预测问题的新基准。
主要框架
FCOS的网络体系结构,其中C3,C4和C5表示encoder的特征图,P3至P7是用于最终预测的特征。H×W是要素图的高度和宽度。“ / s”(s = 8、16,...,128)是功能图到输入图像的水平下采样率。
结论
本文提出了一种无锚和无提案的单级探测器FCOS。实验表明,FCOS与目前流行的基于锚的单级检测器(RetinaNet、YOLO和SSD)相比具有优势,但设计复杂度要低得多。FCOS完全避免了与锚定盒相关的所有计算和超参数,并以每像素预测的方式解决目标检测问题,类似于语义分割等其他密集预测任务。FCOS还实现了一级探测器的实时性能。还证明了FCOS可以作为两级检测器FasterR-CNN中的rpn,并在很大程度上优于其rpn。考虑到其有效性和效率,希望FCOS可以作为当前主流的锚定探测器的一个强大而简单的替代品。FCOS可以扩展到解决许多其他即时级别的识别任务。
1. 整个算法步骤如下,
- 步骤1. 对输入的图片进行预处理操作
- 步骤2. 搭建如图所示的网络架构,将输入数据送入backbone网络中获取输入数据的feature_map,在feature_map的每一点上面进行回归操作,进行网络训练获取网络模型
- 步骤3. 将预训练的网络模型应用到测试图片中,从特征金字塔的多个Head中获得预测的结果
- 步骤4. 使用NMS等后处理操作获得最终的结果
2. 算法细节
对于基于anchor的检测器, 会在得到的feature map的每一位置上使用预先定义好的anchors,而FCOS的改动点是对于特征图Fi上的每个位置,可以将其映射回输入图像,如果这个映射回原始输入的点在相应的真值的目标框范围之内,而且类别标签对应,将其作为训练的正样本块. 换句话说检测器直接将位置视为训练样本,而不是基于锚的检测器中的锚框,这与用于语义分割的FCN相同。接着,回归的目标是(l,t,r,b),即中心点与目标框的left、top、right和bottom之间的距离,具体如下图所示:
当然还有一种情况,就是一个location和多个box有关,作者考虑如果一个位置在多个box的内部,将其看左边一个模糊样本,针对这样样本文中采样的方法是直接选择择面积最小的边界框作为其回归目标。由于网络中FPN的存在,导致这样的模糊样本的数量大大减少.
3.损失函数
L_cls是凯明大佬提出的focal loss, L_reg是IOU损失函数,作者采用的GIOU.
4.中心度
虽然使用了FPN,但是FCOS和anchor-based 的检测器还是有些差距. 即会引入一些低质量的box,即远离目标中心的检测框,而Center-ness的作用就是用来很好的抑制这些低质量的box的产生,它的优点是比较简单。不需要引入其它的超参数。它的位置是在Head网络的分类网络分支下面。对于给定的一个位置的回归目标的l、t、r、b而言,center-ness目标的定义如下所示:
实验主要结果
1.消融实验
1.1 子模块对比
是否使用中心度的FCOS在COCO2014上的结果
1.2 SOTA算法对比
FCOS与其他最先进的两阶段或一阶段检测器(单模型和单标度结果)相比。在具有相同backbone的AP中,FCOS优于基于锚的同类RetinaNet 2.4%MAP。FCOS还以更低的设计复杂度胜过了最新的无锚点单阶段探测器CornerNet
的实验是在大规模检测基准COCO上进行的[16]。按照常规做法[15,14,24],使用COCO trainval35k分割(115Kimages)进行训练和minival分割(5Kimages)作为消融研究的验证。通过将检测结果上传到评估服务器,将主要结果报告给测试开发人员分割(20K个图像)。
Conclusion
中心-nessvs.IoUNet:
蒋等人的中心和观点。“获取精确目标检测的定位证据”与不同的方法有着相似的目的(即抑制低质量预测)。IoUNet训练一个单独的网络来预测预测边界框和地面真值框之间的IoU分数。中心度作为探测器的一部分,只有一层,与检测联合训练,因此简单得多。此外,“中心度”不作为预测边界框的输入。相反,它直接访问位置预测高质量边界框的能力。
BPR和歧义分析:
不打算将“按特定IoU召回”与“按框内像素召回”进行比较。表1的主要目的是表明FCOS的召回上界与锚定视网膜的召回上界非常接近(98.4%对99.23%)。其他IoU阈值的BPR列为视网膜网官方代码中使用的阈值。此外,没有证据表明,fcos的回归目标很难训练,因为它们更分散。FCOS实际上产生了更精确的边界框。在训练过程中,通过选择最小面积的地面真值盒来处理同一FPN水平上的模糊问题。测试时,如果同一类的两个对象A和B有重叠,无论重叠中的位置预测的是哪一个对象,预测都是正确的,漏掉的预测只能由属于它的位置来预测。在A和B不属于同一类的情况下,重叠中的一个位置可能会预测A的类,但会回归B的边界框,这是一个错误。这就是为什么只计算不同类之间的模糊性。此外,如表8所示,这种模糊性似乎不会使FCOS比AP中的RetinaNet更糟。
附加融合研究:
如表8所示,香草型FCOS的性能与RetinaNet相当,设计简单,网络输出少9×9。此外,FCOS比单锚的RetinaNet更有效。对于testdev上的2%增益,除了表8中的组件带来的性能增益外,推测不同的训练细节(例如,学习率计划)可能会导致性能的轻微差异。
中心性视网膜网:
中心度不能在每个位置有多个锚定框的视网膜网络中直接使用,因为特征地图上的一个位置只有一个中心度得分,但不同锚定框的位置要求不同的“中心度”(注意,中心度对于正/负样本来说是“软”阈值)。对于基于锚的RetinaNet,锚箱和地面真值箱之间的IoU分数可以作为“中心度”的替代。
正样本与视网膜网重叠:
想强调的是,中心性只在测试时起作用。训练时,地面真相框中的所有位置都标记为正边界框。
全卷积目标检测:FCOS的更多相关文章
- CVPR目标检测与实例分割算法解析:FCOS(2019),Mask R-CNN(2019),PolarMask(2020)
CVPR目标检测与实例分割算法解析:FCOS(2019),Mask R-CNN(2019),PolarMask(2020)1. 目标检测:FCOS(CVPR 2019)目标检测算法FCOS(FCOS: ...
- FCOS : 找到诀窍了,anchor-free的one-stage目标检测算法也可以很准 | ICCV 2019
论文提出anchor-free和proposal-free的one-stage的目标检测算法FCOS,不再需要anchor相关的的超参数,在目前流行的逐像素(per-pixel)预测方法上进行目标检测 ...
- Anchor-free目标检测综述 -- Dense Prediction篇
早期目标检测研究以anchor-based为主,设定初始anchor,预测anchor的修正值,分为two-stage目标检测与one-stage目标检测,分别以Faster R-CNN和SSD作 ...
- 使用Caffe完成图像目标检测 和 caffe 全卷积网络
一.[用Python学习Caffe]2. 使用Caffe完成图像目标检测 标签: pythoncaffe深度学习目标检测ssd 2017-06-22 22:08 207人阅读 评论(0) 收藏 举报 ...
- DeepLearning.ai学习笔记(四)卷积神经网络 -- week3 目标检测
一.目标定位 这一小节视频主要介绍了我们在实现目标定位时标签该如何定义. 上图左下角给出了损失函数的计算公式(这里使用的是平方差) 如图示,加入我们需要定位出图像中是否有pedestrian,car, ...
- [DeeplearningAI笔记]卷积神经网络3.1-3.5目标定位/特征点检测/目标检测/滑动窗口的卷积神经网络实现/YOLO算法
4.3目标检测 觉得有用的话,欢迎一起讨论相互学习~Follow Me 3.1目标定位 对象定位localization和目标检测detection 判断图像中的对象是不是汽车--Image clas ...
- deeplearning.ai 卷积神经网络 Week 3 目标检测 听课笔记
本周的主题是对象检测(object detection):不但需要检测出物体(image classification),还要能定位出在图片的具体位置(classification with loca ...
- R-FCN:基于区域的全卷积网络来检测物体
http://blog.csdn.net/shadow_guo/article/details/51767036 原文标题为“R-FCN: Object Detection via Region-ba ...
- deeplearning.ai 卷积神经网络 Week 3 目标检测
本周的主题是对象检测(object detection):不但需要检测出物体(image classification),还要能定位出在图片的具体位置(classification with loca ...
随机推荐
- 功能:SpringBoot日志配置详情
SpringBoot日志配置详情 一.介绍 在所有的项目中,日志是必不可少的,为了高效清晰的查找日志,可以配置日志输出的等级和格式. 在配置后,可以自定义输出日志到指定目录,可以按照天数来分割日志,可 ...
- 【SpringBoot】SpringBoot集成jasypt数据库密码加密
一.为什么要使用jasypt库? 目前springboot单体应用项目中,甚至没有使用外部配置中心的多服务的微服务架构的项目,开发/测试/生产环境中的密码往往是明文配置在yml或properties文 ...
- hdu4268贪心
题意: 两个人有一些图片,矩形的,问a最多能够覆盖b多少张图片.. 思路: 明显是贪心,但是有一点很疑惑,如果以别人为主,每次都用自己最小的切能覆盖敌人的方法就wa,而以自己为 ...
- Python第一章-基础知识
第一章:基础知识 1.1 安装python. 直接官网下载最新的python然后默认安装就可以了,然后开始菜单里找到pyhton *.*.* Shell.exe运行python的交互shell ...
- WSL2+Ubuntu配置Java Maven Hadoop Spark环境
所需文件: 更新日期为2021/5/8: Linux 内核更新包 JDK1.8 maven3.8.1 hadoop3.3.0 spark3.1.1 WSL?WSL2? WSL是适用于 Linux 的 ...
- (邹博ML)矩阵和线性代数
主要内容 矩阵 特征值和特征向量 矩阵求导 矩阵 SVD的提法 奇异值分解(Singular Value Decomposition)是一种重要的矩阵分解方法,可以看做对称方阵在任意矩阵上的推广. 假 ...
- SpringBoot 项目 部署 war方式
SpringBoot部署 –war方式 步骤1部署方式 Springboot 和我们之前学习的web 应用程序不一样,其本质上是一个 Java 应用程序,那么又如何部署呢? 通常来说,Springbo ...
- Catalan数以及相关性质的证明
\(Catalan\) 数相关证明 Mushroom 2021-5-14 \(Catalan\)数的定义 给定一个凸\(n + 1\)边形, 通过在内部不相交的对角线,把它划分成为三角形的组合,不同的 ...
- CodeForces - 879
A 题意:就是一共有n个医生,每个医生上班的时间是第Si天,之后每隔d天去上班,问最少多少天能够访问完这n名医生 思路:直接进攻模拟就可以 代码: 1 #include<iostream> ...
- CRM是什么意思,有哪些作用?
我们总会听到一些人提到CRM或CRM系统,但是通常不知道它的含义,所以今天小Z就来详细介绍一下CRM. GartnerGroup1993年首次提出了这一概念:所谓的客户关系管理就是为企业提供一个全面的 ...