转载请注明出处:https://www.cnblogs.com/White-xzx/

原文地址:https://arxiv.org/abs/1811.07130

如有不准确或错误的地方,欢迎交流~

【作者的motivation】

  https://zhuanlan.zhihu.com/p/53241545

  当前的行人重识别方法,如PCB, MGN,为了使网络学习到更精密有区分度的特征,一般将最后得到的feature map进行水平切分然后分别求loss,简单做水平切分可能会造成一块完整的feature,如背包,被丢失,失去信息。所以他们都做了相应的改进,如PCB加上了RPP,所以PCB之后加上了RPP把没有切分好的feature重新划分,需要进行两阶段的训练。而MGN的则是用了一个比较复杂包含多种切分的方法的网路,切两次,切三次,最后把这些feature融合起来。

  切分feature map的本质是为了不让网络太关注于那些太显而易见的全局特征。因为行人重识别是一个zero shot learning的问题,就是说训练中的人和测试中的人是不同的人,而且主流的行人数据集都较小,容易过拟合, 导致这些在训练的时候表现很好的全局特征在测试的时候反而达不到最好的效果。那么除了这样水平切分特征之外还有什么方法能够达到同样的效果呢?我们提出了一种新的方法叫做Batch Feature Erasing。

【Abstract】

  这篇文章展示了行人ReID的一个新的训练机制——批特征擦除(Batch Feature Erasing,BFE)。作者运用这个方法来训练一个新的网络,该网络由以ResNet50为主网络和两个分支组成,这两个分支分别由一个全卷积分支和一个特征擦除分支构成。当训练特征擦除分支时,随机擦除整个batch中所有特征图的相同区域。然后通过两个分支的特征级联来进行行人ReID。该方法虽然简单,但在行人ReID中达到了最新水平,同时能够应用于一般的图像检索问题的一般测度学习任务。例如,该方法在CUHK03-Detect数据集上的Rank1达到了75.4%的准确率,在Stanford Online Products数据集上达到了83.0%的Recall-1分数,大幅超过了现有的方法。

【Introduction】

  行人ReID相当于,从没有视觉重叠的多个摄像头检测到的不同行人图片中,鉴定是否为同一个人。这在视频监控中有重要应用,也是一个有意义的计算机视觉挑战。近期的大部分工作都聚焦于学习合适的特征表达来达到对姿势、光照、视觉角度改变的鲁棒性来促进行人ReID。其中,许多工作设法定位不同的肢体部分和对齐相关联的特征,其他工作则使用粗分割和注意力选择网络来提高特征学习。

  这篇文章研究训练行人ReID神经网络的优化过程。作者展示了一个简单但有效的训练机制,BFE,其随机裁剪掉同一batch中所有图片学习到的特征图的一个区域。不同于DropBlock,作者提倡使用批处理,即同一batch中的所有图片使用相同的方式裁剪。当所有的输入图片粗略地对齐,这种批操作对测度学习任务尤其有效,如行人ReID的场景。直观上来说,它禁用了同一batch的所有图片中与语义部分相关的所有特征,如头,腿,包等等,来强化网络对剩余特征学习更好的表达。如图1。

图1:(a)同一batch的输入图片。

(b)来自上一个基础网络resnet50的输出,通过特征向量L2正则化的灰度强度可视化的相应特征图。

  这些简单的训练策略使行人ReID的结果得到了提高。Resnet-50和hard triplet loss损失函数与BFE的网络结构,在CUHK03-

Detect 数据集上达到了74.4%的Rank1准确率,这比最新成果高了7.6%。

  BFE也能够被不同的测量学习方案所采用,包括triplet loss、lifted structure loss、weighted sampling based margin loss和histogram loss。在CUB200-2011、 CARS196、In Shop Clothes Retrieval数据集和 Stanford online products数据集上进行图像检索任务的测试,BFE也能够在不同方案中同样提高Rank1准确率。

【Related work】

【Problem Formulation】

  行人ReID经常被公式表示为一个图片检索问题,其目标是从一个大的候选图片集合中找到最相似的图片。这个检索问题可以通过找到标定函数f(·)和度量函数D(· , ·)来解决,其通过标定一张输入图片x为高维特征向量f(x),然后再通过可度量的D(f(x), f(y))来度量两个标定向量f(x)和f(y)的的相似度。

  在这篇文章中,作者简单地使用了欧氏距离作为度量函数D(· ,  ·)和训练一个神经网络来学习标定函数f(·)。可以用如下公式表达一般的图像检索问题,提供C类的数据集X,并将X划分为拥有Ctrain类的训练集Xtrain和拥有Ctest类的测试集Xtest,注意Ctrain和Ctest的没有相同的类别。然后在Xtrian图片样本上使用合适的损失函数训练一个神经网络来学习标定函数f(·)。在测试中,首先对Xtest中的所有图片计算特征标定来建立一个标定向量的数据库Ftest。然后对每一张Xtest中的测试图q,计算它的标定fq,并在标定数据库Ftest中搜索K-最近邻,标定的检索图片本身不包括在那些KNN中。对每一个返回的KNN结果,如果其类别与检索图片的类别是一致的我们则认为是正确的。

  因为每个人可以看作是同一个类,所以行人ReID问题能够被当做一个图像检索问题。另外,每张行人图片都有一个摄像机ID来指明是由哪个摄像机抓拍到的。在人ReID中,在测试集Xtest中每个人的检索图片被选来建立检索数据库Xquery,剩余的测试图片组成gallery数据集Xgallery。换句话说,X被分割成train、query和gallery,train有Ctrain个ID,query和gallery拥有相同的Ctest个ID。训练过程与一般的图片检索相同,在测试时,计算gallery数据集的标定数据库Fgallery并在query数据集中搜索每张检索图片的KNN结果。为了使问题更具有挑战性,作者仅认为当具有相同人ID和不同摄像机ID时,检索图片返回的结果是正确的。

【Batch Feature Erasing (BFE) Network】

  【Backbone Network】作者使用ResNet50作为backbone来提特征,并对网络结果进行了轻微的改动,在stage4中没有采用下采样的操作,从而得到尺寸为2048×24×8的更大特征图。

  【ResNet-50 Baseline】在backbone网络顶部添加了一个global branch的分支。确切地说,在残差网络stage4 后使用了全局平均池化来得到一个2048维特征向量,通过一个1×1卷积层、bn层和一个ReLU层维度减少为512,输入triplet loss和softmax loss,作者将这个全局平均池化分支和backbone一起表示为ResNet50.

    【Baseline】

   【Batch Feature Erasing Layer】在单个batch中,输入图片由backbone网络产生的特征向量T,被BFE层随机擦除相同的区域。所有的擦除区域都以零为输出,所有的算法细节都在Algorithm 1。

    在Figure 2中可视化了BFE层在triplet loss中的应用,同时其也能在其他损失函数中采用。擦除区域的高度和宽度会因不同task而不同。但是通常擦除的区域必须足够大到能够覆盖输入特征图的一个语义区域。

 Figure 2:BFE在triplet loss函数中的表示

    【Structure of the BFE Network】Figure 3展示了BFE网络的结构,由global branch和特征擦除branch组成。global branch有两个目的。第一,为了提供全局特征表达;第二,用于监督特征擦除分支的训练。特征擦除分支使用BFE层处理特征图T并提供批量擦除特征图T'。然后用全局最大池化得到2048维的特征向量,最终在triplet loss和softmax loss中减到1024维,网络中没有用到Dropout。

  应用在特征图T上的多层卷积ResNet bottleneck模块是十分重要的,如果缺少该模块,则全局平均池化层和全局最大池化必须同时应用在特征图T上,从而造成网络难以收敛。根据作者的观察,经过特征擦除层后平均池化是不稳定的,因此在特征擦除分支中使用全局最大池化代替平均池化。

  来自global branch和feature erasing branch的特征进行级联然后作为一张行人图片的标定向量。有三点值得注意的是,①BFE层不会增加网络大小;②BFE层能够应用到除了人ReID的其他度量学习任务;③BFE超参数能够经过微调而不改变网络结构来适应不同的task。

Figure 3:batch hard triplet loss的BFE网络结构在人ReID中的表示。在ResNet50 stage4之后添加了 global branch,feature erasing branch引入了一个掩膜来裁剪 bottleneck特征图中的一个较大区域;在测试时,对来自两个分支的特征进行级联来作为最终的行人图片的描述子。

  【Loss function】损失函数是在两个分支上soft margin batch-hard triplet loss与softmax loss的和。soft margin batch-hard triplet loss 的定义如下,

P:不同人的数量;K:每个人的图片数量;所以在一个batch中有P×K个的三元组。

lBH(·) 表示batch-hard triplet loss。对每一个锚图片Xai,从ID都为i的图片中选择最大距离的图片作为正图片Xpi ,在不同的ID=j的图片中选择距离最小的图片作为负图片Xnj。因此,Xai、Xpi、Xaj建立了一个三元组。lSBH(·) 是在一个batch中的所有三元组的soft margin batch-hard triplet loss之和。D(·, ·) 表示欧氏距离函数,fθ 是BFE网络学习的特征标定函数。

【Experiments】 

  训练时,输入图片resize为384×128,然后通过水平翻转、归一化和随机擦除进行数据增强。在BFE层,作者设置擦除的高度比率为0.5,宽度比率为1.0,这些比率在所有的人reid数据集中设置均相同。测试图片被resize到384×128,仅通过归一化进行数据增强。

  对每张检索图片,我们将所有的gallery图片按它们与检索图片欧氏距离大小进行降序排列,然后计算CMC曲线。作者使用rank1的准确率和mAP作为评价标准。具有相同人ID和摄像机ID的结果没有被计算在内,值得注意的是,为了简便,所有的实验都是单一查询设置并没有reranking。

   作者用了4个GTX1080 GPU,batchsize为128,每个id包含4张图片在一个batch中,所以有32个id每个batch;使用batch hard soft margin triplet loss和Adam优化器。

    实验结果比较,BFE256+512表示global branch的特征维度为256,feature erasing branch的特征维度为512,

    【Benefit of Triplet and Softmax Joint Training.】以下显示了Market1501在不同的loss组合训练的效果,联合训练的方法对提高性能有帮助。

    【Benefit of Global and Feature Erasing Branches】没有global branch的情况下,BFE网络的表现比backbone网络的表现略差。BFE层相当于正则化方法的作用,两个分支能够完成同时从global branch学习突出的外貌特征,从 feature erasing branch学习可区分的细粒度特征,两个分支互相作用并对最终的结果同样重要。

    【Comparison with Dropout Strategies】作者在实验中,用BFE方法与各种Dropout技术进行了对比。

        

      【Impact of BFE Layer Hyper-parameters】【Impact of Embedding Dimensions】擦除比率参数对性能的CMC分数和mAP的影响。(a)固定了宽度比率为1,高度比率变化对指标的影响。(b)在 CUHK03-Detect数据集上,特征维度对指标的影响。高维度的特征描述子具有更加的表达性但在测试时容易过拟合。

    【Average Pooling vs Max Pooling in Feature Erasing Branch】实验表明,feature erasing branch中,在不同的高度擦除比下,最大池化对收敛的鲁棒性更强、对性能提高影响更大。

    【Image Retrieval Experiments】在图片检索数据集上直接进行图片检索实验,训练图片的操作:保持宽高比,经过填充和resize为256*256,再随机裁剪为224*224。测试时,CUB200-2011, In-Shop Clothes数据集的图片填充较短边,然后缩放到256*256,其他数据集直接缩放到256*256,高度和宽度的擦除比都设置为0.5,

      【Adapt to Other Metric Learning Methods】采用其他测度损失函数的性能对比

【论文阅读】Batch Feature Erasing for Person Re-identification and Beyond的更多相关文章

  1. [论文阅读笔记] node2vec Scalable Feature Learning for Networks

    [论文阅读笔记] node2vec:Scalable Feature Learning for Networks 本文结构 解决问题 主要贡献 算法原理 参考文献 (1) 解决问题 由于DeepWal ...

  2. 【医学图像】3D Deep Leaky Noisy-or Network 论文阅读(转)

    文章来源:https://blog.csdn.net/u013058162/article/details/80470426 3D Deep Leaky Noisy-or Network 论文阅读 原 ...

  3. 论文阅读:Face Recognition: From Traditional to Deep Learning Methods 《人脸识别综述:从传统方法到深度学习》

     论文阅读:Face Recognition: From Traditional to Deep Learning Methods  <人脸识别综述:从传统方法到深度学习>     一.引 ...

  4. YOLO 论文阅读

    YOLO(You Only Look Once)是一个流行的目标检测方法,和Faster RCNN等state of the art方法比起来,主打检测速度快.截止到目前为止(2017年2月初),YO ...

  5. [论文阅读]阿里DIN深度兴趣网络之总体解读

    [论文阅读]阿里DIN深度兴趣网络之总体解读 目录 [论文阅读]阿里DIN深度兴趣网络之总体解读 0x00 摘要 0x01 论文概要 1.1 概括 1.2 文章信息 1.3 核心观点 1.4 名词解释 ...

  6. 深度学习笔记(七)SSD 论文阅读笔记

    一. 算法概述 本文提出的SSD算法是一种直接预测目标类别和bounding box的多目标检测算法.与faster rcnn相比,该算法没有生成 proposal 的过程,这就极大提高了检测速度.针 ...

  7. 论文阅读 | FCOS: Fully Convolutional One-Stage Object Detection

    论文阅读——FCOS: Fully Convolutional One-Stage Object Detection 概述 目前anchor-free大热,从DenseBoxes到CornerNet. ...

  8. 论文阅读 | FoveaBox: Beyond Anchor-based Object Detector

    论文阅读——FoveaBox: Beyond Anchor-based Object Detector 概述 这是一篇ArXiv 2019的文章,作者提出了一种新的anchor-free的目标检测框架 ...

  9. 论文阅读 | Region Proposal by Guided Anchoring

    论文阅读 | Region Proposal by Guided Anchoring 相关链接 论文地址:https://arxiv.org/abs/1901.03278 概述 众所周知,anchor ...

随机推荐

  1. 深入理解ajax系列第八篇——表单提交

    前面的话 在以前,网站的用户与后端交互的主要方式是通过HTML表单的使用.表单的引入在1993年,由于其简单性和易用性,直到电子商务出现之前一直保持着重要位置.理解表单提交,对于更深入地理解ajax是 ...

  2. MT【179】最大最小老问题

    求$\max\{x^2+2y+20,y^2-6x+12\}$的最小值______ 提示:$4t\ge 3(x^2+2y+20)+y^2-6x+12=3(x-1)^2+(y+3)^2+60\ge 60, ...

  3. bzoj1040 骑士

    Description Z国的骑士团是一个很有势力的组织,帮会中汇聚了来自各地的精英.他们劫富济贫,惩恶扬善,受到社会各界的赞扬.最近发生了一件可怕的事情,邪恶的Y国发动了一场针对Z国的侵略战争.战火 ...

  4. 【bzoj1044】木棍分割

    Description 有n根木棍, 第i根木棍的长度为Li,n根木棍依次连结了一起, 总共有n-1个连接处. 现在允许你最多砍断m个连接处, 砍完后n根木棍被分成了很多段,要求满足总长度最大的一段长 ...

  5. BZOJ 4540 [Hnoi2016]序列 | 莫队 详细题解

    传送门 BZOJ 4540 题解 --怎么说呢--本来想写线段树+矩阵乘法的-- --但是嘛--yali的机房太热了--困--写不出来-- 于是弃疗,写起了莫队.(但是我连莫队都想不出来!) 首先用单 ...

  6. BZOJ 2039 [2009国家集训队]employ人员雇佣 网络流

    链接 BZOJ 2039 题解 这题建图好神,自己瞎搞了半天,最后不得不求教了企鹅学长的博客,,,,发现建图太神了!! s向每个人连sum(e[i][x]) 的边,每个人向T连a[i]的边.两两人之间 ...

  7. 解题:九省联考2018 IIIDX

    题面 我当时在考场上划水的时候好像乱搞搞了20pts,然后发现一堆同届的都写了55pts的贪心=.=??? 那就先说那55pts的贪心吧,这个现在看起来还是非常显然的,就是按题意来每一块是分属一个点的 ...

  8. bzoj 2275: [Coci2010]HRPA

    据说叫斐波那契博弈. 先手最少取的石子数是把n用斐波那契数列拆分后最小的数. 原题+证明: http://blog.csdn.net/acm_cxlove/article/details/783501 ...

  9. RabbitMQ的生产者和消费者

    低级错误:启动程序的时候报错:socket close: 原因在配置文件中写的端口是:15672,应该是5672: client端通信口5672管理口15672server间内部通信口25672erl ...

  10. C++外观模式和组合模式

    外观模式应该是用的很多的一种模式,特别是当一个系统很复杂时,系统提供给客户的是一个简单的对外接口,而把里面复杂的结构都封装了起来.客户只需使用这些简单接口就能使用这个系统,而不需要关注内部复杂的结构. ...