读论文系列:Deep transfer learning person re-identification

arxiv 2016 by Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian

Transfer Learning

旧数据训练得到的分类器,在新的数据上重新训练,从而在新数据上取得比较好的表现,新数据与旧数据有相似的地方,但具有不同的分布。

Fine tuning一般步骤

这是InceptionV4的图示

  • 移除Softmax分类层
  • 换成与目标数据集输出维数相同的Softmax层
  • 冻结靠近输入的卷积层
  • 以较高的学习率训练分类层
  • 以很低的学习率微调剩下的卷积层

论文核心模型

几个创新点:

  • 对于CNN输出的两张图的特征,使用了相同的dropout而非各自独立的随机dropout
  • 使用了二分类加多分类两种loss,二分类用于判断两张图中的人是否相同,多分类用于描述两张图中各自的人物ID
  • 分两阶段进行Fine tune,先微调多分类,再联合二分类和多分类进行微调,避免多分类网络不稳定对二分类的影响

Unsupervised Transfer Learning

Self-training

  • 将图片均分为两组(论文中是按摄像头划分的)
  • 将B组中的每张图片,与A组中CNN输出相似度最高的图片归为一类,从而构造出多分类标签
  • 喂入CNN训练
  • 迭代多次

Co-training

  • 由于CNN输出的图片相似度不一定真的可靠,存在噪音,因此Self-training效果没有特别好
  • 寻找一个互补的模型,将特征映射到另一个子空间中
  • 将B组中的每张图片,与A组中子空间相似度最高的图片归为一类,构造多分类标签
  • 喂入CNN训练
  • 迭代多次

Co-Model