Mutual Learning to Adapt for Joint Human Parsing and Pose Estimation

2018-11-03 09:58:58

Paper: http://openaccess.thecvf.com/content_ECCV_2018/papers/Xuecheng_Nie_Mutual_Learning_to_ECCV_2018_paper.pdf

Code: https://github.com/NieXC/pytorch-mula

Related Paper: Deep mutual learning Codehttps://github.com/YingZhangDUT/Deep-Mutual-Learning

1. Background and Motivation:

本文提出一种模型 MuLA(Mutual Learning to Adapt)来调整模型,来更好的完成行人解析和姿态估计的问题。之所以会这么做,是因为这两个任务是可以相互协助,互相补充的:Human pose can offer structured information for body part segmentation and lebelling, and on the other hand human parsing can facilitate localizing body joints in difficult scenarios,如图 1 所示:

图 1 给出了案例,考虑到这两个任务之间的 mutual guidance information,可以有效的协助改善 parsing 和 localization 的精度。

受到该观察的启发,已经有工作开始借助这种引导信息,来改善这两个任务的性能。但是,现有的方法通常分别训练一个特定的模型,并且用这种引导信息来作为后期处理,从而有如下几个劣势:

1). 严重依赖于手工设计的特征;

2). 仅在 inference procedure 利用该 guidance information,而在 training stage 并没有增强模型的 capacity;

3). 前人工作都是 one-stop solutions,而不能迭代的增强模型,从而改善结果;

4). 这些模型都不是 end-to-end learning。

为了解决上述问题,本文提出一种 Mutual Learning to Adapt (MuLA)model 来充分,系统的探索 mutual guidance information。流程图如下所示,该 Mutual Adaptation Module 可以是一个迭代的过程,从而可能会学习到更好的表达。

2. The Details of MuLA

本文采用 来表示 parsing 和 pose models。带有星号 * 的下标表示 the parameters are adaptable to other task。然后本文所提出的 MuLA 模型可以表达成如下迭代学习的形式:

其中,t 表示的迭代次数。$\hat(S)$ 和 $\hat{J}$ 是 parsing 和 pose annotations,F  表示提取出来的特征。如图 2 所示,MuLA 是由三个部分构成的:a representation encoding module,  a mutual adaptation module and a classification module。 具体来说,the representation encoding module 是由两个 encoders 对特征进行转换,得到 high-level preliminary representations。the mutual adaptation module 的目标是调整参数,通过两个任务的辅助引导信息,使其增强原始的特征表达。受到 “Learning to Learn” framework 的启发,为了达到快速和高效的 adaptation,在函数 g'(*), h'(*) 的内部,我们设计了两个可学习的 adapters  ,来学习预测这些 adaptive parameters。对于可靠和鲁棒的参数预测,我们从 中得到最高层的表达,作为 mutual guidance information。也就是说,所设计的两个 adapters 将特征作为输入,然后输出调整后的参数,即:

此处,可以通过结合两个任务之间的互引导信息(mutual guidance information),制作原始的表达,以得到更好的解析和姿态估计的结果,并且用  来解码推导出来的 adaptive encoders in MuLA。The mutual adaptation module allows for dynamic interaction and cooperation between two tasks within MuLA for fully exploiting their mutual benefits。

MuLA 利用两个分类器根据 mutual adaptation module 来预测行人解析结果 $S_{(t)}$ 和姿态估计结果 $J_{(t)}$。为了迭代的探索 mutual guidance information,我们设计了两个 mapping modules 来特征表达以及预测结果映射到下一个阶段的输入,即:

为了训练 MuLA,我们在 human parsing 和 pose estimation 的任务上利用 GT 监督信息,并且定义了如下的损失函数:

其中,T 是 MuLA 的总迭代次数。第一个和 第二项损失函数,分别是 human parsing 和 pose estimation 的损失函数。

3. Experimental Results

==

论文笔记: Mutual Learning to Adapt for Joint Human Parsing and Pose Estimation的更多相关文章

  1. 【论文笔记】Learning Fashion Compatibility with Bidirectional LSTMs

    论文:<Learning Fashion Compatibility with Bidirectional LSTMs> 论文地址:https://arxiv.org/abs/1707.0 ...

  2. 论文笔记: Deep Learning based Recommender System: A Survey and New Perspectives

    (聊两句,突然记起来以前一个学长说的看论文要能够把论文的亮点挖掘出来,合理的进行概括23333) 传统的推荐系统方法获取的user-item关系并不能获取其中非线性以及非平凡的信息,获取非线性以及非平 ...

  3. 深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes

    来自:CVPR 2014   作者:Yi Sun ,Xiaogang Wang,Xiaoao Tang 题目:Deep Learning Face Representation from Predic ...

  4. 论文笔记:Learning wrapped guidance for blind face restoration

    这篇论文主要是讲人脸修复的,所谓人脸修复,其实就是将低清的,或者经过压缩等操作的人脸图像进行高清复原.这可以近似为针对人脸的图像修复工作.在图像修复中,我们都会假设退化的图像是高清图像经过某种函数映射 ...

  5. SfMLearner论文笔记——Unsupervised Learning of Depth and Ego-Motion from Video

    1. Abstract 提出了一种无监督单目深度估计和相机运动估计的框架 利用视觉合成作为监督信息,使用端到端的方式学习 网络分为两部分(严格意义上是三个) 单目深度估计 多视图姿态估计 解释性网络( ...

  6. 论文笔记:Learning Attribute-Specific Representations for Visual Tracking

    Learning Attribute-Specific Representations for Visual Tracking AAAI-2019 Paper:http://faculty.ucmer ...

  7. 论文笔记:Learning regression and verification networks for long-term visual tracking

    Learning regression and verification networks for long-term visual tracking 2019-02-18 22:12:25 Pape ...

  8. 论文笔记:Learning Dynamic Memory Networks for Object Tracking

    Learning Dynamic Memory Networks for Object Tracking  ECCV 2018Updated on 2018-08-05 16:36:30 Paper: ...

  9. 论文笔记:Learning how to Active Learn: A Deep Reinforcement Learning Approach

    Learning how to Active Learn: A Deep Reinforcement Learning Approach 2018-03-11 12:56:04 1. Introduc ...

随机推荐

  1. 阿里云 ECS 迁移到七牛 QVM 记

    操作 下载脚本 curl -O http://p70nwjoid.bkt.clouddn.com/go2qvm_client1.5_linux_x86_64.zip 解压填写配置 unzip go2q ...

  2. web端MSF搭建

    去购买一个廉价VPS  阿里X/tx学生服务器然后选择Ubuntu系统http://jingyan.baidu.com/article/2c8c281dabacad0008252aa6.html安装M ...

  3. 我的WafBypass之道(upload篇)

    0x00 前言 玩waf当然也要讲究循序渐进,姊妹篇就写文件上传好了,感觉也就SQLi和Xss的WafBypass最体现发散性思维的,而文件上传.免杀.权限提升这几点的Bypass更需要的是实战的经验 ...

  4. js判断PC端还是移动端

    function goPAGE() { if ((navigator.userAgent.match(/(phone|pad|pod|iPhone|iPod|ios|iPad|Android|Mobi ...

  5. ios学习--iphone 实现下拉菜单

    原文地址:ios学习--iphone 实现下拉菜单作者:sdglyuan00 #import @interface DropDown1 : UIView <</span>UITabl ...

  6. 如何将PDF文件转Word,有什么方法

    PDF文件怎样转换成Word呢?在现在的日常办公中PDF文件和Word文件都是办公必不可少的两种文件格式了.那么当我们在工作中需要对这两种文件进行转换时,我们应该怎样实现呢?下面我们就一起来看一下吧. ...

  7. F#周报2019年第4期

    新闻 F# 4.6预览 fuget.org现在显示包依赖从属,你曾经想要了解谁在使用你的类库吗?现在你可以知道了! F#被加入Wikipedia的流式接口页面 采访Erik Schierboom Az ...

  8. Web开发——HTML基础(图像、音频和视频内容)

    参考: 参考:HTML中的图像 参考:视频和音频内容 目录: 1.HTML中的图像 1.1 我们如何在网页上放置图像? (1)替代文字(alt) (2)宽度和高度 (3)图片标题 1.2 用图形和图形 ...

  9. 作业2:git使用

    作业要求来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/2097 远端库地址:https://github.com/yellow ...

  10. python->读写excel

    from openpyxl import load_workbook#将一个excel文档中的数据存放内存中,即变量wb保存了该excel的所有信息wb = load_workbook(r" ...