首先看到训练时会在命令行里输出 loss 和 total loss,那是怎么做到的呢,通过分析 train.py 源码,看到如下代码 total_loss = tf.cond( should_log, lambda: tf.Print(total_loss, [total_loss], 'Total loss is :'), lambda: total_loss) summaries.append(tf.summary.scalar('total_loss', total_loss)) 是把 t
SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation 发表于2016年,作者 Vijay Badrinarayanan, Alex Kendall, Roberto Cipolla, Senior Member 模型结构: 创新点: 在 encoder 部分的最大池化操作时记录了最大值所在位置(索引),然后在 decoder 时通过对应的池化索引实现非线性上采样,这样在上采样阶段就无需学习
Adversarial Examples for Semantic Segmentation and Object Detection (语义分割和目标检测中的对抗样本) 作者:Cihang Xie, Jianyu Wang, Zhishuai Zhang, Yuyin Zhou, Lingxi Xie, Alan Yuille, Department of Computer Science, The Johns Hopkins University, Baltimore, MD 21218 U
Macro-Micro Adversarial Network for Human Parsing ECCV-2018 2018-10-27 15:15:07 Paper: https://arxiv.org/pdf/1807.08260.pdf Code: https://github.com/RoyalVane/MMAN Motiviation-1: Why use the Adversarial Loss ? Based on CNN architecture, the pixel-wi
<Macro-Micro Adversarial Network for Human Parsing> 摘要:在人体语义分割中,像素级别的分类损失在其低级局部不一致性和高级语义不一致性方面存在缺陷.对抗性网络的引入使用单个鉴别器来解决这两个问题.然而,两种类型的解析不一致是由不同的机制产生的,因此单个鉴别器很难解决它们.为解决这两种不一致问题,本文提出了宏观 - 微观对抗网络(MMAN).它有两个鉴别器,一个鉴别器Macro D作用于低分辨率标签图并且惩罚语义不一致性,例如错位的身体部位.另一