论文笔记之:UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS
UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS
ICLR 2016
摘要:近年来 CNN 在监督学习领域的巨大成功 和 无监督学习领域的无人问津形成了鲜明的对比,本文旨在链接上这两者之间的缺口。提出了一种 deep convolutional generative adversarial networks (DCGANs),that have certain architecture constraints。
引言:在计算机视觉领域,可以通过海量无标签数据,从中学习到好的表示(good immediate representation)然后将其应用到众多监督学习任务当中去,例如:image classification。一种较好的方法就是,利用产生式对抗网络来完成,然后利用 产生器 和 判别器的一部分来作为特征提取器,进行其他监督任务的学习。众所周知,GANs 的缺点是:unstable to train ,这样就会导致产生了毫无意义的输出。甚少有 paper 尝试去理解和可视化 GANs 到底学习到了什么,以及多层 GANs 的即可表示。
本文的贡献点在于:
1. 本文提出一些网络结构上的约束,使得训练过程更加稳定。并将此类型的结构称为:Deep Convolutional GANs (DCGAN)
2. 利用训练好的 discriminators 进行 image classification tasks,取得了和其他 unsupervised learning algorithm 相当的结果
3. 作者将 GANs 的 filter 进行了可视化处理,表明特定的 filter 学到了 draw specific objects
4. We show that generators have interesting vector arithmetic properties allowing for easy manipulation of many semantic qualities of generated samples
Approach to Model Architecture :
已经有很多尝试将 GANs 做 scale up,但是几乎都不怎么成功。作者在尝试用 supervised learning 常用的方法做 scale 时,也遇到了很多困难。但是,在作者做了很多模型探索之后(extensive model exploration)得到了一些结构上的技巧来改善训练的稳定性,并且允许得到更高分辨率的图像,采用更深的产生式模型。
本文核心的方法,主要从以下三个方面进行网络结构上的设计和改变 :
第一个是:the all convolutional net . 将 deteministic spatial pooling function (such as: maxpooling)with strided convolutions,使得网络可以学习其自己的 spatial downsampling。我们利用这种方法到我们的 generator 当中,允许其学习自己的 spatial upsampling,and discriminator 。
第二个是:the trend towards eliminating fully connected layers on top of convolutional features. 作者发现:global average pooling 增强了模型的稳定性,但是损害了收敛的速度。A middle ground of directly connecting the highest convolutional features to the input and output respectively of the generatively of the generator and discriminator worked well. 具体的网络结构见下图:
第三个是:Batch Normalizaiton,which stabilizes learning by normalizing the input to each unit to have zero mean and unit variance。但是,直接对所有的 layer 都使用这种技术,就会出现问题:resulted in sample oscillation and model instability 。这种困难是通过 不对 generator output layer 和 discriminator input layer 采用这种方法,就行了。
The ReLU activation is used in generator with the exception of the output layer which uses the Tanh function.
作者总结了一个列表,对稳定的训练 GANs 提供了下面的几条建议:
Details of Adversarial Training :
作者在三个数据集上进行了训练,分别是:Large-scale Scene Understanding (LSUN),Image Net-1k and Faces dataset 。
Expirical Validation of DCGANs Capabilities .
1. Classifying CIFAR-10 using GANs as a Feature Extractor :
一种评价无监督表示学习算法的方式是:将其作为 特征提取器(feature extractor)在监督的 dataset 上,然后评价线性模型在这些特征上的拟合能力(evaluate the performance of linear models fitted on top of these features)。
作者将 K-means 这种无监督学习方法作为一种 baseline,并且与之在 cifar-10 数据集上进行了对比。
2. Classifying SVHN digits using GANs as a feature extractor .
在 SVHN dataset 上,作者将 DCGAN 的 discriminator 提取出来的特征,在 supervised learning 上做了测试。作者类似于监督学习的思路,将数据集划分开来。本文的方法取得了不错的效果,并且表明:the CNN architecture used in DCGANs is not the key contributing factor of the model‘s performance by training a purely supervised CNN with the same architecture on the same data and optimizing this model via random search over 64 hyperparameter trials .
Investgating and Visualizing the Intervals of the Networks .
Manipulating the Generator Representation :
论文笔记之:UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS的更多相关文章
- DCGAN: "Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Network" Notes
- Alec Radford, ICLR2016 原文:https://arxiv.org/abs/1511.06434 论文翻译:https://www.cnblogs.com/lyrichu/p/ ...
- 【神经网络与深度学习】生成式对抗网络GAN研究进展(五)——Deep Convolutional Generative Adversarial Nerworks,DCGAN
[前言] 本文首先介绍生成式模型,然后着重梳理生成式模型(Generative Models)中生成对抗网络(Generative Adversarial Network)的研究与发展.作者 ...
- 论文笔记:(2019CVPR)PointConv: Deep Convolutional Networks on 3D Point Clouds
目录 摘要 一.前言 1.1直接获取3D数据的传感器 1.2为什么用3D数据 1.3目前遇到的困难 1.4现有的解决方法及存在的问题 二.本文idea 2.1 idea来源 2.2 初始思路 2.3 ...
- 论文阅读笔记 Improved Word Representation Learning with Sememes
论文阅读笔记 Improved Word Representation Learning with Sememes 一句话概括本文工作 使用词汇资源--知网--来提升词嵌入的表征能力,并提出了三种基于 ...
- [论文阅读笔记] metapath2vec: Scalable Representation Learning for Heterogeneous Networks
[论文阅读笔记] metapath2vec: Scalable Representation Learning for Heterogeneous Networks 本文结构 解决问题 主要贡献 算法 ...
- paper 124:【转载】无监督特征学习——Unsupervised feature learning and deep learning
来源:http://blog.csdn.net/abcjennifer/article/details/7804962 无监督学习近年来很热,先后应用于computer vision, audio c ...
- 转:无监督特征学习——Unsupervised feature learning and deep learning
http://blog.csdn.net/abcjennifer/article/details/7804962 无监督学习近年来很热,先后应用于computer vision, audio clas ...
- [转] 无监督特征学习——Unsupervised feature learning and deep learning
from:http://blog.csdn.net/abcjennifer/article/details/7804962 无监督学习近年来很热,先后应用于computer vision, audio ...
- UFLDL(Unsupervised Feature Learning and Deep Learning)
UFLDL(Unsupervised Feature Learning and Deep Learning)Tutorial 是由 Stanford 大学的 Andrew Ng 教授及其团队编写的一套 ...
随机推荐
- SpringMVC 问题 org.springframework.beans.factory.BeanDefinitionStoreException
HTTP Status 500 – Internal Server Error Type Exception Report Message Servlet.init() for servlet [sp ...
- Servlet----------在 Servlet 中的xml配置
今天弄了大半天,才弄好了,还是请教了别人,主要原因在于把web.xml文件放在了WEB-INF文件夹下面了,正常的情况是在WebRoot下面的. 还有一个,我是在MyEclipse中操作的,起初不知道 ...
- /proc/meminfo
/proc/meminfo 可以查看自己服务器 物理内存 注意这个文件显示的单位是kB而不是KB,1kB=1000B,但是实际上应该是KB,1KB=1024B 这个显示是不精确的,是一个已知的没有被 ...
- [Leetcode] 863. All Nodes Distance K in Binary Tree_ Medium tag: BFS, Amazon
We are given a binary tree (with root node root), a target node, and an integer value `K`. Return a ...
- eigen 笔记2
4. Block operations 1) Using block operations Block of size(p, q), starting at (i, j) dynamic-size b ...
- 渗透msf工具中andorid被控端的实现
msf中andoird端的实现代码一共只有8k 核心代码就是下载者. 下载dex,动态执行dex.
- Android下基于线程池的网络访问基础框架
引言 现在的Android开发很多都使用Volley.OkHttp.Retrofit等框架,这些框架固然有优秀的地方(以后会写代码学习分享),但是我们今天介绍一种基于Java线程池的网络访问框架. 实 ...
- Summary: Deep Copy vs. Shallow Copy vs. Lazy Copy
Object copy An object copy is an action in computing where a data object has its attributes copied t ...
- js删除逗号
var aaa="123,432,34.00 aaa.replace(/,/g, '');
- 10588 - Queuing at the doctors
这题wa 了 八次 你说 巨弱 orz 大神 总结一下 没有将所有的情况考虑清楚 ,当有的时候一个人已经全部看完的时候 别的人还没开始 但是我就把他给结束了 #include <iost ...