自编码器是一种很好的降维技术,它可以学习到数据中非常有用的信息。而收缩自编码器作为正则自编码器的一种,其非线性降维效果非常好,并且它的过程可以通过流形知识来解释。

基础知识

1、自编码器

自编码器是一种降维的技术,由编码器和解码器两部分组成,架构图如下。编码器 \(f\) 用来输出降维后的表示 \(h\),而解码器 \(g\) 则通过最小化代价函数从编码器的输出 \(h\) 来重构原始的输入 \(x\),输出 \(r\)。

编码器 \(f\) 和解码器 \(g\) 的内部结构是一个仿射函数(线性组合)再加一个(线性或非线性)激活函数,形式如下:

\[h=f\left( x\right) =s _{f}\left( Wx+b _{h}\right),
\]

\[r=g\left( h\right) =s _{g}\left( W'h+b _{r}\right).
\]

其中,\(s\) 是激活函数,\(W\) 是权重矩阵,\(b\) 是偏置向量。为了防止自编码器学习到整体收缩再放大的无用映射,一般 \(W'=W ^{T}\)。

详细的自编码器介绍可以参考Introduction to autoencoders.

2、流形切平面

流形的一个重要特征是切平面的集合。\(d\) 维流形上的一点 \(x\),切平面由能张成流形上允许变动的局部方向的 \(d\) 维基向量给出。这是《Deep Learning》上的定义,其实切平面就是切线、切面拓展到高维的情况,类似于超平面的概念。

3、Keras

Keras 是一个用 Python 编写的高级神经网络 API,它能够以 TensorFlow、CNTK 或者 Theano 作为后端运行。Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果,是做好研究的关键。

使用 Keras 前一定要安装 TensorFlow、CNTK 和 Theano 三个框架中的任一一个,并且要注意每个框架适用的 Python 版本,提前配置好相应的环境。

收缩自编码器(CAE)

1、定义

为了提高对训练集数据点周围小扰动的鲁棒性,收缩自编码器在基础自编码器上添加了正则项,其形式为编码器的映射 \(f\) 关于输入 \(x\) 的 \(Jacobian\) 矩阵的 \(Frobenius\) 范数(具体形式如下),目的是迫使其学习在训练样本上有更强收缩作用的映射。

\[\left\| J _{f}\left( x\right) \right\| ^{2} _{F}=\sum _{ij}\left( \dfrac {\partial h _{j}\left( x\right) }{\partial x _{i}}\right) ^{2}.
\]

假设训练集为 \(D _{n}\),我们通过最小化重构误差以及对梯度的惩罚来学习自编码器的参数,完整的代价函数如下:

\[J _{CAE}\left( \theta \right) =\sum _{x\in D _{n}}\left( L(x,g(f(x)))+\lambda \left\| J _{f}\left( x\right) \right\| ^{2} _{F}\right).
\]

其中 \(L\) 是重构误差,形式为平方误差(线性自编码器)或者交叉熵损失(非线性误差),而\(\lambda \) 则是控制正则化强度的超参数。

2、解释

从代价函数来看,收缩自编码器通过两种相反的推动力学习有用信息--重构误差和收缩惩罚(正则项)。收缩惩罚迫使自编码器学习到的所有映射对于输入的梯度都很小,即把输入都降维到一个很小的区域(点附近),而重构误差迫使自编码器学习一个恒等映射,保留完整的信息。两种推动力冲击下,使得大部分映射对于输入的梯度都很小,而只有少部分的大梯度。这样在输入具有小扰动时,小梯度会减小这些扰动,达到增加自编码器对输入附近小扰动的鲁棒性。

3、学习流形

学习流形的介绍可以看我以前的博客“学习流形”的初认识

从流行角度来进一步探索,训练数据是位于一个低维流形上的。数据中的变化对应于流形上的局部变化(沿着切平面的方向),而数据中的不变方向是对应于正交于流形的方向。只要我们学习到数据中的变化和不变方向,那么流形的结构也就被捕捉到了。

回头再看收缩自编码器学习的两种推动力,收缩惩罚想要使学习到的特征在所有方向上不变(对所有方向都有收缩作用),而重构误差则想要能将学习到的特征重构回输入。所以在学习的过程中,重构误差的推动力使数据中的变化方向(即流形切平面的方向)能够抵抗收缩作用,体现在其对应的 \(Jacobian\) 矩阵中的奇异值很大;而抵抗不了收缩作用的方向则对应于数据中不变的方向(正交于流形的方向),其在 \(Jacobian\) 矩阵中的梯度则会变得很小。

由此可以看出收缩自编码器可以很好地捕捉流形结构。

代码实现

下面收缩自编码器的实现是基于 Keras 框架的。

导入数据:

from tensorflow.examples.tutorials.mnist import input_data
from keras.layers import Input, Dense
from keras.models import Model import numpy as np
import matplotlib.pyplot as plt
import keras.backend as K

导入 MNISR 数据:

mnist = input_data.read_data_sets('../data/MNIST_data', one_hot=True)

X_train, y_train = mnist.train.images, mnist.train.labels
X_val, y_val = mnist.validation.images, mnist.validation.labels
X_test, y_test = mnist.test.images, mnist.test.labels

定义收缩自编码器:

def contractive_autoencoder(X, lam=1e-3):
X = X.reshape(X.shape[0], -1)
M, N = X.shape
N_hidden = 64
N_batch = 100 inputs = Input(shape=(N,))
encoded = Dense(N_hidden, activation='sigmoid', name='encoded')(inputs)
outputs = Dense(N, activation='linear')(encoded) model = Model(input=inputs, output=outputs) def contractive_loss(y_pred, y_true):
mse = K.mean(K.square(y_true - y_pred), axis=1) W = K.variable(value=model.get_layer('encoded').get_weights()[0]) # N x N_hidden
W = K.transpose(W) # N_hidden x N
h = model.get_layer('encoded').output
dh = h * (1 - h) # N_batch x N_hidden # N_batch x N_hidden * N_hidden x 1 = N_batch x 1
contractive = lam * K.sum(dh**2 * K.sum(W**2, axis=1), axis=1) return mse + contractive model.compile(optimizer='adam', loss=contractive_loss)
model.fit(X, X, batch_size=N_batch, nb_epoch=3) return model, Model(input=inputs, output=encoded)

训练模型并测试,画出重构后的图形:

model, representation = contractive_autoencoder(X_train)

idxs = np.random.randint(0, X_test.shape[0], size=5)
X_recons = model.predict(X_test[idxs]) for X_recon in X_recons:
plt.imshow(X_recon.reshape(28, 28), cmap='Greys_r')
plt.show()

代码主要参考了Deriving Contractive Autoencoder and Implementing it in Keras,其中还详细推导了收缩正则项的计算形式,有兴趣的可以看一下。

收缩自编码器(CAE)的更多相关文章

  1. 深度学习之自编码器AutoEncoder

    原文地址:https://blog.csdn.net/marsjhao/article/details/73480859 一.什么是自编码器(Autoencoder) 自动编码器是一种数据的压缩算法, ...

  2. 堆叠降噪自编码器SDAE

    https://blog.csdn.net/satlihui/article/details/81006906 https://blog.csdn.net/github_39611196/articl ...

  3. 堆叠式降噪自动编码器(SDA)

    1.1 自动编码器  自动编码器(AutoEncoder,AE)就是一种尽可能复现输入信号的神经网络,其输出向量与输入向量同维,常按照输入向量的某种形式,通过隐层学习一个数据的表示或对原始数据进行有效 ...

  4. 深度学习——无监督,自动编码器——尽管自动编码器与 PCA 很相似,but自动编码器既能表征线性变换,也能表征非线性变换;而 PCA 只能执行线性变换

    自动编码器是一种有三层的神经网络:输入层.隐藏层(编码层)和解码层.该网络的目的是重构其输入,使其隐藏层学习到该输入的良好表征. 自动编码器神经网络是一种无监督机器学习算法,其应用了反向传播,可将目标 ...

  5. lecture15-自动编码器、语义哈希、图像检索

    Hinton第15课,本节有课外读物<Semantic Hashing>和<Using Very Deep Autoencoders for Content-Based Image ...

  6. 北大博士生提出CAE,下游任务泛化能力优于何恺明MAE

    大家好,我是对白. 何恺明时隔两年发一作论文,提出了一种视觉自监督学习新范式-- 用掩蔽自编码器MAE,为视觉大模型开路. 这一次,北大博士生提出一个新方法CAE,在其下游任务中展现的泛化能力超过了M ...

  7. SQLServer事务同步下如何收缩日志

    事务同步是SQLServer做读写分离的一种常用的方式. 随着业务数据的不断增长,数据库积攒了大量的日志,为了腾出硬盘空间,需要对数据库日志进行清理 订阅数据库的日志清理 因为订阅数据库所有的数据都来 ...

  8. SQLServer文件收缩-图形化+命令

    汇总篇:http://www.cnblogs.com/dunitian/p/4822808.html#tsql 收缩前 图形化演示: 不仅仅可以收缩日记文件,数据库文件也是可以收缩的,只不过日记收缩比 ...

  9. 包含LOB_Data列的表删除大量数据后表及数据库文件的收缩

    最近有一张表(内含varchar(max)字段),占用空间达到240G,删除历史数据后几十万条后,空间并未得到释放. 然后用DBCC CLEANTABLE(0,tb_name,100)来释放删除记录后 ...

随机推荐

  1. python 错误--UnboundLocalError: local variable '**' referenced before assignment

    val = 9 def test(flag): if flag: val = 1 else: print("test") return val if __name__ == '__ ...

  2. ditto复制增强

    1.下载 http://ditto-cp.sourceforge.net/ 2.用法   ctrl+` ctrl+数字 或者  ctrl +`  然后用鼠标选择 soeasy

  3. Ubuntu/Debian 8 安装 Intel realsense 摄像头驱动

    ## Make Ubuntu/Debian Up-to-date1. sudo apt-get update && sudo apt-get upgrade && su ...

  4. k64 datasheet学习笔记3---Chip Configuration之System modules

    1.前言 本文主要介绍芯片配置的系统模块的内容 2.SIM配置 TODO 3.SMC配置 TODO 4.PMC配置 TODO 5.LOW-LEAKAGE WAKEUP单元配置 TODO 6.MCM配置 ...

  5. ioremap 与 mmap【转】

    转自:http://blog.csdn.net/junllee/article/details/7415732 内存映射 对于提供了MMU(存储管理器,辅助操作系统进行内存管理,提供虚实地址转换等硬件 ...

  6. Python3学习笔记20-获取对象信息

    当我们拿到一个对象的引用时,如何知道这个对象是什么类型.有哪些方法呢? 基本类型都可以用type()判断: print(type(123)) print(type('str')) print(type ...

  7. 命令查看WebSphere MQ运行状态

    参考:https://wenku.baidu.com/view/34e40e2ffd0a79563c1e72b9.html 一.查看队列管理器运行状态 # dspmq 显示结果中QMNAME表示MQ队 ...

  8. jquery引入

    网络地址:http://code.jquery.com/jquery-2.2.0.min.js 在需要的页面中直接使用网络地址,就不需要本地文件 <script type="text/ ...

  9. 关于Java Web应用中的配置部署描述符web.xml

    一.web.xml概述 位于每个Web应用的WEB-INF路径下的web.xml文件被称为配置描述符,这个 web.xml文件对于Java Web应用十分重要,每个Java Web应用都必须包含一个w ...

  10. Android 动画:你真的会使用插值器与估值器吗?

    目录   目录 1. 插值器(Interpolator) 1.1 简介 定义:一个接口 作用:设置 属性值 从初始值过渡到结束值 的变化规律 如匀速.加速 & 减速 等等 即确定了 动画效果变 ...