链接:https://kexue.fm/archives/5343…
变分自编码器(VAE,variatinal autoencoder)   VS    生成式对抗网络(GAN,generative adversarial network) 两者不仅适用于图像,还可以探索声音.音乐甚至文本的潜在空间: VAE非常适合用于学习具有良好结构的潜在空间,其中特定方向表示数据中有意义的变化轴;  GAN生成的图像可能非常逼真,但它的潜在空间可能没有良好结构,也没有足够的连续型.   自编码,简单来说就是把输入数据进行一个压缩和解压缩的过程. 原来有很多 Feature,…
EM算法 EM算法是含隐变量图模型的常用参数估计方法,通过迭代的方法来最大化边际似然. 带隐变量的贝叶斯网络 给定N 个训练样本D={x(n)},其对数似然函数为: 通过最大化整个训练集的对数边际似然L(D; θ),可以估计出最优的参数θ∗.然而计算边际似然函数时涉及p(x) 的推断问题,需要在对数函数的内部进行求和(或积分) 注意到,对数边际似然log p(x; θ) 可以分解为 其中DKL(q(z)∥p(z|x; θ))为分布q(z)和后验分布p(z|x; θ)的KL散度. 由于DKL(q(…
我在学习VAE的时候遇到了很多问题,很多博客写的不太好理解,因此将很多内容重新进行了整合. 我自己的学习路线是先学EM算法再看的变分推断,最后学VAE,自我感觉这个线路比较好理解. 一.首先我们来宏观了解一下VAE的作用:数据压缩和数据生成. 1.1数据压缩: 数据压缩也可以成为数据降维,一般情况下数据的维度都是高维的,比如手写数字(28*28=784维),如果数据维度的输入,机器的处理量将会很大, 而数据经过降维以后,如果保留了原有数据的主要信息,那么我们就可以用降维的数据进行机器学习模型的训…
变分自编码器(Variational Autoencoder, VAE)通俗教程 转载自: http://www.dengfanxin.cn/?p=334&sukey=72885186ae5c357d85d72afd35935fd5253f8a4e53d4ad672d5321379584a6b6e02e9713966e5f908dd7020bfa0c555f dengfanxin 未来2016年11月15日 1. 神秘变量与数据集 现在有一个数据集DX(dataset, 也可以叫datapoin…
原文地址:http://www.dengfanxin.cn/?p=334 1. 神秘变量与数据集 现在有一个数据集DX(dataset, 也可以叫datapoints),每个数据也称为数据点.我们假定这个样本受某种神秘力量操控,但是我们也无从知道这些神秘力量是什么?那么我们假定这股神秘力量有n个,起名字叫power1,power2,…,powern 吧,他们的大小分别是z1,z2,…,zn ,称之为神秘变量表示成一个向量就是 z=⎛⎝⎜⎜⎜⎜z1z2⋮zn⎞⎠⎟⎟⎟⎟ z也起个名字叫神秘组合.…
基于图嵌入的高斯混合变分自编码器的深度聚类 Deep Clustering by Gaussian Mixture Variational Autoencoders with Graph Embedding, DGG 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 1. 引言 这篇博文主要是对论文“Deep Clustering by Gaussian Mixture Variational Autoencoders with Graph Embe…
这是Hinton的第10课 这节课有两篇论文可以作为背景或者课外读物<Adaptive mixtures of local experts>和<Improving neural networks by preventing co-adaptation of feature detectors>. 一.为什么模型的结合是有帮助的 这部分将介绍为什么当我们进行预测的时候,想要将许多模型结合起来.如果我们只有一个模型,我们不得不对这个模型选择某些能力:如果我们选择的能力太少,那么模型可以…
0. 基于贝叶斯公式的生成式分类器 生成式分类器(generative classifier)即是已知类别得样本: p(y=c|x,θ)∝p(x|y=c,θ)p(y=c|θ) p(x|y=c,θ) 称为类条件概率(class-conditional probability/density),定义了 每个类别(y=c)中我们所期待得到的数据是什么样的.上述公式的等式形式如下: p(y=c|x,θ)=p(x|y=c,θ)p(y=c|θ)∑c′p(y=c′|θ)p(x|y=c′,θ) 这里仅以离散型随…
参考: https://www.cnblogs.com/huangshiyu13/p/6209016.html https://zhuanlan.zhihu.com/p/25401928 https://blog.csdn.net/ustbfym/article/details/78870990 https://blog.csdn.net/StreamRock/article/details/81258543 https://blog.csdn.net/weixin_40955254/artic…