打开prml and mlapp发现这部分目录编排有点小不同,但神奇的是章节序号竟然都为“十二”. prml:pca --> ppca --> fa mlapp:fa --> pca --> ppca 这背后又有怎样的隐情?不可告人的秘密又会隐藏多久? 基于先来后到原则,走prml路线. 首先,这部分内容,尤其是pca,都是老掉牙且稳定的技术,既然是统计机器学习,这次的目的就是借概率图来缕一遍思路,以及模型间的内在联系. 我们要建立的是一套完整的知识体系,而非“拿来一用,用完就扔”…
科班出身,贝叶斯护体,正本清源,故拿”九阳神功“自比,而非邪气十足的”九阴真经“: 现在看来,此前的八层功力都为这第九层作基础: 本系列第九篇,助/祝你早日hold住神功第九重,加入血统纯正的人工智能队伍. 9. [Bayesian] “我是bayesian我怕谁”系列 - Gaussian Process 8. [Bayesian] “我是bayesian我怕谁”系列 - Variational Autoencoders 7. [Bayesian] “我是bayesian我怕谁”系列 - Bo…
本是neural network的内容,但偏偏有个variational打头,那就聊聊.涉及的内容可能比较杂,但终归会 end with VAE. 各个概念的详细解释请点击推荐的链接,本文只是重在理清它们之间的婆媳关系. 无意中打开了:中国科大iGEM项目报告,感慨颇多,尤其是时光,这其中也包含了写这系列文字的目的. 在技术上不得不走了不少弯路,每当无意间回首,对于那些”没机会“走弯路的同学们,是羡慕的:对于不懂得珍惜机会的同学们,也是充满惋惜. 希望,透过这些文字,能唤醒一些东西,助你找到正确…
涉及的领域可能有些生僻,骗不了大家点赞.但毕竟是人工智能的主流技术,在园子却成了非主流. 不可否认的是:乃值钱的技术,提高身价的技术,改变世界观的技术. 关于变分,通常的课本思路是: GMM --> EM --> VI --> Variational Bayesian Gaussian Mixture GMM是个好东西,实用的模型,也是讲解收敛算法的一个好载体. 关于这部分内容,如果你懂中文,推荐一个人,徐亦达老师.中文教学,亲手推算公式给读者的视频,是需要珍惜和珍藏的. 因为提供了pp…
使用Boltzmann distribution还是Gibbs distribution作为题目纠结了一阵子,选择前者可能只是因为听起来“高大上”一些.本章将会聊一些关于信息.能量这方面的东西,体会“交叉学科”的魅力. In statistical mechanics and mathematics, a Boltzmann distribution (also called Gibbs distribution) is a probability distribution, probabili…
要整理这部分内容,一开始我是拒绝的.欣赏贝叶斯的人本就不多,这部分过后恐怕就要成为“从入门到放弃”系列. 但,这部分是基础,不管是Professor Daphne Koller,还是统计学习经典,都有章节focus on这里. 可能这些内容有些“反人类正常逻辑”,故让更多的菜鸡选择了放弃. <MLaPP> 参考<MLaPP>的内容,让我们打开坑,瞧一瞧. 20.2 Belief propagation for treesIn this section, we generalize…
要整理这部分内容,一开始我是拒绝的.欣赏贝叶斯的人本就不多,这部分过后恐怕就要成为“从入门到放弃”系列. 但,这部分是基础,不管是Professor Daphne Koller,还是统计学习经典,都有章节focus on这里. 可能这些内容有些“反人类正常逻辑”,故让更多的菜鸡选择了放弃. <MLaPP> 参考<MLaPP>的内容,让我们打开坑,瞧一瞧. 20.2 Belief propagation for treesIn this section, we generalize…
先明确一些潜规则: 机器学习是个collection or set of models,一切实践性强的模型都会被归纳到这个领域,没有严格的定义,’有用‘可能就是唯一的共性. 机器学习大概分为三个领域: 一般的机器学习模型:没有掺杂太多统计概念,例如决策树,KNN聚类,感知机等. 统计机器学习模型:依赖统计理论,主要是贝叶斯统计,例如SVM,naive bayesian,贝叶斯线性回归,高斯过程等. 神经网络模型:可以简单的理解为感知机的扩展,因为扩展的太猛,单独成立门派咯. 如此定义,有助于菜鸡…
先明确一些潜规则: 机器学习是个collection or set of models,一切实践性强的模型都会被归纳到这个领域,没有严格的定义,’有用‘可能就是唯一的共性. 机器学习大概分为三个领域: 一般的机器学习模型:没有掺杂太多统计概念,例如决策树,KNN聚类,感知机等. 统计机器学习模型:依赖统计理论,主要是贝叶斯统计,例如SVM,naive bayesian,贝叶斯线性回归,高斯过程等. 神经网络模型:可以简单的理解为感知机的扩展,因为扩展的太猛,单独成立门派咯. 如此定义,有助于菜鸡…
循序渐进的学习步骤是: Markov Chain --> Hidden Markov Chain --> Kalman Filter --> Particle Filter Markov不仅是一种技术,更是一种人生哲理,能启发我们很多. 一个信息爆炸的时代 一.信息的获取 首先要获得足够多的信息以及训练数据,才能保证所得信息中包含足够有价值的部分.但往往因为“面子”.“理子”.“懒"等原因,在有意无意间削弱了信息的获取能力. 二.信息的提取 信息中包含噪声,噪声中充斥着“有意无…
下一章有意讲讲EM和变分推断的内容. EM和变分推断的内容能Google到很多,虽然质量乘次不齐,但本文也无意再赘述那么些个细节. 此处记录一些核心思想,帮助菜鸡形成整体上的认识.不过,变分推断也不是一篇博文能讲述通透的技术,希望读者读完此文,至少知道自己将要学一个什么好东西,能用它来做什么. 私以为,变分的理解就是统计机器学习的核心,那么, 不懂变分怎么能说学会了统计机器学习?  P(统计机器学习 | 变分) 不会统计机器学习怎么自诩会机器学习?  P(机器学习 | 统计机器学习) 不懂机器学…
主讲人 戴玮 (新浪微博: @戴玮_CASIA) Wilbur_中博(1954123) 20:00:49 我今天讲PRML的第十二章,连续隐变量.既然有连续隐变量,一定也有离散隐变量,那么离散隐变量是什么?我们可能还记得之前尼采兄讲过的9.2节的高斯混合模型.它有一个K维二值隐变量z,不仅只能取0-1两个值,而且K维中只能有1维为1.其他维必须为0,表示我们观察到的x属于K类中的哪一类.显然,这里的隐变量z就是个离散隐变量.不过我们容易想到,隐变量未必像kmeans或GMM这种聚类算法那样,非此…
2019-05-27 17:52:01 加油!!! 看题时候就要仔细,最后容易忘记%10000 #include <bits/stdc++.h> using namespace std; int main() { int t, n; // cin >> t >> n; scanf("%d", &t); while (t--) { // cin >> n; scanf("%d", &n); ; ,j =…
功能:变量和常量的定义及应用. EPL配置创建 1   "); 3  // 创建 orderBean 事件类型变量 bean 4  epAdmin.createEPL("create variable orderBean bean  ");   修改变量值 格式: 1  on event_type[(filter_criteria)] [as stream_name] 2    set variable_name = expression [, variable_name =…
Relevant Readable Links Name Interesting topic Comment Edwin Chen 非参贝叶斯   徐亦达老板 Dirichlet Process 学习目标:Dirichlet Process, HDP, HDP-HMM, IBP, CRM Alex Kendall Geometry and Uncertainty in Deep Learning for Computer Vision 语义分割 colah's blog Feature Visu…
博客内容取材于:http://www.cnblogs.com/tornadomeet/archive/2012/06/24/2560261.html Deep learning:三十五(用NN实现数据降维练习) Deep learning:三十四(用NN实现数据的降维) Deep learning:三十三(ICA模型) Deep learning:三十二(基础知识_3) Deep learning:三十一(数据预处理练习) Deep learning:三十(关于数据预处理的相关技巧) Deep…
数学似宇宙,韭菜只关心其中实用的部分. scikit-learn (sklearn) 官方文档中文版 scikit-learn Machine Learning in Python 一个新颖的online图书资源集,非常棒. 机器学习原理 Bayesian Machine Learning 9. [Bayesian] “我是bayesian我怕谁”系列 - Gaussian Process[ignore] 随机过程 [Scikit-learn] 1.1 Generalized Linear Mo…
TF-IDF Algorithm From http://www.ruanyifeng.com/blog/2013/03/tf-idf.html Chapter 1, 知道了"词频"(TF)和"逆文档频率"(IDF)以后,将这两个值相乘,就得到了一个词的TF-IDF值.某个词对文章的重要性越高,它的TF-IDF值就越大. (1) 出现次数最多的词是----"的"."是"."在"----这一类最常用的词.它们…
这一部分是个坑,应该对绝大多数菜鸡晕头转向的部分,因为有来自物理学界的问候. Deep learning:十九(RBM简单理解) Deep learning:十八(关于随机采样)    采样方法 [Bayes] runif: Inversion Sampling [Bayes] dchisq: Metropolis-Hastings Algorithm [Bayes] Metroplis Algorithm --> Gibbs Sampling 能量传播 纵观大部分介绍RBM的paper,都会提…
Ref: [Link] sklearn各种回归和预测[各线性模型对噪声的反应] Ref: Linear Regression 实战[循序渐进思考过程] Ref: simple linear regression详解[涉及到假设检验] 引申问题,如何拟合sin数据呢? 如果不引入sin这样周期函数,可以使用:scikit learn 高斯过程回归[有官方例子] 参考:[Bayesian] “我是bayesian我怕谁”系列 - Gaussian Process 牛津讲义:An Introducti…
RNN models for image generation MARCH 3, 2017   Today we’re looking at the remaining papers from the unsupervised learning and generative networks section of the ‘top 100 awesome deep learning papers‘ collection. These are: DRAW: A recurrent neural n…
Machine Learning Trick of the Day (2): Gaussian Integral Trick Today's trick, the Gaussian integral trick, is one that allows us to re-express a (potentially troublesome) function in an alternative form, in particular, as an integral of a Gaussian ag…
ICLR 2014 International Conference on Learning Representations Apr 14 - 16, 2014, Banff, Canada Workshop Track Submitted Papers Stochastic Gradient Estimate Variance in Contrastive Divergence and Persistent Contrastive Divergence Mathias Berglund, Ta…
from: http://www.metacademy.org/roadmaps/rgrosse/bayesian_machine_learning Created by: Roger Grosse(http://www.cs.toronto.edu/~rgrosse/) Intended for: beginning machine learning researchers, practitioners Bayesian statistics is a branch of statistics…
Microsoft published a paper in ICML 2009 named ‘Web-Scale Bayesian Click-Through Rate Prediction for Sponsored Search Advertising in Microsoft’s Bing Search Engine’, which is claimed won the competition of most accurate and scalable CTR predictor acr…
From: http://www.cnblogs.com/bayesianML/p/6377588.html#central_problem You can do it: Dirichlet Process, HDP, HDP-HMM, IBP, CRM, etc. 本文目录结构如下: 核心主题 中心问题 参数估计 模型比较 非贝叶斯方法 最大似然 正则化 EM算法 基本推断算法 MAP估计 Gibbs采样 马尔科夫链蒙特卡洛(MCMC) 变分推断(Variational inference)…
Bayesian optimisation for smart hyperparameter search Fitting a single classifier does not take long, fitting hundreds takes a while. To find the best hyperparameters you need to fit a lot of classifiers. What to do? This post explores the inner work…
论文笔记系列-Neural Network Search :A Survey 论文 笔记 NAS automl survey review reinforcement learning Bayesian Optimization evolutionary algorithm  注:本文主要是结合自己理解对原文献的总结翻译,有的部分直接翻译成英文不太好理解,所以查阅原文会更直观更好理解. 本文主要就Search Space.Search Strategy.Performance Estimatio…
[题记] 我是一个菜鸟,这个系列是我的学习笔记. PyQt5 出来有一段时间了, PyQt5 较之 PyQt4 有一些变化,而网上流传的几乎都是 PyQt4 的教程,照搬的话大多会出错. eric6 也是刚刚出来,eric6 与 PyQt5 结合的教程网上几乎没有. 本人也是一边学习,一边摸索,并记录与此,希望帮到有需要的朋友,更希望路过的大侠多多指教为好. [引子] 用 eric6 与 PyQt5 结合,非常方便的实现界面与逻辑分离,满足python的极速GUI编程,你只需要关注程序的逻辑实现…
<!DOCTYPE html><html><head><meta charset="utf-8"><meta http-equiv="X-UA-Compatible" content="IE=edge,chrome=1"><title>我是广告</title><meta name="description" content="&…