EM 算法(一)-原理
讲到 EM 算法就不得不提极大似然估计,我之前讲过,请参考我的博客
下面我用一张图解释极大似然估计和 EM 算法的区别
EM 算法引例1-抛3枚硬币
还是上图中抛硬币的例子,假设最后结果正面记为1,反面记为0,抛10次,结果为 1101001011;
下面我用数据公式解释下这个例子和 EM 算法;
三硬币模型可以写作
θ 表示模型参数,即 三枚硬币正面的概率,用 π p q 表示;
y 表示观测随机变量,取值为 0,1;
z 表示隐随机变量,在本例中就是 A 的正反面,或者是选择 B 还是不选择 B;
P(y|θ) 表示该参数下,y 出现的概率;
剩下的不多解释,很容易理解
将观测变量表示为 Y=(Y1,Y2...YN),将隐变量表示为 Z=(Z1,Z2...ZN),则观测变量的似然函数为
n 是实验次数
连乘取 log,转换成 θ 的对数似然函数
这个式子是问题的本质,但是它没有解析解,只能通过迭代求解
EM 算法就是一种迭代的算法
迭代首先要有个初值,即 θ 的初始化
假设我们已经迭代了 i 次,获得新的 θ
接下来要求 i+1 次的 θ 【这里就是要建立迭代关系,很重要的一步】
重点是得到隐随机变量的期望,根据 θi 得到第 i+1 次 B 出现的概率
【B/B+C】
上式用概率表示为 P(B|y,θ) ,也就是在参数为 θ 时,基于 y 计算 B 的概率 【上式是李航教材里这么写的,个人认为应该是把所有观测变量 带入 该式子,然后求平均,也就是 B 的期望】
这是 B 出现的概率,也就是预估,或者说期望,Exception,也就是 EM 的 E 步
1-ui+1 也就是 C 出现的概率;
然后就可以根据观测变量,重新计算 θ
π 代表 A 出现正面的概率,等价于隐随机变量是 B 的概率,实验 n 次,求均值即可
p 代表 B 出现正面的概率,即隐变量是 B,然后观测变量是 1
q 代表 C 出现正面的概率,即隐变量是 C,然后观测变量是 1
似然函数解析
这一步使得 θ 的对数似然函数更大,即 EM 的 M 步,max
有了新的 θ,继续迭代即可,直至 θ 不变或者 θi+1-θi<阈值,停止迭代
笔者展示了如下迭代
我想强调的是 初值 对结果有影响,也就是 EM 算法对初值敏感
小结
EM 算法引例2-抛2枚硬币
有两枚硬币 A B,每次从两枚硬币中随机取一个,抛 10 次,记录每次正反面,总共取 5 次,也就是抛 50 次;
目标是预测 A B 各自正面朝上的概率
抛开这个问题,我们考虑一下,随便拿个硬币,抛100次,正面出现60次,反面出现40次,那这枚硬币正面朝上的概率岂不就是 0.6,是的,然后回到我们的实验
极大似然
假如我们知道每次取得是 A 还是 B,那就没有隐变量,转换成极大似然问题,很简单;
EM
现在我们不知道取出来的是 A 还是 B,就有了隐变量,转换成 EM 问题
EM 算法
由以上两个例子,我们引出 EM 算法的具体描述
EM 算法的收敛
EM算法是可以正面收敛性的,后续在补充吧,毕竟麻烦
参考资料:
https://zhuanlan.zhihu.com/p/36331115 人人都懂EM算法
https://www.zhihu.com/question/40797593/answer/275171156
https://zhuanlan.zhihu.com/p/78311644
https://zhuanlan.zhihu.com/p/60376311 猴子也能理解的EM算法
https://blog.csdn.net/u014157632/article/details/65442165
《统计学习方法》 李航
《机器学习》 周志华
EM 算法(一)-原理的更多相关文章
- EM算法原理总结
EM算法也称期望最大化(Expectation-Maximum,简称EM)算法,它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM), LDA主题模型的变分推断等等.本文就对 ...
- EM算法及其应用(一)
EM算法及其应用(一) EM算法及其应用(二): K-means 与 高斯混合模型 EM算法是期望最大化 (Expectation Maximization) 算法的简称,用于含有隐变量的情况下,概率 ...
- 机器学习中的EM算法具体解释及R语言实例(1)
最大期望算法(EM) K均值算法很easy(可參见之前公布的博文),相信读者都能够轻松地理解它. 但以下将要介绍的EM算法就要困难很多了.它与极大似然预计密切相关. 1 算法原理 最好还是从一个样例開 ...
- EM算法原理简析——图解
一. 扯淡 转眼间毕业快一年了,这期间混了两份工作,从游戏开发到算法.感觉自己还是喜欢算法,可能是大学混了几年算法吧!所以不想浪费基础... 我是个懒得写博客的人,混了几年coding,写的博客不超过 ...
- 2. EM算法-原理详解
1. EM算法-数学基础 2. EM算法-原理详解 3. EM算法-高斯混合模型GMM 4. EM算法-高斯混合模型GMM详细代码实现 5. EM算法-高斯混合模型GMM+Lasso 1. 前言 概率 ...
- EM算法原理以及高斯混合模型实践
EM算法有很多的应用: 最广泛的就是GMM混合高斯模型.聚类.HMM等等. The EM Algorithm 高斯混合模型(Mixtures of Gaussians)和EM算法 EM算法 求最大似然 ...
- EM算法原理
在聚类中我们经经常使用到EM算法(i.e. Estimation - Maximization)进行參数预计, 在该算法中我们通过函数的凹/凸性,在estimation和maximization两步中 ...
- EM算法原理详解
1.引言 以前我们讨论的概率模型都是只含观测变量(observable variable), 即这些变量都是可以观测出来的,那么给定数据,可以直接使用极大似然估计的方法或者贝叶斯估计的方法:但是当模型 ...
- EM算法--原理
EM算法即期望最大化(Expection Maximization)算法,是一种最优化算法,在机器学习领域用来求解含有隐变量的模型的最大似然问题.最大似然是一种求解模型参数的方法,顾名思义,在给定一组 ...
随机推荐
- TCP 之 TCP_NEW_SYN_RECV状态
概述 以前的TCP请求控制块没有独立的状态,而是依赖于他们的父控制块的状态,也就是TCP_LISTEN状态,现在要把请求控制块加入到全局的ehash中,所以需要一个状态,而TCP_SYN_RECV状态 ...
- SpringBoot2.X 静态文件配置
Spring Boot 默认会挨个从 META/resources > resources > static > public 里面找是否存在相应的资源,如果有则直接返回. 默认配置 ...
- 黑马lavarel教程---12、lavarel验证码
黑马lavarel教程---12.lavarel验证码 一.总结 一句话总结: 用插件的时候仔细看插件的版本要求 1.lavarel安装验证码插件的时候,如果(可选)需要定义自己的配置,则需要生成配置 ...
- cad二次开发中DBText对象的外框GeometricExtents有问题?
CAD2007版本 acDoc.Editor.WriteMessage( string.Format("[{0:F1},{1:F1},{2:F1}] - [{3:F1},{4:F1},{5: ...
- Collapse 折叠面板
通过折叠面板收纳内容区域 基础用法 可同时展开多个面板,面板之间不影响 <el-collapse v-model="activeNames" @change="ha ...
- re 模块, 正则表达式 \w+\d+ 的重复问题引发的题目解析
题目 计算以下代码的结果 s = "?!.18)dajslj$12.15613sdadw.123sdasda35615.168sndsda$15.6sdasd.sdfsdgw123.156s ...
- MySQL 将 字符串 转为 整数
MySQL 将 字符串 转为 整数 1.CAST(epr AS type) 1)type 为 SIGNED " AS SIGNED); 效果如下: 2)type 为 UNSIGNED &qu ...
- json字符串转map、json数组演示
公司项目用的IBM封装的json解析,此处采用阿里的fastjson进行演示,代码如下: package com.alphajuns.test; import com.alibaba.fastjson ...
- paramiko实现登录主机
Paramiko模块使用 实现目的:192.168.0.61通过Paramiko模块登录192.168.0.63 一.下载安装 由于 paramiko 模块内部依赖pycrypto,所以先下载安装py ...
- 使用 WebStorm alt+f2 快速打开浏览器测试的一点bug
这个bug是涉及到中英文文件名的问题(不涉及到路径名): Case 1: 中文文件名 当打开alt+f2快捷方式打开含有中文名的html文件时,路径名直接变为localhost,所以找不到要打开的文件 ...