机器学习 —— 概率图模型(Homework: MCMC)
除了精确推理之外,我们还有非精确推理的手段来对概率图单个变量的分布进行求解。在很多情况下,概率图无法简化成团树,或者简化成团树后单个团中随机变量数目较多,会导致团树标定的效率低下。以图像分割为例,如果每个像素的label都是随机变量,则图中会有30W个随机变量(30W像素的小型相机)。且这30W个随机变量相互之间耦合严重(4邻接,多回环),采用团树算法无法高效的获得单个像素label的可能值。所以,在精确推理之外,我们使用非精确推理的手段对节点的概率分布进行估计。
1、Loopy 置信传播
BP是精确推理中的概念,我们从root向leaf发射一次MESSAGE,再接受一次MESSAGE则可完成团树的标定,这个过程称为置信传播。但是在多回环的团树,BP非常难执行,由于环的存在会导致某个节点一直无法出于可发射MESSAGE的状态(此时的团树不叫团树,应该称为“聚类图”)。然而理论证明,如果我们预先给定一套消息传递的顺序,保证节点i -> j 传播且仅传播一次消息,那么消息最终会收敛到某个定值。一旦消息收敛到某个定值,则代表节点之间就某变量达成一致,我们获得概率图可行的分布。此时对聚类图中的变量进行边缘化,即可获得有效的单变量分布。
Loopy置信传播有3项极其重要的工作:
1、保证节点之间仅传播一次的传播顺序(此顺序显然不是唯一的)
2、获取每次传播后更新的消息
3、判断消息最终收敛
List = [];
edges_ = P.edges;
for i = 1:length(P.clusterList)
j = find(edges_(i,:),8);
List = [List; j' linspace(i,i,length(j))'];
end
length_list = length(List);
array_ = mod(m,length_list)+1;
ij = List(array_,:);
i = ij(1);
j = ij(2);
length_c = length(P.clusterList);
for m = 1:length_c
if m ~= j&&P.edges(m,i)==1
Belief(i) = FactorProduct(Belief(i), lastMESSAGES(m, i));
end
end
Belief(i).val = Belief(i).val/sum(Belief(i).val);
MESSAGES(i,j) = FactorMarginalization(Belief(i),setdiff(Belief(i).var,...
MESSAGES(i,j).var));
MESSAGES(i,j).val = MESSAGES(i,j).val/sum(MESSAGES(i,j).val);
converged = true;
thresh = 1.0e-6;
%converged should be 1 if converged, 0 otherwise. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% YOUR CODE HERE
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
[a_,b_] = size(mNew);
length_m = a_*b_;
m_New_array = reshape(mNew,length_m,1);
m_Old_array = reshape(mOld,length_m,1);
for i = 1:length_m
diff = m_New_array(i).val - m_Old_array(i).val;
if max(abs(diff)) > thresh
converged = false;
return
end
end
如果消息收敛,则我们可以得到聚类图中各个Cluster的联合分布,每个Cluster可能仅对应1~2个随机变量,很容易就能求到所有随机变量的分布。
2、MCMC
MCMC是马尔科夫蒙特卡罗的缩写。马尔科夫指的是马尔科夫链,蒙特卡罗指的是基于频率的随机变量分布推测方法。这里值得注意的是虽然马尔科夫链与马尔科夫场里面都有马尔科夫,这两样东西却是完全不同的。马尔科夫链是描述采样过程的一种模型,马尔科夫场是概率图模型。研究马尔科夫场可以帮助我们对随机变量进行建模,研究马尔科夫链可以帮助我们更好的求解马尔科夫场。对于马尔科夫链而言,我们可以从任意一个状态出发(一个状态就是所有var的一个assignment),转移到另一个状态。而转移到另一个状态的概率由MRF决定。最终,各种状态出现的次数则代表了assignment 对应的val.
2.1 吉布斯采样
吉布斯采样使用了非常朴素的概念,对于一个给定的assignment,如果此时更换var1的取值,则是转向下一个状态了。而var1本身的分布可能知道,但是与var1相关概率的联合分布是由Cluster决定的。只要总结MRF中var1所有的信息,并将上一个assignment作为”后验“,那么就可以求得var1”此时“的边缘分布了。依据此边缘分布决定一个var1的取值并更新assignment,就完成了采样。
所以Gibbs采样中有3个重要的地方:
1、求取与var1有关的分布
2、求取var1在先前assignment条件下的后验分布
3、依据结果分布更新var1的值
var_array = 1:length(A);
EVDCE = [var_array' A'];
factorLists = G.var2factors(V);
for j = 1:length(factorLists)
factorList = factorLists{j};
Distribution_= F(factorList(1));
length_fList = length(factorList);
if length_fList>1
for i = 2:length_fList
Distribution_ = FactorProduct(Distribution_,F(factorList(i)));
end
end
end EVDCE_var = setdiff(Distribution_.var,V);
EVDCE = EVDCE(EVDCE_var,:);
target_var = ObserveEvidence(Distribution_,EVDCE);
target_var = FactorMarginalization(target_var,setdiff(Distribution_.var,V));
LogBS = target_var.val;
LogBS = log(LogBS);
randSample();
2.2 Metropolis Hasting采样
在吉布斯采样中,存在陷入某个局部采样循环的风险。简而言之,如果var1,var2,var3具有很强的相关性,那么在给定var2,var3的条件下,var1很难取到其他值。并且,初始条件很容易将Gibbs采样陷入某个MC回环中,使得其无法遍历整个状态空间。最终导致错误的结果。MH采样与Gibbs采样不同,MH一次对所有var的assignment进行更新,同样是状态转移,显然MH会转移的更远。关于MC,其要达到稳态,必须满足稳态性质,定性而言:如果某个状态发生的概率越高,则其转移向其他概率的可能性必须很小,以保证很高的自转移概率。
如果有两个状态s1,s2,如果我们强制从s1 --> s2,那么必须决定从s1 --> s2的概率是多少。定性而言,如果s1 很难发生s2很容易发生,则这个转移发生的概率应该比较高。如果两者都很容易/很难发生,这个转移发生的概率应该一般容易发生。如果s1很容易发生,则转移会很难出现。依赖转移稳定公式建模,则有此转移发生的概率为:
式中:Q是计划转移的概率,pi是assignment发生的概率。A是接受概率。A的作用是对于任意Q,强制转移符合稳定性质。这里有两样东西是未知的:1、Q,2、A。相反pi是已知的。由于基于采样的算法是被用于图像分割等领域,var很多,card却很小,和ORC正好相反。card小的好处是我们可以直接求取联合分布,在依据联合分布进行查询,就可以获得pi了。
*********************************************** Q的设计据说是一份值60W刀年薪的job,不敢妄议。这里我们假设Q是给定的(uniform/SW) **********************************************
MH采样的流程如下:
1、给定Assignment,依据F求pi(Assignment)
2、根据上面的公式计算接受概率A
3、决定是否接受,完成采样更新Assignment
3.总结
基于团树的精确推理算法可以很好的完成树状结构聚类图的推理,并且运行速度很快。对于多环的结构我们可以选择LBP算法以及基于采样的算法。LBP算法的弱点是MESSAGE难以收敛,会耗费较长时间,但是其可以保证所有的Assignment都能被遍历到。基于采样的算法同样也会耗费一定的时间,但是这个时间是可控的,其决定于我们需要的迭代次数,对某些任务可以牺牲精度来换取迭代次数的减少。
至此,我们完成了所有推理相关工作的作业。然而这并不是完整的概率图,在之前的学习中,我们都假设factor的val是已知的,这个val难道来自秋名山的神秘车牌?显然不是的。它来自机器学习。
由于Coursera Honor Code,不再公布源码。
机器学习 —— 概率图模型(Homework: MCMC)的更多相关文章
- 机器学习 —— 概率图模型(Homework: Exact Inference)
在前三周的作业中,我构造了概率图模型并调用第三方的求解器对器进行了求解,最终获得了每个随机变量的分布(有向图),最大后验分布(双向图).本周作业的主要内容就是自行编写概率图模型的求解器.实际上,从根本 ...
- 机器学习 —— 概率图模型(Homework: CRF Learning)
概率图模型的作业越往后变得越来越有趣了.当然,难度也是指数级别的上涨啊,以至于我用了两个周末才完成秋名山神秘车牌的寻找,啊不,CRF模型的训练. 条件随机场是一种强大的PGM,其可以对各种特征进行建模 ...
- 机器学习 —— 概率图模型(Homework: Representation)
前两周的作业主要是关于Factor以及有向图的构造,但是概率图模型中还有一种更强大的武器——双向图(无向图.Markov Network).与有向图不同,双向图可以描述两个var之间相互作用以及联系. ...
- 机器学习 —— 概率图模型(Homework: StructuredCPD)
Week2的作业主要是关于概率图模型的构造,主要任务可以分为两个部分:1.构造CPD;2.构造Graph.对于有向图而言,在获得单个节点的CPD之后就可依据图对Combine CPD进行构造.在获得C ...
- 机器学习 —— 概率图模型(Homework: Factors)
Talk is cheap, I show you the code 第一章的作业主要是关于PGM的因子操作.实际上,因子是整个概率图的核心.对于有向图而言,因子对应的是CPD(条件分布):对无向图而 ...
- 机器学习 —— 概率图模型(学习:CRF与MRF)
在概率图模型中,有一类很重要的模型称为条件随机场.这种模型广泛的应用于标签—样本(特征)对应问题.与MRF不同,CRF计算的是“条件概率”.故其表达式与MRF在分母上是不一样的. 如图所示,CRF只对 ...
- 机器学习 —— 概率图模型(Homework: Structure Learning)
概率图的学习真的要接近尾声了啊,了解的越多越发感受到它的强大.这周的作业本质上是data mining.从数据中学习PGM的结构和参数,完全使用数据驱动 —— No structure, No par ...
- 机器学习 —— 概率图模型(CPD)
CPD是conditional probability distribution的缩写,翻译成中文叫做 条件概率分布.在概率图中,条件概率分布是一个非常重要的概念.因为概率图研究的是随机变量之间的练习 ...
- 机器学习 —— 概率图模型(推理:MAP)
MAP 是最大后验概率的缩写.后验概率指的是当有一定观测结果的情况下,对其他随机变量进行推理.假设随机变量的集合为X ,观察到的变量为 e, W = X-e , AP = P(W|e). 后验概率和联 ...
随机推荐
- C# 文件管理类 Directory
今天简单接触了一下C#的文件管理类,对类的大体功能做了简单的了解; 做项目用于判断文件是否存.在创建文件.删除文件较为常用:今天大体总结文件调取功能: public string GetFile() ...
- SQL左连接、右连接和内连接的简单示例
left join(左联接) 返回包括左表中的所有记录和右表中联结字段相等的记录: right join(右联接) 返回包括右表中的所有记录和左表中联结字段相等的记录: inner join(等值连接 ...
- MAC 升级到10.10(OS X Yosemite)下apache+php的配置问题
MAC升级到最新系统后 本地测试的站点不能正常运行,其原因是mac系统升级后 他的apache的版本也随之升级了版本 Server version: Apache/2.4.9 (Unix) Serve ...
- Daject初探 - 从Table模型得到Record模型
前言: 如果你还不知道Daject是什么,如何使用,可以浏览 http://www.cnblogs.com/kason/p/3577359.html github地址:https://github.c ...
- .net speed up
Ngen.exe http://www.cnblogs.com/yukaizhao/archive/2011/11/07/how-to-use-ugen.html Merge.exe Merge dl ...
- error: format not a string literal and no format arguments [-Werror=format-security]
You can put this in your Application.mk to disable treating those warnings as errors: APP_CFLAGS += ...
- WPF 多线程处理(4)
WPF 多线程处理(1) WPF 多线程处理(2) WPF 多线程处理(3) WPF 多线程处理(4) WPF 多线程处理(5) WPF 多线程处理(6) 开始一个线程处理读取的文件并且更新到list ...
- 工程移除CocoaPods依赖库
http://zanderzhang.gitcafe.io/2015/09/26/工程移除CocoaPods依赖库/ 点这里--->CocoaPods安装和使用教程 当我们工程安装很多第三方开源 ...
- Codeforces Round #327 (Div. 2) E. Three States
题目链接: 题目 E. Three States time limit per test:5 seconds memory limit per test:512 megabytes 问题描述 The ...
- Codeforces Round #352 (Div. 2) D. Robin Hood
题目链接: http://codeforces.com/contest/672/problem/D 题意: 给你一个数组,每次操作,最大数减一,最小数加一,如果最大数减一之后比最小数加一之后要小,则取 ...