通俗理解LDA主题模型
通俗理解LDA主题模型
0 前言
印象中,最開始听说“LDA”这个名词,是缘于rickjin在2013年3月写的一个LDA科普系列,叫LDA数学八卦,我当时一直想看来着,记得还打印过一次,但不知是由于这篇文档的前序铺垫太长(如今才意识到这些“铺垫”都是深刻理解LDA 的基础,但假设没有人帮助刚開始学习的人提纲挈领、把握主次、理清思路,则非常easy陷入LDA的细枝末节之中),还是由于当中的数学推导细节太多,导致一直没有完整看完过。
2013年12月,在我组织的Machine Learning读书会第8期上,@夏粉_百度 讲机器学习中排序学习的理论和算法研究。@沈醉2011 则讲主题模型的理解。又一次碰到了主题模型,当时貌似仅仅记得沈博讲了一个汪峰写歌词的样例。依旧没有理解LDA究竟是怎样一个东西(但理解了LDA之后。再看沈博主题模型的PPT会非常赞)。
直到昨日下午。机器学习班 第12次课上,邹讲完LDA之后,才真正明确LDA原来是那么一个东东!上完课后,趁热打铁,再次看LDA数学八卦,发现曾经看不下去的文档再看时居然一路都比較顺畅。一口气看完大部。看完大部后,思路清晰了。知道理解LDA。能够分为下述5个步骤:
- 一个函数:gamma函数
- 四个分布:二项分布、多项分布、beta分布、Dirichlet分布
- 一个概念和一个理念:共轭先验和贝叶斯框架
- 两个模型:pLSA、LDA(在本文第4 部分阐述)
- 一个採样:Gibbs採样
本文便依照上述5个步骤来阐述,希望读者看完本文后,能对LDA有个尽量清晰完整的了解。同一时候,本文基于邹讲LDA的PPT、rickjin的LDA数学八卦及其它參考资料写就,能够定义为一篇学习笔记或课程笔记,当然,兴许不断增加了非常多自己的理解。
若有不论什么问题,欢迎随时于本文评论下指出,thanks。
1 gamma函数
1.0 总体把握LDA
关于LDA有两种含义,一种是线性判别分析(Linear Discriminant Analysis),一种是概率主题模型:隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),本文讲后者。
另外,我先简单说下LDA的总体思想。不然我怕你看了半天。铺了太长的前奏。却依旧因没见到LDA的影子而显得“心浮气躁”,导致不想再继续看下去。所以,先给你吃一颗定心丸。明确总体框架后,咱们再一步步抽丝剥茧。展开来论述。
依照wiki上的介绍,LDA由Blei, David M.、Ng, Andrew Y.、Jordan于2003年提出。是一种主题模型,它能够将文档集 中每篇文档的主题以概率分布的形式给出。从而通过分析一些文档抽取出它们的主题(分布)出来后,便能够依据主题(分布)进行主题聚类或文本分类。同一时候,它是一种典型的词袋模型,即一篇文档是由一组词构成,词与词之间没有先后顺序的关系。
此外,一篇文档能够包括多个主题,文档中每一个词都由当中的一个主题生成。
人类是怎么生成文档的呢?LDA的这三位作者在原始论文中给了一个简单的样例。比方假设事先给定了这几个主题:Arts、Budgets、Children、Education,然后通过学习训练。获取每一个主题Topic相应的词语。例如以下图所看到的:
然后以一定的概率选取上述某个主题,再以一定的概率选取那个主题下的某个单词,不断的反复这两步,终于生成例如以下图所看到的的一篇文章(当中不同颜色的词语分别相应上图中不同主题下的词):
- 从狄利克雷分布中取样生成文档 i 的主题分布
- 从主题的多项式分布中取样生成文档i第 j 个词的主题
- 从狄利克雷分布中取样生成主题相应的词语分布
- 从词语的多项式分布中採样终于生成词语
当中,相似Beta分布是二项式分布的共轭先验概率分布。而狄利克雷分布. 假设你每写一篇文档会制作一颗K面的“文档-主题”骰子(扔此骰子能得到K个主题中的随意一个),和K个V面的“主题-词项” 骰子(每一个骰子相应一个主题,K个骰子相应之前的K个主题。且骰子的每一面相应要选择的词项,V个面相应着V个可选的词)。
- 比方可令K=3。即制作1个含有3个主题的“文档-主题”骰子,这3个主题能够是:教育、经济、交通。然后令V = 3,制作3个有着3面的“主题-词项”骰子,当中,教育主题骰子的3个面上的词能够是:大学、老师、课程。经济主题骰子的3个面上的词能够是:市场、企业、金融,交通主题骰子的3个面上的词能够是:高铁、汽车、飞机。
上述过程抽象出来即是PLSA的文档生成模型。在这个过程中,我们并未关注词和词之间的出现顺序,所以pLSA是一种词袋方法。详细说来,该模型假设一组共现(co-occurrence)词项关联着一个隐含的主题类别。
同一时候定义:
- 表示海量文档中某篇文档被选中的概率。
- 表示词在给定文档中出现的概率。
- 怎么计算得到呢?针对海量文档,对全部文档进行分词后,得到一个词汇列表。这样每篇文档就是一个词语的集合。
对于每一个词语,用它在文档中出现的次数除以文档中词语总的数目便是它在文档中出现的概率。
- 表示详细某个主题在给定文档下出现的概率。
- 表示详细某个词在给定主题下出现的概率,与主题关系越密切的词,其条件概率越大。
- 依照概率选择一篇文档
- 选定文档后,从主题分布中依照概率选择一个隐含的主题类别
- 选定后,从词分布中依照概率选择一个词
4.2.1 依据文档反推其主题分布
即文档d和单词w是可被观察到的,但主题z却是隐藏的。
由于可事先计算求出,而和未知,所以就是我们要预计的參数(值),通俗点说。就是要最大化这个θ。
用什么方法进行预计呢,经常使用的參数预计方法有极大似然预计MLE、最大后验证预计MAP、贝叶斯预计等等。由于该待预计的參数中含有隐变量z,所以我们能够考虑EM算法。
4.2.1.1 EM算法的简介
EM算法。全称为Expectation-maximization algorithm,为期望最大算法,其基本思想是:首先随机选取一个值去初始化待预计的值,然后不断迭代寻找更优的使得其似然函数likelihood 比原来的要大。
换言之,假定如今得到了。想求,使得
EM的关键便是要找到的一个下界(注:。当中。X表示已经观察到的随机变量)。然后不断最大化这个下界。通过不断求解下界的极大化,从而逼近要求解的似然函数。
所以EM算法的一般步骤为:
- 1. 随机选取或者依据先验知识初始化;
- 2. 不断迭代下述两步
- ①给出当前的參数预计,计算似然函数的下界
- ②又一次预计參数θ。即求,使得
- 3. 上述第二步后,假设收敛(即收敛)则退出算法,否则继续回到第二步。
上述过程好比在二维平面上。有两条不相交的曲线,一条曲线在上(简称上曲线)。一条曲线在下(简称下曲线),下曲线为上曲线的下界。如今对上曲线未知。仅仅已知下曲线,为了求解上曲线的最高点,我们试着不断增大下曲线。使得下曲线不断逼近上曲线,下曲线在某一个点达到局部最大值并与上曲线在这点的值相等,记录下这个值,然后继续增大下曲线,寻找下曲线上与上曲线上相等的值,迭代到收敛(即收敛)停止,从而利用当前下曲线上的局部最大值当作上曲线的全局最大值(换言之,EM算法不保证一定能找到全局最优值)。
例如以下图所看到的:
以下是详细介绍。
假定有训练集。包括m个独立样本,希望从中找到该组数据的模型p(x,z)的參数。
然后通过极大似然预计建立目标函数--对数似然函数:
这里,z是隐随机变量,直接找到參数的预计是非常困难的。
我们的策略是建立的下界。而且求该下界的最大值;反复这个过程,直到收敛到局部最大值。
令Qi是z的某一个分布。Qi≥0,且结合Jensen不等式,有:
为了寻找尽量紧的下界。我们能够让使上述等号成立,而若要让等号成立的条件则是:
换言之。有以下式子成立:。且由于有:
所以可得:
终于得到EM算法的总体框架例如以下:
OK,EM算法还会在本博客后面的博文中详细阐述。
接下来,回到pLSA參数的预计问题上。
4.2.1.2 EM算法预计pLSA的两未知參数
首先尝试从矩阵的角度来描写叙述待预计的两个未知变量和。
- 假定用表示词表在主题上的一个多项分布,则能够表示成一个向量,每一个元素表示词项出如今主题中的概率,即
- 用表示全部主题在文档上的一个多项分布,则能够表示成一个向量,每一个元素表示主题出如今文档中的概率,即
这样,巧妙的把和转换成了两个矩阵。
换言之,终于我们要求解的參数是这两个矩阵:
由于词和词之间是相互独立的,所以整篇文档N个词的分布为:
再由于文档和文档之间也是相互独立的,所以整个语料库中词的分布为(整个语料库M篇文档,每篇文档N个词):
当中。表示词项在文档中的词频。表示文档di中词的总数。显然有。
从而得到整个语料库的词分布的对数似然函数(下述公式中有个小错误,正确的应该是:N为M。M为N):
如今,我们须要最大化上述这个对数似然函数来求解參数和。对于这样的含有隐变量的最大似然预计,能够使用EM算法。EM算法,分为两个步骤:先E-step,后M-step。
- E-step:假定參数已知,计算此时隐变量的后验概率。
利用贝叶斯法则,能够得到:
- M-step:带入隐变量的后验概率,最大化样本分布的对数似然函数,求解相应的參数。
观察之前得到的对数似然函数的结果。由于文档长度能够单独计算。所以去掉它不影响最大化似然函数。
此外,依据E-step的计算结果,把 代入,于是我们仅仅要最大化以下这个函数 就可以(下述公式中有个小错误,正确的应该是:N为M,M为N):
这是一个多元函数求极值问题,而且已知有例如以下约束条件(下述公式中有个小错误,正确的应该是:M为N):
熟悉凸优化的朋友应该知道。一般处理这样的带有约束条件的极值问题,经常使用的方法便是拉格朗日乘数法,即通过引入拉格朗日乘子将约束条件和多元(目标)函数融合到一起,转化为无约束条件的极值问题。
这里我们引入两个拉格朗日乘子和,从而写出拉格朗日函数(下述公式中有个小错误,正确的应该是:N为M。M为N):
由于我们要求解的參数是和,所以分别对和求偏导。然后令偏导结果等于0,得到(下述公式中有个小错误。正确的应该是:N为M,M为N):
消去拉格朗日乘子,终于可预计出參数和(下述公式中有个小错误,正确的应该是:N为M,M为N):
综上。在pLSA中:
- 由于和未知,所以我们用EM算法去预计这个參数的值。
- 而后,用表示词项出如今主题中的概率。即,用表示主题出如今文档中的概率,即。从而把转换成了“主题-词项”矩阵Φ(主题生成词),把转换成了“文档-主题”矩阵Θ(文档生成主题)。
- 终于求解出、。
4.3 LDA模型
事实上,理解了pLSA模型,也就差点儿相同快理解了LDA模型。由于LDA就是在pLSA的基础上加层贝叶斯框架,即LDA就是pLSA的贝叶斯版本号(正由于LDA被贝叶斯化了,所以才须要考虑历史先验知识,才加的两个先验參数)。
4.3.1 pLSA跟LDA的对照:生成文档与參数预计
在pLSA模型中,我们依照例如以下的步骤得到“文档-词项”的生成模型:
- 依照概率选择一篇文档
- 选定文档后。确定文章的主题分布
- 从主题分布中依照概率选择一个隐含的主题类别
- 选定后,确定主题下的词分布
- 从词分布中依照概率选择一个词 ”
以下。咱们对照下本文开头所述的LDA模型中一篇文档生成的方式是怎样的:
- 依照先验概率选择一篇文档
- 从狄利克雷分布(即Dirichlet分布)中取样生成文档 的主题分布,换言之,主题分布由超參数为的Dirichlet分布生成
- 从主题的多项式分布中取样生成文档第 j 个词的主题
- 从狄利克雷分布(即Dirichlet分布)中取样生成主题相应的词语分布。换言之,词语分布由參数为的Dirichlet分布生成
- 从词语的多项式分布中採样终于生成词语 ”
从上面两个过程能够看出,LDA在PLSA的基础上,为主题分布和词分布分别加了两个Dirichlet先验。
继续拿之前解说PLSA的样例进行详细说明。
如前所述。在PLSA中,选主题和选词都是两个随机的过程,先从主题分布{教育:0.5,经济:0.3。交通:0.2}中抽取出主题:教育,然后从该主题相应的词分布{大学:0.5,老师:0.3,课程:0.2}中抽取出词:大学。
- PLSA中,主题分布和词分布是唯一确定的。能明确的指出主题分布可能就是{教育:0.5。经济:0.3。交通:0.2}。词分布可能就是{大学:0.5,老师:0.3,课程:0.2}。
- 但在LDA中,主题分布和词分布不再唯一确定不变。即无法确切给出。
比如主题分布可能是{教育:0.5,经济:0.3,交通:0.2}。也可能是{教育:0.6。经济:0.2,交通:0.2},究竟是哪个我们不再确定(即不知道)。由于它是随机的可变化的。但再怎么变化。也依旧服从一定的分布,即主题分布跟词分布由Dirichlet
先验随机确定。
- pLSA中,主题分布和词分布确定后。以一定的概率(、)分别选取详细的主题和词项,生成好文档。
而后依据生成好的文档反推其主题分布、词分布时,终于用EM算法(极大似然预计思想)求解出了两个未知但固定的參数的值:(由转换而来)和(由转换而来)。
- 文档d产生主题z的概率。主题z产生单词w的概率都是两个固定的值。
- 举个文档d产生主题z的样例。给定一篇文档d,主题分布是一定的,比方{ P(zi|d), i = 1,2,3 }可能就是{0.4,0.5,0.1},表示z1、z2、z3。这3个主题被文档d选中的概率都是个固定的值:P(z1|d) = 0.4、P(z2|d) = 0.5、P(z3|d) = 0.1,例如以下图所看到的(图截取自沈博PPT上):
- 但在贝叶斯框架下的LDA中,我们不再觉得主题分布(各个主题在文档中出现的概率分布)和词分布(各个词语在某个主题下出现的概率分布)是唯一确定的(而是随机变量),而是有非常多种可能。但一篇文档总得相应一个主题分布和一个词分布吧。怎么办呢?LDA为它们弄了两个Dirichlet先验參数,这个Dirichlet先验为某篇文档随机抽取出某个主题分布和词分布。
- 文档d产生主题z(准确的说。事实上是Dirichlet先验为文档d生成主题分布Θ,然后依据主题分布Θ产生主题z)的概率,主题z产生单词w的概率都不再是某两个确定的值。而是随机变量。
- 还是再次举下文档d详细产生主题z的样例。给定一篇文档d,如今有多个主题z1、z2、z3,它们的主题分布{ P(zi|d), i = 1,2,3 }可能是{0.4,0.5,0.1},也可能是{0.2,0.2,0.6},即这些主题被d选中的概率都不再觉得是确定的值,可能是P(z1|d) = 0.4、P(z2|d) = 0.5、P(z3|d) = 0.1,也有可能是P(z1|d) = 0.2、P(z2|d) = 0.2、P(z3|d) = 0.6等等。而主题分布究竟是哪个取值集合我们不确定(为什么?这就是贝叶斯派的核心思想。把未知參数当作是随机变量,不再觉得是某一个确定的值)。但其先验分布是dirichlet 分布,所以能够从无穷多个主题分布中依照dirichlet 先验随机抽取出某个主题分布出来。例如以下图所看到的(图截取自沈博PPT上):
好比,我去一朋友家:
- 依照频率派的思想,我预计他在家的概率是1/2。不在家的概率也是1/2,是个定值。
- 而依照贝叶斯派的思想。他在家不在家的概率不再觉得是个定值1/2,而是随机变量。比方依照我们的经验(比方当天周末),推測他在家的概率是0.6,但这个0.6不是说就是全然确定的。也有可能是0.7。
如此。贝叶斯派没法确切给出參数的确定值(0.3,0.4,0.6,0.7,0.8,0.9都有可能),但至少明确在哪个范围或哪些取值(0.6,0.7。0.8,0.9)更有可能,哪个范围或哪些取值(0.3,0.4) 不太可能。
进一步。贝叶斯预计中,參数的多个预计值服从一定的先验分布,而后依据实践获得的数据(比如周末不断跑他家)。不断修正之前的參数预计。从先验分布慢慢过渡到后验分布。
假设是在机器学习班上face-to-face,更好解释和沟通。
4.3.2 LDA生成文档过程的进一步理解
为了说清晰这个问题,咱们得回想下dirichlet分布。事实上。假设我们取3个事件的话,能够建立一个三维坐标系。相似xyz三维坐标系,这里。我们把3个坐标轴弄为p1、p2、p3,例如以下图所看到的:
在这个三维坐标轴所划分的空间里,每一个坐标点(p1,p2,p3)就相应着一个主题分布。且某一个点(p1,p2,p3)的大小表示3个主题z1、z2、z3出现的概率大小(由于各个主题出现的概率和为1。所以p1+p2+p3 = 1,且p1、p2、p3这3个点最大取值为1)。比方(p1,p2,p3) = (0.4,0.5,0.1)便相应着主题分布{ P(zi), i =1,2,3 } = {0.4,0.5,0.1}。
能够想象到,空间里有非常多这样的点(p1,p2,p3)。意味着有非常多的主题分布可供选择,那dirichlet分布怎样选择主题分布呢?把上面的斜三角形放倒。映射究竟面的平面上,便得到例如以下所看到的的一些彩图(3个彩图中,每一个点相应一个主题分布,高度代表某个主题分布被dirichlet分布选中的概率。且选不同的。dirichlet 分布会偏向不同的主题分布):
4.3.3 pLSA跟LDA的概率图对照
- 假定语料库中共同拥有M篇文章,每篇文章下的Topic的主题分布是一个从參数为的Dirichlet先验分布中採样得到的Multinomial分布。每一个Topic下的词分布是一个从參数为的Dirichlet先验分布中採样得到的Multinomial分布。
- 对于某篇文章中的第n个词,首先从该文章中出现的每一个主题的Multinomial分布(主题分布)中选择或採样一个主题,然后再在这个主题相应的词的Multinomial分布(词分布)中选择或採样一个词。不断反复这个随机生成过程,直到M篇文章全部生成完毕。
- 当中。→θ→z 表示生成文档中的全部词相应的主题,显然 →θ 相应的是Dirichlet 分布,θ→z 相应的是 Multinomial 分布。所以总体是一个 Dirichlet-Multinomial 共轭结构。例如以下图所看到的:
- 相似的,→φ→w,easy看出, 此时β→φ相应的是 Dirichlet 分布, φ→w 相应的是 Multinomial 分布, 所以总体也是一个Dirichlet-Multinomial 共轭结构,例如以下图所看到的:
4.3.4 pLSA跟LDA參数预计方法的对照
- 在pLSA中,我们使用EM算法去预计“主题-词项”矩阵Φ(由转换得到)和“文档-主题”矩阵Θ(由转换得到)这两个參数,而且这两參数都是个固定的值。仅仅是未知,使用的思想事实上就是极大似然预计MLE。
- 而在LDA中,预计Φ、Θ这两未知參数能够用变分(Variational inference)-EM算法,也能够用gibbs採样,前者的思想是最大后验预计MAP(MAP与MLE相似,都把未知參数当作固定的值),后者的思想是贝叶斯预计。贝叶斯预计是对MAP的扩展,但它与MAP有着本质的不同。即贝叶斯预计把待预计的參数看作是服从某种先验分布的随机变量。
- 关于贝叶斯预计再举个样例。假设中国的大学仅仅有两种:理工科和文科,这两种学校数量的比例是1:1。当中,理工科男女比例7:1,文科男女比例1:7。某天你被外星人随机扔到一个校园,问你该学校可能的男女比例是多少?然后,你实际到该校园里逛了一圈,看到的5个人全是男的。这时候再次问你这个校园的男女比例是多少?
- 由于刚開始时,有先验知识,所以该学校的男女比例要么是7:1。要么是1:7,即P(比例为7:1) = 1/2,P(比例为1:7) = 1/2。
- 然后看到5个男生后又一次预计男女比例。事实上就是求P(比例7:1|5个男生)= ?,P(比例1:7|5个男生) = ?
- 用贝叶斯公式,可得:P(比例7:1|5个男生) = P(比例7:1)*P(5个男生|比例7:1) / P(5个男生),P(5个男生)是5个男生的先验概率。与学校无关,所以是个常数;相似的,P(比例1:7|5个男生) = P((比例1:7)*P(5个男生|比例1:7)/P(5个男生)。
- 最后将上述两个等式比一下。可得:P(比例7:1|5个男生)/P(比例1:7|5个男生) = {P((比例7:1)*P(5个男生|比例7:1)} / { P(比例1:7)*P(5个男生|比例1:7)}。
由于LDA把要预计的主题分布和词分布看作是其先验分布是Dirichlet分布的随机变量,所以,在LDA这个预计主题分布、词分布的过程中,它们的先验分布(即Dirichlet分布)事先由人为给定,那么LDA就是要去求它们的后验分布(LDA中可用gibbs採样去求解它们的后验分布。得到期望、)!
4.3.5 LDA參数预计:Gibbs採样
理清了LDA中的物理过程,以下咱们来看下怎样学习预计。
相似于pLSA。LDA的原始论文中是用的变分-EM算法预计未知參数,后来发现还有一种预计LDA未知參数的方法更好,这样的方法就是:Gibbs Sampling,有时叫Gibbs採样或Gibbs抽样。都一个意思。Gibbs抽样是马尔可夫链蒙特卡尔理论(MCMC)中用来获取一系列近似等于指定多维概率分布(比方2个或者多个随机变量的联合概率分布)观察样本的算法。
OK,给定一个文档集合。w是能够观察到的已知变量,和是依据经验给定的先验參数,其它的变量z,θ和φ都是未知的隐含变量,须要依据观察到的变量来学习预计的。依据LDA的图模型,能够写出全部变量的联合分布:
注:上述公式中及下文中。等价上文中定义的。等价于上文中定义的。等价于上文中定义的。。
由于产生主题分布θ,主题分布θ确定详细主题,且产生词分布φ、词分布φ确定详细词,所以上述式子等价于下述式子所表达的联合概率分布:
当中,第一项因子表示的是依据确定的主题和词分布的先验分布參数採样词的过程,第二项因子是依据主题分布的先验分布參数採样主题的过程,这两项因子是须要计算的两个未知參数。
由于这两个过程是独立的。所以以下能够分别处理。各个击破。
第一个因子,能够依据确定的主题和从先验分布取样得到的词分布Φ产生:
由于样本中的词服从參数为主题的独立多项分布,这意味着能够把上面对词的乘积分解成分别对主题和对词的两层乘积:
当中,是词 t 在主题 k 中出现的次数。
回到第一个因子上来。
目标分布须要对词分布Φ积分。且结合我们之前在3.1节定义的Dirichlet 分布的归一化系数的公式
可得:
这个结果能够看作K个Dirichlet-Multinomial模型的乘积。
如今開始求第二个因子。相似于的步骤。先写出条件分布,然后分解成两部分的乘积:
当中。 表示的单词 i 所属的文档,是主题 k 在文章 m 中出现的次数。
对主题分布Θ积分可得:
综合第一个因子和第二个因子的结果,得到的联合分布结果为:
“ 假设,相同能够证明有下述结论成立:
”
所以,终于求解的Dirichlet 分布期望为:
如此,K 个topic 相应着K条路径,Gibbs Sampling 便在这K 条路径中进行採样。例如以下图所看到的:
5 读者微评
- @SiNZeRo:lda 假设用em就是 map预计了. lda本意是要去找后验分布 然后拿后验分布做bayesian分析. 比方theta的期望 . 而不是把先验作为正则化引入。最后一点gibbs sampling事实上不是求解的过程 是去explore后验分布 去採样 用于求期望.
- @研究者July:好问题好建议,这几天我陆续完好下!//@帅广应s:LDA这个东西该怎么用?能够用在哪些地方?还有就是Gibbs抽样的原理是什么?代码怎么实现?假设用EM来做,代码怎么实现? LDA模型的变形和优化有哪些?LDA不适用于解决哪类的问题?总之,不明确怎么用,參数怎么调优?
- @xiangnanhe:写的非常好,4.1.3节中的那两个图非常赞,非常直观的理解了LDA模型加了先验之后在学參数的时候要比PLSI更灵活;PLSI在学參数的过程中比較easy陷入local minimum然后overfitting。
- @asker2:不管是pLSA中,还是LDA中,主题分布和词分布本身是固定的存在,但都未知。
pLSA跟LDA的差别在于,去探索这两个未知參数的方法或思想不一样。
pLSA是求到一个能拟合文本最好的參数(分布),这个值就觉得是真实的參数。
但LDA觉得,事实上我们没法去全然求解出主题分布、词分布究竟是什么參数,我们仅仅能把它们当成随机变量。通过缩小其方差(变化度)来尽量让这个随机变量变得更“确切”。换言之,我们不再求主题分布、词分布的详细值,而是通过这些分布生成的观測值(即实际文本)来反推分布的參数的范围,即在什么范围比較可能,在什么范围不太可能。所以,事实上这就是一种贝叶斯分析的思想,尽管无法给出真实值详细是多少。但能够依照经验给一个相对合理的真实值服从的先验分布。然后从先验出发求解其后验分布。
- ..
6 參考文献与推荐阅读
- Blei, David M.; Ng, Andrew Y.; Jordan, Michael I. Latent Dirichlet allocation(LDA原始论文):http://www.jmlr.org/papers/volume3/blei03a/blei03a.pdf。
- Blei. Probabilistic Topic Models:http://www.cs.princeton.edu/~blei/papers/Blei2012.pdf,一网友的翻译:http://www.cnblogs.com/siegfang/archive/2013/01/30/2882391.html。
- 一堆wikipedia,比方隐含狄利克雷分布LDA的wiki:http://zh.wikipedia.org/wiki/%E9%9A%90%E5%90%AB%E7%8B%84%E5%88%A9%E5%85%8B%E9%9B%B7%E5%88%86%E5%B8%83,狄利克雷分布的wiki:http://zh.wikipedia.org/wiki/%E7%8B%84%E5%88%A9%E5%85%8B%E9%9B%B7%E5%88%86%E5%B8%83。
- 从贝叶斯方法谈到贝叶斯网络 ;
- rickjin的LDA数学八卦(力荐,本文部分图片和公式来自于此文档)网页版:http://www.flickering.cn/tag/lda/。PDF版:http://emma.memect.com/t/9756da9a47744de993d8df13a26e04e38286c9bc1c5a0d2b259c4564c6613298/LDA;
- Thomas Hofmann.Probabilistic Latent Semantic Indexing(pLSA原始论文):http://cs.brown.edu/~th/papers/Hofmann-SIGIR99.pdf;
- Gregor Heinrich.Parameter estimation for text analysis(关于Gibbs 採样最精准细致的论述):http://www.arbylon.net/publications/text-est.pdf;
- Probabilistic latent semantic analysis (pLSA):http://blog.tomtung.com/2011/10/plsa/http://blog.tomtung.com/2011/10/plsa/。
- 《概率论与数理统计教程第二版 茆诗松等人著》。假设忘了相关统计分布。建议复习此书或此文第二部分;
- 《支持向量机通俗导论:理解SVM的三层境地》。第二部分关于拉格朗日函数的讨论;
- 机器学习班第11次课上,邹博讲EM & GMM的PPT:http://pan.baidu.com/s/1i3zgmzF;
- 机器学习班第12次课上。邹博讲主题模型LDA的PPT:http://pan.baidu.com/s/1jGghtQm;
- 主题模型之pLSA:http://blog.jqian.net/post/plsa.html。
- 主题模型之LDA:http://blog.jqian.net/post/lda.html;
- 搜索背后的奥秘——浅谈语义主题计算:http://www.semgle.com/search-engine-algorithms-mystery-behind-search-on-the-calculation-of-semantic-topic;
- LDA的EM推导:http://www.cnblogs.com/hebin/archive/2013/04/25/3043575.html;
- Machine Learning读书会第8期上,沈博讲主题模型的PPT:http://vdisk.weibo.com/s/zrFL6OXKgKMAf;
- Latent Dirichlet Allocation (LDA)- David M.Blei:http://www.xperseverance.net/blogs/2012/03/17/。
- 用GibbsLDA做Topic Modeling:http://weblab.com.cityu.edu.hk/blog/luheng/2011/06/24/%E7%94%A8gibbslda%E5%81%9Atopic-modeling/#comment-87;
- 主题模型在文本挖掘中的应用:http://net.pku.edu.cn/~zhaoxin/Topic-model-xin-zhao-wayne.pdf;
- 二项分布和多项分布,beta分布的对照:http://www.cnblogs.com/wybang/p/3206719.html;
- LDA简介:http://cos.name/2010/10/lda_topic_model/;
- LDA的相关论文、工具库:http://site.douban.com/204776/widget/notes/12599608/note/287085506/。
- 一个网友学习LDA的心得:http://www.xuwenhao.com/2011/03/20/suggestions-for-programmers-to-learn-lda/。
- http://blog.csdn.net/hxxiaopei/article/details/7617838;
- 主题模型LDA及其在微博推荐&广告算法中的应用:http://www.wbrecom.com/?
p=136
。 - LDA发明人之中的一个Blei 写的毕业论文:http://www.cs.princeton.edu/~blei/papers/Blei2004.pdf;
- LDA的一个C实现:http://www.cs.princeton.edu/~blei/lda-c/index.html。
- LDA的一些其它资料:http://www.xperseverance.net/blogs/2012/03/657/。
7 后记
前5天就像在树林里中行走,要走的慷慨向非常明确,但在选取哪条小道上则颇费了一番周折,但当最后走出了树林。登上山顶,俯瞰整个森林时,奥,原来它就长这样,会有一种彻爽的感觉!
而后5 天。则慢慢開始接近LDA的本质:pLSA的贝叶斯版本号。
通俗理解LDA主题模型的更多相关文章
- 通俗理解LDA主题模型(boss)
0 前言 看完前面几篇简单的文章后,思路还是不清晰了,但是稍微理解了LDA,下面@Hcy开始详细进入boss篇.其中文章可以分为下述5个步骤: 一个函数:gamma函数 四个分布:二项分布.多项分布. ...
- 理解 LDA 主题模型
前言 gamma函数 0 整体把握LDA 1 gamma函数 beta分布 1 beta分布 2 Beta-Binomial 共轭 3 共轭先验分布 4 从beta分布推广到Dirichlet 分布 ...
- 机器学习-LDA主题模型笔记
LDA常见的应用方向: 信息提取和搜索(语义分析):文档分类/聚类.文章摘要.社区挖掘:基于内容的图像聚类.目标识别(以及其他计算机视觉应用):生物信息数据的应用; 对于朴素贝叶斯模型来说,可以胜任许 ...
- LDA主题模型(理解篇)
何谓“主题”呢?望文生义就知道是什么意思了,就是诸如一篇文章.一段话.一个句子所表达的中心思想.不过从统计模型的角度来说, 我们是用一个特定的词频分布来刻画主题的,并认为一篇文章.一段话.一个句子是从 ...
- 自然语言处理之LDA主题模型
1.LDA概述 在机器学习领域,LDA是两个常用模型的简称:线性判别分析(Linear Discriminant Analysis)和 隐含狄利克雷分布(Latent Dirichlet Alloca ...
- [综] Latent Dirichlet Allocation(LDA)主题模型算法
多项分布 http://szjc.math168.com/book/ebookdetail.aspx?cateid=1&§ionid=983 二项分布和多项分布 http:// ...
- LDA主题模型三连击-入门/理论/代码
目录 概况 为什么需要 LDA是什么 LDA的应用 gensim应用 数学原理 预备知识 抽取模型 样本生成 代码编写 本文将从三个方面介绍LDA主题模型--整体概况.数学推导.动手实现. 关于LDA ...
- LDA主题模型评估方法–Perplexity
在LDA主题模型之后,需要对模型的好坏进行评估,以此依据,判断改进的参数或者算法的建模能力. Blei先生在论文<Latent Dirichlet Allocation>实验中用的是Per ...
- Gensim LDA主题模型实验
本文利用gensim进行LDA主题模型实验,第一部分是基于前文的wiki语料,第二部分是基于Sogou新闻语料. 1. 基于wiki语料的LDA实验 上一文得到了wiki纯文本已分词语料 wiki.z ...
随机推荐
- vue项目设置每个页面的title
1.在项目目录下安装vue-wechat-title 2.在main.js中 使用vue-wechat-title 3.在router的配置中设置 4.在每个vue页面中加入 <div v-we ...
- 使用HTML5+调用手机摄像头和相册
前言:前端时间使用HTML5做了一个WEB端APP,其中用到了H5页面调用手机摄像头的功能,当时也是花了不少时间去研究.最终是采用了HTML5plus(HTML5+)的方式完成了该功能,现将具体方法简 ...
- CentOS7-Git安装以及使用
2018-09-14 Git安装 在bash终端中输入命令sudo yum install git回车. (出乎意料的顺利) 在随后出现的交互式对话中输入y即可. 随后,当任务执行完后,在bash中键 ...
- 笔试算法题(03):最小第K个数 & 判定BST后序序列
出题:输入N个整数,要求输出其中最小的K个数: 分析: 快速排序和最小堆都可以解决最小(大)K个数的问题(时间复杂度为O(NlogN)):另外可以建立大小为K的最大堆,将前K个数不断插入最大堆,对于之 ...
- Python基础(十)re模块
Python基础阶段快到一段落,下面会陆续来介绍python面向对象的编程,今天主要是补充几个知识点,下面开始今天的内容. 一.反射 反射的作用就是列出对象的所有属性和方法,反射就是告诉我们,这个对象 ...
- STM32F407 开发环境搭建 程序下载 个人笔记
详细资料: http://www.openedv.com/thread-13912-1-1.html 需要安装的软件: 1.keil(MDK,必选),用keygen破解 2.CH340驱动,(usb串 ...
- Mybatis传递多个参数的4种方式(干货)
Mybatis传递多个参数的4种方式(干货)-----https://blog.csdn.net/youanyyou/article/details/79406486
- jQuery学习之------元素样式的操作
jQuery学习之------元素样式的操作 一..addClass( className )方法----增加样式 1.addClass( className ) : 为每个匹配元素所要增加的一个或多 ...
- Leetcode 204计数质数
计数质数 统计所有小于非负整数 n 的质数的数量. 示例: 输入: 10 输出: 4 解释: 小于 10 的质数一共有 4 个, 它们是 2, 3, 5, 7 . 比计算少n中素数的个数. 素数又称质 ...
- 九度oj 题目1203:IP地址
题目1203:IP地址 时间限制:1 秒 内存限制:32 兆 特殊判题:否 提交:3636 解决:1800 题目描述: 输入一个ip地址串,判断是否合法. 输入: 输入的第一行包括一个整数n(1< ...