1. '''
  2. 数据集:伪造数据集(两个高斯分布混合)
  3. 数据集长度:1000
  4. ------------------------------
  5. 运行结果:
  6. ----------------------------
  7. the Parameters set is:
  8. alpha0:0.3, mu0:0.7, sigmod0:-2.0, alpha1:0.5, mu1:0.5, sigmod1:1.0
  9. ----------------------------
  10. the Parameters predict is:
  11. alpha0:0.4, mu0:0.6, sigmod0:-1.7, alpha1:0.7, mu1:0.7, sigmod1:0.9
  12. ----------------------------
  13. '''
  14. import numpy as np
  15. import random
  16. import math
  17. import time
  18. def loadData(mu0, sigma0, mu1, sigma1, alpha0, alpha1):
  19. '''
  20. 初始化数据集
  21. 这里通过服从高斯分布的随机函数来伪造数据集
  22. :param mu0: 高斯0的均值
  23. :param sigma0: 高斯0的方差
  24. :param mu1: 高斯1的均值
  25. :param sigma1: 高斯1的方差
  26. :param alpha0: 高斯0的系数
  27. :param alpha1: 高斯1的系数
  28. :return: 混合了两个高斯分布的数据
  29. '''
  30. # 定义数据集长度为1000
  31. length = 1000
  32. # 初始化第一个高斯分布,生成数据,数据长度为length * alpha系数,以此来
  33. # 满足alpha的作用
  34. data0 = np.random.normal(mu0, sigma0, int(length * alpha0))
  35. # 第二个高斯分布的数据
  36. data1 = np.random.normal(mu1, sigma1, int(length * alpha1))
  37. # 初始化总数据集
  38. # 两个高斯分布的数据混合后会放在该数据集中返回
  39. dataSet = []
  40. # 将第一个数据集的内容添加进去
  41. dataSet.extend(data0)
  42. # 添加第二个数据集的数据
  43. dataSet.extend(data1)
  44. # 对总的数据集进行打乱(其实不打乱也没事,只不过打乱一下直观上让人感觉已经混合了
  45. # 读者可以将下面这句话屏蔽以后看看效果是否有差别)
  46. random.shuffle(dataSet)
  47. #返回伪造好的数据集
  48. return dataSet
  49. def calcGauss(dataSetArr, mu, sigmod):
  50. '''
  51. 根据高斯密度函数计算值
  52. 依据:“9.3.1 高斯混合模型” 式9.25
  53. 注:在公式中y是一个实数,但是在EM算法中(见算法9.2的E步),需要对每个j
  54. 都求一次yjk,在本实例中有1000个可观测数据,因此需要计算1000次。考虑到
  55. 在E步时进行1000次高斯计算,程序上比较不简洁,因此这里的y是向量,在numpy
  56. 的exp中如果exp内部值为向量,则对向量中每个值进行exp,输出仍是向量的形式。
  57. 所以使用向量的形式1次计算即可将所有计算结果得出,程序上较为简洁
  58. :param dataSetArr: 可观测数据集
  59. :param mu: 均值
  60. :param sigmod: 方差
  61. :return: 整个可观测数据集的高斯分布密度(向量形式)
  62. '''
  63. # 计算过程就是依据式9.25写的,没有别的花样
  64. result = (1 / (math.sqrt(2*math.pi)*sigmod**2)) * np.exp(-1 * (dataSetArr-mu) * (dataSetArr-mu) / (2*sigmod**2))
  65. # 返回结果
  66. return result
  67. def E_step(dataSetArr, alpha0, mu0, sigmod0, alpha1, mu1, sigmod1):
  68. '''
  69. EM算法中的E步
  70. 依据当前模型参数,计算分模型k对观数据y的响应度
  71. :param dataSetArr: 可观测数据y
  72. :param alpha0: 高斯模型0的系数
  73. :param mu0: 高斯模型0的均值
  74. :param sigmod0: 高斯模型0的方差
  75. :param alpha1: 高斯模型1的系数
  76. :param mu1: 高斯模型1的均值
  77. :param sigmod1: 高斯模型1的方差
  78. :return: 两个模型各自的响应度
  79. '''
  80. # 计算y0的响应度
  81. # 先计算模型0的响应度的分子
  82. gamma0 = alpha0 * calcGauss(dataSetArr, mu0, sigmod0)
  83. # 模型1响应度的分子
  84. gamma1 = alpha1 * calcGauss(dataSetArr, mu1, sigmod1)
  85. # 两者相加为E步中的分布
  86. sum = gamma0 + gamma1
  87. # 各自相除,得到两个模型的响应度
  88. gamma0 = gamma0 / sum
  89. gamma1 = gamma1 / sum
  90. # 返回两个模型响应度
  91. return gamma0, gamma1
  92. def M_step(muo, mu1, gamma0, gamma1, dataSetArr):
  93. # 依据算法9.2计算各个值
  94. # 这里没什么花样,对照书本公式看看这里就好了
  95. mu0_new = np.dot(gamma0, dataSetArr) / np.sum(gamma0)
  96. mu1_new = np.dot(gamma1, dataSetArr) / np.sum(gamma1)
  97. sigmod0_new = math.sqrt(np.dot(gamma0, (dataSetArr - muo)**2) / np.sum(gamma0))
  98. sigmod1_new = math.sqrt(np.dot(gamma1, (dataSetArr - mu1)**2) / np.sum(gamma1))
  99. alpha0_new = np.sum(gamma0) / len(gamma0)
  100. alpha1_new = np.sum(gamma1) / len(gamma1)
  101. # 将更新的值返回
  102. return mu0_new, mu1_new, sigmod0_new, sigmod1_new, alpha0_new, alpha1_new
  103. def EM_Train(dataSetList, iter=500):
  104. '''
  105. 根据EM算法进行参数估计
  106. 算法依据“9.3.2 高斯混合模型参数估计的EM算法” 算法9.2
  107. :param dataSetList:数据集(可观测数据)
  108. :param iter: 迭代次数
  109. :return: 估计的参数
  110. '''
  111. # 将可观测数据y转换为数组形式,主要是为了方便后续运算
  112. dataSetArr = np.array(dataSetList)
  113. # 步骤1:对参数取初值,开始迭代
  114. alpha0 = 0.5
  115. mu0 = 0
  116. sigmod0 = 1
  117. alpha1 = 0.5
  118. mu1 = 1
  119. sigmod1 = 1
  120. # 开始迭代
  121. step = 0
  122. while (step < iter):
  123. # 每次进入一次迭代后迭代次数加1
  124. step += 1
  125. # 步骤2:E步:依据当前模型参数,计算分模型k对观测数据y的响应度
  126. gamma0, gamma1 = E_step(dataSetArr, alpha0, mu0, sigmod0, alpha1, mu1, sigmod1)
  127. # 步骤3:M步
  128. mu0, mu1, sigmod0, sigmod1, alpha0, alpha1 = M_step(mu0, mu1, gamma0, gamma1, dataSetArr)
  129. # 迭代结束后将更新后的各参数返回
  130. return alpha0, mu0, sigmod0, alpha1, mu1, sigmod1
  131. if __name__ == '__main__':
  132. start = time.time()
  133. # 设置两个高斯模型进行混合,这里是初始化两个模型各自的参数
  134. # 见“9.3 EM算法在高斯混合模型学习中的应用”
  135. # alpha是“9.3.1 高斯混合模型” 定义9.2中的系数α
  136. # mu0是均值μ
  137. # sigmod是方差σ
  138. # 在设置上两个alpha的和必须为1,其他没有什么具体要求,符合高斯定义就可以
  139. alpha0 = 0.3 # 系数α
  140. mu0 = -2 # 均值μ
  141. sigmod0 = 0.5 # 方差σ
  142. alpha1 = 0.7 # 系数α
  143. mu1 = 0.5 # 均值μ
  144. sigmod1 = 1 # 方差σ
  145. # 初始化数据集
  146. dataSetList = loadData(mu0, sigmod0, mu1, sigmod1, alpha0, alpha1)
  147. #打印设置的参数
  148. print('---------------------------')
  149. print('the Parameters set is:')
  150. print('alpha0:%.1f, mu0:%.1f, sigmod0:%.1f, alpha1:%.1f, mu1:%.1f, sigmod1:%.1f' % (
  151. alpha0, alpha1, mu0, mu1, sigmod0, sigmod1
  152. ))
  153. # 开始EM算法,进行参数估计
  154. alpha0, mu0, sigmod0, alpha1, mu1, sigmod1 = EM_Train(dataSetList)
  155. # 打印参数预测结果
  156. print('----------------------------')
  157. print('the Parameters predict is:')
  158. print('alpha0:%.1f, mu0:%.1f, sigmod0:%.1f, alpha1:%.1f, mu1:%.1f, sigmod1:%.1f' % (
  159. alpha0, alpha1, mu0, mu1, sigmod0, sigmod1
  160. ))
  161. # 打印时间
  162. print('----------------------------')
  163. print('time span:', time.time() - start)

Python实现机器学习算法:EM算法的更多相关文章

  1. 简单易学的机器学习算法——EM算法

    简单易学的机器学习算法——EM算法 一.机器学习中的参数估计问题 在前面的博文中,如“简单易学的机器学习算法——Logistic回归”中,采用了极大似然函数对其模型中的参数进行估计,简单来讲即对于一系 ...

  2. 斯坦福大学机器学习,EM算法求解高斯混合模型

    斯坦福大学机器学习,EM算法求解高斯混合模型.一种高斯混合模型算法的改进方法---将聚类算法与传统高斯混合模型结合起来的建模方法, 并同时提出的运用距离加权的矢量量化方法获取初始值,并采用衡量相似度的 ...

  3. 机器学习五 EM 算法

    目录 引言 经典示例 EM算法 GMM 推导 参考文献: 引言 Expectation maximization (EM) 算法是一种非常神奇而强大的算法. EM算法于 1977年 由Dempster ...

  4. 关于机器学习-EM算法新解

    我希望自己能通俗地把它理解或者说明白,但是,EM这个问题感觉真的不太好用通俗的语言去说明白,因为它很简单,又很复杂.简单在于它的思想,简单在于其仅包含了两个步骤就能完成强大的功能,复杂在于它的数学推理 ...

  5. 机器学习之EM算法(五)

    摘要 EM算法全称为Expectation Maximization Algorithm,既最大期望算法.它是一种迭代的算法,用于含有隐变量的概率参数模型的最大似然估计和极大后验概率估计.EM算法经常 ...

  6. 【机器学习】EM算法详细推导和讲解

    今天不太想学习,炒个冷饭,讲讲机器学习十大算法里有名的EM算法,文章里面有些个人理解,如有错漏,还请读者不吝赐教. 众所周知,极大似然估计是一种应用很广泛的参数估计方法.例如我手头有一些东北人的身高的 ...

  7. 详解十大经典机器学习算法——EM算法

    本文始发于个人公众号:TechFlow,原创不易,求个关注 今天是机器学习专题的第14篇文章,我们来聊聊大名鼎鼎的EM算法. EM算法的英文全称是Expectation-maximization al ...

  8. 【机器学习】--EM算法从初识到应用

    一.前述 Em算法是解决数学公式的一个算法,是一种无监督的学习. EM算法是一种解决存在隐含变量优化问题的有效方法.EM算法是期望极大(Expectation Maximization)算法的简称,E ...

  9. 机器学习笔记—EM 算法

    EM 算法所面对的问题跟之前的不一样,要复杂一些. EM 算法所用的概率模型,既含有观测变量,又含有隐变量.如果概率模型的变量都是观测变量,那么给定数据,可以直接用极大似然估计法,或贝叶斯估计法来估计 ...

  10. 机器学习:EM算法

    EM算法 各类估计 最大似然估计 Maximum Likelihood Estimation,最大似然估计,即利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值的计算过程. 直白来讲,就 ...

随机推荐

  1. Java多线程-----实现生产者消费者模式的几种方式

       1 生产者消费者模式概述 生产者消费者模式就是通过一个容器来解决生产者和消费者的强耦合问题.生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理 ...

  2. ReactiveCocoa(I)

    ReactiveCocoa常见类 1. RAC中最核心的类RACSiganl: RACSiganl:信号类,一般表示将来有数据传递,只要有数据改变,信号内部接收到数据,就会马上发出数据 解析: 信号类 ...

  3. 【Scala学习之一】 Scala基础语法

    环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 jdk1.8 scala-2.10.4(依赖jdk1.8) spark ...

  4. jack welch:“你们知道了,但是我们做到了”

    一.我们发现,只要我们敢于相信自己,敢于朝着那些看似不可能的目标不懈努力,最终会如愿以偿,个人的领袖形象也将因此而确立. 二.一个领导者必须要有魄力.对我来说,这就是一个人能否领导一项业务的分水岭. ...

  5. 【函数封装】javascript判断是否是微信浏览器

    //判断是否是微信浏览器的函数 function isWeiXin(){ //window.navigator.userAgent属性包含了浏览器类型.版本.操作系统类型.浏览器引擎类型等信息,这个属 ...

  6. Codeforce 791A - Bear and Big Brother

    Bear Limak wants to become the largest of bears, or at least to become larger than his brother Bob. ...

  7. flask框架----flask-session组件

    简介 flask-session是flask框架的session组件,由于原来flask内置session使用签名cookie保存,该组件则将支持session保存到多个地方,如: redis:保存数 ...

  8. 第一节 JavaScript概述

    第一节 JavaScript概述 JavaScript:其实就是对HTML+CSS静态页面进行样式修改,使其实现各种动态效果. 编写JS脚本基本步骤: 1. HTML+CSS静态布局: 2. 确定要修 ...

  9. SpringMybatis 整合JavaWeb

    需要用到新的jar包 <dependency> <groupId>org.springframework</groupId> <artifactId>s ...

  10. ZYNQ学习之路1. Linux最小系统构建

    https://blog.csdn.net/u010580016/article/details/80430138?utm_source=blogxgwz1 开发环境:window10, vivado ...