本文实现了李航教授的《统计学习方法》一书中第4章朴素贝叶斯法中的算法,包括算法4.1(朴素贝叶斯算法)和在此基础上改进的贝叶斯估计。文末整理了在实现算法过程中遇到问题记录的笔记。

朴素贝叶斯法



首先训练朴素贝叶斯模型,对应算法4.1(1),分别计算先验概率及条件概率,分别存在字典priorP和condP中(初始化函数中定义)。其中,计算一个向量各元素频率的操作反复出现,定义为count函数。

# 初始化函数定义了先验概率和条件概率字典,并训练模型
def __init__(self, data, label):
self.priorP = {}
self.condP = {}
self.train(data, label)

count函数,输入一个向量,输出一个字典,包含各元素频率

# 给一个向量,返回字典,包含不同元素的频率。可以引用collections中的Counter函数来实现
# 这个函数可以改进,懒得弄了
def count(self, vec):
np.array(vec)
keys = np.unique(vec)
p = {}
for key in keys:
n = np.sum(np.isin(vec, key) + 0) # 加0可以使布尔向量变为0-1向量
p[key] = n/len(vec) # 计算频率
return p

训练函数,关于condP的保存下面有详细说明

def train(self, data, label):
m, n = np.shape(data)
# 计算先验概率
self.priorP = self.count(label)
print("priorP:", self.priorP)
# 计算条件概率
classes = np.unique(label)
for c in classes:
subset = [data[i] for i in range(m) if label[i] == c] # 取Y=ck的子集
for j in range(n): # 遍历每一个特征,分别求条件概率
self.condP[str(c)+" "+str(j)] = self.count([x[j] for x in subset])
print("condP:", self.condP)

对于条件概率condP的保存,将每个特征关于Y=ck的条件概率都存为一个字典,再存入字典condP中,key设为 “ck j” ,其中 ck 为 Y 的类别,j 表示第 j 个特征。训练例4.1得到的模型如下, condp中的'-1 0' 项即表示Y=-1条件下,P(x0=1)=0.5, P(x0=2)=0.333, P(x0=3)=0.166. 为了显示方便,只给出了小数点后3位。

priorP: {-1: 0.4, 1: 0.6}
condP: {'-1 0': {1: 0.5, 2: 0.333, 3: 0.166},
'-1 1': {'L': 0.166, 'M': 0.333, 'S': 0.5},
'1 0': {1: 0.222, 2: 0.333, 3: 0.444},
'1 1': {'L': 0.444, 'M': 0.444, 'S': 0.111}}

训练之后,对给定X进行预测,结果保存在字典preP中

def predict(self, x):
preP = {}
for c in self.priorP.keys():
preP[c] = self.priorP[c]
for i, features in enumerate(x):
preP[c] *= self.condP[str(c)+" "+str(i)][features]
print("probability: ", preP)
print("prediction: ", max(preP, key=preP.get))

结果:

probability:  {-1: 0.06666666666666667, 1: 0.02222222222222222}
prediction: -1

贝叶斯分类

考虑到概率可能为0,在随机变量各个取值的频数上赋予一个正数lamda,lamda为0时即为极大似然估计;lamda取1时称为拉普拉斯平滑。

先验概率变为(a)

条件概率变为(b)

在之前的算法基础上改进,添加一个字典变量rangeOfFeature来保存每个特征的取值个数,定义在初始化函数中。

self.rangeOfFeature = {}  # 保存每个特征的取值个数

公式(a)和(b)形式相同,将 K 或Sj 作为参数传入count函数,lamda缺省为0:

def count(self, vec, classNum, lamda=0):
keys = set(vec)
p = {}
for key in keys:
n = np.sum(np.isin(vec, key) + 0)
p[key] = (n+lamda)/(len(vec)+classNum*lamda)
return p

训练函数变为

def train(self, data, label, lamda=0):
m, n = np.shape(data)
# 计算rangeOfFeature
for j in range(n):
self.rangeOfFeature[j] = len(set([x[j] for x in data]))
classes = set(label)
# 计算先验概率
self.priorP = self.count(label, len(classes), lamda)
print("priorP:", self.priorP)
# 计算条件概率
for c in classes:
subset = [data[i] for i in range(m) if label[i] == c]
for j in range(n):
self.condP[str(c)+" "+str(j)] = self.count([x[j] for x in subset], self.rangeOfFeature[j], lamda)
print("condP:", self.condP)

其他不变,对之前的实例运行

bayes = Bayes(dataSet, labels, 1)
bayes.predict([2, "S"])

结果如下:

probability:  {1: 0.0326797385620915, -1: 0.06100217864923746}
prediction: -1
笔记
  • 贝叶斯定理

  • max(dict, key = dict.get) 获得字典dictvalue最大的值的键

  • bool型列表转换为0-1

    • 变量后加0
    • booldata.astype(int) 类型转换
  • for i, value in enumerate(['A', 'B', 'C']): 把list变成索引-元素对用enumerate函数,这样就可以在for循环中同时迭代索引和元素本身

  • [a[j] for a in data] 取data第 j 列

  • np.isin(a,b) 判断a中每个元素是否在b中,返回与a形状相同的bool数组

  • np.unique(a) 去重并排序

代码下载:3-Bayes.py

统计学习方法(李航)朴素贝叶斯python实现的更多相关文章

  1. 朴素贝叶斯python代码实现(西瓜书)

    朴素贝叶斯python代码实现(西瓜书) 摘要: 朴素贝叶斯也是机器学习中一种非常常见的分类方法,对于二分类问题,并且数据集特征为离散型属性的时候, 使用起来非常的方便.原理简单,训练效率高,拟合效果 ...

  2. 机器学习:朴素贝叶斯--python

    今天介绍机器学习中一种基于概率的常见的分类方法,朴素贝叶斯,之前介绍的KNN, decision tree 等方法是一种 hard decision,因为这些分类器的输出只有0 或者 1,朴素贝叶斯方 ...

  3. 朴素贝叶斯python小样本实例

    朴素贝叶斯优点:在数据较少的情况下仍然有效,可以处理多类别问题缺点:对于输入数据的准备方式较为敏感适用数据类型:标称型数据朴素贝叶斯决策理论的核心思想:选择具有最高概率的决策朴素贝叶斯的一般过程(1) ...

  4. 朴素贝叶斯python实现

    概率论是非常多机器学习算法基础,朴素贝叶斯分类器之所以称为朴素,是由于整个形式化过程中仅仅做最原始.简单的如果. (这个如果:问题中有非常多特征,我们简单如果一个个特征是独立的.该如果称做条件独立性, ...

  5. 朴素贝叶斯算法--python实现

    朴素贝叶斯算法要理解一下基础:    [朴素:特征条件独立   贝叶斯:基于贝叶斯定理] 1朴素贝叶斯的概念[联合概率分布.先验概率.条件概率**.全概率公式][条件独立性假设.]   极大似然估计 ...

  6. 统计学习方法与Python实现(三)——朴素贝叶斯法

    统计学习方法与Python实现(三)——朴素贝叶斯法 iwehdio的博客园:https://www.cnblogs.com/iwehdio/ 1.定义 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设 ...

  7. 统计学习方法——第四章朴素贝叶斯及c++实现

    1.名词解释 贝叶斯定理,自己看书,没啥说的,翻译成人话就是,条件A下的bi出现的概率等于A和bi一起出现的概率除以A出现的概率. 记忆方式就是变后验概率为先验概率,或者说,将条件与结果转换. 先验概 ...

  8. 【机器学习速成宝典】模型篇05朴素贝叶斯【Naive Bayes】(Python版)

    目录 先验概率与后验概率 条件概率公式.全概率公式.贝叶斯公式 什么是朴素贝叶斯(Naive Bayes) 拉普拉斯平滑(Laplace Smoothing) 应用:遇到连续变量怎么办?(多项式分布, ...

  9. 统计学习1:朴素贝叶斯模型(Numpy实现)

    模型 生成模型介绍 我们定义样本空间为\(\mathcal{X} \subseteq \mathbb{R}^n\),输出空间为\(\mathcal{Y} = \{c_1, c_2, ..., c_K\ ...

随机推荐

  1. SetWinEventHook 事件钩子(有些windows事件并没有消息对应,譬如弹出菜单,切换窗口,获得焦点,滚动条滚动等)good

    相信消息钩子大家听的比较多,消息钩子能够在应用程序处理系统消息之前将其截获,提前处理并可以决定是否继续将消息往下传送,有些windows事件并没有消息对应,譬如弹出菜单,切换窗口,获得焦点,滚动条滚动 ...

  2. 大神为你分析 Go、Java、C 等主流编程语言(Go可以替代Java,而且最小化程序员的工作量,学习比较容易)

    本文主要分析 C.C++98.C++11.Java 与 Go,主要论述语言的关键能力.在论述的过程中会结合华为各语言编程专家和华为电信软件内部的骨干开发人员的交流,摒弃语言偏好或者语言教派之争,尽量以 ...

  3. 30+ 强大的Buddypress主题–开始您的社区站点吧

    BuddyPress起源于2008年,当时设计者设想添加社交网络功能到WordPress多用户版本中.第一个正式稳定版本的发布是在2009年的5月.自从那时起.BuddyPress开始快速的成长和演变 ...

  4. hdu4633_Polya定理

    典型的Polya定理,还算比较简单,比赛的时候知道是Polya定理但是根本没留出时间去搞,有点小遗憾. 思路:根据Burnside引理,等价类个数等于所有的置换群中的不动点的个数的平均值,根据Poly ...

  5. 【转】子弹短信内部技术分享:Redis

    原理 Redis 是一个内存型「数据库」,除存储之外,它还有许多强大的命令,使之远远超出了数据库的定义,所以官方称之为「data structure store」,数据结构存储系统. 通过 Redis ...

  6. JVM底层实现与总结

    一.类加载器 1.BootstrapClassLoader(启动类加载器) 它主要负责加载%JAVA_HOME%/jre/lib,-Xbootclasspath参数指定的路径以及%JAVA_HOME% ...

  7. Scala 学习之路(十一)—— 模式匹配

    一.模式匹配 Scala支持模式匹配机制,可以代替swith语句.执行类型检查.以及支持析构表达式等. 1.1 更好的swith Scala不支持swith,可以使用模式匹配match...case语 ...

  8. Java NIO: Non-blocking Server 非阻塞网络服务器

    本文翻译自 Jakob Jenkov 的 Java NIO: Non-blocking Server ,原文地址:http://tutorials.jenkov.com/java-nio/non-bl ...

  9. idea 创建maven项目(一)

    1.新建 Project 2.点击Next 3.填写组织名称和项目名称,点击next 4.在你的本地仓库目录下创建settings.xml文件,把mirror的url改成阿里云的 <?xml v ...

  10. Spring Boot2(九):整合Jpa的基本使用

    一.前言 今天早上看到一篇微信文章,说的是国内普遍用的Mybatis,而国外确普遍用的是Jpa.我之前也看了jpa,发现入门相当容易.jpa对于简单的CRUD支持非常好,开发效率也会比Mybatis高 ...