title: [概率论]5-2:伯努利和二项分布(The Bernoulli and Binomial Distributions) categories: - Mathematic - Probability keywords: - Bernoulli Distributions - Binomial Distributions toc: true date: 2018-03-27 21:15:22 Abstract: 本文介绍Bernoulli Distribution (伯努利分布)和Bi…
之前忘记强调了一个重要差别:条件概率链式法则和贝叶斯网络链式法则的差别 条件概率链式法则 贝叶斯网络链式法则,如图1 图1 乍一看非常easy认为贝叶斯网络链式法则不就是大家曾经学的链式法则么,事实上不然,后面详述. 上一讲谈到了概率分布的因式分解 \begin{array}{l}P\left({X,Y\left| Z \right.} \right) = P\left( {X\left| Z \right.} \right)P\left({Y\left| Z \right.} \right)\…
之前忘记强调重要的差异:链式法则的条件概率和贝叶斯网络的链式法则之间的差异 条件概率链式法则 P\left({D,I,G,S,L} \right) = P\left( D \right)P\left( {I\left| D \right.}\right)P\left( {G\left| {D,I} \right.} \right)P\left( {S\left| {D,I,G} \right.}\right)P\left( {L\left| {D,I,G,S} \right.} \right)"…
第二章 置信区间估计 估计量和估计值的写法? 估计值希腊字母上边有一个hat 点估计中矩估计的原理? 用样本矩来估计总体矩,用样本矩的连续函数来估计总体矩的连续函数,这种估计法称为矩估计法.Eg:如果一阶矩则样本均值估计总体均值 公式化之后的表达: 其中的μ1的表达式: 矩估计和最大似然估计最终估计的特点是什么? 二项分布的均值两种估计都相同,正态分布的均值两种估计都相同.但是其他分布仍存在不同的现象. 无偏性是什么? 估计值的均值与总体均值相同,除中间值之外的部分是随机误差. 均值的无偏性特殊…
朴素贝叶斯 朴素贝叶斯方法是一组基于贝叶斯定理的监督学习算法,其"朴素"假设是:给定类别变量的每一对特征之间条件独立.贝叶斯定理描述了如下关系: 给定类别变量\(y\)以及属性值向量\(x_1\)至\(x_n\): \(P(y \mid x_1, \dots, x_n) = \frac{P(y) P(x_1, \dots x_n \mid y)} {P(x_1, \dots, x_n)}\) 依据朴素条件独立假设可得: \(P(x_i \mid y, x_1, \dots, x_{i-…
import numpy as np import matplotlib.pyplot as plt from sklearn import datasets,naive_bayes from sklearn.model_selection import train_test_split # 加载 scikit-learn 自带的 digits 数据集 def load_data(): ''' 加载用于分类问题的数据集.这里使用 scikit-learn 自带的 digits 数据集 ''' d…
参考:http://zhidao.baidu.com/link?url=3XZm35XpFf_kbADwDHEERtgFMKqHftiS5SyTCWcBtlF7B7zeNgoNqIzXxpJsHtBIGdofik99hN3-e_Gs9aYKSTbvgCbZ0Gp49hiUtP_L5hK % 设定p值p=0.6;% 产生随机矩阵m=3;n=4;A=rand(m,n);% 生成伯努利矩阵A=A<p; % for exampleA = 0.9572 0.1419 0.7922 0.0357 0.485…
title: 本站目录 categories: Other sticky: 10 toc: true keywords: 机器学习基础 深度学习基础 人工智能数学知识 机器学习入门 date: 9999-12-31 23:59:59 本站包含作者原创的关于人工智能的理论,算法等博客,目前包括:强化学习,深度学习,机器学习,线性代数,概率论,数理统计,Python,爬虫等在目前人工智能领域需要用到的基础知识,欢迎大家订阅关注. 本站目录 首先插入一下我的整体研究思路,也是人工智能的技能树,我们要顺…
2019年08月31日更新 看了一篇发在NM上的文章才又明白了贝叶斯方法的重要性和普适性,结合目前最火的DL,会有意想不到的结果. 目前一些最直觉性的理解: 概率的核心就是可能性空间一定,三体世界不会有概率 贝叶斯的基础就是条件概率,条件概率的核心就是可能性空间的缩小,获取了新的信息就是个可能性空间缩小的过程 贝叶斯定理的核心就是,先验*似然=后验,有张图可以完美可视化这个定理 只要我们能得到可靠的先验或似然,任意一个,我们就能得到更可靠的后验概率 最近又在刷一个Coursera的课程:Baye…
学习DIP第55天 转载请标明本文出处:***http://blog.csdn.net/tonyshengtan ***,出于尊重文章作者的劳动,转载请标明出处!文章代码已托管,欢迎共同开发:https://github.com/Tony-Tan/DIPpro 更多图像处理机器学习内容请访问最新网站www.tony4ai.com #开篇废话 废话开始,今天介绍OTSU算法,本算法比前面给出的算法更能够给出数学上的最佳阈值,不需要任何输入附加参数.与同样不需要输入附加参数的迭代均值和均值阈值来比较…