[Bayes] Point --> Line: Estimate "π" by R】的更多相关文章

“半个数学系 + 一个计算机科学系 = Deep Learning初级班” simulation = function(sampleSize){ c = rep(0,sampleSize) // <-- 分配了空间 countIn = 0 for(i in 1:sampleSize){ x = runif(1,-1,1) y = runif(1,-1,1) if(sqrt(x*x + y*y) <= 1){ countIn = countIn + 1 } piHat = (countIn /…
Verify the Monte Carlo sampling variability of "π". p = π/4 与 所得 0.7854 比较接近,故满足 Central Limit theorem. simulation = function(sampleSize){ c = rep(0,sampleSize) countIn = 0 for(i in 1:sampleSize){ x = runif(1,-1,1) y = runif(1,-1,1) if(sqrt(x*x…
吻合度蛮高,但不光滑. > L= > K=/ > x=runif(L) > *x*(-x)^/K)) > hist(x[ind],probability=T, + xlab="x",ylab="Density",main="") /* 应用了平滑数据的核函数 */ > d=density(x[,to=) // 只对标记为true的x做统计 --> 核密度估计 > lines(d,col=) // (…
数学似宇宙,韭菜只关心其中实用的部分. scikit-learn (sklearn) 官方文档中文版 scikit-learn Machine Learning in Python 一个新颖的online图书资源集,非常棒. 机器学习原理 Bayesian Machine Learning 9. [Bayesian] “我是bayesian我怕谁”系列 - Gaussian Process[ignore] 随机过程 [Scikit-learn] 1.1 Generalized Linear Mo…
Relevant Readable Links Name Interesting topic Comment Edwin Chen 非参贝叶斯   徐亦达老板 Dirichlet Process 学习目标:Dirichlet Process, HDP, HDP-HMM, IBP, CRM Alex Kendall Geometry and Uncertainty in Deep Learning for Computer Vision 语义分割 colah's blog Feature Visu…
2019年08月31日更新 看了一篇发在NM上的文章才又明白了贝叶斯方法的重要性和普适性,结合目前最火的DL,会有意想不到的结果. 目前一些最直觉性的理解: 概率的核心就是可能性空间一定,三体世界不会有概率 贝叶斯的基础就是条件概率,条件概率的核心就是可能性空间的缩小,获取了新的信息就是个可能性空间缩小的过程 贝叶斯定理的核心就是,先验*似然=后验,有张图可以完美可视化这个定理 只要我们能得到可靠的先验或似然,任意一个,我们就能得到更可靠的后验概率 最近又在刷一个Coursera的课程:Baye…
source:http://hane00.blog.163.com/blog/static/1600615220126204446809/ '\r'是回车,'\n'是换行,前者使光标到行首,后者使光标下移一格.通常用的Enter是两个加起来.下面转一篇文章. 回车和换行 今天,我总算搞清楚“回车”(carriage return)和“换行”(line feed)这两个概念的来历和区别了. 在计算机还没有出现之前,有一种叫做电传打字机(Teletype Model 33)的玩意,每秒钟可以打10个…
'\r'是回车,'\n'是换行,前者使光标到行首,后者使光标下移一格.通常用的Enter是两个加起来.下面转一篇文章. 回车和换行 今天,我总算搞清楚"回车"(carriage return)和"换行"(line feed)这两个概念的来历和区别了. 在计算机还没有出现之前,有一种叫做电传打字机(Teletype Model 33)的玩意,每秒钟可以打10个字符.但是它有一个问题,就是打完一行换行的时候,要用去0.2秒,正好可以打两个字符.要是在这0.2秒里面,又有…
主成分分析R软件实现程序(一): >d=read.table("clipboard",header=T) #从剪贴板读取数据 >sd=scale(d)  #对数据进行标准化处理 >sd  #输出标准化后的数据和属性信息,把标准化的数据拷贝到剪贴板备用 >d=read.table("clipboard",header=T)  #从剪贴板读取标准化数据 >pca=princomp(d,cor=T)  #主成分分析函数 >screepl…
runifum Inversion Sampling 看样子就是个路人甲. Ref: [Bayes] Hist & line: Reject Sampling and Importance Sampling > func=function(n) { + *runif(n))) + } // 反函数的x的均匀sampling值 => y 就是原函数的x,刚好作为hist的输入参数 > hist(),probability=T, xlab=expression(theta), yla…