补充资料——自己实现极大似然估计(最大似然估计)MLE


#取出MASS包这中的数据data(geyser,package="MASS")head(geyser)attach(geyser)par(bg='lemonchiffon')hist(waiting,freq=F,col="lightcoral")#freq=F要加上,否则就无法添加线了lines(density(waiting),lwd=2,col="cadetblue4")#根据图像,我们认为其在前后分别是两个正态分布函数的组合#定义 log‐likelihood 函数LL<-function(params,data){#参数"params"是一个向量,#依次包含了五个参数: p,mu1,sigma1,mu2,sigma2.#参数"data",是观测数据。t1<-dnorm(data,params[2],params[3])t2<-dnorm(data,params[4],params[5])#f是概率密度函数f<-params[1]*t1+(1-params[1])*t2#混合密度函数ll<-sum(log(f))#log‐likelihood 函数return(-ll)#nlminb()函数是最小化一个函数的值,#但我们是要最大化 log‐likeilhood 函数#所以需要在“ ll”前加个“ ‐”号。}#估计函数####optim##### debugonce(nlminb)geyser.res<-nlminb(c(0.5,50,10,80,10),LL,data=waiting,lower=c(0.0001,-Inf,0.0001,-Inf,0.0001),upper=c(0.9999,Inf,Inf,Inf,Inf))#初始值为 p=0.5,mu1=50,sigma1=10,mu2=80,sigma2=10#初始值也会被传递给LL#LL 是被最小化的函数。#data 是估计用的数据(传递给我们的LL)#lower 和 upper 分别指定参数的上界和下界。#查看拟合的参数geyser.res$par#拟合的效果#解释变量X<-seq(40,120,length=100)#读出估计的参数p<-geyser.res$par[1]mu1<-geyser.res$par[2]sig1<-geyser.res$par[3]mu2<-geyser.res$par[4]sig2<-geyser.res$par[5]#将估计的参数函数代入原密度函数。f<-p*dnorm(X,mu1,sig1)+(1-p)*dnorm(X,mu2,sig2)#作出数据的直方图hist(waiting,probability=T,col='lightpink3',ylab="Density",ylim=c(0,0.04),xlab="Eruption waiting times")#画出拟合的曲线lines(X,f,col='lightskyblue3',lwd=2)detach(geyser)
function (start, objective, gradient = NULL, hessian = NULL,..., scale = 1, control = list(), lower = -Inf, upper = Inf){par <- setNames(as.double(start), names(start))n <- length(par)iv <- integer(78 + 3 * n)v <- double(130 + (n * (n + 27))/2).Call(C_port_ivset, 2, iv, v)if (length(control)) {nms <- names(control)if (!is.list(control) || is.null(nms))stop("'control' argument must be a named list")pos <- pmatch(nms, names(port_cpos))if (any(nap <- is.na(pos))) {warning(sprintf(ngettext(length(nap), "unrecognized control element named %s ignored","unrecognized control elements named %s ignored"),paste(sQuote(nms[nap]), collapse = ", ")), domain = NA)pos <- pos[!nap]control <- control[!nap]}ivpars <- pos <= 4vpars <- !ivparsif (any(ivpars))iv[port_cpos[pos[ivpars]]] <- as.integer(unlist(control[ivpars]))if (any(vpars))v[port_cpos[pos[vpars]]] <- as.double(unlist(control[vpars]))}obj <- quote(objective(.par, ...))rho <- new.env(parent = environment())assign(".par", par, envir = rho)grad <- hess <- low <- upp <- NULLif (!is.null(gradient)) {grad <- quote(gradient(.par, ...))if (!is.null(hessian)) {if (is.logical(hessian))stop("logical 'hessian' argument not allowed. See documentation.")hess <- quote(hessian(.par, ...))}}if (any(lower != -Inf) || any(upper != Inf)) {low <- rep_len(as.double(lower), length(par))upp <- rep_len(as.double(upper), length(par))}else low <- upp <- numeric().Call(C_port_nlminb, obj, grad, hess, rho, low, upp, d = rep_len(as.double(scale),length(par)), iv, v)iv1 <- iv[1L]list(par = get(".par", envir = rho), objective = v[10L],convergence = (if (iv1 %in% 3L:6L) 0L else 1L), iterations = iv[31L],evaluations = c(`function` = iv[6L], gradient = iv[30L]),message = if (19 <= iv1 && iv1 <= 43) {if (any(B <- iv1 == port_cpos)) sprintf("'control' component '%s' = %g, is out of range",names(port_cpos)[B], v[iv1]) else sprintf("V[IV[1]] = V[%d] = %g is out of range (see PORT docu.)",iv1, v[iv1])} else port_msg(iv1))}

附件列表
补充资料——自己实现极大似然估计(最大似然估计)MLE的更多相关文章
- 最大似然估计(Maximum Likelihood,ML)
先不要想其他的,首先要在大脑里形成概念! 最大似然估计是什么意思?呵呵,完全不懂字面意思,似然是个啥啊?其实似然是likelihood的文言翻译,就是可能性的意思,所以Maximum Likeliho ...
- 最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用
最大似然估计 MLE 给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即“模型已定,参数未知”. 例如,对于线性回归,我们假定样本是服从正态分布,但是不知道 ...
- 【模式识别与机器学习】——最大似然估计 (MLE) 最大后验概率(MAP)和最小二乘法
1) 极/最大似然估计 MLE 给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即“模型已定,参数未知”.例如,我们知道这个分布是正态分布,但是不知道均值和 ...
- 最大似然估计 (MLE) 最大后验概率(MAP)
1) 最大似然估计 MLE 给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即"模型已定,参数未知". 例如,我们知道这个分布是正态分布 ...
- 深度学习中交叉熵和KL散度和最大似然估计之间的关系
机器学习的面试题中经常会被问到交叉熵(cross entropy)和最大似然估计(MLE)或者KL散度有什么关系,查了一些资料发现优化这3个东西其实是等价的. 熵和交叉熵 提到交叉熵就需要了解下信息论 ...
- 机器学习的MLE和MAP:最大似然估计和最大后验估计
https://zhuanlan.zhihu.com/p/32480810 TLDR (or the take away) 频率学派 - Frequentist - Maximum Likelihoo ...
- 最大似然估计和最大后验概率MAP
最大似然估计是一种奇妙的东西,我觉得发明这种估计的人特别才华.如果是我,觉得很难凭空想到这样做. 极大似然估计和贝叶斯估计分别代表了频率派和贝叶斯派的观点.频率派认为,参数是客观存在的,只是未知而矣. ...
- 似然函数 | 最大似然估计 | likelihood | maximum likelihood estimation | R代码
学贝叶斯方法时绕不过去的一个问题,现在系统地总结一下. 之前过于纠结字眼,似然和概率到底有什么区别?以及这一个奇妙的对等关系(其实连续才是f,离散就是p). 似然函数 | 似然值 wiki:在数理统计 ...
- 机器学习基础系列--先验概率 后验概率 似然函数 最大似然估计(MLE) 最大后验概率(MAE) 以及贝叶斯公式的理解
目录 机器学习基础 1. 概率和统计 2. 先验概率(由历史求因) 3. 后验概率(知果求因) 4. 似然函数(由因求果) 5. 有趣的野史--贝叶斯和似然之争-最大似然概率(MLE)-最大后验概率( ...
随机推荐
- head和tail命令
1.head head 文件名 :查看前10行 head -n 5 文件名 :查看文件的前5行 head -c 5 文件名 :查看文件的前5个字符 head -n -5 文件名 :查看文件的后5行 ...
- python 使用 PIL 和 matplotlib 获取图片像素点处理之后再写入
python 版本 3.x 首先安装 PIL 由于PIL仅支持到Python 2.7,加上年久失修,于是一群志愿者在PIL的基础上创建了兼容的版本,名字叫Pillow,支持最新Python 3.x,又 ...
- 用python脚本获取运行环境中的module 列表
由于脚本运行在远程环境,总报错说一些module没有.所以决定彻底对环境进行一次摸底. 于是,用如下代码即可实现: #!/usr/bin/env python import sys try: #pri ...
- go基本语法
1. 用var来定义变量, 类型被纺织在变量名的后面. var i int 并且运行时默认初始化为二进制0 var i , y int var x string, y int2. 显示初始化值的时候, ...
- Cocos Creator 橡皮差(刮刮卡)功能(转)
实现一个刮刮卡的效果,于是在论坛里搜集了一些资料并且看了一下CCMask的源码,做出来一套可用的教程,分享给大家.(WEBGL和Native端测试可用) maskNode是详细设置如下 我们在 scr ...
- 2018-2019 20175232 实验二《Java面向对象程序设计》实验报告
一.实验内容及步骤 1熟练掌握Junit和TDD: TDD(Test Driven Devlopment, 测试驱动开发)我们是该“先写产品代码,然后再写测试代码,通过测试发现了一些Bugs,修改代码 ...
- python之单例模式
#单例模式:有时需要写出高性能的类,那么会采用单例模式.通俗的解释就是类只创建一次实例,贯穿整个生命周期,实现了高性能. #1.模块化单例#所谓的模块化就是一个单独的.py文件来存储类,这样就是单例模 ...
- java支付宝接口开发
在线支付接入支付宝,首先需要去官网申请开发者账号,具体步骤如下: 一.打开官网 1.直接打开链接https://open.alipay.com/platform/home.htm进入 2.百度搜索蚂蚁 ...
- “QObject调用moveToThread()后 该如何释放”及QThread 的启动关闭
1 QThread *thread = new QThread( ); 2 Task *task = new Task(); 3 task->moveToThread(thread); 4 co ...
- mysql----------mysql的一些常用命令
1.查询一张表中某个字段重复值的记录 select id,cert_number from (select id,cert_number,count(*)as n from 表明 group by c ...