数理统计16:NP理论、似然比检验、假设检验与区间估计
本文介绍Neyman-Pearson理论,这也是我们会见到的最常见假设检验问题类,这里第一Part的概念介绍略显枯燥,大家尽量理解即可。由于本系列为我独自完成的,缺少审阅,如果有任何错误,欢迎在评论区中指出,谢谢!
Part 1:NP理论的基本概念
NP理论的样本\(X\sim \{F_{\theta}:\theta\in\Theta \}\),即来自一个参数分布族,相比拟合优度检验,此时的模型假定条件要更强一些,也因此需要检验的假设就落在了未知参数的取值范围上。一般地,原假设\(H_0\)和备择假设\(H_1\)是这么提出的:
\]
这里\(\Theta_1=\Theta\setminus\Theta_0\),也就是说,要么\(\theta\)落在\(\Theta_0\)内,要么\(\theta\)落在\(\Theta_1\)内。假设检验,就是根据样本\(\boldsymbol{X}\)的具体观测,在\(H_0\)和\(H_1\)中选择一个,也就是接受零假设或者拒绝零假设。
比如,对于正态总体\(N(\mu,\sigma^2)\)中抽取的总体
79.38 & 81.39 & 81.89 & 78.63 & 77.65,
\end{matrix}
\]
如果想知道是否有\(\mu=79\),在\(\sigma^2\)未知的情况下,零假设和备择假设就应该如此提出:
\]
这里\(\Theta_0=\{79\},\Theta_1=\mathbb{R}\setminus\{79\}\)。在这样的样本之下,何时接受\(H_0\)?我们不妨引入这样的一个检验:计算\(\mu\)的\(95\%\)置信区间,如果这个置信区间包含\(79\)就接受\(H_0\)。从这里构建出的置信区间是\([77.54,82.03]\),因而我们选择接受\(H_0\)。
既然置信区间完全由抽取的样本\(\boldsymbol{X}\)决定,当样本\(\boldsymbol{X}\)取到某个范围\(\mathscr X_1\)时置信区间一定包含\(\mu_0=79\),而如果样本没有落入\(\mathscr X_1\),就意味着落入了另一个空间\(\mathscr X_2=\mathbb{R}^5-\mathscr X_1\),此时的置信区间就一定不包含\(\mu_0=79\),拒绝原假设。因此,完全可以将样本空间划分为两部分,使得样本落入其中一部分时拒绝零假设,没有落入这部分就接受原假设,我们将拒绝原假设的样本空间的子集称为拒绝域。
可以看出,一个检验的实质就是其拒绝域\(D\),如果两个检验有相同的拒绝域,这两个检验自然就是相同的。在这里,拒绝域是确定的一个部分,可以构建一个检验\(T\),如此描述:
H_0,&X\notin D;\\
H_1,& X\in D.
\end{array}\right.
\]
不过,有时候问题的拒绝域不是这么确定的,如从\(B(5,\theta)\)中抽取一个样本对\(\theta\)作估计,规定\(H_0:\theta=0.5\)。如果\(X=3\),我们就接受\(H_0\);如果\(X=1,5\)就拒绝\(H_0\)。但是\(X=2,4\)时,我们就在接受或者\(H_0\)中陷入困难,因为好像拒绝和接受都不是那么妥当。
此时,我们引入检验函数的概念,来更好地描述检验。规定检验函数为定义在样本空间\(\mathscr X\)、取值于\([0,1]\)的函数\(\varphi(\boldsymbol{x})\),规定\(\varphi(\boldsymbol{x})\)为样本观测为\(\boldsymbol{x}\)时拒绝\(H_0\)的概率。此时,一个检验与一个检验函数就是一一对应的,拒绝域\(D\)就是\(\{\boldsymbol{x}:\varphi(\boldsymbol{x})=1\}\)。
如果\(\varphi(\boldsymbol{x})\)的值域为\(\{0,1\}\)而不包含任何介于其中的值,就称为非随机检验,如果存在有些\(\boldsymbol{x}\)有\(0<\varphi(\boldsymbol{x})<1\),就称为随机检验。我们主要讨论的都是非随机检验。对于随机检验,往往需要一个与样本独立的随机试验作为辅助。
有检验就一定会犯错,在检验假设时会犯的错误可以分为两类:一类是\(H_0\)正确但被拒绝,称为弃真错误(第一类错误);另一类是\(H_0\)错误但被接受,称为存伪错误(第二类错误)。我们自然希望犯错的概率尽可能小,一般说来对于一个检验,如果犯第一类错误的概率高,犯第二类错误的概率就低。
为了描述检验犯错的概率,引入功效函数的概念:设\(\varphi(\boldsymbol{x})\)是一个检验函数,则其对应的功效函数定义为
\]
这是一个关于参数\(\theta\)的函数,特别对于非随机检验,有\(\beta_\varphi(\theta)=\mathbb{P}_{\theta}(\boldsymbol{X}\in D)\)。有了功效函数,就可以完全决定犯两类错误的概率:
\beta_\varphi(\theta),& \theta\in\Theta_0,\\
0,& \theta\in\Theta_1;
\end{array}\right.\\ \beta^*_{\varphi}(\theta)=\left\{\begin{array}l
0,& \theta\in\Theta_0,\\
1-\beta_\varphi(\theta),& \theta\in\Theta_1.
\end{array}\right.
\]
如果要使\(\alpha_{\varphi}^*(\theta)\)和\(\beta^*_{\varphi}(\theta)\)都尽可能小,则功效函数\(\beta_{\varphi}(\theta)\)就应该在\(\Theta_0\)中尽可能小,在\(\Theta_1\)中尽可能大。
既然固定样本容量时,任何检验都不能同时让第一类错误和第二类错误的概率很小,那么Neyman-Pearson所提出的原则就是:在保证犯第一类错误的概率不超过指定数值\(\alpha\)的检验中,寻找犯第二类错误概率尽可能小的检验。
最后,给出检验的水平的概念。如果\(\varphi\)犯第一类错误的概率总不超过\(\alpha\),则称\(\alpha\)是检验\(\varphi\)的一个水平,即\(\varphi\)是水平为\(\alpha\)的检验等价于\(\forall \theta\),\(\beta_{\varphi}(\theta)\le \alpha\)。显然,如果\(\alpha\)是检验\(\varphi\)的水平,则对于任何比\(\alpha\)大的\(\alpha'\),\(\alpha'\)也是\(\varphi\)的水平。记检验所有水平的下确界为\(\varphi\)的真实水平,也是\(\sup\{\beta_{\varphi}(\theta):\theta\in\Theta\}\)。
Part 2:似然比检验
对于参数假设检验,一种通用的方式是构造似然比检验,它的构造方式直观,适用面广,故适合于几乎所有参数假设检验问题。日后当我们学习多元统计分析的时候,由于多元理论尚不成熟,似然比检验会在其中发挥更大的用途。
似然比检验是基于似然函数而构造的,由于零假设和备择假设将参数空间分为两个部分,在这两个部分上都取让似然函数取值最大的点。由于零假设的参数空间是全参数空间的一个子集,所以零假设上似然函数的最大值必定不超过全参数空间上似然函数的最大值。构造似然比统计量为
\]
如果此比值较大,则参数在\(\Theta_0\)内的可能性就较大,故倾向于接受原假设;如果此比值较小,则参数空间在\(\Theta_0\)内的可能性就较小,故倾向于拒绝原假设。一个基于似然比统计量的非随机检验函数就应该具有以下的形式:
1,& \lambda(\boldsymbol{x})<c;\\
0,& \lambda(\boldsymbol{x})\ge c.
\end{array} \right.\quad D=\{\boldsymbol{X}:\lambda(\boldsymbol{X})<c \}.
\]
这就是似然比检验。有时候\(\lambda(\boldsymbol{x})\)的形式可能较复杂,找与\(\lambda(\boldsymbol{x})\)具有相同或者相反单调性的统计量构造形式相似的检验,也是似然比检验;如果\(\lambda(\boldsymbol{x})\)的精确形式很难求,也可以用极限分布来替代,这是因为关于似然比统计量的极限分布由Wilks定理所保证为卡方分布。
以下简单给出一个似然比检验的构造,求\(N(\mu,\sigma^2)\)中,\(H_0:\mu=\mu_0\leftrightarrow H_1:\mu\ne\mu_0\)的水平为\(\alpha\)的似然比检验。其步骤是这样的:
写出似然函数为
\[f(\boldsymbol{x};\theta)=(2\pi\sigma^2)^{-\frac{n}{2}}\exp\left\{-\frac{1}{2\sigma^2}\sum_{j=1}^n(x_j-\mu)^2 \right\}.
\]分别求出零假设\(\Theta_0\)内的极大似然估计点和全参数空间\(\Theta\)内的极大似然估计点。在这里,\(\Theta\)内的极大似然估计点显然是\(\hat \mu=\bar X\),\(\hat\sigma^2=\frac{1}{n}\sum_{j=1}^n(X_j-\bar X)^2\);而\(\Theta_0\)内的极大似然估计点,则是
\[\hat \sigma^2_0=\frac{1}{n}\sum_{j=1}^n(X_j-\mu_0)^2.
\]第三步,将极大似然估计点代入似然比估计量,计算并化简形式。许多时候,似然比统计量计算过程具有很多的化简操作。
\[\begin{aligned}
\lambda(\boldsymbol{X})&=\left(\frac{\hat\sigma_0^2}{\hat \sigma^2}\right)^{-\frac{n}{2}}\frac{\exp\{{-\frac{1}{2\hat \sigma_0^2}}\sum_{j=1}^n(X_j-\mu_0)^2 \}}{\exp\{-\frac{1}{2\hat\sigma^2}\sum_{j=1}^n(X_j-\bar X)^2 \}}\\&\xlongequal{后一项约分} \left(\frac{\hat\sigma_0^2}{\hat\sigma^2} \right)^{-\frac{n}{2}}\\
&=\left(\frac{\sum_{j=1}^n(X_j-\mu_0)^2}{\sum_{j=1}^n(X_j-\bar X)^2} \right)^{-\frac{n}{2}}\\
&=\left(\frac{\sum_{j=1}^n(X_j-\bar X)^2+n(\bar X-\mu_0)^2}{\sum_{j=1}^n(X_j-\bar X)^2} \right)^{\frac{n}{2}}\\
&=\left(1+\frac{(\bar X-\mu_0)^2}{\frac{1}{n}\sum_{j=1}^n (X_j-\bar X)^2} \right)^{-\frac{n}{2}}
\end{aligned}.
\]第四步,将似然比统计量进行同单调性变换。这一步一般是最难的,需要将统计量转变成一个分布已知、且同单调性的统计量,才能构造出水平为\(\alpha\)的检验。我们可以先假设\(H_0\)成立,那么
\[\frac{\sqrt{n}}{\sigma}(\bar X-\mu_0)\sim N(0,1),\\
\frac{1}{\sigma^2}\sum_{j=1}^n(X_j-\bar X)^2\sim \chi^2(n-1),
\]所以令
\[T=\frac{\sqrt{n}(\bar X-\mu_0)}{\sqrt{\frac{1}{n-1}\sum_{j=1}^n (X_j-\mu_0)}}\sim t(n-1),\\
\lambda(\boldsymbol{X})=\left(1+\frac{1}{n-1}T^2 \right)^{-\frac{n}{2}}.
\]注意到\(\lambda(\boldsymbol{X})\)与\(T^2\)的单调性相反,所以拒绝域\(\lambda(\boldsymbol{X})<c'\)应当等价于具有\(|T|>c\)的形式。
第五步,求其水平为\(\alpha\)的检验,也就是找到点\(c\)使得
\[\mathbb{P}(|T|>c|H_0)=\alpha,
\]由于\(H_0\)下\(T\sim t(n-1)\),所以显然\(c=t_{\alpha/2}(n-1)\)。故似然比检验得到这个问题的拒绝域就是
\[D=\{\boldsymbol{X}:|T(\boldsymbol{X})|>t_{\alpha/2} \}.
\]
似然比检验的难点主要在于第四步,进行同单调性变换的过程;而第三步化简虽然繁琐,但只需要按部就班地执行即可。这里恰好是正态分布,所以可以找到一个具有良好分布的\(T\),使得似然比检验有较精确的形式。很多时候,找不到这个单调性相同或相反的统计量,而似然比统计量本身的精确分布又很难求得,这时候,Wilks定理就给出了一个非常重要且实用的结果。
Wilks定理:设\(\Theta\)的维数为\(k\),\(\Theta_0\)的维数为\(s\),若\(k-s>0\),且样本的概率分布满足一定的正则条件,则似然比统计量在\(H_0\)成立的情况下,有
\]
这样,我们就可以容易地使用似然比统计量进行检验。首先,假设\(H_0\)成立,这时候\(\lambda\)就不能太小,\(-2\ln \lambda\)也就不能太大,因此检验的拒绝域必定是\(D=\{-2\ln\lambda >c \}\);然后Wilks定理保证了\(-2\ln\lambda\)的极限分布为\(\chi^2_{k-s}\),所以在检验水平为\(\alpha\)的情况下,拒绝域可以是
\]
不过尽管似然比检验具有直观、方便构造、具有普适性的优点,它的缺点也十分明显:缺乏针对性,效率不高。因此,如果有更精确的构造检验的方法,尤其是正态分布的参数假设检验问题,我们一般不会选择似然比检验。
Part 3:假设检验与区间估计
现在我们讨论单参数假设检验水平为\(\alpha\)的检验问题,事实上这可以与区间估计建立联系。
设\(\boldsymbol{X}=(X_1,\cdots,X_n)\)是从总体\(\{f(x,\theta);\theta\in\Theta\}\)中抽取的简单随机样本,如果参数\(\theta\)的置信水平为\(1-\alpha\)的置信区间为\([\hat\theta_1(\boldsymbol{X}),\hat\theta_2(\boldsymbol{X})]\),考虑检验问题:
\]
如果我们需要一个水平为\(\alpha\)的检验,令\(\bar D\)为其接受域,就有
\]
我们会发现,由置信区间的定义解\(\boldsymbol{X}\in \bar D\),就能得到\(\hat\theta_1(\boldsymbol{X})\le \theta_0\le \hat\theta_2(\boldsymbol{X})\)。也就是说,如果\(\theta_0\)落入了置信区间规定的范围,就不能拒绝原假设;否则就拒绝原假设。这就是由置信区间构造假设检验的方式。对于单边检验\(H_0:\theta\ge \theta_0\)或者\(H_0:\theta\le \theta_0\),则相应地求出单边的置信限即可。
因此,要构造出水平为\(\alpha\)的假设检验,只需要构造一个关于\(\theta\)的区间估计(或者置信限),归根结底还是依赖于点估计构造假设检验,在下一节中,我们将展示单正态分布总体参数的假设检验问题,会以一种稍微不同的方式展示点估计的使用方法。
本文的内容略显枯燥,Part 1主要是概念方面的问题,Part 2介绍了一种实用的似然比检验方法,但在我们当前学习的数理统计中用处不广泛,而Part 3将区间估计与假设检验结合在一起,为我们对大多数参数分布族的假设检验提供了方向。下一篇文章中,我们将对正态分布的参数假设检验问题进行讨论,并介绍假设检验中十分重要的概念:检验的p-value。
数理统计16:NP理论、似然比检验、假设检验与区间估计的更多相关文章
- 《零起点,python大数据与量化交易》
<零起点,python大数据与量化交易>,这应该是国内第一部,关于python量化交易的书籍. 有出版社约稿,写本量化交易与大数据的书籍,因为好几年没写书了,再加上近期"前海智库 ...
- Image Processing and Analysis_8_Edge Detection:Statistical edge detection_ learning and evaluating edge cues——2003
此主要讨论图像处理与分析.虽然计算机视觉部分的有些内容比如特 征提取等也可以归结到图像分析中来,但鉴于它们与计算机视觉的紧密联系,以 及它们的出处,没有把它们纳入到图像处理与分析中来.同样,这里面也有 ...
- 如何在R语言中使用Logistic回归模型
在日常学习或工作中经常会使用线性回归模型对某一事物进行预测,例如预测房价.身高.GDP.学生成绩等,发现这些被预测的变量都属于连续型变量.然而有些情况下,被预测变量可能是二元变量,即成功或失败.流失或 ...
- (转)最大似然估计&贝叶斯估计
最大似然估计&贝叶斯估计 与传统计量模型相对的统计方法,存在 1)参数的解释不同:经典估计:待估参数具有确定值它的估计量才是随机的.如果估计量是无偏的,该估计量的期望等于那个确定的参数.bay ...
- Python机器学习笔记——随机森林算法
随机森林算法的理论知识 随机森林是一种有监督学习算法,是以决策树为基学习器的集成学习算法.随机森林非常简单,易于实现,计算开销也很小,但是它在分类和回归上表现出非常惊人的性能,因此,随机森林被誉为“代 ...
- R生存分析AFT
γ = 1/scale =1/0.902 α = exp(−(Intercept)γ)=exp(-(7.111)*γ) > library(survival) > myfit=survre ...
- SPSS—回归—二元Logistic回归案例分析
数据分析真不是一门省油的灯,搞的人晕头转向,而且涉及到很多复杂的计算,还是书读少了,小学毕业的我,真是死了不少脑细胞, 学习二元Logistic回归有一段时间了,今天跟大家分享一下学习心得,希望多指教 ...
- 《SAS编程与数据挖掘商业案例》学习笔记之十八
接着曾经的<SAS编程与数据挖掘商业案例>,之前全是sas的基础知识,如今開始进入数据挖掘方面笔记,本文主要介绍数据挖掘基本流程以及应用方向,并以logistic回归为例说明. 一:数据挖 ...
- SPSS分析技术:无序多元Logistic回归模型;美国总统大选的预测历史及预测模型
SPSS分析技术:无序多元Logistic回归模型:美国总统大选的预测历史及预测模型 在介绍有序多元Logistic回归分析的理论基础时,介绍过该模型公式有一个非常重要的假设,就是自变量对因变量多个类 ...
随机推荐
- ceph ---(ceph简介)
ceph简介: Ceph是一种为优秀的性能.可靠性和可扩展性而设计的统一的.分布式文件系统.ceph 的统一体现在可以提供文件系统.块存储和对象存储,分布式体现在可以动态扩展.在国内一些公司的云环境中 ...
- Linux-apache httd.conf文件详解
Linux-apache httd.conf文件详解 # This is the main Apache server configuration file. It contains the # co ...
- windows下使用HyperV安装Centos7虚拟机
以前都是用的VM(VMWare)安装虚拟机, 然鹅, 现在电脑装了Docker需要开启Windows的HyperV, 而我使用的VM版本(14)和HyperV 是不兼容的, 于是搜索引擎搜索了一下解决 ...
- getline()的使用注意
在使用getline读入一整行时,若是前面是使用getchar().cin这类读入了一个字母,但是不会读入后续换行\n符号或者空格的输入时,再接getline()就容易出现问题. 这是因为输入数字之后 ...
- 2019 ICPC 上海区域赛总结
2019上海区域赛现场赛总结 补题情况(以下通过率为牛客提交): 题号 标题 已通过代码 通过率 我的状态 A Mr. Panda and Dominoes 点击查看 5/29 未通过 B Prefi ...
- Codeforces Round #626 (Div. 2) E. Instant Noodles(二分图,最大公因数)
题意: 给你一个二分图,求左侧端点的所有可能子集中的点相连的右侧端点的权值的和的最大公因数. 题解: 若所有右侧端点均不在同一左侧子集中,则求所有权值的最大公因数即可 . 否则,将在相同左侧子集中的右 ...
- AtCoder Beginner Contest 176 D - Wizard in Maze (BFS,双端队列)
题意:给你一张图,"."表示能走,"#表示不能走,步行可以向四周四个方向移动一个单位,使用魔法可以移动到周围\(5\)X\(5\)的空地,问能否从起点都早终点,并求最少使 ...
- 母函数 <普通母函数(HDU - 1028 ) && 指数型母函数(hdu1521)>
给出我初学时看的文章:母函数(对于初学者的最容易理解的) 普通母函数--------->HDU - 1028 例题:若有1克.2克.3克.4克的砝码各一 枚,能称出哪几种重量?各有几种可能方案? ...
- C#之字符编码
在 Windows Vista 及之后的版本中,每个Unicode字符都使用UTF-16编码,UTF的全称是 Unicode Transformation Format(Unicode 转换格式).U ...
- java调用http接口的几种方式总结
本文参考: https://blog.csdn.net/fightingXia/article/details/71775516 https://www.cnblogs.com/jeffen/p/69 ...