%	\chapter{假设检验}
	\section{假设检验概念}
	在某餐厅中，进行了某项改革。改革前，营业额$X_0\sim N(8000,640^2)$；改革后的九天内，营业额均值为$\bar{X}=8300$。看起来，营业额是增加了，那么这是不是由改革引起的呢？
	
	我们知道，如果改革之后几天内营业额均值能翻几番，那么基本上就可以肯定改革的效果；而如果改革之后几天内营业额均值不变甚至下降，那么也可以认为改革没有用处。但是在营业额有增长、但不明显的模糊地带，就需要引入统计方法来判定改革效果。
	
	
		\paragraph{建立假设} 我们称命题$H_0$为“改革前后的平均营业额之间没有差异”。这个命题称为原假设，我们的任务是确定原假设$H_0$是否为真。如果我们确定原假设$H_0$为假命题时，就拒绝$H_0$，这时就有三个选项：改革让营业额变好；改革让营业额变差；改革不显著改变营业额。
		
		在抛弃原假设$H_0$之后，可供选择的命题称为备择假设，记为$H_1$。选择哪一个命题作为备择假设要视问题而定。在这个问题中，我们可以将“改革让营业额变好”作为备择假设。
		
		\paragraph{寻找检验统计量}假设检验的任务是要确认原假设$H_0$是否为真。我们先假定$H_0$成立，然后用样本构造一个统计量，比如说样本均值来判断其真伪，这个统计量称为检验统计量。
		
		在这个例子中，我们假设改革后营业额仍服从正态分布，标准差不变。$H_0$为真时，样本容量为9，所以样本均值服从$\bar{X}\sim N(8000,640^2/9)$。
		
		如果统计量的观察值$\bar{x}$离统计量期望$E\bar{X}$太远，就有理由认为$H_0$为假。我们记界限$c$为检验的临界值，当$\bar{x}\geq c$就拒绝$H_0$，否则就保留$H_0$。
		
		使得原假设$H_0$被拒绝的样本观察值$x_1,\cdots,x_n$组成的区域叫做检验的拒绝域，记作$W=\{(x_1,\cdots,x_n)|\bar{x}\geq c\}$，而保留原假设$H_0$的样本观察值所组成的区域叫做检验的接受域，记作$A=\{x_1,\cdots,x_n|\bar{x}<c\}$。一般我们更关注拒绝域$W$，因为一个要推翻一个命题，只需要找到反例即可，而拒绝域正好给我们提供了反例。
		
		\paragraph{显著性水平与临界值}对原假设作判断时，可能会犯错误，所以需要用概率来表示犯错误的风险，也就是
		\begin{equation}
		\alpha=P(H_0\text{为真，但被拒绝})
		\end{equation}
		我们称这样的$\alpha$为显著性水平。如果$\alpha$很小，就意味着我们犯错误的概率很小，显著性水平很高。
		
		我们给定一个显著性水平，比如说$\alpha=0.05$，然后计算检验的临界值$c$。也就是说，我们应考虑$c$，使得
		\begin{equation}
		P(\{X\sim N(8000,640^2)\}\cap \{\bar{X}\geq c\})=0.05
		\end{equation}
		其中，第一个事件意思是$H_0$为真，第二个事件意思是$H_0$被拒绝，我们取两个事件的交集作为概率。
		
		之前算过，$X\sim N(8000,640^2)$就意味着$\bar{X}\sim N(8000,640^2/9)$。于是找到正态曲线右边面积只占0.05的位点，就是我们所求的$c$，在这里的数值是$c=8350.9$。
		
		\paragraph{作判断} 根据前面的计算，样本均值的观察值$\bar{x}<c$，因此我们得以保留原命题，改革对于营业额均值没有显著影响，“营业额服从与原来同样的分布”这个命题成立的概率是0.95.
		
		\begin{definition}[假设]
			我们称关于总体$X$分布的某个命题为假设。在对总体分布的参数作假设检验时，原假设和备择假设都可以看作参数空间$\Theta$的某个真子集$\Theta_0$和$\Theta_1$，且$\Theta_0\cap \Theta_1=\emptyset$。这时我们记
			\begin{equation}
			H_0:\theta\in\Theta_0,\quad H_1:\theta\in\Theta_1
			\end{equation}
			分别是原假设和备择假设。如果$\Theta_0$或$\Theta_1$中只含有一个元素，那么就称该假设是简单假设，否则称为复杂假设。
		\end{definition}
	
		我们一般把不能轻易肯定的假设作为备择假设，把不能轻易否定的假设作为原假设。只有理由充分、样本观察值足够反常时，才拒绝原假设。
		
		\begin{definition}[第一类错误]
			原假设$H_0$为真，但样本观察值$(x_1,\cdots,x_n)\in W$落入拒绝域，因而下了拒绝$H_0$的判断。这类错误称为第一类错误。第一类错误的发生概率就是显著性水平$\alpha$。
		\end{definition}
	
		\begin{definition}[第二类错误]
			原假设$H_0$为假，但样本观察值$(x_1,\cdots,x_n)\in A$落入接受域，因而下了接受$H_0$的判断。这类错误称为第二类错误。第二类错误的发生概率，称为取伪概率$\beta$。
		\end{definition}
		
		一般而言，要使$\alpha$更小，$\beta$会增大，因此鱼和熊掌不可兼得。但是如果肯付出额外代价，增加样本容量$n$，就有可能让$\alpha$和$\beta$都减小。
		
		\begin{definition}[检验]
			我们称样本空间上的函数
			\begin{equation}
			\varphi(\vec{x})=\begin{cases}
			1,\quad (x_1,\cdots,x_n)\in W\\
			0,\quad (x_1,\cdots,x_n)\in A
			\end{cases}
			\end{equation}
			为检验。其中$\vec{x}$是样本$\vec{X}$的观察值
		\end{definition}
		事实上，检验就是拒绝域的示性函数，因此其期望就等于样本落入拒绝域的概率：
		\begin{equation}
		E_{\theta}\varphi(\vec{X})=P_{\theta}(\vec{x}\in W)
		\end{equation}
		其中角标上的$\theta$表示依照参数为$\theta$的分布来计算。从而当$\theta\in\Theta_0$时，
		\begin{equation}
		P_{\theta}(\vec{x}\in W)=\alpha(\theta)
		\end{equation}
		当$\theta\in \Theta_1$时，
		\begin{equation}
		P_{\theta}(\vec{x}\in A)=1-P_{\theta}(\vec{x}\in W)=\beta(\theta)
		\end{equation}
		
		\begin{definition}[水平为$\alpha$的检验]
			令关于$\theta$的功效函数
			\begin{equation}
			g(\theta)=E_{\theta}\varphi(\vec{X})=\begin{cases}
			\alpha(\theta),\quad \theta\in\Theta_0\\
			\beta(\theta),\quad \theta\in \Theta_1
			\end{cases}
			\end{equation}
			对于检验$\varphi(\vec{X})$，如果有
			\begin{equation}
			g(\theta)\leq\alpha,\quad \theta\in\Theta_0
			\end{equation}
			则称此检验是水平为$\alpha$的检验。
		\end{definition}
	实际上，水平为$\alpha$的检验指的就是，第一类错误发生概率小于等于$\alpha$。同样在此，原假设是受到保护，不能轻易否定的。除非我们有$1-\alpha$($\alpha$一般都很小)的把握，才能推翻原假设。
	
	水平为$\alpha$的检验有很多个，我们要找的是使得$\beta$尽可能小的那个。检验所用的统计量，一般可以从参数$\theta$的估计出发去寻找。
	
	\begin{definition}[$p$值]
		在一个假设检验问题中，拒绝原假设$H_0$的最小显著性水平称为$p$值。
	\end{definition}
	当我们给定了统计量时，随着$\alpha$的值的不同，拒绝或接受$H_0$都有可能。当$\alpha$过小，推翻原假设的条件过于严格，那么就接受原假设；反之，当$\alpha$取得比较大，推翻原假设就很容易，那么我们这时就拒绝了原假设。那么，给定统计量，把处在拒绝和接受原假设的临界的$\alpha$，就称为$p$值。
	
	$p$值的意义，就是我们能推翻原假设，而犯下第一类错误的最小的概率。换句话说，在给定统计量及其观察值下，我们有最多$1-p$的把握来推翻原假设。
	
	\section{正态总体参数的检验}
	\paragraph{$\sigma$已知，关于$\mu$的检验}
	设样本$X_1,\cdots,X_n$来自正态总体$N(\mu,\sigma^2)$，样本均值为$\bar{X}$，样本方差为$S^2$，现考虑关于均值$\mu$的检验问题。
	
	现设原假设和备择假设分别为
	\begin{equation}
	H_0:\mu\leq\mu_0,\quad H_1:\mu>\mu_0
	\end{equation}
	这里$\mu_0$已知。我们选取$\bar{X}$作为$\mu$的统计量。当原假设为真时，观察值$\bar{x}$不应该太大，否则就很反常，要拒绝$H_0$。于是，拒绝域可写为$W=\{(x_1,\cdots,x_n)|\bar{x}\geq c\}$，其中$c$是待定的临界值。
	
	由于$\bar{X}\sim N(\mu,\sigma^2/n)$，所以犯第一类错误的概率为
	\begin{equation}
	\alpha(\mu)=P_{\mu}(\bar{X}\geq c)=1-\Phi\left(\frac{c-\mu}{\sigma/\sqrt{n}}\right),\quad \mu\leq \mu_0
	\end{equation}
	其中$\Phi(x)$是标准正态分布的分布函数。实际上只要把$\bar{X}$的分布画出来，求出$c$右边的面积，就是犯第一类错误的概率。那么显然，$\mu$取得越大，正态图像越往右偏，$c$右边的面积越大，所以$\alpha(\mu)$的最大值在$\mu_0$处取到。
	
	事实上，如果$\mu$取得小一些，那么算出来的$c$，就有可能让我们根据$\bar{x}$，下了拒绝$H_0$的判断，虽然明明原分布的$\mu<\mu_0$，只是没有到我们选取的那么小的程度。我们这样相当于凭空选了更严格的标准，就会犯第一类错误。要避免这种情况发生，当然应该把$\mu$直接取到$\mu_0$上，然后计算$c$右边的面积。
	
	现在给定了水平$\alpha$，要使得犯第一类错误的概率小于等于$\alpha$，就选取$c$，使得
	\begin{equation}
	\alpha(\mu_0)=1-\Phi\left(\frac{c-\mu_0}{\sigma/\sqrt{n}}\right) = \alpha
	\end{equation}
	即可。反解出上面关于$c$的方程，我们就得到了临界值，这个临界值就是我们所求的拒绝域。
	
	如果我们取
	\begin{equation}
	U=\frac{\bar{X}-\mu_0}{\sigma/\sqrt{n}}
	\end{equation}
	作为统计量，那么在计算上会方便一点。以$U$作为检验统计量的检验叫做$U$检验。
	
	\paragraph{$\sigma$未知，关于$\mu$的检验}
	设样本$X_1,\cdots,X_n$来自正态总体$N(\mu,\sigma^2)$，样本均值为$\bar{X}$，样本方差为$S^2$，现考虑关于均值$\mu$的检验问题。
	
	现在我们不知道$\sigma^2$了，所以考虑用样本方差$S^2$来代替$\sigma^2$，采用统计量
	\begin{equation}
	t=\frac{\bar{X}-\mu_0}{S/\sqrt{n}}
	\end{equation}
	
	我们同样设原假设和备择假设为
	\begin{equation}
	H_0:\mu\leq \mu_0,\quad H_1:\mu>\mu_0
	\end{equation}
	从而$H_0$的拒绝域为$W=\{(x_1,\cdots,x_n)|t\geq c\}$。我们要让统计量$t>c$的概率在任何情况下都被$\alpha$控制住，所以取适当的$\mu$，使得统计量$t$达到最大，如果这样也还被$\alpha$控制住了，那么$c$就是我们要求的临界量。也就是说，
	\begin{equation}
	\alpha(\mu)=P_{\mu}(t\geq c)\leq\alpha
	\end{equation}
	显然这里的$\mu$就该取$\mu_0$。于是问题变成了
	\begin{equation}
	\alpha(\mu_0)=P_{\mu_0}(t\geq c)\leq\alpha
	\end{equation}
	
	现在我们考虑$t$的分布，求出其大于$c$部分的面积，这部分面积应该小于$\alpha$的，以此得到关于$c$的不等式，即可解出临界值$c$。统计量$t$满足
	\begin{equation}
	t=\frac{\bar{X}-\mu_0}{S/\sqrt{n}}=\frac{\bar{X}-\mu}{S/\sqrt{n}}+\frac{\mu-\mu_0}{S/\sqrt{n}}
	\end{equation}
	在求区间估计时，我们已经证明了在$\sigma$未知时，$t$的第一项服从自由度为$n-1$的$t$分布。设$T_{n-1}(x)$是$t(n-1)$的分布函数，于是
	\begin{equation}
	P_{\mu}(t\geq c)=P_{\mu}\left(\frac{\bar{X}-\mu}{S/\sqrt{n}}\geq c-\frac{\mu-\mu_0}{S/\sqrt{n}}\right)=1-T_{n-1}\left(c-\frac{\mu-\mu_0}{S/\sqrt{n}}\right)
	\end{equation}
	从而
	\begin{equation}
	\alpha(\mu_0)=P_{\mu_0}(t\geq c)=1-T_{n-1}(c) =\alpha
	\end{equation}
	于是只要解出$c$即可求得拒绝域$W$。至此我们完成了检验。
	
	我们称以$t$为统计量的检验为$t$检验。
	
	\paragraph{$\mu$未知，关于$\sigma$的检验}
	设样本$X_1,\cdots,X_n$来自正态总体$N(\mu,\sigma^2)$，样本均值为$\bar{X}$，样本方差为$S^2$，现考虑在不知道$\mu$的情形下，关于方差$\sigma^2$的检验问题。
	
	考虑原假设和备择假设为
	\begin{equation}
	H_0:\sigma^2\leq \sigma_0^2,\quad H_1:\sigma^2>\sigma_0^2
	\end{equation}
	我们自然想到用样本方差$S^2$来估计$\sigma^2$。那么拒绝域应该是$W=\{(x_1,\cdots,x_n)|s^2>\sigma_0^2\}$
	我们考虑检验统计量
	\begin{equation}
	\chi^2=\frac{(n-1)S^2}{\sigma_0^2}
	\end{equation}
	先前已经证明过，$\chi^2\sigma_0^2/\sigma^2$服从自由度为$n-1$的卡方分布。犯第一类错误，就是要让$\chi^2\geq c'$，其中$c'$是另一个常数。犯第一类错误的概率为
	\begin{equation}
	\alpha(\sigma^2)=P_{\sigma^2}(\chi^2\geq c'),\quad \sigma^2\leq\sigma_0^2
	\end{equation}
	$\sigma$越大，犯第一类错误的概率就越大，那么与上面一样，要取最大可能的$\sigma$，也就是$\sigma=\sigma_0$。所以
	\begin{equation}
	\alpha(\sigma_0^2)=P(\chi^2\geq c')=P\left(\frac{(n-1)S^2}{\sigma^2}\geq c'\frac{\sigma_0^2}{\sigma^2}\right)
	\end{equation}
	令$K_{n-1}(x)$为自由度是$n-1$的卡方分布的分布函数，那么
	\begin{equation}
	\alpha(\sigma_0)=1-K_{n-1}\left(c'\frac{\sigma_0^2}{\sigma^2}\right)= \alpha
	\end{equation}
	解出上面关于$c'$的方程，得到临界量$c'$。至此我们完成了以$\chi^2$为统计量的检验，拒绝域为$W=\{\chi^2\geq c'\}$。我们称以$\chi^2$为统计量的检验为$\chi^2$检验(卡方检验)。
	
	\paragraph{两个正态总体方差的检验}
	设从正态总体$X\sim N(\mu_1,\sigma_1^2)$中获得样本$X_1,\cdots,X_n$，其样本均值$\bar{X}$和样本方差$S_X^2$；从正态总体$Y\sim N(\mu_2,\sigma_2^2)$中获得样本$Y_1,\cdots,Y_m$，其样本均值$\bar{Y}$和样本方差$S_Y^2$。假定$\mu_1$和$\mu_2$都未知。
	
	考虑原假设和备择假设分别为
	\begin{equation}
	H_0:\frac{\sigma_1^2}{\sigma_2^2}\leq 1,\quad H_1:\frac{\sigma_1^2}{\sigma_2^2}>1
	\end{equation}
	我们考虑统计量
	\begin{equation}
	F=\frac{S_X^2}{S_Y^2}
	\end{equation}
	其拒绝域可写为$W=\{(x_1,\cdots,x_n,y_1,\cdots,y_m)|F\geq c\}$。
	
	我们先前在区间估计里，也已经证明过，对于固定的$\sigma_1^2$和$\sigma_2^2$，
	\begin{equation}
	\frac{S_X^2/\sigma_1^2}{S_Y^2/\sigma_2^2}=F\frac{\sigma_2^2}{\sigma_1^2}\sim F(n-1,m-1)
	\end{equation}
	我们记$F_{n-1,m-1}(x)$是自由度为$n-1$和$m-1$的$F$分布的分布函数，则犯第一类错误的概率是
	\begin{equation}
	\alpha\left(\frac{\sigma_1^2}{\sigma_2^2}\right)=P(F\geq c)=P\left(\frac{S_X^2/\sigma_1^2}{S_Y^2/\sigma_2^2}\geq c\frac{\sigma_2^2}{\sigma_1^2}\right)=1-F\left(c\frac{\sigma_2^2}{\sigma_1^2}\right)\leq \alpha
	\end{equation}
	显然，只要取$\sigma_1^2/\sigma_2^2=1$的情况，就有
	\begin{equation}
	\alpha(1)=1-F(c)=\alpha
	\end{equation}
	解出$c$，就可以得到水平为$\alpha$检验的拒绝域。以$F$作为统计量的检验称为$F$检验。
	
	\paragraph{两个正态总体期望差的检验} 处理与上面类似，而取的检验统计量则与区间估计中的类似。略。
	
	\section{两点总体参数检验}
	\paragraph{比率$p$的检验}
	设样本$X_1,\cdots,X_n$取自两点分布总体$X\sim B(1,p)$。考虑原假设和备择假设为
	\begin{equation}
	H_0:p\leq p_0,\quad H_1:p>p_0
	\end{equation}
	考虑统计量
	\begin{equation}
	T=\sum_{i=1}^n X_i
	\end{equation}
	于是拒绝域写为$W=\{(x_1,\cdots,x_n)|T>c\}$，所以犯第一类错误的概率为
	\begin{equation}
	\alpha(p)=P_p(T\geq c)\leq \alpha
	\end{equation}
	取$p=p_0$时，达到最大值，于是
	\begin{equation}
	\alpha(p_0)=P_{p_0}(T\geq c)=\sum_{i=c}^n \begin{pmatrix}
	n\\i
	\end{pmatrix}p_0^i(1-p)^{n-i}\leq\alpha
	\end{equation}
	由此解出来的最小整数$c$(对应最大可能的面积/概率)，就是我们要求的临界值。
	
	在大样本的情形下，根据中心极限定理，$\frac{T-np_0}{\sqrt{np_0(1-p_0)}}$近似服从$N(0,1)$，因此
	\begin{equation}
	\sum_{i=c}^n \begin{pmatrix}
	n\\i
	\end{pmatrix}p_0^i(1-p)^{n-i}\approx 1-\Phi\left(\frac{c-np_0}{\sqrt{np_0(1-p_0)}}\right)\leq\alpha
	\end{equation}
	从而解出$c$，取可能的最小的整数，就是我们要求的临界值。
	
	\paragraph{两个两点分布总体比率的比较} 设样本$X_1,\cdots,X_n$取自两点分布总体$X\sim B(1,p_1)$，样本$Y_1,\cdots,Y_m$取自两点分布总体$Y\sim B(1,p_2)$。考虑原假设和备择假设为
	\begin{equation}
	H_0:p_1-p_2\leq 0,\quad H_1:p_1-p_2>0
	\end{equation}
	我们考虑统计量
	\begin{equation}
	T=\hat{p}_1-\hat{p}_2=\frac{1}{n}\sum_{i=1}^n X_i-\frac{1}{m}\sum_{i=1}^m Y_i
	\end{equation}
	拒绝域取$W=\{\hat{p}_1-\hat{p_2}\geq c\}$。
	
	我们仅考虑大样本情形下的近似。对于$m,n$都较大的情形，我们有
	\begin{equation}
	\frac{\hat{p}_1-\hat{p}_2-(p_1-p_2)}{\sqrt{\frac{p_1(1-p_1)}{n}+\frac{p_2(1-p_2)}{m}}}
	\end{equation}
	近似服从$N(0,1)$。当$p_1=p_2$时，犯第一类错误的概率达到最大，因此取
	\begin{equation}
	\hat{p}=\frac{1}{n+m}\left(\sum_{i=1}^n X_i+\sum_{i=1}^m Y_i\right)
	\end{equation}
	作为分母中$p_1$和$p_2$的共同估计。从而，
	\begin{equation}
	U=\frac{\hat{p}_1-\hat{p}_2}{\sqrt{\left(\frac{1}{n}+\frac{1}{m}\right)\hat{p}(1-\hat{p})}}
	\end{equation}
	作为检验统计量。因此，犯第一类错误的概率是
	\begin{equation}
	P_{p}(U\geq c')=1-\Phi(c')\leq \alpha
	\end{equation}
	即可解得$c'$作为临界量。
	
	\section{泊松总体参数的检验}
	\paragraph{小样本情形下$\lambda$的检验}
	设样本$X_1,\cdots,X_n$来自泊松分布总体$X\sim P(\lambda)$。考虑原假设和备择假设为
	\begin{equation}
	H_0:\lambda\leq \lambda_0,\quad H_1:\lambda >\lambda_0
	\end{equation}
	我们以
	\begin{equation}
	T=\sum_{i=1}^n X_i
	\end{equation}
	作为统计量，拒绝域写作$W=\{T\geq c\}$。
	
	对于给定的$\lambda$，$T\sim P(n\lambda)$，犯第一类错误的概率是
	\begin{equation}
	\alpha(\lambda)=P(T\geq c)=\sum_{k=c}^{\infty}\frac{(n\lambda)^k e^{-n\lambda}}{k!}=k_{2c}(2n\lambda)
	\end{equation}
	其中$k_{2c}(2n\lambda)$表示自由度为$2c$的卡方分布的分布函数在$2n\lambda$处的取值。取$\lambda=\lambda_0$，于是
	\begin{equation}
	\alpha(\lambda_0)=k_{2c}(2n\lambda_0)\leq\alpha
	\end{equation}
	解出$c$即可。
	
	\paragraph{大样本情形下$\lambda$的检验}
	设样本$X_1,\cdots,X_n$来自泊松分布总体$X\sim P(\lambda)$。考虑原假设和备择假设为
	\begin{equation}
	H_0:\lambda\leq \lambda_0,\quad H_1:\lambda >\lambda_0
	\end{equation}
	我们以
	\begin{equation}
	U=\frac{T-n\lambda}{\sqrt{n\lambda}}
	\end{equation}
	作为检验统计量。它近似服从$N(0,1)$。当$\lambda=\lambda_0$时，有
	\begin{equation}
	\sum_{k=c}^{\infty}\frac{(n\lambda)^k e^{-n\lambda}}{k!}\approx 1-\Phi\left(\frac{c-n\lambda_0}{\sqrt{n\lambda_0}}\right)\leq\alpha
	\end{equation}
	由此解出$c$即可得到拒绝域$W=\{(x_1,\cdots,x_n)|T>c\}$。
		
	\section{广义似然比检验}
	广义似然比方法是在分布类型已知时，构造检验统计量的一般方法。设总体$X$的密度函数为$f(x;\theta)$，其中$\theta$是未知参数，$\theta\in\Theta$，考虑原假设和备择假设为
	\begin{equation}
	H_0:\theta\in\Theta_0,\quad H_1:\theta\in\Theta_1
	\end{equation}
	其中$\Theta_0,\Theta_1\subset\Theta$，$\Theta_0,\Theta_1\neq\emptyset$，$\Theta_0\cap\Theta_1=\emptyset$，$\Theta_0\cup\Theta_1=\Theta$。
	
	设$X_1,\cdots,X_n$是来自$X$的样本，记其似然函数为$L(\theta)$，$\hat{\theta}_0$与$\hat{\theta}$分别是$\theta$在参数空间$\Theta_0$和$\Theta$的极大似然估计，似然函数在$\Theta_0$和$\Theta$上的极大值分别记为$L(\hat{\theta}_0)$与$L(\hat{\theta})$，记其比值为
	\begin{equation}
	\lambda=\lambda(X_1,\cdots,X_n)=\frac{L(\hat{\theta}_0)}{L(\hat{\theta})}
	\end{equation}
	一般来讲，参数空间越大，$L$的最大值就会越大，总不至于还变小了，所以$0\leq\lambda\leq 1$。当$H_0$为真时，$L(\hat{\theta}_0)$的取值应当较大，而当$H_0$为假时，$L(\hat{\theta}_0)$的取值就应该较小。因此，把$\lambda$作为检验统计量的话，拒绝域就有$W=\{(x_1,\cdots,x_n)|\lambda\leq c\}$的形式。
	
	作为临界值，$c$应当满足犯第一类错误的概率
	\begin{equation}
	P_{\theta}(\lambda\leq c)\leq\alpha,\quad \theta\in\Theta_0
	\end{equation}
	于是，我们称$\lambda$为似然比统计量，由此获得的检验称为水平是$\alpha$的广义似然比检验。有时，如果采用$\lambda$的某个函数$G(\lambda(X_1,\cdots,X_n))$作为检验统计量，那么也叫广义似然比检验。
	
	例子。考虑总体$X\sim N(\mu,\sigma^2)$，参数空间为$\Theta=\{(\mu,\sigma^2)\in \mathbb{R}\times\mathbb{R}^*\}$，从中取得样本$X_1,\cdots,X_n$，考虑原假设和备择假设为
	\begin{equation}
	H_0:\mu=\mu_0,\quad H_1:\mu\neq \mu_0
	\end{equation}
	的广义似然比检验。
	
	在这个问题中，子空间$\Theta_0=\{(\mu,\sigma^2)|\mu=\mu_0,\sigma^2>0\}$。似然函数是
	\begin{equation}
	L(\mu,\sigma^2)=\prod_{i=1}^{n}\frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{1}{2\sigma^2}(x_i-\mu)^2}
	\end{equation}
	在$\Theta$上，$\mu$和$\sigma^2$的极大似然估计$MLE$分别是
	\begin{equation}
	\hat{\mu}=\bar{X},\quad \hat{\sigma}^2=m_2
	\end{equation}
	其中$m_2$是二阶样本中心矩。在$\Theta_0$上，$\mu=\mu_0$，$\sigma^2$的极大似然估计是
	\begin{equation}
	\hat{\mu}_0=\mu_0,\quad \hat{\sigma}_0^2=\frac{1}{n}\sum_{i=1}^n (X_i-\mu_0)^2
	\end{equation}
	代入似然函数，有
	\begin{equation}
	L(\hat{\mu},\hat{\sigma}^2)=\left(\frac{1}{\sqrt{2\pi\hat{\sigma}^2}}\right)^n e^{-\frac{n}{2}},\quad L(\hat{\mu},\hat{\sigma}_0^2)=\left(\frac{1}{\sqrt{2\pi\hat{\sigma}_0^2}}\right)^n e^{-\frac{n}{2}}
	\end{equation}
	从而似然比统计量为
	\begin{equation}
	\begin{aligned}
	\lambda&=\frac{L(\mu_0,\hat{\sigma}_0^2)}{L(\hat{\mu},\hat{\sigma}^2)}=\left(\frac{\hat{\sigma}_0^2}{\hat{\sigma}^2}\right)^{-\frac{n}{2}}=\left(\frac{\sum_{i=1}^n (X_i-\mu_0)^2}{\sum_{i=1}^n (X_i-\bar{X})^2}\right)^{-\frac{n}{2}}\\
	&=\left(\frac{\sum_{i=1}^n (X_i-\bar{X})^2-n(\bar{X}-\mu)^2}{\sum_{i=1}^n (X_i-\bar{X})^2}\right)^{-\frac{n}{2}}=\left(1+\frac{t^2}{n-1}\right)^{-\frac{n}{2}}
	\end{aligned}
	\end{equation}
	其中，第四个等号来自
	\begin{equation}
	\begin{aligned}
	\sum_{i=1}^n (X_i-\bar{X})^2&=\sum_{i=1}^n X_i^2-n\bar{X}^2\\
	&=\sum_{i=1}^n X_i^2-2\sum_{i=1}^n \mu X_i+n\mu^2-n\mu^2+2\sum_{i=1}^n \mu X_i-n\bar{X}^2\\
	&=\sum_{i=1}^n (X_i-\bar{X})^2-n(\bar{X}-\mu)^2
	\end{aligned}
	\end{equation}
	并且
	\begin{equation}
	t=\frac{\bar{X}-\mu_0}{S/\sqrt{n}}\sim t(n-1),\quad \mu=\mu_0
	\end{equation}
	在这里，$t$是$\lambda$的单调函数，$\lambda\leq c$等价于$|t|\geq c'$。于是我们犯下第一类错误的概率为
	\begin{equation}
	P_{\mu_0}(|t|\geq c')=\alpha
	\end{equation}
	根据自由度为$n-1$的$t$分布的分布函数，可以解得$c'$。这个结果实际上是和之前我们在正态总体参数一节中作的检验一样的。
	
	\section{拟合优度检验}
	前面的问题属于参数假设检验问题。当我们对总体分布知之甚少时，就要采用非参数检验。
	
	考虑$\chi^2$拟合优度检验。假定一个总体可以分成$r$类，现在从该总体里获得一个样本，现在需要从这些分类数据出发，去判断总体各类出现的概率是否与已知的概率相符。
	
	\paragraph{总体可分为有限类，且总体分布不含未知参数} 设总体$X$可分为$r$类，记为$A_1,\cdots,A_r$，如今要检验的假设为：
	\begin{equation}
	H_0:p(A_i)=p_i,\quad i=1,\cdots,r
	\end{equation}
	
	其中各个$p_i$是已知量，$p_1+\cdots+p_r=1$。现在对总体作了$n$次观察，各类出现的频数分别是$n_1,\cdots,n_r$，并且$n_1+\cdots+n_r=n$。显然，如果$H_0$为真，那么$n_i\approx np_i$。据此，K. Pearson采用
	\begin{equation}
	\chi^2=\sum_{i=1}^r \frac{(n_i-np_i)^2}{np_i}
	\end{equation}
	作为检验统计量。当样本容量$n$充分大，并且$H_0$为真时，$\chi^2$近似服从自由度为$r-1$的卡方分布。
	
	从$\chi^2$的结构来看，在$H_0$为真时分子应当很小。所以如果$\chi^2$的观察值过大，就要考虑拒绝$H_0$。所以检验的拒绝域$W=\{\chi^2\geq c\}$，其中$c$就是临界量。对于给定的显著性水平$\alpha$，我们就可以根据分布$\chi^2(r-1)$来定出$c$，从而进行检验。
	
	\paragraph{总体可分为有限类，但总体分布含有未知参数}
	现在我们假设了总体的分布类型，但其中含有未知参数。我们想要检验一下，总体是否符合这种分布类型。设总体$X$可分为$r$类，记为$A_1,\cdots,A_r$，如今要检验的假设为：
	\begin{equation}
	H_0:p(A_i)=p_i,\quad i=1,\cdots,r
	\end{equation}
	其中各个$p_i$是含有$k$个独立未知参数$\theta_1,\cdots,\theta_k$的未知量，且有$p_1+\cdots+p_r=1$。
	
	1924年R. A. Fisher用极大似然估计$MLE$来代替:$\hat{p}_i$，并证明当样本容量$n$充分大时，检验统计量
	\begin{equation}
	\chi^2=\sum_{i=1}^r \frac{(n_i-n\hat{p}_i)^2}{n\hat{p}_i}
	\end{equation}
	近似服从自由度为$r-k-1$的卡方分布。然后，根据选定的置信水平$\alpha$，计算出临界值$c$。先前已经通过极大似然估计得到参数$\hat{\theta}_i$，进而计算分布列得到了$\hat{p}_i$，以此来算出$\chi^2$的观察值，与$c$来比较，从而得到检验结果。
	
	\paragraph{总体为连续分布的情形} 这时，把$X$的取值范围划分为$r$个区间，即可转化为上一段“总体可分为有限类，但总体分布含有未知参数”的情形。
	
	\section{列联表的独立性检验}
	在我们抽取了容量为$n$的样本后，对每个样品可以按照不同特性进行分类。例如，对学生的籍贯省份进行分类，可以分成三十多个类别；以及对学生的性别进行分类，可以分成两个至一百个类别。当我们用两种特性对样品分类时，记这两个特性分别为$X_1$和$X_2$，不妨设$X_1$有$r$个类别，$X_2$有$c$个类别，则可以把被调查的$n$个样品按照其所属的类别进行分类，列成$r\times c$的列联表。
	
	设$n_{ij}$表示特性为$X_1\in A_i,\quad X_2\in B_j$的频数。通常在列联表中海按照行、列分别求出其合计数$n_{i\cdot}$和$n_{\cdot j}$。
	
	\begin{table}
		\begin{tabular}{|c|c|cccc|c|}
			\hline
%			\multirow{2}*{\multicolumn{2}{|c|}{$r\times c$列联表}}
			\multicolumn{2}{|c|}{\multirow{2}*{$r\times c$列联表}}
			&\multicolumn{4}{|c|}{$X_2$}&\multirow{2}*{合计}\\
			\cline{3-6}
			\multicolumn{2}{|c|}{~}&$B_1$&$B_2$&$\cdots$&$B_c$&~\\
			\hline
			\multirow{4}*{$X_1$}&$A_1$&$n_{11}$&$n_{12}$&$\cdots$&$n_{1c}$&$n_{1\cdot}$\\
			~&$A_2$&$n_{21}$&$n_{22}$&$\cdots$&$n_{2c}$&$n_{2\cdot}$\\
			~&$\vdots$&$\vdots$&$\vdots$&$\ddots$&$\vdots$&$\vdots$\\
			~&$A_r$&$n_{r1}$&$n_{r2}$&$\cdots$&$n_{rc}$&$n_{r\cdot}$\\
			\hline
			\multicolumn{2}{|c|}{合计}&$n_{\cdot 1}$&$n_{\cdot 2}$&$\cdots$&$n_{\cdot c}$&$n$\\
			\hline
		\end{tabular}
	\centering
	\caption{关于属性$X_1$和$X_2$的$r\times c$列联表}
	\end{table}
	
	在这种列联表中，我们关心两个特性是否是独立的，称这类问题为列联表的独立性检验。我们记总体为随机向量$X=(X_1,X_2)$，这里$X_1$被分成$r$类$A_1,\cdots,A_r$，$X_2$被分成$c$类$B_1,\cdots,B_c$。记
	\begin{equation}
	p(X\in A_i\cap B_j)=P(\{X|X_1\in A_i\}\cap\{X|X_2\in B_j\})=p_{ij},\quad i=1,\cdots,r,\ j=1,\cdots,c
	\end{equation}
	以及
	\begin{equation}\begin{aligned}
	p_{i\cdot}&=P(\{X|X_1\in A_i\})=\sum_{j=1}^c p_{ij},\quad  i=1,\cdots r\\
	p_{\cdot j}&=P(\{X|X_2\in B_j\})=\sum_{i=1}^r p_{ij},\quad j=1,\cdot c
	\end{aligned}\end{equation}
	这里总有$\sum_{ij}p_{ij}=1$。那么，当$X_1$和$X_2$两个特性独立时，应对于任意的$i,j$都有
	\begin{equation}
	p_{ij}=p_{i\cdot}p_{\cdot j}
	\end{equation}
	因此我们的原假设以及备择假设可以写为
	\begin{equation}
	H_0:\forall i,j\ p_{ij}=p_{i\cdot}p_{\cdot j}  \quad H_1:\exists\ i,j\ s.t.\ p_{ij}\neq p_{i\cdot}p_{\cdot j}
	\end{equation}
	这样，它也可以采用$\chi^2$作为统计量：
	\begin{equation}
	\chi^2=\sum_{i=1}^r\sum_{j=1}^c \frac{(n_{ij}-np_{ij})^2}{(np_{ij})}=\sum_{i=1}^r\sum_{j=1}^c\frac{(n_{ij}-np_{i\cdot}p_{\cdot j})^2}{np_{i\cdot}p_{\cdot j}}
	\end{equation}
	最后一个等式是在原假设$H_0$为真时导出的，有$r+c-2$个未知参数(考虑到行、列的总和都是1)。它们的极大似然估计$MLE$为
	\begin{equation}
	\begin{aligned}
	\hat{p}_{i\cdot}=\frac{n_{i\cdot}}{n},\quad i=1,\cdots,r\\
	\hat{p}_{\cdot j}=\frac{n_{\cdot j}}{n},\quad j=1,\cdots,c
	\end{aligned}
	\end{equation}
	因而检验统计量为
	\begin{equation}
	\chi^2=\sum_{i=1}^r\sum_{j=1}^c\frac{(n_{ij}-n\hat{p}_{i\cdot}\hat{p}_{\cdot j})^2}{n\hat{p}_{i\cdot}\hat{p}_{\cdot j}}
	\end{equation}
	在$H_0$为真，$n$较大时，$\chi^2$近似服从自由度为$(r-1)(c-1)$的卡方分布。对于给定的显著性水平$\alpha$，可计算出临界值$c$，从而拒绝域便是$W=\{\chi^2\geq c\}$。
	