
\chapter{Chamberlain的面板数据估计方法}

本章内容主要源自Jason Abrevaya (2018) and Wooldrigde (2010, chapter 14.6.2)。该文主要解决面板数据估计中，因变量缺失时的估计问题。
	\section{基础模型设置}
	考虑如下静态固定面板模型，
	\begin{equation}\label{eq1}
	 y_{it}=\bm{x}_{it}\bm{\beta} + \bm{z}_i\bm{\gamma} + c_i+u_{it}
	\end{equation}
	
	其中，$ \bm{x}_{it} $是$ 1\times k $时变行向量，$ \bm{z}_i $是$ 1\times \ell $行时常行向量，$ \bm{\beta},\bm{\gamma}$分别是$ k\times 1,\ell\times 1 $维。为便于说明问题，定义，
	\[ m_{it}=\begin{cases}
	1 \text{ if } y_{it} \text{ is missing}\\
	0 \text{ if } y_{it} \text{ is observed}
	\end{cases} \]
	\section{假设条件}
	假设1： （严格外生性） $ E(u_i|x_i,z_i,c_i,m_i)=0 $
	
	假设2：(对于缺失机制的额外假设) $ E(x'_{it}a_i|m_i)=0,\text{for all t and  }E(z'_ia_i|m_i)=0 $
	
	假设3：
	\section{Chamberlain的方法}
	Chamberlain的方法将固定效应$ c_i $如下建模，\begin{equation}\label{eq2}
	 c_i=\psi + \bm{x}_{i1}\bm{\lambda}_1+\bm{x}_{i2}\bm{\lambda}_2+\cdots+\bm{x}_{iT}\bm{\lambda}_T+\bm{z}_i\bm{\phi}+a_i 
	\end{equation}
	
	其中，$ \psi $是标量，$ \bm{\lambda}_t $是$ k\times 1 $的向量。同时，$ E(a_i)=E(x'_{it}a_i)=E(z'_ia_i)=0 $。将\eqref{eq2}式插入\eqref{eq1}式，有，
\begin{equation}\label{eq3}
	 y_{it}=\bm{x}_{it}\bm{\beta} + \psi + \bm{x}_{i1}\bm{\lambda}_1+\bm{x}_{i2}\bm{\lambda}_2+\cdots+\bm{x}_{iT}\bm{\lambda}_T+\bm{z}_i\tilde{\bm{\phi}}+a_i +u_{it}
\end{equation}
	
	其中，$ \tilde{\bm{\phi}}=\bm{\phi} + \bm{\gamma} $。\textbf{对于完全数据，Wooldridge (2002)基于\eqref{eq3}式的混合OLS估计量在数值上等于组内估计量。但相对GMM或者CMD估计量不是有效的(Crepon and Mairesse, 2008)}。\eqref{eq3}式中的结构参数$ \bm{\beta},\bm{\phi},\bm{\lambda}_1,\cdots,\bm{\lambda}_T,\tilde{\bm{\phi}} $，共$ k(T+1)+\ell+ 1 $个需要估计。对于每个时期$ t $，\eqref{eq3}式也可以写成诱导形式，
	\begin{equation}\label{eq4}
	 y_{it}=\pi_0^t + \bm{x}_{i1}\pi_1^t +  \bm{x}_{i2}\bm{\pi}_2^t + \cdots+\bm{x}_{iT}\bm{\pi}_T^t +\bm{z}_i\bm{\pi}_z^t+a_i +\nu_{it}\qquad t= 1,2,\cdots,T
	\end{equation}
	
	
	其中，$ \nu_{it}\equiv a_i+ u_{it},\pi_0^t$是标量诱导参数，$ \bm{\pi}_s^t $是$ k\times 1 $的诱导参数向量，$ \bm{\pi}_z^t $是$ \ell\times 1 $的诱导参数向量。在假设1和假设2下，$ kT+\ell + 1 $个诱导参数可以一致地用OLS估计出来。对于具有$ T $个方程的完全系统，则共有$ T(kT+\ell + 1) $个诱导参数。
	
	如何从诱导参数恢复到结构参数？参见Woodridge (2002, chapter 14)。这里就需要一个方差协方差矩阵的估计。为使该过程便利，可以将\eqref{eq4}式的T个回归方程的混合OLS估计表达成一个广义矩估计。T个方程的正交条件可以写为，
	\begin{equation}\label{eq5}
	 E\begin{bmatrix}
	(y_{i1}-\pi_0^1 + x_{i1}\pi_1^1 +  x_{i2}\pi_2^1 + \cdots+x_{iT}\pi_T^1 -z_i\pi_z^1)\begin{pmatrix}
	1\\ x_i\\ z'_i
	\end{pmatrix}\\
	(y_{i2}-\pi_0^2 + x_{i1}\pi_1^2 +  x_{i2}\pi_2^2 + \cdots+x_{iT}\pi_T^2 -z_i\pi_z^2)\begin{pmatrix}
	1\\ x_i\\ z'_i
	\end{pmatrix}\\
	\vdots \\
	(y_{iT}-\pi_0^T + x_{i1}\pi_1^T +  x_{i2}\pi_2^T + \cdots+x_{iT}\pi_T^T -z_i\pi_z^T)\begin{pmatrix}
	1\\ x_i\\ z'_i
	\end{pmatrix}\\
	\end{bmatrix} =0
	\end{equation}
		
	基于\eqref{eq5}式的诱导参数$\pi $的GMM估计量$ \hat\pi $等同于\eqref{eq4}式的T个逐方程回归结果。令$ \hat\Lambda $是GGM估计量恰好识别时的渐近方差协方差矩阵估计。那么，一旦得到$ \hat\pi,\hat\Lambda $就可以根据CMD估计量得到各结构参数。
	
	完全数据下，组内估计量不会比CMD估计量更有效。在假设1下，一阶差分估计量是一致的。在假设1和假设2下，CMD估计量是一致的。
	
	\section{CMD估计}
	感兴趣于估计$ P\times 1 $维的$ \bm\theta_o $参数向量，常常由结构模型的参数构成。它与$ S\times 1 $维的诱导参数$\bm{\pi}_o  $相关，$ S>P $。或者说$ \bm{\pi}_o=h(\bm{\theta}_0) ,h$是连续可为函数$ h:\mathcal{R}^P\rightarrow \mathcal{R}^S $，将结构参数映射到诱导参数。
	
$ \bm{\theta}_o $的CMD估计，
\begin{enumerate}
	\item 首先，是获得诱导参数$ \bm{\pi}_o $的估计$ \hat{\bm{\pi}} $;
	\item 然后，去选一个$ \bm{\theta}_o $的估计$ \hat{\bm{\theta}} $使得$ \hat{\bm{\pi}} $与$ \hat{\bm{\theta}} $之间的距离最小。
\end{enumerate}

与GMM估计一样，也可以用一个有效加权矩阵作为距离加权。譬如对于某个半正定$ S\times S $的矩阵$ \bm{\Xi} $，它是$\sqrt{N}(\hat{\bm{\pi}}-\bm{\pi}_o) $的渐近方差协方差矩阵的估计，那么有效CMD估计量就是求解,
\begin{equation}\label{eq6}
 \min_{\bm\theta}[\hat{\bm{\pi}}-h(\bm{\theta})]'\hat{\bm{\Xi}}^{-1}[\hat{\bm{\pi}}-h(\bm{\theta})]
\end{equation}

	
那么具体针对我们这里的情况，对比\eqref{eq3}式和\eqref{eq4}式（为方便起见，不考虑时常自变量$ \bm{z}_i $），如果我们施加一个约束，即认为每一期的$ \bm{\pi}^t=({\bm{\pi}^{t}_1}',{\bm{\pi}^t_2}',\cdots,{\bm{\pi}^t_T}')' $都是一样的，即为，
\[ \begin{pmatrix}
\pi_0^t\\
\bm{\pi}^t_1\\
\bm{\pi}^t_2\\
\vdots\\
\bm{\pi}^t_t\\
\vdots\\
\bm{\pi}^t_T
\end{pmatrix}=\begin{pmatrix}
\psi\\
\bm{\lambda}_1\\
\bm{\lambda}_2\\
\vdots\\
\bm{\lambda}_t + \bm{\beta}\\
\vdots\\
\bm{\lambda}_T
\end{pmatrix} \]

再一次地，每一期都有一个$ \bm{\pi}^t $，把它按列堆叠起来，就能构造一个矩阵$ \bm{H} $使结构参数$( \psi,\bm{\lambda}_1,\cdots,\bm{\lambda}_T,\bm{\beta}) $\footnote{注意此处将$ \bm{\beta} $放到了最后，便于$ \bm{H} $的构造}与诱导参数$ (\bm{\pi}^1,\cdots,\bm{\pi}^T) $可以联系起来。也即，
\[ \begin{pmatrix}
\pi_0^1\\ \bm{\pi}^1_1\\ \bm{\pi}^1_2\\ \vdots\\ \bm{\pi}^1_t\\ \vdots\\ \bm{\pi}^1_T\\
\text{\sout{\qquad}}\\
\pi_0^2\\ \bm{\pi}^2_1\\ \bm{\pi}^2_2\\ \vdots\\ \bm{\pi}^2_t\\ \vdots\\ \bm{\pi}^2_T\\
\text{\sout{\qquad}}\\
\vdots\\
\text{\sout{\qquad}}\\
\pi_0^T\\ \bm{\pi}^T_1\\ \bm{\pi}^T_2\\ \vdots\\ \bm{\pi}^T_t\\ \vdots\\ \bm{\pi}^T_T\\
\end{pmatrix}=
\begin{pmatrix}
\psi\\ \bm{\lambda}_1+ \bm{\beta}\\ \bm{\lambda}_2\\ \vdots\\ \bm{\lambda}_t \\ \vdots\\ \bm{\lambda}_T\\
\text{\sout{\qquad}}\\
\psi\\ \bm{\lambda}_1\\ \bm{\lambda}_2+ \bm{\beta}\\ \vdots\\ \bm{\lambda}_t \\ \vdots\\ \bm{\lambda}_T\\
\text{\sout{\qquad}}\\
\vdots\\
\text{\sout{\qquad}}\\
\psi\\ \bm{\lambda}_1\\ \bm{\lambda}_2\\ \vdots\\ \bm{\lambda}_t\\ \vdots\\ \bm{\lambda}_T+ \bm{\beta} \end{pmatrix}=\underbrace{
\begin{pmatrix}
1 & 0 & \cdots & 0&0\\
0 & \bm{I}_k & \cdots & 0& \bm{I}_k\\
0 & 0&\bm{I}_k & \cdots & 0\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
0 & 0 & \cdots & \bm{I}_k& 0\\
\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}\\
1 & 0 & \cdots & 0&0\\
0 & \bm{I}_k & \cdots & 0& 0\\
0 & 0&\bm{I}_k & \cdots & \bm{I}_k\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
0 & 0 & \cdots & \bm{I}_k& 0\\
\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}\\
\vdots&\vdots&\vdots&\vdots&\vdots\\
\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}&\text{\sout{\qquad}}\\
1 & 0 & \cdots & 0&0\\
0 & \bm{I}_k & \cdots & 0& 0\\
0 & 0&\bm{I}_k & \cdots & 0\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
0 & 0 & \cdots & \bm{I}_k& \bm{I}_k\\
\end{pmatrix}}_{\bm{H}}
\begin{pmatrix}
\psi\\
\bm{\lambda}_1\\
\bm{\lambda}_2\\
\vdots\\
\bm{\lambda}_t\\
\vdots\\
\bm{\lambda}_T\\
\bm{\beta}
\end{pmatrix} \]

那么就可以发现函数$ h $就是一个线性变换，也即上式中的$ \bm{H} $矩阵。那么对应于\eqref{eq6}式的最小化，我们还需要一个方差协方差矩阵$ \bm{\Xi} $,而它可以通过系统OLS稳健渐近方差而得到，
\[ \hat{\bm{\Xi}}\equiv (N^{-1}\sum_{i=1}^{N}\bm{X}'_i\bm{X}_i)^{-1}(N^{-1}\sum_{i=1}^N\bm{X}'_i\hat{\bm{\nu}}_i\hat{\bm{\nu}}'_i\bm{X}_i)(N^{-1}\sum_{i=1}^{N}\bm{X}'_i\bm{X}_i)^{-1} \]

其中，$ \bm{X}_i=\bm{I}^T\otimes (1,\bm{x}_i) $是$ T\times (T+T^2k) $维的。$ \bm{\hat\nu}_i $是$ T\times 1 $维的。那么对于一个满足秩($\bm{H}$)=P的一个$ S\times P $的矩阵$ \bm{H} $,CMD估计量为，
\[ \hat{\bm{\theta}}=(\bm{H}'\hat{\bm{\Xi}}^{-1}\bm{H})^{-1}\bm{H}'\hat{\bm{\Xi}}^{-1}\hat{\bm{\pi}} \]
