В предыдущем разделе, мы строили ЛООСК, находясь в информационных ограничениях 0)-2). Откажемся теперь от условия 2), т.е. от априорной информации о распределении оцениваемого параметра. С уменьшением доступной информации мы сузим множество, в котором будем искать оценку (упростим ее структуру).

Ограничимся рассмотрением случая 
\begin{equation}\label{MainGaussMarkov}
 y = Ub + n,
\end{equation}
где $b$ --- оцениваемый параметр (константа), $U$ --- известная матрица, $n$ --- шум с известным м.о. $m_n$ и матрицей ковариаций $R_n$. 
\begin{df}
 Гауссовско-марковской оценкой (ГМО) для $b$ в задаче \eqref{MainGaussMarkov} называется оценка вида $\tilde{\beta}(y) = \tilde{A}(y - m_n)$, где $\tilde{A}$ --- минимизатор в задаче
\begin{equation}\label{GMOdef}
\E\norm{b - A(y-m_n)}^2\to\min\limits_A.
\end{equation}
\end{df}
Таким образом, ГМО --- это измененный ЛООСК, в котором проецирование идет на другое подпространство в $L_2$. Стоит отметить, что, так как по построению ГМО является линейной по $y$ и ортогональной проекцией на некоторое множество в $L_2$, то (формально) ее тоже можно было бы назвать ЛООСКом.

Происхожденине формулы \eqref{GMOdef} можно нестрого описать так. Рассмотрим афинную оценку (оптимальной в классе которых, как мы уже знаем, является ЛООСК) и предположим. что она точно совпадает с $b$:
$$
b = Ay + c = A(Ub + n) + c = AUb + An + c.
$$
Если $AU = E$ (а дальше выяснится, что это именно так), то для справедливости это равенства (после взятия м.о.) надо положить $c = -Am_n$. Таким образом, из интуитивных соображений мы упростили класс допустимых оценок.

Получим явное выражение для $\tilde{A}$ и на дисперсию ошибки.
\begin{theorem}
 В сделанных предположениях ГМО имеет вид
$$
\tilde{\beta}(y) = (U'R_n^{-1}U)^{-1}U'R_n^{-1}(y-m_n),
$$
а дисперсия ошибки оценивания имеет вид
$$
\tilde{R}_e = \E\scalar{b-\tilde{\beta}(y)}{b-\tilde{\beta}(y)} = (U'R_n^{-1}U)^{-1}.
$$
\end{theorem}
\begin{proof} 
Рассмотрим минимизируемое выражение:
\begin{multline*}
 f(A) = \E\norm{b - A(Ub+n-m_n)}^2 =\\= 
\E\norm{(E-AU)b}^2 + 2\E\scalar{(E-AU)b}{A(m_n-n)} + \E\norm{A(n - m_n)}^2 =\\= 
\E\norm{(E-AU)b}^2 +2\scalar{(E-AU)b}{A\E (m_n-n)} + \E\norm{A(n - m_n)}^2 =\\= 
\E\norm{(E-AU)b}^2 + \E\norm{A(n - m_n)}^2. 
\end{multline*}

Избавимся от первого слагаемого, потребовав, что бы $AU = E$. Таким образом,
\begin{multline*}
f(A) = \norm{A(n - m_n)}^2 = \E\scalar{A(n-m_n)}{A(n-m_n)} = \{\text{пусть $a_i$ --- i-я строка $A$}\} = \\=
\E\sum\limits_{i=1}^k\scalar{a_i}{n-m_n}^2 = \sum\limits_{i=1}^k\scalar{a_i}{R_n a_i }.
\end{multline*}
С учетом выбора $AU = E$, получаем $k$ задач условной минимизации:
\begin{equation*}
 \begin{cases}
  \scalar{a_i}{R_n a_i}\to\min,\\
  U'a_i = e_i. 
 \end{cases}
\end{equation*}
Решим эту задачу методом множителей Лагранжа. Составим функцию Лагранжа:
$$
L(a_i,\lambda) = \lambda_0 \scalar{a_i}{R_na_i} - \scalar{\lambda}{U'a_i - e_i}.
$$
Легко убедиться, что задача не анормальная и можно положить $\lambda_0 = 1$. Приравнивая к нулю производную по $a_i$, получим
$$
2R_na_i + U\lambda = 0,\ \Rightarrow\ a_i = \dfrac{1}{2}R_n^{-1}U\lambda,
$$
подставляя это в ограничения, получим, что
$$
\lambda = -2(U'R_n^{-1}U)^{-1}e_i,\ \Rightarrow\ a_i = R_n^{-1}U(U'R_nU)^{-1}e_i,
$$
откуда, окончательно,
$$
\tilde{A} = (R_n^{-1}U(U'R_nU)^{-1})' = (U'R_nU)^{-1}U'R_n^{-1}.
$$
Стало быть, ГМО имеет вид:
$$
\tilde{\beta}(y) = (U'R_n^{-1}U)^{-1}U'R_n^{-1}(y-m_n),
$$
что и требовалось показать.

Выведем теперь дисперсию ошибки оценивания. Обозначим $\tilde{e}  = b - \tilde{\beta}(y)$.  Выбор $AU = E$ дает
$$
\E\tilde{\beta}(y) = \E\tilde{A}(Ub + n - m_n) = \tilde{A}Ub = b,
$$
откуда $\E\tilde{e} = 0$. Прямым вычислением имеем:
\begin{multline*}
\tilde{R}_e = \E\scalar{\tilde{e} - \E\tilde{e}}{\tilde{e} - \E\tilde{e}} = \E\scalar{\tilde{e}}{\tilde{e}} = \E\norm{\tilde{e}}^2 =
\E\norm{b - (U'R_n^{-1}U)^{-1}U'R_n^{-1}(y-m_n)}^2 =\\=
\E\norm{b - (U'R_n^{-1}U)^{-1}U'R_n^{-1}(Ub+n-m_n)}^2 =\\= 
\E\norm{b - (U'R_n^{-1}U)^{-1}U'R_n^{-1}Ub - (U'R_n^{-1}U)^{-1}R_n^{-1}(n-m_n))}^2 = \E\norm{-(U'R_n^{-1}U)^{-1}U'R_n^{-1}(n-m_n)}^2 =\\= 
\E\scalar{(U'R_n^{-1}U)^{-1}U'R_n^{-1}(n-m_n)}{(U'R_n^{-1}U)^{-1}U'R_n^{-1}(n-m_n)} =\\=
 (U'R_n^{-1}U)^{-1}U'R_n^{-1}R_nR_n^{-1}U(U'R_n^{-1}U)^{-1} = (U'R_n^{-1}U)^{-1},
\end{multline*}
что и требовалось показать.
\end{proof}

\subsubsection{Свойства ГМО}
Опишем несколько свойств ГМО.

\begin{note}
Выбор $AU = E$ обеспечивает несмещенность ГМО.
\end{note}
\begin{note}
 Если в ЛООСК $m_b = 0,\ R_b = \infty$ ($R_b^{-1} = 0$), то ЛООСК и ГМО совпадают.
\end{note}
\begin{note}
 В гауссовском случае ГМО совпадает с оценкой ММП.
\end{note}

\subsubsection{Детерминированный аналог}
Покажем детерминированный аналог ГМО.

\begin{theorem}
 Пусть $n,y$ --- неслучайные векторы, т.ч. $y = Ub + n$, $R_n$ и $\tilde{R}_e^{-1} = (U'R_n^{-1}U)$ положительно определены. Тогда
$$
\norm{n-m_n}^2_{R_n^{-1}} = \norm{b - \tilde{\beta}(y)}^2_{\tilde{R}_e^{-1}}.
$$
\end{theorem}
\begin{proof}
 Доказывается прямой проверкой (докажите!)
\end{proof}




