\section{{\color{blue}Minimizando la energ\'ia}}

En la secci\'on \ref{sec:energia} presentamos la funci\'on que buscamos minimizar
y explicamos las propiedades de sus t\'erminos. Nuestro objetivo ahora consiste
en definir los pasos en que vamos a realizar dicha minimizaci\'on. En
\ref{sec:proba} mostramos las dos variables a partir de las cuales se obtiene el
valor de la energ\'ia. Por un lado tenemos la funci\'on de etiquetado $f$ y por
el otro los par\'ametros estad\'isticos $\theta$. A partir de estas dos
variables minimizaremos la funci\'on $E(f,\theta)$ iterativamente de una manera
similar a como trabaja el algoritmo de Expectation-maximization
\cite{Dempster1977}. El primer paso (que se asemeja al paso ``E'' de EM) es definir los par\'ametros 
$\theta$ y obtener el mejor etiquetado $f$ para esos par\'ametros. El segundo
paso (el ``M'') obtener un nuevo etiquetado $f$ y obtener los par\'ametros
estad\'isticos $\theta$ para ese etiquetado. La minimizaci\'on de energ\'ia en
el paso E se hace mediante graph-cuts.\\
En t\'erminos generales podemos expresar a nuestra funci\'on de minimizaci\'on
de energ\'ia de la siguiente manera

\begin{equation}
E(f) = Q(f,\theta) + \sum_{p,q \in \N} V(f_p,f_q)
\end{equation}

\subsection{{\color{blue}Obteniendo los par\'ametros estad\'isticos}}

En este paso buscamos el mejor etiquetado a partir de los par\'ametros $\theta$
establecidos.

\begin{equation}
\hat{E}(f) = \sum_{p \in \P} D_p(f_p) + \sum_{p,q \in \N} V(f_p,f_q)
\end{equation}

Para eso utilizaremos el algoritmo presentado en en este cap\'itulo, basado en
\cite{Boykov2001}, el cual seg\'un \cite{Zabih2004} resulta ser el m\'as efectivo
para esta tarea. Como explicamos en \ref{sec:expansion}, el movimiento mediante
$\alpha-expansion$ trabaja iterativamente, y como ya mostramos resulta ser un
algoritmo de aproximaci\'on que garantiza una soluci\'on que dista a lo sumo de
un factor constante de el m\'imimo global. Nuestra tarea consiste entonces en
minimizar $E(f,\theta)$ para un $\theta$, lo cual requiere que exista una
funci\'on $D_p$ tal que

\begin{equation}
Q(f) = \sum_{p \in P} D_p(f_p)
\end{equation}

En \cite{Zabih2004} se define el ``linearity criteria'' a partir de esta
expresi\'on, estableciendo que una funci\'on $Q$ es lineal si cumple este
criterio. Luego dice que si $Q$ es lineal entonces se puede minimizar el
funcional de energ\'ia en el paso ``E'' mediante el movimiento de expansi\'on.

\subsubsection{Funciones de etiquetado lineales}

Seg\'un \cite{Zabih2004}, es f\'acil mostrar que una gran cantidad de funciones
de etiquetado cumplen el criterio establecido, de modo que nuestro m\'etodo
puede ser aplicado. En particular muchas funciones de etiquetado representan la
etiqueta en un determinado punto $c_k$. La funci\'on resulta

\begin{equation}
Q(f,\theta) = \sum_k \sum_{x \in X_k(f)} \rho(c_k,x)
\end{equation}

donde $\rho$ es una m\'etrica.\\
En \cite{Zabih2004} se muestra que este tipo de funciones de etiquetado cumplen
nuestro ``linearity criteria', de modo que el algoritmo puede ser aplicado.

\subsection{{\color{blue}Obteniendo el etiquetado}}

En el segundo paso de nuestro m\'etodo, obtenemos un nuevo etiquetado $f$ a
partir del cual calculamos los nuevos par\'ametros estad\'isticos $\theta$. En
nuestro caso donde los par\'ametros son los necesarios para calcular la
probabilidad de una gaussiana multivaluada, el paso consiste simplemente
obtener la media y la covarianza para las regiones identificadas por $f$. Dado
que el paso no resulta costoso, tiene sentido ejecutar esta correcci\'on de
$\theta$ despues de cada movimiento de expansi\'on en ``E''.

\subsection{{\color{blue}Propiedades de Expectation-maximization}}

Parte de la popularidad de los algoritmos basados en EM se debe a que una
iteraci\'on de EM no disminuye los datos observados por la funci\'on
probabil\'istica. Pero, pese a que no hay garant\'ia de que la secuencia
converga a un m\'aximo global, dadas las propiedades de los movimientos de expansi\'on
\viewref{sec:expansion} esto no resulta en un problema.\\
EM resulta particularmente al trabajar con Gaussianas \cite{Dempster1977}, y
resulta ser una descripci\'on de una clase de algoritmos y uno un algoritmo en
si mismo. En otras palabras resulta ser un meta-algoritmo que resulta de gu\'ia
para la construcci\'on de determinados algoritmos.