\section {Ejercicio 2}
\subsection{Introducción}
%\input{ej2/intro.tex}

	El Objetivo de este ejercicio es construir y analizar el
	comportamiento de una red de Kohonen que clasifique una entrada de
	$M$ puntos distribuidos aleatoriamente en un intervalo, en $M$
	clases topol\'ogicamente ordenadas que corresponden a puntos en el
	mismo intervalo.
	
	Las distribuciones usadas para los conjuntos de entrenamiento y
	testing son la Uniforme y la Normal, en todas sus combinaciones
	respectivamente.
	
	El intervalo que usamos fue el $[0:1]$, por ninguna raz\'on
	particular, s\'olo nos parecio que la elección del intervalo era
	independiente de los resultados obtenidos, mas alla de la
	granularidad que se pueda lograr en el mismo si se tiene en cuenta
	la representación finita de los números en la computadora.
	
	Para construir la red utilizamos el paquete \textit{somtoolbox} para
	\textit{Matlab} que nos permitió trabajar directamente en el
	análisis de los datos obtenidos y no complicarnos con
	la implementación de la red.
	
	Para analizar los histogramas de activación de las distintas
	pruebas, tomamos muestras de 100 experimentos de instancias iguales
	e independientes (con datos de entrenamiento y testing aleatorios
	distintos) y promediamos la suma de los histogramas en el
	histograma final. Así obtenemos una nocion del histograma
	``promedio".
	
\newpage
\subsection{Resultados}
%\input{ej2/capicua.tex}

	\subsubsection{elección de la velocidad de entrenamiento inicial}

		\noindent En primer lugar buscamos el $\eta$ aumentando el mismo
		de a órdenes de magnitud (base 2) para lograr una primera
		aproximación.

		\begin{figure}[H]
			\centering
			\subfigure[$\eta=1$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_entrenamiento_UU_E_1.png}
				\label{fig:res_UU_E_1}
			}
			\subfigure[$\eta=2$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_entrenamiento_UU_E_2.png}
				\label{fig:res_UU_E_2}
			} \\
			\subfigure[$\eta=4$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_entrenamiento_UU_E_4.png}
				\label{fig:res_UU_E_4}
			}
			\subfigure[$\eta=8$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_entrenamiento_UU_E_8.png}
				\label{fig:res_UU_E_8}
			}\\
			\subfigure[$\eta=16$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_entrenamiento_UU_E_16.png}
				\label{fig:res_UU_E_16}
			}
			\subfigure[$\eta=32$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_entrenamiento_UU_E_32.png}
				\label{fig:res_UU_E_32}
			}
		\end{figure}		

		Vemos que los dos últimos valores de $\eta$ muestran claros
		síntomas de sobreentrenamiento. Las clases parecen haberse
		agrupado muy rápidamente alrededor de las primeras selecciones
		de datos hechas. Tan rápido que al bajar la velocidad de
		aprendizaje(en el algoritmo sucede linealmente) las neuronas
		fueron incapaces de reacomodarse luego.
		
		A continuación también mostramos los histogramas obtenidos
		para las 4 primeras pruebas en la fase de testeo, la cuál se
		realizo con la misma distribución que la de entrada (Uniforme).
		Idealmente el histograma debería mostrar también una
		distribución uniforme de las activaciones, por lo que es un
		buen parámetro de comparación para elegir una instancia sobre
		otra.

		\begin{figure}[H]
			\centering
			\subfigure[$\eta=1$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_1.png}
				\label{fig:res_UU_E_1}
			}
			\subfigure[$\eta=2$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_2.png}
				\label{fig:res_UU_E_2}
			} \\
			\subfigure[$\eta=4$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_4.png}
				\label{fig:res_UU_E_4}
			}
			\subfigure[$\eta=8$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_8.png}
				\label{fig:res_UU_E_8}
			}
		\end{figure}

		Como vemos, todos presentan un outlayer en la clase $0$, al
		cuál no supimos atribuírle un significado. Más alla de éste,
		el resto de los valores parece ser aproximadamente uniforme.
		Acá vemos unos acercamientos de los mismos gráficos donde se
		pueden diferenciar un poco mejor los resultados.
		
		\begin{figure}[H]
			\centering
			\subfigure[$\eta=1$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_1_zoom.png}
				\label{fig:res_UU_E_1}
			}
			\subfigure[$\eta=2$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_2_zoom.png}
				\label{fig:res_UU_E_2}
			} \\
			\subfigure[$\eta=4$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_4_zoom.png}
				\label{fig:res_UU_E_4}
			}
			\subfigure[$\eta=8$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/resultado_del_testeo_UU_E_8_zoom.png}
				\label{fig:res_UU_E_8}
			}
		\end{figure}

		Como las diferencias son muy sutiles, y algunos datos dependen
		demasiado del azar, decidimos correr
		un algoritmo que promedie este histograma sobre 100 experimentos
		independientes e iguales pero con distintos conjuntos de datos aleatorios
		(de distribución Uniforme). A continuación los resultados obtenidos.

		\begin{figure}[H]
			\centering
			\subfigure[$\eta=1$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/promedio100_UU_100P_1E.png}
				\label{fig:res_UU_E_1}
			}
			\subfigure[$\eta=2$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/promedio100_UU_100P_2E.png}
				\label{fig:res_UU_E_2}
			} \\
			\subfigure[$\eta=4$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/promedio100_UU_100P_4E.png}
				\label{fig:res_UU_E_4}
			}
			\subfigure[$\eta=8$]{
				\includegraphics[scale=0.28]{ej2/img/etaUU/promedio100_UU_100P_8E.png}
				\label{fig:res_UU_E_8}
			}
		\end{figure}
	
	Nuevamente no parecen diferir mucho, y todos parecen presentar una
	distribución aproximadamente uniforme, Por lo que asumimos que la
	elección de la velocidad de entrenamiento en este intervalo $[1:8]$
	daba lo mismo. Cualquiera parece ser un buen candidato.
	
	\noindent \textit{Nota: tambien se tomaron intervalos menores a uno pero el comportamiento tampoco varía demasiado.}
	
	\subsubsection{entrenamiento Uniforme y testeo Uniforme}
		
		Los resultados son los que se encuentran en la sección anterior.
	
	\subsubsection{entrenamiento Uniforme y testeo Normal}
	
		En este experimento deberíamos obtener una imagen de la función
		de distribución normal usada en el conjunto de testeo, ya que
		pasar datos a traves de la red de Kohonen entrenada
		apropiadamente con un conjunto de datos de distribución
		Uniforme, debería ser (idealmente) lo mismo que aplicarle a
		estos datos la función de identidad.
		
		\begin{figure}[H]
			\centering
			\includegraphics[scale=.8]{ej2/img/promedio100_UN_100P_15E.png}
			\caption{ Histograma promedio (100 pruebas) de una red de
			Kohonen entrenada con un conjunto de datos aleatorios de
			distribución Uniforme y testeada con un conjunto de datos
			aleatorios de distribución Normal$(0.5;0.25^2)$ }
			\label{fig:UN}
		\end{figure}		
	
	\subsubsection{entrenamiento Normal y testeo Normal}
	
		\begin{figure}[H]
			\centering
			\includegraphics[scale=.8]{ej2/img/promedio100_NN_100P_15E.png}
			\caption{ Histograma promedio (100 pruebas) de una red de
			Kohonen entrenada con un conjunto de datos aleatorios de
			distribución Normal$(0.5;0.25^2)$ y testeada con un conjunto de datos
			aleatorios independiente de la misma distribución }
			\label{fig:NN}
		\end{figure}
		
		Acá nuevamente vemos un histograma casi uniforme, lo que es
		esperable ya que las clases están distribuídas (idealmente)
		de manera que en cada una caiga aproximadamente la misma
		cantidad de entradas del conjunto de entrenamiento,
		en este caso, también el de testeo.
	
	\subsubsection{entrenamiento Normal y testeo Uniforme}

		\begin{figure}[H]
			\centering
			\includegraphics[scale=.4]{ej2/img/promedio100_NU_100P_15E.png}
			\caption{ Histograma promedio (100 pruebas) de una red de
			Kohonen entrenada con un conjunto de datos aleatorios de
			distribución Normal$(0.5;0.25^2)$ y testeada con un conjunto de datos
			aleatorios de distribución Uniforme }
			\label{fig:NU}
		\end{figure}

		En este experimento vemos que las activaciones de mayor
		frecuencia se dan en las partes de menor activación del
		histograma de los datos normales, o sea, en las puntas de las
		colas de la función de distribución Normal, ya que muchísimos
		datos de la distribución Uniforme van a parar a lugares donde
		hay muy pocas activaciones para la distribución Normal que se
		uso como conjunto de entrenamiento.
		Como la mayoría de las clases estarán agrupadas alrededor
		de la media, quedarían muy pocas para los datos de las colas,
		En las cuáles caen todos los datos uniformes de la zona.

\subsection{Conclusiones}

	Este ejercicio resulto ser un excelente ejemplo para entender el
	mapeo topológico que hacen las redes de Kohonen sobre los datos de
	entrada. La linealidad de la entrada/salida lo hace simple.
	
	Además, vimos que la red se comportaba de manera bastante estable
	en el intervalo de velocidades de aprendizaje $[1:8]$, y en general
	los resultados para distintas combinaciones de distribuciones de
	entrenamiento/testeo fueron los esperados. Podemos concluír que la
	red es un excelente recurso para modelar este (simple) problema.
