
\subsubsection{Elección y generación}

	Las primeras pruebas fueron hechas para elegir una buena velocidad
	de aprendizaje para el algoritmo.

	Para esto, se promediaron para cada instancia distinta del
	algoritmo los resultados obtenidos en sucesivas ejecuciones del
	mismo, variando en cada una la matriz de pesos inicial.

	La matriz es llenada con pesos aleatorios entre $0$ y $1$ con una
	distribución uniforme. Las semillas para el generador de números
	aleatorios son las mismas 5 para cada instancia distinta del
	algoritmo.

\subsubsection{Resultados}

	El siguiente gráfico muestra los resultado de las pruebas
	realizadas para comparar el comportamiento del algoritmo bajo
	distintas velocidades de adaptación. Las mismas varían entre
	$0$ y $1$.

	\begin{figure}[h!]
		\centering
		\noindent\includegraphics[scale=0.55]{img/ej1/Convergencia.png}
		\caption{
			El error cuadrático medio mínimo en todos los casos resulto
			ser exactamente $0.3$. Las épocas en que el algoritmo
			alcanzo dicha cota se pueden ver en la leyenda
			correspondiente en el gráfico.
		}
		\label{fig:Convergencia}
	\end{figure}

	Como se puede apreciar en la firgura \ref{fig:Convergencia}, la
	velocidad de adaptación que mas rápido parece converger es $0.1$.
	demás, también es la velocidad para la cuál el algoritmo encuentra
	más rápido la cota de error mínima lograda en todos los casos de
	prueba. Por esto decidimos hacer el resto de los análisis con
	velocidad de adaptación $0.1$.

	También cabe mencionar que a partir de las $400$ iteraciones, el
	error del algoritmo parece oscilar en una pequeña region
	cerca de la cota mínima, y que el análisis del comportamiento mas
	allá de esta cota probablemente no aporte ninguna información nueva.

%\includegraphics[scale=0.8]{img/ej1/mejor_caso.png}

%\includegraphics[scale=0.8]{img/ej1/peor_caso.png}

