\section{Discusión}

\subsection{Análisis del tiempo según delta y factor de reducción}

Como se puede apreciar en los datos del primer resultado, vemos como tanto el límite de parada
del algoritmo QR ($\delta$) como el tamaño las imágenes, son determinantes en la velocidad del algoritmo.

Cabe destacar que las cuentas las hicimos utlizando un sistema de mayor performance de Intel (sin pperdida de precisión) ya que
sin el mismo se hubiera complicado realizar los test como corresponden.

Para el $\delta$ tomamos los valores 1000, 100, 10, 1 y 0.1, y vemos como afecta notablemente el rendimiento
del programa, ya que para un mismo tamaño de imagen, el algoritmo consume cada vez más tiempo.

Algo interesante que observamos, es la relación entre el tamaño de la imagen y el $\delta$ ingresado. Sabemos que cuanto más pequeño es este último valor, más se refina el algoritmo QR y esto, a su vez, implica una mayor cantidad de iteraciones del mismo. Ahora bien, si ahora incluímos en esta ecuación al tamaño de la imagen (su ancho en pixeles) entonces para dos imágenes $Imagen_1, Imagen_2$ tal que: $Imagen_1 <_{dim} Imagen_2$, vemos que la diferencia de tiempo para dos valores de $\delta$, es mucho mayor cuanto más grande es la imagen.

En cuanto al tamaño de las imágenes, decidimos en vez de darle un factor de reducción, pasarle un valor para el ancho de la imagen destino ya que consideramos que esto es más declarativo. De todas formas, en la sección de resultados pusimos una relación entre el factor de reducción y el tamaño de las imágenes. 

En este caso tomamos los tamaños en píxeles 5,6,7,8,9,10. En cada uno podemos ver como mientras mayor es el tamaño, el tiempo de ejecución es considerablemente más lento. Esto se puede explicar ya que por cada pixel que se agrega, la matriz de covarianza crece cuadráticamente (por ejemplo, en el caso de tamaño en 5px la dimensión es de 25x25, mientras que con 10px la dimensión es de 100x100). Además si juntamos esto con el carácter cúbico del algoritmo QR por cada iteración que se realiza, esta diferencia de velocidad queda de alguna manera justificada, por el tamaño de la matriz de covarianza respecto de la original y la aplicación de las distintas iteraciones que demande el método QR dependiendo del $\delta$ involucrado.

\subsection{Análisis de la tasa de aciertos}

Respecto de este punto, hay que decir que el grupo esperaba mejores resultados que los obtenidos producto de la experimentación. Se alcanza a ver una tendencia a resultados más certeros a medida que aumenta el tamaño de la imagen y se disminuye la tolerancia del método QR. En princpio, el valor más relevante parecería ser el del $\delta$ lo que nos otorga valores más cercanos a los autovectores reales de la matriz de covarianza mientras que el solo aumento del tamaño de la matriz mejora la definición de las imágenes a testear pero si no se hace algo con la tolerancia es probable que se estén introduciendo errores numéricos en las primeras etapas de cálculo. 

Retomando con lo expresado con anterioridad, no estamos del todo conformes con los resultados de acierto. Sabemos que el programa se toma su tiempo en correr, sin embargo esperábamos una mayor tasa de aciertos aún para matrices dentro de todo pequeñas luego de haber visto la demostración en clase que tenía un nivel de aciertos muy bueno para matrices de dimensión parecida y en un tiempo aceptable. Si bien esto último puede explicarse por los métodos empleados por \emph{MATLAB} que están optimizados para este tipo de cálculos, nosotros creíamos que el desempeño de los algoritmos que propusimos para la resolución del trabajo práctico iban a tener mejor performance que la que luego tuvieron. De alguna manera, esto impacta en la posibilidad de experimentación, ya que probar matrices de más de 15, 20px de ancho eleva muchísimo el tiempo de cómputo. 
\nopagebreak
Cabe destacar que otro factor clave de esto, es la posibilidad de contar con una base de datos con más elementos y con imágenes más uniformes en términos de luminosidad, ángulo y tamaño de las caras de las personas que se proponen estudiar. Contar con una base de datos más numerosa pero sobre todo, más homogénea es clave a la hora de tener en cuenta los aciertos. 

\subsection{Camuflaje}

En este experimento lo que se hizo fue tomar dos de las imágenes que se usaban como ``nuevas'' y modificarlas digitalmente de manera de introducir ``ruido'' en las mismas y ver como se comportaba el programa \emph{Autocaras}. El ruido agregado consistió en, por ejemplo, agregar anteojos ficticios, o poner barba donde no había como también cosas más sutiles pero también relevantes como alterar colores o la luminosidad de la foto interviniente.

En el caso de la foto de \emph{Angelina Jolie} ocurrió lo esperado. La tasa de aciertos bajó notablemente respecto de la imagen de control.

Para el caso de la fotos alteradas de \emph{Jennifer Aniston} obtuvimos resultados contrarios a los esperados en cuanto a que se obtuvo un alto porcentaje de aciertos. Esto en principio, se podría explicar suponiendo que el ruido que se introdujo de alguna manera permitió ``ocultar'' características que esta foto compartía con el resto y en definitiva lo único que hizo fue resaltar las cualidades propias de esa persona. 

Sin embargo, este experimento de alguna manera puede estar viciado por lo mismo que se expuso en el apartado anterior. Seguramente con imágenes más grandes y valores pequeños para $\delta$, logremos resultados más fieles que luego podrán reflejar el verdadero potencial de \emph{Autocaras} contra el ruido introducido en las imágenes de prueba.




