\begin{section}{Conclusiones}
	Luego de haber conlcuido el análisis de las los resultados obtenidos en las pruebas realizadas, que fueron los análisi de precisión a mayor número de iteraciones, a mayor numero de bits en la mantiza, técnicas de truncamiento y redondeo y errores de representación a nivel computacional de las operaciones de los algoritmos implementados, llegamos a varias conclusiones:

\begin{subsection}{Algorítmo sobre la serie de Gregory}
\begin{itemize}
	\item Este algorítmo requiere de un gran número de iteraciones para aproximarse a $\pi$. Con 5000 iteraciones aun mantenía un error mayor a 0,000001. Resultó ser un algorítmo de sencilla implementación, pero la cantidad de iteraciones que realiza maximiza el error teórico operacional.
\end{itemize}

\end{subsection}

\begin{subsection}{Algorítmo sobre la Fórmula de Machin}
\begin{itemize}
	\item	Este algorítmo resulto ser unas conveniente que el de Gregory, ya que no posee significativas diferencias de dificultad implementativa, la cota de error teórico que presentan la aritmética finita de representación de punto flotane no se significativamente mayor, pero si lo es la cantidad de iteraciones necesarias para alcanzar el mismo error relativo. 
\end{itemize}

\end{subsection}

\begin{subsection}{Algoritmo sobre la Serie de Ramanujan}
\begin{itemize}
	\item Esta implementación presento varios problemas que los anteriores no tenían. Fue ma compleja la implementación dado que manejaba numeros significativamente mas grandes que los algorítmos anteriores. Sin embargo, la relación entre  las iteraciones, y el error relativo producido es muy buena, ya que cada iteración del algorñitmo añade 8 digitos binarios de precision respecto al anterior. Tiene una cota de error operacional por la representación de la aritmetica finita mayor, pero es despre3ciable si se toma en cuenta las pocas iteraciones que requiere para alcanzar el mismo error relativo que los algorítmos anteriores. 
\end{itemize}

\end{subsection}

\begin{subsection}{Truncamiento y Redondeo}
\begin{itemize}
	\item Se iplementaron y probaron ambas técnicas para obtener números de t cifras. Las pruebas mostraron que salvo excepciones, mantuvo el error por debajo que el del truncamiento, con lo que supone una mejor aproximacón.

\end{itemize}

\end{subsection}

\begin{subsection}{Conclusiones generales}
\begin{itemize}
	\item Al trabajar con aritmética finita pudimos observar que la precisión al trabajar con numeros extremadamente chicos, el numero de iteraciones que se le adjudiquen al calculo de $\pi$ no es el factor principal en la precisión del resultado, sino la cantidad de digitos binarios de mantiza con los que se este trabajando. Si bien en algorítmos como el de la serie de Gregry, donde poca precisión de dígitos no limita al resultado posible calculado con escazas iteraciones, termina siendo la cantiadad de bits de presición con los que se trabaje los que indiquen en última instancia la cota de precision fisicamente posible de alcanzar, sin importar cuantas tiempo (iteraciones) se este dispuesto a esperar a fin de conseguir un error menor.    

\end{itemize}

\end{subsection}


\end{section}
