\section{Discusión}
En el gráfico \textit{Figura 1} tratamos de encontrar los $x_0$ que convergen a la solución para el método de Newton. 
Para tener una aproximación de cual es el cero de la función ``correcto'' utilizamos bisección con un error pequeño (este cálculo nos dió 24,5145 apróximadamente).
Luego variamos los $x_0$ iniciales para Newton para ver cuales convergían a este valor.
\\
Como podemos ver en la \textit{Figura 1} para los primeros 10 $x_0$ el método no converge al valor deseado, de hecho son negativos, lo que es absurdo porque estamos buscando un momento
de tiempo positivo. Por lo tanto estos valores fueron descartados autómaticamente. 
Esta experiencia muestra una clara desventaja de Newton: no se lo puede realizar sin antes 
hacer una ``buena'' aproximación
del cero (ya sea analítica o experimental) para lograr conseguir un $x_0$ que este ``cerca'' de mi solución. 
\\
En los graficos de las \textit{Figuras 2, 3 y 4} tratamos de analizar como se comportaba el algoritmo para distintos $x_0$ para los que sí convergía. Lo que
tratamos de ver es cómo influye el $x_0$ en el rendimiento del algoritmo, para ello tomamos 3 valores para $x_0$: 11, 24 y 100.
\\
Como podemos apreciar en la \textit{Figura 2} el algoritmo comienza con un valor pésimo para el cero de la función, pero en pocas iteraciones se aproxima al valor buscado.
Esto se debe a que Newton tiene una convergencia cuadrática, lo que significa que converge al cero de la función rápidamente. Esto explica la pendiente tan pronunciada que presenta el gráfico.
En cuanto a la \textit{Figura 3} podemos notar como varía significativamente con respecto a las primeras iteraciones de la \textit{Figura 2}, notemos que la diferencia
entre los primeros valores es menor a 1, mientras que en el gráfico anterior era más de 100. Esto es esperable dado que 24 es un valor que claramente esta más ``cerca'' del valor buscado que 11.
\\
Sin embargo el gráfico de la \textit{Figura 4} rompe con esta lógica. Observemos que para el valor $x_0 = 100$ las primeras iteraciones dan un valor no tan lejano del cero de la función aproximado.
O al menos, no es tan lejano como el que presenta para $x_0 = 11$, aún cuando 11 está más cerca del valor que tratamos de aproximar que 100. Pero esto es comprensible si tomamos en cuenta
la función y párametros que estamos usando, en los primeros momentos $t$ (tiempo) de la función, como esta tiene una $v_i$ positiva y alta, el objeto asciende mucho, haciendo que la posición para estos $t$ 
este muy lejos de 0. En cuanto a los valores mayores que el cero de la función, sabemos que la velocidad va disminuyendo, por lo que el objeto no debería rebotar tanto y se mantendría cerca del piso
(la posición 0). Es por esto que se dan estas características en estos gráficos. Podemos ver entonces la dependencia que tiene el compotamiento de la función para el método de Newton.
Es esperable dado que este método utiliza constantemente la función para aproximar al cero, a diferencia de newton que simplemente utiliza el signo de los límites 
del intervalo que va evaluando, no tiene en cuenta el comportamiento de la función, sólo el signo que tiene para ciertos valores. 
\\
En los gráficos de las \textit{Figuras 5 y 6} comparamos los rendimientos de los distintos métodos utilizados. En la \textit{Figura 5} lo que hicimos fue tomar un $x_0$ calculado con pocas iteraciones de 
Bisección para luego utilizar Newton y comparar como este método combinado mejoraba el método de Bisección sólo. Vimos esto variando la cantidad de iteraciones que realiza cada método
y observando los resultados que devolvían. Como se observa, el método de Newton obtiene un buen resultado inmediatamente mientras que Bisección necesita de algunas iteraciones.
Esto es esperable dado que las pocas iteraciones de Bisección ayudan a que Newton tenga el cero prácticamente calculado, lo que lo hace efectivamente realizar menos trabajo.
Otro detalle interesante a observar es el comportamiento del método de Bisección para acercarse al cero, se puede ver que a medidar que se acerca al cero empieza a oscilar cerca de él.
Esto se debe a que va tomando valores que son o mayores o menores que el cero buscado. Recordemos que Bisección toma un intervalo que contiene al cero y va partiendo ese intervalo
en dos tomando un extremo o el otro, es por eso que vemos esta oscilación, para algunas iteraciones tomo un valor mayor que él cero y en otras uno menor.
\\
En la \textit{Figura 6} tratamos de comparar los tres métodos:Newton, Bisección y la combinación de ambos. Para realizar este análisis variamos el error esperado (el criterio de parada)
y vimos en cuantas iteraciones lo alcanzaban. 
Podemos apreciar que para los métodos de Newton y la combinación es casi instantanéo la obtención de un error ``chico''. Esto se debe de nuevo a la
convergencia cuadrática que garantiza la utilización del método de Newton. Por otro lado Bisección tarda para calcular un error no tan ``chico'' incluso. Veamos que 
recién la iteración 20 se acerca ``mucho'' al 0, mientras que los otros métodos lo alcanzan en las primeras 3 o 5 operaciones. Otra observación es que más allá de que
el valor $x_0$ de Newton es mejor (es más cercano al 0) que el del método combinado, el rendimiento es muy similar, lo que significa que el empeoramiento que sugiere
utilizar algunas iteraciones extra de Bisección, son aceptables teniendo en cuenta que este método combinado nos asegura una convergencia para Newton, mientras
que usando sólo Newton precisamos dedicarle un tiempo previo (de análisis o experiencias) a calcular un $x_0$ ``bueno''.
\\
En las \textit{Figuras 7 y 8} analizamos la variación de la energía mecánica (\textit{Ejercicio 3}) variando los valores del factor de restitución y coeficiente de 
rozamiento respectivamente. Como se puede
apreciar en el gráfico de la \textit{Figura 7} (donde variamos el factor de restitución), es fácil deducir que si es 0 la pelota no rebotará porque al calcular 
la velocidad después del impacto nos dará 0 (ver función 5 en \textit{Enunciado}), a partir de ahí empezamos a acercarnos a 1 (teniendo en cuenta que $0 \leq fr \leq 1$)
y a medida que el rebote se hace más elástico (se acerca a 1) la variación se hace menor, esto se debe a que al rebotar más no pierde tanta velocidad y alcanza una altura máxima
cada vez más cercana a la velocidad, entonces los valores de la energía mecánica en el momento del lanzamiento y en el segundo impacto serán los mismos, ya que caen de una altura parecida (altura
inicial y altura máxima después del rebote) y la velocidad también se mantendrá bastante similar dado que lo único que desacelera al objeto es el rozamiento y no el impacto.
\\
En cuanto a la \textit{Figura 8}, podemos ver que ocurre lo opuesto, es decir a medida que aumentamos el coeficiente de rozamiento la variación de energía se hace mayor.
Esto se debe a que pasa la inversa del caso de la \textit{Figura 7}, es decir a medida que vamos aumentando el rozamiento, la velocidad va a disminuir más rápido, lo que
causa que la pelota impacte con una velocidad no tan alta como la que tenía en el lanzamiento. Esto a su vez generá que la altura máxima que alcanza luego del
primer impacto sea cada vez menor (a medida que aumento el $cr$) y esto produce que la segunda caída libre se produzca a menor altura que la primera (antes del primer impacto]),
estos valores influyen para generar una energía mecánica cada vez menor para el segundo impacto, lo que, por consecuencia, aumenta la variación de la energía mecánica entre
los dos momentos analizados.
\\
En los últimos gráficos, podemos ver el análisis de la variación de la precisión númerica. Podemos ver el tiempo que tarda en llegar al piso el objeto lanzado (la solución del problema) en función de la precisión númerica utilizada. La precisión númerica
es las cantidad de ceros que admitimos después de la coma al realizar las cuentas en el método. Como podemos ver claramente esta muy relacionado con el resultado que nos devuelve el algoritmo,
veamos que utilizando poca precisión los resultados varían entre 1 o medio segundo, que en ciertas situaciones de la vida real puede ser muy significativos. En cambio al aumentar la precisión, 
por ejemplo utilizando una precisión de 9 decimales o más se ve que los números se mantienen parecidos o casi constantes (es necesario aclarar que se ven constantes en la escala, pero seguramente 
con escalas mas precisas, analizando con mucho detalle las diferencias se podrán apreciar). Si vemos el gráfico que analiza el valor $\alpha$ en función de la precisión, vemos que el valor cambia
esto explica la variación que se presenta en el gráfico anterior, podemos concluir que al modificar el valor de $\alpha$ las cuentas que realizará el algoritmo irán propagando el error obteniendose así
un error significativo en ciertas situaciones como mencionamos anteriormente.
\\
Finalmente en las páginas 11 y 12 podemos observar gráficos que tratan de mostrar resultados empíricos del problema físico (es decir de que pasa con el objeto al cambiar diversos
parámetros). En la página 11 se ven los gráficos donde variamos el factor de restitución, observemos que para el tiempo del 1er rebote (el primer gráfico de esta página) el factor
de restitución no influye, pues este valor es utilizado para modificar la velocidad del objeto en el momento en que rebota contra el piso. Por otro lado podemos observar que al aumentar
el factor de restitución la altura máxima es mayor, de esto podemos deducir que el rebote es mayor (es decir el objeto adquiere mayor velocidad al rebotar con el piso
a medida que aumentamos $fr$) es por esta misma razón que el segundo rebote tarda más tiempo en realizarse, al ser mayor la altura, es decir la distancia que va a recorrer el objeto
después de rebotar, es esperable que el tiempo sea mayor ya que esta directamente relacionado con la distancia.
\\
En la página 12 se muestran los gráficos que resultaron de realizar experiencias variando $\alpha$. Como podemos observar al ir aumentando $\alpha$ ambos rebotes se ven afectados en la misma
proporción, ambos gráficos presentan una pendiente similar. También vemos que la altura máxima va disminuyendo al aumentar $\alpha$, entonces es lógico que los tiempos sean menores, dado que recorre menor
distancia. Recordemos que $\alpha = \frac{cr}{m}$ donde $cr$ es el coeficiente de rozamiento y $m$ la masa del objeto. Podemos ver que lo que se cumple es que al aumentar $\alpha$ 
el objeto llega al piso en menor tiempo. Esto se debe a que la distancia luego del primer rebote es menor, entonces al recorrer menos metros el objeto llega al 2do rebote en menor tiempo.
También vale la pena notar que la variación entre los tiempos variando $\alpha$ es mayor en el 2do rebote, veamos que para el 1er rebote va de 30 a 25, mientras que en el segundo
la diferencia es entre 45 y 32. Notemos que en caso de los rebotes el gráfico es lineal, mientras que para el gráfico de la altura máxima la función de variación presenta cierta 
curvatura. Otra cosa que podemos concluir de este comportamiento es que al aumentar $\alpha$ la altura máxima es menor, lo que es comprensible dado que el mayor rozamiento evita que 
el objeto se eleve mucho.
