\newcommand{\real}{\mathbb{R}}

%~ \begin{section}{Mini-resumen para parciales}
%~ \item $(AB)_{ij} = \sum_{k=1}^{n} a_{ik} b _{kj}$
\begin{section}{Propiedades (Teórica)}
Sean $A, B \in \real^{nxm}$

\begin{enumerate}
	%~ \item $(AB)_{ij} = \sum_{k=1}^{n} a_{ik} b _{kj}$
	\item 	Si $A$ y $B$ son inversibles 
			$\rightarrow$ $(AB)^{-1} = B^{-1}A^{-1}$
	
	\item 	$(A + B)^t = A^t + B^t$ y $(AB)^t = B^tA^t$
	
	\item 	Si $A$ es inversible 
			$\rightarrow$ $(A^{-1})^t = (A^t)^{-1}$
	
	\item 	$det(AB) = det(A)det(B)$
	
	\item 	$det(A) \neq 0 \Leftrightarrow \exists A^{-1}$ y 
			$det(A^{-1}) = \frac{1}{det(A)}$
	
	\item 	Las normas matriciales inducidas son consistentes.
	
	\item 	Si $||\bullet||_p$ es una norma matricial inducida 
			$\rightarrow$ $K(A)_p \geq 1$. 
	%~ Cuanto más cercano a $1$ sea el valor, más estable será la matríz.
	
	\item 	Si $A$ es no singular, sean $x$ solución de $Ax = b$ y 
			$x^{*}$ tal que $Ax^{*} = B^{*}$.
			\par
			Vale que:
			
			\begin{enumerate}
				\item 	$\displaystyle ||x-x^{*}|| \leq 
						||r||.||A^{-1}||$
				\item 	$\displaystyle \frac{||x-x^{*}||}{||x||} 
						\leq ||A||.||A^{-1}||\frac{||r||}{||b||}$ 
						(error($x^{*}$) $\leq$ $K(A).$error($b^{*}$))
			\end{enumerate}
			
			donde $r = b - Ax^{*} = b-b^{*}$ y $||\bullet||$ 
			es una norma matricial inducida.
	
	\item 	Si las submatrices principales de $A$ son no singulares 
			$\rightarrow$ $A$ tiene factorización $LU$.
	
	\item 	Si $A$ es simétrica y tiene factorización $LU$ $\rightarrow$ 
			su factorización es también simétrica y $A = L.D.L^t$ 
			donde $D$ es una matríz diagonal.
		
	\item 	Si $A$ es estrictamente diagonal dominante 
			$\rightarrow$ $A$ es no singular.
	
	\item 	Si $A$ es estrictamente diagonal dominante $\rightarrow$ 
			todas las submatrices principales de $A$ son estrictamente 
			diagonal dominantes. \\
			Corolario: Si $A$ es estrictamente diagonal dominante 
			$\rightarrow$ tiene factorización $LU$.
		
	\item 	Si $A$ es simétrica definida positiva $\rightarrow$ 
			todas sus submatrices principales son no singulares. \\
			Corolario: Si $A$ es simétrica definida positiva 
			$\rightarrow$ $A$ tiene factorización $LU$ y 
			$A = L.D.L^t$ \\
			Corolario: Si $A$ es simétrica definida positiva 
			$\rightarrow$ $A = L.D.L^t$ con $d_{ii} > 0$ 
			(Factorización de Cholesky).	
		
	\item 	Las matrices de Givens son ortogonales.
	
	\item 	Sean $x, y \in \real^n,$ tales que $||x||_2 = ||y||_2$ 
			$\rightarrow$ $\exists$ una reflexión $P$ tal que 
			$Px = y$ \\ 
			$($Puede utilizarse una matriz de reflexión de Householder 
			con $\displaystyle u = \frac{x-y}{||x-y||_2} )$
	
	\item 	Si $A$ es no singular $\rightarrow$ $\exists!$ $Q, R $ 
			tales que $Q$ es ortogonal, y $R$ es triangular 
			superior con $r_{ii} > 0.$ \\ 
			(Es decir la descomposición $QR$ es única.)
	
	\item 	Sea $||\bullet||$ una norma matricial consistente, 
			entonces $\rho(A) \leq ||A||$.
	
	\item 	$A$ es convergente $\leftrightarrow$ $\rho(A) < 1.$
	
	\item 	$\rho(A) < 1 \rightarrow I-A$ es no singular y 
			$\displaystyle \sum_{k=0}^{\infty} A^k = (I-A)^{-1}.$
	
	\item 	Sea el sistema de ecuaciones $x = Tx + c \rightarrow$ la 
			sucesión $x^{(k)} = x^{(k-1)}T + c$ converge a la solución 
			del sistema $\leftrightarrow$ $\rho(T) < 1,$ 
			independientemente de la elección de $x^{(0)}$ 
			(valor inicial).

	\item 	Si $A$ es estrictamente diagonal dominante $\rightarrow$ 
			el método de Jacobi converge ($\rho(D^{-1}(L+U)) < 1$).

	\item 	Si $A$ es estrictamente diagonal dominante $\rightarrow$ 
		   el método de Gauss-Seidel converge ($\rho((D-L)^{-1}U) < 1$).
	
	\item 	Sea $||\bullet||$ una norma matricial consistente, si 
			$||T|| < 1 \rightarrow $ la sucesión 
			$x^{(k)} = x^{(k-1)}T + c$ converge a la solución del 
			sistema $x = Tx + c$ y vale que:		
			
			\begin{enumerate}
				\item 	$\displaystyle ||x-x^{(k)}|| 
						\leq {||T||}^k.||x^{(0)} - x||$
				\item 	$\displaystyle ||x-x^{(k)}|| 
						\leq \frac{{||T||}^k}{1-||T||} 
						.||x^{(1)} - x^{(0)}||$
			\end{enumerate}	
	
	\item 	Dadas $d^{(0)}, ..., d^{(n-1)} \in \real^n$ direcciones 
			$A$-conjugadas normalizadas, y un punto inicial $x^{(0)},$ 
			entonces el método del gradiente encuentra la solución del 
			sistema $Ax = b$ en $n$ pasos, es decir $Ax^{(n)} = b.$
	
	\item 	El polinomio interpolador de Lagrange es único.
	
	\item 	Sean $x_0, \dots, x_{n} \in [a,b],$ $f \in C^{n+1}$ en 
			$[a, b]$ $\rightarrow$ $\forall x \in [a,b]$ $\exists$ $y$ 
			tal que \\
			$f (n) = \displaystyle P(x) + E(x)$ donde 
			$E(x) = \displaystyle 
			\frac{\displaystyle f^{n+1}(y)}{(n+1)!} 
			.\prod_{i=0}^n (x-x_i)$ es el error que se comete.	
	
	\item 	Sean $x_0, \dots, x_n \in \real^n,$ puntos de interpolación 
			$\rightarrow$ el polinomio interpolador de Lagrange es\\
			$P (x) = \displaystyle 
			\frac{\displaystyle (x-x_j)P_{0,\dots,j-1,j+1,\dots,n} - 
			(x-x_i)P_{0,\dots,i-1,i+1,\dots,n}}{x_i - x_j}$.	
	
	\item 	Sean $x_0, \dots, x_n \in \real^n,$ puntos de interpolación 
			$\rightarrow$ el polinomio interpolador de Lagrange es\\
			$P (x) = \displaystyle f(x_0) + 
			\sum_{i=1}^n f[x_0,\dots,x_i] \prod_{k=0}^{i-1} (x-x_k)$.
	
	\item 	Sean $w(x), p(x): [a, b] \mapsto [a, b]$, $w \in C[a, b], 
			\displaystyle \int_{a}^{b} p(x) \: dx$ existe, $p(x)$ no 
			cambia de signo \\
			en $(a, b)$ $\rightarrow$ $\exists \; c \in [a, b]$ tal que 
			$\displaystyle \int_{a}^{b} w(x) p(x) \: dx = 
			w(c) \int_{a}^{b} p(x) \: dx$
	
	\item 	Sea $g(x): [a, b] \mapsto [a, b]$, $g \in C[a, b]$ 
			$\rightarrow$ $g$ tiene punto fijo en $[a, b]$.\\
			Si adem\'as $|g'(x)| \leq k < 1 \forall x \in [a, b]$ 
			$\rightarrow$ el punto fijo es \'unico en $[a, b]$.
	
	\item 	Sea $g(x): [a, b] \mapsto [a, b]$, $g \in C[a, b]$ $|g'(x)| 
			\leq k < 1 \forall x \in [a, b]$ $\rightarrow$ 
			$\forall \; p_0 \in [a, b]$ la sucesi\'on $\{p_n\}$ 
			definida como $p_{n+1} = g(p_n)$ converge al \'unico 
			punto fijo de $g$ en $[a,b]$.
	
	\item 	Sean $g(x): \real \mapsto \real$, $g(x) \in C^n$ y $p \in 
			\real$ con $g'(p) = g''(p) = \dots = g^{r-1}(p) = 0$ y 
			$g^{r}(p) \neq 0$. \\
			Si la sucesi\'on de punto fijo de $g$ converge a $p$ 
			$\rightarrow$ tiene orden de convergencia $r$.
	
	%~ Sean $A \in \real^{nxm}$ y $b \in \real^n$. 
	\item 	Sea $A \in \real^{nxm}$, entonces $Im(A) \oplus 
			Nu(A^t) = \real^n.$
	
	\item 	La soluci\'on de cuadrados m\'inimos siempre existe.
	
	\item 	La soluci\'on de cuadrados m\'inimos para el sistema 
			$Ax = b$ es \'unica $\leftrightarrow$ $Nu(a) = {0}$.
	
	\item 	Sea $A \in \real^{nxm}$, entonces $A^tA$ es sim\'etrica, 
			semi-definida positiva.
	
	\item 	Sea $x \in \real^m$ una soluc\'ion de cuadrados m\'inimos 
			para el sistema $Ax = b$, entonces vale que:
			
			\begin{enumerate}
				\item 	$A^t r = 0$ donde $r$ es el residuo, 
						definido como $r = Ax - b$.
				\item 	$A^t A x = A^t b$ (Ecuaciones Normales).
			\end{enumerate}	
\end{enumerate}

\end{section}

%~  ----------------------------------------------------------------------------------------------

\begin{section}{Propiedades (Prácticas)}
Sean $A, B, C \in \real^{nxm}, Q \in \real^{nxn}, x \in \real^n$

\begin{enumerate}
	\item 	Si $AB=BA$ $\rightarrow$ $(A+B)^2 = A^2 + 2AB + B^2$ y 
			$(A+B)(A-B) = A^2 - B^2$
	
	\item 	$\exists A^{-1}$ $\leftrightarrow$ 
			$\not \exists$ $x \in \real^{n}, x \neq 0,$ tal que 
			$Ax = 0$ $\leftrightarrow$ 
			las filas de $A$ son li $\leftrightarrow$ 
			las columnas de $A$ son li.
	
	\item 	$Tr(AB) = Tr(BA)$
	
	\item 	$(I + A)^{-1} = I - A(I+A)^-1$
	
	\item 	Si $A$ es inversible $\rightarrow$ vale que 
			$AB = AC \rightarrow B = C$, $AB = 0 \leftarrow B = 0$, 
			$Tr(B) = Tr(A^{-1}BA)$
	
	\item 	Si $A$ es nilpotente $\rightarrow$ $I - A$ 
			es inversible, y $A$ es no inversible.
	
	\item 	$\displaystyle |x^t y| \leq ||x||_2 ||y||_2$ 
			(Desigualdad de Chauchy-Schwarz-Bunyakovski (CSB))
	
	\item 	$\displaystyle ||A||_1 = max_{j} \left 
			\{ \sum_{i= 1}^n |a_{ij}| \right \}.$
	
	\item 	$\displaystyle ||A||_{\infty} = max_{i} \left 
			\{ \sum_{j=1}^n |a_{ij}| \right \}$.
	
	\item 	$\displaystyle ||A||_{2} \leq ||A||_{F} \leq 
			\sqrt{n} ||A||_{2}$.
	
	\item 	$K(AB) \leq K(A)K(B)$ y $K(\alpha A) = 
			K(A)$ $\forall \alpha \in \real, \alpha \neq 0$.
	
	\item 	Sea $\displaystyle ||\bullet||$ una norma matricial 
			inducida y $||A|| < 1$ $\rightarrow$ \\ $\hspace*{233pt}$
			$I + A$ es inversible y $\displaystyle ||(I+A)^-1|| 
			\leq \frac{1}{1 - ||A||}$.
	
	\item 	Sea $\displaystyle ||\bullet||$ una norma matricial 
			inducida, $A$ inversible, y $\delta A$ tal que 
			$\displaystyle ||\delta A|| < \frac{1}{||A^{-1}||}$ 
			$\rightarrow$ \\ $\hspace*{200pt}$
			$A + \delta A$ es inversible y 
			$\displaystyle ||(A+ \delta A)^-1|| 
			\leq \frac{||A^{-1}||}{1 - ||A^{-1}|| ||\delta A||}$.
	
	\item 	Sean $x \in \real^{n}$, $A$ inversible, $B$ no inversible 
			$\rightarrow$ $\hspace*{5pt}$ 
			$\displaystyle ||Ax|| > \frac{||x||}{||A^{-1}||} 
			\hspace*{3pt}$ y $ \hspace*{3pt} 
			\displaystyle \frac{1}{|K(A)|} \leq \frac{||A-B||}{||A||}$ 
	
	\item 	$AA^t$ y $A^tA$ son simétricas. Si $A$ es cuadrada, 
			$A + A^t$ es simétrica y $A - A^t$ es antisimétrica.
	
	\item 	Si $A$ es cuadrada, entonces es expresable de forma única 
			como $A = S + T$ donde $S$ es simétrica y $T$ es 
			antisimétrica.
	
	\item 	Si $A$ y $B$ son simétricas, entonces $A + B$ y 
			$A - B$ son simétricas. 
			Si además $AB = BA$, entonces $AB$ es simétrica.
	
	\item 	$A$ y $B$ cuadradas. $A$ es definida positiva y $B$ es 
			no singular $\leftrightarrow$ $BAB^t$ es definida positiva.
	
	\item 	$A$ y $B$ ortogonales, entonces $AB$ es ortogonal.
	
	\item 	$Q$ ortogonal, entonces $|\mbox{det}(Q)| = 1$ y 
			$||Qx||_2 = ||x||_2.$ \\
			Corolario: $||Q||_2 = 1.$ \\ 
			Corolario: $K_2(Q) = 1.$	
	
	\item 	La matríz de reflexión de Householder $P_{u}$ es 
			simétrica y ortogonal.
	
	\item 	Sean $u, v \in \real^n$, entonces 
			$\displaystyle {\parallel \negthinspace u + 
			v \negthinspace \parallel}^2_2 = 
			{\parallel \negthinspace u \negthinspace \parallel}^2_2 + 
			{\parallel \negthinspace v \negthinspace \parallel}^2_2 + 
			2< \negthinspace u,v \negthinspace >$ (donde $<\bullet>$ 
			representa el producto interno entre vectores.)
	
	\item 	Sean $S \subseteq \real^n$, $b \in \real$ e $y$ la 
			proyecci\'on ortogonal de $b$ sobre $S$, entonces 
			$\displaystyle \min_{s \in S}{\parallel \negthinspace b - 
			s \negthinspace \parallel}_2 = {\parallel \negthinspace b - 
			y \negthinspace \parallel}_2.$ \\
			Corolario: Dado el sistema $Ax = b$ con 
			$A \in \real^{nxm}$ y $b \in \real^n$, $x \in \real$ 
			es soluci\'on de cuadrados m\'inimos para el sistema  
			$\leftrightarrow$ $x$ es la proyecci\'on ortogonal de 
			$b$ sobre el subespacio $Im(a)$.
\end{enumerate}

\end{section}

%~  ----------------------------------------------------------------------------------------------

\begin{section}{Definiciones}
Sea $A, T \in \real^{nxn}, x, b, c \in \real^n$

\begin{enumerate}
	\item 	Dos sistemas de ecuaciones lineales son equivalentes si 
			tienen la misma solución. \\ 
			Es decir $Ax = b$ y $Bx = b'$ son equivalentes si $b = b'$.
	
	\item 	$A$ tiene factorización $LU$ si puede escribirse como el 
			producto de dos matrices $L$ y $U$ donde $L$ es una matríz 
			triangular inferior con unos en la diagonal, y $U$ es una 
			matríz triangular superior.
	
	\item 	$||\bullet||$ : $\real^{nxm} \rightarrow \real$ es una 
			norma matricial si cumple que: 
			
			\begin{enumerate}
				\item 	$||x|| \geq 0$ $\forall x \in \real^{nxm}$ y 
						$||x|| = 0 \leftrightarrow x = 0, 
						x \in \real^{nxm}$
				\item 	$||\lambda.x|| = |\lambda|.||x||$ $\forall 
						\lambda \in \real, x \in \real^{nxm}$
				\item 	$||x + y|| \leq ||x|| + ||y||$ $\forall x,y 
						\in \real^{nxm}$ (Desigualdad triangular)
			\end{enumerate}
			
			Si además vale que: \par
			$||x.y|| \leq ||x||.||y||$ $\forall x,y \in \real^{nxm}$ 
			(Submultiplicidad) entonces la norma es consistente.
		
	\item 	Norma de Frobenius: $||A||_F = \sqrt{\sum_{i=1}^n 
			\sum_{j=1}^n {a_{ij}}^2}$.
	
	\item 	$||A||_p$ : $\real^{nxn} \rightarrow \real$ es una norma 
			matricial inducida si $||A||_p = \displaystyle 
			max_{||x||_p = 1} \left\{ ||Ax||_p \right\} $, donde \\
			$||\bullet||_p$ : $\real^{n} \rightarrow \real$ es una 
			norma vectorial. 
			Equivalentemente, $||A||_p = \displaystyle 
			max_{||x||_p \neq 0} 
			\left\{ \frac{||Ax||_p}{||x||_p} \right\}$. 
	
	\item 	Se define el número de condición de $A$ 
			como $K(A)_p = ||A||_p ||A^{-1}||_p$.
	
	\item 	$A \in \real^{nxn}$ es simétrica si vale que $A = A^t$.
	
	\item 	$A \in \real^{nxn}$ es estrictamente diagonal dominante 
			si $|a_{ii}| > \sum_{j=1, j\neq i}^n |a_{ij}|$ 
			$\forall i \in [1,n]$.
	
	\item 	$A \in \real^{nxn}$ se dice matríz banda $p,q$ si 
			solamente tiene elementos distintos de cero en $p$ 
			diagonales que se encuentran inmediatamente sobre la 
			diagonal principal, y $q$ diagonales inmediatamante 
			debajo de la diagonal principal. 
			Es decir no hay elementos distintos de cero entre la 
			diagonal principal y las demás diagonales. 
			Un caso particular son las matrices banda $1,1$ que se 
			llaman tridiagonales.
	
	\item 	$A$ se dice antisimétrica si $A = - A^t$.
	
	\item 	$A \in \real^{nxn}$ simétrica, si vale que: 
			\begin{enumerate}
				\item 	$x^t.A.x > 0$ $\forall x \in \real^{n}, 
						x \neq 0$, entonces A es definida positiva.
				\item 	$x^t.A.x \geq 0$ $\forall x \in \real^{n}, 
						x \neq 0$, entonces A es semidefinida positiva.
				\item 	$x^t.A.x < 0$ $\forall x \in \real^{n}, 
						x \neq 0$, entonces A es definida negativa.
				\item 	$x^t.A.x \leq 0$ $\forall x \in \real^{n}, 
						x \neq 0$, entonces A es semidefinida negativa.
			\end{enumerate}
	
	\item 	$A$ es ortogonal $\leftrightarrow$ $A^{-1} = A^{t}$ 
			$\leftrightarrow$ las columnas de $A$ forman una base 
			ortonormal $\leftrightarrow$ las filas de $A$ forman una 
			base ortonormal $\leftrightarrow$ \\
			$<\mbox{columna}_i(A), \mbox{columna}_j(A)>$ $=$ 
			$<\mbox{fila}_i(A), \mbox{fila}_j(A)>$ $=$ $\delta_{ij} = 
			1 \mbox{ si } i = j, 0 \mbox{ si } i \neq j$.
	
	\item 	La descomposición $QR$ de $A$ es $A = QR$ donde $Q$ es una 
			matríz ortogonal y $R$ es una matríz triangular superior.
	
	\newpage
	\item 	Se define la matríz de rotación de Givens $G_{1k}$ como 
			la matríz que realiza la rotación entre el plano $1$ y el 
			plano $K$, suponiendo que el ángulo entre ellos es 
			$\theta_{1j}$ en sentido horario. 
	%~ \paragraph{}
			\begin{center}
				$\displaystyle G_{1k} = \begin{pmatrix} 
				\cos{\theta_{1j}} & 0 & \ldots & 0 
					& \sin{\theta_{1j}} & 0 & \ldots & 0 \\
				0 & 1 & 0 & 0 & \ldots & \ldots & \ldots & 0 \\
				\vdots & 0 & \ddots & 0 & \ldots 
						& \ldots & \ldots & 0 \\
				0 & 0 & \ldots & 1 & 0 & \ldots & \ldots & 0 \\
				-\sin{\theta_{1j}} & 0 & \ldots & 0 
					& \cos{\theta_{1j}} & 0 & \ldots & 0 \\
				0 & 0 & \ldots & 0 & 0 & 1 & \ldots & 0\\
				\vdots & 0 & \ldots & \ldots
					& \ldots & 0 & \ddots & 0 \\
				0 & 0 & \ldots & \ldots & \ldots 
					& 0 & 0 & 1 
				\end{pmatrix} $
			\end{center}
	
	%~ ${G_{1k}}_{ij} = {I_n}_$
	\item 	Dado $u \in \real^n,$ $||u||_2 = 1$, se define la matríz de 
			reflexión de Householder $P_{u}$ como $P_{u} = I - 2uu^t$. 
			Esta transformación cumple que $P_{u}u = u$ y dado 
			$v \in \real^n,$ $<u,v> = 0$, $P_{u}v = 0.$
	%~ \paragraph{}
			\begin{center}
				$\displaystyle P_{u} = \begin{pmatrix} 
				1-2{u_{1}}^2 & -2 u_{1}u_{2} & \ldots 
					& -2 u_{1}u_{n} \\
				2 u_{1}u_{2} & 1-2{u_{2}}^2 & \ldots 
					& -2 u_{2}u_{n}\\
				\vdots & \ldots & \ddots & \ldots \\
				-2 u_{1}u_{n} & -2 u_{2}u_{n} 
					& \ldots & 1-2{u_{n}}^2 
					\end{pmatrix} $
			\end{center}
	
	\item 	$\lambda$ es autovalor de $A$ si $\exists$ $x \neq 0$ 
			tal que $Ax = \lambda x$. En tal caso $x$ es un autovector.
	
	\item 	Se define el polinomio característico de $A$ como 
			$P(\lambda) = \mbox{det}(I - \lambda A)$ o como 
			$P(\lambda) = \mbox{det}(A - \lambda I)$. 
			Las raíces de $P(\lambda)$ son los autovalores de $A$.
	
	\item 	Sean $\lambda_1, ... \lambda_n$ los autovalores de $A$, 
			se define el radio espectral de $A$ como 
			$\displaystyle \rho(A) = \max_{1\leq i \leq n} |\lambda_i|.$ 
	
	\item 	$A$ es convergente si 
			$\displaystyle \lim_{k \rightarrow \infty} (A^k)_{ij} = 0$, 
			es decir 
			$\displaystyle \lim_{k \rightarrow \infty} A^k = 0$ 
			(matríz nula).
	
	\item 	Sea $A$ simétrica definida positiva, 
			$u_1, ..., u_n \in \real^n$ son direcciones $A$-conjugadas 
			si vale que ${u_i}^t A u_j = 0$ $\forall i \neq j,$ si 
			además se cumple que ${u_i}^t A u_i = 1$ $\forall i$, 
			entonces están normalizadas.
	
	\item 	Sean $x_0, \dots, x_n \in \real^n,$ y $y_1, \dots, y_n 
			\in \real^n$ tales que $F(x_i) = y_i$ $\forall i$ para 
			alguna función $f: \real \mapsto \real$. 
			$P: \real \mapsto \real$ es polinomio interpolador de $f$, 
			y $x_0, \dots, x_n$ son puntos de interpolación 
			$\leftrightarrow$ $P(x_i) = y_i$ $\forall i$.
	
	\item 	Dados $x_0, \dots, x_n \in \real^n,$ puntos de 
			interpolación, se define el polinomio interpolador 
			de Lagrange\\
			$P: \real \mapsto \real$ como $\displaystyle P (x) = 
			\sum_{k=0}^{n} y_k.L_{n,k}(x),$ donde $L_{n,k}: \real 
			\mapsto \real$ $\displaystyle L_{n,k} (x) = 
			\prod_{i=0, i\neq k}^{n} \frac{x - x_i}{x_k - x_i}$.\\
			Notación: $P_{1, \dots, n}$ es el polinomio 
			interpolador en $x_1, \dots, x_n.$
	
	\item 	Se define la diferencia dividida de orden $k$ en los 
			puntos $x_i, x_{i+1}, \dots, x_{i+k}$ como\\
			$\displaystyle f[x_i, \dots, x_{i+k}] = 
			\frac{f[x_{i+1},\dots,x_{i+k}] - 
			f[x_{i},\dots,x_{i+k-1}]}{x_{i+k}-x_i}$ con 
			$f[x_i] = f(x_i).$
	
	\newpage
	\item 	$S(x)$ es spline si
		
			\begin{enumerate}
				\item 	$S(x)$ es un polinomio de grado $3$ en 
						$[x_j, x_{j+1}]$ $\forall j,$ $j=0,\dots,n-1$
						\begin{itemize}
							\item 	$S_j(x) = a_j{(x-x_j)}^3 + 
									b_j{(x-x_j)}^2 + 
									c_j{(x-x_j)} + d_j$
							\item 	${S'}_j(x) = 3.a_j{(x-x_j)}^2 + 
									2.b_j{(x-x_j)} + c_j$
							\item 	${S''}_j(x) = 6.a_j{(x-x_j)} + 
									2.b_j$
						\end{itemize}	
				\item 	$S(x_j) = f(x_j)$ $\forall j,$ $j=0,\dots,n$		
				\item 	$S_{j+1}(x_{j+1}) = S_j(x_{j+1})$ 
						$\forall j,$ $j=0,\dots,n-2$ (continuidad).
				\item 	$S'_{j+1}(x_{j+1}) = S'_j(x_{j+1})$ 
						$\forall j,$ $j=0,\dots,n-2$ 
						(derivadas iguales de ambos lados).
				\item	 $S''_{j+1}(x_{j+1}) = S''_j(x_{j+1})$ 
						$\forall j,$ $j=0,\dots,n-2$ 
						(concavidades iguales de ambos lados).		
			\end{enumerate}
			
			Se necesitan dos condiciones más para poder resolver de 
			forma única el sistema de ecuaciones y encontrar los 
			valores de los coeficientes de los polinomios.
			
			Dos opciones son:
			
			\begin{itemize}
				\item 	Frontera Libre: 
						$S''(x_{0}) = 0$ y $S''(x_{n}) = 0$ 
						(Spline Natural).
				\item 	Frontera Sujeta: 
						$S'(x_{0}) = f'(x_0)$ y $S'(x_{n}) = f'(x_n)$ 
						(Spline Sujeto).
			\end{itemize}
			
			con estas dos opciones se obtiene un sistema con una 
			matríz estrictamente diagonal dominante, lo que asegura 
			que la solución existe y es única.
				
		\item 	Sean $\{\beta_n\}$ y $\{\alpha_n\}$ sucesiones tales 
				que $\displaystyle \lim_{n \rightarrow \infty}
				{\beta_n \rightarrow 0}$, $\displaystyle 
				\lim_{n \rightarrow \infty}
				{\alpha_n \rightarrow \alpha}$, si $\displaystyle 
				\exists \; k \in \real, \: k > 0$ tal que \\
				$\displaystyle |\alpha_n - \alpha| \leq k \: |\beta_n|$ 
				$\rightarrow$ se dice que la sucesi\'on $\{\alpha_n\}$ 
				tiene orden de convergencia $O(\beta_n).$
		
		\item 	Sea $\{x_n\}$ una sucesi\'on tal que 
				$\displaystyle \lim_{n \rightarrow \infty}
				{x_n \rightarrow x^{*}}$, si vale que 
				
				\begin{itemize}
					\item 	$\displaystyle |x_{n+1} - x^{*}| 
							\leq k \: {|x_n - x^{*}|}^{p}$ 
							$\rightarrow$ la convergencia es 
							de orden $p$, $p \geq 1$.
					\item 	$\displaystyle \lim_{n \rightarrow \infty} 
							\frac{|x_{n+1} - x^{*}|}
							{{|x_n - x^{*}|}^{p}} = c$ donde $c$ es 
							una constante no nula $\rightarrow$ 
							la convergencia es de orden $p$.
				\end{itemize}	
				
				\textbf{Casos Particulares de Convergencia} $p = 1$ 
				Lineal, $1 < p < 2$ Superlineal, $p = 2$ Cuadr\'atica.\\
		
		\item 	Sea $f: \real \mapsto \real$, $p \in \real$ es punto 
				fijo de $f$ si $f(p) = p.$
		
		\item 	Sean $f: \real \mapsto \real$ y $p_o \in \real$, se 
				define la sucesi\'on de punto fijo $\{p_n\}$ como 
				$p_{n+1} = g(p_n)$.
\end{enumerate}

\end{section}

%~  ----------------------------------------------------------------------------------------------

\newpage
\begin{section}{Eliminación Gaussiana}
\par
El algoritmo de elminiación gaussiana siempre termina, pero no 
siempre sirve para encuentrar una factorización $LU$ ya que puede 
pasar que haya que permutar filas. 

\begin{algorithm}[H]
\caption{Gauss(
	$A \in \real^{nxn}$) $\in O(n^3)$}
\BlankLine
%~ \textsl{\{ Punteros a las matrices. \}}\\
\For{($i = 1$; $i < n$; $i++$)}
{
	\BlankLine
	\For{($j = i + 1$; $j \leq n$; $j++$)}
	{
		\BlankLine
		$m_{ji} = \displaystyle \frac{{a_{ji}}^{(j-1)}}
					{{a_{ii}}^{(j-1)}}$ \\
		\BlankLine
		\textsl{\{ Fila $j$ $=$ Fila $j$ $-$ $m_{ij}$ Fila $i$. \}}\\
		\BlankLine
		\For{($k = i + 1$; $k \leq n$; $k++$)}
		{
			\BlankLine
			$\displaystyle {a_{jk}}^{(j)} = {a_{jk}}^{(j - 1)} - 
					m_{ij} {a_{ik}}^{(j - 1)}$
			\BlankLine
		}
	}
}
\end{algorithm}
\end{section}

%~  ----------------------------------------------------------------------------------------------

\begin{section}{Factorización de Cholesky}
\par \noindent
Dada $A$ simétrica definida positiva, encuentra la factorización 
$L.D.L^t$ de $A$ en ${n^3}/3$ operaciones (dos veces más rápidamente 
que en la factorización $LU$ que se hace en $2{n^3}/3$ operaciones).

\begin{algorithm}[H]
\caption{Cholesky(
	$A \in \real^{nxn}$)}
\BlankLine
%~ \textsl{\{ Punteros a las matrices. \}}\\
$\displaystyle l_{11} = \sqrt{a_{11}}$
\BlankLine
\For{($j = 2$; $j \leq n$; $j++$)}
{
	\BlankLine
	$\displaystyle l_{j1} = \frac{a_{j1}}{a_{11}}$
	\BlankLine
}
\BlankLine
\For{($i = 2$; $i < n$; $i++$)}
{
	\BlankLine
	$\displaystyle l_{ii} = \sqrt{a_{ii} - 
				\sum_{k = 1}^{i-1} {l_{ik}}^2}$
	\BlankLine
	\For{($j = i+1$; $j \leq n$; $j++$)}
	{
		\BlankLine
		$\displaystyle l_{ji} = \frac{a_{j1} - \displaystyle 
				\sum_{k = 1}^{i-1} l_{jk} l_{ik}} {a_{ii}}$
		\BlankLine
	}
	\BlankLine
}
\BlankLine
$\displaystyle l_{nn} = \sqrt{a_{nn} - \sum_{k = 1}^{n-1} {l_{nk}}^2}$ 
\end{algorithm}
\end{section}

%~  ----------------------------------------------------------------------------------------------

%~ \newpage
\begin{section}{Factorización QR}
\par \noindent
Se busca triangular $A$ multiplicando a izquierda por matrices 
ortogonales, obteniendo $Q^tA = \real \mapsto A = QR.$
%~ \par \noindent
%~ Ambos métodos se realizan en forma recursiva, para triangular $A$ 
%~ primero se obtienen ceros debajo del primer elemento de la primera 
%~ fila y luego se aplica el método sobre la submatríz que resulta de 
%~ eliminar la primera fila y la primera columna. 
%~ Para no afectar el resultado ya obtenido, las siguientes matrices de 
%~ rotación y reflexión que se utilicen se llenan con la identidad.
%~ \begin{subsubsection}{Método de Rotaciones}
%~ \par
%~ Se triangula A multiplicando a izquierda por matrices de Givens, 
%~ \end{subsubsection}
$W, W^{(i)}, B^{(i)}  \in \real^{nxn}$,  ${B'}^{(i)} , 
{W'}^{(i)} \in \real^{(n-i) x (n-i)}$\\
\begin{algorithm}[H]
\caption{Rotaciones(
	$A \in \real^{nxn}$)}
\BlankLine
$W= I_n$\\
$B^{(1)} = A$\\
${B'}^{(1)} = A$
\BlankLine
\For{($i = 1$; $i < n$; $i++$)}
{
	\BlankLine
	$W^{(i)} = I_n$\\
	${W'}^{(i)} = I_{n-i+1}$
	\BlankLine
	\For{($k = i+1$; $k < n$; $k++$)}
	{
		%~ \BlankLine
		%~ $\displaystyle \theta_{ij} = $ ángulo 
		%~ entre ${B'}^{(i)}_{1k}$ y $0$
		\BlankLine
		$\displaystyle norma = \sqrt{{{B'}^{(i)}_{11}}^2 + 
				{{B'}^{(i)}_{1k}}^2}$
		\BlankLine
		$\displaystyle \cos(\theta_{ij}) = 
				\frac{{B'}^{(i)}_{1k}}{norma}$
		\BlankLine
		$\displaystyle \sin(\theta_{ij}) = 
				\frac{{B'}^{(i)}_{11}}{norma}$
		\BlankLine
		$\displaystyle {W}_{ij} = G_{1k}$ para la matríz ${B'}^{(i)}$ 
				usando $\sin(\theta_{ij})$ y $\cos(\theta_{ij}).$
		\BlankLine
		${W'}^{(i)} = W_{ij}.{W'}^{(i)}$
	}
	\BlankLine
	$\displaystyle {W}^{(i)} = \begin{pmatrix} I_{i-1} & 0 \\ 
			0 & {W'}^{(i)} \end{pmatrix}$	
	\BlankLine
	$\displaystyle {B'}^{(i+1)} = W^{(i)}.{B'}^{(i)}$ 
	\BlankLine
	$\displaystyle {B}^{(i+1)} = {B'}^{(i+1)}$ sin las 
			primeras $i$ filas y columnas.
	\BlankLine
	$W = W^{(i)}.W$
	\BlankLine
}
%~ \BlankLine
$Q = W^t$\\
$R = {B'}^{(n)}$
\end{algorithm}

%~ $\displaystyle x_1 = \mbox{columna}_1 (A)$, 
%~ $\displaystyle y_1 = (||x_1||_2, 0, \dots, 0),$ como 
%~ $\displaystyle ||x_1||_2 = ||y_1||_2, \exists P_1$ 
%~ reflexión tal que $P_1x = y$, logrando de esta manera ($P_1A$) 
%~ obtener ceros debajo de la diagonal de $A$ para la primera fila.

\begin{algorithm}[H]
\caption{Reflexiones(
	$A \in \real^{nxn}$)}
\BlankLine
$W= I_n$\\
$B^{(1)} = A$\\
${B'}^{(1)} = A$
\BlankLine
\For{($i = 1$; $i < n$; $i++$)}
{
	\BlankLine
	$\displaystyle x_i = \mbox{columna}_1 (B^{(i)})$
	\BlankLine
	$\displaystyle y_i = (||x_i||_2, 0, \dots, 0)$
	\BlankLine
	$\displaystyle u_i = \frac{x-y}{||x-y||_2}$
	\BlankLine
	$\displaystyle P^{(i)} = P_u$ Matríz de Reflexión de Householder.
	\BlankLine
	$\displaystyle W^{(i)} = \begin{pmatrix} I_{i-1} & 0 \\ 
			0 & P^{(i)} \end{pmatrix}$
	\BlankLine
	$\displaystyle {B'}^{(i+1)} = W^{(i)}.{B'}^{(i)}$ 
	\BlankLine
	$\displaystyle {B}^{(i+1)} = {B'}^{(i+1)}$ sin las primeras 
			$i$ filas y columnas.
	\BlankLine
	$W = W^{(i)}.W$
	\BlankLine
}
\BlankLine
$Q = W^t$\\
$R = {B'}^{(n)}$
\end{algorithm}

\end{section}

%~  ----------------------------------------------------------------------------------------------

\newpage
\begin{section}{Métodos Iterativos Para Sistemas Lineales}
\par \noindent
Sea el sistema de ecuaciones $Ax = b$ y $x^{(0)} = 
		({x_1}^{(0)}, \dots, {x_n}^{(0)}) \in \real^n$ inicial.

\begin{subsection}{Algoritmos}
\begin{algorithm}[H]
\caption{Jacobi(
	$A \in \real^{nxn}, 
	b, x^{(0)} \in \real^n$)}
\BlankLine
\For{($k = 1$; $k \leq n$; $k++$)}
{
	\For{($i = 1$; $i \leq n$; $i++$)}
	{
		\BlankLine
		$\displaystyle {x_{i}}^{(k)} = \frac{b_i - \displaystyle 
				\sum_{j=1, j\neq i}^{n} a_{ij}.{x_j}^{(k-1)} }{a_{ii}}$
	}
}
Con $a_{ii} \neq 0$ $\forall i.$
\end{algorithm}

\begin{algorithm}[H]
\caption{Gauss-Seidel(
	$A \in \real^{nxn}, 
	b, x^{(0)} \in \real^n$)}
\BlankLine
\For{($k = 1$; $k \leq n$; $k++$)}
{
	\For{($i = 1$; $i \leq n$; $i++$)}
	{
		\BlankLine
		$\displaystyle {x_{i}}^{(k)} = 
			\frac{b_i - \displaystyle \sum_{j=1}^{i-1} 
			a_{ij}.{x_j}^{(k)} - \displaystyle 
			\sum_{j=i+1}^{n} a_{ij}.{x_j}^{(k-1)}}{a_{ii}}$
	}
}
Con $a_{ii} \neq 0$ $\forall i.$
\end{algorithm}
\end{subsection}

\begin{subsection}{Forma Matricial}
$A$ se expresa como $A = D-L-U$, donde \paragraph{}

$\displaystyle D = 
	\begin{pmatrix} 
		a_{11} & 0 & \ldots & 0 \\ 
		0 & a_{22} & \ldots & 0 \\ 
		\vdots & 0 & \ddots & 0 \\ 
		0 & 0 & \ldots & a_{nn} 
	\end{pmatrix} $ 

$\displaystyle L = 
	\begin{pmatrix} 
		0 & 0 & \ldots & 0 \\ 
		-a_{21} & 0 & \ldots & 0 \\ 
		\vdots & \ddots & 0 & 0 \\ 
		-a_{n1} & \ldots & -a_{n n-1} & 0 
	\end{pmatrix} $ 

$\displaystyle U = 
	\begin{pmatrix} 
		0 & -a_{12} & \ldots & -a_{1n} \\ 
		0 & 0 & \ddots & \vdots \\ 
		0 & \ldots & 0 & -a_{n-1 n} \\ 
		0 & \ldots & 0 & 0 
	\end{pmatrix} $ 
	
\paragraph{} \noindent
definendo las matrices $T$ y las constantes $C$ para los métodos 
	iterativos de Jacobi y de Gauss-Seidel. 
	\begin{itemize}
		\item \textbf{Jacobi} 
				$T = D^{-1}(L+U)$ y $c = D^{-1}b$ 
		\item \textbf{Gauss-Seidel}	
				$T = (D-L)^{-1}U$ y $c = (D-L)^{-1}b$
	\end{itemize}
	
\par \noindent
En ambos métodos se utiliza la sucesión $x^{(k)} = x^{(k-1)}T + c$ 
	para resolver el sistema (si es que el método converge).
\end{subsection}

\end{section}

%~  ----------------------------------------------------------------------------------------------

\newpage
\begin{section}{Método del Gradiente Conjugado}
\par \noindent
Sea $A$ simétrica definida positiva, y el sistema de 
	ecuaciones $Ax = b.$
Sea $Q: \real \mapsto \real,$ 
	$\displaystyle R(x) = x^tAx - 2x^tb = x_1 
		\sum_{j=1}^{n} a_{1j} x_j + \dots + x_n 
		\sum_{j=1}^{n} a_{nj} x_j - 2x_1b_1 - \dots - 2x_nb_n$\\
\par \noindent
$\nabla Q(x) = 2(Ax-b)$
$H Q(x) = 2A$ $> 0$ por ser $A$ definida positiva. \\
\par \noindent
$x \in \real$ tal que minimiza $Q$ es punto crítico de la función 
	($Q$ es una parábola positiva) y por lo tanto resuelve 
	el sistema $Ax = b.$\\
\par \noindent
$Q(x + \alpha d) = {\alpha}^2 d^t A d + 2 
	\alpha d^t (Ax-b) + x^tAx - 2x^t b$ \\
\par \noindent
$\displaystyle \frac{\partial Q(x + \alpha d)}{\partial \alpha} = 
	2\alpha d^t A d + d^t(Ax-b) = 0 \rightarrow \alpha = 
	\frac{d^t(b-Ax)}{d^tAd}$

\begin{subsection}{Si se tienen las direcciones}
\begin{algorithm}[H]
\caption{Algoritmo de Direcciones(
	$A \in \real^{nxn}, 
	x^{(0)} \in \real$ inicial, 
	$b \in \real^n$, $d^{(0)}, ..., d^{(n-1)} \in \real^n$ direcciones, 
	$N \in \real$ límite)}
\BlankLine
\For{($j = 1$; $j \leq N$; $j++$)}
{
	\BlankLine
	$\displaystyle {\alpha}^{(k-1)} = 
		\frac{{d^{(k-1)}}^t(b-Ax^{(k-1)})}{{d^{(k-1)}}^tA.d^{(k-1)}}$ 
	\BlankLine
	$\displaystyle x^{(k)} = x^{(k-1)} + {\alpha}^{(k-1)} d^{(k-1)}$
	\BlankLine
}
\end{algorithm}
\end{subsection}

\par \noindent
En el método del gradiente conjugado, las direcciones son 
	$A$-conjugadas, y el límite es $n$.

\begin{subsection}{Si no se tienen las direcciones}
\par \noindent
El siguiente algoritmo genera direcciones $A$-conjugadas a medida que 
	las va necesitando en cada paso del algoritmo.\\

\begin{algorithm}[H]
\caption{(
	$A \in \real^{nxn}, 
	x^{(0)} \in \real$ inicial, 
	$b \in \real^n$)}
\BlankLine
$r^{(0)} = b - Ax^{(0)}$\\
$d^{(0)} = -r^{(0)}$
\BlankLine
\For{($j = 1$; $j \leq N$; $j++$)}
{
	\BlankLine
	$\displaystyle {\alpha}^{(k-1)} = 
		\frac{{d^{(k-1)}}^t(b-Ax^{(k-1)})}{{d^{(k-1)}}^tA.d^{(k-1)}}$ 
	\BlankLine
	$\displaystyle x^{(k)} = x^{(k-1)} + {\alpha}^{(k-1)} d^{(k-1)}$
	\BlankLine
	$\displaystyle \beta_k = 
		\frac{ {r^{(k)}}^t A.d^{(k-1)}}{{d^{(k-1)}}^tA.d^{(k-1)}}$
	\BlankLine
	$r^{(k)} = b - Ax^{(k)}$
	\BlankLine
	$d^{(k)} = -r^{(k)} + \beta_{k}.d^{(k-1)}$
	\BlankLine
}
\end{algorithm}
\end{subsection}
\end{section} 

%~  ----------------------------------------------------------------------------------------------

\newpage
\begin{section}{Integraci\'on Num\'erica}
\par \noindent
Sea la función $f(x)$, $f: \real \mapsto \real$. 
Se desea integrar $f$ en el intervalo $[a, b]$. \\
%~ El valor de la integral puede obtenerse de forma no exacta mediante 
%~ metodos que aproximan $f$ (generalmente usando un polinomio) y luego 
%~ realizan la integral de la aproximaci\'on 
%~ (la ventaja es que los polinomios son f\'aciles de integrar). 
$\displaystyle f(x) = P(x) + E(x) \rightarrow $
$\displaystyle \int_{a}^{b} f(x) \: dx = 
	\int_{a}^{b} P(x) \: dx + \int_{a}^{b} E(x) \: dx$

\begin{subsection}{F\'ormula de Newton-Cotes}
\begin{enumerate}
	\item 	Dividir el intervalo $[a, b]$ en $n$ subintervalos 
			iguales de tamaño $h$. \\ 
			Se obtienen $n$ valores de $x_i$, donde $x_i = a + h*i$. 
	\item 	Aproximar $f$ en cada intervalo usando el polinomio 
			interpolador de Lagrange de grado $k$.
	\item 	Integrar el polinomio resultante.
\end{enumerate}
\textbf{Casos particulares} $k = 1$ Trapecios, $k = 2$ Simpson.\\

\begin{algorithm}[H]
\caption{Regla Compuesta de Trapecios}
\BlankLine
$\displaystyle \int_{a}^{b} f(x) \: dx = 
	\frac{h}{2} \biggl(f(x_0) + 2 \sum_{j=1}^{n-1} f(x_j) + 
	f(x_n)\biggr) - \frac{h^2}{12} (b-a) f^{(2)}(\mu)$
%~ $\displaystyle \int_{a}^{b} f(x) \: dx = 
%~ \frac{h}{2} \Bigl(f(x_0) + 2 \sum_{j=1}^{n-1} f(x_j) + 
%~ f(x_n)\Bigr) - \frac{h^2}{12} (b-a) f^{(4)}(\mu)$
\end{algorithm}

\begin{algorithm}[H]
\caption{Regla Compuesta de Simpson}
\BlankLine
$\displaystyle \int_{a}^{b} f(x) \: dx = 
	\sum_{j=1}^{n/2} \frac{h}{3} \biggl(f(x_{2j-2}) + 4 f(x_{2j-1}) 
	+ f(x_{2j})\biggr) - \frac{h^5}{90} \frac{n}{2} f^{(4)}(\mu)$
\end{algorithm}

\end{subsection}
\end{section}

%~  ----------------------------------------------------------------------------------------------

%~ \newpage
\begin{section}{M\'etodos Para Aproximar Ceros de Funciones}
\par \noindent
Sea la función $f(x)$, $f: \real \mapsto \real$, continua.

\begin{subsection}{Criterios de Parada}
Para los m\'etodos que aproximan ceros de funciones, es necesario 
contar con alg\'un criterio de parada, para que el m\'etodo 
termine de iterar.
\begin{enumerate}
	\item 	cant\_iteraciones $\leq MAX$
	\item 	$\displaystyle |x_{n} - x_{n-1}| \leq \varepsilon$
	\item 	$\displaystyle \frac{|x_{n} - x_{n-1}|}{|x_{n}|} 
			\leq \varepsilon$	
	\item 	$\displaystyle |f(x_n)| \leq \varepsilon$	
	\item 	$\displaystyle |f(x_{n}) - f(x_{n-1})| \leq \varepsilon$
	\item 	$\displaystyle \frac{|f(x_{n}) - f(x_{n-1})|}{|f(x_{n})|} 
			\leq \varepsilon$	
\end{enumerate}
\end{subsection}

\begin{subsection}{Algoritmos}
\begin{algorithm}[H]
\caption{Bisecci\'on(
		$(a, b)$ intervalo, 
		$x^{(0)} \in \real$ punto inicial.)}
\textsl{Requiere} $f(a) . f(b) < 0$
\BlankLine
\While{not criterio\_de\_parada}
{
	$c = \displaystyle \frac{a+b}{2}$
	\BlankLine
	\If{$f(c) == 0$}
	{
		\BlankLine
		return $c$
		\BlankLine
	}
	\Else
	{
		\textsl{Me fijo en cu\'al de los dos 
				subintervalos est\'a el cero}
		\BlankLine
		\If{$f(a).f(c) < 0$}
		{
			\BlankLine
			$b$ = $c$
			\BlankLine
		}
		\Else
		{
			\BlankLine
			$a$ = $c$
			\BlankLine
		}
	}
}
\BlankLine
Tiene convergencia de orden lineal\\
Sea $c_i$ el punto intermedio $c$ obtenido en el paso $i$ de la 
	iteración y sea $r$ la ra\'iz buscada, entonces\\
$\displaystyle |c_i - r| \leq \frac{|a - b|}{2^i}$
\end{algorithm}

\begin{algorithm}[H]
\caption{Newton($x^{(0)} \in \real$ punto inicial.)}
\textsl{Requiere} ${x}^{(0)}$ suficientemente 'cerca' de 
		la ra\'iz buscada\\
\textsl{Requiere} $f$ con derivada cont\'inua\\
\textsl{Puede que no converja en muchos casos}
\BlankLine
\While{not criterio\_de\_parada}
{
	${x}^{(n+1)} = {x}^{(n)} - \displaystyle 
				   \frac{f({x}^{(n)})}{f'({x}^{(n)})}$
}
\BlankLine
Tiene convergencia de orden cuadr\'atico.\\
\end{algorithm}

\begin{algorithm}[H]
\caption{Secante($x^{(0)}, x^{(1)} \in \real$ puntos iniciales.)}
\textsl{Requiere} ${x}^{(0)}, {x}^{(1)}$ suficientemente 'cerca' de 
		la ra\'iz buscada\\
\BlankLine
\While{not criterio\_de\_parada}
{
	${x}^{(n+2)} = {x}^{(n+1)} - \displaystyle f({x}^{(n+1)}) 
		\frac{{x}^{(n+1)} -{x}^{(n)}}{f({x}^{(n+1)}) - f({x}^{(n)})}$
}
\BlankLine
Tiene convergencia de orden superlineal.\\
\end{algorithm}

\newpage
\begin{algorithm}[H]
\caption{Regula Falsi(
		$(a, b)$ intervalo, 
		$x^{(0)} \in \real$ punto inicial.)}
\textsl{Requiere} $f(a) . f(b) < 0$
\BlankLine
\While{not criterio\_de\_parada}
{
	$c = \displaystyle \frac{f(b)}{f(b) - f(a)} (b-a)$
	\BlankLine
	\If{$f(c) == 0$}
	{
		\BlankLine
		return $c$
		\BlankLine
	}
	\Else
	{
		\textsl{Me fijo en cu\'al de los dos 
				subintervalos est\'a el cero}
		\BlankLine
		\If{$f(a).f(c) < 0$}
		{
			\BlankLine
			$b$ = $c$
			\BlankLine
		}
		\Else
		{
			\BlankLine
			$a$ = $c$
			\BlankLine
		}
	}
}
\end{algorithm}

\end{subsection}
\end{section}

%~  ----------------------------------------------------------------------------------------------

%~ \newpage
\begin{section}{Cuadrados M\'inimos}
\par \noindent
Se tienen $n$ puntos de la forma $\{x_i, y_i\}$ y 
	$F$ una familia de funciones. \\
%~ tal que aproxime de la mejor manera posible los puntos
Se busca $f' \in F$ tal que $\displaystyle 
	\min_{f \in F}{\sum_{i = 1}^n {|f(x_i) - y_i|}^2_2} = 
\sum_{i = 1}^n {| \negthinspace f'(x_i) - y_i \negthinspace |}^2_2$. \\
En general la funci\'on $f$ tendr\'a $m$ par\'ametros lineales a 
	determinar $(m < n)$ y ser\'a de la forma \\
$\displaystyle f(x) = a_1 \Phi_1(x) + \dots + a_m \Phi_m(x)$ donde 
	$\Phi_1, \dots, \Phi_m$ son funciones conocidas.

\begin{subsection}{Forma Matricial}
$\displaystyle A = \begin{pmatrix} 
\Phi_1(x_1) & \ldots & \Phi_m(x_1) \\  
\vdots & \ddots & \vdots \\  
\Phi_1(x_n) & \ldots & \Phi_m(x_n) \\  
\end{pmatrix} \in \real^{nxm} 
\qquad
x = \begin{pmatrix} a_1 \\ \vdots \\ a_m \end{pmatrix} \in \real^{m}
\qquad
b = \begin{pmatrix} y_1 \\ \vdots \\ y_n \end{pmatrix} \in \real^{n}$ 
\paragraph{}
Se busca $x \in \real^m$ tal que $\displaystyle {\parallel 
	\negthinspace Ax - b \negthinspace \parallel}^2_2$ es m\'inima.
\end{subsection}

\end{section}
