Los m\'etodos iterativos tienen como objetivo aproximar la soluci\'on 
de un sistema de ecuaciones lineales partiendo de una aproximaci\'on 
inicial y generando aproximaciones sucesivas que deber\'ian acercarse a 
la soluci\'on ex\'acta del sistema. 
Dif\'icilmente se usen estos m\'etodos para resolver sistemas lineales 
chicos, ya que el tiempo necesario para conseguir la exactitud 
necesaria supera a la de un m\'etodo directo, pero se vuelven 
eficientes en el caso de sistemas grandes con un alto porcentaje 
de elementos nulos.

\begin{definition}
	Dada $A \in \real^{n\times n}$, y $\lambda_1, ... \lambda_n$ sus 
	autovalores, el radio espectral de $A$ es 
	$\displaystyle \rho(A) = \max_{1\leq i \leq n} |\lambda_i|.$ 
\end{definition}

\begin{theorem}
	Dada $A \in \mathbb{R}^{n\times n}$
	\begin{itemize}
		\setlength{\itemsep}{0pt}
		\item{$\rho(A) < 1 \textrm{\ sii\ } \displaystyle 
				\lim_{k\rightarrow\infty}(A^{k})=0$}
		\item{$\rho(A) < 1$ entonces $(I-A)$ es no singular y 
				$\displaystyle (I-A)^{-1}=\sum_{k=0}^{\infty}A^{k}$}
		\item{$\rho(A) \leq \|A\|$ para toda norma matricial inducida.}
	\end{itemize}
\end{theorem}

\begin{theorem}
	La sucesi\'on $\{x^k\}_{k \ge 0}$ definida como $x^{k}=Tx^{k-1}+C$ 
	converge a la soluci\'on del sistema $x=Tx+C$ para cualquier 
	$x_{0}$ inicial si y s\'olo si $\rho(T)<1$. 
	Su demostraci\'on se basa en las propiedades enunciadas, y permite 
	probar que para ciertos casos particulares de esa sucesi\'on y para 
	algunos tipos de matrices, la sucesi\'on converge para cualquier 
	$x_{0}$ (generalmente probando \'unicamente que $\rho(T)<1$).
\end{theorem}

\subsection{M\'etodo de Jacobi}
La idea del m\'etodo de Jacobi consiste en resolver la i-\'esima 
ecuaci\'on de $Ax=b$ para $x_{i}$ en funci\'on de las dem\'as 
variables, y generar $x_{i}^{k+1}$ a partir de las componentes de 
$x^{k}$ cuando $k \geq 1$. \\
Es decir, $\displaystyle x_{i}^{k+1} = \frac{b_{i} - 
\displaystyle \sum_{\stackrel{j=1}{j\neq i}}^{n} \; 
a_{ij}x_{j}^{k}}{a_{ii}}$ para $i=1,\ldots,n$ suponiendo 
$a_{ii} \neq 0$. 
Se puede ver f\'acilmente la forma matricial de este m\'etodo. 
Se descompone primero $A$ como $A = (D-L-U)$ (donde $D$ es la matriz 
diagonal cuyos únicos elementos coinciden con la diagonal de $A$ y 
$-L$ y $-U$ las partes estrictamente triangular inferior y superior 
de A). \\
Queda entonces as\'i expresada la forma matricial de Jacobi: 
$\displaystyle x^{k+1} = D^{-1}(L+U) x^{k} + D^{-1} b$.

Puede probarse que si $A$ es estrictamente diagonal dominante, 
el m\'etodo de Jacobi converge $\forall \; x_0$ inicial.

\subsection{M\'etodo de Gauss-Seidel}
El m\'etodos de Gauss-Seidel ofrece una mejora al de Jacobi. 
La idea es utilizar los valores ya calculados en cada paso, es decir en 
el c\'alculo de $x_{i}^{k}$, intervienen $x_{1}^{k},\dots,x_{i-1}^{k}$, 
y no $x_{1}^{k-1},\dots,x_{i-1}^{k-1}$. \\ 
Para la forma matricial, se descompone $A$ de la misma forma que en el 
m\'etodo de Jacobi, y resulta expresada de la siguiente manera:
$\displaystyle x^{k+1}={(D-L)}^{-1}Ux^{k} + {(D-L)}^{-1}b.$

Nuevamente para que $(D-L)$ sea no singular basta con pedir 
$a_{ii}\neq0$.

Gauss-Siedel converge para matrices estrictamente diagonal dominantes 
al igual que Jacobi, pero tambi\'en lo hace para matrices sim\'etricas 
definidas positivas.
Generalmente el m\'etodo de Gauss-Seidel tiene una mejor velocidad de 
convergencia, pero habr\'a casos donde Jacobi converger\'a y este
no, y viceversa (ya que ambos tienen matrices de iteraci\'on 
diferentes, de las cuales una puede cumplir las hip\'otesis de 
convergencia y la otra no). 
A menor $\rho(A)$ mayor velocidad de convergencia.

Por \'ultimo, el algoritmo de Gauss-Seidel requiere menos memoria, ya 
que no necesita las partes de la nueva aproximaci\'on ya calculadas y 
puede reutilizar la memoria. 
Con el algoritmo de Jacobi, en cambio, se debe guardar y hacer una copia.
