En muchos casos al modelar matem\'aticamente un problema, ocurre que 
por la manera de representar los datos la matriz involucrada cumple con 
ciertas caracter\'isticas especiales. 
A continuaci\'on se nombran algunas de ellas que, usadas correctamente, 
pueden contribuir a la resoluci\'on m\'as eficiente del problema.

\begin{subsection}{Matrices Diagonales Dominantes}
\begin{definition}
	$A\in \real^{n\times n}$ es \textbf{diagonal dominante} si 
	$\displaystyle |a_{ii}|\geq \sum_{j \neq i}^{n}|a_{ij}| \; 
	\forall \; i \in \{1,\dots,n\}$. \\
	Es decir, en cada fila, el m\'odulo del elemento en la diagonal es 
	mayor o igual a la suma de los m\'odulo del resto de los elementos 
	de la fila. 
	Si la desigualdad es estricta, $A$ es 
	\textbf{estrictamente diagonal dominante}.
\end{definition}

\begin{theorem}
	Sea $A \in \real^{n \times n}$ estrictamente diagonal dominante, 
	entonces
		\begin{itemize}
			\setlength{\itemsep}{0pt}
			\item $A$ es no singular.
			\item $A$ tiene factorizaci\'on $LU$ (no necesita pivoteo 
					en la eliminaci\'on gaussiana) y los c\'alculos 
					son estables respecto al crecimiento de los 
					errores de redondeo.
			\item Jacobi y Gauss-Seidel convergen.
		\end{itemize}
\end{theorem}

Surgen en el sistema lineal utilizado para determinar los par\'ametros 
de un spline c\'ubico interpolador.
\end{subsection}

\begin{subsection}{Matrices Sim\'etricas}

\begin{theorem}
	Si $A$ es sim\'etrica y tiene factorizaci\'on $LU$, entonces $A$ 
	se escribe como $A = LDL^{t}$ donde $D$ es diagonal. 
	Si adem\'as los elementos de la diagonal de $D$ son positivos, 
	$A$ puede escribirse como \\
	$A=L\sqrt{D}\sqrt{D}L^{t} = L\sqrt{D}(L\sqrt{D})^{t}=KK^{t}$ 
	(llamada \textbf{factorizaci\'on de Cholesky} donde $K$ es 
	triangular inferior con diagonal estrictamente positiva).
\end{theorem}

\begin{definition}
	$A\in \real^{n\times n}$ es \textbf{sim\'etrica definida positiva} 
	si cumple $A = A^{t}$ y $(\forall x \in \real^{n}, x \neq 0)
	\; x^{t}Ax > 0$ \\
	(si vale la desigualdad $\geq$, entonces es 
	\textbf{semi-definida positiva}).
\end{definition}

\begin{theorem}
	Sea $A\in \real^{n\times n}$ \textbf{sim\'etrica definida positiva}
	\begin{itemize}
		\setlength{\itemsep}{0pt}
		\item Los menores principales de $A$ son no singulares 
				(tienen determinante positivo) y vale la vuelta.
		\item $A$ tiene factorizaci\'on $LU$.
		\item $A$ tiene factorizaci\'on de Cholesky ya que 
				$d_{ii} > 0 \; \forall \; i \in \{1,\dots,n\}$.
		\item $(a_{ij})^{2} < a_{ii}a_{jj} \; \forall \; i\neq j$.
	\end{itemize}
\end{theorem}

Se usan en el m\'etodo de direcciones conjugadas.
\end{subsection}

\begin{subsection}{Matrices Banda}

\begin{definition}
	$A\in \real^{n\times n}$ es \textbf{banda-pq} cuando cumple 
	$\displaystyle a_{ij} = 0 \;\textrm{\ si\ }\; j < i - p 
	\;\textrm{\ \'o\ }\; j > i + q$ para $p,q \ge 0$. \\
	Es decir: $A$ es una matriz cuyos elementos bajo la p-\'esima 
	subdiagonal, y sobre la q-\'esima supradiagonal son cero. 
	Caso particular: cuando $p$ y $q$ son cero la matriz es diagonal.
\end{definition}

\begin{theorem}
	Sea $A\in \real^{n\times n}$ una \textbf{matr\'iz banda p-q}
	\begin{itemize}
		\setlength{\itemsep}{0pt}
		\item Puede ahorrarse espacio almacenando en memoria solamente 
			 los elementos de la banda sabiendo que el resto son cero.
		\item Si $A$ tiene factorizaci\'on $LU$, $L$ es banda $q$ y 
				$U$ es banda $p$. 
		\item Si $A$ es tridiagonal, se puede factorizar $A$ en $A=LU$ 
			(Crout) con s\'olo $O(5n)$ multiplicaciones y $O(3n)$ sumas.
	\end{itemize}
\end{theorem}

\end{subsection}
