\begin{section}{Mini-resumen para el primer parcial}
%~ \item $(AB)_{ij} = \sum_{k=1}^{n} a_{ik} b _{kj}$
\begin{subsection}{Propiedades (Teórica)}
Sean $A, B \in R^{nxm}$
\begin{enumerate}
	%~ \item $(AB)_{ij} = \sum_{k=1}^{n} a_{ik} b _{kj}$
	\item Si $A$ y $B$ son inversibles $\rightarrow$ $(AB)^{-1} = B^{-1}A^{-1}$
	\item $(A + B)^t = A^t + B^t$ y $(AB)^t = B^tA^t$
	\item Si $A$ es inversible $\rightarrow$ $(A^{-1})^t = (A^t)^{-1}$
	\item $det(AB) = det(A)det(B)$
	\item $det(A) \neq 0 \Leftrightarrow \exists A^{-1}$ y $det(A^{-1}) = \frac{1}{det(A)}$
	\item Las normas matriciales inducidas son consistentes.
	\item Si $||\bullet||_p$ es una norma matricial inducida $\rightarrow$ $K(A)_p \geq 1$. 
	%~ Cuanto más cercano a $1$ sea el valor, más estable será la matríz.
	\item Si $A$ es no singular, sean $x$ solución de $Ax = b$ y $x^{*}$ tal que $Ax^{*} = B^{*}$.
		\par
		Vale que:
		\begin{enumerate}
			\item $\displaystyle ||x-x^{*}|| \leq ||r||.||A^{-1}||$
			\item $\displaystyle \frac{||x-x^{*}||}{||x||} \leq ||A||.||A^{-1}||\frac{||r||}{||b||}$ (error($x^{*}$) $\leq$ $K(A).$error($b^{*}$))
		\end{enumerate}
		donde $r = b - Ax^{*} = b-b^{*}$ y $||\bullet||$ es una norma matricial inducida.
	\item Si las submatrices principales de $A$ son no singulares $\rightarrow$ $A$ tiene factorización $LU$.
	
	\item Si $A$ es simétrica y tiene factorización $LU$ $\rightarrow$ su factorización es también simétrica y $A = L.D.L^t$ donde $D$ es una matríz diagonal.
	
	%~ \item Si $A$ es simétrica definida positiva $\rightarrow$ todas sus submatrices principales son no singulares. \\
		%~ Corolario: Si $A$ es simétrica definida positiva $\rightarrow$ $A$ tiene factorización $LU$ y $A = L.D.L^t$ \\
		%~ Corolario: Si $A$ es simétrica definida positiva $\rightarrow$ $A = L.D.L^t$ con $d_{ii} > 0$
		
	\item Si $A$ es estrictamente diagonal dominante $\rightarrow$ $A$ es no singular.
	
	\item Si $A$ es estrictamente diagonal dominante $\rightarrow$ todas las submatrices principales de $A$ son estrictamente diagonal dominantes. \\
		Corolario: Si $A$ es estrictamente diagonal dominante $\rightarrow$ tiene factorización $LU$.
		
	%~ \item Si $A$ es una matríz banda $p,q$ y tiene factorización $LU$ $\rightarrow$ $L$ es banda $p,0$ y $U$ es banda $0,q$, es decir que se mantiene la propiedad de matríz banda en la factorización.
\end{enumerate}
\end{subsection}

\begin{subsection}{Propiedades (Prácticas)}
Sean $A, B, C \in R^{nxm}$
\begin{enumerate}
	\item Si $AB=BA$ $\rightarrow$ $(A+B)^2 = A^2 + 2AB + B^2$ y $(A+B)(A-B) = A^2 - B^2$
	\item $\exists A^{-1}$ $\leftrightarrow$ $\not \exists$ $x \in R^{n}, x \neq 0,$ tal que $Ax = 0$ $\leftrightarrow$ las filas de $A$ son li $\leftrightarrow$ las columnas de $A$ son li.
	\item $Tr(AB) = Tr(BA)$
	\item $(I + A)^{-1} = I - A(I+A)^-1$
	\item Si $A$ es inversible $\rightarrow$ vale que $AB = AC \rightarrow B = C$, $AB = 0 \leftarrow B = 0$, $Tr(B) = Tr(A^{-1}BA)$
	\item Si $A$ es nilpotente $\rightarrow$ $I - A$ es inversible, y $A$ es no inversible.
	\item $\displaystyle |x^t y| \leq ||x||_2 ||y||_2$ (Desigualdad de Chauchy-Schwarz-Bunyakovski (CSB))
	\item $\displaystyle ||A||_1 = max_{j} \left \{ \sum_{i= 1}^n |a_{ij}| \right \}.$
	\item $\displaystyle ||A||_{\infty} = max_{i} \left \{ \sum_{j=1}^n |a_{ij}| \right \}$.
	\item $\displaystyle ||A||_{2} \leq ||A||_{F} \leq \sqrt{n} ||A||_{2}$.
	\item $K(AB) \leq K(A)K(B)$ y $K(\alpha A) = K(A)$ $\forall \alpha \in R, \alpha \neq 0$.
	\item Sea $\displaystyle ||\bullet||$ una norma matricial inducida y $||A|| < 1$ $\rightarrow$ \\ $\hspace*{233pt}$
		$I + A$ es inversible y $\displaystyle ||(I+A)^-1|| \leq \frac{1}{1 - ||A||}$.
	\item Sea $\displaystyle ||\bullet||$ una norma matricial inducida, $A$ inversible, y $\delta A$ tal que $\displaystyle ||\delta A|| < \frac{1}{||A^{-1}||}$ $\rightarrow$ \\ $\hspace*{200pt}$
	$A + \delta A$ es inversible y $\displaystyle ||(A+ \delta A)^-1|| \leq \frac{||A^{-1}||}{1 - ||A^{-1}|| ||\delta A||}$.
	\item Sean $x \in R^{n}$, $A$ inversible, $B$ no inversible $\rightarrow$ $\hspace*{5pt}$ 
	$\displaystyle ||Ax|| > \frac{||x||}{||A^{-1}||} \hspace*{3pt}$ y $ \hspace*{3pt} \displaystyle \frac{1}{|K(A)|} \leq \frac{||A-B||}{||A||}$ 
\end{enumerate}

\end{subsection}

\begin{subsection}{Definiciones}
\begin{enumerate}
\item Dos sistemas de ecuaciones lineales son equivalentes si tienen la misma solución. \\ Es decir $Ax = b$ y $Bx = b'$ son equivalentes si $b = b'$.

\item $A$ tiene factorización $LU$ si puede escribirse como el producto de dos matrices $L$ y $U$ donde $L$ es una matríz triangular inferior con unos en la diagonal, y $U$ es una matríz triangular superior.

\item $||\bullet||$ : $R^{nxm} \rightarrow R$ es una norma matricial si cumple que: 
	\begin{enumerate}
		\item $||x|| \geq 0$ $\forall x \in R^{nxm}$ y $||x|| = 0 \leftrightarrow x = 0, x \in R^{nxm}$
		\item $||\lambda.x|| = |\lambda|.||x||$ $\forall \lambda \in R, x \in R^{nxm}$
		\item $||x + y|| \leq ||x|| + ||y||$ $\forall x,y \in R^{nxm}$ (Desigualdad triangular)
	\end{enumerate}
	Si además vale que: \par
	$||x.y|| \leq ||x||.||y||$ $\forall x,y \in R^{nxm}$ (Submultiplicidad) entonces la norma es consistente.
	
\item Norma de Frobenius: $||A||_F = \sqrt{\sum_{i=1}^n \sum_{j=1}^n {a_{ij}}^2}$.

\item $||A||_p$ : $R^{nxn} \rightarrow R$ es una norma matricial inducida si $||A||_p = \displaystyle max_{||x||_p = 1} \left\{ ||Ax||_p \right\} $, donde \\$||\bullet||_p$ : $R^{n} \rightarrow R$ es una norma vectorial. Equivalentemente, $||A||_p = \displaystyle max_{||x||_p \neq 0} \left\{ \frac{||Ax||_p}{||x||_p} \right\}$. 

\item Se define el número de condición de $A$ como $K(A)_p = ||A||_p ||A^{-1}||_p$.

\item $A \in R^{nxn}$ es simétrica si vale que $A = A^t$.

%~ \item $A \in R^{nxn}$ simétrica, si vale que: 
	%~ \begin{enumerate}
		%~ \item $x^t.A.x > 0$ $\forall x \in R^{n}, x > 0$, entonces A es definida positiva.
		%~ \item $x^t.A.x \geq 0$ $\forall x \in R^{n}, x > 0$, entonces A es semidefinida positiva.
		%~ \item $x^t.A.x < 0$ $\forall x \in R^{n}, x > 0$, entonces A es definida negativa.
		%~ \item $x^t.A.x \leq 0$ $\forall x \in R^{n}, x > 0$, entonces A es semidefinida negativa.
	%~ \end{enumerate}	

\item $A \in R^{nxn}$ es estrictamente diagonal dominante si $|a_{ii}| > \sum_{j=1, j\neq i}^n |a_{ij}|$ $\forall i \in [1,n]$.

\item $A \in R^{nxn}$ se dice matríz banda $p,q$ si solamente tiene elementos distintos de cero en $p$ diagonales que se encuentran inmediatamente sobre la diagonal principal, y $q$ diagonales inmediatamante debajo de la diagonal principal. Es decir no hay elementos distintos de cero entre la diagonal principal y las demás diagonales. Un caso particular son las matrices banda $1,1$ que se llaman tridiagonales.

\end{enumerate}
\end{subsection}

\begin{subsection}{Eliminación Gaussiana}
\par
El algoritmo de elminiación gaussiana siempre termina, pero no siempre sirve para encuentrar una factorización $LU$ ya que puede pasar que haya que permutar filas. 

\begin{algorithm}[H]
\caption{Gauss($A \in R^{nxn}$) $\in O(n^3)$}
\BlankLine
%~ \textsl{\{ Punteros a las matrices. \}}\\
\For{($i = 1$; $i < n$; $i++$)}
{
	\BlankLine
	\For{($j = i + 1$; $j \leq n$; $j++$)}
	{
		\BlankLine
		$m_{ji} = \displaystyle \frac{{a_{ji}}^{(j-1)}}{{a_{ii}}^{(j-1)}}$ \\
		\BlankLine
		\textsl{\{ Fila $j$ $=$ Fila $j$ $-$ $m_{ij}$ Fila $i$. \}}\\
		\BlankLine
		\For{($k = i + 1$; $k \leq n$; $k++$)}
		{
			\BlankLine
			$\displaystyle {a_{jk}}^{(j)} = {a_{jk}}^{(j - 1)} - m_{ij} {a_{ik}}^{(j - 1)}$
			\BlankLine
		}
	}
}
\end{algorithm}

\end{subsection}

\end{section}
