\section{Repaso Conceptos B'asicos Matrices}

\subsection{Introducci'on, repaso y conceptos b'asicos sobre matrices}

\begin{enumerate}

\item Igualdad entre matrices.

$A = B \Leftrightarrow a_{ij} = b_{ij} \forall i, j$

\item Suma de Matrices.

$A + B = C \Leftrightarrow  a_{ij} + b_{ij} = c_{ij} \forall i, j  $

\item Matriz Identidad.

\[
I = \left( \begin{array}{llll}
            1      & 0   		& \ldots	 	& 0 			\\
            0      & 1   		& \ldots   	& 0 			\\
						\vdots & \vdots & \ddots 		& \vdots  \\
            0      &  0  		& \ldots		& 1
           \end{array}
    \right) = (e_{1}, e_{2}, \ldots, e_{n})
\]

\[
e_{i} = \left( \begin{array}{l}
            0      	\\
            0      	\\
						\vdots 	\\
						1		\leftarrow \mbox{fila i}		\\
						\vdots	\\
            0      	\\
            0				||
           \end{array}
    \right) 
\]

\item Producto de Matrices

$A (n \times m) \times B (m \times p) = C (n \times p)  \Leftrightarrow  c_{ij} =  \sum{a_{ik} b_{kj}}$. 

Es decir, fila de A x columna de B. $A \times B \neq B \times A$

\item U Matriz triangular superior.

\[
U = \left( \begin{array}{llll}
            ?      & ?   		& \ldots	 	& ? 			\\
            0      & ?   		& \ldots   	& ? 			\\
						\vdots & \vdots & \ddots 		& \vdots  \\
            0      &  0  		& \ldots		& ?
           \end{array}
    \right) 
\]

Es decir, en la diagonal y arriba puede haber cualquier cosa, pero abajo de la diagonal debe haber 0s.

\item U Matriz triangular inferior.

\[
U = \left( \begin{array}{llll}
            ?      & 0   		& \ldots	 	& 0 			\\
            ?      & ?   		& \ldots   	& 0 			\\
						\vdots & \vdots & \ddots 		& \vdots  \\
            ?      & ?   		& \ldots		& ?
           \end{array}
    \right) 
\]

Es decir, en la diagonal y abajo puede haber cualquier cosa, pero arriba de la diagonal debe haber 0s.

\item U Matriz diagonal.

\[
U = \left( \begin{array}{llll}
            ?      & 0   		& \ldots	 	& 0 			\\
            0      & ?   		& \ldots   	& 0 			\\
						\vdots & \vdots & \ddots 		& \vdots  \\
            0      & 0   		& \ldots		& ?
           \end{array}
    \right) 
\]

Es decir, en la diagonal puede haber cualquier cosa, pero arriba y abajo de la diagonal debe haber 0s.
U es triangular inferior y triangular superior.

\item Matriz Inversible

A es inversible y su inversa se denota $A^{-1}$ sii $A^{-1} \times A = A \times A^{-1} = I $.

A tambi'en se dice no signular.

\item Matriz Traspuesta

$ (A^{t}_{ij}) = A_{ji}$

Propiedades de Matrices Traspuestas:

\begin{enumerate}

\item $ (A^{t})^{t} = A $
\item $ (A + B)^{t} = A^{t} + B^{t} $
\item $ (A \times B)^{t} = B^{t} \times A^{t} $
\item $ (A^{-1})^{t} = (A^{t})^{-1} $

\end{enumerate}

\item Determinante de una Matriz

det(A) = 0 $\Leftrightarrow$ A no es inversible $\Leftrightarrow$ A es singular.

\item Cantidad de soluciones de un sistema

Dado un sistema como Ax = b existen tres posibilidades:

\begin{itemize}

\item

El sistema tiene soluci'on 'unica $\Leftrightarrow$ det(A) $\neq$ 0 $\Leftrightarrow$ la matriz no es inversible.

\item

El sistema tiene infinitas soluciones $\rightarrow$ det(A) = 0 $\Leftrightarrow$ la matriz es inversible.

\item

El sistema tiene no tiene soluci'on $\rightarrow$ det(A) = 0 $\Leftrightarrow$ la matriz es inversible.

\end{itemize}

\item Combinaci'on lineal

Ax puede ser visto como una combinaci'on lineal entre las columnas de A y x.

\item Equivalencia entre Sistemas de Ecuaciones

Ax = b y Bx = c son equivalentes si tienen el mismo conjuntos de soluciones.

\item P Matriz de Permutaci'on

P es una matriz de permutaci'on si P es igual a la identidad pero con las filas cambiadas de lugar.

$PA = A' \Rightarrow A'$ tiene las mismas columnas que A pero permutadas como P.

$AP = A' \Rightarrow A''$ tiene las mismas filas que A pero permutadas como P.

\item Normas:

Definici'on. Para ser una norma $\left\| \cdot \right\| $ se debe cumplir:

\begin{itemize}

\item $\forall x \left\| x \right\| \geq 0$

\item $\left\| \alpha x \right\| = \left| \alpha \right| \left\|  x \right\|$

\item Vale la desigualdad triangular: $\left\| x + y \right\| \leq \left\| x \right\| + \left\|  y \right\|$

\end{itemize}

$\left\| x \right\|_{1} = \sum{x_{i}}$

$\left\| x \right\|_{2} = (\sum{x_{i}^{t}})^{1/2}$

$\left\| x \right\|_{p} = (\sum{\left|x_{i}\right|^{p}})^{1/p}$

$\left\| x \right\|_{\infty} = max \left|x_{i}\right|$

\item Q matriz ortogonal

$Q = (q_{1}, \ldots, q_{n}) \Rightarrow \left\| q_{i} \right\|_{2} = 1$    

$q_{i}^{t} q_{j} = 0 \forall i, j$

\item Matriz Elemental

\begin{enumerate}

\item $E = (e_{1},\ldots, \lambda e_{i}, \ldots, e_{n})$

\[
I = \left( \begin{array}{llll}
            1      & 0   		& \ldots	 	& 0 			\\
            0      & \lambda  		& \ldots   	& 0 			\\
						\vdots & \vdots & \ddots 		& \vdots  \\
            0      &  0  		& \ldots		& 1
           \end{array}
    \right) = (e_{1}, e_{2}, \ldots, e_{n})
\]

$E A = A'$ fila i multiplicada por $\lambda$
$A E = A''$ columna i multiplicada por $\lambda$

\item $E = (e_{1},\ldots, e_{s} \lambda e_{t}, \ldots, e_{n}) s \neq t$

$E A = A'$ igual a a salvo fila t = $\lambda$ fila s + fila t

\end{enumerate}

\item Generaci'on Sistemas Equivalentes

$Ax = b$ Para generar sismas de ecuaciones equivalentes podemos usar alguna de las siguientes:

$ P Ax = Pb $
$ E_{a} Ax = E_{a}b $
$ E_{b} Ax = E_{b}b $

\item Normas en $\Re^{n \times m}$

$\left\| A \right\|_{f} = (\sum{\sum{a_{ij}^{2}}})^{1/2}$

Norma Inducida:

$\left\| A \right\|_{i} = max \left|Ax\right|_{i}$ donde $x: \left\| x \right\|_{i} = 1$

\item N'umero de condici'on de A

A no singular, se define:

$K(A) = \left\| A \right\| \left\| A^{-1} \right\|$

\item Sea $\{ v^{1}, \hdots, v^{k} \}$ un conjunto de vectores. El conjunto es 
\texttt{linealmente independiente}, en tanto
\[
0 = \alpha_{1}v^{1} + \hdots + \alpha_{k}v^{k} 
\]
entonces $\alpha_{i} = 0 \forall i = 1,\hdots, k$. De lo contrario, el conjunto 
de vectores es \texttt{linealmente dependientes}.

\item Se dice que un conjunto de vectores $\{ v^{1}, \hdots, v^{k} \}$ es 
\texttt{ortogonal} si $(v^{i})^{t} v^{j} = 0$ para toda $i \neq j$. Adem'as, si
$(v^{i})^{t} v^{i} = 1$ para toda $i = 1, \hdots, n$ entonces se dice que el 
conjunto es \texttt{ortonormal}

\item Se dice que una matriz Q es \texttt{ortogonal} si $Q^{-1} = Q^{t}$.


\end{enumerate}
