% This file was converted to LaTeX by Writer2LaTeX ver. 0.5
% see http://www.hj-gym.dk/~hj/writer2latex for more info
\documentclass{article}
\usepackage[ascii]{inputenc}
\usepackage[T1]{fontenc}
\usepackage[spanish]{babel}
\usepackage{amsmath,amssymb,amsfonts,textcomp}
\usepackage{color}
\usepackage{array}
\usepackage{hhline}
\usepackage{hyperref}
\hypersetup{pdftex, colorlinks=true, linkcolor=blue, citecolor=blue, filecolor=blue, pagecolor=blue, urlcolor=blue, pdftitle=, pdfauthor=santi, pdfsubject=, pdfkeywords=}
% Outline numbering
\setcounter{secnumdepth}{0}
% List styles
\newcommand\liststyleLi{%
\renewcommand\theenumi{\arabic{enumi}}
\renewcommand\theenumii{\arabic{enumii}}
\renewcommand\theenumiii{\roman{enumiii}}
\renewcommand\theenumiv{\arabic{enumiv}}
\renewcommand\labelenumi{\theenumi.}
\renewcommand\labelenumii{\theenumii.}
\renewcommand\labelenumiii{\theenumiii)}
\renewcommand\labelenumiv{\theenumiv.}
}
\newcommand\liststyleLii{%
\renewcommand\labelitemi{{}--}
\renewcommand\labelitemii{{}--}
\renewcommand\labelitemiii{{}--}
\renewcommand\labelitemiv{{}--}
}
\newcommand\liststyleLiii{%
\renewcommand\labelitemi{{}--}
\renewcommand\labelitemii{{}--}
\renewcommand\labelitemiii{{}--}
\renewcommand\labelitemiv{{}--}
}
\newcommand\liststyleLiv{%
\renewcommand\theenumi{\arabic{enumi}}
\renewcommand\theenumii{\arabic{enumii}}
\renewcommand\theenumiii{\arabic{enumiii}}
\renewcommand\theenumiv{\arabic{enumiv}}
\renewcommand\labelenumi{\theenumi.}
\renewcommand\labelenumii{\theenumii.}
\renewcommand\labelenumiii{\theenumiii.}
\renewcommand\labelenumiv{\theenumiv.}
}
\newcommand\liststyleLv{%
\renewcommand\theenumi{\arabic{enumi}}
\renewcommand\theenumii{\arabic{enumii}}
\renewcommand\theenumiii{\arabic{enumiii}}
\renewcommand\theenumiv{\arabic{enumiv}}
\renewcommand\labelenumi{\theenumi)}
\renewcommand\labelenumii{\theenumii.}
\renewcommand\labelenumiii{\theenumiii.}
\renewcommand\labelenumiv{\theenumiv.}
}
\newcommand\liststyleLvi{%
\renewcommand\theenumi{\arabic{enumi}}
\renewcommand\theenumii{\arabic{enumii}}
\renewcommand\theenumiii{\arabic{enumiii}}
\renewcommand\theenumiv{\arabic{enumiv}}
\renewcommand\labelenumi{\theenumi)}
\renewcommand\labelenumii{\theenumii.}
\renewcommand\labelenumiii{\theenumiii.}
\renewcommand\labelenumiv{\theenumiv.}
}
% Page layout (geometry)
\setlength\paperwidth{21.001cm}
\setlength\paperheight{29.7cm}
\setlength\voffset{-1in}
\setlength\hoffset{-1in}
\setlength\topmargin{2cm}
\setlength\oddsidemargin{2cm}
\setlength\textheight{25.7cm}
\setlength\textwidth{17.001cm}
\setlength\footskip{0.0cm}
\setlength\headheight{0cm}
\setlength\headsep{0cm}
% Footnote rule
\setlength{\skip\footins}{0.119cm}
\renewcommand\footnoterule{\vspace*{-0.018cm}\setlength\leftskip{0pt}\setlength\rightskip{0pt plus 1fil}\noindent\textcolor{black}{\rule{0.25\columnwidth}{0.018cm}}\vspace*{0.101cm}}
% Pages styles
\makeatletter
\newcommand\ps@Standard{
  \renewcommand\@oddhead{}
  \renewcommand\@evenhead{}
  \renewcommand\@oddfoot{}
  \renewcommand\@evenfoot{}
  \renewcommand\thepage{\arabic{page}}
}
\makeatother
\pagestyle{Standard}
\title{}
\begin{document}
\section{Tema 1: El espacio vectorial.}

\bigskip


\bigskip

\subsection{{}- Espacio Vectorial (definici\'on).}

\bigskip

\textsf{Def}\textsf{. } $(V,+,\cdot \text{})$\textsf{ es un
}\textsf{espacio vectorial}\textsf{ si:}


\bigskip

 \textsf{a}) \ \ (\textit{V} , +\textsf{) }\textsf{es un grupo
abeliano:}:


\bigskip

  \textsf{a}1) \ L\textsf{ey de composici\'on interna:} 
$+:\mathit{VxV}{\rightarrow}V$

  \textsf{a2) \ Neutro:} $\exists \;0\;\in \;V\;\;/\;\;\forall \;v\;\in
\;V,\;0+v\;=\;v+0\;=\;v$ 

  \textsf{a3) \ Opuesto: } $\forall \;v\;\in \;V,\;\exists \;-v\;\in
\;V\;/\;\;v+(-v)\;=\;(-v)+v\;=\;0$

  \textsf{a4) \ Conmutativa:}  $\forall \;u,v\;\in \;V,\;\;u+v\;=\;v+u$


\bigskip


\bigskip

 \textsf{b}) \ L\textsf{ey de composici\'on externa:}


\bigskip

   $\text{}\cdot \text{}\hfill $\textbf{:} \  $\mathbb{R}xV\;\to \;V$

\[(\lambda ,v)\;\to \;\lambda \mathit{mult}v\]

\bigskip


\bigskip

\liststyleLi
\begin{enumerate}
\item[] \textsf{c}) \ \textsf{4 propiedades}: \  $\forall u,v\ \in
\ V;\ \forall \ \lambda ,\mu \ \in \ \mathbb{R}$


\bigskip

\begin{enumerate}
\item \begin{enumerate}
\item[] \textsf{c1) \ Distributiva: } $\lambda \cdot (u+v)\;=\;\lambda
\cdot u+\lambda \cdot v$ 
\end{enumerate}
\end{enumerate}
\end{enumerate}
\textsf{  c2) \ Distributiva: } $(\lambda +\mu )\cdot
u\;=\;\mathit{{\lambda}}\cdot u+\mu \cdot u$

\textsf{  c3) \ Asociativa (.):} $\lambda \cdot (\mu \cdot
u)\;=\;(\lambda \cdot \mu )\cdot u$

\textsf{  c4) \ Unidad: } $1\cdot u\;=\;u$


\bigskip


\bigskip

{\sffamily
Los elementos de $V$ se llaman vectores y los n\'umeros reales (de
$\mathbb{R}$) }

{\sffamily
se llaman escalares.}


\bigskip


\bigskip


\bigskip


\bigskip

\subsection[- Subespacio Vectorial.]{\sffamily\bfseries {}- Subespacio
Vectorial.}

\bigskip

\textsf{Def}\textsf{. Sea} $(V,+,\cdot \text{})$ \textsf{un espacio
vectorial, }

\textsf{\ \ \ \ \ \ \ Se dice que} $W$ \textsf{es un }\textsf{subespacio
vectorial}\textsf{ de} $V$ \textsf{si:}

\textsf{ a)} $W\subseteq \;V$

\textsf{ b)} $(W,+,\cdot \text{})$ \textsf{es un esp. Vect. (Con las
mismas operaciones que} $V$\textsf{).}


\bigskip

{\sffamily
Para ver si un subconjunto es un subesp vect. es m\'as pr\'actico usar
este test:}

\textsf{ } $W$ \textsf{es un subespacio de } $(V,+,\cdot
\text{})\ \Leftrightarrow :$\textsf{ }

\textsf{  a) } $W\neq \emptyset $

\textsf{  b) } $W\subseteq V$

\textsf{  c) \ } $\forall \ u,v\ \in \ V;\ \forall
\ \mathit{{\lambda}},\mathit{{\mu}}\ \in \ \mathbb{R}\ \to
\ \mathit{{\lambda}u}+\mathit{{\mu}v}\ \in \ V$


\bigskip

\textsf{Nota:}\textsf{ \ }\textsf{El vector nulo (0) pertenece a todos
los espacios y subesp. vectoriales.}


\bigskip

\subsubsection{{}- Propiedades.}

\bigskip

\textsf{Si } $V$\textsf{ es un espacio vectorial, y} $U_{1},\;U_{2}$
\textsf{son subesp. Vect. De} $V$\textsf{\textit{:}}


\bigskip

\textsf{\textit{ a) }} $U_{1}\;\cap \;U_{2}$ \textsf{\textit{es un
subespacio vectorial de}} $V$

\textsf{\textit{ b) }} $U_{1}\;\cup \;U_{2}$ \textsf{\textit{en general
no es subespacio vectorial de}} $V$

\textsf{\textit{ c) }} $U_{1}\;+\;U_{2}$ \textsf{\textit{es un
subespacio vectorial de}} $V$

\[[U_{1}+U_{2}\;=\;\{V/v\;=\;u_{1}+u_{2};\;\mathit{con}\;u_{1}\;\in
\;U_{1},\;u_{2}\;\in \;U_{2}\}]\]
\textsf{\textit{ d) \ F\'ormula de Grassman:}}
$\mathit{dim}U_{1}\;+\;\mathit{dimU}_{2}\;=\;\mathit{dim}(U_{1}+U_{2})\;+\;\mathit{dim}(U_{1}\cap
U_{2})$


\bigskip

\textsf{Def}\textsf{. } $W$ \textsf{Es suma directa de} $U_{1},\;U_{2}$
\textsf{si:}


\bigskip

\textsf{ a)} $W\;=\;U_{1}+U_{2}$

\textsf{ b)} $U_{1}\cap U_{2}\;=\;\{0\}$


\bigskip

\textsf{ En tal caso se denota: } $W\;=\;U_{1}\mathit{sumavect}\;U_{2}$


\bigskip

\textsf{Def}\textsf{. \ Sean} $U_{1},\;U_{2}$ \textsf{subespacios
vectoriales de} $V$\textsf{.}


\bigskip

\textsf{ } $U_{1},\;U_{2}$ \textsf{Son }\textsf{suplementarios}\textsf{
si} $U_{1}\mathit{sumavect}\;U_{2}\;=\;V$\textsf{(vease def.
Anterior).}

\subsubsection[- Ecuaciones Param\'etricas e Impl\'icitas de un Subesp.
Vect.]{\sffamily {}- Ecuaciones Param\'etricas e Impl\'icitas de un
Subesp. Vect.}
\liststyleLii
\begin{itemize}
\item[] 
\bigskip

\textsf{En} $\mathbb{R}^{4}$, \textsf{sea} $L$ \textsf{el subespacio
generado por} $\{(1,0,1,1),(1,0,0,0),(0,0,1,1)\}$.

\textsf{Lo anterior se denota por} $L\;=\;\langle
\;(1,0,1,1),\;(1,0,0,0),\;(0,0,1,1)\;\rangle $


\bigskip

 $\mathit{dim}L\;=\;2$\textsf{, porque en el sistema generador}
$\{(1,0,1,1),(1,0,0,0),(0,0,1,1)\}$

{\sffamily
hay 2 vectores que son linealmente independientes y otro que es}

\textsf{combinaci\'on lineal de los otros 2. }
$(\;\mathit{p.ej}:\;\;(1,0,1,1)\;=\;1\cdot (1,0,0,0)\;+\;1\cdot
(0,0,1,1)\;\;\;)$


\bigskip

\textsf{Entonces, el n{\textordmasculine} de ecuaciones impl\'icitas de}
$L$ \textsf{es:}
$\mathit{dim}\mathbb{R}^{4}-\mathit{dim}L\;=\;4-2\;=\;2$


\bigskip

\textsf{En general, n{\textordmasculine} de ecuaciones impl\'icitas de}
$L\;=\;\mathit{dim}V\;-\;\mathit{dim}L$

\textsf{para un subespacio vectorial} $L$ \textsf{de} $V$\textsf{.}
\end{itemize}

\bigskip


\bigskip

{\sffamily
En el ejemplo anterior:}


\bigskip

\[L\;=\;\langle \;(1,0,1,1),\;(1,0,0,0),\;(0,0,1,1)\;\rangle \]

\bigskip

\[\forall v\;\in \;L\;\to \;\;v\;=\;(x,y,z,t)\;=\;\lambda
(1,0,0,0)\;+\;\beta (0,0,1,1)\]

\bigskip

\textsf{\ \ \ \ Ecuaciones param\'etricas de} $L$\textsf{:}

\[x\;=\;\lambda \]
\[y\;=\;0\]
\[z\;=\;\beta \]
\[t\;=\;\beta \]

\bigskip

\textsf{\ \ \ \ Ecuaciones impl\'icitas o cartesianas de} $L$\textsf{:}

\[y\;=\;0\]
\[z\;=\;t\]

\bigskip

{\sffamily
 (Se eliminan los par\'ametros despej\'andolos y sustituy\'endolos).}


\bigskip


\bigskip

\subsection[- Sistemas Generadores, Linealmente Independientes y
Bases.]{{}- Sistemas Generadores, Linealmente Independientes y Bases.}

\bigskip

{\sffamily
Sea $V$ un espacio vectorial.}


\bigskip

{\sffamily
Def.  $G\;=\;\{v_{1},...,v_{n}\}$ es un sistema generador de $V$ si todo
vector de $V$}

{\sffamily
 se puede expresar como combinaci\'on lineal de los vectores de $G$, }

{\sffamily
 es decir:}


\bigskip

\[\forall v\;\in \;V\;\to \;\exists \;\lambda _{1},...,\lambda _{n}\;\in
\;\mathbb{R}\;/\;v\;=\;\lambda _{1}\mathit{mult}v_{1}+...+\lambda
_{n}\mathit{mult}v_{n}\]

\bigskip

{\sffamily
 Nota: Una combinaci\'on lineal es una suma de escalares por vectores.}


\bigskip


\bigskip

{\sffamily
Def. $L\;=\;\{v_{1},...,v_{r}\}$ es linealmente independiente o libre si
ning\'un vector de $L$}

{\sffamily
 se puede expresar como combinaci\'on lineal de los otros vectores de
$L$,}

{\sffamily
 es decir:}


\bigskip

{\sffamily
 Si  $\lambda _{1}\cdot \;v_{1}+...+\lambda _{r}\cdot
\;v_{r}\;=\;0\;\;\Rightarrow \;\;\lambda _{i}\;=\;0,\;\;\forall
\;i\;=\;1,...,r$}


\bigskip

{\sffamily
\ \ \ \ \ \ \  $L\;=\;\{v_{1},...,v_{r}\}$ es linealmente dependiente o
ligado si $L$ no es}

{\sffamily
 linealmente independiente, es decir, existe al menos un vector de $L$}

{\sffamily
 que se puede expresar como combinaci\'on lineal de los dem\'as,}

{\sffamily
 o lo que es lo mismo:}


\bigskip

{\sffamily
  $\exists \;\lambda _{1},...,\lambda _{r}\;\in
\;\mathbb{R}\;\;/\;\;\lambda _{1}\cdot \;v_{1}+...+\lambda _{r}\cdot
\;v_{r}\;=\;0$ \ \ (al menos  $\exists \;\lambda _{i}\;\neq \;0$)}


\bigskip


\bigskip

{\sffamily
Def.  $B\;=\;\{v_{1},...,v_{n}\}$ Es base de $V$ si:}


\bigskip

{\sffamily
 a) $B$ es sistema generador de $V$.}

{\sffamily
 b) $B$ es linealmente independiente.}


\bigskip


\bigskip

{\sffamily
Nota: Todas las bases posibles de un espacio vectorial tienen el mismo
n\'umero de elementos, al que se denomina  $\mathit{dimV}$ (dimensi\'on
de  $V$).}


\bigskip

\subsubsection[- Propiedades.]{{}- Propiedades.}

\bigskip

 a) Si \  $G\;=\;\{u_{1},...,u_{m}\}$ es un sistema generador de $V$, 

   $L\;=\;\{v_{1},...,v_{r}\}$ es \ un sistema libre y

   $B\;=\;\{w_{1},...,w_{n}\}$ es una base de V, 

  entonces: $r\leqslant n\leqslant m$


\bigskip

  \ \ \ Es decir, todo sistema linealmente independiente tiene un
n{\textordmasculine} de

  \ \ \ elementos menor o igual que la dimensi\'on del espacio vectorial


  \ \ \ y todo sistema generador tiene un n{\textordmasculine} de
elementos mayor o igual

  \ \ \ que la dimensi\'on del espacio vectorial.


\bigskip


\bigskip

 b) Si  $G\;=\;\{u_{1},...,u_{n}\}$ es un sistema generador de $V$ y 
$\mathit{dimV}\;=\;n$,

  \ \ \ entonces podemos eliminar vectores de $G$ hasta convertirlo en
una

  \ \ \ base de $V$(tenemos que conseguir quedarnos con
{\textquotedblleft}n{\textquotedblright} elementos que 

  \ \ \ sean sistema generador).


\bigskip


\bigskip

 c) Si  $L\;=\;\{v_{1},...,v_{r}\}$ es un sistema linealmente
independiente, entonces

  \ \ \ podemos a\~nadir vectores en $L$ hasta convertirlo en una base
de $V$

  \ \ \ (tenemos que conseguir quedarnos con
{\textquotedblleft}n{\textquotedblright} elementos que sean

  \ \ \ linealmente independientes).


\bigskip


\bigskip

 d) Si  $\mathit{dimV}\;=\;n$ y $G\;=\;\{u_{1},...,u_{n}\}$ es un
sistema generador de V,

  \ \ \ entonces $G$ es base de $V$.


\bigskip


\bigskip

 e) Si  $\mathit{dimV}\;=\;n$ y $L\;=\;\{v_{1},...,v_{n}\}$ es
linealmente independiente,

  \ \ \ entonces $L$ es base de $V$.


\bigskip


\bigskip

Nota: estas dos \'ultimas propiedades se utilizan mucho en la
pr\'actica.


\bigskip


\bigskip

\subsubsection[- Cambio de Base.]{{}- Cambio de Base.}

\bigskip

Si consideramos un espacio vectorial $V$, y en \'el 2 bases diferentes:
$B$ y $B'$, \ todo vector $v\;\in \;V$ podr\'a expresarse en
coordenadas respecto de $B$ y tambi\'en \ en coordenadas respecto de
$B'$(que en general no tienen porqu\'e coincidir).


\bigskip

Dado un vector  $v$ en coordenadas respecto de $B$, se denomina
{\textquotedblleft}cambiar de base{\textquotedblright} a calcular las
coordenadas de $v$ respecto de $B'$(o viceversa).


\bigskip

 Por ejemplo, en $\mathbb{R}^{3}$ podemos considerar:


\bigskip

  La base can\'onica  $B\;=\;\{(1,0,0),\;(0,1,0),\;(0,0,1)\}$, donde:

\[e_{1}\;=\;(1,0,0),\;\;e_{2}\;=\;(0,1,0),\;\;e_{3}\;=\;(0,0,1)\]

\bigskip

  La base  $B'\;=\;\{(2,0,0),\;(1,2,4),\;(1,-1,4)\}$, donde:

\[e_{1}'\;=\;(2,0,0),\;\;e_{2}'\;=\;(1,2,4),\;\;e_{3}'\;=\;(1,-1,4)\]

\bigskip

 {}- Cambio de base $B$ a $B'$:


\bigskip

  Sea  $v\;=\;(3,0,2)_{B}$, esto es,  $v\;=\;3\cdot e_{1}\;+\;0\cdot
e_{2}\;+\;2\cdot e_{3}$

  Para calcular las coordenadas de $v$ respecto de $B'$:


\bigskip

\[(3,0,2)_{B}\;=\;x_{1}\cdot \;e_{1}\;+\;x_{2}\cdot
\;e_{2}\;+\;x_{3}\cdot \;e_{3}\;=\;x_{1}\cdot \;(2,0,0)\;+\;x_{2}\cdot
\;(1,2,4)\;+\;x_{3}\cdot \;(1,-1,4)\]
\[\Rightarrow \;\;(3,0,2)\;=\;(2\cdot
x_{1}'\;+\;x_{2}'\;+\;x_{3}',\;\;2\cdot x_{2}'\;-\;x_{3}',\;\;4\cdot
x_{2}'\;+\;4\cdot x_{3}')\;\;\Rightarrow \]

\bigskip

\[3\;=\;2\cdot x_{1}'\;+\;x_{2}'\;+\;x_{3}'\]
\[0\;=\;2\cdot x_{2}'\;-\;x_{3}'\;\;\to \;\;x_{3}'\;=\;2\cdot x_{2}'\]
\[2\;=\;4\cdot x_{2}'\;+\;4\cdot x_{3}'\;\;\to \;\;1\;=\;2\cdot
x_{2}'\;+\;2\cdot x_{3}'\;\;\to \;\;1\;=\;2\cdot x_{2}'\;+\;4\cdot
x_{2}'\]
\[?\;\;1\;=\;6\cdot x_{2}'\;\;\to \;\;x_{2}'\;=\;\frac{1}{6}\;\;\to
\;\;x_{3}'\;=\;\frac{1}{3}\]

\bigskip

\[3\;=\;2\cdot x_{1}'\;+\;\frac{1}{6}\;+\;\frac{1}{3}\;\;\to
\;\;18\;=\;12\cdot x_{1}'\;+\;1\;+\;2\]
\[?\;\;15\;=\;12\cdot x_{1}'\;\;\to \;\;x_{1}'\;=\;\frac{5}{4}\]

\bigskip

  Luego: 
$(3,0,2)_{B}\;=\;\left(\frac{5}{4},\frac{1}{6},\frac{1}{3}\right)_{B'}$

\liststyleLiii
\begin{itemize}
\item[] {}- Cambio de base $B'$ a $B$:


\bigskip
\end{itemize}
  \ Sea  $v\;=\;(2,0,1)_{B'}$, es decir: 
$v\;=\;2\mathit{mult}e_{1}'\;+\;1\mathit{mult}e_{3}'$

  \ Las coordenadas de $v$ respecto de $B$:


\bigskip

\[(2,0,1)_{B'}\;=\;x_{1}\cdot \;e_{1}\;+\;x_{2}\cdot
\;e_{2}\;+\;x_{3}\cdot \;e_{3}\;=\;x_{1}\cdot \;(1,0,0)\;+\;x_{2}\cdot
\;(0,1,0)\;+\;x_{3}\cdot \;(0,0,1)\;=\;(x_{1},x_{2},x_{3})\]

\bigskip

\[2\cdot \;(2,0,0)\;+\;1\cdot
\;(1,-1,4)\;=\;(4,0,0)\;+\;(1,-1,4)\;=\;(5,-1,4)\;\;\Rightarrow
\;\;x_{1}\;=\;5,\;x_{2}\;=\;-1,\;x_{3}\;=\;4\]

\bigskip

  \ Luego: $(2,0,1)_{B'}\;=\;(5,-1,4)_{B}$


\bigskip


\bigskip


\bigskip

Hay un m\'etodo que simplifica el c\'alculo de cambio de base, es decir,
c\'omo calcular las coordenadas de un vector respecto de una base,
conociendo sus coordenadas respecto de otra base. 


\bigskip

Se trata de la siguiente ecuaci\'on matricial:


\bigskip

 Sea $B\;=\;\{e_{1},...,e_{n}\}$ y $B'\;=\;\{e_{1}',...,e_{n}'\}$ dos
bases de un esp. vectorial  $V$

 Entonces, para el cambio de base de $B'$ a $B$:


\bigskip

\[\ \ \ \ \ \ \ \overbrace{\downarrow
}^{e_{1}'\;\mathit{en}\;B\;(\mathit{asterisco})}\ \ \ \ \ \ \overbrace{\downarrow
}^{e_{n}'\;\mathit{en}\;B\;(\mathit{asterisco})}\;\;\]
\[\underbrace{\left(\begin{matrix}x_{1}\\.\\.\\.\\x_{n}\end{matrix}\right)_{B}}_{A}\;=\;\;\;\;\underbrace{\left(\begin{matrix}a_{11}&.&.&.&a_{1n}\\.&.&.&.&.\\.&.&.&.&.\\.&.&.&.&.\\a_{\mathit{n1}}&.&.&.&a_{\mathit{nn}}\end{matrix}\right)_{B'\to
\;B}}_{B}\;\mathit{mult}\;\;\;\;\;\;\;\underbrace{\left(\begin{matrix}x_{1}'\\.\\.\\.\\x_{n}'\end{matrix}\right)_{B'}}_{C}\]

\bigskip


\bigskip

\[A\;=\;\mathit{Coordenadas}\;\mathit{del}\;\mathit{vector}\;\mathit{respecto}\;\mathit{de}B\]
\[B\;=\;\mathit{Matriz}\;\mathit{cambio}\;\mathit{de}\;\mathit{base}\;\mathit{de}B'aB\]
\[C\;=\;\mathit{Coordenadas}\;\mathit{del}\;\mathit{vector}\;\mathit{respecto}\;\mathit{de}B'\]
\[\mathit{asterisco}\mathit{La}\;\mathit{colunma}\;\text{i}\;\mathit{est\text{\'a}}\;\mathit{formada}\;\mathit{por}\;\mathit{las}\;\mathit{coordenadas}\;\mathit{del}\;\mathit{vector}\;e_{i}'\;\mathit{respecto}\;\mathit{de}B\]
 Para el cambio de coordenadas de la base $B$ a  $B'$:


\bigskip

\[\ \ \ \ \ \ \ \ \ \overbrace{\downarrow
}^{e_{1}\;\mathit{en}\;B'}\ \ \ \ \ \ \ \ \overbrace{\downarrow
}^{e_{n}\;\mathit{en}\;B'}\]
\[\left(\begin{matrix}x'_{1}\\.\\.\\.\\x'_{n}\end{matrix}\right)_{B'}\;=\;\;\;\;\left(\begin{matrix}b_{11}&.&.&.&b_{1n}\\.&.&.&.&.\\.&.&.&.&.\\.&.&.&.&.\\b_{\mathit{n1}}&.&.&.&b_{\mathit{nn}}\end{matrix}\right)_{B'\;\to
\;B}\;\mathit{mult}\;\;\;\;\;\;\;\left(\begin{matrix}x_{1}\\.\\.\\.\\x_{n}\end{matrix}\right)_{B}\]

\bigskip


\bigskip

Nota: Las matrices anteriores son inversibles y adem\'as una es la
inversa de la otra.


\bigskip

\subsubsection{{}- C\'omo Calcular la Base de un (Sub-)Espacio
Vectorial.}

\bigskip

A partir de la definici\'on conjuntista de un espacio vectorial, se
puede calcular una base. Tan s\'olo hay que expresar un vector
gen\'erico como combinaci\'on lineal de ciertos vectores fijos.

Para ello, hay que {\textquotedblleft}transformar{\textquotedblright} la
expresi\'on gen\'erica de un vector como descomposici\'on en suma de
vectores y luego, {\textquotedblleft}sacar{\textquotedblright}
escalares. Veamos ejemplos:


\bigskip

1) Calcular una base del espacio vectorial de los polinomios de
$\mathit{grado}\leqslant 2$,

\ \ \ \ la definici\'on conjuntista de este espacio es:


\bigskip

\liststyleLiv
\begin{enumerate}
\item[] \[P_{2}\;=\;\{a_{0}\;+\;a_{1}\cdot x\;+\;a_{2}\cdot
x^2\;\;/\;\;i\;=\;0,\;1,\;2\;\;;\;\;a_{i}\;\in \;\mathbb{R}\}\]

\bigskip
\end{enumerate}
\ \ \ \ A partir de esta definici\'on, ya tenemos la expresi\'on
gen\'erica de un vector p

\ \ \ \ como combinaci\'on lineal de de ciertos vectores fijos. Tomando:


\bigskip

\[e_{1}\;=\;1\;\;\;(\mathit{polinomio}\;1,\;\mathit{t\text{\'e}rmino}\;\mathit{independiente})\]
\[e_{2}\;=\;x\]
\[e_{3}\;=\;x^2\]

\bigskip

\ \ \ \ Tenemos que  $B\;=\;\{e_{1},\;e_{2},\;e_{3}\}$ es una base de
$P_{2}$. Por tanto  $\mathit{dimP}_{2}\;=\;3$.


\bigskip

\ \ \ \ El polinomio  $p\;=\;5\;-\;3x\;+\;8x^2$ tiene de coordenadas: 
$(5,\;-3,\;8)_{B}$

2) Calcular una base del espacio de matrices de orden 3, triangulares
(superior)

\ \ \ \ La definici\'on de este espacio es:


\bigskip

\[M\;=\;\left\{\;A\;=\;\left(\begin{matrix}a&b&c\\0&d&e\\0&0&f\end{matrix}\right)\;\;\;/\;\;a,\;b,\;c,\;d,\;e,\;f\;\;\in
\;\;\mathbb{R}\;\right\}\]

\bigskip


\bigskip

\ \ \ \ Calculemos una base:


\bigskip

\[M\;=\;\left\{\;A\;=\;\left(\begin{matrix}a&0&0\\0&0&0\\0&0&0\end{matrix}\right)\;+\;\left(\begin{matrix}0&b&0\\0&0&0\\0&0&0\end{matrix}\right)\;+\;\left(\begin{matrix}0&0&c\\0&0&0\\0&0&0\end{matrix}\right)\;+\;\left(\begin{matrix}0&0&0\\0&d&0\\0&0&0\end{matrix}\right)\;+\;\left(\begin{matrix}0&0&0\\0&0&e\\0&0&0\end{matrix}\right)\;+\;\left(\begin{matrix}0&0&0\\0&0&0\\0&0&f\end{matrix}\right)\;\;\right\}\]

\bigskip

\[\;=\;\left\{\;A\;=\;a\mathit{mult}\left(\begin{matrix}1&0&0\\0&0&0\\0&0&0\end{matrix}\right)\;+\;b\mathit{mult}\left(\begin{matrix}0&1&0\\0&0&0\\0&0&0\end{matrix}\right)\;+\;c\mathit{mult}\left(\begin{matrix}0&0&1\\0&0&0\\0&0&0\end{matrix}\right)\;+\;d\mathit{mult}\left(\begin{matrix}0&0&0\\0&1&0\\0&0&0\end{matrix}\right)\;+\;e\mathit{mult}\left(\begin{matrix}0&0&0\\0&0&1\\0&0&0\end{matrix}\right)\;+\;f\mathit{mult}\left(\begin{matrix}0&0&0\\0&0&0\\0&0&1\end{matrix}\right)\;\;\right\}\]

\bigskip


\bigskip

Tomando:


\bigskip

\[e_{1}\;=\;\left(\begin{matrix}1&0&0\\0&0&0\\0&0&0\end{matrix}\right),\;e_{2}\;=\;\left(\begin{matrix}0&1&0\\0&0&0\\0&0&0\end{matrix}\right),\;e_{3}\;=\;\left(\begin{matrix}0&0&1\\0&0&0\\0&0&0\end{matrix}\right),\;e_{4}\;=\;\left(\begin{matrix}0&0&0\\0&1&0\\0&0&0\end{matrix}\right),\;e_{5}\;=\;\left(\begin{matrix}0&0&0\\0&0&1\\0&0&0\end{matrix}\right)\;y\;e_{6}\;=\;\left(\begin{matrix}0&0&0\\0&0&0\\0&0&1\end{matrix}\right)\]

\bigskip

\liststyleLv
\begin{enumerate}
\item[] Obtenemos una base  $B\;=\;\{e_{1},\;e_{2},..,\;e_{6}\}$ de $M$
\ \ \ (Nota: $\mathit{dimM}\;=\;6$)
\end{enumerate}

\bigskip


\bigskip


\bigskip

3) Calcular una base del subespacio 
$S\;=\;\{\;(0,\;x,y)\;\;/\;\;x,y\;\;\in
\;\;\mathbb{R}\;\}\;\mathit{de}\;\mathbb{R}^3$


\bigskip

\[S\;=\;\{\;(0,\;x,y)\;\;/\;\;x,y\;\;\in
\;\;\mathbb{R}\;\}\;=\;\{\;(0,\;x,\;0)\;+\;(0,\;0\;y)\;\;x,y\;\;\in
\;\;\mathbb{R}\;\}\;\]

\bigskip

\[\;=\;\{\;x\cdot (0,\;1,\;0)\;+\;y\cdot (0,\;0,\;1)\;\;/\;\;x,y\;\;\in
\;\;\mathbb{R}\;\}\]

\bigskip


\bigskip

 Base de $S\;=\;\{\;(0,\;1,\;0),\;(0,\;0,\;1)\;\}$

4) Calcular una base del subespacio 
$T\;=\;\left\{\;\left(\begin{matrix}a&b+c\\-b+c&a\end{matrix}\right)\;\;/\;\;a,b,c\;\;\in
\;\;\mathbb{R}\;\right\}\;\subseteq \;M_{2}\mathit{x2}$

\liststyleLvi
\begin{enumerate}
\item[] 
\bigskip
\end{enumerate}
\[T\;=\;\left\{\;\left(\begin{matrix}a&0\\0&a\end{matrix}\right)\;+\;\left(\begin{matrix}0&b\\-b&0\end{matrix}\right)\;+\;\left(\begin{matrix}0&c\\c&0\end{matrix}\right)\;\;/\;\;a,b,c\;\;\in
\;\;\mathbb{R}\;\right\}\]

\bigskip

\[\;=\;\left\{\;a\cdot
\left(\begin{matrix}1&0\\0&1\end{matrix}\right)\;+\;b\cdot
\left(\begin{matrix}0&1\\-1&0\end{matrix}\right)\;+\;c\cdot
\left(\begin{matrix}0&1\\1&0\end{matrix}\right)\;\;/\;\;a,b,c\;\;\in
\;\;\mathbb{R}\;\right\}\]

\bigskip


\bigskip

 Base de
$T\;=\;\left\{\;\left(\begin{matrix}1&0\\0&1\end{matrix}\right),\;\left(\begin{matrix}0&1\\-1&0\end{matrix}\right),\;\left(\begin{matrix}0&1\\1&0\end{matrix}\right)\;\right\}$


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\section[Tema 2: Aplicaciones Lineales y Matrices.]{Tema 2: Aplicaciones
Lineales y Matrices.}

\bigskip


\bigskip

Def. \ Sean $V,W$ espacios vectoriales y $f:V\;\to \;W$ una
aplicaci\'on(*1).


\bigskip

 Se dice que $f$ es lineal si:


\bigskip

\[f(\lambda \cdot u\;+\;\mu \cdot v)\;=\;\lambda \cdot f(u)\;+\;\mu
\cdot f(v)\;,\;\;\forall \;\;\lambda ,\mu \;\;\in
\;\;\mathbb{R};\;\;\forall \;\;u,v\;\;\in \;\;V\]

\bigskip


\bigskip


\bigskip

Nota: La condici\'on anterior hace que funcionen bi\'en ciertas
propiedades de espacio vectorial, al pasarlas a trav\'es de la
aplicaci\'on, p.ej:


\bigskip

 a)  $f(0)\;=\;0$


\bigskip

 b)  $f(-u)\;=\;-f(u),\;\;\forall \;\;u\;\;\in \;\;V$


\bigskip

 c) \ \ Si $G\;=\;\{u_{1},...,u_{n}\}$ es un sistema generador de
$V\;\;\Rightarrow $

   $f(G)\;=\;\{f(u_{1}),...,f(u_{n})\}$ es un sistema generador de
$f(v)$


\bigskip

 d) \ \ Lo anterior no se cumple para sistemas linealmente
independientes

  \ \ \ \ \ (y por tanto, tampoco para bases), a no ser que sea sea
inyectiva(*2).


\bigskip


\bigskip


\bigskip


\bigskip

(*1): Definici\'on de aplicaci\'on:  $f:V\;\to \;W$ es aplicaci\'on si
se cumple:

  a)  $\forall \;\;v\;\;\in \;\;V\;\;\to \;\;f(v)\;\;\in \;\;W$

  b) Si  $v\;=\;v'\;\;\in \;\;V\;\;\Rightarrow \;\;f(v)\;=f(v')$


\bigskip


\bigskip

(*2): $f$ es inyectiva si $\mathit{Kerf}\;=\;\{0\}$

 En teor\'ia de conjuntos una aplicaci\'on $f:X\;\;\to \;\;Y$ es
inyectiva si:

   $f(x_{1})\;=f(x_{2})\;\;\Rightarrow \;\;x_{1}=\;x_{2}$ esto es:

 Todo elemento de Y puede ser imagen a lo sumo, de un elemento de X

Hay 2 subespacios vectoriales significativos asociados a toda
aplicaci\'on lineal:


\bigskip


\bigskip

 {}- NUCLEO de una aplicaci\'on lineal: $\mathit{Kerf}$, tambi\'en
denotado por $\mathit{Nuc}(f)$


\bigskip

   $\mathit{Kerf}\;=\;\{v\;\;\in \;\;V\;\;/\;\;f(v)\;=\;0\}$ es un
subespacio vectorial de $V$


\bigskip


\bigskip

  Nota: $\mathit{Kerf}\;=\;f^{-1}(0)$, es decir, el nucleo de $f$ lo
forman aquellos

   vectores de $V$ que tienen como imagen al 0.


\bigskip

   Por tanto siempre se tiene que: $0\;\in \;\mathit{Kerf}$.


\bigskip


\bigskip

  Def.  $f$ es inyectiva si $\mathit{Kerf}\;=\;\{0\}$


\bigskip


\bigskip


\bigskip

 {}- IMAGEN de una aplicaci\'on lineal: \  $\mathit{Imf}$


\bigskip

   $\mathit{Imf}\;=\;\{f(v)\;\;/\;\;v\;\;\in \;\;V\}$ es un subespacio
vectorial de $W$


\bigskip


\bigskip

  Nota: $\mathit{Imf}\;=\;f(V)$


\bigskip

  Propiedad: Si $f:V\;\to \;W$ es una aplicaci\'on lineal, entonces:


\bigskip

\[\mathit{dimV}\;=\;\mathit{dim}(\mathit{Imf})\;+\;\mathit{dim}(\mathit{Kerf})\]

\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\subsubsection[- Rango de una Aplicaci\'on Lineal:]{{}- Rango de una
Aplicaci\'on Lineal:}

\bigskip

\[\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \overbrace{\downarrow
}^{f(e_{1})}\ \ \ \ \ \ \ \;\overbrace{\downarrow }^{f(e_{n})}\]
\[\mathit{rang}(f)\;=\;\mathit{rang}\;\left(\begin{matrix}\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\end{matrix}\right)\]

\bigskip

 Es decir, el rango de una ap. lineal $f$ es el rango 

 de cualquier matriz asociada a $f$. 

 Que coincide con el n{\textordmasculine} de filas (o columnas)
linealmente independientes.


\bigskip

\subsection{{}-Representaci\'on de una Aplicaci\'on Lineal por
Matrices.}

\bigskip

 Sea  $f:V\;\to \;W$ una ap. lineal, $\mathit{dimV}\;=\;n$,
$\mathit{dimW}\;=\;m$

 y $B\;=\;\{e_{1},...,e_{n}\}$ una base (cualquiera) de $V$,

 y $B_{0}$ una base de $w$.


\bigskip

 Sea $x\;=\;(x_{1},...,x_{n})_{B}$ un vector cualquiera de $V$ y
denotamos por

  $Y\;=\;(y_{1},...,y_{m})_{B_{0}}$ su imagen a trav\'es de $f$, esto
es, $Y\;=\;f(x)$


\bigskip

 Entonces:

\[\ \ \ \ \ \ \ \ \overbrace{\downarrow
}^{f(e_{1})}\ \ \ \ \ \ \ \ \ \ \ \overbrace{\downarrow }^{f(e_{n})}\]
\[\left(\begin{matrix}y_{1}\\.\\.\\.\\y_{n}\end{matrix}\right)\;=\;\;\;\;\underbrace{\left(\begin{matrix}a_{11}&.&.&.&a_{1n}\\.&.&.&.&.\\.&.&.&.&.\\.&.&.&.&.\\a_{\mathit{m1}}&.&.&.&a_{\mathit{mn}}\end{matrix}\right)}_{A}\;\;\;\;\;\mathit{mult}\;\;\;\;\;\left(\begin{matrix}x_{1}\\.\\.\\.\\x_{n}\end{matrix}\right)\]

\bigskip

\[A:\;\mathit{Matriz}\;\mathit{asociada}\;a\;f\;(\mathit{respecto}\;\mathit{de}\;\mathit{las}\;\mathit{bases}\;B,\;B_{0})\]

\bigskip

 Nota: Si $\mathit{dimV}\;=\;n$ y $\mathit{dimW}\;=\;m$, entonces
$A\;\in
\;M_{\mathit{mxn}}\;\;(\mathit{matrices}\mathit{de}\mathit{orden}\;mxn)$

  Si no se especifican las bases se puede asumir las bases can\'onicas.

Ejemplo:


\bigskip

Sea la aplicaci\'on lineal \ \ \  $f:\;\mathbb{R}^{3}\;\;\to
\;\;\mathbb{R}^{2}$

\[(x,y,x)\;\;\to \;\;f(x,y,z)\;:=\;(x+y-z)\]
y las bases:

\[B\;=\;\{\overbrace{(2,0,0)}^{e_{1}},\;\overbrace{(1,2,4)}^{e_{2}},\;\overbrace{(1,-1,4)}^{e_{3}}\}\;\mathit{de}\;\mathbb{R}^{3}\;\;y\;\;B_{0}\;=\;\{\overbrace{(3,1)}^{4_{1}},\;\overbrace{(1,1)}^{4_{2}}\}\;\mathit{de}\;\mathbb{R}^{2}\]

\bigskip

Calculemos la matriz asociada a $f$ respecto de $B$ y $B_{0}$:


\bigskip

\[\ \ \ \ \;\;\overbrace{\downarrow
}^{f(e_{1})_{B_{0}}}\;\overbrace{\downarrow
}^{f(e_{2})_{B_{0}}}\;\overbrace{\downarrow }^{f(e_{1})_{B_{0}}}\]
\[A\;=\;\left(\begin{matrix}\;\;\;.\;\;\;&\;\;\;.\;\;\;&\;\;\;.\;\;\;\\\;\;\;.\;\;\;&\;\;\;.\;\;\;&\;\;\;.\;\;\;\\\;\;\;.\;\;\;&\;\;\;.\;\;\;&\;\;\;.\;\;\;\end{matrix}\right)\;\;\;\in
\;\;\;M_{2\mathit{x3}}\]

\bigskip

  $f(e_{1})\;=\;f(2,0,0)\;=\;(2,0)\;\;\to \;\;$ hay que expresarlo en la
base  $B_{0}$:

\[(2,0)\;=\;(x_{1},x_{2})_{B_{0}}\;=\;x_{1}\cdot (3,1)\;+\;x_{2}\cdot
(1,1)\]
\[2\;=\;3\cdot x_{1}\;+\;x_{2}\;\;\to \;\;2\;=\;2\cdot x_{1}\;\;\to
\;\;x_{1}\;=\;1\]
    $0\;=\;x_{1}+\;x_{2}\;\;\;\;\;\;\to
\;\;\;\;\;x_{2}\;=\;-x_{1}\;\;\to \;\;x_{2}\;=\;-1$  Luego,
$f(e_{1})\;=\;(1,-1)_{B_{0}}$


\bigskip

\[f(e_{2})\;=\;f(1,2,4)\;=\;(1+2-4,\;0)\;=\;(-1,0)\;=\;(x_{1},x_{2})_{B_{0}}\;=\;x_{1}\mathit{mult}(3,1)\;+\;x_{2}\mathit{mult}(1,1)\]
\[-1\;=\;3\cdot x_{1}\;+\;x_{2}\;\;\to \;\;-1\;=\;2\cdot x_{1}\;\;\to
\;\;x_{1}\;=\;-\frac{1}{2}\]
   \  $0\;=\;x_{1}+\;x_{2}\;\;\;\;\;\;\;\;\;\to
\;\;\;\;\;\;\;\;x_{2}\;=\;-x_{1}\;\;\;\;\to
\;\;\;\;x_{2}\;=\;\frac{1}{2}$  Luego,
$f(e_{2})\;=\;\left(-{}\frac{1}{2},\frac{1}{2}\;\right)_{B_{0}}$


\bigskip

\[f(e_{3})\;=\;f(1,-1,4)\;=\;(1-1-4,\;0)\;=\;(-4,0)\;=\;(x_{1},x_{2})_{B_{0}}\;=\;x_{1}\cdot
(3,1)\;+\;x_{2}\cdot (1,1)\]
\[-4\;=\;3\cdot x_{1}\;+\;x_{2}\;\;\to \;\;-4\;=\;2\cdot x_{1}\;\;\to
\;\;x_{1}\;=\;-2\]
   \ \  $0\;=\;x_{1}+\;x_{2}\;\;\;\;\;\;\;\;\;\;\to
\;\;\;\;\;\;\;\;x_{2}\;=\;-x_{1}\;\;\;\to \;\;\;x_{2}\;=\;2$  Luego,
$f(e_{3})\;=\;(-2,2)_{B_{0}}$


\bigskip


\bigskip

Por tanto, \      \ \ \ \ \ \ \ \ \ \ \ \ y la representaci\'on
matricial de $f$ es:


$A\;=\;\left(\begin{matrix}\;\;1&-{}\frac{1}{2}&-2\;\;\\\;\;-1&\frac{1}{2}&2\;\;\end{matrix}\right)$
   
$\left(\begin{matrix}\;y_{1}\\\;y_{2}\;\;\end{matrix}\right)\;=\;\left(\begin{matrix}\;\;1&-{}\frac{1}{2}&-2\;\;\\\;\;-1&\frac{1}{2}&2\;\;\end{matrix}\right)\;\;\mathit{mult}\;\;\left(\begin{matrix}\;x_{1}\\\;x_{2}\;\;\end{matrix}\right)$

Dada una aplicaci\'on lineal $f$, hay un m\'etodo para calcular la
matriz asociada a $f$ respecto de unas bases dadas conociendo otra
matriz asociada a $f$(respecto de otras bases):


\bigskip

     $f:V$    \ \ \   \ \ \  $W$

[Warning: Draw object ignored][Warning: Draw object ignored] 
$\begin{gathered}P:\;\mathit{Matriz}\mathit{cambio}\\\mathit{de}\mathit{base}\mathit{de}B'aB\end{gathered}$
 $\left\{a\right\}$
$\begin{gathered}\mathit{Bases}\\\mathit{de}V\end{gathered}$ 
$\begin{gathered}\mathit{Bases}\\\mathit{de}W\end{gathered}$
$\begin{matrix}B_{0}\\B_{0}'\end{matrix}$ 
$\begin{gathered}Q:\;\mathit{Matriz}\mathit{cambio}\\\mathit{de}\mathit{base}\mathit{de}B_{0}'a\;B_{0}\end{gathered}$


\bigskip


\bigskip


\bigskip

 Por ser $P$ la matriz cambio de base \ \  $B'\;\;\to
\;\;B\;\;\;\Rightarrow \;\;\;X_{B}\;=\;P\cdot X_{B'}$


\bigskip

 Por ser $Q$ la matriz cambio de base  $B_{0}'\;\;\to
\;\;B_{0}\;\;\;\Rightarrow \;\;\;Y_{B_{0}}\;=\;Q\cdot Y_{B_{0}'}$


\bigskip


\bigskip

 Si denotamos por $A$ la matriz asociada a $f$ respecto de $B$ y
$B_{0}$:


\bigskip

\[f(X)\;=\;A\cdot X\]

\bigskip

 Y por C la matriz asociada a $f$ respecto de $B'$ y $B_{0}'$:


\bigskip

\[f(X')\;=\;C\cdot X'\]

\bigskip

 Entonces:


\bigskip

\[C\;=\;Q^{-1}\cdot A\cdot P\]

\bigskip


\bigskip


\bigskip

  Nota: $Q^{-1}$ es la inversa de $Q$, que coincide con 

   la matriz cambio de base de $B_{0}$ a $B_{0}'$


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

Ejemplo: Tomando  \ \ \ \ \ \ \  $f:\;\mathbb{R}^{3}$   \ \ \ \ \ \ 
$\mathbb{R}^{2}\;;\;\;f(x,y,z)\;=\;(x+y-z,0)$

 
$\begin{gathered}\{\;(1,0,0),(0,1,0),(0,0,1)\;\}\;=\;B\\{}\\\{\;(2,0,0),(1,2,4),(1,-1,4)\;\}\;=\;B'\end{gathered}$
$\begin{gathered}\mathit{Bases}\mathit{Can\text{\'o}nicas}\\{}\end{gathered}$
$\begin{gathered}B_{0}\;=\;\{(1,0),\;(0,1)\}\\{}\\B_{0}\;=\;\{(3,1),(1,1)\}\end{gathered}$



\bigskip


\bigskip

 
$P\;=\;\left(\begin{matrix}\;\;2&1&1\;\;\\\;\;0&2&-1\;\;\\\;\;0&4&4\;\;\end{matrix}\right)_{B'\;\;\to
\;\;B}$\texttt{ }
$A\;=\;\left(\begin{matrix}\;\;1&1&-1\;\;\\\;\;0&0&0\;\;\end{matrix}\right)$\texttt{
 }
$Q^{-1}\;=\;\left(\begin{matrix}\;\;\;\frac{1}{2}&-{}\frac{1}{2}\;\;\\\;-\frac{1}{2}&\;\;\frac{3}{2}\;\;\end{matrix}\right)_{B_{0}\;\;\to
\;\;B_{0}'}$


\bigskip


\bigskip

Entonces:   $C\;=\;Q^{-1}\cdot A\cdot
P\;=\;\left(\begin{matrix}\;\;\;\frac{1}{2}&-{}\frac{1}{2}\;\;\\\;-\frac{1}{2}&\;\;\frac{3}{2}\;\;\end{matrix}\right)\;\cdot
\;\left(\begin{matrix}\;\;1&1&-1\;\;\\\;\;0&0&0\;\;\end{matrix}\right)\;\cdot
\;\left(\begin{matrix}\;\;2&1&1\;\;\\\;\;0&2&-1\;\;\\\;\;0&4&4\;\;\end{matrix}\right)\;\;\Rightarrow
$


\bigskip

\[\Rightarrow
\;\;C\;=\;\left(\begin{matrix}\;\;\;\frac{1}{2}&\frac{1}{2}&-{}\frac{1}{2}\;\;\\\;-\frac{1}{2}&-{}\frac{1}{2}&\;\;\frac{1}{2}\;\;\end{matrix}\right)\;\cdot
\;\left(\begin{matrix}\;\;2&1&1\;\;\\\;\;0&2&-1\;\;\\\;\;0&4&4\;\;\end{matrix}\right)\;\;=\;\;\left(\begin{matrix}\;\;1&-{}\frac{1}{2}&-2\;\;\\-1&\;\;\frac{1}{2}&2\;\;\end{matrix}\right)\]

\bigskip


\bigskip

Def: 

 {}- Un endomorfismo es una aplicaci\'on lineal de un espacio vectorial 

 en s\'i mismo  $f:V\;\;\to \;\;V$


\bigskip

 p.ej:   $f:\;\mathbb{R}^{2}\;\;\to \;\;\mathbb{R}^{2}$

\[(x,y)\;\;\to \;\;f(x,y)\;=\;(3x+y,5y)\]

\bigskip


\bigskip

 {}- Un isomorfismo es una aplicaci\'on lineal  $f:V\;\;\to \;\;W$ tal
que

  \  $f$ es biyectiva, esto es:


\bigskip

   a) f es inyectiva  $(\;\mathit{Kerf}\;=\;\{0\}\;\;\Leftrightarrow
\;\;f(v)\;=\;f(v')\;\;\Rightarrow \;\;v\;=\;v'\;)$


\bigskip

   b) f es sobreyectiva  $(\;\forall \;w\;\;\in \;\;W,\;\;\exists
\;v\;\;\in \;\;V\;\;/\;\;f(v)\;=\;w\;)$, osea:

   \ \ \ \ \ \ \ \ \ \ todos los vectores de $W$ son imagen de alg\'un
vector de $V$

\subsection[Matrices:]{Matrices:}

\bigskip

{}- El conjunto de matrices de tama\~no $mxn$ es:


\bigskip

\[M_{mxn}\;=\;\left\{\;A\;=\;\left(\begin{matrix}\;\;a_{11}&.&.&.&a_{1n}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;a_{\mathit{m1}}&.&.&.&a_{\mathit{mn}}\;\;\end{matrix}\right)\;\;/\;\;a_{\mathit{ij}}\;\;\in
\;\;\mathbb{R},\;\forall \;i,j\;\right\}\]

\bigskip

Es, adem\'as, un espacio vectorial y 
$\mathit{dimM}_{mxn}\;=\;m\mathit{mult}n$


\bigskip


\bigskip

La base can\'onica de $M_{mxn}$ es:


\bigskip

\[B\;=\;\left(\begin{matrix}\;\;1&0&.&.&0\;\\\;.&.&.&.&.\;\\\;.&.&.&.&.\;\\\;0&0&.&.&0\;\end{matrix}\right),\;\left(\begin{matrix}\;\;0&1&.&.&0\;\\\;.&.&.&.&.\;\\\;.&.&.&.&.\;\\\;0&0&.&.&0\;\end{matrix}\right),..,\left(\begin{matrix}\;\;0&0&.&.&1\;\\\;0&0&.&.&0\;\\\;.&.&.&.&.\;\\\;0&0&.&.&0\;\end{matrix}\right),\;\left(\begin{matrix}\;\;0&0&.&.&0\;\\\;1&0&.&.&0\;\\\;.&.&.&.&.\;\\\;0&0&.&.&0\;\end{matrix}\right),..,\left(\begin{matrix}\;\;0&0&.&.&0\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;0&0&.&.&1\;\;\end{matrix}\right)\]

\bigskip


\bigskip


\bigskip

{}- El espacio vectorial de matrices cuadradas de tama\~no $nxn$ es:


\bigskip

\[M_{nxn}\;=\;\left\{\;A\;=\;\left(\begin{matrix}\;\;a_{11}&.&.&.&a_{1n}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;a_{\mathit{m1}}&.&.&.&a_{\mathit{nn}}\;\;\end{matrix}\right)\;\;/\;\;a_{\mathit{ij}}\;\;\in
\;\;\mathbb{R},\;\forall \;i,j\;\right\}\]

\bigskip

Es decir, es un espacio $M_{mxn}$ donde $m\;=\;n$


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

Las operaciones que hacen a $M_{mxn}$ y $M_{nxn}$ espacios vectoriales
son:


\bigskip

 Suma (l.c.i.):


\bigskip

\[\left(\begin{matrix}\;\;a_{11}&.&.&.&a_{1n}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;a_{\mathit{m1}}&.&.&.&a_{\mathit{mn}}\;\;\end{matrix}\right)\;+\;\left(\begin{matrix}\;\;b_{11}&.&.&.&b_{1n}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;b_{\mathit{m1}}&.&.&.&b_{\mathit{mn}}\;\;\end{matrix}\right)\;=\;\left(\begin{matrix}\;\;a_{11}\;+\;b_{11}&.&.&.&a_{1n}\;+\;b_{1n}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;a_{\mathit{m1}}\;+\;b_{\mathit{m1}}&.&.&.&a_{\mathit{mn}}\;+\;b_{\mathit{mn}}\;\;\end{matrix}\right)\]

\bigskip


\bigskip

 Producto por escalar  $\lambda \;\;\in \;\;\mathbb{R}$(l.c.e.):


\bigskip

\[\lambda
\;\mathit{mult}\;\left(\begin{matrix}\;\;a_{11}&.&.&.&a_{1n}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;a_{\mathit{m1}}&.&.&.&a_{\mathit{mn}}\;\;\end{matrix}\right)\;=\;\left(\begin{matrix}\;\;\lambda
\mathit{mult}a_{11}&.&.&.&\lambda
\mathit{mult}a_{1n}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;\lambda
\mathit{mult}a_{\mathit{m1}}&.&.&.&\lambda
\mathit{mult}a_{\mathit{mn}}\;\;\end{matrix}\right)\]

\bigskip


\bigskip

Adem\'as en estos espacios existe un producto interno:


\bigskip

\[A_{mxn}\cdot B_{nxp}=\;\;C_{m\;xp}\]

\bigskip


\bigskip

 p.ej:

\[\left(\begin{matrix}\;\;2&1&3\;\;\\\;\;0&0&1\;\;\end{matrix}\right)_{2x3}\;\cdot
\;\left(\begin{matrix}\;\;0\;\;\\\;\;1\;\;\\\;\;0\;\;\end{matrix}\right)_{3x1}\;=\;\left(\begin{matrix}\;\;1\;\;\\\;\;0\;\;\end{matrix}\right)_{2x1}\]

\bigskip


\bigskip

Nota: Tanto en $M_{mxn}$ como en
$M_{nxn}\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;A\cdot B\;\neq \;B\cdot A$


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\subsubsection[- Matriz Sim\'etrica, Antisim\'etrica y Traspuesta.]{{}-
Matriz Sim\'etrica, Antisim\'etrica y Traspuesta.}

\bigskip

Def:  Sea $A\;\;\in
\;\;M_{nxn},\;\;\;\;A\;=\;\left(\begin{matrix}\;\;a_{11}&.&.&a_{1n}\;\;\\\;\;.&.&.&.\;\;\\\;\;.&.&.&.\;\;\\\;\;a_{\mathit{n1}}&.&.&a_{\mathit{nn}}\;\;\end{matrix}\right)$


\bigskip

   $A$ es sim\'etrica si 
$a_{\mathit{ij}}\;=\;a_{\mathit{ji}}\;,\;\;\forall
\;i,j\;\;\;\;,\mathit{p.ej.}\;\;\left(\begin{matrix}\;\;1&2\;\;\\\;\;2&2\;\;\end{matrix}\right)$

   $A$ es antisim\'etrica si \ 
$a_{\mathit{ij}}\;=\;-a_{\mathit{ji}}\;,\;\;\forall
\;i,j\;\;\;\;,\mathit{p.ej.}\;\;\left(\begin{matrix}\;\;0&2\;\;\\-2&0\;\;\end{matrix}\right)$


\bigskip

 Sea $A\;=\;(a_{\mathit{ij}})\;\;\in \;\;M_{mxn}$, la traspuesta de $A$
es $A^{t}\;=\;(a_{\mathit{ji}})\;\;\in \;\;M_{nxm}$


\bigskip

\[\mathit{p.ej}:\;\;\;\;A\;=\;\left(\begin{matrix}\;\;2&1&3\;\;\\\;\;0&0&1\;\;\end{matrix}\right)\;\;\in
\;\;M_{2x3}\;\;\to
\;\;A^{t}\;=\;\left(\begin{matrix}\;\;2&0\;\;\\\;\;1&0\;\;\\\;\;3&1\;\;\end{matrix}\right)\;\;\in
\;\;M_{3x2}\]

\bigskip

 Nota: Por la propia definici\'on de antisim\'etrica se deduce que todos
los   elementos de la diagonal principal son nulos:

   Para $i\;=\;j\;\;\to
\;\;a_{\mathit{ii}}\;=\;-a_{\mathit{ii}}\;\;\Rightarrow
\;\;2\mathit{mult}a_{\mathit{ii}}\;=\;0\;\;\to
\;\;a_{\mathit{ii}}\;=\;0$


\bigskip


\bigskip

 Propiedades:


\bigskip

   a)  $(A^{t})^{t}\;=\;A$


\bigskip

   b)  $(\lambda \cdot A)^{t}\;=\;\lambda \cdot A^{t}$


\bigskip

   c)  $(A\;+B)^{t}\;=\;A^{t}\;+\;B^{t}$


\bigskip

   d)  $A$ sim\'etrica  $\Leftrightarrow \;\;A\;=\;A^{t}$


\bigskip

   d)  $A$ antisim\'etrica  $\Leftrightarrow \;\;A^{t}\;=\;-A$


\bigskip

   e)  $(A\cdot B)^{t}\;=\;B^{t}\cdot A^{t}$


\bigskip

\subsubsection[- Matriz Invertible e Inversa de una Matriz.]{{}- Matriz
Invertible e Inversa de una Matriz.}

\bigskip

Def:  Sea $A\;\;\in \;\;M_{nxn},\;\;A$ es invertible o regular si:


\bigskip

\[\exists \;\;A^{-1}\;\;\in \;\;M_{nxn}\;\;/\;\;A\cdot
A^{-1}=\;I\;\;\wedge \;\;A^{-1}\cdot A\;=\;I\]

\bigskip

 Donde 
$I\;=\;\left(\begin{matrix}\;\;1&0&.&0\;\;\\\;\;0&1&0&.\;\;\\\;\;.&.&.&.\;\;\\\;\;0&.&0&1\;\;\end{matrix}\right)$
es la matriz identidad.


\bigskip

 Nota: Es muy importante tener en cuenta ambas condiciones     $(A\cdot
A^{-1}=\;I\;\;\wedge \;\;A^{-1}\cdot A\;=\;I)$ puesto que en general
$A\cdot B\;\neq \;B\cdot A$ y puede   darse el caso de que la matriz
cumpla s\'olo una y no sea inversible.


\bigskip


\bigskip

 Propiedades:


\bigskip

   a) Si $A$ y $B$ son inversibles $\Rightarrow \;\;(A\cdot
B)^{-1}\;=\;B^{-1}\cdot A^{-1}$


\bigskip

   b)  $(A^{t})^{-1}\;=\;(A^{-1})^{t}$


\bigskip


\bigskip

 \textbf{C\'alculo de la matriz inversa}:

 En general, el c\'alculo de la matriz inversa es costosos, sobre todo
en  tama\~nos de matrices grandes. Hay 2 formas de calcularlas:


\bigskip

  1{\textordfeminine}) Regla de \textbf{Cramer}: \ \ \ Si  $A\;\;\in
\;\;M_{nxn}\;\;\to \;\;A^{-1}\;=\;\frac{1}{\left|A\right|}\;\cdot
\;(A^{\text{*}})^{t}$, donde:


\bigskip

\[\underbrace{A^{\text{*}}}_{\begin{matrix}\mathit{Matriz}\\\mathit{adjunta}\\\mathit{de}\;A\end{matrix}}=\;\left(\begin{matrix}\;\;c_{11}&.&.&c_{1n}\;\;\\\;\;.&.&.&.\;\;\\\;\;.&.&.&.\;\;\\\;\;c_{\mathit{n1}}&.&.&c_{\mathit{nn}}\;\;\end{matrix}\right)\;,\;\;\underbrace{C_{\mathit{ij}}}_{\begin{matrix}\mathit{Adjunto}\\\mathit{de}a_{\mathit{ij}}\end{matrix}}=\;(-1)^{i+j}\cdot
\;\;\underbrace{\left|\begin{matrix}\;\;a_{11}&.&.&a_{1\;j-1}&a_{1\;j+1}&.&.a_{1n}\;\;\\\;\;.&.&.&.&.&.&.\;\;\\\;\;a_{i-1\;1}&.&.&a_{i-1\;j-1}&a_{i-1\;j+1}&.&.a_{i-1\;n}\;\;\\\;\;a_{i+1\;1}&.&.&a_{i+1\;j-1}&a_{i+1\;j+1}&.&.a_{i+1\;n}\;\;\\\;\;.&.&.&.&.&.&.\;\;\\\;\;a_{\mathit{n1}}&.&.&a_{n\;j-1}&a_{n\;j+1}&.&.a_{\mathit{nn}}\;\;\end{matrix}\right|}_{\begin{matrix}\mathit{Determinante}\;\mathit{de}\;\mathit{la}\;\mathit{matriz}\;\mathit{que}\;\mathit{resulta}\;\mathit{de}\;\mathit{eliminar}\\\mathit{la}\;\mathit{fila}\;\text{{\textquotesingle}}i\text{{\textquotesingle}}y\;\mathit{columna}\;\text{{\textquotesingle}}j\text{{\textquotesingle}}\;\mathit{en}\;A.\;\mathit{Se}\;\mathit{llama}\;\mathit{menor}\;\mathit{de}\;a_{\mathit{ij}}\end{matrix}}\]

\bigskip

  2{\textordfeminine}) M\'etodo de \textbf{Gauss-Jordan} o por cambios
elementales:


\bigskip

  Def: Un cambio elemental en una matriz es alguna de las     
\ \ \ \ \ \ siguientes operaciones en cualquiera, filas (o columnas):


\bigskip

   a)  $F_{i}'\;=\;F_{j}\;\;\wedge \;\;F_{j}'\;=\;F_{i}$(intercambio de
la fila {\textquotedblleft}i{\textquotedblright}y la
{\textquotedblleft}j{\textquotedblright})


\bigskip

   b)  $F_{i}'\;=\;\lambda \cdot F_{1}\;+..+\;\lambda _{n}\cdot
F_{n}\;;\;\;\lambda _{i}\;\;\in \;\;\mathbb{R}$(la nueva fila
{\textquotedblleft}i{\textquotedblright} es comb.          lineal de
filas antiguas)

   c)  $C_{i}'\;=\;C_{j}\;\;\;\wedge \;\;\;C_{j}'\;=\;C_{i}$ (Idem que
a) para columnas)


\bigskip

   d)  $C_{i}'\;=\;\lambda \cdot C_{1}\;+..+\;\lambda _{n}\cdot
\;C_{n}\;;\;\;\lambda _{i}\;\;\in \;\;\mathbb{R}$ (Idem que b) para
columnas)


\bigskip


\bigskip

  C\'alculo de la matriz inversa por cambios elem. De filas y columnas:


\bigskip

  Se hace:
$\left(\begin{matrix}\;\;\;A&\;\;\;\;\;\;I_{n}\;\;\;\\\;\;&\;\;\\\;\;\;I_{n}&\;\;\;\;\;\end{matrix}\right)\ \ \ \ \ \ \ E\ \ \ \ \ \ \ \left(\begin{matrix}\;\;\;I_{n}&\;\;\;\;\;\;E^{f}(I_{n})\;\;\;\\\;\;&\;\;\\\;\;\;E^{c}(I_{n})&\;\;\;\;\;\end{matrix}\right)\;,\begin{matrix}\;\;A\;\;\in
\;\;M_{nxn}\\I_{n}\;=\;\mathit{matriz}\\\;\mathit{identidad}\;\mathit{de}\\\mathit{tama\text{\~n}o}\;nxn\end{matrix}$


\bigskip

   y entonces:  $A^{-1}\;=\;E^{c}(I_{n})\mathit{mult}E^{f}(I_{n})$


\bigskip

   En cada paso se realizan cambios elementales por filas o por   
columnas a la matriz $A$ con el objetivo de transformarla en    la
matriz identidad, y cumpliendo la siguiente condici\'on:

   Todos los cambios elem. Por filas realizados a $A$, se realizan   
(en el mismo paso) a la matriz colocada a su derecha; y todo    cambio
elem. Por columnas realizados a $A$ se hacen (en el    mismo paso a la
matriz colocada debajo de $A$.


\bigskip

  C\'alculo de la matriz inversa por cambios elem. De filas: 

  Si  $A\;\;\in
\;\;M_{nxn}\ \ \ \ \ \ (\;\;A\;\;\text{{\textbar}}\;\;I_{n}\;\;)$
$\begin{matrix}\rightarrow \\E^{f}\end{matrix}$
$(\;\;I\;\;\text{{\textbar}}\;\;E^{f}(I_{n})\;\;)\;\;\;\;\Rightarrow
\;\;\;\;A^{-1}\;=\;E^{f}(I_{n})$


\bigskip

  C\'alculo de la matriz inversa por cambios elem. De columnas:

  Si  $A\;\;\in
\;\;M_{nxn}\ \ \ \ \ \ \left(\;\;\frac{A}{I_{n}}\;\;\right)$
$\begin{matrix}\rightarrow \\E^{c}\end{matrix}$
$\left(\;\;\frac{I_{n}}{E^{c}(I_{n})}\;\;\right)\;\;\;\;\Rightarrow
\;\;\;\;A^{-1}\;=\;E^{c}(I_{n})$

\section[Tema 3: Determinantes.]{Tema 3: Determinantes.}

\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\section[Tema 4: Sistemas de Ecuaciones Lineales.]{Tema 4: Sistemas de
Ecuaciones Lineales.}

\bigskip

Def: Un sistema de ecuaciones lineales es un sistema de la forma:


\bigskip

\[\left\{\begin{matrix}\;\;a_{11}\cdot x_{1}\;+\;a_{12}\cdot
x_{2}\;+\;...\;+a_{1n}\cdot
x_{n}\;=\;b_{1}\;\;\\.\\.\\\;\;a_{\mathit{m1}}\cdot
x_{1}\;+\;a_{\mathit{m2}}\cdot x_{2}\;+\;...\;+a_{\mathit{mn}}\cdot
x_{n}\;=\;b_{m}\;\;\end{matrix}\right\}\begin{matrix}x_{1,...,}\;x_{n}:\;\mathit{Inc\text{\'o}gnitas}\mathit{del}\mathit{sistema}\\a_{\mathit{ij}},\;b_{j}\;\;\in
\;\;\mathbb{R}\end{matrix}\]

\bigskip


\bigskip

 .) Todo sistema se puede representar de forma matricial:

\[A\cdot X\;=\;b\;,\;\;\mathit{donde}\;\;A\;\;\in
\;\;M_{mxn},\;\;\;\;A\;=\;\left(\begin{matrix}\;\;a_{11}&.&.&a_{1n}\;\;\\\;\;.&.&.&.\;\;\\\;\;.&.&.&.\;\;\\\;\;a_{\mathit{n1}}&.&.&a_{\mathit{nn}}\;\;\end{matrix}\right)\;,\;\;X\;=\;\left(\begin{matrix}x_{1}\\.\\.\\x_{n}\end{matrix}\right)\;,\;\;b\;=\;\left(\begin{matrix}b_{1}\\.\\.\\b_{m}\end{matrix}\right)\]

\bigskip

 Def: \ Un sistema de ecuaciones lineales es homogeneo si b=0, es decir,
  si tiene como representaci\'on matricial:


\bigskip

\[A\cdot X\;=\;0\]

\bigskip

\subsection[ - Teorema de Rouch\'e-Frobenius.]{ {}- Teorema de
Rouch\'e-Frobenius.}
  \ \ \ (test para saber cuando un sist. ec. Lin. tiene soluci\'on, y
cuantas tiene)


\bigskip

  Sea  $A\cdot X\;=\;0$ un sistema de ec. Lineales con
{\textquotedblleft}n{\textquotedblright} inc\'ognitas.

  Construimos la matriz ampliada:  $(X\;\;\in
\;\;M_{\mathit{nx1}},\;A\;\;\in \;\;M_{\mathit{mxn}},\;b\;\;\in
\;\;M_{\mathit{mx1}})$


\bigskip

\[[\mathit{Ab}]\;=\;\left(\begin{matrix}\;\;a_{11}&.&.&a_{1n}&b_{1}\;\;\\\;\;.&.&.&.&.\;\;\\\;\;.&.&.&.&.\;\;\\\;\;a_{\mathit{n1}}&.&.&a_{\mathit{nn}}&b_{m}\;\;\end{matrix}\right)\]

\bigskip

  Si $\mathit{rang}(A)\;\neq \;\mathit{rang}[\mathit{Ab}]$: Sist.
incompatible: \ \ no tiene soluci\'on.


\bigskip

  Si  $\mathit{rang}(A)\;=\;\mathit{rang}[\mathit{Ab}]$:

   {}- Si $\mathit{rang}(A)\;\neq \;n$ Sist. compatible indeterminado:
$\infty $ Soluc.

   {}- Si $\mathit{rang}(A)\;=\;n$ Sist. compatible determinado:
\ \ \ \ 1 Soluc.

El teorema anterior nos dice cu\'ando un sistema de ecuaciones lineales
tiene o no soluci\'on.

En caso de tener soluci\'on, existen algunos m\'etodos para calcularlas.


\bigskip

\subsection[ a) Sistema de Cramer, Regla de Cramer.]{ a) Sistema de
Cramer, Regla de Cramer.}
 Def: Un sistema de ecuaciones  $A\cdot X\;=\;b$ es de Cramer si cumple:

  .) $A\;\;\in \;\;M_{\mathit{nxn}}$

  .)  $|A|\;\neq \;0$


\bigskip

 Ya sabemos que $|A|\;\neq \;0$ equivale a que $\mathit{rang}(A)\;=\;n$.

 Por el teorema de Rouch\'e-Frobenius, sabemos que $A\cdot X\;=\;b$ es 
compatible determinado, es decir, que existe una \'unica soluci\'on.

 Para calcularla, se utiliza la Regla de Cramer:


\bigskip

 Si 
$A\;=\;\left(\begin{matrix}\;\;a_{11}&.&.&a_{1n}\;\;\\\;\;.&.&.&.\;\;\\\;\;.&.&.&.\;\;\\\;\;a_{\mathit{n1}}&.&.&a_{\mathit{nn}}\;\;\end{matrix}\right)$,
la soluci\'on es 
$X\;=\;\left(\begin{matrix}\;\;x_{1}\;\;\\.\\.\\\;\;x_{n}\;\;\end{matrix}\right)$,
donde


\bigskip

  $x_{i}\;=\;\frac{|A_{i}|}{|A|}$ \ y \ \ 
$A_{i}\;=\;\left|\begin{matrix}\;\;a_{11}&.&.&a_{1i-1}&b_{1}&a_{1i+1}&.&.&a_{1n}\;\;\\\;\;.&.&.&.&.&.&.&.&.\;\;\\\;\;.&.&.&.&.&.&.&.&.\;\;\\\;\;a_{\mathit{n1}}&.&.&a_{ni-1}&b_{n}&a_{ni+1}&.&.&a_{\mathit{nn}}\;\;\end{matrix}\right|\ \begin{matrix}\mathit{Determinante}\mathit{de}\mathit{la}\\\mathit{matriz}\mathit{que}\mathit{resulta}\\\mathit{de}A\mathit{al}\mathit{sustituir}\\\mathit{la}\mathit{columna}\text{i}\mathit{por}\\B\;=\;(b_{1},..,b_{n})\end{matrix}$


\bigskip


\bigskip

Ejemplo: Sea el sistema: 


$\left\{\begin{matrix}x+y-z\;=\;-1\;\;\\\;\;x+2y+2z\;=\;0\;\;\\\;\;2x+y-z\;=\;1\end{matrix}\right\}\;\;\equiv
\;\;\underbrace{\left(\begin{matrix}\;\;1&1&-1\;\\\;\;1&2&2\;\;\\\;\;2&1&-1\;\end{matrix}\right)}_{A}\;\cdot
\;\left(\begin{matrix}\;\;x\;\;\\\;\;y\;\;\\\;\;z\;\;\end{matrix}\right)\;=\;\left(\begin{matrix}\;-1\;\\\;\;0\;\;\\\;\;1\;\;\end{matrix}\right)$

$|A|\;=\;\left|\begin{matrix}\;\;1&1&-1\;\\\;\;1&2&2\;\;\\\;\;2&1&-1\;\end{matrix}\right|\;=\;4$

\[|A_{1}|\;=\;\left|\begin{matrix}\;-1&1&-1\;\\\;\;0&2&2\;\;\\\;\;1&1&-1\;\end{matrix}\right|\;=\;8\;,\;\;\;\;|A_{2}|\;=\;\left|\begin{matrix}\;\;1&-1&-1\;\\\;\;1&0&2\;\;\\\;\;2&1&-1\;\end{matrix}\right|\;=\;-8\;,\;\;\;\;|A_{3}|\;=\;\left|\begin{matrix}\;\;1&1&-1\;\\\;\;1&2&0\;\;\\\;\;2&1&1\;\;\end{matrix}\right|\;=\;4\]

\bigskip

Luego, 
$x\;=\;\frac{|A_{1}|}{|A|}\;=\;\frac{8}{4}\;=\;2\;;\;\;\;\;y\;=\;\frac{|A_{2}|}{|A|}\;=\;\frac{-8}{4}\;=\;-2\;;\;\;\;\;z\;=\;\frac{|A_{3}|}{|A|}\;=\;\frac{4}{4}\;=\;1$


\bigskip

La soluci\'on del sistema es  $(2,-2,\;1)$

La regla de Cramer anterior es \'util para calcular soluciones s\'olo de
un tipo particular de sistemas de ecuaciones lineales.

Para sistemas de ecuaciones Lineales en general podemos utilizar el
m\'etodo de Gauss-Jordan.


\bigskip

\subsection[ b) M\'etodo de Gauss-Jordan.]{ b) M\'etodo de
Gauss-Jordan.}
 Sea un sistema de ec. Lineales $A\cdot X\;=\;b$,  $A\;\;\in
\;\;M_{mxn},\underbrace{X\;\;\in
\;\;M_{nx1}}_{n\;\;\mathit{inc\text{\'o}gnitas}},b\;\;\in \;\;M_{mx1}$

 Esto es,

\[\left\{\begin{matrix}\;\;a_{11}x_{1}+a_{12}x_{2}+...+a_{1n}x_{n}\;=\;b_{1}'\;\;\\.\\.\\\;\;a_{\mathit{m1}}x_{1}+a_{\mathit{m2}}x_{2}+...+a_{\mathit{mn}}x_{n}\;=\;b_{m}\;\;\end{matrix}\right\}\;\;\overrightarrow{{\underbrace{\;\;\mathit{Ef}\;}_{\begin{matrix}\mathit{cambios}\;\mathit{elementales}\\\mathit{por}\;\mathit{filas}\end{matrix}}}}\;\;\left\{\begin{matrix}\;\;c_{11}x_{1}+c_{12}x_{2}+...+c_{1n}x_{n}\;=\;b_{1}'\;\;\\\ \ \ \ \ \ \ c_{22}x_{2}+...+c_{2n}x_{n}\;=\;b_{2}'\;\;\\.\\\ \ \ \ \ \ .\\\;\;\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ c_{\mathit{mn}}x_{n}\;=\;b_{m}'\;\;\end{matrix}\right\}\]

\bigskip


\bigskip

 El m\'etodo consiste en transformar el sistema de partida en otro:   
$C\cdot X\;=\;b'$, donde C es una matriz triangular superior;
realizando  cambios elementales por filas (ver t.2, hoja 8).

 Como los sistemas $A\cdot X\;=\;b$ y $C\cdot X\;=\;b'$ son equivalentes
(esto es, \  tienen las mismas soluciones), el problema se reduce a
despejar las  
$\text{{\textquotedblleft}}x_{i}\text{{\textquotedblright}}$ y
sustituir en las filas anteriores en $C\cdot X\;=\;b'$.


\bigskip


\bigskip

Ejemplo: Sea el sistema:

\[\left\{\begin{matrix}2x+3y-7z\;=\;-1\;\;\\\;\;3x+4y-6z\;=\;5\;\;\\\;\;5x+7y-13z\;=\;4\end{matrix}\right\}\;\;\overrightarrow{{\underbrace{\;\;\mathit{Ef}\;}_{\begin{matrix}\mathit{para}\;\mathit{hacerlo},\;\mathit{mirar}\\\mathit{el}\;\mathit{ejemplo}\;\mathit{del}\;\mathit{tema}\;2\\\mathit{hoja}\;9,\;\mathit{se}\;\mathit{trabaja}\;\mathit{con}\\\mathit{ecuaciones},\;\mathit{no}\;\mathit{con}\;\mathit{matrices}\end{matrix}}}}\;\;\left\{\begin{matrix}2x+3y-7z\;=\;-1\;\;\\\ \ \ -y+9z\;=\;13\;\;\\\ \ \ \ \ \ \ \ \underbrace{0\;=\;0}_{\begin{matrix}\mathit{no}\;\mathit{aporta}\\\mathit{ninguna}\;\mathit{informaci\text{\'o}n}\end{matrix}}\end{matrix}\right\}\;\;\]

\bigskip

Tomando  $z\;=\;\lambda \ \ \rightarrow \ \ y\;=\;9\lambda
-13\ \ \rightarrow $

\[2x\;=\;-1-3\cdot (9\lambda -13)+7\lambda \ \ \rightarrow
\ \ 2x\;=\;-1-27\lambda +39+7\lambda \]
\[\rightarrow \ \ 2x\;=\;38-20\lambda \ \ \rightarrow
\ \ x\;=\;19-10\lambda \]

\bigskip

Las soluciones del sistema son:


\bigskip

\[\{(19-10\lambda ,\;\;9\lambda -13,\;\;\lambda )\;/\;\lambda \;\;\in
\;\;\mathbb{R}\}\;=\;\{(-10,\;9,\;1)\cdot \lambda
+(19,\;-13,\;0)\;/\;\lambda \;\;\in \;\;\mathbb{R}\}\]

\bigskip

Ejemplo: Sea el sistema:

\[\left\{\begin{matrix}\;\;2x+3y-7z\;=\;-1\;\;\\\;\;3x+4y-6z\;=\;5\;\;\\\;\;5x-2y+4z\;=\;-7\;\;\end{matrix}\right\}\;\;\overrightarrow{{\ \ \mathit{Ef}_{(\text{*})}\ \ }}\;\;\left\{\begin{matrix}2x+3y-7z\;=\;-1\;\;\\\ \ \ -y+9z\;=\;13\;\;\\\ \ \ -128z\;=\;-256\;\;\end{matrix}\right\}\;\;\]

\bigskip

De la 3{\textordfeminine} ecuaci\'on (o fila):

\[\begin{matrix}z\;=\;2\\\text{ }\\\text{
}\end{matrix}\;\;\overrightarrow{{\;\;\begin{matrix}{\mathit{sustituyendo}}\\{\mathit{en}\;\mathit{la}\;2\mathit{\text{{\textordfeminine}}}}\end{matrix}\;\;}}\;\;\begin{matrix}-y+18\;=\;13\;\;\rightarrow
\;\;y\;=\;5\\\text{ }\\\text{
}\end{matrix}\;\;\overrightarrow{{\;\;\begin{matrix}{\mathit{sustituyendo}}\\{\mathit{en}\;\mathit{la}\;1\mathit{\text{{\textordfeminine}}}}\end{matrix}\;\;}}\;\;\begin{matrix}2x+15-14\;=\;-1\;\;\rightarrow
\;\;x\;=\;-1\\\text{ }\\\text{ }\end{matrix}\]

\bigskip

La soluci\'on del sistema es  $(-1,\;5,\;2)$


\bigskip


\bigskip

(*) Veamos c\'omo se transforma el sistema de ecuaciones en uno de
Gauss:


\bigskip

\[\left\{\begin{matrix}\;\;2x+3y-7z\;=\;-1\;\;\\\;\;3x+4y-6z\;=\;5\;\;\\\;\;5x-2y+4z\;=\;-7\;\;\end{matrix}\right\}\;\;\overrightarrow{{\ \ {F_{2}'\;=\;-3\cdot
F_{1}+2\cdot
F_{2}\ \ }}}\;\;\left\{\begin{matrix}\;\;2x+3y-7z\;=\;-1\;\;\\\ \ \ -y+9z\;=\;13\;\;\\\;\;5x-2y+4z\;=\;-7\;\;\end{matrix}\right\}\;\;\overrightarrow{{\ \ {F_{3}'\;=\;-5\cdot
F_{1}+2\cdot F_{3}\ }}}\]

\bigskip

\[\left\{\begin{matrix}\;\;2x+3y-7z\;=\;-1\;\;\\\ \ \ \ -y+9z\;=\;13\;\;\\\;-19y+43z\;=\;-9\end{matrix}\right\}\;\;\overrightarrow{{\ \ {F_{3}'\;=\;-19\cdot
F_{2}+F_{3}\ }}}\;\;\left\{\begin{matrix}\;\;2x+3y-7z\;=\;-1\;\;\\\ \ \ -y+9z\;=\;13\;\;\\\ \ \ -128z\;=\;-256\;\;\end{matrix}\right\}\;\;\]

\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\section[Tema 5: El Espacio Euclideo.]{Tema 5: El Espacio Euclideo.}

\bigskip

\section[.) Producto Escalar:]{.) Producto Escalar:}
 Def: Sea $V$ un espacio vectorial.

 Un producto escalar es una aplicaci\'on $'\cdot '$


\bigskip

   $\text{}\cdot \;:\mathit{VxV}\;\rightarrow \;\mathbb{R}\hfill $  Tal
que: E1) $x\cdot y\;=\;y\cdot x$

   $\;\;\;\;(x,y)\;\rightarrow \;x\cdot y$    E2) $(x+y)\cdot
z\;=\;x\cdot z+y\cdot z$

       E3) $(\lambda \cdot x)\cdot y\;=\;\lambda (x\cdot y)$

       E4) $x\cdot x\;\geqslant \;0\ y\ x\cdot
x\;=\;0\;\;\Leftrightarrow \;\;x\;=\;0$


\bigskip

 Propiedades: Un producto escalar adem\'as verifica que:

  i) $\forall \;x\;\in \;V,\;x\cdot 0\;=\;0\cdot x\;=\;0$

  ii) $(\lambda _{1}x_{1}+...+\lambda _{n}x_{n})\cdot (\mu
_{1}y_{1}+...+\mu _{m}y_{m})\;=\;\sum
_{\begin{matrix}i=1...n\\j=1...m\end{matrix}}\lambda _{i}\mu
_{j}(x_{i}\cdot y_{j})$

 Estas 2 propiedades son consecuencia de la propia definici\'on.


\bigskip

\section[.) Espacio Vectorial Euclideo:]{.) Espacio Vectorial Euclideo:}

\bigskip

 Def: Un espacio vectorial euclideo es un espacio vectorial $V$ que
adem\'as   tiene un un producto escalar definido en \'el.


\bigskip

\section[.) Producto Escalar Usual (o estandar):]{.) Producto Escalar
Usual (o estandar):}

\bigskip

 Def: Sea el espacio vectorial $\mathbb{R}^{n}$(con $n\geqslant 1$)

  El producto escalar usual de $\mathbb{R}^{n}$ est\'a definido como:


\bigskip

\[\text{}\cdot \;:\mathbb{R}^{n}x\mathbb{R}^{n}\;\rightarrow
\;\mathbb{R}\hfill \]
\[(\;(x_{1},...,x_{n}),\;(y_{1},...,y_{n})\;)\;\rightarrow
\;(x_{1},...,x_{n})\;\cdot
\;(y_{1},...,y_{n})\;=\;x_{1}y_{1}+...+x_{n}y_{n}\;=\;\sum
_{i=1}^{n}x_{i}y_{i}\]

\bigskip

Ejemplo: En $\mathbb{R}^2$, el producto escalar usual es:

\[\text{}\cdot \;:\mathbb{R}^{2}x\mathbb{R}^{2}\;\rightarrow
\;\mathbb{R}\hfill \]
\[(\;(x_{1},\;x_{2}),\;(y_{1},\;y_{2})\;)\;\rightarrow
\;(x_{1},\;x_{2})\cdot (y_{1},\;y_{2})\;=\;x_{1}y_{1}+x_{2}y_{2},\]
\section[.) Matriz de Gram: Expresi\'on Matricial del Producto
Escalar:]{.) Matriz de Gram: Expresi\'on Matricial del Producto
Escalar:}

\bigskip

 Def: Sea $\text{}\cdot \;:VxV\;\rightarrow \;\mathbb{R}\hfill $ un
producto escalar de un espacio vectorial $V$

  Y sea $B\;=\;\{e_{1,...,}e_{n}\}$ una base de $V$ como esp. vectorial.


\bigskip

 .) La matriz de Gram es una matriz que representa al producto escalar:


\bigskip

 
$G\;=\;\left(\begin{matrix}\;\;g_{11}&.&.&g_{1n}\;\;\\\;\;.&.&.&.\;\;\\\;\;.&.&.&.\;\;\\\;\;g_{\mathit{n1}}&.&.&g_{\mathit{nn}}\;\;\end{matrix}\right)$
\ donde $g_{\mathit{ij}}\;=\;e_{i}\cdot e_{j}\forall
i,j\;=\;1,..,n\;\;(g_{11}\;=\;e_{1}\cdot
e_{1,}\;\;g_{12}\;=\;e_{1}\cdot e_{2})$


\bigskip


\bigskip

 Nota: G es siempre una matriz sim\'etrica.


\bigskip

 Nota: Si $G$ es la matriz de Gram de un producto escalar respecto de
una   base $B$ y $x,y$ son vectores de $V$ en coordenadas rpto. de $B$,
  entonces:


\bigskip

    $x\cdot y\;=\;x^{t}\cdot G\cdot y$ Sistema matricial del producto
escalar {\textquotedblleft}.{\textquotedblright}


\bigskip

\[(x_{1},...,x_{n})_{B}\;\cdot \;\left(\begin{matrix}y_{1}\\\vdots
\\y_{n}\end{matrix}\right)_{B}\;=\;\;(x_{1},...,x_{n})\;\cdot
\;\left(\begin{matrix}\;\;g_{11}&.&.&g_{1n}\;\;\\\;\;.&.&.&.\;\;\\\;\;.&.&.&.\;\;\\\;\;g_{\mathit{n1}}&.&.&g_{\mathit{nn}}\;\;\end{matrix}\right)\;\cdot
\;\left(\begin{matrix}y_{1}\\.\\.\\y_{n}\end{matrix}\right)\]

\bigskip


\bigskip

 Ejemplo:

  Sea 
$P_{2}\;=\;\left\{a_{0}+a_{1}x+a_{2}x^{2}/\;a_{0},\;a_{1},\;a_{2}\;\in
\;\mathbb{R}\right\}$ el espacio vectorial de los    polinimios de
grado menor o igual a 2.


\bigskip

  Sea el producto escalar:

\[\text{}\cdot \;:P_{2}xP_{2}\;\rightarrow \;\mathbb{R}\hfill \]
\[(p(x),\;q(x))\rightarrow p(x)\;\cdot \;q(x)\;=\;\int
_{0}^{1}p(x)\;\cdot
\;q(x)\mathit{dx}\ \ \left(\begin{matrix}\mathit{esto}\mathit{es},\mathit{la}\mathit{integral}\\\mathit{entre}0y1\mathit{del}\\\mathit{prod.}\mathit{de}\mathit{polinomios}\\p(x)\;\cdot
\;q(x)\end{matrix}\right)\]

\bigskip

  \ \ \ \ \ \ Calculemos la matriz de Gram resp. de la base
$B\;=\;\{1,\;x,\;x^{2}\}$ de $P_{2}$:


\bigskip

\[g_{11}\;=\;1\cdot 1\;=\;\int _{0}^{1}1\cdot 1\mathit{dx}\;=\;\]

\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\section{Tema 6: Diagonalizaci\'on de Matrices.}

\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\section{Tema 7: Formas Cuadr\'aticas.}

\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip


\bigskip

\section{Tema 8: Programaci\'on Lineal.}
\end{document}
