% Version control information:
\svnidlong
{$HeadURL: http://calcint.googlecode.com/svn/trunk/cap-07.tex $}
{$LastChangedDate: 2009-05-22 22:15:32 +0000 (Fri, 22 May 2009) $}
{$LastChangedRevision: 178 $}
{$LastChangedBy: MCCeqE $}

\part{Cambio de variable}

\chapter{Planteamiento del problema} \label{ch:07}

\section{Introducción}


El problema general que vamos a abordar, es el siguiente: dado un conjunto
cualquiera $\Omega $, y $f:\Omega \subseteq \mathbb{R}^{n}\rightarrow 
\mathbb{R}$, queremos encontrar la integral sobre $\Omega $, pero
"cambiando" $\Omega $ por una región sobre la que resulte más fácil integrar. Más precisamente, para $n=2$, $\Omega \subseteq \mathbb{R}^{2}$; queremos un conjunto $B$ que podamos \textit{transformar} en $\Omega $, de modo que resulte mucho más fácil integrar $f$ sobre $B$. Si $g$
es una función que transforma $B$ en $\Omega $; es decir, tal que su
imagen sobre $B$ sea igual a $\Omega $, $g(B)=\Omega $, entones tendríamos que:
\[
 \int_{\Omega } f= \int_{g(B)} f
\]
Y queremos expresar esta integral como:
\[
 \int_{B} \text{ "algo"} 
\]
es decir,
\[
 \int_{\Omega } f= \int_{B} \text{ "algo"}
\]
de forma que resulte más sencillo calcular la integral del
extremo derecho de la igualdad.

\begin{figure} \centering 
%original-width 216pt;original-height 149pt;
\includegraphics[width=236pt,height=163pt]{./img-old/07/I0BV560E}
\caption{figura 93}
\label{fig:camb-var}
\end{figure}


Debemos abordar varios problemas como los siguientes: ¿ Cómo, exactamente, debe ser el integrando del extremo derecho de la
igualdad, qué va en lugar de "algo"? ¿ Siempre será
posible hacer esto, o qué condiciones deberán cumplir $\Omega $ y $g$?

Vea la figura \ref{fig:camb-var}. Si tenemos una función 
$f:\Omega \subseteq \mathbb{R}^{2}\rightarrow 
\mathbb{R}$ y queremos expresar su integral sobre $\Omega $ como una integral
sobre un conjunto $B$, necesitamos, primero, una función $g:B\subseteq 
\mathbb{R}^{2}\rightarrow \mathbb{R}^{2}$, tal que al evaluarla en la región $B$, su imagen sea exactamente igual a $\Omega $; y, segundo, que
\[
 \int_{\Omega } f= \int_{B} \text{"algo".}
\]


En general, una función $g:B\subseteq \mathbb{R}^{2}\rightarrow \mathbb{R}^{2}$, manda un punto $(x,y)$ del plano, a un punto $(\xi ,\eta )$ en el
plano, donde $\xi $ y $\eta $ son los valores de las funciones coordenadas
de $g$; es decir, $g(x,y)=\left( g_{1}(x,y\right) ,g_{2}(x,y))=(\xi ,\eta )$.
Vea la figura \ref{fig:camb-var-R2}

\begin{figure} \centering 
%original-width 220pt;original-height 103pt;
\includegraphics[width=319pt,height=146pt]{./img-old/07/I0BV560F}
\caption{figura 94) $g(x,y)=(g_{1}(x,y),g_{2}(x,y)=(\xi ,\eta )$}
\label{fig:camb-var-R2}
\end{figure}


Si $g:B\rightarrow \Omega $ es \textit{biyectiva}, con algunas condiciones
adicionales (que especificamos más adelante), decimos que $g$ es un 
\textit{cambio de variable}; a la "variable" $(x,y)$ la cambiamos por la
"variable" $(\xi ,\eta )$; y, con la inversa de $g$, podemos efectuar el
cambio "de regreso": de $(\xi ,\eta )$ a $(x,y)$.

Así que, primero, necesitamos un \textit{cambio de variable} apropiado,
con condiciones que veremos después.

Segundo, una vez que tenemos el tal cambio de variable, como
\[
f(\xi ,\eta )=f((g_{1}(x,y),g_{2}(x,y))=f(g(x,y))=(f\circ g)(x,y)
\]

\begin{figure}[H] \centering 
%original-width 214pt;original-height 107pt;
\includegraphics[width=333pt,height=168pt]{./img-old/07/I0BV560G}
\caption{figura 95}
\end{figure}


Resulta natural pensar que al pasar de integrar $f$ sobre $\Omega $, a
integrar "algo" sobre $B$, ese "algo" sea igual a la composición de $f$
con $g$. Pero ¿ será eso suficiente?. Es decir,
partiendo de que $f$ sea integrable, ¿ será válida
la siguiente igualdad?
\[
 \int_{\Omega } f\overset{?}{=} \int_{B} f\circ g
\]

\noindent La respuesta es no. De hecho, para funciones $f:\mathbb{R}\rightarrow \mathbb{R}$ la fórmula es:
\[
 \int_{g(a)}^{g(b)} f=\int_{a}^{b} \left( f\circ g\right) g^{\prime } .
\]


\noindent En general, la fórmula correcta para integrar haciendo un
cambio de variable es:

\begin{equation} \label{eq:cambio-var}
\int_\Omega f= \int_{B} \left( f\circ g\right) \left\vert \det Dg\right\vert  
\end{equation}


\noindent donde $\left\vert \det Dg\right\vert =$valor absoluto del
determinante de la derivada de $g$.

\bigskip 

El teorema de cambio de variable nos dice que, bajo ciertas hipótesis,
la fórmula \ref{eq:cambio-var} se cumple. De acuerdo al teorema \ref{th:JM-integrable}, una condición necesaria es que $\Omega $ sea Jordán-medible (para
que podamos hablar de la integral de $f$ sobre $\Omega $), pero ésto no
basta, hay varios problemas a resolver.\medskip 

\noindent 1. ¿ Porqué aparece $\left\vert \det
Dg\right\vert $ en el lado derecho, en la fórmula \ref{eq:cambio-var}?

\noindent 2. Queremos que $g(B)=\Omega $ tenga área (para que $f$ sea
integrable sobre $\Omega $). ¿ Cómo deben ser $g$ y $B$
para garantizar que $g(B)$ tenga área (que sea Jordán medible?

\bigskip

Los dos puntos tienen que ver con el dominio, el conjunto sobre el cuál
se está integrando: de integrar sobre un conjunto $\Omega =g(B)$ cómo pasamos a integrar sobre el conjunto $B$. Queremos que $B$ se transforme
en $g(B)$ y encontrar la forma en que se relacionan las áreas de estos
dos conjuntos. Esto lo abordaremos en el capítulo \ref{ch:08}. Resuelto este
problema; o sea, resuelto el problema del dominio de integración, sólo restará demostrar la igualdad \ref{eq:cambio-var}, lo que haremos en el capítulo \ref{ch:09}. Pero, primero veremos el caso particular del teorema de
cambio de variable, en coordenadas polares y, en la sección 3, algunos
resultados necesarios de álgebra lineal. Para el caso general, quien lo
desee puede pasar directamente a la sección 2 del capítulo \ref{ch:09}, para
convencerse, viendo los ejemplos, de que la fórmula  \ref{eq:cambio-var}
funciona.


\section{Planteamiento en coordenadas polares}


Un cambio de variables de coordenadas cartesianas a polares, es de la forma $g(r,\theta )=(r\cos \theta ,r\sin \theta )=(x,y)$ Vea la figura \ref{fig:cambio-cart-polar}.

\begin{figure} \centering 
%original-width 196pt;original-height 87pt;
\includegraphics[width=299pt,height=146pt]{./img-old/07/I0BV560H}
\caption{Cambio de coordenadas cartesianas a polares}
\label{fig:cambio-cart-polar}
\end{figure}

¿ Cómo transforma $g$ una región del plano $r$, $\theta $?

Por ejemplo, el intervalo $\left[ 0,r_{1}\right]$, bajo $g$ va al mismo
intervalo, dado que para todo $r$, $g(r,0)=(r,0)$. Y, dejando fijo $r_{1}$ y
variando $\theta $ de $0$ a $\theta _{1}$, bajo $g$ vamos obteniendo todos
los puntos de un arco de circunferencia de radio $r_{1}$, pues $g(r_{1},\theta )=r_{1}\left( \cos \theta ,\sin \theta \right) $, con $\theta
\in \lbrack 0,\theta _{1}]$. Esto se muestra en la siguiente figura \ref{fig:polar-r-fija}.

\begin{figure} \centering 
%original-width 177pt;original-height 100pt;
\includegraphics[width=219pt,height=125pt]{./img-old/07/I0BV560I}
\caption{}
\label{fig:polar-r-fija}
\end{figure}


Para cada $r$ que vayamos fijando, variamos $\theta $ y, bajo $g$, vamos
obteniendo diversos arcos de circunferencia, como se ve en la siguiente
figura \ref{fig:polar-arcos}.

\begin{figure} \centering 
%original-width 199pt;original-height 96pt;
\includegraphics[width=301pt,height=146pt]{./img-old/07/I0BX3M0X}
\caption{}
\label{fig:polar-arcos}
\end{figure}


De forma que, los segmentos verticales, bajo $g$, se convierten en arcos de
circunferencias; y, los segmentos horizontales los transforma en segmentos
de recta que parten del origen. Al variar continuamente $r$ y $\theta $,
todo el rectángulo, bajo $g$, llena la porción de disco. Vea la figura \ref{fig:polar-disco}

\begin{figure} \centering 
%original-width 190pt;original-height 85pt;
\includegraphics[width=234pt,height=113pt]{./img-old/07/I0BV560K}
\caption{}
\label{fig:polar-disco}
\end{figure}

Si $0\leq \theta \leq 2\pi $, entonces $g$ transforma el rectángulo $\left[ 0,r\right] \times \left[ 0,2\pi \right] $ en el disco $\left\{
(x,y)\mid x^{2}+y^{2}\leq r\right\} $. Vea la figura \ref{fig:disco-polar}.

\begin{figure} \centering 
%original-width 194pt;original-height 89pt;
\includegraphics[width=249pt,height=115pt]{./img-old/07/I0BV560L}
\caption{figura 100}
\label{fig:disco-polar}
\end{figure}

Si lo que tenemos es un rectángulo $\left[ r_{1},r_{2}\right] \times \left[ \theta _{1},\theta _{2}\right] $, bajo $g$ va a dar en una parte del
disco. Vea la figura \ref{fig:parte-polar}.

\begin{figure} \centering 
%original-width 182pt;original-height 76pt;
\includegraphics[width=324pt,height=137pt]{./img-old/07/I0BV560M}
\caption{figura 101 $B=\left\{ (\theta ,r)\mid \theta _{1}\leq \theta \leq \theta _{2}\text{ y }r_{1}\leq r\leq r_{2}\right\} $, $g(r,\theta )=(r\cos \theta
,r\sin \theta )$}
\label{fig:parte-polar}
\end{figure}


Supongamos ahora que queremos calcular la integral: $\int_\Omega f$,
 y que el conjunto $\Omega $ se puede expresar en coordenadas polares.
Tomamos $g(r,\theta )=(r\cos \theta ,r\sin \theta )=(x,y)$, y
\[
B=\left\{ (r,\theta )\mid r_{1}\leq r\leq r_{2}\text{ y }\theta _{1}\leq
\theta \leq \theta _{2}\right\} 
\]


\noindent tal que $g(B)=\Omega $; entonces,

\begin{equation} \label{eq:int-eq-sumas-cambio-var}
\int_\Omega f= \int_{g(B)} f\approx \sum_{R_{ik}} f(x_{i},y_{k})A(g(R_{ik}))  
\end{equation}


\noindent donde $(x_{i},y_{k})\in R_{ik}$ y los rectángulos $R_{ik}$ se
obtienen de dividir $B$ en $n$ rectángulos que, bajo $g$, van a dar a
los conjuntos $g(R_{ik})$, como se muestra en la siguiente figura \ref{fig:rect-polares}.

\begin{figure} \centering 
%original-width 218pt;original-height 103pt;
\includegraphics[width=404pt,height=193pt]{./img-old/07/I0BV560N}
\caption{figura 102}
\label{fig:rect-polares}
\end{figure}

Ahora bien, como
\[
A(g(B))=c(g(B))= \int_{g(B)} 1
\]
y ésta integral se parece a la suma de las áreas de cada $g(R_{ik})$, tenemos que
\[
 \int_{g(B)} 1\approx \underset{R_{ik}}{\sum }A(g(R_{ik}))
\]

Vamos a calcular primero el área de $g(R_{ik})$ para $i$, $k$ fijos. Obsérvese la siguiente figura \ref{fig:coord-polar2}: 

\begin{figure} \centering 
%original-width 345pt;original-height 275pt;
\includegraphics[width=200pt,height=160pt]{./img-old/07/I0BV560O}
\caption{figura 103}
\label{fig:coord-polar2}
\end{figure}

El área de $g(R_{ik})$ es la diferencia de dos sectores circulares de 
ángulo $\theta _{k+1}-\theta _{k}$: el sector que corresponde al círculo de radio $r_{i+1}$ y el de radio $r_{i}$. Por tanto, usando la
conocida fórmula para el área de sectores circulares:
\[
 A(g(R_{ik}))=\frac{1}{2}(\theta _{k+1}-\theta _{k})r_{i+1}^{2}-\frac{1}{2}(\theta _{k+1}-\theta _{k})r_{i}^{2}
\]
\[
 =\frac{1}{2}(\theta _{k+1}-\theta _{k})(r_{i+1}^{2}-r_{i}^{2})
\]


\noindent Sean $\Delta \theta _{k}=\theta _{k+1}-\theta _{k}$, \ y \ $\Delta
r_{i}=r_{i+1}-r_{i}$ ; entonces,
\[
A(g(R_{ik}))=\frac{1}{2}\Delta \theta
_{k}(r_{i+1}-r_{i})(r_{i+1}+r_{i})=\Delta \theta _{k}\Delta r_{i}\widehat{r}_{i}
\]


\noindent con $\widehat{r}_{i}$ el punto medio entre $r_{i}$ y $r_{i+1}$. O
sea que, el área de cada conjunto $g(R_{ik})$ es el área de $R_{ik}$
($=\Delta \theta _{k}\Delta r_{i}$) por un cierto factor $\widehat{r}_{i}$;
y, como la suma de las áreas de estos conjuntos, $g(R_{ik})$, es el área de $g(B)$, tenemos una buena aproximación:
\[
A(g(B))= \int_{g(B)} 1\approx \sum _{i,k} \widehat{r}_{i}A(R_{ik})
\]

\noindent con $i\in \{1, \ldots ,m\}$ y $k\in \{1, \ldots ,\ell \}$ ($m$ por $\ell $
igual a los $n$ rectángulos en que se dividió $B$).

Conforme subdividimos el rectángulo $B$, haciendo cada vez más pequeños los rectángulos $R_{ik}=\left[ r_{i},r_{i+1}\right] \times \left[
\theta _{i},\theta _{i+1}\right] $, el punto medio de $\left[ r_{i},r_{i+1}\right] $, $\widehat{r}_{i}$, se aproxima cada vez más al punto $r_{i}$,
de forma que:
\[
\underset{R_{ik}}{\sum }\widehat{r}_{i}A(R_{ik})\approx \underset{R_{ik}}{\sum }r_{i}A(R_{ik})
\]

Intuitivamente es claro que, en el límite, haciendo tender los lados de 
$R_{ik}$ acero, obtenemos:
\[
A(g(B))= \int_{g(B)} 1=\iint _{g(B)} 1dxdy=\iint _{B} rdrd\theta 
\]

\noindent Y, por Fubini, tenemos:
\[
A(g(B))= \int_{B} rdrd\theta =\int _{r_{1}}^{r_{2}} \left( \int _{\theta _{1}}^{\theta _{2}} rd\theta
\right) dr
\]


Ahora bien, para calcular la integral de $f$ sobre $\Omega $, como $g(r,\theta )=(r\cos \theta ,r\sin \theta )$; entonces, la expresión \ref{eq:int-eq-sumas-cambio-var} nos queda de la siguiente forma:
\[
  \int_{\Omega } f= \int_{g(B)} f\approx \underset{R_{ik}}{\sum }f(x_{i},y_{k})A(g(R_{ik}))
\]
\[
 =\sum _{i,k} f(r\cos \theta ,r\sin \theta )r_{i}A(R_{ik})
\]


En el capítulo \ref{ch:09} vamos a demostrar que ésta suma tiende a la
integral de $f$ sobre $\Omega $; es decir,
\[
 \int_{\Omega } f=\iint _{B} f(g(r,\theta
))rdrd\theta =\iint _{B} f(r\cos \theta ,r\sin \theta
)rdrd\theta 
\]


\noindent y, por tanto:

\begin{equation} \label{eq:int-polar}
\int_\Omega f=
\int _{r_{1}}^{r_{2}} \int _{\theta _{1}}^{\theta _{2}} f(r\cos \theta ,r\sin \theta
)rd\theta dr  
\end{equation}

\noindent Obsérvese que
\[
\det Dg(r,\theta )=\det \left( 
\begin{array}{ll}
\cos \theta & \sin \theta \\ 
-r\sin \theta & r\cos \theta
\end{array}
\right) 
\]
\[
 =r\cos ^{2}\theta +r\sin ^{2}\theta =r>0
\]

\noindent Entonces la igualdad \ref{eq:int-polar}, se corresponde con la formula general \ref{eq:cambio-var} para integrar haciendo un cambio de
variable. En realidad la \resaltar{fórmula 1} es la fórmula general para
integrar sobre un conjunto $\Omega $ que se puede expresar en coordenadas
polares; es decir, es la fórmula para cuando hacemos cambio de variable
a polares.

Si $f(x,y)=1$, entonces,
\[
 \int_{g(B)} 1= \int_{B} r
\]

\noindent y, en general

\begin{equation} \label{eq:cambio-var1}
\int_{\Omega }1= \int_{g(B)} 1= \int_{B} \left\vert \det Dg\right\vert 
\end{equation}


Así, tendremos que el área de $\Omega $, es igual a la integral
sobre $B$ de $\left\vert \det Dg\right\vert $, que es el valor absoluto del
Jacobiano de $g$. O sea que, haciendo un cambio de variable, podemos
expresar el área de $\Omega =g(B)$ en términos de la integral $ \int_{B} \left\vert \det Dg\right\vert $. Bajo qué condiciones
podemos hacer esto y la demostración de la igualdad \ref{eq:cambio-var1}, es lo
que abordamos en el capítulo \ref{ch:08}.


\section{Recordatorio de algunos resultados de álgebra lineal}


En muchos casos, el comportamiento de una función se estudia midiendo el
comportamiento de la mejor aproximación lineal a la función; esa
mejor aproximación lineal a la función es una función lineal. En
particular, para saber cómo se transforma el área de un conjunto $B\subset \mathbb{R}^{n}$, bajo una función $g:B\rightarrow \mathbb{R}^{n} $, nos vamos a fijar en cómo se transforma el área de $B$, al
aplicarle la mejor aproximación lineal a $g$. En este caso, esa mejor
aproximación lineal a la gráfica de $g$, en el punto $\overline{x}_{0}$,
como se sabe, está dada por una constante más la función
derivada; es decir:
\[
L(\overline{x})=g(\overline{x}_{0})+Dg(\overline{x}_{0})(\overline{x}-\overline{x}_{0})
\]

\noindent donde $Dg(\overline{x}_{0})$ es la derivada de $g$ en $\overline{x}_{0}$. De forma que, si $R$ es un rectángulo contenido en $B$, y $\overline{x}_{0}$ es el extremo inferior izquierdo de $R$, podemos
aproximarnos al área de $g(R)$ con el área de $L(R)$. Vea la figura \ref{fig:aprox-lineal}.

\begin{figure} \centering 
%original-width 230pt;original-height 111pt;
\includegraphics[width=277pt,height=136pt]{./img/c07/foto104}
\caption{figura 104}
\label{fig:aprox-lineal}
\end{figure}

\noindent Esta función $L:\mathbb{R}^{n}\rightarrow \mathbb{R}^{n}$, es
una función lineal con ciertas características que veremos más
adelante. Por ello este breve recordatorio.


\begin{definition}
Sea  $L:\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$.  $L$  es una transformación lineal si, y sólo si,  $\forall \overline{x},\overline{y}\in \mathbb{R}^{n}$  se
cumplen las siguientes dos condiciones: 

 \qquad a)  $L$  es aditiva:  $L(\overline{x}+\overline{y})=L(\overline{x})+L(\overline{y})$

 \qquad b)  $L$  saca escalares:  $L(\lambda \overline{x})=\lambda L(\overline{x})$
\end{definition}


Las siguientes propiedades son una consecuencia inmediata de la definición.

\bigskip

\textbf{Propiedades}. Si $L:\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ es
lineal, entonces:

\noindent i) $L(\overline{0})=\overline{0}$

\noindent ii) $L(\alpha \overline{x}+\beta \overline{y})=\alpha L(\overline{x})+\beta L(\overline{y})$ \ $\forall \overline{x},\overline{y}\in \mathbb{R}^{n}$, y $\forall \alpha ,\beta \in \mathbb{R}$

\bigskip

Una consecuencia inmediata de la propiedad (ii) es que $L$ es lineal si, y sólo si,
\[
 L(\alpha \overline{x}+\beta \overline{y})=\alpha L(\overline{x})+\beta L(\overline{x}) .
\]


\noindent La demostración de las propiedades se deja como ejercicio.

La proposición (ii), significa que una transformación lineal $L$,
aplicada a la combinación lineal de dos vectores, $\alpha \overline{x}+\beta \overline{y}$, es igual a la combinación lineal de los vectores
transformados por $L$; y, además, los coeficientes se preservan. Esto
es, si $L(\overline{x})=\overline{z}\in \mathbb{R}^{m}$ y $L(\overline{y})=\overline{w}\in \mathbb{R}^{m}$, entonces:
\[
\alpha L(\overline{x})=\alpha \overline{z}\text{ y }\beta L(\overline{y})=\beta 
\overline{w}
\]

\noindent por tanto,
\[
L(\alpha \overline{x}+\beta \overline{y})=\alpha L(\overline{x})+\beta L(\overline{y})=\alpha \overline{z}+\beta \overline{w}
\]

Por ejemplo, si $L:\mathbb{R}^{2}\rightarrow \mathbb{R}^{2}$ y tenemos una
base en $\mathbb{R}^{2}$ (dos vectores que generan todo $\mathbb{R}^{2}$),
digamos la base canónica $e_{1}=(1,0)$ y $e_{2}=(0,1)$. 
¿ Cómo sería la imagen de la transformación
lineal $L$ aplicada a los vectores base? Recordemos que una transformación lineal $L$ aplicada a una base $e_{1}$, $e_{2}$ sólo tiene tres
opciones: a) la imagen son dos vectores linealmente independientes; o, b) la
imagen son dos vectores dependientes (y se encuentran en la misma recta); o,
c) la imagen es el punto $(0,0)$.

\begin{figure}[H] \centering 
%original-width 229pt;original-height 157pt;
\includegraphics[width=309pt,height=212pt]{./img-old/07/I0BV560Q}
\caption{figura 107}
\end{figure}

Obsérvese que $e_{1}$ y $e_{2}$ son dos vectores que parten de $(0,0)=\overline{0}$, por lo que su imagen, $L(e_{1})$ y $L(e_{2})$, son dos
vectores que también parten de $\overline{0}$, pues $L(\overline{0})=\overline{0}$.

¿ Cómo transforma $L$ el plano? Vamos a ver. Llamemos $\pi _{1}$ al plano donde están $e_{1}$ y $e_{2}$; y, $\pi _{2}$ al plano
donde están $L(e_{1})$ y $L(e_{2})$. Cualquier punto $\overline{x}$ en
el plano $\pi _{1}$ lo podemos ver como una combinación lineal de $e_{1}$
y $e_{2}$; y,
\[
L(\overline{x})=L(\alpha e_{1}+\beta e_{2})=\alpha L(e_{1})+\beta L(e_{2})
\]

Entonces,

\noindent \textbf{a)} Si $L(e_{1})$ y $L(e_{2})$ son linealmente
independientes, al variar $\alpha $ y $\beta $ en todos los reales, las imágenes nos van a ir llenando todo el plano. O sea, que si $L(e_{1})$ y $L(e_{2})$ son linealmente independientes, la imagen de $L$, aplicada a todos
los puntos de $\pi _{1}$, es todo el plano $\pi _{2}$.

\textbf{En este caso, }$L$\textbf{\ es uno a uno}. Vamos a demostrarlo: si $L(\overline{x})=L(\overline{y})$ con $\overline{x}=\alpha e_{1}+\beta e_{2}$
y $\overline{y}=\eta e_{1}+\mu e_{2}$, entonces:
\[
0=L(\overline{x})-L(\overline{y})=L(\alpha e_{1}+\beta e_{2})-L(\eta
e_{1}+\mu e_{2})
\]
\[
 =L(\alpha e_{1})-L(\eta e_{1})+L(\beta e_{2})-L(\mu e_{2})
\]
\[
 0=(\alpha -\eta )L(e_{1})+(\beta -\mu )L(e_{2})
\]


\noindent Y esta combinación lineal sólo puede ser cero si los
escalares se anulan (por ser $L(e_{1})$ y $L(e_{2})$ linealmente
independientes). En consecuencia $\alpha -\eta =0$ y $\beta -\mu =0$; y, por
lo tanto:
\[
0=(\alpha -\eta )(e_{1})+(\beta -\mu )(e_{2})=\alpha e_{1}+\beta e_{2}-\eta
e_{1}+\mu e_{2}
\]
\[
 0=\overline{x}-\overline{y}\implies \overline{x}=\overline{y}\Diamond 
\]


\noindent \textbf{b)} Si $L(e_{1})$ y $L(e_{2})$ son linealmente
dependientes, están en una misma recta y cualquier combinación
lineal de ellos siempre estará en la misma recta; por tanto, la imagen
de $L$, aplicada a todos los puntos del plano $\pi _{1}$, será una recta.

\bigskip 

\noindent \textbf{c)} Si $L(e_{1}+e_{2})=L(e_{1})+L(e_{2})=\overline{0}$,
entonces todo el plano $\pi _{1}$, bajo $L$, va al vector $\overline{0}$.

De esta forma, si tenemos una transformación lineal $L$; basta saber cómo transforma $L$ a los vectores $e_{1}$ y $e_{2}$, para que sepamos qué le hace $L$ a cualquier otro punto. Esto se generaliza a cualquier
transformación lineal $L:\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$. En
efecto, si tenemos la base canónica de $\mathbb{R}^{n}$:
\[
e_{1}=(1,0, \ldots ,0)\text{, }e_{2}=(0,1,0, \ldots ,0)\text{, \dots  }e_{n}=(0, \ldots ,0,1)
\]


\noindent y, $\overline{x}=(x_{1}, \ldots ,x_{n})\in \mathbb{R}^{n}$, entonces:
\[
 L(\overline{x})=L(e_{1}x_{1}+ \cdots +e_{n}x_{n})
\]
\[
 =x_{1}L(e_{1})+ \cdots +x_{n}L(e_{n})\in \mathbb{R}^{m}
\]


\noindent Y $L(\overline{x})$ queda determinado si conocemos a los vectores 
$L(e_{1})$, \ldots , $L(e_{n})$ en $\mathbb{R}^{m}$.

\bigskip

\textbf{Conclusión}: \textit{Sea }$L:\mathbb{R}^{n}\rightarrow R^{m}$\textit{\ lineal, entonces }$L$\textit{\ está determinada de manera única por los vectores }$L(e_{1})$\textit{, }$L(e_{2})$\textit{, \ldots , }$L(e_{n})\in R^{m}$\textit{; donde los vectores }$e_{1}$\textit{, }$e_{2}$\textit{, \ldots , }$e_{n}$\textit{, son la base canónica para }$\mathbb{R}^{n}$\textit{.}\medskip

\textbf{Corolario}. \textit{Si }$L:\mathbb{R}^{n}\rightarrow R^{m}$\textit{\
y }$M:\mathbb{R}^{n}\rightarrow R^{m}$\textit{\ son lineales y }$L(e_{i})=M(e_{i})$\textit{\ para toda }$i=1, \ldots ,n$\textit{, entonces }$L(\overline{x})=M(\overline{x})$\textit{\ para todo }$\overline{x}\in \mathbb{R}^{n}$.

\bigskip

\textbf{Observación}: nótese que los vectores $L(e_{1}),\ldots ,L(e_{n})$ son linealmente independientes si, y sólo si, $L$ es uno a uno
y, necesariamente $n\leq m$; además, si $n=m$ entonces $L$ es inyectiva
si, y sólo sí, es sobre.\medskip

Si tomamos como hipótesis que $L(e_{1}), \ldots, L(e_{n})$ son
linealmente independientes, la demostración de que $L$ es uno a uno, es
análoga a la que hicimos en el inciso (a) para $n=2$. Ahora, si partimos
de que $L$ es uno a uno, tenemos que para todo $\overline{x}\neq \overline{y}
$ en $\mathbb{R}^{n}$, ocurre que $L(\overline{x})\neq L(\overline{y})$ (en $\mathbb{R}^{m}$) y, por tanto, $0\neq L(\overline{x})-L(\overline{y})$. Sean:
\[
 L(\overline{x})=L(e_{1}x_{1}+ \cdots +e_{n}x_{n})=x_{1}L(e_{1})+ \cdots +x_{n}L(e_{n}) 
\]
\[
\text{y }\ L(\overline{y})=L(e_{1}y_{1}+ \cdots +e_{n}y_{n})=y_{1}L(e_{1})+ \cdots +y_{n}L(e_{n})
\]

\noindent entonces,
\[
 0\neq x_{1}L(e_{1})+ \cdots +x_{n}L(e_{n})-[y_{1}L(e_{1})+ \cdots +y_{n}L(e_{n})]
\]
\[
\implies \text{ }\ \ \ \ 0\neq (x_{1}-y_{1})L(e_{1})+ \cdots +(x_{n}-y_{n})L(e_{n})
\]


\noindent de lo que se sigue que no todos los escalares se anulan y, por
tanto, los vectores $L(e_{1})$, \ldots , $L(e_{n})$ son linealmente
independientes. Las dos últimas partes de la observación son
inmediatas y se dejan como ejercicio.

Ahora recordaremos que, en una transformación lineal $L$, para todo
vector $\overline{x}$ podemos expresar $L(\overline{x})$ como una matriz
multiplicada por el vector $\overline{x}$. Por ejemplo, para $n=2$, si $L:\mathbb{R}^{2}\rightarrow \mathbb{R}^{2}$, $L(e_{1})=(a_{1},a_{2})$, $L(e_{2})=(b_{1},b_{2})$ y $\overline{x}=(x_{1},x_{2})$, entonces tenemos que
\[
L(\overline{x})=x_{1}L(e_{1})+x_{2}L(e_{2})=x_{1}(a_{1},a_{2})+x_{2}(b_{1},b_{2})
\]

\begin{figure}[H] \centering 
%original-width 230pt;original-height 106pt;
\includegraphics[width=385pt,height=171pt]{./img/c07/foto108}
\caption{figura 108}
\end{figure}

\noindent Hacemos:
\[
 \overline{y}=(y_{1},y_{2})=x_{1}(a_{1},a_{2})+x_{2}(b_{1},b_{2})
\]
\[
 =(x_{1}a_{1}+x_{2}b_{1},x_{1}a_{2}+x_{2}b_{2})
\]


\noindent que podemos escribir como:
\[
\overline{y}=\left( 
\begin{array}{l}
y_{1} \\ 
y_{2}\end{array}\right) =\left( 
\begin{array}{ll}
a_{1} & b_{1} \\ 
a_{2} & b_{2}\end{array}\right) \left( 
\begin{array}{l}
x_{1} \\ 
x_{2}\end{array}\right) 
\]
\[
=\left( 
\begin{array}{l}
a_{1}x_{1}+b_{1}x_{2} \\ 
a_{2}x_{1}+b_{2}x_{2}\end{array}\right) 
\]


\noindent Si
\[
E=\left( 
\begin{array}{ll}
a_{1} & b_{1} \\ 
a_{2} & b_{2}\end{array}\right) ,
\]


\noindent entonces $\overline{y}=E\overline{x}$. Esta matriz $E$ se llama 
\textit{matriz asociada a la transformación lineal}$.$

\bigskip

Esto se cumple en general, para cualquier transformación lineal $L:\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$. Si
\[
\overline{y}=L(\overline{x})\text{, }\overline{y}=(y_{1}, \ldots ,y_{m})\text{ y }\overline{x}=(x_{1}, \ldots ,x_{n}),
\]

\noindent tenemos que
\[
\overline{y}=x_{1}L(e_{1})+\cdots +x_{n}L(e_{n})
\]

\noindent Para cada $i$, hacemos $L(e_{i})=(a_{1i}, \ldots ,a_{mi})$, así
que:
\[
\overline{y}=(y_{1}, \ldots ,y_{m})=x_{1}(a_{11},a_{12}, \ldots ,a_{m1})+ \cdots +x_{n}(a_{1n},a_{2n}, \ldots ,a_{mn}) 
\]


\noindent entonces
\[
\begin{array}{c}
y_{1}=a_{11}x_{1}+a_{12}x_{2}+ \cdots +a_{1n}x_{n}; \\ 
y_{2}=a_{21}x_{1}+a_{22}x_{2}+ \cdots +a_{2n}x_{n}; \\ 
\vdots  \\ 
y_{m}=a_{m1}x_{1}+a_{m2}x_{2}+ \cdots +a_{mn}x_{n}.\end{array}
\]
\[
\overline{y}=\left( 
\begin{array}{l}
y_{1} \\ 
y_{2} \\ 
... \\ 
y_{m}\end{array}\right) =\left( 
\begin{array}{llll}
a_{11} & a_{12} & ... & a_{1n} \\ 
a_{21} & a_{22} & ... & a_{2n} \\ 
... &  &  & ... \\ 
a_{m1} & a_{m2} & ... & a_{mn}\end{array}\right) \left( 
\begin{array}{l}
x_{1} \\ 
x_{2} \\ 
... \\ 
x_{n}\end{array}\right) =E\overline{x}
\]


\noindent por tanto
\[
L(\overline{x})=\overline{y}=E\overline{x}
\]
donde $E$ es la matriz que tiene como columnas a los vectores:
\[
 \left. L(e_{1})\right. ,\left. L(e_{2})\right. ,\ldots \left. L(e_{n})\right.  .
\]


\noindent La matriz $E$ es la \textit{matriz asociada} a la transformación lineal $L$.


\begin{theorem}
  La transformación  $L:\mathbb{R}^{n}\rightarrow R^{m}$  es lineal si, y sólo si, existe una
matriz  $E$  de  $m\times n$ , tal que  $L(\overline{x})=E\overline{x}$  para todo  $\overline{x}\in \mathbb{R}^{n}$.
\end{theorem}


La implicación de ida se demostró en los párrafos anteriores. La
demostración de regreso es en base a las propiedades de las matrices y
se deja como ejercicio.


\section{Algunos resultados para la transformación de áreas con
transformaciones lineales}


Ahora vamos a ver cómo transforman áreas las transformaciones
lineales. Supongamos, para empezar, que $L:\mathbb{R}^{2}\rightarrow 
\mathbb{R}^{2}$ y que $L(e_{1})$ y $L(e_{2})$ son linealmente
independientes. Tenemos el rectángulo $C=\left[ 1,0\right] \times \left[
0,1\right] $; y, como una función lineal manda rectas en rectas, tenemos
que $L(C)$ es un paralelogramo como se muestra en la siguiente figura;
cualquier punto $\overline{x}$ en el rectángulo $\left[ 1,0\right]
\times \left[ 0,1\right] $, bajo $L$, va a dar a un punto $L(\overline{x})$
en $L(C)$.

\begin{figure}[H] \centering 
%original-width 219pt;original-height 98pt;
\includegraphics[width=279pt,height=126pt]{./img/c07/foto109}
\caption{figura 109}
\end{figure}


Si $L(e_{1})=(a,b)$ y $L(e_{2})=(c,d)$, la matriz asociada a $L$ es
\[
E=\left( 
\begin{array}{ll}
a & c \\ 
b & d\end{array}\right) .
\]

\noindent Al paralelogramo, $L(C)$, lo podemos dividir en dos triángulos, como se muestra en la siguiente figura \ref{fig:dos-triang}.

\begin{figure} \centering 
%original-width 224pt;original-height 201pt;
\includegraphics[width=188pt,height=169pt]{./img-old/07/I0BV570T}
\caption{figura 110}
\label{fig:dos-triang}
\end{figure}


Entonces el área de $L(C)$ es dos veces el área de uno de estos dos
triángulos, tomemos el que tiene uno de sus vértices en el origen.
El área de éste triángulo es igual al área del cuadrado $[0,a]\times \lbrack 0,d]$, menos el área de los tres triángulos señalados en la figura con $T_{1}$, $T_{2}$ y $T_{3}$. De forma que
\[
 A(L(C))=2\left( ad-\frac{ab}{2}-\frac{dc}{2}-\frac{(a-c)(d-b)}{2}\right) 
\]
\[
=ad-cb=\det \left( 
\begin{array}{ll}
a & c \\ 
b & d\end{array}\right) =\left\vert \det E\right\vert 
\]


\noindent Tomamos el valor absoluto, pues el área siempre es mayor o
igual que cero.

\bigskip

Ahora, supóngase que tenemos cualquier rectángulo $C_{1}\subset \mathbb{R}^{2}$ (paralelo a los ejes). Bajo $L$, se transforma en un paralelogramo,
como se muestra en la figura siguiente \ref{fig:trans-rectangulo}.

\begin{figure} \centering 
%original-width 172pt;original-height 76pt;
\includegraphics[width=355pt,height=146pt]{./img-old/07/I0BV570U}
\caption{figura111}
\label{fig:trans-rectangulo}
\end{figure}


Para $e_{1}=(1,0)$ y $e_{2}=(0,1)$, con $L(e_{1})=(a,b)$, $L(e_{2})=(c,d)$
linealmente independientes, y $C=\left[ 0,1\right] \times \left[ 0,1\right] $. Los lados de $C_{1}$ los obtenemos alargando o acortando los lados de $C$
respectivamente, digamos para $\alpha ,\beta \in \mathbb{R}$, $\alpha e_{1}$
y $\beta e_{2}$; entones, los lados de $L(C_{1})$ están dados por:
\[
 L(\alpha e_{1})=\alpha L(e_{1})=\alpha (a,b)=(\alpha a,\alpha b)
\]
\[
 L(\beta e_{2})=\beta L(e_{2})=\beta (c,d)=(\beta c,\beta d)
\]


Con un procedimiento análogo al realizado para calcular el área de $L(C)$, llegamos a que el área de $L(C_{1})$ esta dada por:
\[
A(L(C_{1}))=\det \left( 
\begin{array}{cc}
\alpha a & \beta c \\ 
\alpha b & \beta d\end{array}\right) =\alpha \beta (ad-cb)
\]
\[
 =A(C_{1})\left\vert \det E\right\vert 
\]


\noindent Nótese que tomamos al rectángulo $C_{1}$ con uno de sus vértices en el origen, pero si el rectángulo no tiene ningún vértice en el origen, simplemente lo trasladamos.\medskip

\textbf{Conclusión *}. Si $L(e_{1})$ y $L(e_{2})$ son linealmente
independientes, para cualquier rectángulo paralelo a los ejes
coordenados, $R\subset \mathbb{R}^{2}$, tenemos que el área de $L(R)$ está dada por:
\[
A(L(R))=A(R)\left\vert \det E\right\vert 
\]

\noindent donde $E$ es la matriz asociada a $L$.

\bigskip 

\textbf{Observación 5}. El determinante de una matriz $E$ es cero, $\det
E=0$, si y sólo si las columnas de $E$ son linealmente dependientes,
pero las columnas de $E$ están formadas por los vectores $L(e_{1})$ y $L(e_{2})$; por tanto, éstos vectores son linealmente dependientes. Esto
es, $L(e_{1})$ y $L(e_{2})$ son linealmente independientes si, y sólo
si, $\det E\neq 0$.

En resumen, hemos demostrado el siguiente teorema:


\begin{theorem}
  Sea  $L:R\subseteq \mathbb{R}^{2}\rightarrow 
\mathbb{R}^{2}$ una transformación lineal con matriz asociada  $E$,  $R$ rectángulo. Si  $\left\vert \det E\right\vert \neq 0$, entonces 
\[
 \int_{L(R)} 1=A(L(R))=A(R)\left\vert \det E\right\vert 
\]
\end{theorem}


\textbf{Observación 6}. La transformación de rectángulos en $\mathbb{R}^{2}$, bajo funciones lineales, se generaliza de inmediato a la
transformación de rectángulos en $\mathbb{R}^{n}$. 
Vea la figura \ref{fig:tr-lineal-R3}. Por ejemplo, para 
$L:\mathbb{R}^{3}\rightarrow R^{3}$, la matriz asociada a $L$ está dada
por la matriz $E$ que tiene como columnas a los vectores
\[
 L(e_{1}) , L(e_{2}) , L(e_{3})
\]
Y el determinante de $E$ es el volumen de $L(R_{1})$, con $R_{1}$
el cubo unitario (la demostración se deja como ejercicio).

\begin{figure} \centering 
%original-width 216pt;original-height 120pt;
\includegraphics[width=302pt,height=170pt]{./img-old/07/I0BV570V}
\caption{}
\label{fig:tr-lineal-R3}
\end{figure}

\noindent Para cualquier rectángulo $R\subset \mathbb{R}^{3}$, tenemos
que, si $\det E\neq 0$, entonces
\[
A(L(R))= \int_{L(R)} 1=A(R)\left\vert \det E\right\vert 
\]
En $\mathbb{R}^{n}$ el enunciado del teorema correspondientes es:


\begin{theorem} \label{th:matriz-inv}
  Sea  $L:\mathbb{R}^{n}\rightarrow \mathbb{R}^{n}$,  con matriz asociada igual a  $E$,  que tiene como
columnas a los vectores 
\[
  L(e_{1}) , L(e_{2}) , \ldots , L(e_{n})  ;
\]
 si  $\det E\neq 0$;  entonces, para cualquier rectángulo  $R\subset \mathbb{R}^{n}$,  el "área" o volumen de  $L(R)$  esta dada por :
\[
A(L(R))= \int_{L(R)} 1=A(R)\left\vert \det E\right\vert 
\]
\end{theorem}

Veamos un ejemplo. Sea $L:\mathbb{R}^{2}\rightarrow \mathbb{R}^{2}$, una
rotación (en el origen) de $\alpha $ grados. Esto es, $L$ gira a los
vectores base $e_{1}$ y $e_{2}$ en un ángulo $\alpha $.
Vea la figura \ref{fig:tr-lineal-rot}

\begin{figure} \centering 
%original-width 230pt;original-height 105pt;
\includegraphics[width=328pt,height=140pt]{./img-old/07/I0BV570W}
\caption{}
\label{fig:tr-lineal-rot}
\end{figure}

\noindent De forma que $L(e_{1})$ y $L(e_{2})$ tienen el mismo tamaño
(misma norma) que $e_{1}$ y $e_{2}$. Además,
\[
L(e_{1})=(\cos \alpha ,\sin \alpha )\text{ y }L(e_{2})=\left( \cos \left( \frac{\pi }{2}+\alpha \right) ,\sin \left( \frac{\pi }{2}+\alpha \right) \right) 
\]
\[
=(-\sin \alpha ,\cos \alpha ).
\]

\noindent por tanto,
\[
E=\left( 
\begin{array}{ll}
\cos \alpha & -\sin \alpha \\ 
\sin \alpha & \cos \alpha\end{array}\right) \medskip 
\]


\noindent y, para toda $\overline{x}\in \mathbb{R}^{2}$, $L(\overline{x})=E\overline{x}$.

Además,
\[
\det E=\det \left( 
\begin{array}{ll}
\cos \alpha & -\sin \alpha \\ 
\sin \alpha & \cos \alpha\end{array}\right) =\cos ^{2}\alpha +\sin ^{2}\alpha =1
\]



\noindent por tanto, para todo rectángulo $R\subset \mathbb{R}^{2}$:
\[
 A(L(R))= \int_{R} 1=A(R)\left\vert \det E\right\vert =A(R) .
\]

