\documentclass[a4paper,10pt,spanish]{article}

\usepackage[activeacute]{babel}
\usepackage{fancyhdr}

\usepackage{a4wide}
\usepackage{amsmath, amscd, amssymb, amsthm, latexsym, enumerate, xspace, dsfont}

\pagestyle{fancy}
\renewcommand{\headheight}{13.1pt}
\fancyhead[LO]{Resumen Pr\'actica}
\fancyhead[C]{}
\fancyhead[RO]{P\'agina \thepage\ de \pageref{LastPage}}
\renewcommand{\headrulewidth}{0.4pt}
\newcommand{\prop}[1]{\item \textbf{#1:}}

\fancyfoot{}

\title{Resumen de Propiedades 2do Parcial - M\'etodos Num\'ericos}
\author{TPSH}

\begin{document}

\maketitle

\tableofcontents

\section{Cuadrados m'inimos}

El m'etodo de cuadrados m'inimos requiere determinar la mejor l'inea de 
aproximaci'on, cuando el error es la suma de los cuadrados de las diferencias 
entre los valores de $y$ en la l'inea de aproximaci'on y los valores de $y$ dados.

Por tanto, en el caso que se aproxima con una recta, hay que encontrar las 
constantes $a_{0}$ y $a_{1}$ que reduzcan al m'inimo el error de m'inimos 
cuadrados: $E_{2}(a_{0}, a_{1}) = \sum{[y_{i} - (a_{1}x_{i} + a_{0})]^{2}}$.

Para resolver esto usamos:

\[
a_{0} = \frac{\sum_{i=1}^{m} x_{i}^{2} \sum_{i=1}^{m} y_{i} - \sum_{i=1}^{m} x_{i} y_{i} \sum_{i=1}^{m} x_{i} }
{m (\sum_{i=1}^{m} x_{i}^{2}) - (\sum_{i=1}^{m} x_{i})^{2}}
\]

y 

\[
a_{1} = \frac{m \sum_{i=1}^{m} x_{i} y_{i} - \sum_{i=1}^{m} x_{i} \sum_{i=1}^{m} y_{i} } 
{m (\sum_{i=1}^{m} x_{i}^{2}) - (\sum_{i=1}^{m} x_{i})^{2}}
\]

De modo similar se resuelve el problema general de aproximar un conjunto de 
datos con un polinomio algebraico.

\textbf{M'etodos de resoluci'on:} 

\begin{itemize}
	\item $A^{t} A x = A^{t}b$
	\item QR. $A = Q R$
	\item Descomposici'on en valores singulares
\end{itemize}

donde la matriz A es:

\[
A = \left( \begin{array}{lllcl}
            1      & x_{1} 	& x_{1}^{2}	& \hdots 	&  x_{1}^{k} 		\\
            \vdots & \vdots & \vdots 		& \vdots  & \vdots				\\
            1      & x_{n} 	& x_{n}^{2}	& \hdots 	&  x_{n}^{k}
           \end{array}
    \right)
\]

\textbf{Importante:} puede demostrarse que las ecuaciones normales tienen 
una soluci'on 'unica, a condici'on de que las $x_{i}$ sean distintas.

\section{Interpolaci'on}

Polinomio de Lagrange:

\[
Px = \sum_{k=0}^{n} y_{k} l_{n,k}(x)
\]

\[
l_{n,k} = \prod_{i=o, i\neq k}^{n}  \frac{x-x_{i}}{x_{k}-x_{i}} 
\]

F'orumula de error:

\[
\frac{f^{n+1}(\xi(c))}{(n+1)!} \prod{(x - x_{i}}
\]

\textbf{Propiedad:} el polinomio interpolante es 'unico.

\subsection*{Diferencias divididas}

La diferencia divida de orden 1 entre $x_{i}$ y $x_{i+1}$

\[
f[x_{i}, x_{i+1}] = \frac{f(x_{i+1}) - f(x_{i})}{x_{i+1} - x_{i}}
\]

La diferencia dividida de orden k entre $x_{i}, x_{i+1}, \hdots, x_{i+k}$

\[
f[x_{i}, x_{i+1}, \hdots, x_{i+k}] = \frac{f(x_{i+1}, \hdots, x_{i+k}) - f(x_{i}, x_{i+1}, \hdots, x_{i+k-1})}{x_{i+k} - x_{i}}
\]

As'i, P(x) queda determinado por:

\[
P(x) = a_{0} + a_{1} (x - x_{0}) + \hdots + a_{n} (x - x_{0}) (x - x_{1}) \hdots (x-x_{n-1})
\]

donde $a_{k} = f[x_{0} \hdots x_{k}]$

\subsection*{Interpolaci'on fragmentaria (splines)}

$x_{0}, \hdots, x_{n} \in [a,b]$. $[x_{j}, x_{j+1} j = 0, \hdots, n-1]$. 
$S_{j}$ polinomio de grado 3. S funci'on spline.
Condiciones sobre S:
\begin{itemize}
	\item $S(x_{j}) = f(x_{j}) \forall j = 0, ..., n$ 
	\item $S_{j+1}(x_{j+1}) = S_{j}(x_{j+1}) \forall j = 0, ..., n-2$ 
	\item $S_{j+1}'(x_{j+1}) = S_{j}'(x_{j+1}) \forall j = 0, ..., n-2$ 
	\item $S_{j+1}''(x_{j+1}) = S_{j}''(x_{j+1}) \forall j = 0, ..., n-2$	
	\item Dos posibilidades:
		\begin{itemize}
			\item Fontera libre: 
				\begin{itemize}
					\item $S''(x_{0}) = 0$				
					\item $S''(x_{n}) = 0$
			\end{itemize}
			
			\item Fontera sujeta: 
				\begin{itemize}
					\item $S'(x_{0}) = f'(x_{0})$				
					\item $S'(x_{n}) = f'(x_{n})$
			\end{itemize}
		\end{itemize}
\end{itemize}

con 

\[
S_{j}(x) 0 a_{j} + b_{j} (x - x_{j}) + c_{j} (x - x_{j})^{2} + d_{j} (x - x_{j})^3 \forall j = 0, \hdots, n-1
\]

\section{Integraci'on num'erica}

$\int_{a}^{b} f(x) dx = \int_{a}^{b} P_{n}(x) dx  + \int_{a}^{b} E_{n}(x) dx$

\subsection*{Regla del Trapecio}

$\int_{a}^{b} P_{n}(x) dx = (x_{1} - x_{0}) \frac{f(x_{1}) + f(x_{0})}{2}$ \\

$\int_{a}^{b} E_{n}(x) dx = -\frac{f''(c)}{12} (x_{1} - x_{0})^{3}$

\subsection*{Regla de Simpson}

$\int_{a}^{b} P_{n}(x) dx = \frac{h}{3} (f(x_{0}) + 4 f(x_{1}) + f(x_{2}))$ \\

$\int_{a}^{b} E_{n}(x) dx = \frac{h^{5}}{12} (\frac{f^{iv}(c)}{5} - \frac{f^{iv}(\xi)}{3})  = -\frac{h^{5}}{90} f^{iv}(\beta)$

\subsection*{Reglas Compuestas}

\subsubsection*{Regla compuesta de Simpson}

$\int_{a}^{b} f(x) dx = \sum^{n/2}_{j = 1}\frac{h}{3} (f(x_{2j-2}) + 4 f(x_{2j-1}) + f(x_{2j})) + \frac{-h^{5} * n}{180} f^{iv}(\xi_{j}) $

\subsubsection*{Regla compuesta del Trapecio}

$\int_{a}^{b} f(x) dx = \frac{h}{2} (f(a) + 2\sum_{j = 1}^{n-1} f(x_{j}) + f(b)) - \frac{h^{2}}{12} (b-a) f''(\mu)$


\section{Ecuaciones no lineales}

\subsection*{Orden de convergencia}

$|\alpha_{n} - \alpha| \leq k |\beta_{n}|$, $\alpha_{n}$ tiene orden de convergencia O($\beta_{n}$)

\begin{itemize}
	\item $|\alpha_{n+1} - \alpha| \leq k |\alpha_{n} - \alpha|$ orden de convergencia 1 (lineal)
	\item $|\alpha_{n+1} - \alpha| \leq k |\alpha_{n} - \alpha|^{2}$ orden de convergencia 2 (cuadr'atico)
	\item $|\alpha_{n+1} - \alpha| \leq k |\alpha_{n} - \alpha|^{p}$ orden de convergencia p 
\end{itemize}

Equivalencia: $\lim_{n \rightarrow \infty} \frac{|x_{n+1} - x|}{|x_{n} - x|^{p}} \neq 0$, de orden p.

\textbf{Teorema de las derivadas:} $g \in C^{n}$, r punto fijo (g(r) = r).
Si $g'(r) = g''(r) = \hdots = g^{n-1}(r) = 0$ y $g^{n}(r) \neq 0$, entonces
el orden de convergencia es N.

\subsection*{M'etodo de bisecci'on}

M'etodo: obvio.
Convergencia: lineal.

\subsection*{M'etodo de punto fijo}

\textbf{M'etodo:}

Defino g de R en R continua, como $g(x) = f(x) + x$. Si encuentro un punto fijo $g(p) = p$, 
encuentro un cero de f.
Defino la sucesi'on dada por $x_{n+1} = g(x_{n})$.

Si g va de $[a,b] \rightarrow [a,b]$, g continua y $|g'| \leq k < 1$ para todo x en $[a,b]$, 
entonces la sucesi'on converge al 'unico punto fijo, independientemente del $x_{0}$
(que tiene que estar en el intervalo, l'ogico).

\textbf{Cota del error:} $|p_{n} - p| \leq \frac{k^{n}}{1-k} |p_{1} - p_{0}|$

\textbf{Convergencia:} lineal.

\subsection*{M'etodo de Newton}

Especializaci'on de punto fijo. 
$g(x) = x - \frac{f(x)}{f'(x)}$

Requiere que $f'(p) \neq 0$.

\textbf{Prop:} Sea $f \in C^{2} [a,b] \rightarrow [a,b], p \in [a,b]$ 
tal que $f(p) = p$ y $f'(p) \neq 0$, entonces existe $\delta > 0$ tal que si
$p_{0} \in (p-\delta, p+\delta)$, la sucesi'on de Newton converge.

\textbf{Convergencia:} si la funci'on no es un polinomio con una ra'iz m'ultiple, 
la convergencia es cuadr'atica. Sino, baja a lineal.

\subsection*{M'etodo de secante}

Como Newton, pero usando la secante en lugar de la tangente.

\textbf{Sucesi'on:} $x_{n+1} = x_{n} - \frac{f(x_{n})}{\frac{f(x_{n})- f(x_{n-1})}{x_{n} - x_{n - 1}}}$

\textbf{Convergencia:} no converge necesariamente (converge con hip'otesis parecidas a las de newton).
Cuando converge, converge de manera superlineal.

\subsection*{M'etodo de regula falsi}

Como secante combinado con bisecci'on (me quedo con el punto que encierre el 0).

\section{Sistemas de ecuaciones no lineales}

\subsection*{M'etodo de Newton}

$x_{k+1} = x_{k} - J^{-1}(x_{k}) F(x_{k})$

Es cuadr'atico.

\subsection*{M'etodo de secante}

$B_{k} (x_{k-1} - x_{k}) = F(X_{k-1}) - F(x_{k})$

\subsection*{M'etodo de Broyden}

$B_{k} (x_{k-1} - x_{k}) = F(X_{k-1}) - F(x_{k})$

donde 

$B_{k} = B_{k-1} + \frac{(J_{k-1} - B_{k-1} S_{k-1}) S^{t}_{k-1}}{S_{k-1}^{t} S_{k-1}}$

con $S_{k-1} = x_{k} - x_{k-1}$ y $J_{k-1} = F(x_{k}) - F(x_{k-1})$

Es super lineal.

\label{LastPage}

\end{document}
