%Version control information
%$HeadURL: http://curso-estadistica.googlecode.com/svn/trunk/estimacion.tex $} {$LastChangedDate: 2011-12-05 11:17:24 +0000 (Mon, 05 Dec 2011) $
%$LastChangedRevision: 15 $
%$LastChangedBy: asalber $

\section{Estimación de Parámetros}

%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimación de Parámetros}
\tableofcontents[sectionstyle=show/hide,hideothersubsections]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Introducción a la inferencia estadística}
Los modelos de distribución de probabilidad vistos en el tema anterior explican el comportamiento de las variables aleatorias, pero para ello debemos saber qué modelo de distribución sigue una determinada variable.
Este es el primer paso de la etapa de \emph{Inferencia Estadística}. 
 
Para determinar con exactitud el modelo de distribución hay que conocer la característica estudiada en todos los individuos de la población, lo cual no es posible en la mayoría de los casos (inviabilidad económica, física, temporal, etc.).
 
Para evitar estos inconvenientes se recurre al estudio de una muestra, a partir de la cual se trata de averiguar, de manera \emph{aproximada}, el modelo de distribución de la variable aleatoria.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Ventajas e inconvenientes del muestreo}
Estudiar un número reducido de individuos de una muestra en lugar de toda la población tiene indudables ventajas:
\begin{itemize}
\item Menor coste.
\item Mayor rapidez.
\item Mayor facilidad. 
\end{itemize}

Pero también presenta algunos inconvenientes:
\begin{itemize}
\item Necesidad de conseguir una muestra representativa.
\item Posibilidad de cometer errores (\emph{sesgos}).
\end{itemize}

Afortunadamente, estos errores pueden ser superados: La representatividad de la muestra se consigue eligiendo la modalidad de muestreo más apropiada para el tipo de estudio; en el caso de los errores, aunque no se pueden evitar, se tratará de reducirlos al máximo y acotarlos.
\end{frame}


\subsection{Distribuciones muestrales}
%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Variable aleatoria muestral}
Los valores de una variable $X$ en una muestra de tamaño $n$ de una población puede entenderse como un valor de una
variable aleatoria $n$-dimensional.

\begin{definicion}[Variable aleatoria muestral]
Una \emph{variable aleatoria muestral} de una variable $X$ estudiada en una población es una colección de $n$
variables aleatorias $X_1,\ldots,X_n$ tales que:
\begin{itemize}
\item[--] Cada una de las variables $X_i$ sigue la misma distribución de probabilidad que la variable $X$ en
la población.
\item[--] Todas las variables $X_i$ son mutuamente independientes. 
\end{itemize}
\end{definicion}

Los valores que puede tomar esta variable $n$ dimensional, serán todas las posibles muestras de tamaño $n$ que pueden
extraerse de la población.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Obtención de una muestra}
\begin{center}
\input{img/estimacion/obtencion_muestra}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimación de parámetros}
Las tres cuestiones fundamentales respecto a la variable aleatoria muestral son:
\begin{description}
\item [Homogeneidad]: Las $n$ variables que componen la variable aleatoria muestral siguen la misma distribución.
\item [Independencia]: Las variables son independientes entre sí.
\item [Modelo de distribución]: El modelo de distribución que siguen las $n$ variables.
\end{description}
Las dos primeras cuestiones pueden resolverse si se utiliza muestreo aleatorio simple para obtener la muestra. En cuanto a la última, hay que responder, a su vez, a dos cuestiones:
\begin{itemize}
\item ¿Qué modelo de distribución se ajusta mejor a nuestro conjunto de datos? Esto se resolverá, en parte, mediante la utilización de técnicas no paramétricas.
\item Una vez seleccionado el modelo de distribución más apropiado, ¿qué estadístico del modelo nos interesa y cómo determinar su valor? 
De esto último se encarga la parte de la inferencia estadística conocida como \structure{\textbf{Estimación de Parámetros}}.
\end{itemize}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Parámetros a estimar}
En este tema se abordará la segunda cuestión, es decir, suponiendo que se conoce el modelo de distribución de una población, se intentará estimar los principales parámetros que la definen.
Por ejemplo, los principales parámetros que definen las distribuciones vistas en el tema anterior son:
\begin{center}
\begin{tabular}{|l|c|}
\hline
Distribución & Parámetro \\
\hline\hline
Binomial & $n,p$\\
\hline
Poisson & $\lambda$\\
\hline
Uniforme & $a,b$\\
\hline
Normal & $\mu,\sigma$\\
\hline
Chi-cuadrado & $n$\\
\hline
T-Student & $n$\\
\hline
F-Fisher & $m,n$\\
\hline
\end{tabular}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Distribución de la variable aleatoria muestral}
La distribución de probabilidad de los valores de la variable muestral depende claramente de la distribución de probabilidad de los valores de la población.

Ejemplo: Sea una población en la que la cuarta parte de las familias no tienen hijos, la mitad de las familias tiene 1 hijo, y el resto tiene 2 hijos.
\begin{center}
\begin{pspicture}(0,0)(10,4)
\rput[r](3,2){
\[ 
\begin{array}{|c|c|}
\multicolumn{2}{c}{\mbox{Distribución}}\\
\multicolumn{2}{c}{\mbox{Poblacional}}\\
\hline
X & P(x)\\
\hline\hline
0 & 0.25 \\
\hline
1 & 0.50 \\
\hline
2 & 0.25 \\
\hline
\end{array}
\]
}
\psline[linewidth=15pt,linecolor=royalblue1,arrowlength=1,arrowinset=0]{->}(3.5,2)(5.5,2)
\rput[c](4.3,2.15){\scriptsize Muestras de}
\rput[c](4.3,1.85){\scriptsize tamaño 2}
\rput[l](6,2){
\[
\begin{array}{|c|c|}
\multicolumn{2}{c}{\mbox{Distribución muestral}}\\
\hline
(X_1,X_2) & P(x_1,x_2)\\
\hline\hline
(0,0) & 0.0625 \\
\hline
(0,1) & 0.1250 \\
\hline
(0,2) & 0.0625 \\
\hline
(1,0) & 0.1250 \\
\hline
(1,1) & 0.2500 \\
\hline
(1,2) & 0.1250 \\
\hline
(2,0) & 0.0625 \\
\hline
(2,1) & 0.1250 \\
\hline
(2,2) & 0.0625 \\
\hline
\end{array}
\]
}
\end{pspicture}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Distribución de un estadístico muestral}
Por ser función de una variable aleatoria, un estadístico en el muestreo es también una variable aleatoria.

Por tanto, su distribución de probabilidad también depende de la distribución de la población y de los parámetros que la determinan ($\mu,\sigma,p,\ldots $).

Ejemplo: Si se toma la media muestral $\bar X$ de las muestras de tamaño 2 del ejemplo anterior, su distribución de
probabilidad es
\begin{center}
\begin{pspicture}(0,0)(10,4)
\rput[r](4,2){
\[
\begin{array}{|c|c|}
\multicolumn{2}{c}{\mbox{Distribución muestral}}\\
\hline
(X_1,X_2) & P(x_1,x_2)\\
\hline\hline
(0,0) & 0.0625 \\
\hline
(0,1) & 0.1250 \\
\hline
(0,2) & 0.0625 \\
\hline
(1,0) & 0.1250 \\
\hline
(1,1) & 0.2500 \\
\hline
(1,2) & 0.1250 \\
\hline
(2,0) & 0.0625 \\
\hline
(2,1) & 0.1250 \\
\hline
(2,2) & 0.0625 \\
\hline
\end{array}
\]
}
\psline[linewidth=15pt,linecolor=royalblue1,arrowlength=1,arrowinset=0]{->}(4.5,2)(6.5,2)
\rput[c](5.3,2.15){\scriptsize Muestras de}
\rput[c](5.3,1.85){\scriptsize tamaño 2}
\rput[l](7,2){
\[ 
\begin{array}{|c|c|}
\multicolumn{2}{c}{\mbox{Distribución}}\\
\multicolumn{2}{c}{\mbox{de $\bar{x}$}}\\
\hline
\bar X & P(x)\\
\hline\hline
0 & 0.0625 \\
\hline
0.5 & 0.2500 \\
\hline
1 & 0.3750 \\
\hline
1.5 & 0.2500\\
\hline
2 & 0.0625 \\
\hline
\end{array}
\]
}
\end{pspicture}
\end{center}
\end{frame}

%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Distribución de un estadístico muestral}
\begin{center}
\scalebox{0.5}{\input{img/estimacion/distribucion_poblacion}}
\quad
\scalebox{0.5}{\input{img/estimacion/distribucion_media}}

\emph{¿Cuál es la probabilidad de obtener una media muestral que aproxime la media poblacional con un error máximo de 0.5?}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Teorema central del límite}
Como hemos visto, para conocer la distribución de un estadístico muestral, es necesario conocer la distribución de la
población, lo cual no siempre es posible. Afortunadamente, para muestras grandes es posible aproximar la distribución de algunos estadísticos como la media, gracias al siguiente teorema:

\begin{teorema}[Teorema central del límite]
Si $X_1,\ldots, X_n$ son variables aleatorias independientes  ($n\geq 30$) con medias y varianzas $\mu_i=E(X_i)$, $\sigma^2_i=Var(X_i)$, $i=1,\ldots,n$ respectivamente, entonces la variable aleatoria $X=X_1+\cdots+X_n$ sigue una distribución aproximadamente normal de media la suma de las medias y varianza la suma de las varianzas
\[
X=X_1+\cdots+X_n\stackrel{n\geq 30} \sim N\left(\sum_{i=1}^n \mu_i, \sqrt{\sum_{i=1}^n \sigma^2_i}\right)
\]
\end{teorema}

Este teorema además es la explicación de que la mayoría de las variables biológicas presenten una distribución normal, ya que suelen ser causa de múltiples factores que suman sus efectos de manera independiente.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Distribución de la media muestral}
\framesubtitle{Muestras grandes ($n\geq 30$)}
La media muestral de una muestra aleatoria de tamaño $n$ es la suma de $n$ variables aleatorias independientes, idénticamente distribuidas:
\[
\bar X = \frac{X_1+\cdots+X_n}{n} = \frac{X_1}{n}+\cdots+\frac{X_n}{n}
\]
De acuerdo a las propiedades de las transformaciones lineales, la media y la varianza de cada una de estas variables son
\[
E\left(\frac{X_i}{n}\right) =\frac{\mu}{n} \quad  \mbox{y} \quad Var\left(\frac{X_i}{n}\right) = \frac{\sigma^2}{n^2}
\]
con $\mu$ y $\sigma^2$ la media y la varianza de la población de partida. 

Entonces, si el tamaño de la muestra es grande ($n\geq 30$), de acuerdo al teorema central del límite, la distribución de la media muestral será normal:
\[
\bar X \sim N\left(\sum_{i=1}^n \frac{\mu}{n},\sqrt{\sum_{i=1}^n \frac{\sigma^2}{n^2}} \right) = N\left(\mu,\frac{\sigma}{\sqrt{n}} \right).
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Distribución de la media muestral}
\framesubtitle{Ejemplo para muestras grandes ($n\geq 30$)}
Supongase que se desea estimar el número medio de hijos de una población con media $\mu=2$ hijos y desviación típica $\sigma=1$ hijo.
\begin{center}
\emph{¿Qué probabilidad hay de estimar $\mu$ a partir de $\bar x$ con un error menor de $0.2$?}
\end{center}
\begin{columns}
\begin{column}{0.4\textwidth}
De acuerdo al teorema central del límite se tiene:
\begin{itemize}
\item Para $n=30$, $\bar x\sim N(2,1/\sqrt{30})$ y
\[
P(1.8<\bar x<2.2) = 0.7267.
\]

\item Para $n=100$, $\bar x\sim N(2,1/\sqrt{100})$ y
\[
P(1.8<\bar x<2.2) = 0.9545.
\]
\end{itemize}
\end{column}
\begin{column}{0.6\textwidth}
\begin{center}
\scalebox{0.6}{\input{img/estimacion/teorema_central_limite}}
\end{center}
\end{column}
\end{columns}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Distribución de una proporción muestral}
\framesubtitle{Muestras grandes ($n\geq 30$)}
Una proporción $p$ poblacional puede calcularse como la media de una variable dicotómica (0,1). 
Esta variable se conoce como \emph{variable de Bernouilli} $B(p)$, que es un caso particular de la binomial para $n=1$.
Por tanto, para una muestra aleatoria de tamaño $n$, una proporción muestral $\hat p$ también puede expresarse como la suma de $n$ variables aleatorias independientes, idénticamente distribuidas:
\[
\hat p = \bar X = \frac{X_1+\cdots+X_n}{n} = \frac{X_1}{n}+\cdots+\frac{X_n}{n}, \mbox{ con } X_i\sim B(p)
\]
y con media y varianza
\[
E\left(\frac{X_i}{n}\right) =\frac{p}{n} \quad  \mbox{y} \quad Var\left(\frac{X_i}{n}\right) = \frac{p(1-p)}{n^2}
\]

Entonces, si el tamaño de la muestra es grande ($n\geq 30$), de acuerdo al teorema central del límite, la distribución de la proporción muestral también será normal:
\[
\hat p \sim N\left(\sum_{i=1}^n \frac{p}{n},\sqrt{\sum_{i=1}^n \frac{p(1-p)}{n^2}} \right) = N\left(p,\sqrt{\frac{p(1-p)}{n}} \right).
\]
\end{frame}


\subsection{Estimadores}
%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimador y estimación}
Los estadísticos muestrales pueden utilizarse para aproximar los parámetros de la población, y cuando un estadístico se utiliza con este fin se le llama \emph{estimador del parámetro}.
\begin{definicion}[Estimador y estimación]
Un \emph{estimador} es una función de la variable aleatoria muestral
\[
\hat \theta = F(X_1,\ldots,X_n).
\]
Dada una muestra concreta $(x_1,\ldots,x_n)$, el valor del estimador aplicado a ella se conoce como \emph{estimación}
\[
\hat \theta_0 = F(x_1,\ldots,x_n).
\]
\end{definicion}

Por ser una función de la variable aleatoria muestral, un estimador es, a su vez, una variable aleatoria cuya distribución depende de la población de partida. 

Mientras que el estimador es una función que es única, la estimación no es única, sino que depende de la muestra tomada.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimador y estimación}
\begin{center}
\input{img/estimacion/estimador_estimacion}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimador y estimación}
\framesubtitle{Ejemplo}
Supóngase que se quiere saber la proporción $p$ de fumadores en una ciudad. 
En ese caso, la variable dicotómica que mide si una persona fuma (1) o no (0), sigue una distribución de Bernouilli $B(p)$.

Si se toma una muestra aleatoria de tamaño 5, $(X_1,X_2,X_3,X_4,X_5)$, de esta población, se puede utilizar la proporción de fumadores en la muestra como estimador para la proporción de fumadores en la población:
\[
\hat p = \frac{\sum_{i=1}^5 X_i}{5}
\]
Este estimador es una variable que se distribuye
$\hat p\sim \frac{1}{n}B\left(p,\sqrt{\frac{p(1-p)}{n}}\right)$.

Si se toman distintas muestras, se obtienen diferentes estimaciones:
\[
\begin{array}{|c|c|}
\hline
\mbox{Muestra} & \mbox{Estimación}\\
\hline\hline
(1, 0, 0, 1, 1) & 3/5\\
\hline
(1, 0, 0, 0, 0) & 1/5\\
\hline
(0, 1, 0, 0, 1) & 2/5\\
\hline
\cdots & \cdots\\
\hline
\end{array}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Tipos de estimación}
La estimación de parámetros puede realizar de de dos formas:
\begin{description}
\item[Estimación puntual]: Se utiliza un único estimador que proporciona un valor o estimación aproximada del parámetro. 
El principal inconveniente de este tipo de estimación es que no se especifica la bondad de la estimación.
\item[Estimación por intervalos]: Se utilizan dos estimadores que proporcionan los extremos de un intervalo dentro del cual se cree que está el verdadero valor del parámetro con un cierto grado de seguridad.
Esta forma de estimar sí permite controlar el error cometido en la estimación.
\end{description}

\begin{center}
\begin{pspicture}(0,0)(10,2)
\rput(2,2){Estimación puntual}
\psline{|-|}(0,1)(4,1)
\psline{-}(2,0.9)(2,1.1)
\rput(2,0.7){$\theta$}
\psline[linecolor=red]{-}(3,0.9)(3,1.1)
\rput(3,0.7){\alert{$\hat \theta$}}
\rput(8,2){Estimación por intervalos}
\psline{|-|}(6,1)(8,1)(10,1)
\psline{-}(8,0.9)(8,1.1)
\rput(8,0.7){$\theta$}
\rput(7.5,1){\small \color{red}$[$}
\rput(7.5,0.7){\alert{$l_1$}}
\rput(9,1){\small \color{red}$]$}
\rput(9,0.7){\alert{$l_2$}}
\psline[linecolor=red]{-}(7.5,1)(9,1)
\end{pspicture}
\end{center}
\end{frame}


\subsection{Estimación puntual}
%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimación puntual}
La estimación puntual utiliza un único estimador para estimar el valor del parámetro desconocido de la población.

En teoría pueden utilizarse distintos estimadores para estimar un mismo parámetro. Por ejemplo, en el caso de estimar la proporción de fumadores en una ciudad, podrían haberse utilizado otros posibles estimadores además de la proporción muestral, como pueden ser:
\begin{align*}
\hat \theta_1 &= \sqrt[5]{X_1X_2X_3X_4X_5}\\
\hat \theta_2 &= \frac{X_1+X_5}{2}\\
\hat \theta_3 &= X_1 \cdots
\end{align*}

\begin{center}
\alert{\emph{¿Cuál es el mejor estimador?}}
\end{center}

La respuesta a esta cuestión depende de las propiedades de cada estimador. 
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Propiedades de los estimadores}
Aunque la estimación puntual no proporciona ninguna medida del grado de bondad de la estimación, existen varias propiedades que garantizan dicha bondad.

Las propiedades más deseables en un estimador son:
\begin{itemize}
\item Insesgadez
\item Eficiencia
\item Consistencia
\item Normalidad asintótica
\item Suficiencia
\end{itemize} 
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Insesgadez}
\begin{definicion}[Estimador insesgado]
Un estimador $\hat \theta$ es \emph{insesgado} para un parámetro $\theta$ si su esperanza es precisamente $\theta$, es decir,
\[
E(\hat \theta)=\theta.
\]
\end{definicion}
\begin{center}
\scalebox{0.58}{\input{img/estimacion/estimadores_sesgados_insesgados}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Sesgo de un estimador}
Cuando un estimador no es insesgado, a la diferencia entre su esperanza y el valor del parámetro $\theta$ se le llama \emph{sesgo}:
\[
Sesgo(\hat \theta) = E(\hat \theta)-\theta.
\]

Cuanto menor sea el sesgo de un estimador, mejor se aproximarán sus estimaciones al verdadero valor del parámetro.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Consistencia}
\begin{definicion}[Estimador consistente]
Un estimador $\hat \theta_n$ para muestras de tamaño $n$ es \emph{consistente} para un parámetro $\theta$ si para cualquier valor $\epsilon>0$ se cumple
\[
\lim_{n\rightarrow \infty} P(|\hat \theta_n-\theta|<\epsilon)=1.
\]
\end{definicion}
\begin{center}
\scalebox{0.55}{\input{img/estimacion/estimadores_consistentes}}
\scalebox{0.55}{\input{img/estimacion/estimadores_consistentes_sesgados}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Condiciones para la consistencia}
Las condiciones suficientes para que un estimador sea consistente son:
\begin{itemize}
\item $Sesgo(\hat \theta_n)=0$ o $\lim_{n\rightarrow \infty}Sesgo(\hat \theta_n)=0$.
\item $\lim_{n\rightarrow \infty}Var(\hat \theta_n)=0$.
\end{itemize}
Así pues, si la varianza y el sesgo disminuyen a medida que aumenta el tamaño de la muestra, el estimador será consistente.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Eficiencia}
\begin{definicion}[Estimador eficiente]
Un estimador $\hat \theta$ de un parámetro $\theta$ es \emph{eficiente} si tiene el menor error cuadrático medio
\[
ECM(\hat \theta) = Sesgo(\hat \theta)^2+Var(\theta).
\]
\end{definicion}
%Evidentemente, si el estimador con menor varianza es insesgado, entonces es un estimador eficiente. 
\begin{center}
\scalebox{0.58}{\input{img/estimacion/estimador_eficiente_sesgado}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Normalidad asintótica}
\begin{definicion}[Estimador asintóticamente normal]
Un estimador $\hat \theta$ es \emph{asintóticamente normal} si, independientemente de la distribución de la variable aleatoria muestral, su distribución es normal si el tamaño de la muestra es suficientemente grande. 
\end{definicion}
\begin{center}
\scalebox{0.58}{\input{img/estimacion/estimador_asintoticamente_normal}}
\end{center}
Como veremos más adelante esta propiedad es muy interesante para hacer estimaciones de parámetros mediante intervalos. 
\end{frame}

%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Suficiencia}
\begin{definicion}[Estimador suficiente]
Un estimador $\hat \theta$ es \emph{suficiente} para un parámetro $\theta$, si la distribución condicional de la variable aleatoria muestral, una vez dada la estimación $\hat \theta = \hat \theta_0$, no de pende de $\theta$.
\end{definicion}

Esto significa que cuando se obtiene una estimación, cualquier otra información es irrelevante para $\theta$.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimador de la media poblacional}
El estimador que se suele utilizar para estimar la media poblacional es la media muestral. 

Para muestras de tamaño $n$ resulta la siguiente variable aleatoria:
\[
\bar X = \frac{X_1+\cdots+X_n}{n}
\]
Si la población de partida tiene media $\mu$ y varianza $\sigma^2$ se cumple
\[
E(\bar X) = \mu \quad \mbox{y} \quad Var(\bar X)=\frac{\sigma^2}{n}
\]

Así pues, la media muestral es un estimador insesgado, y como su varianza disminuye a medida que aumenta el tamaño muestral, también es consistente y eficiente. 
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimador para la varianza poblacional:\\ La cuasivarianza}
Sin embargo, la varianza muestral 
\[
S^2 = \frac{\sum_{i=1}^n (X_i-\bar X)^2}{n}
\]
es un estimador sesgado para la varianza poblacional, ya que
\[
E(S^2)= \frac{n-1}{n}\sigma^2.
\]

No obstante, resulta sencillo corregir este sesgo para llegar a un estimador insesgado:

\begin{definicion}[Cuasivarianza muestral]
Dada una muestra de tamaño $n$ de una variable aleatoria $X$, se define la \emph{cuasivarianza muestral} como
\[
\hat{S}^2 = \frac{\sum_{i=1}^n (X_i-\bar X)^2}{n-1} = \frac{n}{n-1}S^2.
\]
\end{definicion} 
\end{frame}


\subsection{Estimación por intervalos}
%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Estimación por intervalos}
El principal problema de la estimación puntual es que, una vez seleccionada la muestra y hecha la estimación, resulta imposible saber el error cometido.
\begin{center}
\begin{pspicture}(0,0)(10,2)
\psline{|-|}(3,1)(7,1)
\psline{-}(5,0.9)(5,1.1)
\rput(5,0.7){$\theta$}
\psline[linecolor=red]{-}(6,0.9)(6,1.1)
\rput(6,0.7){\alert{$\hat \theta$}}
\rput(5.5,1.4){$\overbrace{\makebox[1cm]{}}^?$}
\end{pspicture}
\end{center}

Para controlar el error de la estimación es mejor utilizar la estimación por intervalos
\begin{center}
\begin{pspicture}(0,0)(10,2)
\psline{|-|}(3,1)(7,1)
\psline{-}(5,0.9)(5,1.1)
\rput(5,0.7){$\theta$}
\rput(4.5,1){\small \color{red}$[$}
\rput(4.5,0.7){\alert{$l_1$}}
\rput(6,1){\small \color{red}$]$}
\rput(6,0.7){\alert{$l_2$}}
\rput(5.25,1.5){$\overbrace{\makebox[1.5cm]{}}^{\mbox{Error}}$}
\end{pspicture}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalos de confianza}
La estimación por intervalos trata de construir a partir de la muestra un intervalo dentro del cual se supone que se encuentra el parámetro a estimar con un cierto grado de confianza. 
Para ello se utilizan dos estimadores, uno para el límite inferior del intervalo y otro para el superior. 

\begin{definicion}[Intervalo de confianza]
Dados dos estimadores $\hat l_i(X_1,\ldots,X_n)$ y $\hat l_s(X_1,\ldots,X_n)$, y sus respectivas estimaciones $l_1$ y $l_2$ para una muestra concreta, se dice que el intervalo $I=[l_1,l_2]$ es un intervalo de confianza para un parámetro poblacional $\theta$, con un nivel de confianza $1-\alpha$ (o nivel de significación $\alpha$), si se cumple
\[
P(\hat l_i(X_1,\ldots,X_n)\leq \theta \leq \hat l_s(X_1,\ldots,X_n))= 1-\alpha.
\]
\end{definicion}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Nivel de confianza}
Un intervalo de confianza nunca garantiza con absoluta certeza que el parámetro se encuentra dentro él.

Tampoco se puede decir que la probabilidad de que el parámetro esté dentro del intervalo es $1-\alpha$, ya que una vez calculado el intervalo, las variables aleatorias que determinan sus extremos han tomado un valor concreto y ya no tiene sentido hablar de probabilidad, es decir, o el parámetro está dentro, o está fuera, pero con absoluta certeza.

Lo que si se deduce de la definición es que el $(1-\alpha)\%$ de los intervalos correspondientes a las todas las posibles muestras aleatorias, contendrán al parámetro. Es por eso que se habla de \alert{confianza} y no de probabilidad.

Para que un intervalo sea útil su nivel de confianza debe ser alto:
\[
\begin{align*}
1-\alpha &= 0.90 \mbox{ o } \alpha=0.10\\
\alert{1-\alpha} &= \alert{0.95} \mbox{ o } \alert{\alpha=0.05}\\
1-\alpha &= 0.99 \mbox{ o } \alpha=0.01\\
\end{align*}
\]
siendo $0.95$ el nivel de confianza más habitual y $0.99$ en casos críticos.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Nivel de confianza}
Teóricamente, de cada 100 intervalos para estimar un parámetro $\theta$ con nivel de confianza $1-\alpha=0.95$, 95 contendrían a $\theta$ y sólo 5 lo dejarían fuera.
\begin{center}
\scalebox{0.7}{\input{img/estimacion/100_intervalos_confianza}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Error o imprecisión de un intervalo}
Otro de los aspectos más importantes de un intervalo de confianza es su \emph{error} o \emph{imprecisión}.
\begin{definicion}[Error o imprecisión de un intervalo]
El \emph{error} o la \emph{imprecisión} de un intervalo de confianza $[l_i,l_s]$ es su amplitud
\[
A=l_s-l_i.
\]
\end{definicion} 

\begin{center}
\begin{pspicture}(0,0.5)(10,2)
\psline{|-|}(3,1)(7,1)
\psline{-}(5,0.9)(5,1.1)
\rput(5,0.7){$\theta$}
\rput(4.5,1){\small \color{red}$[$}
\rput(4.5,0.7){\alert{$l_1$}}
\rput(6,1){\small \color{red}$]$}
\rput(6,0.7){\alert{$l_2$}}
\rput(5.25,1.5){$\overbrace{\makebox[1.5cm]{}}^{\mbox{Imprecisión}}$}
\end{pspicture}
\end{center}

Para que un intervalo sea útil no debe ser demasiado impreciso.

\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{¿De qué depende la imprecisión de un intervalo?}
En general, la precisión de un intervalo depende de tres factores:
\begin{itemize}
\item La dispersión de la población. Cuanto más dispersa sea, menos preciso será el intervalo.
\item El nivel de confianza. Cuanto mayor sea el nivel de confianza, menos preciso será el intervalo.
\item El tamaño muestral. Cuanto mayor sea el tamaño muestral, más preciso será el intervalo.
\end{itemize}
\begin{center}
\emph{Si la confianza y la precisión están reñidas, ¿cómo se puede ganar precisión sin perder confianza?}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Cálculo de los intervalos de confianza}
Habitualmente, para calcular un intervalo de confianza se suele partir de un estimador puntual del que se conoce su distribución muestral.

A partir de este estimador se calculan los extremos del intervalo sobre su distribución, buscando los valores que dejan encerrada una probabilidad $1-\alpha$.
Estos valores suelen tomarse de manera simétrica, de manera que el extremo inferior deje una probabilidad acumulada inferior $\alpha/2$ y el extremo superior deje una probabilidad acumulada superior también de $\alpha/2$.
\begin{center}
\scalebox{0.5}{\input{img/estimacion/extremos_intervalos}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalos de confianza más importantes}
Intervalos para una población:
\begin{itemize}
\item Intervalo para la media de una población normal con varianza conocida.
\item Intervalo para la media de una población normal con varianza desconocida.
\item Intervalo para la media de una población con varianza desconocida a partir de muestras grandes.
\item Intervalo para la varianza de una población normal. 
\item Intervalo para un proporción de una población.
\end{itemize}
Intervalos para la comparación de dos poblaciones:
\begin{itemize}
\item Intervalo para la diferencia de medias de dos poblaciones normales con varianzas conocidas.
\item Intervalo para la diferencia de medias de dos poblaciones normales con varianzas desconocidas pero iguales.
\item Intervalo para la diferencia de medias de dos poblaciones normales con varianzas desconocidas y diferentes.
\item Intervalo para el cociente de varianzas de dos poblaciones normales.
\item Intervalo para la diferencia de proporciones de dos poblaciones.
\end{itemize}
\end{frame}


\subsection{Intervalos de confianza para una población}
%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población normal con varianza conocida}
Sea $X$ una variable aleatoria que cumple las siguientes hipótesis:
\begin{itemize}
\item[--] Su distribución es normal $X\sim N(\mu,\sigma)$.
\item[--] La media $\mu$ es desconocida, pero su varianza $\sigma^2$ es conocida.
\end{itemize}

Bajo estas hipótesis, la media muestral, para muestras de tamaño $n$, sigue también una distribución normal
\[
\bar X \sim N\left(\mu,\frac{\sigma}{\sqrt n}\right)
\]
Tipificando la variable se tiene
\[
Z=\frac{\bar X-\mu}{\sigma/\sqrt n} \sim N(0,1)
\]
Sobre esta distribución resulta sencillo calcular los valores $z_i$ y $z_s$ de manera que
\[
P(z_i\leq Z \leq z_s) = 1-\alpha.
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población normal con varianza conocida}
Como la distribución normal estándar es simétrica respecto al 0, lo mejor es tomar valores opuestos $-z_{\alpha/2}$ y $z_{\alpha/2}$ que dejen sendas colas de probabilidad acumulada $\alpha/2$.
\begin{center}
\scalebox{0.6}{\input{img/estimacion/extremos_intervalo_media_normal}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población normal con varianza conocida}
A partir de aquí, deshaciendo la tipificación, resulta sencillo llegar a los estimadores que darán los extremos del intervalo de confianza:
\[
\begin{align*}
1-\alpha &= P(-z_{\alpha/2}\leq Z \leq z_{\alpha/2}) = P\left(-z_{\alpha/2}\leq \frac{\bar X -\mu}{\sigma/\sqrt{n}} \leq z_{\alpha/2}\right) =\\
&= P\left(-z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\leq \bar X -\mu \leq z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right)=\\
&= P\left(-\bar{X}-z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\leq -\mu \leq -\bar{X}+z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right)= \\
&= P\left(\bar{X}-z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\leq \mu \leq \bar{X}+z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right).
\end{align*}
\]
Así pues, el intervalo de confianza para la media de una población normal con varianza conocida es:
\[
\alert{\left[\bar{X}-z_{\alpha/2}\frac{\sigma}{\sqrt{n}},\bar{X}+z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right]}
\mbox{ o bien } 
\alert{\bar{X}\pm z_{\alpha/2}\frac{\sigma}{\sqrt{n}}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Características del intervalo}
De la fórmula del intervalo de confianza
\[
\bar{X}\pm z_{\alpha/2}\frac{\sigma}{\sqrt{n}}
\]
se deducen varias características:
\begin{itemize}
\item El intervalo está centrado en la media muestral $\bar X$ que era el mejor estimador de la media poblacional.
\item La amplitud o imprecisión del intervalo es 
\[
A= 2 z_{\alpha/2}\frac{\sigma}{\sqrt{n}}
\]
de manera que depende de:
\begin{itemize}
\item[--] $\sigma$: cuanto mayor sea la varianza poblacional, mayor será la imprecisión.
\item[--] $z_{\alpha/2}$: que a su vez depende del nivel de confianza, y cuanto mayor sea $1-\alpha$, mayor será la imprecisión.
\item[--] $n$: cuanto mayor sea el tamaño de la muestra, menor será la imprecisión. 
\end{itemize}
\end{itemize}
Por tanto, la única forma de reducir la imprecisión del intervalo, manteniendo la confianza, es aumentando el tamaño muestral.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Control de la imprecisión mediante el tamaño muestral}
Teniendo en cuenta que la amplitud o imprecisión del intervalo para la media de una población normal con varianza conocida es
\[
A= 2 z_{\alpha/2}\frac{\sigma}{\sqrt{n}}
\]
se puede calcular fácilmente el tamaño muestral necesario para conseguir un intervalo de amplitud $A$ con confianza $1-\alpha$:
\[
A= 2 z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \Leftrightarrow \sqrt{n}= 2 z_{\alpha/2}\frac{\sigma}{A},
\]
de donde se deduce
\[
\alert{n = 4 z_{\alpha/2}^2\frac{\sigma^2}{A^2}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población normal con varianza conocida}
\framesubtitle{Ejemplo}
Sea una población de estudiantes en la que la puntuación obtenida en un examen sigue una distribución normal $X\sim N(\mu,\sigma=1.5)$.

Para estimar la nota media $\mu$, se toma una muestra de 10 estudiantes:
\[
4 - 6 - 8 - 7 - 7 - 6 - 5 - 2 - 5 - 3
\]

A partir de esta muestra, podemos calcular el intervalo de confianza para $\mu$ con un nivel de confianza $1-\alpha=0.95$ (nivel de significación $\alpha=0.05$):
\begin{itemize}
\item[--] $\bar X = \frac{4+\cdots+3}{10}= \frac{53}{10} = 5.3$ puntos.
\item[--] $z_{\alpha/2}=z_{0.025}$ es el valor de la normal estándar que deja una probabilidad acumulada superior de $0.025$, que vale aproximadamente $1.96$.
\end{itemize}
Sustituyendo estos valores en la fórmula del intervalo, se tiene
\[
\bar{X}\pm z_{\alpha/2}\frac{\sigma}{\sqrt{n}} = 5.3\pm 1.96\frac{1.5}{\sqrt{10}} = 5.3\pm 0.93 = \left[4.37,\,6.23\right].
\]
Es decir, $\mu$ estaría entre $4.37$ y $6.23$ puntos con un 95\% de confianza.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Control de la imprecisión mediante el tamaño muestral}
\framesubtitle{Ejemplo}
La imprecisión del intervalo anterior es de $\pm 0.93$ puntos.

Si se desea reducir esta imprecisión a $\pm 0.5$ puntos, \emph{¿qué tamaño muestral sería necesario?}
\[
n = 4 z_{\alpha/2}^2\frac{\sigma^2}{A^2} = 4\cdot 1.96^2\frac{1.5^2}{(2\cdot 0.5)^2} = 34.57.
\]
Por tanto, se necesitaría una muestra de al menos 35 estudiantes para conseguir un intervalo del 95\% de confianza y una precisión de $\pm
0.5$ puntos.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población normal con varianza desconocida}
Sea $X$ una variable aleatoria que cumple las siguientes hipótesis:
\begin{itemize}
\item[--] Su distribución es normal $X\sim N(\mu,\sigma)$.
\item[--] Tanto su media $\mu$ como su varianza $\sigma^2$ son desconocidas.
\end{itemize}

Cuando se desconoce la varianza poblacional se suele estimar mediante la cuasivarianza $\hat{S}^2$.
Como consecuencia, el estimador de referencia ya no sigue una distribución normal como en el caso de conocer la varianza, sino un T de Student de $n-1$ grados de libertad:
\[
\left.
\begin{array}{l}
\bar X \sim N\left(\mu,\frac{\sigma}{\sqrt{n}}\right)\\
\displaystyle\frac{(n-1)\hat{S}^2}{\sigma^2}\sim \chi^2(n-1)
\end{array}
\right\}
\Rightarrow 
\frac{\bar X -\mu}{\hat{S}/\sqrt{n}}\sim T(n-1),
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población normal con varianza desconocida}
Como la distribución T de Student, al igual que la normal, también es simétrica respecto al 0, se pueden tomar dos valores opuestos $-t^{n-1}_{\alpha/2}$ y $t^{n-1}_{\alpha/2}$ de manera que
\[
P\left(-t^{n-1}_{\alpha/2}\leq \frac{\bar X -\mu}{\hat{S}/\sqrt{n}} \leq t^{n-1}_{\alpha/2}\right) = 1-\alpha.
\]
y a partir de aquí se llega, razonando como antes, al intervalo
\[
\alert{\left[\bar{X}-t^{n-1}_{\alpha/2}\frac{\hat{S}}{\sqrt{n}},\bar{X}+t^{n-1}_{\alpha/2}\frac{\hat{S}}{\sqrt{n}}\right]}
\mbox{ o bien }
\alert{\bar{X}\pm t^{n-1}_{\alpha/2}\frac{\hat{S}}{\sqrt{n}}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Control de la imprecisión mediante el tamaño muestral}
Al igual que antes, teniendo en cuenta que la amplitud o imprecisión del intervalo para la media de una población con varianza desconocida es
\[
A= 2 t^{n-1}_{\alpha/2}\frac{\hat{S}}{\sqrt{n}}
\]
se puede calcular fácilmente el tamaño muestral necesario para conseguir un intervalo de amplitud $A$ con confianza $1-\alpha$:
\[
A= 2 t^{n-1}_{\alpha/2}\frac{\hat{S}}{\sqrt{n}} \Leftrightarrow \sqrt{n}= 2 t^{n-1}_{\alpha/2}\frac{\hat{S}}{A},
\]
de donde se deduce
\[
\alert{n = 4 (t^{n-1}_{\alpha/2})^2\frac{\hat{S}^2}{A^2}}
\]
El único problema, a diferencia del caso anterior en que $\sigma$ era conocida, es que se necesita $\hat{S}$, por lo
que se suele tomar una muestra pequeña previa para calcularla. Por otro lado, el valor de la T de student suele
aproximarse asintóticamente por el de la normal estándar $t^{n-1}_{\alpha/2}\approx z_{\alpha/2}$.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población normal con varianza desconocida}
\framesubtitle{Ejemplo}
Supóngase que en el ejemplo anterior no se conoce la varianza poblacional de las puntuaciones.

Trabajando con la misma muestra de las puntuaciones de 10 estudiantes
\[
4 - 6 - 8 - 7 - 7 - 6 - 5 - 2 - 5 - 3
\]
se puede calcular el intervalo de confianza para $\mu$ con un nivel de confianza $1-\alpha=0.95$ (nivel de significación $\alpha=0.05$):
\begin{itemize}
\item[--] $\bar X = \frac{4+\cdots+3}{10}= \frac{53}{10} = 5.3$ puntos.
\item[--] $\hat{S}^2= \frac{(4-5.3)^2+\cdots+(3-5.3)^2}{9} = 3.5667$ y $\hat{S}=\sqrt{3.5667}=1.8886$ puntos.
\item[--] $t^{n-1}_{\alpha/2}=t^9_{0.025}$ es el valor de la T de Student de 9 grados de libertad, que deja una probabilidad acumulada
superior de $0.025$, que vale $2.2622$.
\end{itemize}
Sustituyendo estos valores en la fórmula del intervalo, se tiene
\[
\bar{X}\pm t^{n-1}_{\alpha/2}\frac{\hat{S}}{\sqrt{n}} = 5.3\pm 2.2622\frac{1.8886}{\sqrt{10}} = 5.3\pm 1.351 = \left[3.949,\,6.651\right].
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Control de la imprecisión mediante el tamaño muestral}
\framesubtitle{Ejemplo}
Como se puede apreciar, la imprecisión del intervalo anterior es de $\pm 1.8886$ puntos, que es significativamente mayor que en el caso de
conocer la varianza de la población. Esto es lógico pues al tener que estimar la varianza de la población, el error de la estimación se agrega al error del intervalo.

Ahora, el tamaño muestral necesario para reducir la imprecisión a $\pm 0.5$ puntos es
\[
n = 4 (z_{\alpha/2})^2\frac{\hat{S}^2}{A^2} = 4\cdot 1.96^2\frac{3.5667}{(2\cdot 0.5)^2} = 54.81.
\]
Por tanto, si se desconoce la varianza de la población se necesita una muestra de al menos 55 estudiantes para conseguir un
intervalo del 95\% de confianza y una precisión de $\pm 0.5$ puntos.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la media de una población no normal con varianza desconocida y muestras grandes}
Sea $X$ una variable aleatoria que cumple las siguientes hipótesis:
\begin{itemize}
\item[--] Su distribución no es normal.
\item[--] Tanto su media $\mu$ como su varianza $\sigma^2$ son desconocidas.
\end{itemize}

Si la población no es normal las distribuciones de los estimadores de referencia cambian, de manera que los intervalos anteriores no son válidos.

No obstante, si la muestras es grande ($n\geq 30$), de acuerdo al teorema central del límite, la distribución de la media muestral se aproximará a una normal, de modo que sigue siendo cierto 
\[
\bar X \sim N\left(\mu,\frac{\sigma}{\sqrt{n}}\right)
\]
y en consecuencia, sigue siendo válido el intervalo 
\[
\alert{\bar{X}\pm t^{n-1}_{\alpha/2}\frac{\hat{S}}{\sqrt{n}}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la varianza de una población normal}
Sea $X$ una variable aleatoria que cumple las siguientes hipótesis:
\begin{itemize}
\item Su distribución es normal $X\sim N(\mu,\sigma)$.
\item Tanto su media $\mu$ como su varianza $\sigma^2$ son desconocidas.
\end{itemize}

Para estimar la varianza de una población normal, se parte del estimador de referencia
\[
\frac{nS^2}{\sigma^2} = \frac{(n-1)\hat{S}^2}{\sigma^2}\sim \chi^2(n-1),
\]
que sigue una distribución chi-cuadrado de $n-1$ grados de libertad.

Sobre esta distribución hay que calcular los valores $\chi_i$ y $\chi_s$ tales que
\[
P(\chi_i\leq \chi^2(n-1) \leq \chi_s) = 1-\alpha.
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la varianza de una población normal}
Como la distribución chi-cuadrado no es simétrica respecto al 0, se toman dos valores $\chi^{n-1}_{\alpha/2}$ y $\chi^{n-1}_{1-\alpha/2}$ que dejen sendas colas de probabilidad acumulada inferior de $\alpha/2$ y $1-\alpha/2$ respectivamente.
\begin{center}
\scalebox{0.6}{\input{img/estimacion/extremos_intervalo_varianza_normal}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la varianza de una población normal}
Así pues, se tiene
\[
\begin{align*}
1-\alpha &= P\left(\chi^{n-1}_{\alpha/2}\leq \frac{nS^2}{\sigma^2}  \leq \chi^{n-1}_{1-\alpha/2}\right) = 
P\left(\frac{1}{\chi^{n-1}_{\alpha/2}}\geq \frac{\sigma^2}{nS^2}  \geq \frac{1}{\chi^{n-1}_{1-\alpha/2}}\right)=\\
&= P\left(\frac{1}{\chi^{n-1}_{1-\alpha/2}}\leq \frac{\sigma^2}{nS^2}  \leq \frac{1}{\chi^{n-1}_{\alpha/2}}\right) 
= P\left(\frac{nS^2}{\chi^{n-1}_{1-\alpha/2}}\leq \sigma^2  \leq \frac{nS^2}{\chi^{n-1}_{\alpha/2}}\right),
\end{align*}
\]
y el intervalo de confianza para la varianza de una población normal es:
\[
\alert{\left[\frac{nS^2}{\chi^{n-1}_{1-\alpha/2}},\frac{nS^2}{\chi^{n-1}_{\alpha/2}}\right]}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la varianza de una población normal}
\framesubtitle{Ejemplo}
Siguiendo con el ejemplo de las puntuaciones en un examen, si se quiere estimar la varianza a partir de la muestra:
\[
4 - 6 - 8 - 7 - 7 - 6 - 5 - 2 - 5 - 3
\]
para el intervalo de confianza para $\sigma^2$ con un nivel de confianza $1-\alpha=0.95$ (nivel de significación $\alpha=0.05$) se tiene:
\begin{itemize}
\item[--] $S^2= \frac{(4-5.3)^2+\cdots+(3-5.3)^2}{10} = 3.21$ puntos$^2$.
\item[--] $\chi^{n-1}_{\alpha/2}=\chi^9_{0.025}$ es el valor de la chi-cuadrado de 9 grados de libertad, que deja una probabilidad acumulada
inferior de $0.025$, y vale $2.7$.
\item[--] $\chi^{n-1}_{1-\alpha/2}=\chi^9_{0.975}$ es el valor de la chi-cuadrado de 9 grados de libertad, que deja una probabilidad
acumulada inferior de $0.975$, y vale $19$.
\end{itemize}
Sustituyendo estos valores en la fórmula del intervalo, se llega a
\[
\left[\frac{nS^2}{\chi^{n-1}_{1-\alpha/2}},\frac{nS^2}{\chi^{n-1}_{\alpha/2}}\right] = 
\left[\frac{10\cdot 3.21}{19},\frac{10\cdot 3.21}{2.7}\right] = [1.69,\,11.89] \text{ puntos}^2.
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la proporción de una población y muestras grandes}
Para estimar la proporción $p$ de individuos de una población que presentan una determinada característica, se parte de la variable que mide el número de individuos que la presentan en una muestra de tamaño $n$.
Dicha variable sigue una distribución binomial
\[
X\sim B(n,p)
\]

Como ya se vio, si el tamaño muestral es suficientemente grande (en realidad basta que se cumpla $np\geq 5$ y $n(1-p)\geq 5$), el teorema central de límite asegura que $X$ tendrá una distribución aproximadamente normal
\[
X\sim N(np,\sqrt{np(1-p)}).
\]

En consecuencia, la proporción muestral $\hat p$ también será normal
\[
\hat{p}=\frac{X}{n} \sim N\left(p,\sqrt{\frac{p(1-p)}{n}}\right),
\]
que es el estimador de referencia.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la proporción de una población y muestras grandes}
Trabajando con la distribución del estimador de referencia
\[
\hat p\sim N\left(p,\sqrt{\frac{p(1-p)}{n}}\right)
\]
tras tipificar, se pueden encontrar fácilmente, al igual que hicimos antes, valores $-z_{\alpha/2}$ y $z_{\alpha/2}$
que cumplan
\[
P\left(-z_{\alpha/2}\leq \frac{\hat p-p}{\sqrt{p(1-p)/n}}\leq z_{\alpha/2} \right).
\]
Finalmente, deshaciendo la tipificación y razonando como antes, se llega fácilmente a la fórmula del intervalo
\[
\alert{\left[\hat{p}-z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}},\hat{p}+z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}}\right]}
\mbox{ o bien } 
\alert{\hat{p}\pm z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Control de la imprecisión mediante el tamaño muestral}
La amplitud o imprecisión del intervalo para la proporción de una población es
\[
A= 2 z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}}
\]
así que se puede calcular fácilmente el tamaño muestral necesario para conseguir un intervalo de amplitud $A$ con confianza $1-\alpha$:
\[
A= 2 z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}} \Leftrightarrow A^2= 4 z_{\alpha/2}^2\frac{\hat{p}(1-\hat{p})}{n},
\]
de donde se deduce
\[
\alert{n= 4 z_{\alpha/2}^2\frac{\hat{p}(1-\hat{p})}{A^2}}
\]
Para poder hacer el cálculo se necesita una estimación de la proporción $\hat{p}$, por lo que suele tomarse una muestra previa pequeña para calcularla.
En el peor de los casos, si no se dispone de una muestra previa, puede tomarse $\hat{p}=0.5$. 
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la proporción de una población y muestras grandes}
\framesubtitle{Ejemplo}
Supóngase que se quiere estimar la proporción de fumadores que hay en una determinada población.
Para ello se toma una muestra de 20 personas y se observa si fuman (1) o no (0):
\[
0 - 1 - 1 - 0 - 0 - 0 - 1 - 0 - 0 - 1 - 0 - 0 - 0 - 1 - 1- 0 - 1 - 1 - 0 - 0
\]
Entonces:
\begin{itemize}
\item[--] $\hat p=\frac{8}{20}=0.4$, por tanto, se cumple $np=20\cdot 0.4 = 8\geq 5$ y $n(1-p)=20\cdot 0.6= 12\geq 5$.
\item[--] $z_{\alpha/2}=z_{0.025}$ es el valor de la normal estándar que deja una probabilidad acumulada superior de $0.025$, que vale aproximadamente $1.96$.
\end{itemize}
Sustituyendo estos valores en la fórmula del intervalo, se tiene
\[
\hat{p}\pm z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}} = 0.4\pm 1.96\sqrt{\frac{0.4\cdot 0.6}{10}} = 0.4\pm  0.3 = \left[0.1,\,0.7\right].
\]
Es decir, $p$ estaría entre $0.1$ y $0.7$ con un 95\% de confianza.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Control de la imprecisión mediante el tamaño muestral}
\framesubtitle{Ejemplo}
Como se puede apreciar la imprecisión del intervalo anterior es $\pm 0.3$, que es enorme teniendo en cuenta que se trata de un intervalo para una proporción.

Para conseguir intervalos precisos para estimar proporciones se necesitan tamaños muestrales bastante grandes.
Si por ejemplo se quiere una precisión de $\pm 0.05$, el tamaño muestral necesario sería:
\[
n= 4 z_{\alpha/2}^2\frac{\hat{p}(1-\hat{p})}{A^2}=4\cdot 1.96^2\frac{0.4\cdot 0.6}{(2\cdot0.05)^2}= 368.79.
\]
Es decir, se necesitarían al menos 369 individuos para conseguir un intervalo para la proporción con una confianza del $95\%$.
\end{frame}


\subsection{Intervalos de confianza para la comparación dos poblaciones}
%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Comparación de dos poblaciones}
En muchos estudios el objetivo en sí no es averiguar el valor de un parámetro, sino compararlo con el de otra población.
Por ejemplo, comparar si un determinado parámetro vale lo mismo en la población de hombres y en la de mujeres.

En estos casos no interesa realmente estimar los dos parámetros por separado, sino hacer una estimación que permita su comparación.

Se verán tres casos:
\begin{description}
\item[Comparación de medias]: Se estima la diferencia de medias $\mu_1-\mu_2$.
\item[Comparación de varianzas]: Se estima la razón de varianzas $\displaystyle \frac{\sigma^2_1}{\sigma^2_2}$.
\item[Comparación de proporciones]: Se estima la diferencia de proporciones $\hat p_1-\hat p_2$.
\end{description}   
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas conocidas}
Sean $X_1$ y $X_2$ dos variables aleatorias que cumplen las siguientes hipótesis:
\begin{itemize}
\item Su distribución es normal $X_1\sim N(\mu_1,\sigma_1)$ y $X_2\sim N(\mu_2,\sigma_2)$.
\item Sus medias $\mu_1$ y $\mu_2$ son desconocidas, pero sus varianzas $\sigma^2_1$ y $\sigma^2_2$ son conocidas.
\end{itemize}
Bajo estas hipótesis, si se toman dos muestras independientes, una de cada población, de tamaños $n_1$ y $n_2$ respectivamente, la diferencia de las medias muestrales sigue una distribución normal
\[
\left.
\begin{array}{l}
\bar{X}_1\sim N\left(\mu_1,\frac{\sigma_1}{\sqrt{n_1}} \right)\\
\bar{X}_2\sim N\left(\mu_2,\frac{\sigma_2}{\sqrt{n_2}} \right)
\end{array}
\right\}
\Rightarrow
\bar{X}_1-\bar{X}_2 \sim N\left(\mu_1-\mu_2,\sqrt{\frac{\sigma^2_1}{n_1}+\frac{\sigma^2_2}{n_2}}\right).
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas conocidas}
A partir de aquí, tipificando, se pueden buscar los valores de la normal estándar $-z_{\alpha/2}$ y $z_{\alpha/2}$ que cumplen:
\[
P\left(-z_{\alpha/2}\leq \frac{(\bar{X}_1-\bar{X}_2)-(\mu_1-\mu_2)}{\sqrt{\frac{\sigma^2_1}{n_1}+\frac{\sigma^2_2}{n_2}}} \leq z_{\alpha/2}\right) = 1-\alpha.
\]
Y deshaciendo la tipificación, se llega fácilmente al intervalo
\[
\alert{\left[\bar{X}_1-\bar{X}_2-z_{\alpha/2}\sqrt{\frac{\sigma^2_1}{n_1}+\frac{\sigma^2_2}{n_2}},\bar{X}_1-\bar{X}_2+z_{\alpha/2}\sqrt{\frac{\sigma^2_1}{n_1}+\frac{\sigma^2_2}{n_2}}\right]}
\]
o bien
\[
\alert{\bar{X}_1-\bar{X}_2\pm z_{\alpha/2}\sqrt{\frac{\sigma^2_1}{n_1}+\frac{\sigma^2_2}{n_2}}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas desconocidas
e iguales}
Sean $X_1$ y $X_2$ dos variables aleatorias que cumplen las siguientes hipótesis:
\begin{itemize}
\item[--] Su distribución es normal $X_1\sim N(\mu_1,\sigma_1)$ y $X_2\sim N(\mu_2,\sigma_2)$.
\item[--] Sus medias $\mu_1$ y $\mu_2$ son desconocidas y sus varianzas también, pero son iguales
$\sigma^2_1=\sigma^2_2=\sigma^2$.
\end{itemize}
Cuando se desconoce la varianza poblacional se puede estimar a partir de las muestras de tamaños $n_1$ y $n_2$  de ambas poblaciones mediante la \emph{cuasivarianza ponderada}:
\[
\hat{S}^2_p = \frac{n_1S^2_1+n_2S^2_2}{n_1+n_2-2}.
\]
El estimador de referencia en este caso sigue una distribución T de Student:
\[
\left.
\begin{array}{l}
\bar{X}_1-\bar{X}_2\sim N\left(\mu_1-\mu_2,\sigma\sqrt{\frac{n_1+n_2}{n_1n_2}} \right)\\
\displaystyle \frac{n_1S_1^2+n_2S_2^2}{\sigma^2} \sim \chi^2(n_1+n_2-2)
\end{array}
\right\}
\Rightarrow
\frac{(\bar{X}_1-\bar{X}_2)-(\mu_1-\mu_2)}{\hat{S}_p\sqrt{\frac{n_1+n_2}{n_1n_2}}} \sim T(n_1+n_2-2).
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas
desconocidas e iguales}
A partir de aquí, se pueden buscar los valores de la T de Student
$-t^{n_1+n_2-2}_{\alpha/2}$ y $t^{n_1+n_2-2}_{\alpha/2}$ que cumplen
\[
P\left(-t^{n_1+n_2-2}_{\alpha/2}\leq \frac{(\bar{X}_1-\bar{X}_2)-(\mu_1-\mu_2)}{\hat{S}_p\sqrt{\frac{n_1+n_2}{n_1n_2}}}
\leq t^{n_1+n_2-2}_{\alpha/2}\right) = 1-\alpha,
\]
de donde se llega al intervalo
\[
\alert{\left[\bar{X}_1-\bar{X}_2-t^{n_1+n_2-2}_{\alpha/2}\hat{S}_p\sqrt{\frac{n_1+n_2}{n_1n_2}},\bar{X}_1-\bar{X}_2+t^{n_1+n_2-2}_{\alpha/2}\hat{S}_p\sqrt{\frac{n_1+n_2}{n_1n_2}}\right]}
\]
o bien
\[
\alert{\bar{X}_1-\bar{X}_2\pm t^{n_1+n_2-2}_{\alpha/2}\hat{S}_p\sqrt{\frac{n_1+n_2}{n_1n_2}}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Interpretación del intervalo de confianza para la diferencia de medias de dos poblaciones}
Si $[l_i,l_s]$ es un intervalo de confianza de nivel $1-\alpha$ para la diferencia de medias $\mu_1-\mu_2$, entonces
\[
\mu_1-\mu_2 \in [l_i,l_s]
\]
con una confianza del $1-\alpha\%$.

Por consiguiente, según los valores del intervalo de confianza se tiene:
\begin{itemize}
\item[--] Si todos los valores del intervalo son negativos $(l_s<0)$, entonces se puede concluir que $\mu_1-\mu_2<0$ y
por tanto $\mu_1<\mu_2$.
\item[--] Si todos los valores del intervalo son positivos $(l_i>0)$, entonces se puede concluir que $\mu_1-\mu_2>0$ y
por tanto $\mu_1>\mu_2$.
\item[--] Si el intervalo tiene tanto valores positivos como negativos, y por tanto contiene al 0 ($0\in [l_i,l_s])$,
entonces no se puede afirmar que una media sea mayor que la otra. En este caso se suele asumir la hipótesis de que las medias son iguales $\mu_1=\mu_2$.
\end{itemize}
Tanto en el primer como en el segundo caso se dice que entre las medias hay diferencias \emph{estadísticamente significativas}.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas desconocidas
e iguales}
\framesubtitle{Ejemplo}
Supóngase que se quiere comparar el rendimiento académico de dos grupos de alumnos, uno con 10 alumnos y otro con 12, que han seguido metodologías diferentes.
Para ello se les realiza un examen y se obtienen las siguientes puntuaciones:
\begin{align*}
X_1 &: 4 - 6 - 8 - 7 - 7 - 6 - 5 - 2 - 5 - 3 \\
X_2 &: 8 - 9 - 5 - 3 - 8 - 7 - 8 - 6 - 8 - 7 - 5 - 7  
\end{align*}
Si se supone que ambas variables tienen la misma varianza, se tiene
\begin{itemize}
\item[--] $\bar{X}_1 = \frac{4+\cdots +3}{10}=5.3$ y $\bar{X}_2=\frac{8+\cdots +7}{12}=6.75$ puntos.
\item[--] $S_1^2= \frac{4^2+\cdots + 3^2}{10}-5.3^2=3.21$ y $S_2^2= \frac{8^2+\cdots
+3^2}{12}-6.75^2=2.6875$ puntos$^2$.
\item[--] $\hat{S}_p^2 = \frac{10\cdot 3.21+12\cdot 2.6875}{10+12-2}= 3.2175$ puntos$^2$, y $\hat S_p=1.7937$.
\item[--] $t^{n_1+n_2-2}_{\alpha/2}=t^{20}_{0.025}$ es el valor de la T de Student de 20 grados de libertad que deja una probabilidad acumulada superior de $0.025$, y que vale aproximadamente $2.09$. 
\end{itemize}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas desconocidas
e iguales}
\framesubtitle{Ejemplo}
Y sustituyendo en la fórmula del intervalo llegamos a 
\[
5.3-6.75 \pm 2.086\cdot 1.7937\sqrt{\frac{10+12}{10\cdot 12}} = -1.45\pm 1.6021 = [-3.0521,\,0.1521] \text{ puntos}.
\]
Es decir, la diferencia de puntuaciones medias $\mu_1-\mu_2$ está entre $-3.0521$ y $0.1521$ puntos con una confianza
del $95\%$.

A la vista del intervalo se puede concluir que, puesto que el intervalo contiene tanto valores positivos como
negativos, y por tanto contiene al 0, no puede afirmarse que una de las medias se mayor que la otra, de modo que se
supone que son iguales y no se puede decir que haya diferencias significativas entre los grupos.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas desconocidas}
Sean $X_1$ y $X_2$ dos variables aleatorias que cumplen las siguientes hipótesis:
\begin{itemize}
\item[--] Su distribución es normal $X_1\sim N(\mu_1,\sigma_1)$ y $X_2\sim N(\mu_2,\sigma_2)$.
\item[--] Sus medias $\mu_1$, $\mu_2$ y varianzas $\sigma_1^2$, $\sigma_2^2$, son desconocidas, pero $\sigma^2_1\not =
\sigma^2_2$.
\end{itemize}
En este caso el estimador de referencia sigue una distribución T de Student
\[
\frac{(\bar{X}_1-\bar{X}_2)-(\mu_1-\mu_2)}{\sqrt{\frac{\hat{S}^2_1}{n_1}+\frac{\hat{S}^2_2}{n_2}}} \sim T(g),
\]
donde el número de gados de libertad es
\[
g=n_1+n_2-2-\Delta\quad \text{siendo } \Delta =
\frac{(\frac{n_2-1}{n_1}\hat{S}_1^2-\frac{n_1-1}{n_2}\hat{S}_2^2)^2}{\frac{n_2-1}{n_1^2}\hat{S}_1^4+\frac{n_1-1}{n_2^2}\hat{S}_2^4}.
\] 
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de medias de dos poblaciones normales con varianzas desconocidas}
A partir de aquí, una vez más, se pueden buscar los valores de la T de Student $-t^{g}_{\alpha/2}$ y $t^{g}_{\alpha/2}$ que cumplen
\[
P\left(-t^{g}_{\alpha/2}\leq \frac{(\bar{X}_1-\bar{X}_2)-(\mu_1-\mu_2)}{\sqrt{\frac{\hat{S}^2_1}{n_1}+\frac{\hat{S}^2_2}{n_2}}} \leq t^{g}_{\alpha/2}\right) = 1-\alpha,
\]
de donde llegamos al intervalo
\[
\alert{\left[\bar{X}_1-\bar{X}_2-t^{g}_{\alpha/2}\sqrt{\frac{\hat{S}^2_1}{n_1}+\frac{\hat{S}^2_2}{n_2}},\bar{X}_1-\bar{X}_2-t^{g}_{\alpha/2}\sqrt{\frac{\hat{S}^2_1}{n_1}+\frac{\hat{S}^2_2}{n_2}}\right]}
\]
o bien
\[
\alert{\bar{X}_1-\bar{X}_2\pm t^{g}_{\alpha/2}\sqrt{\frac{\hat{S}^2_1}{n_1}+\frac{\hat{S}^2_2}{n_2}}}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Elección del intervalo de confianza para la diferencia de medias en función de las varianzas}
Como se acaba de ver, existen dos intervalos posibles para estimar la diferencia de medias: uno para cuando las varianzas poblacionales son iguales y otro para cuando no lo son.

Ahora bien, si las varianzas poblacionales son desconocidas, 
\begin{center}
\emph{¿cómo saber qué intervalo utilizar?}
\end{center}

La respuesta está en el próximo intervalo que se verá, que permite estimar la razón de varianzas $\frac{\sigma_2^2}{\sigma_1^2}$ y por tanto, su comparación.

Así pues, antes de calcular el intervalo de confianza para la comparación de medias, cuando las varianzas poblacionales sean desconocidas, es necesario calcular el intervalo de confianza para la razón de varianzas y elegir el intervalo para la comparación de medias en función del valor de dicho intervalo.
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para el cociente de varianzas de dos poblaciones normales}
Sean $X_1$ y $X_2$ dos variables aleatorias que cumplen las siguientes hipótesis:
\begin{itemize}
\item[--] Su distribución es normal $X_1\sim N(\mu_1,\sigma_1)$ y $X_2\sim N(\mu_2,\sigma_2)$.
\item[--] Sus medias $\mu_1$, $\mu_2$ y varianzas $\sigma_1^2$, $\sigma_2^2$ son desconocidas.
\end{itemize}
En este caso, para muestras de ambas poblaciones de tamaños $n_1$ y $n_2$ respectivamente, el estimador de referencia sigue una distribución F de Fisher-Snedecor:
\[
\left.
\begin{array}{l}
\displaystyle \frac{(n_1-1)\hat{S}_1^2}{\sigma_1^2}\sim \chi^2(n_1-1) \\
\displaystyle \frac{(n_2-1)\hat{S}_2^2}{\sigma_2^2}\sim \chi^2(n_2-1)
\end{array}
\right\}
\Rightarrow
\frac{\frac{\frac{(n_2-1)\hat{S}_2^2}{\sigma_2^2}}{n_2-1}}{\frac{\frac{(n_1-1)\hat{S}_1^2}{\sigma_1^2}}{n_1-1}} =
\frac{\sigma_1^2}{\sigma_2^2}\frac{\hat{S}_2^2}{\hat{S}_1^2}\sim F(n_2-1,n_1-1).
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para el cociente de varianzas de dos poblaciones normales}
Como la distribución F de Fisher-Snedecor no es simétrica respecto al 0, se toman dos valores $f^{n_2-1,n_1-1}_{\alpha/2}$ y
$f^{n_2-1,n_1-1}_{1-\alpha/2}$ que dejen sendas colas de probabilidad acumulada inferior de $\alpha/2$ y $1-\alpha/2$ respectivamente.
\begin{center}
\scalebox{0.6}{\input{img/estimacion/extremos_intervalo_comparacion_varianzas_normal}}
\end{center}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para el cociente de varianzas de dos poblaciones normales}
Así pues, se tiene
\[
\begin{align*}
1-\alpha &= P\left(f^{n_2-1,n_1-1}_{\alpha/2}\leq \frac{\sigma_1^2}{\sigma_2^2}\frac{\hat{S}_2^2}{\hat{S}_1^2}  \leq
f^{n_2-1,n_1-1}_{1-\alpha/2}\right) = \\ &= P\left(f^{n_2-1,n_1-1}_{\alpha/2}\frac{\hat{S}_1^2}{\hat{S}_2^2} \leq
\frac{\sigma_1^2}{\sigma_2^2}  \leq f^{n_2-1,n_1-1}_{1-\alpha/2}\frac{\hat{S}_1^2}{\hat{S}_2^2}\right)
\end{align*}
\]
y el intervalo de confianza para la comparación de varianzas de dos poblaciones normales es:
\[
\alert{\left[f^{n_2-1,n_1-1}_{\alpha/2}\frac{\hat{S}_1^2}{\hat{S}_2^2},f^{n_2-1,n_1-1}_{1-\alpha/2}\frac{\hat{S}_1^2}{\hat{S}_2^2}\right]}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Interpretación del intervalo de confianza para el cociente de varianzas de dos poblaciones}
Si $[l_i,l_s]$ es un intervalo de confianza de nivel $1-\alpha$ para la razón de varianzas $\frac{\sigma_1^2}{\sigma_2^2}$, entonces
\[
\frac{\sigma_1^2}{\sigma_2^2} \in [l_i,l_s]
\]
con una confianza del $1-\alpha\%$.

Por consiguiente, según los valores del intervalo de confianza se tiene:
\begin{itemize}
\item[--] Si todos los valores del intervalo son menores que 1 $(l_s<1)$, entonces se puede concluir que
$\frac{\sigma_1^2}{\sigma_2^2}<1$  y por tanto $\sigma_1^2<\sigma_2^2$.
\item[--] Si todos los valores del intervalo son mayores que 1 $(l_i>1)$, entonces se puede concluir que
$\frac{\sigma_1^2}{\sigma_2^2}>1$  y por tanto $\sigma_1^2>\sigma_2^2$.
\item[--] Si el intervalo tiene tanto valores mayores como menores que 1, y por tanto contiene al 1 ($1\in [l_i,l_s])$,
entonces no se puede afirmar que una varianza sea mayor que la otra. En este caso se suele asumir la hipótesis de que las varianzas son iguales $\sigma_1^2=\sigma_2^2$.
\end{itemize}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para el cociente de varianzas de dos poblaciones normales}
\framesubtitle{Ejemplo}
Siguiendo con el ejemplo de las puntuaciones en dos grupos:
\begin{align*}
X_1 &: 4 - 6 - 8 - 7 - 7 - 6 - 5 - 2 - 5 - 3 \\
X_2 &: 8 - 9 - 5 - 3 - 8 - 7 - 8 - 6 - 8 - 7 - 5 - 7  
\end{align*}
Para calcular el intervalo de confianza para la razón de varianzas con una confianza del $95\%$, se tiene:
\begin{itemize}
\item[--] $\bar{X}_1 = \frac{4+\cdots +3}{10}=5.3$ puntos y $\bar{X}_2=\frac{8+\cdots +7}{12}=6.75$ puntos.
\item[--] $\hat{S}_1^2= \frac{(4-5.3)^2+\cdots + (3-5.3)^2}{9}=3.5667 $ puntos$^2$ y $\hat{S}_2^2=
\frac{(8-6.75)^2+\cdots + (3-6.75)^2}{11}=2.9318$ puntos$^2$.
\item[--] $f^{n_2-1,n_1-1}_{\alpha/2}=f^{11,9}_{0.025}$ es el valor de la F de Fisher de 11 y 9 grados de libertad que
deja una probabilidad acumulada inferior de $0.025$, y que vale aproximadamente $0.2787$.
\item[--] $f^{n_2-1,n_1-1}_{1-\alpha/2}=f^{11,9}_{0.975}$ es el valor de la F de Fisher de 11 y 9 grados de libertad
que deja una probabilidad acumulada inferior de $0.975$, y que vale aproximadamente $3.9121$.
\end{itemize}
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la razón de de varianzas de dos poblaciones normales}
\framesubtitle{Ejemplo}
Sustituyendo en la fórmula del intervalo se llega a
\[
\left[0.2787\frac{3.5667}{2.9318},\, 3.9121\frac{3.5667}{2.9318}\right] = [0.3391,\, 4.7591] \text{ puntos}^2.
\]
Es decir, la razón de varianzas $\frac{\sigma_1^2}{\sigma_2^2}$ está entre $0.3391$ y $4.7591$ con una confianza del
$95\%$.

Como el intervalo tiene tanto valores menores como mayores que 1, no se puede concluir que una varianza sea mayor que la otra, y por tanto se mantiene la hipótesis de que ambas varianzas son iguales.

Si ahora se quisiesen comparar las medias de ambas poblaciones, el intervalo de confianza para la diferencia de medias que habría que tomar es el que parte de la hipótesis de igualdad de varianzas, que precisamente es el que se ha utilizado antes. 
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de proporciones de dos poblaciones y muestras grandes}
Para comparar las proporciones $p_1$ y $p_2$ de individuos que presentan una determinada característica en dos poblaciones independientes, se estima su diferencia $p_1-p_2$.

Si se toma una muestra de cada población, de tamaños $n_1$ y $n_2$ respectivamente, las variables que miden el número de individuos que presentan la característica en cada una de ellas siguen distribuciones
\[
X_1\sim B(n_1,p_1)\quad \mbox{y}\quad X_2\sim B(n_2,p_2)
\]

Cuando los tamaños muestrales son grandes (en realidad basta que se cumpla $n_1p_1\geq 5$, $n_1(1-p_1)\geq 5$, $n_2p_2\geq 5$ y $n_2(1-p_2)\geq 5$), el teorema central de límite asegura que $X_1$ y $X_2$ tendrán distribuciones normales
\[
X_1\sim N(n_1p_1,\sqrt{n_1p_1(1-p_1)}) \quad \mbox{y}\quad X_2\sim N(n_2p_2,\sqrt{n_2p_2(1-p_2)}), 
\]
y las proporciones muestrales 
\[
\hat{p}_1=\frac{X_1}{n_1} \sim N\left(p_1,\sqrt{\frac{p_1(1-p_1)}{n_1}}\right) \quad \mbox{y}\quad 
\hat{p}_2=\frac{X_2}{n_2} \sim N\left(p_2,\sqrt{\frac{p_2(1-p_2)}{n_2}}\right)
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de proporciones de dos poblaciones y muestras grandes}
A partir de las proporciones muestrales se construye el estimador de referencia 
\[
\hat{p}_1-\hat{p}_2\sim  N\left(p_1-p_2,\sqrt{\frac{p_1(1-p_1)}{n_1}+\frac{p_2(1-p_2)}{n_2}}\right).
\]
Tipificando, se buscan valores $-z_{\alpha/2}$ y $z_{\alpha/2}$ que cumplan
\[
P\left(-z_{\alpha/2}\leq \frac{(\hat{p}_1-\hat{p_2})-(p_1-p_2)}{\sqrt{\frac{p_1(1-p_1)}{n_1}+\frac{p_2(1-p_2)}{n_2}}}\leq z_{\alpha/2} \right).
\]
Finalmente, deshaciendo la tipificación, se llega fácilmente a la fórmula del intervalo
\[
\alert{\left[\hat{p}_1-\hat{p}_2-z_{\alpha/2}\sqrt{\frac{\hat{p}_1(1-\hat{p}_1)}{n_1}+\frac{\hat{p}_2(1-\hat{p}_2)}{n_2}},\hat{p}_1-\hat{p}_2+z_{\alpha/2}\sqrt{\frac{\hat{p}_1(1-\hat{p}_1)}{n_1}+\frac{\hat{p}_2(1-\hat{p}_2)}{n_2}}\right]}
\]
\end{frame}


%---------------------------------------------------------------------slide----
\begin{frame}
\frametitle{Intervalo de confianza para la diferencia de proporciones de dos poblaciones y muestras grandes}
\framesubtitle{Ejemplo}
Supóngase que se quieren comparar las proporciones o porcentajes de aprobados en dos grupos que han seguido metodologías distintas. 
En el primer grupo han aprobado 24 alumnos de un total de 40, mientras que en el segundo han aprobado 48 de 60. 

Para calcular el intervalo de confianza para la diferencia de proporciones con un nivel de confianza del $95\%$, se tiene:
\begin{itemize}
\item[--] $\hat{p}_1=24/40= 0.6$ y $\hat{p}_2=48/60=0.8$, de manera que se cumplen las hipótesis $n_1\hat{p}_1=40\cdot 0.6=24\geq 5$, $n_1(1-\hat{p}_1)=40(1-0.6)=26\geq 5$, $n_2\hat{p}_2=60\cdot 0.8 =48\geq 5$ y $n_2(1-\hat{p}_2)=60(1-0.8)=12\geq 5$.
\item[--] $z_{\alpha/2}=z_{0.025}= 1.96$.
\end{itemize} 
Sustituyendo en la fórmula del intervalo se tiene
\[
0.6-0.8\pm 1.96 \sqrt{\frac{0.6(1-0.6)}{40}+\frac{0.8(1-0.8)}{60}} = -0.2\pm 0.17 = [-0.37,\, -0.03].
\]
Como el intervalo es negativo se tiene $p_1-p_2<0\Rightarrow p_1<p_2$, y se puede concluir que hay diferencias significativas en el porcentaje de aprobados.
\end{frame}
