\chapter{Fundamentos de Probabilidades}
\label{chap:TeorProb}

No intuito de colocar ordem nos problemas de diversas formula\c{c}\~{o}es te\'{o}ricas vigentes
no in\'{i}cio do Sec. XX,  Kolmogorov [ ] mostrou que a teoria requer certos
elementos essenciais para ser consistente. 
O primeiro elemento \'{e} que chances est\~{a}o associadas \`{a} realiza\c{c}\~{a}o de
'experimentos' cujo resultado \'{e} incerto. A quest\~{a}o ent\~{a}o \'{e}: o que 
caracteriza um experimento? 
Evidentemente o primeiro passo \'{e} listar os poss\'{i}veis resultados que se poderia
obter. A este conjunto de resultados chamou \textit{espa\c{c}o amostral}. Assim o espa\c{c}o amostral
do experimento lan\c{c}ar moeda, $\Omega$, \'{e} composto pelos dois resultados: cara (C) e coroa (K), listados
na forma de conjuntos:
\begin{equation}
\label{eq:omega_moedas}
 \Omega=\{C,K\}.
\end{equation}

Aqui \'{e} preciso entender o contexto hist\'{o}rico. A formula\c{c}\~{a}o de Kolmogorov,
aparece j\'{a} num avan\c{c}ado est\'{a}gio da Teoria dos Conjuntos [ ] e a terminologia, embora 
um pouco diferente, possui paralelos pr\'{o}ximos (ver Tabela ~\ref{tab:prob_conjuntos}). Logo a
Teoria de Probabilidades \'{e} construida para acomodar resultados que podem ser discretos como
os de (\ref{eq:omega_moedas}) ou casos mais complicados como por exemplo o resultado da medida
de uma posi\c{c}\~{a}o que \'{e} um n\'{u}mero real, i.e. pertence a um cont\'{i}nuo de infinitas
possibilidades. Neste \'{u}ltimo caso, por exemplo, estaria o 'experimento': determinar a dire\c{c}\~{a}o de onde
sopra o vento, isto \'{e}, pode ser um \^{a}ngulo qualquer de 0 a 360 graus tomando a dire\c{c}\~{a}o
do norte como refer\^{e}ncia. Neste caso
\begin{equation}
 \Omega=\left[0,360\right)
\end{equation}
ou seja $\Omega$ nada mais \'{e} do que um intervalo real.

Os elementos $\omega$  pertencentes a $\Omega$ s\~{a}o ditos resultados do experimento.

Em grande parte, a motiva\c{c}\~{a}o t\'{e}cnica para o desenvolvimento da Teoria dos Conjuntos
foi o tratamento rigoroso de problemas em C\'{a}lculo Diferencial e Integral, e de forma
semelhante \'{e} necess\'{a}rio considerar como se comportam subconjuntos de $\Omega$, i.e. como
cole\c{c}\~{o}es de resultados podem ser combinadas.
No caso probabil\'{i}stico se congrega todas as combina\c{c}\~{o}es de elementos de $\Omega$ no conjunto:
\begin{equation}
\mathcal{A=}\{A_{i}|A_{i}\subseteq \Omega \;e\;\dbigcap\limits_{i=1}^{\infty
}A_{i}\subseteq \Omega \;e\;\dbigcup\limits_{i=1}^{\infty }A_{i}\subseteq
\Omega \}
\end{equation}
que \'{e} um conjunto de conjuntos cujas propriedades s\~{a}o que tanto a intersec\c{c}\~{a}o como a uni\~{a}o 
infinita de todos os seus membros pertencem a ele. Em probabilidade $\mathcal{A}$ recebe o nome
de conjunto dos eventos (ou de $\sigma$-algebra no caso de $\Omega$ com infinitos
elementos). Em Teoria de Conjuntos se se confunde com o Conjunto das Partes de $\Omega$. Neste caso
\'{e} importante notar que tanto $\Omega$ quanto o conjunto vazio ($\emptyset$) pertencem a $\mathcal{A}$.

O conjunto $\mathcal{A}$ \'{e} necess\'{a}rio porque permite formalizar quest\~{o}es de interesse
num contexto de probabilidades. O exemplo t\'{i}pico disso seria no turfe em que um p\'{a}reo com $n=4$  cavalos.
Considere um poss\'{i}vel experimento \'{e} definido pelo espa\c{c}o amostral
\begin{equation}
\label{eq:winner_horse}
 \Omega_{w}=\{c_1, \dots, c_4 \}
\end{equation}
e se consitui da verifica\c{c}\~{a}o \'{u}nica e exclusiva  do cavalo que chega em primeiro lugar.

Esta situa\c{c}\~{a}o \'{e} bastante diferente do caso do experimento no qual se anota a ordem
de chegada de todos os cavalos. Enquanto no caso de (\ref{eq:winner_horse}) tem-se 4 possibilidades,
h\'{a} 24 ordens poss\'{i}veis de chegada para 4 cavalos em $\Omega_{o}$.
Frequentemente a distin\c{c}\~{a}o de casos como estes gera d\'{u}vida na solu\c{c}\~{a}o de
problemas pr\'{a}ticos.

No caso de $\Omega_{w}$, o conjunto $\mathcal{A}_{w}$ congregra todos os 16 poss\'{i}veis
modos de apostar em um vencedor,i.e. al\'{e}m da aposta 'seca' em um particular cavalo,
poderia-se, por exemplo apostar em que $c_1$ ou $c_3$ seria o vencedor. Simb\'{o}licamente
\begin{equation}
 \label{eq:pertinecia_A}
\{c_1,c_3\}\in\mathcal{A}_{w}
\end{equation}

Evidentemente ambos $c_1$ e $c_3$ n\~{a}o podem ser vencedores ao mesmo tempo, ou seja
$$\{c_1\}\cap\{c_3\}=\emptyset$$

Como $n$ \'{e} pequeno vale a pena listar $\mathcal{A}_{w}$ explicitamente:
%\begin{equation}
% \mathcal{A}_{w}=

$$\{\emptyset,$$ $$\{c_1\},\{c_2\},\{c_3\},\{c_4\},$$
                            $$\{c_1\,c_2\},\{c_1\,c_3\},\{c_1\,c_4\},\{c_2\,c_3\},\{c_2\,c_4\},\{c_3\,c_3\},$$
                             $$\{c_1\,c_2,c_3\},\{c_1\,c_2,c_3\},\{c_1\,c_3,c_4\},\{c_2\,c_3,c_4\},$$
			    $$\{c_1,c_2,c_3,c_4\} \}$$
%\end{equation}

Note que tanto $\emptyset$ quanto $\Omega_{w}=\{c_1,c_2,c_3,c_4\} $ pertencem a $\mathcal{A}_{w}$.

No caso do experimento com espa\c{c}o amostral  $\Omega_{o}$, exibir 
$\mathcal{A}_{o}$ implica listar $2^{24}$ conjuntos!

Uma fonte importante de pol\^{e}mica na solu\c{c}\~{a}o de problemas, at\'{e} mesmo os elementares,
envolvendo probabilidades \'{e} a adequada especifica\c{c}\~{a}o do espa\c{c}o amostral e do conjunto
de eventos envolvido. Note a excepcional diferen\c{c}a que existe entre $\Omega_w$ e $\Omega_o$
mesmo sendo ambos provenientes do mesmo contexto: o turfe.

Note um ponto importante: todo $\omega \in \Omega$ tem um elemento correspondente em $\mathcal{A}$, i.e.
vale que o conjunto $\{\omega\}$ pertence a $\mathcal{A}$. Ou seja
\begin{equation}
 \omega \in \Omega \rightarrow \{\omega\} \in \mathcal{A}
\end{equation}
na qual se usou explicitamente a nota\c{c}\~{a}o de explicitar um conjunto pela lista dos seus elementos
entre chaves.

O elemento final que resta \'{e} perceber que a no\c{c}\~{a}o de chance representa
um n\'{u}mero que mede o comportamento do experimento, seja quanto a seus resultados como
quanto \`{a} combina\c{c}\~{a}o destes. O que se tira de pr\'{a}tico em probabilidades \'{e} 
uma avalia\c{c}\~{a}o de o quanto de deve apostar num dado evento.

Assim quanto se diz que cara e coroa s\~{a}o equiprov\'{a}veis, na realidade se est\'{a} dizendo que
o n\'{u}mero $p$ - probabilidade se associa a estes eventos \'{e} igual
\begin{equation}
\label{eq:moeda_meio}
 p(\{C\})=p(\{K\})=\frac{1}{2}
\end{equation}

O valor meio vem obviamente da interpreta\c{c}\~{a}o de frequ\^{e}ncia relativa. A simetria de 
(\ref{eq:moeda_meio}), isto \'{e}, sua 
invari\^{a}ncia quanto a permuta\c{c}\~{a}o dos resultados foi o que
serviu de base para as primeiras tentativas
de representa\c{c}\~{a}o probabil\'{i}stica de jogos sendo que 
neste caso a moeda \'{e} chamada de \textit{honesta}.

Kolmogorov mostrou que para obter os resultados conhecidos de probabilidades
\'{e} necess\'{a}rio associar um n\'{u}mero $p$ aos elementos de $\mathcal{A}$ contanto que
\begin{enumerate}
 \item \label{post:0}
\begin{equation}
 p:\mathcal{A}\rightarrow (0,1)\subset \mathbf{R}
\end{equation}
e 
\item \label{post:1}
\begin{equation}
p(A_{1}\bigcup A_{2})=p(A_{1})+p(A_{2}),
\end{equation}
se 
\begin{equation}
 A_{1} \bigcap A_{2}=\emptyset
\end{equation}
em cujo caso  $A_{1}$  e $A_{2}$ se dizem eventos \textit{disjuntos}, tomando
\item \label{post:2}
\begin{equation}
 p(\Omega)=1
\end{equation}
\end{enumerate}

Os resultados de Teoria de Probabilidades tem como presuposto tanto a Teoria
dos Conjuntos aplicada a $\mathcal{A}$ bem como suas opera\c{c}\~{o}es como intersec\c{c}\~{a}o, uni\~{a}o e
complementariedade.

Assim, por exemplo, no caso das moedas

\begin{enumerate}
 \item  $\Omega= \{C,K\}=\{C\}\bigcup \{K\}$,
 \item  $\{C\}^c=\{K\}=\Omega\backslash\{C\}$,
 \item  $\Omega^c=\emptyset$
\end{enumerate}
em que o superscrito $^c$ denota o evento complementar, isto \'{e} a parte que
falta a um evento para cuja uni\~{a}o resulte no espa\c{c}o amostral,
\begin{equation}
 A\bigcup A^c=\Omega
\end{equation}
desde que $A$ e $A^c$ sejam disjuntos. 

%Um breve resumo sobre conjuntos est\'{a} contido na Tabele ~\ref{tab:conjuntos}.

Consequentemente da no\c{c}\~{a}o de complementariedade e dos postulados \ref{post:1} e \ref{post:2}
de Kolmogorov segue que:

\begin{equation}
 \label{eq:pre_vazio}
 p(\Omega)=1=p(\Omega\bigcup \emptyset)=p(\Omega)+ p(\emptyset)=1+p(\emptyset)
\end{equation}
ou seja
\begin{equation}
 p(\emptyset)=0
\end{equation}

Assim no caso de uma moeda, a completa descri\c{c}\~{a}o do experimento
probabil\'{i}stico envolve explicitar:
\begin{enumerate}
 \item $\Omega=\{C,K\}$
 \item $\mathcal{A}=\{\emptyset,\{C\},\{K\},\Omega\}$
 \item $p(\emptyset)=0$,$p(\{C\})=1-p(\{K\})$,$p(\Omega)=1$
\end{enumerate}
de tal sorte que $p(\{C\})=p(\{K\})=1/2$ quando a moeda \'{e} honesta. Note que
$$p(\{C\})=1-p(\{K\})$$
\'{e} a \'{u}nica imposi\c{c}\~{a}o da teoria o que \'{e} algo que se permite
lidar facilmente com o caso de moeda manipulada para fornecer resultados desiguais,
ou seja, introduzindo meios de descrever tentativas de tornar um jogo mais favor\'{a}vel
a uma particular alternativa de aposta.

Em casos em que n\~{a}o h\'{a} evid\^{e}ncias para distinguir as alternativas constantes em $\Omega$, 
diz-se que se trata de um \textit{espa\c{c}o probabil\'{i}stico} uniforme. No caso em que
 $\Omega$ tem um n\'{u}mero\footnote{A quantidade de elementos
de um conjunto \'{e} chamada de \textit{cardinalidade}.} finito de elementos $n$, a probabilidade de cada elemento \'{e}

 $$p(\{\omega\})=\frac{1}{n}$$

A solu\c{c}\~{a}o de problemas que envolvem probabilidades sempre envolvem uma estrutura matem\'{a}tica
conhecida como \textbf{Espa\c{c}o Probabil\'{i}stico} representada por $(\Omega,\mathcal{A},p)$. Vejamos
sua import\^{a}ncia por meio de alguns exemplos. 

\begin{exemp}
\textbf{Modelo de Urna}\\ \label{ex:urna_2V_P}
Considere uma urna com 3 bolas id\^{e}nticas a menos da cor, sendo que duas s\~{a}o vermelhas e a restante,
preta. Considere o experimento retirar uma bola da urna sem olhar. Como a cor obtida \'{e} incerta,
\'{e} esta propriedade  que se torna objeto de interesse. Neste caso, o espa\c{c}o 
 $(\Omega,\mathcal{A},p)$ pode ser escrito como

$$(\Omega_u=\{V,P\},\mathcal{A}_u=\{\emptyset,\{V\},\{P\},\{V,P\}\},\\
p(\emptyset)=0,p(\{V\})=\frac{2}{3},p(\{P\})=\frac{1}{3},p(\{V,P\})=1) $$
de modo que $p(\emptyset)=0$ representa o fato de que se o experimento for realizado
 n\~{a}o poss\'{i}vel que n\~{a}o haja algum resultado que certamente ser\'{a} uma 
bola vermelha ou uma bola preta ($p(\{V,P\})=p(\Omega)=1$. Como $p(\{V\}=1-p(\{P\})$ e j\'{a} que
h\'{a} duas vezes mais bolas vermelhas que pretas, \'{e}
razo\'{a}vel atribuir $p(\{V\})=2p(\{P\})$ usando implicitamente a no\c{c}\~{a}o de que
as bolas s\~{a}o indiferentes a menos da cor e que a exist\^{e}ncia de mais bolas vermelhas na
urna implica maior disponibilidade para ser retirada.
\end{exemp}

Vale observar que modelos como o do Ex. \ref{ex:urna_2V_P} s\~{a}o frequentes em probabilidades
pelas analogias que se pode fazer com casos pr\'{a}ticos.

Agora considere a pergunta:

\begin{exemp}
\label{ex:familia_de_3} 

\textbf{Em fam\'{i}lias com tr\^{e}s crian\c{c}as quantas delas tem a prole constituida de apenas uma menina?}

Evidentemente o espa\c{c}o amostral 
 $$\Omega_3=\{FFF,FFM,FMH,MFF,MFM,MMF,FMM,MMM\}$$ 
relativo a este problema possui 8 elementos rotulados pela ordem de nascimento dos sexos masculino (M)
e feminino (F). Destas possibilidades apenas 3 satisfazem \`{a} pergunta, isto \'{e},
deseja-se a probabilidade do evento

\begin{equation} \label{eq:familia_de_3}
 A=\{MFM,MMF,FMM\}
\end{equation}
que evidentemente se decomp\~{o}e na uni\~{a}o dos eventos resultados
\begin{equation} \label{eq:familia_de_3b}
 A=\{MFM\}\bigcup \{MMF\}\bigcup\{FMM\}
\end{equation}
de modo que usando o Postulado \ref{post:1} resulta
\begin{equation} \label{eq:familia_de_3_prop1}
 p(A)=p(\{MFM\})+p(\{MMF\})+p(\{FMM\})
\end{equation}
pois resultados sempre correspondem a eventos disjuntos.

Al\'{e}m disso se partirmos da hip\'{o}tese de que tanto ordem de nascimento
 como o sexo gerado s\~{a}o indiferentes\footnote{Note que a preval\^{e}ncia
de igualdade de nascimentos de crian\c{c}as de sexo oposto \'{e} assunto na pr\'{a}tica
controverso \cite{}.}, teriamos um espa\c{c}o probabil\'{i}stico uniforme e
\begin{equation} \label{eq:familia_de_3_prop1}
 p(A)=\frac{1}{8}+\frac{1}{8}+\frac{1}{8}=\frac{3}{8}
\end{equation}
\end{exemp}

Note que em casos como o anterior, foi usada uma abordagem semelhante \`{a} usada nos prim\'{o}rdios
desta disciplina.

Considere agora uma pequena modifica\c{c}\~{a}o, quase ing\^{e}nua, da pergunta anterior:

\begin{exemp}
\label{ex:uma_filha_unica_em3} 

\textbf{Em fam\'{i}lias com tr\^{e}s crian\c{c}as quantas delas tem uma menina sem nenhuma irm\~{a}?}

Sob as mesmas hip\'{o}teses de indiferen\c{c}a quanto \`{a} ordem de nascimento e ao sexo,
 ter\'{i}amos o mesmo resultado?

A resposta \'{e} n\~{a}o, porque neste caso a formula\c{c}\~{a}o do problema exclui fam\'{i}lias com 3 meninos!
Um erro comum \'{e} ent\~{a}o apenas excluir o caso MMM de $\Omega_3$ e contar os resultados 
favor\'{a}veis versus o total dos elementos 7 que sobram.

O problema \'{e} que neste caso o espa\c{c}o amostral, mesmo excluindo MMM,
n\~{a}o pode ser tomado como uniforme. Um espa\c{c}o amostral uniforme para este problema
na realidade possui 12 elementos. H\'{a} outras formas de resolver este problema
sem ter que encontrar um espa\c{c}o probabil\'{i}stico uniforme. 
Incidentalmente, a resposta correta aqui \'{e} 1/4. 
\end{exemp}

Estes exemplos s\~{a}o ricos o suficiente para serem revisitados e
mostram como a sutileza das perguntas relativas a problemas de probabilidade s\~{a}o causa frequente
de dificuldades.


\section{Probabilidade da Uni\~{a}o de Eventos}

Considere a seguinte situa\c{c}\~{a}o. Um locutor de r\'{a}dio em sua previs\~{a}o do tempo
afirma que a chance de chover no s\'{a}bado \'{e} de $50\%$ e que no domingo tamb\'{e}m \'{e}
de $50\%$ e conclui: '$\-$ Assim certamente chover\'{a} no fim de semana'\footnote{As vezes
h\'{a} casos em que ocorre a atribui\c{c}\~{a}o de valores que representam algum tipo de opini\~{a}o
de especialistas a respeito de um problema baseados na sua experi\^{e}ncia. A isto se chama
\textit{probabilidade subjetiva}.  cujo uso \'{e} fonte de grande controversia. 
Seja qual for o caso, mesmo sendo subjetivas estas probabilidades precisam
obedecer \`{a}s regras representadas pelos postulados.\cite{ }}.

No que foi que o locutor errou? O erro est\'{a} no fato de que chover num dia n\~{a}o exclui
que chova no outro, ou seja n\~{a}o exclui o que acontece  com a probabilidade
da uni\~{a}o de eventos quando eles n\~{a}o s\~{a}o disjuntos. Isto \'{e} quanto vale
$p(A\bigcup B)$ se os eventos $A$ e $B$ n\~{a}o forem disjuntos?

A resposta est\'{a} contida no 
\begin{teo}
Sejam $A$ e $B$ $\in \mathcal{A}$ de um espa\c{c}o probabil\'{i}stico $(\Omega,\mathcal{A},p)$ ent\~{a}o;
\begin{equation}
 \label{eq:nao_disjuntos}
  p(A\bigcup B)=p(A)+p(b)-p(A\bigcap B)
\end{equation}
\end{teo}

Ou seja \'{e} preciso subtrair a probabilidade $p(A\bigcap B)$ de que chova em ambos
os dias. Note que se n\~{a}o for feita a corre\c{c}\~{a}o representada por (\ref{eq:nao_disjuntos}), poderiamos
ter coisas como probabilidade de digamos 60$\%$ num dia adicionada a de 50$\%$ em outro dando um total
de 110$\%$ o que vai contra o Postulado \ref{post:0} de que probabilidade \'{e} um n\'{u}mero menor que 1.


Na realidade a demonstra\c{c}\~{a}o deste resultado \'{e} ilustrativa.

O teorema segue imediatamente do resultado:
\begin{equation}\label{eq:nao_disjuntos_conjuntos}
A\bigcup B=(A\bigcap B^c)\bigcup (A\bigcap B)\bigcup (B\bigcap A^c) 
\end{equation}
pois se aplica o Postulado \ref{post:1} na medida em que os eventos no segundo membro de (\ref{eq:nao_disjuntos_conjuntos})
s\~{a}o mutuamente disjuntos conforme ilustrado no Diagrama \ref{diag:venn}.

\begin{figure}[htb]
\begin{center}
\includegraphics[height=3in,width=6in]{./figuras/venn.pdf}
\caption{Diagrama de Venn mostrando como a uni\~{a}o de $A$ e $B$ pode ser escrita como a uni\~{a}o de conjuntos
disjuntos (\ref{eq:nao_disjuntos_conjuntos}).}
\label{diag:venn}
\end{center}
\end{figure}


\section{Experimentos Compostos}

Frequentemente aparecem situa\c{c}\~{o}es em que um experimento \'{e} complicado. Este \'{e} o caso
do Ex. \ref{ex:uma_filha_unica_em3}: encontrar fam\'{i}lias de 3 crian\c{c}as mas com uma filha sem nenhuma
irm\~{a}. Uma forma de resolv\^{e}-lo \'{e} decomp\^{o}-lo em experimentos menos elaborados. 
Antes de retomar este caso considere o seguinte exemplo mais imediato:
\begin{exemp}
\label{ex:duas_moedas}
Lan\c{c}ar uma moeda duas vezes, pode ser visto como a composi\c{c}\~{a}o,
neste caso, repeti\c{c}\~{a}o do experimento simples de lan\c{c}ar uma moeda uma vez. Supondo que
$\alpha$ seja a probabilidade de se obter cara num dado lan\c{c}amento, qual \'{e} a probabilidade
de se obter cara exatamente uma vez nas duas jogadas?
\end{exemp}

A primeira coisa a fazer \'{e} examinar qual seria o espa\c{c}o amostral
do experimento resultante.

Evidentemente $\Omega_2=\{CC,CK,KC,KK\}$ que tem o correspondente $\mathcal{A}_2$ com 16 eventos.
Um deles $\{CK,KC\}$ representa o caso desejado. Se o \'{u}nico dado dispon\'{i}vel for $\alpha$ temos
um problema indefinido. Para entender porque veja o que nos dizem os postulados:

$$p(\{CC\})+p(\{CK\})+p(\{KC\})+p(\{KK\})=1$$

Note que o evento 'primeira moeda cara' pode ser escrito como $\{CK,CC\}$ e isto implica

$$p(\{CC)+p(\{CK\})=\alpha$$

De forma semelhante para as probabilidades da 'primeira coroa', 'segunda cara' e 'segunda coroa' respectivamente:

$$p(\{KC\})+p(\{KK\})=1-\alpha$$

$$p(\{KC)+p(\{CC\})=\alpha$$

$$p(\{CK\})+p(\{KK\})=1-\alpha$$
que n\~{a}o podem ser resolvidas de modo \'{u}nico para as probabilidades dos resultados pois
as equa\c{c}\~{o}es resultantes acima s\~{a}o linearmente dependentes.

Dois casos particulares est\~{a}o representados nas Tabelas \ref{tab:moedasuniforme} e \ref{tab:moedasnaouniforme} com $\alpha=\frac{1}{2}$ em ambos os casos. 

\begin{table}
\begin{center}
\begin{tabular}{ccc}
$M_{1}\backslash M_{2}$ & $C$ & $K$ \\ 
$C$ & $1/4$ & $1/4$ \\ 
$K$ & $1/4$ & $1/4$%
\end{tabular}
\end{center}
\label{tab:moedasuniforme}
\caption{Ilustra\c{c}\~{a}o de um espa\c{c}o probabil\'{i}stico uniforme para o lan\c{c}amento de duas moedas.}
\end{table}


Estes casos representam dois espa\c{c}os probabil\'{i}sticos distintos, isto \'{e}, descrevem 
experimentos diferentes cuja escolha num dado contexto depende de se poder levar
em conta elementos adicionais ao problema dado.

Uma forma sistem\'{a}tica de relacionar experimentos compostos,\'{e} anotar os resultados
dos sub-experimentos usando conjuntos ordenados. Assim, no caso das moedas a maneira
formal de escrever o espa\c{c}o amostral seria;
\begin{equation}
 \Omega_2=\{(x_1,x_2)|x_1,x_2\in\{C,K\}\}
\end{equation}
ou no caso de $n$ sub-experimentos com moedas:
\begin{equation}
 \label{eq:enuplas}
 \Omega_n=\{(x_1,\dots,x_n)|x_i\in\{C,K\}, i\in\{1,\dots,n\}\}
\end{equation}

Uma forma de definir o espa\c{c}o de probabilidade adequado a um dado problema \'{e}
levar em conta o que se chama de \textit{probabilidade condicional}.


\begin{table}
\begin{center}
\begin{tabular}{ccc}
$M_{1}\backslash M_{2}$ & $C$ & $K$ \\ 
$C$ & $3/8$ & $1/8$ \\ 
$K$ & $1/8$ & $3/8$%
\end{tabular}
\end{center}
\label{tab:moedasnaouniforme}
\caption{Ilustra\c{c}\~{a}o de um espa\c{c}o probabil\'{i}stico n\~{a}o-uniforme para o lan\c{c}amento de duas moedas.}
\end{table}


\section{Probabilidade Condicional}

Antes de definir probabilidade condicional, vamos considerar dois experimentos compostos envolvendo
urnas. Em ambos se realizam duas retiradas de bolas, mas no primeiro, a bola retirada retorna a urna
antes do segundo sorteio, ao passo que no segundo experimento, o segundo sorteio se d\'{a} sem que
a bola seja retornada. Vamos supor que se trate da urna com 3 bolas do Exemplo \ref{ex:urna_2V_P}.

Neste experimento composto teriamos resultados representados por pares $(b_1,b_2)$ no qual
$b_i$ representa uma dada bola de $\Omega_u$.

\begin{exemp} \textbf{Urna com reposi\c{c}\~{a}o}\\\label{ex:urna_rep}
 Neste caso, \'{e} f\'{a}cil ver que o espa\c{c}o amostral resultante nada mais \'{e} que
\begin{equation}
 \label{eq:omega_urna_rep}
\Omega_{ur}=\{(V,V),(V,P),(P,V),(P,P)\}
\end{equation}
\end{exemp}
mas que comparado com 
\begin{exemp}\textbf{Urna sem reposi\c{c}\~{a}o}\\\label{ex:urna_sem}
\begin{equation}
 \label{eq:omega_urna_sem}
\Omega_{us}=\{(V,V),(V,P),(P,V)\}
\end{equation}
tem um elemento a menos, j\'{a} que a retirada de uma bola preta no primeiro sorteio
a exclui do segundo uma vez que n\~{a}o \'{e} reposta.
\end{exemp}

Evidentemente, como a reposi\c{c}\~{a}o da bola induz a uma indiferen\c{c}a no resultado do
par de sorteios \'{e} razo\'{a}vel que o experimento do Exemplo \ref{ex:urna_rep} 
tenha um espa\c{c}o probabil\'{i}stico uniforme com todos os resultados equiprov\'{a}veis.

O Exemplo \ref{ex:urna_sem} \'{e} mais complicado. Ser\'{a} que um espa\c{c}o probabil\'{i}sticos
uniforme tamb\'{e}m \'{e} compat\'{i}vel com os postulados?

Vejamos considere o evento retirar a primeira bola vermelha, que pode
ser expresso como
\begin{equation}
 \{(V,\cdot)\}=\{(V,V),(V,P)\}=\{(V,V)\}\bigcup\{(V,P)\}
\end{equation}
tem probabilidade igual a 2/3. De forma semelhante, o evento primeira bola 
preta $\{(P,\cdot)\}$ tem probabilidade
1/3, no que evidentemente vale $\{(P,\cdot)\}=\{(P,V)\}$ j\'{a}
que $\{(P,P)\}\notin \Omega_{us}$. 

Vejamos o que ocorre com a segunda bola retirada. Qual \'{e} a probabilidade
do evento  $\{(\cdot,P)\}$? Evidentemente isto
depende do resultado obtido no primeiro subsorteio.  H\'{a} dois casos
a serem considerados que s\~{a}o fun\c{c}\~{a}o do resultado do primeiro
subsorteio j\'{a} que a primeira bola n\~{a}o \'{e} retornada \`{a} urna.

No primeiro destes casos, se a primeira bola retirada for vermelha, a probabilidade
de se obter uma bola preta \'{e} 50$\%$, ao passo que esta probabilidade
se torna nula se for preta a primeira bola que tenha sido retirada. 

Em suma a probabilidade do resultado do segundo sorteio \'{e} fun\c{c}\~{a}o do
resultado do primeiro sorteio. Como se pode levar em conta esta depend\^{e}ncia?
\'{E} isto que se tenta capturar com a no\c{c}\~{a}o de \textit{probabilidade condicional}.

Neste caso a quest\~{a}o pode ser colocada da seguinte forma: Qual \'{e} a probabilidade
de se obter uma bola preta no segundo sorteio \textit{dado} que a primeira bola foi vermelha?

Formalmente isto pode ser escrita em cada caso como
\begin{equation}
 p(\{(\cdot,V)\}|\{(P,\cdot)\})=\frac{1}{2}\\
 \label{eq:cond_V}
\end{equation}
e
\begin{equation}
 p(\{(\cdot,P)\}|\{(P,\cdot)\})=0 \\
 \label{eq:cond_P}
\end{equation}

A palavra chave que aparece aqui \'{e} o termo '\textit{dado}'. O que efetivamente ocorre
com a disponibilidade do resultado da primeira bola \'{e} que o espa\c{c}o amostral
na pr\'{a}tica se encolhe.

Esta id\'{e}ia \'{e} capturada pela 
\begin{defn} \label{def:prob_cond}
 A probabilidade condicional
\footnote{A no\c{c}\~{a}o de probabilidade condicional \'{e} um elemento
espec\'{i}fico da teoria de probabilidades. Sem esta defini\c{c}\~{a}o, a estrutura formal
da teoria vista at\'{e} aqui coincide com a da chamada Teoria da Medida 
fundamental em an\'{a}lise para se generalizar a no\c{c}\~{a}o de integral.}
 do evento $A$ dado $B$ \'{e} definida por:
\begin{equation}
 p(A|B)=\frac{p(A\bigcap B)}{p(B)}
\label{eq:prob_cond}
\end{equation}
desde que $p(B) \neq 0$.
\end{defn}

Vejamos o que esta defini\c{c}\~{a}o implica relativamente ao Exemplo \ref{ex:urna_sem}.
Assim se $B=\{(V,\cdot)\}$ a primeira
foi vermelha, a probabilidade de segunda bola preta ser preta ser\'{a}

\begin{equation}
p(\{(\cdot,P)\}|B)=\frac{p(\{(\cdot,P)\}\bigcap \{(V,\cdot)\})}{p(\{(V,\cdot)\})}=\frac{p(\{(V,P)\})}{p(B)}=\frac{\frac{1}{3}}{\frac{2}{3}}=\frac{1}{2}
\end{equation}
que concorda com o racioc\'{i}nio de que no segundo subsorteio resta 1 bola preta de duas bolas no total.


Examine agora o caso de $p(\{(\cdot,P)\}|\{(P,\cdot)\})$. Evidentemente
$\{(\cdot,P)\}\bigcap\{(P,\cdot)\}=\emptyset$ j\'{a} que $\{(P,P)\}\notin \Omega_{us}$
e portanto tamb\'{e}m h\'{a} consist\^{e}ncia com (\ref{eq:cond_P})\footnote{
Aqui cabe observar que o experimento do Exemplo \ref{ex:urna_sem} pode ser descrito
de forma equivalente pelo espa\c{c}o $\Omega_{ur},\mathcal{A}_{ur},p_{ur}$ desde que
$p(\{(P,P,)\})=0$ e com os outros resultados permanecendo equiprov\'{a}veis.
}.

O encolhimento  referido do espa\c{c}o amostral
est\'{a} ilustrado no Diagram .... e mostra que  
a evid\^{e}ncia fornecida pelo conhecimento do evento $B$, limita os resultados poss\'{i}veis e
de interesse; eles agora passam a ficar restritos a pertencer ao evento $A\bigcap B$ de modo que a sua probabilidade
precisa ser normalizada com respeito ao total de probabilidade do universo que agora
certamente se encolhe e se torna efetivamente igual a $B$.

De uma certa maneira, a probabilidade condicional \'{e} uma forma 
de usar os elementos fornecidos pela certeza que um dado evento tenha
ocorrido sobre outro evento que possa ocorrer. \'{E} uma maneira
de incorporar informa\c{c}\~{a}o\footnote{Aqui \'{e} preciso cuidado, pois a palavra
\textit{informa\c{c}\~{a}o} possui um significado t\'{e}cnico preciso em probabilidades.}.

\subsection{Independ\^{e}ncia}

O caso da urna com repos\c{c}\~{a}o tamb\'{e}m \'{e} importante.
Obviamente como a bola preta retorna \`{a} urna.

\begin{equation}
 p(\{(\cdot,P)\}|\{(P,\cdot)\})=p(\{(\cdot,P)\})=\frac{1}{3}
\end{equation}
que nada mais \'{e} do que um caso particular de
\begin{equation}
 p(A|B)=p(A)
\label{eq:indep_1}
\end{equation}
ou seja conhecer $B$ n\~{a}o contribui em nada para modificar o que ocorre
com $A$.

Combinando (\ref{eq:indep_1}) com (\ref{eq:prob_cond}) tem-se o seguinte resultado:

\begin{defn}
 O eventos $A$ e $B$ s\~{a}o independentes se e somente se;
 \begin{equation}
  p(A\bigcap B)=p(A) p(B).
\label{eq:indep_2}
 \end{equation}
\end{defn}

Veja como no Ex. \ref{ex:urna_rep}
\begin{equation}
 p(\{(P,P)\})=p(\{(P,\cdot)\})p(\{(\cdot,P)\})=\frac{1}{2}\times\frac{1}{2}=\frac{1}{4}
\end{equation}
valendo resultados semelhantes para os outros resultados do exemplo.

Um erro comum \'{e} confundir eventos disjuntos com eventos independentes. Na realidade
eventos disjuntos s\~{a}o extremamente dependentes entre si j\'{a} que a ocorr\^{e}ncia
de um proibe (impede totalmente) a ocorr\^{e}ncia do outro.

Neste caso os eventos $A$ e $B$ n\~{a}o fornecem informa\c{c}\~{a}o uns sobre os 
outros.
\input{teste0}
\input{teste2}

\section{\'{A}rvores}

Uma maneira sistem\'{a}tica de tratar problemas de probabilidade em experimentos compostos \'{e}
a listagem das possibilidades com o aux\'{i}lio de \'{a}rvores - referidas como \'{a}rvores 
de possibilidades. Elas s\~{a}o constituidas de \textit{ramos} que saem de \textit{n\'{o}s}.
Ao n\'{o} inicial (origem) corresponde o espa\c{c}o amostral do qual saem ramos que representam
resultados associados \`{a} listagem completa dos resultados parciais que perfazem um primeiro n\'{i}vel
da \'{a}rvore que vai crescendo a medida que aos resultados de um n\'{i}vel v\~{a}o sendo
adicionados os resultados relativos \`{a} continuidade do experimento.

Exemplos de \'{a}rvores de possibilidades podem ser apreciados nas Figuras \ref{diag:tree_urna_repo}  e \ref{diag:tree_urna_s} e correspondendo
aos exemplos \ref{ex:urna_rep} e \ref{ex:urna_sem}. Veja a simetria da \'{a}rvore no caso
com reposi\c{c}\~{a}o. Note que os n\'{o}s do primeiro n\'{i}vel representam eventos
que tem por uni\~{a}o os n\'{o}s do n\'{i}vel seguinte.

Quando se adicionam valores num\'{e}ricos \`{a} arvore que refletem as probabilidades
envolvidas ela passa a ser chamada de \textit{\'{a}rvore de probabilidades}. Obviamente
os n\'{u}meros atribuidos precisam estar de acordo com os postulados. 
A forma de fazer isto segue as seguintes regras:
\begin{enumerate}
 \item Cada n\'{o} recebe a probabilidade do evento que representa.
 \item Aos ramos associam-se probabilidades condicionais entre do n\'{o} (evento) do n\'ivel
  seguinte dado o n\'{o} (evento) do n\'{i}vel anterior.
\end{enumerate}

Juntas, as regras anteriores implicam que a probabilidade de um n\'{o} \'{e} igual
ao produto das probabilidades dos ramos que conduzem a ele.


No caso dos exemplos \ref{ex:urna_rep} e \ref{ex:urna_sem}, estas regras podem ser apreciadas
nas Figuras  respectivamente.

Note que valem as seguintes duas propriedades gerais \footnote{Consequ\^{e}ncias do chamado Teorema 
da Probabilidade Total visto na Sec. \ref{sec:total_bayes}.}

\begin{enumerate}
 \item A soma das probabilidades de n\'{o}s de um mesmo n\'{i}vel \'{e} 1.
 \begin{equation}
 \sum\limits_{\forall i} p(A_i)=1
 \end{equation}
 \item A soma das probabilidades a partir de um dado n\'{o} tamb\'{e}m somam 1.
 \begin{equation}
 \sum\limits_{\forall k} p(R_k|A_i)=1
 \end{equation}
 
\end{enumerate}
representadas pictograficamente na Fig. \ref{diag:tree_geral}. Nela $A_i$ representa o $i$-\'{e}simo evento antecendente
na \'{a}rvore e $C_j$ o $j$-\'{e}simo evento consequente enquanto $R_i$ um particular resultado que mapeia $A_i$ em $C_j$.
A legenda da figura usa a nota\c{c}\~{a}o definida por (\ref{eq:enuplas}) em que $\cdot$ significa qualquer valor entre os poss\'{i}veis.
\input{teste-1}

\subsection{Retorno ao Exemplo \ref{ex:uma_filha_unica_em3}}

Relembrando h\'{a} uma filha entre tr\^{e}s crian\c{c}as e deseja-se saber
qual a probabilidade de que n\~{a}o tenha irm\~{a}s.
Neste caso, uma \'{a}vore de probabilidades pode ser contruida. 
Como uma crian\c{a} \'{e} certamente menina, a quest\~{a}o inicial
(primeiro sub-experimento) \'{e} saber se ela foi a primeira,
segunda ou terceira crian\c{c}a a nascer. Obviamente a probabilidade
disto \'{e} de 1/3 invocando a aus\^{e}ncia de dados sobre prefer\^{e}ncias
naturais de ordem ligadas a sexo. Isto est\'{a} representado
na Figura . Qualquer outra crian\c{c}a nascer por sua vez 
tem seu sexo definido de forma independente da menina ou
da ordem em que ela nasceu e d\'{a} lugar a probabilidades
de condicionais de 1/2. O mesmo acontece no n\'{i}vel seguinte
com a outra crian\c{c}a. Os n\'{o}s no topo da \'{a}rvore
podem ser indicados como:
$$ (ordem,sexo_1,sexo_2)$$
e a probabilidade de cada um \'{e} dada pelo produto das probabilidades
anteriores na \'{a}rvore, isto \'{e}
\begin{equation}
\label{eq:doze}
 \frac{1}{3}\times\frac{1}{2}\times\frac{1}{2}=\frac{1}{12}
\end{equation}
de modo que o evento de interesse pode ser escrito como:
\begin{equation}
 (\cdot,M,M)=\{(1.^a,M,M),(2.^a,M,M),(3.^a,M,M)\}
\end{equation}
de forma que segundo o postulado \ref{post:1} implica uma probabilidade de 3 vezes
a de cada resultado (\ref{eq:doze}) pois o espa\c{c}o probabil\'{i}stico
resultante \'{e} unifome. Ou seja isto se traduz num total de probabilidade
igual a 1/4 para o evento de interesse conforme dito anteriormente.

Um forma alternativa de resolver este problema \'{e} apresentada em \cite{olofson}.

\section{Probabilidade Total e Teorema de Bayes}
\label{sec:total_bayes}

O Teorema de Bayes\footnote{Nota hist\'{o}rica:}
\'{e} um desses resultados que s\~{a}o simples de demonstrar mas
que tem implica\c{c}\~{o}es profundas e frequentemente conduzem a dificuldades
de interpreta\c{c}\~{a}o.

Ele segue imediatamente da defini\c{c}\~{a}o \ref{def:prob_cond} de probabilidade
condicional tendo em conta a comutatividade da intersec\c{c}\~{a}o entre
eventos:

\begin{equation}
 p(A\bigcap B)=p(A|B)p(B)=p(B\bigcap A)=p(B|A)p(A)
\end{equation}
ou seja
\begin{equation}
 \label{eq:bayes1}
p(B|A)=\frac{p(A|B)p(B)}{p(A)}
\end{equation}
que significa que conhecido o efeito de $B$ sobre a ocorr\^{e}ncia de $A$ \'{e} poss\'{i}vel
relacion\'{a}-la ao efeito do conhecimento da ocorr\^{e}ncia de $A$ sobre que acontecimento
de $B$.

Em geral se $p(A|B)$ \'{e} inicialmente dispon\'{i}vel, ela \'{e} dita probabilidade
\textit{a priori} enquanto o c\'{a}lculo obtido a partir dela conduz \`{a} probabilidade
\textit{a posteriori} $p(B|A)$.

\begin{exemp}
Se $B$ representar um sintoma representado pelo evento ter dor de cabe\c{c}a,
e $A$ uma causa disso - uma infec\c{c}\~{a}o, por exemplo, \'{e} poss\'{i}vel
calcular a probabilidade de se estar com uma infec\c{c}\~{a}o se forem
conhecidas as probabilidades de se ter infec\c{c}\~{a}o $p(A)$, a probabilidade
de que a infec\c{c}\~{a}o gere dor de cabe\c{c}a $p(B|A)$ e a probabilidade
de se ter dor de cabe\c{c}a qualquer que seja a causa $p(B)$. Ela \'{e}
dada por (\ref{eq:bayes1}).
\end{exemp}

Na realidade existe um ramo de pesquisa m\'{e}dico-epidemiol\'{o}gico chamado
de ``medicina baseada em evid\^{e}ncias'' que trata de sistematizar conhecimentos deste
tipo \cite{xxx}.

Frequentemente se escreve o Teorema de Bayes descrito por (\ref{eq:bayes1})
na sequinte forma


\begin{equation}
 \label{bayes2}
p(B_i|A)=\frac{p(A|B_i)p(B_i)}{\sum\limits_{\forall i} p(A|B_i)p(B_i)}
\end{equation}
quando os eventos $B_i$ forem tais que particionem o evento $A$, i.e.
\begin{equation}
\label{eq:partic1}
 A=\bigcup\limits_{\forall i} B_i
\end{equation}
com todos $B_i$ disjuntos entre si. Na realidade o conjunto de eventos $B_i$ \'{e} mais geral - \'{e}
suficiente que seja uma parti\c{c}\~{a}o de $\Omega$.




\subsection{Aplica\c{c}\~{o}es do Teorema de Bayes}


\begin{exemp}
Considere que os eventos $A_{i}$ represntam poss\'{i}veis causas do sintoma $B$ ter dor de cabe\c{c}a. Neste 
caso cabe perguntar se um dadoue um paciente tem dor de cabe\c{c}a, qual a probabilidade de se
tratar de um tumor? Para isso considere uma poss\'{i}vel lista de sintomas e suas probabilidades:
\begin{enumerate}
 \item $A_{1}-$ press\~{a}o alta - $p(A_{1})=.15$ e $p(B|A_{1})=.10$

\item $A_{2}-$ tumor - $p(A_{2})=.05$ e $p(B|A_{2})=.30$

\item $A_{3}-$ indigest\~{a}o2 - $p(A_{3})=.25$ e $p(B|A_{2})=.80$

\item $p(\dbigcup\limits_{i\notin \{1,2,3\}}A_{i})=.55$ e $p(B|\dbigcup\limits_{i%
\notin \{1,2,3\}}A_{i})=.35$
\end{enumerate}
que imediatamente conduzem a 
\[
p(A_{3}|B)=\frac{.25\times .8}{.1\times .15+.3\times .05+.8\times
.25+.35\times .55}=.\,47337
\]
\[
p(A_{1}|B)=\frac{.15\times .1}{.1\times .15+.3\times .05+.8\times
.25+.35\times .55}=\allowbreak 3.\,5503\times 10^{-2}
\]
\[
p(\dbigcup\limits_{i\notin \{1,2,3\}}A_{i}|B)=\frac{.55\times .35}{.1\times
.15+.3\times .05+.8\times .25+.35\times .55}=.\,45562
\]
\end{exemp}

\begin{obs}
Note que 

$$p(A_{1}|B)+p(A_{2}|B)+p(A_{3}|B)+p(\dbigcup\limits_{i\notin
\{1,2,3\}}A_{i}|B)=1!$$
que decorre de forma \'{o}bvia de 
\begin{equation}
 p(B)=p(B\bigcap \Omega)=\sum\limits_{\forall i} p(B\bigcap A_i)
\end{equation}
pois o conjunto $A_i$ \'{e} construido na forma de uma parti\c{c}\~{a}o de $\Omega$, bastando substituir
a express\~{a}o adequada da probabilidade condicional (\ref{eq:prob_cond}) para se concluir que
\begin{equation}
 \sum\limits_{\forall i} p(A_i|B)=1.
\end{equation}
resultado j\'{a} usado no contexto de \'{a}rvores de probabilidades.
\end{obs}

\begin{exemp}
Neste exemplo v\^{e}-se como a informa\c{c}\~{a}o de que algu\'{e}m est\'{a} fumando deve alterar
nossa aprecia\c{c}\~{a}o quanto ao sexo da pessoa envolvida. Assim considere que a
popula\c{c}\~{a}o de uma cidade tem 40\% de homens ($H$) dos quai 50\%
fumam ($F)$. Apenas 30\% das mulheres ($M)$ fumam. Numa sala foi deixada uma
pessoa que fuma. Qual a probabilidade de se tratar de um homem?
Seja $N$ o evento n\~{a}o fumar.

Dos dados do probelema tem-se
\begin{enumerate}
 \item 40\% s\~{a}o homens $\Rightarrow $ $p(H)=0.4$ logo usando o evento complementar
60\% s\~{a}o mulheres, i.e. $p(M)=0.6$.
\item 50\% dos homens fumam, ou seja $p(F|H)=0.5$ e
\item 30\% das mulheres fumam que equivale a escrever $p(F|M)=0.3$
\end{enumerate}

Estes dados podem ser usados diretamente em (\ref{eq:bayes1})

$$p(H|F)=\dfrac{p(H\cap F)}{p(F)}=\dfrac{p(F|H)p(H)}{p(F)}=\dfrac{0.5\times
0.4}{0.38}=0.53$$

pois se pode calcular $F$ em termos da parti\c{c}\~{a}o entre os sexos dada por
 $\Omega=H\cup M$ e $M\cap H=\emptyset$, ou seja:

$$F=\left\{ H\cap F\right\} \cup \left\{ M\cap F\right\}$$
logo

$$p(F)=p(F|H)p(H)+p(F|M)p(M)=0.38$$

De modo semelhante 
\[
p(M|F)=0.47
\]
de modo a informa\c{c}\~{a}o de se trata de um fumante
favorece que se ache que se trata de um homem na sala.
\end{exemp}
\begin{obs}
Na realidade com estes dados pode-se completar totalmente a tabela de probabilidades, pois
\[
p(N)=1-p(F)=0.64
\]
conduz a 
\begin{center}
\[
\begin{tabular}{ccc}
G\TEXTsymbol{\backslash}V & F & N \\ 
H & $p(H\cap F)=0.2$ & $p(H\cap N)=0.2$ \\ 
M & $p(M\cap F)=0.18$ & $p(M\cap N)=0.42$%
\end{tabular}
\]

$p(H)=0.4=p(H\cap F)+p(H\cap N)=0.2+p(H\cap N)$

$p(M\cap F)=p(M|F)p(F)=0.18$

$p(M\cap N)=p(M|N)p(N)=0.42$

Note que se obtem de forma consistente o c\'{a}lculo da propor\c{c}\~{a}o de mulheres:
$p(M)=p(M\cap F)+p(M\cap N)=0.6$

%pagebreak
 
\end{center}
\end{obs}

\begin{exemp}

Problema Fundamental de Comunica\c{c}\~{o}es Digitais.

Talvez o maior avan\c{c}o do s\'{e}culo XX foi a percep\c{c}\~{a}o de que o problema
de comunica\c{c}\~{o}es pode ser teoricamente resumido em termos de representar
grandezas por meio de s\'{i}mbolos discretos. A representa\c{c}\~{a}o mais
imediata disto \'{e} que mensagens de quaisquer natureza podem ser representadas
de forma simples de modo bin\'{a}rio, isto \'{e} por um par de s\'{i}mbolos
que ocorrem de forma excludente. Desta forma uma mensagem representada essencialmente
por uma sequ\^{e}ncia de s\'{i}mbolos que s\~{a}o transmitidos:

$$0101110010111000\dots$$

Por v\'{a}rios motivos que incluem distor\c{c}\~{o}es, e perturba\c{c}\~{o}es imprevis\'{i}veis
as sequ\^{e}ncias originais s\~{a}o recebidas com erros:

$$0101010110111010\dots$$

Para caracterizar este processo, considere o seguinte experimento probabil\'{i}stico composto

$$\Omega
=\{(0_{T},0_{R}),(0_{T},1_{R}),(1_{T},0_{R}),(1_{T},1_{R})\}$$
no qual primeiro elemento do para indica simbolicamente o que se transmitiu
e como esta transmiss\~{a}o foi interpretada pelo receptor. \'{E} claro que isto evoca a analogia de
com lan\c{c}amentos de moedas do Ex. \ref{ex:duas_moedas}. O problema \'{e} determinar
qual \'{e} a probabilidade de erro no processo de transmiss\~{a}o.

% \begin{itemize}
% \item  Transmitidos s\'{i}mbolos $0_{T}$ e $1_{T}\Rightarrow $ representados
% por pulsos de comprimento $\Delta t$ (intervalo de sinaliza\c{c}\~{a}o)
% 
% \item  canal: atenua\c{c}\~{a}o, distor\c{c}\~{a}o e influ\^{e}ncia de ru%
% \'{i}do.
% 
% \item  Formas de onda recebidas a cada $\Delta t$ - interpretadas no
% receptor por semelhan\c{c}a: $0_{R}$ e $0_{T}$.
% \end{itemize}

Isto pode ser um pouc mais explicitado com ajuda da Tabela de probabilidades envolvidas:

\begin{center}
$
\begin{array}{ccc}
& 0_{R} & 1_{R} \\ 
0_{T} & p(0_{T}\cap 0_{R}) & p(0_{T}\cap 1_{R}) \\ 
1_{T} & p(1_{T}\cap 0_{R}) & p(1_{T}\cap 1_{R})
\end{array}
$
\end{center}
de modo que o evento de erro pode ser escrito como

$$E=(1_{T}\cap 0_{R})\cup (0_{T}\cap 1_{R})$$
ocorrendo sempre que h\'{a} diverg\^{e}ncia entre o que se transmite e se recebe.

Obviamente que o desej\'{a}vel \'{e} que 

\begin{center}
$0_{T}\rightarrow 0_{R\text{ }}$ e $1_{T}\rightarrow 1_{R}$

$$ p(1_{T}\cap 0_{R})=p(0_{T}\cap 1_{R})=0\,$$
\end{center}


Note que os s\'{i}mbolos recebidos s\~{a}o 
podem ter suas probabilidades escritas com o aux\'{i}lio do Teorema da Probabilidade Total

\[
\left[ 
\begin{array}{l}
p(0_{R}) \\ 
p(1_{R})
\end{array}
\right] =
%\stackunder{canal}{\underbrace{
\left[ 
\begin{array}{ll}
p(0_{R}|0_{T}) & p(0_{R}|1_{T}) \\ 
p(1_{R}|0_{T}) & p(1_{R}|1_{T})
\end{array}
\right] 
%\stackunder{mensagem}{\underbrace{
\left[ 
\begin{array}{l}
p(0_{T}) \\ 
p(1_{T})
\end{array}
\right] 
\]
que decomp\~{o}e estas probabilidades em um produto que envolve uma matriz
de probabilidades condicionais e o vetor das probabilidades de ocorr\^{e}ncia 
dos s\'{i}mbolos transmitidos.

Esta decomposi\c{c}\~{a}o separa as propriedades da fonte de mensagens
daquelas do \textit{canal} ou \textit{meio} de transmiss\~{a}o representadas
pelas probabilidades condicionais, ou seja por como os s\'{i}mbolos se
embaralham ao serem transmitidos.

Ser\'{a} que o desempenho de um sistema depende somente do efeito do canal?
-

Considere  a medida de m\'{e}rito
\[
\xi =\frac{p(0_{T}|0_{R})}{p(1_{T}|0_{R})}=%\stackunder{canal}{\underbrace{%
\frac{p(0_{R}|0_{T})}{p(0_{R}|1_{T})}%\stackunder{mensagem}{\underbrace{%
\frac{p(0_{T})}{p(1_{T})}\gg 1
\]
Assim se $p(0_{T})=p(1_{T})$ a probabilidade erro de interpreta\c{c}\~{a}o de qual bit foi transmitido
s\'{o} depende do canal j\'{a} que a segunda fra\c{c}\~{a}o se cancela.
Do contr\'{a}rio, se $p(0_{T})=\alpha $%
\[
\frac{p(0_{T}|0_{R})}{p(1_{T}|0_{R})}=\frac{p(0_{R}|0_{T})}{p(0_{R}|1_{T})}%
\frac{\alpha }{1-\alpha } 
\]
e pode-se ter  $\alpha $ de modo que
\[
p(0_{T}|0_{R})<p(1_{T}|0_{R}) 
\]
no qual a transmiss\~{a}o de um '$0$' redunda numa taxa maior de '$1$' sendo
erroneamente interpretados pelo receptor.
\end{exemp}


\begin{obs}
Para se conseguir valores adequados para $\xi $ pode-se manipular a frequ%
\^{e}ncia relativa de bits. Isto seria um tipo simpl\'{o}rio de codifica\c{c}\~{a}o de fontes
mensagens digitais\cite{}.
\end{obs}



%\input{axiomas_exercicios}