

\section{ICA e separa\c c\~ao cega de fontes}

ICA (Independent Component Analysis) pode ser considerada como uma
transforma\c cao linear aplicada ao conjunto de dados de forma a torn\'a-los
independentes. Geometricamente isto pode ser visto como um novo conjunto de
eixos onde os dados, uma vez projetados, apresentassem uma caracter\'\i
stica de independ\^encia. Este tipo de aplica\c c\~ao \'e bastante \'util em
problemas de separa\c c\~ao de fontes. Em geral, o problema se resume a
reconstituir um conjunto de sinais fontes \`a partir de outro conjunto de
sinais (observa\c c\~oes) formados, normalmente, atrav\'es de combina\c
c\~oes lineares desses mesmos sinais fontes. Outro fato bastante importante
\'e que poucas considera\c c\~oes s\~ao feitas sobre estes sinais:

\begin{enumerate}
\item  As observa\c c\~oes devem ser estatisticamente independentes e
possu\'\i rem valor esperado igual a zero

\item  Os sinais fonte devem ser n\~ao correlacionados

\item  O n\'umero de fontes deve ser menor ou igual ao n\'umero de conjuntos
observados. \textit{( ligar com problemas mal colocados )}

Obedecidas as restri\c c\~oes acima e considerando-se uma situa\c c\~ao onde
n\~ao se tem ru\'\i do, pode-se provar que a reconstitui\c c\~ao dos sinais
pode ser feita de maneira determin\'\i stica. J\'a a presen\c ca do ru\'\i
do d\'a ao problema uma caracter\'\i stica estat\'\i stica. Uma boa vis\~ao
sobre PCA, ICA e redes neurais que realizam este tipo de opera\c c\~oes
podem ser encontradas em \cite{OJA9501} e \cite{KARHUNEN9601}.
\end{enumerate}

Matematicamente, o problema pode ser descrito como a seguir:

Considere $m$ vetores $X_k=\left[ 
\begin{array}{cccc}
x_1 & x_2 & ... & x_p
\end{array}
\right] $, onde os valores $s_j$ representam as observa\c c\~oes. Estes
vetores correspondem aos v\'arios sensores que estar\~ao captando uma
combina\c c\~ao dos sinais fonte. Supondo a exist\^encia de $n$ sinais fonte
($n<m$) do tipo $S_k=\left[ 
\begin{array}{cccc}
s_1 & s_2 & ... & s_p
\end{array}
\right] $, o que se deseja \'e encontrar uma transforma\c c\~ao linear
representada pela matriz $B$ (de dimens\~ao $n\times m$) que execute esta
opera\c c\~ao. Simbolicamente:

\begin{equation}
\hat S=AX
\end{equation}

onde \ a matris $\hat S$ representa uma estimativa de $S=\left[ 
\begin{array}{cccc}
S_1 & S_2 & ... & S_m
\end{array}
\right] ^T\;$e$\;X=\left[ 
\begin{array}{cccc}
X_1 & X_2 & ... & X_m
\end{array}
\right] ^T.$Tamb\'em poderia-se ter tamb\'em adicionado aos sinais
amostrados.

Quando n\~ao se possui nenhuma informa\c c\~ao sobre as fontes, o processo
de reconstru\c c\~ao pode gerar os sinais fonte em qualquer vetor linha do
vetor $\hat S$, sendo que as amplitudes tamb\'em s\~ao indeterminadas. O
conhecimento de alguma informa\c c\~ao a priori pode mudar muito a solu\c
c\~ao do problema, retirando a caracter\'\i stica de \textit{cegueira} do
processo de identifica\c c\~ao dos sinais originais e permitindo algoritmos
mais eficazes\cite{CARDOSO9501}. A estima\c c\~ao do tipo de distribui\c
c\~ao do sinal fonte ou mesmo do ru\'\i do podem ser informa\c c\~oes
valiosas para o processo de reconstru\c c\~ao, reafirmando as teorias de
regulariza\c c\~ao e no-free lunch.


