\chapter{Introdu\c{c}\~{a}o}
\renewcommand{\thepage}{\arabic{page}}
\setcounter{page}{1}
\section{Vis\~{a}o geral da disserta\c{c}\~{a}o}

Problemas mal colocados podem ser encontrados em diversas \'{a}reas do conhecimento,
como f\'{\i}sica, qu\'{\i}mica, medicina e engenharia. S\~{a}o problemas que apresentam
solu\c{c}\~{o}es complexas, em geral n\~{a}o \'{u}nicas, com pouca imunidade a ru\'{\i}do e fortemente
dependente do conjunto de dados utilizado.
Um problema mal colocado, segundo o crit\'{e}rio de Hadamard \cite{HADAMARD2301}, 
\'{e} qualquer problema que viole pelo menos um dos seguintes crit\'{e}rios \cite{HAYKIN9401}:

\begin{enumerate}
\item	{\em Exist\^{e}ncia:} para cada vetor $x \in X$ existe uma sa\'{\i}da $y=f(x)$,
	onde $y \in Y$.
\item 	{\em Unicidade:} para todo par de vetores $x$ e $t$, $f(x)=f(t)$ se e 
	somente se $x=t$.
\item 	{\em Continuidade:} para qualquer $\epsilon > 0$ existe  $\delta=\delta(\epsilon)$
	tal que a condi\c{c}\~{a}o $\rho _x\left( {x,t} \right)<\delta $ implique
	$\rho _y\left( {f(x),f(t)} \right)<\epsilon $, onde $\rho \left( {\cdot ,\cdot } \right)$
	\'{e} uma fun\c{c}\~{a}o que fornece a dist\^{a}ncia entre seus argumentos no referido
	espa\c{c}o.
\end{enumerate}

Onde $x$ e $y$ s\~{a}o vetores pertencentes ao espa\c{c}os $X$ e $Y$ respectivamente 
e $f$ \'{e} uma fun\c{c}\~{a}o qualquer que relaciona estes dois espa\c{c}os.

Uma classe especial dos problemas mal colocados s\~{a}o os problemas ligados \`{a} invers\~{a}o.
N\~{a}o s\~{a}o poucos os casos onde a invers\~{a}o se apresenta como mal colocada. Alguns
exemplos podem ser citados \cite{ARNOLD01,WING9101,TIKHONOV8701}:

\begin{itemize}
\item {\em F\'{\i}sica: } A F\'{\i}sica possui uma grande variedade de problemas mal
	colocados, nas suas mais diversas \'{a}reas,
	como f\'{\i}sica dos plasmas, geof\'{\i}sica, f\'{\i}sica dos semicondutores,
	f\'{\i}sica de alta energia, hidrodin\^{a}mica, etc.  Mais informa\c{c}\~{o}es podem ser 
	encontradas em \cite{NEDELKOV7201}.
\item {\em Medicina: }Com a utiliza\c{c}\~{a}o de redes neurais \'{e} poss\'{\i}vel localizar centros
	el\'{e}tricos no c\'{e}rebro atrav\'{e}s da reconstru\c{c}\~{a}o de sinais provenientes de 
	eletroencefalograma. Este tamb\'{e}m \'{e} um problema de invers\~{a}o sem 
	solu\c{c}\~{a}o anal\'{\i}tica \cite{HAFT9401}.
\item {\em Processamento de Imagens: } Alguns processos de reconstru\c{c}\~{a}o de imagens
	s\~{a}o baseados em {\em modelos de danos}. A recupera\c{c}\~{a}o da imagem original
	utilizando estes modelos \'{e} um problema de invers\~{a}o.
\item {\em Redes Neurais: } O processo de treinamento de uma rede neural tamb\'{e}m  
	pode ser um problema mal colocado. Em geral, n\~{a}o existe informa\c{c}\~{a}o suficiente
	no conjunto de dados para que o ajuste dos pesos seja feito de maneira \'{u}nica.
	Al\'{e}m disto, a presen\c{c}a de ru\'{\i}do adiciona imprecis\~{a}o na reconstru\c{c}\~{a}o do 
	mapeamento, podendo at\'{e} mesmo produzir uma sa\'{\i}da fora da faixa especificada. 
\end{itemize}

Um m\'{e}todo bastante utilizado na resolu\c{c}\~{a}o de problemas mal colocados
\'{e} conhecido como {\em regulariza\c{c}\~{a}o}, sendo inicialmente desenvolvido na d\'{e}cada
de 60, por Tikhonov \cite{TIKHONOV7701,TIKHONOV8701}.
A id\'{e}ia b\'{a}sica por tr\'{a}s deste m\'{e}todo \'{e} a adi\c{c}\~{a}o de alguma informa\c{c}\~{a}o {\em a priori} ao
problema, atrav\'{e}s de uma fun\c{c}\~{a}o n\~{a}o negativa. Com isto, o problema pode se  tornar
bem condicionado e permitir, dessa forma, uma solu\c{c}\~{a}o \'{u}nica e est\'{a}vel.

Devido \`{a} grande proximidade entre a regulariza\c{c}\~{a}o de Tikhonov e o modelo de
rede neural artificial (RNA) conhecido como Redes Neurais com Fun\c{c}\~{a}o de Base 
Radial \cite{BROOMHEAD8801}, 
a aplicabilidade deste modelo na solu\c{c}\~{a}o de problemas mal colocados tornou-se
inevit\'{a}vel.
Os primeiros trabalhos estabelecendo  rela\c{c}\~{a}o entre Redes
Neurais RBF e regulariza\c{c}\~{a}o s\~{a}o devidos a Poggio e Girosi. Entre
v\'{a}rios artigos publicados \cite{GIROSSI8901,POGGIO9001,GIROSI9501}, 
talvez o mais interessante seja o artigo de 1990 \cite{GIROSSI9002}. 
Este artigo fornece uma vis\~{a}o clara da utiliza\c{c}\~{a}o de redes neurais RBF na solu\c{c}\~{a}o 
de problemas de interpola\c{c}\~{a}o. Na realidade, vai al\'{e}m disto, ao
demonstrar v\'{a}rios aspectos da teoria de regulariza\c{c}\~{a}o e aproxima\c{c}\~{a}o. 

O problema de invers\~{a}o, agora na \'{a}rea da qu\'{\i}mica, que ser\'{a} tratado neste
trabalho \'{e} o da determina\c{c}\~{a}o do potencial intermolecular atrav\'{e}s do
segundo coeficiente do virial \cite{BARROS9801,BARROS9802}.
Ao se lidar com gases reais a equa\c{c}\~{a}o cl\'{a}ssica de estados dos gases
ideais $pV=nRT$ se torna imprecisa e novas parcelas devem ser adicionadas 
a ela de forma a representar com mais fidelidade o sistema em estudo. O teorema do
virial  \cite{ALONSO6801,HIRSCHFELDER5401}, baseado na mec\^{a}nica cl\'{a}ssica, ir\'{a} permitir estas corre\c{c}\~{o}es ao considerar o 
efeito do potencial intermolecular na equa\c{c}\~{a}o de estado. A equa\c{c}\~{a}o seguinte
mostra o virial, representado por $B(T)$, na equa\c{c}\~{a}o de estado.

\[
\frac{pV}{NkT}=1+B(T)\frac NV
\]

onde a quantidade $B(T)$ \'{e} definida por: 

\[
B(T)=2\pi \int_0^\infty R^2(1-e^{-\beta U(R)})dR 
\]

A equa\c{c}\~{a}o que representa  $B(T)$ pertence a uma classe de equa\c{c}\~{o}es 
conhecidas como equa\c{c}\~{a}o integral de Fredholm de primeira ordem \cite{WING9101}, 
sendo notoriamente um problema mal colocado. 

A principal proposta apresentada nesta disserta\c{c}\~{a}o \'{e} a utiliza\c{c}\~{a}o 
de redes RBF e regulariza\c{c}\~{a}o para determina\c{c}\~{a}o do potencial intermolecular, 
atrav\'{e}s da invers\~{a}o do virial, como representado no diagrama abaixo:

\begin{center}
   Dados experimentais de $B(T)$ $\rightarrow$ 
   \framebox{Rede neural RBF} 
   $\rightarrow$
   $U(R)$   
\end{center}

Os dados experimentais s\~{a}o constitu\'{\i}dos de v\'{a}rios conjuntos de entrada
(no caso, $B(T)$)  e de sa\'{\i}da ($U(R)$) para sistemas qu\'{\i}micos diat\^{o}micos 
diferentes. Como $B(T)$ e $U(R)$ podem ser modelados parametricamente, 
cada vetor de dados representa, na realidade, um conjunto de par\^{a}metros
capaz de reconstruir estas fun\c{c}\~{o}es para um determinado sistema.
A formula\c{c}\~{a}o param\'{e}trica do segundo coeficiente do virial e do potencial
est\~{a}o representadas abaixo.

\[
U(R)=A(1+a_1R+a_2R^2+a_3R^3)e^{-a_4R}+tanh(R-\frac{R_m}2)(\frac{C_6}{R^6}+%
\frac{C_8}{R^8}+\frac{C_{10}}{R^{10}})  \label{EQPOTPARAM}
\]
\[
B(T)=\sum_nd_n(\frac{T_0}T-1)^n 
\]

Com isso,  uma rede neural treinada com as fun\c{c}\~{o}es $B(T)$ e $U(R)$ 
parametrizadas para v\'{a}rios sistemas qu\'{\i}micos diferentes ir\'{a} fornecer 
novos par\^{a}metros para o potencial intermolecular de sistemas ainda 
n\~{a}o apresentados \`{a} rede. A confronta\c{c}\~{a}o dos potenciais obtidos atrav\'{e}s
dos par\^{a}metros generalizados pela rede com os calculados teoricamente 
usando potenciais conhecidos da literatura \cite{HUXLEY8301} se revelou bastante 
razo\'{a}vel e, principalmente, dentro de uma faixa de erro aceit\'{a}vel para a 
utiliza\c{c}\~{a}o experimental.

Uma outra abordagem presente neste trabalho mostra o uso de redes
recorrentes para a solu\c{c}\~{a}o de problemas mal colocados. O trabalho de 
Vemuri e Jang \cite{VEMURI9201} \'{e} um exemplo disso ao usar uma 
rede de Hopfield \cite{HOPFIELD8201} para a solu\c{c}\~{a}o de equa\c{c}\~{o}es integrais de 
Fredholm de primeira ordem \cite{WING9101}.  Atrav\'{e}s de um processo de quadratura \cite{WING9101}
a equa\c{c}\~{a}o de Fredholm passa a ser descrita como um sistema matricial, sendo
a invers\~{a}o realizada pela rede de Hopfield. Como o segundo coeficiente
do virial tamb\'{e}m \'{e} descrito por uma equa\c{c}\~{a}o integral de primeira ordem, a
possibilidade de utiliza\c{c}\~{a}o da rede de Hopfield se torna real. A grande diferen\c{c}a
\'{e} que, para cada sistema, a equa\c{c}\~{a}o do virial deve ser transformada em uma
express\~{a}o matricial do tipo:

\[
\mathbf{b=Ku}
\]

onde $\mathbf{b}$ e $\mathbf{u}$ s\~{a}o vetores representativos do virial e 
do potencial, respectivamente.
Definindo-se ainda uma fun\c{c}\~{a}o de energia para o sistema 
o potencial pode ser finalmente calculado pela rede.

Como Vemuri e Jang j\'{a} haviam conseguido sucesso com este tipo de abordagem, 
esta t\'{e}cnica n\~{a}o foi usada nesta disserta\c{c}\~{a}o. Preferiu-se apenas deixar de forma 
bem clara os procedimentos para a aplica\c{c}\~{a}o da rede Hopfield na invers\~{a}o de 
matrizes ou, de uma maneira geral, em problemas que possam ser descritos 
por fun\c{c}\~{o}es de energia. Isto foi considerado importante uma vez que o artigo de
Vemuri e Jang n\~{a}o \'{e} extenso o suficiente para cobrir todos os detalhes da aplica\c{c}\~{a}o
demonstrada por eles. 

Ainda dentro do contexto de redes estoc\'{a}sticas, um primeiro passo foi dado para se
criar uma rede de Boltzmann \cite{HINTON8301,HINTON8501} que ao inv\'{e}s de
possuir nodos bin\'{a}rios tivesse nodos discretos. Este trabalho,  assim como a rede
de Boltzmann original, encontra-se fortemente baseado na t\'{e}cnica de 
{\em Simulated Anneling} \cite{KIRKPATRICK8301}, mais especificamente
{\em Simulated Anneling} aplicado \`{a} vari\'{a}veis cont\'{\i}nuas \cite{VANDERBILT8401}. 

De uma maneira geral, este modelo guarda v\'{a}rias semelhan\c{c}as com
a rede cl\'{a}ssica, tais com interconex\~{a}o entre os neur\^{o}nios
e regras para mudan\c{c}a de estado baseada em probabilidades.
As principais diferen\c{c}as est\~{a}o relacionadas ao processo como se
d\'{a} a mudan\c{c}a de estado, refinamento da solu\c{c}\~{a}o e escalonamento da fun\c{c}\~{a}o de energia, 
descrito em detalhes nesta disserta\c{c}\~{a}o. Apesar de ainda em fase inicial, 
os resultados iniciais obtidos com este modelo parecem promissores.

\section{Motiva\c{c}\~{a}o}

O tratamento de problemas mal colocados \'{e}, sem d\'{u}vida, um t\'{o}pico
de bastante interesse. V\'{a}rios problemas importantes se enquadram
dentro desta categoria sendo que normalmente a obten\c{c}\~{a}o da solu\c{c}\~{a}o 
n\~{a}o se d\'{a} de uma forma simples, al\'{e}m de exigir um  conhecimento 
mais profundo da natureza da aplica\c{c}\~{a}o. O conhecimento {\em a priori}
desempenha um papel relevante neste processo e a regulariza\c{c}\~{a}o \'{e}
um dos seus instrumentos, merecendo destaque neste trabalho.

Da mesma forma, a utiliza\c{c}\~{a}o de redes neurais com sucesso em v\'{a}rias 
categorias de  problemas, tais como vis\~{a}o computacional, predi\c{c}\~{a}o, 
classifica\c{c}\~{a}o, interpola\c{c}\~{a}o, controle, rob\'{o}tica, reconhecimento de voz, entre
outros, fornece ao pesquisador a seguran\c{c}a necess\'{a}ria para se questionar
sobre a aplica\c{c}\~{a}o de modelos cl\'{a}ssicos de redes neurais em problemas 
mal colocados. 
A exist\^{e}ncia de trabalhos demonstrando a aplica\c{c}\~{a}o de modelos neurais 
em problemas de invers\~{a}o \'{e} de import\^{a}ncia fundamental, trazendo 
benef\'{\i}cios diretos e indiretos para diversas \'{a}reas do conhecimento.

Em especial, a \'{a}rea de qu\'{\i}mica conta hoje com muito poucos 
trabalhos que fazem o uso de RNAs, sendo esta disserta\c{c}\~{a}o um forte motivo 
para o estreitamento entre estas duas \'{a}reas do conhecimento.
Neste contexto,  o virial se reveste de grande 
import\^{a}ncia para a termodin\^{a}mica ao estabelecer uma rela\c{c}\~{a}o clara entre 
a energia potencial intermolecular das part\'{\i}culas de um sistema e a sua 
equa\c{c}\~{a}o de estado. 
Por exemplo, pode-se obter, \`{a} partir de um conjunto de dados termodin\^{a}micos, 
energias potenciais de qualidade, pois refletem diretamente os dados experimentais.
Al\'{e}m disso, o conhecimento do potencial permite resolver as 
equa\c{c}\~{o}es de movimento, cl\'{a}ssicas ou qu\^{a}nticas e obter outras propriedades 
do sistema,  como as probabilidades de transi\c{c}\~{a}o e as se\c{c}\~{o}es de choque.
O problema de invers\~{a}o do virial j\'{a} vem sendo tratado com t\'{e}cnicas como 
regulariza\c{c}\~{a}o de Tikhonov e decomposi\c{c}\~{a}o em valores singulares (SVD) 
 \cite{JOAO9801,JOAO9802}, mas este trabalho \'{e} o primeiro a 
abord\'{a}-lo usando redes neurais artificiais.

\'{E} importante lembrar tamb\'{e}m que, embora se esteja abordando nesta 
disserta\c{c}\~{a}o  um problema espec\'{\i}fico em qu\'{\i}mica, o que se pretende \'{e} que 
a metodologia empregada na resolu\c{c}\~{a}o seja de car\'{a}ter gen\'{e}rico e portanto 
possa servir como refer\^{e}ncia para trabalhos futuros que porventura venham
a lidar com problemas de natureza inversa.

\section{Contribui\c{c}\~{o}es}

De uma maneira resumida, as contribui\c{c}\~{o}es desta disserta\c{c}\~{a}o
est\~{a}o citadas a seguir:

\begin{itemize}
\item 
Descri\c{c}\~{a}o da import\^{a}ncia da regulariza\c{c}\~{a}o, enfatizada atrav\'{e}s da teoria 
{\em No Free Lunch} e a demonstra\c{c}\~{a}o do seu efeito na estabiliza\c{c}\~{a}o da
solu\c{c}\~{a}o atrav\'{e}s de um exemplo bidimensional.
\item 
Estabelecimento de uma rela\c{c}\~{a}o clara entre redes RBF, regulariza\c{c}\~{a}o e
problemas mal colocados. 
\item
Uma descri\c{c}\~{a}o detalhada da utiliza\c{c}\~{a}o de redes de Hopfield
na solu\c{c}\~{a}o de equa\c{c}\~{o}es integrais de primeira ordem, com 
inclus\~{a}o de alguns exemplos de fun\c{c}\~{a}o de energia.
\item
A introdu\c{c}\~{a}o da rede de Boltzmann discretizada como proposta
para um futuro modelo ligeiramente diferente do original, com
capacidade de apresentar valores reais com sa\'{\i}da de seus nodos.
\item
Determina\c{c}\~{a}o do potencial intermolecular de sistemas qu\'{\i}micos
atrav\'{e}s de uma rede RBF, usando uma abordagem onde as 
fun\c{c}\~{o}es se apresentam em sua forma parametrizada.
\item
A utiliza\c{c}\~{a}o de PCA como t\'{e}cnica de pr\'{e}-tratamento para sele\c{c}\~{a}o
de um conjunto de dados com maior correla\c{c}\~{a}o entre si. Al\'{e}m disso,
uma descri\c{c}\~{a}o detalhada da t\'{e}cnica e um exemplo foi deixado
para consultas posteriores.

\end{itemize}

\section{Vis\~{a}o sum\'{a}ria dos cap\'{\i}tulos}

No Cap\'{\i}tulo 2 \'{e} discutido o conceito de problema mal colocados 
segundo a defini\c{c}\~{a}o de Hadamard, sendo que a equa\c{c}\~{a}o integral 
de Fredholm de primeira ordem \'{e} ent\~{a}o colocada como um exemplo 
t\'{\i}pico de problema mal colocado. \'{E} mostrado como este tipo de 
equa\c{c}\~{a}o pode ser representada por um sistema matricial e que 
a sua solu\c{c}\~{a}o n\~{a}o pode ser feita por pseudo-inversa. Nestes casos, 
\'{e} apresentado o m\'{e}todo de regulariza\c{c}\~{a}o como forma de incluir
algum tipo de conhecimento {\em a priori} sobre o problema.
A import\^{a}ncia do conhecimento {\em a priori} \'{e} ainda ressaltada
pelo teorema {\em No Free Lunch}, que afirma que a aus\^{e}ncia de
conhecimento {\em a priori} na formula\c{c}\~{a}o do problema fornecer\'{a}, 
em m\'{e}dia, um comportamento m\'{e}dio para qualquer fun\c{c}\~{a}o de custo.
Al\'{e}m disso, um exemplo bidimensional mostrando como a regulariza\c{c}\~{a}o
ir\'{a} estabilizar a solu\c{c}\~{a}o \'{e} tamb\'{e}m apresentado.

A Rede Neural com Fun\c{c}\~{a}o de Base Radial \'{e} descrita no Cap\'{\i}tulo 3.
Inicialmente s\~{a}o apresentados alguns tipos de fun\c{c}\~{o}es de base radial e
os seus par\^{a}metros de raio e centro. Tamb\'{e}m \'{e} discutido em linhas gerais 
como \'{e} feita a interpola\c{c}\~{a}o baseada em fun\c{c}\~{o}es de base radial.
Baseado nisto, o modelo RNA para redes com fun\c{c}\~{a}o de base radial 
\'{e} posteriormente apresentado, mostrando como s\~{a}o constitu\'{\i}das as 
suas camadas e alguns aspectos do seu treinamento. A influ\^{e}ncia do valor 
do raio e da posi\c{c}\~{a}o espacial das bases no desempenho da rede s\~{a}o 
tamb\'{e}m discutidas. Ao final do cap\'{\i}tulo \'{e} feita uma rela\c{c}\~{a}o entre redes
neurais com fun\c{c}\~{a}o de base radial e regulariza\c{c}\~{a}o. De novo, a op\c{c}\~{a}o
de regulariza\c{c}\~{a}o se apresenta como uma excelente forma de se estabilizar
a solu\c{c}\~{a}o e interpolar o conjunto de dados sem excesso de ajuste.

O Cap\'{\i}tulo 4 aborda os modelos neurais recorrentes de Hopfield e
Boltzmann. A rede de Hopfield \'{e} descrita com um direcionamento para
problemas de otimiza\c{c}\~{a}o, uma vez que ser\'{a} esta a abordagem ao se
descrever como a rede pode ser aplicada na solu\c{c}\~{a}o de equa\c{c}\~{o}es
integrais de primeira ordem, j\'{a} na Se\c{c}\~{a}o 4.1.4. Depois, o modelo 
da rede de Boltzmann e suas caracter\'{\i}sticas diferenciais, tais como
{\em Simulated Anneling} e Cadeias de Markov s\~{a}o apresentados.
Tudo isto servir\'{a} de base para que seja introduzido a proposta de um
modelo de rede de Boltzmann discretizada, onde os nodos possuem
valores reais que s\~{a}o refinados por passos cada vez menores. 
Os aspectos relacionados ao treinamento e \`{a} fun\c{c}\~{a}o de energia s\~{a}o
tamb\'{e}m discutidos.

O problema que ser\'{a} efetivamente resolvido nesta disserta\c{c}\~{a}o \'{e} 
finalmente apresentado no Cap\'{\i}tulo 5. Para isto, uma descri\c{c}\~{a}o 
sum\'{a}ria de alguns aspectos da termodin\^{a}mica s\~{a}o colocados, como
a distribui\c{c}\~{a}o de Boltzmann e utiliza\c{c}\~{a}o de valores m\'{e}dios.
Depois, o conceito de potencial intermolecular \'{e} discutido, sendo 
apresentados alguns modelos de potenciais e suas implica\c{c}\~{o}es.
J\'{a} na se\c{c}\~{a}o 1.5 o teorema do virial \'{e} deduzido, sendo descrito
como um termo capaz de introduzir na equa\c{c}\~{a}o de estado informa\c{c}\~{o}es
provenientes do potencial intermolecular, tornando-a aplic\'{a}vel a gases
reais fora da temperatura de Boyle. 
Este cap\'{\i}tulo se encerra mostrando como o c\'{a}lculo do potencial \`{a} partir
do segundo coeficiente do virial (um problema tipicamente mal colocado) 
pode ser realizado por redes neurais com fun\c{c}\~{a}o de base radial e redes
recorrentes.

No Cap\'{\i}tulo 6 o procedimento utilizado para o treinamento da rede 
RBF \'{e} apresentado em detalhes. \'{E} mostrado como a t\'{e}cnica de PCA 
foi eficiente para selecionar os conjuntos mais estatisticamente 
correlacionados e o porque a regulariza\c{c}\~{a}o foi o m\'{e}todo escolhido
para o treinamento. Finalmente, s\~{a}o apresentados os resultados 
da invers\~{a}o. No caso da rede RBF, os resultados se apresentaram 
bastante satisfat\'{o}rios e puderam ainda ser melhorados ao se trabalhar
com um subconjunto dos dados composto apenas pelos gases nobres. 
J\'{a} os resultados para a rede de Boltzmann discretizada, apesar de 
razoavelmente precisos, ainda sugerem um aperfei\c{c}oamento no m\'{e}todo, com o 
objetivo de tornar a solu\c{c}\~{a}o mais est\'{a}vel.

Finalmente, s\~{a}o feitas v\'{a}rias sugest\~{o}es no Cap\'{\i}tulo 7, com o objetivo de
aperfei\c{c}oar o presente trabalho. 
