% Descri\c{c}\~{a}o sobre redes RBF e regulariza\c{c}\~{a}o
% Marcelo - 05/03/1998 - Domingo - 21:50
%% This document created by Scientific Word (R)
%% Version 2.0


\documentclass[12pt,thmsa]{article}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{epsfig}

\begin{document}


\chapter{Redes Neurais}

\pagebreak

\section{Redes Neurais com Fun\c{c}\~{a}o de Base Radial}

\subsection{Introdu\c{c}\~{a}o}

Redes neurais com fun\c{c}\~{a}o de base radial (RBF) tiveram, desde a sua introdu\c{c}\~{a}o, 
um estreito relacionamento com a \'{a}rea estat\'{\i}stica, mais precisamente ligada
\`{a} interpola\c{c}\~{a}o de fun\c{c}\~{o}es. A utiliza\c{c}\~{a}o fun\c{c}\~{o}es de base radial na resolu\c{c}\~{a}o de 
problemas foi feita inicialmente por Powell \cite{POWELL8501} e a posterior
modelagem de uma rede neural RBF pode ser encontrada no trabalho de 
Broomhead e Lowe \cite{BROOMHEAD8801}.

Fazendo-se um paralelo com os m\'{e}todos estat\'{\i}sticos, redes neurais RBF podem
ser vistas como um modelo multivari\'{a}vel de regress\~{a}o n\~{a}o param\'{e}trico com
capacidade de interpola\c{c}\~{a}o, podendo ser ainda linear ou n\~{a}o. Estas caracter\'{\i}sticas
merecem um pouco mais de destaque e s\~{a}o comentadas a seguir.

\begin{description}
\item[Multivari\'{a}vel:]
Esta caracter\'{\i}stica est\'{a} ligada com o n\'{u}mero de vari\'{a}veis independentes (ou 
entradas da rede) existentes no problema. Modelos onde a vari\'{a}vel dependente 
(sa\'{\i}das da rede) est\~{a}o relacionadas com v\'{a}rias vari\'{a}veis de entrada s\~{a}o 
chamados de multivari\'{a}vel.

\item[Regress\~{a}o:]
A regress\~{a}o pode ser representada no \^{a}mbito de redes neurais como aprendizagem
supervisionado. Um conjunto de exemplos composto por pares de entradas e 
sa\'{\i}das s\~{a}o apresentados \`{a} rede que tenta apreender o modelamento emp\'{\i}rico subjacente 
aos dados.

\item[N\~{a}o param\'{e}trico:]
Um modelo \'{e} considerado param\'{e}trico ou n\~{a}o dependendo do conhecimento que 
se tem a respeito do seu relacionamento funcional. Quando se sabe, a priori, o 
modelo funcional do problema e apenas se est\'{a} interessado em descobrir os
par\^{a}metros existentes neste modelo de forma a melhor ajust\'{a}-lo ao conjunto de 
dados, o problema \'{e} dito param\'{e}trico. Em geral, neste tipo de modelo, os par\^{a}metros
representam caracter\'{\i}sticas f\'{\i}sicas. Ao contr\'{a}rio, quando n\~{a}o se tem conhecimento 
do tipo de fun\c{c}\~{a}o que governa o modelo e este modelo \'{e} ent\~{a}o estimado atrav\'{e}s
de uma fun\c{c}\~{a}o com par\^{a}metros sem significado f\'{\i}sico, o problema \'{e} dito n\~{a}o
param\'{e}trico.

\item[Interpola\c{c}\~{a}o:]
Neste caso, o conceito neural equivalente \'{e} generaliza\c{c}\~{a}o. Depois de ter
sido treinada atrav\'{e}s de um conjunto de exemplos (pares entrada/sa\'{\i}da), espera-se
que a rede possa ser capaz de generalizar o seu conhecimento, respondendo 
a situa\c{c}\~{o}es novas de maneira inteligente (no fundo realizando uma interpola\c{c}\~{a}o
no mapeamento de entrada e sa\'{\i}da representado pela rede).

\end{description}

\subsection{Topologia e descri\c{c}\~{a}o matem\'{a}tica}

\input{rbf.tex}

Uma introdu\c{c}\~{a}o bem mais abrangente sobre redes RBF pode ser encontrada no 
trabalho de Mark Orr \cite{MARKORR9601}


\'{E} sabido que regulariza\c{c}\~{a}o \'{e} um m\'{e}todo de se conseguir
solucionar problemas mal colocados(\cite{TIKHONOV7701}, \cite{RIELE8501}, 
\cite{STERITI9001},\cite{TIKHONOV8701}) e tamb\'{e}m que existe uma estreita
rela\c{c}\~{a}o entre redes neurais e regulariza\c{c}\~{a}o (\cite
{BISHOP9501}, \cite{POGGIO9001}, \cite{BISHOP9001}, \cite{MARKORR9501}, \cite
{GIROSI9501}). Mas especificamente, para a fun\c{c}\~{a}o de energia que vem
sendo tratada, o que se nota \'{e} que o termo de regulariza\c{c}\~{a}o
adicionado permite uma estabilidade maior na solu\c{c}\~{a}o, tornando a fun%
\c{c}\~{a}o mais imune a ru\'{\i}dos e ao conjunto de treinamento utilizado.



%%%
%%% Bibliografia
%%% 
\bibliography{neural}
\bibliographystyle{plain}

\end{document}