%% This document created by Scientific Word (R)
%% Version 2.0


\documentclass[12pt,thmsa]{article}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{epsfig}

\input tcilatex

\begin{document}

\subsection{Descri\c c\~ao Matem\'atica}

O treinamento de uma rede RBF\ \'e feito atrav\'es de uma \emph{aprendizagem
supervisionada}, ou seja, a rede constr\'oi a sua base de conhecimento
atrav\'es de um conjunto de pares de entrada e sa\'\i da. A escolha de um
conjunto de dados consistente e estatisticamente bem distribu\'\i do \'e
fundamental para o sucesso do treinamento.

A quantidade de nodos na camada escondida, em sua forma original, \'e igual
ao n\'umero de pares de treinamento e com centros para a RBF definidos pelo
vetor de entrada. Para casos onde exista um n\'umero de dados para
treinamento muito elevado, isto pode se tornar pouco otimizado. Dessa forma,
outros m\'etodos foram desenvolvidos, visando encontrar um n\'umero de nodos
\'otimo para a camada escondida.

Um m\'etodo conhecido como \emph{Forward Selection} (citar mark orr) utiliza
um algoritmo de otimiza\c c\~ao que permite encontrar um subconjunto de
centros menor. Isto \'e bastante interessante ao permitir eliminar, por
exemplo, centros que situem muito pr\'oximos de outros ou que n\~ao
apresentem consist\^encia com o conjunto de dados. A este processo de sele\c
c\~ao ainda se pode adicionar regulariza\c c\~ao de ordem zero (citar mark
orr), aumentando a imunidade a ru\'\i dos (verificar o que de bom provoca
isto).

Matematicamente, o treinamento pode se resumir a um processo de invers\~ao
de uma matriz formada \`a partir de dados do conjunto de treinamento, com
todas as implica\c c\~oes discutidas no cap\'\i tulo de problemas mal
colocados. 

\end{document}
