%% Marcelo Barros de Almeida
%% 03/03/1998 - 12:49

\documentclass{article}

\begin{document}

\section{Descri\c{c}\~{a}o da simula\c{c}\~{a}o}

O objetivo da simula\c{c}\~{a}o \'{e} descobrir, para o conjunto de dados utilizados, 
qual o melhor m\'{e}todo de treinamento de RBF que deve ser utilizado e um 
n\'{u}mero \'{o}timo de neur\^{o}nios para o conjunto de treinamento.
Para isto, cada m\'{e}todo \'{e} testado estat\'{\i}sticamente e os resultados finais
s\~{a}o ent\~{a}o comparados.

Os passos adotados na simula\c{c}\~{a}o est\~{a}o sumariamente descritos a seguir:

\begin{enumerate}

\item
Um conjunto aleat\'{o}rio de treinamento e outro para valida\c{c}\~{a}o, de tamanho fixo,
s\~{a}o sorteados \`{a} partir do conjunto total de dados. Com estes conjuntos definidos, 
a rede \'{e} treinada e o erro m\'{e}dio por nodo \'{e} calculado.

\item 
O passo anterior \'{e} repetido v\'{a}rias vezes, com novos conjunto sorteados 
aleatoriamente e o melhor resultado \'{e} armazenado.
O melhor resultado de cada m\'{e}todo ser\'{a} utilizado para compara\c{c}\~{a}o. Logicamente, \'{e} 
praticamente imposs\'{\i}vel ter um n\'{u}mero de simula\c{c}\~{a}o que se aproxime do n\'{u}mero de 
combina\c{c}\~{o}es poss\'{\i}veis de conjuntos de treinamento e valida\c{c}\~{a}o.

\item
Os passos 1 e 2 s\~{a}o repetidos para conjuntos de treinamento com n\'{u}mero de elementos
diferentes. Dessa forma pode-se definir, para cada m\'{e}todo, o n\'{u}mero m\'{a}ximo de 
neur\^{o}nios a generalizar sem que o erro produzido seja significativo. 

\end{enumerate}

Como o valor do raio para as RBFs, no momento do treinamento,  precisa ser fornecido, 
tentou-se estimar o valor \'{o}timo. Para isto s\~{a}o feitos 20 treinamentos utilizando-se o
mesmo conjunto de treinamento e valida\c{c}\~{a}o, com o raio variando de 0 a 1, em 
incrementos de 0,05. Desta forma estaria-se utilizando um raio \'{o}timo com um erro 
m\'{a}ximo em torno de 0,025, o que j\'{a} \'{e} bastante razo\'{a}vel. Um algoritmo de minimiza\c{c}\~{a}o
poderia ser tamb\'{e}m utilizado para se descobrir o valor do raio, ou mesmo uma outra rede
neural mas, por simplicidade e devido \`{a} pr\'{o}pria natureza do problema (onde cada avalia\c{c}\~{a}o
de fun\c{c}\~{a}o de custo iria corresponder a um treinamento completo da rede), foi utilizado 
apenas os 20 treinamentos com valores de raio diferentes.

Uma outra peculiaridade da simula\c{c}\~{a}o (no fundo com o prop\'{o}sito de permitir uma
compara\c{c}\~{a}o mais justa de resultados entre m\'{e}todos de treinamento) est\'{a} relacionada
com o aumento do conjunto de valida\c{c}\~{a}o. Quando o conjunto de valida\c{c}\~{a}o \'{e} aumentado,
os sistemas que tivessem sido usados no treinamento anterior s\~{a}o preservados e 
apenas um n\'{u}mero de sistemas necess\'{a}rio para que se complete o novo tamanho do
conjunto de valida\c{c}\~{a}o \'{e} utilizado.


Suponha que apenas 1 sistema (S1) tenha sido escolhido para a valida\c{c}\~{a}o. Como o 
n\'{u}mero de simula\c{c}\~{a}o utilizado \'{e} maior que o conjunto total de dados, pode-se
garantir que S1 ser\'{a} o sistema que possuir menor erro de generaliza\c{c}\~{a}o.
Aumentando-se o conjunto de valida\c{c}\~{a}o agora para 2, um novo elemento (S2)
ser\'{a} escolhido e, se todas as permuta\c{c}\~{o}es poss\'{\i}veis com 2 elementos puderem
ser simuladas, o menor erro estaria garantido de novo, provavelmente com o
sistema S1 e o S2 com menor erro. E assim, sucessivemente, os conjuntos
de valida\c{c}\~{a}o estariam crescendo mas mantendo os sistemas dos treinamentos
anteriores, o que seria muito importante para an\'{a}lise. Desta forma, seria poss\'{\i}vel,
por exemplo, extrair informa\c{c}\~{o}es a respeito do aumento do erro de generaliza\c{c}\~{a}o de um 
determinado sistema quando o n\'{u}mero de sistemas a generalizar aumentasse.
Como n\~{a}o \'{e} poss\'{\i}vel fazer todas as permuta\c{c}\~{o}es, a  sequ\^{e}ncia pode n\~{a}o ser
mantida, prejudicando um pouco os resultados.


\end{document}