\section{Seleção de Características}

A dimensão do espaço de características é conhecido como dimensionalidade. Quanto 
menor o número de características que representam o dado, menor o custo de medição 
e maior a precisão do classificador. Quando o espaço de características contém 
somente as características mais relevantes, o classificador será mais rápido e 
ocupará menos memória. 

Os algoritmos de seleção de características escolhem, segundo algum critério, 
o subconjunto mais representativo do conjunto de características original. Em 
geral, estes algoritmos reduzem o custo de medição dos dados e as características 
selecionadas mantêm as propriedades que possuíam quando foram criadas.  
Estes algoritmos podem ser avaliados através dos seguintes atributos: Subconjunto 
inicial, tipo de busca, função de avaliação e critério de parada. A busca pode começar 
com um subconjunto vazio, cheio ou com um número aleatório de características. Ela 
pode avaliar todos os subconjuntos possíveis (busca exaustiva) ou utilizar alguma 
heurística. A função de avaliação pode ser do tipo filtro ou \textit{wrapper}. A 
primeira utiliza características intrínsecas dos dados, enquanto a segunda utiliza 
um classificador para avaliar o subconjunto. Por fim, o critério de parada pode ser 
um parâmetro do algoritmo ou ele pode parar quando os subconjuntos encontrados não 
geram uma solução melhor \cite{artigo1}.

Se a redução da dimensionalidade for excessiva, o classificador pode perder 
capacidade de discriminação dos dados. Portanto é importante analisar a variação
do comportamento do classificador com o número de características, de forma que 
seja possível estimar a dimensionalidade ideal para determinado classificador e 
conjunto de dados.