Os cenários de redes bayesianas focaram na execução de validação cruzada \textit{10-fold}. Cada experimento foi executado 10 vezes para obter um intervalo de confiança de 95\%. Foram consideradas as seguintes variações dos parâmetros (Kernel Estimator, Supervised Discretization): (F, F), (F, V) e (V, F). Não é possível executar os dois parâmetros ao mesmo tempo: a discretização impede a contagem dos valores. Esta informação é necessária para o Kernel Estimator.

O número de acertos está indicado na Tabela~\ref{tab:nb}. Ao não utilizar uma estratégia que, de certa forma, leve em consideração o número de ocorrências o resultado da rede bayesiana foi pior do que ao utilizar uma estratégia. Ainda, o uso do Kernel Estimator é significativamente estatisticamente melhor do que usar discretização. Uma justificativa seria a de que a discretização pode inserir pequenos erros ao generalizar demais valores próximos (colocando-os no mesmo intervalo), enquanto o kernel estimator suaviza a curva de densidade de forma significativa para valores repetidos. Kohavi~\cite{Kohavi1995} discute estas diferenças e chega a conclusões semelhantes.

\begin{table}[h!]
\caption{Número de acertos com diferentes parâmetros das redes bayesianas}
\begin{center}
\begin{tabular}{c|c|c|c}
\multicolumn{2}{c|}{\textbf{Parâmetros}} & {\multirow{2}{*}{\textbf{Acertos}}} & {\multirow{2}{*}{\textbf{IC}}} \\ \cline{1-2}
\textbf{Kernel Estimator} & \textbf{Supervised Discretization} & &  \\ \hline
Falso & Falso & 12813.5 & (12806,38, 12820,62) \\ \hline
Falso & Verdadeiro & 14824,4 & (14815,1, 14833,7) \\ \hline
Verdadeiro & Falso & 14857,6 & (14847,84, 14867,36) \\
\end{tabular}
\end{center}
\label{tab:nb}
\end{table}