\section{Évaluation des résultats}
\noindent Nous avons pu voir qu'appliquer \texttt{ACP} sur nos échantillons ne nous donne pas de résultats satisfaisants lorsque l'on applique un classifieur \texttt{Bayesien} par la suite (cf. figure \ref{tab_1v2_pca_2} et \ref{tab_1v2_pca_3}). En analysant le graphique (cf figure \ref{pca_2D_3D}), on s'aperçoit qu'appliquer \texttt{ACP} sur les quatre classes en même temps ne permet pas de mieux séparer les classes. On peux donc en conclure que \texttt{ACP} ne permet pas d'avoir des résultats significativement meilleures.\\

\noindent Pour ce qui est de \texttt{Fisher}, les résultat avec un classifieur Bayesien sont meilleurs que lorsqu'on utilise ce même classifieur, mais sans utiliser \texttt{Fisher} au préalable (cf. figure \ref{tab_1v2} et \ref{tab_1v2_fisher_bayse_2}).\\
\noindent Par exemple, on peux expliquer ces meilleurs résultats pour l'échantillons \texttt{test} avec un classifieur \texttt{Bayesien} entrainé sur \texttt{RGB1} et \texttt{RGB3} grâce à la figure \ref{droite_fisher} gauche. En effet, on s'aperçoit que lorsque l'on projet les échantillons sur la droite orthogonale à \emph{ortho fisher}, les échantillons de classes différentes seront bien séparés. Cependant, si les classes d'apprentissage sont très confondus, \texttt{Fisher} ne pourra pas donner de bon résultats (cf \ref{droite_fisher} à droite).\\

\noindent Perceptron et la méthode des moindre donnent des résultats très intéressant lorsque les classes sont linéairement séparable. Cependant, dès lors que les classes sont mélangé, il n'y a aucune certitude sur les résultats de classification.\\

\noindent La méthode de Knn permet de classifier une classe même lorsque les classes d'apprentissage ne sont pas linéairement séparable. Cependant, la densité du voisinage choisi est très importante.\\

\noindent En utilisant SVM, il est possible de classifier n'importe quelle classe test avec n'importe quelle classe d'apprentissage grâce à la montée en dimension. Ainsi, quelle que soit la complexité des échantillons, il sera toujours possible de séparer linéairement dans une dimension supérieur.\\

\noindent Nous pouvons calculer le rappel et la précision pour la classification Bayesienne pour la stratégie \emph{Un contre Tous} (on confronte un échantillon \texttt{test} à toutes les classes).

\subsection{Rappel}

Le \emph{rappel}\footnote{\label{wiki}\url{http://fr.wikipedia.org/wiki/Pr\%C3\%A9cision_et_rappel}} permet de connaitre le nombre d'échantillons bien classifiés que l'on a obtenu par rapport au nombre d'échantillons que l'on aurait du obtenir. Ainsi, plus le résultat est élevé, et mieux nos échantillons sont classés.\\

$$ Rappel_{i} = \frac{échantillons\ correctement\ attribués\ à\ RGB_{i}}{nombre\ d'échantillons\ appartenant\ à\ RGB_{i}} $$


$$ Rappel_{1} = \frac{0.5001*11094}{11094} = 0.5001 $$
Le calcul se fait de manière analogue pour les autres échantillons.

\subsection{Précision}

La \emph{précision}\up{\ref{wiki}} permet de connaitre le nombre d'échantillons bien classifiés d'une classe donnée que l'on a obtenu par rapport au nombre globale d'échantillons que que l'on a attribué à cette même classe. Ainsi, plus le résultat est élevé, et moins il y a de mauvaise attributions sur la classe, donc la classe est bien isolée.\\


$$ Précision_{i} = \frac{échantillons\ correctement\ attribués\ à\ RGB_{i}}{nombre\ d'échantillons\ attribués\ à\ RGB_{i}} $$

$$ Précision_{1} = \frac{0.5001*11094}{(0.5001+0.0019+0.0633+0.0017)*11094} = 0.8820 $$
Le calcul se fait de manière analogue pour les autres échantillons.

\subsection*{F-Score}

\noindent Nous pouvons calculer la pondération au rang 1 de la précision et du rappel par la formule suivante\up{\ref{wiki}} :

$$  F = \frac{2 * (precision * rappel)}{précision + rappel}  $$
$$  F = \frac{2 * (0.8820 * 0.5001)}{0.8820+ 0.5001} =  0.6383   $$

\noindent Plus le \emph{F-Score} est élévé et meilleur est le classifieur car un bon classifieur a son rappel et sa précision qui tend vers 1.


