\chapter{Fundamentos te\'oricos}
\label{chapter:teomanual}

\section{Matriz de confusi\'on}
La matriz de confusi\'on se define como una matriz de dimensiones $L \times L$ que muestra la relaci\'on entre la predicci\'on  y la clasificaci\'on actual de un conjunto de muestras donde $L$ corresponde con el n\'umero de clases~\cite{kohaviprovost98}. Si la clasificaci\'on actual coincide con la clase predicha entonces decimos hay acuerdo mientras que si no coinciden hablamos de desacuerdo.

No obstante, la matriz de confusi\'on puede ser utilizada como herramienta de medida de la concordancia entre dos clasificaciones. De esta manera cuando hallamos la matriz de confusi\'on entre las clasificaciones de dos radi\'ologos $R_a$ y $R_b$, los elementos de la matriz $x_{ij}$ representan el n\'umero de mamograf\'ias clasificadas en la clase $i$ por el radi\'ologo $a$ y a su vez en la clase $j$ por el radi\'ologo $b$. La diagonal principal $x_{ii}$ representa los casos en los que se ha producido consenso. En la tabla \ref{tab:example_confusion_matrix} se muestra un ejemplo de matriz de confusi\'on para $L=4$.

\begin{table}[!h]
\[ \left[ \begin{array}{cccc}
x_{11} & x_{12} & x_{13} & x_{14} \\
x_{21} & x_{22} & x_{23} & x_{24} \\
x_{31} & x_{32} & x_{33} & x_{34} \\
x_{41} & x_{42} & x_{43} & x_{44} \end{array}
\right] \]
\caption{Ejemplo de matriz de confusi\'on}
\label{tab:example_confusion_matrix}
\end{table}

A su vez definimos el consenso o tasa de acuerdo como el porcentaje de casos en los que se ha producido acuerdo entre ambas clasificaciones con respecto al total de casos.


\section{\'Indice kappa}

El consenso o tasa de acuerdo como medida de la concordancia entre medidas presenta una serie de problemas:

\begin{itemize}
\item No tiene en cuenta las probabilidades a priori de las clases o las probabilidades de acierto por azar. 
A\'un en el caso de que ambas clasificaciones se hagan bajo criterios independientes, se producir\'ia un cierto acuerdo por azar.
Por tanto en el caso de utilizar un sistema de clases con probabilidades a priori diferentes tal y como es el caso que nos ocupa, una clasificaci\'on basada en usar la etiqueta de la clase m\'as probable dar\'ia como resultado una tasa de acierto alta a pesar de no estar acertando ninguna vez en el resto de clases.

\item No penaliza errores de m\'as de una clase de diferencia. En una escala cuantitativa de clases, un error de m\'as de una clase de diferencia entre las distintas medidas es m\'as grave que un error de una clase y por tanto debe tener m\'as peso en el c\'alculo del acuerdo entre medidas.
\end{itemize}

Para solventar los dos incovenientes que presenta la tasa de acuerdo utilizamos el \'indice kappa como medida estad\'istica de la concordancia.

El indice kappa de Cohen~\cite{cohen60} es una medida del acuerdo entre clasificaciones en escala cualitativa e indica el grado de acuerdo existente por encima del acuerdo esperado por azar. 

\begin{equation}
\kappa = \frac{Pr(a)-Pr(e)}{1-Pr(e)}
\label{eq:kappa_nopesos}
\end{equation}

donde $Pr(a)$ es la proporci\'on de acuerdos observados y $Pr(e)$ es la proporci\'on de acuerdos esperados en la hip\'otesis de la independencia entre medidas (acuerdos por azar). A su vez $Pr(a)$ y $Pr(e)$ se calculan como


\begin{equation}
Pr(a) = \frac{\sum_{i=1}^{K}x_{ii}}{N}
\end{equation}

\begin{equation}
Pr(e) = \frac{\sum_{i=1}^{K}X_{i}Y_{i}}{N^2}
\end{equation}

donde $x_{ii}$ representa los elementos de la diagonal principal, y $X_i$, $Y_i$ son los totales marginales de manera que $X_i$ es la suma de la fila $i$ (ver ecuaci\'on \ref{eq:marginal_fila}) y $Y_i$ es la suma de la columna $i$ (ecuaci\'on \ref{eq:marginal_columna}). $N$ representa el total de elementos de la matriz.

\begin{equation}
X_i = \sum_{j=1}^K x_{ij}
\label{eq:marginal_fila}
\end{equation}

\begin{equation}
Y_i = \sum_{j=1}^K x_{ji}
\label{eq:marginal_columna}
\end{equation}


Landis y Koch ~\cite{landiskoch77} propusieron en el 1977 una escala de interpretaci\'on del \'indice $\kappa$ la cu\'al ha sido ampliamente utilizada posteriormente.


\begin{table}[!h]
\begin{center}
\begin{tabular}{cc}
$kappa$ & interpretacion (acuerdo) \\
\hline
$< 0,00$ & sin acuerdo \\
$0,00 - 0,20$ & insignificante \\
$0,21 - 0,40$ & discreto\\
$0,41 - 0,60$ & moderado\\
$0,61 - 0,80$ & sustancial\\
$0,81 - 1,00$ & casi perfecto
\end{tabular}
\caption{Interpretaci\'on del \'indice kappa}
\label{tab:interpretacion_kappa}
\end{center}
\end{table}


Adem\'as el \'indice $kappa$ con pesos~\cite{cohen68} permite contar de manera distinta los desacuerdos y es especialmente \'util en los casos en los que las clases est\'an ordenadas. La ecuaci\'on para el \'indice kappa con pesos es la siguiente:

Para el c\'alculo del \'indice $\kappa$ con pesos se utiliza la misma ecuaci\'on (\ref{eq:kappa_nopesos}) que en el caso de no utilizar pesos, residiendo el cambio en el c\'alculo de $Pr(a)$ y $Pr(e)$:

\begin{equation}
Pr(a) = \frac{\sum_{i=1}^K \sum_{j=1}^K w_{ij}X_{ij}}{N}
\end{equation}

\begin{equation}
Pr(e) = \frac{\sum_{i=1}^K \sum_{j=1}^K w_{ij}X_{i}Y_{j}}{N^2}
\end{equation}


donde $w_{ij}$ representa los elementos de la matriz de pesos y el resto de elementos ya han sido definidos antes. Los valores de los pesos $w_{ij}$ fuera de la diagonal principal est\'an comprendidos entre 0 y 1 mientras que los pesos en la diagonal $w_{ii}$ tienen valor 1. En el caso extremo si definimos $w_{ij}=1$ para los elementos de la diagonal principal y $w_{ij}=0$ para los elementos fuera de la diagonal el $kappa$ obtenido coincide con el $kappa$ sin pesos.

Los pesos m\'as usados en el c\'alculo del \'indice $kappa$ son los pesos lineales propuestos por Cohen

\begin{equation}
w_{ij} = 1 - \frac{\lvert i-j \rvert}{k-1}
\end{equation}

y los pesos bicuadr\'ados propuestos por Fleiss y Cohen~\cite{fleisscohen73}

\begin{equation}
w_{ij} = 1 - \frac{(i-j)^2}{(k-1)^2}
\end{equation}

En las tablas \ref{tab:matriz_pesos_nopesos}, \ref{tab:matriz_pesos_lineales} y \ref{tab:matriz_pesos_bicuadrados} se pueden ver ejemplos de matrices de pesos para el caso de no utilizar pesos, utilizar pesos lineales y utilizar pesos bicuadrados respectivamente.

A partir de ahora cuando hablemos de el \'indice $\kappa$ sin pesos hablaremos de $kappa0$, diremos $kappa1$ para el caso de uso de pesos lineales y $kappa2$ para referirnos al uso de pesos bicuadr\'ados. 



\begin{table}[!h]
\[ \left[ \begin{array}{cccc}
1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 0 \\
0 & 0 & 0 & 1 \end{array}
\right] \]
\caption{Ejemplo de matriz W de $4 \times 4$ sin pesos}
\label{tab:matriz_pesos_nopesos}
\end{table}

\begin{table}[!h]
\[ \left[ \begin{array}{cccc}
1 & 0.67 & 0.33 & 0     \\
0.67 & 1 & 0.67 & 0.33  \\
0.33 & 0.67 & 1 & 0.67  \\
0 & 0.33 & 0.67 & 1 \end{array}
\right] \]
\caption{Ejemplo de matriz W de $4 \times 4$ con pesos lineales}
\label{tab:matriz_pesos_lineales}
\end{table}

\begin{table}[!h]
\[ \left[ \begin{array}{cccc}
1 & 0.89 & 0.56 & 0 \\
0.89 & 1 & 0.89 & 0.56 \\
0.56 & 0.89 & 1 & 0.89 \\
0 & 0.56 & 0.89 & 1 \end{array}
\right] \]
\caption{Ejemplo de matriz W de $4 \times 4$ con pesos cuadr\'aticos}
\label{tab:matriz_pesos_bicuadrados}
\end{table}


%fichero de matrices de concordancia
