\graphicspath{{./figures/ranking_methods/}}


\chapter{Métodos de asignación de aptitud para optimización multiobjetivo}
\label{chap:fitnessmethods}

\section{Introducción}
\label{sec:introfitnessmethods}

Para emular el proceso de la selección natural, los algoritmos evolutivos (AEs) requieren implementar una forma para expresar la calidad de las soluciones, v.g., una función de aptitud, de tal modo que se favorezca a aquellos individuos que compiten más eficientemente por recursos. En otras palabras, la aptitud permitirá identificar los mejores individuos para otorgarles mayor oportunidad de reproducirse y generar nuevos individuos. Del mismo modo, la aptitud guiará la selección de aquellos individuos mejor adaptados para sobrevivir de una generación a otra. La asignación de aptitud es de gran importancia; a través de una correcta discriminación entre soluciones será posible que un AE guíe el proceso de búsqueda hacia el óptimo. 

En el caso de problemas mono-objetivo, usualmente dicha función de aptitud está directamente relacionada con la función objetivo que será optimizada. Sin embargo, cuando se optimizan múltiples objetivos la discriminación entre soluciones no es tan trivial; se requiere de un mecanismo adicional para mapear el espacio multidimensional de las funciones objetivo a una sola dimensión, de modo que las soluciones puedan ser comparadas directamente y jerarquizadas; este mecanismo se conoce como \textit{método de asignación de aptitud}\footnote{En esta tesis se utilizarán indistintamente los términos aptitud y jerarquía para hacer referencia al valor que expresa la calidad de las soluciones y que permite la discriminación entre ellas.} \cite{Hughes08}.

La dominancia de Pareto (PD) es la relación más comúnmente adoptada para comparar soluciones en el contexto multiobjetivo. No obstante, PD pierde su potencial de discriminación cuando se incrementa la cantidad de objetivos (ver Sección \ref{sec:paretodrawbacks}). Este comportamiento hace notoria la necesidad de identificar métodos alternativos que trabajen más adecuadamente ante alta dimensionalidad en el espacio de las funciones objetivo.

En este capítulo se describen 22 métodos de asignación de aptitud para optimización multiobjetivo que han sido reportados en la literatura especializada y 13 nuevas propuestas de esta índole resultantes de esta tesis. Los diferentes métodos estudiados se han agrupado en 3 categorías diferentes:

\begin{enumerate}
 \item \textbf{Métodos basados en la dominancia de Pareto.} Aún cuando se ha demostrado que PD pierde efectividad al incrementarse la cantidad de objetivos, es preciso incluir métodos de jerarquización basados en este concepto como punto de referencia.

\item \textbf{Composiciones jerárquicas.} Las composiciones jerárquicas (CJ) son  métodos que jerarquizan una población considerando un objetivo a la vez, de manera que cada individuo tendrá tantas jerarquías como objetivos tenga el problema. Las posiciones jerárquicas de un individuo $\mathbf{X}_{i}$ están dadas por el vector $\mathbf{R}(\mathbf{X}_{i})=(r_{1}(\mathbf{X}_{i}), r_{2}(\mathbf{X}_{i}), \dots, r_{M}(\mathbf{X}_{i}))^{T}$, donde $r_{m}(\mathbf{X}_{i})$ es la jerarquía de $\mathbf{X}_{i}$ con respecto al $m$-ésimo objetivo. Una vez calculado el vector $\mathbf{R}(\mathbf{X}_{i})$ para cada $\mathbf{X}_{i} \in P$, las diferentes jerarquías de $\mathbf{X}_{i}$ son procesadas de alguna forma para obtener una clasificación global. Giusti \textit{\textit{et al.}} \cite{Giusti08} hacen referencia a estas dos etapas como los pasos de jerarquización y de composición, respectivamente. Para la descripción de las diferentes CJs estudiadas se asume una previa obtención del vector $\mathbf{R}(\mathbf{X}_{i})$ para cada $\mathbf{X}_{i} \in P$.

Estos métodos tienen como ventaja su eficiencia computacional, sencillez de implementación, e independencia del rango en que se encuentran los distintos objetivos del problema. Sin embargo, estos enfoques no toman en cuenta la magnitud de significancia entre soluciones.

\item \textbf{Formas relajadas de dominancia}. Las formas relajadas de dominancia (FRD) son alternativas que consideran de alguna forma el grado de dominancia entre soluciones, el cual puede relacionarse con el número de objetivos en los que una solución es mejor que otra y/o con la magnitud de estas mejoras \cite{Farina04, Koppen07}. La idea es lograr una discriminación de grano más fino entre soluciones.  Las FRDs pueden permitir que un individuo $\mathbf{X}_{i}$ sea considerado mejor que otro individuo $\mathbf{X}_{j}$ aún cuando originalmente estos individuos sean no dominados entre sí, o incluso en el caso de que $\mathbf{X}_{j}$ domina a $\mathbf{X}_{i}$ \cite{Le07}. Generalmente en este tipo de métodos existe cierta tolerancia para aceptar deterioro en algunos objetivos cuando esto implica una mejora significativa en otros criterios.

% Al utilizar formas relajadas de dominancia es posible ejercer una mayor presión en el proceso de selección, ésto debido a la reducción en el número de soluciones no dominadas en una población (lo que elimina la principal problemática de utilizar la dominancia de Pareto).

% , es decir, no se considera el grado o nivel de dominancia entre soluciones; aún cuando dos soluciones son no dominadas, éstas pueden estar cerca de la situación en la que una domine a la otra . Supongamos, por ejemplo, que para un problema de optimización con 50 objetivos, una solución $\mathbf{X}_{i}$ es mejor que otra solución $\mathbf{X}_{j}$ en 49 objetivos, mientras que $\mathbf{X}_{j}$ supera a $\mathbf{X}_{i}$ en el objetivo restante. Utilizando dominancia de Pareto las soluciones del escenario anterior son indistinguibles, sin embargo, asumiendo que todos los objetivos son igual de importantes, podría decirse que $\mathbf{X}_{i}$ presenta un mejor desempeño global que $\mathbf{X}_{j}$.
\end{enumerate}

\section{Enfoques tomados de la literatura}

\subsection{Métodos basados en la dominancia de Pareto}
\label{sec:paretobased}

% Los dos esquemas de jerarquización más populares basados en PD se describen a continuación.

\textbf{Jerarquización de Pareto (\textit{Pareto ranking}, $\mathbf{PRNK}$):} $\mathbf{PRNK}$ es un método de jerarquización propuesto por Fonseca y Fleming \cite{Fonseca93} en 1993. De acuerdo con $\mathbf{PRNK}$, los individuos no dominados tendrán jerarquía 1, mientras que el resto serán penalizados por cada individuo de la población que los domina (con respecto a la dominancia de Pareto). Formalmente, la jerarquía de un individuo $\mathbf{X}_{i} \in P$ está dada por:
\begin{eqnarray}
\mathbf{PRNK}(\mathbf{X}_{i}) & = & 1 + |\{ \mathbf{X}_{j} \in P: \mathbf{X}_{j} \prec \mathbf{X}_{i}\}|
\end{eqnarray}

\textbf{Ordenamiento por no dominancia (\textit{nondominated sorting},  $\mathbf{PSRT}$): } Este método fue originalmente propuesto por Goldberg \cite{Goldberg89} y posteriormente implementado por Srinivas y Deb como parte de su algoritmo NSGA (Nondominated Sorting Genetic Algorithm) \cite{Srinivas93}.  La clasificación de los individuos se realiza mediante un proceso iterativo. Inicialmente, los individuos no dominados son identificados y clasificados con la jerarquía más alta. Después, los individuos ya jerarquizados son omitidos y las nuevas soluciones no dominadas son identificadas y clasificadas con la siguiente jerarquía. Este proceso se repite hasta que cada individuo en la población tenga una jerarquía, de manera que al final se obtiene una población organizada en frentes o niveles de dominancia (ver figura \ref{fig:nds}).

\begin{figure}[htp]
\centering
\shadowbox{
\includegraphics[scale=1]{nds}
}
\caption{Ordenamiento por no dominancia (\textit{Nondominated Sorting}).} \label{fig:nds}
\end{figure}

\subsection{Composiciones jerárquicas}
\label{sec:composiciones}

En esta sección se describen diferentes composiciones jerárquicas (CJs) que han sido reportadas en la literatura especializada. Se asume la obtención previa del vector $\mathbf{R}(\mathbf{X}_{i})$ para cada $\mathbf{X}_{i} \in P$ (ver Sección \ref{sec:introfitnessmethods}).\\

\textbf{Jerarquía promedio (\textit{average ranking}, $\mathbf{AVER}$)}: Esta técnica fue propuesta por Bentley y Wakefield \cite{Bentley97}.  $\mathbf{AVER}$ expresa la calidad de un individuo como la sumatoria de sus diferentes posiciones jerárquicas. Formalmente, la calidad de una solución $\mathbf{X}_{i}$ está dada por:
\begin{eqnarray}
\mathbf{AVER}(\mathbf{X}_{i}) & = & \sum_{m=1}^{M}r_{m}(\mathbf{X}_{i})
\end{eqnarray}
$\mathbf{AVER}$ es un criterio de minimización, de modo que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$, con respecto a la relación $\mathbf{AVER}$ ($\mathbf{X}_{i} \prec_{\mathbf{AVER}} $ $\mathbf{X}_{j}$), si y sólo si:
\begin{eqnarray}
\mathbf{AVER}(\mathbf{X}_{i}) & < & \mathbf{AVER}(\mathbf{X}_{j})
\end{eqnarray}

\textbf{Máxima jerarquía (\textit{maximum ranking}, $\mathbf{MAXR}$)}: Bentley y Wakefield \cite{Bentley97} propusieron esta técnica basándose en el algoritmo VEGA \cite{Schaffer84, Schaffer85}. Con $\mathbf{MAXR}$, la clasificación para un individuo $\mathbf{X}_{i}$ será la mejor jerarquía obtenida al considerar cada objetivo por separado, es decir:
\begin{eqnarray}
\mathbf{MAXR}(\mathbf{X}_{i}) & = & \displaystyle \min_{m=1}^{M} r_{m}(\mathbf{X}_{i})
\end{eqnarray}
Dadas dos soluciones $\mathbf{X}_{i}$, $\mathbf{X}_{j} \in P$, de acuerdo con $\mathbf{MAXR}$ se dice que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$, denotado por $\mathbf{X}_{i} \prec_{\mathbf{MAXR}} $ $\mathbf{X}_{j}$, si se cumple que:
\begin{eqnarray}
\mathbf{MAXR}(\mathbf{X}_{i}) & < & \mathbf{MAXR}(\mathbf{X}_{j})
\end{eqnarray}

Una notoria desventaja de $\mathbf{MAXR}$ es que tiende a favorecer extremos, es decir, asigna la mejor jerarquía a soluciones con el mejor valor para algún objetivo sin tomar en cuenta su desempeño para el resto de los criterios. Con la finalidad de aclarar este punto, consideremos el siguiente ejemplo: si para un problema con 20 objetivos, $\mathbf{X}_{i}$ es la solución con el mejor desempeño en el primer objetivo, pero es la peor en los 19 restantes, $\mathbf{X}_{i}$ será aún clasificada con la mejor jerarquía por $\mathbf{MAXR}$. Al dar preferencia a este tipo de soluciones, $\mathbf{MAXR}$ puede rechazar aquellas con un mejor compromiso, las cuales, en la ausencia de preferencias, podría asumirse que son de mayor interés para el tomador de decisiones.\\


\textbf{Composición recíproca (\textit{reciprocal composition}, $\mathbf{RECC}$)}: Esta técnica fue propuesta por Giusti \textit{\textit{et al.}} \cite{Giusti08}. La aptitud de un individuo $\mathbf{X}_{i}$ se calcula sumando la inversa de cada una de sus posiciones jerárquicas:
\begin{eqnarray}
\mathbf{RECC}(\mathbf{X}_{i}) & = & \sum_{m=1}^{M}\frac{1}{r_{m}(\mathbf{X}_{i})}
\end{eqnarray}
A diferencia de las dos CJs descritas previamente, $\mathbf{RECC}$ es un criterio de maximización. Por lo tanto, se dice que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{\mathbf{RECC}} $ $\mathbf{X}_{j}$) si y sólo si:
\begin{eqnarray}
\mathbf{RECC}(\mathbf{X}_{i}) & > & \mathbf{RECC}(\mathbf{X}_{j})
\end{eqnarray}

\textbf{Composición mediana (\textit{median composition}, $\mathbf{MEDC}$)}: Giusti \textit{\textit{et al.}} \cite{Giusti08} también propusieron clasificar las soluciones de la siguiente manera:  ordenar el vector $\mathbf{R}(\mathbf{X}_{i})$ con las jerarquías que un determinado individuo $\mathbf{X}_{i}$ obtuvo para los diferentes objetivos. La aptitud de $\mathbf{X}_{i}$,  $\mathbf{MEDC}(\mathbf{X}_{i})$, será igual al valor central de esta lista ordenada si $M$ es impar o a la media de los dos valores centrales si $M$ es par (v.g., la mediana de sus posiciones jerárquicas). De acuerdo con esta relación, se considera que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ si y sólo si se cumple que:
\begin{eqnarray}
 \mathbf{MEDC}(\mathbf{X}_{i})  <  \mathbf{MEDC}(\mathbf{X}_{j})
\end{eqnarray}

\textbf{Composición condorcet (\textit{condorcet composition}, $\mathbf{CONC}$)}: Este método propuesto por Giusti \textit{\textit{et al.}} \cite{Giusti08} trabaja de la siguiente manera: inicialmente, cada pareja de individuos ($\mathbf{X}_{i}$, $\mathbf{X}_{j}$) se compara con respecto a sus diferentes posiciones jerárquicas. Si $\mathbf{X}_{i}$ tiene mejor jerarquía que $\mathbf{X}_{j}$ en una mayor cantidad de objetivos, entonces $\mathbf{X}_{i}$ es el ganador. Si cada individuo supera al otro en igual cantidad de jerarquías, o si sus vectores de jerarquías son idénticos ($\mathbf{R}(\mathbf{X}_{i})$ = $\mathbf{R}(\mathbf{X}_{j})$), el resultado es un empate. Durante este proceso se mantienen contadores para las victorias y derrotas que obtiene cada individuo. Finalmente, para establecer preferencias entre dos soluciones $\mathbf{X}_{i}$, $\mathbf{X}_{j} \in P$, se dice que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$ bajo la relación $\mathbf{CONC}$ ($\mathbf{X}_{i} \prec_{\mathbf{CONC}} $ $\mathbf{X}_{j}$) si $\mathbf{X}_{i}$ tiene un mayor número de victorias que $\mathbf{X}_{j}$. En caso de que $\mathbf{X}_{i}$ y $\mathbf{X}_{j}$ tengan igual número de victorias, se utilizará la cantidad de derrotas como criterio de desempate. 

% En caso de que $\mathbf{X}_{i}$ y $\mathbf{X}_{j}$ tengan igual número de victorias y derrotas, entonces ambas soluciones serán jerarquizadas por igual.


\subsection{Formas relajadas de dominancia}
\label{sec:relajadas} 

% En esta sección se describen algunos enfoques con estas características que han sido reportados en la literatura especializada.

\subsubsection{Métodos que requieren ajuste de parámetros}
\label{subsec:parametros}

La principal desventaja de los métodos que se incluyen en este apartado es que su funcionamiento depende de la correcta sintonización de algunos parámetros, lo que implica en algunos casos un conocimiento profundo del método y del problema.\\

\textbf{Dominancia $\alpha$ (\textit{$\alpha$-dominance}, $\mathbf{ADOM}$):} Esta técnica fue propuesta por Ikeda \textit{\textit{et al.}} \cite{Kokolo01} como una forma para lidiar con lo que nombraron \textit{dominance resistant solutions} (DRS), v.g., soluciones extremadamente inferiores pero difícilmente dominables. La idea es establecer cotas para la tasa de compromiso entre dos objetivos, de modo que $\mathbf{ADOM}$ permita que una solución $\mathbf{X}_{i}$ domine a otra solución $\mathbf{X}_{j}$ si $\mathbf{X}_{i}$ es ligeramente inferior que $\mathbf{X}_{j}$ en algún objetivo, pero significativamente superior en otro(s). 

Una solución $\mathbf{X}_{i}$ $\alpha$-domina a otra solución $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \displaystyle \prec_{\alpha} $ $\mathbf{X}_{j}$) si y sólo si:
\begin{eqnarray}
& & \forall{m \in \{1, 2, \dots, M\}} : g_{m}(\mathbf{X}_{i}, \mathbf{X}_{j}) \leq 0 \nonumber \\ 
& \wedge & \exists{m \in \{1, 2, \dots, M\}} : g_{m}(\mathbf{X}_{i}, \mathbf{X}_{j}) < 0 
\end{eqnarray}
donde $g_{m}(\mathbf{X}_{i}, \mathbf{X}_{j})$ es la aptitud relativa de $\mathbf{X}_{i}$ con respecto a $\mathbf{X}_{j}$ en el $m$-ésimo objetivo:
\begin{eqnarray}
g_{m}(\mathbf{X}_{i}, \mathbf{X}_{j}) & = & f_{m}(\mathbf{X}_{i}) - f_{m}(\mathbf{X}_{j}) + \sum_{n \neq m}\alpha_{mn}(f_{n}(\mathbf{X}_{i}) - f_{n}(\mathbf{X}_{j}))
\end{eqnarray}
$\alpha_{mn}$ es la tasa de compromiso entre los objetivos $m$ y $n$. El usuario debe especificar este valor para cada par de objetivos. En \cite{Kokolo01}, los autores usaron los valores $\frac{1}{3}$, $\frac{1}{9}$ y $\frac{1}{100}$ para todo $\alpha_{mn}$ tal que $m \neq n$. De acuerdo con sus resultados, $\frac{1}{3}$ fue el valor con que se observó una mejor convergencia, mismo valor que se utilizará en este trabajo. $\mathbf{ADOM}$ es dependiente del rango de los objetivos, de tal forma que deben estar normalizados antes de su aplicación.\\

\textbf{Dominancia $k$ (\textit{$k$-dominance}, $\mathbf{KDOM}$):} Farina y Amato \cite{Farina04} propusieron una relación de preferencia donde se considera la cantidad de objetivos en los que una solución $\mathbf{X}_{i}$ es mejor, igual y peor que otra solución $\mathbf{X}_{j}$. Para esto propusieron las siguientes funciones, respectivamente:
\begin{eqnarray} 
\label{eq:mejores}
n_{b}(\mathbf{X}_{i}, \mathbf{X}_{j}) & = & |\{ m : f_{m}(\mathbf{X}_{i}) < f_{m}(\mathbf{X}_{j}) \}| \;\;\; m=1,2,\dots,M \\
\label{eq:iguales}
n_{e}(\mathbf{X}_{i}, \mathbf{X}_{j}) & = & |\{ m : f_{m}(\mathbf{X}_{i}) = f_{m}(\mathbf{X}_{j}) \}| \;\;\; m=1,2,\dots,M\\
\label{eq:peores}
n_{w}(\mathbf{X}_{i}, \mathbf{X}_{j}) & = & |\{ m : f_{m}(\mathbf{X}_{i}) > f_{m}(\mathbf{X}_{j}) \}| \;\;\; m=1,2,\dots,M
\end{eqnarray}
Por simplicidad se hará referencia a las funciones mostradas en las ecuaciones (\ref{eq:mejores}), (\ref{eq:iguales}) y (\ref{eq:peores}) como $n_{b}$, $n_{e}$ y $n_{w}$, respectivamente. Dados dos individuos $\mathbf{X}_{i}$ y $\mathbf{X}_{j}$, se dice que $\mathbf{X}_{i}$ $k$-domina\footnote{En \cite{Farina04} se utiliza el término ($1-k$)-domina. En este trabajo utilizaremos $k$-domina por simplicidad.} a $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{k}  \mathbf{X}_{j}$) si y sólo si se cumple que:
\begin{eqnarray} 
\label{eq:kdom}
  n_{e} < M & \wedge  & n_{b} \geq  \frac{M-n_{e}}{k+1} 
\end{eqnarray}
donde $k$ puede tener cualquier valor en el rango [0, 1]. Si $k=0$, entonces esta relación corresponde a la dominancia de Pareto. Del valor de $k$ depende la presión que se ejerce al jerarquizar una población. En este trabajo utilizaremos $k=1$ para ejercer la mayor presión de selección y discriminación entre soluciones. $k=1$ significa que se dará preferencia a una solución $\mathbf{X}_{i}$ sobre otra solución $\mathbf{X}_{j}$, si $\mathbf{X}_{i}$ es mejor que $\mathbf{X}_{j}$ en al menos la mitad de los objetivos en los que estas soluciones son diferentes.\\


\textbf{Dominancia por volumen (\textit{volume dominance}, $\mathbf{VDOM}$):} En 2007, Le y Landa-Silva \cite{Le07} propusieron una forma relajada de dominancia que compara el volumen (del espacio de objetivos) dominado entre dos soluciones.

El volumen dominado por un individuo $\mathbf{X}_{i}$ se define como la región $R$ cuyas soluciones factibles son dominadas por $\mathbf{X}_{i}$. Un punto de referencia $r$ debe ser definido de tal modo que sea dominado por todas las soluciones en $R$. El volumen dominado por una solución $\mathbf{X}_{i}$, con respecto a un punto de referencia $r = (r_{1}, r_{2}, \dots, r_{M})$, está dado por
\begin{eqnarray} 
  V(\mathbf{X}_{i}, r) & = & \prod_{m=1}^{M}(r_{m} - f_{m}(\mathbf{X}_{i}))
\end{eqnarray}

Para establecer la relación de dominancia entre dos soluciones $\mathbf{X}_{i}$ y $\mathbf{X}_{j}$, es necesario calcular también el \textit{volumen dominado compartido} (\textit{shared dominated volume}, $SV$), v.g., el volumen dominado por ambas soluciones. El volumen dominado compartido por $\mathbf{X}_{i}$ y $\mathbf{X}_{j}$ con respecto a un punto de referencia $r = (r_{1}, r_{2}, \dots, r_{M})$, denotado por $SV(\mathbf{X}_{i}, \mathbf{X}_{j}, r)$, se define como sigue:
\begin{eqnarray} 
 SV(\mathbf{X}_{i}, \mathbf{X}_{j}, r) = \prod_{m=1}^{M}(r_{m} - max(f_{m}(\mathbf{X}_{i}), f_{m}(\mathbf{X}_{j})))  & & 
\end{eqnarray}

Dado lo anterior, se dice que un individuo $\mathbf{X}_{i}$ $V$-domina (volumen-domina) a otro individuo $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{V} $ $\mathbf{X}_{j}$) si alguna de las condiciones mostradas en las ecuaciones (\ref{eq:vdom1}) y (\ref{eq:vdom2}) se cumple.
\begin{eqnarray} 
\label{eq:vdom1}
 & &  V(\mathbf{X}_{j}, r) = SV(\mathbf{X}_{i}, \mathbf{X}_{j}, r) \; \wedge \; V(\mathbf{X}_{i}, r) > SV(\mathbf{X}_{i}, \mathbf{X}_{j}, r)\\
\label{eq:vdom2}
 & & V(\mathbf{X}_{i}, r) > V(\mathbf{X}_{j}, r) > SV(\mathbf{X}_{i}, \mathbf{X}_{j}, r) \; \wedge \; \frac{V(\mathbf{X}_{i}, r)-V(\mathbf{X}_{j}, r)}{SV(\mathbf{X}_{i}, \mathbf{X}_{j}, r)} > rSV
\end{eqnarray}

Un valor pequeño para $rSV$ indica que una pequeña diferencia entre el volumen dominado por dos soluciones es suficiente para establecer preferencias entre ellas. En \cite{Le07}, los autores sugieren que el valor $rSV$ esté en el rango [0.10, 0.20] para el problema de optimización sobre el cual se enfocaron en su estudio. Sin embargo, recomendaciones directas de los autores nos indican que en nuestro caso de estudio un valor en el rango [0.05, 0.15] sea razonable para $rSV$. Para este trabajo utilizaremos $rSV=0.10$. El punto de referencia $r$ debe ser también especificado por el usuario. Como será mencionado a detalle en el Capítulo \ref{cap:experimentos}, en este trabajo todos los métodos (incluyendo éste) se aplicarán sobre los objetivos normalizados al rango [0, 1], por lo que $r$ puede ser cualquier punto tal que  $r_{m} > 1$ para toda $m \in \{1,2,\dots, M\}$. En este trabajo utilizaremos $r=1.1^M$.\\


\textbf{Dominancia por contracción/expansión (\textit{contraction/expansion dominance}, $\mathbf{CEDM}$):} Sato \textit{\textit{et al.}} \cite{Sato07a} propusieron en 2007 un método para expandir/contraer el área de dominancia de las soluciones, lo que permite regular la presión en el proceso de selección. Antes de utilizar la relación de dominancia de Pareto, la aptitud que cada solución $\mathbf{X}_{i}$ tiene para los diferentes objetivos se modifica de la siguiente manera:
\begin{eqnarray} 
\label{eq:cedom}
  f_{m}'(\mathbf{X}_{i}) = \frac{r \cdot \sen(\omega_{m} + S_{m} \cdot \pi)}{\sen(S_{m} \cdot \pi)} \; \; \forall{m \in \{1, 2, \dots, M\}}& &
\end{eqnarray}
donde $r$ es la norma del vector $\mathbf{F(X}_{i})$ y  $\omega_{m}$ es el ángulo de declinación entre $\mathbf{F(X}_{i})$ y $f_{m}(\mathbf{X}_{i})$. $S_{m}$  es un parámetro definido por el usuario cuyo valor es el que permite la expansión/contracción del área de dominancia de $\mathbf{X}_{i}$ para la dimensión $m$. Los valores posibles para $S_{m}$ están en el rango [0.25, 0.75]. Cuando $S_{m}=0.5$, las aptitudes del individuo no son alteradas y $f_{m}'(\mathbf{X}_{i}) = f_{m}(\mathbf{X}_{i})$. Por otra parte, $S_{m} > 0.5$ provoca una contracción en el área de dominancia de las soluciones y una jerarquización de grano más grueso, lo que debilita el proceso de selección. De otro modo, cuando $S_{m}<0.5$ el área de dominancia se expande para lograr una jerarquización de grano más fino y una mayor presión en el proceso de selección, siendo esto de particular interés para lidiar con el incremento en la cantidad de objetivos. Para este trabajo de investigación utilizaremos $S_{m} = 0.25$ para toda $m \in \{1,2,\dots, M\}$, con la finalidad de lograr ejercer la máxima presión de selección y discriminación entre soluciones.\\


\subsubsection{Métodos que no requieren ajuste de parámetros}
\label{subsec:sinparametros}

A diferencia de los métodos descritos en la Sección \ref{subsec:parametros}, la ventaja principal de las FRDs que serán descritas en esta sección es que su funcionamiento no depende del ajuste de ningún parámetro, lo que amplía su rango de aplicación y su facilidad de comprensión e implementación.\\


\textbf{Suma ponderada (\textit{weighted sum}, $\mathbf{WSUM}$):} La forma más natural de asignar aptitud en el contexto multiobjetivo es combinar los valores de los diferentes objetivos utilizando cualquier operador aritmético (o una combinación de ellos). La más utilizada de tales técnicas es $\mathbf{WSUM}$, que consiste en sumar todas las funciones objetivo usando diferentes coeficientes (pesos) que denotan su importancia relativa. Formalmente, la aptitud de una solución $\mathbf{X}_{i}$ está dada por la siguiente ecuación:
\begin{eqnarray}
\label{eq:WSUM}
\mathbf{WSUM}(\mathbf{X}_{i}) & = & \sum_{m=1}^{M}w_{m}f_{m}(\mathbf{X}_{i})  
\end{eqnarray}
donde $w_{m}$ es el coeficiente (peso) para el $m$-ésimo objetivo\footnote{Dado que en este trabajo se asume que todos los objetivos tienen la misma importancia, los coeficientes de la ecuación (\ref{eq:WSUM}) son simplemente omitidos.}. $\mathbf{WSUM}$ es un criterio de minimización, por lo que se considera que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{\mathbf{WSUM}} $ $\mathbf{X}_{j}$) si se cumple que $\mathbf{WSUM}(\mathbf{X}_{i}) < \mathbf{WSUM}(\mathbf{X}_{j})$. Se requiere que los valores de las diferentes funciones objetivo sean normalizados al mismo rango antes de aplicar esta técnica. \\


\textbf{Dominancia $L$ (\textit{$L$-dominance}, $\mathbf{LDOM}$):} Esta nueva relación de dominancia fue propuesta en 2008 por Zou \textit{\textit{et al.}} \cite{Zou08}. $\mathbf{LDOM}$ utiliza las funciones $n_{b}$ (ecuación \ref{eq:mejores}), $n_{e}$ (ecuación \ref{eq:iguales}) y $n_{w}$ (ecuación \ref{eq:peores}), que calculan, respectivamente, el número de objetivos en que una solución $\mathbf{X}_{i}$ es mejor, igual y peor que otra solución $\mathbf{X}_{j}$.

Dadas dos soluciones $\mathbf{X}_{i}$ y $\mathbf{X}_{j}$, se dice que $\mathbf{X}_{i}$ L-domina a $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{L} $ $\mathbf{X}_{j}$) si y sólo si:
\begin{eqnarray} 
\label{eq:LDOM}
&& n_{b} - n_{w} = L > 0  \nonumber \\
& \wedge &  \| \mbox{F}(\mathbf{X}_{i}) \|_{p} < \| \mbox{F}(\mathbf{X}_{j}) \|_{p} \; (\mbox{para cierta}\ p)
\end{eqnarray}
donde $\| \mbox{F(x}_{i}) \|_{p}$ es la $p$-norma del vector de objetivos para una solución $\mathbf{X}_{i}$. Para este trabajo se utilizó $p=1$ (distancia de Manhattan). La segunda desigualdad en la ecuación (\ref{eq:LDOM}) requiere que los objetivos sean normalizados al mismo rango antes de aplicar esta técnica.\\

\textbf{Relación de preferencia (\textit{favour relation}, $\mathbf{FAVR}$):} Esta alternativa de comparación fue propuesta en 2001 por Drechsler \textit{\textit{et al.}} \cite{Drechsler01}. De acuerdo con la relación $\mathbf{FAVR}$, se dice que una solución $\mathbf{X}_{i}$ es superior a otra solución $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{\mathbf{FAVR}}$ $\mathbf{X}_{j}$) si y sólo si:
\begin{eqnarray} 
 &|\{ m : f_{m}(\mathbf{X}_{i}) < f_{m}(\mathbf{X}_{j})\}| > |\{ n: f_{n}(\mathbf{X}_{j}) < f_{n}(\mathbf{X}_{i})\}|  & \nonumber \\
& m,n = 1,2,\dots,M &
\end{eqnarray}
Esta relación no es transitiva, por ejemplo, consideremos las soluciones $\mathbf{X}_{i}$=(8,7,1), $\mathbf{X}_{j}$=(1,9,6) y $\mathbf{X}_{k}$=(7,0,9). Es notorio que $\mathbf{X}_{i} \prec_{F}  \mathbf{X}_{j} \prec_{F}  \mathbf{X}_{k} \prec_{F} \mathbf{X}_{i}$, v.g., en estas soluciones existe un ciclo de dominancia. Dada esta propiedad de la relación, los autores proponen jerarquizar una población de soluciones de la siguiente manera: utilizar una representación de grafos, donde los nodos son las soluciones y los arcos corresponden a las relaciones de preferencia entre ellas. A partir de este grafo identificar los \textit{componentes fuertemente conectados} (\textit{Strongly Connected Componets}, SCC). Un SCC está formado por aquellos elementos no comparables entre sí (como el ciclo del ejemplo anterior). Una vez identificados los SCCs, se construye un nuevo grafo libre de ciclos donde cada SCC será un nodo y los arcos estarán dados por las relaciones de preferencia existentes entre los elementos de cada par de SCCs. De esta manera, con este nuevo grafo ahora es posible establecer un ordenamiento al asignar la misma jerarquía a los individuos agrupados en un mismo SCC. 

Dada la no transitividad de la relación $\mathbf{FAVR}$, es común la situación en que la mayor parte de los individuos en una población sean parte del mismo ciclo y, por lo tanto, existiría una distribución escasa de jerarquías (lo que debilita el proceso de selección), siendo ésta la principal desventaja de la técnica. 

En este trabajo investigaremos también el uso de la relación $\mathbf{FAVR}$ sin considerar el procedimiento de jerarquización descrito previamente. En este caso, la calidad de una solución $\mathbf{X}_{i}$ estará dada por la cantidad de individuos que dominan a $\mathbf{X}_{i}$ (de acuerdo con la relación $\mathbf{FAVR}$). Se hará referencia al enfoque resultante con el término $\mathbf{FDOM}$.\\


\textbf{Jerarquización por orden de eficiencia (\textit{preference order ranking}, $\mathbf{PORD}$):} di Pierro \textit{\textit{et al.}} \cite{Pierro07} propusieron en 2007 una estrategia de jerarquización donde se considera el orden de eficiencia de las soluciones. Se dice que un individuo $\mathbf{X}_{i}$ es eficiente de orden $k$ si es no dominado (de acuerdo con la dominancia de Pareto) en los ${M \choose k}$ sub-espacios donde se consideran sólo $k$ objetivos a la vez. De acuerdo con esta definición, es claro que la eficiencia de orden $M$ para un problema con exactamente $M$ objetivos corresponde a la definición de optimalidad de Pareto.

Si $\mathbf{X}_{i}$ es eficiente de orden $k$, entonces también es eficiente de orden $k+1$ \cite{Das98}. Del mismo modo, si $\mathbf{X}_{i}$ no es eficiente de orden $k$, tampoco será eficiente de orden $k-1$ \cite{Pierro07}. Dadas estas propiedades, el orden de eficiencia de una solución $\mathbf{X}_{i}$ es el mínimo valor de $k$ para el que $\mathbf{X}_{i}$ es eficiente. Más formalmente:
\begin{eqnarray} 
 orden\_de\_eficiencia(\mathbf{X}_{i}) & = & \displaystyle \min_{k=1}^{M} (k : \mbox{isEfficient}(\mathbf{X}_{i}, k))
\end{eqnarray}
donde la función isEfficient($\mathbf{X}_{i}$, $k$) es verdadera si $\mathbf{X}_{i}$ es eficiente de orden $k$. El orden de eficiencia de cada solución puede ser utilizado directamente como jerarquía. Mientras más pequeño sea el orden de eficiencia, mejor será un individuo.

Los autores proponen usar esta estrategia en combinación con el ordenamiento por no dominancia ($\mathbf{PSRT}$) de Goldberg descrito en la Sección \ref{sec:paretobased}. El esquema de jerarquización resultante se describe a continuación: inicialmente se aplica $\mathbf{PSRT}$ sobre la población, lo que clasifica a los individuos en distintos frentes de dominancia. Después, las soluciones que forman cada uno de los frentes son jerarquizadas de acuerdo a su orden de eficiencia, de una forma tal que las soluciones del segundo frente sean penalizadas con la peor jerarquía obtenida en el primer frente. Del mismo modo, las soluciones del tercer frente de dominancia son penalizadas con la peor jerarquía obtenida en el segundo, y así sucesivamente.

La principal desventaja de este enfoque es que su costo computacional se incrementa notablemente con el número de objetivos, de manera que su aplicación está limitada a problemas con una cantidad relativamente baja de criterios de optimización.\\
 

\textbf{Factor de ganancia (\textit{gaining factor}, $\mathbf{GFAC}$):} En 2006, Burke y Landa-Silva \cite{Burke06} propusieron esta relación de comparación que considera la ganancia de un individuo con respecto a otro. Dado un problema con 2 objetivos, si un individuo $\mathbf{X}_{i}$ es mejor que otro individuo $\mathbf{X}_{j}$ en el primer objetivo ($f_{1}(\mathbf{X}_{i}) < f_{1}(\mathbf{X}_{j})$), entonces la ganancia obtenida se calcula como $g=(f_{1}(\mathbf{X}_{j}) - f_{1}(\mathbf{X}_{i}))/f_{1}(\mathbf{X}_{j})$. Se considera que $\mathbf{X}_{i}$ es mejor que $\mathbf{X}_{j}$ si en el segundo objetivo se cumple que $f_{2}(\mathbf{X}_{i}) < f_{2}(\mathbf{X}_{j}) \cdot (1 + g)$, lo que de acuerdo con los autores equivale a la siguiente relación:
\begin{eqnarray} 
 & & \frac{f_{1}(\mathbf{X}_{i})}{f_{1}(\mathbf{X}_{j})} + \frac{f_{2}(\mathbf{X}_{i})}{f_{2}(\mathbf{X}_{j})} < 2
\end{eqnarray}

Para un problema con $M$ objetivos, la relación $\mathbf{GFAC}$ indica que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{\mathbf{GFAC}} \mathbf{X}_{j}$) si y sólo si \cite{Le07}: 
\begin{eqnarray} 
\frac{f_{1}(\mathbf{X}_{i})}{f_{1}(\mathbf{X}_{j})} + \frac{f_{2}(\mathbf{X}_{i})}{f_{2}(\mathbf{X}_{j})} + \dots + \frac{f_{M}(\mathbf{X}_{i})}{f_{M}(\mathbf{X}_{j})} = \sum_{m=1}^{M} \frac{f_{m}(\mathbf{X}_{i})}{f_{m}(\mathbf{X}_{j})} & < &M
\end{eqnarray}

Los valores de los objetivos deben ser normalizados al mismo rango antes de que esta técnica sea aplicada.\\


\textbf{Dominancia sub-vector (\textit{subvector dominance}, $\mathbf{SVEC}$):} K\"{o}ppen y Yoshida \cite{Koppen07} propusieron expresar la calidad de un individuo en términos del máximo número de objetivos en los que es superado por algún otro individuo de la población. Formalmente: 
\begin{eqnarray} 
 \mathbf{SVEC}(\mathbf{X}_{i}) & = & \displaystyle \max_{\mathbf{X}_{j} \neq \mathbf{X}_{i}}  |\{ m:f_{m}(\mathbf{X}_{j}) < f_{m}(\mathbf{X}_{i})\}| \;\;\; m=1,2,\dots, M
\end{eqnarray}

Se dará preferencia a aquellas soluciones que minimicen su valor para $\mathbf{SVEC}$. Por lo tanto, se dice que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ con respecto a la relación $\mathbf{SVEC}$, denotado por $\mathbf{X}_{i} \prec_{\mathbf{SVEC}} \mathbf{X}_{j}$, si se cumple la siguiente condición:
\begin{eqnarray}
\mathbf{SVEC}(\mathbf{X}_{i}) & < & \mathbf{SVEC}(\mathbf{X}_{j})
\end{eqnarray}


\textbf{Dominancia del $\epsilon$ mínimo (\textit{minimum $\epsilon$ dominance}, $\mathbf{MEPS}$):} K\"{o}ppen y Yoshida \cite{Koppen07} propusieron también un método de jerarquización que corresponde a la forma aditiva de \textit{$\epsilon$-dominance} \cite{Laumanns02b}. De acuerdo con este enfoque, la aptitud de una solución $\mathbf{X}_{i}$ está dada  por el mínimo valor $\epsilon$ ($\mathbf{MEPS}$) tal que, al ser añadido a cada uno de sus objetivos, $\mathbf{X}_{i}$ sea dominada por algún otro individuo de la población. El valor $\mathbf{MEPS}$ para un individuo $\mathbf{X}_{i}$ puede calcularse de la siguiente manera:
\begin{eqnarray} 
 \mathbf{MEPS}(\mathbf{X}_{i}) & = & \displaystyle \min_{ \mathbf{X}_{j} \neq \mathbf{X}_{i}} 
\left( \max_{m=1}^{M} (f_{m}(\mathbf{X}_{j}) - f_{m}(\mathbf{X}_{i}), 0)  \right)
\end{eqnarray}

Dadas dos soluciones candidatas $\mathbf{X}_{i}$, $\mathbf{X}_{j}\in P$, se puede decir que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$ de acuerdo con este método ($\mathbf{X}_{i} \prec_{\mathbf{MEPS}} \mathbf{X}_{j}$) si se cumple que:
\begin{eqnarray}
\mathbf{MEPS}(\mathbf{X}_{i}) & > & \mathbf{MEPS}(\mathbf{X}_{j})
\end{eqnarray}

Este método requiere la normalización de los objetivos al mismo rango antes de aplicarse.\\

\textbf{Dominancia difusa (\textit{fuzzy pareto dominance}, $\mathbf{FPDM}$):}  K\"{o}ppen y Yoshida \cite{Koppen07} propusieron un método que admite cierta incertidumbre en la magnitud de la diferencia que existe entre dos individuos en cada objetivo, de modo que evita basar la comparación de soluciones con respecto a un solo objetivo. La calidad de un individuo $\mathbf{X}_{i}$ es entonces expresada en términos de la máxima \textit{diferencia difusa} cuando se compara contra el resto de la población. Formalmente:
\begin{eqnarray} 
 \mathbf{FPDM}(\mathbf{X}_{i}) & = & \displaystyle \max_{ \mathbf{X}_{j} \neq \mathbf{X}_{i}} 
\prod_{m=1}^{M} {\left[ \frac{f_{m}(\mathbf{X}_{i})}{f_{m}(\mathbf{X}_{j})}\right]}  \\
\mbox{donde } & & \left[ \frac{a}{b} \right]  =  \left\{
\begin{array}{ll}
a/b & a < b \\
1 & \mbox{de otro modo}
\end{array}
\right. \nonumber
\end{eqnarray}

Las mejores soluciones serán aquellas con el valor más pequeño para la función $\mathbf{FPDM}$. De modo que se considera que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ si y sólo si:
\begin{eqnarray}
\mathbf{FPDM}(\mathbf{X}_{i}) & < & \mathbf{FPDM}(\mathbf{X}_{j})
\end{eqnarray}

Se requiere que los valores de los diferentes objetivos sean normalizados al mismo rango antes de la aplicación de esta técnica.\\

\textbf{Combinación de $\mathbf{SVEC}$ y $\mathbf{MEPS}$ (\textit{sub-objective dominance count}, $\mathbf{SODC}$):} K\"{o}ppen y Yoshida \cite{Koppen07} propusieron un método que considera tanto la cantidad de objetivos en los que una solución es mejor que otra, como la magnitud de dichas mejoras. $\mathbf{SODC}$ combina los métodos $\mathbf{SVEC}$ y $\mathbf{MEPS}$ previamente descritos, de modo que se consideren simultáneamente múltiples criterios de jerarquización. El enfoque resultante se describe mediante el Algoritmo \ref{alg:SODC}. 

\begin{algorithm}[htbp]
\begin{algorithmic}[1]
	\REQUIRE subobjective\_dominance\_count()
	

	\FORALL{$\mathbf{X}_{i} \in P$} 
	 	\STATE $S_{\mathbf{X}_{i}} \leftarrow \{ (M - \mbox{svec}(\mathbf{X}_{i}, \mathbf{X}_{j}) , \mbox{meps}(\mathbf{X}_{i}, \mathbf{X}_{j})) : \mathbf{X}_{j} \neq \mathbf{X}_{i}\}$ 
		\STATE $POS_{\mathbf{X}_{i}} \leftarrow  pareto\_set(S_{\mathbf{X}_{i}})$
	\ENDFOR

	\FORALL{$\mathbf{X}_{i} \in P$}
		\STATE $\mbox{$\mathbf{SODC}$}(\mathbf{X}_{i}) = |\{POS_{\mathbf{X}_{j}} : \mathbf{X}_{i} \in POS_{\mathbf{X}_{j}} \wedge \mathbf{X}_{j} \neq \mathbf{X}_{i}\}|$ 
	\ENDFOR
	\ENSURE
\end{algorithmic}
\caption{Método $\mathbf{SODC}$.}
\label{alg:SODC}
donde:\\
\begin{tabular}{rl}
$\;$\hspace{1cm}\ \ \ &svec($\mathbf{X}_{i}$, $\mathbf{X}_{j}$) = $|\{ m : f_{m}(\mathbf{X}_{j}) < f_{m}(\mathbf{X}_{i})\}| \;\;\; m=1,2,\dots, M$\\
\hspace{1cm} &meps($\mathbf{X}_{i}$, $\mathbf{X}_{j}$) = $\displaystyle \max_{m=1}^{M} (f_{m}(\mathbf{X}_{j}) - f_{m}(\mathbf{X}_{i}), 0)$
\end{tabular}
\end{algorithm}

Como puede apreciarse en el Algoritmo \ref{alg:SODC}, para cada solución $\mathbf{X}_{i}$ se forma un conjunto $S_{\mathbf{X}_{i}}$ con todas las parejas formadas por los valores obtenidos para ambas métricas, al comparar $\mathbf{X}_{i}$ con el resto de las soluciones. Posteriormente, el conjunto de Pareto de $S_{\mathbf{X}_{i}}$ (denotado por $POS_{\mathbf{X}_{i}}$) es identificado. $POS_{\mathbf{X}_{i}}$  se forma con las soluciones que mostraron el mejor desempeño en ambas métricas al compararse contra $\mathbf{X}_{i}$. Finalmente, $\mathbf{SODC}$($\mathbf{X}_{i}$) expresará la calidad de una solución como el número de ocasiones en que aparece en los diferentes $POS_{\mathbf{X}_{j}}$ para cada $\mathbf{X}_{j} \neq $ $\mathbf{X}_{i}$.

Se dice que un individuo $\mathbf{X}_{i}$ domina a otro individuo $\mathbf{X}_{j}$ (con respecto al método $\mathbf{SODC}$) si se cumple que:
\begin{eqnarray}
\mathbf{SODC}(\mathbf{X}_{i}) & > & \mathbf{SODC}(\mathbf{X}_{j})
\end{eqnarray}


\textbf{Record de ganancia (\textit{winning score}, $\mathbf{WSCR}$): } El método $\mathbf{WSCR}$ fue propuesto en 2006 por Maneeratana \textit{\textit{et al.}} \cite{Maneeratana06} como parte de su algoritmo COGA (\textit{Compressed Objective Genetic Algorithm}). $\mathbf{WSCR}$ es un criterio de maximización que contabiliza el número de objetivos en los que un individuo es superior e inferior a otro. Formalmente, la calidad de un individuo $\mathbf{X}_{i}$ está dada por:
\begin{eqnarray}
\label{eq:wscore}
&\mathbf{WSCR}(\mathbf{X}_{i})  =  \sum_{\mathbf{X}_{j} \neq \mathbf{X}_{i}}{|\{m: f_{m}(\mathbf{X}_{i}) < f_{m}(\mathbf{X}_{j}) \}|-|\{n: f_{n}(\mathbf{X}_{i}) > f_{n}(\mathbf{X}_{j})\}|}&\\
&m=1,2,\dots, M&
\end{eqnarray}
Se dice que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ con respecto a $\mathbf{WSCR}$ si y sólo si:
\begin{eqnarray}
\mathbf{WSCR}(\mathbf{X}_{i}) & > & \mathbf{WSCR}(\mathbf{X}_{j})
\end{eqnarray}


\section{Enfoques propuestos}
\label{chap:proposed}

\subsection{Composiciones jerárquicas}
\label{sec:proposedcompositions}

En esta sección se proponen diferentes composiciones jerárquicas (CJs) resultantes de este proyecto de investigación. Se asume la obtención previa del vector $\mathbf{R}(\mathbf{X}_{i})$ para cada $\mathbf{X}_{i} \in P$ (ver Sección \ref{sec:introfitnessmethods}).\\

\textbf{Mínima jerarquía (minimum ranking, $\mathbf{MINR^*}$\footnote{Usamos un $^*$ para distinguir los métodos propuestos como resultado de este proyecto.})}: En la Sección \ref{sec:composiciones} se mencionaron algunos inconvenientes del método $\mathbf{MAXR}$ propuesto por Bentley y Wakefield \cite{Bentley97}. $\mathbf{MAXR}$ clasifica las soluciones de acuerdo con la mejor jerarquía que obtuvieron para los diferentes objetivos, de modo que asigna una alta jerarquía a individuos con buen desempeño para algún objetivo aún cuando tienen un mal desempeño global (favorece extremos). Basándonos en estas observaciones y  de manera opuesta a $\mathbf{MAXR}$, nosotros proponemos utilizar la peor jerarquía de un individuo como su valor de aptitud. La calidad de una solución $\mathbf{X}_{i}$ se calcula entonces de la siguiente manera:
\begin{eqnarray}
\mathbf{MINR^*}(\mathbf{X}_{i}) & = & \displaystyle \max_{m=1}^{M} r_{m}(\mathbf{X}_{i})
\end{eqnarray}

$\mathbf{MINR^*}$ es un criterio de minimización, por lo que se dice que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$, con respecto a la relación $\mathbf{MINR^*}$ ($\mathbf{X}_{i} \prec_{\mathbf{MINR^*}} $ $\mathbf{X}_{j}$), si y sólo si:
\begin{eqnarray}
\mathbf{MINR^*}(\mathbf{X}_{i}) & < & \mathbf{MINR^*}(\mathbf{X}_{j})
\end{eqnarray}

A diferencia de $\mathbf{MAXR}$, $\mathbf{MINR^*}$  es capaz de filtrar aquellas soluciones con mal desempeño en cualquier objetivo, favoreciendo individuos con un mejor compromiso.\\

\textbf{Comparación sucesiva de jerarquías ordenadas (successive comparison of ordered ranks, $\mathbf{SCOR^*}$)}: Este nuevo método de jerarquización se describe mediante el Algoritmo \ref{alg:scr}.  

\begin{algorithm}[hbtp]
\begin{algorithmic}[1]
	\REQUIRE SCOR\_Ranking()
	\STATE $\mathbf{R}'(\mathbf{X}_{i})$ $\leftarrow$ ordenar\_descendentemente($\mathbf{R}(\mathbf{X}_{i})$) $ \;\;\; \forall{\mathbf{X}_{i} \in P}$
	\STATE $\mathbf{SCOR^*}(\mathbf{X}_{i}) \leftarrow 0 \; \;\;\; \forall{\mathbf{X}_{i} \in P}$

	\FORALL{($\mathbf{X}_{i}$, $\mathbf{X}_{j}$) : $\mathbf{X}_{i}$,$\mathbf{X}_{j} \in P\; \wedge\;\mathbf{X}_{i} \neq\mathbf{X}_{j}$} 
	 	
		\FOR{$m=1$ to $M$}\label{linea:forinterno}
			\IF{$r'_{m}(\mathbf{X}_{i}) < r'_{m}(\mathbf{X}_{j})$} 
				\STATE $\mathbf{SCOR^*}(\mathbf{X}_{j}) \leftarrow \mathbf{SCOR^*}(\mathbf{X}_{j})+1$
				\STATE $m \leftarrow M$  (terminar ciclo de la linea \ref{linea:forinterno})
			\ELSIF{$r'_{m}(\mathbf{X}_{j}) < r'_{m}(\mathbf{X}_{i})$} 
				\STATE $\mathbf{SCOR^*}(\mathbf{X}_{i}) \leftarrow \mathbf{SCOR^*}(\mathbf{X}_{i})+1$
				\STATE $m \leftarrow M$  (terminar ciclo de la linea \ref{linea:forinterno})
			\ENDIF
		\ENDFOR

	\ENDFOR
	\ENSURE
\end{algorithmic}
\caption{Método $\mathbf{SCOR^*}$.} 
\label{alg:scr}
\end{algorithm}

Inicialmente, el vector de jerarquías $\mathbf{R}(\mathbf{X}_{i})$ se ordena descendentemente para cada  $\mathbf{X}_{i} \in P$. Después, cada pareja de soluciones se compara elemento a elemento con respecto a su vector ordenado de jerarquías, de tal modo que la primera jerarquía en la que una de las soluciones sea mejor que la otra determinará la relación de preferencia entre ellas. Una vez terminado este proceso, $\mathbf{SCOR^*}$($\mathbf{X}_{i}$)  expresará la calidad de una solución $\mathbf{X}_{i}$ en términos del número de individuos que de acuerdo con esta comparativa fueron mejores que $\mathbf{X}_{i}$. De esta manera, se considera que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$ si se cumple que $\mathbf{SCOR^*}(\mathbf{X}_{i}) < \mathbf{SCOR^*}(\mathbf{X}_{j})$. 

\subsection{Formas relajadas de dominancia}
\label{sec:proposedfrd}

\textbf{Comparación sucesiva de objetivos ordenados (successive comparison of ordered objectives, $\mathbf{SCOO^*}$)}: $\mathbf{SCOO^*}$ utiliza el procedimiento de jerarquización propuesto para el método $\mathbf{SCOR^*}$ descrito en la Sección \ref{sec:proposedcompositions}, pero usando los valores de los objetivos en lugar de las posiciones jerárquicas de los individuos. Inicialmente, se ordena descendentemente el vector de objetivos $\mathbf{F}(\mathbf{X}_{i})$ para cada solución $\mathbf{X}_{i}$ en la población. Después, cada pareja de soluciones se compara elemento a elemento con respecto a su vector ordenado de objetivos, de tal modo que la primera comparación en la que una solución sea mejor que la otra permitirá establecer preferencias entre ellas. Durante este proceso se llevará un contador $\mathbf{SCOO^*}$($\mathbf{X}_{i}$) (para cada $\mathbf{X}_{i} \in P$) que será incrementado por cada individuo que de acuerdo con esta comparación es superior a $\mathbf{X}_{i}$. Este procedimiento se detalla en el Algoritmo \ref{alg:sco}.
\begin{algorithm}[htbp]
\begin{algorithmic}[1]
	\REQUIRE SCOO\_Ranking()
	\STATE $\mathbf{F}'(\mathbf{X}_{i})$ $\leftarrow$ ordenar\_descendentemente($\mathbf{F}(\mathbf{X}_{i})$)) $ \;\;\; \forall{\mathbf{X}_{i} \in P}$
	\STATE $\mathbf{SCOO^*}(\mathbf{X}_{i}) \leftarrow 0 \; \;\;\; \forall{\mathbf{X}_{i} \in P}$

	\FORALL{($\mathbf{X}_{i}$, $\mathbf{X}_{j}$) : $\mathbf{X}_{i}$,$\mathbf{X}_{j} \in P\; \wedge\;\mathbf{X}_{i} \neq\mathbf{X}_{j}$} 
	 	
		\FOR{$m=1$ to $M$}\label{linea:forinterno2}
			\IF{$f'_{m}(\mathbf{X}_{i}) < f'_{m}(\mathbf{X}_{j})$} 
				\STATE $\mathbf{SCOO^*}(\mathbf{X}_{j}) \leftarrow \mathbf{SCOO^*}(\mathbf{X}_{j})+1$
				\STATE $m \leftarrow M$  (terminar ciclo de la linea \ref{linea:forinterno2})
			\ELSIF{$f'_{m}(\mathbf{X}_{j}) < f'_{m}(\mathbf{X}_{i})$} 
				\STATE $\mathbf{SCOO^*}(\mathbf{X}_{i}) \leftarrow \mathbf{SCOO^*}(\mathbf{X}_{i})+1$
				\STATE $m \leftarrow M$  (terminar ciclo de la linea \ref{linea:forinterno2})
			\ENDIF
		\ENDFOR

	\ENDFOR
	\ENSURE 
\end{algorithmic}
\caption{Método $\mathbf{SCOO^*}$.} 
\label{alg:sco}
\end{algorithm}

De acuerdo con el método $\mathbf{SCOO^*}$, se dice que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$, denotado por $\mathbf{X}_{i} \prec_{\mathbf{SCOO^*}} $ $\mathbf{X}_{j}$, si se cumple que $\mathbf{SCOO^*}(\mathbf{X}_{i})  <  \mathbf{SCOO^*}(\mathbf{X}_{j})$. Para aplicar este método los objetivos deben estar normalizados en el mismo rango.\\

\textbf{Fallos globales (global failures, $\mathbf{GFLS^*}$): } $\mathbf{GFLS^*}$ penaliza a los individuos por cada ocasión en que son superados al compararse, objetivo por objetivo, con respecto al resto de la población. Más formalmente, la cantidad global de fallos de un individuo $\mathbf{X}_{i}$ está dada por:
\begin{eqnarray} 
 \mathbf{GFLS^*}(\mathbf{X}_{i}) & = & \sum_{\mathbf{X}_{j} \neq \mathbf{X}_{i}} |\{ m : f_{m}(\mathbf{X}_{j}) < f_{m}(\mathbf{X}_{i}) \}| \;\;\; m=1,2,\dots, M
\end{eqnarray}
De acuerdo con $\mathbf{GFLS^*}$, una solución $\mathbf{X}_{i}$ se considera mejor que otra solución $\mathbf{X}_{j}$, si y sólo si: 
\begin{eqnarray}
\mathbf{GFLS^*}(\mathbf{X}_{i}) & < & \mathbf{GFLS^*}(\mathbf{X}_{j})
\end{eqnarray}

\textbf{Victorias globales (global wins, $\mathbf{GWIN^*}$): } De manera opuesta al método $\mathbf{GFLS^*}$ descrito previamente, $\mathbf{GWIN^*}$ es un criterio de maximización que acumula la cantidad de objetivos en los que un individuo $\mathbf{X}_{i}$ es superior a cada otro individuo de la población. Formalmente: 
\begin{eqnarray} 
 \mathbf{GWIN^*}(\mathbf{X}_{i}) & = & \sum_{\mathbf{X}_{j} \neq \mathbf{X}_{i}} |\{ m : f_{m}(\mathbf{X}_{i}) < f_{m}(\mathbf{X}_{j}) \}| \;\;\; m=1,2,\dots, M
\end{eqnarray}
Dadas dos soluciones $\mathbf{X}_{i}$, $\mathbf{X}_{j} \in P$, se dice que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$ si se cumple que:
\begin{eqnarray}
\mathbf{GWIN^*}(\mathbf{X}_{i}) & < & \mathbf{GWIN^*}(\mathbf{X}_{j})
\end{eqnarray}

\textbf{Deterioro global (global detriment, $\mathbf{GDET^*}$): } El método $\mathbf{GFLS^*}$ descrito previamente únicamente toma en cuenta la cantidad de objetivos en los que una solución es mejor que otra; sin embargo, un aspecto de gran importancia es medir qué tan significativa es la diferencia entre ellas. $\mathbf{GDET^*}$ penaliza a cada individuo por la magnitud de la diferencia con que es superado cuando se compara objetivo por objetivo con respecto al resto de la población. Formalmente, el deterioro global de un individuo $\mathbf{X}_{i}$ está dado por:
\begin{eqnarray} 
 \mathbf{GDET^*}(\mathbf{X}_{i}) & = & \sum_{\mathbf{X}_{j} \neq \mathbf{X}_{i}} \sum_{m=1}^{M} \max(f_{m}(\mathbf{X}_{i}) - f_{m}(\mathbf{X}_{j}), 0)
\end{eqnarray}	

Se considera que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ con respecto a este enfoque si y sólo si $\mathbf{GDET^*}(\mathbf{X}_{i}) < \mathbf{GDET^*}(\mathbf{X}_{j})$.  $\mathbf{GDET^*}$ es susceptible al rango de los objetivos, por lo que deben ser normalizados antes de su aplicación.\\



\textbf{Mejora global (global improvement, $\mathbf{GIMP^*}$): } De manera similar a la técnica $\mathbf{GDET^*}$ previamente descrita, $\mathbf{GIMP^*}$ es un método que toma en cuenta qué tan significativamente es mejor una solución que otra. Sin embargo, de manera opuesta a $\mathbf{GDET^*}$, $\mathbf{GIMP^*}$ es un criterio de maximización que consiste en acumular la magnitud de la diferencia con la que un individuo es superior en cada uno de sus objetivos, frente a cada otro individuo en la población. De manera formal, $\mathbf{GIMP^*}$ expresa la calidad de una solución $\mathbf{X}_{i}$ de la siguiente manera:
\begin{eqnarray} 
 \mathbf{GIMP^*}(\mathbf{X}_{i}) & = & \sum_{\mathbf{X}_{j} \neq \mathbf{X}_{i}} \sum_{m=1}^{M} \max(f_{m}(\mathbf{X}_{j}) - f_{m}(\mathbf{X}_{i}), 0)
\end{eqnarray}
Sean $\mathbf{X}_{i}$, $\mathbf{X}_{j} \in P$ dos soluciones candidatas, se dice que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$ de acuerdo con $\mathbf{GIMP^*}$ si se cumple que $\mathbf{GIMP^*}(\mathbf{X}_{i}) > \mathbf{GIMP^*}(\mathbf{X}_{j})$. Los diferentes objetivos deben ser normalizados al mismo rango antes de aplicar este método.\\

\textbf{Margen de ganancia (profit, $\mathbf{PRFT^*}$): }  $\mathbf{PRFT^*}$ expresa la calidad de las soluciones en términos del margen entre su máxima ganancia y su máxima pérdida. Para clarificar lo anterior, el margen de ganancia para un individuo $\mathbf{X}_{i}$ es expresado formalmente por la ecuación (\ref{eq:profit}):
\begin{eqnarray} 
\label{eq:profit}
 \mathbf{PRFT^*}(\mathbf{X}_{i}) & = & \max_{\mathbf{X}_{j} \neq \mathbf{X}_{i}}(ganancia(\mathbf{X}_{i}, \mathbf{X}_{j})) - \max_{\mathbf{X}_{j} \neq \mathbf{X}_{i}}(ganancia(\mathbf{X}_{j}, \mathbf{X}_{i}))
\end{eqnarray}
donde $ganancia(\mathbf{X}_{i}, \mathbf{X}_{j})$ es la ganancia de $\mathbf{X}_{i}$ con respecto a $\mathbf{X}_{j}$:
\begin{eqnarray} 
ganancia(\mathbf{X}_{i}, \mathbf{X}_{j}) & = & \sum_{m=1}^{M} \max(f_{m}(\mathbf{X}_{j}) - f_{m}(\mathbf{X}_{i}), 0)
\end{eqnarray}
Se dará preferencia a las soluciones que maximicen su valor para $\mathbf{PRFT^*}$. De este modo, se dice que una solución $\mathbf{X}_{i}$ domina a otra solución $\mathbf{X}_{j}$ si y sólo si $\mathbf{PRFT^*}(\mathbf{X}_{i}) > \mathbf{PRFT^*}(\mathbf{X}_{j})$. Este método debe aplicarse sobre los objetivos normalizados al mismo rango.\\


\textbf{Distancia a la mejor solución conocida (distance to the best known solution, $\mathbf{GBST^*}$): } La mejor solución conocida, a la que haremos referencia como punto GBEST, es aquella formada por el mejor valor conocido para los diferentes objetivos; v.g. GBEST domina a todas las soluciones conocidas desde el inicio de la búsqueda.  La figura \ref{fig:gbest} ilustra un ejemplo del cálculo del punto GBEST sobre un conjunto de soluciones conocidas para un problema con dos objetivos.
\begin{figure}[htp]
\centering
\shadowbox{
\includegraphics[width=\textwidth/2]{gbest}
}
\caption{Punto GBEST: Mejor solución conocida.} \label{fig:gbest}
\end{figure}

El punto GBEST no debe confundirse con el \textit{vector de objetivos ideal} (\textit{ideal objective vector}) cuyos elementos corresponden al valor óptimo para cada dimensión considerando todas las soluciones dentro de la región factible \cite{Deb01e}.

Este método consiste en calcular la cercanía de cada individuo al punto GBEST (este trabajo usa la distancia Euclidiana), de modo que mientras más reducida sea esta distancia, mejor será un individuo. Se requiere que los objetivos estén normalizados antes de aplicar esta técnica.\\


\textbf{Distancia a la peor solución local (distance to the local worst solution, $\mathbf{LWST^*}$): } La peor solución local, o punto LWORST, es aquella que es dominada por todas las soluciones en la población actual. El punto LWORST está formado por el peor valor para cada objetivo, considerando solamente la población actual.  La figura \ref{fig:lworst} ilustra un ejemplo del cálculo del punto LWORST para un problema con dos objetivos.
\begin{figure}[htp]
\centering
\shadowbox{
\includegraphics[width=\textwidth/2]{lworst}
}
\caption{Punto LWORST: Actual peor solución.} \label{fig:lworst}
\vspace{-0.5cm}
\end{figure}

El punto LWORST no debe confundirse con el punto conocido como \textit{vector de objetivos nadir} (\textit{nadir objective vector}) cuyos elementos corresponden al peor valor para cada objetivo considerando únicamente los puntos del conjunto de óptimos de Pareto \cite{Deb01e}.

Mientras más grande sea la distancia de una solución con respecto al punto LWORST, mejor será la calidad de dicha solución. Se requiere que los objetivos se encuentren normalizados en el mismo rango antes de aplicar esta técnica.\\


\textbf{Distancia a la peor solución global (distance to the global worst solution, $\mathbf{GWST^*}$): } De manera similar al método $\mathbf{LWST^*}$ descrito anteriormente, este método calcula la distancia a la peor solución. Sin embargo, en este caso haremos referencia a dicha solución como el punto GWORST, ya que estará formada por el peor valor conocido globalmente para los diferentes objetivos (desde el inicio de la búsqueda). Se dará preferencia a aquellas soluciones que maximicen su distancia al punto GWORST (este trabajo usa la distancia Euclidiana).

El punto GWORST no debe confundirse con el punto conocido como \textit{vector de objetivos nadir} (\textit{nadir objective vector}) cuyos elementos corresponden al peor valor para cada objetivo considerando únicamente los puntos del conjunto de óptimos de Pareto \cite{Deb01e}.\\


\textbf{Jerarquización por compromiso (trade-off ranking, $\mathbf{TOFF^*}$):} En la ausencia de preferencias puede asumirse que el tomador de decisiones estará interesado en soluciones con el mejor compromiso entre objetivos. Tomando esto en cuenta, $\mathbf{TOFF^*}$ es un método de jerarquización que está basado en medir el nivel de compromiso de cada solución. Para estos propósitos, $\mathbf{TOFF^*}$ calcula la aptitud de un determinado individuo como el acumulado de las diferencias entre el valor de cada pareja de sus objetivos. De manera formal, el grado de compromiso de una solución $\mathbf{X}_{i}$ está dado por:
\begin{eqnarray} 
\mathbf{TOFF^*}(\mathbf{X}_{i})& = & \sum_{m=1}^{M-1}{\sum_{n=m+1}^{M}{|f_m(\mathbf{X}_{i})-f_n(\mathbf{X}_{i})|}}
\end{eqnarray}

De acuerdo con este enfoque, se dice que una solución $\mathbf{X}_{i}$ es superior a otra solución $\mathbf{X}_{j}$ si se cumple que $\mathbf{TOFF^*}(\mathbf{X}_{i})<\mathbf{TOFF^*}(\mathbf{X}_{j})$. Está claro que para el caso de problemas de minimización, favorecer valores pequeños para $\mathbf{TOFF^*}(\mathbf{X}_{i})$ permitirá también dar preferencia a soluciones con la mejor convergencia, ya que al aproximarse al frente de Pareto las diferencias entre el valor de los diferentes objetivos se vuelven cada vez menos significativas. De esta manera, proponemos a $\mathbf{TOFF^*}$ como una alternativa que permite lograr una buena convergencia y al mismo tiempo dirigir la búsqueda hacia regiones que se asumen son de mayor interés, v.g. el mejor compromiso.\\


\textbf{Ganancia total (total gain, $\mathbf{GAIN^*}$):} Basándonos en la relación $\mathbf{GFAC}$ de Burke y Landa-Silva \cite{Burke06} descrita en la Sección \ref{sec:relajadas},  nosotros proponemos una forma diferente para establecer preferencias entre soluciones. Empíricamente, con pequeñas instancias hemos observado que esta alternativa permite una jerarquización de grano más fino que la relación original, por lo que optamos contemplarla en este trabajo. Sean $\mathbf{X}_{i}$ y $\mathbf{X}_{j}$ dos individuos, la \textit{ganancia total} de $\mathbf{X}_{i}$ con respecto a $\mathbf{X}_{j}$ está dada por:
\begin{eqnarray} 
 & & \mathbf{GAIN^*}(\mathbf{X}_{i}, \mathbf{X}_{j}) = \sum \frac{f_{m}(\mathbf{X}_{j}) - f_{m}(\mathbf{X}_{i})}{f_{m}(\mathbf{X}_{j})} \;\;\; \forall{m \in \{1,2,\dots,M\} : f_{m}(\mathbf{X}_{i}) < f_{m}(\mathbf{X}_{j})}
\end{eqnarray}
Se considera que $\mathbf{X}_{i}$ domina a $\mathbf{X}_{j}$ ($\mathbf{X}_{i} \prec_{\mathbf{GAIN^*}} \mathbf{X}_{j}$) si la ganancia total de $\mathbf{X}_{i}$ con respecto a $\mathbf{X}_{j}$ es mayor a la ganancia total de $\mathbf{X}_{j}$ con respecto a $\mathbf{X}_{i}$:
\begin{eqnarray} 
 \mathbf{X}_{i} \prec_{\mathbf{GAIN^*}} \mathbf{X}_{j} & \Leftrightarrow & \mathbf{GAIN^*}(\mathbf{X}_{i}, \mathbf{X}_{j}) > \mathbf{GAIN^*}(\mathbf{X}_{j}, \mathbf{X}_{i})
\end{eqnarray}


\section{No equivalencia entre $\mathbf{AVER}$, $\mathbf{WSCR}$ y $\mathbf{GFLS^*}$}
\label{sec:proposedcompositions}

Corne y Knowles demostraron en 2007 \cite{Corne07} la equivalencia de los métodos $\mathbf{AVER}$ \cite{Bentley97} y $\mathbf{WSCR}$ \cite{Maneeratana06}. Del mismo modo, nuestro enfoque $\mathbf{GFLS^*}$ presentado en la Sección \ref{sec:proposedfrd} proporciona resultados similares a los de ambos métodos. Consideremos como ejemplo las 6 soluciones para un problema con 3 objetivos mostradas en la tabla \ref{tab:equivalencia}. La tabla \ref{tab:equivalencia} desglosa los resultados de aplicar cada uno de los tres métodos sobre este conjunto de soluciones\footnote{Para los detalles del cálculo de los resultados mostrados en la tabla \ref{tab:equivalencia}, referirse a la sección correspondiente a cada uno de los métodos considerados.}. Así mismo, se muestra la jerarquía (ordenamiento) final donde se transformó el resultado obtenido con cada método al rango $[1, N]$; $1$ y $N$ para la mejor y peor solución respectivamente, considerando que $\mathbf{AVER}$ y $\mathbf{GFLS^*}$ son criterios de minimización mientras que, por el contrario, $\mathbf{WSCR}$ es un criterio de maximización.

\begin{table}[h]
\centering
\caption{Equivalencia $\mathbf{AVER}$, $\mathbf{WSCR}$ y $\mathbf{GFLS^*}$.} \label{tab:equivalencia}
\begin{tabular}{|c|ccc|rl|rl|rl|}
\hline
Solución & Jerarquía & Jerarquía & Jerarquía & \multicolumn{6}{c|}{Resultado método \ $\rightarrow$ \ Jerarquía final} \\
($f_{1}, f_{2}, f_{3}$) & $f_{1}$ & $f_{2}$ & $f_{3}$ & $\mathbf{AVER}$& (-) & $\mathbf{WSCR}$ & (+) & $\mathbf{GFLS^*}$ & (-)\\ \hline
(1, 5, 6) & 1 & 4 & 6 &  11\ $\rightarrow$& 3 & -1\ $\rightarrow$& 3 & 8 \ $\rightarrow$& 3 \\
(7, 1, 2) & 6 & 1 & 2 &  9 \ $\rightarrow$& 2 & 3 \ $\rightarrow$& 2 & 6 \ $\rightarrow$& 2 \\
(2, 4, 4) & 2 & 3 & 4 &  9 \ $\rightarrow$& 2 & 3 \ $\rightarrow$& 2 & 6 \ $\rightarrow$& 2 \\
(5, 3, 1) & 4 & 2 & 1 &  7 \ $\rightarrow$& 1 & 7 \ $\rightarrow$& 1 & 4 \ $\rightarrow$& 1 \\
(6, 8, 5) & 5 & 5 & 5 &  15\ $\rightarrow$& 5 & -9\ $\rightarrow$& 5 & 12\ $\rightarrow$& 5 \\
(3, 9, 3) & 3 & 6 & 3 &  12\ $\rightarrow$& 4 & -3\ $\rightarrow$& 4 & 9 \ $\rightarrow$& 4 \\ \hline
\end{tabular}
\end{table}


Tal como se observa en la tabla \ref{tab:equivalencia}, la jerarquía final lograda con los tres métodos es la misma. La equivalencia de nuestro enfoque $\mathbf{GFLS^*}$ con respecto al método $\mathbf{AVER}$ puede plantearse mediante la ecuación (\ref{eq:equivalencia}):
\begin{eqnarray} \label{eq:equivalencia}
 \mathbf{GFLS^*}(\mathbf{X}_{i}) & = & \mathbf{AVER}(\mathbf{X}_{i}) - M
\end{eqnarray}

Aunque de manera general los resultados de estos tres métodos son similares, existen casos específicos en los que cada enfoque discrimina de forma diferente. Como contraejemplo de esta equivalencia consideremos ahora las soluciones en la tabla \ref{tab:equivalencia2}. Este contraejemplo es una modificación del ejemplo presentado en la tabla \ref{tab:equivalencia}; el valor del primer objetivo ($f_1$) para la primera y última solución han sido modificados. En este tipo de escenarios, donde existen valores repetidos para alguno(s) de los objetivos, el orden de preferencias que cada uno de estos tres enfoques induce puede ser diferente. En este caso, el orden de preferencia para la segunda y tercer solución es diferente para cada enfoque; mientras que para $\mathbf{AVER}$ la segunda solución es mejor que la tercera, $\mathbf{WSCR}$ las considera equivalentes y nuestro método $\mathbf{GFLS^*}$ establece una preferencia opuesta a $\mathbf{AVER}$ (las diferencias han sido resaltadas con un * en la tabla \ref{tab:equivalencia2}).

\begin{table}[ht]
\centering
\caption{Equivalencia $\mathbf{AVER}$, $\mathbf{WSCR}$ y $\mathbf{GFLS^*}$: Contraejemplo.} \label{tab:equivalencia2}
\begin{tabular}{|c|ccc|rl|rl|rl|}
\hline
Solución & Jerarquía & Jerarquía & Jerarquía & \multicolumn{6}{c|}{Resultado método \ $\rightarrow$ \ Jerarquía final} \\
($f_{1}, f_{2}, f_{3}$) & $f_{1}$ & $f_{2}$ & $f_{3}$ & $\mathbf{AVER}$& (-) & $\mathbf{WSCR}$ & (+) & $\mathbf{GFLS^*}$ & (-)\\ \hline
(2, 5, 6) & 1 & 4 & 6 &  11 \  $\rightarrow$ &5 & -3 \ $\rightarrow$& 4 & 8 \ $\rightarrow$& 5 \\
(7, 1, 2) & 4 & 1 & 2 &   7 \ $\rightarrow$ &\textcolor{red}{2*}& 3 \ $\rightarrow$& \textcolor{red}{2*} & 6 \ $\rightarrow$& \textcolor{red}{3*} \\
(2, 4, 4) & 1 & 3 & 4 &   8 \ $\rightarrow$ &\textcolor{red}{3*} & 3 \ $\rightarrow$& \textcolor{red}{2*} & 5 \ $\rightarrow$& \textcolor{red}{2*} \\
(5, 3, 1) & 2 & 2 & 1 &   5 \ $\rightarrow$ &1 & 7 \ $\rightarrow$& 1 & 4 \ $\rightarrow$& 1 \\
(6, 8, 5) & 3 & 5 & 5 &  13 \ $\rightarrow$ &6 & -9 \ $\rightarrow$& 5 & 12 \ $\rightarrow$& 6 \\
(2, 9, 3) & 1 & 6 & 3 &  10 \ $\rightarrow$ &4 & -1 \ $\rightarrow$& 3 & 7 \ $\rightarrow$& 4 \\ \hline
\end{tabular}
\end{table}

Con este contraejemplo se demuestra que los tres enfoques mencionados no son equivalentes. Sin embargo, los resultados que estos métodos le permitan obtener a un determinado MOEA serán, por lo general, similares.

