\subsubsection{Conjunto de entrenamiento}
En este problema, la funci\'on tiene un dominio finito: las 64 cadenas de 6 bits. La generaci\'on del conjunto de entrenamiento fue sencilla: simplemente se escribieron esas 64 cadenas y el vector objetivo de 64 bits que indica, para cada una, si es o no capic\'ua. No obstante ello, tambi\'en se tom\'o un conjunto de entrenamiento reducido, de tan s\'olo 16 duplas (cadena de 6 bits, bit), tomando elementos cada 4 de los conjuntos iniciales y se corrieron pruebas para este conjunto reducido tambi\'en (al final se muestran los resultados por separado). En el conjunto resultante quedan 2 cadenas capic\'uas lo cual es proporcional a la cantidad de cadenas capic\'uas en el conjunto total. A continuaci\'on, se muestra el vector de todas las cadenas y el reducido.
Todas las cadenas:
\begin{longtable}{l l l l l l}
%\begin{array}{clrr}
0 & 0 & 0 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & 0 & 1\\
0 & 0 & 0 & 0 & 1 & 0\\
0 & 0 & 0 & 0 & 1 & 1\\
0 & 0 & 0 & 1 & 0 & 0\\
0 & 0 & 0 & 1 & 0 & 1\\
0 & 0 & 0 & 1 & 1 & 0\\
0 & 0 & 0 & 1 & 1 & 1\\
0 & 0 & 1 & 0 & 0 & 0\\
0 & 0 & 1 & 0 & 0 & 1\\
0 & 0 & 1 & 0 & 1 & 0\\
0 & 0 & 1 & 0 & 1 & 1\\
0 & 0 & 1 & 1 & 0 & 0\\
0 & 0 & 1 & 1 & 0 & 1\\
0 & 0 & 1 & 1 & 1 & 0\\
0 & 0 & 1 & 1 & 1 & 1\\
0 & 1 & 0 & 0 & 0 & 0\\
0 & 1 & 0 & 0 & 0 & 1\\
0 & 1 & 0 & 0 & 1 & 0\\
0 & 1 & 0 & 0 & 1 & 1\\
0 & 1 & 0 & 1 & 0 & 0\\
0 & 1 & 0 & 1 & 0 & 1\\
0 & 1 & 0 & 1 & 1 & 0\\
0 & 1 & 0 & 1 & 1 & 1\\
0 & 1 & 1 & 0 & 0 & 0\\
0 & 1 & 1 & 0 & 0 & 1\\
0 & 1 & 1 & 0 & 1 & 0\\
0 & 1 & 1 & 0 & 1 & 1\\
0 & 1 & 1 & 1 & 0 & 0\\
0 & 1 & 1 & 1 & 0 & 1\\
0 & 1 & 1 & 1 & 1 & 0\\
0 & 1 & 1 & 1 & 1 & 1\\
1 & 0 & 0 & 0 & 0 & 0\\
1 & 0 & 0 & 0 & 0 & 1\\
1 & 0 & 0 & 0 & 1 & 0\\
1 & 0 & 0 & 0 & 1 & 1\\
1 & 0 & 0 & 1 & 0 & 0\\
1 & 0 & 0 & 1 & 0 & 1\\
1 & 0 & 0 & 1 & 1 & 0\\
1 & 0 & 0 & 1 & 1 & 1\\
1 & 0 & 1 & 0 & 0 & 0\\
1 & 0 & 1 & 0 & 0 & 1\\
1 & 0 & 1 & 0 & 1 & 0\\
1 & 0 & 1 & 0 & 1 & 1\\
1 & 0 & 1 & 1 & 0 & 0\\
1 & 0 & 1 & 1 & 0 & 1\\
1 & 0 & 1 & 1 & 1 & 0\\
1 & 0 & 1 & 1 & 1 & 1\\
1 & 1 & 0 & 0 & 0 & 0\\
1 & 1 & 0 & 0 & 0 & 1\\
1 & 1 & 0 & 0 & 1 & 0\\
1 & 1 & 0 & 0 & 1 & 1\\
1 & 1 & 0 & 1 & 0 & 0\\
1 & 1 & 0 & 1 & 0 & 1\\
1 & 1 & 0 & 1 & 1 & 0\\
1 & 1 & 0 & 1 & 1 & 1\\
1 & 1 & 1 & 0 & 0 & 0\\
1 & 1 & 1 & 0 & 0 & 1\\
1 & 1 & 1 & 0 & 1 & 0\\
1 & 1 & 1 & 0 & 1 & 1\\
1 & 1 & 1 & 1 & 0 & 0\\
1 & 1 & 1 & 1 & 0 & 1\\
1 & 1 & 1 & 1 & 1 & 0\\
1 & 1 & 1 & 1 & 1 & 1\\
%\end{array}
\end{longtable}
El reducido:
\begin{longtable}{l l l l l l}
%\begin{array}{clrr}
  0 &   0 &   0 &   0 &   0 &   0 \\
  0 &   0 &   0 &   1 &   0 &   0 \\
  0 &   0 &   1 &   0 &   0 &   0 \\
  0 &   0 &   1 &   1 &   0 &   0 \\
  0 &   1 &   0 &   0 &   0 &   0 \\
  0 &   1 &   0 &   1 &   0 &   0 \\
  0 &   1 &   1 &   0 &   0 &   0 \\
  0 &   1 &   1 &   1 &   0 &   0 \\
  1 &   0 &   0 &   0 &   0 &   0 \\
  1 &   0 &   0 &   1 &   0 &   0 \\
  1 &   0 &   1 &   0 &   0 &   0 \\
  1 &   0 &   1 &   1 &   0 &   0 \\
  1 &   1 &   0 &   0 &   0 &   0 \\
  1 &   1 &   0 &   1 &   0 &   0 \\
  1 &   1 &   1 &   0 &   0 &   0 \\
  1 &   1 &   1 &   1 &   0 &   0 \\
%\end{array}
\end{longtable}

\subsubsection{Características de la red neuronal elegida}
Al tratarse de una funci\'on que sale de un dominio finito bastante chico (64 elementos) no consideramos necesario emplear m\'as de una capa invisible (de 10 perceptrones). Si bien no adjuntamos resultados extensos para el caso de dos capas invisibles, pudimos ver que no eran radicalmente distintos de los obtenidos.
Para la funci\'on de transferencia se utiliz\'o la combinaci\'on por defecto de Matlab: tansig en la invisible y la identidad (purelin) en la capa final. No se us\'o hardlim u otra funci\'on discreta, a pesar de que la imagen de la funci\'on es discreta (es un bit), por dos motivos: el primero y m\'as sencillo es que el m\'etodo de gradiente (traingd, sugerido por la c\'atedra) no funciona con este tipo de funci\'on; el segundo y m\'as importante es que no tenemos resultados de convergencia para este tipo de funciones cuando no hay separabilidad (Funahashi exige continuidad) y en este caso puede verse que no la hay del siguiente modo. Tomamos 4 de los 6 bits de modo tal que la cadena total pueda ser capic\'ua (tomamos, por ejemplo, 11xy11, con x e y indeterminadas). Entonces nos quedan 4 entradas posibles en un plano (el dado por las 4 variables que s\'i determinamos) dentro del espacio de 6 dimensiones. Es decir, podemos dejar de pensar en las 6 dimensiones y concentranos en el siguiente problema, donde se ven las cuatro combinaciones de (x,y) posibles: 

	\begin{figure}[H]
		\centering
		\noindent\includegraphics[scale=1]{img/ej2/inseparabilidad.png}
		\caption{
			Es claro que estas 4 entradas no pueden ser separadas por su clase en el plano y luego no se va a poder separarlas en el espacio de seis dimensiones.
		}
		\label{fig:inseparabilidad}
	\end{figure}

\subsubsection{Pruebas y Resultados}
A continuaci\'on mostramos los resultados de las seis redes que creamos para tres velocidades distintas: 0.25, 0.50 y 0.75 (al haber creado una para cada Trainset -completo y reducido- da un total de seis redes). Los gr\'aficos muestran la evoluci\'on del error del \'ultimo dato sobre \'epocas (nota: no dejamos correr m\'as de 1000 \'epocas y, con un error m\'inimo de 0.05, en algunos casos se corrieron todas las \'epocas sin que el entrenamiento pare, mientras que en otros casos el m\'inimo se alcanz\'o r\'apido y el algoritmo par\'o). Las tablas muestran los resultados de simulaci\'on (los valores estimados o Output) y el error para las 64 entradas (tambi\'en en los casos donde se entren\'o con el conjunto reducido de 16 entradas, esto es importante para ver c\'omo el error es mayor en los elementos fuera del conjunto de 16 entradas). Al final se muestra el error cuadr\'atico medio.

	\begin{figure}[H]
		\centering
		\noindent\includegraphics[scale=.7]{img/ej2/setReducido-lr25.png}
		\caption{
			Evoluci\'on del error para cada \'epoca con Trainset reducido y lr=0.25
		}
	\end{figure}

	\begin{figure}[H]
		\centering
		\noindent\includegraphics[scale=.7]{img/ej2/setReducido-lr50.png}
		\caption{
			Evoluci\'on del error para cada \'epoca con Trainset reducido y lr=0.50
		}
	\end{figure}

	\begin{figure}[H]
		\centering
		\noindent\includegraphics[scale=.7]{img/ej2/setReducido-lr75.png}
		\caption{
			Evoluci\'on del error para cada \'epoca con Trainset reducido y lr=0.75
		}
		\label{fig:reducido25}
	\end{figure}

%\newpage
	%\begin{figure}[h!]
	%	\centering
	%	\noindent\includegraphics[scale=1]{img/ej2/setReducido-lr50.png}
	%	\caption{
	%		Evoluci\'on del error para cada \'epoca con Trainset reducido y lr=0.50
	%	}
%		\label{fig:reducido50}
%	\end{figure}

%	\begin{figure}[h!]
%		\centering
%		\noindent\includegraphics[scale=0.9]{img/ej2/setReducido-lr75.png}
%		\caption{
%			Evoluci\'on del error para cada \'epoca con Trainset reducido y lr=0.75
%		}
%		\label{fig:reducido75}
%	\end{figure}
%\newpage

	\begin{figure}[H]
		\centering
		\noindent\includegraphics[scale=.7]{img/ej2/setCompleto-lr25.png}
		\caption{
			Evoluci\'on del error para cada \'epoca con Trainset completo y lr=0.25
		}
		\label{fig:completo25}
	\end{figure}

	\begin{figure}[H]
		\centering
		\noindent\includegraphics[scale=.7]{img/ej2/setCompleto-lr50.png}
		\caption{
			Evoluci\'on del error para cada \'epoca con Trainset completo y lr=0.50
		}
		\label{fig:completo50}
	\end{figure}

	\begin{figure}[H]
		\centering
		\noindent\includegraphics[scale=.7]{img/ej2/setCompleto-lr75.png}
		\caption{
			Evoluci\'on del error para cada \'epoca con Trainset completo y lr=0.75
		}
		\label{fig:completo75}
	\end{figure}


\begin{longtable}{|l|l|l|l|l|l|l|}
\hline 
\multicolumn{7}{|c|}{Trainset reducido} \\
\hline
 & \multicolumn{2}{|c|}{LR=0.25} & \multicolumn{2}{|c|}{LR=0.50} & \multicolumn{2}{|c|}{LR=0.75} \\ 
\hline
Target & Output & Error & Output & Error & Output & Error \\ 
\hline


1 & 0.5733 & 0.4267 & 0.6413 & 0.3587 & 0.7558 & 0.2442 \\
0 &  0.1857 & -0.1857 & 0.4373 & -0.4373 & 0.8871 & -0.8871 \\
0 &  -0.2562 & 0.2562 & 0.3241 & -0.3241 & 0.2872 & -0.2872 \\
0 & -0.2289 & 0.2289 & 0.0998 & -0.0998 & 0.8537 & -0.8537 \\
0 &  0.1586 & -0.1586 & -0.1233 & 0.1233 & -0.1189 & 0.1189 \\
0 &  0.2727 & -0.2727 & 0.7544 & -0.7544 & 0.6151 & -0.6151 \\
0 &  -0.1188 & 0.1188 & -0.4793 & 0.4793 & 0.2936 & -0.2936 \\
0 &  0.0170 & -0.0170 & 0.7388 & -0.7388 & 0.6981 & -0.6981 \\
0 &  0.2874 & -0.2874 & 0.0554 & -0.0554 & -0.1729 & 0.1729 \\
0 &  0.1169 & -0.1169 & 0.6915 & -0.6915 & 0.8973 & -0.8973 \\
0 &  -0.2425 & 0.2425 & -0.6113 & 0.6113 & -0.0197 & 0.0197 \\
0 &  -0.1596 & 0.1596 & 0.2263 & -0.2263 & 0.7271 & -0.7271 \\
1 &  0.4796 & 0.5204 & 0.8028 & 0.1972 & 0.7781 & 0.2219 \\
0 &  0.2947 & -0.2947 & 0.7781 & -0.7781 & 0.8174 & -0.8174 \\
0 &  -0.1993 & 0.1993 & -0.0149 & 0.0149 & 0.4362 & -0.4362 \\
0 &  -0.0692 & 0.0692 & 0.7829 & -0.7829 & 0.8322 & -0.8322 \\
0 &  0.1126 & -0.1126 & -0.2466 & 0.2466 & -0.0589 & 0.0589 \\
0 &  0.0614 & -0.0614 & 0.2780 & -0.2780 & 0.9598 & -0.9598 \\
1 &  -0.6662 & 1.6662 & -0.6966 & 1.6966 & 0.3576 & 0.6424 \\
0 &  -0.3570 & 0.3570 & 0.0288 & -0.0288 & 0.8747 & -0.8747 \\
0 &  0.1417 & -0.1417 & -0.1883 & 0.1883 & -0.1007 & 0.1007 \\
0 &  0.2739 & -0.2739 & 0.5988 & -0.5988 & 0.8682 & -0.8682 \\
0 &  -0.0277 & 0.0277 & -0.5879 & 0.5879 & -0.0030 & 0.0030 \\
0 &  -0.2314 & 0.2314 & 0.6564 & -0.6564 & 0.9087 & -0.9087 \\
0 &  0.1753 & -0.1753 & -0.1591 & 0.1591 & -0.1151 & 0.1151 \\
0 &  -0.0841 & 0.0841 & 0.6944 & -0.6944 & 0.5506 & -0.5506 \\
0 &  -0.0601 & 0.0601 & -0.6940 & 0.6940 & 0.3688 & -0.3688 \\
0 &  -0.1776 & 0.1776 & 0.6211 & -0.6211 & 0.4936 & -0.4936 \\
0 &  0.0497 & -0.0497 & 0.0243 & -0.0243 & -0.1310 & 0.1310 \\
0 &  0.1001 & -0.1001 & 0.7681 & -0.7681 & 0.9460 & -0.9460 \\
0 &  -0.1203 & 1.1203 & -0.2942 & 1.2942 & 0.0103 & 0.9897 \\
0 &  -0.1861 & 0.1861 & 0.7781 & -0.7781 & 0.8869 & -0.8869 \\
0 &  -0.0242 & 0.0242 & -0.2485 & 0.2485 & -0.2401 & 0.2401 \\
1 &  -0.1522 & 1.1522 & 0.1184 & 0.8816 & 0.6937 & 0.3063 \\
0 &  -0.8057 & 0.8057 & -0.5142 & 0.5142 & 0.0282 & -0.0282 \\
0 &  -0.3403 & 0.3403 & -0.4775 & 0.4775 & 0.8214 & -0.8214 \\
0 &  0.1383 & -0.1383 & -0.4006 & 0.4006 & -0.2075 & 0.2075 \\
0 &  0.0971 & -0.0971 & 0.5294 & -0.5294 & -0.0193 & 0.0193 \\
0 &  -0.3548 & 0.3548 & -0.4355 & 0.4355 & -0.1867 & 0.1867 \\
0 &  -0.4077 & 0.4077 & -0.2669 & 0.2669 & -0.0846 & 0.0846 \\
0 &  -0.0064 & 0.0064 & -0.2596 & 0.2596 & -0.2816 & 0.2816 \\
0 &  0.1943 & -0.1943 & 0.4548 & -0.4548 & 0.9430 & -0.9430 \\
0 &  -0.2449 & 0.2449 & -0.4052 & 0.4052 & 0.0584 & -0.0584 \\
0 &  -0.3199 & 0.3199 & -0.4384 & 0.4384 & 0.9457 & -0.9457 \\
0 &  0.1732 & -0.1732 & -0.0889 & 0.0889 & -0.2204 & 0.2204 \\
1 &  0.1408 & 0.8592 & 0.6917 & 0.3083 & 0.6974 & 0.3026 \\
0 &  -0.2217 & 0.2217 & -0.7234 & 0.7234 & 0.1551 & -0.1551 \\
0 &  -0.2282 & 0.2282 & 0.3604 & -0.3604 & 0.8677 & -0.8677 \\
0 &  -0.2779 & 0.2779 & -0.2374 & 0.2374 & -0.2921 & 0.2921 \\
0 &  -0.0501 & 0.0501 & -0.2724 & 0.2724 & 0.5142 & -0.5142 \\
0 &  -0.3895 & 0.3895 & -0.8006 & 0.8006 & -0.5673 & 0.5673 \\
1 &  -0.3815 & 1.3815 & -0.6067 & 1.6067 & 0.8587 & 0.1413 \\
0 &  0.1639 & -0.1639 & -0.1212 & 0.1212 & -0.2216 & 0.2216 \\
0 &  0.2025 & -0.2025 & 0.4756 & -0.4756 & 0.4313 & -0.4313 \\
0 &  -0.3103 & 0.3103 & -0.6774 & 0.6774 & 0.1171 & -0.1171 \\
0 &  -0.3546 & 0.3546 & 0.2528 & -0.2528 & 0.4235 & -0.4235 \\
0 &  -0.0549 & 0.0549 & -0.2784 & 0.2784 & -0.2171 & 0.2171 \\
0 &  -0.2085 & 0.2085 & 0.0776 & -0.0776 & 0.6640 & -0.6640 \\
0 &  -0.1973 & 0.1973 & -0.8460 & 0.8460 & -0.1399 & 0.1399 \\
0 &  -0.3667 & 0.3667 & -0.4649 & 0.4649 & 0.7058 & -0.7058 \\
0 &  -0.0519 & 0.0519 & -0.2027 & 0.2027 & -0.3947 & 0.3947 \\
0 &  -0.1125 & 0.1125 & 0.5359 & -0.5359 & 0.7614 & -0.7614 \\
0 &  -0.1775 & 0.1775 & -0.7048 & 0.7048 & -0.3167 & 0.3167 \\
1 &  -0.2663 & 1.2663 & 0.2261 & 0.7739 & 0.9180 & 0.0820 \\
   \hline
  
 & \multicolumn{2}{|c|}{ECM=0.2072} & \multicolumn{2}{|c|} {ECM=0.3495} & \multicolumn{2}{|c|} {ECM=0.3018} \\
\hline
\end{longtable}

\begin{longtable}{|l|l|l|l|l|l|l|}
\hline 
\multicolumn{7}{|c|}{Trainset completo} \\
\hline
 & \multicolumn{2}{|c|}{LR=0.25} & \multicolumn{2}{|c|}{LR=0.50} & \multicolumn{2}{|c|}{LR=0.75} \\ 
\hline
Target & Output & Error & Output & Error & Output & Error \\ 
\hline
1 &  0.4176 &  0.5824 &  0.5561 &  0.4439 &  0.5933 &  0.4067 \\
0 &  0.1200 & -0.1200 & -0.0560 &  0.0560 &  0.2895 & -0.2895 \\
0 &  0.1719 & -0.1719 &  0.0209 & -0.0209 &  0.2451 & -0.2451 \\
0 & -0.0057 &  0.0057 & -0.0839 &  0.0839 &  0.3002 & -0.3002 \\
0 &  0.4727 & -0.4727 &  0.0810 & -0.0810 &  0.0938 & -0.0938 \\
0 &  0.0768 & -0.0768 & -0.1820 &  0.1820 & -0.1445 &  0.1445 \\
0 & -0.0192 &  0.0192 &  0.0370 & -0.0370 &  0.5557 & -0.5557 \\
0 & -0.2078 &  0.2078 & -0.1294 &  0.1294 &  0.1787 & -0.1787 \\
0 & -0.0491 &  0.0491 & -0.0708 &  0.0708 &  0.0987 & -0.0987 \\
0 & -0.0063 &  0.0063 &  0.2349 & -0.2349 &  0.4839 & -0.4839 \\
0 &  0.0243 & -0.0243 &  0.1046 & -0.1046 &  0.3343 & -0.3343 \\
0 &  0.1206 & -0.1206 & -0.2778 &  0.2778 &  0.3607 & -0.3607 \\
1 &  0.3607 &  0.6393 &  0.4528 &  0.5472 &  0.7674 &  0.2326 \\
0 & -0.0024 &  0.0024 & -0.2019 &  0.2019 &  0.3193 & -0.3193 \\
0 &  0.2311 & -0.2311 & -0.0596 &  0.0596 &  0.1358 & -0.1358 \\
0 &  0.0621 & -0.0621 &  0.1439 & -0.1439 &  0.4039 & -0.4039 \\
0 &  0.2611 & -0.2611 &  0.0683 & -0.0683 &  0.4194 & -0.4194 \\
0 &  0.2082 & -0.2082 & -0.0858 &  0.0858 &  0.3207 & -0.3207 \\
1 &  0.3887 &  0.6113 &  0.6151 &  0.3849 &  0.6494 &  0.3506 \\
0 & -0.0683 &  0.0683 & -0.0972 &  0.0972 &  0.3095 & -0.3095 \\
0 &  0.0598 & -0.0598 & -0.1254 &  0.1254 &  0.4698 & -0.4698 \\
0 & -0.0495 &  0.0495 & -0.1373 &  0.1373 & -0.1032 &  0.1032 \\
0 &  0.2729 & -0.2729 &  0.0437 & -0.0437 &  0.1167 & -0.1167 \\
0 & -0.2117 &  0.2117 & -0.1172 &  0.1172 & -0.0521 &  0.0521 \\
0 &  0.0154 & -0.0154 & -0.3506 &  0.3506 &  0.0453 & -0.0453 \\
0 &  0.0437 & -0.0437 &  0.1501 & -0.1501 &  0.4170 & -0.4170 \\
0 &  0.0930 & -0.0930 &  0.0538 & -0.0538 &  0.2546 & -0.2546 \\
0 & -0.1812 &  0.1812 &  0.3537 & -0.3537 &  0.6139 & -0.6139 \\
0 &  0.4134 & -0.4134 & -0.1040 &  0.1040 &  0.4752 & -0.4752 \\
0 &  0.1890 & -0.1890 &  0.1518 & -0.1518 &  0.4199 & -0.4199 \\
1 &  0.4794 &  0.5206 &  0.5134 &  0.4866 &  0.7402 &  0.2598 \\
0 &  0.0464 & -0.0464 &  0.0303 & -0.0303 &  0.2366 & -0.2366 \\
0 &  0.0288 & -0.0288 & -0.0066 &  0.0066 &  0.2153 & -0.2153 \\
1 &  0.6460 &  0.3540 &  0.5964 &  0.4036 &  0.6870 &  0.3130 \\
0 &  0.1411 & -0.1411 & -0.0549 &  0.0549 & -0.1269 &  0.1269 \\
0 &  0.3672 & -0.3672 &  0.0214 & -0.0214 &  0.0339 & -0.0339 \\
0 & -0.1284 &  0.1284 &  0.1187 & -0.1187 &  0.3442 & -0.3442 \\
0 &  0.1719 & -0.1719 &  0.0457 & -0.0457 & -0.0237 &  0.0237 \\
0 &  0.0802 & -0.0802 & -0.0110 &  0.0110 &  0.1441 & -0.1441 \\
0 & -0.1143 &  0.1143 & -0.0799 &  0.0799 &  0.3207 & -0.3207 \\
0 & -0.0913 &  0.0913 & -0.3704 &  0.3704 & -0.0354 &  0.0354 \\
0 &  0.1884 & -0.1884 &  0.1437 & -0.1437 & -0.1484 &  0.1484 \\
0 &  0.1316 & -0.1316 & -0.1220 &  0.1220 &  0.3596 & -0.3596 \\
0 & -0.0985 &  0.0985 & -0.0368 &  0.0368 &  0.2252 & -0.2252 \\
0 &  0.0663 & -0.0663 & -0.3394 &  0.3394 &  0.3569 & -0.3569 \\
1 &  0.4876 &  0.5124 &  0.4708 &  0.5292 &  0.7245 &  0.2755 \\
0 &  0.0580 & -0.0580 & -0.0105 &  0.0105 &  0.1663 & -0.1663 \\
0 &  0.0397 & -0.0397 & -0.1050 &  0.1050 &  0.0987 & -0.0987 \\
0 & -0.0855 &  0.0855 & -0.0248 &  0.0248 &  0.2880 & -0.2880 \\
0 &  0.2117 & -0.2117 &  0.0842 & -0.0842 &  0.3501 & -0.3501 \\
0 &  0.2291 & -0.2291 &  0.0953 & -0.0953 &  0.1454 & -0.1454 \\
1 &  0.5562 &  0.4438 &  0.6238 &  0.3762 &  0.6130 &  0.3870 \\
0 & -0.2000 &  0.2000 & -0.2171 &  0.2171 &  0.5473 & -0.5473 \\
0 & -0.1353 &  0.1353 & -0.2330 &  0.2330 &  0.2143 & -0.2143 \\
0 & -0.0163 &  0.0163 &  0.1844 & -0.1844 &  0.3822 & -0.3822 \\
0 &  0.0937 & -0.0937 &  0.1817 & -0.1817 &  0.1566 & -0.1566 \\
0 & -0.3140 &  0.3140 & -0.3183 &  0.3183 & -0.0833 &  0.0833 \\
0 &  0.0975 & -0.0975 & -0.1047 &  0.1047 &  0.0701 & -0.0701 \\
0 &  0.0020 & -0.0020 & -0.1580 &  0.1580 &  0.0623 & -0.0623 \\
0 &  0.1642 & -0.1642 &  0.0101 & -0.0101 &  0.0465 & -0.0465 \\
0 & -0.0719 &  0.0719 & -0.4308 &  0.4308 &  0.3329 & -0.3329 \\
0 &  0.2900 & -0.2900 & -0.0417 &  0.0417 &  0.4617 & -0.4617 \\
0 &  0.2546 & -0.2546 & -0.1588 &  0.1588 &  0.3401 & -0.3401 \\
1 &  0.5474 &  0.4526 &  0.5455 &  0.4545 &  0.7007 &  0.2993 \\
   \hline
  
 & \multicolumn{2}{|c|}{ECM=0.0306} & \multicolumn{2}{|c|} {ECM=0.0279} & \multicolumn{2}{|c|} {ECM=0.0375} \\
\hline
\end{longtable}
