Mostramos las matrices devueltas por el algoritmo de Oja en 1000 iteraciones, para las dos matrices iniciales de antes:

$w_{final}^1$=\begin{math}
\left(\begin{array}{cccccc} 
    0.7273 &   0.5501 &  -0.0272 &   0.2498 &   0.3116 &   0.0904\\
   -0.5923 &   0.7967 &  -0.0973 &   0.0365 &  -0.0597 &  -0.0050\\
   -0.2893 &  -0.1463 &   0.5347 &   0.6368 &   0.4206 &   0.1630\\
    0.1370 &   0.2031 &   0.8392 &  -0.4019 &  -0.2518 &  -0.1042
\end{array}
\right)
\end{math}

$w_{final}^2$=\begin{math}
\left(\begin{array}{cccccc} 
   -0.5217 &   0.8145 &   0.0043 &   0.2472 &  -0.0571 &   0.0077\\
   -0.1873 &  -0.2823 &   0.7906 &   0.5071 &  -0.0543 &   0.0036\\
    0.7898 &   0.3548 &  -0.0065 &   0.5002 &   0.0079 &  -0.0035\\
    0.2573 &   0.3617 &   0.6117 &  -0.6545 &   0.0181 &  -0.0063
\end{array}
\right)
\end{math}

Las matrices no parecen estar aproximando a nada y se puede ver que no se extraen las componentes principales. Pero s\'i podemos multiplicar estas matrices por sus traspuestas y ver que dan (aproximadamente) la matriz identidad, es decir que son bases ortonormales, como predice la teor\'ia.

$w_{final}^1\times (w_{final}^1)^t$=\begin{math}
\left(\begin{array}{cccccc} 
    1.0000 &  -0.0003 &   0.0000 &   0.0002\\
   -0.0003 &   1.0000 &  -0.0001 &   0.0004\\
    0.0000 &  -0.0001 &   1.0000 &   0.0003\\
    0.0002 &   0.0004 &   0.0003 &   1.0000
\end{array}
\right)
\end{math}

$w_{final}^2\times (w_{final}^2)^t$=\begin{math}
\left(\begin{array}{cccccc} 

    1.0000 &   0.0001 &  -0.0006 &   0.0003\\
    0.0001 &   1.0000 &   0.0000 &  -0.0001\\
   -0.0006 &   0.0000 &   1.0000 &   0.0006\\
    0.0003 &  -0.0001 &   0.0006 &   1.0000
\end{array}
\right)
\end{math}