\documentclass [10 pts]{article}
\usepackage[utf8]{inputenc}
%\usepackage [latin1] {inputenc}
\usepackage {amsfonts}

\usepackage {graphicx}
%\usepackage{epstopdf}
%\usepackage {epsfig}
\usepackage{epstopdf}
%\usepackage[dvips]{graphicx}            % to include images
%\usepackage{pslatex}


\begin{document}

%\title{\textbf{}}
%\author{}

\title{Red Neuronal aplicada a la generación estocástica del caudales mensuales para el proyecto MULA}
\author{Taymoor Awchi}
\maketitle{}

\section{Resumen ANN stochastic}

\section{Introduccion}

El análisis y sintesis de series temporales es usualmente requerido por los estudios de planeación y gestión de eventos que presentan un fenómeno de persistencia observable como metereológicos, financieros, etc. 
Es muy conocido que la simulación usando unicamente los registros históricos introduce muchas limitaciones. por ejemplo  \cite{loucks2005water} remarca que hay un limitado numero de diseños o estrategias alternativas miestras que las mejores reglas de operación y diseños son obtenidos cuando se prueban una variedad de escenarios generados. 

Por ejemplo, estimar la capacidad de almacenamiento de un sistema de embalses puede ser hecho a partir de la generación sintética de flujos en uno o mas sitios, del mismo modo los estudios de operación de un sistema de embalses pueden requerir la previsión de variables como las precipitaciones o caudales. en general las investigaciones en recursos hídricos pueden involucrar generación de datos y/o previsión no solo de variables hidrológicas sino de otras vinculadas al uso de agua como irrigación, generación electrica, demandas de agua potable. Por lo tanto  la busqueda de un diseño optimo en un projecto de gestión del agua frecuentemente involucra encontrar un metodo o tecnica  que genere largas secuencias de las caracteristicas de los flujos de un río en cuestión. Estas secuencias pueden ser usadas para analizar el desempeño del proyecto diseñado.

\subsection{Marco teórico}
\subsubsection{Redes Neuronales en hidrología}
Una caracteristica atractiva de las redes neuronales es la capacidad de extraer la relación de las entradas y salidas de un proceso, sin conocer explicitamente la naturaleza física de un problema. proveen un mapeado de un espacio multivariado a otro, dando un conjunto de datos que representan el mapeado, aun si los datos son ruidosos y estan contaminados con errores.  	Las redes neuronales son conocidas por identificar reglas ocultas. Estas propiedades sugieren que las ANNs puede ser adaptadas para problemas de estimacion y predicción en hidrología. En muchos aspectos las ANNs son muy similares a los modelos de regresión, exepto porque no requieren una especificación muy formal. Ademas son mas versatiles debido a la libertad disponible respecto a la eleccion del numero de capas ocultas y los nodos asociados a estas capas; las estructuras de las ANNs permiten que la información sea procesada en multiples caminos simultaneamente, ofreciendo oportunidades para implementaciones paralelas.


Muchos modelos para la generación y previsión de caudales anuales y mensuales son usados en el planeamiento de los sistemas de gestión de recursos hídricos, Los mas extendidos incluyen  las siguientes técnicas:
\begin{itemize}
	\item Regresión lineal simple
	\item Regresión lineal multiple
	\item Modelos Autoregresivos (AR)
	\item Modelos de Medias Moviles (ARMA)
	\item Modelos de Medias Moviles con variable exogena (ARMAX)
	\item ARMA y ARMAX con parametros periódicos
\end{itemize}
En todos estos modelos, una relación lineal entre las variables hidrológicas relevantes es asumida. Sin embargo esta relación lineal no siempre da los mejores resultados, y en algunos casos es inadecuado \cite{raman1995multivariate}

Muchos estudios emplean los modelos autoregresivos en la generación y previsión de caudales; los resultados muestran que los modelos de bajo orden reproducen demasiado bien las caracteristicas estadisticas analizadas \cite{salas1985approaches}, asimismo los resultados muestran que los modelos estocásticos de caudales pueden mejorar la precisión de la estimacióm del diseño de la capacidad de los embalses \cite{kjeldsen2004choice}, Peng \cite{peng2000dynamic} muestra que no hay evidencia que los modelos AR(1) multivariados sean inadecuados. Thomas Fiering es un modelo AR1 con coeficientes que varian estacionalmente, un buen ejemplo de este  enfoque.

Estudios iniciales como \cite{brittan1961probability}, \cite{julian1961study}, \cite{thomas1962mathematical}, \cite{beard1967monthly}, \cite{fiering1967streamflow} intentaron describir secuencias de caudales con modelos matematicos los cuales pueden reproducir caracteristicas especiales como la periodicidad y considerar los efectos de la correlación lineal. De estos, la mas importante contribución fue hecha por Thomas y Fiering \cite{thomas1962mathematical}. Ellos proponen que los caudales pueden ser simulados con una relación lineal simple con cuadales previos. 

\subsubsection{Modelo de Thomas y Fiering}
Se basa en la suposición que la correlación entre meses con un retardo mayor a uno es insignificante y que la \textbf{correlación en serie} es lineal, puediendo generar registros artificiales de cualquier longitud. El modelo fue aplicado exitosamente en muchos estudios de generación de series temporales de caudales, precipitación \cite{colston1970technique}, \cite{gangyan2002stochastic}.

\subsubsection{Redes Neuronales}

Muchos estudios desarrollados en la ultima decada han empleado las ANNs para la generación y previsión de variables hidrológicas, ejemplo la previsón de crecidas e inundaciones \cite{}, \cite{}, \cite{}, \cite{}; previsión de lluvia escorrentia \cite{}, \cite{};  predicción de caudales \cite{}, \cite{};  predicción de precipitaciones \cite{}, \cite{};  y generación de \textbf{caudales multivariados} \cite{}, \cite{}.

El artículo \cite{awchi2003artificial}  explora la posibilidad de usar una ANN como un generador de futuros escenarios para el proyecto de irrigación Mula en Maharashtra, India. La ANN presentada es la mas usada en la literatura, esta basada en la muy conocida arquitectura \textbf{feedforward} entrenada con el algoritmo de entrenamiento \emph{Backpropagation}. El modelo tiene un componente deterministico (Determinado usando la ANN) y un segundo componente que incluye un ruido aleatorio normalmente distribuido, el cual toma en cuenta la incertidumbre que afecta tipicamente a los fenómenos hidrológicos. El modelo es aplicado para generar series temporales de caudales mensuales la que a su vez puede ser usada para la operación en tiempo real de los sistemas de gestión de Recursos Hídricos. Se comparan los resultados de la ANN con el modelo de Thomas Fiering.


\section{Procesamiento de datos}
El principio básico en la generación de flujos sintéticos de caudales es, que la población de caudales pueden ser descritos por un \textbf{proceso estocástico estacionario} \cite{awchi2003artificial} \cite{awchi2009analysis}. Entonces un modelo estadístico puede ser montado sobre los caudales históricos para generar los flujos sintéticos. Muchas técnicas estadísticas y de la teoría de probabilidades aplicadas al análisis de series temporales de caudales se desarrollan suponiendo que las variables son normalmente distribuidas; por lo tanto se debe comprobar su normalidad antes del analisis. 
Algunas trasnformaciones son requeridas si no estan distribuidas normalmente, algunos metodos ampliamente usados son la \textbf{transformación logarítmica}, \textbf{\textit{the power transformation}}, y la transformación \textbf{Box-cox}; esta última es usada en los registros históricos, tratando de \textbf{remover  la estacionalidad de la media y la varianza}, en la literatura esta operación es llamada \textbf{estandarización estacional o desestacionalización} , lo que resulta en variables normalmente distribuidas con \textbf{media cero y desviación estandar uno.}

\subsection{Proyecto Mula}
Una conjunto de observaciones mensuales del reservorio desde junio 1972 a 1990 \(18 años\). Una  exploración preliminar de estas observaciones muestran que el \textbf{coeficiente de asimetria } está \textbf{sesgado, inclinado, parcializado}, por lo tanto es necesario una transformación para reducirla proxima a cero. \cite{salas1980applied}

\subsection{Transformación logarítmica para reducir la asimetria de una serie temporal}

\begin{equation}
X_{v,t}=log ( Q_{v,t} + c_t \overline{Q}_t )
\label{eq:}
\end{equation}
 
\begin{equation}
c_t=a/g_{t}^2
\label{eq:}
\end{equation}

Donde:

$Q_{v,t} $ es el caudal de entrada observado (MCM) para el mes $t=1,2,...12$
y el año $v (v=1,..., N)$; $N$ es el número de años registrados de la serie; $\overline{Q}$ es el promedio mensual de caudales para el mes $t$, $a$ es una constante; $g$ es el coeficiente de asimetría para el conjunto $Q_{1,t}, Q_{2,t}, ... Q_{N,t}$ y $X_{v,t}$ son los caudales normalizados para el año $v$ y mes $t$.



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Arquitectura de la Red Neuronal consideracíon}
%Edson Luque
%arquitectura de las redes neuronales artificiales

las redes neuronales est\'an compuestas de elementos simples operando en paralelo. estos elementos son inspirados por el sistema nervioso. como en la naturaleza, la funci\'on de la red es determinada en gran parte por las conexiones entre elementos. Una red neuronal puede ser entrenada para realizar una funci\'on particular mediante el ajuste de los valores de sus conexiones(pesos) entre elementos. com\'unmente las redes neuronales son ajustadas, o entrenadas , de modo que una entrada en particular supone una salida espec\'ifica. tal situaci\'on se encuentra ilustrada en (figura 1), ah\'i la red es ajustada, basada en una comparaci\'on de la salida y el objetivo. hasta que la salida de la red coincida con el objetivo. T\'ipicamente muchas parejas entrada/objetivo son usadas, en el aprendizaje supervisado para entrenar una red. las redes neuronales han sido entrenadas para realizar funciones complejas en varios campos de aplicaci\'on incluyendo : reconocimiento de patrones, identificaci\'on, clasificaci\'on, habla , visi\'on y sistemas de control. hoy en d\'ia las redes neuronales pueden ser entrenadas para resolver problemas que son dif\'iciles para las computadoras convencionales o seres humanos. 

El campo de redes neuronales tiene una historia de al menos 5 d\'ecadas pero ha encontrado solida aplicaci\'on s\'olo en las ultimas dos d\'ecadas, y est\'a a\'un desarroll\'andose r\'apidamente. As\'i , esto es diferente de los campos de sistemas de control u optimizac\'ion donde la terminolog\'ia , matem\'atica b\'asica y dise\~no de procedimientos han sido firmemente establecidos y aplicados por muchos a\~nos. en los 90 , Las ANN han sido usadas satisfactoriamente en \'areas relacionadas de hidrolog\'ia, una revisi\'on detallada se encuentra en (ASCE-TCAANNH,2000).


las Redes Neuronales son inicializadas asignando n\'umeros aleatorios dentro del intervalo (-1,+1) para la interconexi\'on de pesos y definiendo los par\'ametros de la funci\'on sigmoide de las  capas , escondida y salida. tambi\'en una taza de aprendizaje $\mu$ es seleccionada,  controla el cambio incremental en la interconexi\'on de pesos durante un entrenamiento iterativo como un porcentaje de la diferencia entre la salida deseada y la salida calculada por red neuronal. El entrenamiento de la NN es realizado proporcionando entradas para el modelo, calculando las salidas y ajustando las interconexiones de pesos hasta que la salida desea sea alcanzada.

El m\'etodo de entrenamiento usado en este trabajo es conocido como back propagation; esta es una t\'ecnica iterativa com\'unmente usada para aprendizaje de redes neuronales(Franch et al., 1992; Smith and Eli, 1995; jain et al., 1999; LIong et al., 2000) , recientes estudios han demostrado que una ANN de tres capas feedforward usando funciones de transferencia sigmoides puede implementar cualquier funci\'on multivariable de mapeo continua y limitada(Hsu et al., 1995).

\begin{figure}[ht]
  
    \includegraphics[width=\columnwidth ]{image5.jpeg}
  \caption{Supervised neural network structure}
  \label{fig:ejemplo}
\end{figure}



\subsection{Redes Neuronales Feedforward}

la arquitectura de una red neuronal feedforward (figura 2) se refiere a su estructura como a su esquema de interconexi\'on. la estructura es especificada por el n\'umero de capas y el n\'umero de nodos por capas. los tipos de capas pueden ser: la capa de entrada: en esta capa los nodos son llamados unidades de entrada, que codifican la instancia presentada a la red para procesarla, por ejemplo, cada unidad de entrada puede ser designada por un valor atributo. La capa escondida: los nodos en esta son llamados unidades escondidas, que no son directamente observables. ellos proporcionan no linealidad a la red,  y la capa de salida: los nodos en esta son llamados unidades de salida, que codifica posibles valores a ser asignados a las instancias bajo consideraci\'on. por ejemplo, cada unidad de salida representa una clase de un objeto. Las unidades de entrada no procesan informaci\'on , ellos simplemente distribuyen informaci\'on para otras unidades.



\begin{figure}[ht]
  
    \includegraphics[width=\columnwidth ]{net.png}
  \caption{Mi Feedforward neural network computational model}
  \label{fig:ejemplo}
\end{figure}


El n\'umero de capas escondidas requeridas es mucho mas dif\'icil de determinar ya que no existe una metodolog\'ia general para esta determinaci\'on. as\'i, la arquitectura de la red es determinada despu\'es de un procedimiento de prueba y error. si la arquitectura es muy peque\~na, la red podr\'ia no tener un grado suficiente de libertad para aprender el proceso correctamente. por otro lado si la red es muy larga, no podr\'ia converger durante el entrenamiento o podr\'ia sobre ajustar los datos. El trabajo es empezar con solo una neurona en la capa oculta. Entonces la prueba (ensayo ) se lleva acabo con mas neuronas. a menudo los valores de MSE son usados como \'indices para verificar la habilidad de una arquitectura en particular.

la inicializaci\'on de pesos, y valores threshold son de importante consideraci\'on, cuanto m\'as cerca del valor inicial es el espacio \'optimo de pesos, mas r\'apido es el proceso de entrenamiento. Sin embargo , no hay manera de establecer valores de pesos iniciales buenos, y ellos son iniciados de manera aleatoria, usualmente , pesos aleatorios peque\~nos son sugeridos.

los pesos de conexi\'on pueden ser n\'umeros reales o enteros, pueden ser reducidos a un rango. y son ajustados durante el entrenamiento de la red, pero algunos pueden ser fijados deliberadamente. cuando el entrenamiento es completado, todos los valores ser\'an fijados.

los niveles de activaci\'on de nodos pueden ser discretos (por ejemplo 0 y 1 ) o continuos atraves de un rango(por ejemplo [0,1]) o sin restricci\'on. esto depende de la funci\'on de activaci\'on escogida. si es una funci\'on hard-limiting , entonces los niveles de activaci\'on son 0 ( \'o -1) y 1. para una funci\'on sigmoide, los niveles de activaci\'on estan limitados para un rango continuo  de reales [0,1]. la funci\'on sigmoide $f$ puede ser escrita como: 


\begin{equation}
F(x)=\frac{1}{1+e^{-x}}
\end{equation}

En el caso de una funci\'on de activaci\'on lineal , los niveles de activaci\'on son libres.

Demuth y Beale (2001) reportaron que las redes feedforward a menudo tienen uno o m\'as capas escondidas de neuronas sigmoides  seguidas por una capa de salida de neuronas lineales. M\'ultiples capas de neuronas con funciones de transferencia no lineal permiten a la red aprender relaciones lineales y no lineales entre los vectores de entrada y salida. la capa de salida lineal permite a la red producir valores fuera del rango de -1 a +1. Una funci\'on tan-sigmoid cuando es usada como funci\'on de activaci\'on para producir vectores de salida en el rango of [-1,+1] puede ser escrita como:
 
\begin{equation}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
F(x)= \frac{2}{1+e^{-x}} - 1
\end{equation}

adem\'as . las funciones de activaci\'on lineal que son empleadas para la capa de salida, pueden ser escritas como:

\begin{equation}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
F(x)=x
\end{equation}

\subsection{Algoritmo de Entrenamiento Backpropagation}

la red backpropagation es probablemente la m\'as conocida y ampliamente usada entre   los actuales tipos de sistemas de redes neuronales disponibles. la regla de aprendizaje es conocida como backpropagation, que es una t\'ecnica de tipo gradiente descendiente con propagaci\'on del error hacia atr\'as. La instancia de entrenamiento establecida para la red debe ser presentado muchas veces con el fin de establecer los pesos  de las interconexiones entre las neuronas en un estado de correcta clasificaci\'on de patrones de entrada. Mientras que la red puede reconocer patrones similares a aquellos que han sido aprendidos,no tiene la habilidad para reconocer nuevos patrones, esto se cumple para todas las redes con aprendizaje supervisado. con el fin de reconocer nuevos patrones, la red necesita conservar estos patrones con los patrones previamente conocidos. si solo nuevos patrones son proporcionados para el entrenamiento, entonces los antiguos patrones pueden ser olvidados. de esta manera, el aprendizaje es no incremental con el tiempo. Esta es la mayor limitaci\'on para las redes de aprendizaje supervisado. otra limitaci\'on es que las redes backpropagation son propensas a un m\'inimo local , al igual que cualquier algoritmo de gradiente descendiente.

El algoritmo backpropagation involucra 2 pasos. El primero es un paso adelantado, en  el que el efecto de las entradas se hace pasar hacia adelante atrav\'es de la red para alcanzar la capa de salida, despu\'es el error es calculado, como segundo paso comienza hacia atr\'as atraves de la red. el error en la capa de salida es propagado hacia atr\'as a la capa de entrada modificando los pesos de acuerdo a la ecuaci\'on. 12. Backpropagation es un m\'etodo de primer orden basado en gradiente descendente.  con el vector direcci\'on siendo igual al negativo del vector gradiente. consecuentemente , la soluci\'on a menudo sigue un camino en zigzag mientras trata de alcanzar una posici\'on de m\'inimo error, que podr\'ia ralentizar el proceso de entrenamiento. Tambi\'en es posible que el  proceso de entrenamiento  quedé atrapado en un m\'inimo local a pesar de el uso de un rango de aprendizaje. 

La red backpropagation en esencia aprende a mapear los patrones de entrada (e. caracter\'isticas ) para un conjunto de patrones de salida(e.g informaci\'on de clases) . La red puede ser dise\~nada y entrenada para conseguir una variedad amplia de mapas, esta habilidad viene de los nodos en la capa escondida o capas de la red que aprenden a responder a caracter\'isticas encontradas en los patrones de entrada.  Como la red es entrenada con diferentes ejemplos. la red tiene la habilidad de generalizar caracter\'isticas similares encontradas en diferentes patrones. el principal problema es que las unidades escondidas deben de ser entrenadas para extraer un conjunto de caracter\'isticas generales suficientemente aplicables para ambas instancias observadas y no observadas. para alcanzar esta meta primero, la red no debe ser sobre entrenada, sobre entrenar la red har\'ia que la red memorice las entradas y salidas en lugar de ajustarse para todos los casos. Para prevenir este indeseable efecto. una manera es terminar el entrenamiento una vez estabilizado el desempe\~no. otra manera es reducir la red, creando un cuello de botella entre las capas de entrada y salida. el cuello de botella forzar\'a a la red aprender de manera mas general.

El algoritmo backpropagation puede ser formulado como sigue:

-Establecer todos los pesos y nodos con n\'umeros peque\~nos aleatorios
-La estimaci\'on de un nivel de activaci\'on $O_{j}$ de las unidades escondidas y de salida, son determinadas usando las ecuaciones. 10 y 11.
-Empezando en las unidades de salida y  trabajando hacia atr\'as por las capas escondidas recursivamente. Ajustando pesos por: 

\begin{equation}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
W_{j,i}(t+1)=W_{j,i}(t)+\triangle W_{j,i}
\end{equation}

Donde $W_{j,i}(t)$ es el peso de la unidad $i$ a la unidad $j$ en el tiempo $t$ (o %t^{th}% iteraci\'on) y $\triangle W_{j,i}$ es el peso de ajuste.

-Calculando la variac\'ion de peso :

\begin{equation}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
\triangle W_{j,i}=\eta\delta_{j}O_{i}
\end{equation}

Donde $\eta$ es la taza de aprendizaje $(0<\eta <1)$ y $\delta_{j}$ es el gradiente de error de la unidad $j$ . la convergencia es algunas veces msd rapida agregando un termino momentun $\alpha$:
 
\begin{equation}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
W_{j,i}(t+1)=W_{j,i}(t)+\eta\delta_{j}O_{i}+\alpha_{j,i}(t)-W_{j,i}(t-1)]
\end{equation}

Donde $0< \alpha <1$

El error gradiente es dado por:

- para las unidades de salida:
\begin{equation}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
\delta_{j}=O_{j}(1-O_{j})(T_{j}-O_{j})
\end{equation}

donde $T_{j}$ es la salida de activacion objetivo y $O_{j}$  es la salida de activaci\'on actual de la unidad de salida $j$.

-para las unidades escondidas :

\begin{equation}
\delta_{j} = O_{j}(1-O_{j}) \sum_{k} \delta_{k}W_{k,j}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
\end{equation}

Donde $\delta_{k}$  es el error gradiente en la unidad $k$ con puntos de conexi\'on de la unidad escondida $j$. 

-Repetir \'epocas hasta converger en terminos de la funci\'on de desempe\~no , una iteracion incluye una instancia, calcular activaciones, y modificar pesos. la funci\'on t\'ipica de desempe\~no  usada para entrenar redes neuronales feedforward es la media de la suma de cuadrados de los errores de la red:


\begin{equation}
mse = \frac{1}{N}\sum_{j=1}^{N} (T_{j}-O_{j})^{2}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
\end{equation}

mas detalles pueden ser encontrados en haykin(1994) and FU(1994)

\subsection{Algoritmo de entrenamiento Levenberg-Marquardt }

Es uno de los mas r\'apidos algoritmos de convergencia y es altamente recomendado para peque\~nas y medianas redes. que contienen varios cientos de conexiones . el algoritmo fue dise\~nado en un enfoque de segundo orden sin haber calculado la matriz hessiana. Cuando la funci\'on de desempe\~no tiene la forma de una suma de cuadrados(como es t\'ipico en redes feedforward ), entonces la matriz hessiana puede ser aproximada como $H=J^{T}J$ y la gradiente puede ser calculada como $g=J^{t}$; donde $J$ es la matriz jacobiana, que contiene las primeras derivadas del error de la red con respecto a los pesos y bias. y $e$ es un vector de errores de la red. La matriz jacobiana puede ser calculada atraves de una t\'ecnica de backpropagation estandar que es menos compleja que calcular la matriz hessiana.
 
el algoritmo Levenberg-Marquardt usa esta aproximaci\'on para la matriz hessiana siguiendo la actualizaci\'on newton-like.

\begin{equation}
%X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
x_{k+1} = x_{k}-[J^{T}J + \mu I]^{-1}J^{T}e
\end{equation}


Cuando el escalar $\mu$ es cero , esto es el metodo de newton , usando la matriz hessiana aproximada, cuando $\mu$ es larga, llega a ser gradiente descendente con un tama\~no  peque\~no de paso. El m\'etodo de newton es r\'apido y mas preciso cerca de un m\'inimo error, as\'i el objetivo es desplazarse hacia el m\'etodo de newton lo mas r\'apido posible. por lo tanto, $\mu$ es decrementado despues de cada paso(reducci\'on en la funci\'on de desempe\~no ) y es incrementada s\'olo cuando un paso podr\'ia incrementar la funci\'on de desempe\~no , de esta manera la funci\'on de desempe\~no siempre ser\'a reducida en cada iteraci\'on del algoritmo, este algoritmo es recomendado para m\'as situaciones.



\section{Generaci\'{o}n de datos de precipitaci\'on usando modelos de redes neuronales con componentes aleatorios}

El esquema propuesto es un modelo mixed stochastic determin\'{i}stico  para la generaci\'{o}n de datos artificiales hidrol\'{o}gicos, en t\'{e}rminos de series mensuales de afluencia usando un modelo basado en ANN . El modelo consiste de dos componentes, el primero es la misma parte estoc\'{a}stica del modelo de Thomas-Fiering, ( 6 y 8 ) que han sido discutidas  tempranamente. El segundo componente $Y_{v,t}^{d}$ es el componente determin\'{i}stico que es representado por la arquitectura de la ANN. Los dos componentes han de ser recogidos sobre series estandarizadas y normalizadas. Consecuentemente la red neuronal necesita primero ser escalada. La forma final del modelo puede ser resumido como la suma de ambos componentes dado por :
\begin{equation}
Q_{v,t}=f(Y_{v,t}^d + R_{v,t})
\end{equation}

Donde $Q_{v,t}$ es el valor artificial producido por el modelo, $Y_{v,t}^d$ son los valores producidos por el esquema  ANN, y $R_{v,t}$ es el componente estoc\'{a}stico correspondiente dado por las ecuaciones (6 y 8). La funci\'{o}n $f$ representa la inversa de las operaciones de pre procesamiento, definida por las ecuaciones (1) y (3) respectivamente, esto es : 
\begin{equation}
X_{v,t}=(Y_{v,t}^d + R_{v,t})S_{t} + \overline{X}_{t}
\end{equation}
\begin{equation}
Q_{v,t}=10^d_{v,t} - c_{t}\overline{Q}_{t}
\end{equation}
Dos arquitecturas de redes neuronales son preparadas, el primer modelo (ANN1) genera 
entradas para el presente mes utilizando la  afluencia del mes pasado , el segundo modelo ( ANN2) genera la afluencia del presente mes utilizando afluencias de los dos meses previos. 

una arquitectura de 3 capas , feedforward es adoptada, y  funciones  sigmoidales fueron 
usadas como funciones de activaci\'{o}n  para que la salida se encuentre en el rango de $[-1,+1]$. Adem\'{a}s funciones de activaci\'{o}n lineal son empleadas para la capa de salida. para las series de tiempo bajo consideraci\'{o}n, el n\'{u}mero de nodos de entradas y salidas de la 
red  son asignados de tal manera que los valores objetivo que han de ser previstos  son 
afluencias del siguiente mes. el n\'{u}mero de nodos en la capa escondida fueron decididos 
por procedimiento de prueba y error. se empez\'{o} con un n\'{u}mero peque\~{n}o  de nodos,   
entonces este n\'{u}mero fue incrementado y cada cambio en el n\'{u}mero de nodos fue seguido por el entrenamiento de la red hasta no detectar una mejora significativa en su desempe\~ {n}o,as\'{i} el n\'{u}mero de nodos fue establecido. 

Para el dise\~{n}o y entrenamiento del algoritmo Levenberg-marquardt, la toolbox Network Neural  , version 4.0 fue empleada. esta toolbox tiene muchos algoritmos de entrenamiento feedforward, backpropagation.


\section{Evaluación de performance de los modelos}

Habiendo determinado los parametros del modelo, son necesarias pruebas con el fin de ver si el modelo a sido mal especificado y buscar mejoras, las pruebas pueden incluir la implementación del modelo así como un test de robustes de el modelo. un test de robustes puede ser aplicado para verificar si el modelo preserva propiedades no parametrizadas en el modelo, e.g., coeficiente Hurst,caracteristicas de sequia, etc. \cite{salas1985approaches}. 

Los modelos son contruidos para reproducir o parecerse a las principales características estadísticas de la serie temporal historica. Tal reproducción o semejanza se entiende que es en el sentido estadístico. Esto no quiere decir que una serie generada basada en el modelo tiene que tener exactamente las mismas características estadísticas como se muestra en el registro histórico. Por desgracia, no es fácil saber qué características estadísticas deben ser reproducidos por el modelo y cómo estas características deben ser interpretados. Esto se atribuye principalmente al hecho de que las series hidrologicas son representadas  en muestras anuales, y las verdaderas características estadísticas de población no son conocidas. Otro problema es la definición y la interpretación de las características estadísticas derivadas de la muestra. Por lo general, la media y la desviación estándar son las características de menos incerteza. Por el contrario, la asimetría es muy incierta y su importancia depende de la aplicación de la serie hidrológica generada. Del mismo modo, la autocorrelación es muy incierta, especialmente para pequeños tamaños de muestra.


\cite{salas1980applied} presenta una técnica para ser utilizado en la comparación de las características estadísticas derivadas de la
serie y los datos históricos generados. Esta técnica depende de la estimación de los limites globales máximos y  mínimos para cada característica estadística (es decir, media, desviación estándar, coeficiente de asimetría,coeficiente de correlación constante o periódica, etc) que se obtiene a partir de los datos de las series generadas, para comparar estos límites con las características estadísticas de la data histórica, si la característica histórica cae dentro de estos límites, esto significa que el modelo conserva la característica estadística histórica.
\bibliographystyle{acm}
\bibliography{biblio}


\end{document}
