\mychapter{Sistema de Inferência}
\label{cap:sist_inf}
Neste capítulo serão mostrados detalhes de algumas ferramentas que foram
utilizadas para a composição do sistema de inferência, tais como as redes
neurais artificiais e análise de componentes principais.

Em seguida a atenção será voltada para o modelo utilizado para a identificação
da dinâmica do processo. Através desse procedimento de identificação será
possível realizar as inferências das frações molares do propano no gás residual
e do etano e pentano no GLP.

A parte final do capítulo mostrará em detalhes quais foram as estruturas
escolhidas para a coleta de resultados descrevendo o porque da utilização de
cada uma delas.

% ------------------------------------------------------------------------------
\section{Redes neurais artificiais}
Segundo \citeasnoun{haykin:2000}, as redes neurais artificiais (RNAs) são
estruturas paralelas, maciçamente distribuídas, constituídas por unidades
simples de processamento conhecida como neurônios. Essas estruturas se
assemelham ao cérebro humano devido a sua capacidade de ``adquirir
conhecimento'' a partir do ambiente em que se encontra. Esse aprendizado ocorre
através de um ajuste das forças de conexões, ou pesos sinápticos, que existe
entre os neurônios. São essas conexões que armazenam os conhecimentos adquiridos
pela rede.

\Glossary{RNA}{Rede Neural Artificial}

Dentre as diversas aplicações das RNAs, podem ser citados exemplos para a
classificação de padrões, filtragem de sinais, análise de imagens e
controle/identificação de sistemas dinâmicos. Dentre as justificativas de
utilização dessas estruturas citadas por \citeasnoun{haykin:2000}, destacam-se:
sua característica intrínseca de não-linearidade, sua capacidade de
generalização e adaptabilidade, a tolerância à falhas e a facilidade para
realizar o mapeamento de relações entrada-saída.

Devido a grande complexidade existente em muitos problemas físicos reais,
desenvolver um modelo matemático que represente adequadamente a dinâmica do
processo é uma tarefa praticamente impossível. Para \citeasnoun{linhares:2008a},
as RNAs, através de seu processo de aprendizagem e de sua capacidade de
aproximação universal, conseguem representar a função correspondente à dinâmica
do sistema com relativa simplicidade.

Essa capacidade de identificação se assemelha a funcionalidade de um sistema de
inferência, que nada mais é do que um modelo capaz de reproduzir as relações
dinâmicas entre variáveis secundárias e primárias.

Diversas são as arquiteturas de redes neurais existentes, tais como: as redes de
funções de base radial, as redes de Kohonen, máquinas de vetor de suporte, entre
outras \cite{linhares:2009}. Neste trabalho será utilizada a arquitetura de
perceptron de múltiplas camadas (PMC), que já vem sendo aplicada com sucesso em
diversos trabalhos realizados na área de inferência, como mostrado em
\citeasnoun{bawazeer:1997}, \citeasnoun{bo:2003} e \citeasnoun{fortuna:2005}. A
figura \ref{fig:pmc} representa um modelo esquemático dessa arquitetura. 

\Glossary{PMC}{Perceptron de Múltiplas Camadas}

\begin{figure}[htb]
\centering
\includegraphics[width=0.6\textwidth]{imgs/sist_inf/eps/pmc}
\caption{Rede PMC totalmente conectada de duas camadas.}
\label{fig:pmc}
\end{figure}

Segundo \citeasnoun{norgaard:2000}, uma rede PMC básica possui seus neurônios
dispostos em camadas recebendo como entrada as saídas dos neurônios da camada
imediatamente anterior ou, no caso da primeira camada, as entradas da rede. Por
possuir essa configuração essas redes são conhecidas como redes {\it
feedforward}.

Como mostrado na figura \ref{fig:pmc}, a segunda camada é conhecida como camada
de saída, pois produz as saídas da rede neral. A primeira camada é conhecida
como camada oculta ou intermediária por estar ``escondida'' entre as entradas da
rede ($\phi_1$, $\phi_2$ e $\phi_3$) e a camada de saída. Em
\citeasnoun{cybenko:1989} foi demonstrado que qualquer função contínua pode ser
aproximada por uma rede neural PMC que possua uma camada oculta com funções de
ativação sigmoidal ou tangente hiperbólica.

A equação \ref{eq:func_rede_pmc} expressa matematicamente o funcionamento de uma
rede neural PMC em que $\delta_i$ representa a saída $i$ da rede.

\begin{equation}\label{eq:func_rede_pmc}
\delta_i(t) = g_i[\phi,\theta] =
              F_i\colchete{\sum_{j=1}^{n_h}\rho_{i,j}f_j
              \parent{\sum_{l=1}^{n_\phi}\omega_{j,l}\phi_l+\omega_{j,0}}+
              \rho_{i,0}}
\end{equation}

\Glossary{$\delta_i$}{$i$-ésima saída da rede neural}
\Glossary{$\phi$}{Vetor de entradas da rede neural}
\Glossary{$\phi_l$}{$l$-ésima entrada da rede neural}
\Glossary{$\theta$}{Vetor de parâmetros ajustáveis da rede neural}
\Glossary{$F$, $f$}{Funções de ativação dos neurônios da rede neural}
\Glossary{$\rho$}{{\it biases}}
\Glossary{$\rho_{i,j}$}{{\it biases} que partem da camada $j$ e chegam na camada
                        $i$}
\Glossary{$\omega_{j,l}$}{Peso sináptico que parte do neurônio $l$ e chega no
                          neurônio $j$}
\Glossary{$n_h$}{Número de neurônios da camada oculta}
\Glossary{$n_\phi$}{Número de entradas da rede}

O vetor de parâmetros $\theta$ contém os pesos sinápticos e {\it biases}
($\omega_{j,l}$, $\rho_{i,j}$). Os neurônios da camada escondida e o número de
entradas da rede são, respectivamente, $n_h$ e $n_\phi$, enquanto que $F_i$ e
$f_j$ são as funções de ativação dos neurônios das camadas de saída e escondida,
respectivamente. As funções de ativação utilizadas são mostradas nas equações
\ref{eq:lin}, \ref{eq:sig} e \ref{eq:tan}.

\begin{equation}
\label{eq:lin}
f_l(x)=x \\
\end{equation} 

\Glossary{$f_l$}{Função de ativação linear}

\begin{equation}
\label{eq:sig}
f_s(x) = \frac{1}{1+e^{-x}}\\
\end{equation} 

\Glossary{$f_s$}{Função de ativação sigmoidal}

\begin{equation}
\label{eq:tan}
f_t(x) = {\sf tanh}(x) = \frac{1-e^{-x}}{1+e^{-x}}\\
\end{equation}

\Glossary{$f_t$}{Função de ativação tangente hiperbólica}

% ------------------------------------------------------------------------------
\subsection{Identificação através de modelo neural}
\label{sec:ident_mod_neural}
Segundo \citeasnoun{linhares:2009}, a realização de inferência utilizando RNAs
pode ser vista como um problema de identificação, uma vez que a rede neural
treinada deve ser capaz de representar, satisfatoriamente, a dinâmica existente
entre as variáveis secundárias e primárias do processo.

As estruturas de modelo baseadas em rede neural apropriadas para a identificação
de sistemas não-lineares, são generalizações de modelos lineares. Para
\citeasnoun{lucena:2005}, essas estruturas são caracterizadas por seu vetor de
regressão, que nada mais é do que um vetor que contém as variáveis utilizadas
para estimar a saída do sistema. Dependendo da escolha do vetor de regressão,
diferentes estruturas de modelo neural podem surgir. Estruturas FIR ({\it Finite
Impulse Response}), ARX ({\it AutoRegressive eXternal input}), ARMAX ({\it
AutoRegressive Moving Average eXternal input}), OE ({\it Output Error}) e SSIF
({\it State Space Innovations Form}) são algumas das estruturas lineares mais
conhecidas. Se o vetor de regressão for selecionado para modelos ARX, a
estrutura do modelo será chamada NNARX ({\it Neural Network ARX}). Do mesmo
modo, existirão também modelos NNFIR, NNARMAX, NNOE e NNSSIF.

\Glossary{FIR}{{\it Finite Impulse Response}}
\Glossary{ARX}{{\it AutoRegressive eXternal Input}}
\Glossary{ARMAX}{{\it AutoRegressive Moving Average eXternal input}}
\Glossary{OE}{{\it Output Error}}
\Glossary{SSIF}{{\it State Space Innovations Form}}
\Glossary{NNARX}{{\it Neural Network AutoRegressive eXternal Input}}
\Glossary{NNARMAX}{{\it Neural Network AutoRegressive Moving Average eXternal input}}
\Glossary{NNOE}{{\it Neural Network Output Error}}
\Glossary{NNSSIF}{{\it Neural Network State Space Innovations Form}}

Neste trabalho foi utilizado um modelo de rede baseado no NNARX descrito em
\citeasnoun{norgaard:2000}. A figura \ref{fig:nnarx} representa um esquema
simplificado do modelo adotado. A presença de regressores no modelo, relaciona a
saída da rede com seus valores passados de entrada e saída. A utilização desses
regressores é de fundamental importância para a identificação de sistemas.

\begin{figure}[htb]
\centering
\includegraphics[width=0.45\textwidth]{imgs/sist_inf/eps/nnarx}
\caption{Esquema de uma rede neural com estrutura NNARX.}
\label{fig:nnarx}
\end{figure}

\Glossary{$y$}{Saída da planta}
\Glossary{$u$}{Entrada da planta}
\Glossary{$d$}{Atraso de transporte}

A expressão matemática que descreve o modelo não-linear pode ser descrita como
representado na equação \ref{eq:modelo_nnarx}.

\begin{equation}
\label{eq:modelo_nnarx}
\widehat{y}(t) = f\parent{y(t-1), \ldots, y(t-n), u(t-d), \ldots, u(t-d-m)}
\end{equation}

\Glossary{$\widehat{y}(t)$}{Saída estimada pela rede neural}
\Glossary{$n$}{Ordem de saída}
\Glossary{$m$}{Ordem de entrada}

Nessa equação $\widehat{y}$ representa a saída estimada, $d$ o atraso de
transporte, $n$ a ordem da saída, $m$ a ordem de entrada da planta, $f(.)$ uma
função não linear mapeada pela rede neural, $y$ a saída da planta e $u$ a
entrada da planta.

A estimativa gerada pela estrutura NNARX é sempre estável, uma vez que
representa relações puramente algébricas entre a estimativa e as medições
passadas de entradas e saídas do processos, não existindo a realimentação da
saída estimada.

Entretanto, como falado no final capítulo \ref{cap:processamento}, as medições
das frações molares das variáveis de interesse nem sempre estão disponíveis,
pois os cromatógrafos apresentam longos intervalos de medição. Assim, se a
estrutura original do NNARX fosse mantida, não seria possível reduzir o período
de medição do cromatógrafo. Com o intuito de contornar esse problema, os valores
passados estimados pelo próprio modelo são também utilizados como entrada da
RNA. Esse fato pode fazer com que o sistema se torne instável ao longo do tempo,
fornecendo estimativas das frações molares que divergem cada vez mais de seus
valores reais. Em \citeasnoun{linhares:2009} é proposto um sistema de correção
do erro em tempo real baseado nas medições periódicas dos cromatógrafos de linha
presentes no processo.

% ------------------------------------------------------------------------------
\subsection{Determinação da ordem do modelo}
\label{sec:det_ordem}
Em sistemas de identificação {\it blackbox}, como o utilizado neste trabalho, é
de fundamental importância que a ordem do modelo seja determinada adequadamente.
Uma escolha inadequada poderá fazer com que a dinâmica do processo não seja
assimilada pela rede neural de inferência, fazendo com que as estimativas
geradas possuam erro médio consideravelmente alto. Segundo
\citeasnoun{arruda:2003}, existe uma ordem de modelo ótima que permite obter o
menor erro entre o modelo estimado e o sistema real.

A ordem de entrada ($m$) e de saída ($n$) de um sistema desse tipo pode ser
obtida a partir da realização de testes ou simulações com o processo. Por
facilidade de representação, considerar-se-á a ordem de entrada igual a ordem de
saída ($m = n$). No capítulo \ref{cap:resultados} poderão ser vistos alguns
resultados dos testes que foram realizados para a determinação da ordem do
sistema proposto.

% ------------------------------------------------------------------------------
\subsection{Seleção do modelo}
Existem diversas estruturas de modelagem, cada uma com suas vantagens e
desvantagens. Segundo \citeasnoun{norgaard:2000}, o problema da seleção das
estruturas pode ser dividido em duas partes. A primeira delas é a parte da
seleção da ``família'' de estruturas de modelagem. Dependendo do sistema, as
estruturas podem ser: modelos lineares, redes PMC, redes de função de base
radial, {\it wavelets} etc. Já a segunda, é a parte da seleção do subconjunto da
família escolhida.

Resumidamente, após a seleção da estrutura, segue-se uma sequência etapas até
que o modelo possa representar adequadamente o sistema, de acordo com algum
critério específico, como por exemplo, o erro médio quadrático (EMQ) de
estimativa, que é calculado a partir da equação \ref{eq:emq} e utilizado no
algoritmo de treinamento da RNA para determinar o ponto de parada (fim do
treinamento).

\Glossary{EMQ}{Erro Médio Quadrático}

\begin{equation}\label{eq:emq}
\textsf{EMQ} = \sqrt{\frac{1}{N}
               \sum_{i=1}^{N}\pfrac{y_i - \widehat{y_i}}{y_i}^2}
\end{equation}

Nessa equação, $N$ representa o número de amostras de validação, $y_i$ o valor
real e $\widehat{y_i}$ o valor estimado.

\Glossary{$N$}{Número de amostras de validação}
\Glossary{$y_i$}{$i$-ésimo valor real de saída da planta}
\Glossary{$\widehat{y_i}$}{$i$-ésimo valor estimado pelo sistema}

% ------------------------------------------------------------------------------
\section{Análise de componentes principais}
Segundo \citeasnoun{jolliffe:2002}, a análise de componentes principais (ACP) é,
provavelmente, a mais antiga e conhecida técnica de análise de dados
multivariáveis. Introduzida por \citeasnoun{pearson:1901} e desenvolvida
independentemente por \citeasnoun{hotelling:1933}, essa técnica só passou a ser
largamente utilizada com o advento dos computadores, possuindo uma grande
variedade de aplicações, tais como: compressão de dados, processamento de
imagens, reconhecimento de padrões, entre outras.

\Glossary{ACP}{Análise de Componentes Principais}

Para \citeasnoun{kano:2001}, as técnicas de ACP e mínimos quadrados parciais
(MQP) vem sendo largamente utilizadas na modelagem, monitoramento e controle de
processos quimiométricos, uma vez que podem lidar, sem problemas, com variáveis
de entrada correlacionadas.

\Glossary{MQP}{Mínimos Quadrados Parciais}

De acordo com \citeasnoun{warne:2004}, o objetivo principal da ACP é o de
reduzir a dimensão de um conjunto de dados constituído por um grande número de
variáveis inter-relacionadas, tentando manter, tanto quanto possível, a variação
do conjunto de dados originais.

Como mostrado em \citeasnoun{mingoti:2005}, essa redução é feita ao se mapear um
sistema composto por $p$ variáveis em $k$ combinações lineares ($k < p$) não
correlacionadas, chamadas de componentes principais. Através desse mapeamento, o
sistema de variabilidade do vetor aleatório composto das $p$ variáveis originais
pode ser aproximado pelo sistema de variabilidade do vetor aleatório que contém
as $k$ componentes principais. A qualidade dessa aproximação pode ser medida a
partir da proporção da variância total das variáveis mantidas no sistema.

\Glossary{$p$}{Número de variáveis do sistema original}
\Glossary{$k$}{Número de componentes principais}

As $k$ componentes principais que representarão o sistema podem ser obtidas
através da matriz de covariância ou de correlação. A opção por uma dessas duas
matrizes normalmente é feita de acordo com a discrepância causada pelas
diferentes unidades de medida das variáveis do sistema. Nos casos em que as
componentes principais obtidas são influenciadas pelas variáveis de maior
variância, costuma-se utilizar a matriz de correlação à matriz de covariância.
No entanto, o procedimento para obter as componentes principais é semelhante
para ambos os casos.

\subsection{As componentes principais}
Seja ${\bf X} = ($\sequencia{\bf X}{1}{2}{p}$)'$ um vetor aleatório, com vetor
de médias ${\bf \mu} = ($\sequencia{\mu}{1}{2}{p}$)'$ e matriz de covariância
$\sum_{p{\sf x}p}{}$, com respectivos autovetores normalizados \sequencia{\bf
e}{1}{2}{p}, isto é, os autovetores ${\bf e_i}$ satisfazem as seguintes
condições:

\Glossary{${\bf X}$}{Vetor aleatório composto por $p$ variáveis aleatórias} 
\Glossary{${\bf \mu}$}{Vetor de médias de ${\bf X}$}
\Glossary{$\sum_{p{\sf x}p}$}{Matriz de covariância de ${\bf X}$}
\Glossary{${\bf e_i}$}{$i$-ésimo autovetor normalizado de ${\bf X}$}

\begin{enumerate}
    \item ${\bf e_i}'{\bf e_j} = 0$ para todo $i \neq j$
    \item ${\bf e_i}'{\bf e_i} = 1$ para todo $i = 1,\ 2,\ \ldots,\ p$
    \item $\sum_{p{\sf x}p}{} {\bf e_i} = \lambda_i\ {\bf e_i}$ para todo
          $i = 1,\ 2,\ \ldots,\ p$
\end{enumerate}

sendo o autovetor ${\bf e_i}$ denotado por ${\bf e_i} =
($\sequencia{e}{i1}{i2}{ip}$)'$. Considere o vetor aleatório ${\bf Y} = {\bf
O}'{\bf X}$, em que ${\bf O}_{p{\sf x}p}$ é a matriz ortogonal de dimensão
$p{\sf x}p$, constituída dos autovetores normalizados da matriz $\sum_{p{\sf
x}p}{}$, isto é,

\Glossary{${\bf O}$}{Matriz ortogonal de dimensão $p{\sf x}p$ constituída dos
                     autovetores normalizados de $\sum_{p{\sf x}p}$}
\Glossary{${\bf Y}$}{Vetor aleatório composto por $p$ combinações lineares das
                     variáveis aleatórias de ${\bf X}$}

\begin{equation}
{\bf O}_{p{\sf x}p} = \colchete{
\begin{array}{cccc}
e_{11} & e_{21} & \ldots & e_{p1}\\
e_{12} & e_{22} & \ldots & e_{p2}\\
\vdots & \vdots & \ddots & \vdots\\
e_{1p} & e_{2p} & \ldots & e_{pp}
\end{array}
}
\end{equation}

Sendo assim, pode-se dizer que ${\bf Y}$ é um vetor composto por $p$ combinações
lineares das variáveis aleatórias do vetor ${\bf X}$, que possui vetor de médias
${\bf \mu_y} = {\bf O}'{\bf \mu}$ e matriz de covariância $\Lambda_{p{\sf x}p}$,
tal que,

\Glossary{${\bf \mu_y}$}{Vetor de médias de ${\bf Y}$}
\Glossary{$\Lambda$}{Matriz de covariância de ${\bf Y}$}

\begin{equation}
\Lambda_{p{\sf x}p} = \colchete{
\begin{array}{cccc}
\lambda_1 & 0         & \cdots & 0\\
0         & \lambda_2 & \ddots & \vdots\\
\vdots    & \ddots    & \ddots & 0\\
0         & \cdots    & 0      & \lambda_p
\end{array}
}
\end{equation}

Dessa forma, as variáveis aleatórias que compõem ${\bf Y}$ são não
correlacionadas entre si. Assim sendo, surge a idéia de se utilizar combinações
lineares em ${\bf Y}$, como uma forma alternativa de se representar o vetor
${\bf X}$, reduzindo-se o espaço de variáveis.

As $k$ combinações lineares (componentes principais) escolhidas para representar
o vetor ${\bf X}$ podem ser relacionadas com a ``energia'' do sistema e são
escolhidas de acordo com os autovalores \sequencia{\lambda}{1}{2}{p}.

\Glossary{$\lambda_i$}{$i$-ésimo autovalor de $\Lambda$}

Na prática, a matriz $\sum_{p{\sf x}p}{}$ é desconhecida e precisa ser estimada
através dos dados amostrais coletados. Em geral, a matriz $\sum_{p{\sf x}p}{}$ é
estimada pela matriz de covariância amostral ${\bf S}_{p{\sf x}p}$.
Considerando então \sequencia{\widehat{\lambda}}{1}{2}{p} como sendo os
autovalores da matriz ${\bf S}_{p{\sf x}p}$, e \sequencia{\bf
\widehat{e}}{1}{2}{p}, os respectivos autovetores normalizados, a $j$-ésima
componente principal amostral estimada é definida por: 

\Glossary{${\bf S}$}{Matriz de covariância amostral}
\Glossary{$\widehat{\lambda_i}$}{$i$-ésimo autovalor de ${\bf S}$}
\Glossary{${\bf \widehat{e_i}}$}{$i$-ésimo autovetor normalizado de ${\bf S}$}
\Glossary{${\bf \widehat{Y}_j}$}{$j$-ésima componente principal amostral
                                 estimada}

\begin{equation}
{\bf \widehat{Y}_j} = {\bf \widehat{e}_j}\ '\ {\bf X} =\ 
                      \widehat{e}_{j1}\ {\bf X_1} \ +\ 
                      \widehat{e}_{j2}\ {\bf X_2} \ +\ 
                      \ldots\ +\ 
                      \widehat{e}_{jp}\ {\bf X_p}
\end{equation}

com $j = 1,\ 2,\ \ldots,\ p$, e a variância total (energia) da $j$-ésima
componente principal amostral é dada por:

\Glossary{$E_j$}{Variância total da $j$-ésima componente principal amostral}

\begin{equation}
E_j = \frac{\widehat{\lambda}_j}{\displaystyle\sum_{i=1}^p{\widehat{\lambda}_i}}
\end{equation}

Segundo \citeasnoun{mingoti:2005}, para se reduzir a dimensão de $p$ para $k$
componentes principais, deve-se adotar um critério de escolha. Como falado
anteriormente, uma forma comum de se escolher as $k$ componentes é através da
porcentagem $\gamma$ da variância total, em que $0 < \gamma < 1$. Assim sendo,
busca-se o menor valor de $k$, tal que:

\Glossary{$\gamma$}{Porcentagem da variância total}

\begin{equation}\label{eq:porcent_var_tot}
\frac{\displaystyle\sum_{i=1}^k\widehat{\lambda}_i}
     {\displaystyle\sum_{j=1}^p\widehat{\lambda}_j} \geq \gamma
\end{equation}

% ------------------------------------------------------------------------------
\section{Composição do sistema}
Um dos principais pontos de um projeto de sistema de inferência é a seleção das
variáveis secundárias que serão utilizadas para realizar a estimativa das
variáveis primárias do processo. Em sistemas aplicados à colunas de destilação é
comum escolher temperaturas de diferentes estágios da coluna, bem como da vazão
de refluxo do condensador e a vazão de óleo térmico do refervedor.

Assim como a planta real, o sistema simulado neste trabalho apresenta poucos
sensores de temperatura. Por esse motivo, apesar do {\it software} de simulação
fornecer perfis completos de temperatura de ambas as colunas, optou-se por
utilizar os valores de temperatura que possam ser obtidos através dos sensores
existentes na UPGN-II GMR.

A partir das figuras \ref{fig:deeta} e \ref{fig:debuta}, pode-se perceber que as
variáveis secundárias res\-trin\-gem-se às variáveis de processos (PVs) dos
controladores. A tabela \ref{tab:var_sec} mostra quais foram as variáveis
escolhidas.

\begin{table}[htb]
\centering
\caption{Variáveis de processo escolhidas.}
\vspace{0.25cm}
\begin{tabular}{|c|c|l|}
\hline
{\bf Variável} & {\bf Controlador} & {\bf Variável secundária}\\
\hline
\hline
$V_1$ & PIC-100 & Pressão de topo\\
\hline
$V_2$ & FIC-100 & Vazão de refluxo\\
\hline
$V_3$ & TIC-100 & Temperatura do estágio 40\\
\hline
$V_4$ & FIC-101 & Vazão de LGN\\
\hline
$V_5$ & TIC-102-2 & Temperatura do estágio 16\\
\hline
$V_6$ & LIC-102-2 & Volume líquido do estágio 28\\
\hline
$V_7$ & FIC-101-2 & Vazão de refluxo\\
\hline
$V_8$ & LIC-100-2 & Nível do condensado\\
\hline
\end{tabular}
\label{tab:var_sec}
\end{table}

\Glossary{$V_i$}{$i$-ésima variável de processo escolhida}

De posse dessas informações, serão montadas diferentes estruturas que
caracterizarão o sistema de inferência como um todo. De maneira geral, o sistema
será composto por um módulo de ACP e um módulo RNA, receberá como entrada as
variáveis de processo e terá como saída as estimativas das variáveis primárias
de interesse.

% ------------------------------------------------------------------------------
\subsection{Razão de redução}
Tendo definido como será composto o sistema, a partir da ordem do modelo e do
número de variáveis de entrada e saída, pode-se definir a razão de redução como
sendo:

\begin{equation}
R_r = 1 - \frac{k}{r ( V_e + V_s )}
\end{equation}

\Glossary{$R_r$}{Razão de redução}

Nessa equação $k$ representa o número de componentes principais, $r$ a ordem do
modelo, $V_e$ e $V_s$ o número de variáveis de entrada e saída do módulo ACP.

O valor da razão de redução será utilizado no capítulo \ref{cap:resultados} como
uma forma de comparar a eficiência do módulo ACP quando a ordem do modelo
aumenta. Quando multiplicado por 100\% ($R_r \times 100\%$), esse valor
expressa a porcentagem de redução do número de variáveis originais para o número
de componentes principais selecionadas.

% ------------------------------------------------------------------------------
\section{Agregação dos módulos}
Uma vez explicado o funcionamento dos módulos ACP e RNA, é fácil perceber que a
agregação desses módulos fará com que as $p$ variáveis do processo sejam
reduzidas para $k$ componentes principais, diminuindo assim a complexidade da
rede neural de inferência. Essa rede, configurada como uma estrutura de
identificação  NNARX, deverá modelar as dinâmicas entre as variáveis secundárias
e primárias do processo, realizando estimativas confiáveis a cada minuto.

Com o intuito de avaliar diferentes desempenhos do sistema, serão propostas 4
estruturas de agregação dos módulos ACP e RNA. É importante destacar que existem
diversas combinações de agregação desses módulos que não estarão sendo avaliadas
neste trabalho. A avaliação dos resultados para cada uma dessas propostas será
feita ao longo do capítulo \ref{cap:resultados}. 

Assim como exposto na seção \ref{sec:det_ordem}, por facilidade de
representação, a ordem de entrada será igual a ordem de saída.

As figuras \ref{fig:estrutura_acp_completo} a \ref{fig:estrutura_acp_original}
representam os diagramas esquemáticos das 4 estruturas que estarão sendo
avaliadas. Nas figuras, VS representará as variáveis secundárias (ou variáveis
de processo), VP as variáveis primárias, $n$ o instante de amostragem, $r$ a
ordem do modelo, $m$ o número de variáveis secundárias, $j$ o número de
variáveis primárias e $k$ o número de componentes principais. Dessa forma, o
número de variáveis do processo pode ser definido como $p = m + j$.

\Glossary{VP}{Variável principal}
\Glossary{VS}{Variável secundária}
\Glossary{$r$}{Ordem do modelo}

\begin{comment}
\begin{figure}[H]
\centering
\subfigure[Esquema da estrutura 1.]{
    \epsfig{figure=imgs/sist_inf/eps/acp_completo, width=0.482\textwidth}
    \label{fig:estrutura_acp_completo}
}
\subfigure[Esquema da estrutura 2.]{
    \epsfig{figure=imgs/sist_inf/eps/acp_separado, width=0.482\textwidth}
    \label{fig:estrutura_acp_separado}
}
\subfigure[Esquema da estrutura 3.]{
    \epsfig{figure=imgs/sist_inf/eps/acp_proposto, width=0.482\textwidth}
    \label{fig:estrutura_acp_proposto}
}
\subfigure[Esquema da estrutura 4.]{
    \epsfig{figure=imgs/sist_inf/eps/acp_original, width=0.482\textwidth}
    \label{fig:estrutura_acp_original}
}
\caption{Esquema das estruturas analisadas.}
\label{fig:estruturas}
\end{figure}
\end{comment}

% ------------------------------------------------------------------------------
\subsection{Estrutura 1}

\begin{figure}[htb]
\centering
\includegraphics[width=0.5\textwidth]{imgs/sist_inf/eps/acp_completo}
\caption{Esquema da estrutura 1.}
\label{fig:estrutura_acp_completo}
\end{figure}

Para que a complexidade do módulo RNA seja reduzida ao máximo, a primeira
estrutura será composta por um módulo ACP que tem como entrada as variáveis
primárias, secundárias e seus respectivos regressores. 

Deseja-se saber aqui se o módulo ACP tem a capacidade de filtrar as informações
necessárias dos regressores, visto que, esses são de fundamental importância 
para a identificação da dinâmica do sistema (seção \ref{sec:ident_mod_neural}). 

Dependendo da capacidade de redução do módulo ACP, essa estrutura permitirá que
o sistema seja testado com ordens consideravelmente elevadas, uma vez que a
entrada do módulo RNA será composta apenas pelas $k$ componentes principais
selecionadas.

% ------------------------------------------------------------------------------
\subsection{Estrutura 2}

\begin{figure}[htb]
\centering
\includegraphics[width=0.5\textwidth]{imgs/sist_inf/eps/acp_separado}
\caption{Esquema da estrutura 2.}
\label{fig:estrutura_acp_separado}
\end{figure}

Nessa estrutura, assim como na estrutura anterior, buscou-se reduzir a
complexidade do módulo RNA ao máximo. Entretanto, com essa estrutura poderá ser
analisada a capacidade dissociativa do módulo ACP. 

A ideia é fazer com que as informações de entrada sejam separadas das
informações de saída a partir de dois módulos ACP distintos.

% ------------------------------------------------------------------------------
\subsection{Estrutura 3}

\begin{figure}[htb]
\centering
\includegraphics[width=0.5\textwidth]{imgs/sist_inf/eps/acp_proposto}
\caption{Esquema da estrutura 3.}
\label{fig:estrutura_acp_proposto}
\end{figure}

Essa estrutura foi idealizada com o intuito de avaliar a importância das
informações dos regressores de saída para a rede neural de inferência. Segundo
\citeasnoun{norgaard:2000}, essas informações são de fundamental importância
para que a rede assimile a dinâmica do processo e realize estimativas
compatíveis com os valores reais.

Para que isso fosse possível, manteve-se os regressores das variáveis
secundárias no módulo ACP e excluiu-se o módulo ACP dos regressores das
variáveis primárias, o que fez com que a complexidade do módulo RNA aumentasse.

% ------------------------------------------------------------------------------
\subsection{Estrutura 4}

\begin{figure}[htb]
\centering
\includegraphics[width=0.55\textwidth]{imgs/sist_inf/eps/acp_original}
\caption{Esquema da estrutura 4.}
\label{fig:estrutura_acp_original}
\end{figure}

Diferentemente das estruturas anteriores, essa proposta permite que o módulo RNA
permaneça o mais próximo possível da estrutura NNARX original, na qual os
regressores de entrada e saída são conectados diretamente à rede.

Com essa estrutura o módulo ACP será capaz de realizar a redução somente das
informações de entrada e não mais de seus regressores. Em teoria, isso fará com
que as informações de entrada e saída sejam assimiladas mais facilmente pela
rede, diminuindo o erro médio de estimativa. Por outro lado, a complexidade do
módulo RNA aumentará significativamente.
