\chapter[Reconhecimento de Faces\\ {\small Luis Franco e Ricardo Cabecinha}]{Reconhecimento de Faces} 
\label{chap:RecFacial}
{\Large Luis Franco e Ricardo Cabecinha}
\begin{quotation}
    \textbf{Sinopse}
  \fontsize{10}{12}
  \usefont{OT1}{cmr}{m}{n}
  \selectfont\\\\
O reconhecimento facial é uma das capacidades que os seres humanos mais utilizam no seu dia-a-dia. Nos últimos anos, com o surgimento de novos e melhores métodos e tecnologias, verificou-se um crescente progresso no campo do reconhecimento facial automatizado. No entanto, investigadores de áreas, como o reconhecimento de padrões e a visão por computador, enfrentam ainda diversos desafios no reconhecimento e identificação facial em diversos tipos de ambientes \cite{Li2005}.
Este capítulo tem como objetivo apresentar a face como uma característica biométrica que pode ser utilizada para a identificação de um individuo, os algoritmos mais conhecidos e que mais têm contribuído para a evolução da automatização do reconhecimento facial, alguns dos desafios e paradigmas que os investigadores enfrentam e o caminho futuro dos sistemas de reconhecimento facial.

 \end{quotation}

\section{Introdução}
\label{sec:introrecface}

Durante as últimas décadas, investigadores de várias áreas têm tentado criar sistemas que, de alguma forma, simulem capacidades humanas. Uma das qualidades humanas mais incríveis é o sentido da visão \cite{MilenaBuenoPereiraCarneiro}.Essa qualidade permite-nos realizar tarefas rotineiras como o reconhecimento de alguém através do seu rosto.\\ 
Desde os primeiros dias de vida que os recém-nascidos conseguem identificar alguns detalhes do rosto humano, como a boca e o formato dos olhos \cite{TiffanyM.Field}. 
Aliado ao facto do reconhecimento facial ser uma tarefa natural no ser humano e à evolução do poder computacional, surgem naturalmente os sistemas automáticos de reconhecimento facial \cite{Li2005}.
Este tipo de sistemas são uma forma de visão por computador, que utiliza as características da face, de forma a tentar identificar uma pessoa ou verificar a identidade que uma pessoa afirma deter.\\ Estes sistemas possuem ainda várias vantagens em relação a outros sistemas de reconhecimento biométrico, como a íris ou até a impressão digital, uma vez que, para além de ser um processo natural e não intrusivo, uma das vantagens mais importantes é que a aquisição da imagem da face poder ser feita de modo dissimulado ou até mesmo à distância \cite{JohnD.Woodward2003}.\\

Contudo, o reconhecimento facial não é uma tarefa simples. Os sistemas podem ser, de alguma forma, ensinados e treinados para reconhecer, com elevado grau de certeza, indivíduos através das características e propriedades da sua face, no entanto, ao longo do tempo, situações como a iluminação, a perspetiva da face, a qualidade da captura da imagem, o envelhecimento, a utilização de objetos como óculos, chapéu ou cachecóis, podem variar e, de algum modo, induzir os sistemas em erro. Este é um dos grandes problemas com que os sistemas de reconhecimento facial têm que lidar, independentemente das técnicas utilizadas na identificação facial \cite{MilenaBuenoPereiraCarneiro}.



\section{História do Reconhecimento Facial}
\label{sec:histRecFacial}
O reconhecimento automatizado da face é um conceito relativamente novo. Desenvolvido na década de 1960, o primeiro sistema semi-automatizado para o reconhecimento da face exigia que o seu operador localizasse características nas fotografias (por exemplo, olhos, orelhas, nariz e boca) antes do sistema calcular distâncias e rácios para um ponto de referência comum. Esse ponto de referência era depois comparado com os dados disponíveis \cite{Biometrics2005}\cite{historiaEabordagens}.\\
Na década de 1970, Goldstein, Harmon, e Lesk utilizaram 21 marcadores subjetivos específicos, incluindo a cor do cabelo e a espessura dos lábios, para automatizarem o reconhecimento. O problema com estas duas soluções iniciais residia no facto das medições e localizações terem de ser calculadas manualmente \cite{historiaEabordagens}.\\
Nesta década surge também o primeiro sistema automático de reconhecimento facial, desenvolvido por Takeo Kanade na sua tese de doutoramento em 1973 \cite{Kanade1973}.
Em 1988, Kirby e Sirovich \cite{L.Sirovich1987} aplicaram o princípio da análise de componentes ao problema do reconhecimento da face. Isto foi considerado como uma espécie de marco, na medida em que mostrou que eram necessários menos de uma centena de valores para codificar com exatidão uma imagem da face adequadamente normalizada e alinhada. 
Em 1991, Turk e Pentland \cite{Turk1991} descobriram que o erro residual, dos métodos \textit{eigenfaces}, podia ser utilizado para detetar faces em imagens. Esta descoberta permitiu a criação de sistemas automatizados de reconhecimento da face em tempo real. Esta abordagem estava limitada de certa forma por fatores ambientais, mas acabou por motivar um grande interesse para o desenvolvimento futuro de tecnologias de reconhecimento automatizado da face.
A tecnologia começou por chamar a atenção pública devido à reação dos meios de comunicação a uma implementação experimental no \textit{January 2001 Super Bowl}, que capturou imagens de vigilância e as comparou com uma base de dados de conteúdos digitais. Esta demonstração iniciou a necessária análise sobre a forma de utilizar a tecnologia para suportar determinadas necessidades nacionais, considerando ao mesmo tempo as preocupações sociais e de privacidade \cite{Biometrics2005}\cite{historiaEabordagens}.
Atualmente, a tecnologia de reconhecimento da face, está a ser utilizada para o combate à fraude com passaportes, para o reforço de legislação, para a identificação de crianças desaparecidas, para minimizar as fraudes de benefícios/identidade, para video vigilância, laser/publicidade, na ciência forense e na luta contra o terrorismo, entre outros \cite{A.K.Jain2011}\cite{Jain2010}\cite{Suman2006}.

\section{Sistema de Reconhecimento Facial}
\label{sec:SistRecFacial}
Os sistemas de reconhecimento facial envolvem algumas etapas importantes, como a deteção facial, a normalização, a extração de características e a identificação \cite{Hsu2002}.
O princípio genérico por trás da maior parte dos sistemas de reconhecimento facial passa pela captura da imagem da face, a qual pode ser adquirida a partir de uma imagem estática ou de uma câmara de video e efetuar um ou ambos dos seguintes procedimentos \cite{Li2005}:

\begin{itemize}
\item Verificação ou autenticação: É efetuada uma comparação de um para um, da imagem capturada, ou seja, da identidade que está sendo proclamada, com uma imagem previamente guardada na base de dados.

\item Identificação ou reconhecimento: É efetuada uma pesquisa de um para muitos, numa base de dados de imagens com características semelhantes, de modo a associar a identidade da face que está a ser verificada, com uma na base de dados.
\end{itemize}



\subsection{Captura}
\label{subsec:captura}

Antes da primeira etapa no processo de reconhecimento facial, há que capturar a imagem a identificar. 
A maior parte dos sistemas de reconhecimento facial estão desenhados de forma a capturarem imagens de \textit{scanner}, máquinas fotográficas digitais, máquinas de filmar digitais ou câmaras \textit{web}.\\
Quanto melhor for a qualidade da imagem capturada mais precisa e melhor será a performance da aplicação de reconhecimento facial. 
Imagens em fotografias em papel, ou até mesmo de passaportes, podem ser também passadas para os sistemas de reconhecimento facial, as quais poderão, no entanto, necessitar de algum trabalho não automatizado de forma a transformar essa imagem numa imagem digital. Imagens de video em tempo real ou em \textit{streaming} estão a ser utilizadas com maior frequência e trazem consigo algumas vantagens, nomeadamente a recolha de múltiplas imagens (\textit{frames}), de modo a que o sistema escolha as de melhor qualidade para uma comparação mais precisa e uma maior usabilidade dos sistemas, já que evitam erros como o movimento da pessoa na altura da captura de uma única imagem estática \cite{Suman2006}.

\subsection{Deteção de Faces}
\label{subsec:detecao}
Esta é a primeira etapa no processo de reconhecimento facial de qualquer sistema. Aqui são detetadas as faces presentes numa imagem, sejam imagens estáticas ou imagens de video. Esta deteção é feita com base em marcas comuns a todas as faces, como o caso dos olhos, boca e nariz. Alguns sistemas utilizam também características como o tom de pele ou a sua textura para identificar uma face numa determinada imagem.\\ Os dados referentes ao local onde a face se encontra, dentro da imagem, são então passados à etapa seguinte.\\
A partir daqui a imagem considerada será apenas a da face ou faces encontradas na imagem, sendo o fundo descartado \cite{Li2005}.

\subsection{Normalização}
\label{subsec:normalizacao}
Após a deteção da face há que padronizá-la para que esta tenha o mesmo tratamento dado às existentes na base de dados. Nesta fase alteram-se características como a cor, o tamanho e a rotação da face \cite{Li2005}.

\subsection{Extração de Propriedades}
\label{subsec:extracaoPropriedades}
A extração de propriedades é efetuada sobre a imagem da face previamente normalizada. É recolhida informação relevante no que toca à distinção de pontos característicos, quer ao nível da geometria, quer ao nível da visualização.
São estas propriedades que servirão de comparação na etapa seguinte \cite{Li2005}.

\subsection{Comparação}
\label{subsec:comparacao}
Os algoritmos de comparação funcionam num ou em ambos os modos, sejam eles de verificação (um-para-um) ou identificação (um-para-muitos), com a diferença que na identificação a imagem capturada é comparada com imagens previamente guardadas numa base de dados, enquanto que na verificação a comparação pode ser feita, por exemplo, entre uma imagem guardada num cartão de segurança (\textit{smart card}) com a imagem da pessoa que afirma possuir aquela identidade \cite{Suman2006}.\\
Na comparação das faces, as características extraídas, da face que está a ser verificada, são comparadas com uma ou várias faces na base de dados. O resultado desta comparação, na autenticação (um-para-um), é “sim” ou “não”. No caso da identificação (um-para-muitos) o resultado é a identidade da face que está a ser processada, quando é encontrada uma face na base de dados em que o grau de confiança do resultado, da comparação desta com a que está a ser solicitada a identificação, é suficientemente elevado. Caso contrário o resultado será uma identificação desconhecida. \cite{Li2005}


\section{Principais Algoritmos}
\label{sec:PrinciaisAlg}

A deteção da face, a extração das suas características e a comparação podem ser considerados os três grandes processos no reconhecimento facial \cite{Suman2006}.\\
Várias abordagens foram sendo desenvolvidas e implementadas, cada uma com os seus pontos fortes e os seus pontos fracos para cada uma destas três etapas.
É um facto, que muitas das aplicações que têm sido desenvolvidas, são baseadas em conceitos que podem ser igualmente aplicados em outras áreas, como o processamento de imagens digitais ou o reconhecimento de padrões, no entanto, os resultados dos procedimentos aplicados podem variar consoante a abordagem e os algoritmos adotados \cite{Suman2006}.\\
Existem duas abordagens predominantes relativamente ao problema do reconhecimento da face: A abordagem geométrica (baseada em características) e a abordagem fotométrica (baseada na visualização) \cite{W.Zhao2003}].
Nos métodos baseados nas características, as propriedades geométricas e as relações entre as áreas, distâncias e ângulos entres as diversas características da face são utilizados como referências para o reconhecimento facial.\\
Nos métodos baseados na aparência, toda a imagem da face é utilizada para a criação de padrões que serão posteriormente utilizados na comparação das faces \cite{Ani08}.
Com a continuidade do interesse dos investigadores pelo reconhecimento da face, foram desenvolvidos vários algoritmos diferentes, com três deles a serem objeto de um grande estudo na literatura sobre o reconhecimento da face. São eles a Análise de Componentes Principais (PCA), Análise Discriminante Linear (LDA), e Elastic Bunch Graph Matching (EBGM). Os primeiros dois são baseados na aparência e o ultimo baseado na visualização.

\subsection{Análise de Componentes Principais (PCA)}
\label{subsec:pca}

A Análise de Componentes Principais ou \textit{Principal Component Analysis} (\textit{PCA}) é um procedimento matemático que utiliza uma transformação ortogonal para converter um conjunto de observações de variáveis, possivelmente correlacionadas, num conjunto de valores de variáveis linearmente não-correlacionadas, chamados componentes principais. O número de componentes principais é menor ou igual ao número de variáveis originais. Nesta tranformação, o primeiro componente principal tem a maior variância possível, ou seja, é responsável pelo máximo de variabilidade nos dados, e cada componente seguinte, por sua vez, tem a máxima variância sob a restrição de ser ortogonal, não-correlacionado, com os componentes anteriores.\\ 
Os componentes principais são garantidamente independentes apenas se os dados forem normalmente distribuídos. O PCA é sensível à escala relativa das variáveis originais \cite{pca}.\\
A figura \ref{graphPCA}, mostra uma representação típica do método de análise de componentes principais.

\begin{figure}[h]
\centering
\includegraphics[scale=0.8]{imagensRecFacial/FR_pca.png} 
\caption{Gráfico da representação dos componentes principais fonte: \cite{Li2005}}
\label{graphPCA}
\end{figure}

A ideia subjacente à utilização do PCA, no reconhecimento facial, é a representação unidimensional de vetores de pixéis, construídos a partir de uma imagem a duas dimensões. 
Este método é também denominado, no reconhecimento facial, por \textit{eigenfaces} e os seus vetores, denominados por \textit{eigenvectors}, possuem uma representação espectral da face, denominada por \textit{eigenface} \cite{Duc} \cite{Turk1991}. Ver Figura \ref{graphPCA2}.

\begin{figure}[!htb]
\centering
\includegraphics[scale=1]{imagensRecFacial/FR_eigenface.png}  
\caption{Exemplo de seis vectores \textit{eigenfaces} fonte: \cite{Turk1991}}
\label{graphPCA2}
\end{figure}

Cada face é decomposta numa série de componentes principais, ou vetores próprios, da matriz covariância, definidos por um conjunto de faces de referência. Esta técnica foi desenvolvida por Sirovich e Kirby (1987) \cite{L.Sirovich1987} com o objetivo de representar, de forma eficiente, imagens de faces através da análise de componentes principais. \\
Assuma-se uma determinada imagem facial $ I(x,y) $ num espaço bidimensional $N \times N$. Essa imagem pode ser encarada como um vetor de dimensão $N2$. Nesse caso uma imagem com $256 \times 256$ pixéis passa a ser considerada um vetor de dimensão $65.536$, ou então um ponto num espaço com $65.536$ dimensões. Como resultado, um conjunto de imagens pode mapear um grupo de pontos neste espaço gigantesco \cite{Turk1991}.\\
Todas as faces são semelhantes, de uma forma geral (dois olhos, nariz, boca, ...). Como tal, não se vão distribuir de forma aleatória neste espaço enorme. Devido a essa similaridade, podem ser descritas por um subespaço relativamente pequeno. O objetivo deste método consiste em encontrar os vetores que melhor representam a distribuição das faces estudadas em todo o espaço da imagem. Esses vetores vão definir o subespaço das imagens faciais, designado por espaço facial (\textit{eigenspace}) \cite{Turk1991} \cite{H.Bento}.\\
Para a geração dos auto-valores (\textit{eigenvalues}) e auto-vetores (\textit{eigenvectors}), há que construir inicialmente o espaço de imagens \cite{Turk1991} \cite{Campos2000}.

Sendo $\Gamma$ um conjunto de $n$ imagens de treino, é criada uma matriz $\Psi$ contendo $n$ cópias da média das imagens contidas em $\Gamma$:


\begin{equation}
\Psi_{[M\times n]} = \frac{1}{n} \sum_{i=1}^{n} \Gamma_{i, [M \times 1]}
\end{equation}

A diferença entre cada face $\Gamma_i$ e a média, é dada por:

\begin{equation}
\Phi_{i, [M \times n]} = \Gamma_{i, [M \times n]} - \Psi_{[M \times n]} 
\end{equation}

Sendo:
\begin{equation}
A_{[M \times n]} = [\Phi_1,\Phi_2,...\Phi_n]
\end{equation}

É então possível retirar as \textit{eigenfaces} da matriz de covariância $C$:
\begin{equation}
C_{[M \times M]} = A_{[M \times n]} A_{[n \times M]}^T
\end{equation}

Considerando a Matriz:
\begin{equation}
V_{[n \times n]} = A_{[n \times M]}^T A_{[M \times n]}
\end{equation} 

Os primeiros $n$ \textit{eigenvectors} de $C$ podem ser considerados como combinação linear entre os \textit{eigenvectors} de $V$ e as imagens contidas em $A$ \cite{Turk1991} \cite{S.Wei1998}:

\begin{equation}
U_{[M \times n]} = A_{[M \times n]}V_{[n \times n]}
\end{equation}

$U$ é então a matriz que contém as \textit{eigenfaces}. Cada linha da matriz $U$ representa uma imagem espectral de uma face humana, com as características principais das imagens da base de dados.\\

O reconhecimento de faces através do método \textit{eigenfaces} é realizado em duas etapas: Uma relacionada com o treino e outra com a comparação \cite{S.Wei1998}.\\
Na etapa de treino a face de cada individuo $ \Gamma_k $ é projetada no espaço de imagens, gerando a matriz $ \Omega $:

\begin{equation}
\Omega_{[n \times n]} = U_{[n \times M]}^T(\Gamma_{[M \times n]} - \Psi_{[M \times n]})
\end{equation}

Esta matriz será então utilizada no processo de comparação das faces de treino com as de entrada.\\

Para posterior classificação das imagens, é necessário criar um valor limiar $\Theta_c$ o qual representará a maior distância aceitável entre as imagens de teste e as imagens de treino:
\begin{equation}
\Theta_c = \frac{1}{2}\max_{j,k}^n\{\Omega_j, \Omega_k\}
\end{equation}

Se cada \textit{eigenface} for apresentado como uma imagem, veremos algo que representa um espectro de uma face humana, ou seja, uma imagem que apresenta apenas os componentes principais das faces humanas. \textit{Eigenfaces} com menores auto-valores(\textit{eigenvalues}) apresentam imagens sem muitas características interessantes, por isso são descartadas. A figura \ref{graphPCA3} mostra um exemplo com os 3 primeiros e 3 últimos \textit{eigenfaces} gerados \cite{Koerting}.


\begin{figure}[h]
\centering
\includegraphics[scale=1]{imagensRecFacial/RF_pca1.png} 
\caption{Exemplo de 3 primeiros e 3 últimos \textit{eigenfaces} fonte: \cite{Koerting}}
\label{graphPCA3}
\end{figure}

Para o reconhecimento, considera-se uma imagem de prova $\Gamma$ a qual é projetada no espaço de imagens:

\begin{equation}
\Omega_{[n \times 1]} = U_{[n \times M]}^T(\Gamma_{[M \times 1]} - \Psi_{1,[M \times 1]})
\end{equation}

É reconstruida a imagem de prova:
\begin{equation}
\Gamma_{p,[M \times 1]} = U_{[M \times n]}\Omega_{[n \times 1]}+\Psi_{1,[M \times 1]}
\end{equation}
É então calculada a distância vetorial que será utilizada para verificar se a imagem de teste é ou não face humana.
\begin{equation}
\varepsilon = \parallel\Gamma - \Gamma_p \parallel
\end{equation}
É necessário ainda saber a distância vetorial entre a imagem de teste e todas as imagens da base de dados:
\begin{equation}
\varepsilon_k = \parallel \Omega - \Omega_k\parallel\;k= 1,...n
\end{equation}

A classificação da imagem de prova é então dada por:
\begin{itemize}
\item \textbf{SE} $\varepsilon \geq \Theta_c$; 
\textbf{ENTÃO} a imagem não representa uma face humana;

\item \textbf{SE} $\varepsilon<\Theta_c$ \textbf{E} $\varepsilon_k\geq\Theta_c$
\textbf{ENTÃO} a imagem representa uma face humana, mas desconhecida. Não está presente na base de dados;

\item \textbf{SE} $\varepsilon<\Theta_c$ \textbf{E} $\min \varepsilon_k <\Theta_c$
\textbf{ENTÃO} a imagem representa a face do indivíduo, localizada no índice $k$ da base de dados.

\end{itemize}

\subsection{Análise Discriminante Linear (LDA)}
\label{subsec:lda}

Análise Discriminante Linear (LDA) ou método de Fisher é um método estatístico multivariado, que se emprega para descobrir as características que distinguem os membros de um grupo dos de outro, de modo que, conhecidas as características de um novo indivíduo, se possa prever a que grupo pertence.\\
Foi originalmente desenvolvida na botânica tendo por objetivo fazer a distinção de grupos de plantas com base no tamanho e no tipo de folhas o que tornaria possível, posteriormente classificar as novas espécies encontradas. Em 1936, Fisher foi o responsável pelo desenvolvimento da análise para subgrupos \cite{analiseDiscriminante}, no entanto este método apenas foi recentemente adotado para o reconhecimento de objetos \cite{CristianeKinuta}.\\
No âmbito do reconhecimento facial, o LDA é também conhecido como método \textit{Fisherface} \cite{Ani08} \cite{Li2005} \cite{JAIN2000}.\\
Neste método, as faces são agrupadas por pessoa, sendo cada um desses agrupamentos reconhecidos como uma classe. O método tenta modelar a dispersão dos pontos visando maior confiabilidade para a classificação. O LDA procura otimizar a linha numa superfície que separa satisfatoriamente as classes \cite{BELHUMEUR1997}.\\
Inicia-se o algoritmo obtendo as matrizes de dispersão entre classes, interclasse, e dentro das classes, intraclasse. A projeção é feita maximizando a dispersão interclasse e minimizando a intraclasse, formulado pela razão entre as determinantes de ambas as matrizes, com isso diferindo do PCA, que maximiza o espalhamento, dispersão, dos padrões no espaço de características, independente da classe a que esses pertencem \cite{Campos2000} \cite{JAIN2000}.\\
A matriz dispersão intraclasses é dada por: 
\begin{equation}
S_w = \sum_{j=1}^c \sum_{i=1}^{\vert T_j \vert}(x_i^j - \mu_j)(x_i^j - \mu_j)^T
\end{equation}
Em que $x_i^j$ é o $i$ -ésimo exemplo da classe $j$, $\mu_j$ é a média da classe $j$, $c$ é o número de classes  e $\vert T_j \vert$ o número de exemplos na classe $j$.

A matriz dispersão interclasses é dada por:

\begin{equation}
S_b = \sum_{j=1}^c(\mu_j-\mu)(\mu_j-\mu)^T
\end{equation}
Em que $\mu$ representa a média de todas as classes.\\
A maximização da medida interclasses e a minimização da intraclasses são obtidas ao maximizar a taxa: 
\begin{equation}
\frac{\det(S_b)}{\det(S_x)}
\end{equation}

O espaço de projeção é então encontrado:
\begin{equation}
S_bW=\lambda S_wW
\end{equation}
Onde $W$ é a matriz com autovectores generalizados, associados com $\lambda$, que é a matriz diagonal com autovalores. Estas matrizes estão limitadas à ordem $c-1$, em que $c$ é $i$ número de classes, limitação devido à comparação ser realizada entre duas classes diferentes.\\

Para a identificação de uma imagem teste, o funcionamento é semelhante ao método PCA. A imagem de teste é projectada e comparada com cada uma das faces de treino, também elas projectadas, identificando-a com a imagem de treino que mais se aproxima. A comparação é feita utilizando um ou a combinação de dois ou mais classificadores específicos \cite{CristianeKinuta}.


\subsection{\textit{Elastic Bunch Graph Matching} (EBGM)}
\label{subsec:ebgm}

O EBGM baseia-se na ideia de que as imagens de faces reais têm várias características não lineares que não são consideradas pelos métodos de análise linear - por exemplo, variações na iluminação (luz exterior versus iluminação interior), na postura (postura mais rígida versus postura mais descontraída), ou na expressão (sorriso versus cara mais séria).\\
Uma conversão de ôndulas Gabor (\textit{Gabor wavelets}) cria uma arquitetura dinâmica de ligações que projeta a face numa grelha elástica. O jato Gabor (\textit{Gabor jet}) é um nó na grelha elástica, assinalados por círculos, que descreve o comportamento da imagem em torno de um dado pixel \cite{L.Wiskott1999}. Ver figura: \ref{ebgmFig1}.\\

\begin{figure}[!htb]
\centering
\includegraphics[scale=0.8]{imagensRecFacial/RF_EBGM.jpg} 
\caption{Grelha elástica - EBGM fonte: \cite{Biometrics2005}}
\label{ebgmFig1}
\end{figure}

Esses nós (\textit{jets}) possuem parâmetros que controlam a sua orientação, frequência, fase, tamanho e razão. A figura \ref{ebgmFig2} mostra os parâmetros da transformada da ôndula (\textit{wavelet}) com diferentes orientações, frequências, fases, tamanhos e diferentes razões de aparência(\textit{aspect ratio}) \cite{Stergiou2003}.\\

\begin{figure}[!tbh]
\centering
\includegraphics[scale=0.6]{imagensRecFacial/RF_ebgm2.png} 
\caption{Pârametros da ôndula de Gabor fonte: \cite{Stergiou2003}}
\label{ebgmFig2}
\end{figure}

É o resultado de uma confluência da imagem, com o filtro Gabor, que é utilizado para detetar formas e para extrair características utilizando o processamento de imagem. Uma confluência expressa a quantidade de sobreposição de funções, misturando-as. O reconhecimento baseia-se na similaridade da resposta do filtro Gabor em cada nó Gabor \cite{Biometrics2005} \cite{historiaEabordagens} \cite{L.Wiskott1999}.

A figura \ref{ebgmFig3} esquematiza o processo de criação do grafo, desde a imagem original.

\begin{figure}[!htb]
\centering
\includegraphics[scale=1]{imagensRecFacial/RF_ebgm3.jpg} 
\caption{Etapas da criação de grafo EBGM. Adaptado de: \cite{Stergiou2003}}
\label{ebgmFig3}
\end{figure}

O Algoritmo EBGM utiliza três funções de similaridade para comparação dos nós (\textit{jets}): Similaridade de amplitude, similaridade de fase e similaridade de deslocamento \cite{Stergiou2003} \cite{Bolme2003}.

A similaridade em amplitude é dada por:
\begin{equation}
S_a(J,J') = \frac{\sum_{j=i}^N a_j a_j'}{\sqrt{\sum_{j=i}^N a_j^2 \sum_{j=i}^N a_j'^2}}
\end{equation}

Em que $N$ é o número de coeficientes \textit{wavelet} de um \textit{jet}. $J$ e $J'$ são os \textit{jets} comparados. Este método tolera pequenos deslocamentos entre os pontos, no entanto não contempla a sua fase.\\
A similaridade de fase é baseada na similaridade de amplitudes tendo em conta a similaridade da fase.\\
Os valores mais elevados só são atingidos quando a amplitude e os ângulos das fases  são similares. Esta similaridade é dada por:
\begin{equation}
S_a(J,J') = \frac{\sum_{j=i}^N a_j a_j'\cos(\phi_j - \phi_j')}{\sqrt{\sum_{j=i}^N a_j^2 \sum_{j=i}^N a_j'^2}}
\end{equation}

Em que $\phi$ corresponde à fase.\\

A similaridade de deslocamento procura corrigir pequenos deslocamentos na similaridade de fase. Este método estima a similaridade como se um \textit{jet} $J’$ tivesse sido extraído de um deslocamento $\vec{d}$ na sua localização actual. Esta medida é calculada com baseada nas duas similaridades anteriores.

\begin{equation}
S_D(J,J',\vec{d}) = \frac{\sum_{j=0}^N a_j a_j'\cos(\phi_j - (\phi_j' + \vec{d} \cdot \vec{k_j}))}{\sqrt{\sum_{j=i}^N a_j^2 \sum_{j=i}^N a_j'^2}}
\end{equation}

Em que os vetores $\vec{d}$ e $\vec{k} $ são dados por:

\begin{equation}
\vec{d} = {d_x \choose d_y}
\end{equation}
\begin{equation}
\vec{k} = {\frac{2\pi \cos\theta}{\lambda} \choose \frac{2\pi \sin\theta}{\lambda}}
\end{equation}

O EBGM utiliza internamente a representação de grafos de face para representar uma face, tanto na etapa de treino como na etapa de teste. O grafo contém todas as informações de uma imagem, para o seu reconhecimento, e uma vez construído, a imagem original pode ser descartada da base de dados, aumentando assim a rapidez de processamento do algoritmo e diminuindo a necessidade de espaço de armazenamento.\\
Após a etapa de treino, todos os grafos de face das imagens na base de dados são combinados no grafo do conjunto de faces (\textit{Face Bunch Graph} (FBG)) \cite{Stergiou2003}. Ver figura \ref{ebgmFig4}

\begin{figure}[!htb]
\centering
\includegraphics[scale=1]{imagensRecFacial/RF_ebgm4.jpg} 
\caption{Gráfico \textit{Face Bunch}. fonte: \cite{Stergiou2003}}
\label{ebgmFig4}
\end{figure}

Ao comparar uma face, o algoritmo combina, olhos, bocas e narizes para que cada ponto tenha a melhor localização. Assim, quanto mais estados da face de uma pessoa existirem na base de dados mais precisão o algoritmo terá \cite{Stergiou2003}.\\
Este método, baseado em características biológicas, é um processo executado no córtex visual dos mamíferos superiores. As dificuldades deste método têm a ver com a necessidade de uma localização exata, algo que pode ser conseguido por vezes através da combinação dos métodos PCA e LDA \cite{Biometrics2005} \cite{historiaEabordagens}.

\section{Avaliação dos Sistemas de Reconhecimento Facial}
\label{sec:avaliacaoSistemasFace}
Várias empresas do mercado e vários programadores apresentam técnicas e algoritmos de identificação facial com excelentes resultados, no entanto, muitos deles testam os seus produtos e apresentam esses resultados com base em dados proprietários, ou seja, são eles próprios que criam essas bases de dados para comparação.\\
Com o avanço das tecnologias e dos computadores, com o avanço das pesquisas em identificação biométrica e com o aumento crescente da procura destas tecnologias e equipamentos no mercado, surge a necessidade de se testarem as diferentes técnicas e equipamento que vão surgindo.\\
De modo a mostrar onde uma nova técnica está, perante as suas anteriores, foram criadas diversas bases de dados públicas, disponíveis para pesquisa e desenvolvimento de algoritmos, as quais são referências padrão e permitem uma comparação correta de resultados.\\
Estas bases de dados são desenvolvidas de forma a possuírem diferentes tipos de dados a testar, nomeadamente, diferentes tipos de iluminação, posições do rosto, ou zonas do rosto cobertas com algum tipo de objetos, como o caso de óculos ou cachecóis \cite{Li2005}.

\subsection{Base de Dados\textit{Face Recognition Grand Challenge (FRGC) }}
\label{subsec:frgc}

O desenvolvimento desta base de dados é conduzido pelo NIST (\textit{National Institute of Standards and Technology}) e tem como objetivo a avaliação de algoritmos de reconhecimento facial segundo várias condições.\\
Para além disso o desenvolvimento desta base de dados tem também o objetivo de estimular o desenvolvimento de novos e mais precisos algoritmos.\\
A base de dados FRGC é dividida em três conjuntos: Um conjunto genérico utilizado essencialmente para a verificação de subespaços do método PCA, o qual contém 12776 imagens de 222 sujeitos. Um conjunto alvo, que contém 16028 imagens de 466 sujeitos, onde estão também incluídas as imagens do conjunto genérico, adquiridas em ambientes controlados. 
Por fim, o conjunto de testes, o qual contém 8.014 imagens de 466 sujeitos capturadas em ambientes de iluminação não controlados \cite{Li2005}.

\begin{figure}[!htb]
\centering
\includegraphics[scale=0.9]{imagensRecFacial/RF_frgcambCont.png} 
\includegraphics[scale=0.9]{imagensRecFacial/FR_frgcAmbUncontrol.png}
\caption{Exemplo de imagens da base de dados FRGC em ambiente controlado e não controlado. fonte:\cite{Ani08}}
\label{frgc1}
\end{figure}


A FRGC é atualmente a maior base de dados e com o maior número de variação de condições.
Vários resultados de testes conduzidos nesta base de dados podem ser consultados em \cite{Phillips_FDAK}.\\
A base de dados pode ser consultada em: \url{http://www.nist.gov/itl/iad/ig/frgc.cfm.}

\subsection{Base de Dados FERET}
\label{subsec:feret}
Anterior ao FRGC e também sob alçada do NIST, está a base de dados e o protocolo de avaliação FERET.\\
Criada pelo Departamento de Defesa dos Estados Unidos, foi idealizada para testar sistemas de reconhecimento facial que facilitariam a tarefa das forças da lei do governo dos Estados Unidos da América, no desempenho das suas funções.


\begin{figure}[!htb]
\centering
\includegraphics[scale=0.7]{imagensRecFacial/RF_ferret.png} 
\caption{Exemplo de uma face em várias poses, na base de dados FERRET. fonte:\cite{W.Zhao2003}}
\label{feret1}
\end{figure}

Esta base de dados possui 14.051 imagens, em escala de cinza de 8 bits, de faces humanas que variam desde o lado direito, centro da face e o lado esquerdo.\\
A base de dados FERET está disponivel em: \url{http://www.itl.nist.gov/iad/humanid/feret/}


\subsection{Base de Dados\textit{Pose Illumination Expression}(PIE)}
\label{subsec:pie}

Desenvolvida pela universidade de Carnegie Mellon e alguns associados, a base de dados PIE possui imagens de 68 pessoas, adquiridas em diferentes tipos de iluminação, com diferentes poses e com várias expressões faciais diferentes, totalizando 41.638 imagens.\\
As imagens de cada pessoa são capturadas em 13 posições diferentes, 43 condições de iluminação diferentes, com e sem ambiente de fundo, e com 4 tipos diferentes de expressões faciais: expressão neutra, sorridente, olhos fechados e a falar.\\
Esta base de dados tem sido largamente utilizada para analisar imagens faciais em diferentes poses e iluminações de forma a avaliar algoritmos que são desenvolvidos para serem utilizados em ambientes de poses e iluminações que variam ao longo do tempo.\\ 
As figuras \ref{pie1} e \ref{pie2} mostram alguns exemplos de faces na base de dados PIE, em várias poses e em diferentes tipos de iluminação.
A base de dados está disponível em: \url{http://www.ri.cmu.edu/research_project_detail.html?project_id=418&menu_id=261}.
\begin{figure}[h]
\centering
\includegraphics[scale=0.7]{imagensRecFacial/pie.png} 
\caption{Exemplo de uma face em várias poses, na base de dados PIE. imagem adaptada de:\cite{pieDatabese}}
\label{pie1}
\end{figure}

\begin{figure}[h]
\centering
\includegraphics[scale=1]{imagensRecFacial/pie_e.jpg} 
\caption{Exemplo de uma face em com diferentes expressões e em diferentes tipos de iluminação, na base de dados PIE. imagem adaptada de:\cite{pieDatabese}}
\label{pie2}
\end{figure}


\subsection{Base de Dados AR}
\label{subsec:ar}

A base de dados AR foi criada pelo \textit{computer vision center} (CVC), da Universidade Autónoma de Barcelona. Contém mais de 4000 imagens a cores pertencentes ao rosto de 126 pessoas, 70 homens e 56 mulheres. As imagens foram adquiridas na posição frontal, com diferentes tipos de iluminação, diferentes expressões faciais e com alguns adereços de rosto, nomeadamente óculos de sol e cachecóis. Devido a estas coberturas de rosto, esta base de dados tornou-se uma das mais populares para testes de algoritmos na presença de adereços como os anteriormente referidos.\\
Para a recolha destas imagens não foram impostas quaisquer restrições aos participantes, pelo que eles poderiam apresentar óculos de sol, maquilhagem ou diferentes cortes de cabelo nas duas sessões realizadas, com diferença de tempo de duas semanas entre elas, para a captura das imagens.\\
A base de dados está acessível através do endereço: \url{http://www2.ece.ohio-state.edu/~aleix/ARdatabase.html}

\subsection{Base de Dados \textit{Yale Face}}
\label{subsec:yaleface}
A base de dados Yale \cite{A.K.Jain2011} foi inicialmente criada com 165 imagens de 15 indivíduos, em escala de cinza e no formato GIF. Para esta base de dados foram recolhidas 11 imagens de cada indivíduo, uma para cada uma das seguintes variações: expressão facial diferente, luz central, rosto de felicidade, com e sem óculos de sol, normal, luz à direita, triste, sonolento, surpreso e a pestanejar.\\
Esta base de dados foi aumentada, passando a denominar-se por \textit{Yale Face B}, e possui agora 5760 imagens de iluminação simples, de 10 sujeitos diferentes, cada um com pontos de vista diferentes, nomeadamente 9 posições por 64 diferentes condições de iluminação. 
Por cada posição foi ainda registada uma imagem de ambiente diferente. A base de dados \textit{Yale Face }está acessível através do endereço:  \url{http://cvc.yale.edu/projects/yalefacesB/yalefacesB.html}


\section{Desafios do Reconhecimento Facial}
\label{sec:desafiosRecFacial}

\subsection{Envelhecimento Facial}
\label{subsec:envfacial}
Um dos desafios dos sistemas automáticos de reconhecimento facial é o de conseguir atingir a invariância temporal. Por outras palavras, o objetivo é conseguir um esquema de representação e comparação suficientemente robusto para contemplar alterações no rosto como o envelhecimento facial \cite{Z.Li2011}.\\
O grau de variação que ocorre na face, durante a idade adulta, altera os resultados do reconhecimento facial. Estas variações têm sido alvo de estudo em áreas de pesquisa como a antropologia, no entanto, no reconhecimento facial não tem tido tanta atenção \cite{Z.Li2011}.\\
Num local onde a autenticação é um requisito crítico para a segurança, é importante responder à seguinte pergunta: "Pode uma face ser reconhecida através de uma imagem capturada há 10 ou 20 anos?".\\
Investigadores do MITRE, (organização sem fins lucrativos que trabalha em interesses públicos em áreas como a engenharia de sistemas e tecnologias da informação) através do software \textit{FaceGen}, criaram uma série de imagens sintetizadas de faces, às quais submeteram vários tipos de iluminação, poses e alterações faciais, criando assim um ambiente de testes para avaliação de sistemas de reconhecimento facial \cite{FauneHughes2009}.\\
Alguns dos sistemas de reconhecimento facial onde existem diferenças entre as faces que estão nas bases de dados do sistemas e o aspeto atual da pessoa à qual essa face corresponde são as bases de dados de registos de viação, bases de dados das forças policiais, ou as bases de dados de crianças desaparecidas \cite{A.K.Jain2011}.\\
O envelhecimento facial é um aspeto que altera não só a textura como também a própria forma da face, sendo as variações mais notáveis em idades menores. Ver figura: \ref{env1}.

\begin{figure}[!htb]
\centering
\includegraphics[scale=0.7]{imagensRecFacial/RF_envelhecimento.png} 
\caption{Alteração do rosto devido ao envelhecimento. Adaptado de: \cite{A.K.Jain2011}}
\label{env1}
\end{figure}


Na tentativa de melhoramento dos sistemas de reconhecimento facial, no que toca ao envelhecimento, Li \textit{et al.} \cite{Z.Li2011} propuseram um novo método que aborda aspetos discriminativos e generativos. O modelo generativo funciona no domínio tridimensional corrigindo aspetos como a iluminação e a pose, capturando também aspetos característicos na variação a 3D da face, cria faces sintéticas com o intuito de diminuir a diferença de idades entre as imagens de prova e as imagens da base de dados. As imagens 3D foram criadas a partir de modelos bidimensionais.\\
O modelo discriminativo tem como função aprender as características mais salientes de forma a reconhecer as imagens com diferenças de idade. A figura \ref{env2} esquematiza ambos os modelos.
\begin{figure}[!htb]
\centering
\includegraphics[scale=0.8]{imagensRecFacial/RF_metEnv.png} 
\caption{Esquema dos modelos discriminativos e generativos de \cite{Z.Li2011}. Adaptado de: \cite{A.K.Jain2011}}
\label{env2}
\end{figure}

\subsection{Marcas Faciais}
\label{subsec:marcasfaciais}
As marcas faciais como sinais, tatuagens ou cicatrizes desempenham um papel importante na comparação e identificação de indivíduos, principalmente em aplicações de forças policiais e forenses.\\
Maior parte dos sistemas de identificação fotográfica das forças policiais ou das organizações de segurança envolve uma etapa onde a comparação é feita através de um processo manual. A informação é muitas vezes dada por uma vitima ou testemunha e passada para retratos robôs \cite{W.Zhao2003}. Um dos dados que normalmente é questionado tem a ver com as marcas únicas que poderão identificar o individuo, ou uma classe de indivíduos (tatuagens de gangues) \cite{A.K.Jain2011}. Ver figura \ref{marcas1}.
\begin{figure}[!htb]
\centering
\includegraphics[scale=0.8]{imagensRecFacial/RF_marcasFaciais1.png} 
\caption{Exemplo de imagens com marcas faciais características. Adaptado de: \cite{A.K.Jain2011}}
\label{marcas1}
\end{figure}

Os sistemas convencionais de reconhecimento facial codificam essencialmente características locais ou gerais da face, sem nunca utilizar especificamente marcas faciais. Para colmatar este vazio Park e Jain propuseram um sistema de deteção automático destas marcas faciais \cite{Park2010}. Ver figura \ref{marcas2}.
\begin{figure}[!htb]
\centering
\includegraphics[scale=0.8]{imagensRecFacial/RF_marcasFaciais.png} 
\caption{Esquema do sistema de deteção de marcas faciais. Adaptado de: \cite{Park2010}}
\label{marcas2}
\end{figure}

Este método não tem como objetivo principal a identificação do sujeito, no entanto pode ser utilizado para filtrar candidatos, ou grupos de candidatos, no meio das bases de dados, melhorando em muito o desempenho do sistema de reconhecimento que irá, de entre as faces filtradas, detetar a face que se procura \cite{A.K.Jain2011}.\\
Este sistema mostra uma lista de candidatos que apresentam uma marca característica, evidenciada por uma testemunha, mesmo sem a face presente, que associado a mais descrições como o peso ou idade, pode levar a um pequeno grupo de suspeitos \cite{A.K.Jain2011}.\\
Este sistema mostrou ainda grande precisão na identificação de gémeos idênticos, onde as marcas faciais são um aspeto crítico para a sua identificação \cite{A.K.Jain2011}.

\subsection{Retratos Robô}
\label{subsec:retratRobo}
Os humanos têm a capacidade de conseguir identificar pessoas a partir de retratos robô ou até mesmo de esboços de rostos.\\
O reconhecimento através de retratos robôs têm sido, desde há muito, utilizado na identificação de pessoas por parte das forças policiais. Normalmente o processo passa pela criação de um retrato robot, por um artista, com base numa descrição verbal que é dada por uma testemunha. São apresentadas depois uma série de imagens reais que correspondem à descrição dada pela testemunha para esta identificar a pessoa que se procura \cite{W.Zhao2003}.

Klare e Jain propuseram um método para a identificação facial através de retratos robôs que se baseava na abordagem baseada em características, a qual já tinha tido resultados bastante positivos em outros sistemas heterogéneos, nomeadamente em cenários de comparação de imagens captadas por infravermelhos com imagens captadas à luz visível \cite{Klare2010}.

Este método foi posteriormente melhorado pelos mesmos autores \cite{B.Klare2011}, onde adicionaram padrões binários locais, \textit{local binary patterns}(LBP), às características recolhidas no método anterior, método esse que já tinha sido testado com sucesso por Liao \textit{et al} \cite{S.Liao}. 

\begin{sidewaysfigure}
\centering
\includegraphics[scale=1]{imagensRecFacial/RF_sketch.png} 
\caption{Visão geral da fase de treino e de reconhecimento do algoritmos proposto por Klare e Jain \cite{B.Klare2011}. Adaptado de: \cite{B.Klare2011}}
\label{sketch1}
\end{sidewaysfigure}
A figura \ref{sketch1} mostra uma visão geral do método proposto por Klare e Jain. O reconhecimento é feito através da combinação de cada vetor de projeção, num único vetor, e medindo a distância normalizada entre o retrato robô de prova e as imagens na base de dados \cite{B.Klare2011}.\\
As principais dificuldades encontradas no reconhecimento facial através de retratos robô tem a ver com o facto de estes serem pobres em pormenores e o método de comparação envolve a verificação de imagens de esboços com imagens fotográficas. \cite{B.Klare2011}


\subsection{\textit{Avatars}}
\label{subsec:avatars}

Avatar vem do sânscrito \textit{Aval}. É definido na literatura indiana como a encarnação da divindade (\textit{Avatara}).\\
O termo tornou-se comum entre os meios de comunicação e informática devido às figuras que são criadas à imagem e semelhança do seu utilizador \cite{avatar}.
Um dos recentes problemas que as forças da lei encontram atualmente é o aumento da criminalidade em mundos virtuais. Os investigadores forenses estão cada vez mais interessados em conseguir encontrar e seguir pessoas em comunidades virtuais \cite{Klare2011}.\\
As relações sociais, económicas e psicológicas dos jogadores \textit{on-line} e os seus respetivos avatars, mostram que estes se assemelham muito aos seus criadores em vez de serem simples representações virtuais. Com a convergência entre o mundo real e virtual a diferença entre os avatars e os seus “donos” tende a desvanecer-se surgindo a necessidade, cada vez maior, de existirem sistemas de segurança que permitam trabalhar entre esses dois mundos, bem como nos sistemas de realidade aumentada.\\
Contudo, os sistemas de reconhecimento atuais, não foram desenvolvidos nem testados para o reconhecimento facial em não-humanos. Neste contexto, em 2011, Klare, Yampolsskiy e Jain propuseram um método de reconhecimento facial em mundos virtuais \cite{Klare2011}.\\
No contexto da investigação criminal e terrorista em mundos virtuais, os autores \cite{Klare2011} identificaram seis cenários que necessitariam de um algoritmo de reconhecimento facial. Quatro desses cenários tinham uma abordagem não semântica.

\begin{enumerate}
\item Comparar uma face humana com um avatar;
Esta capacidade é importante na medida em que permite ligar um avatar com a identidade real de uma pessoa. É extremamente comum a pessoa efetuar o \textit{upload} de uma foto sua para ser gerado um protótipo a 3D.

\item Comparar faces entre avatars;
Esta capacidade torna-se útil para o acompanhamento contínuo da personificação virtual, do seu utilizador, através do ciberespaço em diferentes alturas e lugares.Ver figura \ref{avatar}

\begin{figure}
\centering
\includegraphics[scale=0.7]{imagensRecFacial/RF_avatars.png} 
\caption{Representação facial de dois avatars com alteração de características. Fonte: \cite{Jain2010}.}
\label{avatar}
\end{figure}

\item Comparar faces de avatares de diferentes mundos virtuais;
Uma evolução recente nas comunicações virtuais tem a ver com interligação entre mundos virtuais diferentes. Um desses mundos, chamado HiPiHi, está a ser desenvolvido pela China, o que torna ainda mais difícil acompanhar a identidade dos avatars.

\item Comparar um esboço de um avatar com a face de um avatar.
Assim como é importante o reconhecimento facial através de um esboço criado a partir de uma testemunha, é também importante conseguir comparar um esboço de um criminoso virtual, com o avatar responsável por esse crime.

\end{enumerate}

\subsection{Reconhecimento Facial em Video}
\label{subsec:recFacialvideo}

O reconhecimento facial em video ganhou bastante visibilidade devido à grande utilização de câmaras de videovigilância. As imagens capturadas em video têm normalmente posições de face que variam ao longo do tempo de captura, assim como pode também variar a iluminação, a qual pode apresentar mudanças bruscas de intensidade \cite{B.Klare2011}.\\
A captura de múltiplas \textit{frames} permite que o sistema escolha as melhores poses, a melhor iluminação e a melhor expressão facial, de modo a que se consiga a melhor imagem possível para comparação na base de dados, elevando assim a precisão do sistema de reconhecimento \cite{A.K.Jain2011}.\\
Por norma as câmaras de videovigilância convencionais têm uma resolução bastante baixa. Um dos métodos para colmatar o problema da baixa resolução destas câmaras é utiliza-las em conjunto com câmaras PTZ, as quais permitem rotação e zoom automáticos e possuem uma resolução bastante superior às convencionais câmaras de video vigilância. Nesta utilização conjunta, a câmara de video vigilância convencional fica encarregue de detetar apenas os movimentos e a PTZ faz a posterior recolha das imagens \cite{H.-C.Choi2010}.\\
Vários foram os métodos desenvolvidos para ultrapassar muitas das situações relacionadas com a pose e iluminação.\\
Volker e Blanz \cite{Blanz2003} propuseram um método que sintetizava uma face em 3D, a partir de uma imagem 2D. Este método necessitava apenas de uma imagem simples independentemente da sua pose. No entanto, o método, necessitava de um alinhamento manual das faces antes do processo de transformação 2D para 3D.\\
Park e Jain \cite{Park2007} criaram um método que utilizava marcas faciais, obtidas através de uma sequência de video, para inferir o formato tridimensional da face. A utilização de uma câmara PTZ melhorou precisão de reconhecimento em 30\%. Todo o processo de reconhecimento, desde a captura à comparação, passando pela modelação da face em 3D levou em média 10 segundos por individuo.\\
Recentes desenvolvimentos nesta área, foram apresentados pela empresa Japonesa Hitachi Kokusai Electric, a qual testou um sistema de câmaras de video vigilância, que afirma poder procurar dados de 36 milhões de faces por segundo. Este sistema foi desenvolvido para vigilância de cenários bastante movimentados. Fonte: \url{http://www.diginfo.tv/v/12-0040-r-en.php}



\subsection{Infravermelhos de Proximidade}
\label{subsec:infrared}

Os infravermelhos de proximidade foram propostos como método de aquisição de faces para reconhecimento facial de forma a ultrapassar o problema relacionado com as variações de iluminação \cite{Klare2010a} \cite{S.Liao}.
Tal como o reconhecimento em retratos robôs, os infravermelhos são considerados ambientes de reconhecimento heterogéneos, uma vez que as imagens adquiridas no espectro infravermelho, enquanto as imagens da base de dados são imagens através de métodos normais de fotografia. Ver figura \ref{infraVermelhos}.

\begin{figure}[!htb]
\centering
\includegraphics[scale=0.8]{imagensRecFacial/RF_infrared.png} 
\caption{Imagens capturadas através de infravermelhos de proximidade(cima) e a sua correspondência fotográfica(baixo). Fonte: \cite{B.Klare2011}}
\label{infraVermelhos}
\end{figure}

Klare e Jain \cite{Klare2010a} propuseram uma \textit{framework} de comparação entre imagens adquiridas no espetro do infravermelho próximo, com imagens do espectro visível.\\
Dada a grande precisão na identificação de imagens, entre as imagens em infravermelhos e as imagens do espectro visível (\textit{true accept rate}\footnote{A taxa de aceitação verdadeira é utilizada para medir a performance de um sistema biométrico, na altura da verificação. É dada pela percentagem de vezes que um sistema verifica correctamente uma entidade verdadeira que está a ser reivindicada \cite{Biometrics2005}.} 94\%, \textit{false accept rate}\footnote{A taxa de falsa aceitação é utilizada para medir a performance de um sistema biométrico, na altura da verificação. É dado pela percentagem de vezes que um sistema identifica um individuo incorretamente, como sendo outro individuo existente na base de dados \cite{Biometrics2005}.} 1\%), seria também importante considerar a utilização deste método de aquisição de imagens em câmaras de videovigilância, de forma a compensar os problemas relacionados com a variação da iluminação \cite{B.Klare2011}.\\
Uma vez que a visão humana não é sensível à iluminação infravermelha, os sistemas de reconhecimento facial por infravermelhos poderiam utilizar iluminação infravermelha diretamente, sem alertar o sujeito, trazendo benefícios para os sistemas de reconhecimento facial em determinados tipos de ambientes, nomeadamente onde a discrição dos sistemas fosse importante \cite{B.Klare2011}.

 


\section{Aplicações do Reconhecimento Facial}
\label{sec:aplica}
Cada vez mais a segurança é uma preocupação primordial de todas as pessoas. Aos métodos tradicionais podemos juntar características biométricas para aumentar o nível de acessos e consequentemente a segurança em geral.\\ 
Desde os atentados do 11 de Setembro, fundamentalmente, que a preocupação com a segurança aumentou exponencialmente. A preocupação em monitorizar as pessoas para antecipar atendados fez com que a tecnologia desenvolvesse mecanismos robustos que permitissem identificar suspeitos. Como tal, o reconhecimento facial passou a ser um método muito usado, no entanto as aplicações comerciais, até agora, apenas exploraram, muito superficialmente, as potencialidades dos sistemas de reconhecimento facial \cite{Senior2002}.\\
As aplicações dos sistemas biométricos de reconhecimento facial vão desde a video vigilância até à computação ubíqua, passando pelas ciências forenses, pelos sistemas de identificação e controlo de acessos, entre outros.\\
Em 1998, a tecnologia \textit{FaceIt}, da Visionics, foi implementada pela primeira vez para aumentar a vigilância do centro da cidade de Newham Borough, em Londres. Ligadas a uma sala de controlo, foram instaladas 300 câmaras de video num circuito fechado de televisão (CCTV). As entidades responsáveis alegam que a tecnologia ajudou a alcançar uma queda 34\% no crime desde a sua instalação \cite{SSIM}.\\
Equipamentos e software \textit{faceFINDER}, da Viisage, foram utilizados para monitorizar o estádio público \textit{Raymond James Stadium}, no \textit{Super Bowl} de 2001, na Flórida, na procura de criminosos. Todas as pessoas que entraram no estádio foram filmadas por câmaras de video estrategicamente colocadas e ligadas a um centro de comando das forças de segurança. Digitalizavam os rostos e comparavam com listas fotográficas de criminosos conhecidos. O sistema também foi usado pela polícia de \textit{South Wales}, na Austrália, para identificar \textit{hooligans} proibidos de assistir aos jogos de futebol.\\
Durante os Jogos Olímpicos de 2008, a Academia Chinesa de Ciências desenvolveu um sistema de reconhecimento facial para controlar a entrada nas cerimónias de abertura e encerramento dos Jogos Olímpicos. Segundo a academia, foi a primeira vez que tal tecnologia foi adotada como medidas de segurança na história dos jogos olímpicos.\\
Em outubro de 2001, o aeroporto californiano \textit{Fresno Yosemite International} implementou a tecnologia Viisage para fins de segurança. O sistema tem como objetivo alertar os agentes de segurança sempre que um individuo com aparência semelhante a um terrorista conhecido entre na zona de \textit{check-in}.\\
Na Malásia, 16 aeroportos utilizam um sistema de segurança baseado em reconhecimento facial para melhorar a segurança de passageiros e bagagens. Uma pequena câmara colocada no \textit{check-in} das bagagens captura um video dos passageiros e armazena os dados num chip. Esse chip está incorporado no cartão de embarque. O sistema assegura que apenas os passageiros que efetuarem o \textit{check-in} podem entrar na sala de embarque e a bordo da aeronave, e que apenas as suas bagagens entram no avião.\\
O sistema \textit{ZN-Face} combina o reconhecimento facial com tecnologia de cartões inteligentes. É usado para proteger zonas de segurança no aeroporto de Berlim. As características da face do indivíduo são armazenadas num cartão inteligente. O \textit{ZN-Face} compara e verifica a informação do cartão com as leituras efetuadas em cada ponto de controlo \cite{siemens}.\\
Para segurança nos computadores também tem sido aplicada tecnologia de reconhecimento facial. Para evitar que alguém modifique ficheiros, pastas ou realize qualquer tarefa para a qual não está autorizado, quando o utilizador deixa o computador momentaneamente, os utilizadores são autenticados continuamente, garantindo que o indivíduo em frente que está ao computador é a pessoa autorizada.\\
A Universidade de Missouri-Rolla, optou pelo sistema de reconhecimento facial Omron para garantir a segurança de um centro de investigação onde forma engenheiros nucleares. Numa das salas encontra-se um reator nuclear de 200 quilowatt que usa urânio empobrecido. Para aceder à sala, os utilizadores, devem passar por um átrio monitorizado, seguir para uma segunda porta acedida por chave e uma terceira porta protegida por código de segurança e reconhecimento facial.\\
O \textit{FaceGate} é um sistema de controlo de acesso a edifícios. Para entrar num edifício é necessário marcar o código de entrada ou introduzir um cartão e enfrentar uma câmara no sistema de entrada da porta. Através da aplicação de um modelo matemático para uma imagem facial, o \textit{FaceGate} gera uma única "chave". Sempre que se acede a um edifício, é verificado o código da pessoa ou o cartão e comparado o rosto com a "chave" armazenada \cite{BACFR}.
No ponto de acesso, o rosto de cada pessoa é capturada por uma câmara de video, e as características faciais são extraídas através do \textit{software} \textit{FaceVACS-Entry} e comparadas numa base de dados. Os terminais com \textit{FaceVACS-Entry} podem ser ligados em rede. Assim, após a inscrição central, os dados da face são enviados automaticamente para todos os terminais \cite{Cognitec2005}.






\section{Limitações dos Sistemas de Reconhecimento Facial}
\label{sec:seguranca}

Embora as tecnologias de reconhecimento facial tenham um grande potencial, atualmente o seu âmbito de aplicação é ainda um pouco limitado \cite{Li2005}.
Esta tecnologia ainda não é suficientemente precisa e robusta, especialmente em ambientes não controlados, apresentando ainda valores não aceitáveis em aplicações de larga escala.
Alguns testes efetuados, através da base de dados FRVT, a algumas das melhores aplicações no mercado \cite{Phillips2002}, num ambiente interior, com uma galeria de 37.437 imagens por pessoa e um conjunto de provas de duas imagens por individuo, totalizando 74 854. Os melhores três sistemas, em média, atingiram taxas verificação na ordem dos 90\%, com uma taxa de falso alarme de 1\%, 80\% com uma taxa de falso alarme de 0,1\% e 70\% com uma taxa de 0,01\%.\\
Embora tenham existido progressos que aumentaram as taxas de verificação de 80\% para 99\%, com uma taxa de falso alarme de 0,1\%, como demonstrado em \cite{Phillips2006}. Estes valores poderão ser suficientes para um sistema de controlo de acessos com uma base de dados de apenas algumas centenas de indivíduos, no entanto pode não ser o indicado para um sistema de segurança num aeroporto, onde o número de pessoas a identificar é muito superior.\\
Um exemplo de uma implementação falhada de um sistema de reconhecimento facial foi na polícia da Flórida, que ao fim de uma sessão de quatro dias, em que o sistema apresentou 14 identificações de um possível suspeito e nenhuma delas era pertencente ao sujeito procurado. A polícia acabou por abandonar este sistema \cite{Li2005}.\\
Uma outra limitação do sistema tem a ver com o facto das questões da privacidade que o mesmo levanta, tendo mesmo criado vozes contra, com o argumento que os sistemas invadiam a privacidade das pessoas sem ter resultados práticos devido à ineficácia dos mesmos \cite{ACLU}.
A União Americana dos Direitos Civis (\textit{American Civil Liberties Union} (ACLU)) opôs-se à implementação destes sistemas, com a alegação de que a tecnologia de reconhecimento facial trás consigo uma ferramenta que permite espiar os cidadãos em locais públicos  \cite{ACLU}.\\
Uma resposta para estas questões pode passar pela criptografia de forma a ocultar os dados pessoais, bem como direitos bem especificados de quem pode ou não ter acesso à informação biométrica, prevenindo assim violações através de acessos não autorizados \cite{Senior2002}.




\section{O Futuro do Reconhecimento Facial}
\label{sec:ofuturo}
Os sistemas de reconhecimento facial apresentam um futuro promissor tanto em cenários em que é necessária uma autorização como em cenários onde a identificação é crucial.\\ 
O futuro deste sistema biométrico passa pela implementação em sistemas onde a segurança de acessos é um ponto crítico, como o caso de empresas de fornecimento de energia, centrais nucleares ou até mesmo em centros de controlo de emergências.\\ 
Os cartões eletrónicos inteligentes estão também a abrir novas janelas de oportunidades no controlo facial em áreas como a banca.\\ 
A procura do público geral, a este tipo de sistemas, terá também tendência a aumentar, uma vez que a tecnologia está cada vez mais barata. Pode-se, atualmente, encontrar exemplos desta tecnologia em equipamentos convencionais como computadores portáteis ou \textit{smartphones} \cite{FauneHughes2009}.\\
Com um mercado estimado em mil milhões de euros, as tecnologias biométricas serão responsáveis pela investigação e desenvolvimento de várias técnicas e melhores equipamentos, como as tecnologias óticas, câmaras de infravermelhos, tecnologias acústicas, micro-ondas, sensores de movimento, sensores de pressão, campos elétricos e magnéticos, bem como as emissões químicas corporais, são o exemplo de campos da ciência que a tecnologia biométrica pode impulsionar \cite{Bicz2006}.\\
Outra direção apontada para o futuro destes sistemas, será a integração de vários tipos de sistemas biométricos diferentes, como a impressão digital ou o reconhecimento da íris, para adicionar mais grau de certeza e segurança aos sistemas de reconhecimento facial.\\
Uma das técnicas apontadas como futuro no reconhecimento facial é a holografia acústica, que utiliza ultrasons para criar representações faciais em 3D, com um custo muito inferior e uma precisão muito superior às câmaras óticas, para medição e posterior modelação 3D. Estas câmaras poderão medir uma superfície em 3D de um objeto, ou face, bem como a vibração por esta emitida. Desta forma conseguem-se precisões superiores a outros sistemas multimodais que utilizam, por exemplo, a voz e a face, como meio de autenticação, uma vez que estas ondas são mais difíceis de replicar, que as da voz, tornando o sistema mais difícil de burlar.\\
É também realístico falar em técnicas eletromagnéticas e visualização por infravermelhos, as quais podem melhorar os sistemas de vigilância de locais públicos como por exemplo os aeroportos \cite{Bicz2006}.\\
Num futuro não muito distante o nosso dia-a-dia pode ser algo que apenas vemos na ficção científica.\\
De manhã ao sairmos para o trabalho, o sistema de reconhecimento facial instalado no nosso carro, verifica se temos autorização para iniciar o motor, enquanto a configuração do volante e do banco, assim como a climatização se adapta ao nosso perfil e temperatura. Se decidirmos ir de transportes públicos, o sistema de reconhecimento facial verifica a foto do nosso passe com o nosso rosto. Ao entrarmos no edifício do nosso escritório passamos pelo controlo de acessos baseado em reconhecimento facial, que compara a nossa face com a base de dados das pessoas autorizadas a entrar no edifício. Sentamo-nos em frente ao nosso computador e os algoritmos de reconhecimento facial iniciam a sessão na nossa área pessoal. Ao utilizarmos um cartão multibanco inteligente, estaremos sujeitos à verificação facial por parte do banco. Numa viagem, seremos sujeitos aos sistemas de verificação facial dos aeroportos, por uma questão de segurança. Quando formos a uma loja, restaurante ou cinema, os sistemas de reconhecimento facial, ligados ao sistema bancário do nosso banco, deduzem automaticamente o dinheiro da nossa conta bancária ao proceder ao pagamento das compras, com a verificação através de um pin ou até mesmo de outro sistema biométrico \cite{Li2005}. Em casa, o sistema de reconhecimento facial verifica se vivemos nela e o sistema domótico, ligado ao sistema de reconhecimento facial, prepara o ambiente para nosso conforto, enquanto utilizamos o sistema de votação remoto com autenticação através de reconhecimento facial, com a segurança de conjunto de chaves públicas e privadas, que permite que enviemos os dados de forma segura, para votar nas próximas eleições.\\ 
Este pode ser um futuro próximo e não muito ficcional do que poderão ser os sistemas de reconhecimento facial do futuro.


\section{Conclusão}
\label{sec:Conclusão}
A tecnologia biométrica de reconhecimento facial está cada vez mais barata e fiável. Ela tem o potencial de trazer várias vantagens para a sociedade, nomeadamente em questões de segurança ou até mesmo como meio de entretenimento ou conforto, permitindo adequar ambientes, ou conteúdos, a um determinado sujeito.\\
A tecnologia de reconhecimento facial está significativamente avançada desde o tempo que o método \textit{Eigenface} foi inicialmente proposto.\\
Em situações onde existe algum tipo de cobertura ou alteração da imagem da face, como por exemplo variações de iluminação, óculos, cachecóis, expressões faciais diferentes ou determinadas poses, a tecnologia atual, pode até, em determinados casos, ser mais precisa que o próprio ser humano.\\ 
Um dos aspetos onde os sistemas de reconhecimento facial poderão evoluir, tem a ver com identificação de indivíduos, que foram submetidos a cirurgias plásticas \cite{H.S.Bhatt}. Esta situação é pouco estudada na literatura científica e que é utilizado como forma de evasão, pelos criminosos, de forma a passar este tipo de sistemas, sem serem identificados, uma vez que os problemas relacionados com reconhecimento facial, com a oclusão parcial ou total do rosto, através da utilização de adereços no rosto, estão cada vez mais a ser ultrapassados por novos métodos e abordagens.\\
Uma outra direção apontada para o melhoramento da precisão deste sistema biométrico passa pela combinação com outros sistemas de reconhecimento biométricos, como o reconhecimento da voz, iris ou impressão digital \cite{Li2005}.\\
À medida que esta tecnologia evolui, são levantadas também questões relacionadas com a invasão de privacidade, havendo já muitas vozes contra este tipo de sistema biométrico. Cabe, no entanto, a cada país criar leis próprias, que regulem a implementação e utilização de sistemas de reconhecimento facial, de forma a terem o menor impacto possível na privacidade das suas populações.\\
É inegável a evolução que as técnicas e algoritmos de reconhecimento facial têm sofrido, no entanto, esta tecnologia não é de todo perfeita. Existem ainda muitos desafios no que toca à aquisição e reconhecimento de faces em ambientes não controlados.

