\documentclass[utf8, seminar]{ru}
\usepackage{booktabs}

\begin{document}

\title{Uporaba analize glavnih komponenti pri raspoznavanju lica}

\author{Andrija Čajić \and Mateja Čuljak \and Karlo Jež \and Daria Štefić \and Ante Kegalj \and Diana Krušelj-Posavec \and Petra Zadro}

\maketitle

\tableofcontents

\chapter{Uvod}
Čovjek je u stanju kroz cijeli svoj životni vijek prepoznavati tisuce viđenih lica, te
identificirati prijateljska lica istog trenutka, unatoč godinama razdvojenosti. Ta
vještina je vrlo robusna, usprkos mnogim promjenama i različitim vizualnim 
stimulacijama ovisnima o uvjetima u kojima se lice promatra, o izrazu lica, starenju
ili drugim smetnjama poput naočala, promjene frizure i slicno.

Sustavi za raspoznavanje lica su zanimljivi ne samo iz teoretskih razloga, već
i iz praktične primjene. Prepoznavanje lica može se primjeniti na niz problema
u stvarnom svijetu (kao što su na primjer identifikacija zločinaca, kod sigurnosnih 
sustava, u obradi slike i filma, kod interakcije čovjeka i računala, itd.). Nažalost, 
razvoj sustava za raspoznavanje lica je poprilično težak zbog mnogobrojnih 
karakteristika lica.

Upravo taj problem pokušava se riješiti sa metodom analize glavnih 
komponenti (engl. Principal Component Analysis, poznatije kao PCA) kojom želimo 
izlučiti samo one karakteristike lica koje su nam bitne za prepoznavanje lica i kodirati 
ih što je efikasnije moguće. Tako bi prilikom dovođenja nove nepoznate slike sustavu 
mogli uspoređivati tu sliku samo po tim karakterističnim značajkama sa ostalim 
slikama poznate klasifikacije iz baze i prema tome vidjeti kojem licu nova slika 
pripada.

Konkretno, PCA omogućuje reduciranje dimenzionalnosti prostora
značajki, tj. eliminaciju redundantnih podataka iz skupa za učenje. Matematički
rečeno, želimo naći svojstvene vektore kovarijacijske matrice skupa slika lica po 
kojima ćemo raspoznavati nove slike lica. Pri tome sliku tretiramo kao točku (ili 
vektor) u prostoru velikih dimenzija. 

% Jedno od važnih pitanja u projektiranju klasifikatora jest odabir dimenzije
% vektora značajki. Povećanjem broja značajki se smanjuje pogreška klasifikacije,
% no prevelikim povećanjem dolazi do prenaučenosti te ukupna kvaliteta
% klasifikatora opada. Stoga je potrebno odabrati niti preveliku niti premalu
% dimenziju vektora značajki. Analiza glavnih komponenti \engl{principal component
% analysis, \emph{PCA}} nam omogućuje reduciranje dimenzionalnosti prostora
% značajki, tj.\ eliminaciju redundantnih podataka iz skupa za učenje.

\chapter{Analiza glavnih komponenti (PCA)}

Metoda PCA je vrlo dobar alat za određivanje glavnih karakteristika 
skupa podataka, učinkovita je za smanjenje dimenzionalnosti, pa tako i 
prepoznavanje uzoraka. Prednosti ovog  pristupa su što omogućuje učenje, te 
kasnije prepoznavanje novih lica, a i brzina, jednostavnost, kapaciteti primjera koji se 
mogu naučiti, te određena doza osjetljivosti na sitne promjene na slikama lica. 
Problem ovog rješenja je ograničenost slika na kojima se može prepoznavati lice 
(moraju zadovoljavati neke uvjete koji će biti kasnije navedeni).


%Analiza glavnih komponenti je linearna transformacija (\emph{Karhunen-Loeve
%transformacija}) skupa vektora (uzoraka, tj.\ primjera) u novi skup vektora
%tako da nove komponente vektora imaju posebna statistička svojstva. Uzorak
%$\mathbf x$ je vektor značajki koji opisuje jedan primjer iz skupa za učenje:
%$$\mathbf x = [x_1 x_2 x_3 \ldots x_n]$$
%gdje je $n$ dimenzija vektora (broj značajki). Skup svih uzoraka nad kojim
%radimo označimo sa $\Omega$.

%PCA postupak se provodi kroz 5 koraka:
%\begin{enumerate}
%  \item usrednjavanje uzoraka,
%  \item računanje kovarijacijske matrice,
%  \item računanje svojstvenih vektora (i vrijednosti) kovarijacijske matrice,
%  \item odabir komponenti i formiranje vektora značajki,
%  \item izgradnja novog skupa uzoraka.
%\end{enumerate}

\section{Usrednjavanje uzoraka}
Prvi korak PCA postupka je ``usrednjavanje uzoraka,'' tj.\ posmicanje uzoraka u prostoru tako da im
srednja vrijednost iznosi nula (0). Postupak se provodi tako da se od svakog uzorka oduzme srednja
vrijednost svih komponenti. Srednja vrijednost svih komponenti se dobiva izrazom
$$\bar{\mathbf{x}} = \frac{\sum_i^M \mathbf x_i}{M},$$
pri čemu je $M$ kardinalitet skupa $\Omega$ (broj uzoraka), a $\mathbf x_i$ element tog skupa.
Nakon izračuna $\bar{\mathbf{x}}$, posmicanje uzoraka se vrši oduzimanjem srednje vrijednosti od svakog
uzorka, odnosno provodimo:
$$\mathbf{x} = \mathbf x - \bar{\mathbf{x}},\, \forall \mathbf x \in \Omega .$$

\section{Računanje kovarijacijske matrice uzoraka}
Kovarijacija je mjera koja se uvijek mjeri između dvije dimenzije, a ukoliko se mjeri između neke dimenzije i nje same, onda je to ustvari njena varijanca (to će biti elementi kovarijacijske matrice na dijagonali). Dakle, da bi smo nekako mogli vidjeti kako pojedina dimenzija vektora ovisi o drugim dimenzijama, koristit ćemo matricu kovarijacija. 

Kovarijacijska matrica uzoraka ($\mathbf C$) računa se izrazom:
$$\mathbf C = (c_{ij}),\, c_{ij} = \textrm{cov}(\mathbf x_i, \mathbf x_j),$$
pri čemu su $\mathbf x_i $ i $\mathbf x_j$ elementi skupa $\Omega $, a $\textrm{cov}(\mathbf x_i, \mathbf x_j)$
kovarijanca vektora $\mathbf x_i$ i $\mathbf x_j$ definirana kao:
$$\textrm{cov}(\mathbf x, \mathbf y) = \frac{\sum_{i=1}^n (\mathbf x_i - \bar{\mathbf x})(\mathbf y_i - \bar{\mathbf y})}{n-1},$$
pri čemu je $n$ dimenzionalnost vektora $\mathbf x$, odnosno $\mathbf y$.

Kovarijacijska matrica uzoraka zapravo sadrži mjeru kovarijacije između svih uzoraka u skupu uzoraka $\Omega$.
Primjerice, ako imamo skup uzoraka $\Omega = \{\mathbf x_1, \mathbf x_2, \mathbf x_3 \}$ tada je kovarijacijska
matrica:
$$\mathbf C = 
\left( {\begin{array}{ccc}
 \textrm{cov}(\mathbf x_1, \mathbf x_1) & \textrm{cov}(\mathbf x_1, \mathbf x_2) & \textrm{cov}(\mathbf x_1, \mathbf x_3)  \\
 \textrm{cov}(\mathbf x_2, \mathbf x_1) & \textrm{cov}(\mathbf x_2, \mathbf x_2) & \textrm{cov}(\mathbf x_2, \mathbf x_3)  \\
 \textrm{cov}(\mathbf x_3, \mathbf x_1) & \textrm{cov}(\mathbf x_3, \mathbf x_2) & \textrm{cov}(\mathbf x_3, \mathbf x_3)  \\
 \end{array} } \right).
$$
Prilikom računanja dobro je znati da vrijedi
$$\textrm{cov}(\mathbf x, \mathbf y) = \textrm{cov}(\mathbf y, \mathbf x),$$
odnosno, $\mathbf C$ je dijagonalno simetrična kvadratna matrica.

\section{Računanje svojstvenih vektora}
Kod linearnih transformacija množenje vektora kvadratnom matricom mijenja
njegovu vrijednost i orijentaciju. Transformacija određenih vektora matricom
utječe samo na njihovu vrijednost dok orijentacija ostaje ista.
Takve vektore nazivamo svojstvenim vektorima matrice.

Transformacija svojstvenog vektora skalira njegovu vrijednost
za određeni faktor koji nazivamo svojstvena vrijednost ($\lambda$). Ako je svojstvena
vrijednost negativna mijenja se smjer, ali ne i orijentacija vektora.
Za svaku distinktivnu svojstvenu vrijednost $\lambda$ postoji barem jedan
svojstveni vektor $\mathbf{u}$ koji odgovara $\lambda$. Zajedno
čine svojstveni par $(\lambda,\, \mathbf{u})$. Kvadratna matrica ne mora imati svojstvene
vektore, ali ako postoje ima ih $n$, pri čemu je $n$ broj redaka, odnosno stupaca
matrice te su ti vektori međusobno okomiti.

Svojstveni par $(\lambda, \mathbf u)$ tražimo tako da izraz
$$\lambda_k = \frac{1}{M}\sum_{n=1}^M(\mathbf u_k^T \bar{\mathbf x})^2$$
postiže maksimum, s time da je
$$\mathbf u_l^T \mathbf u_k = \left \{
\begin{array}{cc}
1, & l=k \\
0, & \text{inače}\\
\end{array}
\right.$$
a $\bar{\mathbf x}$ je usrednjeni uzorak.
Vektor $\mathbf u_k$ je svojstveni vektor kovarijacijske matrice, a $\lambda_k$ je njegova
pripadajuća svojstvena vrijednost.

Formalno, ako je $\mathbf{A}$ linearna transformacija,
ne-nul vektor $\mathbf{u}$ je svojstveni vektor od $\mathbf{A}$
ako postoji skalar $\lambda$ takav da je
    $$\mathbf{A}\mathbf{u} = \lambda \mathbf{u}$$
Skalar $\lambda$ je svojstvena vrijednost od $\mathbf{A}$ koja odgovara
svojstvenom vektoru $\mathbf{u}$.

\section{Odabir komponenti i izgradnja skupa}
Kovarijantna matrica je kvadratna te se mogu izračunati njezini
svojstveni vektori i vrijednosti.
Dobivenom matricom svojstvenih vektora $\mathbf{V}$ dijagonalizira se
kovarijantna matrica $\mathbf{C}$
    $$ \mathbf{V}^{-1}\mathbf{CV}=\mathbf{D} $$
pri čemu je $\mathbf{D}$ dijagonalna matrica svojstvenih
vrijednosti od $\mathbf{C}$. Matrica $\mathbf{D}$ ima oblik $n \times n$ dijagonalne matrice gdje je
% Provjeriti jesu li dimenzije stvarno n x n (kao kod kovarijacijske)
    $$\mathbf D_{pq}=\lambda_m \qquad \text{za } p=q=m$$
$m$-ta svojstvena vrijednost kovarijantne matrice $\mathbf{C}$ i
$\mathbf D_{pq}=0$, za $p \neq q.$

Matrica $\mathbf{V}$ ima dimenzije $n \times n$ te su stupci matrica
$\mathbf{C}$ i $\mathbf{V}$ poredani i upareni. Stupci matrice
svojstvenih vektora $\mathbf{V}$ i dijagonalne matrice svojstvenih
vrijednost $\mathbf{D}$ sortiraju se prema svojstvenoj vrijednosti
od najveće prema najmanjoj pri čemu se obraća pozornost na
ispravan redoslijed parova stupaca u obje matrice.

Svojstveni su vektori sada poredani po važnosti pa se može smanjiti dimenzija
podataka odabirom samo prvih $L$ stupaca od $\mathbf{V}$. Za odabir
konačnog broja dimenzija može se upotrijebiti usporedba suma svojstvenih
vrijednosti prije i poslije smanjivanja broja dimenzija te odrediti prag
za određivanje granice $L$. Primjerice:
    $$g_m = \displaystyle\sum\limits_{q=1}^m \mathbf D{qq}
    \qquad \text{za } m=1,\ldots,n$$
odabiremo prag od 90\%:
    $$ \frac{g_{m=L}}{g_{m=n}} \geq 90\% $$

Posljednji je korak PCA množenje izvornog skupa podataka sa svojstvenom
matricom.
    % PROMIJENITI IMENA MATRICE IZVORNOG SKUPA PODATAKA! :)
    $$ \mathbf{KonacniPodaci} = \mathbf{V}^T \times \mathbf{Podaci}^T + \bar{\mathbf x}$$
    

\chapter{Klasifikacija novog uzorka}

Nakon provedene redukcije dimenzija vektora značajki novom nepoznatom
predstavljenom uzorku, na redu je provođenje klasifikacije, tj.\ određivanje u
koju poznatu skupinu lica spada novo lice. To ćemo provoditi klasifikacijskim
pravilom najbližeg susjeda \engl{Nearest Neighbor, \emph{NN}}.

\section{1-NN klasifikacija}
\emph{1-NN} klasifikacije gleda se najveća sličnost nepoznatog uzorka sa samo
jednim uzorkom iz skupa uzoraka sa poznatom klasifikacijom.

Raspolažemo sa skupom uzoraka s poznatom klasifikacijom $\{\mathbf s_1, \mathbf s_2, \ldots, \mathbf s_N \}$
i svaki od tih uzoraka pripada jednom od razreda $\omega_1, \omega_2, \ldots, \omega_M$.

Tada nepoznati uzorak $\mathbf x$ pripada razredu $\omega_k$ ako $\mathbf s_i$, najbliži susjed uzorku $\mathbf x$ pripada razredu $\omega_k$:
$$d(\mathbf s_i, \mathbf x) = \min_l\{d(\mathbf s_l, \mathbf x)\},\qquad l = 1, 2, \ldots, N,$$
pri čemu je $\mathbf s_l \in \{\mathbf s_1, \mathbf s_2, \ldots, \mathbf s_N \}$, a $d(\cdot,\cdot)$ neka mjera za udaljenost definirana na prostoru značajki
(Euklidska udaljenost, Mahalanobisova udaljenost, Čebiševljeva udaljenost, \ldots). U
našem slučaju sličnost između uzoraka ćemo mjeriti Euklidskom udaljenošću i
udaljenošću preko izračunatih vrijednosti kosinusa kuta između dva vektora
\engl{cosine-similarity}, koje će biti opisane u nastavku.

\section{q-NN klasifikacija}
Kod 1-NN pravila za klasifikaciju koristio se samo najbliži susjed, ali općenito
za klasifikaciju se može koristiti $q$ najbližih susjeda uzorku $\mathbf x$ ($q$ se odabire tako da
ne bude višekratnik broja razreda).

Postupak se provodi na sljedeći način: na temelju $q$ uzoraka utvrđuje se broj
vektora $q$ koji pripadaju razredu $\omega_i$, $i = 1, 2, \ldots, M$. (Vrijedi $\sum_i q_i = q$.)
Razvrstaj $\mathbf x$ u razred $\omega_k$ za koji vrijedi da je $q_k$ maksimalan.

Pravila klasifikacije 1-NN i $q$-NN su za slučajeve kad su skupovi uzoraka za
učenje veliki vrlo djelotvorna. Međutim, problem kod predstavlja kompleksnost
izračuna udaljenosti i traženja $q$ najbližih udaljenosti. Problem je još
izraženiji za veliku dimenzionalnost prostora značajki. Ti problemi bi se mogli
rješiti predstavljanjem razreda karakterističnim uzorkom ili uređivanjem uzoraka
iz skupa za učenje (npr.\ izlučivanje uzoraka jednog razreda koji se miješaju u
prostoru značajki sa uzorcima iz drugog razreda).

\section{Mjere udaljenosti}
Mjere udaljenosti (ili sličnosti) određuju udaljenost dvaju vektora u prostoru.
Ako je $d$ udaljenost, tada $d(\mathbf a, \mathbf b)$ mora imati sljedeća svojstva \citep{duda2001pattern}:
\begin{description}
\item[Ne negativnost:] $d(\mathbf a, \mathbf b) \geq 0$
\item[Refleksivnost:] $d(\mathbf a, \mathbf b) =  0 \text{ ako i samo ako } \mathbf a = \mathbf b$
\item[Simetričnost:] $d(\mathbf a, \mathbf b) =  d(\mathbf b, \mathbf a)$
\item[Nejednakost trokuta:] $d(\mathbf a, \mathbf b) + d(\mathbf b, \mathbf c) > d(\mathbf a, \mathbf c)$
\end{description}   

\subsection{Euklidska udaljenost}
Euklidska udaljenost između točaka $\mathbf x$ i $\mathbf y$ u
\emph{n}-dimenzionalnom prostoru definirana je na sljedeći način:
$$d(\mathbf x, \mathbf y) = ||\mathbf x - \mathbf y|| = \sqrt{\sum_{i=1}^n(\mathbf x_i - \mathbf y_i)^2}.$$

\subsection{Udaljenost preko kosinusa}
\emph{Cosine-similarity} je mjera sličnosti između dva vektora u \emph{n}-dimenzionalnom
prostoru koja se dobiva tako da se računa kosinus kuta između njih. Imamo li dva
vektora $\mathbf{x}$ i $\mathbf{y}$, definirana je na sljedeći način:
$$\cos(\theta) = \frac{\mathbf x \cdot \mathbf y}{||\mathbf x||\cdot || \mathbf y ||}.$$

Rezultat sličnosti kreće se od vrijednosti $-1$ (što znači da su vektori suprotni)
do 1 (što znači da su potpuno isti). Rezultat 0 indicira nezavisnost, a sve
ostale vrijednosti između predstavljaju sličnost, odnosno različitost vektora.

\chapter{Raspoznavanje lica}

Ideja rješavanja zadanog problema je da se slika lica projicira na $2D$ prostor
značajki koji prikazuje raspon bitnih varijacija među već poznatima prikazima lica, tzv.
``prostor lica''. Taj mali skup bitnih značajki se naziva ``eigenfaces'' tj.\
svojstvena lica, i oni predstavljaju svojstvene vektore skupa lica. Skup podataka
poznatih lica tvori skup za učenje. Projekcija lica karakterizira lice kao
težinsku sumu svojstvenih vektora, tako da se za raspoznavanje uspoređuje
dobivena suma sa već poznatim primjerima. Lice se, dakle, klasificira
uspoređivanjem njegovog položaja u prostoru lica s položajem poznatih primjera.

\section{Baza lica}
Problemu raspoznavanja
lica se pristupa kao raspoznavanju $2D$ uzoraka, bez potrebe za rekonstruiranjem $3D$
modela iz danih slika, podrazumijevajući da su dani primjeri fotografirani na
odgovarajući način, tako da mogu biti opisani skupom $2D$ karakteristika. Uvjeti za
raspoznavanje:
\begin{itemize}
  \item da su lica uspravna,
  \item da se mogu opisati kao mali skup dvodimenzionalnih podataka,
  \item da su slike frontalnog pogleda, pod kutom od 45\% i gledane iz profila.
\end{itemize}

Baza lica koju smo koristili, sastoji se od 295 različitih lica. Za svako lice
postoje četiri snimanja, a svako snimanje daje dvije slike. Slike smo
rasporedili u dva skupa, jedan za učenje, a drugi za testiranje. Slike smo
rasporedili tako da smo prvo i drugo snimanje smjestili u skup za učenje, a
treće i četvrto u skup za testiranje (u svakom skupu po četiri slike svakog
lica).

	!!!!!prijedlog: da stavimo primjer slike iz baze? tipa 2 komada?!!!!!

\section{Modeliranje sustava}

	!!!!!Jesmo li radili ovako kako sam prepravila?? i što onda s
	grafom\ldots !!!!!
\newline
 Prvo radimo inicijalizaciju sustava:
\begin{enumerate}
  \item Učitava se skup slika za učenje.
  \item Računaju svojstveni vektori na osnovu svih uzoraka iz skupa za
  učenje. Zatim se sačuva samo određen postotak svojstvenih vektora,
  uzimajući one sa boljim vrijednostima. Odabranim svojstvenim vektorima se
  definiraju svojstvena lica.
  \item Sva lica iz skupa za učenje projiciraju se u prostor
  svojstvenih lica. Time smo postigli smanjenje vektora značajki uzoraka.
\end{enumerate}
Nakon što smo uspješno inicijalizirali sustav, za prepoznavanje novog lica provodi se sljedeći postupak:
\begin{enumerate}
   \item  Nova ulazna slika, iz skupa za testiranje, projicira se u prostor
   svojstvenih lica.
   \item  Dobiveni uzorak se, nekom od metoda klasifikacije, pokušava svrstati u
   neku od klasa, tj. pridružiti se nekom od već poznatih lica.
\end{enumerate}

Koji postotak svojstvenih vektora uzeti se određuje ekspreimentiranjem, ovisno o
odabranom načinu klasifikacije, provjerava se sa kojim najmanjim postotkom
svojstvenih vektora se dobivaju najbolji rezultati.
Uspješnost raspoznavanja određuje se provođenjem
klasifikacije svih uzoraka iz skupa za testiranje, pritom brojeći uspješne, tj. neuspješne klasfikacije. 

Prikaz dijagrama toka primjera provedbe PCA prilikom raspoznavanja lica
može se vidjeti na slici \ref{fig:alg}.

\begin{figure}[htb]
  \begin{center}
    \includegraphics[width=6.5cm]{algoritam.png}
  \end{center}
  \caption{Dijagrama toka postupka prepoznavanja lica.}
  \label{fig:alg}
\end{figure}

\section{Implementacija}

!!!!!Matlab\ldots program, kak napisan, što radi, što prima što daje\ldots i tak
to xD \ldots koliko to detaljno pisati uopće?!!!!!
\newline

Postupak je implementiran u \emph{Matlab}u. 
Prije pokretanja programa, potrebno je bazu lica rasporediti u mape za učenje i testiranje. Prilikom izvršavanja
programa, ispisuje se definirani postotak uzetih značajki, otvara prikaz
srednjeg lica, te najboljeg svojstvenog lica. Na kraju izvršavanja program
ispisuje točnost klasifikacije u obliku postotka točno klasificiranih lica iz
skupa za testiranje.

!!!!! prijedlog2: Staviti slike srednjeg lica i najboljeg svojstvenog koje nam
izbacuje matlab?? !!!!!

\chapter{Rezultati}


Ukupan broj značajki je 1179.996. Najbolja uspješnost klasifikacije se postiže za 1-nn klasifikator koji koristi cityblock udaljenost, te 90 značajki (postotak uzetih značajki je 7.6271\%)

\begin{table*}
\caption{Točnosti klasifikatora za razne parametre k i razne udaljenosti. Stupci su točnosti za parametar k u vrijednosti od 1 do 8. Korišteno je 100 značajki.}
\label{tab:tablicaKNN}
\begin{center}
\begin{tabular}{lcccccccc}
\toprule
Udaljenosti & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 \\
euclid 	&  81.0169 & 81.0169 & 79.5763 & 80.0847 & 77.7119 & 76.0169 & 74.7458 & 74.7458 \\
cosine 	& 	80.3390 & 80.3390 & 77.8814 & 77.2034 & 75.6780 & 74.4915 & 73.3051 & 72.2034 \\
cityblock &	83.9831 & 83.9831 & 82.7119 & 82.9661 & 81.5254 & 80.5932 & 79.4915 & 78.9831 \\
correlation &  80.0847 & 80.0847 & 78.0508 & 77.0339 & 74.9153 & 74.1525 & 72.8814 & 72.3729 \\
\bottomrule
\end{tabular}
\end{center}
\end{table*}

\begin{figure}
  \begin{center}
    \includegraphics[width=\columnwidth]{knn.jpg}
  \end{center}
  \caption{Graf uspješnosti klasifikatora k-NN za parametre k i 		 udaljenosti.}
  \label{fig:knn}
\end{figure}

\begin{table*}
\caption{Točnosti PCA za razne postotke uzetih značajki uz 1-nn cityblock klasifikator.}
\label{tab:tablicaPca}
\begin{center}
\begin{tabular}{llc}
\toprule
Broj značajki & Postotak uzetih značajki & Točnost \\
50 & 4.2373 & 79.7458 \\
60 & 5.0848 & 81.4407 \\
70 & 5.9322 & 82.1186 \\
80 & 6.7797 &  82.8814 \\
90 & 7.6271 & 84.1525 \\
100 & 8.4746 & 83.9831 \\
110 & 9.3320 & 84.1525 \\
120 & 10.1695 & 83.8983 \\
130 & 11.0170 & 83.3898 \\
140 & 11.8644 & 83.6441 \\
150 & 12.7119 & 83.5593 \\ 
160 & 13.5594 & 82.7119 \\
170 & 14.4068 & 82.8814 \\
180 & 15.2543 &  82.6271 \\
190 & 16.1017 & 82.4576 \\
200 & 16.9492 & 82.2881 \\
300 & 25.4238 & 80.0847 \\
400 & 33.8984 & 77.7966 \\
500 & 42.3730 &  76.6102 \\
600 & 50.8476 & 75.3390 \\
700 & 59.3222 & 75.0847 \\
800 & 67.7968 & 75.3390 \\
900 & 76.2714 & 75.7627 \\
1000 & 84.7460 & 76.4407 \\
1100 & 93.2206 & 76.7797 \\
\bottomrule 
\end{tabular}
\end{center}
\end{table*}

\begin{figure}
  \begin{center}
    \includegraphics[width=\columnwidth]{pcatocke.jpg}
  \end{center}
  \caption{Graf uspješnosti PCA za različite postotke značajki.}
  \label{fig:pca1}
\end{figure}

\begin{figure}
  \begin{center}
    \includegraphics[width=\columnwidth]{pcalinija.jpg}
  \end{center}
  \caption{Drugi graf uspješnosti PCA za različite postotke značajki.}
  \label{fig:pca2}
\end{figure}



\chapter{Zaključak}
Ovaj opisani pristup prepoznavanju lica preko svojstvenih vektora proizašao je iz
ideje da se lice može prepoznati na osnovu manje skupine karakteristika lica koje
najbolje aproksimiraju skupinu poznatih lica. Ključno je da se to radi bez
zahtijevanja da te značajne karakteristike moraju odgovarati karatkeristikama
prema kojima mi ljudi prepoznajemo lica (npr.\ oči, kosa, nos...). Iako ova metoda
ne pokriva generalno problem prepoznavanja, taj pristup pokazao se u praksi kao
praktično rješenje koje je vrlo efikasno za konkretni problem prepoznavanja lica.
Čini se brzo i relativno jednostavno za implementaciju i trebalo bi dobro raditi
uz neka ograničenja koja su nam prethodno omogućena (normalizirana crno bijela
slika, sa centriranim licem koje gleda ravno u kameru).



\nocite{gyrgyek1988uvod}
\nocite{pca}
\nocite{cosine}
\nocite{turk1991eigen}
\nocite{faistPrimjena}

\bibliography{literatura}
\bibliographystyle{fer}

\end{document}
