% !TeX spellcheck = fr_FR
\documentclass{beamer}

\usepackage{pgf,pgfpages}
\usepackage{graphicx}
%\usepackage{units}
\usepackage[utf8]{inputenc}
\usepackage{listings}
\mode<presentation>
{
  \usetheme{ift}
  \setbeamercovered{transparent}
  \setbeamertemplate{items}[square]
}

\usefonttheme[onlymath]{serif}
\setbeamerfont{frametitle}{size=\LARGE,series=\bfseries}

\definecolor{uibred}{RGB}{170, 0, 0}
\definecolor{uibblue}{RGB}{0, 84, 115}
\definecolor{uibgreen}{RGB}{119, 175, 0}
%\definecolor{uibgreen}{RGB}{50, 105, 0}
\definecolor{uiborange}{RGB}{217, 89, 0}


\beamertemplatenavigationsymbolsempty


%\include{macros}

%\includeonlyframes{current}


\defbeamertemplate{enumerate item}{mycircle}
{
  %\usebeamerfont*{item projected}%
  %\usebeamercolor[bg]{item projected}%
  \begin{pgfpicture}{0ex}{0ex}{1.5ex}{0ex}
	%\pgfcircle[fill]{\pgfpoint{0pt}{.75ex}}{1.25ex}
    \pgfbox[center,base]{\color{uibblue}\insertenumlabel.}
  \end{pgfpicture}%
}
[action]
{\setbeamerfont{item projected}{size=\scriptsize}}
\setbeamertemplate{enumerate item}[mycircle]

\lstset{
 	language=C,
% 	captionpos=b,
 	tabsize=3,
 	frame=lines,
 	keywordstyle=\color{blue},
 	commentstyle=\color{gray},
 	stringstyle=\color{green},
	extendedchars=true,
% 	numbers=left,
 	numberstyle=\tiny,
 	numbersep=5pt,
 	breaklines=true,
 	showstringspaces=false,
 	basicstyle=\footnotesize\ttfamily,
 	emph={label},
 	inputencoding=utf8,
 	extendedchars=true,
  literate=%
  {é}{{\'{e}}}1
  {è}{{\`{e}}}1
  {ê}{{\^{e}}}1
  {ë}{{\¨{e}}}1
  {û}{{\^{u}}}1
  {ù}{{\`{u}}}1
  {â}{{\^{a}}}1
  {à}{{\`{a}}}1
  {î}{{\^{i}}}1
  {ç}{{\c{c}}}1
  {Ç}{{\c{C}}}1
  {É}{{\'{E}}}1
  {Ê}{{\^{E}}}1
  {À}{{\`{A}}}1
  {Â}{{\^{A}}}1
  {Î}{{\^{I}}}1
    }



\title{Real-Time Human Pose Recognition in Parts from Single Depth Images}
\author{
Jamie Shotton et al. 2013\\
\vspace{0.2cm}
\vspace{0.2cm}
\vspace{0.2cm}
Etudiant  : KHONG Minh Thanh\\
Professeur: HO Tuong Vinh}

\institute{
Promotion 17\\
Institut de la Francophonie pour l'Informatique
}
\date{}

\AtBeginSection[]
{
\addtocounter{framenumber}{-1}
\begin{frame}<beamer>{Table of Contents}
\tableofcontents[currentsection,currentsubsection, 
    hideothersubsections, 
    sectionstyle=show/shaded,
]
\end{frame}
}

\begin{document}
\maketitle
%
% Set the background for the rest of the slides.
% Insert infoline at the end
%
\setbeamertemplate{background}
 {\includegraphics[width=\paperwidth,height=\paperheight]{slide_bg}}
\setbeamertemplate{footline}[ifttheme]

%--------------------------------------------------------------------
%                          Introduction
%--------------------------------------------------------------------
\section{Introduction}
%\subsection{Introduction}
\begin{frame}{Introduction}

L'augmentation de développement \textbf{d'interface utilisateur naturelle} (sans \textbf{souris} et \textbf{clavier}). 
\begin{itemize} 
%\item Nouvelle approche pour rapidement et et explicitement prédire positions 3D des articulations du corps, à partir d'une seule image de la profondeur, en temps réel, sans utiliser des informations temporelles

\item Il a besoin de l'estimation de \textbf{la pose de l'homme} (la position des parties du corps)%est  l'objet de beaucoup de recherches en vision par ordinateur

\end{itemize}
\textbf{Aucune} approche précédente donne cette estimation \textbf{en temps réel} en manipulant une chaîne de forme de corps humains
\begin{itemize}
\item La plus rapide approche utilise le suivi trame à trame mais elle a le problème de ré-initialiser rapidement et n'est donc pas robuste
\end{itemize}

%\item Une composante essentielle de la plate-forme de jeux Kinect



\end{frame}

%--------------------------------------------------------------------
\subsection{L'approche proposée}
\begin{frame} {L'approche proposée}
%Utilisation la reconnaissance des objets, en utilisant une intermédiaire représentation des parties du corps
%\begin{itemize}
%\item Une image de la profondeur d'entrée unique est segmenté en une dense probabiliste partie étiquetage du corps
%\item Avec les parties du corps inférées, les auteurs proposent endroits 3D de chaque articulation squelettique.
%\end{itemize}
%Focus sur single image de profondeur
Une nouvelle approche qui résout ce problème
\begin{itemize}
\item Efficacement: 200 trames par seconde sur Xbox
\item Robustesse: haut niveau précision
\end{itemize}
  \begin{center}
  \includegraphics[width=6cm]{./approche3.jpg}\\
  {Image de profondeur $\Rightarrow$ partie du corps $\Rightarrow$ articulation 3D}
  \end{center}
\end{frame}

%--------------------------------------------------------------------
\section{Les données}
%--------------------------------------------------------------------
\subsection{Kinect caméra}
\begin{frame} {Kinect caméra}
\begin{itemize}
	\item Capturer l'image de profondeur
	\item Enlever le fond, obtenir les pixels du corps
	\item Evoir des avantages : marcher même avec la lumière faible, être invariant de la couleur et la texture %, et de résoudre les ambiguïtés de silhouette dans la pose.
\end{itemize}
\begin{center}
\centering
%\includegraphics[width=2cm]{./kinectImage.jpg}~

\includegraphics[width=7cm]{./cameraKinect.jpg}\\

\end{center}
\end{frame}
%--------------------------------------------------------------------
\subsection{Données}
\begin{frame} {Données}
%Données de capture de mouvement
%\begin{itemize}
%	\item une grande base de données de capture de mouvement (mocap) des actions humaines.
%\end{itemize}
%Générer des images de synthèse en utilisant des données mocap
%\begin{itemize}
%	\item synthétiser des images de profondeur réalistes de personnes à moindre coût.
%	\item ressemble les images réelles, et contiennent une bonne couverture des variations d'apparence
%\end{itemize}
%Pour entraîner dans la phase suivante
\begin{center}
\includegraphics[width=11cm]{./syntheticData.jpg}\\
%{Images synthétiques et réelles}
\end{center}
\end{frame}


%--------------------------------------------------------------------
\section{Inférence des parties du corps }
%--------------------------------------------------------------------
\begin{frame} {Inférence des parties du corps}
Classification des pixels du corps
\begin{center}
\includegraphics[width=8cm]{./approche4.jpg}\\
\end{center}
\end{frame}

\subsection{Étiquetage des parties du corps}
\begin{frame} {Étiquetage des parties du corp}
Les parties du corps sont étiquetées
\begin{itemize}
	\item 31 parties de corps: L/R épaule, \dots
	
	\item Classificateur peut lever l'ambiguïté sur les côtés gauche et droit du corps
\end{itemize}

\begin{center}
\includegraphics[width=6.5cm]{./labelcorp2.png}\\
%{Les étiquetages
\end{center}
\end{frame}
%--------------------------------------------------------------------
\subsection{Fonctionnalités de profondeur d'image}
\begin{frame} {Fonctionnalités de profondeur}
Pour détecter les différentes parties, il faut avoir une fonction qui distingue leurs caractéristiques
\begin{itemize}
	\item $f_\theta(I,x)= d_I(x + \frac{u}{d_I(x)}) - d_I(x + \frac{v}{d_I(x)})$
\end{itemize}
Où
\begin{itemize}
	\item $d_I (x)$ - profondeur de pixel $x$
	\item $\theta = (u, v)$ décrire deux décalages $u$ et $v$
\end{itemize}
\begin{center}
\includegraphics[width=8.5cm]{./depthfeature.png}\\
%{Comparaison de profondeur}
\end{center}
\end{frame}

%--------------------------------------------------------------------
\subsection{Arbre de decision aléatoire}
\begin{frame} {Arbre de decision aléatoire}
\begin{itemize}
	\item Chaque nœud : $\theta(u,v), \tau$ \\
		Chaque feuille : $P_t(c|I, x)$
	\item Pour chaque pixels, on calcule le  $f_\theta(I,x)$\\
	 if $f_\theta(I,x) < \tau$ ,
		aller à gauche \\
		\textbf{else} aller à droit
	\item La possibilité de pixels $x$ : $P(c|I, x) = \frac{1}{T} \sum\limits_{t=1}^T P_t(c|I, x)$
\end{itemize}
\begin{center}
\includegraphics[width=8.5cm]{./tree.png}\\
\end{center}
\end{frame}

%--------------------------------------------------------------------
\section{Proposition de position des articulations}
\begin{frame} {Proposition de position des articulations}
Nous passons à la proposition des articulations
\begin{center}
\includegraphics[width=8cm]{./approche4.jpg}\\
\end{center}
\end{frame}

\begin{frame} {Proposition de position des articulations}

\begin{center}
\includegraphics[width=12cm]{./meanshift2.png}\\
\end{center}
\end{frame}

%\begin{frame}{Proposition de position des articulations}
%Local approche mode de découverte
%\begin{itemize}
%	\item basée sur le \textbf{mean-shift} avec un noyau gaussien pondéré
%	\item estimateur de la densité:\\
%	$f_c(x) \propto \frac{1}{T} \sum\limits_{i=1}^N w_{ic} exp(-\|\frac{x-x_i}{b_c}\|^2)$\\
	
%	$w_{ic}=P(c|I,x_i).d_I(x_i)^2$
%\end{itemize}
%\begin{center}
%\hfill
%\includegraphics[width=5cm]{./meanshift.png}\\
%\end{center}
%\end{frame}
%--------------------------------------------------------------------
\section{Expérimentation}
\begin{frame} {Expérimentation}

Entraînement
\begin{itemize}
	\item 900 000 images sont entraînées
	\item 2000 exemples de pixels par image
	\item 2000 caractéristiques candidats $\theta$, et 50 seuils candidats $\tau$ par fonction
\end{itemize}
Test
\begin{itemize}
	\item Test de données synthétiques\\
	5000 images de profondeur
	\item Test de données réelles\\
	8808 images de profondeur
\end{itemize}
\end{frame}

%--------------------------------------------------------------------
\subsection{Résultat qualificatif}
\begin{frame} {Résultat qualificatif}

\begin{center}
\includegraphics[width=10cm]{./resultatQualificatif.png}\\
{Synthétiques(premier rang), réels (deuxième rang), et l'échec (troisième rang)}
\end{center}

\end{frame}

%--------------------------------------------------------------------
\subsection{Précision de classification}
\begin{frame}{Précision de classification}

\begin{center}
\includegraphics[width=11cm]{./classificationAccuracy.png}\\
\end{center}
\end{frame}

%--------------------------------------------------------------------
\subsection{Précision de prédiction des articulations}
\begin{frame}{Précision de prédiction des articulations}
\begin{center}
\includegraphics[width=11cm]{./predictAccuracy.png}\\
{Précision en comparant avec l'image d'apprentissage}
\end{center}
\end{frame}

%--------------------------------------------------------------------
\subsection{Comparaison}
\begin{frame}{Comparaison}
  En réel, l'algorithme fonctionne également au moins 10x plus rapide que l'approche de V. Ganapathi, et al.
  
 
	
\begin{center}
\includegraphics[width=7.5cm]{./comparaison.png}\\
{Le résultat est plus précise}
\end{center}
\end{frame}
%--------------------------------------------------------------------
\section{Conclusion}
\begin{frame}{Conclusion}
\begin{itemize}
\item Représentation des parties du corps est  efficace
\item Présentation une machine d'apprentissage simple mais elle donne rapidement et précisément le résultat
\item Images de profondeur peuvent contenir suffisamment d'informations pour estimer la pose

\item Un modèle profonde avec les données d'entraînement suffisant peut devenir un bon classificateur même avec des fonctionnalités simples
%\item Images de profondeur sont la couleur et la texture invariant, ce qui simplifie beaucoup le problème correspondant
%\item Image par image donne robustesse
%\item Ingénierie significative à l'échelle à un ensemble massif, varié formation données
\end{itemize}
\end{frame}
%--------------------------------------------------------------------
\section*{Références}
\begin{frame}
\frametitle{Références}
\begin{thebibliography}{9}
\item Shotton, J., A. Fitzgibbon, et al. (2013). "Real-Time
Human Pose Recognition in Parts from Single Depth
Images." Communication of the ACM, Janury 2013, vol. 56, no. 1
\item  V. Ganapathi, et al. "Real time motion capture using a single time-of-flight camera." In Proc. CVPR, 2010
\end{thebibliography}
\end{frame}
%--------------------------------------------------------------------
\section*{}
\begin{frame}
\begin{center}
\huge Merci pour votre attention!
\end{center}

\end{frame}
\end{document}

%--------------------------------------------------------------------
\begin{columns}[T]
    \begin{column}{.4\textwidth}
     \begin{block}{
     Utilisation la reconnaissance des objets, en utilisant une intermédiaire représentation des parties du corps
     \begin{itemize}
     \item Une image de la profondeur d'entrée unique est segmenté en une dense probabiliste partie étiquetage du corps
     \item Avec les parties du corps inférées, les auteurs proposent la position 3D de chaque articulation squelettique.
     \end{itemize}
	}
    \end{block}
    \end{column}
    \begin{column}{.6\textwidth}
%    \vspace{2cm}
    \begin{block}{    
		\includegraphics[width=4cm]{approche3.jpg}	
	}
    \end{block}
    \end{column}
\end{columns}





















