\title{Resume de l'article\\ 
\textbf{Real-Time Human Pose Recognition in Parts from Single Depth Images}}
\author{
		\textbf{Shotton, J., A. Fitzgibbon, et al. (2013).}\\
	    KHONG Minh Thanh \\
                Promo 17\\
        Institut de la Francophonie pour l'Informatique\\        
}
\date{\today}

\documentclass[12pt]{article}
\usepackage[utf8]{inputenc}
%\documentclass[a4paper,11pt,final]{article}
% Pour une impression recto verso, utilisez plutôt ce documentclass :
%\documentclass[a4paper,11pt,twoside,final]{article}
\usepackage[english,francais]{babel}
\usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}
%\usepackage[pdftex]{graphicx}
\usepackage{setspace}
\usepackage{hyperref}
\usepackage[french]{varioref}
\usepackage{graphicx} 
\usepackage{caption}
\usepackage{subcaption}
\usepackage[margin=1in]{geometry}


\begin{document}
\maketitle

\begin{abstract}

\end{abstract}

\section{Introduction}
Ce document présente un résumé de l'article "Real-Time Human Pose Recognition in Parts from Single Depth Images", publié sur le magazine ACM,en Janvier 2013, vol. 56, no. 1. Les auteurs sont Shotton, J., A. Fitzgibbon, et al.

Dans la vision par ordinateur, l'estimation de la pose de l'homme est un problème bien étudié, cependant il y a des limités comme la robustesse, l'efficacité. En fait, jusqu'à la sortie de ce travail, aucune approche donne cette estimation en temps réel en manipulant une chaîne de forme de corps humains. Dans l'article, les auteurs ont donné une solution en utilisant une seul image de profondeur, elle donne la pose de l'humain en temps réel (200 trames par seconde), et le résultat est plus précise que les autres. Le partie suivante présente une synthèse de leur approche.


%\paragraph{Outline}
%The remainder of this article is organized as follows.
%Section~\ref{previous work} gives account of previous work. Our new and exciting results are described in Section~\ref{results}. Finally, Section~\ref{conclusions} gives the conclusions.

\section{Synthèse}\label{synthèse}
 L'approche des auteurs a deux objectifs: l'efficacité et la robustesse de calcul. L'idée est d'étiqueter les parties du corps (31 parties), et les auteurs proposent un processus d'estimation: l'image de profondeur entrée est classifié dans les parties du corps, ensuite il utilise cette classification pour estimer les articulations, enfin il reprojète ces parties dans l'espace pour obtenir la location 3D de la squelette. 

\textbf{image}

\subsection{Generating the Training Data}

Les données utilisées pour les systèmes d'apprentissage automatique doivent couvrir les variations pour que le système puisse les observer quand il est déployé. La création d'un tel ensemble de données est un processus long et coûteux. Shotton, et al. ont utilisé l'infographie pour surmonter ce problème. Pour produire une gamme complète de mouvement de l'homme que le système peut rencontrer dans le monde réel, les auteurs ont collecté un ensemble de capture de mouvement très vaste et varié. La génération des images intensités et réelles est entravée par une énorme de couleur et texture créée par les vêtement, les cheveux et la peau. Cependant, le Kinect système marche avec les images de profondeur qui est invariant à des facteurs comme la couleur ou la texture, donc il peut enlever ce problème. Les facteurs qui affectent l'image de profondeur, tels que la forme du corps, sont variés au maximum possible quand ces données sont créées. Le résultat est une base de données de 1 millions paires d'images synthétiques de l'homme en forme variée de la pose. Chaque paire d'image contient une image de profondeur et une autre image étiquetée les partie du corps pour entraîner le système de reconnaissance.

\subsection{Randomized Forests for Classification}

Le problème de classification de la partie du corps est semblable à de nombreux problèmes d'étiquetage d'image rencontrés en vision par ordinateur. Ce problème peut résoudre par le champ aléatoire de Markov \textbf{cite} (Markov random field-MRF). Pourtant il a besoin beaucoup de calcule pour un système de temps réel. Shotton et al. ont proposé une méthode basée sur l'arbre de décision aléatoire pour résoudre ce problème qui a évité la nécessité d'algorithmes sophistiqués et coûteux en calcul. Cet arbre de décision est non seulement simple et efficace, mais aussi il permet de faire la calcule en parallèle et pourrait être mis en œuvre sur un GPU. Ces propriétés rendent les forêts de décision un choix naturel pour résoudre le problème de la classification des parties du corps.

Shotton et al. ont utilisé un ensemble de fonctionnes de caractéristique qui calcule les différences profondeurs entre les pixels de l'image. Ceux-ci étaient donc très peu coûteux à calculer. Les arbres de décision ont été construits en utilisant l'entropie standard. Le final processus implique la calcul de caractéristiques sur chaque pixel, pour déterminer le déplacement sur le côté gauche ou droit de l'arbre de décision. Ce processus est répété jusqu'à ce qu'un feuille est atteinte, qui contient un histogramme appris. Cet histogramme représente la distribution de chaque pixel sur la partie étiqueté de corps. Ces distributions sont utilisées pour produire des hypothèses fiables sur les positions des articulations du corps.

%Figure ci-dessous illustre le processus pour estimer la pose. Ce processus prend l'image de profondeur, enlève le fond, s'applique à la reconnaissance de la partie du corps et de l'algorithme de regroupement, et enfin applique un modèle étape d'assemblage qui exploite contraintes cinématiques et temporelles pour produire un squelette complet.

%\includegraphics[width=11cm]{./Rapport IEEE/mainstep.jpg}

\section{Results}\label{results}


\section{Conclusions}\label{conclusions}
\begin{itemize}
\item Une analyse sérieuse et détaillée de l'article afin de bien le comprendre et de pouvoir le relier à la matière vue en cours.

\item Une recherche des articles du même domaine (état de l'art) liés à cet article (cités en référence ou non) afin de pouvoir situer votre article dans son contexte et son domaine et de pouvoir le comparer avec les autres travaux qui existent.
\item Shotton, J., A. Fitzgibbon, et al. (2013). "Real-Time
Human Pose Recognition in Parts from Single Depth
Images." Communication of the ACM, Janury 2013, vol. 56, no. 1
\end{itemize}

\bibliographystyle{abbrv}
\bibliography{simple}
\end{document}



\section{Sythèse}\label{previous work}

A natural approach motivated by the success of the marker based pose estimation systems is to use classifiers that are be able to identify and thus localize different parts of the body. Variants of this approach have been explored in a number of research studies [1, 17]. For instance, a prominent approach for recognition and pose estimation is the Pictorial Structures model [4] that tries to estimate the location of different human body parts while maintaining certain spatial relationships between them. In light of these observations, Shotton et al. [14] decided to formulate the pose estimation problem as a body part labeling problem where the human body is divided into 31 body parts that were naturally associated with certain skeletal joint positions that needed to be estimated them. In light of these observations, Shotton et al. [14] decided to formulate the pose estimation problem as a body part labeling problem where the human body is divided into 31 body parts that were naturally associated with certain skeletal joint positions that needed to be estimated.
\subsection{Generating the Training Data}
The datasets used for training machine learning systems need to cover the variations the system would observe when it is deployed. Creating such a dataset is an expensive and time consuming process. Researchers have used computer graphics to overcome this problem but this approach has its own set of problems. Synthetic body pose renderers use, out of necessity, real motion capture (mocap) data. Although techniques exist to simulate human motion they do not yet produce a full range of volitional poses or motions of a human subject that the system may encounter in the real world. The team at Microsoft overcame this problem by collecting a very large and diverse set of motion capture [14]. 

\subsection{Randomized Forests for Classification}
The body part classification problem is similar to many image labeling problems encountered in computer vision. These problems are generally formulated using Markov random field (MRF) models that have produced impressive results for various problems [3]. However, MRFs are currently too computationally expensive for real time human pose estimation. Shotton et al. [13] had proposed a decision forest based method to overcome this problem which avoided the need for sophisticated and computationally expensive inference algorithms. This decision forest framework is not only simple and efficient but also allows for parallelization and could be implemented on a GPU [12]. These properties made decision forests a natural choice for solving the body part classification problem. Shotton et al. [14] used a family of features that involved computing the differences between just a few depth image pixels. These were thus very inexpensive to compute. The decision trees were learned by employing the standard entropy minimization based objective and greedy tree learning schedule. The final processing pipeline involved computing features on every pixel and depending on the response traversing down the left or right side of the decision tree. This process is repeated until a leaf node is reached which contained a learned histogram. This histogram represents the posterior distribution over the body part label that the pixel should be assigned. These per-pixel body part distributions could then be clustered together to produce reliable hypotheses about the positions of the various joints in the body. Figure 1 illustrates the full skeleton tracking pipeline as used for Kinect. This pipeline takes the depth image, removes the background, applies the body part recognition and clustering algorithm described above, and finally applies a model fitting stage which exploits kinematic and temporal constraints to output a full skeleton.


\textbf{We take an object recognition approach, designing an intermediate body parts representation that maps the difficult pose estimation problem into a simpler per-pixel classification problem. Our large and highly varied training dataset allows the classifier to
estimate body parts invariant to pose, body shape, clothing, etc. Finally we generate confidence-scored 3D proposals of several body joints by reprojecting the classification result and finding local modes.\\
The system runs at 200 frames per second on consumer hardware. Our evaluation shows high accuracy on both synthetic and real test sets, and investigates the effect of several training parameters. We achieve state of the art accuracy in our comparison with related work and demonstrate improved generalization over exact whole-skeleton nearest neighbor matching.}

Human pose estimation is a well studied problem in the computer vision community (see [8, 10] for a survey of the literature). Certain variants of the problem, forinstance, estimation of the pose of a human from a single RGB image remain unsolved. Early commercial systems for human pose estimation worked by tracking easily localizable markers that were pre-attached on the body of the human subject. Marker based systems for human pose estimation are usually quite reliable and highly accurate, but suffer from the limitation that markers need to be worn. Further, the approach also requires a calibration step where the relationship between the position of the markers and that of the body parts needs to be defined.
