\documentclass[journal]{IEEEtran}
\usepackage[utf8]{inputenc}
\usepackage[english,francais]{babel}
\usepackage[pdftex]{graphicx}

%\usepackage{url}
% url.sty was written by Donald Arseneau. It provides better support for
% handling and breaking URLs. url.sty is already installed on most LaTeX
% systems. The latest version and documentation can be obtained at:
% http://www.ctan.org/tex-archive/macros/latex/contrib/url/
% Basically, \url{my_url_here}.

% correct bad hyphenation here
\hyphenation{op-tical net-works semi-conduc-tor}


\begin{document}
%
% paper title
% can use linebreaks \\ within to get better formatting as desired
% Do not put math or special symbols in the title.
\title{Résumé de l'article\\ 
Real-Time Human Pose Recognition in Parts from Single Depth Images}
%
%
% author names and IEEE memberships
% note positions of commas and nonbreaking spaces ( ~ ) LaTeX will not break
% a structure at a ~ so this keeps an author's name from being broken across
% two lines.
% use \thanks{} to gain access to the first footnote area
% a separate \thanks must be used for each paragraph as LaTeX2e's \thanks
% was not built to handle multiple paragraphs
%

\author{Jamie Shotton et al. 2013\\
		Résumé par KHONG Minh Thanh\\
		Promotion 17, IFI
        %John~Doe,~\IEEEmembership{Fellow,~OSA,}
}
% The paper headers
%\markboth{Journal of \LaTeX\ Class Files,~Vol.~11, No.~4, December~2012}%
%{Shell \MakeLowercase{\textit{et al.}}: Bare Demo of IEEEtran.cls for Journals}


% use for special paper notices
%\IEEEspecialpapernotice{(Invited Paper)}

% make the title area
\maketitle
% As a general rule, do not put math, special symbols or citations
% in the abstract or keywords.
%\begin{abstract}
%Cet résumé présente l'article de Jamie Shotton et al. 2013
%\end{abstract}

%\IEEEpeerreviewmaketitle


%-----------------------------------------------------------------------------------
\section{Introduction}

%\IEEEPARstart{C}{e} document présente un résumé de l'article \textit{"Real-Time Human Pose Recognition in Parts from Single Depth Images"}, publié sur le magazine ACM, en Janvier 2013, vol. 56, no. 1. Les auteurs sont Shotton, J., A. Fitzgibbon, et al. La version originale de cet article est publié sur le Proceedings of the 2011 Conference on Computer Vision and Pattern Recognition, 129–1304.
%
%Dans la vision par ordinateur, l'estimation de la pose de l'homme est un problème bien étudié, cependant il y a des limités comme la robustesse, l'efficacité. En fait, jusqu'à la sortie de ce travail, aucune approche donne cette estimation en temps réel en manipulant une chaîne de forme de corps humains. Dans l'article, les auteurs ont donné une solution en utilisant une seul image de profondeur, elle donne la pose de l'humain en temps réel (200 trames par seconde), et le résultat est plus précise que les autres. Le partie suivante présente une synthèse de leur approche.
%
%\begin{figure}[!ht]
%\centering
%\includegraphics[width=2.5in]{mainstep.jpg}\\
%% where an .eps filename suffix will be assumed under latex, 
%% and a .pdf suffix will be assumed for pdflatex; or what has been declared
%% via \DeclareGraphicsExtensions.
%\caption{Les étapes de reconnaissance}
%\label{fig_etape}
%\end{figure}
%
%%Nous allons voir tout d'abord les étapes de l'algorithme, puis nous passons à la discussion et enfin conclusion.

%-----------------------------------------------------------------------------------
%\section{Résumé}
\section{Synthèse}
 L'approche des auteurs a deux objectifs: l'efficacité et la robustesse de calcul. L'idée est d'étiqueter les parties du corps (31 parties), et les auteurs proposent un processus d'estimation: l'image de profondeur entrée est classifié dans les parties du corps, ensuite il utilise cette classification pour estimer les articulations, enfin il reprojète ces parties dans l'espace pour obtenir la location 3D de la squelette.

\subsection{Donnés}
 Les données utilisées pour les systèmes d'apprentissage automatique doivent couvrir les variations pour que le système puisse les observer quand il est déployé. La création d'un tel ensemble de données est un processus long et coûteux. Shotton, et al. ont utilisé l'infographie pour surmonter ce problème. Pour produire une gamme complète de mouvement de l'homme que le système peut rencontrer dans le monde réel, les auteurs ont collecté un ensemble de capture de mouvement très vaste et varié. La génération des images intensités et réelles est entravée par une énorme de couleur et texture créée par les vêtement, les cheveux et la peau. Cependant, le Kinect système marche avec les images de profondeur qui est invariant à des facteurs comme la couleur ou la texture, donc il peut enlever ce problème. Les facteurs qui affectent l'image de profondeur, tels que la forme du corps, sont variés au maximum possible quand ces données sont créées. Le résultat est une base de données de 1 millions paires d'images synthétiques de l'homme en forme variée de la pose. Chaque paire d'image contient une image de profondeur et une autre image étiquetée les partie du corps pour entraîner le système de reconnaissance.

\subsection{Arbre de décision pour classification}

Le problème de classification de la partie du corps est semblable à de nombreux problèmes d'étiquetage d'image rencontrés en vision par ordinateur. Ce problème peut résoudre par le champ aléatoire de Markov (Markov random field - MRF). Pourtant il a besoin beaucoup de calcule pour un système de temps réel. Shotton et al. ont proposé une méthode basée sur l'arbre de décision aléatoire pour résoudre ce problème qui a évité la nécessité d'algorithmes sophistiqués et coûteux en calcul. Cet arbre de décision est non seulement simple et efficace, mais aussi il permet de faire la calcule en parallèle et pourrait être mis en œuvre sur un GPU. Ces propriétés rendent les forêts de décision un choix naturel pour résoudre le problème de la classification des parties du corps.

Shotton et al. ont utilisé un ensemble de fonctionnes de caractéristique qui calcule les différences profondeurs entre les pixels de l'image. Ceux-ci étaient donc très peu coûteux à calculer. Les arbres de décision ont été construits en utilisant l'entropie standard. Le final processus implique la calcul de caractéristiques sur chaque pixel, pour déterminer le déplacement sur le côté gauche ou droit de l'arbre de décision. Ce processus est répété jusqu'à ce qu'un feuille est atteinte, qui contient un histogramme appris. Cet histogramme représente la distribution de chaque pixel sur la partie étiqueté de corps. Ces distributions sont utilisées pour produire des hypothèses fiables sur les positions des articulations du corps.

%-----------------------------------------------------------------------------------
\section{Expérimentation}

%Comme les données de test, les images de profondeur synthétiques et réelles ont été appliquées. Avec les résultats, il a été possible d'analyser et de quantifier la classification et la précision de la prédiction. L'algorithme présente une grande précision à travers de grandes variations dans la profondeur, le corps et les formes du corps.
\begin{figure}[!t]
\centering
\includegraphics[width=3.5in]{numberImage.jpg}
\\
\caption{\textbf{Paramètre d'apprentissage.} (a) nombre d'image entraînée (b) profondeur de l'arbre}
\label{fig_number}
\end{figure}
Dans l'expérimentation, une énorme données est utilisé. Les auteur examinent sur le côté qualificatif et la précision des résultats. Sur le côté qualificatif, l'algorithme montre une grande précision à travers la variations dans la profondeur, la forme du corps. Pour la précision de classification, le nombre d'image entraînée, la profondeur de l'arbre, le résultat avec l'image de silhouette sont examiné. Figure \ref{fig_number} montre que la précision augmente approximativement logarithmique avec le nombre d'image entraîné jusqu'à 100 milles images, c'est à cause de la limitation de trois arbres de profondeur 20. Avec 300 milles images entraînées par arbre, la précision augmente avec la profondeur de l'arbre. Comparé avec l'approche de Ganapathi et al. \cite{CVPR:Motion capture time of flight camera}, cet algorithme est plus précise et fonctionne également au moins 10x plus rapide même sans données temporelles

%dan l'article \cite{CVPR:headpose regression forest}
\begin{figure}[!ht]
\centering
\includegraphics[width=2.5in]{comparaison.jpg}\\
% where an .eps filename suffix will be assumed under latex, 
% and a .pdf suffix will be assumed for pdflatex; or what has been declared
% via \DeclareGraphicsExtensions.
\caption{Comparaison avec Ganapathi et al.}
\label{fig_compaire}
\end{figure}



%-----------------------------------------------------------------------------------
\section{Conclusion}
Dans ce travail, l'auteur ont présenté la reconnaissance les parties du corps comme une représentation intermédiaire pour l'estimation de la pose de l'homme. L'utilisation d'un ensemble d'image synthétique variée nous aide à entraîner un arbre de décision très profonde en utilisant un ensemble fonctionne de profondeur, l'apprentissage invariance à la pose et à la forme. Détection modes dans une fonction de densité donne la dernière série de propositions des articulations en 3D. Les résultats obtenus montrent une forte corrélation entre les données réelles et synthétiques, et entre la classification intermédiaire et la précision de la proposition des articulations finales.\cite{ACM:realtime}


\ifCLASSOPTIONcaptionsoff
  \newpage
\fi


\begin{thebibliography}{1}

\bibitem{ACM:realtime}  Shotton, J., A. Fitzgibbon, et al. (2013). "Real-Time Human Pose Recognition in Parts  from Single Depth Images." Communication of the ACM, Janury 2013, vol. 56, no. 1

\bibitem{CVPR:Motion capture time of flight camera}   V. Ganapathi, C. Plagemann, D. Koller, and S. Thrun. Real time motion capture using a single time-of-flight camera. In Proc. CVPR, 2010.

\bibitem{ICCV:regression} Girshick, Ross, et al. "Efficient regression of general-activity human poses from depth images." Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011.
 
\bibitem{CVPR:static12}Holt, Brian, and Richard Bowden. "Static Pose Estimation from Depth Images using Random Regression Forests and Hough Voting." (2012).

\bibitem{ECCV:2d aid 3d 2010} Gall, Juergen, Angela Yao, and Luc Van Gool. "2d action recognition serves 3d human pose estimation." Computer Vision–ECCV 2010. Springer Berlin Heidelberg, 2010. 425-438.

\bibitem{CVPR:headpose regression forest}[11] Fanelli, Gabriele, Juergen Gall, and Luc Van Gool. "Real time head pose estimation with random regression forests." Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011.
  

\end{thebibliography}

% biography section
% 
% If you have an EPS/PDF photo (graphicx package needed) extra braces are
% needed around the contents of the optional argument to biography to prevent
% the LaTeX parser from getting confused when it sees the complicated
% \includegraphics command within an optional argument. (You could create
% your own custom macro containing the \includegraphics command to make things
% simpler here.)
%\begin{IEEEbiography}[{\includegraphics[width=1in,height=1.25in,clip,keepaspectratio]{mshell}}]{Michael Shell}
% or if you just want to reserve a space for a photo:

%\begin{IEEEbiography}{Michael Shell}
%Biography text here.
%\end{IEEEbiography}

\end{document}
