\chapter{Realidad Aumentada Móvil}
\label{chap:mobilear}

\section{Introducción}

La realidad aumentada (RA) es una variación de los ambientes virtuales, o realidad virtual, como son llamados comúnmente. La realidad virtual intenta crear un mundo artificial que una persona pueda experimentar y explorar, principalmente mediante el sentido de la vista, aunque también se implementan otros tipos de retroalimentación, como audio y tacto. La RA también proporciona una experiencia interactiva, pero se enfoca en complementar la realidad, en lugar de reemplazarla totalmente. Los objetos físicos en el entorno del usuario se convierten en elementos disponibles para asociarles anotaciones generadas por computadora \citep{Hollerer2004}.

%Con las tecnologías de realidad virtual, el usuario queda completamente inmerso en un ambiente artificial. En contraste, la realidad aumentada permite al usuario ver el mundo real aumentado con objetos virtuales, como sonidos o gráficos. Por lo tanto, la RA complementa la realidad, en lugar de reemplazarla totalmente. Idealmente, el usuario percibiría que los objetos reales y virtuales coexisten en el mismo espacio \citep{Azuma1997}.

Existen diferentes definiciones sobre lo que constituye la realidad aumentada. Aunque la comunidad científica concuerda con la mayoría de los elementos de los sistemas de realidad aumentada, aún existen pequeñas diferencias de opinión y nomenclatura.

Para el propósito de esta tesis, se sigue la definición de \cite{Azuma2001}, que definen las siguientes propiedades de un sistema de realidad aumentada:
\begin{itemize}
\item Combina información real y generada por computadora, en un ambiente real.
\item Es interactivo y se ejecuta en tiempo real.
\item Registra objetos virtuales con los reales.
\end{itemize}

El \emph{registro} de objetos se refiere a la alineación precisa de objetos reales y virtuales. Sin un registro correcto, la ilusión de que los objetos virtuales existen en el entorno real queda comprometida. El registro sigue siendo un problema abierto de investigación.

Está definición de realidad aumentada no está restringida a alguna tecnología de despliegue en particular, así como tampoco está limitada a contenido puramente visual. La RA, potencialmente, se puede aplicar a todos los sentidos, incluyendo tacto, oído, etc. \citep{Azuma2001}.

Una aplicación común de la realidad aumentada es la navegación de información. Anotaciones de objetos del mundo real se presentan directamente dentro del entorno. Conteniendo estas anotaciones, típicamente, información textual o ilustrada. Tales aplicaciones son interesantes especialmente en el contexto de la \emph{realidad aumentada móvil}, donde un usuario puede deambular por un área y solicitar información sobre muchos objetos. La realidad aumentada móvil aplica el concepto de RA en configuraciones verdaderamente móviles, es decir, fuera de los entornos condicionados cuidadosamente de los laboratorios de investigación y áreas de trabajo de propósito especial.

%La realidad aumentada permite crear interfaces de usuario apropiadas para aplicaciones de cómputo móvil, dado que proporciona una presentación intuitiva de información. La interacción con las entidades generadas por computadora ocurre en tiempo real, proporcionando una retroalimentación natural al usuario \citep{Rosten2005}.

Las \emph{anotaciones ambientales} son elementos encontrados en el entorno del usuario que pueden contener información de diversos tipos: textual, visual, audible, etc. Esta definición puede mapearse al área de realidad aumentada, donde existen las \emph{anotaciones de realidad aumentada}.

\section{Anotaciones de realidad aumentada}

Las \emph{anotaciones de realidad aumentada} son útiles para proporcionar a los usuarios más información acerca del mundo que los rodea. La ventaja de la realidad aumentada sobre libros y otras fuentes de datos es que la información puede presentarse en la misma ubicación del objeto al que se relaciona. Esto provee contexto a la información, haciendo que sea más atractiva y fácil de entender.

La habilidad de contextualizar y ubicar información virtual es una de las mayores fortalezas de la tecnología de realidad aumentada. Los sistemas de guías interactivas son claros ejemplos de la utilidad de las anotaciones de RA. Cubren una amplia variedad de aplicaciones, incluyendo ayudar a un usuario a desplazarse en una ciudad universitaria mediante el etiquetado de edificios \citep{Feiner1997}, ayudar a un usuario a leer un mapa del subterráneo \citep{Eaddy2004}, y proporcionar más información acerca de diferentes instalaciones en un museo \citep{Schmalstieg2007}. Debido a su rol en un conjunto diverso de aplicaciones de RA, las anotaciones pueden transmitir su información al usuario en muchas formas diferentes.

\cite{Wither2009} definen una anotación de realidad aumentada como información virtual que describe de cierta manera, y está registrada a, un \emph{objeto existente}.

Esta definición permite que la información virtual se presente de varias maneras, incluyendo texto, fotos, modelos, sonidos, o inclusive vibraciones. La relación entre la información virtual y el objeto existente no tiene que estar claramente definida---Hay muchos casos en los que la relación no es obvia, aún cuando la información pretende ser una anotación.

Un \emph{objeto existente} puede variar en tamaño y especificidad, desde una parte en particular de una máquina hasta la máquina en sí, un cuarto lleno de máquinas, o la fábrica en su totalidad. Tampoco es necesario que sea un objeto físico singular. Podrían ser todas las ventanas de un lado de un edificio o un área, como alguna facultad de una ciudad universitaria.

Toda anotación de RA debe tener dos componentes esenciales. Cada anotación debe tener algún componente \emph{dependiente} del espacio que la ligue con el objeto anotado, y algún componente \emph{independiente} del espacio que incluya el contenido virtual.

%subsubsection{Componente dependiente del espacio}

El componente dependiente del espacio que toda anotación debe tener es un enlace entre el mundo virtual y el real. Esto significa que las anotaciones virtuales no solamente deben estar registradas en algún sistema de coordenadas, sino que también deben estar registradas a un objeto en particular. El contenido virtual de la anotación debe estar relacionado de alguna forma con el mundo alrededor.

Muchas aplicaciones que utilizan ARToolKit \citep{Kato1999} no emplean anotaciones. Aunque el contenido está registrado a un marcador, éste no tiene una relación con ningún objeto físico excepto por el marcador.

%subsubsection{Componente independiente del espacio}

Todas las anotaciones deben también contar con un componente independiente del espacio. Esto significa que debe haber alguna diferencia entre el contenido virtual y lo que el usuario ve en el mundo real. Cuando el contenido virtual no modifica de alguna manera la percepción de la escena, no puede definirse como una anotación.

\subsection{Dimensiones de las anotaciones}

\cite{Wither2009} definen seis dimensiones para describir y categorizar las anotaciones de realidad aumentada: complejidad de ubicación, movimiento de ubicación, relevancia semántica, complejidad de contenido, interactividad y permanencia.

\subsubsection{Complejidad de ubicación}

Dado que todas las anotaciones deben tener algún componente dependiente del espacio, siempre existe una ubicación asociada a la anotación. La ubicación más sencilla que una anotación puede tener es un solo punto 3D. En este caso la anotación solamente tendría información sobre su posición, y la orientación tendría que definirse arbitrariamente por la aplicación.

El siguiente paso en la complejidad de la ubicación de una anotación es la orientación. Conociendo la posición y orientación se vuelve posible la realización tareas como orientar anotaciones textuales a la superficie de un edificio. También es posible tener mayor complejidad, esto significa que el objeto anotado ya se representa por un solo punto, sino que por una región 2D o 3D. Esta región puede ser un cuadro delimitador alrededor del objeto o un modelo exacto del mismo.

Sin embargo, no se debe confundir el incremento de la complejidad de ubicación con el incremento de la complejidad de la anotación en sí. Una anotación textual muy sencilla puede tener alta complejidad de ubicación, si en lugar de estar registrada a un punto, se registra usando un modelo alineado del objeto. Una mayor complejidad de ubicación es útil para dar una idea más exacta de lo que está siendo aumentado, así como también para proveer una interacción más fácil con las anotaciones. Cuadros delimitadores o de contorno pueden dibujarse alrededor de objetos físicos que han sido aumentados para resaltar el objeto completo. Después, los usuarios pueden utilizar técnicas de interacción para seleccionar objetos y ver sus anotaciones, dado que el objeto completo está asociado con la anotación.

En algunos casos el objeto anotado no es un solo objeto del mundo real, sino que un grupo de objetos o una región semántica, como el interior de un cuarto \citep{Dow2007} o el patio de un edificio \citep{Thomas2002}. En estos casos la región anotada es de cierta forma abstracta, y se representa mejor mediante una región delimitante.

\subsubsection{Movimiento de ubicación}

Mientras que todas las anotaciones tienen que estar registradas a un objeto del mundo real, la ubicación de la anotación en sí se puede mover, dependiendo de la aplicación y de la preferencia del usuario. Esta dimensión describe qué tanto se mueve la parte virtual de la anotación. Muchos tipos de anotación pueden exhibir movimiento de ubicación, como trayectorias de navegación que se mueven con el usuario \citep{Reitmayr2004}, o personajes animados en una escena \citep{Schmeil2007}. Esta dimensión mide qué tan lejos puede ubicarse la anotación respecto al objeto y cuánta libertad de movimiento se permite.

\subsubsection{Relevancia semántica}

La relevancia semántica es una medida de cómo se relaciona la anotación con el objeto físico. Hay muchas formas en que una anotación puede relacionarse con un objeto:

\begin{itemize}
\item Nombra: La anotación solamente provee un nombre para el objeto. Un ejemplo de esto se puede ver en el trabajo realizado por \citep{Feiner1997}, donde los edificios de una universidad se aumentan con sus nombres.
\item Describe: En este caso, la anotación proporciona más información que solamente el nombre del objeto. Regularmente es una descripción textual como aquéllas presentadas por \citep{Reitmayr2004}. También pueden utilizarse para describir cómo realizar una tarea paso a paso.
\item Agrega: El contenido virtual agregado, de alguna manera, cambia al mundo real, en lugar de solamente agregar información extra. Un ejemplo es agregar nuevos objetos a un parque, como árboles, estatuas, o mesas \citep{Piekarski2003}. Otro ejemplo es la versión completa de un edificio bajo construcción o en ruinas \citep{Vlahakis2002}.
\item Modifica: Describe las anotaciones que cambian visualmente objetos existentes. Estos cambios se ilustran en guías históricas \citep{Guven2006}, donde un edificio moderno puede reemplazarse o modificarse para parecer como en el pasado.
\item Dirige: Anotaciones que indican una trayectoria al usuario, ya sea superponiendo un camino hacia el destino \citep{Reitmayr2004} o desplegando flechas u otro tipo de información \citep{Schwerdtfeger2008} para dirigir al usuario hacia el objeto anotado.
\end{itemize}

\subsubsection{Complejidad del contenido}

La complejidad del contenido de una anotación puede variar enormemente. El contenido más simple de una anotación puede ser solo un punto resaltando algún objeto de interés. Por el contrario, un contenido más complejo puede consistir en modelos poligonales 3D animados con audio. En general, la complejidad del contenido puede determinarse tanto por la cantidad de información que se proporciona como por la complejidad visual de la anotación.

\subsubsection{Interactividad}

La interactividad es otro aspecto importante de cualquier anotación. Existen cuatro estados distintos de interactividad. Primero están las anotaciones que se crean en un proceso \emph{fuera de línea} y son estáticas durante la aplicación \citep{Georgel2007, Tang2003}. El usuario solamente puede visualizar estas anotaciones. Después están las anotaciones que son interactivas pero no editables \citep{Schmalstieg2007, Dow2007}. El usuario puede interactuar con estas anotaciones de alguna forma, pero no puede agregar o cambiar información almacenada en el sistema. Una mayor interactividad llega con la habilidad del usuario \emph{en línea} para editar el contenido de anotaciones existentes \citep{Reitmayr2004}. Esto requiere de una interacción directa entre el usuario y la anotación, permitiendo al usuario realizar cambios a contenido existente o agregar nuevo contenido a ubicaciones de anotaciones previamente establecidas. La más interactivas son aquellas anotaciones que los usuarios pueden crear al estar usando el sistema \citep{Wither2006, Piekarski2003}. Son similares a las anotaciones editables, pero también permiten que el usuario escoja la ubicación para la nueva anotación.

\subsubsection{Permanencia de la anotación}

Existen muchas razones para que una anotación no siempre esté disponible a un usuario. Una de ellas es que si hay muchas anotaciones visibles al mismo tiempo, se vuelve imposible determinar qué anotaciones corresponden a qué objetos. Hay cuatro estrategias básicas para controlar la permanencia de las anotaciones, permitiendo que solamente las anotaciones más relevantes estén visibles en cierto momento:

\begin{itemize}
\item Permanencia controlada temporalmente: En este enfoque las anotaciones son visibles solamente por cierta cantidad de tiempo, y también se ordenan temporalmente. Esto es particularmente útil con las anotaciones que son indicaciones para el usuario, como instrucciones de ensamblaje \citep{Feiner1999}. En este ejemplo, el tener las anotaciones visibles solamente en ciertos momentos dados crea una orden implícita que proporciona aún más información que tener todas las anotaciones visibles al mismo tiempo.
\item Permanencia controlada por el usuario: Este enfoque permite al usuario controlar directamente qué anotaciones son visibles en cualquier momento. Un ejemplo de esto es el sistema de visión de rayos X de \cite{Bane2004}, donde el usuario puede seleccionar qué anotaciones mostrar.
\item Permanencia controlada espacialmente: Esta permanencia se consigue utilizando lugares de interés \citep{Dow2005, Schmalstieg2007}, donde las anotaciones son visibles solamente cuando el usuario se encuentra en una ubicación específica.
\item Permanencia filtrada por información: También es posible filtrar las anotaciones visibles en base a un sistema único para cada aplicación. Las anotaciones pueden habilitarse dependiendo del estado de la aplicación, como se hace en juegos de RA \citep{Thomas2002, Cheok2004}, donde la visibilidad de un objeto virtual se determina por el progreso en el juego.
\end{itemize}


\section{Arquitectura de un sistema de RA móvil}

Los sistemas de realidad aumentada móvil comparten una arquitectura básica. La funcionalidad principal de la realidad aumentada es la misma para todos los sistemas: dar seguimiento a la posición del usuario, combinar objetos reales y virtuales, y procesar y reaccionar respecto a información contextual e interacciones de usuario.

\begin{figure}[ht]
	\vspace{6 mm}
	\centering
    \includegraphics[width=12cm]{figures/arquitecturamobilear.pdf}
    \caption{Arquitectura básica de un sistema de Realidad Aumentada Móvil.}
    \label{fig:arquitecturaram}
\end{figure}

En la Figura~\ref{fig:arquitecturaram} se muestran los componentes básicos de la arquitectura de un sistema de realidad aumentada móvil. Un sistema de realidad aumentada móvil contiene tres componentes principales: Seguimiento, Despliegue e Interacción. Cada uno de los cuales proporciona una funcionalidad particular al sistema completo \citep{Hollerer2004}. En las siguientes secciones se describen con más detalle estos componentes y se hace una revisión del estado del arte respecto a las técnicas para implementarlos.



\section{Seguimiento}

Aparte de la tecnología de despliegue de información, una de las dificultades clave en el desarrollo de aplicaciones de realidad aumentada es el problema del \emph{seguimiento}. El seguimiento se define como la medición de la posición y orientación de un objeto en un sistema coordinado por escenas. En realidad aumentada, seguimiento denota el proceso de rastrear coordenadas de objetos en movimiento en tiempo real. En muchas ocasiones, se necesita calcular la posición y orientación de un objeto, y se pueden representar por 6 variables independientes (3 coordenadas de traslación y 3 ángulos de rotación). Tales sistemas se denominan \emph{sistemas de seguimiento con seis grados de libertad} (6DoF, acrónimo de las palabras inglesas \emph{\textbf{6} \textbf{D}egrees \textbf{o}f \textbf{F}reedom}) \citep{Lang2002}.

La realidad aumentada requiere un seguimiento de posición y orientación muy preciso para alinear, o registrar, información virtual con los objetos físicos; aunque la precisión requerida para el registro depende del enfoque y necesidades de cada aplicación. En ambientes controlados (p.~ej. laboratorios de cómputo), los investigadores han tenido éxito en crear entornos en los cuales los movimientos de la cabeza y manos de una persona pueden seguirse con suficiente precisión, baja latencia, y altos rangos de actualización. Hacer esto en un entorno móvil es un reto mayor. El equipo para dar seguimiento necesita ser lo bastante ligero para poder cargarlo, resistente a golpes, y funcional bajo un amplio espectro de condiciones ambientales, incluyendo iluminación, temperatura y clima \citep{Hollerer2004}. 

Existen diversas técnicas para dar seguimiento. En esta sección se realiza un resumen de las estrategias usadas en los sistemas de realidad aumentada móvil recientes.



\subsection{Seguimiento basado en sensores}

Estás técnicas se basan en sensores magnéticos, acústicos, inerciales, ópticos y/o mecánicos. Todos éstos tienen sus respectivas ventajas y desventajas. Por ejemplo, los sensores magnéticos son ligeros y se actualizan rápidamente, pero sus lecturas se pueden distorsionar por cualquier sustancia metálica cercana que altere su campo magnético \citep{Duh2008}.

%///PREVIO
Existen pocos trabajos que utilicen un enfoque puramente basado en sensores para dar seguimiento a un usuario. \cite{Newman2001} desarrollaron un sistema de realidad aumentada para interiores basado en sensores ultrasónicos. Para poder dar seguimiento a los usuarios y objetos de interés, crearon unos dispositivos denominados Bats, así como también una red de sensores ultrasónicos que se colocan en el techo. Los Bats emiten pulsos ultrasónicos y el sistema mide el tiempo que tardan en llegar a los receptores en el techo, de esta forma, estima la posición de los objetos y usuarios. Adicionalmente, implementaron sensores inerciales, para obtener información más actualizada sobre los movimientos de los usuarios y presentar la información correspondiente.

El seguimiento inercial es rápido y robusto. Puede utilizarse para la predicción de movimiento cuando ocurren cambios muy rápidos. En general, sus mediciones no son tan precisas como las del seguimiento visual, y en el caso de movimientos lentos, el ruido y desviación de los sensores tiende a la generación de errores \citep{Lang2002}.

%En cambio, investigadores han explorado cómo combinar diferentes tipos de sensores para proporcionar un seguimiento robusto, con un traspaso dinámico entre las mediciones de los sensores \citep{Duh2008}.



\subsection{Seguimiento visual}

Las técnicas de seguimiento visual usan métodos de procesamiento de imágenes para calcular la posición de la cámara en relación a objetos del mundo real. En el área de visión por computadora, la mayoría de las técnicas de seguimiento disponibles se pueden dividir en dos clases: basadas en \emph{características} y basadas en \emph{modelos} \citep{Pressigout2006}.

La funcionalidad de los métodos basados en características radica en encontrar una correspondencia entre las características de una imagen 2D y sus coordenadas en el mundo tridimensional. Estas características pueden obtenerse a partir de marcadores artificiales y de entornos naturales.

\subsubsection{Seguimiento basado en marcadores artificiales}
Estos métodos de seguimiento implican la inserción de marcadores artificiales en la escena a aumentarse. Mediante la identificación y el seguimiento de la posición y orientación de estos marcadores, en cada cuadro capturado, puede calcularse tanto la posición relativa de la cámara como la naturaleza del elemento. Esta técnica combina reconocimiento y seguimiento en un solo paso, por lo que se presta para plataformas con potencia computacional limitada (p.~ej. teléfonos móviles) \citep{Gassmann2010}.

Dar seguimiento a marcadores artificiales es una estrategia común para obtener robustez y eficiencia computacional de forma simultánea. Los marcadores pueden ser \emph{pasivos} (p.~ej. marcadores impresos, ver Figura~\ref{fig:marcadores}) o \emph{activos} (p.~ej. diodos emisores de luz, o LED, por sus siglas en inglés) \citep{Klein2006}. 

% \begin{figure}
% 	\centering
%     \includegraphics{figures/figura.png}
%     \caption{Ejemplos de marcadores de la librería ARToolKit.}
%     \label{fig:marcadores}
% \end{figure}

\begin{figure}[t]
%   \vspace{6 mm}
  \centering
  \subfloat[Visual Code\label{subfig:mvisualcode}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-visualcode.pdf}
  }
  \hspace{5mm}
  \subfloat[ARToolkit\label{subfig:mart}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-art.pdf}
  }
  \hspace{5mm}
  \subfloat[CyberCode\label{subfig:mcybercode}]{
    \includegraphics[height=3.0cm]{figures/markers/marker-cybercode.pdf}
  }
  \hspace{5mm}
  \subfloat[HOM\label{subfig:mhom}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-hom.pdf}
  }\\
  \subfloat[ARTag\label{subfig:martag}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-artag.pdf}
  }
  \hspace{5mm}
  \subfloat[IGD\label{subfig:migd}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-igd.pdf}
  }
  \hspace{5mm}
  \subfloat[Marco\label{subfig:mframe}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-frame.pdf}
  }
  \hspace{5mm}
  \subfloat[SCR\label{subfig:mscr}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-scr.pdf}
  }\\
  \subfloat[ReacTiVision\label{subfig:mreactivision}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-reactivision.pdf}
  }
  \hspace{5mm}
  \subfloat[Shotcode\label{subfig:mshotcode}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-shotcode.pdf}
  }
  \hspace{5mm}
  \subfloat[Multi-ring\label{subfig:mmultiring}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-multiring.pdf}
  }
  \hspace{5mm}
  \subfloat[ColorCode\label{subfig:mcolorcode}]{
    \includegraphics[width=3.0cm]{figures/markers/marker-colorcode.pdf}
  }
  \caption{Algunas bibliotecas de marcadores para realidad aumentada.}\label{fig:marcadores}
\end{figure}

Mientras que el \emph{desorden} visual generado por marcadores impresos es indeseable, la implementación de éstos no es costosa, y en un principio, es más rápida que la realización de un análisis del entorno natural. Un gran número de ubicaciones y objetos pueden etiquetarse eficientemente codificando identificadores únicos en los marcadores. Estas ventajas fundamentales han llevado a la proliferación del seguimiento de posición basado en marcadores, a pesar de los avances significativos que se han logrado en el seguimiento basado en características naturales \citep{Wagner2007}.

%///PREVIO
\cite{Rekimoto1998} desarrolló uno de los primeros proyectos que hace uso marcadores 2D artificiales para dar seguimiento con 6DoF. Fue pionero en el uso de formas planas cuadradas para la estimación de posición y de patrones de códigos de barra 2D para la distinción de marcadores.

En \citeyear{Kato1999}, \citeauthor{Kato1999} utilizaron un enfoque similar para desarrollar la librería ARToolKit\footnote{\url{http://www.hitl.washington.edu/artoolkit/}}, la cual se liberó bajo la licencia GPL\footnote{\url{http://www.gnu.org/copyleft/gpl.html}}, por lo que se volvió muy popular entre los investigadores de realidad aumentada, convirtiéndose en la base de otros proyectos similares. ARToolKitPlus\footnote{\url{http://handheldar.icg.tugraz.at/artoolkitplus.php}} \citep{Wagner2007} es un sucesor de la librería ARToolKit, que se optimizó y extendió para su uso en dispositivos móviles.

Algunos investigadores exploraron el uso de marcadores con diferentes formas geométricas. \cite{Cho1998} proponen un sistema que utiliza marcadores de múltiples anillos de colores y un método de detección invariante a la iluminación. Adicionalmente, \cite{Mohring2004} implementaron un algoritmo para poder analizar marcadores tridimensionales de colores.

En el 2006, \citeauthor{Wagner2008a} dieron por terminado el desarrollo de ARToolKitPlus, y decidieron crear una nueva librería de marcadores desde cero, denominada Studierstube Tracker. Esta librería utiliza marcadores menos llamativos que los cuadros en blanco y negro usuales. Además, la librería incluye un método que permite dar seguimiento al marcador aún cuando se pierde la visibilidad del marcador.

\cite{Mulloni2009} proponen un sistema de navegación para interiores de bajo costo. La ubicación del usuario puede estimarse en tiempo real utilizando la cámara de los teléfonos móviles, al detectar marcadores.

%ARTag

Los LED infrarrojos pueden emitir luz a cierta frecuencia de onda. Si esta frecuencia se analiza con un filtro adecuado, la luz ambiental puede eliminarse virtualmente. Esto significa que lo único detectado son los marcadores, por lo que los requerimientos computacionales para el seguimiento se reducen considerablemente. Esto ha ocasionado que la tecnología LED se utilice ampliamente en sistemas de seguimiento comerciales \citep{Klein2006}. \cite{Olwal2006} desarrolló LightSense; el sistema consta de cámaras que detectan la luz emitida por los LED de teléfonos móviles, ubicando su posición en relación a un mapa, y presentando la información correspondiente.

\subsubsection{Seguimiento basado en características naturales}

En lugar de modificar el entorno con marcadores artificiales, esta técnica da seguimiento a características naturales únicas, como puntos, líneas, bordes o texturas. Este método sin marcadores es más demandante en el aspecto computacional, dado que características tridimensionales, intrínsecamente, exhiben mayor ambigüedad que los patrones binarios planos. Consecuentemente, la identificación de alguna característica única en una imagen no es tan obvia como con los marcadores artificiales. Como resultado, es necesario un esfuerzo computacional superior para determinar si algún elemento debe aumentarse. Además, el proceso de seguimiento se vuelve más complicado dado que la ambigüedad antes mencionada produce una cantidad mayor de valores atípicos al comprar características entre diferentes cuadros \citep{Gassmann2010}.

Existen algoritmos que pueden proveer seguimiento en tiempo real, utilizando diferentes enfoques (detección de características naturales, bordes, texturas, etc.), pero requieren grandes cantidades de procesamiento \citep{Klein2006}.

%PREVIO
\cite{Wagner2008} presentan el primer sistema de seguimiento de características naturales con 6DoF que se ejecuta en tiempo real, usando únicamente la cámara de un teléfono móvil. Los autores utilizan una versión modificada de los descriptores de características SIFT y Ferns.

Michael Cohen, investigador en Microsoft Research, lidera un grupo de desarrollo encargado de diseñar una aplicación de realidad aumentada\footnote{\url{http://research.microsoft.com/en-us/projects/augmented/default.aspx}}, la cual se ejecuta en una computadora portátil. La aplicación analiza imágenes capturadas con una cámara, en busca de coincidencias con características de imágenes previamente almacenadas en una base de datos. Posteriormente, se dibujan burbujas tridimensionales que flotan en dirección a un objetivo predefinido. El funcionamiento de esta aplicación se basa en algoritmos sofisticados de visión por computadora.
%En la Figura 5 se muestra un prototipo de la aplicación ejecutándose en una laptop; en la pantalla se puede observar una serie de burbujas que indican el camino hacia un objetivo.

Esta investigación sigue en curso, y en base a una demostración ofrecida en 2009, no han implementado algún método de localización del usuario. Como resultado, si se supone una base de datos con una gran cantidad de imágenes, el tiempo de ejecución se verá gravemente afectado.

%Existen muy pocas publicaciones sobre seguimiento de características naturales en tiempo real implementado en dispositivos móviles. [24] publicaron un articulo describiendo el seguimiento de posición a partir de características naturales en teléfonos móviles, usando una versión modificada de descriptores SIFT [16] y FERNS [26]. [21] propusieron otro enfoque denominado SURFTrac, el cual se basa en SURF [3] y se ejecuta a 6-7 cuadros por segundo. [15] demostraron que su algoritmo SLAM (Simultaneous Localization And Mapping) denominado PATM {http://www.robots.ox.ac.uk/~gk/PTAM/} puede aumentar superficies planas en tiempo real en el iPhone.

\cite{Wagner2009a} presentan un método de detección y seguimiento de múltiples objetos planos en tiempo real. Su sistema es capaz de reconocer y seguir hasta seis objetos al mismo tiempo, a 23 cuadros por segundo. Sin embargo, dar seguimiento a objetos tridimensionales reales es una tarea más complicada.

\subsubsection{Seguimiento basado en modelos}

Los métodos de seguimiento basado en modelos son técnicas que utilizan un modelo de las características de los objetos a buscar, tales como los modelos CAD o plantillas 2D del objeto, en base a características distinguibles y repetibles. Estas técnicas usualmente construyen sus modelos en base a líneas y bordes. Los bordes son las características más utilizadas, dado que su búsqueda es computacionalmente eficiente, y además son robustas a cambios en la iluminación \citep{Duh2008}.

\cite{Arth2009} proponen un enfoque de estimación de posición 6DoF. Primeramente, se genera un modelo tridimensional de características a partir de una colección de imágenes. Posteriormente, se comparan imágenes capturadas con la cámara de un teléfono móvil con este modelo.

\subsection{Otros métodos de seguimiento}

%GPS
El candidato natural para dar seguimiento en exteriores es el Sistema de Posicionamiento Global (GPS por sus siglas en inglés), siempre y cuando se reciban señales de al menos cuatro satélites. \cite{Schmeil2001} emplean el GPS para ubicar al usuario y presentar una entidad virtual que funciona como asistente personal.

%WIFI
Otro sistema de seguimiento involucra calcular la ubicación de una persona mediante mediciones de la calidad de señal de redes inalámbricas 802.11b (Wi-Fi). Para esto se requiere la implementación de equipos en el entorno, en este caso, puntos de acceso Wi-Fi. \cite{Peternier2006} emplean un método de localización Wi-Fi para un sistema de realidad aumentada, que permite visualizar contenido tridimensional en un PDA. \cite{Castro2008} usan redes neuronales de retropropagación entrenadas para mapear señales de radiofrecuencia de una WLAN en coordenadas bidimensionales. Ekahau RTLS\footnote{\url{http://www.ekahau.com/products/real-time-location-system/overview.html}} es un sistema que seguimiento basado en Wi-Fi que proporciona la ubicación de dispositivos a nivel de piso y cuarto.

%BLUETOOTH
\cite{Cheung} presentan un sistema de posicionamiento para interiores basado en la tecnología Bluetooth, utilizando señales estacionarias de bajo costo. El sistema proporciona un posicionamiento a nivel de cuarto, y las señales se detectan en un rango de 2 a 3 metros. La ventaja principal de utilizar esta tecnología es que el costo es muy bajo. Sin embargo, este tipo de sistemas puede sufrir interferencia a causa de otros equipos electrónicos. Además, la identificación de las señales puede ser un proceso lento (alrededor de 10 segundos) para cierto tipo de aplicaciones; este problema se puede solucionar limitando el proceso de descubrimiento a un número especifico de dispositivos, con el consiguiente riesgo de pérdida de precisión \citep{Chawathe2008}.

%RFID
Las etiquetas RFID también pueden utilizarse en las aplicaciones de realidad aumentada. Constan de un microchip y una antena, e interactúan con ondas de radio para transferir información. \cite{Rashid2006} utilizan teléfonos móviles con lectores RFID para ubicar a los usuarios y seguir su progreso en una versión de Pacman de realidad aumentada.

%NFC
%NFC (acrónimo de las palabras inglesas near field communication) es una tecnología de comunicación inalámbrica

%Una tecnología prometedora es el sistema de posicionamiento local Ultra-Wide-Band (UWB) (Steggles and Gschwind, 2007). Basado en redes de pequeños sensores y etiquetas, este sistema permite estimar la posición 3D de una etiqueta con una precisión de 15cm.

\subsection{Seguimiento híbrido}

El seguimiento sigue siendo un problema abierto. El rendimiento del seguimiento basado en visión por computadora puede mejorarse al combinarse con otro tipo de sensores, tales como de movimiento, magnéticos, o GPS. Cuando hay información del GPS disponible, el espacio de búsqueda puede reducirse en gran manera, restringiendo la búsqueda en la base de datos a los objetos que se encuentran en un rango predefinido \citep{Gassmann2010}. En la actualidad, los enfoques de seguimiento híbrido son la forma más prometedora para lidiar con las dificultades planteadas por la realidad aumentada móvil, tanto en interiores como en exteriores.

Las tecnologías básicas disponibles para el sensado de orientación son las brújulas electromagnéticas, sensores de inclinación, y giroscopios. Los sistemas de seguimiento visual tienen un mejor desempeño con movimientos de baja frecuencia y son propensos a errores, especialmente con movimientos rápidos de cámara. Los sensores de inercia se adaptan mejor a esta situación. %La naturaleza complementaria de los sensores visuales y de inercia ha llevado al desarrollo de sistemas de seguimiento híbrido.

%PREVIO
\cite{Lang2002} presentan una combinación de acelerómetros y giroscopios montados en un sistema de seguimiento inercial 6DoF. Este seguidor inercial se utiliza en combinación con un sistema de seguimiento basado en visión. De esta forma, la fusión de los sensores aprovecha las virtudes de ambas tecnologías y compensa sus respectivas desventajas.

\cite{Klinker2000} proponen una herramienta para interiores que combina métodos de seguimiento visual locales, portados por el usuario, con esquemas de seguimiento global, basados en sensores colocados en paredes. Mediante una red inalámbrica el sistema portado por el usuario se puede comunicar con la infraestructura de sensado disponible.

Para abordar eficientemente la movilidad y robustez de un sistema de realidad aumentada móvil para interiores, \cite{Newman2006} proponen combinar métodos y sensores de seguimiento, como acelerómetros y sensores ultrasónicos, con marcadores artificiales.

\cite{Azuma2006} presentan un método para mejorar la precisión del seguimiento de posición del GPS, obteniendo un registro más preciso y creíble. Proponen un sistema de seguimiento híbrido para operaciones militares, donde un casco tiene tres giroscopios, dos sensores de inclinación, un sensor GPS y una cámara infrarroja que ocasionalmente observa ciertas señales infrarrojas móviles que ayudan a corregir, de forma significativa, los errores de sensado.

\cite{Diverdi} presentan GroundCam, que consta de una cámara y un seguidor de orientación. La cámara enfoca el suelo y el sistema determina los movimientos del usuario. De forma similar al funcionamiento de los sensores inerciales. Al agregar un receptor GPS al sistema, es posible dar un seguimiento preciso y continuo en entornos exteriores. Si se desea utilizar GroundCam en interiores, es necesaria la combinación con otro método de seguimiento, dado que el GPS no funciona correctamente en estos ambientes.

Google Goggles\footnote{\url{http://www.google.com/mobile/goggles/}} es una aplicación para dispositivos con sistema operativo Android o iOS que permite realizar una búsqueda mediante imágenes en lugar de palabras. Cuando se toma una fotografía de un objeto con la cámara de un teléfono móvil, se intenta reconocer el objeto de interés y mostrar información relevante. Esta aplicación realiza una búsqueda en las bases de datos de la compañía Google; actualmente, se pueden reconocer miles de objetos, incluyendo edificios, obras de arte, logotipos, libros, empresas, etiquetas de alimentos o bebidas, etc. Adicionalmente, Google Goggles puede utilizar el GPS y la brújula del dispositivo móvil para ubicar al usuario y restringir el espacio de búsqueda. En la Figura~\ref{fig:goggles} se muestra un ejemplo de la funcionalidad de Google Goggles; al tomar una fotografía del puente Golden Gate, la aplicación proporciona información adicional sobre éste.

\begin{figure}[t]
% 	\vspace{5 mm}
	\centering
    \includegraphics[width=14.5cm]{figures/goggles.jpg}
    \caption{Ejemplo del funcionamiento de Google Goggles. Izquierda: El usuario apunta con la cámara de un teléfono móvil hacia el puente Golden Gate. Derecha: La aplicación Google Goggles reconoce el puente y presenta información asociada a éste.}
    \label{fig:goggles}
\end{figure}

Google Goggles sigue en desarrollo. Por el momento no identifica plantas, animales, automóviles, muebles u otros objetos comunes, por lo que no está dirigido a entornos interiores.

\cite{Takacs2008} presentan un sistema de localización e información para exteriores. Se capturan fotografías con la cámara de un teléfono móvil, equipado con GPS, y se realiza un proceso de comparación en una base de datos de imágenes geoetiquetadas. Posteriormente, se despliegan hipervínculos o información asociada a un objeto cuando éste se reconoce en una imagen capturada. En caso de que no se encuentre alguna coincidencia, la aplicación permite al usuario asociarle una anotación y guardar estos datos en el servidor. El módulo de reconocimiento de objetos está implementado completamente en el dispositivo móvil y se ejecuta casi en tiempo real. Los investigadores adaptaron el algoritmo SURF para su ejecución en dispositivos móviles. 

El aspecto más relevante de este proyecto es que la ubicación del usuario se utiliza para limitar el espacio de búsqueda, considerando solamente la información de celdas de localización (denominadas \emph{loxels}) cercanas. Cuando el usuario cambia de ubicación, un servidor envía al dispositivo móvil el repositorio de anotaciones existentes en los loxels correspondientes. Por este motivo, el sistema es altamente escalable, ya que solamente puede existir un número fijo y finito de ubicaciones de interés en un loxel.

\begin{figure}[ht]
  \vspace{2 mm}
  \centering
  \subfloat[\label{subfig:sekai1}]{
    \includegraphics[height=4.5cm]{figures/sekai1.jpg}
  }
  \hspace{5mm}
  \subfloat[\label{subfig:sekai2}]{
    \includegraphics[height=4.5cm]{figures/sekai2.jpg}
  }
  \caption{Ejemplo del funcionamiento de Sekai Camera. (a) Muestra el menú de un restaurante. (b) Presenta diversas Air Tags encontradas en el entorno del usuario.}\label{fig:sekai}
\end{figure}

La empresa japonesa Tonchidot desarrolló una aplicación de realidad aumentada llamada Sekai Camera\footnote{\url{http://www.tonchidot.com/en/}}, compatible con iPhone y Android. Permite crear y visualizar anotaciones con información acerca de productos y lugares. Utiliza el GPS y los sensores del dispositivo móvil para determinar dónde está el usuario y en qué dirección está apuntando el dispositivo.

Sekai Camera combina las ideas del sensado participativo, el servicio basado en ubicación y la realidad aumentada. Permite a los usuarios crear anotaciones, denominadas \emph{Air Tags}. Estas anotaciones pueden contener texto, fotos y/o mensajes de voz. En la Figura~\ref{subfig:sekai1} se muestra un ejemplo del funcionamiento de la aplicación; un usuario enfoca su iPhone hacia un establecimiento de comida y se le presenta el menú, adicionalmente, puede revisar comentarios colocados por otros clientes. Puesto que en una ubicación especifica pueden existir muchas Air Tags (ver Figura~\ref{subfig:sekai2}), Sekai Camera implementa un filtro de búsqueda para especificar parámetros de tiempo, distancia y tipo, permitiendo al usuario organizar todas las anotaciones mostradas en una ubicación determinada.



\subsection{Repositorios}

Todas las tecnologías de seguimiento anteriores asumen la presencia de una base de datos con el contenido correspondiente a cada tecnología para poder realizar un proceso de búsqueda.

Por ejemplo, para el caso del seguimiento visual debe existir un repositorio con todos los puntos de interés y algún tipo de descriptor que caracterice el marcador o las características naturales del objeto. A cada una de las entradas en la base de datos se le puede anexar información adicional, que luego se presentará al usuario.



\section{Despliegue}

Para poder aumentar el mundo real, un sistema de realidad aumentada debe desplegar, de alguna forma, información al usuario. En realidad aumentada, los principales medios para el despliegue de información son los gráficos tridimensionales. Éstos pueden incluir modelos de objetos reales que no estén presentes en el momento (p.~ej. partes faltantes de una máquina) o que no sean visibles para el usuario (p.~ej. tomografías). Otro ejemplo son flechas virtuales que indiquen la dirección que un usuario debe seguir, o etiquetas textuales registradas espacialmente \citep{Bell2001}. Adicionalmente, algunos sistemas utilizan audio como salida \citep{MacWilliams2004a}.

Aparte del hardware común para desplegar información (monitores de computadoras de escritorio, pantallas de laptops y palmtops), los sistemas de realidad aumentada también usan HMD (acrónimo de las palabras inglesas \emph{\textbf{H}ead-\textbf{M}ounted \textbf{D}isplay}) y pantallas de proyección. Para el audio, se utilizan audífonos y bocinas. Otro tipo de información, como la retroalimentación háptica, requiere hardware especializado, incluido en la mayoría de los dispositivos móviles actuales \citep{MacWilliams2004a}.

%El componente de despliegue es responsable de manejar los dispositivos de salida y presentar la información apropiada al usuario. La información a presentar depende completamente de la aplicación \cite{MacWilliams2004a}

\subsection{See-through HMD}

Esta técnica de despliegue se puede dividir en dos categorías: OST (acrónimo de las palabras inglesas \emph{\textbf{O}ptical \textbf{S}ee-\textbf{T}hrough}), con los que el usuario observa el mundo real directamente, y VST (acrónimo de las palabras inglesas \emph{\textbf{V}ideo \textbf{S}ee-\textbf{T}hrough}), donde el usuario ve el mundo real mediante imágenes de video de algún tipo. Cada categoría tiene sus ventajas y desventajas \citep{Klein2006}.

Típicamente, un OST-HMD consta de un espejo semi-plateado. El usuario puede ver el mundo real a través del espejo, pero también puede ver gráficos generados por computadora dibujados en pequeñas pantallas visibles en la reflexión del espejo. Estos gráficos se sobreponen en el mundo real utilizando el proceso de \emph{mezcla aditiva}, generando un efecto donde los gráficos dibujados de color negro aparecen transparentes al usuario, ofreciendo una visión de objetos reales en el mismo lugar \citep{Klein2006}.

Un VST-HMD no permite al usuario ver el mundo real directamente, ya que el espejo del dispositivo es totalmente reflectante, y el usuario solamente ve lo que se dibuja en las pequeñas pantallas. Se provee una visión del mundo real mediante una secuencia de video capturada con cámaras. Se pueden renderizar gráficos aumentados directamente en esta secuencia de video \citep{Klein2006}.

\begin{figure}[ht]
  \vspace{2 mm}
  \centering
  \subfloat[VST-HMD.\label{subfig:osthmd}]{
    \includegraphics[width=7.0cm]{figures/hmda.pdf}
  }
  \hspace{5mm}
  \subfloat[OST-HMD.\label{subfig:vsthmd}]{
    \includegraphics[width=7.0cm]{figures/hmdb.pdf}
  }
  \caption{Diagramas de VST-HMD y OST-HMD.}\label{fig:hmd}
\end{figure}

La principal ventaja que tienen los OST-HMD sobre los VST-HMD es que ofrecen una visión de mayor calidad del mundo real. Excepto por una atenuación, y posible pérdida de contraste, la visión del usuario sobre el mundo real permanece sin modificaciones, por lo que los objetos pueden observarse con resolución completa y sin retrasos. En contraste, la visión a través de un VST-HMD es de menor resolución y rango dinámico, puede tener regiones desenfocadas, y se retrasa del mundo real en cierta medida \citep{Klein2006, Duh2008}.

La desventaja principal de los OST-HMD es la integración inferior de los gráficos virtuales con el mundo real. Dado que la luz del mundo real golpea los ojos del usuario directamente, la computadora no puede saber lo que el usuario ve, en lugar de eso debe adivinar dónde dibujar los gráficos en base a otros sensores de posición y alguna calibración. Por el contrario, en el caso de los VST-HMD una computadora tiene acceso completo a la visión del usuario. Esto significa que, potencialmente, se pueden dibujar anotaciones y gráficos en el lugar exacto. Además, son capaces de dibujar estos gráficos virtuales en el momento adecuado, dado que el mundo real y los gráficos correspondientes aparecen al usuario al mismo tiempo; en los OST-HMD, la visión del mundo real es instantánea, mientras que la visión de los gráficos virtuales es retardada. Esto puede generar el efecto desagradable de que los gráficos virtuales están ``flotando'' en el mundo real, cuando el usuario mueve su cabeza \citep{Klein2006, Duh2008}.

Aparte de la exactitud del \emph{registro}, la habilidad de insertar objetos mediante un mezcla arbitraria permite a los VST-HMD producir escenas compuestas más ricas y permite la \emph{realidad disminuida}, donde componentes de una escena son removidos. En contraste, la única forma de remover objetos en un OST-HMD es cubriéndolos con colores mucho más brillantes \citep{Klein2006}.

\subsection{Despliegue basado en proyección}

El despliegue basado en proyección es una buena opción para aquellas aplicaciones donde los usuarios no portan equipo, proporcionando un intrusión mínima. Hay una variedad de técnicas propuestas para desplegar información gráfica directamente en los objetos o superficies reales \citep{Duh2008}.

\subsection{Despliegue portátil}

Apuntar con una cámara proporciona una forma natural de indicar interés y buscar información disponible sobre una ubicación u objeto en particular. Una vez que un sistema reconoce el objetivo del usuario, puede aumentar la visión con gráficos y texto que provean más información o servicios \citep{Takacs2008}.

Los HMD ofrecen una posibilidad tentadora de experimentar la realidad aumentada de una forma totalmente inmersiva, pero en la práctica puede sufrir de dificultades de registro y usabilidad. Una alternativa para los HMD es el uso de dispositivos portátiles. Un dispositivo con una pantalla y cámara integrada actúa similar al visor de una cámara de video (VST), ofreciendo al usuario una interfaz no intrusiva a información aumentada sin los cables y bultos involucrados en un sistema con HMD \citep{Klein2006}.

\cite{Rekimoto1995} presentó el primer ejemplo de realidad aumentada portátil. El autor lista problemas de los sistemas basados en HMD y propone el uso de un dispositivo portátil. NaviCam consiste en una pantalla LCD-TV portátil con una cámara montada, conectada a una computadora. Se reconocen códigos de barra puestos sobre objetos reales en el entorno (p.~ej. un calendario) y se presenta información pertinente (como la agenda del día) cuando la cámara enfoca estos códigos \citep{Klein2006}.

Desde el trabajo de Rekimoto, la potencia computacional de los dispositivos portátiles se ha incrementado hasta el punto en que, para algunas aplicaciones de realidad aumentada, no se requiere conexión a computadoras externas. Tres categorías de dispositivos parecen ser prometedoras como interfaces de la RA móvil: tablet PC, PDA y teléfonos móviles. De éstos, las tablet PC son las más potentes, pero también las más grandes y pesadas, por lo que pocos trabajos las incluyen en su arquitectura \citep{Klein2006}.


\section{Interacción}

Un aspecto importante de las aplicaciones de realidad aumentada es crear técnicas de interacción apropiadas que permitan a los usuarios interactuar con el contenido virtual de una forma intuitiva \citep{Duh2008}. 

En realidad aumentada, algunas técnicas de interacción pueden mapearse desde la realidad virtual. Así, el usuario puede interactuar con el mundo virtual usando gestos manuales, moviendo una pluma a la que se le está dando seguimiento, o seleccionando elementos de un menú en una superficie virtual. Para entradas tipo manos libres, algunos sistemas utilizan reconocimiento de voz \citep{MacWilliams2004}.

El componente de interacción es parte integral de muchos sistemas de realidad aumentada; procesa entradas de varios dispositivos, la interpreta y combina. Las entradas pueden interpretarse en formas diferentes, dependiendo de la información contextual. El componente de interacción utiliza el de despliegue para retroalimentar al usuario cuando se reconoce una entrada y cuando ésta no se recibió correctamente \citep{MacWilliams2004}.

El hardware más común para la interacción en sistemas de realidad aumentada es un objeto al que se le da seguimiento, p.~ej. una pluma; regularmente, estos objetos cuentan con botones para comunicarse inalámbricamente con el resto del sistema. Otros dispositivos de entrada útiles son las pantallas táctiles y micrófonos. Cuando se utiliza el mismo dispositivo físico para entrada y salida, p.~ej. una pantalla táctil, los componentes de interacción y de despliegue estás muy ligados.

En algunas aplicaciones, como las de navegación, la interacción es mínima; en un principio, el usuario indica un destino, después solamente necesita señalar si algún camino está bloqueado y es necesario calcular una nueva ruta. En aplicaciones de mantenimiento el usuario debe poder interactuar con el sistemas sin emplear las manos, p.~ej. utilizando comandos de voz.

%subsection{Realidad aumentada tangible}

Con las interfaces de usuario tangibles los objetos en el mundo real pueden utilizarse como elementos de interfaz, y su manipulación física puede proveer una forma muy intuitiva de interactuar con el contenido virtual. Un reto de las interfaces de realidad aumentada tangible es indicar a los usuarios cómo mapear los movimientos de los objetos reales a comandos que el sistema pueda identificar \citep{Duh2008}.

%subsection{RA colaborativa}
%subsection{Interfaces de RA híbridas}

%SIX SENSE


% \begin{itemize}
% \item Marcadores pasivos: Típicamente, estos marcadores consisten de un patrón binario de dos dimensiones (blanco y negro) colocado en una superficie plana.
% \item Marcadores activos: 
% \end{itemize}


%Revisando la definición de RA, se pueden identificar los componentes necesarios para MARS. 

%Después, se necesitan displays para presentar el material virtual en el contexto del mundo físico. En el caso de aumentar el sentido visual, se pueden utilizar head-worn displays, mobile hand-held displays, o displays integrados en el mundo físico. Otros sentidos (oído, tacto, o inclusive olfato) también pueden ser aumentados potencialmente.

%También se debe tratar el registro; alineando los elementos virtuales con los objetos físicos correspondientes. Para el registro visual y audible, esto puede ser realizado siguiendo la posición y orientación de la cabeza del usuario y relacionar esa medición con un modelo del entorno y/o haciendo que la computadora "vea" y potencialmente interprete el entorno, mediante cámaras y visión por computadora.

%Tecnologías de entrada e interacción permiten a una persona móvil trabajar con el mundo aumentado (p.~ej. realizar selecciones o accesar y visualizar bases de datos conteniendo material relevante) y aumentar aún más el mundo alrededor de ellos. También hacen posible la comunicación y colaboración con otros individuos.

%Para empezar, es necesaria una plataforma computacional que pueda operar y administrar material virtual para que sea puesto encima del entorno físico, procesar la información del seguimiento, y controlar el despliegue.

%Una red inalámbrica es necesaria para comunicarse con otras personas y computadoras. Una aplicación de RA móvil se puede basar en información actualizada que no puede estar almacenada en el dispositivo computacional antes de la ejecución de la aplicación. Es decir, que son necesarias actualizaciones con un servidor. Por ejemplo, esto haría posible reportar demoras de trenes o autobuses y condiciones de tráfico.

%////////////////
%Para desarrollar una herramienta de apoyo a personas con problemas de memoria es necesario poder reconocer y mostrar información en el interior del hogar del usuario.

%El trabajo de \cite{Takacs2008} se enfoca en entornos exteriores y hace uso de GPS para ubicar al usuario. Para apoyar a las personas con problemas de memoria es necesaria una implementación en interiores, por lo que se requiere utilizar o desarrollar otro método de localización, puesto que el GPS no funciona correctamente  en estos entornos.

%Al igual que Google Goggles, Sekai Camera, aunque completamente funcional, es un proyecto en desarrollo, por lo que sus características y funciones están en constante cambio. Sin embargo, los investigadores no tienen pensado implementar ningún algoritmo de reconocimiento de imágenes, por lo que la funcionalidad del dispositivo recae completamente en el GPS. Además, en una determinada posición, el usuario puede estar observando muchos objetos de interés al mismo tiempo, por lo que el dispositivo móvil requiere mostrar todas las anotaciones alrededor de esa ubicación, ocasionando que el usuario tenga que realizar una pequeña búsqueda.

\section{Resumen}

En este capítulo se presentó una introducción al tema de realidad aumentada móvil, siguiendo con las anotaciones de RA y sus características. Posteriormente se hizo una revisión de la arquitectura de un sistema de realidad aumentada móvil y se explicaron sus tres componentes principales: (1) seguimiento, (2) despliegue, e (3) interacción. También se describieron trabajos relacionados que utilizan diferentes métodos para implementar estos componentes.

% las ventajas y desventajas de los métodos existentes para implementar estos componentes y los trabajos relacionados que...

En el siguiente capítulo se presenta el diseño e implementación del ANS, el cual consiste de tres subsistemas: Administrador de Etiquetas, aplicación Servidor y aplicación Cliente. También se describe el algoritmo de visión por computadora implementado para reconocer objetos de interés en el entorno del usuario.
