\documentclass[a4paper,11pt]{article}

% Paquetes
\usepackage{fullpage}
\usepackage{graphicx}
\usepackage{textcomp}
\usepackage{color}
\usepackage{colortbl}
\usepackage{rotating}
\usepackage{amsmath}
\usepackage{tipa} %Phonetics Symbols
\usepackage{textcomp}
\usepackage{multirow}
\usepackage[pdftex]{hyperref}
	\hypersetup{colorlinks=true,linkcolor= royalblue4,urlcolor= cornflowerblue}
\usepackage{fancyhdr}
%\usepackage{bibtex}

%\iffalse
\usepackage[spanish]{babel}
%\usepackage{ucs}
\usepackage[utf8]{inputenc}
%\usepackage[latin1]{inputenc}
%\usepackage[T1]{fontenc}
\usepackage{verbatim}
\usepackage{glossary}
\makeglossary


% ESTILO DE PÁGINA

%Cabeceras
%\pagestyle{fancy}
% con esto nos aseguramos de que las cabeceras
% de capítulo y de sección vayan en minúsculas

%\renewcommand{\sectionmark}[1]
%{\markright{\thesection\ #1}}
%\fancyhf{} % borra cabecera y pie actuales
%\fancyhead[LE,RO]{\bfseries\thepage}
%\fancyhead[LO]{\bfseries\rightmark}
%\fancyhead[RE]{\bfseries\leftmark}
%\renewcommand{\headrulewidth}{0.5pt}
%\renewcommand{\footrulewidth}{0pt}
%\addtolength{\headheight}{0.5pt} % espacio para la raya
%\fancypagestyle{plain}{%
%   \fancyhead{} % elimina cabeceras en páginas "plain"
%}

\pagestyle{plain}
%\pagenumbering{arabic}
%PALETA de COLORES
\definecolor{mediumspringgreen}{rgb}{0,0.98,0.6} % color verde primavera
\definecolor{navyblue}{rgb}{0,0,0.5}
\definecolor{cornflowerblue}{rgb}{0.39,0.58,0.93}
\definecolor{steelblue}{rgb}{0.27,0.51,0.71}
\definecolor{royalblue2}{rgb}{0.26,0.43,0.93}
\definecolor{royalblue3}{rgb}{0.23,0.37,0.8}
\definecolor{royalblue4}{rgb}{0.15,0.25,0.55}
\definecolor{dodgerblue2}{rgb}{0.11,0.53,0.93}
\definecolor{dodgerblue3}{rgb}{0.09,0.45,0.8}
\definecolor{dodgerblue4}{rgb}{0.06,0.31,0.55}
\definecolor{steelblue1}{rgb}{0.39,0.72,1}
\definecolor{steelblue2}{rgb}{0.36,0.67,0.93}
\definecolor{steelblue3}{rgb}{0.31,0.58,0.8}
\definecolor{blueviolet}{rgb}{0.54,0.17,0.89}
\definecolor{deeppink}{rgb}{1,0.08,0.58}
\definecolor{deepskyblue}{rgb}{0,0.75,1}	%usado
\definecolor{deepskyblue3}{rgb}{0,0.6,0.8}
\definecolor{darkorchid}{rgb}{0.6,0.2,0.8}





%FIN DE PREÁMBULO

%opening. Front Page
\title
{	Universidad Nacional de Córdoba\\[0,5cm]
	Facultad de Ciencias Exactas, Físicas y Naturales\\[0,5cm]
	Carrera Ingeniería Biomédica\\[0,5cm]
	\includegraphics[width = 0.25\textwidth]{escudoUNC.jpg}\\[0,5cm]
	\textcolor{dodgerblue4}{Informe Preliminar. Reconocimiento de Voz}
}

\author
{
	Paula Marcela Sanz Leon\\[8cm]
}

\date
{
	\today
}


%COMIENZO DEL DOCUMENTO


\begin{document}


\maketitle

\pagebreak
{
	\fancypagestyle{plain}
{
\fancyhead{}
\fancyfoot{}
} % clear header and footer of plain page because of ToC

\tableofcontents
\listoftables
\listoffigures

}

\pagebreak

\section{Descripción del Proyecto}
	El Reconocimiento Automático de Voz (RAV), permite que la voz de una 
	persona sea identificada por una computadora y sea traducida a un 
	mensaje textual e interpretada como un comando. Las aplicaciones potenciales 
	con esta tecnología son numerosas. Actualmente podemos observar 
	algunas en nuestro alrededor, por ejemplo: discado telefónico por voz, 
	y manejo del escritorio de las PCs.\\

	La tecnología de RAV permite racionalizar las interfaces de comunicación
	 con las computadoras y otras máquinas, rompiendo barreras para muchos 
	usuarios como las personas con discapacidades físicas.\\

	En este caso la idea de un Reconocedor de Voz, nace ante la necesidad de
	 una comunicación alternativa hombre-máquina para manejar un Sistema 
	Robótico Asistente en Cirugía Minimamente Invasiva.
 
	\subsection{Motivación}
		Si bien en la actualidad se encuentran disponibles motores de 
		reconocimiento con un buen rendimiento, generalmente requieren 
		un largo período de entrenamiento y son dependientes de un único
		 usuario (Windows Speech Recognition). Además, este tipo de paquetes 
		comerciales no pueden ser modificados para una aplicación
		 tan específica como la que motiva el presente trabajo. \\

		Otra razón que influyó en la decisión de construir un reconoce
		dor de voz íntegramente, es la carencia de este tipo de herra
		mienta en idioma castellano, o mejor dicho, cuyo diccionario sea
		 en nuestro idioma.	
	
	\subsection{Objetivos}
		El objetivo de este proyecto es diseñar un sistema de reconoci
		miento automático de voz que interprete palabras aisladas como 
		comandos para ejecutar un movimiento determinado.\\

		La propuesta es diseñar un sistema RAV con un front-end caracte
		rizado caracterizado por un 'modelo auditivo' y un núcleo conven
		cional de RAV. Este enfoque permite al sistema presentar una 
		robustez contra el ruido mayor a la de aplicaciones que no consi
		deran la respuesta auditiva del oído humano.\\

		El fin último de este proyecto es diseñar el sistema completo 
		que reconozca un grupo finito de entradas (diccionario), dentro 
		de un entorno de trabajo real como un quirófano, y cuya salida 
		sea interpretada por el módulo de control del robot.


\section{Fundamentos Teóricos}
	
	\subsection{Investigación y Antecedentes}
	El modelo auditivo es un método de extracción de caracterísitcas diseña
	do para reconocimiento de voz robusto dentro de ambientes con ruido.\\ %cita 1

	Este método está inspirado en la periferia auditiva de los mamíferos 
	(humanos) e involucra técnicas explícitas de procesamiento de señales en 
	las cuales el objetivo principal es extraer la información de frecuencia 
	vital de la voz desde la fuente de ruido.\\

	Sin embargo el modelo auditivo es solo una parte del análisis de front-
	end (entradas-salidas) de un sistema funcional RAV. Tradicionlamente, el 
	análisis de front-end se refiere a la primera fase de RAV, a través de 
	la cual la señal acústica de entrada es convertida a una secuencia de 
	vectores de características extraídas.\\

	El núcleo de un sistema de RAV, también conocido como motor, debe mapear
	, comparar y tomar la decisión sobre una señal de entrada. \\

	La investigación sobre reconocimiento de voz comenzó con la revisión y 
	estudio de la literatura y buscando técnicasque ya han sido ampliamente 
	y probadamente efectivas.
	Tanto las técnicas para la extracción de 'características' y aprendizaje 
	de sistemas (system learning) fueron analizadas.\\

	Según la bibliografía consultada, la extracción de atributos se basa en 
	algunas pocas técnicas, cada una de ellas con variaciones:\\

	\begin{itemize}
		\item Frequency Extraction
		\item LPC Cepstral Coefficients
		\item Homomorphic Cepstral Coefficients
		\item Mel Frequency Cepstral Coefficients
		\item Mel Frequency LPC Cepstral Coefficients
		\item Bark Frequency Cepstral Coefficients
		\item Bark Frequency LPC Cepstral Coefficients
		\item Perceptual Linear Prediction Features
		\item Wavelets
	\end{itemize}
	
	Las técnicas basadas en LPC Cesptral Coefficients están basadas en la 
	idea de un vocoder, el cual es una simulación del tracto vocal humano. 
	(No es útil para sonidos no vocales).

	Se ha probado que los resultados de Mel Frequency Based Filter y Bark 
	Frequency Based Filter son semejantes, principalmente debido a la naturaleza 
	similar de ambos filtros. Por otro lado se menciona que PLP y MF 
	son técnicas parecidas, siendo esta última la más popular. Se selecciona 
	MFCC para el bloque de extracción de características seleccionada.\\

	Las siguientes técnicas han sido y siguen siendo comúnmente utilizadas 
	para el reconocimiento de voz o identificación del hablante, es decir, 
	lo que se denomina aprendizaje del Sistema:

	\begin{itemize}
		\item Dynamic Time Warping (DTW)
		\item Hidden Markov Models (HMM)
		\item Vector Quantization (VQ)
		\item Learning Vector Quantization (LVQ)
		\item Self Organizing Maps (SOM)
		\item Ergodic-HMMs
		\item Artificial Neural Networks (ANN)
		\item Support Vector Machines (SVM)
		\item Long Term Statistics
	\end{itemize}	

	Debido al alcance y limitaciones del presente trabajo, se ha decidido 
	investigar RAV utilizando DTW, HMM, SVM y NN, y seleccionar una de ellas 
	para el núcleo.\\

	Previamente a comenzar el análisis de los motores de RAV, fue de gran importancia entender las características y
	propiedades subyacentes del habla y las articulaciones de las palabras. La fuente principal y básica para esta parte
	fue \cite{bermudez}.
        De acuerdo a varios artículos se ha concluído que un motor de RAV no solo requiere un modelo auditivo, pero una
	combinación de componentes front-end bien diseñados. La primera tarea se trata entonces de implementar estos 
	front-ends mientras se van integrando a la realización en curso del RAV.\\
	Un resumen global de logros y avances se muestra en el Apéndice \ref{Apx A}. Los diagramas de bloques originales y
	modificados se presentan en el Apéndice \ref{Apx B}. 


 
	\subsection{Datos de entrenamiento}
		Una tarea importante ha sido la recolección de los datos para el 
		entrenamiento. En primer lugar se analizaron 7 palabras diferentes 
		y las 5 vocales en 5 personas distintas (4 hombres, 1 mujer), 
		es decir un total de 60	muestras, grabadas con un micrófono genérico de PC.

	
			\begin{table}[!h]
			\begin{center}
			\begin{tabular}{|l|l|l|} \hline
				\textbf{Fonema} &\textbf{Grafía}&\textbf{Ejmplos} 		\\ \hline
				/a/		& a 		& \textcolor{darkorchid}{a}	\\ \hline
				/b/		& b,v 		& \textcolor{deepskyblue3}{vaso}\\ \hline
				/\texttheta/	& c,z 		& \textcolor{deepskyblue3}{izar}\\ \hline
				/\textteshlig/	& ch		& \textcolor{deepskyblue3}{chico}\\ \hline
				/k/		& c,qu,k	& casa, queso, kilo 		\\ \hline
				/d/		& d		& \textcolor{deepskyblue3}{dedo}\\ \hline
				/e/		& e		& \textcolor{darkorchid}{e}	\\ \hline
				/f/		& f		& fama, café			\\ \hline
				/g/		& g,gu		& gama, guisa, paga		\\ \hline
				/i/		& i		& \textcolor{deepskyblue}{i}	\\ \hline
				/x/		& j,g		& paja, gitano			\\ \hline
				/l/		& l		& \textcolor{deepskyblue3}{ala}	\\ \hline
				/\textlambda/	& ll		& llave, calle			\\ \hline
				/m/		& m		& mama				\\ \hline
				/n/		& n		& nana				\\ \hline
				/\textltailn/	& ñ		& caña				\\ \hline
				/o/		& o		& \textcolor{darkorchid}{o}	\\ \hline
				/p/		& p		& piedra, capa			\\ \hline
				/r/		& r		& \textcolor{deepskyblue3}{pero}\\ \hline
				/$\bar{r}$/	& rr,r		& \textcolor{deepskyblue3}{remo}\\ \hline
				/s/		& s		& soy				\\ \hline
				/t/		& t		& tanto				\\ \hline
				/u/		& u		& \textcolor{darkorchid}{u}	\\ \hline
				/\v{j}/		& y,hi		& mayo, hierba			\\ \hline
			
			\end{tabular}
				\caption{Fonemas y Grafías del Español}
			\end{center}				
			\end{table}

		
		
		El conjunto de palabras habladas fueron cuidadosamente elegidas, de manera tal que contengan los principales
		modos de articulación:\textbf{ 'vaso', 'izar', 'chico', 'dedo', 'ala', 'pero' y 'remo'}. Estas muestras de 			entrenamiento son utilizadas para el testeo de los front-ends y motor de RAV.\\

		Estas palabras también fueron elegidas por sus caracterísitcas epectrales únicas, y no se
		ajustan a la aplicación final. Por consiguiente un nuevo conjunto de palabras conformará la secuencia de entrenamiento real, entre ellas se incluirán las vocales. Estas palabras son: \textbf{'Subir', 'Bajar','Derecha', 'Izquierda', 'Avanzar', 'Retroceder', 'Alto'}.

		Se hizo además un conjunto de datos alternativo, para entrenar el sistema con la voz de una sola persona (mujer).\\
		
		Se espera poder comparar los resultados de performance del sistema con distintas secuencias de entrenamiento.
		
		\subsubsection{Atributos de los archivos de sonido}
			\begin{enumerate}

 				\item{Primera Secuencia} 

			\begin{itemize}
				\item Frecuencia de muestreo 16KHz
				\item 32 bit floating signed
				\item Formato: WAV
				\item Canales: Mono
				\item Longitud de los archivos: 1.8 segundos.
			\end{itemize} 

 				\item{Segunda Secuencia} 

			\begin{itemize}
				\item Frecuencia de muestreo 16KHz
				\item 32 bit floating signed
				\item Formato: WAV
				\item Canales: Mono
				\item Longitud de los archivos: 1.2 (vocales) y 1.5 (palabras) segundos.
			\end{itemize} 
			
				\item{Tercera Secuencia} 

			\begin{itemize}
				\item Frecuencia de muestreo 16KHz
				\item 32 bit floating signed
				\item Formato: WAV
				\item Canales: Mono
				\item Longitud de los archivos: Variable entre 1.2 y 2 segundos.
			\end{itemize} 
			\end{enumerate}
		\subsubsection{Representación Tiempo-Frecuencia}
		\label{espectrogramas}
		%Debería poner la duración promedio de cada palabra en ms para luego evaluar el algoritmo de VAD
		%Al utilizar los espectrogramas como representación tiempo-frecuencia, se observó que los
		%componentes fonéticos son diferentes para cada palabra.
		%Los espectrogramas fueron utilizados para facilitar la representación gráfica de las señales de audio y
		%tener un control de errores de la salida de el módulo de limpieza de ruido y VAD.
		Analizando las varias características observadas en los espectrogramas 
		obtenidos, se constató que los rasgos de 
		las distintos maneras de articulación son consistentes con \cite{bermudez}.

	\subsection{Limpieza de Ruido}
	

	\subsection{Detección de actividad de Voz}
		La entrada al reconocedor podría ser, hablando estrictamente, 
		cualquier señal de audio. Una de las primeras tareas es establecer 
		cuál porción de la señal corresponde a voz y cuál no. De especial 
		interés es aislar los puntos finales (principio y fin) de 
		una sola palabra, debido a que se trabaja con palabras aisladas 
		y no en el contexto de un enunciado. Típicamente, el método ordinario 
		sería detectar aumento en la energía de la señal de entrada y 
		designar las regiones de energía superior a un valor umbral, 
		como voz.\\
		  
		Este método no cumple en la detección para palabras que tienen un 
		contenido de energía inicial bajo (ej.palabras con fricativas: fama). 
		Por esta razón, el método elegido es el popular
		algoritmo de Rabiner y Sambur \cite{rabinersambur}
		el cual complementa la detección de energía con un detector de 
		tasa de cruces por cero. Este algoritmo remueve	el contenido de 
		'silencio' de la señal de entrada, antes y después de la palabra, 
		y retiene los fonemas de baja energía; la elección de este algo
		ritmo ahorra en tiempo de computación (recorta la señal de entrada 
		al reconocedor) y por tanto es esencial para el proceso de reconocimiento.\\

			\subsubsection{Tasa de Cruces por Cero}

			La tasa de cruces por cero (acrónimo en inglés: ZCR. Zero-
			crossing rate) es otra característica acústica que puede 
			ser calculada de manera sencilla. Es igual al número de 
			cruces por cero de la onda en un cuadro determinado. Las 
			propiedades que presenta son las siguientes:

				\begin{itemize}

					\item En general, los valores de ZCR de 
					los sonidos no armónicos y del ruido ambiental 
					son más grandes que los de los sonidos armónicos 
					(se observan en estos últimos períodos fundamentales).

					\item Es difícil distinguir los sonidos 
					no armónicos del ruido ambiente utilizando 
					solamente este método, dado que tienen 
					valores similares, como se mencionó anteriormente.

					\item El cálculo de ZCR a menudo se usa 
					en conjunto con el volumen para la detección 
					de punto final. En particular, se emplea 
					para detectar puntos de comienzo y final 
					de los sonidos no armónicos.

					\item Se ha utilizado para la estimación 
					de frecuencia fundamental, pero no es confiable 
					a menos que se realicen otros procedimientos 
					subsecuentes para refinar el cálculo.
 
				\end{itemize}

			Por otro lado hay que tener en cuenta estos puntos:

			\begin{enumerate}

				\item Si una muestra está ubicada exactamente en 
				cero (0), surge la disyuntiva si se debe contar 
				como cruce por cero. Dependiendo de la respuesta, 
				se tiene dos métodos para calcular ZCR.

				\item La mayoría de los cálculos de ZCR se basa 
				en los valores enteros de las señales de audio. 
				Si se quiere realizar la resta de la media, el 
				valor medio debería redondearse al entero más cercano 
				también.
			\end{enumerate}
			La evaluación de las dos alternativas del método con sus 
			respectivos resultados son mostrados en \ref{VADZCR}


			\begin{figure}
			\begin{center}
				\fbox{\includegraphics[height=8cm,width=12cm]
					{/home/paula/espich/imagenes/VAD_Paula_12alto.jpg}}
				\caption{\small{Señal de entrada (original) y señal de salida (recortada).}
				\label{VADPaulaizquierda}}
			\end{center}	
			\end{figure}

			\begin{figure}
			\begin{center}
				\fbox{\includegraphics[height=8cm,width=12cm,keepaspectratio]
					{/home/paula/espich/imagenes/VADZCR_Paula_12alto.jpg}}
				\caption{\small{Energía y Tasa de Cruces por Cero (ZCR).}\label{VADPauladerecha}}
			\end{center}	
			\end{figure}


	\subsection{Ventaneo y FFT: Unidad de salida preliminar}
		Dentro del análisis propiamente dicho de la señal, es de particular 
		interés conocer los componentes de frecuencia de la onda, 
		aplicando para ello la transformada rápida de Fourier (FFT). 
		La FFT está basada en un número determinado de puntos y como consecuencia
		se pierde resolución en el dominio de la frecuencia o del tiempo.\\

		Una idea equivocada común es que el la fuga o pérdida espectral 
		es un artefacto de la DFT, y que el propósito del ventaneo es mitigarlo. 
		En realidad el ventaneo es la raíz causante de la pérdida espectral 
		y la DFT es una manera de crear la ilusión de no tener pérdidas. 
		Sin embargo si se hace la transformada de Fourier tradicional se 
		revelará que las pérdidas están siempre presentes.\\

		Esta aclaración es pertinente, para entender que la ventana se usa 
		para emular la periodicidad de la señal de voz (señal no estacionaria 
		y no periódica), obtener información del espectro en esta aplicación 
		de banda angosta, y disminuir los tiempos de cálculo. Además el 
		solapamiento de estas funciones
		evita que haya discontinuidades en el espectro de la señal.\\

	
    		%Each figure label includes the corresponding noise equivalent bandwidth metric (B), in units of DFT bins. As 			%a guideline, windows are divided into two groups on the basis of B. One group comprises 1 \le B \le 1.8, and 			%the other group comprises B \ge 1.98. The Gauss and Kaiser windows are families that span both groups,
		%though only one or two examples of each are shown.


		%%Buscar la información sobre ventana hamming y el trade off entre resolución tiempo frecuencia
		
		La figura~\ref{Hamming512} muestra la Ventana Hamming elegida para la aplicación.
			\begin{figure}[htp!]
				
				
					\fbox{
					\includegraphics[height=10cm,width=15cm,keepaspectratio]
					{/home/paula/espich/imagenes/Hamming512.jpg}
						}
					\caption{Ventana Hamming.\label{Hamming512}}
				
			\end{figure}
			
			\begin{equation}
				w(n)= 0,54 - 0,46 \cos\left ( 2\pi \dfrac{n}{N}\right),\,0\leq n \leq N
			\end{equation}
		    
			\begin{equation}
     				w_{0}(n)\stackrel{def}{=}w\left (n+\dfrac{N}{2} \right )\\
				= 0.54 + 0.46 \cos \left ( \frac{2\pi n}{N} \right) 		
			\end{equation}
			
			\begin{figure}[htp!]
				
				
					\fbox{
					\includegraphics[height=10cm,width=15cm,keepaspectratio]
					{/home/paula/espich/imagenes/ventaneo.jpg}
						}
					\caption{\small{Señal original y con aplicación de ventana.}\label{ventaneo}}
				
			\end{figure}
			
	
		%FIGURA! antes y después del ventaneo. Espectros
		
        	
	
		

	
	\subsection{Análisis Cepstral}
		
                El siguiente paso, es convertir el espectro en frecuencia lineal 
		a la escala de Mel (Mel-Scale Cepstrum).
		Mel-Scale Cepstrum es un Cepstrum con frecuencia no lineal, una 
		simple conversión (\ref{freq_scales})a una representación de cómo 
		los sistemas auditivos humanos perciben las distintas frecuencias.\cite{davis}

		\begin{figure}[h]
			\begin{center}
				\fbox{\includegraphics[height=5cm,width=7cm,keepaspectratio]
					{/home/paula/espich/imagenes/freq_scales.jpg}}
				\caption{\small{Escalas de frecuencias.}\label{freq_scales}}
			\end{center}	
		\end{figure}

		En esta región se analizaron las características obtenidas, con 
		el fin de entender cómo los humanos diferencian las palabras, analizando 
		los sonidos en el espectro en escala de Mel.
		Los coeficientes que se obtienen son los MFCCs (Mel Frequency Cesptral 
		Coefficients) y son los componentes del vector acústico que representa 
		a la palabra.\\

		Esta aproximación realiza el filtrado de bandas críticas con un 
		conjunto de 20 ventanas triangulares, por ejemplo, cuyas salidas 
		de energía logarítmica son designadas como $X_{k}$; si se desean 
		$M$ coeficientes (mfcc), ellos son:

		\begin{equation}
			c_{n}=\sum_{k = 1} ^{20} X_{k}\cos \left [ n \left (k - 0.5 \right) \frac {\pi}{20} \right ]
		\end{equation}
		El coeficiente inicial $c_{0}$ representa la energía promedio en 
		el cuadro de voz y es usualmente descartado (normalización de amplitud). 
		$c_{1}$ refleja el balance de energía entre frecuencias altas y 
		bajas.\ref{oshaug}\\
		La figura \ref{melbank20} muestra el banco de filtros Mel.

			\begin{figure}
			\begin{center}
				\fbox{\includegraphics[height=10cm,width=15cm,keepaspectratio]
					{/home/paula/espich/imagenes/MelFilterBank20.jpg}}
				\caption{\small{Banco de 20 filtros Mel triangulares}.\label{melbank20}}
			\end{center}	
			\end{figure}
			
		
		Por otro lado, \cite{wysocki}, desarrolla 3 pasos para obtener los MFCCs:
		\begin{enumerate}
			\item Se aplica una ventana Hamming utilizando la ecuación estándar:
			\begin{equation}
				w(k+1)=0,54-0,46 \cos \left( 2\pi \left( \frac{k}{n-1} \right) \right)
			\end{equation}
			con $k = 1,...,N$; donde $n$ representa el subconjunto (bloque) de la señal que se está ventaneando.

			\item Un banco de filtro en escala de Mel (Mel Frequency Filter Bank) se aplica a cada segmento
			ventaneado. El MFFB $m$ se calcula utilizando la siguiente relación:
			\begin{equation}
				m=\dfrac{1000 \cdot ln \left( 1+\dfrac{f}{700} \right)}{ln \left( 1+ \dfrac{1000}{700}
				\right)} 
				\approx 1127 \cdot ln \left( 1+\frac {f}{700} \right)
			\end{equation}

			donde $f$ representa el rango de frecuencias en la señal. 
			Cada filtro es aplicado al espectro, o mejor dicho, la porción 
			del espectro que ha sido dividida utilizando ventana Hamming, 
			para producir una serie de valores de magnitudes (una por 
			cada filtro).

			\item Una fórmula de Coeficientes Cepstrales se utiliza 
			para producir los MFFC, y estas	características son luego 
			modificadas para producir un vector más apropiado para una 
			red de entrenamiento.\\
			Para calcular los MFCC se utiliza la siguiente relación:

			\begin{equation}
				y(k)=  w(k) \sum_{n = 1}^{N} x(n) \cos \left( \frac{\pi(2n-1)(k-1)}{2N} \right)\\
			\end{equation}

			con $k = 1,...,N$; donde:

			\begin{displaymath}
				w(k) = \left\{ 
					\begin{array}{ll}
	 					\sqrt{\frac{1}{N}} & \textrm{si $k = 1$}\\
	 					\sqrt{\frac{2}{N}} & \textrm{si $2 \leq k \leq N$}
		  			\end{array} 
					\right .
			\end{displaymath}
		\end{enumerate}

		La secuencia descrita debajo es la que se sigue para derivar los MFCC:\\
		\begin{enumerate}
   			\item 	Calcular la FFT de una señal (segmento ventaneado).
			\item 	Mapear el espectro de potencia a escala de Mel utilizando 
				las ventanas (filtros) triangulares.
			\item 	Calcular los logaritmos de las potencias en cada 
				una de las frecuencias Mel.
			\item 	Calcular la DCT (Discrete Cosine Transform) de la 
			lista de las potencias, como si se tratara de una señal.
			\item Las amplitudes del espectro resultante son los MFCC.
		\end{enumerate}

		Hay variaciones en este proceso, como diferencias en la forma o 
		espaciado de los filtros para mapear de escala lineal a escala 
		de Mel y la cantidad de filtros utilizados. \\
		La cantidad de MFCC con los que se represente a la señal queda a 
		criterio y necesidad del desarrollador y su aplicación.
		Si se utiliza un banco de filtros Mel con 50 canales, luego 
		podría seleccionarse sólo los primeros 20 coeficientes o un 
		conjunto de 30 elegidos arbitrariamente.

		En la figura \ref{melbank50} se muestra un banco de 50 filtros.

			\begin{figure}
			\begin{center}
				\fbox{\includegraphics[height=10cm,width=15cm,keepaspectratio]
					{/home/paula/espich/imagenes/MelFilterBank50.jpg}}
				\caption{Banco de 50 filtros Mel triangulares.\label{melbank50}}
			\end{center}	
			\end{figure}




	\subsection{Alineado Temporal Dinámico - Dynamic Time Warping }
		Dada una señal de entrada $s$ el objetivo del sistema de RAV es 
		dar como salida la palabra estimada más probable de todo el conjunto
		o diccionario, teniendo en cuenta las restricciones que suponen
		el idioma, el vocabulario y la sintaxis en aplicaciones de habla continua.\\
		El enfoque de la estimación de máxima probabilidad es el más usado
		en RAV.\\
		Los métodos estocásticos para RAV, como los Modelos Ocultos de Markov, 
		tratan explícitamente esta perspectiva probabilística.\\
		Para las técnicas determinísticas de RAV en las que se usa comparación
		de patrones, hay una suposición implícita que diferentes versiones 
		de las palabras son igualmente probables.\\
 
		DTW es una de las primeras técnicas de RAV, y sigue siendo aún muy 
		utilizada en aplicaciones de reconocimiento de palabras aisladas 
		como las de los directorios de celulares. Se trata de un algoritmo 
		para medir la similitud o semejanza entre dos secuencias que pueden 
		variar en tiempo o velocidad.\\
		La idea fundamental es realizar una comparación directa cuadro por 
		cuadro de la señal de entrada contra todas las plantillas de sonidos 
		(palabras) guardadas. El sonido de entrada es declarado ser la palabra 
		asociada con la plantilla de semejanaza más cercana. Un defecto 
		de este esquema es que si las palabras son pronunciadas a tasas 
		variantes durante un enunciado completo, se producirá un error de 
		reconocimiento. Para compensar esto, el algoritmo DTW realiza un 
		efectivo \textit{alineado} temporal (término del cual no he encontrado 
		una traducción satisfactoria, pero significa realizar una extensión 
		no lineal en el dominio del tiempo) de los vectores de entrada y 
		de referencias, y luego hace la comparación entre estos vectores 
		('deformados'). Se usa una técnica de programación dinámica e iterativa 
		que efectúa ambos procesos, tanto 'warping' como comparación, en 
		un barrido.\\
		El algoritmo de presentado por Itakura en 1975 será aplicado para 
		el motor de RAV por ser su implementación la más sencilla.\cite{itakura} 
		También se estudió el presentado por \cite{sakoe}.\\
		Dados dos patrones $R$ y $T$, denominados Referencia y Test respectivamente, 
		el algoritmo de DTW encuentra una función $m=w(n)$ que mapea el 
		eje de tiempo $n\,de\,T$ en $m\,de\,R$.\\
		Cuadro por cuadro a través T, DTW busca el mejor cuadro de de $R$ 
		con el cual comparar cada cuadro de T. El eje de tiempo de $T$ es 
		usado generalmente como el dominio 
		y el de referencia como el rango.\\
		
		La curva de alineación deriva de:
		\begin{equation}
				D =  min_{w(n)} \left [\sum_{n = 1}^{T} d \Big ( T(n),R(w(n))\Big )\right ]
		\end{equation}
		$d$ es una distancia de cuadros entre $T(n)$ y $R(w(n))$.\\
		$D$ es la mínima medida de distancia correspondiente al \textit{mejor camino} 
		$w(n)$ a través de una grilla de $TxR$.
		
		

		
 
		





		

	
	\subsection{Support Vector Machines SVM}
		Las máquinas de soporte vectorial o máquinas de vectores de soporte (Support Vector Machines, SVMs) son un
		conjunto de algoritmos desarrollados a mediados de los años 90 (1995-1996) por Vladimir Vapnik y su equipo en
		los laboratorios AT\&T.
		Pertenecen a la familia de los clasificadores lineales puesto que inducen separadores lineales o hiperplanos
		en espacios de características de muy alta dimensionalidad (introducidos por funciones núcleo o kernel) con un
		sesgo inductivo muy particular (maximación del margen). \cite{vapnik} \\
		
		Los clasificadores se entrenan sobre un subconjunto de datos de la población total y de esto intenta producir
		el 'hiperplano de decisión' más general que separa las dos clases de datos; los nuevos datos de entrada es
		posteriormente clasificado usando el hiperplano de decisión.\cite{burges} La técnica puede ser implementada en 			Matlab según las fuentes bibliográficas consultadas. Sin embargo, por el momento, debido a la complejidad del
		algoritmo no
		se ha contemplado su implementación dentro del plazo para la finalización del presente proyecto.\\

		%Imagen de clasessssss
		La figura~\ref{clases} muestra los tipos de clases separables
			\begin{figure}[!h]
			\begin{center}
				\fbox{\includegraphics{/home/paula/espich/imagenes/clases.png}}
				\caption{Clases Separables.\label{clases}}
			\end{center}
			\end{figure}
		La versión lineal del algoritmo de SVM no funciona tan bien como la no lineal para reconocimiento de voz. Se
		utilizan para esta última funciones polinómicas de kernel de segundo grado. 

	%\subsection{Redes Neuronales Artificiales}
		
	%\subsection{Modelos Ocultos de Markov}
	\subsection{Mapeo de vectores de características de longitud fija}
	        Una palabra generalmente varía en longitud e implica un vector de características de entrada de
		diferente longitud en el motor de RAV. Cuando se utilizan Redes Neuronales Artificiales, o SVM, se requiere un
		número fijo de vectores de características, por lo que es crucial poder mapear los vectores de cualquier
		duración en una característica de salida de longitud fija.



\section{Desarrollo e Implementación de la Aplicación}

	Habiendo estudiado las distintas técnicas utilizadas para sistemas 
	RAV y determinado aquellas a implementar para la aplicación del proyecto, 
	se desarollaron las rutinas de Matlab correspondientes a cada proceso.
	%DIAGRAMA DE ENTRADAS SALIDAS A CADA MÓDULO. DEfinición de funciones auxiliares.
	
	

\section{Evaluación de la Aplicación y Resultados}

	En esta sección se muestran los resultados obtenidos en cada proceso del 
	análisis de la señal siguiendo el diagrama de la figura \ref{diagramaFlujo} 

			\begin{figure}[!h]
			\begin{center}
				\fbox{\includegraphics[height = 8cm,width = 5cm,keepaspectratio]{/home/paula/espich/imagenes/diagramaFlujo.jpg}}
				\caption{Front-ends del análisis de la señal\label{diagramaFlujo}}
			\end{center}
			\end{figure}

	La señal de entrada, muestreada a 16kHZ, es diferenciada y cortada en un 
	número de cuadros superpuestos mediante la aplicación de una ventana Hamming.
	Los valores actuales del ventaneo son 32ms de duración o ancho temporal
	$(\tau)$ y un corrimiento de 16ms $\left (\frac{\tau}{2} \right )$. Luego la Transformada 
	Rápida de Fourier (FFT) es calculada para cada cuadro. El espectro de po
	tencias es llevado a la escala de Mel, con el fin de adaptar la resolución 
	de frecuencias a las propiedades del oído humano. El espectro es segmen
	tado en un número de bandas críticas mediante un banco de filtros, el 
	cual también realiza el mapeo a la escala de Mel. Este banco consiste en
	filtros triangulares superpuestos no equidistantes. La DCT aplicada al 
	logaritmo de las salidas, resulta en el vector de MFCC \textit{crudos}.
	Los coeficientes cepstrales más altos son omitidos para suavizar los 'cepstra'
	y minimizar la influencia del tono, propiedad irrelevante para esta aplicación.
	La media de cada componente es restada, y la varianza de cada componente 
	es normalizada. En algunos casos, se sugiere aumentar el vector de características
	con las derivadas primera y segunda con respecto del tiempo de los MFCC;
	No se ha tomado este procedimiento. Como resultado, el análisis de la 
	señal provee cada 16 ms un vector acústico de 20 coeficientes (valor ajustable).

	\subsection{Preénfasis}
		
		\subsubsection{Detección de Actividad de Voz (VAD)}
		\label{VADZCR}
		Para las señales de 1.3 segundos correspondientes a un individuo 
		masculino y grabadas en un ambiente silencioso, el 70\% de las 
		entradas fueron reducidas a la mitad de su longitud. Las secciones  
		de silencio de ambos flancos fueron recortadas exitosamente.  

		
		En la presencia de mucho ruido ambiente (diálogos de personas, ruido de la alimentación de línea y
		motores eléctricos, aires acondicionados, tránsito y construcciones circundantes) el esquema ha fallado algunas veces en la detección del comienzo y final de las palabras, lo cual significará una dificultad para la unidad de reconocimiento y dando como resultado una performance pobre.

		\begin{table}[!h]
		\begin{center}
			\begin{tabular}{|p{2cm}||p{3cm}|p{3cm}|p{3cm}|p{3cm}|} \hline
			Señal &\multicolumn{2}{|c|}{Voz masculina. 1.3 seg}&\multicolumn{2}{|c|}{Voz femenina. 1.8 seg}	\\ 				\hline
			\textbf{Comando} &\textbf{Longitud Original [muestras]}&\textbf{Longitud de Salida [muestras]}
					 &\textbf{Longitud Original [muestras]}&\textbf{Longitud de Salida [muestras]}\\ 
			\hline
				a		& 20800 		& 6961 	& 28800 		& 6001	\\ 
			\hline
				e		& 20800 		& 8001	& 28800 		& 12561	\\ 
			\hline
				i		& 20800 		& 6321	& 28400 		& 10721	\\ 
			\hline
				o		& 20800 		& 7681	& 26400 		& 10561	\\ 
			\hline
				u		& 20800 		& 7041	& 28800 		& 21121	\\ 
			\hline
				subir		& 20800 		& 9361	& 28800 		& 8241	\\ 
			\hline
				bajar		& 20800 		& 10881	& 28800 		& 27841	\\ 
			\hline
				izquierda	& 20800 		& 11041	& 28800 		& 14801	\\ 
			\hline
				derecha		& 20800 		& 11921	& 28800 		& 12321	\\ 
			\hline
				avanzar		& 20800 		& 12641 & 28800 		& 28641	\\ 
			\hline
				retroceder	& 20800 		& 14161 & 28800 		& 28641	\\ 
			\hline
				alto		& 20800 		& 7601  & 28800 		& 11361	\\ 
			\hline
				
			\end{tabular}
				\caption{Resultados de myVAD.m para hablante masculino}
			\end{center}				
			\end{table}

		Los valores de longitud de las señales de la segunda secuencia de entrenamiento se muestran a continuación:

			\begin{table}
			\begin{center}

			\begin{tabular}{|p{1cm}|p{0,5cm}|p{0,5cm}|p{0,5cm}|p{0,5cm}|p{0,5cm}|p{0,5cm}||p{0,5cm}|p{0,5cm}||p{0,5cm}||p{0,5cm}||p{0,5cm}||p{0,5cm}||p{0,5cm}||p{0,5cm}||p{0,5cm}|} 	\hline

			\multicolumn{16}{|c|}{Repetici\'{o}n [ms]}\\					\hline

			Palabra & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 & 11 & 12 & 13 & 14 & 15\\	\hline

			a & 476 & 545 & 531 & 574 & 513 & 415 & 536 & 560 & 560 & 464 & 403 & 560 & 528 & 449 & 446
			\hline
			e & 519 & 635 & 626 & 624 & 577 & 606 & 609 & 589 & 577 & 629 & 539 & 493 & 653 & 682 & 568
			\hline
			i & 751 & 847 & 867 & 801 & 795 & 789 & 748 & 705 & 774 & 812 & 795 & 812 & 873 & 922 & 760
			\hline
			o & 676 & 676 &	618 & 650 & 644 & 650 & 722 & 702 & 809 & 766 & 744 & 757 & 725 & 740 &	664
			\hline
			u & 748 & 882 & 989 & 914 & 838 & 809 & 870 & 789 & 702 & 862 & 827 & 806 & 902 & 859 &	719
			\hline
			subir 	& 679 & 673 & 708 & 658 & 699 & 676 & 740 & 734 & 592 & 708 & 606 & 684 & 725 & 679 & 653
			\hline
			bajar	& 612 & 690 & 629 & 568 & 571 & 551 & 563 & 606 & 560 & 618 & 615 & 592 & 606 & 516 & 597
			\hline
			izquierda     & 801 & 806 & 867 & 891 & 853 & 838 & 824 & 885 & 946 & 844 & 760 & 818 & 792 & 772 & 777
			\hline
			derecha	      & 650 & 618 & 609 & 795 &	711 & 728 & 719	& 702 & 731 & 745 & 740 & 716 &	731 & 615 & 647
			\hline
			avanzar	      & 693 & 728 & 664 & 711 &	737 & 722 & 632 & 586 &	653 & 667 & 592 & 563 &	621 & 725 & 693 
			\hline
			retroceder    & 690 & 812 & 835 & 853 &	754 & 786 & 745 & 789 &	766 & 757 & 911 & 705 &	719 & 725 & 682 
			\hline
			alto	      & 420 & 354 & 386 & 365 &	426 & 449 & 458 & 476 &	476 & 452 & 476 & 420 &	388 & 461 & 383 
			\hline
			\end{tabular}
				\caption{Longitudes}
			\end{center}				
			\end{table}

			\begin{table}
			\begin{center}

			\begin{tabular}{|p{3cm}|p{2,5cm}|p{2,5cm}|p{2,5cm}|p{2,5cm}|p{2,5cm}|} 	\hline
			
			Palabra & Promedio & Maximo & Minimo & Min/Max & Max/Min
				
			a		504	574	403	0,7	1,42
			e		595	682	493	0,72	1,38
			i		803	922	705	0,76	1,31
			o		703	809	618	0,76	1,31
			u		834	989	702	0,71	1,41
			subir		681	740	592	0,8	1,25
			bajar		593	690	516	0,75	1,34
			izquierda	832	946	760	0,8	1,24
			derecha		697	795	609	0,77	1,31
			avanzar		666	737	563	0,76	1,31
			retroceder	769	911	682	0,75	1,34
			alto		426	476	354	0,74	1,34

			\end{tabular}
				\caption{Caracter\'{\i}sticas temporales en n\'{u}mero de muestras}
			\end{center}				
			\end{table}

	
	\subsection{Ventaneo y Espectros}
	\subsection{Mel - Cepstrum}
	
		Para las primeras pruebas se generaron las plantillas de referen
		cia con un banco de 10 filtros, obteniéndose 10 coefcientes por 
		cada segmento de de la señal de entrada.
		\subsubsection{Banco de filtros}
		\subsubsection{Logaritmo y DCT}
		\subsubsection{MFCC}
	\subsection{Normalización - CMN}
	\subsection{DTW}
	
		Se probó el el algoritmo propuesto por Itakura, con y sin condiciones de contorno.
		El resultado hasta el momento es negativo: no reconoce. 
		Se hizo la siguiente prueba:

		\begin{verbatim}
		testDTW.m 

		>> X='/home/paula/espich/TrainingData/Paula/5_1.wav'; 	%Señal 1
		>> Y='/home/paula/espich/TrainingData/Leo/5_5.wav';	%Señal 2
		>> Z='/home/paula/espich/TrainingData/Paula/5_5.wav'; 	%Señal patron
		>> testDTW(X,Y,Z);
		c1 = 19.3803						%Menor costo señal X
		c2 = 45.2356						%Menor costo señal Y
		ans = 19.3803
		\end{verbatim} 

		Se extrajeron de las secuencias de entrenamiento (señales pre-grabadas) 
		las 2 entradas y la referencia. Ésta última era una de las palabras 
		a reconocer pero pronunciada por otro hablante.\\
		Se puede observar que la palabra \textit{reconocida} fue la pronunciada 
		por el mismo hablante aunque no se tratara del comando 
		correcto. Esto sucedió debido a las diferencias significativas 
		que existen entre las voces femeninas y masculinas (componentes 
		de frecuencia) %poner el rango de frecuencias de hombres y mujeres
		Luego de probar con todas las palabras del diccionario, se determinó
		 que lo ideal para esta aplicación es construir las patrones 
		de referencia a partir de una secuencia de entrenamiento conformada 
		por varias repeticiones de las entradas del diccionario pertenecientes 
		a una misma voz (Segunda Secuencia).\\
		También hubo errores significativos cuando había ruido ambiente 
		alto o se usaba un micrófono de muy baja calidad. 
		%Ensayos con 3 personas diciendo 10 palabras de las 7 posibles palabras en el diccionario
		%del reconocedor dieron un porcentaje de éxito de solamente un X% w. 
		DTW es muy sensible a discrepancias de los puntos de inicio y fin 
		(endpoints) por lo que vuelve a ponerse de manifiesto la importancia 
		la unidad de VAD.
		
		\begin{figure}[!h]
			\begin{center}
				\fbox{\includegraphics[height = 8cm,width = 16cm,keepaspectratio]
				{/home/paula/espich/imagenes/testDTW_Leo05u_Paula01a_Paula_05u}}
				\caption{Resultado testDTW.m\label{diagramaFlujo}}
			\end{center}
		\end{figure}
		\begin{figure}[!h]
			\begin{center}
				\fbox{\includegraphics[height = 8cm,width = 16cm,keepaspectratio]
				{/home/paula/espich/imagenes/testDTWslopes_Leo05u_Paula01a_Paula_05u}}
				\caption{Resultado testDTW.m con condiciones de contorno\label{diagramaFlujo}}
			\end{center}
		\end{figure}

		% However, during the testing of the DTW unit that was
%implemented, the recognition performance increased significantly after a better
%microphone was used to collect the sound sample. It was observed that the sound sample
%collected on this microphone produced a spectrogram with greater clarity and this
%clearly solved the end point detection problem. Nevertheless, speakers had to have a
%voice and tonality similar to the speakers recorded to supply the template sounds for
%successful recognition to occur.

\section{Planificación y Gestión de Proyecto}

	\subsection{Sitio Web}
		Se decidió abrir un espacio web del proyecto, con el fin de facilitar la administración de tareas y
		posibilitar la trazabilidad en el tiempo.
		Por otro lado sirve como medio de comunicación si se integraran otros miembros (asesores, supervisores, 		revisores). Al presente, el sitio \url{http://www.assembla.com/wiki/show/espich} de Espich ha evolucionado a
		una colección de páginas wiki, archivos de simulación de Matlab, imágenes, archivos con bibliografía
		consultada y los archivos de audio de la bases de datos (Datos de entrenamiento). Muchas horas he dedicado a
		editar el sitio, el cual, a pesar de la irrelevancia con respecto al resultado final que se persigue, se ha
		convertido en una herramienta muy útil para un desarrollo y avance más eficientes. 
		
		\subsubsection{Assembla}
		Assembla es el proveedor de espacio para el proyecto, que está bajo el nombre de \textbf{espich}. Assembla provee herramientas y servicios para acelerar el desarrollo de software principlamente.
		
		\subsubsection{Google Code}		

		\subsubsection{SVN}
		Subversion (SVN) es un software de sistema de control de versiones, siguiendo la historia de archivos y
		directorios guardados en un repositorio.

	\subsection{Diagrama de Gantt}
		El diagrama de gantt se construyó para tener una visión temporal del proyecto, identificar las tareas
		críticas, asignar prioridades y recursos.
		Al presente se están respetando los lapsos preestablecidos, por lo menos en la etapa de reconocimiento de voz.


\section{Tareas pendientes para mejoramiento del proyecto}
        Hasta ahora se han explorado varias técnicas de extracción de características, eligiendo como definitiva aquella
	basada en MFCCs. Además, se han estudiado las técnicas de DTW, SVM y Redes Neuronales (en inglés Neural Networks: NN)
	para el núcleo de reconocimiento.
	Queda como tarea pendiente, el desarrollo de SVM y NN, y su futura integración al proyecto, dado que se opta
	implementar en \textbf{espich} DTW.\\ 

        Además, se hará necesaria la transición del código actual de Matlab a un lenguaje de programación ejecutable (C, C++,
	Java), lo que dará como resultado ganancia en la perfomance y será conveniente para construir las aplicaciones cuando
	el prototipo de laboratorio del Robot Laparoscópico evolucione al prototipo de ingeniería.\\ 

	Debido al tiempo, no será posible por el momento comparar resultados de distintos núcleos de reconocimiento, pero
	ciertamente es una tarea de investigación y ensayos que debe llevarse a cabo; así se podrá seleccionar la
	combinación de componenetes que logren la mayor performance y precisión de reconocimiento.\\

	Otra línea de investigación es trasladar el sistema a hardware (DSP), si se considera que para la aplicación la
	implementación en software es de respuesta lenta.\\
	
	De importancia crítica es ampliar la colección de datos de audio. Es esencial para poder entrenar la unidad de RAV.
	Por el momento debido al alcance del trabajo y a la capacidad de procesamiento, se limita al número de muestras
	mencionadas en secciones anteriores.

\pagebreak
\section{Bibliografía}
	
	\begin{thebibliography}{99}
		\bibitem{bermudez}	J.B. Bermúdez, J.B. Sancho, P.Gómez Vilda,
					\emph{Reconocimiento de Voz y Fonética y Acústica},Alfaomega, 2$^{da} Ed$, (2000).

		\bibitem{rabinersambur} L. R. Rabiner and M. R. Sambur, 
					\emph{An Algorithm for Determining the Endpoints of Isolated Utterances}. The Bell
					System Technical Journal, (1975).

		\bibitem{davis}		S.B. Davis and P. Mermelstein
					\emph{Comparison of parametric representations for monosyllabic word recognition in
					continuously spoken sentences}. IEEE Transactions on Speech and Audio Processing,
					(1980).

		\bibitem{sakoe}		H. Sakoe y S. Chiba, 
					\emph{Dynamic Programming Algorithm for Spoken Word Recognition.} IEEE Trans. On
					Acoustics, Speech and Signal Processing, Vol. ASSP-26, (1978).

		\bibitem{itakura}	F. Itakura,
					\emph{Minimum prediction residual principle applied to speech recognition}. IEEE
					Transactions in Acoustics, Speech and Signal Processing, vol. ASSP-23, (1975). 

		\bibitem{oshaug}	D. O'Shaughnessy
					\emph{Speech Communications. Human and Machine} Chapter 10. IEEE Press. 2nd Ed. (2000).


		\bibitem{vapnik}	C. Cortes y V. Vapnik,
					\emph{Support-Vector Networks, Machine Learning},(1995).
		
		\bibitem{burges}	C. Burges,
					\emph{A Tutorial on Support Vector Machines for Pattern Recognition}. Data Mining and
					Knowledge Discovery, 2, (1998).

		\bibitem{wysocki}	T. Wysocki, M. Darnell, B. Honary
					\emph{Advanced Signal Processing for Communication Systems}. Springer, (2002)cd

	\end{thebibliography}

%Apéndices

\appendix

\pagebreak 

\section{Resumen de Tareas y Resultados}
\label{Apx A}
	\begin{table}[!h]
		
		\begin{center}
		\begin{tabular}{|p{1cm}|p{4cm}|p{8cm}|p{2cm}|}  \hline
			Número	& Tema					& Tareas	& Resultados		\\ \hline

			\multicolumn{4}{|c|}{RAV: Front-Ends} 						\\ \hline	
			1.	& Cuadros y Ventaneo 			& La señal es dividida en una secuencia de cuadros
									utilizando una ventan Hamming
											& ok			\\ 
			\hline
			2	& Sustracción Espectral			& Limpiar la señal de ruido
											& ok 			\\ 
			\hline
			3.	& FFT y Espectrograma 			& Aplicar la FFT y y obtener espectrogramas de
									representación de las señales
											&ok			\\ 
			\hline
			4.	& EPD - VAD 				& Detectar el segmento de voz dentro de la señal
											& ok			\\ 
			\hline
			5.	& Análisis Espectral en escala de Mel	& Resaltar el vector de características para obtener
									una versión más adecuada para la aplicación. Calcular
									MFCCs		& ok			\\ 
			\hline

			\multicolumn{4}{|c|}{RAV: Motores}							\\ 
			\hline
			1.	& Dynamic Time Warping			& Seleccionar el algoritmo de DTW e implementarlo.
											& ok			\\ 
			\hline
			2.	& DTW - Itakura				& Comparar señales de entrada con las referencias
											& en curso		\\ 
			\hline
			\multicolumn{4}{|c|}{Otros}								\\ 
			\hline
			1.	& Análisis Fonético Acústico		& Determinar palabras para los datos de entrenamiento
											& ok			\\ 
			\hline
			2.	& Colección de Muestras de sonido	& Coleccionar todas la muestras de voz
											& ok			\\ 
			\hline
			3.	& Secuencias de Entrenamiento		& Construir la secuencia de entrenamiento
											& ok - en ampliación	\\ 
			\hline
			4.	& Documentación				& Actualización de contenidos en sitio web para
									producción de Documentos y Presentaciones.
											& paralelo al proyecto \\ 
			\hline

			\multicolumn{4}{|c|}{Pruebas de Funcionamiento y Performance}				\\ 
			\hline
			1.	& Análisis de datos 			& Observar las salidas de cada módulo. Imágenes
											& en curso		\\ 
			\hline
			2.	& Modificación de parámetros		& Modificar y corregir los archivos .m
											& en curso		\\ 
			\hline
			3.	& Plantillas de Referencia		& Generar los templates para distintos parámetros y
									secuencias de entrenamiento. Determinar los óptimos.
											& ok			\\ 
			\hline
			4. 	& Evaluación del Sistema 		& Cuantificación de aciertos y errores. Cálculo de
									estadísticas.
											& ok
														\\ 
			\hline
		
														
		\end{tabular}
			\caption{Tareas y Resultados}
		\end{center}
		
	\end{table}


\pagebreak

\section{Diagramas de Bloques}
\label{Apx B}

		\begin{figure}[!h]
			\begin{center}
				\fbox{\includegraphics[height = 8cm,width = 5cm,keepaspectratio]{/home/paula/espich/imagenes/diagramaFlujo.jpg}}
				\caption{Análisis de la señal\label{diagramaFlujo}}
			\end{center}
		\end{figure}

		\begin{figure}[!h]
			\begin{center}
				\fbox{\includegraphics[height = 8cm,width = 16cm,keepaspectratio]{/home/paula/espich/imagenes/Diagrama_GANTT_Tesis.png}}
				\caption{Diagrama de Gantt del Proyecto\label{Gantt}}
			\end{center}
		\end{figure}


%\glossary{name={Spectral leakage}, description={ hace referencia a las pequeñas cantidades de energía que se observan en componenetes de frecuencia que no existen en la señal original.}}
%\printglossary
%\addcontentsline{toc}{section}{Glossary}
\end{document}




