\mysection{Situationserkennung}
\label{sota_sec:situationserkennung}

Im Zuge von Smart-Home-Umgebungen ist die Situationserkennung wichtiger denn je
geworden. Das menschliche Verhalten muss von Systemen stets erkannt werden um
angemessen mit der Person interagieren zu können.\\
Das Erkennen von Situationen ist mit vielen Problemen behaftet. Die Erkennung
selber benötigt i.d.R. diverse Sensoren um Informationen über die Situation zu
erfassen. Üblich sind hier Kameras, Mikrofone, Näherungs -und Positionssensoren.
Üblicherweise spezifiziert und implementiert ein Entwickler ein Kontextmodell.
In diesem sind sämtliche Situationen abgebildet welche in der
Smart-Home-Umgebung auftreten können. Wie zuverlässig können solcheErkennungssysteme arbeiten und welche Ansätze gibt es in diesem Bereich.\\
Einen vielversprechenden Ansatz bringt hier \citet{Brdiczka:2009} welcher hiergenauer mit Anwendbarkeit und seinen Vor -und Nachteilen betrachtet wird.


\mysubsection{Erkennung mit Video-System und Mikrofonen}
\label{sota_subsec:videotracking}

Menschliches Verhalten und Gewohnheiten verändern sich mit der Zeit. Die
Aktivitäten welche in einer Smart-Home-Umgebung auftauchen verändern sich
ebenso, neue kommen hinzu, alte verschwinden. Ständige Veränderungen sind
üb\-lich\-er\-wei\-se in keinem Kontextmodell vorgesehen. Es ist möglich diese
Kontexte anzupassen, je nachdem wie der Nutzer es benötigt. Problematisch ist
hier jedoch der Kostenfaktor. Solche Experten wären sehr teuer und womöglich
nicht immer da und kennen sich unter Umständen nicht mit den diversen Systemen
aus
\citep{Brdiczka:2009}.\\\\
Aus diesem Grund haben \citet{Brdiczka:2009} an einem intelligentem Framework
gearbeitet, welches Situationen selber erlernen kann. Als Sensorik für dieses
System dient ihnen ein dreidimensionales Kamerasystem. Dieses detektiert die
Position für jedes Ziels im Raum sowie dessen Geschwindigkeitsvektor. Die
Mikrofone sind für die Aufnahme von Umgebungsgeräuschen zuständig. Headset
Mikrofone werden genutzt um festzustellen, ob eine Person spricht oder nicht.
\\
Der Versuchsaufbau sieht wie folgt aus: Eine oder mehrere Personen bewegen sich
im Raum und interagieren miteinander. An einem Tisch in dem Zimmer können
weitere Aktivitäten auftreten. Um die Rolle des Zielobjekts zu bestimmen geht
man in drei Schritten vor.
\\
Im ersten werden eine "`support vectore machines"'(SVMs) genutzt. Diese
Trainierten Systeme können bestimmen, ob die Zielperson "`steht"', "`sitzt"'
oder "`liegt"'.
\\
Im zweiten Schritt wird die Geschwindigkeit der Person erfasst. Basierend auf
empirischen Werten kann das System erkennen, ob die Person sich nicht bewegt,
langsam, mit mittlerer oder hoher Geschwindigkeit.
\\
Im letzten Schritt wird berechnet, ob die Zielperson mit einem Objekt
interagiert. Hierzu wird deren aktuelle Position genutzt, um die Distanz zum
Interaktionsobjekt zu bestimmen.
\\
Basierend auf diesem Prozess kann nun in einem Schema geschlussfolgert werden
welche Rolle die Person gerade einnimmt. Dieses Schema wurde mit der Abbildung
\ref{fig:role_detection_schema} verdeutlicht.
\\
\begin{figure}[htb] \centering
\includegraphics[width=0.9\textwidth]{images/situation_detection_role_diagram}
\caption{Schema zur Schlussfolgerung der Rolle. Rote Pfeile bedeuten eine
Interaktion mit dem Tisch, blaue bedeuten keine Nähe zum Tisch (Quelle:
\citet{Brdiczka:2009})}
\label{fig:role_detection_schema}
\end{figure}
\\
Die Situationen, welche im Experiment dargestellt wurden, waren "`Begrüßung"',
"`Präsentation"', "`Aperitif"', "`Spielen"' und "`Ausruhen"'. Diese Situationen
sind auf der Abbildung \ref{fig:role_detection_situations} zu erkennen. Es
wurden verschiedene Szenarios durchgespielt. Hierbei wurde die Reihenfolge der
verschiedenen Situationen verändert um die Erkennung des Systems zu testen.
Zuerst wurde das System mit den einzelnen Situationen angelernt. Im Experiment
wurde dann eine Abfolge der Situationen durchgespielt. Eine beispielhafte
Reihenfolge eines Szenarios sah wie folgt aus:
"`Begrüßung"',"'Aperitif"',"'Spielen"',"'Präsentation"', "`Ausruhen"'.
\\
\begin{figure}[htb] \centering
\includegraphics[width=0.9\textwidth]{images/situation_detection_situations}
\caption{Die verschiedenen Aktivitäten im Versuchsmodell (Quelle:\citet{Brdiczka:2009})}
\label{fig:role_detection_situations}
\end{figure}
\\
Bei diesem Szenario hat das System Probleme gehabt, die Aktivität "`Aperitif"'
und "`Spielen"' auseinander zuhalten. Die "`Aperitif"' Situation wurde mit einer
Verzögerung erkannt. Jedoch hat die Szene dann zum "`Spielen"' gewechselt,
welche das System nicht registriert hat. Es hatte immer noch eine "`Aperitif"'
Szene erkannt. Die Forscher vermuten, dass der Unterschied einfach zu gering ist
um einen Übergang zwischen diesen beiden Situation zu erkennen. Denn wenn diese
beiden Aktivitäten durch eine "`Präsentation"' unterbrochen wird, wurde sowohl
das "`Spielen als auch der "`Aperitif"' erkannt.
\\
Zu Testzwecken wurden die Aktivitäten "`Spielen"' und "`Aperitif"' unter dem
Begriff "`Gruppenaktivität"' zusammengefasst. Dies hatte eine höhere
Erkennungsrate zur Folge. Die Aufnahmen selber wurden bei 25 Bildern pro Sekunde
gemacht. Bei einer Aufnahme von 10 Sekunden war eine Erkennungsrate von 88,58\%
zu verzeichnen. Bei steigender Aufnahmelänge gab es stets eine kleine
Steigerung. Wenn die "`Gruppenaktivität"' wieder in ihre Teile zerlegt wird,
dann viel die Erkennungsrate auf 81,86\%. Bei diesem Testdurchlauf konnte man
unter anderem sehen, dass eine längere Aufnahmezeit nicht unbedingt eine höhere
Erkennungsrate mit sich bringt. Die Erkennungsrate kann zuweilen auch wieder
sinken. Dies ist mit lerntheoretischen Problematiken zu erklären. Das beste
Verhältnis zwischen Aufnahmelänge und Erkennungsrate wurde bei 10 Sekunden mit
25 Bildern pro Sekunde erzielt.

\mysubsubsection{Anwendbarkeit}
\label{sota_subsubsec:videotracing_anwendbarkeit}
Dieser Ansatz der Situationserkennung bringt verschiedene Probleme mit sich. Als
erstes jedoch ist zu sagen, dass die ersten Ergebnisse dieses Ansatzes sehr
vielversprechend sind. Um dieses System in den Verbrauchermarkt zu integrieren
muss die Erkennungsrate noch weiter steigen. Teilweise sind noch größere Probleme
bei der Unterscheidung von Situationen zu sehen, welche sich ebenso negativ auf
die Erkennungsrate auswirken.
\\
Eine weitere Problematik die hier auffällt, ist der hohe Einschnitt in die
Privatsphäre. Das ständige Aufzeichnen und Analysieren von Bild und Ton in den
verschiedensten Szenarien ist sehr kritisch zu sehen. Das Smart-Home-System
müsste vollkommen sicher gegen elektronische Angriffe gesichert sein um nicht
das aufgezeichnete Material oder die Kameras zu missbrauchen. Dies kann man in
der heutigen Zeit allerdings nicht realisieren, außer das System ist vollkommen
isoliert. Brdiczka und seine Mitarbeiter weisen ebenfalls daraufhin, dass die
Sensorik schwierig zu installieren und zu kalibrieren ist. Auch dies stellt ein
großes Problem bei der Anwendung dar. Die Installationen müsste von teuren
Spezialisten durchgeführt werden wie auch wir auch schon in Abschnitt 
\ref{subsec:contextAwareness} der Problematiken erklärt haben.
\\\\
Als Fazit für unsere Diplomarbeit, können wir sagen, dass wir eine eigene
Realisierung nach diesem Ansatz und unseren Zielen für nicht geeignet befinden.
Denn wenn wir eine eigene Situationserkennung nach diesem Ansatz implementieren
würden, wäre der Kostenfaktor zu hoch und das Benachrichtigungssystem wäre auch
nicht mehr so einfach in verschiedene Smart-Home-Systeme zu integrieren.

% \mysubsection{Erkennung mit Hilfe von WLAN}
% \label{sota_subsec:erkenunng_mit_wlan}
% Ein weiterer Ansatz der sich mit Situations- und Positionserkennung in
% Smart-Home-Umgebungen beschäftigt, ist der von \citet{Surie:2010}. Sie
% versuchen die Position und das Interaktionsobjekt mithilfe von WLAN Signalen zu
% bestimmen.\\
% Ihre Idee war es, ein System zur Situationserkennung zu erschaffen, welches
% nicht auf Videokameras und Mikrofonen basiert, welches im vorherigen Abschnitt
% \ref{sota_subsec:videotracking} erklärt wurde.
% 
% 
% \begin{figure}[htb] \centering
% \includegraphics[width=0.9\textwidth]{images/situation_detection_WIFI}
% \caption{Wohnzimmer-Labor mit den positionierten SEOs (Quelle:
% \citet{Surie:2010})}
% \label{fig:situation_detectino_wifi}
% \end{figure}
% 
% \mysubsubsection{Anwendbarkeit}
% \label{sota_subsubsec:WIFI_erkennung}
% Anwendbarkeit WLAN Erkennung