
\section{Stochastische Unabhängigkeit}

Stochastisch unabhängig heißen zwei Ereignisse genau dann wenn gilt

\begin{align}
p(A|B)=p(A) \qquad sowie \qquad p(B|A)=p(B)
\end{align}

Stochastische Unabhängigkeit bedeutet, dass zwei Ereignisse sich nicht gegenseitig
in ihrer Wahrscheinlichkeit beeinflussen. Als Beispiel für stochastische Unabhängigkeit nehmen wir den Münzwurf.
Wird eine Münze mehrmals geworfen hängt die Wahrscheinlichkeit, ob Kopf oder Zahl
fällt, nicht vom Ergebnis des vorhergehenden Wurfs ab. Die Wahrscheinlichkeit bei jedem Wurf bleibt also gleich $\frac{1}{2}$ .
Ein einfaches Gegenbeispiel für stochastische Unabhängigkeit, also für stochastische Abhängigkeit, wäre das Ziehen aus 
einer Urne ohne zurücklegen. Der erste Zug aus der Urne verändert die Grundgesamtheit des zweiten Zuges und ändert
 damit dessen Wahrscheinlichkeit. 


\subsection{Multiplikationssatz}

Der Multiplikationssatz geht direkt aus der Definition der bedingten
Wahrscheinlichkeit hervor. Hierzu wird ledglich nach $p(A\cap B)$ aufgelöst.
 Er beschreibt die Wahrscheinlichkeit, dass zwei Ereignisse gleichzeitig eintreten. 

\begin{align}
p(A\cap B)= p(A) \cdot p(B|A)
\end{align}

Ein anschauliches Beispiel hierfür kann wieder mit dem Urnenmodell abgebildet werden. Wir ziehen
ohne zurücklegen aus einer Urne mit vier Kugeln, wovon zwei rot und zwei blau sind. Wir interessieren
uns für den Fall das bei beiden Ziehungen eine rote Kugel gezogen wird. Die Wahrscheinlichkeit für eine
rote Kugel im ersten Zug ist  $\frac{1}{2}$, im zweiten Zug ist die Wahrscheinlichkeit $\frac{1}{3}$.
Mittels des Multiplikationssatzes erhalten wir als Wahrscheinlichkeit dafür dass zwei rote Kugeln gezogen
werden $\frac{1}{6}$.

Aus der stochastischen Unabhängigkeit und dem Multiplikationssatz folgt:

\begin{align}
p(A\cap B)= p(A) \cdot p(B)
\end{align}

Das bedeutet dass der Multiplikationssatz ebenso für stochastisch unabhängige Ereignisse gilt. Zur Veranschaulichung
 benutzen wir das gleiche Beispiel wie zuvor, nur ziehen wir dieses mal mit zurücklegen. Hier gilt als
Wahrscheinlichkeit der beiden einzelnen Züge je $\frac{1}{2}$ und damit als gemeinsame Wahrscheinlichkeit $\frac{1}{4}$.

\subsection{Satz der totalen Wahrscheinlichkeit}

Der Satz der totalen Wahrscheinlichkeit ermöglicht es bei bekannten
$A_1,\ldots,A_k$, die eine disjunkte Zerlegung von $\Omega$ bilden und bekannten
$p(B|A_1),\ldots,p(B|A_k)$ die unbedingte Wahrscheinlichkeit $p(B)$ zu berechnen.

\begin{align}
p(B) = \sum \limits_{i = 1}^k p(B|A_i)\cdot p(A_i)
\end{align}

Als Beweis wird hier die Beweisführung des Skriptes herangezogen und mit einer grafischen
 Lösung zur Veranschaulichung ergänzt. Es ist 

\begin{align}
\label{Satz_der_totalen_formel}
B = (B \cap A_1) \cup (B \cap A_2) \cup \ldots \cup (B \cap A_k)
\end{align}

eine disjunkte Zerlegung von $B$, und damit gilt

\begin{align*}
p(B) &= \sum \limits_{i = 1}^k p(B \cap A_i) \\
&= \sum \limits_{i = 1}^k \frac{p(B \cap A_i)}{p(A_i)} \cdot p(A_i) \\
&= \sum \limits_{i = 1}^k p(B|A_i) \cdot p(A_i) \\
\end{align*}

Der Beweis zeigt, dass $B$ als Summe aller Produkte der Wahrscheinlichkeit von $B$ unter der Bedingung $A_i$ und der
 Wahrscheinlichkeit von $A_i$ dargestellt werden kann.
 
 Die Abbildung \ref{Bild_satz} auf Seite \pageref{Bild_satz}
 veranschaulicht  die Formel \ref{Satz_der_totalen_formel}. Zu sehen sind die Ereignisse als Flächen in Form von Rechtecken.
 Das Ereigniss $A_1$ wird in rot, $A_2$ in blau, $A_3$ in grün und $B$ in drei Teilstücken schwarz straffiert dargestellt.
 Bei Anwendung der Formel \ref{Satz_der_totalen_formel} werden mittels der Konjunktionen von $A_1$ mit $B$, $A_2$ mit $B$ und
 $A_3$ mit $B$ die einzelnen Teilstücke von $B$ drei Teilstücke gebildet. Diese Teilstücke werden in der Formel mit der Hilfe
  einer Disjunktion wieder zusammengeführt zu $B$.
 

\begin{figure}
\begin{center}
\includegraphics[scale=0.2]{totale_warsch.png}
\caption[Grafische Lösung des Satzes der totalen
Wahrscheinlichkeit]{Grafische Lösung des Satzes der totalen
Wahrscheinlichkeit rot = $A_1$, blau = $A_2$, grün = $A_3$, schwarz = $B$}
\label{Bild_satz}
\end{center}
\end{figure}

\newpage

\subsection{Satz von Bayes}

Der Satz von Bayes ist gegeben wie folgt:  

\begin{align}
p(A_j|B) = \frac{p(A \cap B)}{p(B)} = \frac{p(B|A_j) \cdot p(A_j)}{p(B)}
\end{align}

Der Satz von Bayes ermöglicht es die bedingte Wahrscheinlichkeit ``umzudrehen''. Dies soll heißen:
Es ist möglich mit bekanntem $p(B)$, $p(B|A_j)$ und $p(A_j)$ die Wahrscheinlichkeit des bedingten Ereignisses
$p(A_j|B)$ zu berechnen.

Kombiniert man den Satz der totalen Wahrscheinlichkeit mit dem Satz von Bayes erhält man:

\begin{align*}
p(A_j|B) &= \frac{p(A \cap B)}{p(B)}\\
&= \frac{p(B|A_j) \cdot p(A_j)}{p(B)} \\
&=\frac{p(B|A_j) \cdot p(A_j)}{\sum \limits_{i = 1}^k p(B|A_i)\cdot p(A_i)} \\
\end{align*}

Diese Form ermöglicht es bei einer gegebenen vorliegenden disjunkten Zerlegung $A_1,\ldots,A_k$ von $\Omega$,
$p(A|B)$ zu berechnen ohne dazu $p(B)$ zu benötigen.

Als einführendes Beispiel soll hier die Produktion von Schrauben dienen. Drei Maschinen produzieren parallel den gleichen Typ
von Schraube. 

Die Maschinen arbeiten wie folgt:

 \begin{itemize}
  \item Maschine 1; 950 Schrauben pro Stunde; Ausschussrate 10\%
  \item Maschine 2; 1000 Schrauben pro Stunde; Ausschussrate 13\%
  \item Maschine 3; 1300 Schrauben pro Stunde; Ausschussrate 5\%
 \end{itemize}

Wie hoch ist die Wahrscheinlichkeit eine defekte Schraube aus dem Sammelbecken hinter den Maschinen zu ziehen die
aus der dritten Maschine stammt?

Es gilt:

 \begin{itemize}
  \item $p(A_j)$ Schraube kommt aus Maschine j
  \item $p(B)$ Schraube ist defekt
 \end{itemize}
  
\begin{align*}
p(A_3|B) &= \frac{p(B|A_3) \cdot p(A_3)}{p(B|A_1) \cdot p(A_1) + p(B|A_2) \cdot p(A_2) +p(B|A_3) \cdot p(A_3)}\\
&= \frac{  \frac{0.05 \cdot 1300}{950+1000+1300}  }{  \frac{0.1 \cdot 950}{950+1000+1300}+\frac{0.13 \cdot 1000}{950+1000+1300}+\frac{0.05 \cdot 1300}{950+1000+1300}+  } \\
&= \frac{0.05 \cdot 1300}{0.1 \cdot 950+0.13 \cdot 1000+0.05 \cdot 1300} \\
&= 0.224
\end{align*}

Die Wahrscheinlichkeit, dass die defekte Schraube aus Maschine 3 stammt ist 22,4\%. (Maschine 2: 44,8\%, Maschine 1: 32,8\%)

