\chapter{Rappels de probabilité} % Main appendix title

\label{AppendixC} % For referencing this appendix elsewhere, use \ref{AppendixA}

\lhead{Annexe C. \emph{Rappels de probabilité}} % This is for the header on each page - p

\section{Processus de Poisson}\label{app:Processus Poisson}
\begin{definition} Processus de Comptage \\
Soit $(X_t)_{t\geq 0}$ un processus stochastique à valeurs réelles. On dit que $(X_t)_{t\geq 0}$ est un processus decomptage si, pour $\mathbb{P}-$p.t. $\omega \in \Omega$, la trajectoire $t \longrightarrow X_t(\omega)$ est croissante par sauts d’amplitude 1, continue à droite et telle que $X_0(\omega) = 0$.
\end{definition}
\begin{definition}
Un processus de comptage $(N_t)_{t\geq 0}$ est appelé processus de Poisson simple si :
\begin{enumerate}[(i)]
\item pour tous $s, t \geq 0$, $N_{t+s} - N_s \independent \sigma(N_u, u \leq s)$  (accroissements indépendants)
\item pour tous $s, t \geq 0$, $N_{t+s} - N_s \sim N_t$ (stationnarité)
\end{enumerate}

%(i) pour tous s, t ≥ 0, Nt+s − Ns ⊥⊥ σ(Nu, u ≤ s); [accroissements indépendants]

%(ii) pour tous s, t ≥ 0, Nt+s − Ns ∼ Nt. [stationnarité]
\end{definition}

\begin{theorem}
Soit $(N_t)_{t\geq 0}$ est un processus de Poisson simple. Il existe $\lambda \geq 0$ tel que pour chaque $t \geq 0, N_t \sim P(\lambda t)$.
Le paramètre $\lambda$, appelé intensité du processus de Poisson, le caractérise entièrement.
\end{theorem}

Si $0 = T_0 < T_1 < T_2 < \dots$ sont les instants de sauts du processus de Poisson simple $(N_t)_{t\geq 0}$ :\[N_t = \sum_{n\geq1} \mathbb{1}_{T_n\leq t} \hspace{1cm} t\geq 0 \]
\begin{theorem}
Les instants d'inter-arrivées $(T_n-T_{n-1})_{n \geq1}$ du processus de Poisson simple d’intensité $\lambda$ sont des v.a.r. indépendantes et de même loi $\mathbb{E}(\lambda)$. De plus, $(T_1,\dots,T_n)$ possède une densité $f_n$ définie par : 
\begin{equation*}
f_n(t_1,\dots,t_n) =
\left\lbrace
\begin{array}{cl}
\lambda^n\exp(-\lambda t_n)  & \textit{si } 0<t_1<\dots<t_n\\
0 & \textit{sinon}
\end{array}
\right.
\end{equation*}
\end{theorem}
\section{Test d'adéquation de Kolmogorov-Smirnov}
%On considère deux échantillons indépendants : $X_1,\dots, X_n$ i.i.d. de fonction de répartition $F_0$ et $Y_1,\dots,Y_m$ i.i.d. de fonction de répartition $F_1$. 
Le test de Kolmogorov-Smirnov permet de tester l'adéquation des observations $x_1$, $\dots$, $x_n$ à une distribution continue spécifiée. 

\noindent  Soit X la variable aléatoire représentant $x_1,\dots,x_n$. On souhaite tester si X suit la loi caractérisée par la fonction de répartition F. Les hypothèses de test sont :
\begin{center}
\noindent  $H_0$ : X suit la loi F contre $H_1$ : X suit une autre loi.
\end{center}
Soit $F_n$ la fonction de répartition empirique de l’échantillon $(x_1,\dots,x_n)$. 

\begin{definition} Le test de Kolmogorov est défini par la statistique de test : 
\[ D_n = \sup_{ x \in \mathbb{R}} |F_n(x)-F(x)| \]
\end{definition}
\noindent Sous l'hypothèse $H_0$, la loi de $D_n$ est tabulée.
 
