\part{Détection des signaux dans le bruit}
\chapter{Position du problème de détection}
Signal bruité observable $x(t)$
Deux hypothèses de constitution :\\
$H_0 : x(t)$:contient un signal connu $s_0(t)$ mélangé à du bruit\\
$H_1 : x(t)$:contient un signal connu $s_1(t)$ mélangé à du bruit\\
\'A N dates distinctes $t(j)$ on prélève N mesures $x(t_j) = x_j$ pour j de 1 à N $\rightarrow$ vecteur $\vec{x} = (x_1,x_2...x_N)$\\
\underline{Problème} :\'A partir de $\vec{x}$ décidé si $x_(t)$ est produit sous $H_0$ ou $H_1$.\\
Un détecteur qui reçoit $\vec{x}$ et renvoi une décision $D_0$ ou $D_1$ pour $H_0$ ou $H_1$.\\
Partition l'espace des mesures $R^N$.\\
Détecteur équiveaut à une partition de $R^N$ en deux régions $R_0,R_1$ tel que $R_0 \cup R_1=R^N$ et $R_1 \cap R_2=\oslash$ et si $\vec{x}\epsilon R_i$ entraîne une décision $D_i$, i=0 ou 1.

\chapter{Détecteur à probabilité d'erreur de détection minimale}

\chapter{Détecteur de Neyman-Pearson}
Mesure de performance de la détection, ne nécessitant pas la connaissance des priorités \textit{a priori} de $P_O$ et $P_1$ à partir d'une courbe ROC (Receiver Operating Characteristic).\\
Probabilité de détection $P_d  :  P_r \lbrace D_1 | H_1 \rbrace = P_d = 1-P_r \lbrace D_0 | H_1 \rbrace$\\
Probabilité de fausse alarme $P_f  :  P_r \lbrace D_1 | H_0 \rbrace = P_f = 1-P_r \lbrace D_0 | H_0 \rbrace$\\
On caractérise un détecteur via sa courbe ROC $P_d=fct(P_f)$\\
\underline{Problème} : Trouver le détecteur exploitant la mesure bruitée $\vec{x}$ et atteignant la courbe ROC la plus élevée.\\
\underline{Problème} : Maximiser $P_d$ à $P_f$ fixé. $\Leftrightarrow$ Problème d'optimisation sous contrainte.\\
Utilisation des multiplicateurs de Lagrange ($\mathcal{L}$)\\
Lagrangien : $\mathcal{L} = P_d - \mu P_f$\\
Le détecteur optimal peut se définir comme la partition $(R_1,R_0)$ telle que lorsque l'on change $R_1$ devient $R_1 + d R_1$. La variation $d\mathcal{L}$ du Lagrangien s'annule identiquement, $\forall d R_1$.\\
\[\mathcal{L} = \int_{R_1} p(\vec{x}|H_1)d\vec{x} = \mu \int_{R_1} p(\vec{x}|H_0)d\vec{x}\]
\[\Rightarrow d\mathcal{L} = \int_{R_1} [p(\vec{x}|H_1) - \mu p(\vec{x}|H_0)]d\vec{x} = 0,\forall d R_1\]
\[\Leftrightarrow p(\vec{x}|H_1) - \mu p(\vec{x}|H_0) = 0\]
\\
Avec  sur la frontière du $R_1$ optimal : $\lbrace \vec{x}|p(\vec{x}|H_1) = \mu p(\vec{x}|H_0) \rbrace $\\
$\Rightarrow$ Détecteur optimal de Neyman-Pearson \\
$R(x) = \frac{p(\vec{x}|H_1)}{p(\vec{x}|H_0)} \hypHH \mu (P_f)$\\
Avec $P_r\lbrace D_1 | H_0 \rbrace =\int_{R_1(\mu)} p(\vec{x}|H_0) d\vec{x} = P_f$ fixé $\Rightarrow \mu = \mu (P_f)$\\
Il atteint $P_d = \int_{R_1 [\mu(P_f)]} p(\vec{x}|H_1)d\vec{x}$\\
La plus forte parmi tous les détecteurs utilisent $\vec{x}$ et fonctionnent au même $P_f$

\subsection*{Exercice}
Détection signal constant s dans bruit additif gaussien.\\

$ R(\vec{x}) = \frac{exp[-\frac{1}{2*\sigma ^2} \sum_{j=1}^N (x_j-s)^2]}{exp[-\frac{1}{8*\sigma ^2}\sum_{j=1}^N x_j ^2]} \hypHH \mu $ \\
lu $R(\vec{x})$... \\
$\Leftrightarrow \bar{x} = \frac{1}{N} \sum_{j=1}^N x_j \hypHH \frac{s}{2}+\frac{\sigma ^2}{Ns} \ln(\mu) = x_{NP} $ seuil. \\
\[P_r\lbrace D_1 | H_0 \rbrace = P_r\lbrace \vec{x} > x_{NP} | H_0 \rbrace \]
\[= 1-F_{0,\frac{\sigma}{\sqrt{N}}}(x_{NP}) \]
\[= \frac{1}{2}[1-erf(\sqrt{N}\frac{x_{NP}}{\sqrt{2}\sigma})] = P_f fixe\]
\[\Rightarrow x_{NP} = \frac{\sqrt{2}\sigma}{\sqrt{N}} erf^{-1}(1-2P_f)\]
Sous $H_0 : \vec{x} \sim \mathcal{N}(0,\frac{\sigma}{\sqrt{N}}) $\\
Et $P_{d,max} = P_r \lbrace \vec{x}>x_{NP}|H_1 \rbrace $
\[= 1-F_{s,\frac{\sigma}{\sqrt{N}}}(x_{NP}) \]
\[= \frac{1}{2}[1-erf\sqrt{N}(\frac{x_{NP}-s}{\sqrt{2}\sigma})]\]
\[= \frac{1}{2}\lbrace 1-erf[erf^{-1}(1-2P_f)-\frac{1}{\sqrt{2}}\frac{s}{\frac{\sigma}{\sqrt{N}}}] \rbrace \]
Sous $H_1 : \vec{x} \sim \mathcal{N}(s,\frac{\sigma}{\sqrt{N}}) $\\

\chapter{Détection dans bruit blanc gaussien abstrait...}
... d'un signal connu quelconque $s_1(t) \equiv s(t)$ \\
$H_0 : x(t) = \eta(t)$ \\
$H_1 : x(t) = s(t) + \eta(t)$ \\
Détection optimal : $R(\vec{x}) \hypHH \gamma $\\
$\frac{P_0}{P_1}$ pour minimiser $P_{er}$\\
$\mu(P_f)$ pour maximiser $P_d$ à $P_f$ fixé\\

Ici $R(\vec{x}) = \frac{exp[-\frac{1}{2\sigma^2}\sum_{j=1}^N (x_j-s_j)^2]}{exp[-\frac{1}{2\sigma^2}\sum_{j=1}^N x_j^2]} \hypHH \gamma $
avec $s_j=s(t_j)$
$\sim \mathcal{N}(0,\sigma)$
\[\Leftrightarrow \ln R(\vec{x}) = -\frac{1}{2\sigma^2}\sum_{j=1}^N (x_j-s_j)^2 +\frac{1}{2\sigma^2}\sum_{j=1}^N x_j^2 \hypHH \ln(\gamma)\]
\[\Leftrightarrow 2\sum_{j=1}^N x_js_j - \sum_{j=1}^N s_j^2 \hypHH 2\sigma^2\ln(\gamma)\]
\[\Leftrightarrow \sum_{j=1}^N x_js_j \hypHH \frac{1}{2} \sum_{j=1}^N s_j^2 + \sigma^2\ln(\gamma) \]

\underline{Limite du temps continu}
Sur $t\epsilon[0,T]$ on répartit les N points de mesure aux dates $t_j = (j-1)\Delta t$, avec $\Delta t = \frac{T}{N-1}$ pour j=1 à N.
\[\Leftrightarrow \sum_{j=1}^N x(t_j)s(t_j)\Delta t \hypHH \sigma^2\times\Delta t \ln(\gamma)+\frac{1}{2} \sum_{j=1}^N s^2(t_j)\Delta t \]
\'A N$\rightarrow \infty$ et T fixé
\[\Leftrightarrow \int_0^t x(t)dt \hypHH \sigma^2\times\Delta t\times\ln(\gamma)+\frac{1}{2}\int_0^T s^2(t)dt \]
Calcul de la statistique de test $\int_0^T x(t)s(t)dt$ par un circuit (système) analogique linéaire.\\
$x(t) \rightarrow$ système linéaire $\rightarrow y(t) = x(t) \ast h(t) = \int_{-\infty}^{+\infty}x(t')h(t-t')dt'$\\
$y(t) = \int_0^{+\infty} x(t')h(t-t')dt'$\\
Sortie à $t=T$ : $y(t) = \int_0^T x(t')h(t-t')dt'$ doit calculer la statistique de test.\\
\\
$h(t) = s(T-t)$ filtre linéaire adapté\\
\underline{Signal sinusoidal}\\
$s(t) = S_0cos(2\pi\nu _0t)$\\
Détecteur optimal $\sum_{j=1}^N x_js_j \hypHH \frac{1}{2} \sum_{j=1}^N s_j^2+\sigma^2\ln(\gamma)$
\[ \Leftrightarrow \sum_{j=1}^N x_jcos(2\pi\nu _0t_j) \hypHH \frac{1}{2S_0} \sum_{j=1}^N s_j^2+\frac{\sigma^2}{S_0}\ln(\gamma) \]
$\mathcal{R}e \lbrace TFD[x_j] \rbrace $ à fréquence $\nu _0$ (Si toutes les fréquences accessibles $\rightarrow$ détection à $\nu _0$ inconnue.\\
$\Rightarrow$ filtre adapté : $h(t) = S_0cos(2\pi\nu _0T) \overset{TF}{\longrightarrow} H(\nu)$ (sur durée T)

\chapter{Test d'hypothèses multiples, ou classificaton}
$M>2$ d'hypothèses ou classes $H_i$, $i=1$ à $M>2$\\
$H_{i^*}=arg max p((\vec{x}|H_i)\times P_i$ minimiser $P_{er}$\\
$\Leftrightarrow$ Via règles de Bayes, $H_{i^*} = arg \underset{H_i}{max} Pr \lbrace H_i | \vec{x} \rbrace$, test du maximum à posteriori.\\
Si les $P_i = P_r \lbrace H_i \rbrace$ inconnues, $H_{i^*} = arg \underset{H_i}{max} P(\vec{x}|H_i)$, Test du maximum de vraisemblance.\\
Souvent, densités $p(\vec{x}|H_i)$ modélisés comme des mélanges de gaussiennes.
\[ p(\vec{x}) = \sum_{k=1}^K p_k \mathcal{N}(\vec{x};\vec{m}_k,\bar{\bar{s}}_k) \]
\underline{Paramètres} $\sum_{k=1}^K p_k = 1$\\
$p_k$ coefficients de mélange\\
Vecteurs $\vec{m}_k$ centroides (analogue de $m$)\\
Matrice de précision/finesse : $\bar{\bar{s}}_k$ (analogue de $\frac{1}{\sigma}$)\\
à estimer à partir d'un ensemble d'exemples d'apprentissage de couples $\lbrace (\vec{x},H_i)\rbrace$

\chapter{Exercice : Détection non linéaire}
\section*{Question 1}
\[ P_r \lbrace y_j = -1 | s\rbrace = P_r \lbrace s+\eta (t_j) < \theta \rbrace = P_r \lbrace \eta (t_j) < \theta - s \rbrace = F_\eta (\theta - s) \]
\[ P_r \lbrace y_j = +1|s \rbrace = 1-P_r \lbrace y_j=-1|s \rbrace = 1-F_\eta (\theta-s) \]
\section*{Question 2}
\[ P_r \lbrace \vec{y}=(-1,-1;\dots,-1) \rbrace = P_r \lbrace y_1=-1, y2=-1,\dots, y_N=-1 |s\rbrace \]
\[ = P_r \lbrace y_1=-1 | s \rbrace \times P_r \lbrace y_2=-1 | s \rbrace \times \dots \times P_r \lbrace y_N=-1 | s \rbrace = \prod_{j=1}^N P_r \lbrace y_j=-1 | s \rbrace = F_\eta^N(\theta-s) \]
\section*{Question 3}
\[ P_r \lbrace \vec{y} = (+1,+1,\dots,+1) | s \rbrace = \prod_{j=1}^N P_r \lbrace y_j = +1|s \rbrace = [1-F_\eta (\theta-s)]^N \]
\section*{Question 4}
\[ P_r \lbrace \vec{y} \rbrace = [1-F\eta (\theta-s)]^{N_1} \times F_\eta^{N-N_1}(\theta-s) \]
\section*{Question 5}
\[  \]
\[  \]
\section*{Question 6}
\[  \]
\[  \]
\section*{Question 7}
\[  \]
\[  \]

[...]

\chapter*{je sais pas lequel}
Estimateur $\thetachap =\frac{1}{N}\sum_{j=1}^{N} x_j \Rightarrow $ biais $ b(\thetachap )=0;e(\thetachap )=var(\thetachap )=\frac{\sigma ^2}{N} $
\[ \dots \]
pas suivi...
\[ ... \]
\chapter{Estimateur du maximum de vraisemblance}
$p(\vec{x},\theta )$ la densité de probabilité de mesure $\vec{x}$ avec x une variable aléatoire (la mesure) et $\theta $ la valeur mesurance mais fixée du paramètre à estimer. \\
La vraisemblance : $L(\vec{x},\theta ) = p(\vec{x},\theta )$ ($\vec{x}$ fixée par la mesure particulière réalisée et $\theta $ variable muette sur tout R)\\
Estimateur du maximum de vraisemblance :
$\underset{MV}{\thetachap (\vec{x})} = arg(\underset{\theta }{max}) L(\vec{x},\theta)$
\begin{itemize}
\item général et mécanique
\item a priori raisonnable
\end{itemize}
Ou log-vraisemblance : li $L(\vec{x},\theta)$ \\
$\underset{MV}{\thetachap (\vec{x})} = arg(\underset{\theta }{max}) lu L(\vec{x},\theta)$
car lu(.) est une fonction strictement croissante.
\subsection*{exemple}
Bruit $x(t)$ de densité de proba : $p_x(u) = \delta e^{-\delta u}$ si $u\geq 0$ ou $0$ sinon.\\
$\Rightarrow \int_{-\infty}^{+\infty} p_x(u)du=1, \forall \delta$ \\
Paramètre à estimer $\theta  = \delta $ \\
$L(\vec{x},\theta ) = p(\vec{x},\theta )$\\
Hypothèse : les échantillons $x_j$ sont indépendants.
$L(\vec{x},\theta ) = p(\vec{x},\theta ) = \prod_{j=1}^{N}p(x_j,\theta ) = \theta ^N exp(-\theta \sum_{j=1}^{N}x_j)$\\
or $p(x_j,\theta ) = \theta e^{-\theta x_j}=p_x(x_j)$\\
Log-vraisemblance $ln(L(\vec{x},0)) = N ln(\theta )-\theta \sum_{j=1}{N}x_j \Rightarrow \frac{\delta}{\delta \theta} ln(L(\vec{x},\theta ) = \frac{N}{\theta } - \sum_{j=1}^{N}x_j = valeur \Rightarrow \theta = \frac{N}{\sum_{j=1}^{N}x_j} = \underset{MY}{\thetachap}(\vec{x})$\\

Asymptotyquement, quand $N\rightarrow \infty $
$\underset{MY}{\thetachap}(\vec{x}) \sim \mathcal{N}(\theta , \frac{1}{\mathcal{J}(\vec{x},\theta })$ \\
$\underset{MY}{\thetachap}(\vec{x}) $
\begin{itemize}
\item gaussien
\item la moyenne $\theta $, càd $\underset{MY}{\thetachap}$ sans biais de variance minimale $\frac{1}{\mathcal{J}(\vec{x},\theta )}$, càd $\underset{MY}{\thetachap}$ efficient.
\end{itemize}
$\Rightarrow \underset{MY}{\thetachap}$ est le meilleur estimateur.

\subsection*{Exemple}
Bruit blanc $x(t)$ de moyenne $m=0$ à estimer.\\
Estimateur $\underset{MY}{\vec{\theta}}(\vec{x}) = ?$
\begin{itemize}
\item Si $x(t) \sim \mathcal{N}(m,\sigma ) $gaussien
\item Si $x(t) \sim \mathcal{L}(m,\sigma ) $laplacien
\end{itemize}



















