Conditionnement: - Fusion d`information, dynamique et filtrage

publicité
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement:
Fusion d’information, dynamique et filtrage
Manuel Samuelides, Professeur à l’ISAE
[email protected]
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Plan de l’exposé
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Objectifs de l’exposé
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Objectifs de l’exposé
Objectifs de l’exposé
Le conditionnement est consubstantiel aux probabilités.
Historiquement, les probabilités se construisent au XVII par multiplication et
symétrie (Pascal) et seulement au XVIII par addition (Bernoulli)
L’étude dynamique des probabilités se développe à la fin du XIX (dynamique
des populations (Galton), finance (Bachelier), analyse de texte (Markov).
La statistique de Bayes assure la fusion d’information hypothèse/mesure,
passé/présent. Sa compréhension est fondamentale
L’étude des chaînes de Markov finies utilise comme outil l’algèbre linéaire et
permet une approche de problèmes complexes (temps d’arrêt)
L’étude des processus gaussiens fournit les bases de la théorie du signal
analogique et de l’automatique (filtrage)
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Conditionnement par une VAR de loi discrète
Définition
Soit (Ω, P) un espace de probabilité et X une var discrète
prenant les valeurs (xi ) avec la loi PX (xi ) = P(X = xi ) = pi .
On appelle probabilité conditionnelle la probabilité notée
=xi ))
P(. | X = xi ) définie par P(A | X = xi ) = P(A∩(X
P(X =xi )
Théorème
Le théorème de recomposition permet de reconstruire la
probabilité globale à partir de toutes les probabilités
conditionnelles et de la loi du facteur conditionnant
P
P(A) = Pi P(A | X = xi )P(X = xi )
E(Y ) = i E(Y | X = xi )P(X = xi )
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Exemple de la loi de Poisson
Soit (X , Y ) deux lois de Poisson indépendantes de
paramètres λ et µ. La loi de S = X + Y est une loi de
Poisson de paramètre λ + µ.
La loi de X | S = s est une loi binomiale de paramètre
λ
)
(s, λ+µ
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Exemple des temps d’arrivée
Soit Y1 =, Y2 , ..., Yn , ... les intertemps de passage à une
station à partir du temps 0 d’une ligne d’autobus. Ces
variables sont indépendantes de densité exponentielle
y → e−y sur R+ .
Quelle est la loi de Y1 , le temps de première arrivée
conditionnée par le fait que le nombre N d’arrivées de 0 à
1 est égal à 1 ?
Preuve
P(Y1 ≤ a | (Y1 ≤ 1) ∩ (Y1 + Y2 ≥ 1) = ae−1 /e−1 = a
Le temps de première arrivée suit une loi uniforme sur [0,1]
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Conditionnement d’une loi conjointe
Soit (X , Y ) un vecteur aléatoire de loi conjointe de densité
(x, y ) → f (x, y )
R
La loi de X a pour densité x → f (x, y )dx
La loi conditionnelle de Y | X = x a pour densité
(x,y )
y → R ff(x,η)dη
Justification intuitive: P(y ≤ Y ≤ y + ∆y | x ≤ X ≤ x + ∆x
Justification correcte par la recomposition:
R
P(Y ∈ A) = P(Y ∈ A | X = x)dPX (x)
m
R
E(Y ) = E(Y | X = x)dPX (x)
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Retour sur les temps d’arrivée
Problème
On a vu le cas de Y1 =, Y2 , ..., Yn , ...intertemps de passage
indépendants de densité exponentielle y → e−y sur R+ .
Quelle est la loi de Y1 conditionnée par S = Y1 + Y2 ?
La densité conjointe de (Y1 , S) est (y , s) → e−s 10≤y ≤s
La densité de S est s → se−s ds
La densité de Y1 | S = s est la loi uniforme sur [0, s]
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Principes de la statistique bayésienne
1
Considérer le paramètre inconnu θ comme une VA Θ
dotée d’une loi a priori dπ(θ) à choisir au mieux.
2
Interprêter la densité paramétrique de l’échantillon de
mesures x = (x1 , ..., xn ) → L(x | θ) = h(x1 | θ)...h(xn , θ)
comme la densité conditionnelle de l’échantillon si Θ = θ,
3
Calculer la vraisemblance a posteriori L(θ | x) du
paramètre θ en calculant la loi de Θ conditionnée par les
mesures.
4
Si on a choisi l’estimateur MAP (maximum a posteriori)
maximiser en θ L(θ | x) en fonction de x.
5
A l’étape 3, dans le calcul de la loi conditionnelle du paramètre, l’obtention explicite de la marginale de
l’échantillon n’est pas nécessaire
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Conditionnement par une variable discrète
Le cas à densité
Statistique bayésienne
Exemple du taux de panne
1
Considérer le paramètre inconnu θ comme une VA Θ
dotée d’une loi a priori dπ(θ) à choisir au mieux.
2
Interprêter la densité paramétrique de l’échantillon de
mesures x = (x1 , ..., xn ) → L(x | θ) = h(x1 | θ)...h(xn , θ)
comme la densité conditionnelle de l’échantillon si Θ = θ,
3
Calculer la vraisemblance a posteriori L(θ | x) du
paramètre θ en calculant la loi de Θ conditionnée par les
mesures.
4
Si on a choisi l’estimateur MAP (maximum a posteriori)
maximiser en θ L(θ | x) en fonction de x.
5
A l’étape 3, dans le calcul de la loi conditionnelle du paramètre, l’obtention explicite de la marginale de
l’échantillon n’est pas nécessaire
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Définition d’un processus markovien
Définition
Un processus stochastique (Xt ), t ∈ T est dit de Markov si
∀tn < ... < t1 < t < t + s1 < .... < t + sp ,
P(Xt+s1 ∈ A1 ....Xt+sp ∈ Ap | Xtn = xtn , ..., Xt1 = xt1 , Xt = x)
= P(Xt+s1 ∈ A1 ....Xt+sp ∈ Ap | Xt = x)
"L’état présent donne toutes les informations passées sur le
futur, le processus est sans mémoire"
espace d’états discret
espace d’états continu
temps discret
réseau, arbres
Kalman, filtre
Manuel Samuelides, Professeur à l’ISAE [email protected]:
temps continu
Poisson,fiabilité
diffusion,finance
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Génération d’une trajectoire
Théorème
Soit (Xt )t∈N une chaîne de Markov à valeurs dans un espace
d’états dénombrable E. On a
P(X0 = x0 , ..., Xs = xs ) =
s
Y
P(Xt = xt | Xt−1 = xt−1 )∗P(X0 = x0 )
t=1
Preuve
Se démontre très facilement par récurrence sur s.
Très naturel: La probabilité d’un chemin est le produit de la
probabilité de l’origine par celle des arcs orientés composant le
chemin.
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Chaîne homogène
Définition
Une chaîne de Markov (à temps discret) est dite homogène en
temps quand la transition du temps t au temps t + 1 est
indépendante du temps t
Si la chaîne est homogène, la loi du processu est
complètement définie par la loi de l’état initial et la
probabilité de transiton
Si l’espace d’états est fini, la loi d’un état au temps
Pt est un
vecteur stochastique p = (pi ) tel que ∀i, 0 ≤ pi et i pi = 1
On note P l’ensemble des vecteurs stochastiques sur E
La loi de transition est donnée par une matrice
stochastique π = (πij ) tel que ∀i, pi = (πi. ) ∈ P
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Exemple d’une cartographie
Matrice de transition:

0 0.5 0.5 0
 0.2 0
0 0.8 

π=
 0.8 0
0 0.2 
1
0
0
0

Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Exemple d’une marche à barrières réfléchissantes
Matrice de transition:

0
1
0 0
 1−p
0
p 0 

π=
 0
1−p 0 p 
0
0
1 0

Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Exemple de l’urne d’Ehrenfest (1907)
Ce modèle a été proposé en 1907 pour modéliser la
diffusion des gaz. Le nombre de particules d’une urne
modélise la pression.
Une population de n particules est divisée en deux urnes.
A chaque instant, une particule est tirée au hasard et
passe dans l’autre urne.
L’état Xt est le nombre de particules dans une urne au
temps t il peut prendre toutes les valeurs entières compris
entre 0 et n.
La transition est donnée par
P(Xt = k + 1 | Xt = k ) = n−k
n
P(Xt = k − 1 | Xt = k ) = kn
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Régime stationnaire
Définition
On appelle loi stationnaire d’une chaîne de Markov à valeurs
dans E une loi de probabilité sur E invariante par la transition
Théorème
Toute chaîne de Markov sur un espace d’états finis admet au
moins un régime stationnaire p̃ (vecteur ligne propre de la
matrice de transition π pour la valeur propre 1)
p̃π = p̃
Contre-exemple Une marche aléatoire sur Z ou N n’admet pas
de loi stationnaire.
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Exemple de la cartographie
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Exemple de la marche à barrières réfléchissantes
p̃ =
(1 − p)2
1−p
p(1 − p)
p2
,
,
,
2 − 2p + p2 2 − 2p + p2 2 − 2p + p2 2 − 2p + p2
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Exemple de l’urne d’Ehrenfest
On a p̃k = n−kn+1 p̃k −1 + k +1
n p̃k +1
n!
On en déduit p̃k = k !(n−k )! 21n
La loi invariante est une loi binomiale de paramètres (n, 12 )
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Propriétés spectrales de la matrice de transition
Toute matrice stochastique admet 1 comme valeur propre
Le rayon spectral d’une matrice stochastique est égal à 1
MAIS1 n’est pas nécessairement valeur propre simple
(pas d’unicité de la loi invariante),
MAISil peut y avoir d’autres valeurs propres de module 1
(périodicité: Tous nos exemples étaient périodiques de
période 2)
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Définition d’un processus markovien
Génération des trajectoires (état et temps discrets)
Etude asymptotique
Chaîne ergodique
Théorème
Si 1 est valeur propre simple de P, et si toutes les valeurs
propres de P autres que 1 sont de module strictement inférieur à
1, alors la suite de matrice π n converge vers une matrice dont
toutes les lignes sont égales à un vecteur stochastique p̃.
p̃ est la loi invariante de la chaîne. Quelle que soit la position
initiale, la loi de Xt tend vers p̃ quand t → ∞
La chaîne de Markov vérifie la loi des grands nombres
Z
1
(f (X1 ) + ... + f (Xt )) → f (k )d p̃(k )
t
On dit que (Xt ) est ergodique.
Pour casser la périodicité dans nos exemples, introduire une
petite probabilité de piétiner !
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Modèle gaussien
Filtrage de Kalman
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Modèle gaussien
Filtrage de Kalman
Modèle gaussien
Définition
Un processus gaussien (Xt ) est un processus aléatoire à
valeurs dans Rd tel que pour tout (t1 , ..., tn ) le vecteur aléatoire
(Xt1 , ..., Xtn )est gaussien.
Un processus gaussien est complètement défini par la donnée
de la fonction moyenne t → m(t) = E(Xt ) et du noyau de
covariance (s, t) → k (s, t) = Cov(Xs , Xt )
On rappelle que la loi d’un vecteur gaussien est stable par
transformation linéaire et que la régression linéaire est
l’espérance conditionnelle. Son résidu est indépendant du
facteur conditionnant.
Si le processus est stationnaire centré, sa loi est complètement
définie par la fonction de covariance k (t) = Cov(Xs , Xs+t )
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Modèle gaussien
Filtrage de Kalman
Outline
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Modèle gaussien
Filtrage de Kalman
Estimation de la position d’un mobile
Problème
On considére un mobile suivant une trajectoire aléatoire
modélisée à temps discret par:
~ t+1 , V
~ t ∼ N (0, I)
~t + m
~ 0 = 0, X
~ t+1 = At+1 X
~ t+1 + Bt+1 V
X
~ t totalement ou partiellement
A chaque instant t on mesure X
avec un bruit de mesure gaussien. Le résultat de la mesure est
donc
~ t = Ct Xt + Dt W
~ t, W
~ t ∼ N (0, I)
Y
Estimer au mieux Xt en tenant compte de la suite de mesures
Y1 , ..., Yt .
On notera le caractère linéaire du modèle qui peut ne pas être réaliste même s’il est non stationnaire
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Modèle gaussien
Filtrage de Kalman
Stratégie générale
~ 1 , ..., X
~t, Y
~ 1 , ..., Y
~ t ) sont gaussiens. On
Les vecteurs (X
~
~ 1 , ..., Y
~ t+1 )
cherche à calculer X̂t+1 = E(Xt+1 | Y
Le calcul sera récursif. On utilisera le principe de
disjonction:
~ t+1 | Y
~ 1 , ..., Y
~ t )+E(X
~ t+1 | Y
~ t+1 −E(Y
~ t+1 | Y
~ 1 , ..., Y
~ t ))
X̂t+1 = E(X
On appelle innovation
~ t+1 = Y
~ t+1 − E(Y
~ t+1 | Y
~ 1 , ..., Y
~t)
Z
On débute une itération par une étape de prédiction
consistant à prédire ce qui se passe au temps t + 1 en
~ 1 , ..., Y
~ t ) (passé en
fonction des mesures passées Ft = σ(Y
t)
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Modèle gaussien
Filtrage de Kalman
Etape de prédiction
~ t+1 on a
~t + m
~ t+1 = At+1 X
~ t+1 + Bt+1 V
Comme X
~
~ t+1
X̃t+1 = E(Xt+1 | Ft ) = At+1 X̂t + m
~ t = Ct X
~ t + Dt W
~ t , donne la prédiction de la
De même Y
~
~ t+1 )
mesure Ỹt+1 = E(Yt+1 | Ft ) = Ct+1 (At+1 X̂t + m
On peut maintenant calculer l’innovation au temps t + 1:
~ t+1 = Y
~ t+1 − Ct+1 (At+1 X̂t + m
~ t+1 )
Z
~ t+1 | Z
~ t+1 )
Il reste à calculer l’apport de l’innovation soit E(X
~ t+1 − E(X
~ t+1 ) | Z
~ t+1 )
~ t+1 | Ft ) + E(X
et X̂t+1 = E(X
~
X̂t+1 = X̃t+1 + Kt+1 Zt+1
Kt+1 s’appelle le gain de Kalman
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Introduction
Conditionnement et fusion d’information
Dynamiques et représentations markoviennes
Filtrage linéaire des processus gaussiens
Modèle gaussien
Filtrage de Kalman
Calcul du gain de Kalman
On note Qt = Bt Bt∗ et Rt = Dt Dt∗ les covariances
respectives des bruits d’état et de mesure.
~ t − X̂t ) de l’estimation en t.
Soit la covariance Pt = Cov(X
La covariance de l’erreur de prédiction au temps t + 1 est
~ t+1 − X̃t+1 ) = At+1 Pt A∗ + Qt+1
P̃t+1 = Cov(X
t+1
La covariance de l’innovation au temps t + 1 est
~ t+1 ) = Ct+1 P̃t+1 C ∗ + Rt+1
St+1 = Cov(Z
t+1
~ t+1 , Z
~ t+1 ) = Cov(X
~ t+1 , Ct+1 (X
~ t+1 − X̃t+1 + Dt+1 Wt+1 )
Cov(X
∗
∗ S −1
~
~
Cov(Xt+1 , Zt+1 ) = P̃t+1 Ct+1 ⇒ Kt+1 = P̃t+1 Ct+1
t+1
Reste pour reboucler la mise à jour de la covariance de
l’estimation pour le gain optimal:
~ t+1 − X̃t+1 ) − Kt+1 Z
~ t+1 ]
Pt+1 = Cov[(X
~ t+1 − X̃t+1 ) − Kt+1 Cov(Z
~ t+1 , X
~ t+1 − X̃t+1 )
Pt+1 = Cov(X
Pt+1 = (I − Kt+1 Ct+1 )P̃t+1
Manuel Samuelides, Professeur à l’ISAE [email protected]:
Téléchargement