télécharger

publicité
Filtrage de Kalman
et aperçu probabiliste
L’idée
• Faire coïncider deux modèles
– Modifier le moins possible de paramètres
– Problème : Paramètres très nombreux
• Effet d’un bouton sur le modèle
• Ajustement des autres boutons
Problème exponentiel
• Deux angles d’attaque possibles
– Méthodes logiques
• Logiques qualitatives et non-monotones
– Méthodes numériques
• Filtrage de Kalman
• Réseaux bayésiens
2
Filtre Kalman
ERREURS DU
SYSTÈME
w
CONTRÔLES
u
SYSTÈME
DYNAMIQUE
VRAI MODÈLE
SYSTÈME
DYNAMIQUE
TRANSDUCTEUR DE
MESURES
z
MESURES
OBSERVÉES
FILTRE DE
KALMAN
OPTIMAL
x̂
ÉTAT
ESTIMÉ
v
ERREURS DE
MESURES
3
Utilisation « classique »
• Estimation de systèmes dynamiques
(trajectoires par exemple)
• Domaines
–
–
–
–
–
–
–
–
Fusion de données multi-capteurs
Aérospatiale
Aéronautique (calcul de position de cibles)
Océanographie
Météorologie
Hydrologie
Identification du langage
...
4
Caractéristiques
• Algorithme de traitement de données
– Filtre : opérations sur un signal
– Récursif
– Linéaire*
– Optimal
– Temps réel
• Estimation d’états de systèmes dynamiques
dans un environnement bruité
5
Cas courant
• Le plus souvent pas de contrôle ( u nul)
– Exemple : systèmes stochastiques
– Erreurs : inputs dans le système dynamique
• Accès aux données
– Uniquement entrées ( u ) et sorties (z )
– Discrétisation de l’information
Filtre discret
6
Récursif?
• Filtrage récursif :
xˆ (k  1)  A(k )  xˆ (k )  B(k )  z (k  1)
–A et B : pré-calculés si décorrélés des mesures
z(k )
– Sinon A(k )
et
B (k )
calculés durant le cycle
précédent
• Avantage
– Stockage uniquement du stade précédent
7
Optimal?
• Pour chaque cycle (à chaque fois) on calcule:
– A(k )
– B (k )
– x
ˆ (k  1)
Calcul : minimisation de la variance statistique de
l ’erreur d’estimation :
e(k )  x(k )  xˆ(k )
8
Temps-réel?
• Filtre de Kalman
– Récursif
– Discret
Facilité d’application au temps réel
9
Hypothèses requises
• Modèles des systèmes linéaires
– Ne pas confondre avec la linéarité du filtre lui-même
• Sources des bruits blanches
– Bruit entièrement décorrélé du temps (totalement
aléatoire)
– Densité spectrale égale partout
• Remarque : hypothèse «contournable»
• Sources de bruit gaussiennes
– Fonction de densité de probabilité pour les
amplitudes
10
Informations requises
• Connaissance du système dynamique via un
modèle mathématique linéaire
• Description statistique des erreurs
• Information a priori ou conditions initiales du
système
• Au minimum un jeu de donné discret de
mesures des sources qui puisse être traité par11
Exemple
• Particule dans un plan
– Vitesse constante
– Perturbations aléatoires de la trajectoire
 x1(t)   1

 
 x2(t)   0
 dx (t)    0
 1  
 dx (t)  0
 2  
vitess
e
0 1 0   x1(t  1 )   wx1 
 

 
1 0 1   x2(t  1 )   wx2 




0 1 0 dx1(t  1 )
wdx1 
 

 

0 0 1   dx2(t  1 )  wdx2 
positio
n
Source : http://www.cs.berkeley.edu/%7Emurphyk/Bayes/kalman.html
bruit
12
Exemple (suite)
• Observation uniquement sur la position de la
particule
 x1(t) 


 y1(t)   1 0 0 0   x2(t)   vx1 

  
  
  

 y2(t)  0 1 0 0   dx1(t)   vx2 
 dx (t)
 2 
Bruit de
mesures
13
Exemple (suite)
• Données
– Départ (10,10)
– Vitesse (0,1)
– Longueur 15
• Résultats
– Erreur quadratique
moyenne : 4.9 (pour
un lissage 3.2)
– État stable atteint
rapidement
14
Aperçu des autres
approches
• Logiques qualitatives et non-monotones
– Monotone : quand on ajoute un axiome on peut démontrer
d’autres théorèmes sans en supprimer.
– Non-monotone c’est le contraire. Exemple : les oiseaux
volent, donc tel ou tel oiseau vole ; mais pourtant les
pingouins qui sont des oiseaux ne volent pas.
Idée: changer le moins possible d’axiomes pour réussir à
apparier les deux modèles.
• Méthodes probabilistes, méthodes bayesiennes
– Théorème de Bayes
p( Ai | B j ) 
p( Ai ) p( B j | Ai )
p( B j )
– Approche par méthodes statistiques. On cherche la
probabilité a posteriori connaissant celle a priori.
15
Méthodes bayesiennes
• Modèle probabiliste le plus ancien et le plus
utilisé.
• Deux approches différentes :
– approche objectiviste (fréquentiste) : distribution de
probabilité d'une variable aléatoire
– approche subjective : répartition de probabilité
image de l'état des connaissances
16
Approche fréquentiste
(objective)
• étude statistique du phénomène
• évaluation de la fréquence d'occurrence
d'un événement
• exemple : jet de dé
le ratio de fréquence d'apparition d'une face est de
1/6
17
Approche subjective
• codage de l'état des connaissances
• confiance dans l'apparition d'un événement
• exemple :
Paul apprend à rouler à vélo, il a beaucoup de chances
de tomber.
18
Modélisation des erreurs
• Basée sur le calcul d'une probabilité
• Obtenue :
– de façon statistique (fréquentiste)
– par apprentissage (fréquentiste) : adaptation
– par expertise (subjective)
19
Modélisation de la
précision
Précision : distribution de probabilité sur l'espace de
définition
b
P([a, b] / d )   p( x / d )dx
a
p(x/d)
probabilité que X  [a,b], si la

mesure est d.
Distribution Gaussienne :
moyenne d, variance 2
d X
x
20
Modélisation de la
confiance
• Incertitude : distribution de probabilités sur W
– P(H1), P(H2), P(H3), P(H4)
• Propriétés :
–  A  2W, 0  P(A)  1
– P(W) =1
–  A, B  2W, P(A B) = P(A) + P(B) si A B=
–  A, B  2W, P(A) = P(A  B) + P(A  B)
21
Modélisation de la
méconnaissance
• Modélisation implicite : répartition de la
probabilité sur les différentes hypothèses
possibles :
A = H1  H2 ; P(A) = 0.6
P(H1) = 0.3 et P(H2) = 0.3
• Exemple : jet de dé
P(pile) = P(face) = 0.5
22
Méconnaissance pour
probabilités subjectives
• Confusion entre équiprobabilité et
méconnaissance
• Exemple :
– Les fantômes existent-ils ?
– P(fantôme existe) = P(fantôme n'existe pas) = 0.5
23
Conversion numérique
symbolique
• modèle de conversion :
– statistique : apprentissage supervisé
– subjective : modélisation d'une connaissance experte
p(d/Hi)
distribution de vraisemblance :
 Hi  W , vd (Hi ) = p (d /Hi)
Hi
x
24
Fusion bayesienne
• Utilisable en numérique ou en symbolique
• Basée sur l'utilisation du théorème de Bayes
p( A / B ) p( B )
p( B / A) 
p( A)
25
Fusion : modèle - mesure
• Information disponible :
– distribution de probabilité a priori P(Hi)
– distribution de vraisemblance P(d/Hi)=vd(Hi)
probabilité a posteriori
vd ( x ) p ( x )
p( x / d ) 
 vd ( y ) p ( y )
yW
vd ( H i ) P( H i )
P( H i / d ) 
 vd ( H j ) P( H j )
probabilité a priori
H j W
26
Fusion : mesure - mesure
• Information disponible :
– distribution de vraisemblance source 1 :
p(d1/Hi)=vd1(Hi)
– distribution de vraisemblance source 2 :
vraisemblance
p(d2/Hi)=v
vd1d2((H
x).i)vd 2 ( x)
vd1,2 ( x) 
 v d 1 ( y )v d 2 ( y )
yW
vd 1 ( H i ).vd 2 ( H i )
vd 1, 2 ( H i ) 
 vd 1 ( H j )vd 2 ( H j )
H j W
27
Décision
• maximum de probabilité a posteriori (modèlemesure)
• maximum de vraisemblance (mesure-mesure)
28
Exemple : jet de dé
• ensemble de définition W={F1, F2, F3, F4, F5, F6}
• probabilités a priori
P(F1)= P(F2)= P(F3)= P(F4)= P(F5)= P(F6) = 1/6
• Capteur 1 : indique le nombre de point au milieu
• Capteur 2 : indique le nombre de points sur un
coté
29
Capteurs
0 point : F2 , F4 , F6
1 point : F1 , F3 , F5
0 point : F1
1 point : F2, F3
2 points : F4, F5 , F6
3 points : F6
30
Probabilités
a priori
Probabilités
conditionnelles
p(point/face) = vpoint(face)
p(face)
0 point
p(F1)= 1/6
1 point
F1
p(0point/F1) = 0 p(1point/F1) = 1
F2
p(0point/F2) = 1 p(1point/F2) = 0
F3
p(0point/F3) = 0 p(1point/F3) = 1
F4
p(0point/F4) = 1 p(1point/F4) = 0
p(F5)= 1/6
F5
p(0point/F5) = 0 p(1point/F5) = 1
p(F6)= 1/6
F6
p(0point/F6) = 1 p(1point/F6) = 0
p(F2)= 1/6
p(F3)= 1/6
p(F4)= 1/6
31
Fusion modèle-mesure
Capteur 1 : 1 point
 p(1 point / Fi ). p( Fi )  3 / 6
Fi
1 point
F1
p(F1/1point ) = p(1point/F1). p(F1) . 2 = 1/3
F3
p(F3/1point ) = p(1point/F3). p(F3) . 2 = 1/3
F5
p(F5/1point ) = p(1point/F5). p(F5) . 2 = 1/3
32
Téléchargement