Filtrage de Kalman et aperçu probabiliste L’idée • Faire coïncider deux modèles – Modifier le moins possible de paramètres – Problème : Paramètres très nombreux • Effet d’un bouton sur le modèle • Ajustement des autres boutons Problème exponentiel • Deux angles d’attaque possibles – Méthodes logiques • Logiques qualitatives et non-monotones – Méthodes numériques • Filtrage de Kalman • Réseaux bayésiens 2 Filtre Kalman ERREURS DU SYSTÈME w CONTRÔLES u SYSTÈME DYNAMIQUE VRAI MODÈLE SYSTÈME DYNAMIQUE TRANSDUCTEUR DE MESURES z MESURES OBSERVÉES FILTRE DE KALMAN OPTIMAL x̂ ÉTAT ESTIMÉ v ERREURS DE MESURES 3 Utilisation « classique » • Estimation de systèmes dynamiques (trajectoires par exemple) • Domaines – – – – – – – – Fusion de données multi-capteurs Aérospatiale Aéronautique (calcul de position de cibles) Océanographie Météorologie Hydrologie Identification du langage ... 4 Caractéristiques • Algorithme de traitement de données – Filtre : opérations sur un signal – Récursif – Linéaire* – Optimal – Temps réel • Estimation d’états de systèmes dynamiques dans un environnement bruité 5 Cas courant • Le plus souvent pas de contrôle ( u nul) – Exemple : systèmes stochastiques – Erreurs : inputs dans le système dynamique • Accès aux données – Uniquement entrées ( u ) et sorties (z ) – Discrétisation de l’information Filtre discret 6 Récursif? • Filtrage récursif : xˆ (k 1) A(k ) xˆ (k ) B(k ) z (k 1) –A et B : pré-calculés si décorrélés des mesures z(k ) – Sinon A(k ) et B (k ) calculés durant le cycle précédent • Avantage – Stockage uniquement du stade précédent 7 Optimal? • Pour chaque cycle (à chaque fois) on calcule: – A(k ) – B (k ) – x ˆ (k 1) Calcul : minimisation de la variance statistique de l ’erreur d’estimation : e(k ) x(k ) xˆ(k ) 8 Temps-réel? • Filtre de Kalman – Récursif – Discret Facilité d’application au temps réel 9 Hypothèses requises • Modèles des systèmes linéaires – Ne pas confondre avec la linéarité du filtre lui-même • Sources des bruits blanches – Bruit entièrement décorrélé du temps (totalement aléatoire) – Densité spectrale égale partout • Remarque : hypothèse «contournable» • Sources de bruit gaussiennes – Fonction de densité de probabilité pour les amplitudes 10 Informations requises • Connaissance du système dynamique via un modèle mathématique linéaire • Description statistique des erreurs • Information a priori ou conditions initiales du système • Au minimum un jeu de donné discret de mesures des sources qui puisse être traité par11 Exemple • Particule dans un plan – Vitesse constante – Perturbations aléatoires de la trajectoire x1(t) 1 x2(t) 0 dx (t) 0 1 dx (t) 0 2 vitess e 0 1 0 x1(t 1 ) wx1 1 0 1 x2(t 1 ) wx2 0 1 0 dx1(t 1 ) wdx1 0 0 1 dx2(t 1 ) wdx2 positio n Source : http://www.cs.berkeley.edu/%7Emurphyk/Bayes/kalman.html bruit 12 Exemple (suite) • Observation uniquement sur la position de la particule x1(t) y1(t) 1 0 0 0 x2(t) vx1 y2(t) 0 1 0 0 dx1(t) vx2 dx (t) 2 Bruit de mesures 13 Exemple (suite) • Données – Départ (10,10) – Vitesse (0,1) – Longueur 15 • Résultats – Erreur quadratique moyenne : 4.9 (pour un lissage 3.2) – État stable atteint rapidement 14 Aperçu des autres approches • Logiques qualitatives et non-monotones – Monotone : quand on ajoute un axiome on peut démontrer d’autres théorèmes sans en supprimer. – Non-monotone c’est le contraire. Exemple : les oiseaux volent, donc tel ou tel oiseau vole ; mais pourtant les pingouins qui sont des oiseaux ne volent pas. Idée: changer le moins possible d’axiomes pour réussir à apparier les deux modèles. • Méthodes probabilistes, méthodes bayesiennes – Théorème de Bayes p( Ai | B j ) p( Ai ) p( B j | Ai ) p( B j ) – Approche par méthodes statistiques. On cherche la probabilité a posteriori connaissant celle a priori. 15 Méthodes bayesiennes • Modèle probabiliste le plus ancien et le plus utilisé. • Deux approches différentes : – approche objectiviste (fréquentiste) : distribution de probabilité d'une variable aléatoire – approche subjective : répartition de probabilité image de l'état des connaissances 16 Approche fréquentiste (objective) • étude statistique du phénomène • évaluation de la fréquence d'occurrence d'un événement • exemple : jet de dé le ratio de fréquence d'apparition d'une face est de 1/6 17 Approche subjective • codage de l'état des connaissances • confiance dans l'apparition d'un événement • exemple : Paul apprend à rouler à vélo, il a beaucoup de chances de tomber. 18 Modélisation des erreurs • Basée sur le calcul d'une probabilité • Obtenue : – de façon statistique (fréquentiste) – par apprentissage (fréquentiste) : adaptation – par expertise (subjective) 19 Modélisation de la précision Précision : distribution de probabilité sur l'espace de définition b P([a, b] / d ) p( x / d )dx a p(x/d) probabilité que X [a,b], si la mesure est d. Distribution Gaussienne : moyenne d, variance 2 d X x 20 Modélisation de la confiance • Incertitude : distribution de probabilités sur W – P(H1), P(H2), P(H3), P(H4) • Propriétés : – A 2W, 0 P(A) 1 – P(W) =1 – A, B 2W, P(A B) = P(A) + P(B) si A B= – A, B 2W, P(A) = P(A B) + P(A B) 21 Modélisation de la méconnaissance • Modélisation implicite : répartition de la probabilité sur les différentes hypothèses possibles : A = H1 H2 ; P(A) = 0.6 P(H1) = 0.3 et P(H2) = 0.3 • Exemple : jet de dé P(pile) = P(face) = 0.5 22 Méconnaissance pour probabilités subjectives • Confusion entre équiprobabilité et méconnaissance • Exemple : – Les fantômes existent-ils ? – P(fantôme existe) = P(fantôme n'existe pas) = 0.5 23 Conversion numérique symbolique • modèle de conversion : – statistique : apprentissage supervisé – subjective : modélisation d'une connaissance experte p(d/Hi) distribution de vraisemblance : Hi W , vd (Hi ) = p (d /Hi) Hi x 24 Fusion bayesienne • Utilisable en numérique ou en symbolique • Basée sur l'utilisation du théorème de Bayes p( A / B ) p( B ) p( B / A) p( A) 25 Fusion : modèle - mesure • Information disponible : – distribution de probabilité a priori P(Hi) – distribution de vraisemblance P(d/Hi)=vd(Hi) probabilité a posteriori vd ( x ) p ( x ) p( x / d ) vd ( y ) p ( y ) yW vd ( H i ) P( H i ) P( H i / d ) vd ( H j ) P( H j ) probabilité a priori H j W 26 Fusion : mesure - mesure • Information disponible : – distribution de vraisemblance source 1 : p(d1/Hi)=vd1(Hi) – distribution de vraisemblance source 2 : vraisemblance p(d2/Hi)=v vd1d2((H x).i)vd 2 ( x) vd1,2 ( x) v d 1 ( y )v d 2 ( y ) yW vd 1 ( H i ).vd 2 ( H i ) vd 1, 2 ( H i ) vd 1 ( H j )vd 2 ( H j ) H j W 27 Décision • maximum de probabilité a posteriori (modèlemesure) • maximum de vraisemblance (mesure-mesure) 28 Exemple : jet de dé • ensemble de définition W={F1, F2, F3, F4, F5, F6} • probabilités a priori P(F1)= P(F2)= P(F3)= P(F4)= P(F5)= P(F6) = 1/6 • Capteur 1 : indique le nombre de point au milieu • Capteur 2 : indique le nombre de points sur un coté 29 Capteurs 0 point : F2 , F4 , F6 1 point : F1 , F3 , F5 0 point : F1 1 point : F2, F3 2 points : F4, F5 , F6 3 points : F6 30 Probabilités a priori Probabilités conditionnelles p(point/face) = vpoint(face) p(face) 0 point p(F1)= 1/6 1 point F1 p(0point/F1) = 0 p(1point/F1) = 1 F2 p(0point/F2) = 1 p(1point/F2) = 0 F3 p(0point/F3) = 0 p(1point/F3) = 1 F4 p(0point/F4) = 1 p(1point/F4) = 0 p(F5)= 1/6 F5 p(0point/F5) = 0 p(1point/F5) = 1 p(F6)= 1/6 F6 p(0point/F6) = 1 p(1point/F6) = 0 p(F2)= 1/6 p(F3)= 1/6 p(F4)= 1/6 31 Fusion modèle-mesure Capteur 1 : 1 point p(1 point / Fi ). p( Fi ) 3 / 6 Fi 1 point F1 p(F1/1point ) = p(1point/F1). p(F1) . 2 = 1/3 F3 p(F3/1point ) = p(1point/F3). p(F3) . 2 = 1/3 F5 p(F5/1point ) = p(1point/F5). p(F5) . 2 = 1/3 32