Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement: Fusion d’information, dynamique et filtrage Manuel Samuelides, Professeur à l’ISAE [email protected] Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Plan de l’exposé Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Objectifs de l’exposé Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Objectifs de l’exposé Objectifs de l’exposé Le conditionnement est consubstantiel aux probabilités. Historiquement, les probabilités se construisent au XVII par multiplication et symétrie (Pascal) et seulement au XVIII par addition (Bernoulli) L’étude dynamique des probabilités se développe à la fin du XIX (dynamique des populations (Galton), finance (Bachelier), analyse de texte (Markov). La statistique de Bayes assure la fusion d’information hypothèse/mesure, passé/présent. Sa compréhension est fondamentale L’étude des chaînes de Markov finies utilise comme outil l’algèbre linéaire et permet une approche de problèmes complexes (temps d’arrêt) L’étude des processus gaussiens fournit les bases de la théorie du signal analogique et de l’automatique (filtrage) Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Conditionnement par une VAR de loi discrète Définition Soit (Ω, P) un espace de probabilité et X une var discrète prenant les valeurs (xi ) avec la loi PX (xi ) = P(X = xi ) = pi . On appelle probabilité conditionnelle la probabilité notée =xi )) P(. | X = xi ) définie par P(A | X = xi ) = P(A∩(X P(X =xi ) Théorème Le théorème de recomposition permet de reconstruire la probabilité globale à partir de toutes les probabilités conditionnelles et de la loi du facteur conditionnant P P(A) = Pi P(A | X = xi )P(X = xi ) E(Y ) = i E(Y | X = xi )P(X = xi ) Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Exemple de la loi de Poisson Soit (X , Y ) deux lois de Poisson indépendantes de paramètres λ et µ. La loi de S = X + Y est une loi de Poisson de paramètre λ + µ. La loi de X | S = s est une loi binomiale de paramètre λ ) (s, λ+µ Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Exemple des temps d’arrivée Soit Y1 =, Y2 , ..., Yn , ... les intertemps de passage à une station à partir du temps 0 d’une ligne d’autobus. Ces variables sont indépendantes de densité exponentielle y → e−y sur R+ . Quelle est la loi de Y1 , le temps de première arrivée conditionnée par le fait que le nombre N d’arrivées de 0 à 1 est égal à 1 ? Preuve P(Y1 ≤ a | (Y1 ≤ 1) ∩ (Y1 + Y2 ≥ 1) = ae−1 /e−1 = a Le temps de première arrivée suit une loi uniforme sur [0,1] Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Conditionnement d’une loi conjointe Soit (X , Y ) un vecteur aléatoire de loi conjointe de densité (x, y ) → f (x, y ) R La loi de X a pour densité x → f (x, y )dx La loi conditionnelle de Y | X = x a pour densité (x,y ) y → R ff(x,η)dη Justification intuitive: P(y ≤ Y ≤ y + ∆y | x ≤ X ≤ x + ∆x Justification correcte par la recomposition: R P(Y ∈ A) = P(Y ∈ A | X = x)dPX (x) m R E(Y ) = E(Y | X = x)dPX (x) Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Retour sur les temps d’arrivée Problème On a vu le cas de Y1 =, Y2 , ..., Yn , ...intertemps de passage indépendants de densité exponentielle y → e−y sur R+ . Quelle est la loi de Y1 conditionnée par S = Y1 + Y2 ? La densité conjointe de (Y1 , S) est (y , s) → e−s 10≤y ≤s La densité de S est s → se−s ds La densité de Y1 | S = s est la loi uniforme sur [0, s] Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Principes de la statistique bayésienne 1 Considérer le paramètre inconnu θ comme une VA Θ dotée d’une loi a priori dπ(θ) à choisir au mieux. 2 Interprêter la densité paramétrique de l’échantillon de mesures x = (x1 , ..., xn ) → L(x | θ) = h(x1 | θ)...h(xn , θ) comme la densité conditionnelle de l’échantillon si Θ = θ, 3 Calculer la vraisemblance a posteriori L(θ | x) du paramètre θ en calculant la loi de Θ conditionnée par les mesures. 4 Si on a choisi l’estimateur MAP (maximum a posteriori) maximiser en θ L(θ | x) en fonction de x. 5 A l’étape 3, dans le calcul de la loi conditionnelle du paramètre, l’obtention explicite de la marginale de l’échantillon n’est pas nécessaire Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Conditionnement par une variable discrète Le cas à densité Statistique bayésienne Exemple du taux de panne 1 Considérer le paramètre inconnu θ comme une VA Θ dotée d’une loi a priori dπ(θ) à choisir au mieux. 2 Interprêter la densité paramétrique de l’échantillon de mesures x = (x1 , ..., xn ) → L(x | θ) = h(x1 | θ)...h(xn , θ) comme la densité conditionnelle de l’échantillon si Θ = θ, 3 Calculer la vraisemblance a posteriori L(θ | x) du paramètre θ en calculant la loi de Θ conditionnée par les mesures. 4 Si on a choisi l’estimateur MAP (maximum a posteriori) maximiser en θ L(θ | x) en fonction de x. 5 A l’étape 3, dans le calcul de la loi conditionnelle du paramètre, l’obtention explicite de la marginale de l’échantillon n’est pas nécessaire Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Définition d’un processus markovien Définition Un processus stochastique (Xt ), t ∈ T est dit de Markov si ∀tn < ... < t1 < t < t + s1 < .... < t + sp , P(Xt+s1 ∈ A1 ....Xt+sp ∈ Ap | Xtn = xtn , ..., Xt1 = xt1 , Xt = x) = P(Xt+s1 ∈ A1 ....Xt+sp ∈ Ap | Xt = x) "L’état présent donne toutes les informations passées sur le futur, le processus est sans mémoire" espace d’états discret espace d’états continu temps discret réseau, arbres Kalman, filtre Manuel Samuelides, Professeur à l’ISAE [email protected]: temps continu Poisson,fiabilité diffusion,finance Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Génération d’une trajectoire Théorème Soit (Xt )t∈N une chaîne de Markov à valeurs dans un espace d’états dénombrable E. On a P(X0 = x0 , ..., Xs = xs ) = s Y P(Xt = xt | Xt−1 = xt−1 )∗P(X0 = x0 ) t=1 Preuve Se démontre très facilement par récurrence sur s. Très naturel: La probabilité d’un chemin est le produit de la probabilité de l’origine par celle des arcs orientés composant le chemin. Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Chaîne homogène Définition Une chaîne de Markov (à temps discret) est dite homogène en temps quand la transition du temps t au temps t + 1 est indépendante du temps t Si la chaîne est homogène, la loi du processu est complètement définie par la loi de l’état initial et la probabilité de transiton Si l’espace d’états est fini, la loi d’un état au temps Pt est un vecteur stochastique p = (pi ) tel que ∀i, 0 ≤ pi et i pi = 1 On note P l’ensemble des vecteurs stochastiques sur E La loi de transition est donnée par une matrice stochastique π = (πij ) tel que ∀i, pi = (πi. ) ∈ P Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Exemple d’une cartographie Matrice de transition: 0 0.5 0.5 0 0.2 0 0 0.8 π= 0.8 0 0 0.2 1 0 0 0 Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Exemple d’une marche à barrières réfléchissantes Matrice de transition: 0 1 0 0 1−p 0 p 0 π= 0 1−p 0 p 0 0 1 0 Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Exemple de l’urne d’Ehrenfest (1907) Ce modèle a été proposé en 1907 pour modéliser la diffusion des gaz. Le nombre de particules d’une urne modélise la pression. Une population de n particules est divisée en deux urnes. A chaque instant, une particule est tirée au hasard et passe dans l’autre urne. L’état Xt est le nombre de particules dans une urne au temps t il peut prendre toutes les valeurs entières compris entre 0 et n. La transition est donnée par P(Xt = k + 1 | Xt = k ) = n−k n P(Xt = k − 1 | Xt = k ) = kn Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Régime stationnaire Définition On appelle loi stationnaire d’une chaîne de Markov à valeurs dans E une loi de probabilité sur E invariante par la transition Théorème Toute chaîne de Markov sur un espace d’états finis admet au moins un régime stationnaire p̃ (vecteur ligne propre de la matrice de transition π pour la valeur propre 1) p̃π = p̃ Contre-exemple Une marche aléatoire sur Z ou N n’admet pas de loi stationnaire. Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Exemple de la cartographie Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Exemple de la marche à barrières réfléchissantes p̃ = (1 − p)2 1−p p(1 − p) p2 , , , 2 − 2p + p2 2 − 2p + p2 2 − 2p + p2 2 − 2p + p2 Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Exemple de l’urne d’Ehrenfest On a p̃k = n−kn+1 p̃k −1 + k +1 n p̃k +1 n! On en déduit p̃k = k !(n−k )! 21n La loi invariante est une loi binomiale de paramètres (n, 12 ) Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Propriétés spectrales de la matrice de transition Toute matrice stochastique admet 1 comme valeur propre Le rayon spectral d’une matrice stochastique est égal à 1 MAIS1 n’est pas nécessairement valeur propre simple (pas d’unicité de la loi invariante), MAISil peut y avoir d’autres valeurs propres de module 1 (périodicité: Tous nos exemples étaient périodiques de période 2) Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Définition d’un processus markovien Génération des trajectoires (état et temps discrets) Etude asymptotique Chaîne ergodique Théorème Si 1 est valeur propre simple de P, et si toutes les valeurs propres de P autres que 1 sont de module strictement inférieur à 1, alors la suite de matrice π n converge vers une matrice dont toutes les lignes sont égales à un vecteur stochastique p̃. p̃ est la loi invariante de la chaîne. Quelle que soit la position initiale, la loi de Xt tend vers p̃ quand t → ∞ La chaîne de Markov vérifie la loi des grands nombres Z 1 (f (X1 ) + ... + f (Xt )) → f (k )d p̃(k ) t On dit que (Xt ) est ergodique. Pour casser la périodicité dans nos exemples, introduire une petite probabilité de piétiner ! Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Modèle gaussien Filtrage de Kalman Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Modèle gaussien Filtrage de Kalman Modèle gaussien Définition Un processus gaussien (Xt ) est un processus aléatoire à valeurs dans Rd tel que pour tout (t1 , ..., tn ) le vecteur aléatoire (Xt1 , ..., Xtn )est gaussien. Un processus gaussien est complètement défini par la donnée de la fonction moyenne t → m(t) = E(Xt ) et du noyau de covariance (s, t) → k (s, t) = Cov(Xs , Xt ) On rappelle que la loi d’un vecteur gaussien est stable par transformation linéaire et que la régression linéaire est l’espérance conditionnelle. Son résidu est indépendant du facteur conditionnant. Si le processus est stationnaire centré, sa loi est complètement définie par la fonction de covariance k (t) = Cov(Xs , Xs+t ) Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Modèle gaussien Filtrage de Kalman Outline Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Modèle gaussien Filtrage de Kalman Estimation de la position d’un mobile Problème On considére un mobile suivant une trajectoire aléatoire modélisée à temps discret par: ~ t+1 , V ~ t ∼ N (0, I) ~t + m ~ 0 = 0, X ~ t+1 = At+1 X ~ t+1 + Bt+1 V X ~ t totalement ou partiellement A chaque instant t on mesure X avec un bruit de mesure gaussien. Le résultat de la mesure est donc ~ t = Ct Xt + Dt W ~ t, W ~ t ∼ N (0, I) Y Estimer au mieux Xt en tenant compte de la suite de mesures Y1 , ..., Yt . On notera le caractère linéaire du modèle qui peut ne pas être réaliste même s’il est non stationnaire Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Modèle gaussien Filtrage de Kalman Stratégie générale ~ 1 , ..., X ~t, Y ~ 1 , ..., Y ~ t ) sont gaussiens. On Les vecteurs (X ~ ~ 1 , ..., Y ~ t+1 ) cherche à calculer X̂t+1 = E(Xt+1 | Y Le calcul sera récursif. On utilisera le principe de disjonction: ~ t+1 | Y ~ 1 , ..., Y ~ t )+E(X ~ t+1 | Y ~ t+1 −E(Y ~ t+1 | Y ~ 1 , ..., Y ~ t )) X̂t+1 = E(X On appelle innovation ~ t+1 = Y ~ t+1 − E(Y ~ t+1 | Y ~ 1 , ..., Y ~t) Z On débute une itération par une étape de prédiction consistant à prédire ce qui se passe au temps t + 1 en ~ 1 , ..., Y ~ t ) (passé en fonction des mesures passées Ft = σ(Y t) Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Modèle gaussien Filtrage de Kalman Etape de prédiction ~ t+1 on a ~t + m ~ t+1 = At+1 X ~ t+1 + Bt+1 V Comme X ~ ~ t+1 X̃t+1 = E(Xt+1 | Ft ) = At+1 X̂t + m ~ t = Ct X ~ t + Dt W ~ t , donne la prédiction de la De même Y ~ ~ t+1 ) mesure Ỹt+1 = E(Yt+1 | Ft ) = Ct+1 (At+1 X̂t + m On peut maintenant calculer l’innovation au temps t + 1: ~ t+1 = Y ~ t+1 − Ct+1 (At+1 X̂t + m ~ t+1 ) Z ~ t+1 | Z ~ t+1 ) Il reste à calculer l’apport de l’innovation soit E(X ~ t+1 − E(X ~ t+1 ) | Z ~ t+1 ) ~ t+1 | Ft ) + E(X et X̂t+1 = E(X ~ X̂t+1 = X̃t+1 + Kt+1 Zt+1 Kt+1 s’appelle le gain de Kalman Manuel Samuelides, Professeur à l’ISAE [email protected]: Introduction Conditionnement et fusion d’information Dynamiques et représentations markoviennes Filtrage linéaire des processus gaussiens Modèle gaussien Filtrage de Kalman Calcul du gain de Kalman On note Qt = Bt Bt∗ et Rt = Dt Dt∗ les covariances respectives des bruits d’état et de mesure. ~ t − X̂t ) de l’estimation en t. Soit la covariance Pt = Cov(X La covariance de l’erreur de prédiction au temps t + 1 est ~ t+1 − X̃t+1 ) = At+1 Pt A∗ + Qt+1 P̃t+1 = Cov(X t+1 La covariance de l’innovation au temps t + 1 est ~ t+1 ) = Ct+1 P̃t+1 C ∗ + Rt+1 St+1 = Cov(Z t+1 ~ t+1 , Z ~ t+1 ) = Cov(X ~ t+1 , Ct+1 (X ~ t+1 − X̃t+1 + Dt+1 Wt+1 ) Cov(X ∗ ∗ S −1 ~ ~ Cov(Xt+1 , Zt+1 ) = P̃t+1 Ct+1 ⇒ Kt+1 = P̃t+1 Ct+1 t+1 Reste pour reboucler la mise à jour de la covariance de l’estimation pour le gain optimal: ~ t+1 − X̃t+1 ) − Kt+1 Z ~ t+1 ] Pt+1 = Cov[(X ~ t+1 − X̃t+1 ) − Kt+1 Cov(Z ~ t+1 , X ~ t+1 − X̃t+1 ) Pt+1 = Cov(X Pt+1 = (I − Kt+1 Ct+1 )P̃t+1 Manuel Samuelides, Professeur à l’ISAE [email protected]: