Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Moindres carrés récursifs et algorithme adaptatif Département du Traitement du Signal et des Images Laboratoire de Transmission et de Communication de l’Information-UMR5141 Télécom Paris-Tech 6 mars 2011 Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne 1 Introduction 2 LMS 3 Moindres Carrés Récursifs (MCR) 4 Estimation Bayésienne Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Introduction Dans la suite on envisage des systèmes entrée-sortie qui varient dans le temps. S’adapter : changer sa structure, ses modes de travail, ses paramètres pour répondre à des changements d’environnement. Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Exemple : Annulation d’écho acoustique Figure: Annulation d’écho acoustique En pratique, les coefficients du “filtre” doivent être modifiés de façon à suivre les variations du canal acoustique. En l’absence du signal s(n), le signal en sortie de l’annuleur d’écho doit être nul. Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Estimation de la moyenne : convergence On veut estimer la moyenne m = E [x1 ] d’une suite de v.a. xn supposées i.i.d. On utilise l’estimateur n 1X xi m̂n = n i=1 Acquisition/convergence : la loi des grands nombres assure · · · Mis sous forme récursive . . . il vient m̂n = m̂n−1 + µn (xn − m̂n−1 ) où m0 = 0 et où 1 n Le pas tend vers 0 quand n tend vers l’infini. µn = Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Estimation de la moyenne : poursuite On suppose à présent que E [xn ] = m1 si n ≤ T m2 si n > T Pour n > T , on a m̂n − m2 = δn = T n (m1 − m2 ) + δn où T n 1 X 1X (xi − m1 ) + (xi − m2 ) n n i=1 i=T +1 D’après les hypothèses, δn est centrée. Par conséquent pour n > T T 2 (m1 − m2 )2 E (m̂n − m2 )2 ≥ n2 Capacité de poursuite · · · Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Estimation de la moyenne : algorithme à pas constant Considérons l’algorithme à pas constant : m̂n = m̂n−1 + µ (xn − m̂n−1 ) où on suppose que xn = m + Zn avec Zn ∼ BB(0, σ 2 ). On pose n = m̂n − m. Alors n = (1 − µ) n−1 + µ Zn Cette équation est celle d’un processus AR-1. On sait qu’elle a une solution stationnaire ssi |1 − µ| < 1 cad 0 < µ < 2, Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne On montre que la solution stationnaire a pour moyenne : E [n ] = 0 et, par conséquent, m̂n fluctue autour de la vraie valeur m et que sa variance s’écrit : var(n ) = µ µ2 σ2 = σ2 2 1 − (1 − µ) 2−µ Si µ 2 alors . . . On doit accepter un compromis entre convergence et capacité de poursuite. Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Algorithme récursif Pour prendre en compte d’éventuelles non-stationnarités, on considère des algorithmes de la forme suivante : θ̂n = θ̂n−1 + ∆n (e(n)) où ∆n tend vers 0 quand e(n) tend vers 0. On note que cette forme d’algorithmes ne nécessite ni une opération de minimisation ni une opération de calcul de moyenne. On souhaite vérifier les points suivants : la simplicité d’implémentation la capacité d’acquisition, la capacité de poursuite. Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Théorème de projection On considère un espace de Hilbert H. Soit x ∈ H et C ⊂ H. Il existe un unique élément de C, noté (x|C), tel que ∀y ∈ C kx − (x|C)k ≤ kx − yk (x|C) vérifie x − (x|C), ⊥ C, 2 kx − (x|C)k principe d’orthogonalité 2 = kxk − k(x|C)k2 Soit v ∈ H. Notons = v − (v|C) alors (x|C ⊕ v) = (x|C) + (x|) = (x|C) + (x, ) (, ) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Filtre de Wiener Dans la suite, l’espace de Hilbert considéré est celui des v.a. de carré intégrable E |xn |2 < +∞. On considère une suite d’observations (xn , yn ) stationnaires au second ordre, centrées et de covariance stationnaire et on cherche θ = [θ0 , · · · , θP −1 ]T qui minimise h i J(θ) = E |xn − θT y n |2 où y n = [yn , · · · , yn−P +1 ]T . Par conséquent θ vérifie : xn − θ T y n ⊥ y n h i cad E y n (xn − θT y n )T = 0 Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne La solution est le filtre dit de Wiener dont l’expression s’écrit : h i−1 h i θw = E y n y Tn E (y n xn ) et h i i h i−1 h E (y n xn ) J(θw ) = E |xn |2 − E xn y Tn E y n y Tn On en déduit : J(θ) = J(θw ) + (θ − θw )T Ryy (θ − θw ) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Reprenons : h i−1 h i θw = E y n y Tn E (y n xn ) (1) Les problèmes liés au calcul de θw (expression (1)) sont : Estimation des covariances, Calcul de l’inverse de matrice, Absence d’adaptation Pour répondre à ces différents points, une idée consiste à déduire, dans un premier temps, un algorithme récursif pour la solution stationnaire puis de remplacer certaines espérances par des estimations basées sur les observations passées. Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Algorithme du gradient Un algorithme récursif classique en optimisation est l’algorithme dit du gradient. Soit la fonction d’objectif à minimiser h h i i T T T 2 J(θ) = E |xn | − 2θ E xn y n + θ E y n y n θ Son gradient s’écrit : h i h i ∇θ (J) = −2E xn y n + 2E y n y Tn θ Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Algorithme du gradient L’algorithme du gradient a pour expression : θn = θn−1 − µ∇h (J), où µ ≥ 0 h i = θn−1 + 2µE y n (xn − y Tn θn−1 ) h i = (I − 2µE yy T )θn−1 + 2µE y n xn On montre qu,e si 0 < µ < 2/λmax , la suite θn converge et sa limite est . . . (2) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Algorithme du gradient 1000 500 50 0 40 −150 30 −100 20 10 −50 0 0 −10 50 −20 100 −30 150 −40 Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne LMS - Least Mean Squares L’algorithme LMS, appelé aussi algorithme du gradient stochastique, consiste à supprimer les espérances dans (2), ce qui donne : Valeur initiale : θ0 = [0, · · · , 0]T , Répéter : en = xn − y T θn−1 n θn = θn−1 + µ en y n (3) Le problème de la convergence est un problème difficile dans le cas général. Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne En pratique, pour fixer la valeur de µ, on adopte souvent la procédure suivante : on augmente progressivement µ jusqu’à ce que l’algorithme diverge puis ensuite on réduit la valeur obtenue d’au moins 10%. Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne LMS normalisé On a vu que le pas du gradient doit être choisi comme l’inverse de la plus grande valeur propre. D’où l’idée de prendre, quand le signal n’est pas stationnaire, un pas variant comme l’inverse de la puissance “instantanée”. Valeur initiale : θ0 = [0, · · · , 0]T , Répéter : en = xn − y T θn−1 n ν θn = θn−1 + en y n δ + yT y n n (4) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Moindres Carrés Récursifs avec facteur d’oubli exponentiel On reprend l’idée des moindres carrés qui, dans le cas de la moyenne s’écrit n X min (xi − m)2 m i=1 qui donne comme estimateur m̂n = n−1 récursive s’écrit m̂n = m̂n−1 + Pn i=1 xi 1 (xn − m̂n−1 ) n dont l’expression (5) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Moindres Carrés Récursifs avec facteur d’oubli exponentiel Un inconvénient de l’expression (5) en terme de poursuite est le gain de la forme 1/n qui tend vers 0 quand n tend vers l’infini. Pour contourner cette difficulté on introduit un facteur d’oubli sur les échantillons passés : min m n X (xi − m)2 λn−i avec 0<λ≤1 i=1 qui donne pour λ 6= 1 m̂n = m̂n−1 + 1−λ (xn − m̂n−1 ) 1 − λn Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Moindres Carrés Récursifs avec facteur d’oubli exponentiel On observe une suite scalaire xn et une suite vectorielle y n de dimension P . On cherche θo qui minimise J(θ) = n X λn−i (xi − y Ti θ)2 = kx − Y θk2Λ i=1 où Y = [y T1 , · · · , y Tn ]T et x = [x1 , · · · , xn ]T . Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Moindres Carrés Récursifs avec facteur d’oubli exponentiel La solution de la minimisation sur θ vérifie (x − Y θo ) ⊥ Y ce qui s’écrit : θo = (Y T ΛY )−1 Y T Λx et J(θo ) = xT Λx − xT ΛY (Y T ΛY )−1 Y T Λx Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne On note à présent la valeur obtenue à l’étape n : θn = (Y Tn Λn Y n )−1 Y Tn Λn xn où Y n = [y T1 , · · · , y Tn ]T et xn = [x1 , · · · , xn ]T . On donne le lemme d’inversion matricielle : (R + θθT )−1 = R−1 − R−1 θθT R−1 1 + θT R−1 θ (6) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Montrons que pour n = 0 . . . : Kn+1 = λ−1 Q y n+1 n 1 + λ−1 y Tn+1 Q y n+1 n θn+1 = θn + Kn+1 (xn+1 − y Tn+1 θn ) Q n+1 =λ −1 Q − (1 + n (7) H λ−1 y Tn+1 Q y n+1 )Kn+1 Kn+1 n avec comme conditions initiales Q = IP /δ with δ 1 et θ0 = 0. 0 Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Estimation bayesienne Modèle statistique = famille de mesures de probabilité définies sur le même espace d’observation : {X , B(X ), pX|θ (x, θ); θ ∈ Θ} Un estimateur de θ est une application T : X 7→ Θ. Dans l’approche bayesienne on suppose que θ est un v.a. et que sa loi possède une densité h notée pθ (t).iL’estimateur qui minimise l’écart quadratique E kθ − θ̂(X)k2 est l’espérance conditionnelle, qui s’écrit Z tpθ|X (t, X)dt E [θ|X] = Θ Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Estimateur linéaire, bayesien Soit une observation X = (x1 , . . . , xn )T et θ ∈ Rp . On suppose connus les moments jusqu’à l’ordre deux : E [θ], E [X], RθX = E (θ − E [θ])(X − E [X])T , Rθθ = E (θ − E [θ])(θ − E [θ])T , RXX = E (X − E [X])(X − E [X])T . L’estimateur linéaire de risque quadratique minimum est donné par : −1 θ̂(X) = E [θ] + RθX RXX (X − E [X]) Le risque quadratique minimal est : −1 R = Rθθ − RθX RXX RXθ (8) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Gauss-Markov bayesien Soit le modèle d’observation linéaire gaussien défini par xn = bTn θ + wn ⇒ xn = B n θ + wn (9) L’estimateur bayesien est alors donné par (8) qui s’écrit : θ̂n = E [θ] + Rθθ B Tn (B n Rθθ B Tn + RW W )−1 (xn − B n E [θ]) (10) −1 −1 −1 −1 = E [θ] + Rθθ + B Tn RW B Tn RW B W n W (xn − B n E [θ]) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne et le risque bayesien R = Rθθ − Rθθ B Tn (B n Rθθ B Tn + RW W )−1 B n Rθθ −1 −1 −1 T = Rθθ + B n RW B W n Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Algorithme récursif Posons : Bn xn RW W,n 0 , B n+1 = T xn+1 = , RW W,n+1 = 2 xn+1 0 σn+1 bn+1 −1 −1 et Qn = Rθθ + B Tn RW B W,n n . Les solutions obtenues pour l’estimateur aux étapes n et (n + 1) vérifient : −1 Qn (θ̂n − E [θ]) = B Tn RW W,n (xn − B n E [θ]) −1 Qn+1 (θ̂n+1 − E [θ]) = B Tn+1 RW W (xn+1 − B n+1 E [θ]) Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne On vérifie aisément que : −2 Qn+1 = Qn + σn+1 bn+1 bTn+1 −1 Q−1 n+1 = Qn − (11) T −1 Q−1 n bn+1 bn+1 Qn 2 σn+1 + bTn+1 Q−1 n bn+1 puis Qn+1 (θ̂n+1 − θ̂n ) −2 T = −(Qn+1 − Qn )(θ̂n − E [θ]) + bn+1 σn+1 (xn+1 − bn+1 E [θ]) = −σn+1 bn+1 bn+1 (θ̂n − E [θ]) + bn+1 σn+1 (xn+1 − bn+1 E [θ]) = −2 bn+1 σn+1 (xn+1 −2 −2 T − T bn+1 θ̂n ) T Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne Par conséquent : θ̂n+1 = θ̂n + Kn+1 (xn+1 − bTn+1 E [θ]) −2 où nous avons posé Kn+1 = Q−1 n+1 bn+1 σn+1 . En utilisant (11) et en posant Pn = Q−1 n , on en déduit que Kn+1 = Pn bn+1 2 σn+1 + bTn+1 Pn bn+1 où Pn+1 vérifie (11), ce qui donne : Pn+1 = (I − Kn+1 bTn+1 )P n Introduction LMS Moindres Carrés Récursifs (MCR) Estimation Bayésienne En définitif, on a l’algorithme récursif : Valeurs initiales : θ̂0 = E [θ] P0 = Rθθ Pour n = {0, 1, . . .} répéter : Pn bn+1 Kn+1 = 2 σn+1 + bTn+1 Pn bn+1 θ̂n+1 Pn+1 A rapprocher de (7). = θ̂n + Kn+1 (xn+1 − bTn+1 θ̂n ) = (I − Kn+1 bTn+1 )Pn (12)