Moindres carrés récursifs et algorithme adaptatif

publicité
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Moindres carrés récursifs et algorithme adaptatif
Département du Traitement du Signal et des Images
Laboratoire de Transmission et de Communication de l’Information-UMR5141
Télécom Paris-Tech
6 mars 2011
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
1
Introduction
2
LMS
3
Moindres Carrés Récursifs (MCR)
4
Estimation Bayésienne
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Introduction
Dans la suite on envisage des systèmes entrée-sortie qui varient
dans le temps.
S’adapter : changer sa structure, ses modes de travail, ses
paramètres pour répondre à des changements d’environnement.
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Exemple : Annulation d’écho acoustique
Figure: Annulation d’écho acoustique
En pratique, les coefficients du “filtre” doivent être modifiés de
façon à suivre les variations du canal acoustique.
En l’absence du signal s(n), le signal en sortie de l’annuleur d’écho
doit être nul.
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Estimation de la moyenne : convergence
On veut estimer la moyenne m = E [x1 ] d’une suite de v.a. xn
supposées i.i.d. On utilise l’estimateur
n
1X
xi
m̂n =
n
i=1
Acquisition/convergence : la loi des grands nombres assure · · ·
Mis sous forme récursive . . . il vient
m̂n = m̂n−1 + µn (xn − m̂n−1 )
où m0 = 0 et où
1
n
Le pas tend vers 0 quand n tend vers l’infini.
µn =
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Estimation de la moyenne : poursuite
On suppose à présent que
E [xn ] =
m1 si n ≤ T
m2 si n > T
Pour n > T , on a m̂n − m2 =
δn =
T
n (m1
− m2 ) + δn où
T
n
1 X
1X
(xi − m1 ) +
(xi − m2 )
n
n
i=1
i=T +1
D’après les hypothèses, δn est centrée. Par conséquent pour n > T
T 2 (m1 − m2 )2
E (m̂n − m2 )2 ≥
n2
Capacité de poursuite · · ·
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Estimation de la moyenne : algorithme à pas constant
Considérons l’algorithme à pas constant :
m̂n = m̂n−1 + µ (xn − m̂n−1 )
où on suppose que xn = m + Zn avec Zn ∼ BB(0, σ 2 ).
On pose n = m̂n − m. Alors
n = (1 − µ) n−1 + µ Zn
Cette équation est celle d’un processus AR-1. On sait qu’elle a une
solution stationnaire ssi |1 − µ| < 1 cad 0 < µ < 2,
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
On montre que la solution stationnaire a pour moyenne :
E [n ] = 0
et, par conséquent, m̂n fluctue autour de la vraie valeur m et que
sa variance s’écrit :
var(n ) =
µ
µ2
σ2 =
σ2
2
1 − (1 − µ)
2−µ
Si µ 2 alors . . .
On doit accepter un compromis entre convergence et capacité de
poursuite.
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Algorithme récursif
Pour prendre en compte d’éventuelles non-stationnarités, on
considère des algorithmes de la forme suivante :
θ̂n = θ̂n−1 + ∆n (e(n))
où ∆n tend vers 0 quand e(n) tend vers 0. On note que cette
forme d’algorithmes ne nécessite ni une opération de minimisation
ni une opération de calcul de moyenne. On souhaite vérifier les
points suivants :
la simplicité d’implémentation
la capacité d’acquisition,
la capacité de poursuite.
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Théorème de projection
On considère un espace de Hilbert H.
Soit x ∈ H et C ⊂ H.
Il existe un unique élément de C, noté (x|C), tel que
∀y ∈ C
kx − (x|C)k ≤ kx − yk
(x|C) vérifie
x − (x|C), ⊥ C,
2
kx − (x|C)k
principe d’orthogonalité
2
= kxk − k(x|C)k2
Soit v ∈ H. Notons = v − (v|C) alors
(x|C ⊕ v) = (x|C) + (x|) = (x|C) +
(x, )
(, )
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Filtre de Wiener
Dans la suite, l’espace
de Hilbert considéré est celui des v.a. de
carré intégrable E |xn |2 < +∞.
On considère une suite d’observations (xn , yn ) stationnaires au
second ordre, centrées et de covariance stationnaire et on cherche
θ = [θ0 , · · · , θP −1 ]T qui minimise
h
i
J(θ) = E |xn − θT y n |2
où y n = [yn , · · · , yn−P +1 ]T . Par conséquent θ vérifie :
xn − θ T y n ⊥ y n
h
i
cad E y n (xn − θT y n )T = 0
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
La solution est le filtre dit de Wiener dont l’expression s’écrit :
h
i−1 h
i
θw = E y n y Tn
E (y n xn )
et
h
i
i h
i−1 h
E (y n xn )
J(θw ) = E |xn |2 − E xn y Tn E y n y Tn
On en déduit :
J(θ) = J(θw ) + (θ − θw )T Ryy (θ − θw )
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Reprenons :
h
i−1 h
i
θw = E y n y Tn
E (y n xn )
(1)
Les problèmes liés au calcul de θw (expression (1)) sont :
Estimation des covariances,
Calcul de l’inverse de matrice,
Absence d’adaptation
Pour répondre à ces différents points, une idée consiste à déduire,
dans un premier temps, un algorithme récursif pour la solution
stationnaire puis de remplacer certaines espérances par des
estimations basées sur les observations passées.
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Algorithme du gradient
Un algorithme récursif classique en optimisation est l’algorithme
dit du gradient. Soit la fonction d’objectif à minimiser
h
h
i
i
T
T
T
2
J(θ) = E |xn | − 2θ E xn y n + θ E y n y n θ
Son gradient s’écrit :
h
i
h
i
∇θ (J) = −2E xn y n + 2E y n y Tn θ
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Algorithme du gradient
L’algorithme du gradient a pour expression :
θn = θn−1 − µ∇h (J), où µ ≥ 0
h
i
= θn−1 + 2µE y n (xn − y Tn θn−1 )
h
i
= (I − 2µE yy T )θn−1 + 2µE y n xn
On montre qu,e si 0 < µ < 2/λmax , la suite θn converge et sa
limite est . . .
(2)
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Algorithme du gradient
1000
500
50
0
40
−150
30
−100
20
10
−50
0
0
−10
50
−20
100
−30
150
−40
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
LMS - Least Mean Squares
L’algorithme LMS, appelé aussi algorithme du gradient
stochastique, consiste à supprimer les espérances dans (2), ce qui
donne :
Valeur initiale : θ0 = [0, · · · , 0]T ,
Répéter :
en = xn − y T θn−1
n
θn = θn−1 + µ en y n
(3)
Le problème de la convergence est un problème difficile dans le cas
général.
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
En pratique, pour fixer la valeur de µ, on adopte souvent la
procédure suivante : on augmente progressivement µ jusqu’à ce
que l’algorithme diverge puis ensuite on réduit la valeur obtenue
d’au moins 10%.
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
LMS normalisé
On a vu que le pas du gradient doit être choisi comme l’inverse de
la plus grande valeur propre. D’où l’idée de prendre, quand le
signal n’est pas stationnaire, un pas variant comme l’inverse de la
puissance “instantanée”.
Valeur initiale : θ0 = [0, · · · , 0]T ,
Répéter :
en = xn − y T θn−1
n
ν
θn = θn−1 +
en y n
δ + yT y
n n
(4)
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Moindres Carrés Récursifs avec facteur d’oubli exponentiel
On reprend l’idée des moindres carrés qui, dans le cas de la
moyenne s’écrit
n
X
min
(xi − m)2
m
i=1
qui donne comme estimateur m̂n = n−1
récursive s’écrit
m̂n = m̂n−1 +
Pn
i=1 xi
1
(xn − m̂n−1 )
n
dont l’expression
(5)
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Moindres Carrés Récursifs avec facteur d’oubli exponentiel
Un inconvénient de l’expression (5) en terme de poursuite est le
gain de la forme 1/n qui tend vers 0 quand n tend vers l’infini.
Pour contourner cette difficulté on introduit un facteur d’oubli sur
les échantillons passés :
min
m
n
X
(xi − m)2 λn−i
avec
0<λ≤1
i=1
qui donne pour λ 6= 1
m̂n = m̂n−1 +
1−λ
(xn − m̂n−1 )
1 − λn
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Moindres Carrés Récursifs avec facteur d’oubli exponentiel
On observe une suite scalaire xn et une suite vectorielle y n de
dimension P . On cherche θo qui minimise
J(θ) =
n
X
λn−i (xi − y Ti θ)2 = kx − Y θk2Λ
i=1
où Y = [y T1 , · · · , y Tn ]T et x = [x1 , · · · , xn ]T .
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Moindres Carrés Récursifs avec facteur d’oubli exponentiel
La solution de la minimisation sur θ vérifie
(x − Y θo ) ⊥ Y
ce qui s’écrit :
θo = (Y T ΛY )−1 Y T Λx
et
J(θo ) = xT Λx − xT ΛY (Y T ΛY )−1 Y T Λx
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
On note à présent la valeur obtenue à l’étape n :
θn = (Y Tn Λn Y n )−1 Y Tn Λn xn
où Y n = [y T1 , · · · , y Tn ]T et xn = [x1 , · · · , xn ]T .
On donne le lemme d’inversion matricielle :
(R + θθT )−1 = R−1 −
R−1 θθT R−1
1 + θT R−1 θ
(6)
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Montrons que pour n = 0 . . . :
Kn+1 =
λ−1 Q y n+1
n
1 + λ−1 y Tn+1 Q y n+1
n
θn+1 = θn + Kn+1 (xn+1 − y Tn+1 θn )
Q
n+1
=λ
−1
Q − (1 +
n
(7)
H
λ−1 y Tn+1 Q y n+1 )Kn+1 Kn+1
n
avec comme conditions initiales Q = IP /δ with δ 1 et θ0 = 0.
0
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Estimation bayesienne
Modèle statistique = famille de mesures de probabilité définies sur
le même espace d’observation :
{X , B(X ), pX|θ (x, θ); θ ∈ Θ}
Un estimateur de θ est une application T : X 7→ Θ.
Dans l’approche bayesienne on suppose que θ est un v.a. et que sa
loi possède une densité
h notée pθ (t).iL’estimateur qui minimise
l’écart quadratique E kθ − θ̂(X)k2 est l’espérance conditionnelle,
qui s’écrit
Z
tpθ|X (t, X)dt
E [θ|X] =
Θ
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Estimateur linéaire, bayesien
Soit une observation X = (x1 , . . . , xn )T et θ ∈ Rp .
On suppose connus les moments jusqu’à l’ordre deux :
E [θ], E [X],
RθX = E (θ − E [θ])(X − E [X])T ,
Rθθ = E (θ − E [θ])(θ − E [θ])T ,
RXX = E (X − E [X])(X − E [X])T .
L’estimateur linéaire de risque quadratique minimum est donné
par :
−1
θ̂(X) = E [θ] + RθX RXX
(X − E [X])
Le risque quadratique minimal est :
−1
R = Rθθ − RθX RXX
RXθ
(8)
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Gauss-Markov bayesien
Soit le modèle d’observation linéaire gaussien défini par
xn = bTn θ + wn ⇒ xn = B n θ + wn
(9)
L’estimateur bayesien est alors donné par (8) qui s’écrit :
θ̂n = E [θ] + Rθθ B Tn (B n Rθθ B Tn + RW W )−1 (xn − B n E [θ]) (10)
−1
−1
−1
−1
= E [θ] + Rθθ
+ B Tn RW
B Tn RW
B
W n
W (xn − B n E [θ])
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
et le risque bayesien
R = Rθθ − Rθθ B Tn (B n Rθθ B Tn + RW W )−1 B n Rθθ
−1
−1
−1
T
=
Rθθ
+ B n RW
B
W n
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Algorithme récursif
Posons :
Bn
xn
RW W,n
0
, B n+1 = T
xn+1 =
, RW W,n+1 =
2
xn+1
0
σn+1
bn+1
−1
−1
et Qn = Rθθ
+ B Tn RW
B
W,n n .
Les solutions obtenues pour l’estimateur aux étapes n et (n + 1)
vérifient :
−1
Qn (θ̂n − E [θ]) = B Tn RW
W,n (xn − B n E [θ])
−1
Qn+1 (θ̂n+1 − E [θ]) = B Tn+1 RW
W (xn+1 − B n+1 E [θ])
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
On vérifie aisément que :
−2
Qn+1 = Qn + σn+1
bn+1 bTn+1
−1
Q−1
n+1 = Qn −
(11)
T
−1
Q−1
n bn+1 bn+1 Qn
2
σn+1
+ bTn+1 Q−1
n bn+1
puis
Qn+1 (θ̂n+1 − θ̂n )
−2
T
=
−(Qn+1 − Qn )(θ̂n − E [θ]) + bn+1 σn+1 (xn+1 − bn+1 E [θ])
=
−σn+1 bn+1 bn+1 (θ̂n − E [θ]) + bn+1 σn+1 (xn+1 − bn+1 E [θ])
=
−2
bn+1 σn+1 (xn+1
−2
−2
T
−
T
bn+1 θ̂n )
T
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
Par conséquent :
θ̂n+1 = θ̂n + Kn+1 (xn+1 − bTn+1 E [θ])
−2
où nous avons posé Kn+1 = Q−1
n+1 bn+1 σn+1 . En utilisant (11) et
en posant Pn = Q−1
n , on en déduit que
Kn+1 =
Pn bn+1
2
σn+1
+ bTn+1 Pn bn+1
où Pn+1 vérifie (11), ce qui donne :
Pn+1 = (I − Kn+1 bTn+1 )P n
Introduction
LMS
Moindres Carrés Récursifs (MCR)
Estimation Bayésienne
En définitif, on a l’algorithme récursif :
Valeurs initiales :
θ̂0 = E [θ]
P0 = Rθθ
Pour n = {0, 1, . . .} répéter :

Pn bn+1

 Kn+1 =


2

σn+1
+ bTn+1 Pn bn+1

θ̂n+1





 Pn+1
A rapprocher de (7).
= θ̂n + Kn+1 (xn+1 − bTn+1 θ̂n )
= (I − Kn+1 bTn+1 )Pn
(12)
Téléchargement