Estimation de phase d`un signal d`otoémission

publicité
Rapport de Stage
Eectué de Mai à Aout 2007
par
Leire Azpilicueta et Pascal Vallet
Estimation de phase d'un signal d'otoémission pour un
procédé de diagnostic de la maladie de Menière
Chevreuil
Bercher
Tuteur UMLV
Antoine
Tuteur ESIEE
Jean-François
Page 2
2
Table des matières
Remerciements
7
Notations
9
Introduction
11
I Généralités sur le projet Dreamm
13
1 Cadre médical et présentation du projet
15
1.1
Constitution de l'oreille humaine
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
1.2
Otoémission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.3
La maladie de Menière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.4
Base scientique du projet DREAMM
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.5
Objectif du stage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
2 Concepts techniques
19
2.1
Chaîne d'acquisition
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.2
Test du dispositif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
II Estimation de phase par maximum de vraisemblance
21
3 Notions utiles
23
3.1
3.2
Rappels sur l'estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
3.1.1
Maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
3.1.2
Performance d'un estimateur
23
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rappels sur la convergence des variables aléatoires
. . . . . . . . . . . . . . . . . . . . . . . . . .
4 Estimation de phase par maximum de vraisemblance
25
31
4.1
Modèle d'observation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
4.2
Estimateur optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
4.2.1
Cas d'un bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
4.2.2
Biais de l'estimateur optimal en Arctangente
. . . . . . . . . . . . . . . . . . . . . . . . .
33
4.2.3
Cas d'un bruit coloré (cas général) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
4.2.4
Conclusion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
Estimateur sous-optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
4.3.1
Cas d'un bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
4.3.2
Biais de l'estimateur sous-optimal en Arctangente
. . . . . . . . . . . . . . . . . . . . . .
36
4.3.3
Diérence entre les 2 estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
4.3
3
Page 4
TABLE DES MATIÈRES
4.3.4
Biais de l'estimateur sous-optimal en Arccosinus
. . . . . . . . . . . . . . . . . . . . . . .
40
4.3.5
Cas d'un bruit corrélé (cas général) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
4.4
Borne de Cramer-Rao
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
4.5
Comparaison avec un signal en enveloppe complexe . . . . . . . . . . . . . . . . . . . . . . . . . .
46
III Estimation de phase par ltrage adaptatif
49
5 Notions de ltrage adaptatif
51
5.1
5.2
Filtres à minimisation MSE et LSE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
5.1.1
Filtrage de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
5.1.2
Descente de gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
5.1.3
Algorithme du gradient stochastique LMS (Least Mean Square) . . . . . . . . . . . . . . .
52
5.1.4
Algorithme des moindres carrés récursifs RLS (Recursive Least Square)
. . . . . . . . . .
53
Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
5.2.1
Filtrage de Kalman linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
5.2.2
Filtrage de Kalman étendu (EKF)
56
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6 Estimation de phase par ltrage LMS et RLS
6.1
6.2
6.3
59
6.1.1
Modèle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
6.1.2
Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
Estimation par le RLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
6.2.1
Modèle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
6.2.2
Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
Conclusion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7 Estimation de phase par ltrage de Kalman
7.1
7.2
7.3
59
Estimation par le LMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
63
Filtrage étendu classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
7.1.1
Modèle
63
7.1.2
Algorithme
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
7.1.3
Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
7.1.4
Conclusion
65
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Filtrage avec modélisation cartésienne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
7.2.1
Modèle
7.2.2
Algorithme
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
7.2.3
Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
Filtrage avec soustraction de bruit
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
7.3.1
Le modèle et les équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
7.3.2
L'algorithme
69
7.3.3
Correction du modèle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
7.3.4
Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
7.3.5
Conclusion
71
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
IV Estimation de phase par méthode bayésienne
73
8 Notions utiles
75
8.1
Estimation bayésienne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2
Rappels de dérivation vectorielle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
75
76
TABLE DES MATIÈRES
Page 5
9 Estimation de phase par méthode bayésienne
9.1
9.2
Calcul de l'estimateur
77
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
9.1.1
Résolution directe croisée (algorithme bloc) . . . . . . . . . . . . . . . . . . . . . . . . . .
79
9.1.2
Résolution par un ltrage RLS (algorithme temps réel)
. . . . . . . . . . . . . . . . . . .
79
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
9.2.1
Biais et variance de l'algorithme bloc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
9.2.2
Algorithme RLS MAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
Simulations
Résumé des algorithmes étudiés
Algorithmes blocs
85
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
Algorithmes temps réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
Conclusion
87
Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
Apport du stage et gestion de projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
Gestion de projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
Table des gures
89
5
Page 6
TABLE DES MATIÈRES
6
Remerciements
Nous tenons particulèrement à remercier Messieurs Antoine Chevreuil (UMLV) et Jean-François Bercher
(ESIEE), pour leur disponibilité exemplaire, leurs qualités humaines ainsi que leurs compétences en signal, sans
lesquelles beaucoup de résultats n'auraient pas vu le jour.
Nous remercions également Messieurs Lilian Buzer (ESIEE) et Paul Avan (INSERM) pour nous avoir accordé
du temps pour des questions.
7
Page 8
8
Notations
Voici les principales notations utilisées dans ce rapport et leur signication.
E [.]
Pr (.)
B (.)
Var [.]
Cov [.]
diag (.)
k.k2
x
x
det
Espérance
Probabilité
Biais
Variance
Covariance
Opérateur diagonal
Norme 2 d'un vecteur
scalaire
vecteur
Opérateur déterminant
9
Page 10
10
Introduction
Ce stage s'est déroulé à l'Université de Marne-la-Vallée sous la tutelle de M. Antoine Chevreuil et M. JeanFrançois Bercher, et a été rémunéré par le projet Dreamm.
Le travail de ce stage porte sur l'estimation de la phase à l'origine de signaux acoustiques renvoyés par
l'oreille suite à une excitation sonore par certaines fréquences.
La première partie de ce rapport présente le projet Dreamm, et les bases scientiques qui soutiennent sa
réalisation. Des concepts médicaux sont introduits, ainsi que des notions techniques concernant le dispositif
électronique mis au point par des stages et projets scolaires précédents. Les tests et les conclusions sur le matériel
sont explicités.
La seconde partie, rentre dans le coeur du stage. Elle introduit l'estimation par maximum de vraisemblance
et présente les estimateurs mis au point sous forme d'algorithmes blocs. Leurs performances statistiques sont
également étudiées, plus particulièrement le biais et la variance.
La troisième partie présente l'estimation de phase par ltrage adaptatif, les travaux eectués sur les algorithmes temps réel. Des tests sur leurs performances ont été réalisés, mettant en évidence leur capacité de
poursuite lors de sauts de phase, leur vitesse de convergence ainsi que l'erreur uctuante.
La quatrième et dernière partie de ce rapport concerne l'estimation bayésienne, où l'on considère la phase
aléatoire et l'on pose des à priori sur les paramètres inconnus. Un algorithme bloc et temps réel ont été développés, et leurs performances sont étudiées et comparées aux résultats obtenus dans les parties précédentes.
Les parties calculatoires (2,3 et 4) commencent par un chapitre de rappels des notions utiles pour la compréhension des calculs réalisés par la suite. Dans un intérêt pédagogique, les nouvelles notions découvertes pendant
ce stage ont toutes été démontrées.
11
Page 12
12
Première partie
Généralités sur le projet Dreamm
13
Chapitre 1
Cadre médical et présentation du projet
1.1 Constitution de l'oreille humaine
L'oreille est constituée de 3 parties.
L'oreille externe, composée du pavillon et du conduit auditif, a pour rôle de capter et d'acheminer les ondes
sonores vers l'oreille moyenne.
L'oreille moyenne, composée principalement du tympan, de petits os et de la trompe d'Eustache. Les ondes
sonores acheminées par le conduit auditif parviennent au tympan et font vibrer celui-ci. Les os (le marteau,
l'enclume et l'étrier) transmettent les mouvements du tympan à l'oreille interne. La trompe d'Eustache a une
fonction de protection (équilibre de la pression interne de l'oreille, bouclier contre des agents pathogènes).
La dernière partie, l'oreille interne, est un milieu liquide constitué de l'élément principal de l'ouie, la cochlée,
et du vestibule. La cochlée est elle-même constituée de cellules cilées internes et externes. Les cellules externes
sont mises en mouvement lors de l'arrivée d'un son et ont pour rôle d'amplier ce dernier. Les cellules cilées
internes ont pour rôle de transmettre des messages électriques au cerveau en étant reliées aux bres nerveuses.
Elles assurent donc la traduction de l'onde acoustique en onde électrique, cette dernière étant acheminée via le
nerf auditif. Elles ont ainsi un rôle de transduction électromécanique.
Le vestibule a quant à lui un rôle dans l'équilibre de l'individu, en détectant l'accélération et la position
angulaire de la tête (exemple des sensations perçues dans les oreilles lors d'un mouvement de balancier de la
tête).
Fig. 1.1 Composition de l'oreille humaine
15
Page 16
CHAPITRE 1. CADRE MÉDICAL ET PRÉSENTATION DU PROJET
1.2 Otoémission
L'oreille interne a une propriété particulière en plus de sa fonction de "reconnaissance des sons" ; en eet,
si elle est excitée par des stimulis acoustiques, elle peut elle-même générer des ondes acoustiques. C'est le
phénomène d'otoémission essentiellement mis en en avant par les travaux de Kemp [1].L'otoémission provient
des cellules cilées externes, qui, en entrant en vibration, produisent leurs propres ondes acoustiques.
Des expériences ont été faites en envoyant 2 ondes sinusoidales de fréquences proches
f1
et
f2
(
f1 < f2
). Les
résultats ont montré que l'oreille se comporte comme un dispositif non linéaire en renvoyant les fréquences pures
plus des harmoniques et des produits d'intermodulation. Ces derniers sont appelés DPOAE (Distortion Product
OtoAcoustic Emission) et sont des combinaisons linéaires des fréquences d'entrée
montré que des résultats optimaux sont obtenus pour
f1
et
f2 .
Il a été également
f2 ≈ 1.2f1 .
On considère également qu'un individu avec une bonne santé auditive renvoie les DPOAE a un certain niveau
de décibel (de l'ordre de 15 dB pour un niveau de 70 dB pour les stimulis).
1.3 La maladie de Menière
La maladie de Menière est décrite comme un trouble de l'oreille interne entraînant des symptômes comme
le vertige, le déséquilibre et ou l'acouphène. Sa première description a été publiée par Prosper Menière en 1861.
Aujourd'hui elle touche plus de 600000 individus aux Etats-Unis et plus de 100000 en France. Elle est présente
typiquement chez des individus agées entre 20 et 50 ans et 5000 nouveaux cas sont recensés chaque année en
France.
Les causes de cette maladie sont encore inconnues, mais celle-ci s'accompagne d'une augmentation de la pression
liquidienne dans l'oreille interne, la
Pression Intra-Labyrinthique (PIL).Les
recherches n'ont pas encore
montré s'il s'agit d'une cause ou d'une conséquence de la maladie.
1.4 Base scientique du projet DREAMM
Le projet DREAMM (Diagnostic Rapide Et Automatisé de la Maladie de Ménière) a pour but de mettre
au point une nouvelle méthode non invasive (ne nécessitant pas d'interventions chirurgicales) de diagnostic de
la maladie de Menière, et qui permet également de mesurer la PIL dans l'oreille interne grâce au phénomène
d'otoémission.
La base scientique du projet repose donc sur le lien entre la PIL et l'otoémission. Celui-ci s'établit par l'un
des petits os de l'oreille moyenne, l'étrier, qui assure un lien avec l'oreille interne. Lorsqu'une onde acoustique
traverse l'étrier en direction de l'oreille interne, celle-ci subit un déphasage. Or la PIL agit également sur ce
déphasage, car elle inue sur la rigidité de l'interface oreille interne/oreille moyenne. Ce déphasage est également
présent dans le signal DPOAE émis par l'oreille interne.
En étant transmis à l'oreille moyenne, le signal DPOAE subit à son tour un déphasage. Il est ainsi récupéré
grâce à un microphone placé dans le conduit auditif et traité par un dispositif électronique.
Plusieurs études ont montré que le signal DPOAE n'est pas exploitable chez tous les sujets, c'est pourquoi une
2ème méthode de mesure a été mise aux point. Elle consiste à récupérer le signal électrique émis par les cellules
sensorielles transductrices, suite à l'excitation de l'oreille par des stimulis sinusoidaux. Des électrodes sont ainsi
placées sur le crâne et permettent donc de récupérer cette information électrique qui n'aura donc subit qu'un
déphasage.
1.5 Objectif du stage
La diculté du projet réside dans la mesure du déphasage avec une certaine précision. En eet, le signal
d'otoémission récupéré est noyé dans le bruit, ce dernier pouvant provenir de l'intérieur de l'oreille ou de
l'extérieur.
16
RÉFÉRENCES
Page 17
Les bruits internes à l'oreille peuvent provenir du frottement du bouchon contre le pavillon, de la contraction
des muscles de la machoire (mastication), ainsi que de la circulation sanguine (carotide).
Les bruits externes concernent l'environnement dans lequel les mesures sont réalisées. S'il s'agit d'une ambulance, on peut avoir à faire à des bruits de sirènes, des cris.
L'objectif de ce stage est de réaliser une estimation du déphasage du signal DPOAE par des méthodes de
traitement de signaux. Ceci passe donc par la mise au point d'un modèle pour les signaux, le bruit, ainsi que la
réalisation d'algorithmes ecaces garantissant une erreur d'estimation raisonnable.
Références
[1] Annie Moulin and David T. Kemp. Multicomponent acoustic distortion product otoacoustic emission phase
in humans. II. Implications for distortion product otoacoustic emissions generation.
J. Acoust. Soc. Am.,
100 :16401662, 1996.
[2] OAE.
Site d'information sur la recherche en otoémission acoustique.
index_1024.html.
[3] Wikipedia.
http://www.otoemissions.org/
Recueil d'articles sur la composition et le fonctionnement de l'oreille humaine.
wikipedia.org/wiki/Category:Auditory_system.
17
http://en.
Page 18
CHAPITRE 1. CADRE MÉDICAL ET PRÉSENTATION DU PROJET
18
Chapitre 2
Concepts techniques
Un dispositif électronique/informatique a été mis en place, au travers de stage et de projets précédents. Il
demeure bien sûr encore à l'état expérimental, mais la compréhension du fonctionnement du dispositif a motivé
la mise au points des algorithmes et de leurs simulations.
2.1 Chaîne d'acquisition
Toute chaîne d'acquisition dispose en premier étage d'un capteur. Ici, nous avons un microphone de type
oreillette, susamment petit pour rentrer dans un conduit auditif. Ce dernier est associé avec des hauts-parleurs,
qui permettent d'envoyer le signal acoustique d'excitation. Le signal issu du microphone contient les 2 sinusoïdes
d'excitation de fréquence 1000 Hz et 1200 Hz, et un signal d'otoémission de fréquence 800 Hz. Il est possible de
récupérer également un bruit d'alimentation à 50 Hz. Pour ne conserver que l'otoémission, un ltre analogique
actif avec réponse de type Cauer d'ordre 8 (voir gure 2.2) vient en 2ème étage de la chaîne. Le 3ème étage,
constitué d'un amplicateur à gain programmable (PGA), amplie le signal de 10 dB à 65 dB. Les étages
suivants concernent la numérisation du signal, à l'aide d'un convertisseur analogique-numérique, et un circuit
programmable type FPGA, permettant la synchronisation des horloges et la communication des mesures à un
ordinateur. La chaîne complète est présentée en gure 2.1.
Fig. 2.1 Chaîne d'acquisition du signal d'otoémission
Fig. 2.2 Réponse du ltre de la chaîne d'acquisition
19
Page 20
CHAPITRE 2. CONCEPTS TECHNIQUES
2.2 Test du dispositif
Durant le stage, nous avons eu en main pendant quelques semaines le dispositif et nous avons pu tester les
performances. Il est composé d'un mini-pc, contenant un disque dur et une carte d'acquisition, interface entre le
boitier électronique et le mini-pc. L'échantillonnage est de 200 kHz. Un programme LabView permet d'acher
en temps réel les mesures eectées.
Malheureusement, il s'est avéré que les mesures réalisées contenaient une fréquence à 800 Hz qui n'était
pas de l'otoémission. En eet, nous avons mis en évidence un phénomène de saturation pouvant provenir des
diérents éléments actifs de la chaîne, plus particulièrement du micro et des amplicateurs. L'estimation de
phase de l'otoémission devient évidemment impossible si un signal de même fréquence se superpose, donc nous
n'avons pas pu tester les algorithmes sur les relevés du dernier dispositif.
20
Deuxième partie
Estimation de phase par maximum de
vraisemblance
21
Chapitre 3
Notions utiles
3.1 Rappels sur l'estimation
Le principe de l'estimation consiste à estimer la valeur des paramètres d'un modèle à partir de mesures,
qu'on note
y(n)
pour la mesure à l'instant
n,
ou
YN −1
= [y(0) . . . y(N − 1)]T ,
un vecteur regroupant les
N
premières mesures.
Ces mesures sont donc fonction d'un paramètre
forme d'un vecteur
Θ,
si le modèle le permet. On a
θ
ou de plusieurs paramètres que l'on peut regrouper sous la
Y = h (Θ). La fonction h est appelé fonction d'observation.
3.1.1 Maximum de vraisemblance
L'idée de l'estimation par maximum de vraisemblance (MV) est de considérer le paramètre global
Θ comme
déterministe. La suite consiste nalement à maximiser la fonction de vraisemblance, soit la probabilité des
mesures sachant le paramètre.
Θ̂ = max Pr (Y|Θ)
Θ
(3.1)
On cherche donc la valeur des paramètres qui rendra le modèle le plus cohérent possible avec les mesures.
On utilise classiquement le log vraisemblance, soit
Θ̂ = maxΘ log (Pr (Y|Θ)).
3.1.2 Performance d'un estimateur
La qualité d'un estimateur peut être évaluée avec plusieurs outils.
Dénition 3.1 (Biais)
Le biais est l'erreur moyenne entre l'estimateur et le vrai paramètre.
Dans le cas d'un paramètre
h
h ii
B Θ̂ = E Θ − E Θ̂
h i
déterministe, on a B Θ̂ = Θ − E Θ̂
(3.2)
Dénition 3.2 (Covariance)
La covariance est l'erreur quadratique moyenne entre l'estimateur et sa moyenne. Elle mesure la dispersion des
estimations.
Cov [Θ] = E
h i h iT Θ̂ − E Θ̂
Θ̂ − E Θ̂
23
(3.3)
Page 24
CHAPITRE 3. NOTIONS UTILES
Dénition 3.3 (Intervalle de conance)
Un intervalle
Iα
= [a1 , a2 ] est dit de conance au niveau α si
Pr Θ̂ − a1 ≤ Θ ≤ Θ̂ + a2 = 1 − α
(3.4)
Théorème 3.1 (Borne de Cramer-Rao)
Tout estimateur α̂ = f (Y) d'un vecteur de fonctions α (de dimension r) du vecteur de paramètres Θ (de
dimension p) tel que α = g (Θ), possède une borne minimale pour sa covariance, c'est la borne de Cramer-Rao
(CRLB).
Cov [α̂] ≥
∂E [α̂] −1
∂E [α̂]
I (Θ)
∂Θ
∂Θ
T
(3.5)
avec I (Θ) la matrice d'information de Fisher dénie comme
"
∂ ln Pr (Y; Θ) ∂ ln Pr (Y; Θ)
I (Θ) = E
∂Θ
∂Θ
T
#
= −E
∂ 2 ln Pr (Y; Θ)
∂Θ∂Θ
(3.6)
Démonstration
Des résultats préliminaires sont à établir avant de débuter.
Dans un premier temps, on écrit
∂ exp (ln Pr (Y; Θ))
ln Pr (Y; Θ)
∂ Pr (Y; Θ)
=
= Pr (Y; Θ)
∂Θ
∂Θ
∂Θ
R
Dans un second temps, en partant de Pr (Y; Θ) dY, on obtient
Z
Comme E [α̂] E
h
Y
∂ ln Pr( ;Θ)
∂Θ
i
Pr (Y; Θ)
∂ ln Pr (Y; Θ)
dY = E
=0
∂Θ
∂Θ
(3.7)
(3.8)
= 0, on écrit
Z
(α̂ − E [α̂])
∂ ln Pr (Y; Θ) T
∂ E [α̂]
Pr (Y; Θ) dY =
∂Θ
∂Θ
(3.9)
Pour la suite, on se ramène à une égalité scalaire en mutipliant à gauche par le vecteur aT et à droite par b, avec a et b de
dimensions respectives r × 1 et p × 1, et non nuls.
Z
aT (α̂ − E [α̂])
∂ ln Pr (Y; Θ) T
∂ E [α̂]
b Pr (Y; Θ) dY = aT
b
∂Θ
∂Θ
(3.10)
On a alors le produit scalaire suivant
aT
avec
∂ E [α̂]
b = hX, Y i
∂Θ
X = aT (α̂ − E [α̂])
(3.11)
p
Pr (Y; Θ)
(3.12)
∂ ln Pr (Y; Θ) T p
Y =
b Pr (Y; Θ)
∂Θ
(3.13)
D'après l'inégalité de Cauchy-Schwarz, i.e |hX, Y i|2 ≤ hX, Xi hY, Y i
On aboutit donc à
aT
∂ E [α̂]
b
∂Θ
2
≤ aT Cov [α̂] abT I (Θ) b
Cov [α̂] désigne la matrice de covariance de α̂ et I (Θ) = E
Y
Y
∂ ln Pr( ;Θ) ∂ ln Pr( ;Θ) T
∂Θ
∂Θ
24
(3.14)
3.2.
RAPPELS SUR LA CONVERGENCE DES VARIABLES ALÉATOIRES
Page 25
T
E[α̂]
a, on obtient par remplacement
En posant b = I −1 (Θ) ∂ ∂Θ
aT
∂E [α̂] −1
∂E [α̂] T
I (Θ)
a
∂Θ
∂Θ
!2
≤ aT Cov [α̂] a
aT
∂E [α̂] −1
∂E [α̂] T
I (Θ)
a
∂Θ
∂Θ
!
(3.15)
Ainsi,
aT Cov [α̂] −
∂E [α̂] T
∂E [α̂] −1
I (Θ)
∂Θ
∂Θ
!
a≥0
(3.16)
On voit que la matrice de Fisher
est au moins semie-dénie positive car elle a la forme d'une matrice de covariance, et
∂ ln Pr(Y;Θ) 2
T
(Θ) x = E x
≥ 0. En examinant le cas dénie positive, on voit que si la forme quadratique bT I (Θ) b est
∂Θ
x
dégénérée, alors d'après la forme (3.14), E [α̂] ne dépend pas de Θ, ce qui n'a pas de sens si le problème d'estimation est bien posé.
On est donc en droit de supposer I (Θ) dénie positive et cette dernière est inversible et la valeur posée pour b est ainsi justiée.
α̂] −1
∂E[α̂] T
Comme I (Θ) est dénie positive, I −1 (Θ) l'est aussi, et le produit ∂E[
I (Θ) ∂Θ
est semi-déni positif, d'où la forme
∂Θ
(3.16).
TI
Corrolaire 3.1 (CRLB dans le cas non biaisé)
Si g (Θ) = Θ, c'est-à-dire que l'on estime Θ directement, et que l'estimateur est non biaisé, i.e E [α̂] = Θ,
alors la CRLB devient
Cov [α̂] ≥ I −1 (Θ)
(3.17)
Pour terminer les notions sur l'estimation par vraisemblance, 3 propriétés sont données. Pour les démonstrations, se référer à [3] et [1].
Propriétés 3.1 (Propriétés asymptotiques de l'estimateur MV)
Pour un nombre d'échantillons tendant vers l'inni,
1. L'estimateur MV converge en probabilité vers la vraie valeur du paramètre (consistence)
2. La variance de l'estimateur MV atteint la CRLB (ecacité)
3. La distribution de l'estimateur MV tend vers une gaussienne.
La convergence en probabilité est dénie en section 3.2
3.2 Rappels sur la convergence des variables aléatoires
Ces notions sont nécessaires pour établir des résultats sur le biais des estimateurs. Tout d'abord, commençons
par dénir les limites d'ensemble.
Dénition 3.4 (Limites supérieure et inférieure)
Soit une suite A1 , A2 , ..., An d'ensembles. On dénit les ensembles limites suivants :
lim sup An = lim
n
n
lim inf An = lim
n
n
∞
[
k=n
∞
\
k=n
Ak =
∞ [
∞
\
n=1 k=n
∞ \
∞
[
Ak
(3.18)
Ak
(3.19)
n=1 k=n
ω appartient à (3.18) si et seulement si pour chaque n, il existe k ≥ n
ω ∈ Ak . On dit que ω appartient à An pour une innité d'indices n.
événement ω appartient à (3.19) si il appartient à tous les Ak sauf un nombre ni (éventuellement).
En d'autres termes, Un événement
pour lequel
Un
Ak =
25
Page 26
CHAPITRE 3. NOTIONS UTILES
Exemples évidents
Sur la gure 3.1, les contours d'ensemble en gras dénissent les ensembles limites. Ces deux exemples sont
triviaux mais permettent de se donner une "image" des limites d'ensembles.
On peut faire le lien avec la terminologie en analyse pour les opérateurs
sup
et
inf ,
qui dénissent le
supremum et l'inmum, respectivement le plus petit ensemble contenant tous les ensembles, et le plus grand
ensemble inclu dans tous les ensembles.
D'après les dénitions précédentes, le supremum d'une suite d'ensemble est donc une suite d'ensembles
décroissante, et l'inmum une suite d'ensembles croissante.
(a) lim inf n An
(b) lim supn An
Fig. 3.1 Exemple de limites d'ensemble
Théorème 3.2 (Limite et continuité d'ensemble)
Soit une suite d'ensemble (An ).
Si (An ) est une suite croissante vers l'ensemble A (on note An ↑ A), alors Pr (An ) ↑ Pr (A).
De même si (An ) est une suite décroissante vers l'ensemble A (on note An ↓ A), alors Pr (An ) ↓ Pr (A).
En écrivant autrement ces résultats, on obtient
lim Pr (An ) = Pr lim An = Pr (A)
n
(3.20)
n
Démonstration
On ne démontre que la cas croissant, l'autre étant similaire.
Sn
S
Soit la nouvelle suite d'ensemble (Bn ) telle que B1 = A1 et Bk = Ak −Ak−1 . On remarque que A = ∞
k=1 Bk .
k=1 Bk et An =
Comme les Bk sont disjoints, on conclut que
Pr (A) =
∞
X
k=1
Pr (Bk ) = lim
n
n
X
(3.21)
Pr (Bk ) = lim Pr (An )
k=1
n
ce qui achève la démonstration.
Théorème 3.3 (Inégalités des limites d'ensembles)
Pour les limites supérieures et inférieures, on a les inégalités suivantes
Pr lim inf An ≤ lim inf Pr (An ) ≤ lim sup Pr (An ) ≤ Pr lim sup An
n
n
n
26
n
(3.22)
3.2.
RAPPELS SUR LA CONVERGENCE DES VARIABLES ALÉATOIRES
Démonstration
On remarque que
3.2, on a
T∞
k=n
Ak ↑ lim inf n An et
∞
\
Pr (An ) ≥ Pr
k=n
!
!
Ak
Ak ↓ lim supn An . Donc d'après les résultats du théorème
→ Pr lim inf An
(3.23)
→ Pr lim sup An
(3.24)
Ak
k=n
∞
[
Pr (An ) ≤ Pr
S∞
Page 27
n
n
k=n
Dénition 3.5 (Convergence en probabilité)
Soit (Xn )n∈N une suite de v.a indépendantes. On dit que (Xn )n∈N converge en probabilité sur l'espace probabilisé
(Ω, B, P ) si ∀ > 0
lim P
n→+∞
ω ∈ Ω | |X − Xn | < =1
(3.25)
On note Xn −→ X .
P
Dénition 3.6 (Convergence en moment d'ordre p)
Soit (Xn )n∈N une suite de v.a indépendantes. On dit que (Xn )n∈N converge vers X en moment d'ordre p si
p
lim E [|Xn − X| ] = 0
(3.26)
n→+∞
Lp
On note Xn −→ X .
Dénition 3.7 (Convergence presque sûre)
Soit (Xn )n∈N une suite de v.a indépendantes. On dit que (Xn )n∈N converge vers X presque sûrement (p.s) ou
presque partout (p.p) ou encore avec probabilité 1 dans l'espace probabilisé (Ω, B, P ) si
Pr
ω ∈ Ω | lim Xn (ω) = X(ω)
n→+∞
=1
(3.27)
p.s
On note Xn −→ X .
La convergence presque sûre s'écrit également avec des limites d'ensembles
Pr lim sup |Xn − X| < =1
(3.28)
n
Remarque La convergence presque sûre signie que pour une partie A de Ω, on a Pr (A) = 1, et que
∀ω ∈ A Xn (ω) → X(ω).
C'est un critère de convergence fort car l'ensemble
convergence en probabilité où l'ensemble
A
peut varier en fonction de
n
A
est xé, au contraire de la
(la limite est extérieure à la fonction
de probabilité). Dans le cas d'une convergence en probabilité, il est possible de ne jamais converger pour un
événement
ω
xé.
Théorème 3.4 (Inégalité de Markov)
Soit X une v.a dénie sur un espace probabilisé (Ω, B, P ) dont l'espérance existe. Alors ∀t > 0
Pr (|X| ≥ t) ≤
Démonstration
E [|X|]
t
(3.29)
Soit l'événement |X| ≥ t. On dénit une nouvelle variable aléatoire Y = 1|X|≥t avec 1|X|≥t la fonction
indicatrice dénie comme suit
1|X|≥t = 1 si |X| ≥ t
1|X|≥t = 0 sinon
On observe que E [Y ] = P (|X| ≥ t).
Or on a également tY ≤ |X|. On en déduit donc
Pr (|X| ≥ t) ≤
27
E [|X|]
t
Page 28
CHAPITRE 3. NOTIONS UTILES
Théorème 3.5 (Inégalité de Kolmogorov)
Soit (Xn )n∈N une suite de v.a indépendantes, de variances nies σn2 et de moyenne nulle. Alors, pour tout x > 0
!
k
n
X
X
Pr max Xi > t ≤ t−2
Var [Xi ]
1≤k≤n i=1
Note
Ce théorème est également valable dans le cas non centré, i.e
Démonstration
(3.30)
i=1
E [Xk ] 6= 0.
On dénit les notations suivantes
Sn =
s2n = Var [Sn ] =
n
X
(3.31)
Xk
k=1
n
X
(3.32)
σk2
k=1
Soit la variable aléatoire Yv telle que ∀ t > 0
Yv =
(
1 si |Sv | ≥ t et |Sk | < t ∀ k < v
0 sinon
(3.33)
La somme nk=1 Yk peut seulement prendre les valeurs 0 ou 1, car si l'inégalité (3.33) est vraie pour l'indice v , elle deviendra
fausse à l'indice
v + 1. On introduit également x = Pr (Y1 + . . . + Yn = 1).
P
On a nk=1 Yk ≤ 1 donc on peut écrire
P
n
X
(3.34)
2
E Yk Sn
≤ s2n
k=1
Soit Uk = Sn − Sk , donc
2
E Yk Sn
= E Yk Sk2 + 2 E [Yk Uk Sk ] + E Yk Uk2
(3.35)
Sk dépend uniquement
de X1 , . . . , Xk et Uk de Xk+1 , . . . , Xn , donc Sk et Uk sont indépendantes.
P
De plus, E [Uk ] = ni=k+1 E [Xi ] = 0, on en déduit
(3.36)
2
E Yk Sn
≥ E Yk Sk2
De plus, comme Yk ne vaut que 0 ou 1, et d'après (3.33), on peut écrire
Ainsi
"
s2n ≥ t2 E
n
X
Yk Sk2
≥
t2 Yk
#
Yk
(3.37)
k=1
La v.a Y = nk=1 Yk ne peut prendre que 0 ou 1, elle suit donc une distribution de Bernouilli, et E [Y] = x.
P
On obtient donc l'inégalité de Kolmogorov xt2 ≤ s2n , et x est bien la probabilité de l'événement max1≤k≤n ki=1 Xk > t. P
Propriétés 3.2 (Implication de la convergence p.s)
La convergence p.s implique la convergence en probabilité.
Pr
Démonstration
lim Xn = X
n→+∞
= 1 ⇒ lim Pr (|X − Xn | > ) = 0
n→+∞
La démonstration est instantannée en utilisant le théorème 3.3.
(3.38)
Propriétés 3.3 (Implication de la convergence en moment)
La convergence en moment d'ordre p implique la convergence en probabilité.
p
lim E [|Xn − X| ] = 0 ⇒ lim Pr (|X − Xn | > ) = 0
n→+∞
n→+∞
28
(3.39)
3.2.
RAPPELS SUR LA CONVERGENCE DES VARIABLES ALÉATOIRES
Démonstration
Page 29
La convergence en moment implique que ∀ > 0, η > 0, ∃n0 tel que ∀n ≥ n0
E [|Xn − X|p ] ≤ p η
En appliquant l'inégalité de Markov (3.29), on aboutit à
Pr (|X − Xn | > ) ≤ −p E [|X − Xn |p ] ≤ η
Théorème 3.6 (Loi forte des grands nombres)
Soit (Xn )n∈N une suite de v.a indépendantes, centrées et identiquement distribuées.
Alors Snn converge presque sûrement vers 0.
Pr
|Sn |
=0
n→+∞ n
lim
=1
(3.40)
Plus généralement, on dit qu'il existe un entier N,δ > 0 pour chaque couple > 0 et δ > 0 tel que ∀n ≥ N,δ
Pr
avec Sn =
Note
P
Pn
k=1
|Sn |
<
n
≥1−δ
(3.41)
Xk .
Ce théorème est valable également pour des v.a non centrées, et dans ce cas,
|Sn |
n converge vers
+∞
k=1 E [Xk ].
On peut également appliquer la loi forte des grandes nombres dans une hypothèse plus générale, en consi-
µ=
dérant les variables non identiquement distribuées, ce qui revient à satisfaire le critère de Kolmogorov.
Propriétés 3.4 (Critère de Kolmogorov)
La condition nécessaire et susante pour qu'une suite de v.a (Xn ) suive la loi forte des grands nombres est
+∞ 2
X
σ
k
k=1
k2
< +∞
(3.42)
avec σk2 = Var [Xk ]
Démonstration
Soit l'événement Av tel que l'inégalité (3.41) est fausse pour les indices n tel que 2v−1 < n ≤ 2v , c'est-à-dire
|Sn | ≥ 2v−1
(3.43)
Pr (Av ) ≤ −2 2−2(v−1) s2n ≤ 4−2 2−2v s22v
(3.44)
D'après l'inégalité de Kolmogorov (3.30),
avec
Donc
s2n
=
2
i=1 σi .
Pn
+∞
X
v=1
Pr (Av ) ≤ 4−2
n
X
v=1
v
2−2v
2
X
k=1
Or on sait que 2v ≥k 2−2v = 2 × 2−2v et 2v ≥ k ⇒ 2−2v ≤
P
On en déduit 2v ≥k 2−2v ≤ k22 et nalement
P
+∞
X
σk2 = 4−2
+∞
X
k=1
σk2
X
(3.45)
2−2v
2v ≥k
1
.
k2
Pr (Av ) ≤ 8−2
v=1
+∞
X
k=1
σk2
La probabilité qu'au moins une valeur de n fasse que l'inégalité |Snn | < soit fausse est bornée si
1
= n
par exemple, on a donc à faire à une convergence presque partout.
29
(3.46)
k2
2
σk
k=1 k2
P+∞
est nie. En prenant
Page 30
CHAPITRE 3. NOTIONS UTILES
Références
[1] Pierre-Yves Arquès.
Décisions en traitement du signal.
Masson, 1979.
[2] Jean-François Bercher. Notions d'estimation. Polycopié de cours ESIEE.
[3] E. L. Lehmann and George Casella.
[4] Patrick Billingsley.
Theory of Point Estimation.
Probability and Measure.
Springer, 2 sub edition, July 2001.
Wiley Series in Probability and Mathematical Statistics. John
Wiley & Sons, 3rd edition, 1994.
[5] Steven M.Kay.
Fundamentals of Statistical Signal Processing : Estimation Theory.
Signal Processing Series.
Prentice-Hall, 1993.
[6] Willam Feller.
An Introduction to Probability Theory and Its Application Vol.1.
Wiley Series in Probability
and Mathematical Statistics. John Wiley & Sons, 2nd edition, 1968.
[7] Willam Feller.
An Introduction to Probability Theory and Its Application Vol.2.
and Mathematical Statistics. John Wiley & Sons, 3rd edition, 1970.
30
Wiley Series in Probability
Chapitre 4
Estimation de phase par maximum de
vraisemblance
4.1 Modèle d'observation
On considère un signal sinusoïdal réel discret
y
donné par
y(n) = A sin (2πf0 n + φ) + b (n)
avec
b ∼ N (0, Rbb ), avec b = [b(0) . . . b(N − 1)]T
étant sa matrice d'autocorrélation, et
N
un processus stochastique gaussien assimilé au bruit,
Rbb
le nombre d'échantillons d'observation.
On souhaite estimer la phase à l'origine φ du signal ainsi que l'amplitude A qui sont déterministes. Seule
f0 = foto est connue à priori, avec foto la fréquence d'otoémission (800 Hz par exemple),
la fréquence réduite
et
Fe
Fe
la fréquence d'échantillonnage. Nous allons donc utiliser une estimation par maximum de vraisemblance,
puisque nous ne disposerons que des mesures
y(n).
4.2 Estimateur optimal
4.2.1 Cas d'un bruit blanc
Cette étude est tirée des travaux de Porat [1].
L'hypothèse du bruit blanc conduit à
Rbb = σb2 I avec I la matrice identité
Les mesures
y(n)
peuvent se réécrire sous la forme
y(n) = sin(2πf0 n)
A cos(φ)
cos(2πf0 n)
+ b(n)
A sin(φ)
ou après un regroupement en vecteur,
31
Page 32
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
Y = H(f0 )Θ + b
avec
Y
T
= [y(0) . . . y(N − 1)]
mètres à estimer, et
T
Θ = [A cos(φ) A sin(φ)]
le vecteur des observations,
b le vecteur du bruit déni précédemment.
On dénit également la matrice d'observation, dépendant de la constante

0
1
H(f0 ) = 

.
.
.
.
.
.
sin(2πf0 (N − 1))
le vecteur des para-
f0



cos(2πf0 (N − 1))
La loi de vraisemblance nous donne (en supposant les N réalisations du bruit indépendantes)
p (Y|Θ) =
Après développement du
log
1
1
T
√
exp − 2 [Y − H(f0 )Θ] [Y − H(f0 )Θ]
2σb
(σb 2π)N
vraisemblance, on aboutit à
√
1
T
log (Y|Θ) = −N log(σb 2π) − 2 [Y − H(f0 )Θ] [Y − H(f0 )Θ]
2σb
(4.1)
En posant
J (Θ) =
1
T
[Y − H(f0 )Θ] [Y − H(f0 )Θ]
2σb2
on se ramène à la recherche du minimum de la fonction J.
En faisant
∂J(a(A,φ))
∂Θ
=0
−H(f0 ) (Y − H(f0 )â(A,φ)) = 0
T
On obtient ainsi
Θ̂ = (H(f0 )
T
H(f0 ))−1 H(f0 )T Y
(4.2)
Forme en arctan
Une 1ère version de l'estimateur de
φ
vient naturellement en divisant la 2ème composante de
Θ̂
par la 1ère et
en appliquant l'arctangente.
φ̂ = arctan
Θ̂2
!
Θ̂1
(4.3)
L'estimateur de l'amplitude est donné par
 =
q
2
2
Θ̂1 + Θ̂2
32
(4.4)
4.2.
ESTIMATEUR OPTIMAL
Page 33
Forme en arccos et arcsin
Deux autre formes de l'estimateur peuvent être obtenues en mélangeant l'estimateur de l'amplitude avec une
des 2 composantes du vecteur
Θ̂.


Θ̂2
φ̂ = arccos  q
2
Θ̂1
+
2
Θ̂2

pour la version en arccos
(4.5)
pour la version en arcsin
(4.6)


φ̂ = arcsin  q
Θ̂2
2
Θ̂1
+
2
Θ̂1

4.2.2 Biais de l'estimateur optimal en Arctangente
Les relevés ont été réalisés pour donner un aperçu du biais. Les calculs théoriques du biais, très techniques,
n'ont pas été réalisés pour l'estimateur optimal. Des développements asymptotiques ont par contre été réalisés
pour les versions sous-optimales (cf. Section 4.3.2). Pout toutes les simulations par la suite, l'amplitude de la
sinusoide est xée à 1
Biais en fonction du nombre de points N
(a) avec σb2 = 1 (RSB = −3dB )
(b) avec σb2 = 8 (RSB = −12dB )
Fig. 4.1 Relevés de simulation de l'estimateur exhaustif pour N variant de 10 à 5000
A partir d'une durée d'analyse de 2 périodes (soit 500 points), le biais n'évolue plus signicativement.
Biais en fonction du RSB
On xe la fréquence d'échantillonnage à
Fe = 200kHz ,
et le nombre de points à
N = 500.
Biais en fonction de la fréquence d'échantillonnage Fe
On constate que le biais n'évolue pas signicativement au-delà d'une fréquence d'échantillonnage de 20 kHz.
Conclusion
Après simulations, il apparaît qu'on peut faire un compromis sur les paramètres pour alléger la charge de
calcul. La fréquence d'échantillonnage proposée à l'origine, qui est de
par décimation des données.
33
200KHz ,
peut être ramenée à
20KHz ,
Page 34
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
Fig. 4.2 Relevés de simulation de l'estimateur exhaustif pour
(a) avec σb2 = 1 (RSB = −3dB )
σb2
variant de 0.1 à 30
(b) avec σb2 = 8 (RSB = −12dB )
Fig. 4.3 Relevés de simulation de l'estimateur exhaustif pour Fe variant de 2 à 200 KHz
Le nombre de périodes d'analyse est quand à lui lié de près au RSB, mais on peut dire que la moyenne pour
un biais satisfaisant est comprise entre 5 et 10 périodes.
4.2.3 Cas d'un bruit coloré (cas général)
La matrice d'autocorrélation du bruit blanc n'étant plus une matrice diagonale, l'estimateur
Θ̂ = (H(f0 )
T
−1
R−1
H(f0 )T R−1
bb H(f0 ))
bb Y
Dans le cas où le modèle du bruit est connu, le calcul de la matrice
Rbb
Θ̂
devient
(4.7)
peut se faire à partir de la transformée
de Fourier inverse de la densité spectrale de puissance.
Dans le cas où les propriétés statistiques du bruit sont inconnues, et que l'on dispose d'une mesure indépen34
4.3.
ESTIMATEUR SOUS-OPTIMAL
Page 35
dante de ce bruit, on peut approximer la matrice d'autocorrélation par le corrélogramme biaisé
r̂bb (k) =
N −1
1 X
b(n)b(n − k)
N
avec
k>0
(4.8)
n=k
En eet, les matrices de covariance et d'autocorrélation sont identiques pour un bruit centré.
Pour simuler la coloration du bruit, nous avons appliqué un ltre passe-bande autour de 800 Hz sur les
mesures. Les relevés du biais en fonction de la durée d'analyse, du RSB et de la fréquence d'échantillonnage,
ont montré des résultats quasi identiques à ceux de l'estimateur bruit blanc.
De plus, l'estimateur du bruit blanc a également été testé avec un bruit ltré, et les résultats sont identiques
également.
4.2.4 Conclusion
Les simulations concernant l'estimateur optimal ont montré des performances acceptables, ainsi que la
nécessité de décimer les données pour alléger le temps de calcul.
La complexité réside dans les produits et inversions matricielles. On peut donc se demander si la structure
même des estimateurs ne peut pas être modiée pour éviter ces calculs coûteux. C'est l'objet de la section
suivante.
4.3 Estimateur sous-optimal
4.3.1 Cas d'un bruit blanc
En développant
H(f0 )T H(f0 ), on obtient
H(f0 ) H(f0 ) =
T
"
N
2
PN −1
0 n)
− n=0 cos(4πf
2
PN −1
sin(4πf0 n)
n=0
N
2
2
PN −1 sin(4πf0 n) #
n=0
2
P
N −1
0 n)
+ n=0 cos(4πf
2
(4.9)
En sommant sur un nombre entier de demi-périodes, on remarque que
H(f0 ) H(f0 ) =
T
N
0
2
N
2
0
(4.10)
Les estimateurs (4.3) (4.5) (4.6) se réécrivent donc
φ̂ = arctan
φ̂ = arccos
φ̂ = arcsin
1
N
1
N
PN −1
n=0 y (n) cos (2πf0 n)
PN −1
n=0 y (n) sin (2πf0 n)
!
!
y(n) sin(2πf0 n)
pP
P
1
( y(n) sin(2πf0 n))2 + ( y(n) cos(2πf0 n))2
N
!
P
1
y(n) cos(2πf0 n)
N
pP
P
1
( y(n) sin(2πf0 n))2 + ( y(n) cos(2πf0 n))2
N
1
N
(4.11)
P
(4.12)
(4.13)
L'estimateur (4.11), qu'on nommera estimateur sous-optimal, est beaucoup moins couteux que l'estimateur
(4.3), car on s'aranchit des calculs d'inversion matricielle.
Ces 3 estimateurs sont donc valables pour un nombre entier de demies-périodes, mais leur utilisation sur
un nombre de points quelconque et susamment grand n'entraîne qu'un diérence négligeable (cf sous-section
4.3.3).
35
Page 36
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
4.3.2 Biais de l'estimateur sous-optimal en Arctangente
Développement asymptotique
Pour simplier les calculs, nous allons considérer l'estimateur
tan(φ̂)
à la place de
φ̂.
Le biais est donnné par
h
i
B tan φ̂ = tan(φ) − E tan(φ̂)
Soit en développant
B tan φ̂ = tan(φ) − E
"
1
N
1
N
PN −1
n=0 cos(2πf0 n)(sin(2πf0 n + φ) + b(n))
PN −1
n=0 sin(2πf0 n)(sin(2πf0 n + φ) + b(n))
En exprimant diéremment le terme à l'intérieur de l'espérance et en considérant
N=
#
k
2f0 avec
k ∈ N∗ ,
on
obtient
tan(φ̂) =
µN + XN
µN + YN
avec
µXN =
N −1
A X sin(4πf0 n + φ)
A
A
sin(φ) +
= sin(φ)
2
N n=0
2
2
µYN =
N −1
A X cos(4πf0 n − φ)
A
A
cos(φ) +
= cos(φ)
2
N n=0
2
2
XN =
N −1
1 X
cos(2πf0 n)b(n)
N n=0
YN
N −1
1 X
=
sin(2πf0 n)b(n)
N n=0
Le développement du moment d'ordre 2 donne
N −1
h
i
i
1 X h
2
2
E |XN | = 2
E |b(n)| cos2 (2πf0 n)
N n=0
N −1
σb2
σ2 X
+ b2
cos(4πf0 n)
2N
2N n=0
(4.14)
h
i
2
lim E |XN | = 0
(4.15)
lim Pr (|XN | > ) = 0
(4.16)
=
Asymptotiquement, on trouve
N →+∞
D'après (3.39), on en déduit
N →+∞
36
4.3.
ESTIMATEUR SOUS-OPTIMAL
Page 37
Ce critère de convergence ne nous permet pas de conclure quand l'expression à l'intérieur de l'espérance.
Pour cela, il nous faut un critère plus fort, c'est-à-dire la convergence presque sûre avec la loi des grands nombres.
La formule (3.40) peut s'appliquer ici et donc
Pr
lim XN = 0
N →+∞
=1
(4.17)
d'où nalement
µXN
=0
N →+∞ µYN
lim B tan φ̂ = tan (φ) − lim
N →+∞
(4.18)
L'estimateur est donc non biaisé asymptotiquement.
Preuve de l'existence d'un biais par écriture de la loi
On peut également écrire le biais de la manière suivante
X
B tan φ̂ = tan(φ) − E
= tan(φ) − E [γ(X, Y )]
Y
(4.19)
Cette dernière expression fait donc apparaître l'espérance d'un quotient de 2 variables aléatoires gaussiennes
corrélés,
2
)
X ∼ N (µX , σX
et
Y ∼ N (µY , σY2 )
avec
Ce second terme peut donc être réécrit sous la forme
ZZ
E [γ(X, Y )] =
avec
f (X, Y )
dimension 2 (car
Σ
X
la densité de probabilité conjointe de
X
et
Y
et
Y . γ(X, Y )
suit donc une loi multinormale de
sont entre autres non dégénérées), et
f (X, Y ) =
avec
γ(X, Y )f (X, Y ) dXdY
1
exp − X − µX
2
det(Σ)
X − µX
Y − µY Σ−1
Y − µY
1
2π
p
la matrice de covariance.
Cette dernière peut s'écrire sous la forme
2
σX
σXY
Σ=
σXY
σY2
Σ−1
ij = ηij .
Y = v , le développement
Pour alléger les expressions par la suite, nous prendrons
En appliquant le changement de variable
Z
E [γ(u, v)] = K
X = uv
et
de l'espérance conduit à
Z
1
1
u exp − α(v)u2 + β(v)u
dudv
v exp − η22 v 2 − (η21 µX + 2η22 µY + η12 µX )v
2
2
(4.20)
avec
37
Page 38
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
exp − 12 (η11 µ2X + (η12 + η21 )µX µY + η22 µ2Y )
p
K=
2π det(Σ)
α(v) = η11 v 2
β(v) = (η12 + η21 )v 2 − (2η11 µX + η21 µY + η12 µY )v
L'estimateur sous-optimal fonctionne sur un nombre entier de demi-périodes , la matrice de covariance
σb
s'écrit
σb = E
avec
µX =
sin(φ)
et
2
µY =
h
X − µX
Y − µY
T X − µX
Y − µY
i
=
2σb2
I2
N
cos(φ)
2 .
2σb2
2σb2
N ) et Y ∼ N (µY , N ).
Diérents papiers ont montré que la loi du quotient de 2 v.a gaussiennes indépendantes non centrées était
Autrement dit, les variables aléatoires
X
et
Y
sont décorrélées, et de loi
X ∼ N (µX ,
une loi de Cauchy. Or cette distribution n'admet pas de moment (divergence). Donc en conclusion, on peut
seulement dire que le biais de l'estimateur de
tan φ̂
n'existe pas pour un nombre de points d'analyse nis,
mais qu'il est non biaisé asymptotiquement.
Si on considère maintenant l'estimateur
φ̂,
on se ramène à une fonction la v.a de Cauchy dénie précédem-
ment.
φ̂ = arctan
X
Y
La forme générale d'une loi de Cauchy pour une v.a
Z
= ξ(X, Y )
se note
C(a, b)
h
2
π (Z − a) + b2
φ̂
et la fonction de densité s'écrit
b
f (Z) =
L'espérance de
(4.21)
i
(4.22)
peut donc s'écrire avec une relation de proportionnalité
Z
h i Z arctan(Z)
π
1
<
E φ̂ ∝
2
1+Z
2
1 + Z2
(4.23)
qui consitue une forme convergente.
L'application de la fonction
arctan
permet donc l'existence d'un biais pour l'estimateur.
En conclusion, l'estimateur sous-optimal en
arctan
admet l'existence d'un biais pour un nombre de points
d'analyse nis, et ce biais est nul asymptotiquement.
Biais et écart-type en fonction de N
Le biais est bien minimum toutes les demi périodes où l'estimateur sous optimal coincide avec l'estimateur
exhaustif. Globalement, la diérence devient insigniante après 2 périodes d'analyse.
Biais et variance en fonction du RSB
La courbe du RSB est logiquement la même que pour l'estimateur optimal, car nous calculons sur 2 périodes.
38
4.3.
ESTIMATEUR SOUS-OPTIMAL
Page 39
(a) avec σb2 = 1 (RSB = −3dB )
(b) avec σb2 = 8 (RSB = −12dB )
Fig. 4.4 Relevés de simulation de l'estimateur sous-optimal pour N variant de 10 à 5000
Fig. 4.5 Biais en fonction du RSB
Biais et variance en fonction de la fréquence d'échantillonnage
Ici, on fait la même constatation que précedemment car l'estimateur est toujours appliqué sur un échantillon
de 2 périodes.
4.3.3 Diérence entre les 2 estimateurs
Les estimateurs coincident toutes les demi-périodes (125 points), et la diérence entre les 2 estimateurs
décroît également (en
1
N ). Au bout de 2 périodes, l'erreur n'est plus que de
39
2.5 deg.
Page 40
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
(a) avec σb2 = 1 (RSB = −3dB )
(b) avec σb2 = 8 (RSB = −12dB )
Fig. 4.6 Relevés de simulation de l'estimateur approximé pour Fe variant de 2 à 200 KHz
Fig. 4.7 Diérence entre les 2 estimateurs
4.3.4 Biais de l'estimateur sous-optimal en Arccosinus
Développement par écriture de la loi
On considère comme précédemment l'estimateur de
1
N
cos(φ̂) =
1
N
r
cos(φ̂).
PN −1
y(n) sin(2πf0 n)
X
=√
2
2
2
PN −1
PN −1
X +Y2
+
n=0 y(n) sin(2πf0 n)
n=0 y(n) cos(2πf0 n)
n=0
avec
40
(4.24)
4.3.
ESTIMATEUR SOUS-OPTIMAL
2
X ∼ N µX , σX
µX = E [X] =
Y ∼ N µY , σY2
N −1
A X
sin(2πf0 n) sin(2πf0 n + φ)
N n=0
2
σX
= E [(X − µX ) (X − µX )] =
Les v.a
X
et
Page 41
Y
µY = E [Y ] =
N −1
σb2 X
sin2 (2πf0 n)
N 2 n=0
N −1
A X
cos(2πf0 n) sin(2πf0 n + φ)
N n=0
σY2 = E [(Y − µY ) (Y − µY )] =
N −1
σb2 X
cos2 (2πf0 n)
N 2 n=0
sont corrélés, leur covariance est donnée par
σXY = E [(X − µX ) (Y − µY )]
"
!
N −1
σb2 X
=E
sin(2πf0 n)b(n)
N 2 n=0
N
−1
X
!#
cos(2πf0 n)b(n)
n=0
N −1
σb2 X
exp (j4πf0 n) − exp (−j4πf0 n)
4jN 2 n=0
σb2
1 − exp (j4πf0 N ) 1 − exp (−j4πf0 N )
=
−
4jN 2 1 − exp (j4πf0 )
1 − exp (−j4πf0 )
2
σ
= b 2 sinc (2πf0 N ) sin (2πf0 (N − 1))
2N
=
On considère donc la matrice de covariance
2
σX
Σ=
σXY
σXY
σY2
(4.25)
et son inverse
Σ
L'espérance de
h
i
E cos φ̂ =
cos φ̂
Z
1
+
1
= 2 2
2
σX σY − σXY
σY2
−σXY
−σXY
2
σX
(4.26)
s'écrit donc
∞
Z
+
∞
1
2π |Σ| 2
−1
−∞
−∞
√
X
1
exp − X − µX
2
2
2
X +Y
Y − µY Σ−1 X − µX
Y − µY
T
dXdY
(4.27)
En faisant le changement de variable
X = ρ cos (θ)
Z
h
i
E cos φ̂ = K
0
+
∞
Z
et
+
Y = ρ sin (θ),
on aboutit à
π
ρ cos (θ) exp (f (ρ, θ)) dρ dθ
−π
avec
41
(4.28)
Page 42
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
1
K=
1
2 σ2 − σ2 ) 2
2π (σX
Y
XY
2
f (ρ, θ) = −
2
2
σY2 (ρ cos (θ) − µX ) − 2σXY (ρ sin (θ) − µY ) (ρ cos (θ) − µX ) + σX
(ρ sin (θ) − µY )
2
2
2
2 (σX σY − σXY )
Si on applique les hypothèses de départ, soit une utilisation sur un nombre entier de demies-périodes, les
variances et espérances se réécrivent
A cos (φ)
2
A sin (φ)
µY =
2
σ2
2
σX
= σY2 = b
2N
µX =
De plus, comme
σXY = 0,
les v.a
X
et
Y
(4.29)
sont indépendantes.
On note également que les conséquences seraient les mêmes si on avait considéré le problème asymptotiquement.
La constante
K
et la fonction
f
se réécrivent ainsi
K=
1
2
2πσX
f (ρ, θ) = −
µ2X + µ2Y + ρ2 − 2ρ (µX cos (θ) + µY sin (θ))
2
2σX
On peut alors calculer l'intégrale sur
Z
+π
cos (θ) exp
ρ
−π
θ
p
µ2X + µ2Y
2
σX
µX
=
I1 (x)
!!
cos (θ) p 2
+ sin (θ) p 2
µX + µ2Y
µX + µ2Y
Z +π
A cos (θ − φ)
cos (θ) exp −ρ
dθ
2
2
σX
−π
Aρ
2π cos (φ) I1
2
2σX
=
où
µY
(4.30)
(4.31)
(4.32)
est la fonction de Bessel modiée de 1ère espèce telle que
1
In (x) =
2π
Z
π
cos (nθ) exp (x cos (θ)) dθ
(4.33)
−π
L'intégrale de départ s'écrit donc maintenant
Z
i
E cos φ̂ = 2π cos (φ) K
h
0
En remplacant
K
et en posant
ν=
+
∞
A2
4
+ ρ2
ρ exp −
2
2σX
A2
2
4σX
42
!
I1
Aρ
2
2σX
dρ
(4.34)
4.3.
ESTIMATEUR SOUS-OPTIMAL
Page 43
i cos (φ) exp − ν Z + ∞
ν
2
E cos φ̂ =
ρ exp −
2
σX
2
0
ρ2
h
!!
I1
A2
4
2ρv
A
(4.35)
Cette dernière intégrale est en fait calculable et permet d'introduire la fonction hypergéométrique conuente
de Kummer notée 1 F1
(a, b, z),
KummerM(a, b, z)
que l'on renommera
pour alléger les notations. Cette fonction
est dénie par
Γ (b)
KummerM(a, b, z) =
Γ (a) Γ (b − a)
Z
1
−a+b−1
exp (zt) ta−1 (1 − t)
dt
(4.36)
< (b) > < (a) > 0
(4.37)
0
tel que
L'espérance de l'estimateur s'écrit donc comme
i cos (φ) exp − ν A2 √2π
3
ν
2
√
KummerM
E cos φ̂ =
,
2,
2
σX
2
2
16 v
h
En remplaçant
2
σX
par sa valeur, et en introduisant la constante
Λ=
v
2
=
(4.38)
A2 N
, on obtient nalement
4σb2
h
i
3
exp (−Λ) √
πΛ KummerM
E cos φ̂ = cos (φ)
, 2, Λ
2
2
(4.39)
Cette dernière forme va nous permettre d'analyser le biais théorique de l'estimateur en fonction du paramètre
Λ,
qui réunit le rapport signal-à-bruit ainsi que le nombre de points.
On peut ainsi préciser l'utilisation de l'estimateur : si on connaît le nombre de points dont on dispose
(bien évidemment toujours multiple de la demi-période du signal), on peut connaître le rapport signal-à-bruit
minimum pour garantir le biais voulu. Inversement, en connaissant approximativement le RSB lors des mesures,
on peut xer le nombre de points minimum qu'il nous faut.
Tracés
La loi de l'estimateur
cos φ̂ ,
qui est également la loi conjointe des v.a
X
et
Y
dénie en (4.24), est une
gaussienne bi-dimensionnelle.
Asymptotiquement, on constate donc que cette loi tend vers un dirac, c'est-à-dire que l'estimateur devient
déterministe, donc non biaisé.
4.3.5 Cas d'un bruit corrélé (cas général)
On suppose que la matrice d'autocorrélation du bruit

s0,0

R−1
bb = 
Rbb
...
.
.
.
sN −1,0
...
est inversible, et on pose ainsi
s0,N −1

.
.
.


sN −1,N −1
En utilisant la condition de sommation sur un nombre entier de périodes, on obtient
PN −1 PN −1
φ̂ = arctan
k=0
PN −1
k=0
n=0 y (k) sn,k cos (2πf0 n)
PN −1
n=0 y (k) sn,k sin (2πf0 n)
43
!
Page 44
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
(a) N=10
(b) N=100
(c) N=1000
(d) N=10000
Fig. 4.8 Loi de l'estimateur
cos φ̂
4.4 Borne de Cramer-Rao
Le calcul de la CRB implique de connaître les diérents paramètres à estimer. Ici, nous ne connaissons ni
l'amplitude ni la phase. La matrice d'information de Fisher sous-jacente sera donc la matrice hessienne du log
vraisemblance par rapport à
A
et
φ.
En partant de l'écriture du log vraisemblance (4.1) qu'on appellera
partielles du hessien, on obtient
44
L(A, φ)
et développant les dérivées
4.4.
BORNE DE CRAMER-RAO
Page 45
(a) N=10
(b) N=100
(c) N=1000
(d) N=10000
Fig. 4.9 Loi de la v.a
∂ 2 L(A, φ)
A
=− 2
∂φ2
σb
N
−1
X
y(n) sin(2πf0 n + φ) + A
i=0
∂ 2 L(A, φ)
∂ 2 L(A, φ)
1
=
= 2
∂φ∂A
∂A∂φ
σb
X
N
−1
X
!
cos(4πf0 n + 2φ)
i=0
N
−1
X
y(n) cos(2πf0 n + φ) − A
i=0
N
−1
X
i=0
N −1
N
1 X
∂ 2 L(A, φ)
=
−
+
cos(4πf0 n + 2φ)
∂A2
2σb2
2σb2 i=0
La matrice de Fisher s'écrit donc
45
!
sin(4πf0 n + 2φ)
Page 46
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
Fig. 4.10 Biais du
cos φ̂
en fonction du paramètre
Λ


PN −1
PN −1
N − i=0 cos(4πf0 n + 2φ)
i=0 A sin(4πf0 n + 2φ)
1 

I(A, φ) =
 P

2
P
2σb
N −1
N −1
A2 N + i=0 cos(4πf0 n + 2φ)
i=0 A sin(4πf0 n + 2φ)
La CRB nous donne donc la limite inférieure pour la matrice de covariance
Σ(Â, φ̂)
des estimateurs de
A
et
φ
Σ(Â, φ̂) ≥ I −1 (A, φ)
On montre que pour
N
susamment grand, on a
I
Remarque :
Ta
(4.40)
−1
(A, φ) =
2σb2
1
N
0
0
(4.41)
1
A2 N
N = Ta Fe , avec
N0
F
. Elle dépend donc uniquement du
e
2
Cette CRB est indépendante de la fréquence d'échantillonnage. En eet, on a
la durée d'analyse, et la variance du bruit satisfait l'égalité
σb2 =
rapport signal-à-bruit et de la durée d'analyse.
4.5 Comparaison avec un signal en enveloppe complexe
Si on se réfère aux travaux de Rife et Boorstyn [2], où l'on considère un modèle en enveloppe complexe du
type
y(n) = y1 (n) + j y2 (n)
où
y1 (n) = A cos(2πf0 n + φ) + b(n)
y2 (n) = A sin(2πf0 n + φ) + eb(n)
46
RÉFÉRENCES
Page 47
On constate donc que
y1 (n) = H(y2 (n)),
soit que la 2ème composante est la transformée de Hilbert de la
1ère. Une hypothèse pose que les processus gaussiens
y1
et
y2
sont décorrélés (i.e
b
et
eb sont
décorrélés). Cette
supposition est contestable étant donné que la transformée de Hilbert ne décorrèle pas les signaux.
Si on considère que seule la fréquence est connue sur le signal de départ, l'estimation se fait donc sur le
vecteur
Θ = [A φ]
p (Y|Θ) =
1
σb2 2π
N
N −1
1 X
exp − 2
y1 (n) − A sin(2πf0 n + φ)2 + y2 (n) − A cos(2πf0 n + φ)2
2σb n=0
!
La matrice de Fisher qui découle de ce modèle est donnée par
I(Θ) =
N
0
0
A2 N
Le fait de considérer l'enveloppe complexe d'un signal permet de s'aranchir de la dépendance en
φ
dans la
borne de Cramer-Rao du modèle signal réel établi en 4.4. Par ailleurs, on s'aranchit également de la dépendance
2
du bruit (2σb ). En eet, étant donné que les 2 composantes en quadratures du modèle sont décorrélées, nous
avons dans ce cas à faire à 2 sources d'informations au lieu d'une seule.
Références
[1] Boaz Porat.
Digital Processing of Random Signals : Theory & Methods.
Information and System Sciences.
Prentice-Hall, 1993.
[2] David C.Rife and Robert.R.Boorstyn. Single-Tone Parameter Estimation from Discrete-Time Observations.
In
IEEE Transactions on Information Theory, pages 591598, 1974.
[3] Steven M.Kay.
Fundamentals of Statistical Signal Processing : Estimation Theory .
Prentice-Hall, 1988.
47
Signal Processing Series.
Page 48
CHAPITRE 4.
ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE
48
Troisième partie
Estimation de phase par ltrage adaptatif
49
Chapitre 5
Notions de ltrage adaptatif
5.1 Filtres à minimisation MSE et LSE
Le principe du ltrage adaptatif est de disposer d'un ltre dont les paramètres (la fonction de transfert) se
met à jour, en fonction des données bruitées.
Le processus d'adaptation repose classiquement sur la minimisation d'une fonction de coût.
Par convention, on dispose d'une entrée
qui est la diérence entre
ltre d'ordre
M,
d(n)
u(n) ainsi que de la réponse désirée (référence) d(n) et l'erreur e(n),
y(n), et qui va permettre de contrôler les coecients w d'un
et la sortie du ltre
qu'on suppose réels pour notre application, mais qui peuvent être complexes dans un cas plus
général.
Pour la suite, on utilisera les notations suivantes
un = u(n) . . . u(n − M + 1)
w = w0 . . . wM −1 T
y(n) = wT un
T
e(n) = d(n) − y(n)
Fig. 5.1 Schéma d'un ltre adaptatif
51
(5.1)
(5.2)
(5.3)
(5.4)
Page 52
CHAPITRE 5.
NOTIONS DE FILTRAGE ADAPTATIF
5.1.1 Filtrage de Wiener
On dénit la fonction de coût qui est l'erreur quadratique moyenne (MSE).
h
i
2
J = E |e(n)| = E d(n)2 − 2wT Rud + wT Ruu
(5.5)
avec
Ruu = E un uTn
Rud = E [un d(n)]
(5.6)
(5.7)
La minisation de ce critère conduit à l'écriture du gradient du critère
∇w (J) = 2Ruu w − 2Rud
En posant
∇w (J) = 0,
(5.8)
on aboutit à la solution optimale de Wiener-Hopf
w= (Ruu )−1 Rud
∆
(5.9)
L'inversion de la matrice d'autocorrélation de l'entrée se fait avec une complexité
O n3
. Pour réduire le
coût de calcul, on peut résoudre (5.9) par une méthode itérative.
5.1.2 Descente de gradient
Plus connu sous le nom d'algorithme du gradient, le but recherché est de trouver le minimum d'une fonction
par approximations successives.
On démarre d'une fonction que l'on cherche à minimiser F (x. L'algorithme consiste à chercher le minimum
x0 itérativement. A chaque étape, on va déplacer x dans le sens inverse de variation de la fonction. Pour calculer
l'approximation de x0 à l'instant n + 1, on doit donc évaluer le gradient à l'instant n et incrémenter x dans le
sens opposé à son signe. On aboutit donc à la forme itérative suivante :
x(n + 1) = x(n) − µ(n)∇x F (x(n))
(5.10)
µ(n) représente le pas choisi à l'instant n. Il apparaît évident qu'avec un pas inaproprié, on peut soit diverger,
soit converger en un temps beaucoup trop long.
Dans le cas du ltrage de Wiener, on doit connaître les quantités
Ruu
et
Rud , ce qui est rarement le cas.
On préfère une version de cette algorithme s'aranchit de ce problème, le LMS.
5.1.3 Algorithme du gradient stochastique LMS (Least Mean Square)
L'algorithme LMS est construit à partir de l'algorithme du gradient classique appliqué à (5.9) :
wn+1 = wn + µn (Rud − Ruu wn )
(5.11)
La version du LMS consiste à remplacer le gradient déterministe (5.8) par une approximation dépendant
des données courantes. Le gradient devient donc aléatoire, et on le nomme ainsi gradient stochastique.
Cette approximation se fait sur les matrices
Ruu
et
Rud tel que
52
5.1.
FILTRES À MINIMISATION MSE ET LSE
Page 53
R̂uu = un uTn
R̂ud = un dn
(5.12)
(5.13)
L'équation itérative de l'algorithme LMS est donc donnée par
wn+1 = wn + µn un d(n) − un uTn wn
En supposant l'indépendance de
µn <
2
λmax
avec
λmax
wn
et
un
(5.14)
(hypothèse contestable), on montre que l'algorithme converge si
Ruu . C'est la condition susante de convergence pour un
la valeur propre maximale de
pas xe.
Pour un pas variable, les conditions de convergence sont
+∞
X
n=1
+∞
X
µn > 0
(5.15)
µn = +∞
(5.16)
µ2n < +∞
(5.17)
n=1
5.1.4 Algorithme des moindres carrés récursifs RLS (Recursive Least Square)
Critère d'erreur instantannée
L'algorithme RLS est basé sur une nouvelle fonction de coût, basée sur les moindres carrés (LSE).
J=
n
X
λn−i e(i)2
(5.18)
i=0
λ est appelé facteur d'oubli et son rôle est d'atténuer le poids des anciens échantillons dans le
λ ∈]0; 1]. Il sert de mémoire à l'algorithme. La fonction de coût est mise à jour avec l'échantillon
Le facteur
critère, donc
courant, c'est-à-dire qu'on rajoute l'erreur instantannée.
En développant le critère,
J=
=
n
X
i=0
n
X
λn−i d(i) − wTn ui
2
(5.19)
λn−i d(i)2 − 2d(i)wTn ui + wTn ui uTi wn
(5.20)
=0
(5.21)
i=0
La minimisation de ce critère conduit à
n
n
X
X
∂J
= −2
λn−i d(i)ui + 2
λn−i ui uTi
∂w
i=0
i=0
On aboutit ainsi à une équation matricielle dite
normale.
53
wn
∆
Page 54
CHAPITRE 5.
Φn
et
zn
wn = zn
∆
(5.22)
Φn = i=0 λn−i ui uTi la matrice de données, qui peut être
P
n
= i=0 λn−i d(i)ui comme une intercorrélation empirique.
Pn
avec
NOTIONS DE FILTRAGE ADAPTATIF
assimilée à une autocorrélation empirique,
Il faut également noter qu'on suppose une hypothèse de préfenêtrage sur les entrées
u(n), i.e u(n) = 0 ∀n < 0.
On remarque ainsi que
Φn+1 = λΦn + un+1 uTn+1
zn+1 = λzn + un+1 d(n + 1)
Le but est d'inverser
Φn
(5.23)
(5.24)
pour obtenir le ltre optimal. Un tel calcul est très coûteux, mais peut être évité
en utilisant le lemme d'inversion matricielle.
Théorème 5.1
Lemme d'inversion matricielle
−1
(A + BCD)
avec
A
matrice n × n,
B
= A−1 − A−1 B
vecteur n × k,
C
C
−1
matrice k × k,
−1
−1
DA
+ DA−1 B
D
(5.25)
vecteur k × n.
En posant
A = λΦn
B = un+1
C=1
B = uTn+1
et
(5.26)
(5.27)
(5.28)
(5.29)
Kn+1 = Φ−1
n+1 , on obtient l'équation de Riccati
avec
kn+1 =
Ku
u Ku
λ+
Kn+1 = λ−1 Kn − λ−1 kn+1 uTn+1 Kn
n n+1
T
n n+1
n+1
(5.30)
, le vecteur de gain.
On peut réécrire ce dernier d'une nouvelle manière
λkn+1 = Kn un+1 − kn+1 uTn+1 Kn un+1
kn+1 = Kn+1 un+1
(5.31)
(5.32)
D'après l'équation normale (5.22) (on reprend la notation simple pour le ltre optimal
wn =wn ), on peut
∆
écrire
wn+1 = Kn+1 zn+1
= Kn zn − kn+1 uTn+1 Kn zn + Kn+1 un+1 d(n + 1)
(5.33)
(5.34)
L'équation du RLS s'écrit donc
wn+1 = wn + kn+1
d(n + 1) − uTn+1 wn
54
(5.35)
5.2.
FILTRE DE KALMAN
Page 55
Critère d'erreur avec mémoire
Dans bien des cas, la fonction de coût (5.18) n'est pas assez contraignante pour faire converger l'algorithme.
Au lieu d'utiliser l'erreur instantannée pour mettre à jour la fonction de coût, on peut utiliser une erreur basée
l'échantillon actuel et
En posant
m
échantillons précédents. On utilise donc un critère d'erreur avec mémoire.
di = [d(i − q + 1)
T
d(i)]
, avec
q = i+1 si i < m, ou q = m dans le cas contraire, et ei = di −UTi wn
la fonction de coût devient alors
J=
n
X
λn−i eTi ei =
i=0
avec
n
X
λn−i
di − UTi wn
T di − UTi wn
(5.36)
i=0
Un une entrée matricielle de taille M × i + 1 ou M × m suivant le cas énoncé précédemment, telle que

u(i)
Ui = 

u(i − q + 1)
...
.
.
.

.
.
.
u(i − M + 1) . . .
(5.37)


u(i − q − M + 2)
Les équations de l'algorithme deviennent donc
Kn Un+1
kn+1 =
wn+1
(5.38)
λI + UTn+1 Kn Un+1
= wn + kn+1 d(n + 1) − UTn+1 wn
(5.39)
Kn+1 = λ−1 Kn − λ−1 kn+1 UTn+1 Kn
La matrice identité
I dans l'équation récursive de kn+1
est de taille
(5.40)
i+1
ou
m.
5.2 Filtre de Kalman
Le ltre de Kalman est le meilleur estimateur possible pour un grand nombre de problèmes courants.
Son principe est d'estimer l'état d'un processus à partir de mesures bruitées ou incomplètes à l'aide d'un
ltre récursif.
Le ltre de Kalman estime l'état d'un processus en utilisant alternativement une étape de prédiction durant
laquelle il estime l'état à partir d'un modéle d'état et une étape de correction pendant laquelle il utilise les
mesures pour corriger l'estimée précédente.
Le ltrage de Kalman est utilisé classiquement dans des modèles linéaires, mais on peut l'utiliser également
avec des modèles non linéaires, on parle alors de
ltrage étendu.
5.2.1 Filtrage de Kalman linéaire
Les paramètres à l'instant
k
sont contenus dans le vecteur
xk .
Ces paramètres suivent un
modèle d'état
donné par
xk+1 = Fk xk + ck + wk
avec
Fk
la matrice de transition (ou matrice d'état),
notre problème d'estimation) et
wk
ck
un vecteur de commande (inutile par la suite pour
le bruit système tel que :
55
(5.41)
Page 56
CHAPITRE 5.
wk ∼ N (0, Qk )
(
Qk
E wn wTk =
0
Les mesures à l'instant
k,
regroupées dans le vecteur
zk
NOTIONS DE FILTRAGE ADAPTATIF
(5.42)
∀n=k
∀n=
6 k
(5.43)
sont données par
zk+1 = Hk+1 xk+1 + vk+1
avec
Hk
la matrice d'observation et
vk
(5.44)
le bruit de mesure tel que :
vk ∼ N (0, Rk )
(
Rk
T
E vn vk =
0
(5.45)
∀n=k
∀n=
6 k
De plus, on suppose les bruits systeme et mesure indépendants, i.e
(5.46)
E [wk vn ] = 0 ∀ k, n.
L'estimation par le ltre de Kalman se construit à partir d'une fonction de coût à minimiser, qui n'est autre
que l'erreur quadratique moyenne
E[|xk − x̂k|k |2 ],
avec
x̂k|k
l'estimée de l'état à l'instant
k.
Cette condition permet d'aboutir (non démontré) à une série d'équations
Etape de prédiction
Estimée de l'état x̂k+1|k = Fk x̂k|k + ck
h
i
xk − x̂k+1|k xk − x̂k+1|k T = Fk Pk|k FTk + Qk
Estimée de la covariance Pk+1|k = E
Estimée de la mesure ẑk+1|k = Hk+1 x̂k+1|k
Innovation uk+1|k = zk+1 − ẑk+1|k
T
T
Covariance de l'innovation Uk+1 = E uk+1 uk+1 = Hk+1 Pk+1|k Hk+1 + Rk+1
Etape de correction
T
−1
Gain de Kalman Kk+1 = Pk+1|k Hk+1 Uk+1
Estimée de l'état mise à jour x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1
Estimée de la covariance mise à jour Pk+1|k+1 = (I − Kk+1 Hk+1 ) Pk+1|k
5.2.2 Filtrage de Kalman étendu (EKF)
Les équations d'état et d'observation du ltrage de Kalman basique considéré prédédemment sont linéaires.
Dans de nombreux cas, il se peut que le problème d'estimation rencontré implique des équations non linéaires.
On utilise alors le ltre de Kalman étendu. Les équations d'état et d'observation deviennent respectivement des
fonctions non linéaires :
xk+1 = fk (xk , ck ) + wk
zk+1 = hk+1 (xk+1 ) + vk+1
f et h (approximation de Taylor d'ordre 1) autour de
x̂k+1|k . On obtient ainsi des nouvelles équations d'état et
L'idée du ltrage étendu est de linéariser les fonctions
l'estimée la plus récente, soit respectivement
x̂k|k
et
d'observation.
56
RÉFÉRENCES
Page 57
xk+1 ≈ fk x̂k|k + Fk xk − x̂k+1|k + wk
zk+1 ≈ hk x̂k+1|k + Hk+1 xk − x̂k+1|k + vk
(5.47)
(5.48)
avec
∂ fk ∂ x x̂k|k ,ck
∂ hk+1 =
∂ x x̂k+1|k
Fk =
Hk+1
On aboutit donc à de nouvelles solutions itératives
Etape de prédiction
Estimée de l'état x̂k+1|k = fk x̂k|k , ck
T
Estimée de la covariance Pk+1|k = Fk Pk|k Fk + Qk
Estimée de la mesure ẑk+1|k = hk+1 x̂k+1|k
Innovation uk+1|k = zk+1 − ẑk+1|k
T
Covariance de l'innovation Uk+1 = Hk+1 Pk+1|k Hk+1 + Rk+1
Etape de correction
T
−1
Gain de Kalman Kk+1 = Pk+1|k Hk+1 Uk+1
Estimée de l'état mise à jour x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1
Estimée de la covariance mise à jour Pk+1|k+1 = (I − Kk+1 Hk+1 ) Pk+1|k
Références
[1] Greg Welch & Gary Bishop. An Introduction to the Kalman Filter. Course of University of North Carolina
at Chapel Hill.
[2] Jean-François Bercher & Pascal Jardin. Filtrage adaptatif. Polycopié de cours ESIEE.
[3] Simon Haykin.
Adaptive Filter Theory.
Information and System Science Series. Prentice Hall, 4th edition,
2001.
[4] Simon Haykin.
Kalman Filtering and Neural Networks.
cessing Series. Wiley, 2001.
57
Adaptative and Learning Systems for Signal Pro-
Page 58
CHAPITRE 5.
58
NOTIONS DE FILTRAGE ADAPTATIF
Chapitre 6
Estimation de phase par ltrage LMS et
RLS
6.1 Estimation par le LMS
6.1.1 Modèle
En exprimant les observations avec une forme cartésienne,
y(n) = sin (2πf0 n)
A cos (φ)
cos (2πf0 n)
+ b(n)
A sin (φ)
(6.1)
on remarque que l'on peut considérer les entrées du ltre suivantes
un =
Entrée :
sin (2πf0 n)
Coecients du ltre :
Référence :
T
cos (2πf0 n)
w = A cos (φ) A sin (φ) T
d(n) = y(n)
(6.2)
(6.3)
(6.4)
L'algorithme va converger vers la solution de Wiener, il faut donc vérier que celle-ci correspond bien à ce
que l'on cherche à estimer.
L'entrée étant déterministe, sa matrice d'autocorrélation s'écrit donc
Ruu = uuT
sin2 (2πf0 n)
sin (2πf0 n) cos (2πf0 n)
=
sin (2πf0 n) cos (2πf0 n)
cos2 (2πf0 n)
(6.5)
L'intercorrélation entre la référence et l'entrée s'écrit à son tour
Rud = E [un d(n)]
(6.6)
A sin (2πf0 n) sin (2πf0 n + φ) + b(n)
=E
A cos (2πf0 n) sin (2πf0 n + φ) + b(n)
A sin2 (2πf0 n) cos (φ) + A sin (2πf0 n) cos (2πf0 n) sin (φ)
=
A cos2 (2πf0 n) cos (φ) + A sin (2πf0 n) cos (2πf0 n) cos (φ)
59
(6.7)
(6.8)
Page 60
CHAPITRE 6.
On remarque ainsi que
Rud = Ruu [A cos (φ)
ESTIMATION DE PHASE PAR FILTRAGE LMS ET RLS
A sin (φ)]T , donc le ltre optimal au sens de Wiener correspond
bien à l'estimateur d'amplitude et phase en coordonnées cartésiennes.
w=
∆
T
A cos (φ) A sin (φ)
(6.9)
6.1.2 Simulations
Toutes les initialisations ont été réalisées avec une estimation par maximum de vraisemblance sur un bloc des
premiers échantillons de longueur susante pour garantir une bonne initialisation. Ces simulations supposent
donc la procédure d'enregistrement préalablement réalisée.
A phase et amplitude constante
(a) Avec un bon RSB
(b) Avec un RSB limite
Fig. 6.1 LMS MV - Suivi de phase et d'amplitude constante
Le RSB critique apparaît vers -16 dB. A ce niveau, il devient dicile de garantir une convergence rapide et
une erreur uctuante faible.
A phase variable et amplitude constante
Le RSB critique est ici de -13 dB. Le saut de phase est de 45 degré, ce qui correspond normalement aux cas
pratiques rencontrés.
A phase variable et amplitude variable
On voit qu'une trop grande variation d'amplitude négative entraîne une dégradation conséquence du RSB,
et l'estimation devient alors faussée sur cet intervalle de temps.
6.2 Estimation par le RLS
6.2.1 Modèle
En considérant les mêmes entrée et référence que pour le LMS, les simulations ont montré que l'algorithme ne
pouvait pas converger, à moins de choisir un facteur d'oubli supérieur à 0.99. Ceci prouve que le critère d'erreur
60
6.2.
ESTIMATION PAR LE RLS
Page 61
(a) Avec un bon RSB
(b) Avec un RSB limite
Fig. 6.2 LMS MV - Suivi de phase variable et d'amplitude constante
Fig. 6.3 LMS MV - Suivi de phase et d'amplitude variables
considéré ne tient pas assez compte du passé, c'est pourquoi on choisira un critère d'erreur avec mémoire de
m
échantillons, comme expliqué dans le chapitre précédent.
En conservant les mêmes notations, on a

Entrée matricielle :
Référence :
Un = HTn
dn
sin(2πf0 n)
.
.
.

=
...
sin(2πf0 (n − q + 1))
.
.
.



cos(2πf0 n) . . . cos(2πf0 (n − q + 1))
= y(n) . . . y(n − q + 1)
avec
61
(6.10)
(6.11)
Page 62
CHAPITRE 6.
ESTIMATION DE PHASE PAR FILTRAGE LMS ET RLS
(
n + 1 si n < m
q=
m si n ≥ m
Cet algorithme sera appelé
(6.12)
RLS MV.
6.2.2 Simulations
Les simulations ont été réalisées avec les paramètres suivants :
m = 300
λ = 0.99
(a) Bruit faible (RSB= -3 dB)
(b) Bruit moyen (RSB= -10 dB)
Fig. 6.4 RLS MV - Simulations en bruit faible et moyen
Les performances sont nettement meilleures que pour le LMS, avec une amplitude variable et un saut de
phase pour un RSB de -3 dB. L'algorithme nous permet même une dynamique de bruit plus élevée, avec un
RSB pouvant aller jusqu'à -10 dB.
6.3 Conclusion
Les 2 algorithmes présentés dans ce chapitre sont adaptés à des utilisations diérentes. Pour un bruit faible
(avec un RSB aux alentours de -3 dB), on privilégiera le LMS, qui présente un temps de calcul rapide et une
variance raisonnable.
Pour des bruits moyens (RSB
< −10dB ),
m).
on choisira l'algorithme RLS, avec un cout de calcul plutôt élevé
(dû à l'inversion matricielle de taille
On a donc vu que les algorithmes LMS et RLS ont une dynamique de RSB limitée. Ils ont inutilisables si
les mesures présentent des pics de bruit dépassant cette dynamique. Pour un algorithme temps réel pouvant
résoudre ce problème, on se référera au chapitre 9 ave l'algorithme RLS MAP.
62
Chapitre 7
Estimation de phase par ltrage de
Kalman
7.1 Filtrage étendu classique
7.1.1 Modèle
Nous disposons des mesures, dont le modèle est donné par
y(n) = A(n) sin (2πf0 n + φ(n)) + b (n)
On suppose le bruit
b(n)
blanc gaussien centré stationnaire, i.e
(7.1)
b ∼ N (0, σ 2 ).
L'équation ainsi que le vecteur d'état du modèle sont donnés par
xk+1 = xk = xk,1 xk,2
T
T
= A(k) φ(k)
(7.2)
Cette équation d'état "constante" se justie par le fait que dans de bonnes conditions de mesures, l'amplitude
et la phase varieront peu autour d'une valeur centrale (excepté bien sûr le déphasage qui se produira lors du
changement de position).
L'équation d'observation est donnée par
Zk = h(xk ) + b(k) = xk,1 sin (2πf0 k + xk,2 )
Comme la fonction d'observation
h
(7.3)
est non-linéaire, nous devrons la linéariser autour de l'estimée de l'état
sachant les observations à l'instant précédent (principe de l'EKF).
On utilise ainsi le Jacobien de
h
Hk+1 =
donné par
∂h
(x̂k+1|k ) =
∂ xk
T
sin(2πf0 k + x̂k+1|k,2 )
x̂k+1|k,1 cos(2πf0 k + x̂k+1|k,2 )
(7.4)
7.1.2 Algorithme
Les équations suivantes sont à implanter telles quelles. Il faut cependant prévoir une mise à jour du vecteur
jacobien
Hk+1 .
63
Page 64
CHAPITRE 7.
ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN
x̂k+1|k = x̂k|k
Pk+1|k = Pk|k
ẑk+1|k = x̂k+1|k,1 sin(2πf0 (k + 1) + x̂k+1|k,2 )
uk+1|k = zk+1 − ẑk+1|k
Uk+1 = Hk+1 Pk+1|k HTk+1 + σ 2
−1
Kk+1 = Pk+1|k HTk+1 Uk+1
x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1
Pk+1|k+1 = (I2 − Kk+1 Hk+1 ) Pk+1|k
7.1.3 Simulations
Avec amplitude et phase constante
(a) avec une initialisation par MV sur 1500 points
(b) avec une initialisation quelconque
Fig. 7.1 Relevés de phase et d'amplitude
On constate qu'une bonne initialisation joue un rôle important dans la convergence sans biais de l'algorithme,
particulièrement quand le bruit est élevé. En eet, ceci est dû au choix du modèle d'état constant, qui "limite"
la convergence rapide de l'algorithme.
Avec amplitude variable
Ces tracés montrent un défaut de l'algorithme de Kalman, si on l'utilise de cette manière pour estimer
l'amplitude et la phase. En eet, si l'amplitude a une variation moyennement importante autour de sa valeur
moyenne, l'algorithme peut décrocher (ne plus suivre les variations). Ceci est une résultat plutôt prévisible
puisque nous avons choisi un modèle d'état constant, donc l'algorithme restera plus ou moins "xé" sur la
valeur moyenne de l'amplitude. Cependant, un autre eet peut se produire, celui de l'inversion de signe de
l'amplitude. En eet, l'algorithme peut "s'accrocher" sur la valeur négative de l'amplitude et donc sur une
valeur de phase à une erreur de
π
près. Ce péhnomène se produit également sur une simulation en amplitude
constante avec un bruit de variance élevée.
64
7.1.
FILTRAGE ÉTENDU CLASSIQUE
Page 65
(a) sans inversion
(b) avec inversion
Fig. 7.2 Relevés de phase et d'amplitude
7.1.4 Conclusion
Dans cette version de l'EKF classique, nous pouvons donc avoir une indétermination de
π
près sur le
déphasage estimée entre 2 positions de mesures. C'est pourquoi on lui préférera la version linéaire utilisant le
cercle complexe (à l'aide des coordonnées cartésiennes).
65
Page 66
CHAPITRE 7.
ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN
7.2 Filtrage avec modélisation cartésienne
7.2.1 Modèle
Le procédés de mesure est même que précédemment.
L'équation d'état est toujours constante, mais nous allons désormais estimer les coordonnées d'un point du
plan complexe à la place de l'angle et de l'amplitude, ce qui donne
xk+1 = xk = xk,1 xk,2
T
T
= A(k) cos (φ(k)) A(k) sin (φ(k))
(7.5)
L'équation d'observation se réécrit donc sous forme d'un modèle linéaire.
Zk = Hk xk + b(k)
(7.6)
avec la matrice d'observation
Hk =
sin (2πf0 k)
cos (2πf0 k)
7.2.2 Algorithme
Il faut mettre à jour la matrice d'observation à chaque itération de l'algorithme.
x̂k+1|k = x̂k|k
Pk+1|k = Pk|k
ẑk+1|k = Hk+1 x̂k+1|k
uk+1|k = zk+1 − ẑk+1|k
Uk+1 = Hk+1 Pk+1|k HTk+1 + σ 2
−1
Kk+1 = Pk+1|k HTk+1 Uk+1
x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1
Pk+1|k+1 = (I2 − Kk+1 Hk+1 ) Pk+1|k
66
(7.7)
7.2.
FILTRAGE AVEC MODÉLISATION CARTÉSIENNE
Page 67
7.2.3 Simulations
Amplitude constante
Fig. 7.3 Tracé de l'amplitude et de la phase
On observe dans l'ensemble des performances meilleures qu'avec la version de Kalman vue en Section 7.1.
L'algorithme est plus précis, ce qui s'explique par le fait que nous considérons ici un modèle linéaire d'observation
et que par conséquent nous n'avons pas de linéarisation à faire (approximation).
Amplitude variable
Fig. 7.4 Tracé d'amplitude et de phase
Le problème de l'inversion du signe de l'amplitude est ici résolu, car le modèle considère naturellement une
amplitude positive. La encore, les performances sont meilleures.
67
Page 68
CHAPITRE 7.
ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN
Amplitude et phase variables
Fig. 7.5 Tracé d'amplitude et de phase
68
7.3.
FILTRAGE AVEC SOUSTRACTION DE BRUIT
Page 69
7.3 Filtrage avec soustraction de bruit
7.3.1 Le modèle et les équations
On considère toujours le même modèle, soit
y(n) = A(n) sin (2πf0 n + φ(n)) + b (n)
avec cette fois-ci le bruit
b(n)
(7.8)
d'une loi quelconque ainsi que l'amplitude et la phase pouvant varier au cours
du temps.
On dispose également d'une mesure du bruit indépendante que l'on nomme
b0 (n)
et que l'on peut écrire
bn = wb'Tn
avec
(7.9)
bn = [b(n) . . . b(n − N + 1)]T ,b'n = [b0 (n) . . . b0 (n − N + 1)]T
et
w = [w0 . . . wN −1 ].
On considère un vecteur d'état de la forme
xk = xk,1 xk,2 xk,3
xk,N +2
...
T
= A(k) cos (φ(k)) A(k) sin (φ(k))
w
T
(7.10)
associée à l'équation d'état
xk+1 = xk
(7.11)
On utilise le même modèle cartésien que (7.5) qui ore de meilleures performances que le modèle classique
(7.2).
On dénit également le modèle d'observation comme
zk = Hk xk = xk,1 sin(2πf0 k + xk,2 ) +
N
−1
X
xk,3+i b0 (k − i)
(7.12)
i=0
avec la matrice d'observation dénie par
T
sin(2πf0 k)
= cos(2πf0 k)

Hk
b'k
(7.13)
L'utilisation de la mesure indépendante du bruit permet de se ramener à une équation d'observation sans bruit
de mesure. En eet, les paramètres
fréquence
f0 .
b0 (k)
peuvent être considérés comme des données au même titre que la
Nous n'avons donc plus à connaître les propriétés statistiques du bruit pour estimer l'amplitude
et la phase.
7.3.2 L'algorithme
Les équations suivantes sont à implanter telles quelles. Il faut cependant prévoir une mise à jour de la matrice
d'observation
Hk+1 .
69
Page 70
CHAPITRE 7.
ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN
x̂k+1|k = x̂k|k
Pk+1|k = Pk|k
ẑk+1|k = Hk+1 x̂k+1|k
uk+1|k = zk+1 − ẑk+1|k
Uk+1 = Hk+1 Pk+1|k HTk+1
−1
Kk+1 = Pk+1|k HTk+1 Uk+1
x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1
Pk+1|k+1 = (I2 − Kk+1 Hk+1 ) Pk+1|k
7.3.3 Correction du modèle
Implanté tel quel, l'algorithme va diverger. En eet, la covariance de l'innovation (notée
tendre vers
0,
Uk+1 ), va rapidement
ce qui aura pour conséquence un gain de Kalman très élevé. Le fait de ne plus considérer le bruit
de mesure nous ramène à un système totalement prédictif.
Une solution pour y remédier consiste à ajouter un faible bruit de mesure connu, par exemple du bruit blanc,
satisfaisant les hypothèses de Kalman (gaussien, centré et indépendant des autres bruits). On empêchera ainsi
l'algorithme de diverger, car l'innovation va tendre vers le bruit ajoutée et sa covariance sera donc la variance
de ce bruit.
Le modèle de départ devient donc
y(n) = A(n) sin (2πf0 n + φ(n)) + b (n) + q (n)
avec
q ∼ N 0, σq2
(7.14)
, le bruit de mesure ajouté, qu'on appelera bruit de référence.
Les équations restent identiques, excepté bien sûr la covariance de l'innovation.
Uk+1 = Hk+1 Pk+1|k HTk+1 + σq2
7.3.4 Simulations
Comme prévu, pour un bruit ltré (donc qui n'est plus blanc) et fort, l'algorithme ache les mêmes performances que les versions précédentes lorsqu'on avait avait un faible bruit.
La gure 7.7 nous montre le cas où les mesures ont été "polluées" par des signaux sonores. Le signal polluant
est constitué de 2 sinusoides à 50 Hz et 750 Hz. La encore, l'algorithme a de bonnes performances.
Le dernier problème persistant est encore lié au modèle d'état constant, qui a pour conséquence une capacité
de poursuite lente.
70
7.3.
FILTRAGE AVEC SOUSTRACTION DE BRUIT
(a) avec un bruit ltré
Page 71
(b) avec un bruit ltré et une amplitude variable
Fig. 7.6 Suivi de phase et d'amplitude avec soustraction de bruit
(a) Signal polluant
(b) Amplitude et phase
Fig. 7.7 Suivi de phase et d'amplitude avec pollution sonore
7.3.5 Conclusion
Cette version de l'algorithme de Kalman avec soustraction de bruit est surement la meilleure, car elle permet
de s'adapter à tous types de bruit.
Néanmoins cette version est peu utilisable. En eet, il est dicile d'obtenir technologiquement une mesure
indépendante des bruits internes de l'oreille à l'aide d'un 2ème micro, car ce dernier sera proche du 1er micro
et risque de capter également le signal utile.
Une solution pour pallier ce problème serait de constituer une base de bruits qui sont systématiquement
présents lors de mesures, par exemple les bruits de frottement et de déglutition, et qui sont plus ou moins
communs aux sujets d'expérience. Il surait alors de les associer au paramètre bruit mesuré
b0
dans les équations
précédentes.
Néanmoins, on peut toujours utiliser ce ltrage pour contrer les bruits extérieurs à l'oreille, particulièrement
si les mesures doivent par exemple être eectuées dans une ambulance.
71
Page 72
CHAPITRE 7.
ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN
Fig. 7.8 Suivi de phase et d'amplitude avec soustraction de bruit
Références
[1] Greg Welch & Gary Bishop. An Introduction to the Kalman Filter. Course of University of North Carolina
at Chapel Hill.
[2] Jean-François Bercher & Pascal Jardin. Filtrage adaptatif. Polycopié de cours ESIEE.
[3] Simon Haykin.
Adaptive Filter Theory.
Information and System Science Series. Prentice Hall, 4th edition,
2001.
[4] Simon Haykin.
Kalman Filtering and Neural Networks.
cessing Series. Wiley, 2001.
72
Adaptative and Learning Systems for Signal Pro-
Quatrième partie
Estimation de phase par méthode
bayésienne
73
Chapitre 8
Notions utiles
8.1 Estimation bayésienne
L'estimation bayésienne dière de l'estimation de vraisemblance par le fait que les paramètres à estimer ne
sont plus considérés comme déterministe mais aléatoire. On dispose donc d'une loi à priori sur les paramètres.
L'estimation bayésienne est en général plus performante que l'estimation par maximum de vraisemblance.
L'estimation bayésienne doit son nom à la règle de Bayes, qui permet d'obtenir la loi à postériori, soit la loi
des paramètres sachant les mesures.
Pr (Θ|Y) =
Pour estimer
Θ,
Pr (Y|Θ) Pr (Θ)
Pr (Y)
on dispose de plusieurs fonctions de coût
C (e)
avec
(8.1)
e = Θ̂ − Θ l'erreur d'estimation, qui
mènent à des estimateurs aux performances diérentes. Les fonctions de coût sont à minimiser en moyenne, on
parle de minimisation du risque bayésien
E [C (e)].
Cette espérance se calcule à l'aide la loi conjointe entre le
paramètre et les mesures.
L'utilisation du théorème de Bayes montre que la minimisation ne fait intervenir en fait que la loi à posteriori
donc l'espérance devient
EΘ|Y [C (e)].
Dénition 8.1 (Moyenne à postériori)
La fonction de coût est l'erreur quadratique moyenne C (e) = eT e. La minimisation du risque conduit à un
estimateur qui n'est autre que la moyenne à posteriori du paramètre.
Θ̂ = EΘ|Y [Θ]
Dénition 8.2 (Médiane à postériori)
(8.2)
Une fonction de coût en valeur absolue C (e) = |e|, conduit à la médiane à posteriori.
On choisit Θ̂ tel que
Pr
x
< Θ̂ |Y = Pr x > Θ̂ |Y
(8.3)
Dénition 8.3 (Maximum a posteriori)
La fonction de coût dénie par
(
0 si e ∈ [−∆; ∆]
C (e)
1 sinon
75
(8.4)
Page 76
CHAPITRE 8. NOTIONS UTILES
conduit à l'estimateur du maximum a posteriori.
Θ̂ = arg max Pr (Θ|Y)
Θ
(8.5)
8.2 Rappels de dérivation vectorielle
Voici quelques résultats utiles de dérivation par rapport à un vecteur.
Soit
x
et
y
des vecteurs colonne de taille
multiplication avec
x), alors on a
n
et
xT y
∂x ∂ yT x
∂x ∂ xT M
∂x
∂ (Mx)
∂x ∂ xT Mx
∂x
∂
M
une matrice de taille convenable (par rapport à la
=y
(8.6)
=y
(8.7)
=M
(8.8)
= MT
(8.9)
=
M + MT x
(8.10)
Références
[1] Jean-François Bercher. Notions d'estimation. Polycopié de cours ESIEE.
[2] Steven M.Kay.
Fundamentals of Statistical Signal Processing : Estimation Theory.
Prentice-Hall, 1993.
76
Signal Processing Series.
Chapitre 9
Estimation de phase par méthode
bayésienne
Avec le modèle des mesures
y(n) = A sin (2πf0 n + φ),
nous ne connaissons ni la phase ni l'amplitude. Après
avoir implémenté les estimateurs trouvés à partir du maximum de vraisemblance, on peut s'intéresser à la
méthode de Bayes, qui considère les paramètres à estimer aléatoires et non plus déterministe comme la méthode
précedente.
9.1 Calcul de l'estimateur
Il faut ainsi déterminer les lois marginales de
A
et
φ,
que l'on appelle lois
à priori.
Dans un premier temps, nous allons choisir un cas gaussien centré pour l'amplitude.
2
A ∼ N 0, σA
(9.1)
Une hypothèse plus judicieuse aurait été de prendre une loi de Rayleigh, pour ne considérer que des amplitudes
positives, mais le cas gaussien permet des calculs plus simples pour démarrer.
En ce qui concerne l'a priori sur
sur la variable aléatoire
Aejφ )
φ,
plusieurs essais (en considérant une loi uniforme, ou une loi gaussienne
ont montré que l'écriture du critère obtenu à partir de la loi à postériori, ainsi
que sa minimisation ne faisait plus intervenir l'a priori.
La solution est de faire intervenir une famille de densités pour la loi sur
f (φ, Lm ) =
où le paramètre
Lm
constitue l'index et
I0
φ
[4], dénie par
exp (Lm cos (φ − φ0 ))
2πI0 (Lm )
(9.2)
la fonction de Bessel de la première espèce et d'ordre
1
I0 (x) =
2π
Z
0
avec
2π
exp (ix cos (τ )) dτ
(9.3)
0
Nous avons donc la densité suivante
Cette loi permet, par le contrôle du paramètre
Lm ,
de se "reserrer" autour d'une valeur de phase. Cette loi
est particulèrement adapté lors des pics de bruit, car on peut alors choisir
Lm
grand pour conserver la valeur
de phase l'a priori.
Par ailleurs, sur une plage d'échantillon où le bruit est faible, on peut réduire le paramètre
Lm
ce qui a pour
eet de faire tendre la loi vers une loi uniforme, pour détecter éventuellement des changements de phase.
77
Page 78
CHAPITRE 9.
ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE
Fig. 9.1 Loi à priori de la phase indexée par le paramètre
Lm
avec
φ0 =
π
4
fA,φ|Yn (A, φ) ∝ fYn |A,φ (Yn |A, φ) fA (A) fφ (φ)
!
PN −1
2
A2
n=0 (y(n) − A sin (2πf0 n + φ))
∝ exp −
exp (Lm cos (φ − φ0 ))
exp
−
2
2σb2
2σA
En maximisant cette densité conditionnelle par rapport à
critère
J
A
puis
φ,
(9.4)
(9.5)
on se ramène à la minimisation d'un
tel que
PN −1
J=
En dérivant par rapport à
n=0
A
et
2
(y(n) − A sin (2πf0 n + φ))
A2
+
2 − Lm cos (φ − φ0 )
2σb2
2σA
φ,
(9.6)
on aboutit à 2 équations couplées suivant ces 2 paramètres.
β
A N
σb2
α
cos φ̂ +
sin φ̂ −
+ 2 =0
N
N
N 2
σA
sin φ̂ cos φ̂ Aβ
Aα
+
L
sin
(φ
)
−
+
L
cos
(φ
)
=0
m
0
m
0
N
σb2
N
σb2
78
(9.7)
(9.8)
9.1.
CALCUL DE L'ESTIMATEUR
Page 79
avec
α=
N
−1
X
y(n) sin (2πf0 n)
(9.9)
y(n) cos (2πf0 n)
(9.10)
n=0
β=
N
−1
X
n=0
Pour un nombre de points susamment grand et multiple de la demi-période, on a montré que
sin (φ)
α
≈
N
2
cos (φ)
β
≈
N
2
(9.11)
(9.12)
On constate donc dans cette hypothèse que pour (9.7) et (9.8), si le bruit devient trop fort, les termes relatifs
à la vraisemblance s'évanouissent, la prépondérance va au termes d'a priori. A contrario si le bruit devient faible,
seuls les termes de vraisemblance demeurent.
Cet estimateur s'adapte donc à la puissance du bruit de mesure, et on l'apellera donc
estimateur adaptatif.
Les équations (9.7) et (9.8) sont couplées et non linéaires, leur résolution se fera donc à l'aide d'une méthode
itérative.
9.1.1 Résolution directe croisée (algorithme bloc)
Cette méthode est basée sur les expressions de
valeur de
φ(k)
à partir de la valeur de
A(k − 1).
A = f (φ)
et
φ = g (A).
Itérativement, on calcule la nouvelle
On obtient ainsi
A (k) β + Lm σb2 sin (φ0 )
φ (k + 1) = arctan
A (k) α + Lm σb2 cos (φ0 )
α cos (φ (k)) + β sin (φ (k))
A (k + 1) =
σb2
N
2 + σ2
(9.13)
(9.14)
A
On initialise au départ l'amplitude ou la phase (A(0) ou
φ(0)),
puis on remplace une de ces valeurs dans
l'équation de l'autre paramètre, d'où la résolution croisée.
L'algorithme s'arrête lorsque
A (k + 1) − A (k) < 1
φ (k + 1) − φ (k) < 2
(9.15)
(9.16)
c'est-à-dire lorsque la phase et l'amplitude n'évoluent plus signicativement.
Même si cette technique de résolution ne donne pas les meilleurs résultats, elle permet des temps de calcul très
rapide puisqu'elle converge en quelques itérations (<10). On utilisera donc cette méthode pour les simulations.
9.1.2 Résolution par un ltrage RLS (algorithme temps réel)
Soit
T
Θ = [Θ1 Θ2 ]
T
= [A cos (φ) A cos (φ)]
le vecteur classique des paramètres à estimer. On pose une
fonction de coût de la forme
Jn (Θ) =
n
X
p=0
79
λn−p p (Θ)
(9.17)
Page 80
où
p (Θ)
CHAPITRE 9.
ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE
est le log postériori, soit
T
(Yn − Hn Θ) (Yn − Hn Θ) kΘk2
+
− Lm cos (φ0 )
2
2
2σb
2σA
2
n (Θ) =
En notant que
sin (φ0 )
Θ
kΘk2
(9.18)
H est une matrice symétrique, on pose également 2 nouvelles fonctions
∂n (Θ)
∂Θ
HTn (Yn − Hn Θ) Θ
=−
+ 2 − Lm L
σb2
σA
Ln (Θ) =
(9.19)
(9.20)
avec
L = kΘk−1
2
cos (φ0 )
cos (φ0 ) sin (φ0 )
−3
− kΘk2 diag (Θ)
Θ
sin (φ0 )
cos (φ0 ) sin (φ0 )
(9.21)
et
n
∂ 2 Jn (Θ) X n−p ∂Lp (Θ)
=
λ
(9.22)
∂Θ∂Θ
∂Θ
p=0


T 

−5
−3
T
T
n
T
X
M
+
M
Θ
−
3Θ
kΘk
Θ
M
Θ
kΘk
H
H
1
1
I2
1
2
2


 p p
−3
 
+ 2 + Lm kΘk2 diag (Θ) C + 
=
λn−p 

2
−5
−3
T
T
σ
σ
M2 + M2 Θ − 3Θ kΘk Θ M2 Θ
kΘk
A
b
p=0
Kn =
2
2
(9.23)
avec
C=
cos (φ0 ) sin (φ0 )
c
= 1
cos (φ0 ) sin (φ0 )
c2
M1 = e1 c1
M2 = e2 c2
e1 = [1
avec e2 = [0
avec
(9.24)
T
0]
(9.25)
T
1]
(9.26)
L'algorithme RLS sous-jacent est donné par la forme récursive [1]
−1
Θn+1 = Θn − Kn+1
(Θn ) L (Θn )
On l'appelera
(9.27)
algorithme RLS MAP. Implanter tel quel avec des heuristiques convenables sur les paramètres
d'à priori, l'algorithme présentera un temps de reaction très lent aux sauts de phase, bien qu'il nira toujours
par converger vers la bonne valeur.
Cette capacité de poursuite médiocre est en fait due au fait que le critère d'erreur
p
contient tout le passé
du signal. Ce critère n'est donc pas optimal en cas d'une forte variation de la phase, car l'algorithme oubliera
très lentement l'ancienne valeur de phase.
La solution la plus évidente consiste donc à limiter la mémoire du critère d'erreur, comme nous l'avons déjà
vu pour le RLS du maximum de vraisemblance.
On peut penser que le fait de limiter cette mémoire revient identiquement à diminuer le facteur de bruit.
Ce n'est pas exact, car à
λ
xé à une valeur faible, il faut un nombre d'échantillons après le saut de phase
80
9.2.
SIMULATIONS
Page 81
très supérieur au nombre d'échantillons avant le saut de phase, pour que le poids de l'ancienne phase devienne
négligeable. La diminution du facteur d'oubli intervient peu dans la convergence de l'algorithme, pour une
critère d'erreur à mémoire innie.
Pour les changements à apporter, se référer à 6.2.1.
Par ailleurs, le facteur le plus important dans l'adaptativité de l'algorithme, concerne la mise en place
d'heuristiques sur les paramètres d'a priori.
On pose ainsi
Lm = ασ̂b2
avec
α
(9.28)
un facteur de pondération.
Quand le bruit augmente trop, l'algorithme favorise l'a priori, et cet à priori est centré autour de la
dernière valeur de
φ
estimée. L'estimation de la variance du bruit est libre, on peut par exemple utiliser
un estimateur classique
T
[y (i − N + 1) . . . y(i))]
σ̂b2 (i) =
,
1
N
Pi
j=i−N +1
(YN (i) − HN (i)Θi−1 ) (YN (i) − HN (i)Θi−1 )
T
avec
HN (i) étant construit de la même manière à l'aide de ses vecteurs lignes.
YN (i)
=
La variance de la loi à priori l'amplitude, quant à elle, est inversement proportionnel à la variance du bruit
estimé.
2
σA
=
avec
β
1
βσb2
(9.29)
constante de pondération.
9.2 Simulations
9.2.1 Biais et variance de l'algorithme bloc
(a) Biais
(b) Ecart-type
Fig. 9.2 Biais et écart-type de l'estimateur adaptatif (amplitude et phase)
Lm = 100 et Hormis le problème d'intermination de
arctan, les performances sont bien meilleures que pour les
Ces simulations ont été réalisées avec les paramètres
la phase à
π
près, due à l'utilisation de la fonction
estimateurs MV. En eet, pour des RSB relativement élevés, le biais devient négligeable au bout de quelques
centaines de points.
On constate par ailleurs que l'écart-type ne tend pas vers 0 mais vers 5 degré environ.
81
Page 82
CHAPITRE 9.
ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE
9.2.2 Algorithme RLS MAP
Pour les simulations, on choisit comme valeurs
α = 15
β = 10−6
N = 100 (fenêtre pour l'estimateur de variance
M = 500 (mémoire pour le critère d'erreur)
λ = 0.7
du bruit)
Fig. 9.3 RLS MAP - Relevés de phase et d'amplitude avec bruit fort au mileu des mesures
La gure 9.3 nous montre les tracés pour une variation de bruit. Les 2000 premiers échantillons contiennent
un bruit de variance
σb2 = 1
(RSB=-3 dB), les échantillons de 2000 à 6000 un bruit de variance
σb2 = 200
(RSB=-26 dB), et le dernier quart des mesures contient le même bruit qu'au départ.
On constate que le pic de bruit entraîne une variation très lente de la phase. L'ensemble est équivalent à
un ltre passe-bas sur la phase, contrôlé par le paramètre
Lm ,
et donc par la puissance du bruit. Le ltre se
réadapte plus vite, une fois passé le pic de bruit.
2
On peut également tester ses performances sur un bruit moyen (σb = 10 et RSB=-13 dB) qui reste constant.
Les performances, montrées en gure 9.4, bien qu'étant moyennes, permettent encore de distinguer le saut de
phase.
Cependant, pour ce même bruit constant, il est possible de trouver des réglages plus ns. En prenant
α = 100
β = 10−6
N = 100 (fenêtre pour l'estimateur de variance
M = 1600 (mémoire pour le critère d'erreur)
λ = 0.4
du bruit)
on obtient des meilleurs résultats, présentés gure 9.5.
Ceci met en évidence le compromis entre la variance des estimations et la rapidité de convergence, arbitré
par les paramètres de l'algorithme (mémoire, facteur d'oubli) et les paramètres des lois a priori.
82
RÉFÉRENCES
Page 83
Fig. 9.4 RLS MAP - Relevés de phase et d'amplitude avec bruit constant
Fig. 9.5 RLS MAP - Relevés de phase et d'amplitude avec bruit constant et un réglage de paramètre plus n
Références
[1] Katia Hilal and Pierre Duhamel. A general form for recursive adaptative algorithms leading to an exact
recursive CMA.
[2] Simon Haykin.
IEEE, 1992.
Adaptative Filter Theory.
Information and System Sciences Series. Prentice-Hall, fourth
edition, 2001.
[3] Steven M.Kay.
Fundamentals of Statistical Signal Processing : Estimation Theory.
Signal Processing Series.
Prentice-Hall, 1993.
[4] A.J Viterbi.
Optimum detection and Signal Selection for partially Coherent Binary Communication.
IEEE Transactions on Information Theory, volume IT-11, pages 239246, April 1965.
83
In
Page 84
CHAPITRE 9.
ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE
84
Résumé des algorithmes étudiés
2 types d'algorithmes ont été développés, les algorithmes blocs et temps réels. Les algorithmes blocs, qui
sont simplement les estimateurs basiques appliqués sur une fenêtre d'échantillons, peuvent naturellement être
utilisés à chaque nouvel échantillon, en décalant simplement la fenêtre. Néanmoins, cela demande un coût de
calcul très élevé, et on perd l'aspect temps réel. Cette caractéristique est notamment réalisée par les algorithmes
RLS.
Dans ce dernier chapitre, nous allons présenter sous forme de tableau récapitulatif, les performances des
algorithmes développés et leur domaine d'utilisation.
Algorithmes blocs
Algorithme
Dynamique
de RSB
Temps
de calcul
Réaction au saut de phase
Biais/Ecart-type
MV en Arctan
Théorique-
Rapide
Dépend de la taille du bloc
ment
dans le
illimitée avec
cas bruit
une taille de
blanc,
bloc en
long dans
de l'estimateur. Ecart-type
conséquence
le cas
asymptotique nulle
bruit
(simulations)
Biais ni uniquement
asymptotiquement (nul
par simulation), mais
indétermination à
π
près
corrélé
MV en Arccos
Théorique-
Rapide
ment
dans le
Dépend de la taille du bloc
n'importe quelle taille de
illimitée avec
cas bruit
bloc, biais nul pour
une taille de
blanc,
l'estimateur du
bloc en
long dans
conséquence
le cas
cos (φ)(théoriquement)
pour l'estimateur de φ
bruit
Existence d'un biais pour
(par simulation). Pas
corrélé
d'indétermination à
π
près.
Ecart-type asymptotique
nulle (simulations)
MAP
Théorique-
Moyen
Dépend de la taille du bloc
Ecart-type sur la phase
ment
constante et ne dépend pas
illimitée et
de la taille du bloc. Biais
s'adapte aux
décroît avec
pics de bruit
l'augmentation de la taille
à taille de
du bloc
bloc constant
85
Page 86
Résumé des algorithmes étudiés
Algorithmes temps réel
Algorithme
Dynamique de
RSB
Temps de
calcul
Réaction au
saut de phase
Convergence/Biais/Ecart-type
LMS
Jusqu'à -3 dB
Rapide
Très rapide, en
Convergence pour un nombre
MV
quelques
d'itérations inni. Ecart-type
échantillons
dépend du pas (qui permet de
Rapide si la
Convergence pour un nombre
ltrer la phase)
RLS
Jusqu'à -10 dB
MV
Long
(inversion
mémoire est
d'itérations ni. Ecart-type dépend
d'une matrice
petite, lente si la
du facteur d'oubli et de la taille de
de meme taille
mémoire dépasse
la mémoire.
que la
100 échantillons
mémoire)
RLS
Jusqu'à -13 dB en
Moyen
Même compromis
Convergence pour un nombre
MAP
bruit constant,
(dépend de la
que le RLS MV
d'itérations ni. Ecart-type dépend
s'adapte à des
taille de la
du facteur d'oubli et de la taille de
dégradations
mémoire)
la mémoire, ainsi que des
temporaires du
paramètres de l'à priori.
RSB.
Kalman
Jusqu'à -13 dB
Très rapide
carté-
Lent (à cause du
Convergence pour un nombre
modèle d'état)
d'itérations ni. Ecart-type quasi
Lent (à cause du
Convergence pour un nombre
modèle d'état)
d'itérations ni. Ecart-type quasi
sien
Kalman
avec
nul (par simulation)
Illimitée
Très rapide
sous-
nul (par simulation). On dispose
traction
d'une mesure du bruit environnant
de bruit
indépendante.
86
Conclusion
Conclusion et perspectives
Durant ce stage, nous avons donc présenté plusieurs algorithmes pouvant répondre au problème d'estimation de phase de l'otoémission. La principale motivation concernant leur choix est le niveau de bruit présent
sur les mesures, et de manière moins importante, la capacité de poursuite et la rapidité de convergence. Ces
algorithmes sont donc destinés pour des mesures eectuées en environnement très bruyant. Une version incluant
une soustracteur de bruit a également été développée, si des modications ultérieures du dispositif permettent
la mise en oeuvre d'une mesure du bruit environnant.
Malgré ces 4 mois de stage, il reste encore beaucoup de sujets connexes en signal auquels s'intéresser. Citons
dans le désordre
Améliorer le modèle d'état de Kalman pour permettre une réaction plus rapide aux sauts de phase
Trouver des heuristiques optimales sur les paramètres d'à priori pour le RLS MAP
Inclure la soutraction de bruit dans les algorithmes LMS et RLS
Trouver un estimateur bayésien avec un à priori de Rayleigh sur l'amplitude
Etudier théoriquement l'impact d'un bruit non gaussien, et développer de nouveaux estimateurs et algorithmes adaptés à ce type de bruit.
Apport du stage
Ce stage a été l'occasion d'observer le monde de la recherche, celui-ci s'étant déroulé dans le Laboratoire
d'Informatique de l'Institut Gaspard Monge. Bien que le sujet ne soit évidemment pas d'un niveau recherche,
nous avons quand même acquis des méthodes de travail qui y sont relatives. En eet, ce stage nous a permis
de réaliser une étude bibliographique, de communiquer avec des chercheurs et de s'imprégner de leur logique
de raisonnement. Ce stage étant essentiellement basé sur les mathématiques de l'ingénieur, nous avons de plus
acquis plus de rigueur dans les études théoriques.
Par ailleurs, ce stage nous a permis d'étudier un grand nombre de sujets mathématiques non vus à l'ESIEE,
qui touche la théorie de la mesure, la topologie, l'analyse complexe, et certains sujets de probabilité. Nous avons
de plus revu sous un autre angle et approfondi les diérents cours de signal de 4ème année.
Sans pour autant faire l'apologie du stage en université par rapport au stage en entreprise, on peut citer un
certain nombre d'avantages, comme le temps accordé pour bien comprendre les notions, la grande disponibilité
et la source de connaissances quasi-illimitée que sont les enseignants-chercheurs, les horaires souples, l'ambiance
décontractée et le salaire qui est bien au-dessus d'une prime classique de stage.
Gestion de projet
En ce qui concerne la gestion de projet, celle-ci ne s'est pas faite de façon classique comme enseignée à
l'ESIEE, c'est-à-dire une planication prévue des diérentes étapes.
87
Page 88
Conclusion
En eet, étant donné que le sujet était relativement théorique, les idées sont venues au fur et à mesure des
calculs et des lectures. Nos tuteurs nous ont proposé diérentes idées à approfondir, certaines au début du stage,
d'autres dans la 2ème moitié. Le travail quotidien alternait études théoriques, simulations, ce qui permettait de
ne pas "saturer" sur l'un ou l'autre (exemple : si on est bloqué sur un calcul, on passe à autre chose et on le
reprend plus tard). Pour donner une image plus scientique, nous n'avons pas travaille séquentiellement mais
en parallélisant les tâches. Il fallait donc souvent noter où l'on s'arretait pour ne pas oublier lors de la reprise.
Cette façon de gérer le projet a bien sûr été rendue possible du fait que ces étapes n'était pas dépendantes
entre elles, et elle a permis un travail plutôt ecace. Ce type de gestion est bien sûr propre à un travail plutôt
individuel et autonome, et ne s'applique pas à un travail d'une équipe d'ingénieurs.
88
Table des gures
1.1
Composition de l'oreille humaine
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.1
Chaîne d'acquisition du signal d'otoémission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.2
Réponse du ltre de la chaîne d'acquisition
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
3.1
Exemple de limites d'ensemble
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
4.1
Relevés de simulation de l'estimateur exhaustif pour N variant de 10 à 5000
4.2
Relevés de simulation de l'estimateur exhaustif pour
4.3
Relevés de simulation de l'estimateur exhaustif pour Fe variant de 2 à 200 KHz
. . . . . . . . .
34
4.4
Relevés de simulation de l'estimateur sous-optimal pour N variant de 10 à 5000
. . . . . . . . .
39
4.5
Biais en fonction du RSB
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
4.6
Relevés de simulation de l'estimateur approximé pour Fe variant de 2 à 200 KHz
. . . . . . . . .
40
4.7
Diérence entre les 2 estimateurs
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
Loi de la v.aX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5.1
Schéma d'un ltre adaptatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
6.1
LMS MV - Suivi de phase et d'amplitude constante . . . . . . . . . . . . . . . . . . . . . . . . . .
60
6.2
LMS MV - Suivi de phase variable et d'amplitude constante . . . . . . . . . . . . . . . . . . . . .
61
6.3
LMS MV - Suivi de phase et d'amplitude variables . . . . . . . . . . . . . . . . . . . . . . . . . .
61
6.4
RLS MV - Simulations en bruit faible et moyen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
7.1
Relevés de phase et d'amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
7.2
Relevés de phase et d'amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
7.3
Tracé de l'amplitude et de la phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
7.4
Tracé d'amplitude et de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
7.5
Tracé d'amplitude et de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
7.6
Suivi de phase et d'amplitude avec soustraction de bruit . . . . . . . . . . . . . . . . . . . . . . .
71
7.7
Suivi de phase et d'amplitude avec pollution sonore . . . . . . . . . . . . . . . . . . . . . . . . . .
71
7.8
Suivi de phase et d'amplitude avec soustraction de bruit . . . . . . . . . . . . . . . . . . . . . . .
72
9.1
Loi à priori de la phase indexée par le paramètre
78
9.2
π
4 . . . . . . . . . . . . . . . . . .
Biais et écart-type de l'estimateur adaptatif (amplitude et phase) . . . . . . . . . . . . . . . . . .
9.3
RLS MAP - Relevés de phase et d'amplitude avec bruit fort au mileu des mesures
. . . . . . . .
82
9.4
RLS MAP - Relevés de phase et d'amplitude avec bruit constant
. . . . . . . . . . . . . . . . . .
83
9.5
RLS MAP - Relevés de phase et d'amplitude avec bruit constant et un réglage de paramètre plus
4.8
4.9
Loi de l'estimateur
4.10 Biais du
n
cos φ̂
cos φ̂
en fonction du paramètre
Λ
Lm
σb2
variant de 0.1 à 30
avec
. . . . . . . . . . .
33
. . . . . . . . . . . .
34
φ0 =
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
81
83
Téléchargement