Rapport de Stage Eectué de Mai à Aout 2007 par Leire Azpilicueta et Pascal Vallet Estimation de phase d'un signal d'otoémission pour un procédé de diagnostic de la maladie de Menière Chevreuil Bercher Tuteur UMLV Antoine Tuteur ESIEE Jean-François Page 2 2 Table des matières Remerciements 7 Notations 9 Introduction 11 I Généralités sur le projet Dreamm 13 1 Cadre médical et présentation du projet 15 1.1 Constitution de l'oreille humaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2 Otoémission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.3 La maladie de Menière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4 Base scientique du projet DREAMM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.5 Objectif du stage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2 Concepts techniques 19 2.1 Chaîne d'acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2 Test du dispositif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 II Estimation de phase par maximum de vraisemblance 21 3 Notions utiles 23 3.1 3.2 Rappels sur l'estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.1.1 Maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.1.2 Performance d'un estimateur 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rappels sur la convergence des variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Estimation de phase par maximum de vraisemblance 25 31 4.1 Modèle d'observation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2 Estimateur optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2.1 Cas d'un bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2.2 Biais de l'estimateur optimal en Arctangente . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.2.3 Cas d'un bruit coloré (cas général) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Estimateur sous-optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.3.1 Cas d'un bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.3.2 Biais de l'estimateur sous-optimal en Arctangente . . . . . . . . . . . . . . . . . . . . . . 36 4.3.3 Diérence entre les 2 estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.3 3 Page 4 TABLE DES MATIÈRES 4.3.4 Biais de l'estimateur sous-optimal en Arccosinus . . . . . . . . . . . . . . . . . . . . . . . 40 4.3.5 Cas d'un bruit corrélé (cas général) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.4 Borne de Cramer-Rao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.5 Comparaison avec un signal en enveloppe complexe . . . . . . . . . . . . . . . . . . . . . . . . . . 46 III Estimation de phase par ltrage adaptatif 49 5 Notions de ltrage adaptatif 51 5.1 5.2 Filtres à minimisation MSE et LSE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 5.1.1 Filtrage de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.1.2 Descente de gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.1.3 Algorithme du gradient stochastique LMS (Least Mean Square) . . . . . . . . . . . . . . . 52 5.1.4 Algorithme des moindres carrés récursifs RLS (Recursive Least Square) . . . . . . . . . . 53 Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.2.1 Filtrage de Kalman linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.2.2 Filtrage de Kalman étendu (EKF) 56 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Estimation de phase par ltrage LMS et RLS 6.1 6.2 6.3 59 6.1.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.1.2 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Estimation par le RLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.2.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.2.2 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Estimation de phase par ltrage de Kalman 7.1 7.2 7.3 59 Estimation par le LMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 63 Filtrage étendu classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7.1.1 Modèle 63 7.1.2 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7.1.3 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 7.1.4 Conclusion 65 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Filtrage avec modélisation cartésienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.2.1 Modèle 7.2.2 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.2.3 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Filtrage avec soustraction de bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 7.3.1 Le modèle et les équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 7.3.2 L'algorithme 69 7.3.3 Correction du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 7.3.4 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 7.3.5 Conclusion 71 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV Estimation de phase par méthode bayésienne 73 8 Notions utiles 75 8.1 Estimation bayésienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Rappels de dérivation vectorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 75 76 TABLE DES MATIÈRES Page 5 9 Estimation de phase par méthode bayésienne 9.1 9.2 Calcul de l'estimateur 77 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 9.1.1 Résolution directe croisée (algorithme bloc) . . . . . . . . . . . . . . . . . . . . . . . . . . 79 9.1.2 Résolution par un ltrage RLS (algorithme temps réel) . . . . . . . . . . . . . . . . . . . 79 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 9.2.1 Biais et variance de l'algorithme bloc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 9.2.2 Algorithme RLS MAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 Simulations Résumé des algorithmes étudiés Algorithmes blocs 85 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Algorithmes temps réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Conclusion 87 Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Apport du stage et gestion de projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Gestion de projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Table des gures 89 5 Page 6 TABLE DES MATIÈRES 6 Remerciements Nous tenons particulèrement à remercier Messieurs Antoine Chevreuil (UMLV) et Jean-François Bercher (ESIEE), pour leur disponibilité exemplaire, leurs qualités humaines ainsi que leurs compétences en signal, sans lesquelles beaucoup de résultats n'auraient pas vu le jour. Nous remercions également Messieurs Lilian Buzer (ESIEE) et Paul Avan (INSERM) pour nous avoir accordé du temps pour des questions. 7 Page 8 8 Notations Voici les principales notations utilisées dans ce rapport et leur signication. E [.] Pr (.) B (.) Var [.] Cov [.] diag (.) k.k2 x x det Espérance Probabilité Biais Variance Covariance Opérateur diagonal Norme 2 d'un vecteur scalaire vecteur Opérateur déterminant 9 Page 10 10 Introduction Ce stage s'est déroulé à l'Université de Marne-la-Vallée sous la tutelle de M. Antoine Chevreuil et M. JeanFrançois Bercher, et a été rémunéré par le projet Dreamm. Le travail de ce stage porte sur l'estimation de la phase à l'origine de signaux acoustiques renvoyés par l'oreille suite à une excitation sonore par certaines fréquences. La première partie de ce rapport présente le projet Dreamm, et les bases scientiques qui soutiennent sa réalisation. Des concepts médicaux sont introduits, ainsi que des notions techniques concernant le dispositif électronique mis au point par des stages et projets scolaires précédents. Les tests et les conclusions sur le matériel sont explicités. La seconde partie, rentre dans le coeur du stage. Elle introduit l'estimation par maximum de vraisemblance et présente les estimateurs mis au point sous forme d'algorithmes blocs. Leurs performances statistiques sont également étudiées, plus particulièrement le biais et la variance. La troisième partie présente l'estimation de phase par ltrage adaptatif, les travaux eectués sur les algorithmes temps réel. Des tests sur leurs performances ont été réalisés, mettant en évidence leur capacité de poursuite lors de sauts de phase, leur vitesse de convergence ainsi que l'erreur uctuante. La quatrième et dernière partie de ce rapport concerne l'estimation bayésienne, où l'on considère la phase aléatoire et l'on pose des à priori sur les paramètres inconnus. Un algorithme bloc et temps réel ont été développés, et leurs performances sont étudiées et comparées aux résultats obtenus dans les parties précédentes. Les parties calculatoires (2,3 et 4) commencent par un chapitre de rappels des notions utiles pour la compréhension des calculs réalisés par la suite. Dans un intérêt pédagogique, les nouvelles notions découvertes pendant ce stage ont toutes été démontrées. 11 Page 12 12 Première partie Généralités sur le projet Dreamm 13 Chapitre 1 Cadre médical et présentation du projet 1.1 Constitution de l'oreille humaine L'oreille est constituée de 3 parties. L'oreille externe, composée du pavillon et du conduit auditif, a pour rôle de capter et d'acheminer les ondes sonores vers l'oreille moyenne. L'oreille moyenne, composée principalement du tympan, de petits os et de la trompe d'Eustache. Les ondes sonores acheminées par le conduit auditif parviennent au tympan et font vibrer celui-ci. Les os (le marteau, l'enclume et l'étrier) transmettent les mouvements du tympan à l'oreille interne. La trompe d'Eustache a une fonction de protection (équilibre de la pression interne de l'oreille, bouclier contre des agents pathogènes). La dernière partie, l'oreille interne, est un milieu liquide constitué de l'élément principal de l'ouie, la cochlée, et du vestibule. La cochlée est elle-même constituée de cellules cilées internes et externes. Les cellules externes sont mises en mouvement lors de l'arrivée d'un son et ont pour rôle d'amplier ce dernier. Les cellules cilées internes ont pour rôle de transmettre des messages électriques au cerveau en étant reliées aux bres nerveuses. Elles assurent donc la traduction de l'onde acoustique en onde électrique, cette dernière étant acheminée via le nerf auditif. Elles ont ainsi un rôle de transduction électromécanique. Le vestibule a quant à lui un rôle dans l'équilibre de l'individu, en détectant l'accélération et la position angulaire de la tête (exemple des sensations perçues dans les oreilles lors d'un mouvement de balancier de la tête). Fig. 1.1 Composition de l'oreille humaine 15 Page 16 CHAPITRE 1. CADRE MÉDICAL ET PRÉSENTATION DU PROJET 1.2 Otoémission L'oreille interne a une propriété particulière en plus de sa fonction de "reconnaissance des sons" ; en eet, si elle est excitée par des stimulis acoustiques, elle peut elle-même générer des ondes acoustiques. C'est le phénomène d'otoémission essentiellement mis en en avant par les travaux de Kemp [1].L'otoémission provient des cellules cilées externes, qui, en entrant en vibration, produisent leurs propres ondes acoustiques. Des expériences ont été faites en envoyant 2 ondes sinusoidales de fréquences proches f1 et f2 ( f1 < f2 ). Les résultats ont montré que l'oreille se comporte comme un dispositif non linéaire en renvoyant les fréquences pures plus des harmoniques et des produits d'intermodulation. Ces derniers sont appelés DPOAE (Distortion Product OtoAcoustic Emission) et sont des combinaisons linéaires des fréquences d'entrée montré que des résultats optimaux sont obtenus pour f1 et f2 . Il a été également f2 ≈ 1.2f1 . On considère également qu'un individu avec une bonne santé auditive renvoie les DPOAE a un certain niveau de décibel (de l'ordre de 15 dB pour un niveau de 70 dB pour les stimulis). 1.3 La maladie de Menière La maladie de Menière est décrite comme un trouble de l'oreille interne entraînant des symptômes comme le vertige, le déséquilibre et ou l'acouphène. Sa première description a été publiée par Prosper Menière en 1861. Aujourd'hui elle touche plus de 600000 individus aux Etats-Unis et plus de 100000 en France. Elle est présente typiquement chez des individus agées entre 20 et 50 ans et 5000 nouveaux cas sont recensés chaque année en France. Les causes de cette maladie sont encore inconnues, mais celle-ci s'accompagne d'une augmentation de la pression liquidienne dans l'oreille interne, la Pression Intra-Labyrinthique (PIL).Les recherches n'ont pas encore montré s'il s'agit d'une cause ou d'une conséquence de la maladie. 1.4 Base scientique du projet DREAMM Le projet DREAMM (Diagnostic Rapide Et Automatisé de la Maladie de Ménière) a pour but de mettre au point une nouvelle méthode non invasive (ne nécessitant pas d'interventions chirurgicales) de diagnostic de la maladie de Menière, et qui permet également de mesurer la PIL dans l'oreille interne grâce au phénomène d'otoémission. La base scientique du projet repose donc sur le lien entre la PIL et l'otoémission. Celui-ci s'établit par l'un des petits os de l'oreille moyenne, l'étrier, qui assure un lien avec l'oreille interne. Lorsqu'une onde acoustique traverse l'étrier en direction de l'oreille interne, celle-ci subit un déphasage. Or la PIL agit également sur ce déphasage, car elle inue sur la rigidité de l'interface oreille interne/oreille moyenne. Ce déphasage est également présent dans le signal DPOAE émis par l'oreille interne. En étant transmis à l'oreille moyenne, le signal DPOAE subit à son tour un déphasage. Il est ainsi récupéré grâce à un microphone placé dans le conduit auditif et traité par un dispositif électronique. Plusieurs études ont montré que le signal DPOAE n'est pas exploitable chez tous les sujets, c'est pourquoi une 2ème méthode de mesure a été mise aux point. Elle consiste à récupérer le signal électrique émis par les cellules sensorielles transductrices, suite à l'excitation de l'oreille par des stimulis sinusoidaux. Des électrodes sont ainsi placées sur le crâne et permettent donc de récupérer cette information électrique qui n'aura donc subit qu'un déphasage. 1.5 Objectif du stage La diculté du projet réside dans la mesure du déphasage avec une certaine précision. En eet, le signal d'otoémission récupéré est noyé dans le bruit, ce dernier pouvant provenir de l'intérieur de l'oreille ou de l'extérieur. 16 RÉFÉRENCES Page 17 Les bruits internes à l'oreille peuvent provenir du frottement du bouchon contre le pavillon, de la contraction des muscles de la machoire (mastication), ainsi que de la circulation sanguine (carotide). Les bruits externes concernent l'environnement dans lequel les mesures sont réalisées. S'il s'agit d'une ambulance, on peut avoir à faire à des bruits de sirènes, des cris. L'objectif de ce stage est de réaliser une estimation du déphasage du signal DPOAE par des méthodes de traitement de signaux. Ceci passe donc par la mise au point d'un modèle pour les signaux, le bruit, ainsi que la réalisation d'algorithmes ecaces garantissant une erreur d'estimation raisonnable. Références [1] Annie Moulin and David T. Kemp. Multicomponent acoustic distortion product otoacoustic emission phase in humans. II. Implications for distortion product otoacoustic emissions generation. J. Acoust. Soc. Am., 100 :16401662, 1996. [2] OAE. Site d'information sur la recherche en otoémission acoustique. index_1024.html. [3] Wikipedia. http://www.otoemissions.org/ Recueil d'articles sur la composition et le fonctionnement de l'oreille humaine. wikipedia.org/wiki/Category:Auditory_system. 17 http://en. Page 18 CHAPITRE 1. CADRE MÉDICAL ET PRÉSENTATION DU PROJET 18 Chapitre 2 Concepts techniques Un dispositif électronique/informatique a été mis en place, au travers de stage et de projets précédents. Il demeure bien sûr encore à l'état expérimental, mais la compréhension du fonctionnement du dispositif a motivé la mise au points des algorithmes et de leurs simulations. 2.1 Chaîne d'acquisition Toute chaîne d'acquisition dispose en premier étage d'un capteur. Ici, nous avons un microphone de type oreillette, susamment petit pour rentrer dans un conduit auditif. Ce dernier est associé avec des hauts-parleurs, qui permettent d'envoyer le signal acoustique d'excitation. Le signal issu du microphone contient les 2 sinusoïdes d'excitation de fréquence 1000 Hz et 1200 Hz, et un signal d'otoémission de fréquence 800 Hz. Il est possible de récupérer également un bruit d'alimentation à 50 Hz. Pour ne conserver que l'otoémission, un ltre analogique actif avec réponse de type Cauer d'ordre 8 (voir gure 2.2) vient en 2ème étage de la chaîne. Le 3ème étage, constitué d'un amplicateur à gain programmable (PGA), amplie le signal de 10 dB à 65 dB. Les étages suivants concernent la numérisation du signal, à l'aide d'un convertisseur analogique-numérique, et un circuit programmable type FPGA, permettant la synchronisation des horloges et la communication des mesures à un ordinateur. La chaîne complète est présentée en gure 2.1. Fig. 2.1 Chaîne d'acquisition du signal d'otoémission Fig. 2.2 Réponse du ltre de la chaîne d'acquisition 19 Page 20 CHAPITRE 2. CONCEPTS TECHNIQUES 2.2 Test du dispositif Durant le stage, nous avons eu en main pendant quelques semaines le dispositif et nous avons pu tester les performances. Il est composé d'un mini-pc, contenant un disque dur et une carte d'acquisition, interface entre le boitier électronique et le mini-pc. L'échantillonnage est de 200 kHz. Un programme LabView permet d'acher en temps réel les mesures eectées. Malheureusement, il s'est avéré que les mesures réalisées contenaient une fréquence à 800 Hz qui n'était pas de l'otoémission. En eet, nous avons mis en évidence un phénomène de saturation pouvant provenir des diérents éléments actifs de la chaîne, plus particulièrement du micro et des amplicateurs. L'estimation de phase de l'otoémission devient évidemment impossible si un signal de même fréquence se superpose, donc nous n'avons pas pu tester les algorithmes sur les relevés du dernier dispositif. 20 Deuxième partie Estimation de phase par maximum de vraisemblance 21 Chapitre 3 Notions utiles 3.1 Rappels sur l'estimation Le principe de l'estimation consiste à estimer la valeur des paramètres d'un modèle à partir de mesures, qu'on note y(n) pour la mesure à l'instant n, ou YN −1 = [y(0) . . . y(N − 1)]T , un vecteur regroupant les N premières mesures. Ces mesures sont donc fonction d'un paramètre forme d'un vecteur Θ, si le modèle le permet. On a θ ou de plusieurs paramètres que l'on peut regrouper sous la Y = h (Θ). La fonction h est appelé fonction d'observation. 3.1.1 Maximum de vraisemblance L'idée de l'estimation par maximum de vraisemblance (MV) est de considérer le paramètre global Θ comme déterministe. La suite consiste nalement à maximiser la fonction de vraisemblance, soit la probabilité des mesures sachant le paramètre. Θ̂ = max Pr (Y|Θ) Θ (3.1) On cherche donc la valeur des paramètres qui rendra le modèle le plus cohérent possible avec les mesures. On utilise classiquement le log vraisemblance, soit Θ̂ = maxΘ log (Pr (Y|Θ)). 3.1.2 Performance d'un estimateur La qualité d'un estimateur peut être évaluée avec plusieurs outils. Dénition 3.1 (Biais) Le biais est l'erreur moyenne entre l'estimateur et le vrai paramètre. Dans le cas d'un paramètre h h ii B Θ̂ = E Θ − E Θ̂ h i déterministe, on a B Θ̂ = Θ − E Θ̂ (3.2) Dénition 3.2 (Covariance) La covariance est l'erreur quadratique moyenne entre l'estimateur et sa moyenne. Elle mesure la dispersion des estimations. Cov [Θ] = E h i h iT Θ̂ − E Θ̂ Θ̂ − E Θ̂ 23 (3.3) Page 24 CHAPITRE 3. NOTIONS UTILES Dénition 3.3 (Intervalle de conance) Un intervalle Iα = [a1 , a2 ] est dit de conance au niveau α si Pr Θ̂ − a1 ≤ Θ ≤ Θ̂ + a2 = 1 − α (3.4) Théorème 3.1 (Borne de Cramer-Rao) Tout estimateur α̂ = f (Y) d'un vecteur de fonctions α (de dimension r) du vecteur de paramètres Θ (de dimension p) tel que α = g (Θ), possède une borne minimale pour sa covariance, c'est la borne de Cramer-Rao (CRLB). Cov [α̂] ≥ ∂E [α̂] −1 ∂E [α̂] I (Θ) ∂Θ ∂Θ T (3.5) avec I (Θ) la matrice d'information de Fisher dénie comme " ∂ ln Pr (Y; Θ) ∂ ln Pr (Y; Θ) I (Θ) = E ∂Θ ∂Θ T # = −E ∂ 2 ln Pr (Y; Θ) ∂Θ∂Θ (3.6) Démonstration Des résultats préliminaires sont à établir avant de débuter. Dans un premier temps, on écrit ∂ exp (ln Pr (Y; Θ)) ln Pr (Y; Θ) ∂ Pr (Y; Θ) = = Pr (Y; Θ) ∂Θ ∂Θ ∂Θ R Dans un second temps, en partant de Pr (Y; Θ) dY, on obtient Z Comme E [α̂] E h Y ∂ ln Pr( ;Θ) ∂Θ i Pr (Y; Θ) ∂ ln Pr (Y; Θ) dY = E =0 ∂Θ ∂Θ (3.7) (3.8) = 0, on écrit Z (α̂ − E [α̂]) ∂ ln Pr (Y; Θ) T ∂ E [α̂] Pr (Y; Θ) dY = ∂Θ ∂Θ (3.9) Pour la suite, on se ramène à une égalité scalaire en mutipliant à gauche par le vecteur aT et à droite par b, avec a et b de dimensions respectives r × 1 et p × 1, et non nuls. Z aT (α̂ − E [α̂]) ∂ ln Pr (Y; Θ) T ∂ E [α̂] b Pr (Y; Θ) dY = aT b ∂Θ ∂Θ (3.10) On a alors le produit scalaire suivant aT avec ∂ E [α̂] b = hX, Y i ∂Θ X = aT (α̂ − E [α̂]) (3.11) p Pr (Y; Θ) (3.12) ∂ ln Pr (Y; Θ) T p Y = b Pr (Y; Θ) ∂Θ (3.13) D'après l'inégalité de Cauchy-Schwarz, i.e |hX, Y i|2 ≤ hX, Xi hY, Y i On aboutit donc à aT ∂ E [α̂] b ∂Θ 2 ≤ aT Cov [α̂] abT I (Θ) b Cov [α̂] désigne la matrice de covariance de α̂ et I (Θ) = E Y Y ∂ ln Pr( ;Θ) ∂ ln Pr( ;Θ) T ∂Θ ∂Θ 24 (3.14) 3.2. RAPPELS SUR LA CONVERGENCE DES VARIABLES ALÉATOIRES Page 25 T E[α̂] a, on obtient par remplacement En posant b = I −1 (Θ) ∂ ∂Θ aT ∂E [α̂] −1 ∂E [α̂] T I (Θ) a ∂Θ ∂Θ !2 ≤ aT Cov [α̂] a aT ∂E [α̂] −1 ∂E [α̂] T I (Θ) a ∂Θ ∂Θ ! (3.15) Ainsi, aT Cov [α̂] − ∂E [α̂] T ∂E [α̂] −1 I (Θ) ∂Θ ∂Θ ! a≥0 (3.16) On voit que la matrice de Fisher est au moins semie-dénie positive car elle a la forme d'une matrice de covariance, et ∂ ln Pr(Y;Θ) 2 T (Θ) x = E x ≥ 0. En examinant le cas dénie positive, on voit que si la forme quadratique bT I (Θ) b est ∂Θ x dégénérée, alors d'après la forme (3.14), E [α̂] ne dépend pas de Θ, ce qui n'a pas de sens si le problème d'estimation est bien posé. On est donc en droit de supposer I (Θ) dénie positive et cette dernière est inversible et la valeur posée pour b est ainsi justiée. α̂] −1 ∂E[α̂] T Comme I (Θ) est dénie positive, I −1 (Θ) l'est aussi, et le produit ∂E[ I (Θ) ∂Θ est semi-déni positif, d'où la forme ∂Θ (3.16). TI Corrolaire 3.1 (CRLB dans le cas non biaisé) Si g (Θ) = Θ, c'est-à-dire que l'on estime Θ directement, et que l'estimateur est non biaisé, i.e E [α̂] = Θ, alors la CRLB devient Cov [α̂] ≥ I −1 (Θ) (3.17) Pour terminer les notions sur l'estimation par vraisemblance, 3 propriétés sont données. Pour les démonstrations, se référer à [3] et [1]. Propriétés 3.1 (Propriétés asymptotiques de l'estimateur MV) Pour un nombre d'échantillons tendant vers l'inni, 1. L'estimateur MV converge en probabilité vers la vraie valeur du paramètre (consistence) 2. La variance de l'estimateur MV atteint la CRLB (ecacité) 3. La distribution de l'estimateur MV tend vers une gaussienne. La convergence en probabilité est dénie en section 3.2 3.2 Rappels sur la convergence des variables aléatoires Ces notions sont nécessaires pour établir des résultats sur le biais des estimateurs. Tout d'abord, commençons par dénir les limites d'ensemble. Dénition 3.4 (Limites supérieure et inférieure) Soit une suite A1 , A2 , ..., An d'ensembles. On dénit les ensembles limites suivants : lim sup An = lim n n lim inf An = lim n n ∞ [ k=n ∞ \ k=n Ak = ∞ [ ∞ \ n=1 k=n ∞ \ ∞ [ Ak (3.18) Ak (3.19) n=1 k=n ω appartient à (3.18) si et seulement si pour chaque n, il existe k ≥ n ω ∈ Ak . On dit que ω appartient à An pour une innité d'indices n. événement ω appartient à (3.19) si il appartient à tous les Ak sauf un nombre ni (éventuellement). En d'autres termes, Un événement pour lequel Un Ak = 25 Page 26 CHAPITRE 3. NOTIONS UTILES Exemples évidents Sur la gure 3.1, les contours d'ensemble en gras dénissent les ensembles limites. Ces deux exemples sont triviaux mais permettent de se donner une "image" des limites d'ensembles. On peut faire le lien avec la terminologie en analyse pour les opérateurs sup et inf , qui dénissent le supremum et l'inmum, respectivement le plus petit ensemble contenant tous les ensembles, et le plus grand ensemble inclu dans tous les ensembles. D'après les dénitions précédentes, le supremum d'une suite d'ensemble est donc une suite d'ensembles décroissante, et l'inmum une suite d'ensembles croissante. (a) lim inf n An (b) lim supn An Fig. 3.1 Exemple de limites d'ensemble Théorème 3.2 (Limite et continuité d'ensemble) Soit une suite d'ensemble (An ). Si (An ) est une suite croissante vers l'ensemble A (on note An ↑ A), alors Pr (An ) ↑ Pr (A). De même si (An ) est une suite décroissante vers l'ensemble A (on note An ↓ A), alors Pr (An ) ↓ Pr (A). En écrivant autrement ces résultats, on obtient lim Pr (An ) = Pr lim An = Pr (A) n (3.20) n Démonstration On ne démontre que la cas croissant, l'autre étant similaire. Sn S Soit la nouvelle suite d'ensemble (Bn ) telle que B1 = A1 et Bk = Ak −Ak−1 . On remarque que A = ∞ k=1 Bk . k=1 Bk et An = Comme les Bk sont disjoints, on conclut que Pr (A) = ∞ X k=1 Pr (Bk ) = lim n n X (3.21) Pr (Bk ) = lim Pr (An ) k=1 n ce qui achève la démonstration. Théorème 3.3 (Inégalités des limites d'ensembles) Pour les limites supérieures et inférieures, on a les inégalités suivantes Pr lim inf An ≤ lim inf Pr (An ) ≤ lim sup Pr (An ) ≤ Pr lim sup An n n n 26 n (3.22) 3.2. RAPPELS SUR LA CONVERGENCE DES VARIABLES ALÉATOIRES Démonstration On remarque que 3.2, on a T∞ k=n Ak ↑ lim inf n An et ∞ \ Pr (An ) ≥ Pr k=n ! ! Ak Ak ↓ lim supn An . Donc d'après les résultats du théorème → Pr lim inf An (3.23) → Pr lim sup An (3.24) Ak k=n ∞ [ Pr (An ) ≤ Pr S∞ Page 27 n n k=n Dénition 3.5 (Convergence en probabilité) Soit (Xn )n∈N une suite de v.a indépendantes. On dit que (Xn )n∈N converge en probabilité sur l'espace probabilisé (Ω, B, P ) si ∀ > 0 lim P n→+∞ ω ∈ Ω | |X − Xn | < =1 (3.25) On note Xn −→ X . P Dénition 3.6 (Convergence en moment d'ordre p) Soit (Xn )n∈N une suite de v.a indépendantes. On dit que (Xn )n∈N converge vers X en moment d'ordre p si p lim E [|Xn − X| ] = 0 (3.26) n→+∞ Lp On note Xn −→ X . Dénition 3.7 (Convergence presque sûre) Soit (Xn )n∈N une suite de v.a indépendantes. On dit que (Xn )n∈N converge vers X presque sûrement (p.s) ou presque partout (p.p) ou encore avec probabilité 1 dans l'espace probabilisé (Ω, B, P ) si Pr ω ∈ Ω | lim Xn (ω) = X(ω) n→+∞ =1 (3.27) p.s On note Xn −→ X . La convergence presque sûre s'écrit également avec des limites d'ensembles Pr lim sup |Xn − X| < =1 (3.28) n Remarque La convergence presque sûre signie que pour une partie A de Ω, on a Pr (A) = 1, et que ∀ω ∈ A Xn (ω) → X(ω). C'est un critère de convergence fort car l'ensemble convergence en probabilité où l'ensemble A peut varier en fonction de n A est xé, au contraire de la (la limite est extérieure à la fonction de probabilité). Dans le cas d'une convergence en probabilité, il est possible de ne jamais converger pour un événement ω xé. Théorème 3.4 (Inégalité de Markov) Soit X une v.a dénie sur un espace probabilisé (Ω, B, P ) dont l'espérance existe. Alors ∀t > 0 Pr (|X| ≥ t) ≤ Démonstration E [|X|] t (3.29) Soit l'événement |X| ≥ t. On dénit une nouvelle variable aléatoire Y = 1|X|≥t avec 1|X|≥t la fonction indicatrice dénie comme suit 1|X|≥t = 1 si |X| ≥ t 1|X|≥t = 0 sinon On observe que E [Y ] = P (|X| ≥ t). Or on a également tY ≤ |X|. On en déduit donc Pr (|X| ≥ t) ≤ 27 E [|X|] t Page 28 CHAPITRE 3. NOTIONS UTILES Théorème 3.5 (Inégalité de Kolmogorov) Soit (Xn )n∈N une suite de v.a indépendantes, de variances nies σn2 et de moyenne nulle. Alors, pour tout x > 0 ! k n X X Pr max Xi > t ≤ t−2 Var [Xi ] 1≤k≤n i=1 Note Ce théorème est également valable dans le cas non centré, i.e Démonstration (3.30) i=1 E [Xk ] 6= 0. On dénit les notations suivantes Sn = s2n = Var [Sn ] = n X (3.31) Xk k=1 n X (3.32) σk2 k=1 Soit la variable aléatoire Yv telle que ∀ t > 0 Yv = ( 1 si |Sv | ≥ t et |Sk | < t ∀ k < v 0 sinon (3.33) La somme nk=1 Yk peut seulement prendre les valeurs 0 ou 1, car si l'inégalité (3.33) est vraie pour l'indice v , elle deviendra fausse à l'indice v + 1. On introduit également x = Pr (Y1 + . . . + Yn = 1). P On a nk=1 Yk ≤ 1 donc on peut écrire P n X (3.34) 2 E Yk Sn ≤ s2n k=1 Soit Uk = Sn − Sk , donc 2 E Yk Sn = E Yk Sk2 + 2 E [Yk Uk Sk ] + E Yk Uk2 (3.35) Sk dépend uniquement de X1 , . . . , Xk et Uk de Xk+1 , . . . , Xn , donc Sk et Uk sont indépendantes. P De plus, E [Uk ] = ni=k+1 E [Xi ] = 0, on en déduit (3.36) 2 E Yk Sn ≥ E Yk Sk2 De plus, comme Yk ne vaut que 0 ou 1, et d'après (3.33), on peut écrire Ainsi " s2n ≥ t2 E n X Yk Sk2 ≥ t2 Yk # Yk (3.37) k=1 La v.a Y = nk=1 Yk ne peut prendre que 0 ou 1, elle suit donc une distribution de Bernouilli, et E [Y] = x. P On obtient donc l'inégalité de Kolmogorov xt2 ≤ s2n , et x est bien la probabilité de l'événement max1≤k≤n ki=1 Xk > t. P Propriétés 3.2 (Implication de la convergence p.s) La convergence p.s implique la convergence en probabilité. Pr Démonstration lim Xn = X n→+∞ = 1 ⇒ lim Pr (|X − Xn | > ) = 0 n→+∞ La démonstration est instantannée en utilisant le théorème 3.3. (3.38) Propriétés 3.3 (Implication de la convergence en moment) La convergence en moment d'ordre p implique la convergence en probabilité. p lim E [|Xn − X| ] = 0 ⇒ lim Pr (|X − Xn | > ) = 0 n→+∞ n→+∞ 28 (3.39) 3.2. RAPPELS SUR LA CONVERGENCE DES VARIABLES ALÉATOIRES Démonstration Page 29 La convergence en moment implique que ∀ > 0, η > 0, ∃n0 tel que ∀n ≥ n0 E [|Xn − X|p ] ≤ p η En appliquant l'inégalité de Markov (3.29), on aboutit à Pr (|X − Xn | > ) ≤ −p E [|X − Xn |p ] ≤ η Théorème 3.6 (Loi forte des grands nombres) Soit (Xn )n∈N une suite de v.a indépendantes, centrées et identiquement distribuées. Alors Snn converge presque sûrement vers 0. Pr |Sn | =0 n→+∞ n lim =1 (3.40) Plus généralement, on dit qu'il existe un entier N,δ > 0 pour chaque couple > 0 et δ > 0 tel que ∀n ≥ N,δ Pr avec Sn = Note P Pn k=1 |Sn | < n ≥1−δ (3.41) Xk . Ce théorème est valable également pour des v.a non centrées, et dans ce cas, |Sn | n converge vers +∞ k=1 E [Xk ]. On peut également appliquer la loi forte des grandes nombres dans une hypothèse plus générale, en consi- µ= dérant les variables non identiquement distribuées, ce qui revient à satisfaire le critère de Kolmogorov. Propriétés 3.4 (Critère de Kolmogorov) La condition nécessaire et susante pour qu'une suite de v.a (Xn ) suive la loi forte des grands nombres est +∞ 2 X σ k k=1 k2 < +∞ (3.42) avec σk2 = Var [Xk ] Démonstration Soit l'événement Av tel que l'inégalité (3.41) est fausse pour les indices n tel que 2v−1 < n ≤ 2v , c'est-à-dire |Sn | ≥ 2v−1 (3.43) Pr (Av ) ≤ −2 2−2(v−1) s2n ≤ 4−2 2−2v s22v (3.44) D'après l'inégalité de Kolmogorov (3.30), avec Donc s2n = 2 i=1 σi . Pn +∞ X v=1 Pr (Av ) ≤ 4−2 n X v=1 v 2−2v 2 X k=1 Or on sait que 2v ≥k 2−2v = 2 × 2−2v et 2v ≥ k ⇒ 2−2v ≤ P On en déduit 2v ≥k 2−2v ≤ k22 et nalement P +∞ X σk2 = 4−2 +∞ X k=1 σk2 X (3.45) 2−2v 2v ≥k 1 . k2 Pr (Av ) ≤ 8−2 v=1 +∞ X k=1 σk2 La probabilité qu'au moins une valeur de n fasse que l'inégalité |Snn | < soit fausse est bornée si 1 = n par exemple, on a donc à faire à une convergence presque partout. 29 (3.46) k2 2 σk k=1 k2 P+∞ est nie. En prenant Page 30 CHAPITRE 3. NOTIONS UTILES Références [1] Pierre-Yves Arquès. Décisions en traitement du signal. Masson, 1979. [2] Jean-François Bercher. Notions d'estimation. Polycopié de cours ESIEE. [3] E. L. Lehmann and George Casella. [4] Patrick Billingsley. Theory of Point Estimation. Probability and Measure. Springer, 2 sub edition, July 2001. Wiley Series in Probability and Mathematical Statistics. John Wiley & Sons, 3rd edition, 1994. [5] Steven M.Kay. Fundamentals of Statistical Signal Processing : Estimation Theory. Signal Processing Series. Prentice-Hall, 1993. [6] Willam Feller. An Introduction to Probability Theory and Its Application Vol.1. Wiley Series in Probability and Mathematical Statistics. John Wiley & Sons, 2nd edition, 1968. [7] Willam Feller. An Introduction to Probability Theory and Its Application Vol.2. and Mathematical Statistics. John Wiley & Sons, 3rd edition, 1970. 30 Wiley Series in Probability Chapitre 4 Estimation de phase par maximum de vraisemblance 4.1 Modèle d'observation On considère un signal sinusoïdal réel discret y donné par y(n) = A sin (2πf0 n + φ) + b (n) avec b ∼ N (0, Rbb ), avec b = [b(0) . . . b(N − 1)]T étant sa matrice d'autocorrélation, et N un processus stochastique gaussien assimilé au bruit, Rbb le nombre d'échantillons d'observation. On souhaite estimer la phase à l'origine φ du signal ainsi que l'amplitude A qui sont déterministes. Seule f0 = foto est connue à priori, avec foto la fréquence d'otoémission (800 Hz par exemple), la fréquence réduite et Fe Fe la fréquence d'échantillonnage. Nous allons donc utiliser une estimation par maximum de vraisemblance, puisque nous ne disposerons que des mesures y(n). 4.2 Estimateur optimal 4.2.1 Cas d'un bruit blanc Cette étude est tirée des travaux de Porat [1]. L'hypothèse du bruit blanc conduit à Rbb = σb2 I avec I la matrice identité Les mesures y(n) peuvent se réécrire sous la forme y(n) = sin(2πf0 n) A cos(φ) cos(2πf0 n) + b(n) A sin(φ) ou après un regroupement en vecteur, 31 Page 32 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE Y = H(f0 )Θ + b avec Y T = [y(0) . . . y(N − 1)] mètres à estimer, et T Θ = [A cos(φ) A sin(φ)] le vecteur des observations, b le vecteur du bruit déni précédemment. On dénit également la matrice d'observation, dépendant de la constante 0 1 H(f0 ) = . . . . . . sin(2πf0 (N − 1)) le vecteur des para- f0 cos(2πf0 (N − 1)) La loi de vraisemblance nous donne (en supposant les N réalisations du bruit indépendantes) p (Y|Θ) = Après développement du log 1 1 T √ exp − 2 [Y − H(f0 )Θ] [Y − H(f0 )Θ] 2σb (σb 2π)N vraisemblance, on aboutit à √ 1 T log (Y|Θ) = −N log(σb 2π) − 2 [Y − H(f0 )Θ] [Y − H(f0 )Θ] 2σb (4.1) En posant J (Θ) = 1 T [Y − H(f0 )Θ] [Y − H(f0 )Θ] 2σb2 on se ramène à la recherche du minimum de la fonction J. En faisant ∂J(a(A,φ)) ∂Θ =0 −H(f0 ) (Y − H(f0 )â(A,φ)) = 0 T On obtient ainsi Θ̂ = (H(f0 ) T H(f0 ))−1 H(f0 )T Y (4.2) Forme en arctan Une 1ère version de l'estimateur de φ vient naturellement en divisant la 2ème composante de Θ̂ par la 1ère et en appliquant l'arctangente. φ̂ = arctan Θ̂2 ! Θ̂1 (4.3) L'estimateur de l'amplitude est donné par  = q 2 2 Θ̂1 + Θ̂2 32 (4.4) 4.2. ESTIMATEUR OPTIMAL Page 33 Forme en arccos et arcsin Deux autre formes de l'estimateur peuvent être obtenues en mélangeant l'estimateur de l'amplitude avec une des 2 composantes du vecteur Θ̂. Θ̂2 φ̂ = arccos q 2 Θ̂1 + 2 Θ̂2 pour la version en arccos (4.5) pour la version en arcsin (4.6) φ̂ = arcsin q Θ̂2 2 Θ̂1 + 2 Θ̂1 4.2.2 Biais de l'estimateur optimal en Arctangente Les relevés ont été réalisés pour donner un aperçu du biais. Les calculs théoriques du biais, très techniques, n'ont pas été réalisés pour l'estimateur optimal. Des développements asymptotiques ont par contre été réalisés pour les versions sous-optimales (cf. Section 4.3.2). Pout toutes les simulations par la suite, l'amplitude de la sinusoide est xée à 1 Biais en fonction du nombre de points N (a) avec σb2 = 1 (RSB = −3dB ) (b) avec σb2 = 8 (RSB = −12dB ) Fig. 4.1 Relevés de simulation de l'estimateur exhaustif pour N variant de 10 à 5000 A partir d'une durée d'analyse de 2 périodes (soit 500 points), le biais n'évolue plus signicativement. Biais en fonction du RSB On xe la fréquence d'échantillonnage à Fe = 200kHz , et le nombre de points à N = 500. Biais en fonction de la fréquence d'échantillonnage Fe On constate que le biais n'évolue pas signicativement au-delà d'une fréquence d'échantillonnage de 20 kHz. Conclusion Après simulations, il apparaît qu'on peut faire un compromis sur les paramètres pour alléger la charge de calcul. La fréquence d'échantillonnage proposée à l'origine, qui est de par décimation des données. 33 200KHz , peut être ramenée à 20KHz , Page 34 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE Fig. 4.2 Relevés de simulation de l'estimateur exhaustif pour (a) avec σb2 = 1 (RSB = −3dB ) σb2 variant de 0.1 à 30 (b) avec σb2 = 8 (RSB = −12dB ) Fig. 4.3 Relevés de simulation de l'estimateur exhaustif pour Fe variant de 2 à 200 KHz Le nombre de périodes d'analyse est quand à lui lié de près au RSB, mais on peut dire que la moyenne pour un biais satisfaisant est comprise entre 5 et 10 périodes. 4.2.3 Cas d'un bruit coloré (cas général) La matrice d'autocorrélation du bruit blanc n'étant plus une matrice diagonale, l'estimateur Θ̂ = (H(f0 ) T −1 R−1 H(f0 )T R−1 bb H(f0 )) bb Y Dans le cas où le modèle du bruit est connu, le calcul de la matrice Rbb Θ̂ devient (4.7) peut se faire à partir de la transformée de Fourier inverse de la densité spectrale de puissance. Dans le cas où les propriétés statistiques du bruit sont inconnues, et que l'on dispose d'une mesure indépen34 4.3. ESTIMATEUR SOUS-OPTIMAL Page 35 dante de ce bruit, on peut approximer la matrice d'autocorrélation par le corrélogramme biaisé r̂bb (k) = N −1 1 X b(n)b(n − k) N avec k>0 (4.8) n=k En eet, les matrices de covariance et d'autocorrélation sont identiques pour un bruit centré. Pour simuler la coloration du bruit, nous avons appliqué un ltre passe-bande autour de 800 Hz sur les mesures. Les relevés du biais en fonction de la durée d'analyse, du RSB et de la fréquence d'échantillonnage, ont montré des résultats quasi identiques à ceux de l'estimateur bruit blanc. De plus, l'estimateur du bruit blanc a également été testé avec un bruit ltré, et les résultats sont identiques également. 4.2.4 Conclusion Les simulations concernant l'estimateur optimal ont montré des performances acceptables, ainsi que la nécessité de décimer les données pour alléger le temps de calcul. La complexité réside dans les produits et inversions matricielles. On peut donc se demander si la structure même des estimateurs ne peut pas être modiée pour éviter ces calculs coûteux. C'est l'objet de la section suivante. 4.3 Estimateur sous-optimal 4.3.1 Cas d'un bruit blanc En développant H(f0 )T H(f0 ), on obtient H(f0 ) H(f0 ) = T " N 2 PN −1 0 n) − n=0 cos(4πf 2 PN −1 sin(4πf0 n) n=0 N 2 2 PN −1 sin(4πf0 n) # n=0 2 P N −1 0 n) + n=0 cos(4πf 2 (4.9) En sommant sur un nombre entier de demi-périodes, on remarque que H(f0 ) H(f0 ) = T N 0 2 N 2 0 (4.10) Les estimateurs (4.3) (4.5) (4.6) se réécrivent donc φ̂ = arctan φ̂ = arccos φ̂ = arcsin 1 N 1 N PN −1 n=0 y (n) cos (2πf0 n) PN −1 n=0 y (n) sin (2πf0 n) ! ! y(n) sin(2πf0 n) pP P 1 ( y(n) sin(2πf0 n))2 + ( y(n) cos(2πf0 n))2 N ! P 1 y(n) cos(2πf0 n) N pP P 1 ( y(n) sin(2πf0 n))2 + ( y(n) cos(2πf0 n))2 N 1 N (4.11) P (4.12) (4.13) L'estimateur (4.11), qu'on nommera estimateur sous-optimal, est beaucoup moins couteux que l'estimateur (4.3), car on s'aranchit des calculs d'inversion matricielle. Ces 3 estimateurs sont donc valables pour un nombre entier de demies-périodes, mais leur utilisation sur un nombre de points quelconque et susamment grand n'entraîne qu'un diérence négligeable (cf sous-section 4.3.3). 35 Page 36 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE 4.3.2 Biais de l'estimateur sous-optimal en Arctangente Développement asymptotique Pour simplier les calculs, nous allons considérer l'estimateur tan(φ̂) à la place de φ̂. Le biais est donnné par h i B tan φ̂ = tan(φ) − E tan(φ̂) Soit en développant B tan φ̂ = tan(φ) − E " 1 N 1 N PN −1 n=0 cos(2πf0 n)(sin(2πf0 n + φ) + b(n)) PN −1 n=0 sin(2πf0 n)(sin(2πf0 n + φ) + b(n)) En exprimant diéremment le terme à l'intérieur de l'espérance et en considérant N= # k 2f0 avec k ∈ N∗ , on obtient tan(φ̂) = µN + XN µN + YN avec µXN = N −1 A X sin(4πf0 n + φ) A A sin(φ) + = sin(φ) 2 N n=0 2 2 µYN = N −1 A X cos(4πf0 n − φ) A A cos(φ) + = cos(φ) 2 N n=0 2 2 XN = N −1 1 X cos(2πf0 n)b(n) N n=0 YN N −1 1 X = sin(2πf0 n)b(n) N n=0 Le développement du moment d'ordre 2 donne N −1 h i i 1 X h 2 2 E |XN | = 2 E |b(n)| cos2 (2πf0 n) N n=0 N −1 σb2 σ2 X + b2 cos(4πf0 n) 2N 2N n=0 (4.14) h i 2 lim E |XN | = 0 (4.15) lim Pr (|XN | > ) = 0 (4.16) = Asymptotiquement, on trouve N →+∞ D'après (3.39), on en déduit N →+∞ 36 4.3. ESTIMATEUR SOUS-OPTIMAL Page 37 Ce critère de convergence ne nous permet pas de conclure quand l'expression à l'intérieur de l'espérance. Pour cela, il nous faut un critère plus fort, c'est-à-dire la convergence presque sûre avec la loi des grands nombres. La formule (3.40) peut s'appliquer ici et donc Pr lim XN = 0 N →+∞ =1 (4.17) d'où nalement µXN =0 N →+∞ µYN lim B tan φ̂ = tan (φ) − lim N →+∞ (4.18) L'estimateur est donc non biaisé asymptotiquement. Preuve de l'existence d'un biais par écriture de la loi On peut également écrire le biais de la manière suivante X B tan φ̂ = tan(φ) − E = tan(φ) − E [γ(X, Y )] Y (4.19) Cette dernière expression fait donc apparaître l'espérance d'un quotient de 2 variables aléatoires gaussiennes corrélés, 2 ) X ∼ N (µX , σX et Y ∼ N (µY , σY2 ) avec Ce second terme peut donc être réécrit sous la forme ZZ E [γ(X, Y )] = avec f (X, Y ) dimension 2 (car Σ X la densité de probabilité conjointe de X et Y et Y . γ(X, Y ) suit donc une loi multinormale de sont entre autres non dégénérées), et f (X, Y ) = avec γ(X, Y )f (X, Y ) dXdY 1 exp − X − µX 2 det(Σ) X − µX Y − µY Σ−1 Y − µY 1 2π p la matrice de covariance. Cette dernière peut s'écrire sous la forme 2 σX σXY Σ= σXY σY2 Σ−1 ij = ηij . Y = v , le développement Pour alléger les expressions par la suite, nous prendrons En appliquant le changement de variable Z E [γ(u, v)] = K X = uv et de l'espérance conduit à Z 1 1 u exp − α(v)u2 + β(v)u dudv v exp − η22 v 2 − (η21 µX + 2η22 µY + η12 µX )v 2 2 (4.20) avec 37 Page 38 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE exp − 12 (η11 µ2X + (η12 + η21 )µX µY + η22 µ2Y ) p K= 2π det(Σ) α(v) = η11 v 2 β(v) = (η12 + η21 )v 2 − (2η11 µX + η21 µY + η12 µY )v L'estimateur sous-optimal fonctionne sur un nombre entier de demi-périodes , la matrice de covariance σb s'écrit σb = E avec µX = sin(φ) et 2 µY = h X − µX Y − µY T X − µX Y − µY i = 2σb2 I2 N cos(φ) 2 . 2σb2 2σb2 N ) et Y ∼ N (µY , N ). Diérents papiers ont montré que la loi du quotient de 2 v.a gaussiennes indépendantes non centrées était Autrement dit, les variables aléatoires X et Y sont décorrélées, et de loi X ∼ N (µX , une loi de Cauchy. Or cette distribution n'admet pas de moment (divergence). Donc en conclusion, on peut seulement dire que le biais de l'estimateur de tan φ̂ n'existe pas pour un nombre de points d'analyse nis, mais qu'il est non biaisé asymptotiquement. Si on considère maintenant l'estimateur φ̂, on se ramène à une fonction la v.a de Cauchy dénie précédem- ment. φ̂ = arctan X Y La forme générale d'une loi de Cauchy pour une v.a Z = ξ(X, Y ) se note C(a, b) h 2 π (Z − a) + b2 φ̂ et la fonction de densité s'écrit b f (Z) = L'espérance de (4.21) i (4.22) peut donc s'écrire avec une relation de proportionnalité Z h i Z arctan(Z) π 1 < E φ̂ ∝ 2 1+Z 2 1 + Z2 (4.23) qui consitue une forme convergente. L'application de la fonction arctan permet donc l'existence d'un biais pour l'estimateur. En conclusion, l'estimateur sous-optimal en arctan admet l'existence d'un biais pour un nombre de points d'analyse nis, et ce biais est nul asymptotiquement. Biais et écart-type en fonction de N Le biais est bien minimum toutes les demi périodes où l'estimateur sous optimal coincide avec l'estimateur exhaustif. Globalement, la diérence devient insigniante après 2 périodes d'analyse. Biais et variance en fonction du RSB La courbe du RSB est logiquement la même que pour l'estimateur optimal, car nous calculons sur 2 périodes. 38 4.3. ESTIMATEUR SOUS-OPTIMAL Page 39 (a) avec σb2 = 1 (RSB = −3dB ) (b) avec σb2 = 8 (RSB = −12dB ) Fig. 4.4 Relevés de simulation de l'estimateur sous-optimal pour N variant de 10 à 5000 Fig. 4.5 Biais en fonction du RSB Biais et variance en fonction de la fréquence d'échantillonnage Ici, on fait la même constatation que précedemment car l'estimateur est toujours appliqué sur un échantillon de 2 périodes. 4.3.3 Diérence entre les 2 estimateurs Les estimateurs coincident toutes les demi-périodes (125 points), et la diérence entre les 2 estimateurs décroît également (en 1 N ). Au bout de 2 périodes, l'erreur n'est plus que de 39 2.5 deg. Page 40 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE (a) avec σb2 = 1 (RSB = −3dB ) (b) avec σb2 = 8 (RSB = −12dB ) Fig. 4.6 Relevés de simulation de l'estimateur approximé pour Fe variant de 2 à 200 KHz Fig. 4.7 Diérence entre les 2 estimateurs 4.3.4 Biais de l'estimateur sous-optimal en Arccosinus Développement par écriture de la loi On considère comme précédemment l'estimateur de 1 N cos(φ̂) = 1 N r cos(φ̂). PN −1 y(n) sin(2πf0 n) X =√ 2 2 2 PN −1 PN −1 X +Y2 + n=0 y(n) sin(2πf0 n) n=0 y(n) cos(2πf0 n) n=0 avec 40 (4.24) 4.3. ESTIMATEUR SOUS-OPTIMAL 2 X ∼ N µX , σX µX = E [X] = Y ∼ N µY , σY2 N −1 A X sin(2πf0 n) sin(2πf0 n + φ) N n=0 2 σX = E [(X − µX ) (X − µX )] = Les v.a X et Page 41 Y µY = E [Y ] = N −1 σb2 X sin2 (2πf0 n) N 2 n=0 N −1 A X cos(2πf0 n) sin(2πf0 n + φ) N n=0 σY2 = E [(Y − µY ) (Y − µY )] = N −1 σb2 X cos2 (2πf0 n) N 2 n=0 sont corrélés, leur covariance est donnée par σXY = E [(X − µX ) (Y − µY )] " ! N −1 σb2 X =E sin(2πf0 n)b(n) N 2 n=0 N −1 X !# cos(2πf0 n)b(n) n=0 N −1 σb2 X exp (j4πf0 n) − exp (−j4πf0 n) 4jN 2 n=0 σb2 1 − exp (j4πf0 N ) 1 − exp (−j4πf0 N ) = − 4jN 2 1 − exp (j4πf0 ) 1 − exp (−j4πf0 ) 2 σ = b 2 sinc (2πf0 N ) sin (2πf0 (N − 1)) 2N = On considère donc la matrice de covariance 2 σX Σ= σXY σXY σY2 (4.25) et son inverse Σ L'espérance de h i E cos φ̂ = cos φ̂ Z 1 + 1 = 2 2 2 σX σY − σXY σY2 −σXY −σXY 2 σX (4.26) s'écrit donc ∞ Z + ∞ 1 2π |Σ| 2 −1 −∞ −∞ √ X 1 exp − X − µX 2 2 2 X +Y Y − µY Σ−1 X − µX Y − µY T dXdY (4.27) En faisant le changement de variable X = ρ cos (θ) Z h i E cos φ̂ = K 0 + ∞ Z et + Y = ρ sin (θ), on aboutit à π ρ cos (θ) exp (f (ρ, θ)) dρ dθ −π avec 41 (4.28) Page 42 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE 1 K= 1 2 σ2 − σ2 ) 2 2π (σX Y XY 2 f (ρ, θ) = − 2 2 σY2 (ρ cos (θ) − µX ) − 2σXY (ρ sin (θ) − µY ) (ρ cos (θ) − µX ) + σX (ρ sin (θ) − µY ) 2 2 2 2 (σX σY − σXY ) Si on applique les hypothèses de départ, soit une utilisation sur un nombre entier de demies-périodes, les variances et espérances se réécrivent A cos (φ) 2 A sin (φ) µY = 2 σ2 2 σX = σY2 = b 2N µX = De plus, comme σXY = 0, les v.a X et Y (4.29) sont indépendantes. On note également que les conséquences seraient les mêmes si on avait considéré le problème asymptotiquement. La constante K et la fonction f se réécrivent ainsi K= 1 2 2πσX f (ρ, θ) = − µ2X + µ2Y + ρ2 − 2ρ (µX cos (θ) + µY sin (θ)) 2 2σX On peut alors calculer l'intégrale sur Z +π cos (θ) exp ρ −π θ p µ2X + µ2Y 2 σX µX = I1 (x) !! cos (θ) p 2 + sin (θ) p 2 µX + µ2Y µX + µ2Y Z +π A cos (θ − φ) cos (θ) exp −ρ dθ 2 2 σX −π Aρ 2π cos (φ) I1 2 2σX = où µY (4.30) (4.31) (4.32) est la fonction de Bessel modiée de 1ère espèce telle que 1 In (x) = 2π Z π cos (nθ) exp (x cos (θ)) dθ (4.33) −π L'intégrale de départ s'écrit donc maintenant Z i E cos φ̂ = 2π cos (φ) K h 0 En remplacant K et en posant ν= + ∞ A2 4 + ρ2 ρ exp − 2 2σX A2 2 4σX 42 ! I1 Aρ 2 2σX dρ (4.34) 4.3. ESTIMATEUR SOUS-OPTIMAL Page 43 i cos (φ) exp − ν Z + ∞ ν 2 E cos φ̂ = ρ exp − 2 σX 2 0 ρ2 h !! I1 A2 4 2ρv A (4.35) Cette dernière intégrale est en fait calculable et permet d'introduire la fonction hypergéométrique conuente de Kummer notée 1 F1 (a, b, z), KummerM(a, b, z) que l'on renommera pour alléger les notations. Cette fonction est dénie par Γ (b) KummerM(a, b, z) = Γ (a) Γ (b − a) Z 1 −a+b−1 exp (zt) ta−1 (1 − t) dt (4.36) < (b) > < (a) > 0 (4.37) 0 tel que L'espérance de l'estimateur s'écrit donc comme i cos (φ) exp − ν A2 √2π 3 ν 2 √ KummerM E cos φ̂ = , 2, 2 σX 2 2 16 v h En remplaçant 2 σX par sa valeur, et en introduisant la constante Λ= v 2 = (4.38) A2 N , on obtient nalement 4σb2 h i 3 exp (−Λ) √ πΛ KummerM E cos φ̂ = cos (φ) , 2, Λ 2 2 (4.39) Cette dernière forme va nous permettre d'analyser le biais théorique de l'estimateur en fonction du paramètre Λ, qui réunit le rapport signal-à-bruit ainsi que le nombre de points. On peut ainsi préciser l'utilisation de l'estimateur : si on connaît le nombre de points dont on dispose (bien évidemment toujours multiple de la demi-période du signal), on peut connaître le rapport signal-à-bruit minimum pour garantir le biais voulu. Inversement, en connaissant approximativement le RSB lors des mesures, on peut xer le nombre de points minimum qu'il nous faut. Tracés La loi de l'estimateur cos φ̂ , qui est également la loi conjointe des v.a X et Y dénie en (4.24), est une gaussienne bi-dimensionnelle. Asymptotiquement, on constate donc que cette loi tend vers un dirac, c'est-à-dire que l'estimateur devient déterministe, donc non biaisé. 4.3.5 Cas d'un bruit corrélé (cas général) On suppose que la matrice d'autocorrélation du bruit s0,0 R−1 bb = Rbb ... . . . sN −1,0 ... est inversible, et on pose ainsi s0,N −1 . . . sN −1,N −1 En utilisant la condition de sommation sur un nombre entier de périodes, on obtient PN −1 PN −1 φ̂ = arctan k=0 PN −1 k=0 n=0 y (k) sn,k cos (2πf0 n) PN −1 n=0 y (k) sn,k sin (2πf0 n) 43 ! Page 44 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE (a) N=10 (b) N=100 (c) N=1000 (d) N=10000 Fig. 4.8 Loi de l'estimateur cos φ̂ 4.4 Borne de Cramer-Rao Le calcul de la CRB implique de connaître les diérents paramètres à estimer. Ici, nous ne connaissons ni l'amplitude ni la phase. La matrice d'information de Fisher sous-jacente sera donc la matrice hessienne du log vraisemblance par rapport à A et φ. En partant de l'écriture du log vraisemblance (4.1) qu'on appellera partielles du hessien, on obtient 44 L(A, φ) et développant les dérivées 4.4. BORNE DE CRAMER-RAO Page 45 (a) N=10 (b) N=100 (c) N=1000 (d) N=10000 Fig. 4.9 Loi de la v.a ∂ 2 L(A, φ) A =− 2 ∂φ2 σb N −1 X y(n) sin(2πf0 n + φ) + A i=0 ∂ 2 L(A, φ) ∂ 2 L(A, φ) 1 = = 2 ∂φ∂A ∂A∂φ σb X N −1 X ! cos(4πf0 n + 2φ) i=0 N −1 X y(n) cos(2πf0 n + φ) − A i=0 N −1 X i=0 N −1 N 1 X ∂ 2 L(A, φ) = − + cos(4πf0 n + 2φ) ∂A2 2σb2 2σb2 i=0 La matrice de Fisher s'écrit donc 45 ! sin(4πf0 n + 2φ) Page 46 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE Fig. 4.10 Biais du cos φ̂ en fonction du paramètre Λ PN −1 PN −1 N − i=0 cos(4πf0 n + 2φ) i=0 A sin(4πf0 n + 2φ) 1 I(A, φ) = P 2 P 2σb N −1 N −1 A2 N + i=0 cos(4πf0 n + 2φ) i=0 A sin(4πf0 n + 2φ) La CRB nous donne donc la limite inférieure pour la matrice de covariance Σ(Â, φ̂) des estimateurs de A et φ Σ(Â, φ̂) ≥ I −1 (A, φ) On montre que pour N susamment grand, on a I Remarque : Ta (4.40) −1 (A, φ) = 2σb2 1 N 0 0 (4.41) 1 A2 N N = Ta Fe , avec N0 F . Elle dépend donc uniquement du e 2 Cette CRB est indépendante de la fréquence d'échantillonnage. En eet, on a la durée d'analyse, et la variance du bruit satisfait l'égalité σb2 = rapport signal-à-bruit et de la durée d'analyse. 4.5 Comparaison avec un signal en enveloppe complexe Si on se réfère aux travaux de Rife et Boorstyn [2], où l'on considère un modèle en enveloppe complexe du type y(n) = y1 (n) + j y2 (n) où y1 (n) = A cos(2πf0 n + φ) + b(n) y2 (n) = A sin(2πf0 n + φ) + eb(n) 46 RÉFÉRENCES Page 47 On constate donc que y1 (n) = H(y2 (n)), soit que la 2ème composante est la transformée de Hilbert de la 1ère. Une hypothèse pose que les processus gaussiens y1 et y2 sont décorrélés (i.e b et eb sont décorrélés). Cette supposition est contestable étant donné que la transformée de Hilbert ne décorrèle pas les signaux. Si on considère que seule la fréquence est connue sur le signal de départ, l'estimation se fait donc sur le vecteur Θ = [A φ] p (Y|Θ) = 1 σb2 2π N N −1 1 X exp − 2 y1 (n) − A sin(2πf0 n + φ)2 + y2 (n) − A cos(2πf0 n + φ)2 2σb n=0 ! La matrice de Fisher qui découle de ce modèle est donnée par I(Θ) = N 0 0 A2 N Le fait de considérer l'enveloppe complexe d'un signal permet de s'aranchir de la dépendance en φ dans la borne de Cramer-Rao du modèle signal réel établi en 4.4. Par ailleurs, on s'aranchit également de la dépendance 2 du bruit (2σb ). En eet, étant donné que les 2 composantes en quadratures du modèle sont décorrélées, nous avons dans ce cas à faire à 2 sources d'informations au lieu d'une seule. Références [1] Boaz Porat. Digital Processing of Random Signals : Theory & Methods. Information and System Sciences. Prentice-Hall, 1993. [2] David C.Rife and Robert.R.Boorstyn. Single-Tone Parameter Estimation from Discrete-Time Observations. In IEEE Transactions on Information Theory, pages 591598, 1974. [3] Steven M.Kay. Fundamentals of Statistical Signal Processing : Estimation Theory . Prentice-Hall, 1988. 47 Signal Processing Series. Page 48 CHAPITRE 4. ESTIMATION DE PHASE PAR MAXIMUM DE VRAISEMBLANCE 48 Troisième partie Estimation de phase par ltrage adaptatif 49 Chapitre 5 Notions de ltrage adaptatif 5.1 Filtres à minimisation MSE et LSE Le principe du ltrage adaptatif est de disposer d'un ltre dont les paramètres (la fonction de transfert) se met à jour, en fonction des données bruitées. Le processus d'adaptation repose classiquement sur la minimisation d'une fonction de coût. Par convention, on dispose d'une entrée qui est la diérence entre ltre d'ordre M, d(n) u(n) ainsi que de la réponse désirée (référence) d(n) et l'erreur e(n), y(n), et qui va permettre de contrôler les coecients w d'un et la sortie du ltre qu'on suppose réels pour notre application, mais qui peuvent être complexes dans un cas plus général. Pour la suite, on utilisera les notations suivantes un = u(n) . . . u(n − M + 1) w = w0 . . . wM −1 T y(n) = wT un T e(n) = d(n) − y(n) Fig. 5.1 Schéma d'un ltre adaptatif 51 (5.1) (5.2) (5.3) (5.4) Page 52 CHAPITRE 5. NOTIONS DE FILTRAGE ADAPTATIF 5.1.1 Filtrage de Wiener On dénit la fonction de coût qui est l'erreur quadratique moyenne (MSE). h i 2 J = E |e(n)| = E d(n)2 − 2wT Rud + wT Ruu (5.5) avec Ruu = E un uTn Rud = E [un d(n)] (5.6) (5.7) La minisation de ce critère conduit à l'écriture du gradient du critère ∇w (J) = 2Ruu w − 2Rud En posant ∇w (J) = 0, (5.8) on aboutit à la solution optimale de Wiener-Hopf w= (Ruu )−1 Rud ∆ (5.9) L'inversion de la matrice d'autocorrélation de l'entrée se fait avec une complexité O n3 . Pour réduire le coût de calcul, on peut résoudre (5.9) par une méthode itérative. 5.1.2 Descente de gradient Plus connu sous le nom d'algorithme du gradient, le but recherché est de trouver le minimum d'une fonction par approximations successives. On démarre d'une fonction que l'on cherche à minimiser F (x. L'algorithme consiste à chercher le minimum x0 itérativement. A chaque étape, on va déplacer x dans le sens inverse de variation de la fonction. Pour calculer l'approximation de x0 à l'instant n + 1, on doit donc évaluer le gradient à l'instant n et incrémenter x dans le sens opposé à son signe. On aboutit donc à la forme itérative suivante : x(n + 1) = x(n) − µ(n)∇x F (x(n)) (5.10) µ(n) représente le pas choisi à l'instant n. Il apparaît évident qu'avec un pas inaproprié, on peut soit diverger, soit converger en un temps beaucoup trop long. Dans le cas du ltrage de Wiener, on doit connaître les quantités Ruu et Rud , ce qui est rarement le cas. On préfère une version de cette algorithme s'aranchit de ce problème, le LMS. 5.1.3 Algorithme du gradient stochastique LMS (Least Mean Square) L'algorithme LMS est construit à partir de l'algorithme du gradient classique appliqué à (5.9) : wn+1 = wn + µn (Rud − Ruu wn ) (5.11) La version du LMS consiste à remplacer le gradient déterministe (5.8) par une approximation dépendant des données courantes. Le gradient devient donc aléatoire, et on le nomme ainsi gradient stochastique. Cette approximation se fait sur les matrices Ruu et Rud tel que 52 5.1. FILTRES À MINIMISATION MSE ET LSE Page 53 R̂uu = un uTn R̂ud = un dn (5.12) (5.13) L'équation itérative de l'algorithme LMS est donc donnée par wn+1 = wn + µn un d(n) − un uTn wn En supposant l'indépendance de µn < 2 λmax avec λmax wn et un (5.14) (hypothèse contestable), on montre que l'algorithme converge si Ruu . C'est la condition susante de convergence pour un la valeur propre maximale de pas xe. Pour un pas variable, les conditions de convergence sont +∞ X n=1 +∞ X µn > 0 (5.15) µn = +∞ (5.16) µ2n < +∞ (5.17) n=1 5.1.4 Algorithme des moindres carrés récursifs RLS (Recursive Least Square) Critère d'erreur instantannée L'algorithme RLS est basé sur une nouvelle fonction de coût, basée sur les moindres carrés (LSE). J= n X λn−i e(i)2 (5.18) i=0 λ est appelé facteur d'oubli et son rôle est d'atténuer le poids des anciens échantillons dans le λ ∈]0; 1]. Il sert de mémoire à l'algorithme. La fonction de coût est mise à jour avec l'échantillon Le facteur critère, donc courant, c'est-à-dire qu'on rajoute l'erreur instantannée. En développant le critère, J= = n X i=0 n X λn−i d(i) − wTn ui 2 (5.19) λn−i d(i)2 − 2d(i)wTn ui + wTn ui uTi wn (5.20) =0 (5.21) i=0 La minimisation de ce critère conduit à n n X X ∂J = −2 λn−i d(i)ui + 2 λn−i ui uTi ∂w i=0 i=0 On aboutit ainsi à une équation matricielle dite normale. 53 wn ∆ Page 54 CHAPITRE 5. Φn et zn wn = zn ∆ (5.22) Φn = i=0 λn−i ui uTi la matrice de données, qui peut être P n = i=0 λn−i d(i)ui comme une intercorrélation empirique. Pn avec NOTIONS DE FILTRAGE ADAPTATIF assimilée à une autocorrélation empirique, Il faut également noter qu'on suppose une hypothèse de préfenêtrage sur les entrées u(n), i.e u(n) = 0 ∀n < 0. On remarque ainsi que Φn+1 = λΦn + un+1 uTn+1 zn+1 = λzn + un+1 d(n + 1) Le but est d'inverser Φn (5.23) (5.24) pour obtenir le ltre optimal. Un tel calcul est très coûteux, mais peut être évité en utilisant le lemme d'inversion matricielle. Théorème 5.1 Lemme d'inversion matricielle −1 (A + BCD) avec A matrice n × n, B = A−1 − A−1 B vecteur n × k, C C −1 matrice k × k, −1 −1 DA + DA−1 B D (5.25) vecteur k × n. En posant A = λΦn B = un+1 C=1 B = uTn+1 et (5.26) (5.27) (5.28) (5.29) Kn+1 = Φ−1 n+1 , on obtient l'équation de Riccati avec kn+1 = Ku u Ku λ+ Kn+1 = λ−1 Kn − λ−1 kn+1 uTn+1 Kn n n+1 T n n+1 n+1 (5.30) , le vecteur de gain. On peut réécrire ce dernier d'une nouvelle manière λkn+1 = Kn un+1 − kn+1 uTn+1 Kn un+1 kn+1 = Kn+1 un+1 (5.31) (5.32) D'après l'équation normale (5.22) (on reprend la notation simple pour le ltre optimal wn =wn ), on peut ∆ écrire wn+1 = Kn+1 zn+1 = Kn zn − kn+1 uTn+1 Kn zn + Kn+1 un+1 d(n + 1) (5.33) (5.34) L'équation du RLS s'écrit donc wn+1 = wn + kn+1 d(n + 1) − uTn+1 wn 54 (5.35) 5.2. FILTRE DE KALMAN Page 55 Critère d'erreur avec mémoire Dans bien des cas, la fonction de coût (5.18) n'est pas assez contraignante pour faire converger l'algorithme. Au lieu d'utiliser l'erreur instantannée pour mettre à jour la fonction de coût, on peut utiliser une erreur basée l'échantillon actuel et En posant m échantillons précédents. On utilise donc un critère d'erreur avec mémoire. di = [d(i − q + 1) T d(i)] , avec q = i+1 si i < m, ou q = m dans le cas contraire, et ei = di −UTi wn la fonction de coût devient alors J= n X λn−i eTi ei = i=0 avec n X λn−i di − UTi wn T di − UTi wn (5.36) i=0 Un une entrée matricielle de taille M × i + 1 ou M × m suivant le cas énoncé précédemment, telle que u(i) Ui = u(i − q + 1) ... . . . . . . u(i − M + 1) . . . (5.37) u(i − q − M + 2) Les équations de l'algorithme deviennent donc Kn Un+1 kn+1 = wn+1 (5.38) λI + UTn+1 Kn Un+1 = wn + kn+1 d(n + 1) − UTn+1 wn (5.39) Kn+1 = λ−1 Kn − λ−1 kn+1 UTn+1 Kn La matrice identité I dans l'équation récursive de kn+1 est de taille (5.40) i+1 ou m. 5.2 Filtre de Kalman Le ltre de Kalman est le meilleur estimateur possible pour un grand nombre de problèmes courants. Son principe est d'estimer l'état d'un processus à partir de mesures bruitées ou incomplètes à l'aide d'un ltre récursif. Le ltre de Kalman estime l'état d'un processus en utilisant alternativement une étape de prédiction durant laquelle il estime l'état à partir d'un modéle d'état et une étape de correction pendant laquelle il utilise les mesures pour corriger l'estimée précédente. Le ltrage de Kalman est utilisé classiquement dans des modèles linéaires, mais on peut l'utiliser également avec des modèles non linéaires, on parle alors de ltrage étendu. 5.2.1 Filtrage de Kalman linéaire Les paramètres à l'instant k sont contenus dans le vecteur xk . Ces paramètres suivent un modèle d'état donné par xk+1 = Fk xk + ck + wk avec Fk la matrice de transition (ou matrice d'état), notre problème d'estimation) et wk ck un vecteur de commande (inutile par la suite pour le bruit système tel que : 55 (5.41) Page 56 CHAPITRE 5. wk ∼ N (0, Qk ) ( Qk E wn wTk = 0 Les mesures à l'instant k, regroupées dans le vecteur zk NOTIONS DE FILTRAGE ADAPTATIF (5.42) ∀n=k ∀n= 6 k (5.43) sont données par zk+1 = Hk+1 xk+1 + vk+1 avec Hk la matrice d'observation et vk (5.44) le bruit de mesure tel que : vk ∼ N (0, Rk ) ( Rk T E vn vk = 0 (5.45) ∀n=k ∀n= 6 k De plus, on suppose les bruits systeme et mesure indépendants, i.e (5.46) E [wk vn ] = 0 ∀ k, n. L'estimation par le ltre de Kalman se construit à partir d'une fonction de coût à minimiser, qui n'est autre que l'erreur quadratique moyenne E[|xk − x̂k|k |2 ], avec x̂k|k l'estimée de l'état à l'instant k. Cette condition permet d'aboutir (non démontré) à une série d'équations Etape de prédiction Estimée de l'état x̂k+1|k = Fk x̂k|k + ck h i xk − x̂k+1|k xk − x̂k+1|k T = Fk Pk|k FTk + Qk Estimée de la covariance Pk+1|k = E Estimée de la mesure ẑk+1|k = Hk+1 x̂k+1|k Innovation uk+1|k = zk+1 − ẑk+1|k T T Covariance de l'innovation Uk+1 = E uk+1 uk+1 = Hk+1 Pk+1|k Hk+1 + Rk+1 Etape de correction T −1 Gain de Kalman Kk+1 = Pk+1|k Hk+1 Uk+1 Estimée de l'état mise à jour x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1 Estimée de la covariance mise à jour Pk+1|k+1 = (I − Kk+1 Hk+1 ) Pk+1|k 5.2.2 Filtrage de Kalman étendu (EKF) Les équations d'état et d'observation du ltrage de Kalman basique considéré prédédemment sont linéaires. Dans de nombreux cas, il se peut que le problème d'estimation rencontré implique des équations non linéaires. On utilise alors le ltre de Kalman étendu. Les équations d'état et d'observation deviennent respectivement des fonctions non linéaires : xk+1 = fk (xk , ck ) + wk zk+1 = hk+1 (xk+1 ) + vk+1 f et h (approximation de Taylor d'ordre 1) autour de x̂k+1|k . On obtient ainsi des nouvelles équations d'état et L'idée du ltrage étendu est de linéariser les fonctions l'estimée la plus récente, soit respectivement x̂k|k et d'observation. 56 RÉFÉRENCES Page 57 xk+1 ≈ fk x̂k|k + Fk xk − x̂k+1|k + wk zk+1 ≈ hk x̂k+1|k + Hk+1 xk − x̂k+1|k + vk (5.47) (5.48) avec ∂ fk ∂ x x̂k|k ,ck ∂ hk+1 = ∂ x x̂k+1|k Fk = Hk+1 On aboutit donc à de nouvelles solutions itératives Etape de prédiction Estimée de l'état x̂k+1|k = fk x̂k|k , ck T Estimée de la covariance Pk+1|k = Fk Pk|k Fk + Qk Estimée de la mesure ẑk+1|k = hk+1 x̂k+1|k Innovation uk+1|k = zk+1 − ẑk+1|k T Covariance de l'innovation Uk+1 = Hk+1 Pk+1|k Hk+1 + Rk+1 Etape de correction T −1 Gain de Kalman Kk+1 = Pk+1|k Hk+1 Uk+1 Estimée de l'état mise à jour x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1 Estimée de la covariance mise à jour Pk+1|k+1 = (I − Kk+1 Hk+1 ) Pk+1|k Références [1] Greg Welch & Gary Bishop. An Introduction to the Kalman Filter. Course of University of North Carolina at Chapel Hill. [2] Jean-François Bercher & Pascal Jardin. Filtrage adaptatif. Polycopié de cours ESIEE. [3] Simon Haykin. Adaptive Filter Theory. Information and System Science Series. Prentice Hall, 4th edition, 2001. [4] Simon Haykin. Kalman Filtering and Neural Networks. cessing Series. Wiley, 2001. 57 Adaptative and Learning Systems for Signal Pro- Page 58 CHAPITRE 5. 58 NOTIONS DE FILTRAGE ADAPTATIF Chapitre 6 Estimation de phase par ltrage LMS et RLS 6.1 Estimation par le LMS 6.1.1 Modèle En exprimant les observations avec une forme cartésienne, y(n) = sin (2πf0 n) A cos (φ) cos (2πf0 n) + b(n) A sin (φ) (6.1) on remarque que l'on peut considérer les entrées du ltre suivantes un = Entrée : sin (2πf0 n) Coecients du ltre : Référence : T cos (2πf0 n) w = A cos (φ) A sin (φ) T d(n) = y(n) (6.2) (6.3) (6.4) L'algorithme va converger vers la solution de Wiener, il faut donc vérier que celle-ci correspond bien à ce que l'on cherche à estimer. L'entrée étant déterministe, sa matrice d'autocorrélation s'écrit donc Ruu = uuT sin2 (2πf0 n) sin (2πf0 n) cos (2πf0 n) = sin (2πf0 n) cos (2πf0 n) cos2 (2πf0 n) (6.5) L'intercorrélation entre la référence et l'entrée s'écrit à son tour Rud = E [un d(n)] (6.6) A sin (2πf0 n) sin (2πf0 n + φ) + b(n) =E A cos (2πf0 n) sin (2πf0 n + φ) + b(n) A sin2 (2πf0 n) cos (φ) + A sin (2πf0 n) cos (2πf0 n) sin (φ) = A cos2 (2πf0 n) cos (φ) + A sin (2πf0 n) cos (2πf0 n) cos (φ) 59 (6.7) (6.8) Page 60 CHAPITRE 6. On remarque ainsi que Rud = Ruu [A cos (φ) ESTIMATION DE PHASE PAR FILTRAGE LMS ET RLS A sin (φ)]T , donc le ltre optimal au sens de Wiener correspond bien à l'estimateur d'amplitude et phase en coordonnées cartésiennes. w= ∆ T A cos (φ) A sin (φ) (6.9) 6.1.2 Simulations Toutes les initialisations ont été réalisées avec une estimation par maximum de vraisemblance sur un bloc des premiers échantillons de longueur susante pour garantir une bonne initialisation. Ces simulations supposent donc la procédure d'enregistrement préalablement réalisée. A phase et amplitude constante (a) Avec un bon RSB (b) Avec un RSB limite Fig. 6.1 LMS MV - Suivi de phase et d'amplitude constante Le RSB critique apparaît vers -16 dB. A ce niveau, il devient dicile de garantir une convergence rapide et une erreur uctuante faible. A phase variable et amplitude constante Le RSB critique est ici de -13 dB. Le saut de phase est de 45 degré, ce qui correspond normalement aux cas pratiques rencontrés. A phase variable et amplitude variable On voit qu'une trop grande variation d'amplitude négative entraîne une dégradation conséquence du RSB, et l'estimation devient alors faussée sur cet intervalle de temps. 6.2 Estimation par le RLS 6.2.1 Modèle En considérant les mêmes entrée et référence que pour le LMS, les simulations ont montré que l'algorithme ne pouvait pas converger, à moins de choisir un facteur d'oubli supérieur à 0.99. Ceci prouve que le critère d'erreur 60 6.2. ESTIMATION PAR LE RLS Page 61 (a) Avec un bon RSB (b) Avec un RSB limite Fig. 6.2 LMS MV - Suivi de phase variable et d'amplitude constante Fig. 6.3 LMS MV - Suivi de phase et d'amplitude variables considéré ne tient pas assez compte du passé, c'est pourquoi on choisira un critère d'erreur avec mémoire de m échantillons, comme expliqué dans le chapitre précédent. En conservant les mêmes notations, on a Entrée matricielle : Référence : Un = HTn dn sin(2πf0 n) . . . = ... sin(2πf0 (n − q + 1)) . . . cos(2πf0 n) . . . cos(2πf0 (n − q + 1)) = y(n) . . . y(n − q + 1) avec 61 (6.10) (6.11) Page 62 CHAPITRE 6. ESTIMATION DE PHASE PAR FILTRAGE LMS ET RLS ( n + 1 si n < m q= m si n ≥ m Cet algorithme sera appelé (6.12) RLS MV. 6.2.2 Simulations Les simulations ont été réalisées avec les paramètres suivants : m = 300 λ = 0.99 (a) Bruit faible (RSB= -3 dB) (b) Bruit moyen (RSB= -10 dB) Fig. 6.4 RLS MV - Simulations en bruit faible et moyen Les performances sont nettement meilleures que pour le LMS, avec une amplitude variable et un saut de phase pour un RSB de -3 dB. L'algorithme nous permet même une dynamique de bruit plus élevée, avec un RSB pouvant aller jusqu'à -10 dB. 6.3 Conclusion Les 2 algorithmes présentés dans ce chapitre sont adaptés à des utilisations diérentes. Pour un bruit faible (avec un RSB aux alentours de -3 dB), on privilégiera le LMS, qui présente un temps de calcul rapide et une variance raisonnable. Pour des bruits moyens (RSB < −10dB ), m). on choisira l'algorithme RLS, avec un cout de calcul plutôt élevé (dû à l'inversion matricielle de taille On a donc vu que les algorithmes LMS et RLS ont une dynamique de RSB limitée. Ils ont inutilisables si les mesures présentent des pics de bruit dépassant cette dynamique. Pour un algorithme temps réel pouvant résoudre ce problème, on se référera au chapitre 9 ave l'algorithme RLS MAP. 62 Chapitre 7 Estimation de phase par ltrage de Kalman 7.1 Filtrage étendu classique 7.1.1 Modèle Nous disposons des mesures, dont le modèle est donné par y(n) = A(n) sin (2πf0 n + φ(n)) + b (n) On suppose le bruit b(n) blanc gaussien centré stationnaire, i.e (7.1) b ∼ N (0, σ 2 ). L'équation ainsi que le vecteur d'état du modèle sont donnés par xk+1 = xk = xk,1 xk,2 T T = A(k) φ(k) (7.2) Cette équation d'état "constante" se justie par le fait que dans de bonnes conditions de mesures, l'amplitude et la phase varieront peu autour d'une valeur centrale (excepté bien sûr le déphasage qui se produira lors du changement de position). L'équation d'observation est donnée par Zk = h(xk ) + b(k) = xk,1 sin (2πf0 k + xk,2 ) Comme la fonction d'observation h (7.3) est non-linéaire, nous devrons la linéariser autour de l'estimée de l'état sachant les observations à l'instant précédent (principe de l'EKF). On utilise ainsi le Jacobien de h Hk+1 = donné par ∂h (x̂k+1|k ) = ∂ xk T sin(2πf0 k + x̂k+1|k,2 ) x̂k+1|k,1 cos(2πf0 k + x̂k+1|k,2 ) (7.4) 7.1.2 Algorithme Les équations suivantes sont à implanter telles quelles. Il faut cependant prévoir une mise à jour du vecteur jacobien Hk+1 . 63 Page 64 CHAPITRE 7. ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN x̂k+1|k = x̂k|k Pk+1|k = Pk|k ẑk+1|k = x̂k+1|k,1 sin(2πf0 (k + 1) + x̂k+1|k,2 ) uk+1|k = zk+1 − ẑk+1|k Uk+1 = Hk+1 Pk+1|k HTk+1 + σ 2 −1 Kk+1 = Pk+1|k HTk+1 Uk+1 x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1 Pk+1|k+1 = (I2 − Kk+1 Hk+1 ) Pk+1|k 7.1.3 Simulations Avec amplitude et phase constante (a) avec une initialisation par MV sur 1500 points (b) avec une initialisation quelconque Fig. 7.1 Relevés de phase et d'amplitude On constate qu'une bonne initialisation joue un rôle important dans la convergence sans biais de l'algorithme, particulièrement quand le bruit est élevé. En eet, ceci est dû au choix du modèle d'état constant, qui "limite" la convergence rapide de l'algorithme. Avec amplitude variable Ces tracés montrent un défaut de l'algorithme de Kalman, si on l'utilise de cette manière pour estimer l'amplitude et la phase. En eet, si l'amplitude a une variation moyennement importante autour de sa valeur moyenne, l'algorithme peut décrocher (ne plus suivre les variations). Ceci est une résultat plutôt prévisible puisque nous avons choisi un modèle d'état constant, donc l'algorithme restera plus ou moins "xé" sur la valeur moyenne de l'amplitude. Cependant, un autre eet peut se produire, celui de l'inversion de signe de l'amplitude. En eet, l'algorithme peut "s'accrocher" sur la valeur négative de l'amplitude et donc sur une valeur de phase à une erreur de π près. Ce péhnomène se produit également sur une simulation en amplitude constante avec un bruit de variance élevée. 64 7.1. FILTRAGE ÉTENDU CLASSIQUE Page 65 (a) sans inversion (b) avec inversion Fig. 7.2 Relevés de phase et d'amplitude 7.1.4 Conclusion Dans cette version de l'EKF classique, nous pouvons donc avoir une indétermination de π près sur le déphasage estimée entre 2 positions de mesures. C'est pourquoi on lui préférera la version linéaire utilisant le cercle complexe (à l'aide des coordonnées cartésiennes). 65 Page 66 CHAPITRE 7. ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN 7.2 Filtrage avec modélisation cartésienne 7.2.1 Modèle Le procédés de mesure est même que précédemment. L'équation d'état est toujours constante, mais nous allons désormais estimer les coordonnées d'un point du plan complexe à la place de l'angle et de l'amplitude, ce qui donne xk+1 = xk = xk,1 xk,2 T T = A(k) cos (φ(k)) A(k) sin (φ(k)) (7.5) L'équation d'observation se réécrit donc sous forme d'un modèle linéaire. Zk = Hk xk + b(k) (7.6) avec la matrice d'observation Hk = sin (2πf0 k) cos (2πf0 k) 7.2.2 Algorithme Il faut mettre à jour la matrice d'observation à chaque itération de l'algorithme. x̂k+1|k = x̂k|k Pk+1|k = Pk|k ẑk+1|k = Hk+1 x̂k+1|k uk+1|k = zk+1 − ẑk+1|k Uk+1 = Hk+1 Pk+1|k HTk+1 + σ 2 −1 Kk+1 = Pk+1|k HTk+1 Uk+1 x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1 Pk+1|k+1 = (I2 − Kk+1 Hk+1 ) Pk+1|k 66 (7.7) 7.2. FILTRAGE AVEC MODÉLISATION CARTÉSIENNE Page 67 7.2.3 Simulations Amplitude constante Fig. 7.3 Tracé de l'amplitude et de la phase On observe dans l'ensemble des performances meilleures qu'avec la version de Kalman vue en Section 7.1. L'algorithme est plus précis, ce qui s'explique par le fait que nous considérons ici un modèle linéaire d'observation et que par conséquent nous n'avons pas de linéarisation à faire (approximation). Amplitude variable Fig. 7.4 Tracé d'amplitude et de phase Le problème de l'inversion du signe de l'amplitude est ici résolu, car le modèle considère naturellement une amplitude positive. La encore, les performances sont meilleures. 67 Page 68 CHAPITRE 7. ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN Amplitude et phase variables Fig. 7.5 Tracé d'amplitude et de phase 68 7.3. FILTRAGE AVEC SOUSTRACTION DE BRUIT Page 69 7.3 Filtrage avec soustraction de bruit 7.3.1 Le modèle et les équations On considère toujours le même modèle, soit y(n) = A(n) sin (2πf0 n + φ(n)) + b (n) avec cette fois-ci le bruit b(n) (7.8) d'une loi quelconque ainsi que l'amplitude et la phase pouvant varier au cours du temps. On dispose également d'une mesure du bruit indépendante que l'on nomme b0 (n) et que l'on peut écrire bn = wb'Tn avec (7.9) bn = [b(n) . . . b(n − N + 1)]T ,b'n = [b0 (n) . . . b0 (n − N + 1)]T et w = [w0 . . . wN −1 ]. On considère un vecteur d'état de la forme xk = xk,1 xk,2 xk,3 xk,N +2 ... T = A(k) cos (φ(k)) A(k) sin (φ(k)) w T (7.10) associée à l'équation d'état xk+1 = xk (7.11) On utilise le même modèle cartésien que (7.5) qui ore de meilleures performances que le modèle classique (7.2). On dénit également le modèle d'observation comme zk = Hk xk = xk,1 sin(2πf0 k + xk,2 ) + N −1 X xk,3+i b0 (k − i) (7.12) i=0 avec la matrice d'observation dénie par T sin(2πf0 k) = cos(2πf0 k) Hk b'k (7.13) L'utilisation de la mesure indépendante du bruit permet de se ramener à une équation d'observation sans bruit de mesure. En eet, les paramètres fréquence f0 . b0 (k) peuvent être considérés comme des données au même titre que la Nous n'avons donc plus à connaître les propriétés statistiques du bruit pour estimer l'amplitude et la phase. 7.3.2 L'algorithme Les équations suivantes sont à implanter telles quelles. Il faut cependant prévoir une mise à jour de la matrice d'observation Hk+1 . 69 Page 70 CHAPITRE 7. ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN x̂k+1|k = x̂k|k Pk+1|k = Pk|k ẑk+1|k = Hk+1 x̂k+1|k uk+1|k = zk+1 − ẑk+1|k Uk+1 = Hk+1 Pk+1|k HTk+1 −1 Kk+1 = Pk+1|k HTk+1 Uk+1 x̂k+1|k+1 = x̂k+1|k + Kk+1 uk+1 Pk+1|k+1 = (I2 − Kk+1 Hk+1 ) Pk+1|k 7.3.3 Correction du modèle Implanté tel quel, l'algorithme va diverger. En eet, la covariance de l'innovation (notée tendre vers 0, Uk+1 ), va rapidement ce qui aura pour conséquence un gain de Kalman très élevé. Le fait de ne plus considérer le bruit de mesure nous ramène à un système totalement prédictif. Une solution pour y remédier consiste à ajouter un faible bruit de mesure connu, par exemple du bruit blanc, satisfaisant les hypothèses de Kalman (gaussien, centré et indépendant des autres bruits). On empêchera ainsi l'algorithme de diverger, car l'innovation va tendre vers le bruit ajoutée et sa covariance sera donc la variance de ce bruit. Le modèle de départ devient donc y(n) = A(n) sin (2πf0 n + φ(n)) + b (n) + q (n) avec q ∼ N 0, σq2 (7.14) , le bruit de mesure ajouté, qu'on appelera bruit de référence. Les équations restent identiques, excepté bien sûr la covariance de l'innovation. Uk+1 = Hk+1 Pk+1|k HTk+1 + σq2 7.3.4 Simulations Comme prévu, pour un bruit ltré (donc qui n'est plus blanc) et fort, l'algorithme ache les mêmes performances que les versions précédentes lorsqu'on avait avait un faible bruit. La gure 7.7 nous montre le cas où les mesures ont été "polluées" par des signaux sonores. Le signal polluant est constitué de 2 sinusoides à 50 Hz et 750 Hz. La encore, l'algorithme a de bonnes performances. Le dernier problème persistant est encore lié au modèle d'état constant, qui a pour conséquence une capacité de poursuite lente. 70 7.3. FILTRAGE AVEC SOUSTRACTION DE BRUIT (a) avec un bruit ltré Page 71 (b) avec un bruit ltré et une amplitude variable Fig. 7.6 Suivi de phase et d'amplitude avec soustraction de bruit (a) Signal polluant (b) Amplitude et phase Fig. 7.7 Suivi de phase et d'amplitude avec pollution sonore 7.3.5 Conclusion Cette version de l'algorithme de Kalman avec soustraction de bruit est surement la meilleure, car elle permet de s'adapter à tous types de bruit. Néanmoins cette version est peu utilisable. En eet, il est dicile d'obtenir technologiquement une mesure indépendante des bruits internes de l'oreille à l'aide d'un 2ème micro, car ce dernier sera proche du 1er micro et risque de capter également le signal utile. Une solution pour pallier ce problème serait de constituer une base de bruits qui sont systématiquement présents lors de mesures, par exemple les bruits de frottement et de déglutition, et qui sont plus ou moins communs aux sujets d'expérience. Il surait alors de les associer au paramètre bruit mesuré b0 dans les équations précédentes. Néanmoins, on peut toujours utiliser ce ltrage pour contrer les bruits extérieurs à l'oreille, particulièrement si les mesures doivent par exemple être eectuées dans une ambulance. 71 Page 72 CHAPITRE 7. ESTIMATION DE PHASE PAR FILTRAGE DE KALMAN Fig. 7.8 Suivi de phase et d'amplitude avec soustraction de bruit Références [1] Greg Welch & Gary Bishop. An Introduction to the Kalman Filter. Course of University of North Carolina at Chapel Hill. [2] Jean-François Bercher & Pascal Jardin. Filtrage adaptatif. Polycopié de cours ESIEE. [3] Simon Haykin. Adaptive Filter Theory. Information and System Science Series. Prentice Hall, 4th edition, 2001. [4] Simon Haykin. Kalman Filtering and Neural Networks. cessing Series. Wiley, 2001. 72 Adaptative and Learning Systems for Signal Pro- Quatrième partie Estimation de phase par méthode bayésienne 73 Chapitre 8 Notions utiles 8.1 Estimation bayésienne L'estimation bayésienne dière de l'estimation de vraisemblance par le fait que les paramètres à estimer ne sont plus considérés comme déterministe mais aléatoire. On dispose donc d'une loi à priori sur les paramètres. L'estimation bayésienne est en général plus performante que l'estimation par maximum de vraisemblance. L'estimation bayésienne doit son nom à la règle de Bayes, qui permet d'obtenir la loi à postériori, soit la loi des paramètres sachant les mesures. Pr (Θ|Y) = Pour estimer Θ, Pr (Y|Θ) Pr (Θ) Pr (Y) on dispose de plusieurs fonctions de coût C (e) avec (8.1) e = Θ̂ − Θ l'erreur d'estimation, qui mènent à des estimateurs aux performances diérentes. Les fonctions de coût sont à minimiser en moyenne, on parle de minimisation du risque bayésien E [C (e)]. Cette espérance se calcule à l'aide la loi conjointe entre le paramètre et les mesures. L'utilisation du théorème de Bayes montre que la minimisation ne fait intervenir en fait que la loi à posteriori donc l'espérance devient EΘ|Y [C (e)]. Dénition 8.1 (Moyenne à postériori) La fonction de coût est l'erreur quadratique moyenne C (e) = eT e. La minimisation du risque conduit à un estimateur qui n'est autre que la moyenne à posteriori du paramètre. Θ̂ = EΘ|Y [Θ] Dénition 8.2 (Médiane à postériori) (8.2) Une fonction de coût en valeur absolue C (e) = |e|, conduit à la médiane à posteriori. On choisit Θ̂ tel que Pr x < Θ̂ |Y = Pr x > Θ̂ |Y (8.3) Dénition 8.3 (Maximum a posteriori) La fonction de coût dénie par ( 0 si e ∈ [−∆; ∆] C (e) 1 sinon 75 (8.4) Page 76 CHAPITRE 8. NOTIONS UTILES conduit à l'estimateur du maximum a posteriori. Θ̂ = arg max Pr (Θ|Y) Θ (8.5) 8.2 Rappels de dérivation vectorielle Voici quelques résultats utiles de dérivation par rapport à un vecteur. Soit x et y des vecteurs colonne de taille multiplication avec x), alors on a n et xT y ∂x ∂ yT x ∂x ∂ xT M ∂x ∂ (Mx) ∂x ∂ xT Mx ∂x ∂ M une matrice de taille convenable (par rapport à la =y (8.6) =y (8.7) =M (8.8) = MT (8.9) = M + MT x (8.10) Références [1] Jean-François Bercher. Notions d'estimation. Polycopié de cours ESIEE. [2] Steven M.Kay. Fundamentals of Statistical Signal Processing : Estimation Theory. Prentice-Hall, 1993. 76 Signal Processing Series. Chapitre 9 Estimation de phase par méthode bayésienne Avec le modèle des mesures y(n) = A sin (2πf0 n + φ), nous ne connaissons ni la phase ni l'amplitude. Après avoir implémenté les estimateurs trouvés à partir du maximum de vraisemblance, on peut s'intéresser à la méthode de Bayes, qui considère les paramètres à estimer aléatoires et non plus déterministe comme la méthode précedente. 9.1 Calcul de l'estimateur Il faut ainsi déterminer les lois marginales de A et φ, que l'on appelle lois à priori. Dans un premier temps, nous allons choisir un cas gaussien centré pour l'amplitude. 2 A ∼ N 0, σA (9.1) Une hypothèse plus judicieuse aurait été de prendre une loi de Rayleigh, pour ne considérer que des amplitudes positives, mais le cas gaussien permet des calculs plus simples pour démarrer. En ce qui concerne l'a priori sur sur la variable aléatoire Aejφ ) φ, plusieurs essais (en considérant une loi uniforme, ou une loi gaussienne ont montré que l'écriture du critère obtenu à partir de la loi à postériori, ainsi que sa minimisation ne faisait plus intervenir l'a priori. La solution est de faire intervenir une famille de densités pour la loi sur f (φ, Lm ) = où le paramètre Lm constitue l'index et I0 φ [4], dénie par exp (Lm cos (φ − φ0 )) 2πI0 (Lm ) (9.2) la fonction de Bessel de la première espèce et d'ordre 1 I0 (x) = 2π Z 0 avec 2π exp (ix cos (τ )) dτ (9.3) 0 Nous avons donc la densité suivante Cette loi permet, par le contrôle du paramètre Lm , de se "reserrer" autour d'une valeur de phase. Cette loi est particulèrement adapté lors des pics de bruit, car on peut alors choisir Lm grand pour conserver la valeur de phase l'a priori. Par ailleurs, sur une plage d'échantillon où le bruit est faible, on peut réduire le paramètre Lm ce qui a pour eet de faire tendre la loi vers une loi uniforme, pour détecter éventuellement des changements de phase. 77 Page 78 CHAPITRE 9. ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE Fig. 9.1 Loi à priori de la phase indexée par le paramètre Lm avec φ0 = π 4 fA,φ|Yn (A, φ) ∝ fYn |A,φ (Yn |A, φ) fA (A) fφ (φ) ! PN −1 2 A2 n=0 (y(n) − A sin (2πf0 n + φ)) ∝ exp − exp (Lm cos (φ − φ0 )) exp − 2 2σb2 2σA En maximisant cette densité conditionnelle par rapport à critère J A puis φ, (9.4) (9.5) on se ramène à la minimisation d'un tel que PN −1 J= En dérivant par rapport à n=0 A et 2 (y(n) − A sin (2πf0 n + φ)) A2 + 2 − Lm cos (φ − φ0 ) 2σb2 2σA φ, (9.6) on aboutit à 2 équations couplées suivant ces 2 paramètres. β A N σb2 α cos φ̂ + sin φ̂ − + 2 =0 N N N 2 σA sin φ̂ cos φ̂ Aβ Aα + L sin (φ ) − + L cos (φ ) =0 m 0 m 0 N σb2 N σb2 78 (9.7) (9.8) 9.1. CALCUL DE L'ESTIMATEUR Page 79 avec α= N −1 X y(n) sin (2πf0 n) (9.9) y(n) cos (2πf0 n) (9.10) n=0 β= N −1 X n=0 Pour un nombre de points susamment grand et multiple de la demi-période, on a montré que sin (φ) α ≈ N 2 cos (φ) β ≈ N 2 (9.11) (9.12) On constate donc dans cette hypothèse que pour (9.7) et (9.8), si le bruit devient trop fort, les termes relatifs à la vraisemblance s'évanouissent, la prépondérance va au termes d'a priori. A contrario si le bruit devient faible, seuls les termes de vraisemblance demeurent. Cet estimateur s'adapte donc à la puissance du bruit de mesure, et on l'apellera donc estimateur adaptatif. Les équations (9.7) et (9.8) sont couplées et non linéaires, leur résolution se fera donc à l'aide d'une méthode itérative. 9.1.1 Résolution directe croisée (algorithme bloc) Cette méthode est basée sur les expressions de valeur de φ(k) à partir de la valeur de A(k − 1). A = f (φ) et φ = g (A). Itérativement, on calcule la nouvelle On obtient ainsi A (k) β + Lm σb2 sin (φ0 ) φ (k + 1) = arctan A (k) α + Lm σb2 cos (φ0 ) α cos (φ (k)) + β sin (φ (k)) A (k + 1) = σb2 N 2 + σ2 (9.13) (9.14) A On initialise au départ l'amplitude ou la phase (A(0) ou φ(0)), puis on remplace une de ces valeurs dans l'équation de l'autre paramètre, d'où la résolution croisée. L'algorithme s'arrête lorsque A (k + 1) − A (k) < 1 φ (k + 1) − φ (k) < 2 (9.15) (9.16) c'est-à-dire lorsque la phase et l'amplitude n'évoluent plus signicativement. Même si cette technique de résolution ne donne pas les meilleurs résultats, elle permet des temps de calcul très rapide puisqu'elle converge en quelques itérations (<10). On utilisera donc cette méthode pour les simulations. 9.1.2 Résolution par un ltrage RLS (algorithme temps réel) Soit T Θ = [Θ1 Θ2 ] T = [A cos (φ) A cos (φ)] le vecteur classique des paramètres à estimer. On pose une fonction de coût de la forme Jn (Θ) = n X p=0 79 λn−p p (Θ) (9.17) Page 80 où p (Θ) CHAPITRE 9. ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE est le log postériori, soit T (Yn − Hn Θ) (Yn − Hn Θ) kΘk2 + − Lm cos (φ0 ) 2 2 2σb 2σA 2 n (Θ) = En notant que sin (φ0 ) Θ kΘk2 (9.18) H est une matrice symétrique, on pose également 2 nouvelles fonctions ∂n (Θ) ∂Θ HTn (Yn − Hn Θ) Θ =− + 2 − Lm L σb2 σA Ln (Θ) = (9.19) (9.20) avec L = kΘk−1 2 cos (φ0 ) cos (φ0 ) sin (φ0 ) −3 − kΘk2 diag (Θ) Θ sin (φ0 ) cos (φ0 ) sin (φ0 ) (9.21) et n ∂ 2 Jn (Θ) X n−p ∂Lp (Θ) = λ (9.22) ∂Θ∂Θ ∂Θ p=0 T −5 −3 T T n T X M + M Θ − 3Θ kΘk Θ M Θ kΘk H H 1 1 I2 1 2 2 p p −3 + 2 + Lm kΘk2 diag (Θ) C + = λn−p 2 −5 −3 T T σ σ M2 + M2 Θ − 3Θ kΘk Θ M2 Θ kΘk A b p=0 Kn = 2 2 (9.23) avec C= cos (φ0 ) sin (φ0 ) c = 1 cos (φ0 ) sin (φ0 ) c2 M1 = e1 c1 M2 = e2 c2 e1 = [1 avec e2 = [0 avec (9.24) T 0] (9.25) T 1] (9.26) L'algorithme RLS sous-jacent est donné par la forme récursive [1] −1 Θn+1 = Θn − Kn+1 (Θn ) L (Θn ) On l'appelera (9.27) algorithme RLS MAP. Implanter tel quel avec des heuristiques convenables sur les paramètres d'à priori, l'algorithme présentera un temps de reaction très lent aux sauts de phase, bien qu'il nira toujours par converger vers la bonne valeur. Cette capacité de poursuite médiocre est en fait due au fait que le critère d'erreur p contient tout le passé du signal. Ce critère n'est donc pas optimal en cas d'une forte variation de la phase, car l'algorithme oubliera très lentement l'ancienne valeur de phase. La solution la plus évidente consiste donc à limiter la mémoire du critère d'erreur, comme nous l'avons déjà vu pour le RLS du maximum de vraisemblance. On peut penser que le fait de limiter cette mémoire revient identiquement à diminuer le facteur de bruit. Ce n'est pas exact, car à λ xé à une valeur faible, il faut un nombre d'échantillons après le saut de phase 80 9.2. SIMULATIONS Page 81 très supérieur au nombre d'échantillons avant le saut de phase, pour que le poids de l'ancienne phase devienne négligeable. La diminution du facteur d'oubli intervient peu dans la convergence de l'algorithme, pour une critère d'erreur à mémoire innie. Pour les changements à apporter, se référer à 6.2.1. Par ailleurs, le facteur le plus important dans l'adaptativité de l'algorithme, concerne la mise en place d'heuristiques sur les paramètres d'a priori. On pose ainsi Lm = ασ̂b2 avec α (9.28) un facteur de pondération. Quand le bruit augmente trop, l'algorithme favorise l'a priori, et cet à priori est centré autour de la dernière valeur de φ estimée. L'estimation de la variance du bruit est libre, on peut par exemple utiliser un estimateur classique T [y (i − N + 1) . . . y(i))] σ̂b2 (i) = , 1 N Pi j=i−N +1 (YN (i) − HN (i)Θi−1 ) (YN (i) − HN (i)Θi−1 ) T avec HN (i) étant construit de la même manière à l'aide de ses vecteurs lignes. YN (i) = La variance de la loi à priori l'amplitude, quant à elle, est inversement proportionnel à la variance du bruit estimé. 2 σA = avec β 1 βσb2 (9.29) constante de pondération. 9.2 Simulations 9.2.1 Biais et variance de l'algorithme bloc (a) Biais (b) Ecart-type Fig. 9.2 Biais et écart-type de l'estimateur adaptatif (amplitude et phase) Lm = 100 et Hormis le problème d'intermination de arctan, les performances sont bien meilleures que pour les Ces simulations ont été réalisées avec les paramètres la phase à π près, due à l'utilisation de la fonction estimateurs MV. En eet, pour des RSB relativement élevés, le biais devient négligeable au bout de quelques centaines de points. On constate par ailleurs que l'écart-type ne tend pas vers 0 mais vers 5 degré environ. 81 Page 82 CHAPITRE 9. ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE 9.2.2 Algorithme RLS MAP Pour les simulations, on choisit comme valeurs α = 15 β = 10−6 N = 100 (fenêtre pour l'estimateur de variance M = 500 (mémoire pour le critère d'erreur) λ = 0.7 du bruit) Fig. 9.3 RLS MAP - Relevés de phase et d'amplitude avec bruit fort au mileu des mesures La gure 9.3 nous montre les tracés pour une variation de bruit. Les 2000 premiers échantillons contiennent un bruit de variance σb2 = 1 (RSB=-3 dB), les échantillons de 2000 à 6000 un bruit de variance σb2 = 200 (RSB=-26 dB), et le dernier quart des mesures contient le même bruit qu'au départ. On constate que le pic de bruit entraîne une variation très lente de la phase. L'ensemble est équivalent à un ltre passe-bas sur la phase, contrôlé par le paramètre Lm , et donc par la puissance du bruit. Le ltre se réadapte plus vite, une fois passé le pic de bruit. 2 On peut également tester ses performances sur un bruit moyen (σb = 10 et RSB=-13 dB) qui reste constant. Les performances, montrées en gure 9.4, bien qu'étant moyennes, permettent encore de distinguer le saut de phase. Cependant, pour ce même bruit constant, il est possible de trouver des réglages plus ns. En prenant α = 100 β = 10−6 N = 100 (fenêtre pour l'estimateur de variance M = 1600 (mémoire pour le critère d'erreur) λ = 0.4 du bruit) on obtient des meilleurs résultats, présentés gure 9.5. Ceci met en évidence le compromis entre la variance des estimations et la rapidité de convergence, arbitré par les paramètres de l'algorithme (mémoire, facteur d'oubli) et les paramètres des lois a priori. 82 RÉFÉRENCES Page 83 Fig. 9.4 RLS MAP - Relevés de phase et d'amplitude avec bruit constant Fig. 9.5 RLS MAP - Relevés de phase et d'amplitude avec bruit constant et un réglage de paramètre plus n Références [1] Katia Hilal and Pierre Duhamel. A general form for recursive adaptative algorithms leading to an exact recursive CMA. [2] Simon Haykin. IEEE, 1992. Adaptative Filter Theory. Information and System Sciences Series. Prentice-Hall, fourth edition, 2001. [3] Steven M.Kay. Fundamentals of Statistical Signal Processing : Estimation Theory. Signal Processing Series. Prentice-Hall, 1993. [4] A.J Viterbi. Optimum detection and Signal Selection for partially Coherent Binary Communication. IEEE Transactions on Information Theory, volume IT-11, pages 239246, April 1965. 83 In Page 84 CHAPITRE 9. ESTIMATION DE PHASE PAR MÉTHODE BAYÉSIENNE 84 Résumé des algorithmes étudiés 2 types d'algorithmes ont été développés, les algorithmes blocs et temps réels. Les algorithmes blocs, qui sont simplement les estimateurs basiques appliqués sur une fenêtre d'échantillons, peuvent naturellement être utilisés à chaque nouvel échantillon, en décalant simplement la fenêtre. Néanmoins, cela demande un coût de calcul très élevé, et on perd l'aspect temps réel. Cette caractéristique est notamment réalisée par les algorithmes RLS. Dans ce dernier chapitre, nous allons présenter sous forme de tableau récapitulatif, les performances des algorithmes développés et leur domaine d'utilisation. Algorithmes blocs Algorithme Dynamique de RSB Temps de calcul Réaction au saut de phase Biais/Ecart-type MV en Arctan Théorique- Rapide Dépend de la taille du bloc ment dans le illimitée avec cas bruit une taille de blanc, bloc en long dans de l'estimateur. Ecart-type conséquence le cas asymptotique nulle bruit (simulations) Biais ni uniquement asymptotiquement (nul par simulation), mais indétermination à π près corrélé MV en Arccos Théorique- Rapide ment dans le Dépend de la taille du bloc n'importe quelle taille de illimitée avec cas bruit bloc, biais nul pour une taille de blanc, l'estimateur du bloc en long dans conséquence le cas cos (φ)(théoriquement) pour l'estimateur de φ bruit Existence d'un biais pour (par simulation). Pas corrélé d'indétermination à π près. Ecart-type asymptotique nulle (simulations) MAP Théorique- Moyen Dépend de la taille du bloc Ecart-type sur la phase ment constante et ne dépend pas illimitée et de la taille du bloc. Biais s'adapte aux décroît avec pics de bruit l'augmentation de la taille à taille de du bloc bloc constant 85 Page 86 Résumé des algorithmes étudiés Algorithmes temps réel Algorithme Dynamique de RSB Temps de calcul Réaction au saut de phase Convergence/Biais/Ecart-type LMS Jusqu'à -3 dB Rapide Très rapide, en Convergence pour un nombre MV quelques d'itérations inni. Ecart-type échantillons dépend du pas (qui permet de Rapide si la Convergence pour un nombre ltrer la phase) RLS Jusqu'à -10 dB MV Long (inversion mémoire est d'itérations ni. Ecart-type dépend d'une matrice petite, lente si la du facteur d'oubli et de la taille de de meme taille mémoire dépasse la mémoire. que la 100 échantillons mémoire) RLS Jusqu'à -13 dB en Moyen Même compromis Convergence pour un nombre MAP bruit constant, (dépend de la que le RLS MV d'itérations ni. Ecart-type dépend s'adapte à des taille de la du facteur d'oubli et de la taille de dégradations mémoire) la mémoire, ainsi que des temporaires du paramètres de l'à priori. RSB. Kalman Jusqu'à -13 dB Très rapide carté- Lent (à cause du Convergence pour un nombre modèle d'état) d'itérations ni. Ecart-type quasi Lent (à cause du Convergence pour un nombre modèle d'état) d'itérations ni. Ecart-type quasi sien Kalman avec nul (par simulation) Illimitée Très rapide sous- nul (par simulation). On dispose traction d'une mesure du bruit environnant de bruit indépendante. 86 Conclusion Conclusion et perspectives Durant ce stage, nous avons donc présenté plusieurs algorithmes pouvant répondre au problème d'estimation de phase de l'otoémission. La principale motivation concernant leur choix est le niveau de bruit présent sur les mesures, et de manière moins importante, la capacité de poursuite et la rapidité de convergence. Ces algorithmes sont donc destinés pour des mesures eectuées en environnement très bruyant. Une version incluant une soustracteur de bruit a également été développée, si des modications ultérieures du dispositif permettent la mise en oeuvre d'une mesure du bruit environnant. Malgré ces 4 mois de stage, il reste encore beaucoup de sujets connexes en signal auquels s'intéresser. Citons dans le désordre Améliorer le modèle d'état de Kalman pour permettre une réaction plus rapide aux sauts de phase Trouver des heuristiques optimales sur les paramètres d'à priori pour le RLS MAP Inclure la soutraction de bruit dans les algorithmes LMS et RLS Trouver un estimateur bayésien avec un à priori de Rayleigh sur l'amplitude Etudier théoriquement l'impact d'un bruit non gaussien, et développer de nouveaux estimateurs et algorithmes adaptés à ce type de bruit. Apport du stage Ce stage a été l'occasion d'observer le monde de la recherche, celui-ci s'étant déroulé dans le Laboratoire d'Informatique de l'Institut Gaspard Monge. Bien que le sujet ne soit évidemment pas d'un niveau recherche, nous avons quand même acquis des méthodes de travail qui y sont relatives. En eet, ce stage nous a permis de réaliser une étude bibliographique, de communiquer avec des chercheurs et de s'imprégner de leur logique de raisonnement. Ce stage étant essentiellement basé sur les mathématiques de l'ingénieur, nous avons de plus acquis plus de rigueur dans les études théoriques. Par ailleurs, ce stage nous a permis d'étudier un grand nombre de sujets mathématiques non vus à l'ESIEE, qui touche la théorie de la mesure, la topologie, l'analyse complexe, et certains sujets de probabilité. Nous avons de plus revu sous un autre angle et approfondi les diérents cours de signal de 4ème année. Sans pour autant faire l'apologie du stage en université par rapport au stage en entreprise, on peut citer un certain nombre d'avantages, comme le temps accordé pour bien comprendre les notions, la grande disponibilité et la source de connaissances quasi-illimitée que sont les enseignants-chercheurs, les horaires souples, l'ambiance décontractée et le salaire qui est bien au-dessus d'une prime classique de stage. Gestion de projet En ce qui concerne la gestion de projet, celle-ci ne s'est pas faite de façon classique comme enseignée à l'ESIEE, c'est-à-dire une planication prévue des diérentes étapes. 87 Page 88 Conclusion En eet, étant donné que le sujet était relativement théorique, les idées sont venues au fur et à mesure des calculs et des lectures. Nos tuteurs nous ont proposé diérentes idées à approfondir, certaines au début du stage, d'autres dans la 2ème moitié. Le travail quotidien alternait études théoriques, simulations, ce qui permettait de ne pas "saturer" sur l'un ou l'autre (exemple : si on est bloqué sur un calcul, on passe à autre chose et on le reprend plus tard). Pour donner une image plus scientique, nous n'avons pas travaille séquentiellement mais en parallélisant les tâches. Il fallait donc souvent noter où l'on s'arretait pour ne pas oublier lors de la reprise. Cette façon de gérer le projet a bien sûr été rendue possible du fait que ces étapes n'était pas dépendantes entre elles, et elle a permis un travail plutôt ecace. Ce type de gestion est bien sûr propre à un travail plutôt individuel et autonome, et ne s'applique pas à un travail d'une équipe d'ingénieurs. 88 Table des gures 1.1 Composition de l'oreille humaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1 Chaîne d'acquisition du signal d'otoémission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2 Réponse du ltre de la chaîne d'acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.1 Exemple de limites d'ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 4.1 Relevés de simulation de l'estimateur exhaustif pour N variant de 10 à 5000 4.2 Relevés de simulation de l'estimateur exhaustif pour 4.3 Relevés de simulation de l'estimateur exhaustif pour Fe variant de 2 à 200 KHz . . . . . . . . . 34 4.4 Relevés de simulation de l'estimateur sous-optimal pour N variant de 10 à 5000 . . . . . . . . . 39 4.5 Biais en fonction du RSB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.6 Relevés de simulation de l'estimateur approximé pour Fe variant de 2 à 200 KHz . . . . . . . . . 40 4.7 Diérence entre les 2 estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 Loi de la v.aX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 5.1 Schéma d'un ltre adaptatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 6.1 LMS MV - Suivi de phase et d'amplitude constante . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.2 LMS MV - Suivi de phase variable et d'amplitude constante . . . . . . . . . . . . . . . . . . . . . 61 6.3 LMS MV - Suivi de phase et d'amplitude variables . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6.4 RLS MV - Simulations en bruit faible et moyen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 7.1 Relevés de phase et d'amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 7.2 Relevés de phase et d'amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 7.3 Tracé de l'amplitude et de la phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.4 Tracé d'amplitude et de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.5 Tracé d'amplitude et de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7.6 Suivi de phase et d'amplitude avec soustraction de bruit . . . . . . . . . . . . . . . . . . . . . . . 71 7.7 Suivi de phase et d'amplitude avec pollution sonore . . . . . . . . . . . . . . . . . . . . . . . . . . 71 7.8 Suivi de phase et d'amplitude avec soustraction de bruit . . . . . . . . . . . . . . . . . . . . . . . 72 9.1 Loi à priori de la phase indexée par le paramètre 78 9.2 π 4 . . . . . . . . . . . . . . . . . . Biais et écart-type de l'estimateur adaptatif (amplitude et phase) . . . . . . . . . . . . . . . . . . 9.3 RLS MAP - Relevés de phase et d'amplitude avec bruit fort au mileu des mesures . . . . . . . . 82 9.4 RLS MAP - Relevés de phase et d'amplitude avec bruit constant . . . . . . . . . . . . . . . . . . 83 9.5 RLS MAP - Relevés de phase et d'amplitude avec bruit constant et un réglage de paramètre plus 4.8 4.9 Loi de l'estimateur 4.10 Biais du n cos φ̂ cos φ̂ en fonction du paramètre Λ Lm σb2 variant de 0.1 à 30 avec . . . . . . . . . . . 33 . . . . . . . . . . . . 34 φ0 = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 81 83