numéro Naissance, vie et mort de l’oreille EDITION 2008 37273_Couv_Mono_N45.Nais_vie_mor1 1 Naissance, vie et mort de l’oreille Les monographies amplifon 45 Naissance, vie et mort de l’oreille André Chays Paul Avan, Eric Bailly-Masson, Marie-Madeleine Eliot, Lionel Collet, Gérald Kalfoun, Eric Kariger, Sandrine Marlin, Xavier Perrot, Pascal Schmidt, Hung Thaï Van E D I T I O N 2 0 0 8 18/09/08 10:36:17 Naissance, vie et mort de l’oreille André Chays Paul Avan, Eric Bailly-Masson, Marie-Madeleine Eliot, Lionel Collet, Gérald Kalfoun, Eric Kariger, Sandrine Marlin, Xavier Perrot, Pascal Schmidt, Hung Thaï Van EDITION 2008 37273_Monographie_N45.Nais_vie_m1 1 18/09/08 14:37:48 Monographie naissance vie et mort de l'oreille REMERCIEMENTS S ans la Société Amplifon, point de monographie, point de cette longue réflexion menée au cours de l’hiver 2007, maintenant couchée sur le papier, pour le bien de milliers de lecteurs ORL, audioprothésistes, orthophonistes, mais aussi généralistes, généticiens, infirmières, pédiatres, psychiatres, psychologues, puéricultrices, et j’en oublie… À l’heure où il est de bon ton de taire, si ce n’est de fuir, avant de bientôt condamner ces relations hautement suspectes entre le monde soignant et celui des laboratoires, je suis heureux de crier haut et fort que l’enseignement post-universitaire, jusqu’à ce jour, n’a vécu que grâce à l’efficace conscience professionnelle de ceux qui composent ces laboratoires. La Société Amplifon fait partie de celles qui font survivre cet enseignement et je lui dis toute notre reconnaissance pour son fidèle soutien. Le brillant Paul Avan, les fidèles Sandrine Marlin et Mylène Elliot, le complice Eric Kariger, l’honnête Pascal Schmidt, la fameuse et excellente équipe UMR de Lyon, sous la houlette de Lionel Collet et Hung Thai Van, m’ont donné sans compter les fruits de leurs pensées et leurs excellents écrits. Je les en remercie d’autant plus qu’ils m’ont autorisé à les retoucher pour assurer l’homogénéité du texte et que je connais, par ailleurs, la lourde charge d’écriture qui leur est régulièrement assignée. Gérald Kalfoun et Eric Bailly-Masson ont porté très haut les couleurs d’une noble profession, très complémentaire de la nôtre : je les remercie de ce qu’ils m’ont appris et de leur forte implication dans l’enseignement, graines plantées là pour un futur prometteur. Le vrai coordonnateur de cet ouvrage n’apparaît pas parce que l’élégance de sa discrétion n’a d’égale que celle de son esprit. Sa pensée est partout au cœur de cet écrit car il partage avec les chercheurs leur curiosité, avec les thérapeutes leur efficacité, et avec les penseurs leur esprit de synthèse et leur imaginaire. Les malentendants de ce monde lui doivent beaucoup : il les connaît, il les comprend, il les respecte et, sans jamais la moindre faiblesse, il les aide de son mieux. Monsieur Morgon, permettez-moi de joindre ma voix à la leur pour vous dire toute notre gratitude. Enfin, deux se reconnaîtront, qui m’ont si brillamment appris l’évidence… André Chays 2 37273_Monographie_N45.Nais_vie_m2 2 18/09/08 14:38:11 Monographie naissance vie et mort de l'oreille les A uteurs André Chays Chef de Service ORL Hôpital Robert Debré - CHU REIMS - 51092 REIMS Cedex [email protected] Paul Avan, Professeur de Biophysique Laboratoire de Biophysique sensorielle (EA 2667), Faculté de Médecine, Université d'Auvergne, Clermont-Ferrand [email protected] Eric Bailly Masson Audioprothésiste D.E. Amplifon Bailly Masson 8 rue Alfred de Vigny 25000 Besançon [email protected] Lionel Collet Professeur des universités Praticien Hospitalier Service d'audiologie et d'explorations oro-faciales des Hospices Civils de Lyon Université Claude Bernard Lyon 1 Marie-Madeleine Eliot Docteur, médecin ORL phoniatre cabinet d'ORL 1 allée SPACH 67000 Strasbourg et Service d'audiophonologie-ORL Hopital de Hautepierre 67000 Strasbourg [email protected] Idrick Akhoun Doctorant Equipe Audiologie - UMR CNRS 5020 Hôpital Edouard Herriot LYON Stéphane Gallégo Docteur en Biomédicale, Audioprothésiste DE Hôpital Edouard herriot, service Implant cochléaire, Lyon [email protected] Gérald Kalfoun Audioprothésiste, Orthophoniste Professeur associé à l’Université Lyon 1 Amplifon Kalfoun Lyon 163 cours Lafayette 69006 Lyon [email protected] Eric Kariger Gériatre, Responsable Médical de Pôle Hôpital Sébastopol, Service de Soins de Suite et Réadaptation, 48 rue de Sébastopol 51092 Reims Cedex [email protected] Sandrine Marlin Docteur Centre de Référence des Surdités Génétiques Service de Génétique Hôpital d'Enfants Armand Trousseau 26 av du Dr Arnold Netter 75571 Paris Cedex 15 [email protected] Annie Moulin Docteur en Médecine, Docteur en Neurosciences Chargée de recherches au CNRS CNRS, UMR 5020, Neurosciences sensorielles, comportement,cognition Equipe Audiologie, Hôpital E. Herriot 69437 Lyon Cedex [email protected] Xavier PERROT Maître de Conférences des Universités Praticien Hospitalier (Physiologie Audiologie) Service d'Audiologie et Explorations Orofaciales & UMR 5020 CNRS-Université Lyon 1 Centre Hospitalier Lyon-Sud 69495 Pierre-Bénite Cedex [email protected] Pascal Schmidt Docteur ORL Service ORL & chirurgie cervico-faciale CHU Reims 51092 Reims Cedex [email protected] Hung Thaï Van Maître de Conférences-Praticien Hospitalier Responsable de l'équipe Audiologie UMR CNRS 5020 Service d'Audiologie & d'Explorations Orofaciales Hôpital Edouard Herriot LYON [email protected] Evelyne Veuillet PhD, Ingénieur de Recherche UMR CNR 5020 Neurosciences sensorielles, Comportement, Cognition, Service d'Audiologie et d'Explorations Orofaciales, Pavillon U, Hôpital Edouard Herriot 69437 Lyon Cedex 03 [email protected] 3 37273_Monographie_N45.Nais_vie_m3 3 18/09/08 14:38:14 37273_Monographie_N45.Nais_vie_m4 4 18/09/08 14:38:17 Monographie naissance vie et mort de l'oreille ommaire S PRÉFACE 7 INTRODUCTION 9 1 - SA NAISSANCE 11 1.1. “L’oreille avant l’oreille” ou l’audition in utero 11 à 18 1.2. L’oreille née sourde 19 à 32 33 2 - SA VIE 2.1. Ses performances 33 à 42 2.2. Son utilisation 43 à 53 2.3. Ses rapports avec d’autres fonctions 55 à 65 2.4. Son exploration 67 à 82 3 - SON DECLIN : LA PRESBYACOUSIE 3.1. Support physiopathogénique 83 83 à 118 3.2. Diagnostic de la presbyacousie 119 à 122 3.3. Sa prise en charge : l’aide auditive 123 à 140 4 - VERS SA RENAISSANCE ? Cellules sensorielles auditives et régénération, vers de nouvelles pistes thérapeutiques ? CONCLUSIONS 141 141 à 146 147 5 37273_Monographie_N45.Nais_vie_m5 5 18/09/08 14:38:17 37273_Monographie_N45.Nais_vie_m6 6 18/09/08 14:38:19 Monographie naissance vie et mort de l'oreille PRÉFACE I l était une fois un organe de l’économie, porteur d’une fonction essentielle pour l’homme vivant en société : l’oreille et l’audition. À la naissance, l’oreille moyenne avec l’attelage tympano-ossiculaire est fonctionnelle de même que l’oreille interne avec les cellules ciliées en état de marche pour transmettre la plupart des sons de l’environnement. Dès les premières heures de la vie, par l’oreille, le nouveau né est dans un bain de langage. L'oreille couvre un champ sonore en deçà et en delà de ce qu’il est convenu d’appeler la zone conversationnelle. On parle de champ auditif, propos restrictif pour évoquer un phénomène spatial dont les paramètres se mesurent en hertz, décibel, mètre, minute ; un son évolue dans un volume qui se déplace dans le temps. Essentiellement, l’oreille est au service des deux cerveaux ; au cerveau gauche, elle apporte les éléments qui lui permettent d’appréhender les sons signifiants au sein d’un univers de bruit ; au cerveau droit, elle véhicule la prosodie. Pour le langage, elle est indispensable ; elle fournit les éléments pour le décryptage des sons signifiants. Au-delà d’entendre (appareil auditif) il importe de comprendre (langage et cognition). Elle participe aux mémoires à court et à long terme ; elle est ainsi la mémoire de la vie d’un individu. L’oreille et l’audition sont à la naissance « anatomiquement » en place ; elle devient « fonctionnelle » par le jeu des apprentissages. L’oreille n’est pas réduite à l’oreille externe, moyenne, interne, lieux où agit souvent avec bonheur l’otologiste, l’orthophoniste, l’audioprothésiste. Les sons qui transitent sont conduits aux centres auditifs dont certains ont un droit de regard sur l’oreille interne par le système efférent. Les centres auditifs sont connectés avec les centres de la motricité, de la vision, du langage, de la cognition ; l'oreille est un élément primordial de la communication humaine. Alain Morgon 7 37273_Monographie_N45.Nais_vie_m7 7 18/09/08 14:38:19 37273_Monographie_N45.Nais_vie_m8 8 18/09/08 14:38:22 Monographie naissance vie et mort de l'oreille INTRODUCTION Cette préparation anatomique nous apparaît, comme au premier jour, toujours aussi fascinante... Elle ne se lasse pas de nous poser d'innombrables questions dont trois fondamentales : - comment ce petit centimètre cube, caché au coeur de son écrin pétreux a t'il pu venir s'y loger et s'y différencier ? - comment et pourquoi cette merveilleuse machinerie a t'elle acquis une anatomophysiologie si complexe que personne, à ce jour, ne l'a complètement comprise ? - comment un instrument à la résistance mécanique apparemment si fragile peut-il traverser les ans sans ne subir, le plus souvent, d'autres dommages que l'inéluctable lent vieillissement des cellules qui le composent ? Nous avons tenté, au long de cet ouvrage, de répondre de notre mieux à ces trois interrogations, ce qui revenait à décrire ce que nous savons, à l'heure actuelle, de la naissance, de la vie et du déclin de l'oreille. Au cours de chacune de nos réflexions, nous avons constaté qu'étudier le seul petit centimètre cube périphérique n'a qu'un intérêt relatif en tant que tel. La démarche ne prend de réelle valeur que si, très vite, l'esprit intègre ce capteur périphérique au coeur du plus vaste système de l'audition, encore peu palpable à notre échelle, tant il paraît infini dans sa complexité tout aussi anatomique que physiologique. Tenter de mieux comprendre la naissance, la vie et la mort de l'oreille ne peut donc se faire qu'en analysant ses interactions avec l'ensemble des autres fonctions humaines... Il ne servait donc à rien, pour répondre aux trois questions fondamentales, de rédiger un manuel "technique" qui aurait aidé le praticien à y trouver dans telle ou telle page la désignation de la pièce à changer et sa mise en oeuvre pour résoudre l'incident technique. Il nous est apparu plus efficace de présenter ce travail comme une analyse et une étude de l'oreille périphérique au coeur de l'être humain. Le praticien y trouvera, nous l'espérons, l'intérêt de partir du général pour appréhender au mieux, le détail, ce qui devrait lui permettre de ne plus traiter l'organe mais le patient dans sa globalité. Voici donc rapportées la naissance, la vie et la mort de l'oreille, autrement dit, son histoire naturelle... 9 37273_Monographie_N45.Nais_vie_m9 9 18/09/08 14:38:22 37273_Monographie_N45.Nais_vie_m10 10 18/09/08 14:38:28 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance 1 - SA NAISSANCE 1.1. “L’oreille avant l’oreille” ou l’audition in utero L e développement de l’audition humaine se distingue, par rapport à celui de beaucoup de petits animaux de laboratoire, par le fait que l’organe récepteur qu’est la cochlée est mature bien avant terme, de même que les connexions entre la cochlée et les voies nerveuses dont le développement est coordonné. Le bébé, même s’il naît très prématuré, entend donc et a entendu depuis un certain nombre de semaines, même s’il ne comprend certes pas immédiatement comme un adulte ! Ceci soulève encore de nombreuses questions scientifiques, pratiques, jusqu’à des considérations d’ordre plus « philosophique ». Tout d’abord, pour trouver un modèle animal valide de développement de l’audition humaine à base de jeunes rats ou souris, il faut faire appel à des stades transposés, postnatals. Ensuite, l’évaluation des aptitudes auditives des fœtus se heurte à deux difficultés : celle de faire parvenir les sons tests à l’oreille des sujets testés, à travers la paroi abdominale maternelle et le liquide amniotique, et celle de détecter les réponses fœtales. Un autre ordre de questions est plus « central » : comme il est désormais bien établi que c’est le fait d’entendre qui va conditionner le développement des centres nerveux, jusqu’au point critique où l’aptitude au langage va émerger, la question se pose de ce que si les fœtus entendent in utero, des traces importantes peuvent en subsister dans les circuits neuronaux. Et si le bébé naît sourd, on ne sait depuis combien de temps, mais l’absence de stimulus sonore in utero a-t-il pu déjà lui nuire ? Et si un bébé entendant a été exposé in utero à des sons agressifs, parce que par exemple trop intenses, cela peut-il lui avoir laissé des séquelles ? Ce chapitre a pour but de passer brièvement en revue quelques-unes de ces questions. Chez l’homme, les différents sens commencent tous à se développer bien avant la naissance, d’une part parce que les organes sensoriels périphériques se structurent, se différencient et mettent en place une activité métabolique rendant possible la fonction de transduction des messages, d’autre part parce qu’en parallèle et de manière coordonnée, les voies nerveuses se développent de manière Développement des capacités centrifuge et viennent établir des connexions sensorielles en bref avec les récepteurs périphériques. Les • voies nerveuses chronologies de développement des sens sont simplement décalées en trois grands groupes, • organes périphériques dans l’ordre toucher et vestibule, puis olfaction Développement concerté et gustation, et enfin audition et vision (fig. 1). Il dans l'ordre chronologique : ne faut cependant pas oublier qu’après la naissance, tout n’est pas achevé : Dans le système • toucher & vestibule nerveux central, les centres et leur connectique • olfaction & gustation doit encore effectuer une très lente maturation • audition & vision alors même que la périphérie a commencé à 11 37273_Monographie_N45.Nais_vie_m11 11 D fig. 1 18/09/08 14:38:28 Monographie naissance vie et mort de l'oreille chapitre 01 sa naissance fonctionner. Ainsi, la myélinisation des neurones, qui leur permet d’augmenter le synchronisme et la vitesse de leur conduction des potentiels d’action, se prolonge pendant des années après la naissance, pour se terminer seulement autour de la puberté pour les centres associatifs corticaux les plus complexes. D’autres modifications plus subtiles mais très importantes doivent également se produire au niveau de la circuiterie, sous forme de la sélection et de la stabilisation (ou de l’élimination) des synapses lors de périodes critiques précoces. 1.1.1. Développement des structures périphériques auditives humaines Le premier rudiment d’oreille interne apparaît lorsqu’une zone de l’ectoderme embryonnaire s’invagine, autour d’une douzaine de jours, pour former la vésicule otique, d’où s’individualisent plusieurs diverticules qui vont former le labyrinthe membraneux. Vers la fin de la 3ème semaine, un groupe de cellules nerveuses se rassemble à proximité de la vésicule otique, et une partie va former le ganglion spiral dont les fibres proximales constitueront le nerf cochléaire. À 9 semaines de gestation, la spirale cochléaire est formée, mais l’épithélium sensoriel n’est pas encore différencié. À 10 semaines, on assiste au début de la différentiation des cellules ciliées externes et internes de l’organe de Corti, à partir du précédent épithélium indifférencié. Des microvillosités couvrent d’abord la surface supérieure des cellules de soutien, puis des touffes stéréociliaires apparaissent et adoptent petit à petit une forme très organisée, qu’elles atteignent vers 12 semaines. Entre-temps, vers 11-12 semaines (3 mois in utero), le contact est effectué avec les neurones auditifs. À 14 semaines, les cellules ciliées internes et externes sont bien visibles de part et d’autre des cellules piliers. L’organe de Kölliker, précurseur de l’organe de Corti, a encore la tâche de sécréter la membrane tectoriale, et une fois ceci effectué, les espaces de Nuel entourant les CCE formées, le tunnel de Corti ouvert, on se retrouve à un stade, autour de 18 à 20 semaines post gestationnelles, où le début de la fonction auditive est possible, et pourtant la naissance est encore bien loin, le fœtus n’en est qu’à mi-parcours in utero ! La période qui vient de s’écouler est propice à des difficultés, notablement si l’hormone thyroïdienne n’effectue pas son travail (fig. 2). Développement de la cochlée, quelques repères • Selon un gradient de base > apex • CCI avant CCE • puis tunnel de Corti • puis espace de Nuel • puis sillon spiral interne • puis membrane tectoriale 8 spirale D fig. 2 37273_Monographie_N45.Nais_vie_m12 12 12 CC 16 Contact neurones 20 pot 24 Comport. 28 (semaines) 32 36 40 Maturation achevée 12 18/09/08 14:38:32 Il a été bien décrit qu’au début de la rencontre entre neurones et cellules sensorielles auditives, le schéma d’innervation n’est pas celui rencontré à l’âge adulte, avec notamment des contacts entre CCE et fibres afférentes. Mais très vite le schéma évolue, et on se retrouve à 18-20 semaines avec des neurones fonctionnels, des CCI et CCE fonctionnelles et des différences de potentiel, grâce à l’action de la strie vasculaire en particulier, qui permettent au système auditif de donner lieu à ses premiers potentiels d’action sous l’effet de stimulations externes. En fait, il faut attendre 24-26 semaines pour détecter les premières réponses comportementales nettes du fœtus. Vers 28 à 30 semaines, les réponses de base sont devenues pleinement adultes, les rares études morphologiques montrent un organe de Corti structurellement mature avec une régularité quasi parfaite de ses alignements cellulaires, ce qui pouvait ne pas être le cas antérieurement notamment à cause de la présence de cellules surnuméraires. À 30 semaines, un prématuré est viable et il entend en principe normalement – sauf si sa prématurité, facteur de risque auditif, a entraîné une surdité neurosensorielle. Il est donc dépistable, soit par les otoémissions, qui sont normalement de caractéristiques quasi-adultes si ce n’est plus amples, de spectre plus large, et plus riches en otoémissions spontanées, soit par les potentiels évoqués auditifs précoces du tronc cérébral, même si ces derniers ont une morphologie non adulte et des latences allongées principalement en raison de l’immaturité des cellules gliales environnant les neurones auditifs. La normalité de la cochlée à 30 semaines ne veut pas dire que la périphérie ne va plus évoluer du tout (fig. 3). Si certaines choses sont figées comme la taille et la disposition des cellules sensorielles le long de la membrane basilaire cochléaire, dans une cochlée osseuse dont la taille est également figée pour le plus grand Audition, points de repère bénéfice de ceux qui posent des implants cochléaires, d’autres effectuent un complément de maturation. Par exemple, les • In utero, stimuli filtrés mais otoémissions acoustiques reflètent d’un progressif changement contact mère/enfant de la fonction de transfert de l’oreille dont la résonance se • Périphérie totalement mature décale vers les basses fréquences, pendant environ 2 ans (elles même en cas de prématurité reflètent aussi, de manière discrète, la maturation retardée du • Maturation des centres plus système efférent médian olivocochléaire). tardive (adolescence), sous la 1.1.2. Les performances in utero dépendance des afférences In utero, la réalisation d’une audiométrie est évidemment • Périodes critiques difficile mais a quand même pu être réalisée à différents âges conceptionnels. 1.1.2.1. Moyens de mesure D fig. 3 On peut envisager, comme à des stades plus tardifs, des mesures objectives ou subjectives. Les premières incluent l’électrophysiologie auditive et en pratique, ne sont guère applicables qu’à des modèles animaux. Même l’imagerie fonctionnelle a des limites chez l’humain, notamment le TEP scan à cause des injections d’isotopes radioactifs, mais récemment quelques études d’IRM fonctionnelle chez la femme enceinte ont été rapportées. Parmi les modèles animaux, pour des raisons de taille adéquate, la brebis a fait l’objet de (relativement) nombreuses études. Les méthodes comportementales consistent 13 37273_Monographie_N45.Nais_vie_m13 13 18/09/08 14:38:35 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance à détecter, pas forcément de manière subjective du reste, une réactivité du fœtus corrélée à la présentation d’un stimulus. On peut par exemple enregistrer le rythme cardiaque (objectivement) et rechercher une modification. On peut aussi rechercher la présence de mouvements réflexes (par exemple, le blink startle reflex, clignement d’yeux détectable de l’extérieur par imagerie ultrasonore). La recherche d’une habituation à un stimulus présenté répétitivement, suivie d’une réaction à une nouveauté qui prouve que le fœtus a détecté le stimulus habituel et le nouveau puisqu’il réagit au changement, par modification de son rythme cardiaque par exemple, permet des mesures précises. On ne rappelle jamais trop souvent les pièges inhérents à ce type de test : en cas de pratique d’un test objectif chez l’animal, l’absence d’onde de PEA ne veut pas dire non détection, mais absence de synchronisme suffisant. En comportemental, l’absence de réponse peut signaler un problème d’attention ou de pertinence, et la présence d’une réponse peut être due à un parasite, soit lié à une réaction d’un opérateur, soit à une autre modalité sensorielle (tactile ?). 1.1.2.2. Réactions auditives prénatales simples Les audiogrammes en sons purs sont bien sûr difficiles à pratiquer et peu d’études systématiques des performances en sensibilité en fonction de la fréquence ont été publiées. Elles sont toujours à utiliser en gardant en tête le problème de transmission auquel les sons présentés de l’extérieur sont confrontés. Ce qui est observé est que les fœtus commencent en général à répondre à des sons de 500 Hz environ, autour de 19 semaines d’âge gestationnel. Puis les fréquences donnant lieu à une réponse s’étendent d’abord vers les plus basses fréquences, 100 et 250 Hz (autour de 27 semaines), puis plus tard (33 à 35 semaines), plus haut vers 1000 et 3000 Hz (où l’atténuation de la paroi abdominale maternelle est plus grande qu’à basses fréquences et apporte ainsi un facteur confondant). Au fur et à mesure que le fœtus grandit, les seuils s’abaissent de 20 à 30 dB mais bien sûr la dynamique expérimentalement testable est étroite et pour être visibles, les réponses du fœtus doivent être nettement supraliminaires. Il est clair d’après ces données que le fœtus est vite en situation de percevoir des sons de parole, notamment s’ils sont d’origine maternelle et non extérieure. 1.1.2.3. Fœtus et messages auditifs complexes Les stimuli acoustiques naturels auxquels le fœtus est exposé sont a priori principalement endogènes, de niveau de l’ordre de 60-70 dB en pondération A, avec des basses fréquences dominantes, inférieures à 700 Hz (bruits vasculaires ou digestifs, plus la voix maternelle transmise directement par les tissus). Les bruits extérieurs qui émergent ont eu à franchir la paroi utérine, dont l’atténuation est estimée à 19 dB environ autour de 200 Hz, pour augmenter à 38 dB à 1 kHz et même 48 dB au-delà, ce qui la rend rédhibitoire (Lecanuet et coll.). Cependant, l’équipe de Sohmer (par exemple, Sohmer et Freeman 2 001) donne des chiffres moins pessimistes. D’après des enregistrements intravaginaux réalisés chez des mères (Busnel), la voix maternelle émerge du bruit de fond de 24 dB. Les autres voix (transmises, elles, par voie purement aérienne jusqu’à la paroi utérine maternelle) émergent de 8 à 12 dB seulement et sont donc nettement moins pertinentes pour le fœtus. Une fois les sons transmis dans le liquide amniotique, la question se pose de déterminer par quel(s) 14 37273_Monographie_N45.Nais_vie_m14 14 18/09/08 14:38:35 mécanisme(s) l’audition a lieu. On peut envisager plusieurs voies possibles par lesquelles la stimulation de la cochlée peut survenir. L’ensemble conduit auditif externe, membrane tympanique et oreille moyenne est rempli de liquide amniotique et à ce titre, peut se montrer transparent, laissant les ondes acoustiques atteindre directement (c’est-à-dire sans discontinuité d’impédance acoustique et donc sans réflexion dommageable à l’énergie transmise) la fenêtre ovale, mais aussi et en phase, la fenêtre ronde : ceci risque d’enlever toute efficacité à la stimulation endocochléaire résultante. Le jeu de la chaîne ossiculaire peut aussi se produire comme après la naissance, mais la présence de liquide crée de toute manière une surdité de transmission, tandis que la notion d’adaptation d’impédance (c’està-dire d’effet transformateur) n’a pas encore acquis la moindre pertinence. Enfin, l’hypothèse la plus probable (Sohmer, Gerhardt) est que les vibrations acoustiques dans le liquide amniotique stimulent directement l’intérieur de la boîte crânienne (par une sorte de conduction osseuse même si la boîte crânienne est loin d’être ossifiée partout). Les vibrations acoustiques dans la cavité crânienne fœtale concernent alors les tissus cérébraux et le liquide cérébrospinal et pourraient gagner la cochlée via les canaux et aqueducs connectant le labyrinthe au compartiment du liquide cérébrospinal. D’une manière intéressante, pour apporter un élément de réponse à la question de ce qu’entend un fœtus, l’équipe de Gerhardt a placé des capteurs miniatures dans l’oreille interne d’un fœtus de brebis ce qui permet de connaître exactement le spectre fréquentiel et les caractéristiques acoustiques du son transmis lorsque des locuteurs parlent à côté de la brebis dont un fœtus est enregistré. Cette étude est transposable en raison de la similitude des propriétés acoustiques des utérus chez la brebis et l’humain. Elle confirme que les hautes fréquences sont très défavorisées. Ainsi, lorsqu’on fait entendre les enregistrements effectués à des personnes adultes, on constate que l’intelligibilité de certains phonèmes est dégradée (mais le fœtus, lui, n’en est pas encore à essayer de comprendre ce qu’il entend !). On en déduit aussi que la détection des mélodies, in utero, est possible mais un peu limitée. 1.1.3. Conséquences de ces données acoustiques et physiologiques 1.1.3.1. Fœtus et bruit Les travaux précédents ont de multiples implications significatives. Tout d’abord, on sait que le fœtus et le bébé sont plus sensibles aux nuisances auditives qu’à d’autres stades, en raison de la notion de période critique. Une première application concrète issue des données récentes sur l’audition fœtale est de mieux connaître le risque encouru par les fœtus dont la mère est exposée à des sons environnementaux pas forcément modérés. La deuxième question est de comprendre ce qui est différent pour un bébé né prématuré lorsqu’il se retrouve placé dans un environnement acoustique de salle de soins intensifs et de couveuse, très différent de celui dont il aurait dû bénéficier in utero un peu plus longtemps. Ce deuxième problème nous fait glisser progressivement dans le monde de l’audition comme moyen de communication et comme rouage et outil du développement cognitif. Du point de vue sécurité, des travaux déjà relativement anciens se sont penchés sur l’audition postnatale d’enfants exposés in utero à des bruits de transport ou industriels (Ando). Il est souvent difficile de distinguer chez ces enfants la part des anomalies liées au bruit prénatal et celle des conditions de vie 15 37273_Monographie_N45.Nais_vie_m15 15 18/09/08 14:38:38 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance de la mère : une mère qui travaille, habite ou circule dans des endroits bruyants pendant sa grossesse est probablement exposée à des nuisances combinées dont il est difficile de faire la part. Ces études avaient conclu à un risque augmenté. Toutefois, des travaux plus récents estiment que le bruit seul est trop atténué par la paroi abdominale pour constituer une menace. Une autre problématique est celle de l’environnement sonore agressif et déshumanisé auquel les bébés prématurés en soins intensifs sont exposés. Non seulement leur exposition sonore est importante, avec la présence dans le bruit perçu de fréquences normalement filtrées par la paroi utérine, mais le contact avec la voix et les sons endogènes maternels est perdu prématurément une bonne partie du temps. 1.1.3.2. Fœtus et développement (« cognitif » ?) Les psycholinguistes se sont intéressés depuis longtemps à mettre en évidence de possibles traces pré et postnatales de l’exposition in utero. Les sons dont l’impact sur le fœtus a été étudié sont des sons de parole et de musique. Une comptine lue à haute voix est reconnue par les fœtus proches du terme lorsqu’elle est familière, par rapport à un texte non familier (DeCasper, Lecanuet, Busnel, GranierDeferre et Maugeais, 1 994). La comptine reconnue avait été quotidiennement lue par la maman de la 33ème à la 37ème semaine de gestation, et ensuite lue par une voix non familière, elle est différenciée d’un texte jamais entendu. Comme pour les études d’audiométrie, les réactions du fœtus sont de type modification du rythme cardiaque, mouvements corporels. Les fœtus reconnaissent la voix de leur propre mère par comparaison avec une voix étrangère (Kisilevsky et al, 2003), puisque leur rythme cardiaque accélère dans le 1er cas, ralentit dans le 2ème. Les capacités requises pour effectuer de telles performances sont la mémoire et la capacité à reconnaître, qui constituent un prérequis important à toute aptitude à apprendre. Les fœtus sont donc capables de se remémorer et de reconnaître des voix humaines qui leur ont été présentées in utero. On peut donc se poser la question de savoir si ces expériences in utero ont eu un impact sur la constitution de connexions neuronales spécifiques du traitement de la parole, et si cet impact est important, et durable. Pour la musique, lorsqu’un fœtus de 36-37 semaines conceptionnelles est exposé à de la musique, plus précisément une chanson d’un feuilleton télévisé populaire regardé par la maman, (Hepper, 1991), il la reconnaît, et ce seulement si la maman a regardé le feuilleton. Des fœtus nettement plus jeunes ne réagissent pas. Les fœtus sont également capables de discriminer certains patrons fréquentiels spécifiques (Lecanuet, Granier-Deferre, Jacquet, et DeCasper, 2000). Les études destinées à aller plus loin et à examiner véritablement les capacités d’apprentissage sont plus aisément réalisables chez le nouveau-né, et il est connu depuis longtemps (Mehler et coll., 1978) que les nouveau-nés reconnaissent la voix de leur mère. À moins de 3 jours, ils préfèrent la voix de leur mère à celle d’une étrangère, car lorsqu’on leur donne une tétine artificielle capable d’actionner une voix ou une autre selon la manière de sucer (DeCasper et Fifer, 1980), le bébé produit la voix maternelle plus souvent. Pourtant dans cette dernière expérience, le contact postnatal avec la voix de leur mère ne dépassait pas 12 heures ! Peut-être l’expérience prénatale de cette voix jouait-elle un rôle ? On peut aussi citer les études montrant que le nouveau-né préfère les histoires qui ont été lues par la mère pendant les dernières semaines de grossesse, à des histoires nouvelles (DeCasper et Spence, 16 37273_Monographie_N45.Nais_vie_m16 16 18/09/08 14:38:38 1986), et sa langue maternelle à une langue étrangère. Plus précisément en ce qui concerne les langues étrangères discriminables, les nouveau-nés sont très dépendants d’indices rythmiques, d’unités prosodiques de base : ils distinguent le russe du français, l’anglais du japonais mais pas du néerlandais. Et pour toutes ces performances, il est tentant de s’interroger sur le rôle de l’audition et de l’exposition prénatales. La voix de la maman joue de toute évidence un rôle très privilégié, par le fait qu’elle est transmise dans des conditions bien meilleures que les voix des autres individus de l’environnement et émerge donc beaucoup plus nettement du bruit de fond. Cette transmission spécifique peut en effet se faire par voie tissulaire et osseuse, le pelvis et le rachis maternels étant particulièrement bons conducteurs de la fréquence fondamentale et des harmoniques de la voix maternelle (d’après Lecanuet, 1996). Néanmoins l’énorme ampleur des modifications du système nerveux central, à partir de la naissance et dans les premières années de vie, montre bien que beaucoup de mécanismes essentiels sont encore en devenir à la naissance. L’exposition aux sons pendant la vie fœtale n’a donc servi « que » d’amorce à un certain nombre de processus de base. L’existence de très bons résultats d’appareillage chez des enfants nés sourds profonds et appareillés rapidement grâce au dépistage néonatal (Yoshinaga-Itano) démontre cependant que l’absence de cette amorce ne semble pas avoir de conséquences sur le développement auditif ultérieur. Ceci n’enlève rien à l’intérêt de son étude ni aux côtés fascinants des premiers mois de fonctionnement neurosensoriel et cérébral. 17 37273_Monographie_N45.Nais_vie_m17 17 18/09/08 14:38:41 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance Quelques références synthétiques : 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. Site Internet Promenade autour de la cochlée, R. Pujol et coll. Ando Y, Hattori H (1 970). Effects of intense noise during fetal life upon postnatal adaptability (statistical study of the reactions of babies to aircraft noise). J Acoust Soc Am. 47, 1128-1130. DeCasper AJ & Fifer WP (1 980). Of human bonding : newborns prefer their mothers’voices. Science, 208, 1174-1176. DeCasper AJ, Lecanuet JP, Busnel MC, Granier-Deferre C & Maugeais R (1 994). Fetal reactions to recurrent maternal speech. Infant Behavior and Development, 17, 159-164. Gerhardt KJ & Abrams RM (2 000). Fetal exposures to sound and vibroacoustic stimulation. Journal of Perinatology, 20, 20-29. Hepper P (1 991). An examination of fetal learning before and after birth. The Irish Journal of Psychology, 12, 95-107. Jardri R, Pins D, Houfflin-Debarge V, Chaffiotte C, Rocourt N, Pruvo JP, Steinling M, Delion P, Thomas P. (2 008). Fetal cortical activation to sound at 33 weeks of gestation : A functional MRI study. Neuroimage, epub. Kisilevsky BS, Hains SMJ, Jacquet A., Granier-Deferre C & Lecanuet JP (2 004). Maturation of fetal responses to music. Developmental Science, 7, 5, 550- 559. Lecanuet J-P, Granier-Deferre C & Busnel M-C (1 995). Human fetal auditory perception, In : J.-P. Lecanuet, W.P. Fifer, N.A. Krasnegor et W.P. Smotherman (Eds). Fetal Development : A psychobiological perspective, Hillsdale, N.J. : Lawrence Erlbaum Ass., pp.239-262. Mehler J, Bertoncini J, Barriere M. & Jassik-Gerschenfeld D (1 978). Infant Recognition of Mother’s Voice. Perception, 7, 491-497. Pujol R & Lavigne-Rebillard M. (1 985). Early stages of innervation and sensory cell differentiation in the human fetal organ of Corti. Acta Oto-Laryngologica Supplement. 423, 43-50. Sohmer H, Perez R, Sichel JY, Priner R, Freeman S, (2 001). The pathway enabling external sounds to reach and excite the fetal inner ear. Audiol Neurootol. 6, 109-116. 18 37273_Monographie_N45.Nais_vie_m18 18 18/09/08 14:38:42 1.2. L’oreille née sourde La cause d’une surdité (hors pathologie infectieuse de l’oreille moyenne) peut être extrinsèque (embryofoetopathie, méningite, traumatisme, ototoxicité médicamenteuse, traumatisme sonore…), génétique ou les deux. Les surdités d’origine génétique sont classées selon deux grandes catégories : les surdités isolées estimées à près de 90 % et les surdités syndromiques à 10 % des cas. Dans les pays industrialisés, on estime actuellement la part des surdités neurosensorielles génétiques à 2/3 des surdités de perception. La plupart des surdités héréditaires sont des maladies monogéniques mais il existe une grande hétérogénéité génétique. Les avancées médicales et scientifiques permettent dès aujourd’hui d’identifier la cause d’une surdité de l’enfant dans plus de la moitié des cas. Cette recherche étiologique nécessite un phénotypage précis de la surdité et la recherche de signes associés chez l’enfant sourd et dans sa famille. 1.2.1. Les surdités syndromiques Hormis les embryo-foetopathies, les surdités syndromiques ont le plus souvent une origine génétique. Plusieurs centaines d’associations syndromiques ont été décrites pour lesquelles la surdité peut être associée à des anomalies de tous les organes (Gorlin, 2 004). La fréquence des surdités syndromiques parmi l’ensemble des déficiences auditives d’origine génétique est estimée à 10 %. La surdité peut être due à un défaut de transmission et/ou de perception du son. Le développement et le fonctionnement de l’oreille dépendent de centaines de gènes, mais l’altération d’un seul peut être responsable de l’atteinte de toutes les structures auditives. Durant les vingt dernières années, les gènes responsables de plusieurs centaines de surdités syndromiques ont été localisés sur les chromosomes humains et plus de cent ont été identifiés. Dans le chapitre suivant, nous évoquerons quelques syndromes, pour lesquels le gène responsable est connu. Certains de ces syndromes sont génétiquement hétérogènes (syndrome de Usher, syndrome d’Alport…). À l’inverse, des formes cliniquement distinctes peuvent être l’expression de mutations du même gène. À l’extrême, un gène peut être responsable à la fois d’une forme isolée et d’une forme syndromique de surdité (GJB2, SLC26A4, WFS1, etc.…). Le syndrome Branchio-Oto-Rénal (BOR) est responsable de malformations des deux premiers arcs et fentes branchiaux (malformations du pavillon, enchondromes, fistules pré-auriculaires, kystes branchiaux, malformations des osselets) (fig. 1, voir page suivante) associées à d’éventuelles anomalies de l’oreille interne : surdité neuro-sensorielle, malformations de l’oreille interne, troubles vestibulaires. Des anomalies rénales accompagnent les malformations de l’oreille allant de l’agénésie rénale bilatérale à un simple reflux vésico-urétéral. Cette pathologie se transmet selon un mode autosomique dominant avec une variabilité de l’expressivité intra et interfamiliale. Les anomalies des gènes responsables EYA1, SIX1 et SIX5 sont impliquées dans l’embryogénèse précoce, ces gènes sont les homologues de gènes conservés dans différentes espèces codent et jouent un rôle dans la régulation de la transcription (Abdelhak 97, Hoskins 07, Kochhar 08). Des anomalies des arcs branchiaux (malformations du pavillon, des osselets et de la mandibule, enchondrome, fistule préauriculaire) sont retrouvées associées à des malformations de l’étage moyen 19 37273_Monographie_N45.Nais_vie_m19 19 18/09/08 14:38:44 Monographie naissance vie et mort de l'oreille chapitre 01 sa naissance A B fig. 1 A microtie avec fistule préhélicéenne ; B fistule préhélicéenne isolée ; C kyste latérocervical ; D fistule latérocervicale d C D de la face (hypoplasie malaire, fente palatine) et de l’œil (colobome irien) dans le syndrome de Treacher-Colins (MIM 154500). La surdité est quasi constante et fait suite à une atrésie du CAE et à l’absence ou à la malformation de la chaîne ossiculaire. L’oreille interne est morphologiquement normale et très peu de cas de surdités mixtes, pour lesquels la part neurosensorielle du déficit auditif était légère, ont été rapportés. Le gène impliqué TCOF1 code pour une protéine ayant un rôle dans le transport nucléocytoplasmique (Marsh, 98). Les anomalies se transmettent sur un mode autosomique dominant avec une expressivité variable rendant le conseil génétique difficile. Les collagènes de types II, IX et XI, composants de la matrice extracellulaire, sont impliqués dans plusieurs surdités syndromiques ayant comme signes communs l’existence d’une chondrodysplasie pouvant toucher les épiphyses, les métaphyses ou les vertèbres (responsable de douleurs articulaires), d’une hyperlaxité ligamentaire, des anomalies palatines (de la présence d’un palais ogival jusqu’à la séquence Pierre Robin), d’une dysmorphie faciale et d’une pathologie vitro-rétinienne (myopie précoce et sévère) (Vikkula, 95). La surdité est fréquente, 80 % dans le cas du syndrome de Stickler (MIM 108300), congénitale ou plus tardive et progressive. Elle peut être de nature neurosensorielle ou mixte. En raison des malformations vélo-palatines, les otites récurrentes ou chroniques sont fréquemment décrites. Il n’a pas été noté de malformations de l’oreille moyenne. Un dysfonctionnement vestibulaire associé a été identifié chez plusieurs patients. Contrairement aux mutations collagènes de types II et XI, qui se transmettent sur un mode autosomique dominant, les mutations du Collagène IX A1 sont responsables d’un syndrome de Stickler de transmission récessive. Des mutations du collagène XI A2 ont été identifiées dans une forme isolée de 20 37273_Monographie_N45.Nais_vie_m20 20 18/09/08 14:38:45 fig. 2 A pigmentation cutanée ; B-C-D : hétérochromie irienne et iris bleu porcelaine » ; D : dystopie canthique d A surdité de transmission autosomique dominante (DFNA13). Le syndrome de Waardenburg (SW) associe également des signes cutanés et une surdité neurosensorielle dus à une absence de mélanocytes au niveau de plusieurs organes. Les troubles de la pigmentation touchent la peau (dépigmentation cutanée) (fig. 2), les phanères (mèche de cheveux blancs congénitale, sourcils), l’iris (hétérochromie irienne ou iris bleus « porcelaine ») (fig. 2) et la rétine. Ce syndrome est hétérogène sur le plan clinique, puisqu’on distingue quatre formes différentes et sur le plan génétique, car cinq gènes au moins sont impliqués. Le SW de type 2 (surdité et troubles pigmentaires sans autres signes cliniques) est une des surdités syndromiques les plus fréquentes. Sa transmission est majoritairement autosomique dominante mais son expressivité est extrêmement variable au sein de la même famille. Une dystopie canthique (fig. 2) est associée aux signes de dépigmentation dans le SW de type 1. Les patients atteints d’un SW type 4 peuvent présenter des signes digestifs (maladie de Hirshprung, constipation opiniâtre) ou des signes neurologiques (retard mental, moteur, ataxie…). Contrairement au SW type 1, pour lequel on retrouve des anomalies de PAX3 dans 3/4 des cas, une mutation est identifiée uniquement dans 1/3 des cas de type 2 (Hot, 93 ; Bondurand, 07). Les signes cliniques du SW type 2 passant souvent inaperçus et le diagnostic moléculaire ayant un faible rendement, la fréquence de ce syndrome est probablement sous-estimée. Le type 3 du SW, exceptionnel, est une forme particulière du type 1 avec une hypoplasie ou des contractures des membres supérieurs. Quelle que soit la forme clinique, la surdité est congénitale, d’origine cochléaire, unie (cophose unilatérale fréquente) ou bilatérale, symétrique ou asymétrique. La pénétrance (70-80 %) de la surdité ne semble pas être différente dans les types 1 et 2 (Newton, 90). Toutes les formes de courbes audiométriques ont été retrouvées. La surdité est profonde dans 35 % des cas, mais il existe une variabilité intrafamiliale de la sévérité. Le déficit auditif peut être progressif (Hildesheimer, 89). Les tests vestibulaires caloriques peuvent être perturbés d’une façon uni ou bilatérale. Des malformations cochléovestibulaires visualisées par un scanner du rocher ont été rapportées en association au SW : il s’agissait principalement de dysplasie des canaux semi-circulaires, le plus souvent chez des patients porteurs d’un type 2 de SW. Le rôle exact des mélanocytes au niveau de la strie vasculaire cochléaire n’a pas été élucidé à ce jour. Comme pour les anomalies touchant l’oreille externe et/ou moyenne, une surdité neurosensorielle syndromique peut être due à des anomalies d’un collagène : le syndrome d’Alport. Le collagène de type B C D 21 37273_Monographie_N45.Nais_vie_m21 21 18/09/08 14:38:48 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance IV est localisé au niveau des membranes basales des glomérules rénaux, de l’œil et de l’oreille interne. La forme dominante liée au chromosome X (MIM 301050) représente 85 % des syndromes d’Alport. La surdité d’origine cochléaire évolutive, le plus souvent d’apparition postlinguale, touche en premier lieu les fréquences aiguës (90 % des hommes et 10 % des femmes à 40 ans) (Jai, 2 003). Des anomalies glomérulaires, également évolutives, conduisent parfois à une insuffisance rénale (90 % des hommes et 10 % des femmes à 40 ans). Certains garçons atteints présentent également une anomalie de la chambre antérieure de l’œil : kératocône. Les mutations du gène COL4A5 étant difficiles à mettre en évidence, le diagnostic de syndrôme d’Alport lié au chromosome X peut être fait grâce à la recherche de ce collagène sur une biopsie de peau chez les garçons touchés. L’existence d’une surdité profonde associée au goitre fait évoquer un syndrome de Pendred (MIM 274600). La surdité est cochléaire, congénitale ou postlinguale précoce, modérée à profonde, parfois asymétrique, fluctuante et parfois évolutive. Les tests vestibulaires sont anormaux, hypo ou aréflexie, dans la moitié des cas. Les anomalies morphologiques bilatérales de l’oreille interne, dilatation de l’aqueduc du vestibule (DVA) ou cochlée incomplète de type « Mondini » sont constantes (Phelps, 98) (fig. 3). Les anomalies d’organification de l’iode sont mises en évidence par le test au perchlorate qui montre un relargage excessif de l’iode non incorporé dans la thyroïde lors d’une scintigraphie. La date A B C D fig. 3 A cochlée et aqueduc du vestibule normaux ; B hypoplasie cochléaire, disparition du modiolus ; C Dilatation aqueduc du vestibule d’apparition du goitre est variable et les hormones thyroïdiennes périphériques peuvent rester normales. La variabilité phénotypique concerne tous les signes cliniques même à l’intérieur d’une même famille. Des dizaines de différentes mutations du gène PDS, SLC26, ont été identifiées à ce jour, certaines d’entre elles sont retrouvées de manières récurrentes en fonction de l’origine ethnique (Blons, 2 004). Leur transmission est autosomique récessive. La pendrine est impliquée dans le transport d’une forme d’iode et de chlore (Scott, 99 ; Everett, 97) et jouerait un rôle dans l’homéostasie ionique des fluides de l’oreille interne. Le gène PDS est également responsable d’une forme isolée de surdité, DFNB4 (Li, 98) (qs chapitre surdités isolées). Une myosine non conventionnelle, la myosine 7A, est impliquée dans une surdité isolée de transmission autosomique récessive : DFNB2 et dominante : DFNA11 et une surdité syndromique : le syndrome de 22 37273_Monographie_N45.Nais_vie_m22 22 18/09/08 14:38:48 Usher (SU) de type 1B (Weil, 95). Le syndrome de Usher est une pathologie hétérogène sur le plan clinique puisque trois formes sont distinguées, et sur le plan génétique, puisque neuf gènes ont été clonés et onze localisés sur les chromosomes humains (toutes formes cliniques confondues) (Roux, 2 006). On retrouve l’association d’une surdité neurosensorielle d’origine cochléaire et d’une rétinite pigmentaire évolutive dans toutes les formes de ce syndrome. La précocité et la sévérité des atteintes auditives et rétiniennes ainsi que l’existence d’une anomalie vestibulaire associée permettent de les différencier. Le type 1 de SU (MIM 276900) est le plus fréquent et le plus sévère puisqu’il se traduit par une surdité profonde bilatérale congénitale, une aréflexie vestibulaire congénitale bilatérale se manifestant par un retard des acquisitions motrices pendant les premières années de vie et une rétinite pigmentaire apparaissant cliniquement vers l’âge de l’adolescence et évoluant vers un rétrécissement du champ visuel pendant l’âge adulte. Il n’existe pas de malformation de l’oreille interne. Le diagnostic doit être suspecté devant tout enfant présentant une surdité profonde congénitale bilatérale, sans malformation de l’oreille interne, avec retard moteur sans autres signes neurologiques. Le diagnostic est clinique et repose sur un (Erg) perturbé dès les premières années de vie, bien avant l’apparition de signes ophtalmologiques ou de pigmentation sur la rétine. La surdité retrouvée dans le syndrome de Usher de type 2 (MIM 276901) est également congénitale et stable mais de gravité moyenne à sévère avec des restes auditifs dans les fréquences graves. Les épreuves vestibulaires et le scanner du rocher sont normaux. La rétinite pigmentaire est cliniquement symptomatique vers l’âge de 20 à 30 ans. Le syndrome de Usher de type 3 (MIM 276902) se caractérise principalement par une atteinte auditive évolutive plus ou moins associée à une atteinte vestibulaire. Cette forme clinique de SU semble particulièrement fréquente dans les pays nordiques. La transmission autosomique récessive est commune à toutes les formes cliniques de SU. La fonction de ces gènes au niveau de l’oreille interne commence à être élucidée, ils formeraient un vaste complexe impliqué dans la croissance et la cohésion des stérocils pendant l’embryogénèse (El-Amraoui, 2 005). Le syndrome de Jervell-Lange Nielsen (MIM 220400) associe une surdité congénitale cochléaire bilatérale sévère-profonde prédominante dans les fréquences aiguës et un allongement de l’espace QT à l’électrocardiogramme. Cette anomalie de la repolarisation myocardique peut entraîner des troubles du rythme cardiaque (torsade de pointe, fibrillation ventriculaire) se traduisant par des syncopes ou une mort subite soit spontanée soit à l’occasion d’un stress. Les symptômes cardiaques peuvent apparaître pendant la vie in utero ou à l’âge adulte. La prévalence de ce syndrome est variable d’un pays à l’autre avec une fréquence plus élevée en Europe du nord. Cette pathologie est due à des mutations homozygotes de gènes codant pour les deux sous-unités associées d’un canal potassique « voltage dépendant ». Dans la cochlée, ce canal est localisé au niveau des cellules marginales de la strie vasculaire et joue un rôle dans la sécrétion du potassium dans l’endolymphe. Les mutations hétérozygotes de ces 2 gènes entraînent uniquement un allongement de l’espace QT (syndrome de Ward-Romano, MIM 192500) (Neyroud, 97 ; Splawski, 97). 1.2.2. Les surdités isolées Les différentes formes génétiques sont classées selon leur mode de transmission : DFNA quand le mode de transmission est autosomique dominant, DFNB quand il est récessif et DFN lors d’une transmission 23 37273_Monographie_N45.Nais_vie_m23 23 18/09/08 14:38:52 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance liée au chromosome X. La localisation des gènes impliqués dans les surdités non syndromiques a été retardée principalement par une importante hétérogénéité génétique et l’impossibilité clinique d’individualiser des formes génétiques distinctes. Depuis 1994, une cinquantaine de gènes responsables de surdités neurosensorielles isolées de l’enfant a été localisée sur les chromosomes humains et une vingtaine d’entre eux a été clonée. Le chapitre suivant rapporte le phénotype, le rôle supposé de la protéine et les hypothèses physiopathogéniques à l’origine de certaines de ces formes de surdités neurosensorielles isolées. Connexine 26 (GJB2) et connexine 30 (GJB6) : Le premier locus de surdité isolée de transmission autosomique récessive, DFNB1, fut rapporté en 1994 grâce à l’étude de deux familles tunisiennes consanguines touchées par une surdité prélinguale profonde. En 1997, des mutations du gène codant pour la connexine 26 (GJB2) ont été détectées dans la forme de surdité isolée de transmission autosomique récessive DFNB1 (Kelsell, 97), puis dans la forme de surdité non syndromique de transmission autosomique dominante DFNA3 (Denoyelle, 98). La surdité DFNB1 se caractérise par sa survenue dans la période prélinguale, son atteinte cochléaire exclusive sans atteinte vestibulaire associée et sa relative stabilité dans le temps (dans au moins les deux tiers des cas). La sévérité de l’atteinte est variable même à l’intérieur d’une même famille, rendant le conseil génétique pour une grossesse ultérieure difficile (Marlin, 2 005). La courbe audiométrique est le plus souvent fortement descendante dans les fréquences aiguës ou plates touchant toutes les fréquences avec la même sévérité. Le scanner des rochers ne met jamais en évidence de malformation cochléo-vestibulaire. Cette forme de surdité représente près de 30 % des formes de surdités isolées prélinguales en Europe et aux États-Unis (fig. 4). Plus de cent mutations supposées délétères de gène GJB2 et de nombreux polymorphismes ont été décrits. Cependant certaines mutations apparaissent comme majoritaires : 35delG en Europe (jusqu’à 85 % des mutations), 167delT dans la population juive Ashkénaze et 265delC en Asie. Il existe également de nombreux polymorphismes rendant parfois fig. 4 Prévalence dans les surdités des mutations de GJB2 dans le monde d 24 37273_Monographie_N45.Nais_vie_m24 24 18/09/08 14:38:52 l’interprétation du diagnostic moléculaire délicat (Feldmann, 04). La prévalence de la mutation 35delG à l’état hétérozygote dans la population entendante est estimée de 2 à 4 % dans la population caucasienne ; elle peut donc être considérée comme une des mutations pathogènes humaines les plus fréquentes, avec la mutation ΔF508 du gène CFTR responsable de la mucoviscidose. Les connexines sont des protéines transmembranaires. Elles s’assemblent par six pour former un connexon, hémicanal qui constituera un canal jonctionnel complet grâce à son union avec un connexon d’une cellule adjacente. Les études de modèles murins, déficitaires en connexine 26 au niveau cochléaire, montrent une dégénérescence précoce des cellules ciliées internes par apoptose (Cohen Salmon). De nombreux auteurs ont constaté une proportion de mutations hétérozygotes du gène GJB2 dans la population sourde plus importante que ne le voudrait le hasard (Denoyelle, 99). Des délétions en amont du gène GJB2 touchant en partie du gène GJB6 (codant pour la connexine 30) ont été identifiées chez un nombre important de ces patients (Del Castillo, 2002 et 05 ; Feldmann, 05). Les patients porteurs d’une mutation hétérozygote de GJB2 associée à une délétion de GJB6 sur l’autre allèle présentent le plus souvent une surdité sévère ou profonde bilatérale (Marlin, 2 005). Le gène GJB2 est également responsable de formes de surdités associées à des pathologies dermatologiques en particulier des kératodermies palmoplantaires (syndromes de Vohwinkel et KID) (Maestrini, 96 ; Feldmann, 05 ; Jonard, 07). SLC26A4 (Pendrine) : Le gène SLC26A4 est responsable à la fois d’une forme syndromique de surdité : le syndrome de Pendred (qs chapitre précédent) et d’une forme isolée de surdité de transmission autosomique récessive : DFNB4 (Baldwin 95, Li 98). La surdité est bilatérale prélinguale ou postlinguale précoce de sévérité variable, fréquemment évolutive ou fluctuante, avec malformations de l’oreille interne. Ces malformations sont visualisables sur un scanner des rochers et comparables à celles retrouvées dans le syndrome de Pendred. Il s’agit le plus souvent d’une dilatation bilatérale des aqueducs du vestibule (DAV) (fig. 3 c), éléments anatomiques qui contiennent les sacs endolymphatiques. Les sujets atteints ne présentent ni goitre ni hypothyroïdie et le test au perchlorate est normal. Seuls 40 % des patients présentant une surdité isolée bilatérale avec DAV bilatérale ont au moins une mutation de SLC26A4 (Albert, 06). Il existerait donc une hétérogénéité génétique associée de ce phénotype ou une méconnaissance de formes syndromiques (autres que le syndrome de Pendred, par exemple des sujets atteints de syndrome de Waardenburg ou de syndrome BOR). Il n’existe pas de relation génotype/ phénotype entre la forme isolée et le syndrome de Pendred. À ce jour, une cinquantaine de mutations SLC26A4 ont été décrites dans les surdités isolées. OTOF (Otoferline) : Le gène OTOF, codant pour l’otoferline, est le premier gène qui a été identifié dans une surdité répondant à la définition d’une neuropathie auditive (Yasunago, 94). Il s’agit d’une surdité bilatérale profonde isolée caractérisée par la préservation initiale des oto-émissions acoustiques (OEA), malgré l’absence de PEA enregistrables (Varga, 03), de transmission autosomique récessive. Le scanner ou l’IRM des rochers ne retrouvent pas de malformation. Les OEA peuvent être enregistrées normalement pendant les premières années de vie puis disparaissent progressivement. Une dizaine de mutations différentes 25 37273_Monographie_N45.Nais_vie_m25 25 18/09/08 14:38:55 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance d’OTOF ont été rapportées mais la Q829X semble récurrente. Elle est retrouvée dans 2 à 3 % des surdités prélinguales isolées profondes en Espagne et en France (Gallo, 05). L’étude de l’otoferline chez la souris a permis de localiser son expression dans les cellules ciliées cochléaires et vestibulaires. Dans l’organe de Corti, au cours des stades précoces de ce développement, elle est retrouvée exclusivement au niveau des cellules ciliées internes, ce qui permet d’expliquer que l’on enregistre des OEA normales alors qu’il existe un déficit auditif profond. Plus tard, elle s’exprimera aussi au niveau des cellules ciliées externes, ce qui rend compte de la disparition secondaire des OEA chez les sujets atteints. Au sein de la cellule ciliée interne l’otoferline joue un rôle dans l’exocytose des vésicules synaptiques vers la synapse afférente (Roux, 06). Les patients porteurs de mutation dans OTOF ne présentent donc pas de neuropathie auditive stricto sensu mais une synaptopathie de la cellule ciliée. La localisation cochléaire du déficit auditif de DFNB9 est corroborée par le bon résultat qui est généralement obtenu après implantation cochléaire chez les patients (Rouillon, 06). POU3F4 : Ce facteur de transcription est responsable de la plus fréquente des surdités neurosensorielles de transmission récessive liée au chromosome X (DFN3). La prévalence des anomalies de ce gène représenterait 0,8 % des surdités profondes prélinguales. Chez les garçons, la surdité est tout d’abord mixte puis, après une évolution souvent rapide, la courbe audiologique est en faveur d’une atteinte neurosensorielle pure, sévère ou profonde. Des troubles vestibulaires sont souvent associés. On retrouve constamment des anomalies évocatrices au scanner des rochers correspondant à une importante dilatation du conduit auditif interne qui se jette à plein canal dans la cochlée. Cette malformation serait à l’origine de la part transmissionnelle de l’atteinte auditive par des mécanismes de pression des liquides de l’oreille interne sur les osselets. Par le passé, la surdité était parfois attribuée à un blocage de la platine de l’étrier par « otospongiose juvénile », l’indication d’une stapédectomie (remplacement de l’étrier par une prothèse ossiculaire) était alors portée. Lors de la stapédectomie, une fuite de périlymphe en « geyser » entraînait une cophose définitive, d’où le nom de « Gusher syndrome ». Les mères porteuses peuvent présenter une surdité mixte sans malformation de l’oreille interne. Seule la moitié des patients présente une mutation intragénique alors que chez l’autre moitié on met en évidence des anomalies à 900 kb en amont du gène dans une zone conservée semblant contenir des éléments régulateurs de la transcription (de Kok, 95 et 96). 1.2.3. Les surdités isolées d’origine mitochondriale De nombreuses mutations mitochondriales ont été retrouvées dans de nombreuses formes de surdités syndromiques (encéphalopathies mitochondriales : MELAS, MERRF ; « surdité-diabète », etc.…) (Ballinger, 92 ; Bindoff, 91 ; Reardon, 92 ; Goto, 91). En 1992, la description d’une famille arabe d’origine israélienne, dans laquelle se transmettait une surdité isolée, a permis d’évoquer pour la première fois la possible implication d’une mutation mitochondriale. Ultérieurement, une mutation 1555A > G dans le gène mitochondrial 12SrRNA fut identifiée dans cette famille. Actuellement 5 mutations mitochondriales responsables de surdités isolées ont été décrites (Fischel-Ghodsian 99 ; Chapiro, 02). La mutation 1555A > G est la plus fréquemment rapportée. Le phénotype correspondant est 26 37273_Monographie_N45.Nais_vie_m26 26 18/09/08 14:38:56 extrêmement hétérogène d’une famille à l’autre et même au sein d’une même famille. La surdité est isolée, d’origine cochléaire, de survenue extrêmement variable : congénitale à postlinguale tardive. Le degré de sévérité est également variable, un sujet porteur de la mutation peut être soit sourd profond soit asymptomatique. La surdité peut survenir spontanément (Estivill 98) ou après un traitement par des aminosides. Des atteintes vestibulaires en l’absence de traitement par aminosides et des acouphènes ont été décrits. Le scanner du rocher était normal. La prévalence de cette mutation est très variable d’une population à l’autre allant de 61 % en Espagne (Ballana 2 006) à 4,5 % en France (Levêque, 07) dans les formes familiales de transmission maternelle. Hormis dans la population espagnole, cette mutation est exceptionnellement retrouvée dans les formes sporadiques même après prise d’aminosides. La mutation 1555A > G touche une région très conservée du gène 12SrRNA qui est impliquée, dans d’autres espèces, dans la liaison aux aminosides et dans laquelle des mutations entraînent une résistance à ces antibiotiques. La mutation 1555A > G entraîne des modifications structurales augmentant la liaison aux aminosides. La pathogénie de ces différentes mutations mitochondriales reste encore à déterminer. Deux points sont particulièrement intéressants : l’existence d’une grande variabilité phénotypique même pour des mutations à l’état homoplasmique et la spécificité tissulaire des signes cliniques. On devrait approcher la physiopathologie de ces mutations par l’étude d’animaux mutants et par la compréhension des mécanismes responsables de la variabilité phénotypique et de la tissu-spécificité. 1.2.4 Bilan étiologique d’une surdité de l’enfant Pourquoi ? Les buts de cette consultation sont : - d’établir le caractère génétique ou extrinsèque du déficit, - de rechercher des anomalies associées, - d’établir un pronostic évolutif de la surdité, - d’évaluer un risque de récurrence lors d’une prochaine grossesse ou à une prochaine génération, - de dépister d’éventuels autres sujets atteints au sein d’une famille. La mise en évidence d’une mutation d’un gène ou la découverte d’un syndrome chez une personne atteinte de surdité permet d’affirmer son origine génétique, même en l’absence d’antécédents familiaux. La prise en charge du patient peut être modifiée par la mise en évidence d’une origine génétique : dépistage, suivi et traitement d’une pathologie associée ; prévention en cas d’hypersensibilité aux aminosides ; indication d’une pose d’implant cochléaire bilatéral en cas de syndrome de Usher (Loundon et al. 2 003), etc.… À ce jour, aucun traitement curatif n’est disponible en cas de surdité de perception isolée, mais la mise en évidence des origines génétiques des surdités permet de mieux comprendre le fonctionnement normal d’une oreille et les mécanismes à l’origine des surdités. Ce pourrait être le premier pas vers l’élaboration d’une thérapeutique. Pour qui ? La recherche de la cause est le premier motif de consultation génétique devant une surdité car une 27 37273_Monographie_N45.Nais_vie_m27 27 18/09/08 14:38:58 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance des premières questions posées par un couple à qui on annonce un diagnostic de surdité chez leur enfant est « pourquoi ? » (Marlin, 03). Il en va de même pour un enfant ou un adulte sourd qui ignore d’où vient son déficit auditif. Comme pour beaucoup de handicaps et de maladies génétiques, la mise en évidence de l’étiologie de la surdité peut souvent favoriser l’accommodation à la réalité du déficit et donc améliorer sa prise en charge. La grande majorité des cas étant sporadique, la mise en évidence d’une cause génétique permet parfois de « rétablir » la place du patient au sein d’une filiation et de déculpabiliser beaucoup de mères qui portent souvent un lourd fardeau de culpabilité depuis la naissance de cet enfant « différent ». La possibilité de rechercher la cause de la surdité doit être portée à la connaissance de tous les patients et de tous les parents, libre à eux de faire le choix cette démarche quand ils le souhaitent. Quand ? Il est souhaitable d’attendre la mise en route de la prise en charge de l’enfant sourd et de sa famille avant de proposer une consultation de génétique. Cependant il faut prendre en compte le désir des familles de « comprendre pourquoi » et leur proposer de différer cette recherche. Dans un certain nombre de cas, on pourra proposer une consultation de génétique plus rapidement : suspicion de troubles associés, grossesse en cours ou désir de grossesse rapide et questionnement sur la possibilité de récurrence. Pour certains parents, la mise en évidence d’une cause génétique vient confirmer un diagnostic qu’ils ont du mal à reconnaître ; un accompagnement psychologique est alors très souvent complémentaire. Chaque famille étant différente, le « bon » moment pour une recherche étiologique doit être évalué par l’équipe qui prend en charge l’enfant ou l’adulte sourds (audiophonologiste, ORL, psychologue, équipe éducative…). En aucun cas, le diagnostic moléculaire (en particulier la recherche de mutations dans le gène GJB2) ne doit être considéré comme un test de dépistage de la surdité de l’enfant (faux négatifs trop nombreux et résultats difficiles d’interprétation). Le dépistage en maternité se généralisant, l’âge de diagnostic d’une surdité est plus précoce. La démarche étiologique doit cependant être, si possible, différée afin qu’une prise en charge puisse avoir débuté et que d’éventuels signes associés puissent être repérés. Comment ? L’enquête étiologique d’une surdité de l’enfant doit être menée dans un centre spécialisé. Actuellement, il existe dans chaque région française au moins un centre de compétence « surdités génétiques » réunissant des équipes de généticiens et d’ORL pédiatriques spécialisées. Un examen clinique complet de chaque enfant est effectué et un interrogatoire précis et complet sur les antécédents personnels et familiaux de déficit auditif et de signes associés possibles est mené. Le phénotype audiologique est défini : date de début, évolution, fluctuation, symétrie, type de déficit, forme de la courbe, âge des différentes étapes motrices, qualité du langage, présence d’acouphènes et de vertiges, résultats des épreuves vestibulaires… Des examens paracliniques systématiques sont demandés : scanner des rochers, examen ophtalmologique avec fond d’œil, audiométrie de la fratrie et si possible des parents. Une recherche de CMV sera faite sur le papier Guthrie dès que possible, en cas de destruction une sérologie sera demandée chez l’enfant sourd +/- sa mère. D’autres examens sont prescrits en fonction du contexte : ECG si surdité congénitale profonde, recherche d’hématurie- 28 37273_Monographie_N45.Nais_vie_m28 28 18/09/08 14:38:59 protéinurie si surdité évolutive, ERG si surdité profonde et retard moteur, échographie rénale si présence d’une malformation branchiale, etc.… Au terme de cette consultation, des tests génétiques (étude d’un gène ciblé, caryotype standard, cytogénétique moléculaire…) pourront être proposés aux parents si une étiologie est suspectée et si une confirmation biologique est disponible. références 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. Abdelhak S, Kalatzis V, Heilig R, Compain S, Samson D, Vincent C, Weil D, Cruaud C, Sahly I, Leibovici M, Bitner-Glindzicz M, Francis M, Lacombe D, Vigneron J, Charachon R, Boven K, BedBeder P, Van Regemorter N, Weissenbach J & Petit C (1 997). A human homologue of the Drosophila eyes absent gene underlies Branchio-Oto-Renal (BOR) syndrome and identifies a novel gene family. Nature Genet 15, 157-164. Albert S, Blons H, Jonard L, Feldmann D, Chauvin P, Loundon N, Sergent-Allaoui A, Houang M, Joannard A, Schmerber S, Delobel B, Leman J, Journel H, Catros H, Dollfus H, Eliot MM, David A, Calais C, Drouin-Garraud V, Obstoy MF, Tran Ba Huy P, Lacombe D, Duriez F, Francannet C, Bitoun P, Petit C, Garabedian EN, Couderc R, Marlin S, Denoyelle F. SLC26A4 gene is frequently involved in nonsyndromic hearing impairment with enlarged vestibular aqueduct in Caucasian populations. Eur J Hum Genet. 2 006 Mar 29. Ballana E, Morales E, Rabionet R, Montserrat B, Ventayol M, Bravo O, Gasparini P, Estivill X. Mitochondrial 12S rRNA gene mutations affect RNA secondary structure and lead to variable penetrance in hearing impairment. Biochem Biophys Res Commun. 2 006 Mar 24 ; 341 (4) : 950-7. Ballinger SW, Shoffner JM, Hedaya EV, Trounce I, Polak MA, Koontz DA & Wallace DC (1 992). Maternally transmitted diabetes and deafness associated with a 10.4 kb mitochondrial DNA deletion. Nature Genetics 1, 11-15. Bindoff LA, Desnuelle C, Birch-Machin MA, Pellissier JF, Serratrice G, Dravet C, Bureau M, Howell N & Turnbull DM (1 991). Multiple defects of the mitochondrial respiratory chain in a mitochondrial encephalopathy (MERRF) : a clinical, biochemical and molecular study. Journal of the Neurological Sciences 102, 17-24. Blons H, D Feldmann, V Duval, O Messaz, F Denoyelle, N Loundon, A Sergout-Allaoui, M. Houang, F Duriez, D Lacombe, B Delobel, J Leman, H Catros, H Journel, V Drouin-Garraud, M. Obstoy, A Toutain, S Odent, J Edmont Toublanc, R Couderc, C Petit, E-N Garabédian, S Marlin. Screening of SLC26A4 (PDS) gene in Pendred syndrome : A large spectrum of mutations in France and phenotypic heterogeneity. Clin Genet, 2 004 October, Volume 66 Issue 4 Page 333. Bondurand N, Dastot-Le Moal F, Stanchina L, Collot N, Baral V, Marlin S, Attie-Bitach T, Giurgea I, Skopinski L, Reardon W, Toutain A, Sarda P, Echaieb A, Lackmy-Port-Lis M, Touraine R, Amiel J, Goossens M, Pingault V. Deletions at the SOX10 gene locus cause Waardenburg syndrome types 2 and 4. Am J Hum Genet. 2 007 Dec ; 81 (6) : 1169-85. Epub 2 007 Oct 22. Chapiro E, D Feldmann, F Denoyelle, D Sternberg, M. M. Eliot, D Bouccara, D Weil, E N Garabédian, R Couderc, C Petit, S Marlin. Two large french pedigrees with non syndromic sensorineural deafness and the mitochondrial DNA T7511C mutation : evidence for a modulatory factor. Europ J Hum Genet, 2 002 Dec, 10 (12) : 851-6. Cohen-Salmon M, Ott T, Michel V, Hardelin JP, Perfettini I, Eybalin M, Wu T, Marcus DC, Wangemann P, Willecke K, Petit C. Targeted ablation of connexin26 in the inner ear epithelial gap junction network causes hearing impairment and cell death. Curr Biol. 2 002 Jul 9 ; 12 (13) : 1106-11. de Kok YJM, van der Maarel SM, Bitner-Glindzicz M, Huber I, Monaco AP, Malcolm S, Pembrey ME, Ropers H-H & Cremers FPM (1 995) Association between X-linked mixed deafness and mutations in the POU domain gene POU3F4. Science 267, 685-688. de Kok YJM, Vossenaar ER, Cremers CWRJ, Dahl N, Laporte J, Hu LJ, Lacombe D, Fischel-Ghodsian N, Friedman RA, Parnes LS, Thorpe P, Bitner-Glindzicz M, Pander H-J, Heilbronner H, Graveline J, den Dunnen JT, Brunner HG, Ropers H-H & Cremers FPM (1 996). Identification of a hot spot for microdeletions in patients with X-linked deafness type 3 (DFN3) 900 kb proximal to the DFN3 gene POU3F4. Hum Mol Genet 5, 1229-1235. del Castillo F, M. Rodriguez-Ballesteros, A Alvarez, T Hutchin, E Leonardi, C de Oliveira, H Azaiez, Z Brownstein, M. Avenarius, S Marlin, A Pandya, H Shahin, KR Siemering, D Weil, W Wuyts, L Aguirre, Y Martin, M. A Moreno-Pelayo, M. Villamar, K Avraham, H-H Dahl, MKanaan, W Nance, C Petit, R Smith, G Van Camp, E Sartorato, A Murgia, F Moreno, I del Castillo. A Novel Deletion Involving the Connexin-30 Gene, del (GJB6-D13S1854), Found in trans with Mutations in the GJB2 Gene (Connexin-26) in Subjects with DFNB1 Nonsyndromic 29 37273_Monographie_N45.Nais_vie_m29 29 18/09/08 14:39:01 Monographie chapitre naissance vie et mort de l'oreille 01 sa naissance Hearing Impairment. J Med Genet, 2005, 42 : 588-594. del Castillo I, M. Moreno-Pelayo, F del Castillo, Z Brownstein, S Marlin, Q Adina, D Cockburn, A Pandya, K Siemering, P Chamberlin, E Ballana, W Wuyts, A Maciel-Guerra, A Alvarez, M. Villamar, M. Shohat, D Abeliovich, H Dahl, X Estivill, P Gasparini, T Hutchin, W Nance, E Sartorato, R Smith, G Van Camp, K Avraham, C Petit, F Moreno. Prevalence and evolution origins of the del (GJB6-D13S1830) mutation in the DFNB1 locus in hearing impairement subjects : a multicenter study. Am J Hum Genet, 2 003 Dec ; 73 (6) : 1452-8. 14. Denoyelle F, Lina-Granade G, Plauchu H, Bruzzone R, Chaïb H, Levi-Acobas F, Weil D & Petit C (1 998). Connexin26 gene linked to a dominant deafness. Nature 393, 319-320. 15. Denoyelle F, S Marlin, D Weill, L Moatti, E-N Garabédian, C Petit. Clinical features of the prevalent form of chilhood deafness, DFNB1, underlied by a connexin 26 gene defect : implication for the genetic counselling. Lancet 1999, 353, 1298-1303. 16. El-Amraoui A, Petit C. Usher I syndrome : unravelling the mechanisms that underlie the cohesion of the growing hair bundle in inner ear sensory cells. J Cell Sci. 2 005 Oct 15 ; 118 (Pt 20) : 4593-603. 17. Estivill X, Govea N, Barceló E, Badenas C, Romero E, Moral L, Scozzri R, D’Urbano L, Zeviani M, Torroni A. Familial progressive sensorineural deafness is mainly due to the mtDNA A1555G mutation and is enhanced by treatment of aminoglycosides. Am J Hum Genet. 1 998 Jan ; 62 (1) : 27-35. 18. Everett LA, Glaser B, Beck JC, Idol JR, Buchs A, Heyman M, Adawi F, Hazani E, Nassir E, Baxevanis AD, Sheffield VC & Green ED (1 997) Pendred syndrome is caused by mutations in a putative sulphate transporter gene (PDS). Nature Genetics 17, 411-422. 19. Feldmann D, F Denoyelle, N Loundon, D Weil, E-N Garabedian, R Couderc, A Joannard, S Schmerber, B Delobel, J Leman, H Journel, H Catros, C Ferrec, V Drouin-Garraud, M. F Obstoy, L Moatti, C Petit, S Marlin. Clinical evidence of the non-pathogenic nature of the M34T variant in the connexin 26 gene. Eurp J Hum Genet, 2 004 Apr ; 12 (4) : 279-84. 20. Feldmann D, F Denoyelle, P Chauvin, E-N Garabedian, R Couderc, S Odent, A Joannard, S Schmerber, B Delobel, J Leman, H Journel, H Catros, C Le Maréchal, H Dollfus, M. Eliot, J P Delaunoy, A David, C Calais, V Drouin-Garraud, M. F Obstoy, D Bouccara, O Strekers, P Tran Ba Huy, C Goizet, F Duriez, F Fellmann, J Hélias, J Vigneron, B Montaut, P Lewin, C Petit, S Marlin. Large deletion of GJB6 gene in deaf patients heterozygous for the GJB2 Mutation : genotypic and phenotypic analysis, Am J Med Genet, 2 004 Jun 15 ; 127 (A) : 263-7. 21. Feldmann D, F Denoyelle, H Blons, S Lyonnet, N Loundon, I Rouillon, S Hadj-Rabia, C Petit, R Couderc, E-N Garabédian, S Marlin. The GJB2 mutation R75Q can cause non-syndromic hearing loss DFNA3 or hereditary palmoplantar keratoderma with deafness. Am J Med Genet, 2005, Aug 30 ; 137 (2) : 225-7. 22. Fischel-Ghodsian N, Prezant TR, Fournier P, Stewart IA & Maw M. (1 995). Mitochondrial mutation associated with nonsyndromic deafness. American Journal of Otolaryngology 16, 403-408. 23. Gallo-Teran J, Morales-Angulo C, Rodriguez-Ballesteros M, Moreno-Pelayo MA, del Castillo I, Moreno F. Prevalence of the 35delG mutation in the GJB2 gene, del (GJB6-D13S1830) in the GJB6 gene, Q829X in the OTOF gene and A1555G in the mitochondrial 12S rRNA gene in subjects with non-syndromic sensorineural hearing impairment of congenital/childhood onset. Acta Otorrinolaringol Esp. 2 005 Dec ; 56 (10) : 463-8. 24. Gorlin RJ (2 004). Genetic hearing loss associated with eye disorders. In : Gorlin RJ, Toriello HV, Cohen MM (eds) Hereditary hearing loss and its syndromes. Vol. 28 : Oxford monographs on medical genetics. New York : Oxford University Press, pp 105-140. 25. Goto Y, Nonaka I & Horai S (1 991) A new mtDNA mutation associated with mitochondrial myopathy, encephalopathy, lactic acidosis and stroke-like episodes (MELAS). Biochimica et Biophysica Acta 1097, 238-240. 26. Hildesheimer M, Maayan Z, Muchnik C, Rubinstein M. & Goodman RM (1 989) Auditory and vestibular findings in Waardenburg’s type II syndrome. Journal of Laryngology & Otology 103, 1130-1133. 27. Hoskins BE, Cramer CH, Silvius D, Zou D, Raymond RM, Orten DJ, Kimberling WJ, Smith RJ, Weil D, Petit C, Otto EA, Xu PX, Hildebrandt F. Transcription factor SIX5 is mutated in patients with branchio-oto-renal syndrome. Am J Hum Genet. 2 007 Apr ; 80 (4) : 800-4. 28. Hoth CF, Milunsky A, Lipsky N, Sheffer R, Clarren SK & Baldwin CT (1 993). Mutations in the paired domain of the human PAX3 gene cause Klein-Waardenburg syndrome (WS-III) as well as Waardenburg syndrome type I (WS-I). Am J Hum Genet 52, 455-462. 29. Jais JP, Knebelmann B, Giatras I, De Marchi M, Rizzoni G, Renieri A, Weber M, Gross O, Netzer KO, Flinter F, Pirson Y, Dahan K, Wieslander J, Persson U, Tryggvason K, Martin P, Hertz JM, Schröder C, Sanak M, Carvalho MF, Saus J, Antignac C, Smeets H, Gubler MC. X-linked Alport syndrome : natural history and genotype-phenotype correlations in girls and women belonging to 195 families : a “European Community Alport Syndrome Concerted Action” study. J Am Soc Nephrol. 2 003 Oct ; 14 (10) : 2603-10. 30. Jonard L, Feldmann D, Parsy C, Freitag S, Sinico M, Koval C, Grati M, Couderc R, Denoyelle F, Bodemer C, Marlin S, Hadj-Rabia S. A familial 13. 30 37273_Monographie_N45.Nais_vie_m30 30 18/09/08 14:39:02 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. case of Keratitis-Ichthyosis-Deafness (KID) syndrome with the GJB2 mutation G45E… Eur J Med Genet. 2 008 Jan-Feb ; 51 (1) : 35-43. Epub 2 007 Oct 4. Kelsell DP, Dunlop J, Stevens HP, Lench NJ, Liang JN, Parry G, Mueller RF & Leigh IM (1 997). Connexin 26 mutations in hereditary nonsyndromic sensorineural deafness. Nature 387, 80-83. Kochhar A, Orten DJ, Sorensen JL, Fischer SM, Cremers CW, Kimberling WJ, Smith RJ. SIX1 mutation screening in 247 branchio-otorenal syndrome families : a recurrent missense mutation associated with BOR. Hum Mutat. 2 008 Apr ; 29 (4) : 565. Leveque M, Marlin S, Jonard L, Procaccio V, Reynier P, Amati-Bonneau P, Baulande S, Pierron D, Lacombe D, Duriez F, Francannet C, Mom T, Journel H, Catros H, Drouin-Garraud V, Obstoy MF, Dollfus H, Eliot MM, Faivre L, Duvillard C, Couderc R, Garabedian EN, Petit C, Feldmann D, Denoyelle F. Whole mitochondrial genome screening in maternally inherited non-syndromic hearing impairment using a microarray resequencing mitochondrial DNA chip. Eur J Hum Genet. 2 007 Jul 18. Li XC, Everett LA, Lalwani AK, Desmukh D, Friedman TB, Green ED & Wilcox ER (1 998). A mutation in PDS causes non-syndromic recessive deafness. Nature Genet 18, 215-217. Loundon N, S Marlin, D Busquet, F Denoyelle, G Roger, EN Garabédian. Usher syndrome and cochlear implantation. Otlol Neurotol, 2 003 Mar, 24 (2) : 216-21. Maestrini E, Monaco AP, McGrath JA, Ishida-Yamamoto A, Camisa C, Hovnanian A, Weeks DE, Lathrop M, Uitto J & Christiano AM (1 996). A molecular defect in loricrin, the major component of the cornified cell envelope, underlies Vohwinkel’s syndrome. Nature Genetics 13, 70-77. Maestrini E, Korge BP, Ocana-Sierra J, Calzolari E, Cambiaghi S, Scuder PM, Hovnanian A, Monaco AP & Munro CS (1 999). A missense mutation in connexin 26, D66H, causes mutilating keratoderma with sensorineural deafness (Vohwinkel’s syndrome) in three unrelated families. Hum Mol Genet 8, 1237-1243. Marlin S, D Feldmann, H Blons, N Loundon, I Rouillon, S Albert, P Chauvin, E-N Garabédian, R Couderc, S Odent, A Joannard, S Schmerber, B Delobel, J Leman, H Journel, H Catros, C Lemarechal, H Dollfus, M-M Eliot, J-L Delanoy, ADavid, C Calais, V Drouin-Garraud, M-F Obstoy, C Goizet, F Duriez, F Fellmann, J Hélias, J Vigneron, B Montaut, D Matin-Coignard, L Faivre, C Baumann, P Lewin, C Petit, F Denoyelle. GJB2 and GJB6 mutations : genotypic and phenotypic correlation in a large cohort of hearing-impaired patients, Arch Otol Laryngol, 2005, 2 005 Jun ; 131 (6) : 481-7. Marlin S, N. Loundon, F. Denoyelle, C. Rebichon, E. N Garabedian. Bilan étiologique d’une surdité : pourquoi, pour qui et quand ? J. Pediatr. Puer. 16 (2 003) 309-11 Marsh KL, Dixon J & Dixon MJ (1 998). Mutations in the Treacher Collins syndrome gene lead to mislocalization of the nucleolar protein treacle. Human Molecular Genetics 7, 1795-1800. Newton V (1 990). Hearing loss and Waardenburg’s syndrome : implications for genetic counselling. Journal of Laryngology & Otology 104, 97-103. Neyroud N, Tesson F, Denjoy I, Leibovici M, Donger C, Barhanin J, Fauré S, Gary F, Coumel P, Petit C, Schwartz K & Guicheney P (1 997). A novel mutation in the potassium channel gene KVLQT1 causes the Jervell and Lange-Nielsen cardioauditory syndrome. Nature Genet 15, 186-189. Phelps PD, Coffey RA, Trembath RC, Luxon LM, Grossman AB, Britton KE, Kendall-Taylor P, Graham JM, Cadge BC, Stephens SG, Pembrey ME & Reardon W (1 998). Radiological malformations of the ear in Pendred syndrome. Clin Radiol 53, 268-273. Reardon W, Coffey R, Phelps PD, Luxon LM, Stephens D, Kendall-Taylor P, Britton KE, Grossman A & Trembath R (1 997). Pendred syndrome-100 years of underascertainment ? QJM 90, 443-447. Rouillon I, Marcolla A, Roux I, Marlin S, Feldmann D, Couderc R, Jonard L, Petit C, Denoyelle F, Garabedian EN, Loundon N. Results of cochlear implantation in two children with mutations in the OTOF gene. Int J Pediatr Otorhinolaryngol. 2 006 Apr ; 70 (4) : 689-96. Epub 2 005 Oct 13. Roux AF, Faugere V, Le Guedard S, Pallares-Ruiz N, Vielle A, Chambert S, Marlin S, Hamel C, Gilbert B, Malcolm S, Claustres M ; French Usher Syndrome Collaboration. Survey of the frequency of USH1 gene mutations in a cohort of Usher patients shows the importance of cadherin 23 and protocadherin 15 genes and establishes a detection rate of above 90 %. J Med Genet. 2 006 Sep ; 43 (9) : 763-8. Epub 2 006 May 5. Roux I, Safieddine S, Nouvian R, Grati M, Simmler MC, Bahloul A, Perfettini I, Le Gall M, Rostaing P, Hamard G, Triller A, Avan P, Moser T, Petit C. Otoferlin, defective in a human deafness form, is essential for exocytosis at the auditory ribbon synapse. Cell. 2 006 Oct 20 ; 127 (2) : 277-89. 31 37273_Monographie_N45.Nais_vie_m31 31 18/09/08 14:39:05 Monographie chapitre 48. 49. 50. 51. 52. 53. 54. naissance vie et mort de l'oreille 01 sa naissance Scott DA, Wang R, Kreman TM, Sheffield VC & Karniski LP (1 999). The Pendred syndrome gene encodes a chloride-iodide transport protein. Nature Genet 21, 440-443. Servior KB, Hatamochi A, Stewart IA, Bykhovskaya Y, Allen-Powell DR, Fischel-Ghodsian N & Maw MA (1 998). Mitochondrial A7445G mutation in two pedigrees with palmoplantar keratoderma and deafness. American Journal of Medical Genetics 75, 179-185. Splawski I, Tristani-Firouzi M, Lehmann MH, Sanguinetti MC & Keating MT (1 997). Mutations in the hminK gene cause long QT syndrome and suppress IKs function. Nature Genetics 17, 338-340. Varga R, Kelley PM, Keats BJ, Starr A, Leal SM, Cohn E, Kimberling WJ. Non-syndromic recessive auditory neuropathy is the result of mutations in the otoferlin (OTOF) gene. J Med Genet. 2 003 Jan ; 40 (1) : 45-50. Vikkula M, Mariman EC, Lui VC, Zhidkova NI, Tiller GE, Goldring MB, van Beersum SE, de Waal Malefijt MC, van den Hoogen FH, Ropers HH & et al. (1 995). Autosomal dominant and recessive osteochondrodysplasias associated with the COL11A2 locus. Cell 80, 431-437. Weil D, Blanchard S, Kaplan J, Guilford P, Gibson F, Walsh J, Mburu P, Varela A, Levilliers J, Weston MD, Kelley PM, Kimberling WJ, Wagenaar M, Levi-Acobas F, Larget-Piet D, Munnich A, Steel KP, Brown SDM & Petit C (1 995). Defective myosin VIIA gene responsible for Usher syndrome type 1B. Nature 374, 60-61. Yasunaga S, Grati M, Cohen-Salmon M, El-Amraoui A, Mustapha M, Salem N, El-Zir E, Loiselet J & Petit C (1 999). A mutation in OTOF, encoding otoferlin, a FER-1 like protein, causes DFNB9, a nonsyndromic form of deafness. Nature Genet 21, 363-369. 32 37273_Monographie_N45.Nais_vie_m32 32 18/09/08 14:39:05 Monographie chapitre 02 naissance vie et mort de l'oreille Sa vie 2 - SA VIE 2.1. Ses performances 2.1.1. Capacités de discrimination fréquentielle de l’oreille normale 2.1.1.1. Bases physiologiques du codage fréquentiel O n appelle fréquence ou hauteur l’attribut des sensations auditives permettant d’ordonner les sons sur une échelle musicale allant du grave à l’aigu. Comment l’oreille parvient-elle à discriminer 2 sons de fréquences ou hauteurs différentes ? Deux théories s’affrontent pour expliquer ce processus physiologique, sans pour autant s’exclure mutuellement. La première théorie considère que le codage fréquentiel est spatial. Ce codage reposerait sur l’organisation tonotopique des voies auditives, le traitement de l’information fréquentielle obéissant à une organisation spatiale particulière appelée tonotopie (du grec « tonos » : fréquence, et « topos » : espace) et ce tout au long des voies auditives, depuis la cochlée jusqu’au cortex auditif. À ce titre, la cochlée opère déjà une véritable analyse spectrale, la vibration maximale de la membrane basilaire étant obtenue à la base pour des sons aigus et à l’apex pour des sons graves (von Bekesy, 1 930). Ceci sous-tend que des fréquences différentes (ou des composantes fréquentielles différentes dans le cas des sons complexes) vont exciter des régions spécifiques de la membrane basilaire, conduisant à l’activation de populations neuronales divergeant par leur Fréquence Caractéristique (c’est-à-dire la fréquence à laquelle chaque population répond préférentiellement). L’autre théorie considère que le codage fréquentiel est temporel car conditionné par la structure temporelle du stimulus auditif (Patterson et al., 1 995 ; Meddis & O’Mard, 2 006). En effet, le taux de décharge neuronale résultant d’une stimulation acoustique est synchronisé sur la périodicité du stimulus : pour les sons de fréquences basses et intermédiaires (< 2 kHz), l’intervalle de temps entre 2 potentiels d’action correspondant à la période du stimulus. Pour un son complexe harmonique (son dont les composantes fréquentielles sont des multiples entiers d’une fréquence fondamentale, F0), la sensation de hauteur tonale correspondra à celle déclenchée par un son pur de fréquence F0 (hauteur du son complexe = hauteur de F0) (Ohm, 1843 ; Helmholtz, 1863). Il est d’ailleurs intéressant de noter que, même lorsqu’on retire artificiellement F0 d’un son complexe harmonique, l’oreille humaine est toujours capable de détecter la périodicité du son puisque la sensation de hauteur tonale reste inchangée (phénomène de la fondamentale absente (Schouten, 1 938). Les limites de la théorie « temporelle » résident dans le fait qu’il ne peut physiologiquement y avoir de synchronisation neurale pour des stimulus de fréquence supérieure à 5 kHz. Toutefois, les sons produits par la voix humaine, les instruments de musique et la plupart des sources sonores de notre environnement ont tous une fréquence fondamentale bien inférieure à cette limite. 2.1.1.2. Méthode de mesure En pratique, la mesure des capacités de discrimination fréquentielle auditive consiste à émettre dans la même oreille, à un niveau de stimulation à la fois confortable pour le sujet et occasionnant la même 33 37273_Monographie_N45.Nais_vie_m33 33 18/09/08 14:39:08 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie sensation subjective d’intensité (voir chapitre 2.1.4 pour la description de la sonie), 2 sons purs successifs de fréquences légèrement différentes. On demande au sujet de préciser lequel des 2 sons a la fréquence la plus aiguë. Pour un son de fréquence donnée (F), on recherche quel est le son de fréquence la plus proche possible de F que le sujet pourra discriminer, c’est-à-dire la plus petite différence de fréquence perceptible. On appelle cette différence le seuil différentiel de fréquence, que l’on retrouvera décrit dans la littérature par l’acronyme « DLF » (pour « difference limen for frequency »). En général, on exprime le DLF en pourcentage de la fréquence testée F. 2.1.1.3. Discrimination fréquentielle chez le sujet normo-entendant Exprimé en hertz, le DLF est meilleur (c’est-à-dire plus petit) pour les fréquences graves, puis augmente de façon monotone au fur et à mesure que l’on se rapproche des fréquences aigues (Moore, 1973, 2 002). Toutefois, on retiendra que chez le sujet normo-entendant, le DLF, exprimé en pourcentage de la fréquence testée, est minimal pour les fréquences intermédiaires et maximal pour les très hautes et très basses fréquences. La figure ci-dessous représente les DLFs mesurés chez le sujet normo-entendant à un niveau confortable (40 dB au-dessus des seuils auditifs de détection). Références Békésy, von, C. (1 934). Über die nichtlinearen Verzerrugen des Ohres. Annln Phys., 20, ser. 5, 809-827. (English transl. : Nonlinear distortion in the ear. Experiments in hearing. pp.332-344, McGraw-Hill, New York, 1 960.) Licklider, J. C. R. (1 954). «Periodicity» pitch and «place» pitch. J. Acoust. Soc. Am., 26 : 945. Meddis R, O’Mard LP. (2 006).Virtual pitch in a computational physiological model. J Acoust Soc Am. 2 006 ; 120 : 3861-9. Moore BCJ (2 002). An introduction to the Psychology of Hearing. Fifth Edition. Helmholtz, H.L.F. Von (1863). Die Lehre von den Tonempfindungen als physiologische Grundlage für der theorie der musik, 1st edn, F. Vieweg, Braunschweig. Ohm, G.S. (1843). über die definition des tones, nebst daran geknüpfter theorie der sirene und ähnlicher tonbildender vorrichtungen, Ann. 34 37273_Monographie_N45.Nais_vie_m34 34 18/09/08 14:39:10 Physik.59, 513. Patterson RD, Allerhand MH, Giguère C. (1 995) Time-domain modeling of peripheral auditory processing : a modular architecture and a software platform. J Acoust Soc Am. 98 : 1 890-4. Schouten, J. F. (1 938). The perception of subjective tones. Proceedings of Koninklijke Nederlandsche Akademie van Wetenschappen, 41 (10). 2.1.2. Performances temporelles de l’oreille normale Les caractéristiques acoustiques temporelles jouent un rôle important dans la perception de la parole (Shannon, 2 002 ; Lorenzi et al., 2 006). Elles interviennent en complément des informations fréquentielles (fréquence fondamentale et formants). On peut distinguer trois types d’information temporelle en fonction de la gamme de fréquence considérée (fig. 1) : - l’enveloppe temporelle (« contour du son ») véhicule les informations relatives au rythme global de la phrase, la délimitation des syllabes et concerne les variations temporelles de moins de 50 Hz (> 20 ms), - la périodicité reflète l’intonation, l’identité du locuteur, et se situe entre 50 et 500 Hz, - enfin, la structure fine temporelle se situe au-delà de 500 Hz (durées < 2 ms), et permet la perception, par exemple, des transitions formantiques. Chacun de ces types d’information a son importance vis-à-vis de la compréhension de la parole. Par exemple, la perception catégorielle permettant de distinguer les phonèmes p/b, est basée sur la perception du délai de voisement, long de quelques dizaines de millisecondes. Il est donc important de disposer d’outils cliniques (méthodes objectives et subjectives) permettant d’évaluer l’acuité auditive par rapport à ces caractéristiques temporelles. fig. 1 d Illustration du type d’information temporelle contenue dans un signal de parole, ici la syllabe « BA ». L’amplitude du signal recueilli au niveau du microphone est exprimée en fonction du temps en millisecondes (ms). La trace « 1 » représente la syllabe originale, la trace « 2 » représente la périodicité, entre 50 et 500 Hz (l’amplitude a été quadruplée pour une meilleure visibilité), et la trace « 3 » représente la structure fine temporelle, audelà de 500 Hz. En audition, le codage neural temporel est caractérisé par la synchronisation des cellules du système auditif sur la périodicité du stimulus acoustique (fig. 2). C’est le principe de « calage de phase » (ou phase-locking). Ce calage de phase se répercute tout le long des voies auditives afférentes en se limitant à des fréquences de plus en plus basses au fur et à mesure que le message nerveux est intégré : 35 37273_Monographie_N45.Nais_vie_m35 35 18/09/08 14:39:15 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie il intervient jusqu’à des fréquences de stimulation de 4 à 5 kHz au niveau du nerf auditif, et pour des fréquences inférieures à 80 Hz dans le cortex auditif (Palmer et Schamma, 2 004). fig. 2 d Illustration du calage de phase ou « Phase-locking » : Le nombre de décharges du nerf auditif (histogramme) suit la phase du stimulus (ici, un son pur de 1000 Hz dessiné en noir). Afin d’évaluer les capacités de traitement de l’information auditive temporelle, de multiples protocoles de psychoacoustiques ont été validés et s’organisent autour de 3 axes principaux (le traitement binaural de l’information temporelle sera traité chapitre 2.1.3). 2.1.2.1. Détection d’un silence au sein d’un stimulus acoustique continu (gapdetection). Afin d’éviter la perception d’indices spectraux, l’ensemble de la tache est présenté au sein d’un bruit de masque, le plus souvent bruit blanc à large bande, avec une encoche fréquentielle correspondant à la fréquence du stimulus acoustique utilisé. (fig. 3). La durée minimale du silence perçu dépend du type de stimulus utilisé avant et après le silence. Le seuil minimal de détection est de 2 à 3 ms pour un stimulus acoustique de type bruit à large bande, à une intensité confortable (30 dB SL), et de 3 à 5 ms pour des sons purs. Pour des intensités plus proches du seuil de perception du sujet, la durée du plus petit silence perçu augmente. En revanche, pour des intensités de stimulation largement audibles (30 dB SL et au-delà), la durée minimum perçue est remarquablement constante, que la durée totale de la stimulation varie de 20 à 400 ms, que la position du silence au sein de la stimulation varie, ou que l’intensité de la stimulation varie au-delà de 30 dB SL. Lorsque des bandes de bruit sont utilisées, plus la bande de bruit est large, plus le silence est facile à détecter, selon la formule : seuil (s) ~1/racine (largeur de bande en Hz). Pour des sons purs, les silences minimums perçus sont de l’ordre de 5 ms pour les fréquences de 400 à 2000 Hz, et augmentent pour les fréquences inférieures à 400 Hz (18 ms à 100 Hz). Plutôt que la détection d’un silence, d’autres 36 37273_Monographie_N45.Nais_vie_m36 36 18/09/08 14:39:17 expériences se sont attachées à mesurer la plus petite différence de durée de silence entre deux sons (gap duration detection). Lorsque les fréquences des sons avant et après le silence sont différentes (détection inter-canaux), le seuil de détection se dégrade, de même lorsque l’intensité des sons se ∂ fig. 3 : Evaluation de l’acuité auditive temporelle par tests psycho-acoustiques. 1: Détection du plus petit silence entre deux sons (gap-detection): la durée minimale de perception d’un silence (gap) est recherchée, en présentant deux signaux A et B. Le sujet doit choisir celui dans lequel il entend un silence. Les signaux A et B peuvent être identiques, ou de fréquences différentes. Afin d’éviter la perception d’indices spectraux, l’ensemble de la tache est présentée au sein d’un bruit de masque, le plus souvent bruit blanc à large bande, avec une encoche fréquentielle correspondant à la fréquence du stimulus acoustique utilisé. 2: Détection de modulation (TMTF). La profondeur de modulation minimale (en pourcentage de l’amplitude) pour que le sujet perçoive une modulation d’amplitude (en fonction de la fréquence modulante) est déterminée. rapproche des seuils de perception des sujets (Grose et coll., 2 001). 2.1.2.2. Discrimination de durée Elle fait référence à la capacité de détecter un changement de durée entre 2 sons. En pratique, deux sons successifs de même puissance mais de longueur différente sont présentés, et le sujet doit identifier le son le plus long. Lorsque la durée du son augmente, la fraction discriminée ~t/T diminue, avec, pour des sons de durées respectives de 10 ms et 1 000 ms, des différences respectives de durée de 4 et 60 ms peuvent être perçues. 2.1.2.3. Les fonctions de détection de modulation ou « Temporal modulation transfer functions » (TMTFs). Elles consistent à mesurer le seuil de détection d’un changement d’amplitude d’un son (porteuse), en fonction de la rapidité des changements, et de l’importance des changements. Le son modulé en amplitude peut être soit une sinusoïde, soit un bruit à bande étroite (fig. 3.2). Les seuils de détection de la modulation d’amplitude sont constants pour des modulations inférieures à 50 Hz (20 ms), et diminuent linéairement avec la fréquence de modulation de 3 dB/octave, jusqu’à 1 000 Hz (1 ms). Au-delà de 1 000 Hz, le seuil de détection de la modulation ne varie plus. Il y a peu de variations des seuils de détection avec l’intensité du signal, sauf à proximité du seuil de perception où les seuils de détection se dégradent. La sensibilité à la modulation augmente avec la largeur de bande du son modulé, mais varie peu avec la fréquence de la porteuse. Pour des échelles de temps plus importantes, l’étude du traitement de l’information temporelle fait 37 37273_Monographie_N45.Nais_vie_m37 37 18/09/08 14:39:21 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie appel à des taches de discrimination de séquences de sons variant selon différents rythmes, des taches de détection de l’ordre de plusieurs sons successifs, et se rapproche de l’analyse des scènes auditives. Références Eddins DA, Green DM. (1 995) Temporal Integration and temporal resolution. In Hearing, B.C.J. Moore editor. Handbook of Perception and Cognition. 2nd Edition. Academic Press. Grose, J. H., Hall, J. W., 3rd, et Buss, E. (2 001). Gap duration discrimination in listeners with cochlear hearing loss : effects of gap and marker duration, frequency separation, and mode of presentation. J Assoc Res Otolaryngol, 2 (4), 388-398. Lorenzi C, Gilbert G, Carn H, Garnier S, Moore BC. (2 006) “Speech perception problems of the hearing impaired reflect inability to use temporal fine structure.” Proc Natl Acad Sci U S A. 103 (49):18866-9. Moore BC., An Introduction to the Psychology of Hearing, 5 th ed. Elsevier Academic Press, 2 004. Palmer A.R., and Shamma S.A. “Physiological representations of speech”, in Springer Handbook of Auditory Research, (vol.18) Speech processing in the auditory system. edited by Greenberg, S., Ainsworth, W.A., Popper, A.N. and Fay, R.R. (Springer New-York). 2 004 Shannon RV. The relative importance of amplitude, temporal, and spectral cues for cochlear implant processor design. Am J Audiol. 2 002 ; 11 (2):124-7. Niveau de pression acoustique (db) 2.1.3. Performances en intensité de l’oreille normale La sensibilité de l’oreille à l’intensité des stimulations acoustiques est très remarquable chez le sujet normo-entendant et cela au moins pour 3 raisons. La première tient au fait que si pour certaines fréquences, des déplacements tympaniques parfois inférieurs au diamètre d’une molécule d’hydrogène peuvent être détectés, le système auditif peut aussi entendre des sons dépassant de 120 dB ce seuil. Cela signifie qu’entre le seuil d’audition et le seuil de douleur, l’étendue des intensités acoustiques susceptibles de stimuler l’oreille, c’est-à-dire sa dynamique, est immense : aux fréquences moyennes par exemple, l’intensité juste perceptible (seuil absolu) est 1012 fois plus forte que l’intensité maximale (seuil de douleur). D’autre part, chaque intensité peut être exprimée en force perçue ou intensité subjective appelée la sonie qui peut être classée sur une échelle allant du calme (« quiet ») au fort (« loud »). Enfin tout en étant sensible à une très large gamme d’intensités sonores, le système auditif peut aussi discriminer de très faibles différences d’intensité entre deux sons. 2.1.3.1. Seuils de détection Quels que soit la méthode et le matériel utilisés (en champ libre ou sous écouteurs), il existe une variation du seuil d’audition (en réponse à des sons purs d’une durée supérieure à 200 ms) avec la fréquence. La figure 4 montre d’une part une estimation des seuils moyens et la dispersion mesurées en D fig. 4 : Valeurs moyennes des seuils mesurés au csque et en champ libre chez un grand écoute monaurale au casque chez une cennombre de sujets normaux. (les pointillés délimitent l'intervalles qui contient 80 % des mesures taine de sujets sains âgés de 18 à 25 ans 38 37273_Monographie_N45.Nais_vie_m38 38 18/09/08 14:39:23 (pression audible minimum : PAM) et d’autre part les seuils absolus d’audition en champ libre chez des sujets du même âge testés dans une salle sourde anéchoïque à l’aide d’un haut-parleur placé en face d’eux (champ audible minimum : CAM). Trois constations peuvent être faites. La première concerne la dispersion minimale (de l’ordre de 10 dB) des mesures entre 50 et 5 000 Hz (fréquences moyennes) lors de mesures au casque. La deuxième a trait à la sensibilité qui est de moins en moins bonne de part et d’autre de ces 2 fréquences avec des seuils qui augmentent rapidement à très basses et très hautes fréquences. Enfin la troisième concerne le fait que les seuils en champ libre sont en moyenne plus bas d’environ 2 dB aux seuils mesurés sous écouteurs avec une forme de courbe différente. Plusieurs raisons peuvent expliquer ces observations. Concernant l’évolution des seuils absolus avec la fréquence, elle s’explique presque totalement par les fonctions de transfert de l’oreille externe et de l’oreille moyenne et par les phénomènes de diffraction dus au corps et au pavillon. Ainsi l’ensemble pavillon et conduit auditif, en amont du tympan, est un canal de transmission acoustique dont la fréquence de résonance se situe vers 3 000 Hz et qui accroît la sensibilité de 1 000 à 5 000 Hz. Dans l’oreille moyenne, la transmission est la plus efficace pour les fréquences moyennes et chute drastiquement pour les très basses et très hautes fréquences (Aibara et coll. 2001, Puria et coll. 1997, Rosowski, 1 991). Dans la cochlée, des déplacements préférentiels de la membrane basilaire ont lieu à certaines fréquences (Johnstone et coll. 1 982) et un plus grand nombre de neurones est associé aux fréquences moyennes résultant dans une sensibilité globale améliorée à ces fréquences. De plus, s’ajoutent des phénomènes d’intégration temporelle par le système nerveux, permettant plus particulièrement de comprendre pourquoi les seuils diminuent plus que prévu quand la fréquence augmente. Les différences entre les courbes d’audibilité pour les conditions PAM et CAM sont en partie expliquées par le caractère binaural de l’écoute en champ libre (d’ailleurs en condition binaurale au casque, les seuils absolus sont inférieurs d’environ 3 dB aux seuils monauraux correspondants et cela en partie grâce aux mécanismes de sommation binaurale dans le système nerveux auditif) et par des effets de diffraction du son sur le corps et de résonance sur le pavillon et à l’intérieur du conduit auditif qui renforcent les fréquences situées autour de 4 000 Hz. À basse fréquence, la différence de 5 à 10 dB observée entre les conditions champ libre et casque ont été expliquées par l’existence d’un bruit physiologique d’origine vasculaire qui dégraderait le seuil mesuré avec un système obturant le conduit auditif comme le font un casque et surtout un insert (Anderson et Whittle, 1 971 ; Soderquist et Lindsey, 1 972). Notons enfin que lorsque les seuils auditifs sont mesurés par pas fréquentiels plus petits que l’octave utilisée en pratique clinique courante, par exemple par pas de 50 Hz, des écarts de seuil de 15 dB sont parfois présents entre deux fréquences voisines. Cette microstructure de l’audiogramme est toujours présente chez les sujets normo-entendants et se localise sur les fréquences comprises entre 500 et 3 000 Hz là où les mécanismes actifs cochléaires sont les plus efficaces. 2.1.3.2. La sonie (ou intensité subjective du son) Le niveau de sensation de force (« loudness ») d’un son chez le sujet sain normo-entendant varie également avec la fréquence. La méthode préférée des acousticiens pour évaluer la sonie consiste à déterminer de combien un son de 1 000 Hz doit être intense pour avoir la même force sonore que le 39 37273_Monographie_N45.Nais_vie_m39 39 18/09/08 14:39:27 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie son testé, les 2 sons étant présentés alternativement. Le niveau du son de 1 000 Hz qui donne une force égale est le niveau de force du son test et il s’exprime en phone. Le phone se définit donc par référence au niveau physique d’un son de 1 000 Hz, expliquant pourquoi à 1 000 Hz l’échelle des phones se confond avec celle des dB. Enfin, un son de N phones est un son donnant une sensation d’intensité égale à celle d’un son pur de fréquence 1 000 Hz et de niveau N dB SPL. La figure 5 donne les lignes isosoniques en condition d’écoute binaurale sous écouteurs. À noter que les courbes obtenues dans d’autres conditions d’écoute sont très semblables à celles montreés ici (Botte, 1 989). On peut constater que les courbes d’isosonie ont des formes similaires à celles des seuils audibles minimums décrits précédemment sauf qu’elles tendent à devenir plus plates à forts niveaux sonores. La relation entre le niveau en dB et la sensation provoquée dépend donc de moins en moins de la fréquence pour les niveaux élevés. Cela signifie que le taux de croissance de la force du son diffère pour les sons de différentes fréquences. Ainsi par exemple, le seuil absolu d’un son de 125 Hz est supérieur d’environ 18 dB de celui d’un son de 1 000 Hz. Mais pour la ligne 100 phones, la différence n’est plus que de 3 dB environ. Ainsi pour le même niveau de sensation de la force du son, le niveau du son à 1 000 Hz doit être augmenté de 98 dB tandis que seulement 83 dB suffisent pour le son de 125 Hz. Le taux de croissance du niveau de la sensation d’intensité à mesure que l’intensité augmente est donc plus fort pour les basses fréquences et pour certaines très hautes fréquences que pour les fréquences moyennes, ce qui a une conséquence : celle de réduire la dynamique de l’oreille dans les fréquences graves et très aigues. À ces fréquences, l’augmentation du niveau sonore fait passer la sensation plus rapidement d’un niveau « faible » à un niveau « fort » puis au seuil de douleur (limite supérieure du son audible). Un autre point important dans la perception de l’intensité concerne l’établissement d’échelles reliant les D fig. 5 : Lignes isosoniques en condition d'écoute binaurale sous écouteur. ampleurs physiques des sons à leur intensité subjective. La sonie, qui mesure le rapport subjectif entre deux sensations d’intensité sonore a pour unité le sone qui est défini, comme c’était déjà le cas pour le phone, par rapport à une référence : à la fréquence de 1 000 Hz et au niveau de 40 dB SPL, la sensation perçue est de 1 sone, ce qui revient à dire que l’on a 1 sone pour 40 phones. Par définition, le niveau sonore pour lequel le son est perçu « deux fois plus fort » est le niveau de 2 sones, celui où le son est perçu « quatre fois plus fort » est de 4 sones et ainsi de suite. Les travaux 40 37273_Monographie_N45.Nais_vie_m40 40 18/09/08 14:39:28 conduits par Stevens en 1957 ont permis de déterminer comment la sonie variait en fonction du niveau d’isosonie (en phones) qui est, rappelons-le, identique au niveau de pression acoustique (en dB) pour un son de 1 000 Hz. Ces travaux ont abouti à une loi dite loi de Stevens qui suggère que la sonie (L pour « loudness ») est une fonction puissance de l’intensité physique (p pour pression acoustique) et pour un son de 1 000 Hz au-dessus de 30 phones (30 dB SPL) elle répond à la formule : L = k0,6 où k est une constante dépendante du sujet et des unités utilisées. Une simple approximation de cette loi revient à dire que la sonie double pour toute augmentation du niveau de 10 dB et du fait que l’exposant est inférieur à 1, cela signifie que la sonie croît plus vite que la pression acoustique. Toutefois comme le montre la figure 6 où sont représentées différentes fonctions de sonie, cette règle ne s’applique pas toujours. C’est ainsi le cas pour le son de 1 000 Hz entre le seuil et le niveau de 30 phones mais aussi pour les sons de fréquence inférieure à 1 000 Hz où d’une part la fonction de sonie commence à un niveau plus élevé du fait que le seuil est plus élevé à ces fréquences et d’autre part croît ensuite plus rapidement, ne rejoignant la courbe du son de 1 000 Hz qu’aux niveaux intenses. Enfin, pour le bruit blanc la fonction de sonie n’est pas une fonction puissance du niveau SPL. Elle n’est pas une droite et aux niveaux faibles la sonie du bruit blanc croît plus vite que celle du son de 1 000 Hz alors qu’au-dessus de 60 dB elle augmente moins vite en fonction de l’intensité. D fig. 6 : Fonctions de sonie pour des sons purs de différentes fréquences 41 37273_Monographie_N45.Nais_vie_m41 41 La sonie est fortement tributaire du contexte sonore et de façon plus générale de l’environnement sonore avec des effets importants de la fatigue et de l’adaptation. Elle dépend également de la durée du son. Si aux durées inférieures à une seconde, la sonie augmente avec la durée du son, aux durées longues supérieures à quelques secondes, la sonie décroît durant la stimulation mais pour cela le niveau du son pur ne doit pas dépasser 30 dB SL. Ce phénomène d’adaptation est particulièrement important et rapide en cas de neurinome de l’acoustique et se quantifie au moyen du test audiologique appelé « decay test ». 18/09/08 14:39:31 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie 2.1.3.3. Le Seuil Différentiel d’Intensité (SDI) Dans la perception courante de notre environnement, il est aussi important d’être capable d’apprécier le niveau d’un son que de pouvoir détecter des changements d’intensité. Le seuil de discrimination – ou seuil différentiel (« Difference Limens) - d’intensité, est la plus petite différence de niveau qui permette de percevoir une différence entre deux sons. Le SDI se définit donc comme la plus petite différence de niveau audible. On parle aussi parfois de différences justes perceptibles (« Just Noticeable Difference »). Bien que les résultats expérimentaux diffèrent selon la méthode et le type de stimulus utilisés, la tendance générale est similaire. Les SDI s’expriment en dB c’est-à-dire comme un changement dans le niveau au seuil et entre un son d’intensité I et un autre son d’intensité I+ΔI, le SDI est donné par la formule : SDIdB = 10log10[(I+ ΔI)/I]. Pour le bruit blanc et les bandes de bruit, le plus petit changement d’intensité détectable est approximativement une fraction constante de l’intensité du stimulus, illustrant donc la loi de Weber selon laquelle le plus petit changement détectable dans un stimulus est proportionnel à l’amplitude du stimulus. Cela veut donc dire qu’au moins au-dessus de 20 à 30 dB SL, le SDI est constant et légèrement inférieur à 1 dB. Ce n’est pas le cas avec les sons purs (Moore 2 002) pour lesquels la pente de la fonction reliant ΔI en fonction de I est d’environ 0,9 et pour lesquels, alors que la loi de Weber prévoit une augmentation du SDI à mesure que le niveau augmente, le SDI diminue. Par exemple à 1 000 Hz, le SDI passe de 2 dB près du seuil absolu à 0,4 dB à 30 dB SL. Il faut toutefois retenir que le SDI est de l’ordre de 1 dB. Ainsi tous ces résultats illustrent les phénomènes de codage de l’intensité dans notre système auditif. Un système fonctionnel nous rend différemment sensible aux fréquences, nous rend capable d’apprécier non seulement la force d’une stimulation sonore mais aussi de détecter des changements dans le niveau de stimulation. Tout cela se passe sur un large intervalle d’intensités avec une dynamique atteignant au moins 120 dB. En dehors de toute attente, même la discrimination du niveau des sons purs s’améliore à mesure que le niveau du son augmente et cela jusqu’à 100 dB SPL environ. Références 1. Aibara R, Welsh JT, Puria S, Goode RL. (2 001). Human middle-ear sound transfer function and cochlear input impedance. Hear Res 152 : 100-109 2. Anderson CMB, Whittle LS. (1 971). Physiological noise and the missing 6 dB. Acustica 24 : 261-272. 3. Botte MC. (1 989). Perception de l’intensité sonore. Psychoacoustique et Perception Auditive. Botte, MC, Canévet G, Demany L, Sorin (Eds), Série Audition, INSERM/SFA/CENT pp. 13-41. 4. Johnstone BM, Robertson D, Cody A. (1 982). Basilar membrane motion and hearing loss. Hearing and hearing prophylaxis. Scand Audiol Suppl 16 : 89-93. 5. Puria S, Rosowski JJ, Peake WT. (1 997). Sound-pressure measurements in the cochlear vestibule of human-cadaver ears. J Acoust Soc Am 101 : 2754-2770. 6. Rosowski JJ. (1 991). The effects of external- and middle-ear filtering on auditory threshold and noise-induced hearing loss. J Acoust Soc Am 90 : 124-135. 7. Soderquist DR, Lindsey JW. (1 972). Physiological noise as a masker of low frequencies : the cardiac cycle. J Acoust Soc Am 52 : 1216-1220. 42 37273_Monographie_N45.Nais_vie_m42 42 18/09/08 14:39:33 2.2. Son utilisation 2.2.1. Localisation spatiale et stéréophonie Pour construire notre espace sonore subjectif, il nous faut tout d’abord repérer la position des sources acoustiques qui nous entourent. Cette opération est désignée sous le terme de « localisation ». Localiser un son, c’est d’abord identifier son azimut et sa hauteur, donc sa direction, puis déterminer la distance à laquelle est sa source dans cette direction. Mais l’environnement acoustique résulte en général de l’action simultanée de plusieurs sources qui de plus peuvent être en mouvement dans les trois dimensions. La combinaison de leurs rayonnements produit un champ acoustique complexe que le système auditif doit traiter pour reconnaître séparément chaque source. La localisation des sources sonores par le système auditif se fait toujours à partir des caractéristiques du champ acoustique capté par les deux oreilles. En première approximation, ce sont les différences interaurales d’intensité et de temps d’arrivée qui constituent les indices essentiels à la localisation. En fait de nombreux autres facteurs tels que la différence spectrale interviennent dans la localisation. Entendre des deux oreilles apporte plusieurs avantages : -les différences d’amplitude ou d’instant d’arrivée des sons aux deux oreilles fournissent des indices qui contribuent grandement à la capacité de localisation des sources sonores, -la capacité à détecter des signaux dans le bruit peut être améliorée par la comparaison des stimuli qui atteignent les deux oreilles, -lorsque l’audition est dirigée vers un son cible ou signal tel que de la parole en présence d’un bruit de fond, le rapport signal-sur-bruit peut être bien plus fort sur une oreille que sur l’autre. Dans ces circonstances, les sujets sont capables d’utiliser l’oreille recevant le rapport signal-sur-bruit le plus élevé, -lorsque les signaux qui atteignent les deux oreilles sont identiques, stimuli diotiques, la capacité à discriminer ou identifier les signaux est souvent légèrement meilleure que lorsque les signaux sont délivrés seulement à une oreille, stimuli monauraux. Différence interaurale de temps (DTI) Lorsqu’un son est capté par une oreille, il existe un délai de propagation lié à la distance entre la source sonore et l’oreille, la vitesse de propagation du son dans l’air étant d’environ 300 m/s. Selon l’orientation de la source par rapport à la tête ce délai peut être différent entre les deux oreilles. En ce qui concerne les différences de temps d’arrivée aux oreilles, Feddersen et al (1 957), modélisent la différence interaurale (DTI) de temps en fonction de l’angle de l’azimut de la source. Le maximum se situe à 90° et est de l’ordre de 0,6 ms, ce qui correspond à une différence de distance parcourue d’environ 19 cm, valeur approximative de la distance entre les 2 oreilles. À 0° et 180°, la DTI est nulle, le son en provenance de la source mettant le même temps pour atteindre les oreilles. Différence interaurale d’intensité (DII) Plusieurs facteurs peuvent influencer la différence d’intensité captée par les deux oreilles. Dans le cas extrême celle-ci peut atteindre jusqu’à 40 à 60 dB : c’est le cas lorsque la source est dans le méat auditif de l’une des deux oreilles. 43 37273_Monographie_N45.Nais_vie_m43 43 18/09/08 14:39:37 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie Lorsqu’un son est capté par une oreille, il existe une atténuation de l’intensité du son en fonction de la distance de la source sonore à l’oreille. Chaque fois que la distance entre la source et oreille double, l’intensité du son est réduite de 6 dB. L’ombre de la tête et les différences géométriques des pavillons peuvent aussi avoir un effet important sur l’intensité des sons captés. Ces différences sont fonction des fréquences et de la distance à la source. En effet, pour les fréquences graves, jusqu’à 800 Hz, l’effet de l’ombre de la tête est quasiment nul ; par contre, au-delà de 2000 Hz, cet effet peut atteindre plusieurs dizaines de dB. Du fait des différences morphologiques des pavillons, de grandes variabilités interindividuelles de la DII sont constatées. Démasquage binaural La sélectivité fréquentielle n’est pas le seul élément qui régisse la localisation masquée. Le masquage dépend aussi du décalage temporel entre signal et masque et des positions respectives de leurs sources dans l’espace. La sélectivité temporelle fait plutôt partie du cadre plus général du démasquage. La notion de démasquage binaural provient des travaux des équipes de Langmuir (1 944) et de Hirsh (1 948) pour les sons purs et de Licklider (1 948) pour la parole. Ces travaux ont montré que la capacité à détecter des signaux dans le bruit peut être améliorée par la comparaison des stimuli qui atteignent les deux oreilles. En effet, si un signal de parole est mélangé à du bruit et envoyé dans une oreille, le fait d’envoyer le même bruit dans l’autre oreille améliore considérablement l’intelligibilité. 2.2.2. La fonction d’alerte L’audition est le sens essentiel de la communication, mais il n’est pas le seul ; la vision et l’odorat revêtent aussi une importance à ne pas négliger. Quant au toucher, il est aussi présent comme le goût. Certes, concernant la fonction d’alerte, l’audition et la vision ont un rôle prédominant. Il s’avère qu’il est difficile dans le cadre de la fonction d’alerte chez l’homme de séparer l’audition et la vision. On ne peut oublier le rôle que va revêtir, à partir d’un signal d’alerte, l’orientation vers ce signal de sens nécessaire à son identification grâce à la réaction motrice éventuelle adaptée. 2.2.2.1. Le système auditif a des capacités d’analyse. Les stimuli sensoriels activent la substance réticulée ascendante du tronc cérébral et le noyau réticulaire thalamique. C’est à partir de ces structures que sont consultés le système limbique de motivation et les aires d’intégration sensorielles péri-sylviennes. De leur côté, le thalamus et le système limbique sont connectés avec les aires pré-frontales qui, en interaction avec les aires d’intégration sensorielles péri-sylviennes codent les stimuli en fonction de leur pertinence ; le noyau réticulaire thalamique va, ou bien favoriser le passage des stimuli vers le niveau de traitement supérieur ou, au contraire, les filtrer s’ils ne sont pas pertinents pour la tâche en cours d’exécution. Le néostriatum établit des connexions qui permettent l’activation des aires préfrontales. Les colliculi (supérieurs pour les stimuli visuels, inférieurs pour les stimuli auditifs) le cortex 44 37273_Monographie_N45.Nais_vie_m44 44 18/09/08 14:39:38 limbique et le cortex pré-moteur génèrent des réactions motrices d’orientations corporelles vers les stimuli cibles. Le système attentionnel agit de façon permanente sur l’activité mentale et particulièrement sur les activités linguistiques. La maturation de ce réseau séquentiel et parallèle intervient notablement dans le développement cognitif et linguistique au cours des premières années de la vie. 2.2.2.2. L’audition et la fonction d’alerte pendant le sommeil Faisant référence à une publication d’Hélène BASTUJI parue en 1995 dans le « journal of clinical neurophysiology » se basant sur l’étude des potentiels évoqués tardifs durant le sommeil, ce travail permet d’affirmer que le cerveau semble capable à tous les stades de sommeil de détecter un stimulus anormal ou inhabituel. 2.2.2.3. Le rapport signal-bruit La plupart des situations essentielles de communication se caractérisent par le fait que le signal acoustique utile, celui que l’on veut entendre et comprendre, est pollué par des signaux parasites : bruit de circulation routière, de machine, brouhaha de conversation, perturbé par les échos ou dégradé par la distance. L’enjeu est de détecter, de discriminer le signal acoustique dans le bruit. La question de la communication et en l’occurrence la fonction auditive d’alerte dépendent de la nature acoustique des différents signaux et du rapport signal-bruit. Le degré de gêne pour percevoir le signal acoustique dans le bruit de fond relève de différents facteurs. Il en est de même pour la détection d’un signal d’alerte. Les facteurs acoustiques sont la sonie, le spectre, les paramètres temporels et la durée. Exprimé en décibels, le rapport du signal au bruit est la différence entre le niveau du signal et le niveau du bruit ; il indique le rapport des pressions ou des intensités acoustiques. Un rapport signal-bruit positif signifie que le signal est plus grand que le bruit. Un rapport nul signifie que le signal et le bruit sont au même niveau. Un rapport négatif signifie que le signal est plus faible que le bruit. Ce rapport est une indication globale qui ne tient pas compte de la nature propre du signal et du bruit. La comparaison des spectres est plus riche d’enseignement. La perception du signal est d’autant plus difficile que ce signal a un spectre aigu masqué par le bruit de fond qui a des composantes graves masquantes. Le spectre de la parole appelé, international long term average speech spectrum, est le même pour plusieurs langues mais le poids de chaque bande fréquentielle pour l’intelligibilité varie beaucoup d’une langue à l’autre. Ainsi, le spectre du brouhaha est proche de celui de la parole alors que le bruit de cafétéria comporte d’autres bruits qui compromettent l’intelligibilité. 2.2.2.4. Facteurs physiologiques La situation de l’auditeur par rapport aux deux sources sonores est importante. Lorsque les conditions 45 37273_Monographie_N45.Nais_vie_m45 45 18/09/08 14:39:40 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie de l’audition stéréophonique ne sont plus réunies par atteinte des capacités de perception spatiale, le sujet distingue difficilement des sources sonores même si elles sont physiquement séparées dans l’espace. Le système auditif de l’homme est tel que son audition est directionnelle. L’effet directif du pavillon : l’indice de directivité qui représente l’atténuation d’un champ sonore diffus par rapport à une source frontale de même puissance d’une oreille ouverte est de 3 décibels entre 2 et 5 kHz. L’effet stéréophonique : l’audition stéréophonique améliore de 2 à 3 décibels le rapport signal-bruit requis pour atteindre le même taux d’intelligibilité. Le démasquage binaural : l’audition binaurale abaisse le seuil masqué et améliore le rapport signalbruit. Mais dans les facteurs physiologiques pèsent aussi l’activité du sujet, le moment de la journée, l’état de vigilance ou de sommeil, l’attention, la mémoire. 2.2.2.5. Facteur psychologique. La pertinence du bruit perçu, l’intérêt qu’il présente pour l’auditeur est essentiel et pèse dans l’intelligibilité. 2.2.2.6. Fonction auditive d’alerte et surdité. Dans les surdités totales et unilatérales, on observe une perte de la localisation sonore donc une diminution de la fonction d’alerte. Dans les demi-surdités et surdités sévères, on constate que : -seuls les bruits forts sont perçus, -le rapport signal-bruit est très perturbé, -la fonction d’alerte doit être compensée. 2.2.2.7. Les mécanismes de compensation Ils agissent par l’intermédiaire de la vision, l’attention, l’accompagnant ou plutôt le locuteur (expression du visage, lecture labiofaciale, geste). L’appareillage auditif est un mécanisme de compensation ; il est indiqué même s’il ne restaure que la fonction d’alerte. Dans le cas particulier des activités professionnelles en milieu bruyant, des consignes de sécurité doivent être strictes. Le port du casque anti-bruit est indiqué. Les signaux forts sont accompagnés d’une signalisation lumineuse. 2.2.2.8. Conclusion Dans le cadre de la fonction d’alerte, l’audition a une place privilégiée avec la vision. La réponse fait appel au même effecteur que la fonction de communication, c’est-à-dire aux effecteurs moteurs, pieds et mains, mais aussi au larynx et à ses résonateurs : « au feu ! », « sauve qui peut ! », « attention ! ». 46 37273_Monographie_N45.Nais_vie_m46 46 18/09/08 14:39:41 2.2.3. L’audition dans le bruit L’audition puis la compréhension dans le bruit dépendent de nombreux facteurs, certes périphériques, mais dépendent aussi d’analyses très complexes au niveau des centres. Est considéré comme bruit, tout son perturbant l’audibilité ou la compréhension d’un signal, voix ou autre bruit. Penchons-nous sur les effets d’un stimulus sonore. 2.2.3.1. L’effet de masquage fréquentiel Le bruit est un phénomène complexe, périodique. En mathématiques, Fourier nous a appris que toute fonction périodique continue sur un intervalle peut se décomposer en une somme infinie de fonctions sinusoïdales dont les fréquences sont des multiples d’une fréquence de base dite « fondamentale ». fig. 7 fig. 8 fig. 7 : Phénomène périodique en fonction du temps fig. 8 : Décomposition en série de Fourier : la fonction représentée par la courbe verte, complexe mais périodique, est la somme des fonctions sinusoïdales représentées par les courbes rouge, bleue et jaune Comme le mathématicien, le système auditif périphérique est capable de décomposer un signal périodique complexe en série de Fourier. En effet, il se comporte comme un banc de filtres capables de trier et décomposer les sons complexes en signaux « élémentaires » avant de les transmettre aux structures centrales. Plus les filtres de l’oreille sont étroits en fréquence, plus la décomposition et l’analyse du phénomène périodique complexe sont fines et précises. On a constaté que la stimulation d’un filtre modifie la sensibilité des filtres adjacents (fig. 9) : c’est l’effet de masquage fréquentiel. d fig. 9 : La stimulation d’un filtre(«masquage») modifie la performance des filtres adjacents et altère le seuil de perception (courbe rouge) 47 37273_Monographie_N45.Nais_vie_m47 47 18/09/08 14:39:43 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie L’importance du masquage fréquentiel dépend de l’énergie du bruit de masquage mais aussi de sa fréquence, les fréquences graves ayant un pouvoir de masquage bien supérieur à celui des fréquences aiguës. On comprend ainsi que, chez le malentendant, l’élargissement des filtres augmente nettement l’effet de masquage fréquentiel et de manière prépondérante, sur les basses fréquences. 2.2.3.2. L’effet de masquage temporel Deux sons séparés d’un bref silence peuvent se masquer mutuellement, phénomène lié aux divers temps de réaction et de recouvrement du système auditif, de l’ordre de quelques millisecondes. Lorsque le son masquant précède le son masqué, on parlera de masquage de postériorité et inversement, d’effet de précédence. D fig. 10 : effet de masquage temporel 2.2.3.3. Le traitement du bruit par le système auditif Il est essentiellement binaural et nous nous proposons de l’expliciter. Plusieurs effets, délai inter-aural, atténuation en fonction de la distance, déphasage, masquage de la tête et effet du pavillon des oreilles permettent de présenter aux deux oreilles deux messages sonores non parfaitement égaux. C’est au travers de cette différence que l’individu sera capable de « démasquage binaural » permettant, entre autres la localisation et le regroupement des informations sonores en scènes auditives. Ensuite, la comparaison avec des situations antérieures mémorisées pour déboucher sur une conscience de la situation sonore, améliore la focalisation du cerveau sur le signal à discriminer. Le délai inter-aural : Interaural Time Différence (ITD) Lorsqu’un son est émis en dehors de l’axe frontal, il existe une petite différence de temps notée Δt dans la perception du début du son par les deux oreilles. 48 37273_Monographie_N45.Nais_vie_m48 48 18/09/08 14:39:45 ∂ fig. 11 : délai inter-aural La source est à gauche, le trajet est plus long pour atteindre l'oreille droite L’atténuation par la distance : Interaural Intensity Différence (IID) Un doublement de la distance diminue la puissance acoustique de 6 dB. ∂ fig. 12 : Atténuation de la puissance acoustique en fonction de la distance Notre système auditif est capable d’analyser l’atténuation de l’énergie en fonction de la distance et sa performance à le faire est d’autant plus grande que la source est proche. Le déphasage Lorsque le son n’est pas émis dans l’axe frontal, la phase du son parvenant aux deux oreilles n’est pas la même. Le déphasage est d’autant plus important que le son est aigu mais l’analyse par le système auditif ne se fait que pour les fréquences graves inférieures à 1 500 Hz. ∂ fig. 13 : déphasage interaural L’effet de masquage du fait de la tête. Pour les fréquences au-delà du 1 kHz, l’effet d’ombre de la tête est présent, jusqu’à -20 dB. Les fréquences graves « font le tour de la tête ». 49 37273_Monographie_N45.Nais_vie_m49 49 18/09/08 14:39:49 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie fig. 14 : effet de masquage dû à la présence de la tête d L’effet pavillonaire et azimut du signal La conque a pour effet de réfléchir et ainsi concentrer les sons vers l’entrée du conduit auditif. En fonction de l’azimut et de la fréquence, il y a apparition d’interférences constructives (sons en phase) ou destructives (en opposition de phase). D fig. 15 : différences des intensités entre le son mesuré en champ libre et celui mesuré à l’entrée du conduit auditif en fonction de la fréquence ou de l’azimut. Santon (1996) a mesuré en champ libre l’intelligibilité de la parole (azimut 0°) en fonction de l’azimut du bruit de 0 à 180°. L’émergence est maximum et à peu près stable entre 60° et 120° avec une amélioration du rapport S/B de 10 dB. 2.2.3.4. L’audition dans le bruit par démasquage binaural Le délai inter-aural, l’atténuation en fonction de la distance, le déphasage, le masquage de la tête et l’effet du pavillon des oreilles « construisent », avec le temps et l’apprentissage, les capacités de 50 37273_Monographie_N45.Nais_vie_m50 50 18/09/08 14:39:52 localisation et de latéralisation d’un sujet avec, bien évidemment, participation de la mémoire et des références visuelles. Les effets décrits ci-dessus induisant des différences non négligeables de perception des sons entre les deux oreilles, l’analyse binaurale réduit les effets de masque fréquentiel et temporel. De plus, lorsque le bruit présente des fluctuations de niveau, le cerveau est capable de puiser de l’information dans les creux ou « vallées » de masquage pour compenser le manque d’informations durant les périodes où le rapport S/B est trop défavorable (dip listening). Le démasquage binaural se traduit par l’abaissement du seuil masqué en monaural par rapport à l’audition binaurale. Il aboutit à une amélioration du rapport signal/bruit. Suivant la complexité de la situation sonore, l’amélioration du rapport S/B est de 3 à 15 dB. Tout prescripteur devrait essayer, au cours d’une soirée un peu bruyante, de se boucher une oreille, les yeux fermés, pour comparer ses possibilités de discrimination dans le bruit. Il n’y aurait plus jamais de prescription d’appareillage monaural quand il est possible de faire un appareillage stéréophonique ! Pour ajouter au texte s’il en était besoin, les résultats d’expérimentations rapportées ci-après sont particulièrement explicites. ∂ fig. 16: perception monaurale et binaurale d’un signal dans le bruit A : un signal (vert) et un bruit (rouge) sont présentés à un sujet au casque côté droit. Le signal est inaudible. B : On ajoute du côté gauche uniquement le bruit (le même qu'à droite), le signal devient audible. voir nouveau schéma page suivante Î 51 37273_Monographie_N45.Nais_vie_m51 51 18/09/08 14:39:58 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie ∂ fig. 17 : effets de divers déphasages sur la perception d’un signal dans le bruit. Signal bruit toujours identiques dans l'OD Un signal (vert) et un bruit (rouge) sont présentés à un sujet au casque. A : le signal et le bruit sont identiques à droite et à gauche, le signal est inaudible. B : on déphase le signal de ∏ (pi) radians uniquement dans l'OG, il devient audible. C : on déphase le signal de ∏ (pi) radians uniquement dans l'OG, il devient audible. D : on déphase le signal de ∏ (pi) radians uniquement dans l'OG, il devient inaudible. fig. 18 : effets de l’azimut sur la perception du signal dans le bruit. Î Déphasage p g de l'azimut, le signal g devient audible 52 37273_Monographie_N45.Nais_vie_m52 52 18/09/08 14:40:00 2.2.3.5. L’écoute dans les « vallées » : dip listening Pour un normo entendant, un bruit stationnaire produit un effet de masquage plus important qu’un bruit modulé en amplitude d’énergie identique. Le cerveau arrive à tirer parti des quelques instants de rapports signal/bruit plus favorable pour améliorer l’intelligibilité. Cela ne semble pas être le cas des malentendants. 2.2.3.6. L’analyse de scènes auditives D’une manière générale, le système auditif regroupe entre eux les sons présentant des similarités : -sons commençant au même instant, -sons provenant d’un même endroit, -harmoniques d’un son fondamental, important pour la voix. Cette capacité semble jouer un rôle important dans la possibilité de se « concentrer » sur un signal et en favoriser l’émergence. 2.2.3.7. Conséquences pour l’appareillage du malentendant L’atteinte cochléaire : -élargit les filtres de l’oreille d’où augmentation de l’effet de masque fréquentiel et diminution de la sélectivité fréquentielle, -augmente l’effet de précédence et allonge l’effet de masquage temporel, -induit une bande passante courte ou la présence de zones cochléaires mortes réduisant fortement la perception des harmoniques. Pour le patient appareillé : -dans le cas d’une mono-stéréophonie, appareillage d’une oreille déficiente en complément d’une oreille saine, le temps de traitement du signal des anciennes aides auditives induisait une modification du délai inter-aural. Pour les aides auditives récentes, le délai entre l’entrée du son par le microphone et la sortie par l’écouteur s’est réduit à quelques millisecondes, -le réglage de type WDRC, de plus en plus courant, consistant à augmenter le gain des sons les plus faibles, perturbe l’analyse de l’atténuation de l’intensité par la distance, -les différences de réglages entre les deux aides auditives, surtout si les deux aides ne sont pas exactement du même modèle, peuvent induire un déphasage supplémentaire nuisant à l’analyse des phases, -le positionnement d’un contour omnidirectionnel, 1 seul microphone, sur le dessus du pavillon de l’oreille réduit à néant l’effet pavillonaire pour la localisation, -l’équilibre stéréophonique est parfois délicat à restituer surtout sur les aides auditives « simplistes ». 53 37273_Monographie_N45.Nais_vie_m53 53 18/09/08 14:40:05 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie 54 37273_Monographie_N45.Nais_vie_m54 54 18/09/08 14:40:05 2.3. Ses rapports avec d’autres fonctions 2.3.1. Phonation, boucle audiophonatoire 2.3.1.1. La phonation La phonation est l’ensemble des mouvements qui contribuent à l’émission de la voix et du langage articulé. Si la voix ne se résume pas au larynx, à l’inverse, le larynx n’est pas que phonatoire. En effet, au cours de l’évolution, la fonction phonatoire du larynx est apparue bien plus tardivement que ses deux fonctions vitales premières que sont : - la respiration aérienne spontanée en maintenant ouverte la partie supérieure de la trachée, - la sécurité dans la déglutition en fermant l’arbre respiratoire lors de l’ingestion alimentaire. Les premières ébauches de larynx phonatoire s’observent chez les amphibiens, tandis que les oiseaux se dotent d’un syrinx placé au milieu de l’arbre respiratoire leur permettant une riche palette de sons modulés. On peut à ce propos noter que les oiseaux ont certes des capacités innées à chanter mais qu’il semble également exister chez eux un apprentissage vocal, les rendant capables d’imitation comme on l’observe par exemple chez les mainates. Le chant des oiseaux est communication à l’intérieur d’une espèce, le paysage sonore des chants d’oiseaux est spécifique d’une région, d’un pays. Chez les mammifères, apparaît une structure laryngée spécialisée pour porter les cordes vocales : le cartilage cricoïde. Les émissions sonores des mammifères marins ont été longuement étudiées et leurs fréquences, basses en particulier, leur permettent de signaler leur présence à des centaines de kilomètres. Mais c’est essentiellement la descente du larynx dans le cou, aménageant ainsi un bel espace supralaryngé, qui augmente la variété des configurations possibles des cavités situées entre le larynx et les lèvres donnant les possibilités d’émettre un langage articulé. Cependant, même chez les chimpanzés, au larynx anatomiquement presque humain, et élevés chez les hommes depuis la naissance, le stock de mots après plusieurs années d’effort n’est que de 3 ou 4 mots alors qu’ils sont capables d’utiliser un langage gestuel ou symbolique atteignant une centaine de signes. En fait, la différence fondamentale entre l’animal et l’homme ne réside pas dans le larynx mais dans les structures cérébrales : Aucun des primates étudiés n’a de centre de la vocalisation situé dans les aires corticales motrices. Il n’existe pas de centre de la vocalisation chez l’animal mais un ensemble de centres et de réseaux correspondants au comportement vocal selon une situation donnée. La communication acoustique semble être chez l’animal, hormis les oiseaux, un phénomène inné, avec un système « émetteur-récepteur » non volontaire, répondant à quatre grandes situations nécessaires à la survie de l’espèce : se nourrir, signaler l’ennemi, se reproduire et vivre en société. Chez l’animal, le contrôle auditif n’est pas nécessaire pour aboutir à ses émissions sonores. Seul parmi les primates, l’homme est capable d’avoir un contrôle volontaire de ses émissions vocales, de les apprendre par le contrôle audio-phonatoire. 55 37273_Monographie_N45.Nais_vie_m55 55 18/09/08 14:40:08 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie C’est sans doute l’homme de Cromagnon, un Homo Sapiens, qui est le premier à avoir présenté un langage articulé. En effet la station verticale établie depuis l’Homo Erectus redresse le cou, permet une mobilité verticale plus importante du larynx et l’éloigne du voile du palais par abaissement du larynx. Mais le plus important chez l’Homo Sapiens est l’évolution du cerveau : le crâne s’arrondit et le front se redresse pour développer un lobe frontal permettant d’émettre volontairement un langage articulé. Cette particularité, associée à l’augmentation de la taille de son cerveau, explique que parmi tous les phonèmes qu’il peut émettre l’homme en ait choisi et combiné certains pour arriver au langage. Celuici est un code que seuls peuvent partager les hommes d’un même groupe social parlant. Ceci explique que le contrôle auditif soit absolument nécessaire pour l’apprentissage autodidacte de la parole. 2.3.1.2. Caractéristiques de la phonation humaine La voix humaine est caractérisée par sa hauteur, son timbre et son intensité. L’intensité de la voix dépend de l’amplitude vibratoire des cordes vocales. La voix parlée est émise aux alentours de 45 à 65 dB, la voix chantée peut atteindre 90 dB voire 95 dB chez certains ténors d’opéra. La voix est un son périodique complexe dont la fréquence la plus basse est appelée fondamentale. La fréquence fondamentale donne la sensation de hauteur. Le fondamental usuel de la voix parlée, celui le plus souvent utilisé spontanément, est en moyenne chez l’homme de 110 Hz, chez la femme de 220 Hz et chez l’enfant de 300 à 400 Hz, alors que le cri du nouveau-né voit son fondamental culminer à 600 Hz. La voix humaine peut émettre dans le chant des sons entre 70 et 1 500 Hz : tout en bas de l’étendue, la basse des Vêpres de Rachmaninoff et tout en haut la soprano de la Reine de la nuit de la flûte enchantée de Mozart. L’étendue d’une voix concerne les possibilités extrêmes d’une voix dans les fréquences graves et dans les fréquences aiguës tandis que la tessiture désigne l’étendue où la voix est émise avec confort et qualité vocale. Le son complexe émis par le larynx génère aussi des harmoniques, multiples entiers de la fréquence fondamentale : elles donnent le timbre de la voix. Les harmoniques générées par le larynx sont modifiées par les résonateurs du conduit vocal qu’elles traversent. Certaines zones fréquentielles sont renforcées par le pharynx, de 250 à 500 Hz, et d’autres par la cavité buccale de 700 à 2 500 Hz. Un « formant » est une zone de renforcement fréquentiel caractéristique d’un résonateur. Les voyelles sont des sons émis par le larynx et qui sont modifiés par les 2 cavités pharyngée et buccale que délimitent pointe et base de langue. Une voyelle aura donc 2 formants dont les valeurs respectives la caractériseront. 56 37273_Monographie_N45.Nais_vie_m56 56 18/09/08 14:40:08 Les voyelles du Français sont à l’intérieur du triangle vocalique délimité par les voyelles dites « cardinales » A I O U. Les consonnes ne sont pas des sons périodiques mais des bruits dont le spectre sonore est essentiellement fait de fréquences aiguës, supérieures à 2000 Hz) : elles sont générées par la fermeture complète ou incomplète du conduit vocal interrompant l’écoulement de l’air phonatoire, « occlusives », ou le freinant, « constrictives ». 2.3.1.3. La boucle audiophonatoire Audition et phonation ont une relation privilégiée : on appelle boucle audiophonatoire la relation mutuelle particulièrement riche et adaptée qui existe entre l’audition et la phonation et D Schéma du triangle vocalique donc la production de la parole, vectrice du langage oral articulé. C’est une spécificité de l’espèce humaine. Bien parler suppose une audition correcte, la sensibilité de l’oreille normale n’est pas la même pour toutes les fréquences, elle est maximale pour les fréquences de la voix et de la parole humaine, voyelles et consonnes. On voudrait pouvoir dire que la fonction d’audition et la phonation sont faites l’une pour l’autre. D Schéma du champ auditif avec le champ de la parole au milieu 57 37273_Monographie_N45.Nais_vie_m57 57 18/09/08 14:40:11 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie En ce sens le contrôle audiophonatoire est le processus indispensable à l’établissement d’une communication purement orale. Les sourds-muets des siècles passés, avant que ne viennent les possibilités de réhabilitation de l’audition par les avancées technologiques, illustrent historiquement la nécessité d’entendre pour apprendre à parler de façon autodidacte. La boucle audiophonatoire se compose de : -la perception par la cochlée d’un son complexe périodique ou non, la parole en particulier, -la transmission au cerveau, par les nerfs, voies et centres auditifs sous corticaux d’une image du son, suivant ses caractéristiques fréquentielles, temporelles, de timbre et d’intensité, -un traitement central du signal le reconnaissant comme parole ou non parole et lui donnant un sens, -la mise en mouvement des organes phonateurs et des muscles responsables de la phonation et de l’émission de parole, de chant ou de bruit, -l’auto écoute et l’adaptation par essais et erreurs renforcée par l’encouragement du milieu. La boucle audio phonatoire interne est la capacité d’émettre sa voix et sa parole en s’écoutant par voie interne et externe. On s’entend soi-même de 2 manières : par sa propre oreille et de façon interne à travers son crâne. Le chemin parcouru par notre voix vers notre oreille nous sert à contrôler notre voix et notre parole. Il existe 2 types de boucle externe : celle qui va directement de la bouche à l’oreille et celle qui se réfléchit d’abord dans l’environnement avant d’atteindre l’oreille. Dans l’audition « interne » le son parvient à l’oreille interne non plus par voie aérienne mais en utilisant les structures vibratoires transmettant le son, muscles ligaments structures osseuses, jusqu’à la cochlée nichée dans son carter osseux. C’est ainsi que la perception de sa propre voix est un mélange de ces sensations auditives internes et externes. Cet autocontrôle est travaillé volontairement par le chanteur qui cherchera à adapter finement son émission vocale à ce qu’il entend et attend de sa voix. Le travail de la justesse, en particulier chez l’amusique qui entend juste mais chante faux consistera précisément à corriger progressivement son émission vocale en l’adaptant à l’autoécoute. L’utilisation de l’autoécoute « externe » par enregistrement est également intéressante. L’imitateur qui s’imprègne totalement des caractéristiques segmentales et suprasegmentales de la parole d’un autre, ainsi que de l’ensemble de ses attitudes et expressions, avant de la produire luimême est aussi une illustration particulière de cette boucle audiophonatoire. Le timbre et la hauteur de la voix des enfants sourds et même de certains adultes devenus sourds sont généralement perturbés. La première modification observée chez les enfants sourds profonds qui viennent de bénéficier d’un implant cochléaire est l’amélioration de la qualité vocale. De l’émission à la réception, de la réception au contrôle de l’émission, ce circuit fermé constitue la boucle audiophonatoire dont la rupture entrave l’acquisition, l’utilisation et la transmission aux générations suivantes de ce code linguistique oral fait d’un ensemble de sons doublement organisés et porteurs de sens. 58 37273_Monographie_N45.Nais_vie_m58 58 18/09/08 14:40:14 2.3.1.4. L’enfant Le développement du langage oral chez l’enfant impose que son système auditif soit intègre et que son système moteur se développe. Les travaux sur les perceptions précoces des bébés ont bien démontré que le bébé est très précocement capable de discriminer catégoriellement les composants de la parole mais aussi les traits suprasegmentaux ainsi d’ailleurs que les indices visuels de la parole. En outre les tests d’écoute dichotique montrent l’existence précoce d’une spécialisation hémisphérique gauche pour les sons de parole et droite pour les sons non verbaux. Mais la parole ne peut être encore son langage, pour parler il est nécessaire de coordonner de façon complexe les mouvements de la respiration, du larynx, du pharynx, du voile du palais, de la langue, des lèvres… Le nouveau né est inapte à la parole. L’enfant est, au sens étymologique du mot, « non parlant » (lat : in-fans : in privatif-fari parler). Le larynx du nouveau né est adapté aux nécessités de respiration et d’alimentation, il est placé de telle façon que le bébé peut respirer en tétant. Les modifications progressives du larynx du pharynx, du voile et de la langue, l’acquisition du contrôle du cycle respiratoire vont lui permettre de contrôler petit à petit la phonation. La descente du larynx dans le cou, avec la station debout vers 1 an à 18 mois, imitant le schéma phylogénétique, associée au contrôle progressif de l’articulation vont lui permettre de maîtriser d’abord les mouvements globaux puis les mouvements fins, le bout de la langue et les lèvres étant les derniers à être domptés, vers l’âge de 5 à 6 ans. Aux expressions vocales des premiers mois, traduisant bien-être ou malaise va succéder une période de vocalisations volontaires où le nourrisson exerce ses possibilités, il fait des gammes : la place du contrôle audio phonatoire interne est ici essentielle : chez ce grand compétent auditif l’exploration des possibilités que lui offre son appareil phonatoire renvoyées à son oreille est un véritable autoérotisme… Cependant, les interactions avec autrui, sa mère en particulier, lui permettent de régler sa voix sur celle de son interlocuteur et d’imiter les intonations. Il commence aussi à devenir conscient de l’impact de ses gazouillis sur autrui et à en user de façon sociale. C’est à cette période que les premières émissions laryngées de l’enfant né sourd cessent de s’enrichir. Vers 5 à 6 mois, si l’enfant vocalise avec une extraordinaire diversité de sons où tout est possible, son oreille par contre a commencé son travail de sélection et d’élimination : dans les signaux linguistiques de son entourage il a déjà repéré les caractéristiques prosodiques de sa langue maternelle, et il va maintenant perdre la discrimination de certains contrastes phonétiques, vocaliques puis consonantiques, et ne conserver que ceux de sa langue. Là encore, il n’est pas permis à l’enfant sourd de repérer ces signaux linguistiques ni de les traiter ensuite comme porteurs de sens. Ils ne peuvent entrer dans l’antichambre de la parole représentée par l’étape suivante, le babillage. Par contre il restera sensible à toute information linguistique non verbale notamment visuelle y compris la lecture labiale de même qu’aux signes d’une langue signée, associés aux expressions du visage. 59 37273_Monographie_N45.Nais_vie_m59 59 18/09/08 14:40:16 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie Le babillage marque une étape importante dans le développement de la parole : l’enfant commence à produire des répétitions de syllabes, la syllabe étant l’unité rythmique de base des langues naturelles. Toute langue est syllabique, s’analysant en termes de consonne et de voyelle, contraction et ouverture du tractus vocal reliées par une transition. La production de ces syllabes, vers 7 à 8 mois, n’est plus l’essai libre du bébé de 4 mois mais la maîtrise de la forme matérielle de la syllabe adulte. On a pendant longtemps minimisé l’influence du milieu linguistique sur le babillage alors que paradoxalement on découvrait les capacités perceptives du nourrisson, privilégiant les modèles biomécaniques où le bébé sélectionne les gestes fondant les structures de base de l’articulation des langues en général. Finalement, le rôle des interactions précoces avec mise en jeu de processus de sélection comme dans la perception a été mis en évidence. Il a été montré que le babillage avec ses intonations, sa prosodie, sa façon de vocaliser, d’attaquer les sons ou les relâcher était différent selon les caractéristiques de la langue parlée dans l’entourage (exemples : langue syllabique- Français-, langue accentuelle- Anglais, langue à ton-Mandarin…). On retrouve une parfaite adéquation entre la réorganisation de la perception et de la production, et là encore le rôle fondamental de la boucle audiophonatoire, comme unité fonctionnelle. Sur ce fond de plus en plus ressemblant à de la parole et sans solution de continuité nette, émergent les premières formes reconnues comme mots, « papa, maman »… On quitte la répétition pour le mot qui nomme, désigne, appelle. Les sélections sont dirigées vers un but, on sort de la phonétique, on entre dans le langage. 2.3.2. Langage et cognition La cognition regroupe les divers processus mentaux allant de l’analyse perceptive de l’environnement à la commande motrice, en passant par la mémorisation, le raisonnement, les émotions, le langage… La définition exacte de ce qu’est la cognition et des processus qu’elle met en jeu est l’objet de nombreux débats dans les sciences contemporaines, psychologie, intelligence artificielle, philosophie, etc.… À la suite de la Révolution cognitiviste, la perspective dominante depuis le milieu du XXe siècle regroupe sous le terme de cognition les fonctions dont est doté l’esprit humain et par lesquelles nous construisons une représentation opératoire de la réalité à partir de nos perceptions, susceptible en particulier de nourrir nos raisonnements et guider nos actions (Wikipedia). Le langage est la fonction cognitive la plus élaborée de l’être humain. À l’instar de Saussure, considéré comme le père de la linguistique moderne, il est essentiel de faire la distinction entre langage, langue et parole. Selon lui, le langage est la résultante de la parole et de la langue. Au sens large, le langage désigne tout un système de signes permettant la communication, au sens strict, c’est la faculté humaine de constituer et d’utiliser une langue, en d’autres termes de communiquer sa pensée. La langue est un système particulier de signes et de règles propre à une même communauté langagière ; elle est, de ce fait, institutionnelle. Elle se transmet et elle évolue. 60 37273_Monographie_N45.Nais_vie_m60 60 18/09/08 14:40:17 La parole désigne l’appropriation de la langue par le sujet parlant en fonction de son ressenti émotionnel. La parole est donc l’usage individuel la langue. Audition et langage Comme le chapitre précédent l’a montré l’audition est une fonction indispensable à l’acquisition « naturelle » d’une langue orale : le jeune enfant entendant est un autodidacte qui acquiert le langage oral spontanément par l’imprégnation et l’imitation du monde parlant dans lequel il vit. Il semble donc bien que, de façon innée, le nouveau-né humain puisse traiter l’environnement linguistique dans tous ses aspects. La prosodie est un élément important dans la première compréhension de la langue mais l’étape essentielle est la prise de conscience que les mots ont un sens : un changement radical se produit alors dans le traitement des sons avec la constitution du premier répertoire de mots : l’enfant n’est plus en quête innée d’indices phonétiques mais en quête des formes auxquelles il peut attribuer une signification et qu’il cherche à mémoriser. L’apprentissage autodidacte se met en place, les phénomènes de mémoire apparaissent, la perception est maintenant au service d’un but : extraire du sens. Alors que les nourrissons possèdent un dispositif sophistiqué de traitement phonétique reposant sur des mécanismes acoustico-phonétiques de type analytique, la représentation des premiers mots est globale. C’est généralement vers la première année que l’enfant acquiert cette aptitude, en même temps qu’il acquiert la station debout et qu’il est face au monde et face à l’autre. Le rôle de l’audition dans le développement ultérieur du langage, compréhension et expression est majeur : par essais et erreurs, par ses interactions avec son entourage, l’enfant teste ses capacités langagières d’agir sur le monde qui l’entoure, raisonne et élabore sa pensée. Avec le « Je », vers 3 ans, il prend conscience de son identité propre et de sa situation de locuteur dans la communication. À cet âge apparaissent aussi les questions lui permettant de nommer et s’approprier le monde qui l’entoure. Le langage et les capacités cognitives vont ensuite se développer de façon quasi exponentielle. À cet âge également ses capacités motrices et notamment manuelles s’affinent avec installation progressive de la dominance manuelle. Le test dichotique pratiqué chez l’enfant montre que l’avantage de l’oreille droite chez le droitier se met en place entre 3 et 6 ans, traduisant l’installation de la dominance cérébrale gauche pour le langage. Le cerveau auditif sous l’influence capitale des stimulations cochléaires achèvera sa maturation vers 4 à 6 ans. Cette période est appelée sensible ou critique, la cochlée jouant à ce moment-là un rôle majeur dans le développement du cerveau en particulier linguistique. C’est dans cette période que l’enfant doit être « exposé » à une langue. L’accès à une langue signée répond d’ailleurs aux mêmes exigences mais avec d’autres entrées sensorielles. Si l’aptitude au langage semble bien un caractère inné, l’acquisition de la langue ne dépend que de l’environnement linguistique – et bien sûr affectif - comme l’ont bien démontré les cas d’enfants sauvages (Kaspar Hauser et Victor de l’Aveyron, sans langage oral- ni gestuel- L’instinct du langage ne s’exprime qu’en présence des autres membres du groupe, parlant pour une langue orale ou signant pour une langue gestuelle. 61 37273_Monographie_N45.Nais_vie_m61 61 18/09/08 14:40:19 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie L’enfant sourd en particulier prélingual n’a accès ni à la première étape de perception acousticophonétique avec son tri sélectif des phonèmes de la langue maternelle, ni à l’étape linguistique où les formes sonores prennent sens. La parole de son entourage, de sa mère lui parlant ne prend sens que par la vision des expressions du visage, du mouvement des lèvres, du regard mais sans doute aussi par tous les affects qui se transmettent en même temps. En l’absence de prise en charge, la voix de l’enfant sourd se détériore et le langage oral n’apparaît pas. Actuellement, les réhabilitations auditives efficaces et précoces associées à une éducation spécifique étendue à l’entourage familial permettent l’éclosion du langage oral beaucoup plus aisément que par le passé où l’accès à une langue orale était, pour l’enfant sourd profond, une véritable conquête. Si l’enfant sourd est né de parents sourds signant c’est la langue signée qui va se transmettre de façon autodidacte, en dehors de l’audition et de la boucle audiophonatoire. Les études en neuroimagerie ont mis en évidence que la langue des signes apprise précocement induit le recrutement des aires corticales classiquement activées chez les sujets entendants. En l’absence d’afférences sensorielles auditivoverbales la carte corticale des aires auditives se modifie, devenant réceptive à des stimuli d’autres modalités sensorielles. L’audition est une fonction corticalisée inséparable du langage oral y compris les fonctions cognitives. Elle est soumise à la plasticité cérébrale qui consiste en la capacité d’adaptation et de transformation de notre système nerveux central face à des modifications internes de croissance ou externes de pathologies. 2.3.3. Avec la fonction d’équilibration Poissons, il nous fallait, pour survivre, utiliser des informations capables de renseigner sur les caractères du vecteur gravité en un point donné, ainsi que de permettre la perception des mouvements d’eau à notre voisinage immédiat : aussi, un simple tube ouvert sur le milieu aquatique, bordé de quelques cellules ciliées va-t-il suffire pendant de nombreuses années à assurer la nécessaire fonction « d’équilibration ». Peu à peu, le tubule, en se refermant sur lui-même, aboutit à une cavité, remplie d’un peu d’eau de mer, liquide baptisé beaucoup plus tard « endolymphe ». Ce labyrinthe membraneux est situé à l’intérieur d’une enceinte fermée, la capsule otique, de nature cartilagineuse chez les vertébrés inférieurs, constituant l’écrin de l’organe sensoriel proprement dit. Entre les deux cavités, existe un tissu conjonctif gorgé de « périlymphe ». Ainsi protégé du monde extérieur, l’ensemble est devenu plus sensible et plus précis dans l’analyse des informations gravitationnelles : le labyrinthe est né. Ce labyrinthe peu à peu se différencie : -d’un point de vue géométrique, devenant complexe et tortueux, -d’un point de vue sensoriel, les récepteurs se spécialisent. Puis survient notre débarquement sur terre : il impose de nouvelles structures capables de percevoir d’autres vibrations propagées dans le fluide aérien. 62 37273_Monographie_N45.Nais_vie_m62 62 18/09/08 14:40:20 La lagaena qui ne constituait jusque-là qu’un modeste diverticule situé sur les côtés du labyrinthe s’allonge chez les reptibles et mérite dès lors le nom de cochlée. Puis elle s’enroule en hélice jusqu’à réaliser deux tours trois quarts chez l’homme, prenant alors le nom de limaçon. Dans le même temps, cavité tympanique et système tympano-ossiculaire voient le jour, assurant une transmission énergétique à excellent rendement. On constate donc que cochlée et vestibule forment un remarquable couple qui partage : -le même domicile, -la même constitution à des stades de différenciation près, -la même fonction, à des différences fréquentielles près. On peut donc aisément deviner qu’en clinique humaine, les pathologies de l’un des partenaires seront ou, à tout le moins, retentiront sur celles de l’autre. Le clinicien le sait parfaitement lorsqu’il traite une maladie de Menière, un phénomène de Tullio, une fistule labyrinthique, certaines pathologies malformatives ou encore dysimmunitaires. Ailleurs, la relation paraît plus lointaine : surdité brusque, presbyacousie… Tout trouble de l’audition, a fortiori s’il est brutal et unilatéral, entraîne de façon au moins passagère un trouble de la perception de l’espace, donc de l’équilibration. La réciproque est plus difficile à mettre en évidence : la neuronite qui oblige le malade vomissant à garder le lit faute de ne pouvoir tenir debout se caractérise par une audition réputée normale… En réalité, la profonde différence entre cochlée et vestibule réside à l’heure actuelle dans nos capacités à les explorer : audiométries, recueils des potentiels évoqués auditifs, enregistrement des otoémissions, sont tout autant d’examens capables de quantifier le fonctionnement cochléaire avec finesse, reproductibilité et analyse dans une bande de fréquence physiologique. Il en va tout autrement de l’exploration de l’organe de l’équilibration qui n’en est qu’aux balbutiements d’une analyse fréquentielle incomplète mais combien prometteuse. Il n’est d’ailleurs pas encore dans l’habitude des praticiens de réaliser systématiquement l’étude du fonctionnement labyrinthique devant toute atteinte cochléaire : combien d’examens vidéonystagmographiques sont-ils proposés à nos malentendants ? Ce n’est qu’au prix de ces études que les relations entre organe de l’équilibration et d’audition seront mieux connues, qualifiées et donc traitées. 2.3.4. Avec les fonctions de lecture et d’écriture Lecture et écriture L’apprentissage de la lecture et de l’écriture suppose l’intégrité anatomique et fonctionnelle d’un ensemble de structures interconnectées et de fonctions : vision, audition, cognition et langage. Les apprentissages demandent que le langage oral ait eu un développement harmonieux ainsi que la cognition, les habiletés motrices. Ce sont des aires cérébrales qui fondent l’étude des lettres et leur assemblage. Le code écrit est un système de conventions graphiques auxquelles sont associées des réalités de sens et de signification. La lecture est un ensemble de procédures de déchiffrage ou de décodage, 63 37273_Monographie_N45.Nais_vie_m63 63 18/09/08 14:40:22 Monographie naissance vie et mort de l'oreille chapitre 02 Sa vie d’identification et de compréhension des mots écrits. La lecture part de la découverte des lettres de l’alphabet et des représentations graphiques. L’objet de la lecture porte sur les catégories linguistiques, lettres, syllabes, mots, phrases, textes et les sens. Rappels pathologiques - un enfant peut lire un texte et ne pas en comprendre le sens ; - une surdité chez l'enfant entraîne une perturbation dans l’acquisition de la lecture. Toute “dyslexie” demande un examen audiométrique complet comme tout retard scolaire. ECRITURE Graphie • Phonie • Sens Vision Rédaction Dictée Mécanismes cognitifs : mémoire, attention, éveil Message oral : articulation, rythme, durée Centres du langage : Expression, compréhension Environnement sonore : rapport S/B Situation psychologique Audition Centres moteurs et sensitifs Mécanismes cognitifs : mémoire, attention, éveil La main Centres du langage : Expression, compréhension Texte Situation psychologique Centres moteurs et sensitifs La main Vision Texte 64 37273_Monographie_N45.Nais_vie_m64 64 18/09/08 14:40:23 LECTURE Lettres, graphèmes • Sens, signifiant• Sens, signifié Lecture silencieuse Lecture à haute voix Texte lu Texte lu Vision Vision Centres du langage Centres du langage Cognition : mémoire, attention, éveil Cognition : mémoire, attention, éveil Compréhension Etat psychologique Compréhension Phonation Etat psychologique Expression Audition Boucle audiophonatoire Expression Parole, articulation, rythme, durée Environnement Sonore Rapport S/B 65 37273_Monographie_N45.Nais_vie_m65 65 18/09/08 14:40:26 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie 66 37273_Monographie_N45.Nais_vie_m66 66 18/09/08 14:40:26 2.4. SON EXPLORATION 2.4.1. Clinique Comme tout examen clinique, celui du patient normo ou malentendant répond à l’incontournable démarche suivante : d’abord interrogatoire, puis examen clinique de l’oreille, examen local et régional par l’observation, le palper, voire l’auscultation. Enfin, le praticien examinera le patient dans son ensemble. L’interrogatoire du patient Il a pour but de faire sa connaissance et de qualifier sa relation avec l’environnement sonore au cours de sa vie : âge, profession, et quelques réponses aux questions concernant ses habitudes de vie procurent très rapidement les renseignements recherchés. La présence du conjoint et/ou d’un proche permet de compléter parfois de façon surprenante les réponses données par le patient, particulièrement chez le malentendant masculin ! L’interrogatoire visant à qualifier la maladie On demandera successivement : - la date d’apparition des troubles de l’audition car si le malade la situe parfaitement dans le temps, il doit pouvoir aussi retrouver l’élément qui les a déclenchés, et le praticien peut l’y aider, - le caractère uni ou bilatéral de l’atteinte, caractère si puissant pour énoncer le diagnostic, mais parfois encore absent des dossiers médicaux, - l’existence de signes associés : acouphènes, troubles de l’équilibration, manifestations dans le territoire cervico-facial, troubles de la coordination, - l’évolution du syndrome dans le temps, en insistant sur son caractère épisodique, fluctuant, permanent, lentement progressif ou autre, - le retentissement de l’atteinte aux trois niveaux : familial, social et professionnel. Ces renseignements sont indispensables tout autant pour progresser vers le diagnostic que pour décider de la proposition thérapeutique. L’examen clinique Le praticien commence par observer la démarche du patient, lorsqu’il vient s’asseoir au fauteuil, à la recherche d’une asymétrie, d’une déviation, d’une désynchronisation, tous signes qui feraient évoquer un trouble de l’équilibration ou une atteinte centrale, et rendre nécessaire alors un examen plus précis à la recherche de signes vestibulaires spontanés ou provoqués. Au moment où le patient prend place, l’observation de la face recherche un éventuel syndrome malformatif : emplacement et forme des pavillons, en particulier… Dès que le malade s’est assis, avant de mettre en route le bruyant ventilateur du miroir de Clarr, le praticien ORL réalise l’acoumétrie au diapason : - diapason d’abord placé au milieu du vertex, la vibration doit être perçue de façon symétrique, - diapason placé sur la racine du nez, voire si nécessaire sur la ligne interincisive, ou encore sur le genou, 67 37273_Monographie_N45.Nais_vie_m67 67 18/09/08 14:40:29 Monographie chapitre - naissance vie et mort de l'oreille 02 Sa vie diapason présenté alternativement à l’oreille droite puis gauche à la recherche d’une asymétrie, diapason présenté à l’oreille en conduction aérienne, puis à la fin de la perception en conduction osseuse. Au terme de cette analyse, de nombreux atouts sont déjà en main de l’ORL pour évoquer le diagnostic puisqu’il sait déjà si l’audition est symétrique ou non et qu’il a déjà grossièrement classé l’atteinte, si elle existe, en surdité de transmission ou de perception. Ces arguments sont forts pour donner toute sa puissance ou au contraire mettre en doute les résultats de la future audiométrie. En même temps que le diapason vibre, la prise du pouls au niveau du poignet est facile et « payante » si une arythmie est dépistée. Vient alors l’heure d’examiner l’oreille : muni du miroir de Clarr, le praticien observe le pavillon, la région rétroauriculaire en soulevant celui-ci, ainsi que toute la région périauriculaire. L’aspect de la conque et de l’entrée du méat acoustique externe est également bien observé avant la mise en place d’un otoscope adapté. Cet otoscope est alors enfoncé lentement afin d’analyser au cours du mouvement l’aspect du conduit. On découvre enfin le fond du conduit et la membrane tympanique, puis on observe au travers de la membrane les caractères de la caisse. On peut, à ce moment-là, compléter l’examen par une mobilisation à l’otoscope de Sigle. Toute anormalité repérée à cette otoscopie indiquera un examen sous microscope et/ou sous endoscope. L’auscultation de la région, obligatoire en cas d’acouphènes unilatéraux et, qui plus est, pulsatiles, apporte d’excellentes informations. Le fonctionnement des paires crâniennes est rapidement évalué et dans un ordre logique : d’abord celui du VIII vestibulaire, puis du nerf facial, du nerf trijumeau des nerfs mixtes et des oculomoteurs. L’olfaction et la vision sont également rapidement évaluées. La classique épreuve « doigt-nez », l’épreuve des marionnettes, la mobilisation passive des membres supérieurs recherchent un trouble cérébelleux ou des grandes voies. Muni d’un miroir, le praticien examine alors la cavité oropharyngée, puis le cavum en visualisant en particulier les deux trompes d’Eustache et fossettes de Rosenmüller. La cavité pharyngolaryngée est observée et palpée éventuellement. On termine l’examen par celui des fosses nasales en rhinoscopie antérieure, suivie d’un palper du cou. L’examen général plus complet est requis si le praticien craint l’existence d’une maladie plus générale, en particulier examen du revêtement cutané plus largement et/ou palper des autres aires ganglionnaires. Demande d’examens complémentaires Au terme de l’interrogatoire et de l’examen clinique ainsi mené, le praticien a bien souvent un diagnostic, si ce n’est de certitude du moins fortement évoqué. C’est en fonction de lui qu’il orientera la demande d’examens complémentaires. En premier lieu et systématiquement les audiométries tonales et vocales, plus ou moins associées à la 68 37273_Monographie_N45.Nais_vie_m68 68 18/09/08 14:40:29 recherche des réflexes stapédiens, la recherche du réflexe stapédien au bruit blanc, la pratique d’un test de Stenger, l’audiométrie en champs libre… 2.4.2. Explorations audiométriques Audiométrie comportementale Définition L’observation des réactions comportementales du sujet à des stimulations sonores est, historiquement, la première de toutes les méthodes d’exploration de l’audition. Aujourd’hui, l’usage désigne sous le terme “d’audiométrie comportementale” l’audiométrie tonale liminaire du très jeune enfant, codifiée dans les années 60 (PSB-ROC). On emploie plus volontiers le terme “acoumétrie” lorsque l’on se réfère à l’évaluation subjective de l’audition d’un sujet au moyen de la voix ou d’objets sonores présentés à différentes intensités, mais sans quantification précise. Zones anatomiques étudiées Les réactions que peut manifester l’enfant sont fonction de ses aptitudes sensorielles auditives, mais elles dépendent de l’état de ses capacités motrices, qui évoluent avec son âge, de sa vigilance, de sa situation psychologique et somatique : l’intégralité de l’individu entre en ligne de compte, et pas seulement la qualité de son audition. Matériel utilisé On utilise un audiomètre conventionnel avec haut-parleur, casque ou vibrateur, en cabine. On peut aussi utiliser les sons de la voix ou d’objets sonores calibrés, en champ libre, pour approcher plus grossièrement les seuils. L‘audiométrie comportementale peut être réalisée avec les aides auditives d’un enfant déjà appareillé. Méthodes L’observation attentive du comportement de l’enfant permet de décider du moment opportun pour déclencher la stimulation. On cherche alors à identifier des réactions involontaires, clignement, sursaut, modifications de la tétée ou de la respiration…, seules possibles chez le nourrisson, puis volontaires, investigation, orientation oculaire, céphalique, sourire…, que l’on renforcera peu à peu : conditionnement ludique, avec des jeux d’encastrement par exemple. L’utilisation du vibrateur permet de déclencher des réactions auditives, mais aussi vibratoires à forte intensité dans les graves, utiles pour amorcer un conditionnement chez l’enfant sourd profond. Résultats L’audiométrie comportementale permet d’établir chez l’enfant une courbe osseuse et une courbe aérienne précises, ceci dès l’âge de quelques mois, d’abord en champ libre, puis une courbe aérienne oreille séparées, et de mesurer le gain prothétique. 69 37273_Monographie_N45.Nais_vie_m69 69 18/09/08 14:40:31 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie Applications cliniques en 2008 L’audiométrie comportementale est le seul procédé fiable permettant d’évaluer complètement les seuils auditifs chez l’enfant. Elle est nécessaire pour orienter les réglages prothétiques. Son intérêt pratique croît aujourd’hui, à mesure que le dépistage auditif néonatal amène les enfants malentendants à pouvoir bénéficier d’une prise en charge très précoce. Audiométrie tonale Définition L’audiométrie tonale est la détermination des seuils auditifs avec des sons purs de fréquence déterminée. Usuellement, l’audiométrie tonale liminaire cherche le seuil d’audibilité. L’audiométrie tonale supra-liminaire est réalisée en pratique audioprothétique, et s’attache essentiellement à déterminer les niveaux de confort et d’inconfort auditif. Zones anatomiques étudiées L’appareil auditif entier est étudié, principalement de l’oreille au cortex auditif primaire. La qualité des réponses obtenues dépend toujours de la coopération obtenue de la part du sujet testé. Matériel utilisé L’examen se déroule dans une pièce insonorisée ou une cabine d’audiométrie. La stimulation sonore, étalonnée en fréquence et en intensité, est délivrée par un audiomètre, au travers d’un transducteur de sortie. L’audition est testée par voie aérienne (CA), oreille par oreille avec les écouteurs d’un casque, en champ libre avec un haut-parleur, ce qui permet également de tester un sujet qui porte son aide auditive et d’en évaluer le gain, et en conduction osseuse (CO) avec un vibrateur appliqué contre la mastoïde. Le stimulus sonore est discontinu ou modulé, pour faciliter sa détection à faible intensité. Le sujet testé indique à l’examinateur quand il a entendu le son, et de quel côté. Méthodes Pour chaque oreille et chaque fréquence, le seuil en conductions aérienne et osseuse est déterminé par approximations successives, en variant l’intensité du stimulus en fonction des réponses du sujet testé. L’oreille non testée peut déclencher des réponses par transfert trans-crânien du stimulus. Ce transfert existe dès 55 à 60 dB HL en CA et dès 5 dB en CO : un son masquant doit être présenté dans l’oreille non testée pour éviter ce phénomène. La réalisation d’un masquage approprié est cruciale pour 70 37273_Monographie_N45.Nais_vie_m70 70 18/09/08 14:40:32 éviter les erreurs en audiométrie tonale, tout particulièrement dans les cas de surdité de transmission, et les surdités unilatérales ou très asymétriques. Résultats L’audiogramme tonal est la représentation graphique des seuils mesurés. Le degré d’élévation des seuils quantifie la surdité. L’écart entre les seuils obtenus en CO et en CA témoigne d’une atteinte auditive de conduction (surdité de transmission), l’élévation identique des seuils en CO et CA d’une atteinte neurosensorielle (surdité de perception). Applications cliniques en 2008 L’audiométrie tonale est l’examen de base de l’audition, indispensable à la démarche diagnostique et thérapeutique pour quasiment toute pathologie de l’oreille, mais également dans de nombreuses autres situations cliniques : troubles de l’équilibre, paralysie faciale, etc. Audiométrie Vocale Définition L’audiométrie vocale évalue la capacité du sujet à reconnaître des sons ou des mots d’une langue parlée. Zones anatomiques étudiées L’ensemble de l’appareil auditif périphérique et central intervient, mais l’importance des phénomènes centraux de l’audition est plus grande qu’en audiométrie tonale. Le stock de vocabulaire, l’attention et les aptitudes mentales jouent également. Matériel utilisé L’audiométrie vocale utilise des sons vocaux présentés principalement au casque ou en champ libre, dans le silence, avec ou sans aide auditive, avec ou sans lecture labiale, et ceci à différentes intensités. Dans un souci de reproductibilité, on a recours à des listes de sons ou de mots standardisées : par exemple celles de Lafon, de Fournier, de Boorsma. Chez l’enfant non encore en âge de répéter les mots entendus, des images à désigner telles que celles du Père Castor peuvent être utilisées. Méthodes Les sons vocaux sont présentés par séries, à différentes intensités, oreille par oreille au casque ou en champ libre. L’examinateur comptabilise les réponses, notées en % (100 % = aucune erreur). 71 37273_Monographie_N45.Nais_vie_m71 71 18/09/08 14:40:36 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie Résultats L’audiogramme vocal est un graphique où les pourcentages d’intelligibilité sont figurés en ordonnées, et les intensités en abscisse. Le seuil audiométrique tonal doit être concordant avec le seuil d’intelligibilité vocale. Une courbe d’intelligibilité vocale progressant à faible pente et/ou n’atteignant pas 100 %, voire se dégradant à forte intensité, témoigne de phénomènes de distorsion d’origine périphérique, recrutement cochléaire par exemple, ou centrale. Applications cliniques en 2008 L’audiométrie vocale est nécessaire, presqu’au même titre que la tonale, avant toute prise en charge d’un patient pour une atteinte auditive. Elle est indispensable à la juste évaluation des résultats d’un appareillage auditif, au même titre que l’audiométrie vocale dans le bruit, qui se rapproche encore plus des conditions d’écoute naturelles. Impédancemétrie Définition Soumis à une pression acoustique, l’oreille moyenne et le système tympano-ossiculaire réfléchissent une partie de l’énergie délivrée, et absorbent le reste. Le ratio entre ces fractions réfléchies et absorbées dépend de plusieurs paramètres tels la fréquence du son, la masse et la rigidité du système tympanoossiculaire… Pour une fréquence sonore donnée, ce ratio dépend principalement de la rigidité de l’oreille moyenne : plus cette dernière est grande, plus la quantité de son réfléchi, fonction de l’impédance, est importante. Les bases de l’impédancemétrie ont été découvertes dans la première moitié du XXe siècle. Zones anatomiques étudiées La tympanométrie étudie l’impédance de l’oreille moyenne, à tympan fermé. L’étude du réflexe stapédien apprécie l’arc réflexe constitué par l’oreille interne ipsi ou contro-latérale, les relais nerveux du tronc cérébral, le nerf facial, le muscle de l’étrier et la chaîne homolatéraux. Matériel utilisé L’impédancemètre comporte une sonde à trois canaux, insérée dans le méat auditif externe. L’un est relié à une source sonore d’intensité et de fréquence (tonale de sonde) constantes. Le second est relié à un microphone qui mesure l’impédance par 72 37273_Monographie_N45.Nais_vie_m72 72 18/09/08 14:40:37 la quantité de son réfléchi dans le CAE. Le dernier est relié à une pompe et un manomètre, qui permettent de faire varier la pression dans le CAE. Un écouteur sur l’oreille opposée ou un transducteur dans la sonde permettent la stimulation sonore pour l’étude du réflexe stapédien. Méthodes La tympanométrie mesure l’impédance, la « quantité de son » réfléchie par le tympan fermé, en fonction de la pression administrée dans le CAE : lorsque celle-ci égale la pression dans l’oreille moyenne, l’impédance atteint sa valeur minimale. Pour chercher le réflexe stapédien, une fois l’impédance minimale obtenue, on stimule une oreille par un son fort. La contraction du muscle rigidifie le système tympano-ossiculaire, déclenchant une élévation de l’impédance parallèle à la durée du stimulus. Résultats Le tympanogramme présente les variations de l’impédance ou plus volontiers de son inverse, la compliance, en fonction de la pression du CAE. La courbe normale est de type A, pic centré sur la pression atmosphérique. Une dépression dans l’oreille moyenne se traduit par un pic décalé vers les pressions négatives (type C), un épanchement liquidien par une courbe plate (type B). Le seuil d’obtention du réflexe stapédien par stimulation d’une oreille est comparé au seuil audiométrique de cette même oreille. Il renseigne sur la dynamique auditive, et peut par exemple témoigner d’un recrutement s’il en est anormalement rapproché. Applications cliniques en 2008 Tympanométrie et étude du réflexe stapédien sont des examens de base, indispensables au suivi des otites moyennes chroniques, au bilan des troubles de l’audition, ainsi que des paralysies faciales. Enregistrement des potentiels évoqués auditifs (PEA) Définition C’est l’étude des réponses électriques des voies auditives, obtenues après stimulation sonore. Sa découverte date de la fin des années 60. Zones anatomiques étudiées Toutes les voies auditives, depuis la cochlée jusqu’au cortex peuvent être étudiées. Seule leur portion initiale, de la cochlée au tronc cérébral, est d’étude courante en pratique clinique, par la recherche des potentiels évoqués auditifs du tronc cérébral (PEATC). Matériel utilisé L’examen se déroule dans le calme ou en cabine, sur un sujet détendu ou endormi. Le repos musculaire complet est indispensable. Le stimulus sonore et l’éventuel masquage controlatéral sont délivrés au casque, ou par des écouteurs insérés dans le CAE. L’activité EEG est recueillie par des électrodes de sur- 73 37273_Monographie_N45.Nais_vie_m73 73 18/09/08 14:40:41 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie face, vertex et mastoïdes, pendant 15 à 20 ms après le stimulus. En dépistage auditif néonatal, un appareil simplifié et automatisé délivre un stimulus présumé supraliminaire, 35 à 40 dB HL, et détecte au moyen d’algorithmes de calcul la présence d’une réponse PEA, délivrant une réponse binaire “pass”, réponse détectée, ou “refer”. Méthodes Le stimulus sonore, d’intensité calibrée, est un clic ou un tone-burst, très bref par rapport aux temps de réponse nerveuse, environ 0,1 ms. Plusieurs centaines de réponses moyennées sont nécessaires pour extraire la réponse PEATC. Chaque côté est testé à différentes intensités jusqu’à la disparition de la réponse, la dernière intensité donnant lieu à une réponse identifiable est le seuil PEA. Résultats À forte intensité, 5 pics sont visibles. À mesure de l’affaiblissement du stimulus, leur amplitude décroît et leur latence d’apparition augmente. Au voisinage du seuil, il ne persiste que l’onde V sous la forme d’une déflexion négative à environ 9 ms. Avec un stimulus par des clics, le seuil PEA est corrélé au seuil tonal dans les fréquences 2 à 4 kHz. L’écart de latence inter-pics, I-III, I-V et III-V, témoigne de la localisation d’un éventuel trouble de conduction nerveuse. Un décalage global des latences de tous les pics peut être normal chez le nourrisson, ou témoigner d’un trouble auditif transmissionnel. Applications cliniques en 2008 Les PEATC conventionnels complètent le bilan audiométrique tonal et vocal. Ils sont indispensables dès qu’il existe une discordance entre différents examens, tout comme dans l’évaluation initiale d’une suspicion de surdité du nourrisson. Dans la pratique du dépistage auditif néonatal en maternité, les PEA automatisés sont le complément idéal des oto-émissions. Ils sont le test de choix 74 37273_Monographie_N45.Nais_vie_m74 74 18/09/08 14:40:41 pour les grands prématurés, et les bébés hospitalisés en unités de soins intensifs. (voir graphique page suivante) Enregistrement des oto-émissions Définition Connues depuis la fin des années 70, les otoémissions acoustiques (OEA) sont des sons produits par l’activité contractile des cellules ciliées externes de la cochlée. Il peut y avoir des oto-émissions spontanées. La pratique clinique étudie surtout les OEA provoquées (OEAP) par un stimulus sonore (clic), et les produits de distorsion (PDA) provoqués par la stimulation avec une paire de sons purs. Zones anatomiques étudiées Les cellules ciliées externes sont le générateur des OEA. Leur recueil nécessite que l’oreille externe et l’oreille moyenne soient indemnes de toute pathologie. Matériel utilisé L’examen nécessite un local silencieux. L’appareil comporte une sonde à deux ou trois canaux introduite de façon étanche dans le CAE. Un canal envoie le son stimulant (deux pour l’étude des PDA), calibré pour être d’intensité moyenne, un autre recueille les sons dans le CAE par un microphone. Méthodes L’identification des OEAP est faite après moyennage d’une série de séquences de stimulation-acquisition, sur des critères de reproductibilité temporelle et/ou fréquentielle de la réponse obtenue sur un écran graphique. Des appareils automatisés permettent d’identifier cette reproductibilité par calcul : ils délivrent une réponse binaire “Pass”, OEAP présente, ou “refer”, pas de conclusion. La présence des PDA est détectée par l’apparition de réponses sonores à des fréquences précises, différentes de celles des sons stimulants mais liées à celles-ci, la plus ample correspond à 2xf1-f2. Par variation de f1 et f2, différentes zones de la cochlée peuvent être explorées séparément. Résultats Sous réserve de l’intégrité fonctionnelle des cellules ciliées internes, la présence d’une OEA est très 75 37273_Monographie_N45.Nais_vie_m75 75 18/09/08 14:40:47 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie fortement corrélée à l’existence de seuils auditifs meilleurs que 30 dB HL sur au moins une partie des médium-aigus. La non-détection d’une OEA n’a, en revanche, aucune valeur si elle est considérée isolément. Applications cliniques en 2008 L’application principale des OEA est le dépistage auditif néonatal en maternité, en raison de la rapidité de leur recherche avec les appareils automatisés actuels, du faible coût de l’examen, et de la très grande rareté des surdités néonatales à OEA conservées. À tout âge, la recherche des OEA complète le bilan des troubles de l’audition en confortant, si elle est concluante, une suspicion de surdité rétro-cochléaire voire de simulation, conjointement avec les seuils aux PEATC. 76 37273_Monographie_N45.Nais_vie_m76 76 18/09/08 14:40:48 ASSR Définition “Auditory Steady-State Response” (ASSR) peut se traduire approximativement par “PEA en régime stationnaire”. C’est une technique récente, début des années 2000, dérivée des PEA, qui consiste à faire apparaître au sein de l’activité électro-encéphalographique une composante de fréquence déterminée, au moyen de la stimulation auditive par un son pur audible, modulé à cette même fréquence, entre 40 et 100 Hz. Zones anatomiques étudiées Le générateur de l’activité ASSR est cérébral, sa localisation reste imparfaitement déterminée et n’est probablement pas unique. L’activité ASSR suscitée par de basses fréquences de modulation, vers 40 Hz, disparaît durant le sommeil (générateur cortical ?), alors qu’elle persiste aux fréquences plus élevées, de 80 à 100 Hz, suggérant une origine plus basse sur les voies auditives. L’organe auditif périphérique intervient, dans la mesure où il est nécessaire que le son stimulant modulé soit entendu pour pouvoir obtenir une réponse. Matériel utilisé Le matériel nécessaire dérive de celui qui est utilisé en PEATC. L’appareil permet de délivrer un stimulus sonore continu, sinusoïdal, aux différentes fréquences et intensités, c’est la “porteuse” qui sera entendue, modulée en fréquence et/ou en amplitude entre 40 et 100 Hz. La réponse EEG est obtenue par des électrodes de surface, et traduite dans le domaine des fréquences par une transformation de Fourier. 77 37273_Monographie_N45.Nais_vie_m77 77 18/09/08 14:40:51 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie Méthodes L’existence d’une réponse ASSR est déterminée par calcul. L’EEG obtenu est étudié à la fréquence de la sinusoïde modulante. La “raie spectrale” observée doit présenter une stabilité en amplitude et/ou une corrélation de sa phase, période de l’onde, qui soient suffisamment corrélées à celle de la sinusoïde modulante pour être statistiquement significatives. Le seuil ASSR, à une fréquence audible donnée, est la plus petite intensité du stimulus permettant d’obtenir une réponse ASSR. Résultats L’obtention d’une réponse ASSR signifie nécessairement que le son stimulant, la porteuse, a été entendu au travers de l’oreille testée. En revanche, le seuil audiométrique réel est meilleur que le seuil ASSR. Seules des abaques, établies par comparaison des deux méthodes, permettent une extrapolation des seuils audiométriques probables à partir des seuils ASSR : il s’agit d’un audiogramme “estimé”, d’autant plus proche de la réalité que les mesures réalisées ont été nombreuses. Applications cliniques en 2008 La technique des ASSR permet d’estimer les seuils auditifs de manière objective à toutes les fréquences, y compris dans les médiums-graves qui ne sont pas accessibles aux PEA usuels. Cet examen offre donc une perspective très intéressante pour compléter les données du PEA, notamment chez le jeune enfant. Les limites tiennent à sa durée, plus de 30 à 45 minutes s’il est complet, et à la fréquente nécessité d’une sédation ou d’une anesthésie générale. Audiométrie vocale dans le bruit (AVB) Pourquoi ? Qu’il s’agisse d’un malentendant appareillé ou non, la gêne la plus souvent exprimée réside en la compréhension de la parole en milieu bruyant. Selon Stock, en 1997, 87 % de 800 malentendants interrogés se plaignaient d’une mauvaise compréhension dans le bruit malgré leurs aides auditives. Aujourd’hui, même si les performances des appareils ont bien progressé dans certaines situations sonores, la simple observation clinique laisse penser que l’on obtiendrait toujours un résultat quasi similaire, ceci d’autant plus que l’attente des patients en termes de performance est, de jour en jour, plus importante. En utilisant les listes cochléaires de J.-C. Lafon de façon courante en champ libre, à voix nue et sans lecture labiale, de nombreux malentendants présentent d’excellents scores à ces tests vocaux dans le calme alors que l’audiogramme tonal prédisait une non-perception des traits caractéristiques de certains phonèmes. Par exemple sur des presbyacousies un peu anciennes, on remarque souvent une bonne conservation de la compréhension des [s] et [f] émis par une voix normale, alors que l’audiogramme tonal est sous le niveau des 60 dB HL au-delà du 3 000 Hz. La participation à la compréhension des transitions phonétiques pour identifier la consonne non audible semble évidente. Mais en champ libre, l’émission concomitante d’un bruit quel qu’il soit, perturbe immédiatement le malentendant ce qui se traduit par une augmentation du délai de réponse, une tendance à vouloir 78 37273_Monographie_N45.Nais_vie_m78 78 18/09/08 14:40:53 relever la tête pour regarder les lèvres et bien sûr, une augmentation significative du nombre de fautes. Avec Smooremburg en 1992 on en conclut que « la capacité à comprendre une conversation en milieu bruyant ne peut se déduire des tests d’audiométrie tonale et vocale réalisés en milieu calme », d’où l’intérêt de réaliser une audiométrie en milieu bruyant. Intérêt Audiométrie vocale dans le bruit sans appareil. Puisque le patient se plaint principalement de difficultés de compréhension dans le bruit, il paraît indispensable pour le patient et son entourage, de les objectiver, même si les pertes mesurées en audiométrie tonale ou vocale restent faibles. On peut alors faire preuve d’humilité, ne faisant pas de promesses que l’on ne pourra pas tenir… Enfin, les résultats des tests permettront de guider le choix de l’audioprothésiste vers des techniques plus élaborées améliorant le rapport Signal/Bruit. Audiométrie vocale dans le bruit avec appareils. Son intérêt est là encore évident, pour : -Évaluer le réel potentiel du patient, dans son milieu sonore, et éviter les remarques du style « vous me réglez mes aides auditives dans le calme de votre cabine insonorisée, mais dès que je sors de chez vous, rien ne va plus », -comparer les effets des différents réglages en situation naturelle : changement des constantes de temps des compressions, activation d’un système directionnel, variation de la compréhension en fonction de l’incidence du signal, activation d’un « débruiteur », -valider l’intérêt d’un réglage multi programmes, -justifier un choix prothétique, -montrer l’avantage de l’appareillage stéréophonique, -objectiver l’apport d’un système CROS, BAHA, WIFI ou lunettes. Caractéristiques du bruit utilisé Pour qu’il soit représentatif des conditions sonores réelles, le bruit doit être proche du spectre à long terme de la parole, bruit décrit comme étant le plus perturbateur pour les patients. Selon Lehmann (1 969), « le masquage maximum apparaît dès que l’on mélange 4 voix ». À défaut, on pourra utiliser un bruit rose dont le spectre se rapproche le plus possible de spectre à long terme de la voix, (voir schéma page suivante). Le bruit doit être discontinu, pour refléter la réalité, mais écrêté afin qu’un éventuel éclat de voix ne vienne fausser le test. Un bruit continu serait trop facilement reconnu par les débruiteurs des aides auditives alors qu’un bruit discontinu permet au patient ayant de bonnes capacités d’aller chercher de l’information dans les creux d’énergie, écoute dans les vallées, dip listening (Fullgrabbe, Berthommier et Lorenzi 2004). Pour une utilisation correcte en champ libre, le bruit devra être distinct du signal pour que le processus 79 37273_Monographie_N45.Nais_vie_m79 79 18/09/08 14:40:56 Monographie naissance vie et mort de l'oreille chapitre 02 Sa vie ∂ Spectre à long terme de l'OVG (trait foncé) et du bruit rose (trait clair). de comparaison inter auriculaire, différences d’intensité, de temps et de phase, et les sommations binaurales puissent s’effectuer. Il est fréquent d’utiliser le bruit crée par Dodelé, baptisé « OVG », Onde Vocale Globale. Technique Listes de mots On utilise les listes cochléaires de JC Lafon ou les listes de logatomes de Dodelé, sans oublier les consignes particulières devant être données lorsqu’il s’agit de faire répéter des mots sans signification. Casque ou champ libre Idéalement l’audiométrie vocale dans le bruit se pratique en champ libre et en stéréophonie. Au casque, signal et bruit sont présentés par le même transducteur, situation rencontrée dans la réalité uniquement pour la télévision. En champ libre, plus proche des situations réelles, le patient peut faire intervenir ses capacités de localisation et de sommation binaurale. Les conditions de test, d’étalonnage et de passation sont normées. ❐ =Comme de référence chez le normo entendant (N=51) ❍= Exemple de représentation graphique d'un test AVB chez un malentendant. d 80 37273_Monographie_N45.Nais_vie_m80 80 18/09/08 14:40:56 L’audiométrie vocale dans le bruit « automatique » de Dodelé, disponible dans le CD « Le VocaList », permet un test rapide sans audiomètre. Avec un lecteur CD, on règle le niveau du volume sur la liste d’entraînement pour un niveau vocal confortable, puis les listes s’enchaînent suivant le principe ci-dessous. Protocole de résistance au bruit d’ELBAZ ∂ Résultat du test chez un bien entendant et chez un malentendant (résistance de 15 dB et de 10 dB respectivement. Audivox de Jocelyne Wable Test de phrases, listes de phrases qui ont la particularité d’avoir été statistiquement équilibrées sur une population de sujets malentendants. ∂ Le principe de cette mesure psychométrique est d'augmenter la difficulté à chaque fois qu'une phrase est correctement répétée et de la diminuer dans le cas contraire. Il présente l'avantage de donner une valeur de RSB précise pour chaque condition de test, rendant facile la comparaison. 81 37273_Monographie_N45.Nais_vie_m81 81 18/09/08 14:41:00 Monographie chapitre naissance vie et mort de l'oreille 02 Sa vie Résultats Pour l’ORL, l’AVB est un outil important dans l’analyse et la quantification réelle de la gêne sociale du patient. Un patient porteur d’une perte, a priori trop faible pour l’appareillage, mais d’une dégradation rapide de l’intelligibilité dans le bruit, socialement gênante, pourrait, après avoir éliminé des causes rétro cochléaires, être justiciable d’une prescription d’audioprothèses. Pour les pertes plus importantes, où l’appareillage s’impose de lui-même, l’apport principal de l’AVB, oreilles nues, réside dans l’analyse prédictive des problèmes que pourra rencontrer le patient. Une dégradation trop rapide de l’intelligibilité avec le bruit doit rendre prudent, non pas dans la prescription précoce de l’appareillage, mais dans les perspectives de résultats : « un patient prévenu n’est pas un patient déçu ». Comme on le verra plus loin dans le chapitre « aides auditives et bruits », l’optimisation d’un réglage devrait se faire pour chaque situation sonore particulière rencontrée, même si cette pratique est encore illusoire. Dans les petites pertes, alors que le patient est satisfait et porte systématiquement son appareillage, il n’est pas toujours évident de mesurer qualitativement l’amélioration dans le calme par une audiométrie dans le silence. L’AVB comparative, à situation sonore identique entre oreilles nues et oreilles appareillées, permet de valider les apports en compréhension des aides auditives. On peut encore, grâce à l’AVB confirmer ou infirmer au mieux les options de réglages possibles dans une aide auditive et comparer objectivement différents traitements de signal ou différentes aides auditives. Dans la pratique, si l’AVB n’est pas souvent utilisée, les tests en milieux bruyants sont courants. Grâce à la carte son des ordinateurs et de plusieurs haut-parleurs, il est possible de créer, assez fidèlement, les situations sonores les plus courantes. Des logiciels comme Amplifit objectivent les difficultés du patient et affinent l’orientation prothétique. En cours d’appareillage, les comparaisons immédiates entre différents réglages, sur une simple conversation, permettent de trouver un bon compromis en fonction des capacités résiduelles du patient et des possibilités technologiques toujours plus performantes. 82 37273_Monographie_N45.Nais_vie_m82 82 18/09/08 14:41:01 Monographie chapitre 03 naissance vie et mort de l'oreille son déclin : la presbyacousie 3 - SON DECLIN : LA PRESBYACOUSIE 3.1. Support physiopathogénique 3.1.1. Altérations anatomo-histologiques 3.1.1.1. Les antécédents L a sénescence intervient souvent sur une oreille « pathologique ». L’oreille en effet a pu subir au cours de l’enfance ou à l’âge adulte des affections qui ont lésé la cochlée. Il faudrait alors citer toutes les causes qui conduisent à une hypoacousie de perception bilatérale portant sur les fréquences aiguës. Au premier rang des étiologies subies possibles : le traumatisme sonore. Il touche les adolescents et adultes jeunes adeptes des discothèques et des concerts dits « Pop ». Il est la cause des surdités professionnelles lorsque les mesures de prévention ont été insuffisantes. Il est l’apanage des chasseurs. C’est la cause la plus fréquente. Selon l’importance de l’exposition, la perte auditive sur l’audiogramme intéresse les fréquences aiguës jusqu’à la fréquence 2000 incluse. La perte est en général bilatérale et symétrique. La pente de la courbe d’intelligibilité s’est accentuée et le 100 % jamais atteint. La gêne auditive dans le bruit est fréquemment invoquée ainsi que l’existence d’acouphènes. Les autres étiologies sont moins fréquentes, qu’il s’agisse d’une surdité de perception après un traumatisme crânien, unilatérale ou bilatérale dans le cas d’un traumatisme occipital. Les surdités ototoxiques (oxyde de carbone, antibiotique ototoxique, quinine) sont plus rares car l’utilisation de certains antibiotiques ou la quinine a profité des mesures de prévention. L’intoxication par l’oxyde de carbone est peu fréquente. L’alcool, le tabac, à plus forte raison associés, entraînent une fragilité cochléaire et même des atteintes auditives prédominant sur les aigus. Les investigations au cours de l’enfance, de l’adolescence ou dans le cadre de la médecine du travail, lorsque le traumatisme sonore est soupçonné, commencent par la recherche des oto-émissions acoustiques provoquées dont le résultat positif précède la perte audiométrique et la modification de la courbe d’intelligibilité. Existe-t-il une sensibilité particulière de certaines oreilles ? La question est posée. Il n’existe pas de démonstration scientifique. L’exploration du système efférent devrait un jour apporter un éclairage. 3.1.1.2. Zones mortes cochléaires Introduction Depuis les années 1980, les différents étages de traitement des vibrations sonores qui permettent le fonctionnement du système auditif périphérique ont été bien identifiés. Une fois assurée la transmission optimale du son à travers l’oreille moyenne puis le long de la membrane basilaire, un prétraitement des vibrations est effectué par les cellules ciliées externes de l’organe de Corti (CCE). Ce prétraitement 83 37273_Monographie_N45.Nais_vie_m83 83 18/09/08 14:41:04 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie inclut une amplification mécanique sélective en fréquences, ce qui aboutit à un filtrage, mais aussi à une compression. La tâche suivante est confiée aux cellules ciliées internes (CCI) qui effectuent la transduction des messages sonores à destination des neurones du nerf auditif. Les messages, supposés bien triés grâce au prétraitement, sont alors véhiculés jusqu’aux centres cérébraux sous forme de potentiels d’action. Une CCI sert de point de départ à une dizaine de neurones afférents. Les CCI ne contribuent pas directement à l’analyse des sons en leurs composantes fréquentielles à chacune desquelles une amplitude doit être affectée. De ce point de vue, on ne leur attribue guère qu’un rôle de fidèle transmetteur, la tâche dévolue à un opérateur Morse, en quelque sorte ; il ne faut cependant pas oublier les études récentes de la synapse dite à ruban entre CCI et neurones auditifs. Elles montrent la difficulté et la subtilité de cette tâche en termes moléculaires, probablement en relation avec les exigences temporelles inhérentes aux messages acoustiques. Encore faut-il que ce travail soit effectué : en cas de lésion des CCI ou de leurs neurones afférents sous-jacents, on se retrouve dans la situation particulière qui fait l’objet de ce chapitre, celle où il existe une zone morte cochléaire (ZMC). Dans ce cas, bien que prétraités correctement, certains messages disparaissent complètement du flux d’informations auditives remontant aux centres auditifs. La problématique de pointe qu’est la régénération des cellules sensorielles est abordée ailleurs, mais en l’état actuel du savoir-faire, une zone morte reste irréversiblement morte. La conséquence fonctionnelle de cette mort est qu’aucune réhabilitation n’est possible autrement qu’en allant, s’il reste des neurones, les stimuler directement de manière électrique, par un implant cochléaire. La perte totale d’afférences a une autre traduction possible. Les modèles actuels qui visent à expliquer le phénomène parfois extrêmement mal vécu des acouphènes supposent que cette sensation aberrante s’amorce lorsque quelque part dans le système auditif, des afférences ne parviennent plus là où elles devraient parvenir. On est donc tenté d’associer la présence de ZMC et celle d’acouphènes, même si pour qu’un acouphène émerge et devienne gênant, d’autres conditions semblent requises, faisant par exemple intervenir des circuits neuronaux liés aux émotions. Traduction audiométrique, et donc diagnostic d’une ZMC Le diagnostic définitif d’une zone morte cochléaire est avant tout histologique, l’existence des ZMC a donc longtemps échappé à l’attention des audiométristes. Ceci en raison du phénomène psychoacoustique dit d’écoute hors fréquence. Le cerveau obéit à la loi du moindre effort, nous en sommes tous les témoins et acteurs permanents. En provenance d’une cochlée normale (fig.1), les neurones qui répondent les premiers lorsqu’on présente un son pur de niveau proche du seuil de détection sont ceux connectés aux CCI à l’endroit où la vibration mécanique est maximum, c’est-à-dire là où les CCE sont entrées en résonance : c’est la tonotopie (flèche rouge, fig.1, haut). Le cerveau écoute donc le son et en détermine certaines caractéristiques de base, a priori, par les canaux neuraux qui répondent le mieux. Cependant, très souvent, d’autres canaux neuraux sont également recrutés (fig.1, bas, courbes de réponse neuronales en rouge), ne serait-ce que parce que la réponse à un son pur s’étale le long de la membrane basilaire lorsque le niveau acoustique augmente, de part et d’autre de la zone de membrane qui a pour fréquence de résonance celle du son pur. 84 37273_Monographie_N45.Nais_vie_m84 84 18/09/08 14:41:06 ∂ fig. 1 Membrane basilaire, neurones auditifs (symbolisés par leurs courbes d’accord) et réponses à un son pur de faible et de fort niveau respectivement (diagrammes du haut et du bas). L’enveloppe de la stimulation est représentée en noir, en dessous de chaque diagramme. Lorsque la stimulation est assez intense, elle empiète dans la zone de réponse d’un neurone et ce dernier répond (courbes d’accord en rouge). Même quand la stimulation devient plus intense et s’étale, les neurones qui répondent le plus restent ceux correspondant à la fréquence du stimulus (rouge plus gras). Mais dans une cochlée contenant une ZMC délimitée, les CCI et / ou les neurones de l’endroit correspondant sont morts, et malgré l’action amplificatrice des CCE aucun message ne parvient au cerveau de cette région ci. Il se peut en effet que les CCE soient intactes ou peu affectées par le processus pathologique qui a tué leurs partenaires habituelles : on connaît des agents pathogènes sélectifs qui ciblent les CCE, ou les CCI. Supposons que les régions voisines de la ZMC contiennent des CCI et neurones fonctionnels (fig.2) ; comme sur la fig.1, les neurones présents ont des courbes d’accord profondes et fines. Supposons qu’elles subissent une vibration d’amplitude suffisante pour que les détecteurs atteignent le seuil au-dessus duquel une réponse est déclenchée (fig.1, bas). ∂ fig.2 : En présence d’un ZMC où les neurones sont soit détruits soit non connectés, les stimulations de faible niveau ne font plus répondre de neurone (il y a élévation de seuil). Les stimulations plus intenses font répondre les neurones de zones voisines de la ZMC, qui permettent l’écoute hors fréquence. 85 37273_Monographie_N45.Nais_vie_m85 85 18/09/08 14:41:09 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie Il faut que le niveau sonore soit élevé car le son test est accordé à la ZMC, pas aux zones voisines. Comme celles-ci ne résonnent pas à la fréquence du son test, les CCI présentes à ces endroits nécessitent une stimulation plus forte (fig.2, haut : pour une stimulation de faible niveau, aucun des neurones présents n’est excité) : il y aura bien quelque chose d’anormal quand l’audiométriste va mesurer un seuil de réponse, ce dernier sera forcément élevé. Une fois la stimulation suffisante, les neurones issus de ces régions voisines vivantes vont envoyer un message au cerveau (fig.2, bas, flèches rouges), et le sujet va donner une réponse à l’audiométrie tonale, mais grâce au phénomène d’écoute hors fréquence (analogue au phénomène de courbe fantôme, mais ici on est en ipsilatéral). L’envoi des messages hors fréquences existait, bien sûr, avant que la ZMC ne soit morte. Si on avait pu effectuer préalablement l’expérience de tester le même sujet à l’époque où il était encore normo-entendant, celui-ci aurait commencé à détecter le son test dès l’envoi de potentiels d’action par la future zone morte, et lorsque le niveau du son test aurait continué à augmenter, les zones voisines seraient entrées en action à leur tour, mais le sujet n’y aurait pas prêté attention. En fait, la réponse hors fréquence manifeste bel et bien des caractères anormaux. Les neurones de la région répondeuse ne répondent pas par la pointe de leur courbe d’accord, mais par la queue de celleci. La perte de sensibilité qui en résulte est de l’ordre de 40 à 60 dB (fig.2, bas : 40 à 60 dB est la profondeur des pointes des courbes d’accord neuronales). Si la zone codant pour une fréquence audiométrique est morte, on obtient quand même des seuils fantômes élevés de 60 dB en provenance des régions voisines si elles sont restées parfaitement fonctionnelles. Si toutefois ces zones hors fréquence ne sont pas parfaitement fonctionnelles, le seuil fantôme sera supérieur à 60 dB. En cas de détection hors fréquence, la sensation de hauteur est vraisemblablement faussée, mais au voisinage du seuil de détection, cette sensation est très imprécise et le sujet peut ne pas avoir conscience d’une écoute hors fréquence. On peut plutôt soupçonner une écoute hors fréquence et donc un audiogramme fantôme en présence d’une ZMC lorsque l’on détecte une transition brutale entre une zone audiométriquement presque normale et une zone voisine ou les seuils plongent brutalement, de plus de 40 à 60 dB ; de même que l’on doit soupçonner une courbe audiométrique fantôme lorsqu’il existe plus de 40-50 dB de différence entre une oreille testée et l’oreille controlatérale saine et que l’on a omis d’effectuer un masquage de la bonne oreille. Dans le cas des zones mortes, le masquage est impossible avec la technique habituelle tout au moins, la situation audiométrique est donc plus difficile à détecter. Existence de ZMC Le concept audiométrique de ZMC n’a d’intérêt que parce que les ZMC existent et ne sont pas rares, même si elles passent inaperçues à l’audiométrie tonale pratiquée de manière trop peu réfléchie. Dans quelles circonstances? Un certain nombre d’atteintes spécifiques des CCI ont été documentées. Certaines sont d’origine médicamenteuse et ont servi de modèle reproductible pour déterminer la contribution des CCI et des CCE à des signaux collectifs comme les différentes composantes de l’électrocochléogramme. Parmi les sels de platine utilisés comme antimitotiques, le cisplatine présente une toxicité prédominante pour les CCE, mais le carboplatine atteint préférentiellement les CCI. 86 37273_Monographie_N45.Nais_vie_m86 86 18/09/08 14:41:10 De manière moins classique, il a été montré que le bruit présenté dans certaines conditions, chez certaines espèces animales, entraîne des lésions spécifiques des CCI en épargnant complètement les CCE. Ainsi des travaux de l’équipe de Borg (fig.3), utilisant le lapin comme modèle, ont établi l’action différentielle des bruits continus et impulsifs sur les CCE et les CCI. D fig.3 : Borg et Engstrom ont montré que chez le lapin, certains sons forts entraînent des lésions sélectives, éventuellement extensives des CCI alors que les CCE restent intactes (diagramme du haut). En bas : cas d’un patient suivi de longue date en Suède pour exposition chronique au bruit, avec un audiogramme à forte pente. Après son décès, les cochlées ont pu être préparées pour microscopie électronique, montrant des pertes importantes de CCI et non de CCE. Ce patient avait certainement des ZMC au dessus de 3 kHz. Notre équipe a pu obtenir des résultats évoquant cette possibilité chez l’homme. Parmi un groupe de 40 professionnels environ, exposés au bruit et suivis régulièrement en médecine du travail, nous avions pu identifier chez plus du quart des sujets des encoches audiométriques (souvent profondes et à bord abrupts), et pourtant des otoémissions (recherchées par la méthode des produits de distorsion qui permet une analyse fréquence par fréquence des CCE de la cochlée) strictement normales à l’intérieur de l’intervalle correspondant à leur encoche audiométrique (fig.4 page suivante), alors que la fig.5 montre le profil classique associé à des surdités dues au bruit impliquant les CCE : audiogramme et DP-gramme coïncident). 87 37273_Monographie_N45.Nais_vie_m87 87 18/09/08 14:41:13 Monographie chapitre fig. 4 naissance vie et mort de l'oreille 03 son déclin : la presbyacousie fig. 5 D fig.4 : audiogramme tonal (courbe en noir, traits gras) et PDA gramme (en produits de distorsion acoustique) d’un sujet professionnellement exposé au bruit. La bande normative des PDA est marquée en orange. Les PDA de cette oreille s’y trouvent et sont donc normaux. La surdité de ce sujet n’est donc pas due aux CCE qui produisent des PDA normaux, mais aux CCI et / ou aux neurones. fig.5 : Mêmes conventions que la fig.4. Cette fois, l’audiogramme et le PDA gramme sont superposables, nettement anormaux, on peut attribuer la surdité à une atteinte des CCE, et non des CCI. Cette configuration est observée le plus souvent, au contraire de celle de la fig.4 qui est moins classique (mais observée dans 1 cas sur 4 de la cohorte d’Avan et Bonfils, 2000). Enfin, des travaux récents de Kujawa et Liberman sur la souris exposée au bruit pendant une courte période durant son jeune âge mettent en évidence un effet réversible de cette exposition précoce sur les CCE, initialement atteintes, mais dans les suites lointaines, plusieurs dizaines de semaines, une dégénérescence hautement significative et spécifique des neurones du ganglion spiral, amorce possible d’une ZMC. Bases fonctionnelles pour une détection précise d’une ZMC La preuve directe de l’existence d’une zone morte étant histologique, il est nécessaire de développer des preuves indirectes, qui devant un audiogramme tonal suspect, permettent de mettre en avant l’hypothèse d’une ZMC. Ces preuves visent à faire apparaître l’existence d’une écoute hors fréquence, et sont basées sur le tracé de courbes d’accord psychophysiques. Le raisonnement est le suivant. Examinons tout d’abord ce qui permet de tracer une courbe d’accord psychophysique. Dans une cochlée aux CCI normales, on présente le son pur qui sert de test légèrement au-dessus de son seuil de détection, à la fréquence f0 d’intérêt. La première consigne est de repérer ce son test, ce qui est aisé. On mélange alors à ce son pur un son interférant (ou masquant, simultané ou proactif selon le protocole choisi) de niveau L et de fréquence fm différant plus ou moins de f0. On recherche pour chaque fréquence fm le plus petit niveau Lm rendant le son test indétectable. La courbe traçant Lm en fonction de fm est la courbe d’accord psychophysique, qui présente une forme de V centré sur f0, asymétrique ouvert vers les basses fréquences, et ressemblant à une courbe d’accord physiologique de neurone unitaire, dont elle constitue une sorte de reflet. Logiquement, les courbes d’accord sont centrées sur f0 car c’est à la fréquence centrale du filtre codant pour f0 qu’un son masquant est le plus efficace. Dans une cochlée présentant une surdité à f0 mais pas 88 37273_Monographie_N45.Nais_vie_m88 88 18/09/08 14:41:14 de zone morte, le seuil à f0 est bien sûr élevé et la courbe d’accord psychophysique est de forme anormale, en général avec un V trop ouvert traduisant l’élargissement des filtres cochléaires qui va souvent de pair avec la surdité de perception, mais bien que la pointe de cette courbe soit émoussée, et le V élargi, la pointe reste centrée sur f0. Mais dans le cas piège d’une cochlée pour laquelle f0 correspond à une zone morte, le son test est entendu, en fait hors fréquence, par l’intermédiaire des neurones du premier filtre au niveau duquel la réponse mécanique est d’amplitude suffisante pour franchir le seuil, et signaler ainsi la présence du son test. Ces neurones ne codent pas pour f0 mais pour une autre fréquence f1 voisine pour laquelle la cochlée présente une bonne sensibilité. Ceci est trahi par le fait que le son masquant le plus efficace pour empêcher le son test à la fréquence f0 d’être perçu est à la fréquence f1. La pointe du V de la courbe d’accord psychophysique est alors centrée ailleurs qu’à la fréquence f0 testée (fig.6, diagramme de gauche, courbe d’accord la plus à droite. Le cercle noir marque la position du son test à 1,5 kHz à 80 dB SPL, mais la courbe d’accord correspondante présente sa pointe – son minimum- autour de 65 dB SPL à 1 kHz). D fig.6 : TEN test de Moore. A gauche, les courbes d’accord de masquage psychophysiques d’un sujet testé à 3 fréquences (sons tests repérés en fréquence et en intensité par les symboles fermés). Une fréquence (1,5 kHz) est associée à une courbe d’accord excentrée qui signe l’existence d’une écoute hors fréquence. A droite : audiogrammes (en dB SPL) en présence de TEN de niveaux croissants. Le décalage de l’audiogramme aux fréquences > 1 kHz est anormal et signe la présence d’une ZMC. 89 37273_Monographie_N45.Nais_vie_m89 89 18/09/08 14:41:18 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie L’existence de ce phénomène de courbe d’accord psychophysique excentrée est connue depuis longtemps (fig.7, d’après Florentine et Houtsma, 1983), mais sa mise en application clinique est très difficile, et en pratique encore utopique, car l’obtention de courbes d’accord de masquage psychophysiques est très longue. D fig.7 : courbes d’accord de masquage psychophysiques d’après Florentine et Houtsma (1983). Celle de gauche est normale, celle de droite décalée suite à la présence d’une ZMC. Sur ces diagrammes, l’audiogramme tonal est en dB SPL (courbes noires en bas). Les sons tests qui servent à la construction des courbes d’accord sont repérés en fréquence et en intensité par des symboles fermés. Plus rapide, le TEN test de Moore Une solution permettant d’effectuer la localisation de ZMC par une méthode approchée beaucoup plus rapide que celle des courbes d’accord de masquage psychophysiques a été mise au point il y a quelques années seulement par Brian Moore et son laboratoire, la méthode du TEN test, TEN étant l’acronyme pour threshold equalising noise. La mise à disposition de ce test a permis à des études cliniques d’être réalisées et a donc relancé l’intérêt pour les ZMC. Le TEN test consiste à utiliser comme bruit masquant un bruit de large bande fixe (dont seul le niveau varie au cours du test), et non plus comme pour les courbes d’accord, un son masquant dont on balaie la fréquence au sein d’un large intervalle. Le test utilise comme point de départ l’audiogramme tonal. On suppose se trouver dans une configuration type qui fait soupçonner l’existence d’une ZMC, c’est-à-dire un audiogramme avec forte pente et zone de transition étroite entre des seuils relativement peu élevés et des seuils élevés. On ajoute alors un TEN à un niveau donné aux sons tests qui servent à réaliser l’audiogramme tonal : ceci présuppose simplement l’utilisation d’un audiomètre à deux canaux « mélangeables ». Comme son nom l’indique, 90 37273_Monographie_N45.Nais_vie_m90 90 18/09/08 14:41:20 un TEN est conçu pour entraîner, normalement, c’est à dire en l’absence d’écoute hors fréquence, une élévation uniforme des seuils de tous les sons purs de niveau inférieur au niveau de TEN. En revanche, un son pur de niveau supérieur n’est normalement pas masquable. Le résultat normalement obtenu lors d’un TEN test est, en présence du TEN, une élévation uniforme de tous les seuils inférieurs au niveau du TEN, chaque seuil masqué se hissant juste au niveau du TEN, et des seuils inchangés dans les zones sourdes, celles où pour être audible, le son test doit être ajusté à un niveau bien plus élevé que celui du TEN. Le résultat en présence d’une ZMC diffère en ce que les seuils mesurés dans la ZMC (ce sont donc des résultats fantômes) sont affectés en présence de TEN, alors que ce TEN a un niveau bien inférieur. La raison en est que l’écoute fantôme survient hors fréquence en faisant intervenir des neurones qui eux, répondent de manière sensible pour les sons de la partie sensible de l’audiogramme. Pour ces régions, le seuil auditif est inférieur au niveau du TEN et le TEN est donc masquant. Ceci entraîne une élévation des vrais seuils tout comme des seuils faussement attribués à la ZMC. C’est le cas sur la fig.6, diagramme de droite, où les seuils à l’audiogramme tonal liminaire (courbe marquée par des carrés noirs) s’élèvent en bloc, et pas seulement en dessous de 1 kHz, lorsque des TEN de 30, 50 et 70 dB par bande rectangulaire équivalente sont présentés mélangés au son test. Les seuils au-dessus de 1 kHz étaient donc obtenus grâce à des réponses impliquant des régions masquables par les TEN, donc accordées en dessous de 1 kHz. Le TEN test de Moore présente quelques exigences techniques. Initialement les audiogrammes devaient être en dB SPL, ce qui n’est pas dans les habitudes des utilisateurs d’audiomètres cliniques pour lesquels les calibrations sont en HL. Ce petit détail technique a été ensuite résolu. Une autre exigence plus profonde est celle d’utiliser un TEN un peu plus complexe à synthétiser que le « simple » bruit blanc standard des audiomètres. Ce TEN, disponible sur CD et largement distribué, a été construit de manière à avoir des niveaux de pression instantanés le plus élevés possibles, au contraire de ceux d’un bruit blanc dont la distribution de probabilité est normale et autorise des vallées. Le fait de présenter des vallées d’amplitude au sein desquelles le son test peut émerger brièvement, alors qu’on souhaite le masquer tout le temps, rend le masquage moins efficace ce qui perturberait la lecture de l’audiogramme masqué. Les limites du TEN test rapportées par l’équipe de Moore portent sur la fiabilité de la décision clé, selon laquelle en présence du TEN le seuil suspect s’est trouvé augmenté alors qu’il ne le devrait pas, ce qui signe la présence d’une ZMC. Il est souhaitable pour avoir une conclusion fiable que si augmentation du seuil il y a, elle soit assez nette,10 dB typiquement. Faute de quoi, compte tenu de la précision de la procédure subjective de réalisation d’un audiogramme, la conclusion est ambiguë. Il peut arriver aussi que certains sujets aient des seuils en son pur trop élevés pour être mesurables, ce qui empêche de rechercher une augmentation en présence de TEN. Ou alors, le niveau de bruit nécessaire peut être inconfortable. Détecter les ZMC, à quoi bon ? Connaître la présence de ZMC a un intérêt physiopathologique évident. Il a aussi des conséquences pratiques pour l’appareillage. En effet, l’un des buts de l’appareillage est de restaurer l’audibilité des 91 37273_Monographie_N45.Nais_vie_m91 91 18/09/08 14:41:24 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie sons sur le plus large spectre possible. Le cas d’une ZMC est particulier en ce que l’on sait que la restauration de l’audition par cette zone ne dépend pas de l’application d’une quelconque amplification aux fréquences considérées. Plus précisément, on peut en appliquant un gain élevé restaurer l’audition (en tout cas la détectabilité) des fréquences normalement dévolues à la ZMC, mais sachant que cette détection se fait via une écoute hors fréquences. Après qu’une première étude chez des patients atteints de ZMC ait suggéré une dégradation des performances lorsque l’amplification concernait les fréquences des ZMC, par rapport à des réglages prothétiques renonçant à ces fréquences, il semble que les études ultérieures n’aient pas rapporté d’effet nuisible. On peut s’interroger légitimement sur la présence accrue d’acouphènes chez les patients dont une oreille présente des zones mortes (Lurquin et coll., 2002). Ces auteurs décrivent en effet une plus grande fréquence des ZMC dans un échantillon de patients acouphéniques. L’importance de la perte auditive et la pente audiométrique, comme indiqué plus haut, sont de bons indicateurs faisant soupçonner la présence de ZMC. La recherche de telles zones par le TEN test apparaît réaliste en conditions de clinique courante, beaucoup plus que la réalisation de courbes d’accord psychophysiques, et en cas de présence d’acouphènes et/ou d’intervalles fréquentiels avec perte auditive brutalement élevée, cette recherche de ZMC paraît être un complément très utile aux dossiers (voir Thai-Van et coll., 2003). Bibliographie résumée : 1. 2. 3. 4. 5. 6. 7. Avan P & Bonfils P (2005). Distortion-product otoacoustic emission spectra and high-resolution audiometry in noiseinduced hearing loss. Hear.Res. 209, 68-75. Borg E & Engstrom B (1989). Noise level, inner hair cell damage, audiometric features, and equal-energy hypothesis. J.Acoust.Soc.Am. 86, 1776-1782. Florentine M & Houtsma AJ (1983). Tuning curves and pitch matches in a listener with a unilateral, low-frequency hearing loss. J.Acoust.Soc.Am. 73, 961-965. Lurquin P, Debarge A, Germain M, Markessis E, Thill MP, Contribution à l’établissement d’un lien entre zone cochléaire morte et acouphène, Cahiers de l’Audition, 15, 9-21, 2002. Moore BCJ, Huss M, Vickers DA, Glasberg BR, Alcantara JI, a test of the diagnosis of dead regions in the cochlea, British J.Audiol. 34, 205-224, 2000. Moore BCJ, the use of psychophysical tuning curves to explore dead regions in the cochlea, Ear and Hearing 22, 268-278, 2001. Thai-Van H, Micheyl C, Moore BC & Collet L (2003). Enhanced frequency discrimination near the hearing loss cut-off: a consequence of central auditory plasticity induced by cochlear damage? Brain 126, 2235-2245. 92 37273_Monographie_N45.Nais_vie_m92 92 18/09/08 14:41:24 3.1.2. Altérations fonctionnelles 3.1.2.1. Altérations fréquentielles Données sur le déclin des performances de discrimination fréquentielle Chez le presbyacousique, on observe un déclin des performances de discrimination fréquentielle. Ce déclin connaît au moins deux origines. D’une part, les seuils de discrimination fréquentielle (DLF exprimé en % de la fréquence testée : DLF/F) augmentent chez les sujets ayant une perte auditive d’origine cochléaire (Marshall, 1981 ; Turner et Nelson, 1982). D’autre part, l’augmentation de l’âge a elle-même une influence sur l’altération du DLF/F. En mesurant les capacités de discrimination fréquentielle à une intensité sonore confortable dans une population de sujets de moins de 60 ans avec audition conservée, Konig (1957) a observé une augmentation linéaire des DLF/F entre 25 et 55 ans, encore plus marquée au-delà. Quel est le rôle respectif de l’âge et de la perte auditive dans cette augmentation ? Selon Abell et coll. (1990), le vieillissement sans perte auditive associée conduit à une dégradation significative du DLF/F sur à la fois sur les fréquences graves (500 Hz) et aiguës (4 000 Hz), l’âge affecterait préférentiellement la discrimination des fréquences graves, avec un effet dès la 4e décennie. Pour les mêmes auteurs, la perte auditive seule, non confondue par le facteur âge, conduirait à une dégradation du DLF/F préférentiellement sur les fréquences aiguës (4 000 Hz). Plasticité de privation auditive et discrimination fréquentielle On observe donc une altération des capacités de discrimination fréquentielle chez le presbyacousique. Pour autant, l’atténuation voire la disparition d’une partie des informations afférentes normalement destinées au système auditif central entraîne, dans la presbyacousie, des modifications plastiques du cortex auditif (plasticité auditive de privation). Ces modifications vont, à leur tour, induire des modifications spécifiques des capacités de discrimination fréquentielle. Il a été montré qu’une lésion affectant une portion restreinte de la cochlée pouvait avoir d’importantes conséquences sur les cartes tonotopiques du cortex auditif primaire. Ceci a pu être établi pour plusieurs espèces animales en induisant des lésions cochléaires responsables de perte auditive abrupte (dite en pente de ski), affectant les fréquences aiguës (cobaye : Robertson et Irvine, 1 989 ; chat : Rajan et al., 1 993 ; macaque : Schwaber et al., 1 993). Les enregistrements électrophysiologiques réalisés dans le cortex auditif de ces animaux montrent une réorganisation forte et rapide : les neurones auditifs corticaux privés de leurs afférences habituelles en provenance de la cochlée - et qui codaient initialement les fréquences situées dans la perte auditive - se mettent à décharger lorsque d’autres sites cochléaires, adjacents au segment cochléaire lésé mais indemnes, sont excités par des informations sonores. Ces modifications aboutissent in fine à une sur-représentation des régions cochléaires situées juste en bordure de perte. Le phénomène de plasticité auditive de privation a aussi été retrouvé chez des animaux présentant une perte progressive de leur audition comme la souris C57 BL/6J, une espèce mutée présentant un développement auditif normal jusqu’à l’âge de 1-2 mois puis une surdité progressive débutant à la base de la cochlée (Willott et al. 1 993). Entre 3 et 12 mois d’âge, alors que ces souris perdent progressivement leur audition sur les fréquences aiguës, on observe une sur- 93 37273_Monographie_N45.Nais_vie_m93 93 18/09/08 14:41:27 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie représentation des fréquences intermédiaires (10-13 kHz) au niveau de leur cortex auditif primaire. Chez l’humain, plusieurs études ont cherché à caractériser ce même phénomène en utilisant des techniques soit directes, soit indirectes de l’activité cérébrale. Dietrich et coll. (2 001), à l’aide de la magnétoencéphalographie, ont observé chez des sujets présentant une perte auditive en pente de ski que le moment dipolaire était plus ample à la fréquence de coupure d’une perte auditive qu’aux fréquences précédentes, ceci suggérant que davantage de neurones codaient cette fréquence et donc qu’une réorganisation neuronale à cette fréquence se serait produite. Quelles sont les conséquences perceptives de la réorganisation des cartes tonotopiques induite par la surdité ? Si le nombre de neurones corticaux codant les fréquences situées en bordure de la lésion augmente, on peut s’attendre à des conséquences sur la perception auditive fine. McDermott et coll. (1 998) furent les premiers à émettre l’hypothèse que les fréquences comprises dans la bande fréquentielle surreprésentée devraient être mieux discriminées que celles comprises dans d’autres bandes fréquentielles. L’idée sous-jacente de cette étude était que la précision avec laquelle une population neuronale code un stimulus sensoriel devait être proportionnelle au nombre de neurones déchargeant en réponse à ce stimulus. De fait, ces auteurs purent mettre en évidence, chez des sujets présentant une perte auditive à pente raide sur les fréquences aiguës, une amélioration locale des performances de discrimination fréquentielle : les seuils de discrimination fréquentielle (définis comme la plus petite différence de fréquence perceptible dans une bande de fréquence donnée) étaient significativement améliorés autour de la dernière fréquence normalement perçue (appelée fréquence de coupure audiométrique) (fig. 8). Dans l’étude pionnière de McDermott et coll., un faible nombre de sujets avait été testé et tous présentaient le même profil audiométrique. Nous avons pu reproduire ce résultat dans de plus larges échantillons en montrant que l’effet pouvait être également observé pour d’autres profils de perte auditive (par exemple, perte affectant les fréquences graves) et que le facteur principal conditionnant la présence de cet effet était l’importance de la pente de la perte auditive (Thai-Van et al., 2002, 2003, 2007). Plus la pente de la perte est forte, plus les chances d’observer des modifications perceptives témoignant d’une réorganisation des cartes tonotopiques sont importantes. ∂ fig. 8 : Amélioration locale des performances de discrimination fréquentielle autour de la fréquence de coupure de l’audiogramme (Fc) (d’après Thai-Van et al. , 2007) Trois groupes de sujets différant par la pente de leur perte auditive sont testés. Les courbe audiométriques sont représentées en pointillés, les carrés vides correspondant aux seuils de détection des fréquences de test (« absolute threshold »). Les cercles pleins représentent les seuils de discrimination fréquentielle (« Frequency Discrimination Limen (DLF) ») (moyenne sur 3 mesures ± erreur standard). Diagramme supérieur: pente raide (> 50 dB/octave) ; diagramme intermédiaire: pente moyenne (entre 24 et 50 dB/octave); diagramme inférieur: pente faible (< 24 dB/octave). On note une amélioration locale des performances de discrimination fréquentielle seulement dans les groupes ayant une pente de perte supérieure à 24 dB/octave. 94 37273_Monographie_N45.Nais_vie_m94 94 18/09/08 14:41:27 Références 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. Abel, S.M., Krever, E.M. and Alberti, P.W., 1 990. Auditory detection, discrimination, and speech perception in aging, noise-sensitive, and hearing-impaired listeners. Scand. Audiol. 19, pp. 43–54. Dietrich V., Nieschalk M., Stoll W., Rajan R., Pantev C. (2 001). Cortical reorganization in patients with high frequency cochlear hearing loss. Hear Res. 158 (1-2) :95-101. König, E., 1 957. Pitch discrimination and age. Acta Otolaryngol. 48, pp. 475–489. Marshall L (1 981). Auditory processing in aging listeners. Journal of Speech and Hearing Disorders 46 : 226–240. McDermott H.J., Lech M., Kornblum M.S., Irvine D.R. (1 998). Loudness perception and frequency discrimination in subjects with steeply sloping hearing loss : possible correlates of neural plasticity. J Acoust Soc Am. 104 (4) :2314-25. Rajan R., Irvine D.R., Wise L.Z., Heil P. (1 993). Effect of unilateral partial cochlear lesions in adult cats on the representation of lesioned and unlesioned cochleas in primary auditory cortex. J Comp Neurol. 338 (1) :17-49. Robertson D., Irvine D.R. (1 989). Plasticity of frequency organization in auditory cortex of guinea pigs with partial unilateral deafness. J Comp Neurol. 282 (3) :456-71. Schwaber M.K., Garraghty P.E., Kaas J.H. (1 993). Neuroplasticity of the adult primate auditory cortex following cochlear hearing loss. Am J Otol. 14 (3) :252-8. Thai-Van H., Micheyl C., Norena A., Collet L. (2 002). Local improvement in auditory frequency discrimination is associated with hearing-loss slope in subjects with cochlear damage. Brain. 125 :524-37. Thai-Van, H., Micheyl, C., Moore, B.C.J., Collet, L., (2 003). Enhanced frequency discrimination near the hearing loss cutoff : A consequence of central auditory plasticity induced by cochlear damage ? Brain 126 (Pt 10), 2235-2245. Thai-Van H., Micheyl C., Norena A., Veuillet E., Gabriel D., Collet L. (2 007). Enhanced frequency discrimination in hearing-impaired individuals. A review of perceptual correlates of central neural plasticity induced by cochlear damage. Hear. Res. 233 (12) :14-22. Turner CW, Nelson DA (1 982). Frequency Discrimination in Regions of Normal and Impaired Sensitivity. Journal of Speech and Hearing Research 25 : 34-41 Willott J.F., Aitkin L.M., McFadden S.L. (1 993). Plasticity of auditory cortex associated with sensorineural hearing loss in adult C57BL/6J mice. J Comp Neurol. 329 (3) :402-11. 3.1.2.2. Altérations temporelles Les difficultés de perception et compréhension de la parole, en particulier dans des situations « écologiques », faisant intervenir un environnement plus ou moins bruyant, avec des locuteurs multiples, sont largement rapportées par les sujets presbyacousiques. Bien que les relations entre les performances du traitement temporel, étudié par des taches psychoacoustiques telles que celles décrites au chapitre 2.1.2, et la perception de sons de parole dans le silence, n’aient pas toujours pu être mises en évidence (Martin et Jerger, 2 005), il est maintenant admis que des troubles de traitement de l’information temporelle chez le sujet presbyacousique représentent un facteur certain dans le déficit de perception de la parole dans le bruit chez ces mêmes sujets. Plusieurs études ont mis en évidence des difficultés dans la perception d’indices acoustiques de brève durée, entraînant des déficits de compréhension de phonèmes, de mots et de phrases modifiés de manière à raccourcir leur durée (Gordon-Salant et Fitzgibbons, 2001, Versfeld et Dresler, 2002). Plus récemment, Lorenzi et coll. (2006) ont montré que les déficits de perception de la parole, chez des sujets avec perte auditive, sont corrélés à un déficit de l’utilisation de la structure temporelle fine de l’information auditive. Chez le sujet presbyacousique, deux facteurs contribuent à un déficit du traitement temporel : la perte auditive d’une part, et d’autre part l’influence de l’âge sur le traitement temporel de l’information auditive, indépendamment de toute perte auditive. 95 37273_Monographie_N45.Nais_vie_m95 95 18/09/08 14:41:32 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie Perte auditive et traitement temporel La plupart des études (Lister et coll., 2000 ; Grose et coll., 2001) n’ont pas mis en évidence d’influence de la perte auditive sur le seuil de détection d’un silence entre deux signaux acoustiques (gapdetection). Certaines études ont montré un déficit chez les sujets avec perte auditive, uniquement dans une tache de détection inter-canaux. Enfin, lorsque les signaux utilisés sont des bandes de bruit fluctuant dans le temps, plutôt que des sons purs continus, les seuils de détection seraient plus élevés chez les malentendants (Glasberg et Moore, 1992). De même, aucune influence systématique de la perte auditive n’a été mise en évidence sur les capacités de discrimination de durée de signaux (Grose et coll., 2004). En revanche, la perte auditive neuro-sensorielle est associée à une détérioration des seuils de détection des modulations d’amplitude (Grant et coll., 1998), et des modulations de fréquence (pour des modulations inférieures à 10 Hz) (Lacher-Fougere et coll., 1998), ce qui a été associé à un déficit des capacités de traitement de la structure fine temporelle de l’information auditive, dû à une diminution des capacités de synchronisation des décharges neurales sur la phase du stimulus (phase-locking) (Buss et coll., 2004, Moore et Sek, 1995). Age et traitement temporel : Snell et coll. (2002) montrent une corrélation entre la perception de la parole dans un bruit de cocktail party d’une part, et l’âge et le seuil de détection d’un silence dans un bruit continu d’autre part, sans relation avec la perte auditive sur les fréquences moyennes ou la perte auditive sur les hautes fréquences. Plusieurs études ont mis en évidence un élargissement du seuil de détection d’un silence (gap-detection), avec l’âge, indépendamment de la perte auditive (Schneider et Hamstra, 1999). Ainsi, le plus petit silence détecté passe de 3 ms chez un groupe de sujet de 26 ans, à plus de 6 ms chez un groupe de sujets de 71 ans, à seuils auditifs équivalents, pour des intensités largement audibles (Strouse et coll., 1998). En revanche, la performance des sujets âgés se détériore très rapidement lorsque l’intensité se rapproche du seuil de détection, avec un plus petit silence détectable de plus de 35 ms contre moins de 10 ms pour les sujets plus jeunes, suggérant une influence de cette perte de performance avec l’âge dans le traitement de la parole à faible intensité. Enfin, ce déficit, chez le sujet âgé, est beaucoup plus prononcé pour des durées de signal courtes (5 ms) que des durées de signal plus longues, suggérant un déficit dans la récupération après adaptation chez le sujet âgé (Schneider et Hamstra, 1999). Le traitement des différences de durée d’un signal sonore fait appel de manière plus importante aux voies centrales auditives, et est relativement indépendant de différences périphériques, comme une perte auditive, ou des modifications des caractéristiques des stimuli. Ainsi, Fitzgibbons et GordonSalant (1994) ont mis en évidence une détérioration nette de performance de sujets âgés dans la discrimination de durée de signaux longs (250 ms, comparable en durée à une syllabe), indépendamment d’une perte auditive. Ainsi, 2 groupes de sujets jeunes (30 ans), (un groupe de normo-entendants et un groupe de mal-entendants) ont montré un seuil de discrimination de durée de 40 ms (pour un signal tonal de 250 ms) contre plus de 60 ms chez deux groupes de sujets de 70 ans, appariés en perte 96 37273_Monographie_N45.Nais_vie_m96 96 18/09/08 14:41:32 auditive avec les deux groupes précédents. De plus, ce déficit, chez le sujet âgé, augmente lorsque le son cible est inclus dans des séquences de sons purs, alors que la même complexité du stimulus n’affecte pas les sujets plus jeunes (Fitzgibbons et coll., 1995), à perte auditive égale. Ces difficultés dans la perception des différences de durée des sons ont été corrélées à des difficultés dans la perception du rythme d’une succession de sons. En utilisant des séquences de sons séparés entre eux par des durées de 100 ms à 600 ms, Fitzgibbons et coll. (2001) ont montré un déficit constant chez les sujets âgés, par rapport aux sujets jeunes, dans la perception de la plus petite différence de rythme dans les séquences présentées, déficit indépendant de la perte auditive. De plus, la perception de l’ordre de présentation de différents sons au sein d’une séquence, est beaucoup plus difficile chez le sujet âgé, surtout pour des rythmes rapides de présentation (Fitzgibbons et coll., 2006). Les seuils de détection d’une modulation de fréquence sont plus élevés chez des sujets âgés que chez des sujets jeunes, avec une différence d’autant plus importante qu’il s’agit de basses fréquences (500 Hz versus 4 000 Hz), à perte auditive égale, suggérant un déficit temporel du traitement de l’information auditive plutôt qu’un déficit lié à la perte auditive (He et coll., 2007), et un déficit dans la synchronisation des réponses neurales sur la phase du stimulus (phase-locking). La relative indépendance entre les déficits du traitement temporel et la perte auditive suggère que les lésions périphériques cochléaires ne sont pas, à elles seules, à l’origine de ce déficit. Une perte partielle, avec l’âge, des capacités de synchronisation des décharges neurophysiologiques sur les stimuli sonores pourraient expliquer ces déficits (Pichora-Fuller, 2003). Cette hypothèse est renforcée par les études électrophysiologiques, utilisant les potentiels évoqués auditifs tardifs : les réponses (de type MMN) aux stimuli déviants en durée sont plus tardives et de moindre amplitude chez le sujet âgé, et leurs altérations sont moins importantes que les réponses aux stimuli déviants en fréquence (Bertoli et coll., 2002). De même, les réponses électrophysiologiques à des différences de temps de voisement (N1-P1), sont plus tardives chez les sujets âgés, avec ou sans perte auditive, mettant en évidence un déficit central dans le traitement temporel d’informations rapides pertinentes pour la compréhension de la parole (Tremblay et coll., 2003). En revanche, il est difficile d’établir l’existence d’un déficit spécifiquement auditif du traitement temporel des informations acoustiques avec l’âge, ce déficit pouvant être la conséquence du ralentissement plus général des capacités cognitives avec l’âge (Pichora-Fuller, 2003). Ainsi Humes (2005) montre que les deux facteurs principaux expliquant les différences inter-individuelles dans le traitement temporel de l’information auditive (mesuré par 3 tâches : discrimination de durée, discrimination de l’ordre d’une séquence sonore, identification de syllabe), dans un groupe de 213 sujets âgés de plus de 60 ans, sont l’âge et l’état cognitif des sujets. La distinction entre déficit du traitement des informations temporelles lié à l’âge et déficit lié à la perte auditive prend toute son importance lors de la réhabilitation auditive, où la récupération d’une bonne audibilité ne va pas forcément entraîner la récupération d’une bonne perception de la parole dans le bruit. À l’avenir, la dimension temporelle du signal et les capacités du traitement de l’information temporelle auditive devront être de plus en plus prises en compte en réhabilitation auditive, surtout chez les patients de plus de 50 ans, de même que leur état cognitif. 97 37273_Monographie_N45.Nais_vie_m97 97 18/09/08 14:41:35 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie Références 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. Bertoli, S., Smurzynski, J., & Probst, R. (2 002). Temporal resolution in young and elderly subjects as measured by mismatch negativity and a psychoacoustic gap detection task. Clin Neurophysiol, 113 (3), 396-406. Buss, E., Hall, J. W., 3rd, & Grose, J. H. (2 004). Temporal fine-structure cues to speech and pure tone modulation in observers with sensorineural hearing loss. Ear Hear, 25 (3), 242-250. Fitzgibbons, P. J., & Gordon-Salant, S. (1 994). Age effects on measures of auditory duration discrimination. J‹Speech Hear Res, 37 (3), 662-670. Fitzgibbons, P. J., & Gordon-Salant, S. (1 995). Age effects on duration discrimination with simple and complex stimuli. J Acoust Soc Am, 98 (6), 3140-3145. Fitzgibbons, P. J., & Gordon-Salant, S. (2 001). Aging and temporal discrimination in auditory sequences. J‹Acoust Soc Am, 109 (6), 2955-2963. Fitzgibbons, P. J., Gordon-Salant, S., & Friedman, S. A. (2 006). Effects of age and sequence presentation rate on temporal order recognition. J Acoust Soc Am, 120 (2), 991-999. Glasberg, B. R., & Moore, B. C. (1 992). Effects of envelope fluctuations on gap detection. Hear Res, 64 (1), 81-92. Gordon-Salant, S. (2 005). Hearing loss and aging : new research findings and clinical implications. J Rehabil Res Dev, 42 (4 Suppl 2), 9-24. Gordon-Salant, S., & Fitzgibbons, P. J. (2 001). Sources of age-related recognition difficulty for time-compressed speech. J Speech Lang Hear Res, 44 (4), 709-719. Grant, K. W., Summers, V., & Leek, M. R. (1 998). Modulation rate detection and discrimination by normal-hearing and hearing-impaired listeners. J Acoust Soc Am, 104 (2 Pt 1), 1051-1060. Grose, J. H., Hall, J. W., 3rd, & Buss, E. (2 001). Gap duration discrimination in listeners with cochlear hearing loss : effects of gap and marker duration, frequency separation, and mode of presentation. J Assoc Res Otolaryngol, 2 (4), 388-398. Grose, J. H., Hall, J. W., 3rd, & Buss, E. (2 004). Duration discrimination in listeners with cochlear hearing loss : effects of stimulus type and frequency. J Speech Lang Hear Res, 47 (1), 5-12. Grose, J. H., Hall, J. W., 3rd, & Buss, E. (2 006). Temporal processing deficits in the pre-senescent auditory system. J Acoust Soc Am, 119 (4), 2305-2315. He, N. J., Mills, J. H., & Dubno, J. R. (2 007). Frequency modulation detection : effects of age, psychophysical method, and modulation waveform. J Acoust Soc Am, 122 (1), 467-477. Humes, L. E. (2 005). Do ‘auditory processing’ tests measure auditory processing in the elderly ? Ear Hear, 26 (2), 109-119. Lacher-Fougere, S., & Demany, L. (1 998). Modulation detection by normal and hearing-impaired listeners. Audiology, 37 (2), 109-121. Lister, J., Besing, J., & Koehnke, J. (2 002). Effects of age and frequency disparity on gap discrimination. J Acoust Soc Am, 111 (6), 2793-2800. Lister, J. J., Koehnke, J. D., & Besing, J. M. (2 000). Binaural gap duration discrimination in listeners with impaired hearing and normal hearing. Ear Hear, 21 (2), 141-150. Lister, J. J., & Roberts, R. A. (2 005). Effects of age and hearing loss on gap detection and the precedence effect : narrow-band stimuli. J Speech Lang Hear Res, 48 (2), 482-493. Lorenzi, C., Gilbert, G., Carn, H., Garnier, S., & Moore, B. C. (2 006). Speech perception problems of the hearing impaired reflect inability to use temporal fine structure. Proc Natl Acad Sci U S A, 103 (49), 18866-18869. Martin, J. S., & Jerger, J. F. (2 005). Some effects of aging on central auditory processing. J Rehabil Res Dev, 42 (4 Suppl 2), 25-44. Moore, B. C., & Sek, A. (1 995). Effects of carrier frequency, modulation rate, and modulation waveform on the detection of modulation and the discrimination of modulation type (amplitude modulation versus frequency modulation). J Acoust Soc Am, 97 (4), 2468-2478. Pichora-Fuller, M. K. (2 003). Cognitive aging and auditory information processing. Int J Audiol, 42 Suppl 2, 2S26-32. Pichora-Fuller, M. K., & Souza, P. E. (2 003). Effects of aging on auditory processing of speech. Int J Audiol, 42 Suppl 2, 2S11-16. Pichora-Fuller, M. K. (2 003). Processing speed and timing in aging adults : psychoacoustics, speech perception, and comprehension. Int J Audiol, 42 Suppl 1, S59-67. Schneider, B. A., & Hamstra, S. J. (1 999). Gap detection thresholds as a function of tonal duration for younger and older listeners. J Acoust Soc Am, 106 (1), 371-380. 98 37273_Monographie_N45.Nais_vie_m98 98 18/09/08 14:41:36 27. 28. 29. 30. Snell, K. B., Mapes, F. M., Hickman, E. D., & Frisina, D. R. (2 002). Word recognition in competing babble and the effects of age, temporal processing, and absolute sensitivity. J Acoust Soc Am, 112 (2), 720-727. Strouse, A., Ashmead, D. H., Ohde, R. N., & Grantham, D. W. (1 998). Temporal processing in the aging auditory system. J Acoust Soc Am, 104 (4), 2385-2399. Tremblay, K. L., Piskosz, M., & Souza, P. (2 003). Effects of age and age-related hearing loss on the neural representation of speech cues. Clin Neurophysiol, 114 (7), 1332-1343. Versfeld, N. J., & Dreschler, W. A. (2 002). The relationship between the intelligibility of time-compressed speech and speech in noise in young and elderly listeners. J Acoust Soc Am, 111 (1 Pt 1), 401-408. 3.1.2.3. Altérations en intensité Le sujet presbyacousique a pour caractéristique majeure de présenter une élévation des seuils absolus d’audition plus particulièrement marquée sur les hautes fréquences. La figure 9 montre l’évolution des seuils auditifs avec l’âge. Cette atteinte auditive neurosensorielle liée au vieillissement auditif touche ∂ fig. 9 : Evolution de la perte auditive avec l'âge plus de 65 % de la population à 70 ans et 81 % à l’âge de 80 ans. Cette baisse de la sensibilité auditive s’accompagne, d’une part, d’altérations de la perception de la sonie et, d’autre part, de dégradations des seuils différentiels d’intensité. Déclin de la perception de la sonie Alors que le sujet presbyacousique présente des seuils de perception supérieure à la normale, ses seuils de douleur restent dans la même zone du plan dynamique. On parle de dynamique auditive réduite (fig. 10). Il en résulte que lorsque le son est augmenté en intensité au-dessus du seuil de perception, le taux de croissance du niveau de sonie en fonction de l’intensité est supérieur à la normale et ainsi le niveau 99 37273_Monographie_N45.Nais_vie_m99 99 18/09/08 14:41:39 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie ∂ fig. 10 : Perte de la dynamique auditive avec l'âge. A- Normo entendant, B- presbyacousique sonore passe rapidement de « pas assez fort » à « trop fort ». Mais lorsque le niveau est suffisamment élevé (aux environs de 90 à 100 dB SPL) la sonie atteint sa valeur normale et le son apparaît aussi fort à la personne malentendante qu’à la personne avec une audition normale (fig. 11). Ce phénomène ∂ fig. 11 : Courbes de sonies normales et pathologique : le recrutement. 100 37273_Monographie_N45.Nais_vie_m100 100 18/09/08 14:41:41 connu sous le nom de « recrutement de la sonie » explique très probablement la plainte souvent formulée par les personnes malentendantes : « Ne criez pas, j’entends suffisamment fort mais je ne comprends pas ! ». Ainsi les sons faibles ne sont plus entendus mais les autres restent audibles mais inintelligibles. Déclin de la discrimination d’Intensité La capacité de détecter des changements d’intensité est largement basée sur la sensation de sonie évoquée par les sons. Or la même variation de sonie correspond chez les malentendants à une gamme dynamique plus faible résultant, pour un changement donné en intensité, en un changement supérieur à la normale de la sensation de sonie. On devrait donc obtenir de meilleures performances de discrimination d’Intensité (c’est-à-dire des SDI plus faibles) chez les malentendants comparés aux normoentendants. Mais le changement juste détectable en sonie est affecté par la lésion cochléaire présente chez les sujets presbyacousiques et de plus la mesure des SDI est beaucoup moins précise et surtout très dépendante de la technique utilisée. Ainsi, lorsque les comparaisons sont faites à des niveaux de perception égaux par rapport au seuil de perception (SL), les malentendants ont des performances similaires voire meilleures que celles des normo-entendants. Si les performances sont comparées à des niveaux égaux de pression (SPL) les malentendants ne sont pas meilleurs et leur SDI est même parfois plus élevé (Florentine et coll. 1993 ; Schroder et coll., 1994 ; Turner et coll. 1989). Du fait de leurs seuils auditifs élevés les malentendants non appareillés écoutent souvent à des niveaux de sensation sonore plus faibles que les sujets normo-entendants et sont ainsi en condition de déprivation auditive. Cela explique certainement pourquoi leur capacité de discrimination en intensité est moins bonne. Cela ne semble pas poser de gros problèmes dans la vie de tous les jours, puisque d’une part il est rare que l’information critique soit apportée par de petits changements d’intensité et que d’autre part les contrastes en intensité apportant de l’information dans la parole impliquent des changements d’intensité bien au-dessus des seuils de détection des auditeurs (qu’ils soient normo- ou malentendants). Mais en aidant l’oreille d’un malentendant à travailler à des niveaux plus forts d’intensités, des phénomènes de plasticité dans les voies auditives sont possibles et il a été d’ailleurs montré que l’appareillage auditif modifie la perception de la sonie et les performances de discrimination en intensité (Philibert et coll. 2001, Philibert et coll. 2005). Références 1. 2. 3. 4. 5. 6. Florentine M, Reed CM, Rabinowitz WM, Braida LD, Durlach NI. (1 993). Intensity perception. XIV. Intensity discrimination in listeners with sensorineural hearing loss. J Acoust Soc Am 94 : 2575-2586. Moore BCJ (2 002). An introduction to the Psychology of Hearing. Fifth Edition. Philibert B, Collet L, Vesson JF, Veuillet E. (2 002). Intensity-related performances are modified by long-term hearing aid use : a functional plasticity ? Hear Res, 165 : 142-151. Philibert B, Veuillet E, Vesson JF, Collet L. (2 005). The auditory acclimatization effect in sensorineural hearing-impaired listeners : evidence for a functional plasticity. Hear Res, 205 (1-2) : 131-142. Schroder AC, Viemester NF, Nelson DA. (1 994). Intensity discrimination in normal-hearing and hearing-impaired listeners. J Acoust Soc Am 96 : 2683-2693. Turner CW, Zwislocki JJ, Filion PR. (1 989). Intensity discrimination determined with two paradigms in normal and hearing-impaired subjects. J Acoust Soc Am 74 : 1190-1199. 101 37273_Monographie_N45.Nais_vie_m101 101 18/09/08 14:41:47 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie 3.1.2.4. Effets des dommages cochléaires sur la localisation des sons et l’audition binaurale Comme nous l’avons vu plus haut, plusieurs avantages sont associés au fait d’utiliser deux oreilles dans la fonction d’audition. Ces avantages peuvent être réduits par les dommages cochléaires, mais cela n’est pas toujours le cas. Localisation et latéralisation du son Durlach, Thomson et Colburn (1981) ont passé en revue les études de la localisation et la latéralisation du son chez les personnes malentendantes. La majorité des études utilisait pour stimuli, soit du bruit large bande, soit du bruit filtré. Durlach & al concluent que de nombreuses études étaient difficiles à interpréter parce qu’elles ne faisaient pas la distinction entre les erreurs systématiques de localisation et une mauvaise résolution. Cependant, il y avait une tendance claire à une mauvaise localisation et une mauvaise latéralisation chez les porteurs de dommages cochléaires unilatéraux ou asymétriques. Les sujets ayant des pertes cochléaires symétriques présentaient souvent des performances proches de la normale, surtout lorsqu’ils étaient testés à des niveaux sonores suffisamment forts. D’autres études (Gabriel, Koehnke et Colburn, 1992 ; Hausler, Colburn et Marr, 1983 ; Kinkel, Kolimeler et Holube, 1991 ; Smoski et Trahiotis, 1986) montrent que les performances binaurales peuvent varier de manière marquée entre les sujets. Les sujets porteurs d’une perte unilatérale ou symétrique tendent à présenter des seuils supérieurs à la normale pour la détection de différences de temps interaurales (DTIs) et de différences d’intensité interaurales (DIIs). Les sujets ayant une perte symétrique présentent parfois une capacité de localisation normale ou presque normale pour des stimuli de bruit « largebande ». Cependant, ils présentent souvent des performances altérées pour des stimuli à bande étroite. Il est possible, comme l’ont fait remarquer Colburn et Trahiotis (1992), que de bonnes performances pour un intervalle de fréquences réduit, suffisent à assurer de bonnes performances pour des stimuli large-bande. La mauvaise discrimination des DTIs, lorsqu’elle se produit, peut être le résultat de plusieurs facteurs. D’abord, elle peut être partiellement reliée aux niveaux SL relativement faibles des stimuli : la discrimination de DTI chez des sujets normo-entendants se dégrade considérablement au-dessous de 20 dB SL environ (Hausler, Colburn et Marr, 1983). Ensuite, elle peut résulter d’anormalités dans le temps de parcours de l’onde progressive le long de la membrane basilaire ou dans la phase de démarrage des décharges, et dans les différences de temps de parcours ou de phase de démarrage des décharges entre les deux oreilles (Ruggero et Rich, 1987 ; Ruggero, Rich et Recio, 1993). Enfin, elle peut résulter d’anormalités dans le verrouillage de phase. Les anormalités dans la discrimination de DII peuvent également avoir de multiples causes. Premièrement, comme pour la discrimination de DTI, elles peuvent résulter d’un codage anormal de l’intensité et de différences dans le codage de l’intensité entre les deux oreilles. Dans ce contexte, il est utile de noter que la discrimination de DII chez des sujets normo-entendants peut être notablement dégradée en posant un bouchon d’oreille dans l’une des oreilles (Hausler, Colburn et Marr, 1983). Certains porteurs de dommages cochléaires n’ont quasiment aucune capacité à utiliser les indices spectraux fournis par les transformations du pavillon (H Colburn et Marr, 1983). Cela peut se produire 102 37273_Monographie_N45.Nais_vie_m102 102 18/09/08 14:41:47 soit parce que les indices sont inaudibles soit parce que les patterns de sommets et de vallées spectraux ne peuvent être distingués. Le manque d’indices pavillonnaires crée des difficultés à décider si un son vient de l’avant ou de l’arrière, et du dessus ou du dessous, Il faut remarquer que les indices pavillonnaires sont terriblement altérés ou complètement éliminés par les aides auditives. Les appareils auditifs altèrent les patterns spectraux au niveau du tympan et généralement n’amplifient pas les sons dans l’intervalle de fréquence au-dessus de 6 kHz, où les indices pavillonnaires sont les plus importants. Différences de niveau de masquage binaurales (DNMs) pour les porteurs de dommages cochléaires. La DNM binaurale se rapporte à l’amélioration de la détection d’un signal dans un bruit, qui se produit lorsque le signal et le bruit ont des DTls ou des DIIs différentes (Moore, 1989). Durlach, Thomson et Colburn (1981) ont passé en revue les études de DNM utilisant des sujets malentendants. Bien qu’ils y aient constaté une variabilité considérable dans les résultats d’une étude à l’autre, il était généralement trouvé qu’une perte auditive cochléaire mène à une réduction des DNMs, même lorsque la perte auditive est raisonnablement symétrique. Par exemple, Quaranta et Cervellera (1974) font état de DNMs anormalement petites dans 98 % des cas. Plusieurs études plus récentes confirment que les DNMs sont typiquement plus petites que la normale chez des sujets porteurs de perte auditive cochléaire (Hall, Tyler et Fernandes, 1984 ; Jerger, Brown et Smith, 1984 Kinkel, Kollmeier et Holube, 1991 ; Staffel, Hall, Grose et Pillsbury, 1990). Ces études présentent une tendance vers des DNMs plus petites chez des sujets aux seuils absolus plus élevés, bien que la relation ne soit généralement pas forte, et que les sujets de seuils absolus similaires puissent avoir des DNMs très différentes. Les DNMs tendent également à décroître lorsque croît l’asymétrie de la perte (Jerger et al, 1984). Effets d’ombre de la tête – Sélection de la meilleure oreille Lors de l’audition d’un signal dans un bruit de fond dans les situations de la vie courante, il est fréquent que le rapport signal-sur-bruit soit bien meilleur sur une oreille que sur l’autre. Un des avantages d’avoir deux oreilles réside en ce que l’auditeur peut effectivement sélectionner l’oreille donnant le meilleur rapport du signal au masque. Bronkhorst et Plomp (1988) ont étudié les effets de DTIs et de l’ombre de la tête sur l’intelligibilité de parole dans le bruit dans des conditions d’écoute binauraIes. Les sons étaient enregistrés en utilisant un modèle réaliste de la tête et du torse humains (KEMAR ; voir Burkhard, 1975). La parole était présentée directement en face du KEMAR, alors que le bruit était présenté venant de sept azimuts allant de 0° (frontal) à 180°. Le bruit avait le même spectre moyen à long terme que la parole. Les sons enregistrés étaient traités numériquement de manière à composer deux signaux, l’un contenant seulement des DTIs (intensité identique sur les deux oreilles à toutes les fréquences) et l’autre contenant seulement les DIls dues à l’ombre de la tête. Ces stimuli étaient présentés au casque. Le rapport signal-sur-bruit nécessaire pour que 50 % des phrases soient comprises, le seuil de réception de la parole (SRP), était déterminé pour chaque azimut du bruit. La chute du SRP, relativement au cas où tant le signal que le bruit viennent de l’azimut 0°, est appelé la différence binaurale de niveau d’intelligibilité (DBNI). La DBNI due aux DTIs était entre 3,9 et 5,1 dB, pour des azimuts du bruit entre 30° et 150°, alors que la DBNI due aux DIls était entre 103 37273_Monographie_N45.Nais_vie_m103 103 18/09/08 14:41:50 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie 3,5 et 7,8 dB. Lorsque les DTIs et les DIIs étaient simultanément présentes, c’est-à-dire lorsque l’on utilisait les stimuli non traités, les améliorations étaient encore plus grandes, allant de 5,8 à 10,1 dB. La présence des DIIs réduisait l’effet du démasquage dû aux DTIs. Dans des expériences supplémentaires où le stimulus était supprimé sur une oreille, Bronkhorst et Plomp montrèrent que l’avantage dû aux DIIs dépend principalement de l’oreille recevant le rapport signal-sur-bruit le plus élevé. Cependant, cet avantage décroît lorsque le bruit dans l’autre oreille est assez fort. En résumé, la séparation spatiale de la parole et du bruit de fond peut mener à un DBNI de 10 dB. Le plus gros de cet effet, 7 à 8 dB, est dû au fait que le rapport signal-sur-bruit est amélioré sur une oreille par les effets d’ombre de la tête. Une petite partie, 2 à 3 dB, est due au traitement binaural des DTIs. Bronkhorst et Plomp (1989) ont mené des expériences similaires à celles décrites ci-dessus en utilisant 17 sujets porteurs de pertes auditives symétriques et 17 sujets porteurs de pertes asymétriques, différences de seuils entre les deux oreilles, moyennée sur 500, 1 000 et 2 000 Hz, allant de 5 à 31 dB. La plupart des sujets étaient considérés comme porteurs de pertes auditives cochléaires légères à modérées. Le niveau de bruit était ajusté pour chaque sujet de manière à être aussi loin que possible au-dessus du seuil absolu sans être inconfortablement fort. Lorsque la parole et le bruit venaient tous deux de l’azimut 0°, les SRPs étaient, en moyenne, plus élevés de 2,5 dB que ceux trouvés pour des sujets normo-entendants. Les sujets malentendants montraient un gain binaural inférieur de 2,6 à 5,1 dB à la normale lorsque l’azimut du bruit passait à 90°. En d’autres termes, dans cette condition les SRPs étaient supérieurs de 5,1 à 7,6 dB à la normale, une différence considérable. Les DBNIs dues aux DIIs seules allaient de 0 dB aux valeurs normales de 7 dB ou plus. L’importance des DBNIs dépendait de la perte haute-fréquence dans l’oreille recevant le rapport signal-sur-bruit le plus fort ; des pertes hautes-fréquences plus fortes étaient associées à un avantage réduit. Cela semble logique puisque les effets d’ombre de la tête sont les plus forts aux hautes fréquences, et si ces hautes fréquences sont inaudibles, peu de profit peut en être tiré. Les DBNIs moyens dus aux DTIs seules étaient presque normaux, 4,2 dB au lieu de 4,7 dB pour les sujets normo-entendants, pour des sujets porteurs de pertes auditives symétriques. Cependant, les sujets porteurs de pertes asymétriques présentaient des DBNIs plus faibles, égales en moyenne à 2,5 dB. Lorsque les DTIs étaient introduites dans des stimuli contenant déjà des DIIs, le gain était de 2 à 2,5 dB pour les deux groupes, ce qui est comparable à celui obtenu pour des sujets normo-entendants. En résumé, les sujets porteurs de pertes auditives cochléaires sont généralement moins à même que les normo-entendants de tirer avantage de la séparation spatiale de la parole et d’un bruit gênant. Lorsqu’ils sont testés dans des conditions où la parole et le bruit sont séparés spatialement, leurs performances sont moins bonnes, relativement à la normale, que lorsque la parole et le bruit viennent de la même position dans l’espace. Le handicap semble provenir principalement de l’inaudibilité des hautes fréquences dans l’oreille où le rapport signal-sur-bruit est le plus élevé. 104 37273_Monographie_N45.Nais_vie_m104 104 18/09/08 14:41:50 3.1.3. Altérations au sein du vieillissement général – potentialisation Le vieillissement auditif s’intègre dans un processus plus général de vieillissement biologique, touchant à la fois l’organe sensoriel périphérique, le système auditif central et les processus cognitifs (cf. fig. 12). Ces trois niveaux d’atteinte, en se combinant, vont entraîner des troubles perceptivo-cognitifs beaucoup plus complexes que le déficit audiométrique caractérisant la presbyacousie. Jugé trop restrictif par nos collègues anglo-saxons, ce terme est actuellement remplacé par une dénomination plus générique : les troubles auditifs liés à l’âge (age-related hearing impairment), dont les causes englobent l’ensemble des processus physiologiques et pathologiques survenant au cours du vieillissement (Chisolm et al., 2003). ∂ fig. 12. Impact du vieillissement sur la perception auditive : trois processus successifs sont nécessaires au bon fonctionnement de l’audition : (i) le système auditif périphérique (capteur et transduction) ; (ii) le système auditif central (transmission et intégration) ; (iii) le système cognitif (identification et interprétation). Les différents niveaux d’atteinte sont schématisés par des rectangles en pointillés rouges, dont l’épaisseur est proportionnelle à leur importance relative dans le phénomène de vieillissement auditif. OE = oreille externe, OM = oreille moyenne ; Ire = primaire, IIre = secondaire (ou associatif). 3.1.3.1. Cadres conceptuels Plusieurs approches théoriques ont permis de définir la place du vieillissement auditif au sein du vieillissement général (pour une revue, cf. Pichora-Fuller et Singh, 2006). Participation centrale au vieillissement auditif Les modifications centrales relatives au phénomène de presbyacousie sont liées à deux processus distincts : d’une part, il existe des effets biologiques directs du vieillissement sur le système auditif central (central effects of biological aging) ; d’autre part, il existe des répercussions centrales indirectes 105 37273_Monographie_N45.Nais_vie_m105 105 18/09/08 14:41:55 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie de l’atteinte auditive périphérique, liées à la réduction des afférences (central effects of peripheral pathology) (Chisolm et al., 2003) (cf. fig. 13). Les dégradations anatomo-physiologiques du système auditif central, en aggravant les perturbations fonctionnelles liées à l’atteinte périphérique, vont entraîner des répercussions importantes sur la perception auditive, indépendamment du statut cognitif des sujets. Vieillissement cognitif et perception auditive Le vieillissement cognitif peut être considéré comme l’expression fonctionnelle des modifications fig. 13. Vieillissement auditif et vieillissement cognitif : Les répercussions du vieillissement sur la perception auditive peuvent être conçues selon deux modèles : le modèle hiérarchique séquentiel et en série (modular site-of-lesion view) ou le modèle global intégré et en parallèle (integrated information processing view). d anatomo-physiologiques cérébrales survenant avec l’âge. Dans le cadre de l’audition, les processus cognitifs auditifs correspondent à l’ensemble des processus permettant l’interprétation de l’information auditive. Ils impliquent, entre autres, des facteurs linguistiques, mnésiques, attentionnels et émotionnels relevant de structures cérébrales autres que les aires auditives primaires. Dans la seconde moitié des années 1990, un groupe de recherche berlinois sur le vieillissement (Berlin Aging Study), dirigé par Paul Baltes, a développé une approche intégrée centrée sur le traitement de l’information auditive. En comparant les capacités sensorielles et cognitives de sujets âgés (de 70 à 103 ans) à celles de sujets adultes (de 25 à 69 ans), ils ont montré que la mesure couplée des capacités visuo-auditives (sensibilité auditive et acuité visuelle) était plus fortement corrélée à la dégradation des capacités cognitives liée à l’âge que la mesure de la vitesse de traitement cognitif (temps de réaction). Ils ont ainsi proposé quatre hypothèses pouvant expliquer les interactions entre vieillissement cognitif et vieillissement auditif : 106 37273_Monographie_N45.Nais_vie_m106 106 18/09/08 14:41:56 • • • • (i) l’hypothèse de la cause commune : le déclin cognitivo-perceptif est symptomatique d’une dégénérescence neuronale généralisée ; (ii) l’hypothèse de la charge cognitive : le déclin cognitif entrave le fonctionnement auditif ; (iii) l’hypothèse de la privation sensorielle : le déclin auditif aboutit à un déclin cognitif permanent ; (iv) l’hypothèse de la dégradation informationnelle : l’appauvrissement de l’information auditive afférente altère le fonctionnement cognitif. Effet combiné de l’atteinte auditive centrale et du vieillissement cognitif Les éventuels troubles cognitifs liés au vieillissement – portant notamment sur les capacités attentionnelles et de mémoire à court terme- peuvent aggraver les perturbations centrales et majorer les difficultés de compréhension de la parole. Schématiquement, on peut dire que l’implication de l’atteinte centrale et/ou cognitive dans la dégradation de la perception auditive liée à l’âge est d’autant plus importante que le stimulus acoustique est complexe et/ou la situation d’écoute dégradée ou concurrentielle. Ainsi, une situation de communication interpersonnelle reste possible dans le silence, grâce à la lecture labiale et à la suppléance mentale. Par contre, en milieu bruité ou concurrentielle, la communication devient difficile, voire impossible : d’une part, du fait de la dégradation du codage et de la transmission du message afférent auditif ; d’autre part, du fait d’une sollicitation supramaximale des processus cognitifs, dépassant les capacités du sujet âgé malentendant (cf. fig. 14). ∂ fig. 14. Communication interpersonnelle (modèle de Shannon et Weaver) : En haut, communication dans le silence. En bas, communication en milieu bruité ou concurrentiel. (D’après Einar Faanes, Wikimedia Commons 2006). 107 37273_Monographie_N45.Nais_vie_m107 107 18/09/08 14:41:59 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie Mécanismes impliqués dans la dégradation de l’intelligibilité de la parole au cours du vieillissement Historiquement, deux conceptions se sont opposées pour expliquer la dégradation de la compréhension de la parole avec l’âge (cf. fig. 13). À la fin des années 1980, un groupe d’étude américain sur l’intelligibilité de la parole et le vieillissement a développé un modèle physiopathologique comportant trois mécanismes distincts : (i) une atteinte sensorielle périphérique, (ii) une atteinte auditive centrale et (iii) une atteinte cognitive (CHABA, 1988). Cette conception était basée sur une organisation traditionnelle du système auditif (avec un fonctionnement en série) et sur le principe physiopathologique du niveau lésionnel. De fait, les trois niveaux d’atteinte anatomofonctionnelle s’excluaient mutuellement. Par la suite, l’absence de résultats expérimentaux en faveur d’un facteur physiopathologique unique, associée aux données histopathologiques chez l’animal -montrant une interaction réciproque entre vieillissement auditif périphérique et central-, a conduit les chercheurs à modifier leur conception, notamment sous l’impulsion des travaux du groupe de recherche berlinois sur le vieillissement. L’évolution s’est donc faite vers une approche plus intégrée, centrée sur le traitement de l’information auditive et impliquant un dysfonctionnement plus global, avec des interactions réciproques sensorielles et cognitives (pour une revue, cf. Pichora-Fuller et Souza, 2003). 3.1.3.2. Résultats expérimentaux Comme nous l’avons évoqué précédemment, le vieillissement auditif (périphérique et central) peut entraîner une perturbation des processus cognitifs, de même que le vieillissement cognitif est susceptible d’entraver la perception auditive. De nombreuses études ont donc cherché à préciser les interactions réciproques qui pouvaient exister entre troubles sensoriels et troubles cognitifs. Influence des troubles auditifs sur le fonctionnement cognitif Certaines données actuelles sont en faveur d’une influence des troubles sensoriels auditifs sur le fonctionnement cognitif. La principale conséquence est une réduction des capacités de communication, liée à une dégradation du message auditif afférent et à une détérioration de sa compréhension, pouvant aboutir dans les cas les plus sévères à un isolement social (Arlinger, 2003). Si l’on reprend la classification berlinoise, les conséquences peuvent varier en fonction de l’échelle temporelle, avec des répercussions à long terme (“probablement irréversibles”) pour l’hypothèse de la privation sensorielle et des modifications à court terme (“possiblement réversibles”) pour l’hypothèse de la dégradation informationnelle. Cette dernière hypothèse est importante à prendre ne compte, dans la mesure où elle suggère que l’amélioration du message auditif afférent est susceptible d’améliorer le fonctionnement cognitif. Elle justifie 108 37273_Monographie_N45.Nais_vie_m108 108 18/09/08 14:41:59 par là les approches thérapeutiques actuelles basées sur la réafférentation sensorielle des sujets âgés, par exemple par le biais de prothèses auditives (pour une revue, cf. Kricos, 2006). Dans ce cadre, la restauration de la fonction auditive – par son “potentiel thérapeutique” sur les troubles cognitifs – pourrait être une des mesures importantes à réaliser chez les sujets âgés malentendants présentant un syndrome démentiel (cf. Infra). Facteurs cognitifs impliqués dans la dégradation de la perception auditive L’implication de facteurs cognitifs dans la dégradation de la perception auditive est également supportée par les résultats de plusieurs études. Quatre catégories de processus cognitifs susceptibles d’être perturbés avec l’âge ont pu être identifiées : (i) pour les processus automatiques : un ralentissement de la vitesse de traitement cognitif pourrait détériorer l’intégration des messages auditifs à fluctuations rapides, comme la parole ; (ii) pour les processus attentionnels : une diminution des ressources attentionnelles et/ou des capacités d’attention sélective auditive seraient susceptibles de conduire à une dégradation des performances dans des conditions d’écoute difficile ou en présence d’un distracteur (cf. fig. 15) ; D fig. 15. Implication du facteur attentionnel dans la dégradation de la perception auditive avec l’âge : le taux moyen d’erreur de reconnaissance de sons purs est représenté en fonction de la durée de l’intervalle de temps entre les deux stimuli à comparer. Dans la condition sans distracteur (intervalle interstimulus silencieux), les performances des sujets âgés et des sujets jeunes sont globalement superposables. Dans la condition avec distracteur (stimuli auditifs interférents pendant l’intervalle interstimulus), les performances des sujets âgés se dégradent de manière plus importante que celles des sujets jeunes, pour les délais longs (> 8 secondes). (D’après Chao et Knight, 1997). 109 37273_Monographie_N45.Nais_vie_m109 109 18/09/08 14:42:02 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie (iii) pour les processus mnésiques : un déficit de la mémoire à court terme et de la mémoire de travail pourrait conduire à des difficultés d’intégration de messages auditifs longs et complexes (cf. fig. 16) ; D fig. 16. Implication de la mémoire dans la dégradation de la compréhension de la parole avec l’âge : le taux de reconnaissance de mots (phonétiquement équilibrés) et de phrases courtes (sans signification) est représenté en fonction de l’âge. Pour les classes d’âge élevées (> 70 ans), la dégradation modérée des performances pour la reconnaissance des mots correspond à un déficit d’origine auditive, alors que la dégradation plus marquée des performances pour la reconnaissance des phrases correspond à un déficit mixte, sensoriel et cognitif. La différence de performances entre les deux conditions représente la participation cognitive – par le biais d’une détérioration de la mémoire à court terme dans la dégradation de la compréhension de la parole (d’après Jerger et Hayes, 1977). (iv) enfin, pour les processus linguistiques et les facteurs émotionnels : une variabilité du niveau de “compétence” verbale serait susceptible de faciliter ou non l’interprétation de l’information auditive grâce à l’utilisation de connaissances linguistiques ou d’indices contextuels (cf. fig. 17 page suivante). 3.1.3.3. Vieillissement auditif et processus démentiel Dans certains cas, la presbyacousie peut se développer conjointement à des troubles cognitifs. Les relations entre ces deux phénomènes ont plus particulièrement été étudiées pour la maladie d’Alzheimer, 110 37273_Monographie_N45.Nais_vie_m110 110 18/09/08 14:42:02 ∂ fig. 17. Implication des facteurs linguistiques dans la perception de la parole : le rapport signal/bruit moyen correspondant au seuil d’intelligibilité vocale (50 % de bonnes réponses) est représenté en fonction du type de matériel verbal testé, dans cinq groupes d’auditeurs : sujets jeunes ou âgés normoentendants (NE) et sujets presbyacousiques (presby) avec une perte auditive croissante (de 1 à 3, pour un seuil tonal à 4 kHz de 23 à 45 dB HL). Tous les sujets âgés avaient des capacités cognitives conservées (score MMSE normal pour l’âge). Même s’il existe des différences de performance entre sujets jeunes et sujets âgés indépendamment de la presbyacousie (colonnes noires et blanches), tous les sujets âgés – normoentendants ou presbyacousiques ont bénéficié des indices contextuels pour améliorer leurs scores (colonnes hachurées) (d’après Frisina et Frisina, 1997). pathologie dégénérative grave et invalidante qui représente la première cause de démence -avec environ 800 000 cas en France-. Dans ce cadre, deux problématiques doivent être abordées : d’une part, le rôle de la surdité dans le développement des troubles cognitifs ; d’autre part, le rôle de la réhabilitation audioprothétique dans l’amélioration des troubles cognitivo-comportementaux du patient dément malentendant (pour une revue, cf. Petitot et al., 2007). La surdité comme facteur de risque de démence Les relations entre maladie d’Alzheimer et troubles de l’audition sont complexes. Une équipe américaine de l’Université de Washington à Seattle a montré -dans une étude cas-témoinsque l’incidence de la surdité (avec un seuil tonal moyen supérieur à 30 dB HL) était deux fois plus importante dans un groupe de cent patients Alzheimer que dans un groupe de cent sujets témoins non déments, appariés pour l’âge, le sexe et le niveau d’éducation (odds ratio1 à 2). Ils ont aussi montré que l’acuité auditive était inversement corrélée à la sévérité des troubles cognitifs (mesurés par le MMSE). Une autre équipe a constaté que les troubles centraux de traitement de l’information auditivoverbale pouvaient avoir une valeur annonciatrice et précéder jusqu’à 8 années la survenue d’une démence de type Alzheimer. L’ensemble de ces résultats suggère que la surdité -non appareillée- est un facteur de risque indépendant de démence chez les sujets âgés. Cette hypothèse a récemment été confirmée par une autre étude épidémiologique transversale réalisée par le Groupe de Recherche Alzheimer Presbyacousie – GRAP (avec le soutien de la Fondation Siemens) : l’étude AcouDem (Pouchain et al., 2007). Elle a montré que la prévalence des troubles cognitifs chez les personnes âgées était plus élevée chez les patients malentendants avec une gêne sociale que chez les sujets normoentendants (odds ratio à 2,5) (cf. fig.18). 1 Dans ce cas, l’odds ratio (ou rapport des cotes) correspond au rapport [(sujets malentendants / sujets normoentendants pour les patients Alzheimer) / (sujets malentendants / sujets normoentendants pour les sujets témoins)]. Il permet d’estimer le risque relatif, c’est-à-dire la “force” du lien entre démence et surdité. 111 37273_Monographie_N45.Nais_vie_m111 111 18/09/08 14:42:05 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie ∂ fig. 18. Relations entre statut auditif et troubles cognitifs : il existe une relation entre les troubles auditifs (TA, évalués par une acoumétrie verbale) et les troubles cognitifs (TC, évalués par MMSE, test de l’horloge et test de fluence verbale). Plus les troubles auditifs sont importants, plus la dégradation cognitive est sévère (nombre de sujets âgés testés = 308, âge moyen de 85 ans). (D’après les résultats de l’Étude AcouDem du GRAP, Pouchain et al., 2 007). Quant au mécanisme physiopathologique sous-jacent, il est possible que la désafférentation auditive ait un rôle délétère sur le fonctionnement cognitif. Par son retentissement sur les capacités de communication interpersonnelle et sa carence en termes de stimulation cognitive, la déficience auditive pourrait non seulement favoriser le développement d’une neuroplasticité maladaptative, mais aussi compromettre l’utilisation des réserves cognitives supposées retarder les symptômes de la démence. Cela aurait pour conséquences une accélération du déclin cognitif, ainsi qu’une majoration des répercussions cliniques et psychosociales de la maladie d’Alzheimer. La réhabilitation audioprothétique comme traitement non médicamenteux des patients Alzheimer malentendants. En réponse au rôle possible de la surdité dans le développement des troubles cognitifs, quelques équipes ont étudié le bénéfice potentiel d’un appareillage auditif chez les patients Alzheimer présentant une presbyacousie. L’équipe de John Durrant à l’Université de Pittsburgh a notamment montré -chez huit patients Alzheimer malentendants- que la réhabilitation audioprothétique par appareillage monaural réduisait les troubles comportementaux liés à la maladie, ainsi que les scores au questionnaire de handicap auditif du sujet âgé (Hearing Handicap Inventory for the Elderly) (Palmer et al., 1 999). Les résultats étaient évidemment tributaires d’une bonne compliance au port de l’aide auditive, c’est-à-dire au moins cinq heures par jour. En France, le CHU de Lyon poursuit actuellement un Programme Hospitalier de Recherche Clinique National intitulé « Maladie d’Alzheimer, surdité et appareillage auditif : une nouvelle stratégie de prise en charge - Étude EClA-P2A » (avec le soutien de la Fondation Médéric Alzheimer). Cette étude en trois volets a pour objectifs principaux : (i) d’évaluer la prévalence des troubles de l’audition et les besoins en matière d’aides auditives de la 112 37273_Monographie_N45.Nais_vie_m112 112 18/09/08 14:42:06 population Alzheimer, par une étude de prévalence et longitudinale multicentrique impliquant également les CHU de Saint-Etienne, Dijon, Grenoble et Rennes ; (ii) d’évaluer le bénéfice cognitivo-comportemental de l’appareillage auditif binaural des sujets Alzheimer, par un essai thérapeutique en double aveugle, randomisée contre placebo ; (iii) d’évaluer l’impact médico- économique de cette prise en charge audioprothétique. Elle devrait permettre de compléter les résultats déjà disponibles. En guise de conclusion Face aux interrelations entre vieillissement auditif et vieillissement cognitif ou démence -et compte tenu des résultats encourageants suggérant un bénéfice de la réhabilitation audioprothétique des patients Alzheimer malentendants-, la question de savoir s’il faut envisager une prise en charge audioprothétique précoce des patients âgés, à titre de prévention du vieillissement cognitif, se posera forcément un jour. Espérons que les études en cours et à venir permettront d’apporter une réponse claire et univoque à cette interrogation. 113 37273_Monographie_N45.Nais_vie_m113 113 18/09/08 14:42:09 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie Références bibliographiques 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. Arlinger S (2 003). Negative consequences of uncorrected hearing loss--a review. Int J Audiol 42 Suppl 2 : 2S17 – 2S20. CHABA (Committee on Hearing, Bioacoustics, and Biomechanics) (1 988). Speech understanding and aging. Commission on Behavioral and Social Sciences and Education, National Research Council. J Acoust Soc Am 83 (3) : 859 – 895. Chao LL, Knight RT (1 997). Prefrontal deficits in attention and inhibitory control with aging. Cereb Cortex 7 (1) : 63 – 69. Chisolm TH, Willott JF, Lister JJ (2 003). The aging auditory system : anatomic and physiologic changes and implications for rehabilitation. Int J Audiol 42 Suppl 2 : 2S3 – 2S10. Frisina DR, Frisina RD (1 997). Speech recognition in noise and presbycusis : relations to possible neural mechanisms. Hear Res 106 (1-2) : 95 – 104. Jerger J, Hayes D (1 977). Diagnostic speech audiometry. Arch Otolaryngol 103 (4) : 216 – 222. Kricos PB (2 006). Audiologic management of older adults with hearing loss and compromised cognitive/psychoacoustic auditory processing capabilities. Trends Amplif 10 (1) : 1 – 28. Palmer CV, Adams SW, Bourgeois M, Durrant J, Rossi M (1 999). Reduction in caregiver-identified problem behaviors in patients with Alzheimer disease post-hearing-aid fitting. J Speech Lang Hear Res 42 (2) : 312 – 328. Petitot C, Perrot X, Collet L, Bonnefoy M (2 007). Maladie d’Alzheimer, troubles de l’audition et appareillage auditif : une revue des données actuelles. Psychol Neuropsychiatr Vieil 5 (2) : 121 – 125. Pichora-Fuller MK, Singh G (2 006). Effects of age on auditory and cognitive processing : implications for hearing aid fitting and audiologic rehabilitation. Trends Amplif 10 (1) : 29 – 59. Pichora-Fuller MK, Souza PE (2 003). Effects of aging on auditory processing of speech. Int J Audiol 42 : 2S11 – 2S16. Pouchain D, Dupuy C, San Jullian M, Dumas S, Vogel MF, Hamdaoui J, Vergnon L pour le GRAP (2 007). La presbyacousie est-elle un facteur de risque de démence ? Etude AcouDem. Rev Gériatr (Paris) 32(6) : 439–445. 114 37273_Monographie_N45.Nais_vie_m114 114 18/09/08 14:42:09 3.1.4. Altérations au sein du vieillissement général en clinique gérontologique L’allongement de la durée de la vie expose de plus en plus nos patients aux risques du vieillissement. 3.1.4.1. Aisance à 60 ans L’amélioration des conditions de vie, d’hygiène, de travail et d’accès au soins permet à la majorité de nos concitoyens d’arriver en bonne santé à 60 ans. Les conditions sociales et financières sont également satisfaisantes. Les décennies à venir vont être marquées par l’augmentation considérable des 85 ans et plus, + 80 % en moyenne en France entre 2005 et 2015. Les deux tableaux ci-dessous en rapportent l’ampleur. 1962 1968 1975 1982 1990 1999 2004 60 - 64 13,2 13,7 13,3 11,9 12,8 13,6 13,1 75 ans ou plus 4,9 5,1 5,6 6,6 7,1 7,7 8,7 D Espérance de vie résiduelle à 60 ans et à 75 ans. Source : Insee, bilan démographique Année de 60 à 64 ans de 65 à 74 ans de 75 à 84 ans 85 ans ou plus 1950 2 036 667 3 162 407 1 364 113 200 588 1970 2 636 052 4 117 873 1 932 640 423 099 1990 2 892 072 4 033 096 2 963 935 874 483 2000 2 709 739 5 177 071 2 977 615 1 267 516 2004 2 630 770 5 114 238 3 680 400 1 076 816 2006 2 744 379 5 018 984 3 837 851 1 201 927 2007 3 025 479 4 930 531 3 865 773 1 314 789 2008 3 293 797 4 890 222 3 907 008 1 414 920 D Evolution du nombre de personnes âgées. Source : Insee, bilan démographique 3.1.4.2. Dépendance et isolement à 80 ans La vieillesse est une étape de l’existence pendant laquelle chacun doit pouvoir poursuivre son épanouissement écrit Robert Moulias. L’apparition de la dépendance, quand elle survient, se fait à un âge de plus en plus tardif. 115 37273_Monographie_N45.Nais_vie_m115 115 18/09/08 14:42:12 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie Ainsi, à partir de 80 ans, 28 % des personnes qui vivent chez elles, et qui sont principalement des femmes, manquent d’autonomie pour certains gestes de la vie quotidienne ; 72 % ont besoin d’aide pour un certain nombre de tâches domestiques et 11 % n’ont ni sorties, ni relations, ni contacts téléphoniques avec des tiers. Autonomie L’autonomie correspond littéralement à la capacité qu’à un individu à se gouverner lui-même : - capacité de se gouverner par ses propres lois, de faire des choix dans sa vie en ce qui concerne les règles de sa conduite, les actes qu’il effectue et les risques qu’il prend, - capacité d’accomplir seul les actes essentiels de la vie quotidienne, en évitant d’assimiler le concept d’autonomie sous l’angle trop strict d’autonomie fonctionnelle, - capacité de se mouvoir seul ou autonomie locomotrice. Dépendance Elle correspond à une certaine forme de soumission à autrui puisque, dans cette situation, l’individu ne peut plus assurer seul sa propre vie. En gérontologie, cette dépendance oblige à un transfert vers un tiers d’actes nécessaires pour assurer les besoins essentiels de la vie courante. Autonomie et dépendance sont deux notions non symétriques Le terme d’autonomie est souvent employé à tort en gérontologie pour désigner le contraire de la dépendance. Bien qu’il existe un lien très fort entre dépendance et autonomie, la distinction entre ces deux concepts est importante. En effet, un sujet peut être très dépendant tout en exprimant son autonomie, en conservant le choix et la gestion de ses moyens d’assistance. Pour le gériatre, le respect et la recherche de l’autonomie de la personne en luttant contre la dépendance sont prioritaires. La dépendance ne doit pas être considérée comme irréversible et liée uniquement au vieillissement. Le vieillissement est un facteur prédisposant, la pathologie un facteur aggravant. Au total, il ne peut y avoir d’évaluation pertinente de la dépendance sans une évaluation globale du sujet âgé. Le concept de Wood Le concept qui permet d’analyser les répercussions de la pathologie sur les capacités fonctionnelles a été précisé par les travaux de Wood. Une maladie ou un accident peuvent entraîner une déficience, entendue comme une altération temporaire ou définitive, d’une structure ou d’une fonction anatomique, physiologique ou psychologique. L’incapacité qui en résulte est définie comme une réduction partielle ou totale, de la faculté d’accomplir une activité de la manière considérée comme normale pour un être humain. Quant au handicap, il concerne le désavantage social résultant de l’incapacité, compte tenu des 116 37273_Monographie_N45.Nais_vie_m116 116 18/09/08 14:42:13 contraintes auxquelles est soumis l’individu et des ressources matérielles, psychologiques et sociales dont il dispose pour y faire face. Déficience Notion biomédicale : perturbation d’une structure ou perte d’une fonction de l’organisme Incapacité Notion fonctionnelle : diminution de la performance et restriction d’activité Handicap Notion de comportement social : désavantage conféré par l’incapacité et la déficience Comme le rappelle B. Ennuyer, cette définition repose sur un modèle de causalité linéaire, allant du médical au social imposant par une vision médicale du problème. Ce modèle ayant été appliqué de manière inadéquate à la vieillesse, a fait de celle-ci une maladie chronique. Elle interdit du même coup l’analyse du handicap et du besoin d’aide, comme étant causé d’abord par le social, ses usages, ses règles, ses normes et ses représentations. Exemple de la surdité Lésion oreille interne o élasticité membrane basilaire o élasticité ligament spiral o concentration endolymphe o dégénérescence de l’organe de Corti • Dégénérescence du nerf cochléaire • Baisse des seuils de perception • Perte intelligibilité du langage • Perte de communication • Isolement d Déficience d Incapacité d Dépendance 117 37273_Monographie_N45.Nais_vie_m117 117 18/09/08 14:42:16 Monographie naissance vie et mort de l'oreille chapitre 03 son déclin : la presbyacousie • • 11 % n’ont aucune déficience, 13 % présentaient 6 déficiences ou plus. Nous observons que les principales déficiences portent sur les fonctions visuelles et masticatoires. Il est important de rappeler que les soins dentaires, auditifs et optiques sont les deux postes les moins bien pris en charge par l’assurance maladie. Prévalence accrue chez les plus de 85 ans 4 déficience sévère de la continence fécale (11,82 % de la classe) : x 2 4 déficience sévère de la continence urinaire (21,62 % de la classe) : x 1,8 4 déficience de parole et du langage (12,33 % de la classe) : x 1,8 4 déficience intellectuelle (28,54 % de la classe) : x 1,5 4 déficience des membres inférieurs (50,33 % de la classe) : x 1,4 4 Déficience auditive (42,56 % de la classe) : x 1,4 FREQUENCE - % D Prévalence des principales déficiences des plus de 75 ans (CNAMTS - service médical de la région Nord Est - mars 97). En autre termes, la vieillesse est l’un des facteurs de risques de la cascade déficience, incapacité, handicap. Le rôle du médecin est d’agir sur ces déficiences mais d’autres approches doivent être explorées parallèlement. En conclusion La presbyacousie est un facteur majeur d’isolement et d’aggravation des pathologies du vieillissement : dépression, démence, réduction des activités sociales … Il faut privilégier une prise en charge globale afin d’éviter les conséquences psychologiques et sociales trop souvent négligées. 118 37273_Monographie_N45.Nais_vie_m118 118 18/09/08 14:42:16 3.2. Diagnostic de la presbyacousie 3.2.1. Signes précoces et évolution naturelle de la presbyacousie Les signes annonciateurs ou déjà patents de la presbyacousie sont insidieux car inattendus à un âge relativement précoce. Or, ils peuvent survenir dès l’âge de 50 ans et si le praticien s’attache à les rechercher leur mise en exergue est aisée. C’est, en effet, dans l’analyse des situations où le sujet est soumis à une «écoute difficile» qu’il faut rechercher la pathologie et en particulier : - au cours des réunions professionnelles, - dans une ambiance «cocktail party», - à l’écoute de la télévision en milieu bruyant. On interrogera donc ce «jeune patient» quant à ses capacités de compréhension dans ces moments là. La présence de la moindre gêne indique un examen physique suivi d’un examen audiométrique. Méconnue, la presbyacousie va globalement évoluer en trois étapes (fig. 19) : D fig. 19 : les signes de la presbyacousie non traitée - de 50 à 60 ans : la plupart des sujets sont encore en pleine activité professionnelle. La diminution progressive de leur perception des fréquences aiguës n’altère qu’insidieusement la compréhension de la parole et, d’ailleurs, ils la nient. Un effort supplémentaire, dont le sujet ne soupçonne pas 119 37273_Monographie_N45.Nais_vie_m119 119 18/09/08 14:42:22 Monographie chapitre - - naissance vie et mort de l'oreille 03 son déclin : la presbyacousie toujours qu’il le produit génère une fatigabilité et une irritabilité au fil des heures, des journées et des ans. Les premiers à en souffrir sont par exemple ceux qui pratiquent une langue étrangère et qui constatent la difficulté à intégrer la conversation du soir en ambiance bruyante alors que les communications du matin sont habituellement, faciles et efficaces, de 65 à 70 ans : beaucoup de patients sont pré ou déjà retraités et constatent cruellement que l’ex-fatigabilité n’est plus due à la surcharge professionnelle : ils avouent de réelles difficultés de compréhension dans le bruit, ambiance qu’ils supportent d’ailleurs de plus en plus mal. Ils conservent à ce stade une fierté à ne pas faire répéter mais craignent tout autant le ridicule de la réponse non-adaptée à la question. Outre la perte inéluctable de la perception des sons aigus s’ajoute le douloureux phénomène du recrutement faisant naître l’intolérance au bruit, au-delà de 70 ans : loin de la richesse créative de l’activité professionnelle le malentendant s’est peu à peu isolé. Son irritabilité peut aller jusqu’à l’agressivité : il accuse l’entourage de parler volontairement plus bas ou de mal prononcer. Il perd peu à peu la notion de distance entre lui-même et l’information sonore et rencontre de réelles difficultés dans la localisation spatiale. Jour après jour, il a adopté des attitudes d’évitement, choisi de plus en plus rares correspondants avec lesquels la communication devient de plus en plus difficile. A l’extrême, il s’est coupé du monde pour restreindre son univers à celui du couple et il peut évoluer vers un état dépressif grave. 3.2.2. Incidence sociale de la presbyacousie méconnue ou non traitée Elle se détermine en fonction des stades précédemment décrits (fig. 20) : D fig. 20 : spirale sociale du presbyacousique et de son entouragev 120 37273_Monographie_N45.Nais_vie_m120 120 18/09/08 14:42:24 La première phase d’irritabilité sera mise sur le compte d’une fatigue professionnelle et, le plus souvent, cette phase passera inaperçue. Au cours de la deuxième phase, l’entourage va tout faire pour compenser le déficit : • niveaux d’élocution plus élevés, • niveaux d’écoute plus élevés aussi : télévision, radio, musique, démarche qui commence à gêner l’entourage, • la répétition des messages provoque par ailleurs un ton de voix inadapté et destiné à un « récepteur » déjà très irritable… • le couple, à ce stade, limite volontairement son activité sociale. Au cours de la phase trois, la surdité est devenue un état de fait. L’entourage ne lutte plus contre le handicap mais s’en accommode ; pire, l’entourage joue en fait un rôle d’écran de type « interprète » entre le malentendant et son environnement : l’isolement social du malentendant est achevé. 3.2.3. Diagnostic clinique et audiométrique Au vu de ce qui vient d’être rapporté, on conçoit que la démarche du praticien ORL au cours de sa consultation doit : - s’attacher à reconnaître par l’interrogatoire les signes annonciateurs de la presbyacousie, - en faire le diagnostic grâce à l’examen physique puis à l’examen audiométrique, - expliquer au patient les possibilités thérapeutiques, dont l’adaptation prothétique, - expliquer le risque encouru à méconnaître et ignorer la pathologie, - proposer le rythme et les modalités du suivi médical. 3.2.3.1. L’interrogatoire Il est, comme toujours en médecine, incontournable. Il a été rapporté plus haut et nous n’insisterons que sur les points particuliers du presbyacousique : - le patient, plus souvent que la patiente, refuse sa déficience auditive, se demande pourquoi il consulte d’autant qu’il entend parfaitement dans un monde de locuteurs qui ne savent plus articuler… Le praticien lui doit patience, compréhension et intérêt : en lui évoquant les situations sonores où l’intelligibilité est particulièrement mise à mal, il constate bien souvent que le quinquagénaire récalcitrant du début de consultation libère sa gêne inavouée depuis des années. Le diagnostic est suspecté devant ce trouble de l’intelligibilité progressif, déjà ancien, et, surtout, bilatéral : le coté droit n’est pas distingué du gauche, - l’absence de bilatéralité suffit à éliminer, a priori, le diagnostic, - la présence d’acouphènes, rassurants lorsqu’ils sont bilatéraux est fréquente, - on recherche ensuite les antécédents : travail en milieu bruyant, traumatismes sonores, antécédents otologiques, chirurgicaux et médicaux… 3.2.3.2. L’examen clinique Il doit être complet, ainsi qu’exposé au paragraphe 2.4.1. 121 37273_Monographie_N45.Nais_vie_m121 121 18/09/08 14:42:28 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie L’état général du patient, sa rapidité d’idéation, son aptitude à s’adapter sont autant de facteurs enregistrés par la simple écoute ou observation. On notera l’absence de signes labyrinthiques spontanés, des paires crâniennes fonctionnant de façon symétrique et sans déficit. L’examen otoscopique et celui du cavum sont normaux. Surtout, le diapason met en évidence une surdité de perception pure, sans latéralisation du Weber. 3.2.3.3. L’examen audiométrique L’audiométrie tonale met en évidence une surdité de perception pure, bilatérale et parfaitement symétrique, prédominant sur les aigus. L’audiométrie vocale quantifie le seuil d’intelligibilité, reste en rapport avec les résultats de la tonale, confirme la symétrie de l’atteinte et qualifie le fonctionnement linéaire ou non de la cochlée. De ces résultats, le praticien ORL peut estimer déjà les éventuelles difficultés d’appareillage. La recherche du seuil des stapédiens quantifie la valeur du recrutement éventuel. L’impédancemétrie est bien entendu normale. 3.2.3.4. L’annonce du diagnostic Résultats audiométriques à la main, le praticien a un rôle capital à jouer à ce moment là, tant ses premiers mots pèseront lourdement sur l’avenir auditif du patient. Le premier temps consiste à lui expliquer que les difficultés d’intelligibilité sont en rapport certain avec une véritable pathologie cochléaire, certes bénigne mais très inconfortable et invalidante. Il doit être persuadé qu’il n’y a aucun doute diagnostique. Le deuxième temps est de lui faire comprendre que le praticien dispose de solides armes thérapeutiques face à une pathologie lentement mais sûrement évolutive, armes technologiques surtout, dont les formidables et réguliers progrès laissent penser qu’ils compenseront exactement la dégradation due à l’age. Le troisième temps consiste à exposer au patient les risques à mépriser son problème pour ne le considérer que plus tard : un parallélisme avec le conseil du port d’une canne avant la chute, et non l’inverse, peut aider à faire comprendre la démarche de l’adaptation précoce à une audioprothèse. Le quatrième temps est, si le praticien le juge utile, de conseiller le port d’audioprothèses en conseillant au patient de « pousser la porte » de l’audioprothésiste, non pour y être forcément appareillé mais pour y prendre conseil. Les ordonnances sont rédigées au besoin ainsi qu’une lettre d’accompagnement pour l’audioprothésiste, insitant sur tel ou tel point original. Le conseil de l’achat d’un casque de qualité pour l’écoute de la télévision est un bon moyen d’aider notre patient à comprendre qu’une aide auditive peut rendre sa vie plus confortable… Le dernier temps consiste à conseiller le suivi médical : une consultation systématique, à un an, sauf signes cliniques nouveaux permettra d’apprécier l’évolutivité de l’atteinte ainsi que les résultats de l’éventuelle prothèse. 122 37273_Monographie_N45.Nais_vie_m122 122 18/09/08 14:42:28 3.3. Sa prise en charge : l'aide auditive Programmer une adaptation prothétique c’est, schématiquement, répondre à 3 questions : - quand faut-il appareiller ? - quel résultat peut-on espérer ? - comment appareiller ? À ces questions simples en apparence, nous allons tenter d’apporter des réponses simples sans être simplistes. 3.3.1. Quand faut-il appareiller ? Si les « plus de 50 ans » ne représentent qu’un tiers de la population totale, ils comptent pour plus des deux tiers des malentendants. Î 0- 16 ans 22 % 17 - 34 ans 27 % D 6%Î Î 0- 16 ans 22 % Î 12 % 42 % (presque une personne sur 2) Î Î 15 % D35 - 49 ans 15 % 25 % (une personne sur 4) D 65 ans et plus 15 % D D Part de la population en % D Population malentendante en % Traditionnellement, il était classique de considérer qu’une baisse de 25 à 30 dBHL sur les fréquences conversationnelles était une perte suffisante pour indiquer la mise en place d’audioprothèses. En fait, l’évolution des pratiques et des performances des aides auditives ont conduit à prendre en compte, en dehors d’éventuelles contre-indications, deux autres facteurs : - la gêne sociale, et la prise en charge doivent débuter dès l’apparition de cette gêne, la motivation du patient : il ne s’agit pas de la motivation à porter des appareils mais plutôt de celle à améliorer son confort en société. 123 37273_Monographie_N45.Nais_vie_m123 123 18/09/08 14:42:31 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie 3.3.2. Quels résultats peut-on espérer ? Il s’agit de la partie prédictive de l’indication et, par là même de la « promesse » que l’on peut faire au patient. La première évaluation va prendre en compte ses capacités globales, manipulation, mémoire, désir de communiquer, et la réalité de ses courbes tonales et surtout vocales. Ceci va permettre de fixer des objectifs à l’appareillage tant du point de vue de l’intelligibilité que du point de vue du type d’appareil que l’on pourra envisager. 3.3.3. Comment appareiller ? 3.3.3.1. De la première visite chez l’audioprothésiste à la démarche d’appareillage L’étape suivante est la prise en charge par l’audioprothésiste, au laboratoire, du patient pour réaliser un bilan d’orientation prothétique. Il est important de dire à nouveau que c’est l’individu que nous prenons en charge et non pas seulement ses « oreilles ». Adressé le plus souvent par le médecin ORL, le patient arrive généralement avec une idée de l’adaptation prothétique très éloignée de la réalité. Le premier rendez-vous sera déterminant car il va devoir concilier des examens qui vont conduire à des choix d’ordre technique et des contraintes d’ordre esthétique ou liées aux capacités de manipulation du patient. Son déroulement est le suivant : 1) Anamnèse : Histoire prothétique : malade déjà appareillé ou non, Histoire ayant motivé ce rendez-vous. 2) Examens : -Otoscopie En cas d’anomalie inattendue, parfois due au délai entre la prescription chez l’ORL et la première visite chez l’audioprothésiste, il peut être nécessaire d’envisager un nouveau rendez-vous chez l’ORL. -Audiométrie Tonale en conduction aérienne et en conduction osseuse Vocale Vocale dans le bruit (Type Dodelé) Test de tolérance aux sons forts à pratiquer avec prudence car parfois mal toléré. 3) Echanges avec le patient : Évaluation de ses besoins et de ses souhaits Mise en évidence des différentes contraintes liées au mode de vie, à l’anatomie particulière de l’oreille externe, aux résultats audiométriques et aux questions de l’utilisation de la prothèse dans le bruit. 124 37273_Monographie_N45.Nais_vie_m124 124 18/09/08 14:42:36 4) Explication concernant l’utilisation de la prothèse dans le bruit La phrase que l’on entend le plus souvent, dès la première visite, est : « j’entends bien mais dès qu’il y a du bruit, tous les sons se mélangent et je ne comprends plus ». La demande la plus courante formulée par le patient est l’amélioration de sa compréhension dans le bruit et en société. Nous sommes donc en permanence dans la recherche de l’amélioration du rapport signal/bruit (S/B), gage de l’augmentation de la satisfaction patient et du service médical rendu. 3 6 9 12 15 18 très bonne 0 suffisante à satisfaisante Intelligibilité -9 -6 -3 insuffisance (tolérable dans certaines situations) -12 mauvaise S/B en dB bonne L’intelligibilité en fonction du rapport S/B pour un normo entendant est rapportée fig. 21. D fig. 21 Pour un normo-entendant, la compréhension passe de 20 % à 80 % pour une amélioration du S/B de 6 dB seulement. Évidemment, un malentendant appareillé est plus gêné par le bruit qu’un normo entendant du fait des distorsions engendrées par la pathologie cochléaire et pour de nombreuses autres raisons : - perte tonale fréquentielle, - distorsions cochléaires, recrutement, - perte de sélectivité fréquentielle, augmentation de l’effet de masque (fig 22, voir page suivante), - réorganisation tonotopique, durée de la privation sensorielle, - augmentation du temps d’intégration, problème de mémoire, problème d’attention… Lorsque les paramètres de gain sont établis en fonction d’une méthodologie basée sur les tests liminaires et supra liminaires, en tonale et en vocale, il est souvent nécessaire de procéder à l’activation des traitements de signaux pour améliorer le rapport S/B. En effet, un malentendant nécessite un rapport S/B largement positif pour obtenir une intelligibilité correcte. 125 37273_Monographie_N45.Nais_vie_m125 125 18/09/08 14:42:38 Monographie naissance vie et mort de l'oreille chapitre 03 son déclin : la presbyacousie fig. 22 Î ∂ En bleu, cochlée saine En rouge, perte auditive cochléaire ∂ Signaux vocaux brefs ombre temporelle cochlée atteinte Le tableau suivant décrit, en fonction de diverses situations sonores, les caractéristiques du signal et du bruit. Ces caractéristiques peuvent d’ailleurs être antagonistes en fonction des situations sonores rencontrées ! Situation sonore Signal Localisation du signal Bruits Localisation des bruits Conversation en tête à tête Voix En face Bruit de fond Diffus Réunion de famille Voix multiples Plutôt en face Autres voix, télévision, Diffus ou localisés Conversation au restaurant Voix multiples Voix multiples Voix multiples Plutôt en face Voix, couverts, musique de fond Bruits de roulements et de moteur (graves) et bruits de vent Voix multiples Diffus Conversation en voiture (conducteur) Cocktail party En face , à droite ou à gauche A droite ou derrière Cuisine Voix Plutôt en face Devant la plaque de cuisson Voix Derrière En promenade en couple dans la rue Dans la rue, seul(e) Voix A droite ou à gauche Voiture Au théatre Voix des acteurs Localisé, à droite, à gauche ou derrière En face Film à la télévision Voix des acteurs En face Chasse Animaux, clochettes, Localisés cor de chasse Hotte, frigo, VMC, robots, casseroles Hotte, frigo, VMC, robots, casseroles Bruits de circulation, vent Bruits de circulation Bruits de mouvements, applaudissements Bande sonore, musique et bruits d’ambiance Vent, feuilles, circulation lointaine, coup de feu Diffus Diffus Localisés + réverbérations Localisés + réverbérations Diffus + Localisés et variables Diffus + Localisés et variables Diffus + Localisés et variables En face Diffus et localisés On pourrait multiplier les exemples à l’infini tant les situations sonores rencontrées sont nombreuses et différentes. Signaux et bruits fluctuent et changent en définition et en localisation. Malgré la sophistication technique des aides auditives, elles n’ont pas encore l’intelligence de l’analyse 126 37273_Monographie_N45.Nais_vie_m126 126 18/09/08 14:42:39 de la scène sonore. Cependant des actions sur le son, induites par des transformations générées par les processeurs (DSP) peuvent améliorer ou diminuer le S/B en fonction de la situation sonore. Lors de l’appareillage, pour faire comprendre que le réglage parfait est impossible et qu’il faut trouver le compromis le moins mauvais ou le meilleur possible, on peut expliquer facilement ces contradictions au travers de deux exemples : - « dans la rue, en discussion avec un ami en face de vous, une voiture passe sur le côté : c’est un bruit que votre aide auditive peut atténuer grâce à un débruiteur et un système directionnel adaptatif multibandes ; mais si une voiture arrive par-derrière, hors de votre champ visuel, le bruit qu’elle produit est une information importante qui doit rester perçue par vous », - « dans la voiture, en écoutant les informations à la radio, nous pouvons améliorer la compréhension en activant un débruiteur et le système directionnel pour faire ressortir la voix provenant des hautparleurs de devant mais si votre petit-fils, en place arrière, vous parle, vous ne pourrez pas bien le comprendre ». 5) Objectif général de cette première visite : Il est avant tout d’aboutir à une solution qui soit techniquement satisfaisante et que le patient pourra accepter. Si la solution proposée est en adéquation avec les désirs, les besoins et les capacités du patient, nous pourrons convenir d’un rendez-vous pour le démarrage de l’adaptation. Quand le type d’appareil le nécessite, l’audioprothésiste sera amené à faire une prise d’empreintes pour réaliser des embouts ou des coques d’intra personnalisés. Ceci permettra d’essayer et de tester, à la prochaine visite, dans les conditions réelles d’utilisation. 3.3.3.2. De l’adaptation au suivi Le rendez-vous suivant va être dédié à l’adaptation de l’appareil avec un premier contrôle du résultat. Il faut d’abord s’assurer de la bonne « prise en main » de l’appareillage par le malentendant ou, en cas d’impossibilité, par quelqu’un de son entourage. Une grande part du réglage sera consacrée à l’ajustement des gains et des compressions. En effet, l’audiométrie tonale et le seuil subjectif d’inconfort (UCL) permettent de prédéfinir le gain nécessaire et suffisant en fonction d’un signal d’entrée, en préservant l’audibilité des sons faibles et la tolérance des sons forts. Ces paramètres seront à revoir en fonction du feedback, du larsen ou sifflement, et de l’accoutumance du patient. Les besoins du déficient auditif en terme de gain prothétique pour la compréhension d’une voix dans le calme ne sont pas les mêmes que dans une situation bruyante. Les graves sont bénéfiques à l’audibilité des voix faibles et éloignées, les aigus permettent la reconnaissance des consonnes faibles en énergie et une bande passante large améliore la compréhension dans le calme. Dès que l’on se trouve en présence de bruit, les graves provoquent un effet de masque, les aigus forts agressent l’oreille. La réduction de la bande passante permet alors l’amélioration du rapport S/B en favorisant la bande de fréquence apportant le plus d’information soit de 750 à 3 000 Hz. 127 37273_Monographie_N45.Nais_vie_m127 127 18/09/08 14:42:43 Monographie naissance vie et mort de l'oreille chapitre 03 son déclin : la presbyacousie La programmation d’une position spécifique pour le bruit avec les modifications de gain peut permettre de favoriser cette zone de fréquence. De plus, l’utilisation de temps d’attaques et de retour des compressions, ou mieux, de compressions adaptatives en fonction du type de signal permet la conservation des rapports S/B : un temps de retour adapté évite la remontée du bruit entre les syllabes en maintenant la compression active. Le contrôle prothétique, en champ libre, sera fait, avec le plus souvent, une sous-correction pour permettre une adaptation progressive à l’environnement. Une information sur l’hygiène et l’entretien des appareils sera donnée avec apprentissage de la manipulation par le malentendant ou, à défaut, par un de ces proches : mise en place, nettoyage et changement de pile. Quelques semaines plus tard, on procédera à une nouvelle évaluation du résultat, fort des observations du patient et du gain obtenu. Les réglages d’optimisation seront effectués et nous expliquerons l’intérêt de l’éducation auditive pour améliorer la discrimination fréquentielle et, par là même, l’intelligibilité. Des logiciels du type Laara, en auto-apprentissage ou avec le soutien des proches sont offerts au moment de l’adaptation. La prise en charge par un orthophoniste, après avis médical, est souvent indispensable pour mener à bien cette éducation auditive. L’orthophoniste sera aussi sollicité pour l’apprentissage de la lecture labio-faciale. Ceci, à chaque fois que les informations fournies par le canal auditif seront insuffisantes pour une intelligibilité satisfaisante de la parole et, à chaque fois que le risque d’évolution de l’audition le justifie. Lorsque les visites de réglage et d’adaptation, relativement rapprochées, seront terminées avec un port régulier des appareils, il faudra convenir d’un rythme de visites de contrôle d’au moins une fois par semestre et à chaque fois que le patient en sentira la nécessité. Il faut préciser que toutes ces visites de contrôle font partie du suivi de l’adaptation et ne donnent lieu à aucun frais pendant toute la durée de vie des appareils. 3.3.4. Avec quoi appareiller ? 3.3.4.1. « Anatomie » synthétique et fonctionnement d’une aide auditive Le schéma suivant illustre le fonctionnement global d’une aide auditive. Il traduit le parcours d’un signal sonore prélevé dans l’environnement jusqu’à l’oreille du malentendant. I entrée II 2 Traitement du signal 2 III sortie 2 IV V Interface acoustique Pile Ce schéma général suit le parcours du signal sonore prélevé dans l’environnement jusqu’à l’oreille du malentendant. I. à l’entrée, se présente au (x) microphone(s) un signal souvent complexe dans lequel se trouve le message de parole, 128 37273_Monographie_N45.Nais_vie_m128 128 18/09/08 14:42:43 II. le microprocesseur a pris la place de l’amplificateur pour traiter l’information présentée sous forme de paquets de chiffres numérisés, III. à la sortie, l’écouteur émet un signal modifié en fonction des paramètres de la programmation pour chaque cas particulier, IV. l’interface acoustique permet l’adaptation à l’anatomie de l’oreille pour assurer la constance de la correction avec un bon maintien dans le pavillon ou le méat acoustique externe, embout pour un contour, coque pour un intra, V. indispensable au fonctionnement, l’alimentation peut se faire, dans certains cas, avec des accumulateurs rechargeables. 3.3.4.2. Les différents types de prothèses auditives Les intras auriculaires Il s’agit d’une famille d’appareils. ∂ doc. Beltone) Du plus petit, d’insertion profonde dans le conduit (5), au plus volumineux qui occupe toute la conque (2), tous les intermédiaires peuvent exister. Ils seront choisis, en priorité, en fonction des besoins otologiques et environnementaux du patient et ensuite, des demandes esthétiques. L’interface acoustique est constituée par la coque qui contient l’électronique. Les contours d’oreille L’audioprothésiste dispose d’une gamme complète pour tous les niveaux de surdité. La prothèse se compose d’une partie « posée sur l’oreille » qui contient l’électronique et une partie située dans le méat, constituant l’interface acoustique, dans laquelle peut être inséré, dans certains cas, l’écouteur, on parle alors de RIC (Receiver In the Canal). 129 37273_Monographie_N45.Nais_vie_m129 129 18/09/08 14:42:46 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie L’« Open », est relié à un dôme existant en plusieurs tailles et différentes aérations. Le contour traditionnel avec coude sera prolongé par le tube et un embout moulé. Les lunettes auditives En conduction osseuse, elles gardent quelques adeptes malgré la disponibilité de la prothèse à ancrage osseux type BAHA. Il s’agit d’une classique branche de lunette, mais particulièrement épaisse, de façon à loger l’électronique dans cette épaisseur et le vibrateur à l’extrémité de la branche. Très efficace sur une bonne courbe audiométrique en conduction osseuse, elle présente plusieurs inconvénients : -nécessité de maintenir une forte pression sur l’os mastoïdien afin d’assurer une efficace transmission du son à l’os, -la pression peut entraîner, avec le temps, un remodelage de l’os, accompagné ou non de lésions cutanées, -la bande passante est limitée sur les aigus. En conduction aérienne, on ne peut plus à proprement parler de branche auditive car il s’agit d’une branche normale, coupée pour mettre un contour avec adaptateur lunette. L’adaptation offrira pratiquement les mêmes possibilités qu’en contour mais la puissance en sera tout de même limitée. Les boîtiers Tombés en désuétude depuis plusieurs années, ils gardent quelques indications en version Conduction Osseuse (avec serre-tête et vibrateur). Par exemple : dans les cas d’aplasie chez l’enfant tant qu’il ne peut pas bénéficier d’une intervention avec mise en place d’un pilier pour BAHA. 3.3.4.3. Les progrès récents Ils concernent avant tout : 130 37273_Monographie_N45.Nais_vie_m130 130 18/09/08 14:42:47 D Exemple des possibilités offertes par les programmes de réglage actuels ( doc Siemens). -la précision des réglages et l’évolutivité de l’adaptation, ainsi que l’on peut le constater sur le « tableau de réglages » rapporté ci-dessus, -les processus d’habituation accélérée par gestion individuelle et programmée des progrès - du malentendant vis-à-vis des performances d’écoute, -l’amélioration du confort et de la compréhension de la parole en ambiance bruyante. Quel que soit le progrès réalisé, il aboutit toujours à améliorer le rapport signal sur bruit (S/B). La plus ancienne des stratégies et la plus efficace consiste à modifier les gains aux différents niveaux d’entrée, les temps d’attaque et de retour des compressions ainsi que nous l’avons décrit plus haut. Mais nous souhaitons présenter ici sur les stratégies les plus récentes : -adaptations automatiques, -utilisation des débruiteurs, -utilisation de systèmes directionnels adaptatifs en multibandes, -atténuation de la réverbération, -équilibrage de la fonction binaurale. Adaptations automatiques Le but est de parfaire les réglages en fonction des différentes situations sonores rencontrées et de l’accoutumance du patient. Sur le « Pure », puce D6 de Siemens, les modifications volontaires du volume par le patient, via une télécommande, sont analysées par l’appareil qui est capable, seul, de modifier les caractéristiques des différents niveaux d’entrée en jouant sur les gains, les seuils d’enclenchement des compressions et les facteurs de compression. Par exemple : - en situation calme, la perception étant jugée trop faible, si le patient augmente le « volume » par la télécommande, l’aide auditive augmentera le gain sur tous les niveaux. - quelques instants plus tard, si la situation sonore devient bruyante, le patient diminue alors le vo- 131 37273_Monographie_N45.Nais_vie_m131 131 18/09/08 14:42:50 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie lume par la télécommande : l’aide auditive ne baisse la puissance que pour les sons forts en jouant sur les compressions (CR et TK), - après quelques jours et quelques modifications, les niveaux d’énergie se sont automatiquement ajustés à la sensation de confort du malentendant. L’avantage réside en ce que le patient bénéficie d’une aide auditive confortable donc portée. Mais on peut arriver à des aberrations avec, par exemple, un son trop comprimé, certes confortable, mais avec un rapport S/B dégradé. Aussi, l’expertise de l’audioprothésiste dans l’art du compromis reste indispensable, ainsi qu’une période de rééducation plus ou moins longue pour le patient. Les débruiteurs L’amélioration du S/B peut se faire également par les débruiteurs qui font baisser le gain dans les canaux qui contiennent du bruit. En général, la baisse du gain est plus importante pour les canaux graves et aigus que pour les canaux médiums afin de favoriser la zone la plus informationnelle de la voix. L’activité du débruiteur est souvent liée à la reconnaissance préalable de la situation sonore. Par exemple, la puce D5 de Siemens analyse en permanence 8 paramètres du signal dans les seize canaux (fig ci-dessous). Cette analyse, faite 200 fois par seconde, permet la classification du signal en six catégories : -parole dans le calme, -parole dans le bruit, -bruit seul, -calme, -musique, -vent. En fonction de la situation sonore, il y aura activation du débruiteur, appelé Traitement Vocal Privilégié (TVP) et/ou de l’émergence phonétique (ERP) (fig. 23, page suivante). En parallèle, un autre débruiteur agissant sur les signaux impulsionnels, SoundSmoothing chez 132 37273_Monographie_N45.Nais_vie_m132 132 18/09/08 14:42:51 ∂ fig. 23 Siemens, SoundRelax chez Phonak, analyse le son 20 000 fois par seconde et est capable de les réduire jusqu’à -40 dB ! (fig.s 24 et 25). L’utilisation du réducteur du bruit type SoundSmoothing permet : -une meilleure audibilité des sons aigus de la voix par la diminution de l’effet de masquage, -une amélioration sensible du confort ce qui limite le recours aux compressions. Par contre, il faut faire attention à la déformation des informations temporelles et les essais en vocale dans le bruit prennent tout leur intérêt pour obtenir le meilleur compromis. D fig. 25. Les bruits impulsionnels sont fortement réduits D fig. 24. Les bruits impulsionnels sont agressifs SoundSmoothing est totalement transparent sur la voix Les systèmes directionnels, adaptatifs en multi bandes En présence de paroles mélangées à du bruit ou à d’autres voix, les systèmes directionnels adaptatifs en multi bandes s’activent pour limiter la captation des sons provenant de côté ou de derrière. Dans le cas de la puce D5, le type de captation directionnelle est adaptatif et ce, dans 4 bandes. L’adaptation est suffisamment rapide pour pouvoir suivre un véhicule en mouvement. Il est donc possible de traiter 4 bruits simultanément pour peu que leurs bandes de fréquences soient différentes. 133 37273_Monographie_N45.Nais_vie_m133 133 18/09/08 14:42:55 Monographie naissance vie et mort de l'oreille chapitre 03 son déclin : la presbyacousie À noter qu’aujourd’hui, les meilleures aides auditives prennent en charge jusqu’à 33 canaux de polarités différents. Ces canaux étant entrelacés et les bandes passantes de bruits à traiter se recoupant, on peut estimer à 4 ou 5 maximum le nombre de bruits pris en charge par le système directionnel. L’amélioration maximum, dans les conditions optimales, peut atteindre 4 dB en bi microphones et 6 dB en tri microphones (fig. 26). fig. 26 d Ce système est de loin le plus efficace pour faire ressortir la voix d’un interlocuteur en face de soi dans un bruit de cocktail parties. Il faut remarquer qu’à l’écoute de la télévision, la source d’émission de la voix et des bruits étant 134 37273_Monographie_N45.Nais_vie_m134 134 18/09/08 14:42:57 totalement confondus, en général deux haut-parleurs en face du sujet, l’apport des systèmes directionnel est théoriquement nul. En pratique, l’utilisation d’une directionnalité fixe type hypercardioïde est très bénéfique pour réduire les bruits provenant des autres pièces ou de la cuisine adjacente en cas de cuisine à l’américaine, mais aussi pour limiter la captation des sons réverbérés, le séjour de nos patients n’ayant pas grand-chose à voir avec un auditorium. Différentes stratégies sont utilisées dans les options de directionnalité en fonction des besoins du patient : - création d’une directionnalité partielle à partir du 2 000 Hz pour recréer artificiellement la directivité du pavillon auditif, RealEarSound chez Phonak, TrueEar chez Siemens, permettant de se rapprocher au maximum du fonctionnement de l’oreille normale, - activation automatique d’une directionnalité adaptative multi bandes pour la prise en charge des situations sonores complexes. C’est un bon compromis. L’activation, suivant les marques, peut être commandée par un niveau sonore, la reconnaissance d’une situation sonore par un « classifieur » ou la présence d’une voix dominante en face, - activation manuelle d’une directionnalité fixe, hyper-cardioïde, pour les situations de conversation en tête à tête, - utilisation du fonctionnement asymétrique du cerveau en portant un appareil directionnel sur l’oreille droite et un appareil omnidirectionnel sur l’oreille gauche, appelée « directivité naturelle » par GN : cette approche, a priori sacrilège pour un fervent de l’équilibre stéréophonique, présente l’avantage d’un compromis très efficace en toutes situations lorsque les capacités du cerveau à faire la sommation des informations restent correctes. L’oreille droite capte de manière privilégiée les informations vocales frontales et l’oreille gauche capte l’ambiance sonore et les informations vocales non frontales. En pratique, ayant demandé à une vingtaine de patients de faire la différence entre deux programmes, l’un en « directivité naturelle » et l’autre en directionnalité adaptative s’enclenchant automatiquement en fonction du bruit, 80 % se trouvaient « mieux » ou « identiques » avec la directionnalité naturelle. Il faut noter que les 4 cas préférant une double directionnalité étaient en moyenne plus âgés avec des scores en vocale inférieurs. Atténuation de la réverbération : EchoStop chez Phonak Cette fonction a pour but d’analyser les sons réverbérés qui présentent comme caractéristiques : une courbe d’enveloppe similaire, une énergie plus faible et un décalage temporel dû à la vitesse du son. Une fois repérés, ils sont soustraits du signal initial pour réduire leur effet de masque. L’efficacité de ce procédé se limite toutefois aux situations simples comme une voix dans un couloir, aux toilettes ou dans la cuisine (fig. 27, voir page suivante). La complexité de certaines situations sonores, comme c’est le cas dans une église, ne permet pas encore une bonne amélioration du S/B. Parole et bruits mélangés : • Micro directionnel, •-Anti bruit en marche Musique dominante : • Micro omnidirectionnel, •Anti bruit sur arrêt Avec le e2e - Micro directionnel - Anti bruit activé sur les 2 oreilles 135 37273_Monographie_N45.Nais_vie_m135 135 18/09/08 14:43:01 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie ∂ fig. 27. Équilibrage de la fonction binaurale Par des tests en champ libre, avec des bruits et des tests vocaux, l’audioprothésiste s’efforce d’équilibrer au mieux la sensation sonore entre les deux oreilles. Il est regrettable qu’aucun logiciel de fabricant ne propose de procédure d’équilibrage binaural. Une fois cet équilibre trouvé, l’activation des deux appareils provoque toujours une remarque de la part du patient signalant l’amélioration de la netteté des sons. En cas de dissymétrie de l’audition, les réglages permettant un bon équilibre stéréophonique pour la voix sont notablement différents des pré réglages théoriques. Encore une fois, la valeur ajoutée de l’audioprothésiste dans les performances des réglages est bien mise en évidence. Lorsque le patient est accoutumé, le démasquage binaural apporte un gain de 5 dB de S/B. 136 37273_Monographie_N45.Nais_vie_m136 136 18/09/08 14:43:01 En présence d’un traitement de signal efficace, lorsque les sons présentés à l’oreille droite diffèrent beaucoup de ceux captés par l’oreille gauche, l’automatisme des appareils peut proposer des réglages très dissemblables entre les deux oreilles au point de déséquilibrer la fonction stéréophonique (fig. 28). Pour limiter ce problème, la fonction de synchronisation, e2e chez Siemens, QuickSync chez Phonak, par l’échange d’informations des centaines fois par seconde, propose la synchronisation du fonctionnement des deux aides auditives. La stéréophonie est donc mieux préservée. ∂ fig. 28 : exemple de conversation côte à côte au restaurant avec source musicale. Récemment, nous avons vu apparaître le contrôle stéréophonique du gain entre les deux appareils sur la puce de l’Epoq d’Oticon. Bénéficiant d’une technologie de transfert d’information très rapide entre les deux appareils, le système constitué des deux appareils est capable de reconnaître l’incidence du son sur la tête du patient en analysant le déphasage du signal entre les microphones des deux appareils ainsi que l’atténuation liée au masque de la tête. Avec un signal à 90° et des prothèses classiques, type WDRC, c’est-à-dire avec une diminution progressive du gain en fonction de l’intensité, le signal reçu à droite étant plus fort que celui de gauche, le gain de l’appareil droit est inférieur au gain de l’appareil gauche et réduit notablement l’effet de ∂ fig. 29 : 137 37273_Monographie_N45.Nais_vie_m137 137 18/09/08 14:43:06 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie masque de la tête. La conséquence est une plus grande difficulté dans la localisation, donc dans le démasquage. Epoq, par l’analyse conjointe du signal reçu par les deux appareils, reconnaît ce type de situation et baisse le gain de l’appareil gauche au niveau du gain de l’appareil droit pour garder le même écart que chez le normo entendant, avec pour conséquence de meilleures chances de bien analyser la provenance du son (fig. 29, voir page précédente). Gestion du Larsen Les systèmes de gestion du Larsen par opposition de phase ont permis l’avènement des « opens » et l’appareillage des courbes avec des graves bien conservés et un bon résultat sur les aigus. Qualité esthétique Dans le même temps, les qualités esthétiques des audioprothèses ont nettement progressé. L’apparition des microcontours en open ou en RIC en est un exemple indiscutable. 3.3.4.4. Évolution de l’aide auditive L’évolution se fait vers un outil de communication globale : -vers les téléphones : liaison automatique et sans fil, -vers la télévision : liaison sans fil, -vers les lecteurs audio ou les ordinateurs sans fil -utilisation de micros sans fil dans les situations d’écoute difficiles. Voir fig. 30 page suivante. Les traitements du signal par transposition fréquentielle ou par glissement fréquentiel ouvrent de nouvelles perspectives pour les courbes avec déficit irrécupérable sur une zone de fréquences, les aigus en particulier. 138 37273_Monographie_N45.Nais_vie_m138 138 18/09/08 14:43:07 ∂ fig. 30 3.3.4.5. Prise en charge par les organismes sociaux La prise en charge d’une prothèse auditive par la Caisse Nationale d’assurance-maladie se fait actuellement, à 100 % du tarif, sur un montant de 199,71 € pour un adulte. Pour mémoire, ce montant est de 1 400 € pour un enfant de moins de 20 ans, avec un appareil de classe D. Le montant est doublé pour 2 prothèses, si la prescription médicale le spécifie. Les assurances complémentaires interviennent le plus souvent, mais dans des proportions très variables suivant les caisses et le contenu des contrats souscrits. En ce qui concerne les aides et les secours, ils sont de montant très variables suivant l’organisme payeur et la situation socioprofessionnelle du malentendant. Il faut conseiller au patient de se tourner vers sa caisse de sécurité sociale, sa caisse de retraite, la MDPH ou l’AGEPHIP, à condition d’être salarié. 3.3.4.6. Accessoires Ce terme générique regroupe tous les produits destinés à améliorer le confort de vie du malentendant : - réveils avec vibreur et/ou signal lumineux. - système de signaux d’alarme pour la porte, le téléphone, les cris du bébé, - téléphones, à écoute amplifiée, pouvant se connecter aux prothèses auditives. La liaison est sans fil, par induction, pour l’instant, - mini-casques d’écoute télévision avec transmission par infra rouges, - …. Un certain nombre des fonctions de ces accessoires est progressivement intégré à des ensembles de communication dont l’aide auditive est le centre. 3.3.4.7. Aide auditive et troubles mnésiques En maintenant la fonction auditive valide sur un champ auditif le plus large possible l’aide auditive permet de stimuler les centres et entretient ainsi la plasticité cérébrale. Dans les déficits mnésiques, on peut distinguer : - les mécanismes implicites, inconscients, non exprimés par le langage, peu sensibles au vieillissement, - les mécanismes explicites, affectant la mémoire épisodique qui permet la récupération de faits ou événements que le langage peut exprimer ; ce sont ces mécanismes qui sont le plus souvent atteints. Le langage est matérialisé par une suite d’éléments sonores qui se déroulent comme des événements 139 37273_Monographie_N45.Nais_vie_m139 139 18/09/08 14:43:10 Monographie chapitre naissance vie et mort de l'oreille 03 son déclin : la presbyacousie dans le temps. Les sujets presbyacousiques présentent, très souvent, de grandes difficultés à mémoriser une série sonore. O. Koenig a réalisé deux études qui montrent : - d’une part, que le besoin d’aide à la récupération mnésique serait moins important pour les patients appareillés, - d’autre part, après huit mois de port des appareils, que les tests de mémoire épisodique se sont améliorés. On peut ainsi penser que la prothèse, en facilitant l’accès au langage, améliore progressivement la mémorisation d’un message. 140 37273_Monographie_N45.Nais_vie_m140 140 18/09/08 14:43:11 Monographie chapitre naissance vie et mort de l'oreille 04 sa renaissance 4 - VERS SA RENAISSANCE ? Cellules sensorielles auditives et régénération, vers de nouvelles pistes thérapeutiques ? L ’immense majorité des surdités neurosensorielles (dont on ne rappelle jamais trop souvent l’impact démographique, 5 millions de personnes adultes en France, et un à deux bébés sur 1000 naissances, et les impacts social et financier) impliquent des pertes cellulaires dans la cochlée, parmi lesquelles des éléments nobles, directement impliqués dans la transduction, les cellules ciliées externes (CCE), les cellules ciliées internes (CCI) et les neurones auditifs, et des éléments de soutien. Il est bien connu (ou il devrait l’être, mais une immense majorité de la population l’ignore) que ces pertes cellulaires aboutissent à une perte auditive définitive, irréversible et actuellement inaccessible à tout traitement, parce que les cellules sensorielles ne sont produites que pendant le développement embryonnaire, que leur production devient définitivement impossible bien avant la naissance chez l’humain (Ruben, 1967). Il faut donc tenter de conserver ces cellules le plus longtemps possible durant notre vie, ou être prévenu que l’on devra se contenter de solutions palliatives en cas de déficit : l’appareillage auditif. Dans sa malchance, l’homme doit s’estimer relativement heureux que même dans le cas extrême d’une perte totale et prolongée de ses cellules sensorielles auditives, les neurones auditifs survivent presque toujours en nombre suffisant pour permettre une implantation cochléaire efficace. L’esprit conquérant de l’homme le pousse à rejeter les dogmes. Le voici donc à la recherche de solutions plus radicales au problème de la surdité, pour assouvir son fantasme de guérison : serait-il possible d’aller contre les lois de la Nature et de faire en sorte que les cellules absentes ou détruites soient régénérées ? De manière surprenante, le dogme de l’impossibilité d’une telle démarche est en train de s’effriter. On ne peut cependant anticiper une victoire totale sur la surdité. En effet un autre dogme semble infiniment plus tenace, celui de l’impossibilité d’acquérir des connexions neurales satisfaisantes, passée une période critique de quelques années après la naissance, pour permettre un traitement cérébral de l’information linguistique (que la langue en question soit orale ou gestuelle, bien évidemment). Il reste curieux que ce dogme incontournable soit considéré avec tant de légèreté par certaines instances qui devraient inciter au dépistage précoce des surdités, condition nécessaire mais non suffisante pour une prise en charge de qualité, et faute de motivation à mettre en jeu les moyens d’améliorer cette qualité, poussent au renoncement en se cachant derrière de fantasmatiques objections. L’idée selon laquelle la régénération des cellules cochléaires pouvait être rendue possible est venue de la découverte étonnante, il y a 20 ans, de ce que les oiseaux peuvent régénérer leurs cellules sensorielles cochléaires après un traumatisme dû soit à l’exposition à un bruit de niveau excessif, soit à la prise de substance ototoxique comme un antibiotique aminoside (Cotanche, 1987 ; Corwin et Cotanche, 1988). L’oiseau diffère considérablement des mammifères en ce qu’il est petit-cousin des dinosaures (les vieilles dames qui nourrissent les pigeons dans les parcs devraient en être informées : peut-être 141 37273_Monographie_N45.Nais_vie_m141 141 18/09/08 14:43:13 Monographie chapitre naissance vie et mort de l'oreille 04 vers sa renaissance ? cesseraient-elles de laisser moisir des morceaux de pain à destination d’un petit-cousin de T.Rex ?). Mais, en dehors de détails anatomiques macroscopiques qui distinguent la cochlée d’oiseau de celle des mammifères, il existe bien dans la cochlée d’oiseau une tonotopie, un gain cochléaire assuré par le même principe physique que chez le mammifère, et donc un accord fin en fréquences. Sur le plan cellulaire, on identifie bien deux catégories de cellules ciliées de fonctions différentes, certes non pas externes et internes, mais de plus ou moins grande taille et assimilables par leur fonction à leurs homologues mammifères, y compris en ce qui concerne leurs connexions spécifiques aux systèmes nerveux afférent et efférent. Et l’intervalle audible des oiseaux est assez proche de celui de l’homme. Les mêmes agressions que chez les mammifères (bruit, ototoxiques) entraînent bien les mêmes types de dégâts chez l’oiseau : les cellules sensorielles auditives meurent bel et bien. Toutefois la ressemblance, à l’état naturel, s’arrête là. Chez le mammifère, la fonction perdue l’est définitivement si les cellules sensorielles ont bien été tuées (mais attention, premièrement, la mort cellulaire n’est pas si facile à vérifier ce qui a conduit à des polémiques lors de premières tentatives : il semble que les régénérations initialement rapportées chez le mammifère après administration d’acide rétinoïque étaient en fait des réparations –Chardin et Romand, 1997- et deuxièmement, on sait maintenant que les cellules sensorielles meurent parce qu’elles se suicident). Chez l’oiseau, une fois régénérées, les cellules sensorielles d’oiseaux permettent effectivement la récupération des performances auditives, comme l’ont montré les équipes d’Ed Rubel et Brenda Ryals. Et cette récupération se fait grâce à la reconnexion précise des fibres neuronales (qui, elles, avaient survécu) aux cellules sensorielles régénérées. Il est désormais bien admis que les cellules sensorielles répondent à une agression intense d’une manière bien spécifique, l’apoptose. L’apoptose est une mort cellulaire programmée, sous le contrôle d’un programme génétique très précis qui est enclenché quand une cellule se sent menacée ou encore, désormais inutile comme cela peut arriver dans le contexte de certaines étapes du développement. Loin d’être victime passive, la cellule contrôle en permanence l’exécution du programme qui combine des signaux pro- et anti-apototiques. Un arbitrage est effectué, qui décide si la cellule va aller jusqu’au bout de son suicide ou renoncer (Adams et Cory, 1998; Crompton, 2000; Letai, 2005). Une fois le suicide décidé, la famille des caspases est activée et achève le travail en démontant littéralement pièce par pièce l’architecture subcellulaire. Ce scénario bien analysé donne déjà à lui seul des idées d’intervention. Une première piste thérapeutique évidente est d’éviter que la cellule ne se sente agressée et que l’idée du suicide ne l’effleure pas. Nous n’insisterons pas sur cette approche qui ne fait pas l’objet principal du présent chapitre. Parmi les stratégies possibles, celle d’agir en capturant les molécules toxiques produites lors de l’agression, comme les radicaux libres oxygénés. Une autre stratégie qui permet d’intervenir un peu plus tardivement (dans un laps de temps de l’ordre du jour), est de peser sur le processus d’arbitrage en aidant la cellule à décider contre le suicide. L’emploi ciblé de bloqueurs d’apoptose pourrait être envisagé dans le cas où l’agression elle-même est programmée, par exemple parce qu’elle va être la conséquence inévitable d’une cure de chimiothérapie (mais les bloqueurs d’apoptose doivent ne pouvoir bloquer celle-ci que dans l’oreille interne, en aucun cas dans la tumeur cancéreuse). 142 37273_Monographie_N45.Nais_vie_m142 142 18/09/08 14:43:16 Et si les cellules sensorielles sont déjà mortes ? Le modèle de l’oiseau Chez l’oiseau, on n’en reste pas là car après l’agression et le suicide, la vie reprend ses droits. La régénération se produit grâce aux cellules de soutien adjacentes aux cellules sensorielles mortes. Elles se mettent à produire des cellules sensorielles de remplacement, grâce à deux mécanismes. Le premier est très étonnant, il s’agit de la transdifférenciation. Ce phénomène unique en son genre n’implique pas de mitose, mais un changement de programme qui affecte la cellule de soutien. Celle-ci se met à modifier son profil d’expression génique et au lieu d’exprimer ses gènes de cellule de soutien, les inactive et à la place, se met à exprimer des gènes qui la transforment en cellule sensorielle (de plombier ou électricien, elle devient en quelques heures ingénieur des télécoms… reconversion à la McGyver, mais ici bien réelle !). Le processus de transdifférenciation montre néanmoins une limitation draconienne, celle de travailler à nombre de cellules constant : pour chaque cellule sensorielle régénérée, on perd une cellule de soutien. Or il y a peu de cellules de soutien : trois ou quatre par cellule sensorielle, leur perte par conversion devient vite pénalisante en cas de lésion extensive. La régénération mitotique permet aux cellules de soutien voisines de cellules sensorielles disparues de reprendre un cycle de mitose et de se diviser. L’une des cellules filles peut alors devenir sensorielle, l’autre restant de soutien. Et dans certains cas il a été montré qu’un nouveau cycle de mitose pouvait se produire (Stone et Cotanche, 1994). La cochlée d’oiseau exprime donc deux mécanismes, l’un capable d’agir en urgence, en quelques heures, pour des réparations ponctuelles, l’autre plus extensif mais moins réactif. Toutefois, une fois enclenchée, la mitose peut produire une réserve considérable de cellules sensorielles de rechange. Mais tout ceci est chez l’oiseau, pas le mammifère. De l’oiseau au mammifère? Les cellules sensorielles auditives du mammifère subissent bien l’apoptose, comme leurs homologues des oiseaux, à la suite d’agressions par le bruit ou les ototoxiques, mais une fois suicidées, elles ne peuvent se régénérer. Les pistes actuellement examinées pour les y aider, car cela semble possible à long terme, sont au nombre de trois : les manipulations génétiques, la thérapie génique et la transplantation de cellules souches. Même le grand public a abondamment entendu parler de ces trois pistes, qui font l’objet de polémiques d’autant plus vives que ceux qui les agitent ne donnent pas toujours l’impression de maitriser les concepts qui les perturbent … est-ce à dire que la science a encore des obstacles à franchir pour vaincre l’obscurantisme ? et ce dernier serait-il aussi actif en 2008 qu’il l’était il y a mille ans ? Laissons le lecteur juger en citoyen informé. Au cours de son développement, l’embryon de mammifère voit apparaître les cellules sensorielles de l’organe de Corti et leurs diverses cellules de soutien à partir d’un type cellulaire progéniteur commun. Les cellules de soutien semblent moins nobles que les cellules sensorielles mais n’en sont pas moins en charge de tâches indispensables. Citons parmi elles des rôles mécaniques par exemple pour assurer le support contre lequel les cellules dotées de motilité vont pouvoir s’appuyer, des rôles nutritifs et la tâche de recycler les ions potassium impliqués dans la transduction. On doit donc dès maintenant 143 37273_Monographie_N45.Nais_vie_m143 143 18/09/08 14:43:19 Monographie chapitre naissance vie et mort de l'oreille 04 vers sa renaissance ? s’inquiéter de l’état dans lequel certaines agressions subies par la cochlée vont laisser les cellules de soutien : intactes, ou bien détruites et remplacées par un épithélium peu différencié ? Si à un stade futur on a besoin d’elles pour régénérer les cellules sensorielles à l’instar de ce qui se passe chez l’oiseau, il faudra savoir répondre à cette question. En tout cas, une fois le développement normal achevé, les deux types de cellules, sensorielles et de soutien, deviennent normalement irremplaçables, dans la cochlée. Le cas du vestibule est légèrement différent avec quelques signes de régénération naturelle possible, mais très limitée (Forge et coll, 1993). Le problème vient de ce que l’épithélium sensoriel cochléaire contient des gènes dits oncogènes qui inhibent toute différentiation ultérieure et résistent aux appels au secours des cellules moribondes. Ces gènes ont bien évidemment un rôle clé pour empêcher, comme leur nom le suggère, une prolifération prolongée indue de nature cancéreuse. Mais il accomplissent trop bien leur travail. Comment les faire changer d’avis ? Une première solution implique une manipulation génétique. Celle-ci a pour but de bloquer, en les mettant KO, certains gènes reconnus comme à l’origine d’inhibiteurs de la multiplication cellulaire. Les cochlées des souris KO pour ces inhibiteurs oncogènes voient leurs populations de cellules ciliées continuer à grandir même après que la quantité normale ait été produite, mais pas pour longtemps : il semble que l’absence d’inhibiteurs soit détectée et enclenche un autre mécanisme de protection, l’organisme étant a priori peu enclin à tolérer une prolifération qui contient en elle même la menace d’un cancer. Deuxième piste, agir sur un ou des gènes capables de contrôler la différentiation des cellules ciliées. Un de ces gènes a été identifié, Atoh1. Il a fait l’objet d’attentions particulières car c’est une fois qu’il est exprimé qu’une cascade d’autres gènes sont exprimés à leur tour pour aboutir à fabriquer des cellules ciliées à partir de leurs précurseurs. L’idée est donc d’introduire Atoh1 dans des cellules de soutien (mais il faut qu’il en reste, et, rappelons-le, ce n’est pas évident), pour en faire des cellules ciliées. C’est ce que le groupe de Raphael à Ann Arbor s’est attaché à faire depuis quelques années, c’est à dire appliquer une technique de thérapie génique qui consiste à introduire le gène dans les cellules cibles par transfection virale. Chez le cobaye (espèce inaccessible aux manipulations génétiques réservées pour le moment aux souris, mais non aux tentatives de thérapie génique), ceci a pu entraîner une régénération et même un retour à une organisation cohérente de l’environnement immédiat de ces cellules nouvellement formées. Et une certaine fonction semble apparaître (Kawamoto et al, 2003). Une mauvaise et une bonne nouvelle dans ces expériences : certaines cellules sont ectopiques, ce qui semble défavorable, s’il n’en ressortait pas une observation de nature à rendre optimiste : ces cellules ectopiques, certes indésirables, réussissent toutes seules à attirer à elles des neurones, par l’intermédiaire de neurotrophines que les cellules régénérées émettent et qui accomplissent leur travail sans aide extérieure. Ceci suggère qu’au moins cette partie de la tâche essentielle qui consiste à reconnecter les différents éléments régénérés pour qu’ils puissent transmettre des messages au cerveau puisse être laissée à la nature. Il reste la troisième piste, celle des cellules souches. Les cellules souches sont des cellules multipotentes c’est-à-dire capables de donner naissance à des lignées cellulaires différentes, elles-mêmes capables 144 37273_Monographie_N45.Nais_vie_m144 144 18/09/08 14:43:19 de contribuer à former différents tissus dans différents organes. A un stade embryonnaire très précoce, il existe une petite mais importante population de cellules souches, au nombre de seulement quelques centaines mais capables de se différencier en absolument n’importe quel type cellulaire et de manière ultime, n’importe quel tissu ou organe. Elles pourraient donc théoriquement servir de banque de pièces détachées pour toute réparation ou changement en cas de nécessité à tout âge. Mais leur obtention se heurte à des problèmes éthiques. C’est pourquoi de nombreux efforts portent sur l’utilisation de cellules souches à des stades plus tardifs. Ainsi on trouve des cellules souches dans le cordon ombilical, mais aussi dans les tissus adultes : dans ces tissus, on trouve des cellules souches qui ont pour fonction de produire certains des types cellulaires qui y sont rencontrés. Certains sont d’accès facile, comme le sang ou la moelle osseuse, et la peau. Un premier challenge pour régénérer les cellules neurosensorielles auditives à partir de cellules souches est d’isoler des cellules souches adéquates, en nombre suffisant. Un deuxième challenge est de les transplanter au bon endroit, là où on a besoin qu’elles agissent et enfin un troisième défi est de les faire s’intégrer correctement. On a d’abord cru que les cellules souches extraites de tissus adultes ne pouvaient donner naissance qu’à des cellules des tissus où on les avait obtenues. Or il n’y en a pas dans l’épithélium sensoriel auditif. Heureusement, on pense maintenant que la capacité des cellules souches à produire des cellules adultes différenciées est modulée par le microenvironnement où on les place, qu’elles sont capables de le reconnaître et auquel elles répondent en reprogrammant leur génome. Il a ainsi pu être montré ces quelques dernières années que des cellules souches de diverses provenances (épithélium sensoriel vestibulaire, mais aussi moelle osseuse ou progéniteurs neuraux) peuvent exprimer certains gènes spécifiques des cellules ciliées cochléaires, au moins en culture, voire même s’intégrer au nerf auditif et émettre des prolongements vers la cochlée. On peut citer plusieurs équipes (celles de Heller, Matsuoka, Cotanche, Fritzsch, etc), qui dans leurs résultats préliminaires actuels, décrivent que des cellules souches survivent à la transplantation, pour s’intégrer à des tissus cochléaires et donner lieu à une différenciation spécifique. Parmi les nombreux défis qui restent à relever, il faudra être capable de trouver une stratégie adaptée à l’état, au moment de l’intervention, de l’organe de Corti abîmé. Les cellules de soutien sur lesquelles on doit compter, soit pour servir de point de départ à une re-différentiation, soit comme terre d’accueil de cellules souches, peuvent adopter deux formations à la suite de lésions des cellules sensorielles. Soit les cellules de soutien conservent leur structure allongée et leurs spécificités moléculaires, soit elles ne sont plus reconnaissables et on les trouve remplacées par un épithélium non différencié constitué d’un pavage de cellules plates (dont on ignore l’origine). Des travaux récents (Sugawara et al., 2005) révèlent que les deux types d’épithélium cicatriciel peuvent coexister avec un classique gradient baso-apical, et qu’il existe une corrélation entre la forme de l’épithélium restant et la survie des cellules neuronales dans le ganglion spiral. Dans les deux formes, l’épithélium se doit d’être très cohésif pour éviter toute fuite entre endolymphe et périlymphe. Il est donc a priori peu réceptif aux cellules qu’on pourrait vouloir lui incorporer, comme des cellules souches. Il faudra sans doute mieux comprendre comment les interactions entre épithélium restant et cellules souches transplantées peuvent être favorables. D’un autre côté, le fait que l’épithélium plat, le moins différencié, tende à plus facilement proliférer (Kim et Raphael, 2007) peut le rendre accueillant vis-à-vis des interventions extérieures. 145 37273_Monographie_N45.Nais_vie_m145 145 18/09/08 14:43:22 Monographie chapitre naissance vie et mort de l'oreille 04 vers sa renaissance ? En conclusion provisoire, on se trouve donc avec une panoplie d’interventions possibles, dont une partie bénéficie depuis quelques années de notre meilleure compréhension des mécanismes régulateurs de la différentiation cellulaire et de l’expression génique, appris chez l’oiseau et qu’on aimerait extrapoler au mammifère. Notamment, de nombreux gènes importants dans le développement ont été identifiés (Fritzsch, 2006) et leur intervention séquentielle commence à être comprise. Une fois que les cellules arrivent à l’expression du gène Atoh1, il semble qu’un certain nombre d’étapes puissent se dérouler spontanément. La reconnexion entre cellules régénérées et neurones ne semble pas forcément la question la plus complexe. Mais quelle que soit la stratégie retenue, manipulations des gènes, thérapie génique ou cellules souches, les voies d’administration restent d’une immense complexité. De là à envisager que l’appareillage amplificateur devienne obsolète d’ici quelques années, il y a donc un pas que personne ne peut franchir. Il est probable que les indications se complètent plutôt qu’elles n’entrent en compétition. Mais le bouleversement des connaissances et des dogmes depuis quelques années pousse à la prudence. Bibliographie succincte 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. Ryals BM & Rubel EW (1988). Hair cell regeneration after acoustic trauma in adult Coturnix quail. Science, 240, 1774–1776. Corwin JT & Cotanche DA (1988). Regeneration of sensory hair cells after acoustic trauma. Science, 240, 1772–1774. Warchol ME, Lambert PR, Goldstein BJ, Forge A & Corwin JT (1993). Regenerative proliferation in inner ear sensory epithelia from adult guinea pigs and humans. Science, 259, 1619–1622. Forge A, Li L, Corwin JT & Nevill G. (1993). Ultrastructural evidence for hair cell regeneration in the mammalian inner ear. Science, 259, 1616–1619. Chardin S & Romand R (1995). Regeneration and mammalian auditory hair cells. Science, 267, 707–709. Adams JM & Cory S (1998). The Bcl-2 protein family: Arbiters of cell survival. Science, 281, 1322–1326. Kawamoto K, Ishimoto SI, Minoda R, Brough D & Raphael Y (2003). Math1 gene transfer generates new cochlear hair cells in mature guinea pigs in vivo. Journal of Neuroscience, 23, 4395–4400. Izumikawa M, Minoda R, Kawamoto K, Abrashkin K, Swiderski D & Dolan D (2005). Auditory hair cell replacement and hearing improvement by Atoh1 gene therapy in deaf mammals. Nature Medicine, 11, 271–276. Fritzsch B, Beisel KW & Hansen LA (2006). The molecular basis of neurosensory cell formation in ear development: a blueprint for hair cell and sensory neuron regeneration? Bioessays 28, 1181-93. Raphael Y, Kim YH, Osumi Y & Izumikawa M (2007). Non-sensory cells in the deafened organ of Corti: approaches for repair, Int. J. Dev. Biol. 51: 649-654. Savary E, Hugnot JP, Chassigneux Y, Travo C, Duperray C, Van de Water T & Zine AZ (2007). Distinct Population of Hair Cell Progenitors Can Be Isolated from the Postnatal Mouse Cochlea Using Side Population Analysis, Stem Cells, 25, 332-339. Cotanche DA (2008), Genetic and pharmacological intervention for treatment/prevention of hearing loss, Journal of Communication Disorders, e-pub. 146 37273_Monographie_N45.Nais_vie_m146 146 18/09/08 14:43:22 Monographie naissance vie et mort de l'oreille CONCLUSIONS Ainsi s’achèvent « naissance, vie et mort de l’oreille », telles que ceux qui m’ont aidé à les rapporter la conçoivent en 2008. Ils peuvent en être fiers, car il n’est pas une page où le lecteur ne trouve une connaissance nouvelle, une technique récente, une technologie de pointe ou une idée de progrès ou de recherche pour demain ; et si l’on se penche vers un passé d’une trentaine d’années, se demandant ce qu’auraient écrit nos aînés sur le même sujet, beaucoup de ce qui est rapporté ici n’eût pu l’être, faute de ces connaissances nouvelles. Ils sont à coup sûr humbles, car ils savent déjà que cette « histoire de 2008 » n’attendra pas bien longtemps pour paraître dépassée, fade et désuète ; et ils l’espèrent, le plus vite possible… Ils sont certainement modestes, car espérer traiter un tel sujet est, en soi, une gageure, si l’on se donne pour objectif d’être complet. Aussi ont-ils bien conscience de n’avoir dressé qu’un tableau inachevé, imparfait et critiquable d’une « certaine histoire de la naissance, la vie et la mort de l’oreille ». Mais ils sont avant tout messagers : le premier regard porté sur ce livre collait de trop près à celui de « l’otologiste thérapeute en 2008 ». Ce faisant, il enferma bien vite l’oreille dans un monde mécaniste où, finalement, l’organe isolé subissait, de sa conception à sa mort, diverses avaries à l’encontre desquelles nous allions proposer un manuel des techniques de réparation. C’était avoir fait l’erreur d’isoler l’organe de l’organisme et l’organisme de son univers : l’oreille n’est pas un tout, elle n’est qu’un élément au cœur d’une chaîne de communication, qu’elle soit écrite, orale ou autre, permettant à l’homme la connaissance et l’échange… Bref, son histoire est indissociable de celle du langage ; et cela, nos aînés l’avaient déjà parfaitement écrit, il y a plus de trente ans, avant que le monde ORL ne l’oublie imprudemment… L’histoire n’est autre qu’un perpétuel recommencement… A. Chays 147 37273_Monographie_N45.Nais_vie_m147 147 18/09/08 14:43:25 Monographies Amplifon L’impédancemétrie J.J. Valenza Pathologies Temporo-mandibulaires C. Levy, B. Meyer, G. Vincent, K. Marsot-Dupuch Les potentiels évoqués dynamiques M. Ohresser Sinusites : du diagnostic au traitement J.P. Fombeur, D. Ebbo Syndromes vestibulaires centraux Aspect nystamographique G. Freyss, E. Vitte Le neurinome de l’acoustique : la neurofibromatose de type II J.M. Sterkers, O. Sterkers La dissection du rocher P. Fleury Poches de rétraction et états pré-cholestéatomateux P. Roulleau, C. Martin Prélude à la chirurgie de l’oreille moyenne J.M. Basset, G. Aben-Moha, P. Candau Vidéonystagmoscopie, vidéonystagmographie Ph. Courtat, A. Sémont, J.-P. Deroubaix, E. Hrebicek Les tympanoplasties P. Roulleau, L. Gomulinski, M. François Regard et paupières E. Mahe, S. Poignonec, J. Soudant, G. Lamas L’otospongiose dans la pratique P. Elbaz, D. Doncieux, B. Frachet, F. Leca, G. Fain L’otospongiose P. Elbaz, D. Ayache Les surdités de l’enfant P. Marie, P. Narcy, M. François, P. Contencin Corde vocale S. de Corbière, E. Fresnel Le neurinome de l’acoustique J.M. Sterkers La dacryocystorhinostomie P. Klap, J.-A. Bernard Méthodes d’investigation en oto-neurologie Actualités et perspectives Congrès d’oto-neurologie M. Ohresser Rhinoplasties Y. Saban, F. Braccini La chirurgie de l’oreille moyenne vue par P. Fleury P. Fleury, J.M. Basset, S. Bobin, M. Bre, D. Coupez, P. Candau Les surdités, de la prothèse à l’implant A. Casenave, M. Mondain; B. Frachet, CC. Hamann, O. Sterkers La chirurgie des tumeurs du trou déchiré postérieur P. Tran Ba Huy, J. Achouche, O. Laccourreye, B. George, D. Bastian Surdités de l’enfant E-N. Garabédian, F. Denoyelle, R. Dauman, J-M. Triglia, N. Loundon, P. Bouaziz, J. de Lorenzi Le laser en O.R.L. C. Peytral Les tumeurs de la parotide P. Gehanno, B. Guerrier, J.J. Pessey, M. Zanaret Nez -Sinus. Repères et balises P. Lerault, C. Freche Nouvelles données en Audiologie & appareillage stéréophonique L. Collet, O. Sterkers, D. Bouccara, S. Deys, S. Lermigeaux Lesotoémissionsdanslapratique P. Elbaz, D.T. Kemp, Ph. Betsch, J.M. Fiaux, F. Leca, P. Miller, G. Challier Acouphènes, aspects fondamentaux et clinique B. Frachet, B. Geoffray, S. Chery Croze, J-L. Puel, C. Coulvier La prothèse auditive M. Bonnevialle, G. Challier Education auditive : de la parole à la musique B. Meyer, C. Morisseau, C. Toffin L’ostéo intégration en otologie P. Roulleau, Y. Manach, C. Hamann La chirurgie conservatrice des cancers du larynx et du pharynx D. Brasnu, O. Laccourreye, S. Hans, M. Ménard, E. de Monès, E. Behm La chirurgie partielle des épithéliomas du pharyngo-larynx H. Laccourreye Nomenclature des éponymes O. Laccourreye, C. Dubreuil, L. Laccourreye La rhonchopathie chronique F. Chabolle, B. Fleury Chirurgie de la thyroïde et de la parathyroïde B. Guerrier, M. Zanaret, G. Le Clech, J. Santini Anatomie du voile P. Lerault, M. Jakobowicz, H. Chevallier, E. Attias Handicap de communication Bruno Frachet, Philippe Thoumie, Emilie Vormès Pratique des tests d’audition en consultation F. Legent, P. Bordure, M.L. Ferri-Launay, J.J. Valenza Actualités audioprothétiques Paul Avan, Frédéric Chabolle, Jean-Claude Chobaud, Christian Dubreuil, Bruno Frachet, Bernard Fraysse, Erea-Noël Garabedian, Olivier Sterkers, Alain Uziel Troubles de la déglutition de l’adulte J. Lacau St Guily, S. Chaussade Chirurgie du nerf facial O. Sterkers Les surdités génétiques G. Lina-Granade, H. Plauchu, A. Morgon 37273_Monographie_N45.Nais_vie_m148 148 Exploration radiologique en otologie Françoise Denoyelle, Hubert Ducou Le Pointe, Olivier Deguine, Bernard Escude, Michel Mondain, Alain Bonafé, Vincent Darrouzet, Xavier Barreau, Christophe Vincent, Marion Devambez, Alexis Delattre, Christian Dubreuil, Sandra Zaouche, Stéphane Tringali, Eric Truy, Aïcha Eltaïef, Maxime Tardieu, Benoît Godey, Denis Ayache, Marc Williams. 18/09/08 14:43:28 Ouvrage exclusivement réservé à l’enseignement des médecins spécialistes. COPYRIGHT Tous droits de traduction et de reproduction par tous procédés réservés pour tous pays. Loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation ou reproduction intégrale, ou partielle faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » [alinéa 1er de l’article 40]. Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du Code pénal. ISBN 978-2-917390-03-0 Imprimé en France Dépôt légal 4e trimestre 2008 Graphic-Eclair www.graphic-eclair.fr -Tél. : 01 43 30 99 99 37273_Monographie_N45.Nais_vie_m149 149 18/09/08 14:43:28 Donnez du son à la vie Ce livret est une aide pratique à l’hypoacousie et à la prothèse auditive destiné aux patients. les solutions AUD ITIV ES érique : la technologie num Les avantages de te ; ur confort d’écou du son, meille éhension • Meilleure qualité meilleure compr ion grâce à une de la communicat • Amélioration le bruit ; de la parole dans te : l’appareil équipément situations d’écou atique ntes autom e différe du son et s’ajust • Adaptation des reconnaît la nature ; d’algorithmes nt son environneme en fonction de l; un son plus nature ibilité grâce à • Meilleure intellig jusqu’alors non pertes auditives corriger 95% des de ilité • Possib appareillables. te conseillé L’audioprothésis est à la pointe par votre ORL le domaine du progrès dans ue centre Chaq ue. technologiq urs types de propose plusie cient solutions qui bénéfi avancées ères toutes des derni audiologiques. formes Les différentes d’aides auditives 17 : L’intra-auriculaire 11/01/08 16:20:03 Event Haut-parleur Microphone Le mini contour Interrupteur, tiroir pile d’oreille : Haut-parleur Rires d'enfants en cascade Microphones Interrupteur, tiroir pile ire Embout auricula Ce document a été réalisé avec le concours de la société atients_080108 34210_Livret_P .ind18 18 Siège social : 18 rue Oberkampf - 75011 Paris tél. : 01 56 98 22 22 - fax : 01 56 98 22 20 www.amplifon.fr - www.lavieesttropbelle.fr 34210_Couv_livret_Patients_110101 1 37273_Annonces_Monographies_N45_1 1 www.graphic-eclair.fr - 01 43 30 99 99 11/01/08 16:20:06 18 La vie est trop belle pour ne pas l'entendre 14/01/08 11:53:51 17/09/08 16:05:54 Le Forfait Audition, un pas de plus vers une bonne audition pour tous. En France, si la Presbyacousie touche 5 millions de personnes, le niveau d’équipement reste extrêmement faible, aux alentours de 15%. Vous, médecins ORL, nous avez alertés sur le fait que les appareillages sont jugés trop chers par vos patients. Pour lever ce frein, nous avons imaginé une solution qui facilite l’accès à l’appareillage sans faire l’impasse, ni sur la qualité, ni sur le niveau indispensable d’accompagnement et de service. Cette solution est la première de ce type sur le marché. On ne vend pas un appareil, mais une bonne audition Le Forfait Audition est une nouvelle approche de la solution auditive de vos patients. Il ne s’agit plus de vendre un appareil, mais de donner à chacun le droit de bien entendre, de bénéficier des technologies les plus avancées, et d’être suivi par un spécialiste aussi régulièrement et souvent que nécessaire. Amplifon s’engage, pour un coût forfaitaire, à assurer la prise en charge complète des besoins du patient, afin de faciliter sa démarche et de la rendre plus agréable. Des mensualités «tout compris» La mensualisation est la seconde bonne idée de ce Forfait Audition. Elle favorise l’accès à un appareillage de qualité en permettant au patient de régler sur 4 ans, par mensualités forfaitaires, moyennant un apport initial correspondant aux remboursements de la Sécurité Sociale et des mutuelles. Le patient repart l’esprit tranquille. Amplifon fournit l’appareil adapté à ses besoins, les piles, les produits d’entretien, les embouts, ainsi qu’un service illimité pendant la durée du contrat, tous les contrôles et les réglages préconisés pour une bonne adaptation de l’aide auditive, ainsi que les tests auditifs prothétiques à but non médical. Ces services sont valables dans les 320 centres amplifon en France. Le forfait est souscrit pour une durée de 48 mois soit 4 ans, ce qui correspond à la durée de vie moyenne d’un appareil. Nous avons bien sûr prévu une période d’essai, pendant laquelle le forfait est gratuit et résiliable à tout moment. * TNS Sofres « Les Français et la presbyacousie » Le Forfait Audition a été lancé cet automne via une campagne de publicité presse et télévision sur le thème : « La vie est trop belle pour ne pas l’entendre ». Car pour nous comme pour vous, il s’agit avant tout de sensibiliser les patients sur la nécessité de prendre son audition au sérieux, de s’appareiller et de se faire suivre de façon régulière. Une bonne audition n’est pas un luxe. Aujourd’hui, avec le Forfait Audition, elle est un droit pour tous. 37273_Annonces_Monographies_N45_2 2 17/09/08 16:06:49 Forfait audition : une solution vraiment « tout compris » Donnez du son à la vie Les conditions de vente : Le patient bénéficie d’une période d’essai pendant laquelle le forfait est gratuit et résiliable à tout moment. Le prix du forfait peut être réglé au comptant ou en 48 mensualités, après acceptation du dossier par notre partenaire Franfinance. Le patient bénéficie du tiers-payant Sécurité Sociale et Mutuelles. Un exemple concret : Pour un appareillage à 2 020 €* acheté dans le cadre du Forfait Audition Tout Compris, le patient règle : - un apport initial de 482,14 € *, une somme correspondant au remboursement moyen de la Sécurité Sociale et des mutuelles, ainsi qu’à l’allocation forfaitaire de piles et produits d’entretien. Elle est donc remboursée au patient. - 48 mensualités de 38 €** seulement, sur 4 ans. Hors assurance facultative. Les garanties en plus : Amplifon garantit toutes les aides auditives sur 3 ans (pour 1 € symbolique). Amplifon assure les aides auditives en cas de perte, vol et casse pendant 1 an (pour 1 € symbolique). Extension possible sur 4 ans dans les 2 cas. * Toutes les sommes s’entendent TTC **Montant total du crédit s’élève à 1537,86 €, coût du crédit 286,14€, coût total de l’achat à crédit 2306,14€, TEG annuel 8,98%. Nanterre 719 807 406. Le contenu du forfait : Un test Amplifit, complémentaire de l’audiométrie Tonale et Vocale du patient Le prix de l’aide auditive La fourniture des piles (8 plaquettes de 6 piles/an) et les produits d’entretien pendant 4 ans, L’entretien, les contrôles et les réglages, selon un calendrier sur 4 ans, établi dès la souscription du forfait Le service illimité fourni par les audioprothésistes de nos 320 centres en France. Sous réserve d’acceptation de votre dossier par le prêteur : Franfinance RCS L’idée du Forfait Audition est simple et inédite. Il s’agit d’un prix global, matériel et service compris, que le patient peut régler sur 4 ans. En voici tous les détails. Pour en savoir plus et trouver le centre le plus proche, consultez le site www.amplifon.fr ou composez le 0800 128 128 (appel gratuit depuis un poste fixe) 37273_Annonces_Monographies_N45_3 3 17/09/08 16:06:49 Donnez du son à la vie Amplifon est distributeur officiel des audiomètres et impédancemètres Interacoustics® Profitez de notre expérience ! Conseil, installation et SAV Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50 Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74 Retrouvez tous les produits sur notre site : www.amplifon.fr Vous pouvez également nous contacter par mail à : [email protected] 37273_Annonces_Monographies_N45_4 4 17/09/08 16:06:50 Donnez du son à la vie Des solutions d’otoémissions Otoport® Dépistage néonatal de la surdité Cet appareil de 250 g, issu de la dernière évolution de la technologie, vous permet de réaliser des examens les plus rapides dans le depistage. ECHOPORT ILO 288 USB Permet l’exploration complète des otoémissions Conseil, installation et SAV Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50 Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74 Retrouvez tous les produits sur notre site : www.amplifon.fr Vous pouvez également nous contacter par mail à : [email protected] 37273_Annonces_Monographies_N45_5 5 17/09/08 16:06:54 Donnez du son à la vie Appareil de dépistage des PEA Algo 3i Profitez de l’appareil faisant référence dans le monde des PEA automatisés. Très convivial avec ses menus en français et en couleur, cet appareil vous fait gagner du temps en testant les deux oreilles à la fois ! Conseil, installation et SAV Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50 Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74 Retrouvez tous les produits sur notre site : www.amplifon.fr Vous pouvez également nous contacter par mail à : [email protected] 37273_Annonces_Monographies_N45_6 6 17/09/08 16:06:58 Donnez du son à la vie VNG USB Veonys portable Système conçu pour le diagnostic et l’investigation des fonctions vestibulaires Optez pour une VNG créée pour votre cabinet : compacte, facile d’utilisation et large gamme d’examens disponible iVNS Disponible également en modèle vidéonystagmoscopie OPTION : seringue à eau et à air OTOPRONT® Conseil, installation et SAV Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50 Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74 Retrouvez tous les produits sur notre site : www.amplifon.fr Vous pouvez également nous contacter par mail à : [email protected] 37273_Annonces_Monographies_N45_7 7 17/09/08 16:07:02 Liste des centres amplifon 37273_Liste_Centres_Mono_N45.ind1 1 18/09/08 15:00:34 LE SIÈGE Amplifon 03 - ALLIER AMPLIFON MOULINS AMPLIFON NICE CALIFORNIE 39 av de la Californie - 06000 NICE 22 avenue Aristide-Briand 94110 Arcueil Tél. 01 49 85 40 00 Fax 01 49 85 40 44 www.amplifon.fr 58 place d’Allier - 03000 MOULINS Tél. : 04 70 28 25 18 Résidence de l’Esterel - 118 av F. Tonner 06150 CANNES 01 - AIN AMPLIFON LAPALISSE Tél. : 04 92 97 21 63 AMPLIFON BOURG 7 Rue Winston Churchill Optique SOLLIER 03120 LAPALISSE AMPLIFON JUAN-LES-PINS 12-14 rue Bernard 01000 BOURG-EN-BRESSE Tél. : 04 74 24 70 95 Tél. : 04 70 20 53 45 AMPLIFON MONTLUCON 10 av Jules Ferry 03100 MONTLUCON Tél. : 04 70 99 04 33 AMPLIFON VICHY AMPLIFON OYONNAX 32 av Paul Doumer - 03200 VICHY 21 rue Michelet - 01100 OYONNAX Tél. : 04 70 97 99 16 Tél. : 04 74 77 69 34 AMPLIFON LAGNIEU 2 rue Charles de Gaulle 01150 LAGNIEU Tél. : 04 74 36 44 59 AMPLIFON BELLEGARDE 5 rue Bertola - 01200 BELLEGARDE Tél. : 04 50 56 03 40 AMPLIFON VILLARS 134 rue du Commerce 01330 VILLARS-LES-DOMBES 05 - HAUTES-ALPES AMPLIFON GAP 140 bd Georges Pompidou 05000 GAP Tél. : 04 92 21 12 43 AMPLIFON EMBRUN Optique Collomb 17 rue Clovis Hughues 05200 EMBRUN Tél. : 04 92 53 63 77 Tél. : 04 74 98 33 85 06 - ALPES-MARITIMES AMPLIFON AMBERIEU AMPLIFON NICE CENTRE 18 rue Alexandre Bérard 01500 AMBERIEU 11 bis rue Grimaldi - 06000 NICE Tél. : 04 74 34 57 99 AMPLIFON NICE MALAUSSENA 02 - AISNE AMPLIFON LAON 1 bis rue Roze - 02000 LAON Tél. : 03 23 79 84 84 AMPLIFON SOISSONS 6 rue de la Buerie 02200 SOISSONS Tél. : 03 23 76 25 12 AMPLIFON TERGNIER JF Optique - 1 avenue Jean Moulin 02700 TERGNIER Tél. : 04 93 87 90 86 1 av. Malaussena - 06000 NICE Tél. : 04 93 80 82 75 AMPLIFON NICE BORRIGLIONE 46 av. Borriglione - 06100 NICE Tél. : 04 93 52 10 20 Tél. : 04 92 09 97 46 AMPLIFON CANNES LA BOCCA 6 bis av de l’Estérel 06160 JUAN-LES-PINS Tél. : 04 92 93 14 74 AMPLIFON MANDELIEU 725 av de Cannes Résidence les Liliums 06210 MANDELIEU Tél. : 04 93 49 75 26 AMPLIFON CANNES JOFFRE 16 rue du Maréchal Joffre 06400 CANNES Tél. : 04 93 39 33 17 AMPLIFON CANNES HOCHE 16 rue Hoche - 06400 CANNES Tél. : 04 93 38 10 11 AMPLIFON CANNES CHABAUD 2 rue Chabaud - 06400 CANNES Tél. : 04 93 99 35 14 AMPLIFON SAINT-LAURENT-DU-VAR Le Florence 39 Square Benes 06700 SAINT-LAURENT-DU-VAR Tél. : 04 93 14 63 12 AMPLIFON ALBERT 1er Le Montecarlo - 3 rue Albert 1er 06600 ANTIBES Tél. : 04 93 34 72 79 AMPLIFON ANTIBES AMPLIFON NICE PORT 24 bd Wilson - 06600 ANTIBES 4 bd Carnot - 06300 NICE Tél. : 04 93 67 33 97 Tél. : 04 93 26 78 78 Tél. : 03 23 56 70 21 37273_Liste_Centres_Mono_N45.ind2 2 18/09/08 15:00:46 AMPLIFON PORT-LA-NOUVELLE AMPLIFON MARSEILLE LE PONT-DE -VIVAUX Tél. : 04 93 74 17 14 33 bis rue Jean-Jaurès 11210 PORT-LA-NOUVELLE 3 rue François Mauriac 13010 MARSEILLE AMPLIFON CAGNES Tél. : 04 68 48 43 20 Tél. : 04 91 26 71 69 11 rue de l’Hôtel-de-Ville 06800 CAGNES-SUR-MER AMPLIFON LIMOUX OPTIQUE LANCON AMPLIFON MARSEILLE SAINT-BARNABE Tél. : 04 93 22 83 69 53 rue Jean-Jaurès - 11300 LIMOUX 07 - ARDECHE Tél. : 04 68 31 34 88 AMPLIFON PRIVAS AMPLIFON CASTELNAUDARY Centre Médical 5 rue des Electriciens 13012 MARSEILLE AMPLIFON ANTIBES NORD 2222 route de Grasse 06600 ANTIBES 4 rue de la République 07000 PRIVAS Tél. : 04 75 64 24 24 AMPLIFON LES VANS 30 place Léopold Ollier 07140 LES VANS Tél. : 04 75 37 90 44 AMPLIFON AUBENAS Tél. : 04 91 34 83 83 8 rue du 11 Novembre 11400 CASTELNAUDARY AMPLIFON MARSEILLE LES OLIVES Tél. : 04 68 23 13 33 CC des Martégaux 158 av. des Olives 13013 MARSEILLE 13 - BOUCHES-DU-RHÔNES AMPLIFON MARSEILLE GAMBETTA Tél. : 04 91 06 11 59 AMPLIFON MARSEILLE LA GAVOTTE 2 bd de Vernon - 07200 AUBENAS 61 allée Léon Gambetta 13001 MARSEILLE Tél. : 04 75 35 20 00 Tél. : 04 95 04 32 73 AMPLIFON GUILHERAND-GRANGES AMPLIFON MARSEILLE CASTELLANE 227 av de la République 07500 GUILHERAND-GRANGES 45 av Jules Cantini 13006 MARSEILLE AMPLIFON MARSEILLE CABOT Tél. : 04 75 81 49 65 Tél. : 04 91 32 30 50 10 - AUBE AMPLIFON MARSEILLE PARADIS 11 Boulevard du Redon 13009 MARSEILLE AMPLIFON TROYES 45 bd du 14 Juillet - 10000 TROYES Tél. : 03 25 73 08 11 11 - AUDE AMPLIFON CARCASSONNE 124 rue de Verdun 11000 CARCASSONNE Tél. : 04 68 47 93 33 AMPLIFON NARBONNE 32 quai Vallière - 11100 NARBONNE Tél. : 04 68 65 17 30 AMPLIFON LEZIGNAN 8 av Claude Bernard 11200 LEZIGNAN Tél. : 04 68 27 24 52 37273_Liste_Centres_Mono_N45.ind3 3 343 rue Paradis - 13008 MARSEILLE Tél. : 04 91 53 55 26 AMPLIFON MARSEILLE SAINTE-ANNE 404 av de Mazargues 13008 MARSEILLE Tél. : 04 91 22 17 73 AMPLIFON MARSEILLE MAZARGUES 769 av de Mazargues 13009 MARSEILLE Tél. : 04 91 40 91 91 La Gavotte 83 av Frédéric Mitterand 13170 LES-PENNES-MIRABEAU Tél. : 04 91 51 73 02 Tél. : 04 91 25 49 28 AMPLIFON AIX-EN-PROVENCE Immeuble Hemilythe 150 av Georges Pompidou 13100 AIX-EN-PROVENCE Tél. : 04 42 26 22 38 AMPLIFON AUDITION CALAS 34 bis rue Cardinal 13100 AIX-EN-PROVENCE Tél. : 04 42 38 01 68 AMPLIFON ARLES 1 16 place de la République 13200 ARLES Tél. : 04 90 49 63 33 18/09/08 15:00:46 AMPLIFON ARLES 2 AMPLIFON ROCHEFORT AMPLIFON BEAUNE 19 Bd Victor Hugo - 13200 ARLES 59 av du Gal-de-Gaulle 17300 ROCHEFORT-SUR-MER 28 rue du Fbg Madeleine 21200 BEAUNE Tél. : 05 46 99 01 10 Tél. : 03 80 22 87 91 AMPLIFON JONZAC AMPLIFON NUITS SAINT-GEORGES Tél. : 04 90 49 81 15 AMPLIFON AUBAGNE 80 rue de la République 13400 AUBAGNE Tél. : 04 42 70 26 15 AMPLIFON MARTIGUES 6 esplanade des Belges 13500 MARTIGUES Tél. : 04 42 07 03 00 26-28 rue de Carmes 17500 JONZAC Tél. : 05 46 48 10 54 9 Rue de Docteur Louis Legrand 21700 NUITS-SAINT-GEORGES 18 - CHER Tél. : 03 80 61 25 72 AMPLIFON BOURGES 83 rue d’Auron - 18000 BOURGES AMPLIFON AUXONNE 64 Rue Antoine Masson 21130 AUXONNE AMPLIFON ISTRES Tél. : 02 48 69 07 45 3 bd de la République 13800 ISTRES 19 - CORREZE Tél. : 04 42 11 88 43 AMPLIFON TULLE AMPLIFON SEMUR ELUECQUE 14 - CALVADOS 14 Quai de la République 19000 TULLE 3 Place Gustave Gaveau 21140 SEMUR-EN-AUXOIS AMPLIFON LISIEUX Tél. : 05 55 26 57 42 Tél. : 03 80 97 35 83 AMPLIFON BRIVE 25 - DOUBS place de la Halle - 19100 BRIVE 7 rue du Paradis - 14100 LISIEUX Tél. : 02 31 48 62 54 Tél. : 03 80 31 47 14 AMPLIFON HONFLEUR Tél. : 05 55 23 46 36 12 place St Léonard 14600 HONFLEUR AMPLIFON BAILLY MASSON-CENTRE AMPLIFON UZERCHE 82 Grande Rue - 25000 BESANCON Tél. : 02 31 14 51 50 avenue Charles-de-Gaulle 19140 UZERCHE Tél. : 03 81 82 01 05 16 - CHARENTE Tél. : 05 55 98 87 25 AMPLIFON ANGOULEME 20 - CORSE 25 Bis rue de l’Arsenal 16000 ANGOULEME AMPLIFON BASTIA Tél. : 05 45 92 99 66 4 rue Luce de Casabianca 20200 BASTIA AMPLIFON COGNAC Tél. : 04 95 58 67 70 68 av Victor Hugo - 16100 COGNAC AMPLIFON BAILLY MASSON-LAFAYETTE 8 rue Alfred-de-Vigny 25000 BESANCON Tél. : 03 81 41 69 80 AMPLIFON ST-VIT ST-VIT OPTIC 21 - CÔTE-D’OR 1 rue Charles-de-Gaulle 25410 ST-VIT AMPLIFON BARBEZIEUX AMPLIFON DIJON-VILLE Tél. : 03 81 87 72 06 40 rue Victor Hugo 16300 BARBEZIEUX 3 place Auguste Dubois 21000 DIJON 26 - DRÔME Tél. : 05 45 79 00 63 Tél. : 03 80 30 52 93 AMPLIFON DROME AUDITION VALENCE Tél. : 05 45 82 88 00 AMPLIFON 3 place des Martyrs - 16700 RUFFEC DIJON POINT-MEDICAL Rond-Point de la Nation Tél. : 05 45 31 62 02 AMPLIFON RUFFEC 17 - CHARENTE-MARITIME AMPLIFON ROYAN 101 Cours de l’Europe 17200 ROYAN Tél. : 05 46 05 66 70 21 rue Chevandier - 26000 VALENCE Tél. : 04 75 41 32 02 21000 DIJON AMPLIFON ROMANS Tél. : 03 80 70 20 30 39 rue Pierre Sémard 26100 ROMANS-SUR-ISERE AMPLIFON DIJON ELUECQUE Tél. : 04 75 05 07 90 17 et 19 Boulevard de Brosses 21000 DIJON Tél. : 03 80 30 20 00 37273_Liste_Centres_Mono_N45.ind4 4 18/09/08 15:00:47 AMPLIFON PIERRELATTE AMPLIFON AUTERIVE AMPLIFON TALENCE 8 bd Maréchal Juin 26700 PIERRELATTE LES OPTICIENNES Route de Toulouse Rond-Point RN 20 31190 AUTERIVE 117 bd Georges V - 33400 TALENCE Tél. : 04 75 96 31 26 27 - EURE Tél. : 05 61 50 73 38 AMPLIFON PONT-AUDEMER AMPLIFON MURET Tél. : 05 56 98 26 44 AMPLIFON LIBOURNE 62 rue de Fonneuve 33500 LIBOURNE Tél. : 05 57 55 05 12 12-14 rue Paul Clémencin 27500 PONT-AUDEMER 20 av Jacques Douzans 31600 MURET Tél. : 02 32 20 15 25 Tél. : 05 61 56 44 33 29 - FINISTERE 3 av de la Libération 33700 MERIGNAC 33 - GIRONDE Tél. : 05 56 97 51 54 AMPLIFON QUIMPER AMPLIFON DEDIEU BORDEAUX 34 - HERAULT 49 av de la Gare - 29000 QUIMPER Tél. : 02 98 90 72 38 AMPLIFON CONCARNEAU 12 rue des Ecoles 29900 CONCARNEAU Tél. : 02 98 60 41 89 30 - GARD AMPLIFON NIMES CENTRE 6 Amiral bd Courbet - 30000 NIMES Tél. : 04 66 67 99 33 AMPLIFON NIMES JEAN JAURES 49 av Jean Jaurès - 30900 NIMES Tél. : 04 66 36 29 14 AMPLIFON ALES 22 bd Gambetta - 30100 ALES Tél. : 04 66 30 24 65 AMPLIFON BAGNOLS-SUR-CEZE 45 rue Fondaudège 33000 BORDEAUX AMPLIFON MERIGNAC AMPLIFON MONTPELLIER CENTRE Tél. : 05 56 44 89 93 4 rue Grand St-Jean 34000 MONTPELLIER AMPLIFON BORDEAUX Tél. : 04 67 92 87 20 15 rue Jean Burguet 33000 BORDEAUX Tél. : 05 56 91 93 69 AMPLIFON BORDEAUX BASTIDE 51 avenue Thiers 33100 BORDEAUX Tél. : 05 57 54 49 94 AMPLIFON BEGLES 161 Bd Albert 1er - 33130 BEGLES Tél. : 05 56 49 74 92 AMPLIFON BORDEAUX CAUDERAN 6 rue Bellus Mareilhac 33200 BORDEAUX AMPLIFON MONTPELLIER-LES-AUBES Centre Médical-les-Aubes 9 rue des Moineaux 34000 MONTPELLIER Tél. : 04 67 72 77 97 AMPLIFON MONTPELLIER ESTANOVE CC Collines Estanove 1 rue Escoutadou 34000 MONTPELLIER Tél. : 04 67 69 04 07 AMPLIFON MONTPELLIER LES ARCEAUX Tél. : 05 56 08 45 87 15 Ter av d’Assas 34000 MONTPELLIER AMPLIFON LESPARRE Tél. : 04 67 52 50 42 31 - HAUTE-GARONNE 31 rue Jean-Jacques-Rousseau 33340 LESPARRE AMPLIFON FRONTIGNAN AMPLIFON TOULOUSE Tél. : 05 56 41 89 07 31 allée Jean Jaurès 31000 TOULOUSE AMPLIFON BLAYE 9 place de la Victoire - 33390 BLAYE Tél. : 04 67 74 00 00 Tél. : 05 61 99 33 33 Tél. : 05 57 42 08 65 AMPLIFON SETE 6 avenue de l’Europe 30800 BAGNOLS-SUR-CEZE Tél. : 04 66 50 64 28 Pharmacie Léon 2 Avenue Anatole France 34110 FRONTIGNAN 16 rue Voltaire - 34200 SETE Tél. : 04 67 74 00 00 37273_Liste_Centres_Mono_N45.ind5 5 18/09/08 15:00:47 AMPLIFON LA GRANDE MOTTE 28 Place Saint-Exupéry av de l’Europe 34280 LA GRANDE MOTTE Tél. : 04 67 29 85 00 AMPLIFON AGDE AMPLIFON AGDE BESSAN 38 - ISERE Centroptique - 56 grand rue 34550 BESSAN AMPLIFON BOUGET Tél. : 04 67 94 77 48 14 bd Maréchal-Foch 38000 GRENOBLE AMPLIFON CLERMONT-L’HERAULT 36 rue Ernest Renan - 34300 AGDE 30 rue Voltaire 34800 CLERMONT-L’HERAULT Tél. : 04 67 94 77 48 Tél. : 04 67 96 34 54 AMPLIFON AGDE MARSEILLAN AMPLIFON CLAPIERS Centroptique, Place Carnot 34340 MARSEILLAN C.C. La Croiséeav de l’Europe 34830 CLAPIERS Tél. : 04 99 62 05 08 Tél. : 04 76 46 27 27 AMPLIFON LESDIGUIÈRES 8 rue Lesdiguières 38000 GRENOBLE Tél. : 04 76 17 04 67 AMPLIFON MALLIFAUD 83 rue Mallifaud 38100 GRENOBLE Tél. : 04 76 87 44 88 Tél. : 04 67 94 77 48 AMPLIFON LATTES AMPLIFON LUNEL Ctre-Cial-Les-Portes-de-la-Mer 34400 LUNEL Forum Médica Rond-Point de l’Europe 34970 LATTES Tél. : 04 67 91 00 55 Tél. : 04 67 64 80 78 Tél. : 04 37 05 03 28 AMPLIFON ST-JEAN-DE-VEDAS 35 - ILLE-ET-VILAINE AMPLIFON ECHIROLLES Rés. Les Terrasses de St-Jean 74 esp de l’Ortet 34430 ST-JEAN-DE-VEDAS AMPLIFON LA TOUR-DU-PIN 30 rue Aristide Briand 38110 LA TOUR-DU-PIN AMPLIFON COMBOURG 46 av du 8 Mai 1945 38130 ECHIROLLES 21 bd du Mail - 35270 COMBOURG Tél. : 04 76 09 80 80 Tél. : 02 99 73 14 66 Tél. : 04 67 69 12 75 AMPLIFON SAINT-MALO AMPLIFON SAINT-MARCELLIN AMPLIFON BALARUC 4-6 rue Ernest Renan 35400 SAINT-MALO 18 Grande Rue 38160 ST-MARCELLIN Tél. : 02 99 56 36 28 Tél. : 04 76 38 19 21 Tél. : 04 67 78 71 64 AMPLIFON RENNES-JOFFRE AMPLIFON BRIGNOUD AMPLIFON BÉZIERS SAUVIAN 22 rue Maréchal-Joffre 35000 RENNES 34 bis A bd de la Libération 38190 BRIGNOUD Tél. : 02 99 67 23 33 Tél. : 04 76 40 19 02 AMPLIFON RENNES-FOUGÈRES AMPLIFON VIENNE Europtical - Z.C. Balaruc Loisirs 34450 BALARUC-LE-VIEUX FuturOptic - Place Paliseul 34410 SAUVIAN Tél. : 04 67 30 76 79 AMPLIFON BEZIERS 114 av Georges Clémenceau 34500 BEZIERS Tél. : 04 67 30 76 79 AMPLIFON AGDE FLORENSAC Centroptique 23 Rue Fernand Chamayou 34510 FLORENSAC Tél. : 04 67 94 77 48 221 rue de Fougères 35700 RENNES Tél. : 02 99 27 76 22 5-7 place St-Maurice 38200 VIENNE Tél. : 04 74 78 48 96 AMPLIFON MEYLAN AMPLIFON RENNES-BAHON-RAULT 42 av Plaine Fleurie 38240 MEYLAN 1 à 5 rue Bahon-Rault 35000 RENNES Tél. : 04 76 18 03 03 Tél. : 02 99 38 24 24 AMPLIFON SAINT-MEEN-LE-GRAND AMPLIFON LA VERPILLIERE 53 rue de la République 38290 LA VERPILLIERE Tél. : 04 74 82 78 91 4 pl. de la Mairie 35290 SAINT-MEEN-LE-GRAND Tél. : 02 99 09 49 66 37273_Liste_Centres_Mono_N45.ind6 6 18/09/08 15:00:48 AMPLIFON BOURGOIN AMPLIFON CAPBRETON 43 - HAUTE-LOIRE Immeuble Le Kerylos BP 87 21 av Maréchal Leclerc 38303 BOURGOIN Rde Le Châtelet Place de la Gare 40130 CAPBRETON AMPLIFON PUY-EN-VELAY Tél. : 04 74 28 03 07 Tél. : 05 58 41 61 76 AMPLIFON LE PONT-DE-BEAUVOISIN AMPLIFON SOUSTONS 6 rue Gambetta 38480 LE PONT-DE-BEAUVOISIN 10 rue Emile Nougaro 40140 SOUSTONS Tél. : 05 58 41 56 52 12 place du Breuil 43000 LE PUY-EN-VELAY Tél. : 04 71 04 28 82 AMPLIFON BRIOUDE 24 bd du Docteur Devins 43100 BRIOUDE Tél. : 04 71 74 97 65 Tél. : 04 76 32 81 62 42 - LOIRE AMPLIFON AUDISON VOIRON 44 - LOIRE-ATLANTIQUE AMPLIFON SAINT-ETIENNE 13 rue de Vaucanson 38500 VOIRON Tél. : 04 77 32 17 20 AMPLIFON NANTES LABORATOIRE P. SADOC 6 rue de la Paix - 42000 ST-ETIENNE Tél. : 04 76 65 91 81 AMPLIFON FEURS AMPLIFON FONTAINE 3 rue de la Loire - 42110 FEURS LABORATOIRE P. SADOC 10 rue Henri IV 44000 NANTES Tél. : 04 77 26 57 74 Tél. : 02 40 74 71 38 AMPLIFON ANDREZIEUX AMPLIFON LABORATOIRE ACHACHE 58 av Aristide Briand 38600 FONTAINE Tél. : 04 76 26 01 01 39 - JURA Espace Ambroise Paré 10 av de Saint-Etienne 42160 ANDREZIEUX AMPLIFON DÔLE Tél. : 04 77 55 80 81 22 bd Wilson - 39100 DÔLE Tél. : 03 84 82 46 11 AMPLIFON ROANNE PROMENADES AMPLIFON CHAMPAGNOLE OPTIC 2000 KUHNI 4 place des Promenades 42300 ROANNE 72 av de la République 39300 CHAMPAGNOLE Tél. : 04 77 71 10 30 Tél. : 03 84 52 34 51 72 rue Maréchal Foch 42300 ROANNE AMPLIFON ARBOIS AMPLIFON ROANNE FOCH 19 rue Racine - 44000 NANTES Tél. : 02 40 73 66 89 AMPLIFON NANTES-STE-THERESE 4 route de Vannes - 44100 NANTES Tél. : 02 40 20 06 06 AMPLIFON ANCENIS 19 place Francis Robert 44150 ANCENIS Tél. : 02 40 83 11 38 47 - LOT-ET-GARONNE OPTIC CONTACT BILLOT 47 Grande rue - 39600 ARBOIS Tél. : 04 77 70 01 56 AMPLIFON AGEN Tél. : 03 84 66 06 64 AMPLIFON MONTBRISON 10 rue Notre-Dame 42600 MONTBRISON 43 bd de la République 47000 AGEN 40 - LANDES AMPLIFON MONT-DE-MARSAN 122 Bd de la République 40000 MONT-DE-MARSAN Tél. : 05 58 75 38 30 AMPLIFON DAX Tél. : 04 77 58 10 05 Tél. : 05 53 47 38 56 AMPLIFON FIRMINY AMPLIFON MARMANDE 16 place du Breuil - 42700 FIRMINY 68 rue de la République 47200 MARMANDE Tél. : 04 77 56 01 34 Tél. : 05 53 89 23 00 AMPLIFON VILLENEUVE 7 rue Saint-Vincent - 40100 DAX bd Palissy 47300 VILLENEUVE-SUR-LOT Tél. : 05 58 74 91 08 Tél. : 05 53 01 45 45 37273_Liste_Centres_Mono_N45.ind7 7 18/09/08 15:00:48 51 - MARNE 59 - NORD 62 - PAS-DE-CALAIS AMPLIFON EPERNAY AMPLIFON ROUBAIX AMPLIFON BULLY 16 rue du Gal-Leclerc 51200 EPERNAY 3 rue de la Halle - 59100 ROUBAIX Place Jean Jaures 62160 BULLY LES MINES Tél. : 03 26 51 75 51 AMPLIFON SEZANNE 68 place de la République 51120 SEZANNE Tél. : 03 26 80 54 36 54 - MEURTHE ET MOSELLE Tél. : 03 20 82 66 66 AMPLIFON CENTRE ACOUSTIQUE DU NORD 388 rue de Paris - 59503 DOUAI Tél. : 03 27 88 81 96 AMPLIFON MAUBEUGE Place Verte - Centre UGOSS 59600 MAUBEUGE Tél. : 03 21 72 00 00 AMPLIFON LENS Route de la Bassée 62300 LENS Tél. : 03 27 88 81 96 AMPLIFON BRUAY Tél. : 03 27 53 83 93 195 rue Louis Dussart 62700 BRUAY LA BUISSIERE Tél. : 03 83 17 22 23 AMPLIFON VILLENEUVE- D’ASCQ 63 - PUY-DE-DÔME 56 - MORBIHAN 115 rue des Fusillés 59650 VILLENEUVE-D’ASCQ AMPLIFON PLOËRMEL Tél. : 03 20 34 00 84 13 place de l’Union 56800 PLOËRMEL AMPLIFON MARCQ-EN- BARŒUL AMPLIFON NANCY 2 bis rue d’Amervall - 54000 NANCY Tél. : 02 97 74 21 24 Tél. : 03 21 61 61 31 AMPLIFON CLERMONT-FERRAND 72-74 avenue de la république 63000 CLERMONT-FERRAND Tél. : 04 73 74 63 63 AMPLIFON GUER 131 av Foch - 59700 MARCQ-ENBARŒUL 20 rue Saint-Gurval - 56380 GUER Tél. : 03 20 65 31 84 36 place Jean-Baptiste-Laurent 63200 RIOM Tél. : 02 97 22 19 47 AMPLIFON LILLE Tél. : 04 73 33 12 14 57 - MOSELLE 132 bd de la Liberté - 59800 LILLE AMPLIFON THIERS Tél. : 03 20 85 83 83 AMPLIFON RIOM 55 rue des Arts - 59800 LILLE Galerie-des-Molles Centre-Commercial Leclerc 63300 THIERS Tél. : 03 87 84 00 40 Tél. : 03 20 74 36 36 Tél. : 04 73 80 18 04 AMPLIFON METZ AMPLIFON ARMENTIERES AMPLIFON CHAMALIERES 22 rue Wilson - 57000 METZ 15 bis rue de Lille 59280 ARMENTIERES 16 av de Royat 63400 CHAMALIERES Tél. : 03 20 44 21 21 Tél. : 04 73 31 35 65 AMPLIFON LA MADELEINE AMPLIFON ISSOIRE 120 rue du Général-de-Gaulle 59110 LA MADELEINE 5 rue de la Place d’Espagne 63500 ISSOIRE Tél. : 03 20 06 91 92 Tél. : 04 73 89 01 47 AMPLIFON LA BASSEE AMPLIFON AMBERT AMPLIFON COSNE-COURS-SUR-LOIRE 15 av. Jean-Baptiste Lebas 59480 LA BASSEE 2 rue de la République 63600 AMBERT 2 pl de la Pêcherie 58200 COSNE-COURS-SUR LOIRE Tél. : 03 20 29 36 85 Tél. : 04 73 82 01 01 AMPLIFON FORBACH 86 A rue Nationale 57600 FORBACH Tél. : 03 87 18 10 55 58 - NIEVRE AMPLIFON NEVERS 11 bis rue de Cherleville 58000 NEVERS Tél. : 03 86 61 23 42 Tél. : 03 86 26 66 06 AMPLIFON VIEUX LILLE AMPLIFON COURNON AMPLIFON CLAMECY av Maréchal-Foch 63800 COURNON D’AUVERGNE 3 rue Jean-Jaurès - 58500 CLAMECY Tél. : 04 73 84 48 81 Tél. : 03 86 27 93 62 37273_Liste_Centres_Mono_N45.ind8 8 18/09/08 15:00:49 64 - PYRENEES-ATLANTIQUES AMPLIFON PAU 72 rue Emile Guichenné 64000 PAU AMPLIFON ILLKIRCH AMPLIFON VILLEURBANNE 237 route de Lyon - 67400 ILLKIRCH 167 cours Emile Zola 69100 VILLEURBANNE Tél. : 03 88 66 91 22 68 - HAUT-RHIN Tél. : 05 59 27 68 28 AMPLIFON COLMAR AMPLIFON BIARRITZ 5 rue Larralde - 64200 BIARRITZ 3 av de la République 68000 COLMAR Tél. : 05 59 22 16 64 Tél. : 03 89 24 10 20 AMPLIFON ST-JEAN-DE-LUZ AMPLIFON MULHOUSE 3 av de Verdun 64500 ST-JEAN-DE-LUZ 10 bd de l’Europe (face Tour de l’Europe) 68100 MULHOUSE Tél. : 05 59 51 14 95 66 - PYRENEES-ORIENTALES AMPLIFON ILLE-SUR-TET 10 avenue Jean-Jaurès 66130 ILLE-SUR-TET Tél. : 04 68 50 16 07 AMPLIFON PERPIGNAN Médipol - 8 rue Madeleine Bres 66330 CABESTANY Tél. : 04 68 59 62 99 AMPLIFON RIVESALTES Tél. : 03 89 66 05 60 AMPLIFON ALTKIRCH 11 rue Jean-Jacques Henner 68130 ALTKIRCH Tél. : 03 89 40 20 66 AMPLIFON GUEBWILLER AMPLIFON ST-FONS 1 rue Gabriel Péri - 69190 ST-FONS Tél. : 04 78 67 99 68 AMPLIFON L’ARBRESLE 52 rue Charles-de-Gaulle 69210 L’ARBRESLE Tél. : 04 74 01 33 31 AMPLIFON THIZY 2 rue Perrin Frères - 69240 THIZY Tél. : 04 74 64 10 17 11 rue Pierre Bouvier 69270 FONTAINES-SUR- SAONE 69 - RHÔNE 16 rue de la Barre - 69002 LYON Tél. : 04 78 37 44 20 Résidence Tinssimo - ZAC de Tins 66400 CERET AMPLIFON LTS CROIX-ROUSSE Tél. : 04 68 55 56 79 87 bd de la Croix-Rousse 69004 LYON 46 avenue des vosges 67000 STRASBOURG Tél. : 04 74 05 06 20 Tél. : 03 89 62 12 92 Tél. : 04 68 50 16 07 AMPLIFON STRASBOURG 20 av Charles-de-Gaulle 69170 TARARE AMPLIFON FONTAINES-SUR-SAONE AMPLIFON LYON 67 - BAS-RHIN AMPLIFON TARARE 81 rue de la République 68500 GUEBWILLER 4 Place Joffre - 66600 RIVESALTES AMPLIFON CERET Tél. : 04 78 68 28 37 Tél. : 04 78 27 22 31 AMPLIFON LYON POINT-DU-JOUR Tél. : 04 72 42 23 51 AMPLIFON VILLEFRANCHE-SUR-SAONE 999 rue Nationale 69400 VILLEFRANCHE-SUR-SAONE Tél. : 04 74 60 36 35 AMPLIFON BRON 154 av Franklin Roosevelt 69500 BRON Tél. : 04 72 37 84 33 AMPLIFON ST-SYMPHORIEN CENTRE OPTIQUE Tél. : 03 88 22 07 57 50 av du point-du-Jour 69005 LYON AMPLIFON SCHILTIGHEIM Tél. : 04 37 41 08 35 92 rue Centrale 69590 ST-SYMPHORIEN 20 rue des Pompiers 67300 SCHILTIGHEIM AMPLIFON KALFOUN LYON Tél. : 04 78 44 53 04 163 cours Lafayette - 69006 LYON AMPLIFON OULLINS Tél. : 03 88 83 91 66 AMPLIFON SAVERNE 4 Grand Rue - 67700 SAVERNE Tél. : 03 88 71 09 34 37273_Liste_Centres_Mono_N45.ind9 9 Tél. : 04 72 74 42 00 AMPLIFON VAISE 150 Grande Rue - 69600 OULLINS Tél. : 04 72 39 14 97 16 rue Marietton - 69009 LYON Tél. : 04 72 20 02 95 18/09/08 15:00:49 AMPLIFON ST-PRIEST AMPLIFON RASPAIL 35 bd Herriot - 69800 ST-PRIEST 118 bd Raspail - 75006 PARIS Tél. : 04 78 21 53 26 Tél. : 01 45 48 00 38 71 - SAÔNE-ET-LOIRE AMPLIFON VINTIMILLE 10 rue du Maréchal-Joffre 76000 LE HAVRE 1 rue de Vintimille - 75009 PARIS Tél. : 02 35 22 63 80 AMPLIFON CHAUFFAILLES OPTIQUE-MASSON Tél. : 01 48 74 59 77 76 - SEINE MARITIME AMPLIFON LE HAVRE AMPLIFON HARFLEUR 16 rue Centrale 71170 CHAUFFAILLES AMPLIFON MAGENTA 95 bd de Magenta - 75010 PARIS 13 place d’Armes 76700 HARFLEUR Tél. : 03 85 26 03 03 Tél. : 01 49 49 03 23 Tél. : 02 35 49 33 60 AMPLIFON LE CREUSOT AMPLIFON NATION 77 - SEINE-ET-MARNE 71 rue Maréchal Foch 71200 LE CREUSOT 41 bd de Charonne - 75011 PARIS Tél. : 03 85 77 49 25 AMPLIFON OBERKAMPF 15 place de la Porte-de-Paris 77000 MELUN AMPLIFON AUTUN 25 rue Oberkampf - 75011 PARIS Tél. : 01 64 37 01 58 2 rue de Lattre-de-Tassigny 71400 AUTUN Tél. : 01 56 98 17 11 Tél. : 03 85 52 02 16 AMPLIFON LOUHANS 11 rue du Jura - 71500 LOUHANS Tél. : 03 85 76 09 79 74 - HAUTE-SAVOIE AMPLIFON ANNEMASSE Tél. : 01 43 56 67 12 AMPLIFON MELUN AMPLIFON COULOMMIERS AMPLIFON CENTRE DE SERVICE TECHNIQUE 9 rue du Marché 77120 COULOMMIERS 15 Rue Berlier Batiment B - 6ème étage 75013 PARIS Tél. : 01 64 75 13 17 Tél. : 01 53 79 75 98 AMPLIFON ALESIA 26 av Jean Moulin - 75014 PARIS AMPLIFON NEMOURS 28 rue de Paris - 77140 NEMOURS Tél. : 01 64 28 00 66 AMPLIFON PROVINS Tél. : 01 45 40 83 54 12 rue Victor Garnier 77160 PROVINS Tél. : 04 50 38 27 09 AMPLIFON BOUCICAUT Tél. : 01 64 01 45 63 AMPLIFON CLUSES 117 rue de la Convention 75015 PARIS AMPLIFON TOURNAN 4 rue René Blanc 74100 ANNEMASSE 13 bis rue François Curt 74300 CLUSES Tél. : 04 50 18 09 23 AMPLIFON SALLANCHES 88 av de la Gare 74700 SALLANCHES Tél. : 01 40 60 17 33 3 rue des Fossés 77220 TOURNAN-EN-BRIE AMPLIFON AUTEUIL Tél. : 01 64 06 48 49 2 rue d’Auteuil - 75016 PARIS Tél. : 01 55 74 06 15 AMPLIFON VICTOR-HUGO AMPLIFON FONTAINEBLEAU Tél. : 04 50 18 44 72 2 rue de Sontay - 75116 PARIS 24 rue de la Paroisse 77300 FONTAINEBLEAU 75 - PARIS Tél. : 01 45 00 65 92 Tél. : 01 60 70 98 96 AMPLIFON WAGRAM AMPLIFON PONTAULTCOMBAULT AMPLIFON OPERA 7 rue de Hanovre - 75002 PARIS Tél. : 01 47 42 38 88 AMPLIFON BEAUBOURG 15 rue Quincampoix - 75004 PARIS Tél. : 01 42 74 43 53 AMPLIFON CENSIER 45 rue Censier - 75005 PARIS Tél. : 01 47 07 73 73 37273_Liste_Centres_Mono_N45.ind10 10 58 av de Wagram - 75017 PARIS Tél. : 01 47 63 90 59 AMPLIFON GUY MOQUET 70 av de St-Ouen - 75018 PARIS Tél. : 01 42 63 22 53 AMPLIFON BOLIVAR 25 av Simon Bolivar - 75019 PARIS Tél. : 01 40 03 91 27 63 av du Gal-de-Gaulle 77340 PONTAULT-COMBAULT Tél. : 01 64 43 80 80 AMPLIFON PONTAULTCOMBAULT 2 16-18 av Charles Rouxel 77340 PONTAULT-COMBAULT Tél. : 01 60 34 76 27 18/09/08 15:00:50 AMPLIFON COMBS-LA-VILLE OPTIQUE-DES-ACACIAS 2 rue des Acacias 77380 COMBS-LA-VILLE Tél. : 01 60 60 74 74 78 - YVELINES 83 - VAR AMPLIFON LA SEYNE AMPLIFON TOULON LIBERTE Les Sablettes Le Cardinal 42 rue E. Manet 83500 LA SEYNE-SUR-MER 185 place de la Liberté 83000 TOULON Tél. : 04 94 30 55 25 Tél. : 04 94 92 69 35 AMPLIFON FREJUS 53 rue Jean-Jaurès - 83600 FREJUS AMPLIFON VERSAILLES AMPLIFON TOULON MOURILLON 75 rue de la Paroisse 78000 VERSAILLES Le Mourillon 1 rue Castillon 83000 TOULON Tél. : 01 30 83 14 98 Tél. : 04 94 36 67 14 AMPLIFON ST-GERMAIN AMPLIFON TOULON FOCH 25 rue des Coches 78100 ST-GERMAIN-EN-LAYE 153 bd Maréchal Foch 83000 TOULON Tél. : 01 39 04 03 11 Tél. : 04 94 93 59 64 AMPLIFON POISSY AMPLIFON SANARY 30 av du Cep - 78300 POISSY Tél. : 04 90 82 03 83 Tél. : 01 30 65 11 23 4 place Albert Cavet 83110 SANARY-SUR-MER AMPLIFON SARTROUVILLE Tél. : 04 94 74 39 91 61 av Jean-Jaurès 78500 SARTROUVILLE AMPLIFON STE-MAXIME 79 av Charles-de-Gaulle 84100 ORANGE Tél. : 01 39 57 47 69 32 av Georges Clémenceau 83120 STE-MAXIME Tél. : 04 94 17 14 61 AMPLIFON ST-RAPHAEL 40 rue Léon Basso 83700 ST-RAPHAEL Tél. : 04 94 83 09 15 84 - VAUCLUSE AMPLIFON AVIGNON 26 rue de la République 84000 AVIGNON AMPLIFON ORANGE Tél. : 04 90 34 76 76 AMPLIFON VAISON-LA-ROMAINE AMPLIFON MAISONS-LAFFITTE Tél. : 04 94 49 25 61 1 rue des Plantes 78600 MAISONS-LAFFITTE Bât Le Liberté - 1 rue de l’Enclos 83210 SOLLIES-PONT Tél. : 01 34 93 71 09 Tél. : 04 94 13 09 65 AMPLIFON LE PONTET 80 - SOMME AMPLIFON LE PRADET AMPLIFON AMIENS Le Caducée - 390 av de la 1ère DFL 83220 LE PRADET 47 av Charles-de-Gaulle 84130 LE PONTET 5 place de l’Hôtel-de-Ville 80000 AMIENS Tél. : 04 94 21 66 25 Tél. : 03 22 91 86 60 AMPLIFON COGOLIN AMPLIFON CAVAILLON OPTIQUE-BOURNISSAC 81 - TARN 23 av Georges Clémenceau 83310 COGOLIN 76 cours Bournissac 84300 CAVAILLON AMPLIFON LAVAUR Tél. : 04 94 54 54 97 Tél. : 04 90 71 17 85 10 place du Vieux Marché 81500 LAVAUR AMPLIFON TOURRETTES AMPLIFON SORGUES Centre Médical Tassy Quartier Tassy 83440 TOURRETTES Résidence de l’Etoile rue Roger Ricca 84700 SORGUES Tél. : 04 94 76 02 42 Tél. : 04 90 39 26 86 Tél. : 05 63 58 32 33 37273_Liste_Centres_Mono_N45.ind11 11 AMPLIFON SOLLIES-PONT 12 av Victor-Hugo 84110 VAISON-LA-ROMAINE Tél. : 04 90 36 07 09 Tél. : 04 90 32 94 61 18/09/08 15:00:50 87 - HAUTE-VIENNE AMPLIFON ANTONY AMPLIFON DRANCY AMPLIFON LIMOGES 20-22 av Aristide Briand 92160 ANTONY 86 av Henri Barbusse 93700 DRANCY 19 place Manigne - 87000 LIMOGES Tél. : 01 42 37 45 22 Tél. : 01 48 31 16 70 AMPLIFON NEUILLY 94 - VAL-DE-MARNE 9 rue Paul Chatrousse 92200 NEUILLY AMPLIFON NOGENT Tél. : 05 55 32 45 50 AMPLIFON ST-JUNIEN 4 rue Gabriel Péri 87200 ST-JUNIEN Tél. : 01 47 47 02 07 66 Grande Rue Charles-deGaulle 94130 NOGENT-SUR-MARNE AMPLIFON LEVALLOIS Tél. : 01 48 76 89 22 19 place du Palais - 87300 BELLAC 59 rue Aristide Briand 92300 LEVALLOIS-PERRET AMPLIFON SAINT-MAUR Tél. : 05 55 60 24 44 Tél. : 01 41 34 04 55 AMPLIFON ST-LEONARD 139 bd de Champigny 94210 LA VARENNE-ST-HILAIRE AMPLIFON RUEIL-MALMAISON Tél. : 01 42 83 11 11 Tél. : 05 55 02 65 21 AMPLIFON BELLAC 24 rue Jean-Jaurès 87400 ST-LEONARD Tél. : 05 55 56 35 87 29 rue Maurepas 92500 RUEIL-MALMAISON 89 - YONNE Tél. : 01 47 14 14 75 AMPLIFON AVALLON OPTIC 2000 - CENTRE VILLE AMPLIFON COLOMBES 20 rue St-Denis - 92700 COLOMBES AMPLIFON LA VARENNE 76 bis av du Bac 94210 LA VARENNE-ST-HILAIRE Tél. : 01 55 12 13 33 AMPLIFON CHARENTON 3 Grande rue - 89200 AVALLON Tél. : 01 56 83 71 64 109 rue de Paris 94220 CHARENTON Tél. : 03 86 34 36 09 93 - SEINE-ST-DENIS Tél. : 01 43 96 96 87 90 - BELFORT (TERRITOIRE) AMPLIFON BELFORT AMPLIFON NOISY-LE-GRAND 3 av du Maréchal Foch 90000 BELFORT 1 allée des Norottes 93160 NOISY-LE-GRAND AMPLIFON KREMLIN-BICETRE VISUAL-RINAVISION Tél. : 03 84 28 24 24 Tél. : 01 49 31 02 40 92 - HAUTS-DE-SEINE AMPLIFON VILLEMOMBLE 46 av de Fontainebleau 94270 LE-KREMLIN-BICETRE Tél. : 01 43 90 11 07 AMPLIFON NANTERRE 61 av de Raincy 93250 VILLEMOMBLE AMPLIFON CHENNEVIERES OPTICIEN KRYS 6 place Foch - 92000 NANTERRE Tél. : 01 48 55 16 27 C. Cial-du-Carrefour de Pince-Vent 94430 CHENNEVIERES-SUR- MARNE Tél. : 01 47 24 16 93 AMPLIFON BOULOGNE OPTIQUE AMBROISE PARE 13/15 bd Jean-Jaurès 92100 BOULOGNE Tél. : 01 46 03 31 95 AMPLIFON MONTROUGE 96 av de la République 92120 MONTROUGE Tél. : 01 55 48 01 65 AMPLIFON ISSY-LES-MOULINEAUX 4 avenue Jean-Jaurès 92130 ISSY-LES-MOULINEAUX Tél. : 01 41 46 18 95 37273_Liste_Centres_Mono_N45.ind12 12 AMPLIFON LES LILAS 126 rue de Paris 93260 LES LILAS Tél. : 01 43 60 23 40 AMPLIFON TREMBLAY 6 bis av Pasteur 93290 TREMBLAY-EN-FRANCE Tél. : 01 48 60 67 28 Tél. : 01 45 76 72 37 95 - VAL-D’OISE AMPLIFON PONTOISE 30 rue de Thiers - 95300 PONTOISE Tél. : 01 30 73 64 23 AMPLIFON EAUBONNE AMPLIFON PANTIN 7 rue Christino Garcia 95600 EAUBONNE 91 av Edouard Vaillant 93500 PANTIN Tél. : 01 39 59 06 63 Tél. : 01 48 45 93 40 AMPLIFON ENGHIEN 4 rue Robert Schuman 95880 ENGHIEN-LES-BAINS Tél. : 01 34 12 01 54 18/09/08 15:00:51 numéro Naissance, vie et mort de l’oreille EDITION 2008 37273_Couv_Mono_N45.Nais_vie_mor1 1 Naissance, vie et mort de l’oreille Les monographies amplifon 45 Naissance, vie et mort de l’oreille André Chays Paul Avan, Eric Bailly-Masson, Marie-Madeleine Eliot, Lionel Collet, Gérald Kalfoun, Eric Kariger, Sandrine Marlin, Xavier Perrot, Pascal Schmidt, Hung Thaï Van E D I T I O N 2 0 0 8 18/09/08 10:36:17