Telechargé par sondos.ahmad

Monographie-Amplifon-numéro-45

publicité
numéro
Naissance, vie et mort
de l’oreille
EDITION 2008
37273_Couv_Mono_N45.Nais_vie_mor1 1
Naissance, vie et mort de l’oreille
Les monographies amplifon
45
Naissance, vie
et mort de l’oreille
André Chays
Paul Avan, Eric Bailly-Masson, Marie-Madeleine Eliot,
Lionel Collet, Gérald Kalfoun, Eric Kariger,
Sandrine Marlin, Xavier Perrot, Pascal Schmidt, Hung Thaï Van
E D I T I O N
2 0 0 8
18/09/08 10:36:17
Naissance, vie
et mort de l’oreille
André Chays
Paul Avan,
Eric Bailly-Masson,
Marie-Madeleine Eliot,
Lionel Collet,
Gérald Kalfoun,
Eric Kariger,
Sandrine Marlin,
Xavier Perrot,
Pascal Schmidt,
Hung Thaï Van
EDITION 2008
37273_Monographie_N45.Nais_vie_m1 1
18/09/08 14:37:48
Monographie
naissance vie et mort de l'oreille
REMERCIEMENTS
S
ans la Société Amplifon, point de monographie, point de cette longue réflexion menée au
cours de l’hiver 2007, maintenant couchée sur le papier, pour le bien de milliers de lecteurs
ORL, audioprothésistes, orthophonistes, mais aussi généralistes, généticiens, infirmières,
pédiatres, psychiatres, psychologues, puéricultrices, et j’en oublie…
À l’heure où il est de bon ton de taire, si ce n’est de fuir, avant de bientôt condamner ces relations
hautement suspectes entre le monde soignant et celui des laboratoires, je suis heureux de crier haut
et fort que l’enseignement post-universitaire, jusqu’à ce jour, n’a vécu que grâce à l’efficace conscience
professionnelle de ceux qui composent ces laboratoires.
La Société Amplifon fait partie de celles qui font survivre cet enseignement et je lui dis toute notre
reconnaissance pour son fidèle soutien.
Le brillant Paul Avan, les fidèles Sandrine Marlin et Mylène Elliot, le complice Eric Kariger, l’honnête
Pascal Schmidt, la fameuse et excellente équipe UMR de Lyon, sous la houlette de Lionel Collet et Hung
Thai Van, m’ont donné sans compter les fruits de leurs pensées et leurs excellents écrits. Je les en
remercie d’autant plus qu’ils m’ont autorisé à les retoucher pour assurer l’homogénéité du texte et
que je connais, par ailleurs, la lourde charge d’écriture qui leur est régulièrement assignée.
Gérald Kalfoun et Eric Bailly-Masson ont porté très haut les couleurs d’une noble profession, très
complémentaire de la nôtre : je les remercie de ce qu’ils m’ont appris et de leur forte implication dans
l’enseignement, graines plantées là pour un futur prometteur.
Le vrai coordonnateur de cet ouvrage n’apparaît pas parce que l’élégance de sa discrétion n’a d’égale
que celle de son esprit. Sa pensée est partout au cœur de cet écrit car il partage avec les chercheurs
leur curiosité, avec les thérapeutes leur efficacité, et avec les penseurs leur esprit de synthèse et leur
imaginaire. Les malentendants de ce monde lui doivent beaucoup : il les connaît, il les comprend, il
les respecte et, sans jamais la moindre faiblesse, il les aide de son mieux.
Monsieur Morgon, permettez-moi de joindre ma voix à la leur pour vous dire toute notre gratitude.
Enfin, deux se reconnaîtront, qui m’ont si brillamment appris l’évidence…
André Chays
2
37273_Monographie_N45.Nais_vie_m2 2
18/09/08 14:38:11
Monographie
naissance vie et mort de l'oreille
les
A
uteurs
André Chays
Chef de Service ORL
Hôpital Robert Debré - CHU REIMS - 51092 REIMS Cedex
[email protected]
Paul Avan,
Professeur de Biophysique Laboratoire de
Biophysique sensorielle (EA 2667),
Faculté de Médecine, Université d'Auvergne,
Clermont-Ferrand
[email protected]
Eric Bailly Masson
Audioprothésiste D.E.
Amplifon Bailly Masson
8 rue Alfred de Vigny 25000 Besançon
[email protected]
Lionel Collet
Professeur des universités
Praticien Hospitalier Service d'audiologie
et d'explorations oro-faciales des Hospices Civils
de Lyon Université Claude Bernard Lyon 1
Marie-Madeleine Eliot
Docteur, médecin ORL phoniatre
cabinet d'ORL 1 allée SPACH 67000 Strasbourg
et Service d'audiophonologie-ORL
Hopital de Hautepierre 67000 Strasbourg
[email protected]
Idrick Akhoun
Doctorant
Equipe Audiologie - UMR CNRS 5020
Hôpital Edouard Herriot LYON
Stéphane Gallégo
Docteur en Biomédicale, Audioprothésiste DE
Hôpital Edouard herriot, service Implant
cochléaire, Lyon
[email protected]
Gérald Kalfoun
Audioprothésiste, Orthophoniste
Professeur associé à l’Université Lyon 1
Amplifon Kalfoun Lyon
163 cours Lafayette 69006 Lyon
[email protected]
Eric Kariger
Gériatre, Responsable Médical de Pôle
Hôpital Sébastopol, Service de Soins de Suite et
Réadaptation, 48 rue de Sébastopol
51092 Reims Cedex
[email protected]
Sandrine Marlin
Docteur Centre de Référence des Surdités
Génétiques Service de Génétique
Hôpital d'Enfants Armand Trousseau
26 av du Dr Arnold Netter
75571 Paris Cedex 15
[email protected]
Annie Moulin
Docteur en Médecine,
Docteur en Neurosciences
Chargée de recherches au CNRS
CNRS, UMR 5020, Neurosciences sensorielles,
comportement,cognition
Equipe Audiologie, Hôpital E. Herriot
69437 Lyon Cedex
[email protected]
Xavier PERROT
Maître de Conférences des Universités
Praticien Hospitalier (Physiologie Audiologie)
Service d'Audiologie et Explorations Orofaciales
& UMR
5020 CNRS-Université Lyon 1
Centre Hospitalier Lyon-Sud
69495 Pierre-Bénite Cedex
[email protected]
Pascal Schmidt
Docteur ORL
Service ORL & chirurgie
cervico-faciale CHU Reims
51092 Reims Cedex
[email protected]
Hung Thaï Van
Maître de Conférences-Praticien Hospitalier
Responsable de l'équipe Audiologie
UMR CNRS 5020
Service d'Audiologie & d'Explorations Orofaciales
Hôpital Edouard Herriot LYON
[email protected]
Evelyne Veuillet
PhD, Ingénieur de Recherche
UMR CNR 5020 Neurosciences sensorielles,
Comportement, Cognition,
Service d'Audiologie et d'Explorations
Orofaciales, Pavillon U, Hôpital Edouard Herriot
69437 Lyon Cedex 03
[email protected]
3
37273_Monographie_N45.Nais_vie_m3 3
18/09/08 14:38:14
37273_Monographie_N45.Nais_vie_m4 4
18/09/08 14:38:17
Monographie
naissance vie et mort de l'oreille
ommaire
S
PRÉFACE
7
INTRODUCTION
9
1 - SA NAISSANCE
11
1.1. “L’oreille avant l’oreille” ou l’audition in utero
11 à 18
1.2. L’oreille née sourde
19 à 32
33
2 - SA VIE
2.1. Ses performances
33 à 42
2.2. Son utilisation
43 à 53
2.3. Ses rapports avec d’autres fonctions
55 à 65
2.4. Son exploration
67 à 82
3 - SON DECLIN : LA PRESBYACOUSIE
3.1. Support physiopathogénique
83
83 à 118
3.2. Diagnostic de la presbyacousie
119 à 122
3.3. Sa prise en charge : l’aide auditive
123 à 140
4 - VERS SA RENAISSANCE ?
Cellules sensorielles auditives et régénération,
vers de nouvelles pistes thérapeutiques ?
CONCLUSIONS
141
141 à 146
147
5
37273_Monographie_N45.Nais_vie_m5 5
18/09/08 14:38:17
37273_Monographie_N45.Nais_vie_m6 6
18/09/08 14:38:19
Monographie
naissance vie et mort de l'oreille
PRÉFACE
I
l était une fois un organe de l’économie, porteur d’une fonction
essentielle pour l’homme vivant en société : l’oreille et l’audition.
À la naissance, l’oreille moyenne avec l’attelage tympano-ossiculaire
est fonctionnelle de même que l’oreille interne avec les cellules ciliées en
état de marche pour transmettre la plupart des sons de l’environnement.
Dès les premières heures de la vie, par l’oreille, le nouveau né est dans un
bain de langage. L'oreille couvre un champ sonore en deçà et en delà de
ce qu’il est convenu d’appeler la zone conversationnelle. On parle de champ
auditif, propos restrictif pour évoquer un phénomène spatial dont les
paramètres se mesurent en hertz, décibel, mètre, minute ; un son évolue
dans un volume qui se déplace dans le temps.
Essentiellement, l’oreille est au service des deux cerveaux ; au cerveau
gauche, elle apporte les éléments qui lui permettent d’appréhender les sons
signifiants au sein d’un univers de bruit ; au cerveau droit, elle véhicule la
prosodie.
Pour le langage, elle est indispensable ; elle fournit les éléments pour le
décryptage des sons signifiants. Au-delà d’entendre (appareil auditif) il
importe de comprendre (langage et cognition).
Elle participe aux mémoires à court et à long terme ; elle est ainsi la
mémoire de la vie d’un individu.
L’oreille et l’audition sont à la naissance « anatomiquement » en place ; elle
devient « fonctionnelle » par le jeu des apprentissages. L’oreille n’est pas
réduite à l’oreille externe, moyenne, interne, lieux où agit souvent avec
bonheur l’otologiste, l’orthophoniste, l’audioprothésiste. Les sons qui
transitent sont conduits aux centres auditifs dont certains ont un droit de
regard sur l’oreille interne par le système efférent. Les centres auditifs sont
connectés avec les centres de la motricité, de la vision, du langage, de la
cognition ; l'oreille est un élément primordial de la communication
humaine.
Alain Morgon
7
37273_Monographie_N45.Nais_vie_m7 7
18/09/08 14:38:19
37273_Monographie_N45.Nais_vie_m8 8
18/09/08 14:38:22
Monographie
naissance vie et mort de l'oreille
INTRODUCTION
Cette préparation anatomique nous apparaît, comme au premier jour, toujours aussi fascinante... Elle
ne se lasse pas de nous poser d'innombrables questions dont trois fondamentales :
- comment ce petit centimètre cube, caché au coeur de son écrin pétreux a t'il pu venir s'y loger et s'y
différencier ?
- comment et pourquoi cette merveilleuse machinerie a t'elle acquis une anatomophysiologie si
complexe que personne, à ce jour, ne l'a complètement comprise ?
- comment un instrument à la résistance mécanique apparemment si fragile peut-il traverser les ans
sans ne subir, le plus souvent, d'autres dommages que l'inéluctable lent vieillissement des cellules
qui le composent ?
Nous avons tenté, au long de cet ouvrage,
de répondre de notre mieux à ces trois
interrogations, ce qui revenait à décrire ce
que nous savons, à l'heure actuelle, de la
naissance, de la vie et du déclin de
l'oreille.
Au cours de chacune de nos réflexions,
nous avons constaté qu'étudier le seul
petit centimètre cube périphérique n'a
qu'un intérêt relatif en tant que tel. La
démarche ne prend de réelle valeur que si,
très vite, l'esprit intègre ce capteur
périphérique au coeur du plus vaste
système de l'audition, encore peu palpable
à notre échelle, tant il paraît infini dans sa complexité tout aussi anatomique que physiologique. Tenter
de mieux comprendre la naissance, la vie et la mort de l'oreille ne peut donc se faire qu'en analysant
ses interactions avec l'ensemble des autres fonctions humaines...
Il ne servait donc à rien, pour répondre aux trois questions fondamentales, de rédiger un manuel
"technique" qui aurait aidé le praticien à y trouver dans telle ou telle page la désignation de la pièce à
changer et sa mise en oeuvre pour résoudre l'incident technique. Il nous est apparu plus efficace de
présenter ce travail comme une analyse et une étude de l'oreille périphérique au coeur de l'être humain.
Le praticien y trouvera, nous l'espérons, l'intérêt de partir du général pour appréhender au mieux, le détail,
ce qui devrait lui permettre de ne plus traiter l'organe mais le patient dans sa globalité.
Voici donc rapportées la naissance, la vie et la mort de l'oreille, autrement dit, son histoire
naturelle...
9
37273_Monographie_N45.Nais_vie_m9 9
18/09/08 14:38:22
37273_Monographie_N45.Nais_vie_m10 10
18/09/08 14:38:28
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
1 - SA NAISSANCE
1.1. “L’oreille avant l’oreille” ou l’audition in utero
L
e développement de l’audition humaine se distingue, par rapport à celui de beaucoup de
petits animaux de laboratoire, par le fait que l’organe récepteur qu’est la cochlée est
mature bien avant terme, de même que les connexions entre la cochlée et les voies
nerveuses dont le développement est coordonné. Le bébé, même s’il naît très prématuré, entend donc
et a entendu depuis un certain nombre de semaines, même s’il ne comprend certes pas immédiatement
comme un adulte ! Ceci soulève encore de nombreuses questions scientifiques, pratiques, jusqu’à des
considérations d’ordre plus « philosophique ». Tout d’abord, pour trouver un modèle animal valide de
développement de l’audition humaine à base de jeunes rats ou souris, il faut faire appel à des stades
transposés, postnatals. Ensuite, l’évaluation des aptitudes auditives des fœtus se heurte à deux
difficultés : celle de faire parvenir les sons tests à l’oreille des sujets testés, à travers la paroi abdominale
maternelle et le liquide amniotique, et celle de détecter les réponses fœtales. Un autre ordre de
questions est plus « central » : comme il est désormais bien établi que c’est le fait d’entendre qui va
conditionner le développement des centres nerveux, jusqu’au point critique où l’aptitude au langage
va émerger, la question se pose de ce que si les fœtus entendent in utero, des traces importantes
peuvent en subsister dans les circuits neuronaux. Et si le bébé naît sourd, on ne sait depuis combien
de temps, mais l’absence de stimulus sonore in utero a-t-il pu déjà lui nuire ? Et si un bébé entendant
a été exposé in utero à des sons agressifs, parce que par exemple trop intenses, cela peut-il lui avoir
laissé des séquelles ? Ce chapitre a pour but de passer brièvement en revue quelques-unes de ces
questions.
Chez l’homme, les différents sens commencent tous à se développer bien avant la naissance, d’une
part parce que les organes sensoriels périphériques se structurent, se différencient et mettent en place
une activité métabolique rendant possible la fonction de transduction des messages, d’autre part parce
qu’en parallèle et de manière coordonnée, les
voies nerveuses se développent de manière
Développement des capacités
centrifuge et viennent établir des connexions
sensorielles en bref
avec les récepteurs périphériques. Les
• voies nerveuses
chronologies de développement des sens sont
simplement décalées en trois grands groupes,
• organes périphériques
dans l’ordre toucher et vestibule, puis olfaction
Développement concerté
et gustation, et enfin audition et vision (fig. 1). Il
dans l'ordre chronologique :
ne faut cependant pas oublier qu’après la
naissance, tout n’est pas achevé : Dans le système
• toucher & vestibule
nerveux central, les centres et leur connectique
• olfaction & gustation
doit encore effectuer une très lente maturation
• audition & vision
alors même que la périphérie a commencé à
11
37273_Monographie_N45.Nais_vie_m11 11
D fig. 1
18/09/08 14:38:28
Monographie
naissance vie et mort de l'oreille
chapitre
01
sa naissance
fonctionner. Ainsi, la myélinisation des neurones, qui leur permet d’augmenter le synchronisme et la
vitesse de leur conduction des potentiels d’action, se prolonge pendant des années après la naissance,
pour se terminer seulement autour de la puberté pour les centres associatifs corticaux les plus
complexes. D’autres modifications plus subtiles mais très importantes doivent également se produire
au niveau de la circuiterie, sous forme de la sélection et de la stabilisation (ou de l’élimination) des
synapses lors de périodes critiques précoces.
1.1.1. Développement des structures périphériques auditives humaines
Le premier rudiment d’oreille interne apparaît lorsqu’une zone de l’ectoderme embryonnaire s’invagine,
autour d’une douzaine de jours, pour former la vésicule otique, d’où s’individualisent plusieurs
diverticules qui vont former le labyrinthe membraneux. Vers la fin de la 3ème semaine, un groupe de
cellules nerveuses se rassemble à proximité de la vésicule otique, et une partie va former le ganglion
spiral dont les fibres proximales constitueront le nerf cochléaire.
À 9 semaines de gestation, la spirale cochléaire est formée, mais l’épithélium sensoriel n’est pas encore
différencié.
À 10 semaines, on assiste au début de la différentiation des cellules ciliées externes et internes de
l’organe de Corti, à partir du précédent épithélium indifférencié. Des microvillosités couvrent d’abord
la surface supérieure des cellules de soutien, puis des touffes stéréociliaires apparaissent et adoptent
petit à petit une forme très organisée, qu’elles atteignent vers 12 semaines. Entre-temps, vers 11-12
semaines (3 mois in utero), le contact est effectué avec les neurones auditifs.
À 14 semaines, les cellules ciliées internes et externes sont bien visibles de part et d’autre des cellules
piliers. L’organe de Kölliker, précurseur de l’organe de Corti, a encore la tâche de sécréter la membrane
tectoriale, et une fois ceci effectué, les espaces de Nuel entourant les CCE formées, le tunnel de Corti
ouvert, on se retrouve à un stade, autour de 18 à 20 semaines post gestationnelles, où le début de la
fonction auditive est possible, et pourtant la naissance est encore bien loin, le fœtus n’en est qu’à
mi-parcours in utero ! La période qui vient de s’écouler est propice à des difficultés, notablement si
l’hormone thyroïdienne n’effectue pas son travail (fig. 2).
Développement de la cochlée, quelques repères
• Selon un gradient de base > apex
• CCI avant CCE
• puis tunnel de Corti
• puis espace de Nuel
• puis sillon spiral interne
• puis membrane tectoriale
8
spirale
D fig. 2
37273_Monographie_N45.Nais_vie_m12 12
12
CC
16
Contact neurones
20
pot
24
Comport.
28
(semaines)
32
36
40
Maturation achevée
12
18/09/08 14:38:32
Il a été bien décrit qu’au début de la rencontre entre neurones et cellules sensorielles auditives, le
schéma d’innervation n’est pas celui rencontré à l’âge adulte, avec notamment des contacts entre CCE
et fibres afférentes. Mais très vite le schéma évolue, et on se retrouve à 18-20 semaines avec des
neurones fonctionnels, des CCI et CCE fonctionnelles et des différences de potentiel, grâce à l’action
de la strie vasculaire en particulier, qui permettent au système auditif de donner lieu à ses premiers
potentiels d’action sous l’effet de stimulations externes. En fait, il faut attendre 24-26 semaines pour
détecter les premières réponses comportementales nettes du fœtus.
Vers 28 à 30 semaines, les réponses de base sont devenues pleinement adultes, les rares études
morphologiques montrent un organe de Corti structurellement mature avec une régularité quasi
parfaite de ses alignements cellulaires, ce qui pouvait ne pas être le cas antérieurement notamment à
cause de la présence de cellules surnuméraires.
À 30 semaines, un prématuré est viable et il entend en principe normalement – sauf si sa prématurité,
facteur de risque auditif, a entraîné une surdité neurosensorielle. Il est donc dépistable, soit par les
otoémissions, qui sont normalement de caractéristiques quasi-adultes si ce n’est plus amples, de
spectre plus large, et plus riches en otoémissions spontanées, soit par les potentiels évoqués auditifs
précoces du tronc cérébral, même si ces derniers ont une morphologie non adulte et des latences
allongées principalement en raison de l’immaturité des cellules gliales environnant les neurones
auditifs. La normalité de la cochlée à 30 semaines ne veut pas dire que la périphérie ne va plus évoluer
du tout (fig. 3). Si certaines choses sont figées comme la taille et la disposition des cellules sensorielles
le long de la membrane basilaire cochléaire, dans une cochlée
osseuse dont la taille est également figée pour le plus grand
Audition, points de repère
bénéfice de ceux qui posent des implants cochléaires, d’autres
effectuent un complément de maturation. Par exemple, les
• In utero, stimuli filtrés mais
otoémissions acoustiques reflètent d’un progressif changement
contact mère/enfant
de la fonction de transfert de l’oreille dont la résonance se
• Périphérie totalement mature
décale vers les basses fréquences, pendant environ 2 ans (elles
même en cas de prématurité
reflètent aussi, de manière discrète, la maturation retardée du
• Maturation des centres plus
système efférent médian olivocochléaire).
tardive (adolescence), sous la
1.1.2. Les performances in utero
dépendance des afférences
In utero, la réalisation d’une audiométrie est évidemment
• Périodes critiques
difficile mais a quand même pu être réalisée à différents âges
conceptionnels.
1.1.2.1. Moyens de mesure
D fig. 3
On peut envisager, comme à des stades plus tardifs, des mesures objectives ou subjectives. Les premières
incluent l’électrophysiologie auditive et en pratique, ne sont guère applicables qu’à des modèles
animaux. Même l’imagerie fonctionnelle a des limites chez l’humain, notamment le TEP scan à cause
des injections d’isotopes radioactifs, mais récemment quelques études d’IRM fonctionnelle chez la
femme enceinte ont été rapportées. Parmi les modèles animaux, pour des raisons de taille adéquate,
la brebis a fait l’objet de (relativement) nombreuses études. Les méthodes comportementales consistent
13
37273_Monographie_N45.Nais_vie_m13 13
18/09/08 14:38:35
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
à détecter, pas forcément de manière subjective du reste, une réactivité du fœtus corrélée à la
présentation d’un stimulus. On peut par exemple enregistrer le rythme cardiaque (objectivement) et
rechercher une modification. On peut aussi rechercher la présence de mouvements réflexes (par
exemple, le blink startle reflex, clignement d’yeux détectable de l’extérieur par imagerie ultrasonore).
La recherche d’une habituation à un stimulus présenté répétitivement, suivie d’une réaction à une
nouveauté qui prouve que le fœtus a détecté le stimulus habituel et le nouveau puisqu’il réagit au
changement, par modification de son rythme cardiaque par exemple, permet des mesures précises. On
ne rappelle jamais trop souvent les pièges inhérents à ce type de test : en cas de pratique d’un test
objectif chez l’animal, l’absence d’onde de PEA ne veut pas dire non détection, mais absence de
synchronisme suffisant. En comportemental, l’absence de réponse peut signaler un problème d’attention
ou de pertinence, et la présence d’une réponse peut être due à un parasite, soit lié à une réaction d’un
opérateur, soit à une autre modalité sensorielle (tactile ?).
1.1.2.2. Réactions auditives prénatales simples
Les audiogrammes en sons purs sont bien sûr difficiles à pratiquer et peu d’études systématiques des
performances en sensibilité en fonction de la fréquence ont été publiées. Elles sont toujours à utiliser
en gardant en tête le problème de transmission auquel les sons présentés de l’extérieur sont confrontés.
Ce qui est observé est que les fœtus commencent en général à répondre à des sons de 500 Hz environ,
autour de 19 semaines d’âge gestationnel. Puis les fréquences donnant lieu à une réponse s’étendent
d’abord vers les plus basses fréquences, 100 et 250 Hz (autour de 27 semaines), puis plus tard (33 à
35 semaines), plus haut vers 1000 et 3000 Hz (où l’atténuation de la paroi abdominale maternelle est
plus grande qu’à basses fréquences et apporte ainsi un facteur confondant).
Au fur et à mesure que le fœtus grandit, les seuils s’abaissent de 20 à 30 dB mais bien sûr la dynamique
expérimentalement testable est étroite et pour être visibles, les réponses du fœtus doivent être
nettement supraliminaires. Il est clair d’après ces données que le fœtus est vite en situation de percevoir
des sons de parole, notamment s’ils sont d’origine maternelle et non extérieure.
1.1.2.3. Fœtus et messages auditifs complexes
Les stimuli acoustiques naturels auxquels le fœtus est exposé sont a priori principalement endogènes,
de niveau de l’ordre de 60-70 dB en pondération A, avec des basses fréquences dominantes, inférieures
à 700 Hz (bruits vasculaires ou digestifs, plus la voix maternelle transmise directement par les tissus).
Les bruits extérieurs qui émergent ont eu à franchir la paroi utérine, dont l’atténuation est estimée à
19 dB environ autour de 200 Hz, pour augmenter à 38 dB à 1 kHz et même 48 dB au-delà, ce qui la
rend rédhibitoire (Lecanuet et coll.). Cependant, l’équipe de Sohmer (par exemple, Sohmer et Freeman
2 001) donne des chiffres moins pessimistes. D’après des enregistrements intravaginaux réalisés chez
des mères (Busnel), la voix maternelle émerge du bruit de fond de 24 dB. Les autres voix (transmises,
elles, par voie purement aérienne jusqu’à la paroi utérine maternelle) émergent de 8 à 12 dB seulement
et sont donc nettement moins pertinentes pour le fœtus.
Une fois les sons transmis dans le liquide amniotique, la question se pose de déterminer par quel(s)
14
37273_Monographie_N45.Nais_vie_m14 14
18/09/08 14:38:35
mécanisme(s) l’audition a lieu. On peut envisager plusieurs voies possibles par lesquelles la stimulation
de la cochlée peut survenir. L’ensemble conduit auditif externe, membrane tympanique et oreille
moyenne est rempli de liquide amniotique et à ce titre, peut se montrer transparent, laissant les ondes
acoustiques atteindre directement (c’est-à-dire sans discontinuité d’impédance acoustique et donc
sans réflexion dommageable à l’énergie transmise) la fenêtre ovale, mais aussi et en phase, la fenêtre
ronde : ceci risque d’enlever toute efficacité à la stimulation endocochléaire résultante. Le jeu de la
chaîne ossiculaire peut aussi se produire comme après la naissance, mais la présence de liquide crée
de toute manière une surdité de transmission, tandis que la notion d’adaptation d’impédance (c’està-dire d’effet transformateur) n’a pas encore acquis la moindre pertinence. Enfin, l’hypothèse la plus
probable (Sohmer, Gerhardt) est que les vibrations acoustiques dans le liquide amniotique stimulent
directement l’intérieur de la boîte crânienne (par une sorte de conduction osseuse même si la boîte
crânienne est loin d’être ossifiée partout). Les vibrations acoustiques dans la cavité crânienne fœtale
concernent alors les tissus cérébraux et le liquide cérébrospinal et pourraient gagner la cochlée via les
canaux et aqueducs connectant le labyrinthe au compartiment du liquide cérébrospinal.
D’une manière intéressante, pour apporter un élément de réponse à la question de ce qu’entend un
fœtus, l’équipe de Gerhardt a placé des capteurs miniatures dans l’oreille interne d’un fœtus de brebis
ce qui permet de connaître exactement le spectre fréquentiel et les caractéristiques acoustiques du
son transmis lorsque des locuteurs parlent à côté de la brebis dont un fœtus est enregistré. Cette étude
est transposable en raison de la similitude des propriétés acoustiques des utérus chez la brebis et
l’humain. Elle confirme que les hautes fréquences sont très défavorisées. Ainsi, lorsqu’on fait entendre
les enregistrements effectués à des personnes adultes, on constate que l’intelligibilité de certains
phonèmes est dégradée (mais le fœtus, lui, n’en est pas encore à essayer de comprendre ce qu’il
entend !). On en déduit aussi que la détection des mélodies, in utero, est possible mais un peu
limitée.
1.1.3. Conséquences de ces données acoustiques et physiologiques
1.1.3.1. Fœtus et bruit
Les travaux précédents ont de multiples implications significatives. Tout d’abord, on sait que le fœtus
et le bébé sont plus sensibles aux nuisances auditives qu’à d’autres stades, en raison de la notion de
période critique. Une première application concrète issue des données récentes sur l’audition fœtale
est de mieux connaître le risque encouru par les fœtus dont la mère est exposée à des sons
environnementaux pas forcément modérés. La deuxième question est de comprendre ce qui est
différent pour un bébé né prématuré lorsqu’il se retrouve placé dans un environnement acoustique de
salle de soins intensifs et de couveuse, très différent de celui dont il aurait dû bénéficier in utero un
peu plus longtemps. Ce deuxième problème nous fait glisser progressivement dans le monde de
l’audition comme moyen de communication et comme rouage et outil du développement cognitif.
Du point de vue sécurité, des travaux déjà relativement anciens se sont penchés sur l’audition postnatale
d’enfants exposés in utero à des bruits de transport ou industriels (Ando). Il est souvent difficile de
distinguer chez ces enfants la part des anomalies liées au bruit prénatal et celle des conditions de vie
15
37273_Monographie_N45.Nais_vie_m15 15
18/09/08 14:38:38
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
de la mère : une mère qui travaille, habite ou circule dans des endroits bruyants pendant sa grossesse
est probablement exposée à des nuisances combinées dont il est difficile de faire la part. Ces études
avaient conclu à un risque augmenté. Toutefois, des travaux plus récents estiment que le bruit seul est
trop atténué par la paroi abdominale pour constituer une menace.
Une autre problématique est celle de l’environnement sonore agressif et déshumanisé auquel les bébés
prématurés en soins intensifs sont exposés. Non seulement leur exposition sonore est importante, avec
la présence dans le bruit perçu de fréquences normalement filtrées par la paroi utérine, mais le contact
avec la voix et les sons endogènes maternels est perdu prématurément une bonne partie du temps.
1.1.3.2. Fœtus et développement (« cognitif » ?)
Les psycholinguistes se sont intéressés depuis longtemps à mettre en évidence de possibles traces pré
et postnatales de l’exposition in utero. Les sons dont l’impact sur le fœtus a été étudié sont des sons
de parole et de musique. Une comptine lue à haute voix est reconnue par les fœtus proches du terme
lorsqu’elle est familière, par rapport à un texte non familier (DeCasper, Lecanuet, Busnel, GranierDeferre et Maugeais, 1 994). La comptine reconnue avait été quotidiennement lue par la maman de la
33ème à la 37ème semaine de gestation, et ensuite lue par une voix non familière, elle est différenciée
d’un texte jamais entendu. Comme pour les études d’audiométrie, les réactions du fœtus sont de type
modification du rythme cardiaque, mouvements corporels. Les fœtus reconnaissent la voix de leur
propre mère par comparaison avec une voix étrangère (Kisilevsky et al, 2003), puisque leur rythme
cardiaque accélère dans le 1er cas, ralentit dans le 2ème. Les capacités requises pour effectuer de telles
performances sont la mémoire et la capacité à reconnaître, qui constituent un prérequis important à
toute aptitude à apprendre. Les fœtus sont donc capables de se remémorer et de reconnaître des voix
humaines qui leur ont été présentées in utero. On peut donc se poser la question de savoir si ces
expériences in utero ont eu un impact sur la constitution de connexions neuronales spécifiques du
traitement de la parole, et si cet impact est important, et durable.
Pour la musique, lorsqu’un fœtus de 36-37 semaines conceptionnelles est exposé à de la musique, plus
précisément une chanson d’un feuilleton télévisé populaire regardé par la maman, (Hepper, 1991), il
la reconnaît, et ce seulement si la maman a regardé le feuilleton. Des fœtus nettement plus jeunes ne
réagissent pas. Les fœtus sont également capables de discriminer certains patrons fréquentiels
spécifiques (Lecanuet, Granier-Deferre, Jacquet, et DeCasper, 2000).
Les études destinées à aller plus loin et à examiner véritablement les capacités d’apprentissage sont
plus aisément réalisables chez le nouveau-né, et il est connu depuis longtemps (Mehler et coll., 1978)
que les nouveau-nés reconnaissent la voix de leur mère. À moins de 3 jours, ils préfèrent la voix de
leur mère à celle d’une étrangère, car lorsqu’on leur donne une tétine artificielle capable d’actionner
une voix ou une autre selon la manière de sucer (DeCasper et Fifer, 1980), le bébé produit la voix
maternelle plus souvent. Pourtant dans cette dernière expérience, le contact postnatal avec la voix de
leur mère ne dépassait pas 12 heures ! Peut-être l’expérience prénatale de cette voix jouait-elle un
rôle ? On peut aussi citer les études montrant que le nouveau-né préfère les histoires qui ont été lues
par la mère pendant les dernières semaines de grossesse, à des histoires nouvelles (DeCasper et Spence,
16
37273_Monographie_N45.Nais_vie_m16 16
18/09/08 14:38:38
1986), et sa langue maternelle à une langue étrangère. Plus précisément en ce qui concerne les langues
étrangères discriminables, les nouveau-nés sont très dépendants d’indices rythmiques, d’unités
prosodiques de base : ils distinguent le russe du français, l’anglais du japonais mais pas du
néerlandais.
Et pour toutes ces performances, il est tentant de s’interroger sur le rôle de l’audition et de l’exposition
prénatales. La voix de la maman joue de toute évidence un rôle très privilégié, par le fait qu’elle est
transmise dans des conditions bien meilleures que les voix des autres individus de l’environnement et
émerge donc beaucoup plus nettement du bruit de fond. Cette transmission spécifique peut en effet
se faire par voie tissulaire et osseuse, le pelvis et le rachis maternels étant particulièrement bons
conducteurs de la fréquence fondamentale et des harmoniques de la voix maternelle (d’après Lecanuet,
1996). Néanmoins l’énorme ampleur des modifications du système nerveux central, à partir de la
naissance et dans les premières années de vie, montre bien que beaucoup de mécanismes essentiels
sont encore en devenir à la naissance. L’exposition aux sons pendant la vie fœtale n’a donc servi « que »
d’amorce à un certain nombre de processus de base. L’existence de très bons résultats d’appareillage
chez des enfants nés sourds profonds et appareillés rapidement grâce au dépistage néonatal
(Yoshinaga-Itano) démontre cependant que l’absence de cette amorce ne semble pas avoir de
conséquences sur le développement auditif ultérieur. Ceci n’enlève rien à l’intérêt de son étude ni aux
côtés fascinants des premiers mois de fonctionnement neurosensoriel et cérébral.
17
37273_Monographie_N45.Nais_vie_m17 17
18/09/08 14:38:41
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
Quelques références synthétiques :
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
Site Internet Promenade autour de la cochlée, R. Pujol et coll.
Ando Y, Hattori H (1 970). Effects of intense noise during fetal life upon postnatal adaptability (statistical study of the reactions
of babies to aircraft noise). J Acoust Soc Am. 47, 1128-1130.
DeCasper AJ & Fifer WP (1 980). Of human bonding : newborns prefer their mothers’voices. Science, 208, 1174-1176.
DeCasper AJ, Lecanuet JP, Busnel MC, Granier-Deferre C & Maugeais R (1 994). Fetal reactions to recurrent maternal speech. Infant
Behavior and Development, 17, 159-164.
Gerhardt KJ & Abrams RM (2 000). Fetal exposures to sound and vibroacoustic stimulation. Journal of Perinatology, 20, 20-29.
Hepper P (1 991). An examination of fetal learning before and after birth. The Irish Journal of Psychology, 12, 95-107.
Jardri R, Pins D, Houfflin-Debarge V, Chaffiotte C, Rocourt N, Pruvo JP, Steinling M, Delion P, Thomas P. (2 008). Fetal cortical activation to
sound at 33 weeks of gestation : A functional MRI study. Neuroimage, epub.
Kisilevsky BS, Hains SMJ, Jacquet A., Granier-Deferre C & Lecanuet JP (2 004). Maturation of fetal responses to music.
Developmental Science, 7, 5, 550- 559.
Lecanuet J-P, Granier-Deferre C & Busnel M-C (1 995). Human fetal auditory perception, In : J.-P. Lecanuet, W.P. Fifer,
N.A. Krasnegor et W.P. Smotherman (Eds). Fetal Development : A psychobiological perspective, Hillsdale, N.J. : Lawrence
Erlbaum Ass., pp.239-262.
Mehler J, Bertoncini J, Barriere M. & Jassik-Gerschenfeld D (1 978). Infant Recognition of Mother’s Voice. Perception, 7, 491-497.
Pujol R & Lavigne-Rebillard M. (1 985). Early stages of innervation and sensory cell differentiation in the human fetal organ of
Corti. Acta Oto-Laryngologica Supplement. 423, 43-50.
Sohmer H, Perez R, Sichel JY, Priner R, Freeman S, (2 001). The pathway enabling external sounds to reach and excite the fetal inner
ear. Audiol Neurootol. 6, 109-116.
18
37273_Monographie_N45.Nais_vie_m18 18
18/09/08 14:38:42
1.2. L’oreille née sourde
La cause d’une surdité (hors pathologie infectieuse de l’oreille moyenne) peut être extrinsèque
(embryofoetopathie, méningite, traumatisme, ototoxicité médicamenteuse, traumatisme sonore…),
génétique ou les deux. Les surdités d’origine génétique sont classées selon deux grandes catégories :
les surdités isolées estimées à près de 90 % et les surdités syndromiques à 10 % des cas. Dans les pays
industrialisés, on estime actuellement la part des surdités neurosensorielles génétiques à 2/3 des
surdités de perception. La plupart des surdités héréditaires sont des maladies monogéniques mais il
existe une grande hétérogénéité génétique. Les avancées médicales et scientifiques permettent dès
aujourd’hui d’identifier la cause d’une surdité de l’enfant dans plus de la moitié des cas. Cette recherche
étiologique nécessite un phénotypage précis de la surdité et la recherche de signes associés chez
l’enfant sourd et dans sa famille.
1.2.1. Les surdités syndromiques
Hormis les embryo-foetopathies, les surdités syndromiques ont le plus souvent une origine génétique.
Plusieurs centaines d’associations syndromiques ont été décrites pour lesquelles la surdité peut être
associée à des anomalies de tous les organes (Gorlin, 2 004). La fréquence des surdités syndromiques
parmi l’ensemble des déficiences auditives d’origine génétique est estimée à 10 %. La surdité peut être
due à un défaut de transmission et/ou de perception du son. Le développement et le fonctionnement
de l’oreille dépendent de centaines de gènes, mais l’altération d’un seul peut être responsable de
l’atteinte de toutes les structures auditives.
Durant les vingt dernières années, les gènes responsables de plusieurs centaines de surdités
syndromiques ont été localisés sur les chromosomes humains et plus de cent ont été identifiés. Dans
le chapitre suivant, nous évoquerons quelques syndromes, pour lesquels le gène responsable est connu.
Certains de ces syndromes sont génétiquement hétérogènes (syndrome de Usher, syndrome d’Alport…).
À l’inverse, des formes cliniquement distinctes peuvent être l’expression de mutations du même gène.
À l’extrême, un gène peut être responsable à la fois d’une forme isolée et d’une forme syndromique
de surdité (GJB2, SLC26A4, WFS1, etc.…).
Le syndrome Branchio-Oto-Rénal (BOR) est responsable de malformations des deux premiers arcs et
fentes branchiaux (malformations du pavillon, enchondromes, fistules pré-auriculaires, kystes
branchiaux, malformations des osselets) (fig. 1, voir page suivante) associées à d’éventuelles anomalies
de l’oreille interne : surdité neuro-sensorielle, malformations de l’oreille interne, troubles vestibulaires.
Des anomalies rénales accompagnent les malformations de l’oreille allant de l’agénésie rénale bilatérale
à un simple reflux vésico-urétéral. Cette pathologie se transmet selon un mode autosomique dominant
avec une variabilité de l’expressivité intra et interfamiliale. Les anomalies des gènes responsables EYA1,
SIX1 et SIX5 sont impliquées dans l’embryogénèse précoce, ces gènes sont les homologues de gènes
conservés dans différentes espèces codent et jouent un rôle dans la régulation de la transcription
(Abdelhak 97, Hoskins 07, Kochhar 08).
Des anomalies des arcs branchiaux (malformations du pavillon, des osselets et de la mandibule,
enchondrome, fistule préauriculaire) sont retrouvées associées à des malformations de l’étage moyen
19
37273_Monographie_N45.Nais_vie_m19 19
18/09/08 14:38:44
Monographie
naissance vie et mort de l'oreille
chapitre
01
sa naissance
A
B
fig. 1
A microtie avec fistule
préhélicéenne ;
B fistule
préhélicéenne isolée ;
C kyste latérocervical ;
D fistule latérocervicale
d
C
D
de la face (hypoplasie malaire, fente palatine) et de l’œil (colobome irien) dans le syndrome
de Treacher-Colins (MIM 154500). La surdité est quasi constante et fait suite à une atrésie
du CAE et à l’absence ou à la malformation de la chaîne ossiculaire. L’oreille interne est
morphologiquement normale et très peu de cas de surdités mixtes, pour lesquels la part
neurosensorielle du déficit auditif était légère, ont été rapportés. Le gène impliqué TCOF1
code pour une protéine ayant un rôle dans le transport nucléocytoplasmique (Marsh, 98). Les
anomalies se transmettent sur un mode autosomique dominant avec une expressivité variable
rendant le conseil génétique difficile.
Les collagènes de types II, IX et XI, composants de la matrice extracellulaire, sont impliqués
dans plusieurs surdités syndromiques ayant comme signes communs l’existence d’une
chondrodysplasie pouvant toucher les épiphyses, les métaphyses ou les vertèbres (responsable
de douleurs articulaires), d’une hyperlaxité ligamentaire, des anomalies palatines (de la
présence d’un palais ogival jusqu’à la séquence Pierre Robin), d’une dysmorphie faciale et
d’une pathologie vitro-rétinienne (myopie précoce et sévère) (Vikkula, 95). La surdité est
fréquente, 80 % dans le cas du syndrome de Stickler (MIM 108300), congénitale ou plus
tardive et progressive. Elle peut être de nature neurosensorielle ou mixte. En raison des
malformations vélo-palatines, les otites récurrentes ou chroniques sont fréquemment
décrites. Il n’a pas été noté de malformations de l’oreille moyenne. Un dysfonctionnement
vestibulaire associé a été identifié chez plusieurs patients. Contrairement aux mutations
collagènes de types II et XI, qui se transmettent sur un mode autosomique dominant, les
mutations du Collagène IX A1 sont responsables d’un syndrome de Stickler de transmission
récessive. Des mutations du collagène XI A2 ont été identifiées dans une forme isolée de
20
37273_Monographie_N45.Nais_vie_m20 20
18/09/08 14:38:45
fig. 2
A pigmentation
cutanée ;
B-C-D : hétérochromie
irienne et iris bleu
porcelaine » ;
D : dystopie canthique
d
A
surdité de transmission autosomique
dominante (DFNA13).
Le syndrome de Waardenburg (SW)
associe également des signes cutanés et
une surdité neurosensorielle dus à une
absence de mélanocytes au niveau de
plusieurs organes. Les troubles de la
pigmentation touchent la peau
(dépigmentation cutanée) (fig. 2), les
phanères (mèche de cheveux blancs
congénitale, sourcils), l’iris (hétérochromie
irienne ou iris bleus « porcelaine ») (fig. 2)
et la rétine. Ce syndrome est hétérogène
sur le plan clinique, puisqu’on distingue
quatre formes différentes et sur le plan
génétique, car cinq gènes au moins sont
impliqués. Le SW de type 2 (surdité et
troubles pigmentaires sans autres signes
cliniques) est une des surdités syndromiques les plus fréquentes. Sa transmission est majoritairement
autosomique dominante mais son expressivité est extrêmement variable au sein de la même famille.
Une dystopie canthique (fig. 2) est associée aux signes de dépigmentation dans le SW de type 1. Les
patients atteints d’un SW type 4 peuvent présenter des signes digestifs (maladie de Hirshprung,
constipation opiniâtre) ou des signes neurologiques (retard mental, moteur, ataxie…). Contrairement
au SW type 1, pour lequel on retrouve des anomalies de PAX3 dans 3/4 des cas, une mutation est
identifiée uniquement dans 1/3 des cas de type 2 (Hot, 93 ; Bondurand, 07). Les signes cliniques du SW
type 2 passant souvent inaperçus et le diagnostic moléculaire ayant un faible rendement, la fréquence
de ce syndrome est probablement sous-estimée. Le type 3 du SW, exceptionnel, est une forme
particulière du type 1 avec une hypoplasie ou des contractures des membres supérieurs. Quelle que
soit la forme clinique, la surdité est congénitale, d’origine cochléaire, unie (cophose unilatérale
fréquente) ou bilatérale, symétrique ou asymétrique. La pénétrance (70-80 %) de la surdité ne semble
pas être différente dans les types 1 et 2 (Newton, 90). Toutes les formes de courbes audiométriques
ont été retrouvées. La surdité est profonde dans 35 % des cas, mais il existe une variabilité intrafamiliale
de la sévérité. Le déficit auditif peut être progressif (Hildesheimer, 89). Les tests vestibulaires caloriques
peuvent être perturbés d’une façon uni ou bilatérale. Des malformations cochléovestibulaires visualisées
par un scanner du rocher ont été rapportées en association au SW : il s’agissait principalement de
dysplasie des canaux semi-circulaires, le plus souvent chez des patients porteurs d’un type 2 de SW.
Le rôle exact des mélanocytes au niveau de la strie vasculaire cochléaire n’a pas été élucidé à ce jour.
Comme pour les anomalies touchant l’oreille externe et/ou moyenne, une surdité neurosensorielle
syndromique peut être due à des anomalies d’un collagène : le syndrome d’Alport. Le collagène de type
B
C
D
21
37273_Monographie_N45.Nais_vie_m21 21
18/09/08 14:38:48
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
IV est localisé au niveau des membranes basales des glomérules rénaux, de l’œil et de l’oreille interne.
La forme dominante liée au chromosome X (MIM 301050) représente 85 % des syndromes d’Alport.
La surdité d’origine cochléaire évolutive, le plus souvent d’apparition postlinguale, touche en premier
lieu les fréquences aiguës (90 % des hommes et 10 % des femmes à 40 ans) (Jai, 2 003). Des anomalies
glomérulaires, également évolutives, conduisent parfois à une insuffisance rénale (90 % des hommes
et 10 % des femmes à 40 ans). Certains garçons atteints présentent également une anomalie de la
chambre antérieure de l’œil : kératocône. Les mutations du gène COL4A5 étant difficiles à mettre en
évidence, le diagnostic de syndrôme d’Alport lié au chromosome X peut être fait grâce à la recherche
de ce collagène sur une biopsie de peau chez les garçons touchés.
L’existence d’une surdité profonde associée au goitre fait évoquer un syndrome de Pendred (MIM
274600). La surdité est cochléaire, congénitale ou postlinguale précoce, modérée à profonde, parfois
asymétrique, fluctuante et parfois évolutive. Les tests vestibulaires sont anormaux, hypo ou aréflexie,
dans la moitié des cas. Les anomalies morphologiques bilatérales de l’oreille interne, dilatation de
l’aqueduc du vestibule (DVA) ou cochlée incomplète de type « Mondini » sont constantes (Phelps, 98)
(fig. 3). Les anomalies d’organification de l’iode sont mises en évidence par le test au perchlorate qui
montre un relargage excessif de l’iode non incorporé dans la thyroïde lors d’une scintigraphie. La date
A
B
C
D fig. 3 A cochlée et aqueduc du vestibule normaux ; B hypoplasie cochléaire, disparition du modiolus ; C Dilatation aqueduc du vestibule
d’apparition du goitre est variable et les hormones thyroïdiennes périphériques peuvent rester normales.
La variabilité phénotypique concerne tous les signes cliniques même à l’intérieur d’une même famille.
Des dizaines de différentes mutations du gène PDS, SLC26, ont été identifiées à ce jour, certaines
d’entre elles sont retrouvées de manières récurrentes en fonction de l’origine ethnique (Blons, 2 004).
Leur transmission est autosomique récessive. La pendrine est impliquée dans le transport d’une forme
d’iode et de chlore (Scott, 99 ; Everett, 97) et jouerait un rôle dans l’homéostasie ionique des fluides
de l’oreille interne. Le gène PDS est également responsable d’une forme isolée de surdité, DFNB4 (Li,
98) (qs chapitre surdités isolées).
Une myosine non conventionnelle, la myosine 7A, est impliquée dans une surdité isolée de transmission
autosomique récessive : DFNB2 et dominante : DFNA11 et une surdité syndromique : le syndrome de
22
37273_Monographie_N45.Nais_vie_m22 22
18/09/08 14:38:48
Usher (SU) de type 1B (Weil, 95). Le syndrome de Usher est une pathologie hétérogène sur le plan
clinique puisque trois formes sont distinguées, et sur le plan génétique, puisque neuf gènes ont été
clonés et onze localisés sur les chromosomes humains (toutes formes cliniques confondues) (Roux,
2 006). On retrouve l’association d’une surdité neurosensorielle d’origine cochléaire et d’une rétinite
pigmentaire évolutive dans toutes les formes de ce syndrome. La précocité et la sévérité des atteintes
auditives et rétiniennes ainsi que l’existence d’une anomalie vestibulaire associée permettent de les
différencier. Le type 1 de SU (MIM 276900) est le plus fréquent et le plus sévère puisqu’il se traduit
par une surdité profonde bilatérale congénitale, une aréflexie vestibulaire congénitale bilatérale se
manifestant par un retard des acquisitions motrices pendant les premières années de vie et une rétinite
pigmentaire apparaissant cliniquement vers l’âge de l’adolescence et évoluant vers un rétrécissement
du champ visuel pendant l’âge adulte. Il n’existe pas de malformation de l’oreille interne. Le diagnostic
doit être suspecté devant tout enfant présentant une surdité profonde congénitale bilatérale, sans
malformation de l’oreille interne, avec retard moteur sans autres signes neurologiques. Le diagnostic
est clinique et repose sur un (Erg) perturbé dès les premières années de vie, bien avant l’apparition de
signes ophtalmologiques ou de pigmentation sur la rétine. La surdité retrouvée dans le syndrome de
Usher de type 2 (MIM 276901) est également congénitale et stable mais de gravité moyenne à sévère
avec des restes auditifs dans les fréquences graves. Les épreuves vestibulaires et le scanner du rocher
sont normaux. La rétinite pigmentaire est cliniquement symptomatique vers l’âge de 20 à 30 ans. Le
syndrome de Usher de type 3 (MIM 276902) se caractérise principalement par une atteinte auditive
évolutive plus ou moins associée à une atteinte vestibulaire. Cette forme clinique de SU semble
particulièrement fréquente dans les pays nordiques. La transmission autosomique récessive est
commune à toutes les formes cliniques de SU. La fonction de ces gènes au niveau de l’oreille interne
commence à être élucidée, ils formeraient un vaste complexe impliqué dans la croissance et la cohésion
des stérocils pendant l’embryogénèse (El-Amraoui, 2 005).
Le syndrome de Jervell-Lange Nielsen (MIM 220400) associe une surdité congénitale cochléaire
bilatérale sévère-profonde prédominante dans les fréquences aiguës et un allongement de l’espace QT
à l’électrocardiogramme. Cette anomalie de la repolarisation myocardique peut entraîner des troubles
du rythme cardiaque (torsade de pointe, fibrillation ventriculaire) se traduisant par des syncopes ou
une mort subite soit spontanée soit à l’occasion d’un stress. Les symptômes cardiaques peuvent
apparaître pendant la vie in utero ou à l’âge adulte. La prévalence de ce syndrome est variable d’un
pays à l’autre avec une fréquence plus élevée en Europe du nord. Cette pathologie est due à des
mutations homozygotes de gènes codant pour les deux sous-unités associées d’un canal potassique
« voltage dépendant ». Dans la cochlée, ce canal est localisé au niveau des cellules marginales de la
strie vasculaire et joue un rôle dans la sécrétion du potassium dans l’endolymphe. Les mutations
hétérozygotes de ces 2 gènes entraînent uniquement un allongement de l’espace QT (syndrome de
Ward-Romano, MIM 192500) (Neyroud, 97 ; Splawski, 97).
1.2.2. Les surdités isolées
Les différentes formes génétiques sont classées selon leur mode de transmission : DFNA quand le mode
de transmission est autosomique dominant, DFNB quand il est récessif et DFN lors d’une transmission
23
37273_Monographie_N45.Nais_vie_m23 23
18/09/08 14:38:52
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
liée au chromosome X. La localisation des gènes impliqués dans les surdités non syndromiques a été
retardée principalement par une importante hétérogénéité génétique et l’impossibilité clinique
d’individualiser des formes génétiques distinctes. Depuis 1994, une cinquantaine de gènes responsables
de surdités neurosensorielles isolées de l’enfant a été localisée sur les chromosomes humains et une
vingtaine d’entre eux a été clonée.
Le chapitre suivant rapporte le phénotype, le rôle supposé de la protéine et les hypothèses
physiopathogéniques à l’origine de certaines de ces formes de surdités neurosensorielles isolées.
Connexine 26 (GJB2) et connexine 30 (GJB6) :
Le premier locus de surdité isolée de transmission autosomique récessive, DFNB1, fut rapporté en 1994
grâce à l’étude de deux familles tunisiennes consanguines touchées par une surdité prélinguale
profonde. En 1997, des mutations du gène codant pour la connexine 26 (GJB2) ont été détectées dans
la forme de surdité isolée de transmission autosomique récessive DFNB1 (Kelsell, 97), puis dans la
forme de surdité non syndromique de transmission autosomique dominante DFNA3 (Denoyelle, 98).
La surdité DFNB1 se caractérise par sa survenue dans la période prélinguale, son atteinte cochléaire
exclusive sans atteinte vestibulaire associée et sa relative stabilité dans le temps (dans au moins les
deux tiers des cas). La sévérité de l’atteinte est variable même à l’intérieur d’une même famille, rendant
le conseil génétique pour une grossesse ultérieure difficile (Marlin, 2 005). La courbe audiométrique
est le plus souvent fortement descendante dans les fréquences aiguës ou plates touchant toutes les
fréquences avec la même sévérité. Le scanner des rochers ne met jamais en évidence de malformation
cochléo-vestibulaire. Cette forme de surdité représente près de 30 % des formes de surdités isolées
prélinguales en Europe et aux États-Unis (fig. 4). Plus de cent mutations supposées délétères de gène
GJB2 et de nombreux polymorphismes ont été décrits. Cependant certaines mutations apparaissent
comme majoritaires : 35delG en Europe (jusqu’à 85 % des mutations), 167delT dans la population juive
Ashkénaze et 265delC en Asie. Il existe également de nombreux polymorphismes rendant parfois
fig. 4
Prévalence dans les
surdités des mutations de
GJB2 dans le monde
d
24
37273_Monographie_N45.Nais_vie_m24 24
18/09/08 14:38:52
l’interprétation du diagnostic moléculaire délicat (Feldmann, 04). La prévalence de la mutation 35delG
à l’état hétérozygote dans la population entendante est estimée de 2 à 4 % dans la population
caucasienne ; elle peut donc être considérée comme une des mutations pathogènes humaines les plus
fréquentes, avec la mutation ΔF508 du gène CFTR responsable de la mucoviscidose. Les connexines
sont des protéines transmembranaires. Elles s’assemblent par six pour former un connexon, hémicanal
qui constituera un canal jonctionnel complet grâce à son union avec un connexon d’une cellule
adjacente. Les études de modèles murins, déficitaires en connexine 26 au niveau cochléaire, montrent
une dégénérescence précoce des cellules ciliées internes par apoptose (Cohen Salmon).
De nombreux auteurs ont constaté une proportion de mutations hétérozygotes du gène GJB2 dans la
population sourde plus importante que ne le voudrait le hasard (Denoyelle, 99). Des délétions en amont
du gène GJB2 touchant en partie du gène GJB6 (codant pour la connexine 30) ont été identifiées chez
un nombre important de ces patients (Del Castillo, 2002 et 05 ; Feldmann, 05). Les patients porteurs
d’une mutation hétérozygote de GJB2 associée à une délétion de GJB6 sur l’autre allèle présentent le
plus souvent une surdité sévère ou profonde bilatérale (Marlin, 2 005).
Le gène GJB2 est également responsable de formes de surdités associées à des pathologies
dermatologiques en particulier des kératodermies palmoplantaires (syndromes de Vohwinkel et KID)
(Maestrini, 96 ; Feldmann, 05 ; Jonard, 07).
SLC26A4 (Pendrine) :
Le gène SLC26A4 est responsable à la fois d’une forme syndromique de surdité : le syndrome de
Pendred (qs chapitre précédent) et d’une forme isolée de surdité de transmission autosomique
récessive : DFNB4 (Baldwin 95, Li 98). La surdité est bilatérale prélinguale ou postlinguale précoce de
sévérité variable, fréquemment évolutive ou fluctuante, avec malformations de l’oreille interne. Ces
malformations sont visualisables sur un scanner des rochers et comparables à celles retrouvées dans
le syndrome de Pendred. Il s’agit le plus souvent d’une dilatation bilatérale des aqueducs du vestibule
(DAV) (fig. 3 c), éléments anatomiques qui contiennent les sacs endolymphatiques. Les sujets atteints
ne présentent ni goitre ni hypothyroïdie et le test au perchlorate est normal. Seuls 40 % des patients
présentant une surdité isolée bilatérale avec DAV bilatérale ont au moins une mutation de SLC26A4
(Albert, 06). Il existerait donc une hétérogénéité génétique associée de ce phénotype ou une
méconnaissance de formes syndromiques (autres que le syndrome de Pendred, par exemple des sujets
atteints de syndrome de Waardenburg ou de syndrome BOR). Il n’existe pas de relation génotype/
phénotype entre la forme isolée et le syndrome de Pendred. À ce jour, une cinquantaine de mutations
SLC26A4 ont été décrites dans les surdités isolées.
OTOF (Otoferline) :
Le gène OTOF, codant pour l’otoferline, est le premier gène qui a été identifié dans une surdité répondant
à la définition d’une neuropathie auditive (Yasunago, 94). Il s’agit d’une surdité bilatérale profonde
isolée caractérisée par la préservation initiale des oto-émissions acoustiques (OEA), malgré l’absence
de PEA enregistrables (Varga, 03), de transmission autosomique récessive. Le scanner ou l’IRM des
rochers ne retrouvent pas de malformation. Les OEA peuvent être enregistrées normalement pendant
les premières années de vie puis disparaissent progressivement. Une dizaine de mutations différentes
25
37273_Monographie_N45.Nais_vie_m25 25
18/09/08 14:38:55
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
d’OTOF ont été rapportées mais la Q829X semble récurrente. Elle est retrouvée dans 2 à 3 % des
surdités prélinguales isolées profondes en Espagne et en France (Gallo, 05). L’étude de l’otoferline chez
la souris a permis de localiser son expression dans les cellules ciliées cochléaires et vestibulaires. Dans
l’organe de Corti, au cours des stades précoces de ce développement, elle est retrouvée exclusivement
au niveau des cellules ciliées internes, ce qui permet d’expliquer que l’on enregistre des OEA normales
alors qu’il existe un déficit auditif profond. Plus tard, elle s’exprimera aussi au niveau des cellules ciliées
externes, ce qui rend compte de la disparition secondaire des OEA chez les sujets atteints. Au sein de
la cellule ciliée interne l’otoferline joue un rôle dans l’exocytose des vésicules synaptiques vers la
synapse afférente (Roux, 06). Les patients porteurs de mutation dans OTOF ne présentent donc pas de
neuropathie auditive stricto sensu mais une synaptopathie de la cellule ciliée. La localisation cochléaire
du déficit auditif de DFNB9 est corroborée par le bon résultat qui est généralement obtenu après
implantation cochléaire chez les patients (Rouillon, 06).
POU3F4 :
Ce facteur de transcription est responsable de la plus fréquente des surdités neurosensorielles de
transmission récessive liée au chromosome X (DFN3). La prévalence des anomalies de ce gène
représenterait 0,8 % des surdités profondes prélinguales. Chez les garçons, la surdité est tout d’abord
mixte puis, après une évolution souvent rapide, la courbe audiologique est en faveur d’une atteinte
neurosensorielle pure, sévère ou profonde. Des troubles vestibulaires sont souvent associés. On retrouve
constamment des anomalies évocatrices au scanner des rochers correspondant à une importante
dilatation du conduit auditif interne qui se jette à plein canal dans la cochlée. Cette malformation
serait à l’origine de la part transmissionnelle de l’atteinte auditive par des mécanismes de pression des
liquides de l’oreille interne sur les osselets. Par le passé, la surdité était parfois attribuée à un blocage
de la platine de l’étrier par « otospongiose juvénile », l’indication d’une stapédectomie (remplacement
de l’étrier par une prothèse ossiculaire) était alors portée. Lors de la stapédectomie, une fuite de
périlymphe en « geyser » entraînait une cophose définitive, d’où le nom de « Gusher syndrome ». Les
mères porteuses peuvent présenter une surdité mixte sans malformation de l’oreille interne. Seule la
moitié des patients présente une mutation intragénique alors que chez l’autre moitié on met en
évidence des anomalies à 900 kb en amont du gène dans une zone conservée semblant contenir des
éléments régulateurs de la transcription (de Kok, 95 et 96).
1.2.3. Les surdités isolées d’origine mitochondriale
De nombreuses mutations mitochondriales ont été retrouvées dans de nombreuses formes de surdités
syndromiques (encéphalopathies mitochondriales : MELAS, MERRF ; « surdité-diabète », etc.…) (Ballinger,
92 ; Bindoff, 91 ; Reardon, 92 ; Goto, 91).
En 1992, la description d’une famille arabe d’origine israélienne, dans laquelle se transmettait une
surdité isolée, a permis d’évoquer pour la première fois la possible implication d’une mutation
mitochondriale. Ultérieurement, une mutation 1555A > G dans le gène mitochondrial 12SrRNA fut
identifiée dans cette famille. Actuellement 5 mutations mitochondriales responsables de surdités
isolées ont été décrites (Fischel-Ghodsian 99 ; Chapiro, 02).
La mutation 1555A > G est la plus fréquemment rapportée. Le phénotype correspondant est
26
37273_Monographie_N45.Nais_vie_m26 26
18/09/08 14:38:56
extrêmement hétérogène d’une famille à l’autre et même au sein d’une même famille. La surdité est
isolée, d’origine cochléaire, de survenue extrêmement variable : congénitale à postlinguale tardive. Le
degré de sévérité est également variable, un sujet porteur de la mutation peut être soit sourd profond
soit asymptomatique. La surdité peut survenir spontanément (Estivill 98) ou après un traitement par
des aminosides. Des atteintes vestibulaires en l’absence de traitement par aminosides et des acouphènes
ont été décrits. Le scanner du rocher était normal. La prévalence de cette mutation est très variable
d’une population à l’autre allant de 61 % en Espagne (Ballana 2 006) à 4,5 % en France (Levêque, 07)
dans les formes familiales de transmission maternelle. Hormis dans la population espagnole, cette
mutation est exceptionnellement retrouvée dans les formes sporadiques même après prise d’aminosides.
La mutation 1555A > G touche une région très conservée du gène 12SrRNA qui est impliquée, dans
d’autres espèces, dans la liaison aux aminosides et dans laquelle des mutations entraînent une
résistance à ces antibiotiques. La mutation 1555A > G entraîne des modifications structurales
augmentant la liaison aux aminosides.
La pathogénie de ces différentes mutations mitochondriales reste encore à déterminer. Deux points
sont particulièrement intéressants : l’existence d’une grande variabilité phénotypique même pour des
mutations à l’état homoplasmique et la spécificité tissulaire des signes cliniques. On devrait approcher
la physiopathologie de ces mutations par l’étude d’animaux mutants et par la compréhension des
mécanismes responsables de la variabilité phénotypique et de la tissu-spécificité.
1.2.4 Bilan étiologique d’une surdité de l’enfant
Pourquoi ?
Les buts de cette consultation sont :
- d’établir le caractère génétique ou extrinsèque du déficit,
- de rechercher des anomalies associées,
- d’établir un pronostic évolutif de la surdité,
- d’évaluer un risque de récurrence lors d’une prochaine grossesse ou à une prochaine génération,
- de dépister d’éventuels autres sujets atteints au sein d’une famille.
La mise en évidence d’une mutation d’un gène ou la découverte d’un syndrome chez une personne
atteinte de surdité permet d’affirmer son origine génétique, même en l’absence d’antécédents
familiaux.
La prise en charge du patient peut être modifiée par la mise en évidence d’une origine génétique :
dépistage, suivi et traitement d’une pathologie associée ; prévention en cas d’hypersensibilité aux
aminosides ; indication d’une pose d’implant cochléaire bilatéral en cas de syndrome de Usher (Loundon
et al. 2 003), etc.…
À ce jour, aucun traitement curatif n’est disponible en cas de surdité de perception isolée, mais la mise
en évidence des origines génétiques des surdités permet de mieux comprendre le fonctionnement
normal d’une oreille et les mécanismes à l’origine des surdités. Ce pourrait être le premier pas vers
l’élaboration d’une thérapeutique.
Pour qui ?
La recherche de la cause est le premier motif de consultation génétique devant une surdité car une
27
37273_Monographie_N45.Nais_vie_m27 27
18/09/08 14:38:58
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
des premières questions posées par un couple à qui on annonce un diagnostic de surdité chez leur
enfant est « pourquoi ? » (Marlin, 03). Il en va de même pour un enfant ou un adulte sourd qui ignore
d’où vient son déficit auditif. Comme pour beaucoup de handicaps et de maladies génétiques, la mise
en évidence de l’étiologie de la surdité peut souvent favoriser l’accommodation à la réalité du déficit
et donc améliorer sa prise en charge. La grande majorité des cas étant sporadique, la mise en évidence
d’une cause génétique permet parfois de « rétablir » la place du patient au sein d’une filiation et de
déculpabiliser beaucoup de mères qui portent souvent un lourd fardeau de culpabilité depuis la
naissance de cet enfant « différent ».
La possibilité de rechercher la cause de la surdité doit être portée à la connaissance de tous les patients
et de tous les parents, libre à eux de faire le choix cette démarche quand ils le souhaitent.
Quand ?
Il est souhaitable d’attendre la mise en route de la prise en charge de l’enfant sourd et de sa famille
avant de proposer une consultation de génétique. Cependant il faut prendre en compte le désir des
familles de « comprendre pourquoi » et leur proposer de différer cette recherche. Dans un certain
nombre de cas, on pourra proposer une consultation de génétique plus rapidement : suspicion de
troubles associés, grossesse en cours ou désir de grossesse rapide et questionnement sur la possibilité
de récurrence. Pour certains parents, la mise en évidence d’une cause génétique vient confirmer un
diagnostic qu’ils ont du mal à reconnaître ; un accompagnement psychologique est alors très souvent
complémentaire. Chaque famille étant différente, le « bon » moment pour une recherche étiologique
doit être évalué par l’équipe qui prend en charge l’enfant ou l’adulte sourds (audiophonologiste, ORL,
psychologue, équipe éducative…).
En aucun cas, le diagnostic moléculaire (en particulier la recherche de mutations dans le gène GJB2)
ne doit être considéré comme un test de dépistage de la surdité de l’enfant (faux négatifs trop nombreux
et résultats difficiles d’interprétation). Le dépistage en maternité se généralisant, l’âge de diagnostic
d’une surdité est plus précoce. La démarche étiologique doit cependant être, si possible, différée afin
qu’une prise en charge puisse avoir débuté et que d’éventuels signes associés puissent être repérés.
Comment ?
L’enquête étiologique d’une surdité de l’enfant doit être menée dans un centre spécialisé. Actuellement,
il existe dans chaque région française au moins un centre de compétence « surdités génétiques »
réunissant des équipes de généticiens et d’ORL pédiatriques spécialisées.
Un examen clinique complet de chaque enfant est effectué et un interrogatoire précis et complet sur
les antécédents personnels et familiaux de déficit auditif et de signes associés possibles est mené. Le
phénotype audiologique est défini : date de début, évolution, fluctuation, symétrie, type de déficit,
forme de la courbe, âge des différentes étapes motrices, qualité du langage, présence d’acouphènes
et de vertiges, résultats des épreuves vestibulaires… Des examens paracliniques systématiques sont
demandés : scanner des rochers, examen ophtalmologique avec fond d’œil, audiométrie de la fratrie
et si possible des parents. Une recherche de CMV sera faite sur le papier Guthrie dès que possible, en
cas de destruction une sérologie sera demandée chez l’enfant sourd +/- sa mère. D’autres examens
sont prescrits en fonction du contexte : ECG si surdité congénitale profonde, recherche d’hématurie-
28
37273_Monographie_N45.Nais_vie_m28 28
18/09/08 14:38:59
protéinurie si surdité évolutive, ERG si surdité profonde et retard moteur, échographie rénale si
présence d’une malformation branchiale, etc.…
Au terme de cette consultation, des tests génétiques (étude d’un gène ciblé, caryotype standard,
cytogénétique moléculaire…) pourront être proposés aux parents si une étiologie est suspectée et si
une confirmation biologique est disponible.
références
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
Abdelhak S, Kalatzis V, Heilig R, Compain S, Samson D, Vincent C, Weil D, Cruaud C, Sahly I, Leibovici M, Bitner-Glindzicz M, Francis M,
Lacombe D, Vigneron J, Charachon R, Boven K, BedBeder P, Van Regemorter N, Weissenbach J & Petit C (1 997). A human homologue of
the Drosophila eyes absent gene underlies Branchio-Oto-Renal (BOR) syndrome and identifies a novel gene family. Nature
Genet 15, 157-164.
Albert S, Blons H, Jonard L, Feldmann D, Chauvin P, Loundon N, Sergent-Allaoui A, Houang M, Joannard A, Schmerber S, Delobel B, Leman J,
Journel H, Catros H, Dollfus H, Eliot MM, David A, Calais C, Drouin-Garraud V, Obstoy MF, Tran Ba Huy P, Lacombe D, Duriez F, Francannet C,
Bitoun P, Petit C, Garabedian EN, Couderc R, Marlin S, Denoyelle F. SLC26A4 gene is frequently involved in nonsyndromic hearing
impairment with enlarged vestibular aqueduct in Caucasian populations. Eur J Hum Genet. 2 006 Mar 29.
Ballana E, Morales E, Rabionet R, Montserrat B, Ventayol M, Bravo O, Gasparini P, Estivill X. Mitochondrial 12S rRNA gene mutations
affect RNA secondary structure and lead to variable penetrance in hearing impairment. Biochem Biophys Res Commun. 2 006
Mar 24 ; 341 (4) : 950-7.
Ballinger SW, Shoffner JM, Hedaya EV, Trounce I, Polak MA, Koontz DA & Wallace DC (1 992). Maternally transmitted diabetes and
deafness associated with a 10.4 kb mitochondrial DNA deletion. Nature Genetics 1, 11-15.
Bindoff LA, Desnuelle C, Birch-Machin MA, Pellissier JF, Serratrice G, Dravet C, Bureau M, Howell N & Turnbull DM (1 991). Multiple defects
of the mitochondrial respiratory chain in a mitochondrial encephalopathy (MERRF) : a clinical, biochemical and molecular
study. Journal of the Neurological Sciences 102, 17-24.
Blons H, D Feldmann, V Duval, O Messaz, F Denoyelle, N Loundon, A Sergout-Allaoui, M. Houang, F Duriez, D Lacombe, B Delobel, J
Leman, H Catros, H Journel, V Drouin-Garraud, M. Obstoy, A Toutain, S Odent, J Edmont Toublanc, R Couderc, C Petit, E-N
Garabédian, S Marlin. Screening of SLC26A4 (PDS) gene in Pendred syndrome : A large spectrum of mutations in France and
phenotypic heterogeneity. Clin Genet, 2 004 October, Volume 66 Issue 4 Page 333.
Bondurand N, Dastot-Le Moal F, Stanchina L, Collot N, Baral V, Marlin S, Attie-Bitach T, Giurgea I, Skopinski L, Reardon W, Toutain A, Sarda P, Echaieb
A, Lackmy-Port-Lis M, Touraine R, Amiel J, Goossens M, Pingault V. Deletions at the SOX10 gene locus cause Waardenburg syndrome
types 2 and 4. Am J Hum Genet. 2 007 Dec ; 81 (6) : 1169-85. Epub 2 007 Oct 22.
Chapiro E, D Feldmann, F Denoyelle, D Sternberg, M. M. Eliot, D Bouccara, D Weil, E N Garabédian, R Couderc, C Petit, S Marlin.
Two large french pedigrees with non syndromic sensorineural deafness and the mitochondrial DNA T7511C mutation :
evidence for a modulatory factor. Europ J Hum Genet, 2 002 Dec, 10 (12) : 851-6.
Cohen-Salmon M, Ott T, Michel V, Hardelin JP, Perfettini I, Eybalin M, Wu T, Marcus DC, Wangemann P, Willecke K, Petit C. Targeted ablation of connexin26 in the inner ear epithelial gap junction network causes hearing impairment and cell death. Curr
Biol. 2 002 Jul 9 ; 12 (13) : 1106-11.
de Kok YJM, van der Maarel SM, Bitner-Glindzicz M, Huber I, Monaco AP, Malcolm S, Pembrey ME, Ropers H-H & Cremers FPM (1 995) Association between X-linked mixed deafness and mutations in the POU domain gene POU3F4. Science 267, 685-688.
de Kok YJM, Vossenaar ER, Cremers CWRJ, Dahl N, Laporte J, Hu LJ, Lacombe D, Fischel-Ghodsian N, Friedman RA, Parnes LS, Thorpe P,
Bitner-Glindzicz M, Pander H-J, Heilbronner H, Graveline J, den Dunnen JT, Brunner HG, Ropers H-H & Cremers FPM (1 996). Identification
of a hot spot for microdeletions in patients with X-linked deafness type 3 (DFN3) 900 kb proximal to the DFN3 gene POU3F4.
Hum Mol Genet 5, 1229-1235.
del Castillo F, M. Rodriguez-Ballesteros, A Alvarez, T Hutchin, E Leonardi, C de Oliveira, H Azaiez, Z Brownstein, M. Avenarius, S Marlin, A
Pandya, H Shahin, KR Siemering, D Weil, W Wuyts, L Aguirre, Y Martin, M. A Moreno-Pelayo, M. Villamar, K Avraham, H-H Dahl, MKanaan, W
Nance, C Petit, R Smith, G Van Camp, E Sartorato, A Murgia, F Moreno, I del Castillo. A Novel Deletion Involving the Connexin-30 Gene,
del (GJB6-D13S1854), Found in trans with Mutations in the GJB2 Gene (Connexin-26) in Subjects with DFNB1 Nonsyndromic
29
37273_Monographie_N45.Nais_vie_m29 29
18/09/08 14:39:01
Monographie
chapitre
naissance vie et mort de l'oreille
01
sa naissance
Hearing Impairment. J Med Genet, 2005, 42 : 588-594.
del Castillo I, M. Moreno-Pelayo, F del Castillo, Z Brownstein, S Marlin, Q Adina, D Cockburn, A Pandya, K Siemering, P Chamberlin, E Ballana,
W Wuyts, A Maciel-Guerra, A Alvarez, M. Villamar, M. Shohat, D Abeliovich, H Dahl, X Estivill, P Gasparini, T Hutchin, W Nance, E Sartorato,
R Smith, G Van Camp, K Avraham, C Petit, F Moreno. Prevalence and evolution origins of the del (GJB6-D13S1830) mutation in the
DFNB1 locus in hearing impairement subjects : a multicenter study. Am J Hum Genet, 2 003 Dec ; 73 (6) : 1452-8.
14. Denoyelle F, Lina-Granade G, Plauchu H, Bruzzone R, Chaïb H, Levi-Acobas F, Weil D & Petit C (1 998). Connexin26 gene linked to a dominant deafness. Nature 393, 319-320.
15. Denoyelle F, S Marlin, D Weill, L Moatti, E-N Garabédian, C Petit. Clinical features of the prevalent form of chilhood deafness,
DFNB1, underlied by a connexin 26 gene defect : implication for the genetic counselling. Lancet 1999, 353, 1298-1303.
16. El-Amraoui A, Petit C. Usher I syndrome : unravelling the mechanisms that underlie the cohesion of the growing hair bundle in
inner ear sensory cells. J Cell Sci. 2 005 Oct 15 ; 118 (Pt 20) : 4593-603.
17. Estivill X, Govea N, Barceló E, Badenas C, Romero E, Moral L, Scozzri R, D’Urbano L, Zeviani M, Torroni A. Familial progressive sensorineural deafness is mainly due to the mtDNA A1555G mutation and is enhanced by treatment of aminoglycosides. Am J Hum
Genet. 1 998 Jan ; 62 (1) : 27-35.
18. Everett LA, Glaser B, Beck JC, Idol JR, Buchs A, Heyman M, Adawi F, Hazani E, Nassir E, Baxevanis AD, Sheffield VC & Green ED (1 997) Pendred
syndrome is caused by mutations in a putative sulphate transporter gene (PDS). Nature Genetics 17, 411-422.
19. Feldmann D, F Denoyelle, N Loundon, D Weil, E-N Garabedian, R Couderc, A Joannard, S Schmerber, B Delobel, J Leman, H Journel, H Catros,
C Ferrec, V Drouin-Garraud, M. F Obstoy, L Moatti, C Petit, S Marlin. Clinical evidence of the non-pathogenic nature of the M34T
variant in the connexin 26 gene. Eurp J Hum Genet, 2 004 Apr ; 12 (4) : 279-84.
20. Feldmann D, F Denoyelle, P Chauvin, E-N Garabedian, R Couderc, S Odent, A Joannard, S Schmerber, B Delobel, J Leman, H Journel, H Catros,
C Le Maréchal, H Dollfus, M. Eliot, J P Delaunoy, A David, C Calais, V Drouin-Garraud, M. F Obstoy, D Bouccara, O Strekers, P Tran Ba Huy, C
Goizet, F Duriez, F Fellmann, J Hélias, J Vigneron, B Montaut, P Lewin, C Petit, S Marlin. Large deletion of GJB6 gene in deaf patients
heterozygous for the GJB2 Mutation : genotypic and phenotypic analysis, Am J Med Genet, 2 004 Jun 15 ; 127 (A) : 263-7.
21. Feldmann D, F Denoyelle, H Blons, S Lyonnet, N Loundon, I Rouillon, S Hadj-Rabia, C Petit, R Couderc, E-N Garabédian, S Marlin. The GJB2
mutation R75Q can cause non-syndromic hearing loss DFNA3 or hereditary palmoplantar keratoderma with deafness. Am J
Med Genet, 2005, Aug 30 ; 137 (2) : 225-7.
22. Fischel-Ghodsian N, Prezant TR, Fournier P, Stewart IA & Maw M. (1 995). Mitochondrial mutation associated with nonsyndromic
deafness. American Journal of Otolaryngology 16, 403-408.
23. Gallo-Teran J, Morales-Angulo C, Rodriguez-Ballesteros M, Moreno-Pelayo MA, del Castillo I, Moreno F. Prevalence of the 35delG mutation in the GJB2 gene, del (GJB6-D13S1830) in the GJB6 gene, Q829X in the OTOF gene and A1555G in the mitochondrial 12S
rRNA gene in subjects with non-syndromic sensorineural hearing impairment of congenital/childhood onset. Acta Otorrinolaringol Esp. 2 005 Dec ; 56 (10) : 463-8.
24. Gorlin RJ (2 004). Genetic hearing loss associated with eye disorders. In : Gorlin RJ, Toriello HV, Cohen MM (eds) Hereditary
hearing loss and its syndromes. Vol. 28 : Oxford monographs on medical genetics. New York : Oxford University Press, pp
105-140.
25. Goto Y, Nonaka I & Horai S (1 991) A new mtDNA mutation associated with mitochondrial myopathy, encephalopathy, lactic acidosis and
stroke-like episodes (MELAS). Biochimica et Biophysica Acta 1097, 238-240.
26. Hildesheimer M, Maayan Z, Muchnik C, Rubinstein M. & Goodman RM (1 989) Auditory and vestibular findings in Waardenburg’s
type II syndrome. Journal of Laryngology & Otology 103, 1130-1133.
27. Hoskins BE, Cramer CH, Silvius D, Zou D, Raymond RM, Orten DJ, Kimberling WJ, Smith RJ, Weil D, Petit C, Otto EA, Xu PX, Hildebrandt
F. Transcription factor SIX5 is mutated in patients with branchio-oto-renal syndrome. Am J Hum Genet. 2 007 Apr ; 80 (4) :
800-4.
28. Hoth CF, Milunsky A, Lipsky N, Sheffer R, Clarren SK & Baldwin CT (1 993). Mutations in the paired domain of the human PAX3 gene
cause Klein-Waardenburg syndrome (WS-III) as well as Waardenburg syndrome type I (WS-I). Am J Hum Genet 52, 455-462.
29. Jais JP, Knebelmann B, Giatras I, De Marchi M, Rizzoni G, Renieri A, Weber M, Gross O, Netzer KO, Flinter F, Pirson Y, Dahan K, Wieslander J,
Persson U, Tryggvason K, Martin P, Hertz JM, Schröder C, Sanak M, Carvalho MF, Saus J, Antignac C, Smeets H, Gubler MC. X-linked Alport
syndrome : natural history and genotype-phenotype correlations in girls and women belonging to 195 families : a “European
Community Alport Syndrome Concerted Action” study. J Am Soc Nephrol. 2 003 Oct ; 14 (10) : 2603-10.
30. Jonard L, Feldmann D, Parsy C, Freitag S, Sinico M, Koval C, Grati M, Couderc R, Denoyelle F, Bodemer C, Marlin S, Hadj-Rabia S. A familial
13.
30
37273_Monographie_N45.Nais_vie_m30 30
18/09/08 14:39:02
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
case of Keratitis-Ichthyosis-Deafness (KID) syndrome with the GJB2 mutation G45E… Eur J Med Genet. 2 008 Jan-Feb ; 51
(1) : 35-43. Epub 2 007 Oct 4.
Kelsell DP, Dunlop J, Stevens HP, Lench NJ, Liang JN, Parry G, Mueller RF & Leigh IM (1 997). Connexin 26 mutations in hereditary nonsyndromic sensorineural deafness. Nature 387, 80-83.
Kochhar A, Orten DJ, Sorensen JL, Fischer SM, Cremers CW, Kimberling WJ, Smith RJ. SIX1 mutation screening in 247 branchio-otorenal syndrome families : a recurrent missense mutation associated with BOR. Hum Mutat. 2 008 Apr ; 29 (4) : 565.
Leveque M, Marlin S, Jonard L, Procaccio V, Reynier P, Amati-Bonneau P, Baulande S, Pierron D, Lacombe D, Duriez F, Francannet C, Mom T,
Journel H, Catros H, Drouin-Garraud V, Obstoy MF, Dollfus H, Eliot MM, Faivre L, Duvillard C, Couderc R, Garabedian EN, Petit C, Feldmann
D, Denoyelle F. Whole mitochondrial genome screening in maternally inherited non-syndromic hearing impairment using a
microarray resequencing mitochondrial DNA chip. Eur J Hum Genet. 2 007 Jul 18.
Li XC, Everett LA, Lalwani AK, Desmukh D, Friedman TB, Green ED & Wilcox ER (1 998). A mutation in PDS causes non-syndromic recessive deafness. Nature Genet 18, 215-217.
Loundon N, S Marlin, D Busquet, F Denoyelle, G Roger, EN Garabédian. Usher syndrome and cochlear implantation. Otlol Neurotol,
2 003 Mar, 24 (2) : 216-21.
Maestrini E, Monaco AP, McGrath JA, Ishida-Yamamoto A, Camisa C, Hovnanian A, Weeks DE, Lathrop M, Uitto J & Christiano AM (1 996). A
molecular defect in loricrin, the major component of the cornified cell envelope, underlies Vohwinkel’s syndrome. Nature
Genetics 13, 70-77.
Maestrini E, Korge BP, Ocana-Sierra J, Calzolari E, Cambiaghi S, Scuder PM, Hovnanian A, Monaco AP & Munro CS (1 999). A missense
mutation in connexin 26, D66H, causes mutilating keratoderma with sensorineural deafness (Vohwinkel’s syndrome) in three
unrelated families. Hum Mol Genet 8, 1237-1243.
Marlin S, D Feldmann, H Blons, N Loundon, I Rouillon, S Albert, P Chauvin, E-N Garabédian, R Couderc, S Odent, A Joannard, S Schmerber, B
Delobel, J Leman, H Journel, H Catros, C Lemarechal, H Dollfus, M-M Eliot, J-L Delanoy, ADavid, C Calais, V Drouin-Garraud, M-F Obstoy, C
Goizet, F Duriez, F Fellmann, J Hélias, J Vigneron, B Montaut, D Matin-Coignard, L Faivre, C Baumann, P Lewin, C Petit, F Denoyelle. GJB2
and GJB6 mutations : genotypic and phenotypic correlation in a large cohort of hearing-impaired patients, Arch Otol Laryngol,
2005, 2 005 Jun ; 131 (6) : 481-7.
Marlin S, N. Loundon, F. Denoyelle, C. Rebichon, E. N Garabedian. Bilan étiologique d’une surdité : pourquoi, pour qui et quand ?
J. Pediatr. Puer. 16 (2 003) 309-11
Marsh KL, Dixon J & Dixon MJ (1 998). Mutations in the Treacher Collins syndrome gene lead to mislocalization of the nucleolar
protein treacle. Human Molecular Genetics 7, 1795-1800.
Newton V (1 990). Hearing loss and Waardenburg’s syndrome : implications for genetic counselling. Journal of Laryngology &
Otology 104, 97-103.
Neyroud N, Tesson F, Denjoy I, Leibovici M, Donger C, Barhanin J, Fauré S, Gary F, Coumel P, Petit C, Schwartz K & Guicheney P (1 997). A novel mutation in the potassium channel gene KVLQT1 causes the Jervell and Lange-Nielsen cardioauditory syndrome. Nature
Genet 15, 186-189.
Phelps PD, Coffey RA, Trembath RC, Luxon LM, Grossman AB, Britton KE, Kendall-Taylor P, Graham JM, Cadge BC, Stephens SG, Pembrey ME &
Reardon W (1 998). Radiological malformations of the ear in Pendred syndrome. Clin Radiol 53, 268-273.
Reardon W, Coffey R, Phelps PD, Luxon LM, Stephens D, Kendall-Taylor P, Britton KE, Grossman A & Trembath R (1 997). Pendred syndrome-100 years of underascertainment ? QJM 90, 443-447.
Rouillon I, Marcolla A, Roux I, Marlin S, Feldmann D, Couderc R, Jonard L, Petit C, Denoyelle F, Garabedian EN, Loundon N. Results of cochlear implantation in two children with mutations in the OTOF gene. Int J Pediatr Otorhinolaryngol. 2 006 Apr ; 70 (4) : 689-96.
Epub 2 005 Oct 13.
Roux AF, Faugere V, Le Guedard S, Pallares-Ruiz N, Vielle A, Chambert S, Marlin S, Hamel C, Gilbert B, Malcolm S, Claustres M ; French Usher
Syndrome Collaboration. Survey of the frequency of USH1 gene mutations in a cohort of Usher patients shows the importance
of cadherin 23 and protocadherin 15 genes and establishes a detection rate of above 90 %. J Med Genet. 2 006 Sep ; 43 (9) :
763-8. Epub 2 006 May 5.
Roux I, Safieddine S, Nouvian R, Grati M, Simmler MC, Bahloul A, Perfettini I, Le Gall M, Rostaing P, Hamard G, Triller A, Avan P, Moser T, Petit
C. Otoferlin, defective in a human deafness form, is essential for exocytosis at the auditory ribbon synapse. Cell. 2 006 Oct
20 ; 127 (2) : 277-89.
31
37273_Monographie_N45.Nais_vie_m31 31
18/09/08 14:39:05
Monographie
chapitre
48.
49.
50.
51.
52.
53.
54.
naissance vie et mort de l'oreille
01
sa naissance
Scott DA, Wang R, Kreman TM, Sheffield VC & Karniski LP (1 999). The Pendred syndrome gene encodes a chloride-iodide transport
protein. Nature Genet 21, 440-443.
Servior KB, Hatamochi A, Stewart IA, Bykhovskaya Y, Allen-Powell DR, Fischel-Ghodsian N & Maw MA (1 998). Mitochondrial A7445G
mutation in two pedigrees with palmoplantar keratoderma and deafness. American Journal of Medical Genetics 75, 179-185.
Splawski I, Tristani-Firouzi M, Lehmann MH, Sanguinetti MC & Keating MT (1 997). Mutations in the hminK gene cause long QT syndrome and suppress IKs function. Nature Genetics 17, 338-340.
Varga R, Kelley PM, Keats BJ, Starr A, Leal SM, Cohn E, Kimberling WJ. Non-syndromic recessive auditory neuropathy is the result of
mutations in the otoferlin (OTOF) gene. J Med Genet. 2 003 Jan ; 40 (1) : 45-50.
Vikkula M, Mariman EC, Lui VC, Zhidkova NI, Tiller GE, Goldring MB, van Beersum SE, de Waal Malefijt MC, van den Hoogen FH, Ropers HH & et
al. (1 995). Autosomal dominant and recessive osteochondrodysplasias associated with the COL11A2 locus. Cell 80, 431-437.
Weil D, Blanchard S, Kaplan J, Guilford P, Gibson F, Walsh J, Mburu P, Varela A, Levilliers J, Weston MD, Kelley PM, Kimberling WJ, Wagenaar
M, Levi-Acobas F, Larget-Piet D, Munnich A, Steel KP, Brown SDM & Petit C (1 995). Defective myosin VIIA gene responsible for Usher
syndrome type 1B. Nature 374, 60-61.
Yasunaga S, Grati M, Cohen-Salmon M, El-Amraoui A, Mustapha M, Salem N, El-Zir E, Loiselet J & Petit C (1 999). A mutation in OTOF,
encoding otoferlin, a FER-1 like protein, causes DFNB9, a nonsyndromic form of deafness. Nature Genet 21, 363-369.
32
37273_Monographie_N45.Nais_vie_m32 32
18/09/08 14:39:05
Monographie
chapitre
02
naissance vie et mort de l'oreille
Sa vie
2 - SA VIE
2.1. Ses performances
2.1.1. Capacités de discrimination fréquentielle de l’oreille normale
2.1.1.1. Bases physiologiques du codage fréquentiel
O
n appelle fréquence ou hauteur l’attribut des sensations auditives permettant d’ordonner
les sons sur une échelle musicale allant du grave à l’aigu. Comment l’oreille parvient-elle
à discriminer 2 sons de fréquences ou hauteurs différentes ? Deux théories s’affrontent
pour expliquer ce processus physiologique, sans pour autant s’exclure mutuellement.
La première théorie considère que le codage fréquentiel est spatial. Ce codage reposerait sur
l’organisation tonotopique des voies auditives, le traitement de l’information fréquentielle obéissant
à une organisation spatiale particulière appelée tonotopie (du grec « tonos » : fréquence, et « topos » :
espace) et ce tout au long des voies auditives, depuis la cochlée jusqu’au cortex auditif. À ce titre, la
cochlée opère déjà une véritable analyse spectrale, la vibration maximale de la membrane basilaire
étant obtenue à la base pour des sons aigus et à l’apex pour des sons graves (von Bekesy, 1 930). Ceci
sous-tend que des fréquences différentes (ou des composantes fréquentielles différentes dans le cas
des sons complexes) vont exciter des régions spécifiques de la membrane basilaire, conduisant à
l’activation de populations neuronales divergeant par leur Fréquence Caractéristique (c’est-à-dire la
fréquence à laquelle chaque population répond préférentiellement).
L’autre théorie considère que le codage fréquentiel est temporel car conditionné par la structure
temporelle du stimulus auditif (Patterson et al., 1 995 ; Meddis & O’Mard, 2 006). En effet, le taux de
décharge neuronale résultant d’une stimulation acoustique est synchronisé sur la périodicité du
stimulus : pour les sons de fréquences basses et intermédiaires (< 2 kHz), l’intervalle de temps entre 2
potentiels d’action correspondant à la période du stimulus. Pour un son complexe harmonique (son
dont les composantes fréquentielles sont des multiples entiers d’une fréquence fondamentale, F0), la
sensation de hauteur tonale correspondra à celle déclenchée par un son pur de fréquence F0 (hauteur
du son complexe = hauteur de F0) (Ohm, 1843 ; Helmholtz, 1863). Il est d’ailleurs intéressant de noter
que, même lorsqu’on retire artificiellement F0 d’un son complexe harmonique, l’oreille humaine est
toujours capable de détecter la périodicité du son puisque la sensation de hauteur tonale reste
inchangée (phénomène de la fondamentale absente (Schouten, 1 938). Les limites de la théorie
« temporelle » résident dans le fait qu’il ne peut physiologiquement y avoir de synchronisation neurale
pour des stimulus de fréquence supérieure à 5 kHz. Toutefois, les sons produits par la voix humaine,
les instruments de musique et la plupart des sources sonores de notre environnement ont tous une
fréquence fondamentale bien inférieure à cette limite.
2.1.1.2. Méthode de mesure
En pratique, la mesure des capacités de discrimination fréquentielle auditive consiste à émettre dans
la même oreille, à un niveau de stimulation à la fois confortable pour le sujet et occasionnant la même
33
37273_Monographie_N45.Nais_vie_m33 33
18/09/08 14:39:08
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
sensation subjective d’intensité (voir chapitre 2.1.4 pour la description de la sonie), 2 sons purs
successifs de fréquences légèrement différentes. On demande au sujet de préciser lequel des 2 sons a
la fréquence la plus aiguë. Pour un son de fréquence donnée (F), on recherche quel est le son de
fréquence la plus proche possible de F que le sujet pourra discriminer, c’est-à-dire la plus petite
différence de fréquence perceptible. On appelle cette différence le seuil différentiel de fréquence, que
l’on retrouvera décrit dans la littérature par l’acronyme « DLF » (pour « difference limen for frequency »).
En général, on exprime le DLF en pourcentage de la fréquence testée F.
2.1.1.3. Discrimination fréquentielle chez le sujet normo-entendant
Exprimé en hertz, le DLF est meilleur (c’est-à-dire plus petit) pour les fréquences graves, puis augmente
de façon monotone au fur et à mesure que l’on se rapproche des fréquences aigues (Moore, 1973,
2 002).
Toutefois, on retiendra que chez le sujet normo-entendant, le DLF, exprimé en pourcentage de la
fréquence testée, est minimal pour les fréquences intermédiaires et maximal pour les très hautes et
très basses fréquences. La figure ci-dessous représente les DLFs mesurés chez le sujet normo-entendant
à un niveau confortable (40 dB au-dessus des seuils auditifs de détection).
Références
Békésy, von, C. (1 934). Über die nichtlinearen Verzerrugen des Ohres. Annln Phys., 20, ser. 5, 809-827. (English transl. : Nonlinear distortion in
the ear. Experiments in hearing. pp.332-344, McGraw-Hill, New York, 1 960.)
Licklider, J. C. R. (1 954). «Periodicity» pitch and «place» pitch. J. Acoust. Soc. Am., 26 : 945.
Meddis R, O’Mard LP. (2 006).Virtual pitch in a computational physiological model.
J Acoust Soc Am. 2 006 ; 120 : 3861-9.
Moore BCJ (2 002). An introduction to the Psychology of Hearing. Fifth Edition.
Helmholtz, H.L.F. Von (1863). Die Lehre von den Tonempfindungen als physiologische Grundlage für der theorie der musik, 1st edn, F. Vieweg,
Braunschweig.
Ohm, G.S. (1843). über die definition des tones, nebst daran geknüpfter theorie der sirene und ähnlicher tonbildender vorrichtungen, Ann.
34
37273_Monographie_N45.Nais_vie_m34 34
18/09/08 14:39:10
Physik.59, 513.
Patterson RD, Allerhand MH, Giguère C. (1 995) Time-domain modeling of peripheral auditory processing : a modular architecture and a
software platform. J Acoust Soc Am. 98 : 1 890-4.
Schouten, J. F. (1 938). The perception of subjective tones. Proceedings of Koninklijke Nederlandsche Akademie van Wetenschappen, 41 (10).
2.1.2. Performances temporelles de l’oreille normale
Les caractéristiques acoustiques temporelles jouent un rôle important dans la perception de la parole
(Shannon, 2 002 ; Lorenzi et al., 2 006). Elles interviennent en complément des informations fréquentielles
(fréquence fondamentale et formants). On peut distinguer trois types d’information temporelle en
fonction de la gamme de fréquence considérée (fig. 1) :
- l’enveloppe temporelle (« contour du son ») véhicule les informations relatives au rythme
global de la phrase, la délimitation des syllabes et concerne les variations temporelles de
moins de 50 Hz (> 20 ms),
- la périodicité reflète l’intonation, l’identité du locuteur, et se situe entre 50 et 500 Hz,
- enfin, la structure fine temporelle se situe au-delà de 500 Hz (durées < 2 ms), et permet la
perception, par exemple, des transitions formantiques.
Chacun de ces types d’information a son importance vis-à-vis de la compréhension de la parole. Par
exemple, la perception catégorielle permettant de distinguer les phonèmes p/b, est basée sur la
perception du délai de voisement, long de quelques dizaines de millisecondes. Il est donc important
de disposer d’outils cliniques (méthodes objectives et subjectives) permettant d’évaluer l’acuité auditive
par rapport à ces caractéristiques temporelles.
fig. 1 d
Illustration du type d’information
temporelle contenue dans un signal de
parole, ici la syllabe « BA ». L’amplitude du
signal recueilli au niveau du microphone est
exprimée en fonction du temps en
millisecondes (ms). La trace « 1 » représente
la syllabe originale, la trace « 2 » représente
la périodicité, entre 50 et 500 Hz
(l’amplitude a été quadruplée pour une
meilleure visibilité), et la trace « 3 »
représente la structure fine temporelle, audelà de 500 Hz.
En audition, le codage neural temporel est caractérisé par la synchronisation des cellules du système
auditif sur la périodicité du stimulus acoustique (fig. 2). C’est le principe de « calage de phase » (ou
phase-locking). Ce calage de phase se répercute tout le long des voies auditives afférentes en se
limitant à des fréquences de plus en plus basses au fur et à mesure que le message nerveux est intégré :
35
37273_Monographie_N45.Nais_vie_m35 35
18/09/08 14:39:15
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
il intervient jusqu’à des fréquences de stimulation de 4 à 5 kHz au niveau du nerf auditif, et pour des
fréquences inférieures à 80 Hz dans le cortex auditif (Palmer et Schamma, 2 004).
fig. 2 d
Illustration du calage de phase ou
« Phase-locking » : Le nombre de
décharges du nerf auditif
(histogramme) suit la phase du
stimulus (ici, un son pur de 1000
Hz dessiné en noir).
Afin d’évaluer les capacités de traitement de l’information auditive temporelle, de multiples protocoles
de psychoacoustiques ont été validés et s’organisent autour de 3 axes principaux (le traitement binaural
de l’information temporelle sera traité chapitre 2.1.3).
2.1.2.1. Détection d’un silence au sein d’un stimulus acoustique continu (gapdetection).
Afin d’éviter la perception d’indices spectraux, l’ensemble de la tache est présenté au sein d’un bruit
de masque, le plus souvent bruit blanc à large bande, avec une encoche fréquentielle correspondant
à la fréquence du stimulus acoustique utilisé. (fig. 3). La durée minimale du silence perçu dépend du
type de stimulus utilisé avant et après le silence.
Le seuil minimal de détection est de 2 à 3 ms pour un stimulus acoustique de type bruit à large bande,
à une intensité confortable (30 dB SL), et de 3 à 5 ms pour des sons purs. Pour des intensités plus
proches du seuil de perception du sujet, la durée du plus petit silence perçu augmente. En revanche,
pour des intensités de stimulation largement audibles (30 dB SL et au-delà), la durée minimum perçue
est remarquablement constante, que la durée totale de la stimulation varie de 20 à 400 ms, que la
position du silence au sein de la stimulation varie, ou que l’intensité de la stimulation varie au-delà
de 30 dB SL.
Lorsque des bandes de bruit sont utilisées, plus la bande de bruit est large, plus le silence est facile à
détecter, selon la formule : seuil (s) ~1/racine (largeur de bande en Hz). Pour des sons purs, les silences
minimums perçus sont de l’ordre de 5 ms pour les fréquences de 400 à 2000 Hz, et augmentent pour
les fréquences inférieures à 400 Hz (18 ms à 100 Hz). Plutôt que la détection d’un silence, d’autres
36
37273_Monographie_N45.Nais_vie_m36 36
18/09/08 14:39:17
expériences se sont attachées à mesurer la plus petite différence de durée de silence entre deux sons
(gap duration detection). Lorsque les fréquences des sons avant et après le silence sont différentes
(détection inter-canaux), le seuil de détection se dégrade, de même lorsque l’intensité des sons se
∂ fig. 3 : Evaluation de l’acuité auditive
temporelle par tests psycho-acoustiques.
1: Détection du plus petit silence entre deux
sons (gap-detection): la durée minimale de
perception d’un silence (gap) est recherchée, en
présentant deux signaux A et B. Le sujet doit
choisir celui dans lequel il entend un silence.
Les signaux A et B peuvent être identiques, ou
de fréquences différentes. Afin d’éviter la
perception d’indices spectraux, l’ensemble de la
tache est présentée au sein d’un bruit de
masque, le plus souvent bruit blanc à large
bande, avec une encoche fréquentielle
correspondant à la fréquence du stimulus
acoustique utilisé.
2: Détection de modulation (TMTF). La
profondeur de modulation minimale (en
pourcentage de l’amplitude) pour que le sujet
perçoive une modulation d’amplitude (en
fonction de la fréquence modulante) est
déterminée.
rapproche des seuils de perception des sujets (Grose et coll., 2 001).
2.1.2.2. Discrimination de durée
Elle fait référence à la capacité de détecter un changement de durée entre 2 sons. En pratique, deux
sons successifs de même puissance mais de longueur différente sont présentés, et le sujet doit identifier
le son le plus long. Lorsque la durée du son augmente, la fraction discriminée ~t/T diminue, avec, pour
des sons de durées respectives de 10 ms et 1 000 ms, des différences respectives de durée de 4 et 60 ms
peuvent être perçues.
2.1.2.3. Les fonctions de détection de modulation ou « Temporal modulation
transfer functions » (TMTFs).
Elles consistent à mesurer le seuil de détection d’un changement d’amplitude d’un son (porteuse), en
fonction de la rapidité des changements, et de l’importance des changements. Le son modulé en
amplitude peut être soit une sinusoïde, soit un bruit à bande étroite (fig. 3.2).
Les seuils de détection de la modulation d’amplitude sont constants pour des modulations inférieures
à 50 Hz (20 ms), et diminuent linéairement avec la fréquence de modulation de 3 dB/octave, jusqu’à
1 000 Hz (1 ms). Au-delà de 1 000 Hz, le seuil de détection de la modulation ne varie plus.
Il y a peu de variations des seuils de détection avec l’intensité du signal, sauf à proximité du seuil de
perception où les seuils de détection se dégradent. La sensibilité à la modulation augmente avec la
largeur de bande du son modulé, mais varie peu avec la fréquence de la porteuse.
Pour des échelles de temps plus importantes, l’étude du traitement de l’information temporelle fait
37
37273_Monographie_N45.Nais_vie_m37 37
18/09/08 14:39:21
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
appel à des taches de discrimination de séquences de sons variant selon différents rythmes, des taches
de détection de l’ordre de plusieurs sons successifs, et se rapproche de l’analyse des scènes
auditives.
Références
Eddins DA, Green DM. (1 995) Temporal Integration and temporal resolution. In Hearing, B.C.J. Moore editor. Handbook of Perception and
Cognition. 2nd Edition. Academic Press.
Grose, J. H., Hall, J. W., 3rd, et Buss, E. (2 001). Gap duration discrimination in listeners with cochlear hearing loss : effects of gap and marker
duration, frequency separation, and mode of presentation. J Assoc Res Otolaryngol, 2 (4), 388-398.
Lorenzi C, Gilbert G, Carn H, Garnier S, Moore BC. (2 006) “Speech perception problems of the hearing impaired reflect inability to use temporal
fine structure.” Proc Natl Acad Sci U S A. 103 (49):18866-9.
Moore BC., An Introduction to the Psychology of Hearing, 5 th ed. Elsevier Academic Press, 2 004.
Palmer A.R., and Shamma S.A. “Physiological representations of speech”, in Springer Handbook of Auditory Research, (vol.18) Speech processing in the auditory system. edited by Greenberg, S., Ainsworth, W.A., Popper, A.N. and Fay, R.R. (Springer New-York). 2 004
Shannon RV. The relative importance of amplitude, temporal, and spectral cues for cochlear implant processor design. Am J Audiol. 2 002 ; 11
(2):124-7.
Niveau de pression acoustique (db)
2.1.3. Performances en intensité de l’oreille normale
La sensibilité de l’oreille à l’intensité des stimulations acoustiques est très remarquable chez le sujet
normo-entendant et cela au moins pour 3 raisons. La première tient au fait que si pour certaines
fréquences, des déplacements tympaniques parfois inférieurs au diamètre d’une molécule d’hydrogène
peuvent être détectés, le système auditif peut aussi entendre des sons dépassant de 120 dB ce seuil.
Cela signifie qu’entre le seuil d’audition et le seuil de douleur, l’étendue des intensités acoustiques
susceptibles de stimuler l’oreille, c’est-à-dire sa dynamique, est immense : aux fréquences moyennes
par exemple, l’intensité juste perceptible (seuil absolu) est 1012 fois plus forte que l’intensité maximale
(seuil de douleur). D’autre part, chaque intensité peut être exprimée en force perçue ou intensité
subjective appelée la sonie qui peut être classée sur une échelle allant du calme (« quiet ») au fort
(« loud »). Enfin tout en étant sensible à une
très large gamme d’intensités sonores, le
système auditif peut aussi discriminer de très
faibles différences d’intensité entre deux
sons.
2.1.3.1. Seuils de détection
Quels que soit la méthode et le matériel utilisés (en champ libre ou sous écouteurs), il
existe une variation du seuil d’audition (en
réponse à des sons purs d’une durée supérieure à 200 ms) avec la fréquence. La figure 4 montre d’une part une estimation des
seuils moyens et la dispersion mesurées en
D fig. 4 : Valeurs moyennes des seuils mesurés au csque et en champ libre chez un grand
écoute monaurale au casque chez une cennombre de sujets normaux. (les pointillés délimitent l'intervalles qui contient 80 % des
mesures
taine de sujets sains âgés de 18 à 25 ans
38
37273_Monographie_N45.Nais_vie_m38 38
18/09/08 14:39:23
(pression audible minimum : PAM) et d’autre part les seuils absolus d’audition en champ libre chez des
sujets du même âge testés dans une salle sourde anéchoïque à l’aide d’un haut-parleur placé en face
d’eux (champ audible minimum : CAM).
Trois constations peuvent être faites. La première concerne la dispersion minimale (de l’ordre de 10 dB)
des mesures entre 50 et 5 000 Hz (fréquences moyennes) lors de mesures au casque. La deuxième a
trait à la sensibilité qui est de moins en moins bonne de part et d’autre de ces 2 fréquences avec des
seuils qui augmentent rapidement à très basses et très hautes fréquences. Enfin la troisième concerne
le fait que les seuils en champ libre sont en moyenne plus bas d’environ 2 dB aux seuils mesurés sous
écouteurs avec une forme de courbe différente. Plusieurs raisons peuvent expliquer ces observations.
Concernant l’évolution des seuils absolus avec la fréquence, elle s’explique presque totalement par les
fonctions de transfert de l’oreille externe et de l’oreille moyenne et par les phénomènes de diffraction
dus au corps et au pavillon. Ainsi l’ensemble pavillon et conduit auditif, en amont du tympan, est un
canal de transmission acoustique dont la fréquence de résonance se situe vers 3 000 Hz et qui accroît
la sensibilité de 1 000 à 5 000 Hz. Dans l’oreille moyenne, la transmission est la plus efficace pour les
fréquences moyennes et chute drastiquement pour les très basses et très hautes fréquences (Aibara
et coll. 2001, Puria et coll. 1997, Rosowski, 1 991). Dans la cochlée, des déplacements préférentiels de
la membrane basilaire ont lieu à certaines fréquences (Johnstone et coll. 1 982) et un plus grand
nombre de neurones est associé aux fréquences moyennes résultant dans une sensibilité globale
améliorée à ces fréquences. De plus, s’ajoutent des phénomènes d’intégration temporelle par le système
nerveux, permettant plus particulièrement de comprendre pourquoi les seuils diminuent plus que
prévu quand la fréquence augmente. Les différences entre les courbes d’audibilité pour les conditions
PAM et CAM sont en partie expliquées par le caractère binaural de l’écoute en champ libre (d’ailleurs
en condition binaurale au casque, les seuils absolus sont inférieurs d’environ 3 dB aux seuils monauraux
correspondants et cela en partie grâce aux mécanismes de sommation binaurale dans le système
nerveux auditif) et par des effets de diffraction du son sur le corps et de résonance sur le pavillon et
à l’intérieur du conduit auditif qui renforcent les fréquences situées autour de 4 000 Hz. À basse
fréquence, la différence de 5 à 10 dB observée entre les conditions champ libre et casque ont été
expliquées par l’existence d’un bruit physiologique d’origine vasculaire qui dégraderait le seuil mesuré
avec un système obturant le conduit auditif comme le font un casque et surtout un insert (Anderson
et Whittle, 1 971 ; Soderquist et Lindsey, 1 972).
Notons enfin que lorsque les seuils auditifs sont mesurés par pas fréquentiels plus petits que l’octave
utilisée en pratique clinique courante, par exemple par pas de 50 Hz, des écarts de seuil de 15 dB sont
parfois présents entre deux fréquences voisines. Cette microstructure de l’audiogramme est toujours
présente chez les sujets normo-entendants et se localise sur les fréquences comprises entre 500 et
3 000 Hz là où les mécanismes actifs cochléaires sont les plus efficaces.
2.1.3.2. La sonie (ou intensité subjective du son)
Le niveau de sensation de force (« loudness ») d’un son chez le sujet sain normo-entendant varie
également avec la fréquence. La méthode préférée des acousticiens pour évaluer la sonie consiste à
déterminer de combien un son de 1 000 Hz doit être intense pour avoir la même force sonore que le
39
37273_Monographie_N45.Nais_vie_m39 39
18/09/08 14:39:27
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
son testé, les 2 sons étant présentés alternativement. Le niveau du son de 1 000 Hz qui donne une force
égale est le niveau de force du son test et il s’exprime en phone. Le phone se définit donc par référence
au niveau physique d’un son de 1 000 Hz, expliquant pourquoi à 1 000 Hz l’échelle des phones se
confond avec celle des dB. Enfin, un son de N phones est un son donnant une sensation d’intensité
égale à celle d’un son pur de fréquence 1 000 Hz et de niveau N dB SPL. La figure 5 donne les lignes
isosoniques en condition d’écoute binaurale sous écouteurs. À noter que les courbes obtenues dans
d’autres conditions d’écoute sont très semblables à celles montreés ici (Botte, 1 989). On peut constater
que les courbes d’isosonie ont des formes similaires à celles des seuils audibles minimums décrits
précédemment sauf qu’elles tendent à devenir plus plates à forts niveaux sonores. La relation entre le
niveau en dB et la sensation provoquée dépend donc de moins en moins de la fréquence pour les
niveaux élevés. Cela signifie que le taux de croissance de la force du son diffère pour les sons de
différentes fréquences. Ainsi par exemple, le seuil absolu d’un son de 125 Hz est supérieur d’environ
18 dB de celui d’un son de 1 000 Hz. Mais pour la ligne 100 phones, la différence n’est plus que de 3 dB
environ. Ainsi pour le même niveau de sensation de la force du son, le niveau du son à 1 000 Hz doit
être augmenté de 98 dB tandis que seulement 83 dB suffisent pour le son de 125 Hz. Le taux de
croissance du niveau de la sensation
d’intensité à mesure que l’intensité
augmente est donc plus fort pour les
basses fréquences et pour certaines très
hautes fréquences que pour les
fréquences moyennes, ce qui a une
conséquence : celle de réduire la
dynamique de l’oreille dans les fréquences
graves et très aigues. À ces fréquences,
l’augmentation du niveau sonore fait
passer la sensation plus rapidement d’un
niveau « faible » à un niveau « fort » puis
au seuil de douleur (limite supérieure du
son audible). Un autre point important
dans la perception de l’intensité concerne
l’établissement d’échelles reliant les
D fig. 5 : Lignes isosoniques en condition d'écoute binaurale sous écouteur.
ampleurs physiques des sons à leur
intensité subjective. La sonie, qui mesure
le rapport subjectif entre deux sensations d’intensité sonore a pour unité le sone qui est défini, comme
c’était déjà le cas pour le phone, par rapport à une référence : à la fréquence de 1 000 Hz et au niveau
de 40 dB SPL, la sensation perçue est de 1 sone, ce qui revient à dire que l’on a 1 sone pour 40 phones.
Par définition, le niveau sonore pour lequel le son est perçu « deux fois plus fort » est le niveau de 2
sones, celui où le son est perçu « quatre fois plus fort » est de 4 sones et ainsi de suite. Les travaux
40
37273_Monographie_N45.Nais_vie_m40 40
18/09/08 14:39:28
conduits par Stevens en 1957 ont permis de déterminer comment la sonie variait en fonction du niveau
d’isosonie (en phones) qui est, rappelons-le, identique au niveau de pression acoustique (en dB) pour
un son de 1 000 Hz. Ces travaux ont abouti à une loi dite loi de Stevens qui suggère que la sonie (L pour
« loudness ») est une fonction puissance de l’intensité physique (p pour pression acoustique) et pour un
son de 1 000 Hz au-dessus de 30 phones (30 dB SPL) elle répond à la formule :
L = k0,6
où k est une constante dépendante du sujet et des unités utilisées. Une simple approximation de cette
loi revient à dire que la sonie double pour toute augmentation du niveau de 10 dB et du fait que
l’exposant est inférieur à 1, cela signifie que la sonie croît plus vite que la pression acoustique. Toutefois
comme le montre la figure 6 où sont représentées différentes fonctions de sonie, cette règle ne s’applique
pas toujours. C’est ainsi le cas pour le son de 1 000 Hz entre le seuil et le niveau de 30 phones mais aussi
pour les sons de fréquence inférieure à 1 000 Hz où d’une part la fonction de sonie commence à un
niveau plus élevé du fait que le seuil est plus élevé à ces fréquences et d’autre part croît ensuite plus
rapidement, ne rejoignant la courbe du son de 1 000 Hz qu’aux niveaux intenses. Enfin, pour le bruit
blanc la fonction de sonie n’est pas une fonction puissance du niveau SPL. Elle n’est pas une droite et
aux niveaux faibles la sonie du bruit
blanc croît plus vite que celle du
son de 1 000 Hz alors qu’au-dessus
de 60 dB elle augmente moins vite
en fonction de l’intensité.
D fig. 6 : Fonctions de sonie pour des sons purs de différentes fréquences
41
37273_Monographie_N45.Nais_vie_m41 41
La sonie est fortement tributaire du
contexte sonore et de façon plus
générale de l’environnement sonore avec des effets importants de
la fatigue et de l’adaptation. Elle
dépend également de la durée du
son. Si aux durées inférieures à une
seconde, la sonie augmente avec la
durée du son, aux durées longues
supérieures à quelques secondes, la
sonie décroît durant la stimulation
mais pour cela le niveau du son pur
ne doit pas dépasser 30 dB SL. Ce
phénomène d’adaptation est particulièrement important et rapide en
cas de neurinome de l’acoustique et
se quantifie au moyen du test
audiologique appelé « decay test ».
18/09/08 14:39:31
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
2.1.3.3. Le Seuil Différentiel d’Intensité (SDI)
Dans la perception courante de notre environnement, il est aussi important d’être capable d’apprécier le
niveau d’un son que de pouvoir détecter des changements d’intensité. Le seuil de discrimination – ou
seuil différentiel (« Difference Limens) - d’intensité, est la plus petite différence de niveau qui permette
de percevoir une différence entre deux sons. Le SDI se définit donc comme la plus petite différence de
niveau audible. On parle aussi parfois de différences justes perceptibles (« Just Noticeable Difference »).
Bien que les résultats expérimentaux diffèrent selon la méthode et le type de stimulus utilisés, la tendance
générale est similaire. Les SDI s’expriment en dB c’est-à-dire comme un changement dans le niveau au
seuil et entre un son d’intensité I et un autre son d’intensité I+ΔI, le SDI est donné par la formule :
SDIdB = 10log10[(I+ ΔI)/I]. Pour le bruit blanc et les bandes de bruit, le plus petit changement d’intensité
détectable est approximativement une fraction constante de l’intensité du stimulus, illustrant donc la
loi de Weber selon laquelle le plus petit changement détectable dans un stimulus est proportionnel à
l’amplitude du stimulus. Cela veut donc dire qu’au moins au-dessus de 20 à 30 dB SL, le SDI est
constant et légèrement inférieur à 1 dB. Ce n’est pas le cas avec les sons purs (Moore 2 002) pour
lesquels la pente de la fonction reliant ΔI en fonction de I est d’environ 0,9 et pour lesquels, alors que
la loi de Weber prévoit une augmentation du SDI à mesure que le niveau augmente, le SDI diminue.
Par exemple à 1 000 Hz, le SDI passe de 2 dB près du seuil absolu à 0,4 dB à 30 dB SL. Il faut toutefois
retenir que le SDI est de l’ordre de 1 dB.
Ainsi tous ces résultats illustrent les phénomènes de codage de l’intensité dans notre système auditif.
Un système fonctionnel nous rend différemment sensible aux fréquences, nous rend capable d’apprécier
non seulement la force d’une stimulation sonore mais aussi de détecter des changements dans le
niveau de stimulation. Tout cela se passe sur un large intervalle d’intensités avec une dynamique
atteignant au moins 120 dB. En dehors de toute attente, même la discrimination du niveau des sons
purs s’améliore à mesure que le niveau du son augmente et cela jusqu’à 100 dB SPL environ.
Références
1. Aibara R, Welsh JT, Puria S, Goode RL. (2 001). Human middle-ear sound transfer function and cochlear input impedance. Hear Res 152 :
100-109
2. Anderson CMB, Whittle LS. (1 971). Physiological noise and the missing 6 dB. Acustica 24 : 261-272.
3. Botte MC. (1 989). Perception de l’intensité sonore. Psychoacoustique et Perception Auditive. Botte, MC, Canévet G, Demany L,
Sorin (Eds), Série Audition, INSERM/SFA/CENT pp. 13-41.
4. Johnstone BM, Robertson D, Cody A. (1 982). Basilar membrane motion and hearing loss. Hearing and hearing prophylaxis. Scand
Audiol Suppl 16 : 89-93.
5. Puria S, Rosowski JJ, Peake WT. (1 997). Sound-pressure measurements in the cochlear vestibule of human-cadaver ears.
J Acoust Soc Am 101 : 2754-2770.
6. Rosowski JJ. (1 991). The effects of external- and middle-ear filtering on auditory threshold and noise-induced hearing loss.
J Acoust Soc Am 90 : 124-135.
7. Soderquist DR, Lindsey JW. (1 972). Physiological noise as a masker of low frequencies : the cardiac cycle. J Acoust Soc Am 52 :
1216-1220.
42
37273_Monographie_N45.Nais_vie_m42 42
18/09/08 14:39:33
2.2. Son utilisation
2.2.1. Localisation spatiale et stéréophonie
Pour construire notre espace sonore subjectif, il nous faut tout d’abord repérer la position des sources
acoustiques qui nous entourent. Cette opération est désignée sous le terme de « localisation ». Localiser
un son, c’est d’abord identifier son azimut et sa hauteur, donc sa direction, puis déterminer la distance
à laquelle est sa source dans cette direction. Mais l’environnement acoustique résulte en général de
l’action simultanée de plusieurs sources qui de plus peuvent être en mouvement dans les trois
dimensions. La combinaison de leurs rayonnements produit un champ acoustique complexe que le
système auditif doit traiter pour reconnaître séparément chaque source.
La localisation des sources sonores par le système auditif se fait toujours à partir des caractéristiques
du champ acoustique capté par les deux oreilles. En première approximation, ce sont les différences
interaurales d’intensité et de temps d’arrivée qui constituent les indices essentiels à la localisation. En
fait de nombreux autres facteurs tels que la différence spectrale interviennent dans la localisation.
Entendre des deux oreilles apporte plusieurs avantages :
-les différences d’amplitude ou d’instant d’arrivée des sons aux deux oreilles fournissent des indices
qui contribuent grandement à la capacité de localisation des sources sonores,
-la capacité à détecter des signaux dans le bruit peut être améliorée par la comparaison des stimuli
qui atteignent les deux oreilles,
-lorsque l’audition est dirigée vers un son cible ou signal tel que de la parole en présence d’un bruit de fond,
le rapport signal-sur-bruit peut être bien plus fort sur une oreille que sur l’autre. Dans ces circonstances, les sujets sont capables d’utiliser l’oreille recevant le rapport signal-sur-bruit le plus élevé,
-lorsque les signaux qui atteignent les deux oreilles sont identiques, stimuli diotiques, la capacité à
discriminer ou identifier les signaux est souvent légèrement meilleure que lorsque les signaux
sont délivrés seulement à une oreille, stimuli monauraux.
Différence interaurale de temps (DTI)
Lorsqu’un son est capté par une oreille, il existe un délai de propagation lié à la distance entre la source
sonore et l’oreille, la vitesse de propagation du son dans l’air étant d’environ 300 m/s. Selon l’orientation
de la source par rapport à la tête ce délai peut être différent entre les deux oreilles. En ce qui concerne
les différences de temps d’arrivée aux oreilles, Feddersen et al (1 957), modélisent la différence
interaurale (DTI) de temps en fonction de l’angle de l’azimut de la source. Le maximum se situe à 90°
et est de l’ordre de 0,6 ms, ce qui correspond à une différence de distance parcourue d’environ 19 cm,
valeur approximative de la distance entre les 2 oreilles. À 0° et 180°, la DTI est nulle, le son en provenance
de la source mettant le même temps pour atteindre les oreilles.
Différence interaurale d’intensité (DII)
Plusieurs facteurs peuvent influencer la différence d’intensité captée par les deux oreilles. Dans le cas
extrême celle-ci peut atteindre jusqu’à 40 à 60 dB : c’est le cas lorsque la source est dans le méat auditif
de l’une des deux oreilles.
43
37273_Monographie_N45.Nais_vie_m43 43
18/09/08 14:39:37
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
Lorsqu’un son est capté par une oreille, il existe une atténuation de l’intensité du son en fonction de
la distance de la source sonore à l’oreille. Chaque fois que la distance entre la source et oreille double,
l’intensité du son est réduite de 6 dB.
L’ombre de la tête et les différences géométriques des pavillons peuvent aussi avoir un effet important
sur l’intensité des sons captés. Ces différences sont fonction des fréquences et de la distance à la
source. En effet, pour les fréquences graves, jusqu’à 800 Hz, l’effet de l’ombre de la tête est quasiment
nul ; par contre, au-delà de 2000 Hz, cet effet peut atteindre plusieurs dizaines de dB. Du fait des
différences morphologiques des pavillons, de grandes variabilités interindividuelles de la DII sont
constatées.
Démasquage binaural
La sélectivité fréquentielle n’est pas le seul élément qui régisse la localisation masquée. Le masquage
dépend aussi du décalage temporel entre signal et masque et des positions respectives de leurs sources
dans l’espace. La sélectivité temporelle fait plutôt partie du cadre plus général du démasquage. La
notion de démasquage binaural provient des travaux des équipes de Langmuir (1 944) et de Hirsh
(1 948) pour les sons purs et de Licklider (1 948) pour la parole. Ces travaux ont montré que la capacité
à détecter des signaux dans le bruit peut être améliorée par la comparaison des stimuli qui atteignent
les deux oreilles. En effet, si un signal de parole est mélangé à du bruit et envoyé dans une oreille, le
fait d’envoyer le même bruit dans l’autre oreille améliore considérablement l’intelligibilité.
2.2.2. La fonction d’alerte
L’audition est le sens essentiel de la communication, mais il n’est pas le seul ; la vision et l’odorat revêtent
aussi une importance à ne pas négliger. Quant au toucher, il est aussi présent comme le goût.
Certes, concernant la fonction d’alerte, l’audition et la vision ont un rôle prédominant.
Il s’avère qu’il est difficile dans le cadre de la fonction d’alerte chez l’homme de séparer l’audition
et la vision.
On ne peut oublier le rôle que va revêtir, à partir d’un signal d’alerte, l’orientation vers ce signal de
sens nécessaire à son identification grâce à la réaction motrice éventuelle adaptée.
2.2.2.1. Le système auditif a des capacités d’analyse.
Les stimuli sensoriels activent la substance réticulée ascendante du tronc cérébral et le noyau réticulaire
thalamique. C’est à partir de ces structures que sont consultés le système limbique de motivation et
les aires d’intégration sensorielles péri-sylviennes.
De leur côté, le thalamus et le système limbique sont connectés avec les aires pré-frontales qui, en
interaction avec les aires d’intégration sensorielles péri-sylviennes codent les stimuli en fonction de
leur pertinence ; le noyau réticulaire thalamique va, ou bien favoriser le passage des stimuli vers le
niveau de traitement supérieur ou, au contraire, les filtrer s’ils ne sont pas pertinents pour la tâche en
cours d’exécution. Le néostriatum établit des connexions qui permettent l’activation des aires préfrontales. Les colliculi (supérieurs pour les stimuli visuels, inférieurs pour les stimuli auditifs) le cortex
44
37273_Monographie_N45.Nais_vie_m44 44
18/09/08 14:39:38
limbique et le cortex pré-moteur génèrent des réactions motrices d’orientations corporelles vers les
stimuli cibles. Le système attentionnel agit de façon permanente sur l’activité mentale et particulièrement
sur les activités linguistiques. La maturation de ce réseau séquentiel et parallèle intervient notablement
dans le développement cognitif et linguistique au cours des premières années de la vie.
2.2.2.2. L’audition et la fonction d’alerte pendant le sommeil
Faisant référence à une publication d’Hélène BASTUJI parue en 1995 dans le « journal of clinical
neurophysiology » se basant sur l’étude des potentiels évoqués tardifs durant le sommeil, ce travail
permet d’affirmer que le cerveau semble capable à tous les stades de sommeil de détecter un stimulus
anormal ou inhabituel.
2.2.2.3. Le rapport signal-bruit
La plupart des situations essentielles de communication se caractérisent par le fait que le signal
acoustique utile, celui que l’on veut entendre et comprendre, est pollué par des signaux parasites :
bruit de circulation routière, de machine, brouhaha de conversation, perturbé par les échos ou dégradé
par la distance.
L’enjeu est de détecter, de discriminer le signal acoustique dans le bruit. La question de la communication
et en l’occurrence la fonction auditive d’alerte dépendent de la nature acoustique des différents
signaux et du rapport signal-bruit.
Le degré de gêne pour percevoir le signal acoustique dans le bruit de fond relève de différents
facteurs. Il en est de même pour la détection d’un signal d’alerte.
Les facteurs acoustiques sont la sonie, le spectre, les paramètres temporels et la durée.
Exprimé en décibels, le rapport du signal au bruit est la différence entre le niveau du signal et le niveau
du bruit ; il indique le rapport des pressions ou des intensités acoustiques.
Un rapport signal-bruit positif signifie que le signal est plus grand que le bruit. Un rapport nul signifie
que le signal et le bruit sont au même niveau.
Un rapport négatif signifie que le signal est plus faible que le bruit.
Ce rapport est une indication globale qui ne tient pas compte de la nature propre du signal et du
bruit. La comparaison des spectres est plus riche d’enseignement. La perception du signal est d’autant
plus difficile que ce signal a un spectre aigu masqué par le bruit de fond qui a des composantes graves
masquantes.
Le spectre de la parole appelé, international long term average speech spectrum, est le même pour
plusieurs langues mais le poids de chaque bande fréquentielle pour l’intelligibilité varie beaucoup d’une
langue à l’autre.
Ainsi, le spectre du brouhaha est proche de celui de la parole alors que le bruit de cafétéria comporte
d’autres bruits qui compromettent l’intelligibilité.
2.2.2.4. Facteurs physiologiques
La situation de l’auditeur par rapport aux deux sources sonores est importante. Lorsque les conditions
45
37273_Monographie_N45.Nais_vie_m45 45
18/09/08 14:39:40
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
de l’audition stéréophonique ne sont plus réunies par atteinte des capacités de perception spatiale, le
sujet distingue difficilement des sources sonores même si elles sont physiquement séparées dans
l’espace.
Le système auditif de l’homme est tel que son audition est directionnelle.
L’effet directif du pavillon : l’indice de directivité qui représente l’atténuation d’un champ sonore
diffus par rapport à une source frontale de même puissance d’une oreille ouverte est de 3 décibels
entre 2 et 5 kHz.
L’effet stéréophonique : l’audition stéréophonique améliore de 2 à 3 décibels le rapport signal-bruit
requis pour atteindre le même taux d’intelligibilité.
Le démasquage binaural : l’audition binaurale abaisse le seuil masqué et améliore le rapport signalbruit.
Mais dans les facteurs physiologiques pèsent aussi l’activité du sujet, le moment de la journée,
l’état de vigilance ou de sommeil, l’attention, la mémoire.
2.2.2.5. Facteur psychologique.
La pertinence du bruit perçu, l’intérêt qu’il présente pour l’auditeur est essentiel et pèse dans
l’intelligibilité.
2.2.2.6. Fonction auditive d’alerte et surdité.
Dans les surdités totales et unilatérales, on observe une perte de la localisation sonore donc une
diminution de la fonction d’alerte.
Dans les demi-surdités et surdités sévères, on constate que :
-seuls les bruits forts sont perçus,
-le rapport signal-bruit est très perturbé,
-la fonction d’alerte doit être compensée.
2.2.2.7. Les mécanismes de compensation
Ils agissent par l’intermédiaire de la vision, l’attention, l’accompagnant ou plutôt le locuteur (expression
du visage, lecture labiofaciale, geste).
L’appareillage auditif est un mécanisme de compensation ; il est indiqué même s’il ne restaure que la
fonction d’alerte.
Dans le cas particulier des activités professionnelles en milieu bruyant, des consignes de sécurité
doivent être strictes. Le port du casque anti-bruit est indiqué. Les signaux forts sont accompagnés
d’une signalisation lumineuse.
2.2.2.8. Conclusion
Dans le cadre de la fonction d’alerte, l’audition a une place privilégiée avec la vision. La réponse fait
appel au même effecteur que la fonction de communication, c’est-à-dire aux effecteurs moteurs, pieds
et mains, mais aussi au larynx et à ses résonateurs : « au feu ! », « sauve qui peut ! », « attention ! ».
46
37273_Monographie_N45.Nais_vie_m46 46
18/09/08 14:39:41
2.2.3. L’audition dans le bruit
L’audition puis la compréhension dans le bruit dépendent de nombreux facteurs, certes périphériques,
mais dépendent aussi d’analyses très complexes au niveau des centres.
Est considéré comme bruit, tout son perturbant l’audibilité ou la compréhension d’un signal, voix ou
autre bruit. Penchons-nous sur les effets d’un stimulus sonore.
2.2.3.1. L’effet de masquage fréquentiel
Le bruit est un phénomène complexe, périodique. En mathématiques, Fourier nous a appris que toute
fonction périodique continue sur un intervalle peut se décomposer en une somme infinie de fonctions
sinusoïdales dont les fréquences sont des multiples d’une fréquence de base dite « fondamentale ».
fig. 7
fig. 8
fig. 7 : Phénomène périodique en fonction du temps
fig. 8 : Décomposition en série de Fourier : la fonction représentée par la courbe verte, complexe mais périodique, est la somme des fonctions
sinusoïdales représentées par les courbes rouge, bleue et jaune
Comme le mathématicien, le système auditif périphérique est capable de décomposer un signal périodique complexe en série de Fourier. En effet, il se comporte comme un banc de filtres capables de trier
et décomposer les sons complexes en signaux « élémentaires » avant de les transmettre aux structures
centrales. Plus les filtres de l’oreille sont
étroits en fréquence, plus la décomposition et l’analyse du phénomène périodique complexe sont fines et précises.
On a constaté que la stimulation d’un
filtre modifie la sensibilité des filtres adjacents (fig. 9) : c’est l’effet de masquage
fréquentiel.
d
fig. 9 : La stimulation d’un filtre(«masquage») modifie
la performance des filtres adjacents et altère le seuil
de perception (courbe rouge)
47
37273_Monographie_N45.Nais_vie_m47 47
18/09/08 14:39:43
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
L’importance du masquage fréquentiel dépend de l’énergie du bruit de masquage mais aussi de sa
fréquence, les fréquences graves ayant un pouvoir de masquage bien supérieur à celui des fréquences
aiguës.
On comprend ainsi que, chez le malentendant, l’élargissement des filtres augmente nettement l’effet
de masquage fréquentiel et de manière prépondérante, sur les basses fréquences.
2.2.3.2. L’effet de masquage temporel
Deux sons séparés d’un bref silence peuvent se masquer mutuellement, phénomène lié aux divers
temps de réaction et de recouvrement du système auditif, de l’ordre de quelques millisecondes.
Lorsque le son masquant précède le son masqué, on parlera de masquage de postériorité et inversement,
d’effet de précédence.
D fig. 10 : effet de masquage temporel
2.2.3.3. Le traitement du bruit par le système auditif
Il est essentiellement binaural et nous nous proposons de l’expliciter.
Plusieurs effets, délai inter-aural, atténuation en fonction de la distance, déphasage, masquage
de la tête et effet du pavillon des oreilles permettent de présenter aux deux oreilles deux messages
sonores non parfaitement égaux. C’est au travers de cette différence que l’individu sera capable
de « démasquage binaural » permettant, entre autres la localisation et le regroupement des
informations sonores en scènes auditives.
Ensuite, la comparaison avec des situations antérieures mémorisées pour déboucher sur une
conscience de la situation sonore, améliore la focalisation du cerveau sur le signal à discriminer.
Le délai inter-aural : Interaural Time Différence (ITD)
Lorsqu’un son est émis en dehors de l’axe frontal, il existe une petite différence de temps notée
Δt dans la perception du début du son par les deux oreilles.
48
37273_Monographie_N45.Nais_vie_m48 48
18/09/08 14:39:45
∂ fig. 11 : délai inter-aural
La source est à gauche, le trajet est
plus long pour atteindre l'oreille
droite
L’atténuation par la distance : Interaural Intensity Différence (IID)
Un doublement de la distance diminue la puissance acoustique de 6 dB.
∂ fig. 12 : Atténuation de la
puissance acoustique en fonction
de la distance
Notre système auditif est capable d’analyser l’atténuation de l’énergie en fonction de la distance et sa
performance à le faire est d’autant plus grande que la source est proche.
Le déphasage
Lorsque le son n’est pas émis dans l’axe frontal, la phase du son parvenant aux deux oreilles n’est pas
la même. Le déphasage est d’autant plus important que le son est aigu mais l’analyse par le système
auditif ne se fait que pour les fréquences graves inférieures à 1 500 Hz.
∂ fig. 13 : déphasage interaural
L’effet de masquage du fait de la tête. Pour les fréquences au-delà du 1 kHz, l’effet d’ombre de
la tête est présent, jusqu’à -20 dB. Les fréquences graves « font le tour de la tête ».
49
37273_Monographie_N45.Nais_vie_m49 49
18/09/08 14:39:49
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
fig. 14 :
effet de masquage dû à la présence
de la tête
d
L’effet pavillonaire et azimut du signal
La conque a pour effet de réfléchir et ainsi concentrer les sons vers l’entrée du conduit auditif. En
fonction de l’azimut et de la fréquence, il y a apparition d’interférences constructives (sons en phase)
ou destructives (en opposition de phase).
D fig. 15 : différences des intensités entre le son mesuré en champ libre et celui mesuré à l’entrée du conduit auditif en fonction de la
fréquence ou de l’azimut.
Santon (1996) a mesuré en champ libre l’intelligibilité de la parole (azimut 0°) en fonction de l’azimut
du bruit de 0 à 180°. L’émergence est maximum et à peu près stable entre 60° et 120° avec une
amélioration du rapport S/B de 10 dB.
2.2.3.4. L’audition dans le bruit par démasquage binaural
Le délai inter-aural, l’atténuation en fonction de la distance, le déphasage, le masquage de la tête et
l’effet du pavillon des oreilles « construisent », avec le temps et l’apprentissage, les capacités de
50
37273_Monographie_N45.Nais_vie_m50 50
18/09/08 14:39:52
localisation et de latéralisation d’un sujet avec, bien évidemment, participation de la mémoire et des
références visuelles.
Les effets décrits ci-dessus induisant des différences non négligeables de perception des sons entre
les deux oreilles, l’analyse binaurale réduit les effets de masque fréquentiel et temporel.
De plus, lorsque le bruit présente des fluctuations de niveau, le cerveau est capable de puiser de
l’information dans les creux ou « vallées » de masquage pour compenser le manque d’informations
durant les périodes où le rapport S/B est trop défavorable (dip listening).
Le démasquage binaural se traduit par l’abaissement du seuil masqué en monaural par rapport à
l’audition binaurale. Il aboutit à une amélioration du rapport signal/bruit. Suivant la complexité de la
situation sonore, l’amélioration du rapport S/B est de 3 à 15 dB.
Tout prescripteur devrait essayer, au cours d’une soirée un peu bruyante, de se boucher une oreille, les
yeux fermés, pour comparer ses possibilités de discrimination dans le bruit. Il n’y aurait plus jamais de
prescription d’appareillage monaural quand il est possible de faire un appareillage stéréophonique !
Pour ajouter au texte s’il en était besoin, les résultats d’expérimentations rapportées ci-après sont
particulièrement explicites.
∂ fig. 16: perception monaurale et binaurale
d’un signal dans le bruit
A : un signal (vert) et un bruit (rouge) sont
présentés à un sujet au casque côté droit. Le signal
est inaudible.
B : On ajoute du côté gauche uniquement le bruit
(le même qu'à droite), le signal devient audible.
voir nouveau schéma page suivante Î
51
37273_Monographie_N45.Nais_vie_m51 51
18/09/08 14:39:58
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
∂ fig. 17 : effets de divers déphasages sur la
perception d’un signal dans le bruit.
Signal bruit toujours identiques dans l'OD
Un signal (vert) et un bruit (rouge) sont présentés
à un sujet au casque.
A : le signal et le bruit sont identiques à droite et à
gauche, le signal est inaudible.
B : on déphase le signal de ∏ (pi) radians
uniquement dans l'OG, il devient audible.
C : on déphase le signal de ∏ (pi) radians
uniquement dans l'OG, il devient audible.
D : on déphase le signal de ∏ (pi) radians
uniquement dans l'OG, il devient inaudible.
fig. 18 : effets de l’azimut sur la perception du
signal dans le bruit. Î
Déphasage
p
g de l'azimut, le signal
g
devient audible
52
37273_Monographie_N45.Nais_vie_m52 52
18/09/08 14:40:00
2.2.3.5. L’écoute dans les « vallées » : dip listening
Pour un normo entendant, un bruit stationnaire produit un effet de masquage plus important qu’un
bruit modulé en amplitude d’énergie identique. Le cerveau arrive à tirer parti des quelques instants de
rapports signal/bruit plus favorable pour améliorer l’intelligibilité. Cela ne semble pas être le cas des
malentendants.
2.2.3.6. L’analyse de scènes auditives
D’une manière générale, le système auditif regroupe entre eux les sons présentant des similarités :
-sons commençant au même instant,
-sons provenant d’un même endroit,
-harmoniques d’un son fondamental, important pour la voix.
Cette capacité semble jouer un rôle important dans la possibilité de se « concentrer » sur un signal et
en favoriser l’émergence.
2.2.3.7. Conséquences pour l’appareillage du malentendant
L’atteinte cochléaire :
-élargit les filtres de l’oreille d’où augmentation de l’effet de masque fréquentiel et diminution de
la sélectivité fréquentielle,
-augmente l’effet de précédence et allonge l’effet de masquage temporel,
-induit une bande passante courte ou la présence de zones cochléaires mortes réduisant fortement
la perception des harmoniques.
Pour le patient appareillé :
-dans le cas d’une mono-stéréophonie, appareillage d’une oreille déficiente en complément d’une
oreille saine, le temps de traitement du signal des anciennes aides auditives induisait une modification du délai inter-aural. Pour les aides auditives récentes, le délai entre l’entrée du son
par le microphone et la sortie par l’écouteur s’est réduit à quelques millisecondes,
-le réglage de type WDRC, de plus en plus courant, consistant à augmenter le gain des sons les plus
faibles, perturbe l’analyse de l’atténuation de l’intensité par la distance,
-les différences de réglages entre les deux aides auditives, surtout si les deux aides ne sont pas
exactement du même modèle, peuvent induire un déphasage supplémentaire nuisant à l’analyse des phases,
-le positionnement d’un contour omnidirectionnel, 1 seul microphone, sur le dessus du pavillon de
l’oreille réduit à néant l’effet pavillonaire pour la localisation,
-l’équilibre stéréophonique est parfois délicat à restituer surtout sur les aides auditives
« simplistes ».
53
37273_Monographie_N45.Nais_vie_m53 53
18/09/08 14:40:05
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
54
37273_Monographie_N45.Nais_vie_m54 54
18/09/08 14:40:05
2.3. Ses rapports avec d’autres fonctions
2.3.1. Phonation, boucle audiophonatoire
2.3.1.1. La phonation
La phonation est l’ensemble des mouvements qui contribuent à l’émission de la voix et du langage
articulé.
Si la voix ne se résume pas au larynx, à l’inverse, le larynx n’est pas que phonatoire. En effet, au cours
de l’évolution, la fonction phonatoire du larynx est apparue bien plus tardivement que ses deux
fonctions vitales premières que sont :
- la respiration aérienne spontanée en maintenant ouverte la partie supérieure de la trachée,
- la sécurité dans la déglutition en fermant l’arbre respiratoire lors de l’ingestion alimentaire.
Les premières ébauches de larynx phonatoire s’observent chez les amphibiens, tandis que les oiseaux
se dotent d’un syrinx placé au milieu de l’arbre respiratoire leur permettant une riche palette de sons
modulés. On peut à ce propos noter que les oiseaux ont certes des capacités innées à chanter mais
qu’il semble également exister chez eux un apprentissage vocal, les rendant capables d’imitation
comme on l’observe par exemple chez les mainates. Le chant des oiseaux est communication à
l’intérieur d’une espèce, le paysage sonore des chants d’oiseaux est spécifique d’une région, d’un
pays.
Chez les mammifères, apparaît une structure laryngée spécialisée pour porter les cordes vocales : le
cartilage cricoïde. Les émissions sonores des mammifères marins ont été longuement étudiées et leurs
fréquences, basses en particulier, leur permettent de signaler leur présence à des centaines de
kilomètres.
Mais c’est essentiellement la descente du larynx dans le cou, aménageant ainsi un bel espace
supralaryngé, qui augmente la variété des configurations possibles des cavités situées entre le larynx
et les lèvres donnant les possibilités d’émettre un langage articulé.
Cependant, même chez les chimpanzés, au larynx anatomiquement presque humain, et élevés chez les
hommes depuis la naissance, le stock de mots après plusieurs années d’effort n’est que de 3 ou 4 mots
alors qu’ils sont capables d’utiliser un langage gestuel ou symbolique atteignant une centaine de
signes.
En fait, la différence fondamentale entre l’animal et l’homme ne réside pas dans le larynx mais dans
les structures cérébrales : Aucun des primates étudiés n’a de centre de la vocalisation situé dans les
aires corticales motrices. Il n’existe pas de centre de la vocalisation chez l’animal mais un ensemble de
centres et de réseaux correspondants au comportement vocal selon une situation donnée.
La communication acoustique semble être chez l’animal, hormis les oiseaux, un phénomène inné, avec
un système « émetteur-récepteur » non volontaire, répondant à quatre grandes situations nécessaires
à la survie de l’espèce : se nourrir, signaler l’ennemi, se reproduire et vivre en société.
Chez l’animal, le contrôle auditif n’est pas nécessaire pour aboutir à ses émissions sonores.
Seul parmi les primates, l’homme est capable d’avoir un contrôle volontaire de ses émissions vocales,
de les apprendre par le contrôle audio-phonatoire.
55
37273_Monographie_N45.Nais_vie_m55 55
18/09/08 14:40:08
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
C’est sans doute l’homme de Cromagnon, un Homo Sapiens, qui est le premier à avoir présenté un
langage articulé. En effet la station verticale établie depuis l’Homo Erectus redresse le cou, permet une
mobilité verticale plus importante du larynx et l’éloigne du voile du palais par abaissement du
larynx.
Mais le plus important chez l’Homo Sapiens est l’évolution du cerveau : le crâne s’arrondit et le front
se redresse pour développer un lobe frontal permettant d’émettre volontairement un langage
articulé.
Cette particularité, associée à l’augmentation de la taille de son cerveau, explique que parmi tous les
phonèmes qu’il peut émettre l’homme en ait choisi et combiné certains pour arriver au langage. Celuici est un code que seuls peuvent partager les hommes d’un même groupe social parlant.
Ceci explique que le contrôle auditif soit absolument nécessaire pour l’apprentissage autodidacte de
la parole.
2.3.1.2. Caractéristiques de la phonation humaine
La voix humaine est caractérisée par sa hauteur, son timbre et son intensité.
L’intensité de la voix dépend de l’amplitude vibratoire des cordes vocales. La voix parlée est émise aux
alentours de 45 à 65 dB, la voix chantée peut atteindre 90 dB voire 95 dB chez certains ténors
d’opéra.
La voix est un son périodique complexe dont la fréquence la plus basse est appelée fondamentale. La
fréquence fondamentale donne la sensation de hauteur.
Le fondamental usuel de la voix parlée, celui le plus souvent utilisé spontanément, est en moyenne
chez l’homme de 110 Hz, chez la femme de 220 Hz et chez l’enfant de 300 à 400 Hz, alors que le cri
du nouveau-né voit son fondamental culminer à 600 Hz.
La voix humaine peut émettre dans le chant des sons entre 70 et 1 500 Hz : tout en bas de l’étendue,
la basse des Vêpres de Rachmaninoff et tout en haut la soprano de la Reine de la nuit de la flûte
enchantée de Mozart.
L’étendue d’une voix concerne les possibilités extrêmes d’une voix dans les fréquences graves et dans
les fréquences aiguës tandis que la tessiture désigne l’étendue où la voix est émise avec confort et
qualité vocale.
Le son complexe émis par le larynx génère aussi des harmoniques, multiples entiers de la fréquence
fondamentale : elles donnent le timbre de la voix.
Les harmoniques générées par le larynx sont modifiées par les résonateurs du conduit vocal qu’elles
traversent. Certaines zones fréquentielles sont renforcées par le pharynx, de 250 à 500 Hz, et d’autres
par la cavité buccale de 700 à 2 500 Hz.
Un « formant » est une zone de renforcement fréquentiel caractéristique d’un résonateur. Les voyelles
sont des sons émis par le larynx et qui sont modifiés par les 2 cavités pharyngée et buccale que
délimitent pointe et base de langue. Une voyelle aura donc 2 formants dont les valeurs respectives la
caractériseront.
56
37273_Monographie_N45.Nais_vie_m56 56
18/09/08 14:40:08
Les voyelles du Français sont à l’intérieur du triangle vocalique
délimité par les voyelles dites « cardinales » A I O U.
Les consonnes ne sont pas des sons périodiques mais des
bruits dont le spectre sonore est essentiellement fait de
fréquences aiguës, supérieures à 2000 Hz) : elles sont générées
par la fermeture complète ou incomplète du conduit vocal
interrompant l’écoulement de l’air phonatoire, « occlusives »,
ou le freinant, « constrictives ».
2.3.1.3. La boucle audiophonatoire
Audition et phonation ont une relation privilégiée : on appelle
boucle audiophonatoire la relation mutuelle particulièrement
riche et adaptée qui existe entre l’audition et la phonation et
D Schéma du triangle vocalique
donc la production de la parole, vectrice du langage oral
articulé. C’est une spécificité de l’espèce humaine.
Bien parler suppose une audition correcte, la sensibilité de l’oreille normale n’est pas la même pour
toutes les fréquences, elle est maximale pour les fréquences de la voix et de la parole humaine, voyelles
et consonnes.
On voudrait pouvoir dire que la fonction d’audition et la phonation sont faites l’une pour l’autre.
D Schéma du champ auditif avec le champ de la parole au milieu
57
37273_Monographie_N45.Nais_vie_m57 57
18/09/08 14:40:11
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
En ce sens le contrôle audiophonatoire est le processus indispensable à l’établissement d’une
communication purement orale.
Les sourds-muets des siècles passés, avant que ne viennent les possibilités de réhabilitation de l’audition
par les avancées technologiques, illustrent historiquement la nécessité d’entendre pour apprendre à
parler de façon autodidacte.
La boucle audiophonatoire se compose de :
-la perception par la cochlée d’un son complexe périodique ou non, la parole en particulier,
-la transmission au cerveau, par les nerfs, voies et centres auditifs sous corticaux d’une image du
son, suivant ses caractéristiques fréquentielles, temporelles, de timbre et d’intensité,
-un traitement central du signal le reconnaissant comme parole ou non parole et lui donnant un
sens,
-la mise en mouvement des organes phonateurs et des muscles responsables de la phonation et de
l’émission de parole, de chant ou de bruit,
-l’auto écoute et l’adaptation par essais et erreurs renforcée par l’encouragement du milieu.
La boucle audio phonatoire interne est la capacité d’émettre sa voix et sa parole en s’écoutant par voie
interne et externe.
On s’entend soi-même de 2 manières : par sa propre oreille et de façon interne à travers son crâne. Le
chemin parcouru par notre voix vers notre oreille nous sert à contrôler notre voix et notre parole. Il
existe 2 types de boucle externe : celle qui va directement de la bouche à l’oreille et celle qui se réfléchit
d’abord dans l’environnement avant d’atteindre l’oreille.
Dans l’audition « interne » le son parvient à l’oreille interne non plus par voie aérienne mais en utilisant
les structures vibratoires transmettant le son, muscles ligaments structures osseuses, jusqu’à la cochlée
nichée dans son carter osseux.
C’est ainsi que la perception de sa propre voix est un mélange de ces sensations auditives internes et
externes.
Cet autocontrôle est travaillé volontairement par le chanteur qui cherchera à adapter finement son
émission vocale à ce qu’il entend et attend de sa voix.
Le travail de la justesse, en particulier chez l’amusique qui entend juste mais chante faux consistera
précisément à corriger progressivement son émission vocale en l’adaptant à l’autoécoute. L’utilisation
de l’autoécoute « externe » par enregistrement est également intéressante.
L’imitateur qui s’imprègne totalement des caractéristiques segmentales et suprasegmentales de la
parole d’un autre, ainsi que de l’ensemble de ses attitudes et expressions, avant de la produire luimême est aussi une illustration particulière de cette boucle audiophonatoire.
Le timbre et la hauteur de la voix des enfants sourds et même de certains adultes devenus sourds sont
généralement perturbés. La première modification observée chez les enfants sourds profonds qui
viennent de bénéficier d’un implant cochléaire est l’amélioration de la qualité vocale.
De l’émission à la réception, de la réception au contrôle de l’émission, ce circuit fermé constitue la boucle
audiophonatoire dont la rupture entrave l’acquisition, l’utilisation et la transmission aux générations suivantes
de ce code linguistique oral fait d’un ensemble de sons doublement organisés et porteurs de sens.
58
37273_Monographie_N45.Nais_vie_m58 58
18/09/08 14:40:14
2.3.1.4. L’enfant
Le développement du langage oral chez l’enfant impose que son système auditif soit intègre et que
son système moteur se développe.
Les travaux sur les perceptions précoces des bébés ont bien démontré que le bébé est très précocement
capable de discriminer catégoriellement les composants de la parole mais aussi les traits
suprasegmentaux ainsi d’ailleurs que les indices visuels de la parole. En outre les tests d’écoute
dichotique montrent l’existence précoce d’une spécialisation hémisphérique gauche pour les sons de
parole et droite pour les sons non verbaux.
Mais la parole ne peut être encore son langage, pour parler il est nécessaire de coordonner de façon
complexe les mouvements de la respiration, du larynx, du pharynx, du voile du palais, de la langue, des
lèvres… Le nouveau né est inapte à la parole. L’enfant est, au sens étymologique du mot, « non parlant »
(lat : in-fans : in privatif-fari parler).
Le larynx du nouveau né est adapté aux nécessités de respiration et d’alimentation, il est placé de telle
façon que le bébé peut respirer en tétant.
Les modifications progressives du larynx du pharynx, du voile et de la langue, l’acquisition du contrôle
du cycle respiratoire vont lui permettre de contrôler petit à petit la phonation.
La descente du larynx dans le cou, avec la station debout vers 1 an à 18 mois, imitant le schéma
phylogénétique, associée au contrôle progressif de l’articulation vont lui permettre de maîtriser d’abord
les mouvements globaux puis les mouvements fins, le bout de la langue et les lèvres étant les derniers
à être domptés, vers l’âge de 5 à 6 ans.
Aux expressions vocales des premiers mois, traduisant bien-être ou malaise va succéder une période
de vocalisations volontaires où le nourrisson exerce ses possibilités, il fait des gammes : la place du
contrôle audio phonatoire interne est ici essentielle : chez ce grand compétent auditif l’exploration des
possibilités que lui offre son appareil phonatoire renvoyées à son oreille est un véritable autoérotisme…
Cependant, les interactions avec autrui, sa mère en particulier, lui permettent de régler sa voix sur celle
de son interlocuteur et d’imiter les intonations. Il commence aussi à devenir conscient de l’impact de
ses gazouillis sur autrui et à en user de façon sociale.
C’est à cette période que les premières émissions laryngées de l’enfant né sourd cessent de
s’enrichir.
Vers 5 à 6 mois, si l’enfant vocalise avec une extraordinaire diversité de sons où tout est possible, son
oreille par contre a commencé son travail de sélection et d’élimination : dans les signaux linguistiques
de son entourage il a déjà repéré les caractéristiques prosodiques de sa langue maternelle, et il va
maintenant perdre la discrimination de certains contrastes phonétiques, vocaliques puis consonantiques,
et ne conserver que ceux de sa langue.
Là encore, il n’est pas permis à l’enfant sourd de repérer ces signaux linguistiques ni de les traiter
ensuite comme porteurs de sens. Ils ne peuvent entrer dans l’antichambre de la parole représentée par
l’étape suivante, le babillage. Par contre il restera sensible à toute information linguistique non verbale
notamment visuelle y compris la lecture labiale de même qu’aux signes d’une langue signée, associés
aux expressions du visage.
59
37273_Monographie_N45.Nais_vie_m59 59
18/09/08 14:40:16
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
Le babillage marque une étape importante dans le développement de la parole : l’enfant commence à
produire des répétitions de syllabes, la syllabe étant l’unité rythmique de base des langues naturelles.
Toute langue est syllabique, s’analysant en termes de consonne et de voyelle, contraction et ouverture
du tractus vocal reliées par une transition. La production de ces syllabes, vers 7 à 8 mois, n’est plus
l’essai libre du bébé de 4 mois mais la maîtrise de la forme matérielle de la syllabe adulte.
On a pendant longtemps minimisé l’influence du milieu linguistique sur le babillage alors que
paradoxalement on découvrait les capacités perceptives du nourrisson, privilégiant les modèles
biomécaniques où le bébé sélectionne les gestes fondant les structures de base de l’articulation des
langues en général.
Finalement, le rôle des interactions précoces avec mise en jeu de processus de sélection comme dans
la perception a été mis en évidence. Il a été montré que le babillage avec ses intonations, sa prosodie,
sa façon de vocaliser, d’attaquer les sons ou les relâcher était différent selon les caractéristiques de la
langue parlée dans l’entourage (exemples : langue syllabique- Français-, langue accentuelle- Anglais,
langue à ton-Mandarin…).
On retrouve une parfaite adéquation entre la réorganisation de la perception et de la production, et
là encore le rôle fondamental de la boucle audiophonatoire, comme unité fonctionnelle.
Sur ce fond de plus en plus ressemblant à de la parole et sans solution de continuité nette, émergent
les premières formes reconnues comme mots, « papa, maman »… On quitte la répétition pour le mot
qui nomme, désigne, appelle. Les sélections sont dirigées vers un but, on sort de la phonétique, on
entre dans le langage.
2.3.2. Langage et cognition
La cognition regroupe les divers processus mentaux allant de l’analyse perceptive de l’environnement
à la commande motrice, en passant par la mémorisation, le raisonnement, les émotions, le langage…
La définition exacte de ce qu’est la cognition et des processus qu’elle met en jeu est l’objet de nombreux
débats dans les sciences contemporaines, psychologie, intelligence artificielle, philosophie, etc.… À la
suite de la Révolution cognitiviste, la perspective dominante depuis le milieu du XXe siècle regroupe
sous le terme de cognition les fonctions dont est doté l’esprit humain et par lesquelles nous construisons
une représentation opératoire de la réalité à partir de nos perceptions, susceptible en particulier de
nourrir nos raisonnements et guider nos actions (Wikipedia).
Le langage est la fonction cognitive la plus élaborée de l’être humain.
À l’instar de Saussure, considéré comme le père de la linguistique moderne, il est essentiel de faire la
distinction entre langage, langue et parole. Selon lui, le langage est la résultante de la parole et de la
langue.
Au sens large, le langage désigne tout un système de signes permettant la communication, au sens
strict, c’est la faculté humaine de constituer et d’utiliser une langue, en d’autres termes de communiquer
sa pensée.
La langue est un système particulier de signes et de règles propre à une même communauté langagière ;
elle est, de ce fait, institutionnelle. Elle se transmet et elle évolue.
60
37273_Monographie_N45.Nais_vie_m60 60
18/09/08 14:40:17
La parole désigne l’appropriation de la langue par le sujet parlant en fonction de son ressenti émotionnel.
La parole est donc l’usage individuel la langue.
Audition et langage
Comme le chapitre précédent l’a montré l’audition est une fonction indispensable à l’acquisition
« naturelle » d’une langue orale : le jeune enfant entendant est un autodidacte qui acquiert le langage
oral spontanément par l’imprégnation et l’imitation du monde parlant dans lequel il vit.
Il semble donc bien que, de façon innée, le nouveau-né humain puisse traiter l’environnement
linguistique dans tous ses aspects.
La prosodie est un élément important dans la première compréhension de la langue mais l’étape
essentielle est la prise de conscience que les mots ont un sens : un changement radical se produit alors
dans le traitement des sons avec la constitution du premier répertoire de mots : l’enfant n’est plus en
quête innée d’indices phonétiques mais en quête des formes auxquelles il peut attribuer une signification
et qu’il cherche à mémoriser. L’apprentissage autodidacte se met en place, les phénomènes de mémoire
apparaissent, la perception est maintenant au service d’un but : extraire du sens.
Alors que les nourrissons possèdent un dispositif sophistiqué de traitement phonétique reposant sur
des mécanismes acoustico-phonétiques de type analytique, la représentation des premiers mots est
globale. C’est généralement vers la première année que l’enfant acquiert cette aptitude, en même
temps qu’il acquiert la station debout et qu’il est face au monde et face à l’autre.
Le rôle de l’audition dans le développement ultérieur du langage, compréhension et expression est
majeur : par essais et erreurs, par ses interactions avec son entourage, l’enfant teste ses capacités
langagières d’agir sur le monde qui l’entoure, raisonne et élabore sa pensée. Avec le « Je », vers 3 ans,
il prend conscience de son identité propre et de sa situation de locuteur dans la communication. À cet
âge apparaissent aussi les questions lui permettant de nommer et s’approprier le monde qui l’entoure.
Le langage et les capacités cognitives vont ensuite se développer de façon quasi exponentielle.
À cet âge également ses capacités motrices et notamment manuelles s’affinent avec installation
progressive de la dominance manuelle. Le test dichotique pratiqué chez l’enfant montre que l’avantage
de l’oreille droite chez le droitier se met en place entre 3 et 6 ans, traduisant l’installation de la
dominance cérébrale gauche pour le langage.
Le cerveau auditif sous l’influence capitale des stimulations cochléaires achèvera sa maturation vers
4 à 6 ans. Cette période est appelée sensible ou critique, la cochlée jouant à ce moment-là un rôle
majeur dans le développement du cerveau en particulier linguistique. C’est dans cette période que
l’enfant doit être « exposé » à une langue. L’accès à une langue signée répond d’ailleurs aux mêmes
exigences mais avec d’autres entrées sensorielles.
Si l’aptitude au langage semble bien un caractère inné, l’acquisition de la langue ne dépend que de
l’environnement linguistique – et bien sûr affectif - comme l’ont bien démontré les cas d’enfants
sauvages (Kaspar Hauser et Victor de l’Aveyron, sans langage oral- ni gestuel- L’instinct du langage
ne s’exprime qu’en présence des autres membres du groupe, parlant pour une langue orale ou signant
pour une langue gestuelle.
61
37273_Monographie_N45.Nais_vie_m61 61
18/09/08 14:40:19
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
L’enfant sourd en particulier prélingual n’a accès ni à la première étape de perception acousticophonétique avec son tri sélectif des phonèmes de la langue maternelle, ni à l’étape linguistique où les
formes sonores prennent sens.
La parole de son entourage, de sa mère lui parlant ne prend sens que par la vision des expressions du
visage, du mouvement des lèvres, du regard mais sans doute aussi par tous les affects qui se
transmettent en même temps.
En l’absence de prise en charge, la voix de l’enfant sourd se détériore et le langage oral n’apparaît pas.
Actuellement, les réhabilitations auditives efficaces et précoces associées à une éducation spécifique
étendue à l’entourage familial permettent l’éclosion du langage oral beaucoup plus aisément que par
le passé où l’accès à une langue orale était, pour l’enfant sourd profond, une véritable conquête.
Si l’enfant sourd est né de parents sourds signant c’est la langue signée qui va se transmettre de façon
autodidacte, en dehors de l’audition et de la boucle audiophonatoire. Les études en neuroimagerie ont
mis en évidence que la langue des signes apprise précocement induit le recrutement des aires corticales
classiquement activées chez les sujets entendants. En l’absence d’afférences sensorielles auditivoverbales la carte corticale des aires auditives se modifie, devenant réceptive à des stimuli d’autres
modalités sensorielles.
L’audition est une fonction corticalisée inséparable du langage oral y compris les fonctions cognitives.
Elle est soumise à la plasticité cérébrale qui consiste en la capacité d’adaptation et de transformation
de notre système nerveux central face à des modifications internes de croissance ou externes de
pathologies.
2.3.3. Avec la fonction d’équilibration
Poissons, il nous fallait, pour survivre, utiliser des informations capables de renseigner sur les caractères
du vecteur gravité en un point donné, ainsi que de permettre la perception des mouvements d’eau à
notre voisinage immédiat : aussi, un simple tube ouvert sur le milieu aquatique, bordé de quelques
cellules ciliées va-t-il suffire pendant de nombreuses années à assurer la nécessaire fonction
« d’équilibration ».
Peu à peu, le tubule, en se refermant sur lui-même, aboutit à une cavité, remplie d’un peu d’eau de
mer, liquide baptisé beaucoup plus tard « endolymphe ». Ce labyrinthe membraneux est situé à l’intérieur
d’une enceinte fermée, la capsule otique, de nature cartilagineuse chez les vertébrés inférieurs,
constituant l’écrin de l’organe sensoriel proprement dit. Entre les deux cavités, existe un tissu conjonctif
gorgé de « périlymphe ».
Ainsi protégé du monde extérieur, l’ensemble est devenu plus sensible et plus précis dans l’analyse des
informations gravitationnelles : le labyrinthe est né.
Ce labyrinthe peu à peu se différencie :
-d’un point de vue géométrique, devenant complexe et tortueux,
-d’un point de vue sensoriel, les récepteurs se spécialisent.
Puis survient notre débarquement sur terre : il impose de nouvelles structures capables de percevoir
d’autres vibrations propagées dans le fluide aérien.
62
37273_Monographie_N45.Nais_vie_m62 62
18/09/08 14:40:20
La lagaena qui ne constituait jusque-là qu’un modeste diverticule situé sur les côtés du labyrinthe
s’allonge chez les reptibles et mérite dès lors le nom de cochlée. Puis elle s’enroule en hélice jusqu’à
réaliser deux tours trois quarts chez l’homme, prenant alors le nom de limaçon.
Dans le même temps, cavité tympanique et système tympano-ossiculaire voient le jour, assurant une
transmission énergétique à excellent rendement.
On constate donc que cochlée et vestibule forment un remarquable couple qui partage :
-le même domicile,
-la même constitution à des stades de différenciation près,
-la même fonction, à des différences fréquentielles près.
On peut donc aisément deviner qu’en clinique humaine, les pathologies de l’un des partenaires seront
ou, à tout le moins, retentiront sur celles de l’autre. Le clinicien le sait parfaitement lorsqu’il traite une
maladie de Menière, un phénomène de Tullio, une fistule labyrinthique, certaines pathologies
malformatives ou encore dysimmunitaires.
Ailleurs, la relation paraît plus lointaine : surdité brusque, presbyacousie…
Tout trouble de l’audition, a fortiori s’il est brutal et unilatéral, entraîne de façon au moins passagère
un trouble de la perception de l’espace, donc de l’équilibration. La réciproque est plus difficile à mettre
en évidence : la neuronite qui oblige le malade vomissant à garder le lit faute de ne pouvoir tenir
debout se caractérise par une audition réputée normale…
En réalité, la profonde différence entre cochlée et vestibule réside à l’heure actuelle dans nos capacités
à les explorer : audiométries, recueils des potentiels évoqués auditifs, enregistrement des otoémissions,
sont tout autant d’examens capables de quantifier le fonctionnement cochléaire avec finesse,
reproductibilité et analyse dans une bande de fréquence physiologique. Il en va tout autrement de
l’exploration de l’organe de l’équilibration qui n’en est qu’aux balbutiements d’une analyse fréquentielle
incomplète mais combien prometteuse.
Il n’est d’ailleurs pas encore dans l’habitude des praticiens de réaliser systématiquement l’étude du
fonctionnement labyrinthique devant toute atteinte cochléaire : combien d’examens
vidéonystagmographiques sont-ils proposés à nos malentendants ?
Ce n’est qu’au prix de ces études que les relations entre organe de l’équilibration et d’audition seront
mieux connues, qualifiées et donc traitées.
2.3.4. Avec les fonctions de lecture et d’écriture
Lecture et écriture
L’apprentissage de la lecture et de l’écriture suppose l’intégrité anatomique et fonctionnelle d’un
ensemble de structures interconnectées et de fonctions : vision, audition, cognition et langage.
Les apprentissages demandent que le langage oral ait eu un développement harmonieux ainsi que la
cognition, les habiletés motrices. Ce sont des aires cérébrales qui fondent l’étude des lettres et leur
assemblage.
Le code écrit est un système de conventions graphiques auxquelles sont associées des réalités de sens
et de signification. La lecture est un ensemble de procédures de déchiffrage ou de décodage,
63
37273_Monographie_N45.Nais_vie_m63 63
18/09/08 14:40:22
Monographie
naissance vie et mort de l'oreille
chapitre
02
Sa vie
d’identification et de compréhension des mots écrits. La lecture part de la découverte des lettres de
l’alphabet et des représentations graphiques.
L’objet de la lecture porte sur les catégories linguistiques, lettres, syllabes, mots, phrases, textes et les sens.
Rappels pathologiques
- un enfant peut lire un texte et ne pas en comprendre le sens ;
- une surdité chez l'enfant entraîne une perturbation dans l’acquisition de la lecture. Toute “dyslexie”
demande un examen audiométrique complet comme tout retard scolaire.
ECRITURE
Graphie • Phonie • Sens
Vision
Rédaction
Dictée
Mécanismes cognitifs : mémoire, attention, éveil
Message oral : articulation, rythme, durée
Centres du langage : Expression, compréhension
Environnement sonore : rapport S/B
Situation psychologique
Audition
Centres moteurs et sensitifs
Mécanismes cognitifs : mémoire, attention, éveil
La main
Centres du langage : Expression, compréhension
Texte
Situation psychologique
Centres moteurs et sensitifs
La main
Vision
Texte
64
37273_Monographie_N45.Nais_vie_m64 64
18/09/08 14:40:23
LECTURE
Lettres, graphèmes • Sens, signifiant• Sens, signifié
Lecture silencieuse
Lecture à haute voix
Texte lu
Texte lu
Vision
Vision
Centres du langage
Centres du langage
Cognition : mémoire, attention, éveil
Cognition : mémoire, attention, éveil
Compréhension
Etat psychologique
Compréhension
Phonation
Etat psychologique
Expression
Audition
Boucle audiophonatoire
Expression
Parole, articulation,
rythme, durée
Environnement
Sonore
Rapport S/B
65
37273_Monographie_N45.Nais_vie_m65 65
18/09/08 14:40:26
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
66
37273_Monographie_N45.Nais_vie_m66 66
18/09/08 14:40:26
2.4. SON EXPLORATION
2.4.1. Clinique
Comme tout examen clinique, celui du patient normo ou malentendant répond à l’incontournable
démarche suivante : d’abord interrogatoire, puis examen clinique de l’oreille, examen local et régional
par l’observation, le palper, voire l’auscultation. Enfin, le praticien examinera le patient dans son
ensemble.
L’interrogatoire du patient
Il a pour but de faire sa connaissance et de qualifier sa relation avec l’environnement sonore au cours
de sa vie : âge, profession, et quelques réponses aux questions concernant ses habitudes de vie
procurent très rapidement les renseignements recherchés. La présence du conjoint et/ou d’un proche
permet de compléter parfois de façon surprenante les réponses données par le patient, particulièrement
chez le malentendant masculin !
L’interrogatoire visant à qualifier la maladie
On demandera successivement :
- la date d’apparition des troubles de l’audition car si le malade la situe parfaitement dans le temps, il
doit pouvoir aussi retrouver l’élément qui les a déclenchés, et le praticien peut l’y aider,
- le caractère uni ou bilatéral de l’atteinte, caractère si puissant pour énoncer le diagnostic, mais
parfois encore absent des dossiers médicaux,
- l’existence de signes associés : acouphènes, troubles de l’équilibration, manifestations dans le territoire
cervico-facial, troubles de la coordination,
- l’évolution du syndrome dans le temps, en insistant sur son caractère épisodique, fluctuant,
permanent, lentement progressif ou autre,
- le retentissement de l’atteinte aux trois niveaux : familial, social et professionnel. Ces renseignements
sont indispensables tout autant pour progresser vers le diagnostic que pour décider de la proposition
thérapeutique.
L’examen clinique
Le praticien commence par observer la démarche du patient, lorsqu’il vient s’asseoir au fauteuil, à la
recherche d’une asymétrie, d’une déviation, d’une désynchronisation, tous signes qui feraient évoquer
un trouble de l’équilibration ou une atteinte centrale, et rendre nécessaire alors un examen plus précis
à la recherche de signes vestibulaires spontanés ou provoqués.
Au moment où le patient prend place, l’observation de la face recherche un éventuel syndrome
malformatif : emplacement et forme des pavillons, en particulier…
Dès que le malade s’est assis, avant de mettre en route le bruyant ventilateur du miroir de Clarr, le
praticien ORL réalise l’acoumétrie au diapason :
- diapason d’abord placé au milieu du vertex, la vibration doit être perçue de façon symétrique,
- diapason placé sur la racine du nez, voire si nécessaire sur la ligne interincisive, ou encore sur le genou,
67
37273_Monographie_N45.Nais_vie_m67 67
18/09/08 14:40:29
Monographie
chapitre
-
naissance vie et mort de l'oreille
02
Sa vie
diapason présenté alternativement à l’oreille droite puis gauche à la recherche d’une asymétrie,
diapason présenté à l’oreille en conduction aérienne, puis à la fin de la perception en conduction
osseuse.
Au terme de cette analyse, de nombreux atouts sont déjà en main de l’ORL pour évoquer le diagnostic
puisqu’il sait déjà si l’audition est symétrique ou non et qu’il a déjà grossièrement classé l’atteinte, si
elle existe, en surdité de transmission ou de perception. Ces arguments sont forts pour donner toute
sa puissance ou au contraire mettre en doute les résultats de la future audiométrie.
En même temps que le diapason vibre, la prise du pouls au niveau du poignet est facile et « payante »
si une arythmie est dépistée.
Vient alors l’heure d’examiner l’oreille : muni du miroir de Clarr, le praticien observe le pavillon, la région
rétroauriculaire en soulevant celui-ci, ainsi que toute la région périauriculaire. L’aspect de la conque
et de l’entrée du méat acoustique externe est également bien observé avant la mise en place d’un
otoscope adapté. Cet otoscope est alors enfoncé lentement afin d’analyser au cours du mouvement
l’aspect du conduit.
On découvre enfin le fond du conduit et la membrane tympanique, puis on observe au travers de la
membrane les caractères de la caisse. On peut, à ce moment-là, compléter l’examen par une mobilisation
à l’otoscope de Sigle. Toute anormalité repérée à cette otoscopie indiquera un examen sous microscope
et/ou sous endoscope.
L’auscultation de la région, obligatoire en cas d’acouphènes unilatéraux et, qui plus est, pulsatiles,
apporte d’excellentes informations.
Le fonctionnement des paires crâniennes est rapidement évalué et dans un ordre logique : d’abord
celui du VIII vestibulaire, puis du nerf facial, du nerf trijumeau des nerfs mixtes et des oculomoteurs.
L’olfaction et la vision sont également rapidement évaluées. La classique épreuve « doigt-nez »,
l’épreuve des marionnettes, la mobilisation passive des membres supérieurs recherchent un trouble
cérébelleux ou des grandes voies.
Muni d’un miroir, le praticien examine alors la cavité oropharyngée, puis le cavum en visualisant en
particulier les deux trompes d’Eustache et fossettes de Rosenmüller. La cavité pharyngolaryngée est
observée et palpée éventuellement. On termine l’examen par celui des fosses nasales en rhinoscopie
antérieure, suivie d’un palper du cou.
L’examen général plus complet est requis si le praticien craint l’existence d’une maladie plus
générale, en particulier examen du revêtement cutané plus largement et/ou palper des autres aires
ganglionnaires.
Demande d’examens complémentaires
Au terme de l’interrogatoire et de l’examen clinique ainsi mené, le praticien a bien souvent un diagnostic,
si ce n’est de certitude du moins fortement évoqué. C’est en fonction de lui qu’il orientera la demande
d’examens complémentaires.
En premier lieu et systématiquement les audiométries tonales et vocales, plus ou moins associées à la
68
37273_Monographie_N45.Nais_vie_m68 68
18/09/08 14:40:29
recherche des réflexes stapédiens, la recherche du réflexe stapédien au bruit blanc, la pratique d’un
test de Stenger, l’audiométrie en champs libre…
2.4.2. Explorations audiométriques
Audiométrie comportementale
Définition
L’observation des réactions comportementales du sujet à des stimulations sonores est, historiquement,
la première de toutes les méthodes d’exploration de l’audition.
Aujourd’hui, l’usage désigne sous le terme “d’audiométrie comportementale” l’audiométrie tonale
liminaire du très jeune enfant, codifiée dans les années 60 (PSB-ROC).
On emploie plus volontiers le terme “acoumétrie” lorsque l’on se réfère à l’évaluation subjective de
l’audition d’un sujet au moyen de la voix ou d’objets sonores présentés à différentes intensités, mais
sans quantification précise.
Zones anatomiques étudiées
Les réactions que peut manifester l’enfant sont fonction de ses aptitudes sensorielles auditives, mais
elles dépendent de l’état de ses capacités motrices, qui évoluent avec son âge, de sa vigilance, de sa
situation psychologique et somatique : l’intégralité de l’individu entre en ligne de compte, et pas
seulement la qualité de son audition.
Matériel utilisé
On utilise un audiomètre conventionnel avec haut-parleur, casque ou vibrateur, en cabine. On peut
aussi utiliser les sons de la voix ou d’objets sonores calibrés, en champ libre, pour approcher plus
grossièrement les seuils. L‘audiométrie comportementale peut être réalisée avec les aides auditives
d’un enfant déjà appareillé.
Méthodes
L’observation attentive du comportement de l’enfant permet de décider du moment opportun pour
déclencher la stimulation. On cherche alors à identifier des réactions involontaires, clignement, sursaut,
modifications de la tétée ou de la respiration…, seules possibles chez le nourrisson, puis volontaires,
investigation, orientation oculaire, céphalique, sourire…, que l’on renforcera peu à peu : conditionnement
ludique, avec des jeux d’encastrement par exemple. L’utilisation du vibrateur permet de déclencher des
réactions auditives, mais aussi vibratoires à forte intensité dans les graves, utiles pour amorcer un
conditionnement chez l’enfant sourd profond.
Résultats
L’audiométrie comportementale permet d’établir chez l’enfant une courbe osseuse et une courbe
aérienne précises, ceci dès l’âge de quelques mois, d’abord en champ libre, puis une courbe aérienne
oreille séparées, et de mesurer le gain prothétique.
69
37273_Monographie_N45.Nais_vie_m69 69
18/09/08 14:40:31
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
Applications cliniques en 2008
L’audiométrie comportementale est le seul procédé fiable permettant d’évaluer complètement les seuils
auditifs chez l’enfant. Elle est nécessaire pour orienter les réglages prothétiques. Son intérêt pratique
croît aujourd’hui, à mesure que le dépistage auditif néonatal amène les enfants malentendants à
pouvoir bénéficier d’une prise en charge très précoce.
Audiométrie tonale
Définition
L’audiométrie tonale est la détermination des
seuils auditifs avec des sons purs de fréquence
déterminée. Usuellement, l’audiométrie tonale
liminaire cherche le seuil d’audibilité.
L’audiométrie tonale supra-liminaire est réalisée
en pratique audioprothétique, et s’attache
essentiellement à déterminer les niveaux de
confort et d’inconfort auditif.
Zones anatomiques étudiées
L’appareil auditif entier est étudié, principalement
de l’oreille au cortex auditif primaire. La qualité
des réponses obtenues dépend toujours de la
coopération obtenue de la part du sujet testé.
Matériel utilisé
L’examen se déroule dans une pièce insonorisée
ou une cabine d’audiométrie. La stimulation sonore, étalonnée en fréquence et en intensité, est délivrée
par un audiomètre, au travers d’un transducteur de sortie. L’audition est testée par voie aérienne (CA),
oreille par oreille avec les écouteurs d’un casque, en champ libre avec un haut-parleur, ce qui permet
également de tester un sujet qui porte son aide auditive et d’en évaluer le gain, et en conduction
osseuse (CO) avec un vibrateur appliqué contre la mastoïde.
Le stimulus sonore est discontinu ou modulé, pour faciliter sa détection à faible intensité. Le sujet testé
indique à l’examinateur quand il a entendu le son, et de quel côté.
Méthodes
Pour chaque oreille et chaque fréquence, le seuil en conductions aérienne et osseuse est déterminé
par approximations successives, en variant l’intensité du stimulus en fonction des réponses du sujet
testé. L’oreille non testée peut déclencher des réponses par transfert trans-crânien du stimulus. Ce
transfert existe dès 55 à 60 dB HL en CA et dès 5 dB en CO : un son masquant doit être présenté dans
l’oreille non testée pour éviter ce phénomène. La réalisation d’un masquage approprié est cruciale pour
70
37273_Monographie_N45.Nais_vie_m70 70
18/09/08 14:40:32
éviter les erreurs en audiométrie tonale, tout particulièrement dans les cas de surdité de transmission,
et les surdités unilatérales ou très asymétriques.
Résultats
L’audiogramme tonal est la représentation graphique des
seuils mesurés. Le degré d’élévation des seuils quantifie la
surdité.
L’écart entre les seuils obtenus en CO et en CA témoigne
d’une atteinte auditive de conduction (surdité de
transmission), l’élévation identique des seuils en CO et CA
d’une atteinte neurosensorielle (surdité de perception).
Applications cliniques en 2008
L’audiométrie tonale est l’examen de base de l’audition,
indispensable à la démarche diagnostique et thérapeutique
pour quasiment toute pathologie de l’oreille, mais également
dans de nombreuses autres situations cliniques : troubles
de l’équilibre, paralysie faciale, etc.
Audiométrie Vocale
Définition
L’audiométrie vocale évalue la capacité du sujet à
reconnaître des sons ou des mots d’une langue parlée.
Zones anatomiques étudiées
L’ensemble de l’appareil auditif périphérique et central intervient, mais l’importance des phénomènes
centraux de l’audition est plus grande qu’en audiométrie tonale. Le stock de vocabulaire, l’attention et
les aptitudes mentales jouent également.
Matériel utilisé
L’audiométrie vocale utilise des sons vocaux présentés principalement au casque ou en champ libre,
dans le silence, avec ou sans aide auditive, avec ou sans lecture labiale, et ceci à différentes intensités.
Dans un souci de reproductibilité, on a recours à des listes de sons ou de mots standardisées : par
exemple celles de Lafon, de Fournier, de Boorsma. Chez l’enfant non encore en âge de répéter les
mots entendus, des images à désigner telles que celles du Père Castor peuvent être utilisées.
Méthodes
Les sons vocaux sont présentés par séries, à différentes intensités, oreille par oreille au casque ou en
champ libre. L’examinateur comptabilise les réponses, notées en % (100 % = aucune erreur).
71
37273_Monographie_N45.Nais_vie_m71 71
18/09/08 14:40:36
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
Résultats
L’audiogramme vocal est un graphique où les pourcentages d’intelligibilité sont figurés en ordonnées,
et les intensités en abscisse. Le seuil audiométrique tonal doit être concordant avec le seuil d’intelligibilité
vocale. Une courbe d’intelligibilité vocale progressant à faible pente et/ou n’atteignant pas 100 %, voire
se dégradant à forte intensité, témoigne de phénomènes de distorsion d’origine périphérique,
recrutement cochléaire par exemple, ou centrale.
Applications cliniques en 2008
L’audiométrie vocale est nécessaire, presqu’au même titre que la tonale, avant toute prise en charge
d’un patient pour une atteinte auditive. Elle est indispensable à la juste évaluation des résultats d’un
appareillage auditif, au même titre que l’audiométrie vocale dans le bruit, qui se rapproche encore plus
des conditions d’écoute naturelles.
Impédancemétrie
Définition
Soumis à une pression acoustique, l’oreille moyenne et le système tympano-ossiculaire réfléchissent
une partie de l’énergie délivrée, et absorbent le reste. Le ratio entre ces fractions réfléchies et absorbées
dépend de plusieurs paramètres tels la fréquence du son, la masse et la rigidité du système tympanoossiculaire… Pour une fréquence sonore donnée, ce ratio dépend principalement de la rigidité de
l’oreille moyenne : plus cette dernière est grande, plus la quantité de son réfléchi, fonction de
l’impédance, est importante. Les bases de l’impédancemétrie ont été découvertes dans la première
moitié du XXe siècle.
Zones anatomiques étudiées
La tympanométrie étudie l’impédance de
l’oreille moyenne, à tympan fermé. L’étude
du réflexe stapédien apprécie l’arc réflexe
constitué par l’oreille interne ipsi ou
contro-latérale, les relais nerveux du tronc
cérébral, le nerf facial, le muscle de l’étrier
et la chaîne homolatéraux.
Matériel utilisé
L’impédancemètre comporte une sonde à
trois canaux, insérée dans le méat auditif
externe. L’un est relié à une source sonore
d’intensité et de fréquence (tonale de
sonde) constantes. Le second est relié à un
microphone qui mesure l’impédance par
72
37273_Monographie_N45.Nais_vie_m72 72
18/09/08 14:40:37
la quantité de son réfléchi dans le CAE. Le dernier est relié à une pompe et un manomètre, qui
permettent de faire varier la pression dans le CAE. Un écouteur sur l’oreille opposée ou un transducteur
dans la sonde permettent la stimulation sonore pour l’étude du réflexe stapédien.
Méthodes
La tympanométrie mesure l’impédance, la « quantité de son » réfléchie par le tympan fermé, en fonction
de la pression administrée dans le CAE : lorsque celle-ci égale la pression dans l’oreille moyenne,
l’impédance atteint sa valeur minimale.
Pour chercher le réflexe stapédien, une fois l’impédance minimale obtenue, on stimule une oreille par
un son fort. La contraction du muscle rigidifie le système tympano-ossiculaire, déclenchant une
élévation de l’impédance parallèle à la durée du stimulus.
Résultats
Le tympanogramme présente les variations de l’impédance ou plus volontiers de son inverse, la
compliance, en fonction de la pression du CAE. La courbe normale est de type A, pic centré sur la
pression atmosphérique. Une dépression dans l’oreille moyenne se traduit par un pic décalé vers les
pressions négatives (type C), un épanchement liquidien par une courbe plate (type B).
Le seuil d’obtention du réflexe stapédien par stimulation d’une oreille est comparé au seuil audiométrique
de cette même oreille. Il renseigne sur la dynamique auditive, et peut par exemple témoigner d’un
recrutement s’il en est anormalement rapproché.
Applications cliniques en 2008
Tympanométrie et étude du réflexe stapédien sont des examens de base, indispensables au suivi des
otites moyennes chroniques, au bilan des troubles de l’audition, ainsi que des paralysies faciales.
Enregistrement des potentiels évoqués auditifs (PEA)
Définition
C’est l’étude des réponses électriques des voies auditives, obtenues après stimulation sonore. Sa
découverte date de la fin des années 60.
Zones anatomiques étudiées
Toutes les voies auditives, depuis la cochlée jusqu’au cortex peuvent être étudiées. Seule leur portion
initiale, de la cochlée au tronc cérébral, est d’étude courante en pratique clinique, par la recherche des
potentiels évoqués auditifs du tronc cérébral (PEATC).
Matériel utilisé
L’examen se déroule dans le calme ou en cabine, sur un sujet détendu ou endormi. Le repos musculaire
complet est indispensable. Le stimulus sonore et l’éventuel masquage controlatéral sont délivrés au
casque, ou par des écouteurs insérés dans le CAE. L’activité EEG est recueillie par des électrodes de sur-
73
37273_Monographie_N45.Nais_vie_m73 73
18/09/08 14:40:41
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
face, vertex et mastoïdes, pendant 15 à 20 ms après
le stimulus.
En dépistage auditif néonatal, un appareil simplifié
et automatisé délivre un stimulus présumé supraliminaire, 35 à 40 dB HL, et détecte au moyen d’algorithmes de calcul la présence d’une réponse PEA,
délivrant une réponse binaire “pass”, réponse détectée, ou “refer”.
Méthodes
Le stimulus sonore, d’intensité calibrée, est un clic
ou un tone-burst, très bref par rapport aux temps
de réponse nerveuse, environ 0,1 ms. Plusieurs
centaines de réponses moyennées sont nécessaires
pour extraire la réponse PEATC. Chaque côté est testé à différentes intensités jusqu’à la disparition de
la réponse, la dernière intensité donnant lieu à une réponse identifiable est le seuil PEA.
Résultats
À forte intensité, 5 pics sont visibles. À mesure de l’affaiblissement du stimulus, leur amplitude décroît
et leur latence d’apparition augmente. Au voisinage du seuil, il ne persiste que l’onde V sous la forme
d’une déflexion négative à environ 9 ms.
Avec un stimulus par des clics, le seuil PEA est corrélé au seuil tonal dans les fréquences 2 à 4 kHz.
L’écart de latence inter-pics, I-III, I-V et III-V, témoigne de la localisation d’un éventuel trouble de
conduction nerveuse. Un décalage global des latences de tous les pics peut être normal chez le nourrisson, ou témoigner d’un trouble auditif transmissionnel.
Applications cliniques en 2008
Les PEATC conventionnels complètent le bilan
audiométrique tonal et vocal. Ils sont indispensables dès qu’il existe une discordance entre différents examens, tout comme dans l’évaluation initiale d’une suspicion de surdité du nourrisson.
Dans la pratique du dépistage auditif néonatal en
maternité, les PEA automatisés sont le complément
idéal des oto-émissions. Ils sont le test de choix
74
37273_Monographie_N45.Nais_vie_m74 74
18/09/08 14:40:41
pour les grands prématurés, et les bébés hospitalisés en unités de soins intensifs. (voir graphique page
suivante)
Enregistrement des oto-émissions
Définition
Connues depuis la fin des années 70, les otoémissions acoustiques (OEA) sont des sons produits
par l’activité contractile des cellules ciliées externes
de la cochlée.
Il peut y avoir des oto-émissions spontanées. La
pratique clinique étudie surtout les OEA provoquées
(OEAP) par un stimulus sonore (clic), et les produits
de distorsion (PDA) provoqués par la stimulation
avec une paire de sons purs.
Zones anatomiques étudiées
Les cellules ciliées externes sont le générateur des OEA.
Leur recueil nécessite que l’oreille externe et l’oreille
moyenne soient indemnes de toute pathologie.
Matériel utilisé
L’examen nécessite un local silencieux. L’appareil
comporte une sonde à deux ou trois canaux introduite
de façon étanche dans le CAE. Un canal envoie le son
stimulant (deux pour l’étude des PDA), calibré pour
être d’intensité moyenne, un autre recueille les sons
dans le CAE par un microphone.
Méthodes
L’identification des OEAP est faite après moyennage d’une série de séquences de stimulation-acquisition,
sur des critères de reproductibilité temporelle et/ou fréquentielle de la réponse obtenue sur un écran
graphique. Des appareils automatisés permettent d’identifier cette reproductibilité par calcul : ils
délivrent une réponse binaire “Pass”, OEAP présente, ou “refer”, pas de conclusion.
La présence des PDA est détectée par l’apparition de réponses sonores à des fréquences précises,
différentes de celles des sons stimulants mais liées à celles-ci, la plus ample correspond à 2xf1-f2. Par
variation de f1 et f2, différentes zones de la cochlée peuvent être explorées séparément.
Résultats
Sous réserve de l’intégrité fonctionnelle des cellules ciliées internes, la présence d’une OEA est très
75
37273_Monographie_N45.Nais_vie_m75 75
18/09/08 14:40:47
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
fortement corrélée à l’existence de seuils auditifs meilleurs que 30 dB HL sur au moins une partie des
médium-aigus. La non-détection d’une OEA n’a, en revanche, aucune valeur si elle est considérée
isolément.
Applications cliniques en 2008
L’application principale des OEA est le dépistage auditif néonatal en maternité, en raison de la rapidité
de leur recherche avec les appareils automatisés actuels, du faible coût de l’examen, et de la très grande
rareté des surdités néonatales à OEA conservées.
À tout âge, la recherche des OEA complète le bilan des troubles de l’audition en confortant, si elle est
concluante, une suspicion de surdité rétro-cochléaire voire de simulation, conjointement avec les
seuils aux PEATC.
76
37273_Monographie_N45.Nais_vie_m76 76
18/09/08 14:40:48
ASSR
Définition
“Auditory Steady-State Response” (ASSR) peut se traduire approximativement par “PEA en régime
stationnaire”. C’est une technique récente, début des années 2000, dérivée des PEA, qui consiste à faire
apparaître au sein de l’activité électro-encéphalographique une composante de fréquence déterminée,
au moyen de la stimulation auditive par un son pur audible, modulé à cette même fréquence, entre
40 et 100 Hz.
Zones anatomiques étudiées
Le générateur de l’activité ASSR est cérébral, sa localisation reste imparfaitement déterminée et n’est
probablement pas unique. L’activité ASSR suscitée par de basses fréquences de modulation, vers 40 Hz,
disparaît durant le sommeil (générateur cortical ?), alors qu’elle persiste aux fréquences plus élevées,
de 80 à 100 Hz, suggérant une origine plus basse sur les voies auditives. L’organe auditif périphérique
intervient, dans la mesure où il est nécessaire que le son stimulant modulé soit entendu pour pouvoir
obtenir une réponse.
Matériel utilisé
Le matériel nécessaire dérive de celui qui est utilisé en PEATC. L’appareil permet de délivrer un stimulus
sonore continu, sinusoïdal, aux différentes fréquences et intensités, c’est la “porteuse” qui sera entendue,
modulée en fréquence et/ou en amplitude entre 40 et 100 Hz. La réponse EEG est obtenue par des
électrodes de surface, et traduite dans le domaine des fréquences par une transformation de Fourier.
77
37273_Monographie_N45.Nais_vie_m77 77
18/09/08 14:40:51
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
Méthodes
L’existence d’une réponse ASSR est déterminée par calcul. L’EEG obtenu est étudié à la fréquence de
la sinusoïde modulante. La “raie spectrale” observée doit présenter une stabilité en amplitude et/ou
une corrélation de sa phase, période de l’onde, qui soient suffisamment corrélées à celle de la sinusoïde
modulante pour être statistiquement significatives. Le seuil ASSR, à une fréquence audible donnée, est
la plus petite intensité du stimulus permettant d’obtenir une réponse ASSR.
Résultats
L’obtention d’une réponse ASSR signifie nécessairement que le son stimulant, la porteuse, a été entendu
au travers de l’oreille testée. En revanche, le seuil audiométrique réel est meilleur que le seuil ASSR.
Seules des abaques, établies par comparaison des deux méthodes, permettent une extrapolation des
seuils audiométriques probables à partir des seuils ASSR : il s’agit d’un audiogramme “estimé”, d’autant
plus proche de la réalité que les mesures réalisées ont été nombreuses.
Applications cliniques en 2008
La technique des ASSR permet d’estimer les seuils auditifs de manière objective à toutes les fréquences,
y compris dans les médiums-graves qui ne sont pas accessibles aux PEA usuels. Cet examen offre donc
une perspective très intéressante pour compléter les données du PEA, notamment chez le jeune enfant.
Les limites tiennent à sa durée, plus de 30 à 45 minutes s’il est complet, et à la fréquente nécessité
d’une sédation ou d’une anesthésie générale.
Audiométrie vocale dans le bruit (AVB)
Pourquoi ?
Qu’il s’agisse d’un malentendant appareillé ou non, la gêne la plus souvent exprimée réside en la
compréhension de la parole en milieu bruyant. Selon Stock, en 1997, 87 % de 800 malentendants
interrogés se plaignaient d’une mauvaise compréhension dans le bruit malgré leurs aides auditives.
Aujourd’hui, même si les performances des appareils ont bien progressé dans certaines situations
sonores, la simple observation clinique laisse penser que l’on obtiendrait toujours un résultat quasi
similaire, ceci d’autant plus que l’attente des patients en termes de performance est, de jour en jour,
plus importante.
En utilisant les listes cochléaires de J.-C. Lafon de façon courante en champ libre, à voix nue et sans
lecture labiale, de nombreux malentendants présentent d’excellents scores à ces tests vocaux dans le
calme alors que l’audiogramme tonal prédisait une non-perception des traits caractéristiques de
certains phonèmes. Par exemple sur des presbyacousies un peu anciennes, on remarque souvent une
bonne conservation de la compréhension des [s] et [f] émis par une voix normale, alors que
l’audiogramme tonal est sous le niveau des 60 dB HL au-delà du 3 000 Hz. La participation à la
compréhension des transitions phonétiques pour identifier la consonne non audible semble évidente.
Mais en champ libre, l’émission concomitante d’un bruit quel qu’il soit, perturbe immédiatement le
malentendant ce qui se traduit par une augmentation du délai de réponse, une tendance à vouloir
78
37273_Monographie_N45.Nais_vie_m78 78
18/09/08 14:40:53
relever la tête pour regarder les lèvres et bien sûr, une augmentation significative du nombre de fautes.
Avec Smooremburg en 1992 on en conclut que « la capacité à comprendre une conversation en milieu
bruyant ne peut se déduire des tests d’audiométrie tonale et vocale réalisés en milieu calme », d’où
l’intérêt de réaliser une audiométrie en milieu bruyant.
Intérêt
Audiométrie vocale dans le bruit sans appareil.
Puisque le patient se plaint principalement de difficultés de compréhension dans le bruit, il paraît
indispensable pour le patient et son entourage, de les objectiver, même si les pertes mesurées en
audiométrie tonale ou vocale restent faibles.
On peut alors faire preuve d’humilité, ne faisant pas de promesses que l’on ne pourra pas tenir…
Enfin, les résultats des tests permettront de guider le choix de l’audioprothésiste vers des techniques
plus élaborées améliorant le rapport Signal/Bruit.
Audiométrie vocale dans le bruit avec appareils.
Son intérêt est là encore évident, pour :
-Évaluer le réel potentiel du patient, dans son milieu sonore, et éviter les remarques du style « vous
me réglez mes aides auditives dans le calme de votre cabine insonorisée, mais dès que je sors
de chez vous, rien ne va plus »,
-comparer les effets des différents réglages en situation naturelle : changement des constantes de
temps des compressions, activation d’un système directionnel, variation de la compréhension
en fonction de l’incidence du signal, activation d’un « débruiteur »,
-valider l’intérêt d’un réglage multi programmes,
-justifier un choix prothétique,
-montrer l’avantage de l’appareillage stéréophonique,
-objectiver l’apport d’un système CROS, BAHA, WIFI ou lunettes.
Caractéristiques du bruit utilisé
Pour qu’il soit représentatif des conditions sonores réelles, le bruit doit être proche du spectre à long
terme de la parole, bruit décrit comme étant le plus perturbateur pour les patients. Selon Lehmann
(1 969), « le masquage maximum apparaît dès que l’on mélange 4 voix ».
À défaut, on pourra utiliser un bruit rose dont le spectre se rapproche le plus possible de spectre à
long terme de la voix, (voir schéma page suivante).
Le bruit doit être discontinu, pour refléter la réalité, mais écrêté afin qu’un éventuel éclat de voix ne
vienne fausser le test. Un bruit continu serait trop facilement reconnu par les débruiteurs des aides
auditives alors qu’un bruit discontinu permet au patient ayant de bonnes capacités d’aller chercher de
l’information dans les creux d’énergie, écoute dans les vallées, dip listening (Fullgrabbe, Berthommier
et Lorenzi 2004).
Pour une utilisation correcte en champ libre, le bruit devra être distinct du signal pour que le processus
79
37273_Monographie_N45.Nais_vie_m79 79
18/09/08 14:40:56
Monographie
naissance vie et mort de l'oreille
chapitre
02
Sa vie
∂ Spectre à long terme
de l'OVG (trait foncé) et
du bruit rose (trait clair).
de comparaison inter auriculaire, différences d’intensité, de temps et de phase, et les sommations
binaurales puissent s’effectuer.
Il est fréquent d’utiliser le bruit crée par Dodelé, baptisé « OVG », Onde Vocale Globale.
Technique
Listes de mots
On utilise les listes cochléaires de JC Lafon ou les listes de logatomes de Dodelé, sans oublier les consignes
particulières devant être données lorsqu’il s’agit de faire répéter des mots sans signification.
Casque ou champ libre
Idéalement l’audiométrie vocale dans le bruit se pratique en champ libre et en stéréophonie.
Au casque, signal et bruit sont présentés par le même transducteur, situation rencontrée dans la réalité
uniquement pour la télévision. En champ libre, plus proche des situations réelles, le patient peut faire
intervenir ses capacités de localisation et de sommation binaurale. Les conditions de test, d’étalonnage
et de passation sont normées.
❐ =Comme de référence chez le
normo entendant (N=51)
❍= Exemple de représentation
graphique d'un test AVB chez
un malentendant.
d
80
37273_Monographie_N45.Nais_vie_m80 80
18/09/08 14:40:56
L’audiométrie vocale dans le bruit « automatique » de Dodelé, disponible dans le CD « Le
VocaList », permet un test rapide sans audiomètre. Avec un lecteur CD, on règle le niveau
du volume sur la liste d’entraînement pour un
niveau vocal confortable, puis les listes s’enchaînent suivant le principe ci-dessous.
Protocole de résistance au bruit d’ELBAZ
∂ Résultat du test chez un
bien entendant et chez un
malentendant (résistance de
15 dB et de 10 dB
respectivement.
Audivox de Jocelyne Wable
Test de phrases, listes de phrases qui ont la particularité d’avoir été statistiquement équilibrées sur une
population de sujets malentendants.
∂ Le principe de cette mesure psychométrique est d'augmenter la
difficulté à chaque fois qu'une phrase est correctement répétée et de
la diminuer dans le cas contraire. Il présente l'avantage de donner
une valeur de RSB précise pour chaque condition de test, rendant
facile la comparaison.
81
37273_Monographie_N45.Nais_vie_m81 81
18/09/08 14:41:00
Monographie
chapitre
naissance vie et mort de l'oreille
02
Sa vie
Résultats
Pour l’ORL, l’AVB est un outil important dans l’analyse et la quantification réelle de la gêne sociale du
patient.
Un patient porteur d’une perte, a priori trop faible pour l’appareillage, mais d’une dégradation rapide
de l’intelligibilité dans le bruit, socialement gênante, pourrait, après avoir éliminé des causes rétro
cochléaires, être justiciable d’une prescription d’audioprothèses.
Pour les pertes plus importantes, où l’appareillage s’impose de lui-même, l’apport principal de l’AVB,
oreilles nues, réside dans l’analyse prédictive des problèmes que pourra rencontrer le patient. Une
dégradation trop rapide de l’intelligibilité avec le bruit doit rendre prudent, non pas dans la prescription
précoce de l’appareillage, mais dans les perspectives de résultats : « un patient prévenu n’est pas un
patient déçu ».
Comme on le verra plus loin dans le chapitre « aides auditives et bruits », l’optimisation d’un réglage
devrait se faire pour chaque situation sonore particulière rencontrée, même si cette pratique est encore
illusoire.
Dans les petites pertes, alors que le patient est satisfait et porte systématiquement son appareillage,
il n’est pas toujours évident de mesurer qualitativement l’amélioration dans le calme par une
audiométrie dans le silence. L’AVB comparative, à situation sonore identique entre oreilles nues et
oreilles appareillées, permet de valider les apports en compréhension des aides auditives.
On peut encore, grâce à l’AVB confirmer ou infirmer au mieux les options de réglages possibles dans
une aide auditive et comparer objectivement différents traitements de signal ou différentes aides
auditives.
Dans la pratique, si l’AVB n’est pas souvent utilisée, les tests en milieux bruyants sont courants. Grâce
à la carte son des ordinateurs et de plusieurs haut-parleurs, il est possible de créer, assez fidèlement,
les situations sonores les plus courantes. Des logiciels comme Amplifit objectivent les difficultés du
patient et affinent l’orientation prothétique. En cours d’appareillage, les comparaisons immédiates
entre différents réglages, sur une simple conversation, permettent de trouver un bon compromis en
fonction des capacités résiduelles du patient et des possibilités technologiques toujours plus
performantes.
82
37273_Monographie_N45.Nais_vie_m82 82
18/09/08 14:41:01
Monographie
chapitre
03
naissance vie et mort de l'oreille
son déclin : la presbyacousie
3 - SON DECLIN : LA PRESBYACOUSIE
3.1. Support physiopathogénique
3.1.1. Altérations anatomo-histologiques
3.1.1.1. Les antécédents
L
a sénescence intervient souvent sur une oreille « pathologique ». L’oreille en effet a pu subir
au cours de l’enfance ou à l’âge adulte des affections qui ont lésé la cochlée. Il faudrait
alors citer toutes les causes qui conduisent à une hypoacousie de perception bilatérale
portant sur les fréquences aiguës.
Au premier rang des étiologies subies possibles : le traumatisme sonore. Il touche les adolescents et
adultes jeunes adeptes des discothèques et des concerts dits « Pop ». Il est la cause des surdités
professionnelles lorsque les mesures de prévention ont été insuffisantes. Il est l’apanage des chasseurs.
C’est la cause la plus fréquente. Selon l’importance de l’exposition, la perte auditive sur l’audiogramme
intéresse les fréquences aiguës jusqu’à la fréquence 2000 incluse. La perte est en général bilatérale et
symétrique. La pente de la courbe d’intelligibilité s’est accentuée et le 100 % jamais atteint. La gêne
auditive dans le bruit est fréquemment invoquée ainsi que l’existence d’acouphènes.
Les autres étiologies sont moins fréquentes, qu’il s’agisse d’une surdité de perception après un
traumatisme crânien, unilatérale ou bilatérale dans le cas d’un traumatisme occipital.
Les surdités ototoxiques (oxyde de carbone, antibiotique ototoxique, quinine) sont plus rares car
l’utilisation de certains antibiotiques ou la quinine a profité des mesures de prévention. L’intoxication
par l’oxyde de carbone est peu fréquente.
L’alcool, le tabac, à plus forte raison associés, entraînent une fragilité cochléaire et même des atteintes
auditives prédominant sur les aigus.
Les investigations au cours de l’enfance, de l’adolescence ou dans le cadre de la médecine du travail,
lorsque le traumatisme sonore est soupçonné, commencent par la recherche des oto-émissions
acoustiques provoquées dont le résultat positif précède la perte audiométrique et la modification de
la courbe d’intelligibilité. Existe-t-il une sensibilité particulière de certaines oreilles ? La question est
posée. Il n’existe pas de démonstration scientifique. L’exploration du système efférent devrait un jour
apporter un éclairage.
3.1.1.2. Zones mortes cochléaires
Introduction
Depuis les années 1980, les différents étages de traitement des vibrations sonores qui permettent le
fonctionnement du système auditif périphérique ont été bien identifiés. Une fois assurée la transmission
optimale du son à travers l’oreille moyenne puis le long de la membrane basilaire, un prétraitement
des vibrations est effectué par les cellules ciliées externes de l’organe de Corti (CCE). Ce prétraitement
83
37273_Monographie_N45.Nais_vie_m83 83
18/09/08 14:41:04
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
inclut une amplification mécanique sélective en fréquences, ce qui aboutit à un filtrage, mais aussi à
une compression. La tâche suivante est confiée aux cellules ciliées internes (CCI) qui effectuent la
transduction des messages sonores à destination des neurones du nerf auditif. Les messages, supposés
bien triés grâce au prétraitement, sont alors véhiculés jusqu’aux centres cérébraux sous forme de
potentiels d’action. Une CCI sert de point de départ à une dizaine de neurones afférents. Les CCI ne
contribuent pas directement à l’analyse des sons en leurs composantes fréquentielles à chacune
desquelles une amplitude doit être affectée. De ce point de vue, on ne leur attribue guère qu’un rôle
de fidèle transmetteur, la tâche dévolue à un opérateur Morse, en quelque sorte ; il ne faut cependant
pas oublier les études récentes de la synapse dite à ruban entre CCI et neurones auditifs. Elles montrent
la difficulté et la subtilité de cette tâche en termes moléculaires, probablement en relation avec les
exigences temporelles inhérentes aux messages acoustiques. Encore faut-il que ce travail soit effectué :
en cas de lésion des CCI ou de leurs neurones afférents sous-jacents, on se retrouve dans la situation
particulière qui fait l’objet de ce chapitre, celle où il existe une zone morte cochléaire (ZMC). Dans ce
cas, bien que prétraités correctement, certains messages disparaissent complètement du flux
d’informations auditives remontant aux centres auditifs.
La problématique de pointe qu’est la régénération des cellules sensorielles est abordée ailleurs, mais
en l’état actuel du savoir-faire, une zone morte reste irréversiblement morte. La conséquence
fonctionnelle de cette mort est qu’aucune réhabilitation n’est possible autrement qu’en allant, s’il reste
des neurones, les stimuler directement de manière électrique, par un implant cochléaire. La perte totale
d’afférences a une autre traduction possible. Les modèles actuels qui visent à expliquer le phénomène
parfois extrêmement mal vécu des acouphènes supposent que cette sensation aberrante s’amorce
lorsque quelque part dans le système auditif, des afférences ne parviennent plus là où elles devraient
parvenir. On est donc tenté d’associer la présence de ZMC et celle d’acouphènes, même si pour qu’un
acouphène émerge et devienne gênant, d’autres conditions semblent requises, faisant par exemple
intervenir des circuits neuronaux liés aux émotions.
Traduction audiométrique, et donc diagnostic d’une ZMC
Le diagnostic définitif d’une zone morte cochléaire est avant tout histologique, l’existence des ZMC a
donc longtemps échappé à l’attention des audiométristes. Ceci en raison du phénomène psychoacoustique
dit d’écoute hors fréquence.
Le cerveau obéit à la loi du moindre effort, nous en sommes tous les témoins et acteurs permanents. En
provenance d’une cochlée normale (fig.1), les neurones qui répondent les premiers lorsqu’on présente un
son pur de niveau proche du seuil de détection sont ceux connectés aux CCI à l’endroit où la vibration
mécanique est maximum, c’est-à-dire là où les CCE sont entrées en résonance : c’est la tonotopie (flèche
rouge, fig.1, haut). Le cerveau écoute donc le son et en détermine certaines caractéristiques de base, a
priori, par les canaux neuraux qui répondent le mieux. Cependant, très souvent, d’autres canaux neuraux
sont également recrutés (fig.1, bas, courbes de réponse neuronales en rouge), ne serait-ce que parce que
la réponse à un son pur s’étale le long de la membrane basilaire lorsque le niveau acoustique augmente,
de part et d’autre de la zone de membrane qui a pour fréquence de résonance celle du son pur.
84
37273_Monographie_N45.Nais_vie_m84 84
18/09/08 14:41:06
∂ fig. 1 Membrane basilaire,
neurones auditifs (symbolisés
par leurs courbes d’accord) et
réponses à un son pur de faible
et de fort niveau respectivement
(diagrammes du haut et du bas).
L’enveloppe de la stimulation est
représentée en noir, en dessous
de chaque diagramme. Lorsque
la stimulation est assez intense,
elle empiète dans la zone de
réponse d’un neurone et ce
dernier répond (courbes
d’accord en rouge). Même
quand la stimulation devient
plus intense et s’étale, les
neurones qui répondent le plus
restent ceux correspondant à la
fréquence du stimulus (rouge
plus gras).
Mais dans une cochlée contenant une ZMC délimitée, les CCI et / ou les neurones de l’endroit
correspondant sont morts, et malgré l’action amplificatrice des CCE aucun message ne parvient au
cerveau de cette région ci. Il se peut en effet que les CCE soient intactes ou peu affectées par le
processus pathologique qui a tué leurs partenaires habituelles : on connaît des agents pathogènes
sélectifs qui ciblent les CCE, ou les CCI. Supposons que les régions voisines de la ZMC contiennent des
CCI et neurones fonctionnels (fig.2) ; comme sur la fig.1, les neurones présents ont des courbes d’accord
profondes et fines. Supposons qu’elles subissent une vibration d’amplitude suffisante pour que les
détecteurs atteignent le seuil au-dessus duquel une réponse est déclenchée (fig.1, bas).
∂ fig.2 : En présence d’un ZMC
où les neurones sont soit
détruits soit non connectés, les
stimulations de faible niveau ne
font plus répondre de neurone (il
y a élévation de seuil). Les
stimulations plus intenses font
répondre les neurones de zones
voisines de la ZMC, qui
permettent l’écoute hors
fréquence.
85
37273_Monographie_N45.Nais_vie_m85 85
18/09/08 14:41:09
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
Il faut que le niveau sonore soit élevé car le son test est accordé à la ZMC, pas aux zones voisines.
Comme celles-ci ne résonnent pas à la fréquence du son test, les CCI présentes à ces endroits nécessitent
une stimulation plus forte (fig.2, haut : pour une stimulation de faible niveau, aucun des neurones
présents n’est excité) : il y aura bien quelque chose d’anormal quand l’audiométriste va mesurer un
seuil de réponse, ce dernier sera forcément élevé. Une fois la stimulation suffisante, les neurones issus
de ces régions voisines vivantes vont envoyer un message au cerveau (fig.2, bas, flèches rouges), et le
sujet va donner une réponse à l’audiométrie tonale, mais grâce au phénomène d’écoute hors fréquence
(analogue au phénomène de courbe fantôme, mais ici on est en ipsilatéral). L’envoi des messages hors
fréquences existait, bien sûr, avant que la ZMC ne soit morte. Si on avait pu effectuer préalablement
l’expérience de tester le même sujet à l’époque où il était encore normo-entendant, celui-ci aurait
commencé à détecter le son test dès l’envoi de potentiels d’action par la future zone morte, et lorsque
le niveau du son test aurait continué à augmenter, les zones voisines seraient entrées en action à leur
tour, mais le sujet n’y aurait pas prêté attention.
En fait, la réponse hors fréquence manifeste bel et bien des caractères anormaux. Les neurones de la
région répondeuse ne répondent pas par la pointe de leur courbe d’accord, mais par la queue de celleci. La perte de sensibilité qui en résulte est de l’ordre de 40 à 60 dB (fig.2, bas : 40 à 60 dB est la
profondeur des pointes des courbes d’accord neuronales). Si la zone codant pour une fréquence
audiométrique est morte, on obtient quand même des seuils fantômes élevés de 60 dB en provenance
des régions voisines si elles sont restées parfaitement fonctionnelles. Si toutefois ces zones hors
fréquence ne sont pas parfaitement fonctionnelles, le seuil fantôme sera supérieur à 60 dB.
En cas de détection hors fréquence, la sensation de hauteur est vraisemblablement faussée, mais au
voisinage du seuil de détection, cette sensation est très imprécise et le sujet peut ne pas avoir conscience
d’une écoute hors fréquence. On peut plutôt soupçonner une écoute hors fréquence et donc un
audiogramme fantôme en présence d’une ZMC lorsque l’on détecte une transition brutale entre une
zone audiométriquement presque normale et une zone voisine ou les seuils plongent brutalement, de
plus de 40 à 60 dB ; de même que l’on doit soupçonner une courbe audiométrique fantôme lorsqu’il
existe plus de 40-50 dB de différence entre une oreille testée et l’oreille controlatérale saine et que
l’on a omis d’effectuer un masquage de la bonne oreille. Dans le cas des zones mortes, le masquage
est impossible avec la technique habituelle tout au moins, la situation audiométrique est donc plus
difficile à détecter.
Existence de ZMC
Le concept audiométrique de ZMC n’a d’intérêt que parce que les ZMC existent et ne sont pas rares,
même si elles passent inaperçues à l’audiométrie tonale pratiquée de manière trop peu réfléchie. Dans
quelles circonstances? Un certain nombre d’atteintes spécifiques des CCI ont été documentées.
Certaines sont d’origine médicamenteuse et ont servi de modèle reproductible pour déterminer la
contribution des CCI et des CCE à des signaux collectifs comme les différentes composantes de
l’électrocochléogramme. Parmi les sels de platine utilisés comme antimitotiques, le cisplatine présente
une toxicité prédominante pour les CCE, mais le carboplatine atteint préférentiellement les CCI.
86
37273_Monographie_N45.Nais_vie_m86 86
18/09/08 14:41:10
De manière moins classique, il a été montré que le bruit présenté dans certaines conditions, chez
certaines espèces animales, entraîne des lésions spécifiques des CCI en épargnant complètement les
CCE. Ainsi des travaux de l’équipe de Borg (fig.3), utilisant le lapin comme modèle, ont établi l’action
différentielle des bruits continus et impulsifs sur les CCE et les CCI.
D fig.3 : Borg et Engstrom ont montré que chez le lapin, certains sons forts entraînent des lésions sélectives, éventuellement extensives des
CCI alors que les CCE restent intactes (diagramme du haut). En bas : cas d’un patient suivi de longue date en Suède pour exposition
chronique au bruit, avec un audiogramme à forte pente. Après son décès, les cochlées ont pu être préparées pour microscopie électronique,
montrant des pertes importantes de CCI et non de CCE. Ce patient avait certainement des ZMC au dessus de 3 kHz.
Notre équipe a pu obtenir des résultats évoquant cette possibilité chez l’homme. Parmi un groupe de
40 professionnels environ, exposés au bruit et suivis régulièrement en médecine du travail, nous avions
pu identifier chez plus du quart des sujets des encoches audiométriques (souvent profondes et à bord
abrupts), et pourtant des otoémissions (recherchées par la méthode des produits de distorsion qui
permet une analyse fréquence par fréquence des CCE de la cochlée) strictement normales à l’intérieur
de l’intervalle correspondant à leur encoche audiométrique (fig.4 page suivante), alors que la fig.5
montre le profil classique associé à des surdités dues au bruit impliquant les CCE : audiogramme et
DP-gramme coïncident).
87
37273_Monographie_N45.Nais_vie_m87 87
18/09/08 14:41:13
Monographie
chapitre
fig. 4
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
fig. 5
D fig.4 : audiogramme tonal (courbe en noir, traits gras) et PDA gramme (en produits de distorsion acoustique) d’un sujet
professionnellement exposé au bruit. La bande normative des PDA est marquée en orange. Les PDA de cette oreille s’y trouvent et sont donc
normaux. La surdité de ce sujet n’est donc pas due aux CCE qui produisent des PDA normaux, mais aux CCI et / ou aux neurones.
fig.5 : Mêmes conventions que la fig.4. Cette fois, l’audiogramme et le PDA gramme sont superposables, nettement anormaux, on peut
attribuer la surdité à une atteinte des CCE, et non des CCI. Cette configuration est observée le plus souvent, au contraire de celle de la fig.4
qui est moins classique (mais observée dans 1 cas sur 4 de la cohorte d’Avan et Bonfils, 2000).
Enfin, des travaux récents de Kujawa et Liberman sur la souris exposée au bruit pendant une courte
période durant son jeune âge mettent en évidence un effet réversible de cette exposition précoce sur
les CCE, initialement atteintes, mais dans les suites lointaines, plusieurs dizaines de semaines, une
dégénérescence hautement significative et spécifique des neurones du ganglion spiral, amorce possible
d’une ZMC.
Bases fonctionnelles pour une détection précise d’une ZMC
La preuve directe de l’existence d’une zone morte étant histologique, il est nécessaire de développer
des preuves indirectes, qui devant un audiogramme tonal suspect, permettent de mettre en avant
l’hypothèse d’une ZMC. Ces preuves visent à faire apparaître l’existence d’une écoute hors fréquence,
et sont basées sur le tracé de courbes d’accord psychophysiques. Le raisonnement est le suivant.
Examinons tout d’abord ce qui permet de tracer une courbe d’accord psychophysique.
Dans une cochlée aux CCI normales, on présente le son pur qui sert de test légèrement au-dessus de
son seuil de détection, à la fréquence f0 d’intérêt. La première consigne est de repérer ce son test, ce
qui est aisé. On mélange alors à ce son pur un son interférant (ou masquant, simultané ou proactif
selon le protocole choisi) de niveau L et de fréquence fm différant plus ou moins de f0. On recherche
pour chaque fréquence fm le plus petit niveau Lm rendant le son test indétectable. La courbe traçant
Lm en fonction de fm est la courbe d’accord psychophysique, qui présente une forme de V centré sur
f0, asymétrique ouvert vers les basses fréquences, et ressemblant à une courbe d’accord physiologique
de neurone unitaire, dont elle constitue une sorte de reflet.
Logiquement, les courbes d’accord sont centrées sur f0 car c’est à la fréquence centrale du filtre codant
pour f0 qu’un son masquant est le plus efficace. Dans une cochlée présentant une surdité à f0 mais pas
88
37273_Monographie_N45.Nais_vie_m88 88
18/09/08 14:41:14
de zone morte, le seuil à f0 est bien sûr élevé et la courbe d’accord psychophysique est de forme
anormale, en général avec un V trop ouvert traduisant l’élargissement des filtres cochléaires qui va
souvent de pair avec la surdité de perception, mais bien que la pointe de cette courbe soit émoussée,
et le V élargi, la pointe reste centrée sur f0.
Mais dans le cas piège d’une cochlée pour laquelle f0 correspond à une zone morte, le son test est
entendu, en fait hors fréquence, par l’intermédiaire des neurones du premier filtre au niveau duquel
la réponse mécanique est d’amplitude suffisante pour franchir le seuil, et signaler ainsi la présence du
son test. Ces neurones ne codent pas pour f0 mais pour une autre fréquence f1 voisine pour laquelle
la cochlée présente une bonne sensibilité. Ceci est trahi par le fait que le son masquant le plus efficace
pour empêcher le son test à la fréquence f0 d’être perçu est à la fréquence f1. La pointe du V de la
courbe d’accord psychophysique est alors centrée ailleurs qu’à la fréquence f0 testée (fig.6, diagramme
de gauche, courbe d’accord la plus à droite. Le cercle noir marque la position du son test à 1,5 kHz à
80 dB SPL, mais la courbe d’accord correspondante présente sa pointe – son minimum- autour de 65
dB SPL à 1 kHz).
D fig.6 : TEN test de Moore. A gauche, les courbes d’accord de masquage psychophysiques d’un sujet testé à 3 fréquences (sons tests
repérés en fréquence et en intensité par les symboles fermés). Une fréquence (1,5 kHz) est associée à une courbe d’accord excentrée qui
signe l’existence d’une écoute hors fréquence. A droite : audiogrammes (en dB SPL) en présence de TEN de niveaux croissants. Le décalage de
l’audiogramme aux fréquences > 1 kHz est anormal et signe la présence d’une ZMC.
89
37273_Monographie_N45.Nais_vie_m89 89
18/09/08 14:41:18
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
L’existence de ce phénomène de courbe d’accord psychophysique excentrée est connue depuis
longtemps (fig.7, d’après Florentine et Houtsma, 1983), mais sa mise en application clinique est très
difficile, et en pratique encore utopique, car l’obtention de courbes d’accord de masquage
psychophysiques est très longue.
D fig.7 : courbes d’accord de masquage psychophysiques d’après Florentine et Houtsma (1983). Celle de gauche est normale, celle de droite
décalée suite à la présence d’une ZMC. Sur ces diagrammes, l’audiogramme tonal est en dB SPL (courbes noires en bas). Les sons tests qui
servent à la construction des courbes d’accord sont repérés en fréquence et en intensité par des symboles fermés.
Plus rapide, le TEN test de Moore
Une solution permettant d’effectuer la localisation de ZMC par une méthode approchée beaucoup plus
rapide que celle des courbes d’accord de masquage psychophysiques a été mise au point il y a quelques
années seulement par Brian Moore et son laboratoire, la méthode du TEN test, TEN étant l’acronyme
pour threshold equalising noise. La mise à disposition de ce test a permis à des études cliniques d’être
réalisées et a donc relancé l’intérêt pour les ZMC. Le TEN test consiste à utiliser comme bruit masquant
un bruit de large bande fixe (dont seul le niveau varie au cours du test), et non plus comme pour les
courbes d’accord, un son masquant dont on balaie la fréquence au sein d’un large intervalle. Le test
utilise comme point de départ l’audiogramme tonal. On suppose se trouver dans une configuration
type qui fait soupçonner l’existence d’une ZMC, c’est-à-dire un audiogramme avec forte pente et zone
de transition étroite entre des seuils relativement peu élevés et des seuils élevés. On ajoute alors un
TEN à un niveau donné aux sons tests qui servent à réaliser l’audiogramme tonal : ceci présuppose
simplement l’utilisation d’un audiomètre à deux canaux « mélangeables ». Comme son nom l’indique,
90
37273_Monographie_N45.Nais_vie_m90 90
18/09/08 14:41:20
un TEN est conçu pour entraîner, normalement, c’est à dire en l’absence d’écoute hors fréquence, une
élévation uniforme des seuils de tous les sons purs de niveau inférieur au niveau de TEN. En revanche,
un son pur de niveau supérieur n’est normalement pas masquable.
Le résultat normalement obtenu lors d’un TEN test est, en présence du TEN, une élévation uniforme
de tous les seuils inférieurs au niveau du TEN, chaque seuil masqué se hissant juste au niveau du TEN,
et des seuils inchangés dans les zones sourdes, celles où pour être audible, le son test doit être ajusté
à un niveau bien plus élevé que celui du TEN.
Le résultat en présence d’une ZMC diffère en ce que les seuils mesurés dans la ZMC (ce sont donc des
résultats fantômes) sont affectés en présence de TEN, alors que ce TEN a un niveau bien inférieur. La raison
en est que l’écoute fantôme survient hors fréquence en faisant intervenir des neurones qui eux, répondent
de manière sensible pour les sons de la partie sensible de l’audiogramme. Pour ces régions, le seuil auditif
est inférieur au niveau du TEN et le TEN est donc masquant. Ceci entraîne une élévation des vrais seuils tout
comme des seuils faussement attribués à la ZMC. C’est le cas sur la fig.6, diagramme de droite, où les seuils
à l’audiogramme tonal liminaire (courbe marquée par des carrés noirs) s’élèvent en bloc, et pas seulement
en dessous de 1 kHz, lorsque des TEN de 30, 50 et 70 dB par bande rectangulaire équivalente sont présentés
mélangés au son test. Les seuils au-dessus de 1 kHz étaient donc obtenus grâce à des réponses impliquant
des régions masquables par les TEN, donc accordées en dessous de 1 kHz.
Le TEN test de Moore présente quelques exigences techniques. Initialement les audiogrammes devaient
être en dB SPL, ce qui n’est pas dans les habitudes des utilisateurs d’audiomètres cliniques pour
lesquels les calibrations sont en HL. Ce petit détail technique a été ensuite résolu. Une autre exigence
plus profonde est celle d’utiliser un TEN un peu plus complexe à synthétiser que le « simple » bruit
blanc standard des audiomètres. Ce TEN, disponible sur CD et largement distribué, a été construit de
manière à avoir des niveaux de pression instantanés le plus élevés possibles, au contraire de ceux d’un
bruit blanc dont la distribution de probabilité est normale et autorise des vallées. Le fait de présenter
des vallées d’amplitude au sein desquelles le son test peut émerger brièvement, alors qu’on souhaite
le masquer tout le temps, rend le masquage moins efficace ce qui perturberait la lecture de
l’audiogramme masqué. Les limites du TEN test rapportées par l’équipe de Moore portent sur la fiabilité
de la décision clé, selon laquelle en présence du TEN le seuil suspect s’est trouvé augmenté alors qu’il
ne le devrait pas, ce qui signe la présence d’une ZMC. Il est souhaitable pour avoir une conclusion fiable
que si augmentation du seuil il y a, elle soit assez nette,10 dB typiquement. Faute de quoi, compte
tenu de la précision de la procédure subjective de réalisation d’un audiogramme, la conclusion est
ambiguë.
Il peut arriver aussi que certains sujets aient des seuils en son pur trop élevés pour être mesurables,
ce qui empêche de rechercher une augmentation en présence de TEN. Ou alors, le niveau de bruit
nécessaire peut être inconfortable.
Détecter les ZMC, à quoi bon ?
Connaître la présence de ZMC a un intérêt physiopathologique évident. Il a aussi des conséquences
pratiques pour l’appareillage. En effet, l’un des buts de l’appareillage est de restaurer l’audibilité des
91
37273_Monographie_N45.Nais_vie_m91 91
18/09/08 14:41:24
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
sons sur le plus large spectre possible. Le cas d’une ZMC est particulier en ce que l’on sait que
la restauration de l’audition par cette zone ne dépend pas de l’application d’une quelconque
amplification aux fréquences considérées. Plus précisément, on peut en appliquant un gain
élevé restaurer l’audition (en tout cas la détectabilité) des fréquences normalement dévolues
à la ZMC, mais sachant que cette détection se fait via une écoute hors fréquences. Après
qu’une première étude chez des patients atteints de ZMC ait suggéré une dégradation des
performances lorsque l’amplification concernait les fréquences des ZMC, par rapport à des
réglages prothétiques renonçant à ces fréquences, il semble que les études ultérieures n’aient
pas rapporté d’effet nuisible.
On peut s’interroger légitimement sur la présence accrue d’acouphènes chez les patients dont
une oreille présente des zones mortes (Lurquin et coll., 2002). Ces auteurs décrivent en effet
une plus grande fréquence des ZMC dans un échantillon de patients acouphéniques.
L’importance de la perte auditive et la pente audiométrique, comme indiqué plus haut, sont
de bons indicateurs faisant soupçonner la présence de ZMC. La recherche de telles zones par
le TEN test apparaît réaliste en conditions de clinique courante, beaucoup plus que la
réalisation de courbes d’accord psychophysiques, et en cas de présence d’acouphènes et/ou
d’intervalles fréquentiels avec perte auditive brutalement élevée, cette recherche de ZMC
paraît être un complément très utile aux dossiers (voir Thai-Van et coll., 2003).
Bibliographie résumée :
1.
2.
3.
4.
5.
6.
7.
Avan P & Bonfils P (2005). Distortion-product otoacoustic emission spectra and high-resolution audiometry in noiseinduced hearing loss. Hear.Res. 209, 68-75.
Borg E & Engstrom B (1989). Noise level, inner hair cell damage, audiometric features, and equal-energy hypothesis.
J.Acoust.Soc.Am. 86, 1776-1782.
Florentine M & Houtsma AJ (1983). Tuning curves and pitch matches in a listener with a unilateral, low-frequency
hearing loss. J.Acoust.Soc.Am. 73, 961-965.
Lurquin P, Debarge A, Germain M, Markessis E, Thill MP, Contribution à l’établissement d’un lien entre zone cochléaire
morte et acouphène, Cahiers de l’Audition, 15, 9-21, 2002.
Moore BCJ, Huss M, Vickers DA, Glasberg BR, Alcantara JI, a test of the diagnosis of dead regions in the cochlea, British
J.Audiol. 34, 205-224, 2000.
Moore BCJ, the use of psychophysical tuning curves to explore dead regions in the cochlea, Ear and Hearing 22,
268-278, 2001.
Thai-Van H, Micheyl C, Moore BC & Collet L (2003). Enhanced frequency discrimination near the hearing loss cut-off: a
consequence of central auditory plasticity induced by cochlear damage? Brain 126, 2235-2245.
92
37273_Monographie_N45.Nais_vie_m92 92
18/09/08 14:41:24
3.1.2. Altérations fonctionnelles
3.1.2.1. Altérations fréquentielles
Données sur le déclin des performances de discrimination fréquentielle
Chez le presbyacousique, on observe un déclin des performances de discrimination fréquentielle. Ce
déclin connaît au moins deux origines. D’une part, les seuils de discrimination fréquentielle (DLF
exprimé en % de la fréquence testée : DLF/F) augmentent chez les sujets ayant une perte auditive
d’origine cochléaire (Marshall, 1981 ; Turner et Nelson, 1982). D’autre part, l’augmentation de l’âge a
elle-même une influence sur l’altération du DLF/F. En mesurant les capacités de discrimination
fréquentielle à une intensité sonore confortable dans une population de sujets de moins de 60 ans
avec audition conservée, Konig (1957) a observé une augmentation linéaire des DLF/F entre 25 et
55 ans, encore plus marquée au-delà. Quel est le rôle respectif de l’âge et de la perte auditive dans
cette augmentation ? Selon Abell et coll. (1990), le vieillissement sans perte auditive associée conduit
à une dégradation significative du DLF/F sur à la fois sur les fréquences graves (500 Hz) et aiguës
(4 000 Hz), l’âge affecterait préférentiellement la discrimination des fréquences graves, avec un effet
dès la 4e décennie. Pour les mêmes auteurs, la perte auditive seule, non confondue par le facteur âge,
conduirait à une dégradation du DLF/F préférentiellement sur les fréquences aiguës (4 000 Hz).
Plasticité de privation auditive et discrimination fréquentielle
On observe donc une altération des capacités de discrimination fréquentielle chez le presbyacousique.
Pour autant, l’atténuation voire la disparition d’une partie des informations afférentes normalement
destinées au système auditif central entraîne, dans la presbyacousie, des modifications plastiques du
cortex auditif (plasticité auditive de privation). Ces modifications vont, à leur tour, induire des
modifications spécifiques des capacités de discrimination fréquentielle.
Il a été montré qu’une lésion affectant une portion restreinte de la cochlée pouvait avoir d’importantes
conséquences sur les cartes tonotopiques du cortex auditif primaire. Ceci a pu être établi pour plusieurs
espèces animales en induisant des lésions cochléaires responsables de perte auditive abrupte (dite en
pente de ski), affectant les fréquences aiguës (cobaye : Robertson et Irvine, 1 989 ; chat : Rajan et al.,
1 993 ; macaque : Schwaber et al., 1 993). Les enregistrements électrophysiologiques réalisés dans le
cortex auditif de ces animaux montrent une réorganisation forte et rapide : les neurones auditifs
corticaux privés de leurs afférences habituelles en provenance de la cochlée - et qui codaient
initialement les fréquences situées dans la perte auditive - se mettent à décharger lorsque d’autres
sites cochléaires, adjacents au segment cochléaire lésé mais indemnes, sont excités par des informations
sonores. Ces modifications aboutissent in fine à une sur-représentation des régions cochléaires situées
juste en bordure de perte. Le phénomène de plasticité auditive de privation a aussi été retrouvé chez
des animaux présentant une perte progressive de leur audition comme la souris C57 BL/6J, une espèce
mutée présentant un développement auditif normal jusqu’à l’âge de 1-2 mois puis une surdité
progressive débutant à la base de la cochlée (Willott et al. 1 993). Entre 3 et 12 mois d’âge, alors que
ces souris perdent progressivement leur audition sur les fréquences aiguës, on observe une sur-
93
37273_Monographie_N45.Nais_vie_m93 93
18/09/08 14:41:27
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
représentation des fréquences intermédiaires (10-13 kHz) au niveau de leur cortex auditif primaire.
Chez l’humain, plusieurs études ont cherché à caractériser ce même phénomène en utilisant des
techniques soit directes, soit indirectes de l’activité cérébrale. Dietrich et coll. (2 001), à l’aide de la
magnétoencéphalographie, ont observé chez des sujets présentant une perte auditive en pente de ski
que le moment dipolaire était plus ample à la fréquence de coupure d’une perte auditive qu’aux
fréquences précédentes, ceci suggérant que davantage de neurones codaient cette fréquence et donc
qu’une réorganisation neuronale à cette fréquence se serait produite. Quelles sont les conséquences
perceptives de la réorganisation des cartes tonotopiques induite par la surdité ? Si le nombre de
neurones corticaux codant les fréquences situées en bordure de la lésion augmente, on peut s’attendre
à des conséquences sur la perception auditive fine. McDermott et coll. (1 998) furent les premiers à
émettre l’hypothèse que les fréquences comprises dans la bande fréquentielle surreprésentée devraient
être mieux discriminées que celles comprises dans d’autres bandes fréquentielles. L’idée sous-jacente
de cette étude était que la précision avec laquelle une population neuronale code un stimulus sensoriel
devait être proportionnelle au nombre de neurones déchargeant en réponse à ce stimulus. De fait, ces
auteurs purent mettre en évidence, chez des sujets présentant une perte auditive à pente raide sur les
fréquences aiguës, une amélioration locale des performances de discrimination fréquentielle : les seuils
de discrimination fréquentielle (définis comme la plus petite différence de fréquence perceptible dans
une bande de fréquence donnée) étaient significativement améliorés autour de la dernière fréquence
normalement perçue (appelée fréquence de coupure audiométrique) (fig. 8). Dans l’étude pionnière de
McDermott et coll., un faible nombre de sujets avait été testé et tous présentaient le même profil
audiométrique. Nous avons pu reproduire ce résultat dans de plus larges échantillons en montrant
que l’effet pouvait être également observé pour d’autres profils de perte auditive (par exemple, perte
affectant les fréquences graves) et que le facteur principal conditionnant la présence de cet effet était
l’importance de la pente de la perte auditive (Thai-Van et al., 2002, 2003, 2007). Plus la pente de la
perte est forte, plus les chances d’observer des modifications perceptives témoignant d’une
réorganisation des cartes tonotopiques sont importantes.
∂ fig. 8 : Amélioration locale des performances de discrimination
fréquentielle autour de la fréquence de coupure de l’audiogramme (Fc)
(d’après Thai-Van et al. , 2007)
Trois groupes de sujets différant par la pente de leur perte auditive sont
testés. Les courbe audiométriques sont représentées en pointillés, les
carrés vides correspondant aux seuils de détection des fréquences de
test (« absolute threshold »). Les cercles pleins représentent les seuils de
discrimination fréquentielle (« Frequency Discrimination Limen (DLF) »)
(moyenne sur 3 mesures ± erreur standard).
Diagramme supérieur: pente raide (> 50 dB/octave) ; diagramme
intermédiaire: pente moyenne (entre 24 et 50 dB/octave); diagramme
inférieur: pente faible (< 24 dB/octave). On note une amélioration locale
des performances de discrimination fréquentielle seulement dans les
groupes ayant une pente de perte supérieure à 24 dB/octave.
94
37273_Monographie_N45.Nais_vie_m94 94
18/09/08 14:41:27
Références
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
Abel, S.M., Krever, E.M. and Alberti, P.W., 1 990. Auditory detection, discrimination, and speech perception in aging, noise-sensitive, and hearing-impaired listeners. Scand. Audiol. 19, pp. 43–54.
Dietrich V., Nieschalk M., Stoll W., Rajan R., Pantev C. (2 001). Cortical reorganization in patients with high frequency cochlear
hearing loss. Hear Res. 158 (1-2) :95-101.
König, E., 1 957. Pitch discrimination and age. Acta Otolaryngol. 48, pp. 475–489.
Marshall L (1 981). Auditory processing in aging listeners. Journal of Speech and Hearing Disorders 46 : 226–240.
McDermott H.J., Lech M., Kornblum M.S., Irvine D.R. (1 998). Loudness perception and frequency discrimination in subjects with
steeply sloping hearing loss : possible correlates of neural plasticity. J Acoust Soc Am. 104 (4) :2314-25.
Rajan R., Irvine D.R., Wise L.Z., Heil P. (1 993). Effect of unilateral partial cochlear lesions in adult cats on the representation of
lesioned and unlesioned cochleas in primary auditory cortex. J Comp Neurol. 338 (1) :17-49.
Robertson D., Irvine D.R. (1 989). Plasticity of frequency organization in auditory cortex of guinea pigs with partial unilateral
deafness. J Comp Neurol. 282 (3) :456-71.
Schwaber M.K., Garraghty P.E., Kaas J.H. (1 993). Neuroplasticity of the adult primate auditory cortex following cochlear hearing
loss. Am J Otol. 14 (3) :252-8.
Thai-Van H., Micheyl C., Norena A., Collet L. (2 002). Local improvement in auditory frequency discrimination is associated with
hearing-loss slope in subjects with cochlear damage. Brain. 125 :524-37.
Thai-Van, H., Micheyl, C., Moore, B.C.J., Collet, L., (2 003). Enhanced frequency discrimination near the hearing loss cutoff : A consequence of central auditory plasticity induced by cochlear damage ? Brain 126 (Pt 10), 2235-2245.
Thai-Van H., Micheyl C., Norena A., Veuillet E., Gabriel D., Collet L. (2 007). Enhanced frequency discrimination in hearing-impaired
individuals. A review of perceptual correlates of central neural plasticity induced by cochlear damage. Hear. Res. 233 (12) :14-22.
Turner CW, Nelson DA (1 982). Frequency Discrimination in Regions of Normal and Impaired Sensitivity. Journal of Speech and
Hearing Research 25 : 34-41
Willott J.F., Aitkin L.M., McFadden S.L. (1 993). Plasticity of auditory cortex associated with sensorineural hearing loss in adult
C57BL/6J mice. J Comp Neurol. 329 (3) :402-11.
3.1.2.2. Altérations temporelles
Les difficultés de perception et compréhension de la parole, en particulier dans des situations
« écologiques », faisant intervenir un environnement plus ou moins bruyant, avec des locuteurs
multiples, sont largement rapportées par les sujets presbyacousiques. Bien que les relations entre les
performances du traitement temporel, étudié par des taches psychoacoustiques telles que celles
décrites au chapitre 2.1.2, et la perception de sons de parole dans le silence, n’aient pas toujours pu
être mises en évidence (Martin et Jerger, 2 005), il est maintenant admis que des troubles de traitement
de l’information temporelle chez le sujet presbyacousique représentent un facteur certain dans le
déficit de perception de la parole dans le bruit chez ces mêmes sujets. Plusieurs études ont mis en
évidence des difficultés dans la perception d’indices acoustiques de brève durée, entraînant des déficits
de compréhension de phonèmes, de mots et de phrases modifiés de manière à raccourcir leur durée
(Gordon-Salant et Fitzgibbons, 2001, Versfeld et Dresler, 2002).
Plus récemment, Lorenzi et coll. (2006) ont montré que les déficits de perception de la parole, chez des
sujets avec perte auditive, sont corrélés à un déficit de l’utilisation de la structure temporelle fine de
l’information auditive.
Chez le sujet presbyacousique, deux facteurs contribuent à un déficit du traitement temporel : la perte
auditive d’une part, et d’autre part l’influence de l’âge sur le traitement temporel de l’information
auditive, indépendamment de toute perte auditive.
95
37273_Monographie_N45.Nais_vie_m95 95
18/09/08 14:41:32
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
Perte auditive et traitement temporel
La plupart des études (Lister et coll., 2000 ; Grose et coll., 2001) n’ont pas mis en évidence d’influence
de la perte auditive sur le seuil de détection d’un silence entre deux signaux acoustiques (gapdetection). Certaines études ont montré un déficit chez les sujets avec perte auditive, uniquement dans
une tache de détection inter-canaux. Enfin, lorsque les signaux utilisés sont des bandes de bruit
fluctuant dans le temps, plutôt que des sons purs continus, les seuils de détection seraient plus élevés
chez les malentendants (Glasberg et Moore, 1992).
De même, aucune influence systématique de la perte auditive n’a été mise en évidence sur les capacités
de discrimination de durée de signaux (Grose et coll., 2004).
En revanche, la perte auditive neuro-sensorielle est associée à une détérioration des seuils de détection
des modulations d’amplitude (Grant et coll., 1998), et des modulations de fréquence (pour des
modulations inférieures à 10 Hz) (Lacher-Fougere et coll., 1998), ce qui a été associé à un déficit des
capacités de traitement de la structure fine temporelle de l’information auditive, dû à une diminution
des capacités de synchronisation des décharges neurales sur la phase du stimulus (phase-locking)
(Buss et coll., 2004, Moore et Sek, 1995).
Age et traitement temporel :
Snell et coll. (2002) montrent une corrélation entre la perception de la parole dans un bruit de cocktail
party d’une part, et l’âge et le seuil de détection d’un silence dans un bruit continu d’autre part, sans
relation avec la perte auditive sur les fréquences moyennes ou la perte auditive sur les hautes fréquences.
Plusieurs études ont mis en évidence un élargissement du seuil de détection d’un silence (gap-detection),
avec l’âge, indépendamment de la perte auditive (Schneider et Hamstra, 1999). Ainsi, le plus petit silence
détecté passe de 3 ms chez un groupe de sujet de 26 ans, à plus de 6 ms chez un groupe de sujets de
71 ans, à seuils auditifs équivalents, pour des intensités largement audibles (Strouse et coll., 1998). En
revanche, la performance des sujets âgés se détériore très rapidement lorsque l’intensité se rapproche
du seuil de détection, avec un plus petit silence détectable de plus de 35 ms contre moins de 10 ms pour
les sujets plus jeunes, suggérant une influence de cette perte de performance avec l’âge dans le traitement
de la parole à faible intensité. Enfin, ce déficit, chez le sujet âgé, est beaucoup plus prononcé pour des
durées de signal courtes (5 ms) que des durées de signal plus longues, suggérant un déficit dans la
récupération après adaptation chez le sujet âgé (Schneider et Hamstra, 1999).
Le traitement des différences de durée d’un signal sonore fait appel de manière plus importante aux
voies centrales auditives, et est relativement indépendant de différences périphériques, comme une
perte auditive, ou des modifications des caractéristiques des stimuli. Ainsi, Fitzgibbons et GordonSalant (1994) ont mis en évidence une détérioration nette de performance de sujets âgés dans la
discrimination de durée de signaux longs (250 ms, comparable en durée à une syllabe), indépendamment
d’une perte auditive. Ainsi, 2 groupes de sujets jeunes (30 ans), (un groupe de normo-entendants et
un groupe de mal-entendants) ont montré un seuil de discrimination de durée de 40 ms (pour un
signal tonal de 250 ms) contre plus de 60 ms chez deux groupes de sujets de 70 ans, appariés en perte
96
37273_Monographie_N45.Nais_vie_m96 96
18/09/08 14:41:32
auditive avec les deux groupes précédents. De plus, ce déficit, chez le sujet âgé, augmente lorsque le
son cible est inclus dans des séquences de sons purs, alors que la même complexité du stimulus
n’affecte pas les sujets plus jeunes (Fitzgibbons et coll., 1995), à perte auditive égale. Ces difficultés
dans la perception des différences de durée des sons ont été corrélées à des difficultés dans la
perception du rythme d’une succession de sons. En utilisant des séquences de sons séparés entre eux
par des durées de 100 ms à 600 ms, Fitzgibbons et coll. (2001) ont montré un déficit constant chez les
sujets âgés, par rapport aux sujets jeunes, dans la perception de la plus petite différence de rythme
dans les séquences présentées, déficit indépendant de la perte auditive. De plus, la perception de l’ordre
de présentation de différents sons au sein d’une séquence, est beaucoup plus difficile chez le sujet
âgé, surtout pour des rythmes rapides de présentation (Fitzgibbons et coll., 2006).
Les seuils de détection d’une modulation de fréquence sont plus élevés chez des sujets âgés que chez
des sujets jeunes, avec une différence d’autant plus importante qu’il s’agit de basses fréquences
(500 Hz versus 4 000 Hz), à perte auditive égale, suggérant un déficit temporel du traitement de
l’information auditive plutôt qu’un déficit lié à la perte auditive (He et coll., 2007), et un déficit dans
la synchronisation des réponses neurales sur la phase du stimulus (phase-locking).
La relative indépendance entre les déficits du traitement temporel et la perte auditive suggère que
les lésions périphériques cochléaires ne sont pas, à elles seules, à l’origine de ce déficit. Une perte
partielle, avec l’âge, des capacités de synchronisation des décharges neurophysiologiques sur les
stimuli sonores pourraient expliquer ces déficits (Pichora-Fuller, 2003). Cette hypothèse est
renforcée par les études électrophysiologiques, utilisant les potentiels évoqués auditifs tardifs : les
réponses (de type MMN) aux stimuli déviants en durée sont plus tardives et de moindre amplitude
chez le sujet âgé, et leurs altérations sont moins importantes que les réponses aux stimuli déviants
en fréquence (Bertoli et coll., 2002). De même, les réponses électrophysiologiques à des différences
de temps de voisement (N1-P1), sont plus tardives chez les sujets âgés, avec ou sans perte auditive,
mettant en évidence un déficit central dans le traitement temporel d’informations rapides
pertinentes pour la compréhension de la parole (Tremblay et coll., 2003). En revanche, il est difficile
d’établir l’existence d’un déficit spécifiquement auditif du traitement temporel des informations
acoustiques avec l’âge, ce déficit pouvant être la conséquence du ralentissement plus général des
capacités cognitives avec l’âge (Pichora-Fuller, 2003). Ainsi Humes (2005) montre que les deux
facteurs principaux expliquant les différences inter-individuelles dans le traitement temporel de
l’information auditive (mesuré par 3 tâches : discrimination de durée, discrimination de l’ordre
d’une séquence sonore, identification de syllabe), dans un groupe de 213 sujets âgés de plus de 60
ans, sont l’âge et l’état cognitif des sujets. La distinction entre déficit du traitement des informations
temporelles lié à l’âge et déficit lié à la perte auditive prend toute son importance lors de la
réhabilitation auditive, où la récupération d’une bonne audibilité ne va pas forcément entraîner la
récupération d’une bonne perception de la parole dans le bruit. À l’avenir, la dimension temporelle
du signal et les capacités du traitement de l’information temporelle auditive devront être de plus
en plus prises en compte en réhabilitation auditive, surtout chez les patients de plus de 50 ans, de
même que leur état cognitif.
97
37273_Monographie_N45.Nais_vie_m97 97
18/09/08 14:41:35
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
Références
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
Bertoli, S., Smurzynski, J., & Probst, R. (2 002). Temporal resolution in young and elderly subjects as measured by mismatch negativity and a psychoacoustic gap detection task. Clin Neurophysiol, 113 (3), 396-406.
Buss, E., Hall, J. W., 3rd, & Grose, J. H. (2 004). Temporal fine-structure cues to speech and pure tone modulation in observers with
sensorineural hearing loss. Ear Hear, 25 (3), 242-250.
Fitzgibbons, P. J., & Gordon-Salant, S. (1 994). Age effects on measures of auditory duration discrimination. J‹Speech Hear Res, 37
(3), 662-670.
Fitzgibbons, P. J., & Gordon-Salant, S. (1 995). Age effects on duration discrimination with simple and complex stimuli. J Acoust
Soc Am, 98 (6), 3140-3145.
Fitzgibbons, P. J., & Gordon-Salant, S. (2 001). Aging and temporal discrimination in auditory sequences. J‹Acoust Soc Am, 109 (6),
2955-2963.
Fitzgibbons, P. J., Gordon-Salant, S., & Friedman, S. A. (2 006). Effects of age and sequence presentation rate on temporal order
recognition. J Acoust Soc Am, 120 (2), 991-999.
Glasberg, B. R., & Moore, B. C. (1 992). Effects of envelope fluctuations on gap detection. Hear Res, 64 (1), 81-92.
Gordon-Salant, S. (2 005). Hearing loss and aging : new research findings and clinical implications. J Rehabil Res Dev, 42 (4
Suppl 2), 9-24.
Gordon-Salant, S., & Fitzgibbons, P. J. (2 001). Sources of age-related recognition difficulty for time-compressed speech. J Speech
Lang Hear Res, 44 (4), 709-719.
Grant, K. W., Summers, V., & Leek, M. R. (1 998). Modulation rate detection and discrimination by normal-hearing and hearing-impaired listeners. J Acoust Soc Am, 104 (2 Pt 1), 1051-1060.
Grose, J. H., Hall, J. W., 3rd, & Buss, E. (2 001). Gap duration discrimination in listeners with cochlear hearing loss : effects of gap
and marker duration, frequency separation, and mode of presentation. J Assoc Res Otolaryngol, 2 (4), 388-398.
Grose, J. H., Hall, J. W., 3rd, & Buss, E. (2 004). Duration discrimination in listeners with cochlear hearing loss : effects of stimulus
type and frequency. J Speech Lang Hear Res, 47 (1), 5-12.
Grose, J. H., Hall, J. W., 3rd, & Buss, E. (2 006). Temporal processing deficits in the pre-senescent auditory system. J Acoust Soc
Am, 119 (4), 2305-2315.
He, N. J., Mills, J. H., & Dubno, J. R. (2 007). Frequency modulation detection : effects of age, psychophysical method, and modulation waveform. J Acoust Soc Am, 122 (1), 467-477.
Humes, L. E. (2 005). Do ‘auditory processing’ tests measure auditory processing in the elderly ? Ear Hear, 26 (2), 109-119.
Lacher-Fougere, S., & Demany, L. (1 998). Modulation detection by normal and hearing-impaired listeners. Audiology, 37 (2), 109-121.
Lister, J., Besing, J., & Koehnke, J. (2 002). Effects of age and frequency disparity on gap discrimination. J Acoust Soc Am, 111 (6),
2793-2800.
Lister, J. J., Koehnke, J. D., & Besing, J. M. (2 000). Binaural gap duration discrimination in listeners with impaired hearing and normal
hearing. Ear Hear, 21 (2), 141-150.
Lister, J. J., & Roberts, R. A. (2 005). Effects of age and hearing loss on gap detection and the precedence effect : narrow-band stimuli. J Speech Lang Hear Res, 48 (2), 482-493.
Lorenzi, C., Gilbert, G., Carn, H., Garnier, S., & Moore, B. C. (2 006). Speech perception problems of the hearing impaired reflect inability to
use temporal fine structure. Proc Natl Acad Sci U S A, 103 (49), 18866-18869.
Martin, J. S., & Jerger, J. F. (2 005). Some effects of aging on central auditory processing. J Rehabil Res Dev, 42 (4 Suppl 2), 25-44.
Moore, B. C., & Sek, A. (1 995). Effects of carrier frequency, modulation rate, and modulation waveform on the detection of modulation and the discrimination of modulation type (amplitude modulation versus frequency modulation). J Acoust Soc Am, 97 (4),
2468-2478.
Pichora-Fuller, M. K. (2 003). Cognitive aging and auditory information processing. Int J Audiol, 42 Suppl 2, 2S26-32.
Pichora-Fuller, M. K., & Souza, P. E. (2 003). Effects of aging on auditory processing of speech. Int J Audiol, 42 Suppl 2, 2S11-16.
Pichora-Fuller, M. K. (2 003). Processing speed and timing in aging adults : psychoacoustics, speech perception, and comprehension.
Int J Audiol, 42 Suppl 1, S59-67.
Schneider, B. A., & Hamstra, S. J. (1 999). Gap detection thresholds as a function of tonal duration for younger and older listeners. J
Acoust Soc Am, 106 (1), 371-380.
98
37273_Monographie_N45.Nais_vie_m98 98
18/09/08 14:41:36
27.
28.
29.
30.
Snell, K. B., Mapes, F. M., Hickman, E. D., & Frisina, D. R. (2 002). Word recognition in competing babble and the effects of age,
temporal processing, and absolute sensitivity. J Acoust Soc Am, 112 (2), 720-727.
Strouse, A., Ashmead, D. H., Ohde, R. N., & Grantham, D. W. (1 998). Temporal processing in the aging auditory system. J Acoust Soc
Am, 104 (4), 2385-2399.
Tremblay, K. L., Piskosz, M., & Souza, P. (2 003). Effects of age and age-related hearing loss on the neural representation of speech
cues. Clin Neurophysiol, 114 (7), 1332-1343.
Versfeld, N. J., & Dreschler, W. A. (2 002). The relationship between the intelligibility of time-compressed speech and speech in
noise in young and elderly listeners. J Acoust Soc Am, 111 (1 Pt 1), 401-408.
3.1.2.3. Altérations en intensité
Le sujet presbyacousique a pour caractéristique majeure de présenter une élévation des seuils absolus
d’audition plus particulièrement marquée sur les hautes fréquences. La figure 9 montre l’évolution des
seuils auditifs avec l’âge. Cette atteinte auditive neurosensorielle liée au vieillissement auditif touche
∂ fig. 9 : Evolution de la
perte auditive avec l'âge
plus de 65 % de la population à 70 ans et 81 % à l’âge de 80 ans. Cette baisse de la sensibilité auditive s’accompagne, d’une part, d’altérations de la perception de la sonie et, d’autre part, de dégradations des seuils différentiels d’intensité.
Déclin de la perception de la sonie
Alors que le sujet presbyacousique présente des seuils de perception supérieure à la normale, ses seuils
de douleur restent dans la même zone du plan dynamique. On parle de dynamique auditive réduite
(fig. 10).
Il en résulte que lorsque le son est augmenté en intensité au-dessus du seuil de perception, le taux de
croissance du niveau de sonie en fonction de l’intensité est supérieur à la normale et ainsi le niveau
99
37273_Monographie_N45.Nais_vie_m99 99
18/09/08 14:41:39
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
∂ fig. 10 : Perte de la
dynamique auditive avec
l'âge.
A- Normo entendant,
B- presbyacousique
sonore passe rapidement de « pas assez fort » à « trop fort ». Mais lorsque le niveau est suffisamment
élevé (aux environs de 90 à 100 dB SPL) la sonie atteint sa valeur normale et le son apparaît aussi fort
à la personne malentendante qu’à la personne avec une audition normale (fig. 11). Ce phénomène
∂ fig. 11 : Courbes de
sonies normales et
pathologique : le
recrutement.
100
37273_Monographie_N45.Nais_vie_m100 100
18/09/08 14:41:41
connu sous le nom de « recrutement de la sonie » explique très probablement la plainte souvent
formulée par les personnes malentendantes : « Ne criez pas, j’entends suffisamment fort mais je ne
comprends pas ! ». Ainsi les sons faibles ne sont plus entendus mais les autres restent audibles mais
inintelligibles.
Déclin de la discrimination d’Intensité
La capacité de détecter des changements d’intensité est largement basée sur la sensation de sonie
évoquée par les sons. Or la même variation de sonie correspond chez les malentendants à une gamme
dynamique plus faible résultant, pour un changement donné en intensité, en un changement supérieur
à la normale de la sensation de sonie. On devrait donc obtenir de meilleures performances de
discrimination d’Intensité (c’est-à-dire des SDI plus faibles) chez les malentendants comparés aux
normoentendants. Mais le changement juste détectable en sonie est affecté par la lésion cochléaire
présente chez les sujets presbyacousiques et de plus la mesure des SDI est beaucoup moins précise et
surtout très dépendante de la technique utilisée. Ainsi, lorsque les comparaisons sont faites à des
niveaux de perception égaux par rapport au seuil de perception (SL), les malentendants ont des
performances similaires voire meilleures que celles des normo-entendants. Si les performances sont
comparées à des niveaux égaux de pression (SPL) les malentendants ne sont pas meilleurs et leur SDI
est même parfois plus élevé (Florentine et coll. 1993 ; Schroder et coll., 1994 ; Turner et coll. 1989).
Du fait de leurs seuils auditifs élevés les malentendants non appareillés écoutent souvent à des niveaux
de sensation sonore plus faibles que les sujets normo-entendants et sont ainsi en condition de
déprivation auditive. Cela explique certainement pourquoi leur capacité de discrimination en intensité
est moins bonne. Cela ne semble pas poser de gros problèmes dans la vie de tous les jours, puisque
d’une part il est rare que l’information critique soit apportée par de petits changements d’intensité et
que d’autre part les contrastes en intensité apportant de l’information dans la parole impliquent des
changements d’intensité bien au-dessus des seuils de détection des auditeurs (qu’ils soient normo- ou
malentendants). Mais en aidant l’oreille d’un malentendant à travailler à des niveaux plus forts
d’intensités, des phénomènes de plasticité dans les voies auditives sont possibles et il a été d’ailleurs
montré que l’appareillage auditif modifie la perception de la sonie et les performances de discrimination
en intensité (Philibert et coll. 2001, Philibert et coll. 2005).
Références
1.
2.
3.
4.
5.
6.
Florentine M, Reed CM, Rabinowitz WM, Braida LD, Durlach NI. (1 993). Intensity perception. XIV. Intensity discrimination in listeners
with sensorineural hearing loss. J Acoust Soc Am 94 : 2575-2586.
Moore BCJ (2 002). An introduction to the Psychology of Hearing. Fifth Edition.
Philibert B, Collet L, Vesson JF, Veuillet E. (2 002). Intensity-related performances are modified by long-term hearing aid use : a
functional plasticity ? Hear Res, 165 : 142-151.
Philibert B, Veuillet E, Vesson JF, Collet L. (2 005). The auditory acclimatization effect in sensorineural hearing-impaired listeners :
evidence for a functional plasticity. Hear Res, 205 (1-2) : 131-142.
Schroder AC, Viemester NF, Nelson DA. (1 994). Intensity discrimination in normal-hearing and hearing-impaired listeners. J Acoust
Soc Am 96 : 2683-2693.
Turner CW, Zwislocki JJ, Filion PR. (1 989). Intensity discrimination determined with two paradigms in normal and hearing-impaired subjects. J Acoust Soc Am 74 : 1190-1199.
101
37273_Monographie_N45.Nais_vie_m101 101
18/09/08 14:41:47
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
3.1.2.4. Effets des dommages cochléaires sur la localisation des sons et l’audition binaurale
Comme nous l’avons vu plus haut, plusieurs avantages sont associés au fait d’utiliser deux oreilles
dans la fonction d’audition. Ces avantages peuvent être réduits par les dommages cochléaires, mais
cela n’est pas toujours le cas.
Localisation et latéralisation du son
Durlach, Thomson et Colburn (1981) ont passé en revue les études de la localisation et la latéralisation
du son chez les personnes malentendantes. La majorité des études utilisait pour stimuli, soit du bruit
large bande, soit du bruit filtré. Durlach & al concluent que de nombreuses études étaient difficiles à
interpréter parce qu’elles ne faisaient pas la distinction entre les erreurs systématiques de localisation
et une mauvaise résolution. Cependant, il y avait une tendance claire à une mauvaise localisation et
une mauvaise latéralisation chez les porteurs de dommages cochléaires unilatéraux ou asymétriques.
Les sujets ayant des pertes cochléaires symétriques présentaient souvent des performances proches
de la normale, surtout lorsqu’ils étaient testés à des niveaux sonores suffisamment forts.
D’autres études (Gabriel, Koehnke et Colburn, 1992 ; Hausler, Colburn et Marr, 1983 ; Kinkel, Kolimeler
et Holube, 1991 ; Smoski et Trahiotis, 1986) montrent que les performances binaurales peuvent varier
de manière marquée entre les sujets. Les sujets porteurs d’une perte unilatérale ou symétrique tendent
à présenter des seuils supérieurs à la normale pour la détection de différences de temps interaurales
(DTIs) et de différences d’intensité interaurales (DIIs). Les sujets ayant une perte symétrique présentent
parfois une capacité de localisation normale ou presque normale pour des stimuli de bruit « largebande ». Cependant, ils présentent souvent des performances altérées pour des stimuli à bande étroite.
Il est possible, comme l’ont fait remarquer Colburn et Trahiotis (1992), que de bonnes performances
pour un intervalle de fréquences réduit, suffisent à assurer de bonnes performances pour des stimuli
large-bande.
La mauvaise discrimination des DTIs, lorsqu’elle se produit, peut être le résultat de plusieurs facteurs.
D’abord, elle peut être partiellement reliée aux niveaux SL relativement faibles des stimuli : la
discrimination de DTI chez des sujets normo-entendants se dégrade considérablement au-dessous de
20 dB SL environ (Hausler, Colburn et Marr, 1983). Ensuite, elle peut résulter d’anormalités dans le
temps de parcours de l’onde progressive le long de la membrane basilaire ou dans la phase de démarrage
des décharges, et dans les différences de temps de parcours ou de phase de démarrage des décharges
entre les deux oreilles (Ruggero et Rich, 1987 ; Ruggero, Rich et Recio, 1993). Enfin, elle peut résulter
d’anormalités dans le verrouillage de phase.
Les anormalités dans la discrimination de DII peuvent également avoir de multiples causes.
Premièrement, comme pour la discrimination de DTI, elles peuvent résulter d’un codage anormal de
l’intensité et de différences dans le codage de l’intensité entre les deux oreilles. Dans ce contexte, il
est utile de noter que la discrimination de DII chez des sujets normo-entendants peut être notablement
dégradée en posant un bouchon d’oreille dans l’une des oreilles (Hausler, Colburn et Marr, 1983).
Certains porteurs de dommages cochléaires n’ont quasiment aucune capacité à utiliser les indices
spectraux fournis par les transformations du pavillon (H Colburn et Marr, 1983). Cela peut se produire
102
37273_Monographie_N45.Nais_vie_m102 102
18/09/08 14:41:47
soit parce que les indices sont inaudibles soit parce que les patterns de sommets et de vallées spectraux
ne peuvent être distingués. Le manque d’indices pavillonnaires crée des difficultés à décider si un son
vient de l’avant ou de l’arrière, et du dessus ou du dessous, Il faut remarquer que les indices pavillonnaires
sont terriblement altérés ou complètement éliminés par les aides auditives. Les appareils auditifs
altèrent les patterns spectraux au niveau du tympan et généralement n’amplifient pas les sons dans
l’intervalle de fréquence au-dessus de 6 kHz, où les indices pavillonnaires sont les plus importants.
Différences de niveau de masquage binaurales (DNMs) pour les porteurs de dommages cochléaires.
La DNM binaurale se rapporte à l’amélioration de la détection d’un signal dans un bruit, qui se produit
lorsque le signal et le bruit ont des DTls ou des DIIs différentes (Moore, 1989). Durlach, Thomson et
Colburn (1981) ont passé en revue les études de DNM utilisant des sujets malentendants. Bien qu’ils
y aient constaté une variabilité considérable dans les résultats d’une étude à l’autre, il était généralement
trouvé qu’une perte auditive cochléaire mène à une réduction des DNMs, même lorsque la perte
auditive est raisonnablement symétrique. Par exemple, Quaranta et Cervellera (1974) font état de
DNMs anormalement petites dans 98 % des cas. Plusieurs études plus récentes confirment que les
DNMs sont typiquement plus petites que la normale chez des sujets porteurs de perte auditive
cochléaire (Hall, Tyler et Fernandes, 1984 ; Jerger, Brown et Smith, 1984 Kinkel, Kollmeier et Holube,
1991 ; Staffel, Hall, Grose et Pillsbury, 1990). Ces études présentent une tendance vers des DNMs plus
petites chez des sujets aux seuils absolus plus élevés, bien que la relation ne soit généralement pas
forte, et que les sujets de seuils absolus similaires puissent avoir des DNMs très différentes. Les DNMs
tendent également à décroître lorsque croît l’asymétrie de la perte (Jerger et al, 1984).
Effets d’ombre de la tête – Sélection de la meilleure oreille
Lors de l’audition d’un signal dans un bruit de fond dans les situations de la vie courante, il est fréquent
que le rapport signal-sur-bruit soit bien meilleur sur une oreille que sur l’autre. Un des avantages
d’avoir deux oreilles réside en ce que l’auditeur peut effectivement sélectionner l’oreille donnant le
meilleur rapport du signal au masque.
Bronkhorst et Plomp (1988) ont étudié les effets de DTIs et de l’ombre de la tête sur l’intelligibilité de
parole dans le bruit dans des conditions d’écoute binauraIes. Les sons étaient enregistrés en utilisant un
modèle réaliste de la tête et du torse humains (KEMAR ; voir Burkhard, 1975). La parole était présentée
directement en face du KEMAR, alors que le bruit était présenté venant de sept azimuts allant de 0°
(frontal) à 180°. Le bruit avait le même spectre moyen à long terme que la parole. Les sons enregistrés
étaient traités numériquement de manière à composer deux signaux, l’un contenant seulement des DTIs
(intensité identique sur les deux oreilles à toutes les fréquences) et l’autre contenant seulement les DIls
dues à l’ombre de la tête. Ces stimuli étaient présentés au casque. Le rapport signal-sur-bruit nécessaire
pour que 50 % des phrases soient comprises, le seuil de réception de la parole (SRP), était déterminé pour
chaque azimut du bruit. La chute du SRP, relativement au cas où tant le signal que le bruit viennent de
l’azimut 0°, est appelé la différence binaurale de niveau d’intelligibilité (DBNI). La DBNI due aux DTIs était
entre 3,9 et 5,1 dB, pour des azimuts du bruit entre 30° et 150°, alors que la DBNI due aux DIls était entre
103
37273_Monographie_N45.Nais_vie_m103 103
18/09/08 14:41:50
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
3,5 et 7,8 dB. Lorsque les DTIs et les DIIs étaient simultanément présentes, c’est-à-dire lorsque l’on utilisait
les stimuli non traités, les améliorations étaient encore plus grandes, allant de 5,8 à 10,1 dB. La présence
des DIIs réduisait l’effet du démasquage dû aux DTIs. Dans des expériences supplémentaires où le stimulus
était supprimé sur une oreille, Bronkhorst et Plomp montrèrent que l’avantage dû aux DIIs dépend
principalement de l’oreille recevant le rapport signal-sur-bruit le plus élevé. Cependant, cet avantage
décroît lorsque le bruit dans l’autre oreille est assez fort.
En résumé, la séparation spatiale de la parole et du bruit de fond peut mener à un DBNI de 10 dB. Le plus
gros de cet effet, 7 à 8 dB, est dû au fait que le rapport signal-sur-bruit est amélioré sur une oreille par
les effets d’ombre de la tête. Une petite partie, 2 à 3 dB, est due au traitement binaural des DTIs.
Bronkhorst et Plomp (1989) ont mené des expériences similaires à celles décrites ci-dessus en utilisant
17 sujets porteurs de pertes auditives symétriques et 17 sujets porteurs de pertes asymétriques,
différences de seuils entre les deux oreilles, moyennée sur 500, 1 000 et 2 000 Hz, allant de 5 à 31 dB.
La plupart des sujets étaient considérés comme porteurs de pertes auditives cochléaires légères à
modérées. Le niveau de bruit était ajusté pour chaque sujet de manière à être aussi loin que possible
au-dessus du seuil absolu sans être inconfortablement fort. Lorsque la parole et le bruit venaient tous
deux de l’azimut 0°, les SRPs étaient, en moyenne, plus élevés de 2,5 dB que ceux trouvés pour des
sujets normo-entendants. Les sujets malentendants montraient un gain binaural inférieur de 2,6 à
5,1 dB à la normale lorsque l’azimut du bruit passait à 90°. En d’autres termes, dans cette condition
les SRPs étaient supérieurs de 5,1 à 7,6 dB à la normale, une différence considérable.
Les DBNIs dues aux DIIs seules allaient de 0 dB aux valeurs normales de 7 dB ou plus. L’importance
des DBNIs dépendait de la perte haute-fréquence dans l’oreille recevant le rapport signal-sur-bruit le
plus fort ; des pertes hautes-fréquences plus fortes étaient associées à un avantage réduit. Cela semble
logique puisque les effets d’ombre de la tête sont les plus forts aux hautes fréquences, et si ces hautes
fréquences sont inaudibles, peu de profit peut en être tiré. Les DBNIs moyens dus aux DTIs seules
étaient presque normaux, 4,2 dB au lieu de 4,7 dB pour les sujets normo-entendants, pour des sujets
porteurs de pertes auditives symétriques. Cependant, les sujets porteurs de pertes asymétriques
présentaient des DBNIs plus faibles, égales en moyenne à 2,5 dB. Lorsque les DTIs étaient introduites
dans des stimuli contenant déjà des DIIs, le gain était de 2 à 2,5 dB pour les deux groupes, ce qui est
comparable à celui obtenu pour des sujets normo-entendants.
En résumé, les sujets porteurs de pertes auditives cochléaires sont généralement moins à même que
les normo-entendants de tirer avantage de la séparation spatiale de la parole et d’un bruit gênant.
Lorsqu’ils sont testés dans des conditions où la parole et le bruit sont séparés spatialement, leurs
performances sont moins bonnes, relativement à la normale, que lorsque la parole et le bruit viennent
de la même position dans l’espace. Le handicap semble provenir principalement de l’inaudibilité des
hautes fréquences dans l’oreille où le rapport signal-sur-bruit est le plus élevé.
104
37273_Monographie_N45.Nais_vie_m104 104
18/09/08 14:41:50
3.1.3. Altérations au sein du vieillissement général – potentialisation
Le vieillissement auditif s’intègre dans un processus plus général de vieillissement biologique, touchant
à la fois l’organe sensoriel périphérique, le système auditif central et les processus cognitifs (cf. fig. 12).
Ces trois niveaux d’atteinte, en se combinant, vont entraîner des troubles perceptivo-cognitifs beaucoup
plus complexes que le déficit audiométrique caractérisant la presbyacousie. Jugé trop restrictif par nos
collègues anglo-saxons, ce terme est actuellement remplacé par une dénomination plus générique :
les troubles auditifs liés à l’âge (age-related hearing impairment), dont les causes englobent l’ensemble
des processus physiologiques et pathologiques survenant au cours du vieillissement (Chisolm et al.,
2003).
∂ fig. 12. Impact du
vieillissement sur la perception
auditive : trois processus
successifs sont nécessaires au
bon fonctionnement de
l’audition : (i) le système auditif
périphérique (capteur et
transduction) ; (ii) le système
auditif central (transmission et
intégration) ; (iii) le système
cognitif (identification et
interprétation). Les différents
niveaux d’atteinte sont
schématisés par des rectangles
en pointillés rouges, dont
l’épaisseur est proportionnelle à
leur importance relative dans le
phénomène de vieillissement
auditif. OE = oreille externe, OM
= oreille moyenne ; Ire = primaire,
IIre = secondaire (ou associatif).
3.1.3.1. Cadres conceptuels
Plusieurs approches théoriques ont permis de définir la place du vieillissement auditif au sein du
vieillissement général (pour une revue, cf. Pichora-Fuller et Singh, 2006).
Participation centrale au vieillissement auditif
Les modifications centrales relatives au phénomène de presbyacousie sont liées à deux processus
distincts : d’une part, il existe des effets biologiques directs du vieillissement sur le système auditif
central (central effects of biological aging) ; d’autre part, il existe des répercussions centrales indirectes
105
37273_Monographie_N45.Nais_vie_m105 105
18/09/08 14:41:55
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
de l’atteinte auditive périphérique, liées à la réduction des afférences (central effects of peripheral
pathology) (Chisolm et al., 2003) (cf. fig. 13). Les dégradations anatomo-physiologiques du système
auditif central, en aggravant les perturbations fonctionnelles liées à l’atteinte périphérique, vont
entraîner des répercussions importantes sur la perception auditive, indépendamment du statut cognitif
des sujets.
Vieillissement cognitif et perception auditive
Le vieillissement cognitif peut être considéré comme l’expression fonctionnelle des modifications
fig. 13. Vieillissement auditif et
vieillissement cognitif : Les
répercussions du vieillissement sur
la perception auditive peuvent
être conçues selon deux modèles :
le modèle hiérarchique séquentiel
et en série (modular site-of-lesion
view) ou le modèle global intégré
et en parallèle (integrated
information processing view).
d
anatomo-physiologiques cérébrales survenant avec l’âge. Dans le cadre de l’audition, les processus
cognitifs auditifs correspondent à l’ensemble des processus permettant l’interprétation de l’information
auditive. Ils impliquent, entre autres, des facteurs linguistiques, mnésiques, attentionnels et émotionnels
relevant de structures cérébrales autres que les aires auditives primaires.
Dans la seconde moitié des années 1990, un groupe de recherche berlinois sur le vieillissement (Berlin
Aging Study), dirigé par Paul Baltes, a développé une approche intégrée centrée sur le traitement de
l’information auditive. En comparant les capacités sensorielles et cognitives de sujets âgés (de 70 à
103 ans) à celles de sujets adultes (de 25 à 69 ans), ils ont montré que la mesure couplée des capacités
visuo-auditives (sensibilité auditive et acuité visuelle) était plus fortement corrélée à la dégradation
des capacités cognitives liée à l’âge que la mesure de la vitesse de traitement cognitif (temps de
réaction). Ils ont ainsi proposé quatre hypothèses pouvant expliquer les interactions entre vieillissement
cognitif et vieillissement auditif :
106
37273_Monographie_N45.Nais_vie_m106 106
18/09/08 14:41:56
•
•
•
•
(i) l’hypothèse de la cause commune : le déclin cognitivo-perceptif est symptomatique d’une
dégénérescence neuronale généralisée ;
(ii) l’hypothèse de la charge cognitive : le déclin cognitif entrave le fonctionnement auditif ;
(iii) l’hypothèse de la privation sensorielle : le déclin auditif aboutit à un déclin cognitif
permanent ;
(iv) l’hypothèse de la dégradation informationnelle : l’appauvrissement de l’information auditive
afférente altère le fonctionnement cognitif.
Effet combiné de l’atteinte auditive centrale et du vieillissement cognitif
Les éventuels troubles cognitifs liés au vieillissement – portant notamment sur les capacités
attentionnelles et de mémoire à court terme- peuvent aggraver les perturbations centrales et majorer
les difficultés de compréhension de la parole. Schématiquement, on peut dire que l’implication de
l’atteinte centrale et/ou cognitive dans la dégradation de la perception auditive liée à l’âge est d’autant
plus importante que le stimulus acoustique est complexe et/ou la situation d’écoute dégradée ou
concurrentielle.
Ainsi, une situation de communication interpersonnelle reste possible dans le silence, grâce à la lecture labiale et à la suppléance mentale. Par contre, en milieu bruité ou concurrentielle, la communication devient difficile, voire impossible : d’une part, du fait de la dégradation du codage et de la
transmission du message afférent auditif ; d’autre part, du fait d’une sollicitation supramaximale des
processus cognitifs, dépassant les capacités du
sujet âgé malentendant
(cf. fig. 14).
∂ fig. 14. Communication
interpersonnelle (modèle de
Shannon et Weaver) : En haut,
communication dans le silence. En
bas, communication en milieu
bruité ou concurrentiel. (D’après
Einar Faanes, Wikimedia Commons
2006).
107
37273_Monographie_N45.Nais_vie_m107 107
18/09/08 14:41:59
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
Mécanismes impliqués dans la dégradation de l’intelligibilité de la parole au cours du
vieillissement
Historiquement, deux conceptions se sont opposées pour expliquer la dégradation de la
compréhension de la parole avec l’âge (cf. fig. 13).
À la fin des années 1980, un groupe d’étude américain sur l’intelligibilité de la parole et le
vieillissement a développé un modèle physiopathologique comportant trois mécanismes
distincts : (i) une atteinte sensorielle périphérique, (ii) une atteinte auditive centrale et (iii) une
atteinte cognitive (CHABA, 1988). Cette conception était basée sur une organisation
traditionnelle du système auditif (avec un fonctionnement en série) et sur le principe
physiopathologique du niveau lésionnel. De fait, les trois niveaux d’atteinte anatomofonctionnelle s’excluaient mutuellement.
Par la suite, l’absence de résultats expérimentaux en faveur d’un facteur physiopathologique
unique, associée aux données histopathologiques chez l’animal -montrant une interaction
réciproque entre vieillissement auditif périphérique et central-, a conduit les chercheurs à
modifier leur conception, notamment sous l’impulsion des travaux du groupe de recherche
berlinois sur le vieillissement. L’évolution s’est donc faite vers une approche plus intégrée,
centrée sur le traitement de l’information auditive et impliquant un dysfonctionnement plus
global, avec des interactions réciproques sensorielles et cognitives (pour une revue, cf.
Pichora-Fuller et Souza, 2003).
3.1.3.2. Résultats expérimentaux
Comme nous l’avons évoqué précédemment, le vieillissement auditif (périphérique et central)
peut entraîner une perturbation des processus cognitifs, de même que le vieillissement
cognitif est susceptible d’entraver la perception auditive. De nombreuses études ont donc
cherché à préciser les interactions réciproques qui pouvaient exister entre troubles sensoriels
et troubles cognitifs.
Influence des troubles auditifs sur le fonctionnement cognitif
Certaines données actuelles sont en faveur d’une influence des troubles sensoriels auditifs
sur le fonctionnement cognitif. La principale conséquence est une réduction des capacités de
communication, liée à une dégradation du message auditif afférent et à une détérioration de
sa compréhension, pouvant aboutir dans les cas les plus sévères à un isolement social (Arlinger,
2003).
Si l’on reprend la classification berlinoise, les conséquences peuvent varier en fonction de
l’échelle temporelle, avec des répercussions à long terme (“probablement irréversibles”) pour
l’hypothèse de la privation sensorielle et des modifications à court terme (“possiblement
réversibles”) pour l’hypothèse de la dégradation informationnelle. Cette dernière hypothèse
est importante à prendre ne compte, dans la mesure où elle suggère que l’amélioration du
message auditif afférent est susceptible d’améliorer le fonctionnement cognitif. Elle justifie
108
37273_Monographie_N45.Nais_vie_m108 108
18/09/08 14:41:59
par là les approches thérapeutiques actuelles basées sur la réafférentation sensorielle des sujets âgés,
par exemple par le biais de prothèses auditives (pour une revue, cf. Kricos, 2006). Dans ce cadre, la
restauration de la fonction auditive – par son “potentiel thérapeutique” sur les troubles cognitifs –
pourrait être une des mesures importantes à réaliser chez les sujets âgés malentendants présentant
un syndrome démentiel (cf. Infra).
Facteurs cognitifs impliqués dans la dégradation de la perception auditive
L’implication de facteurs cognitifs dans la dégradation de la perception auditive est également
supportée par les résultats de plusieurs études. Quatre catégories de processus cognitifs susceptibles
d’être perturbés avec l’âge ont pu être identifiées :
(i) pour les processus automatiques : un ralentissement de la vitesse de traitement cognitif pourrait
détériorer l’intégration des messages auditifs à fluctuations rapides, comme la parole ;
(ii) pour les processus attentionnels : une diminution des ressources attentionnelles et/ou des capacités
d’attention sélective auditive seraient susceptibles de conduire à une dégradation des performances
dans des conditions d’écoute difficile ou en présence d’un distracteur (cf. fig. 15) ;
D fig. 15. Implication du facteur attentionnel dans la dégradation de la perception auditive avec l’âge : le taux moyen d’erreur de
reconnaissance de sons purs est représenté en fonction de la durée de l’intervalle de temps entre les deux stimuli à comparer. Dans la
condition sans distracteur (intervalle interstimulus silencieux), les performances des sujets âgés et des sujets jeunes sont globalement
superposables. Dans la condition avec distracteur (stimuli auditifs interférents pendant l’intervalle interstimulus), les performances des
sujets âgés se dégradent de manière plus importante que celles des sujets jeunes, pour les délais longs (> 8 secondes). (D’après Chao et
Knight, 1997).
109
37273_Monographie_N45.Nais_vie_m109 109
18/09/08 14:42:02
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
(iii) pour les processus mnésiques : un déficit de la mémoire à court terme et de la mémoire de
travail pourrait conduire à des difficultés d’intégration de messages auditifs longs et complexes
(cf. fig. 16) ;
D fig. 16. Implication de la mémoire dans la dégradation de la compréhension de la parole avec l’âge : le taux de reconnaissance de mots
(phonétiquement équilibrés) et de phrases courtes (sans signification) est représenté en fonction de l’âge. Pour les classes d’âge élevées (>
70 ans), la dégradation modérée des performances pour la reconnaissance des mots correspond à un déficit d’origine auditive, alors que la
dégradation plus marquée des performances pour la reconnaissance des phrases correspond à un déficit mixte, sensoriel et cognitif. La
différence de performances entre les deux conditions représente la participation cognitive – par le biais d’une détérioration de la mémoire à
court terme dans la dégradation de la compréhension de la parole (d’après Jerger et Hayes, 1977).
(iv) enfin, pour les processus linguistiques et les facteurs émotionnels : une variabilité du niveau de
“compétence” verbale serait susceptible de faciliter ou non l’interprétation de l’information auditive
grâce à l’utilisation de connaissances linguistiques ou d’indices contextuels (cf. fig. 17 page
suivante).
3.1.3.3. Vieillissement auditif et processus démentiel
Dans certains cas, la presbyacousie peut se développer conjointement à des troubles cognitifs. Les
relations entre ces deux phénomènes ont plus particulièrement été étudiées pour la maladie d’Alzheimer,
110
37273_Monographie_N45.Nais_vie_m110 110
18/09/08 14:42:02
∂ fig. 17. Implication des facteurs
linguistiques dans la perception de la parole : le
rapport signal/bruit moyen correspondant au
seuil d’intelligibilité vocale (50 % de bonnes
réponses) est représenté en fonction du type de
matériel verbal testé, dans cinq groupes
d’auditeurs : sujets jeunes ou âgés
normoentendants (NE) et sujets
presbyacousiques (presby) avec une perte
auditive croissante (de 1 à 3, pour un seuil
tonal à 4 kHz de 23 à 45 dB HL). Tous les sujets
âgés avaient des capacités cognitives
conservées (score MMSE normal pour l’âge).
Même s’il existe des différences de
performance entre sujets jeunes et sujets âgés
indépendamment de la presbyacousie
(colonnes noires et blanches), tous les sujets
âgés – normoentendants ou presbyacousiques
ont bénéficié des indices contextuels pour
améliorer leurs scores (colonnes hachurées)
(d’après Frisina et Frisina, 1997).
pathologie dégénérative grave et invalidante qui représente la première cause de démence -avec
environ 800 000 cas en France-. Dans ce cadre, deux problématiques doivent être abordées : d’une part,
le rôle de la surdité dans le développement des troubles cognitifs ; d’autre part, le rôle de la réhabilitation
audioprothétique dans l’amélioration des troubles cognitivo-comportementaux du patient dément
malentendant (pour une revue, cf. Petitot et al., 2007).
La surdité comme facteur de risque de démence
Les relations entre maladie d’Alzheimer et troubles de l’audition sont complexes.
Une équipe américaine de l’Université de Washington à Seattle a montré -dans une étude cas-témoinsque l’incidence de la surdité (avec un seuil tonal moyen supérieur à 30 dB HL) était deux fois plus
importante dans un groupe de cent patients Alzheimer que dans un groupe de cent sujets témoins
non déments, appariés pour l’âge, le sexe et le niveau d’éducation (odds ratio1 à 2). Ils ont aussi montré
que l’acuité auditive était inversement corrélée à la sévérité des troubles cognitifs (mesurés par le
MMSE). Une autre équipe a constaté que les troubles centraux de traitement de l’information auditivoverbale pouvaient avoir une valeur annonciatrice et précéder jusqu’à 8 années la survenue d’une
démence de type Alzheimer. L’ensemble de ces résultats suggère que la surdité -non appareillée- est
un facteur de risque indépendant de démence chez les sujets âgés.
Cette hypothèse a récemment été confirmée par une autre étude épidémiologique transversale réalisée
par le Groupe de Recherche Alzheimer Presbyacousie – GRAP (avec le soutien de la Fondation Siemens) :
l’étude AcouDem (Pouchain et al., 2007). Elle a montré que la prévalence des troubles cognitifs chez
les personnes âgées était plus élevée chez les patients malentendants avec une gêne sociale que chez
les sujets normoentendants (odds ratio à 2,5) (cf. fig.18).
1
Dans ce cas, l’odds ratio (ou rapport des cotes) correspond au rapport [(sujets malentendants / sujets normoentendants pour les
patients Alzheimer) / (sujets malentendants / sujets normoentendants pour les sujets témoins)]. Il permet d’estimer le risque relatif, c’est-à-dire
la “force” du lien entre démence et surdité.
111
37273_Monographie_N45.Nais_vie_m111 111
18/09/08 14:42:05
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
∂ fig. 18. Relations entre statut
auditif et troubles cognitifs : il existe
une relation entre les troubles
auditifs (TA, évalués par une
acoumétrie verbale) et les troubles
cognitifs (TC, évalués par MMSE, test
de l’horloge et test de fluence
verbale). Plus les troubles auditifs
sont importants, plus la dégradation
cognitive est sévère (nombre de
sujets âgés testés = 308, âge moyen
de 85 ans). (D’après les résultats de
l’Étude AcouDem du GRAP, Pouchain
et al., 2 007).
Quant au mécanisme physiopathologique sous-jacent, il est possible que la désafférentation auditive
ait un rôle délétère sur le fonctionnement cognitif. Par son retentissement sur les capacités de
communication interpersonnelle et sa carence en termes de stimulation cognitive, la déficience auditive
pourrait non seulement favoriser le développement d’une neuroplasticité maladaptative, mais aussi
compromettre l’utilisation des réserves cognitives supposées retarder les symptômes de la démence.
Cela aurait pour conséquences une accélération du déclin cognitif, ainsi qu’une majoration des
répercussions cliniques et psychosociales de la maladie d’Alzheimer.
La réhabilitation audioprothétique comme traitement non médicamenteux des patients
Alzheimer malentendants.
En réponse au rôle possible de la surdité dans le développement des troubles cognitifs, quelques
équipes ont étudié le bénéfice potentiel d’un appareillage auditif chez les patients Alzheimer présentant
une presbyacousie.
L’équipe de John Durrant à l’Université de Pittsburgh a notamment montré -chez huit patients
Alzheimer malentendants- que la réhabilitation audioprothétique par appareillage monaural réduisait
les troubles comportementaux liés à la maladie, ainsi que les scores au questionnaire de handicap
auditif du sujet âgé (Hearing Handicap Inventory for the Elderly) (Palmer et al., 1 999). Les résultats
étaient évidemment tributaires d’une bonne compliance au port de l’aide auditive, c’est-à-dire au
moins cinq heures par jour.
En France, le CHU de Lyon poursuit actuellement un Programme Hospitalier de Recherche Clinique
National intitulé « Maladie d’Alzheimer, surdité et appareillage auditif : une nouvelle stratégie de prise
en charge - Étude EClA-P2A » (avec le soutien de la Fondation Médéric Alzheimer). Cette étude en trois
volets a pour objectifs principaux :
(i) d’évaluer la prévalence des troubles de l’audition et les besoins en matière d’aides auditives de la
112
37273_Monographie_N45.Nais_vie_m112 112
18/09/08 14:42:06
population Alzheimer, par une étude de prévalence et longitudinale multicentrique impliquant
également les CHU de Saint-Etienne, Dijon, Grenoble et Rennes ;
(ii) d’évaluer le bénéfice cognitivo-comportemental de l’appareillage auditif binaural des sujets
Alzheimer, par un essai thérapeutique en double aveugle, randomisée contre placebo ;
(iii) d’évaluer l’impact médico- économique de cette prise en charge audioprothétique.
Elle devrait permettre de compléter les résultats déjà disponibles.
En guise de conclusion
Face aux interrelations entre vieillissement auditif et vieillissement cognitif ou démence -et compte
tenu des résultats encourageants suggérant un bénéfice de la réhabilitation audioprothétique des
patients Alzheimer malentendants-, la question de savoir s’il faut envisager une prise en charge
audioprothétique précoce des patients âgés, à titre de prévention du vieillissement cognitif, se posera
forcément un jour. Espérons que les études en cours et à venir permettront d’apporter une réponse
claire et univoque à cette interrogation.
113
37273_Monographie_N45.Nais_vie_m113 113
18/09/08 14:42:09
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
Références bibliographiques
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
Arlinger S (2 003). Negative consequences of uncorrected hearing loss--a review. Int J Audiol 42 Suppl 2 : 2S17 – 2S20.
CHABA (Committee on Hearing, Bioacoustics, and Biomechanics) (1 988). Speech understanding and aging. Commission on Behavioral
and Social Sciences and Education, National Research Council. J Acoust Soc Am 83 (3) : 859 – 895.
Chao LL, Knight RT (1 997). Prefrontal deficits in attention and inhibitory control with aging. Cereb Cortex 7 (1) : 63 – 69.
Chisolm TH, Willott JF, Lister JJ (2 003). The aging auditory system : anatomic and physiologic changes and implications for
rehabilitation. Int J Audiol 42 Suppl 2 : 2S3 – 2S10.
Frisina DR, Frisina RD (1 997). Speech recognition in noise and presbycusis : relations to possible neural mechanisms. Hear Res
106 (1-2) : 95 – 104.
Jerger J, Hayes D (1 977). Diagnostic speech audiometry. Arch Otolaryngol 103 (4) : 216 – 222.
Kricos PB (2 006). Audiologic management of older adults with hearing loss and compromised cognitive/psychoacoustic auditory processing capabilities. Trends Amplif 10 (1) : 1 – 28.
Palmer CV, Adams SW, Bourgeois M, Durrant J, Rossi M (1 999). Reduction in caregiver-identified problem behaviors in patients with
Alzheimer disease post-hearing-aid fitting. J Speech Lang Hear Res 42 (2) : 312 – 328.
Petitot C, Perrot X, Collet L, Bonnefoy M (2 007). Maladie d’Alzheimer, troubles de l’audition et appareillage auditif : une revue des
données actuelles. Psychol Neuropsychiatr Vieil 5 (2) : 121 – 125.
Pichora-Fuller MK, Singh G (2 006). Effects of age on auditory and cognitive processing : implications for hearing aid fitting and
audiologic rehabilitation. Trends Amplif 10 (1) : 29 – 59.
Pichora-Fuller MK, Souza PE (2 003). Effects of aging on auditory processing of speech. Int J Audiol 42 : 2S11 – 2S16.
Pouchain D, Dupuy C, San Jullian M, Dumas S, Vogel MF, Hamdaoui J, Vergnon L pour le GRAP (2 007). La presbyacousie est-elle un
facteur de risque de démence ? Etude AcouDem. Rev Gériatr (Paris) 32(6) : 439–445.
114
37273_Monographie_N45.Nais_vie_m114 114
18/09/08 14:42:09
3.1.4. Altérations au sein du vieillissement général en clinique gérontologique
L’allongement de la durée de la vie expose de plus en plus nos patients aux risques du vieillissement.
3.1.4.1. Aisance à 60 ans
L’amélioration des conditions de vie, d’hygiène, de travail et d’accès au soins permet à la majorité de
nos concitoyens d’arriver en bonne santé à 60 ans. Les conditions sociales et financières sont également
satisfaisantes. Les décennies à venir vont être marquées par l’augmentation considérable des 85 ans
et plus, + 80 % en moyenne en France entre 2005 et 2015. Les deux tableaux ci-dessous en rapportent
l’ampleur.
1962
1968
1975
1982
1990
1999
2004
60 - 64
13,2
13,7
13,3
11,9
12,8
13,6
13,1
75 ans ou plus
4,9
5,1
5,6
6,6
7,1
7,7
8,7
D Espérance de vie résiduelle à 60 ans et à 75 ans. Source : Insee, bilan démographique
Année
de 60 à 64 ans
de 65 à 74 ans
de 75 à 84 ans
85 ans ou plus
1950
2 036 667
3 162 407
1 364 113
200 588
1970
2 636 052
4 117 873
1 932 640
423 099
1990
2 892 072
4 033 096
2 963 935
874 483
2000
2 709 739
5 177 071
2 977 615
1 267 516
2004
2 630 770
5 114 238
3 680 400
1 076 816
2006
2 744 379
5 018 984
3 837 851
1 201 927
2007
3 025 479
4 930 531
3 865 773
1 314 789
2008
3 293 797
4 890 222
3 907 008
1 414 920
D Evolution du nombre de personnes âgées. Source : Insee, bilan démographique
3.1.4.2. Dépendance et isolement à 80 ans
La vieillesse est une étape de l’existence pendant laquelle chacun doit pouvoir poursuivre son
épanouissement écrit Robert Moulias. L’apparition de la dépendance, quand elle survient, se fait à un
âge de plus en plus tardif.
115
37273_Monographie_N45.Nais_vie_m115 115
18/09/08 14:42:12
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
Ainsi, à partir de 80 ans, 28 % des personnes qui vivent chez elles, et qui sont principalement des
femmes, manquent d’autonomie pour certains gestes de la vie quotidienne ; 72 % ont besoin d’aide
pour un certain nombre de tâches domestiques et 11 % n’ont ni sorties, ni relations, ni contacts
téléphoniques avec des tiers.
Autonomie
L’autonomie correspond littéralement à la capacité qu’à un individu à se gouverner lui-même :
- capacité de se gouverner par ses propres lois, de faire des choix dans sa vie en ce qui concerne les
règles de sa conduite, les actes qu’il effectue et les risques qu’il prend,
- capacité d’accomplir seul les actes essentiels de la vie quotidienne, en évitant d’assimiler le concept
d’autonomie sous l’angle trop strict d’autonomie fonctionnelle,
- capacité de se mouvoir seul ou autonomie locomotrice.
Dépendance
Elle correspond à une certaine forme de soumission à autrui puisque, dans cette situation, l’individu
ne peut plus assurer seul sa propre vie.
En gérontologie, cette dépendance oblige à un transfert vers un tiers d’actes nécessaires pour assurer
les besoins essentiels de la vie courante.
Autonomie et dépendance sont deux notions non symétriques
Le terme d’autonomie est souvent employé à tort en gérontologie pour désigner le contraire de la
dépendance. Bien qu’il existe un lien très fort entre dépendance et autonomie, la distinction entre ces
deux concepts est importante. En effet, un sujet peut être très dépendant tout en exprimant son
autonomie, en conservant le choix et la gestion de ses moyens d’assistance. Pour le gériatre, le respect
et la recherche de l’autonomie de la personne en luttant contre la dépendance sont prioritaires. La
dépendance ne doit pas être considérée comme irréversible et liée uniquement au vieillissement. Le
vieillissement est un facteur prédisposant, la pathologie un facteur aggravant.
Au total, il ne peut y avoir d’évaluation pertinente de la dépendance sans une évaluation globale du
sujet âgé.
Le concept de Wood
Le concept qui permet d’analyser les répercussions de la pathologie sur les capacités fonctionnelles a
été précisé par les travaux de Wood.
Une maladie ou un accident peuvent entraîner une déficience, entendue comme une altération
temporaire ou définitive, d’une structure ou d’une fonction anatomique, physiologique ou
psychologique.
L’incapacité qui en résulte est définie comme une réduction partielle ou totale, de la faculté d’accomplir
une activité de la manière considérée comme normale pour un être humain.
Quant au handicap, il concerne le désavantage social résultant de l’incapacité, compte tenu des
116
37273_Monographie_N45.Nais_vie_m116 116
18/09/08 14:42:13
contraintes auxquelles est soumis l’individu et des ressources matérielles, psychologiques et sociales
dont il dispose pour y faire face.
Déficience
Notion biomédicale : perturbation d’une structure ou perte d’une fonction de l’organisme
Incapacité
Notion fonctionnelle : diminution de la performance et restriction d’activité
Handicap
Notion de comportement social : désavantage conféré par l’incapacité et la déficience
Comme le rappelle B. Ennuyer, cette définition repose sur un modèle de causalité linéaire, allant du
médical au social imposant par une vision médicale du problème. Ce modèle ayant été appliqué de
manière inadéquate à la vieillesse, a fait de celle-ci une maladie chronique. Elle interdit du même
coup l’analyse du handicap et du besoin d’aide, comme étant causé d’abord par le social, ses usages,
ses règles, ses normes et ses représentations.
Exemple de la surdité
Lésion oreille interne
o élasticité membrane basilaire
o élasticité ligament spiral
o concentration endolymphe
o dégénérescence de l’organe de Corti
• Dégénérescence du nerf cochléaire
• Baisse des seuils de perception
• Perte intelligibilité du langage
• Perte de communication
• Isolement
d Déficience
d Incapacité
d Dépendance
117
37273_Monographie_N45.Nais_vie_m117 117
18/09/08 14:42:16
Monographie
naissance vie et mort de l'oreille
chapitre
03
son déclin : la presbyacousie
•
•
11 % n’ont aucune déficience, 13 % présentaient 6 déficiences ou plus.
Nous observons que les principales déficiences portent
sur les fonctions visuelles
et masticatoires. Il est important de rappeler que les
soins dentaires, auditifs et
optiques sont les deux postes
les moins bien pris en charge
par l’assurance maladie.
Prévalence accrue chez les plus de
85 ans
4 déficience sévère de la continence
fécale (11,82 % de la classe) : x 2
4 déficience sévère de la continence
urinaire (21,62 % de la classe) :
x 1,8
4 déficience de parole et du langage
(12,33 % de la classe) : x 1,8
4 déficience intellectuelle (28,54 %
de la classe) : x 1,5
4 déficience des membres inférieurs
(50,33 % de la classe) : x 1,4
4 Déficience auditive (42,56 % de la
classe) : x 1,4
FREQUENCE - %
D Prévalence des principales déficiences des plus de 75 ans
(CNAMTS - service médical de la région Nord Est - mars 97).
En autre termes, la vieillesse est l’un des facteurs de risques de la cascade déficience, incapacité,
handicap. Le rôle du médecin est d’agir sur ces déficiences mais d’autres approches doivent être
explorées parallèlement.
En conclusion
La presbyacousie est un facteur majeur d’isolement et d’aggravation des pathologies du vieillissement :
dépression, démence, réduction des activités sociales …
Il faut privilégier une prise en charge globale afin d’éviter les conséquences psychologiques et sociales
trop souvent négligées.
118
37273_Monographie_N45.Nais_vie_m118 118
18/09/08 14:42:16
3.2. Diagnostic de la presbyacousie
3.2.1. Signes précoces et évolution naturelle de la presbyacousie
Les signes annonciateurs ou déjà patents de la presbyacousie sont insidieux car inattendus à un âge
relativement précoce. Or, ils peuvent survenir dès l’âge de 50 ans et si le praticien s’attache à les
rechercher leur mise en exergue est aisée.
C’est, en effet, dans l’analyse des situations où le sujet est soumis à une «écoute difficile» qu’il faut
rechercher la pathologie et en particulier :
- au cours des réunions professionnelles,
- dans une ambiance «cocktail party»,
- à l’écoute de la télévision en milieu bruyant.
On interrogera donc ce «jeune patient» quant à ses capacités de compréhension dans ces moments là.
La présence de la moindre gêne indique un examen physique suivi d’un examen audiométrique.
Méconnue, la presbyacousie va globalement évoluer en trois étapes (fig. 19) :
D fig. 19 : les signes de la presbyacousie non traitée
-
de 50 à 60 ans : la plupart des sujets sont encore en pleine activité professionnelle. La diminution
progressive de leur perception des fréquences aiguës n’altère qu’insidieusement la compréhension
de la parole et, d’ailleurs, ils la nient. Un effort supplémentaire, dont le sujet ne soupçonne pas
119
37273_Monographie_N45.Nais_vie_m119 119
18/09/08 14:42:22
Monographie
chapitre
-
-
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
toujours qu’il le produit génère une fatigabilité et une irritabilité au fil des heures, des journées et
des ans. Les premiers à en souffrir sont par exemple ceux qui pratiquent une langue étrangère et
qui constatent la difficulté à intégrer la conversation du soir en ambiance bruyante alors que les
communications du matin sont habituellement, faciles et efficaces,
de 65 à 70 ans : beaucoup de patients sont pré ou déjà retraités et constatent cruellement que
l’ex-fatigabilité n’est plus due à la surcharge professionnelle : ils avouent de réelles difficultés de
compréhension dans le bruit, ambiance qu’ils supportent d’ailleurs de plus en plus mal. Ils conservent à ce stade une fierté à ne pas faire répéter mais craignent tout autant le ridicule de la réponse
non-adaptée à la question. Outre la perte inéluctable de la perception des sons aigus s’ajoute le
douloureux phénomène du recrutement faisant naître l’intolérance au bruit,
au-delà de 70 ans : loin de la richesse créative de l’activité professionnelle le malentendant s’est
peu à peu isolé. Son irritabilité peut aller jusqu’à l’agressivité : il accuse l’entourage de parler volontairement plus bas ou de mal prononcer. Il perd peu à peu la notion de distance entre lui-même et
l’information sonore et rencontre de réelles difficultés dans la localisation spatiale. Jour après jour,
il a adopté des attitudes d’évitement, choisi de plus en plus rares correspondants avec lesquels la
communication devient de plus en plus difficile. A l’extrême, il s’est coupé du monde pour restreindre son univers à celui du couple et il peut évoluer vers un état dépressif grave.
3.2.2. Incidence sociale de la presbyacousie méconnue ou non traitée
Elle se détermine en fonction des stades précédemment décrits (fig. 20) :
D fig. 20 : spirale sociale du presbyacousique et de son entouragev
120
37273_Monographie_N45.Nais_vie_m120 120
18/09/08 14:42:24
La première phase d’irritabilité sera mise sur le compte d’une fatigue professionnelle et, le plus souvent,
cette phase passera inaperçue.
Au cours de la deuxième phase, l’entourage va tout faire pour compenser le déficit :
• niveaux d’élocution plus élevés,
• niveaux d’écoute plus élevés aussi : télévision, radio, musique, démarche qui commence à gêner
l’entourage,
• la répétition des messages provoque par ailleurs un ton de voix inadapté et destiné à un « récepteur »
déjà très irritable…
• le couple, à ce stade, limite volontairement son activité sociale.
Au cours de la phase trois, la surdité est devenue un état de fait. L’entourage ne lutte plus contre le
handicap mais s’en accommode ; pire, l’entourage joue en fait un rôle d’écran de type « interprète »
entre le malentendant et son environnement : l’isolement social du malentendant est achevé.
3.2.3. Diagnostic clinique et audiométrique
Au vu de ce qui vient d’être rapporté, on conçoit que la démarche du praticien ORL au cours de sa
consultation doit :
- s’attacher à reconnaître par l’interrogatoire les signes annonciateurs de la presbyacousie,
- en faire le diagnostic grâce à l’examen physique puis à l’examen audiométrique,
- expliquer au patient les possibilités thérapeutiques, dont l’adaptation prothétique,
- expliquer le risque encouru à méconnaître et ignorer la pathologie,
- proposer le rythme et les modalités du suivi médical.
3.2.3.1. L’interrogatoire
Il est, comme toujours en médecine, incontournable. Il a été rapporté plus haut et nous n’insisterons
que sur les points particuliers du presbyacousique :
- le patient, plus souvent que la patiente, refuse sa déficience auditive, se demande pourquoi il
consulte d’autant qu’il entend parfaitement dans un monde de locuteurs qui ne savent plus articuler… Le praticien lui doit patience, compréhension et intérêt : en lui évoquant les situations sonores
où l’intelligibilité est particulièrement mise à mal, il constate bien souvent que le quinquagénaire
récalcitrant du début de consultation libère sa gêne inavouée depuis des années. Le diagnostic est
suspecté devant ce trouble de l’intelligibilité progressif, déjà ancien, et, surtout, bilatéral : le coté
droit n’est pas distingué du gauche,
- l’absence de bilatéralité suffit à éliminer, a priori, le diagnostic,
- la présence d’acouphènes, rassurants lorsqu’ils sont bilatéraux est fréquente,
- on recherche ensuite les antécédents : travail en milieu bruyant, traumatismes sonores, antécédents otologiques, chirurgicaux et médicaux…
3.2.3.2. L’examen clinique
Il doit être complet, ainsi qu’exposé au paragraphe 2.4.1.
121
37273_Monographie_N45.Nais_vie_m121 121
18/09/08 14:42:28
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
L’état général du patient, sa rapidité d’idéation, son aptitude à s’adapter sont autant de facteurs
enregistrés par la simple écoute ou observation.
On notera l’absence de signes labyrinthiques spontanés, des paires crâniennes fonctionnant de façon
symétrique et sans déficit. L’examen otoscopique et celui du cavum sont normaux.
Surtout, le diapason met en évidence une surdité de perception pure, sans latéralisation du Weber.
3.2.3.3. L’examen audiométrique
L’audiométrie tonale met en évidence une surdité de perception pure, bilatérale et parfaitement
symétrique, prédominant sur les aigus.
L’audiométrie vocale quantifie le seuil d’intelligibilité, reste en rapport avec les résultats de la tonale,
confirme la symétrie de l’atteinte et qualifie le fonctionnement linéaire ou non de la cochlée. De ces
résultats, le praticien ORL peut estimer déjà les éventuelles difficultés d’appareillage.
La recherche du seuil des stapédiens quantifie la valeur du recrutement éventuel.
L’impédancemétrie est bien entendu normale.
3.2.3.4. L’annonce du diagnostic
Résultats audiométriques à la main, le praticien a un rôle capital à jouer à ce moment là, tant ses
premiers mots pèseront lourdement sur l’avenir auditif du patient.
Le premier temps consiste à lui expliquer que les difficultés d’intelligibilité sont en rapport certain avec
une véritable pathologie cochléaire, certes bénigne mais très inconfortable et invalidante. Il doit être
persuadé qu’il n’y a aucun doute diagnostique.
Le deuxième temps est de lui faire comprendre que le praticien dispose de solides armes thérapeutiques
face à une pathologie lentement mais sûrement évolutive, armes technologiques surtout, dont les
formidables et réguliers progrès laissent penser qu’ils compenseront exactement la dégradation due
à l’age.
Le troisième temps consiste à exposer au patient les risques à mépriser son problème pour ne le
considérer que plus tard : un parallélisme avec le conseil du port d’une canne avant la chute, et non
l’inverse, peut aider à faire comprendre la démarche de l’adaptation précoce à une audioprothèse.
Le quatrième temps est, si le praticien le juge utile, de conseiller le port d’audioprothèses en conseillant
au patient de « pousser la porte » de l’audioprothésiste, non pour y être forcément appareillé mais pour
y prendre conseil. Les ordonnances sont rédigées au besoin ainsi qu’une lettre d’accompagnement
pour l’audioprothésiste, insitant sur tel ou tel point original.
Le conseil de l’achat d’un casque de qualité pour l’écoute de la télévision est un bon moyen d’aider
notre patient à comprendre qu’une aide auditive peut rendre sa vie plus confortable…
Le dernier temps consiste à conseiller le suivi médical : une consultation systématique, à un an, sauf
signes cliniques nouveaux permettra d’apprécier l’évolutivité de l’atteinte ainsi que les résultats de
l’éventuelle prothèse.
122
37273_Monographie_N45.Nais_vie_m122 122
18/09/08 14:42:28
3.3. Sa prise en charge : l'aide auditive
Programmer une adaptation prothétique c’est, schématiquement, répondre à 3 questions :
- quand faut-il appareiller ?
- quel résultat peut-on espérer ?
- comment appareiller ?
À ces questions simples en apparence, nous allons tenter d’apporter des réponses simples sans être
simplistes.
3.3.1. Quand faut-il appareiller ?
Si les « plus de 50 ans » ne représentent qu’un tiers de la population totale, ils comptent pour plus des
deux tiers des malentendants.
Î 0- 16 ans 22 %
17 - 34 ans 27 % D
6%Î
Î 0- 16 ans 22 %
Î 12 %
42 % (presque une
personne sur 2) Î
Î 15 %
D35 - 49 ans 15 %
25 % (une personne sur 4) D
65 ans et plus 15 % D
D Part de la population en %
D Population malentendante en %
Traditionnellement, il était classique de considérer qu’une baisse de 25 à 30 dBHL sur les fréquences
conversationnelles était une perte suffisante pour indiquer la mise en place d’audioprothèses. En fait,
l’évolution des pratiques et des performances des aides auditives ont conduit à prendre en compte,
en dehors d’éventuelles contre-indications, deux autres facteurs :
-
la gêne sociale, et la prise en charge doivent débuter dès l’apparition de cette gêne,
la motivation du patient : il ne s’agit pas de la motivation à porter des appareils mais plutôt de celle
à améliorer son confort en société.
123
37273_Monographie_N45.Nais_vie_m123 123
18/09/08 14:42:31
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
3.3.2. Quels résultats peut-on espérer ?
Il s’agit de la partie prédictive de l’indication et, par là même de la « promesse » que l’on peut faire au
patient.
La première évaluation va prendre en compte ses capacités globales, manipulation, mémoire, désir de
communiquer, et la réalité de ses courbes tonales et surtout vocales.
Ceci va permettre de fixer des objectifs à l’appareillage tant du point de vue de l’intelligibilité que du
point de vue du type d’appareil que l’on pourra envisager.
3.3.3. Comment appareiller ?
3.3.3.1. De la première visite chez l’audioprothésiste à la démarche d’appareillage
L’étape suivante est la prise en charge par l’audioprothésiste, au laboratoire, du patient pour réaliser
un bilan d’orientation prothétique.
Il est important de dire à nouveau que c’est l’individu que nous prenons en charge et non pas seulement
ses « oreilles ».
Adressé le plus souvent par le médecin ORL, le patient arrive généralement avec une idée de l’adaptation
prothétique très éloignée de la réalité.
Le premier rendez-vous sera déterminant car il va devoir concilier des examens qui vont conduire à
des choix d’ordre technique et des contraintes d’ordre esthétique ou liées aux capacités de manipulation
du patient.
Son déroulement est le suivant :
1) Anamnèse :
Histoire prothétique : malade déjà appareillé ou non,
Histoire ayant motivé ce rendez-vous.
2) Examens :
-Otoscopie
En cas d’anomalie inattendue, parfois due au délai entre la prescription chez l’ORL et la première visite
chez l’audioprothésiste, il peut être nécessaire d’envisager un nouveau rendez-vous chez l’ORL.
-Audiométrie
Tonale en conduction aérienne et en conduction osseuse
Vocale
Vocale dans le bruit (Type Dodelé)
Test de tolérance aux sons forts à pratiquer avec prudence car parfois mal toléré.
3) Echanges avec le patient :
Évaluation de ses besoins et de ses souhaits
Mise en évidence des différentes contraintes liées au mode de vie, à l’anatomie particulière de l’oreille
externe, aux résultats audiométriques et aux questions de l’utilisation de la prothèse dans le bruit.
124
37273_Monographie_N45.Nais_vie_m124 124
18/09/08 14:42:36
4) Explication concernant l’utilisation de la prothèse dans le bruit
La phrase que l’on entend le plus souvent, dès la première visite, est : « j’entends bien mais dès qu’il y
a du bruit, tous les sons se mélangent et je ne comprends plus ».
La demande la plus courante formulée par le patient est l’amélioration de sa compréhension dans le
bruit et en société.
Nous sommes donc en permanence dans la recherche de l’amélioration du rapport signal/bruit (S/B),
gage de l’augmentation de la satisfaction patient et du service médical rendu.
3
6
9
12 15 18
très bonne
0
suffisante à
satisfaisante
Intelligibilité
-9 -6 -3
insuffisance
(tolérable dans
certaines situations)
-12
mauvaise
S/B
en dB
bonne
L’intelligibilité en fonction du rapport S/B pour un normo entendant est rapportée fig. 21.
D fig. 21
Pour un normo-entendant, la compréhension passe de 20 % à 80 % pour une amélioration du S/B de
6 dB seulement.
Évidemment, un malentendant appareillé est plus gêné par le bruit qu’un normo entendant du fait des
distorsions engendrées par la pathologie cochléaire et pour de nombreuses autres raisons :
- perte tonale fréquentielle,
- distorsions cochléaires, recrutement,
- perte de sélectivité fréquentielle, augmentation de l’effet de masque (fig 22, voir page suivante),
- réorganisation tonotopique, durée de la privation sensorielle,
- augmentation du temps d’intégration, problème de mémoire, problème d’attention…
Lorsque les paramètres de gain sont établis en fonction d’une méthodologie basée sur les tests
liminaires et supra liminaires, en tonale et en vocale, il est souvent nécessaire de procéder à l’activation
des traitements de signaux pour améliorer le rapport S/B. En effet, un malentendant nécessite un
rapport S/B largement positif pour obtenir une intelligibilité correcte.
125
37273_Monographie_N45.Nais_vie_m125 125
18/09/08 14:42:38
Monographie
naissance vie et mort de l'oreille
chapitre
03
son déclin : la presbyacousie
fig. 22 Î
∂ En bleu, cochlée saine
En rouge, perte auditive cochléaire
∂ Signaux vocaux brefs
ombre temporelle cochlée atteinte
Le tableau suivant décrit, en fonction de diverses situations sonores, les caractéristiques du signal et
du bruit. Ces caractéristiques peuvent d’ailleurs être antagonistes en fonction des situations sonores
rencontrées !
Situation sonore
Signal
Localisation du signal Bruits
Localisation des bruits
Conversation en tête à tête
Voix
En face
Bruit de fond
Diffus
Réunion de famille
Voix multiples
Plutôt en face
Autres voix, télévision,
Diffus ou localisés
Conversation au restaurant
Voix multiples
Voix multiples
Voix multiples
Plutôt en face
Voix, couverts,
musique de fond
Bruits de roulements et de moteur
(graves) et bruits de vent
Voix multiples
Diffus
Conversation en
voiture (conducteur)
Cocktail party
En face ,
à droite ou à gauche
A droite ou derrière
Cuisine
Voix
Plutôt en face
Devant la plaque de cuisson
Voix
Derrière
En promenade en
couple dans la rue
Dans la rue, seul(e)
Voix
A droite ou à gauche
Voiture
Au théatre
Voix des acteurs
Localisé, à droite,
à gauche ou derrière
En face
Film à la télévision
Voix des acteurs
En face
Chasse
Animaux, clochettes, Localisés
cor de chasse
Hotte, frigo, VMC, robots,
casseroles
Hotte, frigo, VMC, robots,
casseroles
Bruits de circulation, vent
Bruits de circulation
Bruits de mouvements,
applaudissements
Bande sonore, musique et bruits
d’ambiance
Vent, feuilles, circulation
lointaine, coup de feu
Diffus
Diffus
Localisés
+ réverbérations
Localisés
+ réverbérations
Diffus +
Localisés et variables
Diffus +
Localisés et variables
Diffus +
Localisés et variables
En face
Diffus et localisés
On pourrait multiplier les exemples à l’infini tant les situations sonores rencontrées sont nombreuses
et différentes. Signaux et bruits fluctuent et changent en définition et en localisation.
Malgré la sophistication technique des aides auditives, elles n’ont pas encore l’intelligence de l’analyse
126
37273_Monographie_N45.Nais_vie_m126 126
18/09/08 14:42:39
de la scène sonore. Cependant des actions sur le son, induites par des transformations générées par
les processeurs (DSP) peuvent améliorer ou diminuer le S/B en fonction de la situation sonore.
Lors de l’appareillage, pour faire comprendre que le réglage parfait est impossible et qu’il faut trouver
le compromis le moins mauvais ou le meilleur possible, on peut expliquer facilement ces contradictions
au travers de deux exemples :
- « dans la rue, en discussion avec un ami en face de vous, une voiture passe sur le côté : c’est un bruit
que votre aide auditive peut atténuer grâce à un débruiteur et un système directionnel adaptatif
multibandes ; mais si une voiture arrive par-derrière, hors de votre champ visuel, le bruit qu’elle produit
est une information importante qui doit rester perçue par vous »,
- « dans la voiture, en écoutant les informations à la radio, nous pouvons améliorer la compréhension
en activant un débruiteur et le système directionnel pour faire ressortir la voix provenant des hautparleurs de devant mais si votre petit-fils, en place arrière, vous parle, vous ne pourrez pas bien le
comprendre ».
5) Objectif général de cette première visite :
Il est avant tout d’aboutir à une solution qui soit techniquement satisfaisante et que le patient pourra
accepter. Si la solution proposée est en adéquation avec les désirs, les besoins et les capacités du
patient, nous pourrons convenir d’un rendez-vous pour le démarrage de l’adaptation. Quand le type
d’appareil le nécessite, l’audioprothésiste sera amené à faire une prise d’empreintes pour réaliser des
embouts ou des coques d’intra personnalisés.
Ceci permettra d’essayer et de tester, à la prochaine visite, dans les conditions réelles d’utilisation.
3.3.3.2. De l’adaptation au suivi
Le rendez-vous suivant va être dédié à l’adaptation de l’appareil avec un premier contrôle du
résultat.
Il faut d’abord s’assurer de la bonne « prise en main » de l’appareillage par le malentendant ou, en cas
d’impossibilité, par quelqu’un de son entourage.
Une grande part du réglage sera consacrée à l’ajustement des gains et des compressions. En effet,
l’audiométrie tonale et le seuil subjectif d’inconfort (UCL) permettent de prédéfinir le gain nécessaire
et suffisant en fonction d’un signal d’entrée, en préservant l’audibilité des sons faibles et la tolérance
des sons forts. Ces paramètres seront à revoir en fonction du feedback, du larsen ou sifflement, et de
l’accoutumance du patient.
Les besoins du déficient auditif en terme de gain prothétique pour la compréhension d’une voix dans
le calme ne sont pas les mêmes que dans une situation bruyante. Les graves sont bénéfiques à
l’audibilité des voix faibles et éloignées, les aigus permettent la reconnaissance des consonnes faibles
en énergie et une bande passante large améliore la compréhension dans le calme.
Dès que l’on se trouve en présence de bruit, les graves provoquent un effet de masque, les aigus forts
agressent l’oreille. La réduction de la bande passante permet alors l’amélioration du rapport S/B en
favorisant la bande de fréquence apportant le plus d’information soit de 750 à 3 000 Hz.
127
37273_Monographie_N45.Nais_vie_m127 127
18/09/08 14:42:43
Monographie
naissance vie et mort de l'oreille
chapitre
03
son déclin : la presbyacousie
La programmation d’une position spécifique pour le bruit avec les modifications de gain peut permettre
de favoriser cette zone de fréquence.
De plus, l’utilisation de temps d’attaques et de retour des compressions, ou mieux, de compressions
adaptatives en fonction du type de signal permet la conservation des rapports S/B : un temps de retour
adapté évite la remontée du bruit entre les syllabes en maintenant la compression active.
Le contrôle prothétique, en champ libre, sera fait, avec le plus souvent, une sous-correction pour
permettre une adaptation progressive à l’environnement.
Une information sur l’hygiène et l’entretien des appareils sera donnée avec apprentissage de la
manipulation par le malentendant ou, à défaut, par un de ces proches : mise en place, nettoyage et
changement de pile.
Quelques semaines plus tard, on procédera à une nouvelle évaluation du résultat, fort des observations
du patient et du gain obtenu.
Les réglages d’optimisation seront effectués et nous expliquerons l’intérêt de l’éducation auditive pour
améliorer la discrimination fréquentielle et, par là même, l’intelligibilité.
Des logiciels du type Laara, en auto-apprentissage ou avec le soutien des proches sont offerts au
moment de l’adaptation. La prise en charge par un orthophoniste, après avis médical, est souvent
indispensable pour mener à bien cette éducation auditive.
L’orthophoniste sera aussi sollicité pour l’apprentissage de la lecture labio-faciale.
Ceci, à chaque fois que les informations fournies par le canal auditif seront insuffisantes pour une
intelligibilité satisfaisante de la parole et, à chaque fois que le risque d’évolution de l’audition le justifie.
Lorsque les visites de réglage et d’adaptation, relativement rapprochées, seront terminées avec un port
régulier des appareils, il faudra convenir d’un rythme de visites de contrôle d’au moins une fois par
semestre et à chaque fois que le patient en sentira la nécessité. Il faut préciser que toutes ces visites
de contrôle font partie du suivi de l’adaptation et ne donnent lieu à aucun frais pendant toute la durée
de vie des appareils.
3.3.4. Avec quoi appareiller ?
3.3.4.1. « Anatomie » synthétique et fonctionnement d’une aide auditive
Le schéma suivant illustre le fonctionnement global d’une aide auditive. Il traduit le parcours d’un
signal sonore prélevé dans l’environnement jusqu’à l’oreille du malentendant.
I
entrée
II
2
Traitement du signal 2
III
sortie
2
IV
V
Interface acoustique
Pile
Ce schéma général suit le parcours du signal sonore prélevé dans l’environnement jusqu’à l’oreille du
malentendant.
I. à l’entrée, se présente au (x) microphone(s) un signal souvent complexe dans lequel se
trouve le message de parole,
128
37273_Monographie_N45.Nais_vie_m128 128
18/09/08 14:42:43
II. le microprocesseur a pris la place de l’amplificateur pour traiter l’information présentée
sous forme de paquets de chiffres numérisés,
III. à la sortie, l’écouteur émet un signal modifié en fonction des paramètres de la
programmation pour chaque cas particulier,
IV. l’interface acoustique permet l’adaptation à l’anatomie de l’oreille pour assurer la
constance de la correction avec un bon maintien dans le pavillon ou le méat acoustique
externe, embout pour un contour, coque pour un intra,
V. indispensable au fonctionnement, l’alimentation peut se faire, dans certains cas, avec des
accumulateurs rechargeables.
3.3.4.2. Les différents types de prothèses auditives
Les intras auriculaires
Il s’agit d’une famille d’appareils.
∂ doc. Beltone)
Du plus petit, d’insertion profonde dans le conduit (5), au plus volumineux qui occupe toute la conque
(2), tous les intermédiaires peuvent exister. Ils seront choisis, en priorité, en fonction des besoins
otologiques et environnementaux du patient et ensuite, des demandes esthétiques.
L’interface acoustique est constituée par la coque qui contient l’électronique.
Les contours d’oreille
L’audioprothésiste dispose d’une gamme complète pour tous les niveaux de surdité. La prothèse se
compose d’une partie « posée sur l’oreille » qui contient l’électronique et une partie située dans le méat,
constituant l’interface acoustique, dans laquelle peut être inséré, dans certains cas, l’écouteur, on parle
alors de RIC (Receiver In the Canal).
129
37273_Monographie_N45.Nais_vie_m129 129
18/09/08 14:42:46
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
L’« Open », est relié à un dôme existant en plusieurs tailles et différentes aérations. Le contour
traditionnel avec coude sera prolongé par le tube et un embout moulé.
Les lunettes auditives
En conduction osseuse, elles gardent quelques adeptes malgré la disponibilité de la prothèse à ancrage
osseux type BAHA. Il s’agit d’une classique branche de lunette, mais particulièrement épaisse, de façon
à loger l’électronique dans cette épaisseur et le vibrateur à l’extrémité de la branche.
Très efficace sur une bonne courbe audiométrique en conduction osseuse, elle présente plusieurs
inconvénients :
-nécessité de maintenir une forte pression sur l’os mastoïdien afin d’assurer une efficace transmission du son à l’os,
-la pression peut entraîner, avec le temps, un remodelage de l’os, accompagné ou non de lésions
cutanées,
-la bande passante est limitée sur les aigus.
En conduction aérienne, on ne peut plus à proprement parler de branche auditive car il s’agit d’une
branche normale, coupée pour mettre un contour avec adaptateur lunette. L’adaptation offrira
pratiquement les mêmes possibilités qu’en contour mais la puissance en sera tout de même limitée.
Les boîtiers
Tombés en désuétude depuis plusieurs années, ils gardent quelques indications en version Conduction
Osseuse (avec serre-tête et vibrateur). Par exemple : dans les cas d’aplasie chez l’enfant tant qu’il ne
peut pas bénéficier d’une intervention avec mise en place d’un pilier pour BAHA.
3.3.4.3. Les progrès récents
Ils concernent avant tout :
130
37273_Monographie_N45.Nais_vie_m130 130
18/09/08 14:42:47
D Exemple des possibilités offertes par les programmes de réglage actuels ( doc Siemens).
-la précision des réglages et l’évolutivité de l’adaptation, ainsi que l’on peut le constater sur le « tableau de réglages » rapporté ci-dessus,
-les processus d’habituation accélérée par gestion individuelle et programmée des progrès - du
malentendant vis-à-vis des performances d’écoute,
-l’amélioration du confort et de la compréhension de la parole en ambiance bruyante.
Quel que soit le progrès réalisé, il aboutit toujours à améliorer le rapport signal sur bruit (S/B). La plus
ancienne des stratégies et la plus efficace consiste à modifier les gains aux différents niveaux d’entrée,
les temps d’attaque et de retour des compressions ainsi que nous l’avons décrit plus haut.
Mais nous souhaitons présenter ici sur les stratégies les plus récentes :
-adaptations automatiques,
-utilisation des débruiteurs,
-utilisation de systèmes directionnels adaptatifs en multibandes,
-atténuation de la réverbération,
-équilibrage de la fonction binaurale.
Adaptations automatiques
Le but est de parfaire les réglages en fonction des différentes situations sonores rencontrées et de
l’accoutumance du patient.
Sur le « Pure », puce D6 de Siemens, les modifications volontaires du volume par le patient, via une
télécommande, sont analysées par l’appareil qui est capable, seul, de modifier les caractéristiques des
différents niveaux d’entrée en jouant sur les gains, les seuils d’enclenchement des compressions et les
facteurs de compression.
Par exemple :
- en situation calme, la perception étant jugée trop faible, si le patient augmente le « volume » par la
télécommande, l’aide auditive augmentera le gain sur tous les niveaux.
- quelques instants plus tard, si la situation sonore devient bruyante, le patient diminue alors le vo-
131
37273_Monographie_N45.Nais_vie_m131 131
18/09/08 14:42:50
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
lume par la télécommande : l’aide auditive ne baisse la puissance que pour les sons forts en jouant
sur les compressions (CR et TK),
- après quelques jours et quelques modifications, les niveaux d’énergie se sont automatiquement
ajustés à la sensation de confort du malentendant.
L’avantage réside en ce que le patient bénéficie d’une aide auditive confortable donc portée. Mais on
peut arriver à des aberrations avec, par exemple, un son trop comprimé, certes confortable, mais avec
un rapport S/B dégradé.
Aussi, l’expertise de l’audioprothésiste dans l’art du compromis reste indispensable, ainsi qu’une
période de rééducation plus ou moins longue pour le
patient.
Les débruiteurs
L’amélioration du S/B peut se faire également par les
débruiteurs qui font baisser le gain dans les canaux qui
contiennent du bruit. En général, la baisse du gain est plus
importante pour les canaux graves et aigus que pour les
canaux médiums afin de favoriser la zone la plus
informationnelle de la voix.
L’activité du débruiteur est souvent liée à la reconnaissance
préalable de la situation sonore. Par exemple, la puce D5 de
Siemens analyse en permanence 8 paramètres du signal dans
les seize canaux (fig ci-dessous).
Cette analyse, faite 200 fois par
seconde, permet la classification
du signal en six catégories :
-parole dans le calme,
-parole dans le bruit,
-bruit seul,
-calme,
-musique,
-vent.
En fonction de la situation sonore,
il y aura activation du débruiteur,
appelé Traitement Vocal Privilégié
(TVP) et/ou de l’émergence phonétique (ERP) (fig. 23, page suivante).
En parallèle, un autre débruiteur
agissant sur les signaux impulsionnels, SoundSmoothing chez
132
37273_Monographie_N45.Nais_vie_m132 132
18/09/08 14:42:51
∂ fig. 23
Siemens, SoundRelax chez Phonak, analyse le son 20 000 fois par seconde et est capable de les réduire jusqu’à -40 dB ! (fig.s 24 et 25).
L’utilisation du réducteur du bruit type SoundSmoothing permet :
-une meilleure audibilité des sons aigus de la voix par la diminution de l’effet de masquage,
-une amélioration sensible du confort ce qui limite le recours aux compressions.
Par contre, il faut faire attention à la déformation des informations temporelles et les essais en vocale
dans le bruit prennent tout leur intérêt pour obtenir le meilleur compromis.
D fig. 25. Les bruits impulsionnels sont fortement réduits
D fig. 24. Les bruits impulsionnels sont agressifs
SoundSmoothing est totalement transparent sur la voix
Les systèmes directionnels, adaptatifs en multi bandes
En présence de paroles mélangées à du bruit ou à d’autres voix, les systèmes directionnels adaptatifs
en multi bandes s’activent pour limiter la captation des sons provenant de côté ou de derrière. Dans
le cas de la puce D5, le type de captation directionnelle est adaptatif et ce, dans 4 bandes. L’adaptation
est suffisamment rapide pour pouvoir suivre un véhicule en mouvement. Il est donc possible de traiter
4 bruits simultanément pour peu que leurs bandes de fréquences soient différentes.
133
37273_Monographie_N45.Nais_vie_m133 133
18/09/08 14:42:55
Monographie
naissance vie et mort de l'oreille
chapitre
03
son déclin : la presbyacousie
À noter qu’aujourd’hui, les meilleures aides auditives prennent en charge jusqu’à 33 canaux de polarités
différents. Ces canaux étant entrelacés et les bandes passantes de bruits à traiter se recoupant, on
peut estimer à 4 ou 5 maximum le nombre de bruits pris en charge par le système directionnel.
L’amélioration maximum, dans les conditions optimales, peut atteindre 4 dB en bi microphones et 6 dB
en tri microphones (fig. 26).
fig. 26
d
Ce système est de loin le plus efficace pour faire ressortir la voix d’un interlocuteur en face de soi dans
un bruit de cocktail parties.
Il faut remarquer qu’à l’écoute de la télévision, la source d’émission de la voix et des bruits étant
134
37273_Monographie_N45.Nais_vie_m134 134
18/09/08 14:42:57
totalement confondus, en général deux haut-parleurs en face du sujet, l’apport des systèmes
directionnel est théoriquement nul. En pratique, l’utilisation d’une directionnalité fixe type hypercardioïde est très bénéfique pour réduire les bruits provenant des autres pièces ou de la cuisine
adjacente en cas de cuisine à l’américaine, mais aussi pour limiter la captation des sons réverbérés, le
séjour de nos patients n’ayant pas grand-chose à voir avec un auditorium. Différentes stratégies sont
utilisées dans les options de directionnalité en fonction des besoins du patient :
- création d’une directionnalité partielle à partir du 2 000 Hz pour recréer artificiellement la directivité du pavillon auditif, RealEarSound chez Phonak, TrueEar chez Siemens, permettant de se
rapprocher au maximum du fonctionnement de l’oreille normale,
- activation automatique d’une directionnalité adaptative multi bandes pour la prise en charge des
situations sonores complexes. C’est un bon compromis. L’activation, suivant les marques, peut être
commandée par un niveau sonore, la reconnaissance d’une situation sonore par un « classifieur »
ou la présence d’une voix dominante en face,
- activation manuelle d’une directionnalité fixe, hyper-cardioïde, pour les situations de conversation
en tête à tête,
- utilisation du fonctionnement asymétrique du cerveau en portant un appareil directionnel sur
l’oreille droite et un appareil omnidirectionnel sur l’oreille gauche, appelée « directivité naturelle »
par GN : cette approche, a priori sacrilège pour un fervent de l’équilibre stéréophonique, présente
l’avantage d’un compromis très efficace en toutes situations lorsque les capacités du cerveau à
faire la sommation des informations restent correctes. L’oreille droite capte de manière privilégiée les informations vocales frontales et l’oreille gauche capte l’ambiance sonore et les informations vocales non frontales. En pratique, ayant demandé à une vingtaine de patients de faire
la différence entre deux programmes, l’un en « directivité naturelle » et l’autre en directionnalité
adaptative s’enclenchant automatiquement en fonction du bruit, 80 % se trouvaient « mieux »
ou « identiques » avec la directionnalité naturelle. Il faut noter que les 4 cas préférant une double
directionnalité étaient en moyenne plus âgés avec des scores en vocale inférieurs.
Atténuation de la réverbération : EchoStop chez Phonak
Cette fonction a pour but d’analyser les sons réverbérés qui présentent comme caractéristiques : une
courbe d’enveloppe similaire, une énergie plus faible et un décalage temporel dû à la vitesse du son.
Une fois repérés, ils sont soustraits du signal initial pour réduire leur effet de masque. L’efficacité de
ce procédé se limite toutefois aux situations simples comme une voix dans un couloir, aux toilettes ou
dans la cuisine (fig. 27, voir page suivante). La complexité de certaines situations sonores, comme c’est
le cas dans une église, ne permet pas encore une bonne amélioration du S/B.
Parole et bruits mélangés :
• Micro directionnel, •-Anti bruit en marche
Musique dominante :
• Micro omnidirectionnel, •Anti bruit sur arrêt
Avec le e2e
- Micro directionnel
- Anti bruit activé sur les 2 oreilles
135
37273_Monographie_N45.Nais_vie_m135 135
18/09/08 14:43:01
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
∂ fig. 27.
Équilibrage de la fonction binaurale
Par des tests en champ libre, avec des bruits et des tests vocaux, l’audioprothésiste s’efforce d’équilibrer
au mieux la sensation sonore entre les deux oreilles. Il est regrettable qu’aucun logiciel de fabricant
ne propose de procédure d’équilibrage binaural. Une fois cet équilibre trouvé, l’activation des deux
appareils provoque toujours une remarque de la part du patient signalant l’amélioration de la netteté
des sons.
En cas de dissymétrie de l’audition, les réglages permettant un bon équilibre stéréophonique pour la
voix sont notablement différents des pré réglages théoriques. Encore une fois, la valeur ajoutée de
l’audioprothésiste dans les performances des réglages est bien mise en évidence. Lorsque le patient
est accoutumé, le démasquage binaural apporte un gain de 5 dB de S/B.
136
37273_Monographie_N45.Nais_vie_m136 136
18/09/08 14:43:01
En présence d’un traitement de signal efficace, lorsque les sons présentés à l’oreille droite diffèrent
beaucoup de ceux captés par l’oreille gauche, l’automatisme des appareils peut proposer des réglages
très dissemblables entre les deux oreilles au point de déséquilibrer la fonction stéréophonique (fig. 28).
Pour limiter ce problème, la fonction de synchronisation, e2e chez Siemens, QuickSync chez Phonak,
par l’échange d’informations des centaines fois par seconde, propose la synchronisation du
fonctionnement des deux aides auditives.
La stéréophonie est donc mieux préservée.
∂ fig. 28 : exemple de
conversation côte à côte au
restaurant avec source
musicale.
Récemment, nous avons vu apparaître le contrôle stéréophonique du gain entre les deux appareils sur
la puce de l’Epoq d’Oticon. Bénéficiant d’une technologie de transfert d’information très rapide entre
les deux appareils, le système constitué des deux appareils est capable de reconnaître l’incidence du
son sur la tête du patient en analysant le déphasage du signal entre les microphones des deux appareils
ainsi que l’atténuation liée au masque de la tête.
Avec un signal à 90° et des prothèses classiques, type WDRC, c’est-à-dire avec une diminution
progressive du gain en fonction de l’intensité, le signal reçu à droite étant plus fort que celui de gauche,
le gain de l’appareil droit est inférieur au gain de l’appareil gauche et réduit notablement l’effet de
∂ fig. 29 :
137
37273_Monographie_N45.Nais_vie_m137 137
18/09/08 14:43:06
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
masque de la tête. La conséquence est une plus grande difficulté dans la localisation, donc dans le
démasquage.
Epoq, par l’analyse conjointe du signal reçu par les deux appareils, reconnaît ce type de situation et
baisse le gain de l’appareil gauche au niveau du gain de l’appareil droit pour garder le même écart que
chez le normo entendant, avec pour conséquence de meilleures chances de bien analyser la provenance
du son (fig. 29, voir page précédente).
Gestion du Larsen
Les systèmes de gestion du Larsen par opposition de phase ont permis l’avènement des « opens » et
l’appareillage des courbes avec des graves bien conservés et un bon résultat sur les aigus.
Qualité esthétique
Dans le même temps, les qualités esthétiques des audioprothèses ont nettement progressé. L’apparition
des microcontours en open ou en RIC en est un exemple indiscutable.
3.3.4.4. Évolution de l’aide auditive
L’évolution se fait vers un outil de communication globale :
-vers les téléphones : liaison automatique et sans fil,
-vers la télévision : liaison sans fil,
-vers les lecteurs audio ou les ordinateurs sans fil
-utilisation de micros sans fil dans les situations d’écoute difficiles.
Voir fig. 30 page suivante.
Les traitements du signal par transposition fréquentielle ou par glissement fréquentiel ouvrent de
nouvelles perspectives pour les courbes avec déficit irrécupérable sur une zone de fréquences, les aigus
en particulier.
138
37273_Monographie_N45.Nais_vie_m138 138
18/09/08 14:43:07
∂ fig. 30
3.3.4.5. Prise en charge par les organismes
sociaux
La prise en charge d’une prothèse auditive par la
Caisse Nationale d’assurance-maladie se fait
actuellement, à 100 % du tarif, sur un montant de
199,71 € pour un adulte. Pour mémoire, ce montant
est de 1 400 € pour un enfant de moins de 20 ans,
avec un appareil de classe D.
Le montant est doublé pour 2 prothèses, si la
prescription médicale le spécifie.
Les assurances complémentaires interviennent le
plus souvent, mais dans des proportions très variables suivant les caisses et le contenu des contrats
souscrits.
En ce qui concerne les aides et les secours, ils sont de montant très variables suivant l’organisme payeur
et la situation socioprofessionnelle du malentendant. Il faut conseiller au patient de se tourner vers sa
caisse de sécurité sociale, sa caisse de retraite, la MDPH ou l’AGEPHIP, à condition d’être salarié.
3.3.4.6. Accessoires
Ce terme générique regroupe tous les produits destinés à améliorer le confort de vie du
malentendant :
- réveils avec vibreur et/ou signal lumineux.
- système de signaux d’alarme pour la porte, le téléphone, les cris du bébé,
- téléphones, à écoute amplifiée, pouvant se connecter aux prothèses auditives. La liaison est sans
fil, par induction, pour l’instant,
- mini-casques d’écoute télévision avec transmission par infra rouges,
- ….
Un certain nombre des fonctions de ces accessoires est progressivement intégré à des ensembles de
communication dont l’aide auditive est le centre.
3.3.4.7. Aide auditive et troubles mnésiques
En maintenant la fonction auditive valide sur un champ auditif le plus large possible l’aide auditive
permet de stimuler les centres et entretient ainsi la plasticité cérébrale.
Dans les déficits mnésiques, on peut distinguer :
- les mécanismes implicites, inconscients, non exprimés par le langage, peu sensibles au vieillissement,
- les mécanismes explicites, affectant la mémoire épisodique qui permet la récupération de
faits ou événements que le langage peut exprimer ; ce sont ces mécanismes qui sont le plus
souvent atteints.
Le langage est matérialisé par une suite d’éléments sonores qui se déroulent comme des événements
139
37273_Monographie_N45.Nais_vie_m139 139
18/09/08 14:43:10
Monographie
chapitre
naissance vie et mort de l'oreille
03
son déclin : la presbyacousie
dans le temps. Les sujets presbyacousiques présentent, très souvent, de grandes difficultés à mémoriser
une série sonore.
O. Koenig a réalisé deux études qui montrent :
- d’une part, que le besoin d’aide à la récupération mnésique serait moins important pour les
patients appareillés,
- d’autre part, après huit mois de port des appareils, que les tests de mémoire épisodique se
sont améliorés.
On peut ainsi penser que la prothèse, en facilitant l’accès au langage, améliore progressivement la
mémorisation d’un message.
140
37273_Monographie_N45.Nais_vie_m140 140
18/09/08 14:43:11
Monographie
chapitre
naissance vie et mort de l'oreille
04
sa renaissance
4 - VERS SA RENAISSANCE ?
Cellules sensorielles auditives et régénération, vers de nouvelles pistes
thérapeutiques ?
L
’immense majorité des surdités neurosensorielles (dont on ne rappelle jamais trop souvent
l’impact démographique, 5 millions de personnes adultes en France, et un à deux bébés sur
1000 naissances, et les impacts social et financier) impliquent des pertes cellulaires dans la
cochlée, parmi lesquelles des éléments nobles, directement impliqués dans la transduction, les cellules
ciliées externes (CCE), les cellules ciliées internes (CCI) et les neurones auditifs, et des éléments de
soutien. Il est bien connu (ou il devrait l’être, mais une immense majorité de la population l’ignore)
que ces pertes cellulaires aboutissent à une perte auditive définitive, irréversible et actuellement
inaccessible à tout traitement, parce que les cellules sensorielles ne sont produites que pendant le
développement embryonnaire, que leur production devient définitivement impossible bien avant la
naissance chez l’humain (Ruben, 1967). Il faut donc tenter de conserver ces cellules le plus longtemps
possible durant notre vie, ou être prévenu que l’on devra se contenter de solutions palliatives en cas
de déficit : l’appareillage auditif. Dans sa malchance, l’homme doit s’estimer relativement heureux que
même dans le cas extrême d’une perte totale et prolongée de ses cellules sensorielles auditives, les
neurones auditifs survivent presque toujours en nombre suffisant pour permettre une implantation
cochléaire efficace.
L’esprit conquérant de l’homme le pousse à rejeter les dogmes. Le voici donc à la recherche de solutions
plus radicales au problème de la surdité, pour assouvir son fantasme de guérison : serait-il possible
d’aller contre les lois de la Nature et de faire en sorte que les cellules absentes ou détruites soient
régénérées ? De manière surprenante, le dogme de l’impossibilité d’une telle démarche est en train de
s’effriter. On ne peut cependant anticiper une victoire totale sur la surdité. En effet un autre dogme
semble infiniment plus tenace, celui de l’impossibilité d’acquérir des connexions neurales satisfaisantes,
passée une période critique de quelques années après la naissance, pour permettre un traitement
cérébral de l’information linguistique (que la langue en question soit orale ou gestuelle, bien
évidemment). Il reste curieux que ce dogme incontournable soit considéré avec tant de légèreté par
certaines instances qui devraient inciter au dépistage précoce des surdités, condition nécessaire mais
non suffisante pour une prise en charge de qualité, et faute de motivation à mettre en jeu les moyens
d’améliorer cette qualité, poussent au renoncement en se cachant derrière de fantasmatiques
objections.
L’idée selon laquelle la régénération des cellules cochléaires pouvait être rendue possible est venue de
la découverte étonnante, il y a 20 ans, de ce que les oiseaux peuvent régénérer leurs cellules sensorielles
cochléaires après un traumatisme dû soit à l’exposition à un bruit de niveau excessif, soit à la prise de
substance ototoxique comme un antibiotique aminoside (Cotanche, 1987 ; Corwin et Cotanche, 1988).
L’oiseau diffère considérablement des mammifères en ce qu’il est petit-cousin des dinosaures (les
vieilles dames qui nourrissent les pigeons dans les parcs devraient en être informées : peut-être
141
37273_Monographie_N45.Nais_vie_m141 141
18/09/08 14:43:13
Monographie
chapitre
naissance vie et mort de l'oreille
04
vers sa renaissance ?
cesseraient-elles de laisser moisir des morceaux de pain à destination d’un petit-cousin de T.Rex ?).
Mais, en dehors de détails anatomiques macroscopiques qui distinguent la cochlée d’oiseau de celle
des mammifères, il existe bien dans la cochlée d’oiseau une tonotopie, un gain cochléaire assuré par
le même principe physique que chez le mammifère, et donc un accord fin en fréquences. Sur le plan
cellulaire, on identifie bien deux catégories de cellules ciliées de fonctions différentes, certes non pas
externes et internes, mais de plus ou moins grande taille et assimilables par leur fonction à leurs
homologues mammifères, y compris en ce qui concerne leurs connexions spécifiques aux systèmes
nerveux afférent et efférent. Et l’intervalle audible des oiseaux est assez proche de celui de l’homme.
Les mêmes agressions que chez les mammifères (bruit, ototoxiques) entraînent bien les mêmes
types de dégâts chez l’oiseau : les cellules sensorielles auditives meurent bel et bien. Toutefois la
ressemblance, à l’état naturel, s’arrête là. Chez le mammifère, la fonction perdue l’est définitivement
si les cellules sensorielles ont bien été tuées (mais attention, premièrement, la mort cellulaire n’est
pas si facile à vérifier ce qui a conduit à des polémiques lors de premières tentatives : il semble que
les régénérations initialement rapportées chez le mammifère après administration d’acide rétinoïque
étaient en fait des réparations –Chardin et Romand, 1997- et deuxièmement, on sait maintenant
que les cellules sensorielles meurent parce qu’elles se suicident). Chez l’oiseau, une fois régénérées,
les cellules sensorielles d’oiseaux permettent effectivement la récupération des performances
auditives, comme l’ont montré les équipes d’Ed Rubel et Brenda Ryals. Et cette récupération se fait
grâce à la reconnexion précise des fibres neuronales (qui, elles, avaient survécu) aux cellules
sensorielles régénérées.
Il est désormais bien admis que les cellules sensorielles répondent à une agression intense d’une
manière bien spécifique, l’apoptose. L’apoptose est une mort cellulaire programmée, sous le contrôle
d’un programme génétique très précis qui est enclenché quand une cellule se sent menacée ou encore,
désormais inutile comme cela peut arriver dans le contexte de certaines étapes du développement.
Loin d’être victime passive, la cellule contrôle en permanence l’exécution du programme qui combine
des signaux pro- et anti-apototiques. Un arbitrage est effectué, qui décide si la cellule va aller jusqu’au
bout de son suicide ou renoncer (Adams et Cory, 1998; Crompton, 2000; Letai, 2005). Une fois le
suicide décidé, la famille des caspases est activée et achève le travail en démontant littéralement pièce
par pièce l’architecture subcellulaire.
Ce scénario bien analysé donne déjà à lui seul des idées d’intervention. Une première piste thérapeutique
évidente est d’éviter que la cellule ne se sente agressée et que l’idée du suicide ne l’effleure pas. Nous
n’insisterons pas sur cette approche qui ne fait pas l’objet principal du présent chapitre. Parmi les
stratégies possibles, celle d’agir en capturant les molécules toxiques produites lors de l’agression,
comme les radicaux libres oxygénés. Une autre stratégie qui permet d’intervenir un peu plus
tardivement (dans un laps de temps de l’ordre du jour), est de peser sur le processus d’arbitrage en
aidant la cellule à décider contre le suicide. L’emploi ciblé de bloqueurs d’apoptose pourrait être
envisagé dans le cas où l’agression elle-même est programmée, par exemple parce qu’elle va être la
conséquence inévitable d’une cure de chimiothérapie (mais les bloqueurs d’apoptose doivent ne
pouvoir bloquer celle-ci que dans l’oreille interne, en aucun cas dans la tumeur cancéreuse).
142
37273_Monographie_N45.Nais_vie_m142 142
18/09/08 14:43:16
Et si les cellules sensorielles sont déjà mortes ?
Le modèle de l’oiseau
Chez l’oiseau, on n’en reste pas là car après l’agression et le suicide, la vie reprend ses droits. La
régénération se produit grâce aux cellules de soutien adjacentes aux cellules sensorielles mortes. Elles
se mettent à produire des cellules sensorielles de remplacement, grâce à deux mécanismes. Le premier
est très étonnant, il s’agit de la transdifférenciation. Ce phénomène unique en son genre n’implique
pas de mitose, mais un changement de programme qui affecte la cellule de soutien. Celle-ci se met
à modifier son profil d’expression génique et au lieu d’exprimer ses gènes de cellule de soutien, les
inactive et à la place, se met à exprimer des gènes qui la transforment en cellule sensorielle (de
plombier ou électricien, elle devient en quelques heures ingénieur des télécoms… reconversion à la
McGyver, mais ici bien réelle !). Le processus de transdifférenciation montre néanmoins une limitation
draconienne, celle de travailler à nombre de cellules constant : pour chaque cellule sensorielle
régénérée, on perd une cellule de soutien. Or il y a peu de cellules de soutien : trois ou quatre par
cellule sensorielle, leur perte par conversion devient vite pénalisante en cas de lésion extensive.
La régénération mitotique permet aux cellules de soutien voisines de cellules sensorielles disparues
de reprendre un cycle de mitose et de se diviser. L’une des cellules filles peut alors devenir sensorielle,
l’autre restant de soutien. Et dans certains cas il a été montré qu’un nouveau cycle de mitose pouvait
se produire (Stone et Cotanche, 1994). La cochlée d’oiseau exprime donc deux mécanismes, l’un
capable d’agir en urgence, en quelques heures, pour des réparations ponctuelles, l’autre plus extensif
mais moins réactif. Toutefois, une fois enclenchée, la mitose peut produire une réserve considérable
de cellules sensorielles de rechange.
Mais tout ceci est chez l’oiseau, pas le mammifère.
De l’oiseau au mammifère?
Les cellules sensorielles auditives du mammifère subissent bien l’apoptose, comme leurs homologues
des oiseaux, à la suite d’agressions par le bruit ou les ototoxiques, mais une fois suicidées, elles ne
peuvent se régénérer. Les pistes actuellement examinées pour les y aider, car cela semble possible à
long terme, sont au nombre de trois : les manipulations génétiques, la thérapie génique et la
transplantation de cellules souches. Même le grand public a abondamment entendu parler de ces trois
pistes, qui font l’objet de polémiques d’autant plus vives que ceux qui les agitent ne donnent pas
toujours l’impression de maitriser les concepts qui les perturbent … est-ce à dire que la science a
encore des obstacles à franchir pour vaincre l’obscurantisme ? et ce dernier serait-il aussi actif en 2008
qu’il l’était il y a mille ans ? Laissons le lecteur juger en citoyen informé.
Au cours de son développement, l’embryon de mammifère voit apparaître les cellules sensorielles de
l’organe de Corti et leurs diverses cellules de soutien à partir d’un type cellulaire progéniteur commun.
Les cellules de soutien semblent moins nobles que les cellules sensorielles mais n’en sont pas moins
en charge de tâches indispensables. Citons parmi elles des rôles mécaniques par exemple pour assurer
le support contre lequel les cellules dotées de motilité vont pouvoir s’appuyer, des rôles nutritifs et la
tâche de recycler les ions potassium impliqués dans la transduction. On doit donc dès maintenant
143
37273_Monographie_N45.Nais_vie_m143 143
18/09/08 14:43:19
Monographie
chapitre
naissance vie et mort de l'oreille
04
vers sa renaissance ?
s’inquiéter de l’état dans lequel certaines agressions subies par la cochlée vont laisser les cellules de
soutien : intactes, ou bien détruites et remplacées par un épithélium peu différencié ? Si à un stade
futur on a besoin d’elles pour régénérer les cellules sensorielles à l’instar de ce qui se passe chez
l’oiseau, il faudra savoir répondre à cette question. En tout cas, une fois le développement normal
achevé, les deux types de cellules, sensorielles et de soutien, deviennent normalement irremplaçables,
dans la cochlée. Le cas du vestibule est légèrement différent avec quelques signes de régénération
naturelle possible, mais très limitée (Forge et coll, 1993).
Le problème vient de ce que l’épithélium sensoriel cochléaire contient des gènes dits oncogènes
qui inhibent toute différentiation ultérieure et résistent aux appels au secours des cellules
moribondes. Ces gènes ont bien évidemment un rôle clé pour empêcher, comme leur nom le
suggère, une prolifération prolongée indue de nature cancéreuse. Mais il accomplissent trop bien
leur travail. Comment les faire changer d’avis ?
Une première solution implique une manipulation génétique. Celle-ci a pour but de bloquer, en les
mettant KO, certains gènes reconnus comme à l’origine d’inhibiteurs de la multiplication cellulaire.
Les cochlées des souris KO pour ces inhibiteurs oncogènes voient leurs populations de cellules
ciliées continuer à grandir même après que la quantité normale ait été produite, mais pas pour
longtemps : il semble que l’absence d’inhibiteurs soit détectée et enclenche un autre mécanisme
de protection, l’organisme étant a priori peu enclin à tolérer une prolifération qui contient en elle
même la menace d’un cancer.
Deuxième piste, agir sur un ou des gènes capables de contrôler la différentiation des cellules ciliées.
Un de ces gènes a été identifié, Atoh1. Il a fait l’objet d’attentions particulières car c’est une fois
qu’il est exprimé qu’une cascade d’autres gènes sont exprimés à leur tour pour aboutir à fabriquer
des cellules ciliées à partir de leurs précurseurs. L’idée est donc d’introduire Atoh1 dans des cellules
de soutien (mais il faut qu’il en reste, et, rappelons-le, ce n’est pas évident), pour en faire des
cellules ciliées. C’est ce que le groupe de Raphael à Ann Arbor s’est attaché à faire depuis quelques
années, c’est à dire appliquer une technique de thérapie génique qui consiste à introduire le gène
dans les cellules cibles par transfection virale. Chez le cobaye (espèce inaccessible aux manipulations
génétiques réservées pour le moment aux souris, mais non aux tentatives de thérapie génique),
ceci a pu entraîner une régénération et même un retour à une organisation cohérente de
l’environnement immédiat de ces cellules nouvellement formées. Et une certaine fonction semble
apparaître (Kawamoto et al, 2003). Une mauvaise et une bonne nouvelle dans ces expériences :
certaines cellules sont ectopiques, ce qui semble défavorable, s’il n’en ressortait pas une observation
de nature à rendre optimiste : ces cellules ectopiques, certes indésirables, réussissent toutes seules
à attirer à elles des neurones, par l’intermédiaire de neurotrophines que les cellules régénérées
émettent et qui accomplissent leur travail sans aide extérieure. Ceci suggère qu’au moins cette
partie de la tâche essentielle qui consiste à reconnecter les différents éléments régénérés pour qu’ils
puissent transmettre des messages au cerveau puisse être laissée à la nature.
Il reste la troisième piste, celle des cellules souches. Les cellules souches sont des cellules multipotentes
c’est-à-dire capables de donner naissance à des lignées cellulaires différentes, elles-mêmes capables
144
37273_Monographie_N45.Nais_vie_m144 144
18/09/08 14:43:19
de contribuer à former différents tissus dans différents organes. A un stade embryonnaire très précoce,
il existe une petite mais importante population de cellules souches, au nombre de seulement quelques
centaines mais capables de se différencier en absolument n’importe quel type cellulaire et de manière
ultime, n’importe quel tissu ou organe. Elles pourraient donc théoriquement servir de banque de pièces
détachées pour toute réparation ou changement en cas de nécessité à tout âge. Mais leur obtention
se heurte à des problèmes éthiques. C’est pourquoi de nombreux efforts portent sur l’utilisation de
cellules souches à des stades plus tardifs. Ainsi on trouve des cellules souches dans le cordon ombilical,
mais aussi dans les tissus adultes : dans ces tissus, on trouve des cellules souches qui ont pour fonction
de produire certains des types cellulaires qui y sont rencontrés. Certains sont d’accès facile, comme le
sang ou la moelle osseuse, et la peau.
Un premier challenge pour régénérer les cellules neurosensorielles auditives à partir de cellules souches
est d’isoler des cellules souches adéquates, en nombre suffisant. Un deuxième challenge est de les
transplanter au bon endroit, là où on a besoin qu’elles agissent et enfin un troisième défi est de les faire
s’intégrer correctement. On a d’abord cru que les cellules souches extraites de tissus adultes ne pouvaient
donner naissance qu’à des cellules des tissus où on les avait obtenues. Or il n’y en a pas dans l’épithélium
sensoriel auditif. Heureusement, on pense maintenant que la capacité des cellules souches à produire
des cellules adultes différenciées est modulée par le microenvironnement où on les place, qu’elles sont
capables de le reconnaître et auquel elles répondent en reprogrammant leur génome.
Il a ainsi pu être montré ces quelques dernières années que des cellules souches de diverses provenances
(épithélium sensoriel vestibulaire, mais aussi moelle osseuse ou progéniteurs neuraux) peuvent
exprimer certains gènes spécifiques des cellules ciliées cochléaires, au moins en culture, voire même
s’intégrer au nerf auditif et émettre des prolongements vers la cochlée. On peut citer plusieurs équipes
(celles de Heller, Matsuoka, Cotanche, Fritzsch, etc), qui dans leurs résultats préliminaires actuels,
décrivent que des cellules souches survivent à la transplantation, pour s’intégrer à des tissus cochléaires
et donner lieu à une différenciation spécifique.
Parmi les nombreux défis qui restent à relever, il faudra être capable de trouver une stratégie adaptée à l’état,
au moment de l’intervention, de l’organe de Corti abîmé. Les cellules de soutien sur lesquelles on doit compter,
soit pour servir de point de départ à une re-différentiation, soit comme terre d’accueil de cellules souches,
peuvent adopter deux formations à la suite de lésions des cellules sensorielles. Soit les cellules de soutien
conservent leur structure allongée et leurs spécificités moléculaires, soit elles ne sont plus reconnaissables et
on les trouve remplacées par un épithélium non différencié constitué d’un pavage de cellules plates (dont on
ignore l’origine). Des travaux récents (Sugawara et al., 2005) révèlent que les deux types d’épithélium cicatriciel
peuvent coexister avec un classique gradient baso-apical, et qu’il existe une corrélation entre la forme de
l’épithélium restant et la survie des cellules neuronales dans le ganglion spiral. Dans les deux formes, l’épithélium
se doit d’être très cohésif pour éviter toute fuite entre endolymphe et périlymphe. Il est donc a priori peu
réceptif aux cellules qu’on pourrait vouloir lui incorporer, comme des cellules souches. Il faudra sans doute
mieux comprendre comment les interactions entre épithélium restant et cellules souches transplantées peuvent
être favorables. D’un autre côté, le fait que l’épithélium plat, le moins différencié, tende à plus facilement
proliférer (Kim et Raphael, 2007) peut le rendre accueillant vis-à-vis des interventions extérieures.
145
37273_Monographie_N45.Nais_vie_m145 145
18/09/08 14:43:22
Monographie
chapitre
naissance vie et mort de l'oreille
04
vers sa renaissance ?
En conclusion provisoire, on se trouve donc avec une panoplie d’interventions possibles, dont une
partie bénéficie depuis quelques années de notre meilleure compréhension des mécanismes régulateurs
de la différentiation cellulaire et de l’expression génique, appris chez l’oiseau et qu’on aimerait
extrapoler au mammifère. Notamment, de nombreux gènes importants dans le développement ont été
identifiés (Fritzsch, 2006) et leur intervention séquentielle commence à être comprise. Une fois que
les cellules arrivent à l’expression du gène Atoh1, il semble qu’un certain nombre d’étapes puissent se
dérouler spontanément. La reconnexion entre cellules régénérées et neurones ne semble pas forcément
la question la plus complexe. Mais quelle que soit la stratégie retenue, manipulations des gènes,
thérapie génique ou cellules souches, les voies d’administration restent d’une immense complexité. De
là à envisager que l’appareillage amplificateur devienne obsolète d’ici quelques années, il y a donc un
pas que personne ne peut franchir. Il est probable que les indications se complètent plutôt qu’elles
n’entrent en compétition. Mais le bouleversement des connaissances et des dogmes depuis quelques
années pousse à la prudence.
Bibliographie succincte
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
Ryals BM & Rubel EW (1988). Hair cell regeneration after acoustic trauma in adult Coturnix quail. Science, 240, 1774–1776.
Corwin JT & Cotanche DA (1988). Regeneration of sensory hair cells after acoustic trauma. Science, 240, 1772–1774.
Warchol ME, Lambert PR, Goldstein BJ, Forge A & Corwin JT (1993). Regenerative proliferation in inner ear sensory epithelia from
adult guinea pigs and humans. Science, 259, 1619–1622.
Forge A, Li L, Corwin JT & Nevill G. (1993). Ultrastructural evidence for hair cell regeneration in the mammalian inner ear. Science,
259, 1616–1619.
Chardin S & Romand R (1995). Regeneration and mammalian auditory hair cells. Science, 267, 707–709.
Adams JM & Cory S (1998). The Bcl-2 protein family: Arbiters of cell survival. Science, 281, 1322–1326.
Kawamoto K, Ishimoto SI, Minoda R, Brough D & Raphael Y (2003). Math1 gene transfer generates new cochlear hair cells in mature
guinea pigs in vivo. Journal of Neuroscience, 23, 4395–4400.
Izumikawa M, Minoda R, Kawamoto K, Abrashkin K, Swiderski D & Dolan D (2005). Auditory hair cell replacement and hearing improvement by Atoh1 gene therapy in deaf mammals. Nature Medicine, 11, 271–276.
Fritzsch B, Beisel KW & Hansen LA (2006). The molecular basis of neurosensory cell formation in ear development: a blueprint for
hair cell and sensory neuron regeneration? Bioessays 28, 1181-93.
Raphael Y, Kim YH, Osumi Y & Izumikawa M (2007). Non-sensory cells in the deafened organ of Corti: approaches for repair, Int. J.
Dev. Biol. 51: 649-654.
Savary E, Hugnot JP, Chassigneux Y, Travo C, Duperray C, Van de Water T & Zine AZ (2007). Distinct Population of Hair Cell Progenitors
Can Be Isolated from the Postnatal Mouse Cochlea Using Side Population Analysis, Stem Cells, 25, 332-339.
Cotanche DA (2008), Genetic and pharmacological intervention for treatment/prevention of hearing loss, Journal of Communication Disorders, e-pub.
146
37273_Monographie_N45.Nais_vie_m146 146
18/09/08 14:43:22
Monographie
naissance vie et mort de l'oreille
CONCLUSIONS
Ainsi s’achèvent « naissance, vie et mort de l’oreille », telles que ceux qui m’ont aidé à les rapporter la
conçoivent en 2008.
Ils peuvent en être fiers, car il n’est pas une page où le lecteur ne trouve une connaissance nouvelle,
une technique récente, une technologie de pointe ou une idée de progrès ou de recherche pour
demain ; et si l’on se penche vers un passé d’une trentaine d’années, se demandant ce qu’auraient écrit
nos aînés sur le même sujet, beaucoup de ce qui est rapporté ici n’eût pu l’être, faute de ces connaissances
nouvelles.
Ils sont à coup sûr humbles, car ils savent déjà que cette « histoire de 2008 » n’attendra pas bien
longtemps pour paraître dépassée, fade et désuète ; et ils l’espèrent, le plus vite possible…
Ils sont certainement modestes, car espérer traiter un tel sujet est, en soi, une gageure, si l’on se
donne pour objectif d’être complet. Aussi ont-ils bien conscience de n’avoir dressé qu’un tableau
inachevé, imparfait et critiquable d’une « certaine histoire de la naissance, la vie et la mort de
l’oreille ».
Mais ils sont avant tout messagers : le premier regard porté sur ce livre collait de trop près à celui
de « l’otologiste thérapeute en 2008 ». Ce faisant, il enferma bien vite l’oreille dans un monde mécaniste
où, finalement, l’organe isolé subissait, de sa conception à sa mort, diverses avaries à l’encontre
desquelles nous allions proposer un manuel des techniques de réparation. C’était avoir fait l’erreur
d’isoler l’organe de l’organisme et l’organisme de son univers : l’oreille n’est pas un tout, elle n’est qu’un
élément au cœur d’une chaîne de communication, qu’elle soit écrite, orale ou autre, permettant à
l’homme la connaissance et l’échange… Bref, son histoire est indissociable de celle du langage ; et cela,
nos aînés l’avaient déjà parfaitement écrit, il y a plus de trente ans, avant que le monde ORL ne l’oublie
imprudemment…
L’histoire n’est autre qu’un perpétuel recommencement…
A. Chays
147
37273_Monographie_N45.Nais_vie_m147 147
18/09/08 14:43:25
Monographies Amplifon
L’impédancemétrie
J.J. Valenza
Pathologies Temporo-mandibulaires
C. Levy, B. Meyer, G. Vincent, K. Marsot-Dupuch
Les potentiels évoqués dynamiques
M. Ohresser
Sinusites : du diagnostic au traitement
J.P. Fombeur, D. Ebbo
Syndromes vestibulaires centraux Aspect nystamographique
G. Freyss, E. Vitte
Le neurinome de l’acoustique : la neurofibromatose de type II
J.M. Sterkers, O. Sterkers
La dissection du rocher
P. Fleury
Poches de rétraction et états pré-cholestéatomateux
P. Roulleau, C. Martin
Prélude à la chirurgie de l’oreille moyenne
J.M. Basset, G. Aben-Moha, P. Candau
Vidéonystagmoscopie, vidéonystagmographie
Ph. Courtat, A. Sémont, J.-P. Deroubaix, E. Hrebicek
Les tympanoplasties
P. Roulleau, L. Gomulinski, M. François
Regard et paupières
E. Mahe, S. Poignonec, J. Soudant, G. Lamas
L’otospongiose dans la pratique
P. Elbaz, D. Doncieux, B. Frachet, F. Leca, G. Fain
L’otospongiose
P. Elbaz, D. Ayache
Les surdités de l’enfant
P. Marie, P. Narcy, M. François, P. Contencin
Corde vocale
S. de Corbière, E. Fresnel
Le neurinome de l’acoustique
J.M. Sterkers
La dacryocystorhinostomie
P. Klap, J.-A. Bernard
Méthodes d’investigation en oto-neurologie Actualités et perspectives
Congrès d’oto-neurologie
M. Ohresser
Rhinoplasties
Y. Saban, F. Braccini
La chirurgie de l’oreille moyenne vue par P. Fleury
P. Fleury, J.M. Basset, S. Bobin, M. Bre, D. Coupez, P. Candau
Les surdités, de la prothèse à l’implant
A. Casenave, M. Mondain; B. Frachet, CC. Hamann, O. Sterkers
La chirurgie des tumeurs du trou déchiré postérieur
P. Tran Ba Huy, J. Achouche, O. Laccourreye, B. George, D. Bastian
Surdités de l’enfant
E-N. Garabédian, F. Denoyelle, R. Dauman, J-M. Triglia, N. Loundon,
P. Bouaziz, J. de Lorenzi
Le laser en O.R.L.
C. Peytral
Les tumeurs de la parotide
P. Gehanno, B. Guerrier, J.J. Pessey, M. Zanaret
Nez -Sinus. Repères et balises
P. Lerault, C. Freche
Nouvelles données en Audiologie & appareillage stéréophonique
L. Collet, O. Sterkers, D. Bouccara, S. Deys, S. Lermigeaux
Lesotoémissionsdanslapratique
P. Elbaz, D.T. Kemp, Ph. Betsch, J.M. Fiaux, F. Leca, P. Miller, G. Challier
Acouphènes, aspects fondamentaux et clinique
B. Frachet, B. Geoffray, S. Chery Croze, J-L. Puel, C. Coulvier
La prothèse auditive
M. Bonnevialle, G. Challier
Education auditive : de la parole à la musique
B. Meyer, C. Morisseau, C. Toffin
L’ostéo intégration en otologie
P. Roulleau, Y. Manach, C. Hamann
La chirurgie conservatrice des cancers du larynx et du pharynx
D. Brasnu, O. Laccourreye, S. Hans, M. Ménard, E. de Monès, E. Behm
La chirurgie partielle des épithéliomas du pharyngo-larynx
H. Laccourreye
Nomenclature des éponymes
O. Laccourreye, C. Dubreuil, L. Laccourreye
La rhonchopathie chronique
F. Chabolle, B. Fleury
Chirurgie de la thyroïde et de la parathyroïde
B. Guerrier, M. Zanaret, G. Le Clech, J. Santini
Anatomie du voile
P. Lerault, M. Jakobowicz, H. Chevallier, E. Attias
Handicap de communication
Bruno Frachet, Philippe Thoumie, Emilie Vormès
Pratique des tests d’audition en consultation
F. Legent, P. Bordure, M.L. Ferri-Launay, J.J. Valenza
Actualités audioprothétiques
Paul Avan, Frédéric Chabolle, Jean-Claude Chobaud, Christian Dubreuil,
Bruno Frachet, Bernard Fraysse, Erea-Noël Garabedian, Olivier Sterkers,
Alain Uziel
Troubles de la déglutition de l’adulte
J. Lacau St Guily, S. Chaussade
Chirurgie du nerf facial
O. Sterkers
Les surdités génétiques
G. Lina-Granade, H. Plauchu, A. Morgon
37273_Monographie_N45.Nais_vie_m148 148
Exploration radiologique en otologie
Françoise Denoyelle, Hubert Ducou Le Pointe, Olivier Deguine, Bernard
Escude, Michel Mondain, Alain Bonafé, Vincent Darrouzet, Xavier
Barreau, Christophe Vincent, Marion Devambez, Alexis Delattre,
Christian Dubreuil, Sandra Zaouche, Stéphane Tringali, Eric Truy, Aïcha
Eltaïef, Maxime Tardieu, Benoît Godey, Denis Ayache, Marc Williams.
18/09/08 14:43:28
Ouvrage exclusivement réservé à l’enseignement des médecins spécialistes.
COPYRIGHT
Tous droits de traduction et de reproduction par tous procédés réservés pour tous pays.
Loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation
ou reproduction intégrale, ou partielle faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est illicite » [alinéa 1er de l’article 40]. Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du Code pénal.
ISBN 978-2-917390-03-0 Imprimé en France
Dépôt légal 4e trimestre 2008
Graphic-Eclair www.graphic-eclair.fr -Tél. : 01 43 30 99 99
37273_Monographie_N45.Nais_vie_m149 149
18/09/08 14:43:28
Donnez du son à la vie
Ce livret est une aide pratique à
l’hypoacousie et à la prothèse
auditive destiné aux patients.
les solutions
AUD ITIV ES
érique :
la technologie num
Les avantages de
te ;
ur confort d’écou
du son, meille
éhension
• Meilleure qualité
meilleure compr
ion grâce à une
de la communicat
• Amélioration
le bruit ;
de la parole dans
te : l’appareil équipément
situations d’écou
atique
ntes
autom
e
différe
du son et s’ajust
• Adaptation des
reconnaît la nature ;
d’algorithmes
nt
son environneme
en fonction de
l;
un son plus nature
ibilité grâce à
• Meilleure intellig
jusqu’alors non
pertes auditives
corriger 95% des
de
ilité
• Possib
appareillables.
te conseillé
L’audioprothésis
est à la pointe
par votre ORL
le domaine
du progrès dans
ue centre
Chaq
ue.
technologiq
urs types de
propose plusie
cient
solutions qui bénéfi avancées
ères
toutes des derni
audiologiques.
formes
Les différentes
d’aides auditives
17
:
L’intra-auriculaire
11/01/08 16:20:03
Event
Haut-parleur
Microphone
Le mini contour
Interrupteur, tiroir
pile
d’oreille :
Haut-parleur
Rires d'enfants en cascade
Microphones
Interrupteur,
tiroir pile
ire
Embout auricula
Ce document a été réalisé avec le concours de la société
atients_080108
34210_Livret_P
.ind18 18
Siège social : 18 rue Oberkampf - 75011 Paris
tél. : 01 56 98 22 22 - fax : 01 56 98 22 20
www.amplifon.fr - www.lavieesttropbelle.fr
34210_Couv_livret_Patients_110101 1
37273_Annonces_Monographies_N45_1 1
www.graphic-eclair.fr - 01 43 30 99 99
11/01/08 16:20:06
18
La vie est trop belle
pour ne pas l'entendre
14/01/08 11:53:51
17/09/08 16:05:54
Le Forfait Audition,
un pas de plus vers une bonne
audition pour tous.
En France, si la Presbyacousie touche 5 millions de personnes, le niveau
d’équipement reste extrêmement faible, aux alentours de 15%. Vous,
médecins ORL, nous avez alertés sur le fait que les appareillages sont
jugés trop chers par vos patients. Pour lever ce frein, nous avons imaginé une solution qui facilite l’accès à l’appareillage sans faire l’impasse,
ni sur la qualité, ni sur le niveau indispensable d’accompagnement et de
service. Cette solution est la première de ce type sur le marché.
On ne vend pas un appareil,
mais une bonne audition
Le Forfait Audition est une nouvelle approche de la solution auditive de vos patients.
Il ne s’agit plus de vendre un appareil, mais
de donner à chacun le droit de bien entendre, de bénéficier des technologies les plus
avancées, et d’être suivi par un spécialiste
aussi régulièrement et souvent que nécessaire.
Amplifon s’engage, pour un coût forfaitaire, à assurer la prise en charge complète
des besoins du patient, afin de faciliter sa
démarche et de la rendre plus agréable.
Des mensualités «tout compris»
La mensualisation est la seconde bonne
idée de ce Forfait Audition. Elle favorise
l’accès à un appareillage de qualité en
permettant au patient de régler sur 4 ans,
par mensualités forfaitaires, moyennant
un apport initial correspondant aux remboursements de la Sécurité Sociale et des
mutuelles.
Le patient repart l’esprit tranquille. Amplifon fournit l’appareil adapté à ses besoins,
les piles, les produits d’entretien, les
embouts, ainsi qu’un service illimité pendant la durée du contrat, tous les contrôles
et les réglages préconisés pour une bonne
adaptation de l’aide auditive, ainsi que
les tests auditifs prothétiques à but non
médical.
Ces services sont valables dans les 320
centres amplifon en France.
Le forfait est souscrit pour une durée de
48 mois soit 4 ans, ce qui correspond à la
durée de vie
moyenne d’un appareil. Nous avons bien
sûr prévu une période d’essai, pendant
laquelle le forfait est gratuit et résiliable à
tout moment.
* TNS Sofres « Les Français et la presbyacousie »
Le Forfait Audition a été lancé cet automne via une campagne de publicité presse et télévision sur le thème : « La vie est trop belle pour ne pas l’entendre ». Car pour nous comme pour
vous, il s’agit avant tout de sensibiliser les patients sur la nécessité de prendre son audition
au sérieux, de s’appareiller et de se faire suivre de façon régulière. Une bonne audition n’est
pas un luxe. Aujourd’hui, avec le Forfait Audition, elle est un droit pour tous.
37273_Annonces_Monographies_N45_2 2
17/09/08 16:06:49
Forfait audition :
une solution vraiment
« tout compris »
Donnez du son à la vie
Les conditions de vente :
Le patient bénéficie d’une période d’essai pendant laquelle le forfait est gratuit et résiliable à
tout moment.
Le prix du forfait peut être réglé au comptant ou en 48 mensualités, après acceptation du
dossier par notre partenaire Franfinance.
Le patient bénéficie du tiers-payant Sécurité Sociale et Mutuelles.
Un exemple concret :
Pour un appareillage à 2 020 €* acheté dans le cadre du Forfait Audition Tout Compris, le
patient règle :
- un apport initial de 482,14 € *, une somme correspondant au remboursement moyen de
la Sécurité Sociale et des mutuelles, ainsi qu’à l’allocation forfaitaire de piles et produits
d’entretien. Elle est donc remboursée au patient.
- 48 mensualités de 38 €** seulement, sur 4 ans. Hors assurance facultative.
Les garanties en plus :
Amplifon garantit toutes les aides auditives sur 3 ans (pour 1 € symbolique).
Amplifon assure les aides auditives en cas de perte, vol et casse pendant 1 an (pour 1 €
symbolique). Extension possible sur 4 ans dans les 2 cas.
* Toutes les sommes s’entendent TTC
**Montant total du crédit s’élève à 1537,86 €, coût du crédit 286,14€, coût total de l’achat à crédit 2306,14€, TEG annuel 8,98%.
Nanterre 719 807 406.
Le contenu du forfait :
Un test Amplifit, complémentaire de l’audiométrie Tonale et Vocale du patient
Le prix de l’aide auditive
La fourniture des piles (8 plaquettes de 6 piles/an) et les produits d’entretien pendant 4
ans, L’entretien, les contrôles et les réglages, selon un calendrier sur 4 ans, établi dès la
souscription du forfait
Le service illimité fourni par les audioprothésistes de nos 320 centres en France.
Sous réserve d’acceptation de votre dossier par le prêteur : Franfinance RCS
L’idée du Forfait Audition est simple et inédite.
Il s’agit d’un prix global,
matériel et service compris,
que le patient peut régler sur 4 ans.
En voici tous les détails.
Pour en savoir plus et trouver le centre
le plus proche, consultez le site www.amplifon.fr
ou composez le 0800 128 128
(appel gratuit depuis un poste fixe)
37273_Annonces_Monographies_N45_3 3
17/09/08 16:06:49
Donnez du son à la vie
Amplifon
est distributeur officiel des
audiomètres et impédancemètres
Interacoustics®
Profitez
de notre
expérience !
Conseil, installation et SAV
Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50
Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74
Retrouvez tous les produits sur notre site : www.amplifon.fr
Vous pouvez également nous contacter par mail à : [email protected]
37273_Annonces_Monographies_N45_4 4
17/09/08 16:06:50
Donnez du son à la vie
Des solutions
d’otoémissions
Otoport®
Dépistage néonatal de la surdité
Cet appareil de 250 g, issu de la
dernière évolution de la technologie,
vous permet de réaliser des examens
les plus rapides dans le depistage.
ECHOPORT ILO
288 USB
Permet l’exploration complète
des otoémissions
Conseil, installation et SAV
Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50
Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74
Retrouvez tous les produits sur notre site : www.amplifon.fr
Vous pouvez également nous contacter par mail à : [email protected]
37273_Annonces_Monographies_N45_5 5
17/09/08 16:06:54
Donnez du son à la vie
Appareil de dépistage
des PEA
Algo 3i
Profitez de l’appareil faisant référence dans le monde des PEA
automatisés. Très convivial avec ses menus en français et en
couleur, cet appareil vous fait gagner du temps en testant les
deux oreilles à la fois !
Conseil, installation et SAV
Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50
Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74
Retrouvez tous les produits sur notre site : www.amplifon.fr
Vous pouvez également nous contacter par mail à : [email protected]
37273_Annonces_Monographies_N45_6 6
17/09/08 16:06:58
Donnez du son à la vie
VNG USB Veonys portable
Système conçu pour le diagnostic et
l’investigation des fonctions vestibulaires
Optez pour une VNG créée pour votre cabinet :
compacte, facile d’utilisation et large gamme d’examens disponible
iVNS
Disponible
également en modèle
vidéonystagmoscopie
OPTION :
seringue à eau et à air OTOPRONT®
Conseil, installation et SAV
Amplifon PARIS - 22 AVENUE ARISTIDE BRIAND - 94110 ARCUEIL - Tél. 01 49 85 40 40 - Fax 01 49 85 40 50
Amplifon MEDITERRANEE - CD 40 - 30980 LANGLADE - Tél. 04 66 81 53 00 - Fax 04 66 81 40 74
Retrouvez tous les produits sur notre site : www.amplifon.fr
Vous pouvez également nous contacter par mail à : [email protected]
37273_Annonces_Monographies_N45_7 7
17/09/08 16:07:02
Liste des centres amplifon
37273_Liste_Centres_Mono_N45.ind1 1
18/09/08 15:00:34
LE SIÈGE
Amplifon
03 - ALLIER
AMPLIFON MOULINS
AMPLIFON
NICE CALIFORNIE
39 av de la Californie - 06000 NICE
22 avenue Aristide-Briand
94110 Arcueil
Tél. 01 49 85 40 00
Fax 01 49 85 40 44
www.amplifon.fr
58 place d’Allier - 03000 MOULINS
Tél. : 04 70 28 25 18
Résidence de l’Esterel - 118 av F.
Tonner
06150 CANNES
01 - AIN
AMPLIFON LAPALISSE
Tél. : 04 92 97 21 63
AMPLIFON BOURG
7 Rue Winston Churchill
Optique SOLLIER
03120 LAPALISSE
AMPLIFON JUAN-LES-PINS
12-14 rue Bernard
01000 BOURG-EN-BRESSE
Tél. : 04 74 24 70 95
Tél. : 04 70 20 53 45
AMPLIFON MONTLUCON
10 av Jules Ferry
03100 MONTLUCON
Tél. : 04 70 99 04 33
AMPLIFON VICHY
AMPLIFON OYONNAX
32 av Paul Doumer - 03200 VICHY
21 rue Michelet - 01100 OYONNAX
Tél. : 04 70 97 99 16
Tél. : 04 74 77 69 34
AMPLIFON LAGNIEU
2 rue Charles de Gaulle
01150 LAGNIEU
Tél. : 04 74 36 44 59
AMPLIFON BELLEGARDE
5 rue Bertola - 01200 BELLEGARDE
Tél. : 04 50 56 03 40
AMPLIFON VILLARS
134 rue du Commerce
01330 VILLARS-LES-DOMBES
05 - HAUTES-ALPES
AMPLIFON GAP
140 bd Georges Pompidou
05000 GAP
Tél. : 04 92 21 12 43
AMPLIFON EMBRUN
Optique Collomb
17 rue Clovis Hughues
05200 EMBRUN
Tél. : 04 92 53 63 77
Tél. : 04 74 98 33 85
06 - ALPES-MARITIMES
AMPLIFON AMBERIEU
AMPLIFON NICE CENTRE
18 rue Alexandre Bérard
01500 AMBERIEU
11 bis rue Grimaldi - 06000 NICE
Tél. : 04 74 34 57 99
AMPLIFON
NICE MALAUSSENA
02 - AISNE
AMPLIFON LAON
1 bis rue Roze - 02000 LAON
Tél. : 03 23 79 84 84
AMPLIFON SOISSONS
6 rue de la Buerie
02200 SOISSONS
Tél. : 03 23 76 25 12
AMPLIFON TERGNIER
JF Optique - 1 avenue Jean Moulin
02700 TERGNIER
Tél. : 04 93 87 90 86
1 av. Malaussena - 06000 NICE
Tél. : 04 93 80 82 75
AMPLIFON
NICE BORRIGLIONE
46 av. Borriglione - 06100 NICE
Tél. : 04 93 52 10 20
Tél. : 04 92 09 97 46
AMPLIFON
CANNES LA BOCCA
6 bis av de l’Estérel
06160 JUAN-LES-PINS
Tél. : 04 92 93 14 74
AMPLIFON MANDELIEU
725 av de Cannes
Résidence les Liliums
06210 MANDELIEU
Tél. : 04 93 49 75 26
AMPLIFON CANNES JOFFRE
16 rue du Maréchal Joffre
06400 CANNES
Tél. : 04 93 39 33 17
AMPLIFON CANNES HOCHE
16 rue Hoche - 06400 CANNES
Tél. : 04 93 38 10 11
AMPLIFON
CANNES CHABAUD
2 rue Chabaud - 06400 CANNES
Tél. : 04 93 99 35 14
AMPLIFON
SAINT-LAURENT-DU-VAR
Le Florence 39 Square Benes
06700 SAINT-LAURENT-DU-VAR
Tél. : 04 93 14 63 12
AMPLIFON ALBERT 1er
Le Montecarlo - 3 rue Albert 1er
06600 ANTIBES
Tél. : 04 93 34 72 79
AMPLIFON ANTIBES
AMPLIFON NICE PORT
24 bd Wilson - 06600 ANTIBES
4 bd Carnot - 06300 NICE
Tél. : 04 93 67 33 97
Tél. : 04 93 26 78 78
Tél. : 03 23 56 70 21
37273_Liste_Centres_Mono_N45.ind2 2
18/09/08 15:00:46
AMPLIFON
PORT-LA-NOUVELLE
AMPLIFON MARSEILLE
LE PONT-DE -VIVAUX
Tél. : 04 93 74 17 14
33 bis rue Jean-Jaurès
11210 PORT-LA-NOUVELLE
3 rue François Mauriac
13010 MARSEILLE
AMPLIFON CAGNES
Tél. : 04 68 48 43 20
Tél. : 04 91 26 71 69
11 rue de l’Hôtel-de-Ville
06800 CAGNES-SUR-MER
AMPLIFON LIMOUX
OPTIQUE LANCON
AMPLIFON MARSEILLE
SAINT-BARNABE
Tél. : 04 93 22 83 69
53 rue Jean-Jaurès - 11300 LIMOUX
07 - ARDECHE
Tél. : 04 68 31 34 88
AMPLIFON PRIVAS
AMPLIFON
CASTELNAUDARY
Centre Médical
5 rue des Electriciens
13012 MARSEILLE
AMPLIFON ANTIBES NORD
2222 route de Grasse
06600 ANTIBES
4 rue de la République
07000 PRIVAS
Tél. : 04 75 64 24 24
AMPLIFON LES VANS
30 place Léopold Ollier
07140 LES VANS
Tél. : 04 75 37 90 44
AMPLIFON AUBENAS
Tél. : 04 91 34 83 83
8 rue du 11 Novembre
11400 CASTELNAUDARY
AMPLIFON
MARSEILLE LES OLIVES
Tél. : 04 68 23 13 33
CC des Martégaux
158 av. des Olives
13013 MARSEILLE
13 - BOUCHES-DU-RHÔNES
AMPLIFON
MARSEILLE GAMBETTA
Tél. : 04 91 06 11 59
AMPLIFON
MARSEILLE LA GAVOTTE
2 bd de Vernon - 07200 AUBENAS
61 allée Léon Gambetta
13001 MARSEILLE
Tél. : 04 75 35 20 00
Tél. : 04 95 04 32 73
AMPLIFON
GUILHERAND-GRANGES
AMPLIFON
MARSEILLE CASTELLANE
227 av de la République
07500 GUILHERAND-GRANGES
45 av Jules Cantini
13006 MARSEILLE
AMPLIFON
MARSEILLE CABOT
Tél. : 04 75 81 49 65
Tél. : 04 91 32 30 50
10 - AUBE
AMPLIFON
MARSEILLE PARADIS
11 Boulevard du Redon
13009 MARSEILLE
AMPLIFON TROYES
45 bd du 14 Juillet - 10000 TROYES
Tél. : 03 25 73 08 11
11 - AUDE
AMPLIFON CARCASSONNE
124 rue de Verdun
11000 CARCASSONNE
Tél. : 04 68 47 93 33
AMPLIFON NARBONNE
32 quai Vallière - 11100 NARBONNE
Tél. : 04 68 65 17 30
AMPLIFON LEZIGNAN
8 av Claude Bernard
11200 LEZIGNAN
Tél. : 04 68 27 24 52
37273_Liste_Centres_Mono_N45.ind3 3
343 rue Paradis - 13008 MARSEILLE
Tél. : 04 91 53 55 26
AMPLIFON
MARSEILLE SAINTE-ANNE
404 av de Mazargues
13008 MARSEILLE
Tél. : 04 91 22 17 73
AMPLIFON
MARSEILLE MAZARGUES
769 av de Mazargues
13009 MARSEILLE
Tél. : 04 91 40 91 91
La Gavotte
83 av Frédéric Mitterand
13170 LES-PENNES-MIRABEAU
Tél. : 04 91 51 73 02
Tél. : 04 91 25 49 28
AMPLIFON
AIX-EN-PROVENCE
Immeuble Hemilythe
150 av Georges Pompidou
13100 AIX-EN-PROVENCE
Tél. : 04 42 26 22 38
AMPLIFON
AUDITION CALAS
34 bis rue Cardinal
13100 AIX-EN-PROVENCE
Tél. : 04 42 38 01 68
AMPLIFON ARLES 1
16 place de la République
13200 ARLES
Tél. : 04 90 49 63 33
18/09/08 15:00:46
AMPLIFON ARLES 2
AMPLIFON ROCHEFORT
AMPLIFON BEAUNE
19 Bd Victor Hugo - 13200 ARLES
59 av du Gal-de-Gaulle
17300 ROCHEFORT-SUR-MER
28 rue du Fbg Madeleine
21200 BEAUNE
Tél. : 05 46 99 01 10
Tél. : 03 80 22 87 91
AMPLIFON JONZAC
AMPLIFON
NUITS SAINT-GEORGES
Tél. : 04 90 49 81 15
AMPLIFON AUBAGNE
80 rue de la République
13400 AUBAGNE
Tél. : 04 42 70 26 15
AMPLIFON MARTIGUES
6 esplanade des Belges
13500 MARTIGUES
Tél. : 04 42 07 03 00
26-28 rue de Carmes
17500 JONZAC
Tél. : 05 46 48 10 54
9 Rue de Docteur Louis Legrand
21700 NUITS-SAINT-GEORGES
18 - CHER
Tél. : 03 80 61 25 72
AMPLIFON BOURGES
83 rue d’Auron - 18000 BOURGES
AMPLIFON AUXONNE
64 Rue Antoine Masson
21130 AUXONNE
AMPLIFON ISTRES
Tél. : 02 48 69 07 45
3 bd de la République
13800 ISTRES
19 - CORREZE
Tél. : 04 42 11 88 43
AMPLIFON TULLE
AMPLIFON
SEMUR ELUECQUE
14 - CALVADOS
14 Quai de la République
19000 TULLE
3 Place Gustave Gaveau
21140 SEMUR-EN-AUXOIS
AMPLIFON LISIEUX
Tél. : 05 55 26 57 42
Tél. : 03 80 97 35 83
AMPLIFON BRIVE
25 - DOUBS
place de la Halle - 19100 BRIVE
7 rue du Paradis - 14100 LISIEUX
Tél. : 02 31 48 62 54
Tél. : 03 80 31 47 14
AMPLIFON HONFLEUR
Tél. : 05 55 23 46 36
12 place St Léonard
14600 HONFLEUR
AMPLIFON
BAILLY MASSON-CENTRE
AMPLIFON UZERCHE
82 Grande Rue - 25000 BESANCON
Tél. : 02 31 14 51 50
avenue Charles-de-Gaulle
19140 UZERCHE
Tél. : 03 81 82 01 05
16 - CHARENTE
Tél. : 05 55 98 87 25
AMPLIFON ANGOULEME
20 - CORSE
25 Bis rue de l’Arsenal
16000 ANGOULEME
AMPLIFON BASTIA
Tél. : 05 45 92 99 66
4 rue Luce de Casabianca
20200 BASTIA
AMPLIFON COGNAC
Tél. : 04 95 58 67 70
68 av Victor Hugo - 16100 COGNAC
AMPLIFON BAILLY
MASSON-LAFAYETTE
8 rue Alfred-de-Vigny
25000 BESANCON
Tél. : 03 81 41 69 80
AMPLIFON ST-VIT
ST-VIT OPTIC
21 - CÔTE-D’OR
1 rue Charles-de-Gaulle
25410 ST-VIT
AMPLIFON BARBEZIEUX
AMPLIFON DIJON-VILLE
Tél. : 03 81 87 72 06
40 rue Victor Hugo
16300 BARBEZIEUX
3 place Auguste Dubois
21000 DIJON
26 - DRÔME
Tél. : 05 45 79 00 63
Tél. : 03 80 30 52 93
AMPLIFON DROME
AUDITION VALENCE
Tél. : 05 45 82 88 00
AMPLIFON
3 place des Martyrs - 16700 RUFFEC DIJON POINT-MEDICAL
Rond-Point de la Nation
Tél. : 05 45 31 62 02
AMPLIFON RUFFEC
17 - CHARENTE-MARITIME
AMPLIFON ROYAN
101 Cours de l’Europe
17200 ROYAN
Tél. : 05 46 05 66 70
21 rue Chevandier - 26000 VALENCE
Tél. : 04 75 41 32 02
21000 DIJON
AMPLIFON ROMANS
Tél. : 03 80 70 20 30
39 rue Pierre Sémard
26100 ROMANS-SUR-ISERE
AMPLIFON
DIJON ELUECQUE
Tél. : 04 75 05 07 90
17 et 19 Boulevard de Brosses
21000 DIJON
Tél. : 03 80 30 20 00
37273_Liste_Centres_Mono_N45.ind4 4
18/09/08 15:00:47
AMPLIFON PIERRELATTE
AMPLIFON AUTERIVE
AMPLIFON TALENCE
8 bd Maréchal Juin
26700 PIERRELATTE
LES OPTICIENNES
Route de Toulouse
Rond-Point RN 20
31190 AUTERIVE
117 bd Georges V - 33400 TALENCE
Tél. : 04 75 96 31 26
27 - EURE
Tél. : 05 61 50 73 38
AMPLIFON PONT-AUDEMER AMPLIFON MURET
Tél. : 05 56 98 26 44
AMPLIFON LIBOURNE
62 rue de Fonneuve
33500 LIBOURNE
Tél. : 05 57 55 05 12
12-14 rue Paul Clémencin
27500 PONT-AUDEMER
20 av Jacques Douzans
31600 MURET
Tél. : 02 32 20 15 25
Tél. : 05 61 56 44 33
29 - FINISTERE
3 av de la Libération
33700 MERIGNAC
33 - GIRONDE
Tél. : 05 56 97 51 54
AMPLIFON QUIMPER
AMPLIFON
DEDIEU BORDEAUX
34 - HERAULT
49 av de la Gare - 29000 QUIMPER
Tél. : 02 98 90 72 38
AMPLIFON CONCARNEAU
12 rue des Ecoles
29900 CONCARNEAU
Tél. : 02 98 60 41 89
30 - GARD
AMPLIFON NIMES CENTRE
6 Amiral bd Courbet - 30000 NIMES
Tél. : 04 66 67 99 33
AMPLIFON
NIMES JEAN JAURES
49 av Jean Jaurès - 30900 NIMES
Tél. : 04 66 36 29 14
AMPLIFON ALES
22 bd Gambetta - 30100 ALES
Tél. : 04 66 30 24 65
AMPLIFON
BAGNOLS-SUR-CEZE
45 rue Fondaudège
33000 BORDEAUX
AMPLIFON MERIGNAC
AMPLIFON
MONTPELLIER CENTRE
Tél. : 05 56 44 89 93
4 rue Grand St-Jean
34000 MONTPELLIER
AMPLIFON BORDEAUX
Tél. : 04 67 92 87 20
15 rue Jean Burguet
33000 BORDEAUX
Tél. : 05 56 91 93 69
AMPLIFON
BORDEAUX BASTIDE
51 avenue Thiers
33100 BORDEAUX
Tél. : 05 57 54 49 94
AMPLIFON BEGLES
161 Bd Albert 1er - 33130 BEGLES
Tél. : 05 56 49 74 92
AMPLIFON
BORDEAUX CAUDERAN
6 rue Bellus Mareilhac
33200 BORDEAUX
AMPLIFON
MONTPELLIER-LES-AUBES
Centre Médical-les-Aubes
9 rue des Moineaux
34000 MONTPELLIER
Tél. : 04 67 72 77 97
AMPLIFON
MONTPELLIER ESTANOVE
CC Collines Estanove
1 rue Escoutadou
34000 MONTPELLIER
Tél. : 04 67 69 04 07
AMPLIFON MONTPELLIER
LES ARCEAUX
Tél. : 05 56 08 45 87
15 Ter av d’Assas
34000 MONTPELLIER
AMPLIFON LESPARRE
Tél. : 04 67 52 50 42
31 - HAUTE-GARONNE
31 rue Jean-Jacques-Rousseau
33340 LESPARRE
AMPLIFON FRONTIGNAN
AMPLIFON TOULOUSE
Tél. : 05 56 41 89 07
31 allée Jean Jaurès
31000 TOULOUSE
AMPLIFON BLAYE
9 place de la Victoire - 33390 BLAYE
Tél. : 04 67 74 00 00
Tél. : 05 61 99 33 33
Tél. : 05 57 42 08 65
AMPLIFON SETE
6 avenue de l’Europe
30800 BAGNOLS-SUR-CEZE
Tél. : 04 66 50 64 28
Pharmacie Léon
2 Avenue Anatole France
34110 FRONTIGNAN
16 rue Voltaire - 34200 SETE
Tél. : 04 67 74 00 00
37273_Liste_Centres_Mono_N45.ind5 5
18/09/08 15:00:47
AMPLIFON
LA GRANDE MOTTE
28 Place Saint-Exupéry
av de l’Europe
34280 LA GRANDE MOTTE
Tél. : 04 67 29 85 00
AMPLIFON AGDE
AMPLIFON AGDE BESSAN
38 - ISERE
Centroptique - 56 grand rue
34550 BESSAN
AMPLIFON BOUGET
Tél. : 04 67 94 77 48
14 bd Maréchal-Foch
38000 GRENOBLE
AMPLIFON
CLERMONT-L’HERAULT
36 rue Ernest Renan - 34300 AGDE
30 rue Voltaire
34800 CLERMONT-L’HERAULT
Tél. : 04 67 94 77 48
Tél. : 04 67 96 34 54
AMPLIFON
AGDE MARSEILLAN
AMPLIFON CLAPIERS
Centroptique, Place Carnot
34340 MARSEILLAN
C.C. La Croiséeav de l’Europe
34830 CLAPIERS
Tél. : 04 99 62 05 08
Tél. : 04 76 46 27 27
AMPLIFON LESDIGUIÈRES
8 rue Lesdiguières
38000 GRENOBLE
Tél. : 04 76 17 04 67
AMPLIFON MALLIFAUD
83 rue Mallifaud
38100 GRENOBLE
Tél. : 04 76 87 44 88
Tél. : 04 67 94 77 48
AMPLIFON LATTES
AMPLIFON LUNEL
Ctre-Cial-Les-Portes-de-la-Mer
34400 LUNEL
Forum Médica
Rond-Point de l’Europe
34970 LATTES
Tél. : 04 67 91 00 55
Tél. : 04 67 64 80 78
Tél. : 04 37 05 03 28
AMPLIFON
ST-JEAN-DE-VEDAS
35 - ILLE-ET-VILAINE
AMPLIFON ECHIROLLES
Rés. Les Terrasses de St-Jean
74 esp de l’Ortet
34430 ST-JEAN-DE-VEDAS
AMPLIFON LA TOUR-DU-PIN
30 rue Aristide Briand
38110 LA TOUR-DU-PIN
AMPLIFON COMBOURG
46 av du 8 Mai 1945
38130 ECHIROLLES
21 bd du Mail - 35270 COMBOURG
Tél. : 04 76 09 80 80
Tél. : 02 99 73 14 66
Tél. : 04 67 69 12 75
AMPLIFON SAINT-MALO
AMPLIFON
SAINT-MARCELLIN
AMPLIFON BALARUC
4-6 rue Ernest Renan
35400 SAINT-MALO
18 Grande Rue
38160 ST-MARCELLIN
Tél. : 02 99 56 36 28
Tél. : 04 76 38 19 21
Tél. : 04 67 78 71 64
AMPLIFON RENNES-JOFFRE
AMPLIFON BRIGNOUD
AMPLIFON
BÉZIERS SAUVIAN
22 rue Maréchal-Joffre
35000 RENNES
34 bis A bd de la Libération
38190 BRIGNOUD
Tél. : 02 99 67 23 33
Tél. : 04 76 40 19 02
AMPLIFON
RENNES-FOUGÈRES
AMPLIFON VIENNE
Europtical - Z.C. Balaruc Loisirs
34450 BALARUC-LE-VIEUX
FuturOptic - Place Paliseul
34410 SAUVIAN
Tél. : 04 67 30 76 79
AMPLIFON BEZIERS
114 av Georges Clémenceau
34500 BEZIERS
Tél. : 04 67 30 76 79
AMPLIFON
AGDE FLORENSAC
Centroptique
23 Rue Fernand Chamayou
34510 FLORENSAC
Tél. : 04 67 94 77 48
221 rue de Fougères
35700 RENNES
Tél. : 02 99 27 76 22
5-7 place St-Maurice
38200 VIENNE
Tél. : 04 74 78 48 96
AMPLIFON MEYLAN
AMPLIFON
RENNES-BAHON-RAULT
42 av Plaine Fleurie
38240 MEYLAN
1 à 5 rue Bahon-Rault
35000 RENNES
Tél. : 04 76 18 03 03
Tél. : 02 99 38 24 24
AMPLIFON
SAINT-MEEN-LE-GRAND
AMPLIFON LA VERPILLIERE
53 rue de la République
38290 LA VERPILLIERE
Tél. : 04 74 82 78 91
4 pl. de la Mairie
35290 SAINT-MEEN-LE-GRAND
Tél. : 02 99 09 49 66
37273_Liste_Centres_Mono_N45.ind6 6
18/09/08 15:00:48
AMPLIFON BOURGOIN
AMPLIFON CAPBRETON
43 - HAUTE-LOIRE
Immeuble Le Kerylos BP 87
21 av Maréchal Leclerc
38303 BOURGOIN
Rde Le Châtelet
Place de la Gare
40130 CAPBRETON
AMPLIFON PUY-EN-VELAY
Tél. : 04 74 28 03 07
Tél. : 05 58 41 61 76
AMPLIFON
LE PONT-DE-BEAUVOISIN
AMPLIFON SOUSTONS
6 rue Gambetta
38480 LE PONT-DE-BEAUVOISIN
10 rue Emile Nougaro
40140 SOUSTONS
Tél. : 05 58 41 56 52
12 place du Breuil
43000 LE PUY-EN-VELAY
Tél. : 04 71 04 28 82
AMPLIFON BRIOUDE
24 bd du Docteur Devins
43100 BRIOUDE
Tél. : 04 71 74 97 65
Tél. : 04 76 32 81 62
42 - LOIRE
AMPLIFON
AUDISON VOIRON
44 - LOIRE-ATLANTIQUE
AMPLIFON SAINT-ETIENNE
13 rue de Vaucanson
38500 VOIRON
Tél. : 04 77 32 17 20
AMPLIFON NANTES
LABORATOIRE P. SADOC
6 rue de la Paix - 42000 ST-ETIENNE
Tél. : 04 76 65 91 81
AMPLIFON FEURS
AMPLIFON FONTAINE
3 rue de la Loire - 42110 FEURS
LABORATOIRE P. SADOC
10 rue Henri IV
44000 NANTES
Tél. : 04 77 26 57 74
Tél. : 02 40 74 71 38
AMPLIFON ANDREZIEUX
AMPLIFON
LABORATOIRE ACHACHE
58 av Aristide Briand
38600 FONTAINE
Tél. : 04 76 26 01 01
39 - JURA
Espace Ambroise Paré
10 av de Saint-Etienne
42160 ANDREZIEUX
AMPLIFON DÔLE
Tél. : 04 77 55 80 81
22 bd Wilson - 39100 DÔLE
Tél. : 03 84 82 46 11
AMPLIFON
ROANNE PROMENADES
AMPLIFON CHAMPAGNOLE
OPTIC 2000 KUHNI
4 place des Promenades
42300 ROANNE
72 av de la République
39300 CHAMPAGNOLE
Tél. : 04 77 71 10 30
Tél. : 03 84 52 34 51
72 rue Maréchal Foch
42300 ROANNE
AMPLIFON ARBOIS
AMPLIFON ROANNE FOCH
19 rue Racine - 44000 NANTES
Tél. : 02 40 73 66 89
AMPLIFON
NANTES-STE-THERESE
4 route de Vannes - 44100 NANTES
Tél. : 02 40 20 06 06
AMPLIFON ANCENIS
19 place Francis Robert
44150 ANCENIS
Tél. : 02 40 83 11 38
47 - LOT-ET-GARONNE
OPTIC CONTACT BILLOT
47 Grande rue - 39600 ARBOIS
Tél. : 04 77 70 01 56
AMPLIFON AGEN
Tél. : 03 84 66 06 64
AMPLIFON MONTBRISON
10 rue Notre-Dame
42600 MONTBRISON
43 bd de la République
47000 AGEN
40 - LANDES
AMPLIFON
MONT-DE-MARSAN
122 Bd de la République
40000 MONT-DE-MARSAN
Tél. : 05 58 75 38 30
AMPLIFON DAX
Tél. : 04 77 58 10 05
Tél. : 05 53 47 38 56
AMPLIFON FIRMINY
AMPLIFON MARMANDE
16 place du Breuil - 42700 FIRMINY
68 rue de la République
47200 MARMANDE
Tél. : 04 77 56 01 34
Tél. : 05 53 89 23 00
AMPLIFON VILLENEUVE
7 rue Saint-Vincent - 40100 DAX
bd Palissy
47300 VILLENEUVE-SUR-LOT
Tél. : 05 58 74 91 08
Tél. : 05 53 01 45 45
37273_Liste_Centres_Mono_N45.ind7 7
18/09/08 15:00:48
51 - MARNE
59 - NORD
62 - PAS-DE-CALAIS
AMPLIFON EPERNAY
AMPLIFON ROUBAIX
AMPLIFON BULLY
16 rue du Gal-Leclerc
51200 EPERNAY
3 rue de la Halle - 59100 ROUBAIX
Place Jean Jaures
62160 BULLY LES MINES
Tél. : 03 26 51 75 51
AMPLIFON SEZANNE
68 place de la République
51120 SEZANNE
Tél. : 03 26 80 54 36
54 - MEURTHE ET
MOSELLE
Tél. : 03 20 82 66 66
AMPLIFON CENTRE
ACOUSTIQUE DU NORD
388 rue de Paris - 59503 DOUAI
Tél. : 03 27 88 81 96
AMPLIFON MAUBEUGE
Place Verte - Centre UGOSS
59600 MAUBEUGE
Tél. : 03 21 72 00 00
AMPLIFON LENS
Route de la Bassée
62300 LENS
Tél. : 03 27 88 81 96
AMPLIFON BRUAY
Tél. : 03 27 53 83 93
195 rue Louis Dussart
62700 BRUAY LA BUISSIERE
Tél. : 03 83 17 22 23
AMPLIFON
VILLENEUVE- D’ASCQ
63 - PUY-DE-DÔME
56 - MORBIHAN
115 rue des Fusillés
59650 VILLENEUVE-D’ASCQ
AMPLIFON PLOËRMEL
Tél. : 03 20 34 00 84
13 place de l’Union
56800 PLOËRMEL
AMPLIFON
MARCQ-EN- BARŒUL
AMPLIFON NANCY
2 bis rue d’Amervall - 54000 NANCY
Tél. : 02 97 74 21 24
Tél. : 03 21 61 61 31
AMPLIFON
CLERMONT-FERRAND
72-74 avenue de la république
63000 CLERMONT-FERRAND
Tél. : 04 73 74 63 63
AMPLIFON GUER
131 av Foch - 59700 MARCQ-ENBARŒUL
20 rue Saint-Gurval - 56380 GUER
Tél. : 03 20 65 31 84
36 place Jean-Baptiste-Laurent
63200 RIOM
Tél. : 02 97 22 19 47
AMPLIFON LILLE
Tél. : 04 73 33 12 14
57 - MOSELLE
132 bd de la Liberté - 59800 LILLE
AMPLIFON THIERS
Tél. : 03 20 85 83 83
AMPLIFON RIOM
55 rue des Arts - 59800 LILLE
Galerie-des-Molles
Centre-Commercial Leclerc
63300 THIERS
Tél. : 03 87 84 00 40
Tél. : 03 20 74 36 36
Tél. : 04 73 80 18 04
AMPLIFON METZ
AMPLIFON ARMENTIERES
AMPLIFON CHAMALIERES
22 rue Wilson - 57000 METZ
15 bis rue de Lille
59280 ARMENTIERES
16 av de Royat
63400 CHAMALIERES
Tél. : 03 20 44 21 21
Tél. : 04 73 31 35 65
AMPLIFON LA MADELEINE
AMPLIFON ISSOIRE
120 rue du Général-de-Gaulle
59110 LA MADELEINE
5 rue de la Place d’Espagne
63500 ISSOIRE
Tél. : 03 20 06 91 92
Tél. : 04 73 89 01 47
AMPLIFON LA BASSEE
AMPLIFON AMBERT
AMPLIFON
COSNE-COURS-SUR-LOIRE
15 av. Jean-Baptiste Lebas
59480 LA BASSEE
2 rue de la République
63600 AMBERT
2 pl de la Pêcherie
58200 COSNE-COURS-SUR LOIRE
Tél. : 03 20 29 36 85
Tél. : 04 73 82 01 01
AMPLIFON FORBACH
86 A rue Nationale
57600 FORBACH
Tél. : 03 87 18 10 55
58 - NIEVRE
AMPLIFON NEVERS
11 bis rue de Cherleville
58000 NEVERS
Tél. : 03 86 61 23 42
Tél. : 03 86 26 66 06
AMPLIFON VIEUX LILLE
AMPLIFON COURNON
AMPLIFON CLAMECY
av Maréchal-Foch
63800 COURNON D’AUVERGNE
3 rue Jean-Jaurès - 58500 CLAMECY
Tél. : 04 73 84 48 81
Tél. : 03 86 27 93 62
37273_Liste_Centres_Mono_N45.ind8 8
18/09/08 15:00:49
64 - PYRENEES-ATLANTIQUES
AMPLIFON PAU
72 rue Emile Guichenné
64000 PAU
AMPLIFON ILLKIRCH
AMPLIFON VILLEURBANNE
237 route de Lyon - 67400 ILLKIRCH
167 cours Emile Zola
69100 VILLEURBANNE
Tél. : 03 88 66 91 22
68 - HAUT-RHIN
Tél. : 05 59 27 68 28
AMPLIFON COLMAR
AMPLIFON BIARRITZ
5 rue Larralde - 64200 BIARRITZ
3 av de la République
68000 COLMAR
Tél. : 05 59 22 16 64
Tél. : 03 89 24 10 20
AMPLIFON ST-JEAN-DE-LUZ
AMPLIFON MULHOUSE
3 av de Verdun
64500 ST-JEAN-DE-LUZ
10 bd de l’Europe
(face Tour de l’Europe)
68100 MULHOUSE
Tél. : 05 59 51 14 95
66 - PYRENEES-ORIENTALES
AMPLIFON ILLE-SUR-TET
10 avenue Jean-Jaurès
66130 ILLE-SUR-TET
Tél. : 04 68 50 16 07
AMPLIFON PERPIGNAN
Médipol - 8 rue Madeleine Bres
66330 CABESTANY
Tél. : 04 68 59 62 99
AMPLIFON RIVESALTES
Tél. : 03 89 66 05 60
AMPLIFON ALTKIRCH
11 rue Jean-Jacques Henner
68130 ALTKIRCH
Tél. : 03 89 40 20 66
AMPLIFON GUEBWILLER
AMPLIFON ST-FONS
1 rue Gabriel Péri - 69190 ST-FONS
Tél. : 04 78 67 99 68
AMPLIFON L’ARBRESLE
52 rue Charles-de-Gaulle
69210 L’ARBRESLE
Tél. : 04 74 01 33 31
AMPLIFON THIZY
2 rue Perrin Frères - 69240 THIZY
Tél. : 04 74 64 10 17
11 rue Pierre Bouvier
69270 FONTAINES-SUR- SAONE
69 - RHÔNE
16 rue de la Barre - 69002 LYON
Tél. : 04 78 37 44 20
Résidence Tinssimo - ZAC de Tins
66400 CERET
AMPLIFON
LTS CROIX-ROUSSE
Tél. : 04 68 55 56 79
87 bd de la Croix-Rousse
69004 LYON
46 avenue des vosges
67000 STRASBOURG
Tél. : 04 74 05 06 20
Tél. : 03 89 62 12 92
Tél. : 04 68 50 16 07
AMPLIFON STRASBOURG
20 av Charles-de-Gaulle
69170 TARARE
AMPLIFON
FONTAINES-SUR-SAONE
AMPLIFON LYON
67 - BAS-RHIN
AMPLIFON TARARE
81 rue de la République
68500 GUEBWILLER
4 Place Joffre - 66600 RIVESALTES
AMPLIFON CERET
Tél. : 04 78 68 28 37
Tél. : 04 78 27 22 31
AMPLIFON
LYON POINT-DU-JOUR
Tél. : 04 72 42 23 51
AMPLIFON
VILLEFRANCHE-SUR-SAONE
999 rue Nationale
69400 VILLEFRANCHE-SUR-SAONE
Tél. : 04 74 60 36 35
AMPLIFON BRON
154 av Franklin Roosevelt
69500 BRON
Tél. : 04 72 37 84 33
AMPLIFON ST-SYMPHORIEN
CENTRE OPTIQUE
Tél. : 03 88 22 07 57
50 av du point-du-Jour
69005 LYON
AMPLIFON SCHILTIGHEIM
Tél. : 04 37 41 08 35
92 rue Centrale
69590 ST-SYMPHORIEN
20 rue des Pompiers
67300 SCHILTIGHEIM
AMPLIFON KALFOUN LYON
Tél. : 04 78 44 53 04
163 cours Lafayette - 69006 LYON
AMPLIFON OULLINS
Tél. : 03 88 83 91 66
AMPLIFON SAVERNE
4 Grand Rue - 67700 SAVERNE
Tél. : 03 88 71 09 34
37273_Liste_Centres_Mono_N45.ind9 9
Tél. : 04 72 74 42 00
AMPLIFON VAISE
150 Grande Rue - 69600 OULLINS
Tél. : 04 72 39 14 97
16 rue Marietton - 69009 LYON
Tél. : 04 72 20 02 95
18/09/08 15:00:49
AMPLIFON ST-PRIEST
AMPLIFON RASPAIL
35 bd Herriot - 69800 ST-PRIEST
118 bd Raspail - 75006 PARIS
Tél. : 04 78 21 53 26
Tél. : 01 45 48 00 38
71 - SAÔNE-ET-LOIRE
AMPLIFON VINTIMILLE
10 rue du Maréchal-Joffre
76000 LE HAVRE
1 rue de Vintimille - 75009 PARIS
Tél. : 02 35 22 63 80
AMPLIFON CHAUFFAILLES
OPTIQUE-MASSON
Tél. : 01 48 74 59 77
76 - SEINE MARITIME
AMPLIFON LE HAVRE
AMPLIFON HARFLEUR
16 rue Centrale
71170 CHAUFFAILLES
AMPLIFON MAGENTA
95 bd de Magenta - 75010 PARIS
13 place d’Armes
76700 HARFLEUR
Tél. : 03 85 26 03 03
Tél. : 01 49 49 03 23
Tél. : 02 35 49 33 60
AMPLIFON LE CREUSOT
AMPLIFON NATION
77 - SEINE-ET-MARNE
71 rue Maréchal Foch
71200 LE CREUSOT
41 bd de Charonne - 75011 PARIS
Tél. : 03 85 77 49 25
AMPLIFON OBERKAMPF
15 place de la Porte-de-Paris
77000 MELUN
AMPLIFON AUTUN
25 rue Oberkampf - 75011 PARIS
Tél. : 01 64 37 01 58
2 rue de Lattre-de-Tassigny
71400 AUTUN
Tél. : 01 56 98 17 11
Tél. : 03 85 52 02 16
AMPLIFON LOUHANS
11 rue du Jura - 71500 LOUHANS
Tél. : 03 85 76 09 79
74 - HAUTE-SAVOIE
AMPLIFON ANNEMASSE
Tél. : 01 43 56 67 12
AMPLIFON MELUN
AMPLIFON COULOMMIERS
AMPLIFON CENTRE
DE SERVICE TECHNIQUE
9 rue du Marché
77120 COULOMMIERS
15 Rue Berlier
Batiment B - 6ème étage
75013 PARIS
Tél. : 01 64 75 13 17
Tél. : 01 53 79 75 98
AMPLIFON ALESIA
26 av Jean Moulin - 75014 PARIS
AMPLIFON NEMOURS
28 rue de Paris - 77140 NEMOURS
Tél. : 01 64 28 00 66
AMPLIFON PROVINS
Tél. : 01 45 40 83 54
12 rue Victor Garnier
77160 PROVINS
Tél. : 04 50 38 27 09
AMPLIFON BOUCICAUT
Tél. : 01 64 01 45 63
AMPLIFON CLUSES
117 rue de la Convention
75015 PARIS
AMPLIFON TOURNAN
4 rue René Blanc
74100 ANNEMASSE
13 bis rue François Curt
74300 CLUSES
Tél. : 04 50 18 09 23
AMPLIFON SALLANCHES
88 av de la Gare
74700 SALLANCHES
Tél. : 01 40 60 17 33
3 rue des Fossés
77220 TOURNAN-EN-BRIE
AMPLIFON AUTEUIL
Tél. : 01 64 06 48 49
2 rue d’Auteuil - 75016 PARIS
Tél. : 01 55 74 06 15
AMPLIFON VICTOR-HUGO
AMPLIFON FONTAINEBLEAU
Tél. : 04 50 18 44 72
2 rue de Sontay - 75116 PARIS
24 rue de la Paroisse
77300 FONTAINEBLEAU
75 - PARIS
Tél. : 01 45 00 65 92
Tél. : 01 60 70 98 96
AMPLIFON WAGRAM
AMPLIFON PONTAULTCOMBAULT
AMPLIFON OPERA
7 rue de Hanovre - 75002 PARIS
Tél. : 01 47 42 38 88
AMPLIFON BEAUBOURG
15 rue Quincampoix - 75004 PARIS
Tél. : 01 42 74 43 53
AMPLIFON CENSIER
45 rue Censier - 75005 PARIS
Tél. : 01 47 07 73 73
37273_Liste_Centres_Mono_N45.ind10 10
58 av de Wagram - 75017 PARIS
Tél. : 01 47 63 90 59
AMPLIFON GUY MOQUET
70 av de St-Ouen - 75018 PARIS
Tél. : 01 42 63 22 53
AMPLIFON BOLIVAR
25 av Simon Bolivar - 75019 PARIS
Tél. : 01 40 03 91 27
63 av du Gal-de-Gaulle
77340 PONTAULT-COMBAULT
Tél. : 01 64 43 80 80
AMPLIFON PONTAULTCOMBAULT 2
16-18 av Charles Rouxel
77340 PONTAULT-COMBAULT
Tél. : 01 60 34 76 27
18/09/08 15:00:50
AMPLIFON
COMBS-LA-VILLE
OPTIQUE-DES-ACACIAS
2 rue des Acacias
77380 COMBS-LA-VILLE
Tél. : 01 60 60 74 74
78 - YVELINES
83 - VAR
AMPLIFON LA SEYNE
AMPLIFON
TOULON LIBERTE
Les Sablettes Le Cardinal
42 rue E. Manet
83500 LA SEYNE-SUR-MER
185 place de la Liberté
83000 TOULON
Tél. : 04 94 30 55 25
Tél. : 04 94 92 69 35
AMPLIFON FREJUS
53 rue Jean-Jaurès - 83600 FREJUS
AMPLIFON VERSAILLES
AMPLIFON
TOULON MOURILLON
75 rue de la Paroisse
78000 VERSAILLES
Le Mourillon 1 rue Castillon
83000 TOULON
Tél. : 01 30 83 14 98
Tél. : 04 94 36 67 14
AMPLIFON ST-GERMAIN
AMPLIFON TOULON FOCH
25 rue des Coches
78100 ST-GERMAIN-EN-LAYE
153 bd Maréchal Foch
83000 TOULON
Tél. : 01 39 04 03 11
Tél. : 04 94 93 59 64
AMPLIFON POISSY
AMPLIFON SANARY
30 av du Cep - 78300 POISSY
Tél. : 04 90 82 03 83
Tél. : 01 30 65 11 23
4 place Albert Cavet
83110 SANARY-SUR-MER
AMPLIFON SARTROUVILLE
Tél. : 04 94 74 39 91
61 av Jean-Jaurès
78500 SARTROUVILLE
AMPLIFON STE-MAXIME
79 av Charles-de-Gaulle
84100 ORANGE
Tél. : 01 39 57 47 69
32 av Georges Clémenceau
83120 STE-MAXIME
Tél. : 04 94 17 14 61
AMPLIFON ST-RAPHAEL
40 rue Léon Basso
83700 ST-RAPHAEL
Tél. : 04 94 83 09 15
84 - VAUCLUSE
AMPLIFON AVIGNON
26 rue de la République
84000 AVIGNON
AMPLIFON ORANGE
Tél. : 04 90 34 76 76
AMPLIFON
VAISON-LA-ROMAINE
AMPLIFON
MAISONS-LAFFITTE
Tél. : 04 94 49 25 61
1 rue des Plantes
78600 MAISONS-LAFFITTE
Bât Le Liberté - 1 rue de l’Enclos
83210 SOLLIES-PONT
Tél. : 01 34 93 71 09
Tél. : 04 94 13 09 65
AMPLIFON LE PONTET
80 - SOMME
AMPLIFON LE PRADET
AMPLIFON AMIENS
Le Caducée - 390 av de la 1ère DFL
83220 LE PRADET
47 av Charles-de-Gaulle
84130 LE PONTET
5 place de l’Hôtel-de-Ville
80000 AMIENS
Tél. : 04 94 21 66 25
Tél. : 03 22 91 86 60
AMPLIFON COGOLIN
AMPLIFON CAVAILLON
OPTIQUE-BOURNISSAC
81 - TARN
23 av Georges Clémenceau
83310 COGOLIN
76 cours Bournissac
84300 CAVAILLON
AMPLIFON LAVAUR
Tél. : 04 94 54 54 97
Tél. : 04 90 71 17 85
10 place du Vieux Marché
81500 LAVAUR
AMPLIFON TOURRETTES
AMPLIFON SORGUES
Centre Médical
Tassy Quartier Tassy
83440 TOURRETTES
Résidence de l’Etoile
rue Roger Ricca
84700 SORGUES
Tél. : 04 94 76 02 42
Tél. : 04 90 39 26 86
Tél. : 05 63 58 32 33
37273_Liste_Centres_Mono_N45.ind11 11
AMPLIFON SOLLIES-PONT
12 av Victor-Hugo
84110 VAISON-LA-ROMAINE
Tél. : 04 90 36 07 09
Tél. : 04 90 32 94 61
18/09/08 15:00:50
87 - HAUTE-VIENNE
AMPLIFON ANTONY
AMPLIFON DRANCY
AMPLIFON LIMOGES
20-22 av Aristide Briand
92160 ANTONY
86 av Henri Barbusse
93700 DRANCY
19 place Manigne - 87000 LIMOGES
Tél. : 01 42 37 45 22
Tél. : 01 48 31 16 70
AMPLIFON NEUILLY
94 - VAL-DE-MARNE
9 rue Paul Chatrousse
92200 NEUILLY
AMPLIFON NOGENT
Tél. : 05 55 32 45 50
AMPLIFON ST-JUNIEN
4 rue Gabriel Péri
87200 ST-JUNIEN
Tél. : 01 47 47 02 07
66 Grande Rue Charles-deGaulle
94130 NOGENT-SUR-MARNE
AMPLIFON LEVALLOIS
Tél. : 01 48 76 89 22
19 place du Palais - 87300 BELLAC
59 rue Aristide Briand
92300 LEVALLOIS-PERRET
AMPLIFON SAINT-MAUR
Tél. : 05 55 60 24 44
Tél. : 01 41 34 04 55
AMPLIFON ST-LEONARD
139 bd de Champigny
94210 LA VARENNE-ST-HILAIRE
AMPLIFON
RUEIL-MALMAISON
Tél. : 01 42 83 11 11
Tél. : 05 55 02 65 21
AMPLIFON BELLAC
24 rue Jean-Jaurès
87400 ST-LEONARD
Tél. : 05 55 56 35 87
29 rue Maurepas
92500 RUEIL-MALMAISON
89 - YONNE
Tél. : 01 47 14 14 75
AMPLIFON AVALLON
OPTIC 2000 - CENTRE VILLE
AMPLIFON COLOMBES
20 rue St-Denis - 92700 COLOMBES
AMPLIFON LA VARENNE
76 bis av du Bac
94210 LA VARENNE-ST-HILAIRE
Tél. : 01 55 12 13 33
AMPLIFON CHARENTON
3 Grande rue - 89200 AVALLON
Tél. : 01 56 83 71 64
109 rue de Paris
94220 CHARENTON
Tél. : 03 86 34 36 09
93 - SEINE-ST-DENIS
Tél. : 01 43 96 96 87
90 - BELFORT (TERRITOIRE)
AMPLIFON BELFORT
AMPLIFON
NOISY-LE-GRAND
3 av du Maréchal Foch
90000 BELFORT
1 allée des Norottes
93160 NOISY-LE-GRAND
AMPLIFON
KREMLIN-BICETRE
VISUAL-RINAVISION
Tél. : 03 84 28 24 24
Tél. : 01 49 31 02 40
92 - HAUTS-DE-SEINE
AMPLIFON VILLEMOMBLE
46 av de Fontainebleau
94270 LE-KREMLIN-BICETRE
Tél. : 01 43 90 11 07
AMPLIFON NANTERRE
61 av de Raincy
93250 VILLEMOMBLE
AMPLIFON CHENNEVIERES
OPTICIEN KRYS
6 place Foch - 92000 NANTERRE
Tél. : 01 48 55 16 27
C. Cial-du-Carrefour de Pince-Vent
94430 CHENNEVIERES-SUR- MARNE
Tél. : 01 47 24 16 93
AMPLIFON BOULOGNE
OPTIQUE AMBROISE PARE
13/15 bd Jean-Jaurès
92100 BOULOGNE
Tél. : 01 46 03 31 95
AMPLIFON MONTROUGE
96 av de la République
92120 MONTROUGE
Tél. : 01 55 48 01 65
AMPLIFON
ISSY-LES-MOULINEAUX
4 avenue Jean-Jaurès
92130 ISSY-LES-MOULINEAUX
Tél. : 01 41 46 18 95
37273_Liste_Centres_Mono_N45.ind12 12
AMPLIFON LES LILAS
126 rue de Paris
93260 LES LILAS
Tél. : 01 43 60 23 40
AMPLIFON TREMBLAY
6 bis av Pasteur
93290 TREMBLAY-EN-FRANCE
Tél. : 01 48 60 67 28
Tél. : 01 45 76 72 37
95 - VAL-D’OISE
AMPLIFON PONTOISE
30 rue de Thiers - 95300 PONTOISE
Tél. : 01 30 73 64 23
AMPLIFON EAUBONNE
AMPLIFON PANTIN
7 rue Christino Garcia
95600 EAUBONNE
91 av Edouard Vaillant
93500 PANTIN
Tél. : 01 39 59 06 63
Tél. : 01 48 45 93 40
AMPLIFON ENGHIEN
4 rue Robert Schuman
95880 ENGHIEN-LES-BAINS
Tél. : 01 34 12 01 54
18/09/08 15:00:51
numéro
Naissance, vie et mort
de l’oreille
EDITION 2008
37273_Couv_Mono_N45.Nais_vie_mor1 1
Naissance, vie et mort de l’oreille
Les monographies amplifon
45
Naissance, vie
et mort de l’oreille
André Chays
Paul Avan, Eric Bailly-Masson, Marie-Madeleine Eliot,
Lionel Collet, Gérald Kalfoun, Eric Kariger,
Sandrine Marlin, Xavier Perrot, Pascal Schmidt, Hung Thaï Van
E D I T I O N
2 0 0 8
18/09/08 10:36:17
Téléchargement