Université de Rennes I Faculté De Médecine Ecole d’Audioprothèse de Fougères Impact du système CROS sur les capacités de localisation sonore de personnes sourdes unilatérales dans le plan horizontal Mémoire soutenu en vue de l’obtention du diplôme d’état d’audioprothèse par Célia CARRIOU Sous la Direction de Brice JANTZEM Vincent MAZO Mathieu PAQUIER 2015 I Remerciement Je tiens tout d’abord à remercier mon maître de stage Monsieur Brice JANTZEM pour m’avoir accepté au sein de ses laboratoires durant mon stage de troisième année d’audioprothèse. Je le remercie également pour ses conseils judicieux et pour la confiance qu’il m’a accordée lors des rendez-vous en cabine. Je le remercie enfin pour m’avoir donné les moyens matériels pour la réalisation des tests. Je remercie Monsieur Mathieu PAQUIER et Monsieur Vincent MAZO pour tout leur travail notamment l’installation de la salle de test et la création du prototype de système CROS, un grand merci pour tout le temps qu’ils ont bien voulu me consacrer. Je souhaite particulièrement remercier Monsieur Vincent MAZO pour ses explications, ses conseils indispensables dans la rédaction de ce mémoire et pour sa disponibilité. Merci également Monsieur Mathieu PAQUIER pour la création de l’interface Matlab et ses précieux conseils. Je remercie les entreprises PHONAK et WIDEX pour avoir répondu à mes diverses questions. Je souhaite aussi remercier Madame Marie-Hélène ENIZAN, assistante de Monsieur Brice JANTZEM, pour sa disponibilité et son aide précieuse tout au long du stage. Enfin un grand merci à tous les patients des cabinets ENTENDRE et AMPLIFON à Brest, Châteaulin et Quimper qui ont accepté de se déplacer à l’hôpital Morvan à Brest pour une séance de test. II Table des matieres Remerciements ii Tables des figures v Liste des abréviations vi Introduction 1 Rappels 2 I. Localisation sonore 1) Stratégie de localisation des normaux-entendants 3 a. Historique 3 b. Influence de la tête sur les ondes sonores 4 c. Indices binauraux 5 i. Différence interaurale de temps 5 ii. Différence interaurale d’intensité 5 d. Indices monauraux 7 e. Interchangeabilité des indices de localisation 8 f. 9 Intégration cérébrale 2) Stratégie de localisation des sourds unilatéraux II. 2 10 a. Indices spectraux 10 b. Impact d’une perte d’audition sur les hautes fréquences 11 c. Plasticité cérébrale 11 Système CROS/BiCROS 12 1) WIDEX 12 2) PHONAK 15 3) Choix de la gamme d’appareil auditif 16 4) Tests des différents modes microphoniques 17 5) Etat des lieux des systèmes CROS/BiCROS 29 a. Efficacité du système 29 b. Système CROS/BiCROS en France 30 III Etude I. II. III. 31 Matériels et méthode 31 1) Population de l’étude 31 2) Matériels 33 3) Procédure de passation 35 Résultats 38 1) Localisation sonore sans appareil auditif 38 2) Localisation sonore avec les systèmes CROS/ BiCROS et le prototype 43 Discussion 49 1) Localisation sonore sans appareil auditif 49 2) Localisation sonore avec les systèmes CROS/ BiCROS et le prototype 50 3) Limites de l’étude 52 Conclusion 53 Annexe 54 Références bibliographiques 57 IV Table des illustrations Table des figures Figure 1: Repère tridimensionnel utilisé par les études de localisation sonore 2 Figure 2 : Onde sonore arrivant à l'oreille gauche et droite représentant les indices IDT et ILD disponibles pour un son aigu modulé provenant de la gauche. 4 Figure 3 : HRTF pour l’oreille droite quand le haut-parleur est situé à 45° à droite (« near ear ») contre 45° à gauche (« far ear »). Modification du niveau d’intensité de l’extérieur jusqu’au tympan. 6 Figure 4 : Contribution du torse et des différents composants de l’oreille calculée par Shaw (1974). 7 Figure 5: un cône de confusion 8 Figure 6 : Représentation schématique des 10 noyaux principaux présents le long des voies auditives (Glendenning et Hutson, 1998). 9 Figure 7 : systèmes CROS WIDEX® 12 Figure 8 : polarités modifiées par l’algorithme des appareils WIDEX® selon la fréquence 13 Figure 9 : Mesure in vivo au coupleur 2cc avec un son ISTS à un niveau d’intensité de 50dB, la mesure a été répété trois fois : avec la balance du système CROS réglé sur 0, +15 et -15. 14 Figure 10 : systèmes CROS PHONAK® 15 Figure 11 : Mesure in vivo au coupleur 2cc avec un son ISTS à un niveau d’intensité de 65dB, la mesure a été répété trois fois : avec la balance du système CROS réglé sur 0, +5 et -5. 16 Figure 12 : schéma du dispositif utilisé pour exécuter les tests. 17 Figure 13 : siège rotatif adapté pour la passation des tests 31 Figure 14 : disposition des huit haut-parleurs lors des tests 34 Figure 15 : caméra permettant au testeur de visualiser la réponse du sujet depuis le bureau 34 Figure 16 : Bureau du testeur 34 Figure 17 : Prothèse sur table 35 Figure 18 : résultats IT 39 Figure 19 : résultats SD 39 Figure 20 : résultats TP 40 V Figure 21 : résultats MC 40 Figure 22 : résultats ADB 40 Figure 23 : résultats MJM 41 Figure 24 : résultats SB 41 Figure 25 : résultats KN 41 Figure 26 : résultats LM 42 Figure 27 : résultats MD 42 Table des graphiques Graphique 1 : Comparaison des différents modes microphoniques de l’émetteur BiCROS WIDEX lorsque l'appareil auditif est en mode microphonique directionnel 18 Graphique 2 : Comparaison des différents modes microphoniques de l’émetteur BiCROS WIDEX lorsque l'appareil auditif est en mode microphonique omnidirectionnel 19 Graphique 3 : Gain BiCROS WIDEX 20 Graphique 4 : Gain CROS WIDEX 21 Graphique 5 : Comparaison des différents modes microphoniques de l'appareil auditif lorsque l’émetteur CROS PHONAK est éteint 23 Graphique 6 : Comparaison des différents modes microphoniques de l’émetteur BiCROS PHONAK lorsque l'appareil auditif est en mode microphonique omnidirectionnel 24 Graphique 7 : Comparaison des différents modes microphoniques de l’émetteur CROS PHONAK lorsque l'appareil auditif est en mode microphonique directionnel 25 Graphique 8 : Comparaison des différents modes microphoniques de l'appareil auditif quand le système CROS PHONAK est en mode microphonique omnidirectionnel 26 Graphique 9 : Comparaison des différents modes microphoniques de l'appareil auditif quand l’émetteur CROS PHONAK est en mode microphonique "Real Ear Sound" 27 Graphique 10 : Résultats des tests de localisation des sujets SSD et des NE 38 Graphique 11 : résultats des sujets SSD oreille nue, avec les systèmes CROS/BiCROS, avec le prototype et les résultats des systèmes CROS/BiCROS et du prototype confondus 43 Graphique 12 : Résultats LV oreille droite sourde 45 Graphique 13 : Résultats MC oreille gauche sourde 46 Graphique 14 : Résultats TP oreille gauche sourde 46 VI Graphique 15 : Résultats LM oreille droite sourde 46 Graphique 16 : Résultats KN oreille gauche sourde 46 Graphique 17 : Résultats MD oreille droite sourde 47 Graphique 18 : Résultats SB oreille gauche sourde 47 Graphique 19 : Résultats SP oreille droite sourde 47 Graphique 20 : Résultats MJM oreille gauche sourde 48 Graphique 21 : Résultats SH oreille gauche sourde 48 Table des tableaux Tableau 1 : tableau récapitulatif des résultats obtenus avec les appareils WIDEX® 22 Tableau 2 : tableau récapitulatif des résultats obtenus avec les appareils PHONAK® 28 Tableau 3 : représentation des trois différentes populations testées. 32 Tableau 4 : représentation des caractéristiques de chaque sujet testé. 33 Tableau 5 : erreur moyenne de localisation mesurée en angle 45 Tableau 6 : erreur moyenne, pour tous les individus testés, de l’erreur de localisation mesuré en angle 45 VII Liste des abreviations NE : Normo-entendant SSD : Single Side Deafness : sourd unilatéral ME : Malentendant CROS : Contralateral Routing Of Signal BiCROS : Bilateral Contralateral Routing Of Signal HRTF : Head Related Transfer Function : fonction de transfert liée à la tête DTF : Directional Tranfer Fonction : fonction de transfert directionnelle ITD : Inter-aural Time Difference : différence interaurale de temps ILD : Inter-aural Level Difference : différence interaurale d’intensité VIII Introduction Dans le monde animal, la capacité à localiser les sons a une valeur de survie évidente, elle permet d’éviter le danger et / ou de trouver de la nourriture. Aujourd’hui, la vie en environnement urbain continue de s’appuyer sur la localisation. En effet éviter un danger, évaluer les distances, améliorer la compréhension dans le bruit et avoir une bonne orientation spatiale sont autant d’aptitudes dépendantes de la localisation. La localisation horizontale, repose principalement sur le traitement des différences interaurales de temps et d’intensité. Les personnes sourdes unilatérales (SSD) n’ont pas accès à ces indices binauraux, elles s’adaptent à cette perte d’information en intégrant des indices monauraux1 pour localiser les sons. Ces malentendants (ME) compensent partiellement leur handicap mais certaines situations restent problématiques notamment la compréhension dans le bruit, la compréhension d’une personne située du côté sourd et très souvent la localisation (selon l’ancienneté de la perte). Une des solutions pour améliorer la compréhension de la parole est le système CROS (contralateral routing of sound). Un appareil auditif, à cause de sa position sur l’oreille, de l’embout, de l’amplification apportée et des traitements de signaux, modifie les indices spectraux. Une question se pose alors : un sourd unilatéral peut-il localiser les sons avec un système CROS ? Le but de ce mémoire est de déterminer l’impact du système CROS sur la localisation des sons. Les transformations subies par le signal lors de l’acheminement du côté controlatéral ont été étudiés. Dans cet esprit un prototype de système CROS a été conçu, il capte le son et l’achemine du côté controlatéral sans aucun traitement de signal. Les sujets testés devaient déterminer l’azimut de sons pouvant provenir des 360° (en réalité les sons provenaient de 8 haut-parleurs masqués) dans trois conditions différentes : sans, avec appareil et avec un prototype sans traitement du signal. Les résultats du système CROS ne sont pas toujours rapidement significatifs, une conséquence directe est que seulement un patient sur deux, environ, ayant essayé ce système pendant 2 à 3 semaines décide de le conserver. De plus un problème de localisation n’est que rarement identifié par le patient. Tous appareillages confondus, les problèmes de compréhension dans le bruit sont évoqués beaucoup plus fréquemment. Enfin selon l’ancienneté de la perte, la cause, la psychologie, le mode de vie… les patients SSD ont des impressions totalement différentes. Pour ces raisons il est difficile de prédire un résultat avec un système CROS ou BiCROS. 1 Rappels Tout d’abord, l’étude utilise un repère sphérique, dont l’origine est située au milieu du segment ayant pour extrémités les méats des conduits auditifs externes (CAE) droit et gauche. Le plan horizontal est alors défini comme passant par l’axe interaural et par le bas des orbites oculaires. Le plan frontal coupe perpendiculairement le plan horizontal au niveau de l’axe interaural. Le plan médian sagittal est perpendiculaire aux deux plans précédemment définis et passe par le milieu du segment interaural. Figure 1: Repère tridimensionnel utilisé par les études de localisation sonore 2 I. Localisation sonore La localisation spatiale, en plus des fins utilitaires les plus évidentes pour les ME, peut jouer un rôle essentiel pour la compréhension des conversations de groupe. En effet pour les personnes ayant une perte auditive importante pour lesquelles la lecture labiale est une aide indispensable, lorsque la conversation passe d'une personne à l'autre, les auditeurs ont besoin de localiser le nouvel orateur instantanément sinon ils manqueront la première partie de chaque segment de la conversation, ce qui peut réellement réduire la compréhension. Une étude suggère un rôle plus important des mauvaises facultés de localisation dans les difficultés de compréhension dans le bruit3. L’analyse des scènes auditives permet, dans le brouhaha d’une salle de focaliser l’attention sur une conversation, et en quelque sorte d’oublier le bruit ambiant. Ainsi la compréhension dans le bruit est améliorée par l’analyse des scènes auditives. Cette capacité est, en partie, basée sur la localisation sonore. Ainsi il peut être supposé qu’une personne avec de mauvaises capacités de localisation peut 2 avoir plus de difficulté à comprendre dans le bruit. Toutefois, aucun lien fort entre les capacités à localiser les sons et à entendre la parole dans le bruit n'a été démontré, de plus une étude a montré seulement de faibles corrélations entre la localisation et la possibilité de séparer la parole du bruit4. Bien que tous les effets de la localisation ne soient pas entièrement démontrés, il est évident que dans de nombreuses situations la localisation est essentielle. Afin d'apprécier les résultats expérimentaux discutés plus tard, il est nécessaire de comprendre les mécanismes de localisation des sons. Par conséquent, ces mécanismes seront examinés, puis les stratégies adoptées par les sujets SSD pour localiser les sons seront détaillées. 1) Stratégie de localisation des normaux-entendants a. Historique La capacité à localiser les sources sonores fut d’abord été étudiée par les philosophes, physiciens et physiologistes. Plus tard les psychophysiciens et les neuroscientifiques cognitifs s’y sont également intéressés. Les premières études utilisaient des sources sonores naturelles (sifflets, cloches, diapasons, …). Le premier paramètre acoustique à avoir été proposé à la base des capacités de localisation sonore est l’ITD, proposé par Venturi (1796). Il tournait autour d'un auditeur tout en jouant une note de flûte et il avait démontré que les personnes testées pouvaient pointer l’endroit d’où provenait le son de la flûte. Il avait attribué cette capacité aux différentes intensités qui parvenaient à chacune des deux oreilles de l'auditeur5. Toutefois, bien que publié en trois langues, son travail ne généra pas beaucoup d'intérêt parmi ses contemporains. Très peu de recherches ont été faites dans le domaine de la localisation auditive jusqu'au dernier quart du 19ème siècle, quand plusieurs auteurs ont expérimentalement confirmé l'importance des différences d'intensité entre les oreilles pour localiser une source sonore6,7,8. Thompson (1878) semble avoir été le premier à suggérer que les sources sonores de basses fréquences peuvent être localisées sur la base de différences de phase entre les oreilles9. Toutefois, sa proposition fut rejetée par ses contemporains. Il a fallu attendre 1907, lorsque Lord Rayleigh publia ses fameux travaux sur la « perception de la direction des sons », aujourd’hui connues sous le terme de « théorie duplex » de la localisation de la source sonore. Lord Rayleigh conclut à l’existence de deux paramètres distincts utilisés pour localiser une source sonore dans le plan horizontal : le délai interaural pour les sons de basse fréquence et la différence d’intensité pour ceux de haute fréquence. Il a précisé que les sons de basses fréquences ne subissent aucune baisse d’intensité en gagnant l’oreille controlatérale10. Avec le développement des haut-parleurs les études contrôlées de localisation des sons sont devenues possible. Ainsi près de 30 ans plus tard, Stevens et Newman, s’intéressaient aux erreurs systématiques que font les auditeurs dans la localisation d’une source sonore dans le plan horizontal. Ils ont établi l’existence d’une zone fréquentielle intermédiaire (2 000 Hz à 4 000Hz), qui n’est prise totalement en charge ni par l’un ni par l’autre système de localisation11. Plus tard il a été démontré que cette zone fréquentielle s’étend de 1 500Hz à 3 000Hz12. 3 En 1946, Wiener et Ross ont mis en évidence la fonction d’amplification du conduit auditif externe13, travail qui est à l’origine de la distinction entre, d’une part, la fonction de transfert liée à la tête (HRTF), qui représente la valeur absolue du transfert liée aux propriétés acoustiques de l’oreille externe et d’autre part, sa fonction de transfert directionnelle (DTF) qui correspond à la HRTF après soustraction des composantes non directionnelles du transfert. Aujourd’hui trois paramètres sont reconnus permettre la localisation d’une source sonore. Le premier est temporel : c’est le délai qui sépare l’arrivée d’une onde sonore au niveau de l’oreille ipsilatérale et de l’oreille controlatérale. Ce paramètre est dit différence interaurale de temps (ITD). Le second est un paramètre d’intensité : il s’agit de la différence d’intensité sonore entre les deux oreilles, nommé différence interaurale d’intensité (ILD). Le troisième paramètre est le contenu spectral du message sonore, contrairement aux deux premiers, ce paramètre n’est pas fondé sur l’écoute binaurale mais monaurale. Tous ces indices concernent la localisation d’une source statique. La localisation à l’aide d’indices variables, créés par le déplacement d’une source, ou par les mouvements de la tête de l’auditeur ne sera pas étudiée dans ce mémoire. Quel que soit le paramètre sonore mis en jeu, la clef de la localisation des sources sonores réside dans l’interaction des ondes sonores avec les diverses structures anatomiques qu’elles rencontrent avant d’atteindre le tympan : le torse, la tête et le pavillon. b. Influence de la tête sur les ondes sonores Lorsqu’une onde rencontre un obstacle, son énergie peut être en partie associée à l’onde réfléchie, ou absorbée par le matériau de l’obstacle ou transférée de l’autre côté de l’obstacle. La longueur d’onde des sons, l’angle d’incidence des ondes sonores sur les obstacles et la nature des matériaux qui les composent conditionnent la propagation des ondes. Les ondes sonores dont la longueur d’onde est supérieure au diamètre de la tête (les basses fréquences) sont diffractées. Il s’en suit un délai de temps d’arrivée au niveau des deux oreilles (ITD). La tête a un tout autre effet sur la propagation des ondes sonores de hautes fréquences. Elle crée une ombre portée, la tête atténue d’autant plus l’intensité des sons que leur fréquence est élevée. Ceci se traduit par une différence d’intensité entre les sons qui parviennent aux oreilles ipsi- et controlatérales à la source sonore (ILD). Figure 2. Onde sonore arrivant à l'oreille gauche et droite représentant les indices ITD et ILD disponibles pour un son aigu modulé provenant de la gauche14. 4 Enfin, les sons subissent également des modifications de leur spectre par réflexion et diffraction de l’énergie sonore, en particulier sur les circonvolutions du pavillon. Des encoches et des pics dans les spectres sonores apparaissent sous forme de changements d’intensité de certaines fréquences. Il s’agit de variations spectrales monaurales. On parle de la HRTF et de sa composante la DTF c. Indices binauraux i. Différence interaurale de temps Cette différence est due aux différentes distances que le son doit parcourir pour atteindre chacune des oreilles. L’ITD dépend de la vitesse du son, de la géométrie de la tête et des oreilles, et varie selon l’emplacement de la source par rapport à l’auditeur. L’ITD est nul à l’azimut 0° et augmente graduellement avec l’angle azimutal jusqu’à un maximum pour l’azimut 90°. Plus le diamètre de la tête est grand, plus l’ITD maximal est grand, plus les fréquences diffractées par la tête sont graves. Chez l’homme, l’ITD maximum peut atteindre 400 microsecondes. Pour les hautes fréquences les fibres nerveuses n’ont pas le temps de se synchroniser avec le signal sonore car la dépolarisation n’est pas instantanée pour ces fréquences. Or à un instant T, il faut que les deux oreilles perçoivent la même période du signal, sinon le système n’est plus capable de calculer le délai interaural, il faut donc que la fréquence ne soit pas trop haute sinon le cerveau ne parvient plus à situer dans quel cycle (2∏) se situe le son. Une ambiguïté apparaît donc pour des signaux de fréquence supérieure à 1500 Hz environ. Le seuil de différenciation angulaire (précision d’environ 1°) est maximal à l’azimut 0 et décroît graduellement lorsqu’on s’en éloigne. De plus pour des sons purs couvrant le plan médian il atteint un minimum pour les fréquences de 500 à 750 Hz et augmente à un maximum de 3 à 4 degrés environ à 1,5 kHz. ii. Différence interaurale d'intensité L'ampleur de l’ILD varie également avec la fréquence du son. En effet les sons de basses fréquences traversent la tête donc l’ILD est négligeable (elle varie de moins de 2 dB à 200 Hz), par contre pour des fréquences supérieures à 3 kHz l’ampleur de l'effet augmente. 5 Figure 3. HRTF pour l’oreille droite quand le haut-parleur est situé à 45° à droite (« near ear ») contre 45° à gauche (« far ear »). Modification du niveau d’intensité de l’extérieur jusqu’au tympan15. A cet effet d’ombre de la tête s’ajoute un effet de filtrage de l'oreille externe. L’addition de ces deux phénomènes peut entraîner des ILD de 40 dB. L'ampleur de ces effets et les fréquences auxquelles ils se produisent dépendent de la morphologie de la tête et des oreilles et peuvent donc présenter des différences marquées entre chaque individu. 6 d. Indices monauraux de localisation Figure 4 : Contribution du torse et des différents composants de l’oreille calculée par Shaw (1974). La source sonore est située à 45° du plan médian. Dans cette configuration la conque et le conduit auditif externe apportent le plus de gain 16. Les données tirées des interactions des ondes sonores avec la tête, le torse et surtout le pavillon fournissent des signaux spectraux uniques (décrits par les HRTF), captés par chaque oreille. La propagation dans le pavillon et le conduit auditif externe modifie le spectre fréquentiel du son incident par diminution ou augmentation de l’intensité de certaines composantes fréquentielles. Ces variations de la forme du spectre permettent de localiser dans le plan vertical (élévation) et de faire les discriminations avant-arrière. Lorsqu’un bruit nous parvient il subit des modifications du spectre fréquentiel par réflexion et diffraction de l’énergie sonore, en particulier sur les circonvolutions du pavillon de l’oreille externe. Des encoches et des pics dans les spectres sonores apparaissent sous forme de changements d’intensité de certaines fréquences, supérieures à 6KHz. Lors de l’élévation de la position de la source dans le plan vertical les encoches se déplacent vers des fréquences plus élevées. L’acuité de la localisation de la source sonore dans le plan vertical repose sur les variations qui affectent ces encoches fréquentielles. La forme des pavillons de l’oreille est très différente d’une personne à l’autre. Par conséquent, chacun possède un code de transfert du spectre sonore qui lui est propre (HRTF). De surcroît, ce code peut être différent à droite comme à gauche et changer au cours de notre vie car les oreilles ne cessent d’évoluer. Chaque personne doit apprendre à décoder ses informations spectrales et s'adapter à l’évolution des indices17. Lors du passage des ondes sonores à travers le conduit auditif externe certaines fréquences voies leur niveau d’intensité augmenter. Ce phénomène est dû à la résonnance du conduit auditif et s’applique aux ondes sonores dont la longueur d’onde est égale à quatre fois la longueur du conduit auditif externe (environ 2,5 cm). La résonance se situe à 2,9 kHz et s’étend de 500Hz à 5 kHz et donc affecte 7 les fréquences de la parole. Le gain d’intensité obtenu peut excéder 20 dB15. Ces variations induites par le conduit auditif sont quasiment indépendantes de la position de la source sonore. Le seuil de différenciation angulaire dans le plan vertical est significativement plus élevé que dans le plan horizontal, puisqu’il a été mesuré entre 2° et 20° suivant le spectre et l’incidence de la source. Pour des sons de parole il est de 10° pour des sons provenant de l’avant, un peu plus pour des sons provenant de l’arrière. e. Interchangeabilité des indices de localisation Les indices de localisation horizontale et verticale sont en grande partie différents, mais ils sont interchangeables dans certain cas18. Ainsi, les indices spectraux ont un rôle dans la localisation horizontale et les indices de différences interaurales ont un certain rôle dans la localisation verticale. Par exemple un bruit sur le côté droit de la tête atteindra l'oreille droite un peu plus tôt qu'il atteindra l'oreille gauche (ITD). Il sera également un peu plus fort dans l'oreille droite (ILD) et aura un spectre légèrement différent (indices spectraux) parce que l'ombre de la tête va atténuer sélectivement les fréquences plus élevées à l'oreille gauche. Les points présentant des indices binauraux identiques décrivent dans l’espace un cône dont le sommet est situé au milieu du segment interaural et dont la hauteur appartient à l’axe interaural. Figure 5: un cône de confusion16 Les confusions les plus fréquentes sont les inversions avant/arrière, les sources sonores situées à l’avant et à l’arrière ont des indices binauraux identiques, alors que les sources ne sont pas confondues (en réalité les ILD ne sont pas rigoureusement les mêmes car la tête n’est pas sphérique, 8 elle n’est pas réellement symétrique). Pour atténuer ces confusions, il est nécessaire pour l’auditeur de disposer d’indices spectraux monauraux. Lorsque les sons ne sont pas dans le plan médian, l’ITD fournit des indices supplémentaires pour l'élévation. En effet la forme de la tête est plus ovale que sphérique ainsi l’ITD n’est pas constante pour un azimut donné, mais varie légèrement avec l’élévation. Ainsi, pour la localisation, comme pour d'autres aspects du fonctionnement auditif, notamment la reconnaissance de la parole, il existe une certaine redondance dans l'information auditive utilisée. f. Intégration cérébrale Chez les mammifères, le premier relais par lequel passent les informations de localisation d’azimut provenant des deux oreilles est le complexe olivaire supérieur (situé dans le tronc cérébral). Il comporte deux noyaux principaux, l’olive supérieure médiane et l’olive supérieure latérale. Chacun de ces noyaux à une fonction différente ; les neurones de l’olive supérieure médiane sont sensibles à l’ITD et ceux de l’olive supérieure latérale à l’ILD19. Figure 6 : Représentation schématique des 10 noyaux principaux présents le long des voies auditives (Glendenning et Hutson, 1998)20. 9 Le circuit neuronal qui traite les variations de forme spectrale et ceux qui traitent les indices binauraux sont totalement indépendants. Contrairement aux indices binauraux, qui sont traités par le noyau cochléaire antéro-ventral, les variations de formes spectrale sont traitées par le noyau cochléaire dorsal19. Pourtant, l'idée de voies indépendantes pour le traitement de l’azimut et de l’élévation d'un son est peut-être trop simple. Plusieurs étapes sur les neurones centraux, tels que le colliculus inférieur du mésencéphale et au-delà, montrent que les sorties des différentes voies de traitement convergent21 et sont donc susceptibles d'interagir. En effet l’étude de Van Wanrooij et Van Opstal qui a analysé le mode de localisation des personnes SSD, démontre que seuls les auditeurs qui ont utilisé les indices spectraux monauraux de signaux de l'oreille intacte pour localiser en azimut pouvaient également localiser en élévation1. Dans ces conditions, les composants d'azimut et d'élévation ne sont pas traités de façon totalement indépendante. 2) Stratégie de localisation des personnes SSD a. Indices spectraux Les personnes SSD n'ont pas accès aux indices binauraux qui sont nécessaires pour coder la localisation des sons dans le plan horizontal. Plusieurs études ont montré que ces personnes comptent sur des indices monauraux pour localiser les sons. Dès 1901, JR Angell et W Fite ont avancé la théorie des indices spectraux pour expliquer les capacités de localisation des sujets SSD. La localisation était plus rapide et plus précise pour des sons complexes22,23. Cette observation suggère que la localisation est basée sur l’amortissement et le renforcement de l’onde sonore par le pavillon. Pour cela la capacité à distinguer les caractéristiques spectrales induites par le pavillon au spectre sonore est indispensable. Toutefois l’effet d’ombre acoustique de la tête (c'est à dire, le niveau sonore absolu au niveau de l'oreille saine) pourrait également servir d’indice d’azimut bien que cet indice soit ambigu quand les niveaux sonores absolus sont inconnus. Une étude a évalué la contribution des indices spectraux pour la localisation des sons en 2D. Les tests ont démontré que tous les auditeurs SSD utilisent l'ombre de la tête alors que seulement une partie (sept patients sur neuf dans cette étude) s’appuie également sur les indices du pavillon pour localiser les sons en azimut. Il a été montré que de faibles niveaux d’intensités proximales sont localisés sur le côté sourd, alors que les niveaux élevés sont localisés du côté de l’oreille saine. Cette étude conclue que les indices spectraux monauraux ne sont pas suffisants pour une localisation sonore 2D dans des conditions acoustiques peu familières1. Dans un environnement acoustique simple les personnes SSD peuvent, assez facilement, s’appuyer sur l’intensité des sons pour les localiser et ceci pour une large variété de sons. En effet ils apprennent les intensités « normale » des sons courants et en déduisent selon l’intensité si le son provient du côté sourd ou du côté de la meilleure oreille. 10 Ainsi, les auditeurs SSD peuvent adopter une stratégie pragmatique en intégrant un indice monaural d’intensité relativement simple pour localiser les sons tout en limitant les indices spectraux. Bien qu’ambigu, l’effet d’ombre de la tête permet de faire face à des situations acoustiques familières. b. impact d’une perte d’audition sur les hautes fréquences Il a été rapporté qu’avec l’âge (63-80 ans), et donc une perte auditive dans les hautes fréquences (audessus de 5 kHz), les personnes perdent l'accès à des informations de forme spectrale pour la localisation en élévation de stimuli large bande24. Martijn JH et Agterberg ont étudié les effets d’une perte auditive sur les hautes fréquences pour les sujets SSD, dans ce cas la perte sur les hautes fréquences a également un impact sur la localisation dans le plan azimutal. L’étude a montré que les patients avec des seuils supérieurs à 40 dB HL à 8KHz avaient de moins bons scores de localisation que des sujets sans pertes d’audition sur la bonne oreille25. c. Plasticité cérébrale Chez les NE une stimulation du côté droit entraine une réponse corticale gauche et inversement. Une étude utilisant l'imagerie par résonance magnétique fonctionnelle (IRMf) pour détecter l'activité du cerveau a affirmé que la perte auditive unilatérale conduit à un réarrangement des connexions binaurales. Chez les sujets SSD une stimulation du côté affecté ne montre pas ou seulement une faible réponse et une stimulation du côté sain entraîne une réponse corticale bilatérale26. Les potentiels évoqués auditifs obtenus à partir d'une perte unilatérale d'apparition tardive suggère un processus cinétique lent à induire la bilatéralisation chez les sujets SSD, pouvant se poursuivre pendant au moins 2 ans après la perte d’audition27. Néanmoins la maturation des voies auditives du tronc cérébral a lieu dans les 2 à 4 premières années de la vie28. Une perte auditive unilatérale néonatale conduit à un réarrangement de connexions binaurales dans le tronc cérébral auditif, à des changements dans la physiologie des neurones du colliculus inférieur et à une compensation des modifications dans la carte de l'espace auditif dans le colliculus supérieur. La même perte d'audition à l'âge adulte produit des changements moins marqué29. 11 II. Système CROS L’une des solutions pour permettre aux patients SSD d’entendre les sons du côté sourd est le système CROS. Un microphone est placé sur l’oreille non appareillable afin de capter les sons qui proviennent de ce côté. Le son est acheminé par des ondes radio à l’appareil auditif placé du côté de la meilleure oreille. Ce système permet donc d’atténuer l’effet d’ombre de la tête. Il est également possible de transmettre le signal par un câble qui relie le CROS et l’appareil auditif (CROS filaire), ce système est plus ancien, il permet moins de précision de réglages et est moins discret mais il est moins onéreux et peut s’adapter sur toutes les marques d’appareils contrairement aux systèmes sans fil qui sont disponibles uniquement chez Widex® et Phonak®. Si la meilleure oreille n’a aucune perte d’audition un système CROS est adapté, aucune correction n’est apportée à la bonne oreille. S’il y a une perte d’audition sur la meilleure oreille un système BiCROS (bilateral contralateral routing of sound) est adapté, dans le but d’apporter une amplification sur cette oreille. 1) WIDEX® Chez WIDEX il existe deux types de CROS : l’un a le design du FASHION et l’autre celui du FUSION, tous les deux sont alimentés par des piles 312, ils sont compatible avec toute la gamme d’appareil DREAM. Figure 7 : systèmes CROS WIDEX® Le signal capté par l’émetteur CROS est transmis par la porteuse Widex Link dont le délai de fonctionnement est de 2 à 5 ms, le signal est traité au travers des réglages programmés dans l’aide auditive. Lors de l’appairage de l’émetteur CROS ou BiCROS le choix entre « Locator » ou « Locator omni » concerne uniquement la captation microphonique de l’émetteur. « Locator » est un mode directionnel adaptatif sur une seule bande, dans le but de maintenir un délai de transmission court. « Locator omni » est un mode microphonique fixe sur une seule bande également. L’émetteur CROS est relié à l’aide auditive comme un accessoire, il n’y a donc pas d’interauralité. Le mode microphonique de l’appareil auditif (Locator HD, Omnidirectionnel ou directionnel) est choisi 12 indépendamment de celui du CROS. Le système de microphone Locator HD (seulement présent sur l’appareil auditif) est adaptatif, donc il détermine le diagramme polaire qui produit le meilleur rapport signal-sur-bruit dans l’environnement d’écoute. Figure 8 : polarités modifiées par l’algorithme des appareils WIDEX® selon la fréquence Le locator HD permet de diviser le signal provenant des deux microphones en respectivement dix et quinze zones de fréquences étroites (1/3 d’octave) (resp. gammes 330 et 440) qui peuvent être traitées séparément. Un système sans cette division fine du signal fait le meilleur compromis entre toutes les régions de fréquence au moment de décider quel modèle directionnel suivre. Pour un appareil adapté en CROS pur les micros de l’appareil sont coupés. Par contre les canaux de réglage restent accessibles, dès que l’on ajoute 1dB de gain les micros de l’appareil auditifs sont actifs. La transmission du signal peut-être modifié grâce à une balance réglable de -15 à +15. Afin de connaitre plus précisément l’effet de cette balance une mesure a été faite. Pour cela un appareil auditif et son émetteur CROS étaient configurés en mode « CROS locator» (les microphones de l’aide auditive étaient donc inactifs) l’émetteur CROS était placé dans la chaine de mesure et l’appareil auditif en dehors de la chaine de mesure mais fixé au coupleur 2cc afin que la chaine de mesure enregistre le signal émis par l’appareil auditif. 13 Figure 9 : Mesure in situ au coupleur 2cc avec un son ISTS à un niveau d’intensité de 50dB, la mesure a été répété trois fois : avec la balance du système CROS réglé sur 0, +15 et -15. La courbe noire représente le signal diffusé par le haut-parleur au niveau du microphone de l’émetteur CROS. Il y a bien 15dB de différence entre chaque courbe, la balance permet de régler le niveau du son transmis par le CROS au décibel près. Jusqu’à 500Hz presque aucun gain n’est apporté au signal, en effet ces fréquences sont diffractés par la tête donc un sujet SSD les perçoit déjà sans le système CROS. D’autre part, pour le réglage préconisé par WIDEX® (balance à 0) le signal a une intensité plus élevée en sortie (écouteur de l’appareil auditif) qu’en entrée (microphone de l’émetteur CROS). En effet la figure 9 montre que la courbe rouge est globalement supérieure à la courbe noire, sauf pour les fréquences graves qui ne sont transmises à une intensité beaucoup plus faible par l’émetteur CROS. Il y a la possibilité d’ajouter des programmes à l’aide auditive mais si l’émetteur CROS est connecté à l’appareil auditif le patient ne peut pas changer de programme, enfin le patient a la possibilité de couper le CROS en appuyant sur le bouton du CROS. Dans certaines situations le patient peut être plus à l’aise sans l’émetteur qu’avec, notamment quand il y a du bruit du côté de l’oreille sourde. 14 2) PHONAK® L’émetteur existe sous six formes chez PHONAK®: Figure 10 : systèmes CROS PHONAK® Les émetteurs CROS sont compatibles avec presque toutes les aides auditives sans fil PHONAK Quest et Spice+, dans trois niveaux de performances. Le CROS II lancé en avril 2015 est compatible avec les appareils Venture : Audéo V / Boléro V. Ils possèdent tous un bouton poussoir de volume, il y a donc la possibilité de mettre sur un deuxième programme le micro CROS en mode « arrêt ». L’appareil auditif peut également contenir plusieurs programmes compatibles avec le CROS. L’émetteur CROS transmet un signal audio large bande à l’aide auditive en appliquant une technologie de transmission inductive à codage numérique, avec une fréquence porteuse de 10,6 MHz. Par la création d’un réseau HiBAN (Hearing Instrument Body Area Network), l’émetteur CROS transmet un signal audio large bande à l’aide auditive. Le signal diffusé par l’émetteur CROS et le signal de l’appareil auditif subissent le même traitement de signal soundflow (« audition optimal dans chaque environnement sonore »), ainsi les deux signaux sont optimisés simultanément. Les microphones du CROS peuvent être en mode : omnidirectionnel ou Real Ear Sound. En revanche, l’appareil controlatéral peut passer en mode microphonique directionnel adaptatif en fonction de l’analyse de l’environnement et l’activation via SoundFlow, il peut être en mode microphonique Real Ear Sound, omnidirectionnel ou directionnel. Le mode microphonique Real Ear Sound est un mode qui vise à reproduire l’effet pavillonnaire perdu lors du port d’un contour d’oreille. Il s’agit d’un microphone directionnel fixe dans les hautes fréquences (>1500 Hz environ) et omnidirectionnel dans les graves. Avec le CROS II l’interface a été modifiée, les microphones du réepteur sont toujours actif (même en CROS pur) et la transmission du signal capté par l’émetteur CROS peut être équilibrée grâce à une balance : +5 à -5. Les mêmes mesures que pour les appareils WIDEX® ont été effectuées avec les appareils PHONAK® : 15 Balance +5 Balance 0 Balance -5 Figure 11 : Mesure in vivo au coupleur 2cc avec un son ISTS à un niveau d’intensité de 65dB, la mesure a été répété trois fois : avec la balance du système CROS réglé sur 0, +5 et -5. Lorsque l’on règle la balance si le signal transmis par l’émetteur est augmenté celui de l’appareil auditif est diminué et inversement. Lorsque la balance est réglée au maximum l’intensité du signal capté par l’appareil auditif est diminuée alors que quand elle est réglée au minimum c’est l’intensité de signal capté par l’émetteur CROS qui est diminuée. D’où les courbes obtenues (figures 11) car lors de ce test le signal est capté uniquement par les microphones de l’émetteur CROS. De même que pour les appareils WIDEX®, le réglage préconisé par PHONAK® (balance à 0) le signal a une intensité plus élevé en sortie d’appareil qu’en entrée. 3) Choix de la gamme d’appareil auditif Pour des patients dont la bonne oreille est « parfaite» aucune correction supplémentaire n’est apportée au signal transmis par l’émetteur CROS. Chez PHONAK® les différences entre les gammes d'appareils résident dans la présence ou non de mode microphonique et dans la précision des réducteurs de bruit (parole dans le bruit intense, parole en voiture,…). De même chez WIDEX®, les deux appareils hauts de gammes possèdent l’atténuateur Trusound, le système de mise en évidence de la parole et le mode microphonique locator HD. Lors de l'adaptation d'un système CROS pur ou d’un système BiCROS sur une perte légère il est préférable d'utiliser un dôme ou un embout ouvert afin de laisser passer naturellement les sons dans 16 cette oreille. Or sur un conduit très ouvert le son direct (via l’évent) est plus fort que le son traité (via l’appareil), surtout pour les fréquences graves or les réducteurs de bruits sont plus efficaces sur les fréquences graves. Ainsi un embout ouvert entraine la perte d’une partie de l’efficacité des systèmes automatiques (micro directionnel et réducteur de bruit), pour profiter de ces fonctions il faudrait fermer le conduit. Ainsi dès que l'on travaille avec un embout ouvert, notamment pour l'adaptation d’un émetteur CROS pur un appareil haut de gamme n’apportera peut-être qu’une différence minime par rapport à un appareil entrée de gamme. Par contre quand la meilleure oreille a une perte plus importante ces différentes fonctions peuvent considérablement améliorer les performances de l'appareillage et notamment le RSB. 4) Tests des différents modes microphoniques Afin de mieux comprendre les interactions entre les différents modes microphoniques des émetteurs CROS et des appareils auditifs des mesures ont été effectuées. Pour cela les tests ont été pratiqués de la manière suivante : du côté gauche (côté du CROS) un haut-parleur diffusait un son wobulé de 3KHz à 80dB, de l’autre côté deux haut-parleurs diffusaient un bruit masking (centrée sur le 3KHz) à 60dB. Afin de relever le signal en sortie de l’appareil auditif celui-ci était relié à un coupleur 2cc luimême relié à un sonomètre. Haut-parleur diffusant un son wobulé Figure 12 : schéma du dispositif utilisé pour exécuter les tests. L’appareil auditif était réglé à 1dB de gain et tous les réducteurs de bruit étaient arrêtés. 17 WIDEX® : les tests ont été effectués avec un CROS FASHION et un appareil auditif DREAM 9 440. Comparaison des différents modes microphoniques de l'émetteur BiCROS WIDEX® lorsque l'appareil auditif est en mode microphonique directionnel 20 15 10 5 0 125 1250 -5 -10 A B C Graphique 1: La courbe A représente, lorsque l’appareil auditif est en mode microphonique directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode microphonique « locator omni » et lorsqu’il est éteint. La courbe B représente, lorsque l’appareil auditif est en mode directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode « locator omni » et lorsqu’il est en mode « locator ». La courbe C représente, lorsque l’appareil auditif est en mode directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode « locator » et lorsqu’il est éteint. Lorsque l’appareil auditif était en mode directionnel l’émetteur BiCROS apportait un gain sur le bruit masking et le son wobulé quel que soit le mode microphonique choisi. Mais ce bruit masking et ce son wobulé étaient délivrés à une intensité plus importante lorsque l’émetteur BiCROS était en mode « locator omni » par rapport au mode « locator ». Un pic apparaissait à 6,1KHz lorsque l’émetteur BiCROS était en mode « locator omni », l’origine de ce pic reste inconnue. 18 Comparaison des différents modes microphoniques de l'émetteur BiCROS WIDEX® lorsque l'appareil auditif est en mode microphonique omnidirectionnel 20 15 10 5 0 125 1250 -5 -10 A B C Graphique 2: La courbe A représente, lorsque l’appareil auditif est en mode microphonique omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode microphonique « locator omni » et lorsqu’il est éteint. La courbe B représente, lorsque l’appareil auditif est en mode omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode « locator omni » et lorsqu’il est en mode « locator ». La courbe C représente, lorsque l’appareil auditif est en mode omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode « locator » et lorsqu’il est éteint. Lorsque l’appareil auditif était en mode microphonique omnidirectionnel seul le mode microphonique « locator omni » permettait de capter le signal à 90° du côté sourd, en effet la courbe C montre qu’il n’y avait que peu de différence entre la situation BiCROS éteint et BiCROS en mode « locator ». Il parait donc plus approprié de choisir le mode « locator omni » lorsque l’appareil auditif est en mode omnidirectionnel étant donné que le but du système CROS est de permettre aux sujets SSD d’entendre les sons provenant côté sourd. 19 Gain BiCROS WIDEX® 15 10 5 0 125 1250 -5 -10 A B C D Graphique 3: La courbe A représente, lorsque le BiCROS est en mode microphonique « locator », la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique omnidirectionnel et lorsqu’il est en mode microphonique directionnel. La courbe B représente, lorsque l’appareil auditif est en mode directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode « locator omni » et lorsqu’il est en mode « locator ». La courbe C représente, lorsque l’appareil auditif est en mode omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le BiCROS est en mode « locator omni » et lorsqu’il est en mode « locator ». La courbe D représente, lorsque le BiCROS est en mode « locator omni », la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode omnidirectionnel et lorsqu’il est en mode directionnel. Lorsque l’appareil auditif était en mode directionnel les graves étaient mieux transmis (courbes A et D). L’appareil auditif transmettait le bruit masking et le son wobule à une intensité plus importante lorsque l’émetteur BiCROS était en mode « locator omni » que l’appareil auditif soit en mode microphonique directionnel ou omnidirectionnel (courbes B et C). 20 Gain CROS WIDEX® 25 20 15 10 5 0 125 1250 -5 -10 A B C D Graphique 4 : La courbe A représente, lorsque le CROS est en mode microphonique « locator », la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique omnidirectionnel et lorsqu’il est en mode microphonique directionnel. La courbe B représente, lorsque l’appareil auditif est en mode directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode « locator omni » et lorsqu’il est en mode « locator ». La courbe C représente, lorsque l’appareil auditif est en mode omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode « locator omni » et lorsqu’il est en mode « locator ». La courbe D représente, lorsque le CROS est en mode « locator omni », la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode omnidirectionnel et lorsqu’il est en mode directionnel. Dans la situation CROS pur (les microphones de l’appareil auditifs sont désactivés) lorsque l’émetteur CROS était en mode microphonique « locator » le choix du mode microphonique de l’appareil auditif avait un impact sur le traitement du signal, en effet en mode omnidirectionnel l’appareil délivrait 6dB de plus à 3KHz et 3dB à 6,2KHz (courbe A). Lorsque l’émetteur CROS était en mode « locator omni » le bruit masquing et le son wobulé étaient délivrés à un niveau d’intensité plus élevé qu’en mode « locator » (courbes B et C). Dans la situation CROS pur lorsque l’émetteur CROS était en mode microphonique « locator omni » le choix du mode microphonique de l’appareil auditif ne semble pas avoir d’impact sur le traitement du signal (courbe D). 21 Comparaison du signal délivré par l’appareil auditif lorsque celui-ci et l’émetteur CROS sont configurés en deux modes microphoniques différents 1 2 Aca directionnel & BiCROS locator Aca directionnel & BiCROS locator omni Aca omni & BiCROS locator Aca omni & BiCROS locator omni Aca omni & BiCROS locator Aca omni & BiCROS locator omni Aca omni & CROS locator Aca omni & CROS locator omni Aca omni & CROS locator omni Aca directionnel & CROS locator omni Aca directionnel & BiCROS off Aca directionnel & BiCROS locator Aca omni & BiCROS off Aca omni & BiCROS locator Aca directionnel & BiCROS locator Aca directionnel & BiCROS locator omni Aca directionnel & CROS locator Aca directionnel & CROS locator omni Aca omni & CROS locator Aca directionnel & CROS locator Son wobulé Bruit masking ++ ++ ++ + = + +++ + - + = + ++ = = = +++ + +++ + Tableau 1 : tableau récapitulatif des résultats obtenus avec les appareils WIDEX®, il présente les résultats de la comparaison du signal délivré par l’appareil auditif lorsque celui-ci et l’émetteur CROS sont configurés en deux modes microphoniques différents. Le signal délivré par l’appareil auditif dans la configuration 2 a été soustrait au signal de l’appareil auditif dans la configuration 1. Les deux colonnes de droite (wobulé et bruit masking) présentent le résultat de cette soustraction pour le son wobulé et pour le bruit masquing: un + signifie que le signal est délivré à une intensité plus élevée (entre 0 et 5dB plus fort) par l’appareil auditif dans la configuration 1 par rapport à la configuration 2. ++ signifie que le signal est délivré à une intensité entre 5 et 10dB plus fort, +++ entre 10 et 15dB plus fort. Inversement un – signifie que le signal est délivré à une intensité moins élevée (entre 0 et 5dB moins fort) par l’appareil auditif dans la configuration 1 par rapport à la configuration 2. Ces résultats étaient attendus, mis à part deux éléments : le pic à 6,2KHz lorsque l’émetteur CROS ou BiCROS était en mode « locator omni ». Le deuxième résultat non attendu est le fait que le son wobulé soit délivré à une intensité plus faible quand l’émetteur BiCROS était en mode « locator » et que l’appareil auditif en mode omnidirectionnel par rapport à l’émetteur BiCROS en mode « locator » et l’appareil auditif en mode directionnel. Lorsque l’émetteur CROS ou BiCROS était en mode « locator omni » le son était bien capté de manière omnidirectionnel, de la même façon en mode « locator » le son était capté de manière plus directionnelle. D’autre par le mode microphonique choisit sur l’appareil auditif avait également une influence, même en CROS pur si celui-ci était en mode « locator ». 22 PHONAK® : les tests ont été effectués avec un CROS II 312 et un appareil auditif BOLERO V-M 90. Comparaison des différents modes microphoniques de l'appareil auditif lorsque l'émetteur CROS PHONAK® est éteint 15 10 5 0 125 1250 -5 -10 A omni-dir omni-res B res-dir C Graphique 5: La courbe A représente, lorsque l’émetteur CROS est éteint, la différence entre le niveau de sortie de l’appareil auditif lorsque celui-ci est en mode microphonique omnidirectionnel et lorsqu’il est en mode directionnel. La courbe B représente, lorsque le CROS est éteint, la différence entre le niveau de sortie de l’appareil auditif lorsque celui-ci est en mode omnidirectionnel et lorsqu’il est en mode « Real Ear Sound ». La courbe C représente, lorsque le CROS est éteint, la différence entre le niveau de sortie de l’appareil auditif lorsque celui-ci est en mode « Real Ear » Sound et lorsqu’il est en mode directionnel. Le mode microphonique « Real Ear Sound » est omnidirectionnel dans les graves et directionnel fixe dans les aigues (>1500Hz). Ceci est vérifié par la courbe C mis à part un creux (-3,8dB) à 6800Hz et un pic (+5,8dB) à 7700Hz par rapport au mode directionnel. Le mode microphonique omnidirectionnel transmettait le bruit masking à une intensité plus importante par rapport aux modes microphonique Real Ear Sound et directionnel. 23 Comparaison des différents modes microphoniques del'émetteur BiCROS PHONAK® lorsque l'appareil auditif est en mode microphonique omnidirectionnel 10 5 0 125 1250 -5 -10 -15 A B C Graphique 6: La courbe A représente, lorsque l’appareil auditif est en mode microphonique omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode microphonique omnidirectionnel et lorsqu’il est éteint. La courbe B représente, lorsque l’appareil auditif est en mode omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode omnidirectionnel et lorsqu’il est en mode « Real Ear Sound ». La courbe C représente, lorsque l’appareil auditif est en mode omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode « Real Ear Sound » et lorsqu’il est éteint. Lorsque l’émetteur CROS était en mode omnidirectionnel ou « Real Ear Sound » (courbes A et C) le son wobulé était diffusé à une intensité plus élevée par l’appareil auditif. Cependant lorsque l’émetteur CROS était éteint l’appareil auditif délivrait, de 3,2KHz à 4,5KHz, un son à une intensité plus forte. 24 Comparaison des différents modes microphoniques de l'émetteur CROS PHONAK® lorsque l'appareil auditif est en mode microphonique directionnel 20 15 10 5 0 125 1250 -5 -10 A B C Graphique 7: La courbe A représente, lorsque l’appareil auditif est en mode microphonique directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode microphonique omnidirectionnel et lorsqu’il est éteint. La courbe B représente, lorsque l’appareil auditif est en mode directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode omnidirectionnel et lorsqu’il est en mode « Real Ear Sound ». La courbe C représente, lorsque l’appareil auditif est en mode directionnel, la différence entre le niveau de sortie de l’appareil auditif lorsque le CROS est en mode « Real Ear Sound » et lorsqu’il est éteint. Avec l’émetteur CROS le bruit masking ainsi que le son wobulé étaient mieux transmis, quand le CROS était en mode microphonique omnidirectionnel le bruit masking était diffusé à une intensité plus élevée qu’en mode « Real Ear Sound ». 25 Comparaison des différents modes microphoniques de l'appareil auditif quand l'émetteur CROS PHONAK® est en mode microphonique omnidirectionnel 10 8 6 4 2 0 125 1250 -2 -4 -6 -8 -10 A B C Graphique 8: La courbe A représente, lorsque le CROS est en mode microphonique omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique omnidirectionnel et lorsqu’il est en mode microphonique « Real Ear Sound ». La courbe B représente, lorsque le CROS est en mode microphonique omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique omnidirectionnel et lorsqu’il est en mode microphonique directionnel. La courbe C représente, lorsque le CROS est en mode microphonique omnidirectionnel, la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique « Real Ear Sound » et lorsqu’il est en mode microphonique directionnel. Lorsque l’émetteur CROS était en mode omnidirectionnel et l’appareil auditif en mode directionnel il y avait 2dB de plus de 2,6Hz à 4KHz qu’en mode omnidirectionnel ceci était probablement dû au fait que le mode microphonique directionnel captait mieux le signal du haut-parleur situé à 315°, le bruit masking était donc retranscrit à une intensité plus élevée. La courbe C est cohérente avec les courbes A et B, cependant pour les modes microphoniques directionnels et « Real Ear Sound » les résultats devraient être identiques dans les aigues. 26 Comparaison des différents modes microphoniques de l'appareil auditif quand l'émetteur CROS PHONAK® est en mode microphonique "Real Ear Sound" 10 8 6 4 2 0 125 1250 -2 -4 -6 -8 -10 A B C Graphique 9: La courbe A représente, lorsque le CROS est en mode microphonique « Real Ear Sound », la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique omnidirectionnel et lorsqu’il est en mode microphonique « Real Ear Sound ». La courbe B représente, lorsque le CROS est en mode microphonique « Real Ear Sound », la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique omnidirectionnel et lorsqu’il est en mode microphonique directionnel. : La courbe C représente, lorsque le CROS est en mode microphonique « Real Ear Sound », la différence entre le niveau de sortie de l’appareil auditif lorsqu’il est en mode microphonique « Real Ear Sound » et lorsqu’il est en mode microphonique directionnel. La courbe C montre que lorsque l’appareil auditif et l’émetteur CROS étaient en mode microphonique « Real Ear Sound » le son wobulé de 3KHz n’était diffusé qu’à une intensité très faible, effectivement pour cette fréquence les microphones étaient directionnels fixe. Ainsi si l’appareil auditif et l’émetteur CROS sont en mode « Real Ear Sound » un son aiguë provenant du côté sourd (90°) ne sera pas ou presque pas perçu par le sujet SSD. La courbe B montre que lorsque l’appareil auditif était en mode directionnel le son wobulé était délivré à une intensité plus élevé par rapport aux autres modes microphoniques. 27 Comparaison du signal délivré par l’appareil auditif lorsque celui-ci et l’émetteur CROS sont configurés en deux modes microphoniques différents 1 2 Son wobulé Bruit masking Aca directionnel & CROS Real Ear Sound Aca directionnel & CROS omni Aca omni & CROS Real Ear Sound Aca directionnel & CROS off Aca directionnel & CROS Real Ear Sound Aca omni & CROS off ++ + = ++ ++ + et - de 3,2KHz à 4,5KHz Aca omni & CROS omni Aca omni & CROS omni Aca omni & CROS omni Aca Real Ear Sound & CROS omni Aca omni & CROS Real Ear Sound Aca omni & CROS Real Ear Sound Aca Real Ear Sound & CROS Real Ear Sound Aca omni & CROS Real Ear Sound Aca directionnel & CROS omni Aca Real Ear Sound & CROS omni Aca directionnel & CROS omni Aca directionnel & CROS Real Ear Sound Aca Real Ear Sound & CROS Real Ear Sound Aca directionnel & CROS Real Ear Sound = + - - + + - - - + ++ + -- -- Tableau 2 : tableau récapitulatif des résultats obtenus avec les appareils PHONAK ®. Le signal délivré par l’appareil auditif dans la configuration 2 a été soustrait au signal de l’appareil auditif dans la configuration 1. Les deux colonnes de droite (wobulé et bruit masking) présentent le résultat de cette soustraction pour le son wobulé et pour le bruit masquing: un + signifie que le signal est délivré à une intensité plus élevée (entre 0 et 5dB plus fort) par l’appareil auditif dans la configuration 1 par rapport à la configuration 2. ++ signifie que le signal est délivré à une intensité entre 5 et 10dB plus fort, +++ entre 10 et 15dB plus fort. Inversement un – signifie que le signal est délivré à une intensité moins élevée (entre 0 et 5dB moins fort) par l’appareil auditif dans la configuration 1 par rapport à la configuration 2. La plus part de ces résultats étaient également attendues, cependant quelques zones d’ombres persistent notamment la différence entre les modes microphoniques « Real Ear Sound » et directionnel, ainsi que l’effet de la mise en place de l’émetteur CROS lorsque l’appareil auditif est en mode microphonique omnidirectionnel. Enfin le fait que le son wobulé provenant du côté sourd soit délivré à une intensité plus élevé lorsque l’appareil auditif est en mode directionnel par rapport aux autres modes microphoniques reste inexpliqué. 28 5) Etat des lieux des systèmes CROS/BiCROS a. Efficacité du système Depuis le premier CROS (WULLSTEIN et WIGAND 1962) ce système a beaucoup évolué. Plusieurs études ont démontré les améliorations apportées par les systèmes CROS sans fil (le premier fut mis en vente par TELEX® en 1973), notamment la satisfaction et l'amélioration globale de la localisation et de l'ouïe. WIDEX® a fait une étude en 2013 sur l’amélioration de l’intelligibilité de la parole avec WIDEX CROS. Pour le test, la parole était présentée du côté de l'oreille sourde et le bruit HINT par les trois hautparleurs placés du côté de la meilleure oreille. Les cinq utilisateurs CROS testés ont vu leur seuil d'intelligibilité (SI) s’améliorer de 4,6 dB avec le transmetteur et le récepteur WIDEX CROS par rapport au test sans appareil. Les cinq utilisateurs BiCROS ont amélioré leur SI de 3,8 dB lorsqu'ils utilisaient le transmetteur et le récepteur WIDEX CROS par rapport à une amplification uniquement du côté de la meilleure oreille (déficiente). Selon leur questionnaire BBSS les situations pour lesquelles WIDEX CROS apportait une amélioration étaient : lors d'une conversation en présence de bruit de fond, d'une conversation en voiture et au sein d'un groupe. Globalement, les sujets testés ont rapporté que leur audition générale était facilitée par le WIDEX CROS30. En 2014, l’efficacité des systèmes CROS a été étudiée. Ils ont trouvé une amélioration significative des scores aux questionnaires K-HHIE (Hearing Handicap Inventory for Elderly-Screening) et K-SSQ (Korean social support questionnaire) avec l'utilisation de CROS. Dans les environnements calmes, la parole est comprise à une intensité plus faible pour le groupe de personnes de moins de 40 ans. Dans le bruit, l’émetteur CROS procure un avantage lorsque le bruit provient du côté de la meilleure oreille, par contre lorsque le bruit provient du côté de l’oreille sourde une diminution de l’intelligibilité a été observée31. En 2013 Oeding K et Valente M ont testé l’efficacité des réducteurs de bruit des appareils auditifs CROS, aucune différence significative n’a été relevée entre les quatre conditions : sans appareil auditif, avec appareil auditif mais sans réducteur de bruit, réducteur de bruit doux et réducteur de bruit maximal. Cependant les auteurs précisent que les microphones directionnels et les contrôles de volume indépendants sur le récepteur et l’émetteur pourraient améliorer le rapport signal sur bruit (SNR) pour les patients appareillés avec un système CROS ou BiCROS32. En effet une étude de 2015 (Effects of Training on the Use of a Manual Microphone Shutoff on a BiCROS Device) a démontré l’intérêt d’un interrupteur on / off sur un émetteur CROS. Les résultats ont révélé qu’utiliser judicieusement l’interrupteur du BiCROS améliore les scores de reconnaissance de la parole dès lors que celle-ci a été présentée du côté de la meilleure oreille. Ainsi qu’un bénéfice statistiquement significatif au questionnaire « Speech, Spatial, and Sound Quality »33. Si le bruit ambiant est fort peu de patient évoquent une amélioration significative avec l’émetteur CROS ou BiCROS, quelle que soit la direction du bruit. Dans cette situation il est conseillé de diminuer le volume ou d’éteindre l’émetteur34. 29 Il est extrêmement difficile de déterminer pour quels patients le port de l’émetteur CROS sera une réussite, le degré de succès dépend de la motivation du patient et de ses attentes imposées par son mode de vie et son environnement de travail. D’autre part il dépend également de l’audition de la meilleure oreille, si celle-ci est « parfaite » les chances de réussites sont diminuées car les avantages dépassent rarement les inconvénients du port d’un émetteur CROS. Chaque patient SSD est un candidat au système CROS cependant tous ne l’accepteront pas. Les études évaluant le pourcentage d’acceptation de ce système n’obtiennent pas toutes les mêmes résultats. En 2002 une étude a montré que seulement 10% des patients avec une cophose unilatérale et une oreille parfaite ont jugé que les avantages du CROS l'emportaient sur les inconvénients34. Une seconde étude, en 2009, a confirmé le faible taux d’acceptation du CROS lorsque l’audition de la bonne oreille est normale: un seul patient sur 12. Quand le patient présente une perte d’audition sur les hautes fréquences, le taux d’acceptation du système BiCROS est de 54 %35. Cependant en 2006 des résultats différents ont été obtenus : après 30 jours d’essai, 66 des 91 patients (72,5%) ont choisi de garder leurs système CROS ou BiCROS36. b. Système CROS/BiCROS en France Pour ce qui est de la France, selon PHONAK® les émetteurs CROS, représentent 1% de leurs ventes, soit environ 1050 émetteurs CROS vendus par an. Cela représente en moyenne 10 -11 systèmes CROS/ BiCROS vendus par an par département, d’où le nombre réduit de candidat potentiel à l’étude. La société WIDEX® quant à elle n’a pas souhaité dévoiler de chiffre. Selon PHONAK® entre 60 et 65% des patients qui essayent un émetteur CROS l'adopte, selon les audioprothésistes, interrogés dans le cadre de la recherche de candidats pour l’étude, le taux d’achat serait plutôt de 40 - 50%. En effet il y a plusieurs freins à cet achat: - le prix (CROS non remboursé) - l'esthétique (deux appareils alors qu'une seule oreille est atteinte pour les CROS pur) - la durée de vie des piles (surtout pour le CROS Phonak® 2 à 4 jours selon les patients, alors que le fabricant annonce une meilleure autonomie) - le temps d'adaptation (pendant quelques semaines tous les repères auditifs sont modifiés, ce qui entraine de la fatigue, une impression de ne plus aussi bien entendre du côté sain, la perte de repères spatiaux, ...) - l’embout dans la meilleure oreille provoque parfois une occlusion qui, même partielle, peut être problématique pour les patients avec une oreille sans perte d’audition. - dans un environnement très bruyant le CROS peut devenir un handicap - Si le bruit est situé du côté de l’oreille sourde le patient peut être plus gêné avec le CROS que sans Il faut que le patient soit motivé et ai des attentes réalisables, d’où l’importance du travail de préparation de l’audioprothésiste et une période d’essai indispensable bien que l’habituation au système puisse prendre plus de temps. 30 Etude I. Matériel et méthode 1) Population de l’étude Dix-sept sujets ont été testés, ils ont tous été sélectionnés parmi les patients d’audioprothésistes. La plupart étaient des patients de Monsieur Brice JANTZEM, deux d’entre eux étaient des patients de Madame Axelle COUDERQ. Le système WIDEX étant plus récent sur le marché, seulement deux patients répondant aux critères d’inclusion (notamment être appareillé depuis au moins un an) portaient un appareil WIDEX alors que sept portaient un appareil PHONAK. Critères d’inclusion Idéalement, seuls des patients appareillés avec un système CROS auraient été testés, cependant devant le nombre de patients pouvant être inclus dans l’étude (seulement quatre), il a été décidé d’inclure les patients ayant testé un système CROS mais ayant décidé de ne pas le garder et les patients appareillés avec un système BiCROS avec une faible perte sur la meilleure oreille. Ainsi trois différents profils de patients ont été testés dans cette étude. De plus dans le cadre de la thèse de Vincent MAZO des NE ont été testés, puisque leurs résultats ont été exploités plus loin le détail des tests sera fait. Premier profil : expérience de l’appareillage en CROS pur - Avoir une oreille présentant une perte sévère à profonde non appareillable, L’oreille controlatérale ne doit présenter aucune perte auditive : seuil auditif inférieur ou égal à 20 dB HL de 125Hz à 4000Hz, Etre appareillé avec un système CROS depuis au moins un an. Deuxième profil : pas d’expérience de l’appareillage (abandon ou jamais essayé) - Avoir une oreille présentant une perte sévère à profonde non appareillable, L’oreille controlatérale ne doit présenter aucune perte auditive : seuil auditif inférieur ou égal à 20 dB HL de 125Hz à 4000Hz, Ne pas être appareillé. 31 Troisième profil : expérience de l’appareillage en BiCROS - Avoir une oreille présentant une perte sévère à profonde non appareillable, L’oreille controlatérale ne doit présenter qu’une faible perte auditive : seuil auditif inférieur ou égal à 40 dB HL de 125Hz à 4000Hz, Etre appareillé avec un système BiCROS depuis au moins un an. - Critères d’exclusion - Présenter des troubles cognitifs et d’intégration, Forte fatigabilité. Patient appareillé avec un système CROS Patient appareillé avec un système BiCROS Patient non appareillé UHL congénital - 1 3 4 UHL pré lingual 1 - 1 2 UHL post lingual 2 5 3 10 Total 3 6 8 17 Appareil auditif Date d’appareillage Total Tableau 3 : représentation des trois différentes populations testées patient Côté sourd Age Age d’apparition de la surdité Cause de la surdité Type d’appareil auditif SH Gauche 42ans Naissance Aplasie majeur BiCROS YP Droit 65 ans 43 ans Inconnue BiCROS CQ Gauche 61 ans 59 ans Inconnue BiCROS ADB Droit 74 ans 70 ans Inconnue BiCROS JMG Gauche 67ans 60 ans Post-op otospongiose BiCROS MJM Gauche 49 ans 44 ans Post-op otospongiose BiCROS TP Gauche 22 ans 20 ans Fracture du rocher CROS IT Gauche 48 ans 14 ans MC SD Gauche Droit 13 ns 45 ans Naissance Naissance Fracture du rocher Inconnue Aplasie majeur CROS CROS - Phonak Audeo Q90 / CROS Phonak Audeo Q50/ CROS Phonak Audeo Q50 / CROS Phonak Bolero Q50 / CROS Widex DREAM fashion 110 / CROS Phonak Audeo spice / CROS Phonak Cassia micro M / CROS Phonak bolero Q90 / CROS Widex - 20/09/2013 18/06/2013 18/02/2014 21/11/2013 24/04/2014 23/10/2013 06/2013 29/10/3013 23/05/2013 32 SP LV Droit Droit 39 ans 14 ans 29 ans naissance LM Gauche 19 ans 8 ans MD KN Gauche Gauche 10 ans 9 ans naissance 6 mois AP Droit 47 ans 11 ans SB Gauche 36 ans 32ans Neurinome Aplasie majeur Post-op otospongiose Aplasie majeur Méningite Fracture du rocher Inconnue - - - - - - - - - - - - - - - Tableau 4 : représentation des caractéristiques de chaque sujet testé 2) Matériels Les tests se déroulaient dans une salle insonorisée (34dBA de bruit de fond) et non réverbérante qui se trouve à l’hôpital Morvan de Brest dans un Blockhaus ou se déroulaient les tests audiométriques il y a deux ans avant que les locaux ne déménagent. Durant les tests, l’auditeur était assis confortablement dans un fauteuil rotatif fixé au centre de la salle, il était entouré d’un rideau acoustiquement transparent qui permettait de dissimuler la position des huit enceintes. La tête du sujet était maintenue immobile grâce à une mentonnière fixée au siège. Laser Mentonnière Figure 13: siège rotatif adapté pour la passation des tests Huit haut-parleurs (Sib Focal JM lab) étaient situés dans le plan horizontal et répartis sur un cercle de 3,52 m de diamètre ayant pour centre le milieu du segment interaural du sujet testé, tous les hautparleurs étaient distants de 45°. Les haut-parleurs étaient branchés sur deux amplificateurs à quatre sorties (Thomann the tt.amp E4-130) reliés à une carte son d’ordinateur diffusant les sons à partir du logiciel Matlab. 33 Haut-parleur Siège 90° 270° 0° 180° Caméra Bureau testeur Figure 14: disposition des huit haut-parleurs lors des tests Pointeur Figure 15: caméra permettant au testeur de visualiser la réponse du sujet depuis le bureau Un rapporteur avec une précision de 1° était dessiné sur une plaque, le fauteuil rotatif était fixé au centre de ce rapporteur. Grâce à la position de la mentonnière la tête du sujet était dans l’axe du pied rotatif de la chaise. Le testeur était installé à l’extérieur du cercle défini par les huit haut-parleurs, de cette place le testeur pouvait relever l’angle de localisation de la source sonore grâce à une caméra fixée au siège du patient testé. Elle était positionnée de façon à filmer le rapporteur et était connecté en wifi à une tablette placée sur le bureau du testeur. Tablette connectée à la caméra Figure 16: Bureau du testeur 34 Stimuli auditifs Le signal utilisé dans cette étude était un bruit blanc diffusé à 65dB SPL au niveau de la tête du sujet. Durant une session le signal était diffusé par chaque haut-parleur dans un ordre aléatoire déterminé par le logiciel Matlab. Pour plus de précision, au court de la session chaque haut-parleur diffusait, de manière non consécutive, trois fois le signal. De plus des trompeurs étaient introduits dans le test pour éviter que les sujets ne repèrent la position des haut-parleurs. Un signal sur quatre était un trompeur. Le signal trompeur pouvait provenir de toutes les positions intermédiaires entre 2 enceintes consécutives. Ces positions intermédiaires correspondaient à des sources virtuelles résultant d’une diffusion dusignal par deux enceintes consécutives. Ainsi, durant chaque session les sujets devaient localiser 32 stimuli, seules les réponses à 24 stimuli (32 stimuli moins les 8 trompeurs) ont été étudiées par la suite car les réponses aux trompeurs ont été écartées. Prototype de système CROS Pour l’étude un prototype de système CROS a été conçu. Ce prototype était composé d’un microphone omnidirectionnel (DPA 4060, annexe 1) quasiment linéaire placé au niveau de la tempe du sujet testé, d’un étage de pré amplification droit (transparent) et d’un écouteur (c’était un écouteur déporté M Widex, annexe 2), le son était acheminé jusqu’au conduit auditif grâce à un dôme ouvert. Le niveau de sortie a été calibré en comparant au casque le niveau sonore présenté au microphone et le niveau sonore en sortie d’écouteur pour que ceux-ci soient identiques. Le son capté était acheminé immédiatement à l’oreille controlatérale. Ce prototype était donc en quelque sorte une version simplifié du système CROS, aucun traitement de signal n’était effectué. Ecouteur et dôme Microphone Mixette Figure 17 : Prothèse sur table 35 3) Procédure de passation Les tests débutaient par un contrôle de l’appareillage pour s’assurer de son bon fonctionnement et d’un nettoyage si nécessaire. Ensuite une anamnèse était pratiquée abordant les points suivant : - L’âge Le sexe La cause de la surdité L’ancienneté de la perte auditive (de l’oreille sourde) La présence de pathologies supplémentaires à la surdité (cardiaque, rénale, visuelle). Le type d’appareillage porté et la date d’appareillage Après l’otoscopie une audiométrie tonale était réalisée pour évaluer la perte d'audition de la meilleure oreille de 125 à 8KHz. Test de localisation sonore Avant le début des tests chaque patient avait participé à une séance d’essais afin de se familiariser avec la procédure. Durant toute la durée du pré-test et du test aucun retour ne fut accordé aux patients sur l’écart entre leur jugement et la position diffusée. Le signal était présenté durant 150 ms, après cette période il était demandé au sujet de se diriger avec précision et aussi vite que possible face au son perçu. Le signal était diffusé aléatoirement dans les différents haut-parleurs grâce à une interface de test développée sur Matlab par Mathieu PAQUIER, la réponse du sujet était entrée manuellement dans l’interface qui déterminait l’erreur d’azimut. Avant que le signal suivant ne soit diffusé le patient devait se replacer à la position 0° et ainsi de suite pour les 32 stimulis. Afin d’étudier l’effet du système CROS sur la localisation d’azimut, les tests de localisation étaient exécutés dans trois conditions différentes décrites ci-dessous. Les différentes sessions étaient séparées par une courte pause. Chaque sujet passait les tests dans un ordre aléatoire déterminé par le programme Matlab. Dans le cadre de la thèse de Vincent MAZO des sujets NE étaient également testés. La première session était effectuée oreille « nue » pour les patients SSD avec l’oreille controlatéral normo-entendante. Pour les patients appareillés avec un système BiCROS cette session se pratiquait en laissant uniquement l’appareil auditif sur la bonne oreille. Enfin pour les NE cette session était effectuée avec un bouchon en mousse placé dans l’une des oreilles du NE afin de simuler une cophose. L’atténuation du niveau d’intensité engendrée par le bouchon était plus importante sur les aiguës que sur les graves, l’atténuation moyenne était de 30dB (moyenne calculée de 125Hz à 8KHz). 36 La seconde session était effectuée avec le prototype de système CROS. Cette session n’était pas effectuée par les patients appareillés avec un système BiCROS. Les NE étaient toujours équipés d’un bouchon dans une oreille et le microphone du prototype était installé sur cette oreille bouchée. Seuls les sujets appareillés réalisaient la troisième session avec leur système CROS ou BiCROS sans qu’aucune modification des réglages n’ait été effectuée. C’est-à-dire que les sujets testés entendaient comme dans leur vie journalière. 37 I. Résultats Comme il a été précisé précédemment dix-sept sujets divisés en trois groupes ont été testés, de plus les résultats sont hétérogènes, une étude statistique n’apporterait donc aucun résultats sinificatifs, ainsi seule des tendances sont évoquées ici. 1. Localisation sonore sans appareil auditif Afin d’avoir une vue globale des résultats au test de localisation des sujets SSD une matrice de confusion contenant les résultats des dix-sept sujets a été établie. Afin d’avoir une référence les résultats de NE au même test sont égaement représentés. A : ME (n=17) B : NE (n=5) 0° 45° 90° 135° 180° 225° 270° 315° 0° côté entendant │ côté sourd 0% 359° 0° 50% droite │ gauche 359° 100 % Graphique 10 : Résultats des tests de localisation des sujets SSD (A) et des NE(B). Les deux graphiques présentent en abscisse les positions des huit azimuts testés et en ordonnée les réponses données par les sujets testés. Il a été choisi de diviser les 360 réponses possibles en 16 intervalles. Ainsi chaque intervalle a une largeur de 22,5°, ils ont été construits de tel sorte que chaque intervalle contenant une source sonore soit centré sur cette source. Ce choix de largeur d’intervalle a également été choisi afin d’avoir une sensibilité suffisante tout en gardant un schéma lisible. Les cases encadrées représentent les réponses attendues pour une localisation exacte. La couleur indique le pourcentage de réponses données par les sujets testés pour un azimut donnée, plus la couleur est foncé plus il y a eu de réponse, comme indiqué sur l’échelle ci-dessus. 38 Les sujets SSD avaient de mauvais résultats de localisation du côté sourd, sur le graphique 10 A des erreurs avant/arrière apparaissent, de plus les résultats paraissent très étalés, ce qui indique des résultats hétérogènes Les NE avaient des réponses homogènes et avaient une bonne localisation sonore mis à part quelques inversions avant/arrière (graphique 10 B). Comme il a été montré les résultats étaient très variables entre les individus, différents modes de localisation en situation « oreille nue » ont donc pu être observés chez les différents sujets testés: - Le sujet testé ne localisait qu’à l’avant, deux patients : AP et IT Résultat IT : oreille gauche sourde, patient appareillé avec un système CROS pur Figure 18 : résultats IT. Chacun des huit diagrammes représentent les résultats au test de localisation lorsque le signal sonore provient d’un des huit haut-parleurs. L’avant du paient est dirigé vers le haut et l’arrière vers le bas. Le haut-parleur émettant le signal sonore est représenté par un petit cercle, sur le schéma de gauche le son émis est en face du sujet testé (0°), sur le schéma suivent la source sonore se situe à 45°,… Chaque position est testée trois fois, les trois réponses du sujet sont matérialisées par une étoile. - Le sujet ne localisait qu’à l’arrière, un sujet : SD Résultat SD : oreille droite sourde, patient non appareillé Figure 19: résultats SD 39 - Le sujet localisait tous les sons du côté de la bonne oreille, mais la réponse n’était pas toujours correct même quand la source sonore était du côté entendant, quatre sujets : LV, SP, TP et SH Résultat TP : oreille gauche sourde, patient appareillé avec un système CROS pur Figure 20: résultats TP - Le sujet localisait seulement à l’arrière et du côté de la bonne oreille, un sujet : MC Résultat MC : oreille gauche sourde, patient appareillé avec un système CROS pur Figure 21 : résultats MC - Le sujet localisait seulement à l’avant et du côté bonne oreille, quatre sujets : JMG, CQ, ADB et YP Résultat ADB : oreille droite sourde, patient appareillé avec un système BiCROS (donc avec une perte d’audition sur la meilleure oreille) Figure 22: résultats ADB 40 - Le sujet localisait les sons dans toutes les directions, cinq sujets : MJM, SB, KN, LM et MD cependant ils présentaient des résultats très différents : MJM localisait mieux du côté sourd que du côté de la bonne oreille Résultat MJM : oreille gauche sourde, patient appareillé avec un système BiCROS Figure 23: résultats MJM SB localisait correctement les sons provenant de l’arrière Résultat SB : oreille gauche sourde, patient non appareillé Figure 24 : résultats SB KN localisait correctement du côté entendant (à droite) et à 225°. Résultat KN : oreille gauche sourde, patient non appareillé Figure 25 : résultats KN 41 LM localisait correctement tous les points mis à part à 0°. Résultat LM : oreille droite sourde, patient non appareillé Figure 26 : résultats LM MD localisait correctement tous les points sauf ceux provenant de l’avant. Résultat MD : oreille droite sourde, patient non appareillé Figure 27: résultats MD oreille droite sourde 42 2. Localisation sonore avec les systèmes CROS/ BiCROS et le prototype A : Avec le système CROS/BiCROS (n=9) B : Avec le prototype (n=8) 0° 45° 90° 135° 180° 225° 270° 315° C : Oreille nue (n=17) D : CROS/BiCROS et prototype confondus (n=17) 0° 45° 90° 135° 180° 225° 270° 315° 0° côté entendant │ côté sourd 359° 0° côté entendant │ côté sourd 359° Graphique 11 : résultats des sujets SSD oreille nue (C), avec les systèmes CROS/BiCROS (A), avec le prototype (B) et les résultats des systèmes CROS/BiCROS et du prototype confondus (D). 43 Sujets testés Erreur moyenne de localisation en degré dans la situation « oreille nue » ADB 152,5° Erreur moyenne de localisation en degré dans la situation « avec CROS ou BiCROS » 150,1° Erreur moyenne de localisation en degré dans la situation « avec prototype» - CQ 150° 152,3° - IT 106° 105,2° 103,8° AP 102° - 104,5° MC 89,4° 91,2° 90,3° YP 88° 85,2° - JMG 86° 92,5° - TP 70,8° 84° 100,4° SD 70,5° - 75,6° SH 69° 96,3° - LV 68,6° - 66,6° SP 63,2° - 87,7° KN 46,5° - 77° MD 39° - 76,5° MJM 36,5° 72,6° - SB 36,1° - 98,9° Différences entre les différentes situations Aucune différence significative Aucune différence significative Aucune différence significative Aucune différence significative Aucune différence significative Aucune différence significative Aucune différence significative Localisation avec le CROS moins bonne de 13,6° et moins bonne de 29,6° avec le prototype Aucune différence significative Localisation moins bonne de 27,2° avec le BiCROS Pas de différence significative cependant localise mieux à droite et moins bien à gauche avec le prototype Localisation moins bonne de 24,5° avec le prototype Localisation moins bonne de 30,5° avec le prototype Localisation moins bonne de 37,5° avec le prototype Localisation moins bonne de 36,1° avec le BiCROS Localisation moins bonne de 62,8° 44 LM 24,4° - 96° Moyenne 76,4° 103,3° 88,8° avec le prototype Localisation moins bonne de 71,6° avec le prototype 18,3° Tableau 5 : erreur moyenne de localisation mesurée en angle, l’erreur était mesurée en considérant toujours la plus petite erreur (l’erreur maximale étant de 180°) par exemple pour un signal diffusé à 0° et localisé à 315° l’erreur est de 45° et non pas de 315°. L’erreur moyenne était obtenue en calculant la moyenne des erreurs des 24 positions testées. L’erreur moyenne était calculée dans les trois situations testées : oreille nue, avec les systèmes CROS/BiCROS et avec le prototype pour chaque sujet testé. Il était considéré qu’une différence inférieure à 10° (seuil de différenciation des indices spectraux) n’est pas significative. Erreur moyenne de localisation en degré dans la situation « avec BiCROS » Erreur moyenne de localisation en degré dans la situation « avec CROS » Erreur moyenne de localisation en degré dans la situation « avec prototype» 108,6° 93,5° 88,8° Moyenne Tableau 6: moyenne, pour tous les individus testés, de l’erreur de localisation mesurée en angle (l’erreur maximale étant de 180°), calculé dans trois situations testées : avec le système BiCROS, avec les systèmes CROS, et avec le prototype. Pour observer les résultats plus en détail une comparaison des résultats dans les conditions oreilles nues et avec le prototype et/ou avec les systèmes CROS/BiCROS a été faite. Pour le sujet LV la localisation était meilleure du côté sourd avec le prototype et moins bonne du côté de la bonne oreille. 350 300 Azimut testé 250 200 150 100 50 0 0 100 oreille nue 200 300 avec prothèse sur table Azimut localisé Graphique 12 : Résultats LV oreille droite sourde. En ordonné les azimuts des sources sonores testés sont représentés et en abscisse les réponses données par le sujet testé. Les réponses exactes de localisation se situent sur la droite noire. 45 La localisation était la même avec et sans le prototype pour quatre sujets : MC, AP, SD et IT La localisation était la même avec et sans les systèmes CROS BiCROS pour sept sujets : IT, YP, MC, TP, MJG, CQ et ADB 350 350 300 300 250 250 200 200 150 150 100 100 50 50 0 0 0 100 oreille nue 200 avec prothèse sur table 300 0 CROS Graphique 13 : Résultats MC oreille gauche sourde 100 oreille nue 200 avec prothèse sur table 300 CROS Graphique 14 : Résultats TP oreille gauche sourde La localisation était moins bonne avec le prototype pour six sujets : MD, LM, SB, SP, TP et KN La localisation était moins bonne avec le système BiCROS pour deux sujets : SH et MJM 350 350 300 300 250 250 200 200 150 150 100 100 50 50 0 0 0 100 oreille nue 200 300 avec prothèse sur table Graphique 15 : Résultats LM oreille droite sourde 0 100 oreille nue 200 300 avec prothèse sur table Graphique 16 : Résultats KN oreille gauche sourde 46 LM localisait moins bien à gauche, à droite et à l’avant avec le prototype (ne localise correctement que 180°) KN localisait moins bien à droite et à gauche avec le prototype 350 350 300 300 250 250 200 200 150 150 100 100 50 50 0 0 0 100 oreille nue 200 300 0 avec le prototype 100 oreille nue Graphique 17 : Résultats MD oreille droite sourde 200 300 avec le prototype Graphique 18 : Résultats SB oreille gauche sourde MD ne localisait plus à droite et moins bien à 180° avec le prototype SB ne localisait plus aucun point avec le prototype 350 300 250 200 150 100 50 0 0 100 oreille nue 200 300 avec le prototype Graphique 19 : Résultats SP oreille droite sourde SP localisait un peu moins bien à gauche avec prototype 47 350 350 300 300 250 250 200 200 150 150 100 100 50 50 0 0 0 100 oreille nue 200 300 CROS Graphique 20 : Résultats MJM oreille gauche sourde 0 100 oreille nue 200 300 avec BiCROS Graphique 21 : Résultats SH oreille gauche sourde MJM localisait moins bien à gauche et à droite par contre il n’y avait aucune différences pour les erreurs avant/arrière avec le système BiCROS SH localisait moins bien à droite avec le système CROS 48 I. Discussions 1) Localisation sonore sans appareil auditif Comme il a été indiqué précédemment l’homme a besoin de deux oreilles pour localiser les sons. Pourtant certaines études ont suggéré une localisation proche des performances normales pour les sujets SSD37. Quelques années plus tard, d’autres études ont contredit ces résultats en montrant que la plupart des sujets SSD ont des capacités de localisation très affaiblies par rapport aux NE, notamment l’étude de Van Wanrooij, Van Opstal en 20041, et celle de Agterberg MJ en 201420. L’étude réalisée est en accord avec ces résultats (graphique 10). Dans l’étude différents modes de localisations ont pu être identifiés chez les différents sujets testés, ainsi ils ont pu être répartis en trois groupes. D’autres études ont également montré des résultats très hétérogènes pour les différents sujets SSD testés20. Dans le premier groupe les sujets testés localisaient tous les sons du côté de la bonne oreille, cependant tous les points n’étaient pas correctement localisés de ce côté (quatre sujet). Peut-être ces sujets parvenaient à exploiter, au moins en partie, les indices spectraux et à en déduire l’azimut des sons. Selon l’étude de Van Wanrooij MM et Van Opstal AJ les indices spectraux permettent presque exclusivement la localisation du côté entendant et au mieux quelques points du côté sourd. Un son de faible intensité provenant se détériore rapidement et donc si ce son provient du côté sourd, les indices ne sont plus exploitables quand ils arrivent au niveau de la bonne oreille20. Ainsi, des sons peuvent être localisés avec succès du côté sourd seulement pour une catégorie limitée de source sonore ; il faut que le son soit assez fort et contienne un spectre large bande relativement plat, ce qui était le cas lors des tests réalisés mais rarement dans la vie quotidienne. Dans le second groupe les sujets localisaient les sons dans toutes les directions (cinq sujets), cependant ces réponses étaient plus ou moins correctes selon les sujets. En dépit de la surdité d’une oreille certains sujets parvenaient à localiser quelques points du côté sourd, cependant même pour ces sujets la précision de localisation était moins bonne que celle d’un NE. Il est possible que ces patients utilisaient également les indices spectraux, mais aussi l’effet d’ombre acoustique de la tête. Si ce dernier indice est utilisé les signaux de faibles niveaux sonores sont localisés du côté sourd, alors que les signaux de niveaux sonores élevés sont localisés du côté de la bonne oreille. Dans le dernier groupe les sujets testés ne localisaient qu’à l’avant ou qu’à l’arrière, des deux côtés ou seulement du côté de la bonne oreille (huit sujets): il peut-être suggéré que comme les patients ne parvenaient pas à localiser les sons, ils projetaient tout à l’avant ou tout à l’arrière, le fait de tout projeter à l’arrière pourrait également être dû au fait que les sujets n’ont aucun repère visuel. Au vu de leur mauvaise localisation sonore ces sujets ne semblaient utiliser aucun indice pour localiser les sons. 49 L’ancienneté de la surdité unilatérale ne semble pas toujours avoir d’impact sur les capacités de localisation (congénitale ou acquise), en effet, MJM, SSD depuis 5 ans et avait de bon résultats de localisation (figure 23) alors que SD qui est SSD depuis la naissance et avait de mauvais résultats de localisation (figure 19). Ce résultat est en accord avec une autre étude1. Mais en désaccord avec le fait que la plasticité cérébrale ne se fait pas de manière aussi efficace après la petite enfance (rappel p 11). Les données indiquent que les sujets atteints d’une perte auditive sur la meilleure oreille avaient en général de moins bons résultats par rapport aux autres sujets (4 des 7 sujets avec les plus mauvais scores de localisations ont une perte sur la meilleure oreille). Bien que la situation « oreille nue » pour les patients avec un système BiCROS ait été faite avec l’appareil auditif sur la meilleur oreille les résultats ne peuvent pas être les mêmes que ceux de sujets SSD avec une audition parfaite sur la meilleure oreille. En effet comme les microphones sont situés au niveau de la tempe du sujet ses HRTF sont grandement modifiées et donc les indices spectraux, utiles au sujets SSD pour localiser les sons en azimut, sont également modifiés. De plus même si les HRTF étaient conservées, si c’était le cas avec un intra-auriculaire par exemple (bien que le fait d’avoir quelque chose dans l’oreille peut également modifier les HRTF), il serait peu probable que les appareils auditifs permettraient d'entendre les sons de fréquences élevées qui sont les plus touchés par les réflexions du pavillon; les aides auditives offrent un son peu amplifié audessus de 6000 Hz. Cependant les sujets appareillés avec un système BiCROS n’avaient pas tous de mauvaises capacités de localisation : MJM et SH (avec une perte auditive sur meilleure oreille) avaient des capacités de localisation plutôt bonnes. Ces résultats sont globalement en accord avec l’étude de 2014 qui démontre que la perte auditive sur les hautes fréquences affecte négativement les capacités de localisations pour tous les sujets20, même si cela n’a pas été observé pour tous les sujets dans l’étude. 2) Localisation sonore avec les systèmes CROS/ BiCROS et le prototype Il ne faut pas perdre de vue que comparer les résultats avec le prototype pour un sujet qui n’était pas appareillé et les résultats d’un sujet appareillé avec un système CROS/BiCROS n’est pas idéale. En effet le traitement de signal n’était pas le même et les patients appareillés portaient le système tous les jours depuis au moins un an alors que les sujets non appareillés portaient le prototype seulement pour le test. Cependant ici (graphique 11) c’est une vue d’ensemble qui est mise en évidence. Il est montré qu’avec les systèmes CROS/BiCROS et le prototype il y avait plus d’erreurs avant/arrière (graphique 11 D), ceci peut s’expliquer par deux phénomènes, le premier est le fait que l’embout de l’appareil auditif dans la meilleure oreille pouvait modifier les réflexions dues au pavillon qui fournissent 50 l'information principale pour lever les ambiguïtés avant/arrière. Le second phénomène est dû à la position des microphones, comme les microphones étaient situés sur la tempe les HRTF étaient modifiés, ainsi ce sont de pseudo HRTF de l’oreille sourde qui étaient transférés à la bonne oreille. Pour les patients appareillés avec un système BiCROS les HRTF de la meilleure oreille étaient aussi grandement modifiés car les microphones de l’appareil auditif étaient également au niveau de la tempe. Les sons étaient d’avantage localisés à l’avant avec les systèmes CROS/BiCROS qu’avec le prototype, ceci peut s’expliquer de par les modes microphoniques de l’appareil auditif et du système CROS non modifiés lors des tests et plus ou moins directionnels selon les patients. Il semble que plus la localisation dans la situation oreille nue était bonne, plus elle était dégradée avec un système CROS/BiCROS ou avec le prototype (tableau 5). Dans une étude de 1983, 22 enfants SSD ont été testés, sur ces 22 enfants 9 localisaient les stimulis hautes fréquences aussi bien que les NE. Un second test de localisation a été effectué avec un moule sur le pavillon de l’oreille saine afin de modifier les indices provenant du pavillon. Lors de ce second test les capacités de localisation des 9 enfants qui localisaient bien les stimuli hautes fréquences étaient plus affectées que celles du reste du groupe. Ceci suggère qu'une meilleure utilisation des informations du pavillon était à l’origine de performance supérieure38. De la même façon qu’un moule les systèmes CROS/BiCROS et le prototype modifient les indices spectraux engendrés par le pavillon. Comme indiqué précédemment, ceci est dû à l’embout dans la meilleure oreille et surtout à la position du microphone du système CROS et de l’appareil auditif ou du prototype. D’autre part les systèmes CROS/BiCROS apportaient un gain au son capté du côté sourd (si l’appareil était réglé comme les fabricants le préconisent, détail p14 et 16). En effet le signal capté en entrée de microphone du système CROS était délivrée à une intensité plus élevée en sortie d’écouteur de l’appareil auditif. Ainsi les systèmes CROS/ BiCROS éliminaient l’effet d’ombre de la tête, les patients ne pouvaient donc pas non plus s’appuyer sur cet indice avec l’appareil car un son provenant du côté sourd serait aussi, voir plus fort qu’un son provenant du côté entendant. De même le prototype de système CROS permettait au sujet tester d’entendre aussi bien un son qui provenait du côté sourd ou du côté entendant, il éliminait donc également l’effet d’ombre de la tête. Pour aller plus loin, les patients avec les meilleurs résultats de localisation avaient en majorité (cinq sur sept) décidé de ne pas garder un système CROS après un essai quelques années auparavant. Ils ont évoqué avoir été déstabilisé par l’essai et avoir perdu leurs repères auditifs. Ainsi les difficultés de localisation avec les appareils auditifs peuvent être un frein pour les patients SSD qui se sont le mieux adaptés à leur handicap. 51 LV est le seul sujet qui présentait une amélioration (graphique 12), bien que partielle, avec les systèmes CROS/BiCROS et prototype confondus, avec une erreur de localisation moyenne de 66,6°. Ce patient localisait mieux du côté sourd avec le prototype mais moins bien du côté entendant. Selon une étude certains patients adopteraient une stratégie de localisation basée sur la qualité sonore : si un bruit parait naturel il viendrait du côté de la bonne oreille alors qu’un son métallique serait jugé provenant du côté sourd1, pour ces patients la localisation pourrait être meilleure avec un système CROS. Pour les quatre sujets qui arrivaient à localiser du côté sourd dans la condition « oreille nue », la prothèse sur table (MD, LM, SB) ou le système BiCROS (MJM) empêchaient ces sujets de localiser les sons du côté sourd (graphiques 15, 17, 18 et 20). Le tableau 4 montre que la localisation était en moyenne un petit peu moins bonne avec le système BiCROS qu’avec le système CROS ou le prototype. Ceci peut s’expliquer par le fait que les HRTF de la meilleure oreille chez les sujets appareillés avec BiCROS étaient grandement modifié à cause de la position des microphones de l’aide auditive. De plus le signal sonore dans la meilleure oreille était un mélange de sons amplifiés par l’appareil auditif et de sons non amplifiés, dans cette situation le temps de retard survenant alors que le son passe à travers l'aide auditive peut se traduire par une différence de phase entre le son amplifié et non-amplifié et donc peut entrainer d’éventuelles distorsions. Une absence de corrélation entre la durée d'utilisation de l'appareil et les capacités de localisation est observée, toutefois les sujets étaient appareillés depuis 12 à 22 mois, cette durée est certainement trop courte pour en tirer des conclusions. 3) Limites de l’études La première limite est bien sûr le nombre de sujets participant à l’étude. Plusieurs audioprothésistes de la région ont accepté de consulter leur fichier patient à la recherche de candidats correspondant aux critères d'inclusions de l'étude, mais seul un centre est parvenu à trouver deux patients qui ont participé à l'étude, en plus des quinze patients de Monsieur JANTZEM. La seule solution pour avoir un nombre suffisant de patients appareillés en système CROS pur aurait été de faire l’étude à l’échelle nationale. Cependant au vu de la complexité de la mise en place de la salle de test ceci n’aurait pas pu être effectué durant la période de stage et avoir plusieurs salles acoustiquement identiques à disposition semble très difficile. Avoir un nombre de sujet suffisant aurait permis de faire une étude statistique. 52 Conclusion Pour conclure les résultats de cette étude indiquent que les capacités de localisation dans le plan horizontal des patients SSD sont pauvres. Les dernières technologies disponibles de système CROS ou BiCROS ne permettent pas d’améliorer la localisation et dans certains cas la détériorent. L’amplification apportée par l’appareil auditif empêche les sujets SSD d’utiliser les indices donnés par l’ombre de la tête. D'autre part, à cause de l’emplacement des microphones du CROS les HRTF sont modifiés ce sont donc de pseudo HRTF de l’oreille sourde qui sont transmis à l’autre oreille, les indices spectraux dus aux réflexions du son sur le pavillon sont donc modifiés. Enfin l’embout de l’appareil auditif obstrue le conduit auditif et donc modifie également les indices spectraux de l’oreille normo-entendante. Ainsi tous les patients utilisant ces indices voient leurs repères auditifs complètement modifiés lors du port de l’appareil auditif. En outre, tous les patients appareillés avec un système CROS se disent satisfaits avec leurs appareils dans de nombreuses situations d'écoute, même ceux pour lesquels la localisation est affectée négativement par l’appareil auditif. Ainsi les avantages qu’apporte ce système peuvent surpasser l’éventuel problème dû à la localisation. Cependant plus la perte auditive sur la meilleure oreille est faible plus les inconvénients du port de l’appareil risquent de prendre le pas sur les avantages. Il pourrait être intéressant d’effectuer un test de localisation à chaque patient avant de commencer l’essai d’un système CROS, de cette façon si les résultats sont plus ou moins bon il serait plus facile de donner aux malentendants les meilleurs conseils quant à son adaptation au système qui sera plus ou moins difficile. 53 4060- BM,d:screet™4060OmnidirectionalMicrophone,Hi-Sens Annexe 1 54 Annexe 2 55 Annexe 2 56 References bibliographiques 1 Van Wanrooij MM, Van Opstal AJ. Contribution of head shadow and pinna cues to chronic monaural sound localization. J Neurosci, 2004;24: 4163,4164–4170,4170-4171. 2 Bernaschina F. Localisation spatiale acoustique en milieu subaquatique. Université de Genève. 2013. 17. 3 Hirsh IJ. The relationship between localization and intelligibility. J Acoust Soc Am, 1950;22:196. 4 Noble W, Byrne D, Ter-Horst K. Auditory localization, detection of spatial separateness, and speech hearing in noise by hearing impaired listeners. J Acoust Soc Am, 1997;102:2343. 5 Venturi GB. Considérations sur la connaissance de l’étendue que nous donne le sens de l’ouïe. Magasin Encyclopédique; ou Journal des Sciences, des Lettres, et des Arts, 1796;3:29– 37. 6 Steinhauser A. The Theory of Binaural Audition : a Contribution to the Theory of Sound. Philos Mag, 1879;7:181–197. 7 Rayleigh LSJW. Our Perception of the Direction of a Source of Sound. Nature, 1876;7:32–33. 8 Thompson SP. On Binaural Audition. Philos Mag, 1877;4:274–276. 9 Thompson SP. Phenomena of Binaural Audition. Philos Mag, 1878;6:383–391. 10 Rayleigh LSJW. On our perception of sound direction. Philos Mag, 1907;13:214-232 11 Stevens SS, Newman EB. The localization of actual sources of sound. Am J Psychol, 1936 ;48:297-306. 12 Carlile S. Virtual Auditory Space: Generation and Applications. 2. 28. 1996. R.G. Landes Company. Austin. 13 Wiener FM, Ross DA. The Pressure distribution in the auditory canal in a progressive sound field. J Acoust Soc Am, 1946;18:401-408. 14 Stecker GC, Gallun FJ. Translational Perspectives in Auditory Neuroscience: Normal Aspects of Hearing. 14. 386. 2012. Plural Publishing. San Diego. 15 Shaw EA. Transformation of sound pressure level from the free field to the eardrum in the horizontal plane. J Acoust Soc Am, 1974;56:1120-1123. 16 Carlile S. Virtual Auditory Space: Generation and Applications. 2. 46,30. 1996. Neuroscience Intelligence Unit. Austin. 57 17 Otte RJ, Agterberg MJ, Van Wanrooij MM, Snik AF, Van Opstal AJ. Age-related hearing loss and ear morphology affect vertical but not horizontal sound-localization performance. J Assoc Res Otolaryngol, 2013;14:261. 18 Butler RA, Flannery R. The spatial attributes of stimulus frequency and their role in monaural localization of sound in the horizontal plane. Percept Psychophys, 1980;28 (5):449. 19 Petit C. Génétique physiologie cellulaire. 2011. p 256-257,265. Cours à l’académie des sciences. 20 Glendenning KK, Hutson KA. Lack of topography in the ventral nucleus of the lateral lemniscus. Microsc Res Tech, 1998;41:298-312. 21 Chase SM, Young ED. Cues for Sound Localization Are Encoded in Multiple Aspects of Spike Trains in the Inferior Colliculus. J Neurophysiol, 2008; 99 (4):1680-1682. 22 Angell JR, Fite W. Further observations on the monaural localization of sound. Psychol Rev, 1901a;8:449-458. 23 Angell JR, Fite W. The monaural localization of sound. Psychol Rev, 1901b;8:225-246. 24 Otte RJ, Agterberg MJ, Van Wanrooij MM, Snik AF, Van Opstal AJ. Age-related hearing loss and ear morphology affect vertical but not horizontal sound-localization performance. J Assoc Res Otolaryngol, 2013;14:261. 25 Agterberg MJ, Hol MK, Van Wanrooij MM, Van Opstal AJ, Snik AF. Single-sided deafness and directional hearing: contribution of spectral cues and high-frequency hearing loss in the hearing ear. Front Neurosci, 2014;188 (8): 3-6. 26 Scheffler K, Bilecen D, Schmid N, Tschopp K, Seelig J. Auditory cortical responses in hearing subjects and unilateral deaf patients as detected by fonctional magnetic resonance imaging. Cereb Cortex 1998;8:160-161 27 Ponton CW, Vasama J-P, Tremblay K, Khosla D, Kwong B, Don M. Plasticity in the adult human central auditory system : evidence from late- onset profound unilateral deafness. Hear Res, 2001;154:32. 28 Inagaki M, Tomita Y, Takashima S, Othani K, Andoh G, Takeshito K. Foncional and morphometrical maturation of the brainstem auditory pathway. Brain Dev, 1987;9:597. 29 Moore DR. Anatomy and physiology of binaural hearing. Audiologie, 1991;30:125. 30 Roikjer M. L’amélioration de l’intelligibilité de la parole avec WIDEX CROS. WIDEXPRESS, 2013;33:2-4. 31 Ryu NG, Moon IJ, Byun H, Jin SH, Park H, Jang KS, Cho YS. Clinical effectiveness of wireless CROS (contralateral routing of offside signals) hearing aids. Eur Arch Otorhinolaryngol. 2014:1 32 Oeding K, Valente M. Sentence recognition in noise and perceived benefit of noise reduction on the receiver and transmitter sides of a BICROS hearing aid. J Am Acad Audiol. 2013 ; 24(10):980. 58 33 Kuk F, Seper E, Lau C, Crose B, Korhonen P. Effects of Training on the Use of a Manual Microphone Shutoff on a BiCROS Device. J Am Acad Audiol. 2015;26(5):478. 34 Valente M. Strategies for Selecting and Verifying Hearing Aid Fittings. 9. 262, 263. 2002. Thieme. Niew York. 35 Myrthe K S Hol, Sylvia J W Kunst, Ad F M Snik, Cor W R J Cremers. Pilot study on the effectiveness of the conventional CROS, the transcranial CROS and the BAHA transcranial CROS in adults with unilateral inner ear deafness. Arch Oto-Rhino-Laryngol. 2009; 267(6):889 36 Hill SL 3rd, Marcus A, Digges EN, Gillman N, Silverstein H. Ear Nose Throat J. Assessment of patient satisfaction with various configurations of digital CROS and BiCROS hearing aids. Ear Nose Throat J. 2006;85(7):427. 37 Slattery III WH, Middlebrooks JC. Monaural sound localization: acute versus chronic unilateral impairment. Hear Res. 1994; 75:38. 38 Newton VE. Sound localisation in children with a severe unilateral hearing loss. Audiology, 1983;22(2):189. 59 Resume Les patients ayant une perte auditive unilatérale (SSD) ont des difficultés à entendre une conversation de leur côté sourd, à localiser les sons et à comprendre dans le bruit. Le système CROS a été élaboré pour améliorer les performances des personnes SSD. Le but de cette étude est d'évaluer l'efficacité du système CROS pour la localisation dans le plan horizontal des auditeurs SSD. Dix-sept sujets SSD ont été testés, dont trois appareillés avec un système CROS, six appareillés avec un système BiCROS et huit non appareillés. Un groupe de sujets normauxentendant ont été évalués pour la comparaison. Les tests évaluaient, à l’aide de huit hautparleurs, les capacités de localisation à 360° (8 positions testés) avec et sans système CROS ou BiCROS pour les patients appareillés, avec et sans le prototype de système CROS pour les patients non appareillés. Les patients SSD présentaient des résultats de localisation sonore pauvres, de plus de grandes différences interindividuelles ont été révélées. Ces patients s’appuient sur des indices créés par l’ombre de la tête, et/ou créés par les réflexions dues à l’oreille, ou aucun indice pour les sujets avec les plus mauvais résultats. Ces deux indices sont altérés par le port d’un appareil auditif. Dans cette étude, seul un patient présentait de meilleurs résultats avec l’appareil et donc semble avoir réussi à intégrer de nouveaux indices lors du port de l’appareil. Pour huit autres sujets les résultats de localisation n'ont pas été améliorés par les systèmes CROS, BiCROS ou du prototype et pour les huit derniers patients la localisation a été détériorée. 60