La cognition auditive et la perception de la parole 3.1.Le son et ses caractéristiques Le son suppose une énergie émettrice ainsi qu'un support à la grande différence des ondes électromagnétiques. Contrairement à la modalité visuelle, le son est quelque chose qui se déplace via un support matériel, généralement l'air (il peut y avoir d'autres types de support tel que l'eau). Il s'agit ici d'un phénomène mécanique: des ondes mécaniques nous parviennent grâce au déplacement des molécules d'air. Toute onde sonore se caractérise par deux paramètres 1) Amplitude: lié à la quantité de pression exercée sur le récepteur. Elle détermine l'impression d'intensité subjective d'un son. Ces variations de pression d'air sont traduites par le décibel. 2) Longueur d'onde: quelque part associée à des nuances de sons différents en terme de fréquence: deux ondes se distinguent en fonction de leur longueur d'onde. Un son de haute fréquence sera perçu comme aigu, et un son de basse fréquence sera perçu comme grave. La longueur d'onde est représentée en fonction de l'amplitude et du temps. Au plus la longueur d'onde est élevée, au plus la fréquence sera élevée. Ça va déterminer notre impression perceptive de hauteur du son. Elle se traduit en Hertz. L'oreille humaine peut percevoir des sons compris entre 20 et 20000HZ et a une meilleure sensibilité au centre de cette gamme. 3) Il y a un troisième paramètre qui peut intervenir: le décalage de phase. Deux ondes sonores peuvent présenter la même amplitude et la même fréquence, mais être en décalage de phase. Il existe des sons purs (une seule onde), qui n'existent pas dans notre environnement, et des sons complexes, qui sont composés d'une onde de base (fréquence fondamentale, F0) accompagnée d'une série d'autres ondes, appelées harmoniques. Ce sont les caractéristiques de ces harmoniques qui déterminent le timbre. 3.2.Bases neurologiques de l'audition 3.2.1. Description de l'appareil auditif Le pavillon permet de concentrer les ondes sonores dans l'appareil ou conduit auditif. Par exemple, lorsqu'on entend pas bien, on a tendance à agrandir la fonction du pavillon. Le tympan: les ondes sonores sont ensuite menées jusqu'à cette fine membrane. Le tympan se situe à la frontière entre oreille externe et oreille moyenne. L'oreille moyenne est composée de petits osselets: le marteau, l'enclume et l'étrier, qui est à proximité d'une autre membrane qui signe le passage entre oreille moyenne et oreille interne, et qui se nomme fenêtre ovale. Leur fonction principale semble avoir un rôle d'amplification des ondes sonores. L'oreille interne est composée de deux grandes structures: la cochlée et les canaux semi circulaires. Ils sont tous deux remplis de liquide, et la fonction des canaux semi circulaires est de donner des informations sur l'environnement. La cochlée est une spirale, composée d'une membrane interne qui flotte dans un liquide, c'est la membrane basilaire. A l'extrémité de ce circuit se trouve une autre membrane, qui sert de « sécurité », c'est la fenêtre ronde. La membrane basilaire est le siège des cellules réceptrices. Les ondes sonores se traduisent par des vibrations des molécules de l'air. En conséquence, le tympan émet un mouvement vibratoire, et ces ondes sont transmises et amplifiées par les osselets pour être transmis à la fenêtre ovale. Là, elles provoquent un mouvement du liquide se trouvant à l'intérieur de la cochlée. Sur la membrane basilaire se trouve toute une série de cellules, mais les plus importantes sont dites ciliées, qui se comptent au nombre de 15000, et qui sont situées sur la paroi externe de la membrane. Structurellement, elles sont coiffées d'un cil microscopique, qui se trouve baigné dans le liquide environnant. Elles traduisent l'activité mécanique en impulsion électrique. Les vibrations des molécules d'air vont donc se propager dans le liquide, provoquant son déplacement, et ces cellules vont le capter. Elles vont alors transmettre l'information vers d'autres cellules qui se rassemblent dans le nerf auditif. L'agencement de ces cellules réceptrices se trouvant sur la membrane basilaire n'est pas aléatoire, car les sons de haute fréquence vont venir exciter les régions basales, alors que les sons de basse fréquence viennent exciter la partie apicale. Après que l'activité mécanique soit transformée en impulsion électrique par les cellules ciliées, cette information sera acheminée par les axones vers le cortex cérébral, en passant par toute une série de structures. 3.2.2. Les voies auditives Le nerf auditif sort de la membrane basilaire et va rejoindre dans un premier temps les noyaux cochléaires. L'information va être relayée au niveau des noyaux olivaires. Il y a deux types de projection: 1) Certaines informations rejoignent les noyaux olivaires du même côté. 2) Certaines informations se croisent (pas en quantité égale). Par conséquent, ce que l'on perçoit au niveau de l'oreille droite va être envoyé dans l'hémisphère gauche et inversement. Des noyaux olivaires, l'information est relayée vers les colliculi supérieurs (qui sont proches de la structure du thalamus). On peut alors penser qu'ils auront un rôle dans les mécanismes attentionnels, ainsi que dans la localisation des bruits de l'environnement, sachant qu'il faut intégrer les informations visuelles et auditives. L'information est ensuite projetée vers les corps genouillés médians, puis dans les régions à la frontière du lobe temporal et pariétal: le cortex auditif primaire. Par rapport à l'amplitude et aux fréquences, on s'est rendu compte que l'organisation du cortex auditif n'était pas organisée de manière aléatoire, mais de façon tonotopique. La fréquence est représentée dans un axe parallèle à la surface du cortex auditif, tandis que l'amplitude est traduite par des réseaux de neurones spécialisés dans un agencement des plus basses amplitudes vers des plus hautes amplitudes dans la profondeur du tissu cortical. L'amplitude est représentée perpendiculairement. Cela laisse penser que le cortex auditif traite les informations en tenant compte de ces deux paramètres. 3.3.Le signal de la parole « Comment les sons de la parole sont-ils produits ? » Comme nous l'avons vu précédemment, produire les sons de la parole, c'est produire des vibrations des molécules d'air. Pour les sons de la parole, il y a une région du larynx très importante: les cordes vocales. L'air est projeté des poumons dans la trachée artère, acheminé dans le larynx, puis dans le pharynx, pour arriver dans la cavité buccale ou nasale. En plus des cordes vocales, il y a d'autres organes importants pour la phonation; la langue (la manière dont elle se module à l'intérieur de la cavité buccale par exemple), ainsi que l'ensemble de la cavité buccale qui va moduler les différents sons que nous pouvons produire. A notre naissance, nous sommes capables de produire une quantité de sons différents, mais cette habileté est amenée à se perdre: nous ne produisons plus que les sons des langues que nous avons acquises. Notre système perceptif se module en fonction des sons de l'environnement auxquels nous sommes confrontés. Phonétique et phonologie Phonétique: étude des sons de la parole en fonction de leur caractéristiques articulatoires (phonétique articulatoire, comment produire les sons) ou physiques (phonétique acoustique). On s'intéresse aux phones en général. Phonologie: relève plus de la linguistique, dans la mesure où les sons que nous produisons peuvent construire des mots et des entités signifiantes. Elle s'intéresse aux entités minimales signifiantes de la parole: les phonèmes. On passe dans un champ qui est du domaine de la signification, même si on s'intéresse aux entités minimales. Le phonème est l'unité de base de la parole. C'est la plus petite unité du signal qui véhicule une signification. Il suffit de changer un seul phonème dans un énoncé pour en changer la signification. La manière de prononcer les phonèmes varie en fonction de la façon d'articuler, du timbre de la voix, des différences entre homme et femme, du dialecte utilisé,... Cela amène à des différences dans la réalité acoustique, néanmoins, nous sommes assez performants pour aller au-delà de ces variations. Allophones: les différents phones qui correspondent à un même phonème. Lorsqu'on examine les phonèmes (les phonèmes étant une représentation abstraite), on remarque que ce sont des choses auxquelles le locuteur n'a pas accès directement. L'objectif que vise la perception, c'est d'aller au-delà de ces variations multiples, pour en extraire des choses pertinentes. Les phonèmes sont spécifiques de la langue. En outre des variations acoustiques possibles, ils sont caractérisés par des choses invariantes. Les voyelles et consonnes sont souvent classées en fonction de leurs propriétés articulatoires. Les voyelles Antériorité Aperture (degré d'ouverture de la cavité buccale) Labialité (lèvres arrondies ou pas) Nasalité (oui on non). Ces différents paramètres sont généralement représentés dans des triangles vocaliques, où différents paramètres acoustiques ou phonétiques sont représentés. De gauche à droite: voyelles dites antérieures, et à l'autre extrémité les postérieures. Axe vertical: degré d'aperture Pour les consonnes, il y a essentiellement deux paramètres articulatoires: 1) Le lieu d'articulation 2) Le mode d'articulation: certaines par occlusion, d'autres par modulation particulière des organes phonatoires. Les spectrogrammes: Les caractéristiques du signal sont analysées au moyen d'un spectrogramme. Il traduit graphiquement les variations d'intensité du signal en fonction de la fréquence (ordonnée) et du temps (abscisse). Par le spectrogramme, on remarque que les choses sont relativement continues, il y a très peu de silence. Il y a des concentrations d'énergie (les formants). En analysant ces concentrations dans le temps et en fonction de la fréquence, on va trouver une certain nombre de choses qui vont permettre de trouver des différences entre les phonèmes. En général, le spectrogramme est une représentation tridimensionnelle. Les formants (typiques du signal de parole) permettent de distinguer l'ensemble des voyelles F0: fondamentale Fréquence de F1: aperture, cavité pharyngale Fréquence de F2: antériorité, cavité buccale Fréquence de F3: labialité, cavité labiale => Les harmoniques 3.4.Les processus de segmentation Lorsqu'on examine le signal, on se rend compte qu'il n'y a pas de pause entre les mots, pas de silence pour indice pour le système perceptif. Chaque fois qu'il y a une occlusion, là il y a forcément une fermeture du conduit vocal. Comment arrivons nous à regrouper les sons de l'environnement ? A les localiser (à gauche, à droite, en haut, en bas,...). Attribuer à une même source sonore ce qui lui revient. On peut segmenter dans cet ensemble d'onde sonores ce qui émane d'une personne qui parle ou de plusieurs personnes qui parlent. On suppose que c'est dans ces représentations spectrographiques que le système perceptif va puiser des informations. Schéma: les syllabes partagent la même voyelle mais diffèrent par la consonne initiale. Premières: consonnées voisée. Deuxièmes: elles diffèrent par le lieu d'articulation Elles sont non voisées (on dit également « sourdes »). La transition du formant: pour « ba » et « pa », la transition se fait vers le bas, pour « da » et « ta », elle se redresse et pour « ga » et « ka », elle est en l'air. La transition du formant est un indice que le système perceptif peut exploiter. Le voisement est une concentration d'énergie acoustique et varie d'une langue à l'autre: Pour les consonnes voisées, il y a une petite différence d'intensité et un signal de prévoisement (c'est la petite bande présente juste avant la partition). C'est la libération de l'occlusion. Le délai de voisement (VOT) est l'indice principal du voisement. Il traduit l'idée qu'il y a un décalage dans le temps, une intervalle entre le relachement de l'air bloqué par le conduit vocal avant l'ouverture de la bouche et le déclenchement des vibrations des cordes vocales. Ce décalage peut être positif, négatif ou nul (synchronisation entre deux événements) Les consonnes occlusives sourdes (/p/) se caractérisent par des délais de voisement longs, les occlusives sonores (/b/) par des délais de voisement courts. La richesse des informations présentes dans le signal permet de résoudre les problèmes d'absence d'invariance et de linéarité dans le signal: 1) Absence d'invariance: grande variabilité présente dans le signal acoustique et qui dépend du contexte phonétique adjacent qui caractérise ces deux ou trois syllabes. Le signal qui correspond à une unité donnée n'est pas totalement invariant. Les transitions formantiques pointent vers quelque chose qui n'apparait pas dans le spectrogramme: c'est le site (ou locus). Puisque ces transitions formantiques reflètent et pointent vers le point d'émission, le système perceptif va se baser sur le site ou locus. Pour « da », « di » ou « du », la transition formantique au niveau du deuxième formant pointe vers 1800Hz. Le site ou locus résoud le problème d'absence d'invariance. Le degré d'encodage: certains phones sont plus encodés que d'autres, dès lors qu'ils dépendent du contexte phonétique adjacent. Les voyelles sont les plus stables, alors que les consonnes occlusives (à l'opposé) sont les plus sensibles à cette absence d'invariance. Entre les deux, les consonnes fricatives, où il n'y a pas de fermeture du conduit vocal à proprement parler, mais il y a modulation des organes phonatoires. L'énergie acoustique continue néanmoins à être libérée. 2) Absence de linéarité: le signal de parole est en réalité caractérisé par le fait que nous coarticulons les phonèmes successifs. Au moment où on commence à articuler un mot, et qu'en l'écoutant on entend trois sons successifs, dans le signal ces trois phonèmes successifs se recouvrent l'un l'autre. L'information relative à chaque phonème se trouve mélangée, enchevêtrée dans le signal. Pour certains, c'est un avantage pour le système perceptif: si il traite séquentiellement le signal, il a déjà de l'information sur ce qui précède et sur ce qui va suivre. 3.5.Les processus de catégorisation perceptive Notre système perceptif est également caractérisé par le fait qu'il développe rapidement un système optimal pour la catégorisation perceptive: c'est la perception catégorielle. Si on analyse un système acoustique, il y a des variations continues au niveau des différentes composantes, en termes de composition spectrale. Le système perceptif ne semble pas fonctionner comme cela: il a une manière de traiter les informations où il minimise le bruit en faveur de la qualité du signal. Perception catégorielle: on prend un contraste basé sur un trait phonétique (le lieu ou le mode d'articulation, le voisement,...). Pour le constraste Ba/Da, il y a une composition spectrale au niveau de F1 et de F2 qui est représentée sur les spectrogrammes. C'est la transition du second formant. Avec les outils dont on dispose, on peut créer entre le Ba et le Da toute une série de stimuli intermédiaires simplement en modifiant l'orientation de la transition de façon à créer un continuum acoustique. Avec ces stimuli, on réalise deux expériences qui mobilisent deux types de tâches particulières: 1) Une tâche d'identification: on présente les 11 stimuli créés de façon aléatoire à travers un casque, et le sujet doit identifier ce qu'il perçoit (est-ce un /ba/ ? Oui ou non). Dans le continuum acoustique (abscisse), à une extrémité il y a un vrai /ba/ et à l'autre un vrai /da/. Si on fonctionne à la manière d'un appareil acoustique qui analyse ces différences, on doit s'attendre à ce que l'identification du /ba/ soit maximale à une extrémité, puis de dégrade progressivement pour arriver à une performance totalement nulle. En réalité, nous catégorisons: la performance est au maximum pour les quatre premiers pas, et à l'autre extrémité du continuum, la performance est à 0%. Au milieu, il y a une grande chute, où les sujets répondent au hasard (50%): c'est la frontière catégorielle (entre le 5 et le 7), où la courbe d'identification chute brutalement d'un niveau d'identification optiam à un niveau d'identification nul. 2) Une tâche de discrimination: elle consiste à présenter deux stimuli de ce continuum acoustique (voir trois selon le paradigme). Le paradigme AX, qui est le plus utilisé, demande au sujet de dire si le second stimulus est identique au premier (est-ce que X=A ?). Le sujet doit donc discriminer entre les deux syllabes. La variante, le paradigme ABX, où on présente deux stimuli successifs identiques ou différents, puis le stimulus x, et le sujet doit dire si x est égal à A ou à B. En réalité, toutes les paires sont différentes. Aux extrémités du continuum, les sujets répondent au niveau du hasard (50%) et au centre, leur discrimination est optimale. (S5 à S7). La discrimination entre catégories est meillere que la discrimination à l'intérieur de ces catégories. L'idée que l'on disposerait d'un mécanisme de perception catégorielle a été utilisée à un niveau plus théorique, comme un argument en faveur d'un système inné. On possède dans notre bagage génétique d'un dispositif qui permet de catégoriser optimalement les sons de la parole. Cela a favorisé l'idée d'un module phonétique pour dégager les informations de manière abstraite. C'est en partie à relier avec une notion développée par les linguistiques, qui parlent d'un dispositif inné qui caractérise l'humain a pouvoir utiliser des formes de langage particulières. On naitrait avec un dispositif inné, puis l'environnement fait apparaitre la perception catégorielle. 3.6.Les processus de reconnaissance des mots Nous arrivons aux processus de haut niveau, aux mots. Si le système perceptif est si performant, il devrait pouvoir exploiter les capacités séquentielles du signal de la parole. « Comment le système perceptif exploite-t-il cela à son avantage ? » 3.6.1. Processus ascendants et descendants Comme pour la cognition visuelle, on suppose qu'il y a des processus automatiques. A un certain moment du traitement, il y a un appariement qui se fait avec les connaissances préalables. Il y a des arguments expérimentaux en faveur de l'idée que les traitements sont automatiques jusqu'à un certain stade. Le rôle des processus ascendants Il a été mis en évidence dans des travaux qui illustrent que le système utilise les traits présents dans les représentations phonétiques et/ou articulatoires. On utilise une matrice de confusion de phonèmes: lors d'une épreuve de discrimination, on ajoute du bruit, de façon à rendre l'écoute plus difficile. Dans des conditions d'écoute difficile, on confond davantage les consonnes qui ne se distinguent que par un seul trait phonétique que celles qui différent par plusieurs traits. Le rôle des processus descendants On exploite nos connaissances sur les mots. L'effet de restauration phonémique: lorsqu'on écoute quelqu'un, sa voix peut parfois être masquée par des bruits de l'environnement. Si on prend « législature », et qu'on remplace une partie du signal par une zone brouillée (du bruit blanc, plus du signal), les sujets ne sont en général absolument pas conscient qu'il y a un blanc dans le mot, ils entendent le mot en entier. 3.6.2. Rôle des informations visuo-spatiales On tient compte de l'information labiale. L'effet McGurk (McGurk & MacDonald) On entend un /bi/, mais la personne articule un /gi/. On a l'illusion perceptive crée par le fait d'une discordance entre information auditive et information visuo-spatiale. Il y a une erreur de fusion. Si on inverse (/bi/ visuellement et /gi/ auditivement), ça ne marche pas: le /bi/ est visuellement très saillant et le /gi/ est auditivement très saillant. Le phénomène de saillance perceptive intervient dans l'illusion. Cet effet illustre le fait que les processus de perception de la parole résultent de l'intégration des information auditives et visuo-spatiales fournies par la lecture labiale (erreurs de combinaison). 3.6.3. Modèles théoriques de la reconnaissance des mots Le système perceptif pourrait exploiter l'information séquentielle de manière optimale. 1) Le modèle de la cohorte: il propose un système de traits. Le signal arrive dans le temps: dès qu'on entend le début d'un signal acoustique, le modèle suppose qu'on active dans le dictionnaire interne tous les mots compatibles avec le début du signal, puis l'information se complète graduellement, et le nombre de candidats compatibles se réduit. Tout au long du signal, on désactive les informations non pertinentes. Dès qu'on entend la fin du signal, il n'y a plus qu'un mot correspondant comme candidat potentiel: c'est le point d'unicité. On a mis en évidence un effet de ce point d'unicité en comparant des mots avec des points d'unicité précoces ou tardifs. Les mots présentant un point d'unicité précoce sont reconnus plus vite dans les tâches. Ce modèle présente un certain nombre d'insuffisance: si un phonème est mal prononcé (d'où l'effet de restauration phonémique), le modèle dans sa conception ne permettra pas d'identifier le mot, puisqu'il fonctionne de manière séquentielle. Il est également en difficulté lorsque les mots sont enchassés. Il permet d'expliquer les effets de contexte « antérieurs » mais pas « postérieurs » sur le mot en cours de traitement. 2) Le modèle TRACE: il rend mieux compte des processus descendants qui permettent de compenser des faiblesses au niveau du signal. C'est un modèle connexionniste et qui exploite la dimension temporelle. Le signal est traité au fur et à mesure où il arive et active un réseau d'unicité (modèle computationnel): si signal acoustique est d'abord traité au niveau acoustique selon un processus essentiellement bottom up. Ensuite sont activés les phonèmes (segmentation), où le réseau fonctionne de manière interactive. Nos connaissances vont pouvoir compenser des lacunes au niveau du traitement des phonèmes. Ce modèle est extremement lourd car tout le réseau doit être reproduit à chaque fois. 3.6.4. L'approche de la neuropsychologie cognitive Les neuropsychologues se basent sur certains modèles plus théoriques. Le modèle de Ellis & Young Une partie de l'organisation du langage est impliquée dans le reconnaissance et la production des mots. Ce modèle détaille surtour les aspects lexicaux. Quand une information nous arrive auditivement, le modèle prévoit qu'il y a un système d'analyse auditive: tous les processus de bas niveau fonctionnent plutôt sous bottom up. Une fois que ces traitement de bas niveau sont réalisés, il faut reconnaitre les mots. Les neuropsychologues se basent sur des modèles plus lexicaux: le dictionnaire interne (cet ensemble de connaissances que nous avons sur les mots qui composent notre lexique mental). Le lexique phonologique d'entrée: représentation abstraite pour chaque mot connu. Système sémantique Le lexique phonologique de sortie: permet d'accéder aux phonèmes, à leur nature,... L'idée est que lorsqu'on produit des mots, on part du système sémantique et on va trouver les formes phonologiques des mots pour ensuite les prononcer. Quand on est amené à reconnaitre un mot, on suppose qu'on analyse auditivement le signal, pour ensuite accéder, si le mot est connu, à une entrée dans le lexique phonologique d'entrée, qui nous amènera au système sémantique. On reconnait seulement les mots pour lesquels on a des représentations en mémoire. La voie 2 courcircuite; on peut passer du lexique phonologique d'entrée au lexique phonologique de sortie sans passer par la voie sémantique. En résumé La reconnaissance d'un mot parlé implique: 1) Le traitement initial par un système d'analyse auditive. 2) L'appariement avec l'unité correspondante dans un lexique phonologique d'entrée. 3) L'activation de cette unité entraine l'activation de la représentation de la signification du mot dans le système sémantique. 4) Des connexions bidirectionnelles entre lexiques d'entrée et système sémantique. La répétition d'un mot entendu peut avoir lieu de trois manières: 1) Soit par la voie sémantique 2) Soit en courcircuitant le système sémantique (voie 2) 3) Soit en courcircuitant les deux lexiques (voie 3). Il y a un certain nombre de patients décrits qui présentent des troubles relativement spécifiques au niveau de la compréhension des mots. 1) Surdité de signification Grande difficulté à comprendre la parole, mais peut répéter correctement les mots et non mots présentés ainsi qu'écrire des mots dictés. Une fois le mot écrit, le patient accède à la signification. Il y a une rupture de connexion entre le lexique phonologique d'entrée et le système sémantique: le lexique phonologique d'entrée (ainsi que de sortie) fonctionne, puisqu'il peut répéter et écrire des mots, mais c'est l'accès à la signification qui pose problème. On suppose que la voie 3 fonctionne puisqu'il peut répéter les noms mots. 2) Agnosie phonologique auditive Tout le système lexical semble fonctionner normalement. La difficulté se trouve au niveau de la voie 3: le patient est incapable de pouvoir répéter des non mots ou des mots peu fréquents. La parole spontanée est normale et l'écriture est préservée. Hypothèse: déficit au niveau de la voie 3, problème lié à la mémorisation d'information nouvelle et difficulté de se recréer un réseau lexical pour les nouveaux items. 3) Dysphasie profonde Le patient ne sait pas répéter les non mots (déficit de la voie 3) et commet des erreurs sémantiques en répétition de mots (chaise --> table). Problème au niveau de la représentation semantique: la patient est meilleur pour comprendre des mots concret que abstraits, et est meilleur pour comprendre les mots abstraits que les mots de fonctions. Il y a un déficit syntaxique: la voie 1 ainsi que la voie 2 sont perturbées, et il y a une altération au niveau sémantique. Il y a également un problème de compréhension au niveau du langage. 4) Problèmes d'accès à des catégories sémantiques spécifiques Atteintes sélectives du système sémantique: s'apparente au cas de surdité de signification limitée à certaines catégories sémantiques. Difficulté de compréhension pour les noms d'objets inanimés. Il y a donc des problèmes d'accès à certaines représentations sémantiques, qui sont intactes car si on interroge le patient sur certains aspects, il témoigne qu'il a la signification en mémoire. 3.7.Les troubles de la compréhension et de la production de la parole Ce sont des troubles beaucoup plus généraux du langage. Les aphasies L'aphasie n'est pas seulement un trouble qui concerne le langage, car les zones du langage au niveau cérébral sont proches d'autres zones (la motricité par exemple): c'est pour cela que lorsqu'une personne a un trouble au niveau du langage, elle peut également avoir des problèmes de motricité. Les aphasies sont multiples: la nature et la gravité des symptômes peuvent varier considérablement selon la localisation et l'étendue des atteintes cérébrales. Elles sont généralement localisées dans l'hémisphère gauche, où chez le sujet droitier s'effectuent les traitements linguistiques. L'étiologie peut également être multiple, mais l'accident vasculaire cérébral est une des causes les plus fréquentes. Ces troubles du langage peuvent concerner les troubles du langage écrit, en plus de toucher la sphère orale. Il existe des classifications historiques, mais elles ne doivent pas masquer l'hétérogénéité des troubles. Elles permettent d'avoir des repères par classification. L'approche classique en aphasiologie était essentiellement localisationniste: la description des principaux symptômes était mise en relation directe avec la localisation des lésions observées chez les patients. Exemple: le modèle de Wernicke et Lichteim. La classification des aphasies qui a découlé de cette approche se fondait généralement sur des dichotomies: Aphasies non-fluentes (expressives): les patients n'arrivent pas à prononcer les mots au point de devenir muets. Broca Transcorticale motrice Globale Aphasies fluentes (réceptives): quelqu'un qui s'exprime avec un certain débit, plus ou moins normal, et qui ne cherche pas ses mots à tout moment. Il y a un problème au niveau du langage. Wernicke Transcorticale sensorielle Conduction Anatomique L'aphasie de Broca L'aphasie de Broca est caractérisée par un « manque du mot » permanent: les patients n'arrivent pas à retrouver leurs mots. Lorsqu'ils arrivent à en trouver, leurs énoncés seront courts (énonciation télégraphique), ou des mots manqueront (surtout ceux de fonction, agrammatisme). La prosodie sera affectée par ce manque de mot. La compréhension du langage et la répétition sont relativement préservées. Aphasie de Wernicke Dans cette aphasie, ce sera surtout la compréhension du langage qui posera problème. Néanmoins, ces personnes sont très loquaces mais tiennent souvent des propos incohérents (jargonaphasie). Les paraphasies sont nombreuses (sémantique, phonologie, néologismes,...). Ces personnes sont en général inconscientes de leur trouble (anosognosie). Aphasie transcorticale motrice Elle s'apparente aux deux aphasies précédentes. Elle est similaire à l'aphasie de Broca, mais la répétition est préservée. Aphasie transcorticale sensorielle Elle est comparable à l'aphasie de Wernicke, mais la répétition est préservée. Aphasie de conduction L'atteinte concerne principalement le faisceau arqué qui établit des connexions entre les aires de Broca et de Wernicke. Le déficit de répétition est particulièrement saillant, alors que la compréhension et la fluence sont relativement préservées. Il y a des paraphasies fréquentes en dénomination. Aphasie anomique (ou anomie) Difficulté à denommer certains noms, alors que la compréhension, la répétition et la fluence sont relativement préservées. Aphasie globale Atteintes massives de l'hémisphère gauche et toutes les compétences langagières sont altérées. 3.8.Conclusions