Voir

publicité
La cognition auditive et la perception de la parole
3.1.Le son et ses caractéristiques
Le son suppose une énergie émettrice ainsi qu'un support à la grande différence des ondes
électromagnétiques. Contrairement à la modalité visuelle, le son est quelque chose qui se déplace
via un support matériel, généralement l'air (il peut y avoir d'autres types de support tel que l'eau).
Il s'agit ici d'un phénomène mécanique: des ondes mécaniques nous parviennent grâce au
déplacement des molécules d'air.
Toute onde sonore se caractérise par deux paramètres
1) Amplitude: lié à la quantité de pression exercée sur le récepteur. Elle détermine l'impression
d'intensité subjective d'un son. Ces variations de pression d'air sont traduites par le décibel.
2) Longueur d'onde: quelque part associée à des nuances de sons différents en terme de
fréquence: deux ondes se distinguent en fonction de leur longueur d'onde. Un son de haute
fréquence sera perçu comme aigu, et un son de basse fréquence sera perçu comme grave. La
longueur d'onde est représentée en fonction de l'amplitude et du temps. Au plus la longueur
d'onde est élevée, au plus la fréquence sera élevée. Ça va déterminer notre impression
perceptive de hauteur du son. Elle se traduit en Hertz. L'oreille humaine peut percevoir des
sons compris entre 20 et 20000HZ et a une meilleure sensibilité au centre de cette gamme.
3) Il y a un troisième paramètre qui peut intervenir: le décalage de phase. Deux ondes sonores
peuvent présenter la même amplitude et la même fréquence, mais être en décalage de phase.
Il existe des sons purs (une seule onde), qui n'existent pas dans notre environnement, et des sons
complexes, qui sont composés d'une onde de base (fréquence fondamentale, F0) accompagnée d'une
série d'autres ondes, appelées harmoniques.
Ce sont les caractéristiques de ces harmoniques qui déterminent le timbre.
3.2.Bases neurologiques de l'audition
3.2.1. Description de l'appareil auditif
 Le pavillon permet de concentrer les ondes sonores dans l'appareil ou conduit auditif. Par
exemple, lorsqu'on entend pas bien, on a tendance à agrandir la fonction du pavillon.
 Le tympan: les ondes sonores sont ensuite menées jusqu'à cette fine membrane. Le tympan
se situe à la frontière entre oreille externe et oreille moyenne.
 L'oreille moyenne est composée de petits osselets: le marteau, l'enclume et l'étrier, qui est à
proximité d'une autre membrane qui signe le passage entre oreille moyenne et oreille
interne, et qui se nomme fenêtre ovale. Leur fonction principale semble avoir un rôle
d'amplification des ondes sonores.
 L'oreille interne est composée de deux grandes structures: la cochlée et les canaux semi
circulaires. Ils sont tous deux remplis de liquide, et la fonction des canaux semi circulaires
est de donner des informations sur l'environnement.
La cochlée est une spirale, composée d'une membrane interne qui flotte dans un liquide, c'est la
membrane basilaire. A l'extrémité de ce circuit se trouve une autre membrane, qui sert de
« sécurité », c'est la fenêtre ronde. La membrane basilaire est le siège des cellules réceptrices.
Les ondes sonores se traduisent par des vibrations des molécules de l'air. En conséquence, le
tympan émet un mouvement vibratoire, et ces ondes sont transmises et amplifiées par les osselets
pour être transmis à la fenêtre ovale. Là, elles provoquent un mouvement du liquide se trouvant à
l'intérieur de la cochlée. Sur la membrane basilaire se trouve toute une série de cellules, mais les
plus importantes sont dites ciliées, qui se comptent au nombre de 15000, et qui sont situées sur la
paroi externe de la membrane. Structurellement, elles sont coiffées d'un cil microscopique, qui se
trouve baigné dans le liquide environnant. Elles traduisent l'activité mécanique en impulsion
électrique.
Les vibrations des molécules d'air vont donc se propager dans le liquide, provoquant son
déplacement, et ces cellules vont le capter. Elles vont alors transmettre l'information vers d'autres
cellules qui se rassemblent dans le nerf auditif.
L'agencement de ces cellules réceptrices se trouvant sur la membrane basilaire n'est pas aléatoire,
car les sons de haute fréquence vont venir exciter les régions basales, alors que les sons de basse
fréquence viennent exciter la partie apicale.
Après que l'activité mécanique soit transformée en impulsion électrique par les cellules ciliées, cette
information sera acheminée par les axones vers le cortex cérébral, en passant par toute une série de
structures.
3.2.2. Les voies auditives
Le nerf auditif sort de la membrane basilaire et va rejoindre dans un premier temps les noyaux
cochléaires. L'information va être relayée au niveau des noyaux olivaires.
Il y a deux types de projection:
1) Certaines informations rejoignent les noyaux olivaires du même côté.
2) Certaines informations se croisent (pas en quantité égale).
Par conséquent, ce que l'on perçoit au niveau de l'oreille droite va être envoyé dans l'hémisphère
gauche et inversement.
Des noyaux olivaires, l'information est relayée vers les colliculi supérieurs (qui sont proches de la
structure du thalamus). On peut alors penser qu'ils auront un rôle dans les mécanismes attentionnels,
ainsi que dans la localisation des bruits de l'environnement, sachant qu'il faut intégrer les
informations visuelles et auditives.
L'information est ensuite projetée vers les corps genouillés médians, puis dans les régions à la
frontière du lobe temporal et pariétal: le cortex auditif primaire.
Par rapport à l'amplitude et aux fréquences, on s'est rendu compte que l'organisation du cortex
auditif n'était pas organisée de manière aléatoire, mais de façon tonotopique.
La fréquence est représentée dans un axe parallèle à la surface du cortex auditif, tandis que
l'amplitude est traduite par des réseaux de neurones spécialisés dans un agencement des plus basses
amplitudes vers des plus hautes amplitudes dans la profondeur du tissu cortical. L'amplitude est
représentée perpendiculairement.
Cela laisse penser que le cortex auditif traite les informations en tenant compte de ces deux
paramètres.
3.3.Le signal de la parole
« Comment les sons de la parole sont-ils produits ? »
Comme nous l'avons vu précédemment, produire les sons de la parole, c'est produire des vibrations
des molécules d'air.
Pour les sons de la parole, il y a une région du larynx très importante: les cordes vocales. L'air est
projeté des poumons dans la trachée artère, acheminé dans le larynx, puis dans le pharynx, pour
arriver dans la cavité buccale ou nasale.
En plus des cordes vocales, il y a d'autres organes importants pour la phonation; la langue (la
manière dont elle se module à l'intérieur de la cavité buccale par exemple), ainsi que l'ensemble de
la cavité buccale qui va moduler les différents sons que nous pouvons produire.
A notre naissance, nous sommes capables de produire une quantité de sons différents, mais cette
habileté est amenée à se perdre: nous ne produisons plus que les sons des langues que nous avons
acquises. Notre système perceptif se module en fonction des sons de l'environnement auxquels nous
sommes confrontés.
Phonétique et phonologie
 Phonétique: étude des sons de la parole en fonction de leur caractéristiques articulatoires
(phonétique articulatoire, comment produire les sons) ou physiques (phonétique acoustique).
On s'intéresse aux phones en général.
 Phonologie: relève plus de la linguistique, dans la mesure où les sons que nous produisons
peuvent construire des mots et des entités signifiantes. Elle s'intéresse aux entités minimales
signifiantes de la parole: les phonèmes. On passe dans un champ qui est du domaine de la
signification, même si on s'intéresse aux entités minimales.
Le phonème est l'unité de base de la parole. C'est la plus petite unité du signal qui véhicule une
signification. Il suffit de changer un seul phonème dans un énoncé pour en changer la signification.
La manière de prononcer les phonèmes varie en fonction de la façon d'articuler, du timbre de la
voix, des différences entre homme et femme, du dialecte utilisé,... Cela amène à des différences
dans la réalité acoustique, néanmoins, nous sommes assez performants pour aller au-delà de ces
variations.
Allophones: les différents phones qui correspondent à un même phonème.
Lorsqu'on examine les phonèmes (les phonèmes étant une représentation abstraite), on remarque
que ce sont des choses auxquelles le locuteur n'a pas accès directement. L'objectif que vise la
perception, c'est d'aller au-delà de ces variations multiples, pour en extraire des choses pertinentes.
Les phonèmes sont spécifiques de la langue. En outre des variations acoustiques possibles, ils sont
caractérisés par des choses invariantes.
Les voyelles et consonnes sont souvent classées en fonction de leurs propriétés articulatoires.
Les voyelles
 Antériorité
 Aperture (degré d'ouverture de la cavité buccale)
 Labialité (lèvres arrondies ou pas)
 Nasalité (oui on non).
Ces différents paramètres sont généralement représentés dans des triangles vocaliques, où différents
paramètres acoustiques ou phonétiques sont représentés.
 De gauche à droite: voyelles dites antérieures, et à l'autre extrémité les postérieures.
 Axe vertical: degré d'aperture
Pour les consonnes, il y a essentiellement deux paramètres articulatoires:
1) Le lieu d'articulation
2) Le mode d'articulation: certaines par occlusion, d'autres par modulation particulière des
organes phonatoires.
Les spectrogrammes:
 Les caractéristiques du signal sont analysées au moyen d'un spectrogramme.
 Il traduit graphiquement les variations d'intensité du signal en fonction de la fréquence
(ordonnée) et du temps (abscisse).
Par le spectrogramme, on remarque que les choses sont relativement continues, il y a très peu de
silence. Il y a des concentrations d'énergie (les formants). En analysant ces concentrations dans le
temps et en fonction de la fréquence, on va trouver une certain nombre de choses qui vont permettre
de trouver des différences entre les phonèmes.
En général, le spectrogramme est une représentation tridimensionnelle.
Les formants (typiques du signal de parole) permettent de distinguer l'ensemble des voyelles
 F0: fondamentale
 Fréquence de F1: aperture, cavité pharyngale
 Fréquence de F2: antériorité, cavité buccale
 Fréquence de F3: labialité, cavité labiale
=> Les harmoniques
3.4.Les processus de segmentation
Lorsqu'on examine le signal, on se rend compte qu'il n'y a pas de pause entre les mots, pas de
silence pour indice pour le système perceptif.
Chaque fois qu'il y a une occlusion, là il y a forcément une fermeture du conduit vocal.
Comment arrivons nous à regrouper les sons de l'environnement ? A les localiser (à gauche, à
droite, en haut, en bas,...). Attribuer à une même source sonore ce qui lui revient. On peut segmenter
dans cet ensemble d'onde sonores ce qui émane d'une personne qui parle ou de plusieurs personnes
qui parlent.
On suppose que c'est dans ces représentations spectrographiques que le système perceptif va puiser
des informations.
Schéma: les syllabes partagent la même voyelle mais diffèrent par la consonne initiale.
 Premières: consonnées voisée.
 Deuxièmes: elles diffèrent par le lieu d'articulation Elles sont non voisées (on dit également
« sourdes »).
La transition du formant: pour « ba » et « pa », la transition se fait vers le bas, pour « da » et « ta »,
elle se redresse et pour « ga » et « ka », elle est en l'air.
La transition du formant est un indice que le système perceptif peut exploiter.
Le voisement est une concentration d'énergie acoustique et varie d'une langue à l'autre:
 Pour les consonnes voisées, il y a une petite différence d'intensité et un signal de
prévoisement (c'est la petite bande présente juste avant la partition). C'est la libération de
l'occlusion.
Le délai de voisement (VOT) est l'indice principal du voisement. Il traduit l'idée qu'il y a un
décalage dans le temps, une intervalle entre le relachement de l'air bloqué par le conduit vocal avant
l'ouverture de la bouche et le déclenchement des vibrations des cordes vocales. Ce décalage peut
être positif, négatif ou nul (synchronisation entre deux événements)
Les consonnes occlusives sourdes (/p/) se caractérisent par des délais de voisement longs, les
occlusives sonores (/b/) par des délais de voisement courts.
La richesse des informations présentes dans le signal permet de résoudre les problèmes d'absence
d'invariance et de linéarité dans le signal:
1) Absence d'invariance: grande variabilité présente dans le signal acoustique et qui dépend du
contexte phonétique adjacent qui caractérise ces deux ou trois syllabes. Le signal qui
correspond à une unité donnée n'est pas totalement invariant.
 Les transitions formantiques pointent vers quelque chose qui n'apparait pas dans le
spectrogramme: c'est le site (ou locus). Puisque ces transitions formantiques reflètent
et pointent vers le point d'émission, le système perceptif va se baser sur le site ou
locus. Pour « da », « di » ou « du », la transition formantique au niveau du deuxième
formant pointe vers 1800Hz. Le site ou locus résoud le problème d'absence

d'invariance.
Le degré d'encodage: certains phones sont plus encodés que d'autres, dès lors qu'ils
dépendent du contexte phonétique adjacent. Les voyelles sont les plus stables, alors
que les consonnes occlusives (à l'opposé) sont les plus sensibles à cette absence
d'invariance. Entre les deux, les consonnes fricatives, où il n'y a pas de fermeture du
conduit vocal à proprement parler, mais il y a modulation des organes phonatoires.
L'énergie acoustique continue néanmoins à être libérée.
2) Absence de linéarité: le signal de parole est en réalité caractérisé par le fait que nous coarticulons les phonèmes successifs. Au moment où on commence à articuler un mot, et qu'en
l'écoutant on entend trois sons successifs, dans le signal ces trois phonèmes successifs se
recouvrent l'un l'autre. L'information relative à chaque phonème se trouve mélangée,
enchevêtrée dans le signal. Pour certains, c'est un avantage pour le système perceptif: si il
traite séquentiellement le signal, il a déjà de l'information sur ce qui précède et sur ce qui va
suivre.
3.5.Les processus de catégorisation perceptive
Notre système perceptif est également caractérisé par le fait qu'il développe rapidement un système
optimal pour la catégorisation perceptive: c'est la perception catégorielle.
Si on analyse un système acoustique, il y a des variations continues au niveau des différentes
composantes, en termes de composition spectrale. Le système perceptif ne semble pas fonctionner
comme cela: il a une manière de traiter les informations où il minimise le bruit en faveur de la
qualité du signal.
Perception catégorielle: on prend un contraste basé sur un trait phonétique (le lieu ou le mode
d'articulation, le voisement,...). Pour le constraste Ba/Da, il y a une composition spectrale au niveau
de F1 et de F2 qui est représentée sur les spectrogrammes. C'est la transition du second formant.
Avec les outils dont on dispose, on peut créer entre le Ba et le Da toute une série de stimuli
intermédiaires simplement en modifiant l'orientation de la transition de façon à créer un continuum
acoustique.
Avec ces stimuli, on réalise deux expériences qui mobilisent deux types de tâches particulières:
1) Une tâche d'identification: on présente les 11 stimuli créés de façon aléatoire à travers un
casque, et le sujet doit identifier ce qu'il perçoit (est-ce un /ba/ ? Oui ou non). Dans le
continuum acoustique (abscisse), à une extrémité il y a un vrai /ba/ et à l'autre un vrai /da/.
Si on fonctionne à la manière d'un appareil acoustique qui analyse ces différences, on doit
s'attendre à ce que l'identification du /ba/ soit maximale à une extrémité, puis de dégrade
progressivement pour arriver à une performance totalement nulle. En réalité, nous
catégorisons: la performance est au maximum pour les quatre premiers pas, et à l'autre
extrémité du continuum, la performance est à 0%. Au milieu, il y a une grande chute, où les
sujets répondent au hasard (50%): c'est la frontière catégorielle (entre le 5 et le 7), où la
courbe d'identification chute brutalement d'un niveau d'identification optiam à un niveau
d'identification nul.
2) Une tâche de discrimination: elle consiste à présenter deux stimuli de ce continuum
acoustique (voir trois selon le paradigme). Le paradigme AX, qui est le plus utilisé, demande
au sujet de dire si le second stimulus est identique au premier (est-ce que X=A ?). Le sujet
doit donc discriminer entre les deux syllabes. La variante, le paradigme ABX, où on
présente deux stimuli successifs identiques ou différents, puis le stimulus x, et le sujet doit
dire si x est égal à A ou à B. En réalité, toutes les paires sont différentes. Aux extrémités du
continuum, les sujets répondent au niveau du hasard (50%) et au centre, leur discrimination
est optimale. (S5 à S7). La discrimination entre catégories est meillere que la discrimination
à l'intérieur de ces catégories.
L'idée que l'on disposerait d'un mécanisme de perception catégorielle a été utilisée à un niveau plus
théorique, comme un argument en faveur d'un système inné. On possède dans notre bagage
génétique d'un dispositif qui permet de catégoriser optimalement les sons de la parole. Cela a
favorisé l'idée d'un module phonétique pour dégager les informations de manière abstraite. C'est en
partie à relier avec une notion développée par les linguistiques, qui parlent d'un dispositif inné qui
caractérise l'humain a pouvoir utiliser des formes de langage particulières.
On naitrait avec un dispositif inné, puis l'environnement fait apparaitre la perception catégorielle.
3.6.Les processus de reconnaissance des mots
Nous arrivons aux processus de haut niveau, aux mots. Si le système perceptif est si performant, il
devrait pouvoir exploiter les capacités séquentielles du signal de la parole.
« Comment le système perceptif exploite-t-il cela à son avantage ? »
3.6.1.
Processus ascendants et descendants
Comme pour la cognition visuelle, on suppose qu'il y a des processus automatiques. A un certain
moment du traitement, il y a un appariement qui se fait avec les connaissances préalables.
Il y a des arguments expérimentaux en faveur de l'idée que les traitements sont automatiques jusqu'à
un certain stade.
Le rôle des processus ascendants
Il a été mis en évidence dans des travaux qui illustrent que le système utilise les traits présents dans
les représentations phonétiques et/ou articulatoires.
On utilise une matrice de confusion de phonèmes: lors d'une épreuve de discrimination, on ajoute
du bruit, de façon à rendre l'écoute plus difficile. Dans des conditions d'écoute difficile, on confond
davantage les consonnes qui ne se distinguent que par un seul trait phonétique que celles qui
différent par plusieurs traits.
Le rôle des processus descendants
On exploite nos connaissances sur les mots.
L'effet de restauration phonémique: lorsqu'on écoute quelqu'un, sa voix peut parfois être masquée
par des bruits de l'environnement. Si on prend « législature », et qu'on remplace une partie du signal
par une zone brouillée (du bruit blanc, plus du signal), les sujets ne sont en général absolument pas
conscient qu'il y a un blanc dans le mot, ils entendent le mot en entier.
3.6.2.
Rôle des informations visuo-spatiales
On tient compte de l'information labiale.
L'effet McGurk (McGurk & MacDonald)
On entend un /bi/, mais la personne articule un /gi/. On a l'illusion perceptive crée par le fait d'une
discordance entre information auditive et information visuo-spatiale. Il y a une erreur de fusion.
Si on inverse (/bi/ visuellement et /gi/ auditivement), ça ne marche pas: le /bi/ est visuellement très
saillant et le /gi/ est auditivement très saillant. Le phénomène de saillance perceptive intervient dans
l'illusion.
Cet effet illustre le fait que les processus de perception de la parole résultent de l'intégration des
information auditives et visuo-spatiales fournies par la lecture labiale (erreurs de combinaison).
3.6.3.
Modèles théoriques de la reconnaissance des mots
Le système perceptif pourrait exploiter l'information séquentielle de manière optimale.
1) Le modèle de la cohorte: il propose un système de traits. Le signal arrive dans le temps: dès
qu'on entend le début d'un signal acoustique, le modèle suppose qu'on active dans le
dictionnaire interne tous les mots compatibles avec le début du signal, puis l'information se
complète graduellement, et le nombre de candidats compatibles se réduit. Tout au long du
signal, on désactive les informations non pertinentes. Dès qu'on entend la fin du signal, il n'y
a plus qu'un mot correspondant comme candidat potentiel: c'est le point d'unicité. On a mis
en évidence un effet de ce point d'unicité en comparant des mots avec des points d'unicité
précoces ou tardifs. Les mots présentant un point d'unicité précoce sont reconnus plus vite
dans les tâches.
 Ce modèle présente un certain nombre d'insuffisance: si un phonème est mal
prononcé (d'où l'effet de restauration phonémique), le modèle dans sa conception ne
permettra pas d'identifier le mot, puisqu'il fonctionne de manière séquentielle. Il est
également en difficulté lorsque les mots sont enchassés.
 Il permet d'expliquer les effets de contexte « antérieurs » mais pas « postérieurs » sur
le mot en cours de traitement.
2) Le modèle TRACE: il rend mieux compte des processus descendants qui permettent de
compenser des faiblesses au niveau du signal. C'est un modèle connexionniste et qui
exploite la dimension temporelle. Le signal est traité au fur et à mesure où il arive et active
un réseau d'unicité (modèle computationnel): si signal acoustique est d'abord traité au niveau
acoustique selon un processus essentiellement bottom up. Ensuite sont activés les phonèmes
(segmentation), où le réseau fonctionne de manière interactive. Nos connaissances vont
pouvoir compenser des lacunes au niveau du traitement des phonèmes.
 Ce modèle est extremement lourd car tout le réseau doit être reproduit à chaque fois.
3.6.4.
L'approche de la neuropsychologie cognitive
Les neuropsychologues se basent sur certains modèles plus théoriques.
Le modèle de Ellis & Young
Une partie de l'organisation du langage est impliquée dans le reconnaissance et la production des
mots. Ce modèle détaille surtour les aspects lexicaux.
Quand une information nous arrive auditivement, le modèle prévoit qu'il y a un système d'analyse
auditive: tous les processus de bas niveau fonctionnent plutôt sous bottom up. Une fois que ces
traitement de bas niveau sont réalisés, il faut reconnaitre les mots.
Les neuropsychologues se basent sur des modèles plus lexicaux: le dictionnaire interne (cet
ensemble de connaissances que nous avons sur les mots qui composent notre lexique mental).
 Le lexique phonologique d'entrée: représentation abstraite pour chaque mot connu.
 Système sémantique
 Le lexique phonologique de sortie: permet d'accéder aux phonèmes, à leur nature,...
L'idée est que lorsqu'on produit des mots, on part du système sémantique et on va trouver les formes
phonologiques des mots pour ensuite les prononcer.
Quand on est amené à reconnaitre un mot, on suppose qu'on analyse auditivement le signal, pour
ensuite accéder, si le mot est connu, à une entrée dans le lexique phonologique d'entrée, qui nous
amènera au système sémantique. On reconnait seulement les mots pour lesquels on a des
représentations en mémoire.
La voie 2 courcircuite; on peut passer du lexique phonologique d'entrée au lexique phonologique de
sortie sans passer par la voie sémantique.
En résumé
La reconnaissance d'un mot parlé implique:
1) Le traitement initial par un système d'analyse auditive.
2) L'appariement avec l'unité correspondante dans un lexique phonologique d'entrée.
3) L'activation de cette unité entraine l'activation de la représentation de la signification du mot
dans le système sémantique.
4) Des connexions bidirectionnelles entre lexiques d'entrée et système sémantique.
La répétition d'un mot entendu peut avoir lieu de trois manières:
1) Soit par la voie sémantique
2) Soit en courcircuitant le système sémantique (voie 2)
3) Soit en courcircuitant les deux lexiques (voie 3).
Il y a un certain nombre de patients décrits qui présentent des troubles relativement spécifiques au
niveau de la compréhension des mots.
1) Surdité de signification
 Grande difficulté à comprendre la parole, mais peut répéter correctement les mots et
non mots présentés ainsi qu'écrire des mots dictés. Une fois le mot écrit, le patient
accède à la signification.
 Il y a une rupture de connexion entre le lexique phonologique d'entrée et le système
sémantique: le lexique phonologique d'entrée (ainsi que de sortie) fonctionne,
puisqu'il peut répéter et écrire des mots, mais c'est l'accès à la signification qui pose
problème.
 On suppose que la voie 3 fonctionne puisqu'il peut répéter les noms mots.
2) Agnosie phonologique auditive
 Tout le système lexical semble fonctionner normalement.
 La difficulté se trouve au niveau de la voie 3: le patient est incapable de pouvoir
répéter des non mots ou des mots peu fréquents.
 La parole spontanée est normale et l'écriture est préservée.
 Hypothèse: déficit au niveau de la voie 3, problème lié à la mémorisation
d'information nouvelle et difficulté de se recréer un réseau lexical pour les nouveaux
items.
3) Dysphasie profonde
 Le patient ne sait pas répéter les non mots (déficit de la voie 3) et commet des
erreurs sémantiques en répétition de mots (chaise --> table).
 Problème au niveau de la représentation semantique: la patient est meilleur pour
comprendre des mots concret que abstraits, et est meilleur pour comprendre les mots
abstraits que les mots de fonctions.
 Il y a un déficit syntaxique: la voie 1 ainsi que la voie 2 sont perturbées, et il y a une
altération au niveau sémantique. Il y a également un problème de compréhension au
niveau du langage.
4) Problèmes d'accès à des catégories sémantiques spécifiques
 Atteintes sélectives du système sémantique: s'apparente au cas de surdité de
signification limitée à certaines catégories sémantiques.
 Difficulté de compréhension pour les noms d'objets inanimés. Il y a donc des
problèmes d'accès à certaines représentations sémantiques, qui sont intactes car si on
interroge le patient sur certains aspects, il témoigne qu'il a la signification en
mémoire.
3.7.Les troubles de la compréhension et de la production de la parole
Ce sont des troubles beaucoup plus généraux du langage.
Les aphasies
L'aphasie n'est pas seulement un trouble qui concerne le langage, car les zones du langage au niveau
cérébral sont proches d'autres zones (la motricité par exemple): c'est pour cela que lorsqu'une
personne a un trouble au niveau du langage, elle peut également avoir des problèmes de motricité.
Les aphasies sont multiples: la nature et la gravité des symptômes peuvent varier considérablement
selon la localisation et l'étendue des atteintes cérébrales.
Elles sont généralement localisées dans l'hémisphère gauche, où chez le sujet droitier s'effectuent
les traitements linguistiques.
L'étiologie peut également être multiple, mais l'accident vasculaire cérébral est une des causes les
plus fréquentes.
Ces troubles du langage peuvent concerner les troubles du langage écrit, en plus de toucher la
sphère orale.
Il existe des classifications historiques, mais elles ne doivent pas masquer l'hétérogénéité des
troubles. Elles permettent d'avoir des repères par classification.
L'approche classique en aphasiologie était essentiellement localisationniste: la description des
principaux symptômes était mise en relation directe avec la localisation des lésions observées chez
les patients.
Exemple: le modèle de Wernicke et Lichteim.
La classification des aphasies qui a découlé de cette approche se fondait généralement sur des
dichotomies:
 Aphasies non-fluentes (expressives): les patients n'arrivent pas à prononcer les mots au point
de devenir muets.
 Broca
 Transcorticale motrice
 Globale
 Aphasies fluentes (réceptives): quelqu'un qui s'exprime avec un certain débit, plus ou moins
normal, et qui ne cherche pas ses mots à tout moment. Il y a un problème au niveau du
langage.
 Wernicke
 Transcorticale sensorielle
 Conduction
 Anatomique
L'aphasie de Broca
L'aphasie de Broca est caractérisée par un « manque du mot » permanent: les patients n'arrivent pas
à retrouver leurs mots. Lorsqu'ils arrivent à en trouver, leurs énoncés seront courts (énonciation
télégraphique), ou des mots manqueront (surtout ceux de fonction, agrammatisme). La prosodie
sera affectée par ce manque de mot. La compréhension du langage et la répétition sont relativement
préservées.
Aphasie de Wernicke
Dans cette aphasie, ce sera surtout la compréhension du langage qui posera problème. Néanmoins,
ces personnes sont très loquaces mais tiennent souvent des propos incohérents (jargonaphasie). Les
paraphasies sont nombreuses (sémantique, phonologie, néologismes,...). Ces personnes sont en
général inconscientes de leur trouble (anosognosie).
Aphasie transcorticale motrice
Elle s'apparente aux deux aphasies précédentes. Elle est similaire à l'aphasie de Broca, mais la
répétition est préservée.
Aphasie transcorticale sensorielle
Elle est comparable à l'aphasie de Wernicke, mais la répétition est préservée.
Aphasie de conduction
L'atteinte concerne principalement le faisceau arqué qui établit des connexions entre les aires de
Broca et de Wernicke. Le déficit de répétition est particulièrement saillant, alors que la
compréhension et la fluence sont relativement préservées. Il y a des paraphasies fréquentes en
dénomination.
Aphasie anomique (ou anomie)
Difficulté à denommer certains noms, alors que la compréhension, la répétition et la fluence sont
relativement préservées.
Aphasie globale
Atteintes massives de l'hémisphère gauche et toutes les compétences langagières sont altérées.
3.8.Conclusions
Téléchargement