Voir - ULB

publicité
PSYCHOLOGIE ET NEUROPSYCHOLOGIE COGNITIVE I
Année académique 2010-2011
Titulaire: Philippe Mousty& Wim Gevers
PSYCHOLOGIE ET NEUROPSYCHOLOGIE COGNITIVE I ..................................................... 1
3. La cognition auditive .................................................................................................................... 2
3.1. Le son et ses caractéristiques ................................................................................................ 2
3.2. Bases neurologiques de l'audition ......................................................................................... 2
3.2.1 Description de l’appareil auditif ...................................................................................... 2
3.2.2. Les voies auditives de l’oreille au cortex ....................................................................... 3
3.3. Le signal de parole ................................................................................................................ 3
3.4. Les processus de segmentation de la parole .......................................................................... 5
3.5. Les processus de catégorisation perceptive ........................................................................... 7
La perception catégorielle des phonèmes ................................................................................. 7
3.6. Les processus de reconnaissance des mots ........................................................................... 9
3.6.1. Rôle des processus ascendants et descendants ............................................................... 9
3.6.2. Rôle des informations visuo-spatiales: l'effet McGurk (McGurk & MacDonald, 1976)
.................................................................................................................................................. 9
3.6.3. Les modèles de reconnaisssance des mots parlés ........................................................... 9
1. Modèle de la COHORTE (Marslen-Wilson & Welsh, 1978) .......................................... 9
2. Modèle TRACE (McClelland & Elman, 1986)............................................................... 10
3.6.4. L'approche neuropsychologique ................................................................................... 10
A. Surdité de signification ("word meaning deafness") patiente décrite par Bramwell
(1897) ................................................................................................................................. 11
B. Agnosie phonologique auditive Patiente J.L. (Beauvois, Desrouesné & Bastard, 1980)
............................................................................................................................................ 11
C. Dysphasie profonde ....................................................................................................... 11
D. Problèmes d'accès à des catégories sémantiques spécifiques ........................................ 12
3.7. Les Troubles de la compréhension et de la production de la parole ................................... 12
3.8. Conclusions ......................................................................................................................... 14
Page 1 of 15
3. La cognition auditive
3.1. Le son et ses caractéristiques

Tout frottement, choc sur un objet, soufflement => vibrations des molécules de l’air (aussi
l'eau ou tout matériau solide), qui vont se propager sous la forme d’une onde sonore

Les ondes sonores, contrairement aux ondes éléctromagnétiques, sont mécaniques et ont donc
besoin d'un support matériel (l'eau, l'air ou tout matériau solide) pour se propager.
Toute onde sonore se caractérise par deux paramètres :
1. Amplitude (pression acoustique) souvent traduite en Decibel ou dB* => intensité
subjective (loudness) (*dB = 20.0 * log(Amplitude/Ref), où Ref = généralement la plus
petite fluctuation d'amplitude perceptible)
Plus la pression est grande, plus l’intensité
preceptive est grande.

2. Longueur d’onde (wavelength) décrite
généralement par la fréquence (nombre de
cycles par sec; en Hertz ou Hz) => hauteur
subjective (pitch)
L’oreille humaine peut percevoir des sons compris entre 20 et 20.000 Hz et a une
meilleure sensibilité au centre de cette gamme.

Deux ondes sonores peuvent présenter la même amplitude
(intensité) et la même fréquence, mais être en décalage de
phase (décallée dans le temps)


Son pur = une seule onde (sinewave)
Son complexe : une onde de base (-> Fréquence fondamentale, F0 – la plus basse)
accompagnée d’une série d’autres ondes, appelées harmoniques. Leurs fréquences sont des
multiples de F0, elles sont moins perceptibles. Leurs caractéristiques déterminent le timbre
(composition spectrale de tous les harmoniques)
3.2. Bases neurologiques de l'audition
3.2.1 Description de l’appareil auditif
Les grands demi-cercle = caneaux semi-cerculaire, servent à l’équilibre.

Dans l’oreille interne : liquide donc mouvement vibratoire dans le liquide.

Ondes sonores -> vibrations des molécules
de l’air-> tympan -> osselets (marteau,
enclume et étrier amplifient les vibrations) > fenêtre ovale -> mouvements ondulatoires
dans le liquide cochléaire (endolymphe) ->
Page 2 of 15
excitation des cellules ciliées (30.000) de la membrane basilaire (organe de Corti, dans le
canal cochléaire) -> transduction en impulsions nerveuses via le nerf auditif ->cortex auditif

Organisation tonotopique : les sons de haute fréquence excitent les régions basales (proches
de l’oreille moyenne) de la membrane basilaire (membrane tapissée de cellules ciliées :
transformation de l’activité mécanique en activité électrique par les cellules réceptrice qui
converge vers le nerf auditif), les sons de basse fréqence les régions apicales (+ éloignée)
3.2.2. Les voies auditives de l’oreille au cortex




Nerf auditif -> noyau cochléaire -> noyau olivaire
(projection principalement contralatérale):
comparaison des signaux (fréquence, amplitude) des 2
oreilles
Colliculus inférieur : combine informations visuelles et
auditives -> localisation spatiale
Corps genouillés médians (thalamus) : attention
sélective Focaliser son attention sur un son
Cortex auditif (lobe temporal)  reconnaissance des
sons. Organisation tonotopique des cellules
o Les fréquences sont distribuées parallèlement à
la surface du cortex
o Les amplitudes sont représentées
perpendiculairement
3.3. Le signal de parole


Poumons -> flux d’air dans conduit vocal 
vibrations des cordes vocales du larynx
Le son peut ensuite être modifié par :
o Forme de la bouche et des lèvres
o Position et forme de la langue
o Passage éventuel par le nez
Phonétique et Phonologie
Page 3 of 15

Phonétique : étude des sons de la parole (phones) en fonction de leurs caractéristiques
articulatoires (phonétique articulatoire) ou physiques (phonétique acoustique)

Phonologie: étude des sons de la parole en fonction de leur valeur signifiante (phonèmes)
Le phonème comme unité de base de la parole
 Phonème = plus petite unité du signal qui véhicule une signification (=> remplacer un
phonème dans un énoncé change le sens de celui-ci)
o Allophones : les différent phones qui correspondent à un même phonème (ex. les
variations possibles dans la prononciation d’un même phonème dues au locuteur,
au dialecte, au contexte...) = variation allophonique (r roulé ou non n'a pas de
signification différente en français, => des allophones et non des phonèmes
différents)

Les phonèmes sont spécifiques de la parole,
o mais peuvent différer d’une langue à l’autre : on a dénombré environ 650
phonèmes différents dans l'ensemble des langues; le français en comprend environ
37 (16 Voyelles + 3Semi-consonnes/Voyelles + 18 Consonnes)
o sont combinés pour former des unités linguistiques plus larges (syllabes,
morphèmes, mots, ..) qui peuvent, elles-mêmes, jouer un rôle important dans les
processus perceptifs
Les voyelles et consonnes sont souvent classées
en fonction de leurs propriétés articulatoires
(traits phonétiques distinctifs)
 Voyelles: antériorité (en avant ou en arrière
de la cavité buccale), aperture (degré
d’ouverture de la cavité buccale), labialité
(lèvres arrondie ou pas), nasalité (on, an)
 Consonnes: lieu et mode d'articulation
(occlusives/fricatives; nasalité; voisement
sourdes/sonores)
voisé s'il y a vibration des cordes vocales
 Semi-consonne ou semi-voyelles : « w » de
watt et « y » de yeux
Page 4 of 15
Les spectrogrammes
 Les caractéristiques du signal sont analysées au moyen d’un
spectrographe
 Spectrogramme traduit graphiquement les variations d’intensité du signal en fonction de la
fréquence en Hz(ordonnée) et du temps (abcisse)
Onde acoustique:
Amplitude en fonction du temps
Spectrogramme:
Amplitude en fonction de la fréquence et du temps (sorte de
représentation 3D qui permet de visualiser les variations
d'amplitude dans le temps en fonction de sa composition spectrale)
Spectre:
Amplitude en fonction de la fréquence
Signal de parole = sons complexes, caractérisés par


F0 (dépend du taux de vibration des cordes vocales) -> hauteur de la voix. Fréquence
fondamentale.
Harmoniques ou formants (F1, F2,
F3…) = régions du spectre de fréquence
(bandes horizontales) où se concentre
l’énergie acoustique.
Les formants permettent de distinguer
l'ensemble des voyelles



Fréquence de F1 : aperture, <= cavité
pharyngale
Fréquence de F2 : antériorité, <= cavité
buccale
Fréquence de F3: labialité, <= cavité
labiale (positions des lèvres)
3.4. Les processus de segmentation de la parole

Le système perceptif peut aisément localiser des sons dans l’espace en se servant d’indices
tels que :
o les différences dans les temps d’arrivée à chaque oreille des ondes sonores,
o les différences d’amplitude entre deux signaux, qui peuvent traduire la distance
relative de leur origine spatiale,…
Page 5 of 15






Le système perceptif dispose de mécanismes très sophistiqués de segmentation du signal
acoustique, qui lui permettent même de localiser et identifier des événements auditifs distincts
qui peuvent être simultanés et provenir d’une même origine spatiale
Ces mécanismes, encore mal connus, reposent nécessairement sur l’extraction des traits
présents dans le signal acoustique (amplitude, fréquence, timbre, …)
Dans le cas de la parole, le signal est continu et les frontières de mots ne sont que rarement
signalées par des pauses
Les processus de segmentation nous permettent de segmenter les mots ainsi que les unités du
signal que sont les phonèmes
Les formants semblent jouer un rôle crucial dans ces mécanismes de segmentation du signal
Rem: nous ne développerons pas dans ce cours l'ensemble des indices qui pourraient
contribuer à la segmentation (lexicale) des mots (p; ex. indices rythmiques, prosodiques).

La partie initiale du 2ème formant (transition de F2, en
rose) fournit une information importante sur le lieu
d’articulation de nombreuses consonnes. Elle permet p.
ex. de distinguer entre les consonnes voisées /b,d,g/ (ou
non-voisées /p,t,k/).

Le voisement apparaît dans ces spectrogrammes
simplifiés sous la forme d’une concentration d’énergie
acoustique dans les basses fréquences.
Le délai de voisement (Voice Onset Time ou VOT) est l’indice principal du voisement.
C’est l’intervalle entre le relâchement de l’air bloqué par le conduit vocal avant
l’ouverture de la bouche et le déclenchement des vibrations des cordes vocales. Les
consonnes occlusives sourdes (/p/) se caractérisent par des délais de voisement longs, les
occlusives sonores (/b/) par des délais de voisement courts. (transition de F1 en rose)
La richesse des informations disponibles dans le signal permet de résoudre les problèmes
d’absence d’invariance et de linéarité dans le signal.
1. Absence d'invariance: le signal qui correspond à une unité
donnée n’est pas totalement invariant: il dépend en partie du
contexte phonétique adjacent.
Ex: Transition de F2 fonction de la voyelle qui suit

La notion de degré d’encodage d’un phone a été utilisée pour signifier cette dépendance de la
réalisation acoustique du phone par rapport à son contexte. Il serait plus important pour
certains types de consonnes (plosives) que d’autres (fricatives). Les voyelles présentent
nettement plus d’invariance (et de stabilité) que les consonnes.

Le système perceptif pourrait restituer l’invariance s’il se basait sur le site (ou locus) des
phones…
Les variations observées dans les transitions formantiques pourraient être annulées si l’on
considère que, pour un phone donné, les transitions convergent vers un point d’origine commun,
Page 6 of 15
antérieur dans le temps et absent du signal acoustique. Ce point pourrait toutefois exister à un
autre niveau de représentation qui serait de nature articulatoire (cf. Théorie motrice de la
perception de la parole, Liberman et al, 1967).
L’articulation du phone /d/, quelle que soit la voyelle qui suit, implique une fermeture du conduit
vocal avant l’émission du son. La fréquence de résonnance au moment de la fermeture (environ
1800 Hz) correspondrait au site de ce phone. Aucun son n’étant encore produit à ce moment, le
site n’apparaîtrait pas dans le signal acoustique.
2. Absence de linéarité: les phonèmes que nous percevons se chevauchent temporellement dans
le signal acoustique. La co-articulation des sons de la parole => codage simultané de phones
successifs. Le son est prononcé de façon différent selon la voyelle qui le suit.
La distribution sur toute la syllabe de l’information semble en fait
permettre une identification meilleure et plus rapide de la voyelle que
si elle était présentée isolément (Strange, Verbrugge et Shankweiler,
1977) :
 les transitions dues à la coarticulation de la voyelle avec les
consonnes initiale et finale apporte une information plus
redondante
 la transition de formant de la consonne initiale peut déjà fournir
des indices sur l’identité de la voyelle.
Les lignes courbes = les formants
3.5. Les processus de catégorisation perceptive
La perception catégorielle des phonèmes

L’auditeur ne peut pas discriminer entre des stimuli acoustiquement différents si ces stimuli
appartiennent à une même catégorie phonétique dans sa
langue (variations allophoniques)
=> efficacité accrue de la perception : on ignore les
variations linguistiques non-pertinentes (du moins au
niveau conscient).

Démonstration expérimentale : on crée une série de
Page 7 of 15
stimuli qui varient, par pas successifs, le long d’un continuum acoustique :
o lieu d’articulation de la consone (en modifiant graduellement l’orientation des
transitions de F2): /b/ -> /d/ -> /g/)
o voisement des consonnes (en modifiant le « Voice Onset Time » ou VOT pour les
consonnes): /b/ -> /p/
Tâche d’Identification:
 Présentation randomisée des différents stimuli d'un continuum acoustique (ex : /ba/ -> /da/).
Pour chaque stimulus présenté, on demande au sujet s’il a entendu /ba/ (ou s’il a entendu
entendu /da/) ?
 Résultats : pour un continuum de 11 pas de /b/ (BA) à /d/ (DA), l’identification des phonèmes
ne suit pas le continuum acoustique mais révèle une frontière abrupte entre les catégories
phonétiques (ici entre S5 et S7)
Tâche de discrimination
 On présente des paires de stimuli identiques ou différents de 2
(ou 3) pas dans le continuum ; le sujet doit répondre si les
stimuli de chaque paire entendue sont « mêmes » ou «différents
» (paradigme AX)
 Autre paradigme très utilisé (paradigme ABX) : présentation
successive de trois stimuli A, B, X (où A et B représentent
deux stimuli différents de 2 ou 3 pas dans le continuum et X est
identique à A ou à B) ; le sujet doit répondre si le 3ème stimulus (X) de
chaque triplet entendu ressemble plus au premier (A) ou au second (B).
 Résultats pour le même continuum de 11 pas de /b/ (BA) à /d/ (DA). La
courbe de discrimination ci-contre (qui représente les mêmes résultats
fictifs que ceux de la tâche d’identification) fait apparaître un pic de
discrimination centré sur la paire S5-S7 (frontière catégorielle)
La discrimination entre catégories est meilleure que la discrimination à
l’intérieur de ces catégories.

Selon certains chercheurs (dont ceux de l’équipe des Laboratoires Haskins), le phénomène de
perception catégorielle des sons de la parole a constitué un argument important en faveur de
l’existence d’un module de traitement phonétique, (inné, s’affine en fonction des informations
reçue durant les premiers mois de la vie) car il refléterait un mécanisme spécifique de
traitement de la parole qui produirait de l’information à un niveau de représentation
phonétique tout en faisant abstraction des informations acoustiques

l'habileté de perception catégorielle des sons de la parole, si elle repose sur des mécanismes
innés, s'affine durant les premiers mois de la vie de l'enfant au contact des sons (phonèmes)
de la (ou des) langues qui constitue(nt) son environnement.
Page 8 of 15
3.6. Les processus de reconnaissance des mots
3.6.1. Rôle des processus ascendants et descendants

La reconnaissance de stimuli auditifs, tels que des mots, implique, à un certain stade du
traitement, l’intégration des processus ascendants et descendants.

Rôle des processus ascendants: a été mis en évidence dans des travaux qui illustrent que le
système utilise les traits présents dans les représentations phonétiques et/ou articulatoires
o Miller & Nicely (1955): dans des conditions d’écoute difficile, on confond
davantage les consonnes qui ne se distinguent que par un seul trait phonétique que
celles qui diffèrent par plusieurs traits (ex : /p/ est plus souvent confondu avec /b/
qu’avec /d/ ou /g/)

Rôle des processus descendants : l'effet de Restauration phonémique
o Warren & Warren (1970) : si on remplace un phonème par du bruit à l’intérieur
d’un mot (légi*lature) dans une énoncé, les sujets ont l’impression illusoire de
percevoir le mot complet (législature).
o Ce phénomène persiste même si les sujets sont avertis de la manipulation et si
l’énoncé est répété plusieurs fois
3.6.2. Rôle des informations visuo-spatiales: l'effet McGurk (McGurk &
MacDonald, 1976)



Si on présente l’image d’un locuteur qui articule une syllabe /gi/ et que les mouvements de
ses lèvres sont synchronisés avec l’audition d’un /bi/, l’auditeur a l’impression illusoire de
percevoir un /di/. Illusion perceptive  erreur de fusion. On traite les deux types d’info puis
on fait un compromis.
Principe de saillance perceptive
o Visuellement : saillance plus importante pour les bilabiales (p, b, m)
o Auditivement : saillance (en termes d'intensité) plus importante pour les vélaires (k,g)
 Erreurs de fusion: A /bi/ + V /gi/ => /di/
 Erreurs de combinaison A /gi/ + V /bi/ => /bgi/
L'effet McGurk illustre donc le fait que les processus de perception de la parole résultent de
l'intégration des informations auditives et visuo-spatiales fournies par la lecture labiale
o Effet robuste même pour un sujet au courant de l’effet
o Effet démontré avec consonnes, voyelles, mots et phrases
o Effet présent chez l’enfant, mais plus fort chez l’adulte
o La lecture labiale activerait des régions cérébrales dévolues au traitement précoce de
la parole (cortex auditif primaire)
3.6.3. Les modèles de reconnaisssance des mots parlés

Exemples de modèles qui ont été très influents et qui illustrent l’importance des aspects
séquentiels dans le traitement de la parole
o Modèle de la cohorte, un des premiers
o Modèle Trace
1. Modèle de la COHORTE (Marslen-Wilson & Welsh, 1978)
Page 9 of 15
Les mots sont reconnus séquentiellement, phonème par phonème.
La cohorte des candidats lexicaux en compétition comprend tous les mots qui sont compatibles
avec le signal qui arrive au fur et à mesure.
L’identification a lieu au moment où la cohorte se réduit à un seul candidat = point d’unicité
Le point d’unicité est plus précoce dans
/garnement/ que dans /cordonnet/
L’info se complète progressivement. On traite les mots au fur et à mesure qu’ils arrives.



Le modèle permet d’expliquer, par des processus interactifs, les effets de contexte «antérieur»
mais pas «postérieur» sur le mot en cours de traitement
Il est en difficulté lorsque l’information sur le phonème initial est erronée ou ambiguë (il faut
que le signal soit de bonne qualité) et lorsque des mots sont «enchassés» (mots composés)
dans d’autres.
Révision du modèle (COHORT II) incorpore d’autres mécanismes pour segmenter les mots
qui s’apparentent à ceux proposés dans le modèle TRACE
2. Modèle TRACE (McClelland & Elman, 1986)
 Modèle connexionniste dont l’architecture
comprend trois niveaux hiérarchiques d’unités de
traitement : traits phonétiques, phonèmes et mots
(structure répétée dans le temps à chaque moment
du traitement). C’est aussi un modèle séquentiel
 Liens excitateurs entre les niveaux (pour les unités
compatibles avec le signal) mais liens inhibiteurs
entre les unités d’un même niveau
Boucle interne : les circuits les plus activés inhibe ceux
qui
le sont moins.
 Les connexions descendantes viennent renforcer l’activité des détecteurs compatibles (ce qui
permet de simuler les phénomènes de perception catégorielle et de restauration phonémique)
 Le modèle permet d’expliquer les effets de contexte « antérieur » et « postérieur » sur le mot
en cours de traitement et se comporte bien quand le signal est altéré ou ambigu. (mauvaise
qualité du son)
 Modèle très lourd dans son implémentation (réplication du réseau pour chaque nouveau
phonème), qui peut fonctionner avec un nombre limité de mots mais s’avère peu
généralisable au situations naturelles (parole continue, vocabulaire plus étendu,…)
3.6.4. L'approche
neuropsychologique
Architecture générale du système  permet
l’étude des troubles chez les patients
cérébrolésé.

Reconnaissance d'un mot parlé implique:
o traitement initial par un
système d'analyse auditive
(ou phonétique)
Page 10 of 15
o ensuite appariement avec l'unité correspondante dans un lexique phonologique
d'entrée
o l'activation de cette unité entraîne l'activation de la représentation de la
signification du mot dans le système sémantique
o connexions bidirectionnelles entre lexiques d’entrée et sémantique <-- effet du
contexte sémantique dans l’identification des mots

Répétition d'un mot entendu peut avoir lieu de trois manières:
o soit par la voie sémantique (comme pour la reconnaissance, voie 1)
o soit en court-circuitant le système sémantique (voie 2)
o soit en court-circuitant les deux lexiques (voie 3): voie nécessaire pour les nonmots ou les mots inconnus
Observations de dissociations dans la pathologie: cas illustrant des atteintes sélectives de
différentes composantes du modèle (ne pas retenir les différentes pathologies)
A. Surdité de signification ("word meaning deafness") patiente décrite par Bramwell (1897)
 grande difficulté à comprendre la parole mais capable de répéter correctement la parole
 capable d’écrire des mots dictés, et ainsi les comprendre
 système d'analyse auditive intact (répétition ok)
 représentations sémantiques préservées (compréhension en lecture ok)
 lexique phonologique de sortie préservé (parole spontanée ok)
 lexique phonologique d'entrée préservé (écriture sous dictée ok)
  disconnexion totale ou partielle entre lexique phonologique d'entrée et système sémantique
(voie 1)
B. Agnosie phonologique auditive Patiente J.L. (Beauvois, Desrouesné & Bastard, 1980)
 parole spontanée quasi normale
 lecture et écriture de mots préservées
 mais grosses difficultés à comprendre certains mots parlés:
o nouveaux termes scientifiques ou techniques
o noms nouveaux de personnes et de villes
 aucun problème pour les mots et noms familiers
 répétition et écriture de non-mots pauvres
  déficits au niveau de la voie 3 (auditive extra-lexicale)
C. Dysphasie profonde
 Patient décrit par Michel & Andreewsky (1983)
 incapacité de répéter des non-mots => déficits dans la voie 3
 erreurs sémantiques en répétition de mots (rouge -> jaune) => déficits dans la voie 2 et
passage par la voie 1
 mots concrets > mots abstraits > mots de fonction
 + déficit syntaxique
 déficits dans l'accès à des représentations sémantiques détaillées à partir du lexique d'entrée
(erreurs sémantiques)
  seule la voie sémantique est utilisable, mais pas intacte
Page 11 of 15
D. Problèmes d'accès à des catégories sémantiques spécifiques
1. Cas décrit par Yamadori & Albert (1973)
 cas de surdité de signification (peut répéter et écrire des mots qu'il ne comprend pas)
 mais difficulté spécifique pour les noms de certaines catégories sémantiques: parties du
corps et noms d'objets dans une pièce
 aucun problème pour les outils, ustensiles de cuisine et vêtements
2. Patient VER (Warrington & Mc Carthy, 1983)
 difficulté de compréhension des noms d'objets inanimés
 aucun problème avec noms d'animaux, de fleurs et d'aliments
 répétition assez bonne pour ces mêmes catégories
 déficits dans l'accès à certaines représentations sémantiques, par ailleurs intactes
 N.B.: appariement mot parlé - image: performance augmente quand on ralentit la
présentation des items successifs (=> accès possible mais très lent)
3.7. Les Troubles de la compréhension et de la production de la parole








Les troubles décrits à la section 3.6.4. concernent des atteints très spécifiques des processus
de reconnaissance des mots qui sont relativement rares en comparaison des troubles beaucoup
plus généraux et plus fréquents qui peuvent perturber la compréhension et/ou la production du
langage: les aphasies
nature et gravité des symptomes varient considérablement selon la localisation et l'étendue
des atteintes cérébrales
le plus souvent dans l'hémisphère gauche, où - chez les droitiers - s'effectuent les traitements
linguistiques (mais aussi chez la moitié des gauchers)
l'étiologie peut également être multiple (lésions, tumeurs, maladies dégénératives). L'AVC est
une des clauses les plus fréquents
Souvent aussi troubles du langage écrit (dyslexie/dysorthographie) et troubles moteurs
(hémiplégie contralatérale)
Les tentatives de classement ne doivent pas masquer l'extrême hétérogénéité des troubles
Approche classique: essentiellement localisationniste: la description des principaux
symptômes était mise en relation directe avec la localisation des lésions observées chez les
patients
Exemple: modèle de Wernicke (1874) et Lichtheim (1885)
Page 12 of 15

La classification qui en découlait se fondait généralement sur des dichotomies: sensorielles vs
motrices, réceptives vs expressives, fluentes (réceptives par ex Wernicke) vs non-fluentes
(expressives, par ex Broca)
Aphasie de Broca (1824-1880):


Fluence très altérée: "manque de mot",
prosodie bizarre, énonciation "télégraphique",
agrammatisme (moi promener rue)
Compréhension du langage et répétition
(relativement) réservée
Aphasie de Wernicke (1848-1905):




Compréhension du langage très déficiente
Paraphasie nombreuses: sémantique (table/chaise),
phonologiques (table/tafle) -> néologismes
Jargonaphasie: discours incohérent
Anosognosie
Page 13 of 15
Limite des approches aphasiologiques classiques
terminologie employée depuis plus d'un siècle. Difficultés:
 Taxonomiser en fonction de dichotomies est trop simplistes: les troubles peuvent être à la fois
réceptifs et expressifs, ...
 près de la moitié des patients sont difficiles à classer
 Approximation de l'identification des sites (IRM nous le montre) et d'autres sites lésionnels
peuvent produire des déficits similaires sur le plan symptomatique
 le dvpt de la neuropsy cognitive contemporaine a révélé chez certains patients des troubles
parfois très spécifiques (non-mots, catégories sémantiques ou grammaticales, voir 3.6.4.) et
qui concernent des domaines particuliers du traitement du langage: phonologie, lexique,
grammaire, ...
3.8. Conclusions

Si les processus de reconnaissance de la parole traitent d’abord séquentiellement le signal, les
processus subséquents opèrent vraisemblablement en parallèle et très rapidement. Les
modèles visent à décrire la manière dont le système perceptif intègre processus ascendants et
descendants

L'approche neuropsychologique illustre la complexité des processus impliqués dans les
troubles de la compréhension et de la production de la parole en suggérant l’existence de
systèmes très spécifiques de traitement de l'information pouvant être sélectivement atteintes
par une lésion cérébrale.
Page 14 of 15
Page 15 of 15
Téléchargement