PSYCHOLOGIE ET NEUROPSYCHOLOGIE COGNITIVE I Année académique 2010-2011 Titulaire: Philippe Mousty& Wim Gevers PSYCHOLOGIE ET NEUROPSYCHOLOGIE COGNITIVE I ..................................................... 1 3. La cognition auditive .................................................................................................................... 2 3.1. Le son et ses caractéristiques ................................................................................................ 2 3.2. Bases neurologiques de l'audition ......................................................................................... 2 3.2.1 Description de l’appareil auditif ...................................................................................... 2 3.2.2. Les voies auditives de l’oreille au cortex ....................................................................... 3 3.3. Le signal de parole ................................................................................................................ 3 3.4. Les processus de segmentation de la parole .......................................................................... 5 3.5. Les processus de catégorisation perceptive ........................................................................... 7 La perception catégorielle des phonèmes ................................................................................. 7 3.6. Les processus de reconnaissance des mots ........................................................................... 9 3.6.1. Rôle des processus ascendants et descendants ............................................................... 9 3.6.2. Rôle des informations visuo-spatiales: l'effet McGurk (McGurk & MacDonald, 1976) .................................................................................................................................................. 9 3.6.3. Les modèles de reconnaisssance des mots parlés ........................................................... 9 1. Modèle de la COHORTE (Marslen-Wilson & Welsh, 1978) .......................................... 9 2. Modèle TRACE (McClelland & Elman, 1986)............................................................... 10 3.6.4. L'approche neuropsychologique ................................................................................... 10 A. Surdité de signification ("word meaning deafness") patiente décrite par Bramwell (1897) ................................................................................................................................. 11 B. Agnosie phonologique auditive Patiente J.L. (Beauvois, Desrouesné & Bastard, 1980) ............................................................................................................................................ 11 C. Dysphasie profonde ....................................................................................................... 11 D. Problèmes d'accès à des catégories sémantiques spécifiques ........................................ 12 3.7. Les Troubles de la compréhension et de la production de la parole ................................... 12 3.8. Conclusions ......................................................................................................................... 14 Page 1 of 15 3. La cognition auditive 3.1. Le son et ses caractéristiques Tout frottement, choc sur un objet, soufflement => vibrations des molécules de l’air (aussi l'eau ou tout matériau solide), qui vont se propager sous la forme d’une onde sonore Les ondes sonores, contrairement aux ondes éléctromagnétiques, sont mécaniques et ont donc besoin d'un support matériel (l'eau, l'air ou tout matériau solide) pour se propager. Toute onde sonore se caractérise par deux paramètres : 1. Amplitude (pression acoustique) souvent traduite en Decibel ou dB* => intensité subjective (loudness) (*dB = 20.0 * log(Amplitude/Ref), où Ref = généralement la plus petite fluctuation d'amplitude perceptible) Plus la pression est grande, plus l’intensité preceptive est grande. 2. Longueur d’onde (wavelength) décrite généralement par la fréquence (nombre de cycles par sec; en Hertz ou Hz) => hauteur subjective (pitch) L’oreille humaine peut percevoir des sons compris entre 20 et 20.000 Hz et a une meilleure sensibilité au centre de cette gamme. Deux ondes sonores peuvent présenter la même amplitude (intensité) et la même fréquence, mais être en décalage de phase (décallée dans le temps) Son pur = une seule onde (sinewave) Son complexe : une onde de base (-> Fréquence fondamentale, F0 – la plus basse) accompagnée d’une série d’autres ondes, appelées harmoniques. Leurs fréquences sont des multiples de F0, elles sont moins perceptibles. Leurs caractéristiques déterminent le timbre (composition spectrale de tous les harmoniques) 3.2. Bases neurologiques de l'audition 3.2.1 Description de l’appareil auditif Les grands demi-cercle = caneaux semi-cerculaire, servent à l’équilibre. Dans l’oreille interne : liquide donc mouvement vibratoire dans le liquide. Ondes sonores -> vibrations des molécules de l’air-> tympan -> osselets (marteau, enclume et étrier amplifient les vibrations) > fenêtre ovale -> mouvements ondulatoires dans le liquide cochléaire (endolymphe) -> Page 2 of 15 excitation des cellules ciliées (30.000) de la membrane basilaire (organe de Corti, dans le canal cochléaire) -> transduction en impulsions nerveuses via le nerf auditif ->cortex auditif Organisation tonotopique : les sons de haute fréquence excitent les régions basales (proches de l’oreille moyenne) de la membrane basilaire (membrane tapissée de cellules ciliées : transformation de l’activité mécanique en activité électrique par les cellules réceptrice qui converge vers le nerf auditif), les sons de basse fréqence les régions apicales (+ éloignée) 3.2.2. Les voies auditives de l’oreille au cortex Nerf auditif -> noyau cochléaire -> noyau olivaire (projection principalement contralatérale): comparaison des signaux (fréquence, amplitude) des 2 oreilles Colliculus inférieur : combine informations visuelles et auditives -> localisation spatiale Corps genouillés médians (thalamus) : attention sélective Focaliser son attention sur un son Cortex auditif (lobe temporal) reconnaissance des sons. Organisation tonotopique des cellules o Les fréquences sont distribuées parallèlement à la surface du cortex o Les amplitudes sont représentées perpendiculairement 3.3. Le signal de parole Poumons -> flux d’air dans conduit vocal vibrations des cordes vocales du larynx Le son peut ensuite être modifié par : o Forme de la bouche et des lèvres o Position et forme de la langue o Passage éventuel par le nez Phonétique et Phonologie Page 3 of 15 Phonétique : étude des sons de la parole (phones) en fonction de leurs caractéristiques articulatoires (phonétique articulatoire) ou physiques (phonétique acoustique) Phonologie: étude des sons de la parole en fonction de leur valeur signifiante (phonèmes) Le phonème comme unité de base de la parole Phonème = plus petite unité du signal qui véhicule une signification (=> remplacer un phonème dans un énoncé change le sens de celui-ci) o Allophones : les différent phones qui correspondent à un même phonème (ex. les variations possibles dans la prononciation d’un même phonème dues au locuteur, au dialecte, au contexte...) = variation allophonique (r roulé ou non n'a pas de signification différente en français, => des allophones et non des phonèmes différents) Les phonèmes sont spécifiques de la parole, o mais peuvent différer d’une langue à l’autre : on a dénombré environ 650 phonèmes différents dans l'ensemble des langues; le français en comprend environ 37 (16 Voyelles + 3Semi-consonnes/Voyelles + 18 Consonnes) o sont combinés pour former des unités linguistiques plus larges (syllabes, morphèmes, mots, ..) qui peuvent, elles-mêmes, jouer un rôle important dans les processus perceptifs Les voyelles et consonnes sont souvent classées en fonction de leurs propriétés articulatoires (traits phonétiques distinctifs) Voyelles: antériorité (en avant ou en arrière de la cavité buccale), aperture (degré d’ouverture de la cavité buccale), labialité (lèvres arrondie ou pas), nasalité (on, an) Consonnes: lieu et mode d'articulation (occlusives/fricatives; nasalité; voisement sourdes/sonores) voisé s'il y a vibration des cordes vocales Semi-consonne ou semi-voyelles : « w » de watt et « y » de yeux Page 4 of 15 Les spectrogrammes Les caractéristiques du signal sont analysées au moyen d’un spectrographe Spectrogramme traduit graphiquement les variations d’intensité du signal en fonction de la fréquence en Hz(ordonnée) et du temps (abcisse) Onde acoustique: Amplitude en fonction du temps Spectrogramme: Amplitude en fonction de la fréquence et du temps (sorte de représentation 3D qui permet de visualiser les variations d'amplitude dans le temps en fonction de sa composition spectrale) Spectre: Amplitude en fonction de la fréquence Signal de parole = sons complexes, caractérisés par F0 (dépend du taux de vibration des cordes vocales) -> hauteur de la voix. Fréquence fondamentale. Harmoniques ou formants (F1, F2, F3…) = régions du spectre de fréquence (bandes horizontales) où se concentre l’énergie acoustique. Les formants permettent de distinguer l'ensemble des voyelles Fréquence de F1 : aperture, <= cavité pharyngale Fréquence de F2 : antériorité, <= cavité buccale Fréquence de F3: labialité, <= cavité labiale (positions des lèvres) 3.4. Les processus de segmentation de la parole Le système perceptif peut aisément localiser des sons dans l’espace en se servant d’indices tels que : o les différences dans les temps d’arrivée à chaque oreille des ondes sonores, o les différences d’amplitude entre deux signaux, qui peuvent traduire la distance relative de leur origine spatiale,… Page 5 of 15 Le système perceptif dispose de mécanismes très sophistiqués de segmentation du signal acoustique, qui lui permettent même de localiser et identifier des événements auditifs distincts qui peuvent être simultanés et provenir d’une même origine spatiale Ces mécanismes, encore mal connus, reposent nécessairement sur l’extraction des traits présents dans le signal acoustique (amplitude, fréquence, timbre, …) Dans le cas de la parole, le signal est continu et les frontières de mots ne sont que rarement signalées par des pauses Les processus de segmentation nous permettent de segmenter les mots ainsi que les unités du signal que sont les phonèmes Les formants semblent jouer un rôle crucial dans ces mécanismes de segmentation du signal Rem: nous ne développerons pas dans ce cours l'ensemble des indices qui pourraient contribuer à la segmentation (lexicale) des mots (p; ex. indices rythmiques, prosodiques). La partie initiale du 2ème formant (transition de F2, en rose) fournit une information importante sur le lieu d’articulation de nombreuses consonnes. Elle permet p. ex. de distinguer entre les consonnes voisées /b,d,g/ (ou non-voisées /p,t,k/). Le voisement apparaît dans ces spectrogrammes simplifiés sous la forme d’une concentration d’énergie acoustique dans les basses fréquences. Le délai de voisement (Voice Onset Time ou VOT) est l’indice principal du voisement. C’est l’intervalle entre le relâchement de l’air bloqué par le conduit vocal avant l’ouverture de la bouche et le déclenchement des vibrations des cordes vocales. Les consonnes occlusives sourdes (/p/) se caractérisent par des délais de voisement longs, les occlusives sonores (/b/) par des délais de voisement courts. (transition de F1 en rose) La richesse des informations disponibles dans le signal permet de résoudre les problèmes d’absence d’invariance et de linéarité dans le signal. 1. Absence d'invariance: le signal qui correspond à une unité donnée n’est pas totalement invariant: il dépend en partie du contexte phonétique adjacent. Ex: Transition de F2 fonction de la voyelle qui suit La notion de degré d’encodage d’un phone a été utilisée pour signifier cette dépendance de la réalisation acoustique du phone par rapport à son contexte. Il serait plus important pour certains types de consonnes (plosives) que d’autres (fricatives). Les voyelles présentent nettement plus d’invariance (et de stabilité) que les consonnes. Le système perceptif pourrait restituer l’invariance s’il se basait sur le site (ou locus) des phones… Les variations observées dans les transitions formantiques pourraient être annulées si l’on considère que, pour un phone donné, les transitions convergent vers un point d’origine commun, Page 6 of 15 antérieur dans le temps et absent du signal acoustique. Ce point pourrait toutefois exister à un autre niveau de représentation qui serait de nature articulatoire (cf. Théorie motrice de la perception de la parole, Liberman et al, 1967). L’articulation du phone /d/, quelle que soit la voyelle qui suit, implique une fermeture du conduit vocal avant l’émission du son. La fréquence de résonnance au moment de la fermeture (environ 1800 Hz) correspondrait au site de ce phone. Aucun son n’étant encore produit à ce moment, le site n’apparaîtrait pas dans le signal acoustique. 2. Absence de linéarité: les phonèmes que nous percevons se chevauchent temporellement dans le signal acoustique. La co-articulation des sons de la parole => codage simultané de phones successifs. Le son est prononcé de façon différent selon la voyelle qui le suit. La distribution sur toute la syllabe de l’information semble en fait permettre une identification meilleure et plus rapide de la voyelle que si elle était présentée isolément (Strange, Verbrugge et Shankweiler, 1977) : les transitions dues à la coarticulation de la voyelle avec les consonnes initiale et finale apporte une information plus redondante la transition de formant de la consonne initiale peut déjà fournir des indices sur l’identité de la voyelle. Les lignes courbes = les formants 3.5. Les processus de catégorisation perceptive La perception catégorielle des phonèmes L’auditeur ne peut pas discriminer entre des stimuli acoustiquement différents si ces stimuli appartiennent à une même catégorie phonétique dans sa langue (variations allophoniques) => efficacité accrue de la perception : on ignore les variations linguistiques non-pertinentes (du moins au niveau conscient). Démonstration expérimentale : on crée une série de Page 7 of 15 stimuli qui varient, par pas successifs, le long d’un continuum acoustique : o lieu d’articulation de la consone (en modifiant graduellement l’orientation des transitions de F2): /b/ -> /d/ -> /g/) o voisement des consonnes (en modifiant le « Voice Onset Time » ou VOT pour les consonnes): /b/ -> /p/ Tâche d’Identification: Présentation randomisée des différents stimuli d'un continuum acoustique (ex : /ba/ -> /da/). Pour chaque stimulus présenté, on demande au sujet s’il a entendu /ba/ (ou s’il a entendu entendu /da/) ? Résultats : pour un continuum de 11 pas de /b/ (BA) à /d/ (DA), l’identification des phonèmes ne suit pas le continuum acoustique mais révèle une frontière abrupte entre les catégories phonétiques (ici entre S5 et S7) Tâche de discrimination On présente des paires de stimuli identiques ou différents de 2 (ou 3) pas dans le continuum ; le sujet doit répondre si les stimuli de chaque paire entendue sont « mêmes » ou «différents » (paradigme AX) Autre paradigme très utilisé (paradigme ABX) : présentation successive de trois stimuli A, B, X (où A et B représentent deux stimuli différents de 2 ou 3 pas dans le continuum et X est identique à A ou à B) ; le sujet doit répondre si le 3ème stimulus (X) de chaque triplet entendu ressemble plus au premier (A) ou au second (B). Résultats pour le même continuum de 11 pas de /b/ (BA) à /d/ (DA). La courbe de discrimination ci-contre (qui représente les mêmes résultats fictifs que ceux de la tâche d’identification) fait apparaître un pic de discrimination centré sur la paire S5-S7 (frontière catégorielle) La discrimination entre catégories est meilleure que la discrimination à l’intérieur de ces catégories. Selon certains chercheurs (dont ceux de l’équipe des Laboratoires Haskins), le phénomène de perception catégorielle des sons de la parole a constitué un argument important en faveur de l’existence d’un module de traitement phonétique, (inné, s’affine en fonction des informations reçue durant les premiers mois de la vie) car il refléterait un mécanisme spécifique de traitement de la parole qui produirait de l’information à un niveau de représentation phonétique tout en faisant abstraction des informations acoustiques l'habileté de perception catégorielle des sons de la parole, si elle repose sur des mécanismes innés, s'affine durant les premiers mois de la vie de l'enfant au contact des sons (phonèmes) de la (ou des) langues qui constitue(nt) son environnement. Page 8 of 15 3.6. Les processus de reconnaissance des mots 3.6.1. Rôle des processus ascendants et descendants La reconnaissance de stimuli auditifs, tels que des mots, implique, à un certain stade du traitement, l’intégration des processus ascendants et descendants. Rôle des processus ascendants: a été mis en évidence dans des travaux qui illustrent que le système utilise les traits présents dans les représentations phonétiques et/ou articulatoires o Miller & Nicely (1955): dans des conditions d’écoute difficile, on confond davantage les consonnes qui ne se distinguent que par un seul trait phonétique que celles qui diffèrent par plusieurs traits (ex : /p/ est plus souvent confondu avec /b/ qu’avec /d/ ou /g/) Rôle des processus descendants : l'effet de Restauration phonémique o Warren & Warren (1970) : si on remplace un phonème par du bruit à l’intérieur d’un mot (légi*lature) dans une énoncé, les sujets ont l’impression illusoire de percevoir le mot complet (législature). o Ce phénomène persiste même si les sujets sont avertis de la manipulation et si l’énoncé est répété plusieurs fois 3.6.2. Rôle des informations visuo-spatiales: l'effet McGurk (McGurk & MacDonald, 1976) Si on présente l’image d’un locuteur qui articule une syllabe /gi/ et que les mouvements de ses lèvres sont synchronisés avec l’audition d’un /bi/, l’auditeur a l’impression illusoire de percevoir un /di/. Illusion perceptive erreur de fusion. On traite les deux types d’info puis on fait un compromis. Principe de saillance perceptive o Visuellement : saillance plus importante pour les bilabiales (p, b, m) o Auditivement : saillance (en termes d'intensité) plus importante pour les vélaires (k,g) Erreurs de fusion: A /bi/ + V /gi/ => /di/ Erreurs de combinaison A /gi/ + V /bi/ => /bgi/ L'effet McGurk illustre donc le fait que les processus de perception de la parole résultent de l'intégration des informations auditives et visuo-spatiales fournies par la lecture labiale o Effet robuste même pour un sujet au courant de l’effet o Effet démontré avec consonnes, voyelles, mots et phrases o Effet présent chez l’enfant, mais plus fort chez l’adulte o La lecture labiale activerait des régions cérébrales dévolues au traitement précoce de la parole (cortex auditif primaire) 3.6.3. Les modèles de reconnaisssance des mots parlés Exemples de modèles qui ont été très influents et qui illustrent l’importance des aspects séquentiels dans le traitement de la parole o Modèle de la cohorte, un des premiers o Modèle Trace 1. Modèle de la COHORTE (Marslen-Wilson & Welsh, 1978) Page 9 of 15 Les mots sont reconnus séquentiellement, phonème par phonème. La cohorte des candidats lexicaux en compétition comprend tous les mots qui sont compatibles avec le signal qui arrive au fur et à mesure. L’identification a lieu au moment où la cohorte se réduit à un seul candidat = point d’unicité Le point d’unicité est plus précoce dans /garnement/ que dans /cordonnet/ L’info se complète progressivement. On traite les mots au fur et à mesure qu’ils arrives. Le modèle permet d’expliquer, par des processus interactifs, les effets de contexte «antérieur» mais pas «postérieur» sur le mot en cours de traitement Il est en difficulté lorsque l’information sur le phonème initial est erronée ou ambiguë (il faut que le signal soit de bonne qualité) et lorsque des mots sont «enchassés» (mots composés) dans d’autres. Révision du modèle (COHORT II) incorpore d’autres mécanismes pour segmenter les mots qui s’apparentent à ceux proposés dans le modèle TRACE 2. Modèle TRACE (McClelland & Elman, 1986) Modèle connexionniste dont l’architecture comprend trois niveaux hiérarchiques d’unités de traitement : traits phonétiques, phonèmes et mots (structure répétée dans le temps à chaque moment du traitement). C’est aussi un modèle séquentiel Liens excitateurs entre les niveaux (pour les unités compatibles avec le signal) mais liens inhibiteurs entre les unités d’un même niveau Boucle interne : les circuits les plus activés inhibe ceux qui le sont moins. Les connexions descendantes viennent renforcer l’activité des détecteurs compatibles (ce qui permet de simuler les phénomènes de perception catégorielle et de restauration phonémique) Le modèle permet d’expliquer les effets de contexte « antérieur » et « postérieur » sur le mot en cours de traitement et se comporte bien quand le signal est altéré ou ambigu. (mauvaise qualité du son) Modèle très lourd dans son implémentation (réplication du réseau pour chaque nouveau phonème), qui peut fonctionner avec un nombre limité de mots mais s’avère peu généralisable au situations naturelles (parole continue, vocabulaire plus étendu,…) 3.6.4. L'approche neuropsychologique Architecture générale du système permet l’étude des troubles chez les patients cérébrolésé. Reconnaissance d'un mot parlé implique: o traitement initial par un système d'analyse auditive (ou phonétique) Page 10 of 15 o ensuite appariement avec l'unité correspondante dans un lexique phonologique d'entrée o l'activation de cette unité entraîne l'activation de la représentation de la signification du mot dans le système sémantique o connexions bidirectionnelles entre lexiques d’entrée et sémantique <-- effet du contexte sémantique dans l’identification des mots Répétition d'un mot entendu peut avoir lieu de trois manières: o soit par la voie sémantique (comme pour la reconnaissance, voie 1) o soit en court-circuitant le système sémantique (voie 2) o soit en court-circuitant les deux lexiques (voie 3): voie nécessaire pour les nonmots ou les mots inconnus Observations de dissociations dans la pathologie: cas illustrant des atteintes sélectives de différentes composantes du modèle (ne pas retenir les différentes pathologies) A. Surdité de signification ("word meaning deafness") patiente décrite par Bramwell (1897) grande difficulté à comprendre la parole mais capable de répéter correctement la parole capable d’écrire des mots dictés, et ainsi les comprendre système d'analyse auditive intact (répétition ok) représentations sémantiques préservées (compréhension en lecture ok) lexique phonologique de sortie préservé (parole spontanée ok) lexique phonologique d'entrée préservé (écriture sous dictée ok) disconnexion totale ou partielle entre lexique phonologique d'entrée et système sémantique (voie 1) B. Agnosie phonologique auditive Patiente J.L. (Beauvois, Desrouesné & Bastard, 1980) parole spontanée quasi normale lecture et écriture de mots préservées mais grosses difficultés à comprendre certains mots parlés: o nouveaux termes scientifiques ou techniques o noms nouveaux de personnes et de villes aucun problème pour les mots et noms familiers répétition et écriture de non-mots pauvres déficits au niveau de la voie 3 (auditive extra-lexicale) C. Dysphasie profonde Patient décrit par Michel & Andreewsky (1983) incapacité de répéter des non-mots => déficits dans la voie 3 erreurs sémantiques en répétition de mots (rouge -> jaune) => déficits dans la voie 2 et passage par la voie 1 mots concrets > mots abstraits > mots de fonction + déficit syntaxique déficits dans l'accès à des représentations sémantiques détaillées à partir du lexique d'entrée (erreurs sémantiques) seule la voie sémantique est utilisable, mais pas intacte Page 11 of 15 D. Problèmes d'accès à des catégories sémantiques spécifiques 1. Cas décrit par Yamadori & Albert (1973) cas de surdité de signification (peut répéter et écrire des mots qu'il ne comprend pas) mais difficulté spécifique pour les noms de certaines catégories sémantiques: parties du corps et noms d'objets dans une pièce aucun problème pour les outils, ustensiles de cuisine et vêtements 2. Patient VER (Warrington & Mc Carthy, 1983) difficulté de compréhension des noms d'objets inanimés aucun problème avec noms d'animaux, de fleurs et d'aliments répétition assez bonne pour ces mêmes catégories déficits dans l'accès à certaines représentations sémantiques, par ailleurs intactes N.B.: appariement mot parlé - image: performance augmente quand on ralentit la présentation des items successifs (=> accès possible mais très lent) 3.7. Les Troubles de la compréhension et de la production de la parole Les troubles décrits à la section 3.6.4. concernent des atteints très spécifiques des processus de reconnaissance des mots qui sont relativement rares en comparaison des troubles beaucoup plus généraux et plus fréquents qui peuvent perturber la compréhension et/ou la production du langage: les aphasies nature et gravité des symptomes varient considérablement selon la localisation et l'étendue des atteintes cérébrales le plus souvent dans l'hémisphère gauche, où - chez les droitiers - s'effectuent les traitements linguistiques (mais aussi chez la moitié des gauchers) l'étiologie peut également être multiple (lésions, tumeurs, maladies dégénératives). L'AVC est une des clauses les plus fréquents Souvent aussi troubles du langage écrit (dyslexie/dysorthographie) et troubles moteurs (hémiplégie contralatérale) Les tentatives de classement ne doivent pas masquer l'extrême hétérogénéité des troubles Approche classique: essentiellement localisationniste: la description des principaux symptômes était mise en relation directe avec la localisation des lésions observées chez les patients Exemple: modèle de Wernicke (1874) et Lichtheim (1885) Page 12 of 15 La classification qui en découlait se fondait généralement sur des dichotomies: sensorielles vs motrices, réceptives vs expressives, fluentes (réceptives par ex Wernicke) vs non-fluentes (expressives, par ex Broca) Aphasie de Broca (1824-1880): Fluence très altérée: "manque de mot", prosodie bizarre, énonciation "télégraphique", agrammatisme (moi promener rue) Compréhension du langage et répétition (relativement) réservée Aphasie de Wernicke (1848-1905): Compréhension du langage très déficiente Paraphasie nombreuses: sémantique (table/chaise), phonologiques (table/tafle) -> néologismes Jargonaphasie: discours incohérent Anosognosie Page 13 of 15 Limite des approches aphasiologiques classiques terminologie employée depuis plus d'un siècle. Difficultés: Taxonomiser en fonction de dichotomies est trop simplistes: les troubles peuvent être à la fois réceptifs et expressifs, ... près de la moitié des patients sont difficiles à classer Approximation de l'identification des sites (IRM nous le montre) et d'autres sites lésionnels peuvent produire des déficits similaires sur le plan symptomatique le dvpt de la neuropsy cognitive contemporaine a révélé chez certains patients des troubles parfois très spécifiques (non-mots, catégories sémantiques ou grammaticales, voir 3.6.4.) et qui concernent des domaines particuliers du traitement du langage: phonologie, lexique, grammaire, ... 3.8. Conclusions Si les processus de reconnaissance de la parole traitent d’abord séquentiellement le signal, les processus subséquents opèrent vraisemblablement en parallèle et très rapidement. Les modèles visent à décrire la manière dont le système perceptif intègre processus ascendants et descendants L'approche neuropsychologique illustre la complexité des processus impliqués dans les troubles de la compréhension et de la production de la parole en suggérant l’existence de systèmes très spécifiques de traitement de l'information pouvant être sélectivement atteintes par une lésion cérébrale. Page 14 of 15 Page 15 of 15