Neuropsychologie : introduction

publicité
Neuropsychologie : introduction
I. définitions et rappels historiques
Déf. : La neuropsychologie humaine s'occupe des relations entre les fonctions mentales
supérieures et structures nerveuses qui les sous-tendent ; tente de découvrir les soubassements
structuraux ou cérébraux qui organisent la fonction supérieure.
C'est une discipline relativement jeune en terme d'étude scientifique de la psychologie.
Objectifs généraux :
1. L'analyse des mécanismes physiologique qui sous-tendent le comportement. Cet objectif
est une réelle proba pour la neuropsychologie. Cela est envisageable via les moyens
d'imagerie fonctionnelle.
2. La compréhension de l'organisation des processus cognitifs et comportementaux.
Objectif de connaître le sous-bassement général par ex. de la mémoire : le lobe temporal
médian, notamment l'hippocampe, est la voie par excellence pour enregistrer l'info. Comment
s'organise le souvenir ?
Rappel historique, rapports entre la cognition et le comportement.
L'état historique de la discipline est très important. il y a eu de nombreux progrès dans la
technique, dans l'approche. Mais la description du malade par un test neuropsychologique est
valable sans restriction.
Problème du dualisme, qui a limité l'utilisation de méthodes rationnelles et scientifiques au
corps.
René Descartes, 1647, méditations : fait une distinction claire entre res cogitans (la chose
pensée) et res extensa (la chose physique). Cela implique une division de l'homme en deux
partie, corps et âme, dont il situera le point de conjonction dans la glande pinéale
(hypophyse), notamment parce qu'elle est unique. De plus, des esprits animaux auraient une
influence sur le corps. Théorie très critiquée, qui tient la pensée pour inanalysable, et la
matière pour une simple étendue.
1677 : Spinoza et Willis critiquent le dualisme cartésien. Pour Spinoza, il n'y a qu'une
substance unique (dieu, la nature), dont corps et âmes ne sont que des modes.
1687 : Newton : Principes mathématiques de philosophie naturelle. Ouvre la porte à la
possibilité d'étudier l'âme de la même manière que le corps.
1690 : Locke : "Essay concerning human understanding" , basé sur les travaux de Newton.
Philosophe anglais, fondateur de l'empirisme, sensualiste ; cherche à étudier scientifiquement
la pensée.
Au XVIIIe siècle : associationnisme, qui explique les comportements complexes par
l'association de représentations, sensations ou images, et localisationisme, qui lie une fonction
à une localisation. Sont à la base de la neuropsychologie.
Les zones d'association ne sont pas amodales, mais polymodales.
Au XIXe, le caractère multidisciplinaire de le NP se profile, en même temps que sa rigueur
scientifique.
Les "faiseurs de diagramme". Astucieux et finalement féconds. Mais ils vont rapidement
tourner en rond, entre le sujet réel et le diagramme : ils créent leurs modèles à partir des
sujets, tout en expliquant les caractéristiques de leur sujets à partir de ces modèles, sans réelle
possibilité de vérification. De plus, limités à la méthode anatomo-clinique, ils leur arrivera de
forcer les explications de manière un peu artificielle, et d'aboutir à des résultats incohérents.
C'est l'ouverture à d'autres champs scientifiques (neuro-anatomie, physiologie,
psychophysique, neurologie...) qui permettra de rompre la circularité en permettant la
convergence de données complémentaires.
Shallice appelle cette période la "jeunesse rococo de la neuropsychologie".
Broca, Lichteim (1er diagramme de flux en 1885), Liepman (apraxies), Lissauer (agnosies),
Wernicke, et des cliniciens à double appartenance, soutiennent à la fois l'hypothèse de
localisation des fonctions élémentaires, et celle de la formation des facultés complexes par
association de centres.
Ils étaient convaincus du fait que les fonctions émergent du cerveau.
La complexité du cerveau peut sembler poser problème. Le nombre de combinaisons
neuronales possibles s'élève à 10e^(1 suivi de 1milliard de zéro) ! Or une telle évolution n'est
pas a priori nécessaire.
La position qui dit que "l'ensemble de notre vie est contenu à l'intérieur de notre cerveau" n'est
pas nécessairement matérialiste.
Le principal outil utilisé pour l'étude de patients cérébro-lésés présentant des troubles des
fonctions mentales supérieures fut la méthode anatomo-clinique :
1) observation d'un trouble et description précise.
2) Examen post-mortem.
3) Comparaison avec cerveaux sains et lésés (similaires ou différents).
4) Conclusions sur les liens entre localisations et fonctions.
Au XXe siècle, la première révolution est l'introduction de la psychométrie :
Mesure des phénomènes psychiques, par l'utilisation de méthodes expérimentales,
standardisées et étalonnées (batteries de tests).
Le premier est du à Binet et Simon, sur demande du ministère de l'instruction publique, et
servait au départ à repérer les enfants qui bénéficieraient d'un enseignement spécial.
Ce test ne deviendra célèbre qu'après 1916, date de sa traduction par Stanford.
En 1940, Hebb applique pour la première fois des tests d'intelligence à des patients cérébrolésés. Les patients frontaux réussissent normalement, ce qui renverse une certitude de
l'époque.
Chez l'homme, les lobes frontaux représentent 1/3 de la taille du cerveau, et les HC dans leur
ensemble, 80 %.
La taille relative du cerveau (quotient d'encéphalisation) semble jouer un rôle dans le
développement phylogénétique de l'intelligence. Mais il est insuffisant, voire trompeur ; en
effet, si les singes ont un QE de 2,5 et les hommes de 6,2, les dauphin en ont un de 6 ! Il faut
donc aussi accorder une importance, à un niveau plus fin, aux structures qui se sont
développées et à leurs emplacements.
Des collaborations de neurologues et de psychologues ont permis l'élaborations des premiers
tests proprement neuropsychologies.
Les évaluations NP se sont surtout multipliées à la fin de la 2e GM, par l'application à grande
échelle de la psychométrie, avec un souci de scientificité visant à se limiter à des traits
clairement mesurables.
La neurochirurgie.
A partir des années 70 (CAT scan), commença un fort développement de l'observation du
cerveau ; IRM dans les années 80, etc. Augmentation de la précision.
Veiller à éviter l'utilisation simpliste de batteries toutes faites ; préférer des tests personnels
conçus sur mesure et plus adaptés au particularités du patient et de son trouble.
La neuro-psychologie cognitive est issue du courant cognitif des années 60.
Norman GESCHWIND publie dans Brain, en 1965, un double article intitulé "dysconnection
syndrom in animal and man", qui est une revue exhaustive des recherches sur les liens des
fonctions et aires cérébrales chez l'animal lésé. Chez l'homme, on lit un retour vers le
diagramme de flux. Pour éviter la même impasse qu'"au XIXe, il faut tenir compte de la
notion de fonctionnement normal.
La psycho cognitive a commencé à élaborer des modèles au sujet du fonctionnement normal :
des modèles d'architecture fonctionnelle ("boîtes" représentant les fonctions supérieures, et
leurs articulations). Ces modèles vont servir de base pour interpréter le fonctionnement
anormal.
2 objectifs que se propose la NP cognitive :
1. Décrire l'architecture fonctionnelle des systèmes de traitement de l'information (TI)
insérés dans le cerveau.
TI implique des processus composés de plusieurs étapes respectant une hiérarchie
(importance de la fonction temps).
2. Préciser la nature des représentations sous-tendant ces traitements et des processus
mentaux émanant des composantes des systèmes de TI.
Représentation : évocation en absence, sans stimulation externe. Peut se construire à partir
de toute modalité (et de toute expérience) sensorielle.
Par ex. : la mémoire visuelle à long terme (MVLT) compte -au moins fonctionnellement- de
nombreuses composantes (topographie, catégories d'objets, couleurs...), desquels émanent des
processus mentaux.
Ces objectifs guident la recherche.
L'hypothèse centrale de la NP cognitive stipule que .........................
Cela implique qu'en cas de lésion neurologique, on n'attendra pas de "rupture" totale dans les
modes cognition ; il n'y aura pas d'apparition de phénomène nouveau.
La pathologie ne reflète pas la normalité, mais permet de discerner des dissociations
imperceptibles chez un sujet normal.
La NP traditionnelle a un but localisationniste : décrire corrélativement symptômes et lésions.
La NP cognitive s'attache à la compréhension du fonctionnement normal (comme but, et
comme base.)
La NP clinique en général présente aussi 2 objectifs principaux :
1. ...........................
La description et l'évaluation des fonctions intactes est aussi importante que celle des
fonctions perturbées !
2. .......................
Exemple ex abrupto, cité par une étudiante :
Femme ayant subi un accident vasculaire cérébral (AVC) dans le lobe occipital, sur une aire
de 2 x 7 mm. Présente une atteinte du champ visuel droit, ainsi qu'apparemment de la MLT.
Les troubles ont diminué par la suite.
On peut conclure que l'AVC a eu lieu à gauche, sans doute dans l'une des aires 17, 18 ou 19...
L'amélioration est probablement due à une réduction de l'œdème (qui accompagne parfois
l'AVC et provoque une compression des régions adjacentes.
Concernant le problème de mémoire, il faudrait faire attention à ne pas le rechercher avec des
moyens mettant en œuvre d'autres processus cognitifs, comme par ex. la lecture. Il faut en
effet tenir compte du fait que les patients cherchent parfois dissimuler leurs déficits quand ils
les considèrent "humiliants".
Il existe des patients avec des problèmes de lecture très sélectifs : des patients p. ex. ne
parvenant à lire que les mots présentant une correspondance grapho-phonétique régulière (ex.:
'maison', mais pas 'choléra').
On peut donc en tirer une conclusion concernant le sujet sain : Il doit exister deux voies de
lecture distinctes, une pour les mots réguliers une pour les irréguliers.
II. Méthodologie de la NPC
Elle doit être éclectique et associer plusieurs approches.
Les données neurologiques servent de point de départ. (AVC, tumeur, épilepsie...)
EN cognitive, ces données ne vont pas guider la démarche, mais simplement limiter les
possibilités syndromiques.
L'observation est nécessaire. La vision ultra-cognitiviste (représentée dans les années 80 par
Carramazza), qui consiste à ne pas tenir compte du cerveau, mais uniquement des modèles est
dépassée.
On utilise des modèles cognitifs et neurologiques, pour étudier les dissociations
comportementales en plus des bases anatomiques. L'étude des bases anatomiques est
essentielle, et riche en enseignements (not. : IC). C'est la convergence de données qui permet
d'avancer le plus et le plus sûrement.
On peut citer trois niveaux d'analyse :
1) Le niveau anatomique, qui correspond à la description du lieu de la lésion.
2) Le niveau anatomo-clinique, qui combine le niveau 1) avec une description
comportementale sommaire. (ex : "troubles non-verbaux.")
3) Le niveau neuro-psychologique, qui s'attache à une recherche et une description plus
fines du type de trouble.
La NPC analyse les processus lésés. L'IC aide l'analyse de ces processus dans le cerveau
intact.
Pour D. MARR (1976), plus l'objet est complexe, plus la probabilité qu'il soit composé de de
"parties" indépendantes augmente.
Ce postulat (modularité) a reçu des confirmations empiriques. Par ex., la reconnaissance
visuelle peut être altérée sélectivement, alors que le rappel, non..........................
Zeky a montré l'indépendance du fonctionnement de la reconnaissance des couleurs.
1 ) Module et modularité
Quantité d'interaction qui a lieu entre deux systèmes. ???????????????
FODOR, en 1984 décrit dans "la modularité de l'esprit" un certain nombre de caractéristiques
de ce qu'il appelle "module".
a) Encapsulation de l'information. Chaque module traite un type particulier de
l'information, par ex. la mémoire (encodage stockage et récupération).
Attention :il s'agit d'une notion fonctionnelle ; ne pas confondre avec l'idée d'une
localisation cérébrale unique !
La notion d'indépendance totale est à nuancer : certains modules (not. intégratifs)
reçoivent des informations d'autres modules.
b) Spécificité du domaine. Traitement d'un type d'information (p.ex. verbale, visuelle
???) spécifique du type d'entrée pour lequel il est conçu."Système perceptif" n'est pas
assimilable aux modalités sensorielles traditionnelles, mais est plus précis (on peut
p.ex. imaginer un module spécifique de la reconnaissance des visages, un pour
l'analyse des voix...
c) Déclenchement irrépressible.
Il est ainsi par ex. impossible de ne pas reconnaître quelqu'un. Il y a une limite à cela,
quand sont mises en œuvre des stratégies de recherche.
Il faudrait faire la distinction entre modules et aspects centraux.
d) Ontogenèse fixée, (déterminisme génétique).
Les critiques se fondant sur l'existence de fonctions cognitives clairement acquises
sont sans objet. En effet, ce sont les conditions d'apparition d'une fonction, ainsi que
son évolution qui sont déterminées. Ex de la lecture : la quasi totalité des animaux ne
lit pas, de même que, passé un certain âge, un enfant humain ne semble plus pouvoir
apprendre à lire.
???...............;
Cependant, tous les processus ne sont pas modulaires. Les processus de haut niveau
impliquent plusieurs types de cognition.
En complément de la thèse modulariste de Fodor, Caramazza (1984) a introduit le postulat de
transparence, qui stipule que "le comportement d'un patient atteint d'un lésion cérébrale peut
être compris comme le résultat visible du fonctionnement normal du traitement d'un système
de l'individu au sein duquel certains sous-systèmes ont été endommagés."
C'est un postulat réductionniste, mais qui peut avoir un certain intérêt, et notamment aider
dans l'interprétation des troubles.
(poly...)
Saffran (1982) a poussé cette ligne de raisonnement à l'extrême, et a formulé le postulat de
soustractivité :
"La performance d'un patient cérébro-lésé reflète la machinerie cognitive totale, moins le ou
les systèmes lésés."
Ce postulat est encore (beaucoup) plus réductionniste que celui de Carramazza, et montre une
grande difficulté à prendre en compte les lésions de connexions. Il a subi de nombreuses
critiques. Il est surtout intéressant historiquement.
L'approche de base de la NP est celle du cas unique. Mais cela est en train de se nuancer,
depuis l'arrivée des techniques de neuro-imagerie fonctionnelle.
2 ) L'étude du cas unique
Il faut d'abord noter l'obligation d'utiliser des données provenant de sujets normaux. Ceci n'est
pas tant motivé par la nécessité de comparaison (qui est plus vraie en NP traditionnelle) que
par la source indispensable de matériel qu'ils représentent. En effet, les tests, donnée, etc.,
pour pouvoir avoir une quelconque utilité, doivent avoir été élaboré, échantillonnés sur des
sujets sains.
Qu'est-ce qu'un cerveau normal ?
- Cela n'existe pas.
Tout cerveau, et partant toute cognition présente des "défauts", des imperfections. Une
perfection - relative - ne semble atteignable que par ceux que l'on appelle les imbéciles
savants, quasi omniscient sur un domaine d'autant plus restreint qu'est grande leur
connaissance... et idiots par ailleurs.
Remarque (D):
- l'imperfection constatée n'est p-ê que le corollaire de la normalité, qui consiste pour un
cerveau d'humain à lui permettre une certaine gamme de types d'apprentissages, en plus d'un
certain nombre de performances..... ??
Problème méthodologique : la variabilité normale des sujets sains.
Dans la méthodologie du cas unique, celle-ci n'est plus estompée par les statistiques. En
présence d'un certain comportement, ou performance, il est indispensable de savoir si cela
correspond à une séquelle de sa lésion (caractéristique morbide), ou bien à une caractéristique
pré-morbide, normale, de son fonctionnement cognitif.
M. B. par ex., hospitalisé à la Salpêtrière, présentait un comportement de désinhibition, et
racontait très facilement sa vie intime (devant plusieurs personnes). Une démence frontale
semblait probable, d'autant que d'autres indices le laissait supposer. De simples demandes à
son entourage ont permis d'infirmer ce diagnostic : il était acteur et chanteur, et avait toujours
été exubérant...
Il faut donc, quand c'est possible, se référer aux proches, et tenter de connaître le passé de la
personne.
On estime ????? de 5 à 15 % le nombre de diagnostics incorrects.
Il faut ensuite veiller à comparer se performances avec des personnes appariées.
Les conclusions vont se baser sur le concept de dissociation cognitive. Le point de départ
sera la fragmentation des processus cognitifs, pour mieux les analyser.
Simple dissociation :
Cela correspond à la situation où, chez un sujet, un système A est intact, alors qu'un système
B est perturbé.
Imaginons un sujet présentant un problème de M non verbale. A un test de M° des visages il
obtient 2 / 25, ce sui est très déficitaire, alors qu'à un test sur les formes géométriques
(beaucoup plus simple), il obtient 19 / 20, ce qui est excellent. Nous avons affaire à un cas
dissociation simple.
Il est impossible de conclure quoique ce soit à propos de la séparation des modules, à partir de
ce seul résultat, celui pouvant résulter d'autres cause (différences de difficulté, imbrication...).
Si, d'un autre côté, une femme obtient 23 / 25 pour les visages, et 5 / 20 pour les formes, alors
nous avons affaire à une double dissociation, les deux sujets présentant des déficits "en
mirroir".
La double dissociation est fondamentalement différente de la simple. On ne peut plus à ce
moment invoquer la difficulté de la tâche, et on peut conclure que visages et formes sont
traités par des modules distincts (c'est un exemple ≈ réel).
Un exemple classique de la double dissociation est celui du cas K. F. de Warrington &
Shallice (1969, 70, 71). La MCT fut longtemps considérée comme la porte d'entrée de la
MLT. Et en effet, les données semblait le confirmer, des milliers de patients ayant été
observés pour des troubles de MLT avec MCT conservée, alors que le contraire n'avait jamais
été observé. C'était une situation de dissociation simple.
K.F., lui, présentait une MCT très endommagée ( il ne mémorisait pas plus de 2 items !), alors
que sa MLT était préservée, tout au moins dans les épreuves qui ont été testées (M
épisodique, verbale...). La situation était dorénavant celle d'une dissociation double, et l'on
pouvait conclure à la séparation des deux systèmes de M.
Un exemple classique de dissociation double de sous-systèmes, par Marschall & Newcombe
(1973), est celui qui leur a permis de distinguer deux types de dyslexie. Un patient parvenait à
lire les mots à contenu (ou subjonctifs), mais pas les mots grammaticaux (avec, pour, sans,
de...). Un autre, présentait la configuration contraire. Il sont donc pu conclure à l'existence de
deux voies de lectures, modulaires.
Cette méthodologie sert à postuler, à inférer des voies différentes, relativement indépendantes.
Elle a permis de nombreuses acquisitions.
Une critique fréquente soutient que la méthode du cas unique n'est pas scientifique.
Elle doit cependant pourvoir à de nombreuses exigences.
1 ) analyse approfondie d'un cas individuel comme source de données généralisables. Il faut
procéder à des examens très complets, pour éviter les variables pouvant contaminer les
données (fatigue, médication, anxiété, difficulté ???, niveau culturel...). La répétition des tests,
est ainsi très importante (surtout pour les tests déficitaires ??), malgré les difficultés qu'elle
peut poser.
2 ) Un point important est l'expérience du NP - la bouteille. L'organisation de situations tests
qui mettent en évidence des déviations du système fonctionnel établi chez les sujets normaux.
Souvent, la NP de recherche implique de passer beaucoup de temps avec le patient (avec son
accord évidemment). Il arrive qu'on soupçonne chez lui un comportement mettant en relief
non encore remarqué (en lecture par ex., ne touchant ni les mots à contenu ni les mots
grammaticaux). Dans ce cas, il est nécessaire de construire (parfois après l'avoir inventé),
théoriquement et concrètement, un test qui soit capable de mettre à jour ce comportement,
pour montrer si le sujet présente ou non un déficit. Ce type de travail nécessite beaucoup de
créativité et de temps et ne permet pas toujours de déceler un déficit (recommencer...) !
3 ) La généralisation des théorie est garantie par l'utilisation de modèles et théories obtenus
chez le sujet normal.
Conclusion : la théorie ne découle pas du cas unique, mais du fonctionnement normal et de
l'étude exhaustive de plusieurs cas.
La NP est un des domaines les plus exigeants quant à la méthodologie, pour la publication.
Elle impose généralement au moins plusieurs conditions :
 inclure une ligne de base, basée sur des tests standardisés, de façon à transmettre la
performance du patient selon une norme accessible à toute la communauté
scientifique.
 Utiliser un ensemble de tests spécialement conçus et construits pour tester une
hypothèse sur la nature de son trouble - et éviter les batteries standard inadaptées.
 Contrôler strictement les conditions : appariement des témoins si les tests sont
inventés (s'ils existent déjà, ils sont déjà standardisés). Il faut notamment vérifier les
données de base : âge, sexe (important notamment dans le cas du langage), niveau
culturel, latéralité manuelle... et d'autres en fonction des spécificités du test.

Les tests clefs doivent être passés plusieurs fois (au moins 2). Il faut pour cela
construire plusieurs versions de ces tests, ce qui complique et rallonge le travail, mais
est nécessaire pour éviter les erreurs.
Si on observe une différence entre deux passations à un test :
 s'il s'agit d'une amélioration : on peut remercier le patient, car un bon score (une
performance) est impossible avec un déficit.
 Si c'est une chute : il est impossible de conclure (cela peut être dû à des variables
parasites, ou à l'évolution de son trouble...????). Il faut construire un troisième version,
ce qui peut être difficile, voire impossible.
Analyse des déficits
Elle doit se baser sur 4 paramètres :
 L'effet réel qu'on peut (par hypothèse ??) attribuer à une altération des modules ou
processus cognitifs.
 Les variables individuelles.
 Les effets des opérations compensatoires (qui indiqueraient une plasticité). Il est
dans la plupart des cas impossible de se prononcer avec assurance, mais il faut tout de
même essayer.
 Les déficits qui ne sont pas attribuables aux troubles de l'hypothèse de travail. Par ex.,
si un sujet ne parvient pas à lire tel type de mots (concernant l'hypothèse de W), et
qu'il est également incapable de copier un dessin complexe. Ce dernier point ne
concerne pas l'HdW ; il faut pourtant tout de même l'indiquer, car c'est une indication
qui pourrait avoir un intérêt futur, et élargir la recherche...
Critiques de l'approche cognitiviste
Les "diagrammes de flux" des NP cognitivistes ont été très critiqués, leurs boîtes et leurs liens.
Il faut cependant remarquer que cela représente un outil pratique (facilitateur) de travail.
Elle 'permet' de gérer le problème ????? qui vient de la distinction entre représentations
stockées et mécanismes agissant sur elles.
Tout d'abord, par ex. pour un sujet présentant des problèmes de répétition, on peut se
demander s'il s'agit d'un mécanisme externe (il est sourd), d'un problème de connexion (l'info
ne passe plus), ou d'un mécanisme interne, ce qui seul est du ressort du NP.
Ensuite on peut se demander s'il s'agit d'un pb de R° ou de mécanisme.
Cette confusion peut avoir des conséquences lors de la mise sur pied d'un programme de
réhabilitation : faut-il travailler sur les R° elles-mêmes ou sur ce qui les entoure ?
Critiques à la théorie de la modularité
Il existe des facteurs non modulaires, comme la vitesse d'apprentissage, la recherche de
stratégies, etc. qui ont une influence sur les traitements modulaires. Si les régions impliquées
dans ces facteurs sont lésées, leur influence se fera sentir sur le fonctionnement général, sur
l'ensemble des modules. Ainsi, une lésion du tronc cérébral (très impliqué dans l'attention)
rendra impossible tout apprentissage.
Le postulat de transparence a aussi été critiqué par certains chercheurs avec des approches
holistiques. Pour eux, la lésion cérébrale n'implique pas le dysfonctionnement d'un petit
module, mais une réaction générale. Ainsi, Goldstein remarque-t-il que deux sujets présentant
une lésion identique vont exprimer des troubles différents. Il introduit la notion de réaction
émotionnelle. ????
En NP, c'est la convergence de résultats qui va permettre de dépasser cet ensemble de
critiques. Pour être scientifique, elle nécessite différentes lignes de vérification, dont les trois
principales, et les plus efficaces sont :
 les sujets normaux,
 les doubles dissociations,
 les données anatomiques.
Conclusion
Les théories de Fodor et Marr ont permis à l'approche cognitive un cadre général capable de
soutenir une stratégie recherche.
Les ouvertures de cette théorie (ce vers quoi elle peut s'orienter) :
 une caractérisation précise des organisations modulaires (avec l'aide de l'IA, de la
robotique...)
 la détermination du nombre exact de modules ou de sous-composants de la cognition
humaine (ce qui est plus un idéal qu'une possibilité),
 la détermination des traitements opérés par chacun d'eux,
 (Manning) le degré d'indépendance et d'interconnexion des modules, et l'activation de
leurs connexions.
Téléchargement