CM 1 à 4

publicité
Licence 2
Cognition & motricité
____ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __
2004 – 2005
Yve s Ke rl irzin
Plan du cours
********
Introduction, déf initions
I- Rapp el s su r l e cer veau
A - Caract éris tiques
B- L'exist ence d'une neuro genè se
C- Dé ter minism e géné tique et é pigenè se
D- La th éorie du dév el oppe ment du sy st ème n er veux pa r épigen ès e
E- Labil ité et dég éné re scence syna ptiques
F- Pl asticité du sy stè me n erv eux et p ériode s critiques
II- Connais sanc e du cerv eau
U n peu d'h istoire
A )- U ne approch e intuitive
B)- A pproch e expé rimen tal e
C)- Imag erie cé réb ral e
c1)- La tomographie par émission de positons
Intérêt médical de la Tomographie par émission de positons
c2 ) L'imagerie par résonance magnétique
Imagerie par résonance magnétique fonctionnelle
c3 ) L'électroencéphalographie
c4 ) La magnétoencéphalographie
c5 ) Bilan et conclusion
III- L'a tten tion
Introduction, déf initions
A - A ttention et vigil ance
B- Dé tection e t discrimination d'un signal
C- Th éorie de l a dé tection du signal et pr atique s porti ve
D- Le s th éo ries cognitiv es de l 'att ention
a) L'hypothèse du canal unique de traitement
b) Théorie du filtrage
c) Filtre sélectif précoce de Broadbent
d) D'autres filtres sélectifs plus tardifs
e) Des ressources multiples
f) Le paradigme de la double tâche
E- Ori entation vi suel l e en s port
Emprunts, références, sources
Cognition & Motricité
-1Yves Kerlirzin
__________________________________________________________________________________________
Introduction, déf initions
La cognition peut se définir par l'ensemble de processus mentaux comprenant l'acquisition, le
stockage, la transformation et l'utilisation des connaissances. Ces processus mentaux sont par
exemple la perception, la mémorisation, le raisonnement, le traitement de l'information, la
résolution de problèmes, la prise de décision, etc.
Ces processus mentaux sous-tendent la réalisation d'habiletés motrices complexes et
notamment les habiletés motrices sportives. Cognition et motricité sont donc intimement liées,
que ce soit dans la vie au quotidien ou lors de la pratique d'activités physiques et sportives, et le
cerveau joue un rôle tout à fait central et essentiel dans le déroulement de ces activités
cognitives et motrices. Il assure au quotidien les différentes fonctions permettant l'adaptation
de l'individu à son environnement, que cet individu soit sédentaire ou très actif, sportif.
I- Rapp el s su r l e cer veau
A - Caract éris tiques
Le cerveau se caractérise par son extrême complexité. Il comprend environ 1012, soit cent
milliards de cellules nerveuses (les cellules gliales, terme qui pourrait se traduire par l'idée de
glu, et les neurones), pèse chez l'adulte environ 1400g (300g à la naissance environ) pour un
volume d'environ 1200 cm3 .
L'unité fonctionnelle du système nerveux, le neurone, assure l'émission et la propagation du
message nerveux sous forme de signaux électriques (potentiels d'action). De ces neurones
partent deux types de prolongements, l'axone et les dendrites.
Cognition & Motricité
-2Yves Kerlirzin
__________________________________________________________________________________________
Neurone complet - Otto Deiters - 1865
Structure du neurone. D'après Bear et al., 2002
L'accroissement de masse du cerveau coïncide avec la poussée des axones et des dendrites.
Le corps cellulaire reçoit un ou plusieurs prolongements assez courts appelés "dendrites". Ces
dendrites sont les organes récepteurs du neurone, ceux qui conduisent l'influx vers le corps
cellulaire. Celui-ci émet par ailleurs un prolongement en général long par où part l'influx : l'axone.
Certains neurones ont des axones de plus de 50 cm.
Les neurones assurent la transmission de l'information (influx nerveux, message nerveux) par
des liaisons (synapses) reliant chacun d'eux à un ou plusieurs autres neurones. Cette transmission
est à la fois électrique (à l'intérieur du neurone) et chimique (à la sortie du neurone) se
traduisant par la libération d'un neurotransmetteur (une substance chimique comme l'adrénaline
par exemple) qui provoque une réaction électrique dans le neurone récepteur.
Le terme synapse fut forgé en 1897 par un helléniste, à la demande de Sherrington,
physiologiste anglais, afin de donner un nom (dont la traduction française pourrait être «agrafe»)
à un concept plus qu’à l’image d’une réalité reconnue. En effet, à cette époque, plus d’un
cytologiste (cyto = cellule) niait l’individualité cellulaire du neurone et croyait à la continuité et
non à la contiguïté des liaisons interneuronales, à l'existence en quelque sorte d'un véritable
Cognition & Motricité
-3Yves Kerlirzin
__________________________________________________________________________________________
réseau continu, un réticulum. Ceci a donné naissance à la théorie dite réticulariste ou réticulaire,
dont l'un des partisans les plus connus fut Camillo Golgi (1843-1926), en opposition avec Ramon y
Cajal (1852-1934). La réponse à cette question ne fut apportée que dans les années 1950, grâce
aux progrès du microscope électronique confirmant l'hypothèse de la contiguïté et non de la
continuité.
Illustration simplifiée d'une synapse
On observe donc dans le cerveau une extrême diversité de réseaux, de relations ou
interconnexions neuronales : chaque cellule nerveuse reçoit ou transmet entre 5000 et 90 000
échanges fonctionnels, permettant de véhiculer l'information. Le cerveau doit ainsi être
appréhendé en premier lieu comme le lieu privilégié de relations et d'échanges avec le milieu
environnant. Il a pour cela à sa disposition de nombreux capteurs différenciés, spécialisés,
traduisant en potentiels électriques (potentiels d'action) les stimuli du monde extérieur. Ces
derniers, grâce aux propriétés caractéristiques d'excitabilité de la membrane neuronale,
permettent la transmission des différentes informations aux diverses structures cérébrales.
Une fois le potentiel d'action parvenu à la terminaison nerveuse, l'information électrique est
traduite en information chimique et libérée au niveau synaptique (fente), lieu de contacts et
d'échanges entre les différents neurones (les synapses présentent des temps de fonctionnement
de l'ordre de la milliseconde). Ces informations permanentes nous permettent de construire du
monde une image unifiée, cohérente, stable, par l'intégration au niveau du cerveau des données
sensorielles et motrices. Cette cohérence entre la perception et l'action est essentielle à la fois
Cognition & Motricité
-4Yves Kerlirzin
__________________________________________________________________________________________
pour la survie de l'individu, mais également dans une perspective développementale. Bien sur, la
survenue d'un accident particulier (choc, tumeur, etc.) affectant les différentes structures
mises en jeu dans la circulation des informations peut interrompre, compromettre la
communication entre les régions concernées du cerveau et entraîner, de façon temporaire ou
permanente des incapacités (lecture, langage, compréhension) ou l'installation de handicap
(séquelles définitives).
Les illustrations précédentes rappellent brièvement les différentes structures et régions
spécifiques du cerveau. On constate ainsi que le cortex cérébral est constitué de circonvolutions
appelées (gyrus ou gyri) séparées les unes des autres par des sillons plus (scissures) ou moins
profonds (sulcus ou sulci).
Quelques rappels ou précisions : Le cortex préfrontal joue un rôle essentiel dans les activités
cognitives. La zone de Broca, importante dans la fonction du langage, est normalement située
Cognition & Motricité
-5Yves Kerlirzin
__________________________________________________________________________________________
dans le lobe frontal de l'hémisphère gauche à côté de la région qui contrôle le mouvement de
certains muscles faciaux : ceux de la langue, des mâchoires et de la gorge. L'atteinte de cette
zone (caractérisant l'aphasie de Broca) entraîne pour le sujet des difficultés à émettre des sons,
à effectuer par exemple les mouvements de la langue. La lecture ou la compréhension ne sont pas
affectées mais l'écriture devient difficile.
Les lobes occipitaux, avec notamment le cortex visuel, interviennent dans le traitement des
informations visuelles (rappel de la décussation d'une partie des voies nerveuses visuelles avec
l'interprétation des différents espaces). Les lobes temporaux jouent un rôle dans l'audition, la
constitution de la mémoire, le langage, la parole (ils comprennent la zone de Wernicke mise en jeu
dans certaines aphasies : le sujet entend les mots – les siens ou ceux d'autres personnes - mais
se trouve dans l'incapacité de leur attribuer un sens) Les lobes pariétaux interprètent
simultanément les différentes informations sensorielles en provenance des autres régions du
cerveau.
Enfin, le cervelet joue un rôle central dans la coordination et l'exécution des mouvements,
dans le contrôle de notre équilibre et de notre posture (cf. cours contrôle moteur).
Le cerveau n'arrive à maturité chez l'homme qu'après une période d'environ dix ans. Durant
cette période développementale, comme au cours de l'existence plus tardive du sujet, vont se
mettre en place progressivement et se développer des échanges, des interactions parfois
complexes mettant en jeu divers processus qui relèvent pour partie d'un mécanisme de
maturation (mettant en jeu le patrimoine génétique) et pour une autre partie des relations que le
sujet va pouvoir nourrir avec son environnement, créant ainsi les conditions propices à différents
apprentissages, à la construction notamment de la mémoire.
B- L'exist ence d'une neuro genè se
Deux grandes périodes peuvent être distinguées dans le développement du système nerveux :
une phase précoce, essentiellement prénatale, et une phase plus tardive, débordant largement
sur la vie post-natale. Le cortex se forme chez l'être humain par différenciation du tube neural.
Dès la sixième semaine de vie embryonnaire, la vésicule la plus antérieure du tube neural se divise
en deux compartiments qui vont donner chacun naissance à un hémisphère cérébral. Les cellules
qui composent la paroi du tube neural vont se diviser, produisant jusqu'à 250 000 cellules par
minute. Cette division cellulaire s'arrête environ seize semaines après la fécondation. Pour
certains, cela signifie que l'être hu main vient au monde avec un nombre maximal de cellules
nerveuses corticales, nombre qui ne fera que décroître par la suite. Pour d'autres, cette
neurogenèse, c'est-à -dire la formation et le développement de nouveaux neurones fonctionnels,
Cognition & Motricité
-6Yves Kerlirzin
__________________________________________________________________________________________
Invagination progressive du
tube neural
se poursuit dans le cerveau adulte, et ce tout au long de la vie. C'est dans les années 1960 que
l'on s'est aperçu pour la première fois que de nouveaux neurones apparaissaient dans le cerveau
des mammifères adultes. Jusqu'à cette période, on considérait le cerveau adulte comme un
organe dépourvu de toute capacité régénératrice et condamné à perdre définitivement ses
éléments les plus précieux, les neurones. La plasticité cérébrale (notion sur laquelle nous
reviendrons) était expliquée par le développement synaptique (la constitution de liaisons), à la
suite principalement des travaux de Pasko Rakic, de l'université de Yale.
Mais en 1965, les expériences de Joseph Altman et Gopal Das (MIT) et différentes
expérimentations menées sur le rat adulte montrent qu'outre le renouvellement après lésion de
certaines
cellules
(gliales)
d'un
type
particulier,
d'autres
cellules
présentant
des
caractéristiques semblables à celles des neurones (rien d'affirmatif, le doute subsistant sur la
nature réelle de ces nouvelles cellules, i.e. gliales ou neurones) apparaissaient à partir de
différentes zones germinatives (en l'occurrence le gyrus dentelé de l'hippocampe et le système
olfactif) constituée de cellules souches, Ces cellules souches sont des cellules indifférenciées,
capables de s'auto renouveler, de se reproduire afin de maintenir d'une part un réservoir
permanent de leur type et d'autre part de donner naissance à des cellules différenciées
présentant des spécificités particulières (fonctionnelles, morphologiques, durée de vie, etc.). Il
existe différents types de cellules souches."
Ces données ont été confirmées dans les années 1980 par l'apparition de nouveaux neurones
(quelques cellules possédant des synapses) dans le cerveau de canaris lors de l'apprentissage de
nouveaux chants (ce phénomène de neurogenèse est relativement abondant chez certains reptiles
et certains oiseaux). Ce n'est qu'au début des années 1990 que l'utilisation de marqueurs
spécifiques a permis de montrer que le nombre de cellules nerveuses nouvellement nées était
abondant. Les travaux d'Elisabeth Gould rapportent la naissance de nouveaux neurones dans
Cognition & Motricité
-7Yves Kerlirzin
__________________________________________________________________________________________
l'hippocampe de rat. Ses conclusions, notamment dans la fin des années 1990, précisent le rôle
joué par l'environnement dans la formation (un environnement enrichi par des stimulations
diverses, un animal entraîné) ou le ralentissement de la formation (le stress, la dépression, un
environnement appauvri) de ces nouvelles cellules nerveuses. Cette neurogenèse a depuis été
décrite chez toutes les espèces de mammifères étudiées, dont l'homme, mettant en jeu des
zones cérébrales plus étendues qu'on pouvait le penser de prime abord (d'abord semble-t-il
localisé au niveau du bulbe olfactif et d'une partie de l'hippocampe), comme certaines régions du
cortex (néocortex) des primates. Or, nous savons le rôle essentiel joué par cette structure dans
les processus cognitifs les plus élaborés. Mais il semble également probable qu'on ne puisse pas
découvrir de neurogenèse dans toutes les régions cérébrales. Une récente étude sur le
néocortex des primates a mis en évidence des neurones nouveaux dans trois régions du cortex
associatif (les zones préfrontale, temporale inférieure et pariétale postérieure) ; en revanche,
malgré un examen attentif, il n'a été observé aucun renouvellement dans le cortex strié. Ce
résultat est particulièrement intéressant, car le cortex associatif joue un rôle important dans
les fonctions cognitives de haut niveau, alors que le cortex strié, également dénommé cortex V1
(pour aire visuelle primaire) intervient dans le traitement des informations d'origine visuelle.
Cette différence donne à penser que la neurogenèse pourrait jouer un rôle clé dans des fonctions
plastiques par essence, alors qu'elle serait sans objet pour des fonctions comme le traitement
des données sensorielles, qui sont en général stables tout au long de la vie. Cette idée cadre bien
avec ce que l'on sait de la neurogenèse dans le reste du cerveau."
"Les données expérimentales publiées en 1998 par Fred Gage (Institut Salk, La Jolla,
Californie) et Peter Eriksson (Université de Göteborg, Suède) ont confirmé l'existence de
cellules souches neuronales chez l'homme à partir de l'observation de tissus cérébraux prélevés
sur des patients décédés qui avaient reçu, dans le cadre d’un traitement anticancéreux, une
substance radioactive destinée à mesurer la vitesse de croissance des tumeurs. L’analyse de
l’hippocampe de ces sujets (zone cérébrale essentielle pour la mémoire et pour l’apprentissage) a
révélé la présence de neurones porteurs de ce marqueur, qui avaient donc été produits,
vraisemblablement par prolifération et différenciation de cellules souches, après l’administration
de la substance 82. Cette observation a pu être faite chez cinq personnes décédées entre 16 et
781 jours après l’injection du produit radioactif. " "Les travaux ont été repris sur les rongeurs à
la suite de cette découverte. Les recherches précédentes avaient révélé que de nouveaux
neurones apparaissaient tout au long de la vie des animaux dans l’hippocampe et dans les zones
cérébrales du système olfactif. Des cellules souches sont également présentes dans certaines
Cognition & Motricité
-8Yves Kerlirzin
__________________________________________________________________________________________
zones du cerveau telles que le septum (qui participe aux émotions et à l’apprentissage), le
striatum (qui intervient dans les activités motrices de précision) et la moelle épinière. Toutefois,
dans les conditions normales, seules les cellules souches de l’hippocampe et du système olfactif
semblent produire de nouveaux neurones. "
Ceci énoncé, il semble à l'heure actuelle difficile d'affirmer que ce renouvellement constaté
puisse concerner tous les types de neurones. "Aujourd'hui encore, on ne sait pratiquement rien
de l'identité des nouveaux neurones corticaux, on ignore notamment s'ils appartiennent ou non à
un seul sous-type neuronal." Le développement embryonnaire se poursuit donc sous une forme
silencieuse chez l'adulte par la génération de nouvelles cellules souches qui vont migrer, se
différencier et s'insérer dans de nouveaux réseaux neuronaux, et ce jusqu'à la mort. De ce point
de vue, la question du vieillissement est sans doute à re poser. On pense en effet généralement
que ce dernier se caractérise par une perte de fonctions à partir d'un âge donné.
Même si ces questions demeurent l'objet de débats dans la communauté scientifique, ces
premiers résultats, démontrent que de nouveaux neurones peuvent naître, se développer dans
certaines parties du cerveau et établir des connexions fonctionnelles avec les différents réseaux
pré-existants. La neurogenèse pourrait ainsi nous fournir un certain nombre de réponses ou de
voies de recherche pour comprendre et peut-être prévenir et traiter différentes maladies
neurodégénératives
comme
par
exemple
la
maladie
d'Alzheimer. "Des
expériences
de
transplantation de cellules souches neuronales pour le traitement de la maladie de Parkinson et
d’autres affections neurologiques sont en cours, tant aux Etats-Unis qu’en France, sur des
modèles animaux.
C- Dé ter minism e géné tique et é pigenè se
Le développement du cerveau, son unité, s'effectuent sous le contrôle du patrimoine
génétique (on compte environ 30 000 gênes dans le génome humain, dont 15 000 sont de
fonctions supposées et 5 000 assez bien connues), celui-ci mettant au service de ce
développement un nombre élevé de combinaisons possibles (il faut rappeler de ce point de vue que
la construction du cerveau humain ne suit pas un programme particulier). Il est erroné d'affirmer
que le développement de la formidable complexité cérébrale répond à un déterminisme strict (ou
à un sur déterminisme) du génome. Cette prégnance du génome introduirait l'idée de l'existence
d'invariants au niveau comportemental. Cette notion est fondamentale car cela signifie que si l'on
accepte l'idée d'un sur déterminisme génétique, toute possibilité d'apprentissage semble a priori
exclue, le développement suivant alors de façon stricte le "programme" imposé par le génome du
sujet. De ce point de vue, comme le propose Changeux, "il paraît utile d'introduire le terme
Cognition & Motricité
-9Yves Kerlirzin
__________________________________________________________________________________________
d'enveloppe génétique pour délimiter les caractères invariants soumis au strict déterminisme des
gênes et ceux qui font l'objet d'une importante variabilité phénotypique.". Ce déterminisme est
responsable des divers processus développementaux mis en jeu dans la maturation du système
nerveux (par exemple, le comportement du cône de croissance, la mise en place des connectivités,
l'existence d'activité spontanée dès les premiers stades de l'assemblage des circuits nerveux).
A partir d'un même génotype, des phénotypes différents pourront voir le jour en fonction des
expériences singulières des sujets. C'est le cas pour les vrais jumeaux, dits monozygotes
(provenant d'un seul et même ovule fécondé par un seul spermatozoïde). A partir d'un patrimoine
génétique supposé identique (les vrais jumeaux sont dits isogéniques), les variabilités
phénotypiques constatées ne devraient être dues qu'à des environnements différents. Un travail
récent (Bartley et al., 1997) montre que même les cerveaux de vrais jumeaux se révèlent être
différents. Ces auteurs ont montré que le volume du cerveau humain serait presque entièrement
déterminé par des facteurs génétiques alors que le dessin des circonvolutions cérébrales (ceci
laisse à penser que les populations cellulaires corticales, qui sous-tendent la forme de ces
circonvolutions, ne sont pas réparties de la même façon chez des sujets supposés génétiquement
identiques) dépendrait surtout des conditions environnementales. Ceci confirme l'idée selon
laquelle le système nerveux comporte une part d'individualisation qui n'est pas dictée par le
génome.
D- La th éorie du dév el oppe ment du sy st ème n er veux pa r épigen ès e
Un certain nombre d'auteurs ont proposé une théorie dite épigénétique du développement. Ce
terme n'est pas nouveau (il était déjà utilisé au dix-huitième siècle – en 1759 par C. F. Wolf),
bien que son acception ait changé depuis un siècle environ. La doctrine de l’épigenèse propose une
thèse selon laquelle la forme individuelle d’un être vivant n’est pas présente à la fécondation.
Cette forme n’apparaît que progressivement, et cette formation lente va durer tout au long de la
gestation, de l’incubation, de la métamorphose ou de la germination. Depuis un siècle, cette thèse
a été étendue à la neurogenèse postnatale, ainsi qu'à la psychogenèse. Cette thèse entre en
contradiction avec la doctrine de la préformation qui postule que la forme singulière, unique,
préexiste matériellement, bien qu’invisible, dans un germe. De ce point de vue, l’ontogenèse serait
ainsi un simple "agrandissement", l’ordre des parties restant invariant du germe à l’individu
achevé. L'épigenèse peut se définir, selon Changeux, comme un "mécanisme combinatoire ne
faisant plus intervenir de modification du matériel génétique, s'exerçant au niveau des
ensembles de cellules nerveuses. Il possède pour origine la topologie (c'est-à -dire la disposition
Cognition & Motricité
-10Yves Kerlirzin
__________________________________________________________________________________________
géographique) du réseau des connexions qui s'établissent entre neurones au cours du
développement."
L’épigenèse propose l'idée selon laquelle l'organisme, confronté aux contraintes particulières
d'un environnement donné, mettrait en place, puis sélectionnerait et stabiliserait les connexions
qui sont effectivement sollicitées et mises en œuvre au cours du développement. Par exemple, le
développement de la vision, l'apprentissage et le développement dans l'acquisition de la langue
maternelle, procèdent de tels mécanismes. Ces derniers se placent dans le cadre d'une
conception interactionniste de l'individu avec son environnement (on retrouve cette perspective
dans les relations de l'enfant avec l'adulte ou d'autres enfants, les attitudes et conduites des
uns et des autres étant modulées, réorganisées en fonction des relations établies –échanges,
mimiques, etc.). Cette conception interactionniste a donné lieu à de nombreux travaux en
théories du développement et de l'apprentissage.
Ainsi, à l'échelon neurobiologique, les conditions de la synaptogenèse, c'est-à-dire de la
formation de synapses, de relations qui progressivement s'établissent entre les différentes
cellules nerveuses, ont montré qu'au cours du développement de la jonction neuromusculaire
s'opérerait une sélection et une stabilisation de l'un des contacts synaptiques établis, sur la base
de l'exercice fonctionnel de la transmission (une synapse devient fonctionnelle à partir du
moment où elle assure une transmission d’information entre neurone émetteur et neurone
récepteur, par l’intermédiaire d’une substance chimique, le neuromédiateur que sécrète le
neurone émetteur) : seule la terminaison la plus fréquemment sollicitée serait retenue, les autres
venant à disparaître. En clair, l'exercice plus ou moins fortuit du fonctionnement d'une structure
au cours du développement serait en pareil cas la condition de son maintien.
En bref résumé, comme le rappelle A. Prochianz (2000), plus nous sommes stimulés, plus nous
développons des constructions épigénétiques diversifiées. Ainsi, tous les individus, bien
qu'appartenant à une même espèce sont différents. L'usage et l'influence de l'environnement sur
tous les systèmes sensoriels de l'individu participe de façon déterminante à la construction de
ses fonctions et modifient pour chacun la construction de ses représentations au niveau du
système nerveux central. L'épigenèse peut être appréhendée comme un processus adaptatif se
poursuivant tout au long de l'existence.
E- Labil ité et dég éné re scence syna ptiques
Cependant, les connexions nerveuses restantes vont se caractériser au cours de l'évolution du
système par leur labilité, c'est-à-dire une absence de stabilité et une possible dégénérescence
dues notamment à l'absence d'activité de ces éléments nerveux. Ceci a pu être montré lors
Cognition & Motricité
-11Yves Kerlirzin
__________________________________________________________________________________________
d'expériences de section ou de destruction de trajets nerveux particuliers. Il se produit alors
des phénomènes de dégénérescence transneuronale ou transsynaptique, pouvant toucher
différents niveaux de contacts synaptiques, avec effet antérograde lorsque cette section suit le
trajet de fibres nerveuses afférentes, et rétrograde lorsqu'il s'agit de fibres nerveuses
efférentes. On peut évoquer alors un processus de propagation de cet effet de dégénérescence,
conduisant à une réorganisation de la structure initiale, une modification anatomique des cellules
concernées et la disparition à terme des cellules désormais inactives.
Il se produit donc au cours du développement, qui peut être perçu à juste titre, comme une
période de prolifération tous azimuts des connexions nerveuses, des phénomènes de régression.
La mort des cellules fait partie intégrante du développement du système nerveux. A la naissance,
chez le mammifère (le rat, l'homme) existe une sur-innervation d'un même territoire de fibres
musculaires, caractéristique d'une redondance du système. Ce redoublement des jonctions, cette
redondance transitoire va peu à peu s'éliminer par la disparition progressive d'un certain nombre
de terminaisons nerveuses actives. Ceci semble logique si l'on se réfère à la somme des
potentialités offertes par ce développement. Toutes en effet ne pourront être mises en jeu,
actualisées. Les cellules non sollicitées, c'est-à -dire non impliquées de façon fonctionnelle dans
un circuit donné, vont passer d'un état transitoirement stable à un état labile, puis finalement à
un état dégénéré. Le nombre de potentialités réellement exercées va diminuer avec la
maturation. C'est la sollicitation, l'exercice, la mise en relation qui va commander un processus de
stabilisation sélective d'une population particulière de cellules, éliminant ainsi peu à peu la
redondance. Ce qui ressort en définitive d'un tel modèle, c'est la capacité de la fonction à créer
peu à peu la structure à partir de données physiologiques qui pré-existent, procédant par le jeu
de combinatoires et d'éliminations successives, à la stabilisation de combinatoires ou de
connexions nouvelles, stables, fonctionnelles.
De nombreux travaux sont venus étayer cette thèse d'apprentissage par sélection synaptique,
de stabilisation fonctionnelle des connexions neuronales, et de régression. L'expérience de
privation sensorielle de Wiesel & Hubel (1963, 1965) a mis en œuvre une approche différente
afin de mettre en évidence ce processus de régression. Il faut ici préciser que ces expériences
ont porté sur des chatons, mais que la reproductibilité ou la généralisation des résultats obtenus
pour la vision doit être envisagée avec prudence, que ce soit au regard d'espèces différentes ou
au regard d'autres aspects (au niveau du système moteur par exemple).
Cognition & Motricité
-12Yves Kerlirzin
__________________________________________________________________________________________
F- Pl asticité du sy stè me n erv eux et p ériode s critiques
Une possible démarche expérimentale utilisée pour mettre en évidence l'existence de
processus donnés procède par perturbation de l'exercice normal d'une fonction particulière d'un
sujet, de façon à tester les limites de fonctionnement du système sans compromettre
globalement l'exercice de cette fonction. Les réactions du système nerveux à ces manipulations
mettent à jour soit la difficulté ou l'impossibilité pour le système de faire face à cette
perturbation, de façon transitoire ou permanente, définitive, soit une certaine plasticité, c'està-dire la capacité pour ce système de compenser, de réorganiser ou d'orienter son
développement en fonction des contraintes rencontrées. Une autre possibilité consiste en
réalisant des lésions (sections de nerfs par exemple). Hubel & Wiesel ont soumis de jeunes
chatons à des conditions de déprivation sensorielle par suturation unilatérale des paupières
réalisée au cours des six premières semaines de vie de l'animal. Ils ont constaté chez les sujets
non seulement un arrêt de la croissance, mais on noté également une importante diminution de la
taille des cellules neuronales au niveau du corps genouillé latéral, structure impliquée dans la
vision et recevant les projections de cet œil, ainsi qu'une diminution des afférences sensorielles
en direction des zones occipitales. Cette diminution se révèle moindre si l'occlusion est réalisée
simultanément sur les deux yeux. Ce déficit observé chez le chaton présente un caractère
réversible (plasticité) permettant la récupération des effets de la déprivation si la suturation
est interrompue au bout de trois semaines. Il existerait donc une période de sensibilité critique
au cours de laquelle les atteintes sont partiellement réversibles, surtout si les conditions
normales sont rétablies avant la fin de cette période. Il faut noter, dans le prolongement de tels
travaux, que la privation de lumière, c'est-à-dire la mise en place de l'absence de stimulation
électrique du nerf optique, à une période critique de 4 semaines à 3 mois après la naissance,
provoque une lésion irréversible des voies optiques et entraîne la cécité définitive de cet œil
chez le sujet adulte.
On sait par ailleurs qu'il existe une différence de plasticité, de capacité à se modifier en
réponse à des perturbations de l'environnement, entre le cerveau d'un enfant et celui d'un
adulte, considéré comme anatomiquement stable. Les facultés de récupération après lésion sont
beaucoup plus importantes chez le premier que chez le second. Cette différence - qualitative en
apparence - de plasticité entre le cerveau en développement et le cerveau adulte a été introduite
dans les théories sur le fonctionnement du cerveau. Cependant, la neurogenèse à l'âge adulte
modifie la manière dont il faut envisager le fonctionnement normal du cerveau. Depuis quelques
années, on observe de plus en plus de signes de plasticité anatomique du cerveau adulte, à
Cognition & Motricité
-13Yves Kerlirzin
__________________________________________________________________________________________
plusieurs niveaux, et notamment en ce qui concerne la forme et le nombre des synapses. Au jeu
des hypothèses, on peut se risquer à envisager deux aspects non contradictoires, mais bien
plutôt complémentaires, qui permettraient à la fois aux tenants d'un cerveau stable, sans
modification anatomique, et aux autres protagonistes, prenant en compte les données actuelles, à
savoir le fait désormais avéré que certains neurones de régions importantes dans les processus
d'apprentissage se renouvellent continuellement (ce qui constitue une modification anatomique
relativement importante) de tomber d'accord. L'idée serait d'imaginer un modèle à la fois plus
complexe et plus souple mettant en jeu un système de relations et d'échanges au sein de
certaines structures entre des populations neuronales où se produisent des phénomènes
neurogéniques et des populations de neurones réputées stables. Ceci n'entrerait pas en
contradiction avec les théories fondées sur la nécessaire stabilité du cerveau afin que les
pensées et les souvenirs, inscrits dans un processus de mémoire à long terme, puissent se
conserver tout au long de l'existence. Si le cerveau est capable de mémoire à long et parfois très
long terme, il est également capable d'occulter un certain nombre d'informations ou de procéder
à, sans que l'on sache trop comment ces processus se déroulent, l'élimination ou l'effacement
d'autres informations non utilisées. Il est intéressant de rappeler que l'une des fonctions
attribuées à l'hippocampe serait celle de transformer les souvenirs à court terme en souvenirs à
long terme. Dans cette perspective, il est possible que les neurones à longue durée de vie, peu
plastiques, soient essentiels pour la mémoire à long terme, ainsi que pour des fonctions sensitives
et motrices qui n'ont pas besoin de changer beaucoup à l'âge adulte, alors que la neurogenèse
pourrait mettre en jeu de nouvelles populations de neurones intervenant dans les processus
rapides d'apprentissage et de mémoire à court terme.
La notion de plasticité que nous avons évoquée précédemment sous-tend un certain nombre de
processus qui ont été traités l'an passé, processus faisant appel aux notions d'équipotentialité,
d'équivalence motrice, de vicariance, de substitution, de réorganisation fonctionnelle, de
flexibilité fonctionnelle. Cette plasticité dépend d'un certain nombre de facteurs. L'âge du qujet
(animal ou humain) semble représenter le facteur déterminant, ainsi que les modalités et la
localisation de la lésion (les effets seront différents si la lésion porte sur des systèmes dits
d'association, mettant en jeu différentes structures) ou sur des systèmes somato-sensoriels
primaires (moindre plasticité dans ce cas).
Il faut également mentionner l'importance prise, dans l'étude des influences épigénétiques,
par la méthode de l'élevage différentiel. Celui-ci consiste en la comparaison entre le
Cognition & Motricité
-14Yves Kerlirzin
__________________________________________________________________________________________
développement d'animaux témoins élevés en milieu conventionnel ou standard et celui d'animaux
expérimentaux placés, à une phase donnée de leur développement postnatal, soit en milieu
appauvri (par exemple, pour l'étude de rats (Rosenzweig et al., 1972) une petite cage au lieu
d'une grande en situation dite enrichie, un flux de simulations restreint), soit en milieu enrichi
(flux de stimulations accru, possibilités d'exercice et de jeu plus diversifiées).
Un environnement amélioré favorise mieux qu'un petite cage la neurogenèse dans le gyrus denté de
l'hippocampe. Certains neurobiologistes cherchent quelles caractéristiques de l'environnement ont le plus
d'effets sur la neurogenèse. La comparaison de la neurogenèse chez des souris élevées dans des cages
normales (milieu)et des cages pourvues d'une roue (à gauche) montre que l'utilisation intensive de cette
roue favoriserait la neurogenèse. Source Pour la Science, 2001.
De façon générale, l'enrichissement du milieu révèle un cerveau significativement plus lourd
(correspondant à une multiplication de certaines cellules dites gliales ou de soutien "l'intendance" des neurones -, à une augmentation de taille des neurones avec notamment une
arborisation dendritique plus dense) et entraîne un développement plus rapide et plus achevé, y
compris au plan du comportement ; l'appauvrissement se traduit par un ralentissement dans le
développement des potentialités comportementales. Ce fait a surtout été vérifié à de
nombreuses reprises chez le rat et la souris, encore immatures au plan nerveux à la naissance. En
même temps, la maturation nerveuse est tributaire aussi du flux de stimulations sensorielles et
sociales. Le rôle de ces facteurs d'enrichissement, passant très vraisemblablement par
l'exercice actif des fonctions sensori-motrices, met en jeu de la manipulation, du jeu. Chez les
mammifères, le rôle fonctionnel du jeu semble indéniable, non seulement pour l'accomplissement
de conduites caractéristiques de l'espèce, mais également pour confirmer et stabiliser le
potentiel de flexibilité comportementale du sujet. L'enfant par exemple existe par le jeu, il ne
joue pas pour apprendre, mais il apprend parce qu'il joue.
Cognition & Motricité
-15Yves Kerlirzin
__________________________________________________________________________________________
On peut donc, d'une façon générale, conclure à l'existence d'un déficit cognitif permanent
consécutif aux privations ou à l'absence de stimulations de tous ordres dans les premiers mois de
la vie. Ceci énoncé, la période des nécessaires stimulations ne se limite pas aux premiers mois de
l'existence, elle se prolonge tant que la plasticité nerveuse peut encore être sollicitée.
II- Connais sanc e du cerv eau
U n peu d'h istoire
Ce dessin anonyme du 15esiècle illustre les
théories précartésiennes du cerveau, basées sur les
idées d'Aristote (384-322 av J.C) Les sens du goût
et du toucher sont connecté&s au cœur et les
petites boîtes dans la tête représentent les
"cellules cérébrales" dans lesquelles sont localisées
des facultés mentales telles que la mémoire et
l'imagination.
Comme nous l'avons précisé en introduction à notre cours, le cerveau joue un rôle tout à fait
central et essentiel dans le déroulement et l'exercice des différentes fonctions quotidiennes
favorisant l'adaptation de l'individu à son environnement. Le cerveau est relation au monde, il
donne du sens à ce que nous vivons. il se développe en agissant. Quelles que soient les différentes
activités envisagées, les différents sentiments, sensations, activités cognitives, nous le
sollicitons nécessairement. La recherche d'une connaissance approfondie de cet organe n'est pas
une préoccupation récente, nous le savons. "La première mention relative au fonctionnement du
cerveau dans un texte historique remonte au XVIIème siècle avant notre ère : un papyrus égyptien
décrit les symptômes de deux blessés présentant des fractures du crâne et met en relation les
signes observés avec des lésions cérébrales. 1200 ans plus tard, Hippocrate (466-377) affirmait
: "Les hommes doivent savoir que du cerveau et du cerveau seulement naissent nos plaisirs, nos
joies, nos rires et plaisanteries aussi bien que nos peines, nos douleurs, nos chagrins et nos
larmes...". Puis suivit une très longue période d'apparente absence d'intérêt pour ce sujet. Au
Cognition & Motricité
-16Yves Kerlirzin
__________________________________________________________________________________________
XVIème siècle, Descartes (1596-1660) commença en quelque sorte à poser la question de la
relation entre le corps (le cerveau) qui seul est une machine, et l'esprit (ou l'âme), en émettant
l'hypothèse que l'un puisse affecter l'autre et réciproquement. Il posait également d'une
certaine façon le problème des localisations en pensant par exemple que la glande pinéale
(l'épiphyse) était le "siège de l’âme".
Organisation du SN d'après Descartes. Ce
schéma a été publié en 1662. Les nerfs issus des
yeux projettent vers les ventricules cérébraux.
L'esprit influence la commande motrice au travers
de la glande pinéale (H) qui sert de valve pour
contrôler les déplacements de l'esprit animal qui
gonfle les muscles par les nerfs.
Sources Neurosciences A la découverte du
cerveau M. F. Bear, B.W. Connors & M.C. Paradisio.
Editions Pradel, 2002.
A )- U ne approch e intuitive
Au XIXème siècle, le problème de la relation entre le corps et l'esprit prit une importance
accrue, avec toujours comme corollaire, notamment par les travaux de l’anatomiste allemand
Franz Joseph Gall (1758-1828), la question de la localisation des fonctions cérébrales (existe -t-il
une correspondance stricte, linéaire, directe, entre l'organe ou la région précise et particulière
du cerveau et la fonction ?).
Selon ce médecin, le cortex était l’organe assurant les
fonctions mentales et morales, ces fonctions étant
localisées en des endroits précis des circonvolutions
cérébrales, imprimant même une marque sur la zone de la
boîte crânienne située en regard (cf. infra). En 1807, il
donne à Paris un cours public consacré aux "facultés
morales et intellectuelles" de l'homme. En collaboration
avec son élève Spurzheim (1776-1832) (auquel certains
auteurs attribuent la paternité du terme phrénologie en
1810), il développe ses théories relatives à la localisation
Franz Joseph Gall (1758-1828)
Cognition & Motricité
-17Yves Kerlirzin
__________________________________________________________________________________________
cérébrale des facultés mentales (en fait, de leur substrat organique). Deux ouvrages en
attestent : (F. J. Gall and J. C. Spurzheim. Anatomie et physiologie du système nerveux en
général et du cerveau en particulier; avec des observations sur la possibilité de reconnaître
plusieurs dispositions intellectuelles et morales de l'homme et des animaux par la configuration
de leur tête, Paris, F. Schoell, 1810-1819. - F. J. Gall. Sur les fonctions du cerveau et sur celles
de chacune de ses parties, avec des observations sur la possibilité de reconnoitre les instincs, les
penchans, les talens, ou les dispositions morales et intellectuelles des hommes et des animaux,
par la configuration de leur cerveau et de leur tête, J. B. Ballière, 1822-1825).
Gall est un partisan de la psychologie des facultés. Selon lui, elles existent dans l'esprit en
grand nombre. Il en retient 27 ou "forces fondamentales, penchants et sentiments", comme
l'amour de la progéniture (ou comportement maternel), de la gloire, de l’autorité, l’aptitude au vol
la dévotion, le goût pour les rixes et les combats (ou agressivité), l'instinct de propagation (ou
sexuel), l'intelligence, la localisation spatiale, la mémoire, la perception, le sens des mots, etc.
Si Gall assigne à chacune de ces facultés une localisation cérébrale particulière, il semble que
cette intuition puisse être rapportée à une idée singulière, émise quelques années auparavant,
lors de ses études. Se trouvant à l'époque surclassé par des camarades retenant leurs leçons par
cœur, il écrivait alors : " Quelques années après je changeai de séjour, et j’eus le malheur de
rencontrer encore des individus doués d’une aussi grande facilité d’apprendre par coeur. C’est
alors que je remarquai que tous ressemblaient à mes anciens rivaux par des grands yeux saillants.
Deux ans plus tard, j’allai à l’université ; mon attention se fixa d’abord sur ceux de mes nouveaux
condisciples qui avaient les yeux gros, saillants, à fleur de tête. On me vanta généralement leur
excellente mémoire, et, quoiqu’ils ne fussent pas sous beaucoup de rapports les premiers, tous
l’emportaient cependant sur moi lorsqu’il s’agissait d’apprendre promptement par coeur, et de
réciter de longs passages avec exactitude. Cette même observation m’ayant été confirmée par
les étudiants des autres classes, je dus naturellement m’attendre à trouver une grande facilité
d’apprendre par coeur chez tous ceux en qui je remarquerais de grands yeux saillants. Je ne
pouvais pas croire que la réunion des deux circonstances qui m’avaient frappé dans ces diverses
occasions, fût uniquement l’effet du hasard. Après m’en être assuré davantage, je commençai à
soupçonner qu’il devait exister une connexion entre cette conformation des yeux et la facilité
d’apprendre par cœur".
Il semblait alors logique à Gall que cette observation puisse s'appliquer à toutes les autres
facultés intellectuelles. Il entreprit alors l’observation de la conformation crânienne de tout
individu présentant une faculté particulièrement développée, palper le crâne revenant en quelque
Cognition & Motricité
-18Yves Kerlirzin
__________________________________________________________________________________________
sorte pour lui à examiner le cortex. Il dresse une cartographie des "protubérances" (chaque
région exercerait une pression sur la partie du crâne qui lui correspond ce qui donnerait lieu à
des proéminences osseuses, des protubérances, des bosses) et me t au point une méthode
d'évaluation diagnostique ou prédictive par palpation du crâne (la mise en évidence de ces bosses
permettant de procéder à un inventaire de ses facultés). Ainsi après la craniologie naît la
phrénologie selon laquelle les protubérances et les dépressions du crâne reflètent les facultés
mentales de l'individu.
Ce terme provient des mots grecs phrénos, esprit, et
logos, discours (elle a été liée à la physiognomonie, terme
provenant des mots venant des mots grecs signifiant
nature et interprétation, tentative de comprendre l'esprit
et la personnalité en évaluant divers traits faciaux comme
le nez, les yeux, le menton et la forme des pommettes;
bref, juger les personnes d’après leurs visages). Gall a
palpé, touché, évalué puis collectionné les crânes d’hommes
célèbres (Napoléon 1er par exemple qui lui reprocha
d'attribuer à des " bosses " des " penchants et des crimes
Cartographie proposée par Gall
" qui ne viennent que de la société), de malades mentaux,
de criminels (Lacenaire).
Sa théorie localisationniste a déclenché bien des passions et des polémiques, a été très
controversée (certains médecins comme P. Flourens développant des thèses opposées, dites
holistiques ou globales, selon lesquelles les fonctions du cerveau ne sont pas basées sur des
localisations anatomiques précises, sur des régions spécifiques. i mplications théologiques).
Convaincu par les travaux de Gall, Broussais fonda à son tour en 1832 la Société Parisienne de
Phrénologie Comptant environ deux cents membres dont des médecins, des politiques, des
artistes, des hommes de lettres et des juristes, elle bien connut une durée de vie bien limitée.
Cependant, si la phrénologie présente des aspects naïfs et réducteurs, elle n'en constitue pas
moins l'origine des recherches actuelles menées sur les fonctions du cortex cérébral. Gall, grand
anatomiste, a par ailleurs notamment montré que le cerveau est constitué de substance grise
(contenant les corps cellulaires des neurones) et de substance blanche, constituée de leurs
prolongements (les axones ou fibres nerveuses); est formée de fibres entourées de myéline. ".
Paradoxalement, cette idée fausse qu'est la phrénologie perdure encore de nos jours d'une
certaine façon au travers de certaines expressions familières ou quotidiennes (avoir la bosse des
Cognition & Motricité
-19Yves Kerlirzin
__________________________________________________________________________________________
maths) ou de l'utilisation explicite ou non au quotidien d'une certaine morphopsychologie. Le
danger de l'utilisation déformée d'une telle approche peut rapidement conduire à des dérives
racistes ou eugéniques. "La Phrénologie ... admettait que le front bien développé de l'homme
civilisé était la preuve de son intellectualisme, en comparaison avec le front fuyant de nos
premiers ancêtres. Au contraire, le sur développement de la base du crâne était la marque de
l'homme primitif, indiquant un fort instinct. Une haute, et large tête révélait une capacité plus
grande aux sentiments qu'une basse3" (Gibson et Gibson, 1964 p.304).
B)- A pproch e expé rimen tal e
Les thèses anti localisationniste s défendues par Flourens (les thèses de Gall présentaient des
conséquences théologiques, c'est pourquoi Flourens avait l'accord de l'église car ses thèses
personnelles étaient en faveur de l'unité de l'âme) semblent en ces débuts de XIXème prévaloir
au sein de la communauté scientifique. Cependant, dès 1825, J-B. Bouillaud, neurologue passionné
par les travaux de Gall, tenta de montrer que la proposition de celui-ci de localiser la "mémoire
verbale" ou langage dans les lobes frontaux était fondée (en fait, selon Gall, toutes les facultés
intellectuelles étaient selon lui localisées dans les lobes frontaux alors que les lobes postérieurs
contenaient toutes les facultés plus primitives liées à l'instinct. Le pas était ensuite facilement
franchi de postuler que plus les lobes frontaux d'un individu étaient développés, plus grande
était son intelligence). Pendant une quarantaine d'années, Bouillaud décrivit plus d'une centaine
de cas de lésions cérébrales chez l'homme afin de démontrer le lien entre les lésions du lobe
frontal et la perte de la parole. Mais ses travaux ne convainquirent qu'une minorité de médecins.
"De la même façon, dès 1836, un certain M. Dax avait présenté devant la Société Médicale de
Montpellier un court mémoire dans lequel il rapportait que, sur plus de quarante patients
aphasiques, il n'avait pas trouvé un seul cas d'altération de l'hémisphère droit. Il en concluait que
chaque moitié du cerveau contrôle des fonctions différentes et que le langage devait être sous la
dépendance de l'hémisphère gauche. Ce mémoire ne suscita à l'époque aucun intérêt."
En 1861, cherchant à vérifier la thèse de Bouillaud, le Dr P. Broca apporta la confirmation
partielle des hypothèses de Gall et de Bouillaud, grâce à l’étude anatomique post-mortem de
certains patients (en pratiquant l'autopsie de M. Leborgne, patient lui ayant été présenté 6 jours
avant son décès). Ce premier patient est connu sous le nom de "Tan tan", le seul mot qu'il put
prononcer. Son autopsie révéla une lésion des lobes frontaux du cerveau, lésion vasculaire située
dans la troisième circonvolution frontale de l'hémisphère gauche. Tan tan souffrait d'aphasie
(aphémie à l'époque), considérée alors comme une maladie mentale. Bien que l'appareil phonatoire
Cognition & Motricité
-20Yves Kerlirzin
__________________________________________________________________________________________
de ce patient soit intact (ni sa langue ni ses lèvres n'étaient paralysées), il lui était i mpossible
d'articuler, de prononcer les mots alors qu'il semblait comprendre ce qu'on lui disait.
Le cerveau de M. Leborgne (Tan tan) est conservé au
Paul Broca (1824-1880)
musée Dupuytren (Paris).
"Six mois plus tard, un deuxième cas d'aphasie suivit celui de Tan tan, celui de M. Lélong. A
nouveau, l'autopsie révéla une lésion située à la hauteur des circonvolutions postérieures des
lobes frontaux, et en particulier dans la troisième circonvolution frontale. Les deux cas cités ne
suffirent pas à réorienter l'opinion scientifique et médicale en faveur de la théorie localisatrice ;
ils représentèrent toutefois un premier pas, capital ; rapidement suivi par de nombreux autres
cas de provenances diverses, qui étaient en tout état de cause susceptibles de conforter la thèse
relative à un lien entre la perte de la capacité de parler (avec maintien de la compréhension du
langage) et une lésion de la troisième circonvolution du lobe frontal du cerveau."
Aires de Broca et de Wernicke Sources
Neurosciences A la découverte du cerveau M. F.
Bear, B.W. Connors & M.C. Paradisio. Editions
Pradel, 2002.
La découverte de cette zone particulière nécessaire au langage (Broca parlait de "la faculté
du langage articulé"), appelée depuis l'aire de Broca (aire 44 de Brodman), a permis d'apporter
expérimentalement la preuve de l'existence d'un lien entre le langage (bien articulé, fluent) et
Cognition & Motricité
-21Yves Kerlirzin
__________________________________________________________________________________________
une région particulière du cortex (la partie postérieure de la circonvolution frontale inférieure
de l'hémisphère gauche). Ceci a été confirmé par les travaux de Wernicke sur les aphasies (lobe
temporal gauche, zone dite de Wernicke : le discours est rapide et parfois logorrhéique, avec des
paraphrasies, un mot pour un autre, une absence d'écoute de son discours par le sujet), et
actuellement a été confirmé par les techniques d'imagerie médicale.
A la suite de ces différents travaux, d'autres expérimentations ont permis de mettre en
évidence l'existence de plus en plus de régions spécialisées dans des fonctions sensorielles ou
motrices. Dans les années 50, les travaux du neurochirurgien canadien W. Penfield et des ses
collaborateurs ont montré, grâce à
la stimulation électrique systématique sur des cerveaux
d'épileptiques en état de veille avant l'intervention chirurgicale (expériences indolores étant
donné l'insensibilité du cerveau à la douleur), "que chaque muscle est commandé par une région
précise du cortex frontal et que chaque modalité sensorielle dépend également de zones
corticales précises.
Homonculus : du latin homo (homme) et culus" , qui en bas latin diminue en quelque sorte le sens du mot
auquel il s'attache. On pourrait ainsi traduire homonculus par petit homme. Proposé par Wilder Penfield et
Théodore Rasmussen en 1950 (Unité de Neurophysiologie du Royal Victoria Hospital de Montréal).
Les cartes somato sensorielles du cortex pariétal élaborent une cartographie, une représentation
somatotopique du corps en fonction de l'importance fonctionnelle relative et de la sensibilité sensorielle
(c'est-à-dire en rapport avec la densité en récepteurs de la zone correspondante) de chacun des organes
représ entés. Par exemple, la bouche et la main occupent une place très importante dans cette
représentation.
Cognition & Motricité
-22Yves Kerlirzin
__________________________________________________________________________________________
"Les enquêtes de Penfield en salle opératoire aboutirent à l'élaboration de ses célèbres
homunculi moteurs et sensoriels : ces dessins stylisés mettaient en évidence les différentes
parties de la superficie corporelle, sans refléter leurs dimensions effectives, mais l'importance
de leur représentation corticale ; celle-ci reflétait à son tour l'importance relative de ces
différentes parties dans les activités sensorimotrices quotidiennes. Ainsi, dans l'homunculus
moteur, le pouce et les doigts de la main atteignent une taille énorme et grotesque, tandis que ce
sont les lèvres et la langue dans l'homunculus sensoriel ; alors que dans les deux dessins, la
structure de l'oreille et les genoux sont relativement petits."
"Cette première carte précise du cortex cérébral montrait que Elle montrait aussi que la
quantité de tissu nerveux commandant un muscle était proportionnelle non pas au volume du
muscle mais à la finesse des mouvements dont il est capable : ainsi, le volume de cerveau
commandant les mouvements du pouce est plus grand que celui commandant les mouvements de la
jambe, du tronc et du bras réunis. De même, la zone recevant les sensations en provenance des
lèvres est-elle plus étendue que celles recevant les sensations en provenance de la peau des
jambes et des bras."
C)- Imag erie cé réb ral e
Une découverte fortuite : le lien entre flux sanguin et l'activité cérébrale.
L'histoire dit que ce lien a été découvert
pour la première fois par le physiologiste
italien Angelo Mosso, à la fin du 19e, lors
d'études des pulsations du cerveau humain. Il
remarqua chez l'un de ses sujets une brusque
augmentation de l'intensité des pulsations au
niveau des lobes frontaux lors de la survenue
d'un événement particulier (carillon d'une
horloge sonnant midi, soit l'heure de la
prière).
En
questionnant
son
sujet
pour
vérifier cette hypothèse, il constata une
nouvelle
Appareil utilisé par Mosso pour enregistrer les
pulsations du cerveau. Source L'esprit en images
Posner & Raichle, 1998
augmentation
des
pulsations
cérébrales (sans aucune modification dans les
deux cas du rythme cardiaque ou de la
pression sanguine). Cette augmentation des
pulsations se produisit à nouveau chez le sujet lors de la réalisation de calculs mathématiques
Cognition & Motricité
-23Yves Kerlirzin
__________________________________________________________________________________________
simples et lors de l'énoncé de la réponse
.
Les enregistrements de Mosso pris à l'avantbras
(A)
et
au
cerveau
(C)
présentent
des
pulsations cérébrales plus élevées à la suite de la
stimulation cérébrale par les événements marqués
par la flèche. Source L'esprit en images Posner &
Raichle, 1998
A la suite de cette expérience princeps, les expérimentations menées en 1890 par C. Roy et C.
Sherrington au laboratoire de pathologie de l'Université de Cambridge leur permirent, à la suite
d'expérimentations animales, de formuler dans cet ordre d'idées l'hypothèse de l'existence d'un
"mécanisme automatique" régulant l'apport sanguin au niveau du cerveau, afin de pouvoir
s'adapter à des variations locales d'activité cérébrale. Cette influence de la variation de
l'activité cérébrale sur le flux sanguin, se traduisant notamment par une augmentation de celuici, fut également vérifiée plus tard (entre 1926 et 1928) par les travaux menés par le Dr J.
Fulton à l'hôpital Peter Bent Brigham de Boston sur l'un de ses patients, Walter K., un marin
américano-allemand âgé de 26 ans. Ce dernier avait souffert pendant longtemps de maux de tête
et perdait progressivement la vision à la suite d'une malformation congénitale des vaisseaux
sanguins (artérioveineuse) nourrissant son cortex visuel. "Contrairement au flux sanguin circulant
dans les vaisseaux, habituellement calme et silencieux, le flux sanguin passant dans ces vaisseaux
anormaux était agité et provoquait à chaque battement du cœur une sorte de son brusque,
comme le bruit provoqué par une pompe à vélo. Le patient pouvait entendre ce son, ainsi que le
médecin (stéthoscope) à travers un défaut du crâne. Dès que le patient ouvrait les yeux, le son
augmentait, particulièrement lors de la lecture d'un journal." On avait donc là à nouveau une
preuve patente d'un lien étroit existant entre activité cérébrale et flux sanguin. Il était alors
possible de nourrir l'espoir de rendre compte de l'activité cérébrale par des méthodes noninvasives, non traumatisantes ou à risque ou enfin non post-mortem. Par ailleurs, les modifications
Cognition & Motricité
-24Yves Kerlirzin
__________________________________________________________________________________________
de l'activité cérébrale, électrique ou chimique, ne sont pas observables d'un simple point de vue
anatomique. L'idée était de passer d'une i magerie anatomique descriptive à une imagerie
anatomique fonctionnelle.
Crâne de Walter K. La flèche montre le défaut
Les enregistrements du crâne de Walter K
chirurgical à l'arrière de la tête de Walter K., là où
présentent peu d'activité lorsque ses yeux sont
le bruit pouvait être entendu. Source L'esprit en
fermés (tracé supérieur) mais bien plus lorsqu'il est
images Posner & Raichle, 1998
en train de lire (les deux tracés inférieurs). Source
L'esprit en images Posner & Raichle, 1998
La prise en compte des hypothèses et conclusions des travaux cités supra dans le domaine de
l'hémodynamique, ainsi que les progrès technologiques dans les domaines de la détection de
rayonnements et de l'informatique, ont permis dans la deuxième partie du XXème siècle (les
années 1970, avec l'invention du scanner) de développer de nouveaux moyens d'investigation,
essentiellement par les techniques d'imagerie cérébrale, permettant de détecter localement des
modifications dans le débit sanguin cérébral. Ces avancées représentent un progrès majeur dans
l’histoire de la biologie, des neurosciences. Grâce à l’imagerie cérébrale, il devient désormais
possible de voir en temps réel et avec une grande précision le cerveau en action, de comprendre
par exemple les mécanismes de la pensée, du calcul, les aires nécessaires à ces opérations ou à
d'autres comme la mémoire, la vision, etc. En effet, comme le rappelle B. Mazoyer (2003), "une
fonction cognitive est en effet une séquence temporelle d'activités neuronales, électriques et
neurochimiques, distribuées en réseau, et engendrant des variations locales à la fois du champ
électromagnétique, du métabolisme énergétique et du débit sanguin cérébral (DSC). Les
modifications locales du champ électromagnétique sont directement observables à la milliseconde
près, "en temps réel ", à la surface du scalp (MEG). L'observation des événements
neurochimiques, métaboliques et hémodynamiques nécessitent le recours à un marqueur de ces
événements dont la concentration en chaque endroit du cerveau doit être détectable de
Cognition & Motricité
-25Yves Kerlirzin
__________________________________________________________________________________________
l'extérieur.
Ces différentes techniques, dites de neuro-imagerie cognitive, sont la tomographie par
émission de positons (TEP), l'imagerie par résonance magnétique fonctionnelle (IRMF) et la
magnéto-électro-encéphalographie (MEG). L'électroencéphalographie (EEG), dont les premières
expérimentations ont été réalisées chez l'homme dès les années 1930, permet pour sa part de
rendre compte des patrons d'activité neuronale.
En effet, à tout moment, le cerveau nécessite une grande concentration d'énergie dans les
zones d'intense activité. D'où une augmentation importante du flux sanguin cérébral dans ces
zones actives. Il est alors possible d'observer une image de l'activité cérébrale en mesurant le
flux sanguin à l'aide d'un marqueur radioactif injecté dans le sang. On peut ainsi demander à un
sujet d'exécuter une tâche cogniti ve pendant une durée donnée (40s) – lire un mot précis
désignant un objet et de penser à l'usage de cet objet. On note alors la correspondance entre
l'activité cognitive et les concentrations du flux sanguin. Les TEP scans peuvent être mesurés
pour l'étude de processus cognitifs comme l'attention, les images mentales ,la lecture. Le
principe général est simple : lors de leur activation, les neurones nécessitent plus d'oxygène et
de glucose (demande alimentaire plus élevée en quelque sorte). La vascularisation cérébrale
répond à cette demande en augmentant localement les flux sanguins porteurs de ces nutriments
essentiels (vitaux) pour les neurones. Ainsi, les changements de débit sanguin détectés par le
TEP-scan ou l'IRMf révèlent les régions du cerveau qui sont les plus actives dans des
circonstances particulières et bien standardisées.
Les avantages procurés par ces méthodes ont ainsi permis aux scientifiques de pénétrer pour
la première fois les mystères du cerveau humain. Cela représente des moyens d'investigation
formidables pour résoudre les bases des fonctions cérébrales et en particulier des processus
cognitifs.
c1 )- La tomograph ie pa r émi ssion de positon s
L'objectif de cette méthode est de produire une image
tridimensionnelle de la coupe d'un organe (en l'occurrence le
cerveau). Le patient est placé sur une table qui se déplace
dans le sens longitudinal à l'intérieur d'un court anneau;
contenant un tube à rayons X qui génère un faisceau d'un
épaisseur de 1 à 10 mm qui va tourner autour de la tête du
patient dans le plan de la coupe désirée, en 0.5 à 1 seconde.
Cognition & Motricité
-26Yves Kerlirzin
__________________________________________________________________________________________
Chaque tour, permettant de recueillir les données sous différents angles produit une
"tranche", une image d’une coupe transversale de l’organe En face du tube sont disposés des
milliers de détecteurs qui vont mesurer l'intensité résiduelle du faisceau qui a traversé le corps.
Puis ces données sont traitées par ordinateur et analysées à l'aide d'un algorithme de
traitement. Après plusieurs tours, l’ordinateur devient en mesure d’additionner les tranches pour
créer une image tridimensionnelle de l’organe scanné. Le CT scan permet d'obtenir des mages
présentant un degré élevé de résolution par rapport aux rayons X classiques et peut donc déceler
des tumeurs ou des lésions à un stade plus précoce.
La tomographie (tomographie est dérivé du mot grec
qui signifie couper) assistée par ordinateur (Computed
Tomography ou CT scan) a été mise au point par Godfrey
Housfield et Allan Cormack (prix Nobel pour cela en
1979), inventeurs du scanner en 1972. Elle se fonde sur
l'idée que certains rayonnements électromagnétiques,
comme les rayons X, traversent le corps et sont
absorbés par des tissus radio-opaques. Le scanner
utilise cette propriété des rayons X d'être absorbés de
façon différente suivant les régions traversées pour
mesurer des densités dans une tranche du corps (coupe
Image d'un scanner (source :
axiale ou transverse).
www.lecerveau.mcgill.ca)
Pour la TEP ou tomographie par
émission
de
positons
(l'acronyme
anglophone ou PET-scan pour Positon
Emission
Tomography
est
aussi
utilisé), le principe de base, simple,
est fondé sur l'émission radioactive
de
positons
(ou
positrons,
on
rencontre les 2 termes). L'émission
de positons est de la radioactivité
dite
artificielle,
obtenue
en
fabriquant à l'aide d'un accélérateur
de particules (cyclotron par exemple) des noyaux présentant des protons en excès. On injecte
par voie intraveineuse au sujet placé dans la machine une solution (de l'eau par exemple dans le
Cognition & Motricité
-27Yves Kerlirzin
__________________________________________________________________________________________
cas du
15
O) contenant un traceur radiooactif (traceur car injecté à faible dose pour ne pas
perturber le processus biochimique), un atome émettant des positons (e+ ). Au bout d'une minute,
l'eau radioactive mêlée à la circulation sanguine s'accumule dans le cerveau proportionnellement
au flux sanguin régional. Plus ce flux est important, plus nombreux sont les événements
enregistrés. Puis on procède à la mesure du rayonnement de ce traceur sur des capteurs
externes (détecteurs de radiation). Il existe différents traceurs comme le
perfusion, le débit sanguin), le
18
15
O (pour la
F-deoxyglucose ou FDG (pour le métabolisme du glucose), le
18
F-
dopa (pour la synthèse de la dopamine). Ce traceur radioactif est un isotope (l'isotope d'un
élément est un atome possédant le même nombre de protons mais pas de neutrons. Un isotope
très connu est le carbone 14, isotope du carbone 12. Par exemple, l'oxygène
16
O, oxygène stable
et non radioactif que nous respirons possède 8 protons et 8 neutrons tandis que son isotope le
15
O possède 8 protons mais seulement 7 neutrons. Pour les isotopes d'un même élément, le
nombre d'électrons de chaque atome reste le même (donc leurs propriétés chimiques également)
ainsi que le nombre de protons tandis que le nombre de neutrons varie (la masse atomique est
donc différente). Cette modification de la proportion de neutrons dans le noyau, cette déficience
du noyau en neutrons peut rendre l'atome instable, rendant certains isotopes radioactifs,
chargés positivement.
TEP pour expérimentation animale
TEP pour expérimentation humaine
Le taux de radioactivité produit par l'15 O diminue rapidement, la moitié de la radioactivité
administrée disparaît au bout de deux minutes environ (123 s), elle a pratiquement disparu
totalement au bout de 10 mn, ce qui permet de ne pas exposer les sujets aux effets
potentiellement nocifs des radiations ionisantes et de pouvoir répéter les mesures de flux
sanguin plusieurs fois au cours d'une même expérience.
Lors de sa désintégration radioactive le traceur émet un positon qui va se déplacer
brièvement dans la matière (1 à 3 millimètres), perdant peu à peu son énergie cinétique jusqu'à sa
Cognition & Motricité
-28Yves Kerlirzin
__________________________________________________________________________________________
rencontre (attraction par la charge négative) avec son antiparticule (ou son antimatière),
l'électron. L'antimatière est une notion difficile à imaginer ou à se représenter. C'est le
théoricien P.A.M. Dirac qui développa en 1928 une théorie selon laquelle, lorsque de la matière
est créée, une quantité égale d'antimatière, dotée des propriétés exactement opposées, doit
être crée en même temps. La plupart des antiparticules, comme l'antiproton et l'antineutron,
n'existent pas à l'état naturel sur notre planète. L'antimatière est indispensable à certaines
applications médicales pour lesquelles il est nécessaire d'employer des isotopes radioactifs. Un
accélérateur de particules est nécessaire pour produire ces isotopes (une petite dose
d'antimatière pourrait permettre de fabriquer les isotopes nécessaires sans accélérateur à
condition toutefois que l'on puisse la transporter en toute sécurité).
La durée de vie de la paire positon-électron est extrêmement brève. Lors de la rencontre de
ces deux particules (particule-antiparticule, matière-antimatière) positon-électron, quel que soit
l'endroit où elles se trouvent, un phénomène d'annihilation va se produire: le choc en résultant va
entraîner l'émission de deux photons d'annihilation, partant dans des directions exactement
opposées. Leur masse est transformée selon la formule E = mc 2 en une énergie constante
(l'énergie de cette paire e+ , e- est conservée) en rayons gamma due à cette annihilation.
Processus d'annihilation. Source
http://www.cermep.fr/activite
Le photon est un concept imaginé par Albert Einstein en 1905. C'est une énergie transportée
sans support matériel, par un rayonnement électromagnétique de longueur d'onde définie. Plus la
longueur d'onde est petite, plus l'énergie est grande. La matière reçoit et émet de l'énergie
électromagnétique par paquets de valeur bien déterminée (ou quanta). Les photons sont donc ces
sortes de paquets d'énergie élémentaires ou quanta de rayonnement électromagnétique qui sont
échangés. "Grâce à cette énergie (511 kiloélectron volts), les photons traversent et quittent la
tête à la vitesse de la lumière.
Cognition & Motricité
-29Yves Kerlirzin
__________________________________________________________________________________________
Une caméra à positrons est constituée d'un dispositif formé d'un grand nombre de
détecteurs de radiation disposés en couronne autour de la tête du sujet.
Par un procédé automatisé commandé
par ordinateur, les photons qui résultent de
l'émission de positons atteignant chacun
des
détecteurs
composés
de
(des
cristaux
scintillateurs,
organiques,
et
émettant de la lumière au moment du choc
du
photon
sur
ce
scintillateur)
sont
enregistrés. En plaçant deux détecteurs de
radiations en opposition de chaque côté de
l'événement d'annihilation, il est possible
d'enregistrer un événement se produisant entre les deux détecteurs. En réalité, chaque
détecteur dans une couronne est en coïncidence avec de multiples détecteurs opposés; ce qui
augmente la possibilité de recueillir des informations. Les nombreuses couronnes améliorent
l'efficacité de la détection (une simple
couronne ne peut prendre en charge qu'une
tranche
de
1cm
d'épaisseur).
Les
détecteurs sont couplés électroniquement
de telle sorte qu'ils n'enregistrent un
événement radioactif que lorsqu'ils sont
atteints
par
les
simultanément.
Ce
photons
type
d'annihilation
de
couplage
électronique est connu sous le nom de
fenêtre
de
coïncidence.
Les
collisions
simultanées (événements) sont dénombrées
et converties en une image du flux sanguin
cérébral durant la minute d'acquisition.
L'image est créée à partir des événements
récoltés."
La ballade des photons
Source L'esprit en images Posner & Raichle, 1998
Ces images tridimensionnelles obtenues représentent la concentration en eau radioactive,
variant de façon proportionnelle au débit sanguin cérébral. Il est ainsi possible d'établir des
cartes du cerveau lorsque le sujet effectue des tâches particulières, par exemple cognitives. La
Cognition & Motricité
-30Yves Kerlirzin
__________________________________________________________________________________________
question qui se pose alors, outre celle de mettre en évidence plus facilement la région activée
sélectivement, est celle de savoir si les données recueillies correspondent bien aux variations
dues à la réalisation de la tâche par le sujet.
Ces images TEP de flux sanguin ont été obtenues (figure ci-dessus)
chez un seul sujet lorsque celui-ci se reposait calmement les yeux
fermés.
Les
enregistrements
étaient
constitués
de
31
coupes
horizontales prises à travers le cerveau, à partir de la coupe 1 au
sommet du cerveau jusqu'à la coupe 31 à la base (figure de droite). La
quantité de flux sanguin dans chaque partie du cerveau est représentée
par les couleurs que l'on trouve sur l'échelle à droite de l'image. Les
aires présentant un taux de flux sanguin maximal sont coloriées en
blanc suivi des couleurs rouge et jaune. On voit clairement sur ces
images que, même au repos, le flux sanguin est important dans le cortex
(le bord extérieur du tissu cérébral) et dans différents noyaux situés
en profondeur dans le cerveau, tandis que les aires profondes qui
consistent en des fibres de connexions présentent relativement peu de
flux sanguin, comme on peut le voir par les différentes nuances de bleu
et de mauve. Source L'esprit en images M.I. Posner & M.E. Raichle,
1998.
Cognition & Motricité
-31Yves Kerlirzin
__________________________________________________________________________________________
Il existe en effet au niveau du cerveau un débit sanguin cérébral de base correspondant aux
besoins élémentaires de fonctionnement des différentes cellules nerveuses. Lors de l'exécution
d'une tâche, ce débit va varier, se moduler et c'est cette variation qui doit être calculée. Pour
cela, on utilise généralement un paradigme de différence, permettant de soustraire de la valeur
observée lors de l'exécution de la tâche la valeur observée d'une tâche dite de référence,
standard ou contrôle (lire à haute voix, par exemple). Certains auteurs parlent de soustraction
pairée, mettant en jeu un paradigme expérimental fondé sur une complexité croissante de la
tâche comportementale. On présente au sujet une série de tâches de complexité croissante, puis
on soustrait la valeur du flux sanguin obtenue par la tâche la plus simple de celle obtenue par la
tâche suivante, plus compliquée, etc.
La rangée supérieure de ces images en TEP montre la soustraction de la condition contrôle (dans ce cas ici,
le repos avec la simple fixation d'un point d'une condition expérimentale consistant à observer un damier
oscillant positionné à 5.5 degrés du point de fixation). La soustraction produit une image quelque peu
différente pour chaque sujet, comme on peut le voir sur la rangée du milieu. Ces images sont moyennées afin
d'éliminer du bruit, ce qui produit l'image du dessous. Sources L'esprit en images M.I. Posner & M.E.
Raichle, 1998.
La figure ci-dessous montre un exemple résultant du paradigme expérimental habituellement
utilisé dans l'approche de la TEP. Ce paradigme est hiérarchique dans la mesure où, à un premier
Cognition & Motricité
-32Yves Kerlirzin
__________________________________________________________________________________________
niveau, pendant l'exécution de la tâche la plus simple, le sujet fixe un réticule (+) au centre d'un
écran. A un deuxième niveau, une tâche visuelle consiste à présenter au sujet un nom commun qui
apparaît sous le réticule, ou bien une tâche auditive qui consiste à faire entendre au sujet le
même mot. Dans la situation auditive comme dans la situation visuelle, les sujets voient ou
entendent les mots de façon passive. A un troisième niveau, le sujet doit prononcer le mot vu ou
entendu. Enfin, à un quatrième niveau, le sujet doit donner un verbe qui décrit le nom commun vu
ou entendu (par exemple, un marteau peut être utilisé pour frapper). Sources Neurosciences A la
découverte du cerveau M. F. Bear, B.W. Connors & M.C. Paradisio. Editions Pradel, 2002.
Lorsque le sujet regarde passivement les mots, la région la plus active se situe dans le cortex occipital
(zone visuelle, pour mémoire). Lorsqu'il écoute passivement les mots, c'est la zone du cortex temporal qui
est la plus active. La tâche de prononciation des mots active les régions motrices de la zone pariétale du
cerveau. Enfin, la tâche qui consiste à générer des verbes associés aux mots suscite une activation du
cortex frontal ainsi que la partie postérieure du cortex temporal. La TEP a ainsi permis de mettre en
évidence une diversité de régions cérébrales impliquées dans le traitement neurobiologique du langage.
Source Sources Neurosciences A la découverte du cerveau M. F. Bear, B.W. Connors & M.C. Paradisio.
Editions Pradel, 2002.
Intér êt m édical de l a Tomogr aph ie par émis sion de positons
La recherche actuelle en Tomographie par Emission de Positons représente une aide très
importante pour le diagnostic et l'évaluation. Son apport concerne de très nombreux domaines,
que ce soit celui de la cancérologie (détection et localisation de tumeurs comme les cancers ORL,
du poumon, du tube digestif, du sein, les lymphomes, les mélanomes, suivi des patients après
Cognition & Motricité
-33Yves Kerlirzin
__________________________________________________________________________________________
l'application des traitement en oncologie. Elle utilise comme traceur radioactif un sucre analogue
au glucose marqué au fluor 18, le 18F-FDG, déjà évoqué, dont la durée de vie peut aller environ de
15 à 110 mn. Les cellules cancéreuses présentent la particularité d’accroître leur consommation
de glucose, le FDG s’y accumule donc préférentiellement., de la cardiologie (maladies
coronariennes, hypertrophie ventriculaire), de la neuro-psychiatrie, le traitement de différentes
pathologies (e.g. pathologies vasculaires cérébrales : "en cas d’accident vasculaire cérébral avec
occlusion de l’artère, on peut mesurer instantanément la zone de diminution de circulation
cérébrale dans le tissu touché et la consommation d’oxygène de ce tissu" -JC Baron), l'étude de
maladies dégénératives comme les maladies de Parkinson et d'Alzheimer (possibilité de détection
des premiers symptômes de démence par la mise en évidence d'un dysfonctionnement très
localisé au niveau du cortex), (voir ppt), la neurobiologie du langage.
Elle joue un rôle également dans le développement de l’innovation thérapeutique, le coût du
développement de nouveaux médicaments (il a fallu par exemple huit ans et plusieurs milliers de
patients pour fixer, par des méthodes conventionnelles la posologie et les doses limites d’un
médicament contre la schizophrénie. Par tomographie par émission de positons, ces essais n’ont
nécessité que onze patients et quelques jours pour aboutir à un résultat équivalent et même plus
précis – source www.cea.fr), dans une meilleure connaissance des processus mis en jeu dans le
métabolisme ou la pharmacocinétique des liaisons médicaments-récepteurs.
Cependant, même si le TEP-scan est une méthode d'investigation très importante, elle n'en
comporte pas moins certaines limites. En particulier, la résolution spatiale, de l'ordre de quelques
(5 à 10 mm3 , de 4 à 8 mm selon les auteurs), reste faible, ce qui représente l'activité de plusieurs
milliers de cellules. Par ailleurs, l'acquisition de données est relativement lente, de l'ordre de une
à plusieurs minutes (90 secondes en moyenne) pour acquérir un seul scan. Cela, sans compter avec
les radiations encourues par le sujet, même si la dose radioactive injectée demeure faible, limite
le nombre d'examens qu'il est possible de mener sur un seul sujet dans une période de temps
raisonnable.
c2 ) L'imagerie par résonance magnétique
C'est pourquoi peu à peu l'Imagerie par résonance magnétique (IRM) supplante la TEP. Mise au
point dans les années 1970 (les premières images RMN ont été réalisées aux Etats -Unis en 1974
par Paul Lautebur sur un animal vivant), l'IRM ne nécessite pas l'utilisation de rayons X pour
mener une analyse détaillée de l'organisation anatomo -fonctionnelle du cerveau. Il est désormais
possible grâce à certains systèmes de réaliser des images avec une résolution temporelle allant
jusqu'à 0,02 seconde. Cette technique utilise l'information fournie par la mise en résonance des
Cognition & Motricité
-34Yves Kerlirzin
__________________________________________________________________________________________
atomes d'hydrogène soumis à un champ magnétique intense. Les signaux électromagnétiques
correspondent à la perturbation du champ électromagnétique naturel émis par les atomes. Ils
sont détectés par une série de capteurs et enregistrés par un ordinateur puissant qui va
reconstruire le cerveau en trois dimensions.
L'imagerie par résonance magnétique repose sur l'utilisation d'un électro aimant entourant le
patient. Cet électro aimant est constitué de très nombreux fils hélicoïdaux (entre 20 et 30 km)
supraconducteurs. A condition d'être placé dans des conditions de température très basses (par
exemple, les fils hélicoïdaux sont disposés à 4.2° C au-dessus du zéro absolu, l’appareil est
maintenu dans le vide et placé dans un réservoir rempli d’azote liquide), un supraconducteur
n'oppose aucune résistance au passage d'un courant électrique . En d’autres termes, lorsqu’un
courant électrique est introduit dans les fils, il n'y a donc aucune dissipation d'énergie par effet
Joule, le courant se maintient à pleine vitesse pendant des années.
L'IRM consiste à observer les tissus biologiques à travers les propriétés magnétiques de l'un
de leurs constituants très majoritairement présent, le noyau d'hydrogène (par exemple, les
molécules d'eau, représentant plus de 80% du poids du cerveau, contiennent deux atomes
d'hydrogène). Dans la méthode la plus simple, l'IRM va donc en quelque sorte quantifier ces
atomes d'hydrogène.
La résonance magnétique utilise le magnétisme afin d'agir sur les atomes de l’organisme.
Chaque noyau d'un atome possède des protons (e+ ) et des neutrons. Chaque proton possède son
propre champ ou moment magnétique avec un pôle nord et un pôle sud (le proton se comporte
comme une aiguille aimantée), et possède un mouvement propre de rotation autour de son axe
(comme pour une toupie, spin en anglais) à une fréquence donnée dite fréquence de Larmor.
L'unité S.I. de l'intensité d'un champ magnétique est le Tesla (Nikola TESLA était un Ingénieur
américain, né à Smiljan, Croatie le 10 juillet 1856 et mort à New York City le 7 janvier 1943).
Dans un champ magnétique comme celui classiquement utilisé en RMN (i.e. de 1;5 Tesla ou 15000
Gauss), la fréquence de Larmor d'un proton est de 63.87 MHz, ce qui correspond à 63.87 millions
de rotations par seconde).
Lorsqu’un patient est introduit dans l’appareil, la bobine haute fréquence émet des ondes
radio, créant un champ magnétique qui va amener les protons de son organisme (et donc les spins
des noyaux d'hydrogène) à s'orienter, à s'aligner dans la direction du champ magnétique (B0) de
l’appareil, soit dans le même sens (majoritairement), soit en sens inverse. La somme algébrique de
tous les spins n'étant plus nulle, il apparaît alors un moment magnétique résultant (M0)
Cognition & Motricité
-35Yves Kerlirzin
__________________________________________________________________________________________
caractérisant en quelque sorte l'aimantation exercée en tous points du cerveau. Tout se passe en
effet comme si le sujet était aimanté.
D'après D. Dormont (Pitié Salpêtrière
Paris). Source Line Garnero, Laboratoire
de Neurosciences Cognitives & Imagerie
Cérébrale CNRS UPR640, Centre de
Magnétoencéphalographie
Antenne de radio-fréquence dite "cage oiseau" entourant la
tête du sujet et utilisée à la fois pour générer les impulsions
de champ et pour recueillir le signal de résonance magnétique.
Source
http://www.inrp.fr/Acces/biotic/neuro/techniques/imagerie
Mais il est difficile de calculer ce moment M0 car il est aligné sur B0 et de faible valeur
comparée à B0 . L'idée est donc d'écarter ce moment de façon à pouvoir calculer par exemple sa
composante perpendiculaire (Mxy ) par rapport à B0 . On utilise donc un champ magnétique B1
perpendiculaire à B0 qui va permettre d'écarter M0 en exerçant sur lui un moment de torsion (cf.
figures ci-dessous).
Source Line Garnero, Laboratoire de Neurosciences Cognitives & Imagerie Cérébrale CNRS UPR640,
Centre de Magnétoencéphalographie.
Cognition & Motricité
-36Yves Kerlirzin
__________________________________________________________________________________________
Cependant, pour que cette action soit efficace, il est nécessaire que le champ B1 tourne
exactement à la même fréquence de rotation que les spins. C'est ce qu'on appelle le phénomène
de résonance magnétique. Lorsque le champ B1 est coupé, il se produit ce qu'on alors une phase de
relaxation (i.e. la reprise par les protons de leur orientation initiale). On mesure alors en chaque
point des tissus analysés non pas l'aimantation résultante, mais en fait ce qu'on appelle la
relaxation de cette aimantation. Cette relaxation répond à différents paramètres (T1, T2, T2*)
et permet, selon ces paramètres, de produire des types d'images différents. La réorientation
des protons libère de l’énergie qui génère un voltage détecté par un résonateur qui fait office de
récepteur. Ce voltage est ensuite converti en signaux numériques qui forment la base des clichés
RM. L'aimantation est proportionnelle à la quantité de noyaux d'hydrogène présents. La force
des signaux émis par les différents tissus dépend notamment de leur composition chimique. La
répartition différentielle de l'eau (et donc des noyaux d'hydrogène) dans ces tissus permet de
dessiner une carte des aimantations résultantes reproduisant l'anatomie des tissus. Des
anomalies comme les tumeurs, les lésions cérébrales s'accompagnent d'une augmentation de la
proportion d'eau et produisent des signaux qui peuvent alors être différenciés des tissus
cérébraux sains. On peut détecter par exemple une démyélinisation de la substance blanche, mais
également localiser des tumeurs, des inflammations tissulaires.
Imag erie p ar r éson ance magn étique f onctionnel l e
Etat de Repos
Etat d'Activation
Phénomène physique à la base de l'IRMf (extrait de Scientific American, 270:41, 1994).
L'IRMf a été développée dans les années 1990. Elle permet d'obtenir des variations du débit
sanguin cérébral toutes les 5 secondes. L'IRMf fournit des images du cerveau beaucoup plus
précises que la TEP et à un coût moindre. Elle est réellement non invasive puisqu'elle ne nécessite
Cognition & Motricité
-37Yves Kerlirzin
__________________________________________________________________________________________
pas l'injection d'un traceur radioactif, mais endogène, le désoxy-Hb (i.e. de l'hémoglobine non
porteuse d'oxygène) dont la concentration varie dans le sang. L'IRMf se fonde sur l'observation
pratiquement en temps réel des modifications de signal liées aux variations d’oxygénation
sanguine locale (méthode BOLD, Blood Oxygenation Level Dependent) lors de l'activation
cérébrale. L'augmentation de l'activité neuronale d'une zone du cerveau entraîne au début une
importante augmentation de son flux sanguin cérébral local associé à une augmentation (plus
faible) de la consommation en oxygène. Ceci génère à ce moment une augmentation transitoire de
la concentration veineuse locale en désoxy hémoglobine (désoxy-Hb).
Puis le débit et le volume sanguin augmentent de façon plus marquée, provoquant l'afflux de
globules rouges oxygénés et abaissant par conséquent la concentration relative en désoxy
hémoglobine (effet ou signal BOLD). L'hémoglobine contient un atome de fer. Lorsqu'elle se
trouve sous la forme de déoxyhémoglobine, la présence d'un atome de fer isolé (plus lié à
l'oxygène) la rend paramagnétique, créant une petite homogénéité du champ magnétique.
Ce paramagnétisme de la désoxyhémoglobine a pour conséquence de créer un phénomène dit
de susceptibilité magnétique caractérisant son influence sur le champ magnétique local (en
l'occurrence, la diminution du signal). La diminution de concentration en désoxyhémoglobine
pendant l'activation cérébrale diminue ces effets de susceptibilité magnétique et on observe
donc une augmentation localisée et faible (1 à 5 %) du signal dans la zone activée par rapport à
l'état de repos.
L'oxygène libéré au niveau des capillaires cérébraux, entraîne la réduction du fer qui se retrouve à
l'état d'ion ferreux (Fe++), laissant deux électrons non appariés au sein de la molécule de déoxyhémoglobine. Ces électrons sont à l'origine du paramagnétisme de cette molécule et génèrent une
modification (une inhomogénéité) du champ magnétique local.
Cognition & Motricité
-38Yves Kerlirzin
__________________________________________________________________________________________
c3 ) L'électroencéphalographie
Les méthodes précédemment évoquées nous permettent à la fois de mener sur les différentes
localisations cérébrales des études descriptives mais également fonctionnelles. Cependant, elles
ne rendent pas compte de la durée de ces activités, pas plus que de l'activité – l'excitation neuronale (ceci étant du principalement à la rapidité des communications inter neuronales, de
l'ordre d'1 milliseconde, et au temps nécessaire avec ces techniques, d'une quarantaine de
secondes, pour obtenir et enregistrer des modifications du flux sanguin). On utilise donc
d'autres
moyens,
comme
l'enregistrement des
phénomènes
électriques ou
magnétiques
permettant de recueillir les bouffées d'activité neuronales et de les retranscrire graphiquement.
Ceci a été rendu possible par l'utilisation de l'électroencéphalographie. Cette technique date de
la première partie du XXè siècle. (en fait, on peut situer l'origine de l'électroencéphalographie à
la fin du XIXè par la découverte, chez l'animal, de variations électriques provenant du cerveau,
Caton, 1875). Le terme électroencéphalographie fut proposé en 1929 par Hans Berger, un
neuropsychiatre allemand. Berger a été le premier a enregistrer l'activité électrique globale du
cerveau humain (1924-1929). Il a montré qu'il était possible de réaliser des enregistrements de
l'activité électrique cérébrale à travers la boîte crânienne. En effet, quelle que soit l'activité à
laquelle se livre le sujet, son cerveau humain est le siège d’une activité spontanée biochimique et
électrique, reflet de l'activité neuronale. Cette activité électrique neuronale globale et continue
peut
être
recueillie
en
surface
par
de
très
nombreuses
électrodes situées à différents endroits sur le scalp du sujet. Le
détecteur est une cupule métallique (de l'argent par exemple)
fixée sur le scalp du sujet par une patte conductrice. Le contact
électrique est assuré par l’introduction d’un gel conducteur entre
l’électrode et le cuir chevelu. Ces électrodes sont réparties soit
selon
une
disposition
internationaux,
Hans BERGER (1873-1941)
soit
correspondant
différemment
à
selon
des
le
standards
but
de
l'expérimentation.
Le nombre d'électrodes est donc variable. La plupart du temps, le bonnet porté par le sujet en
comporte 32 ou 64, auxquelles s'ajoutent plusieurs électrodes dites de référence, disposées en
des lieux où le signal cérébral n'apparaît pas, et dont on retranchera la valeur afin de tenir
compte d'enregistrements extra cérébraux (précaution méthodologique de traitement de signal).
Les potentiels mesurés en EEG peuvent être générés soit par les courants pré synaptiques,
associés aux potentiels d'action, soit par les courants associés aux potentiels post-synaptiques
Cognition & Motricité
-39Yves Kerlirzin
__________________________________________________________________________________________
(PPSI et PPSE), soit par une combinaison des deux. En fait, la plupart du temps, les signaux
physiologiques recueillis en EEG (et en MEG) proviennent des potentiels post-synaptiques,
beaucoup plus persistants que les potentiels d'action. Les courants recueillis sont surtout ceux
générés au niveau des dendrites des neurones pyramidaux que l’on retrouve massivement dans le
cortex. En EEG, le signal recueilli est très faible, il n'est pas possible de mesurer les courants
générés par une seule cellule. On enregistre donc généralement le courant produit par un
ensemble de cellules, en considérant que le signal récupéré représente la somme des signaux
produits par différents groupes neuronaux. L'électroencéphalogramme standard est enregistré
chez le patient éveillé, autant que possible au repos, détendu.
Casque géodésique pour un enregistrement EEG
Les fréquences caractérisant l'activité cérébrale recouvrent une plage s'étendant de 0.25 Hz
à 64 Hz (pour mémoire, une fréquence de 1 hertz correspond à une réponse ou une excitation par
seconde). Selon l'état de conscience du sujet, les fréquences observées seront différentes.
L'onde ou rythme alpha, découvert par Berger en 1924 (il porte parfois son nom), est
constitué d'ondes régulières dont la fréquence varie de 8 à 13 Hz 12 Hz et l'amplitude de 25 à
100 mV. Ce rythme est recueilli avec une prédominance occipitale bilatérale et s'étend plus ou
moins largement vers les régions antérieures. Il caractérise un sujet alerte, en situation
confortable, sans traitement actif de l’information, par exemple, avec parfois les yeux clos. Le
rythme alpha, élément dominant du tracé de veille, disparaît au cours de la somnolence ou du
précoma, comme d'ailleurs lors des réactions d'attention ou d'orientation (accroissement de la
vigilance).
Le sujet alerte, attentif, les yeux ouverts, traitant activement de l’information, fonctionne
sur un rythme bêta, rythme d'éveil caractérisé par des fréquences élevées (de 13 à 30 Hz). La
fermeture des yeux ralentit ce rythme (on se dirige vers un rythme alpha), leur ouverture fait
disparaître à nouveau le rythme alpha.). Ces rythmes bêta sont surtout visibles au niveau des
régions fronto-rolandiques.
Cognition & Motricité
-40Yves Kerlirzin
__________________________________________________________________________________________
Les rythmes thêta ont une fréquence de 4 à 7 Hz, correspondant à la phase du sommeil léger.
Physiologiques chez l'enfant, ils peuvent traduire une souffrance corticale discrète, ou une
souffrance sous-corticale (thalamique par exemple). Sont le signe de l'activité limbique (mémoire et
émotions).
Enfin, les rythmes du sommeil profond, les ondes delta, présentent des fréquences se
répartissant entre 0.5 et 4 Hz, avec de grandes amplitudes (jusqu'à 200 µV) . Ces ondes prennent
un
caractère
pathologique
chez
l'adulte
éveillé.
Leur
ralentissement
(elles
peuvent
progressivement descendre jusqu'à jusqu'à ½ Hz ou même 1/3 d'Hz) et permettent de suivre
l'évolution d'une souffrance cérébrale. La poursuite de ce ralentissement peut aboutir à
l'absence de signal décelable, signant ainsi l'apparition de la mort cérébrale (formule commune,
un encéphalogramme plat).
Cette
méthodologie
exploratoire
électroencéphalographique
a
permis
d'obtenir
des
informations très précises sur l'activité cérébrale en temps réel par la technique des potentiels
évoqués. Elle permet de repérer les changements brusques de l'activité électrique cérébrale
dans des zones identifiées par exemple par la TEP. Ainsi, si l'on demande à un sujet de traite r un
mot et de penser à un verbe associé à ce mot (e.g. marteau et frapper), le cortex frontal est
activé après un délai de 200 ms, tandis que le cortex temporal est activé après un délai de 700
ms. Cette signature électroencéphalographique particulière permet de relier différentes
fonctions cognitives ou motrices à des patrons caractéristiques d'activité neuronale. Il faut
cependant garder à l'esprit que, comme pour la MEG, l'activation simultanée de plusieurs sources
rend parfois difficile ou non linéaire leur localisation. Par ailleurs, dans ces expérimentations, la
faible sensibilité du signal recueilli (il est systématiquement amplifié) nécessite un grand nombre
de répétitions. La cellule (ou plutôt la région, la population de cellules) est stimulée de
nombreuses fois. On considère ainsi généralement que le nombre de stimulations nécessaire pour
un traitement perceptif est de 50 stimuli par condition et de 100 stimuli par condition pour un
traitement cognitif. Les variations de potentiels recueillies sur le scalp, chez l'homme, résultent
de l'activité synchrone et sommée de nombreuses populations de neurones (un signal ne peut être
observé en EEG, comme en MEG, que si environ un million de synapses sont activées
simultanément) . La sommation des enregistrements des réponses aux stimulations permet de
donner une image moyenne assez précise de la réponse du (des) neurone(s) et des variations de
cette réponse à la stimulation. Néanmoins, ces potentiels évoqués cognitifs reposent sur
l’hypothèse de l'existence d'une relation quasi linéaire entre le stimulus et la réponse, mettant
de côté la question de l'apprentissage de la réponse au cours des répétitions. Se pose donc alors
le problème de la fiabilité de cette réponse moyenne d'un grand nombre d'enregistrements.
Cognition & Motricité
-41Yves Kerlirzin
__________________________________________________________________________________________
c4 ) La magnétoencéphalographie
Schéma du dispositif de capteurs. On y voit
Une
photographie
de
l’intérieur
du
l’emplacement des gradiomètres et le réservoir à
casque(CTF Systems Inc., Vancouver, Canada).
Hélium liquide garantissant le refroidissement des
Source http://sipi.usc.edu/~silvin/docs
SQUIDs. Source http://sipi.usc.edu/~silvin/docs
L’appareil de magnétoencéphalographie de l’hôpital
de la Salpêtrière.151 canaux MEG, 64 EEG simultanés,
Chambre blindée assurant l’isolation
électromagnétique & phonique
fréquence d’échantillonnage : 2kHz
Une autre technique proche de l’EEG est la magnétoencéphalographie (MEG), que nous
évoquerons brièvement. Comme l’EEG, la MEG enregistre les excitations neuronales du cerveau.
La communication de ces cellules du cerveau s'effectue grâce à de minuscules impulsions
électriques qui s'accompagnent, comme n'importe quel courant, de champs magnétiques. Les
sources électrophysiologiques demeurent donc les mêmes, mais l'avantage de l'utilisation des
champs magnétiques, malgré leur valeur très faible (10-15 Teslas) , est une moindre déformation
des lignes de courant entre des tissus présentant des propriétés de conduction différentes (e.g.
la peau et les os), ce qui permet d'obtenir au niveau du scalp des images moins diffuses. Ce sont
les variations de c es champs magnétiques extrêmement faibles (10 milliards de fois plus faibles
Cognition & Motricité
-42Yves Kerlirzin
__________________________________________________________________________________________
fois celui de la Terre), dues aux courants intra et extra cellulaires traversant le magnétomètre,
qui vont être détectés, recueillis et amplifiés à l'extérieur de la tête du sujet par des capteurs
très sensibles comme le SQUID (Superconducting QUantum Interference Device). Comme pour
l'IMGf, le système repose sur l'utilisation de supraconducteurs, i.e. ne présentant pas de
résistance au passage du signal (avec donc les mêmes contraintes, l'existence d'une enceinte
cryogénique).
c4 ) Bilan et conclusion
Signal
TEP
IRMf
EEG
MEG
Source
Débit sanguin
Désoxyhémoglobine
PPS
PPS
Capillaires veinules
Dendrites
Dendrites
Photons gamma
Signal
Champ
électrique
magnétique
cérébral
Lieu
Capillaires
artériels
Type
Résolution
Radio activité
5mm
3 mm
>6mm
>6mm
8mn
1 à 6s
1ms
1ms
90s
1 à 6s
1ms
1ms
spatiale
Résolution
temporelle
Intégration
temporelle
Il est possible de mener une comparaison des principales techniques d'imagerie cérébrale
précédemment évoquées. C'est là le but des tableaux supra. Il montrent chacun en ce qui les
concerne que chaque technique possède des caractères spécifiques (apports et limites). On peut
séparer ces techniques en deux familles, la première comprenant les méthodes mesurant de
façon indirecte les effets de l'activation cérébrale comme la TEP, l'IRMf, la seconde
comprenant les méthodes permettant seules de rendre compte en temps réel de l'activité
cérébrale, comme l'EEG et la MEG. Ces techniques n'apparaissent pas en concurrence, l'intérêt
commun, à la fois médical et expérimental, étant bien évidemment de tenter de coupler,
d'intégrer leurs différents apports (par exemple, comme cela se déroule à l'heure actuelle par
exemple par le couplage entre les techniques hémodynamiques et électromagnétiques).
Cognition & Motricité
-43Yves Kerlirzin
__________________________________________________________________________________________
Computed tomography (CT scan)
Apports
Limites
Sujets sains et pathologiques
Localisation parfois peu précise
Relativement non invasif
Très onéreux
Image structurelle
Tomographie à émission de positons (TEP)
Apports
Limites
Sujets sains et pathologiques
Invasif (radioactivité)
Résolution spatiale élevée
Résolution temporelle très faible (5 min)
Images en 3D
Très onéreux (nécessité d'un accélérateur de
Corrélation avec la tâche
particules type cyclotron)
Peu de sujets
Imagerie par Résonance Magnétique Fonctionnelle (IRMf)
Apports
Limites
Sujets sains et pathologiques
Résolution temporelle très faible (250 ms)
Non invasive
Difficile pour les sujets (Claustrophobie)
Résolution spatiale très élevée (1mm)
Très onéreux
Images en 3D
Parfois Artefacts provenant du placement de
Corrélation avec la tâche
la tête, d'effets transitoires du scan, etc.
Moins onéreux que la TEP
Liaison structure/fonction
Electroencéphalographie (EEG)
Apports
Limites
Sujets sains et pathologiques
Localisation parfois peu précise
Non invasif
Nombre très important de neurones
Résolution temporelle élevée (1 ms)
Signal très faible
Peu coûteuse, temps réel, portable
Artefacts
Magnétoencéphalographie (MEG)
Apports
Limites
Sujets sains et pathologiques
Localisation parfois peu précise
Non invasif
Sujets nécessairement immobiles
Résolution temporelle élevée
Très onéreux, chambre protégée
Meilleure localisation que l'EEG
Cognition & Motricité
-44Yves Kerlirzin
__________________________________________________________________________________________
III- L'a tten tion
Introduction, déf initions
L'individu est en relation permanente avec son environnement et construit progressivement sa
connaissance de cet environnement grâce à une acti vité perceptive et attentionnelle constante.
L'attention est un facteur essentiel de l'adaptation de l'homme à son environnement. La
perception utilise nos sensations, nos différentes modalités sensorielles. Cependant, dans les
processus perceptifs et attentionnels, seule une partie de ces différentes informations est
enregistrée et utilisée. C'est cette partie sur laquelle se focalise notre attention et dont nous
prenons conscience.
L'attention peut se définir comme la capacité à sélectionner les informations, de façon plus ou
moins marquée (on distingue habituellement une attention sélective et une attention partagée –
nous y reviendrons). Pour James (1890), l’attention "c’est quand l’esprit prend possession, sous
une forme vive et claire, d’un objet ou d’une pensée parmi ceux qui se présentent simultanément.
Focalisation, concentration de la conscience lui sont essentiels. Ceci implique de se retirer de
certaines choses pour en traiter d'autres effectivement."
Comme nous le précisent les illustrations ci-dessous, attention est un terme polysémique. Cela
s'explique aisément si l'on fait référence à sa racine étymologique. Attention est un emprunt
(1536) au latin attentio, dérivé supin du verbe attendere, au sens du latin classique tendre
l'esprit vers. On trouve ainsi et l'on utilise quotidiennement par extension les expressions prêter
attention à, être l'objet d'attention(s), faire attention (souci de la préservation de l'intégrité
physique du sujet), attention perçue comme un avertissement. Dans le domaine des activités
physiques et sportives, l'activité perceptive et la mise en jeu des processus attentionnels sont
permanentes. L'attention visuelle, son orientation apparaissent déterminantes dans l'organisation
du pratiquant, et ce plus particulièrement dans des activités de type ouvert, mettant en jeu un
degré élevé d'incertitude. Tout le plaisir de certaines activités d'opposition peut d'ailleurs être
envisagé comme la capacité à orienter l'attention de son adversaire en un lieu ou sur un
événement particulier de façon à le leurrer et à l'empêcher ainsi de développer des stratégies de
gain de l'opposition. On peut ainsi formuler l'hypothèse que le champion est celui qui sait
focaliser son attention sur l'information pertinente, possède les ressources lui permettant de
maintenir cette attention sans se laisser distraire par les leurres ou feintes produits par son
adversaire ou par les actions sonores ou visuelles de ses supporters.
Cognition & Motricité
-45Yves Kerlirzin
__________________________________________________________________________________________
Différentes acceptions du
terme
attention
focalisation
sur
(écoute,
un
point
particulier, être l'objet de,
avertissement ou prévention).
L'attention apparaît ainsi dès le départ comme un processus volontaire d'allocation de
différentes ressources psychologiques, cognitives, mentales, mnésiques. C'est une tension (au
sens de tendre vers) de l'esprit vers un objet, un effort développé par le sujet dans la
perception et le traitement le plus efficient possible d'un signal. On peut également définir
l'attention focalisée comme un processus d'exclusion, certains signaux étant privilégiés au
détriment d'autres ignorés ou exclus.
A - A ttention et vigil ance
On le voit, un certain nombre de termes traduisant différents processus et phénomènes sont
liés à cette notion d'attention. Evoquer l'aspect volontaire du processus attentionnel nous
rappelle l'ambiguïté de ce terme. On assimile très souvent la notion d'attention et l'idée de
vigilance. Il existe en effet un lien direct entre attention et vigilance. Celle-ci, comme l'attention
soutenue, implique chez le sujet la capacité à maintenir à un niveau élevé (maximal ou optimal
selon l'état du sujet) une attention focalisée pendant un intervalle de temps déterminé. La
vigilance répond cependant à une définition plus restrictive par rapport à l'attention. Elle peut
Cognition & Motricité
-46Yves Kerlirzin
__________________________________________________________________________________________
être comprise comme une préparation de l'organisme à détecter et à répondre à des
changements se produisant dans l'environnement de façon hypothétique ou à des intervalles la
plupart du temps irréguliers. Quel que soit le domaine (monde du travail, pratique sportive, etc.)
dans lequel elle s'exprime, la performance réalisée par le sujet est due en partie à l'état de
vigilance du sujet, état physiologique qui dépend du niveau d'activation du système nerveux
central. La vigilance est liée à la notion d’éveil. Etre vigilant, c'est savoir lutter contre la fatigue,
l'assoupissement, le relâchement, contre toute distraction. Sa baisse momentanée peut se
traduire par le bâillement qui joue probablement un rôle dans le maintien de cette vigilance. Des
expériences ont été menées chez les rats par Ikuko Sato -Suzuki et son équipe (Tokyo) et ont
montré que l'injection d'hypocrétine (hormone liée à la régulation du sommeil et de la prise
alimentaire) dans le noyau paraventriculaire de l'hypothalamus, déclenchait des bâillements
accompagnant une élévation du niveau de vigilance de l'animal (Walusinski, 2003). (La formation
réticulaire qui s’étend depuis le bulbe rachidien jusqu’à l’hypothalamus joue un rôle central dans la
régulation de la vigilance). Il existe une relation forte entre la qualité de l'éveil (ou de la
vigilance, si l'on accepte cette linéarité), c'est-à-dire la mise en jeu d'une activation particulière
des processus attentionnels et la performance produite par le sujet. La loi de Yerkes-Dodson
(dénommée ainsi à la suite des travaux de ces chercheurs, R.M. Yerkes et J.D. Dodson, en 1908)
rend compte des conditions dans lesquelles la meilleure performance est réalisée. Ces chercheurs
ont montré que des chocs électriques de faible intensité délivrés à des souris après production
d'une réponse incorrecte favorisaient un apprentissage discriminatif. Ces chocs contribueraient,
si leur intensité n'est pas trop élevée, à l'élévation du niveau d'activation cérébrale, favorisant
ainsi l'efficience du traitement des informations. Par contre, des chocs plus importants
ralentissent au contraire ces apprentissages.
Hebb a repris ces travaux en 1955 en
montrant
que
cette
loi
d'optimum
ou
d'activation optimale observait une forme en U
inversé, reliant le niveau d'éveil (arousal) à la
fonction informative des stimuli. La relation
entre éveil et performance n'est pas linéaire
mais curvilinéaire. Ceci nous rappelle qu'à
partir d'un certain seuil, les performances ne
sont
Courbe en U inversé
Source : R.A. Schmidt & T.D. Lee, 1999
plus
perturbées.
favorisées
mais
au
contraire
Cognition & Motricité
-47Yves Kerlirzin
__________________________________________________________________________________________
Il existe donc des seuils d’activation intermédiaire qui en permettent l'expression optimale.
(Pour mémoire, dans le cadre de ces théories de l'activation sous-tendue par une courbe en U
inversé – la théorie de l'activation a été proposée par Lindsley en 1951 -, il est possible de
remplacer le terme d'éveil par celui de motivation).
Cette notion de vigilance (terme utilisé par Henry
Head, neurologue anglais) est tout à fait centrale dans
l'exercice de certaines professions. Il en est ainsi par
exemple de la profession de contrôleur aérien. Celle-ci
sollicite les fonctions cognitives d’attention sélective,
d'attention soutenue, de mémoire. Elle nécessite le traite ment de nombreuses informations de différentes natures et impose de prendre rapidement et
précisément des décisions qui peuvent s'avérer vitales la plupart du temps. Il existe donc des
variations du niveau de vigilance. Ceci peut-être imputé au moment de la période d'observation
par le sujet (on constate dans ces tâches correspondant à l'observation d'un seul phénomène, une
diminution du taux de détection des cibles durant une période d'au moins une demi-heure, alors
que le taux de cibles détectées au début de la période vigile est proche de 100 %), au moment de
la journée, à l'état du sujet, à la charge mnésique. Ce déclin (ou décrément) de vigilance d'un
observateur a fait l'objet de nombreuses expériences, avec évidement l'idée de mieux
comprendre les processus mis en jeu et de proposer un traitement ou une formation appropriés.
L'une des premières et des plus communément évoquées est celle menée par Norman H.
Mackworth en 1948 et connue sous le nom de test de l'horloge. Un certain nombre d'études
menées durant la seconde guerre mondiale avaient permis de montrer de montrer que la vigilance
des observateurs radars baissait de façon très significative après 30 minutes d'observation
continue. Le test de l'horloge consiste pour le sujet à repérer sur une longue période (durée du
test = 2 h), le nombre de fois où l'aiguille (elle parcourt le cadran en 100 secondes), au lieu de se
déplacer d'un cran (0,3 pouce) toutes les secondes, se déplace de deux crans (0,6 pouce) à la
fois. Ce signal intervient de façon irrégulière (aléatoire), à des intervalles variant entre 45
secondes et 10 minutes, et ce 12 fois sur une période de 30 minutes. Cette période était répétée
4 fois. L'expérimentateur note dans ce test le nombre de détections exactes du signal, ou bien
encore le nombre de fausses alarmes (le sujet pense que le signal est survenu alors qu'il n'y a eu
aucun changement) ou d'omissions (le sujet n'a pas vu le saut plus important de l'aiguille) ou bien
enfin le temps de réaction du sujet. Les résultats confirment l'existence d'une relation linéaire
forte entre le niveau de vigilance et la qualité de l'éveil (celui-ci étant comme nous l'avons
Cognition & Motricité
-48Yves Kerlirzin
__________________________________________________________________________________________
brièvement évoqué précédemment dépendant de plusieurs facteurs). Un niveau élevé d'éveil
permet de meilleures détections. Ils montrent par ailleurs un déclin progressif mais relativement
limité de la détection correcte du phénomène (83% durant la première demi heure, puis 73, 73 et
72% au cours des trois autres demi heures) en fonction de la durée de l'épreuve.
Ce test est intéressant car il permet de mettre en évidence ce processus décrémentiel de la
vigilance. Il demeure cependant limité dans la mesure où il ne travaille que sur une dimension et
n'offre donc qu'une explication ou une élucidation partielle par rapport à la complexité et à la
multidimensionnalité des processus mis en jeu. De façon claire, cela signifie que dans un certain
nombre de situations parfois plus complexes il est vrai, une diminution des détections n'implique
pas nécessairement un plus bas niveau d'éveil. En effet, d'autres aspects doivent être pris en
compte, comme le critère de décision (de détection du signal) que se fixe le sujet. Nous abordons
ici un autre aspect qui entre dans le cadre de la théorie de la détection du signal.
B- Dé tection e t discrimination d'un signal
L'idée de détection va de pair avec la notion de seuil, qui peut être défini comme la limite de
perception d'une stimulation (Bonnet, 1986). Un seuil absolu permet d'établir une distinction
nette : au dessous de la valeur définissant ce seuil absolu, le sujet ne détecte pas de stimulus.
L'expérimentation classique en audition pour la détermination de ce seuil absolu est connue sous
le nom de méthode des limites. Elle consiste à présenter au sujet un signal sonore de hauteur
(fréquence) constante d'abord inaudible puis progressivement audible. On note à quel moment
(quelle intensité) le sujet entend ce signal (méthode dite des séries ascendantes). Puis on agit de
la même façon de avec des séries descendantes (audible à inaudible). Cette méthode présente
cependant des limites (il arrive que les seuils trouvés lors des séries ascendantes ne
correspondent pas aux seuils trouvés lors des séries descendantes) dues notamment à ce qu'on
appelle chez l'erreur de persévération du sujet.
Un seuil n'est pas toujours absolu, il peut également permettre d'identifier, de caractériser,
de discriminer la variation de l'intensité d'un stimulus. Nous nous situons alors dans le cadre d'un
seuil différentiel. Le seuil différentiel est la plus petite variation ?I d'un stimulus d'intensité I
qui est juste perceptible par le sujet. Ce seuil différentiel est une fonction linéaire de l'intensité
appliquée. ?I = k x I ou ?I/I = k. C'est sous cette dernière forme que la loi de Weber est la plus
connue, celle de la constance de la fraction différentielle ?I/I quel que soit le niveau d'intensité
du stimulus (dans le domaine des modalités sensorielles, cette fraction prend des valeurs très
différentes - de 5 à 30% selon la modalité).
Cognition & Motricité
-49Yves Kerlirzin
__________________________________________________________________________________________
C- Th éorie de l a dé tection du signal et pr atique s porti ve
La détection et la décision sont deux facteurs qui jouent un rôle déterminant dans la prise de
décision du sujet en situation, notamment dans le cadre d'une pratique physique compétitive.
Pour la plupart des activités sportives, l'optimisation de la performance du pratiquant dépend de
sa capacité à mobiliser un certain nombre de facteurs : efficacité de la prise d'information,
sélection de la stratégie motrice la mieux adaptée, etc. Parmi ces facteurs, la lecture de
l'événement (et son influence sur l'activité décisionnelle) revêt un caractère particulièrement
important dans l'optimisation de la performance. La notion de prise de décision est centrale, la
connaissance des déterminants du comportement présente un grand intérêt, tant pour
l'entraîneur que pour le pratiquant.
La prise de décision en sport ne s'effectue pas par hasard.
Elle est le fruit d'une activité d'analyse et de compréhension
de la situation par l'athlète. Le gain de l'affrontement sportif
ne dépend pas lui non plus du hasard, mais de l'habileté à
prendre l'adversaire en défaut et à déjouer ses projets. Pour
le pratiquant de savate boxe française ou de kendo par
exemple, cela implique la gestion d'un certain nombre de
Source : club Charleroi
contraintes : identification des techniques qui lui sont portées
(réellement ou non) par l'adversaire, rapidité à déceler chez ce dernier des ouvertures (c'est-àdire une attitude posturale plaçant très brièvement le plus souvent cet adversaire en état
d'infériorité manifeste : par exemple, l'opposant baisse ou ouvre sa garde, ne se protégeant plus
ainsi de façon efficace). Chacun des protagonistes doit produire de l'incertitude tout en
s'attachant à recueillir le maximum d'informations pertinentes, c'est-à-dire en réduisant
l'incertitude que son adversaire applique à la situation.
En savate boxe française, en kendo, l'athlète doit donc fonctionner sur des ajustements
constants. Il doit s'adapter aux feintes ou aux coups portés par son adversaire, à la distance de
garde (distance optimale de frappe entre les deux boxeurs), etc. La proximité des protagonistes
explique la rapidité avec laquelle le tireur doit lire l'événement et prendre une décision juste.
Travaillant sous pression temporelle le plus souvent (i.e. temps disponible/temps nécessaire), il
s'avère déterminant pour lui de procéder à une bonne lecture événementielle. Celle-ci repose sur
la détection précoce d'indices pertinents lui permettant de prévoir, avec un pourcentage faible
d'erreur, quel coup va lui être porté. Dans les pratiques d'opposition, les indices et les signaux
n'existent pas en tant que tels. Ils ne prennent leur signification que par rapport aux
Cognition & Motricité
-50Yves Kerlirzin
__________________________________________________________________________________________
caractéristiques de la situation au sein de laquelle ils s'inscrivent. En savate boxe française
comme en kendo (ou d'autres activités physiques et sportives), ces caractéristiques concernent
une quantité d'incertitude et une pression temporelle élevées.
Par ailleurs, si ce décodage c'est-à-dire l'identification des événements, permet au tireur de
répondre de façon juste, appropriée, il peut lui permettre d'initier plus tôt sa réponse (qu'elle
soit de type offensif ou défensif), c'est-à-dire de travailler en anticipation (anticiper, c'est
donner tout ou partie de la réponse à un signal avant l'apparition de ce signal, c'est déclencher
une action motrice avant que l'événement auquel cette action doit répondre ne se soit produit).
L'anticipation implique donc une prédiction, de type événementiel ou temporel, et c'est
l'interaction de ces deux dimensions qui va déterminer l'efficacité de la réponse donnée. Ce qui
est à la base de l'anticipation est la signification accordée aux indices. Il semble acquis qu'en
fonction de l'expérience, on assiste à une capacité plus élevée chez les sujets expérimentés à la
fois à prélever les indices et à leur associer une signification L'étude de la conduite de prise de
décision des joueurs de raquette (squash, tennis, badminton, etc.) par exemple a permis de
mettre en évidence chez les joueurs l'existence de stratégies particulières destinées à rendre
leur conduite plus efficiente. Ces stratégies se fondent sur la probabilité accordée à tel ou tel
événement pour qu'il se produise, plutôt que tel ou tel autre. Enfin, dans le gain du match,
intervient la valeur de la décision (par exemple sur l'intérêt de la prise de risque à un moment
donné) prise par l'athlète. Celle-ci peut dépendre du moment de la rencontre, du score.
Tout ce qui précède nous rappelle la complexité de la situation sportive et l'importance d'une
bonne détection sur la bonne prise de décision en sport. L'efficacité de l'athlète dépend de sa
capacité à traiter un nombre élevé d'informations qui possèdent parfois un statut ambigu.
Confronté à la fiabilité des indices produits par son adversaire, il doit prendre la décision juste
et exécuter sa réponse avec le maximum de précision le plus rapidement possible (il doit gérer au
mieux le conflit vitesse-précision).
La métaphore indices pertinents assimilés à des "signaux" opposés aux indices non pertinents
assimilés à des "bruits" est inspirée de la théorie de la détection du signal. Cette métaphore, de
même que le modèle général de cette théorie, a été fréquemment utilisée pour décrire les
opérations mentales élaborées dans les activités sportives. Ces activités proposent à la lecture
des acteurs des événements qui peuvent être assimilés à des "signaux", par opposition aux
"bruits" provoqués par l'adversaire en vue de masquer ou d'atténuer ces signaux. Ceci permet
d'assimiler ces situations à des situations classiques, étudiées en laboratoire, de détection de
signal.
Cognition & Motricité
-51Yves Kerlirzin
__________________________________________________________________________________________
Elaborée dans le cadre strict des transmissions (s'attachant à la détection de stimuli sonores
et visuels), la théorie proposée par Tanner et Swets (1954) cherche à mettre en évidence les
opérations de détection du signal dans ce domaine particulier. Elle propose une distinction
explicite entre ce que perçoit le sujet, c'est-à -dire ce qui relève de sa sensibilité et peut être
attribué à la qualité de traitement des capteurs sensoriels (il perçoit plus ou moins bien), et ce
qui relève de l'effet produit sur ses réponses par ses valeurs et ses attentes, c'est-à -dire sa
décision (une stratégie singulière mise en œuvre en fonction de l'interprétation par le sujet de la
situation). En d'autres termes, comme le précise Nougier (1989), "des effets de sensibilité
peuvent avoir une origine attentionnelle, tandis que des effets de stratégie relèvent par nature
d'un choix tactique, indépendant des processus attentionnels".
Cette théorie conçue pour la détection de signaux faibles sur fond de "bruit" (c'est-à-dire ce
qui fausse ou masque la perception du signal) peut, par extension, s'appliquer à n'importe quelle
situation où l'information sensorielle d'entrée est ambiguë. Le sujet "se comporte comme un
statisticien en se demandant si l'observation qu'il vient de faire est plus représentative de la
présence à détecter ou du bruit qui l'accompagne" (Tiberghien, 1984).
Modèle de la Théorie de la détection du signal. Chaque secteur représenté ici traduit les réponses du
sujet : p(s/S = probabilité conditionnelle pour que le sujet réponde signal (s) alors que le signal (S) est
présenté, etc. Source Claude Bonnet (cours)
Les bruits et les signaux, qui représentent l'ensemble des événements possibles, sont
distribués sur deux courbes normales, possédant la même dispersion, mais avec des moyennes
différentes. Les deux critères de la performance sont l'indice d' et l'indice ß. L'indice d',
Cognition & Motricité
-52Yves Kerlirzin
__________________________________________________________________________________________
considéré comme un indice de discrimination, traduit la sensibilité perceptive du sujet, rend
compte du rapport signal/bruit. Plus le sujet est sensible (ou mieux il discrimine), plus l'écart
entre les deux courbes sera faible. La sensibilité se mesure en unités d'écart-type, elle traduit
la distance entre les moyennes de chaque distribution. Plus d' est grand, plus la détection est
aisée. L'indice ß traduit la position du critère de décision, reflétant la stratégie adoptée par le
sujet. Selon la position de ce critère, le sujet estime vraisemblable ou non que l'événement
détecté appartienne à la distribution du bruit ou à la distribution du signal. Il établit ainsi un
rapport de confiance ou de vraisemblance (likehood) sur lequel il peut bâtir sa décision. La
position de ce critère permet ainsi de voir si le sujet préfère opter pour des réponses négatives
plutôt que pour des réponses positives en cas d'incertitude ou, exprimé d'une façon différente,
s'il choisit pour la même sensibilité de minimiser les fausses alarmes (préférant augmenter les
omissions) ou les omissions (préférant augmenter les fausses alarmes).
Ce paradigme expérimental permet de mener une analyse plus fine que l'utilisation de la
méthode des seuils absolus par exemple ou le seul recueil du nombre de bonnes réponses ou
d'erreurs.
SIGNAL
Présent
OUI
Détection
correcte
REPONSE
NON
Omission
Absent
Fausse
alarme
Rejet correct
Matrice stimulus-réponse pour une procédure "Oui/Non" en détection du signal.
D'après Bonnet, 1986.
Chaque situation expérimentale possède ainsi quatre issues possibles :
- soit une détection correcte (hit) : répondre oui quand le signal est présent
- soit une omission (miss) : répondre non quand le signal est présent
- soit une fausse alarme (false alarm) : répondre oui en l'absence de signal
- soit un rejet correct (correct rejection) : répondre non en l'absence de signal.
Cognition & Motricité
-53Yves Kerlirzin
__________________________________________________________________________________________
Cette présentation de la théorie de la détection du signal, évidemment très simplifiée, se
propose simplement, dans le cadre de l'étude des processus attentionnels et des opérations de
détection et de discrimination qui l'accompagnent, de montrer l'utilité d'une telle approche dans
l'étude des facteurs explicatifs sous-tendant le développement de stratégies décisionnels chez
les pratiquants. C'est un modèle général qui a été fréquemment utilisé dans des domaines
d'étude plus complexes que les domaines initiaux, ce qui n'est pas sans poser de nombreux
problèmes. Abernethy (1985) souligne notamment que la nature très statistique de ce modèle le
rend impropre à rendre compte des phénomènes psychologiques très complexes et risque de
rendre vaine toute tentative de généralisation.
Autre repr ésentation du modèle de la Théorie de la détection du signal, avec la séparation de chaque
secteur correspondant à chacune des réponses possibles. Tout événement situé à droite du critère de
décision ß correspond à une réponse positive, tout événement situé à gauche de ce critère amène une
réponse négative. Source Claude Bonnet. (cours)
Cependant, l'économie générale de ce modèle fournit des moyens d'analyse de la performance
du sportif tout à fait pertinents. Nous l'avons nous-mêmes utilisé voici quelques années (1990)
dans le cadre d'une étude portant sur le traitement des informations visuelles et la prise de
décision en boxe française. Cette expérimentation avait pour objectif, outre l'enregistrement du
comportement exploratoire visuel, de calculer les temps de réaction (TR) des sujets et de
mesurer à la fois les capacités de ces sujets à détecter/identifier un événement et à prendre
une décision par rapport à cet événement. Nous avons utilisé pour cela certains termes,
empruntés au modèle de la théorie de la détection du signal (détections correctes, fausses
alarmes, bruit, etc.). Les résultats nous ont permis de mettre en évidence des différences
Cognition & Motricité
-54Yves Kerlirzin
__________________________________________________________________________________________
significatives de comportement entre trois populations de tireurs (internationaux, nationaux et
novices) dans ces tâches de détection-identification et de décision.
D- Le s th éo ries cognitiv es de l 'att ention
a) L'h ypoth ès e du canal unique de trait em ent
Il est parfois difficile voire impossible de prêter attention à différents événements ou
informations survenant en même temps. Si deux messages sont adressés en même temps à un
sujet, ce dernier va être amené à trier, à opérer une sélection de façon à privilégier un message
(l'objet, la cible) au détriment d'un autre (le distracteur). La notion de filtre est souvent utilisée
pour rendre compte de ces processus. Il semble que, comme pour la mémoire, l'esprit ne puisse
appréhender en même temps d'une façon distincte et claire (i.e. qui a du sens) qu'une quantité
limitée d'informations. Différents modèles ont été proposés pour rendre compte de ce filtrage
des informations. Ils se fondent au départ sur l'idée que cette difficulté à traiter en même
temps (en parallèle) plusieurs informations provient peut-être de la structure, de l'organisation
du système attentionnel qui ne permet de traiter qu'un seul message à la fois. Welford (1952,
1959) a proposé pour cela l'hypothèse de l'existence d'un canal unique de traitement. Selon
cette hypothèse, le sujet possèderait des capacités limitées de traitement et une charge
attentionnelle trop importante amènerait à la saturation de ce canal unique.
Cette proposition de Welford s'est appuyée initialement sur la connaissance d'un phénomène
psychologique appelé période réfractaire psychologique. En quoi ce phénomène, découvert par
Telford en 1931, consiste-t-il ? Sa mise en évidence repose sur un paradigme expérimental de
temps de réaction. On propose à un sujet un premier signal ou stimulus S1 à l'apparition duquel le
sujet doit produire le plus rapidement possible une réponse R1 (par exemple, appuyer sur un
bouton). Dès l'exécution de R1 , un autre signal S2 est présenté au sujet qui doit produire le plus
rapidement possible une réponse R2 . Il est ainsi possible de mesurer deux temps de réaction, un
TR1 et un TR2 .
Si l'on modifie ensuite le délai de présentation du deuxième stimulus en le proposant au sujet
avant qu'il n'ait pu produire la réponse R1 (ce qui revient alors dans ce cas à lui demander de
fournir le plus rapidement possible et successivement les deux réponses), on constate une
augmentation importante du TR2 . Tout se passe en quelque sorte comme si le sujet ne traitait S2
qu'après avoir produit R1 . La différence de temps observée entre les R2 des deux conditions
expérimentales correspond à cette période réfractaire psychologique durant laquelle le sujet
s'avère incapable de traiter correctement (de répondre aussi rapidement) le second stimulus.
Cette période réfractaire diminue lorsque l'écart temporel entre la présentation des deux
Cognition & Motricité
-55Yves Kerlirzin
__________________________________________________________________________________________
stimuli diminue. Ces résultats s'appuient sur un mode de traitement strictement sériel et
correspondent à l'idée sous-tendue par l'hypothèse du canal unique, hypothèse selon laquelle le
sujet ne peut traiter efficacement qu'une information à la fois. (L'expérimentation permet de
confirmer cela en ne présentant au sujet que S2 de façon à mesurer exactement ce TR2 ).
Intervalle inter stimuli
S1
S2
R1
R2
TR 1 (150 ms)
TR 2 (150 ms)
Intervalle inter stimuli
S1
S2
R1
R2
TR 1 (150 ms)
TR 2 (190 ms)
Illustration du paradigme expérimental de double stimulation mettant en évidence la période réfractaire
psychologique. D'après Fortin & Rousseau, 1989.
L'hypothèse du canal unique sera remise en cause, pour différentes raisons. Le TR2 par
exemple n'est pas une fonction directe du temps de recouvrement entre S1 et S2 . Par ailleurs,
différents facteurs peuvent intervenir dans ce TR2 comme la pratique (elle permet de réduire ce
TR2 ), la nature du stimulus (TR de simple ou double choix), la complexité de la réponse, la
compatibilité stimulus-réponse. Il existe ainsi parfois des interférences structurelles (nous y
reviendrons pour le paradigme de la double tâche) intervenant sur le TR2 . Pour éviter cela,
l'expérimentateur peut proposer pour S1 une diode qui s'allume, pour S2 un son, pour R1 une
réponse produite par la main droite et enfin pour R2 une réponse initiée par la main gauche. Cet
appel à des modalités sensorielles différentes pour les stimuli et à des effecteurs également
différents permet d'éviter les possibilités d'interférence structurelle, phénomène qui peut se
traduire de façon simple par la demande adressée au sujet de répondre avec la même main. Un
Cognition & Motricité
-56Yves Kerlirzin
__________________________________________________________________________________________
autre exemple bien connu d'interférence est l'effet Stroop (1935, du nom de son "auteur", J.R.
Stroop). Dans certaines conditions expérimentales, on demande au sujet de dire le plus
rapidement possible la couleur dans laquelle est imprimée un mot. Dans un premier temps (a),
couleur et mot correspondent. Puis, dans un deuxième temps (b), le mot représente une couleur
différente de celle qui est imprimée (par exemple, le mot rouge est imprimé en vert, mais le
sujet doit énoncer vert). De nombreuses variantes de ce test existent. Elles montrent toutes une
augmentation du TR par rapport à la condition dans laquelle la couleur imprimée correspond au
mot lui-même (situation d'incompatibilité), même si la consigne précise au sujet qu'il ne faut pas
lire le mot. Une interprétation possible réside dans l'hypothèse que les deux stimuli (mot et
couleur) sont présentées simultanément au sujet et qu'il lui est impossible, les traitant ensemble,
de favoriser l'un en ignorant l'autre.
a)
b)
Rouge
Vert
Bleu
Jaune
Rose
Orange
Bleu
Vert
Bleu
Blanc
Vert
Jaune
Orange
Blanc
Bleu
Brun
Rouge
Bleu
Jaune
Vert
Rose
Jaune
Vert
Bleu
Rouge
Rouge
Vert
Bleu
Jaune
Rose
Orange
Bleu
Vert
Bleu
Blanc
Vert
Jaune
Orange
Blanc
Bleu
Brun
Rouge
Bleu
Jaune
Vert
Rose
Jaune
Vert
Bleu
Rouge
Une illustration possible de l'effet Stroop
b) Th éorie du f il trage
Un brève évocation du fonctionnement de la mémoire (cf. modèle proposé par Atkinson &
Shiffrin) nous permet de rappeler que le traitement d'un stimulus nécessite dans un premier
temps l'enregistrement de ce dernier en mémoire sensorielle. Entre cette mémoire sensorielle et
le passage en mémoire à court terme ou de travail, les différentes processus attentionnels
permettent l'identification des différents caractères élémentaires spécifiques à ce stimulus
(couleur, forme modalité sensorielle). Il est cependant difficile de situer à quel moment
Cognition & Motricité
-57Yves Kerlirzin
__________________________________________________________________________________________
s'effectue l'opération permettant de sélectionner ce stimulus parmi d'autres. On suppose pour
cela qu'il existe un filtre permettant cette opération.
Les expériences de filtrage d'information comptent parmi les premières expériences menées
dans le domaine de l'attention, dans les années 50-60 (Rousseau & Fortin, 1989). Cherry (1953)
en sera à l'origine avec des travaux portant sur le problème désormais classique de la cocktail
party. Il est en effet difficile dans ce genre de raout de prêter attention à toutes les
conversations se déroulant simultanément. On n'écoute alors généralement qu'une seule
conversation. Cherry s'est proposé de reproduire expérimentalement ce type de conditions en
mettant en place un type de paradigme original consistant en des situations d'écoute binaurale
(avec la présentation simultanée du même message aux deux oreilles du sujet) ou d'écoute
dichotique (chaque oreille du sujet reçoit simultanément un message différent). Dans le cas
d'une écoute dichotique dite de filature (shadowing), la consigne est de répéter le plus
fidèlement possible (i.e. mot à mot, c'est une tâche de filature, le sujet colle au mot comme à son
ombre) l'un des messages au fur et à mesure de son audition. S'il veut répondre correctement à
la consigne donnée, il doit donc ignorer l'autre message. L'expérimentateur vérifie ensuite ce que
le sujet, placé sous cette contrainte d'une attention constante portée à l'un des messages, peut
restituer des deux messages.
Si les premiers résultats de Cherry montrent une très faible quantité d'information retenue
par le sujet sur le second message, ils mettent néanmoins en évidence que certaines
caractéristiques physiques du stimulus ignoré (ce peut être simplement le fait que chaque
message est lu par une personne différente ou bien encore l'énonciation furtive du nom du sujet
glissée dans le second message) permettent quand même son enregistrement.
Illustration de la tâche de
filature
proposée
par
Anne
Treisman (in Rousseau & Fortin,
1989).
Anne Treisman notamment utilisera ce même paradigme par la suite (1960, 1964, cf. figure
supra). Ses résultats permettront de moduler ou d'élargir les données de Cherry. En effet, les
Cognition & Motricité
-58Yves Kerlirzin
__________________________________________________________________________________________
travaux de Treisman montreront entre autres que dès lors que le message à ignorer présente une
signification pour le sujet, celui-ci développe probablement une stratégie d'écoute ou alloue une
attention, particulières à ce message, et en retient l'essentiel, en tous cas ce qui lui semble en
rapport avec le message à filer. Le filtrage s'effectuerait donc non pas simplement au niveau des
caractéristiques physiques du stimulus, mais aussi plus tard, lors du traitement de la signification
de ce stimulus.
c) Fil tre sél ectif précoc e de Bro adbent
E ffecteurs
M .L .T.
Stimul i
M émoire
sensorielle
Registre à
court terme
Filtre
Canal à capacité
limitée
Représentation schématique très simplifiée du modèle du filtre dans le traitement de l'information.
D'après Broadbent, (1958)
L'un des premiers modèles théoriques de sélection des informations a été proposé par
Broadbent en 1958. Reposant sur l'idée du canal unique de traitement, il suppose l'intervention
précoce d'un filtre qui ne permettra qu'à un type d'information, sélectionnée et retenue sur la
base de ses caractéristiques élémentaires. Il s'agit ici véritablement d'un blocage, d'un rejet
définitif de l'information ne correspondant pas à celle qui est attendue par le système (ou par le
canal sensoriel sélectionné par ce système), comme si le filtre se donnait pour mission de lui
éviter toute surcharge attentionnelle. (Coquery, 1994, rappelle que "la notion de canal sensoriel
doit être distinguée de celle de récepteur sensoriel ou de voie afférente. Il s'agit d'un canal de
transmission d'information qui n'a pas nécessairement de support physique ou nerveux
spécifique. Toute dimension permettant de décrire un stimulus peut être considérée comme un
canal : position, hauteur tonale, couleur, date d'arrivée, etc. Les canaux sensoriels réalisent une
première analyse sur la base de ces dimensions, la plupart du temps des caractéristiques
Cognition & Motricité
-59Yves Kerlirzin
__________________________________________________________________________________________
physiques ; puisqu'ils fonctionnent en parallèle et sans limitation de capacité, aucune attention
n'est requise à ce stade. Les opérations du filtre seront toutefois plus efficaces quand elles
porteront sur des messages prétraités, présentant les mêmes différences physiques.")
d) D'autres filtres sélectifs plus tardifs
Le modèle de Broadbent s'est en fait trouvé rapidement remis en question, notamment à la
lumière des travaux de Treisman montrant que le sujet était capable de retenir des parties du
message ignoré pourvu que ces éléments présentent du sens pour lui. Il était donc possible pour
un sujet, sous certaines conditions, de traiter plusieurs informations simultanément. Treisman en
1960, puis d'autres auteurs comme J.A. Deutsch & D. Deutsch en 1963, Norman en 1968, Keele
en 1973 ont proposé l'idée qu'en fait les signaux non sélectionnés ou moins pertinents pour le
système n'étaient pas définitivement rejetés, mais plus simplement atténués, sélectionnés et
traités plus tardivement.
La focalisation de l'attention vers le message pertinent n'utiliserait donc pas pleinement les
possibilités de traitement mises en jeu. Ainsi, dans ce cadre d'une attention partagée, il est
possible que les messages normalement ignorés, bloqués par le filtre, puissent interférer avec le
message à retenir et perturber les réponses du sujet. En situation d'écoute dichotique avec
filature, le rejet du message ignoré n'est pas toujours total. Certains ordres donnés dans ce
message ne sont pas exécutés, mais le deviennent une fois sur trois si l'on fait précéder ces
ordres du nom du sujet.
Dans ces modèles appartenant aux théories de la sélection tardive, le traitement des
différents stimuli est effectué en parallèle. Les processus attentionnels interviennent pour
sélectionner les stimuli en fonction du sens qu'ils possèdent ou de la pertinence qu'ils présentent
dans une situation donnée. Il existe ainsi un traitement sémantique en profondeur des
informations ignorées. Selon les auteurs, les différentes théories proposées, bien que
semblables, placent simplement le filtre à des moments différents du processus de traitement
(Keele par exemple, place ce filtre au moment de la sélection de la réponse). Pour eux, c'est
l'information la plus pertinente qui capte l'attention afin de produire une réponse spécifique.
Dans le cadre de ces modèles reposant sur l'idée de l'existence d'une capacité limitée de
traitement de l'information, limite entraînant une détérioration de la réponse dès lors que les
demandes de la tâche excèdent les ressources du sujet, un des modèles les plus populaires dans
le domaine du sport est, selon Williams et al. (2000) le modèle proposé par Norman (1968, 1969).
Selon cet auteur, les informations prélevées dans l'environnement via les différents capteurs
sensoriels passent par un premier filtre sensoriel (le mécanisme d'analyse des stimuli). Cette
Cognition & Motricité
-60Yves Kerlirzin
__________________________________________________________________________________________
analyse permet d'extraire les caractéristiques de ces stimuli et de voir où ils sont stockés en
mémoire. Pour Norman, ceci s'effectue de façon infra (sub) consciente chez le sujet, ne
nécessitant pas de ressources particulières.
Stockage sensoriel à
court terme
M émoire à court terme
M émoire à long terme
Ce qui est attendu
I nformation de
l'environnement
Capteurs
Pertinence
sensoriels
I nformation
contextuelle
M écanisme
d'analy se
des stimuli
Sélection et
attention
Modèle de l'attention sélective de Norman. La sélection dépend à la fois de la qualité de l'entrée
sensorielle et de la base cognitive de connaissances. Williams et al. (2000) rappellent que ce modèle peut
illustrer la métaphore de l'esprit humain comparé à un ordinateur (la partie gauche du modèle
représenterait les éléments sensoriels structurels de l'organisme, le hard, alors que la partie droite
proposerait une illustration des représentations symboliques (sélection ,traitement, encodage), le soft.
D'après Norman, 1969. Source Williams et al., 2000.
En même temps qu'est menée cette première analyse est mené en mémoire à long terme un
examen des signaux précédents (antérieurs). Ce traitement permet, par la comparaison entre
l'expérience et le contexte actuel, de déterminer des événements ou classes d'événements
pertinents dans l'analyse de la situation vécue par le sujet. L'idée proposée ici par Norman est
que le sujet s'est construit au travers de son expérience une base cognitive de connaissances lui
permettant, dans des situations semblables à celles qu'il a déjà vécues, de traiter les
événements auxquels il se trouve confronté. Ce sujet développerait ainsi grâce à son expérience
une capacité à distinguer les signaux pertinents de non pertinents ou à formuler des probabilités
Cognition & Motricité
-61Yves Kerlirzin
__________________________________________________________________________________________
sur
les
possibilités
d'occurrence
de
certains
événements
(signaux,
informations)
préférentiellement à d'autres.
e) Des ressources multiples
Reprochant aux modèles précédents une approche trop rigide, sans souplesse, d'autres
modèles ont été proposés, notamment par Kahneman en 1973.
Déterminants divers
E veil
_ _ __ __ __ __ __ __ _
Diverses manifestations
d'éveil
Capacité dispo nible
Disposition
permanente
Processeur central
allouant les ressources
I ntentions
momentanées
Activité possible
E valuation des
demandes de
capacité
Réponses
Modèle de Kahneman de capacité flexible attentionnelle. Adapté de Kahneman, 1973.
Source : Williams et al., 2000
Ces nouvelles propositions (Kahneman, 1973, Navon & Gopher, 1980, Wickens, 1980) s'appuient
sur l'hypothèse de l'existence chez l'individu de ressources attentionnelles conscientes
Cognition & Motricité
-62Yves Kerlirzin
__________________________________________________________________________________________
multiples nous permettant par exemple d'exécuter deux tâches simultanément pourvu qu'elles
fassent appel à des réservoirs différents. L'attention est ici appréhendée comme un ensemble
de capacités rendues disponibles par le sujet à mesure de l'augmentation des contraintes.
Si cet ensemble demeure globalement limité, le fonctionnement proposé par Kahneman offre
une certaine souplesse dans la gestion des ressources. Son modèle (cf. infra) dispose en quelque
sorte d'un processeur central, un système de gestion qui alloue les ressources à une activité
préférentiellement à une autre (il est difficile, étant donnée la nature limitée du réservoir de
ressources, de répondre à toutes les demandes des différentes tâches) en fonction d'intentions
momentanées du sujet (buts ou objectifs spécifiques à un moment donné) et de disposition(s)
permanente(s) liée(s) par exemple au fonctionnement du système, à la nécessité de sa survie, à
des processus d'attention involontaire (attirée brusquement en un lieu particulier par un élément
surprenant ou inattendu). Comme le précise le schéma ci-dessous, la quantité de ressources
disponibles à un moment particulier est fonction du niveau d'éveil. Il se peut d'ailleurs que la
demande en ressources attentionnelles entraîne une élévation du niveau d'éveil et donc de ces
ressources elles-mêmes. C'est donc bien ici la tâche à réaliser qui va déterminer le montant des
ressources qui va être alloué par le processeur. Lorsque la demande excède les possibilités du
système, celui-ci est amené à effectuer un choix et à allouer les ressources à la tâche dont la
demande va être satisfaite.
Ce modèle des ressources attentionnelles, bien que critiqué lui aussi (par exemple, il n'apporte
pas de solution au problème de l'interférence ente tâches) valide l'hypothèse selon laquelle il est
possible sous certaines conditions de mener deux activités (d'effectuer deux tâches) en même
temps. Cette problématique n'est pas récente puisqu'en 1898 déjà Welch avait noté qu'il était
possible d'ajouter une tâche secondaire (force maximale de saisie de la main) à une tâche
primaire (calcul, lecture) afin de mesurer la demande attentionnelle.
f) Le paradigme de la double tâche
Nous effectuons au quotidien un certain nombre d'actions en même temps (jouer d'un
instrument en lisant la partition, prendre des notes en écoutant un conférencier, …). Beaucoup de
ces activités sont devenues automatiques, ce sont des routines que l'on met en route sans y
prêter une attention particulière. Il est intéressant d'essayer de comprendre comment réagit
l'organisme lorsqu'il est placé dans la situation de réaliser deux actions simultanément. Ce
paradigme est connu sous l'appellation du paradigme de la double tâche. Si le sujet est engagé
dans la réalisation d'une tâche (1) et qu'il doit simultanément en réaliser une seconde (2), avec
comme critères de réussite la vitesse (temps de réaction) et la justesse de la réponse,
Cognition & Motricité
-63Yves Kerlirzin
__________________________________________________________________________________________
différents cas de figure peuvent se produire : (1) et (2) peuvent ne pas être affectées, (1) peut
être perturbée et non (2), (2) peut être affectée et non (1), les deux réponses peuvent toutes
deux être affectées, ou tout simplement l'une des deux tâches peut finalement ne pas être
réalisée. Ce paradigme consiste à ajouter une tâche secondaire à une tâche principale pour
laquelle la demande en attention est mesurée. La diminution des performances dans la réalisation
de la tâche secondaire (c'est celle pour laquelle les dégradations de la performance sont
mesurées) permet de déduire la demande en attention requise pour la tâche principale. Le
décrément ou la baisse de qualité de la réponse est mesuré en comparant les résultats en
situation de simple et de double tâche. Le statut de chacune de ces tâches peut varier en
fonction de différents facteurs. Les consignes données par l'expérimentateur peuvent par
exemple définir une priorité. Pour cela, cette distinction s'avère parfois quelque peu artificielle
(il est tout à fait possible de demander une égale réussite aux deux tâches). Elle peut s'avérer
utile si l'expérimentateur cherche à mesurer l'habileté du sujet à commu ter, à déplacer son
attention sur deux actions concurrentes plutôt qu'estimer la demande en ressources
attentionnelles de la tâche principale.
Attention allouée à la
tâche secondaire
Attention allouée à une
tâche secondaire simple
Attention allouée à une
tâche secondaire complexe
Répartition de l'attention en fonction de la demande de la tâche principale
Lorsque aucune consigne de priorité n'est donnée, l'attention va généralement se répartir
entre les deux tâches, impliquant (voir cas de figures précédents) selon les cas une forte
dégradation dans la réponse à l'une des deux tâches. Il est possible de représenter les relations
entre ces deux tâches par une courbe d'efficacité. Cette représentation que Norman et Bobrow
(1975) ont proposé d'appeler POC (Performance Operating Characteristic) ou courbe des
Cognition & Motricité
-64Yves Kerlirzin
__________________________________________________________________________________________
caractéristiques opérationnelles de la performance, permet de mettre en évidence le
déplacement des ressources attentionnelles (cf. document fourni en TD).
E- Ori entation vi suel l e en s port
Le sportif est constamment confronté à la réalisation simultanée de différentes tâches. Dans
un sport collectif, il doit se déplacer, maîtriser à la main et/ou au pied un ballon, prendre en
compte les placements et déplacements de ses partenaires et adversaires, développer des
stratégies pertinentes et efficientes, etc. La question qui se pose évidemment est celle de
l'automatisation des différentes habiletés caractéristiques de la pratique de ce sportif. Il est
trivial de rappeler qu'avec la pratique, l'exécution d'actions requiert de moins en moins
d'attention. Dans ce type de situations, on distingue généralement deux types de processus, des
processus automatiques et des processus contrôlés. Pour le formateur comme pour l'entraîneur,
l'objectif sera d'automatiser au maximum ces processus de façon à pouvoir allouer aux processus
contrôlés le maximum possible de ressources attentionnelles. Les tra vaux les plus connus et sans
doute les plus conséquents dans ce domaine ont été réalisés par Walter Schneider et Richard
Shiffrin en 1977 sur des tâches de prospection visuelle (trouver une cible parmi un ensemble
d'éléments, par exemple pouvoir dire si la lettre F apparaît dans un ensemble de phrases) ou
mnémoniques, impliquant l'examen d'éléments mémorisés (il est demandé au sujet de mémoriser
un certain nombre de lettres, il doit ensuite pouvoir dire si une lettre particulière faisait partie
de celles qu'il a stockées en mémoire). Ces travaux ont permis de définir précisément les
processus automatiques et les processus contrôlés, en mettant en évidence leurs propriétés
respectives. Le tableau ci-dessous en présente une synthèse.
Processus automatiques
Processus contrôlés
Traitement rapide
Traitement lent
Pas d'interférence d'autres tâches
Interférence possible d'autres tâches
En parallèle
En série
Non volontaires (le traitement est souvent
Volontaires (possibilité de les arrêter)
inévitable)
Cette approche se fonde sur une démarche de type coûts et bénéfices, concept développé par
Posner et Snyder (1975). Pour ces auteurs, trois critères permettent de définir le caractère
automatique d'une habileté : elle est produite sans intention de la part du sujet, elle ne nécessite
Cognition & Motricité
-65Yves Kerlirzin
__________________________________________________________________________________________
pas une attention consciente et enfin elle n'interfère pas avec une autre activité mentale
(illustration possible avec l'évolution du débutant au ski). L'amélioration de la réponse du sujet se
traduit par un bénéfice attentionnel (baisse du temps de réaction, plus grande précision) alors
que la dégradation de cette réponse se traduit par un coût attentionnel (augmentation du temps
de réaction, probabilité plus élevée de réponses incorrectes). Cependant, une difficulté possible
dans cette automatisation est l'accès plus difficile aux processus de contrôle (modifier un
automatisme n'est pas chose aisée). Le traitement automatique ne présente donc pas que des
avantages; l'automaticité confinant parfois dans les tâches quotidiennes à la manie.
Orienter l'attention visuelle du sportif s'inscrit dans une perspective de ce type. L'idée est
de permettre au pratiquant de traiter plus vite et mieux les informations à prélever dans un
contexte événementiel chargé. Comme nous l'avons déjà évoqué, dans de nombreuses situations
sportives, l'athlète doit développer des capacités attentionnelles sélectives, identifier sur la
base de certains indices (sources) la pertinence de signaux, définir des priorités, discriminer
entre une action réelle et une feinte afin de pouvoir mieux anticiper ou initier leur réponse, etc.
L'hypothèse est que l'orientation de l'attention vers une région donnée de l'espace va entraîner
une facilitation du traitement de l'information présentée dans cette zone et une inhibition dans
les autres. Par rapport à une condition où aucune source d'information n'est privilégiée, porter
son attention en un point donné se traduit par un bénéfice dans le traitement de l'information
présentée en ce point et un coût pour les autres sources potentielles.
Deux formes d'orientation de l'attention sont possibles. Comme le précise Posner (1980), "il
est important de distinguer entre les modifications "overt" dans l'orientation qui peuvent être
observées dans les mouvements de la tête et des yeux, et les orientations purement "covert" qui
Cognition & Motricité
-66Yves Kerlirzin
__________________________________________________________________________________________
peuvent être réalisées par les mécanismes centraux seuls". Overt peut se traduire par
l'expression manifeste, c'est-à -dire un déplacement visible du regard, de la tête et/ou du corps
dans son ensemble. Si l'athlète est alerté de la survenue d'un événement par sa vision
périphérique, l'"overt orienting attention" va lui permettre d'amener cette cible en vision
centrale ou fovéale de façon à pouvoir qualifier, identifier, analyser cet événement. Le terme
covert peut se traduire par la notion de latence (l'orientation visuelle va se produire, mais avec
un délai). Celle-ci traduit un processus central d'orientation de l'attention ou des ressources
cognitives du sujet sans modification apparente de sa posture ou de la direction de son regard. Il
peut par exemple choisir de fixer un point particulier dans l'espace de façon à mobiliser son
attention sur la survenue d'événements en périphérie. Cette stratégie, qui lui permet
d'appréhender l'ensemble des informations nécessaires à un traitement efficace et à une prise
de décision rapide et pertinente a été qualifiée "d'inter-événementielle" par Ripoll (1988). Le
sujet fixe un espace vide (c'est-à-dire ne possédant apparemment aucun élément susceptible de
fournir une information), espace cependant pertinent puisqu'il permet au sujet d'obtenir la ou les
informations recherchées. Cette stratégie a été mise en évidence par Ripoll (1988) dans une
tâche de résolution de problème "consistant à mettre en évidence une structure complexe de
volley-ball présentée en vidéo". Ces travaux font apparaître que les joueurs experts positionnent
leur regard au centre de la structure de jeu, de façon à pouvoir appréhender et à mettre en
relation l'ensemble des événements se déroulant à l'intérieur de cette structure. S'il semble
exister une relation fonctionnelle entre ces deux systèmes (attention et déplacement du regard
ou orientation visuelle latente), cela n'implique pas nécessairement une relation directe et
réciproque entre eux. Ceci a été montré par Klein en 1980. Si toute orientation du regard postule
le déplacement préalable de l'attention, celle-ci peut être orientée dans le champ visuel sans
déplacement du regard. En d'autres termes, l'exploration visuelle n'est pas toujours une
traduction fidèle de l'intérêt que l'athlète porte aux différentes sources potentielles
d'information présentes dans son champ visuel.
L'orientation de l'attention visuelle permet de comparer cette attention à un spot lumineux
(spotlight, métaphore proposée par Posner en 1980), un projecteur se déplaçant dans
l'environnement, balayant le champ visuel du sujet en éclairant de façon privilégiée certaines
zones de l'espace au détriment d'autres. Pour Posner, l'attention visuelle peut être orientée
dans l'espace de deux façons : l'orientation exogène, brève, de nature réflexe, serait le fruit de
la détection en périphérie d'un événement, alors que l'orientation endogène, plus longue,
Cognition & Motricité
-67Yves Kerlirzin
__________________________________________________________________________________________
fonctionnant sur un mode contrôlé, bénéficierait d'une pré information indiquant au sujet dans
quel partie de son environnement visuel se trouve probablement l'information qu'il recherche.
Dans le domaine des activités physiques et sportives, l'étude de l'orientation visuelle a
principalement porté sur les stratégies de déplacement du regard en relation avec la prise de
décision. Les expérimentations que nous avons conduites voici quelques années s'inscrivent dans
cette problématique. Au plan de la prospection visuelle et de l'orientation de l'attention, il nous a
paru intéressant de parvenir à identifier les diverses sources informationnelles utilisées par les
pratiquants de savate boxe française. La logique de l'activité permet l'utilisation des deux poings
et des deux pieds, ce qui implique chez l'athlète un nombre important de points à fixer. En effet,
si dans une activité comme l'escrime par exemple où le danger potentiel concerne l'arme, il
semble que le plus grand nombre d'informations soit prélevé sur la coquille de celle-ci, en savate
boxe française le pratiquant dispose de quatre armes qui peuvent intervenir de façon
équivalente, ce qui accroît notablement l'incertitude véhiculée par la situation. Il faut noter
cependant que la charge attentionnelle requise peut être pondérée par la prise en compte de
certaines données, comme l'attitude posturale de l'adversaire, sa garde, la connaissance que
l'athlète possède des caractéristiques de cet adversaire. On peut finalement se demander si
cette équiprobabilité d'utilisation a priori des différentes armes n'entraîne pas au plan de la
prospection visuelle un coût trop élevé et si le boxeur ne fixe pas plus simplement un point situé
en dehors de ces différentes armes, déléguant ainsi aux mécanismes périphériques de la vision le
soin de l'alerter sur la probabilité et la survenue d'un événement. Ainsi, certains pratiquants de
boxe française adoptent une stratégie inter-événementielle (cf supra), choisissant de ne
regarder que les yeux ou le buste de leur adversaire (d'autres facteurs interviennent dans ce
choix, notamment d'ordre psychologique). Par ailleurs, dans la logique de ce qui précède, nous
avons formulé l'hypothèse qu'en fonction du niveau de compétences atteint dans l'activité, les
zones prospectées visuellement par les sujets étaient différentes. En d'autres termes, les
experts et les non experts n'accordent sans doute pas la même importance aux mêmes lieux
consultés chez leur opposant. Ceci pourrait peut-être partiellement expliquer la différence entre
ces populations et constituer une voie à explorer dans l'apprentissage et l'entraînement de cette
discipline.
Les hypothèses formulées étaient celles d’une distribution hiérarchique des stratégies
exploratoires visuelles. Dans cet ordre d’idées, le tireur privilégierait la consultation du regard
de son adversaire/partenaire et de l'arme située à hauteur des épaules (le poing), puis du buste
(plexus), du bassin et enfin des appuis, bien que ces derniers ne soient que très rarement l'objet
Cognition & Motricité
-68Yves Kerlirzin
__________________________________________________________________________________________
de l'attention visuelle du pratiquant de savate boxe française, du moins pour les boxeurs
confirmés. En adme ttant que les coups portés sont initiés par les appuis (placements,
déplacements, poids du corps), on pouvait également être amené à penser qu'une lecture très
rapide de l'événement devrait intégrer la prise en compte de ces appuis. Les hypothèses
suivante s avaient donc été avancées : (h 1), les experts ont un nombre de consultations moins
élevé que les non-experts ; (h 2), les experts consacrent plus de temps par fixation que les nonexperts, (h 3), les zones fixées en priorité par les experts concernent d'abord la tête, puis les
membres supérieurs et le buste de leur partenaire, (h 4), les experts ne consultent pas les
appuis, (h 5), elle est une conséquence des hypothèses 3 et 4 : les experts privilégient la vision
périphérique dans la recherche d'indices pertinents.
Ouverture
Technique poing avant
Technique pied avant
Différents événements proposés aux sujets
Comme les photos ci-dessus l'indiquent, différents événements (technique, ouverture, feinte)
ont été proposés aux sujets. Ceux-ci étaient équipés d'un vidéo oculographe (NAC 5) permettant
à l'expérimentateur d'enregistrer les déplacements de leur regard.
Les principaux résultats de l'analyse de l'exploration visuelle apportent un certain nombre de
précisions susceptibles d'éclairer d'une part les caractéristiques informationnelles de la savate
boxe française et, d'autre part, les caractéristiques de l'orientation de l'attention visuelle et du
du traitement de l'information visuelle en relation avec le niveau d'expertise du tireur. On
Cognition & Motricité
-69Yves Kerlirzin
__________________________________________________________________________________________
remarquera tout d'abord que les patrons de prospection visuelle (cf. infra) sont significatifs du
niveau des boxeurs. En effet, ces patrons sont d'autant plus "éclatés" que le niveau des boxeurs
est faible. L'essentiel des fixations visuelles concerne trois éléments chez les experts (tête,
membres supérieurs, buste). Ici, la tête semble bien jouer un rôle de pivot visuel autour duquel
l'ensemble de la prise d'information visuelle s'organise. Cette zone semble constituer un point
d'ancrage informationnel déterminant, délimitant ce "champ utile de vision" à partir duquel
s'organise de la façon la plus efficace possible le recueil des informations. En effet, le calcul des
relations entre les différents lieux prospectés fait apparaître, pour cette population, un nombre
important de liaisons entre la tête et le buste, entre la tête et les membres supérieurs.
Débutants
Compétiteurs
Experts
Zones consultées selon le niveau d’expertise des tireurs
Apparaissent
ensuite
respectivement
comme
paramètres
consultés
le
bassin
(chez
les
compétiteurs), le bassin et les membres inférieurs (chez les débutants). Une analyse plus fine du
pourcentage de fixations par zone démontre l'existence de stratégies en relation avec le niveau de
pratique. En effet, la tête constitue chez les internationaux la zone privilégiée (42,6%), à la
différence des compétiteurs pour lesquels cette zone et les membres supérieurs (29,9% versus
34,5%) sont consultés de façon comparable, et des débutants où cette zone arrive largement
derrière celle des membres supérieurs (19,7% versus 33,8%). Tout se passe en fait comme si le
Cognition & Motricité
-70Yves Kerlirzin
__________________________________________________________________________________________
débutant privilégiait la zone supérieure la plus basse (les poings), puis, à mesure que le niveau
d'expertise augmente, accordait un "poids" égal à la tête et aux membres, avant de confier, au plus
haut niveau de pratique, un rôle privilégié à la tête.
Cognition & Motricité
-71Yves Kerlirzin
__________________________________________________________________________________________
Emprunts, références, sources
Abernethy, B. (1985) Cue usage in open motor skills : a review of the available procedures. In
D.G. Russel and B. Abernethy (Eds). Motor memory and control. The Otago Symposium. Dunedin :
Human Performance Associates, 110-123.
Bonnet, C. (1986) Manuel pratique de psychophysique. Armand Colin, Collection U, 254 p.
Buser, P., Imbert, M. (1982) Psycho -physiologie sensorielle. T. II, Neurophysiologie fonctionnelle.
Editions Hermann, Collection Méthodes, Paris, 410 p.
Fortin, C., Rousseau, R. (1989) Psychologie Cognitive, une approche du traitement de
l'information. Presses de l'Université du Québec, Télé-Université, 434 p.
Keele, S. W. Attention and human performance. Pacific palisades. Goodyear Californie, 1973.
Kerlirzin, Y. (1990) Traitement des informations visuelles et prise de décision en boxe française.
Mémoire pour le diplôme de l'INSEP.
Nougier, V. L'orientation de l'attention visuelle en sport. Thèse de doctorat S.T.A.P.S. Paris X,
1989, 265 p.
Nougier, V., Stein, J. F., Bonnel, A. M. (1990) Information processing and orienting of attention.
International Journal of Sport Psychology.
Posner, M. (1980) Orienting of attention. Quaterly Journal of Experimental Psychology, 32, 3-25.
Richelle, M., Requin, J., Robert, M. (1994) Traité de Psychologie expérimentale. Presses
Universitaires de France, Tome 1 (1019 p.) et Tome 2 (741 p.).
Ripoll, H. (1988) Analysis of visual scanning patterns of volley-ball players in a problem solving
task. International Journal of Sport Psychology, 19, 9-25.
Cognition & Motricité
-72Yves Kerlirzin
__________________________________________________________________________________________
Stein,
J.F.
(2003)
Orientation
de
l'attention
visuelle
en
sport.
Cours
Insep,
Site
www.stapszone.net
Tanner, W. P. J. & Swets, J. A. (1954) A decision making theory of visual detection. Psychological
Review, , 61, 401-409.
Tiberghien, G. (1984) Initiation à la psychophysique. Paris, P.U.F.
Walusinski, O. (2003) Le bâillement : un comportement universel. Pour la science, N°31.
Weil-Barais, A. (Sous la direction de) (1993). L'homme cognitif. Presses Universitaires de
France, 570 p.
Welford, A. T. (1977) La charge mentale de travail comme fonction des exigences de la capacité
de la stratégie et de l'habileté. Le travail humain, 40, 2, 283-304.
Williams, A. M., Davids, K. & Williams, J.G. (2000) Visual perception and action in sport. E & FN
Spon Eds, Londres, 441 p.
Téléchargement