Licence 2 Cognition & motricité ____ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __ ___ ___ ___ __ 2004 – 2005 Yve s Ke rl irzin Plan du cours ******** Introduction, déf initions I- Rapp el s su r l e cer veau A - Caract éris tiques B- L'exist ence d'une neuro genè se C- Dé ter minism e géné tique et é pigenè se D- La th éorie du dév el oppe ment du sy st ème n er veux pa r épigen ès e E- Labil ité et dég éné re scence syna ptiques F- Pl asticité du sy stè me n erv eux et p ériode s critiques II- Connais sanc e du cerv eau U n peu d'h istoire A )- U ne approch e intuitive B)- A pproch e expé rimen tal e C)- Imag erie cé réb ral e c1)- La tomographie par émission de positons Intérêt médical de la Tomographie par émission de positons c2 ) L'imagerie par résonance magnétique Imagerie par résonance magnétique fonctionnelle c3 ) L'électroencéphalographie c4 ) La magnétoencéphalographie c5 ) Bilan et conclusion III- L'a tten tion Introduction, déf initions A - A ttention et vigil ance B- Dé tection e t discrimination d'un signal C- Th éorie de l a dé tection du signal et pr atique s porti ve D- Le s th éo ries cognitiv es de l 'att ention a) L'hypothèse du canal unique de traitement b) Théorie du filtrage c) Filtre sélectif précoce de Broadbent d) D'autres filtres sélectifs plus tardifs e) Des ressources multiples f) Le paradigme de la double tâche E- Ori entation vi suel l e en s port Emprunts, références, sources Cognition & Motricité -1Yves Kerlirzin __________________________________________________________________________________________ Introduction, déf initions La cognition peut se définir par l'ensemble de processus mentaux comprenant l'acquisition, le stockage, la transformation et l'utilisation des connaissances. Ces processus mentaux sont par exemple la perception, la mémorisation, le raisonnement, le traitement de l'information, la résolution de problèmes, la prise de décision, etc. Ces processus mentaux sous-tendent la réalisation d'habiletés motrices complexes et notamment les habiletés motrices sportives. Cognition et motricité sont donc intimement liées, que ce soit dans la vie au quotidien ou lors de la pratique d'activités physiques et sportives, et le cerveau joue un rôle tout à fait central et essentiel dans le déroulement de ces activités cognitives et motrices. Il assure au quotidien les différentes fonctions permettant l'adaptation de l'individu à son environnement, que cet individu soit sédentaire ou très actif, sportif. I- Rapp el s su r l e cer veau A - Caract éris tiques Le cerveau se caractérise par son extrême complexité. Il comprend environ 1012, soit cent milliards de cellules nerveuses (les cellules gliales, terme qui pourrait se traduire par l'idée de glu, et les neurones), pèse chez l'adulte environ 1400g (300g à la naissance environ) pour un volume d'environ 1200 cm3 . L'unité fonctionnelle du système nerveux, le neurone, assure l'émission et la propagation du message nerveux sous forme de signaux électriques (potentiels d'action). De ces neurones partent deux types de prolongements, l'axone et les dendrites. Cognition & Motricité -2Yves Kerlirzin __________________________________________________________________________________________ Neurone complet - Otto Deiters - 1865 Structure du neurone. D'après Bear et al., 2002 L'accroissement de masse du cerveau coïncide avec la poussée des axones et des dendrites. Le corps cellulaire reçoit un ou plusieurs prolongements assez courts appelés "dendrites". Ces dendrites sont les organes récepteurs du neurone, ceux qui conduisent l'influx vers le corps cellulaire. Celui-ci émet par ailleurs un prolongement en général long par où part l'influx : l'axone. Certains neurones ont des axones de plus de 50 cm. Les neurones assurent la transmission de l'information (influx nerveux, message nerveux) par des liaisons (synapses) reliant chacun d'eux à un ou plusieurs autres neurones. Cette transmission est à la fois électrique (à l'intérieur du neurone) et chimique (à la sortie du neurone) se traduisant par la libération d'un neurotransmetteur (une substance chimique comme l'adrénaline par exemple) qui provoque une réaction électrique dans le neurone récepteur. Le terme synapse fut forgé en 1897 par un helléniste, à la demande de Sherrington, physiologiste anglais, afin de donner un nom (dont la traduction française pourrait être «agrafe») à un concept plus qu’à l’image d’une réalité reconnue. En effet, à cette époque, plus d’un cytologiste (cyto = cellule) niait l’individualité cellulaire du neurone et croyait à la continuité et non à la contiguïté des liaisons interneuronales, à l'existence en quelque sorte d'un véritable Cognition & Motricité -3Yves Kerlirzin __________________________________________________________________________________________ réseau continu, un réticulum. Ceci a donné naissance à la théorie dite réticulariste ou réticulaire, dont l'un des partisans les plus connus fut Camillo Golgi (1843-1926), en opposition avec Ramon y Cajal (1852-1934). La réponse à cette question ne fut apportée que dans les années 1950, grâce aux progrès du microscope électronique confirmant l'hypothèse de la contiguïté et non de la continuité. Illustration simplifiée d'une synapse On observe donc dans le cerveau une extrême diversité de réseaux, de relations ou interconnexions neuronales : chaque cellule nerveuse reçoit ou transmet entre 5000 et 90 000 échanges fonctionnels, permettant de véhiculer l'information. Le cerveau doit ainsi être appréhendé en premier lieu comme le lieu privilégié de relations et d'échanges avec le milieu environnant. Il a pour cela à sa disposition de nombreux capteurs différenciés, spécialisés, traduisant en potentiels électriques (potentiels d'action) les stimuli du monde extérieur. Ces derniers, grâce aux propriétés caractéristiques d'excitabilité de la membrane neuronale, permettent la transmission des différentes informations aux diverses structures cérébrales. Une fois le potentiel d'action parvenu à la terminaison nerveuse, l'information électrique est traduite en information chimique et libérée au niveau synaptique (fente), lieu de contacts et d'échanges entre les différents neurones (les synapses présentent des temps de fonctionnement de l'ordre de la milliseconde). Ces informations permanentes nous permettent de construire du monde une image unifiée, cohérente, stable, par l'intégration au niveau du cerveau des données sensorielles et motrices. Cette cohérence entre la perception et l'action est essentielle à la fois Cognition & Motricité -4Yves Kerlirzin __________________________________________________________________________________________ pour la survie de l'individu, mais également dans une perspective développementale. Bien sur, la survenue d'un accident particulier (choc, tumeur, etc.) affectant les différentes structures mises en jeu dans la circulation des informations peut interrompre, compromettre la communication entre les régions concernées du cerveau et entraîner, de façon temporaire ou permanente des incapacités (lecture, langage, compréhension) ou l'installation de handicap (séquelles définitives). Les illustrations précédentes rappellent brièvement les différentes structures et régions spécifiques du cerveau. On constate ainsi que le cortex cérébral est constitué de circonvolutions appelées (gyrus ou gyri) séparées les unes des autres par des sillons plus (scissures) ou moins profonds (sulcus ou sulci). Quelques rappels ou précisions : Le cortex préfrontal joue un rôle essentiel dans les activités cognitives. La zone de Broca, importante dans la fonction du langage, est normalement située Cognition & Motricité -5Yves Kerlirzin __________________________________________________________________________________________ dans le lobe frontal de l'hémisphère gauche à côté de la région qui contrôle le mouvement de certains muscles faciaux : ceux de la langue, des mâchoires et de la gorge. L'atteinte de cette zone (caractérisant l'aphasie de Broca) entraîne pour le sujet des difficultés à émettre des sons, à effectuer par exemple les mouvements de la langue. La lecture ou la compréhension ne sont pas affectées mais l'écriture devient difficile. Les lobes occipitaux, avec notamment le cortex visuel, interviennent dans le traitement des informations visuelles (rappel de la décussation d'une partie des voies nerveuses visuelles avec l'interprétation des différents espaces). Les lobes temporaux jouent un rôle dans l'audition, la constitution de la mémoire, le langage, la parole (ils comprennent la zone de Wernicke mise en jeu dans certaines aphasies : le sujet entend les mots – les siens ou ceux d'autres personnes - mais se trouve dans l'incapacité de leur attribuer un sens) Les lobes pariétaux interprètent simultanément les différentes informations sensorielles en provenance des autres régions du cerveau. Enfin, le cervelet joue un rôle central dans la coordination et l'exécution des mouvements, dans le contrôle de notre équilibre et de notre posture (cf. cours contrôle moteur). Le cerveau n'arrive à maturité chez l'homme qu'après une période d'environ dix ans. Durant cette période développementale, comme au cours de l'existence plus tardive du sujet, vont se mettre en place progressivement et se développer des échanges, des interactions parfois complexes mettant en jeu divers processus qui relèvent pour partie d'un mécanisme de maturation (mettant en jeu le patrimoine génétique) et pour une autre partie des relations que le sujet va pouvoir nourrir avec son environnement, créant ainsi les conditions propices à différents apprentissages, à la construction notamment de la mémoire. B- L'exist ence d'une neuro genè se Deux grandes périodes peuvent être distinguées dans le développement du système nerveux : une phase précoce, essentiellement prénatale, et une phase plus tardive, débordant largement sur la vie post-natale. Le cortex se forme chez l'être humain par différenciation du tube neural. Dès la sixième semaine de vie embryonnaire, la vésicule la plus antérieure du tube neural se divise en deux compartiments qui vont donner chacun naissance à un hémisphère cérébral. Les cellules qui composent la paroi du tube neural vont se diviser, produisant jusqu'à 250 000 cellules par minute. Cette division cellulaire s'arrête environ seize semaines après la fécondation. Pour certains, cela signifie que l'être hu main vient au monde avec un nombre maximal de cellules nerveuses corticales, nombre qui ne fera que décroître par la suite. Pour d'autres, cette neurogenèse, c'est-à -dire la formation et le développement de nouveaux neurones fonctionnels, Cognition & Motricité -6Yves Kerlirzin __________________________________________________________________________________________ Invagination progressive du tube neural se poursuit dans le cerveau adulte, et ce tout au long de la vie. C'est dans les années 1960 que l'on s'est aperçu pour la première fois que de nouveaux neurones apparaissaient dans le cerveau des mammifères adultes. Jusqu'à cette période, on considérait le cerveau adulte comme un organe dépourvu de toute capacité régénératrice et condamné à perdre définitivement ses éléments les plus précieux, les neurones. La plasticité cérébrale (notion sur laquelle nous reviendrons) était expliquée par le développement synaptique (la constitution de liaisons), à la suite principalement des travaux de Pasko Rakic, de l'université de Yale. Mais en 1965, les expériences de Joseph Altman et Gopal Das (MIT) et différentes expérimentations menées sur le rat adulte montrent qu'outre le renouvellement après lésion de certaines cellules (gliales) d'un type particulier, d'autres cellules présentant des caractéristiques semblables à celles des neurones (rien d'affirmatif, le doute subsistant sur la nature réelle de ces nouvelles cellules, i.e. gliales ou neurones) apparaissaient à partir de différentes zones germinatives (en l'occurrence le gyrus dentelé de l'hippocampe et le système olfactif) constituée de cellules souches, Ces cellules souches sont des cellules indifférenciées, capables de s'auto renouveler, de se reproduire afin de maintenir d'une part un réservoir permanent de leur type et d'autre part de donner naissance à des cellules différenciées présentant des spécificités particulières (fonctionnelles, morphologiques, durée de vie, etc.). Il existe différents types de cellules souches." Ces données ont été confirmées dans les années 1980 par l'apparition de nouveaux neurones (quelques cellules possédant des synapses) dans le cerveau de canaris lors de l'apprentissage de nouveaux chants (ce phénomène de neurogenèse est relativement abondant chez certains reptiles et certains oiseaux). Ce n'est qu'au début des années 1990 que l'utilisation de marqueurs spécifiques a permis de montrer que le nombre de cellules nerveuses nouvellement nées était abondant. Les travaux d'Elisabeth Gould rapportent la naissance de nouveaux neurones dans Cognition & Motricité -7Yves Kerlirzin __________________________________________________________________________________________ l'hippocampe de rat. Ses conclusions, notamment dans la fin des années 1990, précisent le rôle joué par l'environnement dans la formation (un environnement enrichi par des stimulations diverses, un animal entraîné) ou le ralentissement de la formation (le stress, la dépression, un environnement appauvri) de ces nouvelles cellules nerveuses. Cette neurogenèse a depuis été décrite chez toutes les espèces de mammifères étudiées, dont l'homme, mettant en jeu des zones cérébrales plus étendues qu'on pouvait le penser de prime abord (d'abord semble-t-il localisé au niveau du bulbe olfactif et d'une partie de l'hippocampe), comme certaines régions du cortex (néocortex) des primates. Or, nous savons le rôle essentiel joué par cette structure dans les processus cognitifs les plus élaborés. Mais il semble également probable qu'on ne puisse pas découvrir de neurogenèse dans toutes les régions cérébrales. Une récente étude sur le néocortex des primates a mis en évidence des neurones nouveaux dans trois régions du cortex associatif (les zones préfrontale, temporale inférieure et pariétale postérieure) ; en revanche, malgré un examen attentif, il n'a été observé aucun renouvellement dans le cortex strié. Ce résultat est particulièrement intéressant, car le cortex associatif joue un rôle important dans les fonctions cognitives de haut niveau, alors que le cortex strié, également dénommé cortex V1 (pour aire visuelle primaire) intervient dans le traitement des informations d'origine visuelle. Cette différence donne à penser que la neurogenèse pourrait jouer un rôle clé dans des fonctions plastiques par essence, alors qu'elle serait sans objet pour des fonctions comme le traitement des données sensorielles, qui sont en général stables tout au long de la vie. Cette idée cadre bien avec ce que l'on sait de la neurogenèse dans le reste du cerveau." "Les données expérimentales publiées en 1998 par Fred Gage (Institut Salk, La Jolla, Californie) et Peter Eriksson (Université de Göteborg, Suède) ont confirmé l'existence de cellules souches neuronales chez l'homme à partir de l'observation de tissus cérébraux prélevés sur des patients décédés qui avaient reçu, dans le cadre d’un traitement anticancéreux, une substance radioactive destinée à mesurer la vitesse de croissance des tumeurs. L’analyse de l’hippocampe de ces sujets (zone cérébrale essentielle pour la mémoire et pour l’apprentissage) a révélé la présence de neurones porteurs de ce marqueur, qui avaient donc été produits, vraisemblablement par prolifération et différenciation de cellules souches, après l’administration de la substance 82. Cette observation a pu être faite chez cinq personnes décédées entre 16 et 781 jours après l’injection du produit radioactif. " "Les travaux ont été repris sur les rongeurs à la suite de cette découverte. Les recherches précédentes avaient révélé que de nouveaux neurones apparaissaient tout au long de la vie des animaux dans l’hippocampe et dans les zones cérébrales du système olfactif. Des cellules souches sont également présentes dans certaines Cognition & Motricité -8Yves Kerlirzin __________________________________________________________________________________________ zones du cerveau telles que le septum (qui participe aux émotions et à l’apprentissage), le striatum (qui intervient dans les activités motrices de précision) et la moelle épinière. Toutefois, dans les conditions normales, seules les cellules souches de l’hippocampe et du système olfactif semblent produire de nouveaux neurones. " Ceci énoncé, il semble à l'heure actuelle difficile d'affirmer que ce renouvellement constaté puisse concerner tous les types de neurones. "Aujourd'hui encore, on ne sait pratiquement rien de l'identité des nouveaux neurones corticaux, on ignore notamment s'ils appartiennent ou non à un seul sous-type neuronal." Le développement embryonnaire se poursuit donc sous une forme silencieuse chez l'adulte par la génération de nouvelles cellules souches qui vont migrer, se différencier et s'insérer dans de nouveaux réseaux neuronaux, et ce jusqu'à la mort. De ce point de vue, la question du vieillissement est sans doute à re poser. On pense en effet généralement que ce dernier se caractérise par une perte de fonctions à partir d'un âge donné. Même si ces questions demeurent l'objet de débats dans la communauté scientifique, ces premiers résultats, démontrent que de nouveaux neurones peuvent naître, se développer dans certaines parties du cerveau et établir des connexions fonctionnelles avec les différents réseaux pré-existants. La neurogenèse pourrait ainsi nous fournir un certain nombre de réponses ou de voies de recherche pour comprendre et peut-être prévenir et traiter différentes maladies neurodégénératives comme par exemple la maladie d'Alzheimer. "Des expériences de transplantation de cellules souches neuronales pour le traitement de la maladie de Parkinson et d’autres affections neurologiques sont en cours, tant aux Etats-Unis qu’en France, sur des modèles animaux. C- Dé ter minism e géné tique et é pigenè se Le développement du cerveau, son unité, s'effectuent sous le contrôle du patrimoine génétique (on compte environ 30 000 gênes dans le génome humain, dont 15 000 sont de fonctions supposées et 5 000 assez bien connues), celui-ci mettant au service de ce développement un nombre élevé de combinaisons possibles (il faut rappeler de ce point de vue que la construction du cerveau humain ne suit pas un programme particulier). Il est erroné d'affirmer que le développement de la formidable complexité cérébrale répond à un déterminisme strict (ou à un sur déterminisme) du génome. Cette prégnance du génome introduirait l'idée de l'existence d'invariants au niveau comportemental. Cette notion est fondamentale car cela signifie que si l'on accepte l'idée d'un sur déterminisme génétique, toute possibilité d'apprentissage semble a priori exclue, le développement suivant alors de façon stricte le "programme" imposé par le génome du sujet. De ce point de vue, comme le propose Changeux, "il paraît utile d'introduire le terme Cognition & Motricité -9Yves Kerlirzin __________________________________________________________________________________________ d'enveloppe génétique pour délimiter les caractères invariants soumis au strict déterminisme des gênes et ceux qui font l'objet d'une importante variabilité phénotypique.". Ce déterminisme est responsable des divers processus développementaux mis en jeu dans la maturation du système nerveux (par exemple, le comportement du cône de croissance, la mise en place des connectivités, l'existence d'activité spontanée dès les premiers stades de l'assemblage des circuits nerveux). A partir d'un même génotype, des phénotypes différents pourront voir le jour en fonction des expériences singulières des sujets. C'est le cas pour les vrais jumeaux, dits monozygotes (provenant d'un seul et même ovule fécondé par un seul spermatozoïde). A partir d'un patrimoine génétique supposé identique (les vrais jumeaux sont dits isogéniques), les variabilités phénotypiques constatées ne devraient être dues qu'à des environnements différents. Un travail récent (Bartley et al., 1997) montre que même les cerveaux de vrais jumeaux se révèlent être différents. Ces auteurs ont montré que le volume du cerveau humain serait presque entièrement déterminé par des facteurs génétiques alors que le dessin des circonvolutions cérébrales (ceci laisse à penser que les populations cellulaires corticales, qui sous-tendent la forme de ces circonvolutions, ne sont pas réparties de la même façon chez des sujets supposés génétiquement identiques) dépendrait surtout des conditions environnementales. Ceci confirme l'idée selon laquelle le système nerveux comporte une part d'individualisation qui n'est pas dictée par le génome. D- La th éorie du dév el oppe ment du sy st ème n er veux pa r épigen ès e Un certain nombre d'auteurs ont proposé une théorie dite épigénétique du développement. Ce terme n'est pas nouveau (il était déjà utilisé au dix-huitième siècle – en 1759 par C. F. Wolf), bien que son acception ait changé depuis un siècle environ. La doctrine de l’épigenèse propose une thèse selon laquelle la forme individuelle d’un être vivant n’est pas présente à la fécondation. Cette forme n’apparaît que progressivement, et cette formation lente va durer tout au long de la gestation, de l’incubation, de la métamorphose ou de la germination. Depuis un siècle, cette thèse a été étendue à la neurogenèse postnatale, ainsi qu'à la psychogenèse. Cette thèse entre en contradiction avec la doctrine de la préformation qui postule que la forme singulière, unique, préexiste matériellement, bien qu’invisible, dans un germe. De ce point de vue, l’ontogenèse serait ainsi un simple "agrandissement", l’ordre des parties restant invariant du germe à l’individu achevé. L'épigenèse peut se définir, selon Changeux, comme un "mécanisme combinatoire ne faisant plus intervenir de modification du matériel génétique, s'exerçant au niveau des ensembles de cellules nerveuses. Il possède pour origine la topologie (c'est-à -dire la disposition Cognition & Motricité -10Yves Kerlirzin __________________________________________________________________________________________ géographique) du réseau des connexions qui s'établissent entre neurones au cours du développement." L’épigenèse propose l'idée selon laquelle l'organisme, confronté aux contraintes particulières d'un environnement donné, mettrait en place, puis sélectionnerait et stabiliserait les connexions qui sont effectivement sollicitées et mises en œuvre au cours du développement. Par exemple, le développement de la vision, l'apprentissage et le développement dans l'acquisition de la langue maternelle, procèdent de tels mécanismes. Ces derniers se placent dans le cadre d'une conception interactionniste de l'individu avec son environnement (on retrouve cette perspective dans les relations de l'enfant avec l'adulte ou d'autres enfants, les attitudes et conduites des uns et des autres étant modulées, réorganisées en fonction des relations établies –échanges, mimiques, etc.). Cette conception interactionniste a donné lieu à de nombreux travaux en théories du développement et de l'apprentissage. Ainsi, à l'échelon neurobiologique, les conditions de la synaptogenèse, c'est-à-dire de la formation de synapses, de relations qui progressivement s'établissent entre les différentes cellules nerveuses, ont montré qu'au cours du développement de la jonction neuromusculaire s'opérerait une sélection et une stabilisation de l'un des contacts synaptiques établis, sur la base de l'exercice fonctionnel de la transmission (une synapse devient fonctionnelle à partir du moment où elle assure une transmission d’information entre neurone émetteur et neurone récepteur, par l’intermédiaire d’une substance chimique, le neuromédiateur que sécrète le neurone émetteur) : seule la terminaison la plus fréquemment sollicitée serait retenue, les autres venant à disparaître. En clair, l'exercice plus ou moins fortuit du fonctionnement d'une structure au cours du développement serait en pareil cas la condition de son maintien. En bref résumé, comme le rappelle A. Prochianz (2000), plus nous sommes stimulés, plus nous développons des constructions épigénétiques diversifiées. Ainsi, tous les individus, bien qu'appartenant à une même espèce sont différents. L'usage et l'influence de l'environnement sur tous les systèmes sensoriels de l'individu participe de façon déterminante à la construction de ses fonctions et modifient pour chacun la construction de ses représentations au niveau du système nerveux central. L'épigenèse peut être appréhendée comme un processus adaptatif se poursuivant tout au long de l'existence. E- Labil ité et dég éné re scence syna ptiques Cependant, les connexions nerveuses restantes vont se caractériser au cours de l'évolution du système par leur labilité, c'est-à-dire une absence de stabilité et une possible dégénérescence dues notamment à l'absence d'activité de ces éléments nerveux. Ceci a pu être montré lors Cognition & Motricité -11Yves Kerlirzin __________________________________________________________________________________________ d'expériences de section ou de destruction de trajets nerveux particuliers. Il se produit alors des phénomènes de dégénérescence transneuronale ou transsynaptique, pouvant toucher différents niveaux de contacts synaptiques, avec effet antérograde lorsque cette section suit le trajet de fibres nerveuses afférentes, et rétrograde lorsqu'il s'agit de fibres nerveuses efférentes. On peut évoquer alors un processus de propagation de cet effet de dégénérescence, conduisant à une réorganisation de la structure initiale, une modification anatomique des cellules concernées et la disparition à terme des cellules désormais inactives. Il se produit donc au cours du développement, qui peut être perçu à juste titre, comme une période de prolifération tous azimuts des connexions nerveuses, des phénomènes de régression. La mort des cellules fait partie intégrante du développement du système nerveux. A la naissance, chez le mammifère (le rat, l'homme) existe une sur-innervation d'un même territoire de fibres musculaires, caractéristique d'une redondance du système. Ce redoublement des jonctions, cette redondance transitoire va peu à peu s'éliminer par la disparition progressive d'un certain nombre de terminaisons nerveuses actives. Ceci semble logique si l'on se réfère à la somme des potentialités offertes par ce développement. Toutes en effet ne pourront être mises en jeu, actualisées. Les cellules non sollicitées, c'est-à -dire non impliquées de façon fonctionnelle dans un circuit donné, vont passer d'un état transitoirement stable à un état labile, puis finalement à un état dégénéré. Le nombre de potentialités réellement exercées va diminuer avec la maturation. C'est la sollicitation, l'exercice, la mise en relation qui va commander un processus de stabilisation sélective d'une population particulière de cellules, éliminant ainsi peu à peu la redondance. Ce qui ressort en définitive d'un tel modèle, c'est la capacité de la fonction à créer peu à peu la structure à partir de données physiologiques qui pré-existent, procédant par le jeu de combinatoires et d'éliminations successives, à la stabilisation de combinatoires ou de connexions nouvelles, stables, fonctionnelles. De nombreux travaux sont venus étayer cette thèse d'apprentissage par sélection synaptique, de stabilisation fonctionnelle des connexions neuronales, et de régression. L'expérience de privation sensorielle de Wiesel & Hubel (1963, 1965) a mis en œuvre une approche différente afin de mettre en évidence ce processus de régression. Il faut ici préciser que ces expériences ont porté sur des chatons, mais que la reproductibilité ou la généralisation des résultats obtenus pour la vision doit être envisagée avec prudence, que ce soit au regard d'espèces différentes ou au regard d'autres aspects (au niveau du système moteur par exemple). Cognition & Motricité -12Yves Kerlirzin __________________________________________________________________________________________ F- Pl asticité du sy stè me n erv eux et p ériode s critiques Une possible démarche expérimentale utilisée pour mettre en évidence l'existence de processus donnés procède par perturbation de l'exercice normal d'une fonction particulière d'un sujet, de façon à tester les limites de fonctionnement du système sans compromettre globalement l'exercice de cette fonction. Les réactions du système nerveux à ces manipulations mettent à jour soit la difficulté ou l'impossibilité pour le système de faire face à cette perturbation, de façon transitoire ou permanente, définitive, soit une certaine plasticité, c'està-dire la capacité pour ce système de compenser, de réorganiser ou d'orienter son développement en fonction des contraintes rencontrées. Une autre possibilité consiste en réalisant des lésions (sections de nerfs par exemple). Hubel & Wiesel ont soumis de jeunes chatons à des conditions de déprivation sensorielle par suturation unilatérale des paupières réalisée au cours des six premières semaines de vie de l'animal. Ils ont constaté chez les sujets non seulement un arrêt de la croissance, mais on noté également une importante diminution de la taille des cellules neuronales au niveau du corps genouillé latéral, structure impliquée dans la vision et recevant les projections de cet œil, ainsi qu'une diminution des afférences sensorielles en direction des zones occipitales. Cette diminution se révèle moindre si l'occlusion est réalisée simultanément sur les deux yeux. Ce déficit observé chez le chaton présente un caractère réversible (plasticité) permettant la récupération des effets de la déprivation si la suturation est interrompue au bout de trois semaines. Il existerait donc une période de sensibilité critique au cours de laquelle les atteintes sont partiellement réversibles, surtout si les conditions normales sont rétablies avant la fin de cette période. Il faut noter, dans le prolongement de tels travaux, que la privation de lumière, c'est-à-dire la mise en place de l'absence de stimulation électrique du nerf optique, à une période critique de 4 semaines à 3 mois après la naissance, provoque une lésion irréversible des voies optiques et entraîne la cécité définitive de cet œil chez le sujet adulte. On sait par ailleurs qu'il existe une différence de plasticité, de capacité à se modifier en réponse à des perturbations de l'environnement, entre le cerveau d'un enfant et celui d'un adulte, considéré comme anatomiquement stable. Les facultés de récupération après lésion sont beaucoup plus importantes chez le premier que chez le second. Cette différence - qualitative en apparence - de plasticité entre le cerveau en développement et le cerveau adulte a été introduite dans les théories sur le fonctionnement du cerveau. Cependant, la neurogenèse à l'âge adulte modifie la manière dont il faut envisager le fonctionnement normal du cerveau. Depuis quelques années, on observe de plus en plus de signes de plasticité anatomique du cerveau adulte, à Cognition & Motricité -13Yves Kerlirzin __________________________________________________________________________________________ plusieurs niveaux, et notamment en ce qui concerne la forme et le nombre des synapses. Au jeu des hypothèses, on peut se risquer à envisager deux aspects non contradictoires, mais bien plutôt complémentaires, qui permettraient à la fois aux tenants d'un cerveau stable, sans modification anatomique, et aux autres protagonistes, prenant en compte les données actuelles, à savoir le fait désormais avéré que certains neurones de régions importantes dans les processus d'apprentissage se renouvellent continuellement (ce qui constitue une modification anatomique relativement importante) de tomber d'accord. L'idée serait d'imaginer un modèle à la fois plus complexe et plus souple mettant en jeu un système de relations et d'échanges au sein de certaines structures entre des populations neuronales où se produisent des phénomènes neurogéniques et des populations de neurones réputées stables. Ceci n'entrerait pas en contradiction avec les théories fondées sur la nécessaire stabilité du cerveau afin que les pensées et les souvenirs, inscrits dans un processus de mémoire à long terme, puissent se conserver tout au long de l'existence. Si le cerveau est capable de mémoire à long et parfois très long terme, il est également capable d'occulter un certain nombre d'informations ou de procéder à, sans que l'on sache trop comment ces processus se déroulent, l'élimination ou l'effacement d'autres informations non utilisées. Il est intéressant de rappeler que l'une des fonctions attribuées à l'hippocampe serait celle de transformer les souvenirs à court terme en souvenirs à long terme. Dans cette perspective, il est possible que les neurones à longue durée de vie, peu plastiques, soient essentiels pour la mémoire à long terme, ainsi que pour des fonctions sensitives et motrices qui n'ont pas besoin de changer beaucoup à l'âge adulte, alors que la neurogenèse pourrait mettre en jeu de nouvelles populations de neurones intervenant dans les processus rapides d'apprentissage et de mémoire à court terme. La notion de plasticité que nous avons évoquée précédemment sous-tend un certain nombre de processus qui ont été traités l'an passé, processus faisant appel aux notions d'équipotentialité, d'équivalence motrice, de vicariance, de substitution, de réorganisation fonctionnelle, de flexibilité fonctionnelle. Cette plasticité dépend d'un certain nombre de facteurs. L'âge du qujet (animal ou humain) semble représenter le facteur déterminant, ainsi que les modalités et la localisation de la lésion (les effets seront différents si la lésion porte sur des systèmes dits d'association, mettant en jeu différentes structures) ou sur des systèmes somato-sensoriels primaires (moindre plasticité dans ce cas). Il faut également mentionner l'importance prise, dans l'étude des influences épigénétiques, par la méthode de l'élevage différentiel. Celui-ci consiste en la comparaison entre le Cognition & Motricité -14Yves Kerlirzin __________________________________________________________________________________________ développement d'animaux témoins élevés en milieu conventionnel ou standard et celui d'animaux expérimentaux placés, à une phase donnée de leur développement postnatal, soit en milieu appauvri (par exemple, pour l'étude de rats (Rosenzweig et al., 1972) une petite cage au lieu d'une grande en situation dite enrichie, un flux de simulations restreint), soit en milieu enrichi (flux de stimulations accru, possibilités d'exercice et de jeu plus diversifiées). Un environnement amélioré favorise mieux qu'un petite cage la neurogenèse dans le gyrus denté de l'hippocampe. Certains neurobiologistes cherchent quelles caractéristiques de l'environnement ont le plus d'effets sur la neurogenèse. La comparaison de la neurogenèse chez des souris élevées dans des cages normales (milieu)et des cages pourvues d'une roue (à gauche) montre que l'utilisation intensive de cette roue favoriserait la neurogenèse. Source Pour la Science, 2001. De façon générale, l'enrichissement du milieu révèle un cerveau significativement plus lourd (correspondant à une multiplication de certaines cellules dites gliales ou de soutien "l'intendance" des neurones -, à une augmentation de taille des neurones avec notamment une arborisation dendritique plus dense) et entraîne un développement plus rapide et plus achevé, y compris au plan du comportement ; l'appauvrissement se traduit par un ralentissement dans le développement des potentialités comportementales. Ce fait a surtout été vérifié à de nombreuses reprises chez le rat et la souris, encore immatures au plan nerveux à la naissance. En même temps, la maturation nerveuse est tributaire aussi du flux de stimulations sensorielles et sociales. Le rôle de ces facteurs d'enrichissement, passant très vraisemblablement par l'exercice actif des fonctions sensori-motrices, met en jeu de la manipulation, du jeu. Chez les mammifères, le rôle fonctionnel du jeu semble indéniable, non seulement pour l'accomplissement de conduites caractéristiques de l'espèce, mais également pour confirmer et stabiliser le potentiel de flexibilité comportementale du sujet. L'enfant par exemple existe par le jeu, il ne joue pas pour apprendre, mais il apprend parce qu'il joue. Cognition & Motricité -15Yves Kerlirzin __________________________________________________________________________________________ On peut donc, d'une façon générale, conclure à l'existence d'un déficit cognitif permanent consécutif aux privations ou à l'absence de stimulations de tous ordres dans les premiers mois de la vie. Ceci énoncé, la période des nécessaires stimulations ne se limite pas aux premiers mois de l'existence, elle se prolonge tant que la plasticité nerveuse peut encore être sollicitée. II- Connais sanc e du cerv eau U n peu d'h istoire Ce dessin anonyme du 15esiècle illustre les théories précartésiennes du cerveau, basées sur les idées d'Aristote (384-322 av J.C) Les sens du goût et du toucher sont connecté&s au cœur et les petites boîtes dans la tête représentent les "cellules cérébrales" dans lesquelles sont localisées des facultés mentales telles que la mémoire et l'imagination. Comme nous l'avons précisé en introduction à notre cours, le cerveau joue un rôle tout à fait central et essentiel dans le déroulement et l'exercice des différentes fonctions quotidiennes favorisant l'adaptation de l'individu à son environnement. Le cerveau est relation au monde, il donne du sens à ce que nous vivons. il se développe en agissant. Quelles que soient les différentes activités envisagées, les différents sentiments, sensations, activités cognitives, nous le sollicitons nécessairement. La recherche d'une connaissance approfondie de cet organe n'est pas une préoccupation récente, nous le savons. "La première mention relative au fonctionnement du cerveau dans un texte historique remonte au XVIIème siècle avant notre ère : un papyrus égyptien décrit les symptômes de deux blessés présentant des fractures du crâne et met en relation les signes observés avec des lésions cérébrales. 1200 ans plus tard, Hippocrate (466-377) affirmait : "Les hommes doivent savoir que du cerveau et du cerveau seulement naissent nos plaisirs, nos joies, nos rires et plaisanteries aussi bien que nos peines, nos douleurs, nos chagrins et nos larmes...". Puis suivit une très longue période d'apparente absence d'intérêt pour ce sujet. Au Cognition & Motricité -16Yves Kerlirzin __________________________________________________________________________________________ XVIème siècle, Descartes (1596-1660) commença en quelque sorte à poser la question de la relation entre le corps (le cerveau) qui seul est une machine, et l'esprit (ou l'âme), en émettant l'hypothèse que l'un puisse affecter l'autre et réciproquement. Il posait également d'une certaine façon le problème des localisations en pensant par exemple que la glande pinéale (l'épiphyse) était le "siège de l’âme". Organisation du SN d'après Descartes. Ce schéma a été publié en 1662. Les nerfs issus des yeux projettent vers les ventricules cérébraux. L'esprit influence la commande motrice au travers de la glande pinéale (H) qui sert de valve pour contrôler les déplacements de l'esprit animal qui gonfle les muscles par les nerfs. Sources Neurosciences A la découverte du cerveau M. F. Bear, B.W. Connors & M.C. Paradisio. Editions Pradel, 2002. A )- U ne approch e intuitive Au XIXème siècle, le problème de la relation entre le corps et l'esprit prit une importance accrue, avec toujours comme corollaire, notamment par les travaux de l’anatomiste allemand Franz Joseph Gall (1758-1828), la question de la localisation des fonctions cérébrales (existe -t-il une correspondance stricte, linéaire, directe, entre l'organe ou la région précise et particulière du cerveau et la fonction ?). Selon ce médecin, le cortex était l’organe assurant les fonctions mentales et morales, ces fonctions étant localisées en des endroits précis des circonvolutions cérébrales, imprimant même une marque sur la zone de la boîte crânienne située en regard (cf. infra). En 1807, il donne à Paris un cours public consacré aux "facultés morales et intellectuelles" de l'homme. En collaboration avec son élève Spurzheim (1776-1832) (auquel certains auteurs attribuent la paternité du terme phrénologie en 1810), il développe ses théories relatives à la localisation Franz Joseph Gall (1758-1828) Cognition & Motricité -17Yves Kerlirzin __________________________________________________________________________________________ cérébrale des facultés mentales (en fait, de leur substrat organique). Deux ouvrages en attestent : (F. J. Gall and J. C. Spurzheim. Anatomie et physiologie du système nerveux en général et du cerveau en particulier; avec des observations sur la possibilité de reconnaître plusieurs dispositions intellectuelles et morales de l'homme et des animaux par la configuration de leur tête, Paris, F. Schoell, 1810-1819. - F. J. Gall. Sur les fonctions du cerveau et sur celles de chacune de ses parties, avec des observations sur la possibilité de reconnoitre les instincs, les penchans, les talens, ou les dispositions morales et intellectuelles des hommes et des animaux, par la configuration de leur cerveau et de leur tête, J. B. Ballière, 1822-1825). Gall est un partisan de la psychologie des facultés. Selon lui, elles existent dans l'esprit en grand nombre. Il en retient 27 ou "forces fondamentales, penchants et sentiments", comme l'amour de la progéniture (ou comportement maternel), de la gloire, de l’autorité, l’aptitude au vol la dévotion, le goût pour les rixes et les combats (ou agressivité), l'instinct de propagation (ou sexuel), l'intelligence, la localisation spatiale, la mémoire, la perception, le sens des mots, etc. Si Gall assigne à chacune de ces facultés une localisation cérébrale particulière, il semble que cette intuition puisse être rapportée à une idée singulière, émise quelques années auparavant, lors de ses études. Se trouvant à l'époque surclassé par des camarades retenant leurs leçons par cœur, il écrivait alors : " Quelques années après je changeai de séjour, et j’eus le malheur de rencontrer encore des individus doués d’une aussi grande facilité d’apprendre par coeur. C’est alors que je remarquai que tous ressemblaient à mes anciens rivaux par des grands yeux saillants. Deux ans plus tard, j’allai à l’université ; mon attention se fixa d’abord sur ceux de mes nouveaux condisciples qui avaient les yeux gros, saillants, à fleur de tête. On me vanta généralement leur excellente mémoire, et, quoiqu’ils ne fussent pas sous beaucoup de rapports les premiers, tous l’emportaient cependant sur moi lorsqu’il s’agissait d’apprendre promptement par coeur, et de réciter de longs passages avec exactitude. Cette même observation m’ayant été confirmée par les étudiants des autres classes, je dus naturellement m’attendre à trouver une grande facilité d’apprendre par coeur chez tous ceux en qui je remarquerais de grands yeux saillants. Je ne pouvais pas croire que la réunion des deux circonstances qui m’avaient frappé dans ces diverses occasions, fût uniquement l’effet du hasard. Après m’en être assuré davantage, je commençai à soupçonner qu’il devait exister une connexion entre cette conformation des yeux et la facilité d’apprendre par cœur". Il semblait alors logique à Gall que cette observation puisse s'appliquer à toutes les autres facultés intellectuelles. Il entreprit alors l’observation de la conformation crânienne de tout individu présentant une faculté particulièrement développée, palper le crâne revenant en quelque Cognition & Motricité -18Yves Kerlirzin __________________________________________________________________________________________ sorte pour lui à examiner le cortex. Il dresse une cartographie des "protubérances" (chaque région exercerait une pression sur la partie du crâne qui lui correspond ce qui donnerait lieu à des proéminences osseuses, des protubérances, des bosses) et me t au point une méthode d'évaluation diagnostique ou prédictive par palpation du crâne (la mise en évidence de ces bosses permettant de procéder à un inventaire de ses facultés). Ainsi après la craniologie naît la phrénologie selon laquelle les protubérances et les dépressions du crâne reflètent les facultés mentales de l'individu. Ce terme provient des mots grecs phrénos, esprit, et logos, discours (elle a été liée à la physiognomonie, terme provenant des mots venant des mots grecs signifiant nature et interprétation, tentative de comprendre l'esprit et la personnalité en évaluant divers traits faciaux comme le nez, les yeux, le menton et la forme des pommettes; bref, juger les personnes d’après leurs visages). Gall a palpé, touché, évalué puis collectionné les crânes d’hommes célèbres (Napoléon 1er par exemple qui lui reprocha d'attribuer à des " bosses " des " penchants et des crimes Cartographie proposée par Gall " qui ne viennent que de la société), de malades mentaux, de criminels (Lacenaire). Sa théorie localisationniste a déclenché bien des passions et des polémiques, a été très controversée (certains médecins comme P. Flourens développant des thèses opposées, dites holistiques ou globales, selon lesquelles les fonctions du cerveau ne sont pas basées sur des localisations anatomiques précises, sur des régions spécifiques. i mplications théologiques). Convaincu par les travaux de Gall, Broussais fonda à son tour en 1832 la Société Parisienne de Phrénologie Comptant environ deux cents membres dont des médecins, des politiques, des artistes, des hommes de lettres et des juristes, elle bien connut une durée de vie bien limitée. Cependant, si la phrénologie présente des aspects naïfs et réducteurs, elle n'en constitue pas moins l'origine des recherches actuelles menées sur les fonctions du cortex cérébral. Gall, grand anatomiste, a par ailleurs notamment montré que le cerveau est constitué de substance grise (contenant les corps cellulaires des neurones) et de substance blanche, constituée de leurs prolongements (les axones ou fibres nerveuses); est formée de fibres entourées de myéline. ". Paradoxalement, cette idée fausse qu'est la phrénologie perdure encore de nos jours d'une certaine façon au travers de certaines expressions familières ou quotidiennes (avoir la bosse des Cognition & Motricité -19Yves Kerlirzin __________________________________________________________________________________________ maths) ou de l'utilisation explicite ou non au quotidien d'une certaine morphopsychologie. Le danger de l'utilisation déformée d'une telle approche peut rapidement conduire à des dérives racistes ou eugéniques. "La Phrénologie ... admettait que le front bien développé de l'homme civilisé était la preuve de son intellectualisme, en comparaison avec le front fuyant de nos premiers ancêtres. Au contraire, le sur développement de la base du crâne était la marque de l'homme primitif, indiquant un fort instinct. Une haute, et large tête révélait une capacité plus grande aux sentiments qu'une basse3" (Gibson et Gibson, 1964 p.304). B)- A pproch e expé rimen tal e Les thèses anti localisationniste s défendues par Flourens (les thèses de Gall présentaient des conséquences théologiques, c'est pourquoi Flourens avait l'accord de l'église car ses thèses personnelles étaient en faveur de l'unité de l'âme) semblent en ces débuts de XIXème prévaloir au sein de la communauté scientifique. Cependant, dès 1825, J-B. Bouillaud, neurologue passionné par les travaux de Gall, tenta de montrer que la proposition de celui-ci de localiser la "mémoire verbale" ou langage dans les lobes frontaux était fondée (en fait, selon Gall, toutes les facultés intellectuelles étaient selon lui localisées dans les lobes frontaux alors que les lobes postérieurs contenaient toutes les facultés plus primitives liées à l'instinct. Le pas était ensuite facilement franchi de postuler que plus les lobes frontaux d'un individu étaient développés, plus grande était son intelligence). Pendant une quarantaine d'années, Bouillaud décrivit plus d'une centaine de cas de lésions cérébrales chez l'homme afin de démontrer le lien entre les lésions du lobe frontal et la perte de la parole. Mais ses travaux ne convainquirent qu'une minorité de médecins. "De la même façon, dès 1836, un certain M. Dax avait présenté devant la Société Médicale de Montpellier un court mémoire dans lequel il rapportait que, sur plus de quarante patients aphasiques, il n'avait pas trouvé un seul cas d'altération de l'hémisphère droit. Il en concluait que chaque moitié du cerveau contrôle des fonctions différentes et que le langage devait être sous la dépendance de l'hémisphère gauche. Ce mémoire ne suscita à l'époque aucun intérêt." En 1861, cherchant à vérifier la thèse de Bouillaud, le Dr P. Broca apporta la confirmation partielle des hypothèses de Gall et de Bouillaud, grâce à l’étude anatomique post-mortem de certains patients (en pratiquant l'autopsie de M. Leborgne, patient lui ayant été présenté 6 jours avant son décès). Ce premier patient est connu sous le nom de "Tan tan", le seul mot qu'il put prononcer. Son autopsie révéla une lésion des lobes frontaux du cerveau, lésion vasculaire située dans la troisième circonvolution frontale de l'hémisphère gauche. Tan tan souffrait d'aphasie (aphémie à l'époque), considérée alors comme une maladie mentale. Bien que l'appareil phonatoire Cognition & Motricité -20Yves Kerlirzin __________________________________________________________________________________________ de ce patient soit intact (ni sa langue ni ses lèvres n'étaient paralysées), il lui était i mpossible d'articuler, de prononcer les mots alors qu'il semblait comprendre ce qu'on lui disait. Le cerveau de M. Leborgne (Tan tan) est conservé au Paul Broca (1824-1880) musée Dupuytren (Paris). "Six mois plus tard, un deuxième cas d'aphasie suivit celui de Tan tan, celui de M. Lélong. A nouveau, l'autopsie révéla une lésion située à la hauteur des circonvolutions postérieures des lobes frontaux, et en particulier dans la troisième circonvolution frontale. Les deux cas cités ne suffirent pas à réorienter l'opinion scientifique et médicale en faveur de la théorie localisatrice ; ils représentèrent toutefois un premier pas, capital ; rapidement suivi par de nombreux autres cas de provenances diverses, qui étaient en tout état de cause susceptibles de conforter la thèse relative à un lien entre la perte de la capacité de parler (avec maintien de la compréhension du langage) et une lésion de la troisième circonvolution du lobe frontal du cerveau." Aires de Broca et de Wernicke Sources Neurosciences A la découverte du cerveau M. F. Bear, B.W. Connors & M.C. Paradisio. Editions Pradel, 2002. La découverte de cette zone particulière nécessaire au langage (Broca parlait de "la faculté du langage articulé"), appelée depuis l'aire de Broca (aire 44 de Brodman), a permis d'apporter expérimentalement la preuve de l'existence d'un lien entre le langage (bien articulé, fluent) et Cognition & Motricité -21Yves Kerlirzin __________________________________________________________________________________________ une région particulière du cortex (la partie postérieure de la circonvolution frontale inférieure de l'hémisphère gauche). Ceci a été confirmé par les travaux de Wernicke sur les aphasies (lobe temporal gauche, zone dite de Wernicke : le discours est rapide et parfois logorrhéique, avec des paraphrasies, un mot pour un autre, une absence d'écoute de son discours par le sujet), et actuellement a été confirmé par les techniques d'imagerie médicale. A la suite de ces différents travaux, d'autres expérimentations ont permis de mettre en évidence l'existence de plus en plus de régions spécialisées dans des fonctions sensorielles ou motrices. Dans les années 50, les travaux du neurochirurgien canadien W. Penfield et des ses collaborateurs ont montré, grâce à la stimulation électrique systématique sur des cerveaux d'épileptiques en état de veille avant l'intervention chirurgicale (expériences indolores étant donné l'insensibilité du cerveau à la douleur), "que chaque muscle est commandé par une région précise du cortex frontal et que chaque modalité sensorielle dépend également de zones corticales précises. Homonculus : du latin homo (homme) et culus" , qui en bas latin diminue en quelque sorte le sens du mot auquel il s'attache. On pourrait ainsi traduire homonculus par petit homme. Proposé par Wilder Penfield et Théodore Rasmussen en 1950 (Unité de Neurophysiologie du Royal Victoria Hospital de Montréal). Les cartes somato sensorielles du cortex pariétal élaborent une cartographie, une représentation somatotopique du corps en fonction de l'importance fonctionnelle relative et de la sensibilité sensorielle (c'est-à-dire en rapport avec la densité en récepteurs de la zone correspondante) de chacun des organes représ entés. Par exemple, la bouche et la main occupent une place très importante dans cette représentation. Cognition & Motricité -22Yves Kerlirzin __________________________________________________________________________________________ "Les enquêtes de Penfield en salle opératoire aboutirent à l'élaboration de ses célèbres homunculi moteurs et sensoriels : ces dessins stylisés mettaient en évidence les différentes parties de la superficie corporelle, sans refléter leurs dimensions effectives, mais l'importance de leur représentation corticale ; celle-ci reflétait à son tour l'importance relative de ces différentes parties dans les activités sensorimotrices quotidiennes. Ainsi, dans l'homunculus moteur, le pouce et les doigts de la main atteignent une taille énorme et grotesque, tandis que ce sont les lèvres et la langue dans l'homunculus sensoriel ; alors que dans les deux dessins, la structure de l'oreille et les genoux sont relativement petits." "Cette première carte précise du cortex cérébral montrait que Elle montrait aussi que la quantité de tissu nerveux commandant un muscle était proportionnelle non pas au volume du muscle mais à la finesse des mouvements dont il est capable : ainsi, le volume de cerveau commandant les mouvements du pouce est plus grand que celui commandant les mouvements de la jambe, du tronc et du bras réunis. De même, la zone recevant les sensations en provenance des lèvres est-elle plus étendue que celles recevant les sensations en provenance de la peau des jambes et des bras." C)- Imag erie cé réb ral e Une découverte fortuite : le lien entre flux sanguin et l'activité cérébrale. L'histoire dit que ce lien a été découvert pour la première fois par le physiologiste italien Angelo Mosso, à la fin du 19e, lors d'études des pulsations du cerveau humain. Il remarqua chez l'un de ses sujets une brusque augmentation de l'intensité des pulsations au niveau des lobes frontaux lors de la survenue d'un événement particulier (carillon d'une horloge sonnant midi, soit l'heure de la prière). En questionnant son sujet pour vérifier cette hypothèse, il constata une nouvelle Appareil utilisé par Mosso pour enregistrer les pulsations du cerveau. Source L'esprit en images Posner & Raichle, 1998 augmentation des pulsations cérébrales (sans aucune modification dans les deux cas du rythme cardiaque ou de la pression sanguine). Cette augmentation des pulsations se produisit à nouveau chez le sujet lors de la réalisation de calculs mathématiques Cognition & Motricité -23Yves Kerlirzin __________________________________________________________________________________________ simples et lors de l'énoncé de la réponse . Les enregistrements de Mosso pris à l'avantbras (A) et au cerveau (C) présentent des pulsations cérébrales plus élevées à la suite de la stimulation cérébrale par les événements marqués par la flèche. Source L'esprit en images Posner & Raichle, 1998 A la suite de cette expérience princeps, les expérimentations menées en 1890 par C. Roy et C. Sherrington au laboratoire de pathologie de l'Université de Cambridge leur permirent, à la suite d'expérimentations animales, de formuler dans cet ordre d'idées l'hypothèse de l'existence d'un "mécanisme automatique" régulant l'apport sanguin au niveau du cerveau, afin de pouvoir s'adapter à des variations locales d'activité cérébrale. Cette influence de la variation de l'activité cérébrale sur le flux sanguin, se traduisant notamment par une augmentation de celuici, fut également vérifiée plus tard (entre 1926 et 1928) par les travaux menés par le Dr J. Fulton à l'hôpital Peter Bent Brigham de Boston sur l'un de ses patients, Walter K., un marin américano-allemand âgé de 26 ans. Ce dernier avait souffert pendant longtemps de maux de tête et perdait progressivement la vision à la suite d'une malformation congénitale des vaisseaux sanguins (artérioveineuse) nourrissant son cortex visuel. "Contrairement au flux sanguin circulant dans les vaisseaux, habituellement calme et silencieux, le flux sanguin passant dans ces vaisseaux anormaux était agité et provoquait à chaque battement du cœur une sorte de son brusque, comme le bruit provoqué par une pompe à vélo. Le patient pouvait entendre ce son, ainsi que le médecin (stéthoscope) à travers un défaut du crâne. Dès que le patient ouvrait les yeux, le son augmentait, particulièrement lors de la lecture d'un journal." On avait donc là à nouveau une preuve patente d'un lien étroit existant entre activité cérébrale et flux sanguin. Il était alors possible de nourrir l'espoir de rendre compte de l'activité cérébrale par des méthodes noninvasives, non traumatisantes ou à risque ou enfin non post-mortem. Par ailleurs, les modifications Cognition & Motricité -24Yves Kerlirzin __________________________________________________________________________________________ de l'activité cérébrale, électrique ou chimique, ne sont pas observables d'un simple point de vue anatomique. L'idée était de passer d'une i magerie anatomique descriptive à une imagerie anatomique fonctionnelle. Crâne de Walter K. La flèche montre le défaut Les enregistrements du crâne de Walter K chirurgical à l'arrière de la tête de Walter K., là où présentent peu d'activité lorsque ses yeux sont le bruit pouvait être entendu. Source L'esprit en fermés (tracé supérieur) mais bien plus lorsqu'il est images Posner & Raichle, 1998 en train de lire (les deux tracés inférieurs). Source L'esprit en images Posner & Raichle, 1998 La prise en compte des hypothèses et conclusions des travaux cités supra dans le domaine de l'hémodynamique, ainsi que les progrès technologiques dans les domaines de la détection de rayonnements et de l'informatique, ont permis dans la deuxième partie du XXème siècle (les années 1970, avec l'invention du scanner) de développer de nouveaux moyens d'investigation, essentiellement par les techniques d'imagerie cérébrale, permettant de détecter localement des modifications dans le débit sanguin cérébral. Ces avancées représentent un progrès majeur dans l’histoire de la biologie, des neurosciences. Grâce à l’imagerie cérébrale, il devient désormais possible de voir en temps réel et avec une grande précision le cerveau en action, de comprendre par exemple les mécanismes de la pensée, du calcul, les aires nécessaires à ces opérations ou à d'autres comme la mémoire, la vision, etc. En effet, comme le rappelle B. Mazoyer (2003), "une fonction cognitive est en effet une séquence temporelle d'activités neuronales, électriques et neurochimiques, distribuées en réseau, et engendrant des variations locales à la fois du champ électromagnétique, du métabolisme énergétique et du débit sanguin cérébral (DSC). Les modifications locales du champ électromagnétique sont directement observables à la milliseconde près, "en temps réel ", à la surface du scalp (MEG). L'observation des événements neurochimiques, métaboliques et hémodynamiques nécessitent le recours à un marqueur de ces événements dont la concentration en chaque endroit du cerveau doit être détectable de Cognition & Motricité -25Yves Kerlirzin __________________________________________________________________________________________ l'extérieur. Ces différentes techniques, dites de neuro-imagerie cognitive, sont la tomographie par émission de positons (TEP), l'imagerie par résonance magnétique fonctionnelle (IRMF) et la magnéto-électro-encéphalographie (MEG). L'électroencéphalographie (EEG), dont les premières expérimentations ont été réalisées chez l'homme dès les années 1930, permet pour sa part de rendre compte des patrons d'activité neuronale. En effet, à tout moment, le cerveau nécessite une grande concentration d'énergie dans les zones d'intense activité. D'où une augmentation importante du flux sanguin cérébral dans ces zones actives. Il est alors possible d'observer une image de l'activité cérébrale en mesurant le flux sanguin à l'aide d'un marqueur radioactif injecté dans le sang. On peut ainsi demander à un sujet d'exécuter une tâche cogniti ve pendant une durée donnée (40s) – lire un mot précis désignant un objet et de penser à l'usage de cet objet. On note alors la correspondance entre l'activité cognitive et les concentrations du flux sanguin. Les TEP scans peuvent être mesurés pour l'étude de processus cognitifs comme l'attention, les images mentales ,la lecture. Le principe général est simple : lors de leur activation, les neurones nécessitent plus d'oxygène et de glucose (demande alimentaire plus élevée en quelque sorte). La vascularisation cérébrale répond à cette demande en augmentant localement les flux sanguins porteurs de ces nutriments essentiels (vitaux) pour les neurones. Ainsi, les changements de débit sanguin détectés par le TEP-scan ou l'IRMf révèlent les régions du cerveau qui sont les plus actives dans des circonstances particulières et bien standardisées. Les avantages procurés par ces méthodes ont ainsi permis aux scientifiques de pénétrer pour la première fois les mystères du cerveau humain. Cela représente des moyens d'investigation formidables pour résoudre les bases des fonctions cérébrales et en particulier des processus cognitifs. c1 )- La tomograph ie pa r émi ssion de positon s L'objectif de cette méthode est de produire une image tridimensionnelle de la coupe d'un organe (en l'occurrence le cerveau). Le patient est placé sur une table qui se déplace dans le sens longitudinal à l'intérieur d'un court anneau; contenant un tube à rayons X qui génère un faisceau d'un épaisseur de 1 à 10 mm qui va tourner autour de la tête du patient dans le plan de la coupe désirée, en 0.5 à 1 seconde. Cognition & Motricité -26Yves Kerlirzin __________________________________________________________________________________________ Chaque tour, permettant de recueillir les données sous différents angles produit une "tranche", une image d’une coupe transversale de l’organe En face du tube sont disposés des milliers de détecteurs qui vont mesurer l'intensité résiduelle du faisceau qui a traversé le corps. Puis ces données sont traitées par ordinateur et analysées à l'aide d'un algorithme de traitement. Après plusieurs tours, l’ordinateur devient en mesure d’additionner les tranches pour créer une image tridimensionnelle de l’organe scanné. Le CT scan permet d'obtenir des mages présentant un degré élevé de résolution par rapport aux rayons X classiques et peut donc déceler des tumeurs ou des lésions à un stade plus précoce. La tomographie (tomographie est dérivé du mot grec qui signifie couper) assistée par ordinateur (Computed Tomography ou CT scan) a été mise au point par Godfrey Housfield et Allan Cormack (prix Nobel pour cela en 1979), inventeurs du scanner en 1972. Elle se fonde sur l'idée que certains rayonnements électromagnétiques, comme les rayons X, traversent le corps et sont absorbés par des tissus radio-opaques. Le scanner utilise cette propriété des rayons X d'être absorbés de façon différente suivant les régions traversées pour mesurer des densités dans une tranche du corps (coupe Image d'un scanner (source : axiale ou transverse). www.lecerveau.mcgill.ca) Pour la TEP ou tomographie par émission de positons (l'acronyme anglophone ou PET-scan pour Positon Emission Tomography est aussi utilisé), le principe de base, simple, est fondé sur l'émission radioactive de positons (ou positrons, on rencontre les 2 termes). L'émission de positons est de la radioactivité dite artificielle, obtenue en fabriquant à l'aide d'un accélérateur de particules (cyclotron par exemple) des noyaux présentant des protons en excès. On injecte par voie intraveineuse au sujet placé dans la machine une solution (de l'eau par exemple dans le Cognition & Motricité -27Yves Kerlirzin __________________________________________________________________________________________ cas du 15 O) contenant un traceur radiooactif (traceur car injecté à faible dose pour ne pas perturber le processus biochimique), un atome émettant des positons (e+ ). Au bout d'une minute, l'eau radioactive mêlée à la circulation sanguine s'accumule dans le cerveau proportionnellement au flux sanguin régional. Plus ce flux est important, plus nombreux sont les événements enregistrés. Puis on procède à la mesure du rayonnement de ce traceur sur des capteurs externes (détecteurs de radiation). Il existe différents traceurs comme le perfusion, le débit sanguin), le 18 15 O (pour la F-deoxyglucose ou FDG (pour le métabolisme du glucose), le 18 F- dopa (pour la synthèse de la dopamine). Ce traceur radioactif est un isotope (l'isotope d'un élément est un atome possédant le même nombre de protons mais pas de neutrons. Un isotope très connu est le carbone 14, isotope du carbone 12. Par exemple, l'oxygène 16 O, oxygène stable et non radioactif que nous respirons possède 8 protons et 8 neutrons tandis que son isotope le 15 O possède 8 protons mais seulement 7 neutrons. Pour les isotopes d'un même élément, le nombre d'électrons de chaque atome reste le même (donc leurs propriétés chimiques également) ainsi que le nombre de protons tandis que le nombre de neutrons varie (la masse atomique est donc différente). Cette modification de la proportion de neutrons dans le noyau, cette déficience du noyau en neutrons peut rendre l'atome instable, rendant certains isotopes radioactifs, chargés positivement. TEP pour expérimentation animale TEP pour expérimentation humaine Le taux de radioactivité produit par l'15 O diminue rapidement, la moitié de la radioactivité administrée disparaît au bout de deux minutes environ (123 s), elle a pratiquement disparu totalement au bout de 10 mn, ce qui permet de ne pas exposer les sujets aux effets potentiellement nocifs des radiations ionisantes et de pouvoir répéter les mesures de flux sanguin plusieurs fois au cours d'une même expérience. Lors de sa désintégration radioactive le traceur émet un positon qui va se déplacer brièvement dans la matière (1 à 3 millimètres), perdant peu à peu son énergie cinétique jusqu'à sa Cognition & Motricité -28Yves Kerlirzin __________________________________________________________________________________________ rencontre (attraction par la charge négative) avec son antiparticule (ou son antimatière), l'électron. L'antimatière est une notion difficile à imaginer ou à se représenter. C'est le théoricien P.A.M. Dirac qui développa en 1928 une théorie selon laquelle, lorsque de la matière est créée, une quantité égale d'antimatière, dotée des propriétés exactement opposées, doit être crée en même temps. La plupart des antiparticules, comme l'antiproton et l'antineutron, n'existent pas à l'état naturel sur notre planète. L'antimatière est indispensable à certaines applications médicales pour lesquelles il est nécessaire d'employer des isotopes radioactifs. Un accélérateur de particules est nécessaire pour produire ces isotopes (une petite dose d'antimatière pourrait permettre de fabriquer les isotopes nécessaires sans accélérateur à condition toutefois que l'on puisse la transporter en toute sécurité). La durée de vie de la paire positon-électron est extrêmement brève. Lors de la rencontre de ces deux particules (particule-antiparticule, matière-antimatière) positon-électron, quel que soit l'endroit où elles se trouvent, un phénomène d'annihilation va se produire: le choc en résultant va entraîner l'émission de deux photons d'annihilation, partant dans des directions exactement opposées. Leur masse est transformée selon la formule E = mc 2 en une énergie constante (l'énergie de cette paire e+ , e- est conservée) en rayons gamma due à cette annihilation. Processus d'annihilation. Source http://www.cermep.fr/activite Le photon est un concept imaginé par Albert Einstein en 1905. C'est une énergie transportée sans support matériel, par un rayonnement électromagnétique de longueur d'onde définie. Plus la longueur d'onde est petite, plus l'énergie est grande. La matière reçoit et émet de l'énergie électromagnétique par paquets de valeur bien déterminée (ou quanta). Les photons sont donc ces sortes de paquets d'énergie élémentaires ou quanta de rayonnement électromagnétique qui sont échangés. "Grâce à cette énergie (511 kiloélectron volts), les photons traversent et quittent la tête à la vitesse de la lumière. Cognition & Motricité -29Yves Kerlirzin __________________________________________________________________________________________ Une caméra à positrons est constituée d'un dispositif formé d'un grand nombre de détecteurs de radiation disposés en couronne autour de la tête du sujet. Par un procédé automatisé commandé par ordinateur, les photons qui résultent de l'émission de positons atteignant chacun des détecteurs composés de (des cristaux scintillateurs, organiques, et émettant de la lumière au moment du choc du photon sur ce scintillateur) sont enregistrés. En plaçant deux détecteurs de radiations en opposition de chaque côté de l'événement d'annihilation, il est possible d'enregistrer un événement se produisant entre les deux détecteurs. En réalité, chaque détecteur dans une couronne est en coïncidence avec de multiples détecteurs opposés; ce qui augmente la possibilité de recueillir des informations. Les nombreuses couronnes améliorent l'efficacité de la détection (une simple couronne ne peut prendre en charge qu'une tranche de 1cm d'épaisseur). Les détecteurs sont couplés électroniquement de telle sorte qu'ils n'enregistrent un événement radioactif que lorsqu'ils sont atteints par les simultanément. Ce photons type d'annihilation de couplage électronique est connu sous le nom de fenêtre de coïncidence. Les collisions simultanées (événements) sont dénombrées et converties en une image du flux sanguin cérébral durant la minute d'acquisition. L'image est créée à partir des événements récoltés." La ballade des photons Source L'esprit en images Posner & Raichle, 1998 Ces images tridimensionnelles obtenues représentent la concentration en eau radioactive, variant de façon proportionnelle au débit sanguin cérébral. Il est ainsi possible d'établir des cartes du cerveau lorsque le sujet effectue des tâches particulières, par exemple cognitives. La Cognition & Motricité -30Yves Kerlirzin __________________________________________________________________________________________ question qui se pose alors, outre celle de mettre en évidence plus facilement la région activée sélectivement, est celle de savoir si les données recueillies correspondent bien aux variations dues à la réalisation de la tâche par le sujet. Ces images TEP de flux sanguin ont été obtenues (figure ci-dessus) chez un seul sujet lorsque celui-ci se reposait calmement les yeux fermés. Les enregistrements étaient constitués de 31 coupes horizontales prises à travers le cerveau, à partir de la coupe 1 au sommet du cerveau jusqu'à la coupe 31 à la base (figure de droite). La quantité de flux sanguin dans chaque partie du cerveau est représentée par les couleurs que l'on trouve sur l'échelle à droite de l'image. Les aires présentant un taux de flux sanguin maximal sont coloriées en blanc suivi des couleurs rouge et jaune. On voit clairement sur ces images que, même au repos, le flux sanguin est important dans le cortex (le bord extérieur du tissu cérébral) et dans différents noyaux situés en profondeur dans le cerveau, tandis que les aires profondes qui consistent en des fibres de connexions présentent relativement peu de flux sanguin, comme on peut le voir par les différentes nuances de bleu et de mauve. Source L'esprit en images M.I. Posner & M.E. Raichle, 1998. Cognition & Motricité -31Yves Kerlirzin __________________________________________________________________________________________ Il existe en effet au niveau du cerveau un débit sanguin cérébral de base correspondant aux besoins élémentaires de fonctionnement des différentes cellules nerveuses. Lors de l'exécution d'une tâche, ce débit va varier, se moduler et c'est cette variation qui doit être calculée. Pour cela, on utilise généralement un paradigme de différence, permettant de soustraire de la valeur observée lors de l'exécution de la tâche la valeur observée d'une tâche dite de référence, standard ou contrôle (lire à haute voix, par exemple). Certains auteurs parlent de soustraction pairée, mettant en jeu un paradigme expérimental fondé sur une complexité croissante de la tâche comportementale. On présente au sujet une série de tâches de complexité croissante, puis on soustrait la valeur du flux sanguin obtenue par la tâche la plus simple de celle obtenue par la tâche suivante, plus compliquée, etc. La rangée supérieure de ces images en TEP montre la soustraction de la condition contrôle (dans ce cas ici, le repos avec la simple fixation d'un point d'une condition expérimentale consistant à observer un damier oscillant positionné à 5.5 degrés du point de fixation). La soustraction produit une image quelque peu différente pour chaque sujet, comme on peut le voir sur la rangée du milieu. Ces images sont moyennées afin d'éliminer du bruit, ce qui produit l'image du dessous. Sources L'esprit en images M.I. Posner & M.E. Raichle, 1998. La figure ci-dessous montre un exemple résultant du paradigme expérimental habituellement utilisé dans l'approche de la TEP. Ce paradigme est hiérarchique dans la mesure où, à un premier Cognition & Motricité -32Yves Kerlirzin __________________________________________________________________________________________ niveau, pendant l'exécution de la tâche la plus simple, le sujet fixe un réticule (+) au centre d'un écran. A un deuxième niveau, une tâche visuelle consiste à présenter au sujet un nom commun qui apparaît sous le réticule, ou bien une tâche auditive qui consiste à faire entendre au sujet le même mot. Dans la situation auditive comme dans la situation visuelle, les sujets voient ou entendent les mots de façon passive. A un troisième niveau, le sujet doit prononcer le mot vu ou entendu. Enfin, à un quatrième niveau, le sujet doit donner un verbe qui décrit le nom commun vu ou entendu (par exemple, un marteau peut être utilisé pour frapper). Sources Neurosciences A la découverte du cerveau M. F. Bear, B.W. Connors & M.C. Paradisio. Editions Pradel, 2002. Lorsque le sujet regarde passivement les mots, la région la plus active se situe dans le cortex occipital (zone visuelle, pour mémoire). Lorsqu'il écoute passivement les mots, c'est la zone du cortex temporal qui est la plus active. La tâche de prononciation des mots active les régions motrices de la zone pariétale du cerveau. Enfin, la tâche qui consiste à générer des verbes associés aux mots suscite une activation du cortex frontal ainsi que la partie postérieure du cortex temporal. La TEP a ainsi permis de mettre en évidence une diversité de régions cérébrales impliquées dans le traitement neurobiologique du langage. Source Sources Neurosciences A la découverte du cerveau M. F. Bear, B.W. Connors & M.C. Paradisio. Editions Pradel, 2002. Intér êt m édical de l a Tomogr aph ie par émis sion de positons La recherche actuelle en Tomographie par Emission de Positons représente une aide très importante pour le diagnostic et l'évaluation. Son apport concerne de très nombreux domaines, que ce soit celui de la cancérologie (détection et localisation de tumeurs comme les cancers ORL, du poumon, du tube digestif, du sein, les lymphomes, les mélanomes, suivi des patients après Cognition & Motricité -33Yves Kerlirzin __________________________________________________________________________________________ l'application des traitement en oncologie. Elle utilise comme traceur radioactif un sucre analogue au glucose marqué au fluor 18, le 18F-FDG, déjà évoqué, dont la durée de vie peut aller environ de 15 à 110 mn. Les cellules cancéreuses présentent la particularité d’accroître leur consommation de glucose, le FDG s’y accumule donc préférentiellement., de la cardiologie (maladies coronariennes, hypertrophie ventriculaire), de la neuro-psychiatrie, le traitement de différentes pathologies (e.g. pathologies vasculaires cérébrales : "en cas d’accident vasculaire cérébral avec occlusion de l’artère, on peut mesurer instantanément la zone de diminution de circulation cérébrale dans le tissu touché et la consommation d’oxygène de ce tissu" -JC Baron), l'étude de maladies dégénératives comme les maladies de Parkinson et d'Alzheimer (possibilité de détection des premiers symptômes de démence par la mise en évidence d'un dysfonctionnement très localisé au niveau du cortex), (voir ppt), la neurobiologie du langage. Elle joue un rôle également dans le développement de l’innovation thérapeutique, le coût du développement de nouveaux médicaments (il a fallu par exemple huit ans et plusieurs milliers de patients pour fixer, par des méthodes conventionnelles la posologie et les doses limites d’un médicament contre la schizophrénie. Par tomographie par émission de positons, ces essais n’ont nécessité que onze patients et quelques jours pour aboutir à un résultat équivalent et même plus précis – source www.cea.fr), dans une meilleure connaissance des processus mis en jeu dans le métabolisme ou la pharmacocinétique des liaisons médicaments-récepteurs. Cependant, même si le TEP-scan est une méthode d'investigation très importante, elle n'en comporte pas moins certaines limites. En particulier, la résolution spatiale, de l'ordre de quelques (5 à 10 mm3 , de 4 à 8 mm selon les auteurs), reste faible, ce qui représente l'activité de plusieurs milliers de cellules. Par ailleurs, l'acquisition de données est relativement lente, de l'ordre de une à plusieurs minutes (90 secondes en moyenne) pour acquérir un seul scan. Cela, sans compter avec les radiations encourues par le sujet, même si la dose radioactive injectée demeure faible, limite le nombre d'examens qu'il est possible de mener sur un seul sujet dans une période de temps raisonnable. c2 ) L'imagerie par résonance magnétique C'est pourquoi peu à peu l'Imagerie par résonance magnétique (IRM) supplante la TEP. Mise au point dans les années 1970 (les premières images RMN ont été réalisées aux Etats -Unis en 1974 par Paul Lautebur sur un animal vivant), l'IRM ne nécessite pas l'utilisation de rayons X pour mener une analyse détaillée de l'organisation anatomo -fonctionnelle du cerveau. Il est désormais possible grâce à certains systèmes de réaliser des images avec une résolution temporelle allant jusqu'à 0,02 seconde. Cette technique utilise l'information fournie par la mise en résonance des Cognition & Motricité -34Yves Kerlirzin __________________________________________________________________________________________ atomes d'hydrogène soumis à un champ magnétique intense. Les signaux électromagnétiques correspondent à la perturbation du champ électromagnétique naturel émis par les atomes. Ils sont détectés par une série de capteurs et enregistrés par un ordinateur puissant qui va reconstruire le cerveau en trois dimensions. L'imagerie par résonance magnétique repose sur l'utilisation d'un électro aimant entourant le patient. Cet électro aimant est constitué de très nombreux fils hélicoïdaux (entre 20 et 30 km) supraconducteurs. A condition d'être placé dans des conditions de température très basses (par exemple, les fils hélicoïdaux sont disposés à 4.2° C au-dessus du zéro absolu, l’appareil est maintenu dans le vide et placé dans un réservoir rempli d’azote liquide), un supraconducteur n'oppose aucune résistance au passage d'un courant électrique . En d’autres termes, lorsqu’un courant électrique est introduit dans les fils, il n'y a donc aucune dissipation d'énergie par effet Joule, le courant se maintient à pleine vitesse pendant des années. L'IRM consiste à observer les tissus biologiques à travers les propriétés magnétiques de l'un de leurs constituants très majoritairement présent, le noyau d'hydrogène (par exemple, les molécules d'eau, représentant plus de 80% du poids du cerveau, contiennent deux atomes d'hydrogène). Dans la méthode la plus simple, l'IRM va donc en quelque sorte quantifier ces atomes d'hydrogène. La résonance magnétique utilise le magnétisme afin d'agir sur les atomes de l’organisme. Chaque noyau d'un atome possède des protons (e+ ) et des neutrons. Chaque proton possède son propre champ ou moment magnétique avec un pôle nord et un pôle sud (le proton se comporte comme une aiguille aimantée), et possède un mouvement propre de rotation autour de son axe (comme pour une toupie, spin en anglais) à une fréquence donnée dite fréquence de Larmor. L'unité S.I. de l'intensité d'un champ magnétique est le Tesla (Nikola TESLA était un Ingénieur américain, né à Smiljan, Croatie le 10 juillet 1856 et mort à New York City le 7 janvier 1943). Dans un champ magnétique comme celui classiquement utilisé en RMN (i.e. de 1;5 Tesla ou 15000 Gauss), la fréquence de Larmor d'un proton est de 63.87 MHz, ce qui correspond à 63.87 millions de rotations par seconde). Lorsqu’un patient est introduit dans l’appareil, la bobine haute fréquence émet des ondes radio, créant un champ magnétique qui va amener les protons de son organisme (et donc les spins des noyaux d'hydrogène) à s'orienter, à s'aligner dans la direction du champ magnétique (B0) de l’appareil, soit dans le même sens (majoritairement), soit en sens inverse. La somme algébrique de tous les spins n'étant plus nulle, il apparaît alors un moment magnétique résultant (M0) Cognition & Motricité -35Yves Kerlirzin __________________________________________________________________________________________ caractérisant en quelque sorte l'aimantation exercée en tous points du cerveau. Tout se passe en effet comme si le sujet était aimanté. D'après D. Dormont (Pitié Salpêtrière Paris). Source Line Garnero, Laboratoire de Neurosciences Cognitives & Imagerie Cérébrale CNRS UPR640, Centre de Magnétoencéphalographie Antenne de radio-fréquence dite "cage oiseau" entourant la tête du sujet et utilisée à la fois pour générer les impulsions de champ et pour recueillir le signal de résonance magnétique. Source http://www.inrp.fr/Acces/biotic/neuro/techniques/imagerie Mais il est difficile de calculer ce moment M0 car il est aligné sur B0 et de faible valeur comparée à B0 . L'idée est donc d'écarter ce moment de façon à pouvoir calculer par exemple sa composante perpendiculaire (Mxy ) par rapport à B0 . On utilise donc un champ magnétique B1 perpendiculaire à B0 qui va permettre d'écarter M0 en exerçant sur lui un moment de torsion (cf. figures ci-dessous). Source Line Garnero, Laboratoire de Neurosciences Cognitives & Imagerie Cérébrale CNRS UPR640, Centre de Magnétoencéphalographie. Cognition & Motricité -36Yves Kerlirzin __________________________________________________________________________________________ Cependant, pour que cette action soit efficace, il est nécessaire que le champ B1 tourne exactement à la même fréquence de rotation que les spins. C'est ce qu'on appelle le phénomène de résonance magnétique. Lorsque le champ B1 est coupé, il se produit ce qu'on alors une phase de relaxation (i.e. la reprise par les protons de leur orientation initiale). On mesure alors en chaque point des tissus analysés non pas l'aimantation résultante, mais en fait ce qu'on appelle la relaxation de cette aimantation. Cette relaxation répond à différents paramètres (T1, T2, T2*) et permet, selon ces paramètres, de produire des types d'images différents. La réorientation des protons libère de l’énergie qui génère un voltage détecté par un résonateur qui fait office de récepteur. Ce voltage est ensuite converti en signaux numériques qui forment la base des clichés RM. L'aimantation est proportionnelle à la quantité de noyaux d'hydrogène présents. La force des signaux émis par les différents tissus dépend notamment de leur composition chimique. La répartition différentielle de l'eau (et donc des noyaux d'hydrogène) dans ces tissus permet de dessiner une carte des aimantations résultantes reproduisant l'anatomie des tissus. Des anomalies comme les tumeurs, les lésions cérébrales s'accompagnent d'une augmentation de la proportion d'eau et produisent des signaux qui peuvent alors être différenciés des tissus cérébraux sains. On peut détecter par exemple une démyélinisation de la substance blanche, mais également localiser des tumeurs, des inflammations tissulaires. Imag erie p ar r éson ance magn étique f onctionnel l e Etat de Repos Etat d'Activation Phénomène physique à la base de l'IRMf (extrait de Scientific American, 270:41, 1994). L'IRMf a été développée dans les années 1990. Elle permet d'obtenir des variations du débit sanguin cérébral toutes les 5 secondes. L'IRMf fournit des images du cerveau beaucoup plus précises que la TEP et à un coût moindre. Elle est réellement non invasive puisqu'elle ne nécessite Cognition & Motricité -37Yves Kerlirzin __________________________________________________________________________________________ pas l'injection d'un traceur radioactif, mais endogène, le désoxy-Hb (i.e. de l'hémoglobine non porteuse d'oxygène) dont la concentration varie dans le sang. L'IRMf se fonde sur l'observation pratiquement en temps réel des modifications de signal liées aux variations d’oxygénation sanguine locale (méthode BOLD, Blood Oxygenation Level Dependent) lors de l'activation cérébrale. L'augmentation de l'activité neuronale d'une zone du cerveau entraîne au début une importante augmentation de son flux sanguin cérébral local associé à une augmentation (plus faible) de la consommation en oxygène. Ceci génère à ce moment une augmentation transitoire de la concentration veineuse locale en désoxy hémoglobine (désoxy-Hb). Puis le débit et le volume sanguin augmentent de façon plus marquée, provoquant l'afflux de globules rouges oxygénés et abaissant par conséquent la concentration relative en désoxy hémoglobine (effet ou signal BOLD). L'hémoglobine contient un atome de fer. Lorsqu'elle se trouve sous la forme de déoxyhémoglobine, la présence d'un atome de fer isolé (plus lié à l'oxygène) la rend paramagnétique, créant une petite homogénéité du champ magnétique. Ce paramagnétisme de la désoxyhémoglobine a pour conséquence de créer un phénomène dit de susceptibilité magnétique caractérisant son influence sur le champ magnétique local (en l'occurrence, la diminution du signal). La diminution de concentration en désoxyhémoglobine pendant l'activation cérébrale diminue ces effets de susceptibilité magnétique et on observe donc une augmentation localisée et faible (1 à 5 %) du signal dans la zone activée par rapport à l'état de repos. L'oxygène libéré au niveau des capillaires cérébraux, entraîne la réduction du fer qui se retrouve à l'état d'ion ferreux (Fe++), laissant deux électrons non appariés au sein de la molécule de déoxyhémoglobine. Ces électrons sont à l'origine du paramagnétisme de cette molécule et génèrent une modification (une inhomogénéité) du champ magnétique local. Cognition & Motricité -38Yves Kerlirzin __________________________________________________________________________________________ c3 ) L'électroencéphalographie Les méthodes précédemment évoquées nous permettent à la fois de mener sur les différentes localisations cérébrales des études descriptives mais également fonctionnelles. Cependant, elles ne rendent pas compte de la durée de ces activités, pas plus que de l'activité – l'excitation neuronale (ceci étant du principalement à la rapidité des communications inter neuronales, de l'ordre d'1 milliseconde, et au temps nécessaire avec ces techniques, d'une quarantaine de secondes, pour obtenir et enregistrer des modifications du flux sanguin). On utilise donc d'autres moyens, comme l'enregistrement des phénomènes électriques ou magnétiques permettant de recueillir les bouffées d'activité neuronales et de les retranscrire graphiquement. Ceci a été rendu possible par l'utilisation de l'électroencéphalographie. Cette technique date de la première partie du XXè siècle. (en fait, on peut situer l'origine de l'électroencéphalographie à la fin du XIXè par la découverte, chez l'animal, de variations électriques provenant du cerveau, Caton, 1875). Le terme électroencéphalographie fut proposé en 1929 par Hans Berger, un neuropsychiatre allemand. Berger a été le premier a enregistrer l'activité électrique globale du cerveau humain (1924-1929). Il a montré qu'il était possible de réaliser des enregistrements de l'activité électrique cérébrale à travers la boîte crânienne. En effet, quelle que soit l'activité à laquelle se livre le sujet, son cerveau humain est le siège d’une activité spontanée biochimique et électrique, reflet de l'activité neuronale. Cette activité électrique neuronale globale et continue peut être recueillie en surface par de très nombreuses électrodes situées à différents endroits sur le scalp du sujet. Le détecteur est une cupule métallique (de l'argent par exemple) fixée sur le scalp du sujet par une patte conductrice. Le contact électrique est assuré par l’introduction d’un gel conducteur entre l’électrode et le cuir chevelu. Ces électrodes sont réparties soit selon une disposition internationaux, Hans BERGER (1873-1941) soit correspondant différemment à selon des le standards but de l'expérimentation. Le nombre d'électrodes est donc variable. La plupart du temps, le bonnet porté par le sujet en comporte 32 ou 64, auxquelles s'ajoutent plusieurs électrodes dites de référence, disposées en des lieux où le signal cérébral n'apparaît pas, et dont on retranchera la valeur afin de tenir compte d'enregistrements extra cérébraux (précaution méthodologique de traitement de signal). Les potentiels mesurés en EEG peuvent être générés soit par les courants pré synaptiques, associés aux potentiels d'action, soit par les courants associés aux potentiels post-synaptiques Cognition & Motricité -39Yves Kerlirzin __________________________________________________________________________________________ (PPSI et PPSE), soit par une combinaison des deux. En fait, la plupart du temps, les signaux physiologiques recueillis en EEG (et en MEG) proviennent des potentiels post-synaptiques, beaucoup plus persistants que les potentiels d'action. Les courants recueillis sont surtout ceux générés au niveau des dendrites des neurones pyramidaux que l’on retrouve massivement dans le cortex. En EEG, le signal recueilli est très faible, il n'est pas possible de mesurer les courants générés par une seule cellule. On enregistre donc généralement le courant produit par un ensemble de cellules, en considérant que le signal récupéré représente la somme des signaux produits par différents groupes neuronaux. L'électroencéphalogramme standard est enregistré chez le patient éveillé, autant que possible au repos, détendu. Casque géodésique pour un enregistrement EEG Les fréquences caractérisant l'activité cérébrale recouvrent une plage s'étendant de 0.25 Hz à 64 Hz (pour mémoire, une fréquence de 1 hertz correspond à une réponse ou une excitation par seconde). Selon l'état de conscience du sujet, les fréquences observées seront différentes. L'onde ou rythme alpha, découvert par Berger en 1924 (il porte parfois son nom), est constitué d'ondes régulières dont la fréquence varie de 8 à 13 Hz 12 Hz et l'amplitude de 25 à 100 mV. Ce rythme est recueilli avec une prédominance occipitale bilatérale et s'étend plus ou moins largement vers les régions antérieures. Il caractérise un sujet alerte, en situation confortable, sans traitement actif de l’information, par exemple, avec parfois les yeux clos. Le rythme alpha, élément dominant du tracé de veille, disparaît au cours de la somnolence ou du précoma, comme d'ailleurs lors des réactions d'attention ou d'orientation (accroissement de la vigilance). Le sujet alerte, attentif, les yeux ouverts, traitant activement de l’information, fonctionne sur un rythme bêta, rythme d'éveil caractérisé par des fréquences élevées (de 13 à 30 Hz). La fermeture des yeux ralentit ce rythme (on se dirige vers un rythme alpha), leur ouverture fait disparaître à nouveau le rythme alpha.). Ces rythmes bêta sont surtout visibles au niveau des régions fronto-rolandiques. Cognition & Motricité -40Yves Kerlirzin __________________________________________________________________________________________ Les rythmes thêta ont une fréquence de 4 à 7 Hz, correspondant à la phase du sommeil léger. Physiologiques chez l'enfant, ils peuvent traduire une souffrance corticale discrète, ou une souffrance sous-corticale (thalamique par exemple). Sont le signe de l'activité limbique (mémoire et émotions). Enfin, les rythmes du sommeil profond, les ondes delta, présentent des fréquences se répartissant entre 0.5 et 4 Hz, avec de grandes amplitudes (jusqu'à 200 µV) . Ces ondes prennent un caractère pathologique chez l'adulte éveillé. Leur ralentissement (elles peuvent progressivement descendre jusqu'à jusqu'à ½ Hz ou même 1/3 d'Hz) et permettent de suivre l'évolution d'une souffrance cérébrale. La poursuite de ce ralentissement peut aboutir à l'absence de signal décelable, signant ainsi l'apparition de la mort cérébrale (formule commune, un encéphalogramme plat). Cette méthodologie exploratoire électroencéphalographique a permis d'obtenir des informations très précises sur l'activité cérébrale en temps réel par la technique des potentiels évoqués. Elle permet de repérer les changements brusques de l'activité électrique cérébrale dans des zones identifiées par exemple par la TEP. Ainsi, si l'on demande à un sujet de traite r un mot et de penser à un verbe associé à ce mot (e.g. marteau et frapper), le cortex frontal est activé après un délai de 200 ms, tandis que le cortex temporal est activé après un délai de 700 ms. Cette signature électroencéphalographique particulière permet de relier différentes fonctions cognitives ou motrices à des patrons caractéristiques d'activité neuronale. Il faut cependant garder à l'esprit que, comme pour la MEG, l'activation simultanée de plusieurs sources rend parfois difficile ou non linéaire leur localisation. Par ailleurs, dans ces expérimentations, la faible sensibilité du signal recueilli (il est systématiquement amplifié) nécessite un grand nombre de répétitions. La cellule (ou plutôt la région, la population de cellules) est stimulée de nombreuses fois. On considère ainsi généralement que le nombre de stimulations nécessaire pour un traitement perceptif est de 50 stimuli par condition et de 100 stimuli par condition pour un traitement cognitif. Les variations de potentiels recueillies sur le scalp, chez l'homme, résultent de l'activité synchrone et sommée de nombreuses populations de neurones (un signal ne peut être observé en EEG, comme en MEG, que si environ un million de synapses sont activées simultanément) . La sommation des enregistrements des réponses aux stimulations permet de donner une image moyenne assez précise de la réponse du (des) neurone(s) et des variations de cette réponse à la stimulation. Néanmoins, ces potentiels évoqués cognitifs reposent sur l’hypothèse de l'existence d'une relation quasi linéaire entre le stimulus et la réponse, mettant de côté la question de l'apprentissage de la réponse au cours des répétitions. Se pose donc alors le problème de la fiabilité de cette réponse moyenne d'un grand nombre d'enregistrements. Cognition & Motricité -41Yves Kerlirzin __________________________________________________________________________________________ c4 ) La magnétoencéphalographie Schéma du dispositif de capteurs. On y voit Une photographie de l’intérieur du l’emplacement des gradiomètres et le réservoir à casque(CTF Systems Inc., Vancouver, Canada). Hélium liquide garantissant le refroidissement des Source http://sipi.usc.edu/~silvin/docs SQUIDs. Source http://sipi.usc.edu/~silvin/docs L’appareil de magnétoencéphalographie de l’hôpital de la Salpêtrière.151 canaux MEG, 64 EEG simultanés, Chambre blindée assurant l’isolation électromagnétique & phonique fréquence d’échantillonnage : 2kHz Une autre technique proche de l’EEG est la magnétoencéphalographie (MEG), que nous évoquerons brièvement. Comme l’EEG, la MEG enregistre les excitations neuronales du cerveau. La communication de ces cellules du cerveau s'effectue grâce à de minuscules impulsions électriques qui s'accompagnent, comme n'importe quel courant, de champs magnétiques. Les sources électrophysiologiques demeurent donc les mêmes, mais l'avantage de l'utilisation des champs magnétiques, malgré leur valeur très faible (10-15 Teslas) , est une moindre déformation des lignes de courant entre des tissus présentant des propriétés de conduction différentes (e.g. la peau et les os), ce qui permet d'obtenir au niveau du scalp des images moins diffuses. Ce sont les variations de c es champs magnétiques extrêmement faibles (10 milliards de fois plus faibles Cognition & Motricité -42Yves Kerlirzin __________________________________________________________________________________________ fois celui de la Terre), dues aux courants intra et extra cellulaires traversant le magnétomètre, qui vont être détectés, recueillis et amplifiés à l'extérieur de la tête du sujet par des capteurs très sensibles comme le SQUID (Superconducting QUantum Interference Device). Comme pour l'IMGf, le système repose sur l'utilisation de supraconducteurs, i.e. ne présentant pas de résistance au passage du signal (avec donc les mêmes contraintes, l'existence d'une enceinte cryogénique). c4 ) Bilan et conclusion Signal TEP IRMf EEG MEG Source Débit sanguin Désoxyhémoglobine PPS PPS Capillaires veinules Dendrites Dendrites Photons gamma Signal Champ électrique magnétique cérébral Lieu Capillaires artériels Type Résolution Radio activité 5mm 3 mm >6mm >6mm 8mn 1 à 6s 1ms 1ms 90s 1 à 6s 1ms 1ms spatiale Résolution temporelle Intégration temporelle Il est possible de mener une comparaison des principales techniques d'imagerie cérébrale précédemment évoquées. C'est là le but des tableaux supra. Il montrent chacun en ce qui les concerne que chaque technique possède des caractères spécifiques (apports et limites). On peut séparer ces techniques en deux familles, la première comprenant les méthodes mesurant de façon indirecte les effets de l'activation cérébrale comme la TEP, l'IRMf, la seconde comprenant les méthodes permettant seules de rendre compte en temps réel de l'activité cérébrale, comme l'EEG et la MEG. Ces techniques n'apparaissent pas en concurrence, l'intérêt commun, à la fois médical et expérimental, étant bien évidemment de tenter de coupler, d'intégrer leurs différents apports (par exemple, comme cela se déroule à l'heure actuelle par exemple par le couplage entre les techniques hémodynamiques et électromagnétiques). Cognition & Motricité -43Yves Kerlirzin __________________________________________________________________________________________ Computed tomography (CT scan) Apports Limites Sujets sains et pathologiques Localisation parfois peu précise Relativement non invasif Très onéreux Image structurelle Tomographie à émission de positons (TEP) Apports Limites Sujets sains et pathologiques Invasif (radioactivité) Résolution spatiale élevée Résolution temporelle très faible (5 min) Images en 3D Très onéreux (nécessité d'un accélérateur de Corrélation avec la tâche particules type cyclotron) Peu de sujets Imagerie par Résonance Magnétique Fonctionnelle (IRMf) Apports Limites Sujets sains et pathologiques Résolution temporelle très faible (250 ms) Non invasive Difficile pour les sujets (Claustrophobie) Résolution spatiale très élevée (1mm) Très onéreux Images en 3D Parfois Artefacts provenant du placement de Corrélation avec la tâche la tête, d'effets transitoires du scan, etc. Moins onéreux que la TEP Liaison structure/fonction Electroencéphalographie (EEG) Apports Limites Sujets sains et pathologiques Localisation parfois peu précise Non invasif Nombre très important de neurones Résolution temporelle élevée (1 ms) Signal très faible Peu coûteuse, temps réel, portable Artefacts Magnétoencéphalographie (MEG) Apports Limites Sujets sains et pathologiques Localisation parfois peu précise Non invasif Sujets nécessairement immobiles Résolution temporelle élevée Très onéreux, chambre protégée Meilleure localisation que l'EEG Cognition & Motricité -44Yves Kerlirzin __________________________________________________________________________________________ III- L'a tten tion Introduction, déf initions L'individu est en relation permanente avec son environnement et construit progressivement sa connaissance de cet environnement grâce à une acti vité perceptive et attentionnelle constante. L'attention est un facteur essentiel de l'adaptation de l'homme à son environnement. La perception utilise nos sensations, nos différentes modalités sensorielles. Cependant, dans les processus perceptifs et attentionnels, seule une partie de ces différentes informations est enregistrée et utilisée. C'est cette partie sur laquelle se focalise notre attention et dont nous prenons conscience. L'attention peut se définir comme la capacité à sélectionner les informations, de façon plus ou moins marquée (on distingue habituellement une attention sélective et une attention partagée – nous y reviendrons). Pour James (1890), l’attention "c’est quand l’esprit prend possession, sous une forme vive et claire, d’un objet ou d’une pensée parmi ceux qui se présentent simultanément. Focalisation, concentration de la conscience lui sont essentiels. Ceci implique de se retirer de certaines choses pour en traiter d'autres effectivement." Comme nous le précisent les illustrations ci-dessous, attention est un terme polysémique. Cela s'explique aisément si l'on fait référence à sa racine étymologique. Attention est un emprunt (1536) au latin attentio, dérivé supin du verbe attendere, au sens du latin classique tendre l'esprit vers. On trouve ainsi et l'on utilise quotidiennement par extension les expressions prêter attention à, être l'objet d'attention(s), faire attention (souci de la préservation de l'intégrité physique du sujet), attention perçue comme un avertissement. Dans le domaine des activités physiques et sportives, l'activité perceptive et la mise en jeu des processus attentionnels sont permanentes. L'attention visuelle, son orientation apparaissent déterminantes dans l'organisation du pratiquant, et ce plus particulièrement dans des activités de type ouvert, mettant en jeu un degré élevé d'incertitude. Tout le plaisir de certaines activités d'opposition peut d'ailleurs être envisagé comme la capacité à orienter l'attention de son adversaire en un lieu ou sur un événement particulier de façon à le leurrer et à l'empêcher ainsi de développer des stratégies de gain de l'opposition. On peut ainsi formuler l'hypothèse que le champion est celui qui sait focaliser son attention sur l'information pertinente, possède les ressources lui permettant de maintenir cette attention sans se laisser distraire par les leurres ou feintes produits par son adversaire ou par les actions sonores ou visuelles de ses supporters. Cognition & Motricité -45Yves Kerlirzin __________________________________________________________________________________________ Différentes acceptions du terme attention focalisation sur (écoute, un point particulier, être l'objet de, avertissement ou prévention). L'attention apparaît ainsi dès le départ comme un processus volontaire d'allocation de différentes ressources psychologiques, cognitives, mentales, mnésiques. C'est une tension (au sens de tendre vers) de l'esprit vers un objet, un effort développé par le sujet dans la perception et le traitement le plus efficient possible d'un signal. On peut également définir l'attention focalisée comme un processus d'exclusion, certains signaux étant privilégiés au détriment d'autres ignorés ou exclus. A - A ttention et vigil ance On le voit, un certain nombre de termes traduisant différents processus et phénomènes sont liés à cette notion d'attention. Evoquer l'aspect volontaire du processus attentionnel nous rappelle l'ambiguïté de ce terme. On assimile très souvent la notion d'attention et l'idée de vigilance. Il existe en effet un lien direct entre attention et vigilance. Celle-ci, comme l'attention soutenue, implique chez le sujet la capacité à maintenir à un niveau élevé (maximal ou optimal selon l'état du sujet) une attention focalisée pendant un intervalle de temps déterminé. La vigilance répond cependant à une définition plus restrictive par rapport à l'attention. Elle peut Cognition & Motricité -46Yves Kerlirzin __________________________________________________________________________________________ être comprise comme une préparation de l'organisme à détecter et à répondre à des changements se produisant dans l'environnement de façon hypothétique ou à des intervalles la plupart du temps irréguliers. Quel que soit le domaine (monde du travail, pratique sportive, etc.) dans lequel elle s'exprime, la performance réalisée par le sujet est due en partie à l'état de vigilance du sujet, état physiologique qui dépend du niveau d'activation du système nerveux central. La vigilance est liée à la notion d’éveil. Etre vigilant, c'est savoir lutter contre la fatigue, l'assoupissement, le relâchement, contre toute distraction. Sa baisse momentanée peut se traduire par le bâillement qui joue probablement un rôle dans le maintien de cette vigilance. Des expériences ont été menées chez les rats par Ikuko Sato -Suzuki et son équipe (Tokyo) et ont montré que l'injection d'hypocrétine (hormone liée à la régulation du sommeil et de la prise alimentaire) dans le noyau paraventriculaire de l'hypothalamus, déclenchait des bâillements accompagnant une élévation du niveau de vigilance de l'animal (Walusinski, 2003). (La formation réticulaire qui s’étend depuis le bulbe rachidien jusqu’à l’hypothalamus joue un rôle central dans la régulation de la vigilance). Il existe une relation forte entre la qualité de l'éveil (ou de la vigilance, si l'on accepte cette linéarité), c'est-à-dire la mise en jeu d'une activation particulière des processus attentionnels et la performance produite par le sujet. La loi de Yerkes-Dodson (dénommée ainsi à la suite des travaux de ces chercheurs, R.M. Yerkes et J.D. Dodson, en 1908) rend compte des conditions dans lesquelles la meilleure performance est réalisée. Ces chercheurs ont montré que des chocs électriques de faible intensité délivrés à des souris après production d'une réponse incorrecte favorisaient un apprentissage discriminatif. Ces chocs contribueraient, si leur intensité n'est pas trop élevée, à l'élévation du niveau d'activation cérébrale, favorisant ainsi l'efficience du traitement des informations. Par contre, des chocs plus importants ralentissent au contraire ces apprentissages. Hebb a repris ces travaux en 1955 en montrant que cette loi d'optimum ou d'activation optimale observait une forme en U inversé, reliant le niveau d'éveil (arousal) à la fonction informative des stimuli. La relation entre éveil et performance n'est pas linéaire mais curvilinéaire. Ceci nous rappelle qu'à partir d'un certain seuil, les performances ne sont Courbe en U inversé Source : R.A. Schmidt & T.D. Lee, 1999 plus perturbées. favorisées mais au contraire Cognition & Motricité -47Yves Kerlirzin __________________________________________________________________________________________ Il existe donc des seuils d’activation intermédiaire qui en permettent l'expression optimale. (Pour mémoire, dans le cadre de ces théories de l'activation sous-tendue par une courbe en U inversé – la théorie de l'activation a été proposée par Lindsley en 1951 -, il est possible de remplacer le terme d'éveil par celui de motivation). Cette notion de vigilance (terme utilisé par Henry Head, neurologue anglais) est tout à fait centrale dans l'exercice de certaines professions. Il en est ainsi par exemple de la profession de contrôleur aérien. Celle-ci sollicite les fonctions cognitives d’attention sélective, d'attention soutenue, de mémoire. Elle nécessite le traite ment de nombreuses informations de différentes natures et impose de prendre rapidement et précisément des décisions qui peuvent s'avérer vitales la plupart du temps. Il existe donc des variations du niveau de vigilance. Ceci peut-être imputé au moment de la période d'observation par le sujet (on constate dans ces tâches correspondant à l'observation d'un seul phénomène, une diminution du taux de détection des cibles durant une période d'au moins une demi-heure, alors que le taux de cibles détectées au début de la période vigile est proche de 100 %), au moment de la journée, à l'état du sujet, à la charge mnésique. Ce déclin (ou décrément) de vigilance d'un observateur a fait l'objet de nombreuses expériences, avec évidement l'idée de mieux comprendre les processus mis en jeu et de proposer un traitement ou une formation appropriés. L'une des premières et des plus communément évoquées est celle menée par Norman H. Mackworth en 1948 et connue sous le nom de test de l'horloge. Un certain nombre d'études menées durant la seconde guerre mondiale avaient permis de montrer de montrer que la vigilance des observateurs radars baissait de façon très significative après 30 minutes d'observation continue. Le test de l'horloge consiste pour le sujet à repérer sur une longue période (durée du test = 2 h), le nombre de fois où l'aiguille (elle parcourt le cadran en 100 secondes), au lieu de se déplacer d'un cran (0,3 pouce) toutes les secondes, se déplace de deux crans (0,6 pouce) à la fois. Ce signal intervient de façon irrégulière (aléatoire), à des intervalles variant entre 45 secondes et 10 minutes, et ce 12 fois sur une période de 30 minutes. Cette période était répétée 4 fois. L'expérimentateur note dans ce test le nombre de détections exactes du signal, ou bien encore le nombre de fausses alarmes (le sujet pense que le signal est survenu alors qu'il n'y a eu aucun changement) ou d'omissions (le sujet n'a pas vu le saut plus important de l'aiguille) ou bien enfin le temps de réaction du sujet. Les résultats confirment l'existence d'une relation linéaire forte entre le niveau de vigilance et la qualité de l'éveil (celui-ci étant comme nous l'avons Cognition & Motricité -48Yves Kerlirzin __________________________________________________________________________________________ brièvement évoqué précédemment dépendant de plusieurs facteurs). Un niveau élevé d'éveil permet de meilleures détections. Ils montrent par ailleurs un déclin progressif mais relativement limité de la détection correcte du phénomène (83% durant la première demi heure, puis 73, 73 et 72% au cours des trois autres demi heures) en fonction de la durée de l'épreuve. Ce test est intéressant car il permet de mettre en évidence ce processus décrémentiel de la vigilance. Il demeure cependant limité dans la mesure où il ne travaille que sur une dimension et n'offre donc qu'une explication ou une élucidation partielle par rapport à la complexité et à la multidimensionnalité des processus mis en jeu. De façon claire, cela signifie que dans un certain nombre de situations parfois plus complexes il est vrai, une diminution des détections n'implique pas nécessairement un plus bas niveau d'éveil. En effet, d'autres aspects doivent être pris en compte, comme le critère de décision (de détection du signal) que se fixe le sujet. Nous abordons ici un autre aspect qui entre dans le cadre de la théorie de la détection du signal. B- Dé tection e t discrimination d'un signal L'idée de détection va de pair avec la notion de seuil, qui peut être défini comme la limite de perception d'une stimulation (Bonnet, 1986). Un seuil absolu permet d'établir une distinction nette : au dessous de la valeur définissant ce seuil absolu, le sujet ne détecte pas de stimulus. L'expérimentation classique en audition pour la détermination de ce seuil absolu est connue sous le nom de méthode des limites. Elle consiste à présenter au sujet un signal sonore de hauteur (fréquence) constante d'abord inaudible puis progressivement audible. On note à quel moment (quelle intensité) le sujet entend ce signal (méthode dite des séries ascendantes). Puis on agit de la même façon de avec des séries descendantes (audible à inaudible). Cette méthode présente cependant des limites (il arrive que les seuils trouvés lors des séries ascendantes ne correspondent pas aux seuils trouvés lors des séries descendantes) dues notamment à ce qu'on appelle chez l'erreur de persévération du sujet. Un seuil n'est pas toujours absolu, il peut également permettre d'identifier, de caractériser, de discriminer la variation de l'intensité d'un stimulus. Nous nous situons alors dans le cadre d'un seuil différentiel. Le seuil différentiel est la plus petite variation ?I d'un stimulus d'intensité I qui est juste perceptible par le sujet. Ce seuil différentiel est une fonction linéaire de l'intensité appliquée. ?I = k x I ou ?I/I = k. C'est sous cette dernière forme que la loi de Weber est la plus connue, celle de la constance de la fraction différentielle ?I/I quel que soit le niveau d'intensité du stimulus (dans le domaine des modalités sensorielles, cette fraction prend des valeurs très différentes - de 5 à 30% selon la modalité). Cognition & Motricité -49Yves Kerlirzin __________________________________________________________________________________________ C- Th éorie de l a dé tection du signal et pr atique s porti ve La détection et la décision sont deux facteurs qui jouent un rôle déterminant dans la prise de décision du sujet en situation, notamment dans le cadre d'une pratique physique compétitive. Pour la plupart des activités sportives, l'optimisation de la performance du pratiquant dépend de sa capacité à mobiliser un certain nombre de facteurs : efficacité de la prise d'information, sélection de la stratégie motrice la mieux adaptée, etc. Parmi ces facteurs, la lecture de l'événement (et son influence sur l'activité décisionnelle) revêt un caractère particulièrement important dans l'optimisation de la performance. La notion de prise de décision est centrale, la connaissance des déterminants du comportement présente un grand intérêt, tant pour l'entraîneur que pour le pratiquant. La prise de décision en sport ne s'effectue pas par hasard. Elle est le fruit d'une activité d'analyse et de compréhension de la situation par l'athlète. Le gain de l'affrontement sportif ne dépend pas lui non plus du hasard, mais de l'habileté à prendre l'adversaire en défaut et à déjouer ses projets. Pour le pratiquant de savate boxe française ou de kendo par exemple, cela implique la gestion d'un certain nombre de Source : club Charleroi contraintes : identification des techniques qui lui sont portées (réellement ou non) par l'adversaire, rapidité à déceler chez ce dernier des ouvertures (c'est-àdire une attitude posturale plaçant très brièvement le plus souvent cet adversaire en état d'infériorité manifeste : par exemple, l'opposant baisse ou ouvre sa garde, ne se protégeant plus ainsi de façon efficace). Chacun des protagonistes doit produire de l'incertitude tout en s'attachant à recueillir le maximum d'informations pertinentes, c'est-à-dire en réduisant l'incertitude que son adversaire applique à la situation. En savate boxe française, en kendo, l'athlète doit donc fonctionner sur des ajustements constants. Il doit s'adapter aux feintes ou aux coups portés par son adversaire, à la distance de garde (distance optimale de frappe entre les deux boxeurs), etc. La proximité des protagonistes explique la rapidité avec laquelle le tireur doit lire l'événement et prendre une décision juste. Travaillant sous pression temporelle le plus souvent (i.e. temps disponible/temps nécessaire), il s'avère déterminant pour lui de procéder à une bonne lecture événementielle. Celle-ci repose sur la détection précoce d'indices pertinents lui permettant de prévoir, avec un pourcentage faible d'erreur, quel coup va lui être porté. Dans les pratiques d'opposition, les indices et les signaux n'existent pas en tant que tels. Ils ne prennent leur signification que par rapport aux Cognition & Motricité -50Yves Kerlirzin __________________________________________________________________________________________ caractéristiques de la situation au sein de laquelle ils s'inscrivent. En savate boxe française comme en kendo (ou d'autres activités physiques et sportives), ces caractéristiques concernent une quantité d'incertitude et une pression temporelle élevées. Par ailleurs, si ce décodage c'est-à-dire l'identification des événements, permet au tireur de répondre de façon juste, appropriée, il peut lui permettre d'initier plus tôt sa réponse (qu'elle soit de type offensif ou défensif), c'est-à-dire de travailler en anticipation (anticiper, c'est donner tout ou partie de la réponse à un signal avant l'apparition de ce signal, c'est déclencher une action motrice avant que l'événement auquel cette action doit répondre ne se soit produit). L'anticipation implique donc une prédiction, de type événementiel ou temporel, et c'est l'interaction de ces deux dimensions qui va déterminer l'efficacité de la réponse donnée. Ce qui est à la base de l'anticipation est la signification accordée aux indices. Il semble acquis qu'en fonction de l'expérience, on assiste à une capacité plus élevée chez les sujets expérimentés à la fois à prélever les indices et à leur associer une signification L'étude de la conduite de prise de décision des joueurs de raquette (squash, tennis, badminton, etc.) par exemple a permis de mettre en évidence chez les joueurs l'existence de stratégies particulières destinées à rendre leur conduite plus efficiente. Ces stratégies se fondent sur la probabilité accordée à tel ou tel événement pour qu'il se produise, plutôt que tel ou tel autre. Enfin, dans le gain du match, intervient la valeur de la décision (par exemple sur l'intérêt de la prise de risque à un moment donné) prise par l'athlète. Celle-ci peut dépendre du moment de la rencontre, du score. Tout ce qui précède nous rappelle la complexité de la situation sportive et l'importance d'une bonne détection sur la bonne prise de décision en sport. L'efficacité de l'athlète dépend de sa capacité à traiter un nombre élevé d'informations qui possèdent parfois un statut ambigu. Confronté à la fiabilité des indices produits par son adversaire, il doit prendre la décision juste et exécuter sa réponse avec le maximum de précision le plus rapidement possible (il doit gérer au mieux le conflit vitesse-précision). La métaphore indices pertinents assimilés à des "signaux" opposés aux indices non pertinents assimilés à des "bruits" est inspirée de la théorie de la détection du signal. Cette métaphore, de même que le modèle général de cette théorie, a été fréquemment utilisée pour décrire les opérations mentales élaborées dans les activités sportives. Ces activités proposent à la lecture des acteurs des événements qui peuvent être assimilés à des "signaux", par opposition aux "bruits" provoqués par l'adversaire en vue de masquer ou d'atténuer ces signaux. Ceci permet d'assimiler ces situations à des situations classiques, étudiées en laboratoire, de détection de signal. Cognition & Motricité -51Yves Kerlirzin __________________________________________________________________________________________ Elaborée dans le cadre strict des transmissions (s'attachant à la détection de stimuli sonores et visuels), la théorie proposée par Tanner et Swets (1954) cherche à mettre en évidence les opérations de détection du signal dans ce domaine particulier. Elle propose une distinction explicite entre ce que perçoit le sujet, c'est-à -dire ce qui relève de sa sensibilité et peut être attribué à la qualité de traitement des capteurs sensoriels (il perçoit plus ou moins bien), et ce qui relève de l'effet produit sur ses réponses par ses valeurs et ses attentes, c'est-à -dire sa décision (une stratégie singulière mise en œuvre en fonction de l'interprétation par le sujet de la situation). En d'autres termes, comme le précise Nougier (1989), "des effets de sensibilité peuvent avoir une origine attentionnelle, tandis que des effets de stratégie relèvent par nature d'un choix tactique, indépendant des processus attentionnels". Cette théorie conçue pour la détection de signaux faibles sur fond de "bruit" (c'est-à-dire ce qui fausse ou masque la perception du signal) peut, par extension, s'appliquer à n'importe quelle situation où l'information sensorielle d'entrée est ambiguë. Le sujet "se comporte comme un statisticien en se demandant si l'observation qu'il vient de faire est plus représentative de la présence à détecter ou du bruit qui l'accompagne" (Tiberghien, 1984). Modèle de la Théorie de la détection du signal. Chaque secteur représenté ici traduit les réponses du sujet : p(s/S = probabilité conditionnelle pour que le sujet réponde signal (s) alors que le signal (S) est présenté, etc. Source Claude Bonnet (cours) Les bruits et les signaux, qui représentent l'ensemble des événements possibles, sont distribués sur deux courbes normales, possédant la même dispersion, mais avec des moyennes différentes. Les deux critères de la performance sont l'indice d' et l'indice ß. L'indice d', Cognition & Motricité -52Yves Kerlirzin __________________________________________________________________________________________ considéré comme un indice de discrimination, traduit la sensibilité perceptive du sujet, rend compte du rapport signal/bruit. Plus le sujet est sensible (ou mieux il discrimine), plus l'écart entre les deux courbes sera faible. La sensibilité se mesure en unités d'écart-type, elle traduit la distance entre les moyennes de chaque distribution. Plus d' est grand, plus la détection est aisée. L'indice ß traduit la position du critère de décision, reflétant la stratégie adoptée par le sujet. Selon la position de ce critère, le sujet estime vraisemblable ou non que l'événement détecté appartienne à la distribution du bruit ou à la distribution du signal. Il établit ainsi un rapport de confiance ou de vraisemblance (likehood) sur lequel il peut bâtir sa décision. La position de ce critère permet ainsi de voir si le sujet préfère opter pour des réponses négatives plutôt que pour des réponses positives en cas d'incertitude ou, exprimé d'une façon différente, s'il choisit pour la même sensibilité de minimiser les fausses alarmes (préférant augmenter les omissions) ou les omissions (préférant augmenter les fausses alarmes). Ce paradigme expérimental permet de mener une analyse plus fine que l'utilisation de la méthode des seuils absolus par exemple ou le seul recueil du nombre de bonnes réponses ou d'erreurs. SIGNAL Présent OUI Détection correcte REPONSE NON Omission Absent Fausse alarme Rejet correct Matrice stimulus-réponse pour une procédure "Oui/Non" en détection du signal. D'après Bonnet, 1986. Chaque situation expérimentale possède ainsi quatre issues possibles : - soit une détection correcte (hit) : répondre oui quand le signal est présent - soit une omission (miss) : répondre non quand le signal est présent - soit une fausse alarme (false alarm) : répondre oui en l'absence de signal - soit un rejet correct (correct rejection) : répondre non en l'absence de signal. Cognition & Motricité -53Yves Kerlirzin __________________________________________________________________________________________ Cette présentation de la théorie de la détection du signal, évidemment très simplifiée, se propose simplement, dans le cadre de l'étude des processus attentionnels et des opérations de détection et de discrimination qui l'accompagnent, de montrer l'utilité d'une telle approche dans l'étude des facteurs explicatifs sous-tendant le développement de stratégies décisionnels chez les pratiquants. C'est un modèle général qui a été fréquemment utilisé dans des domaines d'étude plus complexes que les domaines initiaux, ce qui n'est pas sans poser de nombreux problèmes. Abernethy (1985) souligne notamment que la nature très statistique de ce modèle le rend impropre à rendre compte des phénomènes psychologiques très complexes et risque de rendre vaine toute tentative de généralisation. Autre repr ésentation du modèle de la Théorie de la détection du signal, avec la séparation de chaque secteur correspondant à chacune des réponses possibles. Tout événement situé à droite du critère de décision ß correspond à une réponse positive, tout événement situé à gauche de ce critère amène une réponse négative. Source Claude Bonnet. (cours) Cependant, l'économie générale de ce modèle fournit des moyens d'analyse de la performance du sportif tout à fait pertinents. Nous l'avons nous-mêmes utilisé voici quelques années (1990) dans le cadre d'une étude portant sur le traitement des informations visuelles et la prise de décision en boxe française. Cette expérimentation avait pour objectif, outre l'enregistrement du comportement exploratoire visuel, de calculer les temps de réaction (TR) des sujets et de mesurer à la fois les capacités de ces sujets à détecter/identifier un événement et à prendre une décision par rapport à cet événement. Nous avons utilisé pour cela certains termes, empruntés au modèle de la théorie de la détection du signal (détections correctes, fausses alarmes, bruit, etc.). Les résultats nous ont permis de mettre en évidence des différences Cognition & Motricité -54Yves Kerlirzin __________________________________________________________________________________________ significatives de comportement entre trois populations de tireurs (internationaux, nationaux et novices) dans ces tâches de détection-identification et de décision. D- Le s th éo ries cognitiv es de l 'att ention a) L'h ypoth ès e du canal unique de trait em ent Il est parfois difficile voire impossible de prêter attention à différents événements ou informations survenant en même temps. Si deux messages sont adressés en même temps à un sujet, ce dernier va être amené à trier, à opérer une sélection de façon à privilégier un message (l'objet, la cible) au détriment d'un autre (le distracteur). La notion de filtre est souvent utilisée pour rendre compte de ces processus. Il semble que, comme pour la mémoire, l'esprit ne puisse appréhender en même temps d'une façon distincte et claire (i.e. qui a du sens) qu'une quantité limitée d'informations. Différents modèles ont été proposés pour rendre compte de ce filtrage des informations. Ils se fondent au départ sur l'idée que cette difficulté à traiter en même temps (en parallèle) plusieurs informations provient peut-être de la structure, de l'organisation du système attentionnel qui ne permet de traiter qu'un seul message à la fois. Welford (1952, 1959) a proposé pour cela l'hypothèse de l'existence d'un canal unique de traitement. Selon cette hypothèse, le sujet possèderait des capacités limitées de traitement et une charge attentionnelle trop importante amènerait à la saturation de ce canal unique. Cette proposition de Welford s'est appuyée initialement sur la connaissance d'un phénomène psychologique appelé période réfractaire psychologique. En quoi ce phénomène, découvert par Telford en 1931, consiste-t-il ? Sa mise en évidence repose sur un paradigme expérimental de temps de réaction. On propose à un sujet un premier signal ou stimulus S1 à l'apparition duquel le sujet doit produire le plus rapidement possible une réponse R1 (par exemple, appuyer sur un bouton). Dès l'exécution de R1 , un autre signal S2 est présenté au sujet qui doit produire le plus rapidement possible une réponse R2 . Il est ainsi possible de mesurer deux temps de réaction, un TR1 et un TR2 . Si l'on modifie ensuite le délai de présentation du deuxième stimulus en le proposant au sujet avant qu'il n'ait pu produire la réponse R1 (ce qui revient alors dans ce cas à lui demander de fournir le plus rapidement possible et successivement les deux réponses), on constate une augmentation importante du TR2 . Tout se passe en quelque sorte comme si le sujet ne traitait S2 qu'après avoir produit R1 . La différence de temps observée entre les R2 des deux conditions expérimentales correspond à cette période réfractaire psychologique durant laquelle le sujet s'avère incapable de traiter correctement (de répondre aussi rapidement) le second stimulus. Cette période réfractaire diminue lorsque l'écart temporel entre la présentation des deux Cognition & Motricité -55Yves Kerlirzin __________________________________________________________________________________________ stimuli diminue. Ces résultats s'appuient sur un mode de traitement strictement sériel et correspondent à l'idée sous-tendue par l'hypothèse du canal unique, hypothèse selon laquelle le sujet ne peut traiter efficacement qu'une information à la fois. (L'expérimentation permet de confirmer cela en ne présentant au sujet que S2 de façon à mesurer exactement ce TR2 ). Intervalle inter stimuli S1 S2 R1 R2 TR 1 (150 ms) TR 2 (150 ms) Intervalle inter stimuli S1 S2 R1 R2 TR 1 (150 ms) TR 2 (190 ms) Illustration du paradigme expérimental de double stimulation mettant en évidence la période réfractaire psychologique. D'après Fortin & Rousseau, 1989. L'hypothèse du canal unique sera remise en cause, pour différentes raisons. Le TR2 par exemple n'est pas une fonction directe du temps de recouvrement entre S1 et S2 . Par ailleurs, différents facteurs peuvent intervenir dans ce TR2 comme la pratique (elle permet de réduire ce TR2 ), la nature du stimulus (TR de simple ou double choix), la complexité de la réponse, la compatibilité stimulus-réponse. Il existe ainsi parfois des interférences structurelles (nous y reviendrons pour le paradigme de la double tâche) intervenant sur le TR2 . Pour éviter cela, l'expérimentateur peut proposer pour S1 une diode qui s'allume, pour S2 un son, pour R1 une réponse produite par la main droite et enfin pour R2 une réponse initiée par la main gauche. Cet appel à des modalités sensorielles différentes pour les stimuli et à des effecteurs également différents permet d'éviter les possibilités d'interférence structurelle, phénomène qui peut se traduire de façon simple par la demande adressée au sujet de répondre avec la même main. Un Cognition & Motricité -56Yves Kerlirzin __________________________________________________________________________________________ autre exemple bien connu d'interférence est l'effet Stroop (1935, du nom de son "auteur", J.R. Stroop). Dans certaines conditions expérimentales, on demande au sujet de dire le plus rapidement possible la couleur dans laquelle est imprimée un mot. Dans un premier temps (a), couleur et mot correspondent. Puis, dans un deuxième temps (b), le mot représente une couleur différente de celle qui est imprimée (par exemple, le mot rouge est imprimé en vert, mais le sujet doit énoncer vert). De nombreuses variantes de ce test existent. Elles montrent toutes une augmentation du TR par rapport à la condition dans laquelle la couleur imprimée correspond au mot lui-même (situation d'incompatibilité), même si la consigne précise au sujet qu'il ne faut pas lire le mot. Une interprétation possible réside dans l'hypothèse que les deux stimuli (mot et couleur) sont présentées simultanément au sujet et qu'il lui est impossible, les traitant ensemble, de favoriser l'un en ignorant l'autre. a) b) Rouge Vert Bleu Jaune Rose Orange Bleu Vert Bleu Blanc Vert Jaune Orange Blanc Bleu Brun Rouge Bleu Jaune Vert Rose Jaune Vert Bleu Rouge Rouge Vert Bleu Jaune Rose Orange Bleu Vert Bleu Blanc Vert Jaune Orange Blanc Bleu Brun Rouge Bleu Jaune Vert Rose Jaune Vert Bleu Rouge Une illustration possible de l'effet Stroop b) Th éorie du f il trage Un brève évocation du fonctionnement de la mémoire (cf. modèle proposé par Atkinson & Shiffrin) nous permet de rappeler que le traitement d'un stimulus nécessite dans un premier temps l'enregistrement de ce dernier en mémoire sensorielle. Entre cette mémoire sensorielle et le passage en mémoire à court terme ou de travail, les différentes processus attentionnels permettent l'identification des différents caractères élémentaires spécifiques à ce stimulus (couleur, forme modalité sensorielle). Il est cependant difficile de situer à quel moment Cognition & Motricité -57Yves Kerlirzin __________________________________________________________________________________________ s'effectue l'opération permettant de sélectionner ce stimulus parmi d'autres. On suppose pour cela qu'il existe un filtre permettant cette opération. Les expériences de filtrage d'information comptent parmi les premières expériences menées dans le domaine de l'attention, dans les années 50-60 (Rousseau & Fortin, 1989). Cherry (1953) en sera à l'origine avec des travaux portant sur le problème désormais classique de la cocktail party. Il est en effet difficile dans ce genre de raout de prêter attention à toutes les conversations se déroulant simultanément. On n'écoute alors généralement qu'une seule conversation. Cherry s'est proposé de reproduire expérimentalement ce type de conditions en mettant en place un type de paradigme original consistant en des situations d'écoute binaurale (avec la présentation simultanée du même message aux deux oreilles du sujet) ou d'écoute dichotique (chaque oreille du sujet reçoit simultanément un message différent). Dans le cas d'une écoute dichotique dite de filature (shadowing), la consigne est de répéter le plus fidèlement possible (i.e. mot à mot, c'est une tâche de filature, le sujet colle au mot comme à son ombre) l'un des messages au fur et à mesure de son audition. S'il veut répondre correctement à la consigne donnée, il doit donc ignorer l'autre message. L'expérimentateur vérifie ensuite ce que le sujet, placé sous cette contrainte d'une attention constante portée à l'un des messages, peut restituer des deux messages. Si les premiers résultats de Cherry montrent une très faible quantité d'information retenue par le sujet sur le second message, ils mettent néanmoins en évidence que certaines caractéristiques physiques du stimulus ignoré (ce peut être simplement le fait que chaque message est lu par une personne différente ou bien encore l'énonciation furtive du nom du sujet glissée dans le second message) permettent quand même son enregistrement. Illustration de la tâche de filature proposée par Anne Treisman (in Rousseau & Fortin, 1989). Anne Treisman notamment utilisera ce même paradigme par la suite (1960, 1964, cf. figure supra). Ses résultats permettront de moduler ou d'élargir les données de Cherry. En effet, les Cognition & Motricité -58Yves Kerlirzin __________________________________________________________________________________________ travaux de Treisman montreront entre autres que dès lors que le message à ignorer présente une signification pour le sujet, celui-ci développe probablement une stratégie d'écoute ou alloue une attention, particulières à ce message, et en retient l'essentiel, en tous cas ce qui lui semble en rapport avec le message à filer. Le filtrage s'effectuerait donc non pas simplement au niveau des caractéristiques physiques du stimulus, mais aussi plus tard, lors du traitement de la signification de ce stimulus. c) Fil tre sél ectif précoc e de Bro adbent E ffecteurs M .L .T. Stimul i M émoire sensorielle Registre à court terme Filtre Canal à capacité limitée Représentation schématique très simplifiée du modèle du filtre dans le traitement de l'information. D'après Broadbent, (1958) L'un des premiers modèles théoriques de sélection des informations a été proposé par Broadbent en 1958. Reposant sur l'idée du canal unique de traitement, il suppose l'intervention précoce d'un filtre qui ne permettra qu'à un type d'information, sélectionnée et retenue sur la base de ses caractéristiques élémentaires. Il s'agit ici véritablement d'un blocage, d'un rejet définitif de l'information ne correspondant pas à celle qui est attendue par le système (ou par le canal sensoriel sélectionné par ce système), comme si le filtre se donnait pour mission de lui éviter toute surcharge attentionnelle. (Coquery, 1994, rappelle que "la notion de canal sensoriel doit être distinguée de celle de récepteur sensoriel ou de voie afférente. Il s'agit d'un canal de transmission d'information qui n'a pas nécessairement de support physique ou nerveux spécifique. Toute dimension permettant de décrire un stimulus peut être considérée comme un canal : position, hauteur tonale, couleur, date d'arrivée, etc. Les canaux sensoriels réalisent une première analyse sur la base de ces dimensions, la plupart du temps des caractéristiques Cognition & Motricité -59Yves Kerlirzin __________________________________________________________________________________________ physiques ; puisqu'ils fonctionnent en parallèle et sans limitation de capacité, aucune attention n'est requise à ce stade. Les opérations du filtre seront toutefois plus efficaces quand elles porteront sur des messages prétraités, présentant les mêmes différences physiques.") d) D'autres filtres sélectifs plus tardifs Le modèle de Broadbent s'est en fait trouvé rapidement remis en question, notamment à la lumière des travaux de Treisman montrant que le sujet était capable de retenir des parties du message ignoré pourvu que ces éléments présentent du sens pour lui. Il était donc possible pour un sujet, sous certaines conditions, de traiter plusieurs informations simultanément. Treisman en 1960, puis d'autres auteurs comme J.A. Deutsch & D. Deutsch en 1963, Norman en 1968, Keele en 1973 ont proposé l'idée qu'en fait les signaux non sélectionnés ou moins pertinents pour le système n'étaient pas définitivement rejetés, mais plus simplement atténués, sélectionnés et traités plus tardivement. La focalisation de l'attention vers le message pertinent n'utiliserait donc pas pleinement les possibilités de traitement mises en jeu. Ainsi, dans ce cadre d'une attention partagée, il est possible que les messages normalement ignorés, bloqués par le filtre, puissent interférer avec le message à retenir et perturber les réponses du sujet. En situation d'écoute dichotique avec filature, le rejet du message ignoré n'est pas toujours total. Certains ordres donnés dans ce message ne sont pas exécutés, mais le deviennent une fois sur trois si l'on fait précéder ces ordres du nom du sujet. Dans ces modèles appartenant aux théories de la sélection tardive, le traitement des différents stimuli est effectué en parallèle. Les processus attentionnels interviennent pour sélectionner les stimuli en fonction du sens qu'ils possèdent ou de la pertinence qu'ils présentent dans une situation donnée. Il existe ainsi un traitement sémantique en profondeur des informations ignorées. Selon les auteurs, les différentes théories proposées, bien que semblables, placent simplement le filtre à des moments différents du processus de traitement (Keele par exemple, place ce filtre au moment de la sélection de la réponse). Pour eux, c'est l'information la plus pertinente qui capte l'attention afin de produire une réponse spécifique. Dans le cadre de ces modèles reposant sur l'idée de l'existence d'une capacité limitée de traitement de l'information, limite entraînant une détérioration de la réponse dès lors que les demandes de la tâche excèdent les ressources du sujet, un des modèles les plus populaires dans le domaine du sport est, selon Williams et al. (2000) le modèle proposé par Norman (1968, 1969). Selon cet auteur, les informations prélevées dans l'environnement via les différents capteurs sensoriels passent par un premier filtre sensoriel (le mécanisme d'analyse des stimuli). Cette Cognition & Motricité -60Yves Kerlirzin __________________________________________________________________________________________ analyse permet d'extraire les caractéristiques de ces stimuli et de voir où ils sont stockés en mémoire. Pour Norman, ceci s'effectue de façon infra (sub) consciente chez le sujet, ne nécessitant pas de ressources particulières. Stockage sensoriel à court terme M émoire à court terme M émoire à long terme Ce qui est attendu I nformation de l'environnement Capteurs Pertinence sensoriels I nformation contextuelle M écanisme d'analy se des stimuli Sélection et attention Modèle de l'attention sélective de Norman. La sélection dépend à la fois de la qualité de l'entrée sensorielle et de la base cognitive de connaissances. Williams et al. (2000) rappellent que ce modèle peut illustrer la métaphore de l'esprit humain comparé à un ordinateur (la partie gauche du modèle représenterait les éléments sensoriels structurels de l'organisme, le hard, alors que la partie droite proposerait une illustration des représentations symboliques (sélection ,traitement, encodage), le soft. D'après Norman, 1969. Source Williams et al., 2000. En même temps qu'est menée cette première analyse est mené en mémoire à long terme un examen des signaux précédents (antérieurs). Ce traitement permet, par la comparaison entre l'expérience et le contexte actuel, de déterminer des événements ou classes d'événements pertinents dans l'analyse de la situation vécue par le sujet. L'idée proposée ici par Norman est que le sujet s'est construit au travers de son expérience une base cognitive de connaissances lui permettant, dans des situations semblables à celles qu'il a déjà vécues, de traiter les événements auxquels il se trouve confronté. Ce sujet développerait ainsi grâce à son expérience une capacité à distinguer les signaux pertinents de non pertinents ou à formuler des probabilités Cognition & Motricité -61Yves Kerlirzin __________________________________________________________________________________________ sur les possibilités d'occurrence de certains événements (signaux, informations) préférentiellement à d'autres. e) Des ressources multiples Reprochant aux modèles précédents une approche trop rigide, sans souplesse, d'autres modèles ont été proposés, notamment par Kahneman en 1973. Déterminants divers E veil _ _ __ __ __ __ __ __ _ Diverses manifestations d'éveil Capacité dispo nible Disposition permanente Processeur central allouant les ressources I ntentions momentanées Activité possible E valuation des demandes de capacité Réponses Modèle de Kahneman de capacité flexible attentionnelle. Adapté de Kahneman, 1973. Source : Williams et al., 2000 Ces nouvelles propositions (Kahneman, 1973, Navon & Gopher, 1980, Wickens, 1980) s'appuient sur l'hypothèse de l'existence chez l'individu de ressources attentionnelles conscientes Cognition & Motricité -62Yves Kerlirzin __________________________________________________________________________________________ multiples nous permettant par exemple d'exécuter deux tâches simultanément pourvu qu'elles fassent appel à des réservoirs différents. L'attention est ici appréhendée comme un ensemble de capacités rendues disponibles par le sujet à mesure de l'augmentation des contraintes. Si cet ensemble demeure globalement limité, le fonctionnement proposé par Kahneman offre une certaine souplesse dans la gestion des ressources. Son modèle (cf. infra) dispose en quelque sorte d'un processeur central, un système de gestion qui alloue les ressources à une activité préférentiellement à une autre (il est difficile, étant donnée la nature limitée du réservoir de ressources, de répondre à toutes les demandes des différentes tâches) en fonction d'intentions momentanées du sujet (buts ou objectifs spécifiques à un moment donné) et de disposition(s) permanente(s) liée(s) par exemple au fonctionnement du système, à la nécessité de sa survie, à des processus d'attention involontaire (attirée brusquement en un lieu particulier par un élément surprenant ou inattendu). Comme le précise le schéma ci-dessous, la quantité de ressources disponibles à un moment particulier est fonction du niveau d'éveil. Il se peut d'ailleurs que la demande en ressources attentionnelles entraîne une élévation du niveau d'éveil et donc de ces ressources elles-mêmes. C'est donc bien ici la tâche à réaliser qui va déterminer le montant des ressources qui va être alloué par le processeur. Lorsque la demande excède les possibilités du système, celui-ci est amené à effectuer un choix et à allouer les ressources à la tâche dont la demande va être satisfaite. Ce modèle des ressources attentionnelles, bien que critiqué lui aussi (par exemple, il n'apporte pas de solution au problème de l'interférence ente tâches) valide l'hypothèse selon laquelle il est possible sous certaines conditions de mener deux activités (d'effectuer deux tâches) en même temps. Cette problématique n'est pas récente puisqu'en 1898 déjà Welch avait noté qu'il était possible d'ajouter une tâche secondaire (force maximale de saisie de la main) à une tâche primaire (calcul, lecture) afin de mesurer la demande attentionnelle. f) Le paradigme de la double tâche Nous effectuons au quotidien un certain nombre d'actions en même temps (jouer d'un instrument en lisant la partition, prendre des notes en écoutant un conférencier, …). Beaucoup de ces activités sont devenues automatiques, ce sont des routines que l'on met en route sans y prêter une attention particulière. Il est intéressant d'essayer de comprendre comment réagit l'organisme lorsqu'il est placé dans la situation de réaliser deux actions simultanément. Ce paradigme est connu sous l'appellation du paradigme de la double tâche. Si le sujet est engagé dans la réalisation d'une tâche (1) et qu'il doit simultanément en réaliser une seconde (2), avec comme critères de réussite la vitesse (temps de réaction) et la justesse de la réponse, Cognition & Motricité -63Yves Kerlirzin __________________________________________________________________________________________ différents cas de figure peuvent se produire : (1) et (2) peuvent ne pas être affectées, (1) peut être perturbée et non (2), (2) peut être affectée et non (1), les deux réponses peuvent toutes deux être affectées, ou tout simplement l'une des deux tâches peut finalement ne pas être réalisée. Ce paradigme consiste à ajouter une tâche secondaire à une tâche principale pour laquelle la demande en attention est mesurée. La diminution des performances dans la réalisation de la tâche secondaire (c'est celle pour laquelle les dégradations de la performance sont mesurées) permet de déduire la demande en attention requise pour la tâche principale. Le décrément ou la baisse de qualité de la réponse est mesuré en comparant les résultats en situation de simple et de double tâche. Le statut de chacune de ces tâches peut varier en fonction de différents facteurs. Les consignes données par l'expérimentateur peuvent par exemple définir une priorité. Pour cela, cette distinction s'avère parfois quelque peu artificielle (il est tout à fait possible de demander une égale réussite aux deux tâches). Elle peut s'avérer utile si l'expérimentateur cherche à mesurer l'habileté du sujet à commu ter, à déplacer son attention sur deux actions concurrentes plutôt qu'estimer la demande en ressources attentionnelles de la tâche principale. Attention allouée à la tâche secondaire Attention allouée à une tâche secondaire simple Attention allouée à une tâche secondaire complexe Répartition de l'attention en fonction de la demande de la tâche principale Lorsque aucune consigne de priorité n'est donnée, l'attention va généralement se répartir entre les deux tâches, impliquant (voir cas de figures précédents) selon les cas une forte dégradation dans la réponse à l'une des deux tâches. Il est possible de représenter les relations entre ces deux tâches par une courbe d'efficacité. Cette représentation que Norman et Bobrow (1975) ont proposé d'appeler POC (Performance Operating Characteristic) ou courbe des Cognition & Motricité -64Yves Kerlirzin __________________________________________________________________________________________ caractéristiques opérationnelles de la performance, permet de mettre en évidence le déplacement des ressources attentionnelles (cf. document fourni en TD). E- Ori entation vi suel l e en s port Le sportif est constamment confronté à la réalisation simultanée de différentes tâches. Dans un sport collectif, il doit se déplacer, maîtriser à la main et/ou au pied un ballon, prendre en compte les placements et déplacements de ses partenaires et adversaires, développer des stratégies pertinentes et efficientes, etc. La question qui se pose évidemment est celle de l'automatisation des différentes habiletés caractéristiques de la pratique de ce sportif. Il est trivial de rappeler qu'avec la pratique, l'exécution d'actions requiert de moins en moins d'attention. Dans ce type de situations, on distingue généralement deux types de processus, des processus automatiques et des processus contrôlés. Pour le formateur comme pour l'entraîneur, l'objectif sera d'automatiser au maximum ces processus de façon à pouvoir allouer aux processus contrôlés le maximum possible de ressources attentionnelles. Les tra vaux les plus connus et sans doute les plus conséquents dans ce domaine ont été réalisés par Walter Schneider et Richard Shiffrin en 1977 sur des tâches de prospection visuelle (trouver une cible parmi un ensemble d'éléments, par exemple pouvoir dire si la lettre F apparaît dans un ensemble de phrases) ou mnémoniques, impliquant l'examen d'éléments mémorisés (il est demandé au sujet de mémoriser un certain nombre de lettres, il doit ensuite pouvoir dire si une lettre particulière faisait partie de celles qu'il a stockées en mémoire). Ces travaux ont permis de définir précisément les processus automatiques et les processus contrôlés, en mettant en évidence leurs propriétés respectives. Le tableau ci-dessous en présente une synthèse. Processus automatiques Processus contrôlés Traitement rapide Traitement lent Pas d'interférence d'autres tâches Interférence possible d'autres tâches En parallèle En série Non volontaires (le traitement est souvent Volontaires (possibilité de les arrêter) inévitable) Cette approche se fonde sur une démarche de type coûts et bénéfices, concept développé par Posner et Snyder (1975). Pour ces auteurs, trois critères permettent de définir le caractère automatique d'une habileté : elle est produite sans intention de la part du sujet, elle ne nécessite Cognition & Motricité -65Yves Kerlirzin __________________________________________________________________________________________ pas une attention consciente et enfin elle n'interfère pas avec une autre activité mentale (illustration possible avec l'évolution du débutant au ski). L'amélioration de la réponse du sujet se traduit par un bénéfice attentionnel (baisse du temps de réaction, plus grande précision) alors que la dégradation de cette réponse se traduit par un coût attentionnel (augmentation du temps de réaction, probabilité plus élevée de réponses incorrectes). Cependant, une difficulté possible dans cette automatisation est l'accès plus difficile aux processus de contrôle (modifier un automatisme n'est pas chose aisée). Le traitement automatique ne présente donc pas que des avantages; l'automaticité confinant parfois dans les tâches quotidiennes à la manie. Orienter l'attention visuelle du sportif s'inscrit dans une perspective de ce type. L'idée est de permettre au pratiquant de traiter plus vite et mieux les informations à prélever dans un contexte événementiel chargé. Comme nous l'avons déjà évoqué, dans de nombreuses situations sportives, l'athlète doit développer des capacités attentionnelles sélectives, identifier sur la base de certains indices (sources) la pertinence de signaux, définir des priorités, discriminer entre une action réelle et une feinte afin de pouvoir mieux anticiper ou initier leur réponse, etc. L'hypothèse est que l'orientation de l'attention vers une région donnée de l'espace va entraîner une facilitation du traitement de l'information présentée dans cette zone et une inhibition dans les autres. Par rapport à une condition où aucune source d'information n'est privilégiée, porter son attention en un point donné se traduit par un bénéfice dans le traitement de l'information présentée en ce point et un coût pour les autres sources potentielles. Deux formes d'orientation de l'attention sont possibles. Comme le précise Posner (1980), "il est important de distinguer entre les modifications "overt" dans l'orientation qui peuvent être observées dans les mouvements de la tête et des yeux, et les orientations purement "covert" qui Cognition & Motricité -66Yves Kerlirzin __________________________________________________________________________________________ peuvent être réalisées par les mécanismes centraux seuls". Overt peut se traduire par l'expression manifeste, c'est-à -dire un déplacement visible du regard, de la tête et/ou du corps dans son ensemble. Si l'athlète est alerté de la survenue d'un événement par sa vision périphérique, l'"overt orienting attention" va lui permettre d'amener cette cible en vision centrale ou fovéale de façon à pouvoir qualifier, identifier, analyser cet événement. Le terme covert peut se traduire par la notion de latence (l'orientation visuelle va se produire, mais avec un délai). Celle-ci traduit un processus central d'orientation de l'attention ou des ressources cognitives du sujet sans modification apparente de sa posture ou de la direction de son regard. Il peut par exemple choisir de fixer un point particulier dans l'espace de façon à mobiliser son attention sur la survenue d'événements en périphérie. Cette stratégie, qui lui permet d'appréhender l'ensemble des informations nécessaires à un traitement efficace et à une prise de décision rapide et pertinente a été qualifiée "d'inter-événementielle" par Ripoll (1988). Le sujet fixe un espace vide (c'est-à-dire ne possédant apparemment aucun élément susceptible de fournir une information), espace cependant pertinent puisqu'il permet au sujet d'obtenir la ou les informations recherchées. Cette stratégie a été mise en évidence par Ripoll (1988) dans une tâche de résolution de problème "consistant à mettre en évidence une structure complexe de volley-ball présentée en vidéo". Ces travaux font apparaître que les joueurs experts positionnent leur regard au centre de la structure de jeu, de façon à pouvoir appréhender et à mettre en relation l'ensemble des événements se déroulant à l'intérieur de cette structure. S'il semble exister une relation fonctionnelle entre ces deux systèmes (attention et déplacement du regard ou orientation visuelle latente), cela n'implique pas nécessairement une relation directe et réciproque entre eux. Ceci a été montré par Klein en 1980. Si toute orientation du regard postule le déplacement préalable de l'attention, celle-ci peut être orientée dans le champ visuel sans déplacement du regard. En d'autres termes, l'exploration visuelle n'est pas toujours une traduction fidèle de l'intérêt que l'athlète porte aux différentes sources potentielles d'information présentes dans son champ visuel. L'orientation de l'attention visuelle permet de comparer cette attention à un spot lumineux (spotlight, métaphore proposée par Posner en 1980), un projecteur se déplaçant dans l'environnement, balayant le champ visuel du sujet en éclairant de façon privilégiée certaines zones de l'espace au détriment d'autres. Pour Posner, l'attention visuelle peut être orientée dans l'espace de deux façons : l'orientation exogène, brève, de nature réflexe, serait le fruit de la détection en périphérie d'un événement, alors que l'orientation endogène, plus longue, Cognition & Motricité -67Yves Kerlirzin __________________________________________________________________________________________ fonctionnant sur un mode contrôlé, bénéficierait d'une pré information indiquant au sujet dans quel partie de son environnement visuel se trouve probablement l'information qu'il recherche. Dans le domaine des activités physiques et sportives, l'étude de l'orientation visuelle a principalement porté sur les stratégies de déplacement du regard en relation avec la prise de décision. Les expérimentations que nous avons conduites voici quelques années s'inscrivent dans cette problématique. Au plan de la prospection visuelle et de l'orientation de l'attention, il nous a paru intéressant de parvenir à identifier les diverses sources informationnelles utilisées par les pratiquants de savate boxe française. La logique de l'activité permet l'utilisation des deux poings et des deux pieds, ce qui implique chez l'athlète un nombre important de points à fixer. En effet, si dans une activité comme l'escrime par exemple où le danger potentiel concerne l'arme, il semble que le plus grand nombre d'informations soit prélevé sur la coquille de celle-ci, en savate boxe française le pratiquant dispose de quatre armes qui peuvent intervenir de façon équivalente, ce qui accroît notablement l'incertitude véhiculée par la situation. Il faut noter cependant que la charge attentionnelle requise peut être pondérée par la prise en compte de certaines données, comme l'attitude posturale de l'adversaire, sa garde, la connaissance que l'athlète possède des caractéristiques de cet adversaire. On peut finalement se demander si cette équiprobabilité d'utilisation a priori des différentes armes n'entraîne pas au plan de la prospection visuelle un coût trop élevé et si le boxeur ne fixe pas plus simplement un point situé en dehors de ces différentes armes, déléguant ainsi aux mécanismes périphériques de la vision le soin de l'alerter sur la probabilité et la survenue d'un événement. Ainsi, certains pratiquants de boxe française adoptent une stratégie inter-événementielle (cf supra), choisissant de ne regarder que les yeux ou le buste de leur adversaire (d'autres facteurs interviennent dans ce choix, notamment d'ordre psychologique). Par ailleurs, dans la logique de ce qui précède, nous avons formulé l'hypothèse qu'en fonction du niveau de compétences atteint dans l'activité, les zones prospectées visuellement par les sujets étaient différentes. En d'autres termes, les experts et les non experts n'accordent sans doute pas la même importance aux mêmes lieux consultés chez leur opposant. Ceci pourrait peut-être partiellement expliquer la différence entre ces populations et constituer une voie à explorer dans l'apprentissage et l'entraînement de cette discipline. Les hypothèses formulées étaient celles d’une distribution hiérarchique des stratégies exploratoires visuelles. Dans cet ordre d’idées, le tireur privilégierait la consultation du regard de son adversaire/partenaire et de l'arme située à hauteur des épaules (le poing), puis du buste (plexus), du bassin et enfin des appuis, bien que ces derniers ne soient que très rarement l'objet Cognition & Motricité -68Yves Kerlirzin __________________________________________________________________________________________ de l'attention visuelle du pratiquant de savate boxe française, du moins pour les boxeurs confirmés. En adme ttant que les coups portés sont initiés par les appuis (placements, déplacements, poids du corps), on pouvait également être amené à penser qu'une lecture très rapide de l'événement devrait intégrer la prise en compte de ces appuis. Les hypothèses suivante s avaient donc été avancées : (h 1), les experts ont un nombre de consultations moins élevé que les non-experts ; (h 2), les experts consacrent plus de temps par fixation que les nonexperts, (h 3), les zones fixées en priorité par les experts concernent d'abord la tête, puis les membres supérieurs et le buste de leur partenaire, (h 4), les experts ne consultent pas les appuis, (h 5), elle est une conséquence des hypothèses 3 et 4 : les experts privilégient la vision périphérique dans la recherche d'indices pertinents. Ouverture Technique poing avant Technique pied avant Différents événements proposés aux sujets Comme les photos ci-dessus l'indiquent, différents événements (technique, ouverture, feinte) ont été proposés aux sujets. Ceux-ci étaient équipés d'un vidéo oculographe (NAC 5) permettant à l'expérimentateur d'enregistrer les déplacements de leur regard. Les principaux résultats de l'analyse de l'exploration visuelle apportent un certain nombre de précisions susceptibles d'éclairer d'une part les caractéristiques informationnelles de la savate boxe française et, d'autre part, les caractéristiques de l'orientation de l'attention visuelle et du du traitement de l'information visuelle en relation avec le niveau d'expertise du tireur. On Cognition & Motricité -69Yves Kerlirzin __________________________________________________________________________________________ remarquera tout d'abord que les patrons de prospection visuelle (cf. infra) sont significatifs du niveau des boxeurs. En effet, ces patrons sont d'autant plus "éclatés" que le niveau des boxeurs est faible. L'essentiel des fixations visuelles concerne trois éléments chez les experts (tête, membres supérieurs, buste). Ici, la tête semble bien jouer un rôle de pivot visuel autour duquel l'ensemble de la prise d'information visuelle s'organise. Cette zone semble constituer un point d'ancrage informationnel déterminant, délimitant ce "champ utile de vision" à partir duquel s'organise de la façon la plus efficace possible le recueil des informations. En effet, le calcul des relations entre les différents lieux prospectés fait apparaître, pour cette population, un nombre important de liaisons entre la tête et le buste, entre la tête et les membres supérieurs. Débutants Compétiteurs Experts Zones consultées selon le niveau d’expertise des tireurs Apparaissent ensuite respectivement comme paramètres consultés le bassin (chez les compétiteurs), le bassin et les membres inférieurs (chez les débutants). Une analyse plus fine du pourcentage de fixations par zone démontre l'existence de stratégies en relation avec le niveau de pratique. En effet, la tête constitue chez les internationaux la zone privilégiée (42,6%), à la différence des compétiteurs pour lesquels cette zone et les membres supérieurs (29,9% versus 34,5%) sont consultés de façon comparable, et des débutants où cette zone arrive largement derrière celle des membres supérieurs (19,7% versus 33,8%). Tout se passe en fait comme si le Cognition & Motricité -70Yves Kerlirzin __________________________________________________________________________________________ débutant privilégiait la zone supérieure la plus basse (les poings), puis, à mesure que le niveau d'expertise augmente, accordait un "poids" égal à la tête et aux membres, avant de confier, au plus haut niveau de pratique, un rôle privilégié à la tête. Cognition & Motricité -71Yves Kerlirzin __________________________________________________________________________________________ Emprunts, références, sources Abernethy, B. (1985) Cue usage in open motor skills : a review of the available procedures. In D.G. Russel and B. Abernethy (Eds). Motor memory and control. The Otago Symposium. Dunedin : Human Performance Associates, 110-123. Bonnet, C. (1986) Manuel pratique de psychophysique. Armand Colin, Collection U, 254 p. Buser, P., Imbert, M. (1982) Psycho -physiologie sensorielle. T. II, Neurophysiologie fonctionnelle. Editions Hermann, Collection Méthodes, Paris, 410 p. Fortin, C., Rousseau, R. (1989) Psychologie Cognitive, une approche du traitement de l'information. Presses de l'Université du Québec, Télé-Université, 434 p. Keele, S. W. Attention and human performance. Pacific palisades. Goodyear Californie, 1973. Kerlirzin, Y. (1990) Traitement des informations visuelles et prise de décision en boxe française. Mémoire pour le diplôme de l'INSEP. Nougier, V. L'orientation de l'attention visuelle en sport. Thèse de doctorat S.T.A.P.S. Paris X, 1989, 265 p. Nougier, V., Stein, J. F., Bonnel, A. M. (1990) Information processing and orienting of attention. International Journal of Sport Psychology. Posner, M. (1980) Orienting of attention. Quaterly Journal of Experimental Psychology, 32, 3-25. Richelle, M., Requin, J., Robert, M. (1994) Traité de Psychologie expérimentale. Presses Universitaires de France, Tome 1 (1019 p.) et Tome 2 (741 p.). Ripoll, H. (1988) Analysis of visual scanning patterns of volley-ball players in a problem solving task. International Journal of Sport Psychology, 19, 9-25. Cognition & Motricité -72Yves Kerlirzin __________________________________________________________________________________________ Stein, J.F. (2003) Orientation de l'attention visuelle en sport. Cours Insep, Site www.stapszone.net Tanner, W. P. J. & Swets, J. A. (1954) A decision making theory of visual detection. Psychological Review, , 61, 401-409. Tiberghien, G. (1984) Initiation à la psychophysique. Paris, P.U.F. Walusinski, O. (2003) Le bâillement : un comportement universel. Pour la science, N°31. Weil-Barais, A. (Sous la direction de) (1993). L'homme cognitif. Presses Universitaires de France, 570 p. Welford, A. T. (1977) La charge mentale de travail comme fonction des exigences de la capacité de la stratégie et de l'habileté. Le travail humain, 40, 2, 283-304. Williams, A. M., Davids, K. & Williams, J.G. (2000) Visual perception and action in sport. E & FN Spon Eds, Londres, 441 p.