
Article issus des recherches du Pr Duhamel et de son équipe de Lyon (Jean-René Duhamel,
La représentation multisensorielle de l'espace dans le cerveau
Des chercheurs de l'Institut des sciences cognitives de Lyon (CNRS) en
collaboration avec des chercheurs de l'Université catholique de Louvain et
de l'Université de Rochester, mettent en évidence, à l'aide de modèles
mathématiques, dans Nature Neuroscience du mois de juillet, la capacité
d'un neurone d'une région du cerveau, le cortex pariétal, d'intégrer des
informations spatiales provenant de signaux visuels, sonores, et mécaniques
à la surface du corps. Ces intégrations multisensorielles permettent de
localiser un objet le plus précisément possible à partir d'indices visuels,
mécaniques et auditifs partiels, mais également de prédire au mieux une
entrée sensorielle à partir d'une autre. Un boxeur peut ainsi anticiper
l'impact sur son corps du coup lancé par son adversaire.
Dans le cerveau, le cortex visuel comporte des aires qui répondent de façon spécifique à des aspects
différents du stimulus visuel (couleur, direction du mouvement, reconnaissance des formes). D'autres
aires corticales participent à l'élaboration de la perception visuelle comme le cortex temporal et le
cortex pariétal. Le cortex pariétal évalue les données comme la position du corps et de la cible dans
l'espace grâce aux informations sensorielles qu'il reçoit. Il produit ainsi des modèles internes du
mouvement à effectuer, en amont des cortex prémoteur et moteur.
Des neurones « géomètres » pour localiser les objets dans l'espace
Chaque fois que notre regard se déplace, l'image du monde visuel se redistribue sur la rétine et par
conséquent, sur la carte visuelle corticale
(1)
. Ainsi selon que notre regard est orienté vers la droite
ou la gauche, un objet stationnaire se situera sur un bord du champ visuel ou sur un autre. En 1997,
l'équipe de Jean-René Duhamel, qui travaillait alors au Collège de France, avait montré, en mesurant
l'activité électrique de cellules nerveuses du cortex pariétal chez le singe, la capacité de ces neurones
à effectuer une combinaison de la carte visuelle corticale avec des informations posturales comme la
position de notre tête et de notre corps, ainsi que celle des yeux dans les orbites. Ce calcul de
coordonnées spatiales permet de localiser un objet dans l'espace dans un répère invariant par
exemple par rapport à la position de la tête, indépendamment de la direction dans laquelle le regard
se porte.
Ce travail laissait toutefois de nombreuses questions en suspens, notamment : comment ces
neurones « géomètres » parviennent-ils à intégrer les informations spatiales extraites des signaux
visuels avec celles provenant d'autres canaux perceptifs ? En effet, le cortex pariétal est une région
du cerveau où convergent, en plus des images visuelles, les impressions que laissent les stimulations
mécaniques à la surface de notre corps, les sons de l'environnement, et les messages produits par
nos propres mouvements dans les organes vestibulaires de l'oreille interne.