Ainsi, dans une très large part des tâches auquel un animal est

publicité
Alexandre HYAFIL
[email protected]
DEA de Sciences Cognitives 2003-2004
Effort et dopamine
Directeur de stage : Emmanuel GUIGON
INSERM unité U483
Université Pierre et Marie Curie
9, quai Saint-Bernard
75005 PARIS
Introduction
Pourquoi paresse, fainéantise et oisiveté ? Pourquoi l’homme ne s’aventure-t-il pas
frénétiquement à la poursuite de ses innombrables objectifs ? On peut contester le recours
abusif à un tel argument, mais force est de constater que tout individu a tout intérêt à se
soucier de l’effort qu’il devra fournir avant de se lancer dans une quelconque entreprise.
Préserver ses réserves énergétiques est primordial à la survie de l’animal. Voici le point de
vue que nous défendrons.
La psychologie animale a généralement ignoré cette influence du coût de l’action et
formalisé le problème de la construction des comportements comme celui d’une recherche de
récompenses: dans ce cadre, un comportement cherche à maximiser les gains à long terme,
sans prendre en compte les coûts associés à l’obtention de ces gains. Des modèles
d’apprentissage permettant de rendre compte de cette prétendue optimalité du comportement
animal ont été élaborés, et implémentés dans des machines artificielles. Ce n’est que plus
récemment avec les progrès considérables de la neurobiologie que l’on a pu effectuer le
rapprochement entre certaines activités neuronales et les processus clés du comportement tels
que ces modèles les avaient formalisés : apprentissage opérant, régulations des besoins par
des facteurs internes (signaux de faim, de soif …) et externes (disponibilité des stimuli
recherchés dans l’environnement), règles de priorité entre différents objectifs incompatibles…
Ce champ d’étude pluridisciplinaire s’est ainsi enrichi des apports de la psychologie animale,
de la neurophysiologie et de l’approche modélisatrice liée à l’Intelligence Artificielle, et laisse
entrevoir la possibilité de proposer un modèle d’anatomie fonctionnelle à même d’expliquer
les bases neurales du comportement animal et l’optimalité d’un tel comportement.
Le concept clé dans cette littérature est celui de renforcement. L’individu est capable
de renforcer des comportements ayant conduit à une récompense : c’est-à-dire que placé dans
les mêmes conditions environnementales, il sera capable de rappeler sélectivement le
comportement récompensé et de le conduire jusqu’à l’obtention de la récompense recherchée.
La difficulté principale dans la construction de ce comportement réside dans le décalage
temporel entre action et récompense : l’animal doit pouvoir motiver son comportement
pendant toute l’exécution de cette action de par le simple espoir de gagner in fine la
récompense. L’apprentissage doit donc porter rétroactivement sur l’ensemble des actions
ayant amené à l’obtention de la récompense. Le modèle de Sutton et Barto1 prévoit à cet effet
1
qu’un signal de récompense puisse être diffusé largement dans le système exécutif et ainsi
renforcer les actions précédemment exécutées.
La dopamine (DA) paraît jouer ce rôle de signal de récompense, comme le montrent
de très nombreuses expériences. Outre son implication dans la plupart des addictions, ce
neuromodulateur répond en phase à la présentation de stimuli positifs comme de la nourriture,
de la boisson ou un partenaire sexuel. L’activation de la dopamine induit indéniablement une
modification des efficacités synaptiques, corrélat biologique indispensable à toute forme
d’apprentissage. Et si le rat peut en pressant un levier exciter directement ses fibres
dopaminergiques (self-stimulation), alors il le fera, et même plutôt que de jouir de toute autre
récompense naturelle présentée en concurrence. Par ailleurs, des antagonistes de la dopamine
bloquent le comportement dirigé vers ces stimuli naturels ou artificiels, comme si la
nourriture, le sexe et les drogues ne présentaient plus pour l’animal de valeur hédonique.
Enfin, la théorie du renforcement prévoit qu’un signal de renforcement est émis dès lors que
l’animal est sûr de recevoir une récompense, et non pas seulement au moment de la
récompense. Cette propriété a été retrouvée lors d’enregistrements de neurones
dopaminergiques chez le singe : lorsque les récompenses peuvent être prédites par un signal
déterminé, alors la dopamine répond cette fois à la présentation de ce stimulus prédicteur et
non plus à la récompense subséquente. C’est cette dernière observation qui a précipité le lien
entre les expériences en neuroscience et le modèle théorique de renforcement.
La théorie du renforcement par la dopamine a rencontré un succès à la hauteur de sa
puissance : la dopamine réalise selon ses dires tout l’apprentissage opérant « à elle toute
seule ». Il s’agirait désormais de l’enrichir de cette notion essentielle qu’est le coût de
l’action. Tout animal est amené en effet à effectuer à chaque instant un compromis entre ces
objectifs antagoniques que sont la recherche de récompenses et la préservation de ses réserves
énergétiques. Or la prise en compte de ce dernier paramètre a remis en cause des résultats
fondamentaux de la théorie de la dopamine. Il apparaît notamment qu’à faible dose, des
antagonistes de la DA peuvent altérer le comportement dirigé vers des récompenses sans
affecter la réponse hédonique à ces stimuli, comme si la DA ne jouait pas sur le plaisir associé
à un stimulus mais sur l’aptitude à se motiver pour y parvenir. Par exemple des rats ainsi
traités préfèreront toujours une grosse récompense à une plus petite, mais choisiront la plus
petite si pour y accéder la marche à franchir est moins élevée. Au-delà de la simple fonction
de la dopamine, c’est la viabilité toute entière des modèles de comportement qui pâtit de cette
remise en cause.
2
Il est donc crucial de se poser la question du rôle du coût de l’action dans le
comportement animal. Certaines recherches en psychologie animale ont déjà montré que ce
critère était prépondérant dans l’élaboration d’un comportement optimal ; d’autres travaux en
neurophysiologie mettent en avant la pertinence biologique d’une telle variable. Il manque
cependant une vue d’ensemble capable d’intégrer ces différentes études pour proposer un
modèle. Un modèle de comment le système nerveux appréhende le coût de l’action.
Nous proposons donc de faire un tour de ces différents travaux et des concepts qu’ils
dégagent, en suggérant quelques pistes de recherche en vue de l’élaboration d’un tel modèle.
Plus spécifiquement, nous nous intéresserons aux questions suivantes : qu’elle est l’origine de
la représentation neurale du coût de l’action ? Comment cette variable est-elle intégrée dans le
comportement, et quel rôle pour la dopamine dans l’élaboration d’un compromis entre coût et
récompense ? Nous tenterons enfin d’intégrer simplement ce rôle dans de nouveaux modèles
d’anatomie fonctionnelle.
3
Table des matières
Introduction.............................................................................................................................1
Table des matières.................................................................................................................. 4
I.
Représentation du coût de l’action ..................................................................................... 5
1.
De la nécessité d’une telle représentation ...................................................................... 5
2.
De l’origine d’une telle représentation :......................................................................... 6
i.
les afférences sensorielles : ........................................................................................ 6
ii.
les grandeurs internes :............................................................................................... 8
3.
Du lien avec la perception de l’effort :......................................................................... 10
4.
Du lien avec le problème de Bernstein : ...................................................................... 12
5.
De la mémoire de l’effort : ........................................................................................... 14
II.
Dopamine et régulation de l’effort ................................................................................... 17
1.
Théories de la dopamine .............................................................................................. 17
2.
De l’implication pour les troubles moteurs .................................................................. 23
III.
1.
Intégration aux modèles actuels ................................................................................... 32
Des différentes fonctions de la dopamine .................................................................... 32
L’apprentissage. ....................................................................................................... 33
La motivation .......................................................................................................... 34
Le gating................................................................................................................... 35
2.
De la sélection de l’action la plus judicieuse ............................................................... 39
Conclusion............................................................................................................................ 46
Bibliographie........................................................................................................................ 47
4
I. Représentation du coût de l’action
1. De la nécessité d’une telle représentation
Dans une très large part des tâches auquel un animal est confronté quotidiennement,
une meilleure performance ne peut être obtenue qu’au prix d’efforts plus importants. Cette
observation est valable à tous les niveaux du comportement : à l’échelle d’un simple
mouvement, bouger plus rapidement le bras demande plus d’activation musculaire, et la
cocontraction de muscles antagonistes permet d’être plus précis2 ; à l’échelle du
comportement, trouver de nouvelles ressources ou un nouvel emploi demande parfois de
longues phases d’exploration.
Si l’animal agissait uniquement en fonction des gains espérés de ses actions sans en
considérer le coût physiologique, il serait amené à opter toujours pour la solution la plus
coûteuse et épuiserait rapidement ses réserves énergétiques. L’animal doit donc
obligatoirement prendre en compte les efforts associés à son comportement et réaliser dans le
choix de ses actions un fin compromis entre gains et coûts. Pour formaliser ce concept, on
dira que l’animal adopte une stratégie optimale si confronté à un choix de comportements il
opte pour le comportement de « gain net » maximal, c'est-à-dire :
max(ri-αci)
où ri et ci sont respectivement la récompense et le coût associé à la ième action possible, et α
une constante. Bien évidemment, si pour toutes les actions possibles ce gain net est négatif,
l’animal aura intérêt à ne rien faire.
Ce modèle économique est le plus simple que l’on puisse proposer. Il est très probable
que la réalité soit bien plus complexe, et l’étude des comportements animaux montre des
interactions non triviales entre différents facteurs ( incertitude sur la récompense, taille
critique de l’effort demandé, délais de remise de récompense…) que leurs auteurs rapportent à
des modèles économiques bien plus évolués3,37. Toutefois, l’étude biologique de ces
interactions dépasse le cadre de notre analyse, et demanderait d’avoir des connaissances sur la
manière dont ces différents facteurs sont traités séparément par le système nerveux. Par
conséquent, ce modèle simplifié est suffisant formaliser la plupart des concepts avancés par la
suite.
5
Le cerveau, autorité centrale dans la prise de décision, doit donc être en mesure d’une
part de se représenter les coûts et récompenses associés à ses actions, d’autre part à la lumière
de ces informations de réaliser le compromis le plus judicieux. Cette première partie partira
donc à la recherche de la représentation cérébrale du coût, tandis que la seconde tâchera
d’identifier les structures neuronales responsables du choix.
2. De l’origine d’une telle représentation :
Nous ne parlerons pas ici de la représentation des récompenses, puisqu’une très large
littérature existe déjà sur le sujet4,5,6. Par récompense, nous entendons tout stimulus de
renforcement, primaire ou conditionné, que ce soit nourriture, sexe, ou absence de stimulus
aversif (échapper à un prédateur par exemple). La taille de la récompense est modulée par les
besoins immédiats de l’animal, de manière à conserver une certaine homéostasie. Le caractère
aléatoire de la récompense et la durée du délai avant récompense interviennent également
dans l’évaluation de cette récompense, tous ces calculs étant déjà présents dans le terme noté
r i.
La représentation du coût de l’action a été bien moins étudiée, bien qu’elle soit
indispensable à l’animal qui souhaite préserver son appareil moteur et ses réserves
énergétiques. Mais au juste qu’appelons-nous coût d’une action ? Il ne peut s’agir du véritable
coût physiologique d’une action en termes de calories dépensées, grandeur physiologique tout
aussi étrangère que les gains caloriques de la nourriture au système nerveux central de tout
animal non lecteur de Marie-Claire. Non, il doit s’agir d’une grandeur appelée coût central
qui certes corrèle fortement avec ce coût physiologique, mais est directement accessible au
SNC, soit par des afférences sensorielles, soit parce qu’elle est directement présente dans le
SNC. Par la suite, nous évaluons ces deux possibilités, et avec elles les mécanismes possibles
de minimisation de ce coût central.
i.
les afférences sensorielles :
•
Les organes de tendon de Golgi (OTG) : les OTG sont des récepteurs sensoriels
situés à la jonction entre le tendon et les fibres musculaires (figure 1). Chaque organe est
innervé par une unique axone de type Ib (myélinisé, donc à propagation rapide), qui décharge
des potentiels d’action en réponse à l’étirement des fascicules de collagène à l’intérieur de
l’OTG. De par son positionnement en série avec le muscle squelettique, la population d’OTG
6
est donc idéalement placée pour répondre à une
tension
musculaire,
tandis
que
les
fuseaux
musculaires (fibres Ia) répondent à l’étirement du
muscle. En réalité, Horcholle-Bossavit et al.7 ont
montré que l’information codée par les OTG
dépendait à la fois de la force déployée par le
muscle
et
de
sa
dérivée
temporelle,
cette
information étant par la suite modulée au niveau des
différents relais sous-corticaux. Globalement donc,
quelle que soit la forme exacte de l’information
parvenant au SNC, les signaux envoyés par les
OTG doivent grosso modo se corréler avec
l’activation musculaire et fournissent un bon
candidat à la représentation du coût du mouvement.
Figure 1 : organe de tendon de Golgi. La
contraction des fibres musculaires en
série avec l’organe induit un étirement
des fascicules de collagène qui provoque
le déclenchement d’un potentiel d’action
dans la fibre Ib.
•
Les signaux de fatigue : des neurones sensoriels signalent l’épuisement des
ressources énergétiques au niveau des muscles ou du foie. Manifestement, les signaux de
fatigue sont aversifs en ce sens que l’animal essaie autant que possible de les prévenir.
Cependant, ces signaux évoluent trop lentement pour que l’on puisse associer à un
mouvement donné la « quantité de fatigue » qu’il induit. Ces signaux ne sont donc pas
directement opérants, bien qu’il contribue probablement à la modération de l’activité motrice.
Il pourrait ainsi être le stimulus aversif primaire, auquel le cerveau apprend par
conditionnement à associer une autre grandeur fortement corrélée mais plus opérante, comme
par exemple les signaux émis par les OTG. Les signaux des OTG seraient neutres à l’origine
mais deviendraient aversifs par association avec les signaux de fatigue.
7
ii.
les grandeurs internes :
Il existe également un petit nombre de grandeurs internes au SNC et ne provenant pas
d’afférences sensorielles, et qui de par leur corrélation avec le coût physiologique des
mouvements sont susceptibles d’être à l’origine de la représentation corticale du coût des
mouvements.
•
La commande motrice : l’activation des muscles squelettiques se fait via les relais
spinaux sous l’influence du cortex moteur. La dépendance de la force musculaire déployée à
l’intensité de décharge des neurones corticaux peut être modélisée de différentes façons, mais
vue leur action excitatrice il est clair que la corrélation entre la fréquence de décharge et la
force musculaire8,9, et donc l’énergie dépensée, est très grande. Il est également possible que
le fait de limiter la décharge des neurones puisse être en soi un objectif supplémentaire du
SNC, puisque le cerveau consomme également une certaine énergie en fonction de son
activité. Harris et Wolpert10 ont montré qu’une stratégie visant à minimiser l’activité des
neurones prédit bien la cinématique des mouvements de saccade. Guigon et coll. ont proposé
un modèle de contrôle moteur11 où le SNC ne minimise pas mais fixe un certain niveau
arbitraire et constant d’activité corticale, ce qui constitue une certaine forme de compromis
entre coût et performance. Ce modèle reproduit nombre de données expérimentales des
mouvements de pointage du bras : cinétique, cinématique, décharge des neurones de cortex
moteur, influence de la direction et de l’amplitude du mouvement. On peut sur ces bases
avancer diverses hypothèses quant à l’origine d’une modération de l’activité corticale : soit
qu’il s’agisse d’une tendance intrinsèque des circuits neuronaux à évoluer en bas régime, soit
que certaines régions du cerveau reçoivent une copie efférente du message corticospinal et
cherchent à en minimiser l’amplitude, à l’instar d’un signal aversif (cf. 5.).
•
La fatigue centrale : en parallèle de la fatigue musculaire précédemment évoquée,
une sensation de fatigue centrale se développe couramment suite à une activité physique ou
cognitive soutenue ou dans de nombreux troubles du système nerveux telles la sclérose
multiple et la maladie de Parkinson12 ; elle se manifeste par l’échec à soutenir des tâches
attentionnelles ou des activités physiques nécessitant de la motivation13. Les mécanismes de la
fatigue centrale sont encore largement méconnus, mais plusieurs hypothèses portant sur le
métabolisme du cerveau ont récemment été formulées13,14,15,16. Si la plupart de ces modèles
des mécanismes de fatigue expliquent comment elle se traduit sur le moment par une
diminution de l’activité corticale et donc un retrait comportemental, afin d’assurer une
certaine homéostasie, ils ne proposent cependant pas d’explication aux effets de prévention à
8
long terme de la fatigue, c’est-à-dire comment le SNC cherche à éviter une activité cognitive
ou motrice importante induisant une trop grande fatigue. Là encore, si tant est qu’un tel
mécanisme existe, il ne serait à l’instar de la fatigue périphérique pas directement opérant,
puisque l’information de fatigue ne permet pas de discriminer le coût de deux actions brèves
ou peu intenses, pas plus qu’elle ne permet de séparer les effets de deux actions simultanées
ou rapprochées.
•
L’hypothèse attentionnelle : Les capacités attentionnelles sont également limitées.
En plus de l’effort physique, il existe ainsi un effort attentionnel lors de la planification et
l’exécution de toute tâche, motrice ou même strictement cognitive. Afin de pouvoir rediriger
au maximum cette attention vers d’autres processus, le SNC pourrait être tenter de modérer
l’activité motrice. Cependant, la corrélation entre coût physiologique d’une action et ressource
attentionnelle étant vraisemblablement assez faible (se tenir debout requiert une attention
minimale, et pourtant dans de nombreuses situations un homme préférera faire l’effort d’aller
s’asseoir pour pouvoir se reposer), il faut plutôt attendre à ce qu’un tel mécanisme s’il existe
n’intervienne qu’en complément d’un des autres exposés plus haut.
Les différents candidats à la représentation du coût peuvent être classés selon deux
critères : leur origine (centrale ou périphérique), et leur temps caractéristique (de l’ordre de la
seconde pour certains, de l’heure pour les différents types de fatigue). Les signaux de fatigue
évoluent trop lentement pour pouvoir discriminer entre deux mouvements, et ne peuvent donc
apporter que la connotation aversive de l’activité motrice que le SNC doit ensuite rapporter à
une grandeur évoluant plus rapidement, qu’elle soit centrale (commande motrice) ou
périphérique (OTG). Une succession de périodes de fatigue manifesterait une trop grande
dépense énergétique, et donc une sous-évaluation du véritable coût physiologique de son
comportement ; un mécanisme devrait alors exister pour réévaluer le facteur α de compromis
entre activité motrice et récompenses. En outre, les signaux de fatigue ont un effet instantané
de réduction de l’activité pour ramener le système à l’homéostasie en laissant le temps au
corps d’éliminer les métabolites des muscles et du cerveau et de régénérer les ressources
énergétiques. Dans notre modèle, cet effet-là peut être compris en modulant la valeur du coût
ci. Cette dualité de l’effet de perception de la fatigue est analogue à celle de la sensation de
faim : non seulement la faim conduit l’animal à rechercher activement la nourriture (module
la valeur de la récompense ri) mais à plus long terme elle le conditionne à tâcher d’éviter ces
situations de manque.
9
3. Du lien avec la perception de l’effort :
Il est aujourd’hui reconnu que la perception de l’effort ne repose pas uniquement sur
des afférences sensorielles17, mais également et même principalement sur l’amplitude de la
commande motrice centrale. En effet, dans nombre d’expériences dans lequel la relation
normale entre commande motrice et contractions musculaires a été artificiellement altérée, la
perception de l’effort est accentuée lorsque la tension appliquée et donc la décharge des
neurones sensoriels ne le sont pas. Il est en
effet connu de tous qu’un poids paraît plus
lourd lorsque l’on est fatigué : l’efficacité
réduite des muscles oblige à activer
d’autant plus la voie corticomotrice pour
obtenir un résultat équivalent16. Le résultat
est le même lorsque lors d’une ischémie
partielle du muscle au curare, d’une
inhibition supplémentaire du muscle via
une excitation des fuseaux du muscle
antagonistes,
lors
d’une
hypotonie
musculaire causée par une lésion, ou enfin
dans
certaines
lésions
affectant
partiellement la voie corticofugale (fig. 2).
Figure 2 : différents facteurs augmentant la perception
de l’effort, à force développée constante. Ref 17.
Par contre, une lésion corticale entraînant une paralysie totale supprime toute
perception de l’effort, qui réapparaît très fortement dès la convalescence. Ces témoignages
nous indiquent que la perception de l’effort n’est pas formée en amont de ces structures
corticospinales, dans les cortex prémoteurs ou préfrontaux, puisque ces aires sont
hyperactivées dans le cas d’une paralysie même complète. Les motoneurones corticaux sont
quant à eux tous silencieux lors d’une paralysie totale, tandis que lorsque cette paralysie est
partielle, la sous-population indemne (la seule à pouvoir contracter le muscle)doit décharger
bien plus fort pour espérer compenser la déficience de la sous-population atteinte. Tout ceci
10
porte donc à croire que la perception de l’effort repose principalement sur l’amplitude de la
commande motrice centrale17.
Tous ces résultats n’excluent cependant pas une contribution complémentaire des
afférences sensorielles, au premier rang desquelles les OTG dont l’information codée, relative
à la tension musculaire, colle bien avec la notion subjective d’effort. Il semble en fait d’après
les travaux de McCloskey qu’il y ait une dissociation entre une sensation de l’effort liée à la
commande motrice et une sensation de la tension musculaire liée aux signaux émis par les
OTG. Lorsque le lien entre ces deux signaux est modifié en stimulant artificiellement les
fuseaux neuromusculaires du muscle agoniste (effet excitateur) ou antagoniste (effet
inhibiteur), les sujets peuvent selon les instructions maintenir soit la tension musculaire soit
l’effort à un niveau constant. La perception de l’effort est donc vraisemblablement
multidimensionnelle, reposant pour partie sur des informations périphériques et pour le reste
sur des processus uniquement centraux.
Vu le recouvrement entre les grandeurs impliquées dans la perception de l’effort et
celles postulées dans la représentation centrale du coût de l’action, perception de l’effort et
représentation du coût ne pourraient faire qu’un, et la modération de l’activité motrice
pourrait être la fonction principale de cette perception consciente. Par la suite, nous
supposerons cette hypothèse vraie, sans autre forme de procès, et utiliserons indifféremment
coût ou effort pour désigner la même représentation. L’hypothèse peut être résumée
simplement : le comportement de l’individu cherche entre autres objectifs à minimiser l’effort
perçu.
Comment tester ces différentes hypothèses quant à l’origine du coût central ? Il est
clair qu’en ce qui concerne la perception de l’effort, toute démonstration directe semble hors
de portée. On ne pourra en l’absence de résultats infirmant ce lien que constater une bonne
corrélation des deux grandeurs. Pour ce qui est de la contribution des différents signaux à la
représentation du coût central, on devrait obtenir des résultats intéressants en reprenant les
expériences de découplage de grandeurs normalement liées (voir plus haut). En particulier, on
pourrait activer des électrodes posées sur un muscle (pour exciter les OTG ou pour stimuler la
boucle rétro-inhibitrice) en réponse à un comportement de l’animal testé, par exemple le
choix d’une des branches de labyrinthe dans un paradigme de T-maze ; cela permettrait
d’évaluer l’implication des OTG dans la représentation du coût de l’action et donc dans le
choix comportemental que l’animal repère comme optimal. Si les OTG sont artificiellement
11
excités dans une des deux branches du labyrinthe, alors un biais systématique en faveur de
l’autre branche - par ailleurs équivalent en terme de gains – sera interprété comme une
implication des OTG dans la représentation du coût : la première branche sera jugée plus
coûteuse car activant plus les OTG.
4. Du lien avec le problème de Bernstein :
Le problème de Bernstein est un problème classique du contrôle moteur depuis sa
formulation en 1967 par le scientifique russe, et aucun consensus n’a pour l’instant émergé
sur la manière dont il est résolu par le système nerveux. Le problème tient à la redondance du
système moteur, c’est-à-dire la possibilité d’utiliser plusieurs mouvements distincts pour
arriver au même résultat. Par exemple, le bras articulé possède sept degrés de liberté, soit un
de plus que l’espace orienté, et peut donc atteindre sous une infinité de configurations
possibles un point quelconque de l’espace avec une orientation de la main déterminée. Qui
plus est, pour atteindre ce point, il existe une infinité de trajectoires y menant, une infinité de
vitesses de déplacement, et le système a toujours la possibilité d’activer en plus une paire de
muscles antagonistes (cocontraction) avec une force résultante nulle, et donc sans d’effet sur
la cinématique du bras.
Ce n’est pas tant l’existence de cette redondance qui pose problème, car après tout
l’abondance de solutions pourrait être écartée par un choix au hasard, mais l’existence d’un
certain nombre d’invariants dans le choix des activations musculaires et de la cinématique
résultante. Les trajectoires d’atteintes du bras sont toutes quasi-rectilignes, avec un profil de
vitesse en cloche et un pattern d’activation musculaire tri-phasique (agoniste, antagoniste,
agoniste). De plus, la loi de Fitts18 stipule que la vitesse est déterminée selon trois facteurs :
direction du mouvement, amplitude et précision requise. Des résultats similaires ont été
obtenus avec de nombreux autres systèmes moteurs (poignet, mâchoires, œil, appareil
respiratoire, …). Manifestement, le système nerveux se rajoute donc des contraintes qui
annulent cette redondance.
Depuis quelques années, la pensée majoritaire veut que le système nerveux réalise un
contrôle optimal, c’est-à-dire qu’en plus de réaliser une certaine action (par exemple placer la
main à tel endroit), il tâche d’y parvenir en minimisant une certaine fonction de coût19. De
nombreuses fonctions ont ainsi été avancées, et reproduisent avec succès les invariants du
système moteur : minimum de jerkiness20 (dérivée de l’accélération), de la dérivée des forces
12
appliquées, de la dérivée des couples de forces21, de l’énergie consommée22, de la commande
motrice10,11. Cependant, l’essentiel des débats se situent uniquement sur la validité des
prédictions de ces modèles en termes de cinématique ou d’activité neuronale. La question de
l’origine de ces contraintes est grandement occultée. Par exemple, pourquoi le SNC
chercherait-il comme des théories le proposent à minimiser les forces exercées par les muscles
de la mâchoire et les dérivées des forces appliquées par les muscles du bras ? On voit bien
l’écueil certain à trop vouloir fitter les résultats expérimentaux sans se soucier de la pertinence
des modèles proposés.
Groupes
musculaires
Mouvement
Activité
Performance
Bras
Poignet
Mâchoire
App. respiratoire
Oeil
Atteinte d’une cible
Rotation
Mastication
Respiration
Saccade
Dérivée des couples21
Dérivée des forces
Energie22
Variabilité terminale28
Confort29
Fluidité20
Activation
musculaire23
Couples
Forces24
Travail des forces25,26
Forces27
10
Erreur terminale
Temps de
mouvement30
Tableau 1 : principaux critères d’optimalité proposés pour différents groupes musculaires, regroupés
selon qu’il s’agit d’une fonction de coût liée à l’ « énergie » du mouvement ou d’un niveau de
performance. Certains modèles combinent des objectifs des deux types.
A quelle logique interne correspond cette minimisation ? Quels en sont les circuits
neuronaux responsables ? Il y a malgré tout quelques propositions existantes dans la
littérature. Essentiellement, la fonction de coût correspond à une exigence soit de
performance, soit de paresse. Les tenants de la seconde théorie expliquent brièvement que leur
fonction de coût (force, couple, …) étant fortement corrélée avec l’énergie dépensée dans le
mouvement, une telle stratégie apparue au cours de l’évolution aurait permis indirectement de
minimiser les dépenses physiques. Certes, mais au vu des difficultés à discriminer les
différents modèles par leurs prédictions, il semble que n’importe quelle fonction de coût pour
peu qu’elle se corrèle avec les autres fournirait l’essentiel des prédictions attendues. Par
ailleurs, la vraisemblance de la représentation centrale des grandeurs considérées est peu
débattue. Ce qui au final nous avance peu sur les bases biologiques de l’optimisation du
mouvement.
Les modèles fondés sur une optimisation des performances sont à cet égard bien plus
intéressants, puisqu’ils reposent sur un principe vérifié – l’individu cherche par apprentissage
à améliorer ses performances . Ainsi, Harris et Wolpert10 expliquent les mouvements du bras
13
et de l’œil en supposant que le bruit interne à la commande est minimisé de façon à minimiser
l’erreur terminale. Lorsque l’on se rappelle comment performance et effort avaient été mis en
opposition dans l’introduction de ce document, il peut paraître étrange de constater qu’ici des
modèles concurrents fondés sur l’optimisation de grandeurs antagoniques fournissent des
résultats similaires. En effet, dans la limitation du problème et les choix de modélisation (bruit
dépendant du signal) qu’en ont fait Harris et Wolpert, performance maximale et effort
minimal sont deux critères qui vont dans le même sens, mais cette association ne soutient pas
l’élargissement du problème. Par exemple, la cocontraction a des effets inverses sur ces deux
valeurs : elle améliore généralement la précision2 mais coûte plus chère. On observe
généralement une forte cocontraction dans les périodes d’apprentissage moteur qui diminue
au fur et à mesure de cet apprentissage. On peut l’expliquer en argumentant que c’est d’abord
l’exigence de performance qui prime quel qu’en soit le prix et que cette exigence cède petit à
petit à un souci de respecter son appareil moteur. A contrario, une stratégie reposant
uniquement sur la performance prédirait un niveau de cocontraction soutenu même après
apprentissage. La fonction de coût doit donc comporter une partie se rapportant à énergie
dépensée.
Sans surprise, nous proposons donc que la fonction de coût minimisée par le SNC est,
ou au moins contient car des impératifs de performance s’y greffent très certainement, l’effort
perçu au cours du mouvement. Il ne s’agit en fait que la traduction dans le cadre du problème
de Bernstein de ce que nous avons énoncé dans la partie précédente. Nous pensons que seule
une prise en compte des processus biologiques à la base de la gestion de l’effort et de la
performance permettra d’expliquer le comportement observé, au prix d’un effort de
modélisation bien plus important, mais plus satisfaisant que la simple comparaison de
prédictions avec une fonction de coût choisie ad hoc.
5. De la mémoire de l’effort :
La représentation du coût a une origine centrale (activité du cortex moteur) et/ou
périphérique (organes de Golgi). Néanmoins, l’un comme l’autre ne code que pour la valeur
immédiate de l’effort en cours. Afin d’intégrer le coût de l’action au processus de sélection du
comportement, il faut que ces valeurs soient mémorisées et puissent être rappelées. C’est
vraisemblablement dans le cortex orbito-frontal (COF) ou l’amygdale basolatérale (ABL) que
14
ce codage a lieu. Le COF et l’ABL sont deux aires du système limbique fortement
interconnectées31. Le COF des singes code pour la valeur hédonique des stimuli4,5, quelle
qu’en soit la modalité sensorielle : goût, odorat, toucher, ou vue. La valeur hédonique d’un
stimulus dans le COF et l’ABL est modulée par les besoins internes : la présentation de
nourriture activera d’autant plus le COF et l’ABL que le sujet a faim32. Chez l’humain, il a été
montré que la partie médiane du COF code les gains (monétaires) tandis que la partie latérale
code les pertes33. Les efforts consentis seraient donc codés dans cette dernière zone.
Le COF ne se contente pas de s’activer en réponse à un stimulus. COF et ABL
anticipent également les récompenses et punitions attendues34,35. Ce réseau est important afin
de motiver le comportement vers le but recherché36,47; autrement dit, c’est lui qui fournit la
valeur des récompenses accessibles ri aux aires responsables de la sélection de l’action37,
comme nous le verrons dans la dernière partie. Il serait donc logique que le COF latéral et/ou
l’ABL code également pour les coûts associés à l’action, de même qu’ils codent les pertes
financières ou les signaux aversifs. Il recevrait de ses afférences sensorimotrices la valeur de
l’effort associée à l’action, qu’il mémoriserait de même que la récompense. Puis lorsque cette
action est à nouveau présentée comme choix possible, il renvoie ces informations vers le
striatum ventral qui sélectionne l’action réalisant le meilleur compromis récompense/effort.
Comme nous l’avons vu, une représentation du coût de l’action est nécessaire à tout
individu désireux de préserver l’équilibre de ses ressources énergétiques. Cette représentation
pourrait avoir une origine périphérique par les organes des tendons de Golgi et/ou centrale par
l’activité du cortex moteur. Il est probable qu’elle soit intimement liée à la perception
consciente de l’effort, qui repose justement sur ces deux activités centrale et périphérique. Les
signaux de fatigue, là encore centraux ou périphériques, ont plus vraisemblablement un seul
rôle de modulation de cette perception à court terme et à long terme, à l’instar de ce qu’est la
faim vis-à-vis de la nourriture.
Quelle qu’en soit l’origine, le coût de l’action doit être mémorisé afin de participer
ultérieurement aux processus de sélection de l’action. La valeur de ce coût serait logiquement
stockée puis rappelée dans deux aires limbiques impliquées dans le codage des récompenses
et punitions : le cortex orbitofrontal latéral et l’amygdale basolatérale. Si l’effort est
appréhendé, dans une certaine mesure au moins, comme une punition, alors cela peut
expliquer comment le SNC parvient à limiter ses dépenses énergétiques. Notamment cela
fournit la base pour un modèle de contrôle optimal des mouvements humains : l’homme
15
cherche dans son activité motrice à maximiser certaines performances tout en minimisant les
efforts consentis. Cela expliquerait que des trajectoires de moindre effort soient
invariablement choisies par le SNC parmi une infinité de choix possibles (problème de
Bernstein).
Comme ce dernier exemple vient encore de nous le rappeler, dans le choix du
comportement tout est affaire de compromis. Obtention de récompenses et préservation des
réserves énergétiques sont deux objectifs le plus souvent antagoniques, et il n’est pas aisé de
ménager efficacement la chèvre et le choux. Cela passe nécessairement par une traduction
dans une monnaie commune des gains et des coûts37, ce que nous avons formalisé dans notre
modèle par le coefficient α. Il ne faudrait pas croire que cette traduction est aisée,
récompenses comme coûts se ramenant tous deux in fine à un nombre de calories. Tout
d’abord parce que les récompenses ne sont pas toutes nutritives, et correspondent à bien
d’autres besoins animaux : sexe, survie (fuite d’un prédateur), etc. Pour ce qui fait courir
l’espèce humaine, on serait mal avisé de vouloir tout ramener à un simple problème de faim.
Même en ce qui concerne la nourriture, la traduction n’est pas immédiate. Premièrement parce
qu’il y a toujours une certaine incertitude sur l’obtention de nourriture et le coût réel qu’il
faudra y mettre, et que certains comportements exploratoires sont à ce titre particulièrement
risqués. Deuxièmement parce qu’entre l’effort et le réconfort il s’écoule toujours un certain
laps de temps ; or l’organisme préfère toujours les récompenses plus rapidement accessibles,
ne désirant pas trop entamer ses réserves pour un gain futur toujours incertain.
Tout choix de coefficient α comportera donc une part d’arbitraire. Ce coefficient a
pourtant un effet très important sur la régulation de l’activité motrice. Trop faible, l’individu
se dépensera trop et passera pour hyperactif. Trop grand, l’individu s’économisera trop et
passera pour hypoactif, voire mou. Justement, de nombreuses pathologies du système
dopaminergique se manifestent par des symptômes d’hyper- ou d’hypoactivité. Cela nous
amène naturellement à nous interroger sur une éventuelle implication de la dopamine dans la
réalisation du compromis récompense/effort. Nous repartirons tout d’abord sur les modèles de
fonction de la dopamine fondés principalement sur des expériences animales. Ce n’est que
dans un deuxième temps que nous reviendrons à l’étude des pathologies humaines.
16
II. Dopamine et régulation de l’effort
1. Théories de la dopamine
La dopamine est le plus étudié des neuromodulateurs du cerveau, et son implication a
été démontrée dans de très nombreux troubles moteurs (Parkinson, syndrome de Tourette,
dystonie, hyperactivité…) ou psychiatriques (schizophrénie, TOC, dépression, …) ; c’est
également la cible de très nombreuses drogues. L’hypothèse la plus populaire voit dans la
décharge de ces neurones, et plus particulièrement dans la partie phasique du signal envoyé au
système limbique, un indicateur central de « récompense » ou de « renforcement »38,39. Selon
cette théorie, l’amplitude du signal indiquerait le niveau de plaisir associé à un stimulus, et
pourrait être réutilisé pour l’apprentissage instrumental, c’est-à-dire pour renforcer le
comportement qui a amené à cette récompense.
Une littérature très importante étaie cette hypothèse39. Lorsqu’on leur offre la
possibilité, les rats peuvent travailler longtemps à presser un levier stimulant en intracrânien
leur propre système dopaminergique, tout comme des drogués peuvent orienter complètement
leur comportement vers la recherche de drogues ; tous agissent comme s’il s’agissait de
récompenses tout aussi naturelles que de la nourriture ou du sexe. D’autre part, les
récompenses naturelles induisent au moment de leur présentation une activité phasique (<1s)
de la dopamine39. Lorsque cette récompense peut-être prédite par un stimulus (cue),
l’activation se fait au moment de la présentation du prédicteur, et non plus de la récompense,
comme le prévoit la théorie de l’apprentissage par renforcement. A l’opposé, des antagonistes
de la dopamine ou des des déplétions des neurones dopaminergiques altèrent fortement le
renforcement lié à la présentation de récompenses, naturelles ou non. Selon le modèle
anhédonique (general anhedonia model)40, cela peut se comprendre en considérant que les
stimuli présentés, en l’absence de réponse phasique de la dopamine, ne sont plus considérés
comme « agréables » ou « bons », et donc n’induisent pas de renforcement. Ce modèle prédit
donc que tous les comportements dirigés vers une récompense sont à la suite d’une atteinte au
système dopaminergique progressivement désappris puisque la récompense attendue n’est pas
présente, d’où une diminution jusqu’à extinction de toute activité motrice. C’est ainsi que sont
interprétés les innombrables résultats d’akinésie lors d’atteintes systémiques de la dopamine.
17
Cependant, un certain nombre d’expériences depuis une dizaine d’années mettent à
mal cette jolie théorie41. Notamment il se trouve que les neurones de la dopamine ne
répondent pas seulement à des stimuli de récompenses, mais également à des stimuli aversifs
et autres stimuli de grande amplitude, c’est-à-dire tous les stimuli dits saillants, qui captent
l’attention. Qui plus est, l’apprentissage des comportements d’évitement (de stimuli aversifs)
est lui aussi altéré par des antagonistes de la dopamine42. Une autre série d’expériences vient à
l’encontre de l’idée selon laquelle la dopamine fournit une mesure du plaisir associé à un
stimulus. Les antagonistes de la DA ne semblent pas en mesure de bloquer les effets
euphoriques de la cocaïne ou des amphétamines. Ces mêmes antagonistes de modifient pas
chez les animaux étudiés les réactions orofaciales à la nourriture ni les autres indicateurs
comportementaux de la nature hédonique des aliments41. Cette constatation reste valide pour
des lésions des fibres dopaminergiques du noyau accumbens (striatum ventral), ou à l’inverse
après injection d’amphétamines dans ce même noyau accumbens43 ainsi que chez des souris
mutantes hyperdopaminergiques44. Ces observations, ajoutées au fait que dans toutes ces
expériences l’intervention sur le système dopaminergique altère bien le comportement dirigé
vers ces récompenses, ont amené Berridge et Robinson à postuler que la dopamine ne code
pas l’aimer (liking) mais le vouloir (wanting)45. Les souris privées de dopamine sont toujours
aussi sensibles aux récompenses mais n’arrivent pas à motiver leur comportement pour y
parvenir. Effectivement chez le singe l’amplitude des décharges de DA se corrèlent mieux
avec le niveau de motivation (mesuré par le temps de réaction) qu’avec la taille de la
récompense46.
Le problème, signalé par Salamone41, est que les termes « vouloir » et « motivation »
sont tous deux équivoques. S’agit-il de la représentation anticipée de la taille de la
récompense en rapport avec les besoins de l’animal (semblable à la représentation dans le
cortex orbito-frontal), c’est-à-dire la grandeur ri, ou s’agit-il de l’effort que l’animal est prêt à
concéder pour obtenir cette récompense ? Cette dernière valeur est selon notre modèle égale
au ci maximum telle que l’action soit globalement profitable ( ri-αci > 0 ), soit ri/α. La
différence entre ces deux définitions tient donc à cette constante α qui calibre le passage du
limbique au moteur.
Les travaux de Salamone et de ces collaborateurs ont montré que c’est la seconde
définition qui convient le mieux, en accord avec la fonction d’activation du système moteur
par le système limbique postulée pour le noyau accumbens47. Ces expériences montrent en
effet que des faibles doses d’antagonistes de la DA suppriment ou diminuent l’activité motrice
18
sans pour autant affecter l’appétit. Le paradigme expérimental le plus utilisé offre à des rats
une certaine dose de nourriture après avoir pressé un certain nombre de fois un levier.
Lorsque l’effort requis par dose de nourriture est suffisamment important, les rats traités
diminuent la fréquence de travail alors qu’ils montreraient un appétit tout à fait normal si la
nourriture leur est offerte sans effort. Cet effet est bien mis en évidence lorsque l’on met en
concurrence les deux sources de nourriture, l’une qui requiert de presser le levier et l’autre en
libre service mais moins appréciée de l’animal. Alors que l’animal non traité préfère travailler
pour manger mieux, le rat sous antagoniste de DA est bien plus sensible à l’effort requis et se
contente de la mal-bouffe. Le temps de travail est par ailleurs équivalent voire supérieur à
celui des animaux non traités. Cet effet est bien différent lorsque l’on nourrit au préalable des
animaux non traités, ce qui revient en jouant sur la faim à diminuer la valeur de la nourriture
ri ; les rats diminuent alors fortement leur temps de nourriture, et conserve malgré toute leur
préférence pour la meilleure nourriture. Un certain nombre d’autres résultats exposés dans la
critique de Salamone41 confirme bien que la diminution de l’activité suivant l’affaiblissement
du système dopaminergique n’est pas due à une réduction de l’attrait de la nourriture et des
autres récompenses mais à une moins grande disposition à travailler pour obtenir ces
récompenses.
On peut par exemple faire varier le nombre de fois (fixed ratio : FR) que le rat doit
presser le levier pour obtenir une pelletée de nourriture afin de moduler l’effort nécessaire à la
récompense. Plus ce nombre est important et plus la réponse de l’animal est altérée. Elle reste
inchangée à FR1 ; à FR5 (5 répétitions pour une dose), la réponse n’est que transitoirement
altérée. Le fait que la fréquence de réponse normale soit finalement restaurée va d’ailleurs
tout à fait à l’encontre de la théorie anhédonique qui prévoit un phénomène d’extinction,
c’est-à-dire une réponse d’abord inchangée qui se dégrade progressivement. Lorsque l’on
augmente encore le ratio FR, les déficits se font plus clairs et l’animal s’arrête finalement de
travailler à FR200.
Un examen des métabolites de la DA montre que la décharge de DA est supérieure en
FR10 par rapport à FR1, alors que le nombre de réponses fournies et de récompenses
obtenues sont respectivement de 6% et de 58%48. La DA semble bien s’accommoder de cette
fonction de dynamiser le comportement lorsque les récompenses ne sont pas directement
accessibles, bien plus que de signaler les récompenses. Il est de fait connu depuis bien
longtemps que les animaux légèrement hyperdopaminergiques s’engagent plus facilement
dans de longues périodes d’exploration, très coûteuses alors que l’animal n’a pas même
l’assurance d’être finalement récompensé49.
19
Figure 3. Relation entre la fréquence de réponses d’animaux contrôle au paradigme de pressage de levier
et le déficit suite à des déplétions de la DA du noyau accumbens, exprimée comme le pourcentage de la
fréquence contrôle. Chaque point correspond à une expérience de Salamone et al 50; les deux points
marqués d’une flèche correspondent à une étude ultérieure51.
Une analyse de différentes expériences de l’équipe de Salamone montre que l’ampleur
du déficit suite au blocage de la DA se corrèle bien à la fréquence de réponse de l’animal
(Figure 3), quelque chose comme la « densité d’effort ». Cependant, dans une autre
expérience, on compare FR60 à FR300 mais où la taille de la récompense dans le second cas
est cinq fois plus grande que dans le premier, donc pour un rapport récompense/effort
identique. La réponse à FR60 est légèrement altérée pour les animaux traités alors qu’elle est
totalement éteinte pour FR300. La quantité critique semble donc être l’effort à fournir pour
obtenir une récompense, plus que ce rapport récompense/effort.
On peut à juste titre se demander si c’est véritablement l’effort à fournir qui gène
l’animal sans DA ou si ce n’est pas plutôt le délai entre cet effort et la remise de la
récompense. Dans cette dernière expérience, c’est effectivement autant l’effort que le temps
de la réponse qui croît entre FR60 et FR300 ; par ailleurs, l’équipe de Salamone n’a pas réussi
à mettre en évidence une aggravation du déficit chez les rats déplétés simplement en
augmentant la force requise pour presser le levier52. L’impulsivité, définie comme une
préférence accrue vers les récompenses rapidement accessibles, est il est vrai une
conséquence de lésions du noyau accumbens53 ou de la voie dopaminergique innervant le
cortex orbito-frontal54. Cependant tous les déficits observés lors de la déplétion ne peuvent
20
être expliqués en terme de sensibilité au délai, d’une simple hausse du facteur de « discount »
temporel (comme utilisé dans les modèles de renforcement37). Lorsque l’effort requis est
minimal, le rat déplété maintient le même niveau de réponse que le rat contrôle malgré une
attente de 30 secondes avant de pouvoir répondre (FR1-VI). Dans une expérience récente55 où
les rats devaient attendre de plus en plus longtemps pour obtenir leur récompense, des
antagonistes sélectifs des récepteurs D1 ou D2 à la DA injectés dans le noyau accumbens ne
modifiaient pas le point de rupture (durée maximale supportable par les animaux), ce qui va à
l’encontre de l’hypothèse d’impulsivité. Par contre, les rats traités répondaient moins souvent
au stimulus amorçant une session, ce qui pourrait s’interpréter comme une moindre volonté à
exercer un premier effort n’amenant que tardivement une récompense. Il pourrait finalement y
avoir interaction entre le facteur effort et le facteur temps, le facteur temps n’intervenant que
lorsqu’il y a un effort important à réaliser. C’est en tout cas ce que suggèrent les résultats de
l’expérience jumelle de FR1-VI, FR5-VI, où les rats devaient cette fois-ci effectuer 5 réponses
après l’intervalle de 30 secondes avant d’obtenir la récompense. La fréquence de réponse est
alors sensiblement diminuée pendant quelques jours avant de revenir au même niveau que les
contrôles ; ce déficit temporaire ne se retrouve ni lorsque l’on retire cet intervalle d’attente ni
lorsque la réponse demandée est seulement FR1. Cette interaction si elle se confirme serait
sans doute mieux mise en valeur si la réponse était demandée avant l’intervalle d’attente et
non après. Il semble en fait que c’est particulièrement au moment de faire l’effort que la
motivation doit être importante. Si le facteur de discount est augmenté par la déplétion de DA,
cela sera donc mis en évidence si le moment de la réponse et celui de la récompense sont
séparés d’un délai.
Sans occulter cette incidence sur la sensibilité aux délais, et en attente de résultats plus
explicites sur l’interaction entre les facteurs délai et effort, on peut tenter d’interpréter ces
résultats dans le cadre de notre étude du lien entre effort et activité motrice. Une déplétion de
dopamine au niveau du noyau accumbens se traduit par une disposition moindre à faire des
efforts pour obtenir des récompenses. Cela revient à dire que le facteur α est augmenté. La
motivation à réaliser une action ri-αci est d’autant plus diminuée que l’effort à effectuer ci est
important. Si l’animal est placé dans un paradigme de sélection de l’action, le comportement
de l’animal traité sera globalement réorienté vers les actions de moindre coût. C’est le cas
lorsque le rat doit choisir entre la nourriture gratuite et la nourriture meilleure nécessitant de
presser le levier. C’est également le cas dans une expérience où les rats ont été placés dans un
labyrinthe à deux branches, avec pour chacune une marche à franchir pour arriver jusqu’à la
21
récompense56, la plus grosse récompense étant bien entendu associée à la plus grande marche.
Les déplétions de DA du noyau accumbens font basculer les réponses de la grande marche (1)
vers la petite (2). Essayons de mettre cela en inéquations. On avait au début :
r1-αc1 > r2-αc2 où α est la valeur naturelle de ce coefficient, qui devient α’ > α après
déplétion de la DA du noyau accumbens. Alors l’ordre des préférences est inversé :
r1-α’c1 < r2-α’c2
Il y a basculement du choix car le différentiel des récompenses était plus important
que le différentiel des coûts avant intervention mais devient ensuite plus petit :
α (c1-c2) < r1-r2 < α’ (c1-c2),
Cela est dû uniquement au fait que les valeurs des récompenses ont été justement bien
choisies dans l’expérience pour provoquer ce basculement. Les auteurs ont vérifié que, si la
récompense est nulle sur la petite marche, le rat continuera à aller chercher sa nourriture sur la
grande, ce qui exclue de facto l’hypothèse d’un déficit purement moteur. De même que si les
marches ont la même hauteur, les rats conservent leur choix premier, ce qui exclut
l’hypothèse d’un déficit d’évaluation des récompenses.
En résumé, la littérature semble plutôt indiquer un rôle de la DA dans la traduction en
termes moteurs, donc directement intéressés par le coût de l’action, de la motivation à
effectuer une action, ce qui se traduit dans notre formalisme par une corrélation négative entre
le niveau tonique de dopamine et le facteur α : une déplétion de DA accroît la valeur du
facteur α. Nous avons déjà insisté sur la nécessité de rapporter dans une monnaie d’échange
commune tous les gains et coûts espérés d’une action afin de l’évaluer dans son intégralité ;
la dopamine pourrait au vu de notre revue d’articles fort bien s’accommoder d’un rôle de
calibreur fixant le taux de change entre récompense et effort. Il ne faudrait pas cependant
attribuer définitivement ce rôle de traduction à la dopamine avant de mieux avoir étudié les
réseaux auxquels elle appartient, et de pouvoir discerner ce qui est lui imputable et ce qui est
imputable à ses afférences et ses cibles (notamment le striatum dorsal et le noyau accumbens).
Nous aborderons ces débats d’anatomie fonctionnelle par la suite. Avant cela, nous
examinons dans la prochaine partie jusqu’à quel point cette vue sur la dopamine est
compatible avec nos connaissances sur les nombreux troubles et maladies affectant le système
dopaminergique.
22
2. De l’implication pour les troubles moteurs
Les circuits de la dopamine sont la cible de très nombreuses pathologies, que l’on peut
classer selon qu’elles soient franchement motrices (maladie de Parkinson, chorée de
Huntington, dystonie héréditaire progressive, tics) ou d’ordre psychiatrique (dépression,
schizophrénie, Troubles Obsessionnels Compulsifs). Les troubles moteurs ont le plus souvent
pour cibles la dopamine de la substance noire (SNc, projetant sur le striatum dorsal), tandis
que les troubles psychiatriques sont plutôt liés à des dysfonctionnement de la DA de l’aire
tegmentale ventrale (ATV, projetant sur les aires limbiques et le striatum ventral ou noyau
accumbens). Néanmoins, les pathologies dites psychiatriques s’accompagnent souvent
également de troubles moteurs (par exemple hypométrie de la saccade chez les
schizophréniques57) ou comportementaux (hypoactivité chez les dépressifs, hyperactivité liée
aux troubles de l’attention), si bien qu’une dichotomie totale entre ces deux familles ne paraît
pas justifiée. A cet égard, il est instructif de constater le recoupement des symptômes et
l’association fréquente des pathologies chez un même sujet entre les troubles obsessionnels
compulsifs (TOC), les troubles de déficit de l’attention/hyperactivité (TDA/H) et le syndrome
de Tourette.
Il semble en fait qu’une large part des symptômes de ces pathologies puissent être
regroupés selon qu’ils témoignent plutôt d’une hypoactivité ou d’une hyperactivité du
système moteur : akinésie (déficit d’initiation du mouvement), micrographie (réduction de la
taille de l’écriture), bradykinésie (lenteur des mouvements), fatigue apparente d’un côté ; tics,
actions et pensées compulsives, hyperactivité de l’autre. L’hypoactivité ou l’hyperactivité
peuvent aisément s’expliquer dans le cadre de notre modèle de régulation de l’activité
motrice ; elles sont la conséquence logique d’un dérèglement du facteur α. En effet, une
diminution de la sensibilité à l’effort libèrera l’individu de cette contrainte et le conduira à
s’activer autant que possible pour s’octroyer le maximum de récompenses. Inversement, une
sensibilité accrue à l’effort obligera
l’individu à s’économiser au maximum et donc à
renoncer à des comportements trop coûteux. En vertu de la robuste association entre niveau de
dopamine et facteur α exhibée dans la précédente partie, on est en droit de chercher une
explication des symptômes de ces différentes pathologies du système dopaminergique à
travers notre formalisme. Toutefois, la très grande diversité des pathologies et des symptômes
ne saurait être réduite à un simple facteur scalaire de « niveau d’activité ». Il y aurait par
exemple une distinction à faire entre le niveau d’intégration du symptôme : moteur bas niveau
23
(par ex. tics) ou comportemental haut niveau (hyperactivité). On doit donc être conscient
avant de commencer cette analyse qu’on ne pourra y attendre une explication détaillée de la
psychopathologie des différentes maladies ; tout juste un principe général de leur incidence
sur le comportement.
Les mécanismes d’action de ces pathologies sur le système dopaminergique ne sont
connus et reconnus que pour quelques-unes d’entre elles. Pour de nombreuses autres, il n’est
pas clair si la maladie attaque en premier lieu le système dopaminergique ou si les altérations
observées ne sont que le résultat de mécanismes corollaires. Qui plus est, les mécanismes
homéostatiques internes au système dopaminergique sont tels qu’une pathologie
originellement hypodopaminergique peut parfaitement après régulation se traduire par une
augmentation des taux de DA mesurés68, et réciproquement. Devant une telle complexité,
nous préférons commencer notre étude par une pathologie dont les mécanismes sont reconnus
et hors de tout soupçon : la maladie de Parkinson.
La maladie de Parkinson est une maladie neurodégénérative atteignant principalement
les neurones dopaminergiques nigrostriataux, c’est-à-dire ceux reliant la substance noire
compacte (SNc) au striatum dorsal (noyau caudé et putamen). Nous nous attendons donc à ce
que le facteur α de notre modèle soit très élevé. Les symptômes apparaissent lorsque la
dégradation est trop importante pour être compensée par les mécanismes homéostatiques tels
l’hypersensibilisation des récepteurs, et que le niveau tonique de DA extracellulaire chute
sensiblement58. L’importance du niveau tonique de DA dans les symptômes est bien mis en
évidence par les effets du traitement anti-parkinsonien L-DOPA : cet agoniste de la DA qui
rétablit le niveau tonique de DA mais pas le niveau phasique a un effet très positif sur les
symptômes moteurs, mais pas sur d’autres symptômes plus cognitifs39. Outre les
tremblements et la rigidité des membres, les principaux symptômes moteurs sont les suivants :
-
bradykinésie : lenteur excessive des mouvements
-
akinésie : déficit d’initiation des mouvements, se manifestant par une plus
grande latence des temps de réaction
-
déficit de la locomotion : démarche lente en traînant des pieds
-
micrographie : réduction au cours de l’écriture de la taille des caractères
-
hypométrie des saccades occulaires et des mouvements du bras59
Tous ces symptômes sont de caractères hypokinétiques, c’est-à-dire qu’ils témoignent
d’un nivellement par le bas de l’amplitude et de la vitesse des mouvements. A un niveau
comportemental, la maladie se traduit également par une diminution de l’activité volontaire,
un retrait social et une plus grande fatigue. La plupart de ces déficits peuvent cependant être
24
réduits en présentant aux sujets des signaux externes guidant le comportement, comme par
exemple des lignes horizontales pour calibrer la taille des lettres ou des bips sonores pour la
durée des mouvements. Cela a été interprété principalement comme la preuve d’une atteinte
spécifique par la maladie des mécanismes d’activation du système moteur par des signaux
internes. Nous allons donc tenter de revoir et compléter ce jugement à l’aide de notre
formalisme, en illustrant son application par l’étude de la bradykinésie. Notre raisonnement
sera étendu par analogie aux autres symptômes de la maladie de Parkinson, puis aux autres
pathologies atteignant la dopamine.
Il n’y a pas de consensus actuel sur l’origine de la lenteur des mouvements des
parkinsoniens, sûrement l’un des symptômes les plus handicapants de la maladie. Il est
toutefois acquis que ce déficit est bien dû à la dégénérescence des neurones dopaminergiques
et pas des neurones noradrénergiques qui sont affectés dans une moindre mesure par la
maladie de Parkinson60. Une première hypothèse est qu’il s’agirait en fait d’un mécanisme de
compensation pour d’autres désordres moteurs primaires induisant de larges erreurs dans les
trajectoires planifiées. Ainsi, les patients feraient le choix d’être plus lents pour être plus
précis, en accord avec la loi de Fitts18 (loi empirique donnant la relation entre la vitesse
d’exécution d’un mouvement et sa précision terminale). Cette hypothèse, un temps confortée
par les expériences montrant que de grandes exigences de précision rendent le mouvement
encore beaucoup plus lent qu’à l’accoutumée61, ne peut toutefois pas expliquer à elle seule
toute le lenteur du mouvement, qui persiste même en dehors de toute contrainte de précision
terminale62.
Majsak et ses collaborateurs ont montré63 que le déplacement du bras pouvait être
grandement accéléré en fournissant des signaux externes guidant le timing du mouvement. Le
protocole expérimental est le suivant : une balle se trouvait posée sur un plan incliné. Dans un
premier cas, elle est maintenue immobile si bien que le sujet a tout le temps pour l’attraper
avec le bras, bien qu’on lui demande de le faire « le plus rapidement possible ». Les patients
parkinsoniens affichent comme prévu des temps de réaction et de mouvement plus longs pour
cette tâche que les contrôles. Dans l’autre cas, la balle est lâchée inopinément sur le plan
incliné, roule rapidement et ne doit être saisie que sur une certaine portion, si bien que pour y
parvenir les patients doivent dépasser les limites de vitesse exhibeés dans la première
expérience. Ils y parviennent (figure 4). L’interprétation majoritaire de ces résultats, comme
de tous les autres montrant que les limites affichées par les parkinsoniens peuvent être
25
bousculées grâce à des signaux externes, est que le déficit porte sélectivement sur les
mouvements générés par des signaux uniquement internes.
Figure 4 : temps de mouvement des patients parkinsoniens (en noir) et des sujets contrôle (en blanc)
dans les différents protocoles : balle stationnaire, en mouvement, puis à nouveau stationnaire. Ref 63.
Nous proposons pour notre part, et cette assertion n’est en rien contradictoire avec
cette première hypothèse, que cette sélectivité des déficits est due à une différence générale de
sensibilité aux contraintes internes et externes. Cette différence ne se manifeste que les sujets
Parkinsoniens, du fait de leur sensibilité accrue à l’effort. Prenons le cas de l’expérience de
Majsak : lorsque la balle ne bouge pas, le sujet est sûr de l’attraper et donc le seul facteur
jouant dans la « récompense » R attribuée à l’action est le temps de mouvement T, d’autant
que les sujets doivent être aussi rapides que possible. R et T covarient négativement, et on
pourra par exemple écrire : R = R0 – T où R0 signale que la balle a été attrapée et le second
terme pénalise les temps de mouvement trop longs.
De même, plus le mouvement est rapide, plus il demande d’activation musculaire et
plus le coût C est élevé : C = 1/T
(les formules sont choisies uniquement pour faire émerger un maximum de R-αC ; les
diagrammes suivants sont sûrement plus éloquents)
Dans ces conditions, le gain net R-αC est maximum pour T=√α.
Le niveau tonique de dopamine étant beaucoup plus faible chez les parkinsoniens que
chez les sujets contrôle, le facteur α est plus élevé et donc le temps de mouvement T est
rallongé, malgré les consignes.
26
Il en est tout autrement lorsque la balle roule, puisqu’alors la prise de balle requiert
d’être plus rapide que la balle :
R = R0 if(T<Tballe) – T
Et alors, pour peu que le coût associé ne soit pas exorbitant, le meilleur compromis est réalisé
pour T=Tballe. Les diagrammes de la figure 5 illustre ce point en comparant les performances,
coûts, et gains nets pour deux temps de mouvement différents.
(a)
performance
coût
12
10
(b)
T=Tballe
T>Tballe
gain net
8
6
8
4
6
2
0
lle
lle
n
-8
T>
Tb
a
T=
Tb
a
lle
T>
Tb
a
T=
Tb
a
lle
-6
pa
rk
in
so
ni
e
-4
co
nt
rô
le
2
pa
rk
in
so
ni
e
co
nt
rô
le
-2
n
0
4
temps de mouvement
Figure 5. (a) : performance et coût pour deux temps de mouvement, rapide (T=Tballe) ou lent (T>Tballe),
et dans les deux conditions (balle immobilie à gauche, en mouvement à droite). (b) : comparaison des gains
nets associés pour les sujets contrôles (α=1) et les sujets parkinsoniens (α=3). Les sujets contrôle choisiront
dans les deux conditions le mouvement rapide, alors que les parkinsoniens ne le feront que dans la
condition balle en mouvement.
Les patients ont ainsi pu dépasser leurs limites, seulement parce que les contraintes
dans la seconde tâche sont moins lâches que dans la première : soit on réussit, soit on échoue,
et pour réussir il faut être rapide. La vitesse d’exécution peut ainsi être augmentée dès lors
qu’on avantage grandement les temps de mouvement courts, que l’on crée un véritable
différentiel avec des valeurs plus intermédiaires. Sinon, c’est la sensibilité accrue à l’effort
(par le facteur α) qui se charge de choisir sa vitesse de déplacement préférée. Et elle n’est
vraiment pas rapide.
27
Les signaux externes fournissent vraisemblablement plus facilement ce différentiel
qu’une échelle de valeur interne, et ce pourrait être la cause des multiples exemples
d’améliorations des performances par ce genre de signaux :
-
signaux sonores pour accélérer le mouvement64 : le rôle est le même que dans
l’expérience de Majsak.
-
lignes horizontales pour l’écriture65. Là encore, en l’absence de ces contrôles,
la performance n’est que doucement corrélée à la taille de l’écriture : plus l’écriture est
grande, plus elle est lisible. Par contre, des lignes horizontales jouent la fonction couperet
recherchée : soit le caractère s’étire sur toute la longueur demandée, soit il est trop petit. Par
contre, simplement répéter la demande au sujet d’écrire « gros » ne suffit pas pour améliorer
la taille des caractères, parce qu’on n’induit pas le différentiel recherché65.
-
marques au sol pour allonger la longueur des pas : même effet que
précédemment.
- visibilité des cibles pour l’œil ou la main. Lorsque ces cibles ne sont pas
présentes au moment du mouvement mais ont été apprises auparavant, les saccades
occulaires66 et les mouvements du bras sont hypométriques59. Elles sont normales si les cibles
restent visibles, puisque la présence d’un feed-back permet d’évaluer avec certitude l’erreur
commise sur l’amplitude. A l’inverse, sans feedback, il existe forcément un biais dans la
représentation interne de la cible. A cause de ce bruit, « l’espérance de performance »
(probabilité d’arriver à proximité de la cible) est significative même pour un mouvement
programmé pour être court. Connaissant ce biais, le malade en prendrait donc le parti du pis
mal : tant qu’à se tromper, autant que ce soit en en faisant le moins possible. L’amplitude
moyenne réduite du mouvement correspondrait donc à un compromis entre espérance de
performance et coût du mouvement.
- le cas extrême de maladie de Parkinson est appelé « akinésie paradoxale », et
survient lorsque la quasi-intégralité des neurones DA ont dégénéré, c’est-à-dire quand le
facteur α prend des proportions énormes. Le patient est alors dans un état quasi-paralytique,
dont il ne peut sortir que sous l’effet d’un choc ou pour une action très importante67 (dans les
modèles animaux uniquement lorsque la vie du rat est en danger). Cette activité pourrait être
liée à une émission phasique de DA en réponse au stimulus (cf. III.1), mais elle pourrait être
également due à l’enjeu très important nécessaire pour contrer l’effet de l’effort.
28
L’ensemble des symptômes d’hypoactivité liés à la maladie de Parkinson peut donc
s’expliquer à partir d’une seule altération du facteur α. L’effet de la présentation de signaux
externes sur les performances s’explique par une interprétation par le SNC plus contraignante
de ces signaux que des signaux générés en interne. L’essentiel des troubles parkinsoniens ne
seraient donc pas à proprement parler moteurs, mais véritablement motivationnels.
La généralisation aux autres pathologies affectant la DA n’est pas chose aisée. Cela
tient surtout à l’existence de nombreux mécanismes d’auto-régulation du système de la DA :
auto-inhibition des neurones, hypersensibilisation/désensibilisation des récepteurs en réponse
à des changements du niveau tonique, inhibition réciproques des différentes voies émanant de
l’ATV. Manifestement, ce système homéostatique ne fonctionne pas parfaitement et ne peut
ramener la DA à son niveau standard. En effet, l’activité de la DA ne peut en effet pas se
ramener à un simple scalaire maintenu à un niveau fixe. Ainsi, il a été proposé que ces
mécanismes de régulation se calibrent par rapport au niveau tonique de la DA extracellulaire.
Ce faisant, ils modifient la réponse post-synaptique à des signaux phasiques. Par exemple, une
baisse du niveau tonique de DA peut entraîner une hypersensibilisation des récepteurs et donc
une réponse accrue aux signaux phasiques. Voilà comment une pathologie à l’origine
hypodopaminergique
peut
être
interprétée
comme
un
dysfonctionnement
hyperdopaminergique. Aujourd’hui encore, le sens d’altération de la DA est sujet à
controverse pour de nombreuses maladies : schizophrénie68, syndrome de Tourette, TDA/H69,
chorée de Huntington. Ces mécanismes de régulation sont tels que parfois aussi bien des
agonistes que des antagonistes de la DA peuvent avoir des effets bénéfiques sur des patients70.
Ils expliquent peut-être également pourquoi certaines pathologies présentent à la fois des
symptômes hypo- et hyperkinétiques.
Nous sommes probablement allés au plus loin de ce que nous permettait l’approche topdown dans l’explication des symptômes des pathologies au système dopaminergique. Une
véritable psychopathologie de ces maladies demanderait des connaissances bien plus
approfondies sur leurs mécanismes d’action et les différentes auto-réorganisations qu’elles
induisent dans le système dopaminergique et les aires associées. De nombreux paramètres
jusqu’ici occultés y ont une importance prépondérante : sous-régions du striatum affectées71,
distinction entre cœur (core) et enveloppe (shell) du noyau accumbens72,73, interaction avec le
développement normal des structures cérébrales74,75, etc.
29
Pathologie
Dopamine
Activité motrice
Parkinson
-
-
chorée de Huntington
-76
+ et -77
syndrome de Tourette
-/+
+ et -74
TOC
-78
+
TDA/H
+79 / -80
+
dépression
-
-81
schizophrénie
+/-68
-57
Tableau 2 : lien entre niveau de dopamine et niveau d’activité motrice pour différentes pathologies
affectant le système dopaminergique
La dopamine n’est pas ou pas seulement un signal de récompense, véhiculant la valeur
hédonique des stimuli et renforçant les comportements récompensés. Elle a également un rôle
motivationnel indéniable, puisqu’elle calibre la disposition à exercer des efforts pour parvenir
à ses fins. Ainsi une déplétion ou l’injection d’antagonistes de la dopamine du noyau
accumbens se traduit par une certaine paresse : l’animal réoriente son comportement vers les
cibles les plus facilement et rapidement accessibles. L’attrait des récompenses cependant n’est
pas altéré, et c’est donc bien dans la traduction de l’envie en termes moteurs qu’intervient la
dopamine. Dans le cadre de notre modèle, cela se résume simplement en disant que le niveau
tonique de dopamine fixe la valeur du coefficient α à travers une relation décroissante.
L’étude des pathologies humaines du système dopaminergique conforte cette vision.
Ces pathologies se manifestent souvent par des symptômes moteurs que l’on peut caractériser
comme hypokinétiques ou hyperkinétiques. La maladie de Parkinson se prête mieux que toute
autre à cette analyse puisque la nature des déficits neuronaux en est bien connue. Il s’agit
d’une dégénérescence de la dopamine nigrostriatale, dont les principaux symptômes sont
hypokinétiques. La psychopathologie se comprend bien à travers notre modèle, puisque le
niveau réduit de dopamine tonique réduit très sensiblement la disposition à effectuer des
efforts. Cette lenteur et cette petitesse des mouvements parkinsoniens se manifestent d’autant
30
plus lorsqu’il n’y a pas de consignes explicites de vitesse ou d’amplitude. Ainsi en absence de
signaux externes, vitesse et amplitude ne sont que des critères marginaux de performance. Les
parkinsoniens retrouvent par contre des performances quasiment normales dès lors que des
marques visuelles ou sonores les obligent pour réussir à faire vite et grand. La préférence pour
le moindre effort est dans ce cas compensée par un plus grand intérêt à bien travailler. Ce lien
entre dopamine tonique et niveau d’activité pourrait être étendu à d’autres pathologies, mais
les mécanismes d’action en sont pour la plupart mal connus, du fait notamment des nombreux
processus de régulation du système dopaminergique.
A présent que ce lien entre dopamine et niveau d’activité est bien établi, nous allons
désormais nous intéresser à intégrer cette théorie au cadre scientifique général dans lequel elle
s’inscrit. La dopamine a un lourd passé en neurosciences duquel on ne peut se soustraire en un
paragraphe. Elle reste encore profondément attachée à l’idée de renforcement, et il nous faut
donc revenir sur les différents modèles de dopamine pour voir dans quelle mesure ils sont
cohérents entre eux et avec le nôtre. Enfin nous proposerons un modèle d’anatomie
fonctionnelle qui permet de retrouver la relation établie entre dopamine et coefficient α. Ce
modèle décrit par ailleurs les processus de sélection de l’action, depuis le codage des
récompenses et des coûts attendus (cf. I.5) jusqu’à l’exécution de l’action motrice. Cela
permettra ainsi de retrouver les différentes aires cérébrales évoquées jusqu’à maintenant,
d’appréhender leur connectivité et d’évaluer la cohérence globale de notre discours.
31
III. Intégration aux modèles actuels
1. Des différentes fonctions de la dopamine
Notre vue motivationnelle de la dopamine s’accomode-t-elle des autres modèles
existants82 attribuant une toute autre fonction à ce neuromodulateur ? Pour répondre à cette
interrogation, il nous faut préciser un peu plus le mode de fonctionnement de la DA.
La décharge des neurones de la dopamine comprend deux composantes : d’une part une
composante tonique, qui évolue peu dans le temps, et d’autre part une composante phasique,
qui consiste en un burst de potentiels d’action en réponse à certains stimuli. La composante
tonique correspond à une dépolarisation spontanée de la membrane des neurones de la DA
induisant irrégulièrement des potentiels d’actions de faible fréquence 2-8 Hz. A cette activité
s’ajoute l’excitation par les neurones corticaux directement dans le striatum : le glutamate
libéré par ces neurones est en effet capable via l’excitation de récepteurs NMDA sur la
membrane des neurones dopaminergiques d’induire l’émission de DA dans le milieu
extrasynaptique83.
La dopamine peut également être émise suite à des bursts de potentiels d’action (10-20
Hz) des fibres dopaminergiques ne durant pas plus de quelques centaines de millisecondes. La
concentration atteint alors transitoirement jusqu’à quelques mM, contre 20-50 mM à son
niveau de base84. Elle revient cependant rapidement à ce niveau de base grâce à des
mécanismes de recapture. Ces bursts ont lieu en réponse à divers stimuli extérieurs. Certains
prétendent que seuls des stimuli prédisant des récompenses sont capables d’activer
phasiquement la DA39 ; mais il apparaît que des stimuli aversifs, intenses ou simplement
nouveaux en sont également tout à fait capables, et dans des proportions similaires85,86. La DA
est donc en général activée par des stimuli saillants ; étant entendu que ceux-ci ne doivent pas
être entièrement prévisibles, auquel cas l’information qu’ils véhiculeraient serait nulle, et ils
n’auraient donc aucune importance. On peut de manière équivalente dire que la DA signale
des erreurs de prédictions, c’est-à-dire qu’elle s’active lorsqu’il y a une réelle différence entre
ce à quoi s’attendait l’organisme et ce qui a réellement eu lieu.
Le modèle que nous avons bâti ne porte que sur la composante tonique du signal DA.
En effet, nous avons déjà signalé que les symptômes hypokinétiques des parkinsoniens étaient
dus à la baisse du tonus et non pas des réponses phasiques des neurones dopaminergiques. De
32
manière plus générale, l’évaluation des gains nets (ri-αci) est une opération que le SNC doit
réaliser de manière routinière, et pas seulement en réponse aux stimuli qui déclenchent les
bursts de DA ; la valeur α doit donc être en permanence présente dans le SNC. Notre modèle
ne s’intéressant qu’à la partie tonique, il laisse libre cours à l’interprétation de la fonction de
la partie phasique de la DA. Nous commentons ici les principales hypothèses qui ont été
formulées quant à la fonction de cette DA phasique.
L’apprentissage. Selon la formulation de Schultz, la DA phasique code des
« erreurs de prédiction de récompense »39. Effectivement, un stimulus primaire de
récompense active la DA lorsqu’il est présenté de manière inattendue, tandis que la DA
phasique restera muette si un signal avait déjà annoncé au préalable cette récompense. C’est
alors ce signal anticipateur, s’il n’est pas lui-même annoncé par un autre, qui déclenchera le
burst de DA. A l’inverse, si une récompense est prédite mais n’arrive pas, alors il y aura une
dépression dans le niveau tonique au moment même où la récompense aurait dû arriver. La
DA phasique coderait donc les erreurs de prédiction de récompense, qui pourraient être
directement utilisées pour l’apprentissage procédural. La DA phasique réalise le
renforcement, c’est-à-dire qu’un comportement ayant amené à une récompense non prédite
sera renforcée, alors qu’à l’inverse si la récompense espérée n’est pas arrivée le
comportement sera désappris. La meilleure preuve de cet apprentissage est l’extinction
progressive des comportements dirigés vers des récompenses après injection systémique
d’antagonistes de la DA87. Au niveau cellulaire, la dopamine est nécessaire à la potentiation à
long terme (LTP) de synapses dans l’hippocampe, le striatum dorsal, l’amygdale et le cortex
préfrontal ; mais apparemment pas dans le noyau accumbens.
Cette hypothèse est pourtant difficilement compatible avec le fait que la DA réponde
non seulement à des stimuli liés à des récompenses mais également à des stimuli neutres et
même aversifs. Une alternative serait de considérer que la dopamine répond à toute erreur de
prédiction, que cette prédiction porte ou non sur une récompense. Ce signal se contenterait
d’indiquer qu’un apprentissage doit être réalisé pour à l’avenir mieux se comporter dans ce
nouvel environnement ; il n’indiquerait pas dans quel sens doit se réaliser l’apprentissage,
vers le renforcement ou vers l’extinction. Cependant cette hypothèse va elle aussi à l’encontre
d’un résultat expérimental, qui est qu’une prédiction de récompense non réalisée induit une
dépression dans le signal dopaminergique. Or il s’agit d’une erreur de prédiction comme une
autre, qui nécessiterait également d’être analysée et apprise. En résumé, qu’elle qu’en est la
fonction exacte, la participation de la DA phasique aux processus d’apprentissage procédural
33
est indéniable. Cette dualité de la fonction de la DA (motivationnelle pour la partie tonique,
apprentissage pour la partie phasique) complique beaucoup l’analyse des expériences de
déplétions de DA et d’injection d’antagonistes : sauf précautions expresses dans le protocole,
il est difficile d’attribuer l’effet exhibé plutôt à une altération instantanée de la motivation ou
plutôt à une altération antérieure des processus d’apprentissage. De trop nombreuses
expériences ont été interprétées confusément pour n’avoir pas repéré cet écueil.
La motivation : nous avons affirmé que seule la DA tonique est impliquée dans
le calibrage du coût de l’action α, mais il n’est pas aussi évident que la DA phasique en soit
exclue. Au contraire, de nombreux chercheurs insistent sur les vertus énergisantes des bursts
de DA. Ainsi, offrir une récompense à un animal avant qu’il ne débute une tâche
instrumentale augmente l’ardeur avec laquelle il commence cette tâche. Cet effet appelé
priming est dépendant de la réponse DA à la récompense offerte88,90. L’émission de la DA a
lieu 50-100 ms environ après la présentation du stimulus saillant89 ; cette rapidité pourrait être
mise a profit pour accélérer la réponse à ce stimulus, par rapport au circuit traditionnel de
sélection de l’action. Si α dépend du niveau total de DA, tonique et phasique, alors la hausse
transitoire du niveau de DA induite par un stimulus saillant se traduira par une baisse
temporaire du coefficient α. Cette baisse aura deux effets comportementaux : d’une part
augmenter en général les gains nets des différentes actions possibles, ce qui augmente l’enjeu
et diminue le temps de réaction ; d’autre part, diminuer la sensibilité à l’effort et ainsi
promouvoir un mouvement rapide. L’émission de dopamine permet donc une réponse rapide
et efficace (en levant l’inhibition au coût) à un stimulus particulièrement saillant. Cette
fonction est d’autant plus utile que comme nous l’avons lors de l’étude de la bradykinésie, il
est souvent difficile de motiver un comportement rapide. Les gains en performance par la
rapidité sont effectivement difficiles à évaluer, et cette dopamine phasique aurait l’avantage
d’inciter massivement à des dépenses d’énergie dans des moments cruciaux.
L’effet de priming ne dure que quelques secondes90, le temps d’action de la
dopamine phasique sur les récepteurs striataux. Cependant des expériences montrent que le
niveau extracellulaire de DA augmente globalement lors d’une tâche procédurale48. Cette
augmentation pourrait être due aussi bien à l’accumulation de la DA suite à de nombreuses
activations phasiques qu’à une hausse générale du niveau tonique de la DA. Quoi qu’il en
soit, l’effet postsynaptique est probablement le même : le coefficient α est diminué. Pourquoi
une tâche procédurale modifie-t-elle la valeur α du difficile compromis entre récompense et
34
effort, que l’on croyait être le fruit fragile de la longue expérience de l’individu ? C’est sans
doute que la réalité biologique est un peu plus complexe que notre simple modèle. Nous
avons vu que les tâches impliquant de larges efforts ou de longues attentes41 étaient
particulièrement affectés par des atteintes à la DA du noyau accumbens. Il semblerait donc
qu’en absence de DA, le compromis est bien mal réalisé dans ces cas-là, que cela tienne à une
surévaluation des coûts, une sous-évaluation des récompenses ou une mauvaise intégration
des deux paramètres. Il se peut que même avec un niveau normal de DA, le compromis ne soit
pas optimal et qu’une hausse du niveau de DA permette de lever cette inhibition accrue à
l’effort. Cette hausse serait donc indispensable pour retrouver un niveau de réponse optimal.
Jouer via la DA sur le facteur α est une nouvelle fois un bon moyen de réguler l’activité
motrice.
Le gating91 : l’action de la DA sur le striatum peut être perçue comme un
filtrage des informations en provenance du cortex et de l’hippocampe. La DA module
effectivement au niveau synaptique la dépolarisation induite par le glutamate, en augmentant
le ratio signal-sur-bruit92. Un certain niveau de DA est requis pour que l’information corticale
puisse être transmise au striatum93; lors de ses pics phasiques, la DA laisserait largement
passer toutes sortes d’informations corticales, qu’elles soient de nature sensorimotrice (dans
le striatum dorsal) ou limbique (dans le noyau accumbens). Le rôle de la DA serait ainsi en
réponse à un stimulus saillant d’activer la transmission entre le cortex et les ganglions de la
base, notamment des informations sensorimotrices et motivationnelles. Cette activité accrue
des boucles basothalamocorticales permettrait à l’organisme de réagir rapidement à cet
élément nouveau dans son environnement. De même la DA ne servirait pas directement dans
ce modèle de renforcement, mais inciterait à l’apprentissage à travers sa fonction
d’interrupteur corticostriatal. Ce modèle propose donc une vue unifiée pour tous les signaux
saillants, qu’ils indiquent une récompense, une punition ou une information neutre, tandis que
le modèle de renforcement semblait ignorer l’implication de la DA dans le conditionnement
aversif.
Toutes ces propositions ne sont pas incompatibles, et même au contraire. Dopamine
pour la motivation ou pour le gating, il n’est pas clair lequel des deux modèles traduit le
mieux la réalité biologique, mais tous deux ont pour but de rendre compte d’un même
phénomène, l’activation de l’organisme en réponse à un stimulus saillant. L’un propose que
la DA désinhibe l’individu, qu’elle le pousse à plus se dépenser pour répondre rapidement et
35
efficacement à l’imprévu ; l’autre postule que la DA accélère la transmission dans la boucle
basothalamocorticale, avec pour même effet d’activer plus rapidement l’appareil moteur. Ces
deux vues semblent relativement proches, et il est probable que la réalité tienne quelque part
entre les deux.
Le rôle d’apprentissage est complémentaire de celui d’activation. Il s’agit en fait des
deux types de réponses que doit faire l’organisme soumis à un stimulus imprévu et
particulièrement saillant : un effet antérograde d’adaptation rapide du système nerveux à son
nouvel environnement, et un effet rétrograde d’apprentissage des règles de ce nouvel
environnement, afin de réactualiser ses choix comportementaux à la lumière des résultats de
ces actions. On peut illustrer cette double fonction dans le cadre du paradigme des prédicteurs
de récompense, dans lequel il a été montré que le signal de DA se décale de la récompense
vers le cue. L’effet d’apprentissage s’illustre bien dans ce transfert : en premier lieu l’animal
consolide au fur et à mesure le comportement menant à partir du cue jusqu’à la récompense,
grâce à la DA émise lors de la récompense. Puis lorsque cette association stimulus-réponse est
assurée, l’émission de DA est avancée au premier signal, ce qui permet de renforcer encore
plus en amont des comportements menant au cue et donc in fine à la récompense. L’animal
peut ainsi construire une chaîne d’associations stimulus-réponse de plus en plus longue, au fur
et à mesure qu’il apprend à récolter des récompenses dans son environnement. Le but final est
de pouvoir obtenir les dites récompenses non pas selon le bon vouloir du monde extérieur
mais lorsque les besoins internes s’en ressentent, et de pouvoir retrouver dans cet
environnement les traces qui mènent au butin. Le comportement humain semble bâti dans sa
quasi-intégralité sur ce mode de fonctionnement : la plupart des actions humaines ne
répondent pas à la logique d’obtenir tout de suite de la nourriture ou un partenaire sexuel.
La deuxième fonction de la DA phasique, celle d’activation motrice, est liée à ce
décalage entre signaux annonciateurs et récompense finale, et à la réponse motrice qu’il faut
fournir entre les deux. Il semblerait comme nous l’avons vu que le système sans dopamine
supplémentaire a du mal à motiver correctement cette réponse coûteuse par la voie normale.
Or, à proximité de la récompense l’enjeu est important, et l’évolution aurait choisi cette
activation via la dopamine par des stimuli prédictifs pour dynamiser la réponse. Ce
raisonnement est également vrai, si ce n’est plus encore, lorsque le stimulus ne prédit pas ne
récompense mais une punition (par ex. la vue d’un prédateur) ou s’il est simplement intense
ou nouveau.
L’organisme doit prendre en compte un stimulus saillant inattendu de deux manières :
par une réponse directe, rapide et efficace, et par un apprentissage des règles reliant
36
l’apparition de ce stimulus à ses connaissances du monde extérieur. Cette dualité46 explique
que l’évolution ait choisi de coupler ces deux mécanismes à travers un seul messager
neuronal : la dopamine phasique. Cependant il peut parfois arriver, semble-t-il plus
fréquemment dans des protocoles expérimentaux que dans des conditions écologiques, que ce
couplage n’ait pas lieu et par exemple que de la nourriture soit offerte « gratuitement ». Selon
la fréquence de présentation, on peut induire en donnant ainsi de la nourriture à des rats une
hausse du niveau de DA et dans le même temps l’hyperlocomotion des animaux94. Cette
augmentation de l’activité motrice est contr’évolutive, car rien ne justifie cette dépense
supplémentaire d’énergie, mais traduit bien le fait que la hausse de dopamine produits deux
effets indissociables.
Certes, la dopamine possède ces deux fonctions d’activation et de renforcement. Mais
sur quelle base l’amplitude des bursts est-elle calculée : les erreurs de prédiction (de
récompense), ou le niveau d’activation nécessaire pour réaliser la tâche ? Aucune expérience
n’a vraiment mis ces deux facteurs en opposition et enregistré en temps réel la dopamine
phasique afin d’observer avec lequel des deux facteurs elle se corrèlerait le mieux. Neil et al48
ont montré que la dopamine extracellulaire se corrèle mieux après une tâche procédurale avec
l’effort demandé par récompense (FR10 vs. FR1) qu’avec le total des récompenses obtenues.
Cependant il n’est pas dit que ce que l’on observe en extracellulaire à la fin d’une session
témoigne fidèlement de l’amplitude de chacune des activations de DA. L’essentiel de la
dopamine mesurée pourrait ainsi correspondre à la dopamine tonique, qui serait elle modulée
selon des critères uniquement motivationnels. Satoh et al.46 ont mesuré directement la
dopamine phasique chez le singe, mais dans un protocole ne demandant pas d’efforts
physiques particuliers. Leurs résultats, obtenus avec le paradigme standard cue-tâcherécompense, sont malgré tout très instructifs : ils observent deux émissions de dopamine
phasique, l’une en réponse au cue et l’autre en réponse à la récompense. La première réponse
reflète a peu près l’ampleur de la récompense espérée, mais se corrèle bien mieux avec la
motivation de l’animal telle qu’observée par le temps de réaction. La seconde réponse
correspond tout à fait à un signal d’erreur de prédiction, qui est la différence entre la
récompense réelle et celle prédite lors du cue. Tandis que le second burst sert uniquement
pour le renforcement, le premier a une fonction plutôt motivationnelle. Certes, mais entre
l’amplitude du burst de la dopamine phasique et la motivation, où est la cause et où est la
conséquence ? En d’autres termes, le temps de réaction est-il la simple conséquence de
l’amplitude de la DA, elle-même un signal de prédiction de récompense ? Ou la DA est-elle
37
calibrée avant tout pour obtenir un certain degré de motivation et de performance ?
L’expérience ne jouant pas sur le facteur effort, comme le faisait par exemple celle de Neil,
elle ne permet pas de trancher sur cette question fondamentale.
La dopamine phasique a donc un double rôle, qui est d’activer l’organisme et de
renforcer les comportements récompensés. Ces deux fonctions correspondent aux deux
réponses à donner à un stimulus saillant, c’est-à-dire important et imprévu ; la faible latence
de la DA (50-100ms) permet d’orienter rapidement l’organisme vers les dispositions
souhaitées. La nature exacte de ces fonctions (renforcement ou autre forme d’apprentissage ;
motivation ou gating) ainsi que leurs mécanismes de fonctionnement sont cependant encore
largement sujets à débats. Il est possible que l’activation passe simplement par une baisse
transitoire du coefficient α de sensibilité à l’effort, selon le même mécanisme qui unit
dopamine tonique et effort. Ce serait ainsi le niveau total de dopamine extracellulaire qui
déterminerait la valeur instantanée de α ; ce niveau pourrait être modulé à court terme par
l’émission de bursts de dopamine ou à moyen et long terme par une régulation du tonus de
DA. Les expériences futures de mesure de niveaux de DA devraient permettre d’améliorer
notre compréhension de ces processus.
Pour finir, nous allons tenter d’expliquer la relation liant niveau de dopamine et
sensibilité à l’effort, ou au moins de la rapporter à des schémas connus d’anatomie
fonctionnelle. La fonction d’une aire cérébrale ne peut en effet s’apprécier que dans le cadre
de son interaction avec le reste du système nerveux : il faut préciser quels types
d’informations elle retire de ses afférences et comment son activité influence les cibles sur
lesquelles elle projette. En ce qui concerne les afférences, assez peu de travaux ont fait le lien
entre les zones cérébrales innervant les noyaux dopaminergiques (aire tegmentale ventrale et
substance noire compacte) et la nature de l’information véhiculée par ces noyaux. On se
contentera donc de la simple description de la dopamine avec sa composante tonique et sa
composante phasique en réponse à des stimuli saillants, sans se préoccuper davantage de
l’origine de cette réponse. Par contre, l’interaction de la dopamine avec ses cibles, striatum et
cortex frontal a été très largement étudiée. Nous allons donc à partir de ces travaux essayer de
retrouver comment le signal dopaminergique peut à travers son action sur le striatum avoir
l’effet comportemental que nous lui attribuons.
38
2. De la sélection de l’action la plus judicieuse
Le striatum, regroupant le putamen, le noyau caudé et le noyau accumbens, constitue
la première des cibles de la dopamine. Il devient donc primordial de relier notre étude à la
fonction des ganglions de la base. Nous allons en conséquence nous préoccuper dorénavant de
« naturaliser » le rôle supposé de la dopamine en l’intégrant à des modèles d’anatomie
fonctionnelle des ganglions de la base. Un très grand nombre de fonctions ont été attribuées
aux ganglions de la base, l’apprentissage95, l’attention96 ou la construction de séquences
motrices97,98 pour n’en citer que trois. Devant l’incapacité de pouvoir traiter de manière
exhaustive tous ces modèles, nous avons choisi de n’en garder qu’un, dont l’angle de vue
nous paraissait le plus en phase avec notre approche : l’hypothèse de sélection de l’action. En
effet, la représentation du coût de l’action n’a de sens pour l’individu que dans le but de
l’assister dans le choix de son comportement, afin qu’il ne néglige pas ce paramètre
important. Nous exposons maintenant les principaux points qui fondent l’hypothèse de
sélection de l’action avant d’y associer notre vue sur la fonction de la dopamine.
L’humain et ses congénères sont à chaque instant placés devant un grave problème de
choix : ses désirs sont multiples (nourriture, sexe, télévision…) mais ne peuvent tous être
assouvis en même temps. En effet, si parfois deux actions sont réalisables simultanément
(marcher et mâcher un chewing-gum), elles sont le plus souvent physiquement incompatibles
(jouer au tennis et éplucher les pommes de terre). Il a donc été proposé99 que Dieu dans son
incommensurable magnanimité a doté l’humain et ses congénères vertébrés de ganglions de la
base, pour couper court à tous ces cruels dilemmes. Corneille100 et Sophie101 lui en sont
reconnaissants.
L’anatomie des ganglions de la base (GB, figure 4) semble parfaitement adaptée pour
servir cette fonction de sélection de l’action. Que lui demande-t-on ? De choisir parmi un
panel d’actions possibles (présenté par le cortex) la plus saillante, celle qui convient le mieux,
c’est-à-dire selon notre modèle celle de plus important gain net. Cela passe nécessairement
par un mécanisme de winner-take-all, où le vainqueur efface toute trace des vaincus. Cette
opération se réaliserait à travers les boucles cortico-basothalamocorticales. En effet, les
ganglions de la base font partie intégrante d’un réseau comprenant quatre boucles parallèles
largement ségréguées102,103: les boucles motrice, oculomotrice, préfrontale et limbique.
L’organisation somatotopique du cortex est respectée à travers tous les chaînons de la boucle,
39
ganglions comme thalamus, et le thalamus finit par reboucler sur les mêmes cibles qui sont à
l’origine de la boucle. On trouve ainsi dans le striatum dorsal, le globus pallidus et le
thalamus des zones représentant spécifiquement le bras, la tête ou la jambe. Le striatum reçoit
également d’autres afférences corticales et sous-corticales vers lesquelles il ne renvoie pas ; il
existe à l’inverse quelques boucles « ouvertes », c’est-à-dire que le thalamus en plus de
reboucler sur la zone corticale afférente projette sur une autre zone corticale104. Cette
anatomie permet aux différentes boucles de travailler essentiellement en parallèle, partageant
en plus des informations à certains relais.
Le striatum reçoit des afférences excitatrices d’à peu près toutes les régions du cortex
ainsi que des aires limbiques et du tronc cérébral, ce qui fait qu’il peut très bien se représenter
le contexte de l’action, ce qui va servir à juger de la pertinence de l’action. Les neurones
épineux moyens, qui représentent 90% des neurones du striatum, comptent plusieurs dizaines
de milliers de connexions synaptiques, ce qui les rend d’autant mieux placés pour intégrer
des informations provenant de diverses sources105. Par la voie directe (figure 6), le striatum
inhibe le GPi et libère ainsi temporairement le thalamus du tonus inhibiteur maintenu par le
GPi. Autrement dit, une activation de la voie directe va permettre une désinhibition phasique
du thalamus et donc un retour excitateur sur les cibles corticales. A l’inverse, la voie indirecte
renforce le tonus inhibiteur du GPi et empêche ainsi tout retour excitateur sur le cortex
moteur.
La compétition entre actions concurrentes se manifesterait par une auto-excitation des
représentations via la boucle directe et une inhibition des concurrents via la boucle indirecte.
Les ganglions de la base seraient ainsi bien placés pour faire émerger une représentation
corticale de l’action tout en maintenant les représentations environnantes (et concurrentes)
sous leur contrôle inhibiteur. Une autre partie de la compétition pourrait également avoir lieu
dès le striatum via les interneurones inhibiteurs. Si elle n’est pas réalisée directement, en un
passage par les ganglions de la base, la sélection peut émerger progressivement en plusieurs
cycles à travers la boucle. Plus une représentation est excitée et plus son action excitatrice sur
elle-même et inhibitrice sur les autres s’affirmera, conduisant finalement à l’extinction des
rivales. En d’autres termes, l’instabilité des états présentant deux actions concurrentes
activées mène tout naturellement au processus recherché de winner-take-all. La solution
émerge d’autant plus rapidement que la différence de valeurs des différentes actions est
grande, c’est pourquoi l’enjeu diminue les temps de réaction.
40
Figure 6 : connexions anatomiques des circuits
baso-thalamocorticaux moteurs. Les flèches
grises indiquent des projections excitatrices
(glutamate ou DA) ; les flèches noires indiquent
des projections inhibitrices (GABA ou DA). Le
putamen constitue un des noyaux d’entrée des
GB au même titre que le noyau caudé ou le
STN. La voie directe relie directement le
striatum au GPi, principal noyau de sortie avec
la substance noire réticulaire (SNr) ; la voie
indirecte passe par le GPe et le STN. La DA a
un effet excitateur sur la voie directe via les
récepteurs D1, tandis qu’elle a un effet
inhibiteur sur la voie indirecte via les
récepteurs D2. Les boucles limbiques sont
semblables, le noyau d’entrée étant alors le
striatum ventral ou NAcc, et la DA provenant
non pas de la SNc mais du VTA.
Abbrévations : GPe = segment externe du
globus pallidus ; GPi = segment interne du
globus pallidus ; SNc = substance noire
compacte ; STN = noyau subthalamique ;
NAcc=noyau accumbens ; VTA = aire
tegmentale ventrale. Tiré de ref. 106.
Le lecteur trouvera une revue plus détaillée des arguments supportant l’hypothèse de
sélection de l’action et des mécanismes par elle s’opère dans les références 99, 107 et 37. Ce
modèle propose une vue très séduisante de la fonction des ganglions de la base, mais qui n’est
malheureusement pas testable directement par une expérience, puisque il fait ses prédictions à
l’échelle de réseaux et non de simples neurones isolés.
Le rôle le plus souvent attribué à la DA dans ces modèles est celui du signal de
renforcement, permettant d’augmenter l’efficacité synaptique d’actions ayant mené à
récompense. Mais comme nous l’avons vu, l’action de la dopamine ne se cantonne pas
uniquement aux processus d’apprentissage. Elle a également un rôle immédiat d’activation,
qui reflète bien l’action synaptique du neuromodulateur sur ses cibles striatales. Bien qu’il
s’agisse d’un raccourci certain, la dopamine jouant plutôt une fonction de modulation des
41
réponses post-synaptiques via des cascades complexes d’activation de protéines, on peut
résumer l’effet de la DA à une excitation pour les récepteurs D1 et une inhibition pour les
récepteurs D2. Les récepteurs D1 étant ceux des neurones spinaux de la voie directe, et
réciproquement les récepteurs D2 étant ceux de la voie indirecte, l’effet de la DA est dans les
deux cas celui d’une excitation finale des cibles corticales. Ainsi, dans le cadre d’une
compétition entre actions incompatibles, la dopamine facilite l’émergence de représentations
de haute activité corticale.
Essayons de rentrer tous ces paramètres dans un modèle le plus simple possible. Nous
commencerons par la boucle motrice, impliquée dans l’exécution directe de mouvements qui
sont décidés par des structures hiérarchiquement supérieures. Sans dopamine, chaque
représentation concurrente est dotée d’un certain « score » si par la boucle, le plus grand étant
finalement sélectionné par le processus de winner-take-all. Ce score vient à la fois de la force
des connexions intrinsèques à la boucle et de l’intensité des excitations de la boucle provenant
d’autres régions du cortex, que ce soit par les connexions corticostriatales ou
corticocorticales. Nous postulons que ce score reflète le plus fidèlement possible ri, c’est-àdire la récompense attendue de cette action. On peut toutefois lui retrancher un facteur lié à
l’amplitude de la représentation corticale ci, qui représente la force inhibitrice globale qu’il
faut vaincre pour parvenir à faire émerger un état de haute activation corticale. Soit :
si = ri - βci
En présence de DA maintenant, les représentations de haute activité corticale seront
moins pénalisées. Le score si est donc relevé pour chaque action d’un facteur dépendant du
niveau tonique de dopamine striatale DA ainsi que de l’amplitude de la représentation
corticale ci. Pour aller au plus simple on évaluera ce facteur à DA.ci le nouveau score vaut
donc :
si= ri – (β-DA)ci
L’action sélectionnée sera celle de plus haut score :
Max ri – (β-DA)ci
Or qu’est ce que ci ? C’est une mesure de ce que serait l’activité du cortex moteur si la
i
ème
action était sélectionnée : c’est donc le coût de l’action i, ou au moins une forme possible
de ce coût (cf. I), c’est-à-dire justement ci ! Certaines études semblent même montrer que les
projections du cortex moteur sont des copies efférentes (fines collatérales ayant divergé de
l’axone principal) de la commande motrice envoyée à la moelle épinière108,109. Notre modèle
de ganglions de la base nous sélectionne donc l’action motrice qui réalise le maximum de ri –
42
(β-DA)ci, c’est-à-dire qu’elle fait un choix optimal selon nos termes du premier chapitre avec
comme valeur de α : α = β-DA. On retrouve comme annoncé la corrélation inverse entre DA
le niveau tonique de dopamine et α la sensibilité à l’effort. Ce rapide schéma offre une
explication possible au rôle comportemental avéré de la dopamine, dans le cadre d’un modèle
de sélection de l’action.
Une version alternative attribue une origine différente au facteur α qui fournit
l’inhibition primaire des actions coûteuses. Plutôt que de refléter une excitation
supplémentaire à fournir pour amener le cortex moteur dans un état de haute énergie, ce terme
pourrait directement être intégré dans les afférences de la boucle ; c’est-à-dire que ces
afférences ne fournirait pas seulement la récompense ri, mais la corrigerait déjà par le coût
associé, avec une certaine (et haute) valeur de la constante de sensibilité au coût.
Ce modèle est certes plein de raccourcis et d’approximations mais finalement pas plus
que notre premier modèle de comportement optimal. Il ne s’agit après tout que de
l’illustration
de
principes
généraux
par
quelques
rapides
formules.
La
« démonstration mathématique» que nous venons de présenter ne prétend pas avoir de valeur
supérieure que de formaliser simplement le raisonnement sous-jacent. Malgré le simplisme de
ces équations, nous défendons le principe que le rôle activateur de la dopamine tonique dans
les réseaux de ganglions de la base puisse être la cause directe de ses effets comportementaux.
Cette propriété à l’échelle du mouvement (cortex moteur, striatum dorsal) tient-elle
toujours à l’échelle du comportement (cortex orbitofrontal, striatum ventral) ? L’ensemble du
raisonnement est toujours valide, si ce n’est que le niveau d’activité corticale correspondant à
une action n’est pas aussi intimement lié au coût de cette action. Les deux termes notés ci
précédemment ne sont donc pas égaux. On ne peut expliquer l’effet activateur de la DA du
VTA uniquement par sa facilitation des états de haute activité corticale. Ici, l’effet a plus
probablement lieu sur la représentation explicite du coût dans une zone corticale comme l’aire
orbito-frontale (cf I). La DA pourrait par exemple moduler positivement l’influence du COF
médian (représentant les récompenses) sur le NAcc et négativement l’influence de sa partie
latérale (représentant les coûts).
Nous proposons donc un schéma fonctionnel des boucles baso-corticales, qui illustre
tout le processus de sélection de l’action depuis le codage des récompenses et coûts attendus
jusqu’à l’exécution de l’action. Le COF envoie les informations de gains et de pertes sur les
différentes alternatives d’actions possibles au striatum ventral (il est probablement aidé en
43
cela par le cortex préfrontal). Cette boucle sélectionne ainsi le comportement adéquat, en
fonction du niveau de dopamine émis par le VTA, et le transmet directement au cortex
prémoteur, grâce à une projection privilégiée104. Puis la boucle motrice choisit pour ce
comportement sélectionné l’activation motrice la plus adéquate ( en jouant sur le temps de
mouvement, les muscles engagés, etc.), sous l’influence de la dopamine nigrostriatale. On
retrouve dans ce schéma la distinction entre valeur prédite des récompenses, codée par
l’orbitofrontal, et degré de motivation, inscrit dans l’activité du cortex prémoteur110.
Figure 7 : schéma fonctionnel des boucles baso-corticales. Les relais du globus pallidus
et du thalamus n’ont pas été représentés. Voir texte pour les détails.
Ce schéma fonctionnel est à comparer au modèle en cascade postulé par Koechlin et
al.111 dans lequel les régions frontales les plus antérieures (préfrontal dorso-latéral) contrôlent
les régions plus postérieures (cortex prémoteur et moteur). Dans ce modèle, des plans d’action
sont traduits au fur et à mesure d’un langage comportemental (sous forme d’épisodes) vers
des termes plus moteurs. Cette étude modélise les comportements humains, il est donc normal
qu’elle indique une prépondérance du préfrontal dorso-latéral (aspect cognitif) sur
l’orbitofrontal (aspect limbique) dans le contrôle de haut niveau du comportement. Elle
retrouve cependant avec l’outil IRMf ce schéma hiérarchique des régions antérieures vers les
régions postérieures (pour le striatum du ventral vers le dorsal).
Si les fonctions exécutives travaillent comme proposé d’abord sur les comportements
dans les boucles antérieures avant de traduire dans les boucles postérieures ces
44
comportements en actions motrices, alors on devrait pouvoir observer un effet différentiel de
la dopamine de l’ATV sur la première opération et de la dopamine du SNc sur la seconde.
Des déplétions de DA dans le noyau accumbens devraient affecter les choix
comportementaux mais pas leur réalisation motrice, tandis qu’inversement des déplétions de
la dopamine dans le striatum dorsal aurait un effet principal sur les mouvements. Les
symptômes des parkinsoniens, dont seule la voie nigrostriatale est dégénérée, supportent cette
dichotomie, puisqu’on les classe plus volontiers en termes moteurs (bradykinésie, hypométrie,
etc.) que comportementaux. Les expériences de Salamone sur le noyau accumbens montraient
plutôt des déficits comportementaux dans l’évaluation des compromis récompense/effort, par
exemple dans le paradigme du labyrinthe56. Iversen et coll.112,113 ont comparé directement les
effets de déplétions dans chacune des deux parties du striatum, et ont observé que les
déplétions intra-accumbens affectaient le niveau d’activité locomotrice, tandis que les
déplétions de la DA du striatum dorsal réduisaient le niveau de tics induits par les
amphétamines. L’activité locomotrice peut effectivement être rapportée à un comportement
exploratoire, tandis que les tics sont des troubles purement moteurs. Au sein même du
néostriatum, divers déficits (alimentation, locomotion ) peuvent être induits en fonction de la
zone affectée, en rapport avec l’existence de boucles parallèles spécialisées dans un système
moteur particulier114,115.
Nous avons proposé un modèle simple de sélection de l’action par les ganglions de la
base, qui nous permet de retrouver, en partie au moins, le lien fort unissant niveau de
dopamine et sensibilité à l’effort. Ce lien repose uniquement sur l’action postsynaptique de la
DA, qui excite la voie directe et inhibe la voie indirecte des ganglions de la base via ses
récepteurs D1 et D2. Globalement, ces deux mécanismes ont pour même effet d’activer le
cortex, et donc de favoriser les états corticaux de haute activité. Or comme l’activité corticale
se corrèle bien avec le coût de l’action qu’elle représente, pour le cortex moteur au moins, la
dopamine a pour effet de favoriser les actions coûteuses, c’est-à-dire de diminuer la sensibilité
au coût. Affiner ce modèle requerrait de se pencher encore plus en détail sur les mécanismes
d’action de la dopamine, et sur les différences des effets de manipulations locales, sur une
zone précise du striatum dorsal ou ventral. Ce modèle a en outre le mérite de faire le lien entre
les premiers résultats sur la dopamine (cf. II) et notre première analyse sur la représentation
du coût (cf. I). Les aires limbiques indiquées (COF et ABL) sont le pivot central de cette
représentation, puisque ce sont elles qui mémorisent les valeurs des coûts associés aux actions
et en temps utile les fournissent aux régions spécialisées dans la sélection de l’action.
45
Conclusion
Le coût physiologique des actions a une incidence remarquable sur le comportement.
Nous avons tâché tout au long de ce travail d’identifier le parcours anatomique de la
représentation centrale de ce coût, depuis son origine perceptive jusqu’à son expression dans
l’activité motrice. Ce schéma d’anatomie fonctionnelle peut être résumé entre quelques lignes.
La perception de l’effort a une origine périphérique (organes de Golgi) et/ou centrale
(commande motrice), et ce serait logiquement dans le cortex orbitofrontal latéral et/ou
l’amygdale basolatérale que les valeurs des efforts associés aux actions seraient retenues. Ces
valeurs peuvent être rappelées lorsque l’action associée est envisagée par l’organisme. Elles
sont alors transmises aux régions en charge de la sélection de l’action, qui retiennent l’action
réalisant le meilleur compromis récompense/effort. Il a été proposé que ce soit à travers les
différentes boucles entre le cortex frontal, les ganglions de la base et le thalamus que
s’effectue cette sélection de l’action : la boucle limbique s’occuperait de choisir le meilleur
comportement, qu’elle transmettrait à la boucle motrice ; celle-ci se chargerait de trouver la
meilleure activation motrice réalisant ce comportement. Nous avons avancé pour notre part
que la dopamine, dans chacune de ces deux boucles, ne se contente pas d’une fonction
d’apprentissage mais qu’elle joue également un rôle primordial dans le compromis réalisé
entre récompense et effort. Plus précisément, le niveau de dopamine règlerait la sensibilité à
l’effort à travers son action sur le striatum.
Ce lien entre dopamine et sensibilité à l’effort a été découvert récemment après une
remise en cause de la théorie hédonique de la dopamine. En outre, il apporte un éclairage
nouveau sur les symptômes moteurs des diverses pathologies et affections de la dopamine,
notamment la maladie de Parkinson. Ces symptômes hypo- et hyperkinétiques apparaissent en
définitive plus motivationnels que moteurs, puisque ils dénotent un déficit dans l’activation de
l’appareil moteur par les objectifs propres de l’individu. La dopamine, tant nigrostriatale que
mésolimbique, semble finalement avoir deux rôles cardinaux : celui d’activer l’appareil
moteur en fonction des efforts à fournir et des récompenses à obtenir, et celui d’apprendre à
diriger sélectivement le comportement vers les récompenses et hors des punitions. Cette vue
unifiée de la dopamine n’est que récente et encore bien difficile à traduire dans un modèle
complet et précis. Elle offre cependant l’espoir de pouvoir réévaluer la théorie du
renforcement pour la mettre en accord avec la vision motrice de la dopamine, et d’élargir sa
portée à une gamme plus complète du comportement animal.
46
Bibliographie
1
Sutton, R., and Barto, A.G. (1998). Reinforcement Learning (Cambridge,MA: MIT Press).
Gribble PL, Mullin LI, Cothros N, Mattar A (2003) Role of cocontraction in arm movement accuracy. J
Neurophysiol 89(5):2396-2405.
3
Kirshenbaum AP, Allen SP, and Haddad NF. Risk-sensitive foraging in rats: the effects of response-effort
and reward-amount manipulations on choice behavior. Behav Proc 2000; 50:9–17
4
Rolls ET. The functions of the orbitofrontal cortex. Brain Cogn 2004 ;55(1):11-29
5
Rolls, E. T. The Brain and Emotion (Oxford Univ. Press, Oxford, 1999).
6
Schultz W (2004) Neural coding of basic reward terms of animal learning theory, game theory,
microeconomics and behavioural ecology. Curr Opin Neurobiol 14:1–9
7
Horcholle-Bossavit G, Jami L, Petit J, Vejsada R, Zytnicki D. Ensemble discharge from Golgi tendon organs of
cat peroneus tertius muscle. J Neurophysiol. 1990 Sep;64(3):813-21.
8
Siemionow V, Yue GH, Ranganathan VK, Liu JZ, and Sahgal V. Relationship between motor activity-related
cortical potential and voluntary muscle activation. Exp Brain Res 133: 303–311, 2000.
9
Dai TH, Liu JZ, Sahgal V, Brown RW, and Yue GH. Relationship between muscle output and functional MRImeasured brain activation. Exp Brain Res 140: 290–300, 2001.
10 Harris CM, Wolpert DM. Signal-dependent noise determines motor planning. Nature 1998;394(6695):780784
11 Guigon E, Baraduc P, Desmurget M (2003) Constant effort computation as a determinant of motor behavior.
Proc Advances in Computational Motor Control II, Symposium at the Society for Neuroscience Conference
(Todorov E, Shadmehr R, organisateurs).
12 Abhijit Chaudhuri, Peter O Behan - Fatigue in neurological disorders - The Lancet, 2004; 363:978-988
13 Abhijit Chaudhuri , Peter O. Behan - Fatigue and basal ganglia - Journal of the Neurol Sci. 179 (2000) 34–42
14
Tartaglia MC, Narayanan S, Francis SJ, Santos AC, De Stefano N, Lapierre Y, Arnold DL. The relationship
between diffuse axonal damage and fatigue in multiple sclerosis. Arch Neurol. 2004 Feb;61(2):201-7
15
Dalsgaard MK, Ide K, Cai Y, Quistorff B, Secher NH. The intent to exercise influences the cerebral
O(2)/carbohydrate uptake ratio in humans. J Physiol. 2002 Apr 15;540(Pt 2):681-9.
16
Liu JZ et al. Human Brain Activation During Sustained and Intermittent Submaximal Fatigue Muscle
Contractions: An fMRI Study. J Neurophysiol 90: 300–312, 2003
17
Mc Closkey DI, Kinesthetic sensibility. Physiol Rev. 1978; 58(4):763-821
18
Fitts, P. M. (1954). The information capacity of the human motor system in controlling the amplitude of
movement. Journal of Experimental Psychology, 47, 381-391
19
Nelson WL. Physical principles for economies of skilled movements. Biol Cybern 1983 ; 46:135-147
20
Flash T, Hogan N.The coordination of arm movements: an experimentally confirmed mathematical model. J
Neurosci. 1985 Jul;5(7):1688-703
21
Uno Y, Kawato M, Suzuki R. Formation and control of optimal trajectory in human multijoint arm movement.
Minimum torque-change model. Biol Cybern. 1989;61(2):89-101
22
Alexander RM. A minimum energy cost hypothesis for human arm trajectories.Biol Cybern. 1997;76(2):97105.
23
Fagg AH, Shah A, Barto AG. A computational model of muscle recruitment for wrist movements. J
Neurophysiol 2002 ; 88(6):3348-3358
24
Osborn JW and Baragar FA. Predicted pattern of human muscle activity during clenching derived from a
computer assisted model : symmetric vertical bite forces. J Biomechanics 1985
25
Poon CS, Lin SL and Knudson OB. Optimization character of inspiratory neural drive. J Appl Physiol.
2000;72(5): 2005-2017
26
Bates JHT. The minimization of muscular energy expenditure during inspiration in linear models of the
respiratory system. Biol Cybern. 1986; 54: 195-200
27
Mead J. Control of respiratory frequency. J Appl Physiol. 1960; 15(3):325-326
28
Harris CM, Wolpert DM (1998) Signal-dependent noise determines motor planning. Nature 394(6695):780784
29
Cruse H et al. On the cost functions for the control of the human arm movement. Biol Cybern. 1990; 62:519528
30
Enderle JD, Wolfe JW (1987) Time-optimal control of saccadic eye movements. IEEE Trans Biomed Eng
34(1):43-55.
31
Schoenbaum G, Chiba AA, Gallagher M (2000) Changes in functional connectivity in orbitofrontal cortex and
basolateral amygdala during learning and reversal training. J Neurosci 20(13):5179-5189
32
Morris JS, Dolan RJ. Involvement of human amygdala and orbitofrontal cortex in hunger-enhanced memory
for food stimuli. J Neurosci. 2001 Jul 15;21(14):5304-10.
2
47
33
O’Doherty J et al. Abstract reward and punishment representations in the human orbitofrontal cortex. Nat
Neurosci 2001;4(1) :95-102
34
Schoenbaum G, Chiba AA, Gallagher M (1998) Orbitofrontal cortex and basolateral amygdala encode
expected outcomes during learning. Nat Neurosci 1(2):155-159
35
Schoenbaum G, Chiba AA, Gallagher M (1999) Neural encoding in orbitofrontal cortex and basolateral
amygdala during olfactory discrimination learning. J Neurosci 19:1876-1884
36
Schoenbaum G et al. Lesions of Orbitofrontal Cortex and Basolateral Amygdala Complex Disrupt Acquisition
of Odor-Guided Discriminations and Reversals. Learn Mem 2003 ;10:129–140
37
Montague PR, Berns GS. Neural economics and the biological substrates of valuation.Neuron. 2002 Oct
10;36(2):265-84
38
Wickens J, Kötter R (1995) Cellular models of reinforcement. In: Models of Information Processing in the
Basal Ganglia (Houk JC, Davis JL, Beiser DG, eds), pp 187-214. Cambridge, MA: MIT Press
39
Schultz W. Predictive reward signal of dopamine neurons. J. Neurophysiol. 1998; 80: 1–27
40
Wise RA (1982) Neuroleptics and operant behavior: The anhedonia hypothesis. Behav Brain Sci 5:39-87
41
Salamone JD and Correa M. Motivational views of reinforcement: implications for understanding
the behavioral functions of nucleus accumbens dopamine. Behab Brain Res 2002 ; 137:3-/25
42
McCullough LD, Sokolowski JD, Salamone JD. A neurochemical and behavioral investigation of the
involvement of nucleus accumbens dopamine in instrumental avoidance. Neurosci. 1993;52(4):919-25
43
Wyvell CL and Berridge KC. Intra-Accumbens Amphetamine Increases the Conditioned Incentive Salience of
Sucrose Reward: Enhancement of Reward “Wanting” without Enhanced “Liking” or Response Reinforcement. J
Neurosci 2000; 20(21):8122–8130
44
Peciña S. Hyperdopaminergic Mutant Mice Have Higher “Wanting”But Not “Liking” for Sweet Rewards. J
Neurosci 2003; 23(28):9395–9402
45
Berridge KC, Robinson TE. What is the role of dopamine in reward: hedonic impact, reward learning, or
incentive salience? Brain Res Rev. 1998;28(3):309-69
46
Satoh T et al. Correlated Coding of Motivation and Outcome of Decision by Dopamine Neurons. J Neurosci
2003; 23(30):9913–9923
47
Robbins TW and Everitt BJ. Neurobehavioural mechanisms of reward and motivation. Curr Op Neurobio
1996; 6:228-236.
48
D.B. Neill et al. Increase in accumbal dopaminergic transmission correlates with response cost not reward of
hypothalamic stimulation Behav Brain Res 137 (2002) 129-138
49
Beninger RJ (1983) The role of dopamine activity in locomotor activity and learning. Brain Res Rev 6:173196
50
Salamone JD, Aberman JE, Sokolowski JD, and Cousins MS. Nucleus accumbens dopamine and rate of
responding: neurochemical and behavioral studies. Psychobiol 1999; 27:236–247.
51
Correa M, Carlson BB, Wisniecki A, and Salamone JD. Nucleus accumbens dopamine and work requirements
on interval schedules. Behav Brain Res 2002;137:179–187.
52
Salamone JD, Correa M, Mingote S, and Weber SM. Nucleus Accumbens Dopamine and the Regulation of
Effort in Food-Seeking Behavior: Implications for Studies of Natural Motivation, Psychiatry, and Drug Abuse. J
Pharmacol Exp Ther 2003 ;305:1–8
53
Cardinal RN et al. Impulsive Choice Induced in Rats by Lesions of the Nucleus Accumbens Core. Science
2001;292:2499-2501
54
Kheramin S et al. Effects of orbital prefrontal cortex dopamine depletion on inter-temporal choice: a
quantitative analysis. Psychopharmacology 2004 ; in press.
55
Wakabayashi KT et al. Dissociation of the role of nucleus accumbens dopamine in responding to rewardpredictive cues and waiting for reward. Behav Brain Res 2004 ; in press.
56
Salamone JD, Cousins MS, and Bucher S (1994) Anhedonia or anergia? Effects of haloperidol and nucleus
accumbens dopamine depletion on instrumental response selection in a T-maze cost/benefit procedure. Behav
Brain Res 65:221–229
57
Krebs MO, Gut-Fayand A, Amado I, Daban C, Bourdel MC, Poirier MF, Berthoz A. Impairment of predictive
saccades in schizophrenia. Neuroreport. 2001 Mar 5;12(3):465-9.
58
Castaneda E., Whishaw I. Q. and Robinson T. E. (1990) Changes in striatal dopamine neurotransmission
assessed with microdialysis
following recovery from a bilateral 6-OHDA lesion: variation as a function of lesion size. J. Neurosci. 10, 1847–
1854.
59
Desmurget M, Grafton ST, Vindras P, Grea H, Turner RS. Basal ganglia network mediates the control of
movement amplitude. Exp Brain Res. 2003 Nov;153(2):197-209
60
Riekkinen M. Reduction of noradrenaline impairs attention and dopamine depletion slows responses in
Parkinson's disease. Eur J Neurosci. 1998 Apr;10(4):1429-35.
48
61
Montgomery EB Jr, Nuessen J. The movement speed/accuracy operator in Parkinson’s disease. Neurology
1990; 40: 269–72.
62
Teasdale N, Phillips J, Stelmach GE. Temporal movement control in patients with Parkinson’s disease. J
Neurol Neurosurg Psychiatry 1990; 53: 862–8
63
Majsak MJ, Kaminski TR, Gentile AM, Flanagan JR (1998) The reaching movements of patients with
Parkinson's disease under self-determined maximal speed and visually cued conditions. Brain 121:755-766
64
Georgiou N, Iansek R, Bradshaw JL, Phillips JG, Mattingley JB, Bradshaw JA. An evaluation of the role of
internal cues in the pathogenesis of parkinsonian hypokinesia. Brain 1993; 116:1575–87.
65
Rosinda M Oliveira, Jennifer M Gurd, Phillip Nixon, John C Marshall, Richard E Passingham. Micrographia
in Parkinson’s disease: the effect of providing external cues. J Neurol Neurosurg Psych 1997;63:429–433 429
66
MacAskill MR, Anderson TJ, Jones RD. Adaptive modification of saccade amplitude in Parkinson's disease.
Brain. 2002 Jul;125(Pt 7):1570-82
67
Marshall JF, Richardson JS, Teitelbaum P. Nigrostriatal bundle damage and the lateral hypothalamic
syndrome. J Comp Physiol Psychol. 1974 Nov;87(5):808-30
68
Grace AA. Phasic versus tonic dopamine release and the modulation of dopamine system responsivity: a
hypothesis for the etiology of schizophrenia. Neuroscience. 1991;41(1):1-24
69
Russell VA. Dopamine hypofunction possibly results from a defect in glutamate stimulated release of
dopamine in the nucleus accumbens shell of a rat model for attention deficit hyperactivity disorder—the
spontaneously hypertensive rat. Neurosci Biobehav Rev. 27 (2003) 671–682
70
Tedroff J., Ekesbo A., Sonesson C., Waters N. and Carlsson A. (1999) Long-lasting improvement following
(±)-OSU6162 in a patient with Huntington's disease. Neurology 53, 1605±1606.
71
Kelley AE, Gauthier AM, Lang CG. Amphetamine microinjections into distinct striatal subregions cause
dissociable effects on motor and ingestive behavior. Behav Brain Res. 1989 Oct 1;35(1):27-39
72
Saka E, Graybiel AM. Pathophysiology of Tourette's syndrome: striatal pathways revisited. Brain Dev. 2003
Dec;25 Suppl 1:S15-9
73
Saka E, Elibol B, Erdem S, Dalkara T.Compartmental changes in expression of c-Fos and FosB proteins in
intact and dopamine-depleted striatum after chronic apomorphine treatment. Brain Res. 1999;825(1-2):104-14
74
Segawa M. Neurophysiology of Tourette's syndrome: pathophysiological considerations. Brain Dev. 2003
Dec;25 Suppl 1:S62-9
75
Yokoshi M. Development of the nosological analysis of juvenile parkinsonism. Brain Dev. 2000 ; 1:S81-6
76
Hickey MA, Reynolds GP, Morton AJ.The role of dopamine in motor symptoms in the R6/2 transgenic mouse
model of Huntington's disease. J Neurochem. 2002 Apr;81(1):46-59.
77
Phillips JG, Bradshaw JL, Chiu E, Teasdale N, Iansek R, Bradshaw JA. Bradykinesia and movement precision
in Huntington's disease. Neuropsychologia. 1996 Dec;34(12):1241-5.
78
Denys D, van der Wee N, Janssen J, De Geus F, Westenberg HG. Low level of dopaminergic D2 receptor
binding in obsessive-compulsive disorder. Biol Psychiatry. 2004 May 15;55(10):1041-5.
79
Viggiano D et al. Neurosci Biobehav Rev 27 (2003) 683–689
80
Russell VA. Neurosci Biobehav Rev 27 (2003) 671–682
81
Tahl SM. The psychopharmacology of energy and fatigue. J Clin Psychiatry. 2002 Jan;63(1):7-8.
82
Wise RA. Dopamine, learning and motivation. Nat Rev Neurosci. 2004 Jun;5(6):483-94
83
Floresco SB, Blaha CD, Yang CR, Phillips AG (2001) Dopamine D1, NMDA receptors mediate potentiation of
basolateral amygdala-evoked firing of nucleus accumbens neurons. J Neurosci 21:6370–6376.
84
Garris P.A., R.M. Wightman, Different kinetics govern dopaminergic transmission in the amygdala, prefrontal
cortex, and striatum: an in vivo voltammetric study, J. Neurosci. 14 1994 442–450
85
Sorg BA, Kalivas PW. Effects of cocaine and footshock stress on extracellular dopamine levels in the ventral
striatum. Brain Res 1991;559:29-36
86
Horvitz JC. Mesolimbocortical and nigrostriatal dopamine responses to salient non-reward events.
Neuroscience 2000;96:651_/6
87
Wise, R. A., Spindler, J., deWit, H. & Gerber, G. J. Neuroleptic-induced ‘anhedonia’ in rats: pimozide blocks
reward quality of food. Science 201, 262–264 (1978).
88
Esposito, R. U., Faulkner, W. & Kornetsky, C. Specific modulation of brain stimulation reward by
haloperidol. Pharmacol. Biochem. Behav. 10, 937–940 (1979).
89
Horvitz JC, Stewart T, Jacobs BL (1997) Burst activity of ventral tegmental dopamine neurons is elicited by
sensory stimuli in the awake cat. Brain Res 759(2):251-258
90
Gallistel, C. R., Stellar, J. R. & Bubis, E. Parametric analysis of brain stimulation reward in the rat: I. The
transient process and the memory-containing process. J. Comp. Physiol.Psychol. 87, 848–859 (1974)
91
Horvitz JC. Dopamine gating of glutamatergic sensorimotor and incentive motivational input signals to the
striatum Behav Brain Res 137 (2002) 65-74
92
Kiyatkin EA, Rebec GV. Dopaminergic modulation of glutamate- induced excitations of neurons in the
49
neostriatum and nucleus accumbens of awake, unrestrained rats. J Neurophysiol 1996;75:142-53
93
Schneider JS. Responses of striatal neurons to peripheral sensory stimulation in symptomatic MPTP-exposed
cats. Brain Res 1991;544:297_/302.
94
McCullough LD and Salamone JD. Involvement of nucleus accumbens dopamine in the motor activity
induced by periodic food presentation: a microdialysis and behavioral study Brain Res. 1992;592(1-2):29-36.
95
Packard MG, Knowlton BJ (2002) Learning and memory functions of the basal ganglia. Annu Rev Neurosci
25:563-593
96
Jackson S, Houghton G (1994) Sensorimotor selection and the basal ganglia: a neural-network model.
In: Houk JC, Davis J (eds) Models of information processing in the basal ganglia. MIT Press, Cambridge, MA
97
Graybiel AM. Building action repertoires: memory and learning functions of the basal ganglia. Curr Opin
Neurobiol. 1995 Dec;5(6):733-41
98
Berns GS, Sejnowski TJ. A computational model of how the basal ganglia produce sequences. J Cogn
Neurosci. 1998 Jan;10(1):108-21
99
Redgrave P, Prescott TJ, Gurney K. The basal ganglia: a vertebrate solution to the selection problem?
Neuroscience. 1999;89(4):1009-23
100
Corneille P. Le Cid. Acte I scène 6
101
Willliam Styron - Le choix de Sophie
102
Parent A, Hazrati LN (1995) Functional anatomy of the basal ganglia. 1. The cortico-basal ganglia-thalamocortical loop. Brain Res Rev 20(1):91-127
103
Alexander GE, Crutcher MD (1990) Functional architecture of basal ganglia circuits: Neural substrates of
parallel processing. Trends Neurosci 13:266-271
104
Joel D, Weiner I (1994) The organization of the basal ganglia-thalamocortical circuits: Open interconnected
rather than closed segregated. Neuroscience 63(2):363-379
105
Heimer L, Alheid GF, de Olmos JS, Groenewegen HJ, Haber SN, Harlan RE, Zahm DS. The accumbens:
beyond the coreshell dichotomy. J Neuropsychiatry Clin Neurosci 1997;9:354-81.
106
Kandel AR, Schwartz JH and Jessel TM. Principles of neural science. Fourth edition.p 856
107
Mink JW. The basal ganglia : focused selection and inhibition of competing motor programs. Prog Neurobio
1996 ; 50 :.381- 425
108
Gerfen CR and Wilson CJ. The basal ganglia. In Handbook of chemical neuroanatomy- Integrated Systems of
the CNS (eds Swanson LW, Bjorklund A and Hokfely T). 12(III):371-468. Elsevier, Amsterdam
109
Wilson CJ. Contribution of cortical neurons to the firing pattern of striatal spiny neurons. In Models of
information processingin the basal gaglia (eds Houk JC, Davis JL, Beiser DG). Pp 29-50. MIT, Cambridge, MA
110
Roesch MR, Olson CR. Neuronal activity related to reward value and motivation in primate frontal cortex.
Science. 2004 Apr 9;304(5668):307-10.
111
Koechlin E, Ody C, Kouneiher F (2003) The architecture of cognitive control in the human prefrontal cortex.
Science 302(5648):1181-1185
112
Creese I. and Iversen S. D. (1975) The pharmacological and anatomical substrates of the amphetamine
response in the rat. Brain Res. 83, 419–436
113
Dunnett S. B. and Iversen S. D. (1982) Regulatory impairments following selective 6-OHDA lesions of the
neostriatum. Behav. Brain Res. 4, 120–195
114
Salamone J. D., Mahan K. and Rogers S. (1993) Ventrolateral striatal dopamine depletions impair feeding
and food handling in rats. Pharmac. Biochem. Behav. 44, 605–610
115
Kelley AE, Gauthier AM, Lang CG.Amphetamine microinjections into distinct striatal subregions cause
dissociable effects on motor and ingestive behavior. Behav Brain Res. 1989 Oct 1;35(1):27-39
50
Téléchargement