2
peut montrer son innocuité logique au sein d’un langage extensionnel, mais si on peut
décrire le mécanisme causal qui en est responsable. L’abstraction fonctionnelle
caractéristique du béhaviorisme comme du fonctionnalisme n’est plus au goût du jour
dans les sciences de la cognition si elle cache une tentative d’ériger une science
suffisante, sans rapport aucun avec ses sœurs. Qui veut rapatrier l’épistémologie au
sein de la science doit se plier aux exigences normatives de la science et l’intégration,
ou l’intégration potentielle, est une des importantes exigences normatives aujourd’hui.
C’est Quine le naturaliste qui vient hanter Quine le béhavioriste. Le naturalisme de
Quine veut en effet que sa propre psychologie de la science soit jugée par les principes
normatifs en vigueur en sciences. Or la psychologie vit présentement d’intenses
pressions intégratives vers les neurosciences et l’acceptabilité d’une psychologie de la
science aujourd’hui dépend en partie de la possibilité de son intégration avec les autres
sciences formant les sciences cognitives.
Mais à la même époque où Quine, Tarski et Carnap décidaient du sort de la distinction
analytique-synthétique, et à quelques rues de là, un autre philosophe-mathématicien,
Warren McCullogh, beaucoup plus obscur mais tout aussi important que ses collègues
de Cambridge, jetait les bases de ce qui allait devenir un des plus sérieux formalisme
actuel pour analyser le détail du mécanisme menant du stimulus à la science.
L’entreprise de McCullogh, qu’il concevait comme une épistémologique naturelle, qu’il
nommait « épistémologie expériementale » deviendra, au terme d’une histoire qu’il n’est
pas pertinent de rappeler ici, l’épistémologie neurocomputationnelle de Paul Churchland.
J’aimerais aujourd’hui explorer la possibilité de reprendre le projet initial de Quine d’une
psychologie de la science qui rejette autant l’idiome propositionnel et le vocabulaire
subjectif que la distinction analytique-synthétique mais qui se base sur les
neurosciences plutôt que le béhaviorisme. J’aimerais explorer le genre de science
cognitive de la science que Quine aurait pu développer s’il s’était inspiré de McCullogh
plutôt que de Skinner.
1. L’épistémologie, ou quelque chose de ressemblant
L’épistémologie neurocomputationnelle se développe à partir d’un exemplaire
paradigmatique lequel ouvre la porte à un appareil conceptuel, en fait deux.
L’exemplaire est le réseau de neurone artificiel et l’appareil conceptuel qui m’intéresse
est la théorie dynamique des systèmes. Je dirai quelques mots au sujet de chacun, en
commençant par l’exemplaire paradigmatique. Un réseau de neurones artificiel est un
calculateur que l’on peut représenter formellement comme un graphe orienté où (1) une
variable d’état, (2) un coefficient de biais et (3) une fonction d’activation et de transfert
sont assignés à chaque nœud du graphe et où un coefficient de pondération est
assigné à chacune des arête. Ce formalisme peut servir d’exemplaire paradigmatique à
une théorie épistémologique au terme de deux séries d’analogies, que l’on doit chacune
à McCullogh.
La première et la plus connue des séries d’analogies résulte en l’interprétation
biologique ou neurologique du formalisme. C’est à travers cette série d’analogie que le
formalisme mathématique reçoit le nom de « réseau de neurones » et, inversement,
c’est à travers cette série d’analogies que des assemblées de neurones interconnectées
peuvent être comprises comme des machines de traitement de l’information. Au plan
physiologique, un neurone standard possède trois propriétés ou structures
physiologiques d’intérêt. D’abord, il est plus ou moins fortement connecté à d’autres
neurones, certains en amont d’autre en aval. Ensuite, il a un certain niveau d’activation
lequel dépend de trois facteurs : son seuil de sensibilité à l’activation, la force de ses
connections aux neurones en amont et enfin le niveau d’activation de ces autres