Histoire des sciences cognitives

publicité
Sciences Humaines hors série n°35 – déc 2001/janv-fév 2002
Histoire des sciences cognitives
Jusqu’au milieu des années 70, le terme « sciences cognitives » était inexistant, bien
que des recherches convergent vers ce domaine. A partir de 1975, le cognitivisme va
prendre la forme d’une véritable discipline, avec un paradigme unifié et une assise
institutionnelle solide.
I - Vers la formalisation de la pensée :
Pensée rationnelle : époque classique (1700-1800) :
Pour Descartes, penser, c’est raisonner. Pour Leibnitz, penser c’est calculer. Selon
eux, il est possible de découvrir des principes premiers qui permettraient ensuite de
comprendre toutes les idées.
Leur démarche s’oppose à celle des « empiristes » comme Locke ou Hume pour qui
la pensée se construit des sens, de l’accumulation d’observations et d’expériences.
Pensée automatique : du XIXème au début du XXème siècle se mettent en place
des découvertes qui convergent vers l’invention de l’ordinateur.
Le projet de mécanisation de la pensée a commencé à prendre forme au XIXème
siècle : Georges Boole invente le « calcul symbolique » qui permet de traduire des
opérations mathématiques simples effectuées par les chiffres 0 et 1. Charles
Babbage dessine les plans d’une « machine analytique » capable de traiter des
équations de type « (a+b)*(c+d) » ou de calculer des logarithmes.
L’invention de l’ordinateur résulte de la convergence de l’apport de ces recherches,
avec d’autres découvertes : essor de l’électronique (qui permet la construction de
mémoires), du calcul numérique et des techniques de programmation.
En 1936 Alan Turing imagine un dispositif virtuel (machine de Turing) qui traduit tout
problème mathématique humainement calculable sous forme d’une suite
d’opérations simples. Il invente le principe de l’algorithme.
John von Neumann, en associant le calcul analytique et le principe de l’algorithme
jette les bases des premiers véritables ordinateurs.
Les premiers « vrais » ordinateurs comme l’Univac ou l’IBM 701 apparaissent en
1951.
II – les premières découvertes sur le cerveau :
Au début du XIXème siècle, la phrénologique de Franz Joseph Gall prétend
connaître les instincts et les facultés intellectuelles des hommes en observant la
forme de leur crâne.
Dans les années 1860, Paul Broca localise le centre du langage dans le lobe
temporal gauche.
A la fin du XIXème siècle, Santiago Ramon y Cajal découvre l’existence du
neurone.
Les premières « cartographies » des aires du cerveau apparaissent au début du
XXème siècle avec Walter Campbell et Korbinian Brodmann.
De 1946 à 1953 sont organisées à New York les conférences Macy qui rassemblent
un groupe de scientifiques d’horizons divers. Un des thèmes de discussion concerne
la cybernétique. Le terme a été forgé par le mathématicien Norbert Wiener en 1948
(cybernétique provient du grec kubernetes, pilote). Selon Wiener, la cybernétique
sera la nouvelle science des systèmes autorégulés.
Idées-forces des conférences Macy : ordinateur, cerveau, système autorégulé
(notion de feed back), calcul logique.
Plusieurs modèles sont en gestation : un modèle « connexionniste » inspiré de la
physiologie et du béhaviorisme conçoit les opérations intelligentes comme un
système autorégulé. Un modèle « symbolique » envisage la pensée comme une
série de calculs.
III- La naissance de l’intelligence artificielle :
En 1956, le mathématicien John Mc Carthy organise le premier séminaire sur l’IA.
Herbert Simon, sociologue des organisations, y assiste. Il présente avec son ami
mathématicien Alan Newell le premier programme d’intelligence artificielle : Logic
Theorist.
Le but de L’IA est de copier, puis de dépasser les activités humaines réputées
intelligentes, comme raisonner, utiliser le langage ou résoudre des problèmes.
Simon et Newell conçoivent, en 1957 le programme informatique intitulé General
Problem Solver (GPS).
A partir des années 60, les premiers systèmes experts sont mis au point.
IV – Les débuts de la psychologie cognitive :
Au début des années 50, quelques auteurs (notamment Jérôme S. Bruner et George
Miller) commencent à prendre leur distance avec le béhaviorisme, qui règne alors
dans la psychologie américaine.
Miller tente de mettre à jour les « plans d’action » utilisés par le cerveau pour
résoudre des problèmes. Il s’intéresse à l’IA, car il pense y trouver des outils pour
formaliser ces plans d’action, qui sont à la pensée ce que le programme est à
l’ordinateur. On va essayer (Simon, Chomsky…et avant eux Piaget) de révéler les
stratégies mentales utilisées par des sujets face à un problème.
V – Noam Chomsky et la grammaire générative (GG) :
N. Chomsky part de l’existence d’une aptitude proprement humaine à produire le
langage et à construire des phrases, en associant des mots selon des règles de
grammaire. Cette aptitude, naturelle chez l’enfant, repose sur la maîtrise de quelques
règles de production universelles, c’est à dire communes à toutes les langues.
L’esprit de la GG est, au départ, proche de celui de l’IA : dans les deux cas, il s’agit
de retrouver des « programmes » fondamentaux, réductibles à quelques règles de
production, qui permettent de « générer » toutes sortes de productions mentales.
VI – Jerry Fodor et la théorie « symbolique » de l’esprit : le cognitivisme :
En 1975, Fodor (dans son livre « the Language of Thought ») présente un modèle de
la pensée qui s’inspire largement de l’analogie avec le fonctionnement de
l’ordinateur : la pensée est au cerveau ce que le logiciel informatique est à la
machine. Les opérations de l’esprit sont des opérations logico-mathématiques sur
des symboles. Penser, c’est manipuler des symboles. Le rôle des sciences
cognitives revient à élucider ce langage symbolique qui gouverne les productions
mentales.
En 1986, Fodor publie « la modularité de l’esprit » : le psychisme humain traite les
informations sous forme de modules spécialisés destinés chacun à un type particulier
d’opérations. Pour Fodor, un module est spécifique à une opération spécifique. Son
fonctionnement est autonome, rapide et donc inconscient. Il possède une localisation
neuronale précise. Les modules sont sous la coupe d’un système central chargé de
coordonner et de centraliser les informations traitées par les modules spécifiques.
Le modèle symbolique ou computo-représentationnel de Fodor, bien que contesté
(notamment par des philosophes comme John R. Searle) s’impose comme une
référence dominante. Le cognitif, c’est le traitement de l’information symbolique.
A la demande de la fondation Sloan, paraît en 1978 un premier rapport sur l’état des
sciences cognitives. Pour la première fois y apparaît le fameux hexagone des
disciplines concernées : philosophie, IA, psychologie, linguistique, neurosciences,
anthropologie.
Les sciences cognitives débarquent en France près de dix ans plus tard.
VII – Un modèle concurrent : le connexionnisme :
Dans les années 80, l’IA classique commence à s’essouffler et à buter sur des
problèmes, comme l’apprentissage et la traduction automatique.
L’idée connexionniste, déjà en germe dans la cybernétique, envisage les opérations
cognitives comme le résultat émergent de petites unités interconnectées qui
interagissent entre elles, sans pilote central. C’est un modèle en réseau supposé
copier le fonctionnement du cerveau ou d’une fourmilière.
VIII – La décennie des neurosciences : 1990-2000 :
Les nouvelles techniques d’imagerie cérébrale (scanner, IRM…) font progresser
considérablement l’étude de l’activité cérébrale.
L’objectif principal des neurosciences vise à comprendre les opérations mentales.
Débat philosophique : la pensée est-elle soluble dans l’activité neuronale ? La
plupart des neuroscientifiques admettent que la pensée, forcément ancrée sur un
support cérébral, dépend également de l’apprentissage, et donc de facteurs culturels
et sociaux.
IX – Les sciences cognitives au seuil du XXIème siècle :
L’IA était, vingt ans plus tôt, la « science-pilote » des sciences cognitives. Désormais,
ce sont les neurosciences, rebaptisées « cognitives », qui sont le pivot des sciences
de la cognition.
Au début des années 2000, il n’y a plus vraiment de modèle dominant : le modèle
computationnel bute sur la formalisation du langage ou la reconnaissance des
formes ; le connexionnisme n’apporte pas la solution espérée dans les domaines de
l’apprentissage …
De nouvelles approches surgissent : l’évolutionnisme, des modèles interactionnistes,
constructivistes, écologiques, mettent l’accent sur le rôle du contexte, des
interactions dans l’élaboration des processus psychiques. Selon l’évolutionnisme, le
cerveau humain a été façonné par l’évolution pour résoudre des problèmes
adaptatifs précis.
La plupart des chercheurs admettent que la pensée est un phénomène « bio-psychosocial ». Les recherches font aujourd’hui la place à l’émotion, la motricité. La
cognition s’ancre dans le corps. On insiste désormais sur le fait que la pensée est
tributaire d’un corps et que celui-ci est plongé dans un environnement social.
Une autre tendance s’impose : la prise en compte de la diversité des processus
mentaux : intelligences multiples, mémoires multiples, diversité des dispositifs
impliqués dans la production du langage, etc. L’espoir de trouver un modèle unique
pour « penser la pensée » s’éloigne.
Téléchargement