Sciences Humaines hors série n°35 – déc 2001/janv-fév 2002 Histoire des sciences cognitives Jusqu’au milieu des années 70, le terme « sciences cognitives » était inexistant, bien que des recherches convergent vers ce domaine. A partir de 1975, le cognitivisme va prendre la forme d’une véritable discipline, avec un paradigme unifié et une assise institutionnelle solide. I - Vers la formalisation de la pensée : Pensée rationnelle : époque classique (1700-1800) : Pour Descartes, penser, c’est raisonner. Pour Leibnitz, penser c’est calculer. Selon eux, il est possible de découvrir des principes premiers qui permettraient ensuite de comprendre toutes les idées. Leur démarche s’oppose à celle des « empiristes » comme Locke ou Hume pour qui la pensée se construit des sens, de l’accumulation d’observations et d’expériences. Pensée automatique : du XIXème au début du XXème siècle se mettent en place des découvertes qui convergent vers l’invention de l’ordinateur. Le projet de mécanisation de la pensée a commencé à prendre forme au XIXème siècle : Georges Boole invente le « calcul symbolique » qui permet de traduire des opérations mathématiques simples effectuées par les chiffres 0 et 1. Charles Babbage dessine les plans d’une « machine analytique » capable de traiter des équations de type « (a+b)*(c+d) » ou de calculer des logarithmes. L’invention de l’ordinateur résulte de la convergence de l’apport de ces recherches, avec d’autres découvertes : essor de l’électronique (qui permet la construction de mémoires), du calcul numérique et des techniques de programmation. En 1936 Alan Turing imagine un dispositif virtuel (machine de Turing) qui traduit tout problème mathématique humainement calculable sous forme d’une suite d’opérations simples. Il invente le principe de l’algorithme. John von Neumann, en associant le calcul analytique et le principe de l’algorithme jette les bases des premiers véritables ordinateurs. Les premiers « vrais » ordinateurs comme l’Univac ou l’IBM 701 apparaissent en 1951. II – les premières découvertes sur le cerveau : Au début du XIXème siècle, la phrénologique de Franz Joseph Gall prétend connaître les instincts et les facultés intellectuelles des hommes en observant la forme de leur crâne. Dans les années 1860, Paul Broca localise le centre du langage dans le lobe temporal gauche. A la fin du XIXème siècle, Santiago Ramon y Cajal découvre l’existence du neurone. Les premières « cartographies » des aires du cerveau apparaissent au début du XXème siècle avec Walter Campbell et Korbinian Brodmann. De 1946 à 1953 sont organisées à New York les conférences Macy qui rassemblent un groupe de scientifiques d’horizons divers. Un des thèmes de discussion concerne la cybernétique. Le terme a été forgé par le mathématicien Norbert Wiener en 1948 (cybernétique provient du grec kubernetes, pilote). Selon Wiener, la cybernétique sera la nouvelle science des systèmes autorégulés. Idées-forces des conférences Macy : ordinateur, cerveau, système autorégulé (notion de feed back), calcul logique. Plusieurs modèles sont en gestation : un modèle « connexionniste » inspiré de la physiologie et du béhaviorisme conçoit les opérations intelligentes comme un système autorégulé. Un modèle « symbolique » envisage la pensée comme une série de calculs. III- La naissance de l’intelligence artificielle : En 1956, le mathématicien John Mc Carthy organise le premier séminaire sur l’IA. Herbert Simon, sociologue des organisations, y assiste. Il présente avec son ami mathématicien Alan Newell le premier programme d’intelligence artificielle : Logic Theorist. Le but de L’IA est de copier, puis de dépasser les activités humaines réputées intelligentes, comme raisonner, utiliser le langage ou résoudre des problèmes. Simon et Newell conçoivent, en 1957 le programme informatique intitulé General Problem Solver (GPS). A partir des années 60, les premiers systèmes experts sont mis au point. IV – Les débuts de la psychologie cognitive : Au début des années 50, quelques auteurs (notamment Jérôme S. Bruner et George Miller) commencent à prendre leur distance avec le béhaviorisme, qui règne alors dans la psychologie américaine. Miller tente de mettre à jour les « plans d’action » utilisés par le cerveau pour résoudre des problèmes. Il s’intéresse à l’IA, car il pense y trouver des outils pour formaliser ces plans d’action, qui sont à la pensée ce que le programme est à l’ordinateur. On va essayer (Simon, Chomsky…et avant eux Piaget) de révéler les stratégies mentales utilisées par des sujets face à un problème. V – Noam Chomsky et la grammaire générative (GG) : N. Chomsky part de l’existence d’une aptitude proprement humaine à produire le langage et à construire des phrases, en associant des mots selon des règles de grammaire. Cette aptitude, naturelle chez l’enfant, repose sur la maîtrise de quelques règles de production universelles, c’est à dire communes à toutes les langues. L’esprit de la GG est, au départ, proche de celui de l’IA : dans les deux cas, il s’agit de retrouver des « programmes » fondamentaux, réductibles à quelques règles de production, qui permettent de « générer » toutes sortes de productions mentales. VI – Jerry Fodor et la théorie « symbolique » de l’esprit : le cognitivisme : En 1975, Fodor (dans son livre « the Language of Thought ») présente un modèle de la pensée qui s’inspire largement de l’analogie avec le fonctionnement de l’ordinateur : la pensée est au cerveau ce que le logiciel informatique est à la machine. Les opérations de l’esprit sont des opérations logico-mathématiques sur des symboles. Penser, c’est manipuler des symboles. Le rôle des sciences cognitives revient à élucider ce langage symbolique qui gouverne les productions mentales. En 1986, Fodor publie « la modularité de l’esprit » : le psychisme humain traite les informations sous forme de modules spécialisés destinés chacun à un type particulier d’opérations. Pour Fodor, un module est spécifique à une opération spécifique. Son fonctionnement est autonome, rapide et donc inconscient. Il possède une localisation neuronale précise. Les modules sont sous la coupe d’un système central chargé de coordonner et de centraliser les informations traitées par les modules spécifiques. Le modèle symbolique ou computo-représentationnel de Fodor, bien que contesté (notamment par des philosophes comme John R. Searle) s’impose comme une référence dominante. Le cognitif, c’est le traitement de l’information symbolique. A la demande de la fondation Sloan, paraît en 1978 un premier rapport sur l’état des sciences cognitives. Pour la première fois y apparaît le fameux hexagone des disciplines concernées : philosophie, IA, psychologie, linguistique, neurosciences, anthropologie. Les sciences cognitives débarquent en France près de dix ans plus tard. VII – Un modèle concurrent : le connexionnisme : Dans les années 80, l’IA classique commence à s’essouffler et à buter sur des problèmes, comme l’apprentissage et la traduction automatique. L’idée connexionniste, déjà en germe dans la cybernétique, envisage les opérations cognitives comme le résultat émergent de petites unités interconnectées qui interagissent entre elles, sans pilote central. C’est un modèle en réseau supposé copier le fonctionnement du cerveau ou d’une fourmilière. VIII – La décennie des neurosciences : 1990-2000 : Les nouvelles techniques d’imagerie cérébrale (scanner, IRM…) font progresser considérablement l’étude de l’activité cérébrale. L’objectif principal des neurosciences vise à comprendre les opérations mentales. Débat philosophique : la pensée est-elle soluble dans l’activité neuronale ? La plupart des neuroscientifiques admettent que la pensée, forcément ancrée sur un support cérébral, dépend également de l’apprentissage, et donc de facteurs culturels et sociaux. IX – Les sciences cognitives au seuil du XXIème siècle : L’IA était, vingt ans plus tôt, la « science-pilote » des sciences cognitives. Désormais, ce sont les neurosciences, rebaptisées « cognitives », qui sont le pivot des sciences de la cognition. Au début des années 2000, il n’y a plus vraiment de modèle dominant : le modèle computationnel bute sur la formalisation du langage ou la reconnaissance des formes ; le connexionnisme n’apporte pas la solution espérée dans les domaines de l’apprentissage … De nouvelles approches surgissent : l’évolutionnisme, des modèles interactionnistes, constructivistes, écologiques, mettent l’accent sur le rôle du contexte, des interactions dans l’élaboration des processus psychiques. Selon l’évolutionnisme, le cerveau humain a été façonné par l’évolution pour résoudre des problèmes adaptatifs précis. La plupart des chercheurs admettent que la pensée est un phénomène « bio-psychosocial ». Les recherches font aujourd’hui la place à l’émotion, la motricité. La cognition s’ancre dans le corps. On insiste désormais sur le fait que la pensée est tributaire d’un corps et que celui-ci est plongé dans un environnement social. Une autre tendance s’impose : la prise en compte de la diversité des processus mentaux : intelligences multiples, mémoires multiples, diversité des dispositifs impliqués dans la production du langage, etc. L’espoir de trouver un modèle unique pour « penser la pensée » s’éloigne.