COMPTE-RENDU DE LA PHILOSOPHIE CONGNITIVE, E. PACHERIE ET J. PROUST, DIR., COLL. COGNIPRISME, ED. OPHRYS ET FONDATION DE LA MAISON DES SCIENCES DE L’HOMME (2004) L’ouvrage paru en 2004 sous la direction d’Elisabeth Pacherie et Joëlle Proust, La Philosophie cognitive, rassemble les contributions de plusieurs auteurs philosophes, issus pour la plupart d’entre eux de la branche florissante de la philosophie analytique dénommée ‘philosophie de l’esprit’. Ont contribué au volume, par ordre alphabétique : Jean-Pierre Dupuy, Pascal Engel, Alvin Goldman, Pierre Jacob, Marc Jeannerod, Gloria Origgi, Elisabeth Pacherie, Jérôme Pelletier, Joëlle Proust, Jean-Michel Roy, Stephen Stich. Autour d’un objectif commun, qui est la définition interdisciplinaire de cette nouvelle discipline dénommée ‘philosophie cognitive’, certains de ces auteurs font entrer dans le champ de la cognition philosophique la phénoménologie, la psychologie cognitive, la cybernétique ou cognitivisme, la philosophie de la connaissance, les neurosciences. Pour faire une place à cette nouvelle discipline dans le champ épistémologique, les deux directrices distinguent dans l’introduction la cognition de la connaissance : la cognition “s’étend à toute forme de traitement de l’information (perception, mémoire, schéma d’action, évaluation), qui permet à un organisme humain ou non humain de s’adapter de manière flexible à son environnement.” L’information traitée peut se présenter sous forme de croyances ou de représentations non conceptuelles (ou non verbalisées). Faute de temps, je vais m’appesantir sur cinq articles, que j’ai trouvés particulièrement intéressants : ceux de Stich, Dupuy, Pelletier, Origgi et Jacob. L’article de Stephen Stich, intitulé “Philosophie et psychologie cognitive”, remet en question la ‘maïeutique de Platon, cette dialectique conduisant à un point d’équilibre rationnel entre les interlocuteurs. Les travaux récents de psychologie permettent de jeter la suspicion sur la valeur de l’accord réfléchi entre interlocuteurs de même culture. En effet, la prétention à l’universalité véhiculée par la tradition philosophique platonicienne est illusoire car les intuitions épistémiques sont variables suivant les cultures. La croyance vraie et justifiée, dans laquelle ce qui rend la croyance vraie n’est pas le motif de la justification (absence de relation causale entre la croyance et l’événement qui motive la croyance) a remis la cause la notion de connaissance platonicienne : la croyance vraie et justifiée, lorsqu’elle est erronée ou incomplète, n’est donc pas un savoir (Gettier, 1963). Toutefois, si les Occidentaux sont plus disposés à concentrer leur attention sur la causalité pour décrire le monde et classer les choses, ce qui les dispose à affirmer que X croit que Y fait Z en l’absence de relation causale entre Z et l’évènement qui cause Z, en revanche une majorité d’Asiatiques affirment que X sait que Y fait Z. Les intuitions morales, normatives, varient elles aussi avec la culture et avec le niveau socio-économique dans une culture donnée. L’auteur a mené une étude auprès de différents sujets de statut socio-économique (SSE) différent, à Philadelphie (USA) et dans deux villes du Brésil. L’histoire destinée à provoquer le dégoût (censé évaluer les intuitions morales des sujets) était la suivante : “Un homme va au supermarché une fois par semaine et achète un poulet mort. Mais avant de le faire cuire, il a une relation sexuelle avec lui. Ensuite il le fait cuire et il le mange.” Les conclusions de l’étude révèlent que les sujets de SSE peu élevé, considèrent, davantage que les autres, que l’homme qui a des relations sexuelles avec un poulet fait quelque chose de particulièrement condamnable. Soit. Il serait intéressant, je pense, de savoir ce qui précisément motive ces intuitions morales negatives (la zoophilie, la nécrophilie, ou la représentation gustative du repas). Par ailleurs, dans une narration si réaliste, le malaise –au moins provisoire- est garanti. On pourrait trouver des mythes anciens qui mettent en jeu les mêmes notions morales et que le statut de mythe protège (un peu) des émotions négatives. Les paramètres en jeu ici sont donc certainement plus complexes que ceux d’une étude socio-économique. Jean-Pierre Dupuy, dans “L’Esprit mécanisé par lui-même”, dresse un tableau actuel des sciences cognitives, avec ses deux paradigmes, le pôle cognitiviste avec Jerry Fodor, et le pôle connexionniste. Les sciences cognitives sont héritières de la cybernétique (Von Neumann, machine de Türing), selon laquelle la pensée est une forme de calcul et l’intentionnalité de la pensée peut être expliquée par les lois physiques. Mais les sciences cognitives ont mal géré leur héritage. Le cognitivisme en particulier (Fodor) n’a pas réussi à résoudre les problèmes que la pensée comme calcul pose quand elle est associée à une conception représentationaliste du sens. C’est la phénoménologie qui, en reprenant l’idée de la physique du sens, pourrait le mieux réorienter les sciences cognitives. Dans son article “Vers une philosophie cognitive du langage”, Jérôme Pelletier analyse la “psychologisation” progressive de Frege, avec le tournant cognitif qui anime aujourd’hui la philosophie du langage, après le tournant linguistique du début du XXe siècle. Ainsi, la pensée ne se réduit pas à ce qu’exprime le langage externe ; en revanche, le sens des phrases dépend du sens des pensées sous-jacentes. A la suite de la linguistique chomskyenne, Pelletier considère la linguistique comme une branche de la psychologie cognitive. Ainsi, selon Chomsky et Pelletier, le langage serait programmé dans la cognition humaine, il ne résulterait pas de l’existence de conventions ou d’interactions linguistiques ou sociales, et il aurait un fondement biologique (i. e. génétique). La grammaire universelle serait donc celle d’un “homme neuronal”. Il me semble que cette vision a tendance à gommer l’ontogenèse au profit de la phylogenèse : dire que c’est le Langage qui parle, comme le font les chomskyens et certains frégéens, et non le sujet de l’énonciation, me semble quelque peu réductionniste, et supprimer la part intrinsèquement individuelle que chaque locuteur prend dans son énoncé, y compris la notion auctoriale de responsabilité énonciative. Cela rentre en contradiction avec la prise de parole des chercheurs (dont font partie Chomsky et Pelletier), en leur nom propre et non au nom du Langage (après tout, on parle bien de théorie linguistique ‘chomskyenne’). L’esprit et le cerveau, rejoints dans la grammaire générative -qui permet de générer des énoncés syntaxiquement corrects- ne laisse aucune place à la notion d’idiolecte, ou de détournement volontaire de la norme langagière, propre à l’écriture littéraire ou à celle des “malades mentaux”. Toutefois, je pense pour autant qu’il n’est pas envisageable de remettre en question le rapprochement entre esprit et cerveau, ce rapprochement s’exprimant par des inférences logiques, ou des projections ou simulations qui conduisent à la mise en place d’une théorie de l’esprit, d’une interprétation du contexte ou des intentions du locuteur. Pour Pelletier, Chomsky serait un cognitiviste, mais selon un modèle internaliste, sans référence directe au monde externe, à l’environnement physique et social (ce qui est l’approche de la sémantique référentielle, celle de Frege, Burge, Putnam ou Davidson). Pour Chomsky, la référence serait liée à l’intentionnalité, aux intentions du locuteur, et il ne pense pas que celles-ci puissent se prêter à un traitement scientifique ni donner lieu à une théorie. C’est faire peu de cas des théories computo-représentationnelles de Fodor ou de Jacob, ou des sémantiques d’inspiration cognitive de Lakoff, Langacker, Talmy, Fauconnier ou Petitot. La théorie de la projection métaphorique de Lakoff fournit une explication au dédoublement des pronoms personnels de 1re personne (dans des énoncés tels que Je ne suis pas moi-même aujourd’hui ; Si j’étais vous, je me détesterais), de même que la théorie des espaces mentaux de Fauconnier permet de comprendre comment une des entités constitutives d’une personne peut être mentalement “projetée” sur l’une des entités constitutives d’une autre personne. Pour une description appliquée de la métaphore conceptuelle de Lakoff et des espaces mentaux de Fauconnier, on se reportera utilement à mon livre, Le Français pour les professeurs des écoles, aspects théoriques et pratiques, Vuibert, 2005, pp. 130-133. “Croyance, déférence et témoignage”, l’article de Gloria Origgi, est un plaidoyer en faveur de l’apport des sciences cognitives à l’épistémologie sociale. Ainsi, la déférence épistémique et la déférence sémantique sont deux phénomènes à la fois cognitifs et sociaux. La déférence épistémique, c’est-à-dire la croyance acquise sur la base du témoignage d’autrui (Burge, Coady), n’est pas justifiée. En effet, depuis la théorie pragmatique de la pertinence (Sperber et Wilson, 1995), la communication a une nature inférentielle, permettant d’arriver à une interprétation fiable du stimulus linguistique et de son contexte de production. Or, le modèle préservatif de la communication consiste en un simple transfert d’une information inerte d’un locuteur à un auditeur. La déférence sémantique, étudiée par Putnam en 1975 avec la ‘division du travail linguistique’, et qui correspond à l’expertise lexicale, devrait être distinguée selon que celle-ci est tacite ou mentalement représentée, qu’elle est métalinguistique ou référentielle (i. e. complète du point de vue scientifique). Selon Putnam (The meaning of meaning), nous sommes en relation avec le contenu de certains des termes de notre langue non pas individuellement mais par l’intermédiaire de la distribution des connaissances dans notre communauté linguistique. C’est le cas des termes de spécialité, ou “d’espèce naturelle” comme dit Putnam, comme le molybdène, par exemple, que tout locuteur comprend même sans être expert. L’expertise n’est pas “dans la tête” de l’individu, mais dépend de facteurs externes. La déférence sémantique est soit une déférence tacite aux experts, soit une déférence sémantique comme “cooptation de contenu”, c’est-à-dire inscription de ce contenu dans un contexte particulier, contenu qui est matière à renégociation en fonction des communautés de référence et de l’évolution des connaissances. Toutefois, il existe une différence entre les représentations mentales des termes métalinguistiques, d’une part, comme ‘synecdoque’, et des termes référentiels d’usage spontané, d’autre part, comme ‘cancer’. Cette différence tient-elle au fait qu’il existe différents formats d’inscription de nos croyances et concepts dans notre esprit ? des concepts intuitifs, c’est-à-dire immédiatement disponibles dans la formation de croyances, utilisables dans des inférences spontanées, et des concepts réflexifs, sans maîtrise intuitive ni usage spontané, comme le proposent Recanati (1997), Sperber (1974, 1997) et Engel (1996). Pour ma part, je ne pense pas qu’il s’agisse là de concepts, mais plutôt de variation sociolinguistique, de niveaux de langue recouvrant un même concept : ainsi, le terme ‘crise cardiaque’ sera intuitivement compris du plus grand nombre alors qu’ ‘infarctus du myocarde’ ou ‘fibrillation ventriculaire’ le sera d’une communauté plus restreinte (les 3 termes recouvrant le même concept). Dans “Philosophie et neurosciences : le cas de la vision”, Pierre Jacob critique le programme éliminativiste de Patricia Churchland, qui souhaite remplacer les propriétés mentales par les propriétés neurophysiologiques du cerveau. Cette approche, radicalement physicaliste ou matérialiste, qui vise à supprimer l’épistémologie classique des philosophes, est utopique, mais non pas inutile. Le verbe ‘voir’ offre ainsi un bon exemple de remise en cause, en douceur, des analyses traditionnelles autour des fonctions cognitives telles que le langage, la mémoire, le raisonnement, les émotions ou la prise de décision. En effet, la tradition rationaliste ou empiriste de la perception considère que le monde s’offre immédiatement à la vision et que voir ne sert qu’à savoir. Les neurosciences contribuent à contrarier ces deux thèses. D’abord parce qu’il y a des difficultés dans la perception visuelle, que le monde ne s’offre pas à nous directement et complètement, et ce pour au moins quatre raisons : - les objets contenus dans une scène ne sont jamais tous visibles simultanément ni en entier, sous toutes leurs faces ; - il y a sur la rétine de l’oeil une région nommée ‘le point aveugle’, qui correspond à la jonction entre la rétine et le nerf optique, et qui est dénuée de photorécepteurs. Selon les auteurs, neuropsychologues ou philosophes, le cortex visuel “complète” l’information non relayée par le point aveugle, ou le cortex visuel ignore ou néglige l’absence d’information en provenance de cette région ; - le système visuel humain ne perçoit pas les changements de couleurs ou de formes s’ils coïncident avec une saccade de l’oeil ; - le cortex visuel perçoit de nombreuses illusions. Ensuite, voir ne conduit pas toujours à savoir. On peut voir un carré rouge sans savoir qu’il s’agit d’un carré. Cette perception est alors non épistémique. De plus, le traitement visuel ne donne pas toujours lieu à une conscience perceptive des objets, qu’il y ait déficit neuropsychologique ou non. Enfin, la vision engendre l’action, grâce à la préhension par exemple. Un des courants les plus actifs de la philosophie cognitive s'inspire du naturalisme, en vertu duquel la philosophie doit adapter ses concepts à l'état contemporain du savoir, et renoncer aux formes de légitimation qui seraient incompatibles avec celles qui sont mises en œuvre dans les sciences de la nature. On trouve dans ce recueil des preuves tangibles de la fécondité de cette approche. Sylvie Ferrando, mai 2007