COMPTE-RENDU DE LA PHILOSOPHIE CONGNITIVE, E. PACHERIE ET J. PROUST,
DIR., COLL. COGNIPRISME, ED. OPHRYS ET FONDATION DE LA MAISON DES
SCIENCES DE L’HOMME (2004)
L’ouvrage paru en 2004 sous la direction d’Elisabeth Pacherie et Joëlle Proust, La Philosophie
cognitive, rassemble les contributions de plusieurs auteurs philosophes, issus pour la plupart
d’entre eux de la branche florissante de la philosophie analytique dénommée philosophie de
l’esprit’. Ont contribué au volume, par ordre alphabétique : Jean-Pierre Dupuy, Pascal Engel,
Alvin Goldman, Pierre Jacob, Marc Jeannerod, Gloria Origgi, Elisabeth Pacherie, Jérôme
Pelletier, Joëlle Proust, Jean-Michel Roy, Stephen Stich.
Autour d’un objectif commun, qui est la définition interdisciplinaire de cette nouvelle discipline
dénommée ‘philosophie cognitive’, certains de ces auteurs font entrer dans le champ de la
cognition philosophique la phénoménologie, la psychologie cognitive, la cybernétique ou
cognitivisme, la philosophie de la connaissance, les neurosciences.
Pour faire une place à cette nouvelle discipline dans le champ épistémologique, les deux
directrices distinguent dans l’introduction la cognition de la connaissance : la cognition “s’étend à
toute forme de traitement de l’information (perception, mémoire, schéma d’action, évaluation),
qui permet à un organisme humain ou non humain de s’adapter de manière flexible à son
environnement.” L’information traitée peut se présenter sous forme de croyances ou de
représentations non conceptuelles (ou non verbalisées).
Faute de temps, je vais m’appesantir sur cinq articles, que j’ai trouvés particulièrement
intéressants : ceux de Stich, Dupuy, Pelletier, Origgi et Jacob.
L’article de Stephen Stich, intitulé Philosophie et psychologie cognitive”, remet en question la
‘maïeutique de Platon, cette dialectique conduisant à un point d’équilibre rationnel entre les
interlocuteurs. Les travaux récents de psychologie permettent de jeter la suspicion sur la valeur de
l’accord réfléchi entre interlocuteurs de même culture. En effet, la prétention à l’universalité
véhiculée par la tradition philosophique platonicienne est illusoire car les intuitions épistémiques
sont variables suivant les cultures. La croyance vraie et justifiée, dans laquelle ce qui rend la
croyance vraie n’est pas le motif de la justification (absence de relation causale entre la croyance
et l’événement qui motive la croyance) a remis la cause la notion de connaissance platonicienne :
la croyance vraie et justifiée, lorsqu’elle est erronée ou incomplète, n’est donc pas un savoir
(Gettier, 1963). Toutefois, si les Occidentaux sont plus disposés à concentrer leur attention sur la
causalité pour décrire le monde et classer les choses, ce qui les dispose à affirmer que X croit que
Y fait Z en l’absence de relation causale entre Z et l’évènement qui cause Z, en revanche une
majorité d’Asiatiques affirment que X sait que Y fait Z. Les intuitions morales, normatives,
varient elles aussi avec la culture et avec le niveau socio-économique dans une culture donnée.
L’auteur a mené une étude auprès de différents sujets de statut socio-économique (SSE) difrent,
à Philadelphie (USA) et dans deux villes du Brésil. L’histoire destinée à provoquer le dégoût
(censé évaluer les intuitions morales des sujets) était la suivante : “Un homme va au supermarché
une fois par semaine et achète un poulet mort. Mais avant de le faire cuire, il a une relation
sexuelle avec lui. Ensuite il le fait cuire et il le mange.” Les conclusions de l’étude révèlent que
les sujets de SSE peu élevé, considèrent, davantage que les autres, que l’homme qui a des
relations sexuelles avec un poulet fait quelque chose de particulièrement condamnable. Soit. Il
serait intéressant, je pense, de savoir ce qui précisément motive ces intuitions morales negatives
(la zoophilie, la nécrophilie, ou la représentation gustative du repas). Par ailleurs, dans une
narration si réaliste, le malaise –au moins provisoire- est garanti. On pourrait trouver des mythes
anciens qui mettent en jeu les mêmes notions morales et que le statut de mythe protège (un peu)
des émotions négatives. Les paramètres en jeu ici sont donc certainement plus complexes que
ceux d’une étude socio-économique.
Jean-Pierre Dupuy, dans L’Esprit mécanisé par lui-même”, dresse un tableau actuel des
sciences cognitives, avec ses deux paradigmes, le pôle cognitiviste avec Jerry Fodor, et le pôle
connexionniste. Les sciences cognitives sont héritières de la cybernétique (Von Neumann,
machine de Türing), selon laquelle la pensée est une forme de calcul et l’intentionnalité de la
pensée peut être expliquée par les lois physiques. Mais les sciences cognitives ont mal géré leur
héritage. Le cognitivisme en particulier (Fodor) n’a pas réussi à résoudre les problèmes que la
pensée comme calcul pose quand elle est associée à une conception représentationaliste du sens.
C’est la phénoménologie qui, en reprenant l’idée de la physique du sens, pourrait le mieux
réorienter les sciences cognitives.
Dans son article Vers une philosophie cognitive du langage”, Jérôme Pelletier analyse la
“psychologisation” progressive de Frege, avec le tournant cognitif qui anime aujourd’hui la
philosophie du langage, après le tournant linguistique du début du XXe siècle. Ainsi, la pensée ne
se réduit pas à ce qu’exprime le langage externe ; en revanche, le sens des phrases dépend du sens
des pensées sous-jacentes. A la suite de la linguistique chomskyenne, Pelletier considère la
linguistique comme une branche de la psychologie cognitive. Ainsi, selon Chomsky et Pelletier,
le langage serait programmé dans la cognition humaine, il ne résulterait pas de l’existence de
conventions ou d’interactions linguistiques ou sociales, et il aurait un fondement biologique (i. e.
génétique). La grammaire universelle serait donc celle d’un “homme neuronal”. Il me semble que
cette vision a tendance à gommer l’ontogenèse au profit de la phylogenèse : dire que c’est le
Langage qui parle, comme le font les chomskyens et certains frégéens, et non le sujet de
l’énonciation, me semble quelque peu réductionniste, et supprimer la part intrinsèquement
individuelle que chaque locuteur prend dans son énoncé, y compris la notion auctoriale de
responsabilité énonciative. Cela rentre en contradiction avec la prise de parole des chercheurs
(dont font partie Chomsky et Pelletier), en leur nom propre et non au nom du Langage (après
tout, on parle bien de théorie linguistique ‘chomskyenne’). L’esprit et le cerveau, rejoints dans la
grammaire générative -qui permet de générer des énoncés syntaxiquement corrects- ne laisse
aucune place à la notion d’idiolecte, ou de détournement volontaire de la norme langagière,
propre à l’écriture littéraire ou à celle des “malades mentaux”. Toutefois, je pense pour autant
qu’il n’est pas envisageable de remettre en question le rapprochement entre esprit et cerveau, ce
rapprochement s’exprimant par des inférences logiques, ou des projections ou simulations qui
conduisent à la mise en place d’une théorie de l’esprit, d’une interprétation du contexte ou des
intentions du locuteur.
Pour Pelletier, Chomsky serait un cognitiviste, mais selon un modèle internaliste, sans référence
directe au monde externe, à l’environnement physique et social (ce qui est l’approche de la
sémantique référentielle, celle de Frege, Burge, Putnam ou Davidson). Pour Chomsky, la
référence serait liée à l’intentionnalité, aux intentions du locuteur, et il ne pense pas que celles-ci
puissent se prêter à un traitement scientifique ni donner lieu à une théorie. C’est faire peu de cas
des théories computo-représentationnelles de Fodor ou de Jacob, ou des sémantiques
d’inspiration cognitive de Lakoff, Langacker, Talmy, Fauconnier ou Petitot.
La théorie de la projection métaphorique de Lakoff fournit une explication au dédoublement des
pronoms personnels de 1re personne (dans des énoncés tels que Je ne suis pas moi-même
aujourd’hui ; Si j’étais vous, je me détesterais), de même que la théorie des espaces mentaux de
Fauconnier permet de comprendre comment une des entités constitutives d’une personne peut
être mentalement “projetée” sur l’une des entités constitutives d’une autre personne. Pour une
description appliquée de la métaphore conceptuelle de Lakoff et des espaces mentaux de
Fauconnier, on se reportera utilement à mon livre, Le Français pour les professeurs des écoles,
aspects théoriques et pratiques, Vuibert, 2005, pp. 130-133.
Croyance, déférence et témoignage”, l’article de Gloria Origgi, est un plaidoyer en faveur de
l’apport des sciences cognitives à l’épistémologie sociale. Ainsi, la déférence épistémique et la
déférence mantique sont deux phénomènes à la fois cognitifs et sociaux. La déférence
épistémique, c’est-à-dire la croyance acquise sur la base du témoignage d’autrui (Burge, Coady),
n’est pas justifiée. En effet, depuis la théorie pragmatique de la pertinence (Sperber et Wilson,
1995), la communication a une nature inférentielle, permettant d’arriver à une interprétation
fiable du stimulus linguistique et de son contexte de production. Or, le modèle préservatif de la
communication consiste en un simple transfert d’une information inerte d’un locuteur à un
auditeur. La déférence sémantique, étudiée par Putnam en 1975 avec la ‘division du travail
linguistique’, et qui correspond à l’expertise lexicale, devrait être distinguée selon que celle-ci est
tacite ou mentalement représentée, qu’elle est métalinguistique ou référentielle (i. e. complète du
point de vue scientifique). Selon Putnam (The meaning of meaning), nous sommes en relation
avec le contenu de certains des termes de notre langue non pas individuellement mais par
l’intermédiaire de la distribution des connaissances dans notre communauté linguistique. C’est le
cas des termes de spécialité, ou “d’espèce naturelle” comme dit Putnam, comme le molybdène,
par exemple, que tout locuteur comprend même sans être expert. L’expertise n’est pas “dans la
tête” de l’individu, mais dépend de facteurs externes. La déférence sémantique est soit une
déférence tacite aux experts, soit une déférence sémantique comme “cooptation de contenu”,
c’est-à-dire inscription de ce contenu dans un contexte particulier, contenu qui est matière à
renégociation en fonction des communautés de référence et de l’évolution des connaissances.
Toutefois, il existe une différence entre les représentations mentales des termes
métalinguistiques, d’une part, comme ‘synecdoque’, et des termes référentiels d’usage spontané,
d’autre part, comme cancer’. Cette difrence tient-elle au fait qu’il existe différents formats
d’inscription de nos croyances et concepts dans notre esprit ? des concepts intuitifs, c’est-à-dire
immédiatement disponibles dans la formation de croyances, utilisables dans des inférences
spontanées, et des concepts réflexifs, sans maîtrise intuitive ni usage spontané, comme le
proposent Recanati (1997), Sperber (1974, 1997) et Engel (1996).
Pour ma part, je ne pense pas qu’il s’agisse de concepts, mais plutôt de variation
sociolinguistique, de niveaux de langue recouvrant un même concept : ainsi, le terme ‘crise
cardiaque’ sera intuitivement compris du plus grand nombre alors qu’ ‘infarctus du myocarde’ ou
‘fibrillation ventriculaire’ le sera d’une communauté plus restreinte (les 3 termes recouvrant le
même concept).
Dans Philosophie et neurosciences : le cas de la vision”, Pierre Jacob critique le programme
éliminativiste de Patricia Churchland, qui souhaite remplacer les propriétés mentales par les
propriétés neurophysiologiques du cerveau. Cette approche, radicalement physicaliste ou
matérialiste, qui vise à supprimer l’épistémologie classique des philosophes, est utopique, mais
non pas inutile. Le verbe ‘voiroffre ainsi un bon exemple de remise en cause, en douceur, des
analyses traditionnelles autour des fonctions cognitives telles que le langage, la mémoire, le
raisonnement, les émotions ou la prise de décision. En effet, la tradition rationaliste ou empiriste
de la perception considère que le monde s’offre immédiatement à la vision et que voir ne sert
qu’à savoir. Les neurosciences contribuent à contrarier ces deux thèses. D’abord parce qu’il y a
des difficultés dans la perception visuelle, que le monde ne s’offre pas à nous directement et
complètement, et ce pour au moins quatre raisons :
- les objets contenus dans une scène ne sont jamais tous visibles simultanément ni en entier, sous
toutes leurs faces ;
- il y a sur la rétine de l’oeil une région nommée ‘le point aveugle’, qui correspond à la jonction
entre la rétine et le nerf optique, et qui est dénuée de photorécepteurs. Selon les auteurs,
neuropsychologues ou philosophes, le cortex visuel “complète” l’information non relayée par le
point aveugle, ou le cortex visuel ignore ou néglige l’absence d’information en provenance de
cette région ;
- le système visuel humain ne perçoit pas les changements de couleurs ou de formes s’ils
coïncident avec une saccade de l’oeil ;
- le cortex visuel perçoit de nombreuses illusions.
Ensuite, voir ne conduit pas toujours à savoir. On peut voir un carré rouge sans savoir qu’il s’agit
d’un carré. Cette perception est alors non épistémique. De plus, le traitement visuel ne donne pas
toujours lieu à une conscience perceptive des objets, qu’il y ait déficit neuropsychologique ou
non.
Enfin, la vision engendre l’action, grâce à la préhension par exemple.
Un des courants les plus actifs de la philosophie cognitive s'inspire du naturalisme, en vertu
duquel la philosophie doit adapter ses concepts à l'état contemporain du savoir, et renoncer aux
formes de légitimation qui seraient incompatibles avec celles qui sont mises en œuvre dans les
sciences de la nature. On trouve dans ce recueil des preuves tangibles de la fécondité de cette
approche.
Sylvie Ferrando, mai 2007
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !