Boris Saulnier – Avril 2003.
Compte-rendu de « Les limites de la connaissance »
(H. Zwirn, Odile Jacob, 2000)
Le titre du livre de Zwirn vise le cœur de la question épistémologique « que pouvons-
nous connaître ». L’objectif est ambitieux, et le récit précis, détaillé, complet,
clairement structuré, s’appuyant massivement sur les développements les plus
récents de la science contemporaine, et en particulier la physique, se donne
pleinement les moyens de son ambition. L’auteur évoque (p. 350) la possibilité de
voir les théories scientifiques comme algorithmes de compression, et il semble s’être
lui-même soumis à cet impératif de « compression » tant son propos est dense et
hautement structuré. Aussi le risque existe pour qui veut commenter ce texte d’être la
seule source des failles qu’il voudrait y trouver. Néanmoins, nous voudrions ici
essayer de souligner des aspects essentiels du texte, et tirer partie des échanges
entre l’auteur et certains commentateurs (Soler, Delahaye, Gochet et Engel) lors d’un
débat sur le livre (débat à l’IHPST le 27 mai 2003), pour examiner quelles
incertitudes pourraient subsister dans le propos, et comment Zwirn s’en explique.
Zwirn constate que, alors que la fin du 19ème siècle était pleine des promesses d’une
science progressant de façon certaine et assurée vers la connaissance parfaite et
complète de la nature, la fin du 20ème siècle ne peut que constater l’échec de cet
espoir. Pour une bonne part le livre vise à rendre compte de la façon dont ces
espoirs ont été déçus, et à tirer les enseignements inévitables avec lesquels la
philosophie des sciences doit désormais compter. Zwirn rappelle à juste titre
l’assurance des savants de la fin du 19ème siècle1, une conception qu’on qualifie
aujourd’hui de « réalisme scientifique naïf », et qui par bien des aspects reste en
accord avec la conception naturelle de personnes peu averties des développements
de la science du 20ème siècle. On l’aura noté, le discours que Zwirn développe sur la
connaissance est avant tout appuyé sur la science. Dans la première partie du livre, il
considère en détail les espoirs emblématiques de l’empirisme logique et du
programme hilbertien, et montre que ces espoirs ont été déçus.
Déception des espoirs de l’empirisme logique
Plus précisément, l’espoir de l’empirisme logique était de fonder la connaissance sur
des bases certaines. Comme pour les empiristes classiques le postulat de départ est
que le monde extérieur nous est accessible uniquement à travers nos observations
et que ce n’est que par l’expérience que nous pouvons acquérir les informations
nécessaires pour décrire et comprendre la réalité, et il s’agit en plus d’utiliser la
nouvelle logique formelle pour formaliser et analyser le discours scientifique. L’espoir
du modèle « déductif-nomologique » est de construire une science rationnelle
incontestable. Zwirn détaille avec précision comment ces prétentions furent minées,
réduites et finalement abandonnées, en raison du travail critique des membres du
Cercle de Vienne eux-mêmes et de leurs successeurs. Il résume (p.45) les faiblesses
du projet fondationnaliste (l’espoir de se reposer sur des bases certaines) :
1 Voir par exemple l’optimisme débridé de Thomson qui au 19ème siècle a pud ire : « La science physique forme
aujourd’hui, pour l’essentiel, un ensemble parfaitement harmonieux, un ensemble pratiquement achevé », une
affirmation pour le moins risquée puisque à peine antérieure des découvertes de la relativité et de la mécanique
quantique.
2
Il est impossible de faire reposer la science sur l’observation de telle manière
qu’aucun doute n’existe sur ses énoncés de bases (critique des énoncés
observationnels par Neurath, puis Popper et Quine).
La distinction fondamentale des positivistes logiques entre théorie et
observation disparaît, car Popper montre que les prédicats descriptifs sont
dispositionnels. La science est donc le mélange intime d’une partie
observationnelle et d’une partie théorique.
Une hypothèse individuelle n’a pas de contenu empirique. De plus une théorie
peut être confirmée, mais la construction d’une logique inductive pour
formaliser la confirmation est un échec.
Il n’existe pas de critère définitif permettant de caractériser le discours
scientifique et de le distinguer d’autres types de discours.
Il est possible de construire des théories empiriquement équivalentes et
ontologiquement contradictoires.
Les défaites de l’empirisme logique nous enseignent que la connaissance est un
vaste réseau d’énoncés étroitement imbriqués qui ne sont testables que de manière
collective. Toute expérience concerne l’ensemble de ces énoncés, et non l’un en
particulier, et il est impossible suite à une prédiction non vérifiée de remettre en
cause un énoncé particulier parmi tous les autres. Il nous faut également
abandonner l’intuition immédiate de vérité d’une théorie, car la seule adéquation
empirique peut conduire à déclarer simultanément vraies deux théories
contradictoires.
Déception des espoirs du programme hilbertien
Dans les sciences non empiriques comme les mathématiques, la situation n’est pas
plus favorable. Face aux paradoxes, les mathématiciens de la fin du 19ème siècle
sont face à la même nécessité de fixer les conditions d’une connaissance sûre.
L’idée de base avec le programme finitiste de Hilbert est que nous pouvons faire
confiance à notre intuition du fini, et le but est d’enfermer la totalité des
mathématiques dans un système formel finitiste. Les théorèmes de Gödel de 1931,
puis les multiples résultats d’indécidabilité ultérieurs révèlent que cela est impossible.
On sait aujourd’hui que l’indécidabilité n’est pas une affection rare de systèmes
pathologiques. Nous devons admettre que les systèmes formels ne permettent pas
d’atteindre toutes les propositions vraies. Comme le dit Ladrière, cité p.93, « Le
formalisme ne peut recouvrir adéquatement le contenu de l’intuition ».
Certes inférer des limitations des formalismes des limitations identique du discours
empirique formalisé serait abusif, mais ces deux épisodes historiques montrent
clairement pour Zwirn la nécessité d’abandonner la « thèse fondationnaliste
réaliste », qu’il exprime ainsi (p.103) : « Le savoir peut être assis sur des fondations
certaines et être construit de proche en proche, en s’assurant par vérification, à
chaque étape de sa construction, que les théories élaborées sont vraies. L’édifice
total ainsi constitué est une description adéquate de la réalité, non seulement dans
ses manifestations empiriques, mais aussi dans sa structure profonde ». On note à
l’issue de la première partie du livre, intitulée « L’effondrement des fondations », que
c’est moins une limite de la connaissance qui est mise en évidence, plutôt que la
nécessité de renoncer à certains espoirs de la science du début du 20ème siècle. On
peut même dire qu’aussi bien dans le cas de l’empirisme que du programme
hilbertien l’esprit humain a fait preuve d’une étonnante capacité à dépasser ses
limites en rejetant des croyances initiales non justifiées.
3
C’est dans ce sens que va Delahaye, qui remarque que les résultats énoncés par
Zwirn ne permettent pas de conclure à une limite de la connaissance, au moins en
mathématiques, mais peut-être aussi dans le domaine des sciences empiriques.
Pour lui, les résultats de limitation en mathématiques et en logique n’indiquent
clairement pas une limite de la connaissance, et il reproche à Zwirn de suggérer le
contraire. Pour expliquer son point de vue il énumère divers résultats de limitation, en
mathématiques, puis en logique, et veut à chaque fois se poser la question :
« limitation de quoi ? ». Son premier exemple est la découverte de l’irrationalité de
racine de 2. C’est peut-être le premier résultat « négatif » et de limitation. La
limitation n’est pas que nous ne pouvons pas trouver de couple d’entier dont le
rapport au carré fait 2, mais que ce couple n’existe pas. Si limitation il y a elle est
dans les entiers. Le résultat conduit à un enrichissement de la compréhension. Les
entiers n’épuisent pas le continu. A cette occasion on découvre, on crée le continu.
Comment a-t-on pu croire que toute grandeur est rapport de deux entiers ? Puis il
prend comme deuxième exemple la non résolubilité des équations polynomiales de
degré 5 par radicaux (Abel 1824). aussi le résultat paraît simple à posteriori : la
notation par radicaux avec seulement l’addition, la soustraction, la multiplication, la
division et l’extraction de racines ne permet pas d’exprimer certains nombres. Avec
Cantor la compréhension est immédiate : ce type de notation est dénombrable, alors
que le continu ne l’est pas. Il n’y a pas de limitation. Dieu ou un martien seraient
conduits au même résultat. On est « déniaisé » par le résultat, comme on dit au
Québec. De même avec la transcendance de pi et l’impossibilité de la quadrature du
cercle (1882, Riemann), on découvre une limitation des constructions à la règle et au
compas. La croyance naïve doit être révisée, la compréhension est enrichie. Dans
chacun de ces trois premiers exemples on voit très clairement que ce qui est montré
c’est la limite de l’outil de connaissance considéré, comme si on découvrait à un
moment donné qu’on ne peut pas visser un boulon avec un tournevis.
Son quatrième exemple est l’impossibilité de démontrer le postulat des parallèles. Le
résultat est une limitation des preuves en géométrie élémentaire. C’est en réalité un
résultat de consistance relative. Nous pouvons être déçu, de me qu’on peut être
déçu de l’impossibilité du mouvement perpétuel en physique, mais dans chacun de
ces exemples la limite n’est pas celle du sujet connaissant. Puis il considère des
exemples en logique, et commence par l’indécidabilité de Gödel. Aucun système
formel ne peut à la fois contenir un minimum d’arithmétique, de logique, être
consistant, et pour toute formule F démontrer soir F, soit « non F ». On peut ici avoir
l’impression d’une limitation. Mais le résultat est que l’ensemble des vérités
mathématiques, les formules vraies de la structure L n’est pas un ensemble
récursivement énumérable. On retrouve un énoncé comme dans l’exemple 1. Les
vérités mathématiques sont un objet qu’on peut parfaitement définir. Il y a
inadéquation entre les systèmes formels et ce qu’on veut capter par eux. Il s’agit
d’une limite de ce qu’on a pu espérer des systèmes formels.
De même avec le théorème de Church on démontre qu’il n’existe pas d’algorithme
qui puisse décider pour toute formule du calcul des prédicats du premier ordre si
c’est un théorème ou non. encore il y a une inadéquation entre la méthode qu’on
veut mettre en œuvre (ici les algorithmes) et l’objet qu’on vise. On pourrait penser
que le théorème de Church est bien une limitation : un esprit humain ne pourra
jamais énumérer toutes les vérités d’un système formel pour savoir s’il est consistant.
Un esprit infini pourrait savoir si ZF est contradictoire. Mais pour Delahaye la
question n’a pas de sens. Admettons qu’on puisse un jour mener un calcul infini en
temps fini. Alors le théorème de Church indique la nécessité d’utiliser un tel procédé.
4
Si un tel calcul n’est pas possible alors la limitation est valable pour tout être vivant
un temps fini, ce n’est pas une limitation de notre connaissance. Il prend enfin pour
dernier exemple l’indépendance de AC (axiome du choix) et HC (hypothèse du
continu). Pour Delahaye la situation est similaire à ce qui passe avec l’axiome des
parallèles. Ce n’est pas qu’on ne peut pas connaître la vérité de ces axiomes, mais
qu’ils ne sont pas une conséquence des autres axiomes de la théorie. La conclusion
de Gödel est qu’il faut rechercher d’autres axiomes, et ce que les logiciens essayent
avec les travaux sur les axiomes des grands cardinaux. Une conséquence est que la
théorie des ensembles doit être considérée avec prudence et que le réalisme
ensembliste est plus délicat que ce qu’on pouvait penser.
L’argumentation de Delahaye est habile, et le conduit à conclure que certains modes
de représentation, certaines techniques, certaines constructions, ne sont pas
conformes à ce qu’ils laissaient espérer. Il ne s’agit jamais d’une limitation de la
raison humaine. Limites de la mécanique newtonienne, limites des systèmes formels,
limites de l’empirisme : ce ne sont pas des limites de la connaissance, mais de nos
modes de connaissance. D’où la question adressée à Zwirn : pourquoi ne pas avoir
dire clairement que c’est un contre-sens d’interpréter les résultats négatifs en logique
comme une limitation de la connaissance ? Nous devrions plutôt nous émerveiller
des détours créatifs de la raison.
Sur ce point Zwirn est en accord : il se réjouit de savoir que quelque chose est au-
delà de notre connaissance. C’est dans ce sens qu’il a écrit le livre, reprenant
pleinement à son compte la phrase de Jules Renard : « savoir qu’on ne peut
connaître ce qui est en dehors de la connaissance, quelle conquête de l’esprit ». Il
rappelle qu’une partie importante de son livre vise non pas à exposer « les échecs
de la connaissance », mais plutôt des « limites de la connaissance qu’on pouvait à
un certain stade espérer au début du siècle ». Il juge que l’argumentation de
Delahaye, partant d’un résultat admis et clair (racine de 2) glisse « subrepticement »
vers des résultats de nature différente. Avec racine de 2 on reste dans le cadre de
l’arithmétique. Avec Church et Gödel il ne s’agit plus directement des propriétés des
objets de la théorie, mais il s’agit des propriétés du « méta-niveau ». Pour lui la
connaissance peut être pris au sens de « discours sur la théorie » : si la limite est au
méta-niveau, alors on l’espoir de connaître est déçu, il y a bien limite de la
connaissance.
C’est peut-être à propos de la recherche de nouveaux axiomes que le désaccord de
Zwirn et Delahaye est le plus clair. Cette recherche n’est pas satisfaisante pour Zwirn
car c’est une acceptation à priori. Par exemple accepter certains axiomes de grands
cardinaux reviendrait d’une certaine façon à accepter ce qu’on veut prouver. La
consistance reste « à l’extérieur » et dans la mesure la certitude repose sur le
système formel, il s’agit bien en dernier ressort d’une question de conviction.
Delahaye rétorque qu’il il y a des arguments de nature non mathématique qui
permettent d’accepter ou refuser un axiome. On peut à ce sujet se souvenir que
Gödel préconisait pour la recherche d’axiomes d’arriver à se convaincre par d’autres
moyens que ceux de la logique formelle de la validité de nouveau axiomes : on peut
avoir connaissance d’énoncés « hors de Peano » et être convaincus de leur vérité.
Certes, avec les axiomes des grands cardinaux, on perd l’aspect intuitif, mais les
conséquences du nouveau système peuvent être intéressantes, productives. Notons
qu’il y a d’autres théories des ensembles, comme NF, on peut réfuter l’axiome du
choix : l’indépendance de AC est donc bien une limitation de ZF, et pas une limite de
la connaissance.
5
Mais nous devons peut-être malgré tout reconnaître que les résultats gatifs en
logique nous forcent bien à remettre en cause une idée comme celle de Kant, pour
qui l’ignorance en mathématiques est inconcevable : ainsi si en géographie on peut
manquer d’informations, mais il n’y a pas d’hétérogénéité en mathématique, ce qui
signifie que si on peut formuler un problème, on doit pouvoir le résoudre. L’idéal
fondationnel, l’idée que quand on a une classe de problèmes énonçables dans un
certain vocabulaire, la solution de cette classe de problèmes devrait être trouvée
sans aller chercher un nouveau vocabulaire « au dessus », le fait que la
connaissance est une architectonique bien fondée est une idée mise à mal à la fin du
20ème siècle. Il y a donc bien une limite de la structure de la connaissance qu’on
pouvait attendre à un moment donné, mais peut-être pas de la connaissance elle-
même. Ainsi, quelle raison aurait-on de croire que toute connaissance est
algorithmique ? Turing lui-même, dès 1943 est convaincu que la pensée
mathématique est déployable non pas dans un système formel, mais dans une suite
transfinie de systèmes formels. Peut-être devons-nous tenir compte d’une remarque
essentielle de Maddy montre à propos des recherches sur les grands cardinaux : ces
recherches sont fécondes et permettent une vraie recherche axiomatique, une
démarche analogue à la démarche hypothético-déductive des sciences naturelles.
Les résultats négatifs en logique et mathématiques nous apprendraient alors qu’il est
n’est pas correct de considérer que les mathématiques sont autonomes décorrélées
de la réalité. Elles seraient plutôt le résultat d’une interaction entre l’esprit et le
monde (peut-être une position en accord avec la position interactionniste de
Putnam).
Déceptions du réalisme scientifique naïf en physique
Puis Zwirn considère dans la deuxième partie (« Les limites intrinsèques ») le cas de
la physique, qu’il connaît bien. Tout d’abord, nous avons fini par comprendre,
longtemps après Poincaré, que nous ne pouvons plus croire en la toute puissance de
la méthode analytique : pour une grande majorité des systèmes physiques la
prévision est impossible. Certes les équations du chaos déterministe sont connues,
et en théorie la prévision est possible, mais en pratique ce n’est pas le cas, car deux
points aussi proches qu’on voudra finiront par avoir des trajectoires complètement
différentes. Cela constitue une limite pratique infranchissable aussi bien du point de
vue de la mesure que du calcul numérique. Le chaos déterministe montre les limites
de noter capacité de prédiction. Même en connaissant les équations qui régissent le
mouvement des planètes, nous ne pouvons savoir si la terre changera un jour
d’orbite, même si à court terme nous réussissons à avoir une connaissance de ce
système que nous jugeons correcte. Après avoir réussi à se persuader qu’il existe
des lois de la nature, l’homme réalise qu’un système déterministe peut être non
prévisible.
Zwirn examine avec précision le contre-argument possible consistant à dire que la
prévision reste possible si on se donne l’échelle de temps de la prévision, ce qui
permet de fixer le degré de précision requis pour la donnée des conditions initiales.
Au-delà de l’impossibilité pratique pour certains systèmes de connaître les conditions
initiales (par exemple l’état de toutes les molécules d’air pour le système
atmosphérique), il retient une impossibilité de principe due à la nécessité pour une
grande précision de se placer dans le cadre de la mécanique quantique, cadre dans
lequel le principe d’incertitude de Heinsenberg fixe effectivement des limites de
principe à la précision qu’on peut atteindre sur l’état initial. Il porte alors son attention
sur la mécanique quantique au sujet de laquelle on peut admettre comme Redhead
1 / 13 100%