Frédéric Mathieu
Philosophie
des
Sciences
Annuaire
Montpellier 2015. Tous droits réservés.
2
(S)avant-propos
Fiches de lecture revisitant de manière synthétique les principales
contributions
aux
grandes
questions
de
la
philosophie
(/sociologie/ethnologie) des sciences et de l’épistémologie, classées par ordre
alphabétique d’auteur.
Il va sans dire que cet « annuaire » n’a pas la prétention de dresser un
catalogue complet de la production intellectuelle autour et sur les sciences
depuis les lumières grecques. Toute tentative hasardée en cette direction ne
peut être que partielle et sélective ; disons-le : partisane. La nôtre n’y fait
pas exception. Écrire c’est renoncer (Alain) ; c’est faire des omissions et
œuvre de modestie. Les auteurs rencontrés s’inscrivent de fait dans des
contextes différents et des courants qui ne le sont pas moins. C’est tout au
plus si l’on peut s’épargner de négliger les plus illustres… et ne pas
défigurer les autres. Ne sont évoqués en conséquence que les œuvres et les
notions ayant fait date dans le domaine de la philosophie, sociologie ou
anthropologie des sciences, de la logique ou de l’épistémologie. Leur sont
adjoints quelques jalons majeurs de l’histoire des sciences, justiciables des
inflexions imposées à celle-ci.
Il va de soi que le classement alphabétique retenu ne permet pas de
faire ressortir avec toute la finesse que l’on pourrait souhaiter les liens, les
influences et les ruptures entre ce qu’il y a lieu d’appeler des interlocuteurs
– tant il est vrai que la pensée est avant tout dialogue (serait-ce un dialogue
de sourds) et que la réflexion ne s’alimente pas de vide. L’atout du genre est
aussi sa limite. C’est là pourquoi nous invitons notre lecteur à lire en cet
« annuaire » – base de travail toujours améliorable – le complément
pédagogique à une introduction systématique et raisonnée à la philosophie
des sciences. Gageons qu’il en existe de qualité.
3
4
Sommaire
Introduction ......................................................................................................7
Abécédaire .........................................................................................................9
Bibliographie .................................................................................................283
Index des auteurs ..........................................................................................297
Table des points.............................................................................................301
Du même auteur ...........................................................................................303
5
6
Introduction
La première occurrence du terme « science » dans la littérature
française est attestée dans La Chanson de Roland, datée de 1080. « Puis sunt
muntez e unt grant science », relate le barde Turold, l’auteur
pseudépigraphe, « ils montent en selle et manœuvrent savamment ». Le
héros éponyme répugne à sonner de l’olifant pour avertir son roi, et
s’apprête à livrer sa plus épique bataille. Les Sarrasins commandés par
Marsile submergent l’arrière-garde. Ils y laisseront leurs plumes ; Roland
paiera le prix du sang. La « science » – devenue technè, habileté
professionnelle – a pour sa part perdu le sens de « savoir théorique »
véhiculée par le latin scientia, équivalent de l’épistémè grec. Elle ne le
retrouverait que trois siècles plus tard.
Il n’est plus aujourd’hui possible de confondre science et conscience,
science et technique, quand la première se veut synonyme de
« connaissance », grevée de l’imaginaire et des valeurs qu’elle dénote
aussitôt (car nous sommes « éduqués » à n’en jamais douter) : rigueur,
méthode, exactitude, sincérité, recul et objectivité. Ce panorama laisse en
jachère un large territoire de la science « en train de se faire », et méconnaît
(refoule ?) complaisamment d’autres facteurs et composantes de son histoire
réelle. Parmi ceux-ci, et non des moindres : le rôle de la magie, de la pensée
médiévale, des philosophes arabes, de l’Inquisition, de la superstition ;
traditions sulfureuses injustement bannies du discours légitime sous le
chiffre du Nouveau Régime, prônant la « raison triomphante » au flambeau
des Lumières. Après le « miracle grec » (Renan), celui de la « modernité ».
Devons-nous croire à la vertu des scientifiques comme le séminariste
candide à la virginité de Marie ? Ce serait oublier que la science est une
chose trop humaine pour être laissée à des Saints. Cette « chrestomathie »
sans prétention sera l’occasion de faire œuvre de révisionnisme scientifique
– de « rétablisme », à supposer qu’il ne soit pas déjà trop tard pour demeurer
politiquement correct. Et de rendre toute sa place à l’heuristique du doute, à
l’invention, à la spéculation, aux découvertes par sérindipité, aux querelles
7
scientifiques ; en bref, aux dimensions sociologiques, philosophiques,
religieuses, politiques d’un art trop souvent caricaturé, en proie à toutes les
formes de reconstruction.
8
Abécédaire
Alhazen (965- 1039)
Principales contributions :
- Discours sur la lumière (= Traité d’optique) (1021)
Concepts et idées-forces :
- Ibn al-Haytham, dit Alhazen, ingénieur, astronome, médecin,
physiologiste, mathématicien, spécialisé dans les travaux d’optique.
Promoteur de la méthode expérimentale dont il expose les lignes de force, il
fut aussi l’un des premiers à associer les mathématiques à la physique. Le
nombre de ses traités oscille entre 80 et 200. Bradley Steffens veut
reconnaître en lui le premier véritable scientifique (cf. Ibn al Haytham. The
First Scientist, 2006).
- Dans le domaine de l’optique géométrique et physiologique, il s’intéresse
au phénomène de la lumière. Celle-ci est renvoyée dans l’œil par les objets,
non pas émise de l’œil pour embrasser les choses comme l’enseignait
l’optique de Ptolémée. Ou bien la nuit ne ferait pas obstacle à la vision. Six
ans furent nécessaires (1015-1021) pour accoucher de son œuvre majeure
(ou l’une des rare qui lui ait survécu), le Discours sur la lumière.
Démonstration y est faite de la théorie aristotélicienne dite de
l’ « intromission ».
- Roger Bacon et Vitellion (De perspectiva) auront été les principaux relais
de sa doctrine en Occident chrétien. Lui en savent gré de nombreux auteurs
de la Renaissance et artisans de la révolution scientifique, dont Johannes
Kepler.
Aristote (384-322 av. J.-C.)
Principales contributions :
- Organon : Catégories ; De l’interprétation ; Premiers Analytiques ;
Seconds Analytiques (= Topiques) ; Réfutations sophistiques
9
- Ouvrages de physique : Physique ; De l’âme ; De la génération et de la
corruption ; Sur l’Univers ; Traité du Ciel ; Météorologiques ; Parties des
animaux
- Métaphysique (Livres A-Z)
Concepts et idées-forces :
- Recherche des principes, des causes premières, de la loi non-manifeste qui
rend raison du manifeste. Ainsi sauve-t-on les phénomènes, selon le mot
Métaphysique, Alpha, 8. Dans le contexte de l’astronomie : en découvrant
les rapports rationnels, les régularités et les lois invisibles qui administrent
le monde supra-lunaire. En dépassant le désordre apparent des phénomènes
célestes. La connaissance doit s’attacher à mettre en évidence une
rationalité que manifestent les mouvements du ciel, l’intelligible du
sensible, présent dans le sensible.
- Méthode analytique. Procède par décomposition en éléments des
phénomènes qui sont toujours déjà complexes, entremêlés. La définition se
présente ainsi comme l’analyse du nom.
- Dialectique aristotélicienne. Entreprend l’examen systématique des
opinions de ses prédécésseurs, les endoxa. Classification de celle des
physiologoï au prorata du nombre de principes (archaï) qu’ils posent au
fondement de la nature.
- Critique des thèses éléatiques. Dire que l’être est un, c’est oublier que
l’être se dit en plusieurs sens. Réfutation de Parménide : la substance se
distingue toujours de l’accident. Réfutation de Mélissos : pluralité des êtres.
Critique d’Anaxagore qui pose l’infinité des principes. Aristote relève que
les anciens prennent tous pour principe les contraires, sans justifier
pourquoi, et s’interdisent de n’avoir recours qu’à un principe fondamental
ou à un principe de synthèse.
- Relève de la physique : tout ce qui se meut, tout ce qui est multiple.
L’unité et l’immobilité sont du domaine de la métaphysique (catégorie
posthume à l’auteur). La nature agit en vue de fins et non par hasard :
finalisme vs. mécanisme. Inspiré par Platon, qui luttait notamment contre
l’atomisme de Démocrite. Le physicien doit connaître la forme et la
quiddité, et plus encore la nature des êtres qui est leur fin et leur cause
finale ; toutefois la manière d’être et son essence sont l’apanage de la
philosophie première.
10
- Théorie de la génération. Génération simple vs. génération complexe.
Présuppose, au-delà d’un sujet, le caractère composite de l’engendré. En
toute chose, trois principes : la matière, la forme et son contraire, la
privation = hylémorphisme. Résolution de l’aporie des Anciens grâce à la
distinction entre principes essentiels et principes accidentels de la
génération. C’est à partir de la privation qui est non-être par accident que
survient la génération – non pas de l’être du non-être absolu. Notion de
puissance, d’acte, d’entéléchie (épanouissement).
- Éternité de la matière, inengendrée (donc pas de création ex nihilo comme
dans le Prologue de l’Évangile de Jean). Matière peut être synonyme de
nature, mais le terme de nature peut aussi désigner la forme au sein des
êtres qui possèdent en eux-mêmes un principe de mouvement. L’être
naturel tend à la forme qui est sa fin, l’accomplissement de son mouvement
propre.
- Théorie des quatre causes. Se distribuent entre (1) cause matérielle (= ce
dont la chose est faite), (2) cause formelle (= sa forme ou son modèle), (3)
cause effective, efficiente ou motrice (= l’agent de sa transformation) et (4)
cause finale (= sa fin, son essence, son telos). Les causes peuvent être
proprement dites ou accidentelles, en acte ou en puissance, simultanées
pour les premières et différées pour les secondes.
- Tout a une cause ; mais certaines causes le sont par accident, sans but
déterminé. Ainsi du hasard et de la fortune (qui est une forme de hasard).
- Priorité donnée à l’étude du mouvement. Identité de l’action et de la
passion qui diffèrent par la définition.
- Le temps et le mouvement sont des infinis. Mais l’infini n’existe pas en
acte. Distinction entre l’infini par division, l’infini par accroissement,
l’infini dans le nombre, l’infini dans le lieu et l’infini comme cause. Le
temps n’est pas le mouvement, mais il n’est pas sans le mouvement.
Inversement, le mouvement ne saurait être sans le temps. Le repos est dans
le temps mais pas les êtres éternels.
- Le mouvement est en direction du lieu. Théorie des éléments et des lieux
naturels. Typologie des mouvements.
- Démonstration du premier moteur non mû. Acte pur qui se connaît soimême. Mouvement perpétuel, surunité, lié à l’éternité du mouvement dans
la nature (elle-même éternelle). Ce qui sera réfuté avec Carnot et le
11
deuxième principe de thermodynamique (quoique l’univers soit bien un tel
système).
- « La nature a horreur du vide ». C’est ce qui ressort de l’examen des
doctrines des partisans du vide et de celle des pythagoriciens. Ou bien le
vide ne permettrait pas d’expliquer le mouvement.
- En découle la théorie de l’antipéristase. Critique l’argument de la
condensation faisant valoir l’impossibilité du mouvement. Question
tranchée avec l’expérience de Torricelli et celle du Puy-de-Dôme mise en
place par Pascal.
 Point sur les Archaï (principes)
Beaucoup parmi les philosophes pré-socratiques et même encore
contemporains de Platon ont engagé une réflexion en direction de la
recherche des principes (archaï) à l’origine de la nature (phusis). Il peut
s’agir d’un élément (matériel) ou d’un concept, d’un état de concentration
de l’être ou d’une tension fondamentale. Le tableau suivant fait le point sur
la distribution de ces traditions en fonction de leur figure de proue :
Thalès de Milet (624-560 avant J.-C.)
Anaximandre (610-545 avant J.-C.)
Anaximène (570-500 avant J.-C.)
Pythagore de Samos (569-500 avant J.-C.)
Héraclite (Éphèse, 535-475 avant J.-C.)
Parménide d’Elée (520-450 avant J.-C.)
Empédocle (492-440 avant J.-C.)
Platon (427-347 avant J.-C.)
L’eau
L’ápeiron (l’« illimité »)
L’air
Le nombre
Le feu
l’Être
Le feu, l’air, la terre et l’eau
Le Bien (Idée)
Gaston Bachelard (1884-1962)
Principales contributions :
- « Noumène et microphysique » (1931) dans Études (1970)
- Psychanalyse du feu (1937)
- La Formation de l'esprit scientifique (1938)
- Le rationalisme appliqué (1949)
- La poétique de la rêverie (1960)
12
Concepts et idées-forces :
- Pionnier de l’épistémologie historique (selon le mot de D. Lecourt).
Démarche reprise et poursuivie par Alexandre Koyré et George
Canguilhem.
- Récuse le régime de la bifurcation mise en place par Victor Cousin
ministre de l’Instruction Publique sous le régime de la Monarchie de juillet.
Toujours en vigueur avec les filières scientifiques et littéraires (et
économiques), les baccalauréats spécialisés. Nécessité pour la philosophie de
se mettre « à l’école du savant », et inversement.
- La philosophie est interne aux sciences ; c’est la « science qui crée de la
philosophie ». Juste retour des choses, si l’on convient de ce que la
philosophie fut la matrice des sciences. Dialectique science/sagesse.
- Remise en cause des catégories de la métaphysique (sujet-objet, abstraitconcret, esprit-matière, etc.) par la micro-physique (1900 : invention des
quanta) et par la théorie de la relativité (restreinte : 1905, général : 1915 ;
vérifiée en 1919).
- Fait un sort à la conception kantienne de la séparation entre noumène et
phénomène qu’il investit d’un sens nouveau. Cette revisitation sous les
auspices de l’anthropotechnie lui fait prôner l’usage régulateur de celui-là
en vue de la production de celui-ci. Prône un usage réglé du noumène
comme norme du phénomène, propice à indiquer les axes de
l’expérimentation : « Entre le phénomène scientifique et le noumène
scientifique, il ne s'agit donc plus d'une dialectique lointaine et oisive, mais
d'un mouvement alternatif qui, après quelques rectifications des projets,
tend toujours à une réalisation effective du noumène » (Le Nouvel esprit
scientifique, introduction).
- Implique que le noumène ne soit plus la chose (considérée comme) en soi,
inaccessible à l’intuition sensible et aux catégories de l’entendement,
qu’avait défini Kant. Il est la « contexture » de la réalité. Le monde
nouménal est celui de la relation réelle, le seul doté de sa consistance propre
; celui des phénomènes ne peut être que son dérivé, il est « dissous » dans ce
monde inconnu que révèle la micro-physique. Un monde où la matière
n’est plus distincte de l’énergie, où cessent de s’appliquer les principes de
localité ou de non-contradiction, où la substance le cède à l’événement.
Monde « inimaginable », inaccessible à l’intuition ; si bien que « c'est l'effort
13
mathématique qui forme l'axe de la découverte, c'est l'expression
mathématique qui, seule, permet de penser le phénomène » (Le Nouvel
Esprit scientifique).
- Phénoménotechnique. « La véritable phénoménologie scientifique est
donc bien essentiellement une phénoménotechnique » ( Le Nouvel esprit
scientifique, introduction). Rend compte d’une nouvelle forme
d’expérimentation, contemporaine de l’émergence de la « big science »
(prolongé aujourd’hui avec l’usage des « big data »). Les phénomènes sont
désormais produits par des dispositifs qui sont eux-mêmes des « théories
matérialisées ». Ex. contemporain : le LHC du CERN qui permit récemment
de confirmer l’existence du boson de Higgs, prévu par le modèle standard.
Comme si la théorie (l’outil intellectuel et expérimental) anticipait ses
résultats.
- Psychanalyse de la connaissance objective. La science véhicule des images
trompeuses, un imaginaire archaïque (cf. C.G. Jung) que seule une «
psychanalyse de la pensée scientifique » peut débusquer. Analogies naïves,
trompeuses et adirantes plutôt que résolutives. Exemple de l’éponge,
métaphore employée ad libitum dans la littérature scientifique : identifié
par Réaumur à l’air qui se comprime, puis à la terre en tant que le réceptacle
des quatre éléments, au sang, etc.
- De même que la psychanalyse en général libère l’individu du poids de son
passé déterministe, la psychanalyse de la connaissance objective émancipe
la raison des images poétiques qui la hantent et l’empêchent d’avancer.
Inconscient scientifique ou épistémologique (« antichambre de la raison »)
également lié à des représentations sexualisées (résurgence freudienne) : «
Toute science objective naissante passe par la phase sexualiste » (La
Formation de l'esprit scientifique). Ex : réaction chimique entre deux corps,
l’un dit « actif », l’autre « passif » ; frottement des pierres à feu, etc.
- Obstacle épistémologique : « C’est en termes d’obstacles qu’il faut poser le
problème de la connaissance scientifique » (ibid). La science progresse en
surmontant ses illusions : « L’esprit scientifique se constitue sur un
ensemble d’erreurs rectifiées. Une conviction acquise au gré de son
expérience dans l’enseignement. Le rôle du professeur : « renverser les
obstacles déjà amoncelés par la vie quotidienne » (ibid).
- L’esprit vient à la science transi de préjugés, c’est-à-dire déjà vieux de
truismes longuement sédimentés. Il rajeunit en étendant ses connaissances ;
14
et il étend ses connaissances en neutralisant les opinions fausses.
Rémanence de l’elengkos socratique. Conception du développement des
sciences à rebours du positivisme, moins accumulation de connaissances
(e.g. la métaphore inaugurée par Bernard de Chartres des nains juchés sur
les épaules de géants) que départition d’idées reçues incessamment
reconduites.
- Pas de théorie vraie dans l’absolu, de proposition apodictique. Les théories
sont des approximations provisoires ; la scientificité se définit seulement par
une méthode de déprise des illusions. Métaphore du sculpteur dégrossissant
un bloc de marbre.
- Rupture entre l’observation, la perception ordinaire d’une part et, d’autre
part, l’expérimentation et l’abstraction définitoire du savoir scientifique. La
science ne provient pas du raffinement de l’intuition sensible. L’expérience
commune doit être rectifiée par l’abstraction des concepts. La connaissance,
en outre, ne peut être qu’« approchée », incessamment remise en cause.
- Esprit scientifique caractérisé par l’ouverture de problèmes, la
thématisation : « Toute connaissance est une réponse à une question. S’il n’y
a eu de questions, il ne peut y avoir de connaissance scientifique. Rien ne va
de soi. Rien n’est donné. Tout est construit » (ibid). L’étonnement à l’origine
de la science comme de la philosophie (cf. le thomazdein chez Aristote).
- Théorie poétique des quatre éléments. La science, de nature progressiste
tend vers l’avenir ; l’imaginaire, vers le passé des origines ( Psychanalyse du
feu). Il faut tenir les deux aspects : « J’ai compris que les grands livres
méritaient une double lecture, qu’il fallait les lire tour à tour avec un esprit
clair et une imagination sensible » (« La poésie des éléments matériels »,
France Culture, causerie du 20 décembre 1952)
- La poétique (l’anima) complémentaire de la science (l’animus), selon les
catégories de Carl G. Jung. Tels sont les deux versants de l’esprit humain (La
poétique de la rêverie). Bachelard, lors d’une conférence donnée le 25 mars
en 1950, présente son œuvre comme un tout nycthéméral articulant la part
diurne de sa pensée (épistémologie, conscience éveillée) avec sa part
nocturne (imaginaire poétique). Une alternance de polarités opposées,
complémentaires, qui renvoie à la rotation terrestre.
15
Francis Bacon (1951-1626)
Principales contributions :
- Du progrès et de la promotion des savoirs (1605)
- Novum Organum (1620)
Concepts et idées-forces :
- Pose les prolégomènes de la méthode expérimentale. Indique comment
passer de la croyance et de la superstition à la connaissance objective. Ne
plus se contenter de collecter les faits « au petit bonheur », mais provoquer
et contrôler l’expérimentation : « Soumettre la nature à la question ».
- « Soumettre la nature à la question » : devise qui n’est pas sans rapport
avec l’Inquisition qui atteint son acmé à la Renaissance, dans la période qui
voit l’essor de la science moderne. Même inflexion dans le domaine
judiciaire et dans le domaine épistémologique. Avant l'Inquisition, on
accusait ; depuis l'Inquisition, on ne se contente plus de la dénonciation, on
fait œuvre d’enquête, on investigue. C'est l'irruption du régime de la preuve
qui s’étend à tous les domaines de la connaissance, prodrome de profondes
mutations. Régine Pernoud revient sur ce changement d’époque et la
complexité du phénomène dissimulé par la propagande noire des Lumières
progressistes (Pour en finir avec le Moyen Age, 1977). Il s’agissait le plus
souvent, pour l’Église catholique, de démontrer l’innocence de la personne
inculpée. Désamorce le mécanisme du bouc émissaire (cf. René Girard),
tandis que dans les villages protestants, la justice populaire ne s’embarrassait
pas de précaution. De nombreuses personnes n’ont dû d’être sauvées de la
fureur populaire qu’au verdict salutaire de l'autorité inquisitoriale. Elle
poursuivait en revanche les sycophantes qui accusaient à tort. La grande
majorité des peines prononcées étaient des peines de pénitence. La
recherche de preuves pour justifier les dires a pu servir de modèle à la
science en train de se faire. Aitia (qui donne « étiologie » dans le champ
médical) signifie à la fois « cause » et « coupable ». Renversement de
perspective : l'inquisition à l’avant-garde de la modernité ? Voir également
l’apologie de Socrate, procès et démonstration de philosophie.
- Rationalisme à relativiser (de même que pour Galilée, héliophile, pour
Newton, alchimiste, etc.) Sa conception de la science, en réaction contre la
scolastique et les idoles scientifiques, est forgée au creuset de la magie et de
la religion : (1) De la magie opératoire, dite naturelle (vs. la goétie) qui lui
16
communique le sens de la pratique expérimentale. (2) De la religion,
laquelle exalte la domination de l’homme sur la nature (réifié) et le progrès
annonciateur du millénium et du retour du Christ (parousie).
- Logique inductive.
- Équation savoir = pouvoir.
- Interprétation de la nature.
- Combattre les idoles scientifiques. Obstacles épistémologiques avant la
lettre. La science doit être transgressive et ne reconnaître d’autorité que
celle de la raison. Le tribunal des faits.
Roger Bacon (1214-1294)
Principales contributions :
- Opus majus (Œuvre majeure), comprenant le De signis (Traité des signes)
(1267)
- Quaestiones supra libros quatuor Physicorum Aristotelis (1247-1250)
- Communia naturalium (1260)
Concepts et idées-forces :
- Philosophe, alchimiste, théologien anglais. À ne pas confondre avec le
précédent. Son œuvre polymathe lui valait le surnom de Doctor mirabilis («
Docteur admirable »). Admis comme l'un des précurseurs de la méthode
scientifique en vertu du développement qu’il fait des travaux d'Ahlazen.
- Classification des sciences naturelles (scientia naturalis) exposée dans le
Communia naturalium de 1260. L’optique (perspectiva), l'astrologie
(astronomia judiciaria et operativa), la science de la mesure (scientia
ponderum), l'alchimie (alkimia), l'agriculture, la médecine et la science
expérimentale (scientia experimentalis) doivent s’affranchir de l’autorité de
la religion et prendre leur autonomie.
- Trois voies de connaissance : l'autorité, la raison, l’expérience.
- Quatre siècles avant Pascal, disqualification de l’autorité (la tradition, les
maîtres, les livres) dans le cas des sciences de la nature ; seule l’expérience
peut conduire à la certitude scientifique : « L'argument conclut et nous fait
concéder la conclusion, mais il ne certifie pas et il n'éloigne pas le doute au
point que l'âme se repose dans l'intuition de la vérité, car cela n'est possible
que s'il la trouve par la voie de l'expérience » (Opus majus II). La science
17
doit être fondée sur l’observation. Bacon critique pour cette raison de
l’enseignement aristotélicien, en passe d’être récupéré et accordé à la
doctrine chrétienne par saint Thomas d’Aquin, le « docteur angélique »
(1225-1274).
- Primat de l’expérience. Appelée à prendre la relève de la méthode
spéculative : « Aucun discours ne peut donner la certitude, tout repose sur
l'expérience » (« nullus sermo in his potest certificare, totum enim dependet
ab experientia »). Les raisonnements coupés de l’expérience sont inutiles,
sinon nuisibles à l’avancée des sciences. Deux formes d’expérience éligibles
au titre de source de connaissance.
(1) L’expérience scientifique. Suit les préceptes de Robert Grossetête
(1168-1253), père de la méthode expérimentale. Il ne s’agit plus de
recueillir les faits d’observation en ne conservant des phénomènes que ceux
qui corroborent une thèse préétablie ; il faut les convoquer. Il ne s’agit plus
de se contenter d’expériences naturelles et imparfaites à la manière de Pline
ou des raisonnements abstraits, spéculatifs, à la manière du Stagirite.
L’expérience scientifique doit être dirigée, méthodique, encadrée. Les
hypothèses doivent être systématiquement soumises au tribunal des faits,
juge en dernière instance de la viabilité d’une voie d’explication = insistance
sur la vérification expérimentale (Opus majus, VI ; Opus tertium, I). Le
critère ultime est celui d’efficacité. La connaissance acquise,
perpétuellement améliorable, doit être opératoire.
(2) L’expérience religieuse. L’ « expérience » donc, qui est l’alpha et
l’oméga de l’épistémologie de Bacon, ne se limite pas au domaine de la
science. Elle concerne également la religion. C’est dire que « l'expérience
est double (« duplex est experientia ») : l'une passe par les sens extérieurs
[...] et cette expérience est humaine et philosophique, [l'autre consiste en]
illuminations intérieures » (Opus majus, II).
- Deux voies d’accès au savoir scientifique qui se distinguent en première
intention par le foyer de l’illumination : (a) l’extériorité pour l’une, usant
d’instruments adaptés, bénéficiant des « œuvres certificatrices » d’autres
individus nous ayant précédé, explorant par la vue le monde physique et
corporel des phénomènes (astronomiques, optiques, etc.) ; (b) l’intériorité
pour l’autre, de nature mystique, se distribuant entre illuminations
générales par l'intellect agent (Dieu lui-même) et illuminations spéciales,
particulières et personnelles. Voie intuitive ayant pour paradigme une
18
alchimie pratique, opératoire, qui vise à la transformation du monde,
ouvrant « sur les métaux, les couleurs, d'autres choses » parmi lesquelles « le
prolongement de la vie humaine » (Opus tertium I).
- Révélation et certitude scientifique. La certitude scientifique comme
laïcisation de la Révélation. Transposition en sciences d’un thème issu de la
religion, qui trouve un prolongement avec l’idée que la vérité des sciences
est la clé du Salut. C’est l’expérience qui est la pierre de touche de la vérité,
son ordalie appropriée, le lieu de cette seconde forme de révélation (cf.
Jean-Luc Solère, Zenon Kałuża, La Servante et la consolatrice : la
philosophie dans ses rapports avec la théologie au Moyen Âge).
- Le recours nécessaire aux mathématiques : « Toute science requiert les
mathématiques » (« omnis scientia requirit mathematicam ») (Opus majus, t.
III, p. 98). La science selon Bacon présente déjà ses aspects expérimental et
théorique qui seront consacrés à l’apogée de la révolution intellectuelle du
XVIe-XVIIe siècle.
- Foi (religieuse) en le progrès de la technique, mise au service des hommes.
Des sciences, Bacon escompte une efficacité pratique, des applications
bénéfiques à l’humanité. Anticipe un credo de la modernité bourgeoise (ex :
Descartes). Célèbres sont devenues les prophéties du franciscain d’Oxford :
« On peut réaliser pour la navigation des machines sans rameurs, si bien que
les plus grands navires sur les rivières ou sur les mers seront mus par un seul
homme avec une vitesse plus grande que s'ils avaient un nombreux
équipage. On peut également construire des voitures telles que, sans
animaux, elles se déplaceront avec une rapidité incroyable […] On peut
aussi fabriquer des machines volantes telles qu'un homme assis au milieu de
la machine fera tourner un moteur actionnant des ailes artificielles qui
battront l'air comme un oiseau en vol […] On peut aussi réaliser facilement
une machine permettant à un homme d'en attirer à lui un millier d'autres
par la violence et contre leurs volontés, et d'attirer d'autres choses de la
même manière. On peut encore fabriquer des machines pour se déplacer
dans la mer et les cours d'eau, même jusqu'au fond, sans danger […]Et l'on
peut réaliser de telles choses presque sans limites, par exemple des ponts
jetés par-dessus les rivières sans piles ni supports d'aucune sorte, et des
mécanismes et des engins inouïs » (« Lettre sur les prodiges de la nature et
sur la nullité de la magie », vers 1260).
19
William Bateson (1861-1926)
Principales contributions :
- Materials for the Study of Variation Treated with Especial Regards to
Discontinuity in the Origin of Species (1894)
- Mendel's Principles of Heredity (1902)
Concepts et idées-forces :
- Invente le terme de « génétique » à l’occasion de la troisième conférence
internationale de l’hybridation des plantes (Londres, 1906), dédiée à
Mendel, pour baptiser une nouvelle discipline à l’initiative de biologistes et
de praticiens de l’agriculture : « Je propose le terme de génétique ; il indique
suffisamment que nous cherchons à élucider les phénomènes de l’hérédité
et de la variation : en d’autres termes, c’est la physiologie de la descendance
». Deviendra la principale science de la vie au XXe siècle dans ses
déclinaisons allant de la génétique formelle à la génétique du
développement.
- Traduit en anglais les travaux de Mendel.
- Introduit le concept d’épistasie désignant le phénomène d’interaction
entre deux ou plusieurs gènes, et de liaison génétique (genetic linkage).
George Berkeley (1685-1753)
Principales contributions :
- Théorie de la vision (1709)
- Principes de la connaissance humaine (1710)
- Trois dialogues entre Hylas et Philonous (1713)
Concepts et idées-forces :
- Idéalisme empirique ou immatérialisme. Son intérêt aux yeux de l’évêque
de Cloyne : surmonter l’écueil du scepticisme et de la libre pensée
(athéisme).
- « Esse est percipi aut percipere ». N’existent que des idées (passives) et les
esprits (actifs) qui les perçoivent. De ces derniers, nous n’avons que des
notions. Les choses n’existent pas hors de l’esprit qui les perçoit.
20
- Dieu, percevant tout de manière synoptique et intemporelle, résout au
demeurant l’aporie de l’intermittence. La table existe toujours dans son
esprit lorsque je quitte la pièce.
- Les idées sont en Dieu en tant qu’archétype, hors de l’espace et du temps ;
il les connaît sans les pâtir. Elles se présentent à nous en tant qu’ectype,
dans un rapport de succession et sont toujours accompagnées d’une
sensation de plaisir ou de déplaisir (cf. correspondance avec Johnson).
- Récusation de la distinction des qualités. Une idée ne peut ressembler qu’à
une autre idée
- Récusation de la matière, entité superflue.
- Hétérogénéité des champs perceptifs affirmée dans le contexte du
problème de Molyneux. L’aveugle de naissance qui retrouverait la vue ne
pourra associer spontanément l’image d’une sphère (ou les idées visibles
attenantes) à son toucher (idées tangibles). L’association se fait par
expérience.
- Distinction entre les objets premiers des sens et les objets seconds, lesquels
sont « suggérés » par à notre esprit par les objets premiers. Ainsi de la
distance, objet médiat résultant de l’association des idées visibles (des aplats
de couleur tonalisés) aux idées tangibles (sensations corporelles,
musculaires, kinesthésiques).
- Conception instrumentaliste du langage. Sortie du solipsisme grâce au fait
du langage : le langage humain prouve mon semblable ; le langage de Dieu
est celui des idées que Dieu nous communique pour nous permettre de
fonder une morale et de le contempler.
Claude Bernard (1813-1878)
Principales contributions :
- Principes de médecine expérimentale (1847)
- Introduction à la médecine expérimentale (1865)
Concepts et idées-forces :
- Exposition de la méthode expérimentale dans l’essai éponyme. Démarche
hypothético-déductive, résumée sous le sigle « OHERIC » : Observation Hypothèse - Expérience - Résultat - Interprétation - Conclusion ; à quoi il
faudrait ajouter (concernant Claude Bernard) l’étape préliminaire de la
21
position du problème à résoudre, dont l’hypothèse est la réponse possible,
ainsi que le développement de l’hypothèse dont l’expérience éprouve les
conséquences.
- Un intérêt thérapeutique. La connaissance finalisée à la guérison, et non la
clinique à la connaissance « libérale ».
- Érige le déterminisme exposé par Laplace comme une propriété de la
nature en principe méthodologique.
- Le « milieu intérieur » comme champ d’étude de la physiologie.
- L’homéostasie comme recherche d’équilibre spontanée (connaîtra une
prolifique postérité avec la cybernétique d’après-guerre), la fonction du
système nerveux central et des organes dans le procès permanent
d’autorégulation. Ainsi du foie en ce qui concerne le taux de glycémie. Le
diabète n’est pas un phénomène pathologique différent par nature du
phénomène normal, mais une variation quantitative de ce dernier, un excès
de glycémie ; contra Canguilhem pour qui le diabétique change de foie et le
foie change le diabétique.
David Bloor (1942-20XX)
Principales contributions :
- Sociologie de la logique. Les limites de l'épistémologie (Knowledge and
Social Imagery) (1976)
Concepts et idées-forces :
- Ethnologie de laboratoire. Voir notice Bruno Latour.
- Le programme fort (avec Barry Barnes).
- Quatre principes : causalité, impartialité, symétrie, réflexivité.
- Externalisme. Influence des facteurs macro-sociaux dans le procès
d’adoption ou de rejet d’une théorie. Le fait scientifique résulte
principalement de jeux de pouvoir et de facteurs extra-scientifiques.
- Relativisme méthodologique plutôt qu’ontologique.
Émile Boutroux (1845-1921)
Principales contributions :
- La contingence des lois de la nature (1874)
- De l’idée de loi naturelle dans la science et la philosophie (1895)
22
Concepts et idées-forces :
- L’éclatement disciplinaire des sciences disperse la pensée ; la philosophie
doit faire la synopsis et rapporter la connaissance à l'homme. Cf. le thème
de l’appropriation de la vérité chez l’homme antique selon Hadot et
Foucault. La science contemporaine se vit et veut en revanche déconnectée
de la vie pratique.
- La contingence des lois de la nature (thèse de doctorat). S'oppose en cela
au déterminisme de Laplace et de Bernard qui en faisait, sinon un dogme,
un principe méthodologique, une condition de possibilité des sciences.
Henri Broch (1950-20XX)
Principales contributions :
- Au cœur de l'extra-ordinaire (2005)
- Gourous, sorciers et savants (2006)
- L'Art du doute ou Comment s'affranchir du prêt-à-penser (2008)
- Comment déjouer les pièges de l'information ou les Règles d'or de la
zététique (2008)
Concepts et idées-forces :
- Président d'honneur du Cercle zététique français, créateur du laboratoire
de zététique à l'Université de Nice. Dès 1998, fait de la « zététique » une
discipline à part entière, un « art du doute » empruntant sa démarche au
scepticisme philosophique et sa méthode aux protocoles expérimentaux des
sciences modernes pour expliquer de manière rationnelle les phénomènes
présentés comme paranormaux (astrologie, parapsychologie, médecines
alternatives, voyance, miracle, etc.).
- Du grec zētētikós, « cherchant » ou « qui recherche », dérivé du verbe
zêtêin, « chercher », le mot fut employé la première fois dans sa graphie
laïcisée en 1591 dans le traité d’algèbre Isagoge du mathématicien François
Viète. Broch en fait une arme de démystification massive, mais également
l’occasion d’une réflexion plus générale sur les fondements de la croyance,
l’épistémologie et la rigueur scientifique. Comment traduire les faits en
théorie de manière scientifique en évitant (autant que faire se peut) d’y
projeter des interprétations fantasmatiques ? Quelles sont les biais de
23
raisonnement, les failles épistémologiques et expérimentales susceptibles
d’altérer le bon déroulement d’une expérience et sa consignation ? Quelles
sont les conditions de l’impartialité et les principes de l’observation en
sciences ? Autant de questions que la zététique met à l’ordre du jour.
- Le défi zététique international. Lancé en 1987 par Broch sur le modèle du
« One Million Dollar Challenge » américain de James Randi. Il promettait
une récompense de 200 000 euros à qui apporterait la preuve d’un
phénomène paranormal. À entendre par « preuve » la présence d’une action
« physiquement mesurable » ; quel que soit le phénomène « paranormal »
soumis aux tests et aux enquêtes du laboratoire de zététique de l'université
de Nice, il devait être un « phénomène » – c’est-à-dire apparaître. Le
protocole en était débattu et agréé chaque fois aussi bien par l’impétrant
que par ses juges.
- Aucun des candidats n’ayant été à même de convoquer son « art » en
condition de laboratoire, cela en dépit d’un nombre de candidatures
croissant – et même difficilement gérable, ce qui eut raison de l’événement
– le prix fut clos en 2002. Cela ne saurait invalider dans l’absolu la
possibilité de phénomènes paranormaux, mais ne va pas, c’est bien le moins,
dans le sens de leur confirmation. La version anglophone du prix (s’élevant
à un million de dollars) reste en revanche toujours d’actualité, et
l’inscription possible depuis le site de la « James Randi Educational
Fondation » (JREF).
Michael Brooks (1970-20XX)
Principales contributions :
- Free Radicals. The secret anarchy ou Science (2011)
Concepts et idées-forces :
- Prend part à la déconstruction de l’image idéalisée de la pratique
scientifique comme modèle de rigueur et d’objectivité. Derrière les
prédications encomiastiques des manuels scolaires se cachent des
scientifiques intéressés et passionnés, butés, partisans, jusqu’au-boutistes, ne
reculant pour les plus grands devant aucune bassesse pour assouvir leur
« volonté d’avoir raison ». Laquelle pourrait d’ailleurs, selon Pascal Nouvel,
24
constituer la principale de leurs motivations cachées (L’art d’aimer la
science).
- Dans le sillage de Feyerabend, prend à partie l’idée d’une « méthode
scientifique » unique. Les découvreurs entrés dans la légende ne
s’embarrassent pas de protocoles rigides lorsqu’ils s’avèrent des obstacles à la
découverte. Ils sont, sans le savoir, des anarchistes épistémologiques.
- Suit une litanie d’exemple. Loin de procéder de l’induction ou d’une
spéculation réglée, l’inspiration vient à Kary Mullis, consacré prix Nobel de
chimie 1993, grâce à la prise de LSD. C’est dans la Bible que Mickaël
Faraday découvrit les idées directrices qui lui permirent de rendre compte
du phénomène de l’électromagnétisme au XIXe siècle. La déontologie ne fut
jamais au beau fixe. Comme Isaac Newton, il obtint l’adhésion de ses pairs
en falsifiant les résultats de ses calculs pour qu’ils s’adaptent aux données
expérimentales. Pasteur falsifia pour sa part le compte-rendu de ses
observations concernant l’expérience qui devait réfuter la théorie de
génération spontanée.
- Plus prosaïque (mais non moins efficace) est la méthode qui consiste à
discréditer les théories adverses en s’en prenant ad hominem à leurs
auteurs. À abuser de son autorité, de son statut académique ou de ses
relations pour abréger une controverse. William Shockley se fit fort de
partager avec les inventeurs travaillant sous sa direction le prix Nobel de
physique de 1956, décerné pour la découverte du transistor à laquelle il ne
participa en rien. Il s’arrangea pour que son nom fût toujours mentionné
auprès de celui des deux chercheurs. Les « prions » supposément à l’origine
de la maladie de Creutzfeld-Jacob valurent à Stanley Prusiner le prix Nobel
de médecine en 1997. Nul ne sait s’ils existent ; et le terme « découverte »
convient bien mal à ce qui n’a de statut épistémologique que celui d’une
hypothèse. La personnalité de Prusiner alliée à un art consommé du
marketing et à une maîtrise certaine des techniques de relations publiques
ont eu raison de ce menu détail.
- Si donc la science a pu se développer et témoigner de tels progrès dans
l’ordre de la connaissance, ce n’est en rien du fait de sa rigueur, de son
éthique et de son objectivité. La science ne se fait pas toute seule ; elle est
l’œuvre d’individus dotés d’une personnalité, épris de passions,
inexorablement partiaux, rivaux, de mauvaise foi, butés et obstinés – en un
25
seul mot : humains. Le nier serait encore redoubler de malhonnêteté, et ne
rien faire d’autre que confirmer le diagnostic que l’on voudrait rejeter.
 Point sur la fraude scientifique
« C'est au moyen des sciences expérimentales que nous avons été capables
d'apprendre tous ces faits sur le monde naturel, triomphant des ténèbres et
de l'ignorance pour classer les étoiles et estimer leurs masses, compositions,
distances et vitesses ; pour classer les espèces vivantes et déchiffrer leurs
relations génétiques [...] Ces grandes réalisations de la science
expérimentale sont dues à des hommes [qui] n'ont en commun que
quelques points : ils sont honnêtes et ont réellement fait les observations
qu'ils ont enregistrées et ils publient les résultats de leur travail sous une
forme qui permet à d'autres de reproduire leurs expériences ou observations
».
C’est sur ces lignes magistrales que s’ouvre le Berkeley Physics Course,
ouvrage d’autorité ayant longtemps servi de manuel aux étudiants du
premier cycle de la fameuse université, désireux de s’engager dans des
études de physique. La science – si l’on en croit les sérieux professeurs à
l’origine de cette somme (cela reste dans la famille) – serait le fait
d’individus « honnêtes » (que ne le serait-elle pas ?), hautement
recommandables, ayant « réellement fait » les expériences et les
observations qu’ils décriraient « objectivement », en sorte que d’autres
puissent contrôler leurs résultats.
Hagiographies scientifiques
Cette image d’Épinal, doit-on la prendre pour argent comptant ? Une telle
présentation à valeur protreptique doit-elle être reçue telle quelle, aussi
assertorique et unilatérale qu’elle puisse sembler ? Faut-il la nuancer ? De
quelle manière ? Jusqu’à quel point ? Quelle part faire à la vérité, quelle part
à l’eulogie ? Un élément de réponse serait à chercher du côté des critères
pesamment martelés de l’ethos scientifique ainsi mis en avant : authenticité,
objectivité, recours à l’expérience. N’est-il pas vrai que les points de
26
doctrine les plus problématiques et moins vérifiés, quelle que soit la
croyance considérée, sont aussi les plus lourdement administrées ?
Une histoire attentive des découvertes scientifiques disqualifie plutôt
qu’elle ne confirme cet optimisme. Les grandes figures de la science ne sont
pas nécessairement des saints. Aussi n’est-il pas peu paradoxal que de
vouloir indexer la pertinence du savoir scientifique sur la rigueur morale de
ses artisans. « Vous n'avez pas idée des intrigues fomentées dans ce monde
béni qu'est la science. Je le crains, la science n'est pas plus pure que toute
autre activité humaine, bien qu'il devrait en être ainsi. Le mérite seul ne
sert pas à grand-chose ; pour être efficace, il doit s'accompagner de finesse
et de la connaissance du milieu ». L’auteur de ces propos n’est autre que
Thomas H. Huxley, président de la Royal société de Londres et farouche
partisan de l’évolutionnisme darwinien qu’il défendra de tout son saoul –
parfois de toute sa mauvaise foi. Darwin n’aura manqué que d’appliquer sa
théorie de la lutte pour la survie à cet environnement tout aussi exigeant,
hostile et implacable qu’est la scène (jungle ?) scientifique.
Sans doute un bref tour d’horizon de ce hall les célébrités unanimement
saluées sera-t-il plus éloquent encore, et plus à même de nous convaincre de
cette falsification, mieux que tout autre déclaration. Qui sont les
scientifiques fraudeurs ?
Claude Ptolémée (c.90-168)
Qui ne sait pas qu’il fut « le plus grand astronome de l’Antiquité » ? « Le plus
grand », « Almageste » arabisation du grec ancien mégistos : tel fut le titre
que donnèrent à son œuvre les philosophes arabes, gardien de la science et
astronomes hors pairs, sous le haut Moyen Âge ; titre sous lequel nous
connaissons cette synthèse qui est à l’astronomie ce que les Éléments
d’Euclide étaient à la géométrie, appelée à façonner la représentation que se
faisait l’homme de la structure du cosmos durant près de mille cinq cents
ans. Géocentrique, elle peignait une Terre immobile, foyer de la révolution
des astres. Le soleil et des planètes adoptaient autour d’elle une trajectoire
circulaire ; quant aux aberrations, elles étaient compensées par l’hypothèse
des épicycles. Ptolémée délivrait ainsi à la postérité un système cohérent et
27
conforme aux observations, à tout le moins satisfaisant au regard des
préoccupations d’ordre agricole et religieux qui prévalait alors ; une
description qui permettait aussi de faire des prédictions. Nul doute que ces
travaux astronomiques furent des plus influents de la Haute Antiquité
jusqu’au bas Moyen Âge, en passant par l’Empire romain. Ceux-ci feront
autorité jusqu’à ce que Galilée ait confirmé par ses observations
l’héliocentrisme de Copernic, amorçant le déclin de la scolastique.
Tout cela est bien connu. On sait peut-être moins que la plupart de ses
observations ne furent pas effectuées, comme il le prétendait, depuis le delta
du Nil, l’œil attentif, le regard patient plongé dans les étoiles. Le réexamen
systématique des travaux de Ptolémée fut entrepris au XIXe siècle à
l’instigation d’une équipe d’astronomes professionnel. Se livrant à des
calculs rétrospectifs en vue de reproduire la carte céleste de son époque, ils
relevèrent un nombre stupéfiant d’erreurs et d’approximations. Les données
de Ptolémée étaient bien en deçà de ce que l’on pouvait attendre de la
précision de l’astronomie de l’Antiquité. Elles étaient en revanche
parfaitement congruentes avec ce qu’un observateur aurait pu relever au
firmament de l’île de Rhodes, à 5 degrés de latitude au nord d'Alexandrie.
Au nombre des 1 025 étoiles décrites par Ptolémée, aucune ne se situe dans
la région de 5 degrés du ciel comprenant les étoiles uniquement visibles
d’Alexandrie, et non de Rhodes. Quant aux exemples utilisés par Ptolémée
pour les questions d’astronomie sphérique, ils emploient également des
données correspondantes à la latitude de l’île de Rhodes, et non
d’Alexandrie.
Aussi ne serons-nous pas surpris d’apprendre qu’une description du ciel de
Rhodes avait été consignée 300 ans plus tôt. Une description que Ptolémée
avait eu tout le loisir de consulter depuis le plus haut lieu de la culture de
l’époque. « Si l'on ne savait ce qu'il en est, commente Dennis Rawlins,
astronome de l'université de Californie, on pourrait soupçonner Ptolémée
(comme le fit même Théon d'Alexandrie, le plus serein et le plus infatigable
de ses admirateurs au IVe siècle) d'avoir emprunté ses exemples à
Hipparque ». Hipparque de Rhodes (190-120 avant J.-C) était effectivement
à l’origine de l'un des meilleurs catalogues d'étoiles de l'Antiquité. C’est
encore à ce personnage que nous devons l’invention de l’astrolabe, les tables
28
trigonométriques, la découverte de la précession des équinoxes ainsi que la
théorie des épicycles à laquelle Ptolémée recourut largement.
Il en ressort que les données observationnelles consignées par « le roi des
astronomes » pourraient provenir en masse des magasins de la grande
bibliothèque d’Alexandrie, où Ptolémée s’accapara les résultats de son plus
auguste devancier, qu’il fit ensuite passer pour siens.
Galileo Galilei (1564-1642)
Que Galilée ait marqué un pas décisif en direction du nouveau paradigme
de la science moderne, c’est chose que l’on ne se risque pas à contester. Un
leitmotiv de l’astronome était de recourir toujours à l’expérience, et même à
ce qui peut prétendre avant la lettre au titre d’expérimentation, soutenue
par des dispositifs diligemment décrits : « Dans la nature, le mouvement est
peut-être le sujet le plus ancien auquel les philosophes ont consacré de
nombreux et volumineux ouvrages. Cependant, j'ai découvert par l'expérience quelques propriétés dignes d'être connues et qui n'ont jusqu'ici été ni
observées, ni démontrées ». Et les manuels scolaires de se faire l’écho de
cette transformation de la démarche scientifique. Le contrôle expérimental
devient l’ultime instance judicative de la vérité en sciences, la seule épreuve
ou ordalie à même de la fonder. Exeunt Aristote et les Pères de l’Église.
Ceux-ci – c’est bien connu – ne pardonnèrent pas à l’astronome une telle
humiliation, et déployèrent à son encontre toutes les ressources de la
mauvaise foi dont ils étaient capables. Mal leur en prit : le récit arrangé du
procès de Galilée se donne aujourd’hui comme un morceau de bravoure ; et
le martyre de l’inculpé renvoie au courage de l’intelligence en lutte contre
l’obscurantisme et la superstition. Le chercheur de vérité affronte le dogme,
faisant l’épreuve systématique de ses hypothèses.
C’est donc, avant toute chose, cette image d’Épinal d’expérimentateur qu’a
laissé Galilée. Comment comprendre alors qu’aucun de ses confrères
physiciens ne fut en mesure de reproduire nombre de ses résultats, et même
obtinrent des résultats contradictoires au terme des expériences décrites ?
Le doute s’installe. Et n’est pas modéré à la lecture du manuscrit original
29
dont est extraite cette citation, où ne figurait pas la précision « par
l'expérience », si décisive. « Par l'expérience » est l’interpolation originale
d’un traducteur idéologue de Galilée qui, de l’homme et de sa manière de
procéder, avait déjà son idée faite. Dans quelle mesure une telle idée s’avère
conforme à la réalité, c’est ce qu’il importe de réévaluer. Deux expériences
de Galilée ont fait époque : (1) celle du plan incliné, (2) celle de la tour de
Pise. Aucun manuel qui se respecte ne peut l’ignorer. Elles ont valeur de
paradigme, d’exemple de rigueur et semblent résumer l’essence de ce que
fut la révolution des sciences modernes.
(1) Aux antipodes du psittacisme de ses adversaires pétris de certitudes et
d’idées fixes, Galilée tourne son regard en direction de la nature : « Après
Galilée, déclare l’un de ses hagiographes, la preuve ultime d'une théorie
trouva sa vérité dans le monde réel ». Le même auteur se plaît à rappeler
comment il procéda pour vérifier sa loi de la chute des corps au moyen d’un
dispositif de sa propre conception : une planche de bois creusé d’une rigole
permettant à l’expérimentateur de mesurer le temps nécessaire à une bille
de cuivre pour parcourir l’ensemble de la distance. Ces expériences furent «
répétées près de cent fois ». Et chaque fois Galilée obtint des résultats
conformes aux prédictions issues de sa théorie, « sans différences appréciables ».
Et pour cause ! Ce n’était pas la théorie que Galilée entendait rectifier à
l’aune de l’expérience, mais l’expérience à l’aune de la théorie. La déduction
de l’astronome, en déduit l’historien des sciences Bernard Cohen, « montre
seulement avec quelle force il s'était forgé une opinion préalable, car les
conditions grossières de son expérience ne pouvaient lui fournir une loi
exacte. De fait, les écarts étaient si grands que l'un de ses contemporains, le
Père Mersenne, ne put reproduire les résultats décrits par Galilée et alla
jusqu'à douter qu'il eût jamais réalisé cette expérience » (The Birth of the
New Physics, 1960).
(2) Le récit de l’expérience (apocryphe) du lâcher de poids depuis la tour
penchée de Pise participe de la même volonté de marquer la différence
entre la science moderne frayée par Galilée et celle des scolastiques, qui ne
connaissaient, en fait de tour, que celles d’ivoire qui recelaient leurs livres.
30
(Un comble pour les successeurs des péripatéticiens !) Il est toutefois
heureux que Galilée ne l’ait pas tentée. La loi dont elle se veut l’illustration
fait abstraction du frottement de l’air ; effet qui donnait apparemment tort à
Galilée au profit des tenants de l’ancienne physique. Fictive fut également
l’expérience du lâcher de balle depuis la vigie d’un navire fendant les flots,
décrite dans le Dialogue sur les deux grands systèmes du monde. L’auteur
ne s’en cache pas. À Simplicio, voix d’outre-tombe et d’Aristote, qui
s’enquiert auprès de Salviati, son interlocuteur porte-parole de Galilée, s’il a
lui-même réalisé cette expérience, est répondu que « Non, [il] n'y [a]
d'ailleurs aucune nécessité, puisque sans recourir à l'expérience je puis
affirmer qu'il en est ainsi, parce qu'il ne peut en être autrement ». Un
argument bien péremptoire et bien inattendu de la part d’un dadouque de
l’expérimentation.
N’y a-t-il pas contradiction à condamner d’une main la spéculation pure et à
produire de l’autre des expériences imaginaires ? L’expérience de pensée
est-elle un protocole recommandable de mise à l’épreuve des hypothèses ?
Quelle différence d’avec une pétition de principe, dès lors que ses
conclusions sont prédéterminées ?
Une certaine historiographie des sciences a voulu voir en Galilée
expérimentateur qu’il n’était pas. La mise en cause de cette tradition est à
mettre au mérite de philosophes et d’historiens des sciences comme Pierre
Duhem et Alexandre Koyré, qui ont su faire la part entre l’empirisme
effectif du physicien et son idéalisme. Galilée fut théoricien – et
mathématicien – plus qu’expérimentateur. Les analyses iconoclastes de
Feyerabend entendent montrer combien le succès de ses théories est
redevable avant toute chose de ses talents de propagandiste. N’oublions pas
que Galilée était enfin, tout comme Platon, un talentueux littérateur.
Isaac Newton (1642-1727)
Autre artisan majeur de la révolution intellectuelle et expérimentale du
XVIe-XVIIe siècle ; père fondateur de la mécanique classique : Newton. On
sait le physicien (et alchimiste) anglais à l’origine des trois lois éponymes
ainsi que de la théorie de l’attraction universelle qui supprime la
31
dichotomie établie par le Stagirite entre les monde supra- et sublunaire.
Il n’en est pas moins vrai qu’il recourut ad libitum à des facteurs de
correction que la décence (mathématique) commune n’aurait pas tolérée.
Chaque fois que les véritables résultats de ses mesures défiaient ses
prédictions, Newton en présentait une version maquillée. Ce qui dans la
terminologie des sciences, s’exprime en termes francs de « falsification ». «
Changer l’ordre du monde plutôt que ses désirs ».
L’histoire de la rédaction des Principia, son maître-livre paru en 1687, jette
sur Newton une lumière peu avantageuse, à rebours du portrait très sélectif
que brosse de sa personne l’histoire académique. Newton s’étend dans cet
ouvrage sur les méthodes, sur les principes, sur les visées et sur les champs
d’explorations de la science moderne. Il est probable que le contexte de
rivalité qu’il entretenait avec Leibniz a fini par avoir raison de l’honnêteté
intellectuelle du physicien. La progression continentale des Principia se
heurtait à la résistance des tenants de la vision continuiste et dynamique de
la physique selon Leibniz, lequel n’admettait pas qu’une force s’exerçât à
distance. Elle récusait le postulat central de son astronomie mathématique :
la loi de l’attraction. (Einstein donnerait plus tard raison, contre Newton, au
philosophe de Hanovre).
Venir à bout de ces résistances supposait d’étayer les principes de la
nouvelle mécanique par des mesures et des relevés d’observations d’une
précision inaccessible pour les moyens de l’époque. Qu’à cela ne tienne : qui
veut la fin, veut les moyens. Seule la victoire est belle. Newton ne cessa
d’améliorer ses exposés, chaque édition de ses Principia offrant son lot de
corrections manipulées, s’accumulant jusqu’à atteindre dans la dernière
édition de son œuvre un ordre de précision supérieure au millième. Richard
S. Westfall, biographe d’Isaac Newton et historien des sciences spécialiste
du XVIIe siècle, ne fait aucun mystère de ces contrefaçons : « Ayant posé
l'exactitude des corrélations comme critère de la vérité, Newton veilla à
présenter des corrélations exactes, qu'il les eût ou non réellement obtenues.
Ce ne fut pas le moindre pouvoir de persuasion de ses Principia que de
prétendre délibérément à un degré de précision bien supérieur à ce qu'ils
pouvaient légitimement revendiquer. Si les Principia définissaient les
32
critères quantitatifs de la science moderne, ils laissaient également entrevoir
une vérité moins sublime que personne ne peut manipuler un facteur
correctif aussi efficacement que ce génial mathématicien » (The Life of Isaac
Newton, 1993).
Il est un art de la falsification dans lequel Newton était passé expert.
L’ampleur et l’extension de ses « retouches » est, pour leur part, loin d’être
négligeable. Elles concernent aussi bien la détermination de la vitesse du
son que les calculs relatifs au phénomène de précession des équinoxes, en
passant par les observables réfractaires à la théorie de la gravitation. On
peut légitimement se sentir lésé ou – pourquoi pas ? – admiratif devant tant
d’habilité à camoufler les défaillances de ce qui deviendrait très vite
l’ouvrage de référence de la physique moderne.
Plus édifiant encore, le fait que personne de son vivant n’ait su prendre acte
des erreurs de Newton, quand il aurait pour cela suffi de reproduire la
démarche indiquée. Ses données corrompues lui servirent d’arme de guerre
pour emporter la conviction des plus sceptiques. L’envergure de sa fraude
ne serait découverte dans toute son ampleur et ses démonstrations
rigoureusement décortiquées que deux siècles et demi plus tard. Peut-être
n’était-on pas pressé de soulever le voile.
Le pire est à venir (« graviora manent ») ; il ne déçoit jamais. Le comble du
pharisaïsme serait atteint dans le cadre de la controverse qui opposa
Newton à son ennemi de toujours, Leibniz, concernant la paternité du
calcul infinitésimal. Newton se fit fort d’employer tous les recours que lui
offrait son statut de président de la Royal Society pour triompher de cette
querelle et jeter le discrédit sur son rival (« de l’autre rive ») continental. Le
même Newton qui proclamait dans la Préface d'un compte rendu de 1712
au nom de la plus prestigieuse société scientifique d’Angleterre que « [seul
un juge inique et corrompu] autoriserait une personne à témoigner à son
propre procès » plaidait vigoureusement et sans réserve pour l’antériorité de
la découverte de Newton. Le même rapport, rédigé de sa main, faisait peser
sur le penseur de Hanovre le soupçon de plagiat. C’est à Leibniz que la
majorité des historiens rendent aujourd’hui hommage pour avoir découvert
(ou inventé) le premier le calcul différentiel.
33
Une telle affaire ne pouvait échapper longtemps à la critique des
sociologues des sciences. Les partisans de l’externalisme le plus radical, dans
la lignée de Feyerabend, y virent matière à confirmer une idée que le
discours scientifique n’est rien de moins qu’un rapport de force.
Benjamin Franklin (1706-1790)
À l’origine modeste fils de marchand de suif et de chandelles, l’illustre
personnage bénéficie encore à l’heure actuelle d’un renom comparable à
celui des Pilgrim Fathers. Aux yeux du grand public américain, Franklin
n’est pas qu’un homme de lettres et un politicien brillant, c’est un acteur de
premier plan de la science expérimentale, un précurseur qui ne démérite
pas son piédestal au Panthéon des héros nationaux. Dans le grand récit de
l’histoire ou de l’historiographie des sciences, Franklin est aux États-Unis ce
que Marie Curie est en Europe. Reconnaissance qu’il doit essentiellement
en ce domaine à « l’expérience du cerf-volant ». C’est à celle-ci qu’il dût de «
découvrir » le principe du paratonnerre.
Replaçons-nous dans le contexte intellectuel du « siècle des Lumières »,
cruciale à bien des titres. Beaucoup de penseurs de cette époque
s’intéressaient à l’électrostatique, laquelle n’était qu’à ses balbutiements.
C’était une science inchoative, alors pleine de mystère. Un certain nombre
de chercheurs en étaient arrivés par des voies différentes à concevoir la
foudre comme un phénomène apparenté ou analogue aux étincelles
produites en condition de laboratoire. Si tel était effectivement le cas, elle
devrait également se précipiter sur les objets en pointe.
L’histoire officielle rapporte que le 15 juin 1752 éclata un orage dans la ville
de Philadelphia où résidait Franklin. Ce dernier aurait conçu de profiter de
cette météo houleuse pour envoyer un cerf-volant sous un nuage. Le cerfvolant, battu par les vents orageux, aurait été frappé par une lance de feu.
Le flux électrique à haute tension aurait immédiatement couru le long du
câble et provoqué une étincelle dans une clé fixée au sol. Franklin précise
dans son rapport d’observation qu’il faut attendre que la pluie humidifie le
câble afin qu’il conduise l’électricité ; ensuite seulement qu’une étincelle est
34
susceptible de se produire au sol. Rien que de très logique. Apparemment
seulement. On sait effectivement que de telles expériences en
électrostatique sont irréalisables lorsqu’il pleut. L’humidité (l’hygrométrie)
par temps d’orage annule toute chance de voir éclore une étincelle.
Et Benjamin Franklin, que ne l’a-t-il su ? N’était-il pas aux premières loges ?
La réponse vient à point : ce grand savant n’a vraisemblablement jamais
mené cette expérience. Pas plus que Newton n’a vu tomber la pomme pour
en déduire la loi de l’attraction universelle. D’où la question : pourquoi un
tel story-telling ? Pourquoi affabuler ? La principale raison tient à ce que
l’expérience du cerf-volant avait été conduite en France avec succès le 18
mai 1752. Franklin, en annonçant l’avoir lui-même effectuée en juin 1752
(il s’était rétracté : les premiers témoignages faisaient mention d’octobre
1752), antidatait sa « découverte » et devenait ainsi co-inventeur. De Paris
aux États-Unis, les communications ne prenaient pas moins de sept
semaines bien découpées, ce qui avait pour conséquence d’exclure toute
présomption qu’il ait pu être « au jus ».
Ainsi l’histoire devait retenir le nom de Benjamin Franklin comme celui du
génial expérimentateur qu’il n’a jamais été. L’usurpateur, sur ce terrain,
aura tôt fait d’éclipser les Français. Chateaubriand nous avait pourtant
prévenus : « Gardez-vous de l’histoire que l’imposture se charge d’écrire »…
John Dalton (1766-1844)
Pour être moins célèbre, l’œuvre de John Dalton n’en fut pas moins
déterminante. Ce grand scientifique de la première moitié du XIXe siècle
s’est illustré pour avoir démontré expérimentalement l’existence de
plusieurs familles d’atomes. On lui doit également d’avoir formalisé les lois
de la combinaison chimique, dont celle des « proportions multiples » en
vertu de laquelle tous les atomes d’un élément ne peuvent se combiner
qu’avec un nombre entier déterminé d’atomes appartenant à un autre
élément en vue de former un composé chimique. Il en voulu pour preuve
ses travaux sur l’oxyde d’azote, qui mettaient en lumière le fait que la
combinaison de l’azote et l’oxygène ne pouvait avoir lieu que sous les
auspices de certains rapports déterminés.
35
Reste qu’aucun chimiste jusqu’à nos jours ne fut à même de reproduire les
résultats de Dalton. Lui-même chimiste et historien de sa discipline, James
R. Partington en est venu à douter de l’authenticité des résultats produits
par son prédécesseur : « Sur la base de mes propres expériences, je suis
convaincu qu'il est pratiquement impossible de trouver ces proportions
simples en mélangeant de l'oxyde nitrique et de l'eau » (A History of
Chemistry, 1961). Il est probable que ce dernier, si l’on se refuse à le
suspecter de s’être exonéré des expériences dont il invoque l’autorité, s’est
contenté de ne publier que les résultats les plus conformes à l’énoncé de sa
théorie. Le même procédé pourrait valoir quitus au physicien pour
confirmer qu’un dès retombe toujours sur six.
Charles Darwin (1809-1882)
L’auteur de la théorie de l’évolution « au moyen de la sélection naturelle »
doit également répondre d’indélicatesses envers sa discipline et, plus
précisément, envers ceux qui l’ont précédé. Darwin n’a pas laissé de
s’attribuer un mérite qui ne lui revenait pas. Le sien, bien qu’indéniable, ne
lui suffisait pas. « J'aimerais pouvoir attacher moins de prix à cette
renommée de pacotille, confesse Darwin, présente ou posthume, encore que
je ne pense pas y sacrifier de façon excessive » (cité par R. K. Merton dans
The sociology of science : Theoretical and empirical investigations , 1973).
Comme aimait à le déclarer Newton, on ne peut pas être juge et partie…
Samuel Butler, écrivain britannique contemporain de Darwin, ne laissait
pas d’accuser le peu de cas que faisait celui-ci de la contribution de son
grand-père Erasmus ou d’autres figures scientifiques majeures anticipant sur
l’évolutionnisme, dans la lignée de Buffon et de Lamarck (cf. Evolution Old
and New, 1879). C’est à cet épisode que se réfère Francis, fils de l’auteur de
L’Origine des espèces, lorsqu’il témoigne de ce que « Cette affaire causa
beaucoup de chagrin à [son] père, mais la chaleureuse sympathie de ceux
dont il respectait les idées lui permit bientôt de rejeter tout cela dans un
oubli bien mérité ». Encore eût-il fallu que « l’oubli bien mérité » n’ait
concerné que la vanité de Darwin ou l’apport occulté de ses précurseurs ;
l'anthropologue Loren Eiseley l’étend aux recherches d'Edward Blyth. Ce
36
zoologiste britannique autodidacte avait été l’auteur de deux articles,
publiés respectivement en 1835 et 1837. « Évolution », « sélection naturelle
», etc., la plupart des concepts au cœur de l’œuvre Darwin s’y trouvaient
développés dans le sens utilisé par ce dernier.
L’œuvre de réhabilitation d’Eiseley s’appuie autant sur des remarques de
fond que sur des considérations de forme. Soit l’analyse stylométrique, qui
lui permet de mettre à jour des ressemblances frappantes entre les textes des
deux scientifiques. L’hommage ne se distingue du plagiat caractérisé que par
des références absentes de l’œuvre de Darwin. Relevons ici, à la décharge
du naturaliste, qu’il mentionne Blyth dans son Natural History of the
Cranes – mais pour ne lui attribuer qu’un concours théorique superficiel.
Cette référence, au reste, est un hapax, qu’il ne céda pas de son vivant. Le
Natural History of the Cranes paraît sous le régime posthume en 1881.
Gregor Mendel (1822-1884)
Ce serait en cultivant des pois que l'abbé Gregor Mendel aurait mis en relief
des régularités dans le processus de transmission des caractères en
botanique, et ainsi mis au jour les fondements statistiques de ce qui
deviendrait plus tard l’ingénierie (ou génie) génétique (en anglais « genetic
engineering »).
Les données publiées dans ses travaux s’avèrent pourtant, de l’avis des
scientifiques qui lui ont emboîté le pas, trop concordantes pour ne pas avoir
été en partie inventées. « Les données de la plupart des expériences de
Mendel, pour ne pas dire toutes, ont été truquées de manière à s'accorder
étroitement avec ce qu'il espérait trouver », conclut en 1936 le statisticien
Ronald A. Fisher au terme d’un réexamen des travaux de Mendel. Le diable
est dans les détails. Bien trop précis pour être vrais. Bien trop parfaits pour
ne pas mettre la puce à l’oreille. Fisher se veut diplomate en précisant que
Mendel n’était peut-être pas lui-même à l’origine de ces abus. Rien ne
prouve qu’il n’avait pas été, à son insu, « trompé par quelque assistant qui
savait trop bien ce que l'on attendait ».
Le jugement des généticiens exprime moins de complaisance à l’endroit de
37
leur ancêtre fondateur. Un historien de la génétique relativise ainsi l’origine
expérimentale des intuitions de Mendel : « L'impression que l'on retire de
l'article même de Mendel et de l'étude qu'en a faite Fisher est que Mendel
avait déjà sa théorie en tête quand il procéda à ses expériences. Il se pourrait
même qu'il ait déduit ses lois à partir d'une conception particulière sur
l'hérédité à laquelle il serait parvenu avant d'avoir commencé ses travaux
sur les pois ». Que la théorie précède l’expérimentation, dont acte. Une
chose est néanmoins de poser une hypothèse, une autre de n’admettre pour
admissibles que les observations – minoritaires en nombre – à même de la
corroborer. Or c’est bien là que le bât blesse : de ses « expériences », Mendel
n’aurait retenu pour ses publications que celles qui s’accordaient aux
prédictions de la théorie, et tenu l’ensemble des autres pour nulles et non
avenues, quantités négligeables. Il les aurait sciemment exclues.
Le caractère improbe de ces méthodes ne frappe pas nécessairement tout le
monde. L’algébriste hollandais van der Waerden, auteur de la Modern
Algebra (1930), n’y voit pas l’exception que feignent y reconnaître ses
collègues : « Il me semble que beaucoup de scientifiques parfaitement honnêtes furent portés à agir de cette façon. Dès lors que l'on disposait d'un
certain nombre de résultats confirmant clairement une nouvelle théorie, on
les publiait en laissant de côté les cas douteux ». Rien que de très banal. Le
cas de Mendel n’est pas exceptionnel. Que celui qui n’a jamais péché lui
jette la première pierre.
Tandis que les statisticiens, généticiens et autres mathématiciens en sont
encore à qualifier les faits et les méfaits de Mendel, un article daté 1972 de
la revue Peas on Earth, faisant autorité chez les horticulteurs, s’adonne
gaiement au parricide sous le mode satirique : « Au commencement était
Mendel, ruminant ses pensées solitaires. Puis il dit : "Qu'il y ait des pois", et
il y eut des pois, et cela était bon. Puis il mit ces pois dans le jardin et leur
dit : "Croissez et multipliez, différenciez-vous et assortissez-vous
indépendamment." Ainsi firent-ils, et cela était bon. Puis advint que
Mendel rassembla ses pois et les sépara en graines rondes et ridées ; il appela
les rondes dominantes, et les ridées récessives, et cela était bon. Mais
Mendel vi alors qu'il y avait 450 pois ronds et 102 pois ridés. Cela n'était pas
bon. Car la loi stipule qu'il doit y avoir trois ronds pour un ridé. Et Mendel
38
se dit en lui-même : "Gott in Him mel", c'est là l'œuvre d'un ennemi qui
aura semé des mauvais pois dans mon jardin à la faveur de la nuit." Et
Mendel, pris d'un juste courroux, frappa sur la table et dit : "Eloignez-vous
de moi, pois maudits et diaboliques, retournez dans les ténèbres où vous
serez dévorés par les rats et les souris ! "Et il en fut ainsi ; il ne resta plus que
300 pois ronds et 100 pois ridés, et cela était bon. Excellent même. Et
Mendel le publia ».
On aura reconnu la prose de la Genèse. Le parallèle est plus profond qu’il
n’y paraît. Kuhn n’a-t-il pas soutenu le plus sérieusement du monde
l’analogie entre les paradigmes scientifiques et les Saintes Écritures, entre
les théories et les professions de foi ?
Louis Pasteur (1822-1895)
Il y aurait fort à dire quant à la controverse qui défraya longtemps la
chronique scientifique opposant Louis Pasteur, pionnier de la
microbiologie, à Félix Archimède Pouchet. Pouchet s’était rallié, contre les
théories de Pasteur, au camp des partisans de l’hétérogénie, variante
modernisée de la thèse de la génération spontanée. Elle remettait au goût du
jour une ancienne tradition qui prétendait que le vivant pût jaillir de
l’inerte : la grenouille de la boue, la mouche du quartier de viande, etc. Son
principal défaut aux yeux de ses contempteurs n’était pas tant de nature
scientifique que religieuse. Si l’Adam primordial, aux dires de la Genèse,
était bien fait de terre rouge (et sa compagne d’un « os surnuméraire », selon
la formule de Bossuet), la théorie avait la maladresse de faire l’économie
l’intervention de Dieu. Elle évacuait la transcendance, rapportait tout à
l’immanence de la matière. Sur ses sympathisants pesait en conséquence un
lourd soupçon de matérialisme, ergo d’anticatholicisme, ergo de
monarcomachie ; ce que Pasteur ne pouvait tolérer. N’étant rien de cela, il
était donc, naturellement, hostile à l’hétérogénie…
Notons que ce n’est donc pas en première intention à l’aune de la raison et
en toute objectivité que Pasteur (qui portait bien son nom) entreprit de
réfuter cette « dangereuse théorie ». Ce qu’il prétendit faire en enfermant
diverses matières dans des bocaux « pasteurisées » pour observer s’il y avait
39
formation ou non d’animalcules. Pasteur communiqua ses résultats lors d’un
congrès qu’il fit lui-même organiser en grande pompe, où furent conviés ses
homologues venus des quatre coins du globe. Il déclara devant ses pairs
avoir consciencieusement réitéré les expériences alléguées par Pouchet – et
que jamais celles-ci n’avaient donné matière à conforter les thèses de son
contradicteur.
Ce que Pasteur ne disait pas, c’était que dans neuf cas sur dix, il observait
effectivement, à son grand désespoir, la formation d’animalcules germés au
cœur de bottes de foins pourtant dûment aseptisées, et disposées sous
cloche. Ce n’est que bien plus tard qu’on apprendrait qu’il s’agissait
seulement de bacilles résistants aux hautes températures. La faune
versicolore des micro-organismes et des microzoaires demeurerait invisible
jusqu’à la mise au point du microscope. La doctrine de Pouchet s’accordait
aux observations. Pasteur n’en laissa rien savoir. Le scientifique garda le
silence, forme diplomatique de l’embarras. Plutôt que d’exciper une théorie
(celle de Pouchet) d’observations factuelles, il passa outre le désaveu des
faits ; s’arrangea, comme Newton, avec ses résultats pour officialiser des
idées préconçues, et comme celles de Newton, exsangues de justification
épistémologique.
Caution de première main, ses carnets personnels attestent que Pasteur,
bourrelé de scrupules religieux et politiques, avait sciemment scellé la
vérité. Il l’avait morticolisée dans les règles de l’art. Passée sous le boisseau
au motif qu’« elle était trop grave » : « Je ne publiai pas ces expériences ; les
conséquences qu'il fallait en déduire étaient trop graves pour que je n'eusse
pas la crainte de quelque cause d'erreur cachée, malgré le soin que j'avais
mis à les rendre irréprochables » (Mémoire sur les corpuscules organisés qui
existent dans l'atmosphère. Examen de la doctrine des générations
spontanées, 1862). Trop grave pour quoi ? Pour qui ? Quid de la science et
de sa légendaire indépendance ? Quid de la déontologie ? Elle est bien loin,
la rationalité que célébrait Bacon ! Pasteur, rappelons-le, reste, à l’instar de
Benjamin Franklin sous d’autres latitudes, considéré sous nos climats ainsi
qu’un parangon de science. Consolons-nous au moins en nous rappelant
qu’à rebours de Franklin, Pasteur aura eu d’autres intuitions, plus salutaires,
salubres, plus sanitaires pour la médecine…
40
Nous ne croyons plus au XXIe siècle que des muridés puissent germer dans
des serpillières gorgées de sperme. Pasteur, quand bien même ses
expérimentations lui donnaient visiblement tort, avait raison pour ce qui a
trait au fond de la question. Si l’apparente naïveté de la théorie de
l’hétérogénie peut prêter à sourire, il faut toutefois que le sourire soit large.
Il faut nous rappeler que c’est bel et bien de l’inerte, de la chimie du
carbone, que les premiers organismes vivants ont émergé sur Terre. Il y a
bien eu, au moins une fois, sur Terre, passage de l’inerte au vivant. Les
premiers constituants de la première cellule, LUCAS, notre ancêtre
commun – à nous, humains, comme à tout organisme –, auraient pu être
élaboré dans la soupe prébiotique ou au creux des argiles, ou d’une autre
manière à laquelle ne songe pas encore l’archéobiologie. Toutes font valoir
il y a bel et bien eu un événement répondant à l’antique définition de la
génération spontanée. Et on ne voit pas pourquoi ce phénomène ne serait
pas reproductible en condition de laboratoire. La controverse a changé de
visage, mais ne s’est pas éteinte.
Robert Millikan (1868-1953)
Cas plus récent, celui de Robert Millikan, à qui l’on doit d’avoir effectué la
première mesure précise de la charge électrique de l’électron. Du moins estce là l’imputation qui lui valut le prix Nobel de physique en 1923. Mais il y
a loin de la coupe aux lèvres. Il y eu pour cela recourt à l’« expérience de la
goutte d’huile ». Usant d’une valeur erronée de la viscosité de l’air, il fut
toutefois contraint de « rétablir » ses résultats de manière artificielle, en «
bricolant » avec la vérité. Craignant de s’être eux-mêmes trompé, nombre
de physiciens expérimentateurs agirent de même pour retrouver les
résultats de Millikan. Le fin mot de l’affaire ne serait éventé qu’en 1974
avec l’intervention de Richard Feynman au cours d’une de remise de
diplômes à Caltech (California Institute of Technology), mettant fin à un
demi-siècle de complaisance et d’omerta :
« Nous avons beaucoup appris par expérience personnelle sur les
façons par lesquelles on peut s’induire en erreur. Un exemple :
Millikan mesura la charge de l’électron à l’aide d’une expérience faite
41
avec des gouttes d’huile et obtint un chiffre que nous savons
aujourd’hui ne pas être complètement exact. La valeur était un peu
décalée parce qu’il utilisait une valeur incorrecte de viscosité. Il est
édifiant d’examiner les résultats qui ont suivi Millikan. Si on trace les
valeurs obtenues en fonction de la date à laquelle elles ont été
trouvées, on se rend compte que l’expérience suivant celle de
Millikan donne une valeur légèrement supérieure à celle que
Millikan avait trouvé, et que celle qui suit donne une valeur encore
légèrement supérieure, jusqu’à ce qu’on arrive progressivement à une
valeur très supérieure. Mais pourquoi n’ont-il pas trouvé la bonne
valeur dès le début ? Les scientifiques ont honte des dessous de cette
histoire car il semblerait que les choses se soient passées ainsi :
lorsqu’ils obtenaient une valeur bien plus élevée que celle de
Millikan, ils se disaient qu’il devait y avoir une erreur et essayaient
de comprendre ce qui avait pu mal tourner. Et lorsqu’ils trouvaient
une valeur proche de celle de Millikan, ils ne se posaient pas de
questions. Ils ont ainsi éliminé les valeurs trop décalées. Nous
connaissons ces petites combines de nos jours et nous nous savonsnous immuniser contre cela ».
Nous nous voudrons moins dogmatiques quant à cette conclusion.
Actualité de la fraude
Le détail de ces exemples et d’autres de la même eau sont traités dans le
remarquable ouvrage de W. Broad et de N. Wade, La souris truquée.
Enquête sur la fraude scientifique, Paris, Seuil, 1987. Ceux-là suffiront à
notre propos. Le bilan n’est guère fameux. Le récit orthodoxe de l’histoire
des sciences ne retient par nature et par amour-propre que les exploits des
rares individus ayant contribuée de manière décisive à l’avancée des
connaissances. S’il s’agit là de ces mêmes personnages dont on a vu le peu de
scrupules qu’ils avaient à s’approprier les résultats de leurs prédécesseurs, à
contrefaire le compte rendu de leurs expériences (pour autant qu’ils les
aient mises à exécution), on peut se demander jusqu’à quel point leurs pairs
de moindre renommée ont pu verser dans la contrefaçon. Ce qui vaut pour
le passé reste on ne peut plus d’actualité. Si même les plus illustres
42
représentants des sciences s’autorisaient autant de licence intellectuelle,
comment les chercheurs salariés du XXIe siècle ne prendraient-ils pas,
autant que faire se peut, des libertés avec la « vérité » ?
Naïf qui voudrait croire que notre époque avertie de ces cas jurisprudentiels
se soit pourvue de garde-fous suffisamment nombreux pour écarter tout
risque de voir se répéter ces précédents de sinistre mémoire. La fiabilité des
comités de lecture est loin d’être établie, comme l’a malicieusement
prouvée l’affaire Sokal-Bricmont. Les filtres institutionnels ne garantissent
pas contre la fraude. À cela s’ajoutent les conditions de production du savoir
scientifique au XXIe siècle, qui soumettent le chercheur à des impératifs de
rentabilité tout à la fois économiques et bibliométriques (e.g. le fameux
indice H). La renommée ne nourrit pas son homme. L’amour de l’art ne
finance pas le matériel et les infrastructures de recherche. Semblables
préventions n’effleuraient pas les hommes de science d’il y a quelques
siècles. Ils héritaient une tradition qui dissociait résolument les nobles
productions de l’esprit de toute velléité d’enrichissement. La rentabilité a
déposé le prestige.
Autre point à considérer : la science d’avant le XXe siècle se pratiquait dans
le temps de l’otius (« loisir »), comme un art libéral. Art du même ordre que
pouvait l’être la politique ou la dramaturgie dans l’organisation économique
qui était celle de l’ancienne Athènes. En fait d’esclaves, les princes et les
mécènes pourvoyaient aux besoins matériels de leurs protégés, qu’ils soient
artistes ou scientifiques, lesquels leur dédiaient en retour leur découverte.
C’est au duc de Toscane que Galilée fut redevable de pouvoir effectuer ses
expériences. La fortune que Darwin reçut en héritage ne compta pas pour
peu dans le temps de maturation et de réflexion qui lui fut nécessaire pour
accoucher de L’Origine des espèces. Beaucoup de découvreurs et inventeurs
célèbres était des moines soutenus par une communauté : que l’on songe à
Gregor Mendel, à Giordano Bruno ou à… Dom Pérignon (bien que
l’invention du vin mousseux par ce bénédictin relève de la légende plus que
du fait historique).
Les commencements de la « Big science » obligent les scientifiques à se
regrouper autour d’infrastructures dont la maintenance exige des fonds qui
43
mettent celles-ci hors de portée des dilletantes et des particuliers. Les
scientifiques se spécialisent. La science change de visage. De passe-temps
qu’elle était, elle devient profession. L’affaire de plus d’une vie, l’affaire
d’une collectivité. Et plus radicalement encore, bien plus qu’une vocation :
un moyen de subsistance. Se constituent des groupes et des équipes de
recherches subventionnés par les États ou par les entreprises privées, au
sein desquelles évoluent à plein temps des chercheurs « prolétarisés ».
D’où l’exigence de résultats rapides et mesurables quantitativement. Le
nombre de citations dans les revues à comité de lecture (américaines, pour
l’essentiel) fait foi de la productivité de chaque chercheur, sans égard pour
la qualité de leur résultats ni pour la valeur ajoutée de ces résultats ; ce
quelle que soit la discipline considérée. Leur quotidien prend l’apparence
d’une lutte pour l’existence que résume la devise « publish or perish ». Le
temps consacré à la recherche et à la réflexion ne peut plus apparaître que
comme un temps sacrifié, là où toute l’attention des scientifiques doit être
concentrée sur l’objectif de produire à flux tendu. Ce qui, aux États-Unis, ne
relève plus d’une seule question d’orgueil, mais déjà d’une question de
survie. À quoi bon s’obstiner à maintenir en poste des scientifiques
improductifs ? Et les gouvernements, et les industriels, par quel tour
improbable s’entêteraient-ils à abonder des unités de recherche et des
projets sans « visibilité » ?
Mais il n’est pas besoin de franchir les eaux de l’Atlantique pour voir à
l’œuvre cette mentalité. L’adoption du mode de financement par projet dans
le secteur public contraint les équipes de recherches à de véritables
contorsions intellectuelles pour inventer des débouchés à des explorations
encore inentamées, assorties de leurs conclusions définitives. Cette
inversion de la démarche scientifique a pour effet de condamner tout «
risque » d’ouverture à l’inédit, à l’étrangeté, aux jamais vu ; de réduire à
peau de chagrin la part de hasard nécessaire aux découvertes authentiques.
Elle prononce ce faisant une condamnation à terme de la recherche
fondamentale, intrinsèquement porteuse d’une part de créativité et de
spéculation.
Le secteur privé n’est pas en reste. Ne sont trop souvent récompensés, à
44
force de primes et autres promotions, que les succès exploitables
économiquement, au terme d’initiatives à visées carriéristes plutôt que
progressistes. La position sociale du scientifique se trouve dans tous les cas
intimement liée au nombre et à l’emploi de ses publications. Incitation bien
suffisante pour engendrer toute une typologie de fraudes : de l’arrangement
à l’invention en passant par l’occultation de certains résultats non
concordants et l’appropriation des idées développées par d’autres. Qu’il
brigue un poste prestigieux, un prix, une subvention ; qu’il cherche à se
forger une réputation ; qu’il désire simplement se maintenir dans son statut,
le même tarif appelle les mêmes déviances.
L’inquiétude porte désormais sur les évolutions prochaines (d’aucuns disent
« imminentes ») des structures de recherche. Que restera-t-il de
l’indépendance de la science au terme du processus de libéralisation
(« autonomie ») des universités (ouverture au capital) ? De quelle latitude
un ingénieur disposera-t-il encore une fois son sacerdoce phagocyté par les
industriels de l’innovation ? Quel avenir pour la fraude, déjà si répandue,
dans une société qui préfère le rendement à la fertilité ? Comment un
scientifique confronté à de telles pressions ; mettons plutôt « combien de
temps » un scientifique dont la pérennité ne dépend parfois que de sa
capacité à resquiller sans se faire prendre, restera-t-il vertueux ?
Giordano Bruno (1548-1600)
Principales contributions :
- Le Banquet des cendres (1584)
- L'Infini, l'univers et les mondes (1584)
- L'Expulsion de la bête triomphante (1584)
- Des liens (1591)
Concepts et idées-forces :
- Profession de foi copernicienne affirmée dès 1584 dans Le Banquet des
cendres. Les planètes tournent sur elle-même (rotation) et autour du Soleil
(révolution). Développement de la théorie de l’héliocentrisme sur la base
des travaux de Nicolas de Cues (1401-1464).
45
- Plusieurs points de divergence d’avec le modèle de Copernic empêchent
toutefois de voir en Bruno un héritier fidèle de sa pensée.
(1) Le moine déploie en premier lieu le paradigme d’un cosmos animé,
doué de son mouvement propre, qu’il communique aux corps célestes. Là
même Copernic attribuait la cause de la révolution des astres à leur forme
sphérique, Bruno les dote d’une âme ou d’un principe vital à l’origine de
leur mouvement, principe qui se retrouve partout dans l’univers en tant que
corps vivant, dans les parties comme dans l’ensemble formé de ces parties.
Aussi les astres ne sont-ils pas véhiculés par des sphères cristallines et ne
sont pas soumis aux lois physiques, dont celle de l’inertie. Ils tendent, selon
leurs « appétits », vers leur lieu naturel, profitant de la chaleur de l’astre
hélianthe et de sa lumière pour mieux pourvoir à la conservation de leur
être (conatus). Tels sont les postulats fondamentaux de ce que Paul-Henri
Michel appelle la « biocosmologie » de Bruno (Giordano Bruno, philosophe
et poète, 1952), très éloignés des considérations de Copernic. Une teneur
animiste qui aussi bien entre en contradiction avec l’orthodoxie
théologique. Le Dieu de la Genèse fait des (pseudo-)divinités astrales des
panthéons des civilisations périphériques, en particulier babylonienne, de
simples luminaires ; il désenchante le monde pour mieux le transcender.
Pose également le problème de savoir quel type de relation (identité,
analogie, ressemblance, etc.) entretient Dieu avec les âmes particulières
contenues dans les objets physiques, les âmes des créatures et l’âme du
monde.
(2) Bruno prend à partie le privilège indûment accordé par Copernic au
mouvement circulaire parfait, le même qui traverse toute l’astronomie
classique de Platon à Ptolémée. Un tel mouvement parfait ne peut exister
dans l’ordre du sensible et n’est pas corroboré par les observations. Les
orbites elliptiques des cinq planètes seront découvertes par Kepler.
(3) Pas davantage que ne l’était la Terre, le soleil n’est considéré par
Giordano Bruno comme résidant au centre du cosmos : « Il n'y a aucun astre
au milieu de l'univers, parce que celui-ci s'étend également dans toutes ses
directions » (Le Banquet des cendres). Bruno tient, à la suite de Nicolas de
Cues, qu’il est « impossible d'attribuer à la machine du monde aucun centre
fixe et immobile » (La docte ignorance). Le cosmos n’est plus borné par une
« sphère des fixes ». Bruno bannit les hiérarchies cosmiques, que ce soit
celles véhiculées par le modèle d’Aristote ou par celui de Copernic, axées
46
respectivement sur l’orbe terraqué ou sur l’astre du jour. Il envisage d’autres
systèmes solaires au sein desquels, autour de leur étoile centrale, orbitent
d’autres planètes invisibles à nos yeux : « Il est donc d'innombrables soleils
et un nombre infini de Terres tournant autour de ces soleils, à l'instar des
sept "Terres" [la Terre, la Lune, les cinq planètes alors connues : Mercure,
Vénus, Mars, Jupiter, Saturne] que nous voyons tourner autour du soleil qui
nous est proche » (L'Infini, l'Univers et les Mondes). Ces planètes sont
partout de la même composition élémentaire que la nôtre et doivent être
étudiées selon les mêmes méthodes.
(4) Infinité de l’univers. Surmonte l’obstacle épistémologique de la
finitude que maintenait Copernic en conservant du modèle planétaire
aristotélicien la sphère des étoiles fixes en rotation autour d’un centre (la
Terre ou le soleil) : « Nous déclarons cet espace infini, étant donné qu'il
n'est point de raison, convenance, possibilité, sens ou nature qui lui assigne
une limite » (L'Infini, l'Univers et les Mondes). Il n’y a qu’un vide immense
et homogène qui s’étend dans toutes les directions à perte d’imagination. Le
cosmos délimité vole en éclat. Une transgression de toute frontière
physique, mais également intellectuelle, qui permet de penser un infini
actuel. Il est à signaler que l’astronome anglais Thomas Digges, élevé sous la
tutelle du sulfureux John Dee (1546-1595), avait déjà envisagé cette
possibilité de l’infinité de l’univers dans l’appendice qu’il rédigeait en 1576
pour la nouvelle édition de l'almanach perpétuel de son père, première
publication anglaise prônant l’héliocentrisme de Copernic : A
Prognostication everlasting.
(5) Pluralité des mondes habités. Là où n’était auparavant qu’une seule
Terre viable au centre de la sphère des fixes, advient l’image d’un univers
peuplé d'une infinité d’astres et de mondes identiques au nôtre, lesquels ne
sont « point différents de notre monde par leur nature, mais seulement par
leurs dimensions » (Le banquet des Cendres), abritant d’autres créatures
faites à l’image de Dieu. « Ainsi donc les autres mondes sont habités comme
l'est le nôtre ? demande Burchio. Fracastorio, porte-parole de Bruno répond
: Sinon comme l'est le nôtre et sinon plus noblement. Du moins ces mondes
n'en sont-ils pas moins habités ni moins nobles. Car il est impossible qu'un
être rationnel suffisamment vigilant puisse imaginer que ces mondes
innombrables, aussi magnifiques qu'est le nôtre ou encore plus magnifiques,
soient dépourvus d'habitants semblables et même supérieurs » ( L'Infini,
47
l'Univers et les Mondes). Soulève le problème de l’Incarnation : qui pour
sauver ces âmes ? D’autres Adam, d’autres Christ, d’autre Crucifixions ?
- Il semble, en dernière analyse, que Bruno ait été le premier penseur de la
Renaissance à entrevoir l’infinité d’un univers peuplé d’un bestiaire infini
de corps célestes, de soleils et de mondes habités. Ce qui fait dire à Ernan
McMullin (Newton on Matter and Activity, 1979) que s’il a bien repris
certaines idées de Copernic, il ne l’aura fait que marginalement, qu’en vue
de la constitution de son propre système. Bien que les deux hommes se
rangent expressément sous la tutelle du Trismégiste, c’est avec des a priori
et des méthodes irréductiblement distinctes, qui aboutissent à des thèses qui
ne sont pas moins (ne serait-ce qu’au regard de la clôture ou de l’illimitation
de l’univers).
- Justification théologique. Ce n’est pas par iconoclastie ou hérésie, par
volonté d’abattre la théologie que Bruno heurte avec un tel allant
l’orthodoxie de son temps. C’est, comme pour nombre de philosophes
théologiens croyants ayant marqué l’histoire des sciences (et, malgré eux,
précipité l’effondrement de l’autorité chrétienne), mu par une foi
inébranlable d’où s’origine la conviction que les vérités atteintes par la
raison ne peuvent être en contradiction avec contenu véritable de la
révélation. Bruno joue la religion contre la religion. Exemple avec l’infinité
de l’univers : celle-ci n’est pas un signe d’imperfection (contra l’acception
grecque de l’idée d’infini), mais le reflet de la toute-puissance du Créateur
au sein de la création. L’effet doit refléter pleinement le caractère infini de
sa cause. Dieu crée son image ; à son image, le monde est infini. L’infinité
du monde imite la perfection de Dieu : « Il n'y a qu'un ciel, une immense
région éthérée où les magnifiques foyers lumineux conservent les distances
qui les séparent au profit de la vie perpétuelle et de sa répartition. Ces corps
enflammés sont les ambassadeurs de l'excellence de Dieu, les hérauts de sa
gloire et de sa majesté. Ainsi sommes-nous conduits à découvrir l'effet infini
[le monde] de la cause infinie [Dieu] ; et à professer que ce n'est pas hors de
nous qu'il faut chercher la divinité, puisqu'elle est à nos côtés, ou plutôt en
notre for intérieur, plus intimement en nous que nous ne sommes en nousmêmes » (Le Banquet des cendres). Poser un univers fini serait, par
contraposition, poser un Créateur fini qui ne saurait être Dieu. Bruno,
malgré sa formation thomiste, tire là une conséquence qui répugnait encore
à Nicolas de Cues, lequel, s’il rejetait de fixer des limites à l’univers, ne le
48
concevait pas comme infini en acte. Ainsi écrivait-il, dans La docte
ignorance, que « bien qu'en un sens le monde ne soit pas infini, on ne peut
pourtant pas le concevoir comme fini, puisqu'il n'est enclos entre aucunes
limites » (La docte ignorance).
- Rend possible une extension à la physique de l’idée d’infini, jusqu’alors
chasse gardée de la théologie. Permet de penser un infini réel, présent et
saisissable dans l’immanence (de la nature), au-delà de la transcendance
divine. Un geste décisif pour le procès de mathématisation du phénomène
et du mouvement, coextensif à l’émergence de la science moderne.
Fontenelle porte cette entreprise à son plus haut degré de réalisation en
1728 avec ses Éléments de la géométrie de l’infini, qui dénouent
définitivement les liens de l’infini et de la transcendance. Voir les
problèmes de l’infini mathématique chez Pascal et Galilée. Leibniz et la
résolution des paradoxes Zénon.
- Les partisans du système d’Aristote relevaient que si la Terre était
effectivement en rotation, une pierre jetée du haut d’une tour devrait s’en
éloigner dans le sens inverse de la rotation de notre planète durant le temps
de sa chute, et retomber à quelques mètres de son pied. Ce qui n’est
manifestement pas le cas ; ensuite de quoi (modus tollens) la Terre devait
être fixe. Bruno constate que le dispositif tour-pierre-Terre forme un
ensemble (ultérieurement nommé un « système mécanique ») depuis lequel
on ne peut déceler un mouvement absolu : « Toutes choses qui se trouvent
sur la Terre se meuvent avec la Terre. La pierre jetée du haut du mât
reviendra en bas, de quelque façon que le navire se meuve » (Le Banquet
des cendres).
- Relativité du mouvement. L’âme habite chaque parcelle de la matière, lui
conférant la vie ; si bien que plus aucun corps ne peut être considéré
comme en état de repos absolu. Le mouvement néanmoins ne peut pas plus
être considéré de manière absolue, et ne peut être envisagé que par rapport
à un système de référence, plus tard appelé « référentiel galiléen ».
– Les devanciers et les inspirateurs. À l’exclusion des physiciens et
astronomes contemporains (dont Galilée), Bruno puise à de nombreuses
sources, étalées dans l’histoire :
(1) Matérialisme antique. Démocrite, Épicure et Lucrèce en ce qui
concerne l’atomisme, qu’il investit d’un animisme anticipant par certains
traits les monades de Leibniz.
49
(2) Théologie médiévale. Si Aristote et les néoplatoniciens ne sont pas
oubliés, c’est encore chez les philosophes chrétiens que Bruno puise la
matière principale de sa cosmologie infinitiste : chez Nicolas de Cues,
principalement, qui anticipe sans l’assumer l’infinitude de l’univers et
affirme son absence de centre (cf. La docte ignorance).
(3) Hermétisme de la Renaissance. Épanouissement de l’occultisme à la
suite de la traduction au XVe siècle par Marsile Ficin de plusieurs traités du
Corpus hermeticum, attribué à Hermès Trismégiste. De nombreuses autres
inspirations cabalistiques, magiques ou magico-religieuse signalées par
l'historienne Frances Yates dans ses travaux portant sur Giordano Bruno et
la Tradition hermétique (1964).
- Principe de plénitude. En accord avec le thème orthodoxe de l’échelle des
êtres, Bruno pose que le Créateur, en vertu de son essence, n’a pu faire
autrement que de combler le plus grand espace possible avec le plus grand
nombre et la plus grande diversité possible de perfection, de mondes de
formes, d’essences. Le principe de plénitude acquiert une importance
centrale au sein de la théodicée de Leibniz. Explique l’imperfection des
créatures et l’échelle des êtres (scala naturæ).
- Principe de raison suffisante. Autre héritage de Giordano Bruno au cœur
de la philosophie de Leibniz. Il signifie que rien n’est sans raison, pas plus
dans l’ordre de l’existant que dans celui de la pensée. En son sens négatif,
implique que l’on ne peut écarter aucune proposition probable sans justifier
cette exclusion. Si Dieu est tout-puissant, il crée infiniment ; il créé un
univers à son image, illimité et dépourvu de centre ; crée d’autres êtres aussi
bien inférieurs que « semblables et supérieurs à nous ». Que ne le ferait-il
pas ?
- Confiance en la puissance de l’intellect vs. les preuves mathématiques : «
Concernant la mesure du mouvement [des corps célestes], la géométrie
ment plutôt qu'elle ne mesure […] C'est à l'intellect qu'il appartient de
juger et de rendre compte des choses que le temps et l'espace éloignent de
nous » (De immenso). Penser n’est donc pas calculer (vs Hobbes).
- Une œuvre hétéroclite. N’hésitant pas à associer la science et la
philosophie à la magie et à la religion. Le De vinculis in genere (Des liens)
de 1591 est ainsi consacré à l’occultisme. Comme le ferait Kepler et nombre
d’autres protagonistes de la « révolution intellectuelle », Bruno raisonne en
50
astrologue tout en ne laissant pas de combattre la superstition ; ainsi dans
L’expulsion de la bête triomphante.
- Accusation d’athéisme pour ses écrits blasphématoires. Lui vaut d’être
brûlé en place publique, en qualité de relaps, au terme de huit années de
procès. Il s’était rétracté, pour finalement en revenir à ses primes hérésies
concernant le statut de « mage habile » du Christ, du Salut pour Satan
(apocatastase), du Saint-Esprit comme âme du monde, etc. Jurisprudence
tragique qui crée une manière d’omerta, de climat de « terrorisme
intellectuel » pesant sur les protagonistes de la science moderne et en
particulier Descartes, qui préféra se consacrer à la philosophie plutôt que de
passer dans la physique le point de non-retour qui l’aurait mis en butte aux
anathèmes.
- Le travail du négatif. Comme le souligne Arthur O. Lovejoy, pionnier de
l’histoire des idées, le raisonnement de Bruno reste attaché aux formes
scolastiques héritées de la refonte par saint Thomas de la pensée d’Aristote.
C’est donc « de l’intérieur » que le Napolitain fait un sort à la théologie
médiévale, en excipant et en portant à leurs ultimes limites certaines des
thèses qu’elle recelait déjà. Le paradigme meurt de ses contradictions,
offrant l’un des plus beaux exemples de dialectique au sens qu’Hegel
donnera à ce concept.
Léon Brunschvicg (1869-1944)
Principales contributions :
- La Modalité du jugement (1897)
- Le Progrès de la conscience dans la philosophie occidentale (1927)
- La Raison et la religion (1939)
Concepts et idées-forces :
- La méthode réflexive (idéalisme critique)
- Le jugement scientifique
- Le progrès du savoir sous la modalité des sciences rend compte de la
genèse de l’esprit
51
Jean Buridan (1292 - 1363)
Principales contributions :
- Expositio et Quaestiones in Aristotelis « De Caelo » (1328)
- Compendium Logicae (1335)
- In Aristotelis Metaphysica (?)
Concepts et idées-forces :
- Instigateur du scepticisme en matière de religion.
- Théorie de l'impetus. Redécouverte aux alentours de 1340 (cf. articles
« Impetus » de Christiane Vilain, et « Inertie » de François de Gandt dans
Dominique Lecourt, Thomas Bourgeois (éds.), Dictionnaire d'histoire et
philosophie des sciences, 2006). Prise en défaut de la théorie
aristotélicienne de la cause motrice, faisant valoir que tout projectile doit
être mû par autre chose. Même l’hypothèse ad hoc attribuant à l’air
échauffée d’acquérir une puissance qui pousse le projectile ou au contraire,
la tire en raison de la raréfaction de l’air provoqué par son déchirement
(antipéristase), sont impuissants rendre compte de la dynamique des corps.
La solution de Buridan et celle de l’impetus, qui dénote les concepts de
quantité de mouvement et d’énergie cinétique avant que ne soit mis au
point l’idée de vitesse, et anticipe de manière originale sur la loi de l’inertie
formalisée avec Descartes et Galilée : « Voici donc, ce me semble, ce que
l'on peut dire : tandis que le moteur meut le mobile, il lui imprime un
certain impetus, une certaine puissance capable de mouvoir le mobile dans
la direction même où le moteur meut le mobile, que ce soit vers le haut, ou
vers le bas, ou de côté, ou circulairement. Plus grande est la vitesse avec
laquelle le moteur meut le mobile, plus puissant est l'impetus qu'il imprime
en lui...mais par la résistance de l'air, et aussi par la pesanteur qui incline la
pierre à se mouvoir en sens contraire... cet impetus s'affaiblit
continuellement [...] Toutes les formes et dispositions naturelles sont reçues
en la matière et en proportion de la matière ; partant plus un corps contient
de matière, plus il peut recevoir de cet impetus ; or dans un corps dense et
grave, il y a, toutes choses égales d'ailleurs, plus de matière qu'en un corps
rare et léger. Une plume reçoit un impetus si faible que cet impetus se
trouve détruit aussitôt par la résistance de l'air » (cité dans article « Impetus
», op. cit.).
52
- Cette théorie se connaissait une préfiguration chez le commentateur
byzantin Jean Philopon ainsi que chez Guillaume d’Ockham, lequel fait
référence à une manière de communication énergétique d’un corps « agent
» à un autre « patient », devenant lui-même agent d’une communication
occasionnelle.
- L’âne de Buridan. Expérience de pensée mettant en scène un dilemme
poussé à l’absurde, exemplification de la double contrainte. Entre son
picotin d'avoine et son seau d'eau, un âne se serait trouvé dans l’incapacité
de choisir et serait mort de faim et de soif. Il s’agissait à l’origine d’un chien
: « On a beaucoup parlé de l'âne de Buridan, à savoir un âne affamé placé
entre deux bottes de foin, ou également affamé et assoiffé placé entre une
botte de foin et un seau d'eau, qui se laisserait mourir d'inanition par
indécision, pour décrire un choix moral. C'est dans son Commentaire
littéral sur le Traité du ciel (exposition du traité De caelo) que Buridan met
en scène, non pas un âne, mais un chien confronté au cruel dilemme.
Buridan, avec tout l'humour qui le caractérise, évoque cette possibilité
comme celle d'une alternative insensée, comparable à celle qui voudrait
soupeser les mérites de la gravité terrestre et de l'objet lourd qui lui est
soumis. On est donc loin de choix éthiques » (Benoît Patar, Dictionnaire des
philosophes médiévaux, 2006).
- Le passage d’Aristote réinvesti par Buridan se situe en 295b32. Il y est
effectivement question d’un chien incapable d’arbitrer entre ses appétits,
deux mets d’une attirance égale lui étant proposés. Le Stagirite s’en sert de
paradigme pour décrire les mouvements contradictoires de la volonté
humaine : « Celui qui, affligé d'une faim et d'une soif très vives, mais
également intenses, se trouve à égale distance des aliments et des boissons :
lui aussi demeurera nécessairement immobile ! » (trad. P. Moraux). S’ensuit
la métaphore d’une corde sans défaut tendu au point de rompre, mais « ne
sachant pas » en quel endroit.
- Descartes reprend le dilemme de l’âne (ou chien) de Buridan pour illustrer
ce qui constitue chez l’homme le plus bas degré de la liberté, la liberté
d’indifférence, qui se décide sans être mûe par des raisons. La liberté
d’indifférence est en revanche la plus grande perfection de Dieu, lequel n’a
pas sa volonté contrainte par son entendement (c’est aussi l’opinion
d’Arnaud, contre celle de Leibniz).
53
- On retrouve l’âne (devenue ânesse, ce qui en dit long) de Buridan dans le
scolie de la proposition 49 de la deuxième partie de l' Éthique de Spinoza, «
On peut […] objecter que, si l'homme n'opère pas par la liberté de la
volonté, qu'arrivera-t-il donc s'il est en équilibre, comme l'ânesse de
Buridan ? Mourra-t-il de faim et de soif ? Que si je l'accorde, j'aurai l'air de
concevoir une ânesse, ou une statue d'homme, non un homme ; et si je le
nie, c'est donc qu'il se déterminera lui-même, et par conséquent c'est qu'il a
la faculté d'aller, et de faire tout ce qu'il veut. […] J'accorde tout à fait qu'un
homme placé dans un tel équilibre (j'entends, qui ne perçoit rien d'autre
que la soif et la faim, tel aliment et telle boisson à égale distance de lui)
mourra de faim et de soif. S'ils me demandent s'il ne faut pas tenir un tel
homme pour un âne plutôt que pour un homme ? Je dis que je ne sais pas,
pas plus que je ne sais à combien estimer celui qui se pend, et à combien les
enfants, les sots, les déments, etc. » (trad. Bernard Pautrat, p. 191 et 195).
Outre la féminisation de la bête affamée, l’amendement porte sur
l’incapacité que l’homme aurait à choisir en dernière intention, quand
Buridan lui accordait la liberté d’opter de manière gratuite.
Michel Callon (1945-20XX)
Principales contributions :
- « Éléments pour une sociologie de la traduction. La domestication des
coquilles Saint-Jacques dans la Baie de Saint-Brieuc », dans L'Année
sociologique, n°36 (1986)
- La Science et ses réseaux. Genèse et circulation des faits scientifiques
(1989)
- La Science telle qu'elle se fait (avec Bruno Latour) (1991)
- La Scientométrie (avec Jean-Pierre Courtial et Hervé Penan) (1993)
- Agir dans un monde incertain. Essai sur la démocratie technique (avec
Pierre Lascoumes et Yannick Barthe) (2001)
Concepts et idées-forces :
- Sociologie de l’acteur-réseau (SAR) ou sociologie de la traduction
développée de concert avec Bruno Latour, John Law et Madeleine Akrich,
qui permet de penser ensemble la production des connaissances et les
54
institutions, enjeux industriels, effets sociaux, impacts et débouchés des
sciences. Cf. notice Bruno Latour.
- Tente une application de la sociologie de la traduction au champ de
l’économie.
- Spécialisée dans les « science and technology studies » (sociologie des
sciences et des techniques).
- L’étude de « la science en train de se faire » ne peut faire l’économie de ses
enjeux sociaux hors du laboratoire. L’activité scientifique est tributaire
d’une démarche préalable de mobilisation des acteurs concernés, des
groupes et des individus susceptibles d’être enrôlés et pareillement, de
dispositifs techniques, de ressources industrielles et naturelles, de
phénomènes dont l’ensemble tisse un dense réseau d’acteurs qui prête sa
crédibilité à un énoncé scientifique.
- L’illustre l’enquête que mène Michel Callon autour d’une recherche
scientifique portant sur la fixation des coquilles Saint-Jacques de l’espèce
Pecten maximus en baie de Saint-Brieuc. Dans son article de 1986, «
Éléments pour une sociologie de la traduction… », il retrace les étapes par
lesquelles trois chercheurs vont parvenir à importer une nouvelle technique
permettant leur culture intensive, alors que l’activité locale vit ses derniers
feux. Les trois acteurs identifiés sont les marins-pêcheurs, la communauté
scientifique et les coquilles Saint-Jacques, chacun cultivant ses intérêts
propres (respectivement, le maintien de l’activité locale, l’accroissement du
savoir, la prolifération) ; il s’agit de nouer des alliances avec eux et de
défaire leurs autres allégeances afin de les convaincre que leur avenir
dépend de la réponse à la question « Pecten maximus se fixe-t-il ? », point
de passage obligé (PPO). Colloques, négociations, réunions et pourparlers
s’organisent qui rassemblent les hommes de la mer, les ingénieurs, les autres
scientifiques intéressés à la question, etc.
- Cet article séminal est l’occasion de l’application à l'analyse d'une
controverse socio-technique de la notion de traduction, reprise de Michel
Serres (Hermès III. La traduction, 1974). Callon motive aussi son choix
d’analyser de manière symétrique les actants humains et non-humains.
- Forums hybrides. Lieu de rencontre entre les acteurs du monde civil et du
monde privé, des citoyens et des politiques, des experts et des habitants, des
politiques et des chercheurs se réunissant à l’occasion de débats sociotechniques (chemtrails, enfouissement de déchets nucléaires, etc.).
55
Plusieurs enjeux soulevés par Bruno Latour dans Politiques de la nature
trouvent ainsi leur prolongement dans Agir dans un monde incertain,
ouvrage s’ouvrant sur l’éloquente antanaclase : « Que faire de l'écologie
politique ? Rien. Que faire ? De l'écologie politique ! »
Georges Canguilhem (1904-1995)
Principales contributions :
- Le normal et le pathologique (1943 ; 1966)
- La connaissance de la vie (1952)
- Idéologie et rationalité dans l'histoire des sciences de la vie (1977)
Concepts et idées-forces :
- Études d’histoire des sciences. Considère les textes scientifiques comme un
champ d’exploration digne d’intérêt ; ce qui rompt avec la tradition
philosophique.
- « La philosophie est une réflexion pour qui toute matière étrangère est
bonne, et nous dirions volontiers pour qui tout de bonne matière est
étrangère ». S’intéresse à la biomédecine, car introduit à des problèmes
humains concrets. Considérée comme une technique ou un art au carrefour
de plusieurs sciences : une « technique d’instauration ou de restauration du
normal ».
- Pose une rupture qualitative entre le normal et le pathologique ; contra
Auguste Comte et Claude Bernard qui ne voient en ce dernier qu’une
variation quantitative des phénomènes normaux, leur « grossissement », le
pendant naturel de l’expérimentation. La maladie affecte l’ensemble de
l’organisme, elle refaçonne l’individu, corps et esprit. Reprise de l’exemple
du diabète : « Devenir diabétique, c’est changer de rein ». La maladie
instaure une autre « allure de la vie ».
- Critère subjectif de démarcation du normal et du pathologique : « La
qualité de pathologique et un apport d’origine technique et par là d’origine
subjective. Il n’y a pas de pathologie objective ». Raison pourquoi la
thérapeutique doit prendre en considération la subjectivité ainsi que la
singularité de l’individu souffrant. On ne soigne pas une maladie, mais
d’abord un malade. Contra l’approche positiviste, analytique, physicaliste
ou statistique, toutes également aveugles à la dimension vécue de la
56
maladie : « La maladie n’est plus objet d’angoisse pour l’homme sain, elle est
devenue objet d’étude pour le théoricien de la santé ».
- Le pathologique ne se définit pas sans référence à un milieu auquel les
normes d’un individu sont adaptées ou non. Le milieu naturel, social, la
composante ethnique, géographique et historique entrent en ligne de
compte. Un myope dans une société pastorale n’est pas considéré comme
anormal ; il le serait dans l’aviation.
- Le pathologique ne s’oppose pas à la norme mais bien à la santé. La
normativité et la labilité du vivant sont le critère de la santé d’un corps (et
d’un esprit) ; leur réduction, vécue comme telle, le signe de la maladie
- La normativité biologique révèle une vie en lutte contre l’entropie, une
vie qui valorise pour croître et pour se développer, pose des valeurs à la
manière de l’artiste nietzschéen : « Vivre c’est, même chez une amibe,
préférer et exclure ». Ce n’est donc pas la science mais bien la vie qui pose
des normes
- Ce n’est pas dire autre chose que la santé est un rapport vécu  ou ignoré :
« le silence des organes », écrit le chirurgien René Leriche. Le surgissement
de la maladie défait ce rapport intuitif et restreint les capacités d’adaptation
de l’individu malade. C’est donc ce qui affecte sa normativité. Être malade,
c’est perdre sa capacité de résilience, devoir restreindre son milieu de vie : «
Le propre de la maladie, c’est d’être une réduction de la marge de tolérance
des infidélités du milieu ». Exemple de l’hémophilie.
- Primauté logique de la maladie sur la santé, de la pathologie sur la
thérapeutique, de l’écart sur la norme. De la même manière que la
transgression crée le sacré dans l’acte de la profanation, il n’y aurait pas de
norme s’il n’y avait de l’anormal : « L’anormal, logiquement second, est
existentiellement premier ». Pas de science des fonctions vitales sans
défaillance de ces fonctions : c’est la maladie qui « nous révèle les fonctions
normales au moment précis où elle en interdit l’exercice. Cf. l’heuristique
de l’angoisse chez Heidegger.
- Idéologie scientifique. Perceptible notamment dans la soumission de la
technique à la science, dans le refus ontologique du mal que dénote
l’identité d’essence du normal et du pathologique, dans la projection de la
morale du corps social dans le corps biologique.
- La médecine n’est pas une science, mais une technique qui s’appuie sur
une science : la biologie.
57
- Canguilhem fut le rapporteur de la thèse de Foucault, Folie et déraison.
Histoire de la folie à l’âge classique. Le premier pose la question des normes
vitales ; au second d’insister sur la constitution des normes sociales
- La norme biologique est spontanée ; la norme sociale résulte d’une
délibération. Un organisme n’est pas une organisation. La normativité
sociale peut néanmoins être conçue comme un prolongement de la
normativité biologique, ce par quoi l’organisme aménage son
environnement
Rudolf Carnap (1891-1970)
Principales contributions :
- La Construction logique du monde (1928)
- Le dépassement de la métaphysique par l'analyse logique du langage
(1931)
- La Syntaxe logique du langage (1934)
- Testabilité et signification (1936)
- Les fondements philosophiques de la physique (1948)
Concepts et idées-forces :
- Membre du Cercle de Vienne, chef de file du positivisme ou empirisme
logique des années 1930, caractérisé par son rejet de la métaphysique.
- Signataire, avec Moritz Schlick, Kurt Gödel, Otto Neurath, Hans
Reichenbach et alii, du Manifeste de 1929 intitulé La conception
scientifique du monde.
- Unité de la science. Propose une axiomatisation des théories scientifiques
sur le modèle de celle des théories mathématiques. Les théories des sciences
empiriques reposent sur une architecture mathématique qu’il s’agit
d’exposer de la manière la plus systématique possible. Reste à faire le
raccord avec les phénomènes en souscrivant à des « règles de
correspondance ».
- S’inspire du Tractatus de Wittgenstein pour rédiger le manifeste du
Cercle. Projet d’établir un langage scientifique pur de toute métaphysique,
composé d’énoncés éprouvable sur le plan observationnel.
- Distinction entre énoncés observationnels (ou empiriques) soumis à des
critères de vérification vs. énoncés théoriques (ou analytiques, logiques et
58
mathématiques) cohérents et détachés de l’expérience. Disqualification de
toute autre forme de discours : absurde ou présentant de faux problèmes.
- Néanmoins, difficulté à séparer les énoncés scientifiques et
métaphysiques. Résistance des concepts dispositionnels (on ne peut
observer la solubilité du sucre). En outre, les lois générales de la science ne
sont pas vérifiables ; on n’en constate que des occurrences. Elles sont donc
irrémédiablement hypothétiques.
- Carnap réhabilite l’induction qu’il associe à la notion de probabilités pour
surmonter la crise du positivisme logique notoirement aggravée par Karl
Popper (réfutationnisme) et par Kurt Gödel qui introduit en 1931 le
théorème d’incomplétude (impossibilité de fonder un discours logique
entièrement cohérent et fermé sur lui-même).
Jean Cavaillès (1903-1944)
Principales contributions :
- Méthode axiomatique et formalisme (1938)
- Sur la logique et la théorie de la science (1947)
Concepts et idées-forces :
- Représentant, avec Duhem, Poincaré, Bachelard, Canguilhem, etc., de la
synthèse Française de la philosophie et de l’histoire des sciences.
- Acte (opération) et sens
- Sens posant et sens posé d'un acte.
- Abstraction thématique (thématisation), abstraction paradigmatique
(idéalisation).
- Nécessité des enchaînements vs. historicité et probabilité des événements.
Maurice Caveing (1923-20XX)
Principales contributions :
- Zénon d’Élée. Prolégomènes aux doctrines du continu (1982)
- Essai sur le savoir mathématique dans la Mésopotamie et l'Égypte
anciennes (1994)
- La figure et le nombre. Recherches sur les premières mathématiques des
Grecs (1997)
- L’irrationalité dans les Mathématiques grecques jusqu’à Euclide (1998)
59
- Le problème des objets dans la pensée mathématique (2004)
Concepts et idées-forces :
- Spécialiste des mathématiques antiques.
- Question de savoir s’il faut faire remonter la science aux Grecs (cf. le «
miracle grec » d’Ernst Renan) ; le cas échéant, en vertu de quel critère, dès
lors qu’« il n’existe pas de civilisation qui n’ait pas de connaissance » (« La
raison n’est pas une invention grecque », dans Sciences Humaines n° 31,
2001). En effet, note Caveing, « il est vain de croire qu’avant les Grecs, les
peuples baignaient dans une sorte de mentalité primitive faite de croyances
et de mythes. L’anthropologie contemporaine le montre de mieux en mieux
: toutes les cultures ont des connaissances étendues sur la nature, les
plantes, les étoiles. Et ces connaissances sont soigneusement distinguées des
mythes. Les Égyptiens ou Babyloniens avaient des connaissances poussées
en astronomie, en botanique, en médecine ou en calcul. Mais dans la
civilisation assyro-babylonienne, beaucoup de connaissance se présentaient
sous une forme énumérative. Or, la science suppose un ensemble de
connaissances ordonnées de façon méthodique et accompagnées de preuves
raisonnées » (propos recueillis par J.-F. Dortier dans Thomas Lepeltier (dir.)
Philosophie et histoire des sciences, 2013).
- Révolution vers le Ve siècle avant J.-C. avec le passage de la connaissance
des faits à la recherche des causes, étayée par des preuves. Phénomène
observable dans l’ensemble des domaines du savoir : astronomie,
mathématiques, médecine, histoire, philosophie. La recherche de la preuve
prend la forme de l’observation dans les sciences de la nature (botanique,
zoologie, médecine) et en mathématiques (pures et appliquées), de la
démonstration.
- Trois grands facteurs explicatifs de cette révolution :
(1) Facteur géographique. Situation de la Grèce, carrefour commercial en
Méditerranée, rencontre et échanges avec différents peuples. La pratique
des voyages d’études contribue à enrichir l’esprit d’une élite cultivée oisive :
« Nous voilà en présence d’un peuple de voyageurs qui sillonnent la
Méditerranée, fonde des colonies, pousse ses explorations au-delà du détroit
de Gibraltar. Au sein de certaines cités et colonies s’est constituée une
frange de commerçants, de navigateurs, d’armateurs, d’entrepreneurs. Ces
gens ont une vue large du monde ».
60
(2) Facteur socio-technique. Développement de l’urbanisme. Ses
problèmes pratiques accélèrent la formation d’un esprit physique et
géométrique. Jean-Pierre Vernant, dans ses « Remarques sur les formes et
les limites de la pensée technique chez les Grecs », dans Mythes et pensée
chez les Grecs (1974) relève que : « Dès le Ve siècle (avant notre ère), un
ouvrage comme le canal souterrain construit à Samos par Eupalinos de
Mégare suppose déjà l’emploi de procédés déjà ardus de triangulation ». En
marge de l’urbanisme, ingénierie de guerre. Machines, navires, systèmes à
poulies et à levier chez Archimède, découvreur de la loi de la poussée qui
porte son nom, probablement liée à des questions nautiques (conditions de
flottaison d’un navire). « Songez que l’on savait même monter et démonter
les machines de guerre en pièces détachées », relève Maurice Caveing.
Passage de la technique (de l’artisanat) à la technologie, définie par
Bertrand Gille comme théorie mathématique et physique appliquée à des
problèmes pratiques (Les mécaniciens grecs. La naissance de la technologie,
1980). Thèse également soutenue par Benjamin Farrington (La science dans
l’Antiquité. Grèce, Rome, 1967) et par Maurice Daumas (Histoire de la
science (dir.), 1957).
(3) Facteur socio-politique. Démocratie. Agora, lieu de délibération et
d’argumentation, à rebours de la monarchie perse ou de l’institution
pharaonique. Pas de discours d’autorité, isonomie, il faut convaincre pour
l’emporter. Nécessité de produire des preuves et des démonstrations par
laquelle s’explique le développement des « techniques de la parole » propre
à la rhétorique, au plaidoyer, à la dialectique, à l’éristique ; il faut rendre
raison. Reprise critique par Platon des traditions anciennes qu’il s’agit non
pas de rejeter, mais de fonder. Disparition des roi-prêtre dans la période
classique (cf. Platon, Le politique). Religions à mystères ou religions
pratiques et non à dogme en dépit d’une mythologie commune. Pas de
croyance officielle, pas de monopole des scribes.
Harry Collins (1943-20XX)
Principales contributions :
- The Golem : What Everyone Should Know About Science (avec Trevor
Pinch) (1993)
- Changing Order. Replication and Induction in Scientific Practice (1995)
61
Concepts et idées-forces :
- Sociologie de la connaissance scientifique (Sociology of Scientific
Knowledge, SSK). Contribue au développement du programme empirique
du relativisme (EPOR), mieux connu sous le nom d'École de Bath (« Bath
School »). Démarche proche de celle du « programme fort » de Barry Barnes
et David Bloor à cette différence près que le fin mot du succès d’une théorie
tient au contexte local (micro-social) et non d’abord global (macro-social).
Le facteur individuel (idéologie, préjugés moraux, influences religieuses,
condamnations a priori pour des motifs irrationnels et passionnels) rapporté
aux caractéristiques du groupe de recherche (position sociale, enjeux de
pouvoir) pèse de manière déterminante sur la production des connaissances
scientifiques.
- L’analyse des controverses. Le socio-historien a vocation à exhumer les
véritables leviers qui ont fait basculer la préférence des scientifiques pour
une telle théorie particulière au détriment d’une autre. Des théories
proclamées vraies ou négligées l’auront été sans que les résultats des
expériences aient été pris en compte, qu’il s’agisse de la relativité d’Einstein
ou de l’hérédité mendélienne.
- Il n’y a pas de faits bruts ; il n’y a pas de donnée observationnelle au sens
où le chercheur « construit » en grande partie l’objet de sa recherche. Toute
expérience, toute interprétation est tributaire de savoirs pratiques et de
connaissances théoriques qui peuvent être implicites. Remise en cause de
l’objectivité et de l’impersonnalité de la science.
- Il en ressort qu’un même « fait » est susceptible de recevoir une
multiplicité de descriptions, sans que l’on puisse arbitrer de manière
apodictique en faveur de la plus vraisemblable. Soit les relevés d’une
expérience conduite au cours des années 1970 visant à démontrer
l’existence des ondes gravitationnelles. La controverse porte aussi bien sur
l’interprétation des résultats de l’expérience que sur sa reproductibilité et
sur le sens des variations constatées à l’issue d’expériences analogues.
L’accord ne fut pas obtenu ensuite de la mise en place d’une expérience
cruciale, d’une théorie ou d’un dispositif qui eut fait consensus. A prévalu le
souhait de conserver un cadre théorique qui rejetait que les ondes fussent
détectables expérimentalement.
62
- S’en prend avec Steven Yearley à la théorie de l'acteur-réseau (ANT)
développée par Michel Callon, Bruno Latour, Madeleine Akrich, considérée
comme une régression de la sociologie des sciences vers le positivisme et le
réalisme d’autrefois (Science as Practice and Culture).
Auguste Comte (1898-1957)
Principales contributions :
- Cours de philosophie positive (1830-1842)
- Discours sur l'esprit positif (1844)
Concepts et idées-forces :
- Positivisme.
- Loi des trois états : théologique, métaphysique, positif. Parvenu au stade
positif, les explications par la cause et la finalité cède place à la description
des phénomènes.
- Envisage le devenir des sociétés humaines et de l’esprit humain d’une
manière proche de celle de Hegel, comme mu par une marche en avant
irrévocable transitant par des stades (ou figure) progressives. Probable
inspiration du transformisme de Lamarck.
- Sociologie. Son principe est posé dès 1839 dans sa 47e leçon du Cours de
philosophie positive. Émile Littré, disciple non religieux de Comte, fonde
en 1872 la première Société de sociologie. Déclin du positivisme après la
mort de ce dernier (1881), mais Durkheim lecteur de Comte reprend le
flambeau de la sociologie française.
- Caractère descriptif et normatif de la connaissance, finalisée au Progrès : «
En résumé, science, d'où prévoyance ; prévoyance d'où action » (Cours de
philosophie positive, 2e leçon).
- Dans le domaine de la physiologie, conçoit l’effet de la maladie sur
l’organisme comme une expérimentation spontanée de la nature qui met en
évidence les lois du normal en les exacerbant. Soutien l’idée d’un
continuum entre les phénomènes normaux et les phénomènes
pathologiques ; contra Canguilhem.
63
Nicolas Copernic (1473-1543)
Principales contributions :
- Commentariolus (1510)
- Des révolutions des sphères célestes (1543)
Concepts et idées-forces :
- Dénonce les insuffisances du système géocentrique d’Aristote. Entre
autres, l’accumulation des hypothèses ad-hoc d'Eudoxe à Ptolémée
(épicycles, équant, etc.), l’incapacité d’opérer des prédictions et à décrire
précisément les phénomènes célestes, la dysharmonie, complexité et les
incohérences de la théorie.
- Système héliocentrique. Exposition de ses principes dans le
Commentariolus de 1510, suivi par leur démonstration mathématique dans
le De Revolutionibus orbium coelestium paru en 1543, l’année de sa mort.
- Le soleil disposé au centre de l’univers.
- Sphère étoilée immobile, à une distance immensément plus importante
qu’envisagée à l’époque.
- La Terre dotée de deux mouvements : rotation (expliquant le cycle
nycthéméral) et révolution autour du Soleil : « Le mouvement de la Terre
seule suffit donc à expliquer un nombre considérable d'irrégularités
apparentes dans le ciel » (Commentariolus), dont le mouvement rétrograde
des planètes, pour lequel Ptolémée avait introduit ses épicycles.
- Explique également la corrélation entre la distance des planètes par
rapport au soleil et leur période de révolution.
64
Système héliocentrique de Copernic.
Image extraite de son ouvrage De revolutionibus Orbium Coelestium.
- Avantages comparatifs de l’héliocentrisme. Il rétablit l’ordre et l’harmonie
dans le cosmos (cf. les « themata » de Gerald Holton). Modèle plus simple,
plus explicatif, moins saturé d’hypothèses auxiliaires. Permet aussi d’estimer
les distances de chaque planète par rapport au soleil, mesure indispensable
pour que puisse être calculée leur trajectoire et par suite établie par Kepler
les lois de leurs mouvements ; lois à l’appui desquelles Newton élaborera sa
théorie de l’attraction universelle.
- Simplicité à relativiser. Les cercles excentriques et épicycles du système
ptoléméen rendent celui-ci éminemment complexe. Le système de
Copernic se limite à six cercles, auxquels s’ajoute celui de l’orbite lunaire.
- Un schéma idéalisé qui élude en réalité la multitude de petits épicycles et
d'excentriques que Copernic fut obligé d’inclure dans son système pour
65
rendre compte des accélérations et des ralentissements de chaque planète
sur son parcours, et ainsi concilier le principe d’uniformité des mouvements
célestes avec l’observation, une fois rejeté l'équant de Ptolémée. D’où il
ressort que le surcroît comparatif de simplicité attribué au système de
Copernic est loin d’être patent. Tout au plus pouvons-nous admettre que les
épicycles de Copernic sont d’une ampleur moins importante que ceux de
Ptolémée, et moins indispensables pour décrire approximativement les
trajectoires des planètes.
- Modernité également à relativiser. Car maintien de la thèse des sphères
solides posée par Aristote, pourtant abandonnée par Ptolémée, ainsi que de
la sphère des (étoiles) fixes aux confins du cosmos, le séparant de l’empyrée.
- L’hommage aux devanciers. Autre raison de relativiser la rupture
introduite par le modèle héliocentrique. Héliocentrique, Aristarque de
Samos faisait profession de l’être depuis le IIIe siècle avant notre ère, selon
les témoignages de Plutarque et d’Archimède. L’auteur ne se cache pas de
ces inspirations antiques ; et c’est chez les Anciens qu’il dit expressément,
dans le manuscrit de son œuvre posthume, avoir trouvé les principes
architectoniques de son système : « C'est pourquoi je pris la peine de lire les
livres de tous les philosophes que je pus obtenir, pour rechercher si
quelqu'un d'eux n'avait jamais pensé que les mouvements des sphères du
monde soient autres que ne l'admettent ceux qui enseignèrent les
mathématiques dans les écoles. Et je trouvai d'abord chez Cicéron que
Nicétus pensait que la Terre se mouvait. Plus tard je retrouvai aussi chez
Plutarque que quelques autres ont également eu cette opinion » (De
Revolutionibus orbium coelestium). Ce « quelques autres » désigne, entre
autres, Héraclide du Pont, platonicien du IVe siècle avant J.-C., Philolaos le
pythagoricien, d’après lequel la Terre et le soleil tournait autour d’un feu
central (Hestia) et Ecphantus, un autre pythagoricien, proclamant la
rotation de l’orbe terraqué. « Partant de là, reprend Copernic, j'ai
commencé, moi aussi, à penser à la mobilité de la Terre ».
- Cette reconnaissance n’en est pas moins partielle. Copernic ne va pas
jusqu’à rendre à César tout ce qui lui appartient. S’il attribue d’abord à
Aristarque comme à Philolaos l’idée de mobilité de la Terre, il ne laisse pas
de rayer la mention du premier de la version imprimée du De
Revolutionibus – lors même qu’il fut en sus le concepteur d’un système
héliocentrique. Il ne dit rien du fait qu’outre la rotation de la Terre sur elle66
même, Héraclide postulait la révolution de Mercure et Vénus sur le plan de
l’écliptique.
- L’hommage aux contemporains. Une autre inspiration, cette fois-ci
pleinement assumée par Copernic, est celle de Martianus Capella et de «
quelques autres Latins », qui reprenaient le « système égyptien » déjà admis
par Héraclide et « estimèrent, en effet, que Vénus et Mercure tournent
autour du soleil, qui est au centre, et pour cette raison-là ne peuvent
s'éloigner de lui plus loin que ne le permettent les convexités de leurs orbes
». Si néanmoins dans le système égyptien, Vénus et Mercure tournent
autour du soleil, le soleil en revanche et les autres planètes tournent autour
de la Terre.
- Confirmation du modèle héliocentrique de Copernic  qui ne figurait dans
son ouvrage que sous le statut d’hypothèses  à la lumière des travaux de
Galilée. Lequel sera forcé d’abjurer ses convictions devant le tribunal
d’inquisition en 1632. Peut expliquer que Copernic ait différé la parution de
son œuvre jusqu’à l’année de sa mort.
- Feyerabend remarque que le système héliocentrique de Copernic a été
accepté en dépit des évidences immédiates et de l’observation. Bien qu’il
résolve un certain nombre d’apories du modèle précédent, il en recèle au
moins autant. Ce n’est donc pas sa valeur scientifique ou sa conformité aux
faits (qui sont déjà des constructions) qui a fait son succès.
- « Révolution copernicienne ». Effets dans les autres sphères de la
connaissance. Ex : la révolution (anti)copernicienne du criticisme kantien.
 Point sur la révolution copernicienne
Événement fondateur de la modernité, cette révolution vit s’accomplir la
transition entre le XVIe siècle et le XVIIe siècle de la vision classique d'un
monde clos, géocentrique, hérité de l’astronomie de Ptolémée et reposant
sur la physique aristotélicienne, à un univers infini – ou sans limites
connues –, héliocentrique, comme l’avait esquissé Nicolas Copernic dans
son ouvrage Sur la révolution des orbes célestes. Modèle derrière lequel se
sont rangés, pour l’amender chacun à leur manière, Bruno, Galilée, Kepler,
Descartes et Newton. Kuhn voit dans ce basculement de représentation
l’exemple emblématique d’un changement de paradigme (cf. La révolution
67
copernicienne, 1957) ; Structure des révolutions scientifiques, 1962). Freud
l’interprète comme une épiphanie traumatisante pour l’homme – et
combien plus pour l’humanisme qui mettait l’homme au centre de ses
préoccupations –, recevant la première de ces trois blessures narcissiques
(une quatrième pourrait être invoquée avec la mise au point de
l’intelligence artificielle). Toujours est-il qu’il donna prise à une «
controverse ptoléméo-copernicienne » au cours de laquelle se serait
exacerbée la résistance du monde ancien à l’émergence d’une nouvelle
forme de pensée, dépositaire de ses valeurs propres et de ses propres critères
de vérité scientifique. Ce qui en fait un morceau de choix aux yeux des
historiens des sciences.
Les cosmos pré-coperniciens
La connaissance de la rotondité de la Terre remonte à la plus haute
Antiquité. On pourrait évoquer, pour en rester à la jurisprudence
européenne, les noms de Parménide, de Platon et d’Aristote. Ératosthène (c.
-276-c. 194 avant J.-C.) avait déjà fourni de la circonférence terrestre une
mesure approchée, relativement correcte pour les moyens de l’époque.
Selon l’auteur de la Souda, il se laissa mourir d’inanition après avoir perdu
la vue, désespéré de ne plus pouvoir noyer ses yeux dans les étoiles ; ce qui
est assez dire l’importance (pratique et théorique) que tenait l’astronomie
dans la vie de l’époque. Nombreux restaient toutefois les astronomes à
disposer la Terre au centre du cosmos. Aristarque de Samos (310-230 avant
J.-C.) fit figure d’exception, si l’on en croit L’Arénaire d’Archimède : « Vous
n'êtes pas sans savoir que par l'Univers, la plupart des Astronomes signifient
une sphère ayant son centre au centre de la Terre […] toutefois, Aristarque
de Samos a publié des écrits sur les hypothèses astronomiques. Les
présuppositions qu'on trouve dans ses écrits suggèrent un univers beaucoup
plus grand que celui mentionné plus haut. Il commence en fait avec
l'hypothèse que les étoiles fixes et le Soleil sont immobiles. Quant à la
Terre, elle se déplace autour du Soleil sur la circonférence d'un cercle ayant
son centre dans le Soleil » (Préface de L’Arénaire, c. 280 avant J.-C.).
Que la Terre fût de forme sphérique, nul clerc ou érudit en Occident latin
ne pouvait en douter sous le haut Moyen Âge ; plus en tout cas depuis la
68
traduction du Timée de Platon, où était affirmée que le démiurge avait élu
la forme la plus parfaite pour dessiner le corps du monde. Al-Farghani
(Alfergani), astronome perse du IXe siècle, n’aurait de cesse que de
corroborer cette conception du monde. Décisive en ce sens fut au XIIe
siècle la transmission de ces textes par les savants arabes, suivis de la
traduction de l’Almageste de Claude Ptolémée, fondé sur les travaux
d’Hipparque. Restait encore à écarter les objections liées à la navigation. Il
faut ici citer l’influence décisive de l’explorateur Jean de Mandeville, auteur
d’un Livre des merveilles du monde qu’il rédigea sur la base de récits de
missionnaires franciscains et dominicains et de son expérience (prétendue)
de 34 ans (de 1322 à 1356) d’expéditions à travers l’Inde, l’Égypte, l’Asie
centrale et la Chine.
Au cardinal français Pierre d'Ailly, on doit près de deux-cent ouvrages dont
l'Imago mundi, rédigé en 1410, paru en 1478, qui détaille une cosmographie
géocentrée. Christophe Colomb en possédait un exemplaire, peut-être à
l’origine de sa conviction qu’il pourrait découvrir une nouvelle voie
maritime en direction des Indes. Colomb s’appuyait également sur les récits
de voyages de Marco Polo, rapportés dans son Devisement du monde
(1298), ainsi que sur le précédent de Vasco de Gama. La théorie le cède à la
pratique avec cette nouvelle génération d’explorateurs entrepreneurs qui
accompagne le développement des relations commerciales entre les
continents. Le décloisonnement du monde des astronomes semble
contemporain, et même corrélatif à l’extension de la géographie terrestre.
Ce ne serait pas pourtant à un navigateur que l’on devrait la première
représentation alternative au monde fermé de la scolastique
aristotélicienne. Le célèbre traité de Nicolas Cues (1401-1464), la Docte
ignorance, parait en 1440. Koyré y trouve en germe l’ensemble des postulats
qui seraient développés par les penseurs de la science moderne : mobilité de
la Terre qui ne repose pas au centre du cosmos, univers sans limite.
L’époque n’était pas prête à admettre ces vues et n’en relevait peut-être pas
encore la pertinence. Seul Giordano Bruno s’intéressa de près à l’œuvre du
Cusain… à ses risques et périls.
Le contexte qui voit s’accomplir dès le milieu du XVIe siècle la révolution
astronomique préfigurée par Copernic est donc profondément marqué par
69
une cosmologie issue de la synthèse entre le Traité du ciel du Stagirite et
l'Almageste de Ptolémée, le tout interprété dons une optique thomiste en
vue de s’articuler à la révélation chrétienne. Avec la scolastique, encore
puissante à cette époque, n’avait effectivement cessé de se consolider une
conception du monde fondée sur la cosmologie de Ptolémée, elle-même
calquée sur la physique aristotélicienne. L’Église avait assimilé un certain
nombre de principes issus de la philosophie naturelle antique pour les
adjoindre à son corps doctrinal. Pareille cosmologie faisait valoir une
division de l’univers en deux régions. L’une, sublunaire, déclinait un
feuilletage de quatre strates élémentaires : la terre, au centre, était baignée
par l’air, recouvert par les eaux ; venait enfin le feu. L’autre, au-delà des
éléments, formait un espace éthéré, cristallin : l’espace supralunaire. Cette
région éthérée et préservée de la corruption se divisait en neuf sphères ou
orbes emboîtées, solides, soutenant les planètes. Plus au-delà encore se
situait l'empyrée, séjour des bienheureux. Le fait étant que si de l’empyrée
l’on ne pouvait rien voir ; s’il n’y avait de régulier, d’incorruptible et
d’accessible à nos observations que la région supralunaire de l’univers, elle
seule pouvait alors être objet de calcul, elle seule se laissait approcher par le
médium des formes géométriques et des rapports mathématiques.
Le monde supralunaire, espace des étoiles fixes et des objets célestes, nous
est ainsi décrit aux antipodes de celui qu’il domine. Parachevé, parfait, lui
seul peut à la fois prétendre à la rigueur et à l’exactitude de la
mathématique. Cette perfection de la région supralunaire se répercute
comme une figure fractale sur chacun des objets qui la remplissent : les
entités célestes, d’une forme parfaitement sphérique, évoluent dans le ciel
en traçant des figures parfaites – des cercles – ; ils évoluent en épousant des
cycles inaltérables et récurrents, mus par leur « mouvement naturel » et à
l’imitation du premier moteur. Finis au sens d’achevés, ils sont déterminés,
déterminables, soustraits à la génération et à la corruption. Les phénomènes
célestes sont ainsi, contrairement aux phénomènes terrestres, idéalement
conçus pour s’adapter à l’expression et au calcul mathématique. Il y a, d’une
région l’autre du cosmos, un deux poids deux mesures. L’une des
contributions majeures de Galilée fut d’avoir fait un sort à cette dissymétrie.
70
Les grandes étapes de la révolution
Révolution intellectuelle, instrumentale et expérimentale.
Voir notices : Nicolas Copernic, Giordano Bruno, Galileo Galilei, Johannes
Kepler, Isaac Newton, René Descartes.
L’affranchissement de la scolastique
Pas plus que la philosophie n’était distincte de la science, l’astronomie de la
fin de la Renaissance n’était à dissocier de la théologie. C’est donc d’abord
de sa férule que devront s’affranchir les physiciens modernes. Cette prise
d’autonomie au regard de la scolastique thomiste ne relève pas que du
contenu ; elle concerne en première instance la forme. La science et la
littérature militent dans le même sens. Les pionniers de la science moderne
que sont Galilée, Kepler, Descartes, Paré, Fontenelle, se font fort d’écrire en
langue vernaculaire (vulgaire) et non plus en latin. Ils tentent ainsi de
s’émanciper des cercles incestueux de l’Université, d’« embrigader » le grand
public.
Cet aspect culturel de la controverse ptoléméo-galiléenne passe trop
souvent inaperçu des manuels de physique, qui n’ont d’égard que pour ses
moments forts ou rationnels. Il est certain que le divorce d’avec l’Église
prend sa tournure la plus spectaculaire avec la condamnation à mort de
Bruno et le procès de Galilée. Théologiens d’une part et physiciens de
l’autre s’opposent alors sur la question de l’interprétation des Écritures et
des passages cosmologiques que renferme la Bible. Les physiciens se
heurtent à des obstacles qu’ils ne peuvent négliger, sous peine de voir leur
production dramatiquement interrompue. Tout en se voulant conciliant à
l’endroit de l’Église et en se défendant d’en ébranler les dogmes, ils plaident
pour une autonomisation de leur pratique. Cette véritable guerre
d’indépendance inspira le combat de d’Alembert pour une séparation de
l'Église et de la science (cf. Encyclopédie). Les Écritures, plaide-t-il, ne
doivent pas être appréhendées littéralement.
Pascal n’ignore pas le danger qu’il peut y avoir à lire la Bible comme un
71
traité de physique. Non seulement pour la science, mais surtout pour
l’Église, dès lors que son discours l’expose à la réfutation. C’est en effet pour
une grande part du fait de la composante aristotélicienne, incorporée via
saint Thomas d’Aquin à la théologie chrétienne, que s’est amorcé le déclin
de l’emprise de l’Église. Conciliation épithéliale, qui laissait sans réponse un
certain nombre de contradictions. Se voir réfuter par l’expérience était une
chose moins grave que de l’être par soi-même. La scolastique dérogeait
ostensiblement à l’acception de la vérité comme concordance avec les faits
ainsi qu’au critérium de cohérence interne. C’est donc autant pour la survie
de la théologie (résolue à ne plus se mêler de physique, ainsi que le lézard
laisse derrière lui sa queue par instinct de survie) qu’en la faveur de la
nouvelle physique (laissant à d’autres les questions métaphysiques) que la
révolution copernicienne a consacré le principe d'autonomie de la science.
Il est loin d’être acquis que ce soit la seconde qui en ait tiré le plus grand
bénéfice.
Vers une nouvelle révolution copernicienne ?
La formation d’une nouvelle conception du monde démettant l’homme du
centre du cosmos pour s’ouvrir aux immensités d’un univers sans fin traduit
un processus que les insuffisances des anciennes conceptions du monde
rendaient inévitable. L’humanité, écrivait Marx, ne se pose que des
problèmes qu’elle peut résoudre. Ses sources furent multiples, hétéroclites
et ses répercussions inter- ou plutôt trans-disciplinaires.
L’expression de « révolution copernicienne » a fait époque. Au point qu’il
n’est pas rare de l’entendre employer dans des contextes très différents de
l’astronomie. Tout changement de perspective au sein d’une discipline
donnée se laisse analyser comme une « révolution copernicienne ». À tout le
moins est-ce en ces termes que les instigateurs des sciences modernes
aiment à les présenter. Kant fit jurisprudence en qualifiant ainsi le
criticisme (Critique de la raison pure), au prix d’un contresens peu relevé
par ses commentateurs. C’est en effet pour Kant la subjectivité qui se trouve
rétablie au centre de la connaissance, en lieu et place de l’objet l’expérience
; renversement exactement contraire à celui opéré par Galilée, pour qui le
monde cesse de tourner autour de l’homme. « Révolution copernicienne »
72
encore que celle qui préside à la succession des paradigmes chez Kuhn. «
Révolution copernicienne », celle de la génétique du XXIe siècle. JeanJacques Kupiec et Pierre Sonigo, dans leur essai Ni Dieu, ni gène (2003)
soutiennent que leur discipline est encore prisonnière des cadres de pensée
aristotélicien. Un cadre qui a vécu, de l’avis des deux auteurs ; et ce qui s’est
accompli dans le domaine de la physique serait sur le point de se reproduire
dans le champ de la biologie.
Mais c’est peut-être à nouveau vers l’astrophysique qu’il faut porter notre
attention pour guetter la venue d’une nouvelle révolution copernicienne,
vouée à surmonter les défaillances de nos actuels modèles :
(1) La force de gravitation découverte par Newton n’est jamais que l’une des
quatre interactions fondamentales de la nature, à côté de l’interaction
(nucléaire) faible, de l’interaction (nucléaire) forte et de
l’électromagnétisme. Si les Grandes théories de l’unification (GUT) de la
physique théorique contemporaine parviennent (difficilement) à unifier ces
trois dernières en recourant à une même constante, elles se trouvent
incapables d’envelopper la première. S’ensuit l’impossibilité de concilier les
lois de la physique relativiste avec celle de la physique des particules. À la
dissociation aristotélicienne entre les lieux supra- et sublunaire résorbés par
Newton succède une nouvelle fracture entre les théories de l’infiniment
petit et de l’infiniment grand. La recherche d’une théorie quantique de la
gravitation, d’une « théorie du tout », est plus que jamais d’actualité.
(2) La physique née de la révolution copernicienne admettait la réversibilité
des phénomènes physiques ; ce que récuse en particulier le deuxième
principe de la thermodynamique mise à jour par Carnot. Elle supposait un
espace absolu que met en cause la relativité restreinte (1905) et générale
(1915) d’Einstein. Elle impliquait un paradigme mécaniste fondé sur les
propriétés d’un seul type de matière, quand la recherche astrophysique
actuelle se confronte à l’énigme de la matière noire et de l’énergie sombre,
de nature inconnue, constituant ensemble plus de 95 % de la densité totale
de l’univers observable. Le principe de causalité – postulant l’antériorité de
l’effet sur la cause – sur lequel reposait tout l’édifice de la mécanique
classique est enfin contredit par certaines interprétations de la physique
73
quantique, laquelle conteste aussi jusqu’à la pertinence des notions d’espace
et de temps (non-localité, intrication quantique, etc.). Cf. : Point sur la
physique quantique.
(3) De nouvelles représentations cosmologiques ont émergé à la faveur du
développement de la radioastronomie. Des représentations à la lumière
desquels la « blessure narcissique » de la révolution copernicienne ne
s’apparente à une égratignure. L’héliocentrisme a fait son temps. Le soleil
non plus que la Terre n’est immobile au cœur de l’univers. Il se situe dans
une région périphérique de la Voie lactée, système constitué de 200 à 400
milliards d’étoiles (et donc de systèmes solaires). Une galaxie en rotation
autour de son bulbe central, abritant un trou noir supermassif du nom de
Sagittarius A*. Ce changement de référentiel astronomique pourrait déjà
être considéré comme une nouvelle révolution copernicienne. Elle doit
s’accommoder de milliers d’autres galaxies réunies en amas et en superamas
de galaxies ; voire d’autres univers semblables aux nôtres, en parallèle ou en
amont ou en aval du nôtre ; et d’autres univers répondant d’autres lois,
d’autres constantes qui, pour rester toujours hors de portée de l’observation
(deux univers reliés ne serait pas deux univers), peuvent être impliqués par
la théorie.
Leda Cosmides (1985-20XX)
Principales contributions :
- The Adapted Mind. Evolutionary psychology and the generation of
culture (avec Jerome H. Barkow et John Tooby) (1992)
- Evolutionary psychology. Foundational papers (avec John Tooby) (2000)
- Universal Minds. Explaining the new science of evolutionary psychology
(avec John Tooby) (2009)
Concepts et idées-forces :
- Psychologie évolutionniste (« évopsy »). Fondements jetés avec
l’anthropologue John Tooby au cours des années 1980.
- Méthode consiste à rapporter des comportements, des attitudes, des
facultés, des phénomènes universellement observables dans les cultures
74
actuelles à des contraintes prégnantes chez nos ancêtres chasseurscueilleurs. Comprendre chaque trait humain (reconnaissance des visages
innée, disposition au langage, comportements sexuels, etc.) à la lueur de sa
putative valeur adaptative ; comprendre en quoi elle fut utile du point de
vue de la survie et de la reproduction de l’espèce dans la période où ces
comportements se sont coagulés (EEA pour « environnement de l’évolution
adaptative »), il y a de cela 1,8 millions d’années à 10 000 ans.
- À la différence de la sociobiologie d’Edward O. Wilson, la psychologie
évolutionniste intègre les facteurs culturels et les effets complexes de la
coévolution entre les gènes et les sociétés, l’organisation politique, et prend
acte des décrochages autorisés par la pensée qui permet à l’individu de
calculer ses avantages à long terme. Quelle conduite est la plus favorable
compte tenu du contexte ?
- Entreprise poursuivie par Donald Symons qui, en 1979, explique les
différences de comportements sexuels par leur pertinence adaptative au
regard de la reproduction : des hommes infidèles et des femmes sélectives
(reproduction plus coûteuse). Dans le même registre, avantage est donné
par David Buss en 1999 à l’établissement de ménages stable (quel que soit le
type d’association), qui aurait favorisé le sentiment d’amour conjugal et le
besoin de stabilité.
- Intérêt pour les fonctions supérieures du cerveau, le néocortex au-delà des
émotions du cerveau mammalien, siège des émotions en fait une
dialectique ; dichotomie à relativiser : il n’y a pas « trois cerveaux »
indépendants ». Emprunte à la psychologie cognitive pour comprendre la
raison de l’émergence des représentations, de la mémoire, du raisonnement,
de la conscience réflexive.
- Ainsi pour le langage, qui dériverait selon Robin Dumbar, d’une tentative
de l’individu pour entretenir des liens d’empathie avec ses confrères.
Activité d’essence sociale, qui désamorce les conflits (cf. son empêchement
dans le mythe de Caïn et Abel); également perceptible chez le singe à
travers l’épouillage. Il est aussi, selon Terrence Deacon, la condition de
l’engagement mutuel et de la confiance et rend possible chez l’humain une
forme plus étroite et plus sophistiqué d’association.
- Les échecs et les aberrations intellectuelles imputables aux biais de
raisonnement trouvent aussi leur explication en termes d’adaptation. Ils
seraient le vestige de la prudence judicieuse ayant sauvé notre ancêtre
75
chasseur craignant de s’aventurer en terrain inconnu, là où ses congénères
n’en seraient jamais revenus.
- Quant à la liberté de choix, au libre arbitre, à la capacité à nous «
reprogrammer » sans cesse, elle pourrait avoir été favorisée en tant qu’elle
permettait de répondre de manière rapide et adéquate aux brusques
variations de l’environnement. Telle est du moins la thèse soutenue par
Daniel Dennet, avec ses prolongements qui voudraient faire du rêve
l’occasion d’une simulation de danger en vue d’élaborer des stratégies de
survie.
- Une extension du paradigme depuis 1995 avec l’éthique évolutionniste,
discipline à l’intersection de la biologie, de la psychologie et de la
philosophie. Les conduites en apparence morales telles que l’altruisme, a
priori défavorables à l’individu, peuvent recevoir une explication qui ne
fasse pas appel à une raison désintéressée (Kant) ou à une spécificité
humaine.
- Impératifs moraux et normes sociales ne font que donner une forme
objective à un dégoût viscéral qui nous saisit face à des actes transgressifs
commis ou subis par soi ou par autrui. Selon Randolphe Nesse et Barbara
Frederickson, le sens moral plonge ses racines dans la nécessité d’une
coopération dans une multiplicité de domaines entre individus nonapparentés. De là les « intuitions morales » (Nicolas Baumard). Est moral ce
qui est mutuellement profitable ; la meilleure stratégie consiste à respecter
ces normes et tabous.
- On note que la plupart des partisans de la psychologie évolutionniste sont
anglo-saxons, et que les théories qu’elle avance restent extrêmement
critiquées en France. Elles pâtissent d’un accueil académique glacé, en
particulier de la part des sciences humaines.
- Limites de l’évopsy. Les principaux motifs de cette défiance tiennent à sa
dimension spéculative. Françoise Parrot, première à avoir retraduit en
français un manuel de la discipline (L. Workman, W. Reader, Psychologie
évolutionniste. Une introduction, 2007) pointe les faiblesses d’un procédé
reposant davantage sur des préjugés et des fabrications rétrospectives que
sur une base observationnelle : « Les biologistes ont des fossiles, les
psychologues n’en ont pas. Nous ne savons presque rien du cerveau et des
conduites de nos ancêtres. Donc nous ne pouvons pas en tirer l’explication
de ce qui existe. La psychologie évolutionniste est très spéculative. Rien
76
n’interdit de naturaliser les sciences de l’esprit, mais cette manière-là n’est
pas la bonne ».
- Le second obstacle est d’ordre intellectuel. L’évopsy, comme son nom
l’indique, transgresse la frontière établie en France entre sciences humaines
et sciences naturelles. Une pensée cartésienne dualiste encore
profondément ancrée dans l’esprit de la recherche. D’où un rejet de
principe que regrette Jean Gayon, historien de la biologie et, à sa suite,
Michel Raymond dans le domaine de l’éthologie. L’avenir seul dira si
l’évopsy est véritablement une science féconde ou une impasse de la même
espèce que la phrénologie.
Louis Couturat (1868-1914)
Principales contributions :
- De l'Infini mathématique (1896)
- Les principes des mathématiques (1905)
- L'Algèbre de la logique (1905)
Concepts et idées-forces :
- Tenant du logicisme (avec Russel et Wittgenstein) : programme œuvrant à
réduire les mathématiques à la logique. Opposition frontale à
l'intuitionnisme de Poincaré.
- « Une seule logique ». Désavoué par le développement des logiques
plurivalentes, modales, temporelles, binaires, etc. à compter des années
1940.
Alistair C. Crombie (1915-1996)
Principales contributions :
- Robert Grosstête et l’origine de la science expérimentale. 1100-1700
(1953)
- Science, musique et optique dans la pensée moderne et médiévale (1990)
- Style et traditions de la science occidentale (1995)
Concepts et idées-forces :
- Style de pensée ou style de raisonnement. Notion élaborée dans le
contexte de la controverse des philosophes des sciences autour des
77
implications de la révolution copernico-galiléenne. Au point d’intersection
de l’histoire des mentalités et de l’analyse linguistique, il met en évidence le
cadre normatif et méthodologique ainsi que la forme de langage qui soustend une époque de la pensée scientifique.
- Six styles de raisonnement élémentaires répertoriés : (1) la postulation et
la déduction dans les sciences mathématiques ; (2) l’exploration
expérimentale ; (3) la construction hypothétique de modèles par analogie ;
(4) l’ordonnance de la variété par comparaison et taxinomie ; (5) l’analyse
statistique de régularité de population et (6) la dérivation historique du
développement génétique.
- Concept réinvesti par Geoffrey E.R. Lloyd et par Ian hacking dans les
années 1990 en direction de la praxis, aspect de la production scientifique
complémentaire de la theoria impliquée par les styles de raisonnement. Aux
outils conceptuels s’associent de nouvelles techniques d’exploration du
monde. L’étude des mutations de sa base matérielle sont aussi nécessaires
que celle de sa superstructure pour comprendre l’évolution des sciences.
Georges Cuvier (1769-1832)
Principales contributions :
- Tableau élémentaire de l'histoire naturelle des animaux (1798)
- Leçons d'anatomie comparée (1800-1805)
- Histoire des sciences naturelles depuis leur origine jusqu'à nos jours (18411845)
Concepts et idées-forces :
- Professeur au British Museum, il est le fondateur de la paléontologie, dont
l’appellation fut introduite par Henri Ducrotay de Blainville en 1922.
Discipline appelée à servir de matière première à la théorie de l’évolution,
en tant qu’elle exhume les fossiles des espèces disparues, permet
d’extrapoler la physionomie des espèces modifiées à la faveur de la sélection
et de reconstituer les processus de transformation graduelle ayant eu lieu
depuis l’origine. Permet de jeter des ponts entre des espèces apparemment
distinctes et de postuler une ascendance commune.
- Auteur d’une théorie catastrophiste. Cuvier ne conçoit pas l’existence des
fossiles comme une preuve de la théorie de l’évolution ou de la
78
transformation des espèces (contra Lamarck, zoologiste et Geoffroy SaintHilaire, embryologiste). Loin d’indiquer une parenté entre espèces, ils
seraient le témoignage de catastrophes passées ayant anéanti des
écosystèmes entiers. Le déluge – mythème universel – en serait un récit.
- Cette controverse démontre que les faits sont toujours susceptibles d’une
multiplicité d’interprétations. Les mêmes objets peuvent donc étayer aussi
bien le fixisme créationniste que l’évolutionnisme matérialiste ; tant et si
bien, relève le zoologiste français Yves M. Delage (1854-1920) dans son
Traité sur L’Hérédité et les grands problèmes de la biologie générale (1903),
« qu’on est ou pas transformiste, non pour des raisons tirées de l’histoire
naturelle, mais en raison de ses opinions philosophiques ».
- Critique de l’évolutionnisme de Lamarck, il contribue au raffinement de
ses théories, de la même manière que les hérésies du christianisme des
premiers siècles ont contribué par réaction, à l’élaboration du dogme.
- Promoteur de l’anatomie comparée. Introduit le modèle des
embranchements, appelé à se substituer au concept de « masses » envisagé
par Lamarck. Classification déclinant vertébrés, mollusques, annelés et
rayonnés.
- Conception dynamique de la construction et du fonctionnement du
vivant.
- Loi des corrélations. Un animal doté de sabots doit posséder des cornes,
mais également des dents afin de broyer les végétaux, un de système
digestif. Il doit avoir ses yeux disposés sur la face latérale de son crâne afin
d’étendre son champ visuel et de prévenir les attaques des prédateurs.
Charles Darwin (1809-1882)
Principales contributions :
- De l'origine des espèces (1859)
- La Filiation de l'homme et la sélection liée au sexe (1871)
- L'Expression des émotions chez l'homme et les animaux (1872)
Concepts et idées-forces :
- Théorie de la sélection naturelle. Propose un mécanisme matérialiste non
directif pour expliquer la transformation et la diversification adaptative des
espèces à leur environnement. Élaborée au cours de son voyage sur le
79
Beagle de 1831 à 1836 (cf. l’épisode canonique de la comparaison des
espèces de pinsons installés dans les différentes îles de l’archipel des
Galapagos), inspiré par les travaux de son grand-père Erasmus Darwin et
des pratiques de sélection artificielle en usage dans l’agriculture et dans
l’élevage, la théorie n’est publiée qu’en 1859, avec la parution du traité De
l’origine des espèces.
- Le terme même d’« évolution » n’apparaît qu’à compter de la sixième et
dernière édition de l’ouvrage. Son sens moderne en biologie lui est donné
par Charles Lyell aux alentours de 1832.
- Rompant d’avec le transformisme de Lamarck et le fixisme catastrophiste
de Cuvier, Darwin précise que les micro-variations ne sont pas orientées
dans leur procès d’apparition ; elles procèdent d’une « loterie » dont le fin
mot ne sera donné qu’avec les lois de l’hérédité de Mendel et le constat des
mutations de l’ADN (théorie synthétique de l’évolution). C’est là ce qui
s’exprimera chez Canguilhem en termes de « labilité », de « normativité »,
d’« erreur vitale innée » et qui prendra chez Jacques Monod la forme
dialectique du « hasard » sanctionné par la « nécessité » de la sélection (Le
Hasard et la Nécessité), principe explicatif du dynamisme de la vie et de ses
formes observables.
- Ces variations sont ensuite retenues (ou, le cas échéant, rejetées) au
prorata de leurs avantages compétitifs et de leur valeur adaptative,
relativement à un milieu donné, en raison de la plus grande disposition de
l’individu porteur à la reproduction : « Ce qui caractérise donc la théorie de
l’évolution, écrit François Jacob, c’est la manière d’envisager l’émergence
des êtres vivants et leur aptitude à vivre ou à s’adapter au monde qui les
entoure. Pour Lamarck, quand se formait un être nouveau, sa place était
déjà marquée dans la chaîne ascendante des êtres. Il devait par avance
représenter une amélioration, un progrès sur tout ce qui avait déjà existé
jusque-là. La direction, sinon l’intention, précédait la réalisation. Avec
Darwin, l’ordre relatif entre l’apparition d’un être et son adaptation est
inversé. La nature ne fait que favoriser ce qui existe déjà. La réalisation
précède tout jugement de valeur sur la qualité de ce qui est réalisé.
N’importe quelle modification peut naître de la reproduction. N’importe
quelle variation peut apparaître, qu’elle représente une amélioration ou une
dégradation par rapport à ce qui était déjà. Il n’y a aucun manichéisme dans
la manière utilisée par la nature pour inventer des nouveautés, aucune idée
80
de progrès ou de régression, de bien ou de mal, de mieux ou de pire. La
variation se fait au hasard, c’est-à-dire en l’absence de toute relation entre la
cause et le résultat. C’est seulement après son émergence que l’être nouveau
se trouve confronté aux conditions d’existence. C’est seulement une fois
vivants que les candidats à la reproduction sont mis à l’épreuve » (La
Logique du vivant). On note ainsi deux principaux ajournements à la
théorie de l’évolution selon Lamarck : le hasard et la sélection naturelle.
- Darwin admet, tout comme Lamarck, et l’hérédité des caractères acquis.
Thèse réfutée par le biologiste Auguste Weismann dans les années 1880 et
1990, qui démontre l’indépendance des cellules germinales et somatiques.
Semble néanmoins présenter une relative pertinence sur le terrain de
l’épigénétique.
- La « survie des plus aptes », expression de Malthus reprise par Darwin, ne
signifie pas celle des plus fort ni même des plus intelligents ; et rien ne
prouve que les êtres humains l’emporteront à terme sur les virus. La théorie
de l’évolution ne décrit qu’un mécanisme et ne permet pas de prédire ce
qu’il en sera à l’avenir.
- C’est par ailleurs son incapacité faire des prédictions, son exemption au
critère Poppérien de réfutabilité ainsi que le fait qu’elle traite de
phénomènes uniques et non reproductibles à l’instar des sciences
historiques qui la rend vulnérable à la critique des scientifiques sceptiques
et des créationnistes dogmatiques. Le darwinisme peut-il être considéré
comme une science de la nature ? Comme une science proprement dite ?
- La théorie est complétée vers le début du XXe siècle grâce aux apports de
la génétique (mutation, recombinaison, etc.), de la génétique des
populations et la redécouverte des lois de Mendel. Consacre l’articulation
des mécanismes de la sélection avec les mécanismes de l’hérédité.
- Cet aggiornamento qui donne naissance à la théorie dite « synthétique » de
l’évolution fait de la variabilité le ressort caché du devenir des espèces. Elle
aboutit au néodarwinisme.
- Le darwinisme était déjà une synthèse d’une multiplicité de travaux
antérieurs, que Darwin ne cite pas toujours. Étienne Geoffroy Saint-Hilaire
soutenait également une théorie de la transformation supposée expliquer
l’apparition de nouvelles espèces. Lamarck, du reste, propose sa théorie
transformiste de l’évolution dans sa Philosophie zoologique, ouvrage paru
en 1809, l’année de la naissance de Darwin. On sait par les carnets de
81
l’auteur que ce dernier disposait lors de son voyage sur le Beagle d’un
exemplaire des Principes de géologie de Charles Lyell (1797-1875),
considéré comme le fondateur de la géologie moderne, qui intégrait un
exposé critique de cette théorie. L’économiste anglais Thomas Robert
Malthus, auteur en 1798 de l’Essai sur le principe de population souffle à
Darwin, de retour de son voyage, l’idée de « lutte pour l’existence » dans le
cadre d’un écosystème limité où la quantité de ressources disponible
s’accroît de manière continue quand la démographie s’accroît de manière
exponentielle. Cette notion chez Darwin recouvre « la doctrine de Malthus
appliquée à tout le règne végétal et à tout le règne animal » ( L’Origine des
espèces). Sans rien ôter à l’importance des observations faites par l’auteur, la
théorie de Darwin, comme la plupart des grands modèles scientifiques,
s’avère un montage théorique à l’intersection de nombreuses influences
intellectuelles astucieusement réorganisées dans un cadre inédit.
- Inédit, mais non pas tout à fait original. La parution, en 1859, de la Bible
de l’évolutionnisme fut précipitée en raison de la théorisation simultanée de
l’évolutionnisme au moyen de la sélection naturelle par Alfred R. Wallace,
moins d’une année auparavant. Rappelle les controverses sur la paternité
des théories (Leibniz vs. Newton, Pascal vs. Descartes, etc.) ; comme s’il y
avait une « atmosphère » de découverte longuement préparée qui
n’attendait que des catalyseurs. C’est ainsi que P.J. Bowler explique le
ralliement rapide de nombreux savants à une révolution scientifique
imminente.
- Idée de transformation graduelle, de développement, d’évolution, de
changement continu se retrouvant dans l’Europe du début du XIXe siècle à
travers d’autres disciplines. Ainsi, Hegel et Comte l’appliquent aux sociétés
et à l’esprit humain ou à l’histoire en général. Johann J. Bachofen et Lewis
H. Morgan l’adaptent à l’anthropologie naissante. Spencer tente d’unifier les
volets biologiques, sociaux et cognitifs de l’évolutionnisme sous un commun
système philosophique, et c’est à cet auteur qu’en 1870 renvoie le terme d’«
évolutionnisme ». L’essor de la linguistique comparative permet enfin de
mettre à jour la généalogie des langues indo-européennes qui semblent
s’être diversifiées à partir d’une (ou plusieurs) souche communes (exception
faite des isolats).
- Un sens philosophique et des implications théologiques majeures.
Désamorce l’argument de la complexité irréductible ou de l’analogie de la
82
montre (« watchmaker analogy ») encore utilisé par certains partisans de
l’intelligent design, avancé par William Palley dans sa Théologie naturelle
(1803).
- C’est également un coup porté à l’idée de Providence, sous sa forme
religieuse comme sous sa forme laïque : le progrès. Le mécanisme de la
sélection récuse les causes finales. Perte de sens bien plus traumatisante que
l’idée accessoire d’avoir avec le singe un ancêtre commun (plutôt que de «
descendre du singe »), cette « blessure narcissique » diagnostiquée par
Freud. L’homme, désormais, subit l’évolution.
- Ce constat de passivité est néanmoins à relativiser dans la mesure où
l’homme est également un être qui produit son environnement, de plus en
plus capable de se modifier lui-même. Possibilité de reprendre le contrôle
grâce aux biotechnologies et à la convergence NBIC. Provolution et
transhumanisme. Cf. Ray Kurzveil.
- Thomas H. Huxley ouvre le ban et la boîte de Pandore en publiant trois
ans après la parution de l’œuvre de Darwin La place de l’homme dans
l’évolution (1863). Les crânes fossiles de néandertaliens passés au crible de
comparaisons anatomiques obligent à reconnaître que l’homme et le singe
ont un ancêtre commun. L’apogée de la polémique a lieu lors d’une réunion
à Oxford, en 1860, lorsque Huxley renvoie dans son clocher l’évêque
Samuel Wilberforce qui tentait de l’humilier en insultant ses grands-parents
(descendait-t-il du singe par son grand-père ou sa grand-mère ?). Réplique
apocryphe (cf. S.J. Gould, La foire aux dinosaures). Darwin ne s’empare du
sujet que douze ans après L’Origine des espèces, avec La Filiation de
l’homme : « L’homme est issu par filiation de quelque forme préexistante ».
Soutient la transformation et la diversification en races de l’espèce humaine.
Un écho moins retentissant en raison de l’émergence de l’anthropologie et
de la multiplicité des évolutionnismes.
- Large influence de l’évolutionnisme sur les autres disciplines, comme en
témoigne la transposition qu’en fait Herbert Spencer dans le domaine des
sciences sociales, Karl Popper dans celui de l’épistémologie et Richard
Dawkins sur le terrain de la génétique, puis des idées (la théorie des
« mèmes »). La linguistique n’est pas en reste. La médecine et la physiologie
bénéficient aussi de ce modèle : ainsi la différenciation et la spécialisation
des cellules tout comme la production des anticorps pourrait relever de ce
même mécanisme.
83
- Il n’est pas jusqu’à l’évolutionnisme de Darwin, jusqu’à ce que nous
nommons la « théorie de l’évolution » qui ne soit elle-même « évolutive » ; à
telle enseigne que de la même manière que Michel Henry, dans la foulée de
Marx, distinguait Marx et le marxisme (= « l’ensemble des contresens qui
ont été faits sur Marx), un spécialiste de la trempe Pierre Thuillier a pu se
demander si Darwin aurait été darwinien (Le darwinisme aujourd’hui). En
témoignent ces profonds remaniements à la lumière des savoirs ultérieurs et
des apports des autres disciplines (A. Prochiantz (dir.), Darwin : 200 ans).
Julian Sorel Huxley (1887-1975) avance une théorie synthétique de
l’évolution. Elle sera complétée par l’apport de la génétique moderne, de la
génétique des populations, de la zoologie et de la paléontologie pour aboutir
dans les années 1940 au néodarwinisme.
- L’irruption de la biologie moléculaire et de la théorie des jeux complique
encore la donne au cours des années 1960 qui voient l’apparition de
modèles dissidents : la « théorie neutraliste » de Motoo Kimura en
génétique, la théorie des « équilibres ponctués » de Niles Eldredge et de
Stephen Jay Gould en paléontologie (saltationnisme vs. gradualisme).
Débats sur les micro- et les macro-évolutions en biologie moléculaire.
Débat sur le rôle assigné au processus de sélection, relativisé à la lumière des
phénomènes de coopération, de symbiose, d’endosymbiose, etc.
- Interférence d’éléments politico-économiques expliquant l’insistance mise
sur tel ou tel aspect particulier de la théorie. Darwin rédige son maître-livre
au plus fort du capitalisme concurrentiel et individualiste anglais. L’accent
est mis sur le concept de « survie du plus apte » (empruntée à Herbert
Spencer ; cf. D. Becquemont, Dictionnaire du darwinisme et de l’évolution ),
devant être compris au sens de conservation de la lignée des spécimens
porteurs de caractéristiques leur conférant un avantage comparatif utile à la
reproduction. La logique de compétition prévaut sur toute autre matière et
considération. Théoricien du communisme libertaire, Pierre Kropotkine
propose sa propre théorie dans une étude intitulée L'Entraide, un facteur de
l'évolution (1901). La viabilité n’est plus celle des individus conçus à
l’exclusion du groupe-espèce, mais celle du groupe-espèce avantagé par
l’échange réciproque, la mutualisation des ressources, la solidarité de ses
membres. Tout se passe comme si nos deux naturalistes avaient
inconsciemment déduit leur théorie de l’évolution de l’environnement
social au sein duquel ils ont usé leur plume et leur intelligence ; comme s’ils
84
avaient chacun projeté dans la nature la donne économique et politique qui
structurait leur représentation du monde. Il en ressort qu’on ne peut
comprendre exhaustivement une théorie sans avoir préalablement
considéré qui parle et d’où. Tel sera le credo de la sociologie des sciences.
- Succès certain mais ambigu. La filiation de l’homme, publié dix ans après
L’Origine des espèces, rapporte les propos du naturaliste et médecin Carl
Vogt aux dires duquel « personne, en Europe du moins, n’ose plus soutenir
la création indépendante et de toutes pièces des espèces ». Unanimement
saluée, la théorie de Darwin faisant droit aux principes de l’évolution n’est
toutefois adoptée que sous réserve de l’abandon chez la plupart des hommes
de science européen de son pivot central : l’idée de sélection naturelle. En
témoigne le peu d’enthousiasme des plus fervents soutiens de l’auteur, Ernst
Heackel et Thomas H. Huxley (dit « le bouledogue de Darwin »). Darwin
lui-même au terme de sa vie se reproche d’avoir surestimé ce facteur.
- Diffusion de la théorie de l’évolution entre 1860 et 1900. Plusieurs
versions coexistent (lamarckisme, mutationnisme, orthogénisme,
néodarwinisme) ; celle de Darwin basée sur la sélection naturelle est alors
minoritaire.
- Aujourd’hui paradigme dominant, ayant radicalement changé notre vision
du monde vivant, la théorie de l’évolution acquiert une valeur de métathéorie qui semble subsumer un grand nombre d’autres disciplines
ressortissant aux sciences biologiques et humaines. Mais une multiplicité de
sous-modèles dont aucun ne s’impose comme dominant.
- Darwin fournit l’exemple d’un auteur extrêmement étudié, autant que sa
théorie. P.J. Bowler recours à l’expression d’« industrie darwinienne » pour
désigner la production de milliers de livres exégétiques ou biographiques
consacrés à Darwin (Darwin. L’homme et son influence, 1998). Un
phénomène de « darwinomania » comparable à la littérature périplatonicienne en philosophie. Il s’agit pour les philosophes des sciences et
l’épistémologue de mettre à jour les processus de découverte scientifique, de
comprendre comment germe une idée. Pluralité de facteurs. Dans une
perspective nietzschéenne, le psychiatre et psychanalyste John Bowlby a
ainsi consacré une étude biographique de plus de 500 pages à l’étude de sa
maladie chronique : Charles Darwin. Une nouvelle biographie (1995). Son
œuvre, austère, est néanmoins peu lue, même par les spécialistes de
l’évolution.
85
- Tentatives ultérieures pour faire de l’évolutionnisme la clé
d’interprétation des comportements humains :
(1) Comportements des sociétés avec l’eugénisme de Galton ou le
darwinisme social (/antisocial) de Spencer, triomphant au début du XXe
siècle. Puis rejet consécutif au traumatisme des camps d’extermination, en
particulier par les sciences humaines, hostiles à l’idée d’un déterminisme
biologique portant atteint à la liberté de l’esprit.
(2) Comportements individuels avec le projet de sociobiologie d’Édward
O. Wilson, qui interprète les conduites altruistes (de parentèle ou
réciproque) négligées par la théorie classique dans une perspective holiste,
l’individu se sacrifiant pour la survie du groupe. Modèle plus intégré des
sociétés humaines, bien que limité tantôt par le recours au paradigme
animal, tantôt par le tout-génétique.
(3) Depuis la fin des années 1980, relayée par la psychologie
évolutionniste (« évopsy »). Tentative de synthèse théorisée par la
psychologue Leda Cosmides et par l’anthropologue John Tooby. Cf. Leda
Cosmides.
- Créationnisme, néo-créationnisme et Dessein Intelligent en lutte féroce
contre le darwinisme. La théorie de l’évolution attaquée pour ses
manquements scientifiques dans certains États américains, qui voudraient
que soit enseignée (naguère avec l’appui du président Georges W. Bush)
comme une alternative égale à une lecture biblique plus ou moins réformée,
qui ne dit pas son nom. Donnera lieu aux différents « procès du singe » au
Tennessee, en Arkansas et dans le Kansas. Il est toutefois douteux que ces
alternatives soient plus réfutables et donc plus scientifiques (selon
l’acception popperienne) que le darwinisme ; ce que démontre par l’absurde
un étudiant de l’Oregon, Bobby Henderson, en proposant que soit aussi
dispensé un enseignement du « pastafarianisme » : doctrine faisant du
Créateur un plat de spaghettis géants en lévitation. Cf. Bobby Henderson.
Lorraine Daston (1951-20XX)
Principales contributions :
- Objectivité (avec Peter Galison) (2007)
- « The Disciplines of Attention », dans David E. Wellbery (ed.), A New
History of German Literature (2005)
86
Concepts et idées-forces :
- Distinction entre vérité et objectivité. Il y a une différence entre décrire
une chose à la manière dont elle nous apparaît et la décrire telle qu’elle est.
- La dynamique de cet écart justifie une histoire de l’objectivité, laquelle
pour l’auteur traverse au moins trois stades qu’illustrent les livres d’images
scientifiques (intitulé « atlas » au XVIIIe siècle) et définissent chacun un
éthos scientifique :
(1) La « vérité d’après nature » connaît son apogée au XVIIIe siècle. Elle
se présente comme une tentative de représenter le type ou l’archétype
d’une classe d’objets ; en l’occurrence, le spécimen le plus représentatif de
son espèce, quitte à parfaire ses caractéristiques. La vérité d’après nature
procède par correction pour aboutir à une forme idéalisée de la chose
représentée.
(2) L’« objectivité mécanique » la relaye au milieu du XIXe siècle lorsque
les scientifiques (apparus à la même époque) accusent le caractère subjectif
de cette pratique. L’observateur ne doit pas corriger, mais s’effacer devant la
nature. L’image doit refléter le perçu ; et ne rien faire davantage. L’usage de
la photographie permet d’éliminer beaucoup de ces éléments impurs qui
introduisent des distorsions indésirables.
(3) Le « jugement exercé » ou « qualifié » est le mot d’ordre du XXe
siècle. La nature ne s’offre pas directement aux investigations de
l’observateur : il faut la décrypter et, pour cela, entraîner son regard :
apprendre à lire un graphique, une statistique, une radiographie, etc.
- Thématisation des embranchements de l’histoire des sciences (par
opposition à l’approche formaliste du cercle de Vienne) alimentée par trois
courants, auxquels nous ajouterons un quatrième :
(1) Le courant philosophique étudie les interactions entre les théories et
les idées philosophiques ; soit la métaphysique des sciences. Les découvertes
et leur modalité d’énonciation sont redevables de présupposés qui ne
relèvent pas directement des sciences. Le relativisme est écarté en cela qu’il
ne concerne que l’invention, et n’enlève rien à la rigueur et à la rationalité
des résultats passés au crible de procédures de vérifications. Citons, au
nombre de ses obédiencier, Alexandre Koyré en France et Gerald Holton en
Amérique.
87
(2) Le courant sociologique étudie la production des savoirs scientifiques
sous le rapport de la subjectivité d’individus confrontés à des institutions, en
butte à des impératifs industriels, moraux et politiques, alloués d’une
subjectivité séduite par des principes d’ordre extra-scientifique, animés
d’intérêts individuels ou collectifs. Un courant plus ouvertement relativiste
(contra l’option rationaliste et réaliste), se distribuant en différentes écoles.
David Bloor et Bob Barnes développent en 1976 le programme fort qui met
en vis-à-vis les intérêts sociaux avec le contenu des découvertes. Harry
Collins et Trevor Pinch se réclament pour leur part de la socio-histoire des
sciences et pratiquent l’analyse des controverses.
(3) Le courant historique. Prépondérant en France, il s’autorise d’une
exégèse minutieuse des textes et d’un travail archivistique circonstancié
pour mettre à jour les tenants et les aboutissants d’une connaissance en
formation ou d’une controverse localisée. Ce que l’on peut qualifier de «
micro-histoire » n’a de cesse de mettre à mal les grandes reconstructions
positivistes et rationnelles de l’histoire des sciences, laquelle va souvent à
tâtons et à l’aveugle. Steven Shapin montre ainsi que la « révolution »
moderne relève d’une projection rétrospective et finaliste.
(4) Le courant ethnographique, ignoré par Daston, parachève la
typologie. Souci marqué pour la « science en train de se faire » partagé par
Bruno Latour en France et Steve Wolgard outre-Atlantique, qui montrent
comment le chercheur recourt dans son activité à des choix intuitifs, à des
arguments hétéroclites. La science conçue comme art du bricolage nécessite
une forme de négociation tant avec l’observation qu’avec les autres acteurs
de la science.
Richard Dawkins (1941-20XX)
Principales contributions :
- Le Gène égoïste (1976)
- Phénotype étendu (1982)
- Pour en finir avec Dieu (2006)
Concepts et idées-forces :
- La science en guerre contre la religion. Fait notamment un sort aux
théories créationnistes (Terre jeune, etc.) ou du Dessein Intelligent
88
(évolution finalisée par un Grand Architecte). Fut à l’initiative de la « Out
Campaign », invitant les athées à faire leur « coming out » et s’identifier
publiquement, notamment grâce au port de « lettre écarlate » (A majuscule
rouge pour « Atheism »).
- Le gène égoïste. Transposition aux gènes de la théorie de l’évolution.
Opère une révolution copernicienne qui en déplace le centre de gravité. Les
espèces sont les formes du vivant adoptées par les gènes pour se transmettre
et pour se reproduire.
- L’altruisme, entre autres, n’est donc pas à interpréter comme un aspect lié
à la sélection de groupe (le sacrifice individuel majore les chances de survie
de l’espèce au détriment de celle de l’individu) dans une perspective holiste
et non individualiste de l’évolution. D’accord avec le biologiste W.D.
Hamilton, Dawkins admet que ce comportement vise à favoriser des
proches porteurs de gènes semblables.
- Le modèle du gène égoïste ouvre la voie à une théorie de l’esprit. S’inscrit
dans le prolongement de la sociobiologie et la psychologie évolutionniste
(evopsy).
- La théorie des mèmes. Équivalent culturel du gène, le mème fait entrevoir
la possibilité de recourir aux principes darwiniens de la sélection pour
expliquer comment certaines idées/religion/idéologie/phénomènes de mode
parviennent à se transmettre et à proliférer en fonction de leurs avantages
comparatifs. De même que le gène selon Dawkins, le mème se sert de
l’homme comme d’un réplicateur, une gonade, un instrument de
reproduction. Les mécanismes de la transmission sont conservés tout
comme ceux de la variabilité : un mème copié peut subir des altérations, se
modifier, se raffiner, se combiner avec un autre mème et créer de nouvelles
versions de lui-même plus efficace st susceptible de se transmettre. Focalisé
sur l’information et les comportements, la « mémétique » se propose ainsi
comme l’analogue intellectuel de l’évolutionnisme biologique recentré sur
les gènes.
- Un intérêt épistémologique certain dans la mesure où elle explique la
diffusion ou la disparition des théories en relation avec les exigences de
l’environnement et les contraintes intellectuelles de chaque époque.
89
René Descartes (1596-1650)
Principales contributions :
- Discours de la méthode (1637)
- Méditations métaphysiques (1641)
- Principes de la philosophie (1644)
- Passions de l’âme (1649)
Concepts et idées-forces :
- Procédure du doute hyperbolique reprise des philosophes sceptiques.
Néanmoins chez les sceptiques, pas de récusation possible de l’existence
d’une extériorité au moi ; pas de risque de phénoménisme. C’est Dieu qui,
chez Descartes, assure l’adéquation de l’objet physique ramené à la figure et
au mouvement et la chose extérieure.
- Cogito ergo sum. La connaissance procède en s’appuyant sur l’évidence du
sujet épistémologique (Foucault).
- Soutient ce qui deviendra la distinction des qualités premières et secondes
(et tertiaires) chez Locke pour expliquer la relativité des sensations, tout en
préservant au phénomène un substrat matériel réduit à l’étendue diversifié
par la figure et au mouvement.
- Prend part à la révolution scientifique du XVIIe siècle, tributaire d’une
révolution conceptuelle (philosophie mécaniste), de la naissance de
l’expérimentation (perfectionnement et multiplication des instruments de
mesure) ainsi que de l’adoption de la méthode analytique exposée dans le
Discours de la méthode, qui rompt d’avec la scolastique (on retrouve
l’idéalisme platonicien Platon en rejetant Aristote).
- Pose les fondements d’une nouvelle mécanique fondée sur la
mathématisation de l’étendue et du mouvement = reconstruction du
phénomène à l’intérieur du domaine de l’intelligibilité géométrique.
Mathématisation du phénomène corrélative à la mathématisation de l’esprit
: Logique de Port-Royal par Arnauld et Nicole, Éthique « more geometrico »
de Spinoza, Leibniz et son projet de Caractéristique universelle, etc.
- Mathématisation du mouvement se heurte notamment au problème de
l’infini : les paradoxes de Zénon, Giordano Bruno, etc. D’où la distinction
posée par les Principes, première partie, entre infini et indéfini. Alors que
l'infini se dit de Dieu, l'indéfini se dit du monde physique et des
mathématiques.
90
- Illustration de la manière dont une discipline se constitue comme science
au XVIIe siècle, par voie de dématérialisation d'un champ de l'expérience. Il
s’agit de surmonter l’apparence immédiate pour remonter du fait irrationnel
et subjectif au phénomène réglé et objectif. Le geste de Descartes consiste
ainsi d’abord à effectuer la spatialisation de ce qui n’est pas spatial, la
quantification de ce qui n’est pas (ou du moins pas immédiatement)
quantifiable. La dimension ou la mesure (d’une étendue, d’une translation)
joue chez Descartes le rôle de paramètres. La mesure de tels paramètres est
ce que l’on retient pour constituer l’objet des sciences. La certitude (le fait
de circonscrire une vue) résulte de ce processus. Les sciences modernes
effectuent lors une réduction dont la finalité est de donner accès au
phénomène-objet.
- Découvre les lois de la réflexion et de la réfraction, fonde la géométrie
analytique (avec Pierre de Fermat) qui rend possible la représentation d’une
fonction algébrique par une courbe géométrique. Prépare une nouvelle
vision du monde prônant l’image d’une nature débarrassée de ses qualités
occultes. Renoue avec la position chrétienne contre l’animisme grec.
- Pour Imre Lakatos, la théorie mécaniste cartésienne (et son prolongement
en optique) constitue un programme de recherche scientifique (PRS) ou
socle de principes et d’hypothèses rectrices qui « envisagent l’univers
comme un immense système d’horlogerie ».
- Typologies des idées (innées, factices, adventices). Nous connaissons par
les idées, par l’entendement, non par les sens et l’imagination (cf. analyse du
morceau de cire)
- Dualisme âme-corps et notions communes. Res extensa vs res cogitans. Le
problème de l’union et le traité des Passions de l’âme. Théorie des animaux
machines, les esprits animaux, de la glande pinéale, etc.
- Le critère d’évidence et les idées claires et distinctes. Nous concevons en
nous une idée de l’infini (marque de l’ouvrier dans son ouvrage), mais ne
pouvons l’imaginer. Exemple du chiliogone, figure à mille côtés.
- L’erreur liée à l’illimitation de la volonté qui va au-delà de l’entendement.
Nous affirmons davantage que ce que nous entendons.
91
John Dewey (1859-1952)
Principales contributions :
- Reconstruction en philosophie (1919)
- Expérience et Nature (1925)
- Logique. La théorie de l'enquête (1938)
Concepts et idées-forces :
- Inflexion pragmatiste imprimée à la philosophie classique en vue de la
moderniser et de l’affecter à la résolution de problèmes humains. Critique
corrélative de la philosophie classique qui se consacre à des spéculations
abstraites et à des dissertations creuses sur les essences et autres intelligibles.
Son but devrait être d’épouser les évolutions du monde, quitte à se
transformer perpétuellement pour lui donner du sens et aménager l’ordre
qu’il ne possède jamais de manière a priori et absolue (contra les partisans
du cosmos grec au latin et de l’harmonie préétablie). Des « instruments
d’enquête sur les faits humains ou moraux » sont nécessaires pour éprouver
les théories scientifiques et philosophiques, ramenées au statut d’hypothèses
à valeur provisoire et relative.
- Instrumentalisme. Définition de la pensée comme instrument façonné au
cours de l’évolution à la faveur duquel l’homme s’adapte à un monde luimême en perpétuelle évolution. Perspective darwinienne conduit Dewey à
la comprendre « génétiquement, comme le produit d'une interaction entre
un organisme et son environnement », à concevoir la connaissance « comme
ayant une instrumentalité pratique dans l'orientation et le contrôle de cette
interaction », et les idées et théories comme instruments pratique dont la
valeur se mesure de manière relative en fonction des défis qu’ils permettent
de relever, des intérêts humains.
- « Naturalisme interactif » = Coévolution perpétuelle de la pensée et de son
environnement. Raison pour laquelle l’enquête scientifique n’a pas de
terme, ni la philosophie qui est un processus dont le contenu ne saurait être
acquis a parte post. Contra la conception platonicienne d’une science
absolue, objective, indépendante du contexte matériel, identique à ellemême.
- Réorientation de la philosophie dont la question centrale devrait être de
savoir ce que « peuvent les professeurs de philosophie pour contribuer à la
création d'un monde meilleur ». D’où une vigoureuse prise à partie de la
92
philosophie contemplative traditionnelle, indifférente au sort de
l’humanité, voire légitimant sa condition (cf. Reconstruction en
philosophie, 1919). Dewey renvoie dos à dos l’empirisme logique (de
Bertrand Russell, Rudolf Carnap, Willard Van Orman Quine, Max Black et
consorts) à l’origine la philosophie analytique anglo-saxonne, et les
philosophies de l’histoire, surgeons de la tradition herméneutique
continentale, en déphasage avec l’actualité.
- Caractère économiquement intéressé de la philosophie classique. Plus
particulièrement, de celle de Platon et d’Aristote, articulée aux intérêts
d’une certaine classe sociale. Cet édifice spéculatif n’a pas de valeur en soi,
et surtout pas extrait de son contexte. Anachronique mais, plus encore,
illégitime quant à sa prétention à être une discipline plus noble que les
autres arts ou sciences. Dewey observe enfin que si cette philosophie est
prompte à la critique (ce qui la rend indéniablement précieuse), elle affiche
moins d’entrain à se prendre elle-même pour objet de critique. Anticipe par
certains aspects sur ce que Marx, en réinvestissant un concept forgé par
Destutt de Tracy, appellera l’idéologie.
- Naturalisme empirique. Promeut le ré-enracinement de l’expérience dans
la nature sociale de l’homme. En quoi cette philosophie peut être qualifiée
d’humanisme naturaliste.
- Caractère collectif et évolutif de l’expérience. Celle-ci doit être
contextualisée en étant rapportée à la culture comprise au sens
anthropologique du terme. Elle concerne un ensemble d’individus et non
un individu seul ; est sous-déterminée par un environnement social
dépositaire de ses codes, de ses rites de ses institutions. Mais elle peut à son
tour faire évoluer cette grammaire sociale qui l’influence autant qu’elle
l’influence. Voir la postface de Joëlle Zask à l’édition française d’ Experience
et nature : « Les activités de l'individu sont largement déterminées par son
environnement social, mais réciproquement ses propres activités
influencent la société dans laquelle il vit, et peuvent apporter des
modifications dans sa forme. Il est évident que ce problème est l'un des plus
importants qu'il faille envisager dans une étude des changements culturels
».
- Théorie de l'enquête et assertabilité garantie. L’enquête consiste en
l’examen de diverses hypothèses fournies par les théories philosophiques
93
traditionnelles en vue de résoudre un problème d’adaptation faisant suite à
une modification de l’environnement.
- La solution convenue n’est pas une vérité, ou pas au sens d’adéquation
d’un énoncé et de la réalité ; elle relève de l’« assertabilité garantie » (=
satisfaction), supprime provisoirement le besoin à l’origine du doute. Le
pragmatisme n’a d’intérêt que pour ce qui fonctionne. Critère d’efficacité
pratique.
- Une logique adaptée au raisonnement scientifique. De même que
l’Organon d’Aristote satisfaisait à l’état de la science du quatrième siècle
avant J.-C., vise à élaborer un instrument théorique qui donne le change
aux exigences scientifiques de l’esprit moderne. Ni un traité (Bacon et Mill),
ni une axiomatisation mathématique (Russell), mais une refondation
radicale de la logique en direction de l’instrumentalisme. Système indexé
sur l’action, valable par ses effets, dépositaire de ses canons de méthode
propres.
Wilhelm Dilthey (1833 -1911)
Principales contributions :
- Introduction aux sciences de l’esprit (1883)
Concepts et idées-forces :
- Opposition sciences de l’esprit (histoire, psychologie, sociologie, etc.) vs.
sciences de la nature (physique, chimie, biologie, etc.). Les premières
portent sur la réalité physique ; elles prêtent à une explication en termes de
lois et de causalité. Les secondes frayent dans la matière humaine et
impliquent une démarche qui fasse droit à la subjectivité des individus ;
elles relèvent de la compréhension.
- Une distinction à replacer dans le contexte du scientisme et du positivisme
triomphant de la fin du XIXe siècle et que K.O. Apel considère non plus en
termes d’opposition mais de complémentarité : il est un fait que toute
explication requiert déjà un acte de compréhension (La controverse
expliquer-comprendre. Une approche pragmatico-transcendantale).
- Weltanschauung (conception du monde). Notion issue du romantisme
allemand, critiqué par Hegel ; à ne pas confondre avec l’épistémè de
Foucault.
94
Pierre Duhem (1861-1916)
Principales contributions :
- La Théorie physique. Son objet et sa structure (1906)
- Sauver les apparences. Sur la notion de théorie physique de Platon à
Galilée (1908)
- Le Système du Monde. Histoire des Doctrines cosmologiques de Platon à
Copernic (1913-1959)
Concepts et idées-forces :
- Avec Ernst Mach et Henri Poincaré, l’une des trois grandes figures de la
philosophie des sciences à l’aube du XXe siècle. Des analyses fondées sur
l’enquête historique, donnant le la de la tradition française.
- Élargissement à la physique le champ du conventionnalisme que Poincaré
confine à la géométrie.
- Instrumentalisme. La théorie considérée comme une représentation
commode des lois mathématiques : « Une théorie physique n'est pas une
explication, c'est un système de propositions qui ont pour but de
représenter un ensemble de lois expérimentales » (La théorie physique, son
objet, sa structure) ; lois expérimentales qui sont des modèles symboliques
et approchés de l’observation. L’usage des théories est alors prédictif,
nullement explicatif. La théorie ne décrit pas le réel en soi, mais une façon
de s’y rapporter.
- L’instrumentalisme de Duhem, lequel conçoit les théories à la manière de
système déductif abstrait retenus pour leur fécondité, s’oppose au réalisme
épistémologique selon lequel les théories peuvent prétendre à parler de la
vérité ; ensuite de quoi ce qu’elles énoncent existe.
- S’oppose pour cette raison à la théorie atomique inchoative, qui postulait
des entités sans nécessité. L’observation des atomes à la faveur des
microscopes à effet tunnel apporte un démenti à Duhem : il y a bien des
atomes.
- La promotion d’une collection de faits à l’état de théorie ne peut se
satisfaire du dégagement des lois de régularité, de la description des
constantes et de la généralisation à partir d’inductions ; encore lui reste-t-il
95
à conférer aux phénomènes empiriques un pendant symbolique, de
développer un formalisme mathématique.
- La théorie va au-delà de l’expérience en avançant des concepts
hypothétiques abstraits, non observable, tels ceux de force, de masse,
d’accélération, d’inertie, etc. Autre objection à opposer aux empiristes naïfs
et aux positivistes.
- Acception cohérentiste de la « vérité » d’une théorie supplante l’acception
coïncidentiste traditionnelle synthétisée par la formule « adequatio
intellectus et rei ».
- Holisme épistémologique. Il définit une conception organiciste de la
théorie physique. Le propre de l'organe est qu’il ne peut être appréhendé
qu'à l'aune du corps entier. Ce rapport de l'organe relativement au corps est
analogue à celui qui rattache une hypothèse à la constellation des théories
qu'elle mobilise. On ne peut donc pas de trancher entre deux hypothèses ;
on ne peut trancher qu’entre deux ensembles théoriques qui devront être
pris en bloc en bloc. Cette thèse, qui fut reprise par Quine, sera plus tard
appelé la « thèse de Duhem-Quine » ou « holisme de la confirmation ». La
thèse de Duhem-Quine peut être lue comme un élargissement à toutes nos
connaissances de l’holisme physique thématisé par Duhem. Cette
découverte aura des conséquences pratiques et théoriques majeures dans le
domaine des sciences expérimentales. Elle a pour corollaire le fait qu'il ne
saurait y avoir d'expérience cruciale (en physique comme ailleurs). Contra
Bacon.
- Caractère global du contrôle expérimental. Une expérience ne sanctionne
donc jamais une hypothèse particulière, mais toujours un ensemble
théorique. Il suit de là que l'énoncé des résultats d'une expérience implique
du physicien qu'il réaffirme sa croyance en une pluralité de théories
connexes (de la mesure, de l'instrument, des lois optiques, etc.). Et si c'est
bien parmi ces théories qu'il faut traquer l'hypothèse déficiente, rien ne
permet de dire de laquelle il s'agit, quoi remplacer et quoi sauver. Ce dont
nous avertit la contradiction expérimentale, c'est d’une tare dans le système
des hypothèses que mobilise la théorie. Elle ne dit rien de l'hypothèse à
l’origine de ce dysfonctionnement.
- L'attitude exigée du physicien aux prises avec le démenti de l'expérience
est directement liée à l'architectonique des théories. Selon Duhem, le
développement d'une théorie requiert quatre démarches successives,
96
rigoureusement sériées : (a) définition des concepts ; (b) formulation des
hypothèses ; (c) développement mathématique et (d) contrôle expérimental.
Partant, les hypothèses ni les définitions sont atteintes par l'expérience :
celles-ci n'ont pas de valeur empirique ; ce sont des conceptions, purement
formelles, du physicien. Ce qui est confronté à l'expérience, ce sont les
conséquences du développement mathématique, les lois qui s'en dégagent.
Le physicien doit revenir de manière dialectique sur (a) et (b), sur les
définitions et hypothèses qu'il pose et corrige librement. Notons que le
contrôle n'intervient qu'en aval : la théorie n'est pas le fruit de l'expérience
; elle est présupposée, intuitionnée. L'auteur s'oppose en cela aux
conceptions inductivistes de la science.
« Un physicien conteste telle loi ; il révoque en doute tel point de
théorie ; comment justifiera-t-il ses doutes ? Comment démontrerat-il l’inexactitude de la loi ? De la proposition incriminée, il fera
sortir la prévision d’un fait d’expérience ; il réalisera les conditions
dans lesquelles ce fait doit se produire ; si le fait annoncé ne se
produit pas, la proposition qui l’avait prédit sera irrémédiablement
condamnée […].
Un pareil mode de démonstration semble aussi convaincant, aussi
irréfutable que la réduction à l’absurde usuelle aux géomètres ; c’est,
du reste, sur la réduction à l’absurde que cette démonstration est
calquée, la contradiction expérimentale jouant dans l’une le rôle que
la contradiction logique joue dans l’autre.
En réalité, il s’en faut bien que la valeur démonstrative de la
méthode expérimentale soit aussi rigoureuse, aussi absolue ; les
conditions dans lesquelles elle fonctionne sont beaucoup plus
compliquées qu’il n’est supposé dans ce que nous venons de dire ;
l’appréciation des résultats est beaucoup plus délicate et sujette à
caution.
Un physicien se propose de démontrer l’inexactitude d’une
proposition ; pour déduire de cette proposition la prévision d’un
phénomène, pour instituer l’expérience qui doit montrer si ce
97
phénomène se produit ou ne se produit pas, pour interpréter les
résultats de cette expérience et constater que le phénomène prévu ne
s’est pas produit, il ne se borne pas à faire usage de la proposition en
litige ; il emploie encore tout un ensemble de théories, admises pour
lui sans conteste ; la prévision du phénomène dont la nonproduction doit trancher le débat ne découle pas de la proposition
litigieuse prise isolément, mais de la proposition litigieuse jointe à
tout cet ensemble de théories ; si le phénomène prévu ne se produit
pas, ce n’est pas la proposition litigieuse seule qui est mise en défaut,
c’est tout l’échafaudage théorique dont le physicien a fait usage ; la
seule chose que nous apprenne l’expérience, c’est que, parmi toutes
les propositions qui ont servi à prévoir ce phénomène et à constater
qu’il ne se produisait pas, il y a au moins une erreur ; mais où gît
cette erreur, c’est ce qu’elle ne nous dit pas. Le physicien déclare-t-il
que cette erreur est précisément contenue dans la proposition qu’il
voulait réfuter et non pas ailleurs ? C’est qu’il admet implicitement
l’exactitude de toutes les autres propositions dont il a fait usage ; tant
vaut cette confiance tant vaut sa conclusion […]. »
Duhem, La théorie physique, son objet, sa structure, chap. 6.
- Ensuite de quoi le physicien est libre de modifier telle ou telle hypothèse
qui lui déplaît ; et les critères qui président à ce choix n'ont pas de
justification démonstrative. Le choix d'incriminer telle hypothèse plutôt
qu'une autre relèverait bien plutôt des intuitions, présupposés, valeurs du
physicien, et même de son « bon sens » relativement aux connaissances de
son époque.
- Le libre choix des hypothèses à conserver ou révoquer introduit donc une
part de contingence dans la constitution des théories. Cette contingence
n'est acceptable pour le physicien que s'il fait sien le postulat selon lequel la
science n'a pas tant vocation à rendre compte de la réalité, à « expliquer »,
qu'à donner du réel une « représentation » conforme à l'expérience. La
science n'est pas la vérité ; c'est un dispositif dont la valeur dépend de sa
capacité à faire des prédictions. C'est ce qu'on appellera une conception «
instrumentaliste » de la science, par opposition à l'interprétation «
matérialiste » ou « réaliste » de la physique.
98
- Encore faut-il être en mesure de distinguer le bon grain de l'ivraie. De fait,
dès lors que la science abandonne sa prétention à saisir l'essence même de la
réalité pour n'en donner qu’une représentation, se pose la question des
critères qui vont permettre d'apprécier laquelle des nombreuses
représentations possibles est la plus adaptée. D'une théorie X ou Y toutes
deux conformes à l’expérience, laquelle privilégier ? C'est ici
qu'interviennent les « valeurs objectives de la sciences ». Ces valeurs
objectives président à l'arbitrage du physicien, au prorata du degré
d'importance qu’il leur accorde. Une théorie plus cohérente, plus élégante,
plus simple, précise, féconde, complète, a davantage de chances d'être
priorisée.
- Valeurs et critères du choix rationnel : précision, cohérence, complétude,
simplicité, fécondité. Elles sont nécessités pour arbitrer entre les différentes
représentations possibles. Duhem promeut spécifiquement la complétude, la
cohérence et la simplicité. Rien n'empêche cependant le physicien
d'interpréter à sa manière ces différents principes d'évaluation, ni ces
principes d'entrer en conflit les uns avec les autres. Longtemps, la
cohérence a servi d'argument en faveur de la théorie géocentrique de
Ptolémée, tandis que la simplicité était invoquée par les partisans de la
théorie héliocentrique de Copernic. La première s'accordait avec la
physique d'Aristote, alors prépondérante ; la seconde permettait de
diminuer le nombre de cercles célestes.
- Duhem s'en prend à la vulgate de la méthode expérimentale telle qu’elle
se trouve reprise par, notamment, ceux qui l’enseignent. On définit
compendieusement la méthode expérimentale comme une démarche
scientifique visant à tester la validité d'une hypothèse au moyen
d'expériences répétées, précises et encadrées. On pensait donc, jusqu'à
Duhem, être en mesure de confirmer ou d'infirmer une hypothèse
particulière en la livrant directement au tribunal de l'expérience. Or,
précise-t-il, « il n'en est pas ainsi ; la Physique n'est pas une machine qui se
laisse démonter ; on ne peut pas essayer chaque pièce isolément et attendre,
pour l'ajuster, que la solidité en ait été minutieusement contrôlée. » ( La
théorie physique, son objet, sa structure). En clair, on ne peut pas faire un
inventaire des hypothèses et les tester les unes après les autres (démarche
analytique). Toutes les fois qu'une théorie se trouve en contradiction avec
99
expérience, c'est le système entier qui se trouve mis à mal sans qu'on puisse
dire lequel de ses rouages est déficient.
- Pas d’expérience cruciale. La notion d'expérience cruciale vient de Bacon
qui dans le Novum Organum, la nomme aussi « fait de la croix, en
empruntant cette expression aux croix qui, au coin des routes, indiquent les
divers chemins ». En guise d’exemple, on admettait pour décisive
l'expérience de Foucault en tant qu'elle permettait de trancher entre
l'hypothèse corpusculaire et hypothèse ondulatoire de la lumière ; en vérité,
c'est entre deux systèmes théoriques complets que mettent en jeux ces
hypothèse (l'optique de Newton, et l'optique de Huygens) que l’expérience
arbitre ; à supposer bien sûr qu'il n'y ait pas d’autres hypothèses auquel le
physicien n'a pas encore songé… ce qui cela se révélera être le cas (les
quanta, puis les bosons vecteur). En résumé, il y a donc selon Duhem
plusieurs raisons qui font qu'une expérience cruciale n'a pas de légitimité
pour transformer une hypothèse physique en vérité incontestable :
(1) C’est, tout d’abord, qu’un fait dit « scientifique » est le produit d'une
expérimentation qui met en jeu tout un réseau de théories connexes (non
pas une hypothèse donnée dont on saurait si elle est réfutée ou vérifiée).
(2) De plus, un ensemble théorique invalidé peut toujours s'adapter
moyennant des aménagements, tels que la modification d'une hypothèse
auxiliaire (Popper fut le premier à établir cette distinction entre hypothèses
fondamentales et auxiliaires). Chaque fois qu'une expérience prétend
confondre l'une de nos hypothèses, nous avons toujours le choix entre
l'abandonner ou bien la conserver, et modifier à la place un autre de nos
énoncés.
(3) Au reste, pour qu'une telle expérience soit susceptible de garantir ou
d’infirmer une hypothèse physique, il faudrait énumérer exhaustivement
les diverses autres hypothèses auxquelles un groupe déterminé de
phénomènes peut donner lieu ; sur ce terrain, le physicien n'est jamais sûr
d'avoir épuisé toutes les suppositions imaginables.
- Primat de la théorie, laquelle précède, calibre l’expérience. Il n’y a pas
plus d’induction pure que d’expérience cruciale.
- Pas de remise en cause du progrès scientifique. Qu’une théorie ne reflète
pas la vérité ne condamne pas la science au pur relativisme. Au fur et à
mesure que se succèdent les théories, celles-ci deviennent plus adéquates,
saisissent de mieux en mieux les articulations de la réalité. Incidemment, se
100
met en branle un processus de cheminement envers une « classification
naturelle » (donc non-conventionnelle). Reprise d’Auguste Comte : on ne
recherche pas les causes finales ou originaires des phénomènes, on donne
une description commode, efficace. Représenter n'est pas livrer la vérité sur
le réel ; toutefois on s'en rapproche de manière asymptotique.
-Duhem entrevoit les prémices de la science moderne dans la science
médiévale plutôt qu’au XVIe siècle. Ex : impetus chez Jean Buridan comme
préfiguration
du
principe
d’inertie
vs.
conception
aristotélicienne l’antipéristase ; latitude des formes chez Nicole Oresme,
prodromes de la quantification des qualités ; intuition de la rotation de la
Terre chez les penseurs du Moyen Âge ; pluralité des mondes chez Albert
de Saxe, Giordano Bruno et Bernard le Bovier de Fontenelle (Entretiens sur
la pluralité des mondes, 1686). Le procès de Galilée serait l’apex de la
critique de l’aristotélisme par les penseurs modernes. L’Église joue malgré
elle un rôle de promoteur de ces nouvelles idées (effet Streisand : mettre à
l’index, c’est pointer du doigt).
- La cohérence logique est recherchée par ces penseurs conventionnalistes
davantage que l’applicabilité de ces théories à la réalité physique. La
promotion du critère d’efficacité (Machiavel en politique, Descartes en
mécanique, Vésale en anatomie, Paré en médecine) constitue le pivot de la
révolution scientifique du XVIIe siècle.
- Prise en compte de la collectivité de l’œuvre scientifique. Le physicien
expérimentateur collabore avec le théoricien.
- Étude sur la révolution scientifique du XVIIe siècle. La science classique
croyait « sauver les phénomènes » en dégageant des lois abstraites à même
de subsumer la multiplicité des faits sous des principes universels. Il
s’agissait de faire ressortir une constance au sein de phénomènes en
apparence aléatoires, une permanence qui rende possible l’explication et
l’anticipation. Les faits d’observation ne sont plus capricieux, mais ordonnés
à la faveur d’une théorie. Cette théorie ressaisissait le monde dans un
modèle qui en propose une simplification commode.
101
Albert Einstein (1879-1955)
Principales contributions :
- Divers articles fondateurs publiés dans la revue Annalen der Physik en
1905, « annus mirabilis » d’Einstein : « Sur l’électrodynamique des corps en
mouvement » ; « Un point de vue heuristique concernant la conception et la
transformation de la lumière » ; « L’inertie d’un corps dépend-elle de sa
capacité d’énergie ? » ; « Sur la théorie quantique du rayonnement » ; « Des
ondes gravitationnelles » ; « La description de la réalité physique par la
mécanique quantique peut-elle être considérée comme complète ? »
- La théorie de la relativité restreinte et générale (1916)
- La relativité (1956)
- L’Évolution des idées en physique (avec Leopold Infeld) (1936)
Concepts et idées-forces :
- Théorie de la relativité restreinte (1905) et générale (1915). Dépassement
des équations de l’électromagnétisme de Maxwell en direction d’une
nouvelle théorie de l’espace et du temps qui forment un continuum, un
contenant inséparable du contenu énergétique et matériel. L’article « Sur
l’électrodynamique des corps en mouvement » (1905) consacre cette
rupture. Contra l’absolutisme de l’espace newtonien, la configuration
géométrique du monde (topologie) se révèle relative à la distribution des
masses et des vitesses des entités qui le remplissent. L’espace devient bien
plus qu’un système de coordonnées au sein duquel viendraient s’inscrire les
phénomènes : il participe des phénomènes, les détermine, se détermine en
eux d’après leur détermination. Les « équations du champ » décrivent le
comportement du champ de gravitation. Elles sont la base de la physique
relativiste moderne.
- S’appuie sur le « principe de relativité » énoncé par Poincaré, mais en
abandonnant toute référence à la notion d’éther. Néanmoins, controverse
toujours ardente sur la paternité de la relativité.
- Équation E = mc2 ; avec E pour l’énergie de masse, m pour masse et c pour
célérité ( : vitesse de la lumière = 2x108 m/s). Valable dans cette formulation
de base que pour les corps de vitesse nulle dans un référentiel donné.
Formulé pour la première fois dans son article de 1905 intitulés « L’inertie
d’un corps dépend-elle de son contenu en énergie ? ». Épicentre d’une
nouvelle révolution scientifique, avec renouvellement de la mécanique
102
céleste et naissance de la physique nucléaire. De très nombreuses
applications civiles et militaires (armes, centrales nucléaires). Influence
également les autres sciences en leur communiquant un modèle théorique,
de la même manière que l’évolutionnisme de Darwin a pu se généraliser audelà de la biologie.
-Cette avancée s’explique (aussi) par un contexte socio-politique et des
nécessités techniques. Chaque ville-station du chemin de fer européen à la
toute fin du XIXe siècle avait sa propre comptabilité horaire. Polychromie
problématique qui compliquait la vie des voyageurs autant que des
cheminots, et plus encore de l’armée en mouvement. La coordination était
devenue impérative, ainsi que l’affirmerait devant le Parlement impérial le
comte von Moltke en 1891. Einstein est alors fonctionnaire à l’office des
brevets ; il conçoit l’équation de la relativité en examinant ceux traitant de
la synchronisation des horloges à distance. Donne quitus à une
interprétation externaliste du progrès scientifique. Externalisme social,
culturel, historique qui ne doit pas méconnaître l’originalité d’Einstein que
fascinaient les trains.
- Confirmation en demi-teinte. Celle-ci a lieu en 1919, après l’échec de la
première expédition de 1915, et a pour but de mesurer la déviation des
rayons lumineux au bord d’une masse lors d’une éclipse solaire. C’est
Arthur Eddington qui supervise cette vérification mais avec une marge
d’erreur trop importante pour lui permettre d’entériner la théorie
d’Einstein – il le fit néanmoins. Un « faux bon résultat », comme l’écrivait
Stephen Hawking dans son ouvrage de 1988, Une brève histoire du temps,
en grande partie déterminée par les attentes (ou « protensions ») de
l’observateur.
- Ses travaux sur le mouvement brownien apportent la preuve théorique de
l’existence des atomes et des molécules. Jean Perrin en apporte la sanction
expérimentale en 1912.
- Cosmologie statique. Convaincu que l’univers ne s’étend pas (démentie par
Hubble), Einstein fixe une constante cosmologique. Ce qu’il reconnaît plus
tard avoir constitué « sa plus grande erreur ».
- Contributions de première main à la théorie des quanta ; ainsi avec
l’introduction de la notion d'émission stimulée, l’explication de l’effet
photoélectrique et la corrélation entre quantité de mouvement et quantum
de lumière. Énigme des quanta qui pour Einstein restera toute sa vie un
103
sujet de perplexité : « Ces cinquante ans de rumination consciente ne m’ont
pas rapproché de la réponse à la question "que sont les quanta lumineux ?"
Aujourd’hui le premier fripon venu croit qu’il sait ce qu’ils sont, mais il se
leurre » (Lettre d’Einstein à Michele Besso du 12 décembre 1951).
- Regard sceptique et pour le moins critique jeté sur la physique quantique
en gestation (voir notice). Bien qu’il soit indirectement impliqué dans son
élaboration. La controverse avec Niels Bohr, Erwin Schrödinger et Werner
Heisenberg prend rapidement des accents philosophiques, sinon
théologiques. Einstein déjuge leurs interprétations probabilistes ou nondéterministes : « Gott würfelt nicht » (« Dieu ne joue pas aux dés »), déclaret-il lors de son intervention au cinquième congrès Solvay de 1927 ; à quoi
Niels Bohr réplique: « Qui êtes-vous Albert Einstein pour dire à Dieu ce
qu’il doit faire ? ».
- Il convient néanmoins de ne pas se méprendre concernant la nature de la
prétendue religiosité d’Einstein. La question du Hasard et de la Providence
(= du déterminisme) renvoie à des options scientifiques et n’entend pas les
dépasser. Dans son article de 1930, « Comment je vois le monde », Einstein
détaille ce qu’il appelle sa « religiosité cosmique », qui fait l’économie de
tout dieu personnel, de tout fondement moral ou dogme irrévocable.
- Paradoxe EPR (1935), qui deviendra le paradoxe EPR-Bell (EinsteinPodolsky-Rosen-Bell). Entendait prouver par l’absurde l’inanité des
fondements de la mécanique quantique. L’intrication quantique, levier de la
réfutation, allait pourtant se vérifier expérimentalement.
- Il y a effectivement contradiction entre les principes structurants de la
relativité générale et les propriétés du monde quantique. L’un des défis
majeurs de la physique contemporaine consiste précisément à développer
une théorie quantique de la gravitation qui permettrait d’articuler (ex :
théorie quantique à boucles) ou d’envelopper (ex : théorie des cordes) ces
deux physiques.
- La science dit ce qui est (Sein) ; elle ne dit pas qui doit être (Sollen) ;
contra le lyssenkisme et le scientisme. « La méthode scientifique ne peut en
effet rien nous apprendre d'autre qu'à saisir conceptuellement les faits dans
leurs déterminations réciproques. Le désir d'atteindre à une connaissance
objective fait partie des choses les plus sublimes dont l'homme est capable.
Mais il est d'autre part évident qu'il n'existe aucun chemin qui conduise de
la connaissance de ce qui est à celle de ce qui doit être ». Les théories sont
104
descriptives et non pas prescriptive. Mais à y regarder de plus près, décrire,
n’est-ce pas déjà sélectionner ; n’est-ce pas déjà prescrire ?
Albert Einstein, selon Roberto Bizama, 2009.
Paul Feyerabend (1924-1994)
Principales contributions :
- Contre la méthode. Esquisse d’une théorie anarchiste de la connaissance
(1975)
- Science in a Free Society (1978)
105
Concepts et idées-forces :
- Anarchisme ou pluralisme épistémologique. Toute les révolutions
scientifiques ont impliqué le dépassement d’une méthode sclérosée,
incompatibles avec l’explication des phénomènes. « Il n’existe rien qu’on
puisse nommer une méthode scientifique, ou plutôt si, ce serait ces trois
mots : "tout est bon" ("anything goes") ». Ensuite de quoi la science doit être
ouverte à toutes les hypothèses, idées, méthodes, démarches. Une
heuristique de la découverte.
- Insiste sur le fait qu’« aucune théorie scientifique n’est compatible avec les
faits observés ». Pas plus l’héliocentrisme de Copernic, adopté en dépit de
l’observation et de l’évidence naturelle, que la relativité restreinte
d’Einstein, en butte à des observations contraires, non plus enfin que le
modèle atomique de Bohr incompatible avec bon nombre de données. Les
théories doivent leur succès à des astuces, des omissions, des subterfuges et
de la rhétorique.
- Contre Popper, pour qui la recherche scientifique réfute les théories non
viables à l’aune des résultats de l’expérimentation, Feyerabend montre que
les anomalies sont ou bien négligées (sciemment ou non), ou bien mises de
côté et relativisées. Aucune de nos théories ne correspond effectivement
pleinement et sans réserve avec l’ensemble des observations.
- Pas de fait scientifique qui ne soit d’abord une interprétation, une
production ad hoc de phénomène conçu pour confirmer plutôt que pour
édifier ou éprouver une théorie.
- Feyerabend énonce différents types de relativisme : pratique,
démocratique, épistémique.
- Relativisation de la supériorité (hégémonie ?) de la science comme
organum de connaissance au regard des autres disciplines. Les théories
scientifiques sont des « fictions convaincantes » qui n’ont pas plus – ni
moins – de légitimité et que les mythes, les systèmes religieux, les belles
histoires de la littérature. Cette analyse n’est pas pour plaire aux huiles de la
science institutionnelle aux yeux desquels abattre les piliers la science, c’est
menacer de faire s’écrouler l’ensemble d’un édifice érigé si laborieusement.
Pourvoyeuses de légendes dorées, les biographies autorisées ont une valeur
plus protreptique et édificatrice qu’historique. Cela ne signifie pas qu’elles
n’aient pas de valeur du tout.
106
Richard P. Feynman (1918-1988)
Principales contributions :
- Le cours de physique de Feynman (avec Robert B. Leighton et Matthew
Sands) (1961-1963)
- Particules et lois de la physique (avec Steven Weinberg) (1987)
- Quantum Electrodynamics (1961)
- The Theory of Fundamental Processes (1961)
- Vous voulez rire, monsieur Feynman ! (1985),
Concepts et idées-forces :
- Électrodynamique quantique relativiste. Dans le prolongement des
travaux de Dirac qui en trace les linéaments, elle consiste en la description
des interactions électromagnétiques entre les particules chargées.
- Théorie des interactions faibles. Interactions responsables de la cohésion
du noyau atomique, d’où suit la désintégration radioactive des particules
subatomiques. Anticipe théoriquement la découverte dans les décennies des
années 1970-1980 des bosons vecteurs W+, W- et Z0.
- Diagrammes de Feynman. Feynman propose dans cette optique une
technique de calcul des sections efficaces d’interaction entre les particules,
faisant appel aux diagrammes qui portent aujourd’hui son nom (voir notice :
point sur le modèle standard) ; ce qui lui vaut avec Julian Schwinger et SinItiro Tomonaga de recevoir en 1965 le prix Nobel de physique. Lesdits
diagrammes aujourd’hui des instruments incontournables de la physique
théorique, en particulier de la théorie des cordes et de la théorie M.
Diagramme de Feynman :
ePhoton
e-
- Contribution au projet Manhattan. Projet secret de mise au point de la
première bombe atomique. Réquisition de différents ateliers travaillant
107
indépendamment les uns les autres, en parallèle, le tout étant centralisé à
Los Alamos. Une pépinière de physiciens (Feynman y rencontra
notamment Enrico Fermi et Niels Bohr). Le projet aboutit avec l’explosion
le 16 juillet 1945 de la première bombe A. Cet événement pointe le risque
d’embrigadement des scientifiques dans des programmes militaires et de
perte d’indépendance. Toutefois, de nombreuses avancées technologiques
majeures n’auraient jamais été rendues possibles sans la mise à disposition
des budgets militaires. La guerre, une accoucheuse de science. La science
avance par le mauvais côté.
- Feynman fut également l’un des grands noms de la vulgarisation. Connu
du grand public autant par ses cours universitaires que par ses livres. Trahit
une certaine conception du savoir scientifique qui ne doit pas être réservé à
une élite privilégiée.
 Point sur le modèle standard
Ce point a pour objet d’esquisser un panorama succinct de situation actuelle
de la recherche fondamentale et de ses grandes orientations dans le
domaine de la physique fondamentale. Il ne saurait y avoir matière plus «
concernante » pour la philosophie, tant elle s’emploie à faire violence à
notre conception naïve de la réalité. Trois axes seront articulés au fil de
cette exposition : les particules en constituent naturellement le premier ;
viendra ensuite la description des forces à l’origine de leurs interactions.
Nous conclurons enfin sur la nature du vide quantique, veillant à souligner
tout ce qui sépare le modèle standard de la pensée de Démocrite – le
premier « atomiste ».
Typologie des particules
Les atomes constituent les briques dont sont faites les substances qui
constituent le monde matériel. Ces briques elles-mêmes – les mal-nommées
« indivisible » (a-tomos) – sont en réalité décomposable en trois sous-entités
; soit 1) l'électron, gravitant autour d’un noyau formé par 2) des protons et
3) des neutrons (ce sont les « nucléons »). Ces trois espèces de particules
peuvent-elles être considérées comme « élémentaires », c’est-à-dire
108
insécables ? Se pourrait-il que ces trois composantes bien liées puissent à
leur tour être décomposés en quelques entités subtiles plus légitimes à
postuler au titre convoité de particules élémentaires ? Il semble en dernier
ressort que si l’électron est bien une particule élémentaire, il n’en va pas de
même pour le proton et le neutron. L’erreur la plus rédhibitoire serait
cependant de croire que les atomes ainsi conçus renferment la totalité des
particules présentes dans la nature. Bien d’autres ont été découvertes ; bien
d’autres restent à découvrir. Le modèle standard des particules a pour
fonction d’en constituer une classification, de manière analogue au tableau
de Mendeleïev dans le domaine de la chimie. Deux grandes familles de
particules y sont décomposées : les fermions et les bosons de jauge.
(1) Fermions (leptons, hadrons et quarks) :
On répartit en deux catégories les particules constituant la matière, aussi
appelées fermions :
- L'électron est le prototype de la famille des leptons, à laquelle il convient
d’adjoindre le muon, le tau, et trois neutrinos. Ces six particules ont été
jusqu’ici considérées comme dépourvues de structures internes, donc
comme effectivement élémentaires.
- Le proton et le neutron appartiennent quant à eux à l’ensemble des
hadrons, et à la sous-espèce des baryons. Ceux-ci peuvent être générés au
moyen d’accélérateurs au sein desquels sont reproduites les conditions
initiales de l’univers. Le LHC du CERN (à l’origine du World Wide Web
que les Européens ont omis de breveter) de Genève a ainsi récemment
permis la détection de la particule Higgs. Son principe se résume à faire
entrer en collision des corpuscules dotés de haute énergie (= vitesse). Quant
aux hadrons, leurs caractéristiques est qu’à l’inverse des leptons, ils ne
constituent pas des particules élémentaires, mais serait composés d'un
nombre défini et limité de corpuscules plus essentiels, appelés quarks. Le
nombre de ces quarks a finalement été porté à six, auxquelles sont
attribuées les « saveurs » : up, top, down, bottom, strange et charm.
L’appareil théorique permettant de comprendre les interactions entre les
quarks et les gluons et ainsi d’étudier la cohésion du noyau atomique est
109
due aux physiciens Hugh David Politzer, Frank Wilczek et David Gross.
C’est un 1973 qu’ils posent les bases de la chromodynamique quantique
(abrégée QCD), en mesure d’expliquer le comportement étrange de ces
particules subatomiques. Le terme de « chromodynamique » (chrôma :
« couleur » ; dunamis : « puissance ») renvoie aux différentes associations des
quarks aux trois couleurs primaires (rouge, vert et bleu), également à la base
du codage informatique dit RVB ; ce sont aussi les longueurs d’onde
correspondant aux trois espèces de cônes présents sur la rétine.
Il convient de souligner toutefois qu’aucun quark n'a jamais pu être détaché
de ses partenaires ni donc être observé de manière isolée. Cela tient à ce que
la chromodynamique quantique appelle le « confinement » qui fait que leur
constante de couplage varie de façon proportionnelle à leur distance
(contrairement aux effets de la gravitation sur les corps graves), et leur
confère une « liberté asymptotique ». Le proton et le neutron comportent
des parties, mais ces parties demeurent inextricablement liées.
Schéma de composition d’un neutron, constitué par deux quarks down et
un quark up. Interactions par l’entremise des gluons figurée ici par un tracé
sinusoïdal.
(2) Bosons de jauge :
Le modèle standard de la physique des particules intègre donc 6 quarks et 6
110
leptons, l’ensemble s’inscrivant dans cette première famille des particules
élémentaires que sont les fermions. En marge des fermions, les constituants
indivisibles de la matière, existe un autre type de particule à l’origine des
forces régissant leurs interactions : les bosons de jauge (cf. infra), équivalent
à ce que la mécanique quantique appelle aussi les quanta d’énergie.
Leptons
Charge
électrique
0
Quarks
–1 e
Fermions
νe
de
e
Neutrino
1re
Électron
électronique
génération
+2/3 e
–1/3 e
u
Quark up
d
Quark
down
Fermions
de
2e
génération
νµ
Neutrino
muonique
µ
Muon
c
Quark
charm
s
Quark
strange
Fermions
de
3e
génération
ντ
Neutrino
tauique
τ
Tau
t
Quark top
b
Quark
bottom
Électromagnétique
Forte
γ
Photon
g
(8)
Gluon
Interactions
Bosons de
jauge
Faible
Z0
Boson Z
W- et W+
Boson W
Tableau récapitulatif des particules élémentaires selon le modèle standard
Le modèle standard recenserait donc 12 particules de la matière (fermions)
et 12 particules de force (bosons), auxquelles il faudrait ajouter le bosons de
Higgs récemment découvert. Ce qui élèverait à 25 le nombre total de
111
particules élémentaires constituant l’univers. Plusieurs indices semblent
indiquer qu’il faudrait cependant doubler le nombre de fermions en
incluant leur pendant négatif, une collection correspondante d’antifermions : les antiparticules de la matière. D’abord spéculative, l’hypothèse
de telles entités proposée par Dirac fut vérifiée en 1933 avec la découverte
d'un positron (anti-électron) émis à la faveur de la rencontre entre un
noyau atomique présent dans l’atmosphère terrestre et un rayon cosmique.
La symétrie CPT (dont le théorème fut démontré par Wolfgang Paoli) au
fondement de la théorie quantique des champs prédit depuis pour chaque
espèce de particule de la matière une antiparticule semblable, de masse
identique, mais dont la charge est inversée. Les particules de charge nulle
telles que le photon présentent un cas limite, étant leur propre
antiparticule. Aussi les antiparticules des particules constituantes de
l’atome, à savoir les antiprotons, les antineutrons et les anti-électrons,
peuvent-ils être associés pour obtenir de véritables anti-atomes. Plus de 50
000 atomes d'anti-hydrogène ou anti-atomes d’hydrogène ont ainsi pu être
synthétisés dans les laboratoires du CERN. Il n’est toutefois pas nécessaire
de se rendre dans les laboratoires du CERN pour observer de l’antimatière.
Des positrons sont en effet naturellement produits par les éclairs lors des
orages. C’est ce qu’a pu mettre en évidence le physicien Michael Briggs en
s’appuyant sur les relevés du télescope spatial Fermi. Une ceinture naturelle
d'antiprotons a également été localisée autour de la terre : que ne serait-elle
pas présente autour d’autres planètes ?
L’ensemble des antiparticules redoublant théoriquement la matière
ordinaire est appelé antimatière. Certains bosons sont à eux-mêmes leur
antiparticule (notamment le gluon et le photon, comme vu précédemment)
du fait de leur masse nulle ou de leur charge neutre. Mais il faut
comptabiliser aussi les antiparticules des particules de force. La prise en
compte de tous ces aggiornamentos dans le recensement des particules
élémentaires multiplie quasiment par deux le montant du décompte initial.
Cette comptabilité peut être contestée pour différentes raisons (et ne
manque pas de l’être). Un certain nombre de modèles issus de la physique
théorique postule de nouvelles particules (fermions et bosons) telles que le
112
neutrino stérile, les bosons Wʹ et Zʹ, X et Y, le graviton (G), l’axion et le
majoron (J). La théorie de la supersymétrie prédit encore une superpartenaire pour chacun des items que renferme le modèle standard. Les
squarks et les sleptons font leur entrée en scène dans la famille des
fermions. Quant aux bosons, ils doivent compter avec les photinos, les
neutralinos (wino, bino, higgsino), les jauginos (gluino, zino, gravitino,
axino et charginos). Autres entités hypothétiques que l’on rencontre parfois
dans la spéculation (astro)physique : les leptoquarks, le dilaton, le préon et
le tachyon (particule supraluminique violant la clause de la constante c).
Leur existence manque encore d’être prouvée. Les accélérateurs de
particules ont encore de beaux jours à vivre.
D’autres modèles envisagent au contraire la réduction de cet ensemble
bariolé de particules élémentaires à une seule entité fondamentale ; ainsi
des théories des cordes (ou de la théorie des supercordes) qui rapportent
cette diversité accidentelle aux différentes fréquences de vibrations d’une
corde unidimensionnelle (cf. pour de plus amples développements : point
sur les théories de l’unification). L’économie réalisée en termes de particules
se paie toutefois au prix d’une réévaluation du nombre des dimensions
pouvant aller de 10 (1re théorie), 11 (théorie M), voire jusqu'à 26
dimensions (dans 2/5 des théories des cordes pré-théorie M), dont 21 «
enroulées » sur elles-mêmes et une pouvant s’étendre jusqu’à constituer
l’écrin dimensionnel d’un univers (p-brane).
Il importe de noter que l’emploi du terme de « particules » n’a de valeur que
didactique au sein de notre présentation. On pourrait aussi bien lui
substituer celui de champ, la mécanique quantique étant acquise à l’unité
foncière de ces deux notions. L’essence ondulatoire ou bien corpusculaire
de la lumière ne relève dans cette optique que d’une question de point de
vue. Cette unité substantielle s’est avérée au terme de la synthèse des deux
révolutions majeures de la physique qu’auront été au XXe siècle la théorie
de la relativité et la physique quantique. Elle a donné naissance à ce que
l'on appelle aujourd'hui la théorie quantique relativiste des champs. Cette
théorie met à l’honneur une réalité tressée d’autant de champs
fondamentaux qu’il y a de particules élémentaires. Chaque particule
élémentaire peut être traite comme un champ fondamental. Le monde se
113
décompose en un ensemble de champs interagissant entre eux en
permanence par l'entremise de leurs quantas à la fois ondes et corpuscules.
La représentation dualiste du monde opposant champs et particules s’efface
sous ces auspices au profit d'une vision conciliatrice qui transcende les
dichotomies. Elle accomplit une avancée cruciale en direction d’une
physique plus homogène et unitaire.
Forces et les interactions
Plus homogène, personne n’en doute. Mais est-ce là suffisant pour satisfaire
les physiciens, et même les philosophes un tant soit peu versés dans la
question ? On devine aisément que non. Ce qu'ils recherchent, au moins
depuis Thalès, n'est pas tant l'homogénéisation que l'unification sans reste
de la physique. Unification qui ne passerait plus dorénavant par un
« principe » (arché) comme dans l’Antiquité (voir : point sur les principes),
mais par une équation mathématique « ultime ».
Or, c’est encore peu dire qu’à cette enseigne, le modèle standard laisse à
désirer. Si l’on ne peut nier que ses prédictions ont été validées
expérimentalement avec la découverte d’entité théorique qu’il ne faisait que
postuler (le boson de Higgs, primus inter pares), il apparaît admettre bien
trop de particules au goût de beaucoup de physiciens. Il n’explique ni la
matière noire, ni l’énergie sombre qui constituent pourtant, d’après ce
même modèle, la plus grande masse de l’univers. Il échoue à lier la force de
gravitation aux trois autres interactions fondamentales. Il s’avère impuissant
à rendre compte des phénomènes de très haute densité, les singularités
physiques telles les trous noirs et l’état de l’univers avant le mur de Planck.
Quoi qu’on en ait, aussi précieux qu’il ait été jusqu’à présent, le modèle
standard brûle sans doute de ses derniers feux.
Il n’est pas assuré que la relève viendra de sitôt. Des efforts se poursuivent
actuellement qui tendent au dépassement de ce paradigme-obstacle.
Rappelons pour mémoire que l’univers est apparu régi par quatre forces
résultants en réalité d’un échange de boson entre fermions élémentaires :
l'interaction nucléaire forte, l'interaction électromagnétique, l'interaction
nucléaire faible et la gravitation. Les bosons en question, aussi appelés les «
114
bosons de jauge » ou « particules de rayonnement », sont au nombre de 12 et
se répartissent de la manière suivante :
Forces :
Bosons :
- Electromagnétique
- Nucléaire Forte
- Nucléaire faible
- Gravité
- Photons
- Gluons
- W+, W-, Z0
- Higgs
Notons que l’existence graviton, prévue à l’origine pour être le quantum de
la force gravitationnelle, n’a jamais été détectée. Celle du boson de Higgs a
en revanche pu être confirmée expérimentalement en 2012 grâce aux
installations du CERN. Ce serait donc au boson de Higgs, ou plus
exactement, à l’inertie engendrée par l’interaction des particules
élémentaires avec le champ de Higgs, que serait due la masse de ces
dernières. La masse n’est donc pas une propriété inhérente aux particules,
mais un effet de leur interaction.
Nombre de physiciens misent sur la possibilité de rassembler ces quatre
interactions fondamentales en un seul formalisme mathématique. Une
équation pour les expliquer toutes, c’est là tout le sens de la quête pour la
grande unification (Grand Unified Theory : GUT) qui opérerait le
syncrétisme tant désiré, qui retrouverait l’avant-Babel de la physique.
L’équation adamique constituerait en outre, de la même manière que la
recherche de la langue mère chez les linguistes, une remontée dans le
temps.
Tout porte à croire que l’univers à ses premiers instants n’était pas divisé
entre ces quatre interactions (peut-être y en a-t-il davantage), pulvérisé en
lignées de particules élémentaires hétéroclites. La disjonction des quatre
forces aurait été un événement second et la matière telle que nous la
connaissons, le produit de l’évolution de l’univers. L’unité prime sur la
115
diversification, tant logiquement que chronologiquement. Or, l’unification
des particules et des interactions que la physique tente de réaliser exige des
conditions de température (ou d’énergie, ce qui revient au même) très
spécifiques, qui ne se rencontrent qu’au commencement de l’univers… et
dans les accélérateurs.
On admet aujourd'hui que 10-43 secondes après le big-bang (« temps de
Planck », limite de nos possibilités actuelles de concevoir l'image physique
du monde, en deçà de laquelle se situe l’ère de « l'obscurité théorique »), les
trois forces, l'électromagnétique, la nucléaire forte et la nucléaire faible,
n’en faisait en effet qu’une seule, la force électronucléaire. Le
refroidissement graduel de l’univers consécutif à son expansion (ou
entropie) aurait eu pour effet de les dissocier. Reste la gravité, la quatrième
interaction que personne jusqu’aujourd’hui n’est parvenu à lier à trois forces
pour obtenir une véritable « Théorie du tout ».
116
Schéma de l’expansion de l’univers, hypothèse orthodoxe et exploratoire sur
son évolution, grande unification (GUT) et Théorie du Tout
117
Le vide quantique
Nous venons à l’instant de traiter de la matière et de sa décomposition en
particules élémentaires, que Démocrite anticipait par la notion d’atome
(recouvrant quarks et électrons), ainsi que des forces à l’œuvre dans
l’univers, qu'il ne pouvait connaître ; nous reste encore à faire état de
l’image que nos théories actuelles nous ont livrée du vide. Du vide, dont on
rappelle que Démocrite faisait le deuxième « constituant » du monde, à
parité avec l’atome. La distinction entre ces deux principes était entière et
ne faisait aucun doute aux yeux de l’Abdéritain. Le vide était partout où il
n’y avait pas d’atomes ; réciproquement, les atomes existaient partout où il
n’y avait pas de vide. Le caractère compact des atomes démocritéens
empêchait par ailleurs qu’ils puissent contenir en eux le moindre espace de
vide. Cela serait démenti dès le début du XXe siècle avec la découverte par
Rutherford (et avant lui par Hantaro Nagaoka) de la structure planétaire de
l’atome… que la physique quantique a depuis rendue obsolète (mais qui ne
laisse pas d’être enseigné dans les manuels du secondaire). C’est dire que le
vide chez Démocrite excluait la matière et la matière le vide ; les deux
réalités fondamentales étaient irréductibles l’une à l’autre. Elles se
juxtaposaient, aussi indifférentes que peut l’être un caillou plongé dans
l’eau.
Cette conception a été foncièrement revisitée au prisme de
l’électrodynamique quantique, prolongement de la mécanique quantique.
Son mérite fut d’avoir, de pair avec la relativité d’Einstein, entièrement
révolutionnée la conception statique que l’on se faisait de la structure de la
réalité au profit d’un schéma relationnel ou interactionnel. Au vide conçu
de manière négative comme une absence d’atome, elle substitue un vide
transi de champs électromagnétiques. Champs dont les fluctuations
aléatoires ont pour effet… de le peupler de particules. On se réfère
communément à ce vide écumant de champs par l’expression de « mer de
Dirac », en référence au physicien qui en a le premier fait l’hypothèse. C’est
l’énergie du vide (ou « énergie du point zéro »), manifestée à de très faibles
échelle par l’effet Casimir, qui rend de fait possible cette coagulation de
matière, conformément au principe de la conversion de l’énergie en masse
E = mc2. Comprenons bien la conséquence de cette proposition : elle rend
118
possible la création d’une particule réelle à partir du néant, ou de ce qui
jusqu’alors passait pour l’être.
On comprendra peut-être mieux ce dont il est question en convoquant la
métaphore du prêt bancaire sans charge d’intérêt, celui – entre autres –
qu’une banque centrale publique consentait aux États avant le putsch des
marchés financiers (loi de prohibition imposée par les multinationales).
Tout se passe comme si la création de matière impliquait l’utilisation d’un
quantum d’énergie qui doit être « emprunté » au vide et restitué d’autant
plus rapidement que l’emprunt est élevé ; comme si les fluctuations
quantiques responsables de la matérialisation de nouvelles particules
installaient une situation de dette énergétique que ces mêmes particules ne
pouvaient éponger qu’en retournant au vide. Or, c’est bien en s’annihilant
après un laps de temps infinitésimal que ces particules semblent effectuer ce
remboursement. Ce processus quasi-instantané ne permet pas leur détection
: on les nomme donc des particules « virtuelles ». Selon la théorie quantique
des champs, ces particules virtuelles sont responsables des forces qui
s'exercent entre les particules proprement dites. Et c’est à leur échange que
sont rapportées l’ensemble des interactions qui se produisent entre les
corpuscules et entre les corps graves, sujets à la gravitation.
Cette réserve d’énergie apparemment inépuisable que représente le vide
(quantique) fonctionne de manière continue. Il en ressort que le vide, loin
d’être une absence d’être, un désert matériel, se constitue comme une
banque d’énergie agitée de fluctuations quantiques, remplie en permanence
par une multitude de particules virtuelles de toutes espèces. Le vide
bouillonne littéralement d’être en puissance. Nous sommes très loin de
l’image statique que s’en faisait l’atomiste de l’Antiquité.
Le vide a non seulement investi l’intérieur de l’atome, remplissant les
différentes couches entre les électrons et l’espace entre le noyau et la
première de ces couches, mais les atomes et autres particules subatomiques
se sont également vus plonger dans une véritable mer de particules
virtuelles avec lesquelles elles sont en perpétuelle interaction. Au vide
inerte de Démocrite s’est substitué un vide actif et dynamique, agent des
119
forces qui régissent l’univers, participant à sa structuration ; mieux même, il
apparaît comme la source primordiale possible dont a jailli cet univers à la
faveur d’une fluctuation quantique originaire, une « rupture de symétrie » –
quelque puisse être par ailleurs la cause de cette rupture et de l’excédent de
matière au regard de l’antimatière, initialement produites en quantité égale.
C’est en effet l’une des plus importantes questions de la physique laissée
ouverte que de savoir à quoi tient la « victoire » de la matière sur
l’antimatière. La création de particules virtuelles est une création en double
: sont produites simultanément une particule et sa correspondante à charge
électrique inverse, son antiparticule. Celles-ci ne mettent qu’un bref instant
après leur concrétisation pour deux nouveau se rencontrer, pour
complètement s’anihiler en se transformant en énergie – restituant ce
faisant au vide l’énergie de leur emprunt.
Schéma (a) d’annihilation et (b) de matérialisation d’une paire particuleantiparticule, ici l’électron (-) et son positron (+), avec émission de deux
photons gamma. Crédit : Addison Wesley
120
Comment comprendre alors que la quantité de matière se soit trouvée en
proportion plus importante que la quantité d’antimatière ? Une hypothèse
met en avant l’asymétrie qui se constate dans la transformation des kaons
neutres, selon qu’ils évoluent spontanément de particule à antiparticule, ou
d’antiparticule à particules (étant leurs propres antiparticules). C’est la
moindre durée de conversion de l’antikaon en kaon au regard de l’opération
inverse qui expliquerait le surplus relatif de matière dans l’univers : un
milliard de particules de matière classique pour une seulement
d’antimatière. La rencontre de la matière et de l’antimatière n’aurait alors
laissé comme résultat de la soustraction que de la matière. Ceci ne nous
apprend rien toutefois de la cause ultime de cette dissymétrie : pour quelle
raison la conversion du kaon neutre est-elle plus prompte dans un sens et
plus poussive dans l’autre ?
Nous avons indiqué par quel moyen les particules virtuelles trouvent à se
matérialiser, et comment cette opération était conditionnée par la mise à
disposition d’une énergie suffisante. De telles énergies étaient présentes
dans les premières fractions de seconde après le big-bang. Les accélérateurs
de particules ont vocation à reproduire ces conditions et à permettre ainsi
de ressusciter des entités qui ne se trouvent plus dans l’univers tel qu’il est
aujourd’hui.
Les particules ne sont pas que de la matière brute ; inversement, le vide
n’est pas qu’une pure absence. Les particules sont dans le vide et le vide
dans les particules. Les particules jaillissent du vide et y retournent
éventuellement. S’efface dans cette optique la frontière hermétique que
Démocrite avait dressée entre le vide et la matière. Le vide n’apparaît plus
que comme l'état latent de la réalité sensible, quand la matière est l’état
manifeste du vide, de l’énergie coagulée. Vide et matière sont deux aspects
d’une même réalité, l’avers et le revers de la même médaille. Ces deux
réalités ne sont en dernier ressort que les expressions complémentaires et
réversibles d’un seul et même principe.
Beaucoup s’en faut toutefois que cette théorie des états transitifs suffise à
dénouer le mystère du vide et de la matière. Bien des questions demeurent
121
encore ouvertes ; dont celle – qui ne relève peut-être plus expressément de
la science – de savoir d’où viennent les champs qui galvanisent le vide,
quelle est la cause des fluctuations qui le parcourent et comment la matière
en est venue à subsister, cela en violant (apparemment peut-être) le
principe de parité particules-antiparticules et de précarité des particules
virtuelles.
Paul-Michel Foucault (1926-1984)
Principales contributions :
- Histoire de la folie à l'âge classique (1962)
- Les mots et les choses : une archéologie des sciences humaines (1966)
- L'Archéologie du savoir (1969)
- Dits et Écrits, vol. 1 (1954-1975), vol. 2 (1976-1988), vol. 3 (1976-1979),
vol. 4 (1980-1988)
Concepts et idées-forces :
- Une pensée qui emprunte aux outils d’analyse et aux notions frayées par
les « contre-sciences » humaines que seraient la psychanalyse, la
linguistique et l’ethnologie.
- Influencé par Canguilhem, rapporteur de sa thèse intitulée Folie et
déraison. Histoire de la folie à l’âge classique, lequel ne tarit pas d’éloges sur
l’œuvre de son élève : « Les mots et les choses est pour les sciences de
l’homme ce que la Critique de la raison pure était pour les sciences de la
nature » (« La mort de l’homme ou l’épuisement du cogito », dans Critique,
juillet 1967). Là où le premier s’était intéressé à la question de la
normativité vitale, le second reporte son étude sur le terrain de la
construction des normes sociales et analyse les processus de normalisation.
Juste retour des choses, c’est par l’œuvre de Foucault que la philosophie
anglo-saxonne contemporaine va prendre connaissance de Canguilhem.
- L’épistémè. Le terme d’épistémè recouvre les « conditions du discours »
s’imposant à discipline et appelées à se modifier au cours du temps. Ainsi
que s’en explique Foucault au cours d’un entretien daté de 1972, « ce que
j’ai appelé dans Les mots et les choses "épistémè" n’a rien à voir avec les
catégories historiques. J’entends tous les rapports qui ont existé à une
certaine époque entre les différents domaines de la science [...] Ce sont tous
ces phénomènes de rapport entre les sciences ou entre les différents
122
discours dans les divers secteurs scientifiques qui constituent ce que
j’appelle épistémè d’une époque » (Dits et Écrits).
- Succession des épistémès dans le cadre d’un projet d’histoire des systèmes
de pensée. La périodisation de l’histoire que propose Foucault fait apparaître
des époques qui se distinguent par l’existence d’un certain nombre de
conditions de vérité définissant les cadres du possible et de l’acceptable,
aussi bien dans le champ du politique que dans celui des sciences. Trois
périodes, trois épistémè correspondante ; auxquelles s’ajoutent une
quatrième épistémè qu’il définit comme étant celle de notre époque :
(1) L’épistémè de la Renaissance (XVIe siècle) caractérise l’âge de la
ressemblance et de la similitude.
(2) L’épistémè classique (XVIIe siècle) définit l’âge de la représentation.
Axée sur les concepts d’ordre, d’identité et de différence. La notion d’«
homme » n’existe pas encore dans le sens épistémologique que nous lui
attribuons : « Il n’a ni puissance de vie, ni fécondité du travail, ni épaisseur
historique du langage. C’est une toute récente créature que la démiurgie du
savoir a fabriqué de ses mains, depuis deux cents ans » (Les mots et les
choses).
(3) L’épistémè moderne (XXe siècle) qui reste encore pour une grande
part la nôtre et dont Foucault, dans Les mots et les choses, tente de faire
apparaître les contours. Parmi les différents penseurs ayant contribué à sa
mise en place figurent, après Descartes, 1) Arnaud, Nicole et Pascal, célèbre
pour leur Logique de Port-Royal (1662), décisif en matière de logique, de
grammaire et de syntaxe ; 2) Adam Smith, chef de file des Lumières
écossaises, auteur de la Richesse des nations (1776) ; et 3) Antoine Destutt
de Tracy, penseur de la politique de l’après-Révolution, connu pour ses
Eléments d'idéologie publiées entre 1825 et 1827.
(4) L’épistémè hypermoderne vers laquelle nous nous engageons depuis
le milieu des années 1950. Elle autorise la thématisation de l’épistémè.
- Épistémologie discontinuiste. L’archéologie de Foucault consiste à penser
les ruptures, les « discontinuités énigmatiques », les « mutations », les «
évènements radicaux », les « décalages infimes mais essentiels » dans l’ordre
du savoir. Elle mesure les écarts entre les différentes époques, les différentes
« figures de la vérité ». Il s’agit de mettre en perspective de manière critique
les précédentes épistémès avec nos propres cadres de pensée, de
comprendre la distance qui nous sépare de ces précédentes épistémès.
123
- Exemple de différentes mutations de l’épistémè dans les domaines (1) des
sciences de la vie, avec la transformation de l’histoire naturelle en biologie ;
(2) des sciences du langage, avec l’apparition de la linguistique qui prend la
suite de la grammaire générale ou (3) des sciences camérales, avec l’essor de
l’économie moderne.
- Archéologie du savoir. Les mots et les choses se présente comme une «
archéologie des sciences humaines ». Un paradigme géologique plutôt que
généalogique. À chaque époque correspond une épistémê, une strate ;
chaque strate repose sur la strate précédente. Il n’y a pas cependant, d’une
strate à l’autre, de continuum, de graduation : il y a des superpositions de
« couches » de couleur et de texture différentes. L’épistémê antécédente est
nécessaire à l’éclosion de la suivante, qui ne s’y dilue pas comme son
prolongement naturel. Exemple de l’évolutionnisme en biologie, dont
l’émergence est tributaire d’une biologie fixiste incarnée par Cuvier.
Exemple de l’économie critique de Marx, conditionnée par les théoriciens
de l’économie classique (Ricardo, Smith, etc.).
- Donne à l’épistémê une extension plus large que celle des paradigmes de
Kuhn. Elle est irréductible aux « structures » du structuralisme, dans la
mesure où le structuralisme postule un invariant en-deçà des
transformations accidentelles qui s’organisent autour de lui. Foucault,
comme l’écrit Jean Piaget, pense à l’inverse la juxtaposition d’épistémès de
part en part hétérogènes les unes par rapport aux autres.
- Biopouvoir, biopolitique.
- Herméneutique du sujet.
Hans-Georg Gadamer (1900-2002)
Principales contributions :
- Vérité et méthode (1960)
- Langage et vérité (1995)
- La philosophie herméneutique (1996)
Concepts et idées-forces :
- Au scientisme régnant à son époque dans les sciences de l’esprit, Gadamer
rétorque que la méthode scientifique ne saurait être la seule démarche
d’investigation, ni la plus adaptée pour aborder l’activité humaine.
124
- Partage avec Dithley la distinction comprendre vs expliquer.
- Part néanmoins, à rebours de Dithley, de l’art plutôt que les sciences
humaines pour entreprendre de prouver que la compréhension ne réside
pas dans la maîtrise d’une technique de l’esprit : elle est le fruit d’une «
rencontre ». Rencontre impliquant des sujets qui ne sont ni neutres ni
objectifs, mais héritiers d’une tradition, dépositaires de préjugés (lesquelles
ne sont pas condamnables en soi), inexorablement « situés ». Mais aussi
éduqués perpétuellement à la faveur d’un « travail de l’histoire ». En sorte
que tout acte interprétatif est façonné par un passé, déterminant pour le
futur ; que chaque événement est l’occasion d’enrichir ce soubassement
interprétatif de nouvelles expériences. Cf. le « cercle herméneutique » chez
Heidegger.
- Ainsi dans l’art, une « expérience de vérité » nous fait découvrir l’œuvre
sous le chiffre de la rencontre et fait participer le spectateur – le « spectacteur » – à la constitution de l’œuvre. Autant de sujets que d’œuvres.
Dimension cognitive de l’art contra la Critique de la faculté de juger de
Kant qui le relègue dans une sphère autonome, hermétique à la
connaissance. Prouve que certaines vérités échappent aux sciences de la
nature.
- Ontologie de l’œuvre d’art. Reprise de la notion de mimésis chez Aristote.
Les images saintes (icônes) exaltées par Jean Damascène opposées à
l’esthétique moderne de l’art pour l’art.
- Le dialogue interprétatif au centre de l’herméneutique de Gadamer se
constitue dans l’élément langage.
Galileo Galilei (1564-1642)
Principales contributions :
- Le Messager des étoiles (1610)
- Histoire et démonstrations à propos des taches solaires (1613)
- L'Essayeur (1623)
- Dialogue sur les deux grands systèmes du monde (1632)
125
Concepts et idées-forces :
- Pose les fondements de la mécanique classique, de la physique analytique,
quantitative, mathématique et expérimentale. Prépare ainsi la synthèse
newtonienne qui accomplit la révolution scientifique du XVIe-XVIIe siècle.
- Révolution instrumentale. Perfectionnement de la lunette d’approche,
invention d’un lunetier hollandais, grâce à l’association de deux verres
grossissants montés en série aux deux extrémités d’un tube en plomb.
Contribution des ingénieurs italiens ; en l’occurrence, des verriers de
Murano. Fait apparaître l’importance du contexte économique. Importance
également du contexte politique. Galilée présente une première version de
son instrument au Doge de Venise le 21 août 1609. Braqué sur la mer, fait
apparaître distinctement les navires éloignés, permet de discerner leur
pavillon et ainsi de prévenir l’attaque surprise des Turcs ou des corsaires.
Les sénateurs de la République de Venise envisagent immédiatement des
applications militaires. Galilée, pour sa part, à l’idée de s’en servir pour
observer le ciel. Les deux lunettes astronomique fabriquées à Padoue en
1609 grossissants jusqu’à vingt fois les objets distants, auront permis à
l’astronome d’aller de découverte en découverte et d’apercevoir des choses
que l’homme n’avait jamais vues. Au nombre de ces découvertes :
(1) La profusion des astres. La Voie Lactée, qui jusqu’alors n’avait était
qu’une bande laiteuse et floue, s’avère constituée d’une pléiade d’étoiles : «
Ce qui nous a été donné d'observer, c'est l'essence ou mieux la matière dont
est constituée la Voie Lactée, telle qu'elle apparaît au moyen de la lunette ;
et ainsi, toutes les discussions qui, pendant des siècles, ont partagé les
philosophes, prennent fin devant la certitude qui s'offre à notre vue, et
grâce à quoi nous sommes libérés des disputes verbeuses […] De plus,
merveille encore plus grande, les étoiles que certains astronomes ont
appelées "nébuleuses" sont des troupeaux de petites étoiles éparpillées
d'admirable manière » (Le Messager des étoiles). Plus ultra : c’était déjà la
devise de la Renaissance. Par-delà l’inconnu. Par-delà les colonnes
d’Hercule, faire reculer les limites du savoir en même temps que celles de
l’univers. De telles observations sont ce qui précipite, selon le titre de
l’ouvrage d’Alexandre Koyré, le passage « du monde clos à l’univers infini ».
(2) Les satellites de Jupiter. Io, Europe, Ganymède et Callisto, que Galilée
baptise les Medicea Sidera (les « étoiles Médicées ») en référence au quatre
126
frères de la maison Médicis. Prouve que la Terre n’est pas la seule planète
pouvant servir de foyer à la révolution d’autres objets célestes. Il n’est donc
plus absurde de penser que le soleil le puisse aussi ; donc, par extrapolation
que la Terre tourne autour du Soleil.
(3) Cratères de Lune et taches solaires. La lune et le soleil arborent à leur
surface de nombreuses irrégularités (Histoire et démonstrations à propos
des taches solaires) ; ces astres n’ont rien des sphères parfaites et lisses que
voulait y voir le Stagirite. Topologie écorchée, irrégulière, analogue à celle
de la Terre.
L’étude mathématique des phénomènes ne doit plus être réservée au monde
supra-lunaire. Ces découvertes apportent les preuves observationnelles qui
faisaient encore défaut au modèle héliocentrique de Copernic. Elles font
comprendre à Galilée que la même physique s’applique à la mécanique
terrestre et à la mécanique céleste.
- Révolution expérimentale. La nature est soumise à la question,
conformément à une méthode qui articule l’établissement de lois
universelles et la constitution de schémas idéalisés de la nature. Le
phénomène auparavant donné dans l’expérience devient l’objet construit de
l’expérimentation, produit à l’aide de dispositifs et exprimé par des mesures.
Illustration de cette méthode chez Galilée à travers différentes
expérimentations :
(1) Les fondements de la balistique. L’expérience du pendule oppose un
démenti à la conception aristotélicienne classique du mouvement des corps
admis en Italie depuis le début du XIIe siècle selon laquelle « les corps ont
des mouvements rectilignes qui les ramènent dans leur lieu naturel, les
éléments air et feu vont vers le haut, les éléments terre et eau vers le bas ».
Combiné à un déplacement horizontal, l’accélération verticale d’un corps se
traduit par une trajectoire parabolique.
(2) Visant à mettre à jour les principes de la physique des graves (du latin
gravis, « lourd »), l’expérience du lâcher de boules de pierre de poids
inégaux mais de forme identique depuis le clocher de l’église de Padoue,
vers 1604, prolonge cette expérience. Elles conduisent au constat que la
vitesse de chute des corps ne dépend pas de leur masse. S’oppose une
nouvelle fois à la thèse aristotélicienne selon laquelle « plus un objet est
lourd, plus il tombe vite car il est constitué en plus grande proportion de
l'élément terre ».
127
(3) Mise en place d’un dispositif comprenant un plan incliné permet
d’analyser plus en détail ces résultats. Il en ressort une démonstration de la
loi sur la chute libre des corps édictant qu’à partir d’un état de repos, les
espaces parcourus sont proportionnels aux carrés des temps de parcours.
(4) l’expérience sur les corps flottants de 1611 fait la démonstration que
la flottaison des corps dépend de leur poids et non de leur surface. la glace
est plus légère que l'eau (sa densité est moindre), contrairement à ce
qu’enseignait Aristote, à savoir que « si la glace flotte c'est à cause de sa
forme en plaque. Il y a les corps lourds d'un côté et les corps légers de
l'autre ». Publication l’année suivante (1612) de ces résultats dans le
Discours sur les choses qui flottent sur l'eau ou qui s'y déplacent : « Je
m'attends à une terrible attaque de l'un de mes adversaires, et je l'entends
presque déjà crier à mes oreilles que c'est une chose de traiter des questions
physiquement et une autre d'en traiter mathématiquement, et que les
géomètres devraient s'en tenir à leurs fantaisies et ne pas se mêler des
questions philosophiques, où les conclusions sont différentes des questions
mathématiques. Comme si la vérité pouvait n'être pas une, comme si de nos
jours la géométrie était un obstacle à l'acquisition de la vraie philosophie,
comme s'il était impossible d'être géomètre autant que philosophe, et qu'on
du inférer comme une conséquence nécessaire que si quelqu'un connaît la
géométrie il ne peut connaître la physique et ne peut raisonner
physiquement des questions physiques ».
- Révolution théorique. Désubjectivation du phénomène et construction de
l’objet scientifique par le recours à la mathématisation : « La philosophie est
écrite dans cet immense livre qui se tient toujours ouvert devant nos yeux,
je veux dire l'Univers, mais on ne peut le comprendre si l'on ne s 'applique
d'abord à en comprendre la langue et à connaître les caractères avec
lesquels il est écrit. Il est écrit dans la langue mathématique et ses caractères
sont des triangles, des cercles et autres figures géométriques, sans le moyen
desquels il est humainement impossible d'en comprendre un mot. Sans eux,
c'est une errance vaine dans un labyrinthe obscur ». Généralisation de
l’usage des mathématiques à l’ensemble des phénomènes observables, quand
elle se cantonnait auparavant aux corps célestes, les seuls, en apparence, à
manifester des mouvements parfaits. Prête à la science moderne une forme
d’universalité qui supplée à la défectivité des sens.
128
- Naissance de la science proprement dite à l’intersection de ces trois
révolutions (instrumentale, expérimentale et théorique). Ce que résume
Kant en s’inspirant de Bacon à l’occasion de la seconde Préface à la Critique
de la raison pure (1787) : « Lorsque Galilée fit rouler ses boules sur un plan
incliné avec une accélération déterminée et choisie par lui-même, ou que
Torricelli fit porter à l'air un poids qu'il savait être égal à celui d'une
colonne d'eau à lui connue, ou que, plus tard, Stahl transforma des métaux
en chaux et celle-ci à son tour en métal, en y retranchant ou en y ajoutant
certains éléments, alors ce fut une nouvelle lumière pour tous les
physiciens. Ils comprirent que la raison n'aperçoit que ce qu'elle produit
elle-même d'après ses propres plans, qu'elle doit prendre les devants avec
les principes qui déterminent ses jugements suivant des lois constantes, et
forcer la nature à répondre à ses questions, au lieu de se laisser conduire par
elle comme en lisières ; car autrement nos observations faites au hasard et
sans aucun plan tracé d'avance ne sauraient se rattacher à une loi
nécessaire, ce que cherche et exige pourtant la raison. Celle-ci doit se
présenter à la nature tenant d'une main ses principes, qui seuls peuvent
donner à des phénomènes concordants l'autorité de lois, et de l'autre
l'expérimentation, telle qu'elle l'imagine d'après ces mêmes principes. Elle
lui demande de l'instruire, non comme un écolier qui se laisse dire tout ce
qui plaît au maître, mais comme un juge en fonctions, qui contraint les
témoins à répondre aux questions qu'il leur adresse. La physique est donc
redevable de l'heureuse révolution qui s'est opérée dans sa méthode à cette
simple idée, qu'elle doit chercher (et non imaginer) dans la nature,
conformément aux idées que la raison même y transporte, ce qu'elle doit en
apprendre, et dont elle ne pourrait rien savoir par elle-même. C'est ainsi
qu'elle est entrée d'abord dans le sûr chemin de la science, après n'avoir fait
pendant tant de siècles que tâtonner ».
- Première formulation du principe d’inertie, dont découle la notion de
force : « Tout corps possède une certaine inertie qui l’oblige à conserver sa
vitesse, à moins qu’une force extérieure l’oblige à arrêter ce mouvement ».
- Relativité du mouvement : « Enfermez-vous avec un ami dans la cabine
principale à l'intérieur d'un grand bateau et prenez avec vous des mouches,
des papillons, et d'autres petits animaux volants. Prenez une grande cuve
d'eau avec un poisson dedans, suspendez une bouteille qui se vide goutte à
goutte dans un grand récipient en dessous d'elle. Avec le bateau à l'arrêt,
129
observez soigneusement comment les petits animaux volent à des vitesses
égales vers tous les côtés de la cabine. Le poisson nage indifféremment dans
toutes les directions, les gouttes tombent dans le récipient en dessous, et si
vous lancez quelque chose à votre ami, vous n'avez pas besoin de le lancer
plus fort dans une direction que dans une autre, les distances étant égales, et
si vous sautez à pieds joints, vous franchissez des distances égales dans
toutes les directions. Lorsque vous aurez observé toutes ces choses
soigneusement (bien qu'il n'y ait aucun doute que lorsque le bateau est à
l'arrêt, les choses doivent se passer ainsi), faites avancer le bateau à l'allure
qui vous plaira, pour autant que la vitesse soit uniforme [c'est-à-dire
constante] et ne fluctue pas de part et d'autre. Vous ne verrez pas le
moindre changement dans aucun des effets mentionnés et même aucun
d'eux ne vous permettra de dire si le bateau est en mouvement ou à l'arrêt
[…] » (Dialogue concernant les deux plus grands systèmes du monde ). On
ne peut juger du déplacement ou de la vitesse d’un objet sans référer ce
déplacement ou cette vitesse à un point fixe (ou désigné arbitrairement
comme tel), plus tard appelé « repère galiléen ». En l’occurrence, pour tout
ce qui concerne les mouvements terrestres, la Terre, et le soleil pour tout ce
qui concerne les mouvements des corps célestes (parmi lesquels la Terre).
- Pascal exploite la métaphore : nous sommes embarqués dans la vie – «
engagé » dira Sartre –, et notre seul repère en matière de morale et de
connaissance consiste en Jésus-Christ. La relativité galiléenne est reprise par
Newton, érigée en principe par Poincaré, refondue par Einstein dans le
cadre d’une théorie physique.
- Publication en 1632, avec l’onction du Pape Urbain VIII, du Dialogue sur
les deux plus grands systèmes du monde qui rend compte de ces
découvertes astronomiques et fait un sort à la vision géocentrique de
l’univers. Trois personnages : Salviati (héraut de Galilée), Simplicio
(représentant d’Aristote) et Sagredo (arbitre) ; quatre jours pour convaincre
de la supériorité du modèle défendu par Copernic contre celui de Ptolémée
(complication du système d’Aristote).
- Galilée doit répondre de son ouvrage devant l’Inquisition romaine. Nous
sommes en 1616. L’œuvre de Copernic, De la révolution des sphères
célestes, publiée en 1543 (l’année de sa mort) venait la même année d’être
mise à l’index. Giordano Bruno (1548-1600) avait été brûlé en place
publique pour avoir soutenu des idées proches de celle de Copernic.
130
Contexte peu favorable à une « révolution scientifique » mais qui,
précisément en raison ces actions d’éclat visant à « faire exemple », aura
précipité ce changement de paradigme.
- Retour devant le tribunal d’inquisition en 1633. Point d’orgue d’un
affrontement entre la science naissante et la religion cacochyme, porteuse
chacune d’une vision du monde. Image souvent manichéenne, parfois
condescendante, du progrès en butte à la superstition. Galilée contraint de
reconnaître que sa théorie n’est qu’une hypothèse mathématique et
d’abjurer ses convictions héliocentriques. Noter que le fameux « E pur si
muove ! » (« Et pourtant elle se meut ! »), réplique rendue célèbre par la
pièce de Bertolt Brecht, La vie de Galilée, ne fut jamais prononcée.
- Inaugurée en 1657 par le Grand-Duc Ferdinand II (1610-1670) et par le
prince Léopold de Médicis (1617-1675), l'Accademia del Cimento fait
profession de reprendre les travaux de Galilée et de réfuter
expérimentalement un grand nombre de principes aristotéliciens
universellement admis. Il s’agit de la première organisation européenne se
prévalant d’ambitions strictement scientifiques, préfigurant la Royal Society
de Londres (1660) et l'Académie Royale des Sciences de Paris (1666). La
science devient une pratique institutionnalisée et collective.
Peter Galison (1955-20XX)
Voir : Lorraine Daston.
Bertrand Gille (1920-1980)
Principales contributions :
- Les ingénieurs de la Renaissance (1960)
- Histoire des techniques (1978)
- Les Mécaniciens grecs (1980)
Concepts et idées-forces :
- Ancrage technique, économique, social et matériel de la connaissance.
Travail archivistique d’exploration et de reconstitution des réalisations
techniques des ingénieurs de la Renaissance, principalement de Léonard de
Vinci, touchant à des domaines aussi variés que l’architecture, l’artillerie,
l’horlogerie, l’hydraulique, les automates et la manufacture textile, duquel il
131
faut conclure que leur apparition corrélée à celle du capitalisme italien au
crépuscule de l’ère féodale fut l’une des conditions sine qua non à
l’avènement de la science classique.
- Approche intégrative, holiste, externaliste, complexe, des objets de
l’épistémologie et de l’histoire des sciences. De même que les états de la
science ne sont pas compréhensibles abstraction faite du contexte historique
qui les voit naître (non plus que chaque discipline et même chaque énoncé
produit au sein de ces disciplines abstraction faite de l’ensemble organique
du savoir et du pouvoir d’une époque), chaque technique considérée ne
peut être étudiée à part le système des technologies qui constituent un stade
de leur histoire.
- Interdépendance entre système social et système technique. Primat
chronologique de celui-ci sur celui-là, qui l’accompagne comme son ombre
mais ne le précède pas. L’imposition d’un système technique appelle la mise
en place de l’économie sociale correspondante – et non l’inverse. C’est bien
ici la base technique qui détermine l’évolution des autres systèmes ou
superstructures (juridiques, politiques, économiques) de sorte à maintenir
une cohérence d’ensemble. Éventualité de systèmes techniques bloqués ;
d’où stagnation des sciences et des institutions.
- Réhabilitation des mécaniciens grecs, point aveugle d’une historiographie
des sciences biaisée et sélective qui n’aurait d’yeux que pour la pensée
abstraite et la science spéculative, au risque de méconnaître une tradition
qui, de Thalès jusqu’à Vitruve en passant par Archimède, Philon de Byzance
et autre Héron d'Alexandrie, fut l’atelier classique de la technologie.
-Dans la lignée de ce qui précède, l’hiatus entre théoriciens d’une part et
praticiens de l’autre, sciences fondamentales d’une part et sciences
appliquées de l’autre n’avait pas cours à l’âge classique, où les savants se
préoccupaient autant de problèmes matériels que de métaphysique.
Sciences et techniques n’en sont venues que tardivement à se disjoindre,
sinon à s’opposer du fait des philosophes.
- Au nombre des réalisations des ingénieurs de la Grèce antique, Bertrand
Gille distingue entre autres l’arbre à cames, mis au point par les Grecs
d’Alexandrie, qui rend possible de programmer certaines opérations
techniques ; les cinq chaînes cinématiques élémentaires qui ont pour intérêt
d’améliorer les machines de chantier ainsi que les premiers automates de
132
divertissement ; des dispositifs mettant à profit l’écoulement des fluides
pour concevoir des machines homéostatiques, etc., etc.
- Le développement des mathématiques grecques doit beaucoup à la volonté
d’universaliser les principes mis en œuvre par la technique. La conception
des plans, le calcul des effets est tributaire d’un outil théorique dont
l’amélioration répond à des nécessités censément matérielles. L’astronomie
elle-même découvre son origine dans le besoin de marquer le temps des
récoltes (le passage des saisons) et l’espace du voyage.
Ernst von Glasersfeld (1917-2010)
Principales contributions :
- L'invention de la réalité, contributions au constructivisme (1988)
- « Cognition, Construction of Knowledge and Teaching » dans Synthese, 80
(1989)
- « Questions and Answers About Radical Constructivism » dans M.K.
Pearsall (ed.), Scope, Sequence, and Coordination of Secondary Schools
Science, vol. 11 (1992)
- « The radical constructivist view of science » dans A. Riegler (èd.),
Foundations of Science, special issue on - « The Impact of Radical
Constructivism on Science » (2001)
Concepts et idées-forces :
- Constructivisme radical. Mot d’ordre : « Ne plus considérer la
connaissance comme la recherche de la représentation iconique d'une
réalité ontologique, mais comme la recherche de manières de se comporter
et de penser qui conviennent. La connaissance devient alors quelque chose
que l'organisme construit dans le but de créer de l’intelligibilité dans le flux
de l'expérience » (E. von Glaserfeld, « L'invention de la réalité » dans P.
Watzlawick, 1981-1985).
Kurt Gödel (1906-1978)
Principales contributions :
- « Über formal unentscheidbare Sätze der Principia mathematica und
verwandter Systeme » (1931)
133
Concepts et idées-forces :
- Le théorème de complétude du calcul des prédicats du premier ordre,
démontré dans sa thèse de 1929. Une proposition universellement valide
peut être démontrée.
- Le théorème d’incomplétude, publié en 1931, apporte la démonstration du
fait qu’aucun système logique suffisamment puissant pour axiomatique et
l’arithmétique ne peut être à la fois complet et cohérent ; ou bien la
cohérence de ses axiomes ne peut être prouvée à l’intérieur d’un tel
système. Tout système formel donné admet au moins une proposition qui
ne peut être infirmée ou confirmée à partir des axiomes sur lesquelles il
repose.
- Un exemple heuristique peut être proposé en admettant qu’une formule
qui énonce qu’elle n’est pas démontrable ne peut être démontrée
(tautologie) ; donc elle n’est pas démontrable. Or c’est précisément ce
qu’elle énonce, elle est donc également valide. La formule est valide mais
n’est pas démontrable.
- Ces théorèmes achèvent de ruiner l’entreprise d’axiomatisation de la
science portée par le cercle de Vienne, notamment sous la forme d’un jeu
d’axiomes définitifs rabattant l’édifice mathématique sur une base
mathématique comme dans les Principia mathematica de Russell et de
Whitehead, ou via le formalisme de Hilbert. C’est également une fin de
non-recevoir opposée au projet leibnizien de Caractéristique universelle.
- En admettant la cohérence des axiomes admis de la théorie des ensembles,
ceux-ci ne permettent pas de réfuter l'hypothèse du continu.
- Élabore la théorie des fonctions récursives.
- Gödel est un cas exemplaire de conciliation de la rationalité scientifique et
de mysticisme ésotérique (cf. Pierre Cassou-Noguès, Gödel). Le logicien
peut trouver son inspiration et la matière de sa réflexion dans la spéculation
théologique la plus échevelée. Voire également dans la folie et la fertile
paranoïa de Gödel qui provoquera sa mort n’est pas sans rappeler celle de
l’économiste et mathématicien américain John Forbes Nash dont la
biographie adaptée à l’écran (A Beautiful Mind, réalisé par Ron Howard,
2001) a largement participé à sensibiliser le grand public sur la question.
- La Preuve ontologique de Gödel, inspirée de celle de Leibniz, apporte la
démonstration de l’existence de Dieu formalisée dans le système de la
logique modale.
134
Albert le Grand (1193-1280)
Principales contributions :
- Alkymia (Alchimie)
- De Intellectu et Intelligibili (Sur l'intellect et l'objet intelligible) (1250)
- De Anima (De l'âme) (1254-1257)
- Physica (1257)
- De animalibus (Des animaux) (1258)
- De mineralibus (Des minéraux) (1263)
- Summa theologiae (Somme théologique) (1276)
- Divers Commentaria sur l’œuvre d’Aristote, sur l’Ancien et le Nouveau
Testament
Concepts et idées-forces :
- Moine dominicain allemand, théologien et philosophe. Figure majeure de
la science médiévale, connu pour ses nombreux travaux abordant la quasitotalité des champs de la connaissance étudiée de son temps (physique,
astronomie, géographie, zoologie, botanique, minéralogie, psychologie, etc.)
Un essai d’encyclopédie avant la lettre, complétée par une Somme de
théologie qui servira de modèle à celle de son élève direct, Thomas d’Aquin.
- Avec Boèce et Jacques de Venise, participe à la diffusion en Occident des
traités d’Aristote dont il propose des commentaires. Réactualise les savoir de
l’Antiquité en augmentant les textes grecs et latins de la réflexion
intellectuelle et de l’apport des Arabes, tout particulièrement dans les
domaines de la médecine, de l’astronomie et des mathématiques.
- Production personnelle, dont il faut retrancher toutefois une collection
importante d’œuvres pseudépigraphes ou non authentifiées. À ces
doxographies, il associe ses propres gloses, critiques et observations. Défiant
envers la connaissance d’autorité (esprit critique), il se plaît à interroger luimême les spécialistes de chaque domaine pour recueillir leur expérience.
Attitude réservée à l’encontre du dogmatisme caricatural (ou caricaturé) de
la scolastique (« Aristoteles dixit ») : « C'est ce qu'on raconte, lit-on souvent
dans ces traités, mais je ne l'ai pas vérifié par moi-même ».
- Doit son titre d’« ancêtre » de la science moderne à l’importance qu’il
accordait à l’expérience et à l’observation. La démarche scientifique consiste
135
selon lui en « la recherche des causes des phénomènes naturels ». Albert le
Grand, dans un ouvrage de botanique, conseille pour cela de « faire des
conjectures et des expérimentations ».
- Définition de l’expérimentation qui jouit de cette prérogative de « mettre
à l'épreuve de l'expérience les nobles conclusions de toutes les sciences » ;
elle vérifie autant les résultats (déductif) des mathématiciens que les
assertions générales des philosophes. L’expérimentation commence à
rompre d’avec l’expérience commune, faite de tâtonnements empiriques, en
ce qu’elle renvoie à une entreprise méthodique et systématique de
confrontation des postulats aux phénomènes.
- Fascination pour l’occultisme, discipline très répandue chez les érudits de
l’époque entre lesquels il pouvait y avoir des accords. Connaissance de
première main des sciences occultes, en dépit de réserves d’ordre
théologique. Albert le Grand ne doute pas de l’influence des corps célestes
sur les destinées humaines et de la possibilité de la transmutation. La
première de ces croyances soulevait le problème de la prédétermination de
l’œuvre missionnaire et de la crucifixion de l’œuvre de Jésus-Christ : le Fils
de Dieu pouvait-il être contraint par une force supérieure ? D’un autre côté,
essentiels au déterminisme comme postulat fondamental est condition de
possibilité des sciences.
- Rapport incontournable entre magie et science. Albert le Grand, fort de sa
connaissance des œuvres d’Ibn Qurra et de Picatrix, se fait fort de ne plus
être en apprenti : « Bien plus, nous sommes experts en magie » (« Etiam nos
ipsi sumus experti in magicis ») (De anima, I, 2, 6). Et l’auteur d’ajouter, en
marge des assertions de son De l’Âme, qu’il s’agit de « vérité que nous avons
expérimentée par notre pratique de la magie » (De anima, I, passim).
Reprend la partition entre magie démoniaque et condamnable – la goétie,
comprenant la nigromancie (magie noire) et l’invocation des démons – une
magie acceptable pour un chrétien, celle qui marie les éléments entre eux
en vertu de leurs affinités naturelles. Cette seconde forme de magie prend
activement part au projet originaire de Création dont l’homme est
l’instrument. C’est une magie qui, loin de s’y opposer, loin d’être une
preuve d’orgueil, actualise la volonté de Dieu.
- On voit ainsi à l’œuvre chez le Grand une influence prépondérante de la
magie, qui culminera à la Renaissance, en tant que levier du basculement
entre le paradigme ancien, fondé sur la contemplation (observer l'ordre), et
136
le paradigme nouveau, finalisé à l'action de l'homme sur la nature
(ordonner le monde). C'est elle qui, en effet, semble imposer le critère
d'efficacité pratique en fait de celui de concordance avec les Écriture et la
physique classique aristotélicienne. Ce critère d’efficacité pratique est
l’élément crucial de la distinction entre la « vraie magie » et le
charlatanisme au Moyen Âge. Et pourrait donc avoir été l’opérateur de la
transformation de la connaissance spéculative en connaissance opératoire.
Un même rapport pourrait être établi avec l'Inquisition, qui fait passer dans
le domaine religieux et juridique du régime du déclaratif au régime de la
preuve. En sciences aussi, dès lors, il faut prouver (et ce n’est pas pour rien
que l’élengkos socratique était à l’origine une pratique judiciaire). Autant
d’idées qu’il reste à explorer…
- Le plus célèbre traité d’alchimie d’Albert le Grand, l’Alkimia, permet de
déceler l’amorce d’un projet de charte à l’usage du savant expérimentateur.
Soit les principes d’un ethos scientifique : « (1) L'alchimiste sera discret et
silencieux. Il ne révélera à personne le résultat de ses opérations. (2) Il
habitera loin des hommes une maison particulière, dans laquelle il y aura
deux ou trois pièces exclusivement destinées à ses recherches. (3) Il choisira
les heures et le temps de son travail. (4) Il sera patient, assidu, persévérant.
(5) Il exécutera d'après les règles de l'art les opérations nécessaires. (6) Il ne
se servira que de vaisseaux (récipients) en verre ou en poterie vernissée. (7)
Il sera assez riche pour faire en toute indépendance les dépenses qu'exigent
ses recherches. (8) Il évitera d'avoir des rapports avec les princes et les
seigneurs » (Alkimia). Énonciation de vertu quasi-monacales, d’exigences de
rigueurs, de conditions d’expérimentation, d’impératifs d’indépendance
ayant pour fin de soustraire la recherche aux influences du politique
(principe de laïcité épistémologique).
Robert Grosseteste (1168-1253)
Principales contributions :
- Œuvres philosophiques : Commentaires sur Aristote (vers 1220) ; De
Luce ; De Finitate Motus Et Temporis (Finitude du temps et du
mouvement) (vers 1230)
- Œuvres théologiques : De libero arbitrio (Sur le libre arbitre)
137
- Œuvres scientifiques : Sur la génération de sons (De generatione
sonorum), Sur la sphère (De sphaera), Sur les comètes (De Cometis), Sur
l'air (De impressionibus aæris), Sur les lignes, les angles et des figures (De
Lineis, angulis et figuris), Sur l'arc en ciel (De iride), Sur la couleur (De
colore), La chaleur du Soleil (De calore solis), Le mouvement des corps
superceleste (De motu supercaelestium)...
Concepts et idées-forces :
- Évêque de Lincoln, proche de l’ordre des Franciscains. En marge de sa
pastorale, s’illustre dans les domaines de l’optique, des mathématiques, de la
philosophie et de la littérature. De nombreux commentaires sur Aristote qui
font époque dans la pensée occidentale.
- Hérite du philosophe arabe Ibn al-Haytham (dit Alhazen) la conviction
que la science se forge au creuset de l’expérience. Considéré par nombre
d’historiens des sciences comme le vrai « père » de la méthode
expérimentale, dont s’inspirera Roger Bacon, peut-être à son contact.
- A.C. Crombie veut voir en lui l’artisan d’une révolution intellectuelle
d’une ampleur comparable à celle qui gagnerait l’Europe quatre siècles plus
tard : il est le premier philosophe occidental ayant « clairement compris les
principes de la science expérimentale moderne ».
- Importance des mathématiques, qu’il sait être un outil privilégié et
transversal des sciences. Grosseteste leur prête des développements
géométriques avec son De lineis, angulis et figuris, et un emploi
astronomique via sa Theorica planetarum, De accessione et recessione
maris.
- Avant Bruno et Fontenelle, Grosseteste tente d’importer dans le champ
des mathématiques la notion d’infini, confinée par les métaphysiciens au
domaine de la théologie. Fait un usage de l’infini comme grandeur
mesurable en affirmant l’infinité des entiers équivalents au double de
l’infinité des nombres pairs. Faiblesse de l’argumentation, mais le principe
ne se retrouvant pas avant que Georg Cantor démontre la supériorité de
l'infini des nombres réels (aleph1) relativement à l’ensemble des entiers
(aleph0).
- Théorie de la lumière origine de toute chose, valable dans le champ
scientifique autant que dans le champ religieux. Inspiration platonicienne
138
(l’analogie du bien), augustinienne (théorie de l’illumination), biblique
(Genèse).
- Les sciences dites naturelles, visibles, composent avec les sciences
occultes. Pas de démarcation nettement tracée entre ces deux domaines.
Pour pionnier qu’il puisse être en matière de méthode, Grosseteste ne
négligeait nullement l’astrologie qu’il plaçait au sommet de la hiérarchie des
sciences, et – comme beaucoup de ses contemporains – croyait à l’alchimie
ainsi qu’à la transmutation des métaux vils en or, source d’inspiration et
métaphore (selon C. G. Jung) de la purification de l’âme. Transmutation
aujourd’hui pratiquement possible en cela que tout est fait d’atomes.
 Point sur la religion et l’occultisme
Pour être l’un et l’autre deux systèmes d’interprétation du monde aux
postulats distincts, le modèle scientifique et le mythe religieux sont
présentés le plus souvent comme irréconciliable. Du savoir rationnel, il est
devenu commun de faire l’adversaire millénaire de la croyance, celui que
les prêtres baptisaient du nom de l’Orgueilleux, de Prométhée, de Lucifer,
l’Ange « porteur de lumière ». De la « croyance », on n’a de cesse de vouloir
faire ce qui transcende la science pour accéder à un savoir qui dépasse tout
savoir pour atteindre à une intuition suprême de la vérité. La connaissance
serait sceptique et la foi dogmatique. La connaissance serait critique et la foi
doctrinaire.
La connaissance serait prouvée là où la foi ne peut que s’éprouver. La
connaissance décrirait l’être, là où la foi donnerait le sens. Ou bien
soustrairait l’être à toute velléité de rationalisation. C’est cette deuxième
option que retient la tradition lorsqu’elle fait dire à Tertullien « Credo quia
absurdum », « je [le] crois parce que c'est absurde ». La sentence authentique
extraite du De Carne Christi, ch. 5, se présente en contexte de la manière
suivante : « Et mortuus est Dei Filius : credibile est quia ineptum est ; et
sepultus resurrexit ; certum est quia impossibile est », « Le fils de Dieu est
mort : c'est croyable parce que c'est absurde ; et, après avoir été enseveli, il
est ressuscité ; c'est certain parce que c'est impossible ». Le scandale de la
Crucifixion n’est pas à la portée de l’intelligence humaine ; le cœur seul, qui
139
est l’organe de la foi, peut s’approcher des vérités qui dépassent
l’entendement ». « Credo ut intelligam », « je crois pour comprendre »,
précise Saint Augustin.
S’ajoute à ce tableau en clair-obscur des jugements d’ordre politiques,
philosophiques et idéologiques. La science se veut émancipée de la religion.
À l’une échoit l’onction de la modernité, à l’autre la présomption de
minorité (voir l’opuscule de Kant, manifeste de l’Aufklärung : Qu’est-ce que
les Lumières, 1784). C’est contre la « superstition » que les Croisés de la
raison ont pris les armes ; contre l’illuminisme, contre l’obscurantisme que
s’est faite la croisade des libre-penseurs. Du moins est-ce là l’enseignement
que nous avons tout reçu. Qui ne l’a pas entendu dire un jour : que la
science « autonome » et « objective » devait être irrévérencieuse, que la
religion « opium du peuple » ou « délire collectif » offrait des solutions
simplistes et dogmatiques à des problèmes complexes ? Y a-t-il plus
opposées que ces deux démarches ?
La bonne question serait : y a-t-il plus fallacieuse que cette opposition ? On
ne peut nier que le monde chrétien ne paraît pas à première vue faire bon
accueil au principe de raison. Des résistances sérieuses, qui ne se réduisent
pas à des luttes de pouvoir, semblent défier toute tentative de reconstruire
un ordre dans ce chaos animé qu’est la Création. Il ne suffisait pas de
décréter que les astres étaient des luminaires pour évacuer de la nature
toute influence surnaturelle. Passons sur l’apport d’Aristote, médiatisé par
Thomas d’Aquin, à la « physique chrétienne ». Elle ne relève pas
directement de la doctrine religieuse qu’elle prétend compléter. Restons-en
à l’herméneutique des Écritures : qu’en ressort-il ?
Une Providence conduisant l’existence individuelle et l’histoire collective ;
une Grâce divine fondant sur ses élus, eu égard à leurs œuvres ou
indépendamment de celles-ci ; un Christ et ses apôtres thaumaturges, dont
les miracles dérogent impérieusement aux « lois de la nature » (quoiqu’en ait
dit Leibniz). Des anges qui manifestent la volonté d’un Dieu dont « les voies
sont impénétrables ». Une hiérarchie d’esprits célestes. Une démonologie
active face à laquelle se dressent des hommes investis par le Saint Esprit. Et
d’autres hommes, jusqu’aux plus misérables, qui disposaient via la prière
140
d’un instrument de pression ; qui disposaient par leurs intercesseurs
qu’étaient le Christ, la Vierge Marie et la communauté des saints, d’un
pouvoir indirect d’action sur la nature ou sur les autres forces qui agissaient
en elle.
Pourquoi d’ailleurs borner cette liste aux avocats du Dieu ? C’est aux esprits
malins que les nécromanciens et autres adeptes de la goetie adressent
parfois leurs vœux. À Lucifer, ils vendent leur âme dans l’espoir d’acquérir
une magie plus puissante. Le « Pacte » singe l’« Alliance ». Le plus court
chemin vers la puissance est tracé par l’Orgueil du premier ange déchu,
héritier du royaume terrestre. Le Grand Satan n’est-il pas « prince de ce
monde » ? Un monde qui apparaît en proie à d’innombrables forces
capricieuses qui collaborent, s’entravent, s’empêchent ou se confortent,
agissent sur la nature selon leur motivation propre. Un monde au sein
duquel Josué peut obtenir de Dieu qu’il fige la course du soleil et de la Lune
pour une journée entière. Voilà qui tranche le problème de Hume ; et l’on
comprend trop bien pour quelles raisons le sceptique écossais choisit dans
son Enquête sur l’entendement humain, 4ème section, 1ère partie de faire
appel à cet exemple précis.
Providence, Grâce, miracles, magie, intercessions en service commandé :
voilà qui ne prêtait guère à la recherche de « lois » de cause à effet. La
scolastique inspirée par les traités d’Aristote n’y incitait guère davantage,
soustrayant à l’empire de la précision et des mathématiques la région
sublunaire. Une pareille représentation du monde ne promeut ni ne justifie
en rien l’exploration des « causes » et des « relations stables » entre les
phénomènes en vue de leur théorisation. Comment l’homme médiéval,
pétri de christianisme, aurait-il pu imaginer d’extraire une régularité de cet
entrelacement de volitions et de nolitions imprévisibles ?
« Comment ? » : c’est là toute la question. Car la science n’est pas née de
rien : « Ex nihilo nihil fit ». Elle également peut être dite « fille de l’Église ».
Et son berceau, volens nolens, fut la théologie. Au vu des considérations
développées jusqu’ici, on peut être surpris de ce renversement. Il en ressort
que notre exposé ne saurait avoir été complet. Le seul aspect « irrationnel »,
« superstitieux » de la religion, ne saurait l’épuiser. À charge de l’historien
141
des sciences de dégager quelle fut son rôle épistémologique.
La religion berceau des sciences
Nous avons vu que la dialectique entre la « raison naturelle » et la
« révélation » posait un certain nombre de problèmes que la théologie
tentait de surmonter, au prix d’efforts parfois considérables. Le principal
enjeu consistait à déterminer si le fait des miracles autorisait l’établissement
de « lois de la nature ». En étaient-ils une expression, ou la réfutation ?
L’intrusion permanente de causes surnaturelles dans le cours de la nature
rendait-elle impossible une recherche de certitude dans les rapports de
cause à effet ? La seule sagesse consistait-elle en la résignation et en
l’admiration passive des mystères de la création ?
Force est de répondre par la négative. Le ferment religieux de la science
moderne est une réalité dorénavant admise, de même que sont avérées les
origines mythologiques et poétiques de la science grecque. Le raisonnement
de la science moderne plonge ses racines dans l’exégèse des érudits du
Moyen Âge chrétien. Méthodes, outils, notions ; la plupart de ses
instruments de pensée ont été façonnés dans le creuset de la glose. Citons,
en guise d’échantillon :
- L’impetus chez Jean Buridan, qui préfigure le principe d’inertie ;
- La latitude des formes comme quantification des grandeurs intensives, qui
anticipe sur la cinématique moderne ;
- L’infini immanent chez Giordano Bruno, qui transpose à la création un
attribut de Dieu ;
- La logique de Leibniz (cf. Discours de métaphysique, De arte
combinatoria) et celle de Port-Royal.
Emile Durkheim, en 1912, met à l’ordre du jour cette découverte majeure
de l’histoire des idées : « Nous verrons que la notion de forces naturelles est
très vraisemblablement dérivée de la notion de forces religieuses ; il ne
saurait donc y avoir entre celles-ci et celles-là l'abîme qui sépare le
rationnel de l'irrationnel » (Les Formes élémentaires de la vie religieuse). La
religion nourrit la science comme elle nourrit la politique, le droit et l’art.
142
La religion inspire si bien la science que le retournement vindicatif de celleci contre celle-là s’apparente davantage à une manière de parricide qu’à une
confrontation de disciplines opposées, n’ayant rien à se dire, à ce moment
critique d’affirmation de tout adolescent tenté, pour s’autonomiser, de
renier ses honteuses origines. Durkheim encore : « La pensée scientifique
n'est qu'une forme plus parfaite de la pensée religieuse » (ibid.).
La science et l’occultisme
Il y a peut-être plus ; plus inavouable encore. À la théologie ne peut être
imputée l’entière responsabilité (ou l’entière gloire) de l’essor de la pensée
scientifique moderne. L’innocuité des savoirs orthodoxes enseignés
aujourd’hui n’ôte rien à l’hérésie « obscène » des pratiques d’autrefois qui
leur ont donné vie. Nietzsche n’avait rien manqué de cette influence, qui,
dans Le gai savoir, mettait en évidence une continuité entre ces deux
régimes de compréhension du monde, la science et l’occultisme : « Croyezvous donc que les sciences seraient nées, croyez-vous qu'elles auraient crû,
s'il n'y avait eu auparavant ces magiciens, ces alchimistes, astrologues et
sorciers qui durent d'abord, par l'appât de mirages et de promesses, créer la
faim, la soif, le goût des puissances cachées, des forces défendues ? »
Le cas de Newton est des plus significatifs. Celui qui fut peut-être le plus
grand alchimiste anglais, de son siècle n’aurait sans doute jamais pris au
sérieux ni même envisagé l’idée d’une « attraction universelle » s’il n’avait
été familier du concept alchimique d’« affinité » (cf. Les Affinités électives,
roman de Johann W. von Goethe, 1809). Des historiens et philosophes des
sciences dans la lignée de Bachelard, Duhem, Koyré et Kuhn, n’ont pas
manqué de relever la dépendance philosophique et religieuse – à tout le
moins extra-scientifique – des hypothèses en sciences. La religion et la
magie, l’art et les mythes sont moins à cet égard des restrictions
intellectuelles que des pépinières d’idées, le terreau fertile d’intuition
fulgurante. Ce n’est pas sans raison que Popper faisait aux intégristes de
l’inductivisme et du positivisme le reproche de rejeter la métaphysique
comme source d’inspiration.
Or, s’il est une inspiration que le puritanisme rationaliste s’est fait un point
143
d’honneur à toujours écarter, plus encore que celle de la religion, c’est bien
celle de l’occultisme. Car si la science pouvait être opposée à la croyance, de
combien plus devrait-elle l’être à la magie ? Comment celle-ci aurait-elle pu
jouer un rôle autre que négatif ou purement réactif dans l’avènement de la
raison moderne ? Comment ce refuge de l’irrationnel, ce repoussoir ultime
et véritable antimodèle du discours « bien-fondé » aurait-il pu avoir sa part
à la naissance de la méthode scientifique ?
En jouant le rôle de moyen-terme entre la scolastique et la science
expérimentale moderne. En promouvant les normes, les exigences et les
méthodes qu’elle devait adopter. C’est à déterminer selon quelles voies, par
quels moyens et en quels termes que nous consacrerons ce morceau d’«
archéologie » de la science moderne, intéressée tout particulièrement par les
apports théoriques autant que pratiques qui ont été ceux de l’astrologie, de
l’alchimie et, au sens large, de la « magie naturelle ».
L’astrologie et le déterminisme
L’astronomie était en germe dans l’astrologie. Nous lui devons une première
tentative de description systématique du ciel nocturne et, sur cette base,
l’exploration d’une théorie supposée expliquer le comportement des êtres
(et non seulement des astres).
Nous avons exposé plus tôt l’impasse que pouvait constituer pour une
science des phénomènes un monde soumis aux caprices de puissances
imprévisibles. C’est à ce monde que l’astrologie met fin. Plus mais de « cause
errante ». L’univers régulier des tireurs d’horoscopes impose des relations de
cause à effet beaucoup plus strictes que ne pouvaient l’être celles d’un
monde chrétien, conduit et reconduit au gré des décrets particuliers et
généraux parfois contradictoires de Dieu. Précisément, l’astrologie accorde
aux influences des astres le statut de causes déterminantes des phénomènes
terrestres.
Il n’est sans doute pas anodin, à cet égard, que le même Bacon qui exposa la
méthodologie de la science expérimentale (cf. : notice) fut également
professeur de magie et expert en astrologie. Contrairement à ce que
144
l’anecdote de la mésaventure de l’imprudent Thalès rapportée par Platon
dans le Théétète (174a-175a) pourrait laisser penser, on peut avoir la tête
dans les étoiles tout en gardant les pieds sur terre. Et dans les cieux
nocturnes fourbir les armes d’une nouvelle épistémologie. Aussi ne seronsnous pas surpris d’apprendre que c’est dans les traités d’occultisme que l’on
trouve la formulation la plus saillante du principe de déterminisme appliqué
au monde naturel, là où le fatum des stoïciens et, avant lui, la destinée
(moïra) de la tragédie grecque en réservaient l’emploi à l’édification morale.
C’est tout au moins cette idée directrice véhiculée en première intention
par la magie en général, et par l’astrologie de manière privilégiée, qui allait
engendrer le postulat fondamental des sciences, édictant que la nature ne se
contredit pas (jamais, en aucun lieu, en aucun temps) ; que tout effet a sa
cause identifiable et peut être objet de prédictions.
Mieux même : au-delà du déterminisme et de la causalité ; au-delà de la
liaison des phénomènes – qui devient nécessaire et non plus simplement
probable –, l’astrologie prépare la réconciliation des lieux supra- et
sublunaires qu’accomplirait Newton. La magie naturelle ne se déprend
jamais de la conviction d’un ordre universel qui, comme son nom l’indique,
s’applique de manière uniforme à tout ce qui existe. Voici qui nous conduit
très loin de la nature enchantée et chaotique des premiers âges ou de
l’univers chrétien exposé aux miracles.
Ce n’est pas tant la teneur prédictive de l’astrologie qui doit retenir notre
attention, que le cadre théorique qu’elle met en place. Il ne s’agit pas de
créditer les énoncés qui se réclament des sciences occultes, mais bien plutôt
de faire la part entre ce qui relève en elles de l’imaginaire spéculatif ou de la
structure épistémologique. C’est cette structure que l’astrologie va insuffler
par capillarité aux autres disciplines, pour autant que ces dernières
assument de reposer sur elle. La médecine du XIIe siècle présente un cas
d’école de cette diffusion. L’utilité de l’astrologie ne pouvait pas lui
apparaître pour essentielle une fois admis l’incidence du mouvement des
astres sur l’ensemble de la nature, le corps humain inclus. On ne pouvait
plus dès lors se permettre d’ignorer les conjonctions du ciel, eu égard aux
patients qu’il s’agissait de soigner, aux simples qu’il faillait cueillir, à la
préparation des décoctions et à leur administration. Toutes les parties du
145
corps avaient leur ascendant céleste qu’il fallait prendre en considération
autant pour le dressage du diagnostic que pour le choix et les modalités de
la thérapeutique. Religion, science et occultisme ne se distinguent plus
guère chez un penseur de de la prestance de Pierre d'Espagne. Ce médecin
théologien ordonné pape en 1276 sous le nom de Jean XXI alla jusqu’à
proposer des correspondances entre les sept planètes connues et les sept
tuniques (humeurs) de l’œil.
L’intérêt (pragmatique) que les milieux médicaux témoignaient à
l’astronomie explique la profusion, dès le XIVe siècle, des ouvrages traitant
de problèmes techniques dans le domaine civil et militaire. L’historien
médiéviste américain Lynn Townsend White recense effectivement à cette
époque une surreprésentation des professions médicales dans les archives
consacrées à l’ingénierie (Technology and inventions in the Middle Ages,
1940). C’est par l’astronomie que le médecin en seraient arrivés à nourrir
une passion pour la physique et pour la mécanique, puis pour les automates.
C’est en tant qu’astrologue médecin que l’Italien Giovanni Dondi construisit
l’« Astrarium ». Seize ans de recherches furent nécessaires à l’élaboration de
cette horloge astronomique capable de donner l’heure tout en représentant
en temps réel le mouvement des planètes.
Assimilation du ciel à une horloge astrale ; le ciel image du corps : c’en est
assez pour façonner le regard théorique de la médecine moderne. Les
hommes de l’art se mettent peu à peu à concevoir le corps sous les auspices
de la machine. C’est là, en filigrane, l’essor de la mécanique moderne, les
commencements de la géométrisation de l’étendue parachevée avec
Descartes. Descartes qui – rappelons-le – concevait les corps vivants sur les
modèles des machines hydrauliques ; Descartes qui se voulait médecin
avant toute chose, et de la santé (et non de la connaissance) faisait le
souverain bien. Mais déjà chez Descartes ont disparu les préoccupations
astronomiques qui hantaient ses prédécesseurs. On voit que les
conséquences de l’astrologie sur la naissance et le devenir des sciences (dont
la médecine, cas paradigmatique) sont bien plus vastes et plus profondes que
l’on veut bien l’admettre.
Notons enfin que le schème de la réflexion entre le microcosme et le
146
macrocosme, tout comme la loi de causalité exprimant le déterminisme, se
retrouvent au cœur de l’alchimie ; ce qui ne laisse pas d’en faire une
discipline digne d’intérêt pour l’histoire des idées. En marge des opérations
et des techniques reprises par la chimie, cette autre science occulte fut
également d’une importance majeure au regard de la promotion des normes
de la science moderne : c’est elle qui associe de la manière la plus étroite au
processus de théorisation l’exigence de l’expérimentation. Un mariage
consommé sous les auspices de l’hermétisme dominant chez les penseurs de
la Renaissance et du bas Moyen Âge. Étroitement associés aux
investigations médicinales et alchimiques des « mages » de cette époque
produisent des éloges militants de la pratique. Il ne s’agit plus dorénavant de
contempler l’ordre du monde ou de l’interpréter – pour emprunter à Marx
la formulation de la onzième « Thèse sur Feuerbach » –, mais de le
transformer. À ce changement de paradigme s’attache immédiatement un
critère d’efficacité que la « magie naturelle » va mettre au cœur de son
activité.
La magie naturelle et le critère d’efficacité
Il n’est pas accordé à tous les hommes de voir leurs prières suivies d’effets.
Le croyant s’adresse à des entités libres qui peuvent choisir de ne pas
souscrire à ses désirs. Pour le meilleur, sans doute ; il est connu depuis les
tragédies de Sénèque que les dieux punissent parfois les hommes en
exauçant leurs souhaits (cf. Phèdre, acte IV). Le Dieu chrétien, dit-on, non
plus que les Saints qui l’accompagnent, ne saurait s’adonner à une telle
cruauté. Pas davantage ne se laisse-t-il forcer la main, à l’inverse des génies
et autres entités que convoque la magie. Le propre de la formule magique
est ainsi d’être une « parole efficace ». Sa dimension opératoire est ce qui la
distingue de la parole vulgaire, de la prière chrétienne et du « vœu pieux ».
Elle doit agir sur le réel. La connaissance qu’elle met en œuvre est orientée
en vue de la production d’effets ; effets qui sont le signe de sa validité. Les
mots et les opérations sont attachés aux choses par des liaisons causales.
Tout l’apport théorique de l’occultisme médiéval à la science expérimentale
moderne peut être résumée à ce mode ordre d’efficacité pratique.
À quoi bon tant d’application à respecter cette norme ? Entrons dans les
147
détails. En reprenant pour les besoins de la démonstration l’exemple
proverbial de phénomène d’aimantation.
Le pouvoir d’attraction de la roche magnétique était connu par les Anciens
depuis la plus haute Antiquité. Il revient à la Chine d’en avoir proposé la
première description ; mais c’est en Grèce ancienne que ses propriétés
semblent avoir le plus inspiré, depuis sages présocratiques jusqu’aux mages
de la Renaissance. Cette pierre noire aux mystérieuses propriétés ne se
contentait pas d’attirer à elle les amalgames ferrugineux, elle leur
communiquait une part de son pouvoir magnétique. Platon, dans l’Ion,
l’appelle la « pierre de Magnésie » (du nom de la ville de Magnésie, située en
Asie Mineure), et l’utilise comme paradigme de la chaîne d’or de
l’inspiration divine, transmise le long de ses différents maillons, perdant de
sa puissance au prorata de son degré d’éloignement de la source. Plutarque,
aux premiers siècles de notre ère, dans son traité d’ Isis et Osiris, rapporte
que les Égyptiens appelaient « os d'Horus » la pierre d'aimant, et le fer « os
de Typhon (= Seth) », la chair des dieux de l’Égypte ancienne étant
(symboliquement) composé d’or imputrescible et leur corps d’autres «
éléments durs et mous » immunisés contre le temps. Contemporain de
Plutarque, Pline l'Ancien rapporte en ces termes la découverte très
empirique du phénomène de polarisation : « Il y a auprès du fleuve Indus
deux montagnes, dont l'une retient et l'autre repousse toute espèce de fer ;
de la sorte, si l'on porte des clous aux souliers, dans l'une on ne peut pas
retirer son pied, dans l'autre on ne peut pas le poser » (Histoire naturelle, II,
97-99).
Le Moyen Âge n’a pas été pas moins fasciné par ce pouvoir étrange que
semblaient posséder les aimants permanents. Qu’une pierre puisse exercer
une telle force d’attraction (et de répulsion) physique et sans contact sur un
morceau de fer était assurément l’indice d’une « qualité occulte ». Ainsi
seulement pouvait être expliqué sa vertu propre, son « charme », analogue
pour les corps à ce que des sentiments tels que l’amour et l’amitié pouvaient
produire dans l’esprit.
« Mariage », « alliance », « affinités », « noces », etc., l’alchimie médiévale
allait faire bon usage de ces métaphores ; et ce n’est pas un hasard si la
148
pierre noire de magnésie a hérité du nom d’ « aimant », au prix d’un
anthropomorphisme passablement évocateur. La tentation est grande de lui
attribuer toutes sortes de propriétés. Comme le rappelle Daniel J. Boorstin
dans son essai de 1986, Les découvreurs : « Une pierre d'aimant placée sous
l'oreiller d'une épouse infidèle avait le pouvoir, disait-on, de lui faire avouer
sa faute. La croyance populaire attribuait à l'aimant une telle force qu'un
seul fragment suffisait pour guérir toute sorte de maux et même servir de
contraceptif ». Si l’on peut raisonnablement douter de la pérennité de cet
usage, la pierre d’aimant en avait d’autres beaucoup plus précieux. En
premier lieu, dans le domaine de la navigation. Avant de devenir l’« atelier
du monde », la Chine fut longtemps son laboratoire. Nous ne lui devons pas
que l’imprimerie (indûment attribuée à Gutenberg), l’invention du papier et
la recette de la poudre à canon. Elle fut aussi à l’origine de la première
boussole – alors appelée « aiguille du sud » en raison de l’orientation des
planisphères.
Cette technologie d’exploration datée des alentours de l’an Mil se composait
d’un cadran incrusté surmonté d’une aiguille de fer mobile magnétisée par
contact avec un aimant. L’aiguille pivote ainsi de sorte à s’aligner sur le
champ magnétique terrestre, lui-même à l’origine de l’aimantation des
roches de magnésie. Ce n’est que deux siècle après sa mise au point que la
boussole chinoise atteignit les côtes européennes où les marins ne tardèrent
pas à l’adopter en la rebaptisant du nom de « marinette ». La marinette fut
l’épicentre d’une révolution majeure dans l’histoire de la navigation. Elle
palliait les insuffisances et les incertitudes des précédentes techniques de
repérage s’appuyant sur des relevés astronomiques nécessitant l’obscurité et
la limpidité du ciel. Son principal inconvénient était de ne pouvoir indiquer
la position de son utilisateur (c’est là tout l’avantage comparatif de la
technologie de guidage par satellite, ou GPS). L’ingénieur militaire Pierre
de Maricourt ne tarit pas d’éloges sur les propriétés de l’aimant, comme en
atteste son Epistola de magnete de 1269. Couramment abrégé De Magnete,
le traité de Maricourt permit la mise au point du compas magnétique (non
sans quelques erreurs de déviations qui valurent à Christophe Colomb son
abordage fortuit aux Bahamas). Ce qui permit à l’auteur britannique des
Pilgrimes (1613-1626) d’affirmer que « la pierre d'aimant [loadstone] est la
pierre angulaire, la semence même d'où nait la découverte ».
149
La pierre d’aimant s’avérait en tout état de cause dépositaire de propriétés
d’une valeur inestimable, qu’il fallait bien compter au nombre des vertus
qui lui appartenaient en propre. Le phénomène d’aimantation – et
l’incapacité des érudits de l’époque à en rendre raison – justifiait à lui seul
que l’on s’oblige au recensement des autres qualités occultes. Or, seule
l’expérimentation pouvait permettre d’effectuer correctement ce
recensement. Les qualités occultes appartenaient aux corps si et seulement
si ces corps étaient à même d’induire des modifications sensibles sur le
monde. Toute prétention à attribuer aux corps d’autres propriétés sans que
celles-ci puissent être mesurées devait être rejetée. L’esprit critique du
maître ès sciences occultes consistait dès alors à ne tenir pour véridique que
ce qui avait été vérifié méticuleusement ; et c’est à son exemple que se vont
se convertir jusqu’aux théologiens du Moyen Âge chrétien.
C’est donc à l’aune de son effectivité qu’est distinguée la magie authentique
de la charlatanerie. La vérité se mesure à l’effectivité de son action sur le
monde, c’est-à-dire à son utilité. Cela signifie qu’elle ne s’évalue plus en
référence à sa conformité à une doctrine qui la précède. Physique
aristotélicienne et savoirs révélés n’ont plus voix au chapitre de la magie
médiévale. Cela signifie aussi que l’ordre du monde n’est plus tant observé
(dans les deux sens du terme) qu’institué par le sujet en tant qu’il le produit.
Il n’en fallait pas moins pour amorcer le processus qui conduirait à révoquer
l’épistémè de la contemplation pour celle de l’efficacité pratique, cheville
ouvrière de la révolution intellectuelle moderne. Il n’est pas assuré que sans
l’occultisme et la nécessité qui s’y fit jour de séparer le bon grain de l’ivraie,
la science proprement dite se soit jamais émancipée de la scolastique.
L’ironie tient à ce que ce furent parfois les mêmes penseurs formés à l’école
de la scolastique qui firent le plus pour son dépérissement. Tout bien
compté, les Évangiles eux-mêmes n’encourageaient-ils pas cette appétence
pour l’occultisme ? L’épisode de la nativité ne se faisait-il pas déjà l’écho de
traditions astrologiques faisant état de chefs bédouins capables de déchiffrer
l’annonce de la venue du Sauveur au ciel de Bethléem ? Les premiers
hommes qui accueillirent le Christ n’étaient-il pas « trois mages »,
ultérieurement reconvertis en « rois » ? La Bible se serait-elle montrée si
150
complaisante à l’endroit de sorciers nomades si leur sagesse n’avait été que
divagations païennes et les chimères démoniaques ?
Roger Bacon ne pouvait le croire. Ce franciscain du XIIIe siècle n’avait pas
son pareil en matière de théologie. Il cultivait pourtant une conception
déflationniste de la foi dans le domaine de la recherche de la vérité. Son
insistance sur l’expérience (physique, magique, mystique), seule source
véritable de la connaissance de la nature (en lieu et place des Écritures et
des traités du Stagirite), en fait un précurseur des scientifiques
expérimentateurs de la révolution intellectuelle moderne. Avec Bacon
s’affirme effectivement une volonté de multiplier les sources, de s’instruire
même auprès des artisans, des ingénieurs et des bergers. Qu’importe le
chemin, qu’importent les témoins, seul compte les faits. Bacon met sur un
pied d’égalité les bibles scolastiques et les propos d’auberge.
État d’esprit qui rompt ouvertement d’avec celui des universitaires imbus de
leurs raisonnements théologico-philosophiques et de leur gloses à n’en plus
finir, hors-sol. Or, plus que ses pérambulations civiles et ses fréquentations
vulgaires d’esprit pratiques et pragmatiques, la magie fut pour le Doctor
mirabilis une occasion de se déprendre des préjugés rationalistes et
orthodoxes qui encombraient la scolastique. La magie fut par conséquent
non pas seulement le préalable, mais plus encore la condition du progrès
scientifique : « Le principal obstacle à la découverte de la forme de la Terre,
des continents, et des océans n'aura pas été l'ignorance, précise en cela
Boorstin, mais l'illusion de savoir » ( op. cit.). L’esprit critique durci au feu
des athanors devait venir à bout de cette illusion. L’histoire des sciences –
peut-être encore intimidée par les soupçons diffamatoires que les Lumières
ont fait peser sur l’occultisme médiéval – est encore loin d’avoir pris la
mesure de sa contribution tout ce qu’il y a de plus réel à l’émergence de la
science moderne.
L’épreuve de l’expérience
Contribution qui ne se limite pas à quelques postulats, méthodes, concepts,
normes de vérité et instruments de pensée, mais comprend un aspect
pratique. Le critère d’efficacité ne vaut qu’à la lumière de l’expérience. Il ne
151
sanctionne une « proposition » magique qu’une fois celle-ci mise à l’épreuve
des faits. C’est cette mise à l’épreuve – moyennant un contrôle systématique
et empirique – des « recettes » consignées par des générations de « mages »
qui va permettre de décanter l’or du savoir aggloméré aux mystifications de
bataillons de faux-monnayeurs. C’est donc sur l’expérience que la magie
médiévale va s’appuyer pour rejeter de son champ de recherche les
amulettes et les grigris et les trucages et les médications fumeuses et les
tours de passe-passe et de prestidigitation qui s’en réclament abusivement.
C’est ainsi, peu à peu, que vient à se constituer une authentique « science
expérimentale ». Scientia experimentalis : tel est, de fait, le nom que lui
donne Thomas d’Aquin, disciple d’Albert le Grand. Désignation qui, au
XVIe et XVIIe siècles, viendrait à qualifier la méthode d’investigation des
artisans de la science moderne.
Cette entreprise de « purification » de la magie intéressa au premier chef
notre Bacon, persuadé que la légitimité sociale et culturelle de la science
expérimentale (= la magie rationalisée) devait passer par l’assurance de ses
fondements épistémologiques, l’énonciation de ses méthodes, de ses
objectifs et de ses intérêts. Pratiques, sans doute ; techniques, assurément.
Car c’est par l’occultisme que les praticiens expriment les préoccupations et
revendications d’une révolution intellectuelle en germe.
En arrière-plan des controverses sur la magie se profile une légion
d’ingénieurs adeptes des « arts mécaniques ». Bien que le terme ingeniator
remonte au XIe siècle, les universités s’étaient toujours montrées
condescendantes ou franchement réservées leur égard – le moine
enseignant Hugues de Saint Victor faisant figure d’exception. Ces arts
n’avaient jamais trouvé preneurs dans les hauts-lieux de la formation de
l’élite intellectuelle. Une telle situation peut être comparée à celle des
médecins chirurgiens et des docteurs, ceux-ci s’accommodant d’une
instruction livresque et théorique, déléguant volontiers les tâches pratiques
à leur valets manuelle (kheirourgía : « travail de la main »). Ce qu’Aristote
était à la physique, Hippocrate et Galien l’étaient à la médecine.
L’anoblissement de la chirurgie et la réhabilitation de l’expérimentation fut
redevable des travaux anatomiques (et artistiques) André Vésale et des
succès d’Ambroise Paré. La promotion de la technique et des arts
152
mécaniques dut également trouver ses médiations. L’occultisme fut la
principale de ces médiations, le cheval de Troie des praticiens.
À telle enseigne qu’il ne serait pas absurde, pour en venir au fait,
d’interpréter la science moderne comme résultant de l’épuration de
l’occultisme médiéval à la faveur de l’expérience, ayant précipité le
remplacement du critère de conformité à l’« ordre de la nature » posé par
Aristote les Pères de l’Église par celui d’efficacité pratique. La science
contemporaine – devenue « technoscience » ensuite de l’interdépendance
de la recherche fondamentale et appliquée –, est pour sa part en passe de se
défaire de ces préoccupations. Le catéchisme scientifique du XXIe siècle
n’est plus à la contemplation, en tant que conformation un ordre établi, ni
au progrès humain organisé autour de la technique et de son effet sur le réel
; il est devenu l’« innovation », au diapason de la Silicon Valley. Mais
n’anticipons pas, ne croisons pas les temps.
Remplacement donc du critère de conformité par celui d’efficacité, telle a
été l’œuvre paradoxale des sciences occultes. N’est-ce pas précisément ce
remplacement ou déplacement du lieu de la vérité qu’exprime le revirement
de l’exégèse chrétienne dans l’interprétation de la parabole évangélique de
Marthe et de Marie, dès le début du XIIe siècle ? Celui-là même que le
bénédictin Rupert de Deutz se désolait de retrouver chez nombre de ses
ouailles « qui placent presque tous leurs espoirs dans le travail manuel » ?
Posons le décor. Marthe et Marie, rapporte l’Évangile de Luc (10, 38-42),
sont deux sœurs ayant fait chacune le choix d’une vie typiquement opposée.
Il faudrait plus rigoureusement parler d’une répartition des tâches,
anticipant ce que Marx allait appeler le divorce du travail manuel et du
travail intellectuel. À Marthe est échue la responsabilité des besognes
ménagères et de l’intendance tandis que la vocation toute spirituelle de
Marie sa sœur la destine au service divin. Marthe peine à la tâche ; Marie
s’isole dans la prière et dans le recueillement. À Marthe qui s’en était venue
se plaindre auprès de lui, Jésus fit savoir qu’indéniablement, Marie avait eu
« la bonne part ». On recense deux manières contradictoires d’interpréter ce
commentaire énigmatique. Une première tradition traverse l’orthodoxie
chrétienne depuis ses origines jusqu’à la Renaissance du XIIe siècle
153
théorisée par Jacques Le Goff (Les intellectuels au Moyen Âge, Paris, 1957).
Elle veut y voir une confirmation de la supériorité ontologique et spirituelle
de la contemplation au détriment de l’action et des affaires terrestres.
Tout change, selon Le Goff, avec l’essor de la société marchande et
technicienne qui cherche à s’imposer autant par le commerce nu que par la
séduction (La civilisation de l'Occident médiéval, 1977). Un lobbying actif
est exercé par de « nouvelles catégories professionnelles » en quête de
supplément d’âme, « désireuses de trouver sur le plan religieux la
justification de leur activité ». L’action est réinterprétée dans un sens positif
et la parole du Christ adaptée aux valeurs de l’époque : Marie « à la bonne
part », pour l’heure, mais « les premiers seront les derniers ». Ainsi
commence le procès en réhabilitation de Marthe.
Aussi aurions-nous tort de croire que le christianisme ait été farouchement
hostile à l’essor de la science et au progrès technique. Quoi qu’il soit vrai
que tout le christianisme n’est pas suivi le mouvement. L’historien
médiéviste américain Lynn Townsend White attire ainsi notre attention sur
tout ce qui sépare l’indifférence à dominante conservatrice de l’Église
orthodoxe (Medieval tecnology and social change, 1962) de l’enthousiasme
(modéré) de l'Église d'Occident. Là où l’Église d’Orient restait captive de ses
figures d’autorité, soucieuse de transmission et de pérennisation, le
christianisme occidental avait troqué ses idéaux contemplatifs pour ceux
d’une société matérialiste avant la lettre, orientée vers l’avenir et
l’amélioration de l’homme (humanisme) plutôt que vers ses origines. Le
recueillement et la résignation ne pouvaient plus être une réponse
satisfaisante aux malheurs de la condition humaine. Il avait découvert les
vertus spirituelles de l’action, de la transformation du monde par l’homme
qui permettait de hâter la venue du millénium ; laquelle transformation,
loin de s’y opposer, prenaient activement part au projet créateur de Dieu.
Luther traduit par le même mot – Beruf – la « vocation » et le « travail »
dans sa version de la Bible. De châtiment qu’il était jusqu’alors, le travail
(du latin tripalium, désignant un instrument de torture) devient un
instrument de salut.
154
« O pudenda origo ! »
« O honteuses origines ! ». C’est par cette expression que Nietzsche
démasque la peur du prochain dissimulée sous les atours de la morale
(Aurore, II, 102). Que n’en dirions-nous pas autant de la science et des
pratiques qui l’ont portée sur les fonts baptismaux (magie, astrologie,
alchimie, etc.) ? C’est là peut-être l’un des secrets les mieux gardés de l’«
histoire » des sciences : la religion et l’occultisme n’ont pas été tant
l’adversaire que la matrice des sciences. De l’exigence d’expérimentation au
principe du déterminisme en passant par le critère d’efficacité, les apports
théoriques, pratiques et normatifs de l’occultisme ont été décisifs. On ne
soulignera jamais assez la portée ironique de ce constat, dont il ressort que
les sciences modernes ont été dérivées de celles qu’elles considèrent comme
leurs ennemies héréditaire. La science ne pouvait rompre d’avec le
paradigme contemplatif et naître réellement comme discipline qu’en
s’appuyant sur les ressources de la magie et de la théologie. Hegel aurait
parlé d’une « ruse de la raison », celle-ci pour s’affirmer devant laisser agir
ce qui la nie – mais ne la nie qu’en apparence.
Ce fait embarrassant explique peut-être une partie de la virulence dont ont
fait montre les Lumières à l’encontre des « pratiques superstitieuses » et de
l’« obscurantisme médiéval ». Une égale animosité se reconnaît parfois dans
les discours de la science moderne dans ses attaques (protestations ?) contre
les pseudosciences et les non-sciences. La créature des apprentis sorciers (le
terme prend ici tout son sens) se révolte contre ses créateurs, et réécrit le
récit de sa genèse pour apparaître sa propre création. La science, fille
immaculée de la raison ? Nous ne saurions plus en être dupe.
Jürgen Habermas (1929-19XX)
Principales contributions :
- Théorie et pratique, titre original (1963)
- Connaissance et intérêt (1968)
- La technique et la science comme « idéologie » (1968)
- Vérité et Justification (1999)
155
Concepts et idées-forces :
- Projet d’une réappropriation du progrès techno-scientifique. Dans la
continuité de la réflexion sur la modernité inaugurée par Adorno et
Horkheimer, théoriciens de d'Ecole de Francfort, Habermas réactualise à
nouveaux frais la « Théorie Critique » dans une optique voulue plus
émancipatoire que ses prédécesseurs. Son analyse fait fond sur le constat de
l’imposition graduelle de la rationalité instrumentale dans toutes les sphères
de la société moderne l’industrie culturelle », au détriment de la rationalité
communicationnelle. Cette subsomption aurait, selon l’auteur, conduit à la
vision « technocratique » d’une société sommée de se plier à la nécessité
d’un progressisme aveugle – celui des sciences et des techniques. Les
questionnements d’ordre pratique, moraux ou politiques s’en seraient
trouvés disqualifiés pour céder place à des arias « techniques » qui
ressortissent à l’expertise, et non plus à l’« éthique » d’une discussion
démocratique. La technique et la science comme idéologie (1963) entend
faire la lumière sur l’emprise délétère d’une idéologie latente qui, en le
réifiant, aurait privé l’individu de sa liberté. L’auteur avance dans cet
ouvrage une solution possible à la question centrale posée par la modernité :
comment la dialectique articulant progrès technique et monde vécu social
peut-elle devenir objet de délibération publique. Cette solution comporte
deux aspects : d’une part, l’établissement d’une communication bilatérale
entre le savant et le politique ; de l’autre, la nécessaire réforme de la
conception objectiviste que les sciences se font d'elles-mêmes.
- Exégèse du concept de « théorie ». Fil conducteur de l’analyse, la
« théorie », selon Schelling, commande la tradition philosophique depuis ses
origines. Idée que seule une connaissance dégagée d’intérêt, tournée vers les
idées (« perspective théorique ») est à même d’orienter l’action.
Reconduisant cette thèse dans sa ligne historique, Habermas restitue les
développements de la notion de théorie. Origines religieuses d’abord, liées à
la contemplation : du gc. theorein, « contempler, observer, examiner ».
Association avec l’idée d’éternité, d’immuabilité et d’harmonie. Une
harmonie devenant praxis lors qu’elle se réalise dans une ethos, pratique de
vie conforme à l’ordre perçu dans le cosmos. Sur les traces d’Horkheimer,
l’auteur réexamine ensuite la rupture supposée entre philosophie
156
(ontologique) traditionnelle et sciences (positivistes) modernes. Husserl
préjuge de cette rupture ; qu’en est-il véritablement ?
- Habermas fait le départ entre trois types de sciences afin d’interroger si
elles préservent ou non le lien entre « savoir » et « attitudes ». Sont-elles
solubles dans la conception originaire de la théorie telle que la comprenait
la tradition philosophique ?
(1) Les sciences empirico-analytiques (sciences naturelles) préservent
intacte cette double perspective, en prétendant décrire le plus
objectivement possible les lois de l’univers, abstraction faite des « intérêts
naturels de l’existence ».
(2) Les sciences historico-herméneutiques (sciences humaines), bien
qu’elles aient davantage affaire à des objets fluctuants historiquement situés,
partagent avec les précédentes la même conscience méthodologique. Les
sciences sociales sont innervées par le positivisme. Ces exigences restent
conformes à celles de la philosophie grecque tant du point de vue
psychologique (nécessité de rester fidèle à l’ « attitude théorique » du point
de vue épistémologique (césure entre la connaissance et l’intérêt).
(3) Les sciences critiques (psychanalyse et théories critiques) sur
lesquelles Habermas revient plus en détail ultérieurement.
- Cela posé, il semblerait que la notion de « neutralité axiologique »
intronisée par Max Weber, comme la dissociation des faits et des valeurs, ne
permette plus d’identifier les exigences de la science positive avec celles qui
sont enveloppées – « intentionnées » – par la notion traditionnelle de
théorie : « On ne reconnaît plus à la théorie de fonction formatrice » ; celle
que la phénoménologie d’Husserl entendait restaurer en renouvelant la
théorie pure.
- C’est à reconstituer la critique husserlienne que va alors s’employer
Habermas. Husserl prend à partie l’objectivisme supposé des sciences. Ainsi
la science prétend décrire objectivement les faits et leurs interactions ; or, la
phénoménologie révèle l’intercession originaire de la subjectivité comme
fondatrice du sens que revêt préalablement le monde immédiatement vécu.
La subjectivité persiste dans les sciences sous leur vernis d’objectivisme ; la
phénoménologie elle seule est en mesure de dissocier valablement la
connaissance de l’intérêt. La description phénoménologique coïncide, pour
Husserl, avec la théorie pure (traditionnelle). La théorie n’est pas
157
immédiatement pratique, mais rejaillit sur la pratique en cela que l’attitude
théorique permet d’aiguillonner l’action.
- Une fois amenée cette reconstitution, l’auteur fait cas de ses réserves. La
phénoménologie décrit les lois de la raison pure, mais non les normes
universelles de la raison pratique. Husserl est avisé de dénoncer les illusions
objectivistes de la science, mais ne se soustrait pas lui-même à la
contradiction. Il prétend dissocier la connaissance de l’intérêt et, de cette
sécession, escompte des conséquences d’ordre pratique. Or, ce n’était
qu’autant qu’elle découvrait un prototype, un modèle idéal que la théorie
pouvait guider l’action. Ce dont la prive la démarche transcendantale au
profit d’une simple « attitude théorique ». Husserl se leurre enfin en
inférant de cette dissociation la vertu formatrice de la théorie ; cette
puissance édifiante ne procède pas de l’éviction des intérêts, mais de leur
dissimulation : « Que l’intérêt soit refoulé, cela fait encore partie de l’intérêt
lui-même ».
- Excipe deux des apports déterminants de la tradition hellénistique : (a)
« l’attitude théorique » et (b) « l’hypothèse ontologique fondamentale d’un
monde en soi déjà structuré ». Deux éléments présupposant déjà
l’interaction de la connaissance et de l’intérêt. Et c’est, au vrai, parce
qu’elles s’inscrivent toujours dans les essarts de la conception classique de la
théorie pure, que le soupçon d’objectivisme est porté sur les sciences ; ceci
bien que les sciences aient ponctionné la théorie de sa dimension
pédagogique.
- « Objectiviste » au sens d’Husserl et d’Habermas, une attitude faisant
coïncider les énoncés de la théorie avec les choses « en soi ». Soit une
approche plaçant la vérité sous le rapport de l’ adequatio rei et intellectus.
Ce n’est qu’une fois réintégrées au sein de la théorie ses propres conditions
(présupposés, cadres transcendantaux, systèmes de référence) que l’intérêt
recteur de la connaissance dissipe le mirage objectiviste. Cette prise en
compte autocritique différencie la théorie traditionnelle de la théorie
critique.
- Les intérêts de connaissance. Une épistémologie critique qui échapperait
aux écueils du positivisme doit être à même de spécifier les modes de
relations entre la démarche et les intérêts de connaissances
(erkenntnisleitenden Interesses) spécifiques aux différentes sciences. Elle
158
doit encore traquer le lieu de l’illusion objectiviste, comptable de leur
oblitération.
Sciences
Méthode
Accès aux
faits
Empiricoanalytiques
Hypothéticodéductive
Expérience et
observation
Historicoherméneutiques
Praxéologiques
Exégétique
Critique
Compréhension et
interprétation
Analyse et
autoréflexion
Émancipatoire
(libération des
entités
hypostasiées et
des contraintes
primaires)
Intérêt de
connaissance
Technique
(maintien et
extension de la
connaissance)
Pratique (maintien
et extension de
l’intersubjectivité)
Ancrage de
l’illusion
objectiviste
Niveau des
énoncés
d’observation
(lesquels sont
provoqués par
la démarche
même)
Niveau de la
compréhension du
sens (comptable
d’un horizon de
précompréhension)
Niveau
épistémologique :
n’intègre pas ses
propres intérêts
pris à
l’émancipation)
- Habermas se propose d’éclaircir la nature de cette relation entre
connaissance et intérêt. La science, œuvrant à l’objectivité, se dissimule les
intérêts fondamentaux auxquels elle doit ses impulsions et les conditions
mêmes de l’objectivité. Ce n’est qu’en thématisant ces cadres implicites que
la connaissance est susceptible d’amorcer un procès d’émancipation.
L’occasion pour l’auteur de décliner cinq thèses :
(1) « Ce que réalise le sujet transcendantal trouve son fondement dans
l’histoire naturelle de l’espèce humaine ». Des postulats de nature
méthodologique ne peuvent être arbitraires ou prescriptifs, en tant qu’ils
tiennent à la nécessité d’intérêts de connaissance qui ne sont pas à notre
discrétion.
(2) « La connaissance est un instrument d’autoconservation dans la
même mesure qu’elle transcende la pure et simple autoconservation ». Les
159
intérêts qui commandent à la connaissance se définissent à la croisée des
instincts naturels de l’homme et de son arrachement par la culture aux
intérêts primaires d’autoconservation. Il ne s’agit pas seulement de
reproduire la vie, mais encore d’exciper des buts.
(3) « Les intérêts qui commandent la connaissance se forment dans le
milieu du travail, dans celui du langage et dans celui de la domination ».
Aussi les retrouve-t-on au niveau des « fonctions du moi » : les processus
d’apprentissage permettent l’adaptation aux conditions de vie extérieure ;
les processus de formation au monde vécu social ; et l’individuation
l’intégration des astreintes de la normativité sociale.
(4) « Dans l’autoréflexion, la connaissance et l’intérêt sont confondus ».
Dissymétrie faisant de l’autoréflexion le seul parmi les processus de
connaissance dont l’intérêt soit visé pour soi-même ; donc se redouble de
manière fractale au niveau supérieur : la réflexion poursuit
l’accomplissement de la réflexion comme telle.
(5) « L’unité de la connaissance et de l’intérêt se confirme dans une
dialectique qui, à partir des traces historiques du dialogue réprimé,
reconstruit ce qui a été réprimé ». La communication est tributaire de
conditions que la théorie traditionnelle tient pour acquises, mais qui se
heurtent dans les faits à des obstacles. Il reviendrait à la philosophie de
dénoncer ces coactions pour augurer d’une émancipation par le dialogue.
- Les sciences ont conservé de la philosophie l’idéal d’une théorie pure.
Aussi ne pensent-t-elle pas leurs intérêts, non plus que leurs axiomes ou
leurs mobiles ; et moins encore leurs conséquences. L’illusion d’objectivité
leur offre d’avancer sans « faire de politique » (et de se faire servantes des
idéologies). Revers de la médaille, elles s’associent les écueils du scientisme
et de la déshumanisation. D’une part, la conception positiviste que les
sciences nomologiques se font d’elles-mêmes consacre la supplantation de
l’action libre et éclairée par l’expertise technique. L’objectivisme à l’aune
des sciences herméneutiques délégitime ensuite tout projet d’appropriation
critique des traditions vivantes au profit d’un savoir hors-sol et qui n’engage
à rien. Enfin, par cela seul que la philosophie critique dénie ses intérêts et
sacrifie au mythe de la théorie pure, elle conduit à plaider une vision
idéologique et sans alternative du progrès historique.
- Et l’auteur d’en conclure qu’aussi longtemps que la science naturelle et la
science de l’esprit seront envisagées comme des théories pures exemptes
160
d’intérêt, elles demeureront inaptes à empêcher l’élargissement de la
rationalité instrumentale et stratégique aux relations d’interaction
humaines. Habermas se départit toutefois d’Husserl en cela qu’il ne pense
pas utile d’admettre une théorie renouvelée pour rompre avec
l’objectivisme ; mais bien plutôt, fidèle à cette dernière – « donc en y
renonçant » – en excipant la solidarité que dissimule l’objectivisme entre la
connaissance et l’intérêt. Ainsi seulement seraient réalisées les conditions
d’une discussion publique exempte de domination.
Ian Hacking (1936-20XX)
Principales contributions :
- Entre science et réalité. La construction sociale de quoi ? (1983)
- Concevoir et expérimenter (1989)
- L'Émergence de la Probabilité (2001)
- Les Fous voyageurs (2002)
- L'Ouverture au probable (avec Michel Dufour) (2004)
- L’Âme réécrite. Étude sur la personnalité multiple et les sciences de la
mémoire (2006)
Concepts et idées-forces :
- Rôle de l’expérimentation dans la révolution intellectuelle du XVIe siècle.
- « Archéologie » de la notion de probabilité.
- Typologie des styles de raisonnement scientifique (« styles of scientific
reasoning ») :
(1) Le style du laboratoire, apparu au XVIIe siècle, étudié par Hacking
dans Concevoir et expérimenter. Aboutit à redéfinir le rôle de la
philosophie des sciences, destinée à mettre en lumière les pratiques
scientifiques qui transforment le monde, parallèlement aux théories qui
cherchent à le représenter.
(2) Les statistiques et les probabilités, nées au XIXe siècle, analysées dans
L'Émergence de la probabilité. Occupent une place de plus en plus
importante dans les modèles scientifiques qui renoncent au déterminisme
strict après avoir pris acte des phénomènes de dépendance extrême
conditions initiale, des théories du chaos, de la physique quantique
161
probabiliste, des systèmes à l’équilibre, du paradigme de la complexité, des
facteurs subjectifs en sciences humaines, etc.
- Influence de la classification. Le descriptif, en sciences humaines
spécifiquement, ne peut être dissocié du normatif, non plus que du
prescriptif. Il y a un effet en retour de la classification des individus sur les
individus classés, en sorte ces derniers adoptent des comportements qui
peuvent ou bien entériner post hoc une classification non pertinente (effet
Pygmalion (/Rosenthal & Jacobson), effet Hawthorne ou « menace du
stéréotype ») ou bien défaire la pertinence de cette classification. Thèse
étayée par des études de cas exposés dans L’Ame réécrite et Les Fous
voyageurs.
Ernst Haeckel (1834-1919)
Principales contributions :
- Natürlichen Schöpfungsgeschichte (1868)
- Anthropogénie (1874)
Concepts et idées-forces :
- Introducteur, en 1866, de la notion d’« écologie » (« œcologie », selon sa
graphie personnelle), terme dérivé du grec oikos signifiant la « maison » ;
par extension, l’habitat naturel. L’écologie a pour objet d’étude les relations
entretenues par les organismes et leur environnement.
- Avec Alexandre Kovaleski (1840-1901) qui met à jour à partir du
développement de deux organismes marins et de l’embryon humain un lien
entre les vertébrés et les invertébrés, participe à l’essor de l’embryologie.
- Loi de biogénétique fondamentale de la récapitulation : « L’ontogenèse est
une courte récapitulation de la phylogénèse » (1866). Le développement des
embryons voit se succéder les uns aux autres l’ensemble des stades
morphologiques qui ont été ceux de l’évolution passée de son espèce. Un
pont jeté entre la théorie évolutionniste et la biologie du développement.
- Usage pionnier de l’arbre phylogénétique (faisant valoir trois règnes)
comme modèle pour représenter les mécanismes d’évolution en biologie.
L’idée lui en est inspirée par son ami August Schleicher qui procédait de la
même manière en linguistique. Aujourd’hui remplacé par les modèles
cladistiques et les phylogrammes.
162
- Premier à proposer l’idée d’une origine commune de tous les organismes,
de la même manière que la linguistique avançait l’hypothèse d’une langue
mère.
- Collaboration art-science. Omniprésence de la symétrie dans la nature,
beauté de l’univers biologique. Haeckel fut notamment rendu célèbre par
ses esquisses. Émergence du genre hybride de l’Atlas.
- Des enjeux politiques. Un usage de la science à double tranchant. Mise au
service de l’idéologie, peut aussi bien servir à disqualifier l’idée d’une
supériorité ontologique d’une classe sociale telle que la noblesse, qu’à
promouvoir la supériorité de la race blanche aryenne. Voir aussi l’affaire
Lyssenko.
Werner Heisenberg (1901-1976)
Principales contributions :
- Les principes physiques de la théorie des quanta (1932)
- La nature dans la physique contemporaine (1962)
Concepts et idées-forces :
- Mécanique quantique.
- Relations d’indétermination. Maladroitement repris sous l’expression de «
principe d’incertitude ».
Carl G. Hempel (1905-1997)
Principales contributions :
- Aspects of Scientific Explanation and Other Essays in the Philiosophy of
Science (1945)
- « The theorician dilemma », dans Minnesota Studies in the Philosophy of
Science 2, p. 173-226 (1958)
- Philosophy of Natural Science (1966)
Concepts et idées-forces :
- Paradoxe de Hempel, aussi appelé le paradoxe du corbeau. La loi logique
de contraposition astreint à tenir pour équivalentes les propositions « Tous
les corbeaux sont noirs » et « Tout objet non noir est autre chose qu'un
corbeau » (ou « Tout non-noir et un non-corbeau »). Il en ressort que toute
163
observation d’objets non-noirs (un crayon à papier, un parapluie) contribue
à corroborer que les corbeaux sont noirs. L’ornithologue n’est pas même
contraint de quitter sa chambre pour faire l’épreuve de sa proposition ; d’où
l’autre appellation sous laquelle l’inférence s’est fait connaître : le paradoxe
de l’ornithologie en chambre.
- Satoshi Watanabe observe, dans Knowing and Guessing (1969), qu’on
pourrait aussi bien, en induisant de ce que « Tout objet non noir est autre
chose qu'un corbeau », étayer la plausibilité de l'expression « Tous les
corbeaux sont blancs ».
- Dilemme du théoricien. Ou bien les concepts scientifiques se réfèrent au
monde empirique, mais le cas échéant, aucune explication théorique ne s’y
ajoute et la science reste une collection-classement de faits d’observation ;
ou bien nos concepts théoriques s’autorisent de processus et d’entités
purement spéculatifs, et la question se pose alors de savoir comment les
hypothèses peuvent être prédictives et d’autre part, comment les vérifier. La
question se ramène à savoir comment articuler l’abstrait et le concret,
comment des êtres et des fonctions inobservables peuvent trouver un
ancrage concret. Introduit à la controverse entre instrumentalisme et
réalisme.
Gerald Holton (1922-20XX)
Principales contributions :
- L’imagination scientifique (1981)
- Thematic Origins of Scientific Thought : Kepler to Einstein (1988)
- Victory and Vexation in Science: Einstein, Bohr, Heisenberg, and Others
(2005)
Concepts et idées-forces :
- Théorise les themata, des caractéristiques d’ordre esthétique,
métaphysique ou idéologique attribuables à une théorie, à un modèle ou à
une hypothèse et qui peuvent expliquer la préférence que lui donneront les
scientifiques au détriment d’une autre.
- Les themata servent également de critère de choix rationnel en cas de
conflit entre plusieurs alternatives d’explication, dans le cadre d’une
conception conventionnaliste de la théorie (où le réel est susceptible d’une
164
multiplicité de représentations possibles). Relèvent alors des themata les
valeurs de simplicité, d’élégance, d’unité, de fécondité, d’envergure, etc. (cf.
Anastasios Brenner). Chaque homme de science peut cultiver sa propre
hiérarchie de themata et arrêter son choix à partir d’un thema dominant en
cas de conflit inter-themata.
- L’irrationalisme apparent du processus de découverte scientifique
n’hypothèque pas la valeur scientifique des connaissances, celles-ci étant
soumises à l’épreuve expérimentale, et sujettes à des procédures de
recoupements. La science n’est pas qu’un discours illusoire, une pure
spéculation relative à une communauté de chercheurs.
David Hume (1711-1776)
Principales contributions :
- Traité de la nature humaine (1740)
- Enquête sur l'entendement humain (1748)
Concepts et idées-forces :
- Mise en question de la prétention du savoir métaphysique, obscur, abstrait
et prétentieux (= les stoïciens, Platon, Descartes et ses disciples). Il n’est
qu’un raffinement de l’opinion commune, un auxiliaire de la religion.
Critique de la théorie de l’adequatio rei et intellectus.
- Sortie de la spéculation nécessaire pour s’acheminer vers une véritable
philosophie scientifique. Remplacement d’une philosophie de la
transcendance et de l’immensité par une philosophie de l’immanence qui
renvoie l’homme à sa finitude et à l’incertitude de ses facultés. La
déceptivité des sens invoquée par Descartes est amplifiée par la
reconnaissance des limites propres à notre condition : corporelle ou
complexionelle (déterminisme biologique), caractérielle (psychologique) et
sociologique (historico-géographique).
- Reprise de la critique de Locke sur les idées innées. Hume lui adjoint une
enquête sur nos facultés. Le corps source de la connaissance. En bon disciple
de Newton, approche naturaliste, physicaliste de la psychologie. Fonde le
savoir sur l’expérience à l’encontre de la dogmatique philosophique et
religieuse. Percée de l’Aufklärung.
165
- Mais le corps également organe et limite de la connaissance. On ne sort
jamais de soi. Pas de transcendance au regard du corps qui serait une «
extase » épistémologique. Nous sommes « limités à une seule planète ». À
rebours de Descartes, la substance pensante n’est pas autonome par rapport
au corps, indépendante et libre ; elle est au prorata de nos impressions
particulières (et non pas générales), de nos expériences vécues qui sont
toujours des expériences du corps. De ce qu’on le monde est objectivement,
à l’exclusion des affections que nous en avons, nous ne savons rien et ne
pouvons rien dire. Signifie également qu’il n’y a pas de vérité absolue qui
pourrait s’imposer de manière universelle ; et quand bien même il y en
aurait, aucun critère ne permettrait de l’identifier. D’où l’exigence de
tolérance, pierre d’angle de la morale humienne.
- Les idées sont bien des « perceptions de sensations » (des « impressions »
sensibles) ou bien des copies atténuées de ces impressions, des « perceptions
de réflexion » (= toute pensée réflexive). Les idées générales ou les idées
abstraites sont des idées complexes qui résultent d’une association
d’impressions simples. Dieu = un idéal parfait composé de nos idées déjà
complexe de sagesse, de bonté, d’éternité, etc. Si bien que « le pouvoir
créateur de la pensée ne monte a rien de plus qu’à la faculté de composer,
de transposer, d’accroître, de diminuer les matériaux que nous apporte
l’essence et l’expérience ».
- Toutes les opérations de l’esprit se réduisent à faire des généralisations de
différents types en vertu de la loi de connexion. L’opération de «
composition » désigne un processus de généralisation via la combinaison des
idées simples dont résulte une idée complexe. L’opération de « diminution »
généralise en faisant abstraction des particularismes. L’opération de
transposition » absolutise des qualités et les impute à des objets, telle la
sagesse, la bonté, l’éternité pour Dieu.
- La loi de connexion. Instinctive, naturelle, elle préside au rassemblement
de la diversité de nos expériences, unit les impressions distinctes, ordonne
le disparate avec méthode pour construire nos représentations. Se subdivise
en principe de ressemblance (régnant sur l’imagination), de contiguïté
(régnant sur la perception) et de causalité (règne sur la raison). Nota : les
mêmes principes que ceux mis en œuvre par la magie traditionnelle.
- Caractère subjectif de la connexion qui se réduirait à une « vue de l’esprit
». Elle ne dit rien de certain sur les rapports réels qui unissent les objets,
166
non plus que sur leur essence. La connexion n’est pas observée dans la
nature, elle est induite ou projetée. « Tous les événements paraissent
entièrement détachés et séparés les uns des autres : un événement en suit
un autre mais nous ne pouvons jamais observer aucun lien entre eux. Ils
semblaient être en conjonction mais non en connexion […] nous supposons
une connexion entre eux et un pouvoir dans l’un qui lui fait produire l’autre
avec la plus puissante nécessité » (Enquête sur l'entendement humain,
section II).
- Influence de la physique newtonienne. Hume transpose à la raison et à
l’entendement la loi de l’attraction universelle. Cette loi conduit l’esprit à
rapprocher des sensations disparates et des objets distincts ainsi que des
événements qui, en réalité, ne se répètent jamais à l’identique. La science
peut induire des lois générales de l’observation de phénomènes semblables –
mais il n’y a pas de phénomènes absolument semblables.
- Tout jugement dérive de l’expérience. Ni cognitif, ni intuitif. C’est le
credo de l’empirisme ; contra l’idéalisme de Descartes pour qui nous
connaissons par les idées, à la lumière de l’entendement qui doit ensuite
coïncider avec la chose extérieure. Deux facultés de l’esprit : a)
l’imagination rassemble et b) la raison corrige. La raison rectifie à la lumière
de l’expérience l’errance ou l’inadéquation de nos sens (exemple du
phénomène de réfraction sur le bâton immergé dans l’eau). La raison ne
produit rien ; elle organise le donné sensitif. Elle n’est pas fondatrice ou
source de la connaissance, mais organisatrice et rectificatrice. Un autre
usage de la raison – celui qui convient aux philosophes – peut consister à
rapporter les idées aux expériences dont elles sont tributaires, à démêler le
spéculatif complexe en unités de sensations simples (méthode analytique) :
âme, Dieu, volonté libre, etc., tout cela peut être décomposé, analysé,
expliqué par la loi de connexion. Remise en cause de l’existence réelle des
entités abstraites. Lutte contre la tendance de la métaphysique
traditionnelle à la substantialisation (du sujet, du monde, etc.). Hume ouvre
en ce sens la voie à la critique de Nietzsche.
- La connexion inférée entre les idées est également présupposée constante
et invariable. Nous voulons croire que de la même cause suivra le même
effet, toujours et en tout lieu (= principe d’invariance par translation dans le
temps et l’espace). La première condition de la science est en effet que la
nature ne se contredise pas. Mais ce qui a valu dans le passé, rien ne nous
167
garantit en rien que cela vaille encore dans le futur. Rien ne garantit au
reste que ce qui vaut pour tel objet peut être extrapolé à tel autre objet,
nécessairement distinct. On ne peut induire du même à l’autre.
- Conséquence : la vérité n’est qu’une hypothèse massivement consentie,
rendue probable par la récurrence de certaines connexions. Raisonnement
subjectif sur la base d’apparences qui tire toute sa pseudo-légitimité de
présuppositions concernant la similitude et la connexion de certains faits.
Rien ne prouve, rigoureusement et logiquement parlant, que le soleil se
lèvera à nouveau demain.
- Dès lors, plus de distinction entre la « vérité » scientifique et la croyance
bien-fondée ; c’est-à-dire, tout au plus, corroborée jusqu’à présent. Le moi,
le monde et Dieu, les objets spécifiques de la métaphysique spéciale,
relèvent de la croyance, de même que la stabilité que nous leur attribuons.
- La causalité comme sensation (du domaine infra-rationnel) de régularité,
fondée sur l’habitude, l’accoutumance et la ressemblance elles-mêmes
doivent être interprétées en termes de répétition. Cf. J.S. Mill, Logique des
science morales. Génère une croyance érigée par Hume en loi du monde
vivant, qui ne se limite pas au monde humain. Hume laisse la question de
son fondement ouverte là ou Kant voudra y concevoir une catégorie de
l’entendement.
- Le problème de l’induction : quel que soit le nombre d’observations
corroborant une hypothèse, celui-ci ne permettra jamais de confirmer une
proposition universelle, et donc de valider une loi physique. Une seule
observation négative autorise en revanche à prononcer la fausseté d’une
proposition. Or rien ne prouve qu’il n’existe pas pour toute hypothèse au
moins une occurrence réfutative, un « cygne noir ». Dissymétrie logique.
Popper contourne le problème en remarquant que la science réfute ou bien
qu’elle corrobore plutôt qu’elle ne confirme.
- Identifier des différences et des répétitions, associer des idées et dresser
des constats de régularité présuppose la mémoire qui enregistre l’expérience
passée : « La vérité est qu’un raisonneur inexpérimenté ne pourrait
absolument pas raisonner s’il était absolument inexpérimenté » (Enquête
sur l'entendement humain). Pose une limite à l’empirisme qui ne peut se
satisfaire des données immédiates de la perception.
- Loi (ou guillotine) de Hume : on ne peut déduire le « devoir-être » (ought)
de l’« être » (is).
168
- Fourche (ou maxime) de Hume (= croisée des chemins) : l’ensemble des
vérités qui peuvent être formulées se distribue entre celles concernant les
relations d’idées (les énoncés logiques, mathématiques, universels et
nécessaires) et les relations de choses (relevant des faits, historiques,
empiriques, contingents et particuliers) (Traité de la nature Humaine, Livre
I).
- Réhabilitation de la méthode épicurienne qui induit une loi générale
d’une pluralité de faits singuliers, à l’encontre de la méthode mathématique
de l’Académie, rationaliste et déductive. Hume se distancie néanmoins du
réalisme d’Épicure, en prenant acte du fait que les impressions sont toujours
subjectives et ne nous permettent pas de percer le voile des apparences en
direction de la chose en soi = en dehors du soi. Renoncement à connaître
l’essence des choses. Influence Kant : c’est la lecture de Hume qui le réveille
de son « sommeil dogmatique » (leibnizien) et donne à penser une nouvelle
inflexion en direction du criticisme. Mais à la différence de Kant et
d’Épicure, orientation sceptique : « le doute s’accroît chaque fois que nous
portons plus avant notre réflexion ».
- Donc la philosophie (qui doute) s’élève contre l’instinct (qui détermine à
croire). Machine à déconstruire les préjugés. Il s’agit pour le philosophe de «
créer une nouvelle habitude pour détruire l’habitude ». Sachant que cette
attitude est bannie de la vie courante, où nous devons feindre de croire sans
croire aux « vérités » du monde.
 Point sur le problème de l’induction
Induire, c’est dégager des lois universelles par voie d’inférence sur la base
d’observations toujours uniques et singulières. Observant, par exemple, que
tous les députés que nous connaissons sont corrompus ; on pourrait inférer
que tous les députés sont corrompus. Ainsi procède la science (avec un rien
plus de rigueur) pour établir ses lois, lesquelles ne diffèrent pas
radicalement des lieux communs. Beaucoup s’en faut toutefois que
l’extension ainsi réalisée de la proposition selon laquelle les députés sont
corrompus (de même que les corps seraient pesants) puisse être entérinée, et
prétendre à une certitude apodictique. Le prédicat « corrompu » ne se
trouve pas compris dans le sujet « député » ; si bien qu’il faut en passer par
169
une expérience pour formuler un jugement synthétique. Or l’expérience ne
livre qu’un échantillon d’observation. Nous n’avons d’expérience que d’un
nombre limité de cas ; et rien ne garantit qu’un député honnête existe en
retrait de la foule des députés véreux. C’est tout le paradoxe de l’induction :
elle peut conduire l’esprit aux vérités les plus utiles ; elle peut tout aussi
bien nous induire en erreur.
Définition et thématisation
Ce rapprochement est sans nul doute osé ; toutefois, une première intuition
de l’induction pourrait être conçue dans le fameux symbole de la caverne de
Platon (République, VII). Il propose une méthode (meta hodos : le
cheminement, la voie parallèle) pour encadrer la démarche ascendante du
philosophe s’élevant depuis les phénomènes instables et périssables aux
êtres intelligibles. Méthode que le Bacon du Novum Organum opposera,
quelque deux millénaires plus tard, au raisonnement syllogistique de
l’Organum aristotélicien, délivré jusqu’alors ex cathedra, dans tous les sens
du terme. Si, comme s’en ouvre le doyen de l’Académie, il faut partir de
l'épaisseur des choses pour y mettre de l’ordre, la montée hors de la caverne
n’anticipe pas sur autre chose que l'induction. Voudrions-nous déterminer
le ti esti la Beauté ? Savoir ce qu’est le Beau en soi et non ce qui est beau par
la Beauté ? Nous partirons de ce qui reproduit ou participe de la Beauté,
donc du spectacle des existants. Non pour s’y arrêter, tel le sophiste Hippias,
captif de ses illusions cosmiques, mais pour mieux remonter jusqu’à l’Idée
qui seule peut faire l’objet d’une connaissance. La science est science des
êtres et non science des apparaîtres. Il n’y a de ceux-ci qu’une opinion
possible, au mieux une opinion accompagnée de raison (orthè doxa). La
science est dialectique ; la dialectique est abstraction. Platon aussi, comme
les physiologoï, chemine à sa manière vers les principes.
Nous y gagnons la possibilité d’une science. Mais avec elle,
inséparablement, la possibilité de l’erreur. Tout avantage a ses
inconvénients. Nous l’avions suggérée tantôt : l’écueil de l’induction utilisée
en guise de méthode scientifique, c’est toujours la limite de nos
expérimentations. L’universel n’est pas dans l’expérience. L'expérience seule
ne livre rien d'universel. Non plus que la pluralité des expériences : celle-ci
170
ne saurait valoir pour la totalité qu’on en peut faire (ou pas). La multiplicité
n’épuise pas l’intégralité des cas passés, présents et à avenirs qu’il faudrait
observer.
S’ajoute à cela qu’en dépit des protestations de Bacon, il n’y a pas
d’expérience cruciale. Rien ne s’oppose, en théorie du moins, à ce que de
nouvelles observations consécutives à de nouvelles investigations viennent
mettre à bas les généralités que nous comptons au rang des connaissances.
Un nombre x d’observations passées conformes à une loi, si important soitil, constitue-t-il une preuve de ce que cette même loi s’applique dans tous
les cas possibles ? En admettant pour les besoins de la démonstration que
cette « régularité » fonctionne pour le passé, quelles raisons avons-nous de
croire qu'elle vaudra à l'avenir ? On répondra avec bon sens : parce que ce
qui était à venir est sans cesse devenu passé et que l'expérience que nous
avons acquise du « futur passé » (Russel) a toujours confirmé la pertinence
de cette régularité. Mais, de toute évidence, une telle réponse est circulaire.
Si nous avons l’expérience des futurs passés, nous n’avons pas celle des
futurs à venir. Ressembleront-ils au futur passé ? La question reste ouverte.
Elle ruine toute certitude.
Platon, si l’on en croit une anecdote rapportée par Diogène Laërce ( Vies et
doctrines des philosophes illustres), avait un jour défini l’homme comme un
bipède sans plume. Que vaut une telle proposition ? Il connaissait des
hommes, il ne les connaissait pas tous. Que valent dès lors ses inférences ?
Diogène Laërce raconte que Diogène de Sinope, ayant eu vent de cette
définition, se présenta à son Académie muni d’un poulet déplumé en lui
faisant valoir qu'il répondait à sa définition de l'homme. D’où
l’amendement que fit Platon à sa caractérisation : « … et qui a des ongles
plats ». Un pas de plus. Qu’arrivera-t-il le jour où l’homme, bipède sans
plume (aux ongles plats), donnera naissance au premier homme ailé ?
S’inscrire en faux contre cette hypothèse revient à refuser les théories de
l’évolution et donc à faire de l’homme une espèce immuable. Le brûlera-ton, cet homme-oiseau, tel l’orgueilleux Icare, pour avoir défié nos
concepts ? L’adorera-t-on, ange célicole, pour ne le pas compter parmi les
hommes ? Nous avons vu des cygnes ; ils étaient blancs ; nous en avons
conclu que tout cygne était blanc. Personne, pourtant, ne pouvait se vanter
171
d’avoir vu tous les cygnes. Quel ne fut pas notre étonnement lorsque nous
découvrîmes des cygnes noirs en Australie !
Dernier exemple, devenu cas d’école, celui de Socrate mort. Après avoir
souffert (de loin) l’exécution de son mentor, Platon croit pouvoir affirmer
que tout homme est mortel. Pour être à même de valider cet énoncé, il
faudrait expérimenter sa pertinence sur la totalité des hommes – ou bien
cela ne serait qu’une opinion mal fagotée. Par où l’on s’aperçoit que nos
savoirs induits ne sont fondés que sur un vice de raisonnement. L’erreur est
virtuellement présente dans toute proposition induite. On voudrait croire
qu’au moins l’opération inverse – la déduction – ne saurait être atteinte par
cette épée de Damoclès. Passer du général au singulier serait logiquement
moins périlleux que de passer du singulier au général, dès lors que le
général comprend le singulier. Une proposition déduite ne saurait en
conséquence prêter le flanc aux mêmes accusations qu’une proposition
induite. En est-on sûr ?
La déduction suppose en premier lieu que l’on connaisse à quelle loi
générale un phénomène particulier doit être rapporté. Déduire, c’est donc
déjà dans une certaine mesure homologuer une pétition de principe. Mais
nous ne sommes pas au bout de nos peines : si par définition le déductif juge
le particulier d’après le général, alors le déductif en-soi n’existe pas ; car il
faut bien que les lois générales d’après lesquelles nous jugeons du particulier
aient préalablement été induites de phénomènes particuliers. En déduisant,
nous générons par conséquent, potentiellement, des fictions au carré. Si
bien que l’impossibilité de garantir une induction frappe bien l’ensemble de
nos jugements d’une insécurité propice au scepticisme.
Résolution et dépassement
Faute d'être conséquente dans l’absolu, une opération telle que l’induction
peut-elle être fondé ? Et dans quels termes ? Et à quelles conditions ?
Répondre à cette question suppose d’avoir effectué préalablement les
clarifications nécessaires. Deux sortes d’induction peuvent être distinguées.
Hume le premier les a formalisées dans son Enquête sur l’entendement
172
humain en distinguant des « relations d’idées » les « choses de fait ». Les
« relations d’idée » sont du domaine du raisonnement mathématique. Elles
ne relèvent pour cette raison que des principes de la logique formelle. Ne
faisant pas appel à l’expérience sensible (Piaget et Poincaré ne laisseront pas
de contester cette assertion), elles ne sont pas ou peu sujettes à controverse.
Les « choses de fait », relevant cette fois de l’induction dite empirique,
apparaissent comme de juste infiniment plus contestables. C’est de celles-ci
que nous devons traiter.
Le soleil se lèvera-t-il demain ? s’interroge Hume, méditatif. La question
pourrait faire sourire ; on en mesure rarement toute la portée. Adam a
craint la première fois qu’il vit le soleil disparaître. La formule tombe six
fois dans la Genèse : « Il y eut un soir, il y eut un matin ». En ira-t-il de
même à l'aube du septième jour ? Rien, nonobstant l’habitude, ne nous
permet de l’affirmer. Sans l’habitude, pas d’anticipation, pas de calcul, pas
de science constituée. C’est l’habitude qui, selon Hume, constitue le ressort
de l’induction. Mais l’habitude elle-même n’est pas première : la
conditionne cette faculté de l'imagination à percevoir une régularité dans le
lacis des phénomènes. Sans cette disposition, aucune « répétition » ne
produirait en nous l’illusion réductrice de l’habitude, ni, par voie de
conséquence, de matière susceptible de faire l’objet d’une généralisation.
Aussi, la notion de causalité, liant deux phénomènes dans une relation de
cause à effet, vient a posteriori, à proportion que nous nous habituons à
constater qu’une situation x prélude à une situation y, comme le jour à la
nuit. Il n’y a pourtant aucune nécessité logique qui lierait telle situation x à
telle situation y. Le septième jour verra le soleil se lever, non parce que le
soleil se lève, mais parce qu’il s’est levé les six jours précédents. Sol
invictus = sol invincibilis ? Qui peut savoir ?
La solution kantienne (ou son échappatoire) pour fonder l’induction fut
d’introduire des cadres de la perception innés. Il forgea dans cette intention
le concept-valise de jugement synthétique a priori. Jugement dit
synthétique en tant qu’il ajoute quelque chose à son objet (tous les corps
sont pesants), à l’opposé du raisonnement analytique, par référence auquel
le prédicat se trouve inclus dans le sujet (tous les corps sont étendus).
Jugement a priori, du reste, en tant qu’il précède l’expérience.
173
Les catégories pures qui rendent possible ces jugements sculptent les cadres
de la perception de sorte à adapter le donné intuitif de l’expérience sensible
à la structure universelle – mais l’est-elle véritablement ? – de
l’entendement humain. Nos connaissances proviennent de l'expérience,
mais ne nous sont données que formatées par une tectonique de
l’entendement. Le sens interne requiert un temps non relatif pour cohérer
la succession de nos pensées, le sens externe un espace euclidien pour se
représenter la position des choses ; à la jonction des deux naît la
« causalité ». Plus tard, la découverte des géométries non-euclidiennes, des
espaces riemanniens, de la courbure de l’espace-temps, de la mécanique
quantique et des étranges propriétés des particules subatomiques
souligneront l’inadéquation de ces cadres et catégories de la perception.
C’en serait plus qu’assez pour persuader certains du caractère construit ou
constitué de ces cadres de pensée. Affirmation portée à son point d’orgue
par les constructivistes radicaux, qui leur évite d’avoir à se prononcer sur la
question de la vérité et du réel. (Existe-t-il seulement ?)
Mais il y a loin que le problème de l’induction ait été résolu par Kant. Le
criticisme n’aura fait que le déplacer. Que la causalité n’appartienne pas à la
structure inconnaissable de la réalité mais soit introjectée ou projetée par le
sujet ne sécurise en rien ses résultats. Un changement de stratégie s’impose.
Et c’est aux empiristes logiques que nous devrons ce renouveau, au prix
d’un renoncement épistémologique de taille. De rigoureuse et prédictive, la
science devient probabiliste avec Carnap et Reichenbach. Le raisonnement
inductif se doit dès lors d’abandonner toute prétention à établir la vérité
d'une proposition pour se contenter de lui conférer « une certaine
probabilité », appelée « degré de confirmation » ou « probabilité logique ».
L'idée rectrice étant que la répétition d'un phénomène augmente la
certitude que nous avons de voir ce phénomène se reproduire. Par
conséquent, le fait d’une induction n’est pas certain ; tout juste et il...
probable. « Probable » n’est ni vrai ni faux, seulement plus vraisemblable,
plus prévisible.
On ne peut pourtant nier que la réponse des positivistes logiques paraît
174
moins constituer une solution qu’une pirouette rhétorique. Aussi, avec la
reformulation des hypothèses en termes de probabilité, c’est donc la
possibilité même d’un « savoir scientifique » qui vole en éclat. La science
n’est plus une discipline achevée ; elle devient dynamique, précaire. Un
philosophe comme Karl Popper peut alors affirmer que les théories ne
peuvent plus être validées dans l’absolu, même sur la base d'un très grand
nombre d'observations empiriques (La logique de la découverte
scientifique). Dans le domaine de la science empirique, la vérification
devrait plutôt être assimilable à une manière de corroboration. La vérité le
cède à la versimilarité, précaire et dépendante de tests scientifiques, tests
eux-mêmes relatifs à d'autres tests précédents, toujours améliorables, jamais
définitifs.
L’induction apparaît en dernière analyse comme un outil très imparfait,
mais néanmoins indispensable à la constitution d’une science des
phénomènes : à supposer, bien sûr, que nous ayons l’humilité de
questionner consciencieusement les lois qu’une expérience ou qu’une
anomalie démentent, plutôt que de plier le monde à nos lois et catégories…
Jâbir ibn Hayyan (721-815)
Principales contributions :
- Kitab al-Kimya (Livre de la composition de l'alchimie), comprenant la «
Table d'émeraude » (Tabula Smaragdina) dans sa version arabe ; traduit par
Robert de Chester en 1144.
- Kitab al-Sab'een (Les 70 livres), traduit par Gérard de Crémone avant
1187.
- Livre du Royaume, Livre de l'Equilibre, Livre de Mercure Oriental (VIIIe
siècle)
Concepts et idées-forces :
- Alchimiste arabe d’origine perse connue en Occident sous le patronyme
latinisé de Geber. Auteur et compilateur prolifique, à l’origine d’une vaste
production bibliographique. Plus de cent traités recensés à ce jour sur des
sujets hétéroclites, dont vingt-deux consacrés à l’alchimie. C’est en
175
particulier son apport dans cette discipline qui influence les alchimistes
européens de l’ère médiévale
- Bien qu’alchimiste intimement convaincu de la possibilité de la
transmutation, prend ses distances à l’égard des traditions ésotériques
propres à cet art occulte. Contribue à l’acheminement de l’alchimie comme
pratique hasardeuse à la chimie moderne moyennant la théorisation des
réactions chimiques fondamentales que sont la cristallisation, la distillation,
la calcination, la sublimation et l'évaporation, ainsi que la classification des
métaux selon leur qualité (sec, humide, chaud, froid), complémentaire des
quatre éléments aristotéliciens. Analyse et synthèse des corps en fonction
de leurs éléments constitutifs.
- Transmutation envisageable en restructurant les propriétés des métaux.
Cette théorie donne à la quête de l’al-iksir, l'élixir supposé permettre ce
virement, ses lettres de noblesse. Équivalent de la synthèse de la pierre
philosophale, grand œuvre de l’alchimie européenne.
- Représente, avant Galilée, un exemple de conciliation de la théorisation et
de l’expérimentation.
François Jacob (1920-2013)
Principales contributions :
- La Logique du vivant, une histoire de l’hérédité (1970)
- « L'évolution sans projet » dans Le Darwinisme aujourd'hui (1979)
- Le Jeu des possibles. Essai sur la diversité du vivant (1981)
- La Statue intérieure (1987)
Concepts et idées-forces :
- Soutient une approche biologisante des organismes vs. l’approche vitaliste
(Canguilhem et les médecin de l’École de Montpellier).
- Mise au point, en collaboration avec Jacques Monod, du modèle de l’«
opéron », fondée sur la notion de « programme génétique ». Décrit
l’interaction des différents types de gènes et des protéines au moment de la
transcription de l’ARN.
Hans Jonas (1903-1993)
Principales contributions :
176
- Le Principe responsabilité (1979)
- Pour une éthique du futur (1990)
Concepts et idées-forces :
- Heuristique de la peur. Prescrit un pessimisme préventif systématique au
regard des technologies. La responsabilité jonassienne est celle qui interdit à
l’homme de s’engager en toute action qui pourrait compromettre ou
dégrader irréversiblement l’existence des générations futures.
- Se retrouve dans le droit positif français (directives communautaires,
Constitution de la Ve République) sous la formule de « principe de
précaution ».
- S’oppose au « principe d’innovation » que d’aucuns estiment indispensable
au développement de la connaissance, des sciences et technologies. Toute
évolution comporte en elle sa part de risque.
- Concept d’obsolescence de l’homme. S’inscrit dans la lignée de l’antiutopisme de Günther Anders, ancien élève de Martin Heidegger (pour qui «
la science ne pense pas » : elle ne pense pas ses conséquences).
- Arno Münster, dans son ouvrage Principe responsabilité ou principe
espérance, oppose la pensée de Jonas à celle du philosophe marxiste Ernst
Bloch, auteur du Principe espérance. Au conservatisme de l’un, échaudé par
l’industrie des camps de concentration, s’oppose l’humanisme technophile
de l’autre favorable à l’automation, à la libération de l’homme par la
machine-outil.
- Nouvelle actualité du « bio-luddisme » de Jonas dans le contexte des
controverses autour de la bioéthique et du transhumanisme.
Emmanuel Kant (1724-1804)
Principales contributions :
- Critique de la raison pure (1781 ; 1787)
Concepts et idées-forces :
- Idéalisme transcendantal, criticisme. Motif de la première Critique :
restreindre les prétentions judicatives de la raison aux objets de l’expérience
possible. Mettre un terme aux querelles de clocher qui font de la
métaphysique un « champ de bataille ».
177
- Révolution (anti)copernicienne dans l’ordre de la connaissance. Ce n’est
pas l’objet mais le sujet qui impose ses règles au phénomène.
- Jugements analytiques vs. synthétiques (a priori/a posteriori). Comment
des jugements synthétiques a priori sont-ils possibles ?
- Esthétique transcendantale : l’espace et le temps comme formes de
l’intuition sensible, la seule qui nous soit accessible ; schématisme :
catégories (purs et empiriques) de l’entendement. Nécessité de combiner
expérience et entendement pour la synthèse des connaissances : « De ces
deux propriétés l’une n’est pas préférable à l’autre. Sans la sensibilité, nul
objet ne nous serait donné ; sans l’entendement, nul ne serait pensé. Des
pensées sans matière sont vides ; des intuitions sans concepts sont
aveugles ». Noter que Kant n’exclut pas l’éventualité de formes alternatives
de l’intuition sensible (par ex., chez d’autres espèces). Nous ne pouvons
cependant nous les représenter.
- Distinction phénomènes/noumènes (choses « considérées comme » en soi).
Le noumène comme concept « problématique » au sens kantien, limitatif,
apophatique. On ne peut rien en dire, pas même qu’il « existe » ; pas même
qu’il « cause » le phénomène. Aucunes catégories ne lui est applicable. Il est
un postulat de la raison critique. Préserve ce faisant contre l’accusation de
phénoménisme (cf. Berkeley), notamment imputable à la première version
de la Critique, justifiant le rectificatif de la seconde Préface.
- Ne disposant pas d’une intuition intellectuelle qui nous ferait appréhender
la chose en soi, on ne peut connaître le monde indépendamment de la
manière dont il nous apparaît, sous un rapport phénoménal.
Lord Kelvin (1824-1907)
Concepts et idées-forces :
- William Thomson, premier baron Kelvin of Largs, connu pour ses travaux
en électricité, en géothermie et en thermodynamique.
- Porte-parole d’une opinion présentée comme majoritaire chez les
physiciens de la fin du XIXe siècle : « La physique est définitivement
constituée dans ses concepts fondamentaux ; tout ce qu’elle peut désormais
apporter, c’est la détermination précise de quelques décimales
supplémentaires. Il y a bien deux petits problèmes : celui du résultat négatif
de l’expérience de Michelson et celui du corps noir, mais ils seront
178
rapidement résolus et n’altèrent en rien notre confiance… » (Discours
inaugural du XXe siècle à la Société anglaise de physique, en 1892). Cette
déclaration précède de peu les deux révolutions majeures que seront la
relativité et la physique quantique.
- R.P. Feynman va nuancer cet état des lieux, selon lui trop précipité et
caricatural : « On entend souvent dire que les physiciens dans la dernière
partie du XIXe siècle estimaient connaître toutes les lois de de physique et
que la seule chose importante qui leur restait à faire était de calculer
quelques décimales de plus. Quelqu’un a pu dire cela une fois, et d’autres
l’ont copié. Mais une lecture attentive de la littérature de cette époque
montre que quelque chose les préoccupait tous ».
- Formulation dite « historique » du deuxième principe de
thermodynamique ou principe de Carnot généralisé, qui établit
l'irréversibilité des phénomènes physiques, en particulier lors des échanges
thermiques. Rupture d’avec le cadre newtonien. Récuse également
l’hypothèse de moteur ou de mouvement perpétuel (surunité).
- Introduction du zéro absolu en thermodynamique (−273,15°C ; inaccessible
du fait de propriétés quantiques). Donne son nom à une nouvelle unité de
mesure : le degré Kelvin.
- Leibniz opposait à Descartes que seule, à l’occasion d’un choc entre deux
corps, se conservait la force motrice ou « force vive » ( vis viva), et non la
quantité de mouvement. La force vive définit ici le double de ce que Lord
Kelvin va baptiser l'énergie cinétique.
Johannes Kepler (1571-1630)
Principales contributions :
- Le mystère cosmographique (Mysterium Cosmographicum) (1596)
- Astronomia pars Optica (1604)
- Astronomie Nouvelle (Astronomia Nova) (1609)
- Harmonices Mundi (1619)
- Le Songe ou astronomie lunaire (Somnium, seu opus posthumum de
astronomia lunari) (1634)
179
Concepts et idées-forces :
- Contexte de superstition, en apparence peu favorable à l’émergence d’une
science matérialiste glorifiant la raison. Mère accusée de sorcellerie et tante
brûlée sur le bûcher. Kepler est pour sa part un fervent défenseur de
l’astrologie, convaincu de l’influence de la position des astres sur l’existence
humaine (sa mauvaise naissance explique son mariage désastreux et son état
de santé) ainsi que sur les phénomènes météorologiques. Promu à la
fonction d’astronome impérial après le décès de Tycho Brahé, reprend son
œuvre. Oppose à l’astrologie populaire ou traditionnelle une astrologie
savante, d’une valeur et d’une rigueur égale à celle de la physique des
mathématiques ; et c’est sur la physique (l’astrophysique) qu’il entreprend
de fonder cette nouvelle science avec le De fundamentis astrologiae de
1601. Contre les objections des astrologues qui s’imaginent ces disciplines
comme relevant de deux sphères hermétiques, il oppose le Tertius
interveniens de 1610.
- De l’astronome son professeur Michael Maestlin, reçoit en marge de
l’enseignement du modèle géocentrique de Ptolémée, celui de
l’héliocentrisme de Copernic dont il devient le défenseur.
- Trois lois de Kepler décrivant le mouvement des planètes sur leur orbite.
(1) loi des orbites = trajectoire elliptique des planètes ; à rebours d’Aristote
qui la tenait pour circulaire. Abandon du système des épicycles de
Ptolémée. (2) loi des aires ; (3) loi des périodes.
- Prodromes de la loi de la gravitation universelle : « Deux corps voisins et
hors de la sphère d'attraction d'un troisième corps s'attireraient en raison
directe de leur masse » (Astronomie Nouvelle). Newton s’en souviendra.
- Expérience de pensée sous la forme du premier ouvrage de science-fiction
: le Songe, publié à titre posthume en 1634. Décrit la perception d’un
Sélénien, les variations de la pesanteur le long de l’axe Terre-Lune et
entrevoit, à mi-chemin de ces deux orbes, l’état d’apesanteur spatiale. Aussi
une arme de guerre en faveur de la doctrine copernicienne : « Le but de
mon Songe est de donner un argument en faveur du mouvement de la Terre
ou, plutôt, d'utiliser l'exemple de la Lune pour mettre fin aux objections
formulées par l'humanité dans son ensemble qui refuse de l'admettre » (Le
Songe ou astronomie lunaire).
- Devient à Prague assistant de l’astronome danois Tycho Brahe et travaille
à partir de ses observations. Le Mysterium Cosmographicum de 1596
180
confirme sa profession de foi copernicienne et tente de répondre aux trois
questions du nombre des planètes, de leur distance par rapport au soleil et
de leur vitesse. Il en ressort un modèle d’univers basé sur l’emboîtement de
cinq polyèdres réguliers, ou solides de Platon, se comprenant les uns les
autres au sein d’une structure gigogne, occupant chacun un intervalle entre
les six planètes connues à son époque, de Mercure à Saturne (en incluant
mal à propos le soleil et la lune). Abandon des sphères armillaires
aristotéliciennes pour une architecture qui ne s’en présente pas moins
comme un message adressé aux hommes.
Modèle du système solaire selon Kepler
Lithographie extraites du Mysterium Cosmographicum (1596).
181
- Pionnier de l’astrophysique. Kepler entreprend une recherche des causes
aussi bien physiques que métaphysique des phénomènes célestes. Si bien
que de son argumentation concernant l’accélération des planètes à
proximité du soleil, l’historien des sciences Owen Gingerich pourra écrire
que « tout cela était de la physique et, en vertu de ce raisonnement, Kepler
est considéré comme le premier astrophysicien de l'histoire, appliquant des
principes physiques à l'explication des phénomènes astronomiques.
Maestlin ne partageait pas du tout la position de son disciple et [...] il lui
écrivit : « Je pense qu'il ne faut pas laisser les causes physiques entrer en
ligne de compte et en revanche on doit expliquer les phénomènes
astronomiques sur la seule base de méthodes astronomiques à l'aide de
causes et d'hypothèses non pas physiques mais astronomiques. En d'autres
termes, les calculs exigent que l'on s'appuie sur des bases astronomiques
dans le domaine de la géométrie et de l'arithmétique » (Owen Gingerich, Le
livre que nul n'avait lu : à la poursuite du « De Revolutionibus » de
Copernic, 2008).
- L’harmonie des sphères. Thème pythagoricien, reconduit par Platon,
assortissant l’astronomie à la musique. Chaque planète se trouve associée à
un thème musical dans le Harmonices Mundi de 1619 ; les notes données
par les variations de leur vitesse respective. Coïncide avec le triomphe
européen de la musique symphonique.
- Fondation de la dioptrique et mise en évidence de ses principes. Travaux
sur la nature de la lumière, sur le phénomène de réfraction et de diffraction,
sur l’usage des lentilles et des miroirs, sur la chambre obscure, tous
rassemblées dans le Astronomia pars Optica de 1604, suivi par le Dioptricae
de 1611. Kepler est convaincu que la rétine – et non le cristallin – reçoit
l’image, qu’il la reçoit de manière inversée que c’est au cerveau qu’il
appartient de la remettre à l’endroit. L’astronome lui-même (né, selon ses
dires, sous une mauvaise étoile) est devenu presque aveugle ensuite d’un
épisode de petite vérole contractée à l’âge de trois ans.
Al-Khwarizmi (c.780-c.850)
Principales contributions :
- Livre de l'addition et de la soustraction d'après le calcul indien (825)
- Abrégé du calcul par la restauration et la comparaison (830)
182
Concepts et idées-forces :
- Entre le XIIIe et le XVe siècle, l’arabe était la langue des sciences. Son
influence allait de l’Espagne jusqu’à la Chine. Son originalité lui fut déniée
par nombre d’historiens occidentaux comme Ernest Renan au XIXe siècle,
qui ne voulaient y voir qu’un moyen terme entre la Renaissance occidentale
et la science grecque. Le cas représentatif d’Al-Khwarizmi apporte à cette
vision européocentrée un démenti formel. Les penseurs arabes ont
pleinement contribué à la révolution scientifique du XVIIe siècle, qu’il
s’agisse de mathématiques, d’astronomie, de chimie ou de médecine.
- À une période consacrée à la traduction et aux commentaires des papyri
grecs succède une seconde phase d’innovation à laquelle appartient AlKhwarizmi, représentant de l’école de Bagdad, dont le nom allait donner le
vocable « algorithme ».
- Synthèse entre deux traditions mathématiques : celle des Grecs,
systématisée avec les Éléments d’Euclide et les travaux de Diophante
d'Alexandrie ; celle des Indiens, orientée vers les techniques de calcul.
- Donne lieu à la publication en 825 du Kitābu 'l-ĵāmi` wa 't-tafrīq bi-ḥisābi
'l-Hind, ou Livre de l'addition et de la soustraction d'après le calcul indien .
Comporte une description des chiffres « arabes » empruntés aux Indiens, et
destinés à remplacer les chiffres romains après leur diffusion au MoyenOrient, puis dans le Califat de Cordoue, d’où ils sont importés en Occident
par l’intermédiaire de Gerbert d'Aurillac (Sylvestre II). Cf. André Allard,
Muhammad Ibn Mūsā Al-Khwārizmī. Le calcul indien (algorismus), 1992.
- Suit en 830 la publication d’un traité de mathématiques portant sur la
résolution d’équation à plusieurs inconnues, le Kitābu 'l-mukhtaṣar fī ḥisābi
'l-jabr wa'l-muqābalah ou Abrégé du calcul par la restauration et la
comparaison. Le mot « 'l-jabr »/« Al-jabr » (signifiant originellement «
restauration », « remise en place ») donnera « algèbre ». L’œuvre, en effet, ne
contient aucun chiffre, et toutes les équations sont exprimées en lettres.
- « L’événement fut crucial […] son importance n’a pas échappé à la
communauté mathématique de l’époque, ni à celle des suivantes, le livre
d’Al-Khwarizmi n’a cessé d’être source d’inspiration et objet de
commentaires des mathématiciens, non seulement en arabe et en persan,
mais aussi en latin et dans les langues de l’Europe de l’Ouest jusqu’au XVIIIe
siècle » (Roshdi Rashed, Histoires des sciences arabes, 1997).
183
- Une œuvre astrologique moins convaincante. Prédit au calife une
longévité d’encore cinquante années ; lequel calife passa l’arme à gauche dix
jours après la prédiction. Cf. Al-Tabari, cité dans Al-Khwarizmi, L'algèbre
et le calcul indien, 2013.
Alexandre Koyré (1892-1964)
Principales contributions :
- Études galiléennes (1939)
- Du monde clos à l'Univers infini (1957)
- La Révolution astronomique : Copernic, Kepler, Borelli (1961)
- Études d’histoire de la pensée scientifique (1966)
Concepts et idées-forces :
- Formation en histoire des religions qui rejaillit sur sa manière
d’interpréter les grandes mutations de la science. Celles-ci traduisent des
changements radicaux de conception du monde et du rapport au monde qui
en découle, avec des ramifications philosophiques, pratiques, etc.
- La possibilité de penser certains phénomènes est tributaire des structures
mentales relatives à l’époque au sein de laquelle se meut la pensée
scientifique. Les théories ne prennent sens que replacées au sein du
paradigme (Kuhn) qui est le leur. On ne peut taxer d’absurdité à si peu de
frais le système d’Aristote, lequel avait sa cohérence et ses propres critères
de validité. Du point de vue d’Aristote, notre physique paraîtrait aberrante.
- Conception discontinuiste de l’histoire des sciences. Dans la lignée de
Bachelard et de Kuhn, Koyré pose que la science progresse à raison de
ruptures qui présupposent un remplacement des bases métaphysiques sur
lesquelles s’édifiait la science à son stade antérieur. D’où l’expression de «
révolution scientifique » pour qualifier l’essor de la physique moderne au
XVIIe siècle.
- De part et d’autre de la fracture, Koyré s’emploie à mettre à jour les
articulations majeures qui structurent les visions du monde impliquées qui,
par le cosmos pré-copernicien, qui par l’univers infini s’imposant à la suite
des travaux de Galilée : « J'ai essayé, dans mes Études Galiléennes, de définir
les schémas structurels de l'ancienne et de la nouvelle conception du monde
et de décrire les changements produits par la révolution du XVIIe siècle.
184
Ceux-ci me semblent pouvoir être ramenés à deux éléments principaux,
d'ailleurs étroitement liés entre eux, à savoir la destruction du Cosmos, et la
géométrisation de l'espace, c'est-à-dire : a) la destruction du monde conçu
comme un tout fini et bien ordonné, dans lequel la structure spatiale
incarnait une hiérarchie de valeur et de perfection, monde dans lequel « audessus » de la Terre lourde et opaque, centre de la région sublunaire du
changement et de la corruption, s'« élevaient » les sphères célestes des astres
impondérables, incorruptibles et lumineux ... b) le remplacement de la
conception aristotélicienne de l'espace, ensemble différencié de lieux
intramondains, par celle de l'espace de la géométrie euclidienne – extension
homogène et nécessairement infinie – désormais considéré comme
identique, en sa structure, avec l'espace réel de l'univers. Ce qui à son tour
impliqua le rejet par la pensée scientifique de toutes considérations basées
sur les notions de valeur, de perfection, de sens ou de fin, et finalement, la
dévalorisation complète de l'Être, le divorce total entre le monde des
valeurs et le monde des faits ».
- Insistance sur le rôle de la mathématisation dans la révolution
intellectuelle du XVIIe siècle. Comme le soutenait Tannery (voir notice),
Galilée serait un théoricien autant – sinon peut-être plus – qu’un
expérimentateur. Beaucoup de ses manipulations, au reste, sont demeurées
(de manière avouée ou non) au statut d’expériences de pensée (la Tour de
Pise, etc.). La révolution scientifique du XVIIe siècle serait avant tout
consécutive à l’émergence d’une nouvelle manière de concevoir le monde,
de nouvelles valeurs et de nouvelles aspirations. L’expérimentation procède
de cette démarche plutôt qu’elle ne l’inspire, à rebours de l’interprétation
positiviste de la genèse des sciences modernes.
- Les théories sont pénétrées d’éléments extra-scientifiques, « impurs »,
irrationnels. Ces éléments peuvent être d’ordre esthétique (élégance d’une
théorie), religieux, philosophique, métaphysique, psychologique, etc. De
tels motifs sont susceptibles d’orienter la recherche bien davantage que le
credo expérimental. Koyré invoque l’exemple de la dilection galiléenne
pour la mystique solaire, de Newton alchimiste, etc.
- Que le processus de découverte ne s’explique pas intégralement par des
considérations de nature scientifique ne signifie pas que la science soit
irrationnelle, gratuite ou chimérique. Des procédures de vérifications
185
sauvent les hypothèses de l’arbitraire pur. La vérification tranche en
dernière instance.
Thomas S. Kuhn (1922-1996)
Principales contributions :
- La Structure des révolutions scientifiques (1962)
Concepts et idées-forces :
- Œuvre maîtresse de Kuhn, La structure des révolutions scientifiques peut
à bon droit être considérée comme l'une des œuvres fondatrices d'une
nouvelle approche philosophique des sciences qui s'émancipe tout à la fois
de la phénoménologie et de l'école analytique : l'épistémologie historique.
- Conception discontinuiste de l’histoire des sciences. Prenant le contrepied de la vision classique, cumulative, anhistorique des matières
scientifiques (celle qui voulait que la précision accrue et la collecte des faits
rapproche les théories de la vérité (cf. Popper et la notion de « versimilitude
»)), Kuhn démontre le caractère discontinuiste du progrès des sciences. La
science n'est pas un long fleuve tranquille ; elle est un torrent agité par des
transformations dont le caractère destructeur est évincé des médias de la
science. La science avance par « sauts quantiques », par ruptures successives.
Fait un sort à l’idée bachelardienne qu’une théorie remplacée englobe celle
qui la précède ; ainsi de la dynamique newtonienne présentée comme un
cas particulier, confiné à un espace-temps de courbure nulle, de la physique
relativiste d’Einstein.
- Approche externaliste du développement des sciences. La formation des
connaissances ne peut être étudiée de manière autiste, « cognitiviste »,
abstraction faite des déterminations sociales/religieuses/idéologiques et du
contexte de l’époque. Une conception externaliste de l’histoire des sciences
avait déjà été théorisée dans les années 1920 et 1930 par des penseurs et
historiens influencés par le marxisme, tel que Nikolai Bukharin (1922),
Boris Hessen (1931) et John D. Bernal (1939).
- Nécessité de contextualiser les textes scientifiques. La structure des
révolutions scientifiques, ne paraît pour la première fois qu'au tournant de
l'année 1962 ; mais c'est en 1947, quinze ans auparavant, que le jeune
homme, étudiant ès physique, pose les premiers jalons d’une théorie qui
186
restera pour la postérité comme l'acte de naissance de l'épistémologie
historique. Quoiqu’engagé dans une étude disciplinaire des sciences, il
s’intéresse bien vite à leur histoire. Il interrompt de fait son programme de
recherche pour préparer un cycle de conférences interrogeant les origines
de la mécanique du XVIIe siècle. Son travail liminaire le conduit à
s'intéresser de près aux précurseurs de Galilée et de Newton – et donc, de
loin en loin, à la physique aristotélicienne. Comme la plupart des historiens
des sciences, il concevait alors le processus de translation d'une physique à
l'autre sous le régime de l'accumulation. Or, d’évidence, la physique
d'Aristote n'avait rien de commun avec celle de Newton. Cette tradition ne
pouvait vraisemblablement pas constituer une carrière exploitable pour les
travaux de Galilée et de ses successeurs : ils durent la rejeter, en bloc,
méthodes et contenus, et reprendre à la source l'étude des corps et du
mouvement. Comment, cela étant, les qualités d'observateurs du Stagirite
avaient-elles pu lui faire à ce point défaut ? Plus étonnant encore, comment
ces conceptions (nonobstant leur fusion, via Saint-Thomas, dans le giron de
la théologie, et donc leur tribune universitaire) ont-elles pu dominer sur la
scène scientifique pour une si longue période ? En tentant de répondre à ces
questions, l'auteur fait l'expérience d'une manière inédite de lire un corpus
scientifique. C'est en les replaçant dans leur contexte doctrinaire, plus
largement, au sein de ce que Foucault appellera leur épistémè, que ces
textes font sens. Les théories qui s'y rencontrent, les « erreurs d'Aristote »
acquièrent dès lors une véritable cohérence qui nécessite, pour être
découverte, d'épouser un autre point de vue. Le terme de « point de vue »
acquiert de fait un sens épistémologique. Fort de cette découverte, l'auteur
s’attèle à l'étude d'autres physiciens tels que Boyle et Newton, Lavoisier et
Dalton, Boltzmann et Planck ou enfin Copernic, auquel il consacre un essai.
La structure des révolutions scientifiques se présentera comme la synthèse
de ces années de réflexion.
- Notion de paradigme. Du grec ancien paradeïgma, « modèle », « exemple »,
issu du verbe paradeiknunaï, « montrer », « comparer ». Kuhn le recycle en
un sens différent de celui de Platon (cf. République, Timée) pour désigner
le cadre de pensée au sein duquel évolue une communauté scientifique. Le
paradigme se compose de l’ensemble des postulats, des croyances et des
points d’accord partagés par la science institutionnalisée. Son efficace
épistémologique est de nature prescriptive et normative autant que
187
descriptive. Le paradigme oriente l’attention des chercheurs en direction de
problèmes bien déterminés et définit les règles selon lesquelles ils doivent
être traités. C’est à son aune qu’est évaluée la pertinence des interrogations,
des méthodes et des solutions finalisées à la résolution de ces problèmes.
Cela en dépit du fait que le paradigme puisse fonctionner à l’exclusion de la
conscience qu’en ont les scientifiques.
- Science normale et science extraordinaire sont décrites comme les deux
régimes d’élaboration de la science :
(1) La première phase est la plus longue et voit les scientifiques tenter de
raffiner le paradigme dominant sans chercher à le remettre en cause. «
Normale » s’entend au sens de normatif et de majoritaire. En période de
science normale, un groupe de scientifiques établit une manière commune
de penser un ensemble de problèmes autour duquel se focalise leur
attention : un paradigme. Ce paradigme représente l'orientation commune
des pensées et de préoccupations du groupe ; un groupe qui se consacre
exclusivement à la résolution des énigmes posées par ce même paradigme.
La méthode du chercheur n’est donc plus inductive (ainsi chez les
positivistes), ni hypothético-déductive (comme le voulait Popper). Elle
consiste principalement à faire rentrer des phénomènes récalcitrants dans
des cadres établis. Posture conservatrice.
- Il arrive cependant que des énigmes particulièrement revêches résistent à
toutes les tentatives que déploient les chercheurs pour les dissoudre dans la
théorie. Elles prendront le statut d'anomalies. Partant, la découverte des
anomalies fait apparaître les défaillances du paradigme de la science
normale, en révèle les limites aussi bien théoriques que méthodique et
appelle son renversement. C'est là, dans cette situation critique, que Kuhn
fait résider l'origine des révolutions scientifiques. La mise à jour d’obstacle
externe conduit dès lors, avec le temps, à souligner l’insuffisance de ce
paradigme. S’installe une atmosphère de crise dénotative de l’imminence du
du basculement dans la science extraordinaire.
(2) La science extraordinaire est l’affaire d’un ou de plusieurs groupes
détachés de la communauté scientifique mainstream. Fractions en
dissidence qui tentent d’élaborer un paradigme plus satisfaisant en vue de
remplacer l’ancien ; un paradigme qui fera des anomalies jusqu’alors
rencontrées des cas particuliers d’une théorie embrassant davantage de
phénomènes. Aussi bien du point de vue scientifique que du point de vue
188
social, il s'agit d'une étape censément destructive et non cumulative.
L’histoire des sciences dépeintes par Kuhn se caractérise par cette
alternance de longues phases de science normale et de brèves phases de
science extraordinaire. Elle est scandée par des révolutions. La résorption
des crises s’opère à la faveur de l’adoption d’un nouveau paradigme et
signifie le retour à une phase scientifique normale.
- Crise scientifique. Issue du grec krisis, elle associe les notions de décision
et de jugement. Désigne en langage médical la phase paroxystique d’une
maladie, une mutation brutale ou une tension appelant une décision
urgente. Elle précède un changement d’état qui peut se traduire chez Kuhn
par une « révolution » – autre notion reprise du domaine de l’astronomie
pour être transposé à celui de la politique, puis de l’épistémologie. L’entrée
en crise du paradigme dominant peut être due à la révélation et à la
progressive accumulation des anomalies. Est qualifiée d’anomalie un
phénomène qui ne se laisse pas réduire cadre explicatif de la théorie
standard ; qui nécessite par conséquent d’autres outils pratiques et
théoriques. De tels outils sont fournis par un paradigme alternatif en germe,
issu des tentatives des scientifiques hétérodoxes (souvent de la jeune
génération) pour surmonter l’insolvabilité du paradigme faillitaire. Son
adoption signe la fin de la crise scientifique… et le début d’une autre.
- Cécité aux anomalies. L’auteur, en effet, a bien conscience, pour s'être
intéressé à la psychologie cognitive, et notamment à l’expérience de Bruner
et Postman, que l'on ne repère bien dans la réalité que ce que l'on s'attend à
y trouver. Un paradigme peut être un outil heuristique aussi bien qu'une
œillère. En s’appuyant sur des travaux de psychologie, Kuhn montre que les
hommes de science peuvent être victimes d’hallucinations négatives.
L’attente créée par l’adhésion au paradigme (la pro-tension) empêche de
voir les faits contradictoires. (Exemple des jeux de cartes.) Il y a, outre cette
résistance naturelle au changement, le fait qu’un paradigme et, à plus forte
raison, une théorie, ne saurait être abandonné ensuite de sa réfutation
(quoique le holisme épistémologique rende plus que problématique une
telle opération). Quand bien même elle serait en butte à des observations
contradictoires, elle sera conservée jusqu’à ce que lui soit désignée une
remplaçante, et que cette remplaçante ait récolté une majorité de suffrage
dans la communauté des sciences. Contra le réfutationnisme de Popper.
189
Exemple du modèle standard, de la physique quantique et de la physique
relativiste qui n’expliquent pas les singularités.
- Changement de paradigme. La subversion du paradigme dominant
s’analyse comme un processus social, en partie mimétique. L’explication de
ce processus requiert une sociologie d’un microcosme scientifique traversé
par des forces contraires, des doutes et des oppositions et des luttes de
pouvoir. D’une communauté en proie aux campagnes d’influence et de
dénigrement des uns, à l’exclusion des autres qui forment leurs propres
écoles au sein parfois d’une même discipline, chacune considérant le monde
au prisme de son paradigme de manière autistique ou conflictuelle. Les
incompréhensions mutuelles tiennent à l’incommensurabilité des
paradigmes qui structurent des langages et des mondes différents.
- Révolution scientifique. Elle s’opère lorsque la communauté scientifique
en butte à l’accumulation des anomalies, afin de surmonter la « crise », se
résout à abandonner le paradigme ancien pour adopter un paradigme
nouveau. Connotations astronomiques puis politiques. Le terme de «
révolution » est tout sauf anodin. Il laisse entendre, de par cette dernière
acception, qu'une crise déchire le milieu scientifique. Les spécialistes se
divisent entre deux groupes dont l'un tente coûte que coûte de préserver le
paradigme ancien ; et l'autre de le remplacer, insistant pour ce faire sur la
caducité de ce dernier.
- Résorption de la crise. La résorption de la crise advient lorsque l'un des
groupes en présence parvient à convertir les autres groupes à sa propre
vision. Cette conversion conduit la société des scientifiques à délaisser les
anciennes façons de poser les problèmes pour adopter une nouvelle
méthodologie et de nouveaux outils. Avec l'établissement d'un nouveau
paradigme sa voie d’institutionnalisation, s’engage alors la dernière phase de
la révolution scientifique. Le processus de science normale est relancé, avec
l'activité qui le caractérise : la résolution des énigmes que ne laisse pas de
faire apparaître le nouveau paradigme.
- Pertinence relative de l’interprétation kuhnienne concernant l’état de la
physique contemporaine. Il semble que la recherche fondamentale se soit
engagée depuis la seconde moitié du XXe siècle dans une période de crise
dont elle ne s’est toujours pas relevée. Régime que l'on peut à bon droit
qualifier être celui de la science extraordinaire. Or, la concurrence entre
deux théories, deux paradigmes – en l'occurrence la mécanique quantique
190
et la relativité générale – n'a pas abouti, comme tout lecteur de Kuhn s'y
serait attendu, à une révolution, à un changement de paradigme. Les deux
écoles coexistent l'une avec l'autre, deux lois statuant sur deux domaines ou
deux échelles distinctes comme la double physique d'Aristote opposait le
monde supra-lunaire et le monde sublunaire. En somme, cette situation
ressemble davantage à celle de la pré-science, où cohabitent une
multiplicité d'école parlant différent langages et vivant dans différents
mondes, qu'à celle de la science extraordinaire ou de la science normale.
Vint le modèle standard avec son lot d’énigmes, prétendant subsumer les
deux physiques. Entreprenant aussi de corriger les apories du modèle
standard, les théories les plus actuelles tentent une autre forme de
conciliation entre ces deux physiques – ainsi de la théorie quantique
relativiste des champs, de la théorie des cordes ou de la théorie quantique à
boucles. D'autres approches plus marginales foisonnent sans pouvoir être ni
infirmées, ni démontrées. Aucune ne se révèle capable de résoudre les
énigmes posées par les deux précédents paradigmes (physique quantique et
relativité générale). Si l'une ou l'autre venait à s'imposer, ce ne serait donc
pas sur des bases rigoureuses, rationnelles, théoriques, mais bien
effectivement en l'emportant l'adhésion des savants pour des raisons de
commodité.
- Changement de vision du monde, ou « Gestalt Switch », en référence aux
théories de la psychologie de la perception ou de la forme (Gestalt). Ce
basculement de perspective – analogue à celui décrit par Wittgenstein,
commentateur après Gombrich de l’image du « canard-lapin » de Joseph
Jastrow (voir vignette infra) ; analogue à celui que requiert, chez Herder, la
transition entre les langage-mondes – Kuhn en conçoit une première
formulation dans le courant Gestalt psychology, la théorie de la forme, sous
la plume de Franz Brentano. Il en décèle d'autres modalités dans le discours
structuraliste, dans la linguistique, dans la sociologie, dans la philosophie
(e.g. chez Nietzsche) ou dans l'épistémologie (e.g. chez Duhem et Koyré).
C'est donc principalement aux sciences humaines que Kuhn emprunte la
matière de sa thèse, celle-ci posant « l'incommensurabilité des paradigmes »
; thèse qu'il applique à la constitution des sciences de la nature.
- Analogie avec la figure du canard-lapin analysée par Wittgenstein
(Remarques sur la philosophie de la psychologie). Le sujet décrit soit un
canard, soit un lapin ; jamais les deux ensemble. Les représentations se
191
suivent ; elles apparaissent de manière alternative et non simultanée, bien
que l’ensemble des traits (assimilables aux data sensorielles) soient
demeurés les mêmes. De manière analogue, le paradigme est un point de
vue qui détermine un regard spécifique sur la nature. Aussi sa modification,
sans rien changer au monde, implique un changement de monde.
Illusion du canard-lapin (Kaninchen-Ente)
Publié dans le journal satirique Fliegende Blätter du 23/10/1892
- On constate en dernier ressort que les révolutions scientifiques et les
changements de paradigmes qui leur sont liés produisent à tout le moins
trois ordres de bouleversement. Transformation, en premier lieu, dans le
regard du scientifique. L'instauration d'un nouveau paradigme a également
des retombées sur la société des sciences, en cela qu'elle remet en question
l'expertise des tenants de l'ancien paradigme, les réseaux et méthodes
constitués par eux, et donc, si l'on suit jusqu'au bout le raisonnement de
Kuhn, leur légitimité. Aussi, les composantes sociologiques d'une révolution
scientifique ne sont pas moins cruciales que ses aspects strictement
scientifiques. C'est en effet seulement parce qu'un effectif suffisant de
spécialistes commence à croire à une hypothèse que celle-ci acquiert un
statut scientifique. La troisième conséquence de la thèse de Kuhn est
d'ordre épistémologique. La science ne se constitue pas par inductions, non
192
plus que par hypothèses et réfutations, mais principalement par
« convention ». Exeunt Hume, les Compte et le cercle de Vienne, Popper et
sa réfutabilité : loin d'être linéaire et rationnelle, la science acquiert
irrémédiablement et en dépit de Kuhn lui-même, un caractère relativiste.
- Cela suppose un acte de conversion de nature quasi-religieuse, ainsi
qu’une propagande intense et efficace de la part de la minorité tentant de
faire adopter son paradigme (sur la notion de « propagande », cf. notice
Feyerabend). Omniprésent chez Kuhn est le lexique de la religion,
transgression lourde de sens dans un domaine – l’épistémologie – qui trop
souvent se définit de manière négative et réactive comme l’antithèse (ou
l’antidote) à la croyance. Éloquente, à ce titre, cette remarque d’Étienne
Klein :
« La science est aujourd’hui installée. […] Nombreux sont ceux qui
pensent qu’elle ne tolère qu’un seul type de discours et ne propose
qu’une seule vision du monde. Ils n’imaginent pas qu’il puisse y avoir
en son sein des inflammations ou des divergences durables. […]
Devenue en même temps honorable et autoritaire, la science joue
aujourd’hui un rôle analogue à celui qu’ont tenu dans le passé la
théologie et la philosophie. […] Avancer qu’un fait a été
scientifiquement prouvé, n’est-ce pas en interdire la contestation ?
[…] Mais c’est loin d’être le cas. La science n’est pas donnée
d’emblée. […] Tout ne se laisse pas voir. […] Plutôt que de s’exhiber
dans la clarté de l’évidence, l’univers préfère dérober ses lois, ses
manières et ses rouages derrière de larges pans de ténèbres »
(Conversations avec le sphinx. Les paradoxes de la physique, 2014).
Pour peu que l’on s’attarde avec un tant soit peu de rigueur et d’honnêteté
sur l’histoire de la science, force est de constater qu’elle obéit à des schémas
sociologiques semblables, pour ne pas dire identiques à ceux de la religion.
Il n’est nullement besoin d’évoquer le scientisme du XIXe siècle ou un
certain transhumanisme actuel pour exciper l’analogie. Non plus que le
pouvoir spirituel que la science revendique ainsi que la cléricature de ses
prêtres, organisés en corps gardien de la doctrine. Contentons-nous de
remarquer comment du paradigme dominant va naître une hérésie, de la
même manière qu’un dogme dominant porte en lui-même sa déviation. À
cette différence près que les dogmes religieux ont une plus grande capacité
193
de coexistence et de résilience (ex : le catholicisme le protestantisme, le
sunnisme et le chiisme, le bouddhisme du grand et du petit véhicule, etc.).
- À l'appui de cette thèse, il est utile de remarquer que Kuhn envisage la
science non seulement comme un système de croyances parmi d'autres (les
paradigmes sont également un ensemble de valeurs et de croyances), mais
comme un système de croyances de nature religieuse, particulièrement
sectaire du reste, puisqu'il génère des « adeptes » inconditionnels, des «
résistances acharnées », des « conversions » spectaculaires. Le parallélisme se
transforme en identification. L'ensemble de ces attitudes ne sont pas
motivées par des convictions qui pourraient être, à la base, de nature
scientifique : Kuhn prétend au contraire que de telles adhésions peuvent
être complètement irrationnelles, fondées sur l'esthétisme ou l'élégance
d'une théorie. Il soutient, par exemple, que l'adoration du soleil aurait
contribué à faire de Kepler un adepte de Copernic. Bachelard ne dit pas
autre chose lorsqu'il constate la dilection des alchimistes et des Anciens
envers certains des éléments (le feu, l’eau, etc.). Aristarque de Samos, IIIe
siècle avant J.-C., défendait l’hypothèse héliocentrique ; mais « nul, sinon
l’écho, ne répondait à [s]a voix ».
- Souligne l’inscription sociale de l’activité, traversée de conflits et de
rivalités ; met en lumière l’hétérogénéité de ses motivations et sa part de
subjectivité. Ouvre une brèche dans laquelle s’engouffre Feyerabend. Et
l’auteur de conclure que la décision d'adhérer à un nouveau paradigme « ne
relève bien souvent que de la foi ». La science apparaît donc, dans le portrait
qu'en a brossé Kuhn, comme une forme de théologie particulièrement
rigide ; ce que l'auteur affirme explicitement à plusieurs reprises : « Cette
formation est étroite et rigide, plus sans doute que n'importe quelle autre, à
l'exception peut-être de la théologie orthodoxe » (La structure des
révolutions scientifiques).
- Outre la religion, Kuhn se saisit de l’image des idéologies en lutte pour
rendre compte de cette guerre de tranchées que se livrent les scientifiques.
En lieu et place des orthodoxes et des hérétiques, des fidèles et des
schismatiques, des croyants et des apostats peuvent être utilisés les
métaphores des conservateurs et des progressistes, des conformistes et des
dissidents, des traditionalistes et des modernistes.
- Le basculement d’un paradigme à l’autre ne procède pas de la réfutation de
celui-là, mais de l’avantage comparatif admis de celui-ci. Le progrès est
194
relatif. Aucune théorie n’est sans inconvénient, il n’y a pas de « bonne
solution » : que des mauvaises… mais certaines moins mauvaises que
d’autres. Exemple du passage, au début du XVIIe siècle, de la physique
aristotélicienne à la physique newtonienne, puis au XXe siècle, de la
physique newtonienne à la physique relativiste.
- Approche socialisante et psychologisante du changement ou de la
conservation des paradigmes. La science est le résultat de processus
complexes, entremêlant passion et rationalité. En période de science
extraordinaire, le choix entre les nouvelles théories concurrentes est
compliqué par des critères psychologiques. Les arguments rationnels seuls
ne suffisent plus à convaincre les groupes de scientifiques du bien-fondé
d'une théorie. D'une part, parce que l'attachement aux théories est tout
autant affectif que rationnel. Ensuite, parce qu'il existe une difficulté
inévitable à porter des jugements rationnels en dehors du cadre de la
science normale.
- Incommensurabilité des paradigmes. L'œuvre de Kuhn met en avant
l'impact des révolutions sur le groupe qui les subit, notamment en termes
de vision du monde et d'approche des problèmes. Il souligne alors
l'incompatibilité des paradigmes concurrents, leurs incommensurabilité, en
raison principalement des différences de langage et de schémas de pensée.
Un même concept peut renvoyer à de sens différents (exemple de l’atome),
et les propositions émises dans le cadre de chaque paradigme ont une
signification irréductible. Visions du monde hétérogènes, mondes
différents. Il n’y a pas, du reste, de position de surplomb qui permettrait de
mettre en balance l’hypothèse de l’un et de l’autre (on est toujours situé,
engagé par un paradigme ; même état de fait que dans la traduction : cf.
l’instabilité de la référence chez Quine). Aussi faut-il souvent compter avec
l’écueil de la rupture de communication entre les différents groupes de
scientifiques qui œuvrent avec leur propre paradigme en régime de science
extraordinaire, chacun usant de son proto-langage pour défendre sa théorie,
langage porteur d’une Weltanschauung différente et par définition,
incommensurable avec les autres.
- S’inspire des travaux de Norwood Hanson pour démontrer qu’un énoncé
d’observation n’est jamais d’observation pure, et n’a de sens qu’en rapport à
un cadre théorique particulier. Thème de l’équivalence des hypothèses et
du holisme de la signification.
195
- Kuhn relativiste ? L’exemple du canard-lapin, bistable et réversible,
prouve que l’on ne peut considérer ensemble et simultanément deux
conceptions du monde, deux visions d’un même fait. Il n’y a pas de position
de surplomb. Il n’y a pas de neutralité. Il n’y a pas d’objectivité. Pas de point
de vue de Sirius. Et c’est toujours d’après un paradigme que l’on juge d’un
autre paradigme – en le dénaturant. Car il n’est pas de commune mesure
entre les paradigmes qui présentent chacun leur réalité, leur monde à part
entière. Les paradigmes, tranche Kuhn, sont incommensurables (cf. Anouk
Barberousse, Max Kistler, Pascal Ludwig, La philosophie des sciences au
XXe siècle, 2000). Cet état de fait pose une réelle question sur le rapport
entre nos représentations (qui ne sont plus représentables) et la vérité (si
cette notion possède encore un sens), sur le rapport entre nos modèles
théoriques et la réalité qu'elle prétend exprimer, sur la manière dont
s’impose une théorie, indépendamment des faits – qui sont souvent des faits
construits d'après la théorie. Le problème nous ramène directement à des
considérations de nature constructiviste et relativiste. Est-ce à dire que la
science ne progresse pas ? Que toutes les opinions se valent ? Que ces
systèmes de signifiants que sont les paradigmes disposent d’une égale
légitimité ? Que les états de la science ne sont que des chartes adoptées par
les scientifiques, conventionnelles et réversibles à souhait ? La conception
discontinuiste et révolutionnaire plutôt que réformiste du devenir de la
science est-elle hostile à toute idée de continuité et d’évolution ? La métathéorie épistémologique de Kuhn semble prêter à une semblable accusation.
Mais il y a loin de la coupe aux lèvres.
- Relativisme à relativiser. Kuhn se défend corps et âme contre l'imputation
de relativisme à laquelle son épistémologie historique semble conduire
inévitablement. Les paradigmes se succèdent, et ils sont incommensurables.
Comment comprendre, dans ces conditions, la notion de progrès ? Le risque
est de schématiser jusqu’à défigurer une théorie de beaucoup plus complexe
que la critique de ses détracteurs (principalement : les réalistes et les
positivistes). Si l’on admet que les paradigmes ne peuvent être comparés
immédiatement entre eux, reste la possibilité de déterminer leur plus ou
moins grand intérêt à l’aune des critères de choix rationnel. Un paradigme
embrassant davantage de phénomènes, plus simple et plus fécond, a de plus
fortes chances d’être préféré. Relativise le relativisme épistémologique dont
on a accusé l’auteur. Le paradigme du paradigme ne récuse pas
196
nécessairement l’idée de progrès scientifique. Aussi le « temps » scientifique
envisagé par Kuhn se pense-t-il plus pertinemment sur le modèle de la
spirale croissante que sur celui de la boucle (ou de la ligne droite).
- Deux sortes de progrès. Il faut, selon l'auteur, insister sur le fait qu'il s'agit
là d'une nouvelle conception du terme. Il ne s'agit pas tant d'un progrès vers
la vérité ou vers la consolidation du paradigme, comme en période de
science normale, que d'un progrès des sciences en tant qu'elles
s’acheminent progressivement vers un nouveau paradigme, plus consistant,
plus vaste. C'est le progrès propre aux révolutions. Un progrès relatif, et non
dans l'absolu ; ni cumulatif, ni objectif comme on se le représente depuis
l'Antiquité.
- Il peut être opportun d'ajouter une remarque, à tout ce qui vient d'être dit.
Kuhn intitule ce chapitre « La révolution, facteur de progrès ». Nous avons
établis que la connotation politique de ce terme de « révolution » n'était pas
anodin. Un simple regard jeté sur l’actualité internationale récente nous
convaincra que les révolutions ne sont pas nécessairement garantes de
progrès. Une attention portée à notre histoire nous rappellera que les
révolutions ne préparent pas toujours des lendemains qui chantent. La
controverse entre Camus et Sartre est emblématique à cet égard. Il y a aussi
des « révolutions, facteur de régression ». Au nom de quoi en irait-il
différemment dans le domaine des sciences ?
- Science et non-sciences. Cette conception nouvelle du progrès scientifique
pose d’une autre manière la question du relativisme. En décrivant l'histoire
des sciences comme une succession de paradigmes incommensurables, elle
rend impossible, d'un point de vue scientifique, la partition entre science et
pseudoscience. Thomas Kuhn liquide ainsi les critères antérieurs fondés sur
l’induction, le déterminisme ou la réfutabilité. Deux scientifiques
promouvant deux paradigmes différents vivent simplement dans deux
mondes différents. Ce qui revient, à peu de choses, près à nier que la science
fut autre chose qu'un artifice social, une croyance plus ou moins arbitraire,
au même titre que le mythe ou la religion. C'est cette thèse, transparaissant
en filigrane dans La structure des révolutions scientifiques, qui permettra à
Feyerabend de déclarer dans Contre la méthode que « la science est
beaucoup plus proche du mythe qu’une philosophie scientifique n’est prête
à l’admettre ».
197
- On pourrait résumer en trois axes majeurs les changements apportés par la
lecture de Kuhn à l’épistémologie classique :
(1) Son principal apport serait d'avoir réintroduit, à l'instar de Bachelard,
Canguilhem et Koyré, la notion d'historicité dans le domaine des sciences.
Cela, alors même que l'on croyait la science, depuis Platon, être la
connaissance des fixes et des êtres éternels. Le développement des sciences
ne relève pas d'un simple processus de sédimentation ou d'accrétion des
connaissances, mais d'une « révolution » ; soit une transformation de
l'imaginaire scientifique, transformation du monde dans lequel évoluait ce
travail scientifique.
(2) Kuhn confronte également les sciences à la question du relativisme à
laquelle elles avaient échappée jusqu'ici. La science, auparavant, était jugée
« par-delà bien et mal » ; on la croyait sans fin(s), ou pour reprendre la
formule Heidegger – « la science ne pense pas » – sans intentions,
n’interrogeant ni ses prémices, ni ses conséquences.
(3) Kuhn substitue enfin à la réfutabilité, au critère Poppérien sur lequel
repose la démarcation entre science et métaphysique, un problème de
nature sociologique : est reconnu comme science ce qui parvient à se faire
accepter – parfois indépendamment des considérations rationnelles – par
une communauté.
- Portée auto-prédicative. L’œuvre de Kuhn introduit une rupture radicale
dans la manière de penser la dynamique du progrès (?) scientifique. Peut
être considéré comme un changement de paradigme en épistémologie.
Imre Lakatos (1922-1974)
Principales contributions :
- Preuves et Réfutations : Essai sur la logique de la découverte
mathématique (1976)
- Histoire et méthodologie des sciences (1978)
Concepts et idées-forces :
- Programme de recherche scientifique (PRS). Ensemble d’hypothèses
rectrices administrant la science à un moment donné. Opère une
conciliation-synthèse entre le réfutationnisme de Popper et la conception
198
paradigmatique de Kuhn. Est néanmoins soucieux, selon ses dires, de
contourner l’écueil relativiste.
- Tout PRS est composé d’un « noyau dur » et d’une « ceinture protectrice ».
Le noyau dur, cœur du programme, est constitué par des thèses inviolables.
La ceinture protectrice est en revanche agglomérée d’hypothèses auxiliaires
susceptibles d’être modifiées en cas de démenti expérimental, de sorte à
préserver intact le noyau dur.
- Est « progressif » un PRS donnant lieu à de nouvelles découvertes ; stérile,
il est dit régressif ou « dégénérescent ». Un programme dégénérescent, au
pied du mur ou acculé, se trahit par le recours aux hypothèses ad-hoc.
- Contre Popper (auquel il succédera en 1969 à la tête du département de
philosophie de la London School of Economics), Lakatos oppose qu’un PRS
peut être saturé d’anomalies sans être abandonné. Un PRS peut suivre son
chemin en rejetant par-devers lui les éléments contradictoires. La démarche
scientifique n’est pas d’abord réfutative. Le serait-elle, nous ne disposerions
plus d’aucune théorie.
- De fait, un programme régressif à une époque donnée peut devenir
progressif ultérieurement ensuite de son réaménagement ou de nouvelles
observations. On ne peut savoir a priori quel PRS s’avérera fécond avant de
l’avoir suffisamment sophistiqué (développement d’un formalisme ad hoc,
des instruments de mesure, des protocoles de recherche, etc.).
Jean-Baptiste Lamarck (1748-1836)
Principales contributions :
- Recherches sur l’organisation des corps vivants (1802)
- Philosophie zoologique (1809)
Concepts et idées-forces :
- Lamarck (Jean-Baptiste de Monet) prête à la « biologie » (terme introduit
par le géographe T.G.A Roose en 1797) son acception de « science des corps
vivants » : « Tout ce qui est généralement commun aux végétaux et aux
animaux, comme toutes les facultés qui sont propres à chacun de ces êtres
sans exception, doit constituer l'unique et vaste objet d'une science
particulière qui n'est pas encore fondée, qui n'a même pas de nom, et à
199
laquelle je donnerai le nom de biologie » ( Recherches sur l’organisation des
corps vivants).
- Théorie du transformisme. En partie inspirée par les philosophies de
l’histoire. Les organes se développent ou s’atrophient en vertu du principe
d’usage/non-usage.
Contra les théories fixistes, créationnistes
catastrophistes (Cuvier), en faveur à l’époque. Infléchissement qui suit le
passage entre les années 1790 et les années 1820 d’une conception dixhuitièmiste statique des sciences du vivant, à une vision plus dynamique de
ces dernières, triomphante au XIXe siècle.
- Philosophie zoologique paraît l’année de la naissance de Darwin (1809).
Darwin prend connaissance de ces thèses à travers une présentation critique
de Charles Lyell : Les principes de géologie.
- Deux mécanismes complémentaires à l’origine de ces transformations. Le
premier donne lieu à la complexification graduelle des formes du vivant, se
pourvoyant d’organes et de fonctions nouvelles aux attendus d’une
dynamique interne due à leur organisation. Articulé au précédent, le second
mécanisme donne lieu à la diversification des formes du vivant sous
l’aiguillon de facteurs contextuels, circonstanciels qui tiennent à des
impératifs vitaux. Il donne à voir la dimension adaptative de l’être vivant,
organisé autour du principe d’usage/non-usage, en tant qu’il se trouve
confronté à des défis environnementaux. Soit sa capacité à « se créer » un
corps viable, au sens « physique » du terme ; à « modifier ses normes » pour
composer avec les contraintes liées à son milieu de vie (cf. l’exemple
paradigmatique est souvent caricaturé du cou de la girafe).
- Micro-évolutions ; vs. le saltationnisme ou la macro-évolution d’Hugo de
Vries et de Thomas H. Morgan. Vs aussi la théorie des équilibres ponctués
de Niles Eldredge et de Stephen Jay Gould.
- Lamarck postule ainsi l’indexation des modifications des organismes sur
des pressions cumulatives induites par les individus eux-mêmes en fonction
de leurs besoins, de leur activité. Détrompé par Darwin pour qui la
nécessité naturelle recrute aveuglément les variations imprévisibles
adaptées à l’environnement, du fait de l’avantage comparatif que ces
variations prêtent aux individus, devenant davantage susceptibles de se
reproduire. Le transformisme de Lamarck méconnaît en effet les
mécanismes de la sélection naturelle. Le darwinisme, contrairement au
lamarckisme, n’engage aucune manière de finalisme dans l’occurrence des
200
variations : celle-ci ont lieu, puis se révèlent ou non viables en fonction du
milieu au sein duquel les organismes ont vocation à composer. Les
mutations selon Darwin ne sont pas dirigées dans leur procès d’apparition ;
elles procèdent d’une « loterie » sanctionnée a posteriori. L’évolution selon
Darwin n’est pas, au reste, soumise à une nécessité pratique et théorique de
complexification.
- Acquisition de caractéristiques physionomiques par suite transmises à la
génération suivante, qui à son tour perfectionnera ou se déprendra
progressivement de ces caractères en fonction des pressions de survie. Thèse
de l’hérédité des caractères acquis. Quoique Lamarck lui-même n'ait jamais
employé cette expression. Si la notion est sous-jacente, s’inscrivant en aval
d’une réflexion dont les prémices remontent à Aristote, elle ne sera
thématisée qu'après sa mort pour lui être attribuée de manière apocryphe.
Thèse qui semblait disqualifiée depuis la publication des études du
biologiste allemand August Weismann en 1883 constatant la séparation des
cellules germinales et somatiques. Elle est toutefois en passe d’être en partie
réactivée en ce qui concerne les phénomènes liés à l’épigénétique. Quoiqu’il
en soit du génome en lui-même, les déterminants de son expression au sein
des cellules somatiques ne peuvent être dissociés du patrimoine transmis
par les gamètes.
- Soutient la génération spontanée des premiers organismes vivants
microscopiques. Thèse réfutée par Pasteur (bien qu’ayant falsifié ses
résultats). Réfutation qui laisse néanmoins entière la question de savoir
comment le vivant a pu émerger à partir de l’inerte, de la chimie du
carbone.
- Le temps nécessaire aux modifications et à la formation de nouvelles
structures organiques transmises s’étale sur des durées qui battent en brèche
la chronologie biblique fixée par l’archevêque irlandais Usher. La création
remonte pour ce dernier à 6000 ans ; Lamarck repousse son origine à 900
millions d’années.
- Le lamarckisme, dans la deuxième moitié du XIXe siècle, n’est qu’un
courant de l’évolutionnisme, à côté du mutationnisme, de l’orthogenèse, du
darwinisme et du néodarwinisme. Mais c’est le principal et c’est à lui, et
non au darwinisme qu’est alors associé spontanément le vocable de «
théorie de l’évolution ».
201
 Point sur l’épigénétique
L’intérêt scientifique de la génétique n’est plus à démontrer. Mais le toutgénétique prônée par une certaine vulgate ne rend que mal justice à la
complexité des phénomènes biologiques. Nous entendons ici traiter de
l’épigénétique comme étant l’un de ses incontournables compléments.
Les limites de la génétique
Laissons au philosophe, généticien et épistémologue Jean-Jacques Kupiec le
soin de préciser dans quel contexte et à quelle carence théorique répond
historiquement l’apparition de ce domaine de recherche :
« Depuis l'Antiquité, les théories biologiques cherchent à
appréhender l'espèce et l'individu. Mais on a généralement considéré
leurs genèses respectives comme des phénomènes distincts. De ce
fait, l'évolution des espèces et le développement des organismes sont
expliqués par deux théories différentes, la sélection naturelle et le
programme génétique. Cette séparation pose un problème récurrent.
Dans la réalité, les deux processus sont imbriqués l'un dans l'autre
[…] Au XXème siècle, cette union a été réalisée par ce qu'on a appelé
la synthèse évolutive. On considère que l'évolution des espèces
provient de la transformation par mutation des programmes
génétiques codés par l'ADN. Si cette théorie permet logiquement de
rattacher les deux processus l'un à l'autre, son coût est élevé. Elle
induit de nouveaux problèmes liés au déterminisme génétique très
fort auquel elle aboutit, et où l'ADN devient omnipotent : par ses
mutations il gouverne l'évolution et par l'information génétique qu'il
contient il dirige la genèse des organismes. Depuis le séquençage des
génomes, on a la confirmation qu'une telle conception est
difficilement tenable. D'une part, il y a beaucoup moins de
différences entre les génomes des organismes, y compris ceux qui
sont physiologiquement éloignés, que ce qui était prédit. Il est donc
difficile d'expliquer l'évolution par l'addition des mutations
ponctuelles de l'ADN. D'autre part, la lecture de ces génomes n'a pas
permis de déchiffrer les fameux programmes génétiques qui
202
contrôleraient le développement embryonnaire. Il y a beaucoup
moins de gènes que ce qui semble nécessaire pour expliquer
l'ensemble des fonctions réalisées par un organisme. A cause de ces
limites du déterminisme génétique, on assiste maintenant à un
véritable changement de paradigme, avec l'émergence de la biologie
des systèmes. Au lieu d'être centrée sur l'ADN, la compréhension des
organismes passe par leur appréhension en tant que systèmes. Dans
ce nouveau cadre, on cherche à équilibrer les influences provenant
des différents niveaux que sont l'ADN, les réseaux de protéines, les
tissus cellulaires, l'organisme et l'environnement. » (J.-J. Kupiec,
L'origine des Individus, 2008).
L’épigénétique constitue l’une des approches synthétiques possibles de la
biologie, équilibrant les influences d’autres facteurs que strictement
génétique. L’exploration de ce continent récemment émergé contribue à ce
titre, autant que la mise en valeur des propriétés émergentes, à remettre en
question un nouveau type de réductionnisme physicaliste caricatural qui
tendait à réduire le phénotype au génotype (J.-P. Changeux (dir.), Gènes et
culture, 2003). Il montre que l’individu physiologique n’est pas que
l’expression d’un programme immuable, fixe et déterminé, la traduction
d’un ADN. Certains facteurs environnementaux ou comportementaux
(conditions de vie, régime alimentaire, psychologie, etc.) peuvent concourir
à la régulation de l’expression du génome, ceci en contrôlant l’activation ou
bien l’inhibition de certains gènes. Il s’agit proprement d’un autre code,
occulte, qui avait échappé à l’attention des biologistes depuis un demi-siècle
bien tassé ; depuis que James Watson, alors âgé de 25 ans et Francis Crick,
physiciens de formation, ont mis à jour la structure hélicoïdale de l’ADN.
Cette découverte d’un « second code » ou « méta-code » superposé au
premier fournit une réponse partielle à la question posée dès le début du
XXème siècle par l’embryologiste américain Thomas Hunt Morgan (18661945) sur la raison des divergences qui se constatent entre les différentes
cellules chez un individu ; à savoir sur leur différenciation en cellules
spécialisées, à quoi s’ajoute la singularité de chaque cellule au regard de
chacune de ses consœurs : « Si les caractères de l'individu sont déterminés
par les gènes, pourquoi toutes les cellules d'un organisme ne sont-elles pas
203
identiques ? » (T.H. Morgan, The Theory of the Gene, 1926). La même
réponse – celle de l’épigénome – pourrait être donnée à la question de
savoir pourquoi deux spécimens partageant un même patrimoine génétique
(à l’exclusion de quelques rares mutations somatiques), expriment
différemment ce patrimoine : comment se fait-il que deux vrais jumeaux
(monozygotes) ne soient pas en tout point similaires ? Comment se fait-il
qu’il ne se rencontre pas au monde deux êtres qui partagent rigoureusement
les mêmes propriétés physiques, physiologiques et même psychologiques ?
Comment rendre raison de l’apparition de certains cancers lorsque les
variations de la séquence d’ADN elles seules n’y suffisent pas ?
La syntaxe épigénétique
Réponse qui fait appel à d’autres mécanismes relevant de l’épigénétique, et
donc à une lecture différentielle du code en fonction du milieu où ce code
est traduit. Réponse qui tient à la perturbation occasionnée par des facteurs
environnementaux, affectant non pas le génome lui-même, mais
l’expression de ce génome à la faveur d’épimutations, bien plus fréquentes,
au reste, que les mutations classiques de l’ADN. Il apparaît, pour le dire
brièvement, qu’une même cellule totipotente n’évolue pas de la même
manière selon qu’elle subit telle ou telle pression et communique de telle ou
telle manière à tel endroit de l’organisme : elle sélectionne certaines parties
de son programme à activer, et certaines autres à laisser en latence. Au
niveau supérieur, nos habitudes de vie (régime alimentaire, états de stress,
mémoire du corps) influent sur la manière dont est interprété le texte
génétique inscrit dans nos cellules.
La conclusion est formulée par Thomas Jenuwein, directeur de recherche
au Max Planck Institute of Immunobiology and Epigenetics (MPI-IE) de
Freiburg : « On peut sans doute comparer la distinction entre la génétique et
l’épigénétique à la différence entre l’écriture d’un livre et sa lecture. Une
fois que le livre est écrit, le texte (les gènes ou l’information stockée sous
forme d’ADN) sera le même dans tous les exemplaires distribués au public.
Cependant, chaque lecteur d’un livre donné aura une interprétation
légèrement différente de l’histoire, qui suscitera en lui des émotions et des
projections personnelles au fil des chapitres. D’une manière très
204
comparable, l’épigénétique permettrait plusieurs lectures d’une matrice fixe
(le livre ou le code génétique), donnant lieu à diverses interprétations, selon
les conditions dans lesquelles on interroge cette matrice. ». Pour conserver
le registre de la métaphore, si le génome était le texte, l’épigénome en
serait, en quelque sorte, la ponctuation. Celle-ci jalonne le texte de points et
de virgules qui, en dernier ressort, bouleversent l’interprétation du texte.
Le transformisme réhabilité ?
Des épimutations surviennent ainsi au gré de l’existence des individus qui
donc peuvent être définies comme des altérations du patron d'expression
des gènes qui laissent intacte la séquence nucléotidique. Et – chose
inattendue, iconoclaste depuis qu’August Weismann avait posé la séparation
des lignées germinales et somatiques – transmissibles non seulement à
d’autres cellules issues des premières au cours de la mitose, mais aussi à ses
descendantes (les cellules filles), c’est-à-dire héritables sur plusieurs
générations à la faveur de la méiose, quoique leur cause environnementale
puisse avoir disparu. La syntaxe épigénétique fonctionne effectivement à la
manière d’un second plan de directives qui, loin de n’affecter que les
individus, se transmet également à leur postérité – chose décrétée
irrecevable il y a encore quelques années. Ce que l’on nomme aujourd’hui
l’« héritabilité des caractères complexes » semble par là remettre au goût du
jour la métaphore tant brocardée de la girafe extensible. L’épigénome fait
fonctionner de pair sélection naturelle et pressions de sélection induites. La
biologie contemporaine semble en ce sens marquer un retour à Lamarck, au
transformisme tant combattu, en réhabilitant ce que la théorie de la
sélection naturelle avait rendu caduc : la transmission des caractères acquis.
Au patrimoine génétique dont héritent les individus doit donc être ajoutée
une programmation parallèle de sa mise en œuvre au gré de processus sous
l’influence d’une pluralité de facteurs environnementaux. Une influence
qui rend inopérante toute tentative méthodologique pour réduire un
organisme à l’expression de son génome. C’est en effet une tout autre strate
de déterminations que nous découvre ainsi l’épigénome, nous obligeant à
reconsidérer de fond en comble le caractère exclusivement « aléatoire » des
mutations. La stabilité dynamique de l’épigénome renvoie à celle des formes
205
adoptées par la vie pour remplir ses fonctions : chacune est singulière, et
doit être appréciée de manière individuelle. Les objections soulevées par
Canguilhem contre le réductionnisme de son époque conservent ainsi en ce
début de XXIème siècle leur entière pertinence. La vie est bien en tout ceci,
une fois encore, ce qui introduit de la différence dans son milieu. Ce qui
converse avec cet environnement pour adapter ses normes – ici
positivement ou non – et affirmer dans sa plasticité son caractère
irréductible à ses seules composantes internes.
Pierre-Simon Laplace (1749-1827)
Principales contributions :
- Théorie analytique des probabilités (1812)
- Traité de Mécanique céleste (1799-1825)
- Essai philosophique sur les probabilités (1840)
Concepts et idées-forces :
- Le principe du déterminisme causal, fondement du mécanisme : « Nous
devons donc envisager l’état présent de l’univers comme l’effet de son état
antérieur et comme la cause de celui qui va suivre » ( Essai philosophique sur
les probabilités, Introduction). De ce qui est, il est théoriquement possible
d’inférer ce qui sera et ce qui a été. Suppose que les lois scientifiques sont
invariantes et dans l’espace, et dans le temps (d’où la notion de « constante
»).
- Déterminisme causal = transposition possible en mécanique de la Destinée
tragique et de la Fatalité des stoïciens, ou Fatum stoïcum (cf. Pascal Nouvel,
Philosophie des sciences). Ce même déterminisme est érigé par Claude
Bernard en principe méthodologique, hypothèse de travail nécessaire à la
science expérimentale.
- Le « démon de Laplace ». De manière analogue au « démon de Maxwell ».
Un être qui aurait l’intelligence parfaite de la position et du mouvement de
chaque élément de l’univers à un instant donné (en dépit des relations
d’incertitude d’Heisenberg) serait en théorie capable de prédire par calcul
n’importe lequel de ses états futurs : « Une intelligence qui, à un instant
donné, connaîtrait toutes les forces dont la nature est animée, la position
206
respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour
soumettre ces données à l’analyse, embrasserait dans la même formule les
mouvements des plus grands corps de l’univers, et ceux du plus léger atome.
Rien ne serait incertain pour elle, et l’avenir comme le passé seraient
présents à ses yeux » (Essai philosophiques sur les probabilités).
- Fiabilité de la prévision dans des domaines complexes disqualifiée dans la
pratique (mais non pas dans la théorie) par le principe de sensibilité
extrême aux conditions initiales (Poincaré), popularisé sous le nom de scène
de « théorie du chaos » (cf. le papillon de Lorenz).
- Formalisation, dans son Essai philosophique sur les probabilités, de la
logique inductive probabiliste aujourd’hui désignée comme étant celle de
Thomas Bayes. De ce dernier, il redécouvre en 1774 le théorème publié de
manière posthume onze ans auparavant.
- Le principe de Laplace. Ainsi nommé, il se rapporte au principe selon
lequel « Le poids des preuves doit être proportionné à l’étrangeté des faits »,
formule énoncée par le médecin et psychologue Théodore Flournoy ( Des
Indes à la planète Mars, 1899) en référence à un passage de l’Essai
philosophique sur les probabilités : « Nous sommes si éloignés de connaître
tous les agens [sic] de la nature, et leurs divers modes d’action ; qu’il ne
serait pas philosophique de nier les phénomènes, uniquement parce qu’ils
sont inexplicables dans l’état actuel de nos connaissances. Seulement, nous
devons les examiner avec une attention d’autant plus scrupuleuse, qu’il
paraît plus difficile de les admettre ; et c’est ici que le calcul des probabilités
devient indispensable, pour déterminer jusqu’à quel point il faut multiplier
les observations ou les expériences, afin d’obtenir en faveur des agens [sic]
qu’elles indiquent, une probabilité supérieure aux raisons que l’on peut
avoir d’ailleurs, de ne pas les admettre ».
- Les mathématiques comme organon, ou instrument de résolution de
problèmes pratiques (contra le réalisme mathématique ou le pythagorisme
latent chez nombre de mathématiciens). Opportunisme méthodologique.
Qu’importe l’élégance ; tous les moyens sont bons, pourvu qu’ils conduisent
à destination.
- Développement de la mécanique céleste et de l’astronomie mathématique.
Laplace anticipe théoriquement le concept de trou noir qui attendra le
télescope Hubble pour être détecté (ou tout au moins, ses effets
gravitationnels).
207
Bruno Latour (1947-20XX)
Principales contributions :
- La vie de laboratoire. La production des faits scientifiques (avec Steve
Woolgar) (1979)
- La Science en action (1987)
- La Science telle qu'elle se fait (avec Michel Callon) (1991)
- Nous n'avons jamais été modernes (1991)
- Politiques de la nature. Comment faire entrer les sciences en démocratie
(1999)
- Changer de société, refaire de la sociologie (2007)
Concepts et idées-forces :
- Anthropologie des sciences. Mouvement original se rattachant sans s’y
confondre à la sociologie des sciences, elle-même construite en réaction
contre la philosophie des sciences, idéaliste, inapte, aux dires de ses
contradicteurs, à rendre compte de la réalité de l’activité scientifique, et
enfin contre l’histoire des sciences, impuissante à identifier une logique au
développement scientifique et à penser au-delà de la collecte brute des faits.
- Approche commune aux travaux de Steeve Wolgar, Karin Knorr-Cineta et
Michael Lynch. Inspirée de l’ethnométhodologie. Ethnographie de la vie
quotidienne en immersion au sein de l’environnement naturel des
scientifiques : le laboratoire. Faits et gestes, discussions, prises de notes,
manipulations expérimentales sont analysées non en fonction de ce que les
scientifiques disent faire, mais à l’aune de ce qu’ils font. Constate l’écart
entre le discours et la pratique, les paroles et les actes. L’objectivité du
socio-ethnologue tient ici à sa docte ignorance, savamment entretenue, et à
son aptitude à ne pas s’en laisser conter. Importent moins les théories et les
faits scientifiques que les procédures ayant permis de les obtenir.
- La question essentielle est de savoir comment un énoncé produit dans un
contexte expérimental et théorique particulier s’élève au statut de vérité
scientifique universelle et détachée de tout contexte, unanimement saluée
par la communauté. Pour y répondre, un outil d’analyse taillée sur mesure :
la sociologie de l’acteur-réseau.
- La sociologie de l’acteur-réseau (SAR) ; en anglais Actor-Network Theory
(ANT), dite également « sociologie de la traduction ». Une approche
développée en France avec Michel Callon et Madeleine Akrich. Tient
208
compte de l’ensemble des « actants » humains et non humains, à la
différence des théories sociologiques classiques. Veut abolir l’illusoire
distinction entre les catégories de nature et de société, de science et de
politique, d’approche micro- (fondée sur les interactions au quotidien) et
macro- (s’intéressant aux institutions). Notion de « démocratie technique ».
- Rejet des positions exclusivement externalistes, rationalistes, naturalistes
ou sociologisantes. Ce n’est ni le social seul, ni la nature en soi qui
détermine la science. La nature même est un concept dérivé, tributaire d’un
regard historiquement situé. Implique déjà une détermination par le regard.
De même, prise de distance au regard du postmodernisme et de la
philosophie de la déconstruction qui pose le fait scientifique comme le
produit d’un jeu de langage ou d’un effet de sens.
- Principe de symétrie. Une égale importance accordée à l’analyse de
l’ensemble des actants et des facteurs (organisationnels, cognitifs, discursifs,
etc.) entrant dans la composition des collectifs. Étude des controverses
scientifiques indifférentes aux réussites et aux échecs des théories,
conformément au principe de symétrie (= d’impartialité) posée par Barry
Barnes et David Bloor (1976). Obligation pour l’épistémologue à ne pas
tenir pour obsolète ou pour absurde une hypothèse temporairement horscourse.
- Approche relationnelle, réticulaire. Démarche fondatrice de la sociologie
des organisations. Le monde scientifique (en fait, le monde dans son
ensemble) se compose moins de collections de groupes épars que d’un
réseau, un collectif constitué par l’ensemble des relations et médiations qui
font tenir ensemble des associations. Un fait ne tient jamais tout seul.
- Concept de traduction. Transposition d’une notion introduite en
sémiotique par A.J. Greimas, revisitée par les travaux de Michel Serres.
Opération par laquelle des acteurs individuels ou collectifs s’érigent en
porte-parole de la cause de leur groupe (ils en « traduisent » les volontés) et
tentent de convertir d’autres acteurs. La mise en relation de ses acteurs est
tributaire d’une transformation des propositions et des positions
scientifiques qui a pour fonction d’en déployer les éléments et les enjeux
dans une sphère d’activité hétérogène. Le sens d’un énoncé scientifique est
également stabilisé ensuite d’une série de traductions (matériau de
laboratoire, subventions, dispositifs, articles dans des revues à comité de
209
lecture) qui le rend disponible et le fait circuler, via une adaptation de
connaissances toujours sujettes à controverse.
- Importance de la controverse. C’est à son feu que s’élaborent les faits. Son
analyse est celle du processus de construction et de stabilisation des énoncés
scientifiques. Ce n’est pas l’observation qui stabilise le fait, mais bien plutôt
le consensus qui s’ordonne autour de lui.
- Le réseau. Hétérogène par nature, commis insiste le sociologue John Law.
Association d’actants humains et non-humains liés les uns aux autres par
des médiations, formant ensemble une « méta-organisation » incluant
sphères d’activité, d’institution et d’organisation. Étudier un acte d’achat
implique de s’intéresser au producteur autant qu’au consommateur et au
vendeur, à l’espace de vente, à la caisse enregistreuse, à la monnaie, au
marketing, aux habitus, etc.
- Les acteurs-réseau. Les actants ou acteurs-réseau sont, pour la SAR, les
véritables éléments constitutifs de la science, qui permettent de penser
l’articulation entre la recherche scientifique, les applications techniques et
les besoins publics. Sont acteurs de la science : les scientifiques, les cobayes,
les atomes, les réactions chimiques, les microscopes, les accélérateurs de
particules, les équations mathématiques, les instituts, les journalistes. Tout
acteur est un réseau ; tout réseau est un acteur. Ils peuvent être locaux,
globaux, de faible ou de vaste envergure, croître et s’étendre ou perdre de
leur influence. C’est leur interaction qui tisse le phénomène social. Toute
action effectuée par un actant engendre des effets en retour sur le réseau
entier, jusqu’à provoquer son effondrement s’il en est un élément clé. Ainsi
de la disparition du téléphone, de l’institution présidentielle de la banque
centrale.
- Implique que la science se constitue autant à l’intérieur qu’à l’extérieur du
laboratoire : à l’occasion de séminaires, de colloques, de négociations avec
les financiers et les pouvoirs publics, avec les populations locales
éventuellement impactées, avec les fournisseurs, les sociétés chargées de la
maintenance, les sponsors éventuels, etc.
- La méthode en dix étapes pour étudier, traduire et tenter d’influer sur un
réseau décline 1) l’analyse du contexte, 2) la thématisation du traducteur, 3)
le point de passage obligé (PPO) et la convergence, 4) les porte-paroles, 5)
les investissements de forme, 6) les intermédiaires, 7) l’enrôlement et la
210
mobilisation, 8) les opérations de rallongement et d’irréversibilité, 9) la
vigilance, la transparence et 10) la ponctualisation.
- Processus de stabilisation des énoncés. Les scientifiques considérés comme
des « investisseur en crédibilité » en perpétuel recherche d’alliés au sein de
réseaux socio-techniques. La science conçue comme un rapport de force.
- Extension de la SAR au champ du Droit (La fabrique du droit. Une
ethnographie du conseil d’État, 2004). Généralisation aux sciences, aux
religions et à l’ensemble des domaines de la production sociale des vérités («
Coming out as a philosopher », dans Social studies of science, 2010).
- Réflexivité. De même que l’épistémologie de Kuhn peut être vue comme
un paradigme révolutionnaire, la SAR peut être aussi considérée comme un
acteur-réseau qui ne cesse de prendre de l’ampleur. Contribue à
l’émergence des « science studies ».
Gottfried W. Leibniz (1646-1716)
Principales contributions :
- Discours de métaphysique (1685)
- Nouveaux Essais sur l'entendement humain (1705)
- Monadologie (1714)
Concepts et idées-forces :
- Une œuvre polymathe, totalisante. Relativise la pertinence de la
prétention à séparer les enjeux scientifiques des choix philosophiques,
théologiques, métaphysiques opérés par les hommes de science. On en
dirait autant de Galilée, de Descartes, de Pascal ou de Newton.
- L’une des dernières figures du savant universaliste. Elle s’estompe au XIXe
siècle pour céder place au scientifique universitaire et au chercheur
spécialisé, à l’enseignant-chercheur lié au statut de fonctionnaire. Au XXe
siècle émerge la figure du chercheur entrepreneur ou du chercheur
industriel. D’où l’exigence – déjà mise en lumière par Marx – de tenir
compte des conditions matérielles de production de la science.
- Relativement à l’interprétation de la relation âme-corps, oppose la
conception paralléliste ou concomitante de l’harmonie préétablie à
l’interactionnisme du grand Arnaud, impulsée par Descartes, ainsi qu’à
l’occasionnalisme de Malebranche.
211
- Principe de raison suffisante. « Nihil est sine ratione. » Dieu même n’agit
pas sans raison, quoiqu’en ait dit Descartes et quoi qu’en dise Arnaud.
Caprice, c’est fini.
- Principe d'identité des indiscernables.
- Physique du continu : « natura non fecit saltus », « la nature ne fait pas de
sauts ».
- Définition de la vérité comme compréhension du prédicat dans le sujet :
« Praedicatum inest subjecto ». Concerne également les notions complètes :
il est dans la substance d’Adam de goûter au fruit de l’arbre de la
connaissance. Néanmoins, compatibilisme. Les raisons inclinent sans
déterminer.
- Nécessité absolue vs. nécessité ex hypothesi.
- Les deux labyrinthes : le problème du mal et le problème de la liberté.
- Caractéristique universelle. Entreprise de réduction de l’ensemble de la
pensée humaine à une algèbre générale : « Penser, c’est calculer », écrivait
Hobbes. Pose les fondements du calcul binaire. Projet repris avec le
formalisme du positivisme logique, puis par George Boole à l’origine du «
calcul symbolique ».
- Distinction entre force motrice ou « force vive » (vis viva) et quantité de
mouvement que ne faisait pas Descartes. La première seule est préservée à
l’occasion du choc entre deux corps, sans quoi le mouvement perpétuel
(surunitaire) serait possible, et il y aurait alors davantage de réalité dans
l’effet qu’il n’y en a dans la cause : « Il y a longtemps déjà que j’ai corrigé la
doctrine de la conservation de la quantité de mouvement, et que j’ai posé à
sa place quelque chose d’absolu, justement la chose qu’il faut, la force (vive)
absolue… On peut prouver, par raison et par expérience, que c’est la force
vive qui se conserve » (Specimen dynamicum).
- Géométrisation de la cinématique (de pair avec Pierre Varignon).
- Calcul différentiel (codécouvert avec Newton) ; d’où une querelle de
paternité doublée par la rivalité entre la France et l’Angleterre.
James Lovelock (1919-20XX)
Principales contributions :
- Les Âges de Gaïa (1990)
- La Terre est un être vivant. L’hypothèse Gaïa (1999)
212
- La Revanche de Gaïa (2006)
Concepts et idées-forces :
- L'hypothèse Gaïa. Nom de scène de l’hypothèse biogéochimique élaborée
avec Lynn Margulis. Anticipée par nombre de scientifiques et d’esprit
religieux avant sa thématisation en 1972 par James Lovelock, elle propose
de considérer la Terre comme « un système physiologique dynamique qui
inclut la biosphère et maintient notre planète depuis plus de trois milliards
d'années, en harmonie avec la vie » (La Revanche de Gaïa, 2006).
Autorégulation ou homéostasie d’un superorganisme jouant sur différentes
variables (telles la composition de l’atmosphère, elle-même régie par,
notamment, les bactéries) finalisée selon Lovelock au développement et au
maintien de la vie. Cette hypothèse accueillie avec méfiance et scepticisme
de la part des scientifiques qui lui reprochent (peut-être à juste titre) une
accointance avec le paganisme New-Age.
- Un anthropomorphisme controversé. De nombreuses résistances à son
hypothèse, notamment dues à sa teneur « spiritualiste » ou « animiste »,
propice aux dérives de tous ordres. « Gaïa » refait ainsi surface depuis les
essarts oubliés de l’Antiquité grecque, où l’avait reléguée l’attitude
cartésienne de démystification de la nature, renouant avec la désanimation
à l’œuvre dans la Genèse. Elle porte à une « foi » renouvelée et à un
renouveau du sentiment mystique et archaïque de la Terre-Mère, mettant
en porte-à-faux un autre dogme issu de la culture judéo-chrétienne, le
matérialisme, porté à incandescence par l’humanisme selon lequel « la Terre
est destinée à être exploitée pour le bien de l'humanité » (« A
geophysiologist thoughts on geoingineering », dans Philosophical
Transactions of Royal Society, 2008).
- Lovelock se défend toutefois de prendre au pied de la lettre l’idée d’une
Terre animée ; « Gaïa » n’est pas un article de foi, mais une métaphore à
valeur heuristique : « Car les métaphores sont plus que jamais nécessaires
pour faire comprendre au plus grand nombre la véritable nature de la Terre
et les périls mortels qui se profilent à l'horizon » (ibidem). C’est en effet «
seulement en considérant notre planète comme une entité vivante que nous
pouvons comprendre (peut-être pour la première fois) pourquoi
l'agriculture a un effet abrasif sur le tissu vivant de son épiderme et
pourquoi la pollution l'empoisonne tout autant que nous » (La Revanche de
213
Gaïa, 1999). Une entité vivante = un système autorégulé ; Lovelock n’en dit
pas plus. Libre à chacun d’en tirer pour lui-même les conclusions qu’il juge
appropriées.
- Autre critique développée en particulier par James Kirchner, celle qui
dénonce la faiblesse épistémologique de l’hypothèse Gaïa. Les postulats de
ce modèle ne sont pas réfutables ; ils ne sont donc pas scientifiques au sens
défini par Popper. Mais il n’est pas certain que l’épistémologie de Popper
soit applicable au domaine de la biologie auquel Lovelock essaie de
raccrocher ses thèses.
- Un modèle descriptif mais aussi prescripteur. À la jonction entre
philosophie, religion, politique, économie, écologie (d’où la revendication
d’interdisciplinarité). Contre le mythe du développement durable, le
discours associé au modèle biogéochimique préconise la régulation (voire la
diminution, jusqu’à disparition) de la population en une manière de retour à
un malthusianisme déguisé, et – contre les écologistes traditionnels –
promeut la génération du nucléaire censément moins polluant que les
énergies carbones, et moins consommateur en matières premières (coût de
fabrication) que les énergies renouvelables. Le soupçon de misanthropie
porte également, s’inscrivant dans la tradition de l’écologie profonde (deep
ecology) qui prend le contre-pied de l’humanisme. Il semblerait que
l’humanisation de la Terre ait pour contrepartie la réification ou la
dévalorisation de l’homme, conçu comme une variable d’ajustement.
L’homme est une maladie de la Terre ; il faut guérir la Terre.
Stéphane Lupasco (1900-1988)
Principales contributions :
- La physique macroscopique et sa portée philosophique (1935)
- L'expérience microphysique et la pensée humaine (1940)
- Logique et contradiction (1947)
- Le principe d'antagonisme et la logique de l'énergie (1951)
- Les trois matières (1960)
- Science et art abstrait (1963)
214
Concepts et idées-forces :
- Hégémonie de la logique, dont relèvent aussi bien les raisonnements de
l’esprit (propositions logiques) que les phénomènes de la nature dans son
ensemble (objets, éléments, événements), dans une optique proche de celle
de Hegel. Est du domaine de la logique tout ce qui relève du dynamisme : «
Nous appelons logique tout ce qui porte les caractères de l'affirmation et de
la négation, de l'identité et de la non-identité ou diversité, qui engendre,
par leur coexistence ou conjonction ou par leur indépendance ou
disjonction, une notion de contradiction ou une notion de noncontradiction et qui, sans autre secours que le sien propre, déclenche des
enchaînements déductifs. Un fait donc, quel qu'il soit, expérimental ou
mental, sensible ou intellectuel, est considéré comme logique dans la
mesure où il est marqué par ces caractères, conditionné par ces notions et
engendré par ces implications, indépendamment de savoir si cette marque,
ce conditionnement et cette déduction relèvent de l'esprit connaissant ou
de quelque autre réalité – cela, c'est un autre problème » (Le principe
d'antagonisme et la logique de l'énergie, 1951).
- Logique dynamique du contradictoire. Intègre la logique classique à titre
de cas particulier d’une logique de l’énergie dont les autres espèces ne font
pas droit au tiers exclu (de même que la géométrie euclidienne caractérisée
par l’inscription du cinquième postulat d’Euclide n’est qu’un des cas
particuliers de l’ensemble des géométries). Le corrélât en est le principe du
tiers inclus. Il est ce qui différencie la logique dynamique de la logique
classique et permet de rendre compte de la circulation de la matièreénergie selon ses trois moments (les « trois matières ») : la matière-énergie
1) macrophysique, 2) vivante, 3) psychique.
- Le principe d'antagonisme. Cheville ouvrière de la logique dynamique du
contradictoire, il stipule qu’« à tout phénomène ou élément ou événement
logique quelconque, et donc au jugement qui le pense, à la proposition qui
l'exprime, au signe qui le symbolise : e, par exemple, doit toujours être
associé, structuralement et fonctionnellement, un anti-phénomène ou antiélément ou anti-événement logique, et donc un jugement, une proposition,
un signe contradictoire : non-e ; et de telle sorte que e ou non-e ne peut
jamais qu'être potentialisé par l'actualisation de non-e ou e, mais non pas
disparaître afin que soit non-e soit e puisse se suffire à lui-même dans une
indépendance et donc une non-contradiction rigoureuse (comme dans toute
215
logique, classique ou autre, qui se fonde sur l'absoluité du principe de noncontradiction) » (ibidem). Le principe d’antagonisme associe donc à chaque
objet un pendant négatif qu’il porte en germe et sans lequel il ne pourrait y
avoir de dynamisme concevable. À rapprocher encore une fois de la science
de la logique selon Hegel.
Ernst Mach (1938-1916)
Principales contributions :
- La connaissance et l'erreur (1905)
Concepts et idées-forces :
- Principe d’économie de pensée.
- Nature économique de la recherche en physique.
- Précurseur du positivisme logique (Cercle de Vienne = Société Ernst
Mach).
Émile Meyerson (1859-1933)
Principales contributions :
- Identité et réalité (1908)
- De l’explication dans les sciences (1921)
- La déduction relativiste (1925)
Concepts et idées-forces :
- Épistémologie réaliste opposée au positivisme de Comte. La science doit
faire droit à l’explication, à la recherche des causes et ne pas s’en tenir à la
description.
- « L'homme fait de la métaphysique comme il respire ». Oppose une fin de
non-recevoir aux prétentions des positivistes logiques.
- Affirmation d'un continuisme entre la science et le sens commun (vs.
Duhem, Bachelard et Comte) ainsi que dans l’ordre du progrès scientifique
(influence de l'évolutionnisme).
- Le mouvement de la connaissance répond d’une dialectique entre l’esprit
humain qui voudrait imposer identité aux choses et la réalité qui lui résiste.
Les tentatives de résorption de cet écart sont le ressort du progrès
scientifique.
216
- Rejet de l’utilitarisme, du pragmatisme et de la réduction positiviste.
Appel à un élargissement du champ des sciences.
- Complexité des phénomènes, débiteurs d’une pluralité de facteurs. Les
modèles théoriques sont simplificateurs ; il y aura toujours un décalage
entre la prédiction et l’observation.
- Spécificité des disciplines. Développe une réflexion à partir de la chimie
dont il excipe les traits particuliers. On peut mettre une formule en
équation, la réaction chimique n'est pas certaine et ne peut être extrapolée
d’avance. Les mêmes formes d’inférence ne valent pas pour la physique,
pour les mathématiques, la chimie et les sciences humaines ; il faudra tenir
compte de la nature irréductible de chaque domaine.
Robert K. Merton (1910-2003)
Principales contributions :
- « The normative structure of science » dans The sociology of science
(1942)
- Social Theory and Social Structure (1949)
- Éléments de théorie et de méthode sociologique (1965)
- The Travels and Adventures of Serendipity (avec Elinor Barber) (2004)
Concepts et idées-forces :
- Pionnier de la sociologie des sciences en vertu de ses travaux entrepris
vers 1940. La discipline, riche en paradigmes concurrents, se focalise de
manière générale sur la question des modes de fonctionnement et
d’organisation de l’espace scientifique ainsi que sur l’influence du contexte
de production des connaissances.
- Deux types de normes interdépendantes régissent l’espace social de
production scientifique : les normes méthodologiques (relatives aux
techniques) d’une part ; de l’autre les normes éthiques. Ces dernières se
déclinent en quatre éléments : l'universalisme (la science doit être
universelle et objective autant que faire se peut), le communalisme (les
connaissances scientifiques ne sont la propriété de personne et ont vocation
à devenir accessibles à tous), le désintéressement (les intérêts privés ne
doivent pas interférer ; il s’agit de garantir l’autonomie économique et
217
politique de l’activité) ; enfin, le scepticisme organisé (les résultats doivent
être déférés à la critique et vérifiés par la communauté).
- Un tel système de normes et de principes recteurs constitue ce que Merton
appelle un ethos scientifique.
- Effet Matthieu (Matthew Effect). En référence à une sentence extraite de
l’Évangile selon Matthieu : « Car on donnera à celui qui a, et il sera dans
l'abondance, mais à celui qui n'a pas on ôtera même ce qu'il a ». Accuse le
mécanisme pervers en vertu duquel les chercheurs les plus en vue
confortent d’autant plus vite et facilement leur statut d’autorité qu’ils sont
déjà connus, accentuant toujours plus l’écart qui les sépare de la masse des
scientifiques. Une spirale d’entraînement. On ne prête (de crédibilité)
qu’aux riches.
- Distinction entre les « théories de moyenne portée » (middle range
theories), applicables à un phénomène particulier et les « théories générales
», prétendant embrasser l’ensemble d’un système social. Les sciences
humaines ne doivent pas se risquer aux théories du second type sans avoir
préalablement produit suffisamment de théories du premier type, destinées
à servir de « groupes de référence ».
- Décrit le mécanisme de prophétie auto-réalisatrice (self-fulfillingprophecy) : « La prophétie auto-réalisatrice est une définition d'abord fausse
d'une situation, mais cette définition erronée suscite un nouveau
comportement, qui la rend vraie ».
- Introduit en sociologie le concept de sérendipité (serindipity) pour définir
« la découverte par chance ou sagacité de résultats pertinents que l'on ne
cherchait pas. Elle se rapporte au fait assez courant d'observer une donnée
inattendue, aberrante et capitale (strategic) qui donne l'occasion de
développer une nouvelle théorie ou d'étendre une théorie existante »
(Éléments de théorie et de méthode sociologique) ; ou encore « le processus
par lequel une découverte inattendue et aberrante éveille la curiosité d'un
chercheur et le conduit à un raccourci imprévu qui mène à une nouvelle
hypothèse » (Social Theory and Social Structure).
- S’inspirant des célèbres travaux de Max Weber sur l’ Éthique protestante et
l’esprit du capitalisme (1904-5), montre que les valeurs puritaines ont
lourdement pesé dans le processus de développement des sciences. Ainsi, la
Royal Society réunissait à l’origine des savants religieux imprégnés de
valeurs puritaines exaltants la raison comme instrument de lutte contre les
218
passions, inspirant la rigueur dans la pratique : « La combinaison de la
rationalité et de l’empirisme, si évidente dans l’éthique puritaine, forment
l’essence de la science moderne ». La sotériologie protestante rejoint encore
la science dans son souci d’améliorer la situation matérielle de l’humanité.
Le lien est souligné dans les études de la Royal société entre la découverte
patiente de la création et la glorification de Dieu. Le développement des
sciences fut enfin à Cambridge coextensive de la prévalence de l’influence
puritaine.
Gaston Milhaud (1858-1918)
Principales contributions :
- Les philosophes géomètres de la Grèce. Platon et ses prédécesseurs (1900)
- Nouvelles études sur l'histoire de la pensée scientifique (1911)
Concepts et idées-forces :
- Occupe la première chaire de philosophie des sciences.
- Développe un rationalisme dynamique ou historique qui va ensuite
influencer Brunschvicg.
- Tente de reconstituer l'état des mathématiques à l'époque de Platon. La
géométrie d'Euclide est en effet une synthèse alexandrine tardive. Milhaud
s’inscrit dans un contexte où l'on s'éloigne d'Aristote pour s'intéresser au
rationalisme platonicien (rôle heuristique du nombre et des idées : des
abstractions qui permettent de se saisir au mieux de la réalité) alors que la
notion de nombre s'élargit considérablement (nombres irrationnels,
imaginaires, etc.) et que surgissent à nouveau frais les questions liées à
l’infini potentiel et actuel.
- Précurseur du conventionnalisme. Le recours aux propositions
conventionnelles est à la fois indispensable et libre.
John Stuart Mill (1806-1873)
Principales contributions :
- Système de logique déductive et inductive (1843)
219
Concepts et idées-forces :
- Éthologie. Science de la formation du caractère, déduite des lois
universelle de l’esprit rapportées aux circonstances particulières.
- Distinction entre déterminisme et fatalisme, deux acceptions de la
nécessité selon, respectivement, le principe de raison (tout phénomène ou
événement procède d’une cause) et le principe de prédestination. Assied la
possibilité d’une science humaine tout en conjurant le sophisme paresseux.
- Les quatre (ou cinq) méthodes fondamentales de la preuve inductive
(exposées au cours du livre III) : par concordance, par différence, par
concordance et différence combinée, par résidus, par variations
concomitantes.
- Principes de l’association des idées : par ressemblance, par contiguïté, et
par contiguïté répétitive.
- Rejet de la méthode hypothético-déductive (si/alors) car le vrai peut
logiquement être déduit du faux. Il convient de lui préférer une méthode
inductivo-déductive.
- Distinction entre observation et expérimentation.
- Critique de la syllogistique et de la métaphysique aristotéliciennes. Mill
définit de nouvelles catégories logiques : sentiments, esprits, corps, relations
fondamentales.
- Un principe théorique : l’induction, complété par un principe pratique :
l’utilité.
Jean-Louis Le Moigne (1931-20XX)
Principales contributions :
- Le constructivisme (1994)
- Les épistémologies constructivistes (2003)
Concepts et idées-forces :
- Épistémologie constructiviste.
- Méta-théorie des systèmes. L’existence positive et objective des systèmes
ne peut être démontrée. Systèmes interprétés comme des modélisations
commodes et pragmatiques, construits en vue de finalités humaines par le
théoricien plutôt que découverts dans la réalité.
220
Edgar Morin (1921-20XX)
Principales contributions :
- Le Paradigme perdu : la nature humaine (1973)
- La Méthode (6 vol.) (1981-2008)
- Science avec conscience (1982)
- L’Intelligence de la complexité (avec Jean-Louis Le Moigne) (1999)
- Relier les connaissances (1999)
- Introduction à la pensée complexe (2005)
Concepts et idées-forces :
- Pensée complexe. Sens étymologique de com-plexus : « tissé ensemble », «
enchevêtré », « entrelacé ». Un nouveau paradigme épistémologique proposé
dans Science avec conscience (1982). Promeut la transdisciplinarité contre
la spécialisation, tirant les conséquences de l’imbrication des différents
domaines de la connaissance.
- Épistémologie complexe. Approche globale, en rupture d’avec une
épistémologie classique analytique. S’inscrit dans la continuité des
épistémologies bachelardienne (concernant notamment la question des
problèmes cognitifs) et piagétienne (pour ce qui concerne la biologie de la
connaissance, le rapport de la logique à la psychologie et le sujet
épistémique). S’intéresse aussi bien aux instruments de connaissance
(intellectuels autant que pratiques) aux savoirs produits, qu’à leur contexte
de production tant cognitif que socioculturel.
- Modèle du réseau. Métaphore empruntée à Nicholas Rescher pour
illustrer l’horizontalité de l’épistémologie complexe qui n’est pas
hiérarchique comme pouvait l’être l’épistémologie classique. Il n’y a pas de
niveau plus ou moins radical. Tout système – et cela vaut également des
systèmes de pensées – fonctionne de manière circulaire et intégrée ; chaque
partie se comprend au regard de l’ensemble et de l’ensemble des autres
parties. Approche physiologique versus anatomique. Idée de dynamique de
récursivité rotative.
- Principes fondamentaux de l’épistémologie complexe :
(1) Le principe d'« auto-éco-organisation ». Néologisme qui articule
l’autonomie (auto-) d’un système à sa capacité à interagir avec
l’environnement (éco-). « L’être vivant […] est assez autonome pour puiser
221
de l'énergie dans son environnement, et même d'en extraire des
informations et d'en intégrer de l'organisation ».
(2) Le principe dialogique. Réinscription de deux notions en apparence
contradictoires dans un rapport de complémentarité, ce qui permet de
penser des processus complexes. Exemple du phénomène de la dualité
onde-corpuscule. Le nécessaire dépassement du principe du tiers-exclu
prend avec Stéphane Lupasco la forme du tiers-inclus.
(3) Le principe hologrammatique. « La partie est dans le tout, mais le tout
est dans la partie ». Modèle de la figure fractale. Analogies de la fougère ou
du noyau de la cellule qui abrite l’intégralité du patrimoine génétique du
corps dont elle est un fragment.
(4) Le principe des boucles de rétroactions (feed-back). Notion introduite
par Norbert Wiener dans le domaine de la cybernétique. Décrit à l’origine
un mécanisme qui rend possible l’homéostasie d’un système (son
autorégulation, son retour à l’équilibre, le rétablissement de sa norme) en
dépit des variations de son environnement. Signifie par extension (et par
dérivation) que toute action a des effets en retour sur l’agent, lequel est
constamment appelé à y répondre par de nouvelles actions ou contr-actions.
Ce qui est un instrument de régulation peut tendre à l’emballement avec
des effets amplificateur ; ainsi dans le cas emblématique de la surenchère
militaire (course aux armements). On parlerait plus couramment de cercle
vicieux – bien que l’orientation vertueuse soit également possible.
(5) Le principe de récursion organisationnelle. Système circulaire au sein
duquel les effets engendrés sont eux-mêmes producteurs des causes dont ils
procèdent. Le producteur est également produit, et le produit le producteur
; de même la cause est également l’effet. Le processus de reproduction des
êtres vivants offre une illustration de ce phénomène de récursion dans la
mesure où le géniteur fabrique l’engeance à l’origine du géniteur, sans que
l’on puisse (ou qu’il soit pertinent) de déterminer à quelle instance revient
la primauté. Le paradoxe de l’œuf et de la poule. Exemple de l’homme et du
langage : « Il est donc sensé de penser que c'est le langage qui a créé
l'homme, et non l'homme le langage, mais à condition d'ajouter que
l'hominien a créé le langage » (Le paradigme perdu) ; « Le langage est en
nous et nous sommes dans le langage. Nous faisons le langage qui nous fait.
Nous sommes, dans et par le langage, ouverts par les mots, enfermés dans
les mots, ouverts sur autrui (communication), fermés sur autrui (mensonge,
222
erreur), ouverts sur les idées, enfermés dans les idées, ouverts sur le monde,
fermés au monde » (La Méthode).
- Les propriétés émergentes. Postulat issu de la théorie des systèmes,
énonçant que le tout est plus que la somme des parties. Atteint un certain
niveau de complexité, il y a franchissement d’un seuil qualitatif, apparition
de phénomènes irréductibles aux lois qui s’appliquaient aux éléments.
Inéquation de la synergie : 1 + 1 = 3 (I + I = +). La plus-value ne s’explique
pas par l’addition des premiers membres de l’équation ; elle est le fruit de
l’organisation du tout. C’est une propriété ou qualité émergente qui peut en
revanche rétroagir sur les parties. Si néanmoins le tout peut être plus que
les parties, on peut aussi trouver que les parties sont supérieures au tout et
cela simultanément ou – ce qui revient au même – que « le tout est
également moins que la somme des parties car les parties peuvent avoir des
qualités qui sont inhibées par l'organisation de l'ensemble ». Appert ici tout
l’intérêt du principe dialogique.
- Connaissance intégrée et réflexive vs. technique, analytique, objectivante.
« Toute connaissance (et conscience) qui ne peut concevoir l'individualité,
la subjectivité, qui ne peut inclure l'observateur dans son observation, est
infirme pour penser tous problèmes, surtout les problèmes éthiques. Elle
peut être efficace pour la domination des objets matériels, le contrôle des
énergies et les manipulations sur le vivant. Mais elle est devenue myope
pour appréhender les réalités humaines et elle devient une menace pour
l'avenir humain » (La méthode).
- Principe d'incertitude logique. La logique bivalente classique fondée sur le
principe de non-contradiction devient un obstacle à la connaissance. Le
paradoxe du Crétois (ou paradoxe du menteur) formulé par Épiménide
illustre ses limites à son niveau le plus basique. Le théorème d’incomplétude
avancé par Gödel démontre en sus que la logique est impuissante à se fonder
elle-même. La mécanique quantique, mettant à jour la dualité ondecorpuscule, suggère enfin que « certains aspects de la réalité micro-physique
n'obéissent pas à la logique déductive-identitaire » (La méthode).
- On ne peut fonder la raison sur la logique. Contra les ambitions
réductionnistes du Cercle de Vienne. Cela n’est pas nécessaire, dans la
mesure où « la vraie rationalité reconnait ses limites et est capable de les
traiter (méta-point de vue), donc de les dépasser d'une certaine manière
tout en reconnaissant un au-delà irrationalisable » (La Méthode). Cela n’est
223
pas souhaitable en ce qu’une pensée soumise à la rigueur de la logique
perdrait en créativité, en invention et en complexité. Il ne s’agit pas de
prendre de la logique, seulement d’en faire un usage mesuré : « L'usage de la
logique est nécessaire à l'intelligibilité, le dépassement de la logique est
nécessaire à l'intelligence. La référence à la logique est nécessaire à la
vérification. Le dépassement de la logique est nécessaire à la vérité » (ibid.).
Otto Neurath (1882-1945)
Principales contributions :
- « L'Encyclopédie comme modèle », dans Revue de Synthèse (1936)
- International Encyclopedia of Unified Science (1938)
- « Unified Science as Encyclopedic Integration », dans International
Encyclopedia of Unified Science (1938)
Concepts et idées-forces :
- Positivisme logique. Rédacteur du manifeste fondateur du Cercle de
Vienne, paru en 1929 sous le titre « La conception scientifique du monde ».
Voir Rudolf Carnap.
- Défenseur de l’empirisme logique.
- Le réductionnisme logique et le formalisme mathématique en mesure de
résoudre les querelles politiques, de la même manière que Leibniz voulait
résoudre les querelles métaphysiques grâce à la réduction logique de la
Caractéristique universelle.
- Création de l'ISOTYPE (pour International System Of TYpographic
Picture Education), système de représentation symbolique de données et
d’informations faisant appel à des icônes élémentaires.
- Unité de la science au-delà de la diversité des sciences. Projet d'une «
Encyclopédie des Sciences Unifiées ». Œuvre à la réconciliation de la
démarche logico-déductive des sciences formelles et de la démarche
inductiviste des sciences de la matière, ayant constaté que la « recherche
empirique avait longtemps été en opposition radicale avec les constructions
logiques a priori dérivant de systèmes philosophico-religieux »
(Encyclopédie des Sciences Unifiées).
- En ressort l'empirisme scientifique comme tentative pour ramener à
l’unité la multiplicité des terminologies scientifiques.
224
- Choix de présenter cette unification sur un modèle encyclopédique, et
non pas hiérarchique, filial comme chez Carnap.
- Dix fascicules parus en 1938, comprenant les contributions de Charles
Morris, Rudolf Carnap, Leonard Bloomfield, Niels Bohr, John Dewey,
Bertrand Russell et alii, balayant les domaines de la théorie des probabilités,
de la cosmologie, de la biologie et de la psychologie.
Isaac Newton (1643-1727)
Principales contributions :
- Principes mathématiques de la philosophie naturelle (Principia
Mathematica) (1686)
Concepts et idées-forces :
- Membre de la Royal Society, fondée en 1660 à Londres avec pour vocation
de développer les sciences et de favoriser l’échange entre savants. Animé,
selon Robert K. Merton, par l’esprit puritain de l’éthique protestante qui fut
l’un des déterminants de la rigueur, de l’enthousiasme (stricto sensu) et du
rationalisme de ses membres.
- Incarnation typique du savant universaliste du XVIIe siècle, physicien,
mathématicien et opticien. Fait la synthèse entre une philosophie mécaniste
de la nature et une exigence expérimentale étayée par la multiplication des
instruments de mesure. Figure à la fois distincte du clerc du Moyen Âge, de
l’humaniste de la Renaissance, du scientifique institutionnalisé du XIXe
siècle et du chercheur spécialisé ou du chercheur entrepreneur du XXe
siècle appelé à leur succéder.
- Loi de la gravitation universelle ou loi de l'attraction universelle : « Deux
corps massifs s'attirent en raison directe de leur masse et en raison inverse
du carré de leur distance ». Déduite du mouvement des planètes. Réconcilie
sous une même loi le monde supra- et sublunaire. Situation d’actualité du
fait que la physique contemporaine fait face à une incompatibilité entre la
théorie supposée rendre compte des phénomènes à l’échelle macroscopique
(la relativité d’Einstein) et la micro-physique (la mécanique quantique).
Tentatives de résolution de cette dualité à la faveur d’une théorie quantique
de la gravitation : théorie des cordes ou théorie quantique à boucles.
225
- Plutarque précède Newton qui devait achever de réconcilier les lois de « la
terre pesante et du ciel étoilé » sous les auspices de la physique moderne.
L’auteur des Œuvres morales constatant à l’œil nu les contours cabossés de
la lune, en concluait déjà sans autre forme de procès que « la Lune est une
terre céleste » (De la face qui paraît sur la Lune, XVIII) que le soleil
invisible baigne de sa lumière. Est ainsi récusée la distinction que posait le
Stagirite entre la physique sublunaire, lieu de l’errance et de
l’approximation, et la physique des corps célestes d’une régularité parfaite.
Il faut encore rendre justice à ce savant biographe et génie méconnu pour
avoir deviné, 1600 ans avant Newton, ce que Newton n’a fait que
thématiser, la loi de la gravitation : « La lune, écrit Plutarque dans son traité
sur l’astre, n’est pas entraînée vers la Terre par son poids car ce poids est
repoussé et détruit par la force de rotation » (ibid., VI). Plutarque allait plus
loin encore. Plus loin que Copernic ; plus loin que Galilée ; plus loin que
Kant lui-même et ses « univers-îles », là où aucun de ses contemporains
n’aurait accepté de le suivre. Il affirmait que chaque astre lumineux était le
pivot rotatif d’un ou de plusieurs mondes (nous dirions aujourd’hui qu’il est
autant d’étoiles que de systèmes solaires), et que le mouvement grave des
corps célestes tendait vers lui. Ainsi de la Terre quant au Soleil, ainsi de la
Lune quant à la Terre. Bien plus : Plutarque, avant Bruno, anticipait par
induction la découverte des exoplanètes : « Chacun des mondes a une terre
et une mer » (Sur les sanctuaires dont les oracles ont cessé, XVII). Si le «
chacun » est de trop, le reste ne l’est plus depuis la mise au jour d’océans
recouverts de glace ou de traces d’eau liquide sur les corps telluriques tels
que les lunes de Jupiter (e.g. les geysers d’eau d’Europe).
- Épisode apocryphe de la pomme de Newton, écho biblique de l’Arbre de
la Connaissance. Interroge sur les processus de découverte et sur la
reconstruction a posteriori des intuitions scientifiques.
- Trois lois du mouvement, aussi dites « lois de Newton », au fondement de
la mécanique classique :
(1) Principe d’inertie : « Tout objet en état de mouvement rectiligne
uniforme et soumis à aucune force extérieure, conserve son mouvement,
dans un repère galiléen ». Reformulation d’un principe déjà énoncé par
Galilée. Il est tout ce qui sépare la philosophie naturelle de la physique
moderne.
226
(2) Principe de la dynamique des corps : La force appliquée à un corps est
égale à sa masse multipliée par son accélération : F = m a. Permet de
calculer la quantité de mouvement des corps. Contra la physique d’Aristote,
laquelle proportionnait la force s’exerçant sur un corps à sa vitesse et non
pas à son accélération.
(3) Principe d'action-réaction : Tout corps soumis à une force exerce en
retour une force de même intensité et de direction opposée.
- Comme le relève Duhem, « force », « masse » et « accélération » sont des
concepts théoriques qui ne renvoient pas directement à l’expérience, non
plus que les formalismes mathématiques employés par Newton. Il y a donc
un décrochage entre, d’une part, l’induction pure à partir de phénomènes
empiriques et, d’autre part, leur représentation au moyen de la théorie. La
théorie va au-delà de l’expérience en ce sens qu’elle ne décrit pas des
observables et qu’elle prétend extrapoler des phénomènes futurs. La
prédiction théorique précède ainsi la découverte.
- La loi de l’attraction universelle et les trois lois de Newton permirent ainsi
la découverte de Neptune ensuite de à l’observation de la perturbation de
l’orbite d’Uranus.
- Parallèlement, sublimation mathématique des phénomènes, et mise à
distance de l’observation directe au profit de principes théoriques explicatifs
(gravitation, inertie, etc.). C’est en ce sens que Koyré a pu écrire que le nerf
de la révolution galiléenne consiste dans la « décision de traiter la
mécanique comme une branche des mathématiques, c'est-à-dire de
substituer au monde réel de l'expérience quotidienne un monde
géométrique hypostasié et d'expliquer le réel par l'impossible » (Études
d'histoire de la pensée scientifique).
- Théorie corpusculaire de la lumière (constituée de « multitudes de
corpuscules d'une vitesse et d'une petitesse inimaginables ») vs. théorie
ondulatoire émise par Christiaan Huygens (1629-1695). L’expérience des
fentes de Young (1801), du nom du médecin physicien Thomas Young
(1773-1829) sur les interférences lumineuses tranche en faveur de la
seconde option, reprise par les travaux de François Arago (1786-1853) et
d’Augustin Fresnel (1788-1827). L’hypothèse des quanta de lumière (des
paquets d’énergies, la lumière étant alors émise de manière discrète)
examinée en 1905, développée par Einstein, retrouve toutefois d’une
227
certaine manière le modèle corpusculaire abandonné. Einstein est à
l’époque une exception parmi les scientifiques.
- Contribue au développement de la physique expérimentale moderne,
laquelle s’éloigne des présuppositions de la scolastique.
- Alexandre Koyré n’a eu de cesse que d’avoir exhibé les liens entre les
convictions philosophiques, métaphysiques et religieuses du physicien et ses
travaux en sciences. Ce n’est que longtemps après sa mort que l’on a
vraiment pris conscience de l’ampleur des travaux hermétiques de Newton.
Exécutrice testamentaire de son oncle décédé, Catherine Conduitt hérite
d’une malle qui trouvera acquéreur, en 1936, en la personne de
l’économiste John Maynard Keynes. Elle contenait des milliers de pages de
diagrammes cabalistiques, d’index chemicus répertoriant l’ensemble corps
connus des alchimistes, de manuscrits ésotériques traitant de transmutation
et de théologie, assortis de commentaires de citations extraites des Écritures
: une somme équivalente à celle des travaux scientifiques du physicien.
Newton, dans son laboratoire de Cambridge, ne s’adonnait pas comme on l’a
cru (comme il laissait croire) à la « chimie vulgaire » mais comme bon
nombre de ses contemporains, à la quête alchimique de la quinte essence,
de l’élixir de vie, de la pierre philosophale, de la chrysopée. Aux dires de
son unique assistant, seul autre que lui-même autorisé à pénétrer le secret
de son cabinet, Newton avait consacré la plus grande partie de sa recherche
à tenter d’isoler un élément de la matière vivante ou minérale, une
poussière « excessivement subtile et d'une petitesse inimaginable sans
laquelle la terre serait morte et inactive », qu’il avait baptisé du nom de
« vegetable spirit ». Poursuivant l’œuvre de recouvrement de la « première
doctrine » qu’il estime corrompue par le passage des siècles et dispersée dans
les diverses spiritualités du monde, Newton inscrit ses recherches dans la
grande tradition de l’hermétisme syncrétiste, qui en recherche la vérité
originelle (cf. aussi Marcile Ficin, Pic de la Mirandole, l’École d’Alexandrie,
etc.). Il leur applique la même méthode, avec la même ardeur qu’à ses
travaux strictement scientifiques. Travaux qui, à leur tour, bénéficieront
largement de cette pensé hermétiste.
- L’alchimie accoucheuse de la science moderne. On ne s’avoue pas sans
réticence que la grande majorité des écrits de Newton se composait de
recherches alchimiques. Le fondateur de la mécanique classique et pionnier
de la science moderne ne méprisait pas cette « pseudoscience » autant que
228
nous l’aurions voulu. Et bien lui en a pris, s’il est vrai que ses intuitions les
plus fécondent sont tributaires de sa pratique de l’occultisme. De l’alchimie,
Newton a dérivé l’idée de « gravitation universelle », vertu ou qualité
occulte agissant à distance (Einstein y reviendrait). Elle est, dit-il, « une
sorte d'esprit très subtil caché dans la substance des corps », et une énigme
pour l’astrophysique contemporaine qui ne parvient toujours pas à concilier
la force de gravitation aux trois autres interactions fondamentales. Mais plus
encore – et cela fut singulièrement peut dit – il hérite de l’idée que les lois
de la physique céleste n’était pas différente des lois de la physique terrestre.
Il suffira, pour s’en convaincre, de s’en référer à la profession de foi des
alchimistes de la Renaissance, pièce majeure des Hermética. Les premières
lignes de la table d’émeraude (tabula smaragdina) ont le mérite d’être
explicites – une fois n’est pas coutume : « Il est vrai, sans mensonge, certain
et très véritable : Ce qui est en bas est comme ce qui est en haut, et ce qui
est en haut est comme ce qui est en bas ; par ces choses se font les miracles
d'une seule chose » (La Table d’émeraude d’Hermès Trismégiste, « père des
Philosophes », traduction de l’Hortulain, XIVe siècle).
229
Gravure de la table d’émeraude, extraite de l’Amphitheatrum Sapientiae
Eternae de l’alchimiste allemand Heinrich Khunrath, 1610.
- Reste que Newton s’en tient à constater le phénomène sans préjuger de sa
cause ou de ses « intentions » : « Hypotheses non fingo », « je ne forge pas
d’hypothèses ». Il ne s’agit plus d’expliquer par les causes motrices ou par les
causes finales, mais par les causes prochaines. Donner une représentation à
défaut d’une explication. Anticipe sur le mode ordre du positivisme.
- Michael Brooks (Free Radicals. The secret anarchy ou Science, 2011)
n’hésite pas à convoquer Newton (qui avait falsifié ses résultats afin de faire
correspondre ses calculs aux données expérimentales), au renfort de la thèse
de Feyerabend selon laquelle les scientifiques sont de manière assumée ou
non des « anarchistes du savoir », ne reculant devant aucune malhonnêteté
pour triompher.
 Point sur les théories de l’unification
L’une des questions les plus ardentes de la physique contemporaine est de
savoir comment mettre un terme à l’état de cohabitation des deux régimes
que sont la mécanique quantique d’une part, la relativité de l’autre (cf. Marc
Lachièze-Rey, Au-delà de l’espace et du temps. La nouvelle physique ,
2003). Redisons-le : ces deux physiques ont leur champ propre ; elles
découpent la réalité en deux régions qui ne communiquent pas. Les
équations de l’une s’appliquent au monde infiniment étrange des particules
et stipulent sans ambiguïté que les quantités n’adoptent que des valeurs
discrètes (voir notice : point sur la mécanique quantique). Celles de la
relativité intègrent la gravitation comme une propriété géométrique de
l’espace-temps (voir notice : Einstein). C’était, bien sûr, avant la découverte
du Higgs. Sous réserve d’inventaire, la théorie quantique s’applique ainsi à
des atomes ou à des particules élémentaires, et sa consœur relativiste à des
objets situés ou constitués par l’espace-temps.
230
Limites de la physique actuelle
Tout le problème tient à ce fait (ou préjugé) que l’espace(-temps) n’est pas
fissible en deux épistémologies. Deux théories, deux paradigmes, c’est déjà
un de trop. Il ne peut en rester qu’un. Il n’y a qu’un « uni-vers », une seule
physique ; non pas deux univers pour deux physiques. Les deux physiques
avaient été l’erreur – rédhibitoire – du Stagirite. Elle avait entraîné la
stagnation de la scolastique, freiné l’essor des sciences modernes en
combattant toute tentative de mathématiser les phénomènes instables. Dixhuit siècles de savants avaient mis face-à-face un ciel supralunaire parfait et
un lieu sublunaire labile, impermanent et fluide. La réunion de la physique
provinciale et de la non-physique locale avait été le tour de force de Galilée,
de Tycho Brahé et de Newton. Au vu du prix qu’il leur en a coûté, on ne
languit pas de retomber dans ce marasme.
De nouvelles stratégies émergent pour refermer cette cicatrice, redite de la
précédente. Certains se tournent vers l’unification mathématique des quatre
interactions fondamentales au sein d’un cadre unique, une « théorie du
tout » (cf. Pierre Fayet, La Théorie du tout). Chacune de ces interactions –
nucléaire faible, nucléaire forte, électromagnétique et gravitationnelle – se
verrait rapportée aux effets émergeant d’une certaine symétrie. Proportions,
cercles, sphères et nombre d’or. Et symétrie. Encore et de nouveau, la quête
de symétrie. Une symétrie que les physiciens théoriciens apprennent à
repérer dans les replis de l’infiniment grand et de l’infiniment petit. La
symétrie – nous le verrons bientôt – est une notion centrale de la physique
actuelle. Elle diligente une quête qui renouvelle les aspirations grecques à
un cosmos parfait, équilibré ; à cette attente tout à la fois éthique et
esthétique, cœur nucléaire du raisonnement de Schelling et de la
méthodologie de Dirac. De Brian Greene aussi : témoin le titre de son
œuvre phare, L’univers élégant.
Ce qui est tenté par la physique contemporaine semble en cela être un
retour au cosmos grec, à la racine du terme « cosmétique », cosmos
appréhendé dans le monde grec comme une épiphanie des harmonies
divines. Mais plus parfaits que ne l’est et le cosmos classique, puisque
débarrassé de ses dichotomies : sur la terre comme au ciel, dans l’infiniment
231
grand comme dans l’infiniment petit.
Mais les esprits de synthèse se font rares de par les temps qui courent. Et il
n’est pas certain que la grande théorie de l’unification soit à notre portée.
Einstein la recherchait… en vain. Mais que recherchait-il exactement ; et
que recherchons-nous ? Une théorie qui circonvient ou articule physique
de l’infiniment petit et des macros-objets. Une théorie quantique de la
gravitation. Qui doit être également une théorie quantique de l’espacetemps. Or, comment quantifier l’espace (relativiste) qui sert de cadre de
référence aux phénomènes quantiques ? Les physiciens produisent à flux
tendu des hypothèses qui le disputent en sophistication dans l’espoir
d’arriver à triompher un jour de la quadrature du cercle (et, en passant, de
leurs collègues). On peut, à cet égard, opter pour bien d’autres approches.
Quelles sont les pistes de recherche aujourd’hui explorées ? Nous en
exposerons trois.
(1) Celle de la supersymétrie (dite également (SuSy), dont un des avantage
est de démêler l’énigme de la constante cosmologique ; (2) celle de la
théorie des supercordes, fruit de l’intégration aux théories des cordes de la
supersymétrie ; (3) enfin, celle de la gravitation quantique à boucles. Toutes
trois de fécondes candidates, aucune n’est (encore) éligible à l’épreuve
expérimentale. Ce qui en fait avant tout des voies spéculatives (c’est la
raison pourquoi l’on parle de « physique théorique ») ; pas forcément des
voies de garage.
(1) Supersymétrie (SuSy)
L’établissement du modèle standard de la physique s’est avéré fécond à bien
des titres. Non content d’établir une classification des particules
élémentaires, il décrit l’existence d’autres constituants fondamentaux de la
matière que le physicien a charge de vérifier. Au moins sait-il ce qu’il
cherche et dans quelle direction chercher. Le modèle standard a en ceci
beaucoup à voir avec le tableau de Mendeleïev. Il pourrait être néanmoins
beaucoup plus lacunaire qu’on l’a longtemps pensé. La théorie de la
supersymétrie entend combler ce manque en associant à chaque particule
aujourd’hui connue une « superpartenaire » sensibles dans l'ordre du TeV.
232
La « supersymétrie », pour la décrire d’un mot, envisage une équivalence
entre les particules à spins entiers et celles à spins demi-entiers, autrement
dit, entre bosons (vecteurs d’interaction) et fermions (matière proprement
dite). Il est alors question, non plus de gravité, mais de « supergravité ».
La « licence scientifique » est moins en cause que la nécessité de surmonter
un certain nombre de difficultés laissées en friche par le modèle standard.
Au premier rang desquelles, celle de l’unification de l’interaction nucléaire
forte, de l’interaction nucléaire faible et de l’électromagnétisme, trois des
quatre forces fondamentales connues avec la gravité. L’intensité de ces
forces trouve aussi son explication. La supersymétrie rend également raison
de la masse des particules, celle-ci résultant de leur interaction avec le
champ des Higgs. La masse serait par conséquent un épiphénomène
relationnel ou interactionel, et non pas une propriété essentielle des corps.
Tout corps n’est pas pesant en soi. Il le devient ensuite et en fonction de son
inertie acquise, cela dans une mesure spécifiée par la théorie de la
supersymétrie. Le postulat de ces particules encore inobservées que sont les
« superpartenaires » des particules standard dénoue du reste l’énigme de la
matière noire et de l’énergie sombre, représentant respectivement 26,8 % et
68,3 % de la masse estimée de l’univers.
233
Ces deux « substances » échappent à la compréhension des astrophysiciens,
mis dans l’obligation d’en induire l’existence d’après leurs effets
gravitationnels. La matière noire pourrait être expliquée par les neutralinos,
particules stables (sans résidu de désintégration), à charge neutre (ne
pouvant rayonner électromagnétiquement) ; des particules interagissant peu
avec nos instruments de mesure. Quant à l’énergie noire, elle serait à
corréler (identifier ?) à la constante cosmologique. La supersymétrie rend
alors compte de sa valeur. Elle offre dans tous les cas une issue cohérente à
des questions qui n’ont cessé d’embarrasser les scientifiques, à même de
surmonter les apories de la physique et de la cosmologie conventionnelle.
Cette efficience mathématique et théorique lui vaut d’être adoptée au sein
de modèles explicatifs plus vastes tels que celui de la Supergravité (standard
ou maximale), de la théorie de jauge supersymétrique, de la théorie de
Seiberg-Witten et, bien évidemment, de la théorie des supercordes.
234
(2) Théorie des supercordes
Dans le prolongement de cette recherche de symétrie qui meut les
physiciens s’inscrit le développement des théories des cordes. Les avancées
les plus récentes de la physique fondamentale nous ont offert l’image d’un
espace dynamique, jamais tout à fait vide, vrillé en permanence de
fluctuations le soumettant perpétuellement à d’autres habillages, rendant sa
forme instable, discontinue, éminemment complexe (voir notice : point sur
le modèle standard). Et combien plus complexe nous apparaîtra-t-il, s’il
s’avérait tramé de dimensions supplémentaires. Car c’est bien là ce que
postule la théorie des supercordes : un espace-temps se déployant sur dix ou
onze ou vingt-six dimensions. Ce cadre a l’avantage de réduire la diversité
des particules et forces d’interaction à un unique objet, unidimensionnel –
une « corde ». Le monde dans sa totalité se laisserait décrire par une unique
« substance ». La dissemblance des particules qui se constate empiriquement
ne serait plus alors la résultante de leur complexion (de leurs propriétés) ;
elle s’expliquerait par la fréquence de vibrations des cordes. Chaque
particule, chaque entité particulière s’explique par un état particulier de
vibration des cordes. Les cordes émettent des sons qui sont des particules
comme un violon vibre ses notes sur différents octaves (mais qui serait le
grand soliste ?). Comme, d’autre part, ces théories incluent la
supersymétrie, et qu’elles englobent par la théorie M les différentes options
de développement des cordes, on parlera plus volontiers de « supercordes ».
Apparaîtra dans cette optique une théorie des branes conçus comme lieux
d’attache des cordes « ouvertes » (équivalent géométrique du segment de
droite), lesquelles, à l’opposé des cordes « fermées » (équivalent géométrique
du cercle) peuvent avoir évolué sur plusieurs dimensions.
Il est frappant de retrouver encore et à jamais, après la symétrie cosmique,
cette invincible métaphore de la mélodie des sphères. Un thème qui nous
ramène en Grèce, à la gamme pythagoricienne, aux sirènes de Platon en
ronde autour du fuseau de la nécessité. Le monde, selon cette tradition, est
un concert et nous sommes sourds à la musique du monde. Et la physique
contemporaine de reconduire à son insu ce que les Grecs, au moins, ne
dissimulaient pas : leurs biais philosophique. Tout en se préservant contre la
seule question qui importait aux médiévaux : mais qui pour diriger
235
l’orchestre ?
(3) Gravitation quantique à boucles
La théorie de la gravitation quantique à boucles opère une quantification de
l’espace-temps qui devient granulaire, « pixellisé », discret et non plus
continu, tel qu’il apparaissait au prisme de la physique relativiste. L’espacetemps se morcelle en entités élémentaires à quatre dimensions, manière
d’atomes au sens originaire du terme (a-tomos : « indivisible ») qui sont
autant de quanta du champ gravitationnel liés entre eux par des réseaux
(networks) de spins. La valeur minimale de l’arrête minimum du plus petit
volume de ce damier d’espace-temps n’est autre que la valeur de la longueur
de Planck : la constante h. Constante qui représente la moindre quantité
d’action qu’il est possible de mettre en jeu au cours d’un phénomène
physique (cf. L. Landau, E. Lifchitz, Physique Théorique Mécanique, 1998).
S’il semble que la théorie de la gravitation quantique à boucles soit devenue
la concurrente la plus sérieuse de la théorie des supercordes (incorporant la
supersymétrie), beaucoup s’en faut que ces deux programmes de recherche
occupent l’ensemble de la scène de la physique fondamentale.
Il suffira, pour s’en convaincre, de considérer les variantes inédites de
géométrie non-commutative développées par certains théoriciens en marge
des tentatives de quantification de la gravité et d’unification mathématique
des quatre interactions. Il s’agirait de produire de nouveaux cadres
théoriques et conceptuels visant à retrouver dans le domaine de la
géométrie les mêmes propriétés que celles se rattachant aux principaux
opérateurs en mécanique quantique. La première conséquence en serait la
réfutation de la notion de particules ponctuelles localisables dans l’espace,
et ce faisant l’explication de l’impossibilité quantique de spécifier
concurremment leur position et leur vitesse (relations d’Heisenberg).
Limites de l’unification
Les quelques théories hautement spéculatives que nous venons d’exposer
doivent encore faire leurs preuves. Leur fondement théoriques sont en
pleine gestation, et constituent l’un des enjeux majeurs de la physique
236
contemporaine. Cette vue d’ensemble est plus qu’assez pour nous
convaincre que beaucoup reste à faire. Mais la question la plus
fondamentale pourrait ne pas être, en dernier ressort, de savoir comment
accomplir l’unification, que de savoir si l’unification est seulement
susceptible d’être accomplie. Est-elle seulement pensable, cette « théorie
quantique de la gravitation » que les théoriciens pourchassent comme le
Saint Graal ?
Revenons un bref instant sur la névrose « obsessionnelle » de la physique
contemporaine. Celle-ci se heurte à la coexistence de deux modèles
explicatifs et descriptifs pour l’heure incompatibles : la relativité et la
physique quantique. Les deux espaces considérés ne sont plus frontaliers
(supralunaire et sublunaire) mais substantiellement uns – et pourtant
divergents, structurellement antinomiques. Il s’agit bien d’un même espace
faisant valoir des principes dissonants, des lois désassorties selon l’échelle
considérée (microscopique, macroscopique). Il semblerait logique et
légitime de vouloir mettre un terme à cette fracture. De promouvoir le
syncrétisme. De plaider l’unification. D’appeler à un nouveau Newton. Mais
d’où nous vient cette conviction que la nature n’est structurée que par une
seule et même physique, quelle qu’en puisse être l’échelle ou la région ?
Il se pourrait que nous ayons omis, dans notre précipitation, de nous poser
la seule question qui vaille : au nom de quoi, pourquoi, serait-il nécessaire
que la physique soit une ? Il y a tout lieu de craindre que la réponse
ressortisse moins à des motivations de nature scientifique qu’à des tropismes
occidentaux, somme toute plus aériens, héritage d’une culture foncièrement
chrétienne. Une dilection métaphysique et religieuse pour l’unité, qu’il
s’agisse de monisme (Platon) ou de monothéisme (Bible). Une dilection qui
nous conduit à réduire particules, forces, lois, constantes à une seule entité,
mantra de la recherche contemporaine. Il suffira pour s’en convaincre de
déchiffrer les titres d’ouvrages récents tels que La quête de l’unité (É. Klein,
M. Lachièze-Rey, 2000), La grande unification : vers une théorie des forces
fondamentales (A. Salam, 1991) ou Aux racines de l’univers : vers
l’unification de la connaissance scientifique (L. Laszlo, 1992).
Il se pourrait que notre erreur consiste finalement, à croire que nous
237
sommes dans l’erreur. Rigoureusement parlant, rien ne justifie que la réalité
soit une ou que les lois doivent l’être. Il n’y a peut-être rien derrière le mur
de Planck. L’idéal d’unification, la « GUT », et au-delà, la Théorie du Tout,
ne sont pas nécessairement inscrites au marbre du réel.
Guillaume d’Ockham (1285-1347)
Principales contributions :
- Commentaire des sentences (1317-1319)
- Petite somme de philosophie naturelle (1321)
- Somme de logique (1323)
- Exposition sur la physique d'Aristote (1324)
- Questions sur la physique (1324)
Concepts et idées-forces :
- Moine franciscain anglais spécialiste de logique, s’étant acquis les surnoms
de « Vénérable initiateur » (Venerabilis inceptor) et de « Docteur invincible
». Connu pour avoir ouvert la voie à l’empirisme anglais par sa critique de
l’abstraction métaphysique, ainsi qu’à la philosophie analytique
contemporaine, soucieuse de la validité des raisonnements.
- Terminisme. Chef de file de ce qui allait devenir le nominalisme (vocable
qui ne s’impose en réalité que dans le second tiers du XVe siècle), en porteà-faux avec les écoles scolastiques rivales, thomiste et scotiste. Le
terminisme procède à l’analyse logique du sens des termes ; il ne veut rien
voir dans les Universaux de la métaphysique que des conventions, des
représentations pratiques dénuées de toute réalité sensible ou substantielle.
Les catégories aristotéliciennes (substance, quantité, relatif, qualité,
action/passion) non plus que les entités non nécessaires (espace, temps) ne
sont des réalités en soi, à l’exclusion des corps. Si bien que leur recours,
pour être nécessaire en sémiologie, n’a aucune pertinence ontologique : on
ne peut légitimement déduire du concept à l’être. Cf. aussi Berkeley pour
qui nos idées sont des idées de choses sensibles particulières dont nous
usons de manière générale : l’usage est général ; l’idée est singulière.
- Divorce entre foi et raison, révélation et raison naturelle. Là où Thomas
d’Aquin subordonnait celle-ci bon soins de celle-là (image de la philosophie
238
servante de la théologie), prétend qu’elles n’ont aucun rapport – et donc
rien à se dire. La foi s’éprouve ; elle ne se prouve pas. Il n’y a donc pas de
démonstration possible de l’existence de Dieu. L’autorité de l’Église est en
retour sans efficace concernant l’investigation de la nature. Anticipe le
principe d’autonomie de la science ; et même la science proprement dite en
tant qu’elle ne s’affirme comme telle qu’ensuite de son affranchissement de
la tutelle religieuse.
- Rasoir d’Ockham. Dit également principe de simplicité, d’économie ou de
parcimonie ; un principe heuristique et méthodologique au cœur de la
science moderne et plus décisivement, de l’empirisme anglais dont il est une
pierre angulaire. Énonce qu’« il ne faut pas multiplier les entités sans
nécessité » (« entia non sunt multiplicanda praeter necessitatem »)
(Quaestiones et decisiones in quatuor libros Sententiarum cum centilogio
theologico, livre II, 1319). À pertinence et vraisemblance (ou poids
d'évidence) égale, les hypothèses suffisantes les plus simples (ou
parcimonieuses) doivent être privilégiées. Exclut ainsi la multiplication des
objets théoriques, forces, causes et démonstrations dans un système logique
explicatif.
- Historique de la formule. Elle n’est pas l’œuvre de Guillaume d’Ockham,
mais une revisitation d’un adage scolastique stipulant que « C'est en vain
que l'on fait avec plusieurs ce que l'on peut faire avec un petit nombre » («
Frustra fit per plura quod potest fieri per pauciora ») (cité dans Summa
totius logicae, 1323, I, 12). Cet adage est déduit de la remarque du Stagirite
sera laquelle Il vaut mieux prendre des principes moins nombreux et de
nombre limité, comme fait Empédocle » (Physique, I, 4, 188a17).
- Postérité de la formule. C’est à Étienne Bonnot de Condillac (1715 -1780)
que l’on doit d’avoir intronisé dans une note de son Essai sur l'origine des
connaissances humaines de 1746 (première partie, sect. V, § 5, note a) la
métaphore de « rasoir des nominaux ». Ernst Mach la réitère pour résumer
sa conception de la théorie optimale comme devant renfermer le plus grand
nombre de conséquences dans le plus petit espace possible (résonance
leibnizienne) : « Les savants doivent utiliser les concepts les plus simples
pour parvenir à leurs résultats et exclure tout ce qui ne peut être perçu par
les sens ». S’en inspire également le principe ou canon de Conwy Lloyd
Morgan (1852-1936) en éthologie (ou « science du caractère », ne
s’appliquant plus guère qu’à l’observation des conduites animales) : « Nous
239
ne devons en aucun cas interpréter une action comme relevant de l'exercice
de facultés de haut niveau, si celle-ci peut être interprétée comme relevant
de l'exercice de facultés de niveau inférieur » (An Introduction to
Comparative Psychology, 1903). Ce qui prend à contre-pied le principe de
charité de Davidson et Quine (« Parler d’objet », dans From a Logical Point
of View, 1980). Bertrand Russell la hisse pour sa gouverne au rang de
« maxime méthodologique suprême » de la philosophie (On the Nature of
Acquaintance, 1914). Le théorème de Bayes en constitue une formalisation
mathématique, qui attribue a priori la plus grande probabilité à l’hypothèse
la plus parcimonieuse.
- Les limites dudit principe se distribuent en trois catégories :
(1) Son caractère déclamatoire, abstrait. Le principe prescrit de faire le
départ entre les hypothèses simples et complexes sans ne livrer pour ce faire
aucun critère de démarcation. Laisse à l’appréciation du scientifique le soin
de décider ce que signifie la simplicité. Comment savoir, pour recourir à un
exemple de controverse encore d’actualité, si l’hypothèse de Dieu n’est pas
plus pertinente pour expliquer l’évolution (Dessein Intelligent) que les
mécanismes de la sélection sur fond de mutations aléatoires ?
(2) Sa nullité explicative. La théorie retenue ensuite de l’application du
principe de parcimonie permet de faire des prédictions, mais ne garantit en
rien l’adéquation de l’explication qui lui est liée à la réalité. Elle court
nécessairement le risque de prendre une corrélation pour un rapport de
causalité.
(3) Ses a priori « cosmologiques ». Au nom de quoi se ferait-il que
l’hypothèse la plus simple soit aussi la plus juste ? Pourquoi le chemin le
plus court serait-il nécessairement celui que la nature emprunte pour
accomplir ses œuvres ? N’est-on pas dupe d’un préjugé métaphysique ? Il y a
ici un parti pris tacite qui interdit de concevoir le rasoir d’Ockham comme
un simple outil méthodologique. Cet engagement « philosophique » peut
introduire un biais nuisible pour le développement des sciences. Le
transformisme de Lamarck était ainsi le modèle le plus économe pour
rendre compte de la transformation des espèces. Celui de Darwin était le
plus complexe, qui intégrait la lutte pour l’existence et réfutait la
transmission des caractères acquis au profit d’une variabilité individuelle
aléatoire. Or c’est à celui-ci, et non à celui-là que la communauté des
sciences a finalement donné quitus. On ne sera guère surpris quand de telles
240
conditions, un adversaire résolu de Guillaume d’Ockham tel que Walter de
Chatton ait édicté une norme heuristique aux antipodes de celle de son
contemporain : « Si trois choses ne sont pas suffisantes pour vérifier une
proposition affirmative sur des choses, une quatrième doit être ajoutée, et
ainsi de suite » (Lectura I d. 3, q. 1, a. 1).
- Introduit, en physique, la distinction entre le mouvement dynamique
procédant d’un agent et le mouvement cynétique résultant des interactions
entre des corps passifs.
Max Planck (1858-1947)
Principales contributions :
- Initiation à la physique
- Le Concept de causalité en physique
- Science et religion
- Autobiographie scientifique et derniers écrits (1948)
Concepts et idées-forces :
- Auteur d’une autobiographie. La science comme aventure, racontée du
point de vue du scientifique.
- Prix Nobel de physique en 1918, il n’en défend pas moins vision sans
illusion du progrès scientifique : « Une vérité nouvelle, en sciences, n’arrive
jamais à triompher en convainquant l’adversaire et en l’amenant à voir la
lumière, mais plutôt parce que finalement ses adversaires meurent et qu’une
nouvelle génération grandit, à qui cette vérité est familière »
(Autobiographie scientifique et derniers écrits). Rejette la conception
rationaliste et méthodique de scientifiques désintéressés confrontant
systématiquement leurs hypothèses aux faits, en quête de vérité. Voir, pour
exemples, J. Losee, Theories of scientific progress. An introduction, 2004).
- Introduit la notion de quantum d'énergie.
- Constante de Planck, postulat de Planck, loi de Planck, etc.
- Contribue par son œuvre à la révolution de la micro-physique en mettant
en lumière les lois de la physique (ou mécanique quantique). Voir cidessous :
241
 Point sur la mécanique quantique
Née des travaux de physiciens théoriciens tels que Max Planck, Feynman,
Einstein et Schrödinger durant le second tiers du XXe siècle, la mécanique
quantique remet en cause l’idée qu’un tel modèle puisse même être
représenté. L’architecture ultime de la matière, les particules subatomiques
– fermions (leptons, quarks), bosons de champ + antiparticules –, voient
leurs comportements décrits à la faveur d’un formalisme mathématique
rompant d’avec les équations de la physique relativiste, et plus encore
d’avec la physique newtonienne. Richard Feynman explique la modestie
requise de la part de ses théoriciens : « Je crois pouvoir affirmer que
personne ne comprend vraiment la physique quantique » (The Character of
Physical Law).
Propriétés fondamentales de la matière
Cette « incompréhension » (laquelle n’est pas rédhibitoire quant à la
« description » chère aux tenants de l’école instrumentaliste de la science)
met en relief le gouffre qui sépare le monde perçu, qui nous est familier, du
monde quantique sur lequel il repose. Leurs points de divergence
concernent notamment :
(1) la quantification d’un certain nombre d’observables qui ne peuvent
prendre leur valeur, en mécanique quantique, que dans un ensemble discret
de résultats, là où la mécanique classique permet un continu ;
(2) la dualité onde-particule fait que les notions d’onde et de particules
cessent d’être séparées pour constituer les deux aspects d’un phénomène
unique, exprimé mathématiquement par une fonction d’onde. Ainsi de la
lumière, analysable en onde ou en photons selon le contexte expérimental ;
(3) le principe (les relations) d'indétermination de Heisenberg rend
impossible de donner la mesure précise de la vitesse d’une particule en
même temps que celle de sa position. La perturbation irrémédiablement
induite par l’instrument de mesure fait que le degré de précision de l’une est
en fonction inverse de celui que l’on peut obtenir de l’autre (et vice versa) ;
242
(4) un même état quantique peut cumuler plusieurs valeurs pour une
même observable (spin, position, quantité de mouvement, etc.), et cela
simultanément en vertu du principe de superposition. Cette divergence du
phénomène quantique d’avec le phénomène commun est illustrée de façon
évocatrice par l’expérience de pensée du chat de Schrödinger ;
(5) la superposition d’état ne se conserve pas à notre échelle qui est celle
de l’observation nue, administrée par le principe du tiers exclu. Une «
réduction du paquet d’ondes » s’opère dès lors que le système quantique
interagit avec un instrument de mesure ou un observateur. L’observation
influe sur le système observé en déterminant les particules à prendre des
valeurs fixes, discrètes et non probabilistes. Un électron ne devient ainsi un
électron ayant une position déterminée que par le fait de l’observation. Que
l’existence d’une propriété ne constitue plus ainsi une propriété ontologique
de l’objet mesuré ou non, mais soit comptable de l’interaction de l’objet et
de l’appareil de mesure est de nature à remettre sérieusement en cause la
conception classique d’une réalité indépendante de l’observateur ;
(6) l’intrication quantique atteste que deux particules ayant interagi par
le passé continuent d’être en relation, quel que puissent être l’espace et le
temps qui les séparent. À telle enseigne que la détection d’une particule
serait responsable de la localisation complémentaire de sa partenaire. Ce
phénomène peut être interprété en direction de la non-localité de la réalité
quantique (abolition de l’espace-temps), de l’identité des particules ( : une
particule visible en deux endroits/moments, comme un objet dans un trou
de ver ; lien EPR = pont ER) ou de l’émission par l’une d’une onde qui
remonterait le temps afin d’informer l’autre à l’instant de la mesure (ce qui
entre en contradiction avec la relativité restreinte qui fixe une vitesse
limite, la constante c, à la propagation de l’information) ;
(7) citons enfin le caractère de contrafactualité quantique qui œuvre en
sorte que des événements possibles qui ne se sont pas produits rejaillissent
sur les résultats de l’expérience.
Y a-t-il une solution de continuité ?
Il en ressort que le monde de l’infiniment petit répond d’un cadre théorique
nettement distinct de celui applicable à notre environnement
macroscopique. Il y a bien loin, en apparence, de la métaphysique
243
quantique à la métaphysique classique. Les physiciens ont mis au jour un
univers subatomique qui ne prend sa forme déterminée spatiale et
temporelle que par l’observation (à rapprocher du criticisme kantien). Étant
acquis que celui-ci n’est que le prolongement de celui-là, force est
d’admettre que le phénomène comme apparaître procède effectivement de
cet univers étrange. La question est : comment passe-t-on d’une région à
l’autre ? d’une physique probabiliste à une physique déterministe ? Du
niveau le plus fondamental de la matière au niveau supérieur du
phénomène ? Comment, pour permuter les termes de l’interrogation de
Bachelard, « la structure peut-elle rejoindre la construction ? » (Étude de
l'évolution d'un problème de physique, 1927). Comment résoudre le
problème de la détermination par la mesure ? Comment, en somme, «
sauver les phénomènes » en rendant compte de leur émergence ?
Diverses interprétations ont proposées :
(1) La théorie d’Everett (ou théorie des états relatifs) est la plus riche de
conséquences, qui postule que l’ensemble des possibilités que tolère la
théorie quantique se réalise, actualisant autant de mondes et donc autant
d’observateurs n’ayant accès qu’au leur.
(2) Une interprétation « transactionnelle » (aussi dite théorie de «
l’absorbeur généralisé ») est avancée par John Cramer. Elle fait droit à la
possibilité pour une onde de confirmation de remonter le temps, afin
d’atteindre et d’informer sa source au moment de l’émission de l’onde
offerte. C’est alors la causalité qui est battue en brèche.
(3) Mais l’interprétation la plus souvent retenue est celle de Copenhague.
Elle établit que l’effondrement de la fonction d’onde serait un effet de
l’interaction du système quantique avec l’environnement (inclus
l’observateur, l’appareil de mesure, etc.). Une telle interaction provoque un
phénomène de décohérence qui réduit à néant la probabilité d’états
superposés. La raison pour laquelle la fonction d’onde évoluera vers l’état
déterminé plutôt qu’un autre n’est pourtant pas explicité. Nonobstant leurs
lacunes (la perfection n’est pas de ce monde), l’intérêt essentiel de ces
théories et de rendre possible de retrouver les phénomènes de la physique
classique sans rien admettre d’autres que les lois quantiques. De la
mécanique quantique à la physique macroscopique, une continuité peut
ainsi être rétablie.
244
La quête de l’unification
Les postulats de la mécanique quantique restent en revanche résolument
incompatibles avec ceux de la physique relativiste, propre à décrire les
phénomènes plus lourdement soumis à l’influence de la gravitation. Les
singularités physiques tiennent de l’une et de l’autre et motivent la
recherche active d’une théorie du tout qui unifie les quatre interactions
fondamentales, une théorie quantique de la gravitation (théorie des cordes,
théorie de la gravitation quantique à boucles, etc.) réconciliant ces deux
physiques, de la même manière que Newton appareillait sous de mêmes lois
les physiques des espaces célestes et du monde sublunaire. Le mot d’ordre «
sauver les phénomènes » reste on ne peut plus actuel.
À supposer que la théorie quantique (ou la structure seulement de cette
théorie, à part ses entités) décrive effectivement la trame de la réalité pour
nous phénoménale, alors une telle réalité ne peut être décrite à l’exclusion
de l’observateur. Dans le sillage de Michel Bitbol (L’Aveuglante proximité
du réel), les interprètes récents de la mécanique quantique insistent sur le
fait que le physicien n’est pas dans un rapport de face-à-face à la réalité
physique ; il est partie prenante de la réalité physique, juge et partie de la
réalité physique. Le biais d’immersion que l’on voulait réserver aux sciences
humaines doit s’élargir aux sciences de la nature. Le spectateur est
également acteur de la pièce qu’il « interprète », dans les deux sens du terme
(« analyser », « pro-duire ») : il est un « spectacteur ». Le mantra de
l’objectivité – ce Graal mythique de l’épistémologie naïve –, le cède à
l’objectivation. L’on ne peut plus considérer que l’homme est poussière, et
même poussière d’étoiles (l’ensemble des atomes qui nous composent sont
nés dans les étoiles), sans prendre en compte le fait que ces poussières
proviennent aussi de nous.
La science s’orientalise
Cette inflexion que la physique quantique imprime à notre représentation
du monde prête à des considérations originales en termes d’histoire des
sciences.
245
Les civilisations babylonienne, égyptienne, grecque, chinoise, hindoue,
arabe, ont tour à tour été les principaux foyers du développement des
sciences. La Renaissance a vu l’Europe revenir au premier plan de la scène
scientifique, au point que les fondements culturels des sciences proprement
dites en sont venus à se confondre avec ceux de l’Occident. Science dont le
présupposé était pourtant l’universalité, de même que les droits qui naîtront
à sa suite sous les auspices d’une autre forme de révolution. Tout change
avec l’entrée dans l’ère industrielle. Le séisme provoqué dans la première
moitié du XXe siècle par la physique relativiste et par la mécanique
quantique ébranle les convictions bien arrêtées scientifiques pour tout ce
qui a trait aux « lois de la nature ».
L’épistémologie se fonde comme discipline. Relativisme, constructivisme,
sociologie des sciences douchent l’ambition d’atteindre une vérité certaine.
La certitude, au XXIe siècle, le cède aux relations d’indétermination ; les
probabilités ont barre sur le déterminisme dans le domaine des sciences
physiques comme dans les sciences humaines ; la question du possible efface
celle du réel ; la notion d’équilibre (métastable) relaye la dynamique
(invention leibnizienne) ; la relation et le contexte hissent la complexité en
paradigme là où était l’objet déterminé des sciences ; l’observateur et
l’observé ne sont plus à distance ; la question de la finalité est évacuée au
profit de celle de processus, de mécanisme ; l’idée de contrôle s’érode au
profit de celle de participation. La science contemporaine se déleste des
logiques dualistes et des dichotomies traditionnelles. Elle se défait d’une
forme de rationalité.
Il ne faut pas être grand clerc pour apprécier les conséquences
philosophiques de ce glissement. Une telle épistémologie rompt peu à peu
d’avec ses racines cartésiennes pour retentir de consonances orientalistes.
Bouddhisme, hindouisme et taoïsme fournissent les nouveaux éléments de
langage de la science contemporaine.
À ses risques et périls
L’un des pères fondateurs de la mécanique quantique, Werner K.
246
Heisenberg, relevait déjà la connivence qu’entretenait avec l’imaginaire de
cette nouvelle théorie physique les sagesses extrême-orientales. Bien
d’autres lui emboîtèrent le pas, usant et abusant de l’analogie. Sans doute
est-elle passablement utile pour surmonter d’anciens schémas de pensée
rigides et mécanistes, inadaptés aux nouveaux paysages que nous
découvrent les mathématiques. Mais cet orientalisme, au-delà de son
renfort heuristique, est loin de faire l’unanimité. Et le conservatisme
majoritaire de la communauté des sciences n’est pas lui-même sans
justification. Il en va bien souvent de la capacité critique des hommes de
science à dissuader une tentative de récupération des théories par un clergé
dissimulé sous le cache-sexe du physicien. La frontière entre science et
religion menace de s’effondrer dans ce mouvement de reconduction de la
physique à la métaphysique. C’est donc la spécificité de la science au regard
des autres productions de l’esprit, peut-être même sa supériorité – réelle ou
usurpée –, qui se trouvent mises en cause.
Platon (427-348 av. J.-C.)
Principales contributions :
[Chronologie reprise et adaptée de Luc Brisson]
- Période de jeunesse (-399/-390) : Hippias mineur (sur le faux), Hippias
majeur (Grand Hippias) (sur le beau), Alcibiade majeur (Premier Alcibiade)
(sur l'Homme), Ion (sur la poésie), Lachès (sur le courage), Charmide (sur la
sagesse morale), Protagoras (sur les sophistes), Euthyphron (sur la piété).
Proximité supposée avec la pensée de Socrate.
- Période de transition (-390/-385 ?) : Gorgias (sur la rhétorique), Ménon
(sur la vertu), Apologie de Socrate, Criton (sur le devoir), Euthydème (sur
l'éristique), Lysis (sur l'amitié), Ménexène (sur l'oraison funèbre), Cratyle
(sur le langage) ; République I (Thrasymaque ?) (sur la justice).
- Période de maturité (-385/-370). Phédon (sur l'âme), Le Banquet (sur
l'amour), La République (sur le Juste), Phèdre (sur le Beau). Émergence des
notions platoniciennes d’Idées, de réminiscence et de philosophe-roi.
- Période d'auto-critique (-370/-358) : Théétète (sur la science), Parménide
(sur les Idées), Le Sophiste (sur l'Être), Le Politique (sur la royauté). Refonte
247
avec le Parménide de l’ontologie platonicienne. Le Sophiste conçoit tout ce
qui est comme résultant d’une communication des genres.
- Période de vieillesse (-358/-346) : Timée (sur la Nature), Critias (sur
l'Atlantide), Philèbe (sur le plaisir), Les Lois (sur la législation), Épinomis
(sur la théologie astrale). « Trois considérations ont amené Platon à modifier
ses vues. D'une part, une nouvelle théorie de l'âme, selon laquelle celle-ci
n'est plus regardée comme l'ennemie du corps, mais comme son principe
moteur. D'autre part, la reconnaissance de la régularité et de l'ordre que
manifestent les mouvements des planètes. Enfin le sentiment que l'homme
a sa place marquée dans le monde conçu maintenant comme un ordre, et
qu'il doit tendre, dès lors, non plus à se séparer du monde, mais à imiter le
bel ordre cosmique » (André-Jean Festugière, Études de philosophie
grecque, 1971).
- Les Lettres, dont les VIIe (-354) et VIIIe (-353) sont regardées comme
authentiques.
- L'enseignement oral ou les doctrines « non écrites » (agrapha dogmata) (350 ?), dont fait partie la leçon dite « Sur le Bien ». Cf. les travaux de l’école
de Tübingen.
Concepts et idées-forces :
- Période de révolution médiatique qui voit la transition de l’oralité
(Socrate) à l’écriture (Platon). Pour la position de ce dernier, cf. Phèdre et la
Lettre VII. Selon Jack Goody, entrée dans un nouveau mode de pensée : la «
raison graphique ». Plus de rigueur dans la codification (d’où également
l’essor de la logique et des mathématiques, centrale aux yeux d’un
philosophe influencé par Pythagore), extension ou externalisation de la
mémoire et possibilité de circulation des idées dans l’espace et dans le
temps. L’écrit pourrait avoir été déterminant dans l’essor de la science de la
philosophie grecque. À relativiser toutefois, contra Éric Havelock. Les
Égyptiens et les Babyloniens aussi disposaient de l’écriture.
- Invente le terme « philosophe » (vs. le « philodoxe »), bien qu’on attribue
parfois le mérite à Pythagore. Nouvelle manière de questionner le monde,
de rechercher la vérité en élaborant des méthodes d’argumentation
(parricide des « maîtres de vérité ») étayées par des preuves. Influence des
pratiques juridiques. Elengkos, que l’on traduit par « réfutation » et
procédure juridique. Le mot grec aitia signifie à la fois « cause » et «
248
coupable ». Sciences et philosophie ne sont pas séparées, non plus que les
questions épistémologiques et les questions morales.
- Le devenir sensible. Le phénomène antique se définit selon Jean-Paul
Dumont comme « un produit mixte né de la rencontre de l'effluence du
sens avec celle du sensible » (Le Scepticisme et le phénomène). Il est
marqué du sceau du double mobilisme : celui de la chose et de la sensibilité.
Ainsi Socrate, dans le dialogue du Théétète, rend à Protagoras ce qui lui
appartient, la théorie de l’ anthropomètron que semblait indiquer une
première définition par le jeune mathématicien de la science comme
« sensation ». Platon ne nie en rien que le phénomène soit en effet en proie
à la labilité des sens et du devenir ; il exclut en revanche que le phénomène
puisse être objet de science, et constitue le tout de la réalité. Le mobilisme
reste valable en ce qui concerne le lieu sensible, il ne l’est pas dans l’absolu.
Or l’absolu est du domaine de la dialectique, la seule science authentique.
- L’hypothèse des idées. Le continuum de sensations dont est peint
l’apparaître, son instabilité et sa précarité rendraient la science inopérante,
s’il n’existait un ordre fixe au-delà des choses sensibles, une méta-physique
qui fixe des repères. En butte à la menace relativiste et nihiliste dans le
domaine épistémologique aussi bien que moral et politique ; face aux
sceptiques et aux sophistes, Platon fait l’hypothèse de formes intelligibles
accessibles à l’esprit. L’être lui-même, au-delà du phénomène, n’est pas
voué à demeurer caché (adelon, pour reconduire le mot qu’aimait à citer
Héraclite, dit également l’ « obscur » : « Physis kryptesthai philei », « La
nature aime à se cacher »). C’est en partant de l’étonnement produit par la
diversité et les incohérences de la multiplicité sensible que le philosophe,
en s’abstrayant de ce sensible, pourra tourner son arme en direction des
formes capables de l’expliquer et d’orienter l’action. Il faut fermer les yeux
sur le sensible pour enfin voir avec les yeux de l’esprit. Tel Tirésias rendu
aveugle par Athéna déesse de la sagesse, il s’agit de s’affranchir de la lumière
du jour pour devenir clairvoyant. Encore que les yeux nous soient donnés
pour observer les astres, et préparer à cette contemplation.
- La réminiscence. La versatilité du phénomène met la science en échec en
cela qu’elle n’offre à l’expérience que des objets relatifs et périssables.
L’opinion seule peut s’appliquer aux phénomènes, à ce qui s’offre par le
truchement des sens. Or l’opinion, tenant le milieu entre l’erreur et la
vérité (cf. les degrés de la connaissance, l’analogie de la ligne), se laisse
249
contaminer par l’inconstance de son objet. Le risque épistémologique est
reporté dans le champ des valeurs qui deviennent relatives sous l’empire des
sophistes (cf. Gorgias). Platon veut croire que la science ni la morale ne sont
démocratiques ; elles ne sont pas affaires de goût et de couleur. Un
philosophe idéaliste ne peut s’en tenir au seul spectacle de l’apparaître sans
le réduire à un paraître interrogé en direction de son principe. C’est
paradoxalement le sensible lui-même qui pointe ce dont il est l’image ou ce
à quoi il participe (Phédon), prête à la dialectique ou sert d’amorce à la
réminiscence, de même que l’ombre de la caverne fait signe en direction de
l’objet dont elle est l’ombre, projetée par la lumière ; cette chose elle-même
n’étant que la copie sensible d’une réalité suprasensible sous l’éclairage du
bien (République, VII).
- Rapports entre le sensible et intelligible. S’il est un fait que l’« on ne se
baigne jamais deux fois dans le même fleuve », comme le formule la thèse
du mobilisme universel, il reste néanmoins possible d’envisager qu’un
principe en retrait de l’immanence sensible offre à l’esprit des objets
immuables, intelligibles et stables qui accomplissent l’unité de la diversité et
rendent raison des apparences contradictoires. La position d’un lieu
intelligible, foyer des formes inaltérables rend conciliables le devenir
perpétuel ou mobilisme universel hérité de Cratyle et l’être stable de
Parménide (« une seule et même chose sont être et penser »). Conciliation
ou réconciliation de l’eau et du feu à la faveur de ce que Platon présente
plus sous un mode conjectural que doctrinal : l’hypothèse des idées, jointe à
une conception de leur rapport avec les phénomènes (le modèle
paradigmatique ou participatif) et entre elles-mêmes (la communication des
genres dans le Sophiste).
- Le terme chorismos (« séparation ») est d’Aristote ; mais il semble
applicable à la doctrine platonicienne (cf. Timée ; aspect mis en relief par
Nietzsche), quoiqu’en pense Gaël Fine qui fait état de « différence » dans le
but d’affaiblir cette dichotomie. On ne peut parler non plus de selfprédication (Vlastos) au sens des philosophes analytiques : ce que l’idée est,
le phénomène l’a de manière imparfaite et transitoire. Tout phénomène
devient à cette enseigne une manifestation partielle, partiale et mélangée
des formes offertes à la contemplation (cf. Phèdre).
- La dialectique : « Il n'y a pas d'autre recherche que la dialectique qui
n'entreprenne de saisir méthodiquement, à propos de tout, l'essence de
250
chaque chose » (République, VII). Évolution de la méthode au fil des
dialogues. Différentes figures recensées par Monique Dixsaut
(Métamorphoses de la dialectique dans les dialogues de Platon, 2002) :
méthode des conséquences ; méthode de division (dihairesis) appliquée dans
le Sophiste et le Politique, etc. Genre du sophiste : l’être, le même, l’autre, le
mouvement et le repos. Peiras et apeiron : le limitant et l’illimité.
- Maïeutique négative (purgation de la Doxa) et positive (illumination,
enfantement de l’aletheia). Les dialogues structurés comme des épreuves
initiatiques. Modèle des mystères d’Eleusis. Influence de l’orphisme et du
pythagorisme. Socrate et le culte du Silène dans le Banquet.
- La science ne s’oppose pas nécessairement à la mythologie. La démarche
dialectique fondée sur l’articulation des Formes ne peut atteindre la
question des origines. Il faut donc recourir à une forme de discours qui
« ressemble » à cette origine, à la fois au-delà et fondateur de la rationalité,
transcendant l’espace et le temps : le mythe qui, apparenté au lieu sensible,
ne peut être que « vraisemblable », et se doit d’être interprété. Exemple
avec la cosmogonie du Timée.
- L’ordre cosmique et l’intelligibilité du monde sont admis à la suite de
Pythagore. Il se laisse déchiffrer par les mathématiques, qui permettent de
retrouver les structures rationnelles ayant administré l’ordonnancement du
corps du monde. Définit le programme de recherche de toute la science
occidentale. Le Démiurge du Timée ordonne effectivement en imposant à la
chôra les proportions géométriques, les yeux rivés sur son modèle
intelligible parfait. Les éléments ultimes sont les formes parfaites composées
de triangles qui se combinent pour façonner les polyèdres réguliers (feu =
tétraèdre ; air = octaèdre, etc.). Le cercle est la figure permettant
d’embrasser l’ensemble des polyèdres (influencera Kepler) : le corps du
monde est donc sphérique, et l’âme du monde se meut en mouvement
circulaire parfait. L’activité de l’intellect imite ce mouvement circulaire
parfait, de même que les astres qui reproduisent dans le champ du sensible
les mouvements des idées tandis qu’ils les contemplent (cf. Phèdre). Même
les planètes – les « astres errants » – dessinent en vérité des trajectoires
analysables en termes de mouvement circulaires et uniformes. Inspire le
système armillaire de Ptolémée ainsi que ses épicycles. Dans l’âme humaine
comme dans le cosmos tout entier, il arrive néanmoins que le Cercle de
251
l’Autre adopte un sens de rotation inverse à celui du Cercle du Même (cf.
Politique) : là est la cause de l’erreur et de la dégénérescence.
- L’ordre cosmique n’exclut pas le hasard. Car la Nécessité ne se laisse pas
persuader entièrement. Si la chôra, le réceptacle ou la nourrice reçoit les
formes intelligibles, elle porte en elle un principe de mouvement (la
nourrice berce son enfant), elle est le siège d’une « agitation permanente »,
d’un dynamisme turbulent, d’une myriade de micro-convulsions, et s’avère
impuissante à comprendre la totalité de l’Intelligence ; de là la « cause
errante » du Timée 48a. La matière résultante de cette embrassade du
limitant et de l’illimité en ressort « emplie par des forces qui n'étaient ni
uniformes ni équilibrées, ne se trouve en équilibre sous aucun rapport, mais
secouée irrégulièrement dans tous les sens ; elle est ébranlée par ces forces
et, en même temps, le mouvement quelle en reçoit, elle le leur restitue à
son tour sous la forme de secousses nouvelles » (Timée, 52e). Platon, selon
Duhem, soutenait la thèse selon laquelle « Tout mouvement produit au sein
de l'Univers […] est un mouvement tourbillonnaire » (Le système du
monde). Le lieu sensible et donc toujours en proie à une part de hasard
(thème du tirage au sort dans la démocratie athénienne et dans
l’eschatologie de la République) ; hasard que le philosophe peut relativiser.
Il est soumis au temps et au devenir. Tout ce qui naît est sujet à la
corruption, à la dégradation (thème de l’anacyclose, de la Grande année
cosmique, du chiffre nuptial, etc.) l’avancée décisive est néanmoins que le
monde est animé dès l’origine par une intelligence dont le Chaos primordial
des précédentes cosmogonies était encore privé.
Henri Poincaré (1854-1912)
Principales contributions :
- La Science et l'Hypothèse (1902)
- La Valeur de la Science (1905)
Concepts et idées-forces :
- Intuitionnisme mathématique contra Hume, Mill (conception empiriste,
synthétique a posteriori), Kant (synthétique a priori). Il y aurait une
intuition mathématique sui generis, concernant par exemple les notions de
groupe, d'espace, etc.
252
- L’approche exclusivement logique de la philosophie des sciences défendue
notamment par le Cercle de Vienne ne permet pas de rendre compte de son
aspect créatif.
- Nature conventionnelle des hypothèses géométriques. S'il y a plusieurs
géométries (Riemann, Lobatchevski), c'est que leurs postulats sont des
conventions. Acte de naissance du conventionnalisme : les hypothèses ne
dérivent pas de l'expérience (cf. Mill) et ne sont pas analytiques a priori
(logique, cf. Leibnitz) ni synthétiques a priori (Kant). Le cadre géométrique
des théories physiques procède ainsi d’une convention adoptée pour des
raisons de « commodité ».
- Si les grands principes sont des conventions, en revanche les lois
théoriques sont de l'ordre de l'empirique ; ce que contredira Duhem en
démontrant que toutes les propositions forment système.
- Souligne les limites de l’empirisme. Une collection de faits ne suffit pas à
faire une théorie. La sélection de ces faits suppose déjà une hypothèse de
travail tout comme l’explication et la prédiction des phénomènes.
- Les géométries non-euclidiennes permettent de résoudre des problèmes ;
elles sont utiles. Réhabilitation de la spéculation contra Auguste Comte.
- Principe de relativité. Néanmoins, préservation de l’éther contra Einstein.
- Dépendance extrême conditions initiales (ultérieurement connu sous le
nom de « théorie du chaos » ; cf. Laurentz), dans le cadre du problème des
trois corps. Cf. à ce sujet, l’opposition entre Wiener et Von Neumann.
Karl Popper (1902-1994)
Principales contributions :
- Logique de la découverte scientifique (1934 ; angl. 1959 ; fr. 1973)
- Conjectures et Réfutations (1963)
- La connaissance objective (1972)
- Le Réalisme et la science (1982)
Concepts et idées-forces :
- Critère de réfutabilité (maladroitement traduit « falsifiabilité »). Propriété
des énoncés permettant de faire le départ entre la science et la non-science
(ou pseudoscience) ; entre, d’une part, la théorie de la relativité et d’autre
part, le marxisme ou la psychanalyse (ce qui n’est pas dire que, pour autant
253
qu’elles soient irréfutables, non scientifiques, ces théories soient fausses). La
précision et la clarté des propositions qui les rendent éligibles à la réfutation
est également ce qui distingue une proposition scientifique de l’observation
du sens commun.
- Est scientifique un énoncé tel qu’il existe au moins un test susceptible de
l’invalider, aussi longtemps qu’il n’a pas essuyé de réfutation. Contra le
positivisme logique, le propre de la science n’est pas d’être certaine ou
confirmée, mais d’être réfutable. La connaissance scientifique, en fait de
consister en une série de fait acquis, se présente comme un système de
réponses provisoires à des problèmes posés.
- Réhabilitation de la métaphysique discréditée par les positivistes. La
construction des hypothèses ne procède pas de l’induction pure ; et la
métaphysique est un domaine parmi tant d’autres en état d’inspirer des
conjectures fécondes (pourvu qu’on les soumette ensuite à l’épreuve
expérimentale). À cheval donné, on ne regarde pas les dents. «
L’imagination, disait Einstein, est plus importante que le savoir ». Voir
également notice Bachelard.
- Si la fabrication des hypothèses peut être libre et s’affranchir de
l’induction, la méthode scientifique conserve toutefois pour Popper une
rationalité propre, une rigueur et une solidité qui réprouve l’anarchisme
épistémologique d’un Feyerabend.
- C’est pour tenter de sauver la méthode inductive que le positivisme
logique, par le biais de Carnap, intronise la notion de probabilité dans
l’analyse des sciences. Un échec relatif dans la mesure où certains énoncés
dorénavant admis ont, du point de vue logique, une probabilité nulle d’être
avérés.
- Remise en cause de l’idée de preuve en matière scientifique. Contra
Carnap et les néopositiviste, l’idée de vérification et de preuve empirique
sont des chimères dangereuses.
- La science est investie d’une capacité à réfuter des hypothèses ; elle
n’apporte aucune preuve définitive de la validité d’une théorie. La science
ne nous dit pas si oui ou non, une théorie est vraie, seulement si elle est
fausse. La science progresse en réfutant ; pour paraphraser Marx, la science
progresse par le mauvais côté (cf. Bachelard encore pour qui elle est
l’histoire de la ratification des erreurs passées).
254
- Reprise de l’argumentation de Hume. Aussi élevé soit-il, le nombre des
observations conformes aux prédictions de la théorie est logiquement
insuffisant pour confirmer une proposition à prétention universelle telle
qu’une loi ou un principe. Chacune de ses instanciations a valeur de
corroboration de la théorie. Celle-ci est en sursis, inexorablement
conjecturale, incertaine, provisoire, appelée à être dépassée. Il suffit en
revanche d’une seule observation contradictoire pour rejeter définitivement
une proposition. Dissymétrie logique.
- L’hypothèse la plus originale, la plus risquée, la moins triviale est
également la plus scientifiquement intéressante.
- Kuhn contredit Popper sur l’idée que les scientifiques s’adonnent à la
réfutation quand l’essentiel de leur pratique consiste à essayer de confirmer
leur théorie. Le moteur de la science ? La volonté d’avoir raison (Pascal
Nouvel, L’art d’aimer la science).
- Lakatos et Feyerabend réinvestissent cette objection : il n’est pas de
paradigme ou de modèle scientifique pur de contradictions. On ne les
abandonne pas à si peu de frais.
- Épistémologie évolutionniste. La science procède par essais et erreurs. Les
hypothèses sont proposées de manière libre et ne survivent que celles qui
paraissent les plus adaptées à décrire la réalité. Transposition
épistémologique de la théorie darwinienne de la sélection naturelle.
- C’est alors paradoxalement de Popper que se réclament les contradicteurs
américains de la théorie de l’évolution, créationnistes ou partisans de
l’intelligent design (ID ; ex. M. Behe, W. Dembski). Cf. les « procès du singe
». La théorie de la sélection ne laisse effectivement pas pris à la réfutation. À
quoi l’on pourrait objecter que ce n’est pas davantage le cas de ces
prétendues alternatives. Le canular du « pastafarianisme » de Bobby
Henderson prend à partie cette revendication d’équivalence.
- Versimilitude (ou vérisimilitude). Option réaliste (vs. instrumentaliste).
Les théories visent la réalité sans pour autant l’atteindre. Elles tendent vers
elle de manière approximative et sans cesse plus précise.
- Hypothèses fondamentales vs. hypothèses auxiliaires. Typologie reprise
par Duhem (dans le domaine de la physique) et Quine (au regard de
l’ensemble de nos connaissances), au fondement du holisme
épistémologique. Deviennent respectivement, dans l’épistémologie que
255
développe Lakatos, le « noyau dur » et la « ceinture de protection » des
programmes de recherche scientifique (PRS).
- L’essor du réfutationnisme de Popper comme de l’épistémologie historique
de Bachelard se comprend historiquement à la lumière de deux grandes
découvertes du début du XXe siècle : l’invention des quanta en 1900, la
vérification en 1919 de la théorie de la relativité générale. Bouleversement
radical de la macro et de la micro-physique. Le progrès scientifique ne peut
plus être regardé comme procédant d’une accumulation de savoirs.
Introduit de la disruptivité dans le devenir des sciences. Les théories
doivent désormais être comprises en tant que descriptions approximative et
provisoires d’une réalité incessamment fuyante. Ce qui n’est pas dire que
pour Popper ou pour Bachelard, la science ne poursuive pas l’objectif de
rendre compte de la réalité, contra les épistémologies constructivistes, le
relativisme scientifique et l’instrumentalisme de Duhem.
Claude Ptolémée (90-c.168)
Principales contributions :
- Almageste (c.140)
- Géographie (c.150)
- La Tétrabible (IIe siècle)
Concepts et idées-forces :
- Astronome et astrologue grec alexandrin. Fut avec Aristote, via la
traduction, le commentaire, la transmission de ses ouvrages par les Arabes
et par les Byzantins, l’un des principaux artisans de la conception qu’avait
du monde le Moyen Âge chrétien jusqu’à la fin de la Renaissance.
- Almageste. Al Majesti, reprise phonétique arabe du mot grec mégistos, «
très grand ». Livre un épitomé des savoirs les plus avancés de l’Antiquité en
matière d’astronomie, de géométrie et de mathématiques. Développe une
théorie des épicycles et des tables astronomiques inspirées des travaux
d’Hipparque en soutien à une représentation géocentrique du monde,
laquelle fera autorité jusqu’à ce que sonne le glas de la révolution
copernico-galiléenne. Ce n’est qu’aux alentours de 1750 que le pape Benoît
XIV proclame son abandon.
256
- Notons que Ptolémée ne faisait pas sienne la théorie de l’inscription des
mal-nommés « corps errant » (planètes) dans des sphères de cristal. Le
milieu supralunaire est homogène, sorte de vide avant la lettre : « Les astres
nagent dans un fluide parfait qui n’oppose aucune résistance à leurs
mouvements » (Almageste, XIII, 12).
- Géographie. Synthèse des connaissances géographiques du monde grécoromain. Huit tomes, le premier se consacrant considérations d’ordre
méthodologique ; le dernier exposant les projections géographiques
élaborées à partir des informations classées dans les six précédents. Le livre
fait époque et devient rapidement le vade-mecum de tous les
expéditionnaires persuadés de ne faire à chaque découverte que confirmer
les travaux de Ptolémée.
- Tétrabible. Les « quatre livres », littéralement. Est à l’astrologie ce que
l’Almageste est à l’astronomie, deux arts ou discipline que Ptolémée sépare
rigoureusement. L’Almageste se désintéresse absolument de l’influence des
astres dans la sphère sublunaire. Le ciel astronomique diffère par ailleurs du
ciel astrologique. Ptolémée pratique préférentiellement une astrologie
sidérale et planétaires plutôt que zodiacale. On ne connaissait alors que sept
orbes célestes, en incluant la lune et le soleil ; Uranus, Neptune et Pluton ne
pouvaient être détecté sans l’aide d’un instrument optique approprié. De
moindre retentissement que ce dernier ouvrage, la Tétrabible n’en est pas
moins une référence majeure de l’astrologie antique et médiévale.
Hilary Putnam (1926-20XX)
Principales contributions :
- Raison, Vérité et Histoire (1981)
- Représentation et Réalité (1988)
- Fait/Valeur : la fin d'un dogme (2002)
Concepts et idées-forces :
- Critique de la dichotomie faits/valeurs.
- Critique de la dichotomie énoncés protocolaires/analytiques.
- Concepts éthiques épais (thick ethical concepts), qui mêlent fonctions
descriptive et prescriptive.
- Cerveau dans une cuve (Brain in a vat).
257
 Point sur l’expérience de pensée
La science procède de l’expérience ; beaucoup s’en faut qu’elle s’y arrête.
Pas de science sans possibilité d’induire des lois abstraites de la répétition
des phénomènes. Pas de répétition des phénomènes sans hypothèse de
sélection, établissant des rapports de similitude entre une pluralité
d’observations toujours distinctes et singulières. Pas de science sans
concepts ; et nul n’a jamais vu de concepts à l’état sauvage. Donc pas de
science sans abstraction. Si l’énoncé des théories implique ce moment de
rationalisation, il est en marge de celle-ci une autre forme de recours à la
spéculation beaucoup plus litigieuse : l’expérience de pensée. L’expérience
de pensée (en anglais « thought experiment », en allemand «
Gedankenexperiment »), peut être celle d’une « situation spéciale » qui ne se
rencontre pas dans la « réalité ». L’idée rectrice consiste à estimer en
l’absence de base empirique les conséquences de possibilité contrefactuelles.
À l’instar de la science qui, dans un schéma popperien, s’appuie sur une
méthode hypothético-déductive (et non plus inductive, comme chez les
empiristes purs) pour mettre en branle une démarche de construction des
connaissances, l’expérience de pensée a pour finalité de répondre à un
questionnement de type conditionnel : « si… alors ». Mais à la différence de
ce que le protocole serait en droit d’attendre de l’expérimentateur – soit la
confrontation de l’hypothèse aux données objectives de la réalité (si
l’expression a quelque pertinence) –, l’expérience de pensée n’a affaire qu’à
la seule puissance de l’imagination humaine.
Trois moments discursifs peuvent être distingués qui forment la matrice de
toute simulation : (1) l’énonciation de l’hypothèse à explorer ; (2) la
description de son contexte de validation (constantes, variables) ; (3) le récit
du test proprement dit. La notion de « test » est à considérer selon son
acception épistémologique (et juridique) d’ « épreuve », de « mise en
examen ». Au terme de celle-ci tombe un « verdict » portant sur la validité
de cette hypothèse, sur son « affranchissement ». L’expérience de pensée
doit également rendre des comptes. Ce n’est donc pas le fait qu’elle se
dispense de tout passage par l’étape de la vérification qui la rend singulière
(et censément problématique) : elle ne s’en dispense pas, mais – comme son
258
nom l’indique – que cette vérification a lieu dans la pensée.
Une abstraction mettant en scène des abstractions, une abstraction de
second degré ; sans doute faut-il en passer par cet expédient pour pallier les
contraintes de la science expérimentale concrète. – Ou l’impuissance qui est
la nôtre établir les prérequis (éthiques, techniques, etc.) d’un test en
conditions de laboratoire. Le caractère spéculatif de ces outils de pensée qui
menace de contaminer leurs conclusions est en ce sens « racheté » par leur
capacité à transcender les obstacles à l’expérimentation conventionnelle. Le
philosophe des sciences James Robert Brown n’en dit pas moins lorsqu’il les
définit au titre de
« procédés de l'imagination qui servent à examiner la nature des
choses. On peut les visualiser, elles impliquent des manipulations
mentales, elles ne découlent pas de calculs fondés sur la théorie, elles
sont souvent – mais pas toujours – impossibles à mettre en œuvre
sous forme de véritables expériences, soit que la technologie
nécessaire n'existe pas, soit qu'elles soient simplement par principe
impossibles » (Thought Experiments in Philosophy, Science, and the
Arts, 2012).
L’histoire des sciences et de la philosophie regorge de ces « fictions utiles »
s’appliquant non seulement à des situations envisageables dans le monde qui
est le nôtre, qu’à d’autres plus conjecturales, voire fondamentalement
incompatibles avec ce que nous savons des lois de la nature. Qu’elles soient
possibles logiquement suffit à les rendre pensables et exploitables
scientifiquement.
Exemples d’expériences de pensée
Quelques exemples bien choisis valent mieux qu’un long discours. C’est
autant à la science qu’à la philosophie que nous empruntons les nôtres, pour
cette raison d’abord que le divorce de la philosophie d’avec la science reste
relativement récent (datons-la du ministère de Victor Cousin et du régime
de la bifurcation) ; ensuite parce que la science n’a jamais arrêté de
philosopher, quoiqu’elle en ait, quoi qu’Heidegger en pense, sans pour
259
autant en assumer les conséquences. (Ce qui se conçoit jusqu’à un certain
point : qu’adviendrait-il sinon de son autonomie ? De son rapport privilégié
à la réalité ? De sa prétention à la « neutralité axiologique » ?) Nous
négligeons ici les expériences à portée politique, morale ou esthétique pour
concentrer notre propos sur celles concernant plus directement
l’épistémologie et la philosophie de la connaissance. Évoquons donc, par
ordre chronologique :
−
−
−
−
−
−
−
−
−
−
−
−
−
−
−
−
−
−
−
Les paradoxes de Zénon (Zénon d'Élée, Ve siècle avant J.-C.)
Le bateau de Galilée (Galileo Galilei, 1632 ; voir notice)
Le malin génie et le Dieu trompeur (Descartes, 1641 ; voir notice)
Le problème de Molyneux (William Molyneux, 1688)
Le bateau de Thésée (Gottfried Wilhelm Leibniz, 1705)
Le seau de Newton (Isaac Newton, 1687 ; voir notice)
Le canon de Newton (Isaac Newton, 1728 ; voir notice)
Le démon ou génie de Laplace (Pierre-Simon de Laplace, 1814 ;
voir notice)
Le démon de Maxwell (James Clerk Maxwell, 1871)
L'ascenseur d'Einstein (Albert Einstein, 1908 ; voir notice)
Le paradoxe des jumeaux (Paul Langevin, 1911)
Le chat de Schrödinger (Erwin Schrödinger, 1935)
Le paradoxe EPR (Albert Einstein, Boris Podolsky et Nathan
Rosen, 1935)
Le paradoxe de Newcomb (Simon Newcomb, 1974)
Être une chauve-souris ? (Thomas Nagel, 1974)
La chambre chinoise (John Searle, 1980)
Le suicide quantique (Hans Moravec, Bruno Marshall, 1980)
Le cerveau dans une cuve (Hilary Putnam, 1981)
Le spectre inversé (Sydney Shoemaker, 1982)
Fictions et modélisations
L’expérience de pensée peut ne pas être formulée explicitement, produite
de manière intentionnelle ou signifiée comme telle. Il n’est pas nécessaire,
pour en user de manière appropriée, d’avoir thématisé cet outil heuristique.
Nombres d’auteurs y font appel sans même s’en rendre compte.
260
Principalement, sous ces deux formes omniprésentes que sont
respectivement (1) la fiction littéraire et (2) la modélisation mathématique.
(1) Le genre de la science-fiction (terme importé du faux-ami anglais «
science-fiction », qu’il eût été plus avisé de rendre par « fiction scientifique
») est représentatif de la première catégorie. Et plus spécifiquement, l’un de
ses sous-genre appelé « hard science-fiction », abrégé « hard science ».
On ne saurait minimiser l’impact culturel qu’eurent des classiques comme
20 000 lieues sous les mers, de Jules Verne, ou le (plus) célèbre album des
aventures de Tintin, le reporter explorateur, On a marché sur la lune
d’Hergé qui a marqué une génération de chercheurs. Ces deux ouvrages
peuvent rétrospectivement s’analyser comme des illustrations d’expériences
de pensée devenues réalités : le sous-marin et la fusée ont permis d’explorer
des espaces vierges qui ne furent longtemps à la portée que de l’imagination
humaine. Autre morceau de bravoure : Flatland (1884), d’Edwin A. Abbott,
qui peut se lire comme une phénoménologie de la perception d’esprits
n’ayant accès qu’à des espaces unidimensionnels, narrant leur découverte
des espaces bidimensionnels, puis tridimensionnels, et même
quadridimensionnels (« hyperespaces »).
C’est néanmoins à l’astronome Johannes Kepler (voir notice) que l’on
attribue communément le premier ouvrage de fiction scientifique : Le
Songe ou Astronomie lunaire (Somnium, seu opus posthumum de
astronomia). Paru en 1634, Le Songe témoigne au plus haut point de
l’intrication à l’aube du « siècle de la raison » de la littérature et de la
science. D’autres exemples pourraient être invoqués, parmi lesquels le
célèbre roman de Cyrano de Bergerac, Histoire comique des États et
Empires du Soleil, publié dès 1662, lequel s’inscrit dans la continuité d’un
précédent volet dédié à l’astre sélénien ; ou bien encore les Entretiens sur la
pluralité des mondes de Fontenelle (1686) publiés à trente-trois reprises du
vivant de l’auteur, procédant à une véritable reconstruction poétique du
monde (cf. F. Hallyn, La Structure poétique du monde : Copernic, Kepler,
1987).
Kepler, dans Le Songe ou Astronomie lunaire, imagine un démon voyageur.
261
Il imagine que son démon se sert du cône d’ombre projeté par la Terre sur
son satellite comme d’un couloir céleste pour soutenir son ascension et
transporter les voyageurs terriens jusqu’à la Lune. L’auteur fait par-là même
un usage fantaisiste d’une théorie moderne servant à rendre compte du
mécanisme des éclipses. Sont également incorporés d’autres savoirs, tels
certains relatifs aux réactions des corps au froid, aux effets de l’accélération,
et le reste à l’avenant. Après la traversée des nouveaux mondes, la Lune
devient l’équivalent céleste d’une île. Une fois le voyageur parvenu à bon
port, l’auteur rapporte minutieusement ce que son personnage observe. Il y
décrit une luxuriance de vie à l’ombre des cratères. L’environnement
lunaire, loin d’être lisse et sans défaut, se révèle vallonné, onduleux et
regorge de vie. C’est un monde caractérisé par l’instabilité, la fluctuation
des phénomènes. C’est là l’image d’une instabilité extrême. En décrivant ce
Nouveau Monde moiré et hyperboliquement changeant, Kepler prend
ouvertement le contre-pied de tout un pan de la physique aristotélicienne.
La thèse selon laquelle existaient deux physiques irréconciliables,
s’effondre. La Lune est bien aussi mouvante et corruptible que la Terre.
Aussi le récit képlérien n’est-il pas dépourvu de charge polémique. Une
rhétorique d’autant plus efficace qu’elle ne cite pas ses adversaires, et dilue
sa causticité dans le fil du récit. La fiction apparaît comme un moyen
privilégié de définir une autre image, frappante, de ce nouveau cosmos
copernicien.
D’où il ressort que l’apparition de forme littéraire alliant simulation
d’expériences infaisables et vulgarisation des connaissances acquises fut
étroitement liée aux exigences qui étaient celles de la nouvelle science en
gestation au sortir de la Renaissance. Avec la révolution scientifique du
XVIIe siècle se mettent effectivement en place de nouvelles formes de
communication des connaissances. Le langage scientifique, à ses débuts,
s’inspire encore très largement des courants humanistes de la Renaissance.
Le coup de force de Kepler est avoir transformé le « récit de voyage » –
genre littéraire très apprécié depuis les grandes expéditions
intercontinentales des XVe et XVIe siècles – en un outil de recherche, de
figuration et de diffusion de la physique moderne.
Il n’en fallait guère plus pour que la science-fiction se fasse la caisse de
262
résonance de toutes les grandes révolutions de la science, aussi bien dans le
domaine de la physique que de la biologie et de l’informatique. On ne
compte plus les parutions de plus ou moins grande qualité qui saturent
aujourd’hui les rayons de nos librairies. Leur intérêt, pour la plupart, n’est
pas seulement de mettre en image des connaissances acquises ; il va au-delà
en explorant les suites d’une modification événementielle ou essentielle de
la réalité.
(2) Si la nature, par le mécanisme de la sélection, a doté l’homme du plus
puissant dispositif de prédiction et de simulation – son imagination –, la clé
de sa survie, l’homme s’est offert, grâce à son imagination, le luxe d’un autre
outil plus performant encore : l’informatique. L’informatique est également
ce grâce à quoi a l’expression traditionnelle ou littéraire de l’expérience de
pensée est venue se greffer un autre type d’outil intellectuel : l’ « expérience
numérique ». On parle plus communément de « modélisation » ou de
« simulation ». Elle s’emploie prioritairement pour traiter des (éco)système
complexe ou des systèmes à l’équilibre instable, brassant un grand nombre
de données et de variables en relation impossibles à considérer de façon
traditionnelle, de manière non-automatisée. De l’environnement terrestre,
d’une galaxie ou du système nerveux central, elle entend par exemple
proposer une reproduction simplifiée et dynamique au sein duquel
l’expérimentateur peut à loisir intervenir en modifiant une ou plusieurs
variables. Ce qui lui permet de constater les conséquences de tel ou tel
facteur sur l’ensemble du système.
Le protocole est loin d’être infaillible – pour cela de très évident qu’on ne
peut pas avoir en considération l’ensemble des conditions initiales –, mais
néanmoins plus fiable que l’expérience purement spéculative. Cela d’abord
parce qu’il permet de brasser davantage d’informations, de s’approcher par
exhaustion plus près du résultat exact ; ensuite parce que l’ordinateur en
charge de la simulation ne souffre pas de biais cognitifs et ne dissimule pas
de prémisses implicites. Hormis, peut-être, celles afférentes à la structure de
son programme, reflétant celles du programmeur (il n’y a qu’une seule
logique, binaire, etc.). Quoiqu’il en soit des interrogations que peut susciter
l’abandon ou l’externalisation d’une partie de la recherche à des
technologies informatiques, l’on peut déjà noter que le rôle assigné à cette
263
forme-limite d’expérience de pensée n’a cessé de s’affirmer avec la
technicisation des sciences. Au point que l’on ne peut pas ne pas envisager
qu’il vienne progressivement à remplacer cette faculté qu’Einstein disait
chez le chercheur plus importante que le savoir : son imagination.
Limites et controverses
En première approximation, l’« expérience de pensée » aurait tout pour
sembler suspecte au regard d’une science qui n’a de cesse que d’avoir
débusqué les « vues de l’esprit ». L’« expérience de pensée » n’est-elle pas
une contradiction en soi ? Comment une « expérience » pourrait-elle être «
de pensée » ? Et comment la « pensée » pourrait-elle constituer une «
expérience » ? Cet oxymore étrange a le mérite de mettre les deux pieds
dans le plat : quelle pertinence épistémologique peut-on prêter à un
« fantasme », au sens premier du terme ? D’autant qu’il semble que cette
forme d’expérience (si tant est que le terme soit approprié) ne dispense en
tout et pour tout que l’illustration intellectuelle d’un raisonnement plus ou
moins implicite : elle n’explique rien, ne découvre rien, elle ne démontre
pas. Ce n’est pas ici le lieu de nous demander si l’expérience sensible
paramétrée par nos attentes et nos schèmes d’objectivation n’est pas, elle
également, une pétition de principe. Notons seulement que, le cas échéant,
les objections élevées contre l’expérience de pensée ne seraient pas à
distinguer de celles portant sur l’expérience proprement dite.
Conservons cette démarcation. L’esprit demeuré en lui-même, tout à ses
raisonnements, peut-il légitimement déduire une existence de son concept
– de sa conceptualisation ? Descartes parce qu’il doutait, ne pouvait en
douter. Nous ne connaissons que par les idées qui sont dans l’entendement,
et ces idées sont bien les corrélât fidèle des choses extérieures à l’esprit :
Dieu y pourvoit. Kant ne l’entendait pas de cette oreille, pour qui la «
preuve ontologique » n’est pas plus légitime à inférer le Créateur qu’à
attester la création. L’idéalisme cartésien passé au crible du criticisme
kantien est contraint d’abjurer ses prétentions à l’objectivité. La « chose »
n’est pas connue ; seul l’est le phénomène. Le dialogue de sourds entre
rationalistes et empiristes se résorbe dans le schématisme. Ou pas. L’enjeu
(peut-être a-t-il toujours été le cœur de la philosophie) reste toujours de
264
déterminer si l’esprit (sans la foi) peut accéder à un savoir sur l’être – ou s’il
n’est qu’un savoir sur soi.
Savoir sur soi : mise en image d’un préjugé. C’est ainsi que certains
subjectivismes, relativismes et autres épistémologies constructivistes
conçoivent l’expérience de pensée. Celle-ci n’est rien de plus qu’une
inspection mentale à la faveur de laquelle l’esprit se représente les
conséquences d’une hypothèse, étant acquis que rien dans l’esprit ne saurait
lui opposer d’observations contraires. Les conclusions précèdent leur
inférence. Et nous ne faisons que révéler ou justifier une croyance implicite.
Dès lors qu’il se soustrait au tribunal de l’empirie, l’esprit ne peut dégager
que des simulacres de vérité. Précisons-nous : le raisonnement spéculatif
fait bel et bien usage d’éléments empiriques de par leur origine (ainsi des
souvenirs articulés par l’imagination) ; il n’en demeure pas moins que
l’expérience de pensée repose essentiellement sur l’expérience que la pensée
fait d’elle-même. Le moment de la confrontation à l’expérience se fait non
dans le monde hors de l’esprit, mais dans l’esprit, qui est au monde « comme
un empire dans un empire ». Les lois de l’esprit n’étant pas celles du monde,
sa valeur scientifique n’est guère plus concluante que celle d’un songe.
Surtout, l’expérience de pensée n’est ni faite ni réalisable, ce dernier point
méritant toute notre attention. On verrait mal comment ce qui ne peut
être… peut être.
Aux antipodes de cette position sceptique se positionne Ernst Mach.
Inspirateur d’Einstein et du Cercle de Vienne (la société « Ernst Mach »), ce
philosophe et physicien allemand est le premier à entreprendre, dans sa
Mécanique (1883), de retracer la généalogie de l’expérience de pensée.
Après avoir fait l’inventaire et la critique de ses usages en sciences, il en
arrive à la doter d’une justification épistémologique. Thomas S. Kuhn fait
sienne cette réhabilitation. L’expérience de pensée est à ses yeux un outil
heuristique indispensable au progrès de la connaissance. Et de préciser son
statut historique en même temps que son efficace psychologique de premier
plan : « Le résultat des expériences de pensée peut être le même que celui
des révolutions scientifiques » (La structure des révolutions scientifiques,
1962). Son résultat, insiste Kuhn, eu égard à l’impact qu’il peut avoir sur la
265
foi mise par la science instituée en un certain système de vérité, à son effet
de « conscientisation ». Rien de plus efficace pour ébrécher un paradigme
que de confronter ses partisans à la contradiction logique qu’elle ne manque
pas de leur opposer. Mais ce rôle négatif reste loin d’épuiser tout l’intérêt de
cet outil analytique incontournable. La science elle-même, qui articule dans
ses modèles axiomes, principes et lois abstraites, n’est peut-être rien d’autre.
Willard V. O. Quine (1908-2000)
Principales contributions :
- « Les deux dogmes de l'empirisme » (1951)
- Le Mot et la Chose (1960),
- Relativité de l'ontologie et autres essais (1977)
- Du point de vue logique (1980)
Concepts et idées-forces :
- Récusation de la distinction faite par Carnap entre les connaissances
analytiques (fondées sur la logique) et synthétiques (ou empiriques ; fondées
sur l’expérience). Celles-là contiennent toujours un élément de
conceptualisation, donc d’analyse.
- Thèse de Duhem-Quine. Il n’y a pas d’expérience cruciale au sens où
aucune expérience ne peut être suffisamment probante pour infirmer ou
confirmer une théorie. Le démenti expérimental peut tout au plus
contraindre le scientifique à modifier l’une de ses hypothèses périphériques,
sans toutefois préciser laquelle. C’est-à-dire réviser une hypothèse auxiliaire
de ce que Lakatos nommera la « ceinture protectrice » d’une théorie, sans
menacer son « noyau dur ».
- Holisme épistémologique (= holisme de la signification). Chaque énoncé
ou hypothèse prend sens de manière différentielle, au regard de l’ensemble
des autres énoncés et hypothèses qui tissent une représentation du monde.
- Principe d’indétermination de la traduction dans le domaine de la
philosophie du langage. Relativité de l’ontologie et inscrutabilité de la
référence (exemple du lapin, « gavagaï », dont l’ethnologue ne peut
déterminer si l’indigène qui le désigne le considère comme une substance
ou comme un événement). Les patrons d’objectivation sont provinciaux ;
266
traduire contraint à rapporter un énoncé à nos catégories d’objets qui ne
sont peut-être pas celles du locuteur. Le principe de charité (inspiré de
Davidson) consiste à supposer que l’indigène use de la même logique que
nous et que ses propos sont donc intelligibles.
- Distinction entre énoncés d’observation et propositions analytiques.
Hans Reichenbach (1891-1953)
Principales contributions :
- Théorie de la relativité et connaissance a priori (1920)
Concepts et idées-forces :
- Positivisme logique.
- Conception scientifique du monde.
- Induction probabiliste.
Édouard L.E.J Le Roy (1870-1954)
Principales contributions :
- Science et philosophie (1899)
- Dogme et critique (1907)
- Une philosophie nouvelle : Henri Bergson (1912)
Concepts et idées-forces :
- Étend le conventionnalisme à toutes les sciences, quand Poincaré le
restreignait à la géométrie.
- Sa réflexion porte en particulier sur les définitions et les axiomes. Chez
Aristote, définition = essence et axiome = évidence. La science moderne
caractérise en vue de la mesure et de l'observation. Les axiomes ne sont pas
évidents puisque remis en cause. Pense avec Poincaré qu'axiomes et
définitions sont interchangeables (comme en géométrie).
- Primat de la théorie sur l'expérience (vs. l’inductivisme naïf). Le construit
submerge le donné.
- En porte-à-faux avec l'absolutisme positiviste, Le Roy défend l’idée que la
science est affaire de liberté. Ce qui conduit à un certain relativisme
scientifique. Le Roy ne croit pas en la vérité empirique des lois.
267
- Une théorie est évaluée en fonction de sa fécondité. Conception
pragmatiste. Le discours scientifique n’atteint pas la réalité des choses, mais
peut seulement servir à dégager des normes en vue de l’action.
- Transpose la pensée de Bergson dans la philosophie des sciences. La raison
est elle-même dynamique, elle évolue ; les progrès scientifiques comme les
géométries non-euclidiennes témoignent de ce que ses anciennes limites
ont été dépassées. Se réclame également du dynamisme d'Héraclite et de
Dun Scot pour ce qui concerne ses œuvres religieuses.
Bertrand A.W. Russell (1872-1970)
Principales contributions :
- Principia Mathematica (avec Alfred North Whitehead) (1910 ; 1913)
- De la dénotation (1905)
Concepts et idées-forces :
- Invente le mot « épistémology ».
- Tenant du programme logiciste qui propose une axiomatisation et une
formalisation de la logique des propositions et des prédicats des
mathématiques.
- Atomisme logique : « La raison pour laquelle j'appelle ma théorie
l'atomisme logique est que les atomes auxquels je veux parvenir en tant que
résidus ultimes de l'analyse sont des atomes logiques et non pas des atomes
physiques. » (La Philosophie de l'atomisme logique).
- Le paradoxe (ou antinomie) de Russell : l'ensemble des ensembles
n'appartenant pas à eux-mêmes appartient-il à lui-même ?
- Propositions simples et complexes.
- La théorie des descriptions définies (philosophie du langage).
- Connaissance directe (knowledge by acquaintance) et connaissance par
description (knowledge by description).
- Théière de Russell (« Russell's teapot »). Aussi appelée « théière céleste ».
Utilisée pour retourner contre le dogmatisme religieux la charge de la
preuve. Le scientifique n’a pas à apporter la preuve de la fausseté de
doctrines spirituelles ou de présupposés métaphysiques superflus, a fortiori
s’ils se dérobent à l’épreuve expérimentale (non-scientificité au sens de
l’épistémologie de Popper). C’est plutôt au croyant qu’il revient d’apporter
268
la preuve de ses affirmations. L’analogie de la théière céleste fait ainsi droit
à l’hypothèse d’un récipient verseur en porcelaine en rotation sur le plan de
l’écliptique entre la Terre et Mars : « De nombreuses personnes orthodoxes
parlent comme si c'était le travail des sceptiques de réfuter les dogmes
plutôt qu'à ceux qui les soutiennent de les prouver. Ceci est bien
évidemment une erreur. Si je suggérais qu'entre la Terre et Mars se trouve
une théière de porcelaine en orbite elliptique autour du Soleil, personne ne
serait capable de prouver le contraire pour peu que j'aie pris la précaution
de préciser que la théière est trop petite pour être détectée par nos plus
puissants télescopes. Mais si j'affirmais que, comme ma proposition ne peut
être réfutée, il n'est pas tolérable pour la raison humaine d'en douter, on me
considérerait aussitôt comme un illuminé. Cependant, si l'existence de cette
théière était décrite dans des livres anciens, enseignée comme une vérité
sacrée tous les dimanches et inculquée aux enfants à l'école, alors toute
hésitation à croire en son existence deviendrait un signe d'excentricité et
vaudrait au sceptique les soins d'un psychiatre à une époque éclairée, ou de
l'Inquisiteur en des temps plus anciens. » (« Is There a God ? », dans
Illustrated Magazine, 1952 (inédit)). Ce n’est pas parce qu’une proposition
ne peut être réfutée ou la non-existence d’une chose prouvé que cette
proposition est vraie ou que cette chose existe.
- D’autres analogies sur le modèle de la théière de Russell ont été invoquées,
principalement pour contester les prétentions de la religion à se mêler de
sciences. Ainsi de la Licorne rose invisible, du Monstre en spaghettis volant
et du culte du Canard en plastique jaune de Leo Bassi.
Alan D. Sokal (1955-20XX)
Principales contributions :
- « Transgressing the Boundaries : Towards a Transformative Hermeneutics
of Quantum Gravity », dans Social Text, no 46-47, « Science Wars »,‎
printemps-été 1996, p. 217-252
- « A Physicist Experiments with Cultural Studies », dans Lingua Franca,‎
mai-juin 1996, p. 62-64
- Impostures intellectuelles (avec Jean Bricmont) (1997)
- Pseudosciences et postmodernisme : adversaires ou compagnons de route ?
(2005)
269
Concepts et idées-forces :
- L'affaire Sokal. Une polémique née à la suite de la parution en 1996 dans
la revue Social Text, spécialisée dans les « études culturelles » (cultural
studies), de son article « Transgresser les frontières : vers une
herméneutique transformatrice de la gravitation quantique ». Sokal, en
soumettant cette parodie d’article volontairement inepte et emphatique à la
lecture critique de ses éditeurs, entendait dénoncer la propension de
certaines revues postmodernistes à comité de lecture à publier n’importe
quelle contribution susceptible de « flatter les préconceptions idéologiques
des rédacteurs ». Le physicien et épistémologue américain révéla la
supercherie peu de temps après dans son article « A Physicist Experiments
with Cultural Studies », publié dans le numéro de Lingua Franca de maijuin 1996, p. 62-64.
- Les conclusions qu’en tire Sokal sont sans complaisance à l’endroit de
certains départements des sciences humaines qui se réclament des théories
et du jargon de la déconstruction postmodernisme. Est dénoncé leur
emprunt abusif et rhapsodique au vocabulaire scientifique pour appuyer les
thèses philosophiques les plus extravagantes, qui ne se soutiennent pas
d’elles-mêmes. La science est une chose trop sérieuse pour être laissée à des
poètes idéologues. Cette usurpation d’autorité avec effet de sidération
donne lieu à un ouvrage accusatoire écrit en 1997 avec la collaboration de
Jean Bricmont, Impostures intellectuelles.
Herbert Spencer (1820-1903)
Principales contributions :
- Principe de biologie (1864-1867)
- Principes de sociologie (1876-1897)
Concepts et idées-forces :
- C’est à Spencer qu’en 1870, est associée la notion d’évolutionnisme.
- Évolution vers la complexité et l’hétérogénéité, conformément à la « loi de
Baer » (anatomiste russe pionnier de l’embryologie) d’après laquelle « le
développement de tout organisme consiste en un changement de
l’homogène vers l’hétérogène ». Issu d’une origine commune, les entités
270
biologiques et culturelles se différencient par voie de ramification
successive, dans un mouvement qui fait passer du plus élémentaire au plus
complexe, de l’inférieur ou supérieur, du chaotique à l’ordonné, de
l’organique au spirituel, de l’animal à l’homme, de la sauvagerie barbare au
monde civilisé. Néguentropie, quoique le terme n’existe pas encore. Une
approche directive et mélioriste de la transformation qui le rapproche du
lamarckisme.
- « Survie des plus aptes ». Formule reprise par Darwin à l’occasion de la
cinquième édition revue de L’Origine des espèces.
- Darwinisme (ou évolutionnisme) social. Transposition aux sociétés des
mécanismes de l’évolution naturelle. Les transformations des sociétés, de
l’esprit humain et des espèces doivent être interprétées à la lumière d’un
même principe. Il y a un continuum entre les végétaux, les animaux, les
sociétés humaines et les cultures. L’évolutionnisme peut être simultanément
biologique, sociologique, philosophique et anthropologique. Abolition de la
frontière entre l’anthropologie et la zoologie, les sciences humaines et les
sciences naturelles.
- D’autres tentatives contemporaines d’application du principe de
l’évolution à l’homme, qu’il s’agisse de l’étude des races, de la psychologie
ou de l’histoire des sociétés. Ainsi de l’évolutionnisme social introduit par
Lewis H. Morgan et par Édouard Taylor, de l’anthropologie physique de
l’école de Broca, de l’évolutionnisme spiritualiste d’Armand de Quatrefages
ou de l’eugénisme de Francis Galton. Prend chez Henri Bergson la forme
d’un élan vital créateur faisant passer les organismes les plus frustes et les
plus primitifs à la conscience (L’Évolution créatrice, 1907). Conforme à
l’esprit du progrès régnant dans l’Europe impériale, positiviste et coloniale,
de la fin du XIXe siècle.
- Influence déterminante du contexte politique sur la réception de Spencer
en France. Époque où se met en place l’État-providence et les politiques
solidaristes (Léon Bourgeois). Si bien que d’abord maître à penser de la
sociologie des années 1870, Spencer et le darwinisme social deviennent, à
compter de 1885, l’incarnation de l’ultralibéralisme, le repoussoir
idéologique. D’où l’entreprise de Durkheim, aux antipodes des postulats de
Spencer, qu’il met en œuvre dans son étude De la division du travail social
(1893).
271
- Perte de crédit de l’évolutionnisme social et culturel à compter des années
1940 et de la théorie synthétique de l’évolution, faisant valoir le hasard des
mutations comme source de la variabilité. Supplanté par le fonctionnalisme
et le structuralisme.
- De nouvelles tentatives d’application de la sociobiologie à l’homme à
compter des années 1970 avec le développement de l’éthologie ou de
l’écologie humaine, ainsi que de la psychologie évolutionniste (evopsy) à
compter des années 1980.
Paul Tannery (1843-1904)
Principales contributions :
- La Géométrie grecque (1887)
- Pour l'histoire de la science hellène (1930)
- Recherches sur l'histoire de l'astronomie ancienne (1893)
Concepts et idées-forces :
- Auteur de nombreuses études portant sur la science antique. S’intéresse
également aux mathématiques byzantines et médiévales et à l’astronomie
du XVIIe siècle.
- Il conteste l’image traditionnelle d’un Galilée essentiellement
expérimentateur. Beaucoup des expériences que le Pisain décrit n’ont pas
été réalisées. C’est la mathématisation du phénomène qui fait la singularité
de son approche, comme en convient aussi Koyré à rebours de Hacking. Il
en ressort, conformément à l’analyse qu’en fait Duhem, que la révolution
des sciences entre le milieu du XVIe siècle et celui du XVIIe siècle fut avant
tout intellectuelle. Réhabilite pour cette raison le rôle de la spéculation
disqualifiée par Comte et positiviste.
- En opposition à Kant qui affirmait le caractère synthétique a priori des lois
de la physique et des notions mathématiques, Tannery démontre avec
Duhem que le principe d’inertie n’est pas a priori – ou bien les Grecs
l’auraient déjà trouvé. Or, l’inertie n’est autre que le point décisif de la
démarcation entre la physique scolastique et la physique classique, celui qui
rend possible la conciliation sous de mêmes lois des lieux supra- et
sublunaire.
272
- Pas davantage le principe d’inertie n’est-il synthétique a posteriori (tiré de
l’expérience) puisque nulle part observable dans la nature. Ne le sont que
les instanciations de ce principe (la pomme, la Lune, etc.).
- Conçoit le développement des sciences sur le modèle d’un continuum
évolutif, empreint de darwinisme et non, comme Kuhn, comme une
scansion discontinue de paradigmes.
Pierre Thuillier (1932-1998)
Principales contributions :
- Socrate fonctionnaire. Essai sur (et contre) la philosophie universitaire
(1969)
- Jeux et enjeux de la science (1972)
- Le petit savant illustré (1980)
- Les biologistes vont-ils prendre le pouvoir ? La sociobiologie en question
(1981)
- Darwin et Cie (1981)
- L’aventure industrielle et ses mythes (1982)
- Les savoirs ventriloques. Ou comment la culture parle à travers la science
(1983)
- D’Archimède à Einstein. Les faces cachées de l’invention scientifique
(1988)
- Les passions du savoir. Essais sur les dimensions culturelles de la science
(1988)
- La grande implosion. Rapport sur l’effondrement de l’Occident (1995)
- La revanche des sorcières. L’irrationnel et la pensée scientifique (1997)
Concepts et idées-forces :
- L’irrationnel de la découverte scientifique. Il n’est pas extérieur aux
sciences ; il n’est pas ce que la science épuise ; il est parfois son moteur
même. À rebours de la présentation idéalisée qu’en font les manuels
officiels, l’émergence effective de la découverte scientifique peut être
tributaire d’a prioris philosophiques, politiques et religieux. Ses sources
d’inspiration vont du délire fiévreux à l’occultisme le plus déroutant. Les
erreurs sont légions ; les falsifications pléthore ; les interrogations multiples.
La sérindipité est plus souvent la règle que l’exception.
273
- Croisade contre le scientisme. Quand la plupart des philosophes des
sciences cibleraient prioritairement la prétention des religions à imposer
leur vérité (voir les « procès du singe »). À illusion, illusion et demi. « Oui,
je tiens à critiquer le mythe de la "science pure". Selon ce mythe, la Science
serait transcendante aux autres activités sociales ; elle serait une
construction absolue, objective, neutre […] Je préfère pour ma part une
approche plus réaliste ; [La science] est tout de même une construction
humaine ; elle a une histoire et elle est enracinée dans tout un contexte
social » (Libération du 6 janvier 1981, propos recueillis par Didier Eribon).
Cf. aussi la préface-manifeste au Petit savant illustré de 1980.
- Au-delà du scientisme, critique de la rationalité à outrance et de
l’hégémonie des sciences qui ne font plus droit de cité à d’autres formes du
connaître : la poésie, l’art, etc. le roman d’anticipation de 1995 intitulée La
grande implosion détaille l’effondrement de l’Occident aveugle à ses échecs
et incapable de remettre en cause ses idoles religieuses que sont devenues
les économies de marché, la technique et le mode de vie urbain.
Désenchantement du monde poussé à son plus extrême degré ; absence de
récit collectif à même de fédérer un peuple, ce sont là quelques-unes des
conséquences de l’impérialisme scientifique : « Si l’Occident s’était effrité,
s’il s’était culturellement décomposé, c’était parce qu’il avait fini par perdre
tout sens poétique », lit-on ici. « Sans poètes, pas de mythes ; et sans mythes,
pas de société humaine ; c’est-à-dire pas de culture ». L’exclusivisme
scientifique qui confine au monothéisme dispose la recherche à la mort
lente.
- Vision du monde matérialiste et pragmatiste qui aurait commencé avec la
renaissance du XIIe siècle et l’urbanisation qui s’ensuivit. Alliance des
ingénieurs et des marchands qui font un pas hors de la scolastique pour
préparer le règne des sciences de l’économie.
- Intéressement de la science. Contre le postulat de neutralité axiologique,
montre que la science a des enracinements socio-économiques, des mobiles
contextuels qui peuvent être religieux ou politiques, des retombées qui le
sont tout autant. Les controverses scientifiques ne se règlent pas le plus
souvent à la faveur de démonstrations. Les scientifiques sont des hommes
comme les autres, animés de leur intention propre. Voir notamment
L’aventure industrielle et ses mythes qui revient sur l’arrière-plan
idéologique prévalant à la mise en place de nouvelles techniques ou Les
274
passions du savoir qui prend en charge la question de l’eugénisme, de
l’expérimentation humaine, du féminisme, de la « science juive » ; soit de la
connivence entre une certaine science et une entreprise politique. Thuillier
critique sous ces auspices la sociobiologie et les programmes de recherche à
saveur eugéniste.
John Tooby (1952-20XX)
Voir : Leda Cosmides.
Hugo de Vries (1848-1935)
Principales contributions :
- Hérédité, mutation et évolution (1937)
Concepts et idées-forces :
- De Vries introduit la notion de « mutation » en biologie, qu’il oppose au
concept de variabilité fluctuante et limitée, postulée par Darwin.
- Mutationnisme. Inspiré du transformisme expérimental de Camille
Dareste (1822-1899). Macro-évolution ou saltationnisme qui fait valoir des
moments critiques de mutations rapides entrecoupées par des périodes de
relative stabilité dans le processus de transformation des espèces. L’idée sera
reprise et développée par Thomas H. Morgan (1866-1945). S’oppose à la
vision gradualiste et continuiste de la transformation des espèces, soutenue
par Lamarck.
- Découvre, en 1900, des lois de l’hérédité indépendamment des travaux de
Gregor Mendel, et de manière similaire à Carl Correns et Erich von
Tschermak-Seysenegg. Lois statistiques qui mettent en évidence l’existence
de caractères dominants et récessifs. Aux fondements d’une nouvelle
discipline qui prend le nom de « génétique » (Bateson). Combinée à la
théorie de l’évolution et aux autres apports du génie génétique, donne lieu
au néodarwinisme ou à la théorie synthétique de l’évolution. Le hasard
apparent qui semble administrer les mutations contribue à la dépréciation
du transformisme (finaliste, presque « volontariste ») de Lamarck, qui reste
cependant latent en France tout au long du XXe siècle.
- Membre étranger de la Royal Society depuis 1905.
275
Max Weber (1864-1920)
Principales contributions :
- L'Éthique protestante et l'esprit du capitalisme (1905)
- Essais sur la théorie de la science (1904-1917)
- Le Savant et le politique (1919)
- Recueil d'études de sociologie des religions (1920)
Concepts et idées-forces :
- Sociologie compréhensive. Interprétative et herméneutique plutôt que
naturaliste et réifiante, en ce qu’elle s’emploie à exhumer le sens subjectif et
les motifs des actions des individus, au fondement des phénomènes sociaux :
« Nous appelons sociologie une science qui se propose de comprendre par
interprétation l'activité sociale et par là expliquer causalement son
déroulement et ses effets » (Économie et société).
- Individualisme méthodologique‎. Interprète le social à partir des individus
et non les individus à partir du social.
- Approche aux antipodes de la conception explicative, mécaniste,
statistique, objective et holiste (globale) de la sociologie attribuée à
Durkheim, pour qui « les fait sociaux doivent être traités comme des choses
». L’opposition entre les deux méthodes, l’une relevant de la tradition
allemande et l’autre de la tradition française, fut relevé par Raymond Aron
et reprise par Raymond Boudon dans les années 1970, devenant l’un des
points de controverse méthodologique les plus ardents de la sociologie.
- On explique par ailleurs la réception tardive et suspicieuse de l’œuvre de
Weber en France par la prégnance de l'école durkheimienne dans les
années de l’avant-guerre puis par celle de la pensée marxiste, faisant valoir
la détermination de ce que Bourdieu appellera l’habitus par la situation
socio-économique.
- Opposition méthodologique à relativiser. Elle nous en apprend plus sur
l’ignorance de ceux qui la convoquent que sur les travaux respectifs de
Weber et de Durkheim. Contre la tentation de faire de Weber un champion
inconditionnel de l’approche subjectiviste et individualiste, l’usage attesté –
dès son article le plus célèbre sur l’éthique protestante et l’esprit du
capitalisme – de statistiques, la mention de l’influence des traditions, des
religions, du commerce, des études historiques de psychologie collective et
276
la mention de corrélation sociale générale ; autant d’indications que l’on
n’attendrait pas de la part d’un chercheur qui ne tiendrait compte que de
motivations individuelles. Quant au sort fait à la méthode de son
concurrent, cf. notice Durkheim.
- Les « sciences de la culture ». Défend l’irréductibilité des sciences de
l’esprit (sociologie, histoire, etc.) aux sciences de la nature ; contra la
tradition positiviste dominante en France. Ainsi, Durkheim concède à la
sociologie une méthode spécifique, mais dérivée et tributaire de celle des
sciences naturelles.
- Neutralité axiologique. Jugements de valeur (subjectifs ; à bannir du
discours du sociologue) et rapports aux valeurs (objectifs ; à considérer
comme des données sociales à intégrer dans l’analyse compréhensive des
phénomènes sociaux). Une règle déontologique : ne pas porter de jugement
normatif. La seule valeur susceptible d’accompagner le travail scientifique
est celle de la vérité. (On peut se demander s’il ne s’agit pas d’un idéal ou
d’un aveuglement plutôt que d’un ethos humainement accessible).
- L'idéal-type. Construit par le chercheur pour servir de repère, de modèle
éthéré, de « tableau de pensée homogène » que légendent des propriétés
spécifiques et distinctives ; en somme, de schème « utopique » rendant la
multiplicité de l’observation intelligible à l’aune d’une construction
intellectuelle à valeur heuristique. Permet de rapporter les différentes
instanciations de l’objet empirique à une norme (stéréotype, cliché) pour en
considérer l’écart.
- Sociologie des religions. Weber reconnaît la contribution paradoxale et
décisive des religions au processus de rationalisation du monde. Les grandes
civilisations se développent en produisant des représentations toujours plus
systématiques et méthodiques, avec une acuité particulière en Occident : «
Ce qui importe donc, en premier lieu, c'est de reconnaître et d'expliquer
dans sa genèse la particularité du rationalisme occidental […]. L'apparition
du rationalisme économique […] dépend de la capacité et de la disposition
des hommes à adopter des formes déterminées d'une conduite de vie
caractérisée par un rationalisme pratique. Là où une telle conduite de vie a
rencontré des entraves d'ordre psychique, le développement d'une conduite
de vie rationnelle dans le domaine économique a rencontré, lui aussi, de
fortes résistances intérieures. Or, parmi les éléments les plus importants qui
ont façonné la conduite de vie, on trouve toujours, dans le passé, les
277
puissances magiques et religieuses ainsi que les idées éthiques de devoir qui
sont ancrées dans la croyance en ces puissances » (« Avant-propos » du
Recueil d'études de sociologie des religions).
- Désenchantement du monde. Effacement de la croyance en une causalité
magique et en l’intervention divine dans le monde phénoménal. La
téléologie le cède au mécanisme, les intentions aux lois ; d’où s’ensuit une «
vacance du sens ». L’homme moderne ne prête plus à l’existence de
signification fondamentale. La « cage d’acier » ou « cage de fer » (« iron cage
») dénonce le risque d’oppression de l’individu par un système
technocratique glacé, absurde et déshumanisé, fondé sur le calcul et avide
de contrôle.
- Une thèse à nuancer. En dépit d’une récente « désacralisation de la Nature
» en Occident, la pensée magique n’a pas été éradiquée. Comme le remarque
Mircea Eliade, les mythes opèrent encore efficacement sur une grande
partie du globe : « L'expérience d'une Nature radicalement désacralisée [...]
n'est accessible qu'à une minorité des sociétés modernes, et en premier lieu
aux hommes de science ». Quant aux mythes relatifs à la Nature, ils
prolifèrent jusqu’à constituer parfois des « pseudo-religions », des «
mythologies dégradées ». On songe à l’usage fait par les « mouvances Gaïa »
de l’hypothèse de James Lovelock, chimiste britannique, et de Lynn
Margulis, une microbiologiste américaine, dans les années 1970 (cf. La
Terre est un être vivant, l'hypothèse Gaïa, 1999). Des résurgences de pensée
animiste dans nombre d’ouvrages s’inspirant de préoccupations écologiques
: personnification, ampleur cosmique, « la terre se venge », etc. Une
nouvelle religiosité, forme de spiritualité New-Age, en réaction contre les
excès de la société industrielle. Également dans le champ de la controverse
scientifique avec les thèmes de l’élan vital, pierre angulaire des théories de
l’École de Montpellier, où de la mémoire de l’eau défendue par Jacques
Benveniste dans sa thèse polémique de 1988. La science produit ses propres
mythologies, ses propres entités, ses propres métaphores (la « particule de
Dieu »), progresse dans la spéculation au point de recréer elle-même ses
récits de l’origine et du sens de la vie. On ne détruit que ce que l’on
remplace.
- Influence du protestantisme dans la genèse du capitalisme. Et plus
spécifiquement, du calvinisme et du puritanisme en général ; par quoi
s’explique l’ascèse du travail qui a conduit au système de production
278
moderne. La réussite professionnelle objectivée par la richesse sociale
confirme, dans l’optique protestante, le statut d’élu de l’individu. Le
paradoxe tient à ce qu’une théologie de la prédestination ait été l’aiguillon
de l’effort plutôt que du « sophisme paresseux ».
- C’est donc, pour Max Weber et à rebours de Marx, l’idéologie (ici la
religion) qui a déterminé le mode de production capitaliste, et non le mode
de production capitaliste qui a déterminé l’idéologie.
- Cette influence décisive de l’éthique protestante que Max Weber retrouve
à l’origine de l’esprit du capitalisme, R.K. Merton l’identifiait aussi au cœur
des valeurs de rationalisme et de rigueur scientifique qui caractérisait les
chercheurs de la Royal Society de Londres, à laquelle ont appartenu entre
autres Rober Boyle, Isaac Newton et son rival Robert Hooke, John Ray,
William Halley et Christopher Wren.
- Éthique de conviction et éthique de responsabilité.
- Définition de l’État moderne comme entité politique à laquelle est échue
le monopole de la violence légitime.
William Whewell (1794-1866)
Principales contributions :
- Histoire des sciences inductives (1837)
- Novum Organon renovatum (1858)
Concepts et idées-forces :
- Invente en 1848 la dénomination de « scientifique » par distinction d’avec
le « savant » du XVIIe siècle.
- Sciences palétiologiques, dont la caractéristique est de régresser à un état
passé des choses en inférant de l’état présent d’après les causes supputées du
changement (Histoire des sciences inductives). Prédiction rétrospective =
rétrospection.
- La « consilience » de l'induction : fait d’aboutir à des résultats analogues en
partant de disciplines distinctes.
- Le recueil des faits est tributaire d’une hypothèse de travail, contra
l’empirisme naïf.
279
Steve Woolgar (1950-20XX)
Principales contributions :
- La vie de laboratoire. La production des faits scientifiques (avec Bruno
Latour) (1979)
- The Cognitive Turn : sociological and psychological perspectives on
science (avec Steve Fuller et M. de Mey) (1989)
- Representation in Scientific Practice (avec Michael Lynch) (1990)
Concepts et idées-forces :
- Anthropologie des sciences. Étude ethnographique du fonctionnement
d’un laboratoire de neuro-endocrinologie. Voir notice Bruno Latour.
- Représentant du courant britannique de sociologie de la connaissance
scientifique (SSK), développé par Harry Collins, David Edge ou Michael
Mulkay.
- Réoriente ses derniers travaux vers la question du marketing.
Reconversion significative qui soutient une analogie entre la capacité des
scientifiques à « investir en crédibilité » et celle des publicitaires à
promouvoir leurs produits.
Ludwig Wittgenstein (1889-1951)
Principales contributions :
- Tractatus logico-philosophicus (1921)
- Cahier bleu (1933-1935)
- Investigations philosophiques (1953)
- De la certitude (1969)
Concepts et idées-forces :
- Nouvelle conception de la philosophie conçue comme moins comme
recherche métaphysique de la vérité que comme activité de clarification
logique de la pensée. Le rôle du philosophe consiste à épurer le langage de
ces non-sens métaphysiques, sans valeur de vérité. Les controverses
philosophiques se résolvent dans cette explicitation. Proche de la
Caractéristique universelle selon Leibniz.
- Le Tractatus, écrit au début de la Grande guerre durant son engagement
dans l’armée autrichienne, se compose d’une suite d’aphorismes
280
s’enchaînant comme des théorèmes mathématiques. Cet ouvrage lu, selon
son auteur, doit aussitôt être oublié, n’être jamais considéré que comme une
étape transitoire du cheminement philosophique. On ne fonde pas d’église
avec le Tractatus ; contra le Cercle de Vienne.
- « Le monde est tout ce qui a lieu » = ensemble de faits que le langage a
pour fonction de décrire comme un tableau décrirait son modèle, en
écartant les propositions métaphysiques qui ne sont pas susceptibles de
vérification. La structure d’une proposition vraie est analogue à celle des
faits qu’elle énonce : mondes et langage sont isomorphes.
- Propositions logiques sont de l’ordre analytique. Tautologiques, elles
n’ajoutent rien à notre connaissance du monde.
- Inspire la division établie par Carnap entre les énoncés observationnels et
les énoncés théoriques.
- Développe les concepts de sens/non-sens/vide de sens, montrer/dire, jeu
de langage, etc.
- La signification d’un énoncé n’est autre que son usage syntaxique.
Adaptation à la sémantique du principe du rasoir d’Ockham : « Si un signe
n'a pas d'usage, il n'a pas de signification. Tel est le sens de la devise
d'Occam. (Si tout se passe comme si un signe avait une signification, c'est
qu'alors il en a une.) » (Tractatus logico-philosophicus, 1921).
- « Ce dont on ne peut parler, il faut le taire ». Formule ambiguë, donne lieu
à de multiples interprétations.
- Le Tractatus inspire le programme du manifeste du Cercle de Vienne.
Wittgenstein se défend de cette filiation qu’il conçoit comme une trahison.
Frances Yates (1899-1981)
Principales contributions :
- Giordano Bruno et la Tradition hermétique (1964)
- L'Art de la mémoire (1966)
- Science et tradition hermétique (1967-1977)
- La Philosophie occulte à l'époque Elisabéthaine (1979)
- Raymond Lulle et Giordano Bruno (1982)
281
Concepts et idées-forces :
- Met en valeur le rôle fondamental joué par l’occultisme, par l’hermétisme
et par le néoplatonisme dans la réforme de la philosophie et l’émergence des
sciences au seuil de la modernité. Historien spécialiste des premiers âges de
la modernité, auteur célèbre de Religion and the Decline of Magic et de
Man and the Natural World, Keith V. Thomas lui sait gré d’avoir défriché
une région jusqu’alors délaissée de l’historiographie : « The seminal studies
of Michel Foucault and Frances Yates, even if not fully persuasive in every
aspect, have made it impossible for historians ever again to ignore the role
of various forms of magical thinking and practice in the Renaissance
understanding of the natural world » (Anthony Grafton, Nancy Siraisi (éd.),
Natural Particulars, Introduction, 1999).
- Décèle les survivances du gnosticisme, du mysticisme alexandrin et de la
magie chez les penseurs du Moyen Âge. Giordano Bruno exécuté en 1600
pour avoir témoigné de sa foi en l’hermétisme plutôt que avoir professé
l’héliocentrisme (double mouvement des planètes sur elles-mêmes et autour
du Soleil) ou la pluralité des mondes habités.
282
Bibliographie indicative
Acot P., L'histoire des sciences, Presses universitaires de France, 1999.
Alder K., Mesurer le monde, 1792-1799 : l'incroyable histoire de l'invention
du mètre, Flammarion, 2005.
Daston L., Galison P., Objectivity, Zone Books, 2007.
Alquié F., La philosophie des sciences, La Table Ronde, 2002.
Althusser L., Philosophie et philosophie spontanée des savants (1967),
Maspero, 1974.
Ampère A.-M., Essai sur la philosophie des sciences. Ou Exposition
analytique d'une classification naturelle de toutes les connaissances
humaines, Bachelier, 1834.
Andler D., Fagot-Largeault A., Saint-Sernin B., Philosophie des sciences (2
vol.), Gallimard, 2002.
Aristote, Catégories, Le Seuil, 2002.
Aristote, Organon, trad. Tricot J., Vrin, 1983.
Aristote, Seconds Analytiques, Flammarion, 2005.
Aristote, Traité du ciel, Vrin, 1990.
Arnault A., Nicole P., La logique, ou l'art de penser, Gallimard, 1992.
Astofli J.-P., M. Develay, La didactique des sciences, Presses universitaires
de France, 1989.
Bachelard G., Épistémologie, textes choisis. Presses universitaires de France,
1971.
Bachelard G., Essai sur la connaissance approchée, Vrin, 1973.
Bachelard G., La formation de l'esprit scientifique. Contribution à une
psychanalyse de la connaissance, Vrin, 1993.
Bachelard G., L'activité rationaliste de la physique contemporaine, Presses
universitaires de France, 1951.
Bachelard G., Le nouvel esprit scientifique, Presses universitaires de France,
2003.
Bacon F. Novum Organum, trad. Lorquet A., Hachette, 1990.
Barberousse A., Kistler M., Ludwig P., La philosophie des sciences au XXe
siècle, avec Flammarion, Champs U, 2000.
283
Barreau H., L'épistémologie, Paris, Presses universitaires de France, 2008.
Baudet J.C., Mathématique et vérité, L'Harmattan, Paris, 2005.
Ben-David J., Éléments d'une sociologie historique des sciences, Gad
Freudenthal (éd.), trad. Launay M. de, Presses universitaires de France,
1997.
Ben-David J., The Scientist's Role in Society, U. of Chicago Press, 1984.
Bensaude-Vincent B., Lavoisier. Mémoires d'une révolution, Paris, Flammarion, 1993.
Bensaude-Vincent B., Stengers I., Histoire de la chimie, La Découverte,
2001.
Benthem J. van, Meulen A. ter (éd.), Handbook of Logic and Language,
Elsevier, 1997.
Bernard C, Introduction à l'étude de la médecine expérimentale, éd. Fataud
J.M., Bordas, 1966.
Besnier J.-M., Les théories de la connaissance. Un exposé pour comprendre,
un essai pour réfléchir, Flammarion, 1996.
Blackburn P., Rijke M. de, Venema Y., Modal Logic, Cambridge UP, 2001.
Blanche R., Dubucs J., La logique et son histoire, A. Colin (1970), 1996.
Blanché R., L'induction scientifique et les lois naturelles, Presses
universitaires de France, 1975.
Blay M., La science du mouvement de Galilée à Lagrange, Belin, 2002.
Bohr N., Physique atomique et connaissance humaine (1958), trad. Bauer
E., Omnès Roland, Gallimard, 1991.
Boltzmann L., Leçons sur la théorie des gaz, Sceaux, Gabay, 1987.
Bonnay D., Cozic M., Textes clés de philosophie de la logique : logique,
preuve, vérité, Vrin, 2009.
Boolos G., Jeffrey R., Computability and Logic, Cambridge UP, 1974, 2002.
Boss G., John Stuart Mill. Induction et utilité, Éditions du Grand Midi,
2009.
Bourdeau M., Braunstein J.-F., Petit A., Auguste Comte aujourd'hui, Colloque de Cerisy, 3-10 juillet 2001, précédé de Houellebecq M., Préliminaires au positivisme, Kimé, 2003.
Braunstein J.-F. (dir.), L'histoire des sciences : méthodes, styles et
controverses, Vrin, 2008.
Brenner A., Duhem : Science, réalité et apparence, Librairie Philosophique
Vrin, Mathesis, 2000.
284
Brenner A., Les origines françaises de la philosophie des sciences, Presses
Universitaires de France, Science, histoire et société, 2003.
Brenner A., Raison scientifique et valeurs humaines, Presses Universitaires
de France, Science, histoire et société, 2011.
Broch H., Charpak G., Devenez sorciers, devenez savants, Odile Jacob,
2002.
Broda E., Ludwig Boltzmann : man, physicist, philosopher, trad. Gay L.,
Woodbridge, CT, Ox Bow Press, 1983.
Brunschwig J., Lloyd G.E.R. (éd.), Le savoir grec. Dictionnaire critique,
Flammarion, 1996.
Bunge M., Épistémologie, Maloine, 1983.
Busino G., Sociologie des sciences et des techniques, Paris, Presses
universitaires de France, 1998.
Canguilhem G. La formation du concept de réflexe aux XVIIe et XVIIIe
siècles, Presses universitaires de France, 1955.
Canguilhem G., Le normal et le pathologique (1966), Presses universitaires
de France, Quadrige, 2005.
Carnap R., H. Hahn, Manifeste du Cercle de Vienne et autres écrits, sous la
direction de Soûlez A., Presses universitaires de France, 1985.
Carnap R., Logical Foundations of Probability, University of Chicago Press,
1962.
Cercignani C. Ludwig Boltzmann: the man who trusted atoms, Oxford
University Press, 2006.
Chalmers A.F., Qu'est-ce que la science? Popper, Kuhn, Lakatos,
Feyerabend, Le Livre de Poche, 1990.
Châtelet G., Les enjeux du mobile : mathématique, physique, philosophie,
Le Seuil, 1993.
Chevalier J.-M., Gaultier B., Connaître. Questions d’'épistémologie
contemporaine, Ithaque, Philosophie, 2014.
Chevasus-au-Louis N., Les Savants sous l'Occupation : enquête sur la vie
scientifique française entre 1940 et 1944, Seuil, Science ouverte, 2004.
Cicéron, De la divination, trad. Appuhn C., Garnier Frères, 1937.
Clavelin M., La Philosophie naturelle de Galilée. Essai sur les origines et la
formation de la mécanique classique, A. Michel, 1996.
Collins H., Pinch T., Les nouveaux Frankenstein : quand la science vous
trahit, trad. Argouarc'h M., Paget D., Flammarion, 2001.
285
Collins H., Pinch T., Tout ce que vous devriez savoir sur la science, trad.
Piélat T., Seuil, 2001.
Comte A., Cours de philosophie positive (1830-1842), 2 vol., Paris,
Hennann, 1975.
Condorcet, Esquisse d'un tableau historique des progrès de l'esprit humain
(1793-1794), Librairie philosophique J. Vrin, Paris, 1970.
Copernic N., Des révolutions des orbes célestes, trad. Koyré Alexandre,
Félix Alcand, 1934.
Cori R., Lascar D., Logique mathématique, 2 vol., Dunod, 2003.
Cournot A.A., « Considérations sur la marche des idées et des événements
dans les temps modernes », dans The American Historical Review, 40, 1,
1934.
Dagognet F., La raison et les remèdes, Paris, Presses universitaires de
France, 1964.
Dahan-Dalmedico A., Peiffer J., Une histoire des mathématiques : routes et
dédales, Seuil, Points sciences, 1986.
Dalen D. van, Logic and Structure, Berlin, Springer, 2004.
Darwin C., L'origine des espèces au moyen de la sélection naturelle, ou La
lutte pour l'existence dans la nature (1859), Flammarion, 2008.
Daumas M. (dir.), Histoire générale des techniques, Presses universitaires de
France, 1962-1979.
David R., Nour K., Raffalli Ch., Introduction à lu logique. Théorie de la démonstration, Dunod, 2003.
Dear P., Revolutionizing the Sciences : European Knowledge and its
Ambitions, 1500-1700, Palgrave, 2001.
Gingras Y., Keating P., Limoges C., Du scribe au savant : les porteurs du
savoir de l'Antiquité à la révolution industrielle, Boréal, Presses
universitaires de France, 1998.
Delmas Y., Lalement R., La logique. Ou l'art de raisonner, Le Pommier,
Quatre à quatre, 1999.
Descartes R., Discours de la méthode. Pour bien conduire sa raison et
chercher la vérité dans les sciences, éd. Liard L., Guénard A., Garnier
Frères, 1950.
Dhombre J.et al., Mathématiques au fil de l'âge, Gauthiers-Villars, 1987.
Dhombres J., A. Kremer-Marietti, L'épistémologie : état des lieux et
positions, Ellipses Marketing, 2006
286
Diogène Laërce, Vie, doctrines et sentences des philosophes illustres, trad.
Genaille R., Garnier Frères, 1960.
Duhem P., La théorie physique, son objet, sa structure, Chevalier et
Rivière, 1906.
Duhem P., Le système du monde. Histoire des doctrines cosmologiques de
Platon a Copernic, Hermann, 1954.
Duhem P., L'évolution de la mécanique. Suivi de Les théories de la chaleur :
analyse de l'ouvrage de Ernst Mach, La mécanique, éd. Brenneret A.,
Germain P., Vrin, 1992.
Duhem P., Sozein ta phainomena. Essai sur la Notion de Théorie physique
de Platon à Galilée
Dumont J.-P., Delattre D., Poirier J.-L, Les Présocratiques, Gallimard, 1988.
Dutant J., Engel P., Textes clés de la philosophie de la connaissance :
Croyance, connaissance, justification, Vrin, 2005.
Einstein A., Comment je vois le monde, Flammarion/Champs, 1983.
Einstein A., La Relativité, trad. Solovine Maurice, Gallimard, 1956.
Enderton H.B., A Mathematical Introduction to Logic, Académie Press,
2001.
Enderton H.B., Eléments of Set Theory, New York, Académie Press, 1977.
Esfeld M., Philosophie des sciences : Une introduction, Presses
polytechniques et universitaires romandes (PPUR), 2009.
Esfeld M., Physique et métaphysique : Une introduction à la philosophie de
la nature, Presses polytechniques et universitaires romandes (PPUR), 2012.
Fagin R., Halpern J. et al, Reasoning about Knowledge, Cambridge (MA),
MIT Press, 1995.
Farouki N., Qu'est-ce qu'une idée ?, Le Pommier, Quatre à quatre, 1999.
Feyerabend P., Contre la méthode. Esquisse d'une théorie anarchiste de la
connaissance, trad. Jurdant B., Schlumberger A., Seuil, 1988.
Folscheid D., Les grandes dates de la philosophie antique et médiévale,
Presses universitaires de France, 1996.
Foucault M., L'archéologie du savoir, Gallimard, 1969.
Foucault P.-M., Les Mots et les choses : archéologie des sciences humaines,
Gallimard, 1966.
Fourez G., Apprivoiser l'épistémologie, De Boeck, 2003.
Frege G., Écrits logiques et philosophiques, Le Seuil, 1971.
Frege G., Écrits posthumes, 1969, trad. Chambon J., 1994.
287
Frege G., Idéographie, éd. Besson C., Barnes J., Vrin, 1999.
Gabbay D., Guenthner F. (éd.), Handbook of Philosophical Logic, D. Reidel,
Springer, 2005.
Galilée G., Dialogue sur les deux grands systèmes du monde (1632), trad.
Fréreux R., Seuil, 1992.
Galilei G., L’essayeur, trad. Chauviré C., Les Belles Lettres, 1980.
Galison P., L'empire du temps : les horloges d'Einstein et les cartes de
Poincaré, Gallimard, Folio-essais, 2005.
Gamut L.T.F., Logic, Language and Meaning, 2 vol., University of Chicago
Press, 1991.
Gaston Bachelard, Épistémologie : Textes choisis, Presses Universitaires de
France, 1971.
Gille B. (dir.), Histoire des techniques, Gallimard, 1978.
Gillespie C.C. (dir.), Dictionary of Scientific Biography, Scribner's Sons,
1970-1980.
Giordan A., Vecchi G. de, L'enseignement scientifique. Comment faire pour
que « ça marche » ? Delagrave, 2002.
Girard J.-Y., Proof Theory and Logical Complexity, Bibliopolis, 1987.
Goble L. (éd.), The Blackwell Guide to Philosophical Logic, Black-well,
2001.
Gochet P., Gribomont P., Thayse A., Logique, 3 vol., Hermès, 1990-2000.
Gôdel K., Collected Works, 5 vol., Oxford UP, 1986-2003.
Golinski J., Making Natural Knowledge : Contructivism and the History of
Science, Univ. of Chicago Press, 2005.
Gonseth F., Le problème de la connaissance en philosophie ouverte, textes
choisis et présentés par Emery E., Lausanne, L'Âge d'homme, 1990.
Goodman N., Faits, fictions et prédictions, Éditions de Minuit, 1985.
Gouhier H., La Vie d'Auguste Comte, Vrin, 1997.
Granger G. G., La Science et les sciences, Paris, Presses universitaires de
France, 1993.
Haaparanta L. (éd.), The History of Modem Logic, Oxford UP, à paraître.
Hacking I., Ducrest B., Concevoir et expérimenter. Thèmes introductifs à la
philosophie des sciences expérimentales, Paris, C. Bourgois, 1989.
Hacking I., Entre science et réalité : la construction sociale de quoi ?, trad.
Jurdant B., La Découverte, Paris, 2001
288
Haking I., L'ouverture au probable. Éléments de logique inductive, trad.
Dufour M., A. Colin, 2004.
Hanson N.R., The concept of positron, Cambridge University Press, 1963.
Hanson N.R., Patterns of discovery : An inquiry into the conceptual
fondations of science, Cambridge University Press, 1958.
Heidegger M., Essais et conférences, Gallimard, 2001.
Heijenoort J. van (éd.), From Frege to Gôdel. A Sourcebook in
Mathematical Logic, Oxford UP, 1879-1931.
Heisenberg W., La Nature dans la physique contemporaine, trad Karvelis
U., Leroy A.E., Chevalley C., Paris, Gallimard, 2000.
Hempel C.G., Éléments d'épistémologie, A. Colin, 1972
Holbach P.H.D., Système de la nature. Par le baron d'Holbach, éd. Diderot
D., Etienne Ledoux, 1821.
Humboldt A. de, Cosmos : essai d'une description physique du monde, trad.
Faye H., Baudy J., 1855.
Hume D., Enquête sur l'entendement humain. Enquête sur les principes de
la morale, trad. Leroy A.-L., Beyssade M., Flammarion, 2008.
Hume D., Traité de la nature humaine. Livre premier, ou De l'entendement,
trad. Renouvier C., Billon F., Au Bureau de la Critique Philosophique, 1878.
Husserl E., Idées directrices pour une phénoménologie, t. 1, trad. Ricœur P.,
Paris, Gallimard, 1963.
Husserl E., La Crise des sciences européennes et la phénoménologie
transcendantale, trad. Granel G., Gallimard, 1976.
Jacob M., Scientific Culture and the Making of the Industrial West, Oxford
UP, 1996.
Jacquard A., La Sciences à l'usage des non-scientifiques, Calmann-Lévy,
2001.
Jacquette D. (éd.), A Companion to Philosophical Logic, Blackwell, 2002.
Jacquette D. (éd.), Philosophy of Logic, North-Holland, 2006.
Jaquet C, Bacon et la promotion des savoirs, Presses universitaires de
France, 2010.
Jastrow J., Fact and fable in psychology, Macmillan, 1901.
Kant E., Critique de la raison pure, trad Alquié F., Delamarre A.J.-L, Marty
F., Gallimard, 1980.
Kleene S., Logique mathématique, A. Colin, 1971.
289
Koertge N. (dir.), New Dictionary of Scientific Biography, 8 vols, Gale,
2007.
Koyré A., Études newtoniennes (1964), Gallimard, 1968.
Koyré A., Du monde dos à l'univers infini, trad. Tarr R., Presses
universitaires de France, 1962.
Koyré A., Études d'histoire de la pensée scientifique, XX
Koyré A., Études galiléennes, Hermann, 1939
Koyré A., La révolution astronomique. Copernic, Kepler, Borelli, Hermann,
1961.
Kremer-Marietti A., Philosophie des sciences de la nature, Presses
Universitaires de France, 1999.
Kripke S.A., Règles et langage privé ? Introduction au paradoxe de
Wittgenstein, Le Seuil, 1996.
Kuhn T.S., La révolution copernicienne, Fayard, 1973.
Kuhn T.S., La structure des révolutions scientifiques (1962), Flammarion,
1970.
La Mettrie J.O., L'homme-machine, Assoun P.L., Denoël-Gonthier, 1981.
Lachelier J., Du fondement de l'induction. Suivi de Psychologie et
métaphysique et de Notes sur le pari de Pascal, éd. Moutaux J., Fayard,
1992.
Lakatos I., Falsification and the Methodology of Scientific Research
Programs dans Lakatos I., Musgrave A. (éd.), Criticism ans the Growths of
Knowledge, Cambridge Univeristy Press, 1970.
Lakatos I., Preuves et réfutations : essai sur la logique de la découverte
mathématique, trad. Balacheff N., Laborde J.M., Hermann, 1984.
Lalande A., Les théories de l'induction et de l'expérimentation, Boivin &
Cie, 1929.
Lange F.-A., Histoire du matérialisme et critique de son importance à notre
époque, Coda, 2004.
Laplace P.S., Essai philosophique sur les probabilités, Courcier, 1816.
Laplace P.S., Exposition du système du monde dans Œuvres complètes,
Gauthier-Villars, 1878-1912.
Largeault J. (éd.), Intuitionisme et théorie de la démonstration, Vrin, 1992.
Latour B., La Science en action : introduction à la sociologie des sciences,
Gallimard, 1995.
290
Latour B., Petites leçons de sociologie des sciences, Le Seuil, Point-Sciences,
1994.
Laugier S., Wagner P. (éd.), Textes clés de philosophie des sciences, t. I :
Théories, expériences et méthodes ; t. II : Naturalismes et réalismes, Vrin,
2004.
Laugier S., Wagner P., Philosophie des sciences, 2 vol., Vrin, 2004.
Lavoisier A.-L, Traité élémentaire de chimie. Présenté dans un ordre nouveau, et d'après les découvertes modernes, Hachette Livre BNF, 1012.
Le Moigne J.-L., Les épistémologies constructivistes, Que sais-je ?, Presses
universitaires de France, 2012.
Lecourt D., Bourgeois T., Dictionnaire d'histoire et philosophie des
sciences, Presses universitaires de France, Quadrige Dicos Poche,‎‎2006.
Lecourt D., Dictionnaire de la pensée médicale, Paris, Presses universitaires
de France, Quadrige, 2004.
Lecourt D., L’épistémologie historique de Gaston Bachelard (1969), Vrin,
2002.
Lecourt D., La philosophie des sciences (2001), Que sais-je ?, Presses
universitaires de France, 2010.
Lepage F., Éléments de logique contemporaine, Presses de l'Université de
Montréal, 1991.
Lloyd G.E.R., Les débuts de la science grecque. De Thaïes à Aristote, trad.
Brunschwig J., Maspero, 1974.
Locke J., Essai sur l'entendement humain, Vrin, 2001.
Lovejoy A.O., The Great chain of being. A study of the history of an idea by
Arthur O. Lovejoy, Harvard University press, 1942.
Lucrèce, De la nature, trad. Ernout A., Gallimard, 1990.
MacFarlane J., What Does it Mean to Say that Logic is Formai ?, Ph.D, université de Pittsburgh, 2000.
Mach E., La mécanique, exposé historique et critique de son développement
(1883), Hermann, 1904.
Machover M., Set Theory, Logic and their Limitations, Cambridge UP,
1996.
Maine de Biran P., « Mémoire sur la décomposition de la pensée », dans
Œuvres, t. III. Paris, Vrin, 1988.
Malherbe J.-F., Épistemologies anglo-saxonnes, Presses universitaires de
Namur, 1981.
291
Marion P., Le génial bonhomme Ampère. Le roman de sa vie, Mémoire des
arts, 1999.
Mathieu F., Une brève histoire de monde, TheBookEdition, 2013.
Merton R., Eléments de théorie et de méthode sociologique, trad. Mendras
Henri, A. Coli, 1997.
Nowotny H., Scott P., Repenser la science : savoir et société à l'ère de
l'incertitude, Belin, 2003.
Mesure S., Dilthey W., Critique de la raison historique. Introduction aux
sciences de l'esprit et autres textes, Éditions du Cerf, 1992.
Morin E., La Méthode, La Connaissance de la connaissance, 1986, Le Seuil,
Nouvelle édition, Points, 2010.
Nadeau R., Vocabulaire technique et analytique de l'épistémologie , Paris,
Presses universitaires de France, 1999.
Nicod J., Le problème logique de l'induction, préface de Russell B., Presses
universitaires de France, 1961.
Nouvel P., L'Art d'aimer la science, Presses universitaires de France,
Science, histoire et société, 2000.
Nye M.J., Before Big Science: The Pursuit of Modern Chemistry and
Physics, 1800-1940.
Rosmorduc J., Une histoire de la physique et de la chimie, de Thalès à
Einstein, Seuil, Points/sciences, Paris, 2001.
Olby R.C. et al., Companion to the History of Modern Science Routledge,
1990.
Osler M.J. (dir.), Rethinking the Scientific Revolution, Cambridge
University Press, 2000.
Panza M., Newton, Les Belles Lettres, 2003.
Pascal B., Œuvres complètes, Hachette, 1858.
Pascal N., Philosophie des sciences, Presses universitaires de France,
Licence Philo, 2011.
Perdijon J., La mesure, science et philosophie, Flammarion, Dominos, 1998.
Perrin J., Les atomes, Paris, Alcan, 1921.
Pestre D., Introduction aux « Sciences studies », La Découverte, 2006.
Piaget J., Introduction à l'épistémologie génétique, t. I : La pensée
mathématique ; t. II : La pensée physique ; t. III : La pensée biologique, la
pensée psychologique et la pensée sociale, Presses universitaires de France,
1950.
292
Pickstone J.V., Ways of Knowing : A New History of Science, Technology
and Medicine, Manchester Univ. Press, 2000.
Pierre B., Science de la science et réflexivité : cours du Collège de France,
2000-2001, Raisons d'agir, 2001.
Poincaré H., Science et méthode, Kimé, 1999.
Pont J.-C, « Auguste Comte et William Whewell. Œuvres contemporaines
», dans Revue philosophique de la France et de l'étranger, janvier 2007, p.
471-491.
Popper K.R., Conjectures et réfutations. La croissance du savoir scientifique,
trad. Brudny M.Y., Buhot L M., Payot, 2006.
Popper K.R., La Connaissance objective, trad. Bastyns C., Presses
universitaires de France, 1978.
Popper K.R., La logique de la découverte scientifique, trad. Thyssen-Rutten
N., Devaux P., Monod J., Payot, 2007.
Popper K.R., La quête inachevée, Calmann-Lévy, 1981.
Popper K.R., Misère de l'historicisme, trad. Rousseau H., BouveresseQuilliot R., Presses Pocket, 1988.
Pracontal M. de, L'imposture scientifique en dix leçons, La découverte, Le
livre de poche, 1986.
Prigogine L., Stengers L., La nouvelle alliance, Gallimard, 1979.
Pyenson L., Sheets-Pyenson S., Servants of Nature : A History of Scientific
Institutions, Enterprises and Sensibilities, Norton, 1999.
Quine W. V.O., La philosophie de la logique Aubier, 1975.
Quine W. V.O., Méthodes de logique (1952), A. Colin, 1973.
Quine W.V.O., Du point de vue logique : Neuf essais logico-philosophiques,
trad. Laugier S., Vrin, 2003.
Quine W.V.O., Philosophie de la logique (1970), trad. Largeault, J. Aubier,
2008.
Rabaudy C, Emile Meyerson. Identité et réalité, Hatier, 1976.
Ramachandran V.S., Le cerveau, cet artiste, Eyrolles, 2005.
Rasplus V. (dir.), Sciences et pseudo-sciences : regards des sciences
humaines et sociales, 2014.
Read S., Thinking about Logic, Oxford UP, 1995.
Rickert H., Science de la culture et science de la nature, trad. Nicolas A.-H.,
Prompsy C., Launay M.B., Gallimard, 1997.
Ricœur P., Soi-même comme un autre, Seuil, 1990.
293
Rivenc F., Introduction à la logique pertinente, Presses universitaires de
France, 2005.
Rivenc F., Rouilhan Ph. de (éd.), Logique et fondements des
mathématiques. Anthologie (1850-1914), Payot, 1992.
Rosmorduc J., Quelques repères de l'histoire des sciences et des techniques,
Université de Bretagne Occidentale, 1998.
Rossi P., Aux origines de la science moderne, Seuil, Points sciences, 1999.
Russell B., Écrits de logique philosophique, Presses universitaires de France,
1989.
Russell B., Introduction à la philosophie mathématique (1919), Payot, 1991.
Russell B., Problèmes de philosophie (1912), Payot, 1972.
Schrödinger E., Qu'est-ce que la vie ? De la physique à la biologie (1944),
trad. Keffler L., Seuil, Point-Sciences, 1993.
Serres M. et al., Eléments d'histoire des sciences, Larousse, 1989.
Serres M., N. Farouki, Le Trésor des sciences, Flammarion, 1997.
Shapin S., La Révolutions scientifique, Flammarion, 1998.
Shinn T., Ragouet P., Controverses sur la science : pour une sociologie
transervale de l'activité scientifique, Raisons d'agir, 2005.
Sokal A., Bricmont J., Impostures intellectuelles, Odile Jacob, Le livre de
poche, 1997.
Soler L., Introduction à l'épistémologie, Ellipses, 2000.
Soûlez A., Manifeste du Cercle de Vienne et autres écrits. Carnap, Hahn,
Neurath, Schlick, Waismann sur Wittgenstein, Vrin, 2010.
Spinoza B., Éthique, A. Colin, 1907.
Stengers I., D'une science à l'autre, des concepts nomades, Seuil, 1987.
Stengers I., L'invention des sciences modernes, Flammarion/Champs, 1992.
Szczeciniarz J.-J., Copernic et le mouvement de la terre, Flammarion, 1998.
Tarski A., Logique, sémantique, métamathématique, 2 vol., A. Colin, 1972.
Taton R. (dir.), Histoire générale des sciences, 5 tomes, Presses
universitaires de France, Quadrige, 1966.
Tonquedec J., Questions de cosmologie et de physique chez Aristote et saint
Thomas d'Aquin. Le système du monde, les théories de la lumière et de la
couleur, la théorie de la mesure, Vrin, 1950.
Toulmin S., Foresight and understanding, University of Indiana Press, 1961.
Toulmin S., The philosophy of science, Hutchinson, 1953.
Valéry P., Cahiers, Gallimard, 1975.
294
Verdet J.-P., Une histoire de l'astronomie, Seuil, Points/sciences, 1990.
Verneaux R., Critique de la « Critique de la raison pure de Kant, A.
Montaigne, 1972.
Vuillemin J., La philosophie de l'algèbre, Presses universitaires de France,
1962.
Vuillemin J.-C., « Réflexions sur l’épistémè foucaldienne », Cahiers
philosophiques, n°130, 2012, p. 39-50.
Wagner P. (dir.), Les Philosophes et la science, Gallimard, folio-essais, 2002,
Wagner P., (dir.). Philosophie des sciences, 2 vol., Paris, Vrin, 2004.
Watson J.D., La double hélice : comment un jeune savant de vingt-cinq ans
en découvrant la structure de l'ADN a révélé au monde le secret de la vie,
trad. Joël H., R. Laffont, 2003.
Watzlawick P., L'invention de la réalité. Comment savons-nous ce que nous
croyons savoir ?, Seuil, 1988.
Westfall R.S., The Life of Isaac Newton, Cambridge UP, 1994.
Whewell W., Blanche R., De la construction de la science. Novum organum
renovatum, Paris, Vrin, 2000.
Whewell W., Yeo R., The philosophy of the inductive sciences, Bristol,
Thoemmes Press, 2001.
Witkowski N., Trop belles pour le Nobel : les femmes et la science, Seuil
science ouverte, 2005.
Wittgenstein L., Investigations philosophiques (posth. 1953), Gallimard,
1961.
Wittgenstein L., Tractatus logico-philosophicus (1921), trad. Granger G.-G.,
Gallimard, 2001.
Wolpert L., The Unnatural Nature of Science, Harvard University Press,
1998.
295
296
Index des auteurs
Alhazen (965- 1039) .................................................................................................. 9
Aristote (384-322 av. J.-C.) ........................................................................................ 9
Gaston Bachelard (1884-1962) ................................................................................ 12
Francis Bacon (1951-1626) ...................................................................................... 16
Roger Bacon (1214-1294) ........................................................................................ 17
William Bateson (1861-1926) .................................................................................. 20
George Berkeley (1685-1753) .................................................................................. 20
Claude Bernard (1813-1878) ................................................................................... 21
David Bloor (1942-20XX) ........................................................................................ 22
Émile Boutroux (1845-1921) ................................................................................... 22
Henri Broch (1950-20XX) ....................................................................................... 23
Michael Brooks (1970-20XX) .................................................................................. 24
Giordano Bruno (1548-1600) .................................................................................. 45
Léon Brunschvicg (1869-1944) ............................................................................... 51
Jean Buridan (1292 - 1363) ...................................................................................... 52
Michel Callon (1945-20XX)..................................................................................... 54
Georges Canguilhem (1904-1995) ........................................................................... 56
Rudolf Carnap (1891-1970) ..................................................................................... 58
Jean Cavaillès (1903-1944) ...................................................................................... 59
Maurice Caveing (1923-20XX) ................................................................................ 59
Harry Collins (1943-20XX)...................................................................................... 61
Auguste Comte (1898-1957) .................................................................................... 63
Nicolas Copernic (1473-1543) ................................................................................. 64
Leda Cosmides (1985-20XX).................................................................................... 74
Louis Couturat (1868-1914)..................................................................................... 77
Alistair C. Crombie (1915-1996) ............................................................................. 77
Georges Cuvier (1769-1832) .................................................................................... 78
Charles Darwin (1809-1882) ................................................................................... 79
Lorraine Daston (1951-20XX) ................................................................................. 86
Richard Dawkins (1941-20XX) ............................................................................... 88
René Descartes (1596-1650) .................................................................................... 90
297
John Dewey (1859-1952) ......................................................................................... 92
Wilhelm Dilthey (1833 -1911) ................................................................................ 94
Pierre Duhem (1861-1916) ...................................................................................... 95
Albert Einstein (1879-1955) .................................................................................. 102
Paul Feyerabend (1924-1994)................................................................................ 105
Richard P. Feynman (1918-1988) ......................................................................... 107
Paul-Michel Foucault (1926-1984) ....................................................................... 122
Hans-Georg Gadamer (1900-2002) ....................................................................... 124
Galileo Galilei (1564-1642).................................................................................... 125
Peter Galison (1955-20XX) .................................................................................... 131
Bertrand Gille (1920-1980).................................................................................... 131
Ernst von Glasersfeld (1917-2010) ........................................................................ 133
Kurt Gödel (1906-1978) ......................................................................................... 133
Albert le Grand (1193-1280) ................................................................................. 135
Robert Grosseteste (1168-1253) ............................................................................ 137
Jürgen Habermas (1929-19XX).............................................................................. 155
Ian Hacking (1936-20XX) ...................................................................................... 161
Ernst Haeckel (1834-1919) .................................................................................... 162
Werner Heisenberg (1901-1976) .......................................................................... 163
Carl G. Hempel (1905-1997) ................................................................................. 163
Gerald Holton (1922-20XX) .................................................................................. 164
David Hume (1711-1776) ...................................................................................... 165
Jâbir ibn Hayyan (721-815) ................................................................................... 175
François Jacob (1920-2013) ................................................................................... 176
Hans Jonas (1903-1993) ......................................................................................... 176
Emmanuel Kant (1724-1804) ................................................................................ 177
Lord Kelvin (1824-1907)........................................................................................ 178
Johannes Kepler (1571-1630) ................................................................................ 179
Al-Khwarizmi (c.780-c.850) .................................................................................. 182
Alexandre Koyré (1892-1964) ............................................................................... 184
Thomas S. Kuhn (1922-1996) ................................................................................ 186
Imre Lakatos (1922-1974) ...................................................................................... 198
Jean-Baptiste Lamarck (1748-1836) ...................................................................... 199
Pierre-Simon Laplace (1749-1827)........................................................................ 206
Bruno Latour (1947-20XX) .................................................................................... 208
Gottfried W. Leibniz (1646-1716)......................................................................... 211
298
James Lovelock (1919-20XX)................................................................................. 212
Stéphane Lupasco (1900-1988) .............................................................................. 214
Ernst Mach (1938-1916) ........................................................................................ 216
Émile Meyerson (1859-1933) ................................................................................ 216
Robert K. Merton (1910-2003) .............................................................................. 217
Gaston Milhaud (1858-1918)................................................................................. 219
John Stuart Mill (1806-1873)................................................................................. 219
Jean-Louis Le Moigne (1931-20XX) ...................................................................... 220
Edgar Morin (1921-20XX) ..................................................................................... 221
Otto Neurath (1882-1945) ..................................................................................... 224
Isaac Newton (1643-1727) ..................................................................................... 225
Guillaume d’Ockham (1285-1347) ........................................................................ 238
Max Planck (1858-1947) ........................................................................................ 241
Platon (427-348 av. J.-C.) ...................................................................................... 247
Henri Poincaré (1854-1912) .................................................................................. 252
Karl Popper (1902-1994) ....................................................................................... 253
Claude Ptolémée (90-c.168) .................................................................................. 256
Hilary Putnam (1926-20XX) ................................................................................. 257
Willard V. O. Quine (1908-2000) ......................................................................... 266
Hans Reichenbach (1891-1953) ............................................................................ 267
Édouard L.E.J Le Roy (1870-1954) ........................................................................ 267
Bertrand A.W. Russell (1872-1970) ...................................................................... 268
Alan D. Sokal (1955-20XX) ................................................................................... 269
Herbert Spencer (1820-1903) ................................................................................ 270
Paul Tannery (1843-1904) ..................................................................................... 272
Pierre Thuillier (1932-1998) ................................................................................. 273
John Tooby (1952-20XX) ....................................................................................... 275
Hugo de Vries (1848-1935).................................................................................... 275
Max Weber (1864-1920) ........................................................................................ 276
William Whewell (1794-1866) ............................................................................. 279
Steve Woolgar (1950-20XX) .................................................................................. 280
Ludwig Wittgenstein (1889-1951) ........................................................................ 280
Frances Yates (1899-1981)..................................................................................... 281
299
300
Table des points
 Point sur les Archaï (principes).................................................................12
 Point sur la fraude scientifique .................................................................26
 Point sur la révolution copernicienne ......................................................67
 Point sur le modèle standard ...................................................................108
 Point sur la religion et l’occultisme ........................................................139
 Point sur le problème de l’induction ......................................................169
 Point sur l’épigénétique ...........................................................................202
 Point sur les théories de l’unification .....................................................230
 Point sur la mécanique quantique ..........................................................242
 Point sur l’expérience de pensée .............................................................258
301
302
Du même auteur
Édités chez TheBookEdition
Le Dernier Mot (2008)
Kant et la Subjectivité (2008)
Les Texticules t. I, II, III (2009-2012)
Somme Philosophique t. I (2009-2012), II (2013-2014)
Révulsez-vous ! (2011)
D’un Plateau l’Autre (2012)
Sociologie des Marges (2012)
Le Cercle de Raison (2012)
Apologie de Strauss-Kahn (2012)
Platon, l’Égypte et la question de l’Âme (2013)
Une brève Histoire de Mondes (2013)
Les Nouveaux Texticules (2013)
Le Miroir aux Alouates (2013)
Platon. Un regard sur l’Égypte t. I, II, III (2014)
Les Valeurs de la Vie (2014)
Anthologie Philosophique (2014)
Jamais sans ma novlangue ! (2014)
Planète des Signes (2014)
Le Phénomène (2015)
H+. Du Posthumain (à paraître)
303
S = k log W (à paraître)
Médite donc ! (à paraître)
Mythes à l’écran (à paraître)
Des PDFs (gratuits) et les livres papiers (sur commande) sont disponibles à
l’adresse : http://texticules.fr.nf/
304
QR codes
Livres à commander
Livres à télécharger
305
306
307
Mars 2015
Copyright © 2015
ISBN : 979-10-92895-13-1
Frédéric Mathieu
Contact :
[email protected]
ou
[email protected]
308