Frédéric Mathieu Philosophie des Sciences Annuaire Montpellier 2015. Tous droits réservés. 2 (S)avant-propos Fiches de lecture revisitant de manière synthétique les principales contributions aux grandes questions de la philosophie (/sociologie/ethnologie) des sciences et de l’épistémologie, classées par ordre alphabétique d’auteur. Il va sans dire que cet « annuaire » n’a pas la prétention de dresser un catalogue complet de la production intellectuelle autour et sur les sciences depuis les lumières grecques. Toute tentative hasardée en cette direction ne peut être que partielle et sélective ; disons-le : partisane. La nôtre n’y fait pas exception. Écrire c’est renoncer (Alain) ; c’est faire des omissions et œuvre de modestie. Les auteurs rencontrés s’inscrivent de fait dans des contextes différents et des courants qui ne le sont pas moins. C’est tout au plus si l’on peut s’épargner de négliger les plus illustres… et ne pas défigurer les autres. Ne sont évoqués en conséquence que les œuvres et les notions ayant fait date dans le domaine de la philosophie, sociologie ou anthropologie des sciences, de la logique ou de l’épistémologie. Leur sont adjoints quelques jalons majeurs de l’histoire des sciences, justiciables des inflexions imposées à celle-ci. Il va de soi que le classement alphabétique retenu ne permet pas de faire ressortir avec toute la finesse que l’on pourrait souhaiter les liens, les influences et les ruptures entre ce qu’il y a lieu d’appeler des interlocuteurs – tant il est vrai que la pensée est avant tout dialogue (serait-ce un dialogue de sourds) et que la réflexion ne s’alimente pas de vide. L’atout du genre est aussi sa limite. C’est là pourquoi nous invitons notre lecteur à lire en cet « annuaire » – base de travail toujours améliorable – le complément pédagogique à une introduction systématique et raisonnée à la philosophie des sciences. Gageons qu’il en existe de qualité. 3 4 Sommaire Introduction ......................................................................................................7 Abécédaire .........................................................................................................9 Bibliographie .................................................................................................283 Index des auteurs ..........................................................................................297 Table des points.............................................................................................301 Du même auteur ...........................................................................................303 5 6 Introduction La première occurrence du terme « science » dans la littérature française est attestée dans La Chanson de Roland, datée de 1080. « Puis sunt muntez e unt grant science », relate le barde Turold, l’auteur pseudépigraphe, « ils montent en selle et manœuvrent savamment ». Le héros éponyme répugne à sonner de l’olifant pour avertir son roi, et s’apprête à livrer sa plus épique bataille. Les Sarrasins commandés par Marsile submergent l’arrière-garde. Ils y laisseront leurs plumes ; Roland paiera le prix du sang. La « science » – devenue technè, habileté professionnelle – a pour sa part perdu le sens de « savoir théorique » véhiculée par le latin scientia, équivalent de l’épistémè grec. Elle ne le retrouverait que trois siècles plus tard. Il n’est plus aujourd’hui possible de confondre science et conscience, science et technique, quand la première se veut synonyme de « connaissance », grevée de l’imaginaire et des valeurs qu’elle dénote aussitôt (car nous sommes « éduqués » à n’en jamais douter) : rigueur, méthode, exactitude, sincérité, recul et objectivité. Ce panorama laisse en jachère un large territoire de la science « en train de se faire », et méconnaît (refoule ?) complaisamment d’autres facteurs et composantes de son histoire réelle. Parmi ceux-ci, et non des moindres : le rôle de la magie, de la pensée médiévale, des philosophes arabes, de l’Inquisition, de la superstition ; traditions sulfureuses injustement bannies du discours légitime sous le chiffre du Nouveau Régime, prônant la « raison triomphante » au flambeau des Lumières. Après le « miracle grec » (Renan), celui de la « modernité ». Devons-nous croire à la vertu des scientifiques comme le séminariste candide à la virginité de Marie ? Ce serait oublier que la science est une chose trop humaine pour être laissée à des Saints. Cette « chrestomathie » sans prétention sera l’occasion de faire œuvre de révisionnisme scientifique – de « rétablisme », à supposer qu’il ne soit pas déjà trop tard pour demeurer politiquement correct. Et de rendre toute sa place à l’heuristique du doute, à l’invention, à la spéculation, aux découvertes par sérindipité, aux querelles 7 scientifiques ; en bref, aux dimensions sociologiques, philosophiques, religieuses, politiques d’un art trop souvent caricaturé, en proie à toutes les formes de reconstruction. 8 Abécédaire Alhazen (965- 1039) Principales contributions : - Discours sur la lumière (= Traité d’optique) (1021) Concepts et idées-forces : - Ibn al-Haytham, dit Alhazen, ingénieur, astronome, médecin, physiologiste, mathématicien, spécialisé dans les travaux d’optique. Promoteur de la méthode expérimentale dont il expose les lignes de force, il fut aussi l’un des premiers à associer les mathématiques à la physique. Le nombre de ses traités oscille entre 80 et 200. Bradley Steffens veut reconnaître en lui le premier véritable scientifique (cf. Ibn al Haytham. The First Scientist, 2006). - Dans le domaine de l’optique géométrique et physiologique, il s’intéresse au phénomène de la lumière. Celle-ci est renvoyée dans l’œil par les objets, non pas émise de l’œil pour embrasser les choses comme l’enseignait l’optique de Ptolémée. Ou bien la nuit ne ferait pas obstacle à la vision. Six ans furent nécessaires (1015-1021) pour accoucher de son œuvre majeure (ou l’une des rare qui lui ait survécu), le Discours sur la lumière. Démonstration y est faite de la théorie aristotélicienne dite de l’ « intromission ». - Roger Bacon et Vitellion (De perspectiva) auront été les principaux relais de sa doctrine en Occident chrétien. Lui en savent gré de nombreux auteurs de la Renaissance et artisans de la révolution scientifique, dont Johannes Kepler. Aristote (384-322 av. J.-C.) Principales contributions : - Organon : Catégories ; De l’interprétation ; Premiers Analytiques ; Seconds Analytiques (= Topiques) ; Réfutations sophistiques 9 - Ouvrages de physique : Physique ; De l’âme ; De la génération et de la corruption ; Sur l’Univers ; Traité du Ciel ; Météorologiques ; Parties des animaux - Métaphysique (Livres A-Z) Concepts et idées-forces : - Recherche des principes, des causes premières, de la loi non-manifeste qui rend raison du manifeste. Ainsi sauve-t-on les phénomènes, selon le mot Métaphysique, Alpha, 8. Dans le contexte de l’astronomie : en découvrant les rapports rationnels, les régularités et les lois invisibles qui administrent le monde supra-lunaire. En dépassant le désordre apparent des phénomènes célestes. La connaissance doit s’attacher à mettre en évidence une rationalité que manifestent les mouvements du ciel, l’intelligible du sensible, présent dans le sensible. - Méthode analytique. Procède par décomposition en éléments des phénomènes qui sont toujours déjà complexes, entremêlés. La définition se présente ainsi comme l’analyse du nom. - Dialectique aristotélicienne. Entreprend l’examen systématique des opinions de ses prédécésseurs, les endoxa. Classification de celle des physiologoï au prorata du nombre de principes (archaï) qu’ils posent au fondement de la nature. - Critique des thèses éléatiques. Dire que l’être est un, c’est oublier que l’être se dit en plusieurs sens. Réfutation de Parménide : la substance se distingue toujours de l’accident. Réfutation de Mélissos : pluralité des êtres. Critique d’Anaxagore qui pose l’infinité des principes. Aristote relève que les anciens prennent tous pour principe les contraires, sans justifier pourquoi, et s’interdisent de n’avoir recours qu’à un principe fondamental ou à un principe de synthèse. - Relève de la physique : tout ce qui se meut, tout ce qui est multiple. L’unité et l’immobilité sont du domaine de la métaphysique (catégorie posthume à l’auteur). La nature agit en vue de fins et non par hasard : finalisme vs. mécanisme. Inspiré par Platon, qui luttait notamment contre l’atomisme de Démocrite. Le physicien doit connaître la forme et la quiddité, et plus encore la nature des êtres qui est leur fin et leur cause finale ; toutefois la manière d’être et son essence sont l’apanage de la philosophie première. 10 - Théorie de la génération. Génération simple vs. génération complexe. Présuppose, au-delà d’un sujet, le caractère composite de l’engendré. En toute chose, trois principes : la matière, la forme et son contraire, la privation = hylémorphisme. Résolution de l’aporie des Anciens grâce à la distinction entre principes essentiels et principes accidentels de la génération. C’est à partir de la privation qui est non-être par accident que survient la génération – non pas de l’être du non-être absolu. Notion de puissance, d’acte, d’entéléchie (épanouissement). - Éternité de la matière, inengendrée (donc pas de création ex nihilo comme dans le Prologue de l’Évangile de Jean). Matière peut être synonyme de nature, mais le terme de nature peut aussi désigner la forme au sein des êtres qui possèdent en eux-mêmes un principe de mouvement. L’être naturel tend à la forme qui est sa fin, l’accomplissement de son mouvement propre. - Théorie des quatre causes. Se distribuent entre (1) cause matérielle (= ce dont la chose est faite), (2) cause formelle (= sa forme ou son modèle), (3) cause effective, efficiente ou motrice (= l’agent de sa transformation) et (4) cause finale (= sa fin, son essence, son telos). Les causes peuvent être proprement dites ou accidentelles, en acte ou en puissance, simultanées pour les premières et différées pour les secondes. - Tout a une cause ; mais certaines causes le sont par accident, sans but déterminé. Ainsi du hasard et de la fortune (qui est une forme de hasard). - Priorité donnée à l’étude du mouvement. Identité de l’action et de la passion qui diffèrent par la définition. - Le temps et le mouvement sont des infinis. Mais l’infini n’existe pas en acte. Distinction entre l’infini par division, l’infini par accroissement, l’infini dans le nombre, l’infini dans le lieu et l’infini comme cause. Le temps n’est pas le mouvement, mais il n’est pas sans le mouvement. Inversement, le mouvement ne saurait être sans le temps. Le repos est dans le temps mais pas les êtres éternels. - Le mouvement est en direction du lieu. Théorie des éléments et des lieux naturels. Typologie des mouvements. - Démonstration du premier moteur non mû. Acte pur qui se connaît soimême. Mouvement perpétuel, surunité, lié à l’éternité du mouvement dans la nature (elle-même éternelle). Ce qui sera réfuté avec Carnot et le 11 deuxième principe de thermodynamique (quoique l’univers soit bien un tel système). - « La nature a horreur du vide ». C’est ce qui ressort de l’examen des doctrines des partisans du vide et de celle des pythagoriciens. Ou bien le vide ne permettrait pas d’expliquer le mouvement. - En découle la théorie de l’antipéristase. Critique l’argument de la condensation faisant valoir l’impossibilité du mouvement. Question tranchée avec l’expérience de Torricelli et celle du Puy-de-Dôme mise en place par Pascal. Point sur les Archaï (principes) Beaucoup parmi les philosophes pré-socratiques et même encore contemporains de Platon ont engagé une réflexion en direction de la recherche des principes (archaï) à l’origine de la nature (phusis). Il peut s’agir d’un élément (matériel) ou d’un concept, d’un état de concentration de l’être ou d’une tension fondamentale. Le tableau suivant fait le point sur la distribution de ces traditions en fonction de leur figure de proue : Thalès de Milet (624-560 avant J.-C.) Anaximandre (610-545 avant J.-C.) Anaximène (570-500 avant J.-C.) Pythagore de Samos (569-500 avant J.-C.) Héraclite (Éphèse, 535-475 avant J.-C.) Parménide d’Elée (520-450 avant J.-C.) Empédocle (492-440 avant J.-C.) Platon (427-347 avant J.-C.) L’eau L’ápeiron (l’« illimité ») L’air Le nombre Le feu l’Être Le feu, l’air, la terre et l’eau Le Bien (Idée) Gaston Bachelard (1884-1962) Principales contributions : - « Noumène et microphysique » (1931) dans Études (1970) - Psychanalyse du feu (1937) - La Formation de l'esprit scientifique (1938) - Le rationalisme appliqué (1949) - La poétique de la rêverie (1960) 12 Concepts et idées-forces : - Pionnier de l’épistémologie historique (selon le mot de D. Lecourt). Démarche reprise et poursuivie par Alexandre Koyré et George Canguilhem. - Récuse le régime de la bifurcation mise en place par Victor Cousin ministre de l’Instruction Publique sous le régime de la Monarchie de juillet. Toujours en vigueur avec les filières scientifiques et littéraires (et économiques), les baccalauréats spécialisés. Nécessité pour la philosophie de se mettre « à l’école du savant », et inversement. - La philosophie est interne aux sciences ; c’est la « science qui crée de la philosophie ». Juste retour des choses, si l’on convient de ce que la philosophie fut la matrice des sciences. Dialectique science/sagesse. - Remise en cause des catégories de la métaphysique (sujet-objet, abstraitconcret, esprit-matière, etc.) par la micro-physique (1900 : invention des quanta) et par la théorie de la relativité (restreinte : 1905, général : 1915 ; vérifiée en 1919). - Fait un sort à la conception kantienne de la séparation entre noumène et phénomène qu’il investit d’un sens nouveau. Cette revisitation sous les auspices de l’anthropotechnie lui fait prôner l’usage régulateur de celui-là en vue de la production de celui-ci. Prône un usage réglé du noumène comme norme du phénomène, propice à indiquer les axes de l’expérimentation : « Entre le phénomène scientifique et le noumène scientifique, il ne s'agit donc plus d'une dialectique lointaine et oisive, mais d'un mouvement alternatif qui, après quelques rectifications des projets, tend toujours à une réalisation effective du noumène » (Le Nouvel esprit scientifique, introduction). - Implique que le noumène ne soit plus la chose (considérée comme) en soi, inaccessible à l’intuition sensible et aux catégories de l’entendement, qu’avait défini Kant. Il est la « contexture » de la réalité. Le monde nouménal est celui de la relation réelle, le seul doté de sa consistance propre ; celui des phénomènes ne peut être que son dérivé, il est « dissous » dans ce monde inconnu que révèle la micro-physique. Un monde où la matière n’est plus distincte de l’énergie, où cessent de s’appliquer les principes de localité ou de non-contradiction, où la substance le cède à l’événement. Monde « inimaginable », inaccessible à l’intuition ; si bien que « c'est l'effort 13 mathématique qui forme l'axe de la découverte, c'est l'expression mathématique qui, seule, permet de penser le phénomène » (Le Nouvel Esprit scientifique). - Phénoménotechnique. « La véritable phénoménologie scientifique est donc bien essentiellement une phénoménotechnique » ( Le Nouvel esprit scientifique, introduction). Rend compte d’une nouvelle forme d’expérimentation, contemporaine de l’émergence de la « big science » (prolongé aujourd’hui avec l’usage des « big data »). Les phénomènes sont désormais produits par des dispositifs qui sont eux-mêmes des « théories matérialisées ». Ex. contemporain : le LHC du CERN qui permit récemment de confirmer l’existence du boson de Higgs, prévu par le modèle standard. Comme si la théorie (l’outil intellectuel et expérimental) anticipait ses résultats. - Psychanalyse de la connaissance objective. La science véhicule des images trompeuses, un imaginaire archaïque (cf. C.G. Jung) que seule une « psychanalyse de la pensée scientifique » peut débusquer. Analogies naïves, trompeuses et adirantes plutôt que résolutives. Exemple de l’éponge, métaphore employée ad libitum dans la littérature scientifique : identifié par Réaumur à l’air qui se comprime, puis à la terre en tant que le réceptacle des quatre éléments, au sang, etc. - De même que la psychanalyse en général libère l’individu du poids de son passé déterministe, la psychanalyse de la connaissance objective émancipe la raison des images poétiques qui la hantent et l’empêchent d’avancer. Inconscient scientifique ou épistémologique (« antichambre de la raison ») également lié à des représentations sexualisées (résurgence freudienne) : « Toute science objective naissante passe par la phase sexualiste » (La Formation de l'esprit scientifique). Ex : réaction chimique entre deux corps, l’un dit « actif », l’autre « passif » ; frottement des pierres à feu, etc. - Obstacle épistémologique : « C’est en termes d’obstacles qu’il faut poser le problème de la connaissance scientifique » (ibid). La science progresse en surmontant ses illusions : « L’esprit scientifique se constitue sur un ensemble d’erreurs rectifiées. Une conviction acquise au gré de son expérience dans l’enseignement. Le rôle du professeur : « renverser les obstacles déjà amoncelés par la vie quotidienne » (ibid). - L’esprit vient à la science transi de préjugés, c’est-à-dire déjà vieux de truismes longuement sédimentés. Il rajeunit en étendant ses connaissances ; 14 et il étend ses connaissances en neutralisant les opinions fausses. Rémanence de l’elengkos socratique. Conception du développement des sciences à rebours du positivisme, moins accumulation de connaissances (e.g. la métaphore inaugurée par Bernard de Chartres des nains juchés sur les épaules de géants) que départition d’idées reçues incessamment reconduites. - Pas de théorie vraie dans l’absolu, de proposition apodictique. Les théories sont des approximations provisoires ; la scientificité se définit seulement par une méthode de déprise des illusions. Métaphore du sculpteur dégrossissant un bloc de marbre. - Rupture entre l’observation, la perception ordinaire d’une part et, d’autre part, l’expérimentation et l’abstraction définitoire du savoir scientifique. La science ne provient pas du raffinement de l’intuition sensible. L’expérience commune doit être rectifiée par l’abstraction des concepts. La connaissance, en outre, ne peut être qu’« approchée », incessamment remise en cause. - Esprit scientifique caractérisé par l’ouverture de problèmes, la thématisation : « Toute connaissance est une réponse à une question. S’il n’y a eu de questions, il ne peut y avoir de connaissance scientifique. Rien ne va de soi. Rien n’est donné. Tout est construit » (ibid). L’étonnement à l’origine de la science comme de la philosophie (cf. le thomazdein chez Aristote). - Théorie poétique des quatre éléments. La science, de nature progressiste tend vers l’avenir ; l’imaginaire, vers le passé des origines ( Psychanalyse du feu). Il faut tenir les deux aspects : « J’ai compris que les grands livres méritaient une double lecture, qu’il fallait les lire tour à tour avec un esprit clair et une imagination sensible » (« La poésie des éléments matériels », France Culture, causerie du 20 décembre 1952) - La poétique (l’anima) complémentaire de la science (l’animus), selon les catégories de Carl G. Jung. Tels sont les deux versants de l’esprit humain (La poétique de la rêverie). Bachelard, lors d’une conférence donnée le 25 mars en 1950, présente son œuvre comme un tout nycthéméral articulant la part diurne de sa pensée (épistémologie, conscience éveillée) avec sa part nocturne (imaginaire poétique). Une alternance de polarités opposées, complémentaires, qui renvoie à la rotation terrestre. 15 Francis Bacon (1951-1626) Principales contributions : - Du progrès et de la promotion des savoirs (1605) - Novum Organum (1620) Concepts et idées-forces : - Pose les prolégomènes de la méthode expérimentale. Indique comment passer de la croyance et de la superstition à la connaissance objective. Ne plus se contenter de collecter les faits « au petit bonheur », mais provoquer et contrôler l’expérimentation : « Soumettre la nature à la question ». - « Soumettre la nature à la question » : devise qui n’est pas sans rapport avec l’Inquisition qui atteint son acmé à la Renaissance, dans la période qui voit l’essor de la science moderne. Même inflexion dans le domaine judiciaire et dans le domaine épistémologique. Avant l'Inquisition, on accusait ; depuis l'Inquisition, on ne se contente plus de la dénonciation, on fait œuvre d’enquête, on investigue. C'est l'irruption du régime de la preuve qui s’étend à tous les domaines de la connaissance, prodrome de profondes mutations. Régine Pernoud revient sur ce changement d’époque et la complexité du phénomène dissimulé par la propagande noire des Lumières progressistes (Pour en finir avec le Moyen Age, 1977). Il s’agissait le plus souvent, pour l’Église catholique, de démontrer l’innocence de la personne inculpée. Désamorce le mécanisme du bouc émissaire (cf. René Girard), tandis que dans les villages protestants, la justice populaire ne s’embarrassait pas de précaution. De nombreuses personnes n’ont dû d’être sauvées de la fureur populaire qu’au verdict salutaire de l'autorité inquisitoriale. Elle poursuivait en revanche les sycophantes qui accusaient à tort. La grande majorité des peines prononcées étaient des peines de pénitence. La recherche de preuves pour justifier les dires a pu servir de modèle à la science en train de se faire. Aitia (qui donne « étiologie » dans le champ médical) signifie à la fois « cause » et « coupable ». Renversement de perspective : l'inquisition à l’avant-garde de la modernité ? Voir également l’apologie de Socrate, procès et démonstration de philosophie. - Rationalisme à relativiser (de même que pour Galilée, héliophile, pour Newton, alchimiste, etc.) Sa conception de la science, en réaction contre la scolastique et les idoles scientifiques, est forgée au creuset de la magie et de la religion : (1) De la magie opératoire, dite naturelle (vs. la goétie) qui lui 16 communique le sens de la pratique expérimentale. (2) De la religion, laquelle exalte la domination de l’homme sur la nature (réifié) et le progrès annonciateur du millénium et du retour du Christ (parousie). - Logique inductive. - Équation savoir = pouvoir. - Interprétation de la nature. - Combattre les idoles scientifiques. Obstacles épistémologiques avant la lettre. La science doit être transgressive et ne reconnaître d’autorité que celle de la raison. Le tribunal des faits. Roger Bacon (1214-1294) Principales contributions : - Opus majus (Œuvre majeure), comprenant le De signis (Traité des signes) (1267) - Quaestiones supra libros quatuor Physicorum Aristotelis (1247-1250) - Communia naturalium (1260) Concepts et idées-forces : - Philosophe, alchimiste, théologien anglais. À ne pas confondre avec le précédent. Son œuvre polymathe lui valait le surnom de Doctor mirabilis (« Docteur admirable »). Admis comme l'un des précurseurs de la méthode scientifique en vertu du développement qu’il fait des travaux d'Ahlazen. - Classification des sciences naturelles (scientia naturalis) exposée dans le Communia naturalium de 1260. L’optique (perspectiva), l'astrologie (astronomia judiciaria et operativa), la science de la mesure (scientia ponderum), l'alchimie (alkimia), l'agriculture, la médecine et la science expérimentale (scientia experimentalis) doivent s’affranchir de l’autorité de la religion et prendre leur autonomie. - Trois voies de connaissance : l'autorité, la raison, l’expérience. - Quatre siècles avant Pascal, disqualification de l’autorité (la tradition, les maîtres, les livres) dans le cas des sciences de la nature ; seule l’expérience peut conduire à la certitude scientifique : « L'argument conclut et nous fait concéder la conclusion, mais il ne certifie pas et il n'éloigne pas le doute au point que l'âme se repose dans l'intuition de la vérité, car cela n'est possible que s'il la trouve par la voie de l'expérience » (Opus majus II). La science 17 doit être fondée sur l’observation. Bacon critique pour cette raison de l’enseignement aristotélicien, en passe d’être récupéré et accordé à la doctrine chrétienne par saint Thomas d’Aquin, le « docteur angélique » (1225-1274). - Primat de l’expérience. Appelée à prendre la relève de la méthode spéculative : « Aucun discours ne peut donner la certitude, tout repose sur l'expérience » (« nullus sermo in his potest certificare, totum enim dependet ab experientia »). Les raisonnements coupés de l’expérience sont inutiles, sinon nuisibles à l’avancée des sciences. Deux formes d’expérience éligibles au titre de source de connaissance. (1) L’expérience scientifique. Suit les préceptes de Robert Grossetête (1168-1253), père de la méthode expérimentale. Il ne s’agit plus de recueillir les faits d’observation en ne conservant des phénomènes que ceux qui corroborent une thèse préétablie ; il faut les convoquer. Il ne s’agit plus de se contenter d’expériences naturelles et imparfaites à la manière de Pline ou des raisonnements abstraits, spéculatifs, à la manière du Stagirite. L’expérience scientifique doit être dirigée, méthodique, encadrée. Les hypothèses doivent être systématiquement soumises au tribunal des faits, juge en dernière instance de la viabilité d’une voie d’explication = insistance sur la vérification expérimentale (Opus majus, VI ; Opus tertium, I). Le critère ultime est celui d’efficacité. La connaissance acquise, perpétuellement améliorable, doit être opératoire. (2) L’expérience religieuse. L’ « expérience » donc, qui est l’alpha et l’oméga de l’épistémologie de Bacon, ne se limite pas au domaine de la science. Elle concerne également la religion. C’est dire que « l'expérience est double (« duplex est experientia ») : l'une passe par les sens extérieurs [...] et cette expérience est humaine et philosophique, [l'autre consiste en] illuminations intérieures » (Opus majus, II). - Deux voies d’accès au savoir scientifique qui se distinguent en première intention par le foyer de l’illumination : (a) l’extériorité pour l’une, usant d’instruments adaptés, bénéficiant des « œuvres certificatrices » d’autres individus nous ayant précédé, explorant par la vue le monde physique et corporel des phénomènes (astronomiques, optiques, etc.) ; (b) l’intériorité pour l’autre, de nature mystique, se distribuant entre illuminations générales par l'intellect agent (Dieu lui-même) et illuminations spéciales, particulières et personnelles. Voie intuitive ayant pour paradigme une 18 alchimie pratique, opératoire, qui vise à la transformation du monde, ouvrant « sur les métaux, les couleurs, d'autres choses » parmi lesquelles « le prolongement de la vie humaine » (Opus tertium I). - Révélation et certitude scientifique. La certitude scientifique comme laïcisation de la Révélation. Transposition en sciences d’un thème issu de la religion, qui trouve un prolongement avec l’idée que la vérité des sciences est la clé du Salut. C’est l’expérience qui est la pierre de touche de la vérité, son ordalie appropriée, le lieu de cette seconde forme de révélation (cf. Jean-Luc Solère, Zenon Kałuża, La Servante et la consolatrice : la philosophie dans ses rapports avec la théologie au Moyen Âge). - Le recours nécessaire aux mathématiques : « Toute science requiert les mathématiques » (« omnis scientia requirit mathematicam ») (Opus majus, t. III, p. 98). La science selon Bacon présente déjà ses aspects expérimental et théorique qui seront consacrés à l’apogée de la révolution intellectuelle du XVIe-XVIIe siècle. - Foi (religieuse) en le progrès de la technique, mise au service des hommes. Des sciences, Bacon escompte une efficacité pratique, des applications bénéfiques à l’humanité. Anticipe un credo de la modernité bourgeoise (ex : Descartes). Célèbres sont devenues les prophéties du franciscain d’Oxford : « On peut réaliser pour la navigation des machines sans rameurs, si bien que les plus grands navires sur les rivières ou sur les mers seront mus par un seul homme avec une vitesse plus grande que s'ils avaient un nombreux équipage. On peut également construire des voitures telles que, sans animaux, elles se déplaceront avec une rapidité incroyable […] On peut aussi fabriquer des machines volantes telles qu'un homme assis au milieu de la machine fera tourner un moteur actionnant des ailes artificielles qui battront l'air comme un oiseau en vol […] On peut aussi réaliser facilement une machine permettant à un homme d'en attirer à lui un millier d'autres par la violence et contre leurs volontés, et d'attirer d'autres choses de la même manière. On peut encore fabriquer des machines pour se déplacer dans la mer et les cours d'eau, même jusqu'au fond, sans danger […]Et l'on peut réaliser de telles choses presque sans limites, par exemple des ponts jetés par-dessus les rivières sans piles ni supports d'aucune sorte, et des mécanismes et des engins inouïs » (« Lettre sur les prodiges de la nature et sur la nullité de la magie », vers 1260). 19 William Bateson (1861-1926) Principales contributions : - Materials for the Study of Variation Treated with Especial Regards to Discontinuity in the Origin of Species (1894) - Mendel's Principles of Heredity (1902) Concepts et idées-forces : - Invente le terme de « génétique » à l’occasion de la troisième conférence internationale de l’hybridation des plantes (Londres, 1906), dédiée à Mendel, pour baptiser une nouvelle discipline à l’initiative de biologistes et de praticiens de l’agriculture : « Je propose le terme de génétique ; il indique suffisamment que nous cherchons à élucider les phénomènes de l’hérédité et de la variation : en d’autres termes, c’est la physiologie de la descendance ». Deviendra la principale science de la vie au XXe siècle dans ses déclinaisons allant de la génétique formelle à la génétique du développement. - Traduit en anglais les travaux de Mendel. - Introduit le concept d’épistasie désignant le phénomène d’interaction entre deux ou plusieurs gènes, et de liaison génétique (genetic linkage). George Berkeley (1685-1753) Principales contributions : - Théorie de la vision (1709) - Principes de la connaissance humaine (1710) - Trois dialogues entre Hylas et Philonous (1713) Concepts et idées-forces : - Idéalisme empirique ou immatérialisme. Son intérêt aux yeux de l’évêque de Cloyne : surmonter l’écueil du scepticisme et de la libre pensée (athéisme). - « Esse est percipi aut percipere ». N’existent que des idées (passives) et les esprits (actifs) qui les perçoivent. De ces derniers, nous n’avons que des notions. Les choses n’existent pas hors de l’esprit qui les perçoit. 20 - Dieu, percevant tout de manière synoptique et intemporelle, résout au demeurant l’aporie de l’intermittence. La table existe toujours dans son esprit lorsque je quitte la pièce. - Les idées sont en Dieu en tant qu’archétype, hors de l’espace et du temps ; il les connaît sans les pâtir. Elles se présentent à nous en tant qu’ectype, dans un rapport de succession et sont toujours accompagnées d’une sensation de plaisir ou de déplaisir (cf. correspondance avec Johnson). - Récusation de la distinction des qualités. Une idée ne peut ressembler qu’à une autre idée - Récusation de la matière, entité superflue. - Hétérogénéité des champs perceptifs affirmée dans le contexte du problème de Molyneux. L’aveugle de naissance qui retrouverait la vue ne pourra associer spontanément l’image d’une sphère (ou les idées visibles attenantes) à son toucher (idées tangibles). L’association se fait par expérience. - Distinction entre les objets premiers des sens et les objets seconds, lesquels sont « suggérés » par à notre esprit par les objets premiers. Ainsi de la distance, objet médiat résultant de l’association des idées visibles (des aplats de couleur tonalisés) aux idées tangibles (sensations corporelles, musculaires, kinesthésiques). - Conception instrumentaliste du langage. Sortie du solipsisme grâce au fait du langage : le langage humain prouve mon semblable ; le langage de Dieu est celui des idées que Dieu nous communique pour nous permettre de fonder une morale et de le contempler. Claude Bernard (1813-1878) Principales contributions : - Principes de médecine expérimentale (1847) - Introduction à la médecine expérimentale (1865) Concepts et idées-forces : - Exposition de la méthode expérimentale dans l’essai éponyme. Démarche hypothético-déductive, résumée sous le sigle « OHERIC » : Observation Hypothèse - Expérience - Résultat - Interprétation - Conclusion ; à quoi il faudrait ajouter (concernant Claude Bernard) l’étape préliminaire de la 21 position du problème à résoudre, dont l’hypothèse est la réponse possible, ainsi que le développement de l’hypothèse dont l’expérience éprouve les conséquences. - Un intérêt thérapeutique. La connaissance finalisée à la guérison, et non la clinique à la connaissance « libérale ». - Érige le déterminisme exposé par Laplace comme une propriété de la nature en principe méthodologique. - Le « milieu intérieur » comme champ d’étude de la physiologie. - L’homéostasie comme recherche d’équilibre spontanée (connaîtra une prolifique postérité avec la cybernétique d’après-guerre), la fonction du système nerveux central et des organes dans le procès permanent d’autorégulation. Ainsi du foie en ce qui concerne le taux de glycémie. Le diabète n’est pas un phénomène pathologique différent par nature du phénomène normal, mais une variation quantitative de ce dernier, un excès de glycémie ; contra Canguilhem pour qui le diabétique change de foie et le foie change le diabétique. David Bloor (1942-20XX) Principales contributions : - Sociologie de la logique. Les limites de l'épistémologie (Knowledge and Social Imagery) (1976) Concepts et idées-forces : - Ethnologie de laboratoire. Voir notice Bruno Latour. - Le programme fort (avec Barry Barnes). - Quatre principes : causalité, impartialité, symétrie, réflexivité. - Externalisme. Influence des facteurs macro-sociaux dans le procès d’adoption ou de rejet d’une théorie. Le fait scientifique résulte principalement de jeux de pouvoir et de facteurs extra-scientifiques. - Relativisme méthodologique plutôt qu’ontologique. Émile Boutroux (1845-1921) Principales contributions : - La contingence des lois de la nature (1874) - De l’idée de loi naturelle dans la science et la philosophie (1895) 22 Concepts et idées-forces : - L’éclatement disciplinaire des sciences disperse la pensée ; la philosophie doit faire la synopsis et rapporter la connaissance à l'homme. Cf. le thème de l’appropriation de la vérité chez l’homme antique selon Hadot et Foucault. La science contemporaine se vit et veut en revanche déconnectée de la vie pratique. - La contingence des lois de la nature (thèse de doctorat). S'oppose en cela au déterminisme de Laplace et de Bernard qui en faisait, sinon un dogme, un principe méthodologique, une condition de possibilité des sciences. Henri Broch (1950-20XX) Principales contributions : - Au cœur de l'extra-ordinaire (2005) - Gourous, sorciers et savants (2006) - L'Art du doute ou Comment s'affranchir du prêt-à-penser (2008) - Comment déjouer les pièges de l'information ou les Règles d'or de la zététique (2008) Concepts et idées-forces : - Président d'honneur du Cercle zététique français, créateur du laboratoire de zététique à l'Université de Nice. Dès 1998, fait de la « zététique » une discipline à part entière, un « art du doute » empruntant sa démarche au scepticisme philosophique et sa méthode aux protocoles expérimentaux des sciences modernes pour expliquer de manière rationnelle les phénomènes présentés comme paranormaux (astrologie, parapsychologie, médecines alternatives, voyance, miracle, etc.). - Du grec zētētikós, « cherchant » ou « qui recherche », dérivé du verbe zêtêin, « chercher », le mot fut employé la première fois dans sa graphie laïcisée en 1591 dans le traité d’algèbre Isagoge du mathématicien François Viète. Broch en fait une arme de démystification massive, mais également l’occasion d’une réflexion plus générale sur les fondements de la croyance, l’épistémologie et la rigueur scientifique. Comment traduire les faits en théorie de manière scientifique en évitant (autant que faire se peut) d’y projeter des interprétations fantasmatiques ? Quelles sont les biais de 23 raisonnement, les failles épistémologiques et expérimentales susceptibles d’altérer le bon déroulement d’une expérience et sa consignation ? Quelles sont les conditions de l’impartialité et les principes de l’observation en sciences ? Autant de questions que la zététique met à l’ordre du jour. - Le défi zététique international. Lancé en 1987 par Broch sur le modèle du « One Million Dollar Challenge » américain de James Randi. Il promettait une récompense de 200 000 euros à qui apporterait la preuve d’un phénomène paranormal. À entendre par « preuve » la présence d’une action « physiquement mesurable » ; quel que soit le phénomène « paranormal » soumis aux tests et aux enquêtes du laboratoire de zététique de l'université de Nice, il devait être un « phénomène » – c’est-à-dire apparaître. Le protocole en était débattu et agréé chaque fois aussi bien par l’impétrant que par ses juges. - Aucun des candidats n’ayant été à même de convoquer son « art » en condition de laboratoire, cela en dépit d’un nombre de candidatures croissant – et même difficilement gérable, ce qui eut raison de l’événement – le prix fut clos en 2002. Cela ne saurait invalider dans l’absolu la possibilité de phénomènes paranormaux, mais ne va pas, c’est bien le moins, dans le sens de leur confirmation. La version anglophone du prix (s’élevant à un million de dollars) reste en revanche toujours d’actualité, et l’inscription possible depuis le site de la « James Randi Educational Fondation » (JREF). Michael Brooks (1970-20XX) Principales contributions : - Free Radicals. The secret anarchy ou Science (2011) Concepts et idées-forces : - Prend part à la déconstruction de l’image idéalisée de la pratique scientifique comme modèle de rigueur et d’objectivité. Derrière les prédications encomiastiques des manuels scolaires se cachent des scientifiques intéressés et passionnés, butés, partisans, jusqu’au-boutistes, ne reculant pour les plus grands devant aucune bassesse pour assouvir leur « volonté d’avoir raison ». Laquelle pourrait d’ailleurs, selon Pascal Nouvel, 24 constituer la principale de leurs motivations cachées (L’art d’aimer la science). - Dans le sillage de Feyerabend, prend à partie l’idée d’une « méthode scientifique » unique. Les découvreurs entrés dans la légende ne s’embarrassent pas de protocoles rigides lorsqu’ils s’avèrent des obstacles à la découverte. Ils sont, sans le savoir, des anarchistes épistémologiques. - Suit une litanie d’exemple. Loin de procéder de l’induction ou d’une spéculation réglée, l’inspiration vient à Kary Mullis, consacré prix Nobel de chimie 1993, grâce à la prise de LSD. C’est dans la Bible que Mickaël Faraday découvrit les idées directrices qui lui permirent de rendre compte du phénomène de l’électromagnétisme au XIXe siècle. La déontologie ne fut jamais au beau fixe. Comme Isaac Newton, il obtint l’adhésion de ses pairs en falsifiant les résultats de ses calculs pour qu’ils s’adaptent aux données expérimentales. Pasteur falsifia pour sa part le compte-rendu de ses observations concernant l’expérience qui devait réfuter la théorie de génération spontanée. - Plus prosaïque (mais non moins efficace) est la méthode qui consiste à discréditer les théories adverses en s’en prenant ad hominem à leurs auteurs. À abuser de son autorité, de son statut académique ou de ses relations pour abréger une controverse. William Shockley se fit fort de partager avec les inventeurs travaillant sous sa direction le prix Nobel de physique de 1956, décerné pour la découverte du transistor à laquelle il ne participa en rien. Il s’arrangea pour que son nom fût toujours mentionné auprès de celui des deux chercheurs. Les « prions » supposément à l’origine de la maladie de Creutzfeld-Jacob valurent à Stanley Prusiner le prix Nobel de médecine en 1997. Nul ne sait s’ils existent ; et le terme « découverte » convient bien mal à ce qui n’a de statut épistémologique que celui d’une hypothèse. La personnalité de Prusiner alliée à un art consommé du marketing et à une maîtrise certaine des techniques de relations publiques ont eu raison de ce menu détail. - Si donc la science a pu se développer et témoigner de tels progrès dans l’ordre de la connaissance, ce n’est en rien du fait de sa rigueur, de son éthique et de son objectivité. La science ne se fait pas toute seule ; elle est l’œuvre d’individus dotés d’une personnalité, épris de passions, inexorablement partiaux, rivaux, de mauvaise foi, butés et obstinés – en un 25 seul mot : humains. Le nier serait encore redoubler de malhonnêteté, et ne rien faire d’autre que confirmer le diagnostic que l’on voudrait rejeter. Point sur la fraude scientifique « C'est au moyen des sciences expérimentales que nous avons été capables d'apprendre tous ces faits sur le monde naturel, triomphant des ténèbres et de l'ignorance pour classer les étoiles et estimer leurs masses, compositions, distances et vitesses ; pour classer les espèces vivantes et déchiffrer leurs relations génétiques [...] Ces grandes réalisations de la science expérimentale sont dues à des hommes [qui] n'ont en commun que quelques points : ils sont honnêtes et ont réellement fait les observations qu'ils ont enregistrées et ils publient les résultats de leur travail sous une forme qui permet à d'autres de reproduire leurs expériences ou observations ». C’est sur ces lignes magistrales que s’ouvre le Berkeley Physics Course, ouvrage d’autorité ayant longtemps servi de manuel aux étudiants du premier cycle de la fameuse université, désireux de s’engager dans des études de physique. La science – si l’on en croit les sérieux professeurs à l’origine de cette somme (cela reste dans la famille) – serait le fait d’individus « honnêtes » (que ne le serait-elle pas ?), hautement recommandables, ayant « réellement fait » les expériences et les observations qu’ils décriraient « objectivement », en sorte que d’autres puissent contrôler leurs résultats. Hagiographies scientifiques Cette image d’Épinal, doit-on la prendre pour argent comptant ? Une telle présentation à valeur protreptique doit-elle être reçue telle quelle, aussi assertorique et unilatérale qu’elle puisse sembler ? Faut-il la nuancer ? De quelle manière ? Jusqu’à quel point ? Quelle part faire à la vérité, quelle part à l’eulogie ? Un élément de réponse serait à chercher du côté des critères pesamment martelés de l’ethos scientifique ainsi mis en avant : authenticité, objectivité, recours à l’expérience. N’est-il pas vrai que les points de 26 doctrine les plus problématiques et moins vérifiés, quelle que soit la croyance considérée, sont aussi les plus lourdement administrées ? Une histoire attentive des découvertes scientifiques disqualifie plutôt qu’elle ne confirme cet optimisme. Les grandes figures de la science ne sont pas nécessairement des saints. Aussi n’est-il pas peu paradoxal que de vouloir indexer la pertinence du savoir scientifique sur la rigueur morale de ses artisans. « Vous n'avez pas idée des intrigues fomentées dans ce monde béni qu'est la science. Je le crains, la science n'est pas plus pure que toute autre activité humaine, bien qu'il devrait en être ainsi. Le mérite seul ne sert pas à grand-chose ; pour être efficace, il doit s'accompagner de finesse et de la connaissance du milieu ». L’auteur de ces propos n’est autre que Thomas H. Huxley, président de la Royal société de Londres et farouche partisan de l’évolutionnisme darwinien qu’il défendra de tout son saoul – parfois de toute sa mauvaise foi. Darwin n’aura manqué que d’appliquer sa théorie de la lutte pour la survie à cet environnement tout aussi exigeant, hostile et implacable qu’est la scène (jungle ?) scientifique. Sans doute un bref tour d’horizon de ce hall les célébrités unanimement saluées sera-t-il plus éloquent encore, et plus à même de nous convaincre de cette falsification, mieux que tout autre déclaration. Qui sont les scientifiques fraudeurs ? Claude Ptolémée (c.90-168) Qui ne sait pas qu’il fut « le plus grand astronome de l’Antiquité » ? « Le plus grand », « Almageste » arabisation du grec ancien mégistos : tel fut le titre que donnèrent à son œuvre les philosophes arabes, gardien de la science et astronomes hors pairs, sous le haut Moyen Âge ; titre sous lequel nous connaissons cette synthèse qui est à l’astronomie ce que les Éléments d’Euclide étaient à la géométrie, appelée à façonner la représentation que se faisait l’homme de la structure du cosmos durant près de mille cinq cents ans. Géocentrique, elle peignait une Terre immobile, foyer de la révolution des astres. Le soleil et des planètes adoptaient autour d’elle une trajectoire circulaire ; quant aux aberrations, elles étaient compensées par l’hypothèse des épicycles. Ptolémée délivrait ainsi à la postérité un système cohérent et 27 conforme aux observations, à tout le moins satisfaisant au regard des préoccupations d’ordre agricole et religieux qui prévalait alors ; une description qui permettait aussi de faire des prédictions. Nul doute que ces travaux astronomiques furent des plus influents de la Haute Antiquité jusqu’au bas Moyen Âge, en passant par l’Empire romain. Ceux-ci feront autorité jusqu’à ce que Galilée ait confirmé par ses observations l’héliocentrisme de Copernic, amorçant le déclin de la scolastique. Tout cela est bien connu. On sait peut-être moins que la plupart de ses observations ne furent pas effectuées, comme il le prétendait, depuis le delta du Nil, l’œil attentif, le regard patient plongé dans les étoiles. Le réexamen systématique des travaux de Ptolémée fut entrepris au XIXe siècle à l’instigation d’une équipe d’astronomes professionnel. Se livrant à des calculs rétrospectifs en vue de reproduire la carte céleste de son époque, ils relevèrent un nombre stupéfiant d’erreurs et d’approximations. Les données de Ptolémée étaient bien en deçà de ce que l’on pouvait attendre de la précision de l’astronomie de l’Antiquité. Elles étaient en revanche parfaitement congruentes avec ce qu’un observateur aurait pu relever au firmament de l’île de Rhodes, à 5 degrés de latitude au nord d'Alexandrie. Au nombre des 1 025 étoiles décrites par Ptolémée, aucune ne se situe dans la région de 5 degrés du ciel comprenant les étoiles uniquement visibles d’Alexandrie, et non de Rhodes. Quant aux exemples utilisés par Ptolémée pour les questions d’astronomie sphérique, ils emploient également des données correspondantes à la latitude de l’île de Rhodes, et non d’Alexandrie. Aussi ne serons-nous pas surpris d’apprendre qu’une description du ciel de Rhodes avait été consignée 300 ans plus tôt. Une description que Ptolémée avait eu tout le loisir de consulter depuis le plus haut lieu de la culture de l’époque. « Si l'on ne savait ce qu'il en est, commente Dennis Rawlins, astronome de l'université de Californie, on pourrait soupçonner Ptolémée (comme le fit même Théon d'Alexandrie, le plus serein et le plus infatigable de ses admirateurs au IVe siècle) d'avoir emprunté ses exemples à Hipparque ». Hipparque de Rhodes (190-120 avant J.-C) était effectivement à l’origine de l'un des meilleurs catalogues d'étoiles de l'Antiquité. C’est encore à ce personnage que nous devons l’invention de l’astrolabe, les tables 28 trigonométriques, la découverte de la précession des équinoxes ainsi que la théorie des épicycles à laquelle Ptolémée recourut largement. Il en ressort que les données observationnelles consignées par « le roi des astronomes » pourraient provenir en masse des magasins de la grande bibliothèque d’Alexandrie, où Ptolémée s’accapara les résultats de son plus auguste devancier, qu’il fit ensuite passer pour siens. Galileo Galilei (1564-1642) Que Galilée ait marqué un pas décisif en direction du nouveau paradigme de la science moderne, c’est chose que l’on ne se risque pas à contester. Un leitmotiv de l’astronome était de recourir toujours à l’expérience, et même à ce qui peut prétendre avant la lettre au titre d’expérimentation, soutenue par des dispositifs diligemment décrits : « Dans la nature, le mouvement est peut-être le sujet le plus ancien auquel les philosophes ont consacré de nombreux et volumineux ouvrages. Cependant, j'ai découvert par l'expérience quelques propriétés dignes d'être connues et qui n'ont jusqu'ici été ni observées, ni démontrées ». Et les manuels scolaires de se faire l’écho de cette transformation de la démarche scientifique. Le contrôle expérimental devient l’ultime instance judicative de la vérité en sciences, la seule épreuve ou ordalie à même de la fonder. Exeunt Aristote et les Pères de l’Église. Ceux-ci – c’est bien connu – ne pardonnèrent pas à l’astronome une telle humiliation, et déployèrent à son encontre toutes les ressources de la mauvaise foi dont ils étaient capables. Mal leur en prit : le récit arrangé du procès de Galilée se donne aujourd’hui comme un morceau de bravoure ; et le martyre de l’inculpé renvoie au courage de l’intelligence en lutte contre l’obscurantisme et la superstition. Le chercheur de vérité affronte le dogme, faisant l’épreuve systématique de ses hypothèses. C’est donc, avant toute chose, cette image d’Épinal d’expérimentateur qu’a laissé Galilée. Comment comprendre alors qu’aucun de ses confrères physiciens ne fut en mesure de reproduire nombre de ses résultats, et même obtinrent des résultats contradictoires au terme des expériences décrites ? Le doute s’installe. Et n’est pas modéré à la lecture du manuscrit original 29 dont est extraite cette citation, où ne figurait pas la précision « par l'expérience », si décisive. « Par l'expérience » est l’interpolation originale d’un traducteur idéologue de Galilée qui, de l’homme et de sa manière de procéder, avait déjà son idée faite. Dans quelle mesure une telle idée s’avère conforme à la réalité, c’est ce qu’il importe de réévaluer. Deux expériences de Galilée ont fait époque : (1) celle du plan incliné, (2) celle de la tour de Pise. Aucun manuel qui se respecte ne peut l’ignorer. Elles ont valeur de paradigme, d’exemple de rigueur et semblent résumer l’essence de ce que fut la révolution des sciences modernes. (1) Aux antipodes du psittacisme de ses adversaires pétris de certitudes et d’idées fixes, Galilée tourne son regard en direction de la nature : « Après Galilée, déclare l’un de ses hagiographes, la preuve ultime d'une théorie trouva sa vérité dans le monde réel ». Le même auteur se plaît à rappeler comment il procéda pour vérifier sa loi de la chute des corps au moyen d’un dispositif de sa propre conception : une planche de bois creusé d’une rigole permettant à l’expérimentateur de mesurer le temps nécessaire à une bille de cuivre pour parcourir l’ensemble de la distance. Ces expériences furent « répétées près de cent fois ». Et chaque fois Galilée obtint des résultats conformes aux prédictions issues de sa théorie, « sans différences appréciables ». Et pour cause ! Ce n’était pas la théorie que Galilée entendait rectifier à l’aune de l’expérience, mais l’expérience à l’aune de la théorie. La déduction de l’astronome, en déduit l’historien des sciences Bernard Cohen, « montre seulement avec quelle force il s'était forgé une opinion préalable, car les conditions grossières de son expérience ne pouvaient lui fournir une loi exacte. De fait, les écarts étaient si grands que l'un de ses contemporains, le Père Mersenne, ne put reproduire les résultats décrits par Galilée et alla jusqu'à douter qu'il eût jamais réalisé cette expérience » (The Birth of the New Physics, 1960). (2) Le récit de l’expérience (apocryphe) du lâcher de poids depuis la tour penchée de Pise participe de la même volonté de marquer la différence entre la science moderne frayée par Galilée et celle des scolastiques, qui ne connaissaient, en fait de tour, que celles d’ivoire qui recelaient leurs livres. 30 (Un comble pour les successeurs des péripatéticiens !) Il est toutefois heureux que Galilée ne l’ait pas tentée. La loi dont elle se veut l’illustration fait abstraction du frottement de l’air ; effet qui donnait apparemment tort à Galilée au profit des tenants de l’ancienne physique. Fictive fut également l’expérience du lâcher de balle depuis la vigie d’un navire fendant les flots, décrite dans le Dialogue sur les deux grands systèmes du monde. L’auteur ne s’en cache pas. À Simplicio, voix d’outre-tombe et d’Aristote, qui s’enquiert auprès de Salviati, son interlocuteur porte-parole de Galilée, s’il a lui-même réalisé cette expérience, est répondu que « Non, [il] n'y [a] d'ailleurs aucune nécessité, puisque sans recourir à l'expérience je puis affirmer qu'il en est ainsi, parce qu'il ne peut en être autrement ». Un argument bien péremptoire et bien inattendu de la part d’un dadouque de l’expérimentation. N’y a-t-il pas contradiction à condamner d’une main la spéculation pure et à produire de l’autre des expériences imaginaires ? L’expérience de pensée est-elle un protocole recommandable de mise à l’épreuve des hypothèses ? Quelle différence d’avec une pétition de principe, dès lors que ses conclusions sont prédéterminées ? Une certaine historiographie des sciences a voulu voir en Galilée expérimentateur qu’il n’était pas. La mise en cause de cette tradition est à mettre au mérite de philosophes et d’historiens des sciences comme Pierre Duhem et Alexandre Koyré, qui ont su faire la part entre l’empirisme effectif du physicien et son idéalisme. Galilée fut théoricien – et mathématicien – plus qu’expérimentateur. Les analyses iconoclastes de Feyerabend entendent montrer combien le succès de ses théories est redevable avant toute chose de ses talents de propagandiste. N’oublions pas que Galilée était enfin, tout comme Platon, un talentueux littérateur. Isaac Newton (1642-1727) Autre artisan majeur de la révolution intellectuelle et expérimentale du XVIe-XVIIe siècle ; père fondateur de la mécanique classique : Newton. On sait le physicien (et alchimiste) anglais à l’origine des trois lois éponymes ainsi que de la théorie de l’attraction universelle qui supprime la 31 dichotomie établie par le Stagirite entre les monde supra- et sublunaire. Il n’en est pas moins vrai qu’il recourut ad libitum à des facteurs de correction que la décence (mathématique) commune n’aurait pas tolérée. Chaque fois que les véritables résultats de ses mesures défiaient ses prédictions, Newton en présentait une version maquillée. Ce qui dans la terminologie des sciences, s’exprime en termes francs de « falsification ». « Changer l’ordre du monde plutôt que ses désirs ». L’histoire de la rédaction des Principia, son maître-livre paru en 1687, jette sur Newton une lumière peu avantageuse, à rebours du portrait très sélectif que brosse de sa personne l’histoire académique. Newton s’étend dans cet ouvrage sur les méthodes, sur les principes, sur les visées et sur les champs d’explorations de la science moderne. Il est probable que le contexte de rivalité qu’il entretenait avec Leibniz a fini par avoir raison de l’honnêteté intellectuelle du physicien. La progression continentale des Principia se heurtait à la résistance des tenants de la vision continuiste et dynamique de la physique selon Leibniz, lequel n’admettait pas qu’une force s’exerçât à distance. Elle récusait le postulat central de son astronomie mathématique : la loi de l’attraction. (Einstein donnerait plus tard raison, contre Newton, au philosophe de Hanovre). Venir à bout de ces résistances supposait d’étayer les principes de la nouvelle mécanique par des mesures et des relevés d’observations d’une précision inaccessible pour les moyens de l’époque. Qu’à cela ne tienne : qui veut la fin, veut les moyens. Seule la victoire est belle. Newton ne cessa d’améliorer ses exposés, chaque édition de ses Principia offrant son lot de corrections manipulées, s’accumulant jusqu’à atteindre dans la dernière édition de son œuvre un ordre de précision supérieure au millième. Richard S. Westfall, biographe d’Isaac Newton et historien des sciences spécialiste du XVIIe siècle, ne fait aucun mystère de ces contrefaçons : « Ayant posé l'exactitude des corrélations comme critère de la vérité, Newton veilla à présenter des corrélations exactes, qu'il les eût ou non réellement obtenues. Ce ne fut pas le moindre pouvoir de persuasion de ses Principia que de prétendre délibérément à un degré de précision bien supérieur à ce qu'ils pouvaient légitimement revendiquer. Si les Principia définissaient les 32 critères quantitatifs de la science moderne, ils laissaient également entrevoir une vérité moins sublime que personne ne peut manipuler un facteur correctif aussi efficacement que ce génial mathématicien » (The Life of Isaac Newton, 1993). Il est un art de la falsification dans lequel Newton était passé expert. L’ampleur et l’extension de ses « retouches » est, pour leur part, loin d’être négligeable. Elles concernent aussi bien la détermination de la vitesse du son que les calculs relatifs au phénomène de précession des équinoxes, en passant par les observables réfractaires à la théorie de la gravitation. On peut légitimement se sentir lésé ou – pourquoi pas ? – admiratif devant tant d’habilité à camoufler les défaillances de ce qui deviendrait très vite l’ouvrage de référence de la physique moderne. Plus édifiant encore, le fait que personne de son vivant n’ait su prendre acte des erreurs de Newton, quand il aurait pour cela suffi de reproduire la démarche indiquée. Ses données corrompues lui servirent d’arme de guerre pour emporter la conviction des plus sceptiques. L’envergure de sa fraude ne serait découverte dans toute son ampleur et ses démonstrations rigoureusement décortiquées que deux siècles et demi plus tard. Peut-être n’était-on pas pressé de soulever le voile. Le pire est à venir (« graviora manent ») ; il ne déçoit jamais. Le comble du pharisaïsme serait atteint dans le cadre de la controverse qui opposa Newton à son ennemi de toujours, Leibniz, concernant la paternité du calcul infinitésimal. Newton se fit fort d’employer tous les recours que lui offrait son statut de président de la Royal Society pour triompher de cette querelle et jeter le discrédit sur son rival (« de l’autre rive ») continental. Le même Newton qui proclamait dans la Préface d'un compte rendu de 1712 au nom de la plus prestigieuse société scientifique d’Angleterre que « [seul un juge inique et corrompu] autoriserait une personne à témoigner à son propre procès » plaidait vigoureusement et sans réserve pour l’antériorité de la découverte de Newton. Le même rapport, rédigé de sa main, faisait peser sur le penseur de Hanovre le soupçon de plagiat. C’est à Leibniz que la majorité des historiens rendent aujourd’hui hommage pour avoir découvert (ou inventé) le premier le calcul différentiel. 33 Une telle affaire ne pouvait échapper longtemps à la critique des sociologues des sciences. Les partisans de l’externalisme le plus radical, dans la lignée de Feyerabend, y virent matière à confirmer une idée que le discours scientifique n’est rien de moins qu’un rapport de force. Benjamin Franklin (1706-1790) À l’origine modeste fils de marchand de suif et de chandelles, l’illustre personnage bénéficie encore à l’heure actuelle d’un renom comparable à celui des Pilgrim Fathers. Aux yeux du grand public américain, Franklin n’est pas qu’un homme de lettres et un politicien brillant, c’est un acteur de premier plan de la science expérimentale, un précurseur qui ne démérite pas son piédestal au Panthéon des héros nationaux. Dans le grand récit de l’histoire ou de l’historiographie des sciences, Franklin est aux États-Unis ce que Marie Curie est en Europe. Reconnaissance qu’il doit essentiellement en ce domaine à « l’expérience du cerf-volant ». C’est à celle-ci qu’il dût de « découvrir » le principe du paratonnerre. Replaçons-nous dans le contexte intellectuel du « siècle des Lumières », cruciale à bien des titres. Beaucoup de penseurs de cette époque s’intéressaient à l’électrostatique, laquelle n’était qu’à ses balbutiements. C’était une science inchoative, alors pleine de mystère. Un certain nombre de chercheurs en étaient arrivés par des voies différentes à concevoir la foudre comme un phénomène apparenté ou analogue aux étincelles produites en condition de laboratoire. Si tel était effectivement le cas, elle devrait également se précipiter sur les objets en pointe. L’histoire officielle rapporte que le 15 juin 1752 éclata un orage dans la ville de Philadelphia où résidait Franklin. Ce dernier aurait conçu de profiter de cette météo houleuse pour envoyer un cerf-volant sous un nuage. Le cerfvolant, battu par les vents orageux, aurait été frappé par une lance de feu. Le flux électrique à haute tension aurait immédiatement couru le long du câble et provoqué une étincelle dans une clé fixée au sol. Franklin précise dans son rapport d’observation qu’il faut attendre que la pluie humidifie le câble afin qu’il conduise l’électricité ; ensuite seulement qu’une étincelle est 34 susceptible de se produire au sol. Rien que de très logique. Apparemment seulement. On sait effectivement que de telles expériences en électrostatique sont irréalisables lorsqu’il pleut. L’humidité (l’hygrométrie) par temps d’orage annule toute chance de voir éclore une étincelle. Et Benjamin Franklin, que ne l’a-t-il su ? N’était-il pas aux premières loges ? La réponse vient à point : ce grand savant n’a vraisemblablement jamais mené cette expérience. Pas plus que Newton n’a vu tomber la pomme pour en déduire la loi de l’attraction universelle. D’où la question : pourquoi un tel story-telling ? Pourquoi affabuler ? La principale raison tient à ce que l’expérience du cerf-volant avait été conduite en France avec succès le 18 mai 1752. Franklin, en annonçant l’avoir lui-même effectuée en juin 1752 (il s’était rétracté : les premiers témoignages faisaient mention d’octobre 1752), antidatait sa « découverte » et devenait ainsi co-inventeur. De Paris aux États-Unis, les communications ne prenaient pas moins de sept semaines bien découpées, ce qui avait pour conséquence d’exclure toute présomption qu’il ait pu être « au jus ». Ainsi l’histoire devait retenir le nom de Benjamin Franklin comme celui du génial expérimentateur qu’il n’a jamais été. L’usurpateur, sur ce terrain, aura tôt fait d’éclipser les Français. Chateaubriand nous avait pourtant prévenus : « Gardez-vous de l’histoire que l’imposture se charge d’écrire »… John Dalton (1766-1844) Pour être moins célèbre, l’œuvre de John Dalton n’en fut pas moins déterminante. Ce grand scientifique de la première moitié du XIXe siècle s’est illustré pour avoir démontré expérimentalement l’existence de plusieurs familles d’atomes. On lui doit également d’avoir formalisé les lois de la combinaison chimique, dont celle des « proportions multiples » en vertu de laquelle tous les atomes d’un élément ne peuvent se combiner qu’avec un nombre entier déterminé d’atomes appartenant à un autre élément en vue de former un composé chimique. Il en voulu pour preuve ses travaux sur l’oxyde d’azote, qui mettaient en lumière le fait que la combinaison de l’azote et l’oxygène ne pouvait avoir lieu que sous les auspices de certains rapports déterminés. 35 Reste qu’aucun chimiste jusqu’à nos jours ne fut à même de reproduire les résultats de Dalton. Lui-même chimiste et historien de sa discipline, James R. Partington en est venu à douter de l’authenticité des résultats produits par son prédécesseur : « Sur la base de mes propres expériences, je suis convaincu qu'il est pratiquement impossible de trouver ces proportions simples en mélangeant de l'oxyde nitrique et de l'eau » (A History of Chemistry, 1961). Il est probable que ce dernier, si l’on se refuse à le suspecter de s’être exonéré des expériences dont il invoque l’autorité, s’est contenté de ne publier que les résultats les plus conformes à l’énoncé de sa théorie. Le même procédé pourrait valoir quitus au physicien pour confirmer qu’un dès retombe toujours sur six. Charles Darwin (1809-1882) L’auteur de la théorie de l’évolution « au moyen de la sélection naturelle » doit également répondre d’indélicatesses envers sa discipline et, plus précisément, envers ceux qui l’ont précédé. Darwin n’a pas laissé de s’attribuer un mérite qui ne lui revenait pas. Le sien, bien qu’indéniable, ne lui suffisait pas. « J'aimerais pouvoir attacher moins de prix à cette renommée de pacotille, confesse Darwin, présente ou posthume, encore que je ne pense pas y sacrifier de façon excessive » (cité par R. K. Merton dans The sociology of science : Theoretical and empirical investigations , 1973). Comme aimait à le déclarer Newton, on ne peut pas être juge et partie… Samuel Butler, écrivain britannique contemporain de Darwin, ne laissait pas d’accuser le peu de cas que faisait celui-ci de la contribution de son grand-père Erasmus ou d’autres figures scientifiques majeures anticipant sur l’évolutionnisme, dans la lignée de Buffon et de Lamarck (cf. Evolution Old and New, 1879). C’est à cet épisode que se réfère Francis, fils de l’auteur de L’Origine des espèces, lorsqu’il témoigne de ce que « Cette affaire causa beaucoup de chagrin à [son] père, mais la chaleureuse sympathie de ceux dont il respectait les idées lui permit bientôt de rejeter tout cela dans un oubli bien mérité ». Encore eût-il fallu que « l’oubli bien mérité » n’ait concerné que la vanité de Darwin ou l’apport occulté de ses précurseurs ; l'anthropologue Loren Eiseley l’étend aux recherches d'Edward Blyth. Ce 36 zoologiste britannique autodidacte avait été l’auteur de deux articles, publiés respectivement en 1835 et 1837. « Évolution », « sélection naturelle », etc., la plupart des concepts au cœur de l’œuvre Darwin s’y trouvaient développés dans le sens utilisé par ce dernier. L’œuvre de réhabilitation d’Eiseley s’appuie autant sur des remarques de fond que sur des considérations de forme. Soit l’analyse stylométrique, qui lui permet de mettre à jour des ressemblances frappantes entre les textes des deux scientifiques. L’hommage ne se distingue du plagiat caractérisé que par des références absentes de l’œuvre de Darwin. Relevons ici, à la décharge du naturaliste, qu’il mentionne Blyth dans son Natural History of the Cranes – mais pour ne lui attribuer qu’un concours théorique superficiel. Cette référence, au reste, est un hapax, qu’il ne céda pas de son vivant. Le Natural History of the Cranes paraît sous le régime posthume en 1881. Gregor Mendel (1822-1884) Ce serait en cultivant des pois que l'abbé Gregor Mendel aurait mis en relief des régularités dans le processus de transmission des caractères en botanique, et ainsi mis au jour les fondements statistiques de ce qui deviendrait plus tard l’ingénierie (ou génie) génétique (en anglais « genetic engineering »). Les données publiées dans ses travaux s’avèrent pourtant, de l’avis des scientifiques qui lui ont emboîté le pas, trop concordantes pour ne pas avoir été en partie inventées. « Les données de la plupart des expériences de Mendel, pour ne pas dire toutes, ont été truquées de manière à s'accorder étroitement avec ce qu'il espérait trouver », conclut en 1936 le statisticien Ronald A. Fisher au terme d’un réexamen des travaux de Mendel. Le diable est dans les détails. Bien trop précis pour être vrais. Bien trop parfaits pour ne pas mettre la puce à l’oreille. Fisher se veut diplomate en précisant que Mendel n’était peut-être pas lui-même à l’origine de ces abus. Rien ne prouve qu’il n’avait pas été, à son insu, « trompé par quelque assistant qui savait trop bien ce que l'on attendait ». Le jugement des généticiens exprime moins de complaisance à l’endroit de 37 leur ancêtre fondateur. Un historien de la génétique relativise ainsi l’origine expérimentale des intuitions de Mendel : « L'impression que l'on retire de l'article même de Mendel et de l'étude qu'en a faite Fisher est que Mendel avait déjà sa théorie en tête quand il procéda à ses expériences. Il se pourrait même qu'il ait déduit ses lois à partir d'une conception particulière sur l'hérédité à laquelle il serait parvenu avant d'avoir commencé ses travaux sur les pois ». Que la théorie précède l’expérimentation, dont acte. Une chose est néanmoins de poser une hypothèse, une autre de n’admettre pour admissibles que les observations – minoritaires en nombre – à même de la corroborer. Or c’est bien là que le bât blesse : de ses « expériences », Mendel n’aurait retenu pour ses publications que celles qui s’accordaient aux prédictions de la théorie, et tenu l’ensemble des autres pour nulles et non avenues, quantités négligeables. Il les aurait sciemment exclues. Le caractère improbe de ces méthodes ne frappe pas nécessairement tout le monde. L’algébriste hollandais van der Waerden, auteur de la Modern Algebra (1930), n’y voit pas l’exception que feignent y reconnaître ses collègues : « Il me semble que beaucoup de scientifiques parfaitement honnêtes furent portés à agir de cette façon. Dès lors que l'on disposait d'un certain nombre de résultats confirmant clairement une nouvelle théorie, on les publiait en laissant de côté les cas douteux ». Rien que de très banal. Le cas de Mendel n’est pas exceptionnel. Que celui qui n’a jamais péché lui jette la première pierre. Tandis que les statisticiens, généticiens et autres mathématiciens en sont encore à qualifier les faits et les méfaits de Mendel, un article daté 1972 de la revue Peas on Earth, faisant autorité chez les horticulteurs, s’adonne gaiement au parricide sous le mode satirique : « Au commencement était Mendel, ruminant ses pensées solitaires. Puis il dit : "Qu'il y ait des pois", et il y eut des pois, et cela était bon. Puis il mit ces pois dans le jardin et leur dit : "Croissez et multipliez, différenciez-vous et assortissez-vous indépendamment." Ainsi firent-ils, et cela était bon. Puis advint que Mendel rassembla ses pois et les sépara en graines rondes et ridées ; il appela les rondes dominantes, et les ridées récessives, et cela était bon. Mais Mendel vi alors qu'il y avait 450 pois ronds et 102 pois ridés. Cela n'était pas bon. Car la loi stipule qu'il doit y avoir trois ronds pour un ridé. Et Mendel 38 se dit en lui-même : "Gott in Him mel", c'est là l'œuvre d'un ennemi qui aura semé des mauvais pois dans mon jardin à la faveur de la nuit." Et Mendel, pris d'un juste courroux, frappa sur la table et dit : "Eloignez-vous de moi, pois maudits et diaboliques, retournez dans les ténèbres où vous serez dévorés par les rats et les souris ! "Et il en fut ainsi ; il ne resta plus que 300 pois ronds et 100 pois ridés, et cela était bon. Excellent même. Et Mendel le publia ». On aura reconnu la prose de la Genèse. Le parallèle est plus profond qu’il n’y paraît. Kuhn n’a-t-il pas soutenu le plus sérieusement du monde l’analogie entre les paradigmes scientifiques et les Saintes Écritures, entre les théories et les professions de foi ? Louis Pasteur (1822-1895) Il y aurait fort à dire quant à la controverse qui défraya longtemps la chronique scientifique opposant Louis Pasteur, pionnier de la microbiologie, à Félix Archimède Pouchet. Pouchet s’était rallié, contre les théories de Pasteur, au camp des partisans de l’hétérogénie, variante modernisée de la thèse de la génération spontanée. Elle remettait au goût du jour une ancienne tradition qui prétendait que le vivant pût jaillir de l’inerte : la grenouille de la boue, la mouche du quartier de viande, etc. Son principal défaut aux yeux de ses contempteurs n’était pas tant de nature scientifique que religieuse. Si l’Adam primordial, aux dires de la Genèse, était bien fait de terre rouge (et sa compagne d’un « os surnuméraire », selon la formule de Bossuet), la théorie avait la maladresse de faire l’économie l’intervention de Dieu. Elle évacuait la transcendance, rapportait tout à l’immanence de la matière. Sur ses sympathisants pesait en conséquence un lourd soupçon de matérialisme, ergo d’anticatholicisme, ergo de monarcomachie ; ce que Pasteur ne pouvait tolérer. N’étant rien de cela, il était donc, naturellement, hostile à l’hétérogénie… Notons que ce n’est donc pas en première intention à l’aune de la raison et en toute objectivité que Pasteur (qui portait bien son nom) entreprit de réfuter cette « dangereuse théorie ». Ce qu’il prétendit faire en enfermant diverses matières dans des bocaux « pasteurisées » pour observer s’il y avait 39 formation ou non d’animalcules. Pasteur communiqua ses résultats lors d’un congrès qu’il fit lui-même organiser en grande pompe, où furent conviés ses homologues venus des quatre coins du globe. Il déclara devant ses pairs avoir consciencieusement réitéré les expériences alléguées par Pouchet – et que jamais celles-ci n’avaient donné matière à conforter les thèses de son contradicteur. Ce que Pasteur ne disait pas, c’était que dans neuf cas sur dix, il observait effectivement, à son grand désespoir, la formation d’animalcules germés au cœur de bottes de foins pourtant dûment aseptisées, et disposées sous cloche. Ce n’est que bien plus tard qu’on apprendrait qu’il s’agissait seulement de bacilles résistants aux hautes températures. La faune versicolore des micro-organismes et des microzoaires demeurerait invisible jusqu’à la mise au point du microscope. La doctrine de Pouchet s’accordait aux observations. Pasteur n’en laissa rien savoir. Le scientifique garda le silence, forme diplomatique de l’embarras. Plutôt que d’exciper une théorie (celle de Pouchet) d’observations factuelles, il passa outre le désaveu des faits ; s’arrangea, comme Newton, avec ses résultats pour officialiser des idées préconçues, et comme celles de Newton, exsangues de justification épistémologique. Caution de première main, ses carnets personnels attestent que Pasteur, bourrelé de scrupules religieux et politiques, avait sciemment scellé la vérité. Il l’avait morticolisée dans les règles de l’art. Passée sous le boisseau au motif qu’« elle était trop grave » : « Je ne publiai pas ces expériences ; les conséquences qu'il fallait en déduire étaient trop graves pour que je n'eusse pas la crainte de quelque cause d'erreur cachée, malgré le soin que j'avais mis à les rendre irréprochables » (Mémoire sur les corpuscules organisés qui existent dans l'atmosphère. Examen de la doctrine des générations spontanées, 1862). Trop grave pour quoi ? Pour qui ? Quid de la science et de sa légendaire indépendance ? Quid de la déontologie ? Elle est bien loin, la rationalité que célébrait Bacon ! Pasteur, rappelons-le, reste, à l’instar de Benjamin Franklin sous d’autres latitudes, considéré sous nos climats ainsi qu’un parangon de science. Consolons-nous au moins en nous rappelant qu’à rebours de Franklin, Pasteur aura eu d’autres intuitions, plus salutaires, salubres, plus sanitaires pour la médecine… 40 Nous ne croyons plus au XXIe siècle que des muridés puissent germer dans des serpillières gorgées de sperme. Pasteur, quand bien même ses expérimentations lui donnaient visiblement tort, avait raison pour ce qui a trait au fond de la question. Si l’apparente naïveté de la théorie de l’hétérogénie peut prêter à sourire, il faut toutefois que le sourire soit large. Il faut nous rappeler que c’est bel et bien de l’inerte, de la chimie du carbone, que les premiers organismes vivants ont émergé sur Terre. Il y a bien eu, au moins une fois, sur Terre, passage de l’inerte au vivant. Les premiers constituants de la première cellule, LUCAS, notre ancêtre commun – à nous, humains, comme à tout organisme –, auraient pu être élaboré dans la soupe prébiotique ou au creux des argiles, ou d’une autre manière à laquelle ne songe pas encore l’archéobiologie. Toutes font valoir il y a bel et bien eu un événement répondant à l’antique définition de la génération spontanée. Et on ne voit pas pourquoi ce phénomène ne serait pas reproductible en condition de laboratoire. La controverse a changé de visage, mais ne s’est pas éteinte. Robert Millikan (1868-1953) Cas plus récent, celui de Robert Millikan, à qui l’on doit d’avoir effectué la première mesure précise de la charge électrique de l’électron. Du moins estce là l’imputation qui lui valut le prix Nobel de physique en 1923. Mais il y a loin de la coupe aux lèvres. Il y eu pour cela recourt à l’« expérience de la goutte d’huile ». Usant d’une valeur erronée de la viscosité de l’air, il fut toutefois contraint de « rétablir » ses résultats de manière artificielle, en « bricolant » avec la vérité. Craignant de s’être eux-mêmes trompé, nombre de physiciens expérimentateurs agirent de même pour retrouver les résultats de Millikan. Le fin mot de l’affaire ne serait éventé qu’en 1974 avec l’intervention de Richard Feynman au cours d’une de remise de diplômes à Caltech (California Institute of Technology), mettant fin à un demi-siècle de complaisance et d’omerta : « Nous avons beaucoup appris par expérience personnelle sur les façons par lesquelles on peut s’induire en erreur. Un exemple : Millikan mesura la charge de l’électron à l’aide d’une expérience faite 41 avec des gouttes d’huile et obtint un chiffre que nous savons aujourd’hui ne pas être complètement exact. La valeur était un peu décalée parce qu’il utilisait une valeur incorrecte de viscosité. Il est édifiant d’examiner les résultats qui ont suivi Millikan. Si on trace les valeurs obtenues en fonction de la date à laquelle elles ont été trouvées, on se rend compte que l’expérience suivant celle de Millikan donne une valeur légèrement supérieure à celle que Millikan avait trouvé, et que celle qui suit donne une valeur encore légèrement supérieure, jusqu’à ce qu’on arrive progressivement à une valeur très supérieure. Mais pourquoi n’ont-il pas trouvé la bonne valeur dès le début ? Les scientifiques ont honte des dessous de cette histoire car il semblerait que les choses se soient passées ainsi : lorsqu’ils obtenaient une valeur bien plus élevée que celle de Millikan, ils se disaient qu’il devait y avoir une erreur et essayaient de comprendre ce qui avait pu mal tourner. Et lorsqu’ils trouvaient une valeur proche de celle de Millikan, ils ne se posaient pas de questions. Ils ont ainsi éliminé les valeurs trop décalées. Nous connaissons ces petites combines de nos jours et nous nous savonsnous immuniser contre cela ». Nous nous voudrons moins dogmatiques quant à cette conclusion. Actualité de la fraude Le détail de ces exemples et d’autres de la même eau sont traités dans le remarquable ouvrage de W. Broad et de N. Wade, La souris truquée. Enquête sur la fraude scientifique, Paris, Seuil, 1987. Ceux-là suffiront à notre propos. Le bilan n’est guère fameux. Le récit orthodoxe de l’histoire des sciences ne retient par nature et par amour-propre que les exploits des rares individus ayant contribuée de manière décisive à l’avancée des connaissances. S’il s’agit là de ces mêmes personnages dont on a vu le peu de scrupules qu’ils avaient à s’approprier les résultats de leurs prédécesseurs, à contrefaire le compte rendu de leurs expériences (pour autant qu’ils les aient mises à exécution), on peut se demander jusqu’à quel point leurs pairs de moindre renommée ont pu verser dans la contrefaçon. Ce qui vaut pour le passé reste on ne peut plus d’actualité. Si même les plus illustres 42 représentants des sciences s’autorisaient autant de licence intellectuelle, comment les chercheurs salariés du XXIe siècle ne prendraient-ils pas, autant que faire se peut, des libertés avec la « vérité » ? Naïf qui voudrait croire que notre époque avertie de ces cas jurisprudentiels se soit pourvue de garde-fous suffisamment nombreux pour écarter tout risque de voir se répéter ces précédents de sinistre mémoire. La fiabilité des comités de lecture est loin d’être établie, comme l’a malicieusement prouvée l’affaire Sokal-Bricmont. Les filtres institutionnels ne garantissent pas contre la fraude. À cela s’ajoutent les conditions de production du savoir scientifique au XXIe siècle, qui soumettent le chercheur à des impératifs de rentabilité tout à la fois économiques et bibliométriques (e.g. le fameux indice H). La renommée ne nourrit pas son homme. L’amour de l’art ne finance pas le matériel et les infrastructures de recherche. Semblables préventions n’effleuraient pas les hommes de science d’il y a quelques siècles. Ils héritaient une tradition qui dissociait résolument les nobles productions de l’esprit de toute velléité d’enrichissement. La rentabilité a déposé le prestige. Autre point à considérer : la science d’avant le XXe siècle se pratiquait dans le temps de l’otius (« loisir »), comme un art libéral. Art du même ordre que pouvait l’être la politique ou la dramaturgie dans l’organisation économique qui était celle de l’ancienne Athènes. En fait d’esclaves, les princes et les mécènes pourvoyaient aux besoins matériels de leurs protégés, qu’ils soient artistes ou scientifiques, lesquels leur dédiaient en retour leur découverte. C’est au duc de Toscane que Galilée fut redevable de pouvoir effectuer ses expériences. La fortune que Darwin reçut en héritage ne compta pas pour peu dans le temps de maturation et de réflexion qui lui fut nécessaire pour accoucher de L’Origine des espèces. Beaucoup de découvreurs et inventeurs célèbres était des moines soutenus par une communauté : que l’on songe à Gregor Mendel, à Giordano Bruno ou à… Dom Pérignon (bien que l’invention du vin mousseux par ce bénédictin relève de la légende plus que du fait historique). Les commencements de la « Big science » obligent les scientifiques à se regrouper autour d’infrastructures dont la maintenance exige des fonds qui 43 mettent celles-ci hors de portée des dilletantes et des particuliers. Les scientifiques se spécialisent. La science change de visage. De passe-temps qu’elle était, elle devient profession. L’affaire de plus d’une vie, l’affaire d’une collectivité. Et plus radicalement encore, bien plus qu’une vocation : un moyen de subsistance. Se constituent des groupes et des équipes de recherches subventionnés par les États ou par les entreprises privées, au sein desquelles évoluent à plein temps des chercheurs « prolétarisés ». D’où l’exigence de résultats rapides et mesurables quantitativement. Le nombre de citations dans les revues à comité de lecture (américaines, pour l’essentiel) fait foi de la productivité de chaque chercheur, sans égard pour la qualité de leur résultats ni pour la valeur ajoutée de ces résultats ; ce quelle que soit la discipline considérée. Leur quotidien prend l’apparence d’une lutte pour l’existence que résume la devise « publish or perish ». Le temps consacré à la recherche et à la réflexion ne peut plus apparaître que comme un temps sacrifié, là où toute l’attention des scientifiques doit être concentrée sur l’objectif de produire à flux tendu. Ce qui, aux États-Unis, ne relève plus d’une seule question d’orgueil, mais déjà d’une question de survie. À quoi bon s’obstiner à maintenir en poste des scientifiques improductifs ? Et les gouvernements, et les industriels, par quel tour improbable s’entêteraient-ils à abonder des unités de recherche et des projets sans « visibilité » ? Mais il n’est pas besoin de franchir les eaux de l’Atlantique pour voir à l’œuvre cette mentalité. L’adoption du mode de financement par projet dans le secteur public contraint les équipes de recherches à de véritables contorsions intellectuelles pour inventer des débouchés à des explorations encore inentamées, assorties de leurs conclusions définitives. Cette inversion de la démarche scientifique a pour effet de condamner tout « risque » d’ouverture à l’inédit, à l’étrangeté, aux jamais vu ; de réduire à peau de chagrin la part de hasard nécessaire aux découvertes authentiques. Elle prononce ce faisant une condamnation à terme de la recherche fondamentale, intrinsèquement porteuse d’une part de créativité et de spéculation. Le secteur privé n’est pas en reste. Ne sont trop souvent récompensés, à 44 force de primes et autres promotions, que les succès exploitables économiquement, au terme d’initiatives à visées carriéristes plutôt que progressistes. La position sociale du scientifique se trouve dans tous les cas intimement liée au nombre et à l’emploi de ses publications. Incitation bien suffisante pour engendrer toute une typologie de fraudes : de l’arrangement à l’invention en passant par l’occultation de certains résultats non concordants et l’appropriation des idées développées par d’autres. Qu’il brigue un poste prestigieux, un prix, une subvention ; qu’il cherche à se forger une réputation ; qu’il désire simplement se maintenir dans son statut, le même tarif appelle les mêmes déviances. L’inquiétude porte désormais sur les évolutions prochaines (d’aucuns disent « imminentes ») des structures de recherche. Que restera-t-il de l’indépendance de la science au terme du processus de libéralisation (« autonomie ») des universités (ouverture au capital) ? De quelle latitude un ingénieur disposera-t-il encore une fois son sacerdoce phagocyté par les industriels de l’innovation ? Quel avenir pour la fraude, déjà si répandue, dans une société qui préfère le rendement à la fertilité ? Comment un scientifique confronté à de telles pressions ; mettons plutôt « combien de temps » un scientifique dont la pérennité ne dépend parfois que de sa capacité à resquiller sans se faire prendre, restera-t-il vertueux ? Giordano Bruno (1548-1600) Principales contributions : - Le Banquet des cendres (1584) - L'Infini, l'univers et les mondes (1584) - L'Expulsion de la bête triomphante (1584) - Des liens (1591) Concepts et idées-forces : - Profession de foi copernicienne affirmée dès 1584 dans Le Banquet des cendres. Les planètes tournent sur elle-même (rotation) et autour du Soleil (révolution). Développement de la théorie de l’héliocentrisme sur la base des travaux de Nicolas de Cues (1401-1464). 45 - Plusieurs points de divergence d’avec le modèle de Copernic empêchent toutefois de voir en Bruno un héritier fidèle de sa pensée. (1) Le moine déploie en premier lieu le paradigme d’un cosmos animé, doué de son mouvement propre, qu’il communique aux corps célestes. Là même Copernic attribuait la cause de la révolution des astres à leur forme sphérique, Bruno les dote d’une âme ou d’un principe vital à l’origine de leur mouvement, principe qui se retrouve partout dans l’univers en tant que corps vivant, dans les parties comme dans l’ensemble formé de ces parties. Aussi les astres ne sont-ils pas véhiculés par des sphères cristallines et ne sont pas soumis aux lois physiques, dont celle de l’inertie. Ils tendent, selon leurs « appétits », vers leur lieu naturel, profitant de la chaleur de l’astre hélianthe et de sa lumière pour mieux pourvoir à la conservation de leur être (conatus). Tels sont les postulats fondamentaux de ce que Paul-Henri Michel appelle la « biocosmologie » de Bruno (Giordano Bruno, philosophe et poète, 1952), très éloignés des considérations de Copernic. Une teneur animiste qui aussi bien entre en contradiction avec l’orthodoxie théologique. Le Dieu de la Genèse fait des (pseudo-)divinités astrales des panthéons des civilisations périphériques, en particulier babylonienne, de simples luminaires ; il désenchante le monde pour mieux le transcender. Pose également le problème de savoir quel type de relation (identité, analogie, ressemblance, etc.) entretient Dieu avec les âmes particulières contenues dans les objets physiques, les âmes des créatures et l’âme du monde. (2) Bruno prend à partie le privilège indûment accordé par Copernic au mouvement circulaire parfait, le même qui traverse toute l’astronomie classique de Platon à Ptolémée. Un tel mouvement parfait ne peut exister dans l’ordre du sensible et n’est pas corroboré par les observations. Les orbites elliptiques des cinq planètes seront découvertes par Kepler. (3) Pas davantage que ne l’était la Terre, le soleil n’est considéré par Giordano Bruno comme résidant au centre du cosmos : « Il n'y a aucun astre au milieu de l'univers, parce que celui-ci s'étend également dans toutes ses directions » (Le Banquet des cendres). Bruno tient, à la suite de Nicolas de Cues, qu’il est « impossible d'attribuer à la machine du monde aucun centre fixe et immobile » (La docte ignorance). Le cosmos n’est plus borné par une « sphère des fixes ». Bruno bannit les hiérarchies cosmiques, que ce soit celles véhiculées par le modèle d’Aristote ou par celui de Copernic, axées 46 respectivement sur l’orbe terraqué ou sur l’astre du jour. Il envisage d’autres systèmes solaires au sein desquels, autour de leur étoile centrale, orbitent d’autres planètes invisibles à nos yeux : « Il est donc d'innombrables soleils et un nombre infini de Terres tournant autour de ces soleils, à l'instar des sept "Terres" [la Terre, la Lune, les cinq planètes alors connues : Mercure, Vénus, Mars, Jupiter, Saturne] que nous voyons tourner autour du soleil qui nous est proche » (L'Infini, l'Univers et les Mondes). Ces planètes sont partout de la même composition élémentaire que la nôtre et doivent être étudiées selon les mêmes méthodes. (4) Infinité de l’univers. Surmonte l’obstacle épistémologique de la finitude que maintenait Copernic en conservant du modèle planétaire aristotélicien la sphère des étoiles fixes en rotation autour d’un centre (la Terre ou le soleil) : « Nous déclarons cet espace infini, étant donné qu'il n'est point de raison, convenance, possibilité, sens ou nature qui lui assigne une limite » (L'Infini, l'Univers et les Mondes). Il n’y a qu’un vide immense et homogène qui s’étend dans toutes les directions à perte d’imagination. Le cosmos délimité vole en éclat. Une transgression de toute frontière physique, mais également intellectuelle, qui permet de penser un infini actuel. Il est à signaler que l’astronome anglais Thomas Digges, élevé sous la tutelle du sulfureux John Dee (1546-1595), avait déjà envisagé cette possibilité de l’infinité de l’univers dans l’appendice qu’il rédigeait en 1576 pour la nouvelle édition de l'almanach perpétuel de son père, première publication anglaise prônant l’héliocentrisme de Copernic : A Prognostication everlasting. (5) Pluralité des mondes habités. Là où n’était auparavant qu’une seule Terre viable au centre de la sphère des fixes, advient l’image d’un univers peuplé d'une infinité d’astres et de mondes identiques au nôtre, lesquels ne sont « point différents de notre monde par leur nature, mais seulement par leurs dimensions » (Le banquet des Cendres), abritant d’autres créatures faites à l’image de Dieu. « Ainsi donc les autres mondes sont habités comme l'est le nôtre ? demande Burchio. Fracastorio, porte-parole de Bruno répond : Sinon comme l'est le nôtre et sinon plus noblement. Du moins ces mondes n'en sont-ils pas moins habités ni moins nobles. Car il est impossible qu'un être rationnel suffisamment vigilant puisse imaginer que ces mondes innombrables, aussi magnifiques qu'est le nôtre ou encore plus magnifiques, soient dépourvus d'habitants semblables et même supérieurs » ( L'Infini, 47 l'Univers et les Mondes). Soulève le problème de l’Incarnation : qui pour sauver ces âmes ? D’autres Adam, d’autres Christ, d’autre Crucifixions ? - Il semble, en dernière analyse, que Bruno ait été le premier penseur de la Renaissance à entrevoir l’infinité d’un univers peuplé d’un bestiaire infini de corps célestes, de soleils et de mondes habités. Ce qui fait dire à Ernan McMullin (Newton on Matter and Activity, 1979) que s’il a bien repris certaines idées de Copernic, il ne l’aura fait que marginalement, qu’en vue de la constitution de son propre système. Bien que les deux hommes se rangent expressément sous la tutelle du Trismégiste, c’est avec des a priori et des méthodes irréductiblement distinctes, qui aboutissent à des thèses qui ne sont pas moins (ne serait-ce qu’au regard de la clôture ou de l’illimitation de l’univers). - Justification théologique. Ce n’est pas par iconoclastie ou hérésie, par volonté d’abattre la théologie que Bruno heurte avec un tel allant l’orthodoxie de son temps. C’est, comme pour nombre de philosophes théologiens croyants ayant marqué l’histoire des sciences (et, malgré eux, précipité l’effondrement de l’autorité chrétienne), mu par une foi inébranlable d’où s’origine la conviction que les vérités atteintes par la raison ne peuvent être en contradiction avec contenu véritable de la révélation. Bruno joue la religion contre la religion. Exemple avec l’infinité de l’univers : celle-ci n’est pas un signe d’imperfection (contra l’acception grecque de l’idée d’infini), mais le reflet de la toute-puissance du Créateur au sein de la création. L’effet doit refléter pleinement le caractère infini de sa cause. Dieu crée son image ; à son image, le monde est infini. L’infinité du monde imite la perfection de Dieu : « Il n'y a qu'un ciel, une immense région éthérée où les magnifiques foyers lumineux conservent les distances qui les séparent au profit de la vie perpétuelle et de sa répartition. Ces corps enflammés sont les ambassadeurs de l'excellence de Dieu, les hérauts de sa gloire et de sa majesté. Ainsi sommes-nous conduits à découvrir l'effet infini [le monde] de la cause infinie [Dieu] ; et à professer que ce n'est pas hors de nous qu'il faut chercher la divinité, puisqu'elle est à nos côtés, ou plutôt en notre for intérieur, plus intimement en nous que nous ne sommes en nousmêmes » (Le Banquet des cendres). Poser un univers fini serait, par contraposition, poser un Créateur fini qui ne saurait être Dieu. Bruno, malgré sa formation thomiste, tire là une conséquence qui répugnait encore à Nicolas de Cues, lequel, s’il rejetait de fixer des limites à l’univers, ne le 48 concevait pas comme infini en acte. Ainsi écrivait-il, dans La docte ignorance, que « bien qu'en un sens le monde ne soit pas infini, on ne peut pourtant pas le concevoir comme fini, puisqu'il n'est enclos entre aucunes limites » (La docte ignorance). - Rend possible une extension à la physique de l’idée d’infini, jusqu’alors chasse gardée de la théologie. Permet de penser un infini réel, présent et saisissable dans l’immanence (de la nature), au-delà de la transcendance divine. Un geste décisif pour le procès de mathématisation du phénomène et du mouvement, coextensif à l’émergence de la science moderne. Fontenelle porte cette entreprise à son plus haut degré de réalisation en 1728 avec ses Éléments de la géométrie de l’infini, qui dénouent définitivement les liens de l’infini et de la transcendance. Voir les problèmes de l’infini mathématique chez Pascal et Galilée. Leibniz et la résolution des paradoxes Zénon. - Les partisans du système d’Aristote relevaient que si la Terre était effectivement en rotation, une pierre jetée du haut d’une tour devrait s’en éloigner dans le sens inverse de la rotation de notre planète durant le temps de sa chute, et retomber à quelques mètres de son pied. Ce qui n’est manifestement pas le cas ; ensuite de quoi (modus tollens) la Terre devait être fixe. Bruno constate que le dispositif tour-pierre-Terre forme un ensemble (ultérieurement nommé un « système mécanique ») depuis lequel on ne peut déceler un mouvement absolu : « Toutes choses qui se trouvent sur la Terre se meuvent avec la Terre. La pierre jetée du haut du mât reviendra en bas, de quelque façon que le navire se meuve » (Le Banquet des cendres). - Relativité du mouvement. L’âme habite chaque parcelle de la matière, lui conférant la vie ; si bien que plus aucun corps ne peut être considéré comme en état de repos absolu. Le mouvement néanmoins ne peut pas plus être considéré de manière absolue, et ne peut être envisagé que par rapport à un système de référence, plus tard appelé « référentiel galiléen ». – Les devanciers et les inspirateurs. À l’exclusion des physiciens et astronomes contemporains (dont Galilée), Bruno puise à de nombreuses sources, étalées dans l’histoire : (1) Matérialisme antique. Démocrite, Épicure et Lucrèce en ce qui concerne l’atomisme, qu’il investit d’un animisme anticipant par certains traits les monades de Leibniz. 49 (2) Théologie médiévale. Si Aristote et les néoplatoniciens ne sont pas oubliés, c’est encore chez les philosophes chrétiens que Bruno puise la matière principale de sa cosmologie infinitiste : chez Nicolas de Cues, principalement, qui anticipe sans l’assumer l’infinitude de l’univers et affirme son absence de centre (cf. La docte ignorance). (3) Hermétisme de la Renaissance. Épanouissement de l’occultisme à la suite de la traduction au XVe siècle par Marsile Ficin de plusieurs traités du Corpus hermeticum, attribué à Hermès Trismégiste. De nombreuses autres inspirations cabalistiques, magiques ou magico-religieuse signalées par l'historienne Frances Yates dans ses travaux portant sur Giordano Bruno et la Tradition hermétique (1964). - Principe de plénitude. En accord avec le thème orthodoxe de l’échelle des êtres, Bruno pose que le Créateur, en vertu de son essence, n’a pu faire autrement que de combler le plus grand espace possible avec le plus grand nombre et la plus grande diversité possible de perfection, de mondes de formes, d’essences. Le principe de plénitude acquiert une importance centrale au sein de la théodicée de Leibniz. Explique l’imperfection des créatures et l’échelle des êtres (scala naturæ). - Principe de raison suffisante. Autre héritage de Giordano Bruno au cœur de la philosophie de Leibniz. Il signifie que rien n’est sans raison, pas plus dans l’ordre de l’existant que dans celui de la pensée. En son sens négatif, implique que l’on ne peut écarter aucune proposition probable sans justifier cette exclusion. Si Dieu est tout-puissant, il crée infiniment ; il créé un univers à son image, illimité et dépourvu de centre ; crée d’autres êtres aussi bien inférieurs que « semblables et supérieurs à nous ». Que ne le ferait-il pas ? - Confiance en la puissance de l’intellect vs. les preuves mathématiques : « Concernant la mesure du mouvement [des corps célestes], la géométrie ment plutôt qu'elle ne mesure […] C'est à l'intellect qu'il appartient de juger et de rendre compte des choses que le temps et l'espace éloignent de nous » (De immenso). Penser n’est donc pas calculer (vs Hobbes). - Une œuvre hétéroclite. N’hésitant pas à associer la science et la philosophie à la magie et à la religion. Le De vinculis in genere (Des liens) de 1591 est ainsi consacré à l’occultisme. Comme le ferait Kepler et nombre d’autres protagonistes de la « révolution intellectuelle », Bruno raisonne en 50 astrologue tout en ne laissant pas de combattre la superstition ; ainsi dans L’expulsion de la bête triomphante. - Accusation d’athéisme pour ses écrits blasphématoires. Lui vaut d’être brûlé en place publique, en qualité de relaps, au terme de huit années de procès. Il s’était rétracté, pour finalement en revenir à ses primes hérésies concernant le statut de « mage habile » du Christ, du Salut pour Satan (apocatastase), du Saint-Esprit comme âme du monde, etc. Jurisprudence tragique qui crée une manière d’omerta, de climat de « terrorisme intellectuel » pesant sur les protagonistes de la science moderne et en particulier Descartes, qui préféra se consacrer à la philosophie plutôt que de passer dans la physique le point de non-retour qui l’aurait mis en butte aux anathèmes. - Le travail du négatif. Comme le souligne Arthur O. Lovejoy, pionnier de l’histoire des idées, le raisonnement de Bruno reste attaché aux formes scolastiques héritées de la refonte par saint Thomas de la pensée d’Aristote. C’est donc « de l’intérieur » que le Napolitain fait un sort à la théologie médiévale, en excipant et en portant à leurs ultimes limites certaines des thèses qu’elle recelait déjà. Le paradigme meurt de ses contradictions, offrant l’un des plus beaux exemples de dialectique au sens qu’Hegel donnera à ce concept. Léon Brunschvicg (1869-1944) Principales contributions : - La Modalité du jugement (1897) - Le Progrès de la conscience dans la philosophie occidentale (1927) - La Raison et la religion (1939) Concepts et idées-forces : - La méthode réflexive (idéalisme critique) - Le jugement scientifique - Le progrès du savoir sous la modalité des sciences rend compte de la genèse de l’esprit 51 Jean Buridan (1292 - 1363) Principales contributions : - Expositio et Quaestiones in Aristotelis « De Caelo » (1328) - Compendium Logicae (1335) - In Aristotelis Metaphysica (?) Concepts et idées-forces : - Instigateur du scepticisme en matière de religion. - Théorie de l'impetus. Redécouverte aux alentours de 1340 (cf. articles « Impetus » de Christiane Vilain, et « Inertie » de François de Gandt dans Dominique Lecourt, Thomas Bourgeois (éds.), Dictionnaire d'histoire et philosophie des sciences, 2006). Prise en défaut de la théorie aristotélicienne de la cause motrice, faisant valoir que tout projectile doit être mû par autre chose. Même l’hypothèse ad hoc attribuant à l’air échauffée d’acquérir une puissance qui pousse le projectile ou au contraire, la tire en raison de la raréfaction de l’air provoqué par son déchirement (antipéristase), sont impuissants rendre compte de la dynamique des corps. La solution de Buridan et celle de l’impetus, qui dénote les concepts de quantité de mouvement et d’énergie cinétique avant que ne soit mis au point l’idée de vitesse, et anticipe de manière originale sur la loi de l’inertie formalisée avec Descartes et Galilée : « Voici donc, ce me semble, ce que l'on peut dire : tandis que le moteur meut le mobile, il lui imprime un certain impetus, une certaine puissance capable de mouvoir le mobile dans la direction même où le moteur meut le mobile, que ce soit vers le haut, ou vers le bas, ou de côté, ou circulairement. Plus grande est la vitesse avec laquelle le moteur meut le mobile, plus puissant est l'impetus qu'il imprime en lui...mais par la résistance de l'air, et aussi par la pesanteur qui incline la pierre à se mouvoir en sens contraire... cet impetus s'affaiblit continuellement [...] Toutes les formes et dispositions naturelles sont reçues en la matière et en proportion de la matière ; partant plus un corps contient de matière, plus il peut recevoir de cet impetus ; or dans un corps dense et grave, il y a, toutes choses égales d'ailleurs, plus de matière qu'en un corps rare et léger. Une plume reçoit un impetus si faible que cet impetus se trouve détruit aussitôt par la résistance de l'air » (cité dans article « Impetus », op. cit.). 52 - Cette théorie se connaissait une préfiguration chez le commentateur byzantin Jean Philopon ainsi que chez Guillaume d’Ockham, lequel fait référence à une manière de communication énergétique d’un corps « agent » à un autre « patient », devenant lui-même agent d’une communication occasionnelle. - L’âne de Buridan. Expérience de pensée mettant en scène un dilemme poussé à l’absurde, exemplification de la double contrainte. Entre son picotin d'avoine et son seau d'eau, un âne se serait trouvé dans l’incapacité de choisir et serait mort de faim et de soif. Il s’agissait à l’origine d’un chien : « On a beaucoup parlé de l'âne de Buridan, à savoir un âne affamé placé entre deux bottes de foin, ou également affamé et assoiffé placé entre une botte de foin et un seau d'eau, qui se laisserait mourir d'inanition par indécision, pour décrire un choix moral. C'est dans son Commentaire littéral sur le Traité du ciel (exposition du traité De caelo) que Buridan met en scène, non pas un âne, mais un chien confronté au cruel dilemme. Buridan, avec tout l'humour qui le caractérise, évoque cette possibilité comme celle d'une alternative insensée, comparable à celle qui voudrait soupeser les mérites de la gravité terrestre et de l'objet lourd qui lui est soumis. On est donc loin de choix éthiques » (Benoît Patar, Dictionnaire des philosophes médiévaux, 2006). - Le passage d’Aristote réinvesti par Buridan se situe en 295b32. Il y est effectivement question d’un chien incapable d’arbitrer entre ses appétits, deux mets d’une attirance égale lui étant proposés. Le Stagirite s’en sert de paradigme pour décrire les mouvements contradictoires de la volonté humaine : « Celui qui, affligé d'une faim et d'une soif très vives, mais également intenses, se trouve à égale distance des aliments et des boissons : lui aussi demeurera nécessairement immobile ! » (trad. P. Moraux). S’ensuit la métaphore d’une corde sans défaut tendu au point de rompre, mais « ne sachant pas » en quel endroit. - Descartes reprend le dilemme de l’âne (ou chien) de Buridan pour illustrer ce qui constitue chez l’homme le plus bas degré de la liberté, la liberté d’indifférence, qui se décide sans être mûe par des raisons. La liberté d’indifférence est en revanche la plus grande perfection de Dieu, lequel n’a pas sa volonté contrainte par son entendement (c’est aussi l’opinion d’Arnaud, contre celle de Leibniz). 53 - On retrouve l’âne (devenue ânesse, ce qui en dit long) de Buridan dans le scolie de la proposition 49 de la deuxième partie de l' Éthique de Spinoza, « On peut […] objecter que, si l'homme n'opère pas par la liberté de la volonté, qu'arrivera-t-il donc s'il est en équilibre, comme l'ânesse de Buridan ? Mourra-t-il de faim et de soif ? Que si je l'accorde, j'aurai l'air de concevoir une ânesse, ou une statue d'homme, non un homme ; et si je le nie, c'est donc qu'il se déterminera lui-même, et par conséquent c'est qu'il a la faculté d'aller, et de faire tout ce qu'il veut. […] J'accorde tout à fait qu'un homme placé dans un tel équilibre (j'entends, qui ne perçoit rien d'autre que la soif et la faim, tel aliment et telle boisson à égale distance de lui) mourra de faim et de soif. S'ils me demandent s'il ne faut pas tenir un tel homme pour un âne plutôt que pour un homme ? Je dis que je ne sais pas, pas plus que je ne sais à combien estimer celui qui se pend, et à combien les enfants, les sots, les déments, etc. » (trad. Bernard Pautrat, p. 191 et 195). Outre la féminisation de la bête affamée, l’amendement porte sur l’incapacité que l’homme aurait à choisir en dernière intention, quand Buridan lui accordait la liberté d’opter de manière gratuite. Michel Callon (1945-20XX) Principales contributions : - « Éléments pour une sociologie de la traduction. La domestication des coquilles Saint-Jacques dans la Baie de Saint-Brieuc », dans L'Année sociologique, n°36 (1986) - La Science et ses réseaux. Genèse et circulation des faits scientifiques (1989) - La Science telle qu'elle se fait (avec Bruno Latour) (1991) - La Scientométrie (avec Jean-Pierre Courtial et Hervé Penan) (1993) - Agir dans un monde incertain. Essai sur la démocratie technique (avec Pierre Lascoumes et Yannick Barthe) (2001) Concepts et idées-forces : - Sociologie de l’acteur-réseau (SAR) ou sociologie de la traduction développée de concert avec Bruno Latour, John Law et Madeleine Akrich, qui permet de penser ensemble la production des connaissances et les 54 institutions, enjeux industriels, effets sociaux, impacts et débouchés des sciences. Cf. notice Bruno Latour. - Tente une application de la sociologie de la traduction au champ de l’économie. - Spécialisée dans les « science and technology studies » (sociologie des sciences et des techniques). - L’étude de « la science en train de se faire » ne peut faire l’économie de ses enjeux sociaux hors du laboratoire. L’activité scientifique est tributaire d’une démarche préalable de mobilisation des acteurs concernés, des groupes et des individus susceptibles d’être enrôlés et pareillement, de dispositifs techniques, de ressources industrielles et naturelles, de phénomènes dont l’ensemble tisse un dense réseau d’acteurs qui prête sa crédibilité à un énoncé scientifique. - L’illustre l’enquête que mène Michel Callon autour d’une recherche scientifique portant sur la fixation des coquilles Saint-Jacques de l’espèce Pecten maximus en baie de Saint-Brieuc. Dans son article de 1986, « Éléments pour une sociologie de la traduction… », il retrace les étapes par lesquelles trois chercheurs vont parvenir à importer une nouvelle technique permettant leur culture intensive, alors que l’activité locale vit ses derniers feux. Les trois acteurs identifiés sont les marins-pêcheurs, la communauté scientifique et les coquilles Saint-Jacques, chacun cultivant ses intérêts propres (respectivement, le maintien de l’activité locale, l’accroissement du savoir, la prolifération) ; il s’agit de nouer des alliances avec eux et de défaire leurs autres allégeances afin de les convaincre que leur avenir dépend de la réponse à la question « Pecten maximus se fixe-t-il ? », point de passage obligé (PPO). Colloques, négociations, réunions et pourparlers s’organisent qui rassemblent les hommes de la mer, les ingénieurs, les autres scientifiques intéressés à la question, etc. - Cet article séminal est l’occasion de l’application à l'analyse d'une controverse socio-technique de la notion de traduction, reprise de Michel Serres (Hermès III. La traduction, 1974). Callon motive aussi son choix d’analyser de manière symétrique les actants humains et non-humains. - Forums hybrides. Lieu de rencontre entre les acteurs du monde civil et du monde privé, des citoyens et des politiques, des experts et des habitants, des politiques et des chercheurs se réunissant à l’occasion de débats sociotechniques (chemtrails, enfouissement de déchets nucléaires, etc.). 55 Plusieurs enjeux soulevés par Bruno Latour dans Politiques de la nature trouvent ainsi leur prolongement dans Agir dans un monde incertain, ouvrage s’ouvrant sur l’éloquente antanaclase : « Que faire de l'écologie politique ? Rien. Que faire ? De l'écologie politique ! » Georges Canguilhem (1904-1995) Principales contributions : - Le normal et le pathologique (1943 ; 1966) - La connaissance de la vie (1952) - Idéologie et rationalité dans l'histoire des sciences de la vie (1977) Concepts et idées-forces : - Études d’histoire des sciences. Considère les textes scientifiques comme un champ d’exploration digne d’intérêt ; ce qui rompt avec la tradition philosophique. - « La philosophie est une réflexion pour qui toute matière étrangère est bonne, et nous dirions volontiers pour qui tout de bonne matière est étrangère ». S’intéresse à la biomédecine, car introduit à des problèmes humains concrets. Considérée comme une technique ou un art au carrefour de plusieurs sciences : une « technique d’instauration ou de restauration du normal ». - Pose une rupture qualitative entre le normal et le pathologique ; contra Auguste Comte et Claude Bernard qui ne voient en ce dernier qu’une variation quantitative des phénomènes normaux, leur « grossissement », le pendant naturel de l’expérimentation. La maladie affecte l’ensemble de l’organisme, elle refaçonne l’individu, corps et esprit. Reprise de l’exemple du diabète : « Devenir diabétique, c’est changer de rein ». La maladie instaure une autre « allure de la vie ». - Critère subjectif de démarcation du normal et du pathologique : « La qualité de pathologique et un apport d’origine technique et par là d’origine subjective. Il n’y a pas de pathologie objective ». Raison pourquoi la thérapeutique doit prendre en considération la subjectivité ainsi que la singularité de l’individu souffrant. On ne soigne pas une maladie, mais d’abord un malade. Contra l’approche positiviste, analytique, physicaliste ou statistique, toutes également aveugles à la dimension vécue de la 56 maladie : « La maladie n’est plus objet d’angoisse pour l’homme sain, elle est devenue objet d’étude pour le théoricien de la santé ». - Le pathologique ne se définit pas sans référence à un milieu auquel les normes d’un individu sont adaptées ou non. Le milieu naturel, social, la composante ethnique, géographique et historique entrent en ligne de compte. Un myope dans une société pastorale n’est pas considéré comme anormal ; il le serait dans l’aviation. - Le pathologique ne s’oppose pas à la norme mais bien à la santé. La normativité et la labilité du vivant sont le critère de la santé d’un corps (et d’un esprit) ; leur réduction, vécue comme telle, le signe de la maladie - La normativité biologique révèle une vie en lutte contre l’entropie, une vie qui valorise pour croître et pour se développer, pose des valeurs à la manière de l’artiste nietzschéen : « Vivre c’est, même chez une amibe, préférer et exclure ». Ce n’est donc pas la science mais bien la vie qui pose des normes - Ce n’est pas dire autre chose que la santé est un rapport vécu ou ignoré : « le silence des organes », écrit le chirurgien René Leriche. Le surgissement de la maladie défait ce rapport intuitif et restreint les capacités d’adaptation de l’individu malade. C’est donc ce qui affecte sa normativité. Être malade, c’est perdre sa capacité de résilience, devoir restreindre son milieu de vie : « Le propre de la maladie, c’est d’être une réduction de la marge de tolérance des infidélités du milieu ». Exemple de l’hémophilie. - Primauté logique de la maladie sur la santé, de la pathologie sur la thérapeutique, de l’écart sur la norme. De la même manière que la transgression crée le sacré dans l’acte de la profanation, il n’y aurait pas de norme s’il n’y avait de l’anormal : « L’anormal, logiquement second, est existentiellement premier ». Pas de science des fonctions vitales sans défaillance de ces fonctions : c’est la maladie qui « nous révèle les fonctions normales au moment précis où elle en interdit l’exercice. Cf. l’heuristique de l’angoisse chez Heidegger. - Idéologie scientifique. Perceptible notamment dans la soumission de la technique à la science, dans le refus ontologique du mal que dénote l’identité d’essence du normal et du pathologique, dans la projection de la morale du corps social dans le corps biologique. - La médecine n’est pas une science, mais une technique qui s’appuie sur une science : la biologie. 57 - Canguilhem fut le rapporteur de la thèse de Foucault, Folie et déraison. Histoire de la folie à l’âge classique. Le premier pose la question des normes vitales ; au second d’insister sur la constitution des normes sociales - La norme biologique est spontanée ; la norme sociale résulte d’une délibération. Un organisme n’est pas une organisation. La normativité sociale peut néanmoins être conçue comme un prolongement de la normativité biologique, ce par quoi l’organisme aménage son environnement Rudolf Carnap (1891-1970) Principales contributions : - La Construction logique du monde (1928) - Le dépassement de la métaphysique par l'analyse logique du langage (1931) - La Syntaxe logique du langage (1934) - Testabilité et signification (1936) - Les fondements philosophiques de la physique (1948) Concepts et idées-forces : - Membre du Cercle de Vienne, chef de file du positivisme ou empirisme logique des années 1930, caractérisé par son rejet de la métaphysique. - Signataire, avec Moritz Schlick, Kurt Gödel, Otto Neurath, Hans Reichenbach et alii, du Manifeste de 1929 intitulé La conception scientifique du monde. - Unité de la science. Propose une axiomatisation des théories scientifiques sur le modèle de celle des théories mathématiques. Les théories des sciences empiriques reposent sur une architecture mathématique qu’il s’agit d’exposer de la manière la plus systématique possible. Reste à faire le raccord avec les phénomènes en souscrivant à des « règles de correspondance ». - S’inspire du Tractatus de Wittgenstein pour rédiger le manifeste du Cercle. Projet d’établir un langage scientifique pur de toute métaphysique, composé d’énoncés éprouvable sur le plan observationnel. - Distinction entre énoncés observationnels (ou empiriques) soumis à des critères de vérification vs. énoncés théoriques (ou analytiques, logiques et 58 mathématiques) cohérents et détachés de l’expérience. Disqualification de toute autre forme de discours : absurde ou présentant de faux problèmes. - Néanmoins, difficulté à séparer les énoncés scientifiques et métaphysiques. Résistance des concepts dispositionnels (on ne peut observer la solubilité du sucre). En outre, les lois générales de la science ne sont pas vérifiables ; on n’en constate que des occurrences. Elles sont donc irrémédiablement hypothétiques. - Carnap réhabilite l’induction qu’il associe à la notion de probabilités pour surmonter la crise du positivisme logique notoirement aggravée par Karl Popper (réfutationnisme) et par Kurt Gödel qui introduit en 1931 le théorème d’incomplétude (impossibilité de fonder un discours logique entièrement cohérent et fermé sur lui-même). Jean Cavaillès (1903-1944) Principales contributions : - Méthode axiomatique et formalisme (1938) - Sur la logique et la théorie de la science (1947) Concepts et idées-forces : - Représentant, avec Duhem, Poincaré, Bachelard, Canguilhem, etc., de la synthèse Française de la philosophie et de l’histoire des sciences. - Acte (opération) et sens - Sens posant et sens posé d'un acte. - Abstraction thématique (thématisation), abstraction paradigmatique (idéalisation). - Nécessité des enchaînements vs. historicité et probabilité des événements. Maurice Caveing (1923-20XX) Principales contributions : - Zénon d’Élée. Prolégomènes aux doctrines du continu (1982) - Essai sur le savoir mathématique dans la Mésopotamie et l'Égypte anciennes (1994) - La figure et le nombre. Recherches sur les premières mathématiques des Grecs (1997) - L’irrationalité dans les Mathématiques grecques jusqu’à Euclide (1998) 59 - Le problème des objets dans la pensée mathématique (2004) Concepts et idées-forces : - Spécialiste des mathématiques antiques. - Question de savoir s’il faut faire remonter la science aux Grecs (cf. le « miracle grec » d’Ernst Renan) ; le cas échéant, en vertu de quel critère, dès lors qu’« il n’existe pas de civilisation qui n’ait pas de connaissance » (« La raison n’est pas une invention grecque », dans Sciences Humaines n° 31, 2001). En effet, note Caveing, « il est vain de croire qu’avant les Grecs, les peuples baignaient dans une sorte de mentalité primitive faite de croyances et de mythes. L’anthropologie contemporaine le montre de mieux en mieux : toutes les cultures ont des connaissances étendues sur la nature, les plantes, les étoiles. Et ces connaissances sont soigneusement distinguées des mythes. Les Égyptiens ou Babyloniens avaient des connaissances poussées en astronomie, en botanique, en médecine ou en calcul. Mais dans la civilisation assyro-babylonienne, beaucoup de connaissance se présentaient sous une forme énumérative. Or, la science suppose un ensemble de connaissances ordonnées de façon méthodique et accompagnées de preuves raisonnées » (propos recueillis par J.-F. Dortier dans Thomas Lepeltier (dir.) Philosophie et histoire des sciences, 2013). - Révolution vers le Ve siècle avant J.-C. avec le passage de la connaissance des faits à la recherche des causes, étayée par des preuves. Phénomène observable dans l’ensemble des domaines du savoir : astronomie, mathématiques, médecine, histoire, philosophie. La recherche de la preuve prend la forme de l’observation dans les sciences de la nature (botanique, zoologie, médecine) et en mathématiques (pures et appliquées), de la démonstration. - Trois grands facteurs explicatifs de cette révolution : (1) Facteur géographique. Situation de la Grèce, carrefour commercial en Méditerranée, rencontre et échanges avec différents peuples. La pratique des voyages d’études contribue à enrichir l’esprit d’une élite cultivée oisive : « Nous voilà en présence d’un peuple de voyageurs qui sillonnent la Méditerranée, fonde des colonies, pousse ses explorations au-delà du détroit de Gibraltar. Au sein de certaines cités et colonies s’est constituée une frange de commerçants, de navigateurs, d’armateurs, d’entrepreneurs. Ces gens ont une vue large du monde ». 60 (2) Facteur socio-technique. Développement de l’urbanisme. Ses problèmes pratiques accélèrent la formation d’un esprit physique et géométrique. Jean-Pierre Vernant, dans ses « Remarques sur les formes et les limites de la pensée technique chez les Grecs », dans Mythes et pensée chez les Grecs (1974) relève que : « Dès le Ve siècle (avant notre ère), un ouvrage comme le canal souterrain construit à Samos par Eupalinos de Mégare suppose déjà l’emploi de procédés déjà ardus de triangulation ». En marge de l’urbanisme, ingénierie de guerre. Machines, navires, systèmes à poulies et à levier chez Archimède, découvreur de la loi de la poussée qui porte son nom, probablement liée à des questions nautiques (conditions de flottaison d’un navire). « Songez que l’on savait même monter et démonter les machines de guerre en pièces détachées », relève Maurice Caveing. Passage de la technique (de l’artisanat) à la technologie, définie par Bertrand Gille comme théorie mathématique et physique appliquée à des problèmes pratiques (Les mécaniciens grecs. La naissance de la technologie, 1980). Thèse également soutenue par Benjamin Farrington (La science dans l’Antiquité. Grèce, Rome, 1967) et par Maurice Daumas (Histoire de la science (dir.), 1957). (3) Facteur socio-politique. Démocratie. Agora, lieu de délibération et d’argumentation, à rebours de la monarchie perse ou de l’institution pharaonique. Pas de discours d’autorité, isonomie, il faut convaincre pour l’emporter. Nécessité de produire des preuves et des démonstrations par laquelle s’explique le développement des « techniques de la parole » propre à la rhétorique, au plaidoyer, à la dialectique, à l’éristique ; il faut rendre raison. Reprise critique par Platon des traditions anciennes qu’il s’agit non pas de rejeter, mais de fonder. Disparition des roi-prêtre dans la période classique (cf. Platon, Le politique). Religions à mystères ou religions pratiques et non à dogme en dépit d’une mythologie commune. Pas de croyance officielle, pas de monopole des scribes. Harry Collins (1943-20XX) Principales contributions : - The Golem : What Everyone Should Know About Science (avec Trevor Pinch) (1993) - Changing Order. Replication and Induction in Scientific Practice (1995) 61 Concepts et idées-forces : - Sociologie de la connaissance scientifique (Sociology of Scientific Knowledge, SSK). Contribue au développement du programme empirique du relativisme (EPOR), mieux connu sous le nom d'École de Bath (« Bath School »). Démarche proche de celle du « programme fort » de Barry Barnes et David Bloor à cette différence près que le fin mot du succès d’une théorie tient au contexte local (micro-social) et non d’abord global (macro-social). Le facteur individuel (idéologie, préjugés moraux, influences religieuses, condamnations a priori pour des motifs irrationnels et passionnels) rapporté aux caractéristiques du groupe de recherche (position sociale, enjeux de pouvoir) pèse de manière déterminante sur la production des connaissances scientifiques. - L’analyse des controverses. Le socio-historien a vocation à exhumer les véritables leviers qui ont fait basculer la préférence des scientifiques pour une telle théorie particulière au détriment d’une autre. Des théories proclamées vraies ou négligées l’auront été sans que les résultats des expériences aient été pris en compte, qu’il s’agisse de la relativité d’Einstein ou de l’hérédité mendélienne. - Il n’y a pas de faits bruts ; il n’y a pas de donnée observationnelle au sens où le chercheur « construit » en grande partie l’objet de sa recherche. Toute expérience, toute interprétation est tributaire de savoirs pratiques et de connaissances théoriques qui peuvent être implicites. Remise en cause de l’objectivité et de l’impersonnalité de la science. - Il en ressort qu’un même « fait » est susceptible de recevoir une multiplicité de descriptions, sans que l’on puisse arbitrer de manière apodictique en faveur de la plus vraisemblable. Soit les relevés d’une expérience conduite au cours des années 1970 visant à démontrer l’existence des ondes gravitationnelles. La controverse porte aussi bien sur l’interprétation des résultats de l’expérience que sur sa reproductibilité et sur le sens des variations constatées à l’issue d’expériences analogues. L’accord ne fut pas obtenu ensuite de la mise en place d’une expérience cruciale, d’une théorie ou d’un dispositif qui eut fait consensus. A prévalu le souhait de conserver un cadre théorique qui rejetait que les ondes fussent détectables expérimentalement. 62 - S’en prend avec Steven Yearley à la théorie de l'acteur-réseau (ANT) développée par Michel Callon, Bruno Latour, Madeleine Akrich, considérée comme une régression de la sociologie des sciences vers le positivisme et le réalisme d’autrefois (Science as Practice and Culture). Auguste Comte (1898-1957) Principales contributions : - Cours de philosophie positive (1830-1842) - Discours sur l'esprit positif (1844) Concepts et idées-forces : - Positivisme. - Loi des trois états : théologique, métaphysique, positif. Parvenu au stade positif, les explications par la cause et la finalité cède place à la description des phénomènes. - Envisage le devenir des sociétés humaines et de l’esprit humain d’une manière proche de celle de Hegel, comme mu par une marche en avant irrévocable transitant par des stades (ou figure) progressives. Probable inspiration du transformisme de Lamarck. - Sociologie. Son principe est posé dès 1839 dans sa 47e leçon du Cours de philosophie positive. Émile Littré, disciple non religieux de Comte, fonde en 1872 la première Société de sociologie. Déclin du positivisme après la mort de ce dernier (1881), mais Durkheim lecteur de Comte reprend le flambeau de la sociologie française. - Caractère descriptif et normatif de la connaissance, finalisée au Progrès : « En résumé, science, d'où prévoyance ; prévoyance d'où action » (Cours de philosophie positive, 2e leçon). - Dans le domaine de la physiologie, conçoit l’effet de la maladie sur l’organisme comme une expérimentation spontanée de la nature qui met en évidence les lois du normal en les exacerbant. Soutien l’idée d’un continuum entre les phénomènes normaux et les phénomènes pathologiques ; contra Canguilhem. 63 Nicolas Copernic (1473-1543) Principales contributions : - Commentariolus (1510) - Des révolutions des sphères célestes (1543) Concepts et idées-forces : - Dénonce les insuffisances du système géocentrique d’Aristote. Entre autres, l’accumulation des hypothèses ad-hoc d'Eudoxe à Ptolémée (épicycles, équant, etc.), l’incapacité d’opérer des prédictions et à décrire précisément les phénomènes célestes, la dysharmonie, complexité et les incohérences de la théorie. - Système héliocentrique. Exposition de ses principes dans le Commentariolus de 1510, suivi par leur démonstration mathématique dans le De Revolutionibus orbium coelestium paru en 1543, l’année de sa mort. - Le soleil disposé au centre de l’univers. - Sphère étoilée immobile, à une distance immensément plus importante qu’envisagée à l’époque. - La Terre dotée de deux mouvements : rotation (expliquant le cycle nycthéméral) et révolution autour du Soleil : « Le mouvement de la Terre seule suffit donc à expliquer un nombre considérable d'irrégularités apparentes dans le ciel » (Commentariolus), dont le mouvement rétrograde des planètes, pour lequel Ptolémée avait introduit ses épicycles. - Explique également la corrélation entre la distance des planètes par rapport au soleil et leur période de révolution. 64 Système héliocentrique de Copernic. Image extraite de son ouvrage De revolutionibus Orbium Coelestium. - Avantages comparatifs de l’héliocentrisme. Il rétablit l’ordre et l’harmonie dans le cosmos (cf. les « themata » de Gerald Holton). Modèle plus simple, plus explicatif, moins saturé d’hypothèses auxiliaires. Permet aussi d’estimer les distances de chaque planète par rapport au soleil, mesure indispensable pour que puisse être calculée leur trajectoire et par suite établie par Kepler les lois de leurs mouvements ; lois à l’appui desquelles Newton élaborera sa théorie de l’attraction universelle. - Simplicité à relativiser. Les cercles excentriques et épicycles du système ptoléméen rendent celui-ci éminemment complexe. Le système de Copernic se limite à six cercles, auxquels s’ajoute celui de l’orbite lunaire. - Un schéma idéalisé qui élude en réalité la multitude de petits épicycles et d'excentriques que Copernic fut obligé d’inclure dans son système pour 65 rendre compte des accélérations et des ralentissements de chaque planète sur son parcours, et ainsi concilier le principe d’uniformité des mouvements célestes avec l’observation, une fois rejeté l'équant de Ptolémée. D’où il ressort que le surcroît comparatif de simplicité attribué au système de Copernic est loin d’être patent. Tout au plus pouvons-nous admettre que les épicycles de Copernic sont d’une ampleur moins importante que ceux de Ptolémée, et moins indispensables pour décrire approximativement les trajectoires des planètes. - Modernité également à relativiser. Car maintien de la thèse des sphères solides posée par Aristote, pourtant abandonnée par Ptolémée, ainsi que de la sphère des (étoiles) fixes aux confins du cosmos, le séparant de l’empyrée. - L’hommage aux devanciers. Autre raison de relativiser la rupture introduite par le modèle héliocentrique. Héliocentrique, Aristarque de Samos faisait profession de l’être depuis le IIIe siècle avant notre ère, selon les témoignages de Plutarque et d’Archimède. L’auteur ne se cache pas de ces inspirations antiques ; et c’est chez les Anciens qu’il dit expressément, dans le manuscrit de son œuvre posthume, avoir trouvé les principes architectoniques de son système : « C'est pourquoi je pris la peine de lire les livres de tous les philosophes que je pus obtenir, pour rechercher si quelqu'un d'eux n'avait jamais pensé que les mouvements des sphères du monde soient autres que ne l'admettent ceux qui enseignèrent les mathématiques dans les écoles. Et je trouvai d'abord chez Cicéron que Nicétus pensait que la Terre se mouvait. Plus tard je retrouvai aussi chez Plutarque que quelques autres ont également eu cette opinion » (De Revolutionibus orbium coelestium). Ce « quelques autres » désigne, entre autres, Héraclide du Pont, platonicien du IVe siècle avant J.-C., Philolaos le pythagoricien, d’après lequel la Terre et le soleil tournait autour d’un feu central (Hestia) et Ecphantus, un autre pythagoricien, proclamant la rotation de l’orbe terraqué. « Partant de là, reprend Copernic, j'ai commencé, moi aussi, à penser à la mobilité de la Terre ». - Cette reconnaissance n’en est pas moins partielle. Copernic ne va pas jusqu’à rendre à César tout ce qui lui appartient. S’il attribue d’abord à Aristarque comme à Philolaos l’idée de mobilité de la Terre, il ne laisse pas de rayer la mention du premier de la version imprimée du De Revolutionibus – lors même qu’il fut en sus le concepteur d’un système héliocentrique. Il ne dit rien du fait qu’outre la rotation de la Terre sur elle66 même, Héraclide postulait la révolution de Mercure et Vénus sur le plan de l’écliptique. - L’hommage aux contemporains. Une autre inspiration, cette fois-ci pleinement assumée par Copernic, est celle de Martianus Capella et de « quelques autres Latins », qui reprenaient le « système égyptien » déjà admis par Héraclide et « estimèrent, en effet, que Vénus et Mercure tournent autour du soleil, qui est au centre, et pour cette raison-là ne peuvent s'éloigner de lui plus loin que ne le permettent les convexités de leurs orbes ». Si néanmoins dans le système égyptien, Vénus et Mercure tournent autour du soleil, le soleil en revanche et les autres planètes tournent autour de la Terre. - Confirmation du modèle héliocentrique de Copernic qui ne figurait dans son ouvrage que sous le statut d’hypothèses à la lumière des travaux de Galilée. Lequel sera forcé d’abjurer ses convictions devant le tribunal d’inquisition en 1632. Peut expliquer que Copernic ait différé la parution de son œuvre jusqu’à l’année de sa mort. - Feyerabend remarque que le système héliocentrique de Copernic a été accepté en dépit des évidences immédiates et de l’observation. Bien qu’il résolve un certain nombre d’apories du modèle précédent, il en recèle au moins autant. Ce n’est donc pas sa valeur scientifique ou sa conformité aux faits (qui sont déjà des constructions) qui a fait son succès. - « Révolution copernicienne ». Effets dans les autres sphères de la connaissance. Ex : la révolution (anti)copernicienne du criticisme kantien. Point sur la révolution copernicienne Événement fondateur de la modernité, cette révolution vit s’accomplir la transition entre le XVIe siècle et le XVIIe siècle de la vision classique d'un monde clos, géocentrique, hérité de l’astronomie de Ptolémée et reposant sur la physique aristotélicienne, à un univers infini – ou sans limites connues –, héliocentrique, comme l’avait esquissé Nicolas Copernic dans son ouvrage Sur la révolution des orbes célestes. Modèle derrière lequel se sont rangés, pour l’amender chacun à leur manière, Bruno, Galilée, Kepler, Descartes et Newton. Kuhn voit dans ce basculement de représentation l’exemple emblématique d’un changement de paradigme (cf. La révolution 67 copernicienne, 1957) ; Structure des révolutions scientifiques, 1962). Freud l’interprète comme une épiphanie traumatisante pour l’homme – et combien plus pour l’humanisme qui mettait l’homme au centre de ses préoccupations –, recevant la première de ces trois blessures narcissiques (une quatrième pourrait être invoquée avec la mise au point de l’intelligence artificielle). Toujours est-il qu’il donna prise à une « controverse ptoléméo-copernicienne » au cours de laquelle se serait exacerbée la résistance du monde ancien à l’émergence d’une nouvelle forme de pensée, dépositaire de ses valeurs propres et de ses propres critères de vérité scientifique. Ce qui en fait un morceau de choix aux yeux des historiens des sciences. Les cosmos pré-coperniciens La connaissance de la rotondité de la Terre remonte à la plus haute Antiquité. On pourrait évoquer, pour en rester à la jurisprudence européenne, les noms de Parménide, de Platon et d’Aristote. Ératosthène (c. -276-c. 194 avant J.-C.) avait déjà fourni de la circonférence terrestre une mesure approchée, relativement correcte pour les moyens de l’époque. Selon l’auteur de la Souda, il se laissa mourir d’inanition après avoir perdu la vue, désespéré de ne plus pouvoir noyer ses yeux dans les étoiles ; ce qui est assez dire l’importance (pratique et théorique) que tenait l’astronomie dans la vie de l’époque. Nombreux restaient toutefois les astronomes à disposer la Terre au centre du cosmos. Aristarque de Samos (310-230 avant J.-C.) fit figure d’exception, si l’on en croit L’Arénaire d’Archimède : « Vous n'êtes pas sans savoir que par l'Univers, la plupart des Astronomes signifient une sphère ayant son centre au centre de la Terre […] toutefois, Aristarque de Samos a publié des écrits sur les hypothèses astronomiques. Les présuppositions qu'on trouve dans ses écrits suggèrent un univers beaucoup plus grand que celui mentionné plus haut. Il commence en fait avec l'hypothèse que les étoiles fixes et le Soleil sont immobiles. Quant à la Terre, elle se déplace autour du Soleil sur la circonférence d'un cercle ayant son centre dans le Soleil » (Préface de L’Arénaire, c. 280 avant J.-C.). Que la Terre fût de forme sphérique, nul clerc ou érudit en Occident latin ne pouvait en douter sous le haut Moyen Âge ; plus en tout cas depuis la 68 traduction du Timée de Platon, où était affirmée que le démiurge avait élu la forme la plus parfaite pour dessiner le corps du monde. Al-Farghani (Alfergani), astronome perse du IXe siècle, n’aurait de cesse que de corroborer cette conception du monde. Décisive en ce sens fut au XIIe siècle la transmission de ces textes par les savants arabes, suivis de la traduction de l’Almageste de Claude Ptolémée, fondé sur les travaux d’Hipparque. Restait encore à écarter les objections liées à la navigation. Il faut ici citer l’influence décisive de l’explorateur Jean de Mandeville, auteur d’un Livre des merveilles du monde qu’il rédigea sur la base de récits de missionnaires franciscains et dominicains et de son expérience (prétendue) de 34 ans (de 1322 à 1356) d’expéditions à travers l’Inde, l’Égypte, l’Asie centrale et la Chine. Au cardinal français Pierre d'Ailly, on doit près de deux-cent ouvrages dont l'Imago mundi, rédigé en 1410, paru en 1478, qui détaille une cosmographie géocentrée. Christophe Colomb en possédait un exemplaire, peut-être à l’origine de sa conviction qu’il pourrait découvrir une nouvelle voie maritime en direction des Indes. Colomb s’appuyait également sur les récits de voyages de Marco Polo, rapportés dans son Devisement du monde (1298), ainsi que sur le précédent de Vasco de Gama. La théorie le cède à la pratique avec cette nouvelle génération d’explorateurs entrepreneurs qui accompagne le développement des relations commerciales entre les continents. Le décloisonnement du monde des astronomes semble contemporain, et même corrélatif à l’extension de la géographie terrestre. Ce ne serait pas pourtant à un navigateur que l’on devrait la première représentation alternative au monde fermé de la scolastique aristotélicienne. Le célèbre traité de Nicolas Cues (1401-1464), la Docte ignorance, parait en 1440. Koyré y trouve en germe l’ensemble des postulats qui seraient développés par les penseurs de la science moderne : mobilité de la Terre qui ne repose pas au centre du cosmos, univers sans limite. L’époque n’était pas prête à admettre ces vues et n’en relevait peut-être pas encore la pertinence. Seul Giordano Bruno s’intéressa de près à l’œuvre du Cusain… à ses risques et périls. Le contexte qui voit s’accomplir dès le milieu du XVIe siècle la révolution astronomique préfigurée par Copernic est donc profondément marqué par 69 une cosmologie issue de la synthèse entre le Traité du ciel du Stagirite et l'Almageste de Ptolémée, le tout interprété dons une optique thomiste en vue de s’articuler à la révélation chrétienne. Avec la scolastique, encore puissante à cette époque, n’avait effectivement cessé de se consolider une conception du monde fondée sur la cosmologie de Ptolémée, elle-même calquée sur la physique aristotélicienne. L’Église avait assimilé un certain nombre de principes issus de la philosophie naturelle antique pour les adjoindre à son corps doctrinal. Pareille cosmologie faisait valoir une division de l’univers en deux régions. L’une, sublunaire, déclinait un feuilletage de quatre strates élémentaires : la terre, au centre, était baignée par l’air, recouvert par les eaux ; venait enfin le feu. L’autre, au-delà des éléments, formait un espace éthéré, cristallin : l’espace supralunaire. Cette région éthérée et préservée de la corruption se divisait en neuf sphères ou orbes emboîtées, solides, soutenant les planètes. Plus au-delà encore se situait l'empyrée, séjour des bienheureux. Le fait étant que si de l’empyrée l’on ne pouvait rien voir ; s’il n’y avait de régulier, d’incorruptible et d’accessible à nos observations que la région supralunaire de l’univers, elle seule pouvait alors être objet de calcul, elle seule se laissait approcher par le médium des formes géométriques et des rapports mathématiques. Le monde supralunaire, espace des étoiles fixes et des objets célestes, nous est ainsi décrit aux antipodes de celui qu’il domine. Parachevé, parfait, lui seul peut à la fois prétendre à la rigueur et à l’exactitude de la mathématique. Cette perfection de la région supralunaire se répercute comme une figure fractale sur chacun des objets qui la remplissent : les entités célestes, d’une forme parfaitement sphérique, évoluent dans le ciel en traçant des figures parfaites – des cercles – ; ils évoluent en épousant des cycles inaltérables et récurrents, mus par leur « mouvement naturel » et à l’imitation du premier moteur. Finis au sens d’achevés, ils sont déterminés, déterminables, soustraits à la génération et à la corruption. Les phénomènes célestes sont ainsi, contrairement aux phénomènes terrestres, idéalement conçus pour s’adapter à l’expression et au calcul mathématique. Il y a, d’une région l’autre du cosmos, un deux poids deux mesures. L’une des contributions majeures de Galilée fut d’avoir fait un sort à cette dissymétrie. 70 Les grandes étapes de la révolution Révolution intellectuelle, instrumentale et expérimentale. Voir notices : Nicolas Copernic, Giordano Bruno, Galileo Galilei, Johannes Kepler, Isaac Newton, René Descartes. L’affranchissement de la scolastique Pas plus que la philosophie n’était distincte de la science, l’astronomie de la fin de la Renaissance n’était à dissocier de la théologie. C’est donc d’abord de sa férule que devront s’affranchir les physiciens modernes. Cette prise d’autonomie au regard de la scolastique thomiste ne relève pas que du contenu ; elle concerne en première instance la forme. La science et la littérature militent dans le même sens. Les pionniers de la science moderne que sont Galilée, Kepler, Descartes, Paré, Fontenelle, se font fort d’écrire en langue vernaculaire (vulgaire) et non plus en latin. Ils tentent ainsi de s’émanciper des cercles incestueux de l’Université, d’« embrigader » le grand public. Cet aspect culturel de la controverse ptoléméo-galiléenne passe trop souvent inaperçu des manuels de physique, qui n’ont d’égard que pour ses moments forts ou rationnels. Il est certain que le divorce d’avec l’Église prend sa tournure la plus spectaculaire avec la condamnation à mort de Bruno et le procès de Galilée. Théologiens d’une part et physiciens de l’autre s’opposent alors sur la question de l’interprétation des Écritures et des passages cosmologiques que renferme la Bible. Les physiciens se heurtent à des obstacles qu’ils ne peuvent négliger, sous peine de voir leur production dramatiquement interrompue. Tout en se voulant conciliant à l’endroit de l’Église et en se défendant d’en ébranler les dogmes, ils plaident pour une autonomisation de leur pratique. Cette véritable guerre d’indépendance inspira le combat de d’Alembert pour une séparation de l'Église et de la science (cf. Encyclopédie). Les Écritures, plaide-t-il, ne doivent pas être appréhendées littéralement. Pascal n’ignore pas le danger qu’il peut y avoir à lire la Bible comme un 71 traité de physique. Non seulement pour la science, mais surtout pour l’Église, dès lors que son discours l’expose à la réfutation. C’est en effet pour une grande part du fait de la composante aristotélicienne, incorporée via saint Thomas d’Aquin à la théologie chrétienne, que s’est amorcé le déclin de l’emprise de l’Église. Conciliation épithéliale, qui laissait sans réponse un certain nombre de contradictions. Se voir réfuter par l’expérience était une chose moins grave que de l’être par soi-même. La scolastique dérogeait ostensiblement à l’acception de la vérité comme concordance avec les faits ainsi qu’au critérium de cohérence interne. C’est donc autant pour la survie de la théologie (résolue à ne plus se mêler de physique, ainsi que le lézard laisse derrière lui sa queue par instinct de survie) qu’en la faveur de la nouvelle physique (laissant à d’autres les questions métaphysiques) que la révolution copernicienne a consacré le principe d'autonomie de la science. Il est loin d’être acquis que ce soit la seconde qui en ait tiré le plus grand bénéfice. Vers une nouvelle révolution copernicienne ? La formation d’une nouvelle conception du monde démettant l’homme du centre du cosmos pour s’ouvrir aux immensités d’un univers sans fin traduit un processus que les insuffisances des anciennes conceptions du monde rendaient inévitable. L’humanité, écrivait Marx, ne se pose que des problèmes qu’elle peut résoudre. Ses sources furent multiples, hétéroclites et ses répercussions inter- ou plutôt trans-disciplinaires. L’expression de « révolution copernicienne » a fait époque. Au point qu’il n’est pas rare de l’entendre employer dans des contextes très différents de l’astronomie. Tout changement de perspective au sein d’une discipline donnée se laisse analyser comme une « révolution copernicienne ». À tout le moins est-ce en ces termes que les instigateurs des sciences modernes aiment à les présenter. Kant fit jurisprudence en qualifiant ainsi le criticisme (Critique de la raison pure), au prix d’un contresens peu relevé par ses commentateurs. C’est en effet pour Kant la subjectivité qui se trouve rétablie au centre de la connaissance, en lieu et place de l’objet l’expérience ; renversement exactement contraire à celui opéré par Galilée, pour qui le monde cesse de tourner autour de l’homme. « Révolution copernicienne » 72 encore que celle qui préside à la succession des paradigmes chez Kuhn. « Révolution copernicienne », celle de la génétique du XXIe siècle. JeanJacques Kupiec et Pierre Sonigo, dans leur essai Ni Dieu, ni gène (2003) soutiennent que leur discipline est encore prisonnière des cadres de pensée aristotélicien. Un cadre qui a vécu, de l’avis des deux auteurs ; et ce qui s’est accompli dans le domaine de la physique serait sur le point de se reproduire dans le champ de la biologie. Mais c’est peut-être à nouveau vers l’astrophysique qu’il faut porter notre attention pour guetter la venue d’une nouvelle révolution copernicienne, vouée à surmonter les défaillances de nos actuels modèles : (1) La force de gravitation découverte par Newton n’est jamais que l’une des quatre interactions fondamentales de la nature, à côté de l’interaction (nucléaire) faible, de l’interaction (nucléaire) forte et de l’électromagnétisme. Si les Grandes théories de l’unification (GUT) de la physique théorique contemporaine parviennent (difficilement) à unifier ces trois dernières en recourant à une même constante, elles se trouvent incapables d’envelopper la première. S’ensuit l’impossibilité de concilier les lois de la physique relativiste avec celle de la physique des particules. À la dissociation aristotélicienne entre les lieux supra- et sublunaire résorbés par Newton succède une nouvelle fracture entre les théories de l’infiniment petit et de l’infiniment grand. La recherche d’une théorie quantique de la gravitation, d’une « théorie du tout », est plus que jamais d’actualité. (2) La physique née de la révolution copernicienne admettait la réversibilité des phénomènes physiques ; ce que récuse en particulier le deuxième principe de la thermodynamique mise à jour par Carnot. Elle supposait un espace absolu que met en cause la relativité restreinte (1905) et générale (1915) d’Einstein. Elle impliquait un paradigme mécaniste fondé sur les propriétés d’un seul type de matière, quand la recherche astrophysique actuelle se confronte à l’énigme de la matière noire et de l’énergie sombre, de nature inconnue, constituant ensemble plus de 95 % de la densité totale de l’univers observable. Le principe de causalité – postulant l’antériorité de l’effet sur la cause – sur lequel reposait tout l’édifice de la mécanique classique est enfin contredit par certaines interprétations de la physique 73 quantique, laquelle conteste aussi jusqu’à la pertinence des notions d’espace et de temps (non-localité, intrication quantique, etc.). Cf. : Point sur la physique quantique. (3) De nouvelles représentations cosmologiques ont émergé à la faveur du développement de la radioastronomie. Des représentations à la lumière desquels la « blessure narcissique » de la révolution copernicienne ne s’apparente à une égratignure. L’héliocentrisme a fait son temps. Le soleil non plus que la Terre n’est immobile au cœur de l’univers. Il se situe dans une région périphérique de la Voie lactée, système constitué de 200 à 400 milliards d’étoiles (et donc de systèmes solaires). Une galaxie en rotation autour de son bulbe central, abritant un trou noir supermassif du nom de Sagittarius A*. Ce changement de référentiel astronomique pourrait déjà être considéré comme une nouvelle révolution copernicienne. Elle doit s’accommoder de milliers d’autres galaxies réunies en amas et en superamas de galaxies ; voire d’autres univers semblables aux nôtres, en parallèle ou en amont ou en aval du nôtre ; et d’autres univers répondant d’autres lois, d’autres constantes qui, pour rester toujours hors de portée de l’observation (deux univers reliés ne serait pas deux univers), peuvent être impliqués par la théorie. Leda Cosmides (1985-20XX) Principales contributions : - The Adapted Mind. Evolutionary psychology and the generation of culture (avec Jerome H. Barkow et John Tooby) (1992) - Evolutionary psychology. Foundational papers (avec John Tooby) (2000) - Universal Minds. Explaining the new science of evolutionary psychology (avec John Tooby) (2009) Concepts et idées-forces : - Psychologie évolutionniste (« évopsy »). Fondements jetés avec l’anthropologue John Tooby au cours des années 1980. - Méthode consiste à rapporter des comportements, des attitudes, des facultés, des phénomènes universellement observables dans les cultures 74 actuelles à des contraintes prégnantes chez nos ancêtres chasseurscueilleurs. Comprendre chaque trait humain (reconnaissance des visages innée, disposition au langage, comportements sexuels, etc.) à la lueur de sa putative valeur adaptative ; comprendre en quoi elle fut utile du point de vue de la survie et de la reproduction de l’espèce dans la période où ces comportements se sont coagulés (EEA pour « environnement de l’évolution adaptative »), il y a de cela 1,8 millions d’années à 10 000 ans. - À la différence de la sociobiologie d’Edward O. Wilson, la psychologie évolutionniste intègre les facteurs culturels et les effets complexes de la coévolution entre les gènes et les sociétés, l’organisation politique, et prend acte des décrochages autorisés par la pensée qui permet à l’individu de calculer ses avantages à long terme. Quelle conduite est la plus favorable compte tenu du contexte ? - Entreprise poursuivie par Donald Symons qui, en 1979, explique les différences de comportements sexuels par leur pertinence adaptative au regard de la reproduction : des hommes infidèles et des femmes sélectives (reproduction plus coûteuse). Dans le même registre, avantage est donné par David Buss en 1999 à l’établissement de ménages stable (quel que soit le type d’association), qui aurait favorisé le sentiment d’amour conjugal et le besoin de stabilité. - Intérêt pour les fonctions supérieures du cerveau, le néocortex au-delà des émotions du cerveau mammalien, siège des émotions en fait une dialectique ; dichotomie à relativiser : il n’y a pas « trois cerveaux » indépendants ». Emprunte à la psychologie cognitive pour comprendre la raison de l’émergence des représentations, de la mémoire, du raisonnement, de la conscience réflexive. - Ainsi pour le langage, qui dériverait selon Robin Dumbar, d’une tentative de l’individu pour entretenir des liens d’empathie avec ses confrères. Activité d’essence sociale, qui désamorce les conflits (cf. son empêchement dans le mythe de Caïn et Abel); également perceptible chez le singe à travers l’épouillage. Il est aussi, selon Terrence Deacon, la condition de l’engagement mutuel et de la confiance et rend possible chez l’humain une forme plus étroite et plus sophistiqué d’association. - Les échecs et les aberrations intellectuelles imputables aux biais de raisonnement trouvent aussi leur explication en termes d’adaptation. Ils seraient le vestige de la prudence judicieuse ayant sauvé notre ancêtre 75 chasseur craignant de s’aventurer en terrain inconnu, là où ses congénères n’en seraient jamais revenus. - Quant à la liberté de choix, au libre arbitre, à la capacité à nous « reprogrammer » sans cesse, elle pourrait avoir été favorisée en tant qu’elle permettait de répondre de manière rapide et adéquate aux brusques variations de l’environnement. Telle est du moins la thèse soutenue par Daniel Dennet, avec ses prolongements qui voudraient faire du rêve l’occasion d’une simulation de danger en vue d’élaborer des stratégies de survie. - Une extension du paradigme depuis 1995 avec l’éthique évolutionniste, discipline à l’intersection de la biologie, de la psychologie et de la philosophie. Les conduites en apparence morales telles que l’altruisme, a priori défavorables à l’individu, peuvent recevoir une explication qui ne fasse pas appel à une raison désintéressée (Kant) ou à une spécificité humaine. - Impératifs moraux et normes sociales ne font que donner une forme objective à un dégoût viscéral qui nous saisit face à des actes transgressifs commis ou subis par soi ou par autrui. Selon Randolphe Nesse et Barbara Frederickson, le sens moral plonge ses racines dans la nécessité d’une coopération dans une multiplicité de domaines entre individus nonapparentés. De là les « intuitions morales » (Nicolas Baumard). Est moral ce qui est mutuellement profitable ; la meilleure stratégie consiste à respecter ces normes et tabous. - On note que la plupart des partisans de la psychologie évolutionniste sont anglo-saxons, et que les théories qu’elle avance restent extrêmement critiquées en France. Elles pâtissent d’un accueil académique glacé, en particulier de la part des sciences humaines. - Limites de l’évopsy. Les principaux motifs de cette défiance tiennent à sa dimension spéculative. Françoise Parrot, première à avoir retraduit en français un manuel de la discipline (L. Workman, W. Reader, Psychologie évolutionniste. Une introduction, 2007) pointe les faiblesses d’un procédé reposant davantage sur des préjugés et des fabrications rétrospectives que sur une base observationnelle : « Les biologistes ont des fossiles, les psychologues n’en ont pas. Nous ne savons presque rien du cerveau et des conduites de nos ancêtres. Donc nous ne pouvons pas en tirer l’explication de ce qui existe. La psychologie évolutionniste est très spéculative. Rien 76 n’interdit de naturaliser les sciences de l’esprit, mais cette manière-là n’est pas la bonne ». - Le second obstacle est d’ordre intellectuel. L’évopsy, comme son nom l’indique, transgresse la frontière établie en France entre sciences humaines et sciences naturelles. Une pensée cartésienne dualiste encore profondément ancrée dans l’esprit de la recherche. D’où un rejet de principe que regrette Jean Gayon, historien de la biologie et, à sa suite, Michel Raymond dans le domaine de l’éthologie. L’avenir seul dira si l’évopsy est véritablement une science féconde ou une impasse de la même espèce que la phrénologie. Louis Couturat (1868-1914) Principales contributions : - De l'Infini mathématique (1896) - Les principes des mathématiques (1905) - L'Algèbre de la logique (1905) Concepts et idées-forces : - Tenant du logicisme (avec Russel et Wittgenstein) : programme œuvrant à réduire les mathématiques à la logique. Opposition frontale à l'intuitionnisme de Poincaré. - « Une seule logique ». Désavoué par le développement des logiques plurivalentes, modales, temporelles, binaires, etc. à compter des années 1940. Alistair C. Crombie (1915-1996) Principales contributions : - Robert Grosstête et l’origine de la science expérimentale. 1100-1700 (1953) - Science, musique et optique dans la pensée moderne et médiévale (1990) - Style et traditions de la science occidentale (1995) Concepts et idées-forces : - Style de pensée ou style de raisonnement. Notion élaborée dans le contexte de la controverse des philosophes des sciences autour des 77 implications de la révolution copernico-galiléenne. Au point d’intersection de l’histoire des mentalités et de l’analyse linguistique, il met en évidence le cadre normatif et méthodologique ainsi que la forme de langage qui soustend une époque de la pensée scientifique. - Six styles de raisonnement élémentaires répertoriés : (1) la postulation et la déduction dans les sciences mathématiques ; (2) l’exploration expérimentale ; (3) la construction hypothétique de modèles par analogie ; (4) l’ordonnance de la variété par comparaison et taxinomie ; (5) l’analyse statistique de régularité de population et (6) la dérivation historique du développement génétique. - Concept réinvesti par Geoffrey E.R. Lloyd et par Ian hacking dans les années 1990 en direction de la praxis, aspect de la production scientifique complémentaire de la theoria impliquée par les styles de raisonnement. Aux outils conceptuels s’associent de nouvelles techniques d’exploration du monde. L’étude des mutations de sa base matérielle sont aussi nécessaires que celle de sa superstructure pour comprendre l’évolution des sciences. Georges Cuvier (1769-1832) Principales contributions : - Tableau élémentaire de l'histoire naturelle des animaux (1798) - Leçons d'anatomie comparée (1800-1805) - Histoire des sciences naturelles depuis leur origine jusqu'à nos jours (18411845) Concepts et idées-forces : - Professeur au British Museum, il est le fondateur de la paléontologie, dont l’appellation fut introduite par Henri Ducrotay de Blainville en 1922. Discipline appelée à servir de matière première à la théorie de l’évolution, en tant qu’elle exhume les fossiles des espèces disparues, permet d’extrapoler la physionomie des espèces modifiées à la faveur de la sélection et de reconstituer les processus de transformation graduelle ayant eu lieu depuis l’origine. Permet de jeter des ponts entre des espèces apparemment distinctes et de postuler une ascendance commune. - Auteur d’une théorie catastrophiste. Cuvier ne conçoit pas l’existence des fossiles comme une preuve de la théorie de l’évolution ou de la 78 transformation des espèces (contra Lamarck, zoologiste et Geoffroy SaintHilaire, embryologiste). Loin d’indiquer une parenté entre espèces, ils seraient le témoignage de catastrophes passées ayant anéanti des écosystèmes entiers. Le déluge – mythème universel – en serait un récit. - Cette controverse démontre que les faits sont toujours susceptibles d’une multiplicité d’interprétations. Les mêmes objets peuvent donc étayer aussi bien le fixisme créationniste que l’évolutionnisme matérialiste ; tant et si bien, relève le zoologiste français Yves M. Delage (1854-1920) dans son Traité sur L’Hérédité et les grands problèmes de la biologie générale (1903), « qu’on est ou pas transformiste, non pour des raisons tirées de l’histoire naturelle, mais en raison de ses opinions philosophiques ». - Critique de l’évolutionnisme de Lamarck, il contribue au raffinement de ses théories, de la même manière que les hérésies du christianisme des premiers siècles ont contribué par réaction, à l’élaboration du dogme. - Promoteur de l’anatomie comparée. Introduit le modèle des embranchements, appelé à se substituer au concept de « masses » envisagé par Lamarck. Classification déclinant vertébrés, mollusques, annelés et rayonnés. - Conception dynamique de la construction et du fonctionnement du vivant. - Loi des corrélations. Un animal doté de sabots doit posséder des cornes, mais également des dents afin de broyer les végétaux, un de système digestif. Il doit avoir ses yeux disposés sur la face latérale de son crâne afin d’étendre son champ visuel et de prévenir les attaques des prédateurs. Charles Darwin (1809-1882) Principales contributions : - De l'origine des espèces (1859) - La Filiation de l'homme et la sélection liée au sexe (1871) - L'Expression des émotions chez l'homme et les animaux (1872) Concepts et idées-forces : - Théorie de la sélection naturelle. Propose un mécanisme matérialiste non directif pour expliquer la transformation et la diversification adaptative des espèces à leur environnement. Élaborée au cours de son voyage sur le 79 Beagle de 1831 à 1836 (cf. l’épisode canonique de la comparaison des espèces de pinsons installés dans les différentes îles de l’archipel des Galapagos), inspiré par les travaux de son grand-père Erasmus Darwin et des pratiques de sélection artificielle en usage dans l’agriculture et dans l’élevage, la théorie n’est publiée qu’en 1859, avec la parution du traité De l’origine des espèces. - Le terme même d’« évolution » n’apparaît qu’à compter de la sixième et dernière édition de l’ouvrage. Son sens moderne en biologie lui est donné par Charles Lyell aux alentours de 1832. - Rompant d’avec le transformisme de Lamarck et le fixisme catastrophiste de Cuvier, Darwin précise que les micro-variations ne sont pas orientées dans leur procès d’apparition ; elles procèdent d’une « loterie » dont le fin mot ne sera donné qu’avec les lois de l’hérédité de Mendel et le constat des mutations de l’ADN (théorie synthétique de l’évolution). C’est là ce qui s’exprimera chez Canguilhem en termes de « labilité », de « normativité », d’« erreur vitale innée » et qui prendra chez Jacques Monod la forme dialectique du « hasard » sanctionné par la « nécessité » de la sélection (Le Hasard et la Nécessité), principe explicatif du dynamisme de la vie et de ses formes observables. - Ces variations sont ensuite retenues (ou, le cas échéant, rejetées) au prorata de leurs avantages compétitifs et de leur valeur adaptative, relativement à un milieu donné, en raison de la plus grande disposition de l’individu porteur à la reproduction : « Ce qui caractérise donc la théorie de l’évolution, écrit François Jacob, c’est la manière d’envisager l’émergence des êtres vivants et leur aptitude à vivre ou à s’adapter au monde qui les entoure. Pour Lamarck, quand se formait un être nouveau, sa place était déjà marquée dans la chaîne ascendante des êtres. Il devait par avance représenter une amélioration, un progrès sur tout ce qui avait déjà existé jusque-là. La direction, sinon l’intention, précédait la réalisation. Avec Darwin, l’ordre relatif entre l’apparition d’un être et son adaptation est inversé. La nature ne fait que favoriser ce qui existe déjà. La réalisation précède tout jugement de valeur sur la qualité de ce qui est réalisé. N’importe quelle modification peut naître de la reproduction. N’importe quelle variation peut apparaître, qu’elle représente une amélioration ou une dégradation par rapport à ce qui était déjà. Il n’y a aucun manichéisme dans la manière utilisée par la nature pour inventer des nouveautés, aucune idée 80 de progrès ou de régression, de bien ou de mal, de mieux ou de pire. La variation se fait au hasard, c’est-à-dire en l’absence de toute relation entre la cause et le résultat. C’est seulement après son émergence que l’être nouveau se trouve confronté aux conditions d’existence. C’est seulement une fois vivants que les candidats à la reproduction sont mis à l’épreuve » (La Logique du vivant). On note ainsi deux principaux ajournements à la théorie de l’évolution selon Lamarck : le hasard et la sélection naturelle. - Darwin admet, tout comme Lamarck, et l’hérédité des caractères acquis. Thèse réfutée par le biologiste Auguste Weismann dans les années 1880 et 1990, qui démontre l’indépendance des cellules germinales et somatiques. Semble néanmoins présenter une relative pertinence sur le terrain de l’épigénétique. - La « survie des plus aptes », expression de Malthus reprise par Darwin, ne signifie pas celle des plus fort ni même des plus intelligents ; et rien ne prouve que les êtres humains l’emporteront à terme sur les virus. La théorie de l’évolution ne décrit qu’un mécanisme et ne permet pas de prédire ce qu’il en sera à l’avenir. - C’est par ailleurs son incapacité faire des prédictions, son exemption au critère Poppérien de réfutabilité ainsi que le fait qu’elle traite de phénomènes uniques et non reproductibles à l’instar des sciences historiques qui la rend vulnérable à la critique des scientifiques sceptiques et des créationnistes dogmatiques. Le darwinisme peut-il être considéré comme une science de la nature ? Comme une science proprement dite ? - La théorie est complétée vers le début du XXe siècle grâce aux apports de la génétique (mutation, recombinaison, etc.), de la génétique des populations et la redécouverte des lois de Mendel. Consacre l’articulation des mécanismes de la sélection avec les mécanismes de l’hérédité. - Cet aggiornamento qui donne naissance à la théorie dite « synthétique » de l’évolution fait de la variabilité le ressort caché du devenir des espèces. Elle aboutit au néodarwinisme. - Le darwinisme était déjà une synthèse d’une multiplicité de travaux antérieurs, que Darwin ne cite pas toujours. Étienne Geoffroy Saint-Hilaire soutenait également une théorie de la transformation supposée expliquer l’apparition de nouvelles espèces. Lamarck, du reste, propose sa théorie transformiste de l’évolution dans sa Philosophie zoologique, ouvrage paru en 1809, l’année de la naissance de Darwin. On sait par les carnets de 81 l’auteur que ce dernier disposait lors de son voyage sur le Beagle d’un exemplaire des Principes de géologie de Charles Lyell (1797-1875), considéré comme le fondateur de la géologie moderne, qui intégrait un exposé critique de cette théorie. L’économiste anglais Thomas Robert Malthus, auteur en 1798 de l’Essai sur le principe de population souffle à Darwin, de retour de son voyage, l’idée de « lutte pour l’existence » dans le cadre d’un écosystème limité où la quantité de ressources disponible s’accroît de manière continue quand la démographie s’accroît de manière exponentielle. Cette notion chez Darwin recouvre « la doctrine de Malthus appliquée à tout le règne végétal et à tout le règne animal » ( L’Origine des espèces). Sans rien ôter à l’importance des observations faites par l’auteur, la théorie de Darwin, comme la plupart des grands modèles scientifiques, s’avère un montage théorique à l’intersection de nombreuses influences intellectuelles astucieusement réorganisées dans un cadre inédit. - Inédit, mais non pas tout à fait original. La parution, en 1859, de la Bible de l’évolutionnisme fut précipitée en raison de la théorisation simultanée de l’évolutionnisme au moyen de la sélection naturelle par Alfred R. Wallace, moins d’une année auparavant. Rappelle les controverses sur la paternité des théories (Leibniz vs. Newton, Pascal vs. Descartes, etc.) ; comme s’il y avait une « atmosphère » de découverte longuement préparée qui n’attendait que des catalyseurs. C’est ainsi que P.J. Bowler explique le ralliement rapide de nombreux savants à une révolution scientifique imminente. - Idée de transformation graduelle, de développement, d’évolution, de changement continu se retrouvant dans l’Europe du début du XIXe siècle à travers d’autres disciplines. Ainsi, Hegel et Comte l’appliquent aux sociétés et à l’esprit humain ou à l’histoire en général. Johann J. Bachofen et Lewis H. Morgan l’adaptent à l’anthropologie naissante. Spencer tente d’unifier les volets biologiques, sociaux et cognitifs de l’évolutionnisme sous un commun système philosophique, et c’est à cet auteur qu’en 1870 renvoie le terme d’« évolutionnisme ». L’essor de la linguistique comparative permet enfin de mettre à jour la généalogie des langues indo-européennes qui semblent s’être diversifiées à partir d’une (ou plusieurs) souche communes (exception faite des isolats). - Un sens philosophique et des implications théologiques majeures. Désamorce l’argument de la complexité irréductible ou de l’analogie de la 82 montre (« watchmaker analogy ») encore utilisé par certains partisans de l’intelligent design, avancé par William Palley dans sa Théologie naturelle (1803). - C’est également un coup porté à l’idée de Providence, sous sa forme religieuse comme sous sa forme laïque : le progrès. Le mécanisme de la sélection récuse les causes finales. Perte de sens bien plus traumatisante que l’idée accessoire d’avoir avec le singe un ancêtre commun (plutôt que de « descendre du singe »), cette « blessure narcissique » diagnostiquée par Freud. L’homme, désormais, subit l’évolution. - Ce constat de passivité est néanmoins à relativiser dans la mesure où l’homme est également un être qui produit son environnement, de plus en plus capable de se modifier lui-même. Possibilité de reprendre le contrôle grâce aux biotechnologies et à la convergence NBIC. Provolution et transhumanisme. Cf. Ray Kurzveil. - Thomas H. Huxley ouvre le ban et la boîte de Pandore en publiant trois ans après la parution de l’œuvre de Darwin La place de l’homme dans l’évolution (1863). Les crânes fossiles de néandertaliens passés au crible de comparaisons anatomiques obligent à reconnaître que l’homme et le singe ont un ancêtre commun. L’apogée de la polémique a lieu lors d’une réunion à Oxford, en 1860, lorsque Huxley renvoie dans son clocher l’évêque Samuel Wilberforce qui tentait de l’humilier en insultant ses grands-parents (descendait-t-il du singe par son grand-père ou sa grand-mère ?). Réplique apocryphe (cf. S.J. Gould, La foire aux dinosaures). Darwin ne s’empare du sujet que douze ans après L’Origine des espèces, avec La Filiation de l’homme : « L’homme est issu par filiation de quelque forme préexistante ». Soutient la transformation et la diversification en races de l’espèce humaine. Un écho moins retentissant en raison de l’émergence de l’anthropologie et de la multiplicité des évolutionnismes. - Large influence de l’évolutionnisme sur les autres disciplines, comme en témoigne la transposition qu’en fait Herbert Spencer dans le domaine des sciences sociales, Karl Popper dans celui de l’épistémologie et Richard Dawkins sur le terrain de la génétique, puis des idées (la théorie des « mèmes »). La linguistique n’est pas en reste. La médecine et la physiologie bénéficient aussi de ce modèle : ainsi la différenciation et la spécialisation des cellules tout comme la production des anticorps pourrait relever de ce même mécanisme. 83 - Il n’est pas jusqu’à l’évolutionnisme de Darwin, jusqu’à ce que nous nommons la « théorie de l’évolution » qui ne soit elle-même « évolutive » ; à telle enseigne que de la même manière que Michel Henry, dans la foulée de Marx, distinguait Marx et le marxisme (= « l’ensemble des contresens qui ont été faits sur Marx), un spécialiste de la trempe Pierre Thuillier a pu se demander si Darwin aurait été darwinien (Le darwinisme aujourd’hui). En témoignent ces profonds remaniements à la lumière des savoirs ultérieurs et des apports des autres disciplines (A. Prochiantz (dir.), Darwin : 200 ans). Julian Sorel Huxley (1887-1975) avance une théorie synthétique de l’évolution. Elle sera complétée par l’apport de la génétique moderne, de la génétique des populations, de la zoologie et de la paléontologie pour aboutir dans les années 1940 au néodarwinisme. - L’irruption de la biologie moléculaire et de la théorie des jeux complique encore la donne au cours des années 1960 qui voient l’apparition de modèles dissidents : la « théorie neutraliste » de Motoo Kimura en génétique, la théorie des « équilibres ponctués » de Niles Eldredge et de Stephen Jay Gould en paléontologie (saltationnisme vs. gradualisme). Débats sur les micro- et les macro-évolutions en biologie moléculaire. Débat sur le rôle assigné au processus de sélection, relativisé à la lumière des phénomènes de coopération, de symbiose, d’endosymbiose, etc. - Interférence d’éléments politico-économiques expliquant l’insistance mise sur tel ou tel aspect particulier de la théorie. Darwin rédige son maître-livre au plus fort du capitalisme concurrentiel et individualiste anglais. L’accent est mis sur le concept de « survie du plus apte » (empruntée à Herbert Spencer ; cf. D. Becquemont, Dictionnaire du darwinisme et de l’évolution ), devant être compris au sens de conservation de la lignée des spécimens porteurs de caractéristiques leur conférant un avantage comparatif utile à la reproduction. La logique de compétition prévaut sur toute autre matière et considération. Théoricien du communisme libertaire, Pierre Kropotkine propose sa propre théorie dans une étude intitulée L'Entraide, un facteur de l'évolution (1901). La viabilité n’est plus celle des individus conçus à l’exclusion du groupe-espèce, mais celle du groupe-espèce avantagé par l’échange réciproque, la mutualisation des ressources, la solidarité de ses membres. Tout se passe comme si nos deux naturalistes avaient inconsciemment déduit leur théorie de l’évolution de l’environnement social au sein duquel ils ont usé leur plume et leur intelligence ; comme s’ils 84 avaient chacun projeté dans la nature la donne économique et politique qui structurait leur représentation du monde. Il en ressort qu’on ne peut comprendre exhaustivement une théorie sans avoir préalablement considéré qui parle et d’où. Tel sera le credo de la sociologie des sciences. - Succès certain mais ambigu. La filiation de l’homme, publié dix ans après L’Origine des espèces, rapporte les propos du naturaliste et médecin Carl Vogt aux dires duquel « personne, en Europe du moins, n’ose plus soutenir la création indépendante et de toutes pièces des espèces ». Unanimement saluée, la théorie de Darwin faisant droit aux principes de l’évolution n’est toutefois adoptée que sous réserve de l’abandon chez la plupart des hommes de science européen de son pivot central : l’idée de sélection naturelle. En témoigne le peu d’enthousiasme des plus fervents soutiens de l’auteur, Ernst Heackel et Thomas H. Huxley (dit « le bouledogue de Darwin »). Darwin lui-même au terme de sa vie se reproche d’avoir surestimé ce facteur. - Diffusion de la théorie de l’évolution entre 1860 et 1900. Plusieurs versions coexistent (lamarckisme, mutationnisme, orthogénisme, néodarwinisme) ; celle de Darwin basée sur la sélection naturelle est alors minoritaire. - Aujourd’hui paradigme dominant, ayant radicalement changé notre vision du monde vivant, la théorie de l’évolution acquiert une valeur de métathéorie qui semble subsumer un grand nombre d’autres disciplines ressortissant aux sciences biologiques et humaines. Mais une multiplicité de sous-modèles dont aucun ne s’impose comme dominant. - Darwin fournit l’exemple d’un auteur extrêmement étudié, autant que sa théorie. P.J. Bowler recours à l’expression d’« industrie darwinienne » pour désigner la production de milliers de livres exégétiques ou biographiques consacrés à Darwin (Darwin. L’homme et son influence, 1998). Un phénomène de « darwinomania » comparable à la littérature périplatonicienne en philosophie. Il s’agit pour les philosophes des sciences et l’épistémologue de mettre à jour les processus de découverte scientifique, de comprendre comment germe une idée. Pluralité de facteurs. Dans une perspective nietzschéenne, le psychiatre et psychanalyste John Bowlby a ainsi consacré une étude biographique de plus de 500 pages à l’étude de sa maladie chronique : Charles Darwin. Une nouvelle biographie (1995). Son œuvre, austère, est néanmoins peu lue, même par les spécialistes de l’évolution. 85 - Tentatives ultérieures pour faire de l’évolutionnisme la clé d’interprétation des comportements humains : (1) Comportements des sociétés avec l’eugénisme de Galton ou le darwinisme social (/antisocial) de Spencer, triomphant au début du XXe siècle. Puis rejet consécutif au traumatisme des camps d’extermination, en particulier par les sciences humaines, hostiles à l’idée d’un déterminisme biologique portant atteint à la liberté de l’esprit. (2) Comportements individuels avec le projet de sociobiologie d’Édward O. Wilson, qui interprète les conduites altruistes (de parentèle ou réciproque) négligées par la théorie classique dans une perspective holiste, l’individu se sacrifiant pour la survie du groupe. Modèle plus intégré des sociétés humaines, bien que limité tantôt par le recours au paradigme animal, tantôt par le tout-génétique. (3) Depuis la fin des années 1980, relayée par la psychologie évolutionniste (« évopsy »). Tentative de synthèse théorisée par la psychologue Leda Cosmides et par l’anthropologue John Tooby. Cf. Leda Cosmides. - Créationnisme, néo-créationnisme et Dessein Intelligent en lutte féroce contre le darwinisme. La théorie de l’évolution attaquée pour ses manquements scientifiques dans certains États américains, qui voudraient que soit enseignée (naguère avec l’appui du président Georges W. Bush) comme une alternative égale à une lecture biblique plus ou moins réformée, qui ne dit pas son nom. Donnera lieu aux différents « procès du singe » au Tennessee, en Arkansas et dans le Kansas. Il est toutefois douteux que ces alternatives soient plus réfutables et donc plus scientifiques (selon l’acception popperienne) que le darwinisme ; ce que démontre par l’absurde un étudiant de l’Oregon, Bobby Henderson, en proposant que soit aussi dispensé un enseignement du « pastafarianisme » : doctrine faisant du Créateur un plat de spaghettis géants en lévitation. Cf. Bobby Henderson. Lorraine Daston (1951-20XX) Principales contributions : - Objectivité (avec Peter Galison) (2007) - « The Disciplines of Attention », dans David E. Wellbery (ed.), A New History of German Literature (2005) 86 Concepts et idées-forces : - Distinction entre vérité et objectivité. Il y a une différence entre décrire une chose à la manière dont elle nous apparaît et la décrire telle qu’elle est. - La dynamique de cet écart justifie une histoire de l’objectivité, laquelle pour l’auteur traverse au moins trois stades qu’illustrent les livres d’images scientifiques (intitulé « atlas » au XVIIIe siècle) et définissent chacun un éthos scientifique : (1) La « vérité d’après nature » connaît son apogée au XVIIIe siècle. Elle se présente comme une tentative de représenter le type ou l’archétype d’une classe d’objets ; en l’occurrence, le spécimen le plus représentatif de son espèce, quitte à parfaire ses caractéristiques. La vérité d’après nature procède par correction pour aboutir à une forme idéalisée de la chose représentée. (2) L’« objectivité mécanique » la relaye au milieu du XIXe siècle lorsque les scientifiques (apparus à la même époque) accusent le caractère subjectif de cette pratique. L’observateur ne doit pas corriger, mais s’effacer devant la nature. L’image doit refléter le perçu ; et ne rien faire davantage. L’usage de la photographie permet d’éliminer beaucoup de ces éléments impurs qui introduisent des distorsions indésirables. (3) Le « jugement exercé » ou « qualifié » est le mot d’ordre du XXe siècle. La nature ne s’offre pas directement aux investigations de l’observateur : il faut la décrypter et, pour cela, entraîner son regard : apprendre à lire un graphique, une statistique, une radiographie, etc. - Thématisation des embranchements de l’histoire des sciences (par opposition à l’approche formaliste du cercle de Vienne) alimentée par trois courants, auxquels nous ajouterons un quatrième : (1) Le courant philosophique étudie les interactions entre les théories et les idées philosophiques ; soit la métaphysique des sciences. Les découvertes et leur modalité d’énonciation sont redevables de présupposés qui ne relèvent pas directement des sciences. Le relativisme est écarté en cela qu’il ne concerne que l’invention, et n’enlève rien à la rigueur et à la rationalité des résultats passés au crible de procédures de vérifications. Citons, au nombre de ses obédiencier, Alexandre Koyré en France et Gerald Holton en Amérique. 87 (2) Le courant sociologique étudie la production des savoirs scientifiques sous le rapport de la subjectivité d’individus confrontés à des institutions, en butte à des impératifs industriels, moraux et politiques, alloués d’une subjectivité séduite par des principes d’ordre extra-scientifique, animés d’intérêts individuels ou collectifs. Un courant plus ouvertement relativiste (contra l’option rationaliste et réaliste), se distribuant en différentes écoles. David Bloor et Bob Barnes développent en 1976 le programme fort qui met en vis-à-vis les intérêts sociaux avec le contenu des découvertes. Harry Collins et Trevor Pinch se réclament pour leur part de la socio-histoire des sciences et pratiquent l’analyse des controverses. (3) Le courant historique. Prépondérant en France, il s’autorise d’une exégèse minutieuse des textes et d’un travail archivistique circonstancié pour mettre à jour les tenants et les aboutissants d’une connaissance en formation ou d’une controverse localisée. Ce que l’on peut qualifier de « micro-histoire » n’a de cesse de mettre à mal les grandes reconstructions positivistes et rationnelles de l’histoire des sciences, laquelle va souvent à tâtons et à l’aveugle. Steven Shapin montre ainsi que la « révolution » moderne relève d’une projection rétrospective et finaliste. (4) Le courant ethnographique, ignoré par Daston, parachève la typologie. Souci marqué pour la « science en train de se faire » partagé par Bruno Latour en France et Steve Wolgard outre-Atlantique, qui montrent comment le chercheur recourt dans son activité à des choix intuitifs, à des arguments hétéroclites. La science conçue comme art du bricolage nécessite une forme de négociation tant avec l’observation qu’avec les autres acteurs de la science. Richard Dawkins (1941-20XX) Principales contributions : - Le Gène égoïste (1976) - Phénotype étendu (1982) - Pour en finir avec Dieu (2006) Concepts et idées-forces : - La science en guerre contre la religion. Fait notamment un sort aux théories créationnistes (Terre jeune, etc.) ou du Dessein Intelligent 88 (évolution finalisée par un Grand Architecte). Fut à l’initiative de la « Out Campaign », invitant les athées à faire leur « coming out » et s’identifier publiquement, notamment grâce au port de « lettre écarlate » (A majuscule rouge pour « Atheism »). - Le gène égoïste. Transposition aux gènes de la théorie de l’évolution. Opère une révolution copernicienne qui en déplace le centre de gravité. Les espèces sont les formes du vivant adoptées par les gènes pour se transmettre et pour se reproduire. - L’altruisme, entre autres, n’est donc pas à interpréter comme un aspect lié à la sélection de groupe (le sacrifice individuel majore les chances de survie de l’espèce au détriment de celle de l’individu) dans une perspective holiste et non individualiste de l’évolution. D’accord avec le biologiste W.D. Hamilton, Dawkins admet que ce comportement vise à favoriser des proches porteurs de gènes semblables. - Le modèle du gène égoïste ouvre la voie à une théorie de l’esprit. S’inscrit dans le prolongement de la sociobiologie et la psychologie évolutionniste (evopsy). - La théorie des mèmes. Équivalent culturel du gène, le mème fait entrevoir la possibilité de recourir aux principes darwiniens de la sélection pour expliquer comment certaines idées/religion/idéologie/phénomènes de mode parviennent à se transmettre et à proliférer en fonction de leurs avantages comparatifs. De même que le gène selon Dawkins, le mème se sert de l’homme comme d’un réplicateur, une gonade, un instrument de reproduction. Les mécanismes de la transmission sont conservés tout comme ceux de la variabilité : un mème copié peut subir des altérations, se modifier, se raffiner, se combiner avec un autre mème et créer de nouvelles versions de lui-même plus efficace st susceptible de se transmettre. Focalisé sur l’information et les comportements, la « mémétique » se propose ainsi comme l’analogue intellectuel de l’évolutionnisme biologique recentré sur les gènes. - Un intérêt épistémologique certain dans la mesure où elle explique la diffusion ou la disparition des théories en relation avec les exigences de l’environnement et les contraintes intellectuelles de chaque époque. 89 René Descartes (1596-1650) Principales contributions : - Discours de la méthode (1637) - Méditations métaphysiques (1641) - Principes de la philosophie (1644) - Passions de l’âme (1649) Concepts et idées-forces : - Procédure du doute hyperbolique reprise des philosophes sceptiques. Néanmoins chez les sceptiques, pas de récusation possible de l’existence d’une extériorité au moi ; pas de risque de phénoménisme. C’est Dieu qui, chez Descartes, assure l’adéquation de l’objet physique ramené à la figure et au mouvement et la chose extérieure. - Cogito ergo sum. La connaissance procède en s’appuyant sur l’évidence du sujet épistémologique (Foucault). - Soutient ce qui deviendra la distinction des qualités premières et secondes (et tertiaires) chez Locke pour expliquer la relativité des sensations, tout en préservant au phénomène un substrat matériel réduit à l’étendue diversifié par la figure et au mouvement. - Prend part à la révolution scientifique du XVIIe siècle, tributaire d’une révolution conceptuelle (philosophie mécaniste), de la naissance de l’expérimentation (perfectionnement et multiplication des instruments de mesure) ainsi que de l’adoption de la méthode analytique exposée dans le Discours de la méthode, qui rompt d’avec la scolastique (on retrouve l’idéalisme platonicien Platon en rejetant Aristote). - Pose les fondements d’une nouvelle mécanique fondée sur la mathématisation de l’étendue et du mouvement = reconstruction du phénomène à l’intérieur du domaine de l’intelligibilité géométrique. Mathématisation du phénomène corrélative à la mathématisation de l’esprit : Logique de Port-Royal par Arnauld et Nicole, Éthique « more geometrico » de Spinoza, Leibniz et son projet de Caractéristique universelle, etc. - Mathématisation du mouvement se heurte notamment au problème de l’infini : les paradoxes de Zénon, Giordano Bruno, etc. D’où la distinction posée par les Principes, première partie, entre infini et indéfini. Alors que l'infini se dit de Dieu, l'indéfini se dit du monde physique et des mathématiques. 90 - Illustration de la manière dont une discipline se constitue comme science au XVIIe siècle, par voie de dématérialisation d'un champ de l'expérience. Il s’agit de surmonter l’apparence immédiate pour remonter du fait irrationnel et subjectif au phénomène réglé et objectif. Le geste de Descartes consiste ainsi d’abord à effectuer la spatialisation de ce qui n’est pas spatial, la quantification de ce qui n’est pas (ou du moins pas immédiatement) quantifiable. La dimension ou la mesure (d’une étendue, d’une translation) joue chez Descartes le rôle de paramètres. La mesure de tels paramètres est ce que l’on retient pour constituer l’objet des sciences. La certitude (le fait de circonscrire une vue) résulte de ce processus. Les sciences modernes effectuent lors une réduction dont la finalité est de donner accès au phénomène-objet. - Découvre les lois de la réflexion et de la réfraction, fonde la géométrie analytique (avec Pierre de Fermat) qui rend possible la représentation d’une fonction algébrique par une courbe géométrique. Prépare une nouvelle vision du monde prônant l’image d’une nature débarrassée de ses qualités occultes. Renoue avec la position chrétienne contre l’animisme grec. - Pour Imre Lakatos, la théorie mécaniste cartésienne (et son prolongement en optique) constitue un programme de recherche scientifique (PRS) ou socle de principes et d’hypothèses rectrices qui « envisagent l’univers comme un immense système d’horlogerie ». - Typologies des idées (innées, factices, adventices). Nous connaissons par les idées, par l’entendement, non par les sens et l’imagination (cf. analyse du morceau de cire) - Dualisme âme-corps et notions communes. Res extensa vs res cogitans. Le problème de l’union et le traité des Passions de l’âme. Théorie des animaux machines, les esprits animaux, de la glande pinéale, etc. - Le critère d’évidence et les idées claires et distinctes. Nous concevons en nous une idée de l’infini (marque de l’ouvrier dans son ouvrage), mais ne pouvons l’imaginer. Exemple du chiliogone, figure à mille côtés. - L’erreur liée à l’illimitation de la volonté qui va au-delà de l’entendement. Nous affirmons davantage que ce que nous entendons. 91 John Dewey (1859-1952) Principales contributions : - Reconstruction en philosophie (1919) - Expérience et Nature (1925) - Logique. La théorie de l'enquête (1938) Concepts et idées-forces : - Inflexion pragmatiste imprimée à la philosophie classique en vue de la moderniser et de l’affecter à la résolution de problèmes humains. Critique corrélative de la philosophie classique qui se consacre à des spéculations abstraites et à des dissertations creuses sur les essences et autres intelligibles. Son but devrait être d’épouser les évolutions du monde, quitte à se transformer perpétuellement pour lui donner du sens et aménager l’ordre qu’il ne possède jamais de manière a priori et absolue (contra les partisans du cosmos grec au latin et de l’harmonie préétablie). Des « instruments d’enquête sur les faits humains ou moraux » sont nécessaires pour éprouver les théories scientifiques et philosophiques, ramenées au statut d’hypothèses à valeur provisoire et relative. - Instrumentalisme. Définition de la pensée comme instrument façonné au cours de l’évolution à la faveur duquel l’homme s’adapte à un monde luimême en perpétuelle évolution. Perspective darwinienne conduit Dewey à la comprendre « génétiquement, comme le produit d'une interaction entre un organisme et son environnement », à concevoir la connaissance « comme ayant une instrumentalité pratique dans l'orientation et le contrôle de cette interaction », et les idées et théories comme instruments pratique dont la valeur se mesure de manière relative en fonction des défis qu’ils permettent de relever, des intérêts humains. - « Naturalisme interactif » = Coévolution perpétuelle de la pensée et de son environnement. Raison pour laquelle l’enquête scientifique n’a pas de terme, ni la philosophie qui est un processus dont le contenu ne saurait être acquis a parte post. Contra la conception platonicienne d’une science absolue, objective, indépendante du contexte matériel, identique à ellemême. - Réorientation de la philosophie dont la question centrale devrait être de savoir ce que « peuvent les professeurs de philosophie pour contribuer à la création d'un monde meilleur ». D’où une vigoureuse prise à partie de la 92 philosophie contemplative traditionnelle, indifférente au sort de l’humanité, voire légitimant sa condition (cf. Reconstruction en philosophie, 1919). Dewey renvoie dos à dos l’empirisme logique (de Bertrand Russell, Rudolf Carnap, Willard Van Orman Quine, Max Black et consorts) à l’origine la philosophie analytique anglo-saxonne, et les philosophies de l’histoire, surgeons de la tradition herméneutique continentale, en déphasage avec l’actualité. - Caractère économiquement intéressé de la philosophie classique. Plus particulièrement, de celle de Platon et d’Aristote, articulée aux intérêts d’une certaine classe sociale. Cet édifice spéculatif n’a pas de valeur en soi, et surtout pas extrait de son contexte. Anachronique mais, plus encore, illégitime quant à sa prétention à être une discipline plus noble que les autres arts ou sciences. Dewey observe enfin que si cette philosophie est prompte à la critique (ce qui la rend indéniablement précieuse), elle affiche moins d’entrain à se prendre elle-même pour objet de critique. Anticipe par certains aspects sur ce que Marx, en réinvestissant un concept forgé par Destutt de Tracy, appellera l’idéologie. - Naturalisme empirique. Promeut le ré-enracinement de l’expérience dans la nature sociale de l’homme. En quoi cette philosophie peut être qualifiée d’humanisme naturaliste. - Caractère collectif et évolutif de l’expérience. Celle-ci doit être contextualisée en étant rapportée à la culture comprise au sens anthropologique du terme. Elle concerne un ensemble d’individus et non un individu seul ; est sous-déterminée par un environnement social dépositaire de ses codes, de ses rites de ses institutions. Mais elle peut à son tour faire évoluer cette grammaire sociale qui l’influence autant qu’elle l’influence. Voir la postface de Joëlle Zask à l’édition française d’ Experience et nature : « Les activités de l'individu sont largement déterminées par son environnement social, mais réciproquement ses propres activités influencent la société dans laquelle il vit, et peuvent apporter des modifications dans sa forme. Il est évident que ce problème est l'un des plus importants qu'il faille envisager dans une étude des changements culturels ». - Théorie de l'enquête et assertabilité garantie. L’enquête consiste en l’examen de diverses hypothèses fournies par les théories philosophiques 93 traditionnelles en vue de résoudre un problème d’adaptation faisant suite à une modification de l’environnement. - La solution convenue n’est pas une vérité, ou pas au sens d’adéquation d’un énoncé et de la réalité ; elle relève de l’« assertabilité garantie » (= satisfaction), supprime provisoirement le besoin à l’origine du doute. Le pragmatisme n’a d’intérêt que pour ce qui fonctionne. Critère d’efficacité pratique. - Une logique adaptée au raisonnement scientifique. De même que l’Organon d’Aristote satisfaisait à l’état de la science du quatrième siècle avant J.-C., vise à élaborer un instrument théorique qui donne le change aux exigences scientifiques de l’esprit moderne. Ni un traité (Bacon et Mill), ni une axiomatisation mathématique (Russell), mais une refondation radicale de la logique en direction de l’instrumentalisme. Système indexé sur l’action, valable par ses effets, dépositaire de ses canons de méthode propres. Wilhelm Dilthey (1833 -1911) Principales contributions : - Introduction aux sciences de l’esprit (1883) Concepts et idées-forces : - Opposition sciences de l’esprit (histoire, psychologie, sociologie, etc.) vs. sciences de la nature (physique, chimie, biologie, etc.). Les premières portent sur la réalité physique ; elles prêtent à une explication en termes de lois et de causalité. Les secondes frayent dans la matière humaine et impliquent une démarche qui fasse droit à la subjectivité des individus ; elles relèvent de la compréhension. - Une distinction à replacer dans le contexte du scientisme et du positivisme triomphant de la fin du XIXe siècle et que K.O. Apel considère non plus en termes d’opposition mais de complémentarité : il est un fait que toute explication requiert déjà un acte de compréhension (La controverse expliquer-comprendre. Une approche pragmatico-transcendantale). - Weltanschauung (conception du monde). Notion issue du romantisme allemand, critiqué par Hegel ; à ne pas confondre avec l’épistémè de Foucault. 94 Pierre Duhem (1861-1916) Principales contributions : - La Théorie physique. Son objet et sa structure (1906) - Sauver les apparences. Sur la notion de théorie physique de Platon à Galilée (1908) - Le Système du Monde. Histoire des Doctrines cosmologiques de Platon à Copernic (1913-1959) Concepts et idées-forces : - Avec Ernst Mach et Henri Poincaré, l’une des trois grandes figures de la philosophie des sciences à l’aube du XXe siècle. Des analyses fondées sur l’enquête historique, donnant le la de la tradition française. - Élargissement à la physique le champ du conventionnalisme que Poincaré confine à la géométrie. - Instrumentalisme. La théorie considérée comme une représentation commode des lois mathématiques : « Une théorie physique n'est pas une explication, c'est un système de propositions qui ont pour but de représenter un ensemble de lois expérimentales » (La théorie physique, son objet, sa structure) ; lois expérimentales qui sont des modèles symboliques et approchés de l’observation. L’usage des théories est alors prédictif, nullement explicatif. La théorie ne décrit pas le réel en soi, mais une façon de s’y rapporter. - L’instrumentalisme de Duhem, lequel conçoit les théories à la manière de système déductif abstrait retenus pour leur fécondité, s’oppose au réalisme épistémologique selon lequel les théories peuvent prétendre à parler de la vérité ; ensuite de quoi ce qu’elles énoncent existe. - S’oppose pour cette raison à la théorie atomique inchoative, qui postulait des entités sans nécessité. L’observation des atomes à la faveur des microscopes à effet tunnel apporte un démenti à Duhem : il y a bien des atomes. - La promotion d’une collection de faits à l’état de théorie ne peut se satisfaire du dégagement des lois de régularité, de la description des constantes et de la généralisation à partir d’inductions ; encore lui reste-t-il 95 à conférer aux phénomènes empiriques un pendant symbolique, de développer un formalisme mathématique. - La théorie va au-delà de l’expérience en avançant des concepts hypothétiques abstraits, non observable, tels ceux de force, de masse, d’accélération, d’inertie, etc. Autre objection à opposer aux empiristes naïfs et aux positivistes. - Acception cohérentiste de la « vérité » d’une théorie supplante l’acception coïncidentiste traditionnelle synthétisée par la formule « adequatio intellectus et rei ». - Holisme épistémologique. Il définit une conception organiciste de la théorie physique. Le propre de l'organe est qu’il ne peut être appréhendé qu'à l'aune du corps entier. Ce rapport de l'organe relativement au corps est analogue à celui qui rattache une hypothèse à la constellation des théories qu'elle mobilise. On ne peut donc pas de trancher entre deux hypothèses ; on ne peut trancher qu’entre deux ensembles théoriques qui devront être pris en bloc en bloc. Cette thèse, qui fut reprise par Quine, sera plus tard appelé la « thèse de Duhem-Quine » ou « holisme de la confirmation ». La thèse de Duhem-Quine peut être lue comme un élargissement à toutes nos connaissances de l’holisme physique thématisé par Duhem. Cette découverte aura des conséquences pratiques et théoriques majeures dans le domaine des sciences expérimentales. Elle a pour corollaire le fait qu'il ne saurait y avoir d'expérience cruciale (en physique comme ailleurs). Contra Bacon. - Caractère global du contrôle expérimental. Une expérience ne sanctionne donc jamais une hypothèse particulière, mais toujours un ensemble théorique. Il suit de là que l'énoncé des résultats d'une expérience implique du physicien qu'il réaffirme sa croyance en une pluralité de théories connexes (de la mesure, de l'instrument, des lois optiques, etc.). Et si c'est bien parmi ces théories qu'il faut traquer l'hypothèse déficiente, rien ne permet de dire de laquelle il s'agit, quoi remplacer et quoi sauver. Ce dont nous avertit la contradiction expérimentale, c'est d’une tare dans le système des hypothèses que mobilise la théorie. Elle ne dit rien de l'hypothèse à l’origine de ce dysfonctionnement. - L'attitude exigée du physicien aux prises avec le démenti de l'expérience est directement liée à l'architectonique des théories. Selon Duhem, le développement d'une théorie requiert quatre démarches successives, 96 rigoureusement sériées : (a) définition des concepts ; (b) formulation des hypothèses ; (c) développement mathématique et (d) contrôle expérimental. Partant, les hypothèses ni les définitions sont atteintes par l'expérience : celles-ci n'ont pas de valeur empirique ; ce sont des conceptions, purement formelles, du physicien. Ce qui est confronté à l'expérience, ce sont les conséquences du développement mathématique, les lois qui s'en dégagent. Le physicien doit revenir de manière dialectique sur (a) et (b), sur les définitions et hypothèses qu'il pose et corrige librement. Notons que le contrôle n'intervient qu'en aval : la théorie n'est pas le fruit de l'expérience ; elle est présupposée, intuitionnée. L'auteur s'oppose en cela aux conceptions inductivistes de la science. « Un physicien conteste telle loi ; il révoque en doute tel point de théorie ; comment justifiera-t-il ses doutes ? Comment démontrerat-il l’inexactitude de la loi ? De la proposition incriminée, il fera sortir la prévision d’un fait d’expérience ; il réalisera les conditions dans lesquelles ce fait doit se produire ; si le fait annoncé ne se produit pas, la proposition qui l’avait prédit sera irrémédiablement condamnée […]. Un pareil mode de démonstration semble aussi convaincant, aussi irréfutable que la réduction à l’absurde usuelle aux géomètres ; c’est, du reste, sur la réduction à l’absurde que cette démonstration est calquée, la contradiction expérimentale jouant dans l’une le rôle que la contradiction logique joue dans l’autre. En réalité, il s’en faut bien que la valeur démonstrative de la méthode expérimentale soit aussi rigoureuse, aussi absolue ; les conditions dans lesquelles elle fonctionne sont beaucoup plus compliquées qu’il n’est supposé dans ce que nous venons de dire ; l’appréciation des résultats est beaucoup plus délicate et sujette à caution. Un physicien se propose de démontrer l’inexactitude d’une proposition ; pour déduire de cette proposition la prévision d’un phénomène, pour instituer l’expérience qui doit montrer si ce 97 phénomène se produit ou ne se produit pas, pour interpréter les résultats de cette expérience et constater que le phénomène prévu ne s’est pas produit, il ne se borne pas à faire usage de la proposition en litige ; il emploie encore tout un ensemble de théories, admises pour lui sans conteste ; la prévision du phénomène dont la nonproduction doit trancher le débat ne découle pas de la proposition litigieuse prise isolément, mais de la proposition litigieuse jointe à tout cet ensemble de théories ; si le phénomène prévu ne se produit pas, ce n’est pas la proposition litigieuse seule qui est mise en défaut, c’est tout l’échafaudage théorique dont le physicien a fait usage ; la seule chose que nous apprenne l’expérience, c’est que, parmi toutes les propositions qui ont servi à prévoir ce phénomène et à constater qu’il ne se produisait pas, il y a au moins une erreur ; mais où gît cette erreur, c’est ce qu’elle ne nous dit pas. Le physicien déclare-t-il que cette erreur est précisément contenue dans la proposition qu’il voulait réfuter et non pas ailleurs ? C’est qu’il admet implicitement l’exactitude de toutes les autres propositions dont il a fait usage ; tant vaut cette confiance tant vaut sa conclusion […]. » Duhem, La théorie physique, son objet, sa structure, chap. 6. - Ensuite de quoi le physicien est libre de modifier telle ou telle hypothèse qui lui déplaît ; et les critères qui président à ce choix n'ont pas de justification démonstrative. Le choix d'incriminer telle hypothèse plutôt qu'une autre relèverait bien plutôt des intuitions, présupposés, valeurs du physicien, et même de son « bon sens » relativement aux connaissances de son époque. - Le libre choix des hypothèses à conserver ou révoquer introduit donc une part de contingence dans la constitution des théories. Cette contingence n'est acceptable pour le physicien que s'il fait sien le postulat selon lequel la science n'a pas tant vocation à rendre compte de la réalité, à « expliquer », qu'à donner du réel une « représentation » conforme à l'expérience. La science n'est pas la vérité ; c'est un dispositif dont la valeur dépend de sa capacité à faire des prédictions. C'est ce qu'on appellera une conception « instrumentaliste » de la science, par opposition à l'interprétation « matérialiste » ou « réaliste » de la physique. 98 - Encore faut-il être en mesure de distinguer le bon grain de l'ivraie. De fait, dès lors que la science abandonne sa prétention à saisir l'essence même de la réalité pour n'en donner qu’une représentation, se pose la question des critères qui vont permettre d'apprécier laquelle des nombreuses représentations possibles est la plus adaptée. D'une théorie X ou Y toutes deux conformes à l’expérience, laquelle privilégier ? C'est ici qu'interviennent les « valeurs objectives de la sciences ». Ces valeurs objectives président à l'arbitrage du physicien, au prorata du degré d'importance qu’il leur accorde. Une théorie plus cohérente, plus élégante, plus simple, précise, féconde, complète, a davantage de chances d'être priorisée. - Valeurs et critères du choix rationnel : précision, cohérence, complétude, simplicité, fécondité. Elles sont nécessités pour arbitrer entre les différentes représentations possibles. Duhem promeut spécifiquement la complétude, la cohérence et la simplicité. Rien n'empêche cependant le physicien d'interpréter à sa manière ces différents principes d'évaluation, ni ces principes d'entrer en conflit les uns avec les autres. Longtemps, la cohérence a servi d'argument en faveur de la théorie géocentrique de Ptolémée, tandis que la simplicité était invoquée par les partisans de la théorie héliocentrique de Copernic. La première s'accordait avec la physique d'Aristote, alors prépondérante ; la seconde permettait de diminuer le nombre de cercles célestes. - Duhem s'en prend à la vulgate de la méthode expérimentale telle qu’elle se trouve reprise par, notamment, ceux qui l’enseignent. On définit compendieusement la méthode expérimentale comme une démarche scientifique visant à tester la validité d'une hypothèse au moyen d'expériences répétées, précises et encadrées. On pensait donc, jusqu'à Duhem, être en mesure de confirmer ou d'infirmer une hypothèse particulière en la livrant directement au tribunal de l'expérience. Or, précise-t-il, « il n'en est pas ainsi ; la Physique n'est pas une machine qui se laisse démonter ; on ne peut pas essayer chaque pièce isolément et attendre, pour l'ajuster, que la solidité en ait été minutieusement contrôlée. » ( La théorie physique, son objet, sa structure). En clair, on ne peut pas faire un inventaire des hypothèses et les tester les unes après les autres (démarche analytique). Toutes les fois qu'une théorie se trouve en contradiction avec 99 expérience, c'est le système entier qui se trouve mis à mal sans qu'on puisse dire lequel de ses rouages est déficient. - Pas d’expérience cruciale. La notion d'expérience cruciale vient de Bacon qui dans le Novum Organum, la nomme aussi « fait de la croix, en empruntant cette expression aux croix qui, au coin des routes, indiquent les divers chemins ». En guise d’exemple, on admettait pour décisive l'expérience de Foucault en tant qu'elle permettait de trancher entre l'hypothèse corpusculaire et hypothèse ondulatoire de la lumière ; en vérité, c'est entre deux systèmes théoriques complets que mettent en jeux ces hypothèse (l'optique de Newton, et l'optique de Huygens) que l’expérience arbitre ; à supposer bien sûr qu'il n'y ait pas d’autres hypothèses auquel le physicien n'a pas encore songé… ce qui cela se révélera être le cas (les quanta, puis les bosons vecteur). En résumé, il y a donc selon Duhem plusieurs raisons qui font qu'une expérience cruciale n'a pas de légitimité pour transformer une hypothèse physique en vérité incontestable : (1) C’est, tout d’abord, qu’un fait dit « scientifique » est le produit d'une expérimentation qui met en jeu tout un réseau de théories connexes (non pas une hypothèse donnée dont on saurait si elle est réfutée ou vérifiée). (2) De plus, un ensemble théorique invalidé peut toujours s'adapter moyennant des aménagements, tels que la modification d'une hypothèse auxiliaire (Popper fut le premier à établir cette distinction entre hypothèses fondamentales et auxiliaires). Chaque fois qu'une expérience prétend confondre l'une de nos hypothèses, nous avons toujours le choix entre l'abandonner ou bien la conserver, et modifier à la place un autre de nos énoncés. (3) Au reste, pour qu'une telle expérience soit susceptible de garantir ou d’infirmer une hypothèse physique, il faudrait énumérer exhaustivement les diverses autres hypothèses auxquelles un groupe déterminé de phénomènes peut donner lieu ; sur ce terrain, le physicien n'est jamais sûr d'avoir épuisé toutes les suppositions imaginables. - Primat de la théorie, laquelle précède, calibre l’expérience. Il n’y a pas plus d’induction pure que d’expérience cruciale. - Pas de remise en cause du progrès scientifique. Qu’une théorie ne reflète pas la vérité ne condamne pas la science au pur relativisme. Au fur et à mesure que se succèdent les théories, celles-ci deviennent plus adéquates, saisissent de mieux en mieux les articulations de la réalité. Incidemment, se 100 met en branle un processus de cheminement envers une « classification naturelle » (donc non-conventionnelle). Reprise d’Auguste Comte : on ne recherche pas les causes finales ou originaires des phénomènes, on donne une description commode, efficace. Représenter n'est pas livrer la vérité sur le réel ; toutefois on s'en rapproche de manière asymptotique. -Duhem entrevoit les prémices de la science moderne dans la science médiévale plutôt qu’au XVIe siècle. Ex : impetus chez Jean Buridan comme préfiguration du principe d’inertie vs. conception aristotélicienne l’antipéristase ; latitude des formes chez Nicole Oresme, prodromes de la quantification des qualités ; intuition de la rotation de la Terre chez les penseurs du Moyen Âge ; pluralité des mondes chez Albert de Saxe, Giordano Bruno et Bernard le Bovier de Fontenelle (Entretiens sur la pluralité des mondes, 1686). Le procès de Galilée serait l’apex de la critique de l’aristotélisme par les penseurs modernes. L’Église joue malgré elle un rôle de promoteur de ces nouvelles idées (effet Streisand : mettre à l’index, c’est pointer du doigt). - La cohérence logique est recherchée par ces penseurs conventionnalistes davantage que l’applicabilité de ces théories à la réalité physique. La promotion du critère d’efficacité (Machiavel en politique, Descartes en mécanique, Vésale en anatomie, Paré en médecine) constitue le pivot de la révolution scientifique du XVIIe siècle. - Prise en compte de la collectivité de l’œuvre scientifique. Le physicien expérimentateur collabore avec le théoricien. - Étude sur la révolution scientifique du XVIIe siècle. La science classique croyait « sauver les phénomènes » en dégageant des lois abstraites à même de subsumer la multiplicité des faits sous des principes universels. Il s’agissait de faire ressortir une constance au sein de phénomènes en apparence aléatoires, une permanence qui rende possible l’explication et l’anticipation. Les faits d’observation ne sont plus capricieux, mais ordonnés à la faveur d’une théorie. Cette théorie ressaisissait le monde dans un modèle qui en propose une simplification commode. 101 Albert Einstein (1879-1955) Principales contributions : - Divers articles fondateurs publiés dans la revue Annalen der Physik en 1905, « annus mirabilis » d’Einstein : « Sur l’électrodynamique des corps en mouvement » ; « Un point de vue heuristique concernant la conception et la transformation de la lumière » ; « L’inertie d’un corps dépend-elle de sa capacité d’énergie ? » ; « Sur la théorie quantique du rayonnement » ; « Des ondes gravitationnelles » ; « La description de la réalité physique par la mécanique quantique peut-elle être considérée comme complète ? » - La théorie de la relativité restreinte et générale (1916) - La relativité (1956) - L’Évolution des idées en physique (avec Leopold Infeld) (1936) Concepts et idées-forces : - Théorie de la relativité restreinte (1905) et générale (1915). Dépassement des équations de l’électromagnétisme de Maxwell en direction d’une nouvelle théorie de l’espace et du temps qui forment un continuum, un contenant inséparable du contenu énergétique et matériel. L’article « Sur l’électrodynamique des corps en mouvement » (1905) consacre cette rupture. Contra l’absolutisme de l’espace newtonien, la configuration géométrique du monde (topologie) se révèle relative à la distribution des masses et des vitesses des entités qui le remplissent. L’espace devient bien plus qu’un système de coordonnées au sein duquel viendraient s’inscrire les phénomènes : il participe des phénomènes, les détermine, se détermine en eux d’après leur détermination. Les « équations du champ » décrivent le comportement du champ de gravitation. Elles sont la base de la physique relativiste moderne. - S’appuie sur le « principe de relativité » énoncé par Poincaré, mais en abandonnant toute référence à la notion d’éther. Néanmoins, controverse toujours ardente sur la paternité de la relativité. - Équation E = mc2 ; avec E pour l’énergie de masse, m pour masse et c pour célérité ( : vitesse de la lumière = 2x108 m/s). Valable dans cette formulation de base que pour les corps de vitesse nulle dans un référentiel donné. Formulé pour la première fois dans son article de 1905 intitulés « L’inertie d’un corps dépend-elle de son contenu en énergie ? ». Épicentre d’une nouvelle révolution scientifique, avec renouvellement de la mécanique 102 céleste et naissance de la physique nucléaire. De très nombreuses applications civiles et militaires (armes, centrales nucléaires). Influence également les autres sciences en leur communiquant un modèle théorique, de la même manière que l’évolutionnisme de Darwin a pu se généraliser audelà de la biologie. -Cette avancée s’explique (aussi) par un contexte socio-politique et des nécessités techniques. Chaque ville-station du chemin de fer européen à la toute fin du XIXe siècle avait sa propre comptabilité horaire. Polychromie problématique qui compliquait la vie des voyageurs autant que des cheminots, et plus encore de l’armée en mouvement. La coordination était devenue impérative, ainsi que l’affirmerait devant le Parlement impérial le comte von Moltke en 1891. Einstein est alors fonctionnaire à l’office des brevets ; il conçoit l’équation de la relativité en examinant ceux traitant de la synchronisation des horloges à distance. Donne quitus à une interprétation externaliste du progrès scientifique. Externalisme social, culturel, historique qui ne doit pas méconnaître l’originalité d’Einstein que fascinaient les trains. - Confirmation en demi-teinte. Celle-ci a lieu en 1919, après l’échec de la première expédition de 1915, et a pour but de mesurer la déviation des rayons lumineux au bord d’une masse lors d’une éclipse solaire. C’est Arthur Eddington qui supervise cette vérification mais avec une marge d’erreur trop importante pour lui permettre d’entériner la théorie d’Einstein – il le fit néanmoins. Un « faux bon résultat », comme l’écrivait Stephen Hawking dans son ouvrage de 1988, Une brève histoire du temps, en grande partie déterminée par les attentes (ou « protensions ») de l’observateur. - Ses travaux sur le mouvement brownien apportent la preuve théorique de l’existence des atomes et des molécules. Jean Perrin en apporte la sanction expérimentale en 1912. - Cosmologie statique. Convaincu que l’univers ne s’étend pas (démentie par Hubble), Einstein fixe une constante cosmologique. Ce qu’il reconnaît plus tard avoir constitué « sa plus grande erreur ». - Contributions de première main à la théorie des quanta ; ainsi avec l’introduction de la notion d'émission stimulée, l’explication de l’effet photoélectrique et la corrélation entre quantité de mouvement et quantum de lumière. Énigme des quanta qui pour Einstein restera toute sa vie un 103 sujet de perplexité : « Ces cinquante ans de rumination consciente ne m’ont pas rapproché de la réponse à la question "que sont les quanta lumineux ?" Aujourd’hui le premier fripon venu croit qu’il sait ce qu’ils sont, mais il se leurre » (Lettre d’Einstein à Michele Besso du 12 décembre 1951). - Regard sceptique et pour le moins critique jeté sur la physique quantique en gestation (voir notice). Bien qu’il soit indirectement impliqué dans son élaboration. La controverse avec Niels Bohr, Erwin Schrödinger et Werner Heisenberg prend rapidement des accents philosophiques, sinon théologiques. Einstein déjuge leurs interprétations probabilistes ou nondéterministes : « Gott würfelt nicht » (« Dieu ne joue pas aux dés »), déclaret-il lors de son intervention au cinquième congrès Solvay de 1927 ; à quoi Niels Bohr réplique: « Qui êtes-vous Albert Einstein pour dire à Dieu ce qu’il doit faire ? ». - Il convient néanmoins de ne pas se méprendre concernant la nature de la prétendue religiosité d’Einstein. La question du Hasard et de la Providence (= du déterminisme) renvoie à des options scientifiques et n’entend pas les dépasser. Dans son article de 1930, « Comment je vois le monde », Einstein détaille ce qu’il appelle sa « religiosité cosmique », qui fait l’économie de tout dieu personnel, de tout fondement moral ou dogme irrévocable. - Paradoxe EPR (1935), qui deviendra le paradoxe EPR-Bell (EinsteinPodolsky-Rosen-Bell). Entendait prouver par l’absurde l’inanité des fondements de la mécanique quantique. L’intrication quantique, levier de la réfutation, allait pourtant se vérifier expérimentalement. - Il y a effectivement contradiction entre les principes structurants de la relativité générale et les propriétés du monde quantique. L’un des défis majeurs de la physique contemporaine consiste précisément à développer une théorie quantique de la gravitation qui permettrait d’articuler (ex : théorie quantique à boucles) ou d’envelopper (ex : théorie des cordes) ces deux physiques. - La science dit ce qui est (Sein) ; elle ne dit pas qui doit être (Sollen) ; contra le lyssenkisme et le scientisme. « La méthode scientifique ne peut en effet rien nous apprendre d'autre qu'à saisir conceptuellement les faits dans leurs déterminations réciproques. Le désir d'atteindre à une connaissance objective fait partie des choses les plus sublimes dont l'homme est capable. Mais il est d'autre part évident qu'il n'existe aucun chemin qui conduise de la connaissance de ce qui est à celle de ce qui doit être ». Les théories sont 104 descriptives et non pas prescriptive. Mais à y regarder de plus près, décrire, n’est-ce pas déjà sélectionner ; n’est-ce pas déjà prescrire ? Albert Einstein, selon Roberto Bizama, 2009. Paul Feyerabend (1924-1994) Principales contributions : - Contre la méthode. Esquisse d’une théorie anarchiste de la connaissance (1975) - Science in a Free Society (1978) 105 Concepts et idées-forces : - Anarchisme ou pluralisme épistémologique. Toute les révolutions scientifiques ont impliqué le dépassement d’une méthode sclérosée, incompatibles avec l’explication des phénomènes. « Il n’existe rien qu’on puisse nommer une méthode scientifique, ou plutôt si, ce serait ces trois mots : "tout est bon" ("anything goes") ». Ensuite de quoi la science doit être ouverte à toutes les hypothèses, idées, méthodes, démarches. Une heuristique de la découverte. - Insiste sur le fait qu’« aucune théorie scientifique n’est compatible avec les faits observés ». Pas plus l’héliocentrisme de Copernic, adopté en dépit de l’observation et de l’évidence naturelle, que la relativité restreinte d’Einstein, en butte à des observations contraires, non plus enfin que le modèle atomique de Bohr incompatible avec bon nombre de données. Les théories doivent leur succès à des astuces, des omissions, des subterfuges et de la rhétorique. - Contre Popper, pour qui la recherche scientifique réfute les théories non viables à l’aune des résultats de l’expérimentation, Feyerabend montre que les anomalies sont ou bien négligées (sciemment ou non), ou bien mises de côté et relativisées. Aucune de nos théories ne correspond effectivement pleinement et sans réserve avec l’ensemble des observations. - Pas de fait scientifique qui ne soit d’abord une interprétation, une production ad hoc de phénomène conçu pour confirmer plutôt que pour édifier ou éprouver une théorie. - Feyerabend énonce différents types de relativisme : pratique, démocratique, épistémique. - Relativisation de la supériorité (hégémonie ?) de la science comme organum de connaissance au regard des autres disciplines. Les théories scientifiques sont des « fictions convaincantes » qui n’ont pas plus – ni moins – de légitimité et que les mythes, les systèmes religieux, les belles histoires de la littérature. Cette analyse n’est pas pour plaire aux huiles de la science institutionnelle aux yeux desquels abattre les piliers la science, c’est menacer de faire s’écrouler l’ensemble d’un édifice érigé si laborieusement. Pourvoyeuses de légendes dorées, les biographies autorisées ont une valeur plus protreptique et édificatrice qu’historique. Cela ne signifie pas qu’elles n’aient pas de valeur du tout. 106 Richard P. Feynman (1918-1988) Principales contributions : - Le cours de physique de Feynman (avec Robert B. Leighton et Matthew Sands) (1961-1963) - Particules et lois de la physique (avec Steven Weinberg) (1987) - Quantum Electrodynamics (1961) - The Theory of Fundamental Processes (1961) - Vous voulez rire, monsieur Feynman ! (1985), Concepts et idées-forces : - Électrodynamique quantique relativiste. Dans le prolongement des travaux de Dirac qui en trace les linéaments, elle consiste en la description des interactions électromagnétiques entre les particules chargées. - Théorie des interactions faibles. Interactions responsables de la cohésion du noyau atomique, d’où suit la désintégration radioactive des particules subatomiques. Anticipe théoriquement la découverte dans les décennies des années 1970-1980 des bosons vecteurs W+, W- et Z0. - Diagrammes de Feynman. Feynman propose dans cette optique une technique de calcul des sections efficaces d’interaction entre les particules, faisant appel aux diagrammes qui portent aujourd’hui son nom (voir notice : point sur le modèle standard) ; ce qui lui vaut avec Julian Schwinger et SinItiro Tomonaga de recevoir en 1965 le prix Nobel de physique. Lesdits diagrammes aujourd’hui des instruments incontournables de la physique théorique, en particulier de la théorie des cordes et de la théorie M. Diagramme de Feynman : ePhoton e- - Contribution au projet Manhattan. Projet secret de mise au point de la première bombe atomique. Réquisition de différents ateliers travaillant 107 indépendamment les uns les autres, en parallèle, le tout étant centralisé à Los Alamos. Une pépinière de physiciens (Feynman y rencontra notamment Enrico Fermi et Niels Bohr). Le projet aboutit avec l’explosion le 16 juillet 1945 de la première bombe A. Cet événement pointe le risque d’embrigadement des scientifiques dans des programmes militaires et de perte d’indépendance. Toutefois, de nombreuses avancées technologiques majeures n’auraient jamais été rendues possibles sans la mise à disposition des budgets militaires. La guerre, une accoucheuse de science. La science avance par le mauvais côté. - Feynman fut également l’un des grands noms de la vulgarisation. Connu du grand public autant par ses cours universitaires que par ses livres. Trahit une certaine conception du savoir scientifique qui ne doit pas être réservé à une élite privilégiée. Point sur le modèle standard Ce point a pour objet d’esquisser un panorama succinct de situation actuelle de la recherche fondamentale et de ses grandes orientations dans le domaine de la physique fondamentale. Il ne saurait y avoir matière plus « concernante » pour la philosophie, tant elle s’emploie à faire violence à notre conception naïve de la réalité. Trois axes seront articulés au fil de cette exposition : les particules en constituent naturellement le premier ; viendra ensuite la description des forces à l’origine de leurs interactions. Nous conclurons enfin sur la nature du vide quantique, veillant à souligner tout ce qui sépare le modèle standard de la pensée de Démocrite – le premier « atomiste ». Typologie des particules Les atomes constituent les briques dont sont faites les substances qui constituent le monde matériel. Ces briques elles-mêmes – les mal-nommées « indivisible » (a-tomos) – sont en réalité décomposable en trois sous-entités ; soit 1) l'électron, gravitant autour d’un noyau formé par 2) des protons et 3) des neutrons (ce sont les « nucléons »). Ces trois espèces de particules peuvent-elles être considérées comme « élémentaires », c’est-à-dire 108 insécables ? Se pourrait-il que ces trois composantes bien liées puissent à leur tour être décomposés en quelques entités subtiles plus légitimes à postuler au titre convoité de particules élémentaires ? Il semble en dernier ressort que si l’électron est bien une particule élémentaire, il n’en va pas de même pour le proton et le neutron. L’erreur la plus rédhibitoire serait cependant de croire que les atomes ainsi conçus renferment la totalité des particules présentes dans la nature. Bien d’autres ont été découvertes ; bien d’autres restent à découvrir. Le modèle standard des particules a pour fonction d’en constituer une classification, de manière analogue au tableau de Mendeleïev dans le domaine de la chimie. Deux grandes familles de particules y sont décomposées : les fermions et les bosons de jauge. (1) Fermions (leptons, hadrons et quarks) : On répartit en deux catégories les particules constituant la matière, aussi appelées fermions : - L'électron est le prototype de la famille des leptons, à laquelle il convient d’adjoindre le muon, le tau, et trois neutrinos. Ces six particules ont été jusqu’ici considérées comme dépourvues de structures internes, donc comme effectivement élémentaires. - Le proton et le neutron appartiennent quant à eux à l’ensemble des hadrons, et à la sous-espèce des baryons. Ceux-ci peuvent être générés au moyen d’accélérateurs au sein desquels sont reproduites les conditions initiales de l’univers. Le LHC du CERN (à l’origine du World Wide Web que les Européens ont omis de breveter) de Genève a ainsi récemment permis la détection de la particule Higgs. Son principe se résume à faire entrer en collision des corpuscules dotés de haute énergie (= vitesse). Quant aux hadrons, leurs caractéristiques est qu’à l’inverse des leptons, ils ne constituent pas des particules élémentaires, mais serait composés d'un nombre défini et limité de corpuscules plus essentiels, appelés quarks. Le nombre de ces quarks a finalement été porté à six, auxquelles sont attribuées les « saveurs » : up, top, down, bottom, strange et charm. L’appareil théorique permettant de comprendre les interactions entre les quarks et les gluons et ainsi d’étudier la cohésion du noyau atomique est 109 due aux physiciens Hugh David Politzer, Frank Wilczek et David Gross. C’est un 1973 qu’ils posent les bases de la chromodynamique quantique (abrégée QCD), en mesure d’expliquer le comportement étrange de ces particules subatomiques. Le terme de « chromodynamique » (chrôma : « couleur » ; dunamis : « puissance ») renvoie aux différentes associations des quarks aux trois couleurs primaires (rouge, vert et bleu), également à la base du codage informatique dit RVB ; ce sont aussi les longueurs d’onde correspondant aux trois espèces de cônes présents sur la rétine. Il convient de souligner toutefois qu’aucun quark n'a jamais pu être détaché de ses partenaires ni donc être observé de manière isolée. Cela tient à ce que la chromodynamique quantique appelle le « confinement » qui fait que leur constante de couplage varie de façon proportionnelle à leur distance (contrairement aux effets de la gravitation sur les corps graves), et leur confère une « liberté asymptotique ». Le proton et le neutron comportent des parties, mais ces parties demeurent inextricablement liées. Schéma de composition d’un neutron, constitué par deux quarks down et un quark up. Interactions par l’entremise des gluons figurée ici par un tracé sinusoïdal. (2) Bosons de jauge : Le modèle standard de la physique des particules intègre donc 6 quarks et 6 110 leptons, l’ensemble s’inscrivant dans cette première famille des particules élémentaires que sont les fermions. En marge des fermions, les constituants indivisibles de la matière, existe un autre type de particule à l’origine des forces régissant leurs interactions : les bosons de jauge (cf. infra), équivalent à ce que la mécanique quantique appelle aussi les quanta d’énergie. Leptons Charge électrique 0 Quarks –1 e Fermions νe de e Neutrino 1re Électron électronique génération +2/3 e –1/3 e u Quark up d Quark down Fermions de 2e génération νµ Neutrino muonique µ Muon c Quark charm s Quark strange Fermions de 3e génération ντ Neutrino tauique τ Tau t Quark top b Quark bottom Électromagnétique Forte γ Photon g (8) Gluon Interactions Bosons de jauge Faible Z0 Boson Z W- et W+ Boson W Tableau récapitulatif des particules élémentaires selon le modèle standard Le modèle standard recenserait donc 12 particules de la matière (fermions) et 12 particules de force (bosons), auxquelles il faudrait ajouter le bosons de Higgs récemment découvert. Ce qui élèverait à 25 le nombre total de 111 particules élémentaires constituant l’univers. Plusieurs indices semblent indiquer qu’il faudrait cependant doubler le nombre de fermions en incluant leur pendant négatif, une collection correspondante d’antifermions : les antiparticules de la matière. D’abord spéculative, l’hypothèse de telles entités proposée par Dirac fut vérifiée en 1933 avec la découverte d'un positron (anti-électron) émis à la faveur de la rencontre entre un noyau atomique présent dans l’atmosphère terrestre et un rayon cosmique. La symétrie CPT (dont le théorème fut démontré par Wolfgang Paoli) au fondement de la théorie quantique des champs prédit depuis pour chaque espèce de particule de la matière une antiparticule semblable, de masse identique, mais dont la charge est inversée. Les particules de charge nulle telles que le photon présentent un cas limite, étant leur propre antiparticule. Aussi les antiparticules des particules constituantes de l’atome, à savoir les antiprotons, les antineutrons et les anti-électrons, peuvent-ils être associés pour obtenir de véritables anti-atomes. Plus de 50 000 atomes d'anti-hydrogène ou anti-atomes d’hydrogène ont ainsi pu être synthétisés dans les laboratoires du CERN. Il n’est toutefois pas nécessaire de se rendre dans les laboratoires du CERN pour observer de l’antimatière. Des positrons sont en effet naturellement produits par les éclairs lors des orages. C’est ce qu’a pu mettre en évidence le physicien Michael Briggs en s’appuyant sur les relevés du télescope spatial Fermi. Une ceinture naturelle d'antiprotons a également été localisée autour de la terre : que ne serait-elle pas présente autour d’autres planètes ? L’ensemble des antiparticules redoublant théoriquement la matière ordinaire est appelé antimatière. Certains bosons sont à eux-mêmes leur antiparticule (notamment le gluon et le photon, comme vu précédemment) du fait de leur masse nulle ou de leur charge neutre. Mais il faut comptabiliser aussi les antiparticules des particules de force. La prise en compte de tous ces aggiornamentos dans le recensement des particules élémentaires multiplie quasiment par deux le montant du décompte initial. Cette comptabilité peut être contestée pour différentes raisons (et ne manque pas de l’être). Un certain nombre de modèles issus de la physique théorique postule de nouvelles particules (fermions et bosons) telles que le 112 neutrino stérile, les bosons Wʹ et Zʹ, X et Y, le graviton (G), l’axion et le majoron (J). La théorie de la supersymétrie prédit encore une superpartenaire pour chacun des items que renferme le modèle standard. Les squarks et les sleptons font leur entrée en scène dans la famille des fermions. Quant aux bosons, ils doivent compter avec les photinos, les neutralinos (wino, bino, higgsino), les jauginos (gluino, zino, gravitino, axino et charginos). Autres entités hypothétiques que l’on rencontre parfois dans la spéculation (astro)physique : les leptoquarks, le dilaton, le préon et le tachyon (particule supraluminique violant la clause de la constante c). Leur existence manque encore d’être prouvée. Les accélérateurs de particules ont encore de beaux jours à vivre. D’autres modèles envisagent au contraire la réduction de cet ensemble bariolé de particules élémentaires à une seule entité fondamentale ; ainsi des théories des cordes (ou de la théorie des supercordes) qui rapportent cette diversité accidentelle aux différentes fréquences de vibrations d’une corde unidimensionnelle (cf. pour de plus amples développements : point sur les théories de l’unification). L’économie réalisée en termes de particules se paie toutefois au prix d’une réévaluation du nombre des dimensions pouvant aller de 10 (1re théorie), 11 (théorie M), voire jusqu'à 26 dimensions (dans 2/5 des théories des cordes pré-théorie M), dont 21 « enroulées » sur elles-mêmes et une pouvant s’étendre jusqu’à constituer l’écrin dimensionnel d’un univers (p-brane). Il importe de noter que l’emploi du terme de « particules » n’a de valeur que didactique au sein de notre présentation. On pourrait aussi bien lui substituer celui de champ, la mécanique quantique étant acquise à l’unité foncière de ces deux notions. L’essence ondulatoire ou bien corpusculaire de la lumière ne relève dans cette optique que d’une question de point de vue. Cette unité substantielle s’est avérée au terme de la synthèse des deux révolutions majeures de la physique qu’auront été au XXe siècle la théorie de la relativité et la physique quantique. Elle a donné naissance à ce que l'on appelle aujourd'hui la théorie quantique relativiste des champs. Cette théorie met à l’honneur une réalité tressée d’autant de champs fondamentaux qu’il y a de particules élémentaires. Chaque particule élémentaire peut être traite comme un champ fondamental. Le monde se 113 décompose en un ensemble de champs interagissant entre eux en permanence par l'entremise de leurs quantas à la fois ondes et corpuscules. La représentation dualiste du monde opposant champs et particules s’efface sous ces auspices au profit d'une vision conciliatrice qui transcende les dichotomies. Elle accomplit une avancée cruciale en direction d’une physique plus homogène et unitaire. Forces et les interactions Plus homogène, personne n’en doute. Mais est-ce là suffisant pour satisfaire les physiciens, et même les philosophes un tant soit peu versés dans la question ? On devine aisément que non. Ce qu'ils recherchent, au moins depuis Thalès, n'est pas tant l'homogénéisation que l'unification sans reste de la physique. Unification qui ne passerait plus dorénavant par un « principe » (arché) comme dans l’Antiquité (voir : point sur les principes), mais par une équation mathématique « ultime ». Or, c’est encore peu dire qu’à cette enseigne, le modèle standard laisse à désirer. Si l’on ne peut nier que ses prédictions ont été validées expérimentalement avec la découverte d’entité théorique qu’il ne faisait que postuler (le boson de Higgs, primus inter pares), il apparaît admettre bien trop de particules au goût de beaucoup de physiciens. Il n’explique ni la matière noire, ni l’énergie sombre qui constituent pourtant, d’après ce même modèle, la plus grande masse de l’univers. Il échoue à lier la force de gravitation aux trois autres interactions fondamentales. Il s’avère impuissant à rendre compte des phénomènes de très haute densité, les singularités physiques telles les trous noirs et l’état de l’univers avant le mur de Planck. Quoi qu’on en ait, aussi précieux qu’il ait été jusqu’à présent, le modèle standard brûle sans doute de ses derniers feux. Il n’est pas assuré que la relève viendra de sitôt. Des efforts se poursuivent actuellement qui tendent au dépassement de ce paradigme-obstacle. Rappelons pour mémoire que l’univers est apparu régi par quatre forces résultants en réalité d’un échange de boson entre fermions élémentaires : l'interaction nucléaire forte, l'interaction électromagnétique, l'interaction nucléaire faible et la gravitation. Les bosons en question, aussi appelés les « 114 bosons de jauge » ou « particules de rayonnement », sont au nombre de 12 et se répartissent de la manière suivante : Forces : Bosons : - Electromagnétique - Nucléaire Forte - Nucléaire faible - Gravité - Photons - Gluons - W+, W-, Z0 - Higgs Notons que l’existence graviton, prévue à l’origine pour être le quantum de la force gravitationnelle, n’a jamais été détectée. Celle du boson de Higgs a en revanche pu être confirmée expérimentalement en 2012 grâce aux installations du CERN. Ce serait donc au boson de Higgs, ou plus exactement, à l’inertie engendrée par l’interaction des particules élémentaires avec le champ de Higgs, que serait due la masse de ces dernières. La masse n’est donc pas une propriété inhérente aux particules, mais un effet de leur interaction. Nombre de physiciens misent sur la possibilité de rassembler ces quatre interactions fondamentales en un seul formalisme mathématique. Une équation pour les expliquer toutes, c’est là tout le sens de la quête pour la grande unification (Grand Unified Theory : GUT) qui opérerait le syncrétisme tant désiré, qui retrouverait l’avant-Babel de la physique. L’équation adamique constituerait en outre, de la même manière que la recherche de la langue mère chez les linguistes, une remontée dans le temps. Tout porte à croire que l’univers à ses premiers instants n’était pas divisé entre ces quatre interactions (peut-être y en a-t-il davantage), pulvérisé en lignées de particules élémentaires hétéroclites. La disjonction des quatre forces aurait été un événement second et la matière telle que nous la connaissons, le produit de l’évolution de l’univers. L’unité prime sur la 115 diversification, tant logiquement que chronologiquement. Or, l’unification des particules et des interactions que la physique tente de réaliser exige des conditions de température (ou d’énergie, ce qui revient au même) très spécifiques, qui ne se rencontrent qu’au commencement de l’univers… et dans les accélérateurs. On admet aujourd'hui que 10-43 secondes après le big-bang (« temps de Planck », limite de nos possibilités actuelles de concevoir l'image physique du monde, en deçà de laquelle se situe l’ère de « l'obscurité théorique »), les trois forces, l'électromagnétique, la nucléaire forte et la nucléaire faible, n’en faisait en effet qu’une seule, la force électronucléaire. Le refroidissement graduel de l’univers consécutif à son expansion (ou entropie) aurait eu pour effet de les dissocier. Reste la gravité, la quatrième interaction que personne jusqu’aujourd’hui n’est parvenu à lier à trois forces pour obtenir une véritable « Théorie du tout ». 116 Schéma de l’expansion de l’univers, hypothèse orthodoxe et exploratoire sur son évolution, grande unification (GUT) et Théorie du Tout 117 Le vide quantique Nous venons à l’instant de traiter de la matière et de sa décomposition en particules élémentaires, que Démocrite anticipait par la notion d’atome (recouvrant quarks et électrons), ainsi que des forces à l’œuvre dans l’univers, qu'il ne pouvait connaître ; nous reste encore à faire état de l’image que nos théories actuelles nous ont livrée du vide. Du vide, dont on rappelle que Démocrite faisait le deuxième « constituant » du monde, à parité avec l’atome. La distinction entre ces deux principes était entière et ne faisait aucun doute aux yeux de l’Abdéritain. Le vide était partout où il n’y avait pas d’atomes ; réciproquement, les atomes existaient partout où il n’y avait pas de vide. Le caractère compact des atomes démocritéens empêchait par ailleurs qu’ils puissent contenir en eux le moindre espace de vide. Cela serait démenti dès le début du XXe siècle avec la découverte par Rutherford (et avant lui par Hantaro Nagaoka) de la structure planétaire de l’atome… que la physique quantique a depuis rendue obsolète (mais qui ne laisse pas d’être enseigné dans les manuels du secondaire). C’est dire que le vide chez Démocrite excluait la matière et la matière le vide ; les deux réalités fondamentales étaient irréductibles l’une à l’autre. Elles se juxtaposaient, aussi indifférentes que peut l’être un caillou plongé dans l’eau. Cette conception a été foncièrement revisitée au prisme de l’électrodynamique quantique, prolongement de la mécanique quantique. Son mérite fut d’avoir, de pair avec la relativité d’Einstein, entièrement révolutionnée la conception statique que l’on se faisait de la structure de la réalité au profit d’un schéma relationnel ou interactionnel. Au vide conçu de manière négative comme une absence d’atome, elle substitue un vide transi de champs électromagnétiques. Champs dont les fluctuations aléatoires ont pour effet… de le peupler de particules. On se réfère communément à ce vide écumant de champs par l’expression de « mer de Dirac », en référence au physicien qui en a le premier fait l’hypothèse. C’est l’énergie du vide (ou « énergie du point zéro »), manifestée à de très faibles échelle par l’effet Casimir, qui rend de fait possible cette coagulation de matière, conformément au principe de la conversion de l’énergie en masse E = mc2. Comprenons bien la conséquence de cette proposition : elle rend 118 possible la création d’une particule réelle à partir du néant, ou de ce qui jusqu’alors passait pour l’être. On comprendra peut-être mieux ce dont il est question en convoquant la métaphore du prêt bancaire sans charge d’intérêt, celui – entre autres – qu’une banque centrale publique consentait aux États avant le putsch des marchés financiers (loi de prohibition imposée par les multinationales). Tout se passe comme si la création de matière impliquait l’utilisation d’un quantum d’énergie qui doit être « emprunté » au vide et restitué d’autant plus rapidement que l’emprunt est élevé ; comme si les fluctuations quantiques responsables de la matérialisation de nouvelles particules installaient une situation de dette énergétique que ces mêmes particules ne pouvaient éponger qu’en retournant au vide. Or, c’est bien en s’annihilant après un laps de temps infinitésimal que ces particules semblent effectuer ce remboursement. Ce processus quasi-instantané ne permet pas leur détection : on les nomme donc des particules « virtuelles ». Selon la théorie quantique des champs, ces particules virtuelles sont responsables des forces qui s'exercent entre les particules proprement dites. Et c’est à leur échange que sont rapportées l’ensemble des interactions qui se produisent entre les corpuscules et entre les corps graves, sujets à la gravitation. Cette réserve d’énergie apparemment inépuisable que représente le vide (quantique) fonctionne de manière continue. Il en ressort que le vide, loin d’être une absence d’être, un désert matériel, se constitue comme une banque d’énergie agitée de fluctuations quantiques, remplie en permanence par une multitude de particules virtuelles de toutes espèces. Le vide bouillonne littéralement d’être en puissance. Nous sommes très loin de l’image statique que s’en faisait l’atomiste de l’Antiquité. Le vide a non seulement investi l’intérieur de l’atome, remplissant les différentes couches entre les électrons et l’espace entre le noyau et la première de ces couches, mais les atomes et autres particules subatomiques se sont également vus plonger dans une véritable mer de particules virtuelles avec lesquelles elles sont en perpétuelle interaction. Au vide inerte de Démocrite s’est substitué un vide actif et dynamique, agent des 119 forces qui régissent l’univers, participant à sa structuration ; mieux même, il apparaît comme la source primordiale possible dont a jailli cet univers à la faveur d’une fluctuation quantique originaire, une « rupture de symétrie » – quelque puisse être par ailleurs la cause de cette rupture et de l’excédent de matière au regard de l’antimatière, initialement produites en quantité égale. C’est en effet l’une des plus importantes questions de la physique laissée ouverte que de savoir à quoi tient la « victoire » de la matière sur l’antimatière. La création de particules virtuelles est une création en double : sont produites simultanément une particule et sa correspondante à charge électrique inverse, son antiparticule. Celles-ci ne mettent qu’un bref instant après leur concrétisation pour deux nouveau se rencontrer, pour complètement s’anihiler en se transformant en énergie – restituant ce faisant au vide l’énergie de leur emprunt. Schéma (a) d’annihilation et (b) de matérialisation d’une paire particuleantiparticule, ici l’électron (-) et son positron (+), avec émission de deux photons gamma. Crédit : Addison Wesley 120 Comment comprendre alors que la quantité de matière se soit trouvée en proportion plus importante que la quantité d’antimatière ? Une hypothèse met en avant l’asymétrie qui se constate dans la transformation des kaons neutres, selon qu’ils évoluent spontanément de particule à antiparticule, ou d’antiparticule à particules (étant leurs propres antiparticules). C’est la moindre durée de conversion de l’antikaon en kaon au regard de l’opération inverse qui expliquerait le surplus relatif de matière dans l’univers : un milliard de particules de matière classique pour une seulement d’antimatière. La rencontre de la matière et de l’antimatière n’aurait alors laissé comme résultat de la soustraction que de la matière. Ceci ne nous apprend rien toutefois de la cause ultime de cette dissymétrie : pour quelle raison la conversion du kaon neutre est-elle plus prompte dans un sens et plus poussive dans l’autre ? Nous avons indiqué par quel moyen les particules virtuelles trouvent à se matérialiser, et comment cette opération était conditionnée par la mise à disposition d’une énergie suffisante. De telles énergies étaient présentes dans les premières fractions de seconde après le big-bang. Les accélérateurs de particules ont vocation à reproduire ces conditions et à permettre ainsi de ressusciter des entités qui ne se trouvent plus dans l’univers tel qu’il est aujourd’hui. Les particules ne sont pas que de la matière brute ; inversement, le vide n’est pas qu’une pure absence. Les particules sont dans le vide et le vide dans les particules. Les particules jaillissent du vide et y retournent éventuellement. S’efface dans cette optique la frontière hermétique que Démocrite avait dressée entre le vide et la matière. Le vide n’apparaît plus que comme l'état latent de la réalité sensible, quand la matière est l’état manifeste du vide, de l’énergie coagulée. Vide et matière sont deux aspects d’une même réalité, l’avers et le revers de la même médaille. Ces deux réalités ne sont en dernier ressort que les expressions complémentaires et réversibles d’un seul et même principe. Beaucoup s’en faut toutefois que cette théorie des états transitifs suffise à dénouer le mystère du vide et de la matière. Bien des questions demeurent 121 encore ouvertes ; dont celle – qui ne relève peut-être plus expressément de la science – de savoir d’où viennent les champs qui galvanisent le vide, quelle est la cause des fluctuations qui le parcourent et comment la matière en est venue à subsister, cela en violant (apparemment peut-être) le principe de parité particules-antiparticules et de précarité des particules virtuelles. Paul-Michel Foucault (1926-1984) Principales contributions : - Histoire de la folie à l'âge classique (1962) - Les mots et les choses : une archéologie des sciences humaines (1966) - L'Archéologie du savoir (1969) - Dits et Écrits, vol. 1 (1954-1975), vol. 2 (1976-1988), vol. 3 (1976-1979), vol. 4 (1980-1988) Concepts et idées-forces : - Une pensée qui emprunte aux outils d’analyse et aux notions frayées par les « contre-sciences » humaines que seraient la psychanalyse, la linguistique et l’ethnologie. - Influencé par Canguilhem, rapporteur de sa thèse intitulée Folie et déraison. Histoire de la folie à l’âge classique, lequel ne tarit pas d’éloges sur l’œuvre de son élève : « Les mots et les choses est pour les sciences de l’homme ce que la Critique de la raison pure était pour les sciences de la nature » (« La mort de l’homme ou l’épuisement du cogito », dans Critique, juillet 1967). Là où le premier s’était intéressé à la question de la normativité vitale, le second reporte son étude sur le terrain de la construction des normes sociales et analyse les processus de normalisation. Juste retour des choses, c’est par l’œuvre de Foucault que la philosophie anglo-saxonne contemporaine va prendre connaissance de Canguilhem. - L’épistémè. Le terme d’épistémè recouvre les « conditions du discours » s’imposant à discipline et appelées à se modifier au cours du temps. Ainsi que s’en explique Foucault au cours d’un entretien daté de 1972, « ce que j’ai appelé dans Les mots et les choses "épistémè" n’a rien à voir avec les catégories historiques. J’entends tous les rapports qui ont existé à une certaine époque entre les différents domaines de la science [...] Ce sont tous ces phénomènes de rapport entre les sciences ou entre les différents 122 discours dans les divers secteurs scientifiques qui constituent ce que j’appelle épistémè d’une époque » (Dits et Écrits). - Succession des épistémès dans le cadre d’un projet d’histoire des systèmes de pensée. La périodisation de l’histoire que propose Foucault fait apparaître des époques qui se distinguent par l’existence d’un certain nombre de conditions de vérité définissant les cadres du possible et de l’acceptable, aussi bien dans le champ du politique que dans celui des sciences. Trois périodes, trois épistémè correspondante ; auxquelles s’ajoutent une quatrième épistémè qu’il définit comme étant celle de notre époque : (1) L’épistémè de la Renaissance (XVIe siècle) caractérise l’âge de la ressemblance et de la similitude. (2) L’épistémè classique (XVIIe siècle) définit l’âge de la représentation. Axée sur les concepts d’ordre, d’identité et de différence. La notion d’« homme » n’existe pas encore dans le sens épistémologique que nous lui attribuons : « Il n’a ni puissance de vie, ni fécondité du travail, ni épaisseur historique du langage. C’est une toute récente créature que la démiurgie du savoir a fabriqué de ses mains, depuis deux cents ans » (Les mots et les choses). (3) L’épistémè moderne (XXe siècle) qui reste encore pour une grande part la nôtre et dont Foucault, dans Les mots et les choses, tente de faire apparaître les contours. Parmi les différents penseurs ayant contribué à sa mise en place figurent, après Descartes, 1) Arnaud, Nicole et Pascal, célèbre pour leur Logique de Port-Royal (1662), décisif en matière de logique, de grammaire et de syntaxe ; 2) Adam Smith, chef de file des Lumières écossaises, auteur de la Richesse des nations (1776) ; et 3) Antoine Destutt de Tracy, penseur de la politique de l’après-Révolution, connu pour ses Eléments d'idéologie publiées entre 1825 et 1827. (4) L’épistémè hypermoderne vers laquelle nous nous engageons depuis le milieu des années 1950. Elle autorise la thématisation de l’épistémè. - Épistémologie discontinuiste. L’archéologie de Foucault consiste à penser les ruptures, les « discontinuités énigmatiques », les « mutations », les « évènements radicaux », les « décalages infimes mais essentiels » dans l’ordre du savoir. Elle mesure les écarts entre les différentes époques, les différentes « figures de la vérité ». Il s’agit de mettre en perspective de manière critique les précédentes épistémès avec nos propres cadres de pensée, de comprendre la distance qui nous sépare de ces précédentes épistémès. 123 - Exemple de différentes mutations de l’épistémè dans les domaines (1) des sciences de la vie, avec la transformation de l’histoire naturelle en biologie ; (2) des sciences du langage, avec l’apparition de la linguistique qui prend la suite de la grammaire générale ou (3) des sciences camérales, avec l’essor de l’économie moderne. - Archéologie du savoir. Les mots et les choses se présente comme une « archéologie des sciences humaines ». Un paradigme géologique plutôt que généalogique. À chaque époque correspond une épistémê, une strate ; chaque strate repose sur la strate précédente. Il n’y a pas cependant, d’une strate à l’autre, de continuum, de graduation : il y a des superpositions de « couches » de couleur et de texture différentes. L’épistémê antécédente est nécessaire à l’éclosion de la suivante, qui ne s’y dilue pas comme son prolongement naturel. Exemple de l’évolutionnisme en biologie, dont l’émergence est tributaire d’une biologie fixiste incarnée par Cuvier. Exemple de l’économie critique de Marx, conditionnée par les théoriciens de l’économie classique (Ricardo, Smith, etc.). - Donne à l’épistémê une extension plus large que celle des paradigmes de Kuhn. Elle est irréductible aux « structures » du structuralisme, dans la mesure où le structuralisme postule un invariant en-deçà des transformations accidentelles qui s’organisent autour de lui. Foucault, comme l’écrit Jean Piaget, pense à l’inverse la juxtaposition d’épistémès de part en part hétérogènes les unes par rapport aux autres. - Biopouvoir, biopolitique. - Herméneutique du sujet. Hans-Georg Gadamer (1900-2002) Principales contributions : - Vérité et méthode (1960) - Langage et vérité (1995) - La philosophie herméneutique (1996) Concepts et idées-forces : - Au scientisme régnant à son époque dans les sciences de l’esprit, Gadamer rétorque que la méthode scientifique ne saurait être la seule démarche d’investigation, ni la plus adaptée pour aborder l’activité humaine. 124 - Partage avec Dithley la distinction comprendre vs expliquer. - Part néanmoins, à rebours de Dithley, de l’art plutôt que les sciences humaines pour entreprendre de prouver que la compréhension ne réside pas dans la maîtrise d’une technique de l’esprit : elle est le fruit d’une « rencontre ». Rencontre impliquant des sujets qui ne sont ni neutres ni objectifs, mais héritiers d’une tradition, dépositaires de préjugés (lesquelles ne sont pas condamnables en soi), inexorablement « situés ». Mais aussi éduqués perpétuellement à la faveur d’un « travail de l’histoire ». En sorte que tout acte interprétatif est façonné par un passé, déterminant pour le futur ; que chaque événement est l’occasion d’enrichir ce soubassement interprétatif de nouvelles expériences. Cf. le « cercle herméneutique » chez Heidegger. - Ainsi dans l’art, une « expérience de vérité » nous fait découvrir l’œuvre sous le chiffre de la rencontre et fait participer le spectateur – le « spectacteur » – à la constitution de l’œuvre. Autant de sujets que d’œuvres. Dimension cognitive de l’art contra la Critique de la faculté de juger de Kant qui le relègue dans une sphère autonome, hermétique à la connaissance. Prouve que certaines vérités échappent aux sciences de la nature. - Ontologie de l’œuvre d’art. Reprise de la notion de mimésis chez Aristote. Les images saintes (icônes) exaltées par Jean Damascène opposées à l’esthétique moderne de l’art pour l’art. - Le dialogue interprétatif au centre de l’herméneutique de Gadamer se constitue dans l’élément langage. Galileo Galilei (1564-1642) Principales contributions : - Le Messager des étoiles (1610) - Histoire et démonstrations à propos des taches solaires (1613) - L'Essayeur (1623) - Dialogue sur les deux grands systèmes du monde (1632) 125 Concepts et idées-forces : - Pose les fondements de la mécanique classique, de la physique analytique, quantitative, mathématique et expérimentale. Prépare ainsi la synthèse newtonienne qui accomplit la révolution scientifique du XVIe-XVIIe siècle. - Révolution instrumentale. Perfectionnement de la lunette d’approche, invention d’un lunetier hollandais, grâce à l’association de deux verres grossissants montés en série aux deux extrémités d’un tube en plomb. Contribution des ingénieurs italiens ; en l’occurrence, des verriers de Murano. Fait apparaître l’importance du contexte économique. Importance également du contexte politique. Galilée présente une première version de son instrument au Doge de Venise le 21 août 1609. Braqué sur la mer, fait apparaître distinctement les navires éloignés, permet de discerner leur pavillon et ainsi de prévenir l’attaque surprise des Turcs ou des corsaires. Les sénateurs de la République de Venise envisagent immédiatement des applications militaires. Galilée, pour sa part, à l’idée de s’en servir pour observer le ciel. Les deux lunettes astronomique fabriquées à Padoue en 1609 grossissants jusqu’à vingt fois les objets distants, auront permis à l’astronome d’aller de découverte en découverte et d’apercevoir des choses que l’homme n’avait jamais vues. Au nombre de ces découvertes : (1) La profusion des astres. La Voie Lactée, qui jusqu’alors n’avait était qu’une bande laiteuse et floue, s’avère constituée d’une pléiade d’étoiles : « Ce qui nous a été donné d'observer, c'est l'essence ou mieux la matière dont est constituée la Voie Lactée, telle qu'elle apparaît au moyen de la lunette ; et ainsi, toutes les discussions qui, pendant des siècles, ont partagé les philosophes, prennent fin devant la certitude qui s'offre à notre vue, et grâce à quoi nous sommes libérés des disputes verbeuses […] De plus, merveille encore plus grande, les étoiles que certains astronomes ont appelées "nébuleuses" sont des troupeaux de petites étoiles éparpillées d'admirable manière » (Le Messager des étoiles). Plus ultra : c’était déjà la devise de la Renaissance. Par-delà l’inconnu. Par-delà les colonnes d’Hercule, faire reculer les limites du savoir en même temps que celles de l’univers. De telles observations sont ce qui précipite, selon le titre de l’ouvrage d’Alexandre Koyré, le passage « du monde clos à l’univers infini ». (2) Les satellites de Jupiter. Io, Europe, Ganymède et Callisto, que Galilée baptise les Medicea Sidera (les « étoiles Médicées ») en référence au quatre 126 frères de la maison Médicis. Prouve que la Terre n’est pas la seule planète pouvant servir de foyer à la révolution d’autres objets célestes. Il n’est donc plus absurde de penser que le soleil le puisse aussi ; donc, par extrapolation que la Terre tourne autour du Soleil. (3) Cratères de Lune et taches solaires. La lune et le soleil arborent à leur surface de nombreuses irrégularités (Histoire et démonstrations à propos des taches solaires) ; ces astres n’ont rien des sphères parfaites et lisses que voulait y voir le Stagirite. Topologie écorchée, irrégulière, analogue à celle de la Terre. L’étude mathématique des phénomènes ne doit plus être réservée au monde supra-lunaire. Ces découvertes apportent les preuves observationnelles qui faisaient encore défaut au modèle héliocentrique de Copernic. Elles font comprendre à Galilée que la même physique s’applique à la mécanique terrestre et à la mécanique céleste. - Révolution expérimentale. La nature est soumise à la question, conformément à une méthode qui articule l’établissement de lois universelles et la constitution de schémas idéalisés de la nature. Le phénomène auparavant donné dans l’expérience devient l’objet construit de l’expérimentation, produit à l’aide de dispositifs et exprimé par des mesures. Illustration de cette méthode chez Galilée à travers différentes expérimentations : (1) Les fondements de la balistique. L’expérience du pendule oppose un démenti à la conception aristotélicienne classique du mouvement des corps admis en Italie depuis le début du XIIe siècle selon laquelle « les corps ont des mouvements rectilignes qui les ramènent dans leur lieu naturel, les éléments air et feu vont vers le haut, les éléments terre et eau vers le bas ». Combiné à un déplacement horizontal, l’accélération verticale d’un corps se traduit par une trajectoire parabolique. (2) Visant à mettre à jour les principes de la physique des graves (du latin gravis, « lourd »), l’expérience du lâcher de boules de pierre de poids inégaux mais de forme identique depuis le clocher de l’église de Padoue, vers 1604, prolonge cette expérience. Elles conduisent au constat que la vitesse de chute des corps ne dépend pas de leur masse. S’oppose une nouvelle fois à la thèse aristotélicienne selon laquelle « plus un objet est lourd, plus il tombe vite car il est constitué en plus grande proportion de l'élément terre ». 127 (3) Mise en place d’un dispositif comprenant un plan incliné permet d’analyser plus en détail ces résultats. Il en ressort une démonstration de la loi sur la chute libre des corps édictant qu’à partir d’un état de repos, les espaces parcourus sont proportionnels aux carrés des temps de parcours. (4) l’expérience sur les corps flottants de 1611 fait la démonstration que la flottaison des corps dépend de leur poids et non de leur surface. la glace est plus légère que l'eau (sa densité est moindre), contrairement à ce qu’enseignait Aristote, à savoir que « si la glace flotte c'est à cause de sa forme en plaque. Il y a les corps lourds d'un côté et les corps légers de l'autre ». Publication l’année suivante (1612) de ces résultats dans le Discours sur les choses qui flottent sur l'eau ou qui s'y déplacent : « Je m'attends à une terrible attaque de l'un de mes adversaires, et je l'entends presque déjà crier à mes oreilles que c'est une chose de traiter des questions physiquement et une autre d'en traiter mathématiquement, et que les géomètres devraient s'en tenir à leurs fantaisies et ne pas se mêler des questions philosophiques, où les conclusions sont différentes des questions mathématiques. Comme si la vérité pouvait n'être pas une, comme si de nos jours la géométrie était un obstacle à l'acquisition de la vraie philosophie, comme s'il était impossible d'être géomètre autant que philosophe, et qu'on du inférer comme une conséquence nécessaire que si quelqu'un connaît la géométrie il ne peut connaître la physique et ne peut raisonner physiquement des questions physiques ». - Révolution théorique. Désubjectivation du phénomène et construction de l’objet scientifique par le recours à la mathématisation : « La philosophie est écrite dans cet immense livre qui se tient toujours ouvert devant nos yeux, je veux dire l'Univers, mais on ne peut le comprendre si l'on ne s 'applique d'abord à en comprendre la langue et à connaître les caractères avec lesquels il est écrit. Il est écrit dans la langue mathématique et ses caractères sont des triangles, des cercles et autres figures géométriques, sans le moyen desquels il est humainement impossible d'en comprendre un mot. Sans eux, c'est une errance vaine dans un labyrinthe obscur ». Généralisation de l’usage des mathématiques à l’ensemble des phénomènes observables, quand elle se cantonnait auparavant aux corps célestes, les seuls, en apparence, à manifester des mouvements parfaits. Prête à la science moderne une forme d’universalité qui supplée à la défectivité des sens. 128 - Naissance de la science proprement dite à l’intersection de ces trois révolutions (instrumentale, expérimentale et théorique). Ce que résume Kant en s’inspirant de Bacon à l’occasion de la seconde Préface à la Critique de la raison pure (1787) : « Lorsque Galilée fit rouler ses boules sur un plan incliné avec une accélération déterminée et choisie par lui-même, ou que Torricelli fit porter à l'air un poids qu'il savait être égal à celui d'une colonne d'eau à lui connue, ou que, plus tard, Stahl transforma des métaux en chaux et celle-ci à son tour en métal, en y retranchant ou en y ajoutant certains éléments, alors ce fut une nouvelle lumière pour tous les physiciens. Ils comprirent que la raison n'aperçoit que ce qu'elle produit elle-même d'après ses propres plans, qu'elle doit prendre les devants avec les principes qui déterminent ses jugements suivant des lois constantes, et forcer la nature à répondre à ses questions, au lieu de se laisser conduire par elle comme en lisières ; car autrement nos observations faites au hasard et sans aucun plan tracé d'avance ne sauraient se rattacher à une loi nécessaire, ce que cherche et exige pourtant la raison. Celle-ci doit se présenter à la nature tenant d'une main ses principes, qui seuls peuvent donner à des phénomènes concordants l'autorité de lois, et de l'autre l'expérimentation, telle qu'elle l'imagine d'après ces mêmes principes. Elle lui demande de l'instruire, non comme un écolier qui se laisse dire tout ce qui plaît au maître, mais comme un juge en fonctions, qui contraint les témoins à répondre aux questions qu'il leur adresse. La physique est donc redevable de l'heureuse révolution qui s'est opérée dans sa méthode à cette simple idée, qu'elle doit chercher (et non imaginer) dans la nature, conformément aux idées que la raison même y transporte, ce qu'elle doit en apprendre, et dont elle ne pourrait rien savoir par elle-même. C'est ainsi qu'elle est entrée d'abord dans le sûr chemin de la science, après n'avoir fait pendant tant de siècles que tâtonner ». - Première formulation du principe d’inertie, dont découle la notion de force : « Tout corps possède une certaine inertie qui l’oblige à conserver sa vitesse, à moins qu’une force extérieure l’oblige à arrêter ce mouvement ». - Relativité du mouvement : « Enfermez-vous avec un ami dans la cabine principale à l'intérieur d'un grand bateau et prenez avec vous des mouches, des papillons, et d'autres petits animaux volants. Prenez une grande cuve d'eau avec un poisson dedans, suspendez une bouteille qui se vide goutte à goutte dans un grand récipient en dessous d'elle. Avec le bateau à l'arrêt, 129 observez soigneusement comment les petits animaux volent à des vitesses égales vers tous les côtés de la cabine. Le poisson nage indifféremment dans toutes les directions, les gouttes tombent dans le récipient en dessous, et si vous lancez quelque chose à votre ami, vous n'avez pas besoin de le lancer plus fort dans une direction que dans une autre, les distances étant égales, et si vous sautez à pieds joints, vous franchissez des distances égales dans toutes les directions. Lorsque vous aurez observé toutes ces choses soigneusement (bien qu'il n'y ait aucun doute que lorsque le bateau est à l'arrêt, les choses doivent se passer ainsi), faites avancer le bateau à l'allure qui vous plaira, pour autant que la vitesse soit uniforme [c'est-à-dire constante] et ne fluctue pas de part et d'autre. Vous ne verrez pas le moindre changement dans aucun des effets mentionnés et même aucun d'eux ne vous permettra de dire si le bateau est en mouvement ou à l'arrêt […] » (Dialogue concernant les deux plus grands systèmes du monde ). On ne peut juger du déplacement ou de la vitesse d’un objet sans référer ce déplacement ou cette vitesse à un point fixe (ou désigné arbitrairement comme tel), plus tard appelé « repère galiléen ». En l’occurrence, pour tout ce qui concerne les mouvements terrestres, la Terre, et le soleil pour tout ce qui concerne les mouvements des corps célestes (parmi lesquels la Terre). - Pascal exploite la métaphore : nous sommes embarqués dans la vie – « engagé » dira Sartre –, et notre seul repère en matière de morale et de connaissance consiste en Jésus-Christ. La relativité galiléenne est reprise par Newton, érigée en principe par Poincaré, refondue par Einstein dans le cadre d’une théorie physique. - Publication en 1632, avec l’onction du Pape Urbain VIII, du Dialogue sur les deux plus grands systèmes du monde qui rend compte de ces découvertes astronomiques et fait un sort à la vision géocentrique de l’univers. Trois personnages : Salviati (héraut de Galilée), Simplicio (représentant d’Aristote) et Sagredo (arbitre) ; quatre jours pour convaincre de la supériorité du modèle défendu par Copernic contre celui de Ptolémée (complication du système d’Aristote). - Galilée doit répondre de son ouvrage devant l’Inquisition romaine. Nous sommes en 1616. L’œuvre de Copernic, De la révolution des sphères célestes, publiée en 1543 (l’année de sa mort) venait la même année d’être mise à l’index. Giordano Bruno (1548-1600) avait été brûlé en place publique pour avoir soutenu des idées proches de celle de Copernic. 130 Contexte peu favorable à une « révolution scientifique » mais qui, précisément en raison ces actions d’éclat visant à « faire exemple », aura précipité ce changement de paradigme. - Retour devant le tribunal d’inquisition en 1633. Point d’orgue d’un affrontement entre la science naissante et la religion cacochyme, porteuse chacune d’une vision du monde. Image souvent manichéenne, parfois condescendante, du progrès en butte à la superstition. Galilée contraint de reconnaître que sa théorie n’est qu’une hypothèse mathématique et d’abjurer ses convictions héliocentriques. Noter que le fameux « E pur si muove ! » (« Et pourtant elle se meut ! »), réplique rendue célèbre par la pièce de Bertolt Brecht, La vie de Galilée, ne fut jamais prononcée. - Inaugurée en 1657 par le Grand-Duc Ferdinand II (1610-1670) et par le prince Léopold de Médicis (1617-1675), l'Accademia del Cimento fait profession de reprendre les travaux de Galilée et de réfuter expérimentalement un grand nombre de principes aristotéliciens universellement admis. Il s’agit de la première organisation européenne se prévalant d’ambitions strictement scientifiques, préfigurant la Royal Society de Londres (1660) et l'Académie Royale des Sciences de Paris (1666). La science devient une pratique institutionnalisée et collective. Peter Galison (1955-20XX) Voir : Lorraine Daston. Bertrand Gille (1920-1980) Principales contributions : - Les ingénieurs de la Renaissance (1960) - Histoire des techniques (1978) - Les Mécaniciens grecs (1980) Concepts et idées-forces : - Ancrage technique, économique, social et matériel de la connaissance. Travail archivistique d’exploration et de reconstitution des réalisations techniques des ingénieurs de la Renaissance, principalement de Léonard de Vinci, touchant à des domaines aussi variés que l’architecture, l’artillerie, l’horlogerie, l’hydraulique, les automates et la manufacture textile, duquel il 131 faut conclure que leur apparition corrélée à celle du capitalisme italien au crépuscule de l’ère féodale fut l’une des conditions sine qua non à l’avènement de la science classique. - Approche intégrative, holiste, externaliste, complexe, des objets de l’épistémologie et de l’histoire des sciences. De même que les états de la science ne sont pas compréhensibles abstraction faite du contexte historique qui les voit naître (non plus que chaque discipline et même chaque énoncé produit au sein de ces disciplines abstraction faite de l’ensemble organique du savoir et du pouvoir d’une époque), chaque technique considérée ne peut être étudiée à part le système des technologies qui constituent un stade de leur histoire. - Interdépendance entre système social et système technique. Primat chronologique de celui-ci sur celui-là, qui l’accompagne comme son ombre mais ne le précède pas. L’imposition d’un système technique appelle la mise en place de l’économie sociale correspondante – et non l’inverse. C’est bien ici la base technique qui détermine l’évolution des autres systèmes ou superstructures (juridiques, politiques, économiques) de sorte à maintenir une cohérence d’ensemble. Éventualité de systèmes techniques bloqués ; d’où stagnation des sciences et des institutions. - Réhabilitation des mécaniciens grecs, point aveugle d’une historiographie des sciences biaisée et sélective qui n’aurait d’yeux que pour la pensée abstraite et la science spéculative, au risque de méconnaître une tradition qui, de Thalès jusqu’à Vitruve en passant par Archimède, Philon de Byzance et autre Héron d'Alexandrie, fut l’atelier classique de la technologie. -Dans la lignée de ce qui précède, l’hiatus entre théoriciens d’une part et praticiens de l’autre, sciences fondamentales d’une part et sciences appliquées de l’autre n’avait pas cours à l’âge classique, où les savants se préoccupaient autant de problèmes matériels que de métaphysique. Sciences et techniques n’en sont venues que tardivement à se disjoindre, sinon à s’opposer du fait des philosophes. - Au nombre des réalisations des ingénieurs de la Grèce antique, Bertrand Gille distingue entre autres l’arbre à cames, mis au point par les Grecs d’Alexandrie, qui rend possible de programmer certaines opérations techniques ; les cinq chaînes cinématiques élémentaires qui ont pour intérêt d’améliorer les machines de chantier ainsi que les premiers automates de 132 divertissement ; des dispositifs mettant à profit l’écoulement des fluides pour concevoir des machines homéostatiques, etc., etc. - Le développement des mathématiques grecques doit beaucoup à la volonté d’universaliser les principes mis en œuvre par la technique. La conception des plans, le calcul des effets est tributaire d’un outil théorique dont l’amélioration répond à des nécessités censément matérielles. L’astronomie elle-même découvre son origine dans le besoin de marquer le temps des récoltes (le passage des saisons) et l’espace du voyage. Ernst von Glasersfeld (1917-2010) Principales contributions : - L'invention de la réalité, contributions au constructivisme (1988) - « Cognition, Construction of Knowledge and Teaching » dans Synthese, 80 (1989) - « Questions and Answers About Radical Constructivism » dans M.K. Pearsall (ed.), Scope, Sequence, and Coordination of Secondary Schools Science, vol. 11 (1992) - « The radical constructivist view of science » dans A. Riegler (èd.), Foundations of Science, special issue on - « The Impact of Radical Constructivism on Science » (2001) Concepts et idées-forces : - Constructivisme radical. Mot d’ordre : « Ne plus considérer la connaissance comme la recherche de la représentation iconique d'une réalité ontologique, mais comme la recherche de manières de se comporter et de penser qui conviennent. La connaissance devient alors quelque chose que l'organisme construit dans le but de créer de l’intelligibilité dans le flux de l'expérience » (E. von Glaserfeld, « L'invention de la réalité » dans P. Watzlawick, 1981-1985). Kurt Gödel (1906-1978) Principales contributions : - « Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme » (1931) 133 Concepts et idées-forces : - Le théorème de complétude du calcul des prédicats du premier ordre, démontré dans sa thèse de 1929. Une proposition universellement valide peut être démontrée. - Le théorème d’incomplétude, publié en 1931, apporte la démonstration du fait qu’aucun système logique suffisamment puissant pour axiomatique et l’arithmétique ne peut être à la fois complet et cohérent ; ou bien la cohérence de ses axiomes ne peut être prouvée à l’intérieur d’un tel système. Tout système formel donné admet au moins une proposition qui ne peut être infirmée ou confirmée à partir des axiomes sur lesquelles il repose. - Un exemple heuristique peut être proposé en admettant qu’une formule qui énonce qu’elle n’est pas démontrable ne peut être démontrée (tautologie) ; donc elle n’est pas démontrable. Or c’est précisément ce qu’elle énonce, elle est donc également valide. La formule est valide mais n’est pas démontrable. - Ces théorèmes achèvent de ruiner l’entreprise d’axiomatisation de la science portée par le cercle de Vienne, notamment sous la forme d’un jeu d’axiomes définitifs rabattant l’édifice mathématique sur une base mathématique comme dans les Principia mathematica de Russell et de Whitehead, ou via le formalisme de Hilbert. C’est également une fin de non-recevoir opposée au projet leibnizien de Caractéristique universelle. - En admettant la cohérence des axiomes admis de la théorie des ensembles, ceux-ci ne permettent pas de réfuter l'hypothèse du continu. - Élabore la théorie des fonctions récursives. - Gödel est un cas exemplaire de conciliation de la rationalité scientifique et de mysticisme ésotérique (cf. Pierre Cassou-Noguès, Gödel). Le logicien peut trouver son inspiration et la matière de sa réflexion dans la spéculation théologique la plus échevelée. Voire également dans la folie et la fertile paranoïa de Gödel qui provoquera sa mort n’est pas sans rappeler celle de l’économiste et mathématicien américain John Forbes Nash dont la biographie adaptée à l’écran (A Beautiful Mind, réalisé par Ron Howard, 2001) a largement participé à sensibiliser le grand public sur la question. - La Preuve ontologique de Gödel, inspirée de celle de Leibniz, apporte la démonstration de l’existence de Dieu formalisée dans le système de la logique modale. 134 Albert le Grand (1193-1280) Principales contributions : - Alkymia (Alchimie) - De Intellectu et Intelligibili (Sur l'intellect et l'objet intelligible) (1250) - De Anima (De l'âme) (1254-1257) - Physica (1257) - De animalibus (Des animaux) (1258) - De mineralibus (Des minéraux) (1263) - Summa theologiae (Somme théologique) (1276) - Divers Commentaria sur l’œuvre d’Aristote, sur l’Ancien et le Nouveau Testament Concepts et idées-forces : - Moine dominicain allemand, théologien et philosophe. Figure majeure de la science médiévale, connu pour ses nombreux travaux abordant la quasitotalité des champs de la connaissance étudiée de son temps (physique, astronomie, géographie, zoologie, botanique, minéralogie, psychologie, etc.) Un essai d’encyclopédie avant la lettre, complétée par une Somme de théologie qui servira de modèle à celle de son élève direct, Thomas d’Aquin. - Avec Boèce et Jacques de Venise, participe à la diffusion en Occident des traités d’Aristote dont il propose des commentaires. Réactualise les savoir de l’Antiquité en augmentant les textes grecs et latins de la réflexion intellectuelle et de l’apport des Arabes, tout particulièrement dans les domaines de la médecine, de l’astronomie et des mathématiques. - Production personnelle, dont il faut retrancher toutefois une collection importante d’œuvres pseudépigraphes ou non authentifiées. À ces doxographies, il associe ses propres gloses, critiques et observations. Défiant envers la connaissance d’autorité (esprit critique), il se plaît à interroger luimême les spécialistes de chaque domaine pour recueillir leur expérience. Attitude réservée à l’encontre du dogmatisme caricatural (ou caricaturé) de la scolastique (« Aristoteles dixit ») : « C'est ce qu'on raconte, lit-on souvent dans ces traités, mais je ne l'ai pas vérifié par moi-même ». - Doit son titre d’« ancêtre » de la science moderne à l’importance qu’il accordait à l’expérience et à l’observation. La démarche scientifique consiste 135 selon lui en « la recherche des causes des phénomènes naturels ». Albert le Grand, dans un ouvrage de botanique, conseille pour cela de « faire des conjectures et des expérimentations ». - Définition de l’expérimentation qui jouit de cette prérogative de « mettre à l'épreuve de l'expérience les nobles conclusions de toutes les sciences » ; elle vérifie autant les résultats (déductif) des mathématiciens que les assertions générales des philosophes. L’expérimentation commence à rompre d’avec l’expérience commune, faite de tâtonnements empiriques, en ce qu’elle renvoie à une entreprise méthodique et systématique de confrontation des postulats aux phénomènes. - Fascination pour l’occultisme, discipline très répandue chez les érudits de l’époque entre lesquels il pouvait y avoir des accords. Connaissance de première main des sciences occultes, en dépit de réserves d’ordre théologique. Albert le Grand ne doute pas de l’influence des corps célestes sur les destinées humaines et de la possibilité de la transmutation. La première de ces croyances soulevait le problème de la prédétermination de l’œuvre missionnaire et de la crucifixion de l’œuvre de Jésus-Christ : le Fils de Dieu pouvait-il être contraint par une force supérieure ? D’un autre côté, essentiels au déterminisme comme postulat fondamental est condition de possibilité des sciences. - Rapport incontournable entre magie et science. Albert le Grand, fort de sa connaissance des œuvres d’Ibn Qurra et de Picatrix, se fait fort de ne plus être en apprenti : « Bien plus, nous sommes experts en magie » (« Etiam nos ipsi sumus experti in magicis ») (De anima, I, 2, 6). Et l’auteur d’ajouter, en marge des assertions de son De l’Âme, qu’il s’agit de « vérité que nous avons expérimentée par notre pratique de la magie » (De anima, I, passim). Reprend la partition entre magie démoniaque et condamnable – la goétie, comprenant la nigromancie (magie noire) et l’invocation des démons – une magie acceptable pour un chrétien, celle qui marie les éléments entre eux en vertu de leurs affinités naturelles. Cette seconde forme de magie prend activement part au projet originaire de Création dont l’homme est l’instrument. C’est une magie qui, loin de s’y opposer, loin d’être une preuve d’orgueil, actualise la volonté de Dieu. - On voit ainsi à l’œuvre chez le Grand une influence prépondérante de la magie, qui culminera à la Renaissance, en tant que levier du basculement entre le paradigme ancien, fondé sur la contemplation (observer l'ordre), et 136 le paradigme nouveau, finalisé à l'action de l'homme sur la nature (ordonner le monde). C'est elle qui, en effet, semble imposer le critère d'efficacité pratique en fait de celui de concordance avec les Écriture et la physique classique aristotélicienne. Ce critère d’efficacité pratique est l’élément crucial de la distinction entre la « vraie magie » et le charlatanisme au Moyen Âge. Et pourrait donc avoir été l’opérateur de la transformation de la connaissance spéculative en connaissance opératoire. Un même rapport pourrait être établi avec l'Inquisition, qui fait passer dans le domaine religieux et juridique du régime du déclaratif au régime de la preuve. En sciences aussi, dès lors, il faut prouver (et ce n’est pas pour rien que l’élengkos socratique était à l’origine une pratique judiciaire). Autant d’idées qu’il reste à explorer… - Le plus célèbre traité d’alchimie d’Albert le Grand, l’Alkimia, permet de déceler l’amorce d’un projet de charte à l’usage du savant expérimentateur. Soit les principes d’un ethos scientifique : « (1) L'alchimiste sera discret et silencieux. Il ne révélera à personne le résultat de ses opérations. (2) Il habitera loin des hommes une maison particulière, dans laquelle il y aura deux ou trois pièces exclusivement destinées à ses recherches. (3) Il choisira les heures et le temps de son travail. (4) Il sera patient, assidu, persévérant. (5) Il exécutera d'après les règles de l'art les opérations nécessaires. (6) Il ne se servira que de vaisseaux (récipients) en verre ou en poterie vernissée. (7) Il sera assez riche pour faire en toute indépendance les dépenses qu'exigent ses recherches. (8) Il évitera d'avoir des rapports avec les princes et les seigneurs » (Alkimia). Énonciation de vertu quasi-monacales, d’exigences de rigueurs, de conditions d’expérimentation, d’impératifs d’indépendance ayant pour fin de soustraire la recherche aux influences du politique (principe de laïcité épistémologique). Robert Grosseteste (1168-1253) Principales contributions : - Œuvres philosophiques : Commentaires sur Aristote (vers 1220) ; De Luce ; De Finitate Motus Et Temporis (Finitude du temps et du mouvement) (vers 1230) - Œuvres théologiques : De libero arbitrio (Sur le libre arbitre) 137 - Œuvres scientifiques : Sur la génération de sons (De generatione sonorum), Sur la sphère (De sphaera), Sur les comètes (De Cometis), Sur l'air (De impressionibus aæris), Sur les lignes, les angles et des figures (De Lineis, angulis et figuris), Sur l'arc en ciel (De iride), Sur la couleur (De colore), La chaleur du Soleil (De calore solis), Le mouvement des corps superceleste (De motu supercaelestium)... Concepts et idées-forces : - Évêque de Lincoln, proche de l’ordre des Franciscains. En marge de sa pastorale, s’illustre dans les domaines de l’optique, des mathématiques, de la philosophie et de la littérature. De nombreux commentaires sur Aristote qui font époque dans la pensée occidentale. - Hérite du philosophe arabe Ibn al-Haytham (dit Alhazen) la conviction que la science se forge au creuset de l’expérience. Considéré par nombre d’historiens des sciences comme le vrai « père » de la méthode expérimentale, dont s’inspirera Roger Bacon, peut-être à son contact. - A.C. Crombie veut voir en lui l’artisan d’une révolution intellectuelle d’une ampleur comparable à celle qui gagnerait l’Europe quatre siècles plus tard : il est le premier philosophe occidental ayant « clairement compris les principes de la science expérimentale moderne ». - Importance des mathématiques, qu’il sait être un outil privilégié et transversal des sciences. Grosseteste leur prête des développements géométriques avec son De lineis, angulis et figuris, et un emploi astronomique via sa Theorica planetarum, De accessione et recessione maris. - Avant Bruno et Fontenelle, Grosseteste tente d’importer dans le champ des mathématiques la notion d’infini, confinée par les métaphysiciens au domaine de la théologie. Fait un usage de l’infini comme grandeur mesurable en affirmant l’infinité des entiers équivalents au double de l’infinité des nombres pairs. Faiblesse de l’argumentation, mais le principe ne se retrouvant pas avant que Georg Cantor démontre la supériorité de l'infini des nombres réels (aleph1) relativement à l’ensemble des entiers (aleph0). - Théorie de la lumière origine de toute chose, valable dans le champ scientifique autant que dans le champ religieux. Inspiration platonicienne 138 (l’analogie du bien), augustinienne (théorie de l’illumination), biblique (Genèse). - Les sciences dites naturelles, visibles, composent avec les sciences occultes. Pas de démarcation nettement tracée entre ces deux domaines. Pour pionnier qu’il puisse être en matière de méthode, Grosseteste ne négligeait nullement l’astrologie qu’il plaçait au sommet de la hiérarchie des sciences, et – comme beaucoup de ses contemporains – croyait à l’alchimie ainsi qu’à la transmutation des métaux vils en or, source d’inspiration et métaphore (selon C. G. Jung) de la purification de l’âme. Transmutation aujourd’hui pratiquement possible en cela que tout est fait d’atomes. Point sur la religion et l’occultisme Pour être l’un et l’autre deux systèmes d’interprétation du monde aux postulats distincts, le modèle scientifique et le mythe religieux sont présentés le plus souvent comme irréconciliable. Du savoir rationnel, il est devenu commun de faire l’adversaire millénaire de la croyance, celui que les prêtres baptisaient du nom de l’Orgueilleux, de Prométhée, de Lucifer, l’Ange « porteur de lumière ». De la « croyance », on n’a de cesse de vouloir faire ce qui transcende la science pour accéder à un savoir qui dépasse tout savoir pour atteindre à une intuition suprême de la vérité. La connaissance serait sceptique et la foi dogmatique. La connaissance serait critique et la foi doctrinaire. La connaissance serait prouvée là où la foi ne peut que s’éprouver. La connaissance décrirait l’être, là où la foi donnerait le sens. Ou bien soustrairait l’être à toute velléité de rationalisation. C’est cette deuxième option que retient la tradition lorsqu’elle fait dire à Tertullien « Credo quia absurdum », « je [le] crois parce que c'est absurde ». La sentence authentique extraite du De Carne Christi, ch. 5, se présente en contexte de la manière suivante : « Et mortuus est Dei Filius : credibile est quia ineptum est ; et sepultus resurrexit ; certum est quia impossibile est », « Le fils de Dieu est mort : c'est croyable parce que c'est absurde ; et, après avoir été enseveli, il est ressuscité ; c'est certain parce que c'est impossible ». Le scandale de la Crucifixion n’est pas à la portée de l’intelligence humaine ; le cœur seul, qui 139 est l’organe de la foi, peut s’approcher des vérités qui dépassent l’entendement ». « Credo ut intelligam », « je crois pour comprendre », précise Saint Augustin. S’ajoute à ce tableau en clair-obscur des jugements d’ordre politiques, philosophiques et idéologiques. La science se veut émancipée de la religion. À l’une échoit l’onction de la modernité, à l’autre la présomption de minorité (voir l’opuscule de Kant, manifeste de l’Aufklärung : Qu’est-ce que les Lumières, 1784). C’est contre la « superstition » que les Croisés de la raison ont pris les armes ; contre l’illuminisme, contre l’obscurantisme que s’est faite la croisade des libre-penseurs. Du moins est-ce là l’enseignement que nous avons tout reçu. Qui ne l’a pas entendu dire un jour : que la science « autonome » et « objective » devait être irrévérencieuse, que la religion « opium du peuple » ou « délire collectif » offrait des solutions simplistes et dogmatiques à des problèmes complexes ? Y a-t-il plus opposées que ces deux démarches ? La bonne question serait : y a-t-il plus fallacieuse que cette opposition ? On ne peut nier que le monde chrétien ne paraît pas à première vue faire bon accueil au principe de raison. Des résistances sérieuses, qui ne se réduisent pas à des luttes de pouvoir, semblent défier toute tentative de reconstruire un ordre dans ce chaos animé qu’est la Création. Il ne suffisait pas de décréter que les astres étaient des luminaires pour évacuer de la nature toute influence surnaturelle. Passons sur l’apport d’Aristote, médiatisé par Thomas d’Aquin, à la « physique chrétienne ». Elle ne relève pas directement de la doctrine religieuse qu’elle prétend compléter. Restons-en à l’herméneutique des Écritures : qu’en ressort-il ? Une Providence conduisant l’existence individuelle et l’histoire collective ; une Grâce divine fondant sur ses élus, eu égard à leurs œuvres ou indépendamment de celles-ci ; un Christ et ses apôtres thaumaturges, dont les miracles dérogent impérieusement aux « lois de la nature » (quoiqu’en ait dit Leibniz). Des anges qui manifestent la volonté d’un Dieu dont « les voies sont impénétrables ». Une hiérarchie d’esprits célestes. Une démonologie active face à laquelle se dressent des hommes investis par le Saint Esprit. Et d’autres hommes, jusqu’aux plus misérables, qui disposaient via la prière 140 d’un instrument de pression ; qui disposaient par leurs intercesseurs qu’étaient le Christ, la Vierge Marie et la communauté des saints, d’un pouvoir indirect d’action sur la nature ou sur les autres forces qui agissaient en elle. Pourquoi d’ailleurs borner cette liste aux avocats du Dieu ? C’est aux esprits malins que les nécromanciens et autres adeptes de la goetie adressent parfois leurs vœux. À Lucifer, ils vendent leur âme dans l’espoir d’acquérir une magie plus puissante. Le « Pacte » singe l’« Alliance ». Le plus court chemin vers la puissance est tracé par l’Orgueil du premier ange déchu, héritier du royaume terrestre. Le Grand Satan n’est-il pas « prince de ce monde » ? Un monde qui apparaît en proie à d’innombrables forces capricieuses qui collaborent, s’entravent, s’empêchent ou se confortent, agissent sur la nature selon leur motivation propre. Un monde au sein duquel Josué peut obtenir de Dieu qu’il fige la course du soleil et de la Lune pour une journée entière. Voilà qui tranche le problème de Hume ; et l’on comprend trop bien pour quelles raisons le sceptique écossais choisit dans son Enquête sur l’entendement humain, 4ème section, 1ère partie de faire appel à cet exemple précis. Providence, Grâce, miracles, magie, intercessions en service commandé : voilà qui ne prêtait guère à la recherche de « lois » de cause à effet. La scolastique inspirée par les traités d’Aristote n’y incitait guère davantage, soustrayant à l’empire de la précision et des mathématiques la région sublunaire. Une pareille représentation du monde ne promeut ni ne justifie en rien l’exploration des « causes » et des « relations stables » entre les phénomènes en vue de leur théorisation. Comment l’homme médiéval, pétri de christianisme, aurait-il pu imaginer d’extraire une régularité de cet entrelacement de volitions et de nolitions imprévisibles ? « Comment ? » : c’est là toute la question. Car la science n’est pas née de rien : « Ex nihilo nihil fit ». Elle également peut être dite « fille de l’Église ». Et son berceau, volens nolens, fut la théologie. Au vu des considérations développées jusqu’ici, on peut être surpris de ce renversement. Il en ressort que notre exposé ne saurait avoir été complet. Le seul aspect « irrationnel », « superstitieux » de la religion, ne saurait l’épuiser. À charge de l’historien 141 des sciences de dégager quelle fut son rôle épistémologique. La religion berceau des sciences Nous avons vu que la dialectique entre la « raison naturelle » et la « révélation » posait un certain nombre de problèmes que la théologie tentait de surmonter, au prix d’efforts parfois considérables. Le principal enjeu consistait à déterminer si le fait des miracles autorisait l’établissement de « lois de la nature ». En étaient-ils une expression, ou la réfutation ? L’intrusion permanente de causes surnaturelles dans le cours de la nature rendait-elle impossible une recherche de certitude dans les rapports de cause à effet ? La seule sagesse consistait-elle en la résignation et en l’admiration passive des mystères de la création ? Force est de répondre par la négative. Le ferment religieux de la science moderne est une réalité dorénavant admise, de même que sont avérées les origines mythologiques et poétiques de la science grecque. Le raisonnement de la science moderne plonge ses racines dans l’exégèse des érudits du Moyen Âge chrétien. Méthodes, outils, notions ; la plupart de ses instruments de pensée ont été façonnés dans le creuset de la glose. Citons, en guise d’échantillon : - L’impetus chez Jean Buridan, qui préfigure le principe d’inertie ; - La latitude des formes comme quantification des grandeurs intensives, qui anticipe sur la cinématique moderne ; - L’infini immanent chez Giordano Bruno, qui transpose à la création un attribut de Dieu ; - La logique de Leibniz (cf. Discours de métaphysique, De arte combinatoria) et celle de Port-Royal. Emile Durkheim, en 1912, met à l’ordre du jour cette découverte majeure de l’histoire des idées : « Nous verrons que la notion de forces naturelles est très vraisemblablement dérivée de la notion de forces religieuses ; il ne saurait donc y avoir entre celles-ci et celles-là l'abîme qui sépare le rationnel de l'irrationnel » (Les Formes élémentaires de la vie religieuse). La religion nourrit la science comme elle nourrit la politique, le droit et l’art. 142 La religion inspire si bien la science que le retournement vindicatif de celleci contre celle-là s’apparente davantage à une manière de parricide qu’à une confrontation de disciplines opposées, n’ayant rien à se dire, à ce moment critique d’affirmation de tout adolescent tenté, pour s’autonomiser, de renier ses honteuses origines. Durkheim encore : « La pensée scientifique n'est qu'une forme plus parfaite de la pensée religieuse » (ibid.). La science et l’occultisme Il y a peut-être plus ; plus inavouable encore. À la théologie ne peut être imputée l’entière responsabilité (ou l’entière gloire) de l’essor de la pensée scientifique moderne. L’innocuité des savoirs orthodoxes enseignés aujourd’hui n’ôte rien à l’hérésie « obscène » des pratiques d’autrefois qui leur ont donné vie. Nietzsche n’avait rien manqué de cette influence, qui, dans Le gai savoir, mettait en évidence une continuité entre ces deux régimes de compréhension du monde, la science et l’occultisme : « Croyezvous donc que les sciences seraient nées, croyez-vous qu'elles auraient crû, s'il n'y avait eu auparavant ces magiciens, ces alchimistes, astrologues et sorciers qui durent d'abord, par l'appât de mirages et de promesses, créer la faim, la soif, le goût des puissances cachées, des forces défendues ? » Le cas de Newton est des plus significatifs. Celui qui fut peut-être le plus grand alchimiste anglais, de son siècle n’aurait sans doute jamais pris au sérieux ni même envisagé l’idée d’une « attraction universelle » s’il n’avait été familier du concept alchimique d’« affinité » (cf. Les Affinités électives, roman de Johann W. von Goethe, 1809). Des historiens et philosophes des sciences dans la lignée de Bachelard, Duhem, Koyré et Kuhn, n’ont pas manqué de relever la dépendance philosophique et religieuse – à tout le moins extra-scientifique – des hypothèses en sciences. La religion et la magie, l’art et les mythes sont moins à cet égard des restrictions intellectuelles que des pépinières d’idées, le terreau fertile d’intuition fulgurante. Ce n’est pas sans raison que Popper faisait aux intégristes de l’inductivisme et du positivisme le reproche de rejeter la métaphysique comme source d’inspiration. Or, s’il est une inspiration que le puritanisme rationaliste s’est fait un point 143 d’honneur à toujours écarter, plus encore que celle de la religion, c’est bien celle de l’occultisme. Car si la science pouvait être opposée à la croyance, de combien plus devrait-elle l’être à la magie ? Comment celle-ci aurait-elle pu jouer un rôle autre que négatif ou purement réactif dans l’avènement de la raison moderne ? Comment ce refuge de l’irrationnel, ce repoussoir ultime et véritable antimodèle du discours « bien-fondé » aurait-il pu avoir sa part à la naissance de la méthode scientifique ? En jouant le rôle de moyen-terme entre la scolastique et la science expérimentale moderne. En promouvant les normes, les exigences et les méthodes qu’elle devait adopter. C’est à déterminer selon quelles voies, par quels moyens et en quels termes que nous consacrerons ce morceau d’« archéologie » de la science moderne, intéressée tout particulièrement par les apports théoriques autant que pratiques qui ont été ceux de l’astrologie, de l’alchimie et, au sens large, de la « magie naturelle ». L’astrologie et le déterminisme L’astronomie était en germe dans l’astrologie. Nous lui devons une première tentative de description systématique du ciel nocturne et, sur cette base, l’exploration d’une théorie supposée expliquer le comportement des êtres (et non seulement des astres). Nous avons exposé plus tôt l’impasse que pouvait constituer pour une science des phénomènes un monde soumis aux caprices de puissances imprévisibles. C’est à ce monde que l’astrologie met fin. Plus mais de « cause errante ». L’univers régulier des tireurs d’horoscopes impose des relations de cause à effet beaucoup plus strictes que ne pouvaient l’être celles d’un monde chrétien, conduit et reconduit au gré des décrets particuliers et généraux parfois contradictoires de Dieu. Précisément, l’astrologie accorde aux influences des astres le statut de causes déterminantes des phénomènes terrestres. Il n’est sans doute pas anodin, à cet égard, que le même Bacon qui exposa la méthodologie de la science expérimentale (cf. : notice) fut également professeur de magie et expert en astrologie. Contrairement à ce que 144 l’anecdote de la mésaventure de l’imprudent Thalès rapportée par Platon dans le Théétète (174a-175a) pourrait laisser penser, on peut avoir la tête dans les étoiles tout en gardant les pieds sur terre. Et dans les cieux nocturnes fourbir les armes d’une nouvelle épistémologie. Aussi ne seronsnous pas surpris d’apprendre que c’est dans les traités d’occultisme que l’on trouve la formulation la plus saillante du principe de déterminisme appliqué au monde naturel, là où le fatum des stoïciens et, avant lui, la destinée (moïra) de la tragédie grecque en réservaient l’emploi à l’édification morale. C’est tout au moins cette idée directrice véhiculée en première intention par la magie en général, et par l’astrologie de manière privilégiée, qui allait engendrer le postulat fondamental des sciences, édictant que la nature ne se contredit pas (jamais, en aucun lieu, en aucun temps) ; que tout effet a sa cause identifiable et peut être objet de prédictions. Mieux même : au-delà du déterminisme et de la causalité ; au-delà de la liaison des phénomènes – qui devient nécessaire et non plus simplement probable –, l’astrologie prépare la réconciliation des lieux supra- et sublunaires qu’accomplirait Newton. La magie naturelle ne se déprend jamais de la conviction d’un ordre universel qui, comme son nom l’indique, s’applique de manière uniforme à tout ce qui existe. Voici qui nous conduit très loin de la nature enchantée et chaotique des premiers âges ou de l’univers chrétien exposé aux miracles. Ce n’est pas tant la teneur prédictive de l’astrologie qui doit retenir notre attention, que le cadre théorique qu’elle met en place. Il ne s’agit pas de créditer les énoncés qui se réclament des sciences occultes, mais bien plutôt de faire la part entre ce qui relève en elles de l’imaginaire spéculatif ou de la structure épistémologique. C’est cette structure que l’astrologie va insuffler par capillarité aux autres disciplines, pour autant que ces dernières assument de reposer sur elle. La médecine du XIIe siècle présente un cas d’école de cette diffusion. L’utilité de l’astrologie ne pouvait pas lui apparaître pour essentielle une fois admis l’incidence du mouvement des astres sur l’ensemble de la nature, le corps humain inclus. On ne pouvait plus dès lors se permettre d’ignorer les conjonctions du ciel, eu égard aux patients qu’il s’agissait de soigner, aux simples qu’il faillait cueillir, à la préparation des décoctions et à leur administration. Toutes les parties du 145 corps avaient leur ascendant céleste qu’il fallait prendre en considération autant pour le dressage du diagnostic que pour le choix et les modalités de la thérapeutique. Religion, science et occultisme ne se distinguent plus guère chez un penseur de de la prestance de Pierre d'Espagne. Ce médecin théologien ordonné pape en 1276 sous le nom de Jean XXI alla jusqu’à proposer des correspondances entre les sept planètes connues et les sept tuniques (humeurs) de l’œil. L’intérêt (pragmatique) que les milieux médicaux témoignaient à l’astronomie explique la profusion, dès le XIVe siècle, des ouvrages traitant de problèmes techniques dans le domaine civil et militaire. L’historien médiéviste américain Lynn Townsend White recense effectivement à cette époque une surreprésentation des professions médicales dans les archives consacrées à l’ingénierie (Technology and inventions in the Middle Ages, 1940). C’est par l’astronomie que le médecin en seraient arrivés à nourrir une passion pour la physique et pour la mécanique, puis pour les automates. C’est en tant qu’astrologue médecin que l’Italien Giovanni Dondi construisit l’« Astrarium ». Seize ans de recherches furent nécessaires à l’élaboration de cette horloge astronomique capable de donner l’heure tout en représentant en temps réel le mouvement des planètes. Assimilation du ciel à une horloge astrale ; le ciel image du corps : c’en est assez pour façonner le regard théorique de la médecine moderne. Les hommes de l’art se mettent peu à peu à concevoir le corps sous les auspices de la machine. C’est là, en filigrane, l’essor de la mécanique moderne, les commencements de la géométrisation de l’étendue parachevée avec Descartes. Descartes qui – rappelons-le – concevait les corps vivants sur les modèles des machines hydrauliques ; Descartes qui se voulait médecin avant toute chose, et de la santé (et non de la connaissance) faisait le souverain bien. Mais déjà chez Descartes ont disparu les préoccupations astronomiques qui hantaient ses prédécesseurs. On voit que les conséquences de l’astrologie sur la naissance et le devenir des sciences (dont la médecine, cas paradigmatique) sont bien plus vastes et plus profondes que l’on veut bien l’admettre. Notons enfin que le schème de la réflexion entre le microcosme et le 146 macrocosme, tout comme la loi de causalité exprimant le déterminisme, se retrouvent au cœur de l’alchimie ; ce qui ne laisse pas d’en faire une discipline digne d’intérêt pour l’histoire des idées. En marge des opérations et des techniques reprises par la chimie, cette autre science occulte fut également d’une importance majeure au regard de la promotion des normes de la science moderne : c’est elle qui associe de la manière la plus étroite au processus de théorisation l’exigence de l’expérimentation. Un mariage consommé sous les auspices de l’hermétisme dominant chez les penseurs de la Renaissance et du bas Moyen Âge. Étroitement associés aux investigations médicinales et alchimiques des « mages » de cette époque produisent des éloges militants de la pratique. Il ne s’agit plus dorénavant de contempler l’ordre du monde ou de l’interpréter – pour emprunter à Marx la formulation de la onzième « Thèse sur Feuerbach » –, mais de le transformer. À ce changement de paradigme s’attache immédiatement un critère d’efficacité que la « magie naturelle » va mettre au cœur de son activité. La magie naturelle et le critère d’efficacité Il n’est pas accordé à tous les hommes de voir leurs prières suivies d’effets. Le croyant s’adresse à des entités libres qui peuvent choisir de ne pas souscrire à ses désirs. Pour le meilleur, sans doute ; il est connu depuis les tragédies de Sénèque que les dieux punissent parfois les hommes en exauçant leurs souhaits (cf. Phèdre, acte IV). Le Dieu chrétien, dit-on, non plus que les Saints qui l’accompagnent, ne saurait s’adonner à une telle cruauté. Pas davantage ne se laisse-t-il forcer la main, à l’inverse des génies et autres entités que convoque la magie. Le propre de la formule magique est ainsi d’être une « parole efficace ». Sa dimension opératoire est ce qui la distingue de la parole vulgaire, de la prière chrétienne et du « vœu pieux ». Elle doit agir sur le réel. La connaissance qu’elle met en œuvre est orientée en vue de la production d’effets ; effets qui sont le signe de sa validité. Les mots et les opérations sont attachés aux choses par des liaisons causales. Tout l’apport théorique de l’occultisme médiéval à la science expérimentale moderne peut être résumée à ce mode ordre d’efficacité pratique. À quoi bon tant d’application à respecter cette norme ? Entrons dans les 147 détails. En reprenant pour les besoins de la démonstration l’exemple proverbial de phénomène d’aimantation. Le pouvoir d’attraction de la roche magnétique était connu par les Anciens depuis la plus haute Antiquité. Il revient à la Chine d’en avoir proposé la première description ; mais c’est en Grèce ancienne que ses propriétés semblent avoir le plus inspiré, depuis sages présocratiques jusqu’aux mages de la Renaissance. Cette pierre noire aux mystérieuses propriétés ne se contentait pas d’attirer à elle les amalgames ferrugineux, elle leur communiquait une part de son pouvoir magnétique. Platon, dans l’Ion, l’appelle la « pierre de Magnésie » (du nom de la ville de Magnésie, située en Asie Mineure), et l’utilise comme paradigme de la chaîne d’or de l’inspiration divine, transmise le long de ses différents maillons, perdant de sa puissance au prorata de son degré d’éloignement de la source. Plutarque, aux premiers siècles de notre ère, dans son traité d’ Isis et Osiris, rapporte que les Égyptiens appelaient « os d'Horus » la pierre d'aimant, et le fer « os de Typhon (= Seth) », la chair des dieux de l’Égypte ancienne étant (symboliquement) composé d’or imputrescible et leur corps d’autres « éléments durs et mous » immunisés contre le temps. Contemporain de Plutarque, Pline l'Ancien rapporte en ces termes la découverte très empirique du phénomène de polarisation : « Il y a auprès du fleuve Indus deux montagnes, dont l'une retient et l'autre repousse toute espèce de fer ; de la sorte, si l'on porte des clous aux souliers, dans l'une on ne peut pas retirer son pied, dans l'autre on ne peut pas le poser » (Histoire naturelle, II, 97-99). Le Moyen Âge n’a pas été pas moins fasciné par ce pouvoir étrange que semblaient posséder les aimants permanents. Qu’une pierre puisse exercer une telle force d’attraction (et de répulsion) physique et sans contact sur un morceau de fer était assurément l’indice d’une « qualité occulte ». Ainsi seulement pouvait être expliqué sa vertu propre, son « charme », analogue pour les corps à ce que des sentiments tels que l’amour et l’amitié pouvaient produire dans l’esprit. « Mariage », « alliance », « affinités », « noces », etc., l’alchimie médiévale allait faire bon usage de ces métaphores ; et ce n’est pas un hasard si la 148 pierre noire de magnésie a hérité du nom d’ « aimant », au prix d’un anthropomorphisme passablement évocateur. La tentation est grande de lui attribuer toutes sortes de propriétés. Comme le rappelle Daniel J. Boorstin dans son essai de 1986, Les découvreurs : « Une pierre d'aimant placée sous l'oreiller d'une épouse infidèle avait le pouvoir, disait-on, de lui faire avouer sa faute. La croyance populaire attribuait à l'aimant une telle force qu'un seul fragment suffisait pour guérir toute sorte de maux et même servir de contraceptif ». Si l’on peut raisonnablement douter de la pérennité de cet usage, la pierre d’aimant en avait d’autres beaucoup plus précieux. En premier lieu, dans le domaine de la navigation. Avant de devenir l’« atelier du monde », la Chine fut longtemps son laboratoire. Nous ne lui devons pas que l’imprimerie (indûment attribuée à Gutenberg), l’invention du papier et la recette de la poudre à canon. Elle fut aussi à l’origine de la première boussole – alors appelée « aiguille du sud » en raison de l’orientation des planisphères. Cette technologie d’exploration datée des alentours de l’an Mil se composait d’un cadran incrusté surmonté d’une aiguille de fer mobile magnétisée par contact avec un aimant. L’aiguille pivote ainsi de sorte à s’aligner sur le champ magnétique terrestre, lui-même à l’origine de l’aimantation des roches de magnésie. Ce n’est que deux siècle après sa mise au point que la boussole chinoise atteignit les côtes européennes où les marins ne tardèrent pas à l’adopter en la rebaptisant du nom de « marinette ». La marinette fut l’épicentre d’une révolution majeure dans l’histoire de la navigation. Elle palliait les insuffisances et les incertitudes des précédentes techniques de repérage s’appuyant sur des relevés astronomiques nécessitant l’obscurité et la limpidité du ciel. Son principal inconvénient était de ne pouvoir indiquer la position de son utilisateur (c’est là tout l’avantage comparatif de la technologie de guidage par satellite, ou GPS). L’ingénieur militaire Pierre de Maricourt ne tarit pas d’éloges sur les propriétés de l’aimant, comme en atteste son Epistola de magnete de 1269. Couramment abrégé De Magnete, le traité de Maricourt permit la mise au point du compas magnétique (non sans quelques erreurs de déviations qui valurent à Christophe Colomb son abordage fortuit aux Bahamas). Ce qui permit à l’auteur britannique des Pilgrimes (1613-1626) d’affirmer que « la pierre d'aimant [loadstone] est la pierre angulaire, la semence même d'où nait la découverte ». 149 La pierre d’aimant s’avérait en tout état de cause dépositaire de propriétés d’une valeur inestimable, qu’il fallait bien compter au nombre des vertus qui lui appartenaient en propre. Le phénomène d’aimantation – et l’incapacité des érudits de l’époque à en rendre raison – justifiait à lui seul que l’on s’oblige au recensement des autres qualités occultes. Or, seule l’expérimentation pouvait permettre d’effectuer correctement ce recensement. Les qualités occultes appartenaient aux corps si et seulement si ces corps étaient à même d’induire des modifications sensibles sur le monde. Toute prétention à attribuer aux corps d’autres propriétés sans que celles-ci puissent être mesurées devait être rejetée. L’esprit critique du maître ès sciences occultes consistait dès alors à ne tenir pour véridique que ce qui avait été vérifié méticuleusement ; et c’est à son exemple que se vont se convertir jusqu’aux théologiens du Moyen Âge chrétien. C’est donc à l’aune de son effectivité qu’est distinguée la magie authentique de la charlatanerie. La vérité se mesure à l’effectivité de son action sur le monde, c’est-à-dire à son utilité. Cela signifie qu’elle ne s’évalue plus en référence à sa conformité à une doctrine qui la précède. Physique aristotélicienne et savoirs révélés n’ont plus voix au chapitre de la magie médiévale. Cela signifie aussi que l’ordre du monde n’est plus tant observé (dans les deux sens du terme) qu’institué par le sujet en tant qu’il le produit. Il n’en fallait pas moins pour amorcer le processus qui conduirait à révoquer l’épistémè de la contemplation pour celle de l’efficacité pratique, cheville ouvrière de la révolution intellectuelle moderne. Il n’est pas assuré que sans l’occultisme et la nécessité qui s’y fit jour de séparer le bon grain de l’ivraie, la science proprement dite se soit jamais émancipée de la scolastique. L’ironie tient à ce que ce furent parfois les mêmes penseurs formés à l’école de la scolastique qui firent le plus pour son dépérissement. Tout bien compté, les Évangiles eux-mêmes n’encourageaient-ils pas cette appétence pour l’occultisme ? L’épisode de la nativité ne se faisait-il pas déjà l’écho de traditions astrologiques faisant état de chefs bédouins capables de déchiffrer l’annonce de la venue du Sauveur au ciel de Bethléem ? Les premiers hommes qui accueillirent le Christ n’étaient-il pas « trois mages », ultérieurement reconvertis en « rois » ? La Bible se serait-elle montrée si 150 complaisante à l’endroit de sorciers nomades si leur sagesse n’avait été que divagations païennes et les chimères démoniaques ? Roger Bacon ne pouvait le croire. Ce franciscain du XIIIe siècle n’avait pas son pareil en matière de théologie. Il cultivait pourtant une conception déflationniste de la foi dans le domaine de la recherche de la vérité. Son insistance sur l’expérience (physique, magique, mystique), seule source véritable de la connaissance de la nature (en lieu et place des Écritures et des traités du Stagirite), en fait un précurseur des scientifiques expérimentateurs de la révolution intellectuelle moderne. Avec Bacon s’affirme effectivement une volonté de multiplier les sources, de s’instruire même auprès des artisans, des ingénieurs et des bergers. Qu’importe le chemin, qu’importent les témoins, seul compte les faits. Bacon met sur un pied d’égalité les bibles scolastiques et les propos d’auberge. État d’esprit qui rompt ouvertement d’avec celui des universitaires imbus de leurs raisonnements théologico-philosophiques et de leur gloses à n’en plus finir, hors-sol. Or, plus que ses pérambulations civiles et ses fréquentations vulgaires d’esprit pratiques et pragmatiques, la magie fut pour le Doctor mirabilis une occasion de se déprendre des préjugés rationalistes et orthodoxes qui encombraient la scolastique. La magie fut par conséquent non pas seulement le préalable, mais plus encore la condition du progrès scientifique : « Le principal obstacle à la découverte de la forme de la Terre, des continents, et des océans n'aura pas été l'ignorance, précise en cela Boorstin, mais l'illusion de savoir » ( op. cit.). L’esprit critique durci au feu des athanors devait venir à bout de cette illusion. L’histoire des sciences – peut-être encore intimidée par les soupçons diffamatoires que les Lumières ont fait peser sur l’occultisme médiéval – est encore loin d’avoir pris la mesure de sa contribution tout ce qu’il y a de plus réel à l’émergence de la science moderne. L’épreuve de l’expérience Contribution qui ne se limite pas à quelques postulats, méthodes, concepts, normes de vérité et instruments de pensée, mais comprend un aspect pratique. Le critère d’efficacité ne vaut qu’à la lumière de l’expérience. Il ne 151 sanctionne une « proposition » magique qu’une fois celle-ci mise à l’épreuve des faits. C’est cette mise à l’épreuve – moyennant un contrôle systématique et empirique – des « recettes » consignées par des générations de « mages » qui va permettre de décanter l’or du savoir aggloméré aux mystifications de bataillons de faux-monnayeurs. C’est donc sur l’expérience que la magie médiévale va s’appuyer pour rejeter de son champ de recherche les amulettes et les grigris et les trucages et les médications fumeuses et les tours de passe-passe et de prestidigitation qui s’en réclament abusivement. C’est ainsi, peu à peu, que vient à se constituer une authentique « science expérimentale ». Scientia experimentalis : tel est, de fait, le nom que lui donne Thomas d’Aquin, disciple d’Albert le Grand. Désignation qui, au XVIe et XVIIe siècles, viendrait à qualifier la méthode d’investigation des artisans de la science moderne. Cette entreprise de « purification » de la magie intéressa au premier chef notre Bacon, persuadé que la légitimité sociale et culturelle de la science expérimentale (= la magie rationalisée) devait passer par l’assurance de ses fondements épistémologiques, l’énonciation de ses méthodes, de ses objectifs et de ses intérêts. Pratiques, sans doute ; techniques, assurément. Car c’est par l’occultisme que les praticiens expriment les préoccupations et revendications d’une révolution intellectuelle en germe. En arrière-plan des controverses sur la magie se profile une légion d’ingénieurs adeptes des « arts mécaniques ». Bien que le terme ingeniator remonte au XIe siècle, les universités s’étaient toujours montrées condescendantes ou franchement réservées leur égard – le moine enseignant Hugues de Saint Victor faisant figure d’exception. Ces arts n’avaient jamais trouvé preneurs dans les hauts-lieux de la formation de l’élite intellectuelle. Une telle situation peut être comparée à celle des médecins chirurgiens et des docteurs, ceux-ci s’accommodant d’une instruction livresque et théorique, déléguant volontiers les tâches pratiques à leur valets manuelle (kheirourgía : « travail de la main »). Ce qu’Aristote était à la physique, Hippocrate et Galien l’étaient à la médecine. L’anoblissement de la chirurgie et la réhabilitation de l’expérimentation fut redevable des travaux anatomiques (et artistiques) André Vésale et des succès d’Ambroise Paré. La promotion de la technique et des arts 152 mécaniques dut également trouver ses médiations. L’occultisme fut la principale de ces médiations, le cheval de Troie des praticiens. À telle enseigne qu’il ne serait pas absurde, pour en venir au fait, d’interpréter la science moderne comme résultant de l’épuration de l’occultisme médiéval à la faveur de l’expérience, ayant précipité le remplacement du critère de conformité à l’« ordre de la nature » posé par Aristote les Pères de l’Église par celui d’efficacité pratique. La science contemporaine – devenue « technoscience » ensuite de l’interdépendance de la recherche fondamentale et appliquée –, est pour sa part en passe de se défaire de ces préoccupations. Le catéchisme scientifique du XXIe siècle n’est plus à la contemplation, en tant que conformation un ordre établi, ni au progrès humain organisé autour de la technique et de son effet sur le réel ; il est devenu l’« innovation », au diapason de la Silicon Valley. Mais n’anticipons pas, ne croisons pas les temps. Remplacement donc du critère de conformité par celui d’efficacité, telle a été l’œuvre paradoxale des sciences occultes. N’est-ce pas précisément ce remplacement ou déplacement du lieu de la vérité qu’exprime le revirement de l’exégèse chrétienne dans l’interprétation de la parabole évangélique de Marthe et de Marie, dès le début du XIIe siècle ? Celui-là même que le bénédictin Rupert de Deutz se désolait de retrouver chez nombre de ses ouailles « qui placent presque tous leurs espoirs dans le travail manuel » ? Posons le décor. Marthe et Marie, rapporte l’Évangile de Luc (10, 38-42), sont deux sœurs ayant fait chacune le choix d’une vie typiquement opposée. Il faudrait plus rigoureusement parler d’une répartition des tâches, anticipant ce que Marx allait appeler le divorce du travail manuel et du travail intellectuel. À Marthe est échue la responsabilité des besognes ménagères et de l’intendance tandis que la vocation toute spirituelle de Marie sa sœur la destine au service divin. Marthe peine à la tâche ; Marie s’isole dans la prière et dans le recueillement. À Marthe qui s’en était venue se plaindre auprès de lui, Jésus fit savoir qu’indéniablement, Marie avait eu « la bonne part ». On recense deux manières contradictoires d’interpréter ce commentaire énigmatique. Une première tradition traverse l’orthodoxie chrétienne depuis ses origines jusqu’à la Renaissance du XIIe siècle 153 théorisée par Jacques Le Goff (Les intellectuels au Moyen Âge, Paris, 1957). Elle veut y voir une confirmation de la supériorité ontologique et spirituelle de la contemplation au détriment de l’action et des affaires terrestres. Tout change, selon Le Goff, avec l’essor de la société marchande et technicienne qui cherche à s’imposer autant par le commerce nu que par la séduction (La civilisation de l'Occident médiéval, 1977). Un lobbying actif est exercé par de « nouvelles catégories professionnelles » en quête de supplément d’âme, « désireuses de trouver sur le plan religieux la justification de leur activité ». L’action est réinterprétée dans un sens positif et la parole du Christ adaptée aux valeurs de l’époque : Marie « à la bonne part », pour l’heure, mais « les premiers seront les derniers ». Ainsi commence le procès en réhabilitation de Marthe. Aussi aurions-nous tort de croire que le christianisme ait été farouchement hostile à l’essor de la science et au progrès technique. Quoi qu’il soit vrai que tout le christianisme n’est pas suivi le mouvement. L’historien médiéviste américain Lynn Townsend White attire ainsi notre attention sur tout ce qui sépare l’indifférence à dominante conservatrice de l’Église orthodoxe (Medieval tecnology and social change, 1962) de l’enthousiasme (modéré) de l'Église d'Occident. Là où l’Église d’Orient restait captive de ses figures d’autorité, soucieuse de transmission et de pérennisation, le christianisme occidental avait troqué ses idéaux contemplatifs pour ceux d’une société matérialiste avant la lettre, orientée vers l’avenir et l’amélioration de l’homme (humanisme) plutôt que vers ses origines. Le recueillement et la résignation ne pouvaient plus être une réponse satisfaisante aux malheurs de la condition humaine. Il avait découvert les vertus spirituelles de l’action, de la transformation du monde par l’homme qui permettait de hâter la venue du millénium ; laquelle transformation, loin de s’y opposer, prenaient activement part au projet créateur de Dieu. Luther traduit par le même mot – Beruf – la « vocation » et le « travail » dans sa version de la Bible. De châtiment qu’il était jusqu’alors, le travail (du latin tripalium, désignant un instrument de torture) devient un instrument de salut. 154 « O pudenda origo ! » « O honteuses origines ! ». C’est par cette expression que Nietzsche démasque la peur du prochain dissimulée sous les atours de la morale (Aurore, II, 102). Que n’en dirions-nous pas autant de la science et des pratiques qui l’ont portée sur les fonts baptismaux (magie, astrologie, alchimie, etc.) ? C’est là peut-être l’un des secrets les mieux gardés de l’« histoire » des sciences : la religion et l’occultisme n’ont pas été tant l’adversaire que la matrice des sciences. De l’exigence d’expérimentation au principe du déterminisme en passant par le critère d’efficacité, les apports théoriques, pratiques et normatifs de l’occultisme ont été décisifs. On ne soulignera jamais assez la portée ironique de ce constat, dont il ressort que les sciences modernes ont été dérivées de celles qu’elles considèrent comme leurs ennemies héréditaire. La science ne pouvait rompre d’avec le paradigme contemplatif et naître réellement comme discipline qu’en s’appuyant sur les ressources de la magie et de la théologie. Hegel aurait parlé d’une « ruse de la raison », celle-ci pour s’affirmer devant laisser agir ce qui la nie – mais ne la nie qu’en apparence. Ce fait embarrassant explique peut-être une partie de la virulence dont ont fait montre les Lumières à l’encontre des « pratiques superstitieuses » et de l’« obscurantisme médiéval ». Une égale animosité se reconnaît parfois dans les discours de la science moderne dans ses attaques (protestations ?) contre les pseudosciences et les non-sciences. La créature des apprentis sorciers (le terme prend ici tout son sens) se révolte contre ses créateurs, et réécrit le récit de sa genèse pour apparaître sa propre création. La science, fille immaculée de la raison ? Nous ne saurions plus en être dupe. Jürgen Habermas (1929-19XX) Principales contributions : - Théorie et pratique, titre original (1963) - Connaissance et intérêt (1968) - La technique et la science comme « idéologie » (1968) - Vérité et Justification (1999) 155 Concepts et idées-forces : - Projet d’une réappropriation du progrès techno-scientifique. Dans la continuité de la réflexion sur la modernité inaugurée par Adorno et Horkheimer, théoriciens de d'Ecole de Francfort, Habermas réactualise à nouveaux frais la « Théorie Critique » dans une optique voulue plus émancipatoire que ses prédécesseurs. Son analyse fait fond sur le constat de l’imposition graduelle de la rationalité instrumentale dans toutes les sphères de la société moderne l’industrie culturelle », au détriment de la rationalité communicationnelle. Cette subsomption aurait, selon l’auteur, conduit à la vision « technocratique » d’une société sommée de se plier à la nécessité d’un progressisme aveugle – celui des sciences et des techniques. Les questionnements d’ordre pratique, moraux ou politiques s’en seraient trouvés disqualifiés pour céder place à des arias « techniques » qui ressortissent à l’expertise, et non plus à l’« éthique » d’une discussion démocratique. La technique et la science comme idéologie (1963) entend faire la lumière sur l’emprise délétère d’une idéologie latente qui, en le réifiant, aurait privé l’individu de sa liberté. L’auteur avance dans cet ouvrage une solution possible à la question centrale posée par la modernité : comment la dialectique articulant progrès technique et monde vécu social peut-elle devenir objet de délibération publique. Cette solution comporte deux aspects : d’une part, l’établissement d’une communication bilatérale entre le savant et le politique ; de l’autre, la nécessaire réforme de la conception objectiviste que les sciences se font d'elles-mêmes. - Exégèse du concept de « théorie ». Fil conducteur de l’analyse, la « théorie », selon Schelling, commande la tradition philosophique depuis ses origines. Idée que seule une connaissance dégagée d’intérêt, tournée vers les idées (« perspective théorique ») est à même d’orienter l’action. Reconduisant cette thèse dans sa ligne historique, Habermas restitue les développements de la notion de théorie. Origines religieuses d’abord, liées à la contemplation : du gc. theorein, « contempler, observer, examiner ». Association avec l’idée d’éternité, d’immuabilité et d’harmonie. Une harmonie devenant praxis lors qu’elle se réalise dans une ethos, pratique de vie conforme à l’ordre perçu dans le cosmos. Sur les traces d’Horkheimer, l’auteur réexamine ensuite la rupture supposée entre philosophie 156 (ontologique) traditionnelle et sciences (positivistes) modernes. Husserl préjuge de cette rupture ; qu’en est-il véritablement ? - Habermas fait le départ entre trois types de sciences afin d’interroger si elles préservent ou non le lien entre « savoir » et « attitudes ». Sont-elles solubles dans la conception originaire de la théorie telle que la comprenait la tradition philosophique ? (1) Les sciences empirico-analytiques (sciences naturelles) préservent intacte cette double perspective, en prétendant décrire le plus objectivement possible les lois de l’univers, abstraction faite des « intérêts naturels de l’existence ». (2) Les sciences historico-herméneutiques (sciences humaines), bien qu’elles aient davantage affaire à des objets fluctuants historiquement situés, partagent avec les précédentes la même conscience méthodologique. Les sciences sociales sont innervées par le positivisme. Ces exigences restent conformes à celles de la philosophie grecque tant du point de vue psychologique (nécessité de rester fidèle à l’ « attitude théorique » du point de vue épistémologique (césure entre la connaissance et l’intérêt). (3) Les sciences critiques (psychanalyse et théories critiques) sur lesquelles Habermas revient plus en détail ultérieurement. - Cela posé, il semblerait que la notion de « neutralité axiologique » intronisée par Max Weber, comme la dissociation des faits et des valeurs, ne permette plus d’identifier les exigences de la science positive avec celles qui sont enveloppées – « intentionnées » – par la notion traditionnelle de théorie : « On ne reconnaît plus à la théorie de fonction formatrice » ; celle que la phénoménologie d’Husserl entendait restaurer en renouvelant la théorie pure. - C’est à reconstituer la critique husserlienne que va alors s’employer Habermas. Husserl prend à partie l’objectivisme supposé des sciences. Ainsi la science prétend décrire objectivement les faits et leurs interactions ; or, la phénoménologie révèle l’intercession originaire de la subjectivité comme fondatrice du sens que revêt préalablement le monde immédiatement vécu. La subjectivité persiste dans les sciences sous leur vernis d’objectivisme ; la phénoménologie elle seule est en mesure de dissocier valablement la connaissance de l’intérêt. La description phénoménologique coïncide, pour Husserl, avec la théorie pure (traditionnelle). La théorie n’est pas 157 immédiatement pratique, mais rejaillit sur la pratique en cela que l’attitude théorique permet d’aiguillonner l’action. - Une fois amenée cette reconstitution, l’auteur fait cas de ses réserves. La phénoménologie décrit les lois de la raison pure, mais non les normes universelles de la raison pratique. Husserl est avisé de dénoncer les illusions objectivistes de la science, mais ne se soustrait pas lui-même à la contradiction. Il prétend dissocier la connaissance de l’intérêt et, de cette sécession, escompte des conséquences d’ordre pratique. Or, ce n’était qu’autant qu’elle découvrait un prototype, un modèle idéal que la théorie pouvait guider l’action. Ce dont la prive la démarche transcendantale au profit d’une simple « attitude théorique ». Husserl se leurre enfin en inférant de cette dissociation la vertu formatrice de la théorie ; cette puissance édifiante ne procède pas de l’éviction des intérêts, mais de leur dissimulation : « Que l’intérêt soit refoulé, cela fait encore partie de l’intérêt lui-même ». - Excipe deux des apports déterminants de la tradition hellénistique : (a) « l’attitude théorique » et (b) « l’hypothèse ontologique fondamentale d’un monde en soi déjà structuré ». Deux éléments présupposant déjà l’interaction de la connaissance et de l’intérêt. Et c’est, au vrai, parce qu’elles s’inscrivent toujours dans les essarts de la conception classique de la théorie pure, que le soupçon d’objectivisme est porté sur les sciences ; ceci bien que les sciences aient ponctionné la théorie de sa dimension pédagogique. - « Objectiviste » au sens d’Husserl et d’Habermas, une attitude faisant coïncider les énoncés de la théorie avec les choses « en soi ». Soit une approche plaçant la vérité sous le rapport de l’ adequatio rei et intellectus. Ce n’est qu’une fois réintégrées au sein de la théorie ses propres conditions (présupposés, cadres transcendantaux, systèmes de référence) que l’intérêt recteur de la connaissance dissipe le mirage objectiviste. Cette prise en compte autocritique différencie la théorie traditionnelle de la théorie critique. - Les intérêts de connaissance. Une épistémologie critique qui échapperait aux écueils du positivisme doit être à même de spécifier les modes de relations entre la démarche et les intérêts de connaissances (erkenntnisleitenden Interesses) spécifiques aux différentes sciences. Elle 158 doit encore traquer le lieu de l’illusion objectiviste, comptable de leur oblitération. Sciences Méthode Accès aux faits Empiricoanalytiques Hypothéticodéductive Expérience et observation Historicoherméneutiques Praxéologiques Exégétique Critique Compréhension et interprétation Analyse et autoréflexion Émancipatoire (libération des entités hypostasiées et des contraintes primaires) Intérêt de connaissance Technique (maintien et extension de la connaissance) Pratique (maintien et extension de l’intersubjectivité) Ancrage de l’illusion objectiviste Niveau des énoncés d’observation (lesquels sont provoqués par la démarche même) Niveau de la compréhension du sens (comptable d’un horizon de précompréhension) Niveau épistémologique : n’intègre pas ses propres intérêts pris à l’émancipation) - Habermas se propose d’éclaircir la nature de cette relation entre connaissance et intérêt. La science, œuvrant à l’objectivité, se dissimule les intérêts fondamentaux auxquels elle doit ses impulsions et les conditions mêmes de l’objectivité. Ce n’est qu’en thématisant ces cadres implicites que la connaissance est susceptible d’amorcer un procès d’émancipation. L’occasion pour l’auteur de décliner cinq thèses : (1) « Ce que réalise le sujet transcendantal trouve son fondement dans l’histoire naturelle de l’espèce humaine ». Des postulats de nature méthodologique ne peuvent être arbitraires ou prescriptifs, en tant qu’ils tiennent à la nécessité d’intérêts de connaissance qui ne sont pas à notre discrétion. (2) « La connaissance est un instrument d’autoconservation dans la même mesure qu’elle transcende la pure et simple autoconservation ». Les 159 intérêts qui commandent à la connaissance se définissent à la croisée des instincts naturels de l’homme et de son arrachement par la culture aux intérêts primaires d’autoconservation. Il ne s’agit pas seulement de reproduire la vie, mais encore d’exciper des buts. (3) « Les intérêts qui commandent la connaissance se forment dans le milieu du travail, dans celui du langage et dans celui de la domination ». Aussi les retrouve-t-on au niveau des « fonctions du moi » : les processus d’apprentissage permettent l’adaptation aux conditions de vie extérieure ; les processus de formation au monde vécu social ; et l’individuation l’intégration des astreintes de la normativité sociale. (4) « Dans l’autoréflexion, la connaissance et l’intérêt sont confondus ». Dissymétrie faisant de l’autoréflexion le seul parmi les processus de connaissance dont l’intérêt soit visé pour soi-même ; donc se redouble de manière fractale au niveau supérieur : la réflexion poursuit l’accomplissement de la réflexion comme telle. (5) « L’unité de la connaissance et de l’intérêt se confirme dans une dialectique qui, à partir des traces historiques du dialogue réprimé, reconstruit ce qui a été réprimé ». La communication est tributaire de conditions que la théorie traditionnelle tient pour acquises, mais qui se heurtent dans les faits à des obstacles. Il reviendrait à la philosophie de dénoncer ces coactions pour augurer d’une émancipation par le dialogue. - Les sciences ont conservé de la philosophie l’idéal d’une théorie pure. Aussi ne pensent-t-elle pas leurs intérêts, non plus que leurs axiomes ou leurs mobiles ; et moins encore leurs conséquences. L’illusion d’objectivité leur offre d’avancer sans « faire de politique » (et de se faire servantes des idéologies). Revers de la médaille, elles s’associent les écueils du scientisme et de la déshumanisation. D’une part, la conception positiviste que les sciences nomologiques se font d’elles-mêmes consacre la supplantation de l’action libre et éclairée par l’expertise technique. L’objectivisme à l’aune des sciences herméneutiques délégitime ensuite tout projet d’appropriation critique des traditions vivantes au profit d’un savoir hors-sol et qui n’engage à rien. Enfin, par cela seul que la philosophie critique dénie ses intérêts et sacrifie au mythe de la théorie pure, elle conduit à plaider une vision idéologique et sans alternative du progrès historique. - Et l’auteur d’en conclure qu’aussi longtemps que la science naturelle et la science de l’esprit seront envisagées comme des théories pures exemptes 160 d’intérêt, elles demeureront inaptes à empêcher l’élargissement de la rationalité instrumentale et stratégique aux relations d’interaction humaines. Habermas se départit toutefois d’Husserl en cela qu’il ne pense pas utile d’admettre une théorie renouvelée pour rompre avec l’objectivisme ; mais bien plutôt, fidèle à cette dernière – « donc en y renonçant » – en excipant la solidarité que dissimule l’objectivisme entre la connaissance et l’intérêt. Ainsi seulement seraient réalisées les conditions d’une discussion publique exempte de domination. Ian Hacking (1936-20XX) Principales contributions : - Entre science et réalité. La construction sociale de quoi ? (1983) - Concevoir et expérimenter (1989) - L'Émergence de la Probabilité (2001) - Les Fous voyageurs (2002) - L'Ouverture au probable (avec Michel Dufour) (2004) - L’Âme réécrite. Étude sur la personnalité multiple et les sciences de la mémoire (2006) Concepts et idées-forces : - Rôle de l’expérimentation dans la révolution intellectuelle du XVIe siècle. - « Archéologie » de la notion de probabilité. - Typologie des styles de raisonnement scientifique (« styles of scientific reasoning ») : (1) Le style du laboratoire, apparu au XVIIe siècle, étudié par Hacking dans Concevoir et expérimenter. Aboutit à redéfinir le rôle de la philosophie des sciences, destinée à mettre en lumière les pratiques scientifiques qui transforment le monde, parallèlement aux théories qui cherchent à le représenter. (2) Les statistiques et les probabilités, nées au XIXe siècle, analysées dans L'Émergence de la probabilité. Occupent une place de plus en plus importante dans les modèles scientifiques qui renoncent au déterminisme strict après avoir pris acte des phénomènes de dépendance extrême conditions initiale, des théories du chaos, de la physique quantique 161 probabiliste, des systèmes à l’équilibre, du paradigme de la complexité, des facteurs subjectifs en sciences humaines, etc. - Influence de la classification. Le descriptif, en sciences humaines spécifiquement, ne peut être dissocié du normatif, non plus que du prescriptif. Il y a un effet en retour de la classification des individus sur les individus classés, en sorte ces derniers adoptent des comportements qui peuvent ou bien entériner post hoc une classification non pertinente (effet Pygmalion (/Rosenthal & Jacobson), effet Hawthorne ou « menace du stéréotype ») ou bien défaire la pertinence de cette classification. Thèse étayée par des études de cas exposés dans L’Ame réécrite et Les Fous voyageurs. Ernst Haeckel (1834-1919) Principales contributions : - Natürlichen Schöpfungsgeschichte (1868) - Anthropogénie (1874) Concepts et idées-forces : - Introducteur, en 1866, de la notion d’« écologie » (« œcologie », selon sa graphie personnelle), terme dérivé du grec oikos signifiant la « maison » ; par extension, l’habitat naturel. L’écologie a pour objet d’étude les relations entretenues par les organismes et leur environnement. - Avec Alexandre Kovaleski (1840-1901) qui met à jour à partir du développement de deux organismes marins et de l’embryon humain un lien entre les vertébrés et les invertébrés, participe à l’essor de l’embryologie. - Loi de biogénétique fondamentale de la récapitulation : « L’ontogenèse est une courte récapitulation de la phylogénèse » (1866). Le développement des embryons voit se succéder les uns aux autres l’ensemble des stades morphologiques qui ont été ceux de l’évolution passée de son espèce. Un pont jeté entre la théorie évolutionniste et la biologie du développement. - Usage pionnier de l’arbre phylogénétique (faisant valoir trois règnes) comme modèle pour représenter les mécanismes d’évolution en biologie. L’idée lui en est inspirée par son ami August Schleicher qui procédait de la même manière en linguistique. Aujourd’hui remplacé par les modèles cladistiques et les phylogrammes. 162 - Premier à proposer l’idée d’une origine commune de tous les organismes, de la même manière que la linguistique avançait l’hypothèse d’une langue mère. - Collaboration art-science. Omniprésence de la symétrie dans la nature, beauté de l’univers biologique. Haeckel fut notamment rendu célèbre par ses esquisses. Émergence du genre hybride de l’Atlas. - Des enjeux politiques. Un usage de la science à double tranchant. Mise au service de l’idéologie, peut aussi bien servir à disqualifier l’idée d’une supériorité ontologique d’une classe sociale telle que la noblesse, qu’à promouvoir la supériorité de la race blanche aryenne. Voir aussi l’affaire Lyssenko. Werner Heisenberg (1901-1976) Principales contributions : - Les principes physiques de la théorie des quanta (1932) - La nature dans la physique contemporaine (1962) Concepts et idées-forces : - Mécanique quantique. - Relations d’indétermination. Maladroitement repris sous l’expression de « principe d’incertitude ». Carl G. Hempel (1905-1997) Principales contributions : - Aspects of Scientific Explanation and Other Essays in the Philiosophy of Science (1945) - « The theorician dilemma », dans Minnesota Studies in the Philosophy of Science 2, p. 173-226 (1958) - Philosophy of Natural Science (1966) Concepts et idées-forces : - Paradoxe de Hempel, aussi appelé le paradoxe du corbeau. La loi logique de contraposition astreint à tenir pour équivalentes les propositions « Tous les corbeaux sont noirs » et « Tout objet non noir est autre chose qu'un corbeau » (ou « Tout non-noir et un non-corbeau »). Il en ressort que toute 163 observation d’objets non-noirs (un crayon à papier, un parapluie) contribue à corroborer que les corbeaux sont noirs. L’ornithologue n’est pas même contraint de quitter sa chambre pour faire l’épreuve de sa proposition ; d’où l’autre appellation sous laquelle l’inférence s’est fait connaître : le paradoxe de l’ornithologie en chambre. - Satoshi Watanabe observe, dans Knowing and Guessing (1969), qu’on pourrait aussi bien, en induisant de ce que « Tout objet non noir est autre chose qu'un corbeau », étayer la plausibilité de l'expression « Tous les corbeaux sont blancs ». - Dilemme du théoricien. Ou bien les concepts scientifiques se réfèrent au monde empirique, mais le cas échéant, aucune explication théorique ne s’y ajoute et la science reste une collection-classement de faits d’observation ; ou bien nos concepts théoriques s’autorisent de processus et d’entités purement spéculatifs, et la question se pose alors de savoir comment les hypothèses peuvent être prédictives et d’autre part, comment les vérifier. La question se ramène à savoir comment articuler l’abstrait et le concret, comment des êtres et des fonctions inobservables peuvent trouver un ancrage concret. Introduit à la controverse entre instrumentalisme et réalisme. Gerald Holton (1922-20XX) Principales contributions : - L’imagination scientifique (1981) - Thematic Origins of Scientific Thought : Kepler to Einstein (1988) - Victory and Vexation in Science: Einstein, Bohr, Heisenberg, and Others (2005) Concepts et idées-forces : - Théorise les themata, des caractéristiques d’ordre esthétique, métaphysique ou idéologique attribuables à une théorie, à un modèle ou à une hypothèse et qui peuvent expliquer la préférence que lui donneront les scientifiques au détriment d’une autre. - Les themata servent également de critère de choix rationnel en cas de conflit entre plusieurs alternatives d’explication, dans le cadre d’une conception conventionnaliste de la théorie (où le réel est susceptible d’une 164 multiplicité de représentations possibles). Relèvent alors des themata les valeurs de simplicité, d’élégance, d’unité, de fécondité, d’envergure, etc. (cf. Anastasios Brenner). Chaque homme de science peut cultiver sa propre hiérarchie de themata et arrêter son choix à partir d’un thema dominant en cas de conflit inter-themata. - L’irrationalisme apparent du processus de découverte scientifique n’hypothèque pas la valeur scientifique des connaissances, celles-ci étant soumises à l’épreuve expérimentale, et sujettes à des procédures de recoupements. La science n’est pas qu’un discours illusoire, une pure spéculation relative à une communauté de chercheurs. David Hume (1711-1776) Principales contributions : - Traité de la nature humaine (1740) - Enquête sur l'entendement humain (1748) Concepts et idées-forces : - Mise en question de la prétention du savoir métaphysique, obscur, abstrait et prétentieux (= les stoïciens, Platon, Descartes et ses disciples). Il n’est qu’un raffinement de l’opinion commune, un auxiliaire de la religion. Critique de la théorie de l’adequatio rei et intellectus. - Sortie de la spéculation nécessaire pour s’acheminer vers une véritable philosophie scientifique. Remplacement d’une philosophie de la transcendance et de l’immensité par une philosophie de l’immanence qui renvoie l’homme à sa finitude et à l’incertitude de ses facultés. La déceptivité des sens invoquée par Descartes est amplifiée par la reconnaissance des limites propres à notre condition : corporelle ou complexionelle (déterminisme biologique), caractérielle (psychologique) et sociologique (historico-géographique). - Reprise de la critique de Locke sur les idées innées. Hume lui adjoint une enquête sur nos facultés. Le corps source de la connaissance. En bon disciple de Newton, approche naturaliste, physicaliste de la psychologie. Fonde le savoir sur l’expérience à l’encontre de la dogmatique philosophique et religieuse. Percée de l’Aufklärung. 165 - Mais le corps également organe et limite de la connaissance. On ne sort jamais de soi. Pas de transcendance au regard du corps qui serait une « extase » épistémologique. Nous sommes « limités à une seule planète ». À rebours de Descartes, la substance pensante n’est pas autonome par rapport au corps, indépendante et libre ; elle est au prorata de nos impressions particulières (et non pas générales), de nos expériences vécues qui sont toujours des expériences du corps. De ce qu’on le monde est objectivement, à l’exclusion des affections que nous en avons, nous ne savons rien et ne pouvons rien dire. Signifie également qu’il n’y a pas de vérité absolue qui pourrait s’imposer de manière universelle ; et quand bien même il y en aurait, aucun critère ne permettrait de l’identifier. D’où l’exigence de tolérance, pierre d’angle de la morale humienne. - Les idées sont bien des « perceptions de sensations » (des « impressions » sensibles) ou bien des copies atténuées de ces impressions, des « perceptions de réflexion » (= toute pensée réflexive). Les idées générales ou les idées abstraites sont des idées complexes qui résultent d’une association d’impressions simples. Dieu = un idéal parfait composé de nos idées déjà complexe de sagesse, de bonté, d’éternité, etc. Si bien que « le pouvoir créateur de la pensée ne monte a rien de plus qu’à la faculté de composer, de transposer, d’accroître, de diminuer les matériaux que nous apporte l’essence et l’expérience ». - Toutes les opérations de l’esprit se réduisent à faire des généralisations de différents types en vertu de la loi de connexion. L’opération de « composition » désigne un processus de généralisation via la combinaison des idées simples dont résulte une idée complexe. L’opération de « diminution » généralise en faisant abstraction des particularismes. L’opération de transposition » absolutise des qualités et les impute à des objets, telle la sagesse, la bonté, l’éternité pour Dieu. - La loi de connexion. Instinctive, naturelle, elle préside au rassemblement de la diversité de nos expériences, unit les impressions distinctes, ordonne le disparate avec méthode pour construire nos représentations. Se subdivise en principe de ressemblance (régnant sur l’imagination), de contiguïté (régnant sur la perception) et de causalité (règne sur la raison). Nota : les mêmes principes que ceux mis en œuvre par la magie traditionnelle. - Caractère subjectif de la connexion qui se réduirait à une « vue de l’esprit ». Elle ne dit rien de certain sur les rapports réels qui unissent les objets, 166 non plus que sur leur essence. La connexion n’est pas observée dans la nature, elle est induite ou projetée. « Tous les événements paraissent entièrement détachés et séparés les uns des autres : un événement en suit un autre mais nous ne pouvons jamais observer aucun lien entre eux. Ils semblaient être en conjonction mais non en connexion […] nous supposons une connexion entre eux et un pouvoir dans l’un qui lui fait produire l’autre avec la plus puissante nécessité » (Enquête sur l'entendement humain, section II). - Influence de la physique newtonienne. Hume transpose à la raison et à l’entendement la loi de l’attraction universelle. Cette loi conduit l’esprit à rapprocher des sensations disparates et des objets distincts ainsi que des événements qui, en réalité, ne se répètent jamais à l’identique. La science peut induire des lois générales de l’observation de phénomènes semblables – mais il n’y a pas de phénomènes absolument semblables. - Tout jugement dérive de l’expérience. Ni cognitif, ni intuitif. C’est le credo de l’empirisme ; contra l’idéalisme de Descartes pour qui nous connaissons par les idées, à la lumière de l’entendement qui doit ensuite coïncider avec la chose extérieure. Deux facultés de l’esprit : a) l’imagination rassemble et b) la raison corrige. La raison rectifie à la lumière de l’expérience l’errance ou l’inadéquation de nos sens (exemple du phénomène de réfraction sur le bâton immergé dans l’eau). La raison ne produit rien ; elle organise le donné sensitif. Elle n’est pas fondatrice ou source de la connaissance, mais organisatrice et rectificatrice. Un autre usage de la raison – celui qui convient aux philosophes – peut consister à rapporter les idées aux expériences dont elles sont tributaires, à démêler le spéculatif complexe en unités de sensations simples (méthode analytique) : âme, Dieu, volonté libre, etc., tout cela peut être décomposé, analysé, expliqué par la loi de connexion. Remise en cause de l’existence réelle des entités abstraites. Lutte contre la tendance de la métaphysique traditionnelle à la substantialisation (du sujet, du monde, etc.). Hume ouvre en ce sens la voie à la critique de Nietzsche. - La connexion inférée entre les idées est également présupposée constante et invariable. Nous voulons croire que de la même cause suivra le même effet, toujours et en tout lieu (= principe d’invariance par translation dans le temps et l’espace). La première condition de la science est en effet que la nature ne se contredise pas. Mais ce qui a valu dans le passé, rien ne nous 167 garantit en rien que cela vaille encore dans le futur. Rien ne garantit au reste que ce qui vaut pour tel objet peut être extrapolé à tel autre objet, nécessairement distinct. On ne peut induire du même à l’autre. - Conséquence : la vérité n’est qu’une hypothèse massivement consentie, rendue probable par la récurrence de certaines connexions. Raisonnement subjectif sur la base d’apparences qui tire toute sa pseudo-légitimité de présuppositions concernant la similitude et la connexion de certains faits. Rien ne prouve, rigoureusement et logiquement parlant, que le soleil se lèvera à nouveau demain. - Dès lors, plus de distinction entre la « vérité » scientifique et la croyance bien-fondée ; c’est-à-dire, tout au plus, corroborée jusqu’à présent. Le moi, le monde et Dieu, les objets spécifiques de la métaphysique spéciale, relèvent de la croyance, de même que la stabilité que nous leur attribuons. - La causalité comme sensation (du domaine infra-rationnel) de régularité, fondée sur l’habitude, l’accoutumance et la ressemblance elles-mêmes doivent être interprétées en termes de répétition. Cf. J.S. Mill, Logique des science morales. Génère une croyance érigée par Hume en loi du monde vivant, qui ne se limite pas au monde humain. Hume laisse la question de son fondement ouverte là ou Kant voudra y concevoir une catégorie de l’entendement. - Le problème de l’induction : quel que soit le nombre d’observations corroborant une hypothèse, celui-ci ne permettra jamais de confirmer une proposition universelle, et donc de valider une loi physique. Une seule observation négative autorise en revanche à prononcer la fausseté d’une proposition. Or rien ne prouve qu’il n’existe pas pour toute hypothèse au moins une occurrence réfutative, un « cygne noir ». Dissymétrie logique. Popper contourne le problème en remarquant que la science réfute ou bien qu’elle corrobore plutôt qu’elle ne confirme. - Identifier des différences et des répétitions, associer des idées et dresser des constats de régularité présuppose la mémoire qui enregistre l’expérience passée : « La vérité est qu’un raisonneur inexpérimenté ne pourrait absolument pas raisonner s’il était absolument inexpérimenté » (Enquête sur l'entendement humain). Pose une limite à l’empirisme qui ne peut se satisfaire des données immédiates de la perception. - Loi (ou guillotine) de Hume : on ne peut déduire le « devoir-être » (ought) de l’« être » (is). 168 - Fourche (ou maxime) de Hume (= croisée des chemins) : l’ensemble des vérités qui peuvent être formulées se distribue entre celles concernant les relations d’idées (les énoncés logiques, mathématiques, universels et nécessaires) et les relations de choses (relevant des faits, historiques, empiriques, contingents et particuliers) (Traité de la nature Humaine, Livre I). - Réhabilitation de la méthode épicurienne qui induit une loi générale d’une pluralité de faits singuliers, à l’encontre de la méthode mathématique de l’Académie, rationaliste et déductive. Hume se distancie néanmoins du réalisme d’Épicure, en prenant acte du fait que les impressions sont toujours subjectives et ne nous permettent pas de percer le voile des apparences en direction de la chose en soi = en dehors du soi. Renoncement à connaître l’essence des choses. Influence Kant : c’est la lecture de Hume qui le réveille de son « sommeil dogmatique » (leibnizien) et donne à penser une nouvelle inflexion en direction du criticisme. Mais à la différence de Kant et d’Épicure, orientation sceptique : « le doute s’accroît chaque fois que nous portons plus avant notre réflexion ». - Donc la philosophie (qui doute) s’élève contre l’instinct (qui détermine à croire). Machine à déconstruire les préjugés. Il s’agit pour le philosophe de « créer une nouvelle habitude pour détruire l’habitude ». Sachant que cette attitude est bannie de la vie courante, où nous devons feindre de croire sans croire aux « vérités » du monde. Point sur le problème de l’induction Induire, c’est dégager des lois universelles par voie d’inférence sur la base d’observations toujours uniques et singulières. Observant, par exemple, que tous les députés que nous connaissons sont corrompus ; on pourrait inférer que tous les députés sont corrompus. Ainsi procède la science (avec un rien plus de rigueur) pour établir ses lois, lesquelles ne diffèrent pas radicalement des lieux communs. Beaucoup s’en faut toutefois que l’extension ainsi réalisée de la proposition selon laquelle les députés sont corrompus (de même que les corps seraient pesants) puisse être entérinée, et prétendre à une certitude apodictique. Le prédicat « corrompu » ne se trouve pas compris dans le sujet « député » ; si bien qu’il faut en passer par 169 une expérience pour formuler un jugement synthétique. Or l’expérience ne livre qu’un échantillon d’observation. Nous n’avons d’expérience que d’un nombre limité de cas ; et rien ne garantit qu’un député honnête existe en retrait de la foule des députés véreux. C’est tout le paradoxe de l’induction : elle peut conduire l’esprit aux vérités les plus utiles ; elle peut tout aussi bien nous induire en erreur. Définition et thématisation Ce rapprochement est sans nul doute osé ; toutefois, une première intuition de l’induction pourrait être conçue dans le fameux symbole de la caverne de Platon (République, VII). Il propose une méthode (meta hodos : le cheminement, la voie parallèle) pour encadrer la démarche ascendante du philosophe s’élevant depuis les phénomènes instables et périssables aux êtres intelligibles. Méthode que le Bacon du Novum Organum opposera, quelque deux millénaires plus tard, au raisonnement syllogistique de l’Organum aristotélicien, délivré jusqu’alors ex cathedra, dans tous les sens du terme. Si, comme s’en ouvre le doyen de l’Académie, il faut partir de l'épaisseur des choses pour y mettre de l’ordre, la montée hors de la caverne n’anticipe pas sur autre chose que l'induction. Voudrions-nous déterminer le ti esti la Beauté ? Savoir ce qu’est le Beau en soi et non ce qui est beau par la Beauté ? Nous partirons de ce qui reproduit ou participe de la Beauté, donc du spectacle des existants. Non pour s’y arrêter, tel le sophiste Hippias, captif de ses illusions cosmiques, mais pour mieux remonter jusqu’à l’Idée qui seule peut faire l’objet d’une connaissance. La science est science des êtres et non science des apparaîtres. Il n’y a de ceux-ci qu’une opinion possible, au mieux une opinion accompagnée de raison (orthè doxa). La science est dialectique ; la dialectique est abstraction. Platon aussi, comme les physiologoï, chemine à sa manière vers les principes. Nous y gagnons la possibilité d’une science. Mais avec elle, inséparablement, la possibilité de l’erreur. Tout avantage a ses inconvénients. Nous l’avions suggérée tantôt : l’écueil de l’induction utilisée en guise de méthode scientifique, c’est toujours la limite de nos expérimentations. L’universel n’est pas dans l’expérience. L'expérience seule ne livre rien d'universel. Non plus que la pluralité des expériences : celle-ci 170 ne saurait valoir pour la totalité qu’on en peut faire (ou pas). La multiplicité n’épuise pas l’intégralité des cas passés, présents et à avenirs qu’il faudrait observer. S’ajoute à cela qu’en dépit des protestations de Bacon, il n’y a pas d’expérience cruciale. Rien ne s’oppose, en théorie du moins, à ce que de nouvelles observations consécutives à de nouvelles investigations viennent mettre à bas les généralités que nous comptons au rang des connaissances. Un nombre x d’observations passées conformes à une loi, si important soitil, constitue-t-il une preuve de ce que cette même loi s’applique dans tous les cas possibles ? En admettant pour les besoins de la démonstration que cette « régularité » fonctionne pour le passé, quelles raisons avons-nous de croire qu'elle vaudra à l'avenir ? On répondra avec bon sens : parce que ce qui était à venir est sans cesse devenu passé et que l'expérience que nous avons acquise du « futur passé » (Russel) a toujours confirmé la pertinence de cette régularité. Mais, de toute évidence, une telle réponse est circulaire. Si nous avons l’expérience des futurs passés, nous n’avons pas celle des futurs à venir. Ressembleront-ils au futur passé ? La question reste ouverte. Elle ruine toute certitude. Platon, si l’on en croit une anecdote rapportée par Diogène Laërce ( Vies et doctrines des philosophes illustres), avait un jour défini l’homme comme un bipède sans plume. Que vaut une telle proposition ? Il connaissait des hommes, il ne les connaissait pas tous. Que valent dès lors ses inférences ? Diogène Laërce raconte que Diogène de Sinope, ayant eu vent de cette définition, se présenta à son Académie muni d’un poulet déplumé en lui faisant valoir qu'il répondait à sa définition de l'homme. D’où l’amendement que fit Platon à sa caractérisation : « … et qui a des ongles plats ». Un pas de plus. Qu’arrivera-t-il le jour où l’homme, bipède sans plume (aux ongles plats), donnera naissance au premier homme ailé ? S’inscrire en faux contre cette hypothèse revient à refuser les théories de l’évolution et donc à faire de l’homme une espèce immuable. Le brûlera-ton, cet homme-oiseau, tel l’orgueilleux Icare, pour avoir défié nos concepts ? L’adorera-t-on, ange célicole, pour ne le pas compter parmi les hommes ? Nous avons vu des cygnes ; ils étaient blancs ; nous en avons conclu que tout cygne était blanc. Personne, pourtant, ne pouvait se vanter 171 d’avoir vu tous les cygnes. Quel ne fut pas notre étonnement lorsque nous découvrîmes des cygnes noirs en Australie ! Dernier exemple, devenu cas d’école, celui de Socrate mort. Après avoir souffert (de loin) l’exécution de son mentor, Platon croit pouvoir affirmer que tout homme est mortel. Pour être à même de valider cet énoncé, il faudrait expérimenter sa pertinence sur la totalité des hommes – ou bien cela ne serait qu’une opinion mal fagotée. Par où l’on s’aperçoit que nos savoirs induits ne sont fondés que sur un vice de raisonnement. L’erreur est virtuellement présente dans toute proposition induite. On voudrait croire qu’au moins l’opération inverse – la déduction – ne saurait être atteinte par cette épée de Damoclès. Passer du général au singulier serait logiquement moins périlleux que de passer du singulier au général, dès lors que le général comprend le singulier. Une proposition déduite ne saurait en conséquence prêter le flanc aux mêmes accusations qu’une proposition induite. En est-on sûr ? La déduction suppose en premier lieu que l’on connaisse à quelle loi générale un phénomène particulier doit être rapporté. Déduire, c’est donc déjà dans une certaine mesure homologuer une pétition de principe. Mais nous ne sommes pas au bout de nos peines : si par définition le déductif juge le particulier d’après le général, alors le déductif en-soi n’existe pas ; car il faut bien que les lois générales d’après lesquelles nous jugeons du particulier aient préalablement été induites de phénomènes particuliers. En déduisant, nous générons par conséquent, potentiellement, des fictions au carré. Si bien que l’impossibilité de garantir une induction frappe bien l’ensemble de nos jugements d’une insécurité propice au scepticisme. Résolution et dépassement Faute d'être conséquente dans l’absolu, une opération telle que l’induction peut-elle être fondé ? Et dans quels termes ? Et à quelles conditions ? Répondre à cette question suppose d’avoir effectué préalablement les clarifications nécessaires. Deux sortes d’induction peuvent être distinguées. Hume le premier les a formalisées dans son Enquête sur l’entendement 172 humain en distinguant des « relations d’idées » les « choses de fait ». Les « relations d’idée » sont du domaine du raisonnement mathématique. Elles ne relèvent pour cette raison que des principes de la logique formelle. Ne faisant pas appel à l’expérience sensible (Piaget et Poincaré ne laisseront pas de contester cette assertion), elles ne sont pas ou peu sujettes à controverse. Les « choses de fait », relevant cette fois de l’induction dite empirique, apparaissent comme de juste infiniment plus contestables. C’est de celles-ci que nous devons traiter. Le soleil se lèvera-t-il demain ? s’interroge Hume, méditatif. La question pourrait faire sourire ; on en mesure rarement toute la portée. Adam a craint la première fois qu’il vit le soleil disparaître. La formule tombe six fois dans la Genèse : « Il y eut un soir, il y eut un matin ». En ira-t-il de même à l'aube du septième jour ? Rien, nonobstant l’habitude, ne nous permet de l’affirmer. Sans l’habitude, pas d’anticipation, pas de calcul, pas de science constituée. C’est l’habitude qui, selon Hume, constitue le ressort de l’induction. Mais l’habitude elle-même n’est pas première : la conditionne cette faculté de l'imagination à percevoir une régularité dans le lacis des phénomènes. Sans cette disposition, aucune « répétition » ne produirait en nous l’illusion réductrice de l’habitude, ni, par voie de conséquence, de matière susceptible de faire l’objet d’une généralisation. Aussi, la notion de causalité, liant deux phénomènes dans une relation de cause à effet, vient a posteriori, à proportion que nous nous habituons à constater qu’une situation x prélude à une situation y, comme le jour à la nuit. Il n’y a pourtant aucune nécessité logique qui lierait telle situation x à telle situation y. Le septième jour verra le soleil se lever, non parce que le soleil se lève, mais parce qu’il s’est levé les six jours précédents. Sol invictus = sol invincibilis ? Qui peut savoir ? La solution kantienne (ou son échappatoire) pour fonder l’induction fut d’introduire des cadres de la perception innés. Il forgea dans cette intention le concept-valise de jugement synthétique a priori. Jugement dit synthétique en tant qu’il ajoute quelque chose à son objet (tous les corps sont pesants), à l’opposé du raisonnement analytique, par référence auquel le prédicat se trouve inclus dans le sujet (tous les corps sont étendus). Jugement a priori, du reste, en tant qu’il précède l’expérience. 173 Les catégories pures qui rendent possible ces jugements sculptent les cadres de la perception de sorte à adapter le donné intuitif de l’expérience sensible à la structure universelle – mais l’est-elle véritablement ? – de l’entendement humain. Nos connaissances proviennent de l'expérience, mais ne nous sont données que formatées par une tectonique de l’entendement. Le sens interne requiert un temps non relatif pour cohérer la succession de nos pensées, le sens externe un espace euclidien pour se représenter la position des choses ; à la jonction des deux naît la « causalité ». Plus tard, la découverte des géométries non-euclidiennes, des espaces riemanniens, de la courbure de l’espace-temps, de la mécanique quantique et des étranges propriétés des particules subatomiques souligneront l’inadéquation de ces cadres et catégories de la perception. C’en serait plus qu’assez pour persuader certains du caractère construit ou constitué de ces cadres de pensée. Affirmation portée à son point d’orgue par les constructivistes radicaux, qui leur évite d’avoir à se prononcer sur la question de la vérité et du réel. (Existe-t-il seulement ?) Mais il y a loin que le problème de l’induction ait été résolu par Kant. Le criticisme n’aura fait que le déplacer. Que la causalité n’appartienne pas à la structure inconnaissable de la réalité mais soit introjectée ou projetée par le sujet ne sécurise en rien ses résultats. Un changement de stratégie s’impose. Et c’est aux empiristes logiques que nous devrons ce renouveau, au prix d’un renoncement épistémologique de taille. De rigoureuse et prédictive, la science devient probabiliste avec Carnap et Reichenbach. Le raisonnement inductif se doit dès lors d’abandonner toute prétention à établir la vérité d'une proposition pour se contenter de lui conférer « une certaine probabilité », appelée « degré de confirmation » ou « probabilité logique ». L'idée rectrice étant que la répétition d'un phénomène augmente la certitude que nous avons de voir ce phénomène se reproduire. Par conséquent, le fait d’une induction n’est pas certain ; tout juste et il... probable. « Probable » n’est ni vrai ni faux, seulement plus vraisemblable, plus prévisible. On ne peut pourtant nier que la réponse des positivistes logiques paraît 174 moins constituer une solution qu’une pirouette rhétorique. Aussi, avec la reformulation des hypothèses en termes de probabilité, c’est donc la possibilité même d’un « savoir scientifique » qui vole en éclat. La science n’est plus une discipline achevée ; elle devient dynamique, précaire. Un philosophe comme Karl Popper peut alors affirmer que les théories ne peuvent plus être validées dans l’absolu, même sur la base d'un très grand nombre d'observations empiriques (La logique de la découverte scientifique). Dans le domaine de la science empirique, la vérification devrait plutôt être assimilable à une manière de corroboration. La vérité le cède à la versimilarité, précaire et dépendante de tests scientifiques, tests eux-mêmes relatifs à d'autres tests précédents, toujours améliorables, jamais définitifs. L’induction apparaît en dernière analyse comme un outil très imparfait, mais néanmoins indispensable à la constitution d’une science des phénomènes : à supposer, bien sûr, que nous ayons l’humilité de questionner consciencieusement les lois qu’une expérience ou qu’une anomalie démentent, plutôt que de plier le monde à nos lois et catégories… Jâbir ibn Hayyan (721-815) Principales contributions : - Kitab al-Kimya (Livre de la composition de l'alchimie), comprenant la « Table d'émeraude » (Tabula Smaragdina) dans sa version arabe ; traduit par Robert de Chester en 1144. - Kitab al-Sab'een (Les 70 livres), traduit par Gérard de Crémone avant 1187. - Livre du Royaume, Livre de l'Equilibre, Livre de Mercure Oriental (VIIIe siècle) Concepts et idées-forces : - Alchimiste arabe d’origine perse connue en Occident sous le patronyme latinisé de Geber. Auteur et compilateur prolifique, à l’origine d’une vaste production bibliographique. Plus de cent traités recensés à ce jour sur des sujets hétéroclites, dont vingt-deux consacrés à l’alchimie. C’est en 175 particulier son apport dans cette discipline qui influence les alchimistes européens de l’ère médiévale - Bien qu’alchimiste intimement convaincu de la possibilité de la transmutation, prend ses distances à l’égard des traditions ésotériques propres à cet art occulte. Contribue à l’acheminement de l’alchimie comme pratique hasardeuse à la chimie moderne moyennant la théorisation des réactions chimiques fondamentales que sont la cristallisation, la distillation, la calcination, la sublimation et l'évaporation, ainsi que la classification des métaux selon leur qualité (sec, humide, chaud, froid), complémentaire des quatre éléments aristotéliciens. Analyse et synthèse des corps en fonction de leurs éléments constitutifs. - Transmutation envisageable en restructurant les propriétés des métaux. Cette théorie donne à la quête de l’al-iksir, l'élixir supposé permettre ce virement, ses lettres de noblesse. Équivalent de la synthèse de la pierre philosophale, grand œuvre de l’alchimie européenne. - Représente, avant Galilée, un exemple de conciliation de la théorisation et de l’expérimentation. François Jacob (1920-2013) Principales contributions : - La Logique du vivant, une histoire de l’hérédité (1970) - « L'évolution sans projet » dans Le Darwinisme aujourd'hui (1979) - Le Jeu des possibles. Essai sur la diversité du vivant (1981) - La Statue intérieure (1987) Concepts et idées-forces : - Soutient une approche biologisante des organismes vs. l’approche vitaliste (Canguilhem et les médecin de l’École de Montpellier). - Mise au point, en collaboration avec Jacques Monod, du modèle de l’« opéron », fondée sur la notion de « programme génétique ». Décrit l’interaction des différents types de gènes et des protéines au moment de la transcription de l’ARN. Hans Jonas (1903-1993) Principales contributions : 176 - Le Principe responsabilité (1979) - Pour une éthique du futur (1990) Concepts et idées-forces : - Heuristique de la peur. Prescrit un pessimisme préventif systématique au regard des technologies. La responsabilité jonassienne est celle qui interdit à l’homme de s’engager en toute action qui pourrait compromettre ou dégrader irréversiblement l’existence des générations futures. - Se retrouve dans le droit positif français (directives communautaires, Constitution de la Ve République) sous la formule de « principe de précaution ». - S’oppose au « principe d’innovation » que d’aucuns estiment indispensable au développement de la connaissance, des sciences et technologies. Toute évolution comporte en elle sa part de risque. - Concept d’obsolescence de l’homme. S’inscrit dans la lignée de l’antiutopisme de Günther Anders, ancien élève de Martin Heidegger (pour qui « la science ne pense pas » : elle ne pense pas ses conséquences). - Arno Münster, dans son ouvrage Principe responsabilité ou principe espérance, oppose la pensée de Jonas à celle du philosophe marxiste Ernst Bloch, auteur du Principe espérance. Au conservatisme de l’un, échaudé par l’industrie des camps de concentration, s’oppose l’humanisme technophile de l’autre favorable à l’automation, à la libération de l’homme par la machine-outil. - Nouvelle actualité du « bio-luddisme » de Jonas dans le contexte des controverses autour de la bioéthique et du transhumanisme. Emmanuel Kant (1724-1804) Principales contributions : - Critique de la raison pure (1781 ; 1787) Concepts et idées-forces : - Idéalisme transcendantal, criticisme. Motif de la première Critique : restreindre les prétentions judicatives de la raison aux objets de l’expérience possible. Mettre un terme aux querelles de clocher qui font de la métaphysique un « champ de bataille ». 177 - Révolution (anti)copernicienne dans l’ordre de la connaissance. Ce n’est pas l’objet mais le sujet qui impose ses règles au phénomène. - Jugements analytiques vs. synthétiques (a priori/a posteriori). Comment des jugements synthétiques a priori sont-ils possibles ? - Esthétique transcendantale : l’espace et le temps comme formes de l’intuition sensible, la seule qui nous soit accessible ; schématisme : catégories (purs et empiriques) de l’entendement. Nécessité de combiner expérience et entendement pour la synthèse des connaissances : « De ces deux propriétés l’une n’est pas préférable à l’autre. Sans la sensibilité, nul objet ne nous serait donné ; sans l’entendement, nul ne serait pensé. Des pensées sans matière sont vides ; des intuitions sans concepts sont aveugles ». Noter que Kant n’exclut pas l’éventualité de formes alternatives de l’intuition sensible (par ex., chez d’autres espèces). Nous ne pouvons cependant nous les représenter. - Distinction phénomènes/noumènes (choses « considérées comme » en soi). Le noumène comme concept « problématique » au sens kantien, limitatif, apophatique. On ne peut rien en dire, pas même qu’il « existe » ; pas même qu’il « cause » le phénomène. Aucunes catégories ne lui est applicable. Il est un postulat de la raison critique. Préserve ce faisant contre l’accusation de phénoménisme (cf. Berkeley), notamment imputable à la première version de la Critique, justifiant le rectificatif de la seconde Préface. - Ne disposant pas d’une intuition intellectuelle qui nous ferait appréhender la chose en soi, on ne peut connaître le monde indépendamment de la manière dont il nous apparaît, sous un rapport phénoménal. Lord Kelvin (1824-1907) Concepts et idées-forces : - William Thomson, premier baron Kelvin of Largs, connu pour ses travaux en électricité, en géothermie et en thermodynamique. - Porte-parole d’une opinion présentée comme majoritaire chez les physiciens de la fin du XIXe siècle : « La physique est définitivement constituée dans ses concepts fondamentaux ; tout ce qu’elle peut désormais apporter, c’est la détermination précise de quelques décimales supplémentaires. Il y a bien deux petits problèmes : celui du résultat négatif de l’expérience de Michelson et celui du corps noir, mais ils seront 178 rapidement résolus et n’altèrent en rien notre confiance… » (Discours inaugural du XXe siècle à la Société anglaise de physique, en 1892). Cette déclaration précède de peu les deux révolutions majeures que seront la relativité et la physique quantique. - R.P. Feynman va nuancer cet état des lieux, selon lui trop précipité et caricatural : « On entend souvent dire que les physiciens dans la dernière partie du XIXe siècle estimaient connaître toutes les lois de de physique et que la seule chose importante qui leur restait à faire était de calculer quelques décimales de plus. Quelqu’un a pu dire cela une fois, et d’autres l’ont copié. Mais une lecture attentive de la littérature de cette époque montre que quelque chose les préoccupait tous ». - Formulation dite « historique » du deuxième principe de thermodynamique ou principe de Carnot généralisé, qui établit l'irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. Rupture d’avec le cadre newtonien. Récuse également l’hypothèse de moteur ou de mouvement perpétuel (surunité). - Introduction du zéro absolu en thermodynamique (−273,15°C ; inaccessible du fait de propriétés quantiques). Donne son nom à une nouvelle unité de mesure : le degré Kelvin. - Leibniz opposait à Descartes que seule, à l’occasion d’un choc entre deux corps, se conservait la force motrice ou « force vive » ( vis viva), et non la quantité de mouvement. La force vive définit ici le double de ce que Lord Kelvin va baptiser l'énergie cinétique. Johannes Kepler (1571-1630) Principales contributions : - Le mystère cosmographique (Mysterium Cosmographicum) (1596) - Astronomia pars Optica (1604) - Astronomie Nouvelle (Astronomia Nova) (1609) - Harmonices Mundi (1619) - Le Songe ou astronomie lunaire (Somnium, seu opus posthumum de astronomia lunari) (1634) 179 Concepts et idées-forces : - Contexte de superstition, en apparence peu favorable à l’émergence d’une science matérialiste glorifiant la raison. Mère accusée de sorcellerie et tante brûlée sur le bûcher. Kepler est pour sa part un fervent défenseur de l’astrologie, convaincu de l’influence de la position des astres sur l’existence humaine (sa mauvaise naissance explique son mariage désastreux et son état de santé) ainsi que sur les phénomènes météorologiques. Promu à la fonction d’astronome impérial après le décès de Tycho Brahé, reprend son œuvre. Oppose à l’astrologie populaire ou traditionnelle une astrologie savante, d’une valeur et d’une rigueur égale à celle de la physique des mathématiques ; et c’est sur la physique (l’astrophysique) qu’il entreprend de fonder cette nouvelle science avec le De fundamentis astrologiae de 1601. Contre les objections des astrologues qui s’imaginent ces disciplines comme relevant de deux sphères hermétiques, il oppose le Tertius interveniens de 1610. - De l’astronome son professeur Michael Maestlin, reçoit en marge de l’enseignement du modèle géocentrique de Ptolémée, celui de l’héliocentrisme de Copernic dont il devient le défenseur. - Trois lois de Kepler décrivant le mouvement des planètes sur leur orbite. (1) loi des orbites = trajectoire elliptique des planètes ; à rebours d’Aristote qui la tenait pour circulaire. Abandon du système des épicycles de Ptolémée. (2) loi des aires ; (3) loi des périodes. - Prodromes de la loi de la gravitation universelle : « Deux corps voisins et hors de la sphère d'attraction d'un troisième corps s'attireraient en raison directe de leur masse » (Astronomie Nouvelle). Newton s’en souviendra. - Expérience de pensée sous la forme du premier ouvrage de science-fiction : le Songe, publié à titre posthume en 1634. Décrit la perception d’un Sélénien, les variations de la pesanteur le long de l’axe Terre-Lune et entrevoit, à mi-chemin de ces deux orbes, l’état d’apesanteur spatiale. Aussi une arme de guerre en faveur de la doctrine copernicienne : « Le but de mon Songe est de donner un argument en faveur du mouvement de la Terre ou, plutôt, d'utiliser l'exemple de la Lune pour mettre fin aux objections formulées par l'humanité dans son ensemble qui refuse de l'admettre » (Le Songe ou astronomie lunaire). - Devient à Prague assistant de l’astronome danois Tycho Brahe et travaille à partir de ses observations. Le Mysterium Cosmographicum de 1596 180 confirme sa profession de foi copernicienne et tente de répondre aux trois questions du nombre des planètes, de leur distance par rapport au soleil et de leur vitesse. Il en ressort un modèle d’univers basé sur l’emboîtement de cinq polyèdres réguliers, ou solides de Platon, se comprenant les uns les autres au sein d’une structure gigogne, occupant chacun un intervalle entre les six planètes connues à son époque, de Mercure à Saturne (en incluant mal à propos le soleil et la lune). Abandon des sphères armillaires aristotéliciennes pour une architecture qui ne s’en présente pas moins comme un message adressé aux hommes. Modèle du système solaire selon Kepler Lithographie extraites du Mysterium Cosmographicum (1596). 181 - Pionnier de l’astrophysique. Kepler entreprend une recherche des causes aussi bien physiques que métaphysique des phénomènes célestes. Si bien que de son argumentation concernant l’accélération des planètes à proximité du soleil, l’historien des sciences Owen Gingerich pourra écrire que « tout cela était de la physique et, en vertu de ce raisonnement, Kepler est considéré comme le premier astrophysicien de l'histoire, appliquant des principes physiques à l'explication des phénomènes astronomiques. Maestlin ne partageait pas du tout la position de son disciple et [...] il lui écrivit : « Je pense qu'il ne faut pas laisser les causes physiques entrer en ligne de compte et en revanche on doit expliquer les phénomènes astronomiques sur la seule base de méthodes astronomiques à l'aide de causes et d'hypothèses non pas physiques mais astronomiques. En d'autres termes, les calculs exigent que l'on s'appuie sur des bases astronomiques dans le domaine de la géométrie et de l'arithmétique » (Owen Gingerich, Le livre que nul n'avait lu : à la poursuite du « De Revolutionibus » de Copernic, 2008). - L’harmonie des sphères. Thème pythagoricien, reconduit par Platon, assortissant l’astronomie à la musique. Chaque planète se trouve associée à un thème musical dans le Harmonices Mundi de 1619 ; les notes données par les variations de leur vitesse respective. Coïncide avec le triomphe européen de la musique symphonique. - Fondation de la dioptrique et mise en évidence de ses principes. Travaux sur la nature de la lumière, sur le phénomène de réfraction et de diffraction, sur l’usage des lentilles et des miroirs, sur la chambre obscure, tous rassemblées dans le Astronomia pars Optica de 1604, suivi par le Dioptricae de 1611. Kepler est convaincu que la rétine – et non le cristallin – reçoit l’image, qu’il la reçoit de manière inversée que c’est au cerveau qu’il appartient de la remettre à l’endroit. L’astronome lui-même (né, selon ses dires, sous une mauvaise étoile) est devenu presque aveugle ensuite d’un épisode de petite vérole contractée à l’âge de trois ans. Al-Khwarizmi (c.780-c.850) Principales contributions : - Livre de l'addition et de la soustraction d'après le calcul indien (825) - Abrégé du calcul par la restauration et la comparaison (830) 182 Concepts et idées-forces : - Entre le XIIIe et le XVe siècle, l’arabe était la langue des sciences. Son influence allait de l’Espagne jusqu’à la Chine. Son originalité lui fut déniée par nombre d’historiens occidentaux comme Ernest Renan au XIXe siècle, qui ne voulaient y voir qu’un moyen terme entre la Renaissance occidentale et la science grecque. Le cas représentatif d’Al-Khwarizmi apporte à cette vision européocentrée un démenti formel. Les penseurs arabes ont pleinement contribué à la révolution scientifique du XVIIe siècle, qu’il s’agisse de mathématiques, d’astronomie, de chimie ou de médecine. - À une période consacrée à la traduction et aux commentaires des papyri grecs succède une seconde phase d’innovation à laquelle appartient AlKhwarizmi, représentant de l’école de Bagdad, dont le nom allait donner le vocable « algorithme ». - Synthèse entre deux traditions mathématiques : celle des Grecs, systématisée avec les Éléments d’Euclide et les travaux de Diophante d'Alexandrie ; celle des Indiens, orientée vers les techniques de calcul. - Donne lieu à la publication en 825 du Kitābu 'l-ĵāmi` wa 't-tafrīq bi-ḥisābi 'l-Hind, ou Livre de l'addition et de la soustraction d'après le calcul indien . Comporte une description des chiffres « arabes » empruntés aux Indiens, et destinés à remplacer les chiffres romains après leur diffusion au MoyenOrient, puis dans le Califat de Cordoue, d’où ils sont importés en Occident par l’intermédiaire de Gerbert d'Aurillac (Sylvestre II). Cf. André Allard, Muhammad Ibn Mūsā Al-Khwārizmī. Le calcul indien (algorismus), 1992. - Suit en 830 la publication d’un traité de mathématiques portant sur la résolution d’équation à plusieurs inconnues, le Kitābu 'l-mukhtaṣar fī ḥisābi 'l-jabr wa'l-muqābalah ou Abrégé du calcul par la restauration et la comparaison. Le mot « 'l-jabr »/« Al-jabr » (signifiant originellement « restauration », « remise en place ») donnera « algèbre ». L’œuvre, en effet, ne contient aucun chiffre, et toutes les équations sont exprimées en lettres. - « L’événement fut crucial […] son importance n’a pas échappé à la communauté mathématique de l’époque, ni à celle des suivantes, le livre d’Al-Khwarizmi n’a cessé d’être source d’inspiration et objet de commentaires des mathématiciens, non seulement en arabe et en persan, mais aussi en latin et dans les langues de l’Europe de l’Ouest jusqu’au XVIIIe siècle » (Roshdi Rashed, Histoires des sciences arabes, 1997). 183 - Une œuvre astrologique moins convaincante. Prédit au calife une longévité d’encore cinquante années ; lequel calife passa l’arme à gauche dix jours après la prédiction. Cf. Al-Tabari, cité dans Al-Khwarizmi, L'algèbre et le calcul indien, 2013. Alexandre Koyré (1892-1964) Principales contributions : - Études galiléennes (1939) - Du monde clos à l'Univers infini (1957) - La Révolution astronomique : Copernic, Kepler, Borelli (1961) - Études d’histoire de la pensée scientifique (1966) Concepts et idées-forces : - Formation en histoire des religions qui rejaillit sur sa manière d’interpréter les grandes mutations de la science. Celles-ci traduisent des changements radicaux de conception du monde et du rapport au monde qui en découle, avec des ramifications philosophiques, pratiques, etc. - La possibilité de penser certains phénomènes est tributaire des structures mentales relatives à l’époque au sein de laquelle se meut la pensée scientifique. Les théories ne prennent sens que replacées au sein du paradigme (Kuhn) qui est le leur. On ne peut taxer d’absurdité à si peu de frais le système d’Aristote, lequel avait sa cohérence et ses propres critères de validité. Du point de vue d’Aristote, notre physique paraîtrait aberrante. - Conception discontinuiste de l’histoire des sciences. Dans la lignée de Bachelard et de Kuhn, Koyré pose que la science progresse à raison de ruptures qui présupposent un remplacement des bases métaphysiques sur lesquelles s’édifiait la science à son stade antérieur. D’où l’expression de « révolution scientifique » pour qualifier l’essor de la physique moderne au XVIIe siècle. - De part et d’autre de la fracture, Koyré s’emploie à mettre à jour les articulations majeures qui structurent les visions du monde impliquées qui, par le cosmos pré-copernicien, qui par l’univers infini s’imposant à la suite des travaux de Galilée : « J'ai essayé, dans mes Études Galiléennes, de définir les schémas structurels de l'ancienne et de la nouvelle conception du monde et de décrire les changements produits par la révolution du XVIIe siècle. 184 Ceux-ci me semblent pouvoir être ramenés à deux éléments principaux, d'ailleurs étroitement liés entre eux, à savoir la destruction du Cosmos, et la géométrisation de l'espace, c'est-à-dire : a) la destruction du monde conçu comme un tout fini et bien ordonné, dans lequel la structure spatiale incarnait une hiérarchie de valeur et de perfection, monde dans lequel « audessus » de la Terre lourde et opaque, centre de la région sublunaire du changement et de la corruption, s'« élevaient » les sphères célestes des astres impondérables, incorruptibles et lumineux ... b) le remplacement de la conception aristotélicienne de l'espace, ensemble différencié de lieux intramondains, par celle de l'espace de la géométrie euclidienne – extension homogène et nécessairement infinie – désormais considéré comme identique, en sa structure, avec l'espace réel de l'univers. Ce qui à son tour impliqua le rejet par la pensée scientifique de toutes considérations basées sur les notions de valeur, de perfection, de sens ou de fin, et finalement, la dévalorisation complète de l'Être, le divorce total entre le monde des valeurs et le monde des faits ». - Insistance sur le rôle de la mathématisation dans la révolution intellectuelle du XVIIe siècle. Comme le soutenait Tannery (voir notice), Galilée serait un théoricien autant – sinon peut-être plus – qu’un expérimentateur. Beaucoup de ses manipulations, au reste, sont demeurées (de manière avouée ou non) au statut d’expériences de pensée (la Tour de Pise, etc.). La révolution scientifique du XVIIe siècle serait avant tout consécutive à l’émergence d’une nouvelle manière de concevoir le monde, de nouvelles valeurs et de nouvelles aspirations. L’expérimentation procède de cette démarche plutôt qu’elle ne l’inspire, à rebours de l’interprétation positiviste de la genèse des sciences modernes. - Les théories sont pénétrées d’éléments extra-scientifiques, « impurs », irrationnels. Ces éléments peuvent être d’ordre esthétique (élégance d’une théorie), religieux, philosophique, métaphysique, psychologique, etc. De tels motifs sont susceptibles d’orienter la recherche bien davantage que le credo expérimental. Koyré invoque l’exemple de la dilection galiléenne pour la mystique solaire, de Newton alchimiste, etc. - Que le processus de découverte ne s’explique pas intégralement par des considérations de nature scientifique ne signifie pas que la science soit irrationnelle, gratuite ou chimérique. Des procédures de vérifications 185 sauvent les hypothèses de l’arbitraire pur. La vérification tranche en dernière instance. Thomas S. Kuhn (1922-1996) Principales contributions : - La Structure des révolutions scientifiques (1962) Concepts et idées-forces : - Œuvre maîtresse de Kuhn, La structure des révolutions scientifiques peut à bon droit être considérée comme l'une des œuvres fondatrices d'une nouvelle approche philosophique des sciences qui s'émancipe tout à la fois de la phénoménologie et de l'école analytique : l'épistémologie historique. - Conception discontinuiste de l’histoire des sciences. Prenant le contrepied de la vision classique, cumulative, anhistorique des matières scientifiques (celle qui voulait que la précision accrue et la collecte des faits rapproche les théories de la vérité (cf. Popper et la notion de « versimilitude »)), Kuhn démontre le caractère discontinuiste du progrès des sciences. La science n'est pas un long fleuve tranquille ; elle est un torrent agité par des transformations dont le caractère destructeur est évincé des médias de la science. La science avance par « sauts quantiques », par ruptures successives. Fait un sort à l’idée bachelardienne qu’une théorie remplacée englobe celle qui la précède ; ainsi de la dynamique newtonienne présentée comme un cas particulier, confiné à un espace-temps de courbure nulle, de la physique relativiste d’Einstein. - Approche externaliste du développement des sciences. La formation des connaissances ne peut être étudiée de manière autiste, « cognitiviste », abstraction faite des déterminations sociales/religieuses/idéologiques et du contexte de l’époque. Une conception externaliste de l’histoire des sciences avait déjà été théorisée dans les années 1920 et 1930 par des penseurs et historiens influencés par le marxisme, tel que Nikolai Bukharin (1922), Boris Hessen (1931) et John D. Bernal (1939). - Nécessité de contextualiser les textes scientifiques. La structure des révolutions scientifiques, ne paraît pour la première fois qu'au tournant de l'année 1962 ; mais c'est en 1947, quinze ans auparavant, que le jeune homme, étudiant ès physique, pose les premiers jalons d’une théorie qui 186 restera pour la postérité comme l'acte de naissance de l'épistémologie historique. Quoiqu’engagé dans une étude disciplinaire des sciences, il s’intéresse bien vite à leur histoire. Il interrompt de fait son programme de recherche pour préparer un cycle de conférences interrogeant les origines de la mécanique du XVIIe siècle. Son travail liminaire le conduit à s'intéresser de près aux précurseurs de Galilée et de Newton – et donc, de loin en loin, à la physique aristotélicienne. Comme la plupart des historiens des sciences, il concevait alors le processus de translation d'une physique à l'autre sous le régime de l'accumulation. Or, d’évidence, la physique d'Aristote n'avait rien de commun avec celle de Newton. Cette tradition ne pouvait vraisemblablement pas constituer une carrière exploitable pour les travaux de Galilée et de ses successeurs : ils durent la rejeter, en bloc, méthodes et contenus, et reprendre à la source l'étude des corps et du mouvement. Comment, cela étant, les qualités d'observateurs du Stagirite avaient-elles pu lui faire à ce point défaut ? Plus étonnant encore, comment ces conceptions (nonobstant leur fusion, via Saint-Thomas, dans le giron de la théologie, et donc leur tribune universitaire) ont-elles pu dominer sur la scène scientifique pour une si longue période ? En tentant de répondre à ces questions, l'auteur fait l'expérience d'une manière inédite de lire un corpus scientifique. C'est en les replaçant dans leur contexte doctrinaire, plus largement, au sein de ce que Foucault appellera leur épistémè, que ces textes font sens. Les théories qui s'y rencontrent, les « erreurs d'Aristote » acquièrent dès lors une véritable cohérence qui nécessite, pour être découverte, d'épouser un autre point de vue. Le terme de « point de vue » acquiert de fait un sens épistémologique. Fort de cette découverte, l'auteur s’attèle à l'étude d'autres physiciens tels que Boyle et Newton, Lavoisier et Dalton, Boltzmann et Planck ou enfin Copernic, auquel il consacre un essai. La structure des révolutions scientifiques se présentera comme la synthèse de ces années de réflexion. - Notion de paradigme. Du grec ancien paradeïgma, « modèle », « exemple », issu du verbe paradeiknunaï, « montrer », « comparer ». Kuhn le recycle en un sens différent de celui de Platon (cf. République, Timée) pour désigner le cadre de pensée au sein duquel évolue une communauté scientifique. Le paradigme se compose de l’ensemble des postulats, des croyances et des points d’accord partagés par la science institutionnalisée. Son efficace épistémologique est de nature prescriptive et normative autant que 187 descriptive. Le paradigme oriente l’attention des chercheurs en direction de problèmes bien déterminés et définit les règles selon lesquelles ils doivent être traités. C’est à son aune qu’est évaluée la pertinence des interrogations, des méthodes et des solutions finalisées à la résolution de ces problèmes. Cela en dépit du fait que le paradigme puisse fonctionner à l’exclusion de la conscience qu’en ont les scientifiques. - Science normale et science extraordinaire sont décrites comme les deux régimes d’élaboration de la science : (1) La première phase est la plus longue et voit les scientifiques tenter de raffiner le paradigme dominant sans chercher à le remettre en cause. « Normale » s’entend au sens de normatif et de majoritaire. En période de science normale, un groupe de scientifiques établit une manière commune de penser un ensemble de problèmes autour duquel se focalise leur attention : un paradigme. Ce paradigme représente l'orientation commune des pensées et de préoccupations du groupe ; un groupe qui se consacre exclusivement à la résolution des énigmes posées par ce même paradigme. La méthode du chercheur n’est donc plus inductive (ainsi chez les positivistes), ni hypothético-déductive (comme le voulait Popper). Elle consiste principalement à faire rentrer des phénomènes récalcitrants dans des cadres établis. Posture conservatrice. - Il arrive cependant que des énigmes particulièrement revêches résistent à toutes les tentatives que déploient les chercheurs pour les dissoudre dans la théorie. Elles prendront le statut d'anomalies. Partant, la découverte des anomalies fait apparaître les défaillances du paradigme de la science normale, en révèle les limites aussi bien théoriques que méthodique et appelle son renversement. C'est là, dans cette situation critique, que Kuhn fait résider l'origine des révolutions scientifiques. La mise à jour d’obstacle externe conduit dès lors, avec le temps, à souligner l’insuffisance de ce paradigme. S’installe une atmosphère de crise dénotative de l’imminence du du basculement dans la science extraordinaire. (2) La science extraordinaire est l’affaire d’un ou de plusieurs groupes détachés de la communauté scientifique mainstream. Fractions en dissidence qui tentent d’élaborer un paradigme plus satisfaisant en vue de remplacer l’ancien ; un paradigme qui fera des anomalies jusqu’alors rencontrées des cas particuliers d’une théorie embrassant davantage de phénomènes. Aussi bien du point de vue scientifique que du point de vue 188 social, il s'agit d'une étape censément destructive et non cumulative. L’histoire des sciences dépeintes par Kuhn se caractérise par cette alternance de longues phases de science normale et de brèves phases de science extraordinaire. Elle est scandée par des révolutions. La résorption des crises s’opère à la faveur de l’adoption d’un nouveau paradigme et signifie le retour à une phase scientifique normale. - Crise scientifique. Issue du grec krisis, elle associe les notions de décision et de jugement. Désigne en langage médical la phase paroxystique d’une maladie, une mutation brutale ou une tension appelant une décision urgente. Elle précède un changement d’état qui peut se traduire chez Kuhn par une « révolution » – autre notion reprise du domaine de l’astronomie pour être transposé à celui de la politique, puis de l’épistémologie. L’entrée en crise du paradigme dominant peut être due à la révélation et à la progressive accumulation des anomalies. Est qualifiée d’anomalie un phénomène qui ne se laisse pas réduire cadre explicatif de la théorie standard ; qui nécessite par conséquent d’autres outils pratiques et théoriques. De tels outils sont fournis par un paradigme alternatif en germe, issu des tentatives des scientifiques hétérodoxes (souvent de la jeune génération) pour surmonter l’insolvabilité du paradigme faillitaire. Son adoption signe la fin de la crise scientifique… et le début d’une autre. - Cécité aux anomalies. L’auteur, en effet, a bien conscience, pour s'être intéressé à la psychologie cognitive, et notamment à l’expérience de Bruner et Postman, que l'on ne repère bien dans la réalité que ce que l'on s'attend à y trouver. Un paradigme peut être un outil heuristique aussi bien qu'une œillère. En s’appuyant sur des travaux de psychologie, Kuhn montre que les hommes de science peuvent être victimes d’hallucinations négatives. L’attente créée par l’adhésion au paradigme (la pro-tension) empêche de voir les faits contradictoires. (Exemple des jeux de cartes.) Il y a, outre cette résistance naturelle au changement, le fait qu’un paradigme et, à plus forte raison, une théorie, ne saurait être abandonné ensuite de sa réfutation (quoique le holisme épistémologique rende plus que problématique une telle opération). Quand bien même elle serait en butte à des observations contradictoires, elle sera conservée jusqu’à ce que lui soit désignée une remplaçante, et que cette remplaçante ait récolté une majorité de suffrage dans la communauté des sciences. Contra le réfutationnisme de Popper. 189 Exemple du modèle standard, de la physique quantique et de la physique relativiste qui n’expliquent pas les singularités. - Changement de paradigme. La subversion du paradigme dominant s’analyse comme un processus social, en partie mimétique. L’explication de ce processus requiert une sociologie d’un microcosme scientifique traversé par des forces contraires, des doutes et des oppositions et des luttes de pouvoir. D’une communauté en proie aux campagnes d’influence et de dénigrement des uns, à l’exclusion des autres qui forment leurs propres écoles au sein parfois d’une même discipline, chacune considérant le monde au prisme de son paradigme de manière autistique ou conflictuelle. Les incompréhensions mutuelles tiennent à l’incommensurabilité des paradigmes qui structurent des langages et des mondes différents. - Révolution scientifique. Elle s’opère lorsque la communauté scientifique en butte à l’accumulation des anomalies, afin de surmonter la « crise », se résout à abandonner le paradigme ancien pour adopter un paradigme nouveau. Connotations astronomiques puis politiques. Le terme de « révolution » est tout sauf anodin. Il laisse entendre, de par cette dernière acception, qu'une crise déchire le milieu scientifique. Les spécialistes se divisent entre deux groupes dont l'un tente coûte que coûte de préserver le paradigme ancien ; et l'autre de le remplacer, insistant pour ce faire sur la caducité de ce dernier. - Résorption de la crise. La résorption de la crise advient lorsque l'un des groupes en présence parvient à convertir les autres groupes à sa propre vision. Cette conversion conduit la société des scientifiques à délaisser les anciennes façons de poser les problèmes pour adopter une nouvelle méthodologie et de nouveaux outils. Avec l'établissement d'un nouveau paradigme sa voie d’institutionnalisation, s’engage alors la dernière phase de la révolution scientifique. Le processus de science normale est relancé, avec l'activité qui le caractérise : la résolution des énigmes que ne laisse pas de faire apparaître le nouveau paradigme. - Pertinence relative de l’interprétation kuhnienne concernant l’état de la physique contemporaine. Il semble que la recherche fondamentale se soit engagée depuis la seconde moitié du XXe siècle dans une période de crise dont elle ne s’est toujours pas relevée. Régime que l'on peut à bon droit qualifier être celui de la science extraordinaire. Or, la concurrence entre deux théories, deux paradigmes – en l'occurrence la mécanique quantique 190 et la relativité générale – n'a pas abouti, comme tout lecteur de Kuhn s'y serait attendu, à une révolution, à un changement de paradigme. Les deux écoles coexistent l'une avec l'autre, deux lois statuant sur deux domaines ou deux échelles distinctes comme la double physique d'Aristote opposait le monde supra-lunaire et le monde sublunaire. En somme, cette situation ressemble davantage à celle de la pré-science, où cohabitent une multiplicité d'école parlant différent langages et vivant dans différents mondes, qu'à celle de la science extraordinaire ou de la science normale. Vint le modèle standard avec son lot d’énigmes, prétendant subsumer les deux physiques. Entreprenant aussi de corriger les apories du modèle standard, les théories les plus actuelles tentent une autre forme de conciliation entre ces deux physiques – ainsi de la théorie quantique relativiste des champs, de la théorie des cordes ou de la théorie quantique à boucles. D'autres approches plus marginales foisonnent sans pouvoir être ni infirmées, ni démontrées. Aucune ne se révèle capable de résoudre les énigmes posées par les deux précédents paradigmes (physique quantique et relativité générale). Si l'une ou l'autre venait à s'imposer, ce ne serait donc pas sur des bases rigoureuses, rationnelles, théoriques, mais bien effectivement en l'emportant l'adhésion des savants pour des raisons de commodité. - Changement de vision du monde, ou « Gestalt Switch », en référence aux théories de la psychologie de la perception ou de la forme (Gestalt). Ce basculement de perspective – analogue à celui décrit par Wittgenstein, commentateur après Gombrich de l’image du « canard-lapin » de Joseph Jastrow (voir vignette infra) ; analogue à celui que requiert, chez Herder, la transition entre les langage-mondes – Kuhn en conçoit une première formulation dans le courant Gestalt psychology, la théorie de la forme, sous la plume de Franz Brentano. Il en décèle d'autres modalités dans le discours structuraliste, dans la linguistique, dans la sociologie, dans la philosophie (e.g. chez Nietzsche) ou dans l'épistémologie (e.g. chez Duhem et Koyré). C'est donc principalement aux sciences humaines que Kuhn emprunte la matière de sa thèse, celle-ci posant « l'incommensurabilité des paradigmes » ; thèse qu'il applique à la constitution des sciences de la nature. - Analogie avec la figure du canard-lapin analysée par Wittgenstein (Remarques sur la philosophie de la psychologie). Le sujet décrit soit un canard, soit un lapin ; jamais les deux ensemble. Les représentations se 191 suivent ; elles apparaissent de manière alternative et non simultanée, bien que l’ensemble des traits (assimilables aux data sensorielles) soient demeurés les mêmes. De manière analogue, le paradigme est un point de vue qui détermine un regard spécifique sur la nature. Aussi sa modification, sans rien changer au monde, implique un changement de monde. Illusion du canard-lapin (Kaninchen-Ente) Publié dans le journal satirique Fliegende Blätter du 23/10/1892 - On constate en dernier ressort que les révolutions scientifiques et les changements de paradigmes qui leur sont liés produisent à tout le moins trois ordres de bouleversement. Transformation, en premier lieu, dans le regard du scientifique. L'instauration d'un nouveau paradigme a également des retombées sur la société des sciences, en cela qu'elle remet en question l'expertise des tenants de l'ancien paradigme, les réseaux et méthodes constitués par eux, et donc, si l'on suit jusqu'au bout le raisonnement de Kuhn, leur légitimité. Aussi, les composantes sociologiques d'une révolution scientifique ne sont pas moins cruciales que ses aspects strictement scientifiques. C'est en effet seulement parce qu'un effectif suffisant de spécialistes commence à croire à une hypothèse que celle-ci acquiert un statut scientifique. La troisième conséquence de la thèse de Kuhn est d'ordre épistémologique. La science ne se constitue pas par inductions, non 192 plus que par hypothèses et réfutations, mais principalement par « convention ». Exeunt Hume, les Compte et le cercle de Vienne, Popper et sa réfutabilité : loin d'être linéaire et rationnelle, la science acquiert irrémédiablement et en dépit de Kuhn lui-même, un caractère relativiste. - Cela suppose un acte de conversion de nature quasi-religieuse, ainsi qu’une propagande intense et efficace de la part de la minorité tentant de faire adopter son paradigme (sur la notion de « propagande », cf. notice Feyerabend). Omniprésent chez Kuhn est le lexique de la religion, transgression lourde de sens dans un domaine – l’épistémologie – qui trop souvent se définit de manière négative et réactive comme l’antithèse (ou l’antidote) à la croyance. Éloquente, à ce titre, cette remarque d’Étienne Klein : « La science est aujourd’hui installée. […] Nombreux sont ceux qui pensent qu’elle ne tolère qu’un seul type de discours et ne propose qu’une seule vision du monde. Ils n’imaginent pas qu’il puisse y avoir en son sein des inflammations ou des divergences durables. […] Devenue en même temps honorable et autoritaire, la science joue aujourd’hui un rôle analogue à celui qu’ont tenu dans le passé la théologie et la philosophie. […] Avancer qu’un fait a été scientifiquement prouvé, n’est-ce pas en interdire la contestation ? […] Mais c’est loin d’être le cas. La science n’est pas donnée d’emblée. […] Tout ne se laisse pas voir. […] Plutôt que de s’exhiber dans la clarté de l’évidence, l’univers préfère dérober ses lois, ses manières et ses rouages derrière de larges pans de ténèbres » (Conversations avec le sphinx. Les paradoxes de la physique, 2014). Pour peu que l’on s’attarde avec un tant soit peu de rigueur et d’honnêteté sur l’histoire de la science, force est de constater qu’elle obéit à des schémas sociologiques semblables, pour ne pas dire identiques à ceux de la religion. Il n’est nullement besoin d’évoquer le scientisme du XIXe siècle ou un certain transhumanisme actuel pour exciper l’analogie. Non plus que le pouvoir spirituel que la science revendique ainsi que la cléricature de ses prêtres, organisés en corps gardien de la doctrine. Contentons-nous de remarquer comment du paradigme dominant va naître une hérésie, de la même manière qu’un dogme dominant porte en lui-même sa déviation. À cette différence près que les dogmes religieux ont une plus grande capacité 193 de coexistence et de résilience (ex : le catholicisme le protestantisme, le sunnisme et le chiisme, le bouddhisme du grand et du petit véhicule, etc.). - À l'appui de cette thèse, il est utile de remarquer que Kuhn envisage la science non seulement comme un système de croyances parmi d'autres (les paradigmes sont également un ensemble de valeurs et de croyances), mais comme un système de croyances de nature religieuse, particulièrement sectaire du reste, puisqu'il génère des « adeptes » inconditionnels, des « résistances acharnées », des « conversions » spectaculaires. Le parallélisme se transforme en identification. L'ensemble de ces attitudes ne sont pas motivées par des convictions qui pourraient être, à la base, de nature scientifique : Kuhn prétend au contraire que de telles adhésions peuvent être complètement irrationnelles, fondées sur l'esthétisme ou l'élégance d'une théorie. Il soutient, par exemple, que l'adoration du soleil aurait contribué à faire de Kepler un adepte de Copernic. Bachelard ne dit pas autre chose lorsqu'il constate la dilection des alchimistes et des Anciens envers certains des éléments (le feu, l’eau, etc.). Aristarque de Samos, IIIe siècle avant J.-C., défendait l’hypothèse héliocentrique ; mais « nul, sinon l’écho, ne répondait à [s]a voix ». - Souligne l’inscription sociale de l’activité, traversée de conflits et de rivalités ; met en lumière l’hétérogénéité de ses motivations et sa part de subjectivité. Ouvre une brèche dans laquelle s’engouffre Feyerabend. Et l’auteur de conclure que la décision d'adhérer à un nouveau paradigme « ne relève bien souvent que de la foi ». La science apparaît donc, dans le portrait qu'en a brossé Kuhn, comme une forme de théologie particulièrement rigide ; ce que l'auteur affirme explicitement à plusieurs reprises : « Cette formation est étroite et rigide, plus sans doute que n'importe quelle autre, à l'exception peut-être de la théologie orthodoxe » (La structure des révolutions scientifiques). - Outre la religion, Kuhn se saisit de l’image des idéologies en lutte pour rendre compte de cette guerre de tranchées que se livrent les scientifiques. En lieu et place des orthodoxes et des hérétiques, des fidèles et des schismatiques, des croyants et des apostats peuvent être utilisés les métaphores des conservateurs et des progressistes, des conformistes et des dissidents, des traditionalistes et des modernistes. - Le basculement d’un paradigme à l’autre ne procède pas de la réfutation de celui-là, mais de l’avantage comparatif admis de celui-ci. Le progrès est 194 relatif. Aucune théorie n’est sans inconvénient, il n’y a pas de « bonne solution » : que des mauvaises… mais certaines moins mauvaises que d’autres. Exemple du passage, au début du XVIIe siècle, de la physique aristotélicienne à la physique newtonienne, puis au XXe siècle, de la physique newtonienne à la physique relativiste. - Approche socialisante et psychologisante du changement ou de la conservation des paradigmes. La science est le résultat de processus complexes, entremêlant passion et rationalité. En période de science extraordinaire, le choix entre les nouvelles théories concurrentes est compliqué par des critères psychologiques. Les arguments rationnels seuls ne suffisent plus à convaincre les groupes de scientifiques du bien-fondé d'une théorie. D'une part, parce que l'attachement aux théories est tout autant affectif que rationnel. Ensuite, parce qu'il existe une difficulté inévitable à porter des jugements rationnels en dehors du cadre de la science normale. - Incommensurabilité des paradigmes. L'œuvre de Kuhn met en avant l'impact des révolutions sur le groupe qui les subit, notamment en termes de vision du monde et d'approche des problèmes. Il souligne alors l'incompatibilité des paradigmes concurrents, leurs incommensurabilité, en raison principalement des différences de langage et de schémas de pensée. Un même concept peut renvoyer à de sens différents (exemple de l’atome), et les propositions émises dans le cadre de chaque paradigme ont une signification irréductible. Visions du monde hétérogènes, mondes différents. Il n’y a pas, du reste, de position de surplomb qui permettrait de mettre en balance l’hypothèse de l’un et de l’autre (on est toujours situé, engagé par un paradigme ; même état de fait que dans la traduction : cf. l’instabilité de la référence chez Quine). Aussi faut-il souvent compter avec l’écueil de la rupture de communication entre les différents groupes de scientifiques qui œuvrent avec leur propre paradigme en régime de science extraordinaire, chacun usant de son proto-langage pour défendre sa théorie, langage porteur d’une Weltanschauung différente et par définition, incommensurable avec les autres. - S’inspire des travaux de Norwood Hanson pour démontrer qu’un énoncé d’observation n’est jamais d’observation pure, et n’a de sens qu’en rapport à un cadre théorique particulier. Thème de l’équivalence des hypothèses et du holisme de la signification. 195 - Kuhn relativiste ? L’exemple du canard-lapin, bistable et réversible, prouve que l’on ne peut considérer ensemble et simultanément deux conceptions du monde, deux visions d’un même fait. Il n’y a pas de position de surplomb. Il n’y a pas de neutralité. Il n’y a pas d’objectivité. Pas de point de vue de Sirius. Et c’est toujours d’après un paradigme que l’on juge d’un autre paradigme – en le dénaturant. Car il n’est pas de commune mesure entre les paradigmes qui présentent chacun leur réalité, leur monde à part entière. Les paradigmes, tranche Kuhn, sont incommensurables (cf. Anouk Barberousse, Max Kistler, Pascal Ludwig, La philosophie des sciences au XXe siècle, 2000). Cet état de fait pose une réelle question sur le rapport entre nos représentations (qui ne sont plus représentables) et la vérité (si cette notion possède encore un sens), sur le rapport entre nos modèles théoriques et la réalité qu'elle prétend exprimer, sur la manière dont s’impose une théorie, indépendamment des faits – qui sont souvent des faits construits d'après la théorie. Le problème nous ramène directement à des considérations de nature constructiviste et relativiste. Est-ce à dire que la science ne progresse pas ? Que toutes les opinions se valent ? Que ces systèmes de signifiants que sont les paradigmes disposent d’une égale légitimité ? Que les états de la science ne sont que des chartes adoptées par les scientifiques, conventionnelles et réversibles à souhait ? La conception discontinuiste et révolutionnaire plutôt que réformiste du devenir de la science est-elle hostile à toute idée de continuité et d’évolution ? La métathéorie épistémologique de Kuhn semble prêter à une semblable accusation. Mais il y a loin de la coupe aux lèvres. - Relativisme à relativiser. Kuhn se défend corps et âme contre l'imputation de relativisme à laquelle son épistémologie historique semble conduire inévitablement. Les paradigmes se succèdent, et ils sont incommensurables. Comment comprendre, dans ces conditions, la notion de progrès ? Le risque est de schématiser jusqu’à défigurer une théorie de beaucoup plus complexe que la critique de ses détracteurs (principalement : les réalistes et les positivistes). Si l’on admet que les paradigmes ne peuvent être comparés immédiatement entre eux, reste la possibilité de déterminer leur plus ou moins grand intérêt à l’aune des critères de choix rationnel. Un paradigme embrassant davantage de phénomènes, plus simple et plus fécond, a de plus fortes chances d’être préféré. Relativise le relativisme épistémologique dont on a accusé l’auteur. Le paradigme du paradigme ne récuse pas 196 nécessairement l’idée de progrès scientifique. Aussi le « temps » scientifique envisagé par Kuhn se pense-t-il plus pertinemment sur le modèle de la spirale croissante que sur celui de la boucle (ou de la ligne droite). - Deux sortes de progrès. Il faut, selon l'auteur, insister sur le fait qu'il s'agit là d'une nouvelle conception du terme. Il ne s'agit pas tant d'un progrès vers la vérité ou vers la consolidation du paradigme, comme en période de science normale, que d'un progrès des sciences en tant qu'elles s’acheminent progressivement vers un nouveau paradigme, plus consistant, plus vaste. C'est le progrès propre aux révolutions. Un progrès relatif, et non dans l'absolu ; ni cumulatif, ni objectif comme on se le représente depuis l'Antiquité. - Il peut être opportun d'ajouter une remarque, à tout ce qui vient d'être dit. Kuhn intitule ce chapitre « La révolution, facteur de progrès ». Nous avons établis que la connotation politique de ce terme de « révolution » n'était pas anodin. Un simple regard jeté sur l’actualité internationale récente nous convaincra que les révolutions ne sont pas nécessairement garantes de progrès. Une attention portée à notre histoire nous rappellera que les révolutions ne préparent pas toujours des lendemains qui chantent. La controverse entre Camus et Sartre est emblématique à cet égard. Il y a aussi des « révolutions, facteur de régression ». Au nom de quoi en irait-il différemment dans le domaine des sciences ? - Science et non-sciences. Cette conception nouvelle du progrès scientifique pose d’une autre manière la question du relativisme. En décrivant l'histoire des sciences comme une succession de paradigmes incommensurables, elle rend impossible, d'un point de vue scientifique, la partition entre science et pseudoscience. Thomas Kuhn liquide ainsi les critères antérieurs fondés sur l’induction, le déterminisme ou la réfutabilité. Deux scientifiques promouvant deux paradigmes différents vivent simplement dans deux mondes différents. Ce qui revient, à peu de choses, près à nier que la science fut autre chose qu'un artifice social, une croyance plus ou moins arbitraire, au même titre que le mythe ou la religion. C'est cette thèse, transparaissant en filigrane dans La structure des révolutions scientifiques, qui permettra à Feyerabend de déclarer dans Contre la méthode que « la science est beaucoup plus proche du mythe qu’une philosophie scientifique n’est prête à l’admettre ». 197 - On pourrait résumer en trois axes majeurs les changements apportés par la lecture de Kuhn à l’épistémologie classique : (1) Son principal apport serait d'avoir réintroduit, à l'instar de Bachelard, Canguilhem et Koyré, la notion d'historicité dans le domaine des sciences. Cela, alors même que l'on croyait la science, depuis Platon, être la connaissance des fixes et des êtres éternels. Le développement des sciences ne relève pas d'un simple processus de sédimentation ou d'accrétion des connaissances, mais d'une « révolution » ; soit une transformation de l'imaginaire scientifique, transformation du monde dans lequel évoluait ce travail scientifique. (2) Kuhn confronte également les sciences à la question du relativisme à laquelle elles avaient échappée jusqu'ici. La science, auparavant, était jugée « par-delà bien et mal » ; on la croyait sans fin(s), ou pour reprendre la formule Heidegger – « la science ne pense pas » – sans intentions, n’interrogeant ni ses prémices, ni ses conséquences. (3) Kuhn substitue enfin à la réfutabilité, au critère Poppérien sur lequel repose la démarcation entre science et métaphysique, un problème de nature sociologique : est reconnu comme science ce qui parvient à se faire accepter – parfois indépendamment des considérations rationnelles – par une communauté. - Portée auto-prédicative. L’œuvre de Kuhn introduit une rupture radicale dans la manière de penser la dynamique du progrès (?) scientifique. Peut être considéré comme un changement de paradigme en épistémologie. Imre Lakatos (1922-1974) Principales contributions : - Preuves et Réfutations : Essai sur la logique de la découverte mathématique (1976) - Histoire et méthodologie des sciences (1978) Concepts et idées-forces : - Programme de recherche scientifique (PRS). Ensemble d’hypothèses rectrices administrant la science à un moment donné. Opère une conciliation-synthèse entre le réfutationnisme de Popper et la conception 198 paradigmatique de Kuhn. Est néanmoins soucieux, selon ses dires, de contourner l’écueil relativiste. - Tout PRS est composé d’un « noyau dur » et d’une « ceinture protectrice ». Le noyau dur, cœur du programme, est constitué par des thèses inviolables. La ceinture protectrice est en revanche agglomérée d’hypothèses auxiliaires susceptibles d’être modifiées en cas de démenti expérimental, de sorte à préserver intact le noyau dur. - Est « progressif » un PRS donnant lieu à de nouvelles découvertes ; stérile, il est dit régressif ou « dégénérescent ». Un programme dégénérescent, au pied du mur ou acculé, se trahit par le recours aux hypothèses ad-hoc. - Contre Popper (auquel il succédera en 1969 à la tête du département de philosophie de la London School of Economics), Lakatos oppose qu’un PRS peut être saturé d’anomalies sans être abandonné. Un PRS peut suivre son chemin en rejetant par-devers lui les éléments contradictoires. La démarche scientifique n’est pas d’abord réfutative. Le serait-elle, nous ne disposerions plus d’aucune théorie. - De fait, un programme régressif à une époque donnée peut devenir progressif ultérieurement ensuite de son réaménagement ou de nouvelles observations. On ne peut savoir a priori quel PRS s’avérera fécond avant de l’avoir suffisamment sophistiqué (développement d’un formalisme ad hoc, des instruments de mesure, des protocoles de recherche, etc.). Jean-Baptiste Lamarck (1748-1836) Principales contributions : - Recherches sur l’organisation des corps vivants (1802) - Philosophie zoologique (1809) Concepts et idées-forces : - Lamarck (Jean-Baptiste de Monet) prête à la « biologie » (terme introduit par le géographe T.G.A Roose en 1797) son acception de « science des corps vivants » : « Tout ce qui est généralement commun aux végétaux et aux animaux, comme toutes les facultés qui sont propres à chacun de ces êtres sans exception, doit constituer l'unique et vaste objet d'une science particulière qui n'est pas encore fondée, qui n'a même pas de nom, et à 199 laquelle je donnerai le nom de biologie » ( Recherches sur l’organisation des corps vivants). - Théorie du transformisme. En partie inspirée par les philosophies de l’histoire. Les organes se développent ou s’atrophient en vertu du principe d’usage/non-usage. Contra les théories fixistes, créationnistes catastrophistes (Cuvier), en faveur à l’époque. Infléchissement qui suit le passage entre les années 1790 et les années 1820 d’une conception dixhuitièmiste statique des sciences du vivant, à une vision plus dynamique de ces dernières, triomphante au XIXe siècle. - Philosophie zoologique paraît l’année de la naissance de Darwin (1809). Darwin prend connaissance de ces thèses à travers une présentation critique de Charles Lyell : Les principes de géologie. - Deux mécanismes complémentaires à l’origine de ces transformations. Le premier donne lieu à la complexification graduelle des formes du vivant, se pourvoyant d’organes et de fonctions nouvelles aux attendus d’une dynamique interne due à leur organisation. Articulé au précédent, le second mécanisme donne lieu à la diversification des formes du vivant sous l’aiguillon de facteurs contextuels, circonstanciels qui tiennent à des impératifs vitaux. Il donne à voir la dimension adaptative de l’être vivant, organisé autour du principe d’usage/non-usage, en tant qu’il se trouve confronté à des défis environnementaux. Soit sa capacité à « se créer » un corps viable, au sens « physique » du terme ; à « modifier ses normes » pour composer avec les contraintes liées à son milieu de vie (cf. l’exemple paradigmatique est souvent caricaturé du cou de la girafe). - Micro-évolutions ; vs. le saltationnisme ou la macro-évolution d’Hugo de Vries et de Thomas H. Morgan. Vs aussi la théorie des équilibres ponctués de Niles Eldredge et de Stephen Jay Gould. - Lamarck postule ainsi l’indexation des modifications des organismes sur des pressions cumulatives induites par les individus eux-mêmes en fonction de leurs besoins, de leur activité. Détrompé par Darwin pour qui la nécessité naturelle recrute aveuglément les variations imprévisibles adaptées à l’environnement, du fait de l’avantage comparatif que ces variations prêtent aux individus, devenant davantage susceptibles de se reproduire. Le transformisme de Lamarck méconnaît en effet les mécanismes de la sélection naturelle. Le darwinisme, contrairement au lamarckisme, n’engage aucune manière de finalisme dans l’occurrence des 200 variations : celle-ci ont lieu, puis se révèlent ou non viables en fonction du milieu au sein duquel les organismes ont vocation à composer. Les mutations selon Darwin ne sont pas dirigées dans leur procès d’apparition ; elles procèdent d’une « loterie » sanctionnée a posteriori. L’évolution selon Darwin n’est pas, au reste, soumise à une nécessité pratique et théorique de complexification. - Acquisition de caractéristiques physionomiques par suite transmises à la génération suivante, qui à son tour perfectionnera ou se déprendra progressivement de ces caractères en fonction des pressions de survie. Thèse de l’hérédité des caractères acquis. Quoique Lamarck lui-même n'ait jamais employé cette expression. Si la notion est sous-jacente, s’inscrivant en aval d’une réflexion dont les prémices remontent à Aristote, elle ne sera thématisée qu'après sa mort pour lui être attribuée de manière apocryphe. Thèse qui semblait disqualifiée depuis la publication des études du biologiste allemand August Weismann en 1883 constatant la séparation des cellules germinales et somatiques. Elle est toutefois en passe d’être en partie réactivée en ce qui concerne les phénomènes liés à l’épigénétique. Quoiqu’il en soit du génome en lui-même, les déterminants de son expression au sein des cellules somatiques ne peuvent être dissociés du patrimoine transmis par les gamètes. - Soutient la génération spontanée des premiers organismes vivants microscopiques. Thèse réfutée par Pasteur (bien qu’ayant falsifié ses résultats). Réfutation qui laisse néanmoins entière la question de savoir comment le vivant a pu émerger à partir de l’inerte, de la chimie du carbone. - Le temps nécessaire aux modifications et à la formation de nouvelles structures organiques transmises s’étale sur des durées qui battent en brèche la chronologie biblique fixée par l’archevêque irlandais Usher. La création remonte pour ce dernier à 6000 ans ; Lamarck repousse son origine à 900 millions d’années. - Le lamarckisme, dans la deuxième moitié du XIXe siècle, n’est qu’un courant de l’évolutionnisme, à côté du mutationnisme, de l’orthogenèse, du darwinisme et du néodarwinisme. Mais c’est le principal et c’est à lui, et non au darwinisme qu’est alors associé spontanément le vocable de « théorie de l’évolution ». 201 Point sur l’épigénétique L’intérêt scientifique de la génétique n’est plus à démontrer. Mais le toutgénétique prônée par une certaine vulgate ne rend que mal justice à la complexité des phénomènes biologiques. Nous entendons ici traiter de l’épigénétique comme étant l’un de ses incontournables compléments. Les limites de la génétique Laissons au philosophe, généticien et épistémologue Jean-Jacques Kupiec le soin de préciser dans quel contexte et à quelle carence théorique répond historiquement l’apparition de ce domaine de recherche : « Depuis l'Antiquité, les théories biologiques cherchent à appréhender l'espèce et l'individu. Mais on a généralement considéré leurs genèses respectives comme des phénomènes distincts. De ce fait, l'évolution des espèces et le développement des organismes sont expliqués par deux théories différentes, la sélection naturelle et le programme génétique. Cette séparation pose un problème récurrent. Dans la réalité, les deux processus sont imbriqués l'un dans l'autre […] Au XXème siècle, cette union a été réalisée par ce qu'on a appelé la synthèse évolutive. On considère que l'évolution des espèces provient de la transformation par mutation des programmes génétiques codés par l'ADN. Si cette théorie permet logiquement de rattacher les deux processus l'un à l'autre, son coût est élevé. Elle induit de nouveaux problèmes liés au déterminisme génétique très fort auquel elle aboutit, et où l'ADN devient omnipotent : par ses mutations il gouverne l'évolution et par l'information génétique qu'il contient il dirige la genèse des organismes. Depuis le séquençage des génomes, on a la confirmation qu'une telle conception est difficilement tenable. D'une part, il y a beaucoup moins de différences entre les génomes des organismes, y compris ceux qui sont physiologiquement éloignés, que ce qui était prédit. Il est donc difficile d'expliquer l'évolution par l'addition des mutations ponctuelles de l'ADN. D'autre part, la lecture de ces génomes n'a pas permis de déchiffrer les fameux programmes génétiques qui 202 contrôleraient le développement embryonnaire. Il y a beaucoup moins de gènes que ce qui semble nécessaire pour expliquer l'ensemble des fonctions réalisées par un organisme. A cause de ces limites du déterminisme génétique, on assiste maintenant à un véritable changement de paradigme, avec l'émergence de la biologie des systèmes. Au lieu d'être centrée sur l'ADN, la compréhension des organismes passe par leur appréhension en tant que systèmes. Dans ce nouveau cadre, on cherche à équilibrer les influences provenant des différents niveaux que sont l'ADN, les réseaux de protéines, les tissus cellulaires, l'organisme et l'environnement. » (J.-J. Kupiec, L'origine des Individus, 2008). L’épigénétique constitue l’une des approches synthétiques possibles de la biologie, équilibrant les influences d’autres facteurs que strictement génétique. L’exploration de ce continent récemment émergé contribue à ce titre, autant que la mise en valeur des propriétés émergentes, à remettre en question un nouveau type de réductionnisme physicaliste caricatural qui tendait à réduire le phénotype au génotype (J.-P. Changeux (dir.), Gènes et culture, 2003). Il montre que l’individu physiologique n’est pas que l’expression d’un programme immuable, fixe et déterminé, la traduction d’un ADN. Certains facteurs environnementaux ou comportementaux (conditions de vie, régime alimentaire, psychologie, etc.) peuvent concourir à la régulation de l’expression du génome, ceci en contrôlant l’activation ou bien l’inhibition de certains gènes. Il s’agit proprement d’un autre code, occulte, qui avait échappé à l’attention des biologistes depuis un demi-siècle bien tassé ; depuis que James Watson, alors âgé de 25 ans et Francis Crick, physiciens de formation, ont mis à jour la structure hélicoïdale de l’ADN. Cette découverte d’un « second code » ou « méta-code » superposé au premier fournit une réponse partielle à la question posée dès le début du XXème siècle par l’embryologiste américain Thomas Hunt Morgan (18661945) sur la raison des divergences qui se constatent entre les différentes cellules chez un individu ; à savoir sur leur différenciation en cellules spécialisées, à quoi s’ajoute la singularité de chaque cellule au regard de chacune de ses consœurs : « Si les caractères de l'individu sont déterminés par les gènes, pourquoi toutes les cellules d'un organisme ne sont-elles pas 203 identiques ? » (T.H. Morgan, The Theory of the Gene, 1926). La même réponse – celle de l’épigénome – pourrait être donnée à la question de savoir pourquoi deux spécimens partageant un même patrimoine génétique (à l’exclusion de quelques rares mutations somatiques), expriment différemment ce patrimoine : comment se fait-il que deux vrais jumeaux (monozygotes) ne soient pas en tout point similaires ? Comment se fait-il qu’il ne se rencontre pas au monde deux êtres qui partagent rigoureusement les mêmes propriétés physiques, physiologiques et même psychologiques ? Comment rendre raison de l’apparition de certains cancers lorsque les variations de la séquence d’ADN elles seules n’y suffisent pas ? La syntaxe épigénétique Réponse qui fait appel à d’autres mécanismes relevant de l’épigénétique, et donc à une lecture différentielle du code en fonction du milieu où ce code est traduit. Réponse qui tient à la perturbation occasionnée par des facteurs environnementaux, affectant non pas le génome lui-même, mais l’expression de ce génome à la faveur d’épimutations, bien plus fréquentes, au reste, que les mutations classiques de l’ADN. Il apparaît, pour le dire brièvement, qu’une même cellule totipotente n’évolue pas de la même manière selon qu’elle subit telle ou telle pression et communique de telle ou telle manière à tel endroit de l’organisme : elle sélectionne certaines parties de son programme à activer, et certaines autres à laisser en latence. Au niveau supérieur, nos habitudes de vie (régime alimentaire, états de stress, mémoire du corps) influent sur la manière dont est interprété le texte génétique inscrit dans nos cellules. La conclusion est formulée par Thomas Jenuwein, directeur de recherche au Max Planck Institute of Immunobiology and Epigenetics (MPI-IE) de Freiburg : « On peut sans doute comparer la distinction entre la génétique et l’épigénétique à la différence entre l’écriture d’un livre et sa lecture. Une fois que le livre est écrit, le texte (les gènes ou l’information stockée sous forme d’ADN) sera le même dans tous les exemplaires distribués au public. Cependant, chaque lecteur d’un livre donné aura une interprétation légèrement différente de l’histoire, qui suscitera en lui des émotions et des projections personnelles au fil des chapitres. D’une manière très 204 comparable, l’épigénétique permettrait plusieurs lectures d’une matrice fixe (le livre ou le code génétique), donnant lieu à diverses interprétations, selon les conditions dans lesquelles on interroge cette matrice. ». Pour conserver le registre de la métaphore, si le génome était le texte, l’épigénome en serait, en quelque sorte, la ponctuation. Celle-ci jalonne le texte de points et de virgules qui, en dernier ressort, bouleversent l’interprétation du texte. Le transformisme réhabilité ? Des épimutations surviennent ainsi au gré de l’existence des individus qui donc peuvent être définies comme des altérations du patron d'expression des gènes qui laissent intacte la séquence nucléotidique. Et – chose inattendue, iconoclaste depuis qu’August Weismann avait posé la séparation des lignées germinales et somatiques – transmissibles non seulement à d’autres cellules issues des premières au cours de la mitose, mais aussi à ses descendantes (les cellules filles), c’est-à-dire héritables sur plusieurs générations à la faveur de la méiose, quoique leur cause environnementale puisse avoir disparu. La syntaxe épigénétique fonctionne effectivement à la manière d’un second plan de directives qui, loin de n’affecter que les individus, se transmet également à leur postérité – chose décrétée irrecevable il y a encore quelques années. Ce que l’on nomme aujourd’hui l’« héritabilité des caractères complexes » semble par là remettre au goût du jour la métaphore tant brocardée de la girafe extensible. L’épigénome fait fonctionner de pair sélection naturelle et pressions de sélection induites. La biologie contemporaine semble en ce sens marquer un retour à Lamarck, au transformisme tant combattu, en réhabilitant ce que la théorie de la sélection naturelle avait rendu caduc : la transmission des caractères acquis. Au patrimoine génétique dont héritent les individus doit donc être ajoutée une programmation parallèle de sa mise en œuvre au gré de processus sous l’influence d’une pluralité de facteurs environnementaux. Une influence qui rend inopérante toute tentative méthodologique pour réduire un organisme à l’expression de son génome. C’est en effet une tout autre strate de déterminations que nous découvre ainsi l’épigénome, nous obligeant à reconsidérer de fond en comble le caractère exclusivement « aléatoire » des mutations. La stabilité dynamique de l’épigénome renvoie à celle des formes 205 adoptées par la vie pour remplir ses fonctions : chacune est singulière, et doit être appréciée de manière individuelle. Les objections soulevées par Canguilhem contre le réductionnisme de son époque conservent ainsi en ce début de XXIème siècle leur entière pertinence. La vie est bien en tout ceci, une fois encore, ce qui introduit de la différence dans son milieu. Ce qui converse avec cet environnement pour adapter ses normes – ici positivement ou non – et affirmer dans sa plasticité son caractère irréductible à ses seules composantes internes. Pierre-Simon Laplace (1749-1827) Principales contributions : - Théorie analytique des probabilités (1812) - Traité de Mécanique céleste (1799-1825) - Essai philosophique sur les probabilités (1840) Concepts et idées-forces : - Le principe du déterminisme causal, fondement du mécanisme : « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur et comme la cause de celui qui va suivre » ( Essai philosophique sur les probabilités, Introduction). De ce qui est, il est théoriquement possible d’inférer ce qui sera et ce qui a été. Suppose que les lois scientifiques sont invariantes et dans l’espace, et dans le temps (d’où la notion de « constante »). - Déterminisme causal = transposition possible en mécanique de la Destinée tragique et de la Fatalité des stoïciens, ou Fatum stoïcum (cf. Pascal Nouvel, Philosophie des sciences). Ce même déterminisme est érigé par Claude Bernard en principe méthodologique, hypothèse de travail nécessaire à la science expérimentale. - Le « démon de Laplace ». De manière analogue au « démon de Maxwell ». Un être qui aurait l’intelligence parfaite de la position et du mouvement de chaque élément de l’univers à un instant donné (en dépit des relations d’incertitude d’Heisenberg) serait en théorie capable de prédire par calcul n’importe lequel de ses états futurs : « Une intelligence qui, à un instant donné, connaîtrait toutes les forces dont la nature est animée, la position 206 respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers, et ceux du plus léger atome. Rien ne serait incertain pour elle, et l’avenir comme le passé seraient présents à ses yeux » (Essai philosophiques sur les probabilités). - Fiabilité de la prévision dans des domaines complexes disqualifiée dans la pratique (mais non pas dans la théorie) par le principe de sensibilité extrême aux conditions initiales (Poincaré), popularisé sous le nom de scène de « théorie du chaos » (cf. le papillon de Lorenz). - Formalisation, dans son Essai philosophique sur les probabilités, de la logique inductive probabiliste aujourd’hui désignée comme étant celle de Thomas Bayes. De ce dernier, il redécouvre en 1774 le théorème publié de manière posthume onze ans auparavant. - Le principe de Laplace. Ainsi nommé, il se rapporte au principe selon lequel « Le poids des preuves doit être proportionné à l’étrangeté des faits », formule énoncée par le médecin et psychologue Théodore Flournoy ( Des Indes à la planète Mars, 1899) en référence à un passage de l’Essai philosophique sur les probabilités : « Nous sommes si éloignés de connaître tous les agens [sic] de la nature, et leurs divers modes d’action ; qu’il ne serait pas philosophique de nier les phénomènes, uniquement parce qu’ils sont inexplicables dans l’état actuel de nos connaissances. Seulement, nous devons les examiner avec une attention d’autant plus scrupuleuse, qu’il paraît plus difficile de les admettre ; et c’est ici que le calcul des probabilités devient indispensable, pour déterminer jusqu’à quel point il faut multiplier les observations ou les expériences, afin d’obtenir en faveur des agens [sic] qu’elles indiquent, une probabilité supérieure aux raisons que l’on peut avoir d’ailleurs, de ne pas les admettre ». - Les mathématiques comme organon, ou instrument de résolution de problèmes pratiques (contra le réalisme mathématique ou le pythagorisme latent chez nombre de mathématiciens). Opportunisme méthodologique. Qu’importe l’élégance ; tous les moyens sont bons, pourvu qu’ils conduisent à destination. - Développement de la mécanique céleste et de l’astronomie mathématique. Laplace anticipe théoriquement le concept de trou noir qui attendra le télescope Hubble pour être détecté (ou tout au moins, ses effets gravitationnels). 207 Bruno Latour (1947-20XX) Principales contributions : - La vie de laboratoire. La production des faits scientifiques (avec Steve Woolgar) (1979) - La Science en action (1987) - La Science telle qu'elle se fait (avec Michel Callon) (1991) - Nous n'avons jamais été modernes (1991) - Politiques de la nature. Comment faire entrer les sciences en démocratie (1999) - Changer de société, refaire de la sociologie (2007) Concepts et idées-forces : - Anthropologie des sciences. Mouvement original se rattachant sans s’y confondre à la sociologie des sciences, elle-même construite en réaction contre la philosophie des sciences, idéaliste, inapte, aux dires de ses contradicteurs, à rendre compte de la réalité de l’activité scientifique, et enfin contre l’histoire des sciences, impuissante à identifier une logique au développement scientifique et à penser au-delà de la collecte brute des faits. - Approche commune aux travaux de Steeve Wolgar, Karin Knorr-Cineta et Michael Lynch. Inspirée de l’ethnométhodologie. Ethnographie de la vie quotidienne en immersion au sein de l’environnement naturel des scientifiques : le laboratoire. Faits et gestes, discussions, prises de notes, manipulations expérimentales sont analysées non en fonction de ce que les scientifiques disent faire, mais à l’aune de ce qu’ils font. Constate l’écart entre le discours et la pratique, les paroles et les actes. L’objectivité du socio-ethnologue tient ici à sa docte ignorance, savamment entretenue, et à son aptitude à ne pas s’en laisser conter. Importent moins les théories et les faits scientifiques que les procédures ayant permis de les obtenir. - La question essentielle est de savoir comment un énoncé produit dans un contexte expérimental et théorique particulier s’élève au statut de vérité scientifique universelle et détachée de tout contexte, unanimement saluée par la communauté. Pour y répondre, un outil d’analyse taillée sur mesure : la sociologie de l’acteur-réseau. - La sociologie de l’acteur-réseau (SAR) ; en anglais Actor-Network Theory (ANT), dite également « sociologie de la traduction ». Une approche développée en France avec Michel Callon et Madeleine Akrich. Tient 208 compte de l’ensemble des « actants » humains et non humains, à la différence des théories sociologiques classiques. Veut abolir l’illusoire distinction entre les catégories de nature et de société, de science et de politique, d’approche micro- (fondée sur les interactions au quotidien) et macro- (s’intéressant aux institutions). Notion de « démocratie technique ». - Rejet des positions exclusivement externalistes, rationalistes, naturalistes ou sociologisantes. Ce n’est ni le social seul, ni la nature en soi qui détermine la science. La nature même est un concept dérivé, tributaire d’un regard historiquement situé. Implique déjà une détermination par le regard. De même, prise de distance au regard du postmodernisme et de la philosophie de la déconstruction qui pose le fait scientifique comme le produit d’un jeu de langage ou d’un effet de sens. - Principe de symétrie. Une égale importance accordée à l’analyse de l’ensemble des actants et des facteurs (organisationnels, cognitifs, discursifs, etc.) entrant dans la composition des collectifs. Étude des controverses scientifiques indifférentes aux réussites et aux échecs des théories, conformément au principe de symétrie (= d’impartialité) posée par Barry Barnes et David Bloor (1976). Obligation pour l’épistémologue à ne pas tenir pour obsolète ou pour absurde une hypothèse temporairement horscourse. - Approche relationnelle, réticulaire. Démarche fondatrice de la sociologie des organisations. Le monde scientifique (en fait, le monde dans son ensemble) se compose moins de collections de groupes épars que d’un réseau, un collectif constitué par l’ensemble des relations et médiations qui font tenir ensemble des associations. Un fait ne tient jamais tout seul. - Concept de traduction. Transposition d’une notion introduite en sémiotique par A.J. Greimas, revisitée par les travaux de Michel Serres. Opération par laquelle des acteurs individuels ou collectifs s’érigent en porte-parole de la cause de leur groupe (ils en « traduisent » les volontés) et tentent de convertir d’autres acteurs. La mise en relation de ses acteurs est tributaire d’une transformation des propositions et des positions scientifiques qui a pour fonction d’en déployer les éléments et les enjeux dans une sphère d’activité hétérogène. Le sens d’un énoncé scientifique est également stabilisé ensuite d’une série de traductions (matériau de laboratoire, subventions, dispositifs, articles dans des revues à comité de 209 lecture) qui le rend disponible et le fait circuler, via une adaptation de connaissances toujours sujettes à controverse. - Importance de la controverse. C’est à son feu que s’élaborent les faits. Son analyse est celle du processus de construction et de stabilisation des énoncés scientifiques. Ce n’est pas l’observation qui stabilise le fait, mais bien plutôt le consensus qui s’ordonne autour de lui. - Le réseau. Hétérogène par nature, commis insiste le sociologue John Law. Association d’actants humains et non-humains liés les uns aux autres par des médiations, formant ensemble une « méta-organisation » incluant sphères d’activité, d’institution et d’organisation. Étudier un acte d’achat implique de s’intéresser au producteur autant qu’au consommateur et au vendeur, à l’espace de vente, à la caisse enregistreuse, à la monnaie, au marketing, aux habitus, etc. - Les acteurs-réseau. Les actants ou acteurs-réseau sont, pour la SAR, les véritables éléments constitutifs de la science, qui permettent de penser l’articulation entre la recherche scientifique, les applications techniques et les besoins publics. Sont acteurs de la science : les scientifiques, les cobayes, les atomes, les réactions chimiques, les microscopes, les accélérateurs de particules, les équations mathématiques, les instituts, les journalistes. Tout acteur est un réseau ; tout réseau est un acteur. Ils peuvent être locaux, globaux, de faible ou de vaste envergure, croître et s’étendre ou perdre de leur influence. C’est leur interaction qui tisse le phénomène social. Toute action effectuée par un actant engendre des effets en retour sur le réseau entier, jusqu’à provoquer son effondrement s’il en est un élément clé. Ainsi de la disparition du téléphone, de l’institution présidentielle de la banque centrale. - Implique que la science se constitue autant à l’intérieur qu’à l’extérieur du laboratoire : à l’occasion de séminaires, de colloques, de négociations avec les financiers et les pouvoirs publics, avec les populations locales éventuellement impactées, avec les fournisseurs, les sociétés chargées de la maintenance, les sponsors éventuels, etc. - La méthode en dix étapes pour étudier, traduire et tenter d’influer sur un réseau décline 1) l’analyse du contexte, 2) la thématisation du traducteur, 3) le point de passage obligé (PPO) et la convergence, 4) les porte-paroles, 5) les investissements de forme, 6) les intermédiaires, 7) l’enrôlement et la 210 mobilisation, 8) les opérations de rallongement et d’irréversibilité, 9) la vigilance, la transparence et 10) la ponctualisation. - Processus de stabilisation des énoncés. Les scientifiques considérés comme des « investisseur en crédibilité » en perpétuel recherche d’alliés au sein de réseaux socio-techniques. La science conçue comme un rapport de force. - Extension de la SAR au champ du Droit (La fabrique du droit. Une ethnographie du conseil d’État, 2004). Généralisation aux sciences, aux religions et à l’ensemble des domaines de la production sociale des vérités (« Coming out as a philosopher », dans Social studies of science, 2010). - Réflexivité. De même que l’épistémologie de Kuhn peut être vue comme un paradigme révolutionnaire, la SAR peut être aussi considérée comme un acteur-réseau qui ne cesse de prendre de l’ampleur. Contribue à l’émergence des « science studies ». Gottfried W. Leibniz (1646-1716) Principales contributions : - Discours de métaphysique (1685) - Nouveaux Essais sur l'entendement humain (1705) - Monadologie (1714) Concepts et idées-forces : - Une œuvre polymathe, totalisante. Relativise la pertinence de la prétention à séparer les enjeux scientifiques des choix philosophiques, théologiques, métaphysiques opérés par les hommes de science. On en dirait autant de Galilée, de Descartes, de Pascal ou de Newton. - L’une des dernières figures du savant universaliste. Elle s’estompe au XIXe siècle pour céder place au scientifique universitaire et au chercheur spécialisé, à l’enseignant-chercheur lié au statut de fonctionnaire. Au XXe siècle émerge la figure du chercheur entrepreneur ou du chercheur industriel. D’où l’exigence – déjà mise en lumière par Marx – de tenir compte des conditions matérielles de production de la science. - Relativement à l’interprétation de la relation âme-corps, oppose la conception paralléliste ou concomitante de l’harmonie préétablie à l’interactionnisme du grand Arnaud, impulsée par Descartes, ainsi qu’à l’occasionnalisme de Malebranche. 211 - Principe de raison suffisante. « Nihil est sine ratione. » Dieu même n’agit pas sans raison, quoiqu’en ait dit Descartes et quoi qu’en dise Arnaud. Caprice, c’est fini. - Principe d'identité des indiscernables. - Physique du continu : « natura non fecit saltus », « la nature ne fait pas de sauts ». - Définition de la vérité comme compréhension du prédicat dans le sujet : « Praedicatum inest subjecto ». Concerne également les notions complètes : il est dans la substance d’Adam de goûter au fruit de l’arbre de la connaissance. Néanmoins, compatibilisme. Les raisons inclinent sans déterminer. - Nécessité absolue vs. nécessité ex hypothesi. - Les deux labyrinthes : le problème du mal et le problème de la liberté. - Caractéristique universelle. Entreprise de réduction de l’ensemble de la pensée humaine à une algèbre générale : « Penser, c’est calculer », écrivait Hobbes. Pose les fondements du calcul binaire. Projet repris avec le formalisme du positivisme logique, puis par George Boole à l’origine du « calcul symbolique ». - Distinction entre force motrice ou « force vive » (vis viva) et quantité de mouvement que ne faisait pas Descartes. La première seule est préservée à l’occasion du choc entre deux corps, sans quoi le mouvement perpétuel (surunitaire) serait possible, et il y aurait alors davantage de réalité dans l’effet qu’il n’y en a dans la cause : « Il y a longtemps déjà que j’ai corrigé la doctrine de la conservation de la quantité de mouvement, et que j’ai posé à sa place quelque chose d’absolu, justement la chose qu’il faut, la force (vive) absolue… On peut prouver, par raison et par expérience, que c’est la force vive qui se conserve » (Specimen dynamicum). - Géométrisation de la cinématique (de pair avec Pierre Varignon). - Calcul différentiel (codécouvert avec Newton) ; d’où une querelle de paternité doublée par la rivalité entre la France et l’Angleterre. James Lovelock (1919-20XX) Principales contributions : - Les Âges de Gaïa (1990) - La Terre est un être vivant. L’hypothèse Gaïa (1999) 212 - La Revanche de Gaïa (2006) Concepts et idées-forces : - L'hypothèse Gaïa. Nom de scène de l’hypothèse biogéochimique élaborée avec Lynn Margulis. Anticipée par nombre de scientifiques et d’esprit religieux avant sa thématisation en 1972 par James Lovelock, elle propose de considérer la Terre comme « un système physiologique dynamique qui inclut la biosphère et maintient notre planète depuis plus de trois milliards d'années, en harmonie avec la vie » (La Revanche de Gaïa, 2006). Autorégulation ou homéostasie d’un superorganisme jouant sur différentes variables (telles la composition de l’atmosphère, elle-même régie par, notamment, les bactéries) finalisée selon Lovelock au développement et au maintien de la vie. Cette hypothèse accueillie avec méfiance et scepticisme de la part des scientifiques qui lui reprochent (peut-être à juste titre) une accointance avec le paganisme New-Age. - Un anthropomorphisme controversé. De nombreuses résistances à son hypothèse, notamment dues à sa teneur « spiritualiste » ou « animiste », propice aux dérives de tous ordres. « Gaïa » refait ainsi surface depuis les essarts oubliés de l’Antiquité grecque, où l’avait reléguée l’attitude cartésienne de démystification de la nature, renouant avec la désanimation à l’œuvre dans la Genèse. Elle porte à une « foi » renouvelée et à un renouveau du sentiment mystique et archaïque de la Terre-Mère, mettant en porte-à-faux un autre dogme issu de la culture judéo-chrétienne, le matérialisme, porté à incandescence par l’humanisme selon lequel « la Terre est destinée à être exploitée pour le bien de l'humanité » (« A geophysiologist thoughts on geoingineering », dans Philosophical Transactions of Royal Society, 2008). - Lovelock se défend toutefois de prendre au pied de la lettre l’idée d’une Terre animée ; « Gaïa » n’est pas un article de foi, mais une métaphore à valeur heuristique : « Car les métaphores sont plus que jamais nécessaires pour faire comprendre au plus grand nombre la véritable nature de la Terre et les périls mortels qui se profilent à l'horizon » (ibidem). C’est en effet « seulement en considérant notre planète comme une entité vivante que nous pouvons comprendre (peut-être pour la première fois) pourquoi l'agriculture a un effet abrasif sur le tissu vivant de son épiderme et pourquoi la pollution l'empoisonne tout autant que nous » (La Revanche de 213 Gaïa, 1999). Une entité vivante = un système autorégulé ; Lovelock n’en dit pas plus. Libre à chacun d’en tirer pour lui-même les conclusions qu’il juge appropriées. - Autre critique développée en particulier par James Kirchner, celle qui dénonce la faiblesse épistémologique de l’hypothèse Gaïa. Les postulats de ce modèle ne sont pas réfutables ; ils ne sont donc pas scientifiques au sens défini par Popper. Mais il n’est pas certain que l’épistémologie de Popper soit applicable au domaine de la biologie auquel Lovelock essaie de raccrocher ses thèses. - Un modèle descriptif mais aussi prescripteur. À la jonction entre philosophie, religion, politique, économie, écologie (d’où la revendication d’interdisciplinarité). Contre le mythe du développement durable, le discours associé au modèle biogéochimique préconise la régulation (voire la diminution, jusqu’à disparition) de la population en une manière de retour à un malthusianisme déguisé, et – contre les écologistes traditionnels – promeut la génération du nucléaire censément moins polluant que les énergies carbones, et moins consommateur en matières premières (coût de fabrication) que les énergies renouvelables. Le soupçon de misanthropie porte également, s’inscrivant dans la tradition de l’écologie profonde (deep ecology) qui prend le contre-pied de l’humanisme. Il semblerait que l’humanisation de la Terre ait pour contrepartie la réification ou la dévalorisation de l’homme, conçu comme une variable d’ajustement. L’homme est une maladie de la Terre ; il faut guérir la Terre. Stéphane Lupasco (1900-1988) Principales contributions : - La physique macroscopique et sa portée philosophique (1935) - L'expérience microphysique et la pensée humaine (1940) - Logique et contradiction (1947) - Le principe d'antagonisme et la logique de l'énergie (1951) - Les trois matières (1960) - Science et art abstrait (1963) 214 Concepts et idées-forces : - Hégémonie de la logique, dont relèvent aussi bien les raisonnements de l’esprit (propositions logiques) que les phénomènes de la nature dans son ensemble (objets, éléments, événements), dans une optique proche de celle de Hegel. Est du domaine de la logique tout ce qui relève du dynamisme : « Nous appelons logique tout ce qui porte les caractères de l'affirmation et de la négation, de l'identité et de la non-identité ou diversité, qui engendre, par leur coexistence ou conjonction ou par leur indépendance ou disjonction, une notion de contradiction ou une notion de noncontradiction et qui, sans autre secours que le sien propre, déclenche des enchaînements déductifs. Un fait donc, quel qu'il soit, expérimental ou mental, sensible ou intellectuel, est considéré comme logique dans la mesure où il est marqué par ces caractères, conditionné par ces notions et engendré par ces implications, indépendamment de savoir si cette marque, ce conditionnement et cette déduction relèvent de l'esprit connaissant ou de quelque autre réalité – cela, c'est un autre problème » (Le principe d'antagonisme et la logique de l'énergie, 1951). - Logique dynamique du contradictoire. Intègre la logique classique à titre de cas particulier d’une logique de l’énergie dont les autres espèces ne font pas droit au tiers exclu (de même que la géométrie euclidienne caractérisée par l’inscription du cinquième postulat d’Euclide n’est qu’un des cas particuliers de l’ensemble des géométries). Le corrélât en est le principe du tiers inclus. Il est ce qui différencie la logique dynamique de la logique classique et permet de rendre compte de la circulation de la matièreénergie selon ses trois moments (les « trois matières ») : la matière-énergie 1) macrophysique, 2) vivante, 3) psychique. - Le principe d'antagonisme. Cheville ouvrière de la logique dynamique du contradictoire, il stipule qu’« à tout phénomène ou élément ou événement logique quelconque, et donc au jugement qui le pense, à la proposition qui l'exprime, au signe qui le symbolise : e, par exemple, doit toujours être associé, structuralement et fonctionnellement, un anti-phénomène ou antiélément ou anti-événement logique, et donc un jugement, une proposition, un signe contradictoire : non-e ; et de telle sorte que e ou non-e ne peut jamais qu'être potentialisé par l'actualisation de non-e ou e, mais non pas disparaître afin que soit non-e soit e puisse se suffire à lui-même dans une indépendance et donc une non-contradiction rigoureuse (comme dans toute 215 logique, classique ou autre, qui se fonde sur l'absoluité du principe de noncontradiction) » (ibidem). Le principe d’antagonisme associe donc à chaque objet un pendant négatif qu’il porte en germe et sans lequel il ne pourrait y avoir de dynamisme concevable. À rapprocher encore une fois de la science de la logique selon Hegel. Ernst Mach (1938-1916) Principales contributions : - La connaissance et l'erreur (1905) Concepts et idées-forces : - Principe d’économie de pensée. - Nature économique de la recherche en physique. - Précurseur du positivisme logique (Cercle de Vienne = Société Ernst Mach). Émile Meyerson (1859-1933) Principales contributions : - Identité et réalité (1908) - De l’explication dans les sciences (1921) - La déduction relativiste (1925) Concepts et idées-forces : - Épistémologie réaliste opposée au positivisme de Comte. La science doit faire droit à l’explication, à la recherche des causes et ne pas s’en tenir à la description. - « L'homme fait de la métaphysique comme il respire ». Oppose une fin de non-recevoir aux prétentions des positivistes logiques. - Affirmation d'un continuisme entre la science et le sens commun (vs. Duhem, Bachelard et Comte) ainsi que dans l’ordre du progrès scientifique (influence de l'évolutionnisme). - Le mouvement de la connaissance répond d’une dialectique entre l’esprit humain qui voudrait imposer identité aux choses et la réalité qui lui résiste. Les tentatives de résorption de cet écart sont le ressort du progrès scientifique. 216 - Rejet de l’utilitarisme, du pragmatisme et de la réduction positiviste. Appel à un élargissement du champ des sciences. - Complexité des phénomènes, débiteurs d’une pluralité de facteurs. Les modèles théoriques sont simplificateurs ; il y aura toujours un décalage entre la prédiction et l’observation. - Spécificité des disciplines. Développe une réflexion à partir de la chimie dont il excipe les traits particuliers. On peut mettre une formule en équation, la réaction chimique n'est pas certaine et ne peut être extrapolée d’avance. Les mêmes formes d’inférence ne valent pas pour la physique, pour les mathématiques, la chimie et les sciences humaines ; il faudra tenir compte de la nature irréductible de chaque domaine. Robert K. Merton (1910-2003) Principales contributions : - « The normative structure of science » dans The sociology of science (1942) - Social Theory and Social Structure (1949) - Éléments de théorie et de méthode sociologique (1965) - The Travels and Adventures of Serendipity (avec Elinor Barber) (2004) Concepts et idées-forces : - Pionnier de la sociologie des sciences en vertu de ses travaux entrepris vers 1940. La discipline, riche en paradigmes concurrents, se focalise de manière générale sur la question des modes de fonctionnement et d’organisation de l’espace scientifique ainsi que sur l’influence du contexte de production des connaissances. - Deux types de normes interdépendantes régissent l’espace social de production scientifique : les normes méthodologiques (relatives aux techniques) d’une part ; de l’autre les normes éthiques. Ces dernières se déclinent en quatre éléments : l'universalisme (la science doit être universelle et objective autant que faire se peut), le communalisme (les connaissances scientifiques ne sont la propriété de personne et ont vocation à devenir accessibles à tous), le désintéressement (les intérêts privés ne doivent pas interférer ; il s’agit de garantir l’autonomie économique et 217 politique de l’activité) ; enfin, le scepticisme organisé (les résultats doivent être déférés à la critique et vérifiés par la communauté). - Un tel système de normes et de principes recteurs constitue ce que Merton appelle un ethos scientifique. - Effet Matthieu (Matthew Effect). En référence à une sentence extraite de l’Évangile selon Matthieu : « Car on donnera à celui qui a, et il sera dans l'abondance, mais à celui qui n'a pas on ôtera même ce qu'il a ». Accuse le mécanisme pervers en vertu duquel les chercheurs les plus en vue confortent d’autant plus vite et facilement leur statut d’autorité qu’ils sont déjà connus, accentuant toujours plus l’écart qui les sépare de la masse des scientifiques. Une spirale d’entraînement. On ne prête (de crédibilité) qu’aux riches. - Distinction entre les « théories de moyenne portée » (middle range theories), applicables à un phénomène particulier et les « théories générales », prétendant embrasser l’ensemble d’un système social. Les sciences humaines ne doivent pas se risquer aux théories du second type sans avoir préalablement produit suffisamment de théories du premier type, destinées à servir de « groupes de référence ». - Décrit le mécanisme de prophétie auto-réalisatrice (self-fulfillingprophecy) : « La prophétie auto-réalisatrice est une définition d'abord fausse d'une situation, mais cette définition erronée suscite un nouveau comportement, qui la rend vraie ». - Introduit en sociologie le concept de sérendipité (serindipity) pour définir « la découverte par chance ou sagacité de résultats pertinents que l'on ne cherchait pas. Elle se rapporte au fait assez courant d'observer une donnée inattendue, aberrante et capitale (strategic) qui donne l'occasion de développer une nouvelle théorie ou d'étendre une théorie existante » (Éléments de théorie et de méthode sociologique) ; ou encore « le processus par lequel une découverte inattendue et aberrante éveille la curiosité d'un chercheur et le conduit à un raccourci imprévu qui mène à une nouvelle hypothèse » (Social Theory and Social Structure). - S’inspirant des célèbres travaux de Max Weber sur l’ Éthique protestante et l’esprit du capitalisme (1904-5), montre que les valeurs puritaines ont lourdement pesé dans le processus de développement des sciences. Ainsi, la Royal Society réunissait à l’origine des savants religieux imprégnés de valeurs puritaines exaltants la raison comme instrument de lutte contre les 218 passions, inspirant la rigueur dans la pratique : « La combinaison de la rationalité et de l’empirisme, si évidente dans l’éthique puritaine, forment l’essence de la science moderne ». La sotériologie protestante rejoint encore la science dans son souci d’améliorer la situation matérielle de l’humanité. Le lien est souligné dans les études de la Royal société entre la découverte patiente de la création et la glorification de Dieu. Le développement des sciences fut enfin à Cambridge coextensive de la prévalence de l’influence puritaine. Gaston Milhaud (1858-1918) Principales contributions : - Les philosophes géomètres de la Grèce. Platon et ses prédécesseurs (1900) - Nouvelles études sur l'histoire de la pensée scientifique (1911) Concepts et idées-forces : - Occupe la première chaire de philosophie des sciences. - Développe un rationalisme dynamique ou historique qui va ensuite influencer Brunschvicg. - Tente de reconstituer l'état des mathématiques à l'époque de Platon. La géométrie d'Euclide est en effet une synthèse alexandrine tardive. Milhaud s’inscrit dans un contexte où l'on s'éloigne d'Aristote pour s'intéresser au rationalisme platonicien (rôle heuristique du nombre et des idées : des abstractions qui permettent de se saisir au mieux de la réalité) alors que la notion de nombre s'élargit considérablement (nombres irrationnels, imaginaires, etc.) et que surgissent à nouveau frais les questions liées à l’infini potentiel et actuel. - Précurseur du conventionnalisme. Le recours aux propositions conventionnelles est à la fois indispensable et libre. John Stuart Mill (1806-1873) Principales contributions : - Système de logique déductive et inductive (1843) 219 Concepts et idées-forces : - Éthologie. Science de la formation du caractère, déduite des lois universelle de l’esprit rapportées aux circonstances particulières. - Distinction entre déterminisme et fatalisme, deux acceptions de la nécessité selon, respectivement, le principe de raison (tout phénomène ou événement procède d’une cause) et le principe de prédestination. Assied la possibilité d’une science humaine tout en conjurant le sophisme paresseux. - Les quatre (ou cinq) méthodes fondamentales de la preuve inductive (exposées au cours du livre III) : par concordance, par différence, par concordance et différence combinée, par résidus, par variations concomitantes. - Principes de l’association des idées : par ressemblance, par contiguïté, et par contiguïté répétitive. - Rejet de la méthode hypothético-déductive (si/alors) car le vrai peut logiquement être déduit du faux. Il convient de lui préférer une méthode inductivo-déductive. - Distinction entre observation et expérimentation. - Critique de la syllogistique et de la métaphysique aristotéliciennes. Mill définit de nouvelles catégories logiques : sentiments, esprits, corps, relations fondamentales. - Un principe théorique : l’induction, complété par un principe pratique : l’utilité. Jean-Louis Le Moigne (1931-20XX) Principales contributions : - Le constructivisme (1994) - Les épistémologies constructivistes (2003) Concepts et idées-forces : - Épistémologie constructiviste. - Méta-théorie des systèmes. L’existence positive et objective des systèmes ne peut être démontrée. Systèmes interprétés comme des modélisations commodes et pragmatiques, construits en vue de finalités humaines par le théoricien plutôt que découverts dans la réalité. 220 Edgar Morin (1921-20XX) Principales contributions : - Le Paradigme perdu : la nature humaine (1973) - La Méthode (6 vol.) (1981-2008) - Science avec conscience (1982) - L’Intelligence de la complexité (avec Jean-Louis Le Moigne) (1999) - Relier les connaissances (1999) - Introduction à la pensée complexe (2005) Concepts et idées-forces : - Pensée complexe. Sens étymologique de com-plexus : « tissé ensemble », « enchevêtré », « entrelacé ». Un nouveau paradigme épistémologique proposé dans Science avec conscience (1982). Promeut la transdisciplinarité contre la spécialisation, tirant les conséquences de l’imbrication des différents domaines de la connaissance. - Épistémologie complexe. Approche globale, en rupture d’avec une épistémologie classique analytique. S’inscrit dans la continuité des épistémologies bachelardienne (concernant notamment la question des problèmes cognitifs) et piagétienne (pour ce qui concerne la biologie de la connaissance, le rapport de la logique à la psychologie et le sujet épistémique). S’intéresse aussi bien aux instruments de connaissance (intellectuels autant que pratiques) aux savoirs produits, qu’à leur contexte de production tant cognitif que socioculturel. - Modèle du réseau. Métaphore empruntée à Nicholas Rescher pour illustrer l’horizontalité de l’épistémologie complexe qui n’est pas hiérarchique comme pouvait l’être l’épistémologie classique. Il n’y a pas de niveau plus ou moins radical. Tout système – et cela vaut également des systèmes de pensées – fonctionne de manière circulaire et intégrée ; chaque partie se comprend au regard de l’ensemble et de l’ensemble des autres parties. Approche physiologique versus anatomique. Idée de dynamique de récursivité rotative. - Principes fondamentaux de l’épistémologie complexe : (1) Le principe d'« auto-éco-organisation ». Néologisme qui articule l’autonomie (auto-) d’un système à sa capacité à interagir avec l’environnement (éco-). « L’être vivant […] est assez autonome pour puiser 221 de l'énergie dans son environnement, et même d'en extraire des informations et d'en intégrer de l'organisation ». (2) Le principe dialogique. Réinscription de deux notions en apparence contradictoires dans un rapport de complémentarité, ce qui permet de penser des processus complexes. Exemple du phénomène de la dualité onde-corpuscule. Le nécessaire dépassement du principe du tiers-exclu prend avec Stéphane Lupasco la forme du tiers-inclus. (3) Le principe hologrammatique. « La partie est dans le tout, mais le tout est dans la partie ». Modèle de la figure fractale. Analogies de la fougère ou du noyau de la cellule qui abrite l’intégralité du patrimoine génétique du corps dont elle est un fragment. (4) Le principe des boucles de rétroactions (feed-back). Notion introduite par Norbert Wiener dans le domaine de la cybernétique. Décrit à l’origine un mécanisme qui rend possible l’homéostasie d’un système (son autorégulation, son retour à l’équilibre, le rétablissement de sa norme) en dépit des variations de son environnement. Signifie par extension (et par dérivation) que toute action a des effets en retour sur l’agent, lequel est constamment appelé à y répondre par de nouvelles actions ou contr-actions. Ce qui est un instrument de régulation peut tendre à l’emballement avec des effets amplificateur ; ainsi dans le cas emblématique de la surenchère militaire (course aux armements). On parlerait plus couramment de cercle vicieux – bien que l’orientation vertueuse soit également possible. (5) Le principe de récursion organisationnelle. Système circulaire au sein duquel les effets engendrés sont eux-mêmes producteurs des causes dont ils procèdent. Le producteur est également produit, et le produit le producteur ; de même la cause est également l’effet. Le processus de reproduction des êtres vivants offre une illustration de ce phénomène de récursion dans la mesure où le géniteur fabrique l’engeance à l’origine du géniteur, sans que l’on puisse (ou qu’il soit pertinent) de déterminer à quelle instance revient la primauté. Le paradoxe de l’œuf et de la poule. Exemple de l’homme et du langage : « Il est donc sensé de penser que c'est le langage qui a créé l'homme, et non l'homme le langage, mais à condition d'ajouter que l'hominien a créé le langage » (Le paradigme perdu) ; « Le langage est en nous et nous sommes dans le langage. Nous faisons le langage qui nous fait. Nous sommes, dans et par le langage, ouverts par les mots, enfermés dans les mots, ouverts sur autrui (communication), fermés sur autrui (mensonge, 222 erreur), ouverts sur les idées, enfermés dans les idées, ouverts sur le monde, fermés au monde » (La Méthode). - Les propriétés émergentes. Postulat issu de la théorie des systèmes, énonçant que le tout est plus que la somme des parties. Atteint un certain niveau de complexité, il y a franchissement d’un seuil qualitatif, apparition de phénomènes irréductibles aux lois qui s’appliquaient aux éléments. Inéquation de la synergie : 1 + 1 = 3 (I + I = +). La plus-value ne s’explique pas par l’addition des premiers membres de l’équation ; elle est le fruit de l’organisation du tout. C’est une propriété ou qualité émergente qui peut en revanche rétroagir sur les parties. Si néanmoins le tout peut être plus que les parties, on peut aussi trouver que les parties sont supérieures au tout et cela simultanément ou – ce qui revient au même – que « le tout est également moins que la somme des parties car les parties peuvent avoir des qualités qui sont inhibées par l'organisation de l'ensemble ». Appert ici tout l’intérêt du principe dialogique. - Connaissance intégrée et réflexive vs. technique, analytique, objectivante. « Toute connaissance (et conscience) qui ne peut concevoir l'individualité, la subjectivité, qui ne peut inclure l'observateur dans son observation, est infirme pour penser tous problèmes, surtout les problèmes éthiques. Elle peut être efficace pour la domination des objets matériels, le contrôle des énergies et les manipulations sur le vivant. Mais elle est devenue myope pour appréhender les réalités humaines et elle devient une menace pour l'avenir humain » (La méthode). - Principe d'incertitude logique. La logique bivalente classique fondée sur le principe de non-contradiction devient un obstacle à la connaissance. Le paradoxe du Crétois (ou paradoxe du menteur) formulé par Épiménide illustre ses limites à son niveau le plus basique. Le théorème d’incomplétude avancé par Gödel démontre en sus que la logique est impuissante à se fonder elle-même. La mécanique quantique, mettant à jour la dualité ondecorpuscule, suggère enfin que « certains aspects de la réalité micro-physique n'obéissent pas à la logique déductive-identitaire » (La méthode). - On ne peut fonder la raison sur la logique. Contra les ambitions réductionnistes du Cercle de Vienne. Cela n’est pas nécessaire, dans la mesure où « la vraie rationalité reconnait ses limites et est capable de les traiter (méta-point de vue), donc de les dépasser d'une certaine manière tout en reconnaissant un au-delà irrationalisable » (La Méthode). Cela n’est 223 pas souhaitable en ce qu’une pensée soumise à la rigueur de la logique perdrait en créativité, en invention et en complexité. Il ne s’agit pas de prendre de la logique, seulement d’en faire un usage mesuré : « L'usage de la logique est nécessaire à l'intelligibilité, le dépassement de la logique est nécessaire à l'intelligence. La référence à la logique est nécessaire à la vérification. Le dépassement de la logique est nécessaire à la vérité » (ibid.). Otto Neurath (1882-1945) Principales contributions : - « L'Encyclopédie comme modèle », dans Revue de Synthèse (1936) - International Encyclopedia of Unified Science (1938) - « Unified Science as Encyclopedic Integration », dans International Encyclopedia of Unified Science (1938) Concepts et idées-forces : - Positivisme logique. Rédacteur du manifeste fondateur du Cercle de Vienne, paru en 1929 sous le titre « La conception scientifique du monde ». Voir Rudolf Carnap. - Défenseur de l’empirisme logique. - Le réductionnisme logique et le formalisme mathématique en mesure de résoudre les querelles politiques, de la même manière que Leibniz voulait résoudre les querelles métaphysiques grâce à la réduction logique de la Caractéristique universelle. - Création de l'ISOTYPE (pour International System Of TYpographic Picture Education), système de représentation symbolique de données et d’informations faisant appel à des icônes élémentaires. - Unité de la science au-delà de la diversité des sciences. Projet d'une « Encyclopédie des Sciences Unifiées ». Œuvre à la réconciliation de la démarche logico-déductive des sciences formelles et de la démarche inductiviste des sciences de la matière, ayant constaté que la « recherche empirique avait longtemps été en opposition radicale avec les constructions logiques a priori dérivant de systèmes philosophico-religieux » (Encyclopédie des Sciences Unifiées). - En ressort l'empirisme scientifique comme tentative pour ramener à l’unité la multiplicité des terminologies scientifiques. 224 - Choix de présenter cette unification sur un modèle encyclopédique, et non pas hiérarchique, filial comme chez Carnap. - Dix fascicules parus en 1938, comprenant les contributions de Charles Morris, Rudolf Carnap, Leonard Bloomfield, Niels Bohr, John Dewey, Bertrand Russell et alii, balayant les domaines de la théorie des probabilités, de la cosmologie, de la biologie et de la psychologie. Isaac Newton (1643-1727) Principales contributions : - Principes mathématiques de la philosophie naturelle (Principia Mathematica) (1686) Concepts et idées-forces : - Membre de la Royal Society, fondée en 1660 à Londres avec pour vocation de développer les sciences et de favoriser l’échange entre savants. Animé, selon Robert K. Merton, par l’esprit puritain de l’éthique protestante qui fut l’un des déterminants de la rigueur, de l’enthousiasme (stricto sensu) et du rationalisme de ses membres. - Incarnation typique du savant universaliste du XVIIe siècle, physicien, mathématicien et opticien. Fait la synthèse entre une philosophie mécaniste de la nature et une exigence expérimentale étayée par la multiplication des instruments de mesure. Figure à la fois distincte du clerc du Moyen Âge, de l’humaniste de la Renaissance, du scientifique institutionnalisé du XIXe siècle et du chercheur spécialisé ou du chercheur entrepreneur du XXe siècle appelé à leur succéder. - Loi de la gravitation universelle ou loi de l'attraction universelle : « Deux corps massifs s'attirent en raison directe de leur masse et en raison inverse du carré de leur distance ». Déduite du mouvement des planètes. Réconcilie sous une même loi le monde supra- et sublunaire. Situation d’actualité du fait que la physique contemporaine fait face à une incompatibilité entre la théorie supposée rendre compte des phénomènes à l’échelle macroscopique (la relativité d’Einstein) et la micro-physique (la mécanique quantique). Tentatives de résolution de cette dualité à la faveur d’une théorie quantique de la gravitation : théorie des cordes ou théorie quantique à boucles. 225 - Plutarque précède Newton qui devait achever de réconcilier les lois de « la terre pesante et du ciel étoilé » sous les auspices de la physique moderne. L’auteur des Œuvres morales constatant à l’œil nu les contours cabossés de la lune, en concluait déjà sans autre forme de procès que « la Lune est une terre céleste » (De la face qui paraît sur la Lune, XVIII) que le soleil invisible baigne de sa lumière. Est ainsi récusée la distinction que posait le Stagirite entre la physique sublunaire, lieu de l’errance et de l’approximation, et la physique des corps célestes d’une régularité parfaite. Il faut encore rendre justice à ce savant biographe et génie méconnu pour avoir deviné, 1600 ans avant Newton, ce que Newton n’a fait que thématiser, la loi de la gravitation : « La lune, écrit Plutarque dans son traité sur l’astre, n’est pas entraînée vers la Terre par son poids car ce poids est repoussé et détruit par la force de rotation » (ibid., VI). Plutarque allait plus loin encore. Plus loin que Copernic ; plus loin que Galilée ; plus loin que Kant lui-même et ses « univers-îles », là où aucun de ses contemporains n’aurait accepté de le suivre. Il affirmait que chaque astre lumineux était le pivot rotatif d’un ou de plusieurs mondes (nous dirions aujourd’hui qu’il est autant d’étoiles que de systèmes solaires), et que le mouvement grave des corps célestes tendait vers lui. Ainsi de la Terre quant au Soleil, ainsi de la Lune quant à la Terre. Bien plus : Plutarque, avant Bruno, anticipait par induction la découverte des exoplanètes : « Chacun des mondes a une terre et une mer » (Sur les sanctuaires dont les oracles ont cessé, XVII). Si le « chacun » est de trop, le reste ne l’est plus depuis la mise au jour d’océans recouverts de glace ou de traces d’eau liquide sur les corps telluriques tels que les lunes de Jupiter (e.g. les geysers d’eau d’Europe). - Épisode apocryphe de la pomme de Newton, écho biblique de l’Arbre de la Connaissance. Interroge sur les processus de découverte et sur la reconstruction a posteriori des intuitions scientifiques. - Trois lois du mouvement, aussi dites « lois de Newton », au fondement de la mécanique classique : (1) Principe d’inertie : « Tout objet en état de mouvement rectiligne uniforme et soumis à aucune force extérieure, conserve son mouvement, dans un repère galiléen ». Reformulation d’un principe déjà énoncé par Galilée. Il est tout ce qui sépare la philosophie naturelle de la physique moderne. 226 (2) Principe de la dynamique des corps : La force appliquée à un corps est égale à sa masse multipliée par son accélération : F = m a. Permet de calculer la quantité de mouvement des corps. Contra la physique d’Aristote, laquelle proportionnait la force s’exerçant sur un corps à sa vitesse et non pas à son accélération. (3) Principe d'action-réaction : Tout corps soumis à une force exerce en retour une force de même intensité et de direction opposée. - Comme le relève Duhem, « force », « masse » et « accélération » sont des concepts théoriques qui ne renvoient pas directement à l’expérience, non plus que les formalismes mathématiques employés par Newton. Il y a donc un décrochage entre, d’une part, l’induction pure à partir de phénomènes empiriques et, d’autre part, leur représentation au moyen de la théorie. La théorie va au-delà de l’expérience en ce sens qu’elle ne décrit pas des observables et qu’elle prétend extrapoler des phénomènes futurs. La prédiction théorique précède ainsi la découverte. - La loi de l’attraction universelle et les trois lois de Newton permirent ainsi la découverte de Neptune ensuite de à l’observation de la perturbation de l’orbite d’Uranus. - Parallèlement, sublimation mathématique des phénomènes, et mise à distance de l’observation directe au profit de principes théoriques explicatifs (gravitation, inertie, etc.). C’est en ce sens que Koyré a pu écrire que le nerf de la révolution galiléenne consiste dans la « décision de traiter la mécanique comme une branche des mathématiques, c'est-à-dire de substituer au monde réel de l'expérience quotidienne un monde géométrique hypostasié et d'expliquer le réel par l'impossible » (Études d'histoire de la pensée scientifique). - Théorie corpusculaire de la lumière (constituée de « multitudes de corpuscules d'une vitesse et d'une petitesse inimaginables ») vs. théorie ondulatoire émise par Christiaan Huygens (1629-1695). L’expérience des fentes de Young (1801), du nom du médecin physicien Thomas Young (1773-1829) sur les interférences lumineuses tranche en faveur de la seconde option, reprise par les travaux de François Arago (1786-1853) et d’Augustin Fresnel (1788-1827). L’hypothèse des quanta de lumière (des paquets d’énergies, la lumière étant alors émise de manière discrète) examinée en 1905, développée par Einstein, retrouve toutefois d’une 227 certaine manière le modèle corpusculaire abandonné. Einstein est à l’époque une exception parmi les scientifiques. - Contribue au développement de la physique expérimentale moderne, laquelle s’éloigne des présuppositions de la scolastique. - Alexandre Koyré n’a eu de cesse que d’avoir exhibé les liens entre les convictions philosophiques, métaphysiques et religieuses du physicien et ses travaux en sciences. Ce n’est que longtemps après sa mort que l’on a vraiment pris conscience de l’ampleur des travaux hermétiques de Newton. Exécutrice testamentaire de son oncle décédé, Catherine Conduitt hérite d’une malle qui trouvera acquéreur, en 1936, en la personne de l’économiste John Maynard Keynes. Elle contenait des milliers de pages de diagrammes cabalistiques, d’index chemicus répertoriant l’ensemble corps connus des alchimistes, de manuscrits ésotériques traitant de transmutation et de théologie, assortis de commentaires de citations extraites des Écritures : une somme équivalente à celle des travaux scientifiques du physicien. Newton, dans son laboratoire de Cambridge, ne s’adonnait pas comme on l’a cru (comme il laissait croire) à la « chimie vulgaire » mais comme bon nombre de ses contemporains, à la quête alchimique de la quinte essence, de l’élixir de vie, de la pierre philosophale, de la chrysopée. Aux dires de son unique assistant, seul autre que lui-même autorisé à pénétrer le secret de son cabinet, Newton avait consacré la plus grande partie de sa recherche à tenter d’isoler un élément de la matière vivante ou minérale, une poussière « excessivement subtile et d'une petitesse inimaginable sans laquelle la terre serait morte et inactive », qu’il avait baptisé du nom de « vegetable spirit ». Poursuivant l’œuvre de recouvrement de la « première doctrine » qu’il estime corrompue par le passage des siècles et dispersée dans les diverses spiritualités du monde, Newton inscrit ses recherches dans la grande tradition de l’hermétisme syncrétiste, qui en recherche la vérité originelle (cf. aussi Marcile Ficin, Pic de la Mirandole, l’École d’Alexandrie, etc.). Il leur applique la même méthode, avec la même ardeur qu’à ses travaux strictement scientifiques. Travaux qui, à leur tour, bénéficieront largement de cette pensé hermétiste. - L’alchimie accoucheuse de la science moderne. On ne s’avoue pas sans réticence que la grande majorité des écrits de Newton se composait de recherches alchimiques. Le fondateur de la mécanique classique et pionnier de la science moderne ne méprisait pas cette « pseudoscience » autant que 228 nous l’aurions voulu. Et bien lui en a pris, s’il est vrai que ses intuitions les plus fécondent sont tributaires de sa pratique de l’occultisme. De l’alchimie, Newton a dérivé l’idée de « gravitation universelle », vertu ou qualité occulte agissant à distance (Einstein y reviendrait). Elle est, dit-il, « une sorte d'esprit très subtil caché dans la substance des corps », et une énigme pour l’astrophysique contemporaine qui ne parvient toujours pas à concilier la force de gravitation aux trois autres interactions fondamentales. Mais plus encore – et cela fut singulièrement peut dit – il hérite de l’idée que les lois de la physique céleste n’était pas différente des lois de la physique terrestre. Il suffira, pour s’en convaincre, de s’en référer à la profession de foi des alchimistes de la Renaissance, pièce majeure des Hermética. Les premières lignes de la table d’émeraude (tabula smaragdina) ont le mérite d’être explicites – une fois n’est pas coutume : « Il est vrai, sans mensonge, certain et très véritable : Ce qui est en bas est comme ce qui est en haut, et ce qui est en haut est comme ce qui est en bas ; par ces choses se font les miracles d'une seule chose » (La Table d’émeraude d’Hermès Trismégiste, « père des Philosophes », traduction de l’Hortulain, XIVe siècle). 229 Gravure de la table d’émeraude, extraite de l’Amphitheatrum Sapientiae Eternae de l’alchimiste allemand Heinrich Khunrath, 1610. - Reste que Newton s’en tient à constater le phénomène sans préjuger de sa cause ou de ses « intentions » : « Hypotheses non fingo », « je ne forge pas d’hypothèses ». Il ne s’agit plus d’expliquer par les causes motrices ou par les causes finales, mais par les causes prochaines. Donner une représentation à défaut d’une explication. Anticipe sur le mode ordre du positivisme. - Michael Brooks (Free Radicals. The secret anarchy ou Science, 2011) n’hésite pas à convoquer Newton (qui avait falsifié ses résultats afin de faire correspondre ses calculs aux données expérimentales), au renfort de la thèse de Feyerabend selon laquelle les scientifiques sont de manière assumée ou non des « anarchistes du savoir », ne reculant devant aucune malhonnêteté pour triompher. Point sur les théories de l’unification L’une des questions les plus ardentes de la physique contemporaine est de savoir comment mettre un terme à l’état de cohabitation des deux régimes que sont la mécanique quantique d’une part, la relativité de l’autre (cf. Marc Lachièze-Rey, Au-delà de l’espace et du temps. La nouvelle physique , 2003). Redisons-le : ces deux physiques ont leur champ propre ; elles découpent la réalité en deux régions qui ne communiquent pas. Les équations de l’une s’appliquent au monde infiniment étrange des particules et stipulent sans ambiguïté que les quantités n’adoptent que des valeurs discrètes (voir notice : point sur la mécanique quantique). Celles de la relativité intègrent la gravitation comme une propriété géométrique de l’espace-temps (voir notice : Einstein). C’était, bien sûr, avant la découverte du Higgs. Sous réserve d’inventaire, la théorie quantique s’applique ainsi à des atomes ou à des particules élémentaires, et sa consœur relativiste à des objets situés ou constitués par l’espace-temps. 230 Limites de la physique actuelle Tout le problème tient à ce fait (ou préjugé) que l’espace(-temps) n’est pas fissible en deux épistémologies. Deux théories, deux paradigmes, c’est déjà un de trop. Il ne peut en rester qu’un. Il n’y a qu’un « uni-vers », une seule physique ; non pas deux univers pour deux physiques. Les deux physiques avaient été l’erreur – rédhibitoire – du Stagirite. Elle avait entraîné la stagnation de la scolastique, freiné l’essor des sciences modernes en combattant toute tentative de mathématiser les phénomènes instables. Dixhuit siècles de savants avaient mis face-à-face un ciel supralunaire parfait et un lieu sublunaire labile, impermanent et fluide. La réunion de la physique provinciale et de la non-physique locale avait été le tour de force de Galilée, de Tycho Brahé et de Newton. Au vu du prix qu’il leur en a coûté, on ne languit pas de retomber dans ce marasme. De nouvelles stratégies émergent pour refermer cette cicatrice, redite de la précédente. Certains se tournent vers l’unification mathématique des quatre interactions fondamentales au sein d’un cadre unique, une « théorie du tout » (cf. Pierre Fayet, La Théorie du tout). Chacune de ces interactions – nucléaire faible, nucléaire forte, électromagnétique et gravitationnelle – se verrait rapportée aux effets émergeant d’une certaine symétrie. Proportions, cercles, sphères et nombre d’or. Et symétrie. Encore et de nouveau, la quête de symétrie. Une symétrie que les physiciens théoriciens apprennent à repérer dans les replis de l’infiniment grand et de l’infiniment petit. La symétrie – nous le verrons bientôt – est une notion centrale de la physique actuelle. Elle diligente une quête qui renouvelle les aspirations grecques à un cosmos parfait, équilibré ; à cette attente tout à la fois éthique et esthétique, cœur nucléaire du raisonnement de Schelling et de la méthodologie de Dirac. De Brian Greene aussi : témoin le titre de son œuvre phare, L’univers élégant. Ce qui est tenté par la physique contemporaine semble en cela être un retour au cosmos grec, à la racine du terme « cosmétique », cosmos appréhendé dans le monde grec comme une épiphanie des harmonies divines. Mais plus parfaits que ne l’est et le cosmos classique, puisque débarrassé de ses dichotomies : sur la terre comme au ciel, dans l’infiniment 231 grand comme dans l’infiniment petit. Mais les esprits de synthèse se font rares de par les temps qui courent. Et il n’est pas certain que la grande théorie de l’unification soit à notre portée. Einstein la recherchait… en vain. Mais que recherchait-il exactement ; et que recherchons-nous ? Une théorie qui circonvient ou articule physique de l’infiniment petit et des macros-objets. Une théorie quantique de la gravitation. Qui doit être également une théorie quantique de l’espacetemps. Or, comment quantifier l’espace (relativiste) qui sert de cadre de référence aux phénomènes quantiques ? Les physiciens produisent à flux tendu des hypothèses qui le disputent en sophistication dans l’espoir d’arriver à triompher un jour de la quadrature du cercle (et, en passant, de leurs collègues). On peut, à cet égard, opter pour bien d’autres approches. Quelles sont les pistes de recherche aujourd’hui explorées ? Nous en exposerons trois. (1) Celle de la supersymétrie (dite également (SuSy), dont un des avantage est de démêler l’énigme de la constante cosmologique ; (2) celle de la théorie des supercordes, fruit de l’intégration aux théories des cordes de la supersymétrie ; (3) enfin, celle de la gravitation quantique à boucles. Toutes trois de fécondes candidates, aucune n’est (encore) éligible à l’épreuve expérimentale. Ce qui en fait avant tout des voies spéculatives (c’est la raison pourquoi l’on parle de « physique théorique ») ; pas forcément des voies de garage. (1) Supersymétrie (SuSy) L’établissement du modèle standard de la physique s’est avéré fécond à bien des titres. Non content d’établir une classification des particules élémentaires, il décrit l’existence d’autres constituants fondamentaux de la matière que le physicien a charge de vérifier. Au moins sait-il ce qu’il cherche et dans quelle direction chercher. Le modèle standard a en ceci beaucoup à voir avec le tableau de Mendeleïev. Il pourrait être néanmoins beaucoup plus lacunaire qu’on l’a longtemps pensé. La théorie de la supersymétrie entend combler ce manque en associant à chaque particule aujourd’hui connue une « superpartenaire » sensibles dans l'ordre du TeV. 232 La « supersymétrie », pour la décrire d’un mot, envisage une équivalence entre les particules à spins entiers et celles à spins demi-entiers, autrement dit, entre bosons (vecteurs d’interaction) et fermions (matière proprement dite). Il est alors question, non plus de gravité, mais de « supergravité ». La « licence scientifique » est moins en cause que la nécessité de surmonter un certain nombre de difficultés laissées en friche par le modèle standard. Au premier rang desquelles, celle de l’unification de l’interaction nucléaire forte, de l’interaction nucléaire faible et de l’électromagnétisme, trois des quatre forces fondamentales connues avec la gravité. L’intensité de ces forces trouve aussi son explication. La supersymétrie rend également raison de la masse des particules, celle-ci résultant de leur interaction avec le champ des Higgs. La masse serait par conséquent un épiphénomène relationnel ou interactionel, et non pas une propriété essentielle des corps. Tout corps n’est pas pesant en soi. Il le devient ensuite et en fonction de son inertie acquise, cela dans une mesure spécifiée par la théorie de la supersymétrie. Le postulat de ces particules encore inobservées que sont les « superpartenaires » des particules standard dénoue du reste l’énigme de la matière noire et de l’énergie sombre, représentant respectivement 26,8 % et 68,3 % de la masse estimée de l’univers. 233 Ces deux « substances » échappent à la compréhension des astrophysiciens, mis dans l’obligation d’en induire l’existence d’après leurs effets gravitationnels. La matière noire pourrait être expliquée par les neutralinos, particules stables (sans résidu de désintégration), à charge neutre (ne pouvant rayonner électromagnétiquement) ; des particules interagissant peu avec nos instruments de mesure. Quant à l’énergie noire, elle serait à corréler (identifier ?) à la constante cosmologique. La supersymétrie rend alors compte de sa valeur. Elle offre dans tous les cas une issue cohérente à des questions qui n’ont cessé d’embarrasser les scientifiques, à même de surmonter les apories de la physique et de la cosmologie conventionnelle. Cette efficience mathématique et théorique lui vaut d’être adoptée au sein de modèles explicatifs plus vastes tels que celui de la Supergravité (standard ou maximale), de la théorie de jauge supersymétrique, de la théorie de Seiberg-Witten et, bien évidemment, de la théorie des supercordes. 234 (2) Théorie des supercordes Dans le prolongement de cette recherche de symétrie qui meut les physiciens s’inscrit le développement des théories des cordes. Les avancées les plus récentes de la physique fondamentale nous ont offert l’image d’un espace dynamique, jamais tout à fait vide, vrillé en permanence de fluctuations le soumettant perpétuellement à d’autres habillages, rendant sa forme instable, discontinue, éminemment complexe (voir notice : point sur le modèle standard). Et combien plus complexe nous apparaîtra-t-il, s’il s’avérait tramé de dimensions supplémentaires. Car c’est bien là ce que postule la théorie des supercordes : un espace-temps se déployant sur dix ou onze ou vingt-six dimensions. Ce cadre a l’avantage de réduire la diversité des particules et forces d’interaction à un unique objet, unidimensionnel – une « corde ». Le monde dans sa totalité se laisserait décrire par une unique « substance ». La dissemblance des particules qui se constate empiriquement ne serait plus alors la résultante de leur complexion (de leurs propriétés) ; elle s’expliquerait par la fréquence de vibrations des cordes. Chaque particule, chaque entité particulière s’explique par un état particulier de vibration des cordes. Les cordes émettent des sons qui sont des particules comme un violon vibre ses notes sur différents octaves (mais qui serait le grand soliste ?). Comme, d’autre part, ces théories incluent la supersymétrie, et qu’elles englobent par la théorie M les différentes options de développement des cordes, on parlera plus volontiers de « supercordes ». Apparaîtra dans cette optique une théorie des branes conçus comme lieux d’attache des cordes « ouvertes » (équivalent géométrique du segment de droite), lesquelles, à l’opposé des cordes « fermées » (équivalent géométrique du cercle) peuvent avoir évolué sur plusieurs dimensions. Il est frappant de retrouver encore et à jamais, après la symétrie cosmique, cette invincible métaphore de la mélodie des sphères. Un thème qui nous ramène en Grèce, à la gamme pythagoricienne, aux sirènes de Platon en ronde autour du fuseau de la nécessité. Le monde, selon cette tradition, est un concert et nous sommes sourds à la musique du monde. Et la physique contemporaine de reconduire à son insu ce que les Grecs, au moins, ne dissimulaient pas : leurs biais philosophique. Tout en se préservant contre la seule question qui importait aux médiévaux : mais qui pour diriger 235 l’orchestre ? (3) Gravitation quantique à boucles La théorie de la gravitation quantique à boucles opère une quantification de l’espace-temps qui devient granulaire, « pixellisé », discret et non plus continu, tel qu’il apparaissait au prisme de la physique relativiste. L’espacetemps se morcelle en entités élémentaires à quatre dimensions, manière d’atomes au sens originaire du terme (a-tomos : « indivisible ») qui sont autant de quanta du champ gravitationnel liés entre eux par des réseaux (networks) de spins. La valeur minimale de l’arrête minimum du plus petit volume de ce damier d’espace-temps n’est autre que la valeur de la longueur de Planck : la constante h. Constante qui représente la moindre quantité d’action qu’il est possible de mettre en jeu au cours d’un phénomène physique (cf. L. Landau, E. Lifchitz, Physique Théorique Mécanique, 1998). S’il semble que la théorie de la gravitation quantique à boucles soit devenue la concurrente la plus sérieuse de la théorie des supercordes (incorporant la supersymétrie), beaucoup s’en faut que ces deux programmes de recherche occupent l’ensemble de la scène de la physique fondamentale. Il suffira, pour s’en convaincre, de considérer les variantes inédites de géométrie non-commutative développées par certains théoriciens en marge des tentatives de quantification de la gravité et d’unification mathématique des quatre interactions. Il s’agirait de produire de nouveaux cadres théoriques et conceptuels visant à retrouver dans le domaine de la géométrie les mêmes propriétés que celles se rattachant aux principaux opérateurs en mécanique quantique. La première conséquence en serait la réfutation de la notion de particules ponctuelles localisables dans l’espace, et ce faisant l’explication de l’impossibilité quantique de spécifier concurremment leur position et leur vitesse (relations d’Heisenberg). Limites de l’unification Les quelques théories hautement spéculatives que nous venons d’exposer doivent encore faire leurs preuves. Leur fondement théoriques sont en pleine gestation, et constituent l’un des enjeux majeurs de la physique 236 contemporaine. Cette vue d’ensemble est plus qu’assez pour nous convaincre que beaucoup reste à faire. Mais la question la plus fondamentale pourrait ne pas être, en dernier ressort, de savoir comment accomplir l’unification, que de savoir si l’unification est seulement susceptible d’être accomplie. Est-elle seulement pensable, cette « théorie quantique de la gravitation » que les théoriciens pourchassent comme le Saint Graal ? Revenons un bref instant sur la névrose « obsessionnelle » de la physique contemporaine. Celle-ci se heurte à la coexistence de deux modèles explicatifs et descriptifs pour l’heure incompatibles : la relativité et la physique quantique. Les deux espaces considérés ne sont plus frontaliers (supralunaire et sublunaire) mais substantiellement uns – et pourtant divergents, structurellement antinomiques. Il s’agit bien d’un même espace faisant valoir des principes dissonants, des lois désassorties selon l’échelle considérée (microscopique, macroscopique). Il semblerait logique et légitime de vouloir mettre un terme à cette fracture. De promouvoir le syncrétisme. De plaider l’unification. D’appeler à un nouveau Newton. Mais d’où nous vient cette conviction que la nature n’est structurée que par une seule et même physique, quelle qu’en puisse être l’échelle ou la région ? Il se pourrait que nous ayons omis, dans notre précipitation, de nous poser la seule question qui vaille : au nom de quoi, pourquoi, serait-il nécessaire que la physique soit une ? Il y a tout lieu de craindre que la réponse ressortisse moins à des motivations de nature scientifique qu’à des tropismes occidentaux, somme toute plus aériens, héritage d’une culture foncièrement chrétienne. Une dilection métaphysique et religieuse pour l’unité, qu’il s’agisse de monisme (Platon) ou de monothéisme (Bible). Une dilection qui nous conduit à réduire particules, forces, lois, constantes à une seule entité, mantra de la recherche contemporaine. Il suffira pour s’en convaincre de déchiffrer les titres d’ouvrages récents tels que La quête de l’unité (É. Klein, M. Lachièze-Rey, 2000), La grande unification : vers une théorie des forces fondamentales (A. Salam, 1991) ou Aux racines de l’univers : vers l’unification de la connaissance scientifique (L. Laszlo, 1992). Il se pourrait que notre erreur consiste finalement, à croire que nous 237 sommes dans l’erreur. Rigoureusement parlant, rien ne justifie que la réalité soit une ou que les lois doivent l’être. Il n’y a peut-être rien derrière le mur de Planck. L’idéal d’unification, la « GUT », et au-delà, la Théorie du Tout, ne sont pas nécessairement inscrites au marbre du réel. Guillaume d’Ockham (1285-1347) Principales contributions : - Commentaire des sentences (1317-1319) - Petite somme de philosophie naturelle (1321) - Somme de logique (1323) - Exposition sur la physique d'Aristote (1324) - Questions sur la physique (1324) Concepts et idées-forces : - Moine franciscain anglais spécialiste de logique, s’étant acquis les surnoms de « Vénérable initiateur » (Venerabilis inceptor) et de « Docteur invincible ». Connu pour avoir ouvert la voie à l’empirisme anglais par sa critique de l’abstraction métaphysique, ainsi qu’à la philosophie analytique contemporaine, soucieuse de la validité des raisonnements. - Terminisme. Chef de file de ce qui allait devenir le nominalisme (vocable qui ne s’impose en réalité que dans le second tiers du XVe siècle), en porteà-faux avec les écoles scolastiques rivales, thomiste et scotiste. Le terminisme procède à l’analyse logique du sens des termes ; il ne veut rien voir dans les Universaux de la métaphysique que des conventions, des représentations pratiques dénuées de toute réalité sensible ou substantielle. Les catégories aristotéliciennes (substance, quantité, relatif, qualité, action/passion) non plus que les entités non nécessaires (espace, temps) ne sont des réalités en soi, à l’exclusion des corps. Si bien que leur recours, pour être nécessaire en sémiologie, n’a aucune pertinence ontologique : on ne peut légitimement déduire du concept à l’être. Cf. aussi Berkeley pour qui nos idées sont des idées de choses sensibles particulières dont nous usons de manière générale : l’usage est général ; l’idée est singulière. - Divorce entre foi et raison, révélation et raison naturelle. Là où Thomas d’Aquin subordonnait celle-ci bon soins de celle-là (image de la philosophie 238 servante de la théologie), prétend qu’elles n’ont aucun rapport – et donc rien à se dire. La foi s’éprouve ; elle ne se prouve pas. Il n’y a donc pas de démonstration possible de l’existence de Dieu. L’autorité de l’Église est en retour sans efficace concernant l’investigation de la nature. Anticipe le principe d’autonomie de la science ; et même la science proprement dite en tant qu’elle ne s’affirme comme telle qu’ensuite de son affranchissement de la tutelle religieuse. - Rasoir d’Ockham. Dit également principe de simplicité, d’économie ou de parcimonie ; un principe heuristique et méthodologique au cœur de la science moderne et plus décisivement, de l’empirisme anglais dont il est une pierre angulaire. Énonce qu’« il ne faut pas multiplier les entités sans nécessité » (« entia non sunt multiplicanda praeter necessitatem ») (Quaestiones et decisiones in quatuor libros Sententiarum cum centilogio theologico, livre II, 1319). À pertinence et vraisemblance (ou poids d'évidence) égale, les hypothèses suffisantes les plus simples (ou parcimonieuses) doivent être privilégiées. Exclut ainsi la multiplication des objets théoriques, forces, causes et démonstrations dans un système logique explicatif. - Historique de la formule. Elle n’est pas l’œuvre de Guillaume d’Ockham, mais une revisitation d’un adage scolastique stipulant que « C'est en vain que l'on fait avec plusieurs ce que l'on peut faire avec un petit nombre » (« Frustra fit per plura quod potest fieri per pauciora ») (cité dans Summa totius logicae, 1323, I, 12). Cet adage est déduit de la remarque du Stagirite sera laquelle Il vaut mieux prendre des principes moins nombreux et de nombre limité, comme fait Empédocle » (Physique, I, 4, 188a17). - Postérité de la formule. C’est à Étienne Bonnot de Condillac (1715 -1780) que l’on doit d’avoir intronisé dans une note de son Essai sur l'origine des connaissances humaines de 1746 (première partie, sect. V, § 5, note a) la métaphore de « rasoir des nominaux ». Ernst Mach la réitère pour résumer sa conception de la théorie optimale comme devant renfermer le plus grand nombre de conséquences dans le plus petit espace possible (résonance leibnizienne) : « Les savants doivent utiliser les concepts les plus simples pour parvenir à leurs résultats et exclure tout ce qui ne peut être perçu par les sens ». S’en inspire également le principe ou canon de Conwy Lloyd Morgan (1852-1936) en éthologie (ou « science du caractère », ne s’appliquant plus guère qu’à l’observation des conduites animales) : « Nous 239 ne devons en aucun cas interpréter une action comme relevant de l'exercice de facultés de haut niveau, si celle-ci peut être interprétée comme relevant de l'exercice de facultés de niveau inférieur » (An Introduction to Comparative Psychology, 1903). Ce qui prend à contre-pied le principe de charité de Davidson et Quine (« Parler d’objet », dans From a Logical Point of View, 1980). Bertrand Russell la hisse pour sa gouverne au rang de « maxime méthodologique suprême » de la philosophie (On the Nature of Acquaintance, 1914). Le théorème de Bayes en constitue une formalisation mathématique, qui attribue a priori la plus grande probabilité à l’hypothèse la plus parcimonieuse. - Les limites dudit principe se distribuent en trois catégories : (1) Son caractère déclamatoire, abstrait. Le principe prescrit de faire le départ entre les hypothèses simples et complexes sans ne livrer pour ce faire aucun critère de démarcation. Laisse à l’appréciation du scientifique le soin de décider ce que signifie la simplicité. Comment savoir, pour recourir à un exemple de controverse encore d’actualité, si l’hypothèse de Dieu n’est pas plus pertinente pour expliquer l’évolution (Dessein Intelligent) que les mécanismes de la sélection sur fond de mutations aléatoires ? (2) Sa nullité explicative. La théorie retenue ensuite de l’application du principe de parcimonie permet de faire des prédictions, mais ne garantit en rien l’adéquation de l’explication qui lui est liée à la réalité. Elle court nécessairement le risque de prendre une corrélation pour un rapport de causalité. (3) Ses a priori « cosmologiques ». Au nom de quoi se ferait-il que l’hypothèse la plus simple soit aussi la plus juste ? Pourquoi le chemin le plus court serait-il nécessairement celui que la nature emprunte pour accomplir ses œuvres ? N’est-on pas dupe d’un préjugé métaphysique ? Il y a ici un parti pris tacite qui interdit de concevoir le rasoir d’Ockham comme un simple outil méthodologique. Cet engagement « philosophique » peut introduire un biais nuisible pour le développement des sciences. Le transformisme de Lamarck était ainsi le modèle le plus économe pour rendre compte de la transformation des espèces. Celui de Darwin était le plus complexe, qui intégrait la lutte pour l’existence et réfutait la transmission des caractères acquis au profit d’une variabilité individuelle aléatoire. Or c’est à celui-ci, et non à celui-là que la communauté des sciences a finalement donné quitus. On ne sera guère surpris quand de telles 240 conditions, un adversaire résolu de Guillaume d’Ockham tel que Walter de Chatton ait édicté une norme heuristique aux antipodes de celle de son contemporain : « Si trois choses ne sont pas suffisantes pour vérifier une proposition affirmative sur des choses, une quatrième doit être ajoutée, et ainsi de suite » (Lectura I d. 3, q. 1, a. 1). - Introduit, en physique, la distinction entre le mouvement dynamique procédant d’un agent et le mouvement cynétique résultant des interactions entre des corps passifs. Max Planck (1858-1947) Principales contributions : - Initiation à la physique - Le Concept de causalité en physique - Science et religion - Autobiographie scientifique et derniers écrits (1948) Concepts et idées-forces : - Auteur d’une autobiographie. La science comme aventure, racontée du point de vue du scientifique. - Prix Nobel de physique en 1918, il n’en défend pas moins vision sans illusion du progrès scientifique : « Une vérité nouvelle, en sciences, n’arrive jamais à triompher en convainquant l’adversaire et en l’amenant à voir la lumière, mais plutôt parce que finalement ses adversaires meurent et qu’une nouvelle génération grandit, à qui cette vérité est familière » (Autobiographie scientifique et derniers écrits). Rejette la conception rationaliste et méthodique de scientifiques désintéressés confrontant systématiquement leurs hypothèses aux faits, en quête de vérité. Voir, pour exemples, J. Losee, Theories of scientific progress. An introduction, 2004). - Introduit la notion de quantum d'énergie. - Constante de Planck, postulat de Planck, loi de Planck, etc. - Contribue par son œuvre à la révolution de la micro-physique en mettant en lumière les lois de la physique (ou mécanique quantique). Voir cidessous : 241 Point sur la mécanique quantique Née des travaux de physiciens théoriciens tels que Max Planck, Feynman, Einstein et Schrödinger durant le second tiers du XXe siècle, la mécanique quantique remet en cause l’idée qu’un tel modèle puisse même être représenté. L’architecture ultime de la matière, les particules subatomiques – fermions (leptons, quarks), bosons de champ + antiparticules –, voient leurs comportements décrits à la faveur d’un formalisme mathématique rompant d’avec les équations de la physique relativiste, et plus encore d’avec la physique newtonienne. Richard Feynman explique la modestie requise de la part de ses théoriciens : « Je crois pouvoir affirmer que personne ne comprend vraiment la physique quantique » (The Character of Physical Law). Propriétés fondamentales de la matière Cette « incompréhension » (laquelle n’est pas rédhibitoire quant à la « description » chère aux tenants de l’école instrumentaliste de la science) met en relief le gouffre qui sépare le monde perçu, qui nous est familier, du monde quantique sur lequel il repose. Leurs points de divergence concernent notamment : (1) la quantification d’un certain nombre d’observables qui ne peuvent prendre leur valeur, en mécanique quantique, que dans un ensemble discret de résultats, là où la mécanique classique permet un continu ; (2) la dualité onde-particule fait que les notions d’onde et de particules cessent d’être séparées pour constituer les deux aspects d’un phénomène unique, exprimé mathématiquement par une fonction d’onde. Ainsi de la lumière, analysable en onde ou en photons selon le contexte expérimental ; (3) le principe (les relations) d'indétermination de Heisenberg rend impossible de donner la mesure précise de la vitesse d’une particule en même temps que celle de sa position. La perturbation irrémédiablement induite par l’instrument de mesure fait que le degré de précision de l’une est en fonction inverse de celui que l’on peut obtenir de l’autre (et vice versa) ; 242 (4) un même état quantique peut cumuler plusieurs valeurs pour une même observable (spin, position, quantité de mouvement, etc.), et cela simultanément en vertu du principe de superposition. Cette divergence du phénomène quantique d’avec le phénomène commun est illustrée de façon évocatrice par l’expérience de pensée du chat de Schrödinger ; (5) la superposition d’état ne se conserve pas à notre échelle qui est celle de l’observation nue, administrée par le principe du tiers exclu. Une « réduction du paquet d’ondes » s’opère dès lors que le système quantique interagit avec un instrument de mesure ou un observateur. L’observation influe sur le système observé en déterminant les particules à prendre des valeurs fixes, discrètes et non probabilistes. Un électron ne devient ainsi un électron ayant une position déterminée que par le fait de l’observation. Que l’existence d’une propriété ne constitue plus ainsi une propriété ontologique de l’objet mesuré ou non, mais soit comptable de l’interaction de l’objet et de l’appareil de mesure est de nature à remettre sérieusement en cause la conception classique d’une réalité indépendante de l’observateur ; (6) l’intrication quantique atteste que deux particules ayant interagi par le passé continuent d’être en relation, quel que puissent être l’espace et le temps qui les séparent. À telle enseigne que la détection d’une particule serait responsable de la localisation complémentaire de sa partenaire. Ce phénomène peut être interprété en direction de la non-localité de la réalité quantique (abolition de l’espace-temps), de l’identité des particules ( : une particule visible en deux endroits/moments, comme un objet dans un trou de ver ; lien EPR = pont ER) ou de l’émission par l’une d’une onde qui remonterait le temps afin d’informer l’autre à l’instant de la mesure (ce qui entre en contradiction avec la relativité restreinte qui fixe une vitesse limite, la constante c, à la propagation de l’information) ; (7) citons enfin le caractère de contrafactualité quantique qui œuvre en sorte que des événements possibles qui ne se sont pas produits rejaillissent sur les résultats de l’expérience. Y a-t-il une solution de continuité ? Il en ressort que le monde de l’infiniment petit répond d’un cadre théorique nettement distinct de celui applicable à notre environnement macroscopique. Il y a bien loin, en apparence, de la métaphysique 243 quantique à la métaphysique classique. Les physiciens ont mis au jour un univers subatomique qui ne prend sa forme déterminée spatiale et temporelle que par l’observation (à rapprocher du criticisme kantien). Étant acquis que celui-ci n’est que le prolongement de celui-là, force est d’admettre que le phénomène comme apparaître procède effectivement de cet univers étrange. La question est : comment passe-t-on d’une région à l’autre ? d’une physique probabiliste à une physique déterministe ? Du niveau le plus fondamental de la matière au niveau supérieur du phénomène ? Comment, pour permuter les termes de l’interrogation de Bachelard, « la structure peut-elle rejoindre la construction ? » (Étude de l'évolution d'un problème de physique, 1927). Comment résoudre le problème de la détermination par la mesure ? Comment, en somme, « sauver les phénomènes » en rendant compte de leur émergence ? Diverses interprétations ont proposées : (1) La théorie d’Everett (ou théorie des états relatifs) est la plus riche de conséquences, qui postule que l’ensemble des possibilités que tolère la théorie quantique se réalise, actualisant autant de mondes et donc autant d’observateurs n’ayant accès qu’au leur. (2) Une interprétation « transactionnelle » (aussi dite théorie de « l’absorbeur généralisé ») est avancée par John Cramer. Elle fait droit à la possibilité pour une onde de confirmation de remonter le temps, afin d’atteindre et d’informer sa source au moment de l’émission de l’onde offerte. C’est alors la causalité qui est battue en brèche. (3) Mais l’interprétation la plus souvent retenue est celle de Copenhague. Elle établit que l’effondrement de la fonction d’onde serait un effet de l’interaction du système quantique avec l’environnement (inclus l’observateur, l’appareil de mesure, etc.). Une telle interaction provoque un phénomène de décohérence qui réduit à néant la probabilité d’états superposés. La raison pour laquelle la fonction d’onde évoluera vers l’état déterminé plutôt qu’un autre n’est pourtant pas explicité. Nonobstant leurs lacunes (la perfection n’est pas de ce monde), l’intérêt essentiel de ces théories et de rendre possible de retrouver les phénomènes de la physique classique sans rien admettre d’autres que les lois quantiques. De la mécanique quantique à la physique macroscopique, une continuité peut ainsi être rétablie. 244 La quête de l’unification Les postulats de la mécanique quantique restent en revanche résolument incompatibles avec ceux de la physique relativiste, propre à décrire les phénomènes plus lourdement soumis à l’influence de la gravitation. Les singularités physiques tiennent de l’une et de l’autre et motivent la recherche active d’une théorie du tout qui unifie les quatre interactions fondamentales, une théorie quantique de la gravitation (théorie des cordes, théorie de la gravitation quantique à boucles, etc.) réconciliant ces deux physiques, de la même manière que Newton appareillait sous de mêmes lois les physiques des espaces célestes et du monde sublunaire. Le mot d’ordre « sauver les phénomènes » reste on ne peut plus actuel. À supposer que la théorie quantique (ou la structure seulement de cette théorie, à part ses entités) décrive effectivement la trame de la réalité pour nous phénoménale, alors une telle réalité ne peut être décrite à l’exclusion de l’observateur. Dans le sillage de Michel Bitbol (L’Aveuglante proximité du réel), les interprètes récents de la mécanique quantique insistent sur le fait que le physicien n’est pas dans un rapport de face-à-face à la réalité physique ; il est partie prenante de la réalité physique, juge et partie de la réalité physique. Le biais d’immersion que l’on voulait réserver aux sciences humaines doit s’élargir aux sciences de la nature. Le spectateur est également acteur de la pièce qu’il « interprète », dans les deux sens du terme (« analyser », « pro-duire ») : il est un « spectacteur ». Le mantra de l’objectivité – ce Graal mythique de l’épistémologie naïve –, le cède à l’objectivation. L’on ne peut plus considérer que l’homme est poussière, et même poussière d’étoiles (l’ensemble des atomes qui nous composent sont nés dans les étoiles), sans prendre en compte le fait que ces poussières proviennent aussi de nous. La science s’orientalise Cette inflexion que la physique quantique imprime à notre représentation du monde prête à des considérations originales en termes d’histoire des sciences. 245 Les civilisations babylonienne, égyptienne, grecque, chinoise, hindoue, arabe, ont tour à tour été les principaux foyers du développement des sciences. La Renaissance a vu l’Europe revenir au premier plan de la scène scientifique, au point que les fondements culturels des sciences proprement dites en sont venus à se confondre avec ceux de l’Occident. Science dont le présupposé était pourtant l’universalité, de même que les droits qui naîtront à sa suite sous les auspices d’une autre forme de révolution. Tout change avec l’entrée dans l’ère industrielle. Le séisme provoqué dans la première moitié du XXe siècle par la physique relativiste et par la mécanique quantique ébranle les convictions bien arrêtées scientifiques pour tout ce qui a trait aux « lois de la nature ». L’épistémologie se fonde comme discipline. Relativisme, constructivisme, sociologie des sciences douchent l’ambition d’atteindre une vérité certaine. La certitude, au XXIe siècle, le cède aux relations d’indétermination ; les probabilités ont barre sur le déterminisme dans le domaine des sciences physiques comme dans les sciences humaines ; la question du possible efface celle du réel ; la notion d’équilibre (métastable) relaye la dynamique (invention leibnizienne) ; la relation et le contexte hissent la complexité en paradigme là où était l’objet déterminé des sciences ; l’observateur et l’observé ne sont plus à distance ; la question de la finalité est évacuée au profit de celle de processus, de mécanisme ; l’idée de contrôle s’érode au profit de celle de participation. La science contemporaine se déleste des logiques dualistes et des dichotomies traditionnelles. Elle se défait d’une forme de rationalité. Il ne faut pas être grand clerc pour apprécier les conséquences philosophiques de ce glissement. Une telle épistémologie rompt peu à peu d’avec ses racines cartésiennes pour retentir de consonances orientalistes. Bouddhisme, hindouisme et taoïsme fournissent les nouveaux éléments de langage de la science contemporaine. À ses risques et périls L’un des pères fondateurs de la mécanique quantique, Werner K. 246 Heisenberg, relevait déjà la connivence qu’entretenait avec l’imaginaire de cette nouvelle théorie physique les sagesses extrême-orientales. Bien d’autres lui emboîtèrent le pas, usant et abusant de l’analogie. Sans doute est-elle passablement utile pour surmonter d’anciens schémas de pensée rigides et mécanistes, inadaptés aux nouveaux paysages que nous découvrent les mathématiques. Mais cet orientalisme, au-delà de son renfort heuristique, est loin de faire l’unanimité. Et le conservatisme majoritaire de la communauté des sciences n’est pas lui-même sans justification. Il en va bien souvent de la capacité critique des hommes de science à dissuader une tentative de récupération des théories par un clergé dissimulé sous le cache-sexe du physicien. La frontière entre science et religion menace de s’effondrer dans ce mouvement de reconduction de la physique à la métaphysique. C’est donc la spécificité de la science au regard des autres productions de l’esprit, peut-être même sa supériorité – réelle ou usurpée –, qui se trouvent mises en cause. Platon (427-348 av. J.-C.) Principales contributions : [Chronologie reprise et adaptée de Luc Brisson] - Période de jeunesse (-399/-390) : Hippias mineur (sur le faux), Hippias majeur (Grand Hippias) (sur le beau), Alcibiade majeur (Premier Alcibiade) (sur l'Homme), Ion (sur la poésie), Lachès (sur le courage), Charmide (sur la sagesse morale), Protagoras (sur les sophistes), Euthyphron (sur la piété). Proximité supposée avec la pensée de Socrate. - Période de transition (-390/-385 ?) : Gorgias (sur la rhétorique), Ménon (sur la vertu), Apologie de Socrate, Criton (sur le devoir), Euthydème (sur l'éristique), Lysis (sur l'amitié), Ménexène (sur l'oraison funèbre), Cratyle (sur le langage) ; République I (Thrasymaque ?) (sur la justice). - Période de maturité (-385/-370). Phédon (sur l'âme), Le Banquet (sur l'amour), La République (sur le Juste), Phèdre (sur le Beau). Émergence des notions platoniciennes d’Idées, de réminiscence et de philosophe-roi. - Période d'auto-critique (-370/-358) : Théétète (sur la science), Parménide (sur les Idées), Le Sophiste (sur l'Être), Le Politique (sur la royauté). Refonte 247 avec le Parménide de l’ontologie platonicienne. Le Sophiste conçoit tout ce qui est comme résultant d’une communication des genres. - Période de vieillesse (-358/-346) : Timée (sur la Nature), Critias (sur l'Atlantide), Philèbe (sur le plaisir), Les Lois (sur la législation), Épinomis (sur la théologie astrale). « Trois considérations ont amené Platon à modifier ses vues. D'une part, une nouvelle théorie de l'âme, selon laquelle celle-ci n'est plus regardée comme l'ennemie du corps, mais comme son principe moteur. D'autre part, la reconnaissance de la régularité et de l'ordre que manifestent les mouvements des planètes. Enfin le sentiment que l'homme a sa place marquée dans le monde conçu maintenant comme un ordre, et qu'il doit tendre, dès lors, non plus à se séparer du monde, mais à imiter le bel ordre cosmique » (André-Jean Festugière, Études de philosophie grecque, 1971). - Les Lettres, dont les VIIe (-354) et VIIIe (-353) sont regardées comme authentiques. - L'enseignement oral ou les doctrines « non écrites » (agrapha dogmata) (350 ?), dont fait partie la leçon dite « Sur le Bien ». Cf. les travaux de l’école de Tübingen. Concepts et idées-forces : - Période de révolution médiatique qui voit la transition de l’oralité (Socrate) à l’écriture (Platon). Pour la position de ce dernier, cf. Phèdre et la Lettre VII. Selon Jack Goody, entrée dans un nouveau mode de pensée : la « raison graphique ». Plus de rigueur dans la codification (d’où également l’essor de la logique et des mathématiques, centrale aux yeux d’un philosophe influencé par Pythagore), extension ou externalisation de la mémoire et possibilité de circulation des idées dans l’espace et dans le temps. L’écrit pourrait avoir été déterminant dans l’essor de la science de la philosophie grecque. À relativiser toutefois, contra Éric Havelock. Les Égyptiens et les Babyloniens aussi disposaient de l’écriture. - Invente le terme « philosophe » (vs. le « philodoxe »), bien qu’on attribue parfois le mérite à Pythagore. Nouvelle manière de questionner le monde, de rechercher la vérité en élaborant des méthodes d’argumentation (parricide des « maîtres de vérité ») étayées par des preuves. Influence des pratiques juridiques. Elengkos, que l’on traduit par « réfutation » et procédure juridique. Le mot grec aitia signifie à la fois « cause » et « 248 coupable ». Sciences et philosophie ne sont pas séparées, non plus que les questions épistémologiques et les questions morales. - Le devenir sensible. Le phénomène antique se définit selon Jean-Paul Dumont comme « un produit mixte né de la rencontre de l'effluence du sens avec celle du sensible » (Le Scepticisme et le phénomène). Il est marqué du sceau du double mobilisme : celui de la chose et de la sensibilité. Ainsi Socrate, dans le dialogue du Théétète, rend à Protagoras ce qui lui appartient, la théorie de l’ anthropomètron que semblait indiquer une première définition par le jeune mathématicien de la science comme « sensation ». Platon ne nie en rien que le phénomène soit en effet en proie à la labilité des sens et du devenir ; il exclut en revanche que le phénomène puisse être objet de science, et constitue le tout de la réalité. Le mobilisme reste valable en ce qui concerne le lieu sensible, il ne l’est pas dans l’absolu. Or l’absolu est du domaine de la dialectique, la seule science authentique. - L’hypothèse des idées. Le continuum de sensations dont est peint l’apparaître, son instabilité et sa précarité rendraient la science inopérante, s’il n’existait un ordre fixe au-delà des choses sensibles, une méta-physique qui fixe des repères. En butte à la menace relativiste et nihiliste dans le domaine épistémologique aussi bien que moral et politique ; face aux sceptiques et aux sophistes, Platon fait l’hypothèse de formes intelligibles accessibles à l’esprit. L’être lui-même, au-delà du phénomène, n’est pas voué à demeurer caché (adelon, pour reconduire le mot qu’aimait à citer Héraclite, dit également l’ « obscur » : « Physis kryptesthai philei », « La nature aime à se cacher »). C’est en partant de l’étonnement produit par la diversité et les incohérences de la multiplicité sensible que le philosophe, en s’abstrayant de ce sensible, pourra tourner son arme en direction des formes capables de l’expliquer et d’orienter l’action. Il faut fermer les yeux sur le sensible pour enfin voir avec les yeux de l’esprit. Tel Tirésias rendu aveugle par Athéna déesse de la sagesse, il s’agit de s’affranchir de la lumière du jour pour devenir clairvoyant. Encore que les yeux nous soient donnés pour observer les astres, et préparer à cette contemplation. - La réminiscence. La versatilité du phénomène met la science en échec en cela qu’elle n’offre à l’expérience que des objets relatifs et périssables. L’opinion seule peut s’appliquer aux phénomènes, à ce qui s’offre par le truchement des sens. Or l’opinion, tenant le milieu entre l’erreur et la vérité (cf. les degrés de la connaissance, l’analogie de la ligne), se laisse 249 contaminer par l’inconstance de son objet. Le risque épistémologique est reporté dans le champ des valeurs qui deviennent relatives sous l’empire des sophistes (cf. Gorgias). Platon veut croire que la science ni la morale ne sont démocratiques ; elles ne sont pas affaires de goût et de couleur. Un philosophe idéaliste ne peut s’en tenir au seul spectacle de l’apparaître sans le réduire à un paraître interrogé en direction de son principe. C’est paradoxalement le sensible lui-même qui pointe ce dont il est l’image ou ce à quoi il participe (Phédon), prête à la dialectique ou sert d’amorce à la réminiscence, de même que l’ombre de la caverne fait signe en direction de l’objet dont elle est l’ombre, projetée par la lumière ; cette chose elle-même n’étant que la copie sensible d’une réalité suprasensible sous l’éclairage du bien (République, VII). - Rapports entre le sensible et intelligible. S’il est un fait que l’« on ne se baigne jamais deux fois dans le même fleuve », comme le formule la thèse du mobilisme universel, il reste néanmoins possible d’envisager qu’un principe en retrait de l’immanence sensible offre à l’esprit des objets immuables, intelligibles et stables qui accomplissent l’unité de la diversité et rendent raison des apparences contradictoires. La position d’un lieu intelligible, foyer des formes inaltérables rend conciliables le devenir perpétuel ou mobilisme universel hérité de Cratyle et l’être stable de Parménide (« une seule et même chose sont être et penser »). Conciliation ou réconciliation de l’eau et du feu à la faveur de ce que Platon présente plus sous un mode conjectural que doctrinal : l’hypothèse des idées, jointe à une conception de leur rapport avec les phénomènes (le modèle paradigmatique ou participatif) et entre elles-mêmes (la communication des genres dans le Sophiste). - Le terme chorismos (« séparation ») est d’Aristote ; mais il semble applicable à la doctrine platonicienne (cf. Timée ; aspect mis en relief par Nietzsche), quoiqu’en pense Gaël Fine qui fait état de « différence » dans le but d’affaiblir cette dichotomie. On ne peut parler non plus de selfprédication (Vlastos) au sens des philosophes analytiques : ce que l’idée est, le phénomène l’a de manière imparfaite et transitoire. Tout phénomène devient à cette enseigne une manifestation partielle, partiale et mélangée des formes offertes à la contemplation (cf. Phèdre). - La dialectique : « Il n'y a pas d'autre recherche que la dialectique qui n'entreprenne de saisir méthodiquement, à propos de tout, l'essence de 250 chaque chose » (République, VII). Évolution de la méthode au fil des dialogues. Différentes figures recensées par Monique Dixsaut (Métamorphoses de la dialectique dans les dialogues de Platon, 2002) : méthode des conséquences ; méthode de division (dihairesis) appliquée dans le Sophiste et le Politique, etc. Genre du sophiste : l’être, le même, l’autre, le mouvement et le repos. Peiras et apeiron : le limitant et l’illimité. - Maïeutique négative (purgation de la Doxa) et positive (illumination, enfantement de l’aletheia). Les dialogues structurés comme des épreuves initiatiques. Modèle des mystères d’Eleusis. Influence de l’orphisme et du pythagorisme. Socrate et le culte du Silène dans le Banquet. - La science ne s’oppose pas nécessairement à la mythologie. La démarche dialectique fondée sur l’articulation des Formes ne peut atteindre la question des origines. Il faut donc recourir à une forme de discours qui « ressemble » à cette origine, à la fois au-delà et fondateur de la rationalité, transcendant l’espace et le temps : le mythe qui, apparenté au lieu sensible, ne peut être que « vraisemblable », et se doit d’être interprété. Exemple avec la cosmogonie du Timée. - L’ordre cosmique et l’intelligibilité du monde sont admis à la suite de Pythagore. Il se laisse déchiffrer par les mathématiques, qui permettent de retrouver les structures rationnelles ayant administré l’ordonnancement du corps du monde. Définit le programme de recherche de toute la science occidentale. Le Démiurge du Timée ordonne effectivement en imposant à la chôra les proportions géométriques, les yeux rivés sur son modèle intelligible parfait. Les éléments ultimes sont les formes parfaites composées de triangles qui se combinent pour façonner les polyèdres réguliers (feu = tétraèdre ; air = octaèdre, etc.). Le cercle est la figure permettant d’embrasser l’ensemble des polyèdres (influencera Kepler) : le corps du monde est donc sphérique, et l’âme du monde se meut en mouvement circulaire parfait. L’activité de l’intellect imite ce mouvement circulaire parfait, de même que les astres qui reproduisent dans le champ du sensible les mouvements des idées tandis qu’ils les contemplent (cf. Phèdre). Même les planètes – les « astres errants » – dessinent en vérité des trajectoires analysables en termes de mouvement circulaires et uniformes. Inspire le système armillaire de Ptolémée ainsi que ses épicycles. Dans l’âme humaine comme dans le cosmos tout entier, il arrive néanmoins que le Cercle de 251 l’Autre adopte un sens de rotation inverse à celui du Cercle du Même (cf. Politique) : là est la cause de l’erreur et de la dégénérescence. - L’ordre cosmique n’exclut pas le hasard. Car la Nécessité ne se laisse pas persuader entièrement. Si la chôra, le réceptacle ou la nourrice reçoit les formes intelligibles, elle porte en elle un principe de mouvement (la nourrice berce son enfant), elle est le siège d’une « agitation permanente », d’un dynamisme turbulent, d’une myriade de micro-convulsions, et s’avère impuissante à comprendre la totalité de l’Intelligence ; de là la « cause errante » du Timée 48a. La matière résultante de cette embrassade du limitant et de l’illimité en ressort « emplie par des forces qui n'étaient ni uniformes ni équilibrées, ne se trouve en équilibre sous aucun rapport, mais secouée irrégulièrement dans tous les sens ; elle est ébranlée par ces forces et, en même temps, le mouvement quelle en reçoit, elle le leur restitue à son tour sous la forme de secousses nouvelles » (Timée, 52e). Platon, selon Duhem, soutenait la thèse selon laquelle « Tout mouvement produit au sein de l'Univers […] est un mouvement tourbillonnaire » (Le système du monde). Le lieu sensible et donc toujours en proie à une part de hasard (thème du tirage au sort dans la démocratie athénienne et dans l’eschatologie de la République) ; hasard que le philosophe peut relativiser. Il est soumis au temps et au devenir. Tout ce qui naît est sujet à la corruption, à la dégradation (thème de l’anacyclose, de la Grande année cosmique, du chiffre nuptial, etc.) l’avancée décisive est néanmoins que le monde est animé dès l’origine par une intelligence dont le Chaos primordial des précédentes cosmogonies était encore privé. Henri Poincaré (1854-1912) Principales contributions : - La Science et l'Hypothèse (1902) - La Valeur de la Science (1905) Concepts et idées-forces : - Intuitionnisme mathématique contra Hume, Mill (conception empiriste, synthétique a posteriori), Kant (synthétique a priori). Il y aurait une intuition mathématique sui generis, concernant par exemple les notions de groupe, d'espace, etc. 252 - L’approche exclusivement logique de la philosophie des sciences défendue notamment par le Cercle de Vienne ne permet pas de rendre compte de son aspect créatif. - Nature conventionnelle des hypothèses géométriques. S'il y a plusieurs géométries (Riemann, Lobatchevski), c'est que leurs postulats sont des conventions. Acte de naissance du conventionnalisme : les hypothèses ne dérivent pas de l'expérience (cf. Mill) et ne sont pas analytiques a priori (logique, cf. Leibnitz) ni synthétiques a priori (Kant). Le cadre géométrique des théories physiques procède ainsi d’une convention adoptée pour des raisons de « commodité ». - Si les grands principes sont des conventions, en revanche les lois théoriques sont de l'ordre de l'empirique ; ce que contredira Duhem en démontrant que toutes les propositions forment système. - Souligne les limites de l’empirisme. Une collection de faits ne suffit pas à faire une théorie. La sélection de ces faits suppose déjà une hypothèse de travail tout comme l’explication et la prédiction des phénomènes. - Les géométries non-euclidiennes permettent de résoudre des problèmes ; elles sont utiles. Réhabilitation de la spéculation contra Auguste Comte. - Principe de relativité. Néanmoins, préservation de l’éther contra Einstein. - Dépendance extrême conditions initiales (ultérieurement connu sous le nom de « théorie du chaos » ; cf. Laurentz), dans le cadre du problème des trois corps. Cf. à ce sujet, l’opposition entre Wiener et Von Neumann. Karl Popper (1902-1994) Principales contributions : - Logique de la découverte scientifique (1934 ; angl. 1959 ; fr. 1973) - Conjectures et Réfutations (1963) - La connaissance objective (1972) - Le Réalisme et la science (1982) Concepts et idées-forces : - Critère de réfutabilité (maladroitement traduit « falsifiabilité »). Propriété des énoncés permettant de faire le départ entre la science et la non-science (ou pseudoscience) ; entre, d’une part, la théorie de la relativité et d’autre part, le marxisme ou la psychanalyse (ce qui n’est pas dire que, pour autant 253 qu’elles soient irréfutables, non scientifiques, ces théories soient fausses). La précision et la clarté des propositions qui les rendent éligibles à la réfutation est également ce qui distingue une proposition scientifique de l’observation du sens commun. - Est scientifique un énoncé tel qu’il existe au moins un test susceptible de l’invalider, aussi longtemps qu’il n’a pas essuyé de réfutation. Contra le positivisme logique, le propre de la science n’est pas d’être certaine ou confirmée, mais d’être réfutable. La connaissance scientifique, en fait de consister en une série de fait acquis, se présente comme un système de réponses provisoires à des problèmes posés. - Réhabilitation de la métaphysique discréditée par les positivistes. La construction des hypothèses ne procède pas de l’induction pure ; et la métaphysique est un domaine parmi tant d’autres en état d’inspirer des conjectures fécondes (pourvu qu’on les soumette ensuite à l’épreuve expérimentale). À cheval donné, on ne regarde pas les dents. « L’imagination, disait Einstein, est plus importante que le savoir ». Voir également notice Bachelard. - Si la fabrication des hypothèses peut être libre et s’affranchir de l’induction, la méthode scientifique conserve toutefois pour Popper une rationalité propre, une rigueur et une solidité qui réprouve l’anarchisme épistémologique d’un Feyerabend. - C’est pour tenter de sauver la méthode inductive que le positivisme logique, par le biais de Carnap, intronise la notion de probabilité dans l’analyse des sciences. Un échec relatif dans la mesure où certains énoncés dorénavant admis ont, du point de vue logique, une probabilité nulle d’être avérés. - Remise en cause de l’idée de preuve en matière scientifique. Contra Carnap et les néopositiviste, l’idée de vérification et de preuve empirique sont des chimères dangereuses. - La science est investie d’une capacité à réfuter des hypothèses ; elle n’apporte aucune preuve définitive de la validité d’une théorie. La science ne nous dit pas si oui ou non, une théorie est vraie, seulement si elle est fausse. La science progresse en réfutant ; pour paraphraser Marx, la science progresse par le mauvais côté (cf. Bachelard encore pour qui elle est l’histoire de la ratification des erreurs passées). 254 - Reprise de l’argumentation de Hume. Aussi élevé soit-il, le nombre des observations conformes aux prédictions de la théorie est logiquement insuffisant pour confirmer une proposition à prétention universelle telle qu’une loi ou un principe. Chacune de ses instanciations a valeur de corroboration de la théorie. Celle-ci est en sursis, inexorablement conjecturale, incertaine, provisoire, appelée à être dépassée. Il suffit en revanche d’une seule observation contradictoire pour rejeter définitivement une proposition. Dissymétrie logique. - L’hypothèse la plus originale, la plus risquée, la moins triviale est également la plus scientifiquement intéressante. - Kuhn contredit Popper sur l’idée que les scientifiques s’adonnent à la réfutation quand l’essentiel de leur pratique consiste à essayer de confirmer leur théorie. Le moteur de la science ? La volonté d’avoir raison (Pascal Nouvel, L’art d’aimer la science). - Lakatos et Feyerabend réinvestissent cette objection : il n’est pas de paradigme ou de modèle scientifique pur de contradictions. On ne les abandonne pas à si peu de frais. - Épistémologie évolutionniste. La science procède par essais et erreurs. Les hypothèses sont proposées de manière libre et ne survivent que celles qui paraissent les plus adaptées à décrire la réalité. Transposition épistémologique de la théorie darwinienne de la sélection naturelle. - C’est alors paradoxalement de Popper que se réclament les contradicteurs américains de la théorie de l’évolution, créationnistes ou partisans de l’intelligent design (ID ; ex. M. Behe, W. Dembski). Cf. les « procès du singe ». La théorie de la sélection ne laisse effectivement pas pris à la réfutation. À quoi l’on pourrait objecter que ce n’est pas davantage le cas de ces prétendues alternatives. Le canular du « pastafarianisme » de Bobby Henderson prend à partie cette revendication d’équivalence. - Versimilitude (ou vérisimilitude). Option réaliste (vs. instrumentaliste). Les théories visent la réalité sans pour autant l’atteindre. Elles tendent vers elle de manière approximative et sans cesse plus précise. - Hypothèses fondamentales vs. hypothèses auxiliaires. Typologie reprise par Duhem (dans le domaine de la physique) et Quine (au regard de l’ensemble de nos connaissances), au fondement du holisme épistémologique. Deviennent respectivement, dans l’épistémologie que 255 développe Lakatos, le « noyau dur » et la « ceinture de protection » des programmes de recherche scientifique (PRS). - L’essor du réfutationnisme de Popper comme de l’épistémologie historique de Bachelard se comprend historiquement à la lumière de deux grandes découvertes du début du XXe siècle : l’invention des quanta en 1900, la vérification en 1919 de la théorie de la relativité générale. Bouleversement radical de la macro et de la micro-physique. Le progrès scientifique ne peut plus être regardé comme procédant d’une accumulation de savoirs. Introduit de la disruptivité dans le devenir des sciences. Les théories doivent désormais être comprises en tant que descriptions approximative et provisoires d’une réalité incessamment fuyante. Ce qui n’est pas dire que pour Popper ou pour Bachelard, la science ne poursuive pas l’objectif de rendre compte de la réalité, contra les épistémologies constructivistes, le relativisme scientifique et l’instrumentalisme de Duhem. Claude Ptolémée (90-c.168) Principales contributions : - Almageste (c.140) - Géographie (c.150) - La Tétrabible (IIe siècle) Concepts et idées-forces : - Astronome et astrologue grec alexandrin. Fut avec Aristote, via la traduction, le commentaire, la transmission de ses ouvrages par les Arabes et par les Byzantins, l’un des principaux artisans de la conception qu’avait du monde le Moyen Âge chrétien jusqu’à la fin de la Renaissance. - Almageste. Al Majesti, reprise phonétique arabe du mot grec mégistos, « très grand ». Livre un épitomé des savoirs les plus avancés de l’Antiquité en matière d’astronomie, de géométrie et de mathématiques. Développe une théorie des épicycles et des tables astronomiques inspirées des travaux d’Hipparque en soutien à une représentation géocentrique du monde, laquelle fera autorité jusqu’à ce que sonne le glas de la révolution copernico-galiléenne. Ce n’est qu’aux alentours de 1750 que le pape Benoît XIV proclame son abandon. 256 - Notons que Ptolémée ne faisait pas sienne la théorie de l’inscription des mal-nommés « corps errant » (planètes) dans des sphères de cristal. Le milieu supralunaire est homogène, sorte de vide avant la lettre : « Les astres nagent dans un fluide parfait qui n’oppose aucune résistance à leurs mouvements » (Almageste, XIII, 12). - Géographie. Synthèse des connaissances géographiques du monde grécoromain. Huit tomes, le premier se consacrant considérations d’ordre méthodologique ; le dernier exposant les projections géographiques élaborées à partir des informations classées dans les six précédents. Le livre fait époque et devient rapidement le vade-mecum de tous les expéditionnaires persuadés de ne faire à chaque découverte que confirmer les travaux de Ptolémée. - Tétrabible. Les « quatre livres », littéralement. Est à l’astrologie ce que l’Almageste est à l’astronomie, deux arts ou discipline que Ptolémée sépare rigoureusement. L’Almageste se désintéresse absolument de l’influence des astres dans la sphère sublunaire. Le ciel astronomique diffère par ailleurs du ciel astrologique. Ptolémée pratique préférentiellement une astrologie sidérale et planétaires plutôt que zodiacale. On ne connaissait alors que sept orbes célestes, en incluant la lune et le soleil ; Uranus, Neptune et Pluton ne pouvaient être détecté sans l’aide d’un instrument optique approprié. De moindre retentissement que ce dernier ouvrage, la Tétrabible n’en est pas moins une référence majeure de l’astrologie antique et médiévale. Hilary Putnam (1926-20XX) Principales contributions : - Raison, Vérité et Histoire (1981) - Représentation et Réalité (1988) - Fait/Valeur : la fin d'un dogme (2002) Concepts et idées-forces : - Critique de la dichotomie faits/valeurs. - Critique de la dichotomie énoncés protocolaires/analytiques. - Concepts éthiques épais (thick ethical concepts), qui mêlent fonctions descriptive et prescriptive. - Cerveau dans une cuve (Brain in a vat). 257 Point sur l’expérience de pensée La science procède de l’expérience ; beaucoup s’en faut qu’elle s’y arrête. Pas de science sans possibilité d’induire des lois abstraites de la répétition des phénomènes. Pas de répétition des phénomènes sans hypothèse de sélection, établissant des rapports de similitude entre une pluralité d’observations toujours distinctes et singulières. Pas de science sans concepts ; et nul n’a jamais vu de concepts à l’état sauvage. Donc pas de science sans abstraction. Si l’énoncé des théories implique ce moment de rationalisation, il est en marge de celle-ci une autre forme de recours à la spéculation beaucoup plus litigieuse : l’expérience de pensée. L’expérience de pensée (en anglais « thought experiment », en allemand « Gedankenexperiment »), peut être celle d’une « situation spéciale » qui ne se rencontre pas dans la « réalité ». L’idée rectrice consiste à estimer en l’absence de base empirique les conséquences de possibilité contrefactuelles. À l’instar de la science qui, dans un schéma popperien, s’appuie sur une méthode hypothético-déductive (et non plus inductive, comme chez les empiristes purs) pour mettre en branle une démarche de construction des connaissances, l’expérience de pensée a pour finalité de répondre à un questionnement de type conditionnel : « si… alors ». Mais à la différence de ce que le protocole serait en droit d’attendre de l’expérimentateur – soit la confrontation de l’hypothèse aux données objectives de la réalité (si l’expression a quelque pertinence) –, l’expérience de pensée n’a affaire qu’à la seule puissance de l’imagination humaine. Trois moments discursifs peuvent être distingués qui forment la matrice de toute simulation : (1) l’énonciation de l’hypothèse à explorer ; (2) la description de son contexte de validation (constantes, variables) ; (3) le récit du test proprement dit. La notion de « test » est à considérer selon son acception épistémologique (et juridique) d’ « épreuve », de « mise en examen ». Au terme de celle-ci tombe un « verdict » portant sur la validité de cette hypothèse, sur son « affranchissement ». L’expérience de pensée doit également rendre des comptes. Ce n’est donc pas le fait qu’elle se dispense de tout passage par l’étape de la vérification qui la rend singulière (et censément problématique) : elle ne s’en dispense pas, mais – comme son 258 nom l’indique – que cette vérification a lieu dans la pensée. Une abstraction mettant en scène des abstractions, une abstraction de second degré ; sans doute faut-il en passer par cet expédient pour pallier les contraintes de la science expérimentale concrète. – Ou l’impuissance qui est la nôtre établir les prérequis (éthiques, techniques, etc.) d’un test en conditions de laboratoire. Le caractère spéculatif de ces outils de pensée qui menace de contaminer leurs conclusions est en ce sens « racheté » par leur capacité à transcender les obstacles à l’expérimentation conventionnelle. Le philosophe des sciences James Robert Brown n’en dit pas moins lorsqu’il les définit au titre de « procédés de l'imagination qui servent à examiner la nature des choses. On peut les visualiser, elles impliquent des manipulations mentales, elles ne découlent pas de calculs fondés sur la théorie, elles sont souvent – mais pas toujours – impossibles à mettre en œuvre sous forme de véritables expériences, soit que la technologie nécessaire n'existe pas, soit qu'elles soient simplement par principe impossibles » (Thought Experiments in Philosophy, Science, and the Arts, 2012). L’histoire des sciences et de la philosophie regorge de ces « fictions utiles » s’appliquant non seulement à des situations envisageables dans le monde qui est le nôtre, qu’à d’autres plus conjecturales, voire fondamentalement incompatibles avec ce que nous savons des lois de la nature. Qu’elles soient possibles logiquement suffit à les rendre pensables et exploitables scientifiquement. Exemples d’expériences de pensée Quelques exemples bien choisis valent mieux qu’un long discours. C’est autant à la science qu’à la philosophie que nous empruntons les nôtres, pour cette raison d’abord que le divorce de la philosophie d’avec la science reste relativement récent (datons-la du ministère de Victor Cousin et du régime de la bifurcation) ; ensuite parce que la science n’a jamais arrêté de philosopher, quoiqu’elle en ait, quoi qu’Heidegger en pense, sans pour 259 autant en assumer les conséquences. (Ce qui se conçoit jusqu’à un certain point : qu’adviendrait-il sinon de son autonomie ? De son rapport privilégié à la réalité ? De sa prétention à la « neutralité axiologique » ?) Nous négligeons ici les expériences à portée politique, morale ou esthétique pour concentrer notre propos sur celles concernant plus directement l’épistémologie et la philosophie de la connaissance. Évoquons donc, par ordre chronologique : − − − − − − − − − − − − − − − − − − − Les paradoxes de Zénon (Zénon d'Élée, Ve siècle avant J.-C.) Le bateau de Galilée (Galileo Galilei, 1632 ; voir notice) Le malin génie et le Dieu trompeur (Descartes, 1641 ; voir notice) Le problème de Molyneux (William Molyneux, 1688) Le bateau de Thésée (Gottfried Wilhelm Leibniz, 1705) Le seau de Newton (Isaac Newton, 1687 ; voir notice) Le canon de Newton (Isaac Newton, 1728 ; voir notice) Le démon ou génie de Laplace (Pierre-Simon de Laplace, 1814 ; voir notice) Le démon de Maxwell (James Clerk Maxwell, 1871) L'ascenseur d'Einstein (Albert Einstein, 1908 ; voir notice) Le paradoxe des jumeaux (Paul Langevin, 1911) Le chat de Schrödinger (Erwin Schrödinger, 1935) Le paradoxe EPR (Albert Einstein, Boris Podolsky et Nathan Rosen, 1935) Le paradoxe de Newcomb (Simon Newcomb, 1974) Être une chauve-souris ? (Thomas Nagel, 1974) La chambre chinoise (John Searle, 1980) Le suicide quantique (Hans Moravec, Bruno Marshall, 1980) Le cerveau dans une cuve (Hilary Putnam, 1981) Le spectre inversé (Sydney Shoemaker, 1982) Fictions et modélisations L’expérience de pensée peut ne pas être formulée explicitement, produite de manière intentionnelle ou signifiée comme telle. Il n’est pas nécessaire, pour en user de manière appropriée, d’avoir thématisé cet outil heuristique. Nombres d’auteurs y font appel sans même s’en rendre compte. 260 Principalement, sous ces deux formes omniprésentes que sont respectivement (1) la fiction littéraire et (2) la modélisation mathématique. (1) Le genre de la science-fiction (terme importé du faux-ami anglais « science-fiction », qu’il eût été plus avisé de rendre par « fiction scientifique ») est représentatif de la première catégorie. Et plus spécifiquement, l’un de ses sous-genre appelé « hard science-fiction », abrégé « hard science ». On ne saurait minimiser l’impact culturel qu’eurent des classiques comme 20 000 lieues sous les mers, de Jules Verne, ou le (plus) célèbre album des aventures de Tintin, le reporter explorateur, On a marché sur la lune d’Hergé qui a marqué une génération de chercheurs. Ces deux ouvrages peuvent rétrospectivement s’analyser comme des illustrations d’expériences de pensée devenues réalités : le sous-marin et la fusée ont permis d’explorer des espaces vierges qui ne furent longtemps à la portée que de l’imagination humaine. Autre morceau de bravoure : Flatland (1884), d’Edwin A. Abbott, qui peut se lire comme une phénoménologie de la perception d’esprits n’ayant accès qu’à des espaces unidimensionnels, narrant leur découverte des espaces bidimensionnels, puis tridimensionnels, et même quadridimensionnels (« hyperespaces »). C’est néanmoins à l’astronome Johannes Kepler (voir notice) que l’on attribue communément le premier ouvrage de fiction scientifique : Le Songe ou Astronomie lunaire (Somnium, seu opus posthumum de astronomia). Paru en 1634, Le Songe témoigne au plus haut point de l’intrication à l’aube du « siècle de la raison » de la littérature et de la science. D’autres exemples pourraient être invoqués, parmi lesquels le célèbre roman de Cyrano de Bergerac, Histoire comique des États et Empires du Soleil, publié dès 1662, lequel s’inscrit dans la continuité d’un précédent volet dédié à l’astre sélénien ; ou bien encore les Entretiens sur la pluralité des mondes de Fontenelle (1686) publiés à trente-trois reprises du vivant de l’auteur, procédant à une véritable reconstruction poétique du monde (cf. F. Hallyn, La Structure poétique du monde : Copernic, Kepler, 1987). Kepler, dans Le Songe ou Astronomie lunaire, imagine un démon voyageur. 261 Il imagine que son démon se sert du cône d’ombre projeté par la Terre sur son satellite comme d’un couloir céleste pour soutenir son ascension et transporter les voyageurs terriens jusqu’à la Lune. L’auteur fait par-là même un usage fantaisiste d’une théorie moderne servant à rendre compte du mécanisme des éclipses. Sont également incorporés d’autres savoirs, tels certains relatifs aux réactions des corps au froid, aux effets de l’accélération, et le reste à l’avenant. Après la traversée des nouveaux mondes, la Lune devient l’équivalent céleste d’une île. Une fois le voyageur parvenu à bon port, l’auteur rapporte minutieusement ce que son personnage observe. Il y décrit une luxuriance de vie à l’ombre des cratères. L’environnement lunaire, loin d’être lisse et sans défaut, se révèle vallonné, onduleux et regorge de vie. C’est un monde caractérisé par l’instabilité, la fluctuation des phénomènes. C’est là l’image d’une instabilité extrême. En décrivant ce Nouveau Monde moiré et hyperboliquement changeant, Kepler prend ouvertement le contre-pied de tout un pan de la physique aristotélicienne. La thèse selon laquelle existaient deux physiques irréconciliables, s’effondre. La Lune est bien aussi mouvante et corruptible que la Terre. Aussi le récit képlérien n’est-il pas dépourvu de charge polémique. Une rhétorique d’autant plus efficace qu’elle ne cite pas ses adversaires, et dilue sa causticité dans le fil du récit. La fiction apparaît comme un moyen privilégié de définir une autre image, frappante, de ce nouveau cosmos copernicien. D’où il ressort que l’apparition de forme littéraire alliant simulation d’expériences infaisables et vulgarisation des connaissances acquises fut étroitement liée aux exigences qui étaient celles de la nouvelle science en gestation au sortir de la Renaissance. Avec la révolution scientifique du XVIIe siècle se mettent effectivement en place de nouvelles formes de communication des connaissances. Le langage scientifique, à ses débuts, s’inspire encore très largement des courants humanistes de la Renaissance. Le coup de force de Kepler est avoir transformé le « récit de voyage » – genre littéraire très apprécié depuis les grandes expéditions intercontinentales des XVe et XVIe siècles – en un outil de recherche, de figuration et de diffusion de la physique moderne. Il n’en fallait guère plus pour que la science-fiction se fasse la caisse de 262 résonance de toutes les grandes révolutions de la science, aussi bien dans le domaine de la physique que de la biologie et de l’informatique. On ne compte plus les parutions de plus ou moins grande qualité qui saturent aujourd’hui les rayons de nos librairies. Leur intérêt, pour la plupart, n’est pas seulement de mettre en image des connaissances acquises ; il va au-delà en explorant les suites d’une modification événementielle ou essentielle de la réalité. (2) Si la nature, par le mécanisme de la sélection, a doté l’homme du plus puissant dispositif de prédiction et de simulation – son imagination –, la clé de sa survie, l’homme s’est offert, grâce à son imagination, le luxe d’un autre outil plus performant encore : l’informatique. L’informatique est également ce grâce à quoi a l’expression traditionnelle ou littéraire de l’expérience de pensée est venue se greffer un autre type d’outil intellectuel : l’ « expérience numérique ». On parle plus communément de « modélisation » ou de « simulation ». Elle s’emploie prioritairement pour traiter des (éco)système complexe ou des systèmes à l’équilibre instable, brassant un grand nombre de données et de variables en relation impossibles à considérer de façon traditionnelle, de manière non-automatisée. De l’environnement terrestre, d’une galaxie ou du système nerveux central, elle entend par exemple proposer une reproduction simplifiée et dynamique au sein duquel l’expérimentateur peut à loisir intervenir en modifiant une ou plusieurs variables. Ce qui lui permet de constater les conséquences de tel ou tel facteur sur l’ensemble du système. Le protocole est loin d’être infaillible – pour cela de très évident qu’on ne peut pas avoir en considération l’ensemble des conditions initiales –, mais néanmoins plus fiable que l’expérience purement spéculative. Cela d’abord parce qu’il permet de brasser davantage d’informations, de s’approcher par exhaustion plus près du résultat exact ; ensuite parce que l’ordinateur en charge de la simulation ne souffre pas de biais cognitifs et ne dissimule pas de prémisses implicites. Hormis, peut-être, celles afférentes à la structure de son programme, reflétant celles du programmeur (il n’y a qu’une seule logique, binaire, etc.). Quoiqu’il en soit des interrogations que peut susciter l’abandon ou l’externalisation d’une partie de la recherche à des technologies informatiques, l’on peut déjà noter que le rôle assigné à cette 263 forme-limite d’expérience de pensée n’a cessé de s’affirmer avec la technicisation des sciences. Au point que l’on ne peut pas ne pas envisager qu’il vienne progressivement à remplacer cette faculté qu’Einstein disait chez le chercheur plus importante que le savoir : son imagination. Limites et controverses En première approximation, l’« expérience de pensée » aurait tout pour sembler suspecte au regard d’une science qui n’a de cesse que d’avoir débusqué les « vues de l’esprit ». L’« expérience de pensée » n’est-elle pas une contradiction en soi ? Comment une « expérience » pourrait-elle être « de pensée » ? Et comment la « pensée » pourrait-elle constituer une « expérience » ? Cet oxymore étrange a le mérite de mettre les deux pieds dans le plat : quelle pertinence épistémologique peut-on prêter à un « fantasme », au sens premier du terme ? D’autant qu’il semble que cette forme d’expérience (si tant est que le terme soit approprié) ne dispense en tout et pour tout que l’illustration intellectuelle d’un raisonnement plus ou moins implicite : elle n’explique rien, ne découvre rien, elle ne démontre pas. Ce n’est pas ici le lieu de nous demander si l’expérience sensible paramétrée par nos attentes et nos schèmes d’objectivation n’est pas, elle également, une pétition de principe. Notons seulement que, le cas échéant, les objections élevées contre l’expérience de pensée ne seraient pas à distinguer de celles portant sur l’expérience proprement dite. Conservons cette démarcation. L’esprit demeuré en lui-même, tout à ses raisonnements, peut-il légitimement déduire une existence de son concept – de sa conceptualisation ? Descartes parce qu’il doutait, ne pouvait en douter. Nous ne connaissons que par les idées qui sont dans l’entendement, et ces idées sont bien les corrélât fidèle des choses extérieures à l’esprit : Dieu y pourvoit. Kant ne l’entendait pas de cette oreille, pour qui la « preuve ontologique » n’est pas plus légitime à inférer le Créateur qu’à attester la création. L’idéalisme cartésien passé au crible du criticisme kantien est contraint d’abjurer ses prétentions à l’objectivité. La « chose » n’est pas connue ; seul l’est le phénomène. Le dialogue de sourds entre rationalistes et empiristes se résorbe dans le schématisme. Ou pas. L’enjeu (peut-être a-t-il toujours été le cœur de la philosophie) reste toujours de 264 déterminer si l’esprit (sans la foi) peut accéder à un savoir sur l’être – ou s’il n’est qu’un savoir sur soi. Savoir sur soi : mise en image d’un préjugé. C’est ainsi que certains subjectivismes, relativismes et autres épistémologies constructivistes conçoivent l’expérience de pensée. Celle-ci n’est rien de plus qu’une inspection mentale à la faveur de laquelle l’esprit se représente les conséquences d’une hypothèse, étant acquis que rien dans l’esprit ne saurait lui opposer d’observations contraires. Les conclusions précèdent leur inférence. Et nous ne faisons que révéler ou justifier une croyance implicite. Dès lors qu’il se soustrait au tribunal de l’empirie, l’esprit ne peut dégager que des simulacres de vérité. Précisons-nous : le raisonnement spéculatif fait bel et bien usage d’éléments empiriques de par leur origine (ainsi des souvenirs articulés par l’imagination) ; il n’en demeure pas moins que l’expérience de pensée repose essentiellement sur l’expérience que la pensée fait d’elle-même. Le moment de la confrontation à l’expérience se fait non dans le monde hors de l’esprit, mais dans l’esprit, qui est au monde « comme un empire dans un empire ». Les lois de l’esprit n’étant pas celles du monde, sa valeur scientifique n’est guère plus concluante que celle d’un songe. Surtout, l’expérience de pensée n’est ni faite ni réalisable, ce dernier point méritant toute notre attention. On verrait mal comment ce qui ne peut être… peut être. Aux antipodes de cette position sceptique se positionne Ernst Mach. Inspirateur d’Einstein et du Cercle de Vienne (la société « Ernst Mach »), ce philosophe et physicien allemand est le premier à entreprendre, dans sa Mécanique (1883), de retracer la généalogie de l’expérience de pensée. Après avoir fait l’inventaire et la critique de ses usages en sciences, il en arrive à la doter d’une justification épistémologique. Thomas S. Kuhn fait sienne cette réhabilitation. L’expérience de pensée est à ses yeux un outil heuristique indispensable au progrès de la connaissance. Et de préciser son statut historique en même temps que son efficace psychologique de premier plan : « Le résultat des expériences de pensée peut être le même que celui des révolutions scientifiques » (La structure des révolutions scientifiques, 1962). Son résultat, insiste Kuhn, eu égard à l’impact qu’il peut avoir sur la 265 foi mise par la science instituée en un certain système de vérité, à son effet de « conscientisation ». Rien de plus efficace pour ébrécher un paradigme que de confronter ses partisans à la contradiction logique qu’elle ne manque pas de leur opposer. Mais ce rôle négatif reste loin d’épuiser tout l’intérêt de cet outil analytique incontournable. La science elle-même, qui articule dans ses modèles axiomes, principes et lois abstraites, n’est peut-être rien d’autre. Willard V. O. Quine (1908-2000) Principales contributions : - « Les deux dogmes de l'empirisme » (1951) - Le Mot et la Chose (1960), - Relativité de l'ontologie et autres essais (1977) - Du point de vue logique (1980) Concepts et idées-forces : - Récusation de la distinction faite par Carnap entre les connaissances analytiques (fondées sur la logique) et synthétiques (ou empiriques ; fondées sur l’expérience). Celles-là contiennent toujours un élément de conceptualisation, donc d’analyse. - Thèse de Duhem-Quine. Il n’y a pas d’expérience cruciale au sens où aucune expérience ne peut être suffisamment probante pour infirmer ou confirmer une théorie. Le démenti expérimental peut tout au plus contraindre le scientifique à modifier l’une de ses hypothèses périphériques, sans toutefois préciser laquelle. C’est-à-dire réviser une hypothèse auxiliaire de ce que Lakatos nommera la « ceinture protectrice » d’une théorie, sans menacer son « noyau dur ». - Holisme épistémologique (= holisme de la signification). Chaque énoncé ou hypothèse prend sens de manière différentielle, au regard de l’ensemble des autres énoncés et hypothèses qui tissent une représentation du monde. - Principe d’indétermination de la traduction dans le domaine de la philosophie du langage. Relativité de l’ontologie et inscrutabilité de la référence (exemple du lapin, « gavagaï », dont l’ethnologue ne peut déterminer si l’indigène qui le désigne le considère comme une substance ou comme un événement). Les patrons d’objectivation sont provinciaux ; 266 traduire contraint à rapporter un énoncé à nos catégories d’objets qui ne sont peut-être pas celles du locuteur. Le principe de charité (inspiré de Davidson) consiste à supposer que l’indigène use de la même logique que nous et que ses propos sont donc intelligibles. - Distinction entre énoncés d’observation et propositions analytiques. Hans Reichenbach (1891-1953) Principales contributions : - Théorie de la relativité et connaissance a priori (1920) Concepts et idées-forces : - Positivisme logique. - Conception scientifique du monde. - Induction probabiliste. Édouard L.E.J Le Roy (1870-1954) Principales contributions : - Science et philosophie (1899) - Dogme et critique (1907) - Une philosophie nouvelle : Henri Bergson (1912) Concepts et idées-forces : - Étend le conventionnalisme à toutes les sciences, quand Poincaré le restreignait à la géométrie. - Sa réflexion porte en particulier sur les définitions et les axiomes. Chez Aristote, définition = essence et axiome = évidence. La science moderne caractérise en vue de la mesure et de l'observation. Les axiomes ne sont pas évidents puisque remis en cause. Pense avec Poincaré qu'axiomes et définitions sont interchangeables (comme en géométrie). - Primat de la théorie sur l'expérience (vs. l’inductivisme naïf). Le construit submerge le donné. - En porte-à-faux avec l'absolutisme positiviste, Le Roy défend l’idée que la science est affaire de liberté. Ce qui conduit à un certain relativisme scientifique. Le Roy ne croit pas en la vérité empirique des lois. 267 - Une théorie est évaluée en fonction de sa fécondité. Conception pragmatiste. Le discours scientifique n’atteint pas la réalité des choses, mais peut seulement servir à dégager des normes en vue de l’action. - Transpose la pensée de Bergson dans la philosophie des sciences. La raison est elle-même dynamique, elle évolue ; les progrès scientifiques comme les géométries non-euclidiennes témoignent de ce que ses anciennes limites ont été dépassées. Se réclame également du dynamisme d'Héraclite et de Dun Scot pour ce qui concerne ses œuvres religieuses. Bertrand A.W. Russell (1872-1970) Principales contributions : - Principia Mathematica (avec Alfred North Whitehead) (1910 ; 1913) - De la dénotation (1905) Concepts et idées-forces : - Invente le mot « épistémology ». - Tenant du programme logiciste qui propose une axiomatisation et une formalisation de la logique des propositions et des prédicats des mathématiques. - Atomisme logique : « La raison pour laquelle j'appelle ma théorie l'atomisme logique est que les atomes auxquels je veux parvenir en tant que résidus ultimes de l'analyse sont des atomes logiques et non pas des atomes physiques. » (La Philosophie de l'atomisme logique). - Le paradoxe (ou antinomie) de Russell : l'ensemble des ensembles n'appartenant pas à eux-mêmes appartient-il à lui-même ? - Propositions simples et complexes. - La théorie des descriptions définies (philosophie du langage). - Connaissance directe (knowledge by acquaintance) et connaissance par description (knowledge by description). - Théière de Russell (« Russell's teapot »). Aussi appelée « théière céleste ». Utilisée pour retourner contre le dogmatisme religieux la charge de la preuve. Le scientifique n’a pas à apporter la preuve de la fausseté de doctrines spirituelles ou de présupposés métaphysiques superflus, a fortiori s’ils se dérobent à l’épreuve expérimentale (non-scientificité au sens de l’épistémologie de Popper). C’est plutôt au croyant qu’il revient d’apporter 268 la preuve de ses affirmations. L’analogie de la théière céleste fait ainsi droit à l’hypothèse d’un récipient verseur en porcelaine en rotation sur le plan de l’écliptique entre la Terre et Mars : « De nombreuses personnes orthodoxes parlent comme si c'était le travail des sceptiques de réfuter les dogmes plutôt qu'à ceux qui les soutiennent de les prouver. Ceci est bien évidemment une erreur. Si je suggérais qu'entre la Terre et Mars se trouve une théière de porcelaine en orbite elliptique autour du Soleil, personne ne serait capable de prouver le contraire pour peu que j'aie pris la précaution de préciser que la théière est trop petite pour être détectée par nos plus puissants télescopes. Mais si j'affirmais que, comme ma proposition ne peut être réfutée, il n'est pas tolérable pour la raison humaine d'en douter, on me considérerait aussitôt comme un illuminé. Cependant, si l'existence de cette théière était décrite dans des livres anciens, enseignée comme une vérité sacrée tous les dimanches et inculquée aux enfants à l'école, alors toute hésitation à croire en son existence deviendrait un signe d'excentricité et vaudrait au sceptique les soins d'un psychiatre à une époque éclairée, ou de l'Inquisiteur en des temps plus anciens. » (« Is There a God ? », dans Illustrated Magazine, 1952 (inédit)). Ce n’est pas parce qu’une proposition ne peut être réfutée ou la non-existence d’une chose prouvé que cette proposition est vraie ou que cette chose existe. - D’autres analogies sur le modèle de la théière de Russell ont été invoquées, principalement pour contester les prétentions de la religion à se mêler de sciences. Ainsi de la Licorne rose invisible, du Monstre en spaghettis volant et du culte du Canard en plastique jaune de Leo Bassi. Alan D. Sokal (1955-20XX) Principales contributions : - « Transgressing the Boundaries : Towards a Transformative Hermeneutics of Quantum Gravity », dans Social Text, no 46-47, « Science Wars », printemps-été 1996, p. 217-252 - « A Physicist Experiments with Cultural Studies », dans Lingua Franca, mai-juin 1996, p. 62-64 - Impostures intellectuelles (avec Jean Bricmont) (1997) - Pseudosciences et postmodernisme : adversaires ou compagnons de route ? (2005) 269 Concepts et idées-forces : - L'affaire Sokal. Une polémique née à la suite de la parution en 1996 dans la revue Social Text, spécialisée dans les « études culturelles » (cultural studies), de son article « Transgresser les frontières : vers une herméneutique transformatrice de la gravitation quantique ». Sokal, en soumettant cette parodie d’article volontairement inepte et emphatique à la lecture critique de ses éditeurs, entendait dénoncer la propension de certaines revues postmodernistes à comité de lecture à publier n’importe quelle contribution susceptible de « flatter les préconceptions idéologiques des rédacteurs ». Le physicien et épistémologue américain révéla la supercherie peu de temps après dans son article « A Physicist Experiments with Cultural Studies », publié dans le numéro de Lingua Franca de maijuin 1996, p. 62-64. - Les conclusions qu’en tire Sokal sont sans complaisance à l’endroit de certains départements des sciences humaines qui se réclament des théories et du jargon de la déconstruction postmodernisme. Est dénoncé leur emprunt abusif et rhapsodique au vocabulaire scientifique pour appuyer les thèses philosophiques les plus extravagantes, qui ne se soutiennent pas d’elles-mêmes. La science est une chose trop sérieuse pour être laissée à des poètes idéologues. Cette usurpation d’autorité avec effet de sidération donne lieu à un ouvrage accusatoire écrit en 1997 avec la collaboration de Jean Bricmont, Impostures intellectuelles. Herbert Spencer (1820-1903) Principales contributions : - Principe de biologie (1864-1867) - Principes de sociologie (1876-1897) Concepts et idées-forces : - C’est à Spencer qu’en 1870, est associée la notion d’évolutionnisme. - Évolution vers la complexité et l’hétérogénéité, conformément à la « loi de Baer » (anatomiste russe pionnier de l’embryologie) d’après laquelle « le développement de tout organisme consiste en un changement de l’homogène vers l’hétérogène ». Issu d’une origine commune, les entités 270 biologiques et culturelles se différencient par voie de ramification successive, dans un mouvement qui fait passer du plus élémentaire au plus complexe, de l’inférieur ou supérieur, du chaotique à l’ordonné, de l’organique au spirituel, de l’animal à l’homme, de la sauvagerie barbare au monde civilisé. Néguentropie, quoique le terme n’existe pas encore. Une approche directive et mélioriste de la transformation qui le rapproche du lamarckisme. - « Survie des plus aptes ». Formule reprise par Darwin à l’occasion de la cinquième édition revue de L’Origine des espèces. - Darwinisme (ou évolutionnisme) social. Transposition aux sociétés des mécanismes de l’évolution naturelle. Les transformations des sociétés, de l’esprit humain et des espèces doivent être interprétées à la lumière d’un même principe. Il y a un continuum entre les végétaux, les animaux, les sociétés humaines et les cultures. L’évolutionnisme peut être simultanément biologique, sociologique, philosophique et anthropologique. Abolition de la frontière entre l’anthropologie et la zoologie, les sciences humaines et les sciences naturelles. - D’autres tentatives contemporaines d’application du principe de l’évolution à l’homme, qu’il s’agisse de l’étude des races, de la psychologie ou de l’histoire des sociétés. Ainsi de l’évolutionnisme social introduit par Lewis H. Morgan et par Édouard Taylor, de l’anthropologie physique de l’école de Broca, de l’évolutionnisme spiritualiste d’Armand de Quatrefages ou de l’eugénisme de Francis Galton. Prend chez Henri Bergson la forme d’un élan vital créateur faisant passer les organismes les plus frustes et les plus primitifs à la conscience (L’Évolution créatrice, 1907). Conforme à l’esprit du progrès régnant dans l’Europe impériale, positiviste et coloniale, de la fin du XIXe siècle. - Influence déterminante du contexte politique sur la réception de Spencer en France. Époque où se met en place l’État-providence et les politiques solidaristes (Léon Bourgeois). Si bien que d’abord maître à penser de la sociologie des années 1870, Spencer et le darwinisme social deviennent, à compter de 1885, l’incarnation de l’ultralibéralisme, le repoussoir idéologique. D’où l’entreprise de Durkheim, aux antipodes des postulats de Spencer, qu’il met en œuvre dans son étude De la division du travail social (1893). 271 - Perte de crédit de l’évolutionnisme social et culturel à compter des années 1940 et de la théorie synthétique de l’évolution, faisant valoir le hasard des mutations comme source de la variabilité. Supplanté par le fonctionnalisme et le structuralisme. - De nouvelles tentatives d’application de la sociobiologie à l’homme à compter des années 1970 avec le développement de l’éthologie ou de l’écologie humaine, ainsi que de la psychologie évolutionniste (evopsy) à compter des années 1980. Paul Tannery (1843-1904) Principales contributions : - La Géométrie grecque (1887) - Pour l'histoire de la science hellène (1930) - Recherches sur l'histoire de l'astronomie ancienne (1893) Concepts et idées-forces : - Auteur de nombreuses études portant sur la science antique. S’intéresse également aux mathématiques byzantines et médiévales et à l’astronomie du XVIIe siècle. - Il conteste l’image traditionnelle d’un Galilée essentiellement expérimentateur. Beaucoup des expériences que le Pisain décrit n’ont pas été réalisées. C’est la mathématisation du phénomène qui fait la singularité de son approche, comme en convient aussi Koyré à rebours de Hacking. Il en ressort, conformément à l’analyse qu’en fait Duhem, que la révolution des sciences entre le milieu du XVIe siècle et celui du XVIIe siècle fut avant tout intellectuelle. Réhabilite pour cette raison le rôle de la spéculation disqualifiée par Comte et positiviste. - En opposition à Kant qui affirmait le caractère synthétique a priori des lois de la physique et des notions mathématiques, Tannery démontre avec Duhem que le principe d’inertie n’est pas a priori – ou bien les Grecs l’auraient déjà trouvé. Or, l’inertie n’est autre que le point décisif de la démarcation entre la physique scolastique et la physique classique, celui qui rend possible la conciliation sous de mêmes lois des lieux supra- et sublunaire. 272 - Pas davantage le principe d’inertie n’est-il synthétique a posteriori (tiré de l’expérience) puisque nulle part observable dans la nature. Ne le sont que les instanciations de ce principe (la pomme, la Lune, etc.). - Conçoit le développement des sciences sur le modèle d’un continuum évolutif, empreint de darwinisme et non, comme Kuhn, comme une scansion discontinue de paradigmes. Pierre Thuillier (1932-1998) Principales contributions : - Socrate fonctionnaire. Essai sur (et contre) la philosophie universitaire (1969) - Jeux et enjeux de la science (1972) - Le petit savant illustré (1980) - Les biologistes vont-ils prendre le pouvoir ? La sociobiologie en question (1981) - Darwin et Cie (1981) - L’aventure industrielle et ses mythes (1982) - Les savoirs ventriloques. Ou comment la culture parle à travers la science (1983) - D’Archimède à Einstein. Les faces cachées de l’invention scientifique (1988) - Les passions du savoir. Essais sur les dimensions culturelles de la science (1988) - La grande implosion. Rapport sur l’effondrement de l’Occident (1995) - La revanche des sorcières. L’irrationnel et la pensée scientifique (1997) Concepts et idées-forces : - L’irrationnel de la découverte scientifique. Il n’est pas extérieur aux sciences ; il n’est pas ce que la science épuise ; il est parfois son moteur même. À rebours de la présentation idéalisée qu’en font les manuels officiels, l’émergence effective de la découverte scientifique peut être tributaire d’a prioris philosophiques, politiques et religieux. Ses sources d’inspiration vont du délire fiévreux à l’occultisme le plus déroutant. Les erreurs sont légions ; les falsifications pléthore ; les interrogations multiples. La sérindipité est plus souvent la règle que l’exception. 273 - Croisade contre le scientisme. Quand la plupart des philosophes des sciences cibleraient prioritairement la prétention des religions à imposer leur vérité (voir les « procès du singe »). À illusion, illusion et demi. « Oui, je tiens à critiquer le mythe de la "science pure". Selon ce mythe, la Science serait transcendante aux autres activités sociales ; elle serait une construction absolue, objective, neutre […] Je préfère pour ma part une approche plus réaliste ; [La science] est tout de même une construction humaine ; elle a une histoire et elle est enracinée dans tout un contexte social » (Libération du 6 janvier 1981, propos recueillis par Didier Eribon). Cf. aussi la préface-manifeste au Petit savant illustré de 1980. - Au-delà du scientisme, critique de la rationalité à outrance et de l’hégémonie des sciences qui ne font plus droit de cité à d’autres formes du connaître : la poésie, l’art, etc. le roman d’anticipation de 1995 intitulée La grande implosion détaille l’effondrement de l’Occident aveugle à ses échecs et incapable de remettre en cause ses idoles religieuses que sont devenues les économies de marché, la technique et le mode de vie urbain. Désenchantement du monde poussé à son plus extrême degré ; absence de récit collectif à même de fédérer un peuple, ce sont là quelques-unes des conséquences de l’impérialisme scientifique : « Si l’Occident s’était effrité, s’il s’était culturellement décomposé, c’était parce qu’il avait fini par perdre tout sens poétique », lit-on ici. « Sans poètes, pas de mythes ; et sans mythes, pas de société humaine ; c’est-à-dire pas de culture ». L’exclusivisme scientifique qui confine au monothéisme dispose la recherche à la mort lente. - Vision du monde matérialiste et pragmatiste qui aurait commencé avec la renaissance du XIIe siècle et l’urbanisation qui s’ensuivit. Alliance des ingénieurs et des marchands qui font un pas hors de la scolastique pour préparer le règne des sciences de l’économie. - Intéressement de la science. Contre le postulat de neutralité axiologique, montre que la science a des enracinements socio-économiques, des mobiles contextuels qui peuvent être religieux ou politiques, des retombées qui le sont tout autant. Les controverses scientifiques ne se règlent pas le plus souvent à la faveur de démonstrations. Les scientifiques sont des hommes comme les autres, animés de leur intention propre. Voir notamment L’aventure industrielle et ses mythes qui revient sur l’arrière-plan idéologique prévalant à la mise en place de nouvelles techniques ou Les 274 passions du savoir qui prend en charge la question de l’eugénisme, de l’expérimentation humaine, du féminisme, de la « science juive » ; soit de la connivence entre une certaine science et une entreprise politique. Thuillier critique sous ces auspices la sociobiologie et les programmes de recherche à saveur eugéniste. John Tooby (1952-20XX) Voir : Leda Cosmides. Hugo de Vries (1848-1935) Principales contributions : - Hérédité, mutation et évolution (1937) Concepts et idées-forces : - De Vries introduit la notion de « mutation » en biologie, qu’il oppose au concept de variabilité fluctuante et limitée, postulée par Darwin. - Mutationnisme. Inspiré du transformisme expérimental de Camille Dareste (1822-1899). Macro-évolution ou saltationnisme qui fait valoir des moments critiques de mutations rapides entrecoupées par des périodes de relative stabilité dans le processus de transformation des espèces. L’idée sera reprise et développée par Thomas H. Morgan (1866-1945). S’oppose à la vision gradualiste et continuiste de la transformation des espèces, soutenue par Lamarck. - Découvre, en 1900, des lois de l’hérédité indépendamment des travaux de Gregor Mendel, et de manière similaire à Carl Correns et Erich von Tschermak-Seysenegg. Lois statistiques qui mettent en évidence l’existence de caractères dominants et récessifs. Aux fondements d’une nouvelle discipline qui prend le nom de « génétique » (Bateson). Combinée à la théorie de l’évolution et aux autres apports du génie génétique, donne lieu au néodarwinisme ou à la théorie synthétique de l’évolution. Le hasard apparent qui semble administrer les mutations contribue à la dépréciation du transformisme (finaliste, presque « volontariste ») de Lamarck, qui reste cependant latent en France tout au long du XXe siècle. - Membre étranger de la Royal Society depuis 1905. 275 Max Weber (1864-1920) Principales contributions : - L'Éthique protestante et l'esprit du capitalisme (1905) - Essais sur la théorie de la science (1904-1917) - Le Savant et le politique (1919) - Recueil d'études de sociologie des religions (1920) Concepts et idées-forces : - Sociologie compréhensive. Interprétative et herméneutique plutôt que naturaliste et réifiante, en ce qu’elle s’emploie à exhumer le sens subjectif et les motifs des actions des individus, au fondement des phénomènes sociaux : « Nous appelons sociologie une science qui se propose de comprendre par interprétation l'activité sociale et par là expliquer causalement son déroulement et ses effets » (Économie et société). - Individualisme méthodologique. Interprète le social à partir des individus et non les individus à partir du social. - Approche aux antipodes de la conception explicative, mécaniste, statistique, objective et holiste (globale) de la sociologie attribuée à Durkheim, pour qui « les fait sociaux doivent être traités comme des choses ». L’opposition entre les deux méthodes, l’une relevant de la tradition allemande et l’autre de la tradition française, fut relevé par Raymond Aron et reprise par Raymond Boudon dans les années 1970, devenant l’un des points de controverse méthodologique les plus ardents de la sociologie. - On explique par ailleurs la réception tardive et suspicieuse de l’œuvre de Weber en France par la prégnance de l'école durkheimienne dans les années de l’avant-guerre puis par celle de la pensée marxiste, faisant valoir la détermination de ce que Bourdieu appellera l’habitus par la situation socio-économique. - Opposition méthodologique à relativiser. Elle nous en apprend plus sur l’ignorance de ceux qui la convoquent que sur les travaux respectifs de Weber et de Durkheim. Contre la tentation de faire de Weber un champion inconditionnel de l’approche subjectiviste et individualiste, l’usage attesté – dès son article le plus célèbre sur l’éthique protestante et l’esprit du capitalisme – de statistiques, la mention de l’influence des traditions, des religions, du commerce, des études historiques de psychologie collective et 276 la mention de corrélation sociale générale ; autant d’indications que l’on n’attendrait pas de la part d’un chercheur qui ne tiendrait compte que de motivations individuelles. Quant au sort fait à la méthode de son concurrent, cf. notice Durkheim. - Les « sciences de la culture ». Défend l’irréductibilité des sciences de l’esprit (sociologie, histoire, etc.) aux sciences de la nature ; contra la tradition positiviste dominante en France. Ainsi, Durkheim concède à la sociologie une méthode spécifique, mais dérivée et tributaire de celle des sciences naturelles. - Neutralité axiologique. Jugements de valeur (subjectifs ; à bannir du discours du sociologue) et rapports aux valeurs (objectifs ; à considérer comme des données sociales à intégrer dans l’analyse compréhensive des phénomènes sociaux). Une règle déontologique : ne pas porter de jugement normatif. La seule valeur susceptible d’accompagner le travail scientifique est celle de la vérité. (On peut se demander s’il ne s’agit pas d’un idéal ou d’un aveuglement plutôt que d’un ethos humainement accessible). - L'idéal-type. Construit par le chercheur pour servir de repère, de modèle éthéré, de « tableau de pensée homogène » que légendent des propriétés spécifiques et distinctives ; en somme, de schème « utopique » rendant la multiplicité de l’observation intelligible à l’aune d’une construction intellectuelle à valeur heuristique. Permet de rapporter les différentes instanciations de l’objet empirique à une norme (stéréotype, cliché) pour en considérer l’écart. - Sociologie des religions. Weber reconnaît la contribution paradoxale et décisive des religions au processus de rationalisation du monde. Les grandes civilisations se développent en produisant des représentations toujours plus systématiques et méthodiques, avec une acuité particulière en Occident : « Ce qui importe donc, en premier lieu, c'est de reconnaître et d'expliquer dans sa genèse la particularité du rationalisme occidental […]. L'apparition du rationalisme économique […] dépend de la capacité et de la disposition des hommes à adopter des formes déterminées d'une conduite de vie caractérisée par un rationalisme pratique. Là où une telle conduite de vie a rencontré des entraves d'ordre psychique, le développement d'une conduite de vie rationnelle dans le domaine économique a rencontré, lui aussi, de fortes résistances intérieures. Or, parmi les éléments les plus importants qui ont façonné la conduite de vie, on trouve toujours, dans le passé, les 277 puissances magiques et religieuses ainsi que les idées éthiques de devoir qui sont ancrées dans la croyance en ces puissances » (« Avant-propos » du Recueil d'études de sociologie des religions). - Désenchantement du monde. Effacement de la croyance en une causalité magique et en l’intervention divine dans le monde phénoménal. La téléologie le cède au mécanisme, les intentions aux lois ; d’où s’ensuit une « vacance du sens ». L’homme moderne ne prête plus à l’existence de signification fondamentale. La « cage d’acier » ou « cage de fer » (« iron cage ») dénonce le risque d’oppression de l’individu par un système technocratique glacé, absurde et déshumanisé, fondé sur le calcul et avide de contrôle. - Une thèse à nuancer. En dépit d’une récente « désacralisation de la Nature » en Occident, la pensée magique n’a pas été éradiquée. Comme le remarque Mircea Eliade, les mythes opèrent encore efficacement sur une grande partie du globe : « L'expérience d'une Nature radicalement désacralisée [...] n'est accessible qu'à une minorité des sociétés modernes, et en premier lieu aux hommes de science ». Quant aux mythes relatifs à la Nature, ils prolifèrent jusqu’à constituer parfois des « pseudo-religions », des « mythologies dégradées ». On songe à l’usage fait par les « mouvances Gaïa » de l’hypothèse de James Lovelock, chimiste britannique, et de Lynn Margulis, une microbiologiste américaine, dans les années 1970 (cf. La Terre est un être vivant, l'hypothèse Gaïa, 1999). Des résurgences de pensée animiste dans nombre d’ouvrages s’inspirant de préoccupations écologiques : personnification, ampleur cosmique, « la terre se venge », etc. Une nouvelle religiosité, forme de spiritualité New-Age, en réaction contre les excès de la société industrielle. Également dans le champ de la controverse scientifique avec les thèmes de l’élan vital, pierre angulaire des théories de l’École de Montpellier, où de la mémoire de l’eau défendue par Jacques Benveniste dans sa thèse polémique de 1988. La science produit ses propres mythologies, ses propres entités, ses propres métaphores (la « particule de Dieu »), progresse dans la spéculation au point de recréer elle-même ses récits de l’origine et du sens de la vie. On ne détruit que ce que l’on remplace. - Influence du protestantisme dans la genèse du capitalisme. Et plus spécifiquement, du calvinisme et du puritanisme en général ; par quoi s’explique l’ascèse du travail qui a conduit au système de production 278 moderne. La réussite professionnelle objectivée par la richesse sociale confirme, dans l’optique protestante, le statut d’élu de l’individu. Le paradoxe tient à ce qu’une théologie de la prédestination ait été l’aiguillon de l’effort plutôt que du « sophisme paresseux ». - C’est donc, pour Max Weber et à rebours de Marx, l’idéologie (ici la religion) qui a déterminé le mode de production capitaliste, et non le mode de production capitaliste qui a déterminé l’idéologie. - Cette influence décisive de l’éthique protestante que Max Weber retrouve à l’origine de l’esprit du capitalisme, R.K. Merton l’identifiait aussi au cœur des valeurs de rationalisme et de rigueur scientifique qui caractérisait les chercheurs de la Royal Society de Londres, à laquelle ont appartenu entre autres Rober Boyle, Isaac Newton et son rival Robert Hooke, John Ray, William Halley et Christopher Wren. - Éthique de conviction et éthique de responsabilité. - Définition de l’État moderne comme entité politique à laquelle est échue le monopole de la violence légitime. William Whewell (1794-1866) Principales contributions : - Histoire des sciences inductives (1837) - Novum Organon renovatum (1858) Concepts et idées-forces : - Invente en 1848 la dénomination de « scientifique » par distinction d’avec le « savant » du XVIIe siècle. - Sciences palétiologiques, dont la caractéristique est de régresser à un état passé des choses en inférant de l’état présent d’après les causes supputées du changement (Histoire des sciences inductives). Prédiction rétrospective = rétrospection. - La « consilience » de l'induction : fait d’aboutir à des résultats analogues en partant de disciplines distinctes. - Le recueil des faits est tributaire d’une hypothèse de travail, contra l’empirisme naïf. 279 Steve Woolgar (1950-20XX) Principales contributions : - La vie de laboratoire. La production des faits scientifiques (avec Bruno Latour) (1979) - The Cognitive Turn : sociological and psychological perspectives on science (avec Steve Fuller et M. de Mey) (1989) - Representation in Scientific Practice (avec Michael Lynch) (1990) Concepts et idées-forces : - Anthropologie des sciences. Étude ethnographique du fonctionnement d’un laboratoire de neuro-endocrinologie. Voir notice Bruno Latour. - Représentant du courant britannique de sociologie de la connaissance scientifique (SSK), développé par Harry Collins, David Edge ou Michael Mulkay. - Réoriente ses derniers travaux vers la question du marketing. Reconversion significative qui soutient une analogie entre la capacité des scientifiques à « investir en crédibilité » et celle des publicitaires à promouvoir leurs produits. Ludwig Wittgenstein (1889-1951) Principales contributions : - Tractatus logico-philosophicus (1921) - Cahier bleu (1933-1935) - Investigations philosophiques (1953) - De la certitude (1969) Concepts et idées-forces : - Nouvelle conception de la philosophie conçue comme moins comme recherche métaphysique de la vérité que comme activité de clarification logique de la pensée. Le rôle du philosophe consiste à épurer le langage de ces non-sens métaphysiques, sans valeur de vérité. Les controverses philosophiques se résolvent dans cette explicitation. Proche de la Caractéristique universelle selon Leibniz. - Le Tractatus, écrit au début de la Grande guerre durant son engagement dans l’armée autrichienne, se compose d’une suite d’aphorismes 280 s’enchaînant comme des théorèmes mathématiques. Cet ouvrage lu, selon son auteur, doit aussitôt être oublié, n’être jamais considéré que comme une étape transitoire du cheminement philosophique. On ne fonde pas d’église avec le Tractatus ; contra le Cercle de Vienne. - « Le monde est tout ce qui a lieu » = ensemble de faits que le langage a pour fonction de décrire comme un tableau décrirait son modèle, en écartant les propositions métaphysiques qui ne sont pas susceptibles de vérification. La structure d’une proposition vraie est analogue à celle des faits qu’elle énonce : mondes et langage sont isomorphes. - Propositions logiques sont de l’ordre analytique. Tautologiques, elles n’ajoutent rien à notre connaissance du monde. - Inspire la division établie par Carnap entre les énoncés observationnels et les énoncés théoriques. - Développe les concepts de sens/non-sens/vide de sens, montrer/dire, jeu de langage, etc. - La signification d’un énoncé n’est autre que son usage syntaxique. Adaptation à la sémantique du principe du rasoir d’Ockham : « Si un signe n'a pas d'usage, il n'a pas de signification. Tel est le sens de la devise d'Occam. (Si tout se passe comme si un signe avait une signification, c'est qu'alors il en a une.) » (Tractatus logico-philosophicus, 1921). - « Ce dont on ne peut parler, il faut le taire ». Formule ambiguë, donne lieu à de multiples interprétations. - Le Tractatus inspire le programme du manifeste du Cercle de Vienne. Wittgenstein se défend de cette filiation qu’il conçoit comme une trahison. Frances Yates (1899-1981) Principales contributions : - Giordano Bruno et la Tradition hermétique (1964) - L'Art de la mémoire (1966) - Science et tradition hermétique (1967-1977) - La Philosophie occulte à l'époque Elisabéthaine (1979) - Raymond Lulle et Giordano Bruno (1982) 281 Concepts et idées-forces : - Met en valeur le rôle fondamental joué par l’occultisme, par l’hermétisme et par le néoplatonisme dans la réforme de la philosophie et l’émergence des sciences au seuil de la modernité. Historien spécialiste des premiers âges de la modernité, auteur célèbre de Religion and the Decline of Magic et de Man and the Natural World, Keith V. Thomas lui sait gré d’avoir défriché une région jusqu’alors délaissée de l’historiographie : « The seminal studies of Michel Foucault and Frances Yates, even if not fully persuasive in every aspect, have made it impossible for historians ever again to ignore the role of various forms of magical thinking and practice in the Renaissance understanding of the natural world » (Anthony Grafton, Nancy Siraisi (éd.), Natural Particulars, Introduction, 1999). - Décèle les survivances du gnosticisme, du mysticisme alexandrin et de la magie chez les penseurs du Moyen Âge. Giordano Bruno exécuté en 1600 pour avoir témoigné de sa foi en l’hermétisme plutôt que avoir professé l’héliocentrisme (double mouvement des planètes sur elles-mêmes et autour du Soleil) ou la pluralité des mondes habités. 282 Bibliographie indicative Acot P., L'histoire des sciences, Presses universitaires de France, 1999. Alder K., Mesurer le monde, 1792-1799 : l'incroyable histoire de l'invention du mètre, Flammarion, 2005. Daston L., Galison P., Objectivity, Zone Books, 2007. Alquié F., La philosophie des sciences, La Table Ronde, 2002. Althusser L., Philosophie et philosophie spontanée des savants (1967), Maspero, 1974. Ampère A.-M., Essai sur la philosophie des sciences. Ou Exposition analytique d'une classification naturelle de toutes les connaissances humaines, Bachelier, 1834. Andler D., Fagot-Largeault A., Saint-Sernin B., Philosophie des sciences (2 vol.), Gallimard, 2002. Aristote, Catégories, Le Seuil, 2002. Aristote, Organon, trad. Tricot J., Vrin, 1983. Aristote, Seconds Analytiques, Flammarion, 2005. Aristote, Traité du ciel, Vrin, 1990. Arnault A., Nicole P., La logique, ou l'art de penser, Gallimard, 1992. Astofli J.-P., M. Develay, La didactique des sciences, Presses universitaires de France, 1989. Bachelard G., Épistémologie, textes choisis. Presses universitaires de France, 1971. Bachelard G., Essai sur la connaissance approchée, Vrin, 1973. Bachelard G., La formation de l'esprit scientifique. Contribution à une psychanalyse de la connaissance, Vrin, 1993. Bachelard G., L'activité rationaliste de la physique contemporaine, Presses universitaires de France, 1951. Bachelard G., Le nouvel esprit scientifique, Presses universitaires de France, 2003. Bacon F. Novum Organum, trad. Lorquet A., Hachette, 1990. Barberousse A., Kistler M., Ludwig P., La philosophie des sciences au XXe siècle, avec Flammarion, Champs U, 2000. 283 Barreau H., L'épistémologie, Paris, Presses universitaires de France, 2008. Baudet J.C., Mathématique et vérité, L'Harmattan, Paris, 2005. Ben-David J., Éléments d'une sociologie historique des sciences, Gad Freudenthal (éd.), trad. Launay M. de, Presses universitaires de France, 1997. Ben-David J., The Scientist's Role in Society, U. of Chicago Press, 1984. Bensaude-Vincent B., Lavoisier. Mémoires d'une révolution, Paris, Flammarion, 1993. Bensaude-Vincent B., Stengers I., Histoire de la chimie, La Découverte, 2001. Benthem J. van, Meulen A. ter (éd.), Handbook of Logic and Language, Elsevier, 1997. Bernard C, Introduction à l'étude de la médecine expérimentale, éd. Fataud J.M., Bordas, 1966. Besnier J.-M., Les théories de la connaissance. Un exposé pour comprendre, un essai pour réfléchir, Flammarion, 1996. Blackburn P., Rijke M. de, Venema Y., Modal Logic, Cambridge UP, 2001. Blanche R., Dubucs J., La logique et son histoire, A. Colin (1970), 1996. Blanché R., L'induction scientifique et les lois naturelles, Presses universitaires de France, 1975. Blay M., La science du mouvement de Galilée à Lagrange, Belin, 2002. Bohr N., Physique atomique et connaissance humaine (1958), trad. Bauer E., Omnès Roland, Gallimard, 1991. Boltzmann L., Leçons sur la théorie des gaz, Sceaux, Gabay, 1987. Bonnay D., Cozic M., Textes clés de philosophie de la logique : logique, preuve, vérité, Vrin, 2009. Boolos G., Jeffrey R., Computability and Logic, Cambridge UP, 1974, 2002. Boss G., John Stuart Mill. Induction et utilité, Éditions du Grand Midi, 2009. Bourdeau M., Braunstein J.-F., Petit A., Auguste Comte aujourd'hui, Colloque de Cerisy, 3-10 juillet 2001, précédé de Houellebecq M., Préliminaires au positivisme, Kimé, 2003. Braunstein J.-F. (dir.), L'histoire des sciences : méthodes, styles et controverses, Vrin, 2008. Brenner A., Duhem : Science, réalité et apparence, Librairie Philosophique Vrin, Mathesis, 2000. 284 Brenner A., Les origines françaises de la philosophie des sciences, Presses Universitaires de France, Science, histoire et société, 2003. Brenner A., Raison scientifique et valeurs humaines, Presses Universitaires de France, Science, histoire et société, 2011. Broch H., Charpak G., Devenez sorciers, devenez savants, Odile Jacob, 2002. Broda E., Ludwig Boltzmann : man, physicist, philosopher, trad. Gay L., Woodbridge, CT, Ox Bow Press, 1983. Brunschwig J., Lloyd G.E.R. (éd.), Le savoir grec. Dictionnaire critique, Flammarion, 1996. Bunge M., Épistémologie, Maloine, 1983. Busino G., Sociologie des sciences et des techniques, Paris, Presses universitaires de France, 1998. Canguilhem G. La formation du concept de réflexe aux XVIIe et XVIIIe siècles, Presses universitaires de France, 1955. Canguilhem G., Le normal et le pathologique (1966), Presses universitaires de France, Quadrige, 2005. Carnap R., H. Hahn, Manifeste du Cercle de Vienne et autres écrits, sous la direction de Soûlez A., Presses universitaires de France, 1985. Carnap R., Logical Foundations of Probability, University of Chicago Press, 1962. Cercignani C. Ludwig Boltzmann: the man who trusted atoms, Oxford University Press, 2006. Chalmers A.F., Qu'est-ce que la science? Popper, Kuhn, Lakatos, Feyerabend, Le Livre de Poche, 1990. Châtelet G., Les enjeux du mobile : mathématique, physique, philosophie, Le Seuil, 1993. Chevalier J.-M., Gaultier B., Connaître. Questions d’'épistémologie contemporaine, Ithaque, Philosophie, 2014. Chevasus-au-Louis N., Les Savants sous l'Occupation : enquête sur la vie scientifique française entre 1940 et 1944, Seuil, Science ouverte, 2004. Cicéron, De la divination, trad. Appuhn C., Garnier Frères, 1937. Clavelin M., La Philosophie naturelle de Galilée. Essai sur les origines et la formation de la mécanique classique, A. Michel, 1996. Collins H., Pinch T., Les nouveaux Frankenstein : quand la science vous trahit, trad. Argouarc'h M., Paget D., Flammarion, 2001. 285 Collins H., Pinch T., Tout ce que vous devriez savoir sur la science, trad. Piélat T., Seuil, 2001. Comte A., Cours de philosophie positive (1830-1842), 2 vol., Paris, Hennann, 1975. Condorcet, Esquisse d'un tableau historique des progrès de l'esprit humain (1793-1794), Librairie philosophique J. Vrin, Paris, 1970. Copernic N., Des révolutions des orbes célestes, trad. Koyré Alexandre, Félix Alcand, 1934. Cori R., Lascar D., Logique mathématique, 2 vol., Dunod, 2003. Cournot A.A., « Considérations sur la marche des idées et des événements dans les temps modernes », dans The American Historical Review, 40, 1, 1934. Dagognet F., La raison et les remèdes, Paris, Presses universitaires de France, 1964. Dahan-Dalmedico A., Peiffer J., Une histoire des mathématiques : routes et dédales, Seuil, Points sciences, 1986. Dalen D. van, Logic and Structure, Berlin, Springer, 2004. Darwin C., L'origine des espèces au moyen de la sélection naturelle, ou La lutte pour l'existence dans la nature (1859), Flammarion, 2008. Daumas M. (dir.), Histoire générale des techniques, Presses universitaires de France, 1962-1979. David R., Nour K., Raffalli Ch., Introduction à lu logique. Théorie de la démonstration, Dunod, 2003. Dear P., Revolutionizing the Sciences : European Knowledge and its Ambitions, 1500-1700, Palgrave, 2001. Gingras Y., Keating P., Limoges C., Du scribe au savant : les porteurs du savoir de l'Antiquité à la révolution industrielle, Boréal, Presses universitaires de France, 1998. Delmas Y., Lalement R., La logique. Ou l'art de raisonner, Le Pommier, Quatre à quatre, 1999. Descartes R., Discours de la méthode. Pour bien conduire sa raison et chercher la vérité dans les sciences, éd. Liard L., Guénard A., Garnier Frères, 1950. Dhombre J.et al., Mathématiques au fil de l'âge, Gauthiers-Villars, 1987. Dhombres J., A. Kremer-Marietti, L'épistémologie : état des lieux et positions, Ellipses Marketing, 2006 286 Diogène Laërce, Vie, doctrines et sentences des philosophes illustres, trad. Genaille R., Garnier Frères, 1960. Duhem P., La théorie physique, son objet, sa structure, Chevalier et Rivière, 1906. Duhem P., Le système du monde. Histoire des doctrines cosmologiques de Platon a Copernic, Hermann, 1954. Duhem P., L'évolution de la mécanique. Suivi de Les théories de la chaleur : analyse de l'ouvrage de Ernst Mach, La mécanique, éd. Brenneret A., Germain P., Vrin, 1992. Duhem P., Sozein ta phainomena. Essai sur la Notion de Théorie physique de Platon à Galilée Dumont J.-P., Delattre D., Poirier J.-L, Les Présocratiques, Gallimard, 1988. Dutant J., Engel P., Textes clés de la philosophie de la connaissance : Croyance, connaissance, justification, Vrin, 2005. Einstein A., Comment je vois le monde, Flammarion/Champs, 1983. Einstein A., La Relativité, trad. Solovine Maurice, Gallimard, 1956. Enderton H.B., A Mathematical Introduction to Logic, Académie Press, 2001. Enderton H.B., Eléments of Set Theory, New York, Académie Press, 1977. Esfeld M., Philosophie des sciences : Une introduction, Presses polytechniques et universitaires romandes (PPUR), 2009. Esfeld M., Physique et métaphysique : Une introduction à la philosophie de la nature, Presses polytechniques et universitaires romandes (PPUR), 2012. Fagin R., Halpern J. et al, Reasoning about Knowledge, Cambridge (MA), MIT Press, 1995. Farouki N., Qu'est-ce qu'une idée ?, Le Pommier, Quatre à quatre, 1999. Feyerabend P., Contre la méthode. Esquisse d'une théorie anarchiste de la connaissance, trad. Jurdant B., Schlumberger A., Seuil, 1988. Folscheid D., Les grandes dates de la philosophie antique et médiévale, Presses universitaires de France, 1996. Foucault M., L'archéologie du savoir, Gallimard, 1969. Foucault P.-M., Les Mots et les choses : archéologie des sciences humaines, Gallimard, 1966. Fourez G., Apprivoiser l'épistémologie, De Boeck, 2003. Frege G., Écrits logiques et philosophiques, Le Seuil, 1971. Frege G., Écrits posthumes, 1969, trad. Chambon J., 1994. 287 Frege G., Idéographie, éd. Besson C., Barnes J., Vrin, 1999. Gabbay D., Guenthner F. (éd.), Handbook of Philosophical Logic, D. Reidel, Springer, 2005. Galilée G., Dialogue sur les deux grands systèmes du monde (1632), trad. Fréreux R., Seuil, 1992. Galilei G., L’essayeur, trad. Chauviré C., Les Belles Lettres, 1980. Galison P., L'empire du temps : les horloges d'Einstein et les cartes de Poincaré, Gallimard, Folio-essais, 2005. Gamut L.T.F., Logic, Language and Meaning, 2 vol., University of Chicago Press, 1991. Gaston Bachelard, Épistémologie : Textes choisis, Presses Universitaires de France, 1971. Gille B. (dir.), Histoire des techniques, Gallimard, 1978. Gillespie C.C. (dir.), Dictionary of Scientific Biography, Scribner's Sons, 1970-1980. Giordan A., Vecchi G. de, L'enseignement scientifique. Comment faire pour que « ça marche » ? Delagrave, 2002. Girard J.-Y., Proof Theory and Logical Complexity, Bibliopolis, 1987. Goble L. (éd.), The Blackwell Guide to Philosophical Logic, Black-well, 2001. Gochet P., Gribomont P., Thayse A., Logique, 3 vol., Hermès, 1990-2000. Gôdel K., Collected Works, 5 vol., Oxford UP, 1986-2003. Golinski J., Making Natural Knowledge : Contructivism and the History of Science, Univ. of Chicago Press, 2005. Gonseth F., Le problème de la connaissance en philosophie ouverte, textes choisis et présentés par Emery E., Lausanne, L'Âge d'homme, 1990. Goodman N., Faits, fictions et prédictions, Éditions de Minuit, 1985. Gouhier H., La Vie d'Auguste Comte, Vrin, 1997. Granger G. G., La Science et les sciences, Paris, Presses universitaires de France, 1993. Haaparanta L. (éd.), The History of Modem Logic, Oxford UP, à paraître. Hacking I., Ducrest B., Concevoir et expérimenter. Thèmes introductifs à la philosophie des sciences expérimentales, Paris, C. Bourgois, 1989. Hacking I., Entre science et réalité : la construction sociale de quoi ?, trad. Jurdant B., La Découverte, Paris, 2001 288 Haking I., L'ouverture au probable. Éléments de logique inductive, trad. Dufour M., A. Colin, 2004. Hanson N.R., The concept of positron, Cambridge University Press, 1963. Hanson N.R., Patterns of discovery : An inquiry into the conceptual fondations of science, Cambridge University Press, 1958. Heidegger M., Essais et conférences, Gallimard, 2001. Heijenoort J. van (éd.), From Frege to Gôdel. A Sourcebook in Mathematical Logic, Oxford UP, 1879-1931. Heisenberg W., La Nature dans la physique contemporaine, trad Karvelis U., Leroy A.E., Chevalley C., Paris, Gallimard, 2000. Hempel C.G., Éléments d'épistémologie, A. Colin, 1972 Holbach P.H.D., Système de la nature. Par le baron d'Holbach, éd. Diderot D., Etienne Ledoux, 1821. Humboldt A. de, Cosmos : essai d'une description physique du monde, trad. Faye H., Baudy J., 1855. Hume D., Enquête sur l'entendement humain. Enquête sur les principes de la morale, trad. Leroy A.-L., Beyssade M., Flammarion, 2008. Hume D., Traité de la nature humaine. Livre premier, ou De l'entendement, trad. Renouvier C., Billon F., Au Bureau de la Critique Philosophique, 1878. Husserl E., Idées directrices pour une phénoménologie, t. 1, trad. Ricœur P., Paris, Gallimard, 1963. Husserl E., La Crise des sciences européennes et la phénoménologie transcendantale, trad. Granel G., Gallimard, 1976. Jacob M., Scientific Culture and the Making of the Industrial West, Oxford UP, 1996. Jacquard A., La Sciences à l'usage des non-scientifiques, Calmann-Lévy, 2001. Jacquette D. (éd.), A Companion to Philosophical Logic, Blackwell, 2002. Jacquette D. (éd.), Philosophy of Logic, North-Holland, 2006. Jaquet C, Bacon et la promotion des savoirs, Presses universitaires de France, 2010. Jastrow J., Fact and fable in psychology, Macmillan, 1901. Kant E., Critique de la raison pure, trad Alquié F., Delamarre A.J.-L, Marty F., Gallimard, 1980. Kleene S., Logique mathématique, A. Colin, 1971. 289 Koertge N. (dir.), New Dictionary of Scientific Biography, 8 vols, Gale, 2007. Koyré A., Études newtoniennes (1964), Gallimard, 1968. Koyré A., Du monde dos à l'univers infini, trad. Tarr R., Presses universitaires de France, 1962. Koyré A., Études d'histoire de la pensée scientifique, XX Koyré A., Études galiléennes, Hermann, 1939 Koyré A., La révolution astronomique. Copernic, Kepler, Borelli, Hermann, 1961. Kremer-Marietti A., Philosophie des sciences de la nature, Presses Universitaires de France, 1999. Kripke S.A., Règles et langage privé ? Introduction au paradoxe de Wittgenstein, Le Seuil, 1996. Kuhn T.S., La révolution copernicienne, Fayard, 1973. Kuhn T.S., La structure des révolutions scientifiques (1962), Flammarion, 1970. La Mettrie J.O., L'homme-machine, Assoun P.L., Denoël-Gonthier, 1981. Lachelier J., Du fondement de l'induction. Suivi de Psychologie et métaphysique et de Notes sur le pari de Pascal, éd. Moutaux J., Fayard, 1992. Lakatos I., Falsification and the Methodology of Scientific Research Programs dans Lakatos I., Musgrave A. (éd.), Criticism ans the Growths of Knowledge, Cambridge Univeristy Press, 1970. Lakatos I., Preuves et réfutations : essai sur la logique de la découverte mathématique, trad. Balacheff N., Laborde J.M., Hermann, 1984. Lalande A., Les théories de l'induction et de l'expérimentation, Boivin & Cie, 1929. Lange F.-A., Histoire du matérialisme et critique de son importance à notre époque, Coda, 2004. Laplace P.S., Essai philosophique sur les probabilités, Courcier, 1816. Laplace P.S., Exposition du système du monde dans Œuvres complètes, Gauthier-Villars, 1878-1912. Largeault J. (éd.), Intuitionisme et théorie de la démonstration, Vrin, 1992. Latour B., La Science en action : introduction à la sociologie des sciences, Gallimard, 1995. 290 Latour B., Petites leçons de sociologie des sciences, Le Seuil, Point-Sciences, 1994. Laugier S., Wagner P. (éd.), Textes clés de philosophie des sciences, t. I : Théories, expériences et méthodes ; t. II : Naturalismes et réalismes, Vrin, 2004. Laugier S., Wagner P., Philosophie des sciences, 2 vol., Vrin, 2004. Lavoisier A.-L, Traité élémentaire de chimie. Présenté dans un ordre nouveau, et d'après les découvertes modernes, Hachette Livre BNF, 1012. Le Moigne J.-L., Les épistémologies constructivistes, Que sais-je ?, Presses universitaires de France, 2012. Lecourt D., Bourgeois T., Dictionnaire d'histoire et philosophie des sciences, Presses universitaires de France, Quadrige Dicos Poche,2006. Lecourt D., Dictionnaire de la pensée médicale, Paris, Presses universitaires de France, Quadrige, 2004. Lecourt D., L’épistémologie historique de Gaston Bachelard (1969), Vrin, 2002. Lecourt D., La philosophie des sciences (2001), Que sais-je ?, Presses universitaires de France, 2010. Lepage F., Éléments de logique contemporaine, Presses de l'Université de Montréal, 1991. Lloyd G.E.R., Les débuts de la science grecque. De Thaïes à Aristote, trad. Brunschwig J., Maspero, 1974. Locke J., Essai sur l'entendement humain, Vrin, 2001. Lovejoy A.O., The Great chain of being. A study of the history of an idea by Arthur O. Lovejoy, Harvard University press, 1942. Lucrèce, De la nature, trad. Ernout A., Gallimard, 1990. MacFarlane J., What Does it Mean to Say that Logic is Formai ?, Ph.D, université de Pittsburgh, 2000. Mach E., La mécanique, exposé historique et critique de son développement (1883), Hermann, 1904. Machover M., Set Theory, Logic and their Limitations, Cambridge UP, 1996. Maine de Biran P., « Mémoire sur la décomposition de la pensée », dans Œuvres, t. III. Paris, Vrin, 1988. Malherbe J.-F., Épistemologies anglo-saxonnes, Presses universitaires de Namur, 1981. 291 Marion P., Le génial bonhomme Ampère. Le roman de sa vie, Mémoire des arts, 1999. Mathieu F., Une brève histoire de monde, TheBookEdition, 2013. Merton R., Eléments de théorie et de méthode sociologique, trad. Mendras Henri, A. Coli, 1997. Nowotny H., Scott P., Repenser la science : savoir et société à l'ère de l'incertitude, Belin, 2003. Mesure S., Dilthey W., Critique de la raison historique. Introduction aux sciences de l'esprit et autres textes, Éditions du Cerf, 1992. Morin E., La Méthode, La Connaissance de la connaissance, 1986, Le Seuil, Nouvelle édition, Points, 2010. Nadeau R., Vocabulaire technique et analytique de l'épistémologie , Paris, Presses universitaires de France, 1999. Nicod J., Le problème logique de l'induction, préface de Russell B., Presses universitaires de France, 1961. Nouvel P., L'Art d'aimer la science, Presses universitaires de France, Science, histoire et société, 2000. Nye M.J., Before Big Science: The Pursuit of Modern Chemistry and Physics, 1800-1940. Rosmorduc J., Une histoire de la physique et de la chimie, de Thalès à Einstein, Seuil, Points/sciences, Paris, 2001. Olby R.C. et al., Companion to the History of Modern Science Routledge, 1990. Osler M.J. (dir.), Rethinking the Scientific Revolution, Cambridge University Press, 2000. Panza M., Newton, Les Belles Lettres, 2003. Pascal B., Œuvres complètes, Hachette, 1858. Pascal N., Philosophie des sciences, Presses universitaires de France, Licence Philo, 2011. Perdijon J., La mesure, science et philosophie, Flammarion, Dominos, 1998. Perrin J., Les atomes, Paris, Alcan, 1921. Pestre D., Introduction aux « Sciences studies », La Découverte, 2006. Piaget J., Introduction à l'épistémologie génétique, t. I : La pensée mathématique ; t. II : La pensée physique ; t. III : La pensée biologique, la pensée psychologique et la pensée sociale, Presses universitaires de France, 1950. 292 Pickstone J.V., Ways of Knowing : A New History of Science, Technology and Medicine, Manchester Univ. Press, 2000. Pierre B., Science de la science et réflexivité : cours du Collège de France, 2000-2001, Raisons d'agir, 2001. Poincaré H., Science et méthode, Kimé, 1999. Pont J.-C, « Auguste Comte et William Whewell. Œuvres contemporaines », dans Revue philosophique de la France et de l'étranger, janvier 2007, p. 471-491. Popper K.R., Conjectures et réfutations. La croissance du savoir scientifique, trad. Brudny M.Y., Buhot L M., Payot, 2006. Popper K.R., La Connaissance objective, trad. Bastyns C., Presses universitaires de France, 1978. Popper K.R., La logique de la découverte scientifique, trad. Thyssen-Rutten N., Devaux P., Monod J., Payot, 2007. Popper K.R., La quête inachevée, Calmann-Lévy, 1981. Popper K.R., Misère de l'historicisme, trad. Rousseau H., BouveresseQuilliot R., Presses Pocket, 1988. Pracontal M. de, L'imposture scientifique en dix leçons, La découverte, Le livre de poche, 1986. Prigogine L., Stengers L., La nouvelle alliance, Gallimard, 1979. Pyenson L., Sheets-Pyenson S., Servants of Nature : A History of Scientific Institutions, Enterprises and Sensibilities, Norton, 1999. Quine W. V.O., La philosophie de la logique Aubier, 1975. Quine W. V.O., Méthodes de logique (1952), A. Colin, 1973. Quine W.V.O., Du point de vue logique : Neuf essais logico-philosophiques, trad. Laugier S., Vrin, 2003. Quine W.V.O., Philosophie de la logique (1970), trad. Largeault, J. Aubier, 2008. Rabaudy C, Emile Meyerson. Identité et réalité, Hatier, 1976. Ramachandran V.S., Le cerveau, cet artiste, Eyrolles, 2005. Rasplus V. (dir.), Sciences et pseudo-sciences : regards des sciences humaines et sociales, 2014. Read S., Thinking about Logic, Oxford UP, 1995. Rickert H., Science de la culture et science de la nature, trad. Nicolas A.-H., Prompsy C., Launay M.B., Gallimard, 1997. Ricœur P., Soi-même comme un autre, Seuil, 1990. 293 Rivenc F., Introduction à la logique pertinente, Presses universitaires de France, 2005. Rivenc F., Rouilhan Ph. de (éd.), Logique et fondements des mathématiques. Anthologie (1850-1914), Payot, 1992. Rosmorduc J., Quelques repères de l'histoire des sciences et des techniques, Université de Bretagne Occidentale, 1998. Rossi P., Aux origines de la science moderne, Seuil, Points sciences, 1999. Russell B., Écrits de logique philosophique, Presses universitaires de France, 1989. Russell B., Introduction à la philosophie mathématique (1919), Payot, 1991. Russell B., Problèmes de philosophie (1912), Payot, 1972. Schrödinger E., Qu'est-ce que la vie ? De la physique à la biologie (1944), trad. Keffler L., Seuil, Point-Sciences, 1993. Serres M. et al., Eléments d'histoire des sciences, Larousse, 1989. Serres M., N. Farouki, Le Trésor des sciences, Flammarion, 1997. Shapin S., La Révolutions scientifique, Flammarion, 1998. Shinn T., Ragouet P., Controverses sur la science : pour une sociologie transervale de l'activité scientifique, Raisons d'agir, 2005. Sokal A., Bricmont J., Impostures intellectuelles, Odile Jacob, Le livre de poche, 1997. Soler L., Introduction à l'épistémologie, Ellipses, 2000. Soûlez A., Manifeste du Cercle de Vienne et autres écrits. Carnap, Hahn, Neurath, Schlick, Waismann sur Wittgenstein, Vrin, 2010. Spinoza B., Éthique, A. Colin, 1907. Stengers I., D'une science à l'autre, des concepts nomades, Seuil, 1987. Stengers I., L'invention des sciences modernes, Flammarion/Champs, 1992. Szczeciniarz J.-J., Copernic et le mouvement de la terre, Flammarion, 1998. Tarski A., Logique, sémantique, métamathématique, 2 vol., A. Colin, 1972. Taton R. (dir.), Histoire générale des sciences, 5 tomes, Presses universitaires de France, Quadrige, 1966. Tonquedec J., Questions de cosmologie et de physique chez Aristote et saint Thomas d'Aquin. Le système du monde, les théories de la lumière et de la couleur, la théorie de la mesure, Vrin, 1950. Toulmin S., Foresight and understanding, University of Indiana Press, 1961. Toulmin S., The philosophy of science, Hutchinson, 1953. Valéry P., Cahiers, Gallimard, 1975. 294 Verdet J.-P., Une histoire de l'astronomie, Seuil, Points/sciences, 1990. Verneaux R., Critique de la « Critique de la raison pure de Kant, A. Montaigne, 1972. Vuillemin J., La philosophie de l'algèbre, Presses universitaires de France, 1962. Vuillemin J.-C., « Réflexions sur l’épistémè foucaldienne », Cahiers philosophiques, n°130, 2012, p. 39-50. Wagner P. (dir.), Les Philosophes et la science, Gallimard, folio-essais, 2002, Wagner P., (dir.). Philosophie des sciences, 2 vol., Paris, Vrin, 2004. Watson J.D., La double hélice : comment un jeune savant de vingt-cinq ans en découvrant la structure de l'ADN a révélé au monde le secret de la vie, trad. Joël H., R. Laffont, 2003. Watzlawick P., L'invention de la réalité. Comment savons-nous ce que nous croyons savoir ?, Seuil, 1988. Westfall R.S., The Life of Isaac Newton, Cambridge UP, 1994. Whewell W., Blanche R., De la construction de la science. Novum organum renovatum, Paris, Vrin, 2000. Whewell W., Yeo R., The philosophy of the inductive sciences, Bristol, Thoemmes Press, 2001. Witkowski N., Trop belles pour le Nobel : les femmes et la science, Seuil science ouverte, 2005. Wittgenstein L., Investigations philosophiques (posth. 1953), Gallimard, 1961. Wittgenstein L., Tractatus logico-philosophicus (1921), trad. Granger G.-G., Gallimard, 2001. Wolpert L., The Unnatural Nature of Science, Harvard University Press, 1998. 295 296 Index des auteurs Alhazen (965- 1039) .................................................................................................. 9 Aristote (384-322 av. J.-C.) ........................................................................................ 9 Gaston Bachelard (1884-1962) ................................................................................ 12 Francis Bacon (1951-1626) ...................................................................................... 16 Roger Bacon (1214-1294) ........................................................................................ 17 William Bateson (1861-1926) .................................................................................. 20 George Berkeley (1685-1753) .................................................................................. 20 Claude Bernard (1813-1878) ................................................................................... 21 David Bloor (1942-20XX) ........................................................................................ 22 Émile Boutroux (1845-1921) ................................................................................... 22 Henri Broch (1950-20XX) ....................................................................................... 23 Michael Brooks (1970-20XX) .................................................................................. 24 Giordano Bruno (1548-1600) .................................................................................. 45 Léon Brunschvicg (1869-1944) ............................................................................... 51 Jean Buridan (1292 - 1363) ...................................................................................... 52 Michel Callon (1945-20XX)..................................................................................... 54 Georges Canguilhem (1904-1995) ........................................................................... 56 Rudolf Carnap (1891-1970) ..................................................................................... 58 Jean Cavaillès (1903-1944) ...................................................................................... 59 Maurice Caveing (1923-20XX) ................................................................................ 59 Harry Collins (1943-20XX)...................................................................................... 61 Auguste Comte (1898-1957) .................................................................................... 63 Nicolas Copernic (1473-1543) ................................................................................. 64 Leda Cosmides (1985-20XX).................................................................................... 74 Louis Couturat (1868-1914)..................................................................................... 77 Alistair C. Crombie (1915-1996) ............................................................................. 77 Georges Cuvier (1769-1832) .................................................................................... 78 Charles Darwin (1809-1882) ................................................................................... 79 Lorraine Daston (1951-20XX) ................................................................................. 86 Richard Dawkins (1941-20XX) ............................................................................... 88 René Descartes (1596-1650) .................................................................................... 90 297 John Dewey (1859-1952) ......................................................................................... 92 Wilhelm Dilthey (1833 -1911) ................................................................................ 94 Pierre Duhem (1861-1916) ...................................................................................... 95 Albert Einstein (1879-1955) .................................................................................. 102 Paul Feyerabend (1924-1994)................................................................................ 105 Richard P. Feynman (1918-1988) ......................................................................... 107 Paul-Michel Foucault (1926-1984) ....................................................................... 122 Hans-Georg Gadamer (1900-2002) ....................................................................... 124 Galileo Galilei (1564-1642).................................................................................... 125 Peter Galison (1955-20XX) .................................................................................... 131 Bertrand Gille (1920-1980).................................................................................... 131 Ernst von Glasersfeld (1917-2010) ........................................................................ 133 Kurt Gödel (1906-1978) ......................................................................................... 133 Albert le Grand (1193-1280) ................................................................................. 135 Robert Grosseteste (1168-1253) ............................................................................ 137 Jürgen Habermas (1929-19XX).............................................................................. 155 Ian Hacking (1936-20XX) ...................................................................................... 161 Ernst Haeckel (1834-1919) .................................................................................... 162 Werner Heisenberg (1901-1976) .......................................................................... 163 Carl G. Hempel (1905-1997) ................................................................................. 163 Gerald Holton (1922-20XX) .................................................................................. 164 David Hume (1711-1776) ...................................................................................... 165 Jâbir ibn Hayyan (721-815) ................................................................................... 175 François Jacob (1920-2013) ................................................................................... 176 Hans Jonas (1903-1993) ......................................................................................... 176 Emmanuel Kant (1724-1804) ................................................................................ 177 Lord Kelvin (1824-1907)........................................................................................ 178 Johannes Kepler (1571-1630) ................................................................................ 179 Al-Khwarizmi (c.780-c.850) .................................................................................. 182 Alexandre Koyré (1892-1964) ............................................................................... 184 Thomas S. Kuhn (1922-1996) ................................................................................ 186 Imre Lakatos (1922-1974) ...................................................................................... 198 Jean-Baptiste Lamarck (1748-1836) ...................................................................... 199 Pierre-Simon Laplace (1749-1827)........................................................................ 206 Bruno Latour (1947-20XX) .................................................................................... 208 Gottfried W. Leibniz (1646-1716)......................................................................... 211 298 James Lovelock (1919-20XX)................................................................................. 212 Stéphane Lupasco (1900-1988) .............................................................................. 214 Ernst Mach (1938-1916) ........................................................................................ 216 Émile Meyerson (1859-1933) ................................................................................ 216 Robert K. Merton (1910-2003) .............................................................................. 217 Gaston Milhaud (1858-1918)................................................................................. 219 John Stuart Mill (1806-1873)................................................................................. 219 Jean-Louis Le Moigne (1931-20XX) ...................................................................... 220 Edgar Morin (1921-20XX) ..................................................................................... 221 Otto Neurath (1882-1945) ..................................................................................... 224 Isaac Newton (1643-1727) ..................................................................................... 225 Guillaume d’Ockham (1285-1347) ........................................................................ 238 Max Planck (1858-1947) ........................................................................................ 241 Platon (427-348 av. J.-C.) ...................................................................................... 247 Henri Poincaré (1854-1912) .................................................................................. 252 Karl Popper (1902-1994) ....................................................................................... 253 Claude Ptolémée (90-c.168) .................................................................................. 256 Hilary Putnam (1926-20XX) ................................................................................. 257 Willard V. O. Quine (1908-2000) ......................................................................... 266 Hans Reichenbach (1891-1953) ............................................................................ 267 Édouard L.E.J Le Roy (1870-1954) ........................................................................ 267 Bertrand A.W. Russell (1872-1970) ...................................................................... 268 Alan D. Sokal (1955-20XX) ................................................................................... 269 Herbert Spencer (1820-1903) ................................................................................ 270 Paul Tannery (1843-1904) ..................................................................................... 272 Pierre Thuillier (1932-1998) ................................................................................. 273 John Tooby (1952-20XX) ....................................................................................... 275 Hugo de Vries (1848-1935).................................................................................... 275 Max Weber (1864-1920) ........................................................................................ 276 William Whewell (1794-1866) ............................................................................. 279 Steve Woolgar (1950-20XX) .................................................................................. 280 Ludwig Wittgenstein (1889-1951) ........................................................................ 280 Frances Yates (1899-1981)..................................................................................... 281 299 300 Table des points Point sur les Archaï (principes).................................................................12 Point sur la fraude scientifique .................................................................26 Point sur la révolution copernicienne ......................................................67 Point sur le modèle standard ...................................................................108 Point sur la religion et l’occultisme ........................................................139 Point sur le problème de l’induction ......................................................169 Point sur l’épigénétique ...........................................................................202 Point sur les théories de l’unification .....................................................230 Point sur la mécanique quantique ..........................................................242 Point sur l’expérience de pensée .............................................................258 301 302 Du même auteur Édités chez TheBookEdition Le Dernier Mot (2008) Kant et la Subjectivité (2008) Les Texticules t. I, II, III (2009-2012) Somme Philosophique t. I (2009-2012), II (2013-2014) Révulsez-vous ! (2011) D’un Plateau l’Autre (2012) Sociologie des Marges (2012) Le Cercle de Raison (2012) Apologie de Strauss-Kahn (2012) Platon, l’Égypte et la question de l’Âme (2013) Une brève Histoire de Mondes (2013) Les Nouveaux Texticules (2013) Le Miroir aux Alouates (2013) Platon. Un regard sur l’Égypte t. I, II, III (2014) Les Valeurs de la Vie (2014) Anthologie Philosophique (2014) Jamais sans ma novlangue ! (2014) Planète des Signes (2014) Le Phénomène (2015) H+. Du Posthumain (à paraître) 303 S = k log W (à paraître) Médite donc ! (à paraître) Mythes à l’écran (à paraître) Des PDFs (gratuits) et les livres papiers (sur commande) sont disponibles à l’adresse : http://texticules.fr.nf/ 304 QR codes Livres à commander Livres à télécharger 305 306 307 Mars 2015 Copyright © 2015 ISBN : 979-10-92895-13-1 Frédéric Mathieu Contact : [email protected] ou [email protected] 308