Hasard, probabilités, incertitude, déterminisme, chaos… Roger Balian* « ‒ Est-ce la physique que vous voulez apprendre ? ‒ Qu’est-ce qu’elle chante cette physique ? ‒ La physique est celle qui explique les principes des choses naturelles et les propriétés du corps ; qui discourt de la nature des éléments, des métaux, des minéraux, des pierres, des plantes et des animaux, et nous enseigne les causes de tous les météores, l’arc-en-ciel, les feux volants, les comètes, les éclairs, le tonnerre, la foudre, la pluie, la neige, la grêle, les vents, et les tourbillons. ‒ Il y a trop de tintamarre là-dedans, trop de brouillamini. » Molière, Le Bourgeois Gentilhomme. La physique, science exacte ? Depuis ses origines, la physique a progressé en s’appuyant sur une mathématisation de plus en plus poussée. Cette « déraisonnable efficacité des mathématiques », selon la célèbre phrase de Wigner, a suscité de nombreuses discussions philosophiques. Une explication plausible de la remarquable adéquation entre physique et mathématiques pourrait être le développement en symbiose des deux disciplines : chacune stimule des innovations chez l’autre, tout en bénéficiant de ses progrès. L’efficacité de l’arithmétique, de la géométrie, de l’algèbre et de l’analyse a renforcé jusque vers la fin du XIXe siècle une conception déterministe pure et dure de la physique. Dans ce cadre de pensée, les propriétés d’un objet sont entièrement caractérisées par des grandeurs physiques, qui prennent à chaque instant des valeurs numériques bien définies régies par des équations fondamentales. Par exemple, le mouvement d’un point matériel est décrit par sa position et sa vitesse gouvernées par la loi de Newton ; les valeurs en chaque point d’un champ électromagnétique sont gouvernées par les équations de Maxwell. Ces valeurs des grandeurs physiques ne sont pas forcément * Institut de Physique Théorique, Saclay. Académie des Sciences. accessibles à l’expérience ; mais on admet qu’elles peuvent théoriquement être définies avec une précision arbitrairement grande. Le caractère mathématique rigoureux, d’apparence définitive, des équations de la physique est probablement à la source d’une illusion récurrente : celle de l’achèvement de cette science. Ainsi, en 1823, Jean-Baptiste Biot conclut-il la préface de son Précis élémentaire de physique en notant que c’est « une science faite, fondée sur les rapports directs et numériques des résultats entre eux », et que « la progression rapide avec laquelle elle se complète tous les jours peut faire regarder l’époque de sa stabilité entière comme peu éloignée de nous ». Or, dès l’année suivante, Sadi Carnot fondera dans ses Réflexions sur la puissance motrice du feu une nouvelle grande branche de la physique : la thermodynamique. De même, on pensait couramment vers 1900 qu’il ne restait plus guère qu’un problème ouvert en physique, celui du rayonnement du corps noir ; sa solution devait peu après donner naissance à la mécanique quantique ! La conception de la physique comme science exacte a peut-être aussi contribué aux excès du scientisme, caricature du rationalisme selon laquelle la science pourrait régler au mieux tous les problèmes de l’humanité. Au XXe siècle, cette confiance aveugle en une efficacité universelle des sciences a disparu, en dépit de leurs succès dans l’explication de phénomènes de plus en plus variés, et de leurs innombrables applications bénéfiques ; il nous faut malheureusement lutter désormais contre la montée de l’irrationnel et contre le préjugé inverse, la défiance envers la science… Enfin, la perfection et la beauté des mathématiques utilisées pour expliquer la réalité physique ont pu contribuer à favoriser une conception quelque peu prométhéenne de la science : elle serait un moyen de découvrir ce que sont les choses en soi. Einstein a défendu cette position dans une célèbre controverse avec Niels Bohr ; selon ce dernier, la science porterait seulement sur ce que nous pouvons dire de la réalité, sur les images (en particulier mathématiques) nous permettant d’approcher la nature de façon de moins en moins incertaine. Comme nous allons le voir, la notion d’incertitude est au cœur de plusieurs domaines de physique développés au cours du XXe siècle, ce qui doit nous rendre modestes face au réel. Les probabilités, ou la rigueur dans l’incertain. Avant de pénétrer la théorie, l’incertitude a préoccupé depuis longtemps les expérimentateurs. Afin de déterminer une grandeur physique y, ils procèdent à des mesures répétées ; les résultats yk obtenus ne sont pas exactement les mêmes, de sorte qu’on ne peut concrètement attribuer une valeur numérique précise à la grandeur y. Celle-ci n’est définie expérimentalement qu’avec une certaine marge, et on utilise la théorie des probabilités pour manipuler l’ensemble des résultats obtenus : en particulier, la valeur moyenne des yk observés fournit une estimation de la grandeur mesurée, et la fluctuation statistique ∆y, qui caractérise les écarts entre les yk, donne une idée de l’incertitude. De nombreuses théories physiques modernes présentent, elles aussi, un caractère partiellement incertain, aléatoire. Les probabilités sont donc devenues un outil majeur en physique théorique, parallèlement aux autres branches des mathématiques (portant sur des grandeurs parfaitement définies). Elles permettent d’effectuer, à partir d’informations incomplètes, des prévisions aussi fiables que possible et d’estimer leur qualité. Cet emploi des probabilités va de pair avec l’idée que la théorie ne porte pas sur des objets particuliers mais sur des phénomènes génériques ; elle décrit non un objet unique mais un ensemble statistique d’échantillons similaires. Si l’on s’intéresse à un objet individuel, on doit imaginer qu’il est extrait d’un ensemble probabiliste, soit réel (comme pour des expériences répétées en physique), soit virtuel (comme pour des prévisions parmi le champ des possibles en météorologie). Les probabilités ont alors une double interprétation. Lorsqu’un processus a été répété dans les mêmes conditions un très grand nombre de fois, mais qu’il était susceptible de conduire à plusieurs résultats différents pour une raison hasardeuse, la probabilité de chacun de ces résultats s’identifie à la fréquence relative de son obtention. Ainsi, lorsqu’un dé parfaitement symétrique est lancé une infinité de fois, la face 4 apparaît en moyenne une fois sur six, et sa probabilité est 1/6. La seconde interprétation se réfère à la situation avant réalisation de l’un des événements susceptibles de se produire ; leurs probabilités, estimées à l’aide des informations dont nous disposons, servent alors à effectuer des prévisions. Lorsque tous les événements possibles sont sur le même plan et que rien ne favorise plus les uns que les autres, le principe d’indifférence (ou de « raison insuffisante ») de Laplace conduit à leur attribuer la même probabilité. Après brassage d’un jeu de bridge, les 52 cartes peuvent être rangées de 52! façons, et il est raisonnable d’assigner a priori la probabilité 1/52! à chacune d’entre elles. Après avoir découvert ses propres cartes, puis pris connaissance des annonces, enfin vu les cartes du mort, on est conduit à estimer une nouvelle distribution de probabilité, afin d’établir une ligne de jeu en évaluant par exemple les chances de réussite d’une impasse. En physique, lorsque les lois, ou bien les données, présentent des incertitudes, la prévision d’un phénomène suit une démarche similaire et sa fiabilité peut être estimée grâce au calcul des probabilités. Le hasard, c’est-à-dire ce que nous connaissons mal, entre ainsi dans la science. Les notions de probabilité et d’information sont liées : ne disposant pas de la même information, le lecteur de revues hippiques et le profane n’attribueront pas les mêmes probabilités aux résultats possibles d’une course. La théorie de l’information est née de celle des probabilités. On veut d’abord chiffrer la quantité d’information In acquise en apprenant qu’événement aléatoire n, auquel on avait attribué la probabilité Pn, est survenu. Plus Pn est faible, plus on a gagné d’information. Par ailleurs, les quantités d’information acquises lorsqu’on prend connaissance de deux événements indépendants doivent s’ajouter, alors que leurs probabilités se multiplient. Il en résulte que In doit avoir la forme logarithmique In = ‒ k ln Pn, où k est une constante définissant l’unité d’information. Ensuite, on cherche à mesurer l’incertitude, ou la « perplexité », d’un observateur qui, face à diverses possibilités n non encore réalisées, n’en connaît a priori que les probabilités Pn ; cette incertitude est la moyenne de l’information qui serait acquise si l’on prenait connaissance a posteriori de l’une ou l’autre de ces possibilités. L’expression résultante, l’« entropie statistique » S = ∑ Pn In = ‒ k ∑ Pn ln Pn , introduite en 1948 par Shannon lorsqu’il a fondé la théorie des communications, sert en physique à estimer la quantité d’information qui manque du fait qu’on ne connaît un système qu’à travers une loi de probabilité. La physique quantique, triomphante malgré les incertitudes. Notre théorie la plus fondamentale est aujourd’hui la mécanique quantique, élaborée dans la première moitié du XXe siècle. Elle n’a jamais été mise en défaut ; d’autres sciences comme l’électronique, la physique des particules ou la chimie reposent sur elle, son efficacité est démontrée par ses applications. Et pourtant, paradoxalement, elle fait conceptuellement intervenir des incertitudes incontournables. Celles-ci portent sur la notion même de grandeurs physiques, qui a pris une forme nouvelle nécessitant l’emploi de probabilités. Considérons par exemple une particule de masse m pouvant se déplacer sur une droite. En physique pré-quantique, il était permis de penser que son état pouvait être caractérisé par deux grandeurs, sa position x sur la droite et sa vitesse v, prenant toutes deux à chaque instant des valeurs bien définies (même si en pratique ces nombres ne peuvent être déterminés exactement). La physique quantique a profondément modifié cette conception intuitive, issue de la physique à notre échelle. Dans un état quantique, les deux grandeurs physiques x et v ont quelque chose de « flou » : il est interdit d’imaginer qu’elles puissent prendre des valeurs précises ; les valeurs de x et v sont aléatoires, et ne peuvent être définies qu’avec une certaine marge, mesurée par les fluctuations statistiques ∆x et ∆v. Cet état quantique a toujours une nature probabiliste, de sorte qu’il décrit en fait non un système unique, mais un ensemble statistique de systèmes similaires identiquement préparés. Cette détermination imparfaite de x et v ne résulte pas d’incertitudes expérimentales ; elle est intrinsèque, liée à la nature même des concepts de position et de vitesse, qui ne sont plus représentés en physique quantique par des nombres. Son caractère inéluctable est exhibé par l’inégalité de Heisenberg ∆x × ∆v ≥ ħ/2m (où ħ = 1,055 ×10‒34 m² kg s‒1 est la constante de Dirac, ou de Planck réduite). Cette inégalité interdit l’annulation simultanée des fluctuations statistiques ∆x et ∆v, de sorte qu’on n’a pas le droit de penser que x et v prennent simultanément des valeurs numériques précises. Mieux la particule est localisée, moins bien sa vitesse est déterminée. Ce phénomène est cependant invisible à notre échelle : en effet, ħ/2m ne prend une valeur significative que pour une particule de masse m très faible (pour un électron, de masse m = 9,1 × 10‒31 kg, ħ/2m vaut 0,56 ×10‒4 m² s‒1). Étant donné qu’une grandeur physique microscopique n’a pas en général une valeur bien définie, comment comprend-on un processus de mesure de cette grandeur ? À l’issue de ce processus, ce qu’on lit ou qu’on enregistre est l’indication d’un appareil macroscopique avec lequel le système testé a dû interagir. Cette indication fournira de l’information sur l’objet microscopique considéré. Mais la physique quantique a des implications particulières. D’une part, une même mesure, répétée sur des objets identiquement préparés, ne fournit pas nécessairement le même résultat. Si l’état de ces objets avant mesure est connu, la théorie fournit la probabilité de chacun des résultats possibles. D’autre part, un processus de mesure modifie en général l’état du système testé, de sorte que le gain d’information sur la grandeur mesurée est payé par une perte d’information sur d’autres grandeurs. Comme l’a anticipé John von Neumann dès 1932, les quantités d’information ainsi mises en jeu, qu’elles soient gagnées ou perdues, peuvent être estimées à l’aide de l’entropie statistique S. À chaque instant, un système quantique ne peut donc être décrit que de manière probabiliste. Mais remarquablement, l’évolution d’un système isolé est déterministe : les distributions de probabilité associées à un même système à des instants différents se déduisent les unes des autres par des équations dynamiques bien définies. L’efficacité de la théorie quantique repose sur la possibilité faire des prédictions fiables mais de nature statistique à l’aide de ces équations, en partant de connaissances acquises antérieurement. Physique statistique : des certitudes issues du hasard. La théorie quantique est devenue l’un des fondements de toute la physique. On a reconnu que les constituants élémentaires de la matière obéissent, dans le cadre de la mécanique quantique, à des lois simples et unifiées. A l’échelle atomique (10‒10 m), le comportement des électrons et des noyaux est régi par les seules interactions électromagnétiques. (S’y ajoutent les interactions nucléaires pour rendre compte de la structure interne des noyaux à l’échelle de 10‒15 m.) Il est naturel de chercher à baser sur ces lois de la microphysique l’explication des propriétés des matériaux à notre échelle, censées en découler. C’est l’objet d’une branche de la science qui s’est considérablement développée au long du XXe siècle, la physique statistique. La difficulté réside dans le nombre gigantesque de constituants élémentaires en jeu. Par exemple, une poussière de charbon de seulement 1 microgramme est constituée de N = 5 × 1016 noyaux de carbone et 6 fois plus d’électrons. Décrire complètement cet objet à l’échelle atomique est impensable. Les équations qui le gouvernent peuvent être formellement écrites ; mais il faudrait y introduire une quantité colossale de données caractérisant l’état de chacun des constituants, quantité qui restera toujours hors de portée des moyens informatiques les plus puissants, et qui serait de toute façon inintelligible. La seule échappatoire est d’étudier non pas un échantillon individuel de matière, mais un ensemble statistique d’objets semblables, caractérisés par quelques propriétés macroscopiques moyennes, telles que la masse, la taille, la composition et la température. Les innombrables détails microscopiques, différents d’un échantillon à l’autre et mal connus, seront alors traités de manière probabiliste (en sus du caractère probabiliste quantique) ; cette description se révèle souvent maîtrisable. Une question se pose immédiatement : on s’attend à ce qu’une théorie probabiliste fournisse pour les grandeurs physiques des valeurs présentant des fluctuations statistiques issues des différences entre échantillons ; or, nos expériences macroscopiques conduisent à des valeurs bien définies. En fait, l’immensité même du nombre de constituants, qui nous interdit de concevoir une description détaillée, a une conséquence favorable : elle rend les fluctuations des grandeurs macroscopiques si faibles qu’elles sont inobservables. C’est une conséquence de la « loi des grands nombres », qui permet de faire des prévisions avec une quasi-certitude malgré le hasard sous-jacent. Pour comprendre ce phénomène, considérons un lancer complètement aléatoire d’un grand nombre N de pièces de monnaie bien symétriques ; on ne peut rien dire sur chacune, elle a une chance sur deux de tomber sur pile ou sur face. Le nombre total de pièces tombées face est susceptible de prendre n’importe quelle valeur entre 0 et N. Mais presque toujours le rapport entre les nombres de pièces pile et de pièces face sera voisin de l’unité : le calcul des probabilités nous indique que la fluctuation statistique de ce rapport est de 1/√𝑁, soit 1 ‰ si N vaut 1 000 000 ; on montre qu’il n’y a qu’une chance sur 1 700 000 pour qu’il diffère de 1 de plus de 0,5 %. De même, malgré notre énorme incertitude sur les propriétés individuelles des constituants élémentaires d’un objet, leur nombre est tel que ses propriétés à notre échelle apparaissent comme bien définies : pour le grain de poussière considéré plus haut, les fluctuations relatives des propriétés sont d’ordre 1/√𝑁, qui ne vaut que 4,5 × 10‒9. Partant d’une description microscopique fortement aléatoire, la physique statistique explique ainsi des propriétés macroscopiques d’où le hasard a été éliminé, conformément à l’expérience. Un aspect remarquable de ce passage d’une échelle à l’autre est l’émergence de phénomènes qualitativement différents, n’ayant aucune existence microscopique, comme la continuité des matériaux, l’irréversibilité des évolutions, ou les changements de phase. La mécanique statistique, l’une des branches le plus vivantes de la physique contemporaine, a permis de comprendre, prédire et calculer à partir de la microphysique les phénomènes macroscopiques les plus divers, mécaniques, thermiques, électromagnétiques, chimiques, optiques, dynamiques, pour toutes sortes de matériaux. Sur le plan fondamental, elle a conduit à rabaisser le statut de la thermodynamique, dont les « principes » doivent être désormais considérés comme de simples conséquences des lois microscopiques. Le « premier principe » résulte des équations du mouvement des constituants élémentaires. On montre que le « deuxième principe » découle de l’identification de l’entropie de la thermodynamique à l’entropie statistique S de la théorie de l’information, définie comme ci-dessus en fonction de la distribution de probabilité décrivant l’objet à l’échelle microscopique (avec k = 1,38 ×10‒23 J K‒1). L’entropie, concept quelque peu mystérieux, s’interprète ainsi comme une mesure de notre incertitude au sujet des variables microscopiques du système, et sa croissance caractérise une perte d’information. Turbulence, imprévisibilité et hasard. Pour des systèmes très éloignés de l’équilibre, la physique statistique est souvent impuissante. La dynamique des fluides nous en fournit un exemple. Un écoulement lent, dit « laminaire », comme celui d’un ruisseau paisible, est déterministe : on peut prévoir avec précision le mouvement de chaque élément de fluide. Mais un écoulement « turbulent », comme celui d’un torrent furieux où se forment des tourbillons de toutes tailles, est l’illustration même du hasard. Pourtant, les équations du mouvement sont les mêmes dans les deux cas ; pour un flot turbulent, il devient impossible de les exploiter pour faire des prévisions, même sur le comportement global moyen. On en est réduit le plus souvent à remplacer les équations fondamentales par des approches empiriques. La forme de hasard que nous rencontrons ici a été analysée par Henri Poincaré : « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. (…) Lors même que les lois naturelles n'auraient plus de secret pour nous, nous ne pourrions connaître la situation qu'approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c'est tout ce qu'il nous faut, nous disons que le phénomène a été prévu, qu'il est régi par des lois ; mais il n'en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. » Il est d’usage en physique d’appeler « chaotique » une telle situation, illustrée par le mouvement de deux bouchons placés initialement côte à côte dans un flot : si le courant est laminaire, ils restent voisins, mais s’ils sont emportés par un courant turbulent, ils peuvent s’écarter considérablement l’un de l’autre de façon imprévisible, au hasard. Un mouvement chaotique est également très sensible à une petite perturbation, qui peut modifier la trajectoire, radicalement et de manière incontrôlée. C’est le trop rebattu « effet papillon », métaphore du météorologiste E. N. Lorentz : « Un battement d'ailes de papillon au Brésil peut-il déclencher une tornade au Texas ? ». Le fait qu’il pourrait également l’empêcher, ou bien n’avoir aucune conséquence, mais que rien ne permet de le savoir, rend la question stérile. C’est principalement la turbulence atmosphérique, en particulier à nos latitudes, qui rend aléatoire la prévision météorologique. On calcule l’état futur de l’atmosphère à l’aide des équations de la mécanique des fluides et de la thermodynamique, en partant des résultats de mesure des propriétés de l’air (température, pression, vitesse, humidité, etc.). Mais, malgré la puissance des ordinateurs utilisés, malgré la multiplicité des moyens d’observation mis en œuvre (stations météo, satellites, ballons sondes, bouées océanographiques), les données ne peuvent être recueillies qu’en des lieux plus ou moins rapprochés et sont forcément incomplètes. En raison du caractère chaotique de la dynamique de l’atmosphère, ces incertitudes sur ses conditions initiales sont progressivement amplifiées lorsqu’on calcule son évolution. Ce qui limite la durée sur laquelle des prévisions fiables peuvent être effectuées. Un oxymore : le chaos déterministe. Dans les exemples ci-dessus, le comportement chaotique était associé à un très grand nombre de degrés de liberté, les positions et vitesses des éléments de fluide en chaque point. On peut s’interroger sur le comportement de systèmes dynamiques moins complexes. Certes, le mouvement d’un pendule simple est d’une régularité parfaite, mais des systèmes un peu moins simples, caractérisés par un petit nombre de degrés de liberté (supérieur à 3) peuvent déjà présenter une extrême sensibilité aux conditions initiales et aux perturbations. Ainsi, les oscillations de grande amplitude d’un pendule double constitué de deux balanciers accrochés l’un à l’autre sont chaotiques : ce système peut par exemple sauter d’un comportement plus ou moins régulier à un autre, fort différent, l’un des balanciers transférant inopinément à l’autre une partie de son énergie cinétique. Il s’agit là d’un phénomène mathématique remarquable, appelé « chaos déterministe ». Le mouvement est rigoureusement régi par des équations du mouvement simples, faisant intervenir un petit nombre de variables. Si leurs valeurs initiales sont données avec une précision mathématique totale, ces équations déterminent une trajectoire bien définie. Mais deux trajectoires presque confondues à un instant donné peuvent ensuite s’écarter considérablement, en raison de la nonlinéarité des équations dynamiques. Ainsi, une différence initiale imperceptible s’amplifie-t-elle exponentiellement au cours du temps, donnant naissance en pratique, malgré le déterminisme sous-jacent, à un hasard à plus ou moins long terme. Ce phénomène a des conséquences en informatique dans certaines circonstances. On ne peut en effet manipuler qu’un nombre limité de décimales, par exemple 9 auquel cas il faut remplacer π ou √2 par leurs approximations 3,141592654 ou 1,414213562. Si un calcul sur ordinateur est basé sur des équations qui amplifient de petites perturbations, de telles erreurs d’arrondi peuvent en affecter le résultat. C’est paradoxalement dans le cadre de la mécanique céleste que la théorie du chaos déterministe est née, alors que rien n’apparaissait comme plus régulier que le mouvement des planètes. Leur dynamique est gouvernée par les équations de Newton. On en connaît une solution exacte pour le « problème à deux corps », modèle décrivant une planète unique gravitant autour d’une étoile. Le mouvement résultant obéit alors aux lois de Kepler ; il est parfaitement périodique et régulier. Dans la pratique, ces résultats s’appliquent avec une bonne approximation aux orbites de la Terre autour du Soleil, et de la Lune autour de la Terre ; la périodicité de ces mouvements a permis depuis plusieurs millénaires d’établir des calendriers précis en divers points du globe, de l’Egypte à la Chine, de la Mésopotamie au Mexique. Les astronomes chinois se sont aussi attachés depuis les débuts de notre ère à la prévision des éclipses, préoccupation des empereurs ; en arrivant à Pékin vers la fin du XVIe siècle, les Jésuites y ont importé les méthodes de calcul occidentales, dont la supériorité a été démontrée par Xu Guangqi, élève et ami du Père Matteo Ricci, en particulier lors de sa prévision de la magnitude et de l’heure de l’éclipse de Soleil du 21 Juin 1629. Les lois de Kepler ne sont valables qu’en première approximation en raison de la présence dans le système solaire de plusieurs planètes, dont les attractions mutuelles perturbent les trajectoires elliptiques. En traitant ces perturbations comme faibles devant l’attraction du Soleil, on a réussi au cours des XVIIIe et XIXe siècles à déterminer avec une grande précision les trajectoires de toutes les planètes. C’est ainsi que Urbain Le Verrier, en analysant les anomalies du mouvement d’Uranus, leur a attribué comme cause l’existence d’une planète hypothétique plus lointaine, dont il a calculé la position approximative ; il a communiqué ce résultat à l’astronome berlinois Johann Galle, et le soir même de l’arrivée du courrier le 23 septembre 1846, celui-ci a pu observer, à seulement un degré de la position prédite, la huitième planète, baptisée depuis Neptune. Tout semblait donc indiquer, vers la fin du XIXe siècle, que les mouvements des planètes étaient réguliers et prévisibles par le calcul. Cependant, on ne savait résoudre les équations de Newton que pour le « problème à deux corps » ; même le « problème à trois corps » n’était pas mathématiquement maîtrisé malgré de nombreuses tentatives. Henri Poincaré releva le défi en participant à un concours lancé sur ce sujet en 1885 par le roi Oskar II de Suède, et remporta le prix en 1889. Mais après qu’un passage obscur eut été repéré dans son mémoire par le mathématicien Edvard Phragmén lors de la relecture des épreuves, il y trouva une faute et dut le retirer à ses frais. Pourtant, cette erreur fut fructueuse : il se remit au travail, publia en 1890 une version corrigée de son texte (passé de 160 à 270 pages), puis au cours de la décennie suivante les trois tomes des Méthodes Nouvelles de la Mécanique Céleste. Il y démontre la grande sensibilité aux conditions initiales des trajectoires des planètes, fondant ainsi la théorie du chaos déterministe. L’étude des systèmes dynamiques chaotiques devait devenir au cours du XXe siècle un immense sujet d’études en physique et en mathématiques. Le comportement chaotique du système solaire ne se manifeste cependant que sur des temps extrêmement longs à l’échelle humaine. Des calculs, effectués en particulier par Jacques Laskar, montrent qu’un écart de 15 m dans la position actuelle de la Terre conduit à une déviation de sa trajectoire d’environ 150 m au bout de 10 millions d’années, mais qu’au-delà toute prévision devient impossible puisque cette déviation atteindrait la distance Terre‒Soleil après 100 millions d’années. La stabilité du système solaire n’est pas assurée sur cette échelle de temps : l’action conjuguée de Jupiter et Saturne pourrait par exemple déplacer Mercure depuis le voisinage du Soleil jusque vers Vénus. Le jeu de la certitude et du hasard. Le développement de la physique a ainsi mis en évidence des relations parfois inattendues entre hasard, prévision, déterminisme, notions qui sont plus inhérentes à la connaissance humaine qu’à la Nature elle-même. Nous parlons de hasard lorsque nous sommes incapables de prédire un phénomène, de déterminisme lorsque nous avons réussi à identifier des lois mathématiques qui le régissent. Prévisibilité et déterminisme ne coïncident pas. Dans l’exemple du lancer au hasard de très nombreuses pièces, une quasi-certitude sur le rapport entre les nombres de tirages pile et face nait d’un complet indéterminisme, c’est-à-dire d’une complète méconnaissance sur le sort de chaque pièce. Inversement, l’existence du chaos déterministe montre que l’on peut à la fois connaître parfaitement les lois dynamiques et être incapable en tirer des prévisions à long terme. Quant au hasard quantique, il résulte de l’inadéquation de nos concepts au réel microscopique, dont les lois dynamiques simples rendent la théorie quantique à la fois probabiliste et déterministe. Remarquablement, en même temps que la notion d’incertitude a imprégné plusieurs branches fondamentales de la physique théorique au cours du XXe siècle, notre champ de connaissances s’est considérablement enrichi, notre compréhension du monde s’est approfondie, et jamais la physique n’a été aussi efficace ; c’est en partie grâce à la théorie des probabilités. En physique statistique, l’immense nombre de constituants élémentaires d’un matériau nous condamne à une description microscopique probabiliste, mais grâce à la loi des grands nombres, un déterminisme macroscopique émerge de l’aléatoire microscopique. Cependant, en physique quantique comme pour les systèmes chaotiques, on ne peut éviter que les prévisions soient entachées de fluctuations statistiques. Cette conception contemporaine de la science s’oppose au strict déterminisme, censé être exprimé par les phrases célèbres de Laplace : « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ses données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. » Mais on oublie presque toujours le but de ce texte, extrait de l’introduction de l’Essai Philosophique sur les Probabilités. Loin d’être une profession de foi du déterminisme, c’est le point de départ d’un raisonnement où Laplace, notant que cette « vaste intelligence » doit satisfaire à des conditions lui interdisant d’être humaine, constate notre impossibilité de faire des prévisions exactes et en déduit la nécessité des probabilités. Plus loin, on lit : « La courbe décrite par une simple molécule d’air ou de vapeur est réglée d’une manière aussi certaine que les orbites planétaires : il n’y a de différence entre elles que celle qu’y met notre ignorance. La probabilité est relative en partie à cette ignorance, en partie à nos connaissances ». Cette allusion à un caractère aléatoire, c’est-à-dire mal connu, de la trajectoire des molécules d’un gaz préfigure l’avènement, plusieurs décennies plus tard, de la théorie cinétique, premier avatar de la physique statistique. Il est remarquable que partant du déterminisme, puis constatant l’utopie de sa mise en œuvre, Laplace ait abouti à la conclusion que « le système entier des connaissances humaines se rattache à la théorie des probabilités ». Plus généralement, toute prévision, toute décision fait appel à des informations sur la validité desquelles il importe de se forger une opinion rationnelle à l’aide de probabilités. On pourrait familiariser le public avec ce genre d’évaluation en accompagnant systématiquement les prévisions météorologiques de leurs probabilités. La publication d’un sondage devrait toujours comporter une fourchette : 52±0,1 % n’a pas la même signification que 52±10 %. Il est indispensable de peser, avec des probabilités, les pour et les contre de tel ou tel choix énergétique avant de prendre position. En matière de nuisances, l’inexistence de risque zéro répond à l’inexistence de vérité scientifique absolue, mais un risque de 0,000001 % n’est pas comparable à un risque de 30 % !