Hasard, probabilités, incertitude, déterminisme, chaos…

publicité
Hasard, probabilités, incertitude,
déterminisme, chaos…
Roger Balian*
« ‒ Est-ce la physique que vous voulez apprendre ?
‒ Qu’est-ce qu’elle chante cette physique ?
‒ La physique est celle qui explique les principes des choses naturelles et les propriétés du corps ; qui discourt
de la nature des éléments, des métaux, des minéraux, des pierres, des plantes et des animaux, et nous enseigne
les causes de tous les météores, l’arc-en-ciel, les feux volants, les comètes, les éclairs, le tonnerre, la foudre, la
pluie, la neige, la grêle, les vents, et les tourbillons.
‒ Il y a trop de tintamarre là-dedans, trop de brouillamini. »
Molière, Le Bourgeois Gentilhomme.
La physique, science exacte ?
Depuis ses origines, la physique a progressé en s’appuyant sur
une mathématisation de plus en plus poussée. Cette « déraisonnable
efficacité des mathématiques », selon la célèbre phrase de Wigner, a
suscité de nombreuses discussions philosophiques. Une explication
plausible de la remarquable adéquation entre physique et
mathématiques pourrait être le développement en symbiose des deux
disciplines : chacune stimule des innovations chez l’autre, tout en
bénéficiant de ses progrès.
L’efficacité de l’arithmétique, de la géométrie, de l’algèbre et de
l’analyse a renforcé jusque vers la fin du XIXe siècle une conception
déterministe pure et dure de la physique. Dans ce cadre de pensée, les
propriétés d’un objet sont entièrement caractérisées par des grandeurs
physiques, qui prennent à chaque instant des valeurs numériques bien
définies régies par des équations fondamentales. Par exemple, le
mouvement d’un point matériel est décrit par sa position et sa vitesse
gouvernées par la loi de Newton ; les valeurs en chaque point d’un
champ électromagnétique sont gouvernées par les équations de
Maxwell. Ces valeurs des grandeurs physiques ne sont pas forcément
* Institut de Physique Théorique, Saclay. Académie des Sciences.
accessibles à l’expérience ; mais on admet qu’elles peuvent
théoriquement être définies avec une précision arbitrairement grande.
Le caractère mathématique rigoureux, d’apparence définitive,
des équations de la physique est probablement à la source d’une
illusion récurrente : celle de l’achèvement de cette science. Ainsi, en
1823, Jean-Baptiste Biot conclut-il la préface de son Précis
élémentaire de physique en notant que c’est « une science faite,
fondée sur les rapports directs et numériques des résultats entre eux »,
et que « la progression rapide avec laquelle elle se complète tous les
jours peut faire regarder l’époque de sa stabilité entière comme peu
éloignée de nous ». Or, dès l’année suivante, Sadi Carnot fondera dans
ses Réflexions sur la puissance motrice du feu une nouvelle grande
branche de la physique : la thermodynamique. De même, on pensait
couramment vers 1900 qu’il ne restait plus guère qu’un problème
ouvert en physique, celui du rayonnement du corps noir ; sa solution
devait peu après donner naissance à la mécanique quantique !
La conception de la physique comme science exacte a peut-être
aussi contribué aux excès du scientisme, caricature du rationalisme
selon laquelle la science pourrait régler au mieux tous les problèmes
de l’humanité. Au XXe siècle, cette confiance aveugle en une
efficacité universelle des sciences a disparu, en dépit de leurs succès
dans l’explication de phénomènes de plus en plus variés, et de leurs
innombrables applications bénéfiques ; il nous faut malheureusement
lutter désormais contre la montée de l’irrationnel et contre le préjugé
inverse, la défiance envers la science…
Enfin, la perfection et la beauté des mathématiques utilisées pour
expliquer la réalité physique ont pu contribuer à favoriser une
conception quelque peu prométhéenne de la science : elle serait un
moyen de découvrir ce que sont les choses en soi. Einstein a défendu
cette position dans une célèbre controverse avec Niels Bohr ; selon ce
dernier, la science porterait seulement sur ce que nous pouvons dire de
la réalité, sur les images (en particulier mathématiques) nous
permettant d’approcher la nature de façon de moins en moins
incertaine. Comme nous allons le voir, la notion d’incertitude est au
cœur de plusieurs domaines de physique développés au cours du XXe
siècle, ce qui doit nous rendre modestes face au réel.
Les probabilités, ou la rigueur dans l’incertain.
Avant de pénétrer la théorie, l’incertitude a préoccupé depuis
longtemps les expérimentateurs. Afin de déterminer une grandeur
physique y, ils procèdent à des mesures répétées ; les résultats yk
obtenus ne sont pas exactement les mêmes, de sorte qu’on ne peut
concrètement attribuer une valeur numérique précise à la grandeur y.
Celle-ci n’est définie expérimentalement qu’avec une certaine marge,
et on utilise la théorie des probabilités pour manipuler l’ensemble des
résultats obtenus : en particulier, la valeur moyenne des yk observés
fournit une estimation de la grandeur mesurée, et la fluctuation
statistique ∆y, qui caractérise les écarts entre les yk, donne une idée de
l’incertitude.
De nombreuses théories physiques modernes présentent, elles
aussi, un caractère partiellement incertain, aléatoire. Les probabilités
sont donc devenues un outil majeur en physique théorique,
parallèlement aux autres branches des mathématiques (portant sur des
grandeurs parfaitement définies). Elles permettent d’effectuer, à partir
d’informations incomplètes, des prévisions aussi fiables que possible
et d’estimer leur qualité.
Cet emploi des probabilités va de pair avec l’idée que la théorie
ne porte pas sur des objets particuliers mais sur des phénomènes
génériques ; elle décrit non un objet unique mais un ensemble
statistique d’échantillons similaires. Si l’on s’intéresse à un objet
individuel, on doit imaginer qu’il est extrait d’un ensemble
probabiliste, soit réel (comme pour des expériences répétées en
physique), soit virtuel (comme pour des prévisions parmi le champ
des possibles en météorologie).
Les probabilités ont alors une double interprétation. Lorsqu’un
processus a été répété dans les mêmes conditions un très grand
nombre de fois, mais qu’il était susceptible de conduire à plusieurs
résultats différents pour une raison hasardeuse, la probabilité de
chacun de ces résultats s’identifie à la fréquence relative de son
obtention. Ainsi, lorsqu’un dé parfaitement symétrique est lancé une
infinité de fois, la face 4 apparaît en moyenne une fois sur six, et sa
probabilité est 1/6.
La seconde interprétation se réfère à la situation avant réalisation
de l’un des événements susceptibles de se produire ; leurs probabilités,
estimées à l’aide des informations dont nous disposons, servent alors à
effectuer des prévisions. Lorsque tous les événements possibles sont
sur le même plan et que rien ne favorise plus les uns que les autres, le
principe d’indifférence (ou de « raison insuffisante ») de Laplace
conduit à leur attribuer la même probabilité. Après brassage d’un jeu
de bridge, les 52 cartes peuvent être rangées de 52! façons, et il est
raisonnable d’assigner a priori la probabilité 1/52! à chacune d’entre
elles. Après avoir découvert ses propres cartes, puis pris connaissance
des annonces, enfin vu les cartes du mort, on est conduit à estimer une
nouvelle distribution de probabilité, afin d’établir une ligne de jeu en
évaluant par exemple les chances de réussite d’une impasse. En
physique, lorsque les lois, ou bien les données, présentent des
incertitudes, la prévision d’un phénomène suit une démarche similaire
et sa fiabilité peut être estimée grâce au calcul des probabilités. Le
hasard, c’est-à-dire ce que nous connaissons mal, entre ainsi dans la
science.
Les notions de probabilité et d’information sont liées : ne
disposant pas de la même information, le lecteur de revues hippiques
et le profane n’attribueront pas les mêmes probabilités aux résultats
possibles d’une course. La théorie de l’information est née de celle des
probabilités. On veut d’abord chiffrer la quantité d’information In
acquise en apprenant qu’événement aléatoire n, auquel on avait
attribué la probabilité Pn, est survenu. Plus Pn est faible, plus on a
gagné d’information. Par ailleurs, les quantités d’information acquises
lorsqu’on prend connaissance de deux événements indépendants
doivent s’ajouter, alors que leurs probabilités se multiplient. Il en
résulte que In doit avoir la forme logarithmique In = ‒ k ln Pn, où k est
une constante définissant l’unité d’information. Ensuite, on cherche à
mesurer l’incertitude, ou la « perplexité », d’un observateur qui, face à
diverses possibilités n non encore réalisées, n’en connaît a priori que
les probabilités Pn ; cette incertitude est la moyenne de l’information
qui serait acquise si l’on prenait connaissance a posteriori de l’une ou
l’autre de ces possibilités. L’expression résultante, l’« entropie
statistique » S = ∑ Pn In = ‒ k ∑ Pn ln Pn , introduite en 1948 par
Shannon lorsqu’il a fondé la théorie des communications, sert en
physique à estimer la quantité d’information qui manque du fait qu’on
ne connaît un système qu’à travers une loi de probabilité.
La physique quantique, triomphante malgré les incertitudes.
Notre théorie la plus fondamentale est aujourd’hui la mécanique
quantique, élaborée dans la première moitié du XXe siècle. Elle n’a
jamais été mise en défaut ; d’autres sciences comme l’électronique, la
physique des particules ou la chimie reposent sur elle, son efficacité
est démontrée par ses applications. Et pourtant, paradoxalement, elle
fait conceptuellement intervenir des incertitudes incontournables.
Celles-ci portent sur la notion même de grandeurs physiques, qui a
pris une forme nouvelle nécessitant l’emploi de probabilités.
Considérons par exemple une particule de masse m pouvant se
déplacer sur une droite. En physique pré-quantique, il était permis de
penser que son état pouvait être caractérisé par deux grandeurs, sa
position x sur la droite et sa vitesse v, prenant toutes deux à chaque
instant des valeurs bien définies (même si en pratique ces nombres ne
peuvent être déterminés exactement). La physique quantique a
profondément modifié cette conception intuitive, issue de la physique
à notre échelle. Dans un état quantique, les deux grandeurs physiques
x et v ont quelque chose de « flou » : il est interdit d’imaginer qu’elles
puissent prendre des valeurs précises ; les valeurs de x et v sont
aléatoires, et ne peuvent être définies qu’avec une certaine marge,
mesurée par les fluctuations statistiques ∆x et ∆v. Cet état quantique a
toujours une nature probabiliste, de sorte qu’il décrit en fait non un
système unique, mais un ensemble statistique de systèmes similaires
identiquement préparés.
Cette détermination imparfaite de x et v ne résulte pas
d’incertitudes expérimentales ; elle est intrinsèque, liée à la nature
même des concepts de position et de vitesse, qui ne sont plus
représentés en physique quantique par des nombres. Son caractère
inéluctable est exhibé par l’inégalité de Heisenberg ∆x × ∆v ≥ ħ/2m
(où ħ = 1,055 ×10‒34 m² kg s‒1 est la constante de Dirac, ou de Planck
réduite). Cette inégalité interdit l’annulation simultanée des
fluctuations statistiques ∆x et ∆v, de sorte qu’on n’a pas le droit de
penser que x et v prennent simultanément des valeurs numériques
précises. Mieux la particule est localisée, moins bien sa vitesse est
déterminée. Ce phénomène est cependant invisible à notre échelle : en
effet, ħ/2m ne prend une valeur significative que pour une particule de
masse m très faible (pour un électron, de masse m = 9,1 × 10‒31 kg,
ħ/2m vaut 0,56 ×10‒4 m² s‒1).
Étant donné qu’une grandeur physique microscopique n’a pas en
général une valeur bien définie, comment comprend-on un processus
de mesure de cette grandeur ? À l’issue de ce processus, ce qu’on lit
ou qu’on enregistre est l’indication d’un appareil macroscopique avec
lequel le système testé a dû interagir. Cette indication fournira de
l’information sur l’objet microscopique considéré. Mais la physique
quantique a des implications particulières. D’une part, une même
mesure, répétée sur des objets identiquement préparés, ne fournit pas
nécessairement le même résultat. Si l’état de ces objets avant mesure
est connu, la théorie fournit la probabilité de chacun des résultats
possibles. D’autre part, un processus de mesure modifie en général
l’état du système testé, de sorte que le gain d’information sur la
grandeur mesurée est payé par une perte d’information sur d’autres
grandeurs. Comme l’a anticipé John von Neumann dès 1932, les
quantités d’information ainsi mises en jeu, qu’elles soient gagnées ou
perdues, peuvent être estimées à l’aide de l’entropie statistique S.
À chaque instant, un système quantique ne peut donc être décrit
que de manière probabiliste. Mais remarquablement, l’évolution d’un
système isolé est déterministe : les distributions de probabilité
associées à un même système à des instants différents se déduisent les
unes des autres par des équations dynamiques bien définies.
L’efficacité de la théorie quantique repose sur la possibilité faire des
prédictions fiables mais de nature statistique à l’aide de ces équations,
en partant de connaissances acquises antérieurement.
Physique statistique : des certitudes issues du hasard.
La théorie quantique est devenue l’un des fondements de toute
la physique. On a reconnu que les constituants élémentaires de la
matière obéissent, dans le cadre de la mécanique quantique, à des lois
simples et unifiées. A l’échelle atomique (10‒10 m), le comportement
des électrons et des noyaux est régi par les seules interactions
électromagnétiques. (S’y ajoutent les interactions nucléaires pour
rendre compte de la structure interne des noyaux à l’échelle de 10‒15
m.) Il est naturel de chercher à baser sur ces lois de la microphysique
l’explication des propriétés des matériaux à notre échelle, censées en
découler. C’est l’objet d’une branche de la science qui s’est
considérablement développée au long du XXe siècle, la physique
statistique.
La difficulté réside dans le nombre gigantesque de constituants
élémentaires en jeu. Par exemple, une poussière de charbon de
seulement 1 microgramme est constituée de N = 5 × 1016 noyaux de
carbone et 6 fois plus d’électrons. Décrire complètement cet objet à
l’échelle atomique est impensable. Les équations qui le gouvernent
peuvent être formellement écrites ; mais il faudrait y introduire une
quantité colossale de données caractérisant l’état de chacun des
constituants, quantité qui restera toujours hors de portée des moyens
informatiques les plus puissants, et qui serait de toute façon
inintelligible. La seule échappatoire est d’étudier non pas un
échantillon individuel de matière, mais un ensemble statistique
d’objets semblables, caractérisés par quelques propriétés
macroscopiques moyennes, telles que la masse, la taille, la
composition et la température. Les innombrables détails
microscopiques, différents d’un échantillon à l’autre et mal connus,
seront alors traités de manière probabiliste (en sus du caractère
probabiliste quantique) ; cette description se révèle souvent
maîtrisable.
Une question se pose immédiatement : on s’attend à ce qu’une
théorie probabiliste fournisse pour les grandeurs physiques des valeurs
présentant des fluctuations statistiques issues des différences entre
échantillons ; or, nos expériences macroscopiques conduisent à des
valeurs bien définies. En fait, l’immensité même du nombre de
constituants, qui nous interdit de concevoir une description détaillée, a
une conséquence favorable : elle rend les fluctuations des grandeurs
macroscopiques si faibles qu’elles sont inobservables. C’est une
conséquence de la « loi des grands nombres », qui permet de faire des
prévisions avec une quasi-certitude malgré le hasard sous-jacent.
Pour comprendre ce phénomène, considérons un lancer
complètement aléatoire d’un grand nombre N de pièces de monnaie
bien symétriques ; on ne peut rien dire sur chacune, elle a une chance
sur deux de tomber sur pile ou sur face. Le nombre total de pièces
tombées face est susceptible de prendre n’importe quelle valeur entre
0 et N. Mais presque toujours le rapport entre les nombres de pièces
pile et de pièces face sera voisin de l’unité : le calcul des probabilités
nous indique que la fluctuation statistique de ce rapport est de 1/√𝑁,
soit 1 ‰ si N vaut 1 000 000 ; on montre qu’il n’y a qu’une chance sur
1 700 000 pour qu’il diffère de 1 de plus de 0,5 %. De même, malgré
notre énorme incertitude sur les propriétés individuelles des
constituants élémentaires d’un objet, leur nombre est tel que ses
propriétés à notre échelle apparaissent comme bien définies : pour le
grain de poussière considéré plus haut, les fluctuations relatives des
propriétés sont d’ordre 1/√𝑁, qui ne vaut que 4,5 × 10‒9.
Partant d’une description microscopique fortement aléatoire, la
physique statistique explique ainsi des propriétés macroscopiques
d’où le hasard a été éliminé, conformément à l’expérience. Un aspect
remarquable de ce passage d’une échelle à l’autre est l’émergence de
phénomènes qualitativement différents, n’ayant aucune existence
microscopique, comme la continuité des matériaux, l’irréversibilité
des évolutions, ou les changements de phase.
La mécanique statistique, l’une des branches le plus vivantes de
la physique contemporaine, a permis de comprendre, prédire et
calculer à partir de la microphysique les phénomènes macroscopiques
les plus divers, mécaniques, thermiques, électromagnétiques,
chimiques, optiques, dynamiques, pour toutes sortes de matériaux. Sur
le plan fondamental, elle a conduit à rabaisser le statut de la
thermodynamique, dont les « principes » doivent être désormais
considérés comme de simples conséquences des lois microscopiques.
Le « premier principe » résulte des équations du mouvement des
constituants élémentaires. On montre que le « deuxième principe »
découle de l’identification de l’entropie de la thermodynamique à
l’entropie statistique S de la théorie de l’information, définie comme
ci-dessus en fonction de la distribution de probabilité décrivant l’objet
à l’échelle microscopique (avec k = 1,38 ×10‒23 J K‒1). L’entropie,
concept quelque peu mystérieux, s’interprète ainsi comme une mesure
de notre incertitude au sujet des variables microscopiques du système,
et sa croissance caractérise une perte d’information.
Turbulence, imprévisibilité et hasard.
Pour des systèmes très éloignés de l’équilibre, la physique
statistique est souvent impuissante. La dynamique des fluides nous en
fournit un exemple. Un écoulement lent, dit « laminaire », comme
celui d’un ruisseau paisible, est déterministe : on peut prévoir avec
précision le mouvement de chaque élément de fluide. Mais un
écoulement « turbulent », comme celui d’un torrent furieux où se
forment des tourbillons de toutes tailles, est l’illustration même du
hasard. Pourtant, les équations du mouvement sont les mêmes dans les
deux cas ; pour un flot turbulent, il devient impossible de les exploiter
pour faire des prévisions, même sur le comportement global moyen.
On en est réduit le plus souvent à remplacer les équations
fondamentales par des approches empiriques.
La forme de hasard que nous rencontrons ici a été analysée par
Henri Poincaré : « Une cause très petite, qui nous échappe, détermine
un effet considérable que nous ne pouvons pas ne pas voir, et alors
nous disons que cet effet est dû au hasard. (…) Lors même que les lois
naturelles n'auraient plus de secret pour nous, nous ne pourrions
connaître la situation qu'approximativement. Si cela nous permet de
prévoir la situation ultérieure avec la même approximation, c'est tout
ce qu'il nous faut, nous disons que le phénomène a été prévu, qu'il est
régi par des lois ; mais il n'en est pas toujours ainsi, il peut arriver que
de petites différences dans les conditions initiales en engendrent de
très grandes dans les phénomènes finaux ; une petite erreur sur les
premières produirait une erreur énorme sur les derniers. La prédiction
devient impossible et nous avons le phénomène fortuit. »
Il est d’usage en physique d’appeler « chaotique » une telle
situation, illustrée par le mouvement de deux bouchons placés
initialement côte à côte dans un flot : si le courant est laminaire, ils
restent voisins, mais s’ils sont emportés par un courant turbulent, ils
peuvent s’écarter considérablement l’un de l’autre de façon
imprévisible, au hasard. Un mouvement chaotique est également très
sensible à une petite perturbation, qui peut modifier la trajectoire,
radicalement et de manière incontrôlée. C’est le trop rebattu « effet
papillon », métaphore du météorologiste E. N. Lorentz : « Un
battement d'ailes de papillon au Brésil peut-il déclencher une tornade
au Texas ? ». Le fait qu’il pourrait également l’empêcher, ou bien
n’avoir aucune conséquence, mais que rien ne permet de le savoir,
rend la question stérile.
C’est principalement la turbulence atmosphérique, en particulier
à nos latitudes, qui rend aléatoire la prévision météorologique. On
calcule l’état futur de l’atmosphère à l’aide des équations de la
mécanique des fluides et de la thermodynamique, en partant des
résultats de mesure des propriétés de l’air (température, pression,
vitesse, humidité, etc.). Mais, malgré la puissance des ordinateurs
utilisés, malgré la multiplicité des moyens d’observation mis en œuvre
(stations météo, satellites, ballons sondes, bouées océanographiques),
les données ne peuvent être recueillies qu’en des lieux plus ou moins
rapprochés et sont forcément incomplètes. En raison du caractère
chaotique de la dynamique de l’atmosphère, ces incertitudes sur ses
conditions initiales sont progressivement amplifiées lorsqu’on calcule
son évolution. Ce qui limite la durée sur laquelle des prévisions fiables
peuvent être effectuées.
Un oxymore : le chaos déterministe.
Dans les exemples ci-dessus, le comportement chaotique était
associé à un très grand nombre de degrés de liberté, les positions et
vitesses des éléments de fluide en chaque point. On peut s’interroger
sur le comportement de systèmes dynamiques moins complexes.
Certes, le mouvement d’un pendule simple est d’une régularité
parfaite, mais des systèmes un peu moins simples, caractérisés par un
petit nombre de degrés de liberté (supérieur à 3) peuvent déjà
présenter une extrême sensibilité aux conditions initiales et aux
perturbations. Ainsi, les oscillations de grande amplitude d’un pendule
double constitué de deux balanciers accrochés l’un à l’autre sont
chaotiques : ce système peut par exemple sauter d’un comportement
plus ou moins régulier à un autre, fort différent, l’un des balanciers
transférant inopinément à l’autre une partie de son énergie cinétique.
Il s’agit là d’un phénomène mathématique remarquable, appelé
« chaos déterministe ». Le mouvement est rigoureusement régi par des
équations du mouvement simples, faisant intervenir un petit nombre
de variables. Si leurs valeurs initiales sont données avec une précision
mathématique totale, ces équations déterminent une trajectoire bien
définie. Mais deux trajectoires presque confondues à un instant donné
peuvent ensuite s’écarter considérablement, en raison de la nonlinéarité des équations dynamiques. Ainsi, une différence initiale
imperceptible s’amplifie-t-elle exponentiellement au cours du temps,
donnant naissance en pratique, malgré le déterminisme sous-jacent, à
un hasard à plus ou moins long terme.
Ce phénomène a des conséquences en informatique dans
certaines circonstances. On ne peut en effet manipuler qu’un nombre
limité de décimales, par exemple 9 auquel cas il faut remplacer π ou
√2 par leurs approximations 3,141592654 ou 1,414213562. Si un
calcul sur ordinateur est basé sur des équations qui amplifient de
petites perturbations, de telles erreurs d’arrondi peuvent en affecter le
résultat.
C’est paradoxalement dans le cadre de la mécanique céleste que
la théorie du chaos déterministe est née, alors que rien n’apparaissait
comme plus régulier que le mouvement des planètes. Leur dynamique
est gouvernée par les équations de Newton. On en connaît une
solution exacte pour le « problème à deux corps », modèle décrivant
une planète unique gravitant autour d’une étoile. Le mouvement
résultant obéit alors aux lois de Kepler ; il est parfaitement périodique
et régulier. Dans la pratique, ces résultats s’appliquent avec une bonne
approximation aux orbites de la Terre autour du Soleil, et de la Lune
autour de la Terre ; la périodicité de ces mouvements a permis depuis
plusieurs millénaires d’établir des calendriers précis en divers points
du globe, de l’Egypte à la Chine, de la Mésopotamie au Mexique. Les
astronomes chinois se sont aussi attachés depuis les débuts de notre
ère à la prévision des éclipses, préoccupation des empereurs ; en
arrivant à Pékin vers la fin du XVIe siècle, les Jésuites y ont importé
les méthodes de calcul occidentales, dont la supériorité a été
démontrée par Xu Guangqi, élève et ami du Père Matteo Ricci, en
particulier lors de sa prévision de la magnitude et de l’heure de
l’éclipse de Soleil du 21 Juin 1629.
Les lois de Kepler ne sont valables qu’en première
approximation en raison de la présence dans le système solaire de
plusieurs planètes, dont les attractions mutuelles perturbent les
trajectoires elliptiques. En traitant ces perturbations comme faibles
devant l’attraction du Soleil, on a réussi au cours des XVIIIe et XIXe
siècles à déterminer avec une grande précision les trajectoires de
toutes les planètes. C’est ainsi que Urbain Le Verrier, en analysant les
anomalies du mouvement d’Uranus, leur a attribué comme cause
l’existence d’une planète hypothétique plus lointaine, dont il a calculé
la position approximative ; il a communiqué ce résultat à l’astronome
berlinois Johann Galle, et le soir même de l’arrivée du courrier le 23
septembre 1846, celui-ci a pu observer, à seulement un degré de la
position prédite, la huitième planète, baptisée depuis Neptune.
Tout semblait donc indiquer, vers la fin du XIXe siècle, que les
mouvements des planètes étaient réguliers et prévisibles par le calcul.
Cependant, on ne savait résoudre les équations de Newton que pour le
« problème à deux corps » ; même le « problème à trois corps » n’était
pas mathématiquement maîtrisé malgré de nombreuses tentatives.
Henri Poincaré releva le défi en participant à un concours lancé sur ce
sujet en 1885 par le roi Oskar II de Suède, et remporta le prix en 1889.
Mais après qu’un passage obscur eut été repéré dans son mémoire par
le mathématicien Edvard Phragmén lors de la relecture des épreuves,
il y trouva une faute et dut le retirer à ses frais. Pourtant, cette erreur
fut fructueuse : il se remit au travail, publia en 1890 une version
corrigée de son texte (passé de 160 à 270 pages), puis au cours de la
décennie suivante les trois tomes des Méthodes Nouvelles de la
Mécanique Céleste. Il y démontre la grande sensibilité aux conditions
initiales des trajectoires des planètes, fondant ainsi la théorie du chaos
déterministe. L’étude des systèmes dynamiques chaotiques devait
devenir au cours du XXe siècle un immense sujet d’études en physique
et en mathématiques.
Le comportement chaotique du système solaire ne se manifeste
cependant que sur des temps extrêmement longs à l’échelle humaine.
Des calculs, effectués en particulier par Jacques Laskar, montrent
qu’un écart de 15 m dans la position actuelle de la Terre conduit à une
déviation de sa trajectoire d’environ 150 m au bout de 10 millions
d’années, mais qu’au-delà toute prévision devient impossible puisque
cette déviation atteindrait la distance Terre‒Soleil après 100 millions
d’années. La stabilité du système solaire n’est pas assurée sur cette
échelle de temps : l’action conjuguée de Jupiter et Saturne pourrait par
exemple déplacer Mercure depuis le voisinage du Soleil jusque vers
Vénus.
Le jeu de la certitude et du hasard.
Le développement de la physique a ainsi mis en évidence des
relations parfois inattendues entre hasard, prévision, déterminisme,
notions qui sont plus inhérentes à la connaissance humaine qu’à la
Nature elle-même. Nous parlons de hasard lorsque nous sommes
incapables de prédire un phénomène, de déterminisme lorsque nous
avons réussi à identifier des lois mathématiques qui le régissent.
Prévisibilité et déterminisme ne coïncident pas. Dans l’exemple
du lancer au hasard de très nombreuses pièces, une quasi-certitude sur
le rapport entre les nombres de tirages pile et face nait d’un complet
indéterminisme, c’est-à-dire d’une complète méconnaissance sur le
sort de chaque pièce. Inversement, l’existence du chaos déterministe
montre que l’on peut à la fois connaître parfaitement les lois
dynamiques et être incapable en tirer des prévisions à long terme.
Quant au hasard quantique, il résulte de l’inadéquation de nos
concepts au réel microscopique, dont les lois dynamiques simples
rendent la théorie quantique à la fois probabiliste et déterministe.
Remarquablement, en même temps que la notion d’incertitude a
imprégné plusieurs branches fondamentales de la physique théorique
au cours du XXe siècle, notre champ de connaissances s’est
considérablement enrichi, notre compréhension du monde s’est
approfondie, et jamais la physique n’a été aussi efficace ; c’est en
partie grâce à la théorie des probabilités. En physique statistique,
l’immense nombre de constituants élémentaires d’un matériau nous
condamne à une description microscopique probabiliste, mais grâce à
la loi des grands nombres, un déterminisme macroscopique émerge de
l’aléatoire microscopique. Cependant, en physique quantique comme
pour les systèmes chaotiques, on ne peut éviter que les prévisions
soient entachées de fluctuations statistiques.
Cette conception contemporaine de la science s’oppose au strict
déterminisme, censé être exprimé par les phrases célèbres de Laplace :
« Nous devons donc envisager l’état présent de l’univers comme
l’effet de son état antérieur, et comme la cause de celui qui va suivre.
Une intelligence qui pour un instant donné connaîtrait toutes les forces
dont la nature est animée et la situation respective des êtres qui la
composent, si d’ailleurs elle était assez vaste pour soumettre ses
données à l’analyse, embrasserait dans la même formule les
mouvements des plus grands corps de l’univers et ceux du plus léger
atome : rien ne serait incertain pour elle, et l’avenir, comme le passé,
serait présent à ses yeux. » Mais on oublie presque toujours le but de
ce texte, extrait de l’introduction de l’Essai Philosophique sur les
Probabilités. Loin d’être une profession de foi du déterminisme, c’est
le point de départ d’un raisonnement où Laplace, notant que cette
« vaste intelligence » doit satisfaire à des conditions lui interdisant
d’être humaine, constate notre impossibilité de faire des prévisions
exactes et en déduit la nécessité des probabilités. Plus loin, on lit :
« La courbe décrite par une simple molécule d’air ou de vapeur est
réglée d’une manière aussi certaine que les orbites planétaires : il n’y a
de différence entre elles que celle qu’y met notre ignorance. La
probabilité est relative en partie à cette ignorance, en partie à nos
connaissances ». Cette allusion à un caractère aléatoire, c’est-à-dire
mal connu, de la trajectoire des molécules d’un gaz préfigure
l’avènement, plusieurs décennies plus tard, de la théorie cinétique,
premier avatar de la physique statistique. Il est remarquable que
partant du déterminisme, puis constatant l’utopie de sa mise en œuvre,
Laplace ait abouti à la conclusion que « le système entier des
connaissances humaines se rattache à la théorie des probabilités ».
Plus généralement, toute prévision, toute décision fait appel à
des informations sur la validité desquelles il importe de se forger une
opinion rationnelle à l’aide de probabilités. On pourrait familiariser le
public avec ce genre d’évaluation en accompagnant systématiquement
les prévisions météorologiques de leurs probabilités. La publication
d’un sondage devrait toujours comporter une fourchette : 52±0,1 %
n’a pas la même signification que 52±10 %. Il est indispensable de
peser, avec des probabilités, les pour et les contre de tel ou tel choix
énergétique avant de prendre position. En matière de nuisances,
l’inexistence de risque zéro répond à l’inexistence de vérité
scientifique absolue, mais un risque de 0,000001 % n’est pas
comparable à un risque de 30 % !
Téléchargement