nombre de fois, mais qu’il était susceptible de conduire à plusieurs
résultats différents pour une raison hasardeuse, la probabilité de
chacun de ces résultats s’identifie à la fréquence relative de son
obtention. Ainsi, lorsqu’un dé parfaitement symétrique est lancé une
infinité de fois, la face 4 apparaît en moyenne une fois sur six, et sa
probabilité est 1/6.
La seconde interprétation se réfère à la situation avant réalisation
de l’un des événements susceptibles de se produire ; leurs probabilités,
estimées à l’aide des informations dont nous disposons, servent alors à
effectuer des prévisions. Lorsque tous les événements possibles sont
sur le même plan et que rien ne favorise plus les uns que les autres, le
principe d’indifférence (ou de « raison insuffisante ») de Laplace
conduit à leur attribuer la même probabilité. Après brassage d’un jeu
de bridge, les 52 cartes peuvent être rangées de 52! façons, et il est
raisonnable d’assigner a priori la probabilité 1/52! à chacune d’entre
elles. Après avoir découvert ses propres cartes, puis pris connaissance
des annonces, enfin vu les cartes du mort, on est conduit à estimer une
nouvelle distribution de probabilité, afin d’établir une ligne de jeu en
évaluant par exemple les chances de réussite d’une impasse. En
physique, lorsque les lois, ou bien les données, présentent des
incertitudes, la prévision d’un phénomène suit une démarche similaire
et sa fiabilité peut être estimée grâce au calcul des probabilités. Le
hasard, c’est-à-dire ce que nous connaissons mal, entre ainsi dans la
science.
Les notions de probabilité et d’information sont liées : ne
disposant pas de la même information, le lecteur de revues hippiques
et le profane n’attribueront pas les mêmes probabilités aux résultats
possibles d’une course. La théorie de l’information est née de celle des
probabilités. On veut d’abord chiffrer la quantité d’information In
acquise en apprenant qu’événement aléatoire n, auquel on avait
attribué la probabilité Pn, est survenu. Plus Pn est faible, plus on a
gagné d’information. Par ailleurs, les quantités d’information acquises
lorsqu’on prend connaissance de deux événements indépendants
doivent s’ajouter, alors que leurs probabilités se multiplient. Il en