Mais à quoi peut servir la distribution binomiale ?
Daniel Justens
Dans les applications, la distribution binomiale est très souvent approchée par la distribution
normale (théorème de Moivre) ou par celle de Poisson (théorème de Poisson). Alors quelle est son
utilité ? Sert-elle exclusivement à mortifier des générations de potaches en les plaçant devant des
produits de factorielles et d'exponentielles dont le résultat a tout de l'indétermination zéro fois
l'infini ? L'utilisation de cette distribution demande une bonne compréhension des raisonnements
sous-tendant la résolution des cas dans lesquels elle est appliquée, même si numériquement, les
approximations normales et Poisson sont souvent préférables. C'est ce qui fait qu'elle est
indispensable. Elle peut aussi être utilisée directement pour la valorisation de produits financiers
sophistiqués dont elle fournit à son tour, par un juste retour des choses, une bonne approximation.
Construction de la distribution binomiale
Les distribution de probabilité sont des structures de probabilité dépendant d'un ou de plusieurs
paramètres, construites a priori et adaptables à toute une gamme de situations. Le contexte qui
nous occupe pour la distribution binomiale est celui de la la répétition de n d'expériences aléatoires
identiques à deux issues possibles, réalisées de manière indépendante, que l'on note (arbitrairement)
réussite (R) ou échec (E). Le contexte est qualitatif et non quantitatif. Le passage au quantitatif se
fait en comptant le nombre de « réussites », ce qui est un bon exemple de variable aléatoire :
association d'une valeur numérique à chaque événement élémentaire de
Ω
. À titre d'exemple, nous
regarderons l'évolution du cours d'une action en bourse qui peut tous les mois soit augmenter (R),
soit diminuer (E) de valeur. L'augmentation se fait avec probabilité p, la décroissance se faisant
alors avec la probabilité complémentaire (1–p).
Cet exemple montre comment passer de la probabilisation d'événements à celle de variables
aléatoires. Dans le cas où l'on effectue une seule expérience, l'ensemble fondamental est :
Ω
= { R,
E }. Dans un souci de simplification, on choisit de faire coïncider l'indice des probabilités et des
valeurs de la variable avec le nombre de réussites :
X(E) = 0 = x0 ; P[x0 ] = 1 - p = p0
X(R) = 1 = x1 ; P[x1 ] = p = p1
Dans le cas où l'on procède à deux expériences, l'ensemble fondamental devient
Ω
= {RR, RE, ER,
EE}. Le passage à la variable aléatoire montre que deux événements élémentaires distincts (RE et
ER) donnent la même valeur numérique (1). Les deux expériences sont supposées indépendantes.
Ce qui signifie que pour toute paire de résultats successifs, la probabilité de réalisation simultanée
(intersection), est égale au produit des probabilités : P[RE]= P[ER] = p(1 – p). Les événements RE
et ER étant disjoints, la probabilité à leur union est égale à la somme des probabilités : P[{RE, ER}]
= 2p(1 – p). En passant à la variable aléatoire « nombre de réussites » :
X(EE) = 0 = x0 ; P[x0]= (1-p)2 = p0
X(RE)= X(ER) = 1 = x1 ; P[x1] = 2p(1 - p) = p1
X(RR) = 2 = x2 ; P[x2] = p2 = p2
Le cardinal de Ω augmente exponentiellement avec n :
# Ω
= 2n. Avant de généraliser, calculons
moyenne et variance dans le cas de deux expériences :
E[X] = 2 ( p2 ) + 1 . (2 p(1-p)) + 0 . (1-p)2 = 2 p2 + 2 p - 2 p2 = 2p
V[X] = 22 ( p2 ) + 12 . (2 p(1-p)) + 02 . (1-p)2 - (2p)2 = 4 p2 + 2 p(1-p) - 4 p2 = 2p(1-p)