11 Variables aléatoires discrètes « Ce calcul délicat s’étend aux questions les plus importantes de la vie, qui ne sont en effet, pour la plupart, que des problèmes de probabilité. » Pierre-Simon, marquis de Laplace (1812) Plan de cours I Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . C Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D Opérations sur les variables aléatoires (complément) . . . . . . . . . . II Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . A Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Loi certaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . F Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV Vecteurs aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Couples de variables aléatoires réelles discrètes . . . . . . . . . . . . . . B Indépendance et lois conditionnelles . . . . . . . . . . . . . . . . . . . . . C Espérance, variance et covariance . . . . . . . . . . . . . . . . . . . . . . D Exemples de sommes de variables aléatoires . . . . . . . . . . . . . . . . V Fonctions génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VI Convergence et approximations . . . . . . . . . . . . . . . . . . . . . . . . . . A Approximation d’une loi binomiale . . . . . . . . . . . . . . . . . . . . . . B Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . VII Lois usuelles – Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 5 6 7 7 10 11 11 12 13 13 15 17 18 18 21 22 25 26 28 28 29 31 I – Variables aléatoires discrètes A – Définition On lance simultanément deux dés discernables et on choisit comme univers Ω = ¹1, 6º2 , que l’on munit de la probabilité uniforme. Notons alors X la somme des valeurs des dés et Y le maximum des deux valeurs. • Quelles sont les valeurs possibles pour X et pour Y ? X peut prendre toutes les valeurs entières entre 2 et 12 ; Y entre 1 et 6. • On peut voir X et Y comme des fonctions : X : Ω −→ R ω 7−→ ω1 + ω2 et Y : Ω −→ R ω 7−→ max(ω1 , ω2 ) où ω = (ω1 , ω2 ) • On peut alors écrire X (Ω) = ¹2, 12º et Y (Ω) = ¹1, 6º. Tout comme on note plus généralement f (E) l’image de E par f pour f : E → F ... –1– CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES • Notons A l’événement « la somme des valeurs obtenues vaut 5 ». On a A = {(1, 4), (2, 3), (3, 2), (4, 1)} ∈ P (Ω). Donc : P(A) = P(X = 5) = 4 1 = 36 9 Dans l’égalité précédente, on a noté (X = 5) l’événement A. Il convient de voir (X = 5) comme une abréviation pratique de X −1 ({5}) = {ω ∈ Ω | X (ω) = 5}. De manière plus générale, (X = i) = X −1 ({i}) = {ω ∈ Ω | X (ω) = i} pour i ∈ X (Ω) désigne ici un événement (une partie de Ω) dont on peut calculer la probabilité. Définition 11.1 : Variable aléatoire discrète Soit (Ω, A ) un espace probabilisable. On appelle variable aléatoire réelle discrète toute application X : Ω → R telle que : • X (Ω) est un ensemble fini ou dénombrable ; • Si x ∈ X (Ω) alors X −1 ({x}) = (X = x) est un événement, c’est-à-dire : ∀x ∈ X (Ω) X −1 ({x}) ∈ A Cette définition appelle plusieurs remarques : • Malgré son nom, une variable aléatoire n’est pas une variable (c’est une fonction) et elle n’est pas aléatoire. • X (Ω) est l’image (directe) de Ω par X . Si Ω est un univers fini, il en va de même pour X (Ω). • Si A ⊂ R, X −1 (A) désigne l’image réciproque de A par X : X −1 (A) = {ω ∈ Ω | X (ω) ∈ A} Notons que la notation X −1 (A) ne sous-entend aucunement la bijectivité de X . • Comme dans l’exemple précédent, on souhaitera calculer la probabilité de l’événement X −1 (A) encore noté (X ∈ A). Encore faut-il que cette partie de Ω soit bien un événement, c’est-à-dire qu’elle soit contenue dans la tribu A . C’est finalement ce que nous assure la définition mais nous reviendrons sur ce point plus tard. Rappel sur les images réciproques : Exercice 1 Notons f (resp. g) la fonction définie sur R∗+ (resp. R) par f (t) = ln(t) et g(t) = t 2 . Déterminer les ensembles suivants : f −1 (R) ; f −1 (R+ ) ; f −1 (R∗+ ) ; f −1 ([0, 1[) ; g −1 ([0, a]) ; g −1 (] − a, a[) ; g −1 (R+ ) Dans le cadre de ce chapitre, nous aurons recours aux notations suivantes (pour x ∈ R et A ⊂ R) : (X ∈ A) = X −1 (A) = {ω ∈ Ω | X (ω) ∈ A}; (X = x) = X −1 ({x}) = {ω ∈ Ω | X (ω) = x}; (X ¶ x) = X −1 (] − ∞, x]) = {ω ∈ Ω | X (ω) ¶ x}; (X < x) = X −1 (] − ∞, x[) = {ω ∈ Ω | X (ω) < x}; (X ¾ x) = X −1 ([x, +∞[) = {ω ∈ Ω | X (ω) ¾ x}; (X > x) = X −1 (]x, +∞[) = {ω ∈ Ω | X (ω) > x}. Remarquons que si le premier ensemble constitue un événement, ce sera le cas de tous les autres. –2– Mickaël PROST Lycée Chaptal – PT* Exercice 2 Dans le cadre du lancer de dés précédent, expliciter les événements suivants : (X > 10) ; (X ¾ 11) ; (X = 4) ; (X ¶ 1) ; (Y = 3) ; (Y ∈ {1, 2}) La définition d’une variable aléatoire impose à (X = x) pour x ∈ X (Ω) quelconque d’être un événement. Mais c’est également le cas pour (X ∈ A) avec A ⊂ X (Ω) quelconque. Proposition 11.2 Soient (Ω, A ) un espace probabilisable et X une variable aléatoire discrète sur cet espace. Soit A un sous-ensemble quelconque de R. L’ensemble X −1 (A), noté (X ∈ A), est un événement. Démonstration Tout d’abord, remarquons que X −1 (A) = X −1 (A ∩ X (Ω)) car : X −1 (A) = {ω ∈ Ω | X (ω) ∈ A} = {ω ∈ Ω | X (ω) ∈ A ∩ X (Ω)} Donc seule l’intersection de A et de X (Ω) nous intéresse. Or, A ∩ X (Ω) est au plus dénombrable donc on peut le décrire sous la forme : A ∩ X (Ω) = {x n | n ∈ N} [ [ −1 Ainsi, (X ∈ A) = (X = x n ). (X ∈ A) est donc la réunion dénombrable d’événements X ({x n }) = n∈N n∈N (par définition d’une variable aléatoire), c’est donc un événement. On pourra noter que lorsque Ω est lui-même dénombrable, c’est automatiquement le cas pour X (Ω). Dans ce cas, on munira alors Ω de sa tribu naturelle P (Ω). Toutes les parties de Ω seront alors des événements. Il n’y aura donc pas à « vérifier » que X est bien une variable aléatoire : toute application de Ω dans R sera une variable aléatoire. Il se peut cependant que Ω ne soit pas dénombrable mais, en pratique, on demandra rarement de prouver que X est bien une variable aléatoire. Ce sera souvent l’énoncé d’un problème qui l’admettra ou bien qui n’abordera même pas la question... Cette année, toutes les variables aléatoires seront supposées finies ou discrètes. Dans les deux cas de figure, X (Ω) sera au plus dénombrable ce qui nous autorise désormais à l’écrire sous la forme X (Ω) = {x n | n ∈ N}. Théorème 11.3 Soient (Ω, A ) un espace probabilisable et X une variable aléatoire discrète sur cet espace. Avec les notations précédentes, la famille ((X = x n ))n∈N est un système complet d’événements. Démonstration Justifions le fait que +∞ G (X = x n ) = Ω. Ω n=0 • Montrons que les événements [X = x n ] sont deux à deux incompatibles, en supposant les x n deux à deux distincts. Soient i, j ∈ N avec i 6= j et ω ∈ (X = x i ) ∩ (X = x j ). On a alors X (ω) = x i = x j . Absurde, donc (X = x i ) ∩ (X = x j ) = ∅. • On a [X = x 0 ] [X = x 1 ] ··· [X = x 2 ] +∞ [ (X = x n ) ⊂ Ω. De plus, si ω ∈ Ω alors il existe i ∈ N tel n=0 que X (ω) = x i et on a donc ω ∈ (X = x i ). D’où Ω ⊂ ce qui prouve que (X = x n ), n=0 +∞ [ (X = x n ) = Ω. ((X = x n ))n∈N est un s.c.e. n=0 –3– [X = x 3 ] +∞ [ CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Exercice 3 Décrire le système complet d’événements associé à la variable aléatoire Y introduite dans l’exemple précédent. B – Loi d’une variable aléatoire On munit désormais l’espace probabilisable (Ω, A ) d’une probabilité P. Définition 11.4 : Loi d’une variable aléatoire Soit X une variable aléatoire discrète sur un espace probabilisé (Ω, A , P). On appelle loi de probabilité de X (ou plus simplement loi de X ) et on note PX l’application : PX : X (Ω) ⊂ R → R x 7−→ P(X = x) Notons qu’une loi de probabilité est une fonction numérique à variable réelle. On peut étendre PX à R car si x ∈ / X (Ω), (X = x) = ∅ qui est de probabilité nulle. On peut représenter une loi de probabilité par un tableau ou par un diagramme en bâtons. Exemple Représenter graphiquement la loi de probabilité de la variable aléatoire X dans le cas du lancer de dés. On munira pour cela (Ω, P (Ω)) de la probabilité uniforme. xi 2 3 4 5 6 7 8 9 10 11 12 P(X = x i ) 1 36 1 18 1 12 1 9 5 36 1 6 5 36 1 9 1 12 1 18 1 36 P(X = x) 6/36 5/36 4/36 3/36 2/36 1/36 1 2 3 4 5 6 7 8 9 10 11 12 x Faire de même avec la la loi de probabilité de la variable aléatoire Y . Exercice 4 Une pièce amène pile avec la probabilité p et face avec la probabilité 1 − p, 0 < p < 1. On la lance n fois de suite. Soit X le nombre de fois où pile apparaît au cours de ces lancers. Chercher la loi de X . D’après le théorème précédent, X x∈X (Ω) P(X = x) = +∞ X P(X = x n ) = 1. n=0 Le théorème suivant, dont on admet la preuve, constitue une sorte de réciproque et permet surtout de définir une variable aléatoire par sa loi de probabilité sans avoir à étudier l’expérience aléatoire sous-jacente. –4– Mickaël PROST Lycée Chaptal – PT* Théorème 11.5 Soient {x n | n ∈ N} un ensemble infini dénombrable, les x n étant deux à deux distincts, et (pn )n∈N une +∞ X pn = 1. Alors il existe une variable aléatoire discrète X sur un famille de réels positifs telle que n=0 espace probabilisé (Ω, A , P) à valeurs dans {x n | n ∈ N} telle que : ∀n ∈ N P(X = x n ) = pn Exemple λn (n ¾ 0) sont-ils les coefficients d’une loi de probabilité ? n! +∞ +∞ X λn X Comme = eλ , on en conclut que pn = 1 si et seulement si α = e−λ . On a bien alors pn ¾ 0. n! n=0 n=0 À quelle condition sur α les réels pn = α · Deux variables aléatoires X et Y ont même loi si X (Ω) = Y (Ω) et si pour tout x ∈ X (Ω), P(X = x) = P(Y = x). Attention, cela ne signifie pas que X = Y , c’est-à-dire que X (ω) = Y (ω) pour tout ω ∈ Ω. Exercice 5 On considère une pièce équilibrée que l’on lance 4 fois. On note X le nombre de piles obtenus et Y le nombre de faces obtenues. X et Y ont la même loi mais ne sont pas identiques. C – Fonction de répartition Définition 11.6 : Fonction de répartition Soit X une variable aléatoire discrète sur un espace probabilisé (Ω, A , P). On appelle fonction de répartition de X et on note FX l’application : FX : R → R x 7→ P(X ¶ x) On notera que la fonction de répartition est définie sur R et pas seulement sur X (Ω). Exercice 6 Déterminer la fonction de répartition dans le cas où X (Ω) = {0, 1} et P(X = 0) = P(X = 1). Proposition 11.7 : Propriétés de la fonction de répartition Soit X une variable aléatoire réelle sur un espace probabilisé (Ω, A , P). (i) L’application FX est croissante. (ii) lim FX (x) = 0 et lim FX (x) = 1. x→−∞ x→+∞ Démonstration (i) Soient x, y ∈ R tels que x < y. Comme (X ¶ x) ⊂ (X ¶ y), par croissance de P,FX (x) = P(X ¶ x) ¶ P(X ¶ y) = FX ( y). (ii) L’application FX étant croissante et majorée, elle admet une limite en +∞. Il suffit alors de calculer lim P(X ¶ n) en utilisant le théorème de la continuité croissante appliqué à la suite croissante n→+∞ d’événements ((X ¶ n))n∈N : +∞ [ lim FX (n) = lim P(X ¶ n) = P (X ¶ n) = P(Ω) = 1 n→+∞ n→+∞ n=0 On procède de même pour montrer que lim FX (x) = 0. x→−∞ –5– CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Remarquons que FX ( y) − FX (x) = P(x < X ¶ y). Si l’on connaît la fonction de répartition d’une variable aléatoire, on peut retrouver sa loi de probabilité. Ceci fait l’objet du théorème suivant : Théorème 11.8 : Lien entre fonction de répartition et loi de probabilité Soit X une variable aléatoire réelle sur un espace probabilisé (Ω, A , P). On pose X (Ω) = {x n | n ∈ N} où l’on suppose les x i ordonnés dans le sens croissant. Alors, • P(X = x 0 ) = FX (x 0 ). • ∀n ∈ N∗ P(X = x n ) = FX (x n ) − FX (x n−1 ). Démonstration Remarquons simplement que pour n ∈ N∗ , (X ¶ x n ) = (X < x n ) t (X = x n ) = (X ¶ x n−1 ) t (X = x n ) Donc, P(X = x n ) = P(X ¶ x n ) − P(X ¶ x n−1 ) = FX (x n ) − FX (x n−1 ) De plus, P(X = x 0 ) = P(X ¶ x 0 ) = FX (x 0 ). La probabilité P(X = x n ) correspond donc au « saut entre deux marches ». FX (x) P(X = x n ) x n−1 xn R Le graphe ci-contre laisse penser que la fonction de répartition est une fonction en escalier, ce qui est bien le cas. Elle est continue à droite en chaque x n et discontinue à gauche mais ces propriétés ne figurent pas au programme. Il faut savoir que dans certains cas, il est plus facile de trouver la fonction de répartition d’une variable aléatoire que de déterminer directement sa loi. Exercice 7 Reprendre l’exemple du lancer de dés et déterminer la loi de probabilité de Y en ayant au préalable déterminer sa fonction de répartition. D – Opérations sur les variables aléatoires (complément) Soit X une variable aléatoire discrète sur l’espace probabilisé (Ω, A , P). Posons X (Ω) = {x n | n ∈ N}. Considérons maintenant l’application ϕ : X (Ω) → R et l’application Y = ϕ ◦ X traditionnellement notée ϕ(X ). D’une part, Y : Ω → R. D’autre part, Y (Ω) = ϕ(X (Ω)) = {ϕ(x n ) | n ∈ N}. C’est un ensemble au plus dénombrable. Il ne reste plus qu’à prouver que Y est une variable aléatoire. En effet, G ∀ y ∈ Y (Ω), (Y = y) = (X = x n ) n∈N ϕ(x n )= y car ω ∈ (Y = y) si et seulement si Y (ω) = y, c’est-à-dire si et seulement s’il existe n ∈ N tel que X (ω) = x n et ϕ(x n ) = y. Cela revient à dire que ω ∈ (X = x n ) avec ϕ(x n ) = y. (Y = y) est donc la réunion au plus dénombrable d’événements, c’est un événement. Ceci nous assure que toute fonction d’une variable aléatoire est encore une variable aléatoire. Résultat que l’on peut généraliser dans le cas de fonctions à plusieurs variables. Exemples Si X et Y sont deux variables aléatoires discrètes sur l’espace probabilisé (Ω, A , P), il en va de même pour X 2 , X + Y , X Y , sin(Y ), min(X , Y ). –6– Mickaël PROST Lycée Chaptal – PT* Remarquons que dans le cas où Y = ϕ(X ), on obtient facilement la loi de Y à partir de celle de X : ∀ y ∈ Y (Ω) G P(Y = y) = P (X = x n ) = n∈N ϕ(x n )= y X P(X = x n ) n∈N ϕ(x n )= y Exercice 8 Déterminer la loi de X 2 où X est une variable aléatoire dont la table de probabilité est : xi −2 −1 0 1 2 P(X = x i ) 0.10 0.35 0.15 0.25 0.15 Exercice 9 Soit X une variable aléatoire réelle discrète sur l’espace probabilisé (Ω, A , P) telle que X (Ω) = N∗ et α P(X = k) = pour tout entier naturel non nul k. k(k + 1)(k + 2) 1 1 − . Montrer que pour tout k ∈ N∗ , on a : 1. On pose uk = 2k 2(k + 1) uk − uk+1 = 1 k(k + 1)(k + 2) En déduire la valeur de α. 2. Montrer que Y = X + 1 est une variable aléatoire réelle discrète et déterminer sa loi. 3. Montrer que Z = X 2 − 4X + 4 est une variable aléatoire réelle discrète et déterminer sa loi. II – Moments d’une variable aléatoire A – Espérance L’an dernier, toutes les variables réelles étudiées étaient finies. En notant X une telle variable, on pouvait alors écrire X (Ω) = {x 1 , . . . , x n }. L’espérance de X était ensuite définie par : E(X ) = X x · P(X = x) = x∈X (Ω) n X x k · P(X = x k ) k=1 L’espérance correspond à la moyenne des valeurs prises par X pondérées par leur probabilité d’apparition. De plus, si X est à valeurs dans ¹1, nº, X (Ω) = {1, . . . , n} et E(X ) = n X k · P(X = k). k=1 Exemples Voici deux exemples classiques qui permettent d’illustrer l’espérance comme le gain espéré à un jeu donné. • On lance une pièce équilibrée et on note X la variable aléatoire qui prend la valeur 1 si l’on obtient pile, 0 si on obtient face. On a X (Ω) = {0, 1}. La pièce étant équilibrée, on munit Ω = {P, F } de la probabilité uniforme. E(X ) = X x k P(X = x k ) = 0 · x∈X (Ω) –7– 1 1 1 +1· = 2 2 2 CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES • On lance deux dés non truqués dont les faces sont numérotées de 1 à 6 et on note X la somme des chiffres obtenus. La loi de probabilité de X est donné par le tableau suivant : xi 2 3 4 5 6 7 8 9 10 11 12 P(X = x i ) 1 36 1 18 1 12 1 9 5 36 1 6 5 36 1 9 1 12 1 18 1 36 L’espérance de X vaut alors : X E(X ) = x k P(X = x k ) x∈X (Ω) 2 3 4 5 30 7 40 9 10 11 12 + + + + + + + + + + 36 18 12 9 36 6 36 9 12 18 36 =7 = Pour donner un sens à X x · P(X = x) dans le cas d’une variable discrète, nous sommes confrontés à x∈X (Ω) deux difficultés : • X (Ω) étant au plus dénombrable, on peut l’écrire Xsous la forme {x n | n ∈ N}. Dans le cas où X (Ω) est dénombrable, la série x n · P(X = x n ) converge-t-elle ? n∈N • La somme ne dépend-elle pas du choix de la bijection entre X (Ω) et N, autrement dit de l’ordre de sommation ? La réponse à la deuxième question est non, du moment que la série est supposée absolument convergente 1 . Définition 11.9 : Espérance mathématique Soit X une variable aléatoire discrète sur X l’espace probabilisé (Ω, A , P). On pose X (Ω) = {x n | n ∈ N}. X est dite d’espérance finie si la série x n · P(X = x n ) converge absolument. n∈N Dans ce cas, on appelle espérance de X et on note E(X ) le réel : E(X ) = +∞ X x n · P(X = x n ) n=0 On remarquera que toute variable aléatoire finie admet une espérance. Exercice 10 Dans un concours de saut, la probabilité qu’un sauteur passe la ne barre est 1/n, et est indépendante des sauts précédents. On note X la dernière barre que le sauteur a franchi avant d’échouer et An l’événement « le sauteur a franchi ne barre ». 1. Déterminer la probabilité de l’événement « le sauteur a franchi une infinité de barres ». On pose alors X (Ω) = N∗ . 2. Calculer P(X ¾ n) puis déterminer la loi de X . 3. En déduire l’espérance de X . Calculer l’espérance d’une variable aléatoire nécessite de savoir a priori déterminer sa loi, ce qui peut s’avérer délicat lorsque la variable est de la forme ϕ(X ). Le résultat suivant permet de calculer l’espérance de ϕ(X ) à partir de la loi de X . 1. Le résultat, loin d’être évident, est admis dans le cadre du programme. On se référera au chapitre « Séries numériques ». –8– Mickaël PROST Lycée Chaptal – PT* Théorème 11.10 : Théorème de transfert Soient X une variable aléatoire à valeurs finies sur l’espace probabilisé (Ω, A , P)X et f : X (Ω) → R. On note X (Ω) = {x n | n ∈ N}. Alors, f (X ) est d’espérance finie si et seulement si f (x n ) · P(X = x n ) n∈N converge et, dans ce cas, E( f (X )) = +∞ X f (x n )P(X = x n ) n=0 Théorème 11.11 : Propriétés de l’espérance Soient X et Y sont deux variables aléatoires discrètes d’espérances finies sur (Ω, A , P). (i) Linéarité de l’espérance Pour tout λ, µ ∈ R, λX + µY est d’espérance finie et E(λX + µY ) = λE(X ) + µE(Y ). (ii) Positivité de l’espérance Si X ¾ 0, c’est-à-dire si X (ω) ¾ 0 pour tout ω ∈ Ω, alors E(X ) ¾ 0. (iii) Croissance de l’espérance Si X ¶ Y , c’est-à-dire si X (ω) ¶ Y (ω) pour tout ω ∈ Ω, alors E(X ) ¶ E(Y ). Démonstration Nous admettons le premier résultat. (ii) En écrivant X (Ω) = {x n | n ∈ N} ⊂ R+ , il vient E(X ) = +∞ X x n · P(X = x n ), qui est la somme d’une n=0 série à termes positifs donc positive. (iii) Y − X est une variable discrète à valeurs positives et d’espérance E(Y − X ) = E(Y ) − E(X ) donc E(Y ) − E(X ) ¾ 0. Remarquons que si X est positive et d’espérance nulle, alors E(X ) = +∞ X x n · P(X = x n ) est une somme nulle n=0 de termes positifs. Ils sont donc tous nuls, ce qui implique que P(X = x n ) = 0 pour tout n dès que x n = 6 0. Ainsi, P(X = 0) = 1. On notera que X − E(X ) est une variable d’espérance nulle par linéarité de l’espérance. En effet, E(X ) ∈ R et E(X − E(X )) = E(X ) − E(E(X )) = E(X ) − E(X ) = 0. On parle alors de variable centrée. Proposition 11.12 Soit X une variable aléatoire à valeurs dans N. Si X admet une espérance finie, alors : E(X ) = +∞ X P(X ¾ n) n=1 Démonstration Comme X est à valeurs dans N, (X ¾ n) = (X = n) t (X ¾ n + 1) pour tout n ∈ N. Fixons p ∈ N∗ . p X n · P(X = n) = n=0 p X n · P(X ¾ n) − P(X ¾ n + 1) n=0 = = p X n=0 p X nP(X ¾ n) − p X (n + 1)P(X ¾ n + 1) + n=0 P(X ¾ n + 1) − (p + 1)P(X ¾ p + 1) n=0 –9– p X P(X ¾ n + 1) n=0 (téléscopage) CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Ainsi, p X n=0 n · P(X = n) = p X P(X ¾ n) − pP(X ¾ p + 1). n=1 Par ailleurs, 0 ¶ pP(X ¾ p + 1) = +∞ X pP(X = n) ¶ +∞ X nP(X = n) et cette dernière quantité tend n=p+1 n=p+1 vers 0 comme reste d’une série convergente (la variable aléatoire étant d’espérance finie). +∞ X P(X ¾ n). Bref, pP(X ¾ p + 1) −−−−→ 0 donc en faisant tendre p vers +∞, il vient E(X ) = p→+∞ n=1 B – Variance et écart-type Définition 11.13 : Moment d’ordre p Soit X une variable aléatoire discrète et p ∈ N∗ . Si X p admet une espérance finie, alors on appelle moment d’ordre p de X le réel E(X p ). Théorème / Définition 11.14 : Variance Soit X une variable aléatoire réelle discrète sur un espace probabilisé (Ω, A , P) admettant un moment d’ordre 2. Alors (X − E(X ))2 est d’espérance finie. On appelle variance de X et on note V (X ) le réel positif : X V (X ) = E (X − E(X ))2 = (x − E(X ))2 P(X = x) x∈X (Ω) On appelle écart type de X et on note σ(X ) le réel σ(X ) = p V (X ). Démonstration Posons X = {x n | n ∈ N} et supposons que X admette un moment d’ordre 2. • Montrons tout d’abord que X admet un moment d’ordre 1, c’est-à-dire une espérance finie. Pour n ∈ N, soit |x n | < 1, soit |x n | ¾ 1 et donc |x n | ¶ x n2 . On a donc |x n | ¶ max(1, x n2 ) ¶ 1 + x n2 . On obtient alors : ∀n ∈ N |x n | · P(X = x n ) ¶ P(X = x n ) + x n2 P(X = x n ) P P 2 Comme P(X = x n ) converge (de somme égale à 1) et que par hypothèse, x n · P(X = x n ) converge P également, par comparaison Pde séries à termes positifs, |x n | · P(X = x n ) converge. On a bien établi la convergence absolue de x n · P(X = x n ). • (X − E(X ))2 = X 2 − 2E(X )X + E(X )2 . Comme X 2 et X admettent une espérance finie, il en va de même pour (X − E(X ))2 (par linéarité de l’espérance). • Enfin, l’écart type est bien défini par positivité de l’espérance, V (X ) = E((X − E(X ))2 ) ¾ 0. La variance, qui n’est rien d’autre que la moyenne du carrée de la distance entre les valeurs de X et la moyenne de X , mesure la dispersion de X par rapport à son espérance. Il en va de même pour l’écart type qui a l’avantage d’être homogène à X . Lorsque E(X ) = 0 et σ(X ) = 1, la variable aléatoire X est qualifiée de centrée réduite. La proposition suivante permet de calculer plus facilement la variance d’une variable aléatoire. Proposition 11.15 : Formule de Kœnig-Huygens Si la variable aléatoire discrète X admet un moment d’ordre 2, V (X ) = E(X 2 ) − E(X )2 – 10 – Mickaël PROST Lycée Chaptal – PT* Démonstration On a V (X ) = E((X − E(X ))2 ) = E(X 2 − 2E(X )X + E(X )2 ). Par linéarité de l’espérance, il vient V (X ) = E(X 2 ) − 2E(X )2 + E(X )2 = E(X 2 ) − E(X )2 Exemple Reprenons l’exemple du lancer de dés où l’on a noté X la somme des chiffres obtenus. Que vaut l’écart type de X ? X 2 a pour espérance : 9 16 25 180 49 320 81 100 121 144 329 4 + + + + + + + + + + = 36 18 12 9 36 6 36 9 12 18 36 6 v t 35 35 329 − 72 = et donc σ(X ) = ≈ 2,42. D’où V (X ) = 6 6 6 E(X 2 ) = Exercice 11 Montrer que la variable aléatoire X définie dans l’exercice 9 n’admet pas de variance. Proposition 11.16 Soient λ, µ ∈ R. on a alors V (λX + µ) = λ2 V (X ). Démonstration On a l’égalité suivante : V (λX + µ) = E((λX + µ)2 ) − E(λX + µ)2 = E(λ2 X 2 + 2λµX + µ2 ) − (λE(X ) + µ)2 = λ2 (E(X 2 ) − E(X )2 ) = λ2 V (X ) On remarquera que si V (X ) 6= 0, V réduite. La variable 1 X = V (X ) = 1, donc la variable aléatoire V σ(X ) σ(X )2 1 (X − E(X )) est alors centrée réduite. σ(X ) III – Lois usuelles A – Loi certaine Définition 11.17 : Loi certaine On dit qu’une variable aléatoire suit une loi certaine si elle est constante. On peut alors poser X (Ω) = {a}. L’événement (X = a) est certain, on a P(X = a) = 1. FX (x) P(X = k) 1 1 x k a LOI a FONCTION DE PROBABILITÉ – 11 – DE RÉPARTITION X σ(X ) est CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES E(X ) = a · P(X = a) = a, V (X ) = E(X 2 ) − E(X )2 = a2 − a2 = 0. Réciproquement, une variable aléatoire de variance nulle est dite quasi-certaine : elle peut prendre d’autres valeurs que a mais avec une probabilité nulle. B – Loi uniforme Définition 11.18 : Loi uniforme On dit que la variable aléatoire X suit une loi uniforme sur ¹1, nº si : X (Ω) = ¹1, nº 1 ∀k ∈ ¹1, nº, P(X = k) = n Notation : X ,→ U (¹1, nº). De même, on dira que X suit une loi uniforme sur ¹a, bº avec a < b si : X (Ω) = ¹a, bº 1 ∀k ∈ ¹a, bº, P(X = k) = b−a+1 Situation type : • Lancer d’un dé équilibré ; • Tirage aléatoire de boules numérotées de 1 à n dans une urne. P(X = k) FX (x) 1/3 1 1 LOI 2 4 3 DE PROBABILITÉ POUR x k 1 FONCTION n=3 2 3 4 DE RÉPARTITION POUR n=3 Proposition 11.19 : Espérance et variance d’une loi uniforme Si X ,→ U (¹1, nº) alors E(X ) = n+1 n2 − 1 et V (X ) = . 2 12 Démonstration Rappelons tout d’abord que n X k=1 E(X ) = n X n k= n(n + 1) X 2 n(n + 1)(2n + 1) et k = . 2 6 k=1 kP(X = k)) = k=1 n X k k=1 n X n = n+1 ; 2 n+1 2 2 k=1 n X k2 n + 1 2 (n + 1)(2n + 1) n + 1 2 n2 − 1 − = − = . = n 2 6 2 12 k=1 V (X ) = E(X 2 ) − E(X )2 = k2 P(X = k)) − – 12 – Mickaël PROST Lycée Chaptal – PT* Exercice 12 Montrer que si X ,→ U (¹a, bº) alors on a : E(X ) = a+b 2 et V (X ) = (b − a)(b − a + 2) 12 On s’intéressera pour cela à la loi suivie par la variable aléatoire Y = X − a + 1. C – Loi de Bernoulli Définition 11.20 : Loi de Bernoulli On dit que la variable aléatoire X suit une loi de Bernoulli de paramètre p ∈]0, 1[ si : X (Ω) = {0, 1} P(X = 1) = p Notation : X ,→ B(p) ou X ,→ B(1, p). On notera qu’on a alors P(X = 0) = q = 1 − p. P(X = k) Situation type : • Lancer d’une pièce truquée (lancer unique) ; 2/3 • Tirage d’une boule dans une urne avec a boules noires et b boules blanches. Si on note X le nombre de boules blanches tirées, on a alors a X ,→ B a+b . 1/3 −1 LOI 0 1 2 DE PROBABILITÉ POUR k p = 2/3 Proposition 11.21 : Espérance et variance d’une loi de Bernoulli Si X ,→ B(p) alors E(X ) = p et V (X ) = p(1 − p) = pq. Démonstration E(X ) = 0 · P(X = 0) + 1 · P(X = 1) = p; 2 V (X ) = E(X 2 ) − E(X )2 = 02 · P(X = 0) + 12 · P(X = 1) − p2 = p − p2 = pq. D – Loi binomiale Définition 11.22 : Loi binomiale On dit que la variable aléatoire X suit une loi binomiale de paramètres (n, p) ∈ N∗ ×]0, 1[ si : X (Ω) = ¹0, nº ∀k ∈ ¹0, nº, P(X = k) = n p k q n−k avec q = 1 − p k Notation : X ,→ B(n, p). Vérifions que nous avons bien défini une variable aléaoire : n k n−k ∀k ∈ ¹0, nº, P(X = k) = p q ¾0 k n n X X n k n−k P(X = k) = p q = (p + q)n = 1n = 1 k k=0 k=0 – 13 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Pour n = 1, on retrouve le cas particulier d’une loi de Bernoulli. Une loi binomiale de paramètres (n, p) apparaît lorsqu’on s’intéresse à une expérience aléatoire conduisant à une situation de succès (de probabilité p) ou d’échec (de probabilité q), le tout réitéré n fois de manière indépendante. En notant X le nombre de succès, on a alors X ,→ B(n, p). Démonstration Posons Ω = {S, E}n et notons que card(Ω) = 2n . • On a X (Ω) = ¹0, nº (au pire 0 succès, au mieux n). • Les tirages favorables peuvent être représentés par des mots de la forme S ES · · · E ES E E, mots contenant n k lettres S et donc n − k lettres E. Il y en a précisément . k • La probabilité d’apparition de chacun des mots vaut p k q n−k par indépendance des tirages. n k n−k Donc P(X = k) = p q . k Une loi binomiale de paramètres (n, p) est la somme de n loi de Bernoulli indépendantes, de paramètre p comme nous pourrons le constater dans la prochaine partie. Situation type : • Lancers successifs d’une pièce truquée ; • Tirages successifs avec remise de n boules dans une urne avec a boulesnoires et b boules blanches. Si X a correspond au nombre de boules blanches tirées, on a X ,→ B n, a+b . P(X = k) P(X = k) 1/2 1/2 1/4 1/4 1 2 3 REPRÉSENTATION D’UNE PARAMÈTRES 4 5 6 k 1 2 3 REPRÉSENTATION D’UNE LOI BINOMIALE DE 6, 12 PARAMÈTRES 4 5 6, 23 Si X ,→ B(n, p) alors E(X ) = np et V (X ) = npq. Démonstration n n−1 n n−2 =n et k(k − 1) = n(n − 2) . k k−1 k k−2 – 14 – k LOI BINOMIALE DE Proposition 11.23 : Espérance et variance d’une loi binomiale Remarquons tout d’abord que k 6 Mickaël PROST Lycée Chaptal – PT* • Calcul classique pour l’espérance : n n X n k n−k X n k n−k E(X ) = k p q = k p q k k k=0 k=1 n n−1 X X n − 1 k n−k n − 1 k+1 n−1−k =n p q =n p q k−1 k k=1 k=0 n−1 X n − 1 k n−1−k = np p q = np(p + q)n−1 = np k k=0 • En ce qui concerne la variance, nous allons calculer E(X (X − 1)) plutôt que E(X 2 ), en utilisant la formule de transfert : n X n n k n−k n k n−k X E(X (X − 1)) = k(k − 1) p q = k(k − 1) p q k k k=0 k=2 n n−2 X X n − 2 k n−k n − 2 k n−2−k 2 = n(n − 1) p q = n(n − 1)p p q k−2 k k=2 k=0 = n(n − 1)p2 (p + q)n−2 = n(n − 1)p2 On a alors E(X (X − 1)) = E(X 2 ) − E(X ) par linéarité, et donc : V (X ) = E(X (X − 1)) + E(X ) − E(X )2 = n(n − 1)p2 + np − (np)2 = npq E – Loi géométrique Définition 11.24 : Loi géométrique Soit p ∈]0, 1[. On dit que la variable aléatoire X suit une loi géométrique de paramètre p sur N∗ si : X (Ω) = N∗ ∀n ∈ N∗ , P(X = n) = q n−1 p avec q = 1 − p Notation : X ,→ G (p). Vérifions que l’on a bien défini une variable aléatoire : ∀n ∈ N∗ P(X = n) = q n−1 p ¾ 0 +∞ +∞ +∞ X X X P(X = n) = p q n−1 = p qn = n=1 n=1 n=0 p =1 1−q Une loi géométrique apparaît lorsque l’on s’intéresse à une succession d’épreuves de Bernoulli indépendantes jusqu’à obtenir un premier succès. On parle alors de temps d’attente du premier succès. Démonstration Considérons une série infinie de lancers de pièce qui amène pile avec une probabilité p ∈]0, 1[ et face avec une probabilité 1 − p. Notons Ak l’événement « pile apparaît au ke lancer ». Par indépendance des événements, ∀k ¾ 2 P(X = k) = P A1 ∩ A2 ∩ · · · ∩ Ak−1 ∩ Ak = P(A1 ) × · · · × P(Ak−1 ) × P(Ak ) = q k−1 p De plus, on a bien P(X = 1) = p. – 15 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Remarquons que dans l’exemple précédent, rien ne garantit l’existence d’une telle variable aléatoire X ! En effet, si on désigne par X le rang d’apparition du premier pile, rien ne nous assure que pile va apparaître au cours des tirages. Cependant, on peut montrer qu’un tel événement est de probabilité nulle. En notant B l’événement « pile n’apparaît jamais » et Fn l’événement « face apparaît constamment au cours des n premiers lancers », on a : +∞ \ B= Fn n=1 Comme la suite (Fn )n∈N∗ est décoissante, on a d’après le théorème de continuité décroissante : P(B) = lim P(An ) = lim q n = 0 n→+∞ n→+∞ On peut alors négliger cet événement et considérer X à valeurs dans N∗ . P(X = n) 1/2 Situation type : • Premier pile obtenu au cours de lancers successifs d’une pièce truquée ; 1/4 • Tirages successifs avec remise de n boules dans une urne avec a boules noires et b boules blanches jusqu’à obtenir une boule blanche. 1 2 3 4 5 6 7 8· · · n REPRÉSENTATION D’UNE LOI GÉOMÉTRIQUE DE PARAMÈTRE 1/3 Proposition 11.25 : Espérance et variance d’une loi géométrique Si X ,→ G (p) alors X admet une espérance et une variance et : E(X ) = 1 p et V (X ) = q 1−p = 2 p p2 Démonstration X npq n−1 converge d’après le théorème de dérivation terme à terme d’une série entière n∈N∗ P appliqué à la série q n avec (q ∈] − 1, 1[). De plus, • La série E(X ) = +∞ X n=1 • Pour la même raison, X nP(X = n) = +∞ X npq n−1 = n=1 p 1 = 2 (1 − q) p n(n − 1)pq n−1 converge donc la variance existe et : n¾1 2 V (X ) = E(X (X − 1)) + E(X ) − E(X ) = +∞ X n=1 n(n − 1)pq n−1 + 1 1 − 2 p p 2pq 1−p 1 1 = + − 2= 3 (1 − q) p p p2 Nous avons jusqu’à présent interprété une loi géométrique comme le temps d’attente du 1er succès dans une suite d’épreuves de Bernoulli indépendantes. Si un observateur commence son observation au temps n et qu’il constate que l’événement ne s’est pas encore produit, quelle est la probabilité que l’événement se produise au temps n + k ? Elle est en fait égale à la probabilité que l’événement se produise au temps k, comme si rien ne s’était produit jusque là. La loi géométrique est qualifiée de « loi sans mémoire ». – 16 – Mickaël PROST Lycée Chaptal – PT* Proposition 11.26 : Caractérisation comme loi sans mémoire Soit X une variable aléatoire sur un espace probabilisé (Ω, A , P) telle que X (Ω) = N∗ . X suit une loi géométrique sur N∗ si et seulement si : ∀(k, n) ∈ N P(X > n + k|X > n) = P(X > k) Démonstration Remarquons tout d’abord que si X ,→ G (p), P(X > n) = 1 − n X P(X = k) = 1 − k=1 n X pqq−1 = q n . k=1 Ceci s’interprète facilement en disant que pour l’événement se réalise à un temps supérieur à n, cela nécessite n premiers échecs consécutifs. =⇒ Supposons que X suive une loi géométrique de paramètre p ∈ N∗ . P(X > n + k) q n+k Pour tout (k, n) ∈ N, P(X > n + k|X > n) = = n = q k = P(X > k). P(X > n) q ⇐= Supposons maintenant que pour tout (k, n) ∈ N, P(X > n + k|X > n) = P(X > k). Ainsi, P(X > n + 1) = P(X > n + 1|X > n)P(X > n) = P(X > 1)P(X > n). En posant q = P(X > 1), on voit que (P(X > n))n∈N∗ est une suite géométrique de raison q. ∀n ∈ N∗ P(X > n) = qP(X > n − 1) = · · · = q n−1 P(X > 1) = q n Ainsi, P(X = n) = P(X ¶ n) − P(X ¶ n − 1) = P(X > n − 1) − P(X > n) = q n−1 − q n = pq n−1 . Donc X ,→ G (p). F – Loi de Poisson Contrairement aux lois précédentes, il s’avère difficile de donner un modèle simple qui conduise à une loi de Poisson. Celle-ci apparaît plus naturellement comme une loi limite. Cette loi a été introduite en 1838 par Siméon Poisson et sert souvent à modéliser l’apparition d’événements rares. Définition 11.27 : Loi de Poisson Soit λ > 0. On dit que la variable aléatoire X suit une loi de Poisson de paramètre λ si : X (Ω) = N λn −λ e ∀n ∈ N, P(X = n) = n! Notation : X ,→ P (λ). Vérifions que l’on a bien défini une variable aléatoire : λn −λ e ¾0 n! +∞ +∞ +∞ X X λn X λn P(X = n) = e−λ = e−λ = e−λ eλ = 1 n! n! n=0 n=0 n=0 ∀n ∈ N P(X = n) = Proposition 11.28 : Espérance et variance d’une loi de Poisson Si X ,→ P (λ) alors X admet une espérance et une variance et : E(X ) = λ et – 17 – V (X ) = λ CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Démonstration • La série de terme général nP(X = n) = λe−λ Ainsi, X admet une espérance et : E(X ) = +∞ X λn−1 converge comme série exponentielle. (n − 1)! nP(X = n) = λe−λ n=1 • Pour la même raison, le série de terme général λ2 e−λ V (X ) = E(X (X − 1)) + E(X ) − E(X )2 = λ2 e−λ +∞ X λn−1 =λ (n − 1)! n=1 λn−2 converge donc la variance existe et : (n − 2)! +∞ X λn−2 + λ − λ2 = λ2 + λ − λ2 = λ (n − 2)! n=2 IV – Vecteurs aléatoires discrets A – Couples de variables aléatoires réelles discrètes 1 – Définition Définition 11.29 : Couple de variables aléatoires Soit (Ω, A ) un espace probabilisable. On appelle couple de variables aléatoires discrètes toute application Z : Ω −→ R2 ω 7−→ (X (ω), Y (ω)) où X et Y sont des variables aléatoires discrètes sur (Ω, A ). On note Z = (X , Y ) ce couple de variables. Z est donc une application de Ω dans R2 . Avant de montrer qu’il s’agit bien d’une variable aléatoire 2 , insistons sur la différence entre Z(Ω) = (X , Y )(Ω) et X (Ω) × Y (Ω). Z(Ω) = {(X (ω), Y (ω)) | ω ∈ Ω} ⊂ {(X (ω1 ), Y (ω2 )) | (ω1 , ω2 ) ∈ Ω2 } = X (Ω) × Y (Ω) Exercice 13 (i) Soient X (Ω) = {1, 2}, Y (Ω) = {1, 3} et Ω = {a, b, c} avec X (a) = X (b) = 1, X (c) = 2 et Y (a) = Y (c) = 3, Y (b) = 1. Déterminer Z(Ω) et X (Ω) × Y (Ω). (ii) On lance deux dés. On note X le maximum des valeurs obtenues, Y la valeur du deuxième dé. Que vaut X (Ω) ? Y (Ω) ? Z(Ω) ? Proposition 11.30 Soient (Ω, A ) un espace probabilisable et X , Y deux variables aléatoires réelles discrètes. Alors Z = (X , Y ) est une variable aléatoire discrète sur R2 . On parle alors de vecteur aléatoire discret. 2. au sens plus général des variables aléatoires discrètes à valeurs dans Rn . Ici, n = 2. – 18 – Mickaël PROST Lycée Chaptal – PT* Démonstration • X (Ω) et Y (Ω) sont au plus dénombrables. Il en va de même pour X (Ω) × Y (Ω) et donc pour Z(Ω) qui est inclus dans ce dernier. • Soit z = (x, y) ∈ Z(Ω). (Z = z) = {ω ∈ Ω | X (ω) = x, Y (ω) = y} = (X = x) ∩ (Y = y) (Z = z) est donc l’intersection de deux événements, c’est un événement ! On pourra utiliser les notations suivantes : (X = x i ) ∩ (Y = y j ) = (X , Y ) = (x i , y j ) = X = x i , Y = y j Proposition 11.31 Soit (X , Y ) un couple de variables aléatoires réelles discrètes sur (Ω, A ). On pose X (Ω) = {x i | i ∈ I} et Y (Ω) = { y j | j ∈ J} avec I et J deux parties de N. Alors la famille dévénements Z = (x i , y j ) i∈I est un système complet d’événements. j∈J 2 – Loi conjointe Définition 11.32 Soit (X , Y ) un couple de variables aléatoires sur un espace probabilisé (Ω, A , P). On appelle loi conjointe de X et de Y (ou loi de probabilité du couple (X , Y )) l’application : P(X ,Y ) : X (Ω) × Y (Ω) −→ [0, 1] (x, y) 7−→ P ((X = x) ∩ (Y = y)) Déterminer la loi conjointe revient à calculer pi, j = P((X = x i ) ∩ (Y = y j )) pour i ∈ I et j ∈ J. Exemple On considère une urne avec 4 boules B1 , B2 , B3 , B4 et les tirages de 2 boules successifs avec remise. On note X 1 le numéro de la boule au 1er tirage et X 2 le numéro de la boule au 2ème tirage. On pose enfin Y = max(X 1 , X 2 ) et Z = (X 1 , Y ). Quelle est la loi conjointe de X 1 et Y ? On a X 1 (Ω) = Y (Ω) = ¹1, 4º et : X X 1 /Y 1 2 3 4 1 1 16 1 16 1 16 1 16 2 0 1 8 1 16 1 16 3 0 0 3 16 1 16 4 0 0 0 1 4 P X = x i , Y = y j = 1 car les X = x i , Y = y j forment un système complet d’événements. 1¶i¶n 1¶ j¶p Exercice 14 Dans une succession de piles ou faces pour laquelle la probabilité d’obtenir pile est p ∈]0, 1[ et d’obtenir face est q = 1 − p, on note X le rang d’apparition du premier pile et Y celui du second. Déterminer la loi conjointe de (X , Y ) puis vérifier que la somme des probabilités vaut 1. – 19 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES 3 – Loi marginale Définition 11.33 Soit (X , Y ) un couple de variables aléatoires discrètes sur (Ω, A , P). On appelle 1ère loi marginale de (X , Y ) la loi de X et 2ème loi marginale de (X , Y ) la loi de Y . On peut facilement déduire les lois marginales de la loi conjointe : Théorème 11.34 Avec les notations précédentes, X ∀i ∈ I P (X = x ) = P (X = x i ) ∩ Y = y j i j∈J X ∀ j ∈ J P Y = yj = P (X = x i ) ∩ Y = y j i∈I Il suffit donc de sommer les éléments le long des lignes ou le long des colonnes des tableaux de probabilités pour retrouver les lois marginales. Exemple X 1 /Y 1 2 3 4 1 1 16 1 16 1 16 1 16 2 0 1 8 1 16 1 16 3 0 0 3 16 1 16 4 0 0 0 1 4 ∀k ∈ {1, . . . , 4} 1 ; 16 5 P(Y = 3) = ; 16 P(Y = 1) = P(X 1 = k) = 1 4 3 ; 16 7 P(Y = 4) = . 16 P(Y = 2) = Attention, dans la plupart des cas, on ne peut pas retrouver la loi conjointe à partir des lois marginales. Exercice 15 Déterminer les lois marginales de (X , Y ) définie dans l’exercice 14. 4 – Fonctions de deux variables aléatoires (complément) Nous avons que pour toutes variable aléatoire X et fonction f : X (Ω) → R, f (X ) est encore une variable aléatoire. C’est encore le cas pour Z = g(X , Y ) avec g : X (Ω) × Y (Ω) → R. En effet, G (Z = z) = ((X = x) ∩ (Y = y)) (x, y)∈X (Ω)×Y (Ω) g(x, y)=z est une réunion dénombrable d’événements. De plus, Z(Ω) est au plus dénombrable. Bref, Z est bien une variable aléatoire. Mais comme la réunion précédente est disjointe, on connaît la loi de Z : X P (Z = z) = P ((X = x) ∩ (Y = y)) (x, y)∈X (Ω)×Y (Ω) g(x, y)=z Il est cependant très difficile en pratique de déterminer la loi à l’aide de cette simple formule... – 20 – Mickaël PROST Lycée Chaptal – PT* B – Indépendance et lois conditionnelles Définition 11.35 Soit (X , Y ) un couple de variables aléatoires sur (Ω, A , P). (i) On appelle loi conditionnelle de X sachant (Y = y) pour P(Y = y) 6= 0, l’application : P(Y = y) ((X = •)) : X (Ω) −→ R P ((X = x) ∩ (Y = y])) = P(Y = y) (X = x) x 7−→ P (Y = y) (ii) On appelle loi conditionnelle de Y sachant (X = x) pour P(X = x) 6= 0, l’application : P(X =x) ((Y = •)) : Y (Ω) −→ R P ((X = x) ∩ (Y = y)) y 7−→ = P(X =x) (Y = y) P (X = x) Définition 11.36 : Indépendance de deux variables aléatoires Deux variables aléatoires réelles X et Y sur (Ω, A , P) sont dites indépendantes si : ∀(x, y) ∈ X (Ω) × Y (Ω) P ((X = x) ∩ (Y = y)) = P (X = x) × P (Y = y) Exercice 16 Comment observer l’indépendance de X et de Y dans une table de probabilités ? Dans le cas d’indépendance, on peut retrouver la loi conjointe à partir des lois marginales. Proposition 11.37 Si X et Y sont indépendantes et si f : X (Ω) → R, g : Y (Ω) → R, alors f (X ) et g(Y ) sont indépendantes. Ce résultat est admis. Exemple Si X et Y sont indépendantes, alors X 2 et Y 2 le sont également. Revenons maintenant sur le cas des fonctions de deux variables aléatoires et reprenons la notation précédemment introduite Z = g(X , Y ), où X et Y sont deux variables aléatoires discrètes et g : X (Ω) × Y (Ω) → R. Supposons de plus qu’elles sont indépendantes. On peut alors écrire : P (Z = z) = X P ((X = x) ∩ (Y = y)) = (x, y)∈X (Ω)×Y (Ω) g(x, y)=z X P(X = x) · P(Y = y) (x, y)∈X (Ω)×Y (Ω) g(x, y)=z Exemple Une urne contient deux boules B et n ∈ N∗ boules N . On tire toutes les boules une par une. On note X le rang du tirage de la 1e boule blanche tirée, Y celui de la 2ème . Quelle est la loi du couple (X , Y ) ? la loi de X ? la loi de Y ? la loi de Y − X ? • Ω est l’ensemble des arrangements des n + 2 boules parmi n + 2. • X (Ω) = ¹1, n + 1º ; Y (Ω) = ¹2, n + 2º. – 21 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES • (X = i) ∩ (Y = j) = ∅ pour i ¾ j, et pour i < j, on a : P((X = i) ∩ (Y = j)) = 2 (n + 1)(n + 2) • On peut alors obtenir les lois de X et Y : P (X = i) = P (Y = j) = n+2 X P((X = i) ∩ (Y = j)) = n+2 X j=2 j=i+1 n+1 X j−1 X P((X = i) ∩ (Y = j)) = i=1 P((X = i) ∩ (Y =)]) = P((X = i) ∩ (Y = j)) = i=1 2 (n + 2 − i) (n + 1)(n + 2) 2 ( j − 1) (n + 1)(n + 2) • (Y − X )(Ω) = ¹1, n + 1º ; les (X = i) formant un système complet d’événement, on trouve : ∀k ∈ ¹1, n + 1º P (Y − X = k) = 2 (n + 2 − k) (n + 1)(n + 2) Exemple Dans le cas d’une somme X + Y avec X et Y prenant des valeurs entières et indépendantes, ∀k ∈ (X + Y )(Ω) P(X + Y = k) = X P(X = i)P(Y = j) = 2 (i, j)∈N i+ j=k k X P(X = i)P(Y = k − i) i=0 C – Espérance, variance et covariance 1 – Espérance d’une variable aléatoire fonction de deux variables aléatoires Le théorème de transfert se généralise aux variables aléatoires fonction de deux variables aléatoires. Sous certaines conditions de convergence que nous ne préciserons pas ici, si on pose Z = g(X , Y ) et X (Ω) = {x i | i ∈ I} et Y (Ω) = { y j | j ∈ J} avec I et J deux parties de N, alors : X E(Z) = g(x i , y j )P (X = x i ) ∩ (Y = y j ) i∈I j∈J Exemple On considère une urne contenant n boules numérotées de 1 à n. On tire successivement deux boules avec remise. On note X le numéro de la 1ère boule, Y le numéro de la 2nde . Soit Z = max(X , Y ). Quelle est l’espérance de Z ? • X (Ω) = Y (Ω) = Z(Ω) = ¹1, nº ; X , Y ,→ U (¹1, nº) et sont indépendantes. • De plus, n n 1 XX max(i, j)P (X = x i ) ∩ (Y = y j ) = 2 max(i, j) n i=1 j=1 1¶i, j¶n n i n n i n X X X X X X 1 1 = 2 max(i, j) + max(i, j) = 2 i+ j n i=1 j=1 n i=1 j=1 j=i+1 j=i+1 E(Z) = X n n 1 X 2 n(n + 1) i(i + 1) 1 X i + − = n(n + 1) + i 2 − i 2 2 n i=1 2 2 2n i=1 1 n(n + 1)(2n + 1) n(n + 1) (n + 1)(4n − 1) = 2 n2 (n + 1) + − = 2n 6 2 6n = – 22 – Mickaël PROST Lycée Chaptal – PT* Que se passe-t-il pour un tirage sans remise ? On peut déduire la linéarité de l’espérance du résultat précédent. Exercice 17 Que vaut en moyenne la somme de deux nombres pris au hasard entre 1 et n ? 2 – Covariance Théorème / Définition 11.38 Soit (X , Y ) un couple de variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P). Si X et Y admettent un moment d’ordre 2, alors la variable aléatoire (X − E(X ))(Y − E(Y )) admet une espérance. On appelle alors covariance de X et Y le réel noté cov(X , Y ) défini par : cov(X , Y ) = E((X − E(X ))(Y − E(Y )) La covariance de X et Y est l’espérance du produit des variables centrées. Théorème 11.39 : Formule de Kœnig-Huygens Sous les hypothèses précédentes, cov(X , Y ) = E(X Y ) − E(X ) · E(Y ). Démonstration Il s’agit d’un simple calcul. cov(X , Y ) = E((X − E(X ))(Y − E(Y )) = E (X Y − E(X )Y − E(Y )X + E(X )E(Y )) = E(X Y ) − 2E(X )E(Y ) + E(X )E(Y ) = E(X Y ) − E(X )E(Y ) On a cov(X , X ) = V (X ) et E(X Y ) = X x i y j P (X = x i ) ∩ (Y = y j ) . i∈I j∈J Exercice 18 Exemple de l’urne avec 4 boules, Z = (X 1 , Y ) avec Y = max(X 1 , X 2 ). Que vaut cov(X 1 , Y ) ? Proposition 11.40 : Propriétés de la covariance Si X , Y et Z sont trois variables aléatoires admettant un moment d’ordre 2 et a, b, c, d ∈ R, alors : (i) cov(X , X ) = V (X ) ; (ii) cov(X , Y ) = cov(Y, X ) ; (iii) cov(aX + bY, Z) = acov(X , Z) + bcov(Y, Z) ; (iv) cov(aX + b, cY + d) = accov(X , Y ). Proposition 11.41 Si X et Y sont deux variables alatoires admettant un moment d’ordre 2 et a, b ∈ R, alors : V (aX + bY ) = a2 V (X ) + b2 V (Y ) + 2a bcov(X , Y ) Pour a = b = 1, V (X + Y ) = V (X ) + V (Y ) + 2cov(X , Y ). – 23 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Démonstration On a tout simplement : V (aX + bY ) = cov(aX + bY, aX + bY ) = acov(X , aX + bY ) + bcov(Y, aX + bY ) = a2 cov(X , X ) + b2 cov(Y, Y ) + 2a bcov(X , Y ) = a2 V (X ) + b2 V (Y ) + 2a bcov(X , Y ) Théorème 11.42 Si X et Y sont deux variables alatoires admettant un moment d’ordre 2 et indépendantes, alors : (i) E(X Y ) = E(X )E(Y ) ; (ii) cov(X , Y ) = 0 ; (iii) V (X + Y ) = V (X ) + V (Y ). Démonstration Montrons seulement la première propriété (dans le cas fini), le reste en découle immédiatement. p n X X X x i P (X = x i ) x i y j P (X = x i ) ∩ (Y = y j ) = yj P Y = yj E(X Y ) = 1¶i¶n 1¶ j¶p = n X i=1 x i P (X = x i ) × i=1 p X j=1 y j P Y = y j = E(X ) × E(Y ) j=1 La réciproque est fausse ! Exemple Considérons la variable aléatoire réelle X sur (Ω, A , P) telle que : xi −2 −1 0 1 2 P(X = x i ) 1 6 1 4 1 6 1 4 1 6 et posons Y = X 2 . On vérifie que cov(X , Y ) = 0 bien que X et X 2 ne sont pas indépendantes. 3 – Coefficient de corrélation linéaire p Rappelons que σ(X ) = V (X ) avec V (X ) = E((X − E(X ))2 ) = E(X 2 ) − E(X )2 . De plus, σ(X ) = 0 si et seulement si la variable X suit une loi certaine. Définition 11.43 Soient X et Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P) et admettant un moment d’ordre 2. On suppose de plus que leur écart type est non nul. cov(X , Y ) On appelle coefficient de corrélation linéaire de X et Y le réel ρ(X , Y ) = . σ(X ) · σ(Y ) On notera que ρ(X , Y ) est une grandeur sans unité. – 24 – Mickaël PROST Lycée Chaptal – PT* Proposition 11.44 Si X et Y sont deux v.a.r. d’écart-types non nuls, alors : (i) ρ(X , Y ) ∈ [−1, 1] ; (ii) ρ(X , Y ) = ±1 si et seulement s’il existe a, b ∈ R tels que Y = aX + b. Démonstration V (λX + Y ) = λ2 V (X ) + V (Y ) + 2λcov(X , Y ). C’est un trinôme en λ car V (X ) 6= 0. De plus, V (λX + Y ) ¾ 0 donc le discriminant ∆ est négatif ou nul. Or ∆ = 4cov(X , Y )2 − 4V (X )V (Y ) donc : Æ |cov(X , Y )| ¶ V (X )V (Y ) = σ(X )σ(Y ) ce qui donne |ρ(X , Y )| ¶ 1 Il y a égalité en présence d’une racine double ; il existe donc λ tel que V (λX + Y ) = 0, c’est-à-dire que λX + Y est une variable certaine. Il existe donc µ ∈ R tel que λX + Y = µ. D – Exemples de sommes de variables aléatoires Le lemme suivant n’est pas au programme. Lemme 11.45 : Formule de Vandermonde On considère trois entiers naturels m, n, p avec p ¶ n + m. Alors, p X n m n+m = k p−k p k=0 Démonstration Donnons une preuve non combinatoire de ce résultat. Posons pour cela P = (X + 1)n et Q = (X + 1)m . n+m p • Le terme de degré p du polynôme PQ = (X + 1)n+m a pour expression X . p • En utilisant la formule du produit de deux polynômes, on trouve également : p X nm X n m X i+ j = Xp i j k p − k i+ j=p k=0 D’où l’égalité par identification. Théorème 11.46 : Somme de variables suivant une loi binomiale (i) Si X et Y sont deux variables indépendantes définies sur (Ω, A , P) suivant des lois binomiales de paramètres respectifs (n1 , p) et (n2 , p) alors X + Y suit une loi binomiale de paramètre (n1 + n2 , p). (ii) Plus généralement, si X 1 , . . . , X n sont n variables aléatoires mutuellement indépendantes suivant des lois binomiales de paramètres respectifs (m1 , p), . . . , (mn , p) alors X 1 + · · · + X n suit une loi binomiale de paramètre (m1 + · · · + mn , p). – 25 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Démonstration (i) Supposons donc que X ,→ B(n1 , p) et Y ,→ B(n2 , p) sont deux variables indépendantes. Alors X (Ω) = ¹0, n1 º, Y (Ω) = ¹0, n2 º. Alors, en posant Z = X + Y , Z(Ω) = ¹0, n1 + n2 º et en vertu du résultat précédent : ∀k ∈ ¹0, n1 + n2 º P(Z = k) = k X P(X = i)P(Y = k − i) = i=0 k X n1 + n2 k n1 +n2 +k = p q k i=0 k X n2 n1 p k q n1 +n2 +k k − i i i=0 (Formule de Vandermonde) On a bien Z ,→ B(n1 + n2 , p). (ii) On raisonne par récurrence en utilisant l’indépendance des variables X 1 + · · · + X n et de X n+1 . En conséquence, la somme de n variables indépendantes qui suivent une loi de Bernoulli de paramètre p est une variable aléatoire qui suit une loi binomiale de paramètre (n, p). Corollaire 11.47 Si X ,→ B(n, p) alors E(X ) = np et V (X ) = npq. Théorème 11.48 : Somme de variables suivant une loi de Poisson Si X et Y sont deux variables indépendantes de (Ω, A , P) suivant des lois de Poisson de paramètres respectifs λ et µ alors X + Y suit une loi de Poisson de paramètre λ + µ. De manière générale, la somme de n variables indépendantes suivant une loi de Poisson de paramètres respectifs λ1 , . . . , λn est une variable aléatoire qui suit une loi de Poisson de paramètre λ1 + . . . + λn . Démonstration Supposons donc que X ,→ P (λ) et Y ,→ P (µ) sont deux variables indépendantes. Alors X (Ω) = N, Y (Ω) = N. Alors, en posant Z = X + Y , Z(Ω) = N. On a de plus : ∀n ∈ N P(Z = n) = n X P(X = i)P(Y = n − i) i=0 = n X e−λ i=0 n (λ + µ)n e−(λ+µ) X n i n−i λi −µ µn−i e = λµ = e−(λ+µ) · i! (n − i)! n! i=0 i n! V – Fonctions génératrices Dans toute cette partie, on considérera une variable aléatoire discrète X définie sur un univers probabilisé (Ω, A , P) que l’on supposera de plus à valeurs dans N. Définition 11.49 : Fonction génératrice La fonction génératrice de la variable X est définie par : GX : t 7→ E t X = +∞ X n=0 – 26 – P(X = n)t n Mickaël PROST Lycée Chaptal – PT* On appelle série génératrice la série entière associée. On rappelle que G est définie sur un intervalle de la forme ] − R, R[, ] − R, R], [−R, R[ ou bien [−R, R] où R est le rayon de convergence de la série entière de coefficients P(X = n). De plus, cette série converge pour t = 1 et on a : GX (1) = +∞ X P(X = n) = 1 n=0 car la famille ((X = n)n∈N ) forme un système complet d’événements. D’où le résultat suivant. Proposition 11.50 Le rayon de convergence de la série entière X P(X = n)t n est supérieur ou égal à 1. n∈N Dans le cas où la variable aléatoire est finie, la fonction génératrice est polynomiale et R = +∞. Nom Notation G(t ) Bernoulli B(p) q + pt Binomiale B(n, p) (q + pt)n Uniforme U (¹1; nº) t − t n+1 n(1 − t) Géométrique G (p) pt 1 − qt Poisson P (λ) eλ(t−1) FONCTION La fonction GX est de classe C ∞ sur l’intervalle ouvert ] − R, R[ et on peut dériver terme à terme la somme de la série. On sait de plus que GX est la somme de sa série de Taylor : (n) ∀n ∈ N P(X = n) = GX (0) n! La connaissance de GX nous permet donc de retrouver la loi de X . On dit alors que la loi de X est caractérisée par sa série génératrice. C’est également le cas de la fonction de répartition de X . Il sera dans certains cas intéressant de passer par la fonction génératrice afin de déterminer la loi de probabilité d’une variable donnée. GÉNÉRATRICE DES LOIS USUELLES C’est notamment le cas pour la somme de deux variables aléatoires indépendantes. Théorème 11.51 : Fonction génératrice de la somme de deux variables indépendantes Soient X et Y deux variables aléatoires définies sur un espace probabilisé (Ω, A , P) et à valeurs dans N. Notons GX et GY leurs fonctions génératrices de rayon de convergence respectifs R X et R Y . Si X et Y sont indépendantes, la fonction génératrice GX +Y de X + Y est définie sur au moins ] − R, R[ avec R ¾ min(R X , R Y ) et : ∀t ∈ DX ∩ DY GX +Y (t) = E t X +Y = E t X E t Y = GX (t)GY (t) Démonstration Par produit de Cauchy, GX (t)GY (t) = = +∞ X +∞ X n P(X = n)t · P(Y = n)t n=0 +∞ n XX n n=0 P(X = k)P(Y = n − k)t n = n=0 k=0 X P(X + Y = n)t n = GX +Y (t) n=0 – 27 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Exercice 19 Déterminer la fonction génératrice d’une loi binomiale et d’une loi géométrique. Exercice 20 Retrouver la loi de la somme de deux variables aléatoires indépendantes suivant une loi de Poisson. Théorème 11.52 : Fonction génératrice et moments Soit X une variable aléatoire définie sur un espace probabilisé (Ω, A , P) et à valeurs dans N. (i) La variable aléatoire X admet une espérance E(X ) si et seulement si GX est dérivable en 1. Si tel est le cas, E(X ) = GX0 (1). (ii) La variable aléatoire X admet une variance si et seulement si GX est deux fois dérivable en 1. Démonstration Nous admettrons l’équivalence demandée. Supposons que R > 1. Alors, d’après le théorème de dérivation terme à terme de la somme d’une série entière, GX est dérivable en 1 et : GX0 (1) = +∞ X nP(X = n) = +∞ X nP(X = n) = E(X ) n=0 n=1 De plus, en dérivant une nouvelle fois, GX00 (1) = +∞ X n(n − 1)P(X = n) = E(X (X − 1)) n=0 Comme V (X ) = E(X 2 ) − E(X )2 = E(X (X − 1)) + E(X ) − E(X )2 , V (X ) = GX00 (1) + GX0 (1)(1 − GX0 (1)). L’expression de la variance en fonction de GX0 (1) et de GX00 (1) n’est pas à retenir. VI – Convergence et approximations A – Approximation d’une loi binomiale Théorème 11.53 : Approximation d’une loi binomiale par une loi de Poisson Si pour tout n ∈ N∗ , X n ,→ B(n, pn ) et si lim npn = λ, alors on a : n→+∞ ∀k ∈ N P(X n = k) −−−−→ e−λ n→+∞ λk k! Démonstration Pour tout k ∈ N, (npn )k n! n k pn (1 − pn )n−k = × × (1 − pn )n−k k k!(n − k)! nk k−1 k−1 Y 1 Y 1 1 i = (n − i) k (npn )k (1 − pn )n−k = 1− (npn )k (1 − pn )n−k k! i=0 n k! i=0 n P(X n = k) = k est une constante et pn −−−−→ 0. Ainsi, quand n −→ +∞, n→+∞ k−1 Y i −−−−→ 1 1− n n→+∞ i=0 et – 28 – (npn )k −−−−→ λk n→+∞ Mickaël PROST Lycée Chaptal – PT* De plus, comme (n − k) ln(1 − pn ) ∼ n→+∞ −npn , (1 − pn )n−k = e(n−k) ln(1−pn ) −−−−→ e−λ n→+∞ On a donc bien P(X n = k) −−−−→ e−λ n→+∞ λk . k! On peut donc approcher numériquement toute loi binomiale de paramètre (n, p) par une loi de Poisson de paramètre np mais la qualité de l’approximation dépendra des valeurs de n et p. Dans la pratique, on considère l’approximation valable pour n ¾ 30 et p ¶ 0.1. 1 2 3 4 5 6 7 8 import numpy as np import m a t p l o t l i b . p y p l o t as p l t 0.25 p = 0.1 n = 30 loi binomiale loi de Poisson 0.20 d e f binom ( n , k ) : r e t u r n np . math . f a c t o r i a l ( n ) /( np . math . f a c t o r i a l ( k ) *np . math . f a c t o r i a l ( n−k ) ) 0.15 P(X=k) 9 10 d e f B( k ) : 11 r e t u r n binom ( n , k ) *p**k*(1−p ) ** ( n−k ) 12 13 d e f P ( k ) : 14 r e t u r n np . exp(−n*p ) * ( n*p ) **k/np . math . f a c t o r i a l ( k ) 15 16 f o r k i n range (10) : 17 p l t . p l o t ( [ k −0.1 , k −0.1] , [ 0 , B( k ) ] , ’ b ’ , l i n e w i d t h = 6) 18 p l t . p l o t ( [ k +0.1 , k +0.1] , [ 0 , P ( k ) ] , ’ g ’ , l i n e w i d t h = 6) 19 p l t . a x i s ( [ − 0 . 2 , 1 0 . 5 , 0 , 0 . 2 5 ] ) 20 p l t . g r i d ( True ) 21 p l t . x l a b e l ( ’ k ’ ) 22 p l t . y l a b e l ( ’ P (X=k ) ’ ) 23 p l t . legend ( [ ’ l o i b i n o m i a l e ’ , ’ l o i de P o i s s o n ’ ] ) 24 p l t . show ( ) 0.10 0.05 0.00 0 2 4 APPROXIMATION D’UNE k 6 8 10 LOI BINOMIALE PAR UNE LOI DE POISSON B – Loi faible des grands nombres Lemme 11.54 : Inégalité de Markov Soit X une variable aléatoire définie sur l’espace probabilisé (Ω, A , P), à valeurs positives et admettant une espérance. E(X ) ∀a > 0 P(X ¾ a) ¶ a Démonstration Soit a > 0. Posons D = {x ∈ X (Ω) | x ¾ a}. X X X E(X ) = x P(X = x) = x P(X = x) + x P(X = x) x∈X (Ω) ¾ X x∈D x P(X = x) ¾ a x∈D X x∈D P(X = x) = aP(x ¾ a) x∈D Proposition 11.55 : Inégalité de Bienaymé-Tchebychev Soit X une variable aléatoire définie sur l’espace probabilisé (Ω, A , P) admettant un moment d’ordre 2. ∀" > 0 P (|X − E(X )| ¾ ") ¶ V (X ) "2 Démonstration Il suffit d’appliquer l’inégalité de Markov à la variable aléatoire (X − E(X ))2 qui est positive et qui admet une espérance en prenant a = " 2 . – 29 – CHAPITRE 11. VARIABLES ALÉATOIRES DISCRÈTES Cette inégalité, bien que grossière comme nous pourrons le constater dans l’exemple ci-dessous, majore la probabilité qu’une variable aléatoire s’écarte de sa moyenne. Exercice 21 • Comparer P(|X − E(X )| ¾ 1) et V (X ) dans le cas où X représente la somme des chiffres obtenus lors du lancer de deux dés. • Trouver n ∈ N tel que P(X ¶ n) ¶ 12 . Exercice 22 Que dire d’une variable aléatoire de variance nulle ? Cette inégalité a avant tout un intérêt théorique. Nous allons l’utiliser pour prouver la loi faible des grands nombres. 1.0 Mais avant de présenter le résultat, intéressons-nous aux lancers successifs d’une pièce équilibrée. Intuitivement, la fréquence d’apparition de « Pile » au cours d’un très grand nombre de lancers devrait être proche de 12 . De manière plus générale, pour déterminer la probabilité d’un événement A, on cherchera à répéter l’expérience aléatoire sous-jacente un maximum de fois dans l’espoir que la fréquence de réalisation soit proche de la probabilité recherchée. Fol espoir ? Non, même si rien ne nous garantit qu’au cours d’une série particulière de 10 000 lancers d’une pièce équilibrée, la fréquence d’apparition soit proche de 1/2 ! Série 1 Série 2 Série 3 Fréquence 0.8 0.6 0.4 0.2 0.0 0 200 400 FRÉQUENCE D’APPARITION 600 800 Nombre de lancers DE « PILE » 1000 AU COURS DE 1200 1200 LANCERS Considérons une suite de variables aléatoires (X n )n¾1 indépendantes et de même loi. On suppose qu’elles admettent toutes un moment d’ordre 2. Posons : X1 + · · · + Xn Mn = n Mn s’interprète naturellement comme la moyenne des résultats obtenus au cours des n premiers « tirages ». Remarquons qu’il n’y a aucune raison que Mn suive une loi semblable aux variables aléatoires X i . Nous allons cependant montrer que la probabilité que Mn s’écarte de l’espérance commune E(X i ) tend vers 0 quand n tend vers l’infini. C’est la loi faible des grands nombres ! Théorème 11.56 : Loi faible des grands nombres Soit (X n )n¾1 une suite de variables aléatoires discrètes définies sur un espace probabilisé (Ω, A , P). On suppose toutes lesPvariables indépendantes et de même loi, admettant une espérance m et un écart n type σ. Posons Sn = i=1 X i . Alors, ∀" ¾ 0, Sn P − m ¾ " −−−−→ 0 n→+∞ n Démonstration D’après l’inégalité de Bienaymé-Tchebychev et par indépendance des variables aléatoires, S V nn Sn nσ2 σ2 ∀" > 0 P − m ¾ " ¶ = = −−−−→ 0 n "2 n2 " 2 n" 2 n→+∞ L’espérance d’une variable aléatoire correspond donc au résultat moyen obtenu par une succession d’expériences identiques répétées un grand nombre de fois. – 30 – Mickaël PROST Lycée Chaptal – PT* VII – Lois usuelles – Synthèse Nom Notation X (Ω) P(X = k) p si k = 0 E(X ) V(X ) G(t ) p pq 1 − p + pt Bernoulli B(p) {0; 1} Binomiale B(n, p) ¹0; nº n k n−k p q k np npq (1 − p + pt)n Uniforme U (¹1; nº) ¹1; nº 1 n n+1 2 n2 − 1 12 t − t n+1 n(1 − t) Géométrique G (p) N∗ q k−1 p 1 p q p2 pt 1 − qt Poisson P (λ) N e−λ λk k! λ λ eλ(t−1) 1 − p si k = 1 – 31 –