12. Variables aléatoires réelles discrètes finies 12.1 Généralités 12.1.1 Définitions et notations Définition 12.1.1 Soit (Ω, P (Ω)) un espace probabilisable fini. On appelle variable aléatoire réelle discrète finie sur Ω (VARDF sur Ω) toute application X de RΩ . Exemple 12.1 On modélise le lancer de deux dés par une probabilité uniforme sur l’ensemble �1, 6�2 . Alors, la somme des numéros obtenus sur les deux dés se modélise par la VARDF, notée X, définie par X : �1, 6�2 → R, (i , j ) �→ i + j . ■ ■ Notation 12.1. Pour X une VARDF sur Ω, comme pour toute application, on peut considérer l’image directe d’un sous-ensemble de Ω par X et l’image réciproque d’un sous-ensemble de R par X. Dans le cadre des probabilités, la notation standard pour l’image directe ne diffère pas de celle utilisée ailleurs en mathématiques. Par exemple, on note : X(Ω) = X({ω1 , ..., ωn }) = {X(ω1 ), ..., X(ωn )} . Par contre, la notation standard en probabilités pour l’image réciproque diffère de celle utilisée ailleurs en mathématiques. En probabilités, les images réciproques sont notées avec des crochets. Ainsi, on a : X −1 (A) = [X ∈ A] = {ω ∈ Ω | X(ω) ∈ A} . Cette notation se généralise à n’importe quelle proposition Q portant sur des éléments de R : [X vérifie Q] = {ω ∈ Ω | X(ω) vérifie Q} . Exemple 12.2 On reprend les mêmes objets que ceux de l’exemple précédent. On a alors [X = 3] = {(1, 2), (2, 1)} ou encore [X ≤ 3] = {(1, 1), (1, 2), (2, 1)}. ■ ■ Notation 12.2. Une application constante sur Ω est une VARDF sur Ω. On la note généralement a : Ω −→ R . via la valeur de sa constante, i.e. pour un réel a, on note ω �−→ a Chapitre 12. Variables aléatoires réelles discrètes finies 160 Théorème 12.1.1 — Opérations usuelles. Soient X et Y deux VARDF sur un espace probabilisable fini (Ω, P (Ω)). Soient λ ∈ R et f une fonction réelle définie sur un intervalle I de R tel que X(Ω) ⊂ I. Alors, on peut définir les VARDF suivantes : (i) X + Y : Ω −→ R ω �−→ X(ω) + Y(ω) (ii) λ.X : Ω −→ R ω �−→ λ × X(ω) (iii) X × Y : Ω −→ R ω �−→ X(ω) × Y(ω) (iv) f ◦ X : Ω −→ R ω �−→ f (X(ω)) (addition) (multiplication par un scalaire) (multiplication) (transfert) Démonstration. Ceci découle directement des résultats usuels sur les applications réelles. R ■ On remarque que l’on ne parle pas de composition pour les VARDF mais de transfert. C’est dû au fait que l’on utilise une fonction f qui permet de passer d’une VARDF à une autre (i.e. X à f ◦ X), mais que f n’est pas, en soi, une VARDF : ce n’est qu’une fonction de transfert. Théorème 12.1.2 — Système complet associés à une VARDF. Soit X une VARDF sur un espace probabilisable fini (Ω, P (Ω)). La famille ([X = x])x∈X(Ω) forme une partition de Ω. Démonstration. C’est très direct. Si ω ∈ Ω alors, par la définition d’une application, l’image de ω par X, X(ω), est définie de manière unique dans X(Ω). Ainsi, ω appartient à un unique ensemble de la famille ([X = x])x∈X(Ω) . ■ 12.1.2 Loi de probabilité et fonction de répartition Définition 12.1.2 — Loi de probabilité. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On appelle loi de probabibilité de X l’application L X définie par : L X : X(Ω) −→ [0, 1] . x �−→ P([X = x]) Notation 12.3. Pour simplifier, on note souvent P(X = x) et, plus généralement, P(X vérifie Q) au lieu de P([X = x]) et P([X vérifie Q]). Exercice 12.1 Déterminer la loi de probabilité L X , où X est la VARDF de l’exemple 12.1. ■ 12.2 Espérance et variance 161 Définition 12.1.3 — Égalité en loi. Soient X et Y des VARDF sur un espace probabilisé fini L (Ω, P (Ω), P). On dit que X et Y sont égales en loi si L X = L Y . On note alors, X = Y. Exercice 12.2 On modélise un lancer de pièce par une probabilité uniforme sur un ensemble {p, f }. Déterminer la loi de X, définie par X(p) = 0 et X( f ) = 1, puis de Y = 1 − X, définie par Y(p) = 1 et Y( f ) = 0. En déduire qu’il peut y avoir égalité en loi sans avoir égalité. ■ Définition 12.1.4 — Fonction de répartition. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On appelle fonction de répartition de X et on note FX la fonction définie par : FX : R −→ [0, 1] . x �−→ P(X ≤ x) Exercice 12.3 Faire la représentation graphique, pour x ∈ [0, 15], de la fonction de répartition de X, définie comme dans l’exemple 12.1. ■ Théorème 12.1.3 — Caractérisation de la loi par la fonction de répartition. Soient X et Y deux VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On a l’équivalence suivante : L X = Y ⇔ ∀x ∈ R, FX (x) = FY (x) . Démonstration. Il suffit d’écrire X(Ω) = {x 1 , ..., x n } avec x 1 < x 2 < ... < x n . On remarque alors � que FX (x) = P(X = x i ). Réciproquement, on a P(X = x 1 ) = FX (x 1 ) et, si i ∈ �2, n�, on a 1≤i ≤n x i ≤x P(X = x i ) = FX (x i ) − FX (x i −1 ). Donc FX est définie entièrement par sa loi et réciproquement. ■ 12.2 Espérance et variance 12.2.1 Espérance mathématique Définition 12.2.1 — Espérance mathématique d’une VARDF. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P) telle que X(Ω) = {x 1 , ..., x n }. On appelle espérance mathé- Chapitre 12. Variables aléatoires réelles discrètes finies 162 matique de X (ou simplement espérance de X) le réel, noté E(X), tel que : E(X) = n � i =1 x i P(X = x i ) . R L’espérance mathématique permet souvent de modéliser le gain moyen dans un jeu de hasard. R On déduit directement de la définition de l’espérance que deux VARDF qui sont égales en loi ont la même espérance. Exercice 12.4 Calculer l’espérance de X, où X est la VARDF de l’exemple 12.1. ■ Théorème 12.2.1 — Théorème de transfert. Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P) telle que X(Ω) = {x 1 , ..., x n } et g une fonction réelle définie sur X(Ω). On a : E(g (X)) = n � i =1 g (x i )P(X = x i ) . Démonstration. La démonstration de ce théorème n’étant pas au programme, on l’admet. Mais elle ne présente pas de difficulté particulière. ■ Exercice 12.5 Retrouver le résultat de l’exercice précédent en posant Y = 14 − X. 12.2.2 Variance ■ Définition 12.2.2 — Variance d’une VARDF. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On appelle variance de X le réel, noté V(X), tel que : � � V(X) = E (X − E (X))2 . R De même que pour l’espérance, on déduit directement de la définition de la variance que deux VARDF de même loi ont même variance. 12.2 Espérance et variance 163 Théorème 12.2.2 — Positivité de la variance. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). Alors, on a : (i) (ii) V(X) ≥ 0 V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)). Démonstration. Il suffit d’utiliser le théorème de transfert appliqué à la formule de la variance. n � Ceci permet d’écrire V(X) = (x i − E(X))2 P(X = x i ) ≥ 0, car c’est une somme de termes positifs. i =1 On voit alors que x i = E(X) tant que P(X = x i ) �= 0, ce qui permet de conclure pour le cas V(X) = 0. ■ Théorème 12.2.3 — Formule de Koenig-Huygens. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). Alors, on a : V(X) = E(X 2 ) − (E(X))2 . Démonstration. On a V(X) = n � i =1 x i2 P(X = x i ) − 2E(X) E(X)2 . n � i =1 n � (x i − E(X))2 P(X = x i ) = i =1 x i P(X = x i ) + E(X)2 n � i =1 n � (x i2 − 2E(X)x i + E(X)2 )P(X = x i ) = i =1 P(X = x i ) = E(X 2 ) − 2E(X)2 + E(X)2 = E(X 2 ) − Exercice 12.6 Calculer la variance de X, où X est la VARDF de l’exemple 12.1. 12.2.3 ■ ■ Définition 12.2.3 — Écart-type d’une VARDF. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On appelle écart-type de X le réel, noté σ(X), tel que : � σ(X) = V(X) . Transferts usuels Théorème 12.2.4 — Transfert linéaire. Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P) et a, b deux réels. Alors, on a : (i) (ii) E(aX + b) = aE(X) + b V(aX + b) = a 2 V(X) Démonstration. Pour l’espérance, il suffit d’utiliser le théorème de transfert puis la linéarité de la somme. Pour la variance, il suffit de passer par la formule de Koenig-Huygens ainsi que la formule (i). ■ Chapitre 12. Variables aléatoires réelles discrètes finies 164 Exercice 12.7 Donner le détail des étapes décrites dans la démonstration du théorème précédent. ■ Définition 12.2.4 — Variable centrée et réduite. Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On dit que X est centrée lorsque E(X) = 0. On dit que X est centrée et réduite lorsque E(X) = 0 et V(X) = 1. Si V(X) �= 0, on appelle variable centrée réduite associée à X la VARDF, notée X ∗ , définie par : X∗ = R X − E(X) . σ(X) Les propriétés des transferts linéaires permettent de vérifier que X ∗ est bien une variable centrée et réduite. 12.3 Lois usuelles 12.3.1 Loi certaine Définition 12.3.1 Soit X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On dit que X suit une loi certaine de paramètre a ∈ R si P(X = a) = 1. Théorème 12.3.1 Soit X une VARDF suivant une loi certaine de paramètre a ∈ R. Alors, on a : E(X) = a et V(X) = 0 . Démonstration. Pour l’espérance, c’est immédiat. Pour la variance, il suffit d’appliquer le théorème sur la positivité de la variance. ■ 12.3.2 Loi uniforme Définition 12.3.2 Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P) et E une partie finie non vide de R. On dit que X suit une loi uniforme sur E si X(Ω) = E et, pour tout 1 x ∈ E, P(X = x) = |E| . On note alors X �→ U (E). Théorème 12.3.2 Soit X une VARDF telle que X �→ U (�1, n�). Alors, on a : E(X) = n +1 2 et V(X) = n2 − 1 . 12 � � �� � � k2 n 2 2 Démonstration. On a E(X) = nk=1 nk = n1 n(n+1) = n+1 2 2 et V(X) = E(X ) − E(X) = n − k=1 � � 2 2 (n+1)2 1 n(n+1)(2n+1) = − (n+1) = (n + 1) 2(2n+1)−3(n+1) = (n+1)(n−1) = n12−1 . ■ 4 n 6 4 12 12 12.3 Lois usuelles 165 Exercice 12.8 Soient a, b ∈ Z tels que a < b et X une VARDF telle que X �→ U (�a, b�). Déterminer l’espérance et la variance de X. On posera X = g (Y) où Y �→ U (�1, n�) et g est une fonction de transfert linéaire. ■ 12.3.3 Loi de Bernoulli Définition 12.3.3 Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On dit que X suit une loi de Bernoulli de paramètre p ∈]0, 1[ si X(Ω) = {0, 1}, P(X = 1) = p et P(X = 0) = 1 − p. On note alors X �→ B(p). Théorème 12.3.3 Soit X une VARDF telle que X �→ B(p). Alors, on a : E(X) = p et V(X) = p(1 − p) . Démonstration. On a E(X) = 0×(1− p)+1× p = p et V(X) = E(X 2 )−E(X)2 = p − p 2 = p(1− p). ■ 12.3.4 Loi binomiale Définition 12.3.4 Soient X une VARDF sur un espace probabilisé fini (Ω, P (Ω), P). On dit que X suit une loi binomiale de paramètres n ∈ N∗ et p ∈]0, 1[ si X(Ω) = �0, n� et, pour tout � � k ∈ �0, n�, P(X = k) = nk p k (1 − p)n−k . On note alors X �→ B(n, p). R Une loi de Bernoulli est une loi binomiale de paramètres 1 et p. Qui plus est, une VARDF de loi binomiale de paramètres n et p permet de modéliser les résultats cumulés de n itérations d’une expérience aléatoire dont les résultats sont modélisés par une VARDF de loi de Bernoulli de paramètre p. Théorème 12.3.4 Soit X une VARDF telle que X �→ B(n, p). Alors, on a : E(X) = np et V(X) = np(1 − p) . � � � � � � Démonstration. On a E(X) = nk=0 k nk p k (1 − p)n−k = nk=1 k nk p k (1 − p)n−k . Or, ∀k ∈ �1, n�, �n � �n−1� � � � �n−1 �n−1� k k n−k n−1−k k k = n k−1 . D’où E(X) = nk=1 n n−1 = np(p + k−1 p (1 − p)� � = np k=0 k p (1 − p) �n−1� k � � n n−1 n−1 2 2 n k n−k 1 − p) = np. De même, on a E(X ) = k=0 k k p (1 − p) = np k=0 (k + 1) k p (1 − n−1−k 2 = np(1 + (n − 1)p). Ainsi, V(X) = np(1 + (n − 1)p) − (np) = np(1 − p). ■ p) Exercice 12.9 On considère une urne de N boules avec b boules blanches et N − b boules noires. Les boules blanches sont gagnantes et rapporte un euro, les boules noires ne rapportent rien. On effectue le tirage d’une boule. Comment peut-on modéliser les gains obtenus ? Même question si on effectue n tirages successifs avec remise. ■