Chapitre 3 Variable aléatoire réelle et loi 3.1 Un premier exemple On considère l’expérience qui consiste à lancer deux dés et à évaluer la somme des numéros obtenus. On modélise généralement le lancer des deux dés par le triplet (Ω, A, P) 1 où Ω = {1, . . . , 6}2 , A = P(Ω) et P est la probabilité uniforme sur Ω, c-à-d P({ω}) = 36 pour tout ω ∈ Ω. Supposons que seule la somme des deux dés nous intéresse. On introduit alors l’application S : Ω → R, ω 7→ S(ω) = ω1 + ω2 , où ω = (ω1 , ω2 ). S est appelée variable aléatoire. Les probabilités qui nous intéressent sont les P(S = k), k = 2, . . . , 12. Attention, ici “P(S = k)” est une notation pour désigner P({ω ∈ Ω | S(ω) = k}), ou encore P(S −1 ({k})). On obtient k 2 3 4 5 6 7 8 9 10 11 12 P(S = k) 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 L’espace qui nous intéresse vraiment est donc Ω0 = S(Ω) = {2, . . . , 12}, P12 muni de la mesure de probabilité PS = k=2 P(S = k)δk . Cette loi de probabilité est appelée loi de la variable aléatoire S . L’idée est que l’on peut désormais oublier le triplet (Ω, A, P) et travailler uniquement avec (Ω0 , P(Ω0 ), PS ). On a utilisé la variable aléatoire S pour transporter le triplet (Ω, A, P) sur un nouveau triplet (Ω0 , P(Ω0 ), PS ) qui contient toute l’information apportée par S . Ceci explique que souvent l’espace de départ (Ω, A, P) ne sera pas explicité. Pour tout A ∈ P(Ω0 ), avec la notation {S ∈ A} = {ω ∈ Ω | S(ω) ∈ A} = S −1 (A) ∈ A, on a la relation P(S ∈ A) = X P(S = k) = k∈A X P(S = k)δk (A) = PS (A). k∈Ω0 Par exemple la probabilité pour que la somme des deux dés soit paire est donnée par P(S pair) = PS ({2, 4, 6, 8, 10, 12}) = 1 3 5 5 3 1 1 + + + + + = . 36 36 36 36 36 36 2 Remarque 3.1.1. On aurait pu choisir de prendre Ω0 = R muni de la tribu B(R) (ou même P(R)). La seule contrainte étant de garder la même expression pour la loi PS . C’est cette loi qui contient toute l’information qui concerne la répartition de la variable aléatoire S . CHAPITRE 3. VARIABLE ALÉATOIRE RÉELLE ET LOI 3.2 Variable aléatoire Commençons par rappeler la notion d’application mesurable entre deux espaces mesurables. Définition 3.2.1. Soit (Ω, E) et (Ω0 , F) deux espaces mesurables. Une application f : Ω → Ω0 est dite E − F -mesurable si pour tout F ∈ F , f −1 (F ) ∈ E . Lorsque la tribu F est une tribu engendrée par un sous ensemble A (i.e. F = σ(A)), pour que f soit E − F -mesurable, il suffit de vérifier que pour tout A ∈ A, f −1 (A) ∈ E . En particulier, une application f : (Ω, E) → (R, B(R)) est mesurable ssi pour tout intervalle [a, b], f −1 ([a, b]) ∈ E . Définition 3.2.2. Soit (Ω, A, P) un espace probabilisé. On dit qu’une application X : Ω → R est une variable aléatoire réelle sur (Ω, A, P) si X est une application A−B(R)-mesurable. C’est-à-dire si ∀ B ∈ B(R), X −1 (B) ∈ A. On utilisera souvent la notation {X ∈ B} pour désigner X −1 (B), qui est donc un sousensemble de Ω. Notons que dans la définition précédente nous n’avons pas utilisé la probabilité P. Néanmoins, on ne parlera de variable aléatoire que pour les fonctions définies sur un espace probabilisé. Remarque 3.2.3. 1. Lorsque l’on considérera des fonctions à valeurs dans Rd , d ≥ 2, qui sont A − B(Rd )-mesurables, on parlera de vecteurs aléatoires réels. 2. Le contexte étant clair, on dira souvent uniquement variable aléatoire pour variable aléatoire réelle. De plus, nous avons la proposition suivante qui découle directement de ce que l’on sait sur les applications mesurables. Proposition 3.2.4. Si X et Y sont des variables aléatoires alors X + Y , XY , αX (α ∈ R), |X| et X1 (si X ne s’annule pas) sont aussi des variables aléatoires. 3.3 Loi d’une variable aléatoire Du point de vue probabiliste, on s’intéressera moins à la définition exacte d’une variable aléatoire réelle qu’à la façon dont se repartissent ses valeurs dans R. Proposition 3.3.1. Soit X une variable aléatoire réelle sur un espace probabilisé (Ω, A, P). La fonction PX : B(R) → [0, 1] définie par PX (B) := P(X −1 (B)) = P(X ∈ B) est une mesure de probabilité sur (R, B(R)). Démonstration. X étant mesurable, PX est bien définie et PX (R) = P(Ω) = 1. La σ -additivité de P et la relation X −1 (∪k Bk ) = ∪k X −1 (Bk ) permettent de montrer que PX est σ -additive. Définition 3.3.2. Soit X une variable aléatoire réelle sur un espace probabilisé (Ω, A, P). La loi de la variable aléatoire X (relativement à P) est la mesure de probabilité PX sur (R, B(R)) définie par PX (B) = P(X ∈ B), pour tout B ∈ B(R). En théorie de la mesure, on dit que PX est la mesure image de P par X . À l’aide de X , on a transporté la mesure P définie sur (Ω, A) sur l’espace (R, B(R)). 3.3. LOI D’UNE VARIABLE ALÉATOIRE Définition 3.3.3. Soit X une variable aléatoire réelle sur (Ω, A, P). On dira qu’un réel x est un atome pour X si {x} ∈ A et si PX ({x}) > 0. On dira que X est une variable aléatoire réelle discrète (ou atomique) sur (Ω, A, P) si l’union de ses atomes est un ensemble de probabilité 1 pour PX . Remarque 3.3.4. L’ensemble D des atomes d’une variable aléatoire est au plus dénombrable. En effet, il s’écrit comme la réunion dénombrable des ensembles {x ∈ R | P(X = x) ≥ n1 }, n ∈ N∗ , qui sont de cardinaux finis. Proposition 3.3.5. Si X est une variable aléatoire réelle discrète sur (Ω, A, P) et D est l’ensemble de ses atomes, alors sa loi PX est donnée par PX = X P(X = x)δx . x∈D Démonstration. Pour tout B ∈ B(R), en écrivant X −1 (B) = ∪x∈B∩X(Ω) X −1 ({x}) (union déP nombrable), on montre que PX (B) = x∈X(Ω) P(X = x)δx (B). Exemple 3.3.6. On suppose (Ω, A, P) = ([0, 1], B([0, 1]), λ[0,1] ). — La variable aléatoire X définie par X(ω) = b10ωc + 1 est une variable aléatoire dis1 P10 crète de loi PX = 10 i=1 δi . On dit que X suit une loi uniforme sur {1, . . . , 10}. — La variable aléatoire Y définie par Y = 11 − X est différente de X , mais a la même loi que X (i.e. PY = PX ). Définition 3.3.7. On dira que la variable aléatoire réelle X est une variable aléatoire à densité si sa loi est une mesure de probabilité à densité. C’est-à-dire s’il existe une densité de probabilité f telle que dPX = f dλ. Dans ce cas on aura, pour tout a, b ∈ R, P(a ≤ X ≤ b) = P(a < X ≤ b) = P(a ≤ X < b) = P(a < X < b) = Z f (x)dλ(x). [a,b] Exemple 3.3.8. On suppose toujours (Ω, A, P) = ([0, 1], B([0, 1]), λ[0,1] ). La variable aléatoire X définie par X(ω) = ω 2 est une variable aléatoire à densité dont la loi PX est donnée par 1 la densité f (x) = 2√ 1 (x). x [0,1] √ En effet, pour tout a ∈ [0, 1], par le changement de variable ω = x, Z a −∞ f (x)dx = Z 0 a 1 √ dx = 2 x Z 0 √ a 1dω = λ([0, √ a]) = λ[0,1] (X −1 (] − ∞, a])) = PX (] − ∞, a]). Remarquons que pour toute loi de probabilité Q sur (R, B(R)), il existe un espace probabilisé (Ω, A, P) et une variable aléatoire X sur (Ω, A) telle que PX = Q. En effet, il suffit de considérer Ω = R, A = B(R), P = Q et X l’identité. Très souvent, contrairement aux exemples précédents, on parlera d’une variable aléatoire X qui suit une loi donnée sans préciser l’espace probabilisé sur lequel elle est définie, ni comment elle est définie. Cela nous suffira pour calculer P(X = a), P(a ≤ X ≤ b), ..., même si la mesure de probabilité P n’est pas explicite. CHAPITRE 3. VARIABLE ALÉATOIRE RÉELLE ET LOI 3.4 Indépendance entre variables aléatoires Nous introduisons ici la notion d’indépendance entre variables aléatoires qui sera revue plus en détail un peu plus loin. On dira que deux variables aléatoires X et Y sont indépendantes lorsque tous les événements de la forme {X ∈ A} sont indépendants de tous les événements de la forme {Y ∈ B}. Définition 3.4.1. Soit X et Y deux variables aléatoires réelles. On dit que X et Y sont indépendantes si pour tout A, B ∈ B(R), P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B). Remarque 3.4.2. 1. On a utilisé la notation P(X ∈ A, Y ∈ B) qui signifie P({X ∈ A} ∩ {Y ∈ B}). 2. En notant σ(X) = {X −1 (B) | B ∈ B(R)} la tribu engendrée par X (sous-tribu de A), on voit que l’indépendance de X et Y est en fait l’indépendance des tribus σ(X) et σ(Y ). 3. Si X et Y sont des variables aléatoires discrètes, il suffit de vérifier que pour tout k ∈ X(Ω) et tout ` ∈ Y (Ω), P(X = k, Y = `) = P(X = k)P(Y = `). Exemple 3.4.3. On tire successivement et avec remise 2 boules dans une urne contenant 5 boules numérotées de 1 à 5. On appelle X le numéro de la première boule tirée et Y celui de la deuxième. Alors X et Y sont indépendantes car pour tout k, ` ∈ {1, . . . , 5}, P(X = k, Y = `) = 1 1 1 = · = P(X = k)P(Y = `). 25 5 5 En revanche, si l’on note Z la somme des deux numéros obtenus, X et Z ne sont pas indépendantes car P(X = 3, Z = 3) = 0 6= P(X = 3)P(Z = 3). Exercice 3.4.4. Reprendre l’exemple précédent avec un tirage sans remise. La définition s’étend à un nombre fini ou dénombrable de variables aléatoires. Définition 3.4.5. Les variables aléatoires X1 , . . . , Xn sont indépendantes si les tribus σ(X1 ), . . ., σ(Xn ) sont indépendantes. C’est-à-dire si pour tout B1 , . . . , Bn ∈ B(R), P(X1 ∈ B1 , . . . , Xn ∈ Bn ) = P(X1 ∈ B1 ) · · · P(Xn ∈ Bn ). Définition 3.4.6. La suite (Xi )i∈N est une suite de variables aléatoires indépendantes si pour tout ensemble fini K ⊂ N, les variables aléatoires (Xi )i∈K sont indépendantes. 3.5 Quelques lois usuelles discrètes Dans la suite, toutes les variables aléatoires sont définies sur un espace probabilisé (Ω, A, P). 3.5. QUELQUES LOIS USUELLES DISCRÈTES Lois uniformes (discrètes) Définition 3.5.1. Soit a1 , . . . , an des nombres réels. On dit que la variable aléatoire X suit une loi uniforme sur {a1 , . . . , an } si sa loi est donnée par n PX = 1X δai . n i=1 On note X ∼ U{a1 , . . . , an }. Par exemple, le lancer d’un dé équilibré est modélisé par une variable aléatoire de loi uniforme sur {1, . . . , 6}. Lois de Bernoulli Définition 3.5.2. Soit p ∈ [0, 1]. On dit qu’une variable aléatoire X suit une loi de Bernoulli de paramètre p si sa loi est donnée par P(X = 0) = 1 − p et P(X = 1) = p, c’est-à-dire PX = (1 − p)δ0 + pδ1 . On note X ∼ B(p). On assimile souvent le 0 à l’échec et le 1 au succès. Ainsi, une épreuve pouvant conduire à seulement deux résultats : succès ou échec, sera modélisée par une variable aléatoire suivant une loi de Bernoulli. Par exemple, on modélisera le lancer d’une pièce de monnaie équilibrée par une variable aléatoire de loi B( 12 ). Plus généralement, toute expérience pouvant être modélisée à l’aide d’une variable aléatoire suivant une loi de Bernoulli sera appelée épreuve de Bernoulli. On dira que des épreuves de Bernoulli sont indépendantes si elles peuvent être modélisées à l’aide de variables aléatoires indépendantes. Lois binomiales On s’intéresse au nombre de succès dans une suite d’épreuves de Bernoulli indépendantes. Proposition 3.5.3. On note X le nombre de succès parmi n épreuves de Bernoulli indépendantes de paramètre p ∈ [0, 1]. Alors X est une variable aléatoire à valeurs dans {0, . . . , n} et pour tout k ∈ {0, . . . , n}, P(X = k) = nk pk (1 − p)n−k . Démonstration. On considère des variables aléatoires indépendantes X1 , . . . , Xn de même loi de Bernoulli B(p) et on pose X = X1 + . . . + Xn . Alors X est bien à valeurs dans {0, . . . , n} et si k ∈ {0, . . . , n}, on a P(X = k) = P = [ {X1 = i1 et . . . et Xn = in } i1 ,...,in ∈{0,1} i1 +···+in =k X P(X1 = i1 , . . . , Xn = in ) i1 +···+in =k = X i1 +···+in =k = X i1 +···+in =k P(X1 = i1 ) · · · P(Xn = in ) pk (1 − p)n−k n k = p (1 − p)n−k . k par indépendance CHAPITRE 3. VARIABLE ALÉATOIRE RÉELLE ET LOI Définition 3.5.4. Soit p ∈ [0, 1] et n ∈ N. On dit qu’une variable aléatoire X suit une loi binomiale de paramètre (n, p) si pour tout k ∈ {0, . . . , n}, c’est-à-dire PX = Pn n k=0 k n k P(X = k) = p (1 − p)n−k , k pk (1 − p)n−k δk . On note X ∼ B(n, p). Remarquons que d’après la formule du binôme de Newton, on a bien n X k=0 n X n k P(X = k) = p (1 − p)n−k = (p + (1 − p))n = 1. k k=0 Exemple 3.5.5. Reprendre l’exercice 1.4.4. Exercice 3.5.6. Dans un groupe de 5 étudiants, chacun, indépendamment des autres, a une probabilité p = 23 de réussir l’examen de probabilité. Quelle est la probabilité pour que seul deux étudiants réussissent ? Remarque 3.5.7. Si X ∼ B(n, p) et Y ∼ B(m, p) sont indépendantes, alors en écrivant X et Y comme sommes d’épreuves de Bernoulli indépendantes, on montre que X + Y ∼ B(n + m, p). Lois géométriques On s’intéresse au rang un premier succès dans une suite d’épreuves de Bernoulli indépendantes. Proposition 3.5.8. Soit X le rang du premier succès dans une suite d’épreuves de Bernoulli indépendantes de paramètre p ∈]0, 1[. Alors X est une variable aléatoire à valeurs dans N∗ et pour tout k ≥ 1, P(X = k) = p(1 − p)k−1 . Démonstration. Soit (Xi )i≥1 une suite de variables aléatoires indépendantes de loi de Bernoulli B(p), p ∈]0, 1[. On pose X = min{k ≥ 1 | Xk = 1}, c’est-à-dire le rang du premier 1 dans la suite (Xi )i≥1 . Pour tout k ≥ 1, P(X = k) = P(X1 = 0, . . . , Xk−1 = 0, Xk = 1) = P(X1 = 0) · · · P(Xk−1 = 0)P(Xk = 1) par indépendance = (1 − p)k−1 p. Définition 3.5.9. Soit p ∈]0, 1[. On dit que la variable aléatoire X suit une loi géométrique de paramètre p si pour tout k ∈ N∗ , c’est-à-dire PX = On a bien P P(X = k) = p(1 − p)k−1 , k≥1 p(1 X k≥1 − p)k−1 δk . On note X ∼ G(p). P(X = k) = p X (1 − p)k−1 = p k≥1 1 = 1. 1 − (1 − p) Exemple 3.5.10. On effectue une succession de lancers “Pile ou Face” indépendants avec une pièce truquée de sorte que la probabilité d’obtenir Pile est p ∈]0, 1[. Quelle est la probabilité pour que “Face” ne sorte pas lors des 100 premiers lancers ? On cherche en fait, pour une variable aléatoire X ∼ G(p), la valeur P(X > 100). 3.5. QUELQUES LOIS USUELLES DISCRÈTES Remarque 3.5.11. Dans une suite d’épreuves de Bernoulli, le rang du premier succès est strictement supérieur à k ssi les k premières épreuves sont des échecs. En reprenant le cadre de la démonstration précédente, on a donc, pour tout k ≥ 0, P(X > k) = P(X1 = 0, . . . , Xk = 0) = P(X1 = 0) · · · P(Xk = 0) = (1 − p)k . Proposition 3.5.12. (absence de mémoire) Soit X une variable aléatoire à valeurs dans N∗ . Alors X suit une loi géométrique ssi pour tout n ≥ 0 et tout k ≥ 1, P(X > n + k | X > n) = P(X > k). Démonstration. ⇒) Si X ∼ G(p), alors pour tout n ≥ 0, P(X > n) = (1 − p)n et donc pour tout k ≥ 1, P(X > n + k | X > n) = P(X > n + k et X > n) P(X > n + k) = = (1 − p)k = P(X > k). P(X > n) P(X > n) ⇐) Si X vérifie l’égalité alors pour tout n ≥ 1, par la formule des probabilités totales, P(X > n) = P(X > n, X > n − 1) + P(X > n, X ≤ n − 1) = P(X > n | X > n − 1)P(X > n − 1) + 0 = P(X > 1)P(X > n − 1). Et par récurrence, P(X > n) = P(X > 1)n . On en déduit P(X = n) = P(X > n − 1) − P(X > n) = P(X > 1)n−1 (1 − P(X > 1)) = p(1 − p)n−1 avec p = 1 − P(X > 1). Lois de Poisson Définition 3.5.13. Soit λ un réel positif. On dit que la variable aléatoire X suit une loi de Poisson de paramètre λ si pour tout k ∈ N, P(X = k) = e−λ c’est-à-dire PX = P −λ λk δ . k≥0 e k! k λk , k! On note X ∼ P(λ). On vérifiera encore que l’on a bien (exercice) que si Xn suit une loi B(n, λ n ), P k≥0 P(X = k) = 1. On pourra aussi remarquer alors pour tout k ∈ N P(Xn = k) −−−→ e−λ n→∞ λk . k! Les lois de Poisson apparaissent donc lois limites des lois binomiales lorsque, à la fois, n → +∞ et p → 0. Les lois de Poisson sont souvent utilisées pour modéliser le nombre d’occurrences d’un événement dans un intervalle de temps fixé. Par exemple, le nombre d’accident de la circulation ayant lieu en une journée à Tours ou le nombre de client se présentant chaque heure au guichet de la poste seront modélisés par une loi de Poisson. Proposition 3.5.14. Soit λ > 0 et µ > 0. Si X ∼ P(λ) et Y ∼ P(µ) sont deux variables aléatoires indépendantes alors X + Y ∼ P(λ + µ). CHAPITRE 3. VARIABLE ALÉATOIRE RÉELLE ET LOI Démonstration. Les évènements {Y = `}, ` ≥ 0, forment un système complet d’évènements. On a donc P(X + Y = k) = X P(X + Y = k, Y = `) `≥0 = = k X P(X = k − `, Y = `) `=0 k X P(X = k − `)P(Y = `) par indépendance `=0 −λ −µ =e e k X (λ + µ)k λk−` µ` = e−(λ+µ) , (k − `)! `! k! `=0 où on a utilisé la formule du binôme de Newton. 3.6 Quelques lois usuelles à densité Lois uniformes sur un segment Définition 3.6.1. On dit que la variable aléatoire X suit une loi uniforme sur l’intervalle [a, b] si PX est la loi ayant pour densité la fonction f (x) = 1 1 (x). b − a [a,b] On note X ∼ U([a, b]). 1 1 1 On remarquera que les fonctions x 7→ b−a 1]a,b] (x), x 7→ b−a 1[a,b[ (x) et x 7→ b−a 1]a,b[ (x) sont aussi des densités pour la loi de X . Elles sont bien toutes d’intégrale égale à 1. Lois exponentielles Définition 3.6.2. Soit λ > 0. On dit que la variable aléatoire X suit une loi exponentielle de paramètre λ si PX est la loi ayant pour densité la fonction f (x) = λe−λx 1[0,+∞[ (x). On note X ∼ E(λ). R +∞ Encore une fois, on vérifiera que −∞ f (x) dx = 1. Proposition 3.6.3. (absence de mémoire) Si la variable aléatoire X suit une loi exponentielle alors elle vérifie ∀t ≥ 0, ∀s ≥ 0, P(X > t + s | X > s) = P(X > t). Démonstration. (exercice) On verra aussi que cette propriété caractérise les lois exponentielles, c’est-à-dire que la réciproque est vraie. Cette proposition justifie l’usage des lois exponentielles pour modéliser des temps d’attente aléatoires. Par exemple, on les utilisera pour modéliser le temps d’attente d’un prochain client à un guichet ou la durée de vie d’une particule radioactive. 3.6. QUELQUES LOIS USUELLES À DENSITÉ Lois normales Définition 3.6.4. Soit m ∈ R et σ > 0. On dit que la variable aléatoire X suit une loi normale (ou loi de Gauss) de paramètre (m, σ 2 ) si PX est la loi ayant pour densité la fonction f (x) = √ 1 2πσ 2 e− (x−m)2 2σ 2 . On note X ∼ N (m, σ 2 ). La vérification du fait que f est bien d’intégrale 1 est plus technique, mais néanmoins classique (voir le cours d’intégration pour plus de détails) : R On commence par vérifier le cas de la loi N (0, 1), c’est-à-dire que R e− a, par le théorème de Fubini (f étant positive), Z Z Z Z y2 x2 x2 ( e− 2 dx)2 = ( e− 2 dx)( e− 2 dy) = R R R R×R e− x2 +y 2 2 x2 2 dx = √ 2π . On dxdy. Par un passage en coordonnées polaires : x = r cos θ , y = r sin θ , dxdy = r drdθ , on obtient Z Z x2 ( e− 2 dx)2 = R 0 +∞ Z 2π re− r2 2 dθdr = 2π 0 Z +∞ re− r2 2 dr = 2π, 0 d’où le résultat. Le cas général s’obtient par le changement de variable y = x−m σ , dx = σdy et Z R e− (x−m)2 2σ 2 dx = σ Z R e− y2 2 √ dy = σ 2π.