36 Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples (Ω, B, P) est un espace probabilisé. 36.1 Définition et propriétés des probabilités conditionnelles Définition 36.1 Soient A, B deux événements dans B avec P (B) 6= 0. La probabilité de A sachant B est le réel : P (A ∩ B) PB (A) = . P (B) On note aussi PB (A) = P (A | B) . Théorème 36.1 Pour tout événement B ∈ B de probabilité non nulle, l’application : PB : B → [0, 1] P (A ∩ B) A → 7 PB (A) = P (B) est une probabilité sur (Ω, B) . On dit que PB est la probabilité conditionnelle sur (Ω, B) sachant B et par définition, on a : P (A ∩ B) = PB (A) P (B) Cette relation se généralise comme suit. Théorème 36.2 Si n ≥ 2 et A1 , · · · , An sont des événements dans B tels que P µn−1 T k=1 on a alors : à P n \ ! Ak à = P (A1 ) P (A2 | A1 ) P (A3 | A1 ∩ A2 ) · · · P An | k=1 n−1 \ k=1 625 ! Ak ¶ Ak 6= 0, 626 Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples On rappelle que si (Ai )i∈I est une partition dénombrable de Ω, on dit alors que (Ai )i∈I est un système complet d’événements Théorème 36.3 (Formule des probabilités totales) Si (A1 , · · · , An ) est un système complet d’événements dans B tel que P (Ak ) 6= 0 pour tout k compris entre 1 et n, on a alors pour tout événement A ∈ B : n X P (A) = P (A | Ak ) P (Ak ) k=1 Exercice 36.1 Un fumeur essaye de ne plus fumer. S’il ne fume pas un jour donné, alors la probabilité qu’il ne fume pas le lendemain est p ∈ ]0, 1[ . S’il fume un jour donné, alors la probabilité qu’il ne fume pas le lendemain est q ∈ ]0, 1[ . 1. Calculer la probabilité pn que cette personne ne fume pas le n-ème jour. 2. Calculer lim pn . n→+∞ Théorème 36.4 (Formule de Bayes) Si (A1 , · · · , An ) est un système complet d’événements dans B tel que P (Ak ) 6= 0 pour tout k compris entre 1 et n, on a alors pour tout événement B ∈ B de probabilité non nulle et tout entier j compris entre 1 et n : P (B | Aj ) P (Aj ) P (Aj | B) = P n P (B | Ak ) P (Ak ) k=1 Exercice 36.2 Des études sur une population ont montré que l’on pouvait admettre que la probabilité pn qu’une famille ait exactement n enfants est définie par : ∀n ≥ 1, pn = αpn avec 0 < p < 1, α > 0 et (1 + α) p < 1. On suppose que les naissances des garçons et des filles sont équiprobables. 1. Calculer la probabilité pour une famille de ne pas avoir d’enfants. 2. Calculer la probabilité pour une famille d’avoir exactement k garçons. 3. Étant donnée une famille ayant au moins un garçon, quelle est la probabilité qu’elle en ait deux ou plus ? 36.2 Événements indépendants Dans le cas où P (A | B) = P (A) , on déduit que le fait que soit B soit réalisé ne change rien sur le calcul de P (A) . Dans ces conditions, on dit que A et B sont des événements indépendants. Définition 36.2 On dit que deux événements A et B dans B sont indépendants (ou stochastiquement indépendants) indépendants si : P (A ∩ B) = P (A) P (B) . Remarque 36.1 Si P (B) = 0, on a alors, pour tout A ∈ B, 0 ≤ P (A ∩ B) ≤ P (B) = 0, donc P (A ∩ B) = P (A) P (B) = 0 et A et B sont indépendants. Si P (B) 6= 0, les événements A et B sont indépendants si, et seulement si, P (A | B) = P (A) . Événements indépendants 627 Remarque 36.2 Deux événements peuvent être incompatibles, sans être indépendants. Par exemple, si P (A) = p ∈ ]0, 1[ , on a alors : P (A) P (Ω \ A) = p (1 − p) 6= 0 = P (A ∩ (Ω \ A)) . Exercice 36.3 Montrer que A et B sont indépendants dans B si, et seulement si, A et Ω \ B sont indépendants et que A et Ω \ B sont indépendants si et seulement si, Ω \ A et Ω \ A sont indépendants. Plus généralement, on définit l’indépendance mutuelle de plusieurs événements comme suit. Définition 36.3 On dit que des événements A1 , · · · , An , où n ≥ 2, sont mutuellement indépendants dans B si pour toute partie J non vide de {1, 2, · · · , n} , on a : à ! \ Y P Aj = P (Aj ) . j∈J j∈J Remarque 36.3 Des événements mutuellement indépendants sont deux à deux indépendants, mais la réciproque est fausse. En effet, considérons l’expérience aléatoire qui consiste à lancer un dé deux fois et les événements A, B, C définis respectivement par « le premier chiffre est pair », « le deuxième chiffre est impair », « la somme des chiffres est paire ». En supposant l’équiprobabilité, on a : P (A) = P (B) = P (C) = 1 2 9 1 = 36 4 donc les événements A, B, C sont deux à deux indépendants, mais : P (A ∩ B) = P (A ∩ C) = P (B ∩ C) = P (A ∩ B ∩ C) = P (∅) = 0 6= P (A) P (B) P (C) et A, B, C ne sont pas mutuellement indépendants. Exercice 36.4 Soient A1 , · · · , An , où n ≥ 2, des événements mutuellement indépendants dans B. 1. Montrer que Ω \ A1 , A2 , · · · , An sont mutuellement indépendants. 2. En déduire que pour tout entier k compris entre 1 et n, les événements Ω \ A1 , · · · , Ω \ Ak , Ak+1 , · · · , An sont mutuellement indépendants. Exercice 36.5 Soit n ≥ 2 un entier naturel supérieur. On choisit de manière équiprobable un des entiers compris entre 1 et n. Soient p un diviseur positif de n et Ap l’événement :« le nombre choisi est divisible par p ». 1. Calculer P (Ap ) . 2. Montrer que si p1 , · · · , pr sont les diviseurs premiers de n, alors les événements Ap1 , · · · , Apr sont mutuellement indépendants. 3. On désigne par ϕ la fonction indicatrice d’Euler définie sur N∗ par ϕ (n) = card {k ∈ {1, · · · , n} | k ∧ n = 1} Montrer que ϕ (n) = n Y p premier p divise n µ 1 1− p ¶ . 628 Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples Exercice 36.6 On se fixe un réel s > 1 et on considère l’espace probabilisé (Ω, P (Ω) , Ps ) , où Ω = N∗ et : 1 1 ∀n ∈ Ω, Ps ({n}) = ζ (s) ns en désignant par ζ la fonction de Riemann définie par ζ (s) = dzéta de paramètre s). Pour tout entier n ≥ 1, on désigne par An l’événement : +∞ X 1 (on dit que Ps est la loi s n n=1 An = {multiples de n} = {k · n | k ∈ N∗ } 1. Calculer Ps (An ) pour tout n ≥ 1. 2. Montrer que, si P désigne l’ensemble des nombres premiers, alors la famille (Ap )p∈P est indépendante, c’est-à-dire que pour toute suite finie (pk )1≤k≤r de nombres premiers distincts, les événement Ap1 , · · · , Apr sont mutuellement indépendants. 3. En déduire que : Yµ Ps ({1}) = p∈P puis l’identité d’Euler : ∀s > 1, ζ (s) = 1 1− s p Yµ p∈P ¶ 1 1− s p ¶−1 . Une définition équivalente d’événements mutuellement indépendants est donnée par le théorème suivant. Théorème 36.5 Soient A1 , · · · , An , où n ≥ 2, des événements dans B. Ces événements sont mutuellement à ! indépendants si, et seulement si, pour toute partie J de {1, 2, · · · , n} telle que T P Aj 6= 0 et tout indice i ∈ {1, 2, · · · , n} \ J, on a : j∈J à P Ai | \ ! Aj = P (Ai ) . j∈J 36.3 Variables aléatoires réelles indépendantes Définition 36.4 Soient n ≥ 2 et X1 , X2 , · · · , Xn des variables aléatoires réelle sur (Ω, B, P) . On dit que ces variables aléatoires sont mutuellement indépendantes si pour tous boréliens B1 , B2 , · · · , Bn , on a : Ãn ! n \ Y P (Xi ∈ Bi ) = P(Xi ∈ Bi ). i=1 L’événement n \ i=1 i=1 (Xi ∈ Bi ) sera aussi noté (X1 ∈ B1 , · · · , Xn ∈ Bn ) . Variables aléatoires réelles indépendantes 629 Théorème 36.6 Soient n ≥ 2 et X1 , X2 , · · · , Xn des variables aléatoires réelle discrètes sur (Ω, B, P) . Ces variables aléatoires sont mutuellement indépendantes si, et seulement si, pour n Y tous boréliens (x1 , x2 , · · · , xn ) dans Xi (Ω) , on a : i=1 à P n \ ! (Xi = xi ) = i=1 n Y P(Xi = xi ). i=1 Exercice 36.7 Soient n ≥ 3 et X1 , X2 , · · · , Xn des variables aléatoires réelle discrètes sur (Ω, B, P) mutuellement indépendantes. 1. Montrer que les variables aléatoires X1 + X2 , X3 , · · · , Xn sont mutuellement indépendantes. 2. En déduire que pour tout entier r compris entre 2 et n − 1, les variables aléatoires X1 + · · · + Xr , Xr+1 , · · · , Xn sont mutuellement indépendantes. Définition 36.5 On dit que deux variables aléatoires X et Y de carré intégrable sont non corrélées si Cov (X, Y ) = 0. Théorème 36.7 Si X et Y sont deux variables aléatoires sur (Ω, B, P) de carré intégrables et indépendantes, elles sont alors non corrélées et on a : E (XY ) = E (X) E (Y ) et : V (X + Y ) = V (X) + V (X) Théorème 36.8 Soient X1 , X2 , · · · , Xn des variables aléatoires sur (Ω, B, P) de carré intégrables et mutuellement indépendantes. On a : E(X1 X2 · · · Xn ) = n Y E(Xi ). i=1 V( n X Xi ) = i=1 n X V(Xi ). i=1 Théorème 36.9 Soient X1 , X2 , · · · Xn des variables aléatoires continues indépendantes sur (Ω, B, P) et de fonction de densité respectives f1 , f2 , · · · fn . Alors : X= n X Xk k=1 est une variable aléatoire réelle continue admettant pour fonction de densité la fonction f1 ∗ f2 ∗ · · · ∗ fn où la loi ∗ représente le produit de convolution. Définition 36.6 Soient n un entier strictement positif et p un réel appartenant à [0, 1]. Une variable aléatoire réelle X suit une loi binomiale de paramètre (n, p) si X est la somme de n variables aléatoires indépendantes suivant une loi de Bernoulli de paramètre p. On note X ∼ B(n, p). 630 Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples Théorème 36.10 Soit X une variable aléatoire réelle suivant une loi de Bernoulli de paramètre (n, p). On a : ∀s ∈ R, gX (s) = (ps + (1 − p))n , où gX est la fonction génératrice de X. ∀k ∈ {0, 1 · · · , n}, P(X = k) = Cnk pk (1 − p)n−k , E(X) = np, V(X) = np(1 − p). Exercice 36.8 Soit X une variable aléatoire réelle suivant une loi exponentielle de paramètre λ. 1. Donner sa fonction de répartition. 2. Montrer que : ∀ (s, t) ∈ R+ × R+ , P ((X > s + t) | (X > t)) = P (X > s) . Cette propriété se traduit en disant que la variable aléatoire X est sans mémoire. Soit T une variable aléatoire réelle sans mémoire. Le but des questions suivantes est de montrer que cette variable aléatoire suit une loi exponentielle. On note FT sa fonction de répartition. 3. Montrer que la fonction GT définie sur R+ par : ∀x ∈ R+ , GT (x) = 1 − FT (x) est strictement positive et vérifie ∀(x, y) ∈ (R+ )2 , GT (x + y) = GT (x)GT (y). 4. Montrer que pour tout réel positif x et tout rationnel positif r, on a GT (rx) = (GT (x))r . 5. Montrer qu’il existe un réel a vérifiant ∀x ∈ R+ , GT (x) = eax . 6. Montrer que la variable aléatoire T suit une loi exponentielle.