230

publicité
36
Probabilité conditionnelle et
indépendance. Couples de variables
aléatoires. Exemples
(Ω, B, P) est un espace probabilisé.
36.1
Définition et propriétés des probabilités conditionnelles
Définition 36.1 Soient A, B deux événements dans B avec P (B) 6= 0. La probabilité de A
sachant B est le réel :
P (A ∩ B)
PB (A) =
.
P (B)
On note aussi PB (A) = P (A | B) .
Théorème 36.1 Pour tout événement B ∈ B de probabilité non nulle, l’application :
PB : B →
[0, 1]
P (A ∩ B)
A →
7
PB (A) =
P (B)
est une probabilité sur (Ω, B) .
On dit que PB est la probabilité conditionnelle sur (Ω, B) sachant B et par définition, on a :
P (A ∩ B) = PB (A) P (B)
Cette relation se généralise comme suit.
Théorème 36.2 Si n ≥ 2 et A1 , · · · , An sont des événements dans B tels que P
µn−1
T
k=1
on a alors :
Ã
P
n
\
!
Ak
Ã
= P (A1 ) P (A2 | A1 ) P (A3 | A1 ∩ A2 ) · · · P An |
k=1
n−1
\
k=1
625
!
Ak
¶
Ak
6= 0,
626
Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples
On rappelle que si (Ai )i∈I est une partition dénombrable de Ω, on dit alors que (Ai )i∈I est
un système complet d’événements
Théorème 36.3 (Formule des probabilités totales) Si (A1 , · · · , An ) est un système complet d’événements dans B tel que P (Ak ) 6= 0 pour tout k compris entre 1 et n, on a alors pour
tout événement A ∈ B :
n
X
P (A) =
P (A | Ak ) P (Ak )
k=1
Exercice 36.1 Un fumeur essaye de ne plus fumer. S’il ne fume pas un jour donné, alors
la probabilité qu’il ne fume pas le lendemain est p ∈ ]0, 1[ . S’il fume un jour donné, alors la
probabilité qu’il ne fume pas le lendemain est q ∈ ]0, 1[ .
1. Calculer la probabilité pn que cette personne ne fume pas le n-ème jour.
2. Calculer lim pn .
n→+∞
Théorème 36.4 (Formule de Bayes) Si (A1 , · · · , An ) est un système complet d’événements
dans B tel que P (Ak ) 6= 0 pour tout k compris entre 1 et n, on a alors pour tout événement
B ∈ B de probabilité non nulle et tout entier j compris entre 1 et n :
P (B | Aj ) P (Aj )
P (Aj | B) = P
n
P (B | Ak ) P (Ak )
k=1
Exercice 36.2 Des études sur une population ont montré que l’on pouvait admettre que la
probabilité pn qu’une famille ait exactement n enfants est définie par :
∀n ≥ 1, pn = αpn
avec 0 < p < 1, α > 0 et (1 + α) p < 1.
On suppose que les naissances des garçons et des filles sont équiprobables.
1. Calculer la probabilité pour une famille de ne pas avoir d’enfants.
2. Calculer la probabilité pour une famille d’avoir exactement k garçons.
3. Étant donnée une famille ayant au moins un garçon, quelle est la probabilité qu’elle en
ait deux ou plus ?
36.2
Événements indépendants
Dans le cas où P (A | B) = P (A) , on déduit que le fait que soit B soit réalisé ne change rien
sur le calcul de P (A) . Dans ces conditions, on dit que A et B sont des événements indépendants.
Définition 36.2 On dit que deux événements A et B dans B sont indépendants (ou stochastiquement indépendants) indépendants si :
P (A ∩ B) = P (A) P (B) .
Remarque 36.1 Si P (B) = 0, on a alors, pour tout A ∈ B, 0 ≤ P (A ∩ B) ≤ P (B) = 0, donc
P (A ∩ B) = P (A) P (B) = 0 et A et B sont indépendants.
Si P (B) 6= 0, les événements A et B sont indépendants si, et seulement si, P (A | B) = P (A) .
Événements indépendants
627
Remarque 36.2 Deux événements peuvent être incompatibles, sans être indépendants. Par
exemple, si P (A) = p ∈ ]0, 1[ , on a alors :
P (A) P (Ω \ A) = p (1 − p) 6= 0 = P (A ∩ (Ω \ A)) .
Exercice 36.3 Montrer que A et B sont indépendants dans B si, et seulement si, A et Ω \ B
sont indépendants et que A et Ω \ B sont indépendants si et seulement si, Ω \ A et Ω \ A sont
indépendants.
Plus généralement, on définit l’indépendance mutuelle de plusieurs événements comme suit.
Définition 36.3 On dit que des événements A1 , · · · , An , où n ≥ 2, sont mutuellement indépendants dans B si pour toute partie J non vide de {1, 2, · · · , n} , on a :
Ã
!
\
Y
P
Aj =
P (Aj ) .
j∈J
j∈J
Remarque 36.3 Des événements mutuellement indépendants sont deux à deux indépendants,
mais la réciproque est fausse.
En effet, considérons l’expérience aléatoire qui consiste à lancer un dé deux fois et les événements A, B, C définis respectivement par « le premier chiffre est pair », « le deuxième chiffre
est impair », « la somme des chiffres est paire ». En supposant l’équiprobabilité, on a :
P (A) = P (B) = P (C) =
1
2
9
1
=
36
4
donc les événements A, B, C sont deux à deux indépendants, mais :
P (A ∩ B) = P (A ∩ C) = P (B ∩ C) =
P (A ∩ B ∩ C) = P (∅) = 0 6= P (A) P (B) P (C)
et A, B, C ne sont pas mutuellement indépendants.
Exercice 36.4 Soient A1 , · · · , An , où n ≥ 2, des événements mutuellement indépendants dans
B.
1. Montrer que Ω \ A1 , A2 , · · · , An sont mutuellement indépendants.
2. En déduire que pour tout entier k compris entre 1 et n, les événements Ω \ A1 , · · · , Ω \
Ak , Ak+1 , · · · , An sont mutuellement indépendants.
Exercice 36.5 Soit n ≥ 2 un entier naturel supérieur. On choisit de manière équiprobable
un des entiers compris entre 1 et n. Soient p un diviseur positif de n et Ap l’événement :« le
nombre choisi est divisible par p ».
1. Calculer P (Ap ) .
2. Montrer que si p1 , · · · , pr sont les diviseurs premiers de n, alors les événements Ap1 , · · · , Apr
sont mutuellement indépendants.
3. On désigne par ϕ la fonction indicatrice d’Euler définie sur N∗ par
ϕ (n) = card {k ∈ {1, · · · , n} | k ∧ n = 1}
Montrer que
ϕ (n) = n
Y
p premier
p divise n
µ
1
1−
p
¶
.
628
Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples
Exercice 36.6 On se fixe un réel s > 1 et on considère l’espace probabilisé (Ω, P (Ω) , Ps ) , où
Ω = N∗ et :
1 1
∀n ∈ Ω, Ps ({n}) =
ζ (s) ns
en désignant par ζ la fonction de Riemann définie par ζ (s) =
dzéta de paramètre s).
Pour tout entier n ≥ 1, on désigne par An l’événement :
+∞
X
1
(on dit que Ps est la loi
s
n
n=1
An = {multiples de n} = {k · n | k ∈ N∗ }
1. Calculer Ps (An ) pour tout n ≥ 1.
2. Montrer que, si P désigne l’ensemble des nombres premiers, alors la famille (Ap )p∈P
est indépendante, c’est-à-dire que pour toute suite finie (pk )1≤k≤r de nombres premiers
distincts, les événement Ap1 , · · · , Apr sont mutuellement indépendants.
3. En déduire que :
Yµ
Ps ({1}) =
p∈P
puis l’identité d’Euler :
∀s > 1, ζ (s) =
1
1− s
p
Yµ
p∈P
¶
1
1− s
p
¶−1
.
Une définition équivalente d’événements mutuellement indépendants est donnée par le théorème suivant.
Théorème 36.5 Soient A1 , · · · , An , où n ≥ 2, des événements dans B. Ces événements sont
mutuellement
Ã
! indépendants si, et seulement si, pour toute partie J de {1, 2, · · · , n} telle que
T
P
Aj 6= 0 et tout indice i ∈ {1, 2, · · · , n} \ J, on a :
j∈J
Ã
P Ai |
\
!
Aj
= P (Ai ) .
j∈J
36.3
Variables aléatoires réelles indépendantes
Définition 36.4 Soient n ≥ 2 et X1 , X2 , · · · , Xn des variables aléatoires réelle sur (Ω, B, P) .
On dit que ces variables aléatoires sont mutuellement indépendantes si pour tous boréliens
B1 , B2 , · · · , Bn , on a :
Ãn
!
n
\
Y
P
(Xi ∈ Bi ) =
P(Xi ∈ Bi ).
i=1
L’événement
n
\
i=1
i=1
(Xi ∈ Bi ) sera aussi noté (X1 ∈ B1 , · · · , Xn ∈ Bn ) .
Variables aléatoires réelles indépendantes
629
Théorème 36.6 Soient n ≥ 2 et X1 , X2 , · · · , Xn des variables aléatoires réelle discrètes sur
(Ω, B, P) . Ces variables aléatoires sont mutuellement indépendantes si, et seulement si, pour
n
Y
tous boréliens (x1 , x2 , · · · , xn ) dans
Xi (Ω) , on a :
i=1
Ã
P
n
\
!
(Xi = xi )
=
i=1
n
Y
P(Xi = xi ).
i=1
Exercice 36.7 Soient n ≥ 3 et X1 , X2 , · · · , Xn des variables aléatoires réelle discrètes sur
(Ω, B, P) mutuellement indépendantes.
1. Montrer que les variables aléatoires X1 + X2 , X3 , · · · , Xn sont mutuellement indépendantes.
2. En déduire que pour tout entier r compris entre 2 et n − 1, les variables aléatoires X1 +
· · · + Xr , Xr+1 , · · · , Xn sont mutuellement indépendantes.
Définition 36.5 On dit que deux variables aléatoires X et Y de carré intégrable sont non
corrélées si Cov (X, Y ) = 0.
Théorème 36.7 Si X et Y sont deux variables aléatoires sur (Ω, B, P) de carré intégrables et
indépendantes, elles sont alors non corrélées et on a :
E (XY ) = E (X) E (Y )
et :
V (X + Y ) = V (X) + V (X)
Théorème 36.8 Soient X1 , X2 , · · · , Xn des variables aléatoires sur (Ω, B, P) de carré intégrables et mutuellement indépendantes. On a :
E(X1 X2 · · · Xn ) =
n
Y
E(Xi ).
i=1
V(
n
X
Xi ) =
i=1
n
X
V(Xi ).
i=1
Théorème 36.9 Soient X1 , X2 , · · · Xn des variables aléatoires continues indépendantes sur
(Ω, B, P) et de fonction de densité respectives f1 , f2 , · · · fn . Alors :
X=
n
X
Xk
k=1
est une variable aléatoire réelle continue admettant pour fonction de densité la fonction
f1 ∗ f2 ∗ · · · ∗ fn
où la loi ∗ représente le produit de convolution.
Définition 36.6 Soient n un entier strictement positif et p un réel appartenant à [0, 1]. Une
variable aléatoire réelle X suit une loi binomiale de paramètre (n, p) si X est la somme de n
variables aléatoires indépendantes suivant une loi de Bernoulli de paramètre p.
On note X ∼ B(n, p).
630
Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples
Théorème 36.10 Soit X une variable aléatoire réelle suivant une loi de Bernoulli de paramètre
(n, p). On a :
∀s ∈ R, gX (s) = (ps + (1 − p))n ,
où gX est la fonction génératrice de X.
∀k ∈ {0, 1 · · · , n}, P(X = k) = Cnk pk (1 − p)n−k ,
E(X) = np, V(X) = np(1 − p).
Exercice 36.8 Soit X une variable aléatoire réelle suivant une loi exponentielle de paramètre
λ.
1. Donner sa fonction de répartition.
2. Montrer que :
∀ (s, t) ∈ R+ × R+ ,
P ((X > s + t) | (X > t)) = P (X > s) .
Cette propriété se traduit en disant que la variable aléatoire X est sans mémoire.
Soit T une variable aléatoire réelle sans mémoire. Le but des questions suivantes est de
montrer que cette variable aléatoire suit une loi exponentielle. On note FT sa fonction de
répartition.
3. Montrer que la fonction GT définie sur R+ par :
∀x ∈ R+ ,
GT (x) = 1 − FT (x)
est strictement positive et vérifie
∀(x, y) ∈ (R+ )2 ,
GT (x + y) = GT (x)GT (y).
4. Montrer que pour tout réel positif x et tout rationnel positif r, on a
GT (rx) = (GT (x))r .
5. Montrer qu’il existe un réel a vérifiant
∀x ∈ R+ ,
GT (x) = eax .
6. Montrer que la variable aléatoire T suit une loi exponentielle.
Téléchargement