TD4. Indépendance, probabilités conditionnelles. Variables

publicité
Université Pierre & Marie Curie
UE LM345 – Probabilités élémentaires
Licence de Mathématiques L3
Année 2014–15
TD4. Indépendance, probabilités conditionnelles.
Variables aléatoires à densité.
1. Que peut-on dire d’un événement qui est indépendant de lui-même ?
Solution de l’exercice 1. Soit A un événement de Ω. Par définition, si A est indépendant
de lui-même, alors P(A)2 = P(A). Ainsi, on a soit P(A) = 0 ou P(A) = 1.
2. Faux positifs Une maladie M affecte une personne sur 1000 dans une population donnée. Un test sanguin permet de détecter cette maladie avec une fiabilité de 99% (lorsque
cette maladie est effectivement présente). En revanche, pour un individu sain, la probabilité que le test soit positif est de 0.1% (on dit que 0.1% est le taux de faux positifs). Si
un test est positif, quelle est la probabilité que l’individu soit réellement malade ?
Solution de l’exercice 2. On choisit comme espace des états Ω l’ensemble des individus
de la population. On appelle M l’événement “l’individu est malade”, et P l’événement “le
test est positif”. Alors, l’énoncé nous dit que :
P(M ) =
999
1
, d’où P(M c ) =
,
1000
1000
PM (P ) =
99
,
100
PM c (P ) =
1
.
1000
On cherche PP (M ). D’après la formule de Bayes, nous avons :
PP (M ) =
PM (P )P(M )
990
=
' 0, 5.
c
PM (P )P(M ) + PM c (P )P(M )
999 + 990
Si le test est positif, la probabilité que l’individu est réellement malade est de 0, 5. Donc
attention avant de tirer des conclusions trop hâtives.
3. Une généralisation de l’exercice précédent Soit (Ω, F, P) un espace probabilisé.
Soit (Bi )1≤i≤n une partition de Ω en n événements de probabilité non nulle. Montrer que
pour tout A ∈ F de probabilité non nulle, et pour tout i,
P(A|Bi )P(Bi )
P(Bi |A) = Pn
.
i=1 P(A|Bi )P(Bi )
1
Solution de l’exercice 3. Comme les (Bi )1≤i≤n forment une partition de Ω, on a d’après
les formules des probabilités totales et celle des probabilités conditionnelles :
P(A) =
n
X
P(A ∩ Bi ) =
i=1
n
X
PBi (A)P(Bi ).
(1)
i=1
D’après la définition des probabilités conditionnelles toujours, on a :
PA (Bi ) =
P(A ∩ Bi )
PBi (A)P(Bi )
=
.
P(A)
P(A)
On conclut en remplaçant P(A) par (1).
4. On effectue des lancers successifs et indépendants d’une pièce qui tombe sur pile avec
probabilité p et sur face avec probabilité 1 − p.
a) Décrire le modèle probabiliste utilisé pour modéliser cette situation.
b) On appelle T1 le numéro du premier lancer où l’on obtient pile. Déterminer la loi de
T1 .
c) Pour tout i ≥ 1, on appelle Ti le numéro du lancer où l’on obtient pile pour la i-ième
fois. Déterminer la loi de Ti pour tout i ≥ 1.
d) Calculer la probabilité que pile ne sorte jamais.
Solution de l’exercice 4.
∗
a) On choisit comme univers Ω = {P, F }N . On munit Ω de la probabilité P correspondant à cette expérience. Soit (Xi )∞
i=1 la suite de variables aléatoires telle que, pour tout i,
Xi vaut 1 si l’issue du i-ième lancer est pile et 0 sinon. Étant donné que les lancers sont
indépendants, les variables aléatoires (Xi )∞
i=1 sont indépendantes. D’après les conditions
de l’expérience, la loi de Xi est donnée par :
P(Xi = 1) = P({obtenir P au i-ième lancer}) = p,
P(Xi = 0) = P({obtenir F au i-ième lancer}) = 1 − p.
Ainsi (Xi )∞
i=1 est une suite de variables aléatoires i.i.d. de loi de Bernoulli de paramètre p.
b) Soit k ≥ 1 un entier. On a, {T1 = k} = {X1 = 0, X2 = 0, . . . , Xk−1 = 0, Xk = 1}.
Ainsi, en utilisant l’indépendance, on a :
P(T1 = k) = (1 − p)k−1 p.
Autrement dit, T1 suit une loi géométrique de paramètre p.
2
c) En reprenant ce que l’on a fait lors du TD2, on obtient :
k−1 i
∀ k ≥ i, P(Ti = k) =
p (1 − p)k−i .
i−1
Il s’agit de la loi binomiale négative de paramètre i et p. Remarquer que
∞ ∞ X
X
1
k−1
k−1 i
k−i
i
(1 − p)k−1−(i−1) = pi
p (1 − p) = p
= 1.
(i−1)+1
i
−
1
i
−
1
(1
−
(1
−
p))
k=i
k=i
d) Soit An l’événement “Pile ne sort pas jusqu’à l’instant n”. Alors An = {X1 =
0, . . . , Xn = 0} et P(An ) = (1 − p)n . De plus, l’événement A, “Pile ne sort jamais” s’écrit,
A = ∩n∈N∗ An . Comme la suite d’événement est décroissante, on a d’après le cours que :
P(A) = lim P(An ) = 0.
n→∞
5. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi de Bernoulli de
paramètre p ∈]0, 1[. Montrer qu’avec probabilité 1, la suite (Xn )n≥1 prend une infinité de
fois la valeur 1 et une infinité de fois la valeur 0.
Solution de l’exercice 5. Pour tout n ≥ 1, posons An = {Xn = 1} et Bn = {Xn = 0}.
Les
P événements (An )n≥1 sont indépendants et tous de probabilité p > 0. En particulier,
n≥1 P(An ) = +∞. La deuxième partie du lemme de Borel-Cantelli entraîne donc que
P(lim sup An ) = 1. Le même raisonnement s’applique aux événements Bn qui sont de
probabilité 1 − p > 0. Donc P(lim sup Bn ) = 1, et P(lim sup An ∩ lim sup Bn ) = 1. Or
l’événement lim sup An ∩lim sup Bn est précisément l’événement où la suite (Xn )n≥1 prend
une infinité de fois la valeur 1 et une infinité de fois la valeur 0.
6. Soient α, β ∈]0, 1[ deux réels. Pour tout (i, j) ∈ N2 , on pose pi,j = αβ(1 − α)i (1 − β)j .
a) Montrer qu’en posant P({(i, j)}) = pij pour tout (i, j) ∈ N2 , on définit une mesure
de probabilités sur N2 muni de la tribu P(N2 ).
Pour tout (i, j) ∈ N2 , on pose X((i, j)) = i et Y ((i, j)) = j.
b) Déterminer la loi de X et la loi de Y .
c) Calculer P(X < Y ), P(X = Y ) et P(X > Y ).
Solution de l’exercice 6.
P
a) Il s’agit de vérifier que ∀(i, j) ∈ N2 , pi,j ≥ 0 et (i,j)∈N2 pi,j = 1. La positivité des
pi,j est évidente d’après leur
Comme α, β ∈]0, 1[, on peut utiliser la somme
P définition.
i
d’une série géométrique : i∈N x = 1/(1 − x) avec x = 1 − α et x = 1 − β, on obtient :
X
X
X
XX
(1 − β)j = 1.
pi,j =
αβ(1 − α)i (1 − β)j = αβ
(1 − α)i
(i,j)∈N2
i∈N j∈N
i∈N
3
j∈N
b) Remarquons que la loi jointe du vecteur (X, Y ) est pi,j . En effet,
P[X = i, Y = j] = P[{(i, j) ∈ N2 : X((i, j)) = i, Y ((i, j)) = j}] = P[{(i, j)}] = p.
D’après le cours (formule des probabilités totales), la loi marginale de X est donnée par :
X
X
∀ i ∈ N, P[X = i] =
P[X = i, Y = j] = α(1 − α)i
β(1 − β)j = α(1 − α)i .
j∈N∗
j∈N
Ainsi, X suit une loi géométrique de paramètre 1 − α. De même, P(Y = j) = β(1 − β)j ,
autrement dit Y suit une loi géométrique de paramètre 1 − β.
c)
P[X < Y ] = E[1{X<Y } ] =
X
1{i<j} P[X = i, Y = j] =
(i,j)∈N2
X
pi,j =
(i,j)∈N2
∞ X
∞
X
pi,j .
i=0 j=i+1
i<j
Comme pour tout i ∈ N,
P[X < Y ] =
P∞
∞
X
j=i+1
β(1 − β)j = (1 − β)i+1 , cela donne
i
i+1
α(1 − α) (1 − β)
i=0
=
=
∞
X
α(1 − β) ((1 − α)(1 − β))i
i=0
α − αβ
α(1 − β)
=
.
1 − (1 − α)(1 − β)
α + β − αβ
De même (en échangeant les rôles de X et Y , donc de α et β), on obtient
P[X > Y ] =
β − αβ
.
α + β − αβ
On peut calculer P[X = Y ] directement en sommant les pi,i , ou alors on peut utiliser le
fait que les parties {X = Y }, {X < Y } et {X > Y } forment une partition de N2 et les
résultats précédents :
P[X = Y ] = 1−P[X > Y ]−P[X < Y ] =
α + β − αβ − (β − αβ) − (α − αβ)
αβ
=
.
α + β − αβ
α + β − αβ
7. Un exemple d’urne de Polya. Une urne contient au départ 5 boules blanches et 7
noires. Chaque fois que l’on tire une boule, on la réintroduit en rajoutant deux nouvelles
boules de la même couleur que celle tirée. Quelle est la probabilité que les deux premières
boules tirées soient noires ? Que la deuxième boule tirée soit noire ?
Solution de l’exercice 7. On choisit comme univers Ω = {(B, B), (B, N ), (N, B), (N, N )},
où la première (resp. deuxième) coordonnée représente l’issue du premier (resp. deuxième)
4
tirage. On munit Ω de la tribu F = P(Ω). On note P la probabilité sur (Ω, F ) correspondant à cette expérience. Soit k ∈ {1, 2}, on note Bk (resp. Nk ) l’événement “la boule tirée
au k-ième tirage est blanche (resp. noire)”. Alors, la donnée de l’exercice nous dit que :
P(B1 ) =
5
,
12
P(N1 ) =
7
.
12
Comme ces deux probabilités sont strictement positives, on peut conditionner par rapport
aux événements B1 et N1 . D’après l’énoncé, nous savons que :
7
,
14
5
PN1 (B2 ) = ,
14
7
,
14
9
PN1 (N2 ) = .
14
PB1 (B2 ) =
PB1 (N2 ) =
La réponse à la première question est P(N1 ∩ N2 ) et à la deuxième, P(N2 ). Calculons ces
probabilités. D’après la définition des probabilités conditionnelles, nous savons que :
P(N1 ∩ N2 ) = PN1 (N2 )P(N1 ) =
3
9.7
= .
14.12
8
De manière analogue, nous pouvons calculer :
P(B1 ∩ N2 ) = PB1 (N2 )P(B1 ) =
5
7.5
= .
14.12
24
Comme {B1 , N1 } forme une partition de Ω, nous déduisons de la formule des probabilités
totales :
9
5
7
P(N2 ) = P(N1 ∩ N2 ) + P(B1 ∩ N2 ) =
+
= .
24 24
12
8. Loi gaussienne Rappeler la densité de la loi N (µ, σ 2 ). Soit X ∼ N (µ, σ 2 ), quelle est
la loi de X−µ
. Solution de l’exercice 8. La loi N (µ, σ 2 ) a pour densité :
σ
∀ x ∈ R,
Soit Y =
X−µ
.
σ
(x−µ)2
1
e− 2σ2 .
p(x) = √
2πσ 2
Alors, la fonction de répartition de Y est, pour tout y ∈ R :
X −µ
FY (y) = P[Y ≤ y] = P
≤ y = P[X ≤ σy + µ]
σ
Z σy+µ
Z y
=
p(x)dx =
p(σx + µ)σdx
−∞
−∞
x2
1
= √ e− 2 dx.
2π
5
On déduit que Y suit une loi normale centrée réduite.
9. Soit U une variable aléatoire de loi uniforme sur [0, 1]. Déterminer la loi de − log U .
Solution de l’exercice 9. On remarque que P(− log U ≤ 0) = 0. De plus, si x ≥ 0,
Z 1
dy = 1 − exp(−x).
P[− log U ≤ x] = P[U ≥ exp(−x)] =
e−x
On reconnaît la fonction de répartition d’une variable aléatoire exponentielle de paramètre
1. Comme la fonction de répartition d’une variable aléatoire réelle caractérise la loi, on
conclut que − log U suit une loi exponentielle de paramètre 1.
10. Soit X une variable aléatoire de loi exponentielle de paramètre θ. Soit c > 0 un réel.
Déterminer la loi de cX.
Solution de l’exercice 10. Pour tout réel x, on a
xi
= 1[0,+∞[ (x)
P[cX ≤ x] = P X ≤
c
h
Z
x
c
0
θx 1[0,+∞[ (x).
θe−θx dx = 1 − exp −
c
On reconnaît la fonction de répartition d’une variable aléatoire exponentielle de paramètre θc . La fonction de répartition caractérisant la loi, on en déduit que cX suit une loi
exponentielle de paramètre θc .
11. On rappelle qu’une variable aléatoire X de loi de Cauchy standard admet pour
fonction de répartition FX définie par :
∀ x ∈ R,
FX (x) =
1 arctan x
+
.
2
π
Déterminer la fonction de répartition de la variable aléatoire Y =
déterminer sa densité.
1
.
X2
Si elle existe,
Solution de l’exercice 11. La variable aléatoire Y étant positive, FY (t) = 0 pour tout
6
t ≤ 0. Soit donc t > 0.
1
1
2
FY (t) = P[Y ≤ t] = P
(car t > 0)
≤X
≤t =P
X2
t
1
1
1
2
=1−P X <
= 1 − P −√ < X < √
t
t
t
1 1 = 1 − FX √
+ FX − √ , car X est à densité
π
π
1
1
√
arctan
−
√
arctan
1
1
t
t
=1− −
+ +
2
π
2
π
2 arctan √1t
=1−
π
L’application FY est continue sur R, et C 1 en tout point sauf en 0. Donc, Y admet une
densité pY donnée par :
(
0 si t ≤ 0;
pY (t) =
1√ 1
= π √t 1(1+t) si t > 0.
π t t 1+ 1
t
7
Téléchargement