Variables aléatoires (Corrigé des classiques).

publicité
Variables aléatoires (Corrigé des classiques).
Loi d’une variable aléatoire, espérance et variance.
31. Notons tout d’abord que : X(Ω) = {1,2,3,4,5,6}.
Puisque par ailleurs, chaque lancer ne donne pas un résultat acceptable, on va évaluer la probabilité qu’un
premier lancer « acceptable » donne un résultat égal à k.
Pour cela utilisons les événements : « le premier résultat pair est 2.k », pour : 1 ≤ k ≤ 6.
On pourra alors considérer la loi de X comme uniforme si la probabilité des événements précédents vaut
1
dans tous les cas.
6
Or cette probabilité vaut : P ( X = k ) =
+∞
∑ P( A
1
n =1
∩ ... ∩ An −1 ∩ Bn ) , où on a noté :
An : « le nième lancer donne un résultat impair »,
Bn : « le nième lancer donne 2.k ».
En effet, la famille d’événements utilisée est une famille d’événements deux à deux incompatibles.
De plus, par indépendance d’événements (les lancers sont indépendants) :
+∞
+∞
6
P ( X = k ) = ∑ P ( A1 )...P ( An −1 ).P ( Bn ) = ∑  
n =1
n =1  12 
n −1
.
1
1 1
1
= .
= .
1 6
12 12
1−
2
Donc la loi de X est uniforme.
32. a. Il est immédiat par récurrence que : ∀ n ≥ 0, P ( X = n) =
∀ n ∈ , P ( X = − n ) = P ( X = n) =
1
.P ( X = 0) , d’où :
n!
1
.P ( X = 0 ) .
n!
+∞
+∞
1

P
(
X
n
)
[
P
(
X
n
)
P
(
X
n
)]
P
(
X
0
)
1
P
(
X
0
).
1
2
.
=
=
=
+
=
−
+
=
=
=
=
+
∑
∑
∑

,
n∈ X ( Ω )
n =1
n =1 n!

1
1
1
1
on en déduit que : P ( X = 0) =
=
, puis : ∀ n ∈ *, P ( X = −n) = P ( X = n) = .
.
1 + 2.(e − 1) 2.e − 1
n! 2.e − 1
b. X admet alors une espérance si et seulement si la série ∑ n.P ( X = n) est absolument convergente.
Puisque :
n∈ X ( Ω )
Or les deux séries
∑ n.P( X = n)
et
n ≥1
∑ − n.P( X = −n)
sont absolument convergentes car :
n ≥1
∀ n ≥ 1, n.P ( X = n) = − n.P ( X = − n) =
Donc X admet une espérance et : E ( X ) =
1
1
.
.
2.e − 1 (n − 1)!
+∞
+∞
n =1
n =1
∑ n.P( X = n) − ∑ n.P( X = n) = 0 .
X est donc une variable centrée.
Puis pour des raisons similaires, X2 admet une espérance car par le théorème de transfert :
1
n
.
, qui est le terme général d’une série convergente.
2.e − 1 (n − 1)!
+∞
+∞
2 +∞ n
2  +∞ n − 1
1 
Enfin : E ( X 2 ) = ∑ n 2 .2.P ( X = n) =
.∑
=
.∑
+∑
, soit :
2.e − 1 n=1 (n − 1)! 2.e − 1  n =1 (n − 1)! n =1 (n − 1)!
n =1
n 2 .P ( X = n ) = ( − n ) 2 .P ( X = − n ) =
E( X 2 ) =

2  +∞
1
4.e
4.e
.∑
+ e =
, et finalement : V ( X ) = E ( X 2 ) − ( E ( X )) 2 =
.
2.e − 1  n = 2 (n − 2)!  2.e − 1
2.e − 1
33. a. On peut noter que puisqu’il y a des boules rouges, vertes et bleues, on a :
0 < p < 1, 0 < b < 1, 0 < r < 1, et évidemment :
v + b + r = 1.
b. On commence par remarquer que : X(Ω) = – {0,1}, puisqu’il faut au moins 2 tirages pour qu’il y ait
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-1-
changement de couleur.
De plus, si on note Bn (respectivement Rn et Vn) les événements :
« le nième tirage donne une boule Bleue (respectivement Rouge et Verte) »,
alors : P ( Bn ) = b , P ( Rn ) = r , et : P (Vn ) = v .
Pour : n ≥ 2, l’événement (X = n) correspond à :
( X = n) = ( B1 ∩ ... ∩ Bn −1 ∩ Bn ) ∪ ( R1 ∩ ... ∩ Rn−1 ∩ Rn ) ∪ (V1 ∩ ... ∩ Vn −1 ∩ Vn ) .
Les trois événements étant incompatibles puis par indépendance des tirages, on a alors :
P( X = n) = P( B1 )...P( Bn −1 ).P( Bn ) + P( R1 )...P( Rn −1 ).P( Rn ) + P(V1 )...P(Vn −1 ).P(Vn ) , et donc :
P( X = n) = b n −1 .(1 − b) + r n −1 .(1 − r ) + v n −1 .(1 − v) .
+∞
On peut vérifier qu’on a bien alors :
∑ P ( X = n) = 1 .
n=2
c. La série
∑ n.P( X = n) converge alors comme somme de trois séries convergentes et :
n≥2
+∞
+∞
E ( X ) = ∑ n.P ( X = n) = (1 − b).∑ n.b
n=2
+∞
n −1
n= 2
+∞
+ (1 − r ).∑ n.r
n −1
n=2
+∞
+ (1 − v).∑ n.v n −1 .
n=2
+∞
1
− 1 , de même pour les deux autres, donc :
(1 − b) 2
n=2
n =1
1
1
1
1
1
1
− (1 − b) +
− (1 − r ) +
− (1 − v) =
+
+
−2.
E( X ) =
1− b
1− r
1− v
1− b 1− r 1− v
Or :
∑ n.b
n −1
= ∑ n.b n −1 − 1 =
34. a. Puisque : Tk(Ω) = {0,1}, c’est une variable de Bernoulli et Tk s’annule si et seulement si toutes les
personnes descendent à un étage différent du kième, soit :
 n −1
 n −1
P (Tk = 0) = 
 , et donc : P (Tk = 1) = 1 − 
 .
 n 
 n 
p
p
 n −1
Enfin : E (Tk ) = 0.P (Tk = 0 + 1.P (Tk = 1) = 1 − 
 .
 n 
b. X comptant le nombre d’arrêts de l’ascenseur, on a : X = T1 + ... + Tn .
p
  n −1 p 
1 − 
.
E
(
T
)
=
n
.
∑
k
  n  
k =1


Remarque : s’il n’y a qu’une personne, il n’y a qu’un arrêt et on a bien alors : E ( X ) = 1 .
Comme l’espérance est linéaire, on en déduit que : E ( X ) =
n
35. a. On peut reconstituer la fraction et identifier les termes obtenus pour déterminer α, β, γ, soit donc :
α
(α + β + γ ).n 2 + (3.α + 2.β + γ ).n + (2.α )
1
=
,
n n +1 n + 2
n.(n + 1).(n + 2)
n.(n + 1).(n + 2)
1
1
et le système obtenue donne finalement : α = , β = −1 , et : γ = .
2
2
+
β
+
γ
=
b. On commence par remarquer que pour toute valeur de a, la série
∑p
n ≥1
n
 1 
.
3 
n 
converge car : p n = O+ ∞ 
1
1
1
1 
1
 1 N 1 N +1 1 1 N + 2 1 
p
=
a
.
.
−
+
.
=
a
.
 ∑

 .∑ − ∑ + .∑  , et :
∑
∑
∑
n
n =1
 2 k =1 n k =1 n + 1 2 k =1 n + 2 
 2 k =1 n k = 2 n 2 k =3 n 
N
1  1 1
1 1  1
1  1 1
1 
1 
+
−
∀ ∈ *, ∑ p n = a. .1 +  −  +
 + .
  = a. + .
  .
n =1
 2  2   2 N + 1 2  N +1 N + 2 
 4 2  N + 2 N + 1
Puis : ∀ N ∈ *,
N
N
N
N
+∞
Donc en faisant tendre N vers +∞, on conclut que :
En choisissant : a = 4 , la série
∑p
n ≥1
∑p
n =1
n
n
=
a
.
4
est alors à termes positifs et de somme 1 et (n,pn)n∈ * est alors
bien la loi de probabilité d’une variable discrète X.
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-2-
c. La série
∑ n.P( X = n) étant à termes positifs, elle converge car : n.P( X = n) = n. p
n ≥1
Puis :
+∞
+∞
n =1
n =1
1
4
n
 1
= O+ ∞  2
n

.


∑ n.P( X = n) = ∑ (n + 1).(n + 2) = 4. 2 − 0  = 2 , en reconnaissant une série télescopique.
d. On peut remarquer que : Y = ( X − 3) 2 , et donc : Y(Ω) = {n2, n ∈ }.
Puis :
• (Y = 0) = ( X = 3) , et : P (Y = 0) = P ( X = 3) =
4
1
= ,
60 15
1 1 1
+ = ,
30 6 5
2
2 24
+ =
,
• (Y = 4) = ( X = 5) ∪ ( X = 1) , et de même : P (Y = 4) = P ( X = 5) + P ( X = 1) =
105 3 35
• ∀ n ≥ 3, (Y = n 2 ) = ( X = n + 3) ∪ ( X = 3 − n) , d’où : P (Y = n 2 ) = P ( X = n + 3) + P ( X = 3 − n) = p n + 3 .
• (Y = 1) = ( X = 4) ∪ ( X = 2) , et par incompatibilité : P (Y = 1) = P ( X = 4) + P ( X = 2) =
Par le théorème de transfert, Y admet une espérance si et seulement si la série
∑ (n − 3)
2
.P ( X = n )
n ≥1
converge.
Or on constate que : (n − 3) 2 .P ( X = n) =
4.(n − 3) 2
4
~ .
n.(n + 1).(n + 2) +∞ n
Donc la série proposée diverge et Y n’admet pas d’espérance.
36. On va noter Bn (resp. Nn) l’événement : « on tire une boule Blanche (resp. Noire) au nième tirage ».
a. A l’issue du 1er tirage, il peut y avoir 1 ou 2 boules Blanches dans la boîte, plus précisément :
• si on a tiré une boule Noire, il y a après 1 boule Noire et 2 boules Blanches,
• si on a tiré une boule Blanche, il y a après 2 boules Noires et 1 boule Blanche.
On en déduit que :
• P (Y1 = 0) = 0 ,
2
,
3
1
• P (Y1 = 2) = P ( N 1 ) = .
3
b. L’événement (Yn = 2) correspond à tirer jusqu’au nième tirage uniquement la boule Noire.
• P (Y1 = 1) = P ( B1 ) =
n
1
Donc : P (Y = 2) =   , par la formule des probabilités composées, qu’on ne détaille pas ici.
3
2
c. On a déjà calculé u1 qui vaut : u1 = .
3
On peut écrire : ∀ n ≥ 1, (Yn +1 = 1) = ((Yn = 1) ∩ N n +1 ) ∪ ((Yn = 2) ∩ Bn +1 ) , et ces événements étant
incompatibles, on en déduit que : u n +1 = P (Yn +1 = 1) = P ((Yn = 1) ∩ N n +1 ) + P ((Yn = 2) ∩ Bn +1 ) , puis :
• P ((Yn = 1) ∩ N n +1 ) = P(Yn =1) ( N n +1 ).P (Yn = 1) =
2
.u n , et :
3
2
2 1
2
2
• P ((Yn = 2) ∩ Bn +1 ) = P(Yn = 2 ) ( Bn +1 ).P (Yn = 2) = .  , soit finalement : ∀ n ≥ 1, un +1 = .un + n +1 .
3
3
3 3
2
2
2
4
2
2 2
Si alors on note : ∀ n ≥ 1, v n = u n + n , on a : v n +1 = u n +1 + n +1 = .u n + n +1 = . u n + n  = .v n .
3
3
3
3  3
3
3
n −1
n −1
2 2.(2 n − 1)
2

2
. u1 +  = 2.  , soit : u n = v n − n =
.
3
3
3n

3
1 2.(2 n − 1) 3 n − 2 n +1 + 1
=
, puisque (Y = 0), (Y = 1) et
d. On en déduit que : ∀ n ∈ *, P (Yn = 0) = 1 − n −
3
3n
3n
2
Donc : ∀ n ∈ , v n =  
3
2
.v1 =  
3
n
(Y = 2) forment un système complet d’événements.
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-3-
n
2
e. On en déduit que : ∀ n ≥ 1, E (Yn ) = 0.P (Yn = 0) + 1.P (Yn = 1) + 2.P (Yn = 2) = 2.  .
3
f. Tout d’abord, Z prend ses valeurs dans – {0,1}, puisqu’il faut au moins 2 tirages pour éliminer les
boules Blanches.
On peut alors écrire : ∀ n ≥ 2, ( Z = n) = (Yn = 0) ∩ (Yn −1 ≠ 0) = (Yn = 0) ∩ (Yn −1 = 0) .
Or : (Yn −1 = 0) ⊂ (Yn = 0) , donc : ( Z = n) = (Yn = 0) ∩ (Yn −1 = 0) = (Yn = 0) \ (Yn −1 = 0) .
D’où : P ( Z = n) = P (Yn = 0) − P (Yn −1 = 0) =
Enfin la série
∑ n.P( Z = n) converge et :
3 n − 2 n +1 + 1 3 n −1 − 2 n + 1 2 n − 2
−
=
.
3n
3 n −1
3n
n≥2








+∞
+∞
2 n − 2 +∞  2 
2
1
1 1
16 5 9
1

E ( Z ) = ∑ n. n = ∑ n.  − 2.∑ n.  = .
− 1 − 2. .
− 1 =
− = .
2
2

 3 6 2
3  2 
3  1 
3
n=2
n=2  3 
n=2  3 
 1 − 

 1 − 

  3 

  3 

n
n
Couple et famille de variables aléatoires.
37. On peut remarquer que X et Y jouent des rôles totalement symétriques.
a. Pour cela, on a : ∀ j ∈ , S j =
+∞
∑ a.
i =0
+∞
 a.e
i + j a  +∞ i
1  a  +∞ 1
= . ∑ + j.∑  = . ∑
+ j.e  =
.( j + 1) , toutes
i!. j! j!  i =0 i!
j!  i =1 (i − 1)!
j!
i = 0 i! 

les séries qui apparaissent étant convergentes.
Puis la série
∑ S j converge et :
j ≥0
Si donc on pose : a =
 +∞ j +∞ 1 
a.e
.( j + 1) = a.e. ∑ + ∑  = 2.a.e 2 .
j = 0 j!
 j =0 j! j =0 j! 
+∞
+∞
∑Sj = ∑
j =0
1
, alors la famille ((i,j), pi,j)(i,j)∈
2.e 2
×
, détermine bien la loi d’un couple de variables
aléatoires discrètes.
b. Les lois marginales de X et de Y sont données par :
1 +∞ i + j
1 i +1
,
∀ i ∈ , P ( X = i ) = ∑ P ( X = i, Y = j ) =
.
=
.
2 ∑
2.e j =0 i!. j! 2.e i!
j =0
1 j +1
et de façon symétrique : ∀ j ∈ , P (Y = j ) =
.
.
2.e j!
+∞
2
 1 
 ≠ 0 , et les
 2.e 
On peut alors remarquer que : P ( X = 0, Y = 0) = 0 , et : P ( X = 0).P (Y = 0) = 
variables X et Y ne sont pas indépendantes.
1 i +1
1
.
= o+∞  2  .
2.e i!
i 
+∞
+∞
+∞
1 i + 1 1 +∞ i.(i − 1) + 2.i
1  +∞ i.(i − 1)
i  3.e 3
De plus : E ( X ) = ∑ i.P ( X = i ) = ∑
.i.
=
.∑
=
. ∑
+ 2.∑ 
= .
i!
2.e j =0
i!
2.e  j =0 i!
2
i =0
j = 0 2.e
j = 0 i!  2.e
c. Tout d’abord X (et Y) admettent une espérance puisque : i.P ( X = i ) = i.
Y admet donc aussi une espérance qui vaut la même valeur.
Puis X.Y admet une espérance car par la formule du transfert, la série
 +∞
∑  ∑ i. j.P( X = i, Y =
i≥0
 j =0

j ) 

converge.
En effet, on a tout d’abord : ∀ i ∈ ,
+∞
∑ i. j.P( X = i, Y =
j =0
i 1 +∞ i + j
j ) = . 2 .∑ j.
.
i! 2.e j =0
j!
+∞
i 1  +∞ 1
j  i 1
i.(i + 2) 1

 = . 2 .(i.e + 2.e ) =
i
.
j
.
P
(
X
=
i
,
Y
=
j
)
=
.
.
i
.
+
.
.
∑
∑
2  ∑

i! 2.e  j =1 ( j − 1)! j =1 ( j − 1)!  i! 2.e
i!
2.e
j =0
+∞
Donc :
On constate alors que la série obtenue (en i) est bien convergente, et :
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-4-
+∞
 +∞
i =0
 j =0
∑  ∑ i. j.P( X = i, Y =
 +∞  i.(i + 2) 1  1 +∞ i.(i + 2)
1 +∞ i.(i − 1) + 3.i 4.e
j )  = ∑ 
. =
.∑
=
.∑
=
= 2.
i!
i!
2.e  2.e i =0
2.e i =0
2.e
 i =0  i!
3
2
2
Finalement X.Y admet une covariance et : cov( X , Y ) = E ( X .Y ) − E ( X ).E (Y ) = 2 −   = −
1
.
4
Remarque : en cas de doute pour la manipulation de sommes infinies, on peut toujours revenir à des
sommes partielles.
 +∞ i + j

 ∑ 2 .P ( X = i, Y = j )  est convergente.
∑


i ≥ 0  j =0

i
j
+∞
+∞
+∞
+∞
1 1
2 
2
2 j −1 
j i+ j

,
En effet : ∀ i ∈ , ∑ 2 i + j .P ( X = i, Y = j ) = 2 i . .
.
2
.
=
.
i
.
+
2
.
∑ j! 2.e 2 .i!  ∑
∑

i! 2.e 2 j =0
j
!
(
j
−
1
)!
j =0
j
0
j
1
=
=


d. De la même façon, par la formule de transfert, la série
2i
2 i .(i + 2)
2
2
et : ∑ 2 .P ( X = i, Y = j ) =
.
. i.e + 2.e =
2.i!
2.e 2 .i!
j =0
+∞
(
i+ j
)
On constate alors que la série obtenue (en i) est bien convergente, et :
+∞  +∞
 +∞  2 i .(i + 2)  1 +∞ i i +∞ 2 i 1 +∞ 2 i −1
 = .∑ .2 + ∑ = .2.∑
E ( Z ) = ∑  ∑ 2 i + j .P( X = i, Y = j )  = ∑ 
+ e 2 = 2.e 2 .
2
.
i
!
2
i
!
i
!
2
(
i
−
1
)!
i =0  j =0
i =0
i =0
i =1

 i=0 
*, et : ∀ k ≥ 1, P (Tn = k ) = p.(1 − p ) k −1 .
38. a. Tout d’abord l’ensemble des valeurs prises par Tn est
On a donc, comme loi géométrique : E (Tn ) =
1
1− p
, et : V (Tn ) =
.
p
p2
Remarque : on peut retrouver ces résultats avec :
• la série
∑ k. p.(1 − p)
k −1
k ≥1
+∞
 1 
, donc Tn admet une espérance et :
2 
k 
, converge car : k . p.(1 − p ) k −1 = o+ ∞ 
E (Tn ) = ∑ k . p.(1 − p) k −1 = p.
k =1
• la série
∑k
2
k ≥1
+∞
1
1
= .
2
p
(1 − (1 − p))
. p.(1 − p ) k −1 converge pour une raison similaire donc Tn2 admet une espérance et :
2. p.(1 − p)
1
+ , soit :
3
p
(1 − (1 − p ))
k =1
k =2
k =1
2.(1 − p )
p
2− p
2 − p 1 1− p
+ 2 =
, puis : V (Tn ) = E (Tn2 ) − E (Tn ) 2 =
− 2 = 2 .
E (Tn2 ) =
2
2
p
p
p
p2
p
p
b. La variable aléatoire T1 donne le rang du premier Pile, soit : S1 = T1
La somme (T1 + T2 ) est égale à la somme du rang du premier Pile et du nombre de lancers
supplémentaires nécessaires pour obtenir le second Pile, soit le rang du second Pile et : S 2 = T1 + T2 .
Plus généralement (T1 + ... + Tn ) est égale au rang du nième Pile, soit la valeur de Sn et : S n = T1 + ... + Tn .
n
c. Par linéarité de l’espérance, Sn admet donc une espérance et : ∀ n ≥ 1, E ( S n ) = E (T1 ) + ... + E (Tn ) = .
p
E (T ) = ∑ k . p.(1 − p)
2
n
2
k −1
+∞
= p.(1 − p).∑ k .(k − 1).(1 − p)
k −2
+∞
+ ∑ k . p.(1 − p ) k −1 =
Tous les lancers étant indépendants, les variables aléatoires T1, …, Tn sont mutuellement
indépendantes et donc : ∀ n ≥ 1, V ( S n ) = V (T1 ) + ... + V (Tn ) =
n.(1 − p )
.
p2
Lois usuelles, modélisations, approximations.
−λ
39. a. On rappelle tout d’abord que : ∀ n ∈ , P ( X = n) = e .
λn
n!
, donc : u n =
P ( X = n + 1)
λ
.
=
P ( X = n)
n +1
b. Distinguons alors deux cas :
• si : λ ∈ *, alors : ∃ N ∈ , uN = 1, plus précisément pour : N = λ – 1.
Dans ce cas : ∀ n < N, un > 1, et la suite u est strictement croissante jusqu’au rang N, puis on a :
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-5-
P ( X = N ) = P ( X = N + 1) , et enfin : ∀ n > N, un < 1, et la suite u est strictement décroissante à partir
du rang N+1.
−λ
Donc u atteint son maximum en N et en (N+1) où elle vaut : u N = u N +1 = e .
λN
N!
, avec : N = λ – 1.
• si : λ ∈ *, alors : ∀ n ≤ λ  − 1 , un > 1, et la suite u est strictement croissante jusqu’à ce rang puis on
a : ∀ n ≥ λ  , un < 1, et la suite u est strictement décroissante à partir de ce rang.
Dans ce cas, u atteint son maximum pour la valeur : N = λ  .
40. a. Tout d’abord l’ensemble des valeurs prises par S est
Puis : ∀ n ∈ , P ( S = n) =
n
∑ P( X = k , Y = n − k ) , par incompatibilité d’événements, et :
k =0
n
P ( S = n) = ∑ e −λ .
k =0
λ
k
k!
.e − µ .
µ n−k
(n − k )!
=
e − λ .e − µ n
n!
.∑
.λk .µ n −k ,
n! k =0 k!.(n − k )!
par indépendance des variables, et enfin : P ( S = n) =
e −(λ + µ )
.(λ + µ ) n .
n!
Autrement dit S suit la loi de Poisson P(λ+µ).
b. On a ensuite : ∀ n ∈ , ∀ k ∈ :
• si : k > n, alors : P( S = n ) ( X = k ) = 0 , et :
• si : 0 ≤ k ≤ n,
P( S = n ) ( X = k ) =
P ( X = k , S = n) P ( X = k , Y = n − k ) e − λ .λk e − µ .µ n − k
n!
=
=
.
,
−( λ + µ )
P ( S = n)
P ( S = n)
k!
(n − k )! e
.(λ + µ ) n
k  λ 
d’où : P( S = n ) ( X = k ) =  .

n  λ + µ 
k
 µ 
.

λ + µ 
n−k
.
Cette loi conditionnelle est donc la loi binomiale B(n,
λ
λ+µ
).
41. a. Tout d’abord, l’ensemble des valeurs prises par Z est
Puis : ∀ n ∈ , ( Z = 2.n) = ( X = 1, Y = 2.n) ∪ ( X = 2, Y = n) , d’où par incompatibilité et indépendance :
P ( Z = 2.n) = P ( X = 1, Y = 2.n) + P ( X = 2, Y = n) = P ( X = 1).P (Y = 2.n) + P ( X = 2).P (Y = n) ,
1 −λ λ2.n
1 −λ λ2
+ .e . .
soit : P ( Z = 2.n) = .e .
2
(2.n)! 2
n!
De même : ∀ n ∈ , ( Z = 2.n + 1) = ( X = 1, Y = 2.n + 1) , et :
1
λ2.n +1
P( Z = 2.n + 1) = P( X = 1).P(Y = 2.n + 1) = .e −λ .
.
2
(2.n + 1)!
Puisque les variables X et Y sont indépendantes, on a : E ( Z ) = E ( X .Y ) = E ( X ).E (Y ) =
3
.λ .
2
De même X2 et Y2 sont indépendantes et : E ( Z 2 ) = E ( X 2 .Y 2 ) = E ( X 2 ).E (Y 2 ) .
Puis : E ( X 2 ) = 1.P ( X = 1) + 4.P ( X = 2) =
5
, et : E (Y 2 ) = V (Y ) + E (Y ) 2 = λ + λ2 .
2
5
λ.(10 + λ )
3 
Finalement : V ( Z ) = .(λ + λ2 ) −  .λ  =
.
2
4
2 
2
b. Il paraît plus simple de chercher la probabilité pour que Z soit impair, c'est-à-dire :
 +∞
 +∞
e − λ +∞ λ2.n +1
e −λ
1 − e −2.λ
P ( Z impair ) = P U ( Z = 2.n + 1)  = ∑ P ( Z = 2.n + 1) =
.∑
=
.sh(λ ) =
,
2 n = 0 (2.n + 1)!
2
4
 n=0
 n =0
le résultat étant obtenu par incompatibilité d’événements.
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-6-
1 − e −2.λ 3 + e −2.λ
Donc : P ( Z pair ) = 1 − P ( Z impair ) = 1 −
=
.
4
4
42. a. Tout d’abord l’ensemble des valeurs prises par : S = X + Y , est
Puis : ∀ n ≥ 2, P ( Z = n) =
– {0,1}.
n
∑ P( X = k ).P(Y = n − k ) , par incompatibilité puis indépendance.
k =0
n −1
Donc : ∀ n ≥ 2, P ( Z = n) =
∑ p.(1 − p)
k −1
. p.(1 − p ) n − k −1 = (n − 1). p 2 .(1 − p ) n − 2 .
k =1
D’autre part, l’ensemble des valeurs prises par : T = min( X , Y ) , est
* et :
∀ n ∈ *, P (T ≥ n) = P ( X ≥ n, Y ≥ n) = P ( X ≥ n).P (Y ≥ n) = P ( X ≥ n) 2 , toujours par indépendance et
puisque X et Y suivent la même loi.
+∞
+∞
k =n
2.n − 2
k =n
On a ensuite : P ( X ≥ n) =
∑ P( X = k ) = ∑ p.(1 − p) k −1 = p.(1 − p) n−1 .
1
= (1 − p ) n −1 .
1 − (1 − p )
Donc : P (T ≥ n) = (1 − p )
.
Comme de plus : ∀ n ∈ *, P (T ≥ n) = P (T = n) + P (T ≥ n + 1) , par incompatibilité d’événements, on en
déduit que : P (T = n) = P (T ≥ n) − P (T ≥ n + 1) = (1 − p ) 2.n − 2 − (1 − p ) 2.n = ((1 − p ) 2 ) n −1 .( 2. p − p 2 ) .
Enfin, l’ensemble des valeurs prises par : U = max( X , Y ) , est *, et en s’inspirant de ce qui précède, on
commence par remarquer que : ∀ n ∈ *, P (U ≤ n) = P ( X ≤ n).P (Y ≤ n) = P ( X ≤ n) 2 , pour les mêmes
raisons que précédemment.
De plus : P ( X ≤ n) = 1 − P ( X ≥ n + 1) = 1 − (1 − p ) n , et on en déduit que : P (U ≤ n) = (1 − (1 − p ) n ) 2 .
En remarquant que cette égalité est encore valable pour : n = 0, on en déduit finalement que :
∀ n ∈ *, P (U ≤ n + 1) = P (U = n) + P (U ≤ n) , et :
P (U = n) = P (U ≤ n + 1) − P (U ≤ n) = (1 − (1 − p ) n +1 ) 2 − (1 − (1 − p ) n ) 2 .
b. • Si on considère le lancer d’une pièce déséquilibrée qui donne Pile avec la probabilité p, alors X peut
représenter la variable aléatoire décrivant le rang du premier Pile, et Y peut représenter la variable
aléatoire donnant le rang du premier Pile suivant le premier Pile obtenu.
Dans ce cas, ( X + Y ) est la variable aléatoire donnant le rang du second Pile (voir exercice 37).
• D’autre part, si on imagine le lancer en parallèle de deux pièces comme dans le premier exemple,
alors X et Y représentent les variables aléatoires donnant le rang d’apparition du premier Pile pour
chaque pièce, indépendamment de l’autre.
Dans ce cas min( X , Y ) représente le rang d’apparition du premier Pile, quelque soit la pièce envisagée.
Or la probabilité d’apparition d’un premier Pile est le complément à 1 de la probabilité d’apparition de
deux Face (pour chaque pièce) et vaut donc (1 − p ) 2 .
Autrement dit, on est dans le cas de la répétition d’une expérience de Bernoulli où la probabilité d’échec
est (1 − p ) 2 .
Donc min( X , Y ) doit suivre la loi géométrique (loi du premier succès) G( 1 − (1 − p ) 2 ).
Or : 1 − (1 − p ) 2 = ( 2. p − p 2 ) , donc c’est bien ce qu’on avait trouvé puisque :
∀ n ∈ *, P (T = n) = ( 2. p − p 2 ).((1 − p ) 2 ) n −1 = ( 2. p − p 2 ).(1 − ( 2. p − p 2 )) n −1 .
• Enfin, dans la même configuration qu’au dessus, max( X , Y ) représente le nombre nécessaire de
lancers pour obtenir au moins un Pile sur les deux pièces, qui ne correspond à aucun schéma classique.
c. La première probabilité vaut, par incompatibilités d’événements et indépendance :
+∞
+∞
+∞
+∞
n =1
n =1
n =1
n =1
P ( X = Y ) = ∑ P ( X = n, Y = n) = ∑ P ( X = n).P (Y = n) = ∑ ( p.(1 − p ) n −1 ) 2 = p 2 .∑ ((1 − p ) 2 ) n −1 , et :
1
p
P( X = Y ) = p 2 .
=
.
2
2− p
1 − (1 − p )
Pour la deuxième probabilité, on a pour les mêmes raisons :
+∞
+∞
+∞
+∞
n =1
n =1
n =1
n =1
P ( X ≤ Y ) = ∑ P ( X = n, Y ≥ n) = ∑ P ( X = n).P (Y ≥ n) = ∑ p.((1 − p ) n −1 ) 2 = p.∑ ((1 − p ) 2 ) n−1 ,
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-7-
avec le calcul fait en question a, et donc : P ( X ≤ Y ) = p.
Remarque : on a aussi (par symétrie) : P ( X ≥ Y ) =
1
1
=
.
2
2− p
1 − (1 − p )
1
, et :
2− p
P( X ≥ Y ) + P( X < Y ) = P( X ≥ Y ) + ( P( X ≤ Y ) − P( X = Y )) =
1
1
p
+
−
=1.
2− p 2− p 2− p
1 n
1
.∑ E ( X k ) = .n. p = p ,
n k =1
n
n
1
1
et puisque les variables sont supposées indépendantes : V ( S n ) = 2 .∑ V ( X k ) = 2 .n. p.(1 − p ) .
n k =1
n
p.(1 − p )
Donc l’inégalité de Bienaymé-Tchebytchev, on a : ∀ ε > 0, P ( S n − p ≥ ε ) ≤
.
n.ε 2
On en déduit donc bien que : ∀ ε > 0, lim P ( S n − p ≥ ε ) = 0 .
43. a. On sait déjà que par linéarité de l’espérance : ∀ n ≥ 1, E ( S n ) =
n → +∞
On pouvait aussi bien sûr reconnaître la loi faible des grands nombres puisque les variables aléatoires
Xk suivent la même loi et sont mutuellement indépendantes.
b. Toujours par linéarité de l’espérance, on a : ∀ n ∈ *, E (Yn ) =
E ( X n ) + E ( X n+1 )
= p.
2
1
,1}, et :
2
= 0) = P ( X n = 0).P ( X n+1 = 0) = (1 − p ) 2 , par indépendance,
Puis pour tout entier : n ∈ *, Yn est à valeurs dans {0,
• P (Yn = 0) = P ( X n = 0, X n +1
1
) = P ( X n = 0, X n +1 = 1) + P ( X n = 1, X n+1 = 0) , par incompatibilité, et :
2
1
P (Yn = ) = P ( X n = 0).P ( X n +1 = 1) + P ( X n = 1).P ( X n +1 = 0) = 2. p.(1 − p ) , par indépendance,
2
• P (Yn = 1) = P ( X n = 1, X n +1 = 1) = P ( X n = 1).P ( X n +1 = 1) = p 2 , pour les mêmes raisons.
• P (Yn =
Remarque : on peut alors recalculer l’espérance de Yn :
1
E (Yn ) = 0.(1 − p ) 2 + .2. p.(1 − p ) + 1. p 2 = p .
2
c. Distinguons plusieurs cas.
• si : m ≥ n + 2, alors les quatre variables Xn, Xn+1, Xm, Xm+1 sont distinctes et par hypothèse
indépendantes, donc Yn et Ym aussi car :
- pour α et β valant 0 ou 1, (Yn = α ) et (Ym = β ) se décomposent chacun en ( X n = α , X n +1 = α ) et
( X m = β , X m+1 = β ) , et par indépendance, on a alors :
P (Yn = α , Ym = β ) = P ( X n = α ).P ( X n +1 = α ).P ( X m = β ).P ( X m+1 = β ) = P (Yn = α ).P (Ym = β ) .
1
- pour α valant 0 ou 1, et : β = , (Ym = β ) s’écrit ( X m = 0, X m +1 = 1) ∪ P ( X m = 1, X m +1 = 0) , d’où par
2
incompatibilité : P (Yn = α , Ym = β ) = P (Yn = α , X m = 0, X m +1 = 1) + P (Yn = α , X m = 1, X m +1 = 0) ,
et on termine comme dans le cas précédent.
- pour α et β valant tous deux
1
, les arguments précédents s’adaptent encore.
2
• si : m = n + 1, alors Yn et Ym (c'est-à-dire Yn+1) ne sont pas indépendantes car :
P (Yn = 0) = (1 − p ) 2 , P (Yn +1 = 1) = p 2 , et :
P (Yn = 0, Yn +1 = 1) = P ( X n = 0, X n+1 = 0, X n +1 = 1, X n+ 2 = 1) = 0 ≠ p 2 .(1 − p ) 2 .
d. On sait déjà, toujours par linéarité de l’espérance, que : ∀ n ∈ *, E (Tn ) =
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
1 n
1
.∑ E (Yk ) = .n. p = p .
n k =1
n
-8-
D’autre part : ∀ n ∈ *, Tn =
1 n
1
.∑ ( X k + X k +1 ) =
.( X 1 + 2. X 2 + ... + 2. X n + X n +1 ) .
2.n k =1
2.n
Les variables Xk étant mutuellement indépendantes, on a alors :
∀ n ∈ *, V (Tn ) =
1
1
.(V ( X 1 ) + 4.V ( X 2 ) + ... + 4.V ( X n ) + V ( X n+1 )) =
.(4.n − 2). p.(1 − p ) .
2
4.n
4.n 2
L’inégalité de Bienaymé-Tchebytchev redonne alors :
∀ ε > 0, P ( Tn − p ≥ ε ) ≤
V (Tn )
ε
2
=
2.n − 1 p.(1 − p )
.
, et : lim P ( Tn − p ≥ ε ) = 0 .
n → +∞
2.n 2
ε2
44. a. Si on note S la variable aléatoire donnant le nombre de boules Blanches tirées, alors on a :
S = X 1 + ... + X n .
Chaque variable Xj suit alors la loi de Bernoulli B(p).
Dans ce cas, on a de plus, par linéarité de l’espérance : E ( S ) = E ( X 1 ) + ... + E ( X n ) = n. p , et puisque
les variables Xj sont indépendantes (remise de la boule tirée) : V ( S ) = V ( X 1 ) + ... + V ( X n ) = n. p.(1 − p ) .
L’inégalité de Bienaymé-Tchebytchev (ou la loi faible des grands nombres) donne alors :
S

n. p.(1 − p ) 1
p.(1 − p )
. 2 =
.
2
ε
n
n.ε 2
1
Comme de plus la fonction : p a p.(1 – p), est positive et majorée par , sur ]0,1[, on en déduit que :
4
S
 n. p.(1 − p ) 1
1
∀ ε > 0, P − p ≥ ε  ≤
. 2 =
.
2
ε
n
4.n.ε 2
n

S
1
S
S

∀ ε > 0, P − E   ≥ ε  ≤ 2 .V   , soit : P − p ≥ ε  ≤
n
n
n

n
 ε
k

1
Si on a obtenu : S = k , on conclut que : ∀ ε > 0, P − p ≥ ε  ≤
.
2
n
 4.n.ε
k
k

En particulier, par événement contraire, p appartiennent à l’intervalle de confiance  − ε , + ε  avec
n
n



une probabilité supérieure à 1 −
1 
.
4.n.ε 2 
b. Si on veut garantir p au 100ième près, on doit prendre : ε =
1
, ce qui conduit à :
100.n
k

5000
P − p < 10 − 2  ≥ 1 −
.
n
n

Si de plus, on veut que cette valeur soit garantie à 99%, cela oblige à prendre : 1 −
5000 99
≥
, soit
n
100
finalement : n ≥ 500000.
Ca fait beaucoup et l’inégalité de Bienaymé-Tchebytchev montre ici son peu d’efficacité ?
Fonctions génératrices.
45. a. On peut écrire par indépendance d’événements :
 +∞
 +∞
P ( X > n) = P U ( X = k )  = ∑ P ( X = k ) = rn , c'est-à-dire le reste d’ordre n de la série
 k =n +1
 k =n +1
∑ P ( X = n) .
n ≥0
b. C’est une démonstration faite dans le cours.
On commence par remarquer que : ∀ n ≥ 1, P ( X > n − 1) = P ( X > n) + P ( X = n) , par incompatibilité.
Donc :
∀ N ≥ 1,
N
N
N −1
N
N
∑ n.P( X = n) = ∑ n.P( X > n − 1) − ∑ n.P( X > n) = ∑ (n + 1).P( X > n) − ∑ n.P( X > n) ,
n =1
et donc : ∀ N ≥ 1,
n =1
n =1
n=0
n =1
N
N −1
N
N
n =1
n=0
n =0
n =0
∑ n.P( X = n) = ∑ (n + 1).P( X > n) − ∑ n.P( X > n) = ∑ P( X > n) − N .P( X > N ) .
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
-9-
Puis : ∀ N ≥ 1, 0 ≤ N .P ( X > N ) = N .
+∞
∑ P ( X = n) ≤
n = N +1
+∞
∑ n.P( X = n) ,
n = N +1
et le majorant tend vers 0 quand N tend vers +∞, comme reste d’une série convergente ( E ( X ) ).
N
Comme de plus
∑ n.P( X = n) admet une limite finie quand N tend vers +∞ qui est E ( X ) , la série
n =1
∑ P( X < n) est donc convergente et finalement :
n ≥0
E ( X ) = lim
N → +∞
N
∑ n.P( X = n) = lim
N → +∞
n =1
+∞
N
∑ P( X > n) − lim N .P( X > N ) = ∑ P( X > n) .
N → +∞
n =0
n =0
c. Comme vu dans le cours, on constate que :
∀ n ∈ , P ( X > n) ≤ 1 ,
donc le rayon de convergence de la série entière
∑ P( X > n).t
n
vaut au moins 1 et la fonction H est
n ≥0
bien définie au moins sur ]-1,+1[
d. On peut commencer par écrire :
∀ t ∈ ]-1,1[, (1 − t ).H (t ) =
+∞
∑ P( X > n).t
n =0
Donc : ∀ t ∈ ]-1,+1[,
n
+∞
+∞
+∞
n =0
n =0
n =1
− ∑ P( X > n).t n+1 = ∑ P( X > n).t n − ∑ P( X > n − 1).t n .
+∞
+∞
n =1
n =1
(1 − t ).H (t ) = P( X > 0) + ∑ [ P( X > n) − P( X > n − 1)].t n = (1 − P( X = 0)) − ∑ P( X = n).t n , car :
• P ( X = 0) + P ( X > 0) = P ( X ≥ 0) = 1 , et :
• ∀ n ≥ 1, P ( X > n − 1) = P ( X > n) + P ( X = n) (comme on l’a vu plus haut).
Donc : ∀ t ∈ ]-1,+1[, (1 − t ).H (t ) = 1 −
+∞
∑ P( X = n).t
n
= 1 − G (t ) , d’où le résultat voulu.
n =0
46. La fonction génératrice de Y est définie au moins sur ]-1,+1[, et :
∀ t ∈ ]-1,+1[, G (t ) = E (t Y ) = E (t λ1 . X1 +...+ λn . X n ) = E (t λ1 . X 1 ...t λn . X n ) .
Or X1, …, Xn étant des variables aléatoires mutuellement indépendantes, les variables t λ1 .X 1 , …, t λn . X n le
sont aussi et donc :
∀ t ∈ ]-1,+1[, G (t ) = E (t λ1 . X 1 +...+ λn . X n ) = E (t λ1 . X1 )...E (t λn . X n ) = E ((t λ1 ) X 1 )...E ((t λn ) X n ) = G1 (t λ1 )...G n (t λn ) .
Chapitre 10 : Variables aléatoires – Exercices (corrigé des classiques).
- 10 -
Téléchargement