Sujets corrigés de probabilités voie ECE en accès libre

publicité
ECE2
R
−É
Page 1/68
Table des matières
I
Enoncés
1
1 EML III 2007
2
2 EML III 2006
3
3 EML III 1997
4
4
5
ESCP III 2003
5 ESCP III 2001
7
6 ESCP III 1999
8
7
9
ESCP III 1998
8 ESCP III 1997
10
9 HEC III 2002
11
10 HEC III 1996
13
11 HEC III 1992
14
12 EDHEC 1997
15
II
Correction
17
13 EML III 2007
17
14 EML III 2006
22
15 EML III 1997
25
16 ESCP III 2003
28
17 ESCP III 2001
32
18 ESCP III 1999
36
19 ESCP III 1998
39
20 ESCP III 1997
44
21 HEC III 2002
49
22 HEC III 1996
55
23 HEC III 1992
59
24 EDHEC 1997
63
spicesagros.fr
P
Christian Skiada
ECE2
R
−É
Page 2/68
Première partie
Enoncés
1
EML III 2007
Partie entière et partie décimale d’une variable exponentielle, loi géométrique sur
IN, loi de Bernoulli, loi d’un produit de variables discrètes, espérance, variance.
1. On considère l’application f : IR →IR définie pour tout nombre réel x par :
f (x) =
e−x
si x > 0
0
si x ≤ 0
Montrer que f est une densité de probabilité.
On considère une variable aléatoire X admettant f pour densité.
2. On définit la variable aléatoire discrète Y à valeurs dans IN de la façon suivante :
— l’événement [Y = 0] est égal l’événement [X < 1] ;
— pour tout nombre entier strictement positif n, l’événement [Y = n] est égal à l’événement [n ≤ X < n + 1].
1 −n
e .
e
(b) Montrer que la variable aléatoire Y +1 suit une loi géométrique dont on précisera le paramètre.
(a) Montrer, pour tout entier naturel n : P ([Y = n]) = 1 −
(c) En déduire l’espérance et la variance de Y .
3. Soit U une variable de Bernoulli telle que :
P ([U = 1]) = P ([U = 0]) =
1
2
On suppose que les variables aléatoires U et Y sont indépendantes.
Soit la variable aléatoire T = (2U − 1) Y , produit des variables aléatoires 2U − 1 et Y .
Ainsi, T est une variable aléatoire discrète à valeurs dans Z, l’ensemble des entiers relatifs.
(a) Montrer que la variable aléatoire T admet une espérance E (T ) et calculer E (T ) .
(b) Vérifier que T 2 = Y 2 . En déduire que la variable aléatoire T admet une variance V (T ) et
calculer V (T ) .
(c) Pour tout nombre entier relatif n, calculer la probabilité P ([T = n]).
4. Soit la variable aléatoire D = X − Y . On note FD la fonction de répartition de D.
(a) Justifier :
∀t ∈ ]−∞, 0[ ,
FD (t) = 0
et
∀t ∈ [1, +∞[ ,
FD (t) = 1
(b) Soit t ∈ [0, 1[. Exprimer l’événement [D ≤ t] à l’aide des événements [n ≤ X ≤ n + t], n ∈ IN.
(c) Pour tout nombre réel t ∈ [0, 1[ et pour tout nombre entier naturel n, calculer la probabilité
P ([n ≤ X ≤ n + t]) .
(d) Montrer :
∀t ∈ [0, 1[ ,
FD (t) =
1 − e−t
1 − e−1
(e) Montrer que D est une variable aléatoire à densité. Déterminer une densité de D.
spicesagros.fr
P
Christian Skiada
ECE2
2
R
−É
Page 3/68
EML III 2006
Loi normale, fonction de répartition d’une variable à densité, changement de
variable à densité quadratique, espérance, variance, loi exponentielle, loi
géométrique, moyenne de n variables géomériques, théorème de la limite centrée.
Partie A
1. Soit U une variable aléatoire à densité suivant une loi normale d’espérance nulle et de variance
1
.
2
(a) Rappeler une densité de U.
+∞
(b) En utilisant la définition de la variance de U, montrer que l’intégrale
√
+∞
π
2 −x2
.
gente et que
x e dx =
4
0
2
x2 e−x dx est conver0
2. Soit F la fonction définie sur IR par :
∀x ≤ 0, F (x) = 0
2
∀x > 0, F (x) = 1 − e−x
Montrer que la fonction F définit une fonction de répartition de variable aléatoire dont on déterminera une densité f.
3. Soit X une variable aléatoire admettant f pour densité.
√
π
.
2
. On distinguera les cas y ≤ 0 et
(a) Montrer que X admet une espérance E (X) et que E (X) =
(b) Déterminer, pour tout réel y, la probabilité P
y > 0.
X2 ≤ y
(c) Montrer que la variable aléatoire X 2 suit une loi exponentielle dont on précisera le paramètre.
En déduire que X admet une variance V (X) et calculer V (X) .
Partie B
1. Soit Z une variable aléatoire suivant une loi géométrique de paramètre p. Ainsi, pour tout k ∈ IN∗ ,
P ([Z = k]) = p (1 − p)k−1 .
Rappeler la valeur de l’espérance E (Z) et celle de la variance V (Z) de la variable aléatoire Z.
2. Soient un entier n supérieur ou égal à 2, et n variables aléatoires indépendantes Z1 , Z2 , ..., Zn , suivant
1
toutes le loi géométrique de paramètre p. On considère la variable aléatoire Mn = (Z1 + Z2 + · · · + Zn ) .
n
(a) Déterminer l’espérance m et l’écart-type σn de Mn .
1
(b) Montrer que lim P ([0 ≤ Mn − m ≤ σn ]) existe et exprimer sa valeur à l’aide de
n→+∞
spicesagros.fr
P
e−
x2
2 dx.
0
Christian Skiada
ECE2
3
R
−É
Page 4/68
EML III 1997
Lancers d’un dé équilibré, loi d’une variable discrète (dimension 1), espérance,
variance, loi conditionnelle, loi d’un couple, indépendance.
On dispose d’un dé équilibré à 6 faces et d’une pièce truquée telle que la probabilité d’apparition de
“pile” soit égale à p, p ∈ ]0, 1[ . On pourra noter q = 1 − p.
Soit N un entier naturel non nul fixé. On effectue N lancers du dé ; si n est le nombre de “6” obtenus,
on lance alors n fois la pièce.
On définit trois variables aléatoires X, Y , Z de la manière suivante :
— Z indique le nombre de “6” obtenus aux lancers du dé ;
— X indique le nombre de “piles” obtenus aux lancers de la pièce ;
— Y indique le nombre de “faces” obtenus aux lancers de la pièce.
Ainsi X + Y = Z et, si Z prend la valeur 0, alors X et Y prennent la valeur 0.
1. Préciser la loi de Z, son espérance et sa variance.
2. Pour k ∈ IN, n ∈ IN, déterminer la probabilité conditionnelle P[Z=n] ([X = k]) . On distinguera les
cas k ≤ n et k > n.
3. Montrer, pour tout couple d’entiers naturels (k, n) :
Si 0 ≤ k ≤ n ≤ N
Si n > N ou k > n
alors
alors
P ([X = k] ∩ [Z = n]) =
n
k
N k
p (1 − p)n−k
n
5
6
N−n
1
6
n
P ([X = k] ∩ [Z = n]) = 0
4. Calculer la probabilité P ([X = 0]) .
5. Montrer pour tout couple d’entiers naturels (k, n) tel que 0 ≤ k ≤ n ≤ N :
n
k
N
n
=
N
k
N −k
n−k
En déduire la loi de X.
p
6. Montrer que la variable X suit une loi binomiale de paramètres N,
.
6
Quelle est la loi de la variable Y ?
7. Est-ce que les variables aléatoires X et Y sont indépendantes ? Déterminer la loi du couple (X, Y ).
spicesagros.fr
P
Christian Skiada
ECE2
4
R
−É
Page 5/68
ESCP III 2003
Suite infinie de tirages dans une urne à contenu variable, suite géométrique,
probabilité conditionnelle, suite récurrente d’ordre deux à coefficients
variables.
Soit a, b deux entiers naturels non nuls et s leur somme.
Une urne contient initialement a boules noires et b boules blanches indiscernables au toucher.
On effectue dans cette urne une suite infinie de tirages au hasard d’une boule selon le protocole suivant :
— Si la boule tirée est blanche, elle est remise dans l’urne ;
— Si la boule tirée est noire, elle est remplacée dans l’urne par une boule blanche prise dans une réserve
annexe.
Avant chaque tirage, l’urne contient donc toujours s boules.
On désigne par (Ω, B, P) un espace probabilisé qui modélise cette expérience et, pour tout entier
naturel n non nul, on note :
— Bn l’événement “la n-ième boule tirée est blanche” ;
— Xn la variable aléatoire désignant le nombre de boules blanches tirées au cours des n premiers
tirages ;
— un l’espérance de la variable aléatoire Xn , c’est-à-dire un = E(Xn ).
1. Étude d’un ensemble de suites
Soit A l’ensemble des suites (xn )n≥1 de réels qui vérifient :
∀n ∈ IN∗ , s xn+1 = (s − 1) xn + b + n
(a) Soit α et β deux réels et (vn )n≥1 la suite définie par :
∀n ∈ IN∗ , vn = α n + β
Déterminer en fonction de b et de s les valeurs de α et β pour que la suite (vn )n≥1 appartienne
à A.
(b) Soit (xn )n≥1 une suite appartenant à A, (vn )n≥1 la suite déterminée à la question précédente
et (yn )n≥1 la suite définie par :
∀n ∈ IN∗ , yn = xn − vn
Montrer que la suite (yn )n≥1 est une suite géométrique et expliciter, pour tout entier naturel
n non nul, yn puis xn en fonction de x1 , b, s et n.
2. Expression de la probabilité P (B n+1 ) à l’aide de un
(a) Donner, en fonction de b et de s, les valeurs respectives de la probabilité P(B1 ) et du nombre
u1 .
b + 1 − u1
(b) Calculer la probabilité P(B2 ) et vérifier l’égalité P(B2 ) =
.
s
(c) Soit n un entier naturel vérifiant 1 ≤ n ≤ a. Montrer que, pour tout entier k de l’intervalle
b+n−k
[[0, n]], la probabilité conditionnelle P[Xn =k] (Bn+1 ) est égale à
.
s
b + n − un
En déduire l’égalité P(Bn+1 ) =
.
s
(d) Soit n un entier naturel vérifiant n > a.
Si k est un entier de l’intervalle [[0, n − a − 1]], quel est l’événement [Xn = k] ?
b+n−k
Si k est un entier de l’intervalle [[n − a, n]], justifier l’égalité P[Xn =k] (Bn+1 ) =
.
s
b + n − un
est encore vérifiée.
Montrer enfin que l’égalité P(Bn+1 ) =
s
3. Calcul des nombres un et P (B n )
spicesagros.fr
P
Christian Skiada
ECE2
R
−É
Page 6/68
(a) Soit n un entier naturel non nul. Établir, pour tout entier k de l’intervalle [[n + 1 − a, n]],
l’égalité :
P([Xn+1 = k]) =
a−n+k
b+n−k+1
P([Xn = k]) +
P([Xn = k − 1])
s
s
Vérifier cette égalité pour k = n+1, k = n−a et pour tout entier k de l’intervalle [[1, n−a−1]].
(b) Calculer, pour tout entier naturel n non nul, un+1 en fonction de un et de n. En déduire que
la suite (un )n≥1 appartient à l’ensemble A étudié dans la question 1.
(c) Donner, pour tout entier naturel n non nul, les valeurs de un et de P(Bn+1 ) en fonction de
b, s et n.
(d) Quelles sont les limites des suites (un )n
spicesagros.fr
P
1
et (P(Bn ))n≥1 ?
Christian Skiada
ECE2
5
R
−É
Page 7/68
ESCP III 2001
Probabilités discrètes dans une urne contient N boules dont N − 2 sont blanches et
2 sont noires. Etude des variables aléatoires égale aux rang d’apparition des deux
boules noires dans un tirage sans remise. Somme des cubes, espace probabilisé,
loi d’un couple, lois marginales, comparaison de lois, espérance, variance,
covariance, loi uniforme discrète, min, max, probabilité conditionnelle.
Préliminaire
Montrer, pour tout entier naturel non nul n, l’égalité :
n
k3 =
k=1
n2 (n + 1)2
4
Soit N un entier supérieur ou égal à 2.
Une urne contient N boules dont N −2 sont blanches et 2 sont noires. On tire au hasard, successivement
et sans remise, les N boules de cette urne.
Les tirages étant numérotés de 1 à N , on note X1 la variable aléatoire égale au numéro du tirage qui
a fourni, pour la premiére fois, une boule noire et X2 la variable aléatoire égale au numéro du tirage qui
a fourni, pour la deuxiéme fois, une boule noire.
1. Préciser l’espace probabilisé (Ω, A, P) que l’on peut utiliser pour modéliser cette expérience aléaoire.
2. Soit i et j deux entiers de l’intervale [[1, N]]. Montrer que l’on a :


si 1 ≤ j ≤ i ≤ N
 0
P ([X1 = i, X2 = j]) =
2

si 1 ≤ i < j ≤ N

N (N − 1)
3. Déterminer les lois de probabilité des variables X1 et X2 . Ces variables sont-elles indépendantes ?
4. (a) Démontrer que la variable N + 1 − X2 a même loi que X1 .
(b) Déterminer la loi de la variable X2 − X1 et la comparer à celle de X1 .
5. À l’aide des résultats de la question 4 :
(a) Calculer les espérances E(X1 ) et E(X2 ).
(b) Montrer l’égalité des variances V(X1 ) et V(X2 ).
(c) Établir la relation : 2 Cov(X1 , X2 ) = V(X1 ) où Cov(X1 , X2 ) désigne la covariance des variables
X1 et X2 .
6. Calculer V(X1 ) ; en déduire V(X2 ) et Cov(X1 , X2 ).
Dans cette drnière partie, N désigne encore un entier supérieur ou égal à deux.
7. On suppose que A et B sont deux variables aléatoires définies sur le même espace probabilisé
(Ω, A, P), indépendantes, suivant la même loi uniforme sur l’ensemble {1, 2, . . . , N ) et on désigne
par D l’événement : "A ne prend pas la même valeur que B".
N −1
.
N
(b) Soit Y1 et Y2 les variables aléatoires définies par :
(a) Montrer que la probabilité de l’événement D est
Y1 = min(A, B)
Y2 = max(A, B)
Calculer, pour tout couple (i, j) d’éléments de {1, 2, . . . , N }, la probabilité conditionnelle
PD ([Y1 = i, Y2 = j]).
spicesagros.fr
P
Christian Skiada
ECE2
6
R
−É
Page 8/68
ESCP III 1999
Suite de variables de Bernoulli indépendantes, probabilité conditionnelle, loi d’un
produit de variables de Bernoulli, covariance, indépendance, probabilité conditionnelle, espérance conditionnelle.
Une chaîne de fabrication produit des objets dont certains peuvent être défectueux. Pour modéliser ce
processus on considère une suite (Xn )n≥1 de variables aléatoires de Bernoulli indépendantes, de paramètre
p, (0 < p < 1). La variable aléatoire Xn prend la valeur 1 si le nième objet produit est défectueux et
prend la valeur 0 s’il est de bonne qualité.
Pour contrôler la qualité des objets produits, on effectue des prélèvements aléatoires et on considère
une suite (Yn )n≥1 de variables aléatoires de Bernoulli indépendantes, de paramètre p′ , (0 < p′ < 1), telle
que Yn prend la valeur 1 si le nième objet produit est contrôlé et 0 s’il ne l’est pas.
Toutes les variables aléatoires Xn et Yn sont définies sur un même espace probabilisé Ω, muni d’une
probabilité notée P et sont supposées toutes indépendantes entre elles.
La probabilité conditionnelle d’un événement A sachant un événement B est notée PB (A)
Pour tout entier n ≥ 1, on pose Zn = Xn Yn . La variable aléatoire Zn ainsi définie vaut donc 1 si le nième
objet est à la fois défectueux et contrôlé et 0 sinon.
L’objet de l’exercice est d’étudier le nombre d’objets défectueux produits par la chaîne avant qu’un
objet défectueux n’ait été détecté.
1. Déterminer, pour tout entier n ≥ 1, la loi de la variable aléatoire Zn et la covariance des variables
Xn et Zn . En déduire que les variables Xn et Zn ne sont pas indépendantes.
En revanche, il résulte des hypothèses (et on ne demande pas de le justifier) que, pour tout entier
n, la variable aléatoire Zn est indépendante des variables (Xi , i = n) et des variables (Yi , i = n), de
même que des variables (Zi , i = n).
2. Soit, pour tout entier n ≥ 1, An l’événement : “le nième objet fabriqué est le premier qui ait été
contrôlé et trouvé défectueux”.
(a) Exprimer An à l’aide des variables aléatoires Z1 , Z2 , . . . , Zn et déterminer P (An ).
(b) Montrer qu’on finira, presque sûrement, par détecter un objet défectueux.
3. Soit un entier n ≥ 2.
(a) Pour tout entier k vérifiant 1 ≤ k ≤ n − 1, calculer la probabilité des événements
[Xk = 1] ∩ An et [Xk = 1] ∩ [Zk = 0].
On note Bk l’événement [Zk = 0]. Montrer l’égalité des probabilités conditionnelles
PAn ([Xk = 1]) = PBk ([Xk = 1]) =
p − pp′
1 − pp′
(b) Montrer que si x1 , x2 , . . . , xn−1 est une suite quelconque de nombres égaux à 0 ou à 1, on a :
n−1
PAn ([X1 = x1 ] , [X2 = x2 ] , . . . , [Xn−1 = xn−1 ]) =
(c) Soit Sn =
n−1
i=1
PAn ([Xi = xi ])
Xj le nombre d’objets défectueux fabriqués avant le nième objet et soit un entier
j=1
m vérifiant 0 ≤ m ≤ n − 1 . Calculer PAn ([Sn = m]) .
(d) Déterminer l’espérance de Sn pour la probabilité conditionnelle sachant An .
spicesagros.fr
P
Christian Skiada
ECE2
7
R
−É
Page 9/68
ESCP III 1998
Loi uniforme continue, espérance, variance, indépendance de variables,
convergence en loi d’une suite de variables à densité.
Toutes les variables aléatoires considérées dans cet exercice sont supposées définies sur un même espace
probabilisé, muni de la probabilité P.
1
pour tout
Pour tout entier n ≥ 1, soit Xn une variable aléatoire réelle vérifiant P([Xn = k]) =
n
Xn
entier k tel que 0 ≤ k ≤ n − 1. On pose Yn =
.
n
D’autre part, soit Z une variable aléatoire de loi uniforme sur l’intervalle [0, 1].
1. (a) Déterminer l’espérance E(Z) et la variance V(Z) de la variable aléatoire Z.
(b) Calculer, pour tout n ≥ 1, l’espérance et la variance de Yn .
Déterminer les limites des suites (E(Yn ))n≥1 et (V(Yn ))n≥1 .
(c) Montrer que, pour toute fonction f de classe C 1 sur [0, 1], à valeurs réelles, strictement monotone, on a lim E(f(Yn )) = E(f (Z)).
n→+∞
2. Pour tout réel x on note ⌊x⌋) la partie entière de x, c’est-à-dire le plus grand nombre entier relatif
inférieur ou égal à x.
⌊nx⌋
= x.
n
(b) Soit a et b deux réels vérifiant 0 ≤ a ≤ b ≤ 1 et soit In (a, b) le nombre d’entiers k vérifiant
k
a < ≤ b. Montrer que In (a, b) = ⌊nb⌋ − ⌊na⌋ .
n
(c) Montrer que, si 0 ≤ a ≤ b ≤ 1, lim P(a < Yn ≤ b) = P(a < Z ≤ b).
(a) Montrer que, pour tout réel x, lim
n→+∞
n→+∞
3. Pour tout entier n ≥ 1 on note Zn la variable aléatoire
⌊n Z⌋
et on pose Dn = Z − Zn .
n
(a) Montrer Zn et Yn ont même loi de probabilité.
(b) Trouver la fonction de répartition et une densité de Dn .
1
(c) Pour un entier k tel que 0 ≤ k ≤ n − 1 et un réel y tel que 0 ≤ y ≤ , exprimer à
n
k
l’aide de la variable aléatoire Z l’événement {Zn =
et Dn ≤ y}. En déduire la valeur
n
k
de P Zn =
∩ [Dn ≤ y] .
n
(d) Montrer que les variables aléatoires Zn et Dn sont indépendantes.
spicesagros.fr
P
Christian Skiada
ECE2
8
R
−É
Page 10/68
ESCP III 1997
Loi géométrique sur IN, min d’un couple, loi d’une somme de variables discrètes,
loi conditionnelle, loi d’une différence, indépendance.
On note IN l’ensemble des entiers naturels. Soit a et b deux réels tels que 0 < a < 1 et 0 < b < 1.
On effectue une suite d’expériences aléatoires consistant à jeter simultanément deux pièces de monnaie
notées A et B. On suppose que ces expériences sont indépendantes et qu’à chaque expérience les résultats
des deux pièces sont indépendants. On suppose que, lors d’une expérience, la probabilité que la pièce A
donne pile est a, et que la probabilité que la pièce B donne pile est b.
1. (a) Pour tout entier naturel n, calculer la probabilité µn que la pièce A donne n fois pile et, à la
ème
(n + 1)
expérience, face pour la première fois. Calculer de même la probabilité ν n que la
pièce B donne n piles et, à la (n + 1)ème expérience, face pour la première fois.
(b) Montrer que les suites (µn )n∈IN et (ν n )n∈IN définissent des lois de probabilité sur IN. Ces lois
seront notées dorénavant respectivement µ et ν.
2. On considère deux variables aléatoires X et Y , définies sur un même espace probabilisé (Ω, A, P), à
valeurs dans IN, indépendantes et dont les lois de probabilité sont respectivement µ et ν. (La variable
aléatoire X représente le nombre d’expériences qu’il faut réaliser avant que la pièce A donne face
pour la première fois et la variable Y représente le nombre d’expériences qu’il faut réaliser avant
que la pièce B donne face pour la première fois).
(a) Calculer l’espérance E (X) et la variance V (X) .
(b) Trouver, pour tout entier naturel k, la valeur de P ([X ≥ k]) .
(c) On s’intéresse au nombre d’expériences qu’il faut réaliser avant que l’une au moins des pièces
donne face pour la première fois. Pour cela on note M la variable aléatoire définie par M =
min (X, Y ) . Calculer, pour tout entier naturel k, la probabilité P ([M ≥ k]) . En déduire la loi
de probabilité de M.
(d) Déterminer la probabilité que la pièce B ne donne pas face avant la pièce A, c’est-à-dire
P ([Y ≥ X]) .
3. On note U = X + Y.
(a) Déterminer la loi de probabilité de U. (On distinguera les cas a = b et a = b).
(b) Calculer, pour tout couple (j, k) d’entiers naturels, les probabilités conditionnelles P[U=j] ([Y = k]).
4. On suppose désormais que a = b. On note V = Y − X.
(a) Calculer, pour tout entier naturel k et tout entier relatif r, la probabilité de l’événement
(M = k et V = r). (On distinguera le cas r ≥ 0 et le cas r < 0).
(b) Trouver la loi de probabilité de V. Les variables M et V sont-elles indépendantes ?
spicesagros.fr
P
Christian Skiada
ECE2
9
R
−É
Page 11/68
HEC III 2002
“Le petit frère d’HEC III 2007” ! Densité, fonction de répartition, min, max, statistique
d’ordre, loi d’une somme de variables de Bernoulli indépendantes, fonction béta
d’Euler, calcul d’une intégrale par changement de variable.
Cet exercice met en évidence le fait que l’existence d’une espérance finie, pour une variable aléatoire,
n’est pas toujours intuitive. Dans tout l’exercice, I désigne l’intervalle réel [1, +∞[ et on suppose que
toutes les variables aléatoires envisagées sont définies sur le même espace probabilisé (Ω, A, P).
Partie A : première approche
1. Montrer que l’application g définie par :

 1
t2
g(t) =

0
si t ∈ I
sinon
est une densité de probabilité.
2. Soit X une variable aléatoire à valeurs dans I admettant g pour densité. Déterminer, pour tout réel
t, la probabilité P([X ≤ t]) et montrer que X n’admet pas d’espérance.
3. Soit X et Y deux variables aléatoires à valeurs dans I admettant g pour densité et telles que, pour
tout réel t, les événements [X ≤ t] et [Y ≤ t] sont indépendants. On définit alors deux variables
aléatoires U et V par U = min(X, Y ) et V = max(X, Y ), c’est-à-dire que, pour tout ω de Ω, U (ω)
est le plus petit des nombres X(ω) et Y (ω), tandis que V (ω) est le plus grand de ces nombres.
(a) Pour tout réel t, exprimer l’événement [V ≤ t] à l’aide des variables aléatoires X et Y ; en
déduire la probabilité P([V ≤ t]).
(b) Montrer que la variable aléatoire V admet pour densité l’application h définie par :

 2(t − 1) si t ∈ I
t3
h(t) =

0
sinon
(c) De façon analogue, calculer pour tout réel t la probabilité P([U > t]) et en déduire que la
variable aléatoire U admet pour densité l’application m définie par :

 2 si t ∈ I
t3
m(t) =

0
sinon
(d) Montrer que V n’admet pas d’espérance et que U admet une espérance que l’on calculera.
Partie B : situation plus générale
Dans cette partie, n désigne un entier supérieur ou égal à 2 et on suppose que n visiteurs, numérotés
de 1 à n, se rendent aléatoirement dans un musée et que, pour tout entier de l’intervalle [[1, n]], l’heure
d’arrivée du visiteur numéro k est une variable aléatoire Xk admettant pour densité l’application g définie
dans la partie A. On suppose de plus que, pour tout réel t, les événements [X1 ≤ t], [X2 ≤ t], . . . , [Xn ≤ t]
sont mutuellement indépendants. Si r est un entier de l’intervalle [[1, n]], on note Tr la variable aléatoire
désignant l’heure d’arrivée du r-ième arrivant. La partie A traite donc du cas n = 2, les variables
aléatoires U et V étant respectivement égales à T1 et T2 .
1. Soit t un élément de I fixé. Pour tout entier k de [[1, n]], on note Bk la variable aléatoire prenant la
valeur 1 lorsque l’événement [Xk ≤ t] est réalisé et la valeur 0 sinon.
(a) Préciser, en la justifiant soigneusement, la loi de la variable aléatoire Z définie par Z =
B1 + . . . + Bn .
spicesagros.fr
P
Christian Skiada
ECE2
R
−É
Page 12/68
(b) Pour tout entier r de l’intervalle [[1, n]], exprimer l’événement [Tr ≤ t] à l’aide de la variable
aléatoire Z et en déduire l’égalité :
n
P ([Tr ≤ t]) =
k=r
n
k
1−
k
1
t
1
t
n−k
n
n
− (n + 1 − k)
= 0.
k
k−1
(b) En déduire que, pour tout entier r de l’intervalle [[1, n]], la variable aléatoire Tr admet pour
densité l’application fr définie par :

n+2−r
r−1
1
1

 r n
1−
si t ∈ I
r
t
t
fr (t) =


0
sinon
(a) Vérifier, pour tout entier k de l’intervalle [[1, n]], l’égalité k
(c) Donner un équivalent à tfr (t) quand t tend vers +∞ et en déduire que les variables aléatoires
T1 , T2 , . . . , Tn−1 admettent une espérance alors que Tn n’en admet pas.
1
2. Pour tout couple (p, q) d’entiers naturels, on pose J(p, q) =
0
xp (1 − x)q dx.
(a) À l’aide d’une intégration par parties, établir pour tout couple (p, q) d’entiers naturels, la
relation :
(p + 1)J(p, q + 1) = (q + 1)J(p + 1, q)
(b) Calculer, pour tout entier naturel q, l’intégrale J(0, q).
(c) Montrer par récurrence sur p que, pour tout couple d’entiers naturels (p, q), on a :
J(p, q) =
p! q!
(1 + p + q)!
3. Soit r un entier de l’intervalle [[1, n − 1]].
(a) Si a est un réel strictement supérieur à 1, transformer en effectuant le changement de variable
a
1
x = l’intégrale
t fr (t) dt.
t
1
(b) En déduire la valeur de l’espérance de la variable aléatoire Tr en fonction de n et de r.
spicesagros.fr
P
Christian Skiada
ECE2
10
R
−É
Page 13/68
HEC III 1996
Tirages par lots, loi géométrique, recherche d’une conjecture.
On désigne par m un entier fixé supérieur ou égal à 2.
Une urne contient m boules numérotées de 1 à m. On note E l’ensemble de ces boules et P(E)
l’ensemble des parties de E.
Un dispositif permet d’effectuer le tirage au hasard d’une partie de ces boules, de telle manière que
chacune des parties de E (c’est-à-dire chacun des éléments de P(E), y compris la partie vide ou l’ensemble
de toutes les boules) ait la même probabilité d’être tirée.
1. On effectue un tirage.
(a) Quelle est la probabilité que la boule portant le numéro 1 appartienne à l’ensemble de boules
tirées ?
(b) Pour tout entier i vérifiant 1 ≤ i ≤ m on note Ai l’évènement : “la boule portant le numéro i
appartient à l’ensemble de boules tirées”. Les évènements Ai sont-ils indépendants ?
(c) Quelle est l’espérance de la variable aléatoire égale au nombre de boules qui ont été tirées ?
Quelle est sa variance ?
(d) La probabilité de tirer un nombre pair de boules est-elle supérieure à la probabilité d’en tirer
un nombre impair ?
2. On effectue maintenant une suite de tirages de la forme précédente, en remettant dans l’urne
l’ensemble des boules tirées, après chaque tirage.
(a) Déterminer, pour tout entier k ≥ 1, la probabilité que la boule numéro i soit tirée pour la
première fois au kième tirage.
(b) On note Ti la variable aléatoire qui prend la valeur k (k entier supérieur ou égal à 1) si la
boule numéro i est tirée pour la première fois au kième tirage. Déterminer l’espérance de Ti .
(c) On admet, sans que la justification en soit demandée, que les variables aléatoires T1 , T2 , ...,
Tm sont indépendantes. On note T le nombre minimum de tirages qu’il faut effectuer pour que
chacune des m boules ait été tirée au moins une fois. Déterminer, pour tout entier k ≥ 1, la
probabilité que T soit inférieure ou égale à k. En déduire la loi de probabilité de la variable
aléatoire T .
3. On effectue maintenant une suite de tirages, sans remettre dans l’urne, après chaque tirage, les
boules tirées. Chaque tirage consiste encore à prendre au hasard une partie des boules qui restent
dans l’urne, chacune des parties de l’ensemble des boules restantes ayant la même probabilité d’être
tirée.
(a) Calculer la probabilité pour que les m boules soient toutes tirées en au plus deux tirages.
Calculer la probabilité pour que les m boules soient toutes tirées en exactement deux tirages.
(b) Pour tout k ≥ 1 déterminer plus généralement la probabilité pour que les m boules soient
toutes tirées en au plus k tirages (On pourra raisonner par récurrence).
spicesagros.fr
P
Christian Skiada
ECE2
11
R
−É
Page 14/68
HEC III 1992
Loi d’une variable à densité, moments, somme et produit de variables à densité,
covariance, espérance.
Soit n un nombre entier naturel supérieur ou égal à 3 et p un nombre réel tel que 0 < p < 1. Une
entreprise de transport possède n véhicules identiques numérotés de 1 à n. Le jour J, chaque véhicule a la
probabilité p d’être en état de marche et la probabilité 1 − p d’être en panne. On suppose que les pannes
des différents véhicules surviennet de façon indépendante.
1. On note Y la variable aléatoire représentant le nombre de véhicules en état de marche le jour J.
(a) Déterminer la loi de probabilité de Y.
(b) Calculer les espérances E (Y ) , E (Y (Y − 1)) , E ((Y − 2) (Y − 1) Y ) . Vérifier que les rapports
E (Y (Y − 1))
E ((Y − 2) (Y − 1) Y )
et
sont indépendants de n.
E ((n − 1) Y )
E ((n − 2) (n − 1) Y )
2. On se place le jour J. Pour tout nombre entier i tel que 1 ≤ i ≤ n, on note Xi la variable aléatoire
qui vaut 1 si le véhicule numéroté i est en état de marche ce jour-là et 0 sinon. Exprimer Y à l’aide
des Xi .
3. On se place encore le jour J. L’entreprise désire utiliser ses véhicules par équipes de deux ; une
équipe est constituée d’une paire de véhicules, notée {i, j} , où i et j sont deux entiers distincts (une
paire ne dépend pas de l’ordre dans lequel on écrit les entiers i et j).
(a) Soient i et j deux entiers distincts compris entre 1 et n. Interpréter la variable Xi Xj . Trouver
sa loi de probabilité et son espérance.
(b) On note Z =
Xi Xj la variable aléatoire obtenue en faisant la somme des variables
(i,j)∈A
aléatoires Xi Xj quand {i, j} parcourt l’ensemble A des paires d’entiers distincts entre 1 et n.
Interpréter la variable Z. Calculer son espérance.
(c) Etablir la relation :
Y 2 = Y + 2Z
A l’aide de la question 1.b retrouver l’espérance de Z.
(d) Calculer la covariance de Y et Z.
4. Soit α un nombre réel tel que 0 < α < 1. On suppose qu’un véhicule en état de marche le jour J
a la probabilité α d’être en panne le jour J + 1 et que tout véhicule en panne le jour J est remis
en état de marche le jour J + 1. On note Xi′ et Y ′ les variables aléatoires définies le jour J + 1
respectivement comme Xi et Y le sont le jour J.
(a) Trouver les lois de probabilité de Xi′ et de Y ′ .
1
(b) Montrer que si p < , le nombre moyen de véhicules en état de marche le jour J + 1 est
2
supérieur au nombre moyen de véhicules en état de marche le jour J.
(c) On prend α = 1/10. Déterminer la valeur de p pour laquelle le nombre moyen de véhicules en
état de marche le jour J + 1 est le même que le jour J.
spicesagros.fr
P
Christian Skiada
ECE2
12
R
−É
Page 15/68
EDHEC 1997
Espérance et antirépartition : cas discret et continu, reste d’une intégrale convergente, suite définie par une intégrale impropre convergente.
Dans ce problème n désigne un entier supérieur ou égal à 2.
Partie I
On effectue 2n tirages au hasard dans une urne contenant n boules numérotées de 1 à n.
Un tirage consiste à extraire une boule de l’urne, la boule tirée étant remise dans l’urne.
On note N la variable aléatoire égale au numéro du tirage au cours duquel, pour la première fois, on
a obtenu une boule déjà obtenue auparavant.
1. Montrer que N (Ω) = [[2, n + 1]].
Akn
nk
Rappel : Akn désigne le nombre d’arrangements de k éléments d’un ensemble à n éléments.
2. Montrer que ∀k ∈ [[1, n]], P ([N > k]) =
3. (a) Montrer que pour tout k ∈ [[2, n]], P(N = k) = P([N > k − 1]) − P([N > k]).
(b) Calculer P([N = n + 1]) puis en déduire la loi de N.
n
4. Montrer que l’espérance E(N ) de la variable aléatoire N est E (N ) =
k=0
Akn
.
nk
Partie II
Soit X une variable aléatoire, à valeurs dans IR+ , de densité f (nulle sur IR∗− ) et de fonction de
répartition F. On suppose, de plus, f continue sur IR+ .
x
On pose, pour tout réel x positif, ϕ (x) =
t f (t) dt.
0
1. Montrer, gràce à une intégration par parties, que :
x
∀x ∈ IR+ , ϕ (x) =
0
(1 − F (t)) dt − xP ([X > x])
x
2. On suppose, dans cette question, que l’intégrale
(1 − F (t)) dt converge.
0
(a) Calculer ϕ′ (x) et en déduire que la fonction ϕ est croissante sur IR+ .
(b) Montrer que ϕ est majorée et en déduire que X a une espérance.
(c) Montrer que :
+∞
∀x ∈ IR+ , 0 ≤ xP ([X > x]) ≤
t f (t) dt
x
+∞
(d) En utilisant le fait que X a une espérance, montrer que lim
x→+∞ x
+∞
En déduire lim xP ([X > x]) , puis montrer que E (X) =
x→+∞
0
t f (t) dt = 0.
(1 − F (t)) dt.
Partie III
On considère la fonction Fn définie par :
Fn (x) =
0
x
1− 1+
n
n
si x < 0
−x
e
si x ≥ 0
1. Montrer que Fn est la fontion de répartition d’une variable aléatoire à densité Tn .
spicesagros.fr
P
Christian Skiada
ECE2
R
−É
Page 16/68
+∞
2. (a) Montrer que, pour tout entier naturel k, l’intégrale Ik =
xk e−x dx converge.
0
(b) Montrer que Ik+1 = (k + 1) Ik puis donner la valeur de Ik .
3. En déduire , en utilisant la partie II, que Tn a une espérance et que E (Tn ) = E (N ) .
spicesagros.fr
P
Christian Skiada
ECE2
EML III 2007 − C
Page 17/68
Deuxième partie
Correction
13
EML III 2007
1. Cette question ne pose aucun problème en introduisant une variable aléatoire suivant la loi exponentielle de paramètre 1, alors une de ses densité pourrait être f sans aucun problème.
2. (a) Remarquez que le constat précédent nous fait écrire que X ֒→ ε (1) .
Par définition, nous avons Y (Ω) = IN avec :
P ([Y = 0]) = P ([X < 1])
= FX (1) où FX est la fonction de répartition de X
= 1 − e−1
(1)
Pour tout entier naturel n non nul,
P ([Y = n]) = P ([n ≤ X < n + 1])
= FX (n + 1) − FX (n)
=
1 − e−(n+1) − 1 − e−n
= e−n − e−(n+1)
= e−n 1 − e−1
(2)
Selon (1) et (2) :
∀n ∈ IN, P ([Y = n]) = e−n 1 − e−1
(b) La variable Y + 1 est à valeurs dans IN∗ avec pour tout n de IN∗ ,
P ([Y + 1 = n]) = P ([Y = n − 1])
= e−(n−1) 1 − e−1
=
1
e
n−1
1−
1
e
Conclusion :
Y + 1 ֒→ G 1 −
1
e
Comme d’après le cours, Y + 1 admet admet une espérance et une variance (en tant que
variable géométrique), Y admet donc une espérance et une variance , respectivement égales1
à:
1 On
E (Y ) = E (Y + 1) − 1 par propriété de E
1
=
−1
1
1−
e
1
=
e−1
rappelle les équivalences suivantes :
∀ (a, b) ∈ R∗ × R |
∀ (a, b) ∈
spicesagros.fr
R∗
×R|
aX + b admet une espérance
⇐⇒
X admet une espérance
aX + b admet une variance
⇐⇒
X admet une variance
P
Christian Skiada
ECE2
EML III 2007 − C
Page 18/68
D’autre part par propriété de la variance :
V (Y ) = V (Y + 1)
1
e
=
2
1
1−
e
e
=
(e − 1)2
Conclusion :
E (Y ) =
1
e−1
et V (Y ) =
e
2
(e − 1)
Nota bene : nous pouvions constater que Y = ⌊X⌋ mais l’énoncé ne l’a pas précisé pour ne
pas faire peur peut-être !
3. (a)
La variable T admet une espérance en tant que produit de deux variables, 2U − 1 et Y ,
admettant chacune un moment d’ordre deux. Avec :
E (T ) = E ((2U − 1) Y )
= E (2U − 1) E (Y ) par linéarité de l’espérance et par indépendance de U et Y
= (2E (U ) − 1) E (Y ) par propriété de E
1
1
=
2 × − 1 E (Y ) car U ֒→ B
2
2
Conclusion :
E (T ) = 0
(b) Vérifions ...
T2
=
(2U − 1)2 Y 2
= 4U 2 Y 2 − 4UY 2 + Y 2
= 4UY 2 − 4U Y 2 + Y 2
= Y2
Car du fait que U suit une loi de Bernoulli, nous avons l’égalité U 2 = U. En effet :
U 2 (ω) = 1
∀ω ∈ Ω, (U (ω) = 1) ⇐⇒
et ∀ω ∈ Ω, (U (ω) = 0) ⇐⇒
2
U (ω) = 0
puisque U (Ω) = {0, 1}
puisque U (Ω) = {0, 1}
Cette égalité se généralise pour n’importe quelle puissance non nulle. Comme Y 2 admet une espérance, T 2 en admet une aussi. Autrement dit T admet une variance égale selon le théorème
de Huygens-Koenig à :
V (T ) = E T 2 − (E (T ))2
= E Y2
= V (Y ) + (E (Y ))2 selon le théorème de Huygens-Koenig
=
e
+
(e − 1)2
1
e−1
2
Conclusion :
V (T ) =
spicesagros.fr
P
e+1
(e − 1)2
Christian Skiada
ECE2
EML III 2007 − C
Page 19/68
(c) Nous avons T (Ω) = Z avec selon la formule des probabilités totales :
∀n ∈ Z, P ([T = n]) = P ([T = n] ∩ [U = 0]) + P ([T = n] ∩ [U = 1])
car les événement [U = 0] et [U = 1] constituent un système complet d’événements. Ainsi
pour tout entier relatif n :
P ([T = n]) = P ([(2U − 1) Y = n] ∩ [U = 0]) + P ([(2U − 1) Y = n] ∩ [U = 1])
= P ([−Y = n] ∩ [U = 0]) + P ([Y = n] ∩ [U = 1])
= P ([Y = −n] ∩ [U = 0]) + P ([Y = n] ∩ [U = 1])
Discutons maintenant :
— Si n = 0 :
P ([T = 0]) =
=
=
=
P ([Y = 0] ∩ [U = 0]) + P ([Y = 0] ∩ [U = 1])
P ([Y = 0]) P ([U = 0]) + P ([Y = 0]) P ([U = 1])
P ([Y = 0])
1 − e−1
(3)
— Si n ∈ IN∗ :
P ([Y = −n] ∩ [U = 0]) + P ([Y = n] ∩ [U = 1])
P (∅ ∩ [U = 0]) + P ([Y = n] ∩ [U = 1]) car Y est une variable positive
P ([Y = n] ∩ [U = 1])
P ([Y = n]) P ([U = 1]) par indépendance de U et Y
1 −n
=
e
1 − e−1
(4)
2
P ([T = n]) =
=
=
=
— si n ∈ Z∗− :
P ([Y = −n] ∩ [U = 0]) + P ([Y = n] ∩ [U = 1])
P ([Y = −n] ∩ [U = 0]) + P (∅ ∩ [U = 1]) car Y est une variable positive
P ([Y = −n] ∩ [U = 0]) avec − n ∈ N∗
P ([Y = −n]) P ([U = 0])
(5)
1 n
=
e 1 − e−1
2
P ([T = n]) =
=
=
=
Conclusion : selon (3) , (4) et (5)
P ([T = 0]) = 1 − e−1
et ∀n ∈ Z∗ , P ([T = n]) =
e−|n|
1 − e−1
2
4. (a) Signalons pour commencer que la variable D est associée à la partie décimale de la variable
X puisque l’on rappelle que Y = ⌊X⌋ , donc que D = X − ⌊X⌋ . Alors la variable D est à
valeurs dans l’intervalle [0, 1[ car rappelons encore que :
∀x ∈ IR, 0 ≤ x − ⌊x⌋ < 1
puisque, par définition pour tout réel x,
⌊x⌋ ≤ x < ⌊x⌋ + 1
Par conséquent en notant FD la fonction de répartition de la variable D nous pouvons immédiatement dire que :
FD (t) = 0 si t < 0
FD (t) = 1 si t ≥ 1
spicesagros.fr
P
Christian Skiada
ECE2
EML III 2007 − C
Page 20/68
(b) Comme la famille des événements ([Y = n])n∈IN constitue un système complet d’événements nous pouvons écrire pour tout réel t ∈ [0, 1[ ,
[D ≤ t] = [D ≤ t] ∩ Ω
= ([D ≤ t]) ∩
=
n∈IN
[Y = n]
n∈IN
([D ≤ t] ∩ [Y = n]) par distributivité de ∩ sur ∪
= ([D ≤ t] ∩ [Y = 0])
n∈IN∗
= ([X − Y ≤ t] ∩ [Y = 0])
([X ≤ t] ∩ [X < 1])
=
n∈IN∗
n∈IN∗
n∈IN∗
=[X≤t] car [X≤t]⊂[X<1]
= [X ≤ t]
([D ≤ t] ∩ [Y = n])
([X − Y ≤ t] ∩ [Y = n])
([X − Y ≤ t] ∩ [Y = n])
([X − n ≤ t] ∩ [n ≤ X < n + 1])
= ([X ≤ t])
n∈IN∗
([X ≤ n + t] ∩ [n ≤ X < n + 1])
= ([X ≤ t])
n∈IN∗
([n ≤ X < min (n + t, n + 1)])
= ([X ≤ t])
n∈IN∗
([n ≤ X < n + t])
= ([0 ≤ X ≤ 0 + t])
=
n∈IN
n∈IN∗
([n ≤ X < n + t])
([n ≤ X < n + t])
Conclusion :
∀t ∈ [0, 1[ , [D ≤ t] =
n∈IN
([n ≤ X < n + t])
(c) Nous avons pour tout nombre réel t ∈ [0, 1[ , et pour tout entier naturel n :
P ([n ≤ X ≤ n + t]) = FX (n + t) − FX (n) = 1 − e−(n+t) − 1 − e−n
Conclusion :
∀n ∈ IN, ∀t ∈ [0, 1[ , P ([n ≤ X ≤ n + t]) = e−n (1 − e−t )
(d) Pour tout nombre réel t ∈ [0, 1[ :
FD (t) = P
n∈IN
=
n∈IN
+∞
=
n=0
([n ≤ X < n + t])
P ([([n ≤ X < n + t])]) par σ − additivité de P
e−n 1 − e−t
+∞
=
=
1 − e−t
n=0
n
somme de série géométrique
de raison 1/e tel que |1/e| < 1
1 − e−t
1 − 1/e
∀t ∈ [0, 1[ ,
spicesagros.fr
1
e
P
FD (t) =
1 − e−t
1 − e−1
Christian Skiada
ECE2
EML III 2007 − C
Page 21/68
(e) Faisons le bilan :

0




1 − e−t
FD (t) =

1 − e−1



1
si t < 0
si t ∈ [0, 1[
si t ≥ 1
Nous voyons à ce niveau que :
— FD est continue sur ]−∞, 0[ (fonction nulle) ;
— FD est continue sur [1, +∞[ (fonction constante égale à 1) ;
— FD est continue sur [0, 1[ (composition de t −→ −t : C 0 sur [0, 1[ et exp : C 0 sur R) ;
— D’autre part FD est de classe C 1 sur R sauf peut être en 0 et 1 ce qui fait qu’elle possède
toutes les propriétés requises pour affirmer que D est une variable à densité dont une densité
fD est obtenue par dérivation de FD sur R∗ et nous poserons que :
fD (0) = fD (1) = 0
Cela donne :
fD (x) =
spicesagros.fr


 0


−t
e
1 − e−1
P
si t ∈ ]−∞, 0] ∪ [1, +∞[
si t ∈ ]0, 1[
Christian Skiada
ECE2
14
EML III 2006 P
A−C
Page 22/68
EML III 2006
Partie A
1
.
2
1. Soit U une variable aléatoire à densité suivant une loi normale d’espérance nulle et de variance
(a) C’est une question de cours ! En notant fU une densité de U nous prendrons par exemple :
√
2
2x2
1
= √ exp −x2
∀x ∈ IR, fU (x) = √ exp −
2
π
2π
1
(b) Il est de notoriété publique d’affirmer que V (U ) existe et vaut
et selon le théorème de
2
Huygens-Koenig :
2
V (U ) = E U 2 − (E (U ))
= E U 2 puisque la U est centrée
=
1
√
π
=
2
√
π
+∞
−∞
+∞
+∞
2
√
π
ce qui montre que l’intégrale
0
2 −x2
x e
0
Conclusion :
2
x2 e−x dx par parité de fU
0
Par conséquent :
+∞
2
x2 e−x dx
+∞
2
x2 e−x dx =
1
2
√
π
dx converge et vaut
.
4
2 −x2
x e
0
√
π
dx =
4
(6)
2. C’est parti pour deux points essentiels à vérifier :
— F est continue sur IR− puisque F y coïncide avec la fonction nulle et sur IR∗+ en tant que somme
de telles fonctions. D’autre part lim
F = lim
F = F (0) = 0 et F est continue en 0 donc sur IR
−
+
0
0
finalement.
— F est de classe C 1 sur R− puisque F y coïncide avec la fonction nulle et sur IR∗+ en tant que somme
de telles fonctions. (Il est totalement inutile de perdre votre temps en 0 puisque une fonction de
répartition d’une variable à densité doit être de classe C 1 presque partout).
Conclusion : selon les deux propriétés précédentes nous pouvons affirmer que
F est la fonction de répartition d’une variable à densité
Une densité f est obtenue à partir de F par dérivation sur IR∗ et nous complèterons sa définition
en posant f (0) = 0 ce qui donne :
f (x) =
0
2
2xe−x
si x ∈ IR∗−
si x ∈ IR+
+∞
3. (a) La variable X admet une espérance si et seulement si l’intégrale
xf (x) dx est absolument
−∞
convergente et comme f est identiquement nulle sur IR− , X admet une espérance si et seulement
+∞
2
2x2 e−x dx est convergente, ce qui est le cas puisque nous reconnaissons à
si l’intégrale
0
un coefficient multiplicatif près l’intégrale de l’égalité (6) .
Conclusion : X admet une espérance égale à
√
√
+∞
2 π
π
2 −x2
E (X) =
2x e dx =
=
4
2
0
spicesagros.fr
P
Christian Skiada
ECE2
EML III 2006 P
B−C
Page 23/68
(b) ◮ D’évidence si y < 0, l’événement X 2 ≤ y est impossible
et dans ce cas P X 2 ≤ y = 0.
√
◮ Si maintenant y ≥ 0, puisque l’application x −→ x est une bijection croissante sur IR+ ,
nous avons les équivalences suivantes :
√
√
√
X 2 ≤ y ⇐⇒ (|X| ≤ y) ⇐⇒ (− y ≤ X ≤ y)
et :
P
X2 ≤ y
=
=
=
=
√
√
P ([− y ≤ X ≤ y])
√
√
F ( y) − F (− y)
√
√
F ( y) − 0 puisque − y ≤ 0
1 − e−y
Faisons le bilan :
P
X2 ≤ y
si y ∈ IR∗−
si y ∈ IR+
0
1 − e−y
=
(c) Le résultat précédent, au demeurant culturel, montre clairement que :
X 2 ֒→ ε (1)
Nous avons la célèbre condition nécessaire et suffisante : X admet une variance si et
seulement si X admet un moment d’ordre deux, ce qui est le cas ici puisque X 2 est une
variable exponentielle.
Conclusion : X admet une variance égale, selon le théorème de Huygens-Koenig à
V (X) = E X
2
2
− (E (X)) = 1 −
√
π
2
2
=1−
π
4
Partie B
1. Sans commentaire particulier, puisque c’est du cours :
E (Z) =
1
p
1−p
p2
et V (Z) =
2. (a) Pour commencer signalons que la variable Mn admet une espérance et une variance puisqu’elle
est obtenue à partir d’une somme de n variables admettant chacune une espérance et une
variance en tant que variables géométriques. Par linéarité de l’espérance nous obtenons :
E (Mn ) = m
1 n
=
E (Zk )
n k=1
=
1
n
=
1
p
n
k=1
1
p
Conclusion :
E (Mn ) =
1
p
Par indépendance des variables Z1 , Z2 , ..., Zn nous obtenons que :
V (Mn ) =
spicesagros.fr
P
1
n2
n
V (Zk )
k=1
n
=
1
n2
=
1−p
np2
k=1
1−p
p2
Christian Skiada
ECE2
EML III 2006 P
B−C
Page 24/68
et par définition :
σn =
1
p
1−p
n
(b) Comme les variables aléatoires (Zi )i∈[[1,n]] sont indépendantes et de même loi on parle de
Mn − E (Mn )
variables iid, le théorème de la limite centrée nous affirme que la suite
σ (Mn )
n≥1
converge en loi vers une variable N suivant la loi N (0, 1) . Par conséquent :
∀x ∈ IR,
lim P
n→+∞
Mn − m
≤x
σn
1
= Φ (x) = √
2π
x
e−
x2
2 dx
e−
x2
2 dx
−∞
et finalement :
lim P
n→+∞
spicesagros.fr
0≤
Mn − m
≤1
σn
P
1
= Φ (1) − Φ (0) = √
2π
1
0
Christian Skiada
ECE2
15
EML III 1997 − C
Page 25/68
EML III 1997
1. Comme on effectue une suite finie de N épreuves de Bernoulli indépendantes et de même
1
paramètre ainsi :
6
1
Z ֒→ B N,
6
Autrement dit :
N
n
Z (Ω) = [[0, N ]], ∀n ∈ Z (Ω) , P ([Z = n]) =
1
6
n
5
6
N−n
et d’après le cours :
E (Z) =
N
6
5N
36
et V (Z) =
2. Tout d’abord la loi conditionnelle de X sachant que [Z = n] est la loi binomiale B (n, p), car on
effectue une suite finie de n épreuves de Bernoulli indépendantes et de même paramètre
p (probabilité d’obtenir pile).
P[Z=n] ([X = k]) =





n k
n−k
p (1 − p)
k
si k ∈ [[0, n]]
si k > n
0
3. Comme ∀n ∈ N, P ([Z = n]) = 0, alors selon la formule des probabilités composées, lorsque
0≤k≤n≤N :
P ([X = k] ∩ [Z = n]) = P[Z=n] ([X = k]) P ([Z = n]) =
n k
N
p (1 − p)n−k ×
k
n
5
6
N−n
1
6
n
Si n > N ou k > n :
P ([X = k] ∩ [Z = n]) = 0
car dans ce cas soit P[Z=n] ([X = k]) = 0 soit P ([Z = n]) = 0.
Conclusion :

N−n

 n N pk (1 − p)n−k 5
k
n
6
P ([X = k] ∩ [Z = n]) =


0
1
6
n
si 0 ≤ k ≤ n ≤ N
si k > n ou n > N
4. Nous avons :
N
P ([X = 0]) =
n=0
P ([X = 0] ∩ [Z = n])
d’après la première version de la formule des probabilités totales
N
=
n=0
N
=
n=0
(1 − p)n
N
n
5
6
N
n
5
6
N−n
N−n
1−p
6
1
6
n
selon le 3.
n
Conclusion : par la formule du binôme de Newton
P ([X = 0]) =
avec
6−p
6
N
5
6−p
<
< 1.
6
6
spicesagros.fr
P
Christian Skiada
ECE2
EML III 1997 − C
Page 26/68
5. Sans commentaire particulier, pour tout couple d’entiers naturels (k, n) tel que 0 ≤ k ≤ n ≤ N :
n
k
N
n
n!
N!
×
k! (n − k)! n! (N − n)!
N!
(N − k)!
×
k! (N − k)! (n − k)! (N − n)!
N
N −k
k
n−k
=
=
=
Conclusion :
n
k
∀ (k, n) ∈ IN2 , 0 ≤ k ≤ n ≤ N,
N
n
N −k
n−k
N
k
=
Toujours selon la première version de la formule des probabilités totales pour tout k ∈
[[0, N ]] :
n−1
P ([X = k]) =
n=0
P ([X = k] ∩ [Z = n]) +
N
= 0+
n=k
N
=
n=k
N−k
=
i=0
=
n
k
N
n=k
P ([X = k] ∩ [Z = n])
N k
p (1 − p)n−k
n
N
k
N −k k
p (1 − p)n−k
n−k
N
k
N −k k
p (1 − p)i
i
N k p
p
k
6
k N−k
i=0
N −k
i
N−n
5
6
5
6
5
6
N−n
i
5
6
selon le 3.
1
6
(N−k)−i
1−p
6
n
1
6
1
6
n
posons i = n − k
i+k
(N−k)−i
Conclusion :
∀k ∈ [[0, N ]], P ([X = k]) =
selon la formule du binôme de Newton, avec
6. (a) ◮ Déterminons la loi de X.
∀k ∈ [[0, N ]], P ([X = k]) =
N k p
p
k
6
k
6−p
6
N−k
1−p+5+p
= 1.
6
N k p
p
k
6
k
6−p
6
N−k
et X ֒→ B N,
p
6
◮ Déterminons la loi de Y.
Comme X et Y jouent un rôle symétrique (on remplace pile par face) alors :
Y ֒→ B N,
1−p
6
7. Comme P ([X = N] ∩ [Y = N ]) = 0 alors que P ([X = N ]) P ([Y = N ]) = 0 ceci est un contreexemple montrons que :
X et Y sont non indépendantes
Déterminons la loi du couple (X, Y ).
Nous avons :
X (Ω) = Y (Ω) = [[0, N]]
et :
2
∀ (i, j) ∈ ([[0, N ]]) , P ([X = i] ∩ [Y = j]) =
spicesagros.fr
P
P ([Z = i + j] ∩ [X = i]) si 0 ≤ i + j ≤ N
0
sinon
Christian Skiada
ECE2
EML III 1997 − C
Page 27/68
Conclusion : pour tout couple (i, j) ∈ ([[0, N ]])2 :
P ([X = i] ∩ [Y = j]) =
spicesagros.fr





N
i+j
i+j i
j
p (1 − p)
i
5
6
N−(i+j)
1
6
i+j
si 0 ≤ i + j ≤ N
sinon
0
P
Christian Skiada
ECE2
16
ESCP III 2003 − C
Page 28/68
ESCP III 2003
1. (a) La suite (vn )n≥1 appartient à A si et seulement si :
∀n ∈ IN∗ , s (α (n + 1) + β) = (s − 1) (αn + β) + b + n
soit encore :
∀n ∈ IN∗ , n (α − 1) + sα + β − b = 0
En particulier pour n = 1 et n = 2 nous obtenons le système :
(α − 1) + sα + β − b = 0
2 (α − 1) + sα + β − b = 0
α (1 + s) + β = b
α (2 + s) + β = b + 2
⇐⇒
α=1
β =b−s
⇐⇒
(b) Pour tout entier naturel non nul n, les deux égalités suivantes sont vérifiées :
s xn+1 = (s − 1) xn + b + n
s vn+1 = (s − 1) vn + b + n
En retranchant membre à membre les deux égalités, on obtient s yn+1 = (s − 1) yn ou encore,
puisque s = 0 :
s−1
yn+1 =
yn
s
La suite (yn )n≥1 est donc géométrique de raison
et, d’après le cours :
s−1
, de premier terme y1 , égal à x1 −1−b+s
s
∀n ≥ 1, yn = (x1 − 1 − b + s)
s−1
s
n−1
soit par la relation liant xn à yn nous avons finalement :
∀n ≥ 1, xn = n + b − s + (x1 − 1 − b + s)
s−1
s
n−1
(7)
2. (a) En prenant au départ pour Ω l’ensemble des boules en jeu muni de la probabilité uniforme puisque les boules sont tirées au hasard, nous pouvons utiliser l’identité de Laplace
pour calculer P(B1 ) en calculant le rapport entre le nombre de boules favorables sur le nombre
total de boules, ce qui donne :
b
P(B1 ) =
s
La variable X1 est une variable de Bernoulli égale à 1 si et seulement si l’événement B1 ,
par conséquent :
b
u1 = E (X1 ) =
s
(b) Utilisons la formule des probabilités totales sachant que les événements B1 et B1 constituent un système complet d’événéments :
P(B2 ) = PB1 (B2 )P(B1 ) + PB1 (B2 )P(B1 )
2
=
=
spicesagros.fr
a
b
+
s
s
a (1 + b) + b2
s2
P
b+1
s
en respectant les modalités du tirage
(8)
Christian Skiada
ECE2
ESCP III 2003 − C
Page 29/68
Faisons apparaître u1 maintenant.
b + 1 − u1
s
=
=
=
=
b+1−
b
s
s
1
(s − b + bs)
s2
1
(a + b − b + b (a + b))
s2
1
(a + b (a + b))
s2
a (1 + b) + b2
s2
(9)
Conclusion : selon (8) et (9)
P(B2 ) =
b + 1 − u1
s
(c) Soit n un entier naturel vérifiant 1 ≤ n ≤ a.
Si l’événement [Xn = k] est réalisé, la composition de l’urne avant le (n + 1) − ème tirage est
de b + n − k boules blanches et de a + k − n boules noires. Par le même raisonnement qu’ au
2.a. nous obtenons :
∀n ∈ [[1, a]], ∀k ∈ [[0, n]], P[Xn =k] (Bn+1 ) =
b+n−k
s
Par la formule des probabilités totales, la famille événementielle ([Xn = k])k∈[[0,n]] constituant un système complet d’événements de probabilités à priori non nulles, il vient :
n
P (Bn+1 ) =
k=0
n
=
k=0
=
P[Xn =k] (Bn+1 ) P ([Xn = k])
b+n−k
s
b+n
s
P ([Xn = k])
n
k=0
P ([Xn = k]) −
1
s
n
kP ([Xn = k]) par linéarité de la somme
k=0
=1
=
=
b+n
1
− E ([Xn ])
s
s
b + n − un
s
Conclusion :
∀n ∈ [[1, a]], P(Bn+1 ) =
b + n − un
s
(10)
(d) Soit n un entier naturel vérifiant n > a.
— Si k est un entier de l’intervalle [[0, n − a − 1]], n − k ≥ a + 1 et il impossible d’avoir tiré
n − k boules noires au cours des n premiers tirages, il s’en suit que :
L’événement [Xn = k] est impossible et Xn (Ω) ⊂ [[n − a, n]]
— Si k est un entier de l’intervalle [[n−a, n]], le même raisonnement qu’à la question précédente
conduit aussi au résultat :
∀n > a, ∀k ∈ [[n − a, n]], P[Xn =k] (Bn+1 ) =
spicesagros.fr
P
b+n−k
s
Christian Skiada
ECE2
ESCP III 2003 − C
Page 30/68
— Toujours selon la formule des probabilités totales, avec le même système complet d’événements :
n
P (Bn+1 ) =
P[Xn =k]
k=0
n−a−1
=
n
P[Xn =k] (Bn+1 ) P ([Xn = k]) +
k=0
=0
n
=
k=n−a
b+n
s
=
(Bn+1 ) P ([Xn = k])
b+n−k
s
P[Xn =k] (Bn+1 ) P ([Xn = k])
P ([Xn = k])
n
k=n−a
k=n−a
P ([Xn = k]) −
1
s
n
kP ([Xn = k]) en développant
k=n−a
=1
=E(X)
Conclusion :
∀n > a, P(Bn+1 ) =
b + n − un
s
(11)
Conclusion : selon (10) et (11)
∀n ∈ IN∗ , P(Bn+1 ) =
b + n − un
s
(12)
3. (a) Selon la formule des probabilités totales associée au système complet d’événements
Bn+1 , Bn+1 nous avons pour tout entier naturel k ∈ [[n + 1 − a, n]] :
P ([Xn+1 = k]) = P([Xn+1 = k] ∩ Bn+1 ) + P([Xn+1 = k] ∩ Bn+1 )
= P([Xn = k − 1] ∩ Bn+1 ) + P([Xn = k] ∩ Bn+1 )
= P[Xn =k−1] (Bn+1 )P([Xn = k − 1]) + P[Xn =k] (Bn+1 )P([Xn = k])
Et en raisonnons de la même façon qu’au 2.c :
P ([Xn+1 = k]) =
a−n+k
s
P([Xn = k]) +
b+n−k+1
s
P([Xn = k − 1])
(13)
— Pour k = n + 1 :
P ([Xn+1 = n + 1]) = P (B1 ∩ B2 ∩ . . . ∩ Bn+1 ) =
n
b
s
n+1
b
s
P ([Xn = n + 1]) = 0
P ([Xn = n]) =
et l’égalité (13) est vérifiée.
— Pour k = n − a :
P ([Xn+1 = n − a]) = 0
P ([Xn = n − a − 1]) = 0 d’après 2.d
a−n+k =0
et l’égalité (13) est vérifiée.
— Pour k ∈ [[1, n − a − 1]] :
[Xn+1 = k] = ∅
[Xn = k − 1] = ∅
[Xn = k] = ∅
et l’égalité (13) est vérifiée.
spicesagros.fr
P
Christian Skiada
ECE2
ESCP III 2003 − C
Page 31/68
(b) Soit n un entier naturel non nul. D’après le résultat précédent :
n+1
sun+1
= s
kP ([Xn+1 = k])
k=0
n+1
= s
kP ([Xn+1 = k])
k=1
n+1
= s
a−n+k
s
k
k=1
n+1
=
k=0
n
=
k=0
k (a − n + k ) P([Xn = k]) +
k (a − n + k ) P([Xn = k]) +
= (a − n)
b+n−k+1
s
P([Xn = k]) +
n
n
k=1
n
k=0
selon (13)
k (b + n − k + 1) P([Xn = k − 1]) par linéarité de
(k + 1) (b + n − k) P([Xn = k]) car P([Xn = n + 1]) = 0
k2 P ([Xn = k])
k P ([Xn = k]) +
k=0
n+1
P([Xn = k − 1])
k=0
n
+ (b + n)
k=0
k P ([Xn = k]) −
n
+ (b + n)
k=0
Xn2
= (a − n) E (Xn ) + E
= (s − 1) E (Xn ) + b + n
n
k2 P ([Xn = k])
k=0
P ([Xn = k]) −
n
k P ([Xn = k])
k=0
+ (b + n) E (Xn ) − E Xn2 + b + n − E (Xn )
Conclusion :
∀n ∈ N∗ , sun+1 = (s − 1) un + b + n
La “boucle est bouclée” et la suite (un )n∈IN∗ appartient à l’ensemble A.
(c) En reprenant le résultat (7) , pour tout entier naturel non nul,
un = n + b − s + (u1 − 1 − b + s)
s−1
s
n−1
Conclusion :
∀n ≥ 1, un = n + b − s +
b
−1−b+s
s
∀n ≥ 1, P (Bn+1 ) = 1 −
b
−1−b+s
s
s−1
s
n−1
et selon (12) :
(s − 1)n−1
sn
(d) Puisque s est supérieur à deux, on a :
lim
n→+∞
s−1
s
n−1
=0
Par conséquent :
lim un = +∞ et
n→+∞
spicesagros.fr
P
lim P (Bn+1 ) = 1
n→+∞
Christian Skiada
ECE2
17
ESCP III 2001 − C
Page 32/68
ESCP III 2001
Préliminaire. Je vous laisse faire la récurrence comme des grands !
1. Comme les tirages sont caractérisés, par exemple, par l’emplacement des boules blanches puisque
toutes les boules sont tirées, autrement dit l’univers est l’ensemble des dispositions possibles telles
que deux cases parmi les N sont occupées par les deux boules noires les autres étant occupées par
les blanches. Alors Ω est un ensemble fini donc d’après le cours nous pourrons prendre A = P (Ω)
et comme les boules sont tirées au hasard, l’univers sera de la probabilité uniforme P.
N
1. Comme Card (Ω) = Card (P2 ([[1, N ]])) nous avons Card (Ω) =
.
2
— (X1 , X2 ) (Ω) = (i1 , i2 ) ∈ [[1, N ]]2 | i1 < i2 .
— [X1 = i] ∩ [X2 = j] = (i1 , i2 ) ∈ [[1, N ]]2 | i1 = i, i2 = j .
Par conséquent Card ([X1 = i] ∩ [X2 = j]) = 1.
Conclusion :

0
si (i, j) ∈ (X1 , X2 ) (Ω)




1
2
P ([X1 = i] ∩ [X2 = j]) =
si (i, j) ∈ (X1 , X2 ) (Ω)
=

N
N (N − 1)



2
2. Par théorème :
— Loi de X 1 .
Pour tout i ∈ [[1, N − 1]],
N
P ([X1 = i] ∩ [X2 = j])
P ([X1 = i]) =
j=2
N
= 0+
j=i+1
P ([X1 = i] ∩ [X2 = j])
N
=
2
N
(N
− 1)
j=i+1
=
2 (N − (i + 1) + 1)
N (N − 1)
Conclusion :
∀i ∈ [[1, N − 1]],
P ([X1 = i]) =
2 (N − i)
N (N − 1)
— Loi de X 2 .
Pour tout j ∈ [[2, N ]],
N−1
P ([X2 = j]) =
i=1
j−1
=
i=1
j−1
=
i=1
P ([X1 = i] ∩ [X2 = j])
P ([X1 = i] ∩ [X2 = j]) + 0
2
N (N − 1)
Conclusion :
∀j ∈ [[2, N]],
P ([X2 = j]) =
2 (j − 1)
N (N − 1)
Puisque P ([X1 = 2] ∩ [X2 = 1]) = 0 alors que P ([X1 = 2]) P ([X2 = 1]) = 0,
Les deux varibles sont dépendantes
spicesagros.fr
P
Christian Skiada
ECE2
ESCP III 2001 − C
Page 33/68
4. (a) Tout d’abord :
(N + 1 − X2 ) (Ω) = X1 (Ω)
car X2 (Ω) = [[2, N ]] donc −X2 (Ω) = [[−N, −2]] et cela entraîne que :
(N + 1 − X2 ) (Ω) = [[1, N − 1]] = X1 (Ω)
Pour tout entier naturel k ∈ [[1, N − 1]],
P ([N + 1 − X2 = k]) = P ([X2 = N + 1 − k])
2 (N + 1 − k − 1)
=
N (N − 1)
2 (N − k)
=
N (N − 1)
= P ([X1 = k])
Conclusion :
L (N + 1 − X2 ) = L (X1 )
(b) Déterminons la loi de (X2 − X1 )
Tout d’abord (X2 − X1 ) (Ω) = [[1, N − 1]]. D’autre part pour tout entier naturel k ∈ [[1, N − 1]],
P ([X2 − X1 = k]) =
1≤i≤N−1
2≤k+i≤N
P ([X2 = k + i] ∩ [X1 = i])
or nous avons les équivalences successives suivantes :
1 ≤i≤N −1
2 ≤k+i≤N
1 ≤i≤N −1
2−k ≤i≤N −k
⇐⇒ (max (1, 2 − k) ≤ i ≤ min (N − 1, N − k))
⇐⇒ (1 ≤ i ≤ N − k)
⇐⇒
et pour tout entier naturel k ∈ [[1, N − 1]],
P ([X2 − X1 = k]) =
1≤i≤N−k
P ([X2 = k + i] ∩ [X1 = i])
1≤i≤N−k
2
N (N − 1)
=
2 (N − k)
N (N − 1)
= P ([X1 = k])
=
Conclusion :
L
(X2 − X1 ) = X1
5. (a) Comme (X2 − X1 ) et X1 suivent la même loi, par suite E (X2 − X1 ) = E (X1 ) (aucun problème d’existence par finitude des variables) et par linéarité de l’espérance :
ou encore :
E (X2 ) − E (X1 ) = E (X1 )
1
E (X1 ) = E (X2 )
(14)
2
D’autre part l’égalité en loi (N + 1 − X2 ) = X1 entraîne que E (N + 1 − X2 ) = E (X1 ) et par
propriété élémentaire de l’espérance :
Selon (14) et (15) :
N + 1 − E (X2 ) = E (X1 )
E (X1 ) =
spicesagros.fr
N +1
3
P
et E (X2 ) =
(15)
2 (N + 1)
3
Christian Skiada
ECE2
ESCP III 2001 − C
Page 34/68
(b) L’égalité en loi (N + 1 − X2 ) = X1 entraîne l’égalité des variances V (N + 1 − X2 ) = V (X1 )
(qui existent toujours par finitude des variables) d’où :
V (X2 ) = V (X1 )
(c) Nous avons :
V (X2 − X1 ) = V (X1 ) + V (X2 ) − 2 Cov (X1 , X2 )
L
et comme (X2 − X1 ) = X1 , l’égalité précédente donne :
V (X1 ) = V (X1 ) + V (X2 ) − 2 Cov (X1 , X2 )
soit :
−2 Cov (X1 , X2 ) = −V (X2 )
ou encore :
2 Cov (X1 , X2 ) = V (X1 )
car :
V (X2 ) = V (X1 )
6. Comme X1 est une variable finie, elle une variance égale à :
V (X1 ) = E X12 − (E (X1 ))2
avec :
N−1
E X12
=
k2 P ([X1 = k])
k=1
N−1
k2
=
k=1
2 (N − k)
N (N − 1)
N−1
=
2
N (N − 1)
=
2
N (N − 1)
N
2
N (N − 1)
N
=
=
k=1
k2 (N − k)
N−1
k=1
k2 −
N−1
k3
par linéarité de
k=1
(N − 1) N (2N − 1) N 2 (N − 1)2
−
6
4
1
(N + 1) N
6
De plus :
V (X1 ) =
1
(N + 1) N −
6
N +1
3
2
=
1
(N + 1) (N − 2) = V (X2 )
18
enfin :
Cov (X1 , X2 ) =
(N + 1) (N − 2)
36
7. (a) Comme l’événement D est réalisé si et seulement si A = B nous avons donc :
P (D) = P (A = B)
= 1 − P (A = B)
= 1−
= 1−
N
i=1
N
spicesagros.fr
P ([A = i]) P ([B = i]) par indépendance de A et B
i=1
N
= 1−
P ([A = i] ∩ [B = i])
i=1
1
N2
P
Christian Skiada
ECE2
ESCP III 2001 − C
Page 35/68
N
N2
1
= 1−
N
= 1−
Conclusion :
P (D) =
N −1
N
(b) Commençons par signaler que P (D) = 0, par conséquent la probabilité conditionnelle est bien
définie. Par définition :
PD ([Y1 = i, Y2 = j]) =
=
Conclusion :
P ([Y1 = i, Y2 = j] ∩ D)
P (D)


 0
P (([A = i, B = j] [B = i, A = j]) ∩ D)

si i < j

P (D)

si i ≥ j

 0
=
P (([A = i, B = j] [A = j, B = i]))

si i < j

P (D)
car [A = i, B = j] [A = j, B = i] ⊂ D

si i ≥ j

 0
=
P ([A = i, B = j]) + P ([A = j, B = i])

si i < j

P (D)
par σ − additivité de P

si i ≥ j
 0
=
 2 × N
si i < j
N2 N − 1
2
∀ (i, j) ∈ [[1, N ]] , PD ([Y1 = i, Y2 = j]) =
spicesagros.fr
si i ≥ j
P


 0


2
N (N − 1)
si i ≥ j
si i < j
Christian Skiada
ECE2
18
ESCP III 1999 − C
Page 36/68
ESCP III 1999
1. Pour tout entier naturel non nul la variable Zn est bernoullienne en tant que produit de telles
variables avec par indépendance de Xn et Yn :
Conclusion :
P ([Zn = 1]) = P ([Xn = 1] ∩ [Yn = 1]) = P ([Xn = 1]) P ([Yn = 1])
P ([Zn = 1]) = pp′
La covariance du couple (Xn , Zn ) existe car les deux variables en jeu admettent chacune un moment
d’ordre deux en tant que variables bernoulliennes. Par théorème :
Cov (Xn , Zn ) = E (Xn Zn ) − E (Xn ) E (Zn )
= E Xn2 Yn − E (Xn ) E (Zn )
et comme toutes les variables sont bernoulliennes
= P Xn2 = 1 ∩ [Yn = 1] − P ([Xn = 1]) P ([Zn = 1])
= P ([Xn = 1] ∩ [Yn = 1]) − p × pp′
= P ([Xn = 1]) P ([Yn = 1]) − p × pp′ par indépendance de Xn et Yn
= pp′ − p2 p′
Concluion :
∀n ∈ IN∗ , Cov (Xn , Zn ) = pp′ (1 − p)
Comme la covariance du couple (Xn , Zn ) n’est pas nulle,
Les deux variables Xn et Zn ne sont pas indépendantes
(C’est la contraposée de l’implication : (Xn , Zn ) indépendantes implique que Cov (Xn , Zn ) = 0).
2. (a) Sans commentaire particulier, nous avons pour tout entier naturel non nul :
n−1
An =
k=1
[Zk = 0] ∩ [Zn = 1]
Par suite, pour tout entier naturel non nul n :
n−1
P (An ) = P
k=1
n−1
=
k=1
n−1
=
k=1
[Zk = 0] ∩ [Zn = 1]
P ([Zk = 0]) P ([Zn = 1]) par indépendance des variables Zk
(1 − pp′ ) × pp′
Conclusion :
∀n ∈ IN∗ , P (An ) = (1 − pp′ )n pp′
(b) Puisque |1 − pp′ | < 1,
(16)
n
lim P (An ) = lim (1 − pp′ ) pp′ = 0
n→+∞
n→+∞
et comme pour tout entier naturel non nul n, P An = 1 − P (An ) , lim P An = 1, alors :
n→+∞
On finira presque sûrement par détecter un objet défectueux
3. (a) Soit n ≥ 2, pour tout entier k de [[1, n − 1]] :
P ([Xk = 1] ∩ An ) = P([Z1 = 0] ∩ . . . ∩ [Zk−1 = 0] ∩ [Xk = 1] ∩ [Yk = 0]
∩ [Zk+1 = 0] ∩ . . . ∩ [Zn−1 = 0] ∩ [Zn = 1])
k−1
=
j=1
P ([Zj = 0]) × P ([Xk = 1]) × P ([Yk = 0])
×
spicesagros.fr
P
n−1
l=k+1
P ([Zl = 0]) × P ([Zn = 1])
Christian Skiada
ECE2
ESCP III 1999 − C
Page 37/68
selon toutes les hypothèses d’indépendance faites par l’énoncé entre les variables Xk et Yk
et d’autre part entre les variables (Zj ) j∈[[1,n]] .
j=k
Conclusion :
n−2
∀k ∈ [[1, n − 1]], P ([Xk = 1] ∩ An ) = (1 − pp′ )
× pp′ × (p − pp′ )
(17)
Par la formule des probabilités composées, sachant que la probabilité P ([Xk = 1]) est non
nulle pour tout entier k de [[1, n − 1]] :
P ([Xk = 1] ∩ [Zk = 0]) =
=
=
=
P[Xk =1] P ([Zk = 0]) P ([Xk = 1])
P[Xk =1] P ([Xk Yk = 0]) P ([Xk = 1])
P[Xk =1] P ([Yk = 0]) P ([Xk = 1])
P ([Yk = 0]) P ([Xk = 1]) par indépendance de Xk et Yk
Conclusion :
∀k ∈ [[1, n − 1]], P ([Xk = 1] ∩ [Zk = 0]) = (1 − p′ ) p
(18)
Enfin, avant de commencer, signalons que les probabilités P (An ) et P (Bk ) pour k ∈ [[1, n − 1]]
sont non nulles et par définition d’une probabilté conditionnelle :
PAn ([Xk = 1]) =
=
=
=
P ([Xk = 1] ∩ An )
P (An )
(1 − pp′ )n−2 × pp′ × (p − pp′ )
selon (17) et (16) :
(1 − pp′ )n pp′
p − pp′
1 − pp′
(1 − p′ ) p
1 − pp′
(19)
D’autre part pour tout entier k ∈ [[1, n − 1]] :
PBk ([Xk = 1]) =
=
=
P ([Xk = 1] ∩ Bk )
P (Bk )
P ([Xk = 1] ∩ [Zk = 0])
P ([Zk = 0])
(1 − p′ ) p
selon (18)
1 − pp′
(20)
Conclusion : selon (19) et (20) ,
∀k ∈ [[1, n − 1]], ∀n ≥ 2, PAn ([Xk = 1]) = PBk ([Xk = 1]) =
p − pp′
1 − pp′
(b) Par définition d’une probabilité conditionnelle, avec P (An ) = 0 nous avons :
PAn ([X1 = x1 ] , . . . , [Xn−1 = xn−1 ]) =
=
P ([X1 = x1 ] , . . . , [Xn−1 = xn−1 ] , An )
P (An )
P ([X1 = x1 ] , ., [Xn−1 = xn−1 ] , [Z1 = 0] , ., [Zn−1 = 0] , [Zn = 1])
P (An )
Pour fixer les idées supposons qu’il y ait k réels xi égaux à 1 et par conséquent (n − 1) − k
égaux à 0, et pour augmenter le confort des écritures sans que cela soit réducteur, puisque
toutes les variables Xi jouent le même rôle, supposons que pour tout entier i ∈ [[1, k]], xi = 1,
spicesagros.fr
P
Christian Skiada
ECE2
ESCP III 1999 − C
Page 38/68
alors :
PAn ([X1 = 1] , . . . , [Xn−1 = xn−1 ])
=
1
P([X1 = x1 , Y1 = 0] , . . . , [Xk = 1, Yk = 0] ,
P (An )
[Xk+1 = 0] , . . . , [Xn−1 = 0]
, [Zn = 1])
Les var. Zj p our j∈[[k+1,n−1]] car elles
p euvent prendre n’importe qu’elles valeurs
=
k
k
1
P ([Xi = 1]) ×
P ([Yj = 0])
P (An ) i=1
j=1
×
n−1
l=k+1
P ([Xl = 0]) × P ([Zn = 1])
k
=
n−k−1
pk (1 − p′ ) (1 − p)
pp′ (1 − pp′ )n−1
=
pk (1 − p′ )k (1 − p)n−k−1
=
(p − pp′ )k (1 − p)n−k−1
=
pp′
(1 − pp′ )n−1
(1 − pp′ )n−1
(p − pp′ )k (1 − p)n−k−1
(1 − pp′ )k (1 − pp′ )n−k−1
=
k
p − pp′
1 − pp′
=
i=1
k
1−p
1 − pp′
PAn ([Xi = 1]) ×
n−k−1
n−1
PAn ([Xl = 0])
l=k+1
puisque :
∀k ∈ [[1, n − 1]], PAn ([Xk = 0]) = 1 − PAn ([Xk = 1]) = 1 −
p − pp′
1−p
=
′
1 − pp
1 − pp′
Je vous laisse le soin d’examiner, seuls, les deux cas extrêmes, à savoir PAn ([X1 = 0] , . . . , [Xn−1 = 0])
et PAn ([X1 = 1] , . . . , [Xn−1 = 1]) qui donnent respectivement
n−1
PAn ([Xi = 0]) et
i=1
n−1
PAn ([Xi = 1]) .
i=1
(c) L’événement [Sn = m] est réalisé si et seulement si il y a m objets parmi les n − 1 premiers qui
sont défectueux. Le conditionnement de la probabilité voulant traduire le fait que ces n − 1
n−1
premiers objets sont non contrôlés. Il y a
façons de choisir les m variables Xi dont
m
la réalisation vaut 1. Ainsi pour calculer la probabilité conditionnelle PAn ([Sn = m]) il suffit
de reprendre le résultat de la question précédente avec k = m, et de multiplier celui-ci par
n−1
qui est le nombre de situations équivalentes donnant m événements [Xi = 1] parmi
m
les n − 1 possibles et n − 1 − m événements [Xj = 0] .
Conclusion :
∀m ∈ [[0, n − 1]], PAn ([Sn = m]) =
n−1
m
et
p − pp′
1 − pp′
m
1−p
1 − pp′
n−m−1
La loi conditionnelle de Sn sachant An est la loi binomiale de paramètres n − 1 et
p − pp′
1 − pp′
(d) Selon la question précédente :
EAn (Sn ) = (n − 1)
spicesagros.fr
P
p − pp′
1 − pp′
Christian Skiada
ECE2
19
ESCP III 1998 − C
Page 39/68
ESCP III 1998
1. (a) C’est une question de cours qui ne doit pas vous poser le moindre problème, à savoir (a = 0
et b = 1) :
1
1
et V (Z) =
E (Z) =
2
12
(b) La variable Yn admet une espérance car elle est obtenue par transformation affine à partir
de la variable Xn qui en admet une. Par propriété élémentaire de E :
1
E(Xn )
n
Or, si l’on pose Wn = Xn + 1 alors il est de notoriété publique que Wn suit la loi uniforme
sur l’intervalle d’entiers [[1, n]] (en effet toute transformation affine appliquée à une
variable uniforme redonne une variable uniforme, ce résultat est valable en discret
comme en continu). Par conséquent :
∀n ≥ 1, E(Yn ) =
E(Wn ) =
n+1
2
entraîne que :
n−1
2
∀n ≥ 1, E(Xn ) = E(Wn ) − 1 =
et :
∀n ≥ 1, E(Yn ) =
n−1
2n
De même par propriété de V pour tout entier naturel n non nul :
V(Yn ) =
1
1
V(Xn ) = 2 V(Wn )
2
n
n
Conclusion :
∀n ≥ 1, V(Yn ) =
n2 − 1
12n2
Comme :
n−1
1
n2 − 1
1
=
et
lim
=
n→+∞ 2n
n→+∞ 12n2
2
12
(toute fraction rationnelle étant équivalente en l’infini au rapport de ses termes de plus haut
degré) lim E(Yn ) et lim V(Yn ) existent et sont finies, égales respectivement à :
lim
n→+∞
n→+∞
lim E(Yn ) =
n→+∞
1
2
et
lim V(Yn ) =
n→+∞
1
12
(c) Par le théorème de transfert, nous avons :
E (f (Yn )) =
f (y) P ([Y = y])
y∈Y (Ω)
n−1
=
k
P
n
f
k=0
n−1
=
1
n
f
k=0
k
n
Y =
k
n
1
−→
f (t) dt
n→∞
(21)
0
pour f continue sur [0, 1] (somme de Riemann)
D’autre part, toujours par le théorème de transfert (hypothèses 2008 : f continue presque
partout et intégrale absolument convergente, hypothèses 19982 : f est de classe C 1 et strictement monotone) :
+∞
−∞
2 Les
1
f (t) u (t) dt =
E (f (Z)) =
f (t) dt
(22)
0
programmes ont changé, les hypothèses aussi !
spicesagros.fr
P
Christian Skiada
ECE2
ESCP III 1998 − C
Page 40/68
Conclusion : selon (21) et (22)
lim E (f (Yn )) = E (f (Z))
n→+∞
2. (a) Cette question doit être parfaitement maitrisée sinon j’entame une grève de la faim ! Elle se
résoud en utilisant le théorème d’existence d’une limite par encadrement puisque vous devez
savoir que :
∀x ∈ R, ∀n ∈ IN∗ , −1 + nx < ⌊nx⌋ ≤ nx
donc en divisant tous les membres de l’inégalité par n > 0 nous obtenons que :
∀x ∈ R, ∀n ∈ IN∗ , −
avec :
lim −
n→+∞
1
⌊nx⌋
+x<
≤x
n
n
1
+ x = lim x = x
n→+∞
n
⌊nx⌋
est donc encadrée par deux suites convergentes vers la
n
n∈IN∗
même limite, ce qui permet de dire, d’après le théorème d’encadrement, que
Conclusion : la suite
⌊nx⌋
=x
n→+∞ n
(23)
lim
(b) Rappelons encore que :
∀x ∈ IR, ⌊x⌋ ≤ x < ⌊x⌋ + 1
Déterminons le nombre d’entiers k vérifiant na < k ≤ nb. En utilisant la définition de la
partie entière d’un réel, nous pouvons écrire sans peine que :
⌊na⌋ ≤ na < k ≤ nb < ⌊nb⌋ + 1
d’où, puisque k est un entier naturel :
⌊na⌋ + 1 ≤ k ≤ ⌊nb⌋
Conclusion :
In (a, b) = ⌊nb⌋ − (⌊na⌋ + 1) + 1
soit :
∀n ≥ 1, ∀ (a, b) ∈ IR2 , 0 ≤ a ≤ b ≤ 1, In (a, b) = ⌊nb⌋ − ⌊na⌋
(c) Pour tout entier naturel n non nul et pour tout couple de réels (a, b) ∈ R2 tel que 0 ≤ a ≤ b ≤ 1
nous avons :
P ([a < Yn ≤ b]) = P ({ω ∈ Ω | a < Yn (ω) ≤ b})
Xn (ω)
= P
ω∈Ω|a<
≤b
n
In (a, b)
=
n
Comme selon (23) :
lim
n→+∞
In (a, b)
n
=
lim
n→+∞
⌊nb⌋ ⌊na⌋
−
n
n
= b−a
b
=
1dt
a
= P ([a < Z ≤ b])
Nous pouvons donc conclure que :
∀ (a, b) ∈ IR2 , 0 ≤ a ≤ b ≤ 1,
spicesagros.fr
P
lim P(a < Yn ≤ b) = P(a < Z ≤ b)
n→+∞
Christian Skiada
ECE2
ESCP III 1998 − C
Page 41/68
3. (a) Je rappelle que démontrer que Zn et Yn ont même loi de probabilité il vous faut montrer que :
— Zn (Ω) = Yn (Ω) ;
— ∀k ∈ Zn (Ω) = Yn (Ω) , P ([Zn = k]) = P ([Yn = k]) .
Allons-y doucement ! Nous avons : Z (Ω) = [0, 1] donc (n Z) (Ω) = [0, n] ce qui entraîne que
⌊n Z⌋ (Ω) = [0, n] ∩ IN soit ⌊n Z⌋ (Ω) = [[0, n]], d’où :
∀n ∈ IN∗ , Zn (Ω) =
⌊n Z⌋
(Ω) =
n
k
| k ∈ [[0, n]]
n
(24)
= Yn (Ω)
Enfin pour tout entier naturel k ∈ [[0, n − 1]],
P
Zn =
k
n
k
k+1
≤Z<
n
n
k+1
k
FZ
− FZ
n
n
k+1 k
−
n
n
1
n
k
P Yn =
n
= P
=
=
=
=
car n > 0
(25)
et :
P ([Zn = 1]) = P ([n ≤ nZn < n + 1])
1
= P 1 ≤ Zn < 1 +
n
1/n
0 dt
=
1
(26)
= 0
Conclusion : selon (24) , (25) et (26) ,
Les variables Zn et Yn suivent la même loi
(b) Notons FDn la fonction de répartition de Dn définie pour tout réel x par :
Nous avons :
FDn (x) = P ([Dn ≤ x]) = P ([Z − Zn ≤ x]) par définition de Dn
donc :
nz − 1 < ⌊nz⌋ ≤ nz
0≤z−
ce qui assure que :
et
z−
1
⌊nz⌋
<
≤z
n
n
⌊nz⌋
1
<
n
n
(Z − Zn ) (Ω) = Dn (Ω) = 0,
1
n
Par conséquent :
— Si x < 0 : FDn (x) = 0 ;
1
— Si x > : FDn (x) = 1 ;
n
1
— Si x ∈ 0,
:
n
FDn (x) = P ([Z − Zn ≤ x])
⌊nZ⌋
≤x
= P Z−
n
⌊nZ⌋
= P Z−
≤x ∩
n
spicesagros.fr
P
n−1
[⌊nZ⌋ = k]
k=0
Christian Skiada
ECE2
ESCP III 1998 − C
Page 42/68
car ([⌊nZ⌋ = k])k∈[[0,n−1]] est un système complet
n−1
⌊nZ⌋
≤ x ∩ [⌊nZ⌋ = k]
n
k=0
par distributivité de ∩ sur ∪
Z−
= P
n−1
=
Z−
P
k=0
⌊nZ⌋
≤ x ∩ [⌊n Z⌋ = k]
n
par σ − additivité de P
n−1
=
P
Z ≤x+
k
∩ [⌊nZ⌋ = k]
n
P
Z ≤x+
k
∩ [k ≤ nZ < k + 1]
n
P
Z ≤x+
k
k
k
∩
≤Z < +1
n
n
n
k=0
n−1
=
k=0
n−1
=
k=0
n−1
=
k
k
≤Z ≤x+
n
n
P
k=0
n−1
=
k=0
n−1
k
x+ n
k
n
x+
=
k=0
car x <
1
n
dt
k
k
−
n n
= nx
Conclusion :

0
si x < 0






1
nx si x ∈ 0,
FDn (x) =
n




1

 1
si x ≥
n
A ce niveau-là on constate que la fonction de répartition FDn vérifie les propriétés de classe
(que vous devez constatez par vous-même rigoureusement) ce qui permet de dire que la
variable Dn est une variable à densité dont une densité fDn est obtenue par dérivation de
1
FDn sur IR∗ −
et nous complèterons la définition de fDn en posant par exemple :
n
1
n
fDn (0) = fDn
ce qui donne :


 n si x ∈ 0, 1
n
fDn (x) =


0 sinon
Dn ֒→ U
spicesagros.fr
=0
P
0,
1
n
Christian Skiada
ECE2
ESCP III 1998 − C
Page 43/68
(c) Pour un entier k tel que 0 ≤ k ≤ n − 1 et un réel y tel que 0 < y <
Zn =
k
∩ [Dn ≤ y] =
n
1
,
n
k
∩ [Z − Zn ≤ y]
n
k
k
=
Zn =
∩ Z ≤y+
n
n
⌊n Z⌋
k
k
=
∩ Z ≤y+
=
n
n
n
k
= [⌊n Z⌋ = k] ∩ Z ≤ y +
n
Zn =
= [k ≤ n Z < k + 1] ∩ Z ≤ y +
=
=
=
k
k
1
k
≤ Z< +
∩ Z ≤y+
n
n n
n
k
k
1
k
≤ Z < min
+ ,y +
n
n n
n
k
k
1
≤ Z < + y puisque 0 ≤ y ≤
n
n
n
Par conséquent pour tout n ∈ IN∗ et tout k ∈ [[0, n − 1]] avec 0 ≤ y ≤
P
k
n
k
k
≤ Z < +y
n
n
k
Zn =
∩ [Dn ≤ y] = P
n
1
,
n
=
k
y+ n
k
n
dt
Conclusion :
∀n ∈ IN∗ , ∀k ∈ [[0, n − 1]], 0 ≤ y ≤
1
, P
n
Zn =
k
∩ [Dn ≤ y] = y
n
(d) Comme pour tout entier k de [[0, n − 1]], tout n ∈ IN∗ et tout réel y ∈ 0,
l’égalité :
P
Zn =
k
n
1
n
nous avons
1
× ny
n
= y
P ([Dn ≤ y]) =
= P
Zn =
k
∩ [Dn ≤ y]
n
Conclusion :
Les variables Zn et Dn sont indépendantes
spicesagros.fr
P
Christian Skiada
ECE2
20
ESCP III 1997 − C
Page 44/68
ESCP III 1997
1. (a) Pour tout entier naturel n, calculons la probabilité µn que la pièce A donne n fois pile et, à la
ème
(n + 1)
expérience, face pour la première fois.
Notons pour tout entier non nul k, Pk (resp. Fk ) l’événement : “on obtient pile (resp. face) au
kème essai”.
— Pour n = 0,
(27)
µn = µ0 = P (F1 ) = 1 − a
— Pour n ∈ IN∗ :
µn
= P (P1 ∩ . . . ∩ Pn ∩ Fn+1 )
n
=
i=1
P (Pi ) × P (Fn+1 )
par indépendance des événements
= an (1 − a)
(28)
Conclusion selon (27) et (28) :
∀n ∈ IN, µn = an (1 − a)
De même la probabilité ν n que la pièce B donne n piles et, à la (n + 1)ème expérience, face
pour la première fois et pour chaque entier naturel n = 0 :
νn
= P (P1 ∩ . . . ∩ Pn ∩ Fn+1 )
n
=
i=1
P (Pi ) × P (Fn+1 )
par indépendance des événements
= bn (1 − b)
et pour n = 0 :
νn = 1 − b
Conclusion :
∀n ∈ IN, ν n = bn (1 − b)
(b) Montrons que les suites (µn )n∈IN et (ν n )n∈IN définissent des lois de probabilité sur IN. Ces lois
seront notées dorénavant respectivement µ et ν.
— Pour tout n de IN, µn ≥ 0 et même µn > 0.
— On sait parfaitement que la série
µn converge (puisque les événements associés aux µn
n≥0
sont disjoints) avec :
+∞
n=0
an (1 − a) = (1 − a) ×
1
=1
1−a
De même :
— Pour tout n ∈ IN, ν n ≥ 0 et même ν n > 0.
— La série
ν n converge (puisque les événements associés aux ν n sont disjoints) et de somme
n≥0
égale à :
+∞
n=0
bn (1 − b) = (1 − b) ×
1
=1
1−b
Conclusion :
Les deux suites (µn )n∈IN et (ν n )n∈IN définissent des lois de probabilité sur IN
spicesagros.fr
P
Christian Skiada
ECE2
2. (a)
ESCP III 1997 − C
Page 45/68
Calculons l’espérance E (X) et la variance V (X) . Introduisons pour cela la variable
W = X +1, W ֒→ G (1 − a) (c’est un standart du cours). Comme X est obtenue par transformation affine à partir de W, elle admet une espérance et une variance données par propriétés
élémentaires, à savoir :
a
E (X) = E (W ) − 1 =
1−a
et :
a
V (X) = V (W ) =
(1 − a)
2
(b) L’événement [X ≥ k] est réalisé si, et seulement si, lors des k premiers essais on a obtenu pile
avec la pièce A. Donc :
∀n ∈ IN, P ([X ≥ k]) = ak
(c) Soit k un entier naturel,
P ([M ≥ k]) = P ([X ≥ k] ∩ [Y ≥ k])
= P ([X ≥ k]) P ([Y ≥ k])
car X et Y sont indépendantes
= ak bk
Ainsi :
∀k ≥ 0, P ([M ≥ k]) = (ab)k
Maintenant calculons pour tout entier k, P ([M = k]) , pour cela remarquons que pour chaque
entier k :
P ([M ≥ k]) = P ([M = k] [M > k])
= P ([M = k]) + P ([M > k])
par σ − additivité de P
= P ([M = k]) + P ([M ≥ k + 1])
D’où :
P ([M = k]) = P ([M ≥ k]) − P ([M ≥ k + 1])
k
k+1
= (ab) − (ab)
= (ab)k (1 − ab)
Conclusion :
∀k ∈ IN, P ([M = k]) = (ab)k (1 − ab) et M + 1 ֒→ G (1 − ab)
(29)
(d) Déterminons la probabilité que la pièce B ne donne pas face avant la pièce A, c’est-à-dire
P ([Y ≥ X]) . Selon la formule des probabilités totales associée au système complet d’événements ([X = i])i≥0 :
+∞
P ([Y ≥ X]) =
i=0
+∞
=
i=0
+∞
=
i=0
P ([Y ≥ X] ∩ [X = i])
P ([Y ≥ i] ∩ [X = i])
P ([Y ≥ i]) P ([X = i])
par σ − additivité de P et indépendance
des deux variables X et Y
+∞
=
i=0
spicesagros.fr
P
bi ai (1 − a)
Christian Skiada
ECE2
ESCP III 1997 − C
Page 46/68
= (1 − a)
+∞
i
(ab)
i=0
= (1 − a) ×
1
1 − ab
P ([Y ≥ X]) =
1−a
1 − ab
Conclusion :
3. (a) Discutons ...
— a=b
— U (Ω) = IN.
— Soit k ∈ IN :
k
P ([U = k]) =
i=0
k
=
i=0
k
=
i=0
P ([X = i] ∩ [Y = k − i])
P ([X = i]) P ([Y = k − i])
(1 − a) ai (1 − a) ak−i
= (1 − a)2
k
ak avec a = 1
i=0
Conclusion :
∀k ∈ IN, P ([U = k]) = (1 − a)2 (k + 1) ak
— a=b
— U (Ω) = IN.
— Soit k ∈ IN :
k
P ([U = k]) =
i=0
k
=
i=0
P ([X = i] ∩ [Y = k − i])
P ([X = i]) P ([Y = k − i])
k
=
i=0
(1 − a) ai (1 − b) bk−i
k
= (1 − a) (1 − b) bk
i=0
a
b
i
avec a/b = 1
= (1 − a) (1 − b) bk
1 − (a/b)k+1
1 − a/b
bk+1 − ak+1
bk+1 (b − a)
k+1
(1 − a) (1 − b) b
− ak+1
b−a
= (1 − a) (1 − b) bk+1
=
Conclusion :
∀k ∈ IN, P ([U = k]) =
(1 − a) (1 − b) bk+1 − ak+1
b−a
(b) Tout d’abord signalons que pour tout j ∈ IN, P ([U = j]) = 0, ainsi la probabilité conditionnelle
a bien un sens.
— Si k > j :
P[U=j] ([Y = k]) = 0
spicesagros.fr
P
Christian Skiada
ECE2
ESCP III 1997 − C
Page 47/68
— Si k ≤ j, par définition :
P ([Y = k] ∩ [U = j])
P ([U = j])
P[U=j] ([Y = k]) =
P ([Y = k] ∩ [X = j − k])
P ([U = j])
P ([Y = k]) P ([X = j − k])
=
P ([U = j])
car X et Y sont indépendantes
=
— Si a = b :
P[U=j] ([Y = k]) =
aj−k (1 − a) ak (1 − a)
2
(1 − a) (j +
Conclusion :
1) aj
=
1
j +1
La loi conditionnelle de Y sachant que [U = j] est la loi uniforme U ([[0, j]])
— a=b:
P[U=j] ([Y = k]) =
aj−k (1 − a) bk (1 − b)
(1 − a) (1 − b)
b
j+1
j+1
−a
b−a
=
(b − a) aj−k bk
bj+1 − aj+1
4. (a) Si r ≥ 0, alors Y ≥ X :
P ([M = k] ∩ [V = r]) =
=
=
=
P ([M = k] ∩ [Y − X = r])
P ([M = k] ∩ [Y − X = r])
P ([Y = r + k] ∩ [X = k])
P ([Y = r + k]) P ([X = k])
car X, Y sont indépendantes
= ak+r (1 − a) × ak (1 − a)
= (1 − a)2 a2k+r
(30)
Si r < 0 alors X ≥ Y et :
P ([M = k] ∩ [V = r]) = P ([M = k] ∩ [Y − X = r])
= P ([M = k] ∩ [X − Y = −r])
avec − r > 0
= P ([Y = k] ∩ [X = k − r])
= P ([Y = k]) P ([X = k − r])
car X, Y sont indépendantes
= ak (1 − a) × ak−r (1 − a)
= (1 − a)2 a2k−r
(31)
Selon (30) et (31) :
∀k ∈ IN, ∀r ∈ Z, P ([M = k] ∩ [V = r]) = (1 − a)2 a2k+|r|
(b)
(32)
Introduisons le système complet d’événements de probabilités non nulles ([M = k])k∈IN ,
selon la formule des probabilités totales pour chaque r ∈ Z,
+∞
P ([V = r]) =
k=0
+∞
=
k=0
spicesagros.fr
P
P ([M = k] ∩ [V = r])
P ([M = k] ∩ [Y − X = r])
Christian Skiada
ECE2
ESCP III 1997 − C
2
Page 48/68
= (1 − a) × a|r|
=
+∞
a2
k
k=0
(1 − a) a|r|
1+a
(33)
D’autre part rappelons que pour tout k ∈ IN, P ([M = k]) = 1 − a2
k ∈ IN et tout r ∈ Z :
1 − a2
a2
k
donc pour tout
k
a2 (1 − a) a|r|
P ([M = k]) P ([V = r]) =
1+a
2
2k
= a (1 − a) a|r|
2
= (1 − a) a2k+|r|
(34)
Selon (29), (32),(33) et (34):
∀k ∈ IN, ∀r ∈ Z, P ([M = k] ∩ [V = r]) = P ([M = k]) P ([V = r])
et donc :
M et V sont deux variables aléatoires indépendantes
spicesagros.fr
P
Christian Skiada
ECE2
21
HEC III 2002 P
A−C
Page 49/68
HEC III 2002
Partie A : première approche
1. Montrons que l’application g définie par :

 1
t2
g(t) =

0
est une densité de probabilité.
si t ∈ I
sinon
— L’application g est bien définie sur IR.
— L’application g est continue sur IR− {1} (à détailler : sur I, g est une fraction rationnelle dont le
dénominateur est non nul sur I, sinon g coïncide avec la fonction nulle en dehors de I).
— L’application g est positive sur IR.
+∞
—
−∞
g est impropre en ±∞.
1
— L’intégrale
1
g converge puisque g est nulle en dehors de I avec
−∞
+∞
0 = 0;
−∞
+∞
dt
qui est une intégrale convergente en tant qu’intégrale de Riet2
1
1
mann de paramètre 2 > 1, avec :
— L’intégrale
g=
+∞
1
dt
t2
M
=
=
dt
par définition
t2
lim
A→+∞ 1
lim
A→+∞
M
−1
t
1
1
=
lim 1 −
A→+∞
M
= 1
+∞
+∞
g = 1 et par la relation de Chasles
donc
g = 1.
1
−∞
Conclusion :
g est une densité de probabilité
2. Le texte nous demande de déterminer la fonction de répartition FX de X définie par :
t
∀t ∈ IR, FX (t) = P ([X ≤ t]) =
g (t) dt
−∞
Comme :
X (Ω) = I = [1, +∞[
— si t < 1 :
t
P ([X ≤ t]) =
— si t ≥ 1 :
1
P ([X ≤ t]) =
Faisons le bilan :
spicesagros.fr
0dt = 0
−∞
t
0dt +
−∞

 1− 1
t
FX (t) =

0
P
1
dt
1
=1−
t2
t
si t ∈ I
sinon
Christian Skiada
ECE2
HEC III 2002 P
A−C
Page 50/68
+∞
— Pour l’espérance, on étudie la convergence absolue de l’intégrale
−∞
Or pour tout t ≥ 1 :
tg (t) =
tg (t) dt impropre en ±∞.
1
t
+∞
dont l’intégrale diverge en +∞ par Riemann). Par conséquent l’intégrale
tg (t) dt diverge
−∞
et :
La variable X n’admet pas d’espérance
3. (a) Comme pour tout réel t, l’événement [V ≤ t] est réalisé si et seulement si [X ≤ t] ∩ [Y ≤ t] est
réalisé il vient :
∀t ∈ IR, [V ≤ t] = [X ≤ t] ∩ [Y ≤ t]
Par indépendance événementielle :
∀t ∈ IR, P ([V ≤ t]) = P ([X ≤ t]) P ([Y ≤ t])
La fonction de répartition de V est donc FV définie par :
2
FV (t) = (FX (t)) =
L
car X =Y

 0

si t < 1
1−
1
t
2
si t ≥ 1
(b) Comme FX est continue sur IR et de classe C 1 sur IR− {1} (à détailler), il en est de même
pour FV . Donc V est à densité et une densité de V est h = FV′ (en prenant pour h une valeur
arbitraire en 1).
Conclusion :

 2(t − 1)
t3
La variable V a pour densité l’application h −→ h(t) =

0
si t ∈ I
sinon
(c) On a classiquement :
[U > t] = [X > t] ∩ [Y > t]
avec X et Y indépendantes et :
FU (t) = P ([U ≤ t])
= 1 − P ([U > t])
= 1 − (P ([X > t]))2
= 1 − (1 − P ([X ≤ t]))2


 1− 1− 1− 1
t
=


0

 1 − 1 si t ≥ 1
t2
=

0
si t < 1
2
si t ≥ 1
si t < 1
On vérifie aisément que FU est continue sur IR et de classe C 1 sur IR− {1} , par suite U est une
variable à densité de densité m = FU′ (en prenant pour m une valeur arbitraire en 1).
Conclusion :
spicesagros.fr

 2
t3
m(t) =

0
P
si t ∈ I
sinon
Christian Skiada
ECE2
HEC III 2002 P
(d) ◮ Espérance de V .
B−C
Page 51/68
+∞
t h (t) dt, impropre en +∞, puisque h coïncide avec la fonction
Etudions la convergence
1
nulle en dehors de I. Nous avons
2(t − 1)
2
∼
+∞ t
t2
dont l’intégrale diverge en tant qu’intégrale de Riemann de paramètre 1. En utilisant le
h (t) =
+∞
critère d’équivalence appliqué aux fonctions positives, l’intégrale
th (t) dt diverge
1
également.
Conclusion :
La variable V n’admet pas d’espérance
◮ Espérance de U .
+∞
tm (t) dt, impropre en +∞, puisque m coïncide avec la fonction
Etudions la convergence
1
nulle en dehors de I. Comme
N
N
tm (t) dt =
1
1
−
=
2dt
t2
2
t
N
1
1
= 2−
N
avec :
lim 2 −
N→+∞
+∞
+∞
tm (t) dt égale à 2 par la relation de Chasles.
tm (t) dt converge ainsi que
Donc
1
=2
N
1
−∞
Conclusion :
La variable U admet une espérance qui vaut 2
Partie B : situation plus générale
1. (a) Pour tout entier k de [[1, n]], la variable Bk la variable aléatoire prend la valeur 1 lorsque
l’événement [Xk ≤ t] est réalisé, (c’est-à-dire lorsque le kème visiteur est arrivé au plus tard à
l’instant k) et la valeur 0 sinon. Ainsi la variable Z = B1 + . . . + Bn et Bi compte le nombre
total de visiteurs indépendants parmi les n arrivant au plus tard à l’instant t et qui ont tous
la probabilité FX (t) d’y arriver. Et donc :
Z ֒→ B n, 1 −
1
t
(b) L’événement [Tr ≤ t] est réalisé si et seulement si le réme visiteur est arrivé au plus tard à
l’instant t, c’est à dire qu’au plus tard à t, il y a au moins r visiteurs arrivés. Donc pour t de
I, [Tr ≤ t] = [Z ≥ r] et :
P ([Tr ≤ t]) = P ([Z ≥ r])
n
=
P ([Z = k])
k=r
n
=
k=r
n
k
1−
1
t
k
1
t
n−k
Conclusion :
n
∀r ∈ [[1, n]], t ∈ I, fixé, P([Tr ≤ t]) =
spicesagros.fr
P
k=r
n
k
1−
1
t
k
1
t
n−k
Christian Skiada
ECE2
HEC III 2002 P
B−C
Page 52/68
2. (a) Pour tout k ∈ [[1, n]] on a :
k
n
n!
n!
=k
=
car k − 1 ≥ 0
k
k! (n − k)
(k − 1)! (n − k)
(35)
et :
n
k−1
(n + 1 − k)
= (n + 1 − k)
n!
n!
=
car n − k ≥ 0
(k − 1)! (n − k + 1)!
(k − 1)! (n − k)!
(36)
Conclusion : selon (35) et (36) ,
∀k ∈ [[1, n]], k
n
n
− (n + 1 − k)
=0
k
k−1
(b) La fonction de répartition Fr de Tr définie par :
 n

n
1


1−
k
t
Fr (t) =
k=r



0
k
n−k
1
t
si t ∈ I
sinon
est continue sur ]−∞, 1[ et sur [1, +∞[ et lim− Fr (t) = 0 alors que :
t→1
n
n k
0 =0
k
Fr (1) =
k=r
car r ≥ 1 (rème visiteur). De plus Fr est de classe C 1 sur IR− {1} donc Tr est une variable
à densité et une densité de Z est Fr′ , notée fr nulle en dehors de I et par dérivation d’un
produit sur I :
!
"
n
k−1
n−k
k
n−k−1
n
1
n
1
1
1 1
1
′
Fr (t) =
k 1−
−
1−
(n − k)
k
k
t
t2 t
t
t
t2
k=r
n
=
k=r
n
1
k 1−
k
t
k−1
1
t2
1
t
n
n−k
−
k=r
n
k
1−
k
1
t
1
t
(n − k)
n−k−1
1
t2
en réindexant la seconde somme par k = h − 1 soit h = k + 1 pour faire apparaître
.
les coefficients binomiaux du 2.a
n
=
k=r
n
=
k=r
n
=
k=r
= r
n
r
n
1
k 1−
k
t
k−1
n
1
k 1−
k
t
k−1
n
1
k 1−
k
t
k−1
1−
1
t
r−1
1
t
1
t
n−k+2
1
t
n−k+2
1
t
n−k+2
n+1
−
n
h−1
h=r+1
n
−
−
1−
h
h=r+1
n
h
h−1
1
t
h−1
1
t
(n − h + 1)
1−
1−
1
t
h−1
(n − h + 1)
1
t
1
t
n−h+2
n−h+2
n−r+2
+ 0 par télescopage
Conclusion : pour tout entier r de l’intervalle [[1, n]], la variable aléatoire Tr admet pour
densité l’application fr définie par


 r n
r
fr (t) =


0
spicesagros.fr
P
1
t
n+2−r
1−
1
t
n−h+2
=0 p our h=n+1
n
h−1
h=r+1
n
1
t
r−1
si t ∈ I
sinon
Christian Skiada
ECE2
HEC III 2002 P
B−C
Page 53/68
(c) Comme :
lim
t→+∞
1
t
r−1
1−
r
n
r
1
t
=1
il vient alors :
tfr (t)
+∞
∼
t→+∞
n+1−r
n+1−r
1
dt converge en tant qu’intégrale de Riemann si et seulement
t
1
si n + 1 − r > 1 ce qui équivaut à r < n. Et par le critère d’équivalence appliqué aux
Or l’intégrale
+∞
fonctions positives, l’intégrale
t fr (t) dt converge si, et seulement si, r < n.
1
La variable Tr admet donc une espérance pour r < n et pas pour r = n.
Conclusion :
Les variables T1 , T2 , . . . , Tn−1 admettent une espérance alors que Tn n’en admet pas
3. (a) On a pour tout couple (p, q) d’entiers naturels :
1
J (p, q + 1) =
0
Soit :
xp (1 − x)q+1 dx

 u′ (t) = xp ⇐= u (t) = 1 xp+1
p+1
 v (t) = (1 − x)q+1 =⇒ v′ (t) = − (q + 1) (1 − x)q
avec u et v de classe C 1 sur [0, 1] (puissances positives). Donc :
J (p, q + 1) =
1
xp+1 (1 − x)q+1
p+1
1
0
1
−
q+1
−1 p+1
(q + 1) (1−x)q dx =
x
p+1
p+1
0
1
xp+1 (1−x)q dx
0
Conclusion :
∀ (p, q) ∈ IN2 , (p + 1) J (p, q + 1) = (q + 1) J (p + 1, q)
(b) On a pour tout entier naturel q :
1
J (0, q) =
0
=
=
(1 − x)q dx
−1
q+1
(1 − x)
q+1
1
q+1
1
0
Conclusion :
∀q ∈ IN, J (0, q) =
(c) Soit la proposition Pp :
“∀q ∈ IN, J(p, q) =
1
q+1
p! q!
”
(1 + p + q)!
Montrons que Pp est vraie pour tout entier naturel p.
— Pour p = 0, on a pour tout q entier
J (0, q) =
0! q!
1
=
q+1
(1 + q)!
et P0 est vérifiée.
spicesagros.fr
P
Christian Skiada
ECE2
HEC III 2002 P
B−C
Page 54/68
— Supposons Pp vraie, pour p fixé dans IN. Or selon la relation de récurrence de la question
précédente :
p+1
J (p, q + 1)
q+1
p! (q + 1)! p + 1
(1 + p + q + 1)! q + 1
(p + 1)! q!
(1 + p + 1 + q)!
J (p + 1, q) =
=
=
Donc pour tout p ∈ IN, Pp entraîne Pp+1 . Ce raisonnement par récurrence montre que :
∀ (p, q) ∈ IN2 , J(p, q) =
p! q!
(1 + p + q)!
4. Soit r un entier de l’intervalle [[1, n − 1]].
(a) Si a est un réel strictement supérieur à 1. Posons le changement de variable t (x) =
C 1 et bijectif sur le segment [1, a] à valeurs dans 1,
équivaut à x = 1 et t = a équivalent à x =
a
1/a
t fr (t) dt =
1
1
1
=
1/a
1
=
1
fr
x
1
x3
r
1/a
1
1
, alors dt = − 2 dx avec t = 1 ce qui
a
x
1
. Par conséquent :
a
1
x
r
1
de classe
x
−1
dx
x2
n n+2−r
1
x
(1 − x)r−1 dx car ≥ 1
r
x
n n−1−r
x
(1 − x)r−1 dx
r
Conclusion :
a
t fr (t) dt = r
1
n
r
1
1/a
xn−1−r (1 − x)r−1 dx
+∞
(b) La variable aléatoire Tr admet une espérance si et seulement si l’intégrale
t fr (t) dt est
1
+∞
convergente par définition de fr nulle en dehors de I. En cas d’existence E (Tr ) =
par Chasles.
a
lim
a→+∞ 1
t fr (t) dt
1
1
t fr (t) dt = lim
a→+∞ 1/a
xn−1−r (1 − x)r−1 dx = J (n − 1 − r, r − 1)
par définition de la convergence de l’intégrale car n − 1 − r ≥ 0 et r − 1 ≥ 0 (r ∈ [[1, n − 1]]).
Finalement la variable Tr admet une espérance égale à :
n
(n − r − 1)! (r − 1)!
r (1 + n − r − 1 + r − 1)!
n!
(n − r − 1)! (r − 1)!
= r
r! (n − r)!
(n − 1)!
n
=
n−r
E (Tr ) = r
Conclusion :
∀r ∈ [[1, n − 1]] E (Tr ) =
spicesagros.fr
P
n
n−r
Christian Skiada
ECE2
22
HEC III 1996 − C
Page 55/68
HEC III 1996
1. (a) Tout d’abord Ω = P(E), par suite Card (Ω) = Card (P(E)) = 2m . Soit U l’événement : “la
boule portant le numéro 1 appartient à l’ensemble de boules tirées”. Ainsi Card (U ) = 1×2m−1
car un élément de U est une partie de E comportant la boule avec le numéro 1 (un seul choix)
et k boules de E − {1} avec k ∈ [[0, m − 1]] (2m−1 choix), le lemme des bergers parachevant
le tout. Comme nous pouvons imaginer que les parties de E consituées de boules sont tirées au
hasard, nous muniront l’univers de la probabilité uniforme et par l’identité de Laplace :
P (U ) =
2m−1
1
=
m
2
2
Intuitivement la réponse est logique, car on a une chance sur deux que le numéro 1 soit dans
la partie tirée.
(b) Montrons que pour toute partie J non vide de [[1, m]], P
Ai
montrons que :
∀k ∈ [[1, m]], P (Ai1 ∩ . . . ∩ Aik ) =
P (Ai ) , autrement dit
=
i∈J
i∈J
k
j=1
P Aij
L’événement Ai1 ∩ . . . ∩ Aik est réalisé si et seulement si les boules numérotées i1 , i2 , . . . , ik
sont éléments de la partie tirée, complétées par l boules dont les numéros appartiennent à
l’ensemble E − {i1 , i2 , . . . , ik } et où l ∈ [[0, m − k]], alors :
∀k ∈ [[1, m]], P (Ai1 ∩ . . . ∩ Aik ) =
2m−k
2m
(37)
Enfin en reprenant les mêmes explications qu’à la question 1.a :
∀j ∈ [[1, k]], P Aij =
donc :
k
#
1
2
P Aij =
j=1
Conclusion : selon (37) et (38) ,
1
2
k
(38)
Les événements Ai , 1 ≤ i ≤ m, sont mutuellement indépendants
(c) Notons X la variable aléatoire égale au nombre de boules qui ont été tirées.
— X (Ω) = [[0, m]] ;
— Pour tout k ∈ X (Ω) ,
m
k
P ([X = k]) = m
2
m
car
représente le nombre de choix possibles d’une partie de k éléments de E et
k
Card (P (E)) = 2m .
Par conséquent, en “retravaillant” un peu l’expression de la probabilité sous la forme
m
k
1
2
k
m−k
1
2
nous pouvons conclure que :
X ֒→ B m,
1
2
Dans ce cas, d’après le cours :
E (X) =
spicesagros.fr
P
m
2
et V (X) =
m
4
Christian Skiada
ECE2
HEC III 1996 − C
Page 56/68
(d) Intuitivement la réponse est non, car lorsqu’on tire k boules de l’urne, on une chance sur deux
que k soit pair et une chance sur deux que k soit impair. Prouvons cette intuition par le calcul
maintenant. Notant A l’événement “on tire un nombre pair de boules”, dans ce cas
⌊m/2⌋
A=
[X = 2k]
k=0
et par σ−additivité de P :
⌊m/2⌋
⌊m/2⌋
P ([X = 2k]) =
P (A) =
k=0
k=0
1 m
2m 2k
De même, en notant B l’événement "on tire un nombre impair de boules", dans ce cas :
⌊(m−1)/2⌋
B=
[X = 2k + 1]
k=0
et par σ−additivité de P :
⌊(m−1)/2⌋
⌊(m−1)/2⌋
P (B) =
P ([X = 2k + 1]) =
k=0
k=0
1
m
2m 2k + 1
Or, pour tout réel x et pour tout entier m supérieur ou égal à deux et par la formule du binôme
de Newton :
m
n
(x + 1) =
k=0
m k
x =
k
⌊m/2⌋
k=0
m 2k
x +
2k
⌊(m−1)/2⌋
k=0
m
x2k+1
2k + 1
En particulier, respectivement pour x = 1 et pour x = −1, nous obtenons le système suivant :

⌊m/2⌋
⌊(m−1)/2⌋


m
m


+
= 2m


2k
2k + 1

k=0
ce qui entraîne que :







k=0
⌊m/2⌋
k=0
⌊m/2⌋
k=0
m
−
2k
m
2k
⌊(m−1)/2⌋
k=0
⌊(m−1)/2⌋
=
k=0
m
2k + 1
m
2k + 1
=0
= 2m−1
Conclusion :
P (A) = P (B) =
1
2
2. (a) Notons pour tout entier i de [[1, m]], pi la probabilité que la boule numéro i soit tirée pour la
première fois au kème tirage et pour tout entier naturel non nul j, l’événement Ij "la boule
numéro i est tirée au j ème tirage". Par suite pour tout i ∈ [[1, m]] :
pi = P I1 ∩ I2 ∩ . . . ∩ Ik−1 ∩ Ik
les événements sont indépendants car les tirages sont effectués avec remise, alors :
k−1
pi =
P Ij
j=1
P (Ik ) =
1
2
k−1
1
=
2
1
2
k
en reprenant le même raisonnement qu’au 1.a. et 1.b.
spicesagros.fr
P
Christian Skiada
ECE2
HEC III 1996 − C
Page 57/68
1
2
puisque la variable correspond à un temps d’attente du premier succès (tirer la boule i).
Il n’y a qu’à citer son cours pour affirmer que :
(b) Vous comprendrez bien sans difficulté que pour tout entier naturel i ∈ [[1, m]], Ti ֒→ G
∀i ∈ [[1, m]], E (Ti ) = 2
(c) L’événement [T = k] , pour tout entier k non nul, est réalisé si, et seulement si au kème tirage
chacune des boules a été obtenue au moins une fois. Le contexte de l’énoncé nous amène à
penser qu’il faut trouver une relation entre les variables Ti , i ∈ [[1, m]].
Cela donne T = sup (T1 , T2 , . . . , Tm ) et, classiquement pout tout entier naturel k non nul :
P ([T ≤ k]) = P ([T1 ≤ k] ∩ . . . ∩ [Tm ≤ k])
m
=
i=1
m
=
i=1
m
=
i=1
P ([Ti ≤ k])
(1 − P ([Ti > k]))
1−
k
1
2
car l’événement [Ti > k] est réalisé si, et seulement si les
k premiers ne donnent que des échecs ♥
=
1−
1
2
k
m
Enfin pour tout entier naturel non nul k,
P ([T = k]) = P ([T ≤ k]) − P ([T ≤ k − 1])
nous avons donc :
∗
∀k ∈ IN , P ([T = k]) =
1−
k
1
2
m
− 1−
1
2
k−1
m
Nous avons bien vérifié que la formule reste valable pour k = 1, car P ([T ≤ 0]) = 0 ce que
k−1 m
1
nous retrouvons, quand k = 1 dans 1 −
.
2
3. (a) Il y a deux possibilités, soit tirer les boules dès le premier tirage, soit en exactement deux
tirages. Détaillons ...
1
— La probabilité de tirer les m boules en un seul tirage vaut m car il n’y a qu’une seule
2
partie de E qui soit E justement.
— Tirer les m boules en exactement deux tirages, c’est tirer l boules au premier tirage avec
l ∈ [[0, m − 1]] et m − l au second. La probabilité de cette situation vaut :
m−1
l=0
1 m
1
m−l
× m−l
m
2
l
2
m−l
m−1
=
l=0
=
=
=
1
22m
1
22m
1
22m
1
22m−l
m−1
l=0
m
l=0
m
l
car
m−l
m−l
=1
m l
2
l
m l
m m
2 −
2
l
m
(3m − 2m ) selon le binôme
Explications :
spicesagros.fr
P
Christian Skiada
ECE2
HEC III 1996 − C
Page 58/68
1 m
représente la probabilité de tirer l boules au premier tirage parmi m ;
2m l
1
m−l
— m−l
est la probabilité de tirer les m − l boules restantes.
2
m−l
La probabilité de tirer les boules en exactement les m boules en deux tirages est :
—
1
1
+
(3m − 2m ) =
2m 22m
3
4
m
La probabilité que les m boules soient tirées en exactement deux tirages est :
1
(3m − 2m )
22m
(b) Reprenons les résultats précédents pour essayer de conjecturer. Nous avons, en notant pour
tout entier k non nul Pk,m la probabilité demandée :
m
1
1
1
= 1 m = 1−
m
2
(2 )
2
m
m
3
3
4−1
P2 =
=
=
2
4
2
22
P1 =
m
= 1−
1
22
m
Nous pouvons donc conjecturer (hypothèse P (k)) que :
Pk = 1 −
m
1
2k
ce que nous poserons par hypothèse, pour k fixé dans IN∗ . Montrons que :
Pk+1,m = 1 −
1
m
2k+1
Nous avons les égalités successives :
m
Pk+1
=
l=0
1 m
Pk,m−l
2m l
1 m
représente la probabilité d’obtenir i boules au premier tirage
2m l
et Pk,m−l celle d’obtenir en au plus k tirages les m − l boules restantes
où
m
=
l=0
=
1
2m
1 m
2m l
m
l=0
m
l
1
2k
m−l
1−
1
2k
m−l
1−
par hypothèse
m
=
=
=
1
1
2− k
selon le binôme de Newton
2m
2
m
2
1
− k+1
2 2
m
1
1 − k+1
2
Ainsi pour tout entier k non nul P (k) entraîne que P (k + 1) et la proposition est donc héréditaire.
m
1
∀k ∈ N∗ , Pk,m = 1 − k
2
spicesagros.fr
P
Christian Skiada
ECE2
23
HEC III 1992 − C
Page 59/68
HEC III 1992
1. (a) Le comptage du nombre de véhicules en état de panne correspond à une succession de n
épreuves de Bernoulli indépendantes et de même paramètre p.
Conclusion :
Y ֒→ B (n, p)
Autrement dit :
n k
p (1 − p)n−k
k
X (Ω) = [[0, n]], ∀k ∈ [[0, n]], P ([X = k]) =
(b) D’après le cours :
E (Y ) = np
Par linéarité de l’espérance (existence acquise) :
E ((Y − 1) Y ) = E Y 2 − E (Y )
Or :
V (Y ) = E Y 2 − (E (Y ))2
donc :
E ((Y − 1) Y ) = V (Y ) + (E (Y ))2 − E (Y )
= np (1 − p) + (np)2 − np
= np2 (n − 1)
Conclusion :
E ((Y − 1) Y ) = np2 (n − 1)
D’autre part :
n
E ((Y − 2) (Y − 1) Y ) =
k=0
(k − 2) (k − 1) k
n k
p (1 − p)n−k
k
selon le théorème de transfert
n
n k
=
(k − 2) (k − 1) k
p (1 − p)n−k pour n ≥ 3
k
k=3
n
=
k=3
(n − 2) (n − 1) n
n−3 k
p (1 − p)n−k
k−3
par propriété des coefficients binomiaux
n
= (n − 2) (n − 1) n
= (n − 2) (n − 1) n
k=3
n−3
n−3 k
p (1 − p)n−k
k−3
n − 3 k+3
p
(1 − p)(n−3)−k
k
k=0
n−3
3
= (n − 2) (n − 1) np
k=0
n−3 k
p (1 − p)(n−3)−k
k
= (n − 2) (n − 1) np3 selon la formule du binôme
(39)
Enfin pour n ∈ {1, 2} , E ((Y − 2) (Y − 1) Y ) = 0 ce que l’on retrouve dans l’expression (39).
Conclusion :
∀n ∈ IN∗ , E ((Y − 2) (Y − 1) Y ) = (n − 2) (n − 1) np3
Enfin :
spicesagros.fr
E ((Y − 1) Y )
np2 (n − 1)
=
=p
E ((n − 1) Y )
(n − 1) np
P
Christian Skiada
ECE2
HEC III 1992 − C
et :
Page 60/68
E ((Y − 2) (Y − 1) Y )
(n − 2) (n − 1) np3
=
= p2
E ((n − 2) (n − 1) Y )
(n − 2) (n − 1) np
Conclusion :
E ((Y − 1) Y )
E ((n − 1) Y )
et
E ((Y − 2) (Y − 1) Y )
E ((n − 2) (n − 1) Y )
sont bien indépendants de p
2. Nous avons :
n
Y =
Xi
i=1
puisque le nombre de 1 dans la somme correspond au nombre de véhicules en panne le jour J les
autres termes étant nuls, ce qui est exactement égal à Y.
3. (a) Déterminons la loi de Xi Xj pour (i, j) ∈ [[1, n]]2 avec i = j où Xi et Xj sont indépendantes.
Nous avons :
— Pour tout couple (i, j) ∈ [[1, n]]2 , i = j, Xi Xj (Ω) = {0, 1} .
— Pour tout couple (i, j) ∈ [[1, n]]2 avec i = j :
P ([Xi Xj = 1]) = P ([Xi = 1]) P ([Xj = 1]) = p2 car Xi et Xj sont indépendantes
Conclusion :
∀ (i, j) ∈ [[1, n]]2 , i = j, Xi Xj ֒→ B p2
et :
∀ (i, j) ∈ [[1, n]]2 , i = j, E (Xi Xj ) = p2
(b) Signalons que Z est le nombre de paires de deux voitures entièrement disponibles. Mais attention une même voiture peut apparaître dans plusieurs paires et donc les variables Xi Xj ne
sont pas indépendantes mais cela n’est pas génant pour le calcul de l’espérance de Z qui
existe, car les variables Xi Xj sont bernoulliennes avec :
E (Z) =
E (Xi Xj )
{i,j}∈A
p2
=
{i,j}∈A
= p2
1
{i,j}∈A
= p2 |A|
n
= p2
2
car A est un ensemble de paires soit un
ensemble de parties constituées de deux éléments
Conclusion :
E (Z) =
(c) Rappelons tout d’abord que Y =
n
n (n − 1) p2
2
Xi donc Y 2 =
i=1
Y2
n
=
i=1
n
=
i=1
n
=
Xi2 + 2
2
n
Xi
soit :
i=1
Xi Xj
1≤i<j≤n
Xi2 + 2Z
Xi + 2Z car les variables Xi sont bernoulliennes
i=1
= Y + 2Z
spicesagros.fr
P
Christian Skiada
ECE2
HEC III 1992 − C
Page 61/68
En effet pour tout i de [[1, n]], et pour tout ω ∈ X (Ω) :
(Xi (ω) = 0) ⇐⇒ (Xi2 (ω) = 0 et Xi (ω) = 1) ⇐⇒
Xi2 (ω) = 1
Donc :
∀i ∈ [[1, n]], Xi = Xi2
Notez bien que ce résultat se généralise par récurrence.
Conclusion :
Y 2 = Y + 2Z
(40)
D’après (40), par linéarité de l’espérance :
E (Z) =
=
=
=
1
E Y 2 − E (Y )
2
1
V (Y ) + (E (Y ))2 − E (Y )
2
1
np (1 − p) + (np)2 − np
2
1 2
np (n − 1)
2
Conclusion :
1
E (Z) = np2 (n − 1)
2
et nous retrouvons bien le résultat de 3.b.
(d) Par théorème :
1
Cov (Y, Z) = E (Y Z) − E (Y ) E (Z) = E (Y Z) − np × np2 (n − 1)
2
Calculons maintenant E (Y Z) . Nous avons l’implication :
Y 2 = Y + 2Z =⇒ Y 3 = Y 2 + 2ZY
et par linéarité de l’espérance :
E Y 3 = E Y 2 + 2E (ZY )
soit :
E (ZY ) =
=
=
=
=
=
1
E Y3 −E Y2
2
1
2
E (Y (Y − 1) (Y − 2) + 3Y (Y − 1) + Y ) − V (Y ) − (E (Y ))
2
1
E (Y (Y − 1) (Y − 2)) + 3E (Y (Y − 1)) + E (Y ) − V (Y ) − (E (Y ))2
2
par linéarité de E
1
(n − 2) (n − 1) np3 + 3np2 (n − 1) + np − np (1 − p) − n2 p2
2
1
(n − 2) (n − 1) np3 + 3np2 (n − 1) + np − np (1 − p) − n2 p2
2
1 2
np (n − 1) (−2p + np + 2)
2
et :
1 2
1
np (n − 1) (−2p + np + 2) − n2 p3 (n − 1)
2
2
= −np2 (p − 1) (n − 1)
= np2 (1 − p) (n − 1)
Cov (Y, Z) =
Conclusion :
Cov (Y, Z) = np2 (n − 1) (1 − p)
spicesagros.fr
P
Christian Skiada
ECE2
HEC III 1992 − C
Page 62/68
4. (a) Loi de Xi′ pour i ∈ [[1, n]]. Nous avons pour tout i ∈ [[1, n]], Xi′ (Ω) = {0, 1} et selon la formule
des probabilités totales associée au système complet d’événements {[Xi = 0] , [Xi = 1]} :
P ([Xi′ = 1]) = P[Xi =0] ([Xi′ = 1]) P ([Xi = 0]) + P[Xi =1] ([Xi′ = 1]) P ([Xi = 1])
= 1 × (1 − p) + (1 − α) p
selon les données de l’énoncé
(je parle des probabilités conditionnelles)
= 1 − αp
Conclusion :
∀i ∈ [[1, n]], Xi′ ֒→ B (1 − αp)
Loi de Y ′ . Nous avons Y ′ =
n
i=1
Xi′ (même raisonnement qu’au 2.) où les n variables Xi′ sont
indépendantes de même paramètre 1 − αp donc d’après le célèbre résultat du cours :
Y ′ ֒→ B (n, 1 − αp)
(b) D’après le cours, nous savons que :
E (Y ′ ) = n (1 − αp) et E (Y ) = np
Comme α ∈ ]0, 1[ et p < 1/2 alors 1 − αp > 1/2 et comme n > 0 :
n (1 − αp) >
n
> np
2
Conclusion :
E (Y ′ ) > E (Y )
(c) Si α =
1
10
alors :
( E (Y ′ ) > E (Y ) )
⇐⇒ (np = n (1 − αp))
1
⇐⇒
p=
1+α
Conclusion :
p=
spicesagros.fr
P
10
11
Christian Skiada
ECE2
24
EDHEC 1997 P
I−C
Page 63/68
EDHEC 1997
Dans ce problème n désigne un entier supérieur ou égal à 2.
Partie I
1. Dans le cas minimum nous pouvons obtenir deux fois le même numéro et ce dès le début des
tirages. Et au plus tard les n premiers tirages donnent les n numéros différents et le (n + 1)ème
tirage donnera forcément un des n numéros déjà obtenu.
Conclusion :
N (Ω) = [[2, n + 1]]
2. Pour tout k ∈ [[1, n]], l’événement [N > k] est réalisé si et seulement si les k premiers tirages
constituent une liste sans répétition de longueur k (k− arrangement) constituée de numéros
de [[1, n]]. Il y a nk façons de tirer k boules avec remise à chaque fois. Comme les boules sont
équiprobables à chaque tirage, nous utiliserons le relation de Laplace :
∀k ∈ [[1, n]], P ([N > k]) =
Akn
nk
(41)
3. (a) Le raisonnement est ultra-classique et à savoir reproduire parfaitement.
∀k ∈ [[2, n]], [N ≥ k] = [N > k]
[N = k]
Par σ−additivité de P :
∀k ∈ [[2, n]], P [N ≥ k] = P ([N > k]) + P ([N = k])
ce qui équivaut à dire que :
∀k ∈ [[2, n]], P(N = k) = P([N > k − 1]) − P([N > k])
(b) Nous avons :
P ([N = n + 1]) = P ([N > n]) =
Ann
n!
= n
nn
n
et pour tout entier naturel k ∈ [[2, n]] :
P ([N = k]) =
=
=
=
=
=
Conclusion :
spicesagros.fr
Ak−1
Ak
n
− kn
k−1
n
n
nAnk−1 − Akn
nk
n (n × · · · × (n − (k − 1) + 1)) − n × · · · × (n − k + 1)
nk
n × · · · × (n − k + 2) (n − (n − k + 1))
nk
n × · · · × (n − k + 2) (k − 1)
nk
k−1
(k − 1) An
nk

k−1

 (k − 1) An
nk
P ([N = k]) =
n!


nn
P
si k ∈ [[2, n]]
si k = n + 1
Christian Skiada
ECE2
EDHEC 1997 P
II − C
Page 64/68
4. Comme N est une variable finie, elle admet une espérance égale, par définition, à :
n+1
E (N ) =
kP ([N = k])
k=2
n
=
kP ([N = k]) + (n + 1) P ([N = n + 1])
k=2
n
=
k=2
n
=
k=2
n−1
=
k=1
n−1
=
k (P([N > k − 1]) − P([N > k])) + (n + 1) P ([N = n + 1])
kP([N > k − 1]) −
n
kP([N > k]) + (n + 1) P ([N = n + 1])
k=2
(k + 1) P([N > k]) −
n−1
kP([N > k]) +
k=1
k=1
n−1
= P([N > 1])+
k=2
n
kP([N > k]) + (n + 1) P ([N = n + 1])
k=2
P([N > k]) −
kP([N > k]) −
n
kP([N > k]) + (n + 1) P ([N = n + 1])
k=2
n
n−1
kP([N > k])+
k=2
P([N > k]) + (n + 1) P ([N = n + 1])
k=1
somme télescopique
= P([N > 1]) − nP ([N > n]) +
= 1 − nP ([N > n]) +
n−1
P([N > k]) + (n + 1) P ([N = n + 1])
k=1
n−1
P([N > k]) + (n + 1) P ([N > n])
k=1
n−1
= 1+
P([N > k]) + P ([N > n])
k=1
n
= 1+
P([N > k])
k=1
n
= 1+
k=1
=
A0n
n0
n
=
k=0
Akn
selon (41)
nk
n
+
Akn
nk
k=1
Akn
nk
Conclusion :
n
E (N ) =
k=0
Akn
nk
Partie II
Je vous conseille de consommer cette partie sans aucune modération. A bon entendeur ...
1. Comme f est continue sur IR+ , F est de classe C 1 sur IR+ avec F ′ = f sur IR+ et t −→ t est aussi
de classe C 1 sur IR+ . Bref nous pouvons intégrer par parties en posant :
(u (t) = t)
=⇒ (u′ (t) = 1)
′
(v (t) = f (t)) ⇐= (v (t) = F (t) − 1) (ruse)
Par conséquent, pour tout réel x positif :
x
tf (t) dt
ϕ (x) =
0
x
= [t (F (t) − 1)]x0 −
= x (F (x) − 1) −
spicesagros.fr
P
0
x
0
(F (t) − 1) dt
(F (t) − 1) dt
Christian Skiada
ECE2
EDHEC 1997 P
II − C
Page 65/68
x
= x (P ([X ≤ x]) − 1) −
0
= −x (1 − P ([X ≤ x])) −
x
= −xP ([X > x]) −
= −xP ([X > x]) +
Conclusion :
0
(F (t) − 1) dt
x
0
(F (t) − 1) dt
(F (t) − 1) dt
x
(1 − F (t)) dt
0
x
∀x ∈ IR+ , ϕ (x) =
0
(42)
(1 − F (t)) dt − xP ([X > x])
2. (a) La fonction ϕ est l’unique primitive sur IR+ de la fonction t −→ tf (t) et s’annulant en 0.
Ainsi par définition, ϕ est de classe C 1 sur IR+ donc dérivable sur IR+ avec :
∀x ∈ IR+ , ϕ′ (x) = xf (x) ≥ 0
La fonction ϕ est donc croissante sur IR+ .
(b) Selon (42) pour tout réel x positif :
x
(1 − F (t)) dt − xP ([X > x])
ϕ (x) =
0
≤
0
x
(1 − F (t)) dt car xP ([X > x]) ≥ 0
+∞
≤
(1 − F (t)) dt
0
+∞
car l’intégrande est positive et l’intégrale
(1 − F (t)) dt converge
0
Conclusion :
La fonction ϕ est majorée et croissante donc lim ϕ existe et est finie, X admet donc une espérance
+∞
PS : n’oubliez pas que X étant une variable positive, son espérance vaut, en
cas d’existence,
+∞
E (X) =
xf (x) dx
0
(c) Pour tout réel positif x, nous pouvons écrire que :
+∞
0 ≤ xP ([X > x]) =
x
+∞
xf (t) dt ≤
tf (t) dt
x
car si t ∈ [x, +∞[ , x ≥ t.
(d) Par la relation de Chasles, pour tout réel positif x :
+∞
+∞
tf (t) dt =
x
−∞
x
tf (t) dt −
−∞
x
tf (t) dt = E (X) −
tf (t) dt
−∞
avec :
— lim E (X) = E (X) ;
x→+∞
x
—
lim
x→+∞ −∞
+∞
tf (t) dt = E (X) par convergence de l’intégrale, puisque X ad-
tf (t) dt =
met une espérance.
Moralité :
−∞
+∞
lim
x→+∞ x
spicesagros.fr
P
tf (t) dt = E (X) − E (X) = 0
Christian Skiada
ECE2
EDHEC 1997 P
III − C
Page 66/68
et par le théorème d’encadrement :
lim xP ([X > x]) = 0
x→+∞
Enfin selon (42) :
x
∀x ∈ IR+ ,
—
—
(43)
(1 − F (t)) dt = ϕ (x) + xP ([X > x])
0
avec :
lim ϕ (x) = E (X) ;
x→+∞
lim xP ([X > x]) = 0
x→+∞
Conclusion : selon (43) ,
x
lim
x→+∞
0
(1 − F (t)) dt = E (X)
Autrement dit :
+∞
E (X) =
0
+∞
(1 − F (t)) dt =
(44)
P ([X > t]) dt
0
C’est la formule de “l’espérance et l’antirépartition”.
Partie III
On considère la fonction Fn définie par :
Fn (x) =
0
x
1− 1+
n
n
si x < 0
−x
e
si x ≥ 0
1. Vous avez deux points essentiels à vérifier afin de conclure que Fn est la fonction de répartition
d’une variable Tr :
— La fonction Fn est continue sur IR car Fn est continue sur IR∗− (coïncidence avec la fonction nulle
sur cet ensemble) et par produit et composition sur IR+ avec lim− Fn (x) = 0 = lim+ Fn (x)
x→0
x→0
x n −x
puisque lim+ 1 +
e = 1.
n
x→0
— La fonction Fn est de classe C 1 sur au moins IR∗ car Fn est de classe sur R∗− (coïncidence avec la
fonction nulle sur cet ensemble) et par produit et composition sur IR∗+ .
Conclusion :
La fonction Fn est bien la fonction de répartition d’une variable à densité Tn
2. (a) Pour tout entier naturel k, la fonction x −→ xk e−x est continue sur IR+ , donc l’intégrale Ik
présente une seule impropreté, en +∞. Comme :
lim x2 × xk e−x = lim xk+2 e−x = 0
x→+∞
x→+∞
par croissance comparées (exponentielle-puissance), pour tout entier naturel k,
xk e−x =
o
x→+∞
1
x2
+∞
dx
convergente en tant qu’intégrale de Riemann de paramètre 2 > 1. Ainsi le
x2
1
critère de négligeabilité appliqué aux fonctions positives permet de dire que pour tout
avec
+∞
entier k l’intégrale
xk e−x dx converge et par conséquent :
1
+∞
Pour tout entier naturel k, l’intégrale Ik =
xk e−x dx converge
0
spicesagros.fr
P
Christian Skiada
ECE2
EDHEC 1997 P
III − C
Page 67/68
(b) Montrer que Ik+1 = (k + 1) Ik puis donner la valeur de Ik .
Le résultat s’obtient après partialisation plus calcul de limite. Par définition pour tout entier
naturel k :
+∞
Ik+1
=
xk+1 e−x dx
0
=
α
lim
α→+∞
=
lim
α→+∞
xk+1 e−x dx
0
α
0
−xk+1 e−x
α
+ (k + 1)
xk e−x dx
0
en intégrant par parties où u : x −→ xk+1 et v : x −→ −e−x sont deux fonctions de classe
C 1 sur IR∗+ .
Moralité pour tout entier naturel k :
Ik+1
=
lim
α→+∞
=
lim
α→+∞
α
0
−xk+1 e−x
−α
k+1 −α
e
α
+ (k + 1)
xk e−x dx
0
α
+ (k + 1)
xk e−x dx
0
avec :
lim αk+1 e−α = 0
α→+∞
(encore les croissances comparées exponentielle-puissance) ;
α
lim (k + 1)
α→+∞
α
xk e−x dx = (k + 1)
0
xk e−x dx = (k + 1) Ik
0
Conclusion :
∀k ∈ IN, Ik+1 = (k + 1) Ik
Par itérations successives, pour tout entier naturel k :
Ik
= k!I0
+∞
= k!
e−x dx
0
=1 en partialisant !
= k!
Conclusion :
∀k ∈ IN, Ik = k!
2. En déduire , en utilisant la partie II, que Tn a une espérance et que E (Tn ) = E (N ) .
La variable Tn est à valeur dans IR+ alors en reprenant le résultat (44) , sous réserve de converge
de l’intégrale en jeu, nous avons :
+∞
E (Tn ) =
0
+∞
(1 − Fn (t)) dt =
1+
0
La convergence ne pose aucun problème (c’est confirmé par
admet une espérance égale à :
+∞
E (Tn ) =
1+
0
+∞ n
=
0
k=0
+∞ n
=
0
k=0
+∞ n
=
0
spicesagros.fr
P
k=0
x
n
n
k
Akn
k!
n
x
n
n
e−x dt
lim x2 × 1 +
x→+∞
x
n
n
e−x = 0). Tn
e−x dt
k
x
n
x
n
k
e−x dt
e−x dt
Akn k −x
x e dt
k!nk
Christian Skiada
ECE2
EDHEC 1997 P
n
=
k=0
Akn
k!nk
+∞
III − C
Page 68/68
xk e−x dt
0
car pour tout k les intégrales Ik sont convergentes, on peut donc permuer
n
=
k=0
n
=
k=0
et
Akn
Ik
k!nk
Akn
nk
= E (N)
Conclusion :
E (Tn ) = E (N )
spicesagros.fr
P
Christian Skiada
Téléchargement