corrigé

publicité
Université Pierre et Marie Curie
Probabilités et statistiques - LM345
2011-2012
Première session – 15 décembre 2011
Examen
Durée : deux heures.
Sans documents ni calculatrices ni téléphones.
1. Soient X et Y deux variables aléatoires qui prennent respectivement leurs valeurs
dans {−1, 1} et dans {0, 3, 4} et dont la loi jointe est donnée par le tableau ci-dessous.
X = −1
X=1
Y =0 Y =3 Y =4
1/8
1/4
0
1/4
1/4
1/8
Ainsi, par exemple, P(X = 1, Y = 3) = 41 .
a. Calculer la loi de X, c’est-à-dire les nombres P(X = −1) et P(X = 1). Calculer la
loi de Y , c’est-à-dire les nombres P(Y = 0), P(Y = 3) et P(Y = 4).
b. Calculer l’espérance et la variance de X et Y .
c. Calculer la loi de XY .
d. Calculer la covariance de X et Y .
e. Les variables aléatoires X et Y sont-elles indépendantes ?
Solution de l’exercice 1. a. On a
3
P(X = −1) = P(X = −1, Y = 0) + P(X = −1, Y = 3) + P(X = −1, Y = 4) = ,
8
5
P(X = 1) = P(X = 1, Y = 0) + P(X = 1, Y = 3) + P(X = 1, Y = 4) = .
8
On vérifie bien au passage que P(X = −1) + P(X = 1) = 1.
De même, la loi de Y est donnée par
3
P(Y = 0) = P(X = −1, Y = 0) + P(X = 1, Y = 0) = ,
8
1
P(Y = 3) = P(X = −1, Y = 3) + P(X = 1, Y = 3) = ,
2
1
P(Y = 4) = P(X = −1, Y = 4) + P(X = 1, Y = 4) = .
8
b. On a
E[X] = (−1)P(X = −1) + 1P(X = 1) =
1
1
4
et
E[X 2 ] = (−1)2 P(X = −1) + 12 P(X = 1) = 1.
Ainsi,
Var(X) = E[X 2 ] − E[X]2 =
15
.
16
De même, on calcule
E[Y ] = (0)P(Y = 0) + 3P(Y = 3) + 4P(Y = 4) = 2,
puis
E[Y 2 ] = (0)2 P(Y = 0) + 32 P(Y = 3) + 42 P(Y = 4) =
13
2
et enfin
5
Var(Y ) = E[Y 2 ] − E[Y ]2 = .
2
c. La variable aléatoire XY peut prendre les valeurs −4, −3, 0, 3, 4. Seule la probabilité
P(XY = 0) n’est pas inscrite dans le tableau donné dans l’énoncé, car elle est la probabilité
de la réunion disjointe des deux événements {X = −1, Y = 0} et {X = 1, Y = 0}. On a
donc
3
P(XY = 0) = P(X = −1, Y = 0) + P(X = 1, Y = 0) = .
8
Pour les autres valeurs, on a par exemple P(XY = −4) = P(X = −1, Y = 4) = 0. La loi
de XY est donc donnée par le tableau suivant :
n
P(XY = n)
−4 −3 0
3
4
.
0 1/4 3/8 1/4 1/8
d. Pour calculer la covariance de X et Y , qui vaut Cov(X, Y ) = E[XY ] − E[X]E[Y ],
on calcule l’espérance de XY . Celle-ci vaut
E[XY ] = (−4)P(XY = −4) + (−3)P(XY = −3) + 0P(XY = 0) + 3P(XY = 3) + 4P(XY = 4)
1
= .
2
On trouve donc
1 1
− · 2 = 0.
2 4
e. Le fait que la covariance de X et Y soit nulle ne permet pas de conclure sur leur
indépendance. Si cette covariance avait été non nulle, on aurait pu en déduire que X et Y
ne sont pas indépendantes, car des variables aléatoires indépendantes ont en particulier
une covariance nulle. Mais la réciproque est fausse, et deux variables aléatoires peuvent
avoir une covariance nulle sans être indépendantes.
C’est le cas ici : X et Y ne sont pas indépendantes. En effet, on a par exemple d’une
part
3 1
3
P(X = −1)P(Y = 4) = · =
8 8
16
Cov(X, Y ) =
2
et d’autre part
P(X = −1, Y = 4) = 0.
Ainsi,
P(X = −1, Y = 4) 6= P(X = −1)P(Y = 4),
ce qui prouve que X et Y ne sont pas indépendantes.
2. Soit (X, Y ) un vecteur aléatoire dont la loi admet la densité
x2
f(X,Y ) (x, y) = ce− 2 −y 1R+ (y),
√
R +∞ x2
où c est une constante réelle. On rappelle qu’on a l’égalité −∞ e− 2 dx = 2π.
a. Déterminer la valeur de la constante c.
b. Déterminer la densité de la loi de X et la densité de la loi de Y . Si ces lois sont
connues, on en donnera le nom.
c. Les variables aléatoires X et Y sont-elles indépendantes ?
d. Calculer la densité de la loi de X 2 .
Solution de l’exercice 2. a. Une densité est une fonction mesurable positive dont l’intégrale par rapport à la mesure de Lebesgue vaut 1. On cherche donc c telle que l’intégrale de
la fonction f(X,Y ) vaille 1. Or on a, grâce à l’égalité rappelée à la fin de l’énoncé appliquée
dans le cas a = 0,
Z
Z
x2
e− 2 −y 1R+ (y) dxdy
f(X,Y ) (x, y) dxdy = c
2
R2
Z +∞
ZR+∞
2
− x2
e−y dy
e
dx
=c
0
√−∞
= c 2π.
La seule valeur de c qui fait de la fonction f(X,Y ) une densité est donc la valeur c = √12π .
b. Soit g : R → R une fonction mesurable bornée. Calculons E[g(X)] en utilisant le
théorème de transfert. On trouve
Z
E[g(X)] =
g(x)f(X,Y ) (x, y) dxdy
R2
Z +∞
Z +∞
2
1
− x2
−y
g(x)e
e dy dx
=√
2π −∞
0
Z +∞
x2
1
=√
g(x)e− 2 dx.
2π −∞
x2
La loi de X admet donc la densité fX (x) = √12π e− 2 . C’est la loi gaussienne centrée
réduite, c’est-à-dire la loi que l’on note habituellement N (0, 1).
3
De manière équivalente, on aurait pu trouver ce résultat en appliquant un résultat du
cours qui affirme que la densité de la loi de X est donnée par la formule
Z +∞
f(X,Y ) (x, y) dy.
fX (x) =
−∞
Calculons maintenant la loi de Y . On procède de la même manière en calculant E[g(Y )]
pour une fonction mesurable bornée g quelconque.
Z
E[g(Y )] =
g(y)f(X,Y ) (x, y) dxdy
R2
Z +∞
Z +∞
2
1
−y
− x2
=√
g(y)e
e
dx dy
2π 0
−∞
Z +∞
g(y)e−y dy.
=
0
La loi de Y admet donc la densité fY (y) = e−y 1R+ (y). C’est la loi exponentielle de
paramètre 1.
c. On vérifie grâce aux calculs que l’on vient de faire qu’on a pour tout (x, y) ∈ R2
l’égalité f(X,Y ) (x, y) = fX (x)fY (y). Les variables aléatoires X et Y sont donc indépendantes.
d. Soit g une fonction mesurable bornée. Calculons l’espérance de g(X 2 ) en utilisant
encore une fois le théorème de transfert. On trouve
Z +∞
2
E g X
=
g(x2 )fX (x) dx
−∞
Z +∞
x2
1
=√
g x2 e− 2 dx.
2π −∞
La fonction que l’on intègre est paire par rapport à x, et avant de faire le changement de
variable t = x2 , nous allons réécrire cette intégrale sous la forme
Z +∞
x2
2
2
E g X
g x2 e− 2 dx.
=√
2π 0
√
Nous effectuons maintenant le changement de variables t = x2 , qui s’inverse en x = t
√ . Ainsi,
puisque nous intégrons maintenant sur R+ , et pour lequel nous avons dx = 2dt
t
Z +∞
t
2
e− 2
E[g(X )] = √
g(t) √ dt
2 t
2π 0
Z +∞
t
1
e− 2
=√
g(t) √ dt.
t
2π 0
2
La loi de X 2 admet donc la densité fX 2 (t) =
avons rencontrée dans le cours.
4
t
−2
√1 e√
t
2π
1R∗+ (t). Ce n’est pas une loi que nous
3. On mène une étude sur les préférences gustatives du chat Albert. On cherche à
comparer son attrait pour deux types de croquettes différentes, les unes au thon, les autres
au saumon. Pendant une semaine, on met à la disposition d’Albert une énorme quantité
d’un mélange de croquettes où 40% des croquettes sont au saumon. À la fin de la semaine,
on compte qu’il a mangé 340 croquettes, dont 200 au saumon.
a. Énoncer le théorème central limite.
b. Vous semble-t-il plausible qu’Albert n’ait pas de préférence entre les deux types de
croquettes ?
On pourra utiliser les égalités approchées
Z 1,96
√
x2
1
√
e− 2 dx ' 97, 5% et
340 · 24 ' 90.
2π −∞
Solution de l’exercice 3. a. Le théorème central limite s’énonce comme suit.
Soit (Xn )n>1 une suite de variables aléatoires indépendantes, toutes de même loi, et
de carré intégrable. Alors on a la convergence en loi
X1 + . . . + Xn − nE[X1 ] loi
p
−→ N (0, 1).
n→∞
nVar(X1 )
b. Faisons l’hypothèse que le chat choisit les croquettes indépendamment de leur saveur. Pour chaque croquette qu’il a mangée pendant la semaine, nous définissons une
variable aléatoire Xi qui vaut 1 si la croquette était au saumon, et 0 si elle était au thon.
On suppose les variables X1 , . . . , X340 indépendantes, et de loi de Bernoulli de paramètre 0, 4, puisque c’est la proportion de croquettes au saumon dans le mélange qui lui
est proposé. (Puisque la quantité de mélange qui lui est proposée est énorme, les quelques
croquettes qu’il mange ne modifient presque pas cette proportion.) Ces variables aléatoires sont indépendantes, toutes de même loi, et de carré intégrable puisqu’elles sont
bornées par 1. On peut donc appliquer le théorème central limite. On a E[X1 ] = 0, 4 et
24
.
Var(X1 ) = 0, 4 · (1 − 0, 4) = 100
On fait l’approximation que la convergence affirmée par le théorème est une égalité,
si bien que l’on a pour tout a réel


Z a
x2
X
+
.
.
.
+
X
−
340
·
0,
4
1
1
340
q
P
6 a ' √
e− 2 dx.
2π −∞
340 · 24
100
En prenant a = 1, 96 et en utilisant les égalités approchées données par l’énoncé, on trouve
P (X1 + . . . + X340 6 340 · 0, 4 + 9 · 1, 96) ' 97, 5%,
c’est-à-dire
P(X1 + . . . + X340 6 153) ' 97, 5%.
5
Ainsi, nous arrivons à la conclusion que si le chat choisissait les croquettes sans prêter attention à leur goût, il y aurait 97, 5% de chances pour qu’il mange moins de 153 croquettes
au saumon.
Le fait qu’il en ait mangé 200 suggère qu’il préfère le saumon au thon.
4. Soit (Xn )n>1 une suite de variables aléatoires indépendantes, toutes de même loi
exponentielle de paramètre 1. a. Montrer que la suite Xnn n>1 converge en probabilité vers 0.
b. Montrer que la suite Xn2n n>1 converge dans L1 vers 0.
n
c. Que peut-on dire de la suite X1 +...+X
? Pour appliquer un théorème du cours,
n
n>1
on vérifiera explicitement que toutes ses hypothèses sont satisfaites.
d. Écrire avec les symboles ∩ et ∪ l’événement
A = “pour n assez grand, on a l’inégalité Xn < 2 log n”.
e. Calculer la probabilité de A.
Solution de l’exercice 4. a. Par définition, il faut montrer que pour tout ε > 0, la suite
de probabilités P( Xnn > ε) converge vers 0.
Soit donc ε > 0. Pour tout n > 1, on a
Z +∞
Xn
e−t dt = e−nε = (e−ε )n .
P
> ε = P(Xn > nε) =
n
nε
Cette quantité tend vers 0 lorsque n tend vers l’infini, car e−ε appartient à l’intervalle
]0, 1[. Ceci montre qu’on a la convergence
Xn P
−→ 0.
n n→∞
b. Par définition,il faut vérifier
que la variable aléatoire 0 est intégrable, et que la
Xn
suite d’espérances E n2 − 0 converge vers 0.
Or pour tout n > 1, on a, puisque Xn est une variable aléatoire positive,
Z +∞
Xn
Xn
1
1
1
= 2 E[Xn ] = 2
te−t dt = 2 .
E 2 − 0 = E
2
n
n
n
n 0
n
c. On va appliquer la loi de grands nombres. La suite (Xn )n>1 est une suite de variables
aléatoires indépendantes, toutes de même loi, et intégrables, puisque E[|X1 |] = E[X1 ] =
1 < +∞. Il est donc légitime d’appliquer la loi forte des grands nombres, qui affirme qu’on
a lorsque n tend vers l’infini la convergence presque sûre
X1 + . . . + Xn p.s.
−→ 1.
n→∞
n
6
d. L’événement A s’écrit
A=
[ \
{Xn < 2 log n} .
N >1 n>N
e. Le complémentaire de A s’écrit
\ [
Ac =
{Xn > 2 log n} .
N >1 n>N
Pour tout n, on a
1
.
n2
est convergente, si bien que
P(Xn > 2 log n) = e−2 log n =
Or la série de terme général
1
n2
X
P(Xn > 2 log n) < +∞.
n>1
D’après le lemme de Borel-Cantelli, ceci entraîne que l’événement Ac , qui est l’événement
Ac = “on a l’inégalité Xn > 2 log n pour une infinité de valeurs de n ”,
est de probabilité nulle. Ainsi,
P(A) = 1.
Barême indicatif.
1.
2.
3.
4.
16
22
16
22
points
points
points
points
7
Téléchargement