Université Pierre et Marie Curie 2011-2012
Probabilités et statistiques - LM345 Première session – 15 décembre 2011
Examen
Durée : deux heures.
Sans documents ni calculatrices ni téléphones.
1. Soient Xet Ydeux variables aléatoires qui prennent respectivement leurs valeurs
dans {−1,1}et dans {0,3,4}et dont la loi jointe est donnée par le tableau ci-dessous.
Y= 0 Y= 3 Y= 4
X=1 1/8 1/4 0
X= 1 1/4 1/4 1/8
Ainsi, par exemple, P(X= 1, Y = 3) = 1
4.
a. Calculer la loi de X, c’est-à-dire les nombres P(X=1) et P(X= 1). Calculer la
loi de Y, c’est-à-dire les nombres P(Y= 0),P(Y= 3) et P(Y= 4).
b. Calculer l’espérance et la variance de Xet Y.
c. Calculer la loi de XY .
d. Calculer la covariance de Xet Y.
e. Les variables aléatoires Xet Ysont-elles indépendantes ?
Solution de l’exercice 1. a. On a
P(X=1) = P(X=1, Y = 0) + P(X=1, Y = 3) + P(X=1, Y = 4) = 3
8,
P(X= 1) = P(X= 1, Y = 0) + P(X= 1, Y = 3) + P(X= 1, Y = 4) = 5
8.
On vérifie bien au passage que P(X=1) + P(X= 1) = 1.
De même, la loi de Yest donnée par
P(Y= 0) = P(X=1, Y = 0) + P(X= 1, Y = 0) = 3
8,
P(Y= 3) = P(X=1, Y = 3) + P(X= 1, Y = 3) = 1
2,
P(Y= 4) = P(X=1, Y = 4) + P(X= 1, Y = 4) = 1
8.
b. On a
E[X] = (1)P(X=1) + 1P(X= 1) = 1
4
1
et
E[X2]=(1)2P(X=1) + 12P(X= 1) = 1.
Ainsi,
Var(X) = E[X2]E[X]2=15
16.
De même, on calcule
E[Y] = (0)P(Y= 0) + 3P(Y= 3) + 4P(Y= 4) = 2,
puis
E[Y2] = (0)2P(Y= 0) + 32P(Y= 3) + 42P(Y= 4) = 13
2
et enfin
Var(Y) = E[Y2]E[Y]2=5
2.
c. La variable aléatoire XY peut prendre les valeurs 4,3,0,3,4. Seule la probabilité
P(XY = 0) n’est pas inscrite dans le tableau donné dans l’énoncé, car elle est la probabilité
de la réunion disjointe des deux événements {X=1, Y = 0}et {X= 1, Y = 0}. On a
donc
P(XY = 0) = P(X=1, Y = 0) + P(X= 1, Y = 0) = 3
8.
Pour les autres valeurs, on a par exemple P(XY =4) = P(X=1, Y = 4) = 0. La loi
de XY est donc donnée par le tableau suivant :
n43 0 3 4
P(XY =n) 0 1/4 3/8 1/4 1/8.
d. Pour calculer la covariance de Xet Y, qui vaut Cov(X, Y ) = E[XY ]E[X]E[Y],
on calcule l’espérance de XY . Celle-ci vaut
E[XY ]=(4)P(XY =4) + (3)P(XY =3) + 0P(XY = 0) + 3P(XY = 3) + 4P(XY = 4)
=1
2.
On trouve donc
Cov(X, Y ) = 1
21
4·2 = 0.
e. Le fait que la covariance de Xet Ysoit nulle ne permet pas de conclure sur leur
indépendance. Si cette covariance avait été non nulle, on aurait pu en déduire que Xet Y
ne sont pas indépendantes, car des variables aléatoires indépendantes ont en particulier
une covariance nulle. Mais la réciproque est fausse, et deux variables aléatoires peuvent
avoir une covariance nulle sans être indépendantes.
C’est le cas ici : Xet Yne sont pas indépendantes. En effet, on a par exemple d’une
part
P(X=1)P(Y= 4) = 3
8·1
8=3
16
2
et d’autre part
P(X=1, Y = 4) = 0.
Ainsi,
P(X=1, Y = 4) 6=P(X=1)P(Y= 4),
ce qui prouve que Xet Yne sont pas indépendantes.
2. Soit (X, Y )un vecteur aléatoire dont la loi admet la densité
f(X,Y )(x, y) = cex2
2yR+(y),
cest une constante réelle. On rappelle qu’on a l’égalité R+
−∞ ex2
2dx =2π.
a. Déterminer la valeur de la constante c.
b. Déterminer la densité de la loi de Xet la densité de la loi de Y. Si ces lois sont
connues, on en donnera le nom.
c. Les variables aléatoires Xet Ysont-elles indépendantes ?
d. Calculer la densité de la loi de X2.
Solution de l’exercice 2. a. Une densité est une fonction mesurable positive dont l’inté-
grale par rapport à la mesure de Lebesgue vaut 1. On cherche donc ctelle que l’intégrale de
la fonction f(X,Y )vaille 1. Or on a, grâce à l’égalité rappelée à la fin de l’énoncé appliquée
dans le cas a= 0,
ZR2
f(X,Y )(x, y)dxdy =cZR2
ex2
2yR+(y)dxdy
=cZ+
−∞
ex2
2dx Z+
0
eydy
=c2π.
La seule valeur de cqui fait de la fonction f(X,Y )une densité est donc la valeur c=1
2π.
b. Soit g:RRune fonction mesurable bornée. Calculons E[g(X)] en utilisant le
théorème de transfert. On trouve
E[g(X)] = ZR2
g(x)f(X,Y )(x, y)dxdy
=1
2πZ+
−∞
g(x)ex2
2Z+
0
eydydx
=1
2πZ+
−∞
g(x)ex2
2dx.
La loi de Xadmet donc la densité fX(x) = 1
2πex2
2. C’est la loi gaussienne centrée
réduite, c’est-à-dire la loi que l’on note habituellement N(0,1).
3
De manière équivalente, on aurait pu trouver ce résultat en appliquant un résultat du
cours qui affirme que la densité de la loi de Xest donnée par la formule
fX(x) = Z+
−∞
f(X,Y )(x, y)dy.
Calculons maintenant la loi de Y. On procède de la même manière en calculant E[g(Y)]
pour une fonction mesurable bornée gquelconque.
E[g(Y)] = ZR2
g(y)f(X,Y )(x, y)dxdy
=1
2πZ+
0
g(y)eyZ+
−∞
ex2
2dxdy
=Z+
0
g(y)eydy.
La loi de Yadmet donc la densité fY(y) = eyR+(y). C’est la loi exponentielle de
paramètre 1.
c. On vérifie grâce aux calculs que l’on vient de faire qu’on a pour tout (x, y)R2
l’égalité f(X,Y )(x, y) = fX(x)fY(y). Les variables aléatoires Xet Ysont donc indépen-
dantes.
d. Soit gune fonction mesurable bornée. Calculons l’espérance de g(X2)en utilisant
encore une fois le théorème de transfert. On trouve
EgX2=Z+
−∞
g(x2)fX(x)dx
=1
2πZ+
−∞
gx2ex2
2dx.
La fonction que l’on intègre est paire par rapport à x, et avant de faire le changement de
variable t=x2, nous allons réécrire cette intégrale sous la forme
EgX2=2
2πZ+
0
gx2ex2
2dx.
Nous effectuons maintenant le changement de variables t=x2, qui s’inverse en x=t
puisque nous intégrons maintenant sur R+, et pour lequel nous avons dx =dt
2t. Ainsi,
E[g(X2)] = 2
2πZ+
0
g(t)et
2
2tdt
=1
2πZ+
0
g(t)et
2
tdt.
La loi de X2admet donc la densité fX2(t) = 1
2π
et
2
tR
+(t). Ce n’est pas une loi que nous
avons rencontrée dans le cours.
4
3. On mène une étude sur les préférences gustatives du chat Albert. On cherche à
comparer son attrait pour deux types de croquettes différentes, les unes au thon, les autres
au saumon. Pendant une semaine, on met à la disposition d’Albert une énorme quantité
d’un mélange de croquettes où 40% des croquettes sont au saumon. À la fin de la semaine,
on compte qu’il a mangé 340 croquettes, dont 200 au saumon.
a. Énoncer le théorème central limite.
b. Vous semble-t-il plausible qu’Albert n’ait pas de préférence entre les deux types de
croquettes ?
On pourra utiliser les égalités approchées
1
2πZ1,96
−∞
ex2
2dx '97,5% et 340 ·24 '90.
Solution de l’exercice 3. a. Le théorème central limite s’énonce comme suit.
Soit (Xn)n>1une suite de variables aléatoires indépendantes, toutes de même loi, et
de carré intégrable. Alors on a la convergence en loi
X1+. . . +XnnE[X1]
pnVar(X1)
loi
n→∞ N(0,1).
b. Faisons l’hypothèse que le chat choisit les croquettes indépendamment de leur sa-
veur. Pour chaque croquette qu’il a mangée pendant la semaine, nous définissons une
variable aléatoire Xiqui vaut 1si la croquette était au saumon, et 0si elle était au thon.
On suppose les variables X1, . . . , X340 indépendantes, et de loi de Bernoulli de para-
mètre 0,4, puisque c’est la proportion de croquettes au saumon dans le mélange qui lui
est proposé. (Puisque la quantité de mélange qui lui est proposée est énorme, les quelques
croquettes qu’il mange ne modifient presque pas cette proportion.) Ces variables aléa-
toires sont indépendantes, toutes de même loi, et de carré intégrable puisqu’elles sont
bornées par 1. On peut donc appliquer le théorème central limite. On a E[X1]=0,4et
Var(X1)=0,4·(1 0,4) = 24
100 .
On fait l’approximation que la convergence affirmée par le théorème est une égalité,
si bien que l’on a pour tout aréel
P
X1+. . . +X340 340 ·0,4
q340 ·24
100
6a
'1
2πZa
−∞
ex2
2dx.
En prenant a= 1,96 et en utilisant les égalités approchées données par l’énoncé, on trouve
P(X1+. . . +X340 6340 ·0,4+9·1,96) '97,5%,
c’est-à-dire
P(X1+. . . +X340 6153) '97,5%.
5
1 / 7 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !