Recueil - Portail libre

publicité
Analyse statistique
Exercices et solutions
Analyse statistique
Exercices et solutions
Vincent Goulet
École d’actuariat
Université Laval
Mathieu Pigeon
Institut de statistique
Université Catholique de Louvain
Première édition préliminaire
© 2010 Vincent Goulet, Mathieu Pigeon
Cette création est mise à disposition selon le contrat Paternité-Partage des conditions
initiales à l’identique 2.5 Canada disponible en ligne http://creativecommons.org/
licenses/by-sa/2.5/ca/ ou par courrier postal à Creative Commons, 171 Second
Street, Suite 300, San Francisco, California 94105, USA.
Historique de publication
Janvier 2010 : Première édition préliminaire
Code source
Le code source LATEX de ce document est disponible à l’adresse
http://vgoulet.act.ulaval.ca/analyse_statistique/
ou en communiquant directement avec les auteurs.
Introduction
Ce document est une collection des exercices distribués par les auteurs
dans le cadre du cours Analyse statistique des risques actuariels à l’École
d’actuariat de l’Université Laval. Certains exercices sont le fruit de l’imagination des auteurs, alors que plusieurs autres sont des adaptations d’exercices
tirés des ouvrages cités dans la bibliographie.
C’est d’ailleurs afin de ne pas usurper de droits d’auteur que ce document est publié selon les termes du contrat Paternité-Partage des conditions
initiales à l’identique 2.5 Canada de Creative Commons. Il s’agit donc d’un
document «libre» que quiconque peut réutiliser et modifier à sa guise, à
condition que le nouveau document soit publié avec le même contrat.
Le recueil d’exercices se veut un complément à un cours de statistique mathématique pour des étudiants de premier ou deuxième cycle universitaire.
Les exercices sont divisés en sept chapitres qui correspondent aux chapitres
de notre cours. Le chapitre 1 porte sur des rappels de notions de base en probabilité. Il est suivi d’un chapitre qui traite des transformations de variables
aléatoires pour mener à la présentation des lois t de Student et F de Fisher.
L’analyse statistique à proprement parler débute véritablement au chapitre 3 avec l’étude de la notion d’échantillon aléatoire, de la distribution de
la moyenne et de la variance et de l’échantillon, ainsi que des statistiques
d’ordre. Le chapitre 4, qui traite d’estimation ponctuelle par les méthodes
classiques (maximum de vraisemblance, méthode des moments, etc.) et des
diverses propriétés des estimateurs constitue le cœur du recueil. Le chapitre 5
propose quant à lui quelques exercices d’estimation bayesienne. Enfin, les notions étroitement liées d’estimation par intervalle et de test d’hypothèses font
l’objet des chapitres 6 et 7.
Les réponses des exercices se trouvent à la fin de chacun des chapitres,
alors que les solutions complètes sont regroupées à l’annexe E. De plus, on
trouvera à la fin de chaque chapitre une liste non exhaustive d’exercices proposés dans Wackerly et collab. (2008). Des solutions de ces exercices sont
offertes dans Owen (2008), ou encore sous forme de petits clips vidéo (solutions clip) disponibles dans le portail Libre de l’École d’actuariat à l’adresse
http://libre.act.ulaval.ca
Les annexes A à D contiennent des tables de quantiles des lois normale,
khi carré, t et F.
v
vi
Introduction
Nous encourageons le lecteur à utiliser le logiciel R (R Development Core
Team, 2009) pour résoudre certains exercices, notamment ceux du chapitre 7.
Nous remercions d’avance les lecteurs qui voudront bien nous faire part
de toute erreur ou omission dans les exercices ou leurs solutions.
Vincent Goulet <[email protected]>
Mathieu Pigeon <[email protected]>
Québec, janvier 2010
Notation
– Les lettres majuscules sont réservées pour les variables aléatoires et les
lettres minuscules, pour les observations de ces variables aléatoires ou pour
les constantes.
– La seule exception est θ̂, qui représente à la fois un estimateur (ou une
statistique, donc une variable aléatoire) et une estimation (une valeur de la
statistique).
– On note zα le 100(1 − α)e quantile de la variable aléatoire Z. Par exemple,
le 95e centile est noté z0,05 .
vii
Table des matières
Introduction
v
Notation
vii
1
Notions de base en probabilité
1
2
Transformations de variables aléatoires
7
3
Échantillon aléatoire
11
4
Estimation ponctuelle
15
5
Estimation bayesienne
21
6
Estimation par intervalle
23
7
Tests d’hypothèses
25
A Table de quantiles de la loi normale
31
B Table de quantiles de la loi khi carré
33
C Table de quantiles de la loi t
35
D Table de quantiles de la loi F
37
E Solutions
Chapitre 1
Chapitre 2
Chapitre 3
Chapitre 4
Chapitre 5
Chapitre 6
Chapitre 7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Bibliographie
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
41
. 41
. 55
. 66
. 75
. 93
. 97
. 102
113
ix
1
Notions de base en probabilité
1.1 a) Démontrer que les fonctions suivantes sont des fonctions de densité
de probabilité.
i) f 1 ( x ) = e− x , x > 0
ii) f 2 ( x ) = 2e−2x , x > 0
iii) f 3 ( x ) = (1 + θ ) f 1 ( x ) − θ f 2 ( x ), x > 0, 0 < θ < 1
b) Démontrer que les fonctions continues suivantes sont des fonctions de
répartition (supposer qu’elles sont continues à droite).
i) F ( x ) = (1 + e− x )−1 , −∞ < x < ∞
−x
ii) F ( x ) = e−e , −∞ < x < ∞
1.2 Trouver la constante k faisant en sorte que f ( x ) = kx2 , −k < x < k, soit
une densité.
1.3 Trouver la constante c faisant en sorte que f ( x ) = ce−| x| , −∞ < x < ∞,
soit une densité.
1.4 Une pièce de monnaie équilibrée est lancée jusqu’à ce qu’un résultat de
face soit obtenu. Soit X la variable aléatoire du nombre de lancers nécessaires.
a) Trouver la fonction de masse de probabilité de X.
b) Calculer l’espérance et la variance de X.
c) Déterminer la fonction génératrice des moments de X.
1.5 Soit
1
f (x) =
β
x − α
,
1−
β α − β < x < α + β,
où α ∈ R et β > 0 sont des constantes quelconques.
a) Démontrer que f ( x ) est une densité.
b) Déterminer la fonction de répartition correspondant à f ( x ).
1.6 Soit X une variable aléatoire avec fonction de répartition
FX ( x ) = pH ( x ) + (1 − p) G ( x )
1
2
Notions de base en probabilité
où 0 < p < 1 est une constante fixe,
(
x, 0 < x ≤ 1
H (x) =
1, x > 1
et
(
G(x) =
x/2,
1,
0<x≤2
x > 2.
Une telle distribution est appelée mélange (discret), ou distribution contaminée lorsque p est grand. Dans les questions ci-dessous, supposer que
p = 1/2.
a) Déterminer la formule explicite de la fonction de répartition de X.
b) Déterminer la fonction de densité de probabilité de X.
c) Évaluer Pr[ X ≤ 1/2| X ≤ 1].
1.7 Soit X une variable aléatoire de moyenne µ et de variance σ2 . Déterminer
la valeur de c qui minimise E[( X − c)2 ].
1.8 Soit une variable aléatoire X de moyenne E[ X ] = µ et de variance Var[ X ] =
σ2 . Le coefficient d’asymétrie de X est défini comme
"
#
X−µ 3
E[( X − µ)3 ]
γ1 = E
.
=
σ
σ3
Pour chacune des fonctions de densité de probabilité ci-dessous, calculer
le coefficient d’asymétrie et en esquisser le graphique. Comparer la valeur
du coefficient d’asymétrie à la forme de la densité.
a) f ( x ) = ( x + 1)/2, −1 < x < 1.
b) f ( x ) = 1/2, −1 < x < 1.
c) f ( x ) = (1 − x )/2, −1 < x < 1.
1.9 Démontrer que la fonction génératrice des moments de la variable aléatoire X avec fonction de densité de probabilité f ( x ) = 1/3, −1 < x < 2
est
e2t − e−t
, t ≠ 0.
MX (t ) =
3t
1.10 Soit X une variable aléatoire continue non négative. Démontrer que
E[ X ] =
Z ∞
0
(1 − FX ( x )) dx,
où FX ( x ) est la fonction de répartition de X.
Notions de base en probabilité
3
1.11 a) Soient X1 , X2 et X3 des variables aléatoires non corrélées de même
variance σ2 . Trouver le coefficient de corrélation entre X1 + X2 et
X2 + X3 .
b) Soient X1 , X2 et X3 des variables aléatoires indépendantes et identiquement distribuées avec moyenne µ et variance σ2 . Trouver le coefficient de corrélation entre X2 − X1 et X3 − X1 .
1.12 Soient X et Y deux variables aléatoires avec fonction de densité conjointe
f ( x, y) = x + y, 0 < x < 1, 0 < y < 1. Calculer l’espérance et la variance
conditionnelles de Y sachant que X = x, 0 < x < 1.
1.13 Soient f X |Y ( x |y) = c1 x/y2 , 0 < x < y, 0 < y < 1 et f Y (y) = c2 y4 , 0 < y < 1,
la densité conditionnelle de X sachant Y = y et la densité marginale de
Y, respectivement.
a) Déterminer les constantes c1 et c2 .
b) Déterminer la densité conjointe de X et Y.
c) Calculer Pr[ 14 < X < 12 |Y = 58 ].
d) Calculer Pr[ 14 < X < 12 ].
1.14 Soit MX (t) la fonction génératrice des moments de la variable aléatoire
X.
a) Soit Y = aX + b, où a et b sont des constantes quelconques. Démontrer que
MY (t) = ebt MX ( at).
b) Soient X1 , . . . , Xn des variables aléatoires indépendantes et Y = X1 +
· · · + Xn . Démontrer que
n
MY (t) = ∏ MX j (t).
j =1
1.15 Démontrer que les variables aléatoires X et Y avec fonction de densité
conjointe f ( x, y) = 12xy(1 − y), 0 < x < 1, 0 < y < 1 sont stochastiquement indépendantes.
1.16 La densité conjointe des variables aléatoires X et Y est f ( x, y) = 2e− x−y ,
0 < x < y, 0 < y < ∞. Démontrer que les deux variables aléatoires sont
stochastiquement dépendantes.
1.17 Si X suit une loi de Poisson avec Pr[ X = 1] = Pr[ X = 2], qu’elle est la
probabilité que X = 1 ou X = 2 ?
1.18 Démontrer que si X est une variable aléatoire continue, alors
min E[| X − a|] = E[| X − m|]
a
où m est la médiane de X.
4
Notions de base en probabilité
1.19 La distribution de Weibull est fréquemment utilisée en assurance IARD
pour la modélisation des montants de sinistres, entre autres. Sa fonction
de répartition est
F ( x ) = 1 − e−λx ,
τ
x > 0, λ > 0, τ > 0.
a) Déterminer la fonction de densité de probabilité de la Weibull.
b) Calculer l’espérance et la variance de la Weibull.
1.20 Soient X et Y deux variables aléatoires continues avec
(
1, x < y < x + 1
f Y |X (y| x ) =
0, ailleurs
et
(
f X (x) =
1,
0,
0<x<1
ailleurs.
Calculer les quantités demandées ci-dessous.
a) E[Y ]
b) Cov( X, Y )
c) Pr[ X + Y < 1]
Exercices proposés dans Wackerly et collab. (2008)
3.145–3.151, 3.153, 3.155, 3.158, 3.159, 3.161, 3.162, 3.163
Réponses
1.2 (3/2)1/4
1.3 1/2
1.4 a) Pr[ X = x ] = (1/2) x , x = 1, 2, . . . b) E[ X ] = 2, Var[ X ] = 2 c) MX (t) =
(2e−t − 1)−1
1.5 b) F ( x ) = β−1 ( x − α) + 21 β−2 ( x − α)2 + 12 pour α − β < x ≤ α et F ( x ) =
1 −2
1
−1
2
2 + β ( x − α ) − 2 β ( x − α ) pour α < x < α + β
1.6 a) F ( x ) = 43 xI{0< x≤1} + ( 12 + 14 x ) I{1< x≤2} + I{ x>2} , où I{ A} est une fonction indicatrice valant 1 si la condition A est vraie et 0 sinon b) f ( x ) =
3
1
1
4 I{0< x ≤1} + 4 I{1< x ≤2} c) 2
1.7 c = µ
Notions de base en probabilité
√
√
1.8 a) −2 2/5 b) 0 c) 2 2/5
1.11 a) 1/2 b) 1/2
1.12 E[Y | X = x ] = (3x + 2)(6x + 3), Var[Y | X = x ] = (6x2 + 6x + 1)/(2(6x +
3)2 ).
1.13 a) c1 = 2, c2 = 5 b) f XY ( xy) = 10xy2 , 0 < x < y, 0 < y < 1 c) 12/25 d) 5/16
1.17 4e−2
1.19 a) f ( x ) = λτx τ −1 e−λx b) E[ X ] = λ−1/τ Γ(1 + τ1 ), Var[ X ] = λ−2/τ (Γ(1 +
2/τ ) − Γ(1 + 1/τ )2 )
τ
1.20 a) 1 b) 1/12 c) 1/4
5
2
Transformations de variables
aléatoires
2.1 Soit f X ( x ) = x2 /9, 0 < x < 3. Trouver la fonction de densité de probabilité
de Y = X 3 .
2.2 Soit X une variable aléatoire dont la loi est géométrique de paramètre
1/3, c’est-à-dire que
1 2 x
Pr[ X = x ] =
, x = 0, 1, 2, . . .
3 3
Déterminer la fonction de masse de probabilité de la variable aléatoire
Y = X/( X + 1).
2.3 Soit Z ∼ N (0, 1) avec fonction de densité de probabilité
1 2
1
φ(z) = √ e− 2 z ,
2π
−∞ < z < ∞,
et fonction de répartition
Φ(z) =
Z z
−∞
φ( x ) dx.
Exprimer les fonctions de densité et de répartition de X = µ + σZ en
fonction de φ(·) et Φ(·).
2.4 Soit la variable aléatoire Z ∼ N (0, 1). Démontrer que Z2 ∼ χ2 (1) avec la
technique de la fonction génératrice des moments. (Note : il faut intégrer
pour trouver la fonction génératrice des moments de Z2 .)
2.5 Soit X une variable aléatoire avec fonction de répartition FX ( x ) continue
strictement croissante. Soit Y = FX ( X ) une nouvelle variable aléatoire. Démontrer que Y ∼ U (0, 1) par la méthode de la fonction de répartition.
Utiliser le fait que F −1 ( F ( x )) = x.
7
8
Transformations de variables aléatoires
2.6 a) Soit X ∼ N (0, σ2 ). Trouver la distribution de Y = X 2 .
b) Soient X1 et X2 deux variables aléatoires indépendantes chacune distribuée selon une loi normale centrée réduite. Trouver la distribution
de
( X1 − X2 ) 2
.
Y=
2
2.7 Soient X1 ∼ N (0, 1) et X2 ∼ N (0, 1) deux variables aléatoires indépendantes. De plus, soient Y1 = X1 + X2 et Y2 = X12 + X22 . Démontrer que la
fonction génératrice des moments conjointe de Y1 et Y2 est
(
)
t21
1
1
exp
, −∞ < t1 < ∞, −∞ < t2 < .
1 − 2t2
1 − 2t2
2
2.8 Soient X1 , X2 et X3 trois variables aléatoires indépendantes avec densité
f ( x ) = e− x , x > 0. Démontrer que
Y1 =
X1
,
X1 + X2
Y2 =
X1 + X2
,
X1 + X2 + X3
Y3 = X1 + X2 + X3
sont mutuellement indépendantes.
2.9 Soit X ∼ N (µ, σ2 ). La variable aléatoire Y = e X est distribuée selon la loi
log-normale.
a) Exprimer la fonction de densité de probabilité et la fonction de répartition de Y en fonction de celles de X.
b) Calculer E[Y k ].
2.10 La distribution de Cauchy a comme densité
f (x) =
1
,
π (1 + x 2 )
−∞ < x < ∞.
Elle est visuellement similaire à une normale, mais elle est surtout utilisée comme exemple pathologique : aucun de ses moments n’existe.
Soient X1 et X2 deux variables aléatoires indépendantes chacune distribuée selon une loi normale centrée réduite (moyenne 0 et variance
1). Démontrer que la distribution marginale de Y1 = X1 /X2 est Cauchy.
(Astuce : définir Y2 = X2 , trouver la distribution conjointe de Y1 et Y2
puis intégrer pour trouver la distribution marginale de Y1 .)
2.11 Soit T une variable aléatoire distribuée selon une loi t avec 10 degrés de
liberté.
a) Trouver Pr[| T | > 2,228] à l’aide d’une table de la loi t.
b) Répéter la partie a) à l’aide de R. La fonction pt(x, n) donne la
valeur de la fonction de répartition en x d’une loi t avec n degrés de
liberté.
Transformations de variables aléatoires
9
2.12 Soit T une variable aléatoire distribuée selon une loi t avec 14 degrés de
liberté.
a) Trouver la valeur de b tel que Pr[−b < T < b] = 0,90 à l’aide d’une
table de la loi t.
b) Répéter la partie a) à l’aide R. La fonction qt(p, n) retourne le pe
quantile d’une loi t avec n degrés de liberté, c’est-à-dire la valeur de
x où la fonction de répartition vaut p.
2.13 a) Démontrer qu’une loi t avec un degré de liberté est une loi de Cauchy.
b) Sachant que
1
a n
= lim (1 + ax ) x = e a ,
lim 1 +
n→∞
n
x →0
vérifier que la loi t tend vers une normale centrée réduite lorsque
le nombre de degrés de liberté tend vers l’infini. (Supposer que les
constantes de la densité de la loi t tendent vers ce qu’il se doit lorsque
r → ∞.)
2.14 Soit Z ∼ N (0, 1). Démontrer que le quatrième moment de Z est égal à
3 et donc que le coefficient d’aplatissement d’une loi normale centrée
réduite est nul.
2.15 Soit U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ), deux variables aléatoires indépendantes.
a) Démontrer que la densité de
F=
est
f (x) =
U/r1
V/r2
Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1
.
Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2
b) Calculer E[ F ].
c) Calculer Var[ F ].
2.16 Soit F une variable aléatoire distribuée selon une loi F avec r1 et r2
degrés de liberté (dans l’ordre). Démontrer que 1/F est aussi distribuée
selon une loi F, mais avec r2 et r1 degrés de liberté.
2.17 Si F a une distribution F avec paramètres r1 = 5 et r2 = 10, trouver a et
b de sorte que Pr[ F ≤ a] = 0,05 et Pr[ F ≤ b] = 0,95. Les quantiles de la
loi F peuvent être trouvés soit dans une table, soit à l’aide de la fonction
qf(x, r1, r2) de R. (Astuce : en travaillant avec une table, utiliser le fait
que Pr[ F ≤ a] = Pr[ F −1 ≥ a−1 ] = 1 − Pr[ F −1 ≤ a−1 ].)
√
2.18 Soit T = W/ V/r, où W et V sont des variables aléatoires indépendantes avec une distribution, respectivement, normale centrée réduite et
khi carré avec r degrés de liberté. Démontrer que la distribution de T 2
est F avec 1 et r degrés de liberté.
10
Transformations de variables aléatoires
2.19 Soit
Y=
1
,
1 + (r1 /r2 ) F
où F ∼ F(r1 , r2 ). Démontrer que Y a une distribution Bêta.
2.20 Soit X |Θ = θ ∼ Exponentielle(θ ) et Θ ∼ Gamma(α, λ).
a) Démontrer que la distribution marginale de X est une loi de Pareto
avec densité
αλα
f X (x) =
, x > 0.
( λ + x ) α +1
b) Démontrer que E[ X ] = λ(α − 1)−1 .
Exercices proposés dans Wackerly et collab. (2008)
6.37, 6.38, 6.39, 6.40, 6.41, 6.42, 6.43, 6.44, 6.46, 6.47, 6.49, 6.50, 6.53, 6.62, 7.91,
7.93, 7.94
Réponses
2.1 f Y (y) = 1/27, 0 < y < 27
2.2 (1/3)(2/3)y/(1−y)
2.3 f X ( x ) = σ−1 φ(( x − µ)/σ ), FX ( x ) = Φ(( x − µ)/σ )
2.6 a) Gamma(1/2, 1/(2σ2 )) b) χ2 (1)
2.9 a) FY (y) = Φ((log y − µ)/σ ) b) ekµ+k
2 σ2 /2
2.11 0,05
2.12 1,761
2.15 b) r2 /(r2 − 2)
c) 2[r22 (r2 + r1 − 2)]/[r1 (r2 − 2)2 (r2 − 4)]
2.17 a = 0,211 et b = 3,326
3
Échantillon aléatoire
3.1 Soit X̄ la moyenne d’un échantillon de taille 5 d’une distribution normale
avec moyenne 10 et variance 125. Trouver c tel que Pr[ X̄ < c] = 0,90.
3.2 Si X̄ est la moyenne d’un échantillon de taille n tiré d’une distribution
normale de moyenne µ et de variance 100, trouver la valeur de n telle
que Pr[µ − 5 < X̄ < µ + 5] = 0,954.
3.3 Soit X1 , . . . , X25 un échantillon aléatoire issu d’une distribution N (0, 16)
et Y1 , . . . , Y25 un échantillon aléatoire issu d’une distribution N (1, 9). Les
deux échantillons sont indépendants. Soient X̄ et Ȳ les moyennes des
deux échantillons. Calculer Pr[ X̄ > Ȳ ].
3.4 Démontrer à l’aide du Théorème central limite que la distribution gamma
avec paramètre de forme α entier et paramètre d’échelle λ tend vers la
distribution normale avec moyenne α/λ et variance α/λ2 lorsque α tend
vers l’infini. (Astuce : définir Y = X1 + · · · + Xα où Xi ∼ Exponentielle(λ)
et trouver la distribution asymptotique de Y.)
3.5 Soit X̄ la moyenne d’un échantillon aléatoire de taille 100 tiré d’une loi
χ2 (50).
a) Trouver la distribution exacte de X̄.
b) Calculer à l’aide d’un logiciel statistique la valeur exacte de Pr[49 <
X̄ < 51].
c) Calculer une valeur approximative de la probabilité en b).
3.6 Soit X̄ la moyenne d’un échantillon de taille 128 d’une loi Gamma(2, 1/4).
Trouver une approximation pour Pr[7 < X̄ < 9].
3.7 Trouver une valeur approximative de la probabilité que la moyenne d’un
échantillon de taille 15 d’une loi avec densité f ( x ) = 3x2 , 0 < x < 1, soit
entre 3/5 et 4/5.
3.8 Trouver la moyenne et la variance de la statistique
S2 =
∑in=1 ( Xi − X̄ )2
,
n
où X1 , . . . , Xn est un échantillon aléatoire d’une loi normale de moyenne
µ et variance σ2 .
11
12
Échantillon aléatoire
3.9 Soit S2 la variance d’un échantillon de taille 6 d’une distribution normale
de moyenne µ et de variance 12. Calculer Pr[2,30 < S2 < 22,2].
3.10 Soit X1 , . . . , Xn un échantillon aléatoire tiré d’une loi avec fonction de
répartition FX (·) et X(1) ≤ · · · ≤ X(n) les statistiques d’ordre correspondantes. Trouver la fonction de répartition de X(1) = min( X1 , . . . Xn ).
3.11 Soient X(1) ≤ X(2) ≤ X(3) ≤ X(4) les statistiques d’ordre d’un échantillon
aléatoire de taille 4 issu d’une distribution avec fonction de densité de
probabilité f ( x ) = e− x , 0 < x < ∞. Calculer Pr[ X(4) > 3].
3.12 Soit X1 , X2 , X3 un échantillon aléatoire issu d’une loi bêta de paramètres
α = 2 et β = 1. Calculer la probabilité que la plus petite valeur de l’échantillon soit supérieure à la médiane (théorique) de la distribution.
3.13 Soit X une variable aléatoire discrète avec fonction de masse de probabilité Pr[ X = x ] = 1/6, x = 1, 2, 3, 4, 5, 6. Démontrer que la fonction de
masse de probabilité du minimum d’un échantillon aléatoire de taille 5
issu de cette distribution est
i 7 − x 5 6 − x 5
h
−
, x = 1, 2, 3, 4, 5, 6.
Pr X(1) = x =
6
6
3.14 Soient X(1) ≤ · · · ≤ X(n) les statistiques d’ordre d’un échantillon aléatoire
tiré d’une loi de Weibull, dont la fonction de répartition est FX ( x ) =
τ
1 − e−(λx) . Calculer la fonction de répartition, la fonction de densité et
l’espérance de X(1) .
3.15 Calculer la probabilité que l’étendue d’un échantillon aléatoire de taille
4 issu d’une loi uniforme sur l’intervalle (0, 1) soit inférieure à 1/2.
3.16 Si un échantillon de taille 2 est tiré d’une loi bêta avec paramètres α = 1
et β = 2, quelle est la probabilité que l’une des deux valeurs de l’échantillon soit au moins deux fois plus grande que l’autre ? (Astuce : intégrer
la densité conjointe des deux valeurs de l’échantillon au-dessus de la
surface correspondant à la probabilité recherchée.)
3.17 Soit X ∼ U (0, 1). Calculer l’espérance de la mi-étendue d’un échantillon
de taille n issu de cette distribution.
3.18 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi uniforme sur l’intervalle (0, 1).
a) Calculer la moyenne et la variance de R = X(n) − X(1) .
b) Calculer la moyenne et la variance de T = ( X(1) + X(n) )/2.
Exercices proposés dans Wackerly et collab. (2008)
6.72, 6.73, 6.74, 6.81, 6.86, 6.76, 6.89, 7.9, 7.10, 7.15, 7.18, 7.20, 7.27, 7.36, 7.37,
7.38, 7.73, 7.74, 7.75, 7.76, 7.77, 7.78, 7.81, 7.88, 7.89, 7.90, 7.92, 7.96, 7.97
Échantillon aléatoire
13
Réponses
3.1 16,41
3.2 16
3.3 0,159
3.5 a) Gamma(2 500, 50) b) 0,6827218 c) 0,682
3.6 0,954
3.7 0,840
3.8 E[S2 ] = (n − 1)σ2 /n, Var[S2 ] = 2(n − 1)σ4 /n2
3.9 0,90
3.10 FX(1) ( x ) = 1 − (1 − FX ( x ))n
3.11 1 − (1 − e−3 )4
3.12 1/8
1
3.14 X(1) ∼ Weibull(n τ λ, τ ).
3.15 5/16
3.16 7/12
3.17 1/2.
3.18 a) E[ R] = (n − 1)/(n + 1) et Var[ R] = (2n − 2)/[(n + 1)2 (n + 2)].
b) E[ T ] = 1/2 et Var[ T ] = 1/[2(n + 1)(n + 2)].
4
Estimation ponctuelle
4.1 Soit X1 , . . . , Xn un échantillon aléatoire issu des distributions ci-dessous.
Dans chaque cas trouver l’estimateur du paramètre θ à l’aide de la méthode des moments.
a) f ( x; θ ) = θ x e−θ /x!, x = 0, 1, . . . , θ > 0.
b) f ( x; θ ) = θx θ −1 , 0 < x < 1, θ > 0.
c) f ( x; θ ) = θ −1 e− x/θ , θ > 0.
d) f ( x; θ ) = e−| x−θ | /2, −∞ < x < ∞, −∞ < θ < ∞.
e) f ( x; θ ) = e−( x−θ ) , x ≥ θ, θ > 0.
4.2 Trouver l’estimateur du maximum de vraisemblance du paramètre θ de
chacune des distributions de l’exercice 4.1.
4.3 Soit X1 , . . . , Xn un échantillon aléatoire de la distribution exponentielle
translatée avec fonction de répartition
F ( x; µ, λ) = 1 − e−λ( x−µ)
et densité
f ( x; µ, λ) = λe−λ( x−µ) ,
x ≥ µ,
où −∞ < µ < ∞ et λ > 0.
a) Démontrer que la distribution exponentielle translatée est obtenue par
la transformation X = Z + µ, où Z ∼ Exponentielle(λ).
b) Calculer l’espérance et la variance de cette distribution.
c) Calculer les estimateurs du maximum de vraisemblance des paramètres µ et λ.
d) Simuler 100 observations d’une loi Exponentielle translatée de paramètres µ = 1000 et λ = 0,001 à l’aide de la fonction rexp de R et de la
transformation en a). Calculer des estimations ponctuelles de µ et λ
pour l’échantillon ainsi obtenu. Ces estimations sont-elles proches des
vraies valeurs des échantillons ? Répéter l’expérience plusieurs fois au
besoin.
15
16
Estimation ponctuelle
4.4 Soient X(1) < · · · < X(n) les statistiques d’ordre d’un échantillon aléatoire
tiré d’une distribution uniforme sur l’intervalle [θ − 12 , θ + 21 ], −∞ < θ <
∞. Démontrer que toute statistique T ( X1 , . . . , Xn ) satisfaisant l’inégalité
X( n ) −
1
1
≤ T ( X1 , . . . , X n ) ≤ X ( 1 ) +
2
2
est un estimateur du maximum de vraisemblance de θ. Ceci est un exemple
où l’estimateur du maximum de vraisemblance n’est pas unique.
4.5 Soit X1 , . . . , Xn un échantillon aléatoire issu de la distribution inverse
gaussienne, dont la densité est
f ( x; µ,λ) =
λ
2πx3
1/2
λ ( x − µ )2
exp −
,
2µ2 x
x > 0.
Calculer les estimateurs du maximum de vraisemblance de µ et λ.
4.6 Considérer la distribution géométrique avec fonction de masse de probabilité
Pr[ X = x ] = θ (1 − θ ) x , x = 0, 1, . . . .
On a obtenu l’échantillon aléatoire suivant de cette distribution :
5 7 4 11 0 9 1 1 3 2 1 0 6 0 1 1 1 9 2 0.
Utiliser la méthode des moments pour obtenir une estimation ponctuelle
du paramètre θ.
4.7 On a une urne contenant θ boules numérotées de 1 à θ, où θ est une
quantité inconnue. Soit X1 , . . . , Xn un échantillon aléatoire composé de n
boules pigées au hasard, avec remise, dans cette urne.
a) Déterminer l’estimateur des moments de θ.
b) Calculer l’estimateur des moments de θ si n = 4 et x1 = x2 = x3 = 3 et
x4 = 12. Interpréter le résultat.
4.8 Soit X1 , . . . , Xn un échantillon aléatoire issu d’une loi uniforme sur l’intervalle ( a, b) où a et b sont des constantes inconnues. Calculer l’estimateur
du maximum de vraisemblance de a et b.
4.9 Soit X1 , . . . , Xn un échantillon aléatoire issu d’une distribution dont la loi
de probabilité est
Pr[ X = x ] = θ x (1 − θ )1− x ,
x = 0, 1,
1
0≤θ≤ .
2
a) Calculer les estimateurs du maximum de vraisemblance et des moments de θ.
b) Calculer l’erreur quadratique moyenne pour les estimateurs développés en a).
Estimation ponctuelle
17
c) Lequel des estimateurs développés en a) est le meilleur ? Justifier.
4.10 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution avec moyenne
µ et variance σ2 . Démontrer que n−1 ∑in=1 ( Xi − µ)2 est un estimateur
sans biais de σ2 .
4.11 Si X1 , . . . , Xn est un échantillon aléatoire d’une distribution avec moyenne
µ, quelle condition doit-on imposer sur les constantes a1 , . . . , an pour que
a 1 X1 + . . . a n X n
soit un estimateur sans biais de µ ?
4.12 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution avec moyenne
µ et variance σ2 .
a) Démontrer que X̄ 2 est un estimateur biaisé de µ2 et calculer son biais.
b) Démontrer que X̄ 2 est un estimateur asymptotiquement sans biais
de µ2 .
4.13 Démontrer que la médiane empirique d’un échantillon aléatoire de taille
3 issu d’une loi exponentielle est un estimateur biaisé de λ−1 .
4.14 Soient X(1) < X(2) < X(3) les statistiques d’ordre d’un échantillon aléatoire de taille 3 tiré d’une distribution uniforme avec fonction de densité
f ( x ) = θ −1 ,
0 < x < θ,
θ > 0.
Démontrer que 4X(1) et 2X(2) sont tous deux des estimateurs sans biais
de θ. Trouver la variance de chacun de ces estimateurs.
4.15 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution uniforme sur
l’intervalle (0, θ ).
a) Développer un estimateur sans biais de θ basé sur max( X1 , . . . , Xn ).
b) Répéter la partie a), mais cette fois à partir de min( X1 , . . . , Xn ).
4.16 Soit X ∼ Binomiale(n, p). Démontrer que, malgré que X/n soit un estimateur sans biais de p,
X
X
n
1−
n
n
est un estimateur biaisé de la variance de X. Calculer le biais de l’estimateur.
4.17 Démontrer que si θ̂ est un estimateur sans biais de θ et que Var[θ̂ ] ≠ 0,
alors θ̂ 2 est un estimateur biaisé de θ 2 .
4.18 Démontrer que, sous les hypothèses appropriées,
"
2 #
2
∂
∂
ln f ( X; θ )
= −E
ln f ( X; θ ) .
E
∂θ
∂θ 2
18
Estimation ponctuelle
Pour ce faire, dériver par rapport à θ l’identité
Z ∞
−∞
afin d’obtenir
Z ∞ ∂
−∞
∂θ
f ( x; θ ) dx = 1
ln f ( x; θ )
f ( x; θ ) dx = 0,
puis dériver de nouveau par rapport à θ.
4.19 Démontrer que la moyenne arithmétique est un estimateur sans biais à
variance minimale du paramètre λ d’une loi de Poisson.
4.20 Démontrer que la proportion de succès X/n est un estimateur sans biais
à variance minimale de la probabilité de succès θ d’une distribution
Binomiale. (Astuce : considérer X/n comme la moyenne d’un échantillon
aléatoire d’une distribution de Bernoulli.)
4.21 Soit X1 , . . . , Xn un échantillon aléatoire de taille n > 2 de la densité
f ( x; θ ) = θx θ −1 ,
0 < x < 1.
a) Vérifier que la borne de Rao–Cramér pour un estimateur de θ est
θ 2 /n.
b) Trouver la distribution de la variable aléatoire Yi = − ln Xi , puis celle
de Z = − ∑in=1 ln Xi . Vérifier alors que E[ Z ] = n/θ.
c) Le résultat précédent suggère d’utiliser 1/Z comme estimateur de θ.
Développer un estimateur sans biais de θ basé sur 1/Z.
4.22 L’inégalité de Rao–Cramér fournit un seuil minimal pour la variance
d’un estimateur du paramètre θ d’une distribution f ( x; θ ). Qu’en est-il si
l’on souhaite estimer non pas le paramètre θ, mais plutôt une fonction g
de celui-ci ? (On peut penser, ici, à la moyenne d’une loi Exponentielle.)
L’inégalité de Rao–Cramér se généralise ainsi : soit θ̂ = T ( X1 , . . . , Xn ) un
estimateur de g(θ ) ; alors
( g0 (θ ))2
Var[θ̂ ] ≥
"
nE
∂
ln f ( X; θ )
∂θ
2 # .
Soit X1 , . . . , Xn un échantillon aléatoire issu d’une loi de Poisson de paramètre λ.
a) Calculer la borne de Rao–Cramér pour un estimateur de λ.
b) Considérer g(λ) = e−λ = Pr[ X = 0]. Calculer la borne de Rao–Cramér
pour un estimateur de e−λ .
Estimation ponctuelle
19
c) Soit la statistique
T=
1 n
I{ Xi =0} ,
n i∑
=1
où IA est une fonction indicatrice valant 1 si A est vraie et 0 sinon.
La statistique T représente donc la proportion d’observations nulles
dans l’échantillon. Démontrer que T est un estimateur sans biais de
e−λ et que
e − λ (1 − e − λ )
Var[ T ] =
.
n
d) Calculer l’efficacité de la statistique T définie en c).
4.23 Si θ̂1 et θ̂2 sont deux estimateurs sans biais d’un paramètre θ et que
Var[θ̂1 ] = 3Var[θ̂2 ], trouver les constantes a1 et a2 tel que a1 θ̂1 + a2 θ̂2
est un estimateur sans bias à variance minimale de θ. (Astuce : il s’agit
d’un problème de minimisation sous contrainte, à résoudre à l’aide des
multiplicateurs de Lagrange.)
4.24 Supposons que X̄1 est la moyenne d’un échantillon aléatoire de taille
n d’une population normale avec moyenne µ et variance σ12 , que X̄2
est la moyenne d’un échantillon aléatoire de taille n d’une population
normale avec moyenne µ et variance σ22 et que les deux échantillons
aléatoires sont indépendants.
a) Démontrer que ω X̄1 + (1 − ω ) X̄2 , 0 ≤ ω ≤ 1, est un estimateur sans
biais de µ.
b) Démontrer que la variance de ω X̄1 + (1 − ω ) X̄2 est minimale lorsque
ω=
σ22
.
σ12 + σ22
c) Calculer l’efficacité relative de l’estimateur en a) avec ω =
de l’estimateur à variance minimale trouvé en b).
1
2
à celle
4.25 Démontrer, à partir de la définition, que X(1) = min( X1 , . . . , Xn ) est un
estimateur convergent du paramètre θ d’une loi uniforme sur l’intervalle
(θ, θ + 1).
4.26 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi exponentielle de moyenne
θ. Démontrer que X̄ est un estimateur convergent de θ.
4.27 Soit X1 une observation d’une loi normale avec moyenne 0 et variance
σ2 , σ > 0. Démontrer que | X1 | est une statistique exhaustive pour σ2 .
4.28 Trouver une statistique exhaustive pour le paramètre θ de la loi uniforme sur l’intervalle (−θ, θ ).
4.29 Démontrer que la somme des éléments d’un échantillon aléatoire issu
d’une loi de Poisson est une statistique exhaustive pour le paramètre de
cette loi.
20
Estimation ponctuelle
4.30 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi géométrique avec fonction de masse de probabilité
Pr[ X = x ] = θ (1 − θ ) x ,
Démontrer que T ( X1 , . . . , Xn ) =
pour θ.
∑in=1 Xi
x = 0, 1, . . .
est une statistique exhaustive
Exercices proposés dans Wackerly et collab. (2008)
8.2, 8.8, 8.9, 8.10, 8.11, 8.33, 8.35, 9.1, 9.3, 9.5, 9.7, 9.8, 9.18, 9.19, 9.20, 9.29,
9.69–9.74, 9.75 9.80, 9.81, 9.82, 9.83, 9.84, 9.87, 9.88, 9.91, 9.97
Réponses
4.1 a) X̄ b) X̄/(1 − X̄ ) c) X̄ d) X̄ e) X̄ − 1
4.2 a) X̄ b) −n/ ln( X1 · · · Xn ) c) X̄ d) med( X1 , . . . , Xn ) e) X(1)
4.3 a) E[ X ] = µ + λ−1 , Var[ X ] = λ−2
b) µ̂ = X(1) , λ̂ = n/ ∑in=1 ( Xi − X(1) )
4.5 µ̂ = X̄, λ̂ = n/ ∑in=1 ( Xi−1 − X̄ −1 )
4.6 0,2381.
4.7 a) θ̂ = 2X̄ − 1 b) 9,5
4.8 â = min( X1 , . . . , Xn ) et b̂ = max( X1 , . . . , Xn )
4.9 a) θ̃ = X̄, θ̂ = min( X̄, 1/2)
[n/2]
b) MSE(θ̃ ) = θ (1 − θ )/n, MSE(θ̂ ) = ∑y=0 (y/n − θ )2 (ny)θ y (1 − θ )n−y +
n
∑ny=[n/2]+1 (1/2 − θ )2 ( y )θ y (1 − θ )n−y
c) MSE(θ̂ ) ≤ MSE(θ̃ )
4.11 ∑in=1 ai = 1
4.12 a) σ2 /n
4.14 Var[4X(1) ] = 3θ 2 /5, Var[2X(2) ] = θ 2 /5.
4.15 a) (n + 1) X(n) /n b) (n + 1) X(1)
4.16 − p(1 − p)
4.21 b) Yi ∼ Exponentielle(θ ) c) (n − 1)/Z
4.22 a) λ/n b) λe−2λ /n d) λe−λ /(1 − e−λ )
4.23 a1 = 1/4 et a2 = 3/4
4.24 c) (σ12 + σ22 )2 /(4σ12 σ22 )
4.28 maxi=1,...,n (| Xi |), ou ( X(1) , X(n) )
5
Estimation bayesienne
5.1 On tire une observation d’une loi de Poisson de moyenne λ égale à 2 ou
4. On croit que la valeur λ = 2 est quatre fois plus probable que λ = 4.
a) Calculer une estimation du paramètre λ minimisant l’erreur quadratique moyenne avant que l’observation ne soit disponible.
b) L’expérience effectuée, la valeur de l’observation est x = 6. Quelle est
la nouvelle distribution de probabilité du paramètre λ.
c) Répéter la partie a) maintenant que l’observation mentionnée en b) est
disponible.
5.2 Trouver l’estimateur bayesien de la probabilité de succès d’une loi géométrique si la distribution a priori du paramètre est une loi Bêta(α, β).
Utiliser la loi géométrique avec support x = 0, 1, 2, . . . et une fonction de
perte quadratique.
5.3 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution de Poisson avec
moyenne inconnue θ. Si l’on utilise une fonction de perte quadratique et
que l’on suppose que θ est une observation d’une loi gamma de paramètres α et λ, quel est l’estimateur bayesien de θ ?
5.4 L’estimateur bayesien du paramètre d’une loi de Bernoulli est
θ̂ =
α + ∑in=1 Xi
α+β+n
lorsque la distribution a priori du paramètre est une Bêta(α, β) et que la
fonction de perte utilisée est L(θ, θ̂ ) = (θ − θ̂ )2 .
a) Soit n = 30, α = 15 et β = 5. En notant que ∑30
i =1 Xi ∼ Binomiale(30, θ ),
calculer l’espérance de la fonction de perte en fonction de θ. (Astuce :
écrire l’erreur quadratique moyenne comme la somme de la variance
et du biais au carré.)
b) L’erreur quadratique moyenne de X̄ — l’estimateur du maximum de
vraisemblance de θ — est θ (1 − θ )/30, cet estimateur étant sans biais.
Trouver pour quelles valeurs de θ l’erreur de l’estimateur bayesien en
a) est inférieure à celle de l’estimateur du maximum de vraisemblance.
21
22
Estimation bayesienne
5.5 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution normale de
moyenne θ et de variance σ2 , où σ2 est une constante connue. On suppose
que θ est une observation d’une variable aléatoire Θ avec distribution
Normale(µ, τ 2 ), où µ et τ 2 sont des constantes connues.
a) Démontrer que la distribution a posteriori de la variable aléatoire Θ
est N (µ̃, τ̃ 2 ), avec
τ 2 ∑in=1 Xi + σ2 µ
nτ 2 + σ2
2
τ σ2
τ̃ 2 =
.
nτ 2 + σ2
µ̃ =
(Astuce : calculer la distribution a posteriori à une constante de normalisation près. Pour ce faire, compléter le carré à l’exposant en ne
conservant que les termes impliquant θ.)
b) Trouver un estimateur ponctuel bayesien de θ si la fonction de perte
utilisée est L(θ, θ̂ ) = |θ − θ̂ |.
Exercices proposés dans Wackerly et collab. (2008)
Il n’y a pas de solutions clips pour ces exercices
16.1, 16.6, 16.7, 16.10, 16.12
Réponses
5.1 a) 12/5 b) Pr[Λ = 2| X = 6] = 0,316, Pr[Λ = 4| X = 6] = 0,684 c) 3,368
5.2 (α + n)/(α + β + n + ∑in=1 Xi )
5.3 (α + ∑in=1 Xi )/(λ + n)
5.4 a) (74θ 2 − 114θ + 45)/500 b) 0,5692 < θ < 0,8720
5.5 b) µ̃.
6
Estimation par intervalle
6.1 La valeur observée de la moyenne empirique X̄ d’un échantillon aléatoire
de taille 20 tiré d’une N (µ, 80) est 81,2. Déterminer un estimateur par
intervalle de niveau 95 % pour µ.
6.2 Soit X̄ la moyenne d’un échantillon aléatoire de taille n d’une distribution
normale de moyenne µ inconnue et de variance 9. Trouver la valeur n tel
que, approximativement, Pr[ X̄ − 1 < µ < X̄ + 1] = 0,90.
6.3 Un échantillon aléatoire comptant 17 observations d’une distribution normale de moyenne et de variance inconnues a donné x̄ = 4,7 et s2 = 5,76.
Trouver des intervalles de confiance à 90 % pour µ et pour σ2 .
6.4 Lors d’une très sérieuse et importante analyse statistique de la taille
des étudiantes en sciences et génie à l’Université Laval, on a mesuré un
échantillon aléatoire d’étudiantes en actuariat et un autre en génie civil.
Les résultats obtenus se trouvent résumés dans le tableau ci-dessous. On
suppose que les deux échantillons aléatoires sont indépendants et que la
taille des étudiantes est distribuée selon une loi normale.
Quantité
Taille de l’échantillon
Taille moyenne (en cm)
Variance (en cm2 )
Actuariat
Génie civil
15
152
101
20
154
112
a) Déterminer un intervalle de confiance à 90 % pour la taille moyenne
des étudiantes de chacun des deux programmes en supposant que
l’écart type de la distribution normale est 9 cm.
b) Répéter la partie a) en utilisant plutôt les variances des échantillons.
c) Y a-t-il une différence significative, avec un niveau de confiance de
90 %, entre la taille des étudiantes en actuariat et celles en génie civil ?
d) Déterminer un intervalle de confiance à 90 % pour la variance de la
taille des étudiantes en actuariat.
e) La différence observée entre les variances dans la taille des étudiantes
des deux programmes est-elle significative ? Utiliser un niveau de confiance de 90 %.
23
24
Estimation par intervalle
6.5 Soit X1 , . . . , Xn un échantillon aléatoire tiré d’une population normale de
moyenne et variance inconnues. Développer la formule d’un estimateur
par intervalle de niveau 1 − α pour σ, l’écart type de la distribution normale.
6.6 Soit X1 , X2 , . . . , Xn un échantillon aléatoire d’une distribution normale de
moyenne µ et de variance σ2 = 25. Déterminer la taille de l’échantillon
nécessaire pour que la longueur de l’intervalle de confiance de niveau
0,90 pour la moyenne ne dépasse pas 0,05.
6.7 Soit S2 la variance d’un échantillon aléatoire de taille n issu d’une distribution N (µ, σ2 ) où µ et σ2 sont des paramètres inconnus. On sait que
Y = nS2 /σ2 ∼ χ2 (n − 1). Soit g(y) la fonction de densité de Y et G (y) la
fonction de répartition. Soit a et b des constantes telles que (ns2 /b, ns2 /a)
est un intervalle de confiance de niveau 1 − α pour σ2 . La longueur
de cet intervalle est donc ns2 (b − a)/( ab). Démontrer que la longueur
de l’intervalle de confiance est minimale si a et b satisfont la condition
a2 g( a) = b2 g(b). (Astuce : minimiser la longueur de l’intervalle sous la
contrainte que G (b) − G ( a) = 1 − α.)
Exercices proposés dans Wackerly et collab. (2008)
8.39, 8.41, 8.43, 8.47, 8.57, 8.59, 8.63, 8.70, 8.72, 8.75, 8.77
Réponses
6.1 (77,28, 85,12)
6.2 24 ou 25
6.3 µ ∈ (3,7, 5,7) et σ2 ∈ (3,72, 12,30)
6.4 a) 148,18 < µ1 < 155,82 et 150,69 < µ2 < 157,31
b) 147,27 < µ1 < 156,73 et 149,80 < µ2 < 158,20
c) µ1 − µ2 ∈ −2 ± 5,99
d) 63,98 < σ12 < 230,59
e) 0,417 < σ22 /σ12 < 2,256
√
√
6.5 ( nS2 /b, nS2 /a).
6.6 108 241
7
Tests d’hypothèses
Pour les exercices comportant des données d’échantillons aléatoires, il
est recommandé de faire les calculs «à la main» ainsi qu’avec R. Les principales fonctions pour faire des tests d’hypothèses sont prop.test, t.test et
var.test. Consulter les rubriques d’aide pour le détail des arguments de ces
fonctions.
7.1 Soit X une variable aléatoire dont la fonction de densité de probabilité
est
f ( x; θ ) = θx θ −1 , 0 < x < 1.
On suppose que θ peut prendre exclusivement les valeurs θ = 1 ou θ = 2.
a) Trouver la statistique exhaustive pour le paramètre θ de cette distribution.
b) On teste l’hypothèse H0 : θ = 1 versus H1 : θ = 2 à partir d’un échantillon aléatoire X1 , X2 . Si la région critique est C = {( x1 , x2 ); x1 x2 ≥
3/4}, calculer la probabilité de faire une erreur de type I (α) et la
probabilité de faire une erreur de type II (β).
7.2 On suppose que la durée de vie d’un pneu en kilomètres a une distribution normale de moyenne 30 000 et d’écart type 5 000. Le fabricant du
nouveau pneu Super Endurator X24 prétend que la durée de vie moyenne
de ce pneu est bien supérieure à 30 000 km. Afin de vérifier les prétentions
du fabricant, on testera H0 : µ ≤ 30 000 contre l’alternative H1 : µ > 30 000
à partir de n observations indépendantes x1 , . . . , xn . On rejettera H0 si
x̄ ≥ c. Trouver les valeurs de n et de c de sorte que la probabilité de faire
une erreur de type I en µ = 30 000 est 0,01 et que la probabilité de faire
une erreur de type II en µ = 35 000 est 0,02.
7.3 Un fabricant de dentifrice prétend que 75 % de tous les dentistes recommandent son produit à ses patients. Sceptique, un groupe de protection
des consommateurs décide de tester H0 : θ = 0,75 contre H1 : θ 6= 0,75,
où θ est la proportion de dentistes recommandant le dentifrice en question. Un sondage auprès de 390 dentistes a révélé que 273 d’entre eux
recommandent effectivement ce dentifrice.
a) Quelle est la conclusion du test avec un seuil de signification de α =
0,05 ?
25
26
Tests d’hypothèses
b) Quelle est la conclusion du test avec un seuil de signification de α =
0,01 ?
c) Quelle est la valeur p du test ?
7.4 Soit θ la proportion de bonbons rouges dans une boîte de Smarties. On
prétend que θ = 0,20.
a) Définir la statistique de test et la région critique avec un seuil de signification de 5 % pour le test
H0 : θ = 0,20
H1 : θ ≠ 0,20.
b) Pour faire le test, les 20 membres de la section locale des Amateurs de
Smarties Associés (ASA) ont chacun compté le nombres de bonbons
rouges dans une boîte de 50 grammes de Smarties. Ils ont obtenu les
proportions suivantes :
8
,
56
13
,
55
12
,
58
13
,
56
14
,
57
5
,
54
14
,
56
15
,
57
11
,
54
13
,
55
10
,
57
8
,
59
10
,
54
11
,
55
12
,
56
11
,
57
6
,
54
7
,
58
12
,
58
14
.
58
Si chaque membre de l’ASA fait le test mentionné en a), quelle proportion des membres rejette l’hypothèse H0 ?
c) En supposant vraie l’hypothèse H0 , à quelle proportion de rejets de
l’hypothèse H0 peut-on s’attendre ?
d) Pour chacun des ratios en b) on peut construire un intervalle de confiance à 95 % pour θ. Quelle proportion de ces intervalles de confiance
contiennent θ = 0,20 ?
e) Si les 20 résultats en b) sont agrégés de sorte que l’on a compté un total
de 219 bonbons rouges parmi 1 124 Smarties, rejette-t-on l’hypothèse
H0 , toujours avec α = 0,05 ?
7.5 Lors d’un sondage mené auprès de 800 adultes dont 605 non-fumeurs, on
a posé la question suivante : Devrait-on introduire une nouvelle taxe sur le
tabac pour aider à financer le système de santé au pays ? Soit θ1 et θ2 la proportion de non-fumeurs et de fumeurs, respectivement, qui ont répondu par
l’affirmative à cette question. Les résultats du sondage sont les suivants :
x1 = 351 non-fumeurs ont répondu oui, contre x2 = 41 fumeurs.
a) Tester H0 : θ1 = θ2 versus θ1 ≠ θ2 avec un seuil de signification de 5 %.
b) Trouver un intervalle de confiance à 95 % pour θ1 − θ2 . Cet intervalle
permet-il d’obtenir la même conclusion qu’en a) ?
c) Trouver un intervalle de confiance à 95 % pour la proportion de la
population totale en faveur de l’introduction d’une nouvelle taxe sur
le tabac.
Tests d’hypothèses
27
7.6 Parmi les statistiques relevées par l’Organisation mondiale de la santé
(OMS) on compte la concentration en µg/m3 de particules en suspension dans l’air. Soit X et Y les concentrations en µg/m3 de particules
en suspension dans l’air aux centres-villes de Melbourne (Australie) et
Houston (Texas), respectivement. À partir de n = 13 observations de la
variable aléatoire X et m = 16 observations de la variable aléatoire Y, on
souhaite tester H0 : µ X = µY versus H1 : µ X < µY .
a) Définir la statistique du test et la région critique en supposant égales
les variances des distributions de X et Y. Utiliser un seuil de signification de 5 %.
b) Si x̄ = 72,9, s X = 25,6, ȳ = 81,7 et sY = 28,3, quelle est la conclusion
pour ce test ?
c) Calculer la valeur p de ce test. Est-elle conforme à la conclusion en
b) ?
d) Tester si l’hypothèse de variances égales faite en a) est valide avec un
niveau de confiance de 95 %.
7.7 On suppose que le poids en grammes des bébés à la naissance au Canada
est distribué selon une loi normale de moyenne µ = 3 315 et de variance
σ2 = 5252 , garçons et filles confondus. Soit X le poids d’une fillette née
au Québec. On suppose X ∼ N (µ X , σX2 ).
a) Donner l’expression de la statistique du test H0 : µ X = 3 315 versus
H1 : µ X > 3 315 (les bébés sont en moyenne plus gros au Québec) si
n = 11 et α = 0,01. (La valeur de σX2 est inconnue ici.)
b) Calculer la valeur de la statistique et tirer une conclusion si l’échantillon de poids de 11 fillettes nées au Québec est le suivant :
3 119,
3 515,
2 657,
3 856,
3 459,
3 629,
3 629,
3 345,
3 345,
3 062.
3 629,
c) À quel niveau de confiance maximal rejette-t-on H0 ?
d) Énoncer la statistique du test et la région critique du test H0 : σX2 = 5252
versus H1 : σX2 < 5252 (moins de variation dans le poids des bébés nés
au Québec) si α = 0,05.
e) Calculer la statistique du test à partir des données de la partie b).
Quelle est la conclusion à tirer de ce résultat ?
f) Calculer la valeur p du test sur la variance.
7.8 Soit Y le poids en grammes d’un garçon né au Québec et supposons que
Y ∼ N (µY , σY2 ). On a les observations suivantes :
4 082,
3 686,
3 686,
3 430,
4 111,
3 289,
3 686,
3 657,
3 175,
4 082.
4 139,
Refaire les questions de l’exercice 7.7. Les réponses obtenues dans ces
deux exercices suggèrent-elles d’autres hypothèses à explorer ? Faire les
tests appropriés le cas échéant.
28
Tests d’hypothèses
7.9 On considère WS , la statistique de Wilcoxon dans dans une expérience
comportant 40 sujets divisés en deux groupes : un groupe contrôle de 23
sujets et un groupe traitement de 17 sujets. On considère le test
H0 : le traitement n’est pas efficace
H1 : le traitement est efficace.
a) Calculer la plus petite valeur possible de WS .
b) Calculer la plus grande valeur possible de WS .
c) Calculer l’espérance de WS lorsque l’hypothèse nulle est vraie.
7.10 On considère WS , la statistique de Wilcoxon dans dans une expérience
comportant 7 sujets divisés en deux groupes avec 4 sujets dans le groupe
traitement et 3 sujets dans le groupe contrôle. On teste les hypothèses
H0 : le traitement n’est pas efficace
H1 : le traitement est efficace.
On suppose qu’un traitement est efficace s’il fait augmenter la valeur de
la statistique.
a) On obtient pour les sujets du groupe traitement les rangs {1, 3, 5, 6}.
Calculer la valeur de la statistique de Wilcoxon.
b) Calculer le nombre de configurations possibles.
c) Calculer la valeur p du test.
Exercices proposés dans Wackerly et collab. (2008)
10.19, 10.29, 10.34, 10.37, 10.39, 10.42, 10.75, 10.79
Réponses
7.1 a) ∏in=1 Xi
b) α = 0,034, β = 0,886
7.2 n = 19 ou 20, c = 32 658
7.3 a) z = −2,28 c) 0,0226
p
7.4 a) Z = (θ̂ − 0,20)/ 0,20(1 − 0,20)/n b) 0 % c) 0,05 d) 100 % e) p = 0,6654
7.5 a) z = 10,45 > 1,96 b) (0,3005, 0,4393) c) (0,4555, 0,5246)
q
7.6 a) T = [( X̄ − Ȳ ) − (µ X − µY )]/ (nS2X + mSY2 )(n−1 + m−1 )/(n + m − 2),
T ∼ t(n + m − 2) b) t = −0,838 > t0,05 (27) c) p = 0,2047 d) f = 0,8311 <
f 0,05 (12, 15)
Tests d’hypothèses
7.7 b) t = 0,6993 < t0,01 (10) c) 0,7498 e) y = 4,103 > χ20,05 (10) f) 0,0574
7.8 b) t = 4,028 < t0,01 (10) c) 0,9988 e) y = 4,223 > χ20,95 (10) f) 0,0633 g) tests
sur les moyennes et les variances
7.9 a) 153 b) 544 c) 348,5
7.10 a) 15 b) 35 c) 24/35
29
A Table de quantiles de la loi
normale
Pr[ X ≤ x ] = Φ( x ) =
Z x
−∞
2
1
√ e−y /2 dy
2π
Φ(− x ) = 1 − Φ( x )
x
Φ( x )
x
Φ( x )
x
Φ( x )
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
0,45
0,50
0,55
0,60
0,65
0,70
0,75
0,80
0,85
0,90
0,95
1,00
1,05
0,500
0,520
0,540
0,560
0,579
0,599
0,618
0,637
0,655
0,674
0,691
0,709
0,726
0,742
0,758
0,773
0,788
0,802
0,816
0,829
0,841
0,853
1,10
1,15
1,20
1,25
1,282
1,30
1,35
1,40
1,45
1,50
1,55
1,60
1,645
1,65
1,70
1,75
1,80
1,85
1,90
1,95
1,96
2,00
0,864
0,875
0,885
0,894
0,900
0,903
0,911
0,919
0,926
0,933
0,939
0,945
0,950
0,951
0,955
0,960
0,964
0,968
0,971
0,974
0,975
0,977
2,05
2,10
2,15
2,20
2,25
2,30
2,326
2,35
2,40
2,45
2,50
2,55
2,576
2,60
2,65
2,70
2,75
2,80
2,85
2,90
2,95
3,00
0,980
0,982
0,984
0,986
0,988
0,989
0,990
0,991
0,992
0,993
0,994
0,995
0,995
0,995
0,996
0,997
0,997
0,997
0,998
0,998
0,998
0,999
31
B Table de quantiles de la loi khi
carré
Pr[ X ≤ x ] =
Z x
0
1
yr/2−1 e−r/2 dx
Γ(r/2)2r/2
Pr[ X ≤ x ]
r
0.01
0.025
0.05
0.95
0.975
0.99
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
0.000
0.020
0.115
0.297
0.554
0.872
1.239
1.646
2.088
2.558
3.053
3.571
4.107
4.660
5.229
5.812
6.408
7.015
7.633
8.260
8.897
9.542
10.196
10.856
11.524
12.198
12.879
13.565
14.256
14.953
0.001
0.051
0.216
0.484
0.831
1.237
1.690
2.180
2.700
3.247
3.816
4.404
5.009
5.629
6.262
6.908
7.564
8.231
8.907
9.591
10.283
10.982
11.689
12.401
13.120
13.844
14.573
15.308
16.047
16.791
0.004
0.103
0.352
0.711
1.145
1.635
2.167
2.733
3.325
3.940
4.575
5.226
5.892
6.571
7.261
7.962
8.672
9.390
10.117
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.151
16.928
17.708
18.493
3.841
5.991
7.815
9.488
11.070
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42.557
43.773
5.024
7.378
9.348
11.143
12.833
14.449
16.013
17.535
19.023
20.483
21.920
23.337
24.736
26.119
27.488
28.845
30.191
31.526
32.852
34.170
35.479
36.781
38.076
39.364
40.646
41.923
43.195
44.461
45.722
46.979
6.635
9.210
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
33
C Table de quantiles de la loi t
Pr[ T ≤ t] =
Z t
−∞
Γ((r + 1)/2)
1
√
dx
2
πr Γ(r/2) (1 + x /r )(r+1)/2
Pr[ T ≤ −t] = 1 − Pr[ T ≤ t]
Pr[ T ≤ t]
r
0.90
0.95
0.975
0.99
0.995
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
3.078
1.886
1.638
1.533
1.476
1.440
1.415
1.397
1.383
1.372
1.363
1.356
1.350
1.345
1.341
1.337
1.333
1.330
1.328
1.325
1.323
1.321
1.319
1.318
1.316
1.315
1.314
1.313
1.311
1.310
6.314
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812
1.796
1.782
1.771
1.761
1.753
1.746
1.740
1.734
1.729
1.725
1.721
1.717
1.714
1.711
1.708
1.706
1.703
1.701
1.699
1.697
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
2.042
31.821
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764
2.718
2.681
2.650
2.624
2.602
2.583
2.567
2.552
2.539
2.528
2.518
2.508
2.500
2.492
2.485
2.479
2.473
2.467
2.462
2.457
63.657
9.925
5.841
4.604
4.032
3.707
3.499
3.355
3.250
3.169
3.106
3.055
3.012
2.977
2.947
2.921
2.898
2.878
2.861
2.845
2.831
2.819
2.807
2.797
2.787
2.779
2.771
2.763
2.756
2.750
35
D Table de quantiles de la loi F
Pr[ Fr1 ,r2 ≤ f ] =
Z f
Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 x (r1 /2−1)
0
Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2
La table se trouve répartie sur les deux pages suivantes.
37
dx
r2
1
2
3
4
5
6
Pr[ F ≤ f ]
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
5.99
8.81
13.75
6.61
10.01
16.26
7.71
12.22
21.20
10.13
17.44
34.12
18.51
38.51
98.50
161.45
647.79
4052.18
1
5.14
7.26
10.92
5.79
8.43
13.27
6.94
10.65
18.00
9.55
16.04
30.82
19.00
39.00
99.00
199.50
799.50
4999.50
2
4.76
6.60
9.78
5.41
7.76
12.06
6.59
9.98
16.69
9.28
15.44
29.46
19.16
39.17
99.17
215.71
864.16
5403.35
3
4.53
6.23
9.15
5.19
7.39
11.39
6.39
9.60
15.98
9.12
15.10
28.71
19.25
39.25
99.25
224.58
899.58
5624.58
4
4.39
5.99
8.75
5.05
7.15
10.97
6.26
9.36
15.52
9.01
14.88
28.24
19.30
39.30
99.30
230.16
921.85
5763.65
5
4.28
5.82
8.47
4.95
6.98
10.67
6.16
9.20
15.21
8.94
14.73
27.91
19.33
39.33
99.33
233.99
937.11
5858.99
6
r1
4.21
5.70
8.26
4.88
6.85
10.46
6.09
9.07
14.98
8.89
14.62
27.67
19.35
39.36
99.36
236.77
948.22
5928.36
7
4.15
5.60
8.10
4.82
6.76
10.29
6.04
8.98
14.80
8.85
14.54
27.49
19.37
39.37
99.37
238.88
956.66
5981.07
8
4.10
5.52
7.98
4.77
6.68
10.16
6.00
8.90
14.66
8.81
14.47
27.35
19.38
39.39
99.39
240.54
963.28
6022.47
9
4.06
5.46
7.87
4.74
6.62
10.05
5.96
8.84
14.55
8.79
14.42
27.23
19.40
39.40
99.40
241.88
968.63
6055.85
10
4.00
5.37
7.72
4.68
6.52
9.89
5.91
8.75
14.37
8.74
14.34
27.05
19.41
39.41
99.42
243.91
976.71
6106.32
12
3.94
5.27
7.56
4.62
6.43
9.72
5.86
8.66
14.20
8.70
14.25
26.87
19.43
39.43
99.43
245.95
984.87
6157.28
15
r2
7
8
9
10
12
15
Pr[ F ≤ f ]
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
0.95
0.975
0.99
4.54
6.20
8.68
4.75
6.55
9.33
4.96
6.94
10.04
5.12
7.21
10.56
5.32
7.57
11.26
5.59
8.07
12.25
1
3.68
4.77
6.36
3.89
5.10
6.93
4.10
5.46
7.56
4.26
5.71
8.02
4.46
6.06
8.65
4.74
6.54
9.55
2
3.29
4.15
5.42
3.49
4.47
5.95
3.71
4.83
6.55
3.86
5.08
6.99
4.07
5.42
7.59
4.35
5.89
8.45
3
3.06
3.80
4.89
3.26
4.12
5.41
3.48
4.47
5.99
3.63
4.72
6.42
3.84
5.05
7.01
4.12
5.52
7.85
4
2.90
3.58
4.56
3.11
3.89
5.06
3.33
4.24
5.64
3.48
4.48
6.06
3.69
4.82
6.63
3.97
5.29
7.46
5
2.79
3.41
4.32
3.00
3.73
4.82
3.22
4.07
5.39
3.37
4.32
5.80
3.58
4.65
6.37
3.87
5.12
7.19
6
r1
2.71
3.29
4.14
2.91
3.61
4.64
3.14
3.95
5.20
3.29
4.20
5.61
3.50
4.53
6.18
3.79
4.99
6.99
7
2.64
3.20
4.00
2.85
3.51
4.50
3.07
3.85
5.06
3.23
4.10
5.47
3.44
4.43
6.03
3.73
4.90
6.84
8
2.59
3.12
3.89
2.80
3.44
4.39
3.02
3.78
4.94
3.18
4.03
5.35
3.39
4.36
5.91
3.68
4.82
6.72
9
2.54
3.06
3.80
2.75
3.37
4.30
2.98
3.72
4.85
3.14
3.96
5.26
3.35
4.30
5.81
3.64
4.76
6.62
10
2.48
2.96
3.67
2.69
3.28
4.16
2.91
3.62
4.71
3.07
3.87
5.11
3.28
4.20
5.67
3.57
4.67
6.47
12
2.40
2.86
3.52
2.62
3.18
4.01
2.85
3.52
4.56
3.01
3.77
4.96
3.22
4.10
5.52
3.51
4.57
6.31
15
E Solutions
Chapitre 1
1.1 a) Dans tous
R ∞ les cas, il faut démontrer que f ( x ) > 0 sur tout son domaine
et que −∞ f ( x ) dx = 1.
i) On a f 1 ( x ) = e− x > 0, pour tout x > 0 et
Z ∞
0
e− x dx = −e−∞ − (−e−0 ) = 1.
La fonction f 1 est donc une densité de probabilité.
ii) On a f 2 ( x ) = 2e−2x > 0, pour tout x > 0 et
Z ∞
0
2e−2x dx = −e−(2)(∞) − (−e−(2)(0) ) = 1.
Ainsi, f 2 est une densité de probabilité.
iii) On a f 3 ( x ) = (1 + θ ) f 1 ( x ) − θ f 2 ( x ) avec 0 < θ < 1. Par conséquent,
on a clairement f 3 ( x ) > 0 pour tout x > 0 et
Z ∞
0
f 3 ( x ) dx = (1 + θ )
Z ∞
0
f 1 ( x ) dx − θ
Z ∞
0
f x ( x ) dx
= (1 + θ )(1) − θ (1)
= 1.
La fonction f 3 est donc une densité de probabilité. De manière
générale, toute combinaison linéaire de densités de probabilité
est elle-même une densité.
b) On doit vérifier que les fonctions commencent à 0, tendent vers 1
et sont non décroissantes, c’est-à-dire que limx→−∞ F ( x ) = 0, que
limx→+∞ F ( x ) = 1 et que F 0 ( x ) > 0 pour tout x dans le domaine de
définition de F.
i) On démontre sans difficulté que limx→−∞ (1 + e− x )−1 = 0 et que
limx→+∞ (1 + e− x )−1 = 1. De plus,
F0 (x) =
41
e− x
(1 + e − x )2
>0
42
Solutions
pour tout x ∈ R. La fonction F ( x ) = (1 + e− x )−1 est donc une
fonction de répartition sur R. (Il s’agit en fait de la fonction de
répartition de la loi logistique.)
ii) On a limx→−∞ e−e
−x
= 0, limx→+∞ e−e
F 0 ( x ) = e− x e−e
−x
−x
= 1 et
>0
pour tout x ∈ R. La fonction F ( x ) = e−e
de répartition sur R.
−x
est donc une fonction
1.2 Pour avoir une densité, il faut que f ( x ) ≥ 0 pour −k < x < k et que
Rk
−k f ( x ) = 1. Or,
Z k
−k
k4
k4
+
3
3
2k4
.
=
3
kx2 dx =
Par conséquent, k = ±(3/2)1/4 . Afin d’avoir une image positive pour tout
−k < x < k, on doit choisir k = (3/2)1/4 .
1.3 En premier lieu, puisque e−| x| > 0 pour tout x ∈ R, on doit avoir c > 0.
De plus,
Z ∞
−∞
ce−| x| dx = c
Z 0
−∞
e x dx + c
Z ∞
0
e− x dx
=c+c
= 2c,
Par conséquent, f ( x ) = ce−| x| , −∞ < x < ∞ est une densité si, et seulement si c = 1/2.
1.4 On se souviendra que la distribution du nombre d’essais avant d’obtenir un premier succès dans une série d’expériences de Bernoulli avec
probabilité de succès p est une géométrique avec fonction de masse de
probabilité
Pr[ X = x ] = p(1 − p) x−1 , x = 1, 2, . . .
a) La variable aléatoire X obéit à une loi géométrique de paramètre p =
1/2, d’où Pr[ X = x ] = (1/2)(1/2) x−1 = (1/2) x , x = 1, 2, . . .
b) Posons q = 1 − p. En général, on a que
∞
E[ X ] =
∑ xpqx−1
x =1
∞
= p ∑ xq x−1 .
x =1
Solutions
43
La dernière somme est la dérivée d’une série géométrique. En effet,
on sait que
∞
1
∑ qx = 1 − q .
x =0
En dérivant de part et d’autre par rapport à q, on obtient
∞
∞
x =0
x =1
1
∑ xqx−1 = ∑ xqx−1 = (1 − q)2 .
De manière équivalente,
∞
∞
d x
q
dq
x =0
∑ xqx−1 = ∑
x =1
=
d ∞ x
q
dq x∑
=0
d 1
dq 1 − q
1
.
=
(1 − q )2
=
Par conséquent,
E[ X ] =
p
1
= .
p
(1 − q )2
Pour la variance, on a
Var[ X ] = E[ X 2 ] − E[ X ]2
∞
= p ∑ x 2 q x −1 −
x =1
1
.
p2
Or, en réécrivant l’identité obtenue plus haut sous la forme
∞
q
∑ xqx = (1 − q)2 ,
x =1
puis en dérivant de part et d’autre par rapport à q, on obtient
∞
1 − q2
∑ x 2 q x −1 = (1 − q )4 .
x =1
44
Solutions
Comme précédemment, on peut aussi procéder ainsi pour atteindre
le même résultat :
∞
∞
d x
xq
dq
x =1
∑ n 2 q x −1 = ∑
x =1
=
d ∞
xq x
dq x∑
=1
=
d ∞
q
xq x−1
dq x∑
=1
=
d
q
dq (1 − q)2
=
1 − q2
.
(1 − q )4
Par conséquent,
1 − (1 − p )2
1
− 2
4
p
p
1
2
1
− 2 − 2
=p
p3
p
p
1− p
.
=
p2
Var[ X ] = p
Ici, on a p = 1/2 d’où E[ X ] = Var[ X ] = 2.
c) On a, en général,
MX (t) = E[etX ]
∞
=
∑ etx pqx−1
x =1
∞
=
p
(qet ) x
q n∑
=1
∞
p
=
q
∑ (qe )
t x
!
−1
x =0
=
p
q
=
pet
.
1 − qet
1
−1
1 − qet
En posant p = 1/2 et après quelques simplifications, on obtient MX (t) =
(2e−t − 1)−1 .
Solutions
45
1.5 On a la fonction définie par branches suivante :
 x
−
α
1


, α−β<x<α

β 1+ β
f (x) =

1
x−α


1−
, α < x < α + β.

β
β
a) Avec les conditions imposées sur x, α et β, il est aisé de vérifier que
f ( x ) ≥ 0. Puis,
Z
Z
Z α+ β
x−α
x−α
1 α
1 α+ β
1+
1−
f ( x ) dx =
dx +
dx
β α− β
β
β α
β
α− β
1β
1β
=
+
β2
β2
= 1,
d’où f ( x ) est bien une densité.
b) La fonction de répartition sera elle aussi définie par branches sur les
intervalles (α − β, α] et (α, α + β). En premier lieu, on a, pour α − β <
x ≤ α,
F(x) =
Z x
f (y) dy
y−α
=
1+
dy
β α− β
β
x−α 1 x−α 2 1
+ .
+
=
β
2
β
2
α− β
Z
1 x
En second lieu, pour α < x ≤ α + β, on a
F(x) =
Z α
α− β
f (y) dy +
Z x
f (y) dy
α
= F (α) +
Z x
f (y) dy
α
Z 1 x
y−α
dy
β
α
1 x−α 1 x−α 2
= +
−
.
2
β
2
β
=
1
+
2
β
1−
On peut vérifier que F (α − β) = 0 et que F (α + β) = 1. La fonction de
répartition est donc


x−α 1 x−α 2 1


+ , α−β<x≤α

 β +2
β
2
F(x) =


1 x−α 1 x−α 2


−
, α < x < α + β.
 +
2
β
2
β
46
Solutions
1.6 a) L’utilisation de fonctions indicatrices simplifie beaucoup la résolution
de ce problème. Soit la fonction indicatrice I{ A} qui vaut 1 lorsque la
condition A est vraie et 0 sinon. On a donc
1
1
H (x) + G(x)
2
2
1 x
1
=
xI{0< x≤1} + I{ x>1} +
I{0< x≤2} + I{ x>2}
2
2 2
3
1 1
= xI{0< x≤1} +
+ x I{1< x≤2} + I{ x>2} .
4
2 4
FX ( x ) =
b) En dérivant F ( x ), on obtient directement f ( x ) = 34 I{0< x≤1} + 41 I{1< x≤2} .
c) On a
Pr[ X ≤ 1/2 ∩ X ≤ 1]
Pr[ X ≤ 1]
F (1/2)
=
F (1)
Pr[ X ≤ 1/2| X ≤ 1] =
=
3
4
×
1
2
3
4
1
= .
2
1.7 On doit trouver le point où la fonction f (c) = E[( X − c)2 ] atteint son
minimum. Or, f 0 (c) = −2E[ X − c] = 0 lorsque E[ X ] − c = 0, soit c = E[ X ] =
µ. De plus, il s’agit bien d’un minimum puisque f 00 (c) = 2 > 0 pour tout
c.
1.8 a) Si f ( x ) = ( x + 1)/2, −1 < x < 1, alors
Z 1 2
x +x
1
dx =
3
−1
Z 1 3
x + x2
1
2
E[ X ] =
dx =
2
3
−1
Z 1 4
3
x
+
x
1
E[ X 3 ] =
dx = ,
2
5
−1
E[ X ] =
2
3
3
2
3
d’où σ2 = 2/9 et E[( X
√− µ) ] = E[ X ] − 3µE[ X ] + 2µ = −8/135. Par
conséquent, γ1 = −2 2/5.
b) La densité f ( x ) = 12 , −1 < x < 1 est celle de la loi uniforme sur (−1, 1).
On sait que cette distribution est symétrique autour de sa moyenne,
d’où γ1 = 0. Cette symétrie implique également que tous les moments
centraux (centrés autour de la moyenne) impairs sont nuls. En effet,
−1.0
−0.5
0.0
0.5
1.0
(a) f ( x ) = ( x + 1)/2
1.0
0.8
0.6
0.4
0.2
0.0
0.3
0.0
0.2
0.4
0.4
0.5
0.6
0.6
0.8
0.7
47
1.0
Solutions
−1.0
−0.5
0.0
0.5
1.0
−1.0
−0.5
0.0
0.5
1.0
(c) f ( x ) = (1 − x )/2
(b) f ( x ) = x/2
Fig. E.1: Graphiques des fonctions de l’exercice 1.8. Toutes sont définies sur
l’intervalle (−1, 1).
ici, E[ X ] = µ = 0 et
E[( X − µ)3 ] = E[ X 3 ]
=
Z 1 3
x
−1
2
dx
= 0,
d’où γ1 = 0.
√
c) Par symétrie avec la partie a), on trouve rapidement que γ1 = 2 2/5.
On trouvera à la figure E.1 les graphes des trois densités. On constate
que la densité en a) est asymétrique vers la droite (d’où un coefficient
d’asymétrie négatif) et que celle en c) est asymétrique vers la gauche
(coefficient positif). Tel que mentionné précédemment, la densité en b)
est symétrique.
1.9 Par définition de la fonction génératrice des moments, on a
MX (t) = E[etX ]
Z 2
1
=
e
dx
3
−1
tx
e2t
e−t
−
3t
3t
e2t − e−t
,
=
3t
=
t 6= 0.
1.10 Comme souvent dans ce genre de démonstration, le truc consiste à écrire
l’expression sous forme d’intégrale double, puis d’inverser l’ordre d’in-
48
Solutions
tégration. Ici, on a
Z ∞
0
(1 − FX ( x )) dx =
=
=
=
Z ∞
0
0
x
0
0
Z ∞Z y
Z ∞
0
=
Pr[ X > x ] dx
Z ∞Z ∞
Z ∞
0
f X (y) dy dx
f X (y) dx dy
f X (y)
Z y
0
dx dy
y f X (y) dy
= E [ X ].
1.11 a) Soit ρ le coefficient de corrélation entre X1 + X2 et X2 + X3 . Par définition,
ρ= p
Cov( X1 + X2 , X2 + X3 )
Var[ X1 + X2 ]Var[ X2 + X3 ]
Cov( X1 , X2 ) + Cov( X1 , X3 ) + Cov( X2 , X2 ) + Cov( X2 , X3 )
p
=
.
Var[ X1 + X2 ]Var[ X2 + X3 ]
Or, puisque les variables aléatoires ne sont pas corrélées et que leurs
variances sont identiques, on a
ρ= p
Var[ X2 ]
(Var[ X1 ] + Var[ X2 ])(Var[ X2 ] + Var[ X3 ])
σ2
=√
4σ4
1
= .
2
b) De manière similaire, on a
ρ= p
Cov( X2 − X1 , X3 − X1 )
Var[ X2 − X1 ]Var[ X3 − X1 ]
Cov( X2 , X3 ) − Cov( X1 , X2 ) − Cov( X1 , X3 ) + Var[ X1 ]
p
=
(Var[ X2 ] + Var[ X1 ])(Var[ X3 ] + Var[ X1 ])
σ2
=√
4σ4
1
= .
2
1.12 Par définition,
E [Y k | X = x ] =
Z 1
0
yk f Y | X (y| x ) dy.
Solutions
49
Or,
f XY ( x, y)
f X (x)
f ( x, y)
= R 1 XY
0 f XY ( x, y ) dy
x+y
= R1
0 ( x + y ) dy
x+y
=
.
x + 21
f Y |X (y| x ) =
On a donc
E [Y | X = x ] =
Z 1
xy + y2
dy
x + 12
3x + 2
,
=
6x + 3
Z 1
xy2 + y3
E [Y 2 | X = x ] =
dy
0
x + 12
4x + 3
=
12x + 6
0
et
Var[Y | X = x ] = E[Y 2 | X = x ] − E[Y | X = x ]2
=
6x2 + 6x + 1
.
2(6x + 3)2
1.13 a) On doit avoir
Z 1Z y
0
0
f X |Y ( x |y) dx dy = c1
Z 1
Z
1 y
0 y2
0
x dx dy =
c1
= 1,
2
d’où c1 = 2. De manière similaire, on doit avoir
Z 1
0
f Y (y) dy = c2
Z 1
0
y4 dy =
c2
= 1,
5
d’où c2 = 5.
b) On a
f XY ( x, y) = f X |Y ( x |y) f Y (y) = 10xy2 ,
0 < x < y, 0 < y < 1.
50
Solutions
c) On a
Pr[ 41 < X < 12 |Y = 85 ] =
Z 1/2
1/4
Z 1/2
f X |Y ( x | 58 ) dx
2x
dx
1/4 (5/8)2
64 1
1
=
−
25 4 16
12
= .
25
=
d) On a
Pr[ 14 < X < 21 ] =
=
=
=
Z 1/2
f X ( x ) dx
1/4
Z 1/2 Z 1
1/4 0
Z 1/2 Z 1
f XY ( x, y) dy dx
10xy2 dy dx
1/4 0
Z 1/2
10x
3
5
5
=
−
12 48
5
= .
16
1/4
dx
1.14 a) On a
MY (t) = E[eYt ]
= E[e(aX +b)t ]
= E[e aXt ebt ]
= ebt E[e aXt ]
= ebt MX ( at).
b) On a
MY (t) = E[eYt ]
= E[e(X1 +···+Xn )t ]
= E [ e X1 t · · · e X n t ]
Solutions
51
et, par indépendance entre les variables aléatoires,
MY (t) = E[e X1 t ] · · · E[e Xn t ]
n
= ∏ M X j ( t ).
i= j
Si, en plus, les variables aléatoires X1 , . . . , Xn sont identiquement distribuées comme X, alors MY (t) = ( MX (t))n .
1.15 Attention, pour démontrer l’indépendance entre deux variables aléatoires, il ne suffit pas de démontrer que la covariance est nulle. Il faut
plutôt démontrer que la densité conjointe est le produit des densités
marginales. Or, ici,
f X (x) =
Z 1
0
= 12x
f XY ( x, y) dy
Z 1
0
(y − y2 ) dy
= 2x
et
f Y (y) =
Z 1
0
f XY ( x, y) dx
= 12y(1 − y)
Z 1
0
x dx
= 6y(1 − y),
d’où f XY ( x,y) = f X ( x ) f Y (y). Les variables aléatoires X et Y sont donc
stochastiquement indépendantes. Cela implique que Cov( X, Y ) = 0, mais
pas l’inverse.
1.16 On pourrait démontrer que Cov( X, Y ) ≠ 0, ce qui est une raison suffisante (mais non nécessaire) pour que deux variables aléatoires soient
dépendantes. Cependant, ici, il est plus simple de démontrer que la
densité conjointe n’est pas le produit des densités marginales. En effet,
f X (x) =
Z ∞
0
f XY ( x, y) dy
= 2e− x
= 2e− x
Z ∞
0
e−y dy
52
Solutions
et
f Y (y) =
Z y
0
f XY ( x, y) dx
= 2e−y
= 2e
Z y
e− x dx
0
−y −y
(e
− 1) ,
d’où f XY ( x,y) ≠ f X ( x ) f Y (y).
1.17 Pour commencer, on trouve la valeur du paramètre λ de la loi de Poisson : on a Pr[ X = 1] = Pr[ X = 2], d’où
λe−λ =
λ2 e − λ
2
et donc λ = 2. Ainsi,
Pr[ X = 1 ∪ X = 2] = Pr[ X = 1] + Pr[ X = 2]
= 2e−2 +
4e−2
2
= 4e−2 .
1.18 On doit trouver le minimum de
E[| X − a|] =
=
Z ∞
−∞
Z a
−∞
| x − a| f ( x ) dx
( a − x ) f ( x ) dx +
Z ∞
a
( x − a) f ( x ) dx.
Or,
∞
a
d
f ( x ) dx +
f ( x ) dx
E[| X − a|] =
da
−∞
a
= FX ( a) − (1 − FX ( a))
Z
Z
= 2FX ( a) − 1
Par conséquent, le minimum est atteint au point a tel que 2FX ( a) − 1 = 0,
soit FX ( a) = 1/2. Par définition, cette valeur est la médiane de X.
1.19 a) On a directement f ( x ) = F 0 ( x ) = λτx τ −1 e−λx .
τ
b) On a
E[ X ] =
=
Z ∞
0
Z ∞
0
x f ( x ) dx
λτx τ e−λx dx.
τ
Solutions
53
On effectue le changement de variable y = λx τ , d’où dy = λτx τ −1 dx
et donc
1
Z ∞
y1/τ e−y dy
λ1/τ 0
Z
Γ(1 + τ1 ) ∞
1
=
y1/τ e−y dy
1/τ
λ
0 Γ (1 + τ1 )
E[ X ] =
=
Γ(1 + τ1 )
λ1/τ
puisque l’intégrande ci-dessus est la fonction de densité de probabilité d’une loi gamma de paramètre de forme α = 1 + τ1 et de paramètre d’échelle λ = 1. En procédant exactement de la même façon,
on trouve
2
E[ X ] =
=
Z ∞
0
Z ∞
0
x2 f ( x ) dx
λτx τ +1 e−λx dx
1
τ
Z ∞
y2/τ e−y dy
λ2/τ 0
Γ(1 + τ2 )
=
.
λ2/τ
=
Par conséquent,
Var[ X ] =
Γ(1 + τ2 ) − Γ(1 + τ1 )2
.
λ2/τ
1.20 a) Nous indiquons la méthode la plus simple et la plus rapide pour
obtenir la réponse. On observe que Y | X = x ∼ Uniforme( x, x + 1) et
que X ∼ Uniforme(0, 1). On a donc
1
1 1
E[Y ] = E[ E[Y | X ]] = E X +
= + = 1.
2
2 2
b) Le calcul de Cov( X, Y ) = E[ XY ] − E[ X ] E[Y ] requiert la fonction de
densité conjointe de X et Y. Or, f XY ( x, y) = f Y | X (y| x ) f X ( x ) = 1, 0 <
x < 1, x < y < x + 1. Par conséquent,
E[ XY ] =
Z 1 Z x +1
x
Z 1
0
xy dy dx
1
( x3 + 2x2 + x − x2 ) dx
2 0
7
= .
12
=
De a) on sait que E[ X ] = 1/2 et E[Y ] = 1, d’où Cov( X, Y ) = 1/12.
Solutions
1.0
0.0
0.5
y
1.5
2.0
54
0.0
0.5
1.0
1.5
2.0
x
Fig. E.2: Domaine de définition de f XY ( x, y) = 1, 0 < x < 1, x < y < x + 1. La
zone hachurée représente l’aire où x + y < 1.
c) Par définition,
Pr[ X + Y < 1] =
ZZ
R
f XY ( x, y) dy dx,
où R est la région du domaine de définition de f XY telle que x + y <
1. Cette région est représentée à la figure E.2. On a donc
Pr[ X + Y < 1] =
=
Z 1/2 Z 1− x
x
0
Z 1/2
0
(1 − 2x ) dx
1 1
−
2 4
1
= .
4
=
dy dx
Solutions
55
Chapitre 2
2.1 Par la technique de la fonction de répartition :
FY (y) = Pr[Y ≤ y]
= Pr[ X 3 ≤ y]
= Pr[ X ≤ y1/3 ]
1/3
1 y
x2 dx
9 0
y
= , 0 < y < 27.
27
=
Z
On trouve donc que
f Y (y) = FY0 (y) =
1
,
27
0 < y < 27,
soit que Y ∼ U (0, 27).
2.2 Avec les variables aléatoires discrètes, on peut généralement procéder
directement au calcul de la fonction de masse de probabilité. Ici, on a
X
=y
Pr[Y = y] = Pr
X+1
y
= Pr X =
1−y
y/(1−y)
1 2
1 2 3
=
, y = 0, , , , . . .
3 3
2 3 4
2.3 On a X = µ + σZ. Par la technique de la fonction de répartition, on obtient :
FX ( x ) = Pr[ X ≤ x ]
= Pr[µ + σZ ≤ x ]
x−µ
= Pr Z ≤
σ
x−µ
=Φ
.
σ
Ainsi, la fonction de densité de probabilité de X est
f X (x) =
d
Φ
dx
x−µ
σ
=
1
φ
σ
x−µ
σ
.
56
Solutions
2.4 Soit Z ∼ N (0, 1). La fonction génératrice des moments de la variable aléatoire Z2 est
h 2i
MZ2 ( t ) = E e Z t
=
Z ∞
−∞
Z ∞
2
ez t φ(z) dz
2
2
1
√ ez t e−z /2 dz
−∞ 2π
Z ∞
2
1
√ e−z (1−2t)/2 dz.
=
−∞ 2π
=
En posant σ2 = (1 − 2t)−1 , on voit que l’on peut écrire l’expression cidessus sous la forme
Z ∞
2
2
1
√ e−z /(2σ ) dz.
MZ2 ( t ) = σ
−∞ σ 2π
On reconnaît alors sous l’intégrale la densité d’une loi normale de moyenne
0 et de variance σ2 . Par conséquent,
1/2
1
MZ2 ( t ) = σ =
,
1 − 2t
soit la fonction génératrice des moments d’une loi gamma de paramètres
α = λ = 1/2 ou, de manière équivalente, d’une distribution χ2 (1).
2.5 Soit X une variable aléatoire et Y = FX ( X ) avec F continue et strictement
croissante. Par conséquent,
Pr[Y ≤ y] = Pr[ FX ( X ) ≤ y]
= Pr[ X ≤ FX−1 (y)]
= FX ( FX−1 (y))
= y,
d’où Y ∼ U (0, 1), peu importe la loi de X.
2.6 a) On a X ∼ N (0, σ2 ) et Y = X 2 . Il faut voir que Y = X 2 n’est pas une
transformation bijective. On pose donc d’abord Z = | X | et on trouve
la densité de Z à l’aide de la technique de la fonction de répartition :
FZ (z) = Pr[| X | ≤ z]
= Pr[−z ≤ X ≤ z]
= FX (z) − FX (−z)
d’où
f Z (z) = f X (z) + f X (−z)
2
2
2
= √ e− x /(2σ ) ,
σ 2π
z > 0.
Solutions
57
Ensuite, on pose la transformation bijective Y = Z2 = | X |2 = X 2 . Par
la technique du changement de variable, on a
1 f Y (y) = f Z (y1/2 ) √ 2 y
2
2
= √ e−y/(2σ )
σ 2π
=
puisque Γ( 21 ) =
√
1
√
2 y
(2σ2 )−1/2 1/2−1 −y/(2σ2 )
y
e
,
Γ( 12 )
y>0
π. On voit donc que
Y ∼ Gamma
1 1
,
2 2σ2
.
√
b) On sait que Z = X1 − X2 ∼ N (0, 2) et que Z/ 2 ∼ N (0, 1). En utilisant
le résultat de la partie a), on a immédiatement que Y = Z2 /2 ∼ χ2 (1).
2.7 Ici, les variables aléatoires Y1 et Y2 ne sont clairement pas indépendantes.
La fonction génératrice des moments conjointe n’est donc pas égale au
produit des fonctions génératrices des moments marginales. En revanche,
h
i
MY1 Y2 (t1 , t2 ) = E et1 Y1 +t2 Y2
i
h
2
2
= E et1 (X1 +X2 )+t2 (X1 +X2 )
h
i
2
2
= E e t 1 X1 + t 2 X1 e t 1 X2 + t 2 X2
h
i h
i
2
2
= E e t 1 X1 + t 2 X1 E e t 1 X2 + t 2 X2
par indépendance entre X1 et X2 . Puisque X1 et X2 sont aussi identiquement distribuées, on a
h
i
2 2
MY1 Y2 (t1 , t2 ) = E et1 X +t2 X ,
où X ∼ N (0, 1). Or,
∞
2
2
1
√ e−(x −2t1 x−2t2 x )/2 dx
−∞ 2π
Z ∞
2
1
√ e−[(1−2t2 )x −2t1 x]/2 dx
=
−∞ 2π
Z ∞
1
1 − 2t2 2
2t1
√
=
exp −
x −
x
dx
2
1 − 2t2
−∞ 2π
h
i Z
2
E e t1 X + t2 X =
58
Solutions
et, en complétant le carré dans l’expression entre parenthèses,
h
E e
t1 X + t2 X 2
i
(
)Z
∞
t21
1
√
= exp
2(1 − 2t2 )
−∞ 2π
(
2 )
1
2t1
t1
2
× exp −
x −
x+
dx
1 − 2t2
1 − 2t2
2(1 − 2t2 )−1
(
)Z
∞
t21
1
√
= exp
2(1 − 2t2 )
−∞ 2π
(
2 )
1
t1
× exp −
dx
x−
1 − 2t2
2(1 − 2t2 )−1
(
)
t21
−1/2
= (1 − 2t2 )
exp
,
2(1 − 2t2 )
d’où
1
exp
MY1 Y2 (t1 , t2 ) =
1 − 2t2
(
t21
1 − 2t2
)
,
1
−∞ < t1 < ∞, −∞ < t2 < .
2
2.8 La transformation de variables aléatoires est définie par les systèmes
d’équations suivants :
x1
x1 + x2
x1 + x2
y2 =
x1 + x2 + x3
y3 = x1 + x2 + x3
y1 =
x1 = y1 y2 y3
x2 = (1 − y1 ) y2 y3
x3 = y3 − y2 y3 .
La distribution conjointe des variables aléatoires Y1 , Y2 et Y3 est
f Y1 Y2 Y3 (y1 , y2 , y3 ) = f X1 X2 X3 (y1 y2 y3 , (1 − y1 )y2 y3 , y3 − y2 y3 )| J |,
où
3
f X1 X2 X3 ( x1 , x2 , x3 ) = ∏ f Xi ( xi ) = e−( x1 + x2 + x3 ) .
i =1
et
∂x1 /∂y1 ∂x1 /∂y2 ∂x1 /∂y3 J = ∂x2 /∂y1 ∂x2 /∂y2 ∂x2 /∂y3 ∂x3 /∂y1 ∂x3 /∂y2 ∂x3 /∂y3 y2 y3
y1 y3
y1 y2 = −y2 y3 y3 − y1 y3 y2 − y1 y2 0
− y3
1 − y2 = y2 y23 .
Solutions
59
Ainsi,
f Y1 Y2 Y3 (y1 , y2 , y3 ) = e−(y1 y2 y3 +y2 y3 −y1 y2 y3 +y3 −y2 y3 ) |y2 y23 |
= y2 y23 e−y3 ,
y1 , y2 , y3 > 0.
Puisque la densité conjointe est le produit de trois fonctions g1 (y1 ) = 1,
g2 (y2 ) = y2 et g3 (y3 ) = y23 e−y3 (qui ne sont pas nécessairement les densités
marginales), alors les variables aléatoires Y1 , Y2 et Y3 sont stochastiquement indépendantes.
On pourrait aussi calculer densités mariginales et vérifier que leur produit égale à la densité conjointe. Il est laissé en exercice de vérifier que
e−y3 y23
2
f Y2 (y2 ) = 2y2
f Y3 (y3 ) =
f Y1 (y1 ) = 1,
d’où le résultat.
2.9 a) On a X ∼ N (µ, σ2 ) et Y = e X . On sait que
x−µ
FX ( x ) = Φ
.
σ
Or, par la technique de la fonction de répartition, on trouve
FY (y) = Pr[e X ≤ y]
= Pr[ X ≤ ln(y)]
= FX (ln(y))
ln(y) − µ
=Φ
σ
et
1
f X (ln(y))
y
1
ln(y) − µ
φ
.
=
σy
σ
FY (y) =
b) On a simplement
E[Y k ] = E[ekX ]
= MX (k )
= ekµ+k
2 σ2 /2
,
où MX (t) est la fonction génératrice des moments de la variable aléatoire X.
60
Solutions
2.10 On pose Y1 = X1 /X2 et, tel que suggéré dans l’énoncé, Y2 = X2 . Les
relations inverses sont X1 = Y1 Y2 et X2 = Y2 . La distribution conjointe
de Y1 et Y2 est donc
f Y1 Y2 (y1 , y2 ) = f X1 X2 (y1 y2 , y2 )| J |,
avec
f X1 X2 ( x 1 , x 2 ) =
1 −( x2 + x2 )/2
e 1 2
2π
et
y
J = 2
0
y1 = y2 .
1
Ainsi,
f Y1 Y2 (y1 , y2 ) = f X1 X2 (y1 y2 , y2 )|y2 |
=
|y2 | −(y2 y2 +y2 )/2
e 1 2 2 .
2π
Il ne reste qu’à intégrer pour trouver la densité marginale de Y1 :
Z ∞
|y2 | −(1+y2 )y2 /2
1 2
f Y1 (y1 ) =
e
dy2
−∞ 2π
Z 0
y2 −(1+y2 )y2 /2
1 2
e
dy2 +
−∞ 2π
Z ∞
y2 −(1+y2 )y2 /2
1 2
=2
e
dy2
0 2π
1
=
,
π (1 + y21 )
=−
Z ∞
y2 −(1+y2 )y2 /2
1 2
e
dy
0
2π
2
d’où Y1 = X1 /X2 ∼ Cauchy.
2.11 a) Puisque la loi t est symétrique autour de zéro, on a
Pr[| T | > 2,228] = Pr[ T > 2,228] + Pr[ T < −2,228]
= 2Pr[ T > 2,228].
Or, on trouve dans la table de la loi t de l’annexe C que Pr[ T ≤
2,228] = 0,975 si T ∼ t(10). Par conséquent, Pr[| T | > 2,228] = 2(1 −
0,975) = 0,05.
b) Toutes les fonction R servant à évaluer des fonctions de répartition
ont un argument lower.tail. Ce argument est TRUE par défaut, mais
lorsque qu’il est FALSE, la fonction retourne la probabilité au-dessus
du point x. Ainsi, la probabilité cherchée ici est
Solutions
61
> 2 * pt(2.228, 10, lower.tail = FALSE)
[1] 0.05001177
Il est recommandé d’utiliser cette approche parce qu’elle est, de manière générale, plus précise que le calcul du type 1 - pt(x, n), surtout loin dans les queues des distributions.
2.12 a) Par symétrie de la loi t,
Pr[−b < T < b] = Pr[ T < b] − Pr[ T < −b]
= Pr[ T < b] − (1 − Pr[ T < b])
= 2Pr[ T < b] − 1
= 0,90.
On cherche donc la valeur de b tel que Pr[ T < b] = (1 + 0,90)/2 =
0,95, où T ∼ t(14). Dans la table de la loi t de l’annexe C on trouve
que b = 1,761.
b) En définitive, on cherche le 95e centile d’une loi t(14). Avec R, on
obtient
> qt(0.95, 14)
[1] 1.76131
2.13 a) La fonction de densité de la loi t avec r degrés de liberté est
Γ((r + 1)/2)
1
f (t) = √
.
2
πr Γ(r/2) (1 + t /r )(r+1)/2
√
Si r = 1, et puisque Γ(1) = 1 et que Γ( 21 ) = π, la densité se simplifie
en
Γ (1)
f (t) = √
π Γ(1/2)(1 + t2 )
1
=
,
π (1 + t2 )
qui est la densité de la loi de Cauchy.
b) En ne tenant pas compte, tel que suggéré dans l’énoncé, des constantes
dans la densité de la loi t, on a
−(r+1)/2
t2
lim f (t) ∝ lim 1 +
r →∞
r →∞
r
"
r #−1/2 −1/2
t2
t2
= lim
1+
1+
r →∞
r
r
2
= (et )−1/2 (1)
= e−t
2 /2
,
qui est, à une constante près, la densité de la loi normale centrée
réduite.
62
Solutions
2.14 On sait que si Z ∼ N (0, 1), alors Y = Z2 ∼ χ2 (1). Ainsi, E[ Z4 ] = E[Y 2 ] et
donc le quatrième moment de la normale centrée réduite est simplement
le second moment de la khi carré. Or, E[Y 2 ] = Var[Y ] + E[Y ]2 = 2 + 1 = 3,
d’où le coefficient d’applatissement de la loi normale est γ2 ( Z ) = 3 − 3 =
0.
2.15 a) On a U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ). On pose F = (U/r1 )/(V/r2 ) et, disons, G = V. Pour trouver la densité (marginale) de F, il faudra passer
par la densité conjointe de F et G.
Les équations régissant la transformation de variables aléatoires sont
r
r2 u u = 1 xy
x=
r1 v
r2
y=v
v = y.
Ainsi, le jacobien de la transformation est
r1 y/r2 r1 x/r2 r1
= y
J=
0
1 r2
et la densité conjointe de F et G est
r1 r1
f FG ( x, y) = f UV
xy, y y
r2
r2
r1
r1
=
y fU
xy f V (y)
r2
r2
=
(r1 /r2 )(1/2)(r1 +r2 )/2 (r1 xy/r2 )r1 /2−1 yr2 /2 e−(r1 x/r2 +1)y/2
Γ(r1 /2)Γ(r2 /2)
pour x > 0 et y > 0. En intégrant, on trouve la densité marginale de
F:
f F (x) =
Z ∞
0
f FG ( x, y) dy
(r1 /r2 )(r1 +r2 )/2 xr1 /2−1
Γ(r1 /2)Γ(r2 /2)
Z ∞ (r1 +r2 )/2
1
×
y(r1 +r2 )/2−1 e−(r1 x/r2 +1)y/2 dy
2
0
=
=
Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1
Γ(r1 /2)Γ(r2 /2)(r1 x/r2 + 1)(r1 +r2 )/2
×
Z ∞
(1/2)(r1 +r2 )/2 (r1 x/r2 + 1)(r1 +r2 )/2 (r1 +r2 )/2−1 −(r1 x/r2 +1)y/2
y
e
dy
0
=
Γ((r1 + r2 )/2)
Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1
,
Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2
Solutions
63
puisque l’intégrande ci-dessus est la densité d’une loi gamma. La loi
de la variable aléatoire F est appelée loi F avec r1 et r2 degrés de
liberté.
b) Par indépendance entre les variables aléatoires U et V, on a
E[ F ] = E
r2
r1
r
= 2
r1
=
U/r1
V/r2
U
E
V
1
E [U ] E
.
V
Or, E[U ] = r1 et
Z ∞
1
1
E
=
f V (v) dv
V
0 v
Z ∞
1
=
vr2 /2−1−1 e−v/2 dv
r
/2
2
2
Γ
(r2 /2)
0
=
2r2 /2−1 Γ(r2 /2 − 1)
,
2r2 /2 Γ(r2 /2)
r2
− 1 > 0.
2
Avec la propriété de la fonction gamma Γ( x ) = ( x − 1)Γ( x − 1), cette
expression se simplifie en
E
1
1
=
,
V
r2 − 2
d’où, enfin,
E[ F ] =
r2
r2 − 2
pour r2 > 2.
c) En procédant comme en b), on trouve que E[U 2 ] = Var[U ] + E[U ]2 =
2r1 + r12 , que
1
1
E 2 =
(r2 − 2)(r2 − 4)
V
et donc que
h i r2
1
E F2 = 22 E[U 2 ] E 2
V
r1
=
r22 (r1 + 2)
.
r1 (r2 − 2)(r2 − 4)
64
Solutions
Par conséquent,
2
r22 (r1 + 2)
r2
Var[ F ] =
−
r1 (r2 − 2)(r2 − 4)
r2 − 2
2 r2
r2 + r1 − 2
=2
,
r2 − 2
r1 (r2 − 4)
pour r2 > 4.
2.16 On a
U/r1
V/r2
V/r2
=
U/r1
1
=
F
−1
où U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ). Puisqu’il s’agit d’un ratio de deux variables
aléatoires χ2 divisées chacune par son nombre de degrés de liberté, on
a donc que
1
∼ F (r2 , r1 ).
F
2.17 On a F ∼ F (5, 10) et l’on cherche a et b tel que Pr[ F ≤ a] = 0,05 et Pr[ F ≤
b] = 0,95. Dans une table de loi F, on trouve que Pr[ F ≤ 3,326] = 0,95 et
donc que b = 3,326. Puisque les quantiles inférieurs ne sont pas inclus
dans la table de l’annexe D, on doit utiliser pour trouver a la relation
Pr[ F ≤ a] = 1 − Pr[ F −1 ≤ a−1 ] où, tel que démontré à l’exercice 2.16,
F −1 ∼ F (10, 5). Dans une table, on trouve que a−1 = 4,74, d’où a = 0,211.
Avec R, on obtient les mêmes résultats encore plus simplement :
> qf(c(0.05, 0.95), 5, 10)
[1] 0.2111904 3.3258345
2.18 On sait que W 2 ∼ χ2 (1). Ainsi,
T2 =
W 2 /1
,
V/r
qui est un ratio de deux variables aléatoires χ2 divisées par leur nombre
de degrés de liberté. Par définition de la loi F, on a donc que T 2 ∼ F (1, r ).
2.19 Par la technique de la fonction de répartition,
FY (y) = Pr[Y ≤ y]
1
= Pr
≤y
1 + r1 F/r2
1
r
= Pr F ≥
−1 2
y
r1
1
r
= 1 − FF
−1 2 .
y
r1
Solutions
65
En dérivant, on trouve que la fonction de densité de la variable aléatoire
Y est
f Y (y) =
r2
r1
1
y2
fF
1
−1
y
r2
r1
,
soit, en posant a = r1 /2 et b = r2 /2,
Γ( a + b)( ba ) a ( ba ) a y−2 (y−1 − 1) a−1
Γ( a)Γ(b)
[1 + (y−1 − 1)] a+b
Γ ( a + b ) b −1
=
y (1 − y ) a −1 ,
Γ( a)Γ(b)
f Y (y) =
d’où Y ∼ Bêta(b, a).
2.20 a) On a
f X |Θ ( x |θ ) = θe−θx ,
x>0
et
uΘ (θ ) =
λα α−1 −λθ
θ
e
,
Γ(α)
θ > 0.
Par conséquent,
f X (x) =
Z ∞
0
f X |Θ ( x |θ )uΘ (θ ) dθ
∞
λα
θ α+1−1 e−( x+λ)θ dθ
Γ(α) 0
Γ ( α + 1) λ α
=
Γ(α)( x + λ)α+1
αλα
=
,
( λ + x ) α +1
=
Z
d’où X ∼ Pareto(α, λ). Pour passer de la seconde à la troisième égalité, ci-dessus, il faut identifier l’intégrande comme la densité d’une
loi Gamma(α + 1, x + λ), à une constante près.
b) Dans la mesure où l’on connaît la distribution marginale de X, on sait
immédiatement que E[ X ] = α/(λ − 1). On aurait aussi pu passer par
l’espérance conditionnelle, technique qui ne requiert pas de connaître
66
Solutions
la distribution marginale :
E[ X ] = E[ E[ X |Θ]]
1
=E
Θ
Z ∞
1
=
uΘ (θ ) dθ
0 θ
Z
∞
λα
θ α−1−1 e−λθ dθ
=
Γ(α) 0
λ α Γ ( α − 1)
= α −1
λ
Γ(α)
λ
=
.
α−1
Chapitre 3
3.1 On sait que X̄ ∼ N ( E[ X̄ ], Var[ X̄ ]) avec E[ X̄ ] = E[ X ] = 10 et Var[ X̄ ] =
Var[ X ]/n = 125/5 = 5. Par conséquent,
X̄ − 10
c − 10
√
< √
25
25
= Pr[ Z < zα ]
Pr[ X̄ < c] = Pr
=1−α
avec Z ∼ N (0, 1) et zα = (c − 10)/5. Ici, on a 1 − α = 0,90. On trouve dans
une table de quantiles de la loi normale que z0,10 = 1,282, d’où c = 16,41.
3.2 On a E[ X̄ ] = E[ X ] = µ, Var[ X̄ ] = Var[ X ]/n = 100/n et X̄ ∼ N (µ, 100/n).
Ainsi, on cherche n tel que
5
X̄ − µ
5
√ <
√ <
√
Pr[µ − 5 < X̄ < µ + 5] = Pr −
10/ n
10/ n
10/ n
√ √ 5 n
5 n
=Φ
−Φ −
10
10
√ 5 n
= 2Φ
−1
10
= 0,954,
soit
√ 5 n
Φ
= 0,977.
10
√
On trouve dans une table de loi normale que 5 n/10 = 2, d’où n = 16.
Solutions
67
3.3 On a X̄ ∼ N (0, 16/25), Ȳ ∼ N (1, 9/25) et, par conséquent, X̄ − Ȳ ∼ N (−1, 1).
On a donc
Pr[ X̄ > Ȳ ] = Pr[ X̄ − Ȳ > 0]
X̄ − Ȳ − (−1)
0 − (−1)
√
√
= Pr
>
1
1
= 1 − Φ (1)
= 0,159.
3.4 Soit
α
Y=
∑ Xi
i =1
avec Xi ∼ Exponentielle(λ) et X1 , . . . , Xα indépendantes. Par le Théorème
central limite,
α
∑ Xi ∼ N (αE[Xi ], αVar[Xi ]).
α→∞
lim Y = lim
α→∞
i =1
Par conséquent,
α α .
,
α→∞
λ λ2
On trouve à la figure E.3 les graphiques de densités gamma pour quelques
valeurs du paramètre α. On observe, en effet, que la distribution tend vers
une normale lorsque α augmente.
lim Y ∼ N
3.5 a) On a l’échantillon aléatoire X1 , . . . , X100 , où
50 1
2
Xi ∼ χ (50) ≡ Gamma
,
,
2 2
i = 1, . . . , 100.
Or, on sait que Y = X1 + · · · + X100 ∼ Gamma(100(25), 1/2) et que
X̄ = Y/100 ∼ Gamma(2 500, 100/2).
b) On peut, par exemple, obtenir la probabilité demandée avec R ainsi :
> pgamma(51, 2500, 50) - pgamma(49, 2500, 50)
[1] 0.6827218
c) On a E[ X̄ ] = 2 500/50 = 50 et Var[ X̄ ] = 2 500/502 = 1. En utilisant l’approximation normale, on trouve
49 − 50
X̄ − 50
51 − 50
Pr[49 < X̄ < 51] = Pr
<
<
1
1
1
≈ Φ(1) − Φ(−1)
= 2Φ(1) − 1
= 0,682.
On trouve la valeur de Φ(1) dans une table de quantiles de la loi
normale ou à l’aide d’un logiciel statistique.
68
Solutions
0.08
0.06
0.04
0.00
0.02
dgamma(x, α, 1)
0.10
0.12
α = 10
α = 20
α = 50
0
20
40
60
80
100
x
Fig. E.3: Densités de lois gamma pour quelques valeurs du paramètre de
forme α.
3.6 Puique l’on ne demande qu’une valeur approximative pour Pr[7 < X̄ < 9],
on va utiliser l’approximation normale. La taille de l’échantillon étant
relativement grande, l’approximation sera très bonne. Soit X̄ = ( X1 +
· · · + X128 )/128, où Xi ∼ Gamma(2, 14 ), i = 1, . . . , 128. On a E[ X̄ ] = E[ Xi ] =
8 et Var[ X̄ ] = Var[ Xi ]/128 = 1/4. Par conséquent,
7−8
X̄ − 8
9−8
Pr[7 < X̄ < 9] = Pr √
<√
<√
1/4
1/4
1/4
≈ Φ(2) − Φ(−2)
= 2Φ(2) − 1
= 0,954.
On trouve la valeur de Φ(2) dans une table de quantiles de la loi normale
ou à l’aide d’un logiciel statistique.
3.7 On souhaitera utiliser l’approximation normale. Cela requiert de connaître
les valeurs de l’espérance et de la variance de la moyenne de l’échantillon,
Solutions
69
X̄, et, par ricochet, celles de la variable aléatoire avec densité f ( x ). Or,
Z 1
3
4
Z 1
3
E[ X 2 ] =
3x4 dx =
5
0
E[ X ] =
0
3x3 dx =
et donc Var[ X ] = 3/80. Ainsi, E[ X̄ ] = E[ X ] = 3/4 et Var[ X̄ ] = Var[ X ]/15 =
1/400 et
X̄ − 3/4
4/5 − 3/4
3
4
3/5 − 3/4
< √
< √
Pr
< X̄ <
= Pr √
5
5
1/400
1/400
1/400
≈ Φ(1) − Φ(−3)
= 0,840.
3.8 On sait que nS2 /σ2 ∼ χ2 (n − 1), que l’espérance d’une loi χ2 est égale à
son nombre de degrés de liberté et que sa variance est égale à deux fois
son nombre de degrés de liberté. On a donc
2
nS
σ2
E
E [ S2 ] =
n
σ2
=
( n − 1) σ 2
n
et
2
σ4
nS
Var[S ] = 2 Var
n
σ2
2
=
2( n − 1) σ 4
n2
3.9 On sait que nS2 /σ2 ∼ χ2 (n − 1). Soit Y ∼ χ2 (5). On a donc,
6(2,30)
6S2
6(22,2)
2
Pr[2,30 < S < 22,2] = Pr
<
<
12
12
12
= Pr[1,15 < Y < 11,1]
= Pr[Y < 11,1] − Pr[Y < 1,15].
On trouve dans une table de quantiles de la loi khi carré (ou avec la
fonction qchisq dans R, par exemple) que Pr[Y < 11,1] = 0,95 et Pr[Y <
1,15] = 0,05. Par conséquent, Pr[2,30 < S2 < 22,2] = 0,90.
3.10 Puisque X(1) est la plus petite valeur de l’échantillon, on a que
FX(1) ( x ) = Pr[ X(1) ≤ x ]
= 1 − Pr[ X(1) > x ]
= 1 − Pr[ X1 > x, X2 > x, . . . , Xn > x ].
70
Solutions
Or, les variables aléatoires X1 , . . . , Xn sont indépendantes et identiquement distribuées, d’où
FX(1) ( x ) = 1 − Pr[ X1 > x ]Pr[ X2 > x ] · · · Pr[ Xn > x ]
= 1 − (Pr[ X > x ])n
= 1 − (1 − FX ( x ))n .
3.11 On cherche la probabilité que la plus grande valeur de l’échantillon
soit supérieure à 3, soit le complément de la probabilité que toutes les
valeurs de l’échantillon soient inférieures à 3 :
Pr[ X(4) > 3] = 1 − Pr[ X(4) ≤ 3]
= 1 − Pr[ X1 ≤ 3]Pr[ X2 ≤ 3]Pr[ X3 ≤ 3]Pr[ X4 ≤ 3]
= 1 − ( FX (3))4 .
Or, on aura reconnu en f ( x ) la densité d’une loi exponentielle de paramètre λ = 1. Par conséquent, FX ( x ) = 1 − e− x et Pr[ X(4) > 3] = 1 − (1 −
e −3 )4 .
3.12 Soit m la médiane de la distribution. On cherche Pr[ X(1) > m]. Avec le
résultat de l’exercice 3.10,
Pr[ X(1) > m] = 1 − Pr[ X(1) ≤ m]
= 1 − FX(1) (m)
= 1 − (1 − (1 − FX (m))3 )
= (1 − FX (m))3
1
= ,
8
car FX (m) = 1 − FX (m) = 1/2 par définition de la médiane. Le type de
distribution ne joue donc aucun rôle dans cet exercice.
3.13 On a que X est distribuée uniformément sur {1, . . . , 6}, d’où FX ( x ) =
x/6, x = 1, . . . , 6. De l’exercice 3.10, on a que
FX(1) ( x ) = 1 − (1 − FX ( x ))5
x 5
.
=1− 1−
6
Solutions
71
Par conséquent, la fonction de masse de probabilité du minimum est
Pr[ X(1) = x ] = lim FX(1) (y) − lim FX(1) (y)
y→ x−
y→ x+
= FX(1) ( x ) − FX(1) ( x − 1)
5
x−1 5
x
= 1−
− 1−
6
6
5 5
7−x
6−x
=
−
.
6
6
3.14 De l’exercice 3.10, on a
FX(1) ( x ) = 1 − (1 − FX ( x ))n
= 1 − (e−(λx) )n
τ
= 1 − e−(n
1/τ λx )τ
,
1
d’où X(1) ∼ Weibull(n τ λ, τ ). Ainsi, la fonction de densité de probabilité
du minimum de l’échantillon est
f X(1) ( x ) = nλτx τ −1 e−(n
et l’espérance est
E [ X (1) ] =
1/τ λx )τ
Γ(1 + 1/τ )
1
nτ λ
.
3.15 Soit R l’étendue de l’échantillon aléatoire. On sait que
f R ( x ) = n ( n − 1 ) x n −2 (1 − x ).
Par conséquent
Z 1/2
1
Pr R ≤
=
f X ( x ) dx
2
0
= (4)(3)
=
Z 1/2
0
x2 (1 − x ) dx
5
.
16
3.16 On a que X ∼ Bêta(1, 2), c’est-à-dire que f X ( x ) = 2(1 − x ), 0 < x < 1. Soit
X1 , X2 un échantillon aléatoire tiré de cette densité. Par indépendance,
on a
f X1 X2 ( x 1 , x 2 ) = f X1 ( x ) f X2 ( x )
= 4(1 − x1 )(1 − x2 ).
72
Solutions
On cherche Pr[ X2 ≥ 2X1 ∪ X1 ≥ 2X2 ]. Par définition,
Pr[ X1 ≥ 2X2 ∪ X2 ≥ 2X1 ] =
ZZ
f X1 X2 ( x1 , x2 ) dx2 dx1 ,
R
où R est la région du domaine de définition de f X1 X2 telle que x1 > 2x2
ou x2 > 2x1 . Cette région est représentée à la figure E.4. On a donc
Pr[ X1 ≥ 2X2 ∪ X2 ≥ 2X1 ] = 4
Z 1/2 Z 1
0
(1 − x1 )(1 − x2 ) dx2 dx1
2x1
Z 1/2 Z 1
(1 − x1 )(1 − x2 ) dx1 dx2
1
=4
(1 − x1 )
− 2x1 + 2x12 dx1
2
0
Z 1/2
1
+4
− 2x2 + 2x22 dx2
(1 − x2 )
2
0
7
= .
12
+4
0
Z 1/2
2x2
3.17 Soit T = ( X(1) + X(n) )/2 la mi-étendue et R l’étendue. On sait que
f RT (r, t) = n(n − 1)r n−2 .
On doit calculer la densité marginale de T. Il faut voir que le domaine
de R (et donc le domaine d’intégration) dépend indirectement de T. En
effet, si 0 ≤ t ≤ 1/2, on doit avoir 0 < r < 2t. Par contre, si 1/2 < t < 1,
il faut que 0 < r < 2(1 − t). On obtient
(
n(2t)n−1 ,
0 < t < 1/2
f T (t) =
n(2(1 − t))n−1 , 1/2 < t < 1.
Ainsi,
E [ T ] = 2n −1 n
=2
n −1
0
n
1/2
Z
tn dt +
Z 1
1/2
0,5n+1
t(1 − t)n−1 dt
n+2
+
n+1
n ( n + 1)
1
2n +1
1
= .
2
3.18 On a d’abord les résultats suivants : Xi ∼ U (0, 1), X(1) ∼ Bêta(1, n),
X(n) ∼ Bêta(n, 1) et f X(1) X(n) ( x, y) = n(n − 1)(y − x )n−2 . Ainsi,
Z 1 Z 1
h
i
E X (1) X ( n ) = n ( n − 1 )
x
y(y − x )n−2 dy dx.
0
x
73
0.0
0.2
0.4
x2
0.6
0.8
1.0
Solutions
0.0
0.2
0.4
0.6
0.8
1.0
x1
Fig. E.4: Domaine de définition de f X1 X2 ( x1 , x2 ) = 4(1 − x1 )(1 − x2 ), x1 , x2 ∈
(0, 1). Les zones hachurées représentent les aires où x2 > 2x1 ou x1 > 2x2 .
L’intégrale intérieure ci-dessus se résoud par parties en posant u = y et
dv = (y − x )n−2 dy. On obtient alors
Z 1 Z 1
h
i
( y − x ) n −1 y
1
−
E X (1) X ( n ) = n ( n − 1 )
x
(y − x )n−1 dy dx
n−1
n−1 x
0
=n
Z 1
0
x (1 − x )n−1 dx −
Z 1
1
1
−
n + 1 (n + 1)(n + 2)
1
=
,
n+2
=
0
x (1 − x )n dx
74
Solutions
en intégrant une seconde fois par parties. Par conséquent,
h
i
h
i h
i
Cov X(1) , X(n) = E X(1) X(n) − E X(1) E X(n)
1
1
n
=
−
n+2
n+1
n+1
1
.
=
( n + 1)2 ( n + 2)
a) On a
h
i
h
i
E [ R ] = E X ( n ) − E X (1)
n
1
−
n+1 n+1
n−1
=
n+1
=
et
h
i
h
i
Var[ R] = Var X(1) + Var X(n) − 2 Cov X(1) , X(n)
n
n
2
+
−
( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2)
2n − 2
.
=
( n + 1)2 ( n + 2)
=
b) On a
E[ T ] =
h
i
h
i
E X (1) + E X ( n )
1
=
2
1
=
2
2
n
1
+
n+1 n+1
et
Var[ T ] =
h
i
h
i
Var X(1) + Var X(n) + 2 Cov X(1) , X(n)
4
1
n
n
2
=
+
+
4 ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2)
1
=
.
( n + 1)2 ( n + 2)
Solutions
75
Chapitre 4
4.1 a) On a une une distribution de Poisson de paramètre θ, d’où E[ X ] = θ.
L’estimateur des moments est donc θ̂ = X̄.
b) La densité est celle d’une distribution bêta de paramètres θ et 1. Ainsi,
E[ X ] = θ/(θ + 1) et en posant
θ
= X̄
θ+1
on trouve que l’estimateur des moments de θ est
θ̂ =
X̄
.
1 − X̄
c) On reconnaît la densité d’une distribution gamma de paramètres 1 et
θ −1 . Ainsi, on sait que E[ X ] = θ, d’où l’estimateur des moments est
θ̂ = X̄.
d) Cette densité est celle de la loi de Laplace. On a
Z θ
Z ∞
1
E[ X ] =
xe x−θ dx +
xe− x+θ dx
2
−∞
θ
1
= (2θ )
2
= θ.
L’estimateur des moments de θ est donc θ̂ = X̄.
e) On a la densité d’une exponentielle de paramètre 1 translatée de θ vers
la droite. Par conséquent, E[ X ] = θ + 1, un résultat facile à vérifier en
intégrant. En posant θ + 1 = X̄, on trouve facilement que θ̂ = X̄ − 1.
4.2 Dans tous les cas, la fonction de vraisemblance est L(θ ) = ∏in=1 f ( xi ; θ ) et
la fonction de log-vraisemblance est l (θ ) = ln L(θ ) = ∑in=1 ln f ( xi ; θ ). L’estimateur du maximum de vraisemblance du paramètre θ est la solution
de l’équation l 0 (θ ) = 0.
a) On a
n
e−nθ θ ∑i=1 xi
L(θ ) =
,
∏in=1 xi !
n
n
i =1
i =1
l (θ ) = −nθ + ∑ xi ln(θ ) − ∑ ln( xi !)
et
l 0 (θ ) = −n +
∑in=1 xi
.
θ
En résolvant l’équation l 0 (θ ) = 0 pour θ, on trouve que l’estimateur du
maximum de vraisemblance est θ̂ = X̄.
76
Solutions
b) On a
n
∏ xi
L(θ ) = θ n
! θ −1
,
i =1
n
l (θ ) = n ln(θ ) + (θ − 1) ∑ ln( xi )
i =1
et
l 0 (θ ) =
n
n
+ ∑ ln( xi ).
θ i =1
On trouve donc que
θ̂ = −
n
∑in=1 ln( Xi )
=−
n
.
ln( X1 · · · Xn )
c) On a
n
L(θ ) = θ −n e− ∑i=1 xi /θ ,
l (θ ) = −n ln(θ ) −
∑in=1 xi
θ
et
l 0 (θ ) = −
On obtient que θ̂ = X̄.
d) On a
n ∑in=1 xi
.
+
θ
θ2
n
n
1
e − ∑ i =1 | x i − θ |
L(θ ) =
2
La présence de la valeur absolue rend cette fonction non différentiable
en θ. On remarque que la fonction de vraisemblance sera maximisée
lorsque l’expression ∑in=1 | xi − θ | sera minimisée. Par analogie avec le
résultat de l’exercice 1.18, on établit que θ̂ = med( X1 , . . . , Xn ).
e) On remarque que le support de la densité dépend du paramètre θ.
Dans de tels cas, la technique usuelle de maximisation de la fonction
de vraisemblance n’est d’aucune utilité. D’ailleurs, on a
n
L(θ ) = enθ −∑i=1 xi
et on voit que la fonction de vraisemblance est strictement croissante
en fonction de θ, ce qui indique de choisir une valeur de θ la plus
grande possible. Par contre, on a la contrainte x ≥ θ, c’est-à-dire que θ
doit être plus inférieur ou égal à la plus petite valeur de l’échantillon.
Par conséquent, θ̂ = min( X1 , . . . , Xn ) = X(1) .
Solutions
77
4.3 a) On a X = Z + µ où Z ∼ Exponentielle(λ). Alors,
FX ( x ) = Pr[ Z + µ ≤ x ]
= FZ ( x − µ)
= 1 − e−λ( x −µ) ,
x>µ
et
f X ( x ) = λe−λ( x−µ) ,
x > µ.
b) On a simplement
E[ X ] = E[ Z + µ]
= E[ Z ] + µ
1
= +µ
λ
et
Var[ X ] = Var[ Z + µ]
= Var[ Z ]
1
= 2.
λ
c) On a
n
L(µ,λ) = λn e−λ ∑i=1 ( xi −µ)
n
l (µ,λ) = n ln(λ) − λ ∑ ( xi − µ)
i =1
et
n
∂l (µ,λ)
n
= − ∑ ( xi − µ ) ,
∂λ
λ i =1
d’où
λ=
n
∑in=1 ( xi
− µ)
.
On voit que la fonction de vraisemblance est strictement croissante en
fonction de µ. Ainsi, il faut prendre la valeur de µ la plus grande possible en respectant la condition dictée par la densité de l’exponentielle
translatée, x ≥ µ. On a donc
µ̂ = X(1)
λ̂ =
n
.
− x (1) )
∑in=1 ( xi
78
Solutions
d) On a, par exemple, les résultats suivants pour une exponentielle translatée de paramètres µ = λ−1 = 1 000 :
> x <- rexp(100, rate = 0.001) + 1000
> min(x)
[1] 1009.415
> 100/sum(x - min(x))
[1] 0.001052481
Les estimations obtenues sont près des vraies valeurs des paramètres,
même pour un relativement petit échantillon de taille 100.
4.4 Il est clair ici que, comme f ( x; θ ) = 1, on ne pourra pas utiliser la technique habituelle pour calculer l’estimateur du maximum de vraisemblance. Il faut d’abord déterminer l’ensemble des valeurs de θ possibles
selon l’échantillon obtenu. Comme toutes les données de l’échantillon
doivent se trouver dans l’intervalle [θ − 1/2, θ + 1/2], on a θ ≥ X(n) − 1/2
et θ ≤ X(1) + 1/2. De plus, puisque X(n) − X(1) ≤ 1, on a que X(n) − 1/2 ≤
θ ≤ X(1) + 1/2. Ainsi, toute statistique satisfaisant ces inégalités est un estimateur du maximum de vraisemblance de θ. On a donc que
X( n ) −
1
1
≤ T ( X1 , . . . , Tn ) ≤ X(1) + .
2
2
4.5 On a
L(µ,λ) =
λ
2π
n/2
n
1
∏ x3
i =1 i
!1/2
(
λ n ( x − µ )2
exp − ∑ i 2
2 i =1 µ x i
)
.
Il est plus simple de trouver d’abord l’estimateur du maximum de vraisemblance du paramètre µ. On constate qu’il s’agit de la valeur qui minimise la somme dans l’exponentielle. Or,
n
∂ n ( x i − µ )2
2
xi
=
−
−
1
.
∑ µ2 x i µ
∂µ i∑
µ2 x i
=1
i =1
En posant
n
∑
i =1
xi
− 1 = 0,
µ
on trouve que µ̂ = X̄. Pour trouver l’estimateur du maximum de vraisemblance de λ, on établit d’abord que
L(µ̂, λ) ∝ λn/2 e−λH ,
où
n
( xi − x̄ )2
2x̄2 xi
i =1
1 n
1
1
= ∑
−
.
2 i =1 x i
x̄
H=
∑
Solutions
79
On obtient donc
λ̂ =
=
n
2H
n
∑in=1 Xi−1
− X̄ −1
.
4.6 Pour obtenir l’estimateur des moments de θ, on pose
E[ X ] =
d’où
θ̂ =
1−θ
= X̄,
θ
1
.
X̄ + 1
La moyenne de l’échantillon est x̄ = 64/10 = 3,2. On a donc
θ̂ =
1
= 0,2381.
4,2
4.7 a) Il s’agit ici de trouver l’estimateur des moments du paramètre θ d’une
distribution uniforme discrète sur 1, 2, . . . , θ, c’est-à-dire que Pr[ X =
x ] = 1/θ pour x = 1, . . . , θ. En posant
E[ X ] =
θ+1
= X̄,
2
on trouve facilement que l’estimateur des moments de θ est θ̂ = 2X̄ −
1.
b) Avec x1 = x2 = x3 = 3 et x4 = 12, on a θ̂ = 2(3 + 3 + 3 + 12)/4 − 1 = 9,5.
Or, cet estimateur est absurde puisque, en ayant pigé la boule 12, on
sait qu’il y a au moins douze boules dans l’urne ! En d’autres termes,
9,5 est une valeur de θ impossible. On constate que l’estimateur obtenu à l’aide de la méthode des moments n’est pas toujours un estimateur possible.
4.8 La fonction de vraisemblance est
L( a, b) =
1
b−a
n
pour a < x1 , . . . , xn < b. Pour maximiser cette fonction, il faut minimiser
la quantité b − a en choisissant une valeur de b la plus petite possible
et une valeur de a la plus grande possible. Étant donné le support de la
distribution, on a choisit donc â = min( X1 , . . . , Xn ) et b̂ = max( X1 , . . . , Xn ).
4.9 a) La distribution de X est une Bernoulli avec une restriction sur la valeur
du paramètre θ. On a donc que E[ X ] = θ. L’estimateur des moments
de θ est donc θ̃ = X̄.
80
Solutions
Pour l’estimateur du maximum de vraisemblance, on a, en posant
y = ∑in=1 xi ,
L ( θ ) = θ y (1 − θ ) n − y ,
l (θ ) = y ln(θ ) + (n − y) ln(1 − θ )
et
y (n − y)
−
θ
1−θ
y − nθ
=
θ (1 − θ )
n x̄ − nθ
.
=
θ (1 − θ )
l 0 (θ ) =
Ainsi, la log-vraisemblance est croissante pour θ ≤ x̄ et décroissante
pour θ > x̄ (voir la figure E.5). Le maximum est donc atteint en x̄.
Cependant, puisque 0 ≤ θ ≤ 1/2 on doit avoir θ̂ ≤ 1/2. On a donc
θ̂ = min( X̄, 1/2).
b) Premièrement, on remarque que Y = ∑in=1 Xi = n X̄ ∼ Binomiale(n, θ )
avec 0 ≤ θ ≤ 1/2. Deuxièmement, on sait que MSE(θ̂ ) = Var[θ̂ ] + b(θ̂ )2 ,
où θ̂ est un estimateur quelconque d’un paramètre θ et b(θ̂ ) = E[θ̂ ] − θ
est le biais de l’estimateur.
Pour l’estimateur des moments θ̃ = Y/n, on a
Var[Y ]
+ b(Y/n)2
n2
θ (1 − θ )
=
,
n
MSE(θ̃ ) =
puique E[Y/n] = θ.
Pour l’estimateur du maximum de vraisemblance
(
Y
, Y ≤ n2
θ̂ = 1n
Y > n2 ,
2,
il est plus simple de développer l’erreur quadratique moyenne ainsi :
MSE(θ̂ ) = E[(θ̂ − θ )2 ]
n
=
∑ (θ̂ − θ )2 Pr[Y = y]
y =0
[n/2] 2 n y
−
θ
θ y (1 − θ ) n − y
∑ n
y
y =0
2 n
1
n y
+
−θ
θ (1 − θ ) n − y .
∑
2
y
y=[n/2]+1
=
81
−16
−14
−12
l(θ)
−10
−8
−6
Solutions
0.0
0.1
0.2
0.3
0.4
0.5
θ
Fig. E.5: Graphique de la fonction de log-vraisemblance de l’exercice 4.9 pour
n = 10 et y = 3.
c) On compare les erreurs quadratiques moyennes des deux estimateurs.
Soit
2 n n y
−θ
θ y (1 − θ ) n − y ,
MSE(θ̃ ) = ∑
n
y
y =0
d’où
n
MSE(θ̃ ) − MSE(θ̂ ) =
∑
y=[n/2]+1
y
1
+ − 2θ
n 2
y
1
−
n 2
n y
×
θ (1 − θ ) n − y .
y
Étant donné que y/n > 1/2 et que θ ≤ 1/2, tous les termes dans la
somme sont positifs. On a donc que MSE(θ̃ ) − MSE(θ̂ ) > 0 ou, de manière équivalente, MSE(θ̂ ) < MSE(θ̃ ). En terme d’erreur quadratique
moyenne, l’estimateur du maximum de vraisemblance est meilleur
que l’estimateur des moments.
82
Solutions
4.10 On a
#
1 n
1 n
2
(
X
−
µ
)
=
E
i
∑ E[(Xi − µ)2 ]
n i∑
n
=1
i =1
"
=
1 n
E[ Xi2 − 2µXi + µ2 ]
n i∑
=1
=
1 n
( E[ Xi2 ] − µ2 )
n i∑
=1
=
1 n
[(σ2 + µ2 ) − µ2 ]
n i∑
=1
=
1 n 2
σ
n i∑
=1
= σ2 ,
d’où l’expression du côté gauche de l’égalité est un estimateur sans biais
du paramètre σ2 .
4.11 On a,
E [ a 1 X1 + · · · + a n X n ] = E [ a 1 X1 ] + · · · + E [ a n X n ]
= ( a 1 + · · · + a n ) E [ X1 ]
= ( a1 + · · · + an )µ.
Pour que a1 X1 + · · · + an Xn soit un estimateur sans biais de µ, il faut
que ∑in=1 ai = 1.
4.12 a) Il faut d’abord calculer l’espérance de l’estimateur :
E[ X̄ 2 ] = Var[ X̄ ] + E[ X̄ ]2
=
σ2
+ µ2 .
n
On voit que X̄ 2 est un estimateur biaisé de µ2 et que le biais est σ2 /n.
b) Puisque
σ2
+ µ2 = µ2 ,
n→∞ n
lim E[ X̄ 2 ] = lim
n→∞
X̄ 2 est un estimateur asymptotiquement sans biais de µ2 .
4.13 On sait que la fonction de densité de probabilité de la ke statistique
d’ordre X(k) d’un échantillon aléatoire X1 , . . . , Xn tiré d’une loi F est
f X( k ) ( x ) =
n!
( F ( x ))k−1 (1 − F ( x ))n−k f ( x ).
k!(n − k)!
Solutions
83
Si n = 3 et que Xi ∼ Exponentielle(λ), i = 1, 2, 3, alors la médiane empirique est ξ 3 = X(2) et
f X(2) = 6(1 − e−λx )(e−λx )(λe−λx )
= 6λ(e−2λx − e−3λx ).
Or, en intégrant par parties,
E[ξ 3 ] =
Z ∞
0
x f X(2) dx
Z ∞
6xλ(e−2λx − e−3λx ) dx
1
1
= 6λ
− 2
4λ2
9λ
5
=
.
6λ
=
0
On constate que E[ξ 3 ] ≠ λ−1 , d’où la médiane empirique est un estimateur biaisé de la moyenne d’une loi exponentielle.
4.14 La fonction de densité de probabilité de la ke statistique d’ordre est
donnée dans la solution de l’exercice 4.13. Pour n = 3 et Xi ∼ U (0, θ ),
i = 1, 2, 3, on a
x 2 1
f X (1) ( x ) = 3 1 −
θ
θ
1 2x
x2
=3
− 2 + 3 , 0<x<θ
θ
θ
θ
et
x 1
θ
θ
θ
2
x
x
= 6 2 − 3 , 0 < x < θ.
θ
θ
f X (2) ( x ) = 6
x
1−
Ainsi, d’une part,
E[4X(1) ] = 4
Z θ
x f X(1) ( x ) dx
Z θ
x 2x2
x3
= 12
− 2 + 3 dx
θ
θ
θ
0
θ
2θ
θ
= 12
−
+
2
3
4
=θ
0
84
Solutions
et
E[2X(2) ] = 2
Z θ
x f X(2) ( x ) dx
Z θ 2
x
x3
= 12
− 3 dx
θ2
θ
0
θ
θ
= 12
−
3 4
0
= θ,
d’où 4X(1) et 2X(2) sont des estimateurs sans biais de θ. D’autre part,
E[(4X(1) )2 ] = 16
Z θ
x2 f X(1) ( x ) dx
Z θ 2
x4
x
2x3
− 2 + 3 dx
= 48
θ
θ
θ
0
2
θ
2θ 2
θ2
= 48
−
+
3
4
5
=
0
8θ 2
5
et
E[(2X(2) )2 ] = 4
Z θ
x2 f X(2) ( x ) dx
Z θ 3
x4
x
− 3 dx
= 24
θ3
θ
0
2
2
θ
θ
= 24
−
4
5
=
0
6θ 2
.
5
Par conséquent,
Var[4X(1) ] =
8θ 2
3θ 2
− θ2 =
5
5
Var[2X(2) ] =
6θ 2
θ2
− θ2 = .
5
5
et
4.15 Soit X(n) = max( X1 , . . . , Xn ) et X(1) = min( X1 , . . . , Xn ), où Xi ∼ U (0, θ ),
i = 1, . . . , n. On sait alors que
f X(n) ( x ) = n( F ( x ))n−1 f ( x )
=
nx n−1
,
θn
0<x<θ
Solutions
85
et que
f X(1) ( x ) = n(1 − F ( x ))n−1 f ( x )
=
n ( θ − x ) n −1
,
θn
0 < x < θ.
a) On souhaite développer un estimateur sans biais de θ basé sur X(n) .
En premier lieu,
E [ X( n ) ] =
Z θ
0
x f X(n) ( x ) dx
Z
n θ n
= n
x dx
θ
0
nθ
=
.
n+1
Un estimateur sans biais de θ est donc (n + 1) X(n) /n.
b) Comme en a), on calcule d’abord l’espérance de la statistique :
E [ X (1) ] =
Z θ
0
x f X(1) ( x ) dx
n θ
x (θ − x )n−1 x dx
θn 0
θ
=
n+1
=
Z
en intégrant par parties. Un estimateur sans biais de θ basé sur le
minimum de l’échantillon est donc (n + 1) X(1) .
4.16 On sait que E[ X ] = np et que Var[ X ] = np(1 − p). Or,
X
X
E[ X 2 ]
E n
1−
= E[ X ] −
n
n
n
Var[ X ] + E[ X ]2
n
np(1 − p) + n2 p2
= np −
n
= ( n − 1) p (1 − p )
= np −
= np(1 − p) − p(1 − p).
La statistique est donc un estimateur biaisé de la variance et le biais est
− p(1 − p). La statistique sur-estime la variance.
4.17 Le fait que θ̂ soit un estimateur sans biais indique que E[θ̂ ] = θ. De plus,
si Var[θ̂ ] = E[θ̂ 2 ] − E[θ̂ ]2 ≠ 0, alors E[θ̂ 2 ] ≠ E[θ̂ ]2 = θ 2 . Par conséquent, θ̂ 2
est un eestimateur biaisé de θ 2 .
86
Solutions
4.18 Pour commencer, on a l’identité suivante :
1
∂
∂
ln f ( x; θ ) =
f ( x; θ )
∂θ
f ( x; θ ) ∂θ
qui peut être réécrite sous la forme
∂
∂
ln f ( x; θ ) f ( x; θ ) =
f ( x; θ ).
∂θ
∂θ
Ainsi, en dérivant de part et d’autre
Z ∞
−∞
f ( x; θ ) dx = 1,
par rapport à θ, on obtient
Z ∞ ∂
ln f ( x; θ ) f ( x; θ ) dx = 0.
−∞ ∂θ
En dérivant une seconde fois cette identité, on a alors
Z ∞ Z ∞ 2
∂
∂
∂
ln
f
(
x;
θ
)
f
(
x;
θ
)
dx = 0
ln
f
(
x;
θ
)
f
(
x;
θ
)
dx
+
∂θ
−∞ ∂θ 2
−∞ ∂θ
ou, de manière équivalente,
Z ∞ ∂
−∞
∂θ
2
ln f ( x; θ )
f ( x; θ ) dx = −
Z ∞ 2
∂
−∞
∂θ 2
ln f ( x; θ )
f ( x; θ ) dx,
soit
"
E
∂
ln f ( X; θ )
∂θ
2 #
= −E
∂2
ln
f
(
X;
θ
)
.
∂θ 2
4.19 On sait que E[ X̄ ] = E[ X ] pour toute distribution et donc que X̄ est toujours un estimateur sans biais de la moyenne. Pour une loi de Poisson, la
moyenne est égale à λ et donc X̄ est un estimateur sans biais de λ. Pour
démontrer que la statistique est un estimateur à variance minimale, il
faut démontrer que sa variance est égale à la borne de Rao–Cramér. Or,
d’une part, on a
Var[ X ]
λ
Var[ X̄ ] =
= .
n
n
D’autre part,
∂
∂
ln f ( x; λ) =
( x ln(λ) − λ − ln( x!))
∂λ
∂λ
x
= −1
λ
x−λ
=
λ
Solutions
87
et donc
"
E
∂
ln f ( X; λ)
∂λ
2 #
=
i
1 h
2
E
(
X
−
λ
)
λ2
Var[ X ]
λ2
1
= .
λ
=
Ainsi, la borne de Rao–Cramér est λ/n. On a donc démontré que X̄ est
un estimateur sans biais à variance minimale du paramètre λ de la loi
de Poisson.
4.20 Si X a une distribution binomiale de paramètres n ∈ N et 0 ≤ θ ≤ 1, alors
on peut représenter la variable aléatoire sous la forme X = Y1 + · · · + Yn ,
où Yi ∼ Bernoulli(θ ), i = 1, . . . , n. Ainsi, X/n = Ȳ. Dès lors, on sait Ȳ
est un estimateur sans biais de E[Y ] = θ et que Var[Ȳ ] = Var[Y ]/n =
θ (1 − θ )/n. De plus, si f (y; θ ) = θ y (1 − θ )1−y , y = 0, 1, est la densité
d’une Bernoulli, alors
"
"
2 #
2 #
∂
Y−θ
E
ln f (Y; θ )
=E
∂θ
θ (1 − θ )
Var[Y ]
[θ (1 − θ )]2
1
=
θ (1 − θ )
=
et donc la borne de Rao–Cramér est θ (1 − θ )/n = Var[Ȳ ]. Par conséquent, Ȳ est un estimateur sans biais à variance minimale du paramètre
θ de la Bernoulli ou, de manière équivalente, X/n est un estimateur sans
biais à variance minimale du paramètre θ de la binomiale.
4.21 a) On a
ln( f ( x; θ )) = ln(θ ) + (θ − 1) ln( x )
1
∂
ln( f ( x; θ )) = + ln( x )
∂θ
θ
∂2
1
f ( x; θ ) = − 2
∂θ 2
θ
et donc
−nE
∂2
n
ln
f
(
X;
θ
)
= 2.
2
∂θ
θ
Par conséquent, la borne de Rao–Cramér est θ 2 /n.
88
Solutions
b) Soit Y = − ln X. On a
FY (y) = Pr[− ln( X ) ≤ y]
= Pr[ X > e−y ]
=
Z 1
e−y
θx θ −1 dx
= 1 − e−θy ,
d’où Y ∼ Exponentielle(θ ). Par conséquent, Z = − ∑in=1 ln( Xi ) = ∑in=1 Yi
obéit à une loi Gamma(n, θ ) et donc, directement, E[ Z ] = n/θ.
c) Étant donné le résultat en b), on a
E
Z ∞ 1 n−1 −θz
θn
1
=
z
e
dz
Z
Γ(n) 0
z
θ n Γ ( n − 1)
=
Γ ( n ) θ n −1
θ
=
.
n−1
Par conséquent, (n − 1)/Z constitue un estimateur sans biais du paramètre θ de la densité en a).
4.22 a) On a
ln( f ( x; λ)) = k ln(λ) − λ − ln(k!)
k
∂
ln( f ( x; λ)) = − 1
∂λ
λ
∂2
k
ln( f ( x; λ)) = − 2
∂λ2
λ
et donc
−nE
∂2
n
ln
f
(
X;
λ
)
= .
λ
∂λ2
La borne de Rao–Cramér est donc λ/n.
b) Le dénominateur de la borne de Rao–Cramér reste le même qu’en a),
il suffit de calculer le numérateur. On a g(λ) = e−λ et donc g0 (λ) =
−e−λ , d’où la borne de Rao-Cramér pour un estimateur de g(λ) est
λe−2λ /n.
c) La variable aléatoire I{ X =0} , où X ∼ Poisson(λ), obéit à une loi de
Bernoulli avec probabilité de succès θ = Pr[ X = 0] = e−λ . Ainsi, nT =
Solutions
89
∑in=1 I{ Xi =0} ∼ Binomiale(n, e−λ ). De là, il est immédiat que
E[nT ]
n
ne−λ
=
n
= e−λ
E[ T ] =
et que
Var[nT ]
n2
−
ne λ (1 − e−λ )
=
n2
−
λ
e (1 − e − λ )
=
.
n
Var[ T ] =
d) L’efficacité d’un estimateur est le rapport entre la variance de l’estimateur et la borne de Rao–Cramér. On obtient alors
λe−2λ /n
e−λ (1 − e−λ )/n
=
λe−λ
.
1 − e−λ
4.23 On doit minimiser la variance de l’estimateur a1 θ̂1 + a2 θ̂2 sous la contrainte que l’estimateur est sans biais pour θ. Tout d’abord, l’absence de
biais indique que
E[ a1 θ̂1 + a2 θ̂2 ] = a1 θ + a2 θ = ( a1 + a2 )θ,
puisque θ̂1 et θ̂2 sont sans biais. La contrainte se réduit donc à a1 +
a2 = 1. De plus, on sait que Var[θ̂1 ] = 3Var[θ̂2 ]. On doit donc trouver les
valeurs de a1 et a2 qui minimisent la fonction
Var[ a1 θ̂1 + a2 θ̂2 ] = a21 Var[θ̂1 ] + a22 Var[θ̂2 ]
= 3a21 Var[θ̂2 ] + a22 Var[θ̂2 ]
sous la contrainte que a1 + a2 = 1. Par la méthode des multiplicateurs
de Lagrange, cela se résume à trouver le minumum de la fonction
3a21 Var[θ̂2 ] + a22 Var[θ̂2 ] + λ( a1 + a2 − 1).
En dérivant successivement par rapport à a1 , a2 et λ, puis en posant égal
à 0, on obtient le système d’équations
6a1 Var[θ̂2 ] + λ = 0
2a2 Var[θ̂2 ] + λ = 0
a1 + a2 − 1 = 0,
d’où on obtient que a1 = 1/4 et a2 = 3/4.
90
Solutions
4.24 a) On a
E[ω X̄1 + (1 − ω ) X̄2 ] = ωE[ X̄1 ] + (1 − ω ) E[ X̄2 ]
= ωµ + (1 − ω )µ
= µ.
b) En premier lieu,
Var[ω X̄1 − (1 − ω ) X̄2 ] = ω 2 Var[ X̄1 ] + (1 − ω )2 Var[ X̄2 ]
=
ω 2 σ12
(1 − ω )2 σ22
+
n
n
Or, en résolvant l’équation
2ωσ12
2(1 − ω )σ22
d
Var[ω X̄1 − (1 − ω ) X̄2 ] =
−
= 0,
dω
n
n
on trouve que ω = σ22 /(σ12 + σ22 ). La vérification des conditions de
deuxième ordre (laissée en exercice) démontre qu’il s’agit bien d’un
minimum.
c) Après quelques transformations algébriques, la variance de l’estimateur à son point minimum est
σ12 σ22
.
n(σ12 + σ22 )
Lorsque ω = 1/2, la variance de l’estimateur est
σ2 + σ22
X̄ − X̄2
Var 1
= 1
.
2
4n
L’efficacité relative est donc
(σ12 + σ22 )2
4σ12 σ22
(ou l’inverse).
4.25 Il faut démontrer que limn→∞ Pr[| X(1) − θ | < e] = 1. On sait que si X ∼
U (θ, θ + 1), alors
f X ( x ) = 1,
θ <x<θ+1
FX ( x ) = x − θ,
θ <x<θ+1
et
f X(1) ( x ) = n f X ( x )(1 − FX ( x ))n−1
= n (1 − x + θ ) n −1 ,
θ < x < θ + 1.
Solutions
91
Ainsi,
Pr[| X(1) − θ | < e] = Pr[θ − e < X(1) < θ + e]
=
Z θ +e
n(1 − x + θ )n−1 dx
θ
= 1 − (1 − e ) n .
Or, cette dernière expression tend vers 1 lorsque n tend vers l’infini, ce
qui complète la démonstration.
4.26 Puisque X̄ est un estimateur sans biais de la moyenne d’une distribution, quelqu’elle fut, et que limn→∞ Var[ X̄ ] = limn→∞ Var[ X ]/n = 0, alors
X̄ est toujours un estimateur convergent de la moyenne.
4.27 On a un échantillon aléatoire de taille 1. Or,
f ( x1 ; θ ) = √
1
2
e− x1 /(2σ
2)
2πσ
2
2
1
= √ e−|x1 | /(2σ )
θ 2π
= g(| x1 |; σ2 )h( x1 ),
avec
2
2
1
g( x; σ2 ) = √ e− x /(2σ )
θ 2π
et h( x ) = 1. Ainsi, par le théorème de factorisation, | X1 | est une statistique exhaustive pour σ2 .
4.28 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution uniforme sur
l’intervalle (−θ, θ ). La fonction de vraisemblance de cet échantillon est
(
(2θ )−n , −θ < xi < θ, i = 1, . . . , n
f ( x1 , . . . , x n ; θ ) =
0,
ailleurs.
La fonction de vraisemblance est donc non nulle seulement si toutes
les valeurs de l’échantillon se trouvent dans l’intervalle (−θ, θ ) ou, de
manière équivalente, si maxi=1,...,n (| xi |) < θ. On peut donc, par exemple,
réécrire la fonction de vraisemblance sous la forme
n
1
f ( x1 , . . . , x n ; θ ) =
I{0≤maxi=1,...,n (| xi |)≤θ )}
2θ
= g max (| xi |); θ h( x1 , . . . , xn ),
i =1,...,n
avec
g( x; θ ) =
1
2θ
n
I{0≤ x≤θ )}
92
Solutions
et h( x1 , . . . , xn ) = 1. Ainsi, par le théorème de factorisation, on établit que
T = maxi=1,...,n (| Xi |) est une statistique exhaustive pour le paramètre θ.
Une autre factorisation possible serait
f ( x1 , . . . , x n ; θ ) =
1
2θ
n
I{−∞< x(n) <θ )} I{−θ < x(1) <∞)} ,
ce qui donne comme statistique exhaustive T = ( X(1) , X(n) ).
4.29 Nous allons démontrer un résultat général applicable à plusieurs distributions, dont la Poisson. Il existe une famille de distributions que l’on
nomme la famille exponentielle (il ne s’agit pas d’une référence à la densité exponentielle, bien que cette dernière soit un cas particulier de la
famille exponentielle). Cette famille comprend toutes les distributions
dont la densité peut s’écrire sous la forme
f ( x; θ ) = h( x )c(θ )eη (θ )t( x) ,
où h, c, η et t sont des fonctions quelconques. Par exemple, la fonction
de masse de probabilité de la loi de Poisson peut s’écrire comme suit :
θ x e−θ
x! 1
=
e−θ eln(θ ) x
x!
f ( x; θ ) =
= h ( x ) c ( θ ) eη (θ )t( x ) ,
avec h( x ) = ( x!)−1 , c(θ ) = e−θ , η (θ ) = ln θ et t( x ) = x. La loi est donc
membre de la famille exponentielle. Les lois binomiale, gamma, normale
et bêta font aussi partie de la famille exponentielle. En revanche, des lois
comme l’uniforme sur (0,θ ) et l’exponentielle translatée n’en font pas
partie.
Pour tous les membres de la famille exponentielle, on a
n
f ( x1 , . . . , x n ; θ ) =
∏ h ( xi )
!
n
(c(θ ))n eη (θ ) ∑i=1 xi .
i =1
Ainsi, on voit que le théorème de factorisation permet de conclure que
la statistique
n
T ( X1 , . . . , X n ) =
∑ Xi
i =1
est une statistique exhaustive pour le paramètre θ pour tous les membres
de la famille exponentielle, dont la loi de Poisson.
Solutions
93
4.30 On peut réécrire la fonction de masse de probabilité de la loi géométrique comme suit :
Pr[ X = x ] = θeln(1−θ ) x
= h ( x ) c ( θ ) eη (θ )t( x ) ,
avec h( x ) = 1, c(θ ) = θ, η (θ ) = ln(1 − θ ) et t( x ) = x. La loi géométrique
est donc membre de la famille exponentielle (voir la solution de l’exercice 4.29). Par conséquent, T ( X1 , . . . , Xn ) = ∑in=1 Xi est une statistique
exhaustive pour le paramètre θ.
Chapitre 5
5.1 On rend compte de l’incertitude sur la valeur du paramètre de la loi de
Poisson en considérant ce paramètre comme une variable aléatoire. On
obtient alors le modèle bayesien suivant :
X ∼ Poisson(Λ)
(
4/5, λ = 2
Pr[Λ = λ] =
1/5, λ = 4.
a) On cherche la valeur λ̂ qui minimise E[(Λ − λ̂)2 ]. De l’exercice 1.7, on
sait que λ̂ = E[Λ] = 2(4/5) + 4(1/5) = 12/5 = 2,4.
b) On veut calculer Pr[Λ = λ| X = 6]. Par la règle de Bayes, on a que
Pr[Λ = λ| X = 6] =
Pr[ X = 6|Λ = λ]Pr[Λ = λ]
,
∑λ=1,2 Pr[ X = 6|Λ = λ]Pr[Λ = λ]
λ = 1, 2.
Puisque
26 e − 2
6!
46 e − 4
Pr[ X = 6|Λ = 4] =
,
6!
Pr[ X = 6|Λ = 2] =
on obtient
(
Pr[Λ = λ| X = 6] =
0,316,
0,684,
λ=2
λ = 4.
c) Par analogie avec la partie a), la valeur qui minimise E[(Λ − λ̂)2 | X = 6]
est λ̂ = E[Λ| X = 6] = 2(0,316) + 4(0,684) = 3,368.
5.2 On pose X |Θ = θ ∼ Géométrique(θ ) et Θ ∼ Bêta(α, β). Ainsi,
f ( x | θ ) = θ (1 − θ ) x ,
x = 0, 1, . . .
Γ(α, β) α−1
u(θ ) =
θ
(1 − θ ) β −1 ,
Γ(α)Γ( β)
0<θ<1
94
Solutions
et, par conséquent,
n
n
f ( x 1 , . . . , x n | θ ) = ∏ f ( x i | θ ) = θ n ( 1 − θ ) ∑ i =1 x i .
i =1
Soit u(θ | x1 , . . . , xn ) la densité a posteriori de la variable aléatoire Θ. Par
le théorème de Bayes,
f ( x1 , . . . , x n | θ ) u ( θ )
f ( x1 , . . . , x n )
f ( x1 , . . . , x n | θ ) u ( θ )
= R1
0 f ( x1 , . . . , xn | θ ) u ( θ ) dθ
u ( θ | x1 , . . . , x n ) =
∝ f ( x1 , . . . , x n | θ ) u ( θ )
n
= θ n ( 1 − θ ) ∑ i =1 x i θ α −1 ( 1 − θ ) β −1
n
= θ n + α −1 ( 1 − θ ) ∑ i =1 x i + β −1 .
On reconnaît dans cette dernière expression la densité, à une constante
près, d’une distribution Bêta(α + n, ∑in=1 + β).
Enfin, on sait qu’en utilisant une fonction de perte quadratique, l’estimateur bayesien ponctuel de θ est :
θ̂ = E[Θ| X1 , . . . , Xn ]
=
Z 1
0
=
θu(θ | X1 , . . . , Xn ) dθ
α+n
.
α + β + n + ∑in=1 Xi
La dernière égalité n’est en fait que l’espérance d’une distribution bêta,
un résultat connu.
5.3 On a X |Θ = θ ∼ Poisson(θ ) et Θ ∼ Gamma(α, λ), soit
θ x e−θ
, x = 0, 1, . . .
x!
λα α−1 −λθ
u(θ ) =
θ
e
, θ>0
Γ(α)
f ( x |θ ) =
et, par conséquent,
f ( x1 , . . . , x n | θ ) =
Solutions
95
Par le théorème de Bayes, on obtient la densité de la variable aléatoire
Θ | X1 = x 1 , . . . , X n = x n :
u ( θ | x1 , . . . , x n ) = R ∞
0
∝
n
f ( x1 , . . . , x n | θ ) u ( θ )
f ( x1 , . . . , xn |θ )u(θ ) dθ
!
∏ f ( xi | θ )
u(θ )
i =1
n
∝ (θ ∑i=1 xi e−nθ )(θ α−1 e−λθ )
n
= θ ∑i=1 xi +α−1 e−(n+λ)θ .
On reconnaît, à une constante près, la densité d’une distribution gamma.
Ainsi, Θ| X1 , . . . , Xn ∼ Gamma(∑in=1 xi + α, λ + n). En utilisant une fonction de perte quadratique, l’estimateur bayesien du paramètre θ est :
θ̂ = E[Θ| X1 , . . . , Xn ]
=
α + ∑in=1 Xi
.
n+λ
5.4 a) On écrit l’estimateur sous la forme
θ̂ =
α+Y
α+β+n
avec Y ∼ Binomiale(n, θ ). On remarquera que θ̂ est une variable aléatoire. Ainsi, E[(θ̂ − θ )2 ] = Var[θ̂ ] + ( E[θ̂ ] − θ )2 . Or,
Var[Y ]
( α + β + n )2
nθ (1 − θ )
=
( α + β + n )2
Var[θ̂ ] =
et
α + E [Y ]
α+β+n
α + nθ
,
=
α+β+n
E[θ̂ ] =
d’où
nθ (1 − θ )
E[(θ̂ − θ ) ] =
+
( α + β + n )2
2
(1 − θ )α − βθ
α+β+n
En posant n = 30, α = 15 et β = 5, on trouve
370θ 2 − 570θ + 225
2 500
74θ 2 − 114θ + 45
=
.
500
E[(θ̂ − θ )2 ] =
2
.
96
Solutions
b) On cherche pour quelles valeurs de θ l’inégalité
74θ 2 − 114θ + 45
θ − θ2
<
500
30
est satisfaite. Cette inégalité peut se réécrire sous la forme
272θ 2 − 392θ + 135 > 0.
Elle est satisfaite lorsque θ se trouve entre les deux racines du polynôme du côté droit de l’inégalité. On trouve donc aisément que l’erreur quadratique moyenne de l’estimateur bayesien est inférieure à
celle de l’estimateur du maximum de vraisemblance lorsque 0,5692 <
θ < 0,8720.
5.5 a) On a X |Θ = θ ∼ N (θ,σ2 ) et Θ ∼ N (µ, τ 2 ), soit
n
2
2
1
√
e−( x−θ ) /(2σ ) , −∞ < x < ∞
f ( x |θ ) =
σ 2π
2
1
u(θ ) = √ e(θ −µ)/(2τ ) , −∞ < θ < ∞.
τ 2π
La distribution a posteriori de Θ est, en laissant de côté tous les termes
qui ne dépendent pas de θ :
u(θ | x1 , . . . , xn ) ∝ e−(θ −µ)
2 / (2τ 2 )
n
e − ∑ t =1 ( x t − θ )
2 / (2σ2 )
.
En développant l’exposant tout en laissant une fois de plus de côté
tous les termes non fonction de θ, on obtient
"
#
n
1 θ 2 − 2θµ
−2θxt + θ 2
Exposant = −
+∑
+ cte
2
τ2
σ2
t =1
n
1
1
2θµ −2θ ∑nt=1 xt
+
−
+
cte
= − θ2
−
2
τ2
σ2
τ2
σ2
#
"
−2θ ∑nt=1 xt /σ2
n
2θµ/τ 2
1 1
2
+ 2
θ − 1
=−
−
+ cte
2 τ2
σ
( τ2 + σn2 )
( τ12 + σn2 )
|
{z
}
φ
µ/τ 2 + ∑nt=1 xt /σ2
1
2
= − φ θ − 2θ
+ cte
2
φ
2
µ
∑nt=1 xt
θ
−
+
2
2
1
φτ
φσ
=−
+ cte.
2
1/φ
Par conséquent, Θ| X1 , . . . , Xn ∼ N (µ̃, τ̃ 2 ) avec
τ̃ 2 =
=
1
φ
τ 2 σ2
σ2 + nτ 2
Solutions
97
et
µ̃ =
=
µ
∑n X
+ i=12 i
2
φτ
φσ
µσ2 + τ 2 ∑in=1 Xi
.
σ2 + nτ 2
b) On sait de l’exercice 1.18 que le minimum d’une fonction de perte
absolue est atteint à la médiane de la variable aléatoire. Ainsi, le minimum de E[|θ̂ − θ || X1 , . . . , Xn ] est atteint à la médiane de Θ| X1 , . . . , Xn .
Or, la médiane d’une loi normale est égale à sa moyenne, d’où θ̂ = µ̃,
où µ̃ est tel que défini en a).
Chapitre 6
6.1 On cherche deux statistiques L et U tel que
Pr[ L ≤ µ ≤ U ] = 1 − α.
On sait que si X1 , . . . , Xn est un échantillon aléatoire tiré d’une distribution N (µ, σ2 ), alors X̄ ∼ N (µ, σ2 /n) ou, de manière équivalente, que
X̄ − µ
√ ∼ N (0, 1).
σ/ n
Par conséquent,
X̄ − µ
√ ≤ zα/2 = 1 − α,
Pr −zα/2 ≤
α/ n
d’où
σ
σ
Pr X̄ − √ zα/2 ≤ µ ≤ X̄ + √ zα/2 = 1 − α.
n
n
√
Les statistiques
√ L et U sont dès lors connues : L = X̄ − σzα/2 / n et U =
X̄ + σzα/2 / n. Un estimateur par intervalle de µ est donc
√
√
( X̄ − σzα/2 / n, X̄ + σzα/2 / n).
Avec n = 20, σ2 = 80 et x̄ = 81,2, on obtient l’intervalle (77,28, 85,12).
6.2 On a X ∼ N (µ, 9). Tel que démontré à l’exercice 6.1,
σ
σ
Pr X̄ − √ z0,05 ≤ µ ≤ X̄ + √ z0,05 = 0,90.
n
n
Pour satisfaire la relation Pr[ X̄ − 1 < µ < X̄ + 1] = 0,90, on doit donc
choisir
σ
3(1,645)
√ z0,05 = √
= 1.
n
n
On trouve que n = 24,35. On doit donc choisir une taille d’échantillon de
24 ou 25.
98
Solutions
6.3 On sait que
X̄ − µ
√
∼ t ( n − 1)
S/ n − 1
et que
nS2
∼ χ2 ( n − 1).
σ2
Ainsi, on peut établir que
S
S
Pr X̄ − √
tα/2 ≤ µ ≤ X̄ + √
tα/2 = 1 − α.
n−1
n−1
et qu’un intervalle de confiance de niveau 1 − α pour µ est
√
√
( X̄ − Stα/2 / n − 1, X̄ + Stα/2 / n − 1).
Avec n = 17, x̄ = 4,7, s2 = 5,76 et α = 0,10, on trouve que µ ∈ (3,7, 5,7).
Pour la variance, on cherche des valeurs a et b, a ≤ b tel que
2
nS
nS2
nS2
2
≤σ ≤
= 1 − α.
Pr a ≤ 2 ≤ b = Pr
b
a
σ
Plusieurs valeurs de a et b satisfont cette relation. Le choix le plus simple
est a = χ21−α/2 (n − 1) et b = χ2α/2 (n − 1). Ainsi, un intervalle de confiance
de niveau 1 − α pour σ2 est
!
nS2
nS2
,
.
χ2α/2 (n − 1) χ21−α/2 (n − 1)
Dans une table de la loi khi carré, on trouve que χ20,95 (16) = 7,96 et que
χ20,95 (16) = 26,30, d’où σ2 ∈ (3,72, 12,30).
6.4 On représente la taille des étudiantes en actuariat par la variable aléatoire
X et celle des étudiantes en génie civil par Y. On a
X̄ ∼ N (µ1 , σ12 /15),
15S12
∼ χ2 (14),
σ12
Ȳ ∼ N (µ2 , σ22 /20),
20S22
∼ χ2 (19)
σ22
et les valeurs des statistiques pour les deux échantillons sont
x̄ = 152,
ȳ = 154,
s21 = 101,
s22 = 112.
Solutions
99
a) Si l’on suppose que σ12 = σ22 = 81, alors X̄ ∼ N (µ1 , 5,4) et Ȳ ∼ N (µ2 , 4,05).
Par conséquent,
X̄ − µ1
< 1,645 = 0,90
Pr −1,645 < √
5,4
et
Ȳ − µ2
< 1,645 = 0,90
Pr −1,645 < √
4,05
d’où
√
√
152 − 1,645 5,4 < µ1 < 152 + 1,645 5,4,
soit 148,18 < µ1 < 155,82 et
√
√
154 − 1,645 4,05 < µ2 < 154 + 1,645 4,05,
soit 150,69 < µ2 < 157,31.
b) Si la variance est inconnue, on a plutôt que
X̄ − µ1
√ ∼ t(14)
S1 / 14
et
Ȳ − µ2
√ ∼ t(19).
S2 / 19
Or, t0,05 (14) = 1,761 et t0,05 (19) = 1,729, d’où
r
r
101
101
152 − 1,761
< µ1 < 152 + 1,761
,
14
14
soit 147,27 < µ1 < 156,73 et
r
r
112
112
154 − 1,729
< µ2 < 154 + 1,729
,
19
19
soit 149,80 < µ2 < 158,20.
c) On cherche un intervalle de confiance à 90 % pour la différence µ1 −
µ2 . Si 0 appartient à l’intervalle, on pourra dire que la différence entre
les deux moyennes n’est pas significative à 90 %. Pour les besoins de
la cause, on va supposer ici que σ12 = σ22 = σ2 . Or, puisque
( X̄ − Ȳ ) − (µ1 − µ2 )
q
∼ N (0, 1)
1
1
σ 15
+ 20
et que
15S12
20S22
+
∼ χ2 (33)
σ2
σ2
100
Solutions
on établit que
( X̄ − Ȳ ) − (µ1 − µ2 )
r
∼ t(33).
15S12 +20S22
1
1
+
33
15
20
De plus, t0,05 (33) ≈ z0,05 = 1,645, d’où l’intervalle de confiance à 90 %
pour µ1 − µ2 est
µ1 − µ2 ∈ −2 ± 5,99.
La différence de taille moyenne entre les deux groupes d’étudiantes
n’est donc pas significative.
d) Tel que mentionné précédemment,
Y=
15S12
∼ χ2 (14).
σ12
Or, on trouve dans une table de la loi khi carré (ou avec la fonction
qchisq dans R) que
Pr[6,57 < Y < 23,68] = 0,90.
Par conséquent,
"
#
15S12
Pr 6,57 < 2 < 23,68 = 0,90
σ1
ou, de manière équivalente,
"
15S12
15S12
< σ12 <
Pr
23,68
6,57
#
= 0,90.
Puisque s21 = 101 dans cet exemple, un intervalle de confiance à 90 %
pour σ12 est (63,98, 230,59).
e) Un peu comme en c), on détermine un intervalle de confiance pour
le ratio σ22 /σ12 et on conclut que la différence entre la variance des
étudiantes en génie civil n’est pas significativement plus grande que
celle des étudiantes en actuariat si cet intervalle contient la valeur 1.
À la suite des conclusions en c), il est raisonnable de supposer que les
moyennes des deux populations sont identiques, soit µ1 = µ2 = µ. On
a que
15S12 /(14σ12 )
57S12 σ22
F=
=
∼ F (14, 19).
2
2
20S2 /(19σ2 )
56S22 σ12
On trouve dans une table de la loi F (ou avec la fonction qf dans R)
que
Pr[0,417 < F < 2,256] = 0,90.
Solutions
101
Par conséquent,
"
23,33S22
σ22
126,31S22
Pr
<
<
57S12
σ12
57S12
#
= 0,90
et un intervalle de confiance à 90 % pour σ22 /σ12 est (0,417, 2,256). La
variance σ22 n’est donc pas significativement plus grande que σ12 .
6.5 On sait que
nS2
∼ χ2 ( n − 1).
σ2
Ainsi, pour des constantes a et b, a ≤ b, on a
"r
#
r
nS2
nS2
nS2
Pr a ≤ 2 ≤ b = Pr
≤σ≤
= 1 − α.
b
a
σ
√
√
Un estimateur par intervalle de σ est donc ( nS2 /b, nS2 /a), où a et b
satisfont la relation Pr[ a ≤ Y ≤ b] = 1 − α, avec Y ∼ χ2 (n − 1).
6.6 On sait que
σ
µ ∈ X̄ ± z0,05 √
n
5
∈ X̄ ± 1,645 √ .
n
√
√
La longueur de l’intervalle √
de confiance est 2(1,645)(5)/ n = 16,45/ n.
Si l’on souhaite que 16,45/ n ≤ 0,05, alors n ≥ 108 241.
6.7 On cherche à minimiser la longueur de l’intervalle de confiance h( a, b) =
ns2 (b − a)/( ab) sous la contrainte que la probabilité dans cet intervalle
est 1 − α, c’est-à-dire que G (b) − G ( a) = 1 − α. En utilisant la méthode
des multiplicateurs de Lagrange, on pose
ns2
nb2
−
+ λ ( G ( b ) − G ( a ) − 1 + α ).
a
b
Les dérivées de cette fonction par rapport à chacune de ses variables
sont :
L( a, b, λ) =
∂
ns2
L( a, b, λ) = − 2 + λg( a)
∂a
a
∂
−ns2
L( a, b, λ) = − 2 + λg(b)
∂b
b
∂
L( a, b, λ) = G (b) − G ( a) − 1 + α.
∂λ
En posant ces dérivées égales à zéro et en résolvant, on trouve que
g( a)
b2
= 2
g(b)
a
ou, de manière équivalente, que b2 g(b) = a2 g( a).
102
Solutions
Chapitre 7
7.1 a) On a
n
f ( x1 , . . . , x n ; θ ) = ∏ f ( x i ; θ )
i =1
n
= θ n ∏ xiθ −1
i =1
=
θ
n
!
n
∏
xiθ
i =1
n
∏
i =1
!
xi−1
= g ( t ( x1 , . . . , x n ); θ ) h ( x1 , . . . , x n ) ,
où
g(y; θ ) = θ n yn
n
t ( x1 , . . . , x n ) = ∏ x i
i =1
n
h( x1 , . . . , xn ) = ∏ xi−1 .
i =1
Ainsi, T ( X1 , . . . , Xn ) = ∏in=1 Xi est une statistique exhaustive pour θ.
b) D’une part, l’erreur de type I, consiste à rejeter l’hypothèse H0 alors
qu’elle est vraie. La probabilité de faire ce type d’erreur, notée α, correspond donc à la que la statistique du test se retrouve dans la région
critique lorsque l’hypothèse H0 est vraie. On a donc
3
α = Pr X1 X2 ≥ ; θ = 1
4
=
ZZ
C
f X1 X2 ( x1 , x2 ; 1) dx2 dx1 ,
où C = {( x1 , x2 ); x1 x2 ≥ 3/4}. Or, f X1 X2 ( x1 , x2 ; θ ) = f X1 ( x1 ; θ ) f X2 ( x2 ; θ ) =
θ 2 x1θ −1 x2θ −1 , d’où f X1 X2 ( x1 , x2 ; 1) = 1, 0 < x1 , x2 < 1. La région critique
C est représentée à la figure E.6. Ainsi,
α=
Z 1 Z 1
dx2 dx1
dx1
=
1−
4x1
3/4
1 3 3
= + ln
4 4 4
≈ 0,034.
3/4 3/(4x1 )
Z 1 3
103
0.0
0.2
0.4
x2
0.6
0.8
1.0
Solutions
0.0
0.2
0.4
0.6
0.8
1.0
x1
Fig. E.6: Domaine de définition de la densité conjointe des variables X1 et X2
de l’exercice 7.1. La zone hachurée est la région critique C = {( x, y); xy ≥ 3/4}
du test d’hypothèse.
D’autre part, l’erreur de type II consiste à ne pas rejeter l’hypothèse
H0 , alors qu’elle est fausse. La valeur β est donc la probabilité que
la statistique se retrouve à l’extérieur de la région critique lorsque
l’hypothèse H0 est fausse, c’est-à-dire
3
β = Pr X1 X2 < ; θ = 2
4
3
= 1 − Pr X1 X2 ≥ ; θ = 2
4
=1−
ZZ
C
f X1 X2 ( x1 , x2 ; 2) dx2 dx1 .
104
Solutions
Dès lors, puisque f X1 X2 ( x1 , x2 ; 2) = 4x1 x2 ,
β=1−
Z 1 Z 1
3/4 3/(4x1 )
4x1 x2 dx2 dx1
9
9 3
− ln
16 8 4
≈ 0,886.
=
7.2 On sait que X̄ ∼ N (µ, 50002 /n). Or,
α = Pr[ X̄ ≥ c; µ = 30 000]
√
n(c − 30 000)
=1−Φ
5 000
d’où
√
zα =
n(c − 30 000)
.
5 000
De même,
β = Pr[ X̄ < c; µ = 35 000]
√
n(c − 35 000)
=Φ
,
5 000
d’où
√
z 1− β =
n(c − 35 000)
.
5 000
On trouve dans une table de la loi normale que zα = z0,01 = 2,326 et que
z1− β = z0,98 = −2,05. En résolvant pour n et c le système à deux équations
et deux inconnues, on obtient n = 19,15 et c = 32 658. Aux fins du test, on
choisira donc une taille d’échantillon de n = 19 ou n = 20.
7.3 a) Soit X la variable aléatoire du nombre de dentistes qui recommande
le dentifrice parmi un groupe-test de 390 dentistes. On a donc que
X ∼ Binomiale(390, θ ) et on teste
H0 : θ = 0,75
H1 : θ 6= 0,75.
Il s’agit d’un test bilatéral sur une proportion avec un grand échantillon. La statistique du test est
Z= p
θ̂ − 0,75
0,75(1 − 0,75)/390
Solutions
105
et on rejette H0 si |z| > zα/2 . Ici, on a α = 0,05, θ̂ = 273/390, d’où z =
−2,28. Puisque |z| > z0,025 = 1,96, on juge, à un seuil de signification
de 5 %, que la proportion de dentistes qui recommandent le dentifrice
est suffisamment éloignée de la prétention du fabricant pour rejetter
l’hypothèse H0 .
On peut vérifier les résultats ci-dessus avec la fonction prop.test de
R:
> prop.test(273, n = 390, p = 0.75, correct = FALSE)
1-sample proportions test without continuity
correction
data: 273 out of 390, null probability 0.75
X-squared = 5.2, df = 1, p-value = 0.02259
alternative hypothesis: true p is not equal to 0.75
95 percent confidence interval:
0.6527490 0.7433494
sample estimates:
p
0.7
On constate que la valeur test θ = 0,75 ne se trouve pas dans l’intervalle de confiance à 95 %, d’où le rejet de l’hypothèse H0 .
b) Puisque z0,005 = 2,576 > 2,28, on ne rejette pas l’hypothèse H0 à un
seuil de signification de 1 %. D’ailleurs un intervalle de confiance à
99 % nous est fourni par la fonction prop.test :
> prop.test(273, n = 390, p = 0.75, conf.level = 0.99,
+
correct = FALSE)
1-sample proportions test without continuity
correction
data: 273 out of 390, null probability 0.75
X-squared = 5.2, df = 1, p-value = 0.02259
alternative hypothesis: true p is not equal to 0.75
99 percent confidence interval:
0.6372906 0.7560183
sample estimates:
p
0.7
On constate que cet intervalle comprend la valeur θ = 0,75.
c) La valeur p est le seuil de signification auquel on rejette H0 . Ainsi,
p = 2Pr[ Z > 2,28] ≈ 0,0226.
On rejette donc H0 avec un niveau de confiance maximal de 97,74 %.
Cette valeur p apparaît dans les résultats de la fonction prop.test en
a) et b).
106
Solutions
7.4 a) Il s’agit d’un test bilatéral sur une proportion avec un grand échantillon. La statistique du test est
Z= p
θ̂ − 0,20
0,20(1 − 0,20)/n
et on rejette H0 si |z| > z0,025 = 1,96.
b) En calculant la valeur de la statistique pour chacune des proportions
données, on constate que toutes les statistiques sont plus inférieures à
1,96. Auncun membre ne rejette donc l’hypothèse H0 .
c) Étant donné que le seuil de signification est 5 %, si l’hypothèse H0 est
vraie, on peut s’attendre à un taux de rejet de 5 %.
d) Si, en b), l’on n’a jamais rejeté l’hypothèse H0 , c’est que 100 % des
intervalles de confiance à 95 % pour θ contiennent la valeur 0,20.
e) La valeur de la statistique est
z= p
219/1124 − 0,20
(0,20)(1 − 0,20)/1124
= −0,4325
et |z| < 1,96. Donc, on ne rejette pas H0 à un seuil de signification de
5 %. La valeur p associée est :
p = Pr[| Z | > −0,4325]
= 2Pr[ Z > 0,4325]
= 0,6654,
ce qui représente le seuil de signification minimal auquel il est possible de rejeter H0 . Ces résultats sont confirmés par la fonction prop.test
de R :
> prop.test(219, 1124, p = 0.2, correct = FALSE)
1-sample proportions test without continuity
correction
data: 219 out of 1124, null probability 0.2
X-squared = 0.1871, df = 1, p-value = 0.6654
alternative hypothesis: true p is not equal to 0.2
95 percent confidence interval:
0.1727403 0.2190181
sample estimates:
p
0.1948399
7.5 a) Il s’agit d’un test sur la différence entre deux proportions. Il faut commencer par construire la statistique. On a
X ∼ Binomiale(n, θ1 )
Y ∼ Binomiale(m, θ2 ).
Solutions
107
Pour n et m grands, on a, approximativement,
X ∼ N (nθ1 , nθ1 (1 − θ1 ))
Y ∼ N (mθ2 , mθ2 (1 − θ2 ),
et donc, toujours approximativement,
θ1 (1 − θ1 )
X
θ̂1 = ∼ N θ1 ,
n
n
Y
θ2 (1 − θ2 )
θ̂2 =
∼ N θ2 ,
.
m
m
Par conséquent,
p
(θ̂1 − θ̂2 ) − (θ1 − θ2 )
∼ N (0, 1).
θ1 (1 − θ1 )/n + θ2 (1 − θ2 )/m
Pour pouvoir calculer la valeur de cette statistique pour un échantillon
aléatoire, on remplace θ1 et θ2 dans le radical par θ̂1 = X/n et θ̂2 =
Y/m, dans l’ordre. Un intervalle de confiance de niveau 1 − α pour
θ1 − θ2 est donc
s
θ̂1 (1 − θ̂1 ) θ̂2 (1 − θ̂2 )
+
.
(θ̂1 − θ̂2 ) ± zα/2
n
m
De manière similaire, la statistique utilisée pour tester la différence
entre les deux proportions θ1 et θ2 est
Z= q
(θ̂1 − θ̂2 ) − (θ1 − θ2 )
,
θ̂1 (1 − θ̂1 )/n + θ̂2 (1 − θ̂2 )/m
et on rejette H0 : θ1 = θ2 en faveur de H1 : θ1 6= θ2 si |z| > zα/2 .
Ici, on a x = 351, y = 41, n = 605 et m = 800 − 605 = 195. Ainsi, θ̂1 =
0,5802, θ̂2 = 0,2103 et |z| = 10,44 > 1,96. On rejette donc H0 à un seuil
de signification de 5 %. La fonction prop.test de R corrobore ces
résultats :
> prop.test(c(351, 41), c(605, 195), correct = FALSE)
2-sample test for equality of proportions
without continuity correction
data: c(351, 41) out of c(605, 195)
X-squared = 80.7464, df = 1, p-value < 2.2e-16
alternative hypothesis: two.sided
95 percent confidence interval:
0.3004992 0.4393185
sample estimates:
prop 1
prop 2
0.5801653 0.2102564
108
Solutions
b) L’intervalle de confiance est
(θ1 − θ2 ) ∈ (0,3005, 0,4393).
Comme 0 n’appartient pas à cet intervalle, on rejette H0 .
c) On cherche maintenant un intervalle de confiance pour la proportion
de la population en faveur de l’introduction du taxe sur le tabac. On a
une observation x = 351 + 41 = 392 d’une distribution Binomiale(800, θ ),
d’où θ̂ = 392/800 = 0,49. Un intervalle de confiance à 95 % pour θ est
s
θ̂ (1 − θ̂ )
θ ∈ θ̂ ± 1,96
800
r
0,49(0,51)
∈ 0,49 ± 1,96
800
∈ (0,4555, 0,5246).
Vérification avec R :
> prop.test(351 + 41, 800, correct = FALSE)$conf.int
[1] 0.4554900 0.5246056
attr(,"conf.level")
[1] 0.95
7.6 a) Nous avons un test unilatéral à gauche sur la différence entre deux
moyennes. En supposant égales les variances des deux populations,
on a X ∼ N (µ X , σ2 ) et Y ∼ N (µY , σ2 ). On sait que X̄ ∼ N (µ X , σ2 /n) et
Ȳ ∼ N (µY , σ2 /m), d’où un estimateur de µ X − µY sur lequel baser un
test est
σ2
σ2
X̄ − Ȳ ∼ N µ X − µY ,
+
.
n
m
La variance σ2 est toutefois inconnue. Un estimateur de ce paramètre
est la moyenne pondérée des estimateurs de chaque échantillon, soit
S2p =
(n − 1)S2X + (m − 1)SY2
.
n+m−2
Or, (n + m − 2)S2p /σ2 ∼ χ2 (n + m − 2). Par conséquent,
( X̄ − Ȳ ) − (µ X − µY )
√
−1
−1
σ
T= s n +m
(n + m − 2)S2p
σ2
( X̄ − Ȳ ) − (µ X − µY )
=s
∼ t ( m + n − 2).
nS2X + mSY2 1
1
+
n+m−2 n m
Solutions
109
On rejette H0 : µ X = µY en faveur de H1 : µ X < µy si t ≤ −t0,05 (n + m −
2).
b) Avec les données de l’énoncé, la valeur de la statistique développée en
a) est t = −0,838, alors que le 95e centile d’une loi t avec 13 + 16 − 2 =
27 degrés de liberté est t0,05 (27) = 1,703. Puisque |t| < 1,703, on ne
rejette pas H0 .
c) On a p = Pr[ T < −0,838], où T ∼ t(27). À l’aide de R, on trouve
> pt(-0.838, df = 27)
[1] 0.2046940
Puisque p = 0,2047 > 0,05, on ne rejette pas H0 . La conclusion est
évidemment la même qu’en a).
d) On souhaite tester l’égalité de deux variances, c’est-à-dire H0 : σX2 = σY2
versus H1 : σX2 ≠ σY2 . Pour ce faire, on se base sur le fait que nS2X /σX2 ∼
χ2 (n − 1) et que mSY2 /σY2 ∼ χ2 (m − 1). Ainsi, sous H0 (c’est-à-dire
lorsque σX2 = σY2 ),
F=
nS2X /(n − 1)
∼ F (n − 1, m − 1).
mSY2 /(m − 1)
On rejette H0 si la valeur de la statistique est supérieure au 100(1 − α)e
centile d’une loi F avec n − 1 et m − 1 degrés de liberté. Ici, on a f =
0,8311 et f 0,05 (12, 15) = 2,48. On ne rejette donc pas H0 . L’hypothèse
des variances égales est donc raisonnable.
7.7 a) Il s’agit d’un simple test sur une moyenne. La statistique pour un petit
échantillon est
X̄ − 3 315
T= √
.
S2 /10
On rejette H0 si t > t0,01 (10) = 2,764.
b) La fonction t.test de R retourne tous les résultats pertinents pour ce
test :
> x <- c(3119, 2657, 3459, 3629, 3345, 3629,
+
3515, 3856, 3629, 3345, 3062)
> t.test(x, alternative = "g", mu = 3315)
One Sample t-test
data: x
t = 0.6993, df = 10, p-value = 0.2502
alternative hypothesis: true mean is greater than 3315
95 percent confidence interval:
3202.12
Inf
sample estimates:
mean of x
3385.909
110
Solutions
On ne rejette donc pas H0 à un seuil de signification de 5 %.
c) Le niveau de confiance auquel on rejetterait H0 est 1 − p = 0,7498.
d) On a un test unilatéral à gauche sur une variance pour lequel la statistique est
11S2
Y=
.
5252
On rejette H0 si y < χ20,95 (10) = 3,94.
e) Ici, y = 4,103 > 3,94. On ne rejette donc pas H0 .
f) On a p = Pr[Y < 4,103], où Y ∼ χ2 (10). Or,
> pchisq(4.103, 10)
[1] 0.05741915
d’où la valeur p du test sur la variance est 0,0574.
7.8 a) La statistique à utiliser est la même qu’à l’exercice 7.7.
b) On a
> y <- c(4082, 3686, 4111, 3686, 3175, 4139,
+
3686, 3430, 3289, 3657, 4082)
> t.test(y, alt = "g", mu = 3315)
One Sample t-test
data: y
t = 4.0283, df = 10, p-value = 0.001203
alternative hypothesis: true mean is greater than 3315
95 percent confidence interval:
3542.928
Inf
sample estimates:
mean of x
3729.364
On rejette donc H0 .
c) Le niveau de confiance auquel on rejette H0 est 1 − p = 0,9988.
d) La statistique à utiliser est la même qu’à l’exercice 7.7.
e) On a y = 4,223 > 3,94. On ne rejette donc pas H0 .
f) La valeur p du test sur la variance est p = Pr[Y < 4,223] = 0,0574.
g) Les moyennes semblent être différentes entre les deux groupes, mais
les variances égales. En effet, les résultats sur le test de l’égalité des
variances est
> var.test(x, y)
F test to compare two variances
data: x and y
F = 0.9718, num df = 10, denom df = 10, p-value
= 0.9648
Solutions
111
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
0.2614662 3.6120359
sample estimates:
ratio of variances
0.9718155
On ne rejette donc clairement pas l’hypothèse selon laquelle σX2 = σY2 .
Ainsi, on peut tester
H0 : µ X = µY
H1 : µ X ≠ µY
ou
H0 : µ X = µY
H1 : µ X < µY .
En supposant les variances égales. Les résultats de ces tests sont, dans
l’ordre :
> t.test(x, y, alt = "two.sided", var.equal = TRUE)
Two Sample t-test
data: x and y
t = -2.3778, df = 20, p-value = 0.0275
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-644.75458 -42.15451
sample estimates:
mean of x mean of y
3385.909 3729.364
> t.test(x, y, alt = "less", var.equal = TRUE)
Two Sample t-test
data: x and y
t = -2.3778, df = 20, p-value = 0.01375
alternative hypothesis: true difference in means is less than 0
95 percent confidence interval:
-Inf -94.33337
sample estimates:
mean of x mean of y
3385.909 3729.364
Dans les deux cas, on rejette assez facilement l’hypothèse H0 . On établit donc que les fillettes nées au Québec sont en moyenne plus petites
que les garçons.
7.9 a) La plus petite valeur de la statistique de Wilcoxon s’obtiendra lorsque
tous les sujets du groupe traitement recevront les plus petits rangs,
112
Solutions
c’est-à-dire les rangs de 1 à 17. La statistique est alors
17
WS =
∑i=
i =1
(17)(18)
= 153.
2
b) La plus grande valeur de la statistique de Wilcoxon s’obtiendra lorsque
tous les sujets du groupe traitement recevront les plus grands rangs,
c’est-à-dire les rangs de 27 à 40. La statistique est alors
WS =
40
23
i =1
i =1
∑i− ∑i=
(40)(41) (23)(24)
−
= 544.
2
2
c) Comme la distribution de la statistique de Wilcoxon sous l’hypothèse
nulle est symétrique, la moyenne est donc la valeur centrale, c’est-àdire
544 − 153
= 348,5.
153 +
2
7.10 a) Simplement WS = 1 + 3 + 5 + 6 = 15.
b) Il y a (74) = (73) = 35 configurations possibles.
c) Il faut trouver les 35 configurations possibles et calculer les 35 valeurs
de WS correspondantes. On obtient : 1 fois 10 ; 1 fois 11 ; 2 fois 12 ; 3
fois 13 ; 4 fois 14 ; 4 fois 15 ; 5 fois 16 ; 4 fois 17 ; 4 fois 18 ; 3 fois 19 ; 2
fois 20 ; 1 fois 21 et 1 fois 22. La valeur p est donc
4
5
3
2
1
24
p = (3)
+ (1)
(1)
+ (1)
+ (2)
= .
35
35
35
35
35
35
Bibliographie
Freund, J. E. 1992, Mathematical Statistics, 5e éd., Prentice Hall, Upper Saddle
River, NJ, ISBN 0-1356383-4-8.
Hogg, R. V., A. T. Craig et J. W. McKean. 2005, Introduction to Mathematical
Statistics, 6e éd., Prentice Hall, Upper Saddle River, NJ, ISBN 0-1300850-7-3.
Hogg, R. V. et E. A. Tanis. 2001, Probability and Statistical Inference, 6e éd.,
Prentice Hall, ISBN 0-1302729-4-9.
Mood, A. M., F. A. Graybill et D. C. Boes. 1974, Introduction to the Theory of
Statistics, 3e éd., McGraw-Hill, Boston, ISBN 0-0704286-4-6.
Owen, W. J. 2008, Mathematical Statistics with Applications – Student Solutions
Manual, 7e éd., Duxbury Press, ISBN 978-0-49538506-6.
R Development Core Team. 2009, R: A Language and Environment for Statistical
Computing, R Foundation for Statistical Computing, Vienna, Austria. URL
http://www.r-project.org.
Wackerly, D. D., W. Mendenhall et R. L. Scheaffer. 2008, Mathematical Statistics
with Applications, 7e éd., Duxbury Press, ISBN 978-0-49511081-1.
113
Téléchargement