Analyse statistique Exercices et solutions Analyse statistique Exercices et solutions Vincent Goulet École d’actuariat Université Laval Mathieu Pigeon Institut de statistique Université Catholique de Louvain Première édition préliminaire © 2010 Vincent Goulet, Mathieu Pigeon Cette création est mise à disposition selon le contrat Paternité-Partage des conditions initiales à l’identique 2.5 Canada disponible en ligne http://creativecommons.org/ licenses/by-sa/2.5/ca/ ou par courrier postal à Creative Commons, 171 Second Street, Suite 300, San Francisco, California 94105, USA. Historique de publication Janvier 2010 : Première édition préliminaire Code source Le code source LATEX de ce document est disponible à l’adresse http://vgoulet.act.ulaval.ca/analyse_statistique/ ou en communiquant directement avec les auteurs. Introduction Ce document est une collection des exercices distribués par les auteurs dans le cadre du cours Analyse statistique des risques actuariels à l’École d’actuariat de l’Université Laval. Certains exercices sont le fruit de l’imagination des auteurs, alors que plusieurs autres sont des adaptations d’exercices tirés des ouvrages cités dans la bibliographie. C’est d’ailleurs afin de ne pas usurper de droits d’auteur que ce document est publié selon les termes du contrat Paternité-Partage des conditions initiales à l’identique 2.5 Canada de Creative Commons. Il s’agit donc d’un document «libre» que quiconque peut réutiliser et modifier à sa guise, à condition que le nouveau document soit publié avec le même contrat. Le recueil d’exercices se veut un complément à un cours de statistique mathématique pour des étudiants de premier ou deuxième cycle universitaire. Les exercices sont divisés en sept chapitres qui correspondent aux chapitres de notre cours. Le chapitre 1 porte sur des rappels de notions de base en probabilité. Il est suivi d’un chapitre qui traite des transformations de variables aléatoires pour mener à la présentation des lois t de Student et F de Fisher. L’analyse statistique à proprement parler débute véritablement au chapitre 3 avec l’étude de la notion d’échantillon aléatoire, de la distribution de la moyenne et de la variance et de l’échantillon, ainsi que des statistiques d’ordre. Le chapitre 4, qui traite d’estimation ponctuelle par les méthodes classiques (maximum de vraisemblance, méthode des moments, etc.) et des diverses propriétés des estimateurs constitue le cœur du recueil. Le chapitre 5 propose quant à lui quelques exercices d’estimation bayesienne. Enfin, les notions étroitement liées d’estimation par intervalle et de test d’hypothèses font l’objet des chapitres 6 et 7. Les réponses des exercices se trouvent à la fin de chacun des chapitres, alors que les solutions complètes sont regroupées à l’annexe E. De plus, on trouvera à la fin de chaque chapitre une liste non exhaustive d’exercices proposés dans Wackerly et collab. (2008). Des solutions de ces exercices sont offertes dans Owen (2008), ou encore sous forme de petits clips vidéo (solutions clip) disponibles dans le portail Libre de l’École d’actuariat à l’adresse http://libre.act.ulaval.ca Les annexes A à D contiennent des tables de quantiles des lois normale, khi carré, t et F. v vi Introduction Nous encourageons le lecteur à utiliser le logiciel R (R Development Core Team, 2009) pour résoudre certains exercices, notamment ceux du chapitre 7. Nous remercions d’avance les lecteurs qui voudront bien nous faire part de toute erreur ou omission dans les exercices ou leurs solutions. Vincent Goulet <[email protected]> Mathieu Pigeon <[email protected]> Québec, janvier 2010 Notation – Les lettres majuscules sont réservées pour les variables aléatoires et les lettres minuscules, pour les observations de ces variables aléatoires ou pour les constantes. – La seule exception est θ̂, qui représente à la fois un estimateur (ou une statistique, donc une variable aléatoire) et une estimation (une valeur de la statistique). – On note zα le 100(1 − α)e quantile de la variable aléatoire Z. Par exemple, le 95e centile est noté z0,05 . vii Table des matières Introduction v Notation vii 1 Notions de base en probabilité 1 2 Transformations de variables aléatoires 7 3 Échantillon aléatoire 11 4 Estimation ponctuelle 15 5 Estimation bayesienne 21 6 Estimation par intervalle 23 7 Tests d’hypothèses 25 A Table de quantiles de la loi normale 31 B Table de quantiles de la loi khi carré 33 C Table de quantiles de la loi t 35 D Table de quantiles de la loi F 37 E Solutions Chapitre 1 Chapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 Chapitre 6 Chapitre 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 . 41 . 55 . 66 . 75 . 93 . 97 . 102 113 ix 1 Notions de base en probabilité 1.1 a) Démontrer que les fonctions suivantes sont des fonctions de densité de probabilité. i) f 1 ( x ) = e− x , x > 0 ii) f 2 ( x ) = 2e−2x , x > 0 iii) f 3 ( x ) = (1 + θ ) f 1 ( x ) − θ f 2 ( x ), x > 0, 0 < θ < 1 b) Démontrer que les fonctions continues suivantes sont des fonctions de répartition (supposer qu’elles sont continues à droite). i) F ( x ) = (1 + e− x )−1 , −∞ < x < ∞ −x ii) F ( x ) = e−e , −∞ < x < ∞ 1.2 Trouver la constante k faisant en sorte que f ( x ) = kx2 , −k < x < k, soit une densité. 1.3 Trouver la constante c faisant en sorte que f ( x ) = ce−| x| , −∞ < x < ∞, soit une densité. 1.4 Une pièce de monnaie équilibrée est lancée jusqu’à ce qu’un résultat de face soit obtenu. Soit X la variable aléatoire du nombre de lancers nécessaires. a) Trouver la fonction de masse de probabilité de X. b) Calculer l’espérance et la variance de X. c) Déterminer la fonction génératrice des moments de X. 1.5 Soit 1 f (x) = β x − α , 1− β α − β < x < α + β, où α ∈ R et β > 0 sont des constantes quelconques. a) Démontrer que f ( x ) est une densité. b) Déterminer la fonction de répartition correspondant à f ( x ). 1.6 Soit X une variable aléatoire avec fonction de répartition FX ( x ) = pH ( x ) + (1 − p) G ( x ) 1 2 Notions de base en probabilité où 0 < p < 1 est une constante fixe, ( x, 0 < x ≤ 1 H (x) = 1, x > 1 et ( G(x) = x/2, 1, 0<x≤2 x > 2. Une telle distribution est appelée mélange (discret), ou distribution contaminée lorsque p est grand. Dans les questions ci-dessous, supposer que p = 1/2. a) Déterminer la formule explicite de la fonction de répartition de X. b) Déterminer la fonction de densité de probabilité de X. c) Évaluer Pr[ X ≤ 1/2| X ≤ 1]. 1.7 Soit X une variable aléatoire de moyenne µ et de variance σ2 . Déterminer la valeur de c qui minimise E[( X − c)2 ]. 1.8 Soit une variable aléatoire X de moyenne E[ X ] = µ et de variance Var[ X ] = σ2 . Le coefficient d’asymétrie de X est défini comme " # X−µ 3 E[( X − µ)3 ] γ1 = E . = σ σ3 Pour chacune des fonctions de densité de probabilité ci-dessous, calculer le coefficient d’asymétrie et en esquisser le graphique. Comparer la valeur du coefficient d’asymétrie à la forme de la densité. a) f ( x ) = ( x + 1)/2, −1 < x < 1. b) f ( x ) = 1/2, −1 < x < 1. c) f ( x ) = (1 − x )/2, −1 < x < 1. 1.9 Démontrer que la fonction génératrice des moments de la variable aléatoire X avec fonction de densité de probabilité f ( x ) = 1/3, −1 < x < 2 est e2t − e−t , t ≠ 0. MX (t ) = 3t 1.10 Soit X une variable aléatoire continue non négative. Démontrer que E[ X ] = Z ∞ 0 (1 − FX ( x )) dx, où FX ( x ) est la fonction de répartition de X. Notions de base en probabilité 3 1.11 a) Soient X1 , X2 et X3 des variables aléatoires non corrélées de même variance σ2 . Trouver le coefficient de corrélation entre X1 + X2 et X2 + X3 . b) Soient X1 , X2 et X3 des variables aléatoires indépendantes et identiquement distribuées avec moyenne µ et variance σ2 . Trouver le coefficient de corrélation entre X2 − X1 et X3 − X1 . 1.12 Soient X et Y deux variables aléatoires avec fonction de densité conjointe f ( x, y) = x + y, 0 < x < 1, 0 < y < 1. Calculer l’espérance et la variance conditionnelles de Y sachant que X = x, 0 < x < 1. 1.13 Soient f X |Y ( x |y) = c1 x/y2 , 0 < x < y, 0 < y < 1 et f Y (y) = c2 y4 , 0 < y < 1, la densité conditionnelle de X sachant Y = y et la densité marginale de Y, respectivement. a) Déterminer les constantes c1 et c2 . b) Déterminer la densité conjointe de X et Y. c) Calculer Pr[ 14 < X < 12 |Y = 58 ]. d) Calculer Pr[ 14 < X < 12 ]. 1.14 Soit MX (t) la fonction génératrice des moments de la variable aléatoire X. a) Soit Y = aX + b, où a et b sont des constantes quelconques. Démontrer que MY (t) = ebt MX ( at). b) Soient X1 , . . . , Xn des variables aléatoires indépendantes et Y = X1 + · · · + Xn . Démontrer que n MY (t) = ∏ MX j (t). j =1 1.15 Démontrer que les variables aléatoires X et Y avec fonction de densité conjointe f ( x, y) = 12xy(1 − y), 0 < x < 1, 0 < y < 1 sont stochastiquement indépendantes. 1.16 La densité conjointe des variables aléatoires X et Y est f ( x, y) = 2e− x−y , 0 < x < y, 0 < y < ∞. Démontrer que les deux variables aléatoires sont stochastiquement dépendantes. 1.17 Si X suit une loi de Poisson avec Pr[ X = 1] = Pr[ X = 2], qu’elle est la probabilité que X = 1 ou X = 2 ? 1.18 Démontrer que si X est une variable aléatoire continue, alors min E[| X − a|] = E[| X − m|] a où m est la médiane de X. 4 Notions de base en probabilité 1.19 La distribution de Weibull est fréquemment utilisée en assurance IARD pour la modélisation des montants de sinistres, entre autres. Sa fonction de répartition est F ( x ) = 1 − e−λx , τ x > 0, λ > 0, τ > 0. a) Déterminer la fonction de densité de probabilité de la Weibull. b) Calculer l’espérance et la variance de la Weibull. 1.20 Soient X et Y deux variables aléatoires continues avec ( 1, x < y < x + 1 f Y |X (y| x ) = 0, ailleurs et ( f X (x) = 1, 0, 0<x<1 ailleurs. Calculer les quantités demandées ci-dessous. a) E[Y ] b) Cov( X, Y ) c) Pr[ X + Y < 1] Exercices proposés dans Wackerly et collab. (2008) 3.145–3.151, 3.153, 3.155, 3.158, 3.159, 3.161, 3.162, 3.163 Réponses 1.2 (3/2)1/4 1.3 1/2 1.4 a) Pr[ X = x ] = (1/2) x , x = 1, 2, . . . b) E[ X ] = 2, Var[ X ] = 2 c) MX (t) = (2e−t − 1)−1 1.5 b) F ( x ) = β−1 ( x − α) + 21 β−2 ( x − α)2 + 12 pour α − β < x ≤ α et F ( x ) = 1 −2 1 −1 2 2 + β ( x − α ) − 2 β ( x − α ) pour α < x < α + β 1.6 a) F ( x ) = 43 xI{0< x≤1} + ( 12 + 14 x ) I{1< x≤2} + I{ x>2} , où I{ A} est une fonction indicatrice valant 1 si la condition A est vraie et 0 sinon b) f ( x ) = 3 1 1 4 I{0< x ≤1} + 4 I{1< x ≤2} c) 2 1.7 c = µ Notions de base en probabilité √ √ 1.8 a) −2 2/5 b) 0 c) 2 2/5 1.11 a) 1/2 b) 1/2 1.12 E[Y | X = x ] = (3x + 2)(6x + 3), Var[Y | X = x ] = (6x2 + 6x + 1)/(2(6x + 3)2 ). 1.13 a) c1 = 2, c2 = 5 b) f XY ( xy) = 10xy2 , 0 < x < y, 0 < y < 1 c) 12/25 d) 5/16 1.17 4e−2 1.19 a) f ( x ) = λτx τ −1 e−λx b) E[ X ] = λ−1/τ Γ(1 + τ1 ), Var[ X ] = λ−2/τ (Γ(1 + 2/τ ) − Γ(1 + 1/τ )2 ) τ 1.20 a) 1 b) 1/12 c) 1/4 5 2 Transformations de variables aléatoires 2.1 Soit f X ( x ) = x2 /9, 0 < x < 3. Trouver la fonction de densité de probabilité de Y = X 3 . 2.2 Soit X une variable aléatoire dont la loi est géométrique de paramètre 1/3, c’est-à-dire que 1 2 x Pr[ X = x ] = , x = 0, 1, 2, . . . 3 3 Déterminer la fonction de masse de probabilité de la variable aléatoire Y = X/( X + 1). 2.3 Soit Z ∼ N (0, 1) avec fonction de densité de probabilité 1 2 1 φ(z) = √ e− 2 z , 2π −∞ < z < ∞, et fonction de répartition Φ(z) = Z z −∞ φ( x ) dx. Exprimer les fonctions de densité et de répartition de X = µ + σZ en fonction de φ(·) et Φ(·). 2.4 Soit la variable aléatoire Z ∼ N (0, 1). Démontrer que Z2 ∼ χ2 (1) avec la technique de la fonction génératrice des moments. (Note : il faut intégrer pour trouver la fonction génératrice des moments de Z2 .) 2.5 Soit X une variable aléatoire avec fonction de répartition FX ( x ) continue strictement croissante. Soit Y = FX ( X ) une nouvelle variable aléatoire. Démontrer que Y ∼ U (0, 1) par la méthode de la fonction de répartition. Utiliser le fait que F −1 ( F ( x )) = x. 7 8 Transformations de variables aléatoires 2.6 a) Soit X ∼ N (0, σ2 ). Trouver la distribution de Y = X 2 . b) Soient X1 et X2 deux variables aléatoires indépendantes chacune distribuée selon une loi normale centrée réduite. Trouver la distribution de ( X1 − X2 ) 2 . Y= 2 2.7 Soient X1 ∼ N (0, 1) et X2 ∼ N (0, 1) deux variables aléatoires indépendantes. De plus, soient Y1 = X1 + X2 et Y2 = X12 + X22 . Démontrer que la fonction génératrice des moments conjointe de Y1 et Y2 est ( ) t21 1 1 exp , −∞ < t1 < ∞, −∞ < t2 < . 1 − 2t2 1 − 2t2 2 2.8 Soient X1 , X2 et X3 trois variables aléatoires indépendantes avec densité f ( x ) = e− x , x > 0. Démontrer que Y1 = X1 , X1 + X2 Y2 = X1 + X2 , X1 + X2 + X3 Y3 = X1 + X2 + X3 sont mutuellement indépendantes. 2.9 Soit X ∼ N (µ, σ2 ). La variable aléatoire Y = e X est distribuée selon la loi log-normale. a) Exprimer la fonction de densité de probabilité et la fonction de répartition de Y en fonction de celles de X. b) Calculer E[Y k ]. 2.10 La distribution de Cauchy a comme densité f (x) = 1 , π (1 + x 2 ) −∞ < x < ∞. Elle est visuellement similaire à une normale, mais elle est surtout utilisée comme exemple pathologique : aucun de ses moments n’existe. Soient X1 et X2 deux variables aléatoires indépendantes chacune distribuée selon une loi normale centrée réduite (moyenne 0 et variance 1). Démontrer que la distribution marginale de Y1 = X1 /X2 est Cauchy. (Astuce : définir Y2 = X2 , trouver la distribution conjointe de Y1 et Y2 puis intégrer pour trouver la distribution marginale de Y1 .) 2.11 Soit T une variable aléatoire distribuée selon une loi t avec 10 degrés de liberté. a) Trouver Pr[| T | > 2,228] à l’aide d’une table de la loi t. b) Répéter la partie a) à l’aide de R. La fonction pt(x, n) donne la valeur de la fonction de répartition en x d’une loi t avec n degrés de liberté. Transformations de variables aléatoires 9 2.12 Soit T une variable aléatoire distribuée selon une loi t avec 14 degrés de liberté. a) Trouver la valeur de b tel que Pr[−b < T < b] = 0,90 à l’aide d’une table de la loi t. b) Répéter la partie a) à l’aide R. La fonction qt(p, n) retourne le pe quantile d’une loi t avec n degrés de liberté, c’est-à-dire la valeur de x où la fonction de répartition vaut p. 2.13 a) Démontrer qu’une loi t avec un degré de liberté est une loi de Cauchy. b) Sachant que 1 a n = lim (1 + ax ) x = e a , lim 1 + n→∞ n x →0 vérifier que la loi t tend vers une normale centrée réduite lorsque le nombre de degrés de liberté tend vers l’infini. (Supposer que les constantes de la densité de la loi t tendent vers ce qu’il se doit lorsque r → ∞.) 2.14 Soit Z ∼ N (0, 1). Démontrer que le quatrième moment de Z est égal à 3 et donc que le coefficient d’aplatissement d’une loi normale centrée réduite est nul. 2.15 Soit U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ), deux variables aléatoires indépendantes. a) Démontrer que la densité de F= est f (x) = U/r1 V/r2 Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1 . Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2 b) Calculer E[ F ]. c) Calculer Var[ F ]. 2.16 Soit F une variable aléatoire distribuée selon une loi F avec r1 et r2 degrés de liberté (dans l’ordre). Démontrer que 1/F est aussi distribuée selon une loi F, mais avec r2 et r1 degrés de liberté. 2.17 Si F a une distribution F avec paramètres r1 = 5 et r2 = 10, trouver a et b de sorte que Pr[ F ≤ a] = 0,05 et Pr[ F ≤ b] = 0,95. Les quantiles de la loi F peuvent être trouvés soit dans une table, soit à l’aide de la fonction qf(x, r1, r2) de R. (Astuce : en travaillant avec une table, utiliser le fait que Pr[ F ≤ a] = Pr[ F −1 ≥ a−1 ] = 1 − Pr[ F −1 ≤ a−1 ].) √ 2.18 Soit T = W/ V/r, où W et V sont des variables aléatoires indépendantes avec une distribution, respectivement, normale centrée réduite et khi carré avec r degrés de liberté. Démontrer que la distribution de T 2 est F avec 1 et r degrés de liberté. 10 Transformations de variables aléatoires 2.19 Soit Y= 1 , 1 + (r1 /r2 ) F où F ∼ F(r1 , r2 ). Démontrer que Y a une distribution Bêta. 2.20 Soit X |Θ = θ ∼ Exponentielle(θ ) et Θ ∼ Gamma(α, λ). a) Démontrer que la distribution marginale de X est une loi de Pareto avec densité αλα f X (x) = , x > 0. ( λ + x ) α +1 b) Démontrer que E[ X ] = λ(α − 1)−1 . Exercices proposés dans Wackerly et collab. (2008) 6.37, 6.38, 6.39, 6.40, 6.41, 6.42, 6.43, 6.44, 6.46, 6.47, 6.49, 6.50, 6.53, 6.62, 7.91, 7.93, 7.94 Réponses 2.1 f Y (y) = 1/27, 0 < y < 27 2.2 (1/3)(2/3)y/(1−y) 2.3 f X ( x ) = σ−1 φ(( x − µ)/σ ), FX ( x ) = Φ(( x − µ)/σ ) 2.6 a) Gamma(1/2, 1/(2σ2 )) b) χ2 (1) 2.9 a) FY (y) = Φ((log y − µ)/σ ) b) ekµ+k 2 σ2 /2 2.11 0,05 2.12 1,761 2.15 b) r2 /(r2 − 2) c) 2[r22 (r2 + r1 − 2)]/[r1 (r2 − 2)2 (r2 − 4)] 2.17 a = 0,211 et b = 3,326 3 Échantillon aléatoire 3.1 Soit X̄ la moyenne d’un échantillon de taille 5 d’une distribution normale avec moyenne 10 et variance 125. Trouver c tel que Pr[ X̄ < c] = 0,90. 3.2 Si X̄ est la moyenne d’un échantillon de taille n tiré d’une distribution normale de moyenne µ et de variance 100, trouver la valeur de n telle que Pr[µ − 5 < X̄ < µ + 5] = 0,954. 3.3 Soit X1 , . . . , X25 un échantillon aléatoire issu d’une distribution N (0, 16) et Y1 , . . . , Y25 un échantillon aléatoire issu d’une distribution N (1, 9). Les deux échantillons sont indépendants. Soient X̄ et Ȳ les moyennes des deux échantillons. Calculer Pr[ X̄ > Ȳ ]. 3.4 Démontrer à l’aide du Théorème central limite que la distribution gamma avec paramètre de forme α entier et paramètre d’échelle λ tend vers la distribution normale avec moyenne α/λ et variance α/λ2 lorsque α tend vers l’infini. (Astuce : définir Y = X1 + · · · + Xα où Xi ∼ Exponentielle(λ) et trouver la distribution asymptotique de Y.) 3.5 Soit X̄ la moyenne d’un échantillon aléatoire de taille 100 tiré d’une loi χ2 (50). a) Trouver la distribution exacte de X̄. b) Calculer à l’aide d’un logiciel statistique la valeur exacte de Pr[49 < X̄ < 51]. c) Calculer une valeur approximative de la probabilité en b). 3.6 Soit X̄ la moyenne d’un échantillon de taille 128 d’une loi Gamma(2, 1/4). Trouver une approximation pour Pr[7 < X̄ < 9]. 3.7 Trouver une valeur approximative de la probabilité que la moyenne d’un échantillon de taille 15 d’une loi avec densité f ( x ) = 3x2 , 0 < x < 1, soit entre 3/5 et 4/5. 3.8 Trouver la moyenne et la variance de la statistique S2 = ∑in=1 ( Xi − X̄ )2 , n où X1 , . . . , Xn est un échantillon aléatoire d’une loi normale de moyenne µ et variance σ2 . 11 12 Échantillon aléatoire 3.9 Soit S2 la variance d’un échantillon de taille 6 d’une distribution normale de moyenne µ et de variance 12. Calculer Pr[2,30 < S2 < 22,2]. 3.10 Soit X1 , . . . , Xn un échantillon aléatoire tiré d’une loi avec fonction de répartition FX (·) et X(1) ≤ · · · ≤ X(n) les statistiques d’ordre correspondantes. Trouver la fonction de répartition de X(1) = min( X1 , . . . Xn ). 3.11 Soient X(1) ≤ X(2) ≤ X(3) ≤ X(4) les statistiques d’ordre d’un échantillon aléatoire de taille 4 issu d’une distribution avec fonction de densité de probabilité f ( x ) = e− x , 0 < x < ∞. Calculer Pr[ X(4) > 3]. 3.12 Soit X1 , X2 , X3 un échantillon aléatoire issu d’une loi bêta de paramètres α = 2 et β = 1. Calculer la probabilité que la plus petite valeur de l’échantillon soit supérieure à la médiane (théorique) de la distribution. 3.13 Soit X une variable aléatoire discrète avec fonction de masse de probabilité Pr[ X = x ] = 1/6, x = 1, 2, 3, 4, 5, 6. Démontrer que la fonction de masse de probabilité du minimum d’un échantillon aléatoire de taille 5 issu de cette distribution est i 7 − x 5 6 − x 5 h − , x = 1, 2, 3, 4, 5, 6. Pr X(1) = x = 6 6 3.14 Soient X(1) ≤ · · · ≤ X(n) les statistiques d’ordre d’un échantillon aléatoire tiré d’une loi de Weibull, dont la fonction de répartition est FX ( x ) = τ 1 − e−(λx) . Calculer la fonction de répartition, la fonction de densité et l’espérance de X(1) . 3.15 Calculer la probabilité que l’étendue d’un échantillon aléatoire de taille 4 issu d’une loi uniforme sur l’intervalle (0, 1) soit inférieure à 1/2. 3.16 Si un échantillon de taille 2 est tiré d’une loi bêta avec paramètres α = 1 et β = 2, quelle est la probabilité que l’une des deux valeurs de l’échantillon soit au moins deux fois plus grande que l’autre ? (Astuce : intégrer la densité conjointe des deux valeurs de l’échantillon au-dessus de la surface correspondant à la probabilité recherchée.) 3.17 Soit X ∼ U (0, 1). Calculer l’espérance de la mi-étendue d’un échantillon de taille n issu de cette distribution. 3.18 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi uniforme sur l’intervalle (0, 1). a) Calculer la moyenne et la variance de R = X(n) − X(1) . b) Calculer la moyenne et la variance de T = ( X(1) + X(n) )/2. Exercices proposés dans Wackerly et collab. (2008) 6.72, 6.73, 6.74, 6.81, 6.86, 6.76, 6.89, 7.9, 7.10, 7.15, 7.18, 7.20, 7.27, 7.36, 7.37, 7.38, 7.73, 7.74, 7.75, 7.76, 7.77, 7.78, 7.81, 7.88, 7.89, 7.90, 7.92, 7.96, 7.97 Échantillon aléatoire 13 Réponses 3.1 16,41 3.2 16 3.3 0,159 3.5 a) Gamma(2 500, 50) b) 0,6827218 c) 0,682 3.6 0,954 3.7 0,840 3.8 E[S2 ] = (n − 1)σ2 /n, Var[S2 ] = 2(n − 1)σ4 /n2 3.9 0,90 3.10 FX(1) ( x ) = 1 − (1 − FX ( x ))n 3.11 1 − (1 − e−3 )4 3.12 1/8 1 3.14 X(1) ∼ Weibull(n τ λ, τ ). 3.15 5/16 3.16 7/12 3.17 1/2. 3.18 a) E[ R] = (n − 1)/(n + 1) et Var[ R] = (2n − 2)/[(n + 1)2 (n + 2)]. b) E[ T ] = 1/2 et Var[ T ] = 1/[2(n + 1)(n + 2)]. 4 Estimation ponctuelle 4.1 Soit X1 , . . . , Xn un échantillon aléatoire issu des distributions ci-dessous. Dans chaque cas trouver l’estimateur du paramètre θ à l’aide de la méthode des moments. a) f ( x; θ ) = θ x e−θ /x!, x = 0, 1, . . . , θ > 0. b) f ( x; θ ) = θx θ −1 , 0 < x < 1, θ > 0. c) f ( x; θ ) = θ −1 e− x/θ , θ > 0. d) f ( x; θ ) = e−| x−θ | /2, −∞ < x < ∞, −∞ < θ < ∞. e) f ( x; θ ) = e−( x−θ ) , x ≥ θ, θ > 0. 4.2 Trouver l’estimateur du maximum de vraisemblance du paramètre θ de chacune des distributions de l’exercice 4.1. 4.3 Soit X1 , . . . , Xn un échantillon aléatoire de la distribution exponentielle translatée avec fonction de répartition F ( x; µ, λ) = 1 − e−λ( x−µ) et densité f ( x; µ, λ) = λe−λ( x−µ) , x ≥ µ, où −∞ < µ < ∞ et λ > 0. a) Démontrer que la distribution exponentielle translatée est obtenue par la transformation X = Z + µ, où Z ∼ Exponentielle(λ). b) Calculer l’espérance et la variance de cette distribution. c) Calculer les estimateurs du maximum de vraisemblance des paramètres µ et λ. d) Simuler 100 observations d’une loi Exponentielle translatée de paramètres µ = 1000 et λ = 0,001 à l’aide de la fonction rexp de R et de la transformation en a). Calculer des estimations ponctuelles de µ et λ pour l’échantillon ainsi obtenu. Ces estimations sont-elles proches des vraies valeurs des échantillons ? Répéter l’expérience plusieurs fois au besoin. 15 16 Estimation ponctuelle 4.4 Soient X(1) < · · · < X(n) les statistiques d’ordre d’un échantillon aléatoire tiré d’une distribution uniforme sur l’intervalle [θ − 12 , θ + 21 ], −∞ < θ < ∞. Démontrer que toute statistique T ( X1 , . . . , Xn ) satisfaisant l’inégalité X( n ) − 1 1 ≤ T ( X1 , . . . , X n ) ≤ X ( 1 ) + 2 2 est un estimateur du maximum de vraisemblance de θ. Ceci est un exemple où l’estimateur du maximum de vraisemblance n’est pas unique. 4.5 Soit X1 , . . . , Xn un échantillon aléatoire issu de la distribution inverse gaussienne, dont la densité est f ( x; µ,λ) = λ 2πx3 1/2 λ ( x − µ )2 exp − , 2µ2 x x > 0. Calculer les estimateurs du maximum de vraisemblance de µ et λ. 4.6 Considérer la distribution géométrique avec fonction de masse de probabilité Pr[ X = x ] = θ (1 − θ ) x , x = 0, 1, . . . . On a obtenu l’échantillon aléatoire suivant de cette distribution : 5 7 4 11 0 9 1 1 3 2 1 0 6 0 1 1 1 9 2 0. Utiliser la méthode des moments pour obtenir une estimation ponctuelle du paramètre θ. 4.7 On a une urne contenant θ boules numérotées de 1 à θ, où θ est une quantité inconnue. Soit X1 , . . . , Xn un échantillon aléatoire composé de n boules pigées au hasard, avec remise, dans cette urne. a) Déterminer l’estimateur des moments de θ. b) Calculer l’estimateur des moments de θ si n = 4 et x1 = x2 = x3 = 3 et x4 = 12. Interpréter le résultat. 4.8 Soit X1 , . . . , Xn un échantillon aléatoire issu d’une loi uniforme sur l’intervalle ( a, b) où a et b sont des constantes inconnues. Calculer l’estimateur du maximum de vraisemblance de a et b. 4.9 Soit X1 , . . . , Xn un échantillon aléatoire issu d’une distribution dont la loi de probabilité est Pr[ X = x ] = θ x (1 − θ )1− x , x = 0, 1, 1 0≤θ≤ . 2 a) Calculer les estimateurs du maximum de vraisemblance et des moments de θ. b) Calculer l’erreur quadratique moyenne pour les estimateurs développés en a). Estimation ponctuelle 17 c) Lequel des estimateurs développés en a) est le meilleur ? Justifier. 4.10 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution avec moyenne µ et variance σ2 . Démontrer que n−1 ∑in=1 ( Xi − µ)2 est un estimateur sans biais de σ2 . 4.11 Si X1 , . . . , Xn est un échantillon aléatoire d’une distribution avec moyenne µ, quelle condition doit-on imposer sur les constantes a1 , . . . , an pour que a 1 X1 + . . . a n X n soit un estimateur sans biais de µ ? 4.12 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution avec moyenne µ et variance σ2 . a) Démontrer que X̄ 2 est un estimateur biaisé de µ2 et calculer son biais. b) Démontrer que X̄ 2 est un estimateur asymptotiquement sans biais de µ2 . 4.13 Démontrer que la médiane empirique d’un échantillon aléatoire de taille 3 issu d’une loi exponentielle est un estimateur biaisé de λ−1 . 4.14 Soient X(1) < X(2) < X(3) les statistiques d’ordre d’un échantillon aléatoire de taille 3 tiré d’une distribution uniforme avec fonction de densité f ( x ) = θ −1 , 0 < x < θ, θ > 0. Démontrer que 4X(1) et 2X(2) sont tous deux des estimateurs sans biais de θ. Trouver la variance de chacun de ces estimateurs. 4.15 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution uniforme sur l’intervalle (0, θ ). a) Développer un estimateur sans biais de θ basé sur max( X1 , . . . , Xn ). b) Répéter la partie a), mais cette fois à partir de min( X1 , . . . , Xn ). 4.16 Soit X ∼ Binomiale(n, p). Démontrer que, malgré que X/n soit un estimateur sans biais de p, X X n 1− n n est un estimateur biaisé de la variance de X. Calculer le biais de l’estimateur. 4.17 Démontrer que si θ̂ est un estimateur sans biais de θ et que Var[θ̂ ] ≠ 0, alors θ̂ 2 est un estimateur biaisé de θ 2 . 4.18 Démontrer que, sous les hypothèses appropriées, " 2 # 2 ∂ ∂ ln f ( X; θ ) = −E ln f ( X; θ ) . E ∂θ ∂θ 2 18 Estimation ponctuelle Pour ce faire, dériver par rapport à θ l’identité Z ∞ −∞ afin d’obtenir Z ∞ ∂ −∞ ∂θ f ( x; θ ) dx = 1 ln f ( x; θ ) f ( x; θ ) dx = 0, puis dériver de nouveau par rapport à θ. 4.19 Démontrer que la moyenne arithmétique est un estimateur sans biais à variance minimale du paramètre λ d’une loi de Poisson. 4.20 Démontrer que la proportion de succès X/n est un estimateur sans biais à variance minimale de la probabilité de succès θ d’une distribution Binomiale. (Astuce : considérer X/n comme la moyenne d’un échantillon aléatoire d’une distribution de Bernoulli.) 4.21 Soit X1 , . . . , Xn un échantillon aléatoire de taille n > 2 de la densité f ( x; θ ) = θx θ −1 , 0 < x < 1. a) Vérifier que la borne de Rao–Cramér pour un estimateur de θ est θ 2 /n. b) Trouver la distribution de la variable aléatoire Yi = − ln Xi , puis celle de Z = − ∑in=1 ln Xi . Vérifier alors que E[ Z ] = n/θ. c) Le résultat précédent suggère d’utiliser 1/Z comme estimateur de θ. Développer un estimateur sans biais de θ basé sur 1/Z. 4.22 L’inégalité de Rao–Cramér fournit un seuil minimal pour la variance d’un estimateur du paramètre θ d’une distribution f ( x; θ ). Qu’en est-il si l’on souhaite estimer non pas le paramètre θ, mais plutôt une fonction g de celui-ci ? (On peut penser, ici, à la moyenne d’une loi Exponentielle.) L’inégalité de Rao–Cramér se généralise ainsi : soit θ̂ = T ( X1 , . . . , Xn ) un estimateur de g(θ ) ; alors ( g0 (θ ))2 Var[θ̂ ] ≥ " nE ∂ ln f ( X; θ ) ∂θ 2 # . Soit X1 , . . . , Xn un échantillon aléatoire issu d’une loi de Poisson de paramètre λ. a) Calculer la borne de Rao–Cramér pour un estimateur de λ. b) Considérer g(λ) = e−λ = Pr[ X = 0]. Calculer la borne de Rao–Cramér pour un estimateur de e−λ . Estimation ponctuelle 19 c) Soit la statistique T= 1 n I{ Xi =0} , n i∑ =1 où IA est une fonction indicatrice valant 1 si A est vraie et 0 sinon. La statistique T représente donc la proportion d’observations nulles dans l’échantillon. Démontrer que T est un estimateur sans biais de e−λ et que e − λ (1 − e − λ ) Var[ T ] = . n d) Calculer l’efficacité de la statistique T définie en c). 4.23 Si θ̂1 et θ̂2 sont deux estimateurs sans biais d’un paramètre θ et que Var[θ̂1 ] = 3Var[θ̂2 ], trouver les constantes a1 et a2 tel que a1 θ̂1 + a2 θ̂2 est un estimateur sans bias à variance minimale de θ. (Astuce : il s’agit d’un problème de minimisation sous contrainte, à résoudre à l’aide des multiplicateurs de Lagrange.) 4.24 Supposons que X̄1 est la moyenne d’un échantillon aléatoire de taille n d’une population normale avec moyenne µ et variance σ12 , que X̄2 est la moyenne d’un échantillon aléatoire de taille n d’une population normale avec moyenne µ et variance σ22 et que les deux échantillons aléatoires sont indépendants. a) Démontrer que ω X̄1 + (1 − ω ) X̄2 , 0 ≤ ω ≤ 1, est un estimateur sans biais de µ. b) Démontrer que la variance de ω X̄1 + (1 − ω ) X̄2 est minimale lorsque ω= σ22 . σ12 + σ22 c) Calculer l’efficacité relative de l’estimateur en a) avec ω = de l’estimateur à variance minimale trouvé en b). 1 2 à celle 4.25 Démontrer, à partir de la définition, que X(1) = min( X1 , . . . , Xn ) est un estimateur convergent du paramètre θ d’une loi uniforme sur l’intervalle (θ, θ + 1). 4.26 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi exponentielle de moyenne θ. Démontrer que X̄ est un estimateur convergent de θ. 4.27 Soit X1 une observation d’une loi normale avec moyenne 0 et variance σ2 , σ > 0. Démontrer que | X1 | est une statistique exhaustive pour σ2 . 4.28 Trouver une statistique exhaustive pour le paramètre θ de la loi uniforme sur l’intervalle (−θ, θ ). 4.29 Démontrer que la somme des éléments d’un échantillon aléatoire issu d’une loi de Poisson est une statistique exhaustive pour le paramètre de cette loi. 20 Estimation ponctuelle 4.30 Soit X1 , . . . , Xn un échantillon aléatoire d’une loi géométrique avec fonction de masse de probabilité Pr[ X = x ] = θ (1 − θ ) x , Démontrer que T ( X1 , . . . , Xn ) = pour θ. ∑in=1 Xi x = 0, 1, . . . est une statistique exhaustive Exercices proposés dans Wackerly et collab. (2008) 8.2, 8.8, 8.9, 8.10, 8.11, 8.33, 8.35, 9.1, 9.3, 9.5, 9.7, 9.8, 9.18, 9.19, 9.20, 9.29, 9.69–9.74, 9.75 9.80, 9.81, 9.82, 9.83, 9.84, 9.87, 9.88, 9.91, 9.97 Réponses 4.1 a) X̄ b) X̄/(1 − X̄ ) c) X̄ d) X̄ e) X̄ − 1 4.2 a) X̄ b) −n/ ln( X1 · · · Xn ) c) X̄ d) med( X1 , . . . , Xn ) e) X(1) 4.3 a) E[ X ] = µ + λ−1 , Var[ X ] = λ−2 b) µ̂ = X(1) , λ̂ = n/ ∑in=1 ( Xi − X(1) ) 4.5 µ̂ = X̄, λ̂ = n/ ∑in=1 ( Xi−1 − X̄ −1 ) 4.6 0,2381. 4.7 a) θ̂ = 2X̄ − 1 b) 9,5 4.8 â = min( X1 , . . . , Xn ) et b̂ = max( X1 , . . . , Xn ) 4.9 a) θ̃ = X̄, θ̂ = min( X̄, 1/2) [n/2] b) MSE(θ̃ ) = θ (1 − θ )/n, MSE(θ̂ ) = ∑y=0 (y/n − θ )2 (ny)θ y (1 − θ )n−y + n ∑ny=[n/2]+1 (1/2 − θ )2 ( y )θ y (1 − θ )n−y c) MSE(θ̂ ) ≤ MSE(θ̃ ) 4.11 ∑in=1 ai = 1 4.12 a) σ2 /n 4.14 Var[4X(1) ] = 3θ 2 /5, Var[2X(2) ] = θ 2 /5. 4.15 a) (n + 1) X(n) /n b) (n + 1) X(1) 4.16 − p(1 − p) 4.21 b) Yi ∼ Exponentielle(θ ) c) (n − 1)/Z 4.22 a) λ/n b) λe−2λ /n d) λe−λ /(1 − e−λ ) 4.23 a1 = 1/4 et a2 = 3/4 4.24 c) (σ12 + σ22 )2 /(4σ12 σ22 ) 4.28 maxi=1,...,n (| Xi |), ou ( X(1) , X(n) ) 5 Estimation bayesienne 5.1 On tire une observation d’une loi de Poisson de moyenne λ égale à 2 ou 4. On croit que la valeur λ = 2 est quatre fois plus probable que λ = 4. a) Calculer une estimation du paramètre λ minimisant l’erreur quadratique moyenne avant que l’observation ne soit disponible. b) L’expérience effectuée, la valeur de l’observation est x = 6. Quelle est la nouvelle distribution de probabilité du paramètre λ. c) Répéter la partie a) maintenant que l’observation mentionnée en b) est disponible. 5.2 Trouver l’estimateur bayesien de la probabilité de succès d’une loi géométrique si la distribution a priori du paramètre est une loi Bêta(α, β). Utiliser la loi géométrique avec support x = 0, 1, 2, . . . et une fonction de perte quadratique. 5.3 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution de Poisson avec moyenne inconnue θ. Si l’on utilise une fonction de perte quadratique et que l’on suppose que θ est une observation d’une loi gamma de paramètres α et λ, quel est l’estimateur bayesien de θ ? 5.4 L’estimateur bayesien du paramètre d’une loi de Bernoulli est θ̂ = α + ∑in=1 Xi α+β+n lorsque la distribution a priori du paramètre est une Bêta(α, β) et que la fonction de perte utilisée est L(θ, θ̂ ) = (θ − θ̂ )2 . a) Soit n = 30, α = 15 et β = 5. En notant que ∑30 i =1 Xi ∼ Binomiale(30, θ ), calculer l’espérance de la fonction de perte en fonction de θ. (Astuce : écrire l’erreur quadratique moyenne comme la somme de la variance et du biais au carré.) b) L’erreur quadratique moyenne de X̄ — l’estimateur du maximum de vraisemblance de θ — est θ (1 − θ )/30, cet estimateur étant sans biais. Trouver pour quelles valeurs de θ l’erreur de l’estimateur bayesien en a) est inférieure à celle de l’estimateur du maximum de vraisemblance. 21 22 Estimation bayesienne 5.5 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution normale de moyenne θ et de variance σ2 , où σ2 est une constante connue. On suppose que θ est une observation d’une variable aléatoire Θ avec distribution Normale(µ, τ 2 ), où µ et τ 2 sont des constantes connues. a) Démontrer que la distribution a posteriori de la variable aléatoire Θ est N (µ̃, τ̃ 2 ), avec τ 2 ∑in=1 Xi + σ2 µ nτ 2 + σ2 2 τ σ2 τ̃ 2 = . nτ 2 + σ2 µ̃ = (Astuce : calculer la distribution a posteriori à une constante de normalisation près. Pour ce faire, compléter le carré à l’exposant en ne conservant que les termes impliquant θ.) b) Trouver un estimateur ponctuel bayesien de θ si la fonction de perte utilisée est L(θ, θ̂ ) = |θ − θ̂ |. Exercices proposés dans Wackerly et collab. (2008) Il n’y a pas de solutions clips pour ces exercices 16.1, 16.6, 16.7, 16.10, 16.12 Réponses 5.1 a) 12/5 b) Pr[Λ = 2| X = 6] = 0,316, Pr[Λ = 4| X = 6] = 0,684 c) 3,368 5.2 (α + n)/(α + β + n + ∑in=1 Xi ) 5.3 (α + ∑in=1 Xi )/(λ + n) 5.4 a) (74θ 2 − 114θ + 45)/500 b) 0,5692 < θ < 0,8720 5.5 b) µ̃. 6 Estimation par intervalle 6.1 La valeur observée de la moyenne empirique X̄ d’un échantillon aléatoire de taille 20 tiré d’une N (µ, 80) est 81,2. Déterminer un estimateur par intervalle de niveau 95 % pour µ. 6.2 Soit X̄ la moyenne d’un échantillon aléatoire de taille n d’une distribution normale de moyenne µ inconnue et de variance 9. Trouver la valeur n tel que, approximativement, Pr[ X̄ − 1 < µ < X̄ + 1] = 0,90. 6.3 Un échantillon aléatoire comptant 17 observations d’une distribution normale de moyenne et de variance inconnues a donné x̄ = 4,7 et s2 = 5,76. Trouver des intervalles de confiance à 90 % pour µ et pour σ2 . 6.4 Lors d’une très sérieuse et importante analyse statistique de la taille des étudiantes en sciences et génie à l’Université Laval, on a mesuré un échantillon aléatoire d’étudiantes en actuariat et un autre en génie civil. Les résultats obtenus se trouvent résumés dans le tableau ci-dessous. On suppose que les deux échantillons aléatoires sont indépendants et que la taille des étudiantes est distribuée selon une loi normale. Quantité Taille de l’échantillon Taille moyenne (en cm) Variance (en cm2 ) Actuariat Génie civil 15 152 101 20 154 112 a) Déterminer un intervalle de confiance à 90 % pour la taille moyenne des étudiantes de chacun des deux programmes en supposant que l’écart type de la distribution normale est 9 cm. b) Répéter la partie a) en utilisant plutôt les variances des échantillons. c) Y a-t-il une différence significative, avec un niveau de confiance de 90 %, entre la taille des étudiantes en actuariat et celles en génie civil ? d) Déterminer un intervalle de confiance à 90 % pour la variance de la taille des étudiantes en actuariat. e) La différence observée entre les variances dans la taille des étudiantes des deux programmes est-elle significative ? Utiliser un niveau de confiance de 90 %. 23 24 Estimation par intervalle 6.5 Soit X1 , . . . , Xn un échantillon aléatoire tiré d’une population normale de moyenne et variance inconnues. Développer la formule d’un estimateur par intervalle de niveau 1 − α pour σ, l’écart type de la distribution normale. 6.6 Soit X1 , X2 , . . . , Xn un échantillon aléatoire d’une distribution normale de moyenne µ et de variance σ2 = 25. Déterminer la taille de l’échantillon nécessaire pour que la longueur de l’intervalle de confiance de niveau 0,90 pour la moyenne ne dépasse pas 0,05. 6.7 Soit S2 la variance d’un échantillon aléatoire de taille n issu d’une distribution N (µ, σ2 ) où µ et σ2 sont des paramètres inconnus. On sait que Y = nS2 /σ2 ∼ χ2 (n − 1). Soit g(y) la fonction de densité de Y et G (y) la fonction de répartition. Soit a et b des constantes telles que (ns2 /b, ns2 /a) est un intervalle de confiance de niveau 1 − α pour σ2 . La longueur de cet intervalle est donc ns2 (b − a)/( ab). Démontrer que la longueur de l’intervalle de confiance est minimale si a et b satisfont la condition a2 g( a) = b2 g(b). (Astuce : minimiser la longueur de l’intervalle sous la contrainte que G (b) − G ( a) = 1 − α.) Exercices proposés dans Wackerly et collab. (2008) 8.39, 8.41, 8.43, 8.47, 8.57, 8.59, 8.63, 8.70, 8.72, 8.75, 8.77 Réponses 6.1 (77,28, 85,12) 6.2 24 ou 25 6.3 µ ∈ (3,7, 5,7) et σ2 ∈ (3,72, 12,30) 6.4 a) 148,18 < µ1 < 155,82 et 150,69 < µ2 < 157,31 b) 147,27 < µ1 < 156,73 et 149,80 < µ2 < 158,20 c) µ1 − µ2 ∈ −2 ± 5,99 d) 63,98 < σ12 < 230,59 e) 0,417 < σ22 /σ12 < 2,256 √ √ 6.5 ( nS2 /b, nS2 /a). 6.6 108 241 7 Tests d’hypothèses Pour les exercices comportant des données d’échantillons aléatoires, il est recommandé de faire les calculs «à la main» ainsi qu’avec R. Les principales fonctions pour faire des tests d’hypothèses sont prop.test, t.test et var.test. Consulter les rubriques d’aide pour le détail des arguments de ces fonctions. 7.1 Soit X une variable aléatoire dont la fonction de densité de probabilité est f ( x; θ ) = θx θ −1 , 0 < x < 1. On suppose que θ peut prendre exclusivement les valeurs θ = 1 ou θ = 2. a) Trouver la statistique exhaustive pour le paramètre θ de cette distribution. b) On teste l’hypothèse H0 : θ = 1 versus H1 : θ = 2 à partir d’un échantillon aléatoire X1 , X2 . Si la région critique est C = {( x1 , x2 ); x1 x2 ≥ 3/4}, calculer la probabilité de faire une erreur de type I (α) et la probabilité de faire une erreur de type II (β). 7.2 On suppose que la durée de vie d’un pneu en kilomètres a une distribution normale de moyenne 30 000 et d’écart type 5 000. Le fabricant du nouveau pneu Super Endurator X24 prétend que la durée de vie moyenne de ce pneu est bien supérieure à 30 000 km. Afin de vérifier les prétentions du fabricant, on testera H0 : µ ≤ 30 000 contre l’alternative H1 : µ > 30 000 à partir de n observations indépendantes x1 , . . . , xn . On rejettera H0 si x̄ ≥ c. Trouver les valeurs de n et de c de sorte que la probabilité de faire une erreur de type I en µ = 30 000 est 0,01 et que la probabilité de faire une erreur de type II en µ = 35 000 est 0,02. 7.3 Un fabricant de dentifrice prétend que 75 % de tous les dentistes recommandent son produit à ses patients. Sceptique, un groupe de protection des consommateurs décide de tester H0 : θ = 0,75 contre H1 : θ 6= 0,75, où θ est la proportion de dentistes recommandant le dentifrice en question. Un sondage auprès de 390 dentistes a révélé que 273 d’entre eux recommandent effectivement ce dentifrice. a) Quelle est la conclusion du test avec un seuil de signification de α = 0,05 ? 25 26 Tests d’hypothèses b) Quelle est la conclusion du test avec un seuil de signification de α = 0,01 ? c) Quelle est la valeur p du test ? 7.4 Soit θ la proportion de bonbons rouges dans une boîte de Smarties. On prétend que θ = 0,20. a) Définir la statistique de test et la région critique avec un seuil de signification de 5 % pour le test H0 : θ = 0,20 H1 : θ ≠ 0,20. b) Pour faire le test, les 20 membres de la section locale des Amateurs de Smarties Associés (ASA) ont chacun compté le nombres de bonbons rouges dans une boîte de 50 grammes de Smarties. Ils ont obtenu les proportions suivantes : 8 , 56 13 , 55 12 , 58 13 , 56 14 , 57 5 , 54 14 , 56 15 , 57 11 , 54 13 , 55 10 , 57 8 , 59 10 , 54 11 , 55 12 , 56 11 , 57 6 , 54 7 , 58 12 , 58 14 . 58 Si chaque membre de l’ASA fait le test mentionné en a), quelle proportion des membres rejette l’hypothèse H0 ? c) En supposant vraie l’hypothèse H0 , à quelle proportion de rejets de l’hypothèse H0 peut-on s’attendre ? d) Pour chacun des ratios en b) on peut construire un intervalle de confiance à 95 % pour θ. Quelle proportion de ces intervalles de confiance contiennent θ = 0,20 ? e) Si les 20 résultats en b) sont agrégés de sorte que l’on a compté un total de 219 bonbons rouges parmi 1 124 Smarties, rejette-t-on l’hypothèse H0 , toujours avec α = 0,05 ? 7.5 Lors d’un sondage mené auprès de 800 adultes dont 605 non-fumeurs, on a posé la question suivante : Devrait-on introduire une nouvelle taxe sur le tabac pour aider à financer le système de santé au pays ? Soit θ1 et θ2 la proportion de non-fumeurs et de fumeurs, respectivement, qui ont répondu par l’affirmative à cette question. Les résultats du sondage sont les suivants : x1 = 351 non-fumeurs ont répondu oui, contre x2 = 41 fumeurs. a) Tester H0 : θ1 = θ2 versus θ1 ≠ θ2 avec un seuil de signification de 5 %. b) Trouver un intervalle de confiance à 95 % pour θ1 − θ2 . Cet intervalle permet-il d’obtenir la même conclusion qu’en a) ? c) Trouver un intervalle de confiance à 95 % pour la proportion de la population totale en faveur de l’introduction d’une nouvelle taxe sur le tabac. Tests d’hypothèses 27 7.6 Parmi les statistiques relevées par l’Organisation mondiale de la santé (OMS) on compte la concentration en µg/m3 de particules en suspension dans l’air. Soit X et Y les concentrations en µg/m3 de particules en suspension dans l’air aux centres-villes de Melbourne (Australie) et Houston (Texas), respectivement. À partir de n = 13 observations de la variable aléatoire X et m = 16 observations de la variable aléatoire Y, on souhaite tester H0 : µ X = µY versus H1 : µ X < µY . a) Définir la statistique du test et la région critique en supposant égales les variances des distributions de X et Y. Utiliser un seuil de signification de 5 %. b) Si x̄ = 72,9, s X = 25,6, ȳ = 81,7 et sY = 28,3, quelle est la conclusion pour ce test ? c) Calculer la valeur p de ce test. Est-elle conforme à la conclusion en b) ? d) Tester si l’hypothèse de variances égales faite en a) est valide avec un niveau de confiance de 95 %. 7.7 On suppose que le poids en grammes des bébés à la naissance au Canada est distribué selon une loi normale de moyenne µ = 3 315 et de variance σ2 = 5252 , garçons et filles confondus. Soit X le poids d’une fillette née au Québec. On suppose X ∼ N (µ X , σX2 ). a) Donner l’expression de la statistique du test H0 : µ X = 3 315 versus H1 : µ X > 3 315 (les bébés sont en moyenne plus gros au Québec) si n = 11 et α = 0,01. (La valeur de σX2 est inconnue ici.) b) Calculer la valeur de la statistique et tirer une conclusion si l’échantillon de poids de 11 fillettes nées au Québec est le suivant : 3 119, 3 515, 2 657, 3 856, 3 459, 3 629, 3 629, 3 345, 3 345, 3 062. 3 629, c) À quel niveau de confiance maximal rejette-t-on H0 ? d) Énoncer la statistique du test et la région critique du test H0 : σX2 = 5252 versus H1 : σX2 < 5252 (moins de variation dans le poids des bébés nés au Québec) si α = 0,05. e) Calculer la statistique du test à partir des données de la partie b). Quelle est la conclusion à tirer de ce résultat ? f) Calculer la valeur p du test sur la variance. 7.8 Soit Y le poids en grammes d’un garçon né au Québec et supposons que Y ∼ N (µY , σY2 ). On a les observations suivantes : 4 082, 3 686, 3 686, 3 430, 4 111, 3 289, 3 686, 3 657, 3 175, 4 082. 4 139, Refaire les questions de l’exercice 7.7. Les réponses obtenues dans ces deux exercices suggèrent-elles d’autres hypothèses à explorer ? Faire les tests appropriés le cas échéant. 28 Tests d’hypothèses 7.9 On considère WS , la statistique de Wilcoxon dans dans une expérience comportant 40 sujets divisés en deux groupes : un groupe contrôle de 23 sujets et un groupe traitement de 17 sujets. On considère le test H0 : le traitement n’est pas efficace H1 : le traitement est efficace. a) Calculer la plus petite valeur possible de WS . b) Calculer la plus grande valeur possible de WS . c) Calculer l’espérance de WS lorsque l’hypothèse nulle est vraie. 7.10 On considère WS , la statistique de Wilcoxon dans dans une expérience comportant 7 sujets divisés en deux groupes avec 4 sujets dans le groupe traitement et 3 sujets dans le groupe contrôle. On teste les hypothèses H0 : le traitement n’est pas efficace H1 : le traitement est efficace. On suppose qu’un traitement est efficace s’il fait augmenter la valeur de la statistique. a) On obtient pour les sujets du groupe traitement les rangs {1, 3, 5, 6}. Calculer la valeur de la statistique de Wilcoxon. b) Calculer le nombre de configurations possibles. c) Calculer la valeur p du test. Exercices proposés dans Wackerly et collab. (2008) 10.19, 10.29, 10.34, 10.37, 10.39, 10.42, 10.75, 10.79 Réponses 7.1 a) ∏in=1 Xi b) α = 0,034, β = 0,886 7.2 n = 19 ou 20, c = 32 658 7.3 a) z = −2,28 c) 0,0226 p 7.4 a) Z = (θ̂ − 0,20)/ 0,20(1 − 0,20)/n b) 0 % c) 0,05 d) 100 % e) p = 0,6654 7.5 a) z = 10,45 > 1,96 b) (0,3005, 0,4393) c) (0,4555, 0,5246) q 7.6 a) T = [( X̄ − Ȳ ) − (µ X − µY )]/ (nS2X + mSY2 )(n−1 + m−1 )/(n + m − 2), T ∼ t(n + m − 2) b) t = −0,838 > t0,05 (27) c) p = 0,2047 d) f = 0,8311 < f 0,05 (12, 15) Tests d’hypothèses 7.7 b) t = 0,6993 < t0,01 (10) c) 0,7498 e) y = 4,103 > χ20,05 (10) f) 0,0574 7.8 b) t = 4,028 < t0,01 (10) c) 0,9988 e) y = 4,223 > χ20,95 (10) f) 0,0633 g) tests sur les moyennes et les variances 7.9 a) 153 b) 544 c) 348,5 7.10 a) 15 b) 35 c) 24/35 29 A Table de quantiles de la loi normale Pr[ X ≤ x ] = Φ( x ) = Z x −∞ 2 1 √ e−y /2 dy 2π Φ(− x ) = 1 − Φ( x ) x Φ( x ) x Φ( x ) x Φ( x ) 0,00 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50 0,55 0,60 0,65 0,70 0,75 0,80 0,85 0,90 0,95 1,00 1,05 0,500 0,520 0,540 0,560 0,579 0,599 0,618 0,637 0,655 0,674 0,691 0,709 0,726 0,742 0,758 0,773 0,788 0,802 0,816 0,829 0,841 0,853 1,10 1,15 1,20 1,25 1,282 1,30 1,35 1,40 1,45 1,50 1,55 1,60 1,645 1,65 1,70 1,75 1,80 1,85 1,90 1,95 1,96 2,00 0,864 0,875 0,885 0,894 0,900 0,903 0,911 0,919 0,926 0,933 0,939 0,945 0,950 0,951 0,955 0,960 0,964 0,968 0,971 0,974 0,975 0,977 2,05 2,10 2,15 2,20 2,25 2,30 2,326 2,35 2,40 2,45 2,50 2,55 2,576 2,60 2,65 2,70 2,75 2,80 2,85 2,90 2,95 3,00 0,980 0,982 0,984 0,986 0,988 0,989 0,990 0,991 0,992 0,993 0,994 0,995 0,995 0,995 0,996 0,997 0,997 0,997 0,998 0,998 0,998 0,999 31 B Table de quantiles de la loi khi carré Pr[ X ≤ x ] = Z x 0 1 yr/2−1 e−r/2 dx Γ(r/2)2r/2 Pr[ X ≤ x ] r 0.01 0.025 0.05 0.95 0.975 0.99 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.000 0.020 0.115 0.297 0.554 0.872 1.239 1.646 2.088 2.558 3.053 3.571 4.107 4.660 5.229 5.812 6.408 7.015 7.633 8.260 8.897 9.542 10.196 10.856 11.524 12.198 12.879 13.565 14.256 14.953 0.001 0.051 0.216 0.484 0.831 1.237 1.690 2.180 2.700 3.247 3.816 4.404 5.009 5.629 6.262 6.908 7.564 8.231 8.907 9.591 10.283 10.982 11.689 12.401 13.120 13.844 14.573 15.308 16.047 16.791 0.004 0.103 0.352 0.711 1.145 1.635 2.167 2.733 3.325 3.940 4.575 5.226 5.892 6.571 7.261 7.962 8.672 9.390 10.117 10.851 11.591 12.338 13.091 13.848 14.611 15.379 16.151 16.928 17.708 18.493 3.841 5.991 7.815 9.488 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773 5.024 7.378 9.348 11.143 12.833 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979 6.635 9.210 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892 33 C Table de quantiles de la loi t Pr[ T ≤ t] = Z t −∞ Γ((r + 1)/2) 1 √ dx 2 πr Γ(r/2) (1 + x /r )(r+1)/2 Pr[ T ≤ −t] = 1 − Pr[ T ≤ t] Pr[ T ≤ t] r 0.90 0.95 0.975 0.99 0.995 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 35 D Table de quantiles de la loi F Pr[ Fr1 ,r2 ≤ f ] = Z f Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 x (r1 /2−1) 0 Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2 La table se trouve répartie sur les deux pages suivantes. 37 dx r2 1 2 3 4 5 6 Pr[ F ≤ f ] 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 5.99 8.81 13.75 6.61 10.01 16.26 7.71 12.22 21.20 10.13 17.44 34.12 18.51 38.51 98.50 161.45 647.79 4052.18 1 5.14 7.26 10.92 5.79 8.43 13.27 6.94 10.65 18.00 9.55 16.04 30.82 19.00 39.00 99.00 199.50 799.50 4999.50 2 4.76 6.60 9.78 5.41 7.76 12.06 6.59 9.98 16.69 9.28 15.44 29.46 19.16 39.17 99.17 215.71 864.16 5403.35 3 4.53 6.23 9.15 5.19 7.39 11.39 6.39 9.60 15.98 9.12 15.10 28.71 19.25 39.25 99.25 224.58 899.58 5624.58 4 4.39 5.99 8.75 5.05 7.15 10.97 6.26 9.36 15.52 9.01 14.88 28.24 19.30 39.30 99.30 230.16 921.85 5763.65 5 4.28 5.82 8.47 4.95 6.98 10.67 6.16 9.20 15.21 8.94 14.73 27.91 19.33 39.33 99.33 233.99 937.11 5858.99 6 r1 4.21 5.70 8.26 4.88 6.85 10.46 6.09 9.07 14.98 8.89 14.62 27.67 19.35 39.36 99.36 236.77 948.22 5928.36 7 4.15 5.60 8.10 4.82 6.76 10.29 6.04 8.98 14.80 8.85 14.54 27.49 19.37 39.37 99.37 238.88 956.66 5981.07 8 4.10 5.52 7.98 4.77 6.68 10.16 6.00 8.90 14.66 8.81 14.47 27.35 19.38 39.39 99.39 240.54 963.28 6022.47 9 4.06 5.46 7.87 4.74 6.62 10.05 5.96 8.84 14.55 8.79 14.42 27.23 19.40 39.40 99.40 241.88 968.63 6055.85 10 4.00 5.37 7.72 4.68 6.52 9.89 5.91 8.75 14.37 8.74 14.34 27.05 19.41 39.41 99.42 243.91 976.71 6106.32 12 3.94 5.27 7.56 4.62 6.43 9.72 5.86 8.66 14.20 8.70 14.25 26.87 19.43 39.43 99.43 245.95 984.87 6157.28 15 r2 7 8 9 10 12 15 Pr[ F ≤ f ] 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 0.95 0.975 0.99 4.54 6.20 8.68 4.75 6.55 9.33 4.96 6.94 10.04 5.12 7.21 10.56 5.32 7.57 11.26 5.59 8.07 12.25 1 3.68 4.77 6.36 3.89 5.10 6.93 4.10 5.46 7.56 4.26 5.71 8.02 4.46 6.06 8.65 4.74 6.54 9.55 2 3.29 4.15 5.42 3.49 4.47 5.95 3.71 4.83 6.55 3.86 5.08 6.99 4.07 5.42 7.59 4.35 5.89 8.45 3 3.06 3.80 4.89 3.26 4.12 5.41 3.48 4.47 5.99 3.63 4.72 6.42 3.84 5.05 7.01 4.12 5.52 7.85 4 2.90 3.58 4.56 3.11 3.89 5.06 3.33 4.24 5.64 3.48 4.48 6.06 3.69 4.82 6.63 3.97 5.29 7.46 5 2.79 3.41 4.32 3.00 3.73 4.82 3.22 4.07 5.39 3.37 4.32 5.80 3.58 4.65 6.37 3.87 5.12 7.19 6 r1 2.71 3.29 4.14 2.91 3.61 4.64 3.14 3.95 5.20 3.29 4.20 5.61 3.50 4.53 6.18 3.79 4.99 6.99 7 2.64 3.20 4.00 2.85 3.51 4.50 3.07 3.85 5.06 3.23 4.10 5.47 3.44 4.43 6.03 3.73 4.90 6.84 8 2.59 3.12 3.89 2.80 3.44 4.39 3.02 3.78 4.94 3.18 4.03 5.35 3.39 4.36 5.91 3.68 4.82 6.72 9 2.54 3.06 3.80 2.75 3.37 4.30 2.98 3.72 4.85 3.14 3.96 5.26 3.35 4.30 5.81 3.64 4.76 6.62 10 2.48 2.96 3.67 2.69 3.28 4.16 2.91 3.62 4.71 3.07 3.87 5.11 3.28 4.20 5.67 3.57 4.67 6.47 12 2.40 2.86 3.52 2.62 3.18 4.01 2.85 3.52 4.56 3.01 3.77 4.96 3.22 4.10 5.52 3.51 4.57 6.31 15 E Solutions Chapitre 1 1.1 a) Dans tous R ∞ les cas, il faut démontrer que f ( x ) > 0 sur tout son domaine et que −∞ f ( x ) dx = 1. i) On a f 1 ( x ) = e− x > 0, pour tout x > 0 et Z ∞ 0 e− x dx = −e−∞ − (−e−0 ) = 1. La fonction f 1 est donc une densité de probabilité. ii) On a f 2 ( x ) = 2e−2x > 0, pour tout x > 0 et Z ∞ 0 2e−2x dx = −e−(2)(∞) − (−e−(2)(0) ) = 1. Ainsi, f 2 est une densité de probabilité. iii) On a f 3 ( x ) = (1 + θ ) f 1 ( x ) − θ f 2 ( x ) avec 0 < θ < 1. Par conséquent, on a clairement f 3 ( x ) > 0 pour tout x > 0 et Z ∞ 0 f 3 ( x ) dx = (1 + θ ) Z ∞ 0 f 1 ( x ) dx − θ Z ∞ 0 f x ( x ) dx = (1 + θ )(1) − θ (1) = 1. La fonction f 3 est donc une densité de probabilité. De manière générale, toute combinaison linéaire de densités de probabilité est elle-même une densité. b) On doit vérifier que les fonctions commencent à 0, tendent vers 1 et sont non décroissantes, c’est-à-dire que limx→−∞ F ( x ) = 0, que limx→+∞ F ( x ) = 1 et que F 0 ( x ) > 0 pour tout x dans le domaine de définition de F. i) On démontre sans difficulté que limx→−∞ (1 + e− x )−1 = 0 et que limx→+∞ (1 + e− x )−1 = 1. De plus, F0 (x) = 41 e− x (1 + e − x )2 >0 42 Solutions pour tout x ∈ R. La fonction F ( x ) = (1 + e− x )−1 est donc une fonction de répartition sur R. (Il s’agit en fait de la fonction de répartition de la loi logistique.) ii) On a limx→−∞ e−e −x = 0, limx→+∞ e−e F 0 ( x ) = e− x e−e −x −x = 1 et >0 pour tout x ∈ R. La fonction F ( x ) = e−e de répartition sur R. −x est donc une fonction 1.2 Pour avoir une densité, il faut que f ( x ) ≥ 0 pour −k < x < k et que Rk −k f ( x ) = 1. Or, Z k −k k4 k4 + 3 3 2k4 . = 3 kx2 dx = Par conséquent, k = ±(3/2)1/4 . Afin d’avoir une image positive pour tout −k < x < k, on doit choisir k = (3/2)1/4 . 1.3 En premier lieu, puisque e−| x| > 0 pour tout x ∈ R, on doit avoir c > 0. De plus, Z ∞ −∞ ce−| x| dx = c Z 0 −∞ e x dx + c Z ∞ 0 e− x dx =c+c = 2c, Par conséquent, f ( x ) = ce−| x| , −∞ < x < ∞ est une densité si, et seulement si c = 1/2. 1.4 On se souviendra que la distribution du nombre d’essais avant d’obtenir un premier succès dans une série d’expériences de Bernoulli avec probabilité de succès p est une géométrique avec fonction de masse de probabilité Pr[ X = x ] = p(1 − p) x−1 , x = 1, 2, . . . a) La variable aléatoire X obéit à une loi géométrique de paramètre p = 1/2, d’où Pr[ X = x ] = (1/2)(1/2) x−1 = (1/2) x , x = 1, 2, . . . b) Posons q = 1 − p. En général, on a que ∞ E[ X ] = ∑ xpqx−1 x =1 ∞ = p ∑ xq x−1 . x =1 Solutions 43 La dernière somme est la dérivée d’une série géométrique. En effet, on sait que ∞ 1 ∑ qx = 1 − q . x =0 En dérivant de part et d’autre par rapport à q, on obtient ∞ ∞ x =0 x =1 1 ∑ xqx−1 = ∑ xqx−1 = (1 − q)2 . De manière équivalente, ∞ ∞ d x q dq x =0 ∑ xqx−1 = ∑ x =1 = d ∞ x q dq x∑ =0 d 1 dq 1 − q 1 . = (1 − q )2 = Par conséquent, E[ X ] = p 1 = . p (1 − q )2 Pour la variance, on a Var[ X ] = E[ X 2 ] − E[ X ]2 ∞ = p ∑ x 2 q x −1 − x =1 1 . p2 Or, en réécrivant l’identité obtenue plus haut sous la forme ∞ q ∑ xqx = (1 − q)2 , x =1 puis en dérivant de part et d’autre par rapport à q, on obtient ∞ 1 − q2 ∑ x 2 q x −1 = (1 − q )4 . x =1 44 Solutions Comme précédemment, on peut aussi procéder ainsi pour atteindre le même résultat : ∞ ∞ d x xq dq x =1 ∑ n 2 q x −1 = ∑ x =1 = d ∞ xq x dq x∑ =1 = d ∞ q xq x−1 dq x∑ =1 = d q dq (1 − q)2 = 1 − q2 . (1 − q )4 Par conséquent, 1 − (1 − p )2 1 − 2 4 p p 1 2 1 − 2 − 2 =p p3 p p 1− p . = p2 Var[ X ] = p Ici, on a p = 1/2 d’où E[ X ] = Var[ X ] = 2. c) On a, en général, MX (t) = E[etX ] ∞ = ∑ etx pqx−1 x =1 ∞ = p (qet ) x q n∑ =1 ∞ p = q ∑ (qe ) t x ! −1 x =0 = p q = pet . 1 − qet 1 −1 1 − qet En posant p = 1/2 et après quelques simplifications, on obtient MX (t) = (2e−t − 1)−1 . Solutions 45 1.5 On a la fonction définie par branches suivante : x − α 1 , α−β<x<α β 1+ β f (x) = 1 x−α 1− , α < x < α + β. β β a) Avec les conditions imposées sur x, α et β, il est aisé de vérifier que f ( x ) ≥ 0. Puis, Z Z Z α+ β x−α x−α 1 α 1 α+ β 1+ 1− f ( x ) dx = dx + dx β α− β β β α β α− β 1β 1β = + β2 β2 = 1, d’où f ( x ) est bien une densité. b) La fonction de répartition sera elle aussi définie par branches sur les intervalles (α − β, α] et (α, α + β). En premier lieu, on a, pour α − β < x ≤ α, F(x) = Z x f (y) dy y−α = 1+ dy β α− β β x−α 1 x−α 2 1 + . + = β 2 β 2 α− β Z 1 x En second lieu, pour α < x ≤ α + β, on a F(x) = Z α α− β f (y) dy + Z x f (y) dy α = F (α) + Z x f (y) dy α Z 1 x y−α dy β α 1 x−α 1 x−α 2 = + − . 2 β 2 β = 1 + 2 β 1− On peut vérifier que F (α − β) = 0 et que F (α + β) = 1. La fonction de répartition est donc x−α 1 x−α 2 1 + , α−β<x≤α β +2 β 2 F(x) = 1 x−α 1 x−α 2 − , α < x < α + β. + 2 β 2 β 46 Solutions 1.6 a) L’utilisation de fonctions indicatrices simplifie beaucoup la résolution de ce problème. Soit la fonction indicatrice I{ A} qui vaut 1 lorsque la condition A est vraie et 0 sinon. On a donc 1 1 H (x) + G(x) 2 2 1 x 1 = xI{0< x≤1} + I{ x>1} + I{0< x≤2} + I{ x>2} 2 2 2 3 1 1 = xI{0< x≤1} + + x I{1< x≤2} + I{ x>2} . 4 2 4 FX ( x ) = b) En dérivant F ( x ), on obtient directement f ( x ) = 34 I{0< x≤1} + 41 I{1< x≤2} . c) On a Pr[ X ≤ 1/2 ∩ X ≤ 1] Pr[ X ≤ 1] F (1/2) = F (1) Pr[ X ≤ 1/2| X ≤ 1] = = 3 4 × 1 2 3 4 1 = . 2 1.7 On doit trouver le point où la fonction f (c) = E[( X − c)2 ] atteint son minimum. Or, f 0 (c) = −2E[ X − c] = 0 lorsque E[ X ] − c = 0, soit c = E[ X ] = µ. De plus, il s’agit bien d’un minimum puisque f 00 (c) = 2 > 0 pour tout c. 1.8 a) Si f ( x ) = ( x + 1)/2, −1 < x < 1, alors Z 1 2 x +x 1 dx = 3 −1 Z 1 3 x + x2 1 2 E[ X ] = dx = 2 3 −1 Z 1 4 3 x + x 1 E[ X 3 ] = dx = , 2 5 −1 E[ X ] = 2 3 3 2 3 d’où σ2 = 2/9 et E[( X √− µ) ] = E[ X ] − 3µE[ X ] + 2µ = −8/135. Par conséquent, γ1 = −2 2/5. b) La densité f ( x ) = 12 , −1 < x < 1 est celle de la loi uniforme sur (−1, 1). On sait que cette distribution est symétrique autour de sa moyenne, d’où γ1 = 0. Cette symétrie implique également que tous les moments centraux (centrés autour de la moyenne) impairs sont nuls. En effet, −1.0 −0.5 0.0 0.5 1.0 (a) f ( x ) = ( x + 1)/2 1.0 0.8 0.6 0.4 0.2 0.0 0.3 0.0 0.2 0.4 0.4 0.5 0.6 0.6 0.8 0.7 47 1.0 Solutions −1.0 −0.5 0.0 0.5 1.0 −1.0 −0.5 0.0 0.5 1.0 (c) f ( x ) = (1 − x )/2 (b) f ( x ) = x/2 Fig. E.1: Graphiques des fonctions de l’exercice 1.8. Toutes sont définies sur l’intervalle (−1, 1). ici, E[ X ] = µ = 0 et E[( X − µ)3 ] = E[ X 3 ] = Z 1 3 x −1 2 dx = 0, d’où γ1 = 0. √ c) Par symétrie avec la partie a), on trouve rapidement que γ1 = 2 2/5. On trouvera à la figure E.1 les graphes des trois densités. On constate que la densité en a) est asymétrique vers la droite (d’où un coefficient d’asymétrie négatif) et que celle en c) est asymétrique vers la gauche (coefficient positif). Tel que mentionné précédemment, la densité en b) est symétrique. 1.9 Par définition de la fonction génératrice des moments, on a MX (t) = E[etX ] Z 2 1 = e dx 3 −1 tx e2t e−t − 3t 3t e2t − e−t , = 3t = t 6= 0. 1.10 Comme souvent dans ce genre de démonstration, le truc consiste à écrire l’expression sous forme d’intégrale double, puis d’inverser l’ordre d’in- 48 Solutions tégration. Ici, on a Z ∞ 0 (1 − FX ( x )) dx = = = = Z ∞ 0 0 x 0 0 Z ∞Z y Z ∞ 0 = Pr[ X > x ] dx Z ∞Z ∞ Z ∞ 0 f X (y) dy dx f X (y) dx dy f X (y) Z y 0 dx dy y f X (y) dy = E [ X ]. 1.11 a) Soit ρ le coefficient de corrélation entre X1 + X2 et X2 + X3 . Par définition, ρ= p Cov( X1 + X2 , X2 + X3 ) Var[ X1 + X2 ]Var[ X2 + X3 ] Cov( X1 , X2 ) + Cov( X1 , X3 ) + Cov( X2 , X2 ) + Cov( X2 , X3 ) p = . Var[ X1 + X2 ]Var[ X2 + X3 ] Or, puisque les variables aléatoires ne sont pas corrélées et que leurs variances sont identiques, on a ρ= p Var[ X2 ] (Var[ X1 ] + Var[ X2 ])(Var[ X2 ] + Var[ X3 ]) σ2 =√ 4σ4 1 = . 2 b) De manière similaire, on a ρ= p Cov( X2 − X1 , X3 − X1 ) Var[ X2 − X1 ]Var[ X3 − X1 ] Cov( X2 , X3 ) − Cov( X1 , X2 ) − Cov( X1 , X3 ) + Var[ X1 ] p = (Var[ X2 ] + Var[ X1 ])(Var[ X3 ] + Var[ X1 ]) σ2 =√ 4σ4 1 = . 2 1.12 Par définition, E [Y k | X = x ] = Z 1 0 yk f Y | X (y| x ) dy. Solutions 49 Or, f XY ( x, y) f X (x) f ( x, y) = R 1 XY 0 f XY ( x, y ) dy x+y = R1 0 ( x + y ) dy x+y = . x + 21 f Y |X (y| x ) = On a donc E [Y | X = x ] = Z 1 xy + y2 dy x + 12 3x + 2 , = 6x + 3 Z 1 xy2 + y3 E [Y 2 | X = x ] = dy 0 x + 12 4x + 3 = 12x + 6 0 et Var[Y | X = x ] = E[Y 2 | X = x ] − E[Y | X = x ]2 = 6x2 + 6x + 1 . 2(6x + 3)2 1.13 a) On doit avoir Z 1Z y 0 0 f X |Y ( x |y) dx dy = c1 Z 1 Z 1 y 0 y2 0 x dx dy = c1 = 1, 2 d’où c1 = 2. De manière similaire, on doit avoir Z 1 0 f Y (y) dy = c2 Z 1 0 y4 dy = c2 = 1, 5 d’où c2 = 5. b) On a f XY ( x, y) = f X |Y ( x |y) f Y (y) = 10xy2 , 0 < x < y, 0 < y < 1. 50 Solutions c) On a Pr[ 41 < X < 12 |Y = 85 ] = Z 1/2 1/4 Z 1/2 f X |Y ( x | 58 ) dx 2x dx 1/4 (5/8)2 64 1 1 = − 25 4 16 12 = . 25 = d) On a Pr[ 14 < X < 21 ] = = = = Z 1/2 f X ( x ) dx 1/4 Z 1/2 Z 1 1/4 0 Z 1/2 Z 1 f XY ( x, y) dy dx 10xy2 dy dx 1/4 0 Z 1/2 10x 3 5 5 = − 12 48 5 = . 16 1/4 dx 1.14 a) On a MY (t) = E[eYt ] = E[e(aX +b)t ] = E[e aXt ebt ] = ebt E[e aXt ] = ebt MX ( at). b) On a MY (t) = E[eYt ] = E[e(X1 +···+Xn )t ] = E [ e X1 t · · · e X n t ] Solutions 51 et, par indépendance entre les variables aléatoires, MY (t) = E[e X1 t ] · · · E[e Xn t ] n = ∏ M X j ( t ). i= j Si, en plus, les variables aléatoires X1 , . . . , Xn sont identiquement distribuées comme X, alors MY (t) = ( MX (t))n . 1.15 Attention, pour démontrer l’indépendance entre deux variables aléatoires, il ne suffit pas de démontrer que la covariance est nulle. Il faut plutôt démontrer que la densité conjointe est le produit des densités marginales. Or, ici, f X (x) = Z 1 0 = 12x f XY ( x, y) dy Z 1 0 (y − y2 ) dy = 2x et f Y (y) = Z 1 0 f XY ( x, y) dx = 12y(1 − y) Z 1 0 x dx = 6y(1 − y), d’où f XY ( x,y) = f X ( x ) f Y (y). Les variables aléatoires X et Y sont donc stochastiquement indépendantes. Cela implique que Cov( X, Y ) = 0, mais pas l’inverse. 1.16 On pourrait démontrer que Cov( X, Y ) ≠ 0, ce qui est une raison suffisante (mais non nécessaire) pour que deux variables aléatoires soient dépendantes. Cependant, ici, il est plus simple de démontrer que la densité conjointe n’est pas le produit des densités marginales. En effet, f X (x) = Z ∞ 0 f XY ( x, y) dy = 2e− x = 2e− x Z ∞ 0 e−y dy 52 Solutions et f Y (y) = Z y 0 f XY ( x, y) dx = 2e−y = 2e Z y e− x dx 0 −y −y (e − 1) , d’où f XY ( x,y) ≠ f X ( x ) f Y (y). 1.17 Pour commencer, on trouve la valeur du paramètre λ de la loi de Poisson : on a Pr[ X = 1] = Pr[ X = 2], d’où λe−λ = λ2 e − λ 2 et donc λ = 2. Ainsi, Pr[ X = 1 ∪ X = 2] = Pr[ X = 1] + Pr[ X = 2] = 2e−2 + 4e−2 2 = 4e−2 . 1.18 On doit trouver le minimum de E[| X − a|] = = Z ∞ −∞ Z a −∞ | x − a| f ( x ) dx ( a − x ) f ( x ) dx + Z ∞ a ( x − a) f ( x ) dx. Or, ∞ a d f ( x ) dx + f ( x ) dx E[| X − a|] = da −∞ a = FX ( a) − (1 − FX ( a)) Z Z = 2FX ( a) − 1 Par conséquent, le minimum est atteint au point a tel que 2FX ( a) − 1 = 0, soit FX ( a) = 1/2. Par définition, cette valeur est la médiane de X. 1.19 a) On a directement f ( x ) = F 0 ( x ) = λτx τ −1 e−λx . τ b) On a E[ X ] = = Z ∞ 0 Z ∞ 0 x f ( x ) dx λτx τ e−λx dx. τ Solutions 53 On effectue le changement de variable y = λx τ , d’où dy = λτx τ −1 dx et donc 1 Z ∞ y1/τ e−y dy λ1/τ 0 Z Γ(1 + τ1 ) ∞ 1 = y1/τ e−y dy 1/τ λ 0 Γ (1 + τ1 ) E[ X ] = = Γ(1 + τ1 ) λ1/τ puisque l’intégrande ci-dessus est la fonction de densité de probabilité d’une loi gamma de paramètre de forme α = 1 + τ1 et de paramètre d’échelle λ = 1. En procédant exactement de la même façon, on trouve 2 E[ X ] = = Z ∞ 0 Z ∞ 0 x2 f ( x ) dx λτx τ +1 e−λx dx 1 τ Z ∞ y2/τ e−y dy λ2/τ 0 Γ(1 + τ2 ) = . λ2/τ = Par conséquent, Var[ X ] = Γ(1 + τ2 ) − Γ(1 + τ1 )2 . λ2/τ 1.20 a) Nous indiquons la méthode la plus simple et la plus rapide pour obtenir la réponse. On observe que Y | X = x ∼ Uniforme( x, x + 1) et que X ∼ Uniforme(0, 1). On a donc 1 1 1 E[Y ] = E[ E[Y | X ]] = E X + = + = 1. 2 2 2 b) Le calcul de Cov( X, Y ) = E[ XY ] − E[ X ] E[Y ] requiert la fonction de densité conjointe de X et Y. Or, f XY ( x, y) = f Y | X (y| x ) f X ( x ) = 1, 0 < x < 1, x < y < x + 1. Par conséquent, E[ XY ] = Z 1 Z x +1 x Z 1 0 xy dy dx 1 ( x3 + 2x2 + x − x2 ) dx 2 0 7 = . 12 = De a) on sait que E[ X ] = 1/2 et E[Y ] = 1, d’où Cov( X, Y ) = 1/12. Solutions 1.0 0.0 0.5 y 1.5 2.0 54 0.0 0.5 1.0 1.5 2.0 x Fig. E.2: Domaine de définition de f XY ( x, y) = 1, 0 < x < 1, x < y < x + 1. La zone hachurée représente l’aire où x + y < 1. c) Par définition, Pr[ X + Y < 1] = ZZ R f XY ( x, y) dy dx, où R est la région du domaine de définition de f XY telle que x + y < 1. Cette région est représentée à la figure E.2. On a donc Pr[ X + Y < 1] = = Z 1/2 Z 1− x x 0 Z 1/2 0 (1 − 2x ) dx 1 1 − 2 4 1 = . 4 = dy dx Solutions 55 Chapitre 2 2.1 Par la technique de la fonction de répartition : FY (y) = Pr[Y ≤ y] = Pr[ X 3 ≤ y] = Pr[ X ≤ y1/3 ] 1/3 1 y x2 dx 9 0 y = , 0 < y < 27. 27 = Z On trouve donc que f Y (y) = FY0 (y) = 1 , 27 0 < y < 27, soit que Y ∼ U (0, 27). 2.2 Avec les variables aléatoires discrètes, on peut généralement procéder directement au calcul de la fonction de masse de probabilité. Ici, on a X =y Pr[Y = y] = Pr X+1 y = Pr X = 1−y y/(1−y) 1 2 1 2 3 = , y = 0, , , , . . . 3 3 2 3 4 2.3 On a X = µ + σZ. Par la technique de la fonction de répartition, on obtient : FX ( x ) = Pr[ X ≤ x ] = Pr[µ + σZ ≤ x ] x−µ = Pr Z ≤ σ x−µ =Φ . σ Ainsi, la fonction de densité de probabilité de X est f X (x) = d Φ dx x−µ σ = 1 φ σ x−µ σ . 56 Solutions 2.4 Soit Z ∼ N (0, 1). La fonction génératrice des moments de la variable aléatoire Z2 est h 2i MZ2 ( t ) = E e Z t = Z ∞ −∞ Z ∞ 2 ez t φ(z) dz 2 2 1 √ ez t e−z /2 dz −∞ 2π Z ∞ 2 1 √ e−z (1−2t)/2 dz. = −∞ 2π = En posant σ2 = (1 − 2t)−1 , on voit que l’on peut écrire l’expression cidessus sous la forme Z ∞ 2 2 1 √ e−z /(2σ ) dz. MZ2 ( t ) = σ −∞ σ 2π On reconnaît alors sous l’intégrale la densité d’une loi normale de moyenne 0 et de variance σ2 . Par conséquent, 1/2 1 MZ2 ( t ) = σ = , 1 − 2t soit la fonction génératrice des moments d’une loi gamma de paramètres α = λ = 1/2 ou, de manière équivalente, d’une distribution χ2 (1). 2.5 Soit X une variable aléatoire et Y = FX ( X ) avec F continue et strictement croissante. Par conséquent, Pr[Y ≤ y] = Pr[ FX ( X ) ≤ y] = Pr[ X ≤ FX−1 (y)] = FX ( FX−1 (y)) = y, d’où Y ∼ U (0, 1), peu importe la loi de X. 2.6 a) On a X ∼ N (0, σ2 ) et Y = X 2 . Il faut voir que Y = X 2 n’est pas une transformation bijective. On pose donc d’abord Z = | X | et on trouve la densité de Z à l’aide de la technique de la fonction de répartition : FZ (z) = Pr[| X | ≤ z] = Pr[−z ≤ X ≤ z] = FX (z) − FX (−z) d’où f Z (z) = f X (z) + f X (−z) 2 2 2 = √ e− x /(2σ ) , σ 2π z > 0. Solutions 57 Ensuite, on pose la transformation bijective Y = Z2 = | X |2 = X 2 . Par la technique du changement de variable, on a 1 f Y (y) = f Z (y1/2 ) √ 2 y 2 2 = √ e−y/(2σ ) σ 2π = puisque Γ( 21 ) = √ 1 √ 2 y (2σ2 )−1/2 1/2−1 −y/(2σ2 ) y e , Γ( 12 ) y>0 π. On voit donc que Y ∼ Gamma 1 1 , 2 2σ2 . √ b) On sait que Z = X1 − X2 ∼ N (0, 2) et que Z/ 2 ∼ N (0, 1). En utilisant le résultat de la partie a), on a immédiatement que Y = Z2 /2 ∼ χ2 (1). 2.7 Ici, les variables aléatoires Y1 et Y2 ne sont clairement pas indépendantes. La fonction génératrice des moments conjointe n’est donc pas égale au produit des fonctions génératrices des moments marginales. En revanche, h i MY1 Y2 (t1 , t2 ) = E et1 Y1 +t2 Y2 i h 2 2 = E et1 (X1 +X2 )+t2 (X1 +X2 ) h i 2 2 = E e t 1 X1 + t 2 X1 e t 1 X2 + t 2 X2 h i h i 2 2 = E e t 1 X1 + t 2 X1 E e t 1 X2 + t 2 X2 par indépendance entre X1 et X2 . Puisque X1 et X2 sont aussi identiquement distribuées, on a h i 2 2 MY1 Y2 (t1 , t2 ) = E et1 X +t2 X , où X ∼ N (0, 1). Or, ∞ 2 2 1 √ e−(x −2t1 x−2t2 x )/2 dx −∞ 2π Z ∞ 2 1 √ e−[(1−2t2 )x −2t1 x]/2 dx = −∞ 2π Z ∞ 1 1 − 2t2 2 2t1 √ = exp − x − x dx 2 1 − 2t2 −∞ 2π h i Z 2 E e t1 X + t2 X = 58 Solutions et, en complétant le carré dans l’expression entre parenthèses, h E e t1 X + t2 X 2 i ( )Z ∞ t21 1 √ = exp 2(1 − 2t2 ) −∞ 2π ( 2 ) 1 2t1 t1 2 × exp − x − x+ dx 1 − 2t2 1 − 2t2 2(1 − 2t2 )−1 ( )Z ∞ t21 1 √ = exp 2(1 − 2t2 ) −∞ 2π ( 2 ) 1 t1 × exp − dx x− 1 − 2t2 2(1 − 2t2 )−1 ( ) t21 −1/2 = (1 − 2t2 ) exp , 2(1 − 2t2 ) d’où 1 exp MY1 Y2 (t1 , t2 ) = 1 − 2t2 ( t21 1 − 2t2 ) , 1 −∞ < t1 < ∞, −∞ < t2 < . 2 2.8 La transformation de variables aléatoires est définie par les systèmes d’équations suivants : x1 x1 + x2 x1 + x2 y2 = x1 + x2 + x3 y3 = x1 + x2 + x3 y1 = x1 = y1 y2 y3 x2 = (1 − y1 ) y2 y3 x3 = y3 − y2 y3 . La distribution conjointe des variables aléatoires Y1 , Y2 et Y3 est f Y1 Y2 Y3 (y1 , y2 , y3 ) = f X1 X2 X3 (y1 y2 y3 , (1 − y1 )y2 y3 , y3 − y2 y3 )| J |, où 3 f X1 X2 X3 ( x1 , x2 , x3 ) = ∏ f Xi ( xi ) = e−( x1 + x2 + x3 ) . i =1 et ∂x1 /∂y1 ∂x1 /∂y2 ∂x1 /∂y3 J = ∂x2 /∂y1 ∂x2 /∂y2 ∂x2 /∂y3 ∂x3 /∂y1 ∂x3 /∂y2 ∂x3 /∂y3 y2 y3 y1 y3 y1 y2 = −y2 y3 y3 − y1 y3 y2 − y1 y2 0 − y3 1 − y2 = y2 y23 . Solutions 59 Ainsi, f Y1 Y2 Y3 (y1 , y2 , y3 ) = e−(y1 y2 y3 +y2 y3 −y1 y2 y3 +y3 −y2 y3 ) |y2 y23 | = y2 y23 e−y3 , y1 , y2 , y3 > 0. Puisque la densité conjointe est le produit de trois fonctions g1 (y1 ) = 1, g2 (y2 ) = y2 et g3 (y3 ) = y23 e−y3 (qui ne sont pas nécessairement les densités marginales), alors les variables aléatoires Y1 , Y2 et Y3 sont stochastiquement indépendantes. On pourrait aussi calculer densités mariginales et vérifier que leur produit égale à la densité conjointe. Il est laissé en exercice de vérifier que e−y3 y23 2 f Y2 (y2 ) = 2y2 f Y3 (y3 ) = f Y1 (y1 ) = 1, d’où le résultat. 2.9 a) On a X ∼ N (µ, σ2 ) et Y = e X . On sait que x−µ FX ( x ) = Φ . σ Or, par la technique de la fonction de répartition, on trouve FY (y) = Pr[e X ≤ y] = Pr[ X ≤ ln(y)] = FX (ln(y)) ln(y) − µ =Φ σ et 1 f X (ln(y)) y 1 ln(y) − µ φ . = σy σ FY (y) = b) On a simplement E[Y k ] = E[ekX ] = MX (k ) = ekµ+k 2 σ2 /2 , où MX (t) est la fonction génératrice des moments de la variable aléatoire X. 60 Solutions 2.10 On pose Y1 = X1 /X2 et, tel que suggéré dans l’énoncé, Y2 = X2 . Les relations inverses sont X1 = Y1 Y2 et X2 = Y2 . La distribution conjointe de Y1 et Y2 est donc f Y1 Y2 (y1 , y2 ) = f X1 X2 (y1 y2 , y2 )| J |, avec f X1 X2 ( x 1 , x 2 ) = 1 −( x2 + x2 )/2 e 1 2 2π et y J = 2 0 y1 = y2 . 1 Ainsi, f Y1 Y2 (y1 , y2 ) = f X1 X2 (y1 y2 , y2 )|y2 | = |y2 | −(y2 y2 +y2 )/2 e 1 2 2 . 2π Il ne reste qu’à intégrer pour trouver la densité marginale de Y1 : Z ∞ |y2 | −(1+y2 )y2 /2 1 2 f Y1 (y1 ) = e dy2 −∞ 2π Z 0 y2 −(1+y2 )y2 /2 1 2 e dy2 + −∞ 2π Z ∞ y2 −(1+y2 )y2 /2 1 2 =2 e dy2 0 2π 1 = , π (1 + y21 ) =− Z ∞ y2 −(1+y2 )y2 /2 1 2 e dy 0 2π 2 d’où Y1 = X1 /X2 ∼ Cauchy. 2.11 a) Puisque la loi t est symétrique autour de zéro, on a Pr[| T | > 2,228] = Pr[ T > 2,228] + Pr[ T < −2,228] = 2Pr[ T > 2,228]. Or, on trouve dans la table de la loi t de l’annexe C que Pr[ T ≤ 2,228] = 0,975 si T ∼ t(10). Par conséquent, Pr[| T | > 2,228] = 2(1 − 0,975) = 0,05. b) Toutes les fonction R servant à évaluer des fonctions de répartition ont un argument lower.tail. Ce argument est TRUE par défaut, mais lorsque qu’il est FALSE, la fonction retourne la probabilité au-dessus du point x. Ainsi, la probabilité cherchée ici est Solutions 61 > 2 * pt(2.228, 10, lower.tail = FALSE) [1] 0.05001177 Il est recommandé d’utiliser cette approche parce qu’elle est, de manière générale, plus précise que le calcul du type 1 - pt(x, n), surtout loin dans les queues des distributions. 2.12 a) Par symétrie de la loi t, Pr[−b < T < b] = Pr[ T < b] − Pr[ T < −b] = Pr[ T < b] − (1 − Pr[ T < b]) = 2Pr[ T < b] − 1 = 0,90. On cherche donc la valeur de b tel que Pr[ T < b] = (1 + 0,90)/2 = 0,95, où T ∼ t(14). Dans la table de la loi t de l’annexe C on trouve que b = 1,761. b) En définitive, on cherche le 95e centile d’une loi t(14). Avec R, on obtient > qt(0.95, 14) [1] 1.76131 2.13 a) La fonction de densité de la loi t avec r degrés de liberté est Γ((r + 1)/2) 1 f (t) = √ . 2 πr Γ(r/2) (1 + t /r )(r+1)/2 √ Si r = 1, et puisque Γ(1) = 1 et que Γ( 21 ) = π, la densité se simplifie en Γ (1) f (t) = √ π Γ(1/2)(1 + t2 ) 1 = , π (1 + t2 ) qui est la densité de la loi de Cauchy. b) En ne tenant pas compte, tel que suggéré dans l’énoncé, des constantes dans la densité de la loi t, on a −(r+1)/2 t2 lim f (t) ∝ lim 1 + r →∞ r →∞ r " r #−1/2 −1/2 t2 t2 = lim 1+ 1+ r →∞ r r 2 = (et )−1/2 (1) = e−t 2 /2 , qui est, à une constante près, la densité de la loi normale centrée réduite. 62 Solutions 2.14 On sait que si Z ∼ N (0, 1), alors Y = Z2 ∼ χ2 (1). Ainsi, E[ Z4 ] = E[Y 2 ] et donc le quatrième moment de la normale centrée réduite est simplement le second moment de la khi carré. Or, E[Y 2 ] = Var[Y ] + E[Y ]2 = 2 + 1 = 3, d’où le coefficient d’applatissement de la loi normale est γ2 ( Z ) = 3 − 3 = 0. 2.15 a) On a U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ). On pose F = (U/r1 )/(V/r2 ) et, disons, G = V. Pour trouver la densité (marginale) de F, il faudra passer par la densité conjointe de F et G. Les équations régissant la transformation de variables aléatoires sont r r2 u u = 1 xy x= r1 v r2 y=v v = y. Ainsi, le jacobien de la transformation est r1 y/r2 r1 x/r2 r1 = y J= 0 1 r2 et la densité conjointe de F et G est r1 r1 f FG ( x, y) = f UV xy, y y r2 r2 r1 r1 = y fU xy f V (y) r2 r2 = (r1 /r2 )(1/2)(r1 +r2 )/2 (r1 xy/r2 )r1 /2−1 yr2 /2 e−(r1 x/r2 +1)y/2 Γ(r1 /2)Γ(r2 /2) pour x > 0 et y > 0. En intégrant, on trouve la densité marginale de F: f F (x) = Z ∞ 0 f FG ( x, y) dy (r1 /r2 )(r1 +r2 )/2 xr1 /2−1 Γ(r1 /2)Γ(r2 /2) Z ∞ (r1 +r2 )/2 1 × y(r1 +r2 )/2−1 e−(r1 x/r2 +1)y/2 dy 2 0 = = Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1 Γ(r1 /2)Γ(r2 /2)(r1 x/r2 + 1)(r1 +r2 )/2 × Z ∞ (1/2)(r1 +r2 )/2 (r1 x/r2 + 1)(r1 +r2 )/2 (r1 +r2 )/2−1 −(r1 x/r2 +1)y/2 y e dy 0 = Γ((r1 + r2 )/2) Γ((r1 + r2 )/2)(r1 /r2 )r1 /2 xr1 /2−1 , Γ(r1 /2)Γ(r2 /2)(1 + r1 x/r2 )(r1 +r2 )/2 Solutions 63 puisque l’intégrande ci-dessus est la densité d’une loi gamma. La loi de la variable aléatoire F est appelée loi F avec r1 et r2 degrés de liberté. b) Par indépendance entre les variables aléatoires U et V, on a E[ F ] = E r2 r1 r = 2 r1 = U/r1 V/r2 U E V 1 E [U ] E . V Or, E[U ] = r1 et Z ∞ 1 1 E = f V (v) dv V 0 v Z ∞ 1 = vr2 /2−1−1 e−v/2 dv r /2 2 2 Γ (r2 /2) 0 = 2r2 /2−1 Γ(r2 /2 − 1) , 2r2 /2 Γ(r2 /2) r2 − 1 > 0. 2 Avec la propriété de la fonction gamma Γ( x ) = ( x − 1)Γ( x − 1), cette expression se simplifie en E 1 1 = , V r2 − 2 d’où, enfin, E[ F ] = r2 r2 − 2 pour r2 > 2. c) En procédant comme en b), on trouve que E[U 2 ] = Var[U ] + E[U ]2 = 2r1 + r12 , que 1 1 E 2 = (r2 − 2)(r2 − 4) V et donc que h i r2 1 E F2 = 22 E[U 2 ] E 2 V r1 = r22 (r1 + 2) . r1 (r2 − 2)(r2 − 4) 64 Solutions Par conséquent, 2 r22 (r1 + 2) r2 Var[ F ] = − r1 (r2 − 2)(r2 − 4) r2 − 2 2 r2 r2 + r1 − 2 =2 , r2 − 2 r1 (r2 − 4) pour r2 > 4. 2.16 On a U/r1 V/r2 V/r2 = U/r1 1 = F −1 où U ∼ χ2 (r1 ) et V ∼ χ2 (r2 ). Puisqu’il s’agit d’un ratio de deux variables aléatoires χ2 divisées chacune par son nombre de degrés de liberté, on a donc que 1 ∼ F (r2 , r1 ). F 2.17 On a F ∼ F (5, 10) et l’on cherche a et b tel que Pr[ F ≤ a] = 0,05 et Pr[ F ≤ b] = 0,95. Dans une table de loi F, on trouve que Pr[ F ≤ 3,326] = 0,95 et donc que b = 3,326. Puisque les quantiles inférieurs ne sont pas inclus dans la table de l’annexe D, on doit utiliser pour trouver a la relation Pr[ F ≤ a] = 1 − Pr[ F −1 ≤ a−1 ] où, tel que démontré à l’exercice 2.16, F −1 ∼ F (10, 5). Dans une table, on trouve que a−1 = 4,74, d’où a = 0,211. Avec R, on obtient les mêmes résultats encore plus simplement : > qf(c(0.05, 0.95), 5, 10) [1] 0.2111904 3.3258345 2.18 On sait que W 2 ∼ χ2 (1). Ainsi, T2 = W 2 /1 , V/r qui est un ratio de deux variables aléatoires χ2 divisées par leur nombre de degrés de liberté. Par définition de la loi F, on a donc que T 2 ∼ F (1, r ). 2.19 Par la technique de la fonction de répartition, FY (y) = Pr[Y ≤ y] 1 = Pr ≤y 1 + r1 F/r2 1 r = Pr F ≥ −1 2 y r1 1 r = 1 − FF −1 2 . y r1 Solutions 65 En dérivant, on trouve que la fonction de densité de la variable aléatoire Y est f Y (y) = r2 r1 1 y2 fF 1 −1 y r2 r1 , soit, en posant a = r1 /2 et b = r2 /2, Γ( a + b)( ba ) a ( ba ) a y−2 (y−1 − 1) a−1 Γ( a)Γ(b) [1 + (y−1 − 1)] a+b Γ ( a + b ) b −1 = y (1 − y ) a −1 , Γ( a)Γ(b) f Y (y) = d’où Y ∼ Bêta(b, a). 2.20 a) On a f X |Θ ( x |θ ) = θe−θx , x>0 et uΘ (θ ) = λα α−1 −λθ θ e , Γ(α) θ > 0. Par conséquent, f X (x) = Z ∞ 0 f X |Θ ( x |θ )uΘ (θ ) dθ ∞ λα θ α+1−1 e−( x+λ)θ dθ Γ(α) 0 Γ ( α + 1) λ α = Γ(α)( x + λ)α+1 αλα = , ( λ + x ) α +1 = Z d’où X ∼ Pareto(α, λ). Pour passer de la seconde à la troisième égalité, ci-dessus, il faut identifier l’intégrande comme la densité d’une loi Gamma(α + 1, x + λ), à une constante près. b) Dans la mesure où l’on connaît la distribution marginale de X, on sait immédiatement que E[ X ] = α/(λ − 1). On aurait aussi pu passer par l’espérance conditionnelle, technique qui ne requiert pas de connaître 66 Solutions la distribution marginale : E[ X ] = E[ E[ X |Θ]] 1 =E Θ Z ∞ 1 = uΘ (θ ) dθ 0 θ Z ∞ λα θ α−1−1 e−λθ dθ = Γ(α) 0 λ α Γ ( α − 1) = α −1 λ Γ(α) λ = . α−1 Chapitre 3 3.1 On sait que X̄ ∼ N ( E[ X̄ ], Var[ X̄ ]) avec E[ X̄ ] = E[ X ] = 10 et Var[ X̄ ] = Var[ X ]/n = 125/5 = 5. Par conséquent, X̄ − 10 c − 10 √ < √ 25 25 = Pr[ Z < zα ] Pr[ X̄ < c] = Pr =1−α avec Z ∼ N (0, 1) et zα = (c − 10)/5. Ici, on a 1 − α = 0,90. On trouve dans une table de quantiles de la loi normale que z0,10 = 1,282, d’où c = 16,41. 3.2 On a E[ X̄ ] = E[ X ] = µ, Var[ X̄ ] = Var[ X ]/n = 100/n et X̄ ∼ N (µ, 100/n). Ainsi, on cherche n tel que 5 X̄ − µ 5 √ < √ < √ Pr[µ − 5 < X̄ < µ + 5] = Pr − 10/ n 10/ n 10/ n √ √ 5 n 5 n =Φ −Φ − 10 10 √ 5 n = 2Φ −1 10 = 0,954, soit √ 5 n Φ = 0,977. 10 √ On trouve dans une table de loi normale que 5 n/10 = 2, d’où n = 16. Solutions 67 3.3 On a X̄ ∼ N (0, 16/25), Ȳ ∼ N (1, 9/25) et, par conséquent, X̄ − Ȳ ∼ N (−1, 1). On a donc Pr[ X̄ > Ȳ ] = Pr[ X̄ − Ȳ > 0] X̄ − Ȳ − (−1) 0 − (−1) √ √ = Pr > 1 1 = 1 − Φ (1) = 0,159. 3.4 Soit α Y= ∑ Xi i =1 avec Xi ∼ Exponentielle(λ) et X1 , . . . , Xα indépendantes. Par le Théorème central limite, α ∑ Xi ∼ N (αE[Xi ], αVar[Xi ]). α→∞ lim Y = lim α→∞ i =1 Par conséquent, α α . , α→∞ λ λ2 On trouve à la figure E.3 les graphiques de densités gamma pour quelques valeurs du paramètre α. On observe, en effet, que la distribution tend vers une normale lorsque α augmente. lim Y ∼ N 3.5 a) On a l’échantillon aléatoire X1 , . . . , X100 , où 50 1 2 Xi ∼ χ (50) ≡ Gamma , , 2 2 i = 1, . . . , 100. Or, on sait que Y = X1 + · · · + X100 ∼ Gamma(100(25), 1/2) et que X̄ = Y/100 ∼ Gamma(2 500, 100/2). b) On peut, par exemple, obtenir la probabilité demandée avec R ainsi : > pgamma(51, 2500, 50) - pgamma(49, 2500, 50) [1] 0.6827218 c) On a E[ X̄ ] = 2 500/50 = 50 et Var[ X̄ ] = 2 500/502 = 1. En utilisant l’approximation normale, on trouve 49 − 50 X̄ − 50 51 − 50 Pr[49 < X̄ < 51] = Pr < < 1 1 1 ≈ Φ(1) − Φ(−1) = 2Φ(1) − 1 = 0,682. On trouve la valeur de Φ(1) dans une table de quantiles de la loi normale ou à l’aide d’un logiciel statistique. 68 Solutions 0.08 0.06 0.04 0.00 0.02 dgamma(x, α, 1) 0.10 0.12 α = 10 α = 20 α = 50 0 20 40 60 80 100 x Fig. E.3: Densités de lois gamma pour quelques valeurs du paramètre de forme α. 3.6 Puique l’on ne demande qu’une valeur approximative pour Pr[7 < X̄ < 9], on va utiliser l’approximation normale. La taille de l’échantillon étant relativement grande, l’approximation sera très bonne. Soit X̄ = ( X1 + · · · + X128 )/128, où Xi ∼ Gamma(2, 14 ), i = 1, . . . , 128. On a E[ X̄ ] = E[ Xi ] = 8 et Var[ X̄ ] = Var[ Xi ]/128 = 1/4. Par conséquent, 7−8 X̄ − 8 9−8 Pr[7 < X̄ < 9] = Pr √ <√ <√ 1/4 1/4 1/4 ≈ Φ(2) − Φ(−2) = 2Φ(2) − 1 = 0,954. On trouve la valeur de Φ(2) dans une table de quantiles de la loi normale ou à l’aide d’un logiciel statistique. 3.7 On souhaitera utiliser l’approximation normale. Cela requiert de connaître les valeurs de l’espérance et de la variance de la moyenne de l’échantillon, Solutions 69 X̄, et, par ricochet, celles de la variable aléatoire avec densité f ( x ). Or, Z 1 3 4 Z 1 3 E[ X 2 ] = 3x4 dx = 5 0 E[ X ] = 0 3x3 dx = et donc Var[ X ] = 3/80. Ainsi, E[ X̄ ] = E[ X ] = 3/4 et Var[ X̄ ] = Var[ X ]/15 = 1/400 et X̄ − 3/4 4/5 − 3/4 3 4 3/5 − 3/4 < √ < √ Pr < X̄ < = Pr √ 5 5 1/400 1/400 1/400 ≈ Φ(1) − Φ(−3) = 0,840. 3.8 On sait que nS2 /σ2 ∼ χ2 (n − 1), que l’espérance d’une loi χ2 est égale à son nombre de degrés de liberté et que sa variance est égale à deux fois son nombre de degrés de liberté. On a donc 2 nS σ2 E E [ S2 ] = n σ2 = ( n − 1) σ 2 n et 2 σ4 nS Var[S ] = 2 Var n σ2 2 = 2( n − 1) σ 4 n2 3.9 On sait que nS2 /σ2 ∼ χ2 (n − 1). Soit Y ∼ χ2 (5). On a donc, 6(2,30) 6S2 6(22,2) 2 Pr[2,30 < S < 22,2] = Pr < < 12 12 12 = Pr[1,15 < Y < 11,1] = Pr[Y < 11,1] − Pr[Y < 1,15]. On trouve dans une table de quantiles de la loi khi carré (ou avec la fonction qchisq dans R, par exemple) que Pr[Y < 11,1] = 0,95 et Pr[Y < 1,15] = 0,05. Par conséquent, Pr[2,30 < S2 < 22,2] = 0,90. 3.10 Puisque X(1) est la plus petite valeur de l’échantillon, on a que FX(1) ( x ) = Pr[ X(1) ≤ x ] = 1 − Pr[ X(1) > x ] = 1 − Pr[ X1 > x, X2 > x, . . . , Xn > x ]. 70 Solutions Or, les variables aléatoires X1 , . . . , Xn sont indépendantes et identiquement distribuées, d’où FX(1) ( x ) = 1 − Pr[ X1 > x ]Pr[ X2 > x ] · · · Pr[ Xn > x ] = 1 − (Pr[ X > x ])n = 1 − (1 − FX ( x ))n . 3.11 On cherche la probabilité que la plus grande valeur de l’échantillon soit supérieure à 3, soit le complément de la probabilité que toutes les valeurs de l’échantillon soient inférieures à 3 : Pr[ X(4) > 3] = 1 − Pr[ X(4) ≤ 3] = 1 − Pr[ X1 ≤ 3]Pr[ X2 ≤ 3]Pr[ X3 ≤ 3]Pr[ X4 ≤ 3] = 1 − ( FX (3))4 . Or, on aura reconnu en f ( x ) la densité d’une loi exponentielle de paramètre λ = 1. Par conséquent, FX ( x ) = 1 − e− x et Pr[ X(4) > 3] = 1 − (1 − e −3 )4 . 3.12 Soit m la médiane de la distribution. On cherche Pr[ X(1) > m]. Avec le résultat de l’exercice 3.10, Pr[ X(1) > m] = 1 − Pr[ X(1) ≤ m] = 1 − FX(1) (m) = 1 − (1 − (1 − FX (m))3 ) = (1 − FX (m))3 1 = , 8 car FX (m) = 1 − FX (m) = 1/2 par définition de la médiane. Le type de distribution ne joue donc aucun rôle dans cet exercice. 3.13 On a que X est distribuée uniformément sur {1, . . . , 6}, d’où FX ( x ) = x/6, x = 1, . . . , 6. De l’exercice 3.10, on a que FX(1) ( x ) = 1 − (1 − FX ( x ))5 x 5 . =1− 1− 6 Solutions 71 Par conséquent, la fonction de masse de probabilité du minimum est Pr[ X(1) = x ] = lim FX(1) (y) − lim FX(1) (y) y→ x− y→ x+ = FX(1) ( x ) − FX(1) ( x − 1) 5 x−1 5 x = 1− − 1− 6 6 5 5 7−x 6−x = − . 6 6 3.14 De l’exercice 3.10, on a FX(1) ( x ) = 1 − (1 − FX ( x ))n = 1 − (e−(λx) )n τ = 1 − e−(n 1/τ λx )τ , 1 d’où X(1) ∼ Weibull(n τ λ, τ ). Ainsi, la fonction de densité de probabilité du minimum de l’échantillon est f X(1) ( x ) = nλτx τ −1 e−(n et l’espérance est E [ X (1) ] = 1/τ λx )τ Γ(1 + 1/τ ) 1 nτ λ . 3.15 Soit R l’étendue de l’échantillon aléatoire. On sait que f R ( x ) = n ( n − 1 ) x n −2 (1 − x ). Par conséquent Z 1/2 1 Pr R ≤ = f X ( x ) dx 2 0 = (4)(3) = Z 1/2 0 x2 (1 − x ) dx 5 . 16 3.16 On a que X ∼ Bêta(1, 2), c’est-à-dire que f X ( x ) = 2(1 − x ), 0 < x < 1. Soit X1 , X2 un échantillon aléatoire tiré de cette densité. Par indépendance, on a f X1 X2 ( x 1 , x 2 ) = f X1 ( x ) f X2 ( x ) = 4(1 − x1 )(1 − x2 ). 72 Solutions On cherche Pr[ X2 ≥ 2X1 ∪ X1 ≥ 2X2 ]. Par définition, Pr[ X1 ≥ 2X2 ∪ X2 ≥ 2X1 ] = ZZ f X1 X2 ( x1 , x2 ) dx2 dx1 , R où R est la région du domaine de définition de f X1 X2 telle que x1 > 2x2 ou x2 > 2x1 . Cette région est représentée à la figure E.4. On a donc Pr[ X1 ≥ 2X2 ∪ X2 ≥ 2X1 ] = 4 Z 1/2 Z 1 0 (1 − x1 )(1 − x2 ) dx2 dx1 2x1 Z 1/2 Z 1 (1 − x1 )(1 − x2 ) dx1 dx2 1 =4 (1 − x1 ) − 2x1 + 2x12 dx1 2 0 Z 1/2 1 +4 − 2x2 + 2x22 dx2 (1 − x2 ) 2 0 7 = . 12 +4 0 Z 1/2 2x2 3.17 Soit T = ( X(1) + X(n) )/2 la mi-étendue et R l’étendue. On sait que f RT (r, t) = n(n − 1)r n−2 . On doit calculer la densité marginale de T. Il faut voir que le domaine de R (et donc le domaine d’intégration) dépend indirectement de T. En effet, si 0 ≤ t ≤ 1/2, on doit avoir 0 < r < 2t. Par contre, si 1/2 < t < 1, il faut que 0 < r < 2(1 − t). On obtient ( n(2t)n−1 , 0 < t < 1/2 f T (t) = n(2(1 − t))n−1 , 1/2 < t < 1. Ainsi, E [ T ] = 2n −1 n =2 n −1 0 n 1/2 Z tn dt + Z 1 1/2 0,5n+1 t(1 − t)n−1 dt n+2 + n+1 n ( n + 1) 1 2n +1 1 = . 2 3.18 On a d’abord les résultats suivants : Xi ∼ U (0, 1), X(1) ∼ Bêta(1, n), X(n) ∼ Bêta(n, 1) et f X(1) X(n) ( x, y) = n(n − 1)(y − x )n−2 . Ainsi, Z 1 Z 1 h i E X (1) X ( n ) = n ( n − 1 ) x y(y − x )n−2 dy dx. 0 x 73 0.0 0.2 0.4 x2 0.6 0.8 1.0 Solutions 0.0 0.2 0.4 0.6 0.8 1.0 x1 Fig. E.4: Domaine de définition de f X1 X2 ( x1 , x2 ) = 4(1 − x1 )(1 − x2 ), x1 , x2 ∈ (0, 1). Les zones hachurées représentent les aires où x2 > 2x1 ou x1 > 2x2 . L’intégrale intérieure ci-dessus se résoud par parties en posant u = y et dv = (y − x )n−2 dy. On obtient alors Z 1 Z 1 h i ( y − x ) n −1 y 1 − E X (1) X ( n ) = n ( n − 1 ) x (y − x )n−1 dy dx n−1 n−1 x 0 =n Z 1 0 x (1 − x )n−1 dx − Z 1 1 1 − n + 1 (n + 1)(n + 2) 1 = , n+2 = 0 x (1 − x )n dx 74 Solutions en intégrant une seconde fois par parties. Par conséquent, h i h i h i Cov X(1) , X(n) = E X(1) X(n) − E X(1) E X(n) 1 1 n = − n+2 n+1 n+1 1 . = ( n + 1)2 ( n + 2) a) On a h i h i E [ R ] = E X ( n ) − E X (1) n 1 − n+1 n+1 n−1 = n+1 = et h i h i Var[ R] = Var X(1) + Var X(n) − 2 Cov X(1) , X(n) n n 2 + − ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) 2n − 2 . = ( n + 1)2 ( n + 2) = b) On a E[ T ] = h i h i E X (1) + E X ( n ) 1 = 2 1 = 2 2 n 1 + n+1 n+1 et Var[ T ] = h i h i Var X(1) + Var X(n) + 2 Cov X(1) , X(n) 4 1 n n 2 = + + 4 ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) ( n + 1)2 ( n + 2) 1 = . ( n + 1)2 ( n + 2) Solutions 75 Chapitre 4 4.1 a) On a une une distribution de Poisson de paramètre θ, d’où E[ X ] = θ. L’estimateur des moments est donc θ̂ = X̄. b) La densité est celle d’une distribution bêta de paramètres θ et 1. Ainsi, E[ X ] = θ/(θ + 1) et en posant θ = X̄ θ+1 on trouve que l’estimateur des moments de θ est θ̂ = X̄ . 1 − X̄ c) On reconnaît la densité d’une distribution gamma de paramètres 1 et θ −1 . Ainsi, on sait que E[ X ] = θ, d’où l’estimateur des moments est θ̂ = X̄. d) Cette densité est celle de la loi de Laplace. On a Z θ Z ∞ 1 E[ X ] = xe x−θ dx + xe− x+θ dx 2 −∞ θ 1 = (2θ ) 2 = θ. L’estimateur des moments de θ est donc θ̂ = X̄. e) On a la densité d’une exponentielle de paramètre 1 translatée de θ vers la droite. Par conséquent, E[ X ] = θ + 1, un résultat facile à vérifier en intégrant. En posant θ + 1 = X̄, on trouve facilement que θ̂ = X̄ − 1. 4.2 Dans tous les cas, la fonction de vraisemblance est L(θ ) = ∏in=1 f ( xi ; θ ) et la fonction de log-vraisemblance est l (θ ) = ln L(θ ) = ∑in=1 ln f ( xi ; θ ). L’estimateur du maximum de vraisemblance du paramètre θ est la solution de l’équation l 0 (θ ) = 0. a) On a n e−nθ θ ∑i=1 xi L(θ ) = , ∏in=1 xi ! n n i =1 i =1 l (θ ) = −nθ + ∑ xi ln(θ ) − ∑ ln( xi !) et l 0 (θ ) = −n + ∑in=1 xi . θ En résolvant l’équation l 0 (θ ) = 0 pour θ, on trouve que l’estimateur du maximum de vraisemblance est θ̂ = X̄. 76 Solutions b) On a n ∏ xi L(θ ) = θ n ! θ −1 , i =1 n l (θ ) = n ln(θ ) + (θ − 1) ∑ ln( xi ) i =1 et l 0 (θ ) = n n + ∑ ln( xi ). θ i =1 On trouve donc que θ̂ = − n ∑in=1 ln( Xi ) =− n . ln( X1 · · · Xn ) c) On a n L(θ ) = θ −n e− ∑i=1 xi /θ , l (θ ) = −n ln(θ ) − ∑in=1 xi θ et l 0 (θ ) = − On obtient que θ̂ = X̄. d) On a n ∑in=1 xi . + θ θ2 n n 1 e − ∑ i =1 | x i − θ | L(θ ) = 2 La présence de la valeur absolue rend cette fonction non différentiable en θ. On remarque que la fonction de vraisemblance sera maximisée lorsque l’expression ∑in=1 | xi − θ | sera minimisée. Par analogie avec le résultat de l’exercice 1.18, on établit que θ̂ = med( X1 , . . . , Xn ). e) On remarque que le support de la densité dépend du paramètre θ. Dans de tels cas, la technique usuelle de maximisation de la fonction de vraisemblance n’est d’aucune utilité. D’ailleurs, on a n L(θ ) = enθ −∑i=1 xi et on voit que la fonction de vraisemblance est strictement croissante en fonction de θ, ce qui indique de choisir une valeur de θ la plus grande possible. Par contre, on a la contrainte x ≥ θ, c’est-à-dire que θ doit être plus inférieur ou égal à la plus petite valeur de l’échantillon. Par conséquent, θ̂ = min( X1 , . . . , Xn ) = X(1) . Solutions 77 4.3 a) On a X = Z + µ où Z ∼ Exponentielle(λ). Alors, FX ( x ) = Pr[ Z + µ ≤ x ] = FZ ( x − µ) = 1 − e−λ( x −µ) , x>µ et f X ( x ) = λe−λ( x−µ) , x > µ. b) On a simplement E[ X ] = E[ Z + µ] = E[ Z ] + µ 1 = +µ λ et Var[ X ] = Var[ Z + µ] = Var[ Z ] 1 = 2. λ c) On a n L(µ,λ) = λn e−λ ∑i=1 ( xi −µ) n l (µ,λ) = n ln(λ) − λ ∑ ( xi − µ) i =1 et n ∂l (µ,λ) n = − ∑ ( xi − µ ) , ∂λ λ i =1 d’où λ= n ∑in=1 ( xi − µ) . On voit que la fonction de vraisemblance est strictement croissante en fonction de µ. Ainsi, il faut prendre la valeur de µ la plus grande possible en respectant la condition dictée par la densité de l’exponentielle translatée, x ≥ µ. On a donc µ̂ = X(1) λ̂ = n . − x (1) ) ∑in=1 ( xi 78 Solutions d) On a, par exemple, les résultats suivants pour une exponentielle translatée de paramètres µ = λ−1 = 1 000 : > x <- rexp(100, rate = 0.001) + 1000 > min(x) [1] 1009.415 > 100/sum(x - min(x)) [1] 0.001052481 Les estimations obtenues sont près des vraies valeurs des paramètres, même pour un relativement petit échantillon de taille 100. 4.4 Il est clair ici que, comme f ( x; θ ) = 1, on ne pourra pas utiliser la technique habituelle pour calculer l’estimateur du maximum de vraisemblance. Il faut d’abord déterminer l’ensemble des valeurs de θ possibles selon l’échantillon obtenu. Comme toutes les données de l’échantillon doivent se trouver dans l’intervalle [θ − 1/2, θ + 1/2], on a θ ≥ X(n) − 1/2 et θ ≤ X(1) + 1/2. De plus, puisque X(n) − X(1) ≤ 1, on a que X(n) − 1/2 ≤ θ ≤ X(1) + 1/2. Ainsi, toute statistique satisfaisant ces inégalités est un estimateur du maximum de vraisemblance de θ. On a donc que X( n ) − 1 1 ≤ T ( X1 , . . . , Tn ) ≤ X(1) + . 2 2 4.5 On a L(µ,λ) = λ 2π n/2 n 1 ∏ x3 i =1 i !1/2 ( λ n ( x − µ )2 exp − ∑ i 2 2 i =1 µ x i ) . Il est plus simple de trouver d’abord l’estimateur du maximum de vraisemblance du paramètre µ. On constate qu’il s’agit de la valeur qui minimise la somme dans l’exponentielle. Or, n ∂ n ( x i − µ )2 2 xi = − − 1 . ∑ µ2 x i µ ∂µ i∑ µ2 x i =1 i =1 En posant n ∑ i =1 xi − 1 = 0, µ on trouve que µ̂ = X̄. Pour trouver l’estimateur du maximum de vraisemblance de λ, on établit d’abord que L(µ̂, λ) ∝ λn/2 e−λH , où n ( xi − x̄ )2 2x̄2 xi i =1 1 n 1 1 = ∑ − . 2 i =1 x i x̄ H= ∑ Solutions 79 On obtient donc λ̂ = = n 2H n ∑in=1 Xi−1 − X̄ −1 . 4.6 Pour obtenir l’estimateur des moments de θ, on pose E[ X ] = d’où θ̂ = 1−θ = X̄, θ 1 . X̄ + 1 La moyenne de l’échantillon est x̄ = 64/10 = 3,2. On a donc θ̂ = 1 = 0,2381. 4,2 4.7 a) Il s’agit ici de trouver l’estimateur des moments du paramètre θ d’une distribution uniforme discrète sur 1, 2, . . . , θ, c’est-à-dire que Pr[ X = x ] = 1/θ pour x = 1, . . . , θ. En posant E[ X ] = θ+1 = X̄, 2 on trouve facilement que l’estimateur des moments de θ est θ̂ = 2X̄ − 1. b) Avec x1 = x2 = x3 = 3 et x4 = 12, on a θ̂ = 2(3 + 3 + 3 + 12)/4 − 1 = 9,5. Or, cet estimateur est absurde puisque, en ayant pigé la boule 12, on sait qu’il y a au moins douze boules dans l’urne ! En d’autres termes, 9,5 est une valeur de θ impossible. On constate que l’estimateur obtenu à l’aide de la méthode des moments n’est pas toujours un estimateur possible. 4.8 La fonction de vraisemblance est L( a, b) = 1 b−a n pour a < x1 , . . . , xn < b. Pour maximiser cette fonction, il faut minimiser la quantité b − a en choisissant une valeur de b la plus petite possible et une valeur de a la plus grande possible. Étant donné le support de la distribution, on a choisit donc â = min( X1 , . . . , Xn ) et b̂ = max( X1 , . . . , Xn ). 4.9 a) La distribution de X est une Bernoulli avec une restriction sur la valeur du paramètre θ. On a donc que E[ X ] = θ. L’estimateur des moments de θ est donc θ̃ = X̄. 80 Solutions Pour l’estimateur du maximum de vraisemblance, on a, en posant y = ∑in=1 xi , L ( θ ) = θ y (1 − θ ) n − y , l (θ ) = y ln(θ ) + (n − y) ln(1 − θ ) et y (n − y) − θ 1−θ y − nθ = θ (1 − θ ) n x̄ − nθ . = θ (1 − θ ) l 0 (θ ) = Ainsi, la log-vraisemblance est croissante pour θ ≤ x̄ et décroissante pour θ > x̄ (voir la figure E.5). Le maximum est donc atteint en x̄. Cependant, puisque 0 ≤ θ ≤ 1/2 on doit avoir θ̂ ≤ 1/2. On a donc θ̂ = min( X̄, 1/2). b) Premièrement, on remarque que Y = ∑in=1 Xi = n X̄ ∼ Binomiale(n, θ ) avec 0 ≤ θ ≤ 1/2. Deuxièmement, on sait que MSE(θ̂ ) = Var[θ̂ ] + b(θ̂ )2 , où θ̂ est un estimateur quelconque d’un paramètre θ et b(θ̂ ) = E[θ̂ ] − θ est le biais de l’estimateur. Pour l’estimateur des moments θ̃ = Y/n, on a Var[Y ] + b(Y/n)2 n2 θ (1 − θ ) = , n MSE(θ̃ ) = puique E[Y/n] = θ. Pour l’estimateur du maximum de vraisemblance ( Y , Y ≤ n2 θ̂ = 1n Y > n2 , 2, il est plus simple de développer l’erreur quadratique moyenne ainsi : MSE(θ̂ ) = E[(θ̂ − θ )2 ] n = ∑ (θ̂ − θ )2 Pr[Y = y] y =0 [n/2] 2 n y − θ θ y (1 − θ ) n − y ∑ n y y =0 2 n 1 n y + −θ θ (1 − θ ) n − y . ∑ 2 y y=[n/2]+1 = 81 −16 −14 −12 l(θ) −10 −8 −6 Solutions 0.0 0.1 0.2 0.3 0.4 0.5 θ Fig. E.5: Graphique de la fonction de log-vraisemblance de l’exercice 4.9 pour n = 10 et y = 3. c) On compare les erreurs quadratiques moyennes des deux estimateurs. Soit 2 n n y −θ θ y (1 − θ ) n − y , MSE(θ̃ ) = ∑ n y y =0 d’où n MSE(θ̃ ) − MSE(θ̂ ) = ∑ y=[n/2]+1 y 1 + − 2θ n 2 y 1 − n 2 n y × θ (1 − θ ) n − y . y Étant donné que y/n > 1/2 et que θ ≤ 1/2, tous les termes dans la somme sont positifs. On a donc que MSE(θ̃ ) − MSE(θ̂ ) > 0 ou, de manière équivalente, MSE(θ̂ ) < MSE(θ̃ ). En terme d’erreur quadratique moyenne, l’estimateur du maximum de vraisemblance est meilleur que l’estimateur des moments. 82 Solutions 4.10 On a # 1 n 1 n 2 ( X − µ ) = E i ∑ E[(Xi − µ)2 ] n i∑ n =1 i =1 " = 1 n E[ Xi2 − 2µXi + µ2 ] n i∑ =1 = 1 n ( E[ Xi2 ] − µ2 ) n i∑ =1 = 1 n [(σ2 + µ2 ) − µ2 ] n i∑ =1 = 1 n 2 σ n i∑ =1 = σ2 , d’où l’expression du côté gauche de l’égalité est un estimateur sans biais du paramètre σ2 . 4.11 On a, E [ a 1 X1 + · · · + a n X n ] = E [ a 1 X1 ] + · · · + E [ a n X n ] = ( a 1 + · · · + a n ) E [ X1 ] = ( a1 + · · · + an )µ. Pour que a1 X1 + · · · + an Xn soit un estimateur sans biais de µ, il faut que ∑in=1 ai = 1. 4.12 a) Il faut d’abord calculer l’espérance de l’estimateur : E[ X̄ 2 ] = Var[ X̄ ] + E[ X̄ ]2 = σ2 + µ2 . n On voit que X̄ 2 est un estimateur biaisé de µ2 et que le biais est σ2 /n. b) Puisque σ2 + µ2 = µ2 , n→∞ n lim E[ X̄ 2 ] = lim n→∞ X̄ 2 est un estimateur asymptotiquement sans biais de µ2 . 4.13 On sait que la fonction de densité de probabilité de la ke statistique d’ordre X(k) d’un échantillon aléatoire X1 , . . . , Xn tiré d’une loi F est f X( k ) ( x ) = n! ( F ( x ))k−1 (1 − F ( x ))n−k f ( x ). k!(n − k)! Solutions 83 Si n = 3 et que Xi ∼ Exponentielle(λ), i = 1, 2, 3, alors la médiane empirique est ξ 3 = X(2) et f X(2) = 6(1 − e−λx )(e−λx )(λe−λx ) = 6λ(e−2λx − e−3λx ). Or, en intégrant par parties, E[ξ 3 ] = Z ∞ 0 x f X(2) dx Z ∞ 6xλ(e−2λx − e−3λx ) dx 1 1 = 6λ − 2 4λ2 9λ 5 = . 6λ = 0 On constate que E[ξ 3 ] ≠ λ−1 , d’où la médiane empirique est un estimateur biaisé de la moyenne d’une loi exponentielle. 4.14 La fonction de densité de probabilité de la ke statistique d’ordre est donnée dans la solution de l’exercice 4.13. Pour n = 3 et Xi ∼ U (0, θ ), i = 1, 2, 3, on a x 2 1 f X (1) ( x ) = 3 1 − θ θ 1 2x x2 =3 − 2 + 3 , 0<x<θ θ θ θ et x 1 θ θ θ 2 x x = 6 2 − 3 , 0 < x < θ. θ θ f X (2) ( x ) = 6 x 1− Ainsi, d’une part, E[4X(1) ] = 4 Z θ x f X(1) ( x ) dx Z θ x 2x2 x3 = 12 − 2 + 3 dx θ θ θ 0 θ 2θ θ = 12 − + 2 3 4 =θ 0 84 Solutions et E[2X(2) ] = 2 Z θ x f X(2) ( x ) dx Z θ 2 x x3 = 12 − 3 dx θ2 θ 0 θ θ = 12 − 3 4 0 = θ, d’où 4X(1) et 2X(2) sont des estimateurs sans biais de θ. D’autre part, E[(4X(1) )2 ] = 16 Z θ x2 f X(1) ( x ) dx Z θ 2 x4 x 2x3 − 2 + 3 dx = 48 θ θ θ 0 2 θ 2θ 2 θ2 = 48 − + 3 4 5 = 0 8θ 2 5 et E[(2X(2) )2 ] = 4 Z θ x2 f X(2) ( x ) dx Z θ 3 x4 x − 3 dx = 24 θ3 θ 0 2 2 θ θ = 24 − 4 5 = 0 6θ 2 . 5 Par conséquent, Var[4X(1) ] = 8θ 2 3θ 2 − θ2 = 5 5 Var[2X(2) ] = 6θ 2 θ2 − θ2 = . 5 5 et 4.15 Soit X(n) = max( X1 , . . . , Xn ) et X(1) = min( X1 , . . . , Xn ), où Xi ∼ U (0, θ ), i = 1, . . . , n. On sait alors que f X(n) ( x ) = n( F ( x ))n−1 f ( x ) = nx n−1 , θn 0<x<θ Solutions 85 et que f X(1) ( x ) = n(1 − F ( x ))n−1 f ( x ) = n ( θ − x ) n −1 , θn 0 < x < θ. a) On souhaite développer un estimateur sans biais de θ basé sur X(n) . En premier lieu, E [ X( n ) ] = Z θ 0 x f X(n) ( x ) dx Z n θ n = n x dx θ 0 nθ = . n+1 Un estimateur sans biais de θ est donc (n + 1) X(n) /n. b) Comme en a), on calcule d’abord l’espérance de la statistique : E [ X (1) ] = Z θ 0 x f X(1) ( x ) dx n θ x (θ − x )n−1 x dx θn 0 θ = n+1 = Z en intégrant par parties. Un estimateur sans biais de θ basé sur le minimum de l’échantillon est donc (n + 1) X(1) . 4.16 On sait que E[ X ] = np et que Var[ X ] = np(1 − p). Or, X X E[ X 2 ] E n 1− = E[ X ] − n n n Var[ X ] + E[ X ]2 n np(1 − p) + n2 p2 = np − n = ( n − 1) p (1 − p ) = np − = np(1 − p) − p(1 − p). La statistique est donc un estimateur biaisé de la variance et le biais est − p(1 − p). La statistique sur-estime la variance. 4.17 Le fait que θ̂ soit un estimateur sans biais indique que E[θ̂ ] = θ. De plus, si Var[θ̂ ] = E[θ̂ 2 ] − E[θ̂ ]2 ≠ 0, alors E[θ̂ 2 ] ≠ E[θ̂ ]2 = θ 2 . Par conséquent, θ̂ 2 est un eestimateur biaisé de θ 2 . 86 Solutions 4.18 Pour commencer, on a l’identité suivante : 1 ∂ ∂ ln f ( x; θ ) = f ( x; θ ) ∂θ f ( x; θ ) ∂θ qui peut être réécrite sous la forme ∂ ∂ ln f ( x; θ ) f ( x; θ ) = f ( x; θ ). ∂θ ∂θ Ainsi, en dérivant de part et d’autre Z ∞ −∞ f ( x; θ ) dx = 1, par rapport à θ, on obtient Z ∞ ∂ ln f ( x; θ ) f ( x; θ ) dx = 0. −∞ ∂θ En dérivant une seconde fois cette identité, on a alors Z ∞ Z ∞ 2 ∂ ∂ ∂ ln f ( x; θ ) f ( x; θ ) dx = 0 ln f ( x; θ ) f ( x; θ ) dx + ∂θ −∞ ∂θ 2 −∞ ∂θ ou, de manière équivalente, Z ∞ ∂ −∞ ∂θ 2 ln f ( x; θ ) f ( x; θ ) dx = − Z ∞ 2 ∂ −∞ ∂θ 2 ln f ( x; θ ) f ( x; θ ) dx, soit " E ∂ ln f ( X; θ ) ∂θ 2 # = −E ∂2 ln f ( X; θ ) . ∂θ 2 4.19 On sait que E[ X̄ ] = E[ X ] pour toute distribution et donc que X̄ est toujours un estimateur sans biais de la moyenne. Pour une loi de Poisson, la moyenne est égale à λ et donc X̄ est un estimateur sans biais de λ. Pour démontrer que la statistique est un estimateur à variance minimale, il faut démontrer que sa variance est égale à la borne de Rao–Cramér. Or, d’une part, on a Var[ X ] λ Var[ X̄ ] = = . n n D’autre part, ∂ ∂ ln f ( x; λ) = ( x ln(λ) − λ − ln( x!)) ∂λ ∂λ x = −1 λ x−λ = λ Solutions 87 et donc " E ∂ ln f ( X; λ) ∂λ 2 # = i 1 h 2 E ( X − λ ) λ2 Var[ X ] λ2 1 = . λ = Ainsi, la borne de Rao–Cramér est λ/n. On a donc démontré que X̄ est un estimateur sans biais à variance minimale du paramètre λ de la loi de Poisson. 4.20 Si X a une distribution binomiale de paramètres n ∈ N et 0 ≤ θ ≤ 1, alors on peut représenter la variable aléatoire sous la forme X = Y1 + · · · + Yn , où Yi ∼ Bernoulli(θ ), i = 1, . . . , n. Ainsi, X/n = Ȳ. Dès lors, on sait Ȳ est un estimateur sans biais de E[Y ] = θ et que Var[Ȳ ] = Var[Y ]/n = θ (1 − θ )/n. De plus, si f (y; θ ) = θ y (1 − θ )1−y , y = 0, 1, est la densité d’une Bernoulli, alors " " 2 # 2 # ∂ Y−θ E ln f (Y; θ ) =E ∂θ θ (1 − θ ) Var[Y ] [θ (1 − θ )]2 1 = θ (1 − θ ) = et donc la borne de Rao–Cramér est θ (1 − θ )/n = Var[Ȳ ]. Par conséquent, Ȳ est un estimateur sans biais à variance minimale du paramètre θ de la Bernoulli ou, de manière équivalente, X/n est un estimateur sans biais à variance minimale du paramètre θ de la binomiale. 4.21 a) On a ln( f ( x; θ )) = ln(θ ) + (θ − 1) ln( x ) 1 ∂ ln( f ( x; θ )) = + ln( x ) ∂θ θ ∂2 1 f ( x; θ ) = − 2 ∂θ 2 θ et donc −nE ∂2 n ln f ( X; θ ) = 2. 2 ∂θ θ Par conséquent, la borne de Rao–Cramér est θ 2 /n. 88 Solutions b) Soit Y = − ln X. On a FY (y) = Pr[− ln( X ) ≤ y] = Pr[ X > e−y ] = Z 1 e−y θx θ −1 dx = 1 − e−θy , d’où Y ∼ Exponentielle(θ ). Par conséquent, Z = − ∑in=1 ln( Xi ) = ∑in=1 Yi obéit à une loi Gamma(n, θ ) et donc, directement, E[ Z ] = n/θ. c) Étant donné le résultat en b), on a E Z ∞ 1 n−1 −θz θn 1 = z e dz Z Γ(n) 0 z θ n Γ ( n − 1) = Γ ( n ) θ n −1 θ = . n−1 Par conséquent, (n − 1)/Z constitue un estimateur sans biais du paramètre θ de la densité en a). 4.22 a) On a ln( f ( x; λ)) = k ln(λ) − λ − ln(k!) k ∂ ln( f ( x; λ)) = − 1 ∂λ λ ∂2 k ln( f ( x; λ)) = − 2 ∂λ2 λ et donc −nE ∂2 n ln f ( X; λ ) = . λ ∂λ2 La borne de Rao–Cramér est donc λ/n. b) Le dénominateur de la borne de Rao–Cramér reste le même qu’en a), il suffit de calculer le numérateur. On a g(λ) = e−λ et donc g0 (λ) = −e−λ , d’où la borne de Rao-Cramér pour un estimateur de g(λ) est λe−2λ /n. c) La variable aléatoire I{ X =0} , où X ∼ Poisson(λ), obéit à une loi de Bernoulli avec probabilité de succès θ = Pr[ X = 0] = e−λ . Ainsi, nT = Solutions 89 ∑in=1 I{ Xi =0} ∼ Binomiale(n, e−λ ). De là, il est immédiat que E[nT ] n ne−λ = n = e−λ E[ T ] = et que Var[nT ] n2 − ne λ (1 − e−λ ) = n2 − λ e (1 − e − λ ) = . n Var[ T ] = d) L’efficacité d’un estimateur est le rapport entre la variance de l’estimateur et la borne de Rao–Cramér. On obtient alors λe−2λ /n e−λ (1 − e−λ )/n = λe−λ . 1 − e−λ 4.23 On doit minimiser la variance de l’estimateur a1 θ̂1 + a2 θ̂2 sous la contrainte que l’estimateur est sans biais pour θ. Tout d’abord, l’absence de biais indique que E[ a1 θ̂1 + a2 θ̂2 ] = a1 θ + a2 θ = ( a1 + a2 )θ, puisque θ̂1 et θ̂2 sont sans biais. La contrainte se réduit donc à a1 + a2 = 1. De plus, on sait que Var[θ̂1 ] = 3Var[θ̂2 ]. On doit donc trouver les valeurs de a1 et a2 qui minimisent la fonction Var[ a1 θ̂1 + a2 θ̂2 ] = a21 Var[θ̂1 ] + a22 Var[θ̂2 ] = 3a21 Var[θ̂2 ] + a22 Var[θ̂2 ] sous la contrainte que a1 + a2 = 1. Par la méthode des multiplicateurs de Lagrange, cela se résume à trouver le minumum de la fonction 3a21 Var[θ̂2 ] + a22 Var[θ̂2 ] + λ( a1 + a2 − 1). En dérivant successivement par rapport à a1 , a2 et λ, puis en posant égal à 0, on obtient le système d’équations 6a1 Var[θ̂2 ] + λ = 0 2a2 Var[θ̂2 ] + λ = 0 a1 + a2 − 1 = 0, d’où on obtient que a1 = 1/4 et a2 = 3/4. 90 Solutions 4.24 a) On a E[ω X̄1 + (1 − ω ) X̄2 ] = ωE[ X̄1 ] + (1 − ω ) E[ X̄2 ] = ωµ + (1 − ω )µ = µ. b) En premier lieu, Var[ω X̄1 − (1 − ω ) X̄2 ] = ω 2 Var[ X̄1 ] + (1 − ω )2 Var[ X̄2 ] = ω 2 σ12 (1 − ω )2 σ22 + n n Or, en résolvant l’équation 2ωσ12 2(1 − ω )σ22 d Var[ω X̄1 − (1 − ω ) X̄2 ] = − = 0, dω n n on trouve que ω = σ22 /(σ12 + σ22 ). La vérification des conditions de deuxième ordre (laissée en exercice) démontre qu’il s’agit bien d’un minimum. c) Après quelques transformations algébriques, la variance de l’estimateur à son point minimum est σ12 σ22 . n(σ12 + σ22 ) Lorsque ω = 1/2, la variance de l’estimateur est σ2 + σ22 X̄ − X̄2 Var 1 = 1 . 2 4n L’efficacité relative est donc (σ12 + σ22 )2 4σ12 σ22 (ou l’inverse). 4.25 Il faut démontrer que limn→∞ Pr[| X(1) − θ | < e] = 1. On sait que si X ∼ U (θ, θ + 1), alors f X ( x ) = 1, θ <x<θ+1 FX ( x ) = x − θ, θ <x<θ+1 et f X(1) ( x ) = n f X ( x )(1 − FX ( x ))n−1 = n (1 − x + θ ) n −1 , θ < x < θ + 1. Solutions 91 Ainsi, Pr[| X(1) − θ | < e] = Pr[θ − e < X(1) < θ + e] = Z θ +e n(1 − x + θ )n−1 dx θ = 1 − (1 − e ) n . Or, cette dernière expression tend vers 1 lorsque n tend vers l’infini, ce qui complète la démonstration. 4.26 Puisque X̄ est un estimateur sans biais de la moyenne d’une distribution, quelqu’elle fut, et que limn→∞ Var[ X̄ ] = limn→∞ Var[ X ]/n = 0, alors X̄ est toujours un estimateur convergent de la moyenne. 4.27 On a un échantillon aléatoire de taille 1. Or, f ( x1 ; θ ) = √ 1 2 e− x1 /(2σ 2) 2πσ 2 2 1 = √ e−|x1 | /(2σ ) θ 2π = g(| x1 |; σ2 )h( x1 ), avec 2 2 1 g( x; σ2 ) = √ e− x /(2σ ) θ 2π et h( x ) = 1. Ainsi, par le théorème de factorisation, | X1 | est une statistique exhaustive pour σ2 . 4.28 Soit X1 , . . . , Xn un échantillon aléatoire d’une distribution uniforme sur l’intervalle (−θ, θ ). La fonction de vraisemblance de cet échantillon est ( (2θ )−n , −θ < xi < θ, i = 1, . . . , n f ( x1 , . . . , x n ; θ ) = 0, ailleurs. La fonction de vraisemblance est donc non nulle seulement si toutes les valeurs de l’échantillon se trouvent dans l’intervalle (−θ, θ ) ou, de manière équivalente, si maxi=1,...,n (| xi |) < θ. On peut donc, par exemple, réécrire la fonction de vraisemblance sous la forme n 1 f ( x1 , . . . , x n ; θ ) = I{0≤maxi=1,...,n (| xi |)≤θ )} 2θ = g max (| xi |); θ h( x1 , . . . , xn ), i =1,...,n avec g( x; θ ) = 1 2θ n I{0≤ x≤θ )} 92 Solutions et h( x1 , . . . , xn ) = 1. Ainsi, par le théorème de factorisation, on établit que T = maxi=1,...,n (| Xi |) est une statistique exhaustive pour le paramètre θ. Une autre factorisation possible serait f ( x1 , . . . , x n ; θ ) = 1 2θ n I{−∞< x(n) <θ )} I{−θ < x(1) <∞)} , ce qui donne comme statistique exhaustive T = ( X(1) , X(n) ). 4.29 Nous allons démontrer un résultat général applicable à plusieurs distributions, dont la Poisson. Il existe une famille de distributions que l’on nomme la famille exponentielle (il ne s’agit pas d’une référence à la densité exponentielle, bien que cette dernière soit un cas particulier de la famille exponentielle). Cette famille comprend toutes les distributions dont la densité peut s’écrire sous la forme f ( x; θ ) = h( x )c(θ )eη (θ )t( x) , où h, c, η et t sont des fonctions quelconques. Par exemple, la fonction de masse de probabilité de la loi de Poisson peut s’écrire comme suit : θ x e−θ x! 1 = e−θ eln(θ ) x x! f ( x; θ ) = = h ( x ) c ( θ ) eη (θ )t( x ) , avec h( x ) = ( x!)−1 , c(θ ) = e−θ , η (θ ) = ln θ et t( x ) = x. La loi est donc membre de la famille exponentielle. Les lois binomiale, gamma, normale et bêta font aussi partie de la famille exponentielle. En revanche, des lois comme l’uniforme sur (0,θ ) et l’exponentielle translatée n’en font pas partie. Pour tous les membres de la famille exponentielle, on a n f ( x1 , . . . , x n ; θ ) = ∏ h ( xi ) ! n (c(θ ))n eη (θ ) ∑i=1 xi . i =1 Ainsi, on voit que le théorème de factorisation permet de conclure que la statistique n T ( X1 , . . . , X n ) = ∑ Xi i =1 est une statistique exhaustive pour le paramètre θ pour tous les membres de la famille exponentielle, dont la loi de Poisson. Solutions 93 4.30 On peut réécrire la fonction de masse de probabilité de la loi géométrique comme suit : Pr[ X = x ] = θeln(1−θ ) x = h ( x ) c ( θ ) eη (θ )t( x ) , avec h( x ) = 1, c(θ ) = θ, η (θ ) = ln(1 − θ ) et t( x ) = x. La loi géométrique est donc membre de la famille exponentielle (voir la solution de l’exercice 4.29). Par conséquent, T ( X1 , . . . , Xn ) = ∑in=1 Xi est une statistique exhaustive pour le paramètre θ. Chapitre 5 5.1 On rend compte de l’incertitude sur la valeur du paramètre de la loi de Poisson en considérant ce paramètre comme une variable aléatoire. On obtient alors le modèle bayesien suivant : X ∼ Poisson(Λ) ( 4/5, λ = 2 Pr[Λ = λ] = 1/5, λ = 4. a) On cherche la valeur λ̂ qui minimise E[(Λ − λ̂)2 ]. De l’exercice 1.7, on sait que λ̂ = E[Λ] = 2(4/5) + 4(1/5) = 12/5 = 2,4. b) On veut calculer Pr[Λ = λ| X = 6]. Par la règle de Bayes, on a que Pr[Λ = λ| X = 6] = Pr[ X = 6|Λ = λ]Pr[Λ = λ] , ∑λ=1,2 Pr[ X = 6|Λ = λ]Pr[Λ = λ] λ = 1, 2. Puisque 26 e − 2 6! 46 e − 4 Pr[ X = 6|Λ = 4] = , 6! Pr[ X = 6|Λ = 2] = on obtient ( Pr[Λ = λ| X = 6] = 0,316, 0,684, λ=2 λ = 4. c) Par analogie avec la partie a), la valeur qui minimise E[(Λ − λ̂)2 | X = 6] est λ̂ = E[Λ| X = 6] = 2(0,316) + 4(0,684) = 3,368. 5.2 On pose X |Θ = θ ∼ Géométrique(θ ) et Θ ∼ Bêta(α, β). Ainsi, f ( x | θ ) = θ (1 − θ ) x , x = 0, 1, . . . Γ(α, β) α−1 u(θ ) = θ (1 − θ ) β −1 , Γ(α)Γ( β) 0<θ<1 94 Solutions et, par conséquent, n n f ( x 1 , . . . , x n | θ ) = ∏ f ( x i | θ ) = θ n ( 1 − θ ) ∑ i =1 x i . i =1 Soit u(θ | x1 , . . . , xn ) la densité a posteriori de la variable aléatoire Θ. Par le théorème de Bayes, f ( x1 , . . . , x n | θ ) u ( θ ) f ( x1 , . . . , x n ) f ( x1 , . . . , x n | θ ) u ( θ ) = R1 0 f ( x1 , . . . , xn | θ ) u ( θ ) dθ u ( θ | x1 , . . . , x n ) = ∝ f ( x1 , . . . , x n | θ ) u ( θ ) n = θ n ( 1 − θ ) ∑ i =1 x i θ α −1 ( 1 − θ ) β −1 n = θ n + α −1 ( 1 − θ ) ∑ i =1 x i + β −1 . On reconnaît dans cette dernière expression la densité, à une constante près, d’une distribution Bêta(α + n, ∑in=1 + β). Enfin, on sait qu’en utilisant une fonction de perte quadratique, l’estimateur bayesien ponctuel de θ est : θ̂ = E[Θ| X1 , . . . , Xn ] = Z 1 0 = θu(θ | X1 , . . . , Xn ) dθ α+n . α + β + n + ∑in=1 Xi La dernière égalité n’est en fait que l’espérance d’une distribution bêta, un résultat connu. 5.3 On a X |Θ = θ ∼ Poisson(θ ) et Θ ∼ Gamma(α, λ), soit θ x e−θ , x = 0, 1, . . . x! λα α−1 −λθ u(θ ) = θ e , θ>0 Γ(α) f ( x |θ ) = et, par conséquent, f ( x1 , . . . , x n | θ ) = Solutions 95 Par le théorème de Bayes, on obtient la densité de la variable aléatoire Θ | X1 = x 1 , . . . , X n = x n : u ( θ | x1 , . . . , x n ) = R ∞ 0 ∝ n f ( x1 , . . . , x n | θ ) u ( θ ) f ( x1 , . . . , xn |θ )u(θ ) dθ ! ∏ f ( xi | θ ) u(θ ) i =1 n ∝ (θ ∑i=1 xi e−nθ )(θ α−1 e−λθ ) n = θ ∑i=1 xi +α−1 e−(n+λ)θ . On reconnaît, à une constante près, la densité d’une distribution gamma. Ainsi, Θ| X1 , . . . , Xn ∼ Gamma(∑in=1 xi + α, λ + n). En utilisant une fonction de perte quadratique, l’estimateur bayesien du paramètre θ est : θ̂ = E[Θ| X1 , . . . , Xn ] = α + ∑in=1 Xi . n+λ 5.4 a) On écrit l’estimateur sous la forme θ̂ = α+Y α+β+n avec Y ∼ Binomiale(n, θ ). On remarquera que θ̂ est une variable aléatoire. Ainsi, E[(θ̂ − θ )2 ] = Var[θ̂ ] + ( E[θ̂ ] − θ )2 . Or, Var[Y ] ( α + β + n )2 nθ (1 − θ ) = ( α + β + n )2 Var[θ̂ ] = et α + E [Y ] α+β+n α + nθ , = α+β+n E[θ̂ ] = d’où nθ (1 − θ ) E[(θ̂ − θ ) ] = + ( α + β + n )2 2 (1 − θ )α − βθ α+β+n En posant n = 30, α = 15 et β = 5, on trouve 370θ 2 − 570θ + 225 2 500 74θ 2 − 114θ + 45 = . 500 E[(θ̂ − θ )2 ] = 2 . 96 Solutions b) On cherche pour quelles valeurs de θ l’inégalité 74θ 2 − 114θ + 45 θ − θ2 < 500 30 est satisfaite. Cette inégalité peut se réécrire sous la forme 272θ 2 − 392θ + 135 > 0. Elle est satisfaite lorsque θ se trouve entre les deux racines du polynôme du côté droit de l’inégalité. On trouve donc aisément que l’erreur quadratique moyenne de l’estimateur bayesien est inférieure à celle de l’estimateur du maximum de vraisemblance lorsque 0,5692 < θ < 0,8720. 5.5 a) On a X |Θ = θ ∼ N (θ,σ2 ) et Θ ∼ N (µ, τ 2 ), soit n 2 2 1 √ e−( x−θ ) /(2σ ) , −∞ < x < ∞ f ( x |θ ) = σ 2π 2 1 u(θ ) = √ e(θ −µ)/(2τ ) , −∞ < θ < ∞. τ 2π La distribution a posteriori de Θ est, en laissant de côté tous les termes qui ne dépendent pas de θ : u(θ | x1 , . . . , xn ) ∝ e−(θ −µ) 2 / (2τ 2 ) n e − ∑ t =1 ( x t − θ ) 2 / (2σ2 ) . En développant l’exposant tout en laissant une fois de plus de côté tous les termes non fonction de θ, on obtient " # n 1 θ 2 − 2θµ −2θxt + θ 2 Exposant = − +∑ + cte 2 τ2 σ2 t =1 n 1 1 2θµ −2θ ∑nt=1 xt + − + cte = − θ2 − 2 τ2 σ2 τ2 σ2 # " −2θ ∑nt=1 xt /σ2 n 2θµ/τ 2 1 1 2 + 2 θ − 1 =− − + cte 2 τ2 σ ( τ2 + σn2 ) ( τ12 + σn2 ) | {z } φ µ/τ 2 + ∑nt=1 xt /σ2 1 2 = − φ θ − 2θ + cte 2 φ 2 µ ∑nt=1 xt θ − + 2 2 1 φτ φσ =− + cte. 2 1/φ Par conséquent, Θ| X1 , . . . , Xn ∼ N (µ̃, τ̃ 2 ) avec τ̃ 2 = = 1 φ τ 2 σ2 σ2 + nτ 2 Solutions 97 et µ̃ = = µ ∑n X + i=12 i 2 φτ φσ µσ2 + τ 2 ∑in=1 Xi . σ2 + nτ 2 b) On sait de l’exercice 1.18 que le minimum d’une fonction de perte absolue est atteint à la médiane de la variable aléatoire. Ainsi, le minimum de E[|θ̂ − θ || X1 , . . . , Xn ] est atteint à la médiane de Θ| X1 , . . . , Xn . Or, la médiane d’une loi normale est égale à sa moyenne, d’où θ̂ = µ̃, où µ̃ est tel que défini en a). Chapitre 6 6.1 On cherche deux statistiques L et U tel que Pr[ L ≤ µ ≤ U ] = 1 − α. On sait que si X1 , . . . , Xn est un échantillon aléatoire tiré d’une distribution N (µ, σ2 ), alors X̄ ∼ N (µ, σ2 /n) ou, de manière équivalente, que X̄ − µ √ ∼ N (0, 1). σ/ n Par conséquent, X̄ − µ √ ≤ zα/2 = 1 − α, Pr −zα/2 ≤ α/ n d’où σ σ Pr X̄ − √ zα/2 ≤ µ ≤ X̄ + √ zα/2 = 1 − α. n n √ Les statistiques √ L et U sont dès lors connues : L = X̄ − σzα/2 / n et U = X̄ + σzα/2 / n. Un estimateur par intervalle de µ est donc √ √ ( X̄ − σzα/2 / n, X̄ + σzα/2 / n). Avec n = 20, σ2 = 80 et x̄ = 81,2, on obtient l’intervalle (77,28, 85,12). 6.2 On a X ∼ N (µ, 9). Tel que démontré à l’exercice 6.1, σ σ Pr X̄ − √ z0,05 ≤ µ ≤ X̄ + √ z0,05 = 0,90. n n Pour satisfaire la relation Pr[ X̄ − 1 < µ < X̄ + 1] = 0,90, on doit donc choisir σ 3(1,645) √ z0,05 = √ = 1. n n On trouve que n = 24,35. On doit donc choisir une taille d’échantillon de 24 ou 25. 98 Solutions 6.3 On sait que X̄ − µ √ ∼ t ( n − 1) S/ n − 1 et que nS2 ∼ χ2 ( n − 1). σ2 Ainsi, on peut établir que S S Pr X̄ − √ tα/2 ≤ µ ≤ X̄ + √ tα/2 = 1 − α. n−1 n−1 et qu’un intervalle de confiance de niveau 1 − α pour µ est √ √ ( X̄ − Stα/2 / n − 1, X̄ + Stα/2 / n − 1). Avec n = 17, x̄ = 4,7, s2 = 5,76 et α = 0,10, on trouve que µ ∈ (3,7, 5,7). Pour la variance, on cherche des valeurs a et b, a ≤ b tel que 2 nS nS2 nS2 2 ≤σ ≤ = 1 − α. Pr a ≤ 2 ≤ b = Pr b a σ Plusieurs valeurs de a et b satisfont cette relation. Le choix le plus simple est a = χ21−α/2 (n − 1) et b = χ2α/2 (n − 1). Ainsi, un intervalle de confiance de niveau 1 − α pour σ2 est ! nS2 nS2 , . χ2α/2 (n − 1) χ21−α/2 (n − 1) Dans une table de la loi khi carré, on trouve que χ20,95 (16) = 7,96 et que χ20,95 (16) = 26,30, d’où σ2 ∈ (3,72, 12,30). 6.4 On représente la taille des étudiantes en actuariat par la variable aléatoire X et celle des étudiantes en génie civil par Y. On a X̄ ∼ N (µ1 , σ12 /15), 15S12 ∼ χ2 (14), σ12 Ȳ ∼ N (µ2 , σ22 /20), 20S22 ∼ χ2 (19) σ22 et les valeurs des statistiques pour les deux échantillons sont x̄ = 152, ȳ = 154, s21 = 101, s22 = 112. Solutions 99 a) Si l’on suppose que σ12 = σ22 = 81, alors X̄ ∼ N (µ1 , 5,4) et Ȳ ∼ N (µ2 , 4,05). Par conséquent, X̄ − µ1 < 1,645 = 0,90 Pr −1,645 < √ 5,4 et Ȳ − µ2 < 1,645 = 0,90 Pr −1,645 < √ 4,05 d’où √ √ 152 − 1,645 5,4 < µ1 < 152 + 1,645 5,4, soit 148,18 < µ1 < 155,82 et √ √ 154 − 1,645 4,05 < µ2 < 154 + 1,645 4,05, soit 150,69 < µ2 < 157,31. b) Si la variance est inconnue, on a plutôt que X̄ − µ1 √ ∼ t(14) S1 / 14 et Ȳ − µ2 √ ∼ t(19). S2 / 19 Or, t0,05 (14) = 1,761 et t0,05 (19) = 1,729, d’où r r 101 101 152 − 1,761 < µ1 < 152 + 1,761 , 14 14 soit 147,27 < µ1 < 156,73 et r r 112 112 154 − 1,729 < µ2 < 154 + 1,729 , 19 19 soit 149,80 < µ2 < 158,20. c) On cherche un intervalle de confiance à 90 % pour la différence µ1 − µ2 . Si 0 appartient à l’intervalle, on pourra dire que la différence entre les deux moyennes n’est pas significative à 90 %. Pour les besoins de la cause, on va supposer ici que σ12 = σ22 = σ2 . Or, puisque ( X̄ − Ȳ ) − (µ1 − µ2 ) q ∼ N (0, 1) 1 1 σ 15 + 20 et que 15S12 20S22 + ∼ χ2 (33) σ2 σ2 100 Solutions on établit que ( X̄ − Ȳ ) − (µ1 − µ2 ) r ∼ t(33). 15S12 +20S22 1 1 + 33 15 20 De plus, t0,05 (33) ≈ z0,05 = 1,645, d’où l’intervalle de confiance à 90 % pour µ1 − µ2 est µ1 − µ2 ∈ −2 ± 5,99. La différence de taille moyenne entre les deux groupes d’étudiantes n’est donc pas significative. d) Tel que mentionné précédemment, Y= 15S12 ∼ χ2 (14). σ12 Or, on trouve dans une table de la loi khi carré (ou avec la fonction qchisq dans R) que Pr[6,57 < Y < 23,68] = 0,90. Par conséquent, " # 15S12 Pr 6,57 < 2 < 23,68 = 0,90 σ1 ou, de manière équivalente, " 15S12 15S12 < σ12 < Pr 23,68 6,57 # = 0,90. Puisque s21 = 101 dans cet exemple, un intervalle de confiance à 90 % pour σ12 est (63,98, 230,59). e) Un peu comme en c), on détermine un intervalle de confiance pour le ratio σ22 /σ12 et on conclut que la différence entre la variance des étudiantes en génie civil n’est pas significativement plus grande que celle des étudiantes en actuariat si cet intervalle contient la valeur 1. À la suite des conclusions en c), il est raisonnable de supposer que les moyennes des deux populations sont identiques, soit µ1 = µ2 = µ. On a que 15S12 /(14σ12 ) 57S12 σ22 F= = ∼ F (14, 19). 2 2 20S2 /(19σ2 ) 56S22 σ12 On trouve dans une table de la loi F (ou avec la fonction qf dans R) que Pr[0,417 < F < 2,256] = 0,90. Solutions 101 Par conséquent, " 23,33S22 σ22 126,31S22 Pr < < 57S12 σ12 57S12 # = 0,90 et un intervalle de confiance à 90 % pour σ22 /σ12 est (0,417, 2,256). La variance σ22 n’est donc pas significativement plus grande que σ12 . 6.5 On sait que nS2 ∼ χ2 ( n − 1). σ2 Ainsi, pour des constantes a et b, a ≤ b, on a "r # r nS2 nS2 nS2 Pr a ≤ 2 ≤ b = Pr ≤σ≤ = 1 − α. b a σ √ √ Un estimateur par intervalle de σ est donc ( nS2 /b, nS2 /a), où a et b satisfont la relation Pr[ a ≤ Y ≤ b] = 1 − α, avec Y ∼ χ2 (n − 1). 6.6 On sait que σ µ ∈ X̄ ± z0,05 √ n 5 ∈ X̄ ± 1,645 √ . n √ √ La longueur de l’intervalle √ de confiance est 2(1,645)(5)/ n = 16,45/ n. Si l’on souhaite que 16,45/ n ≤ 0,05, alors n ≥ 108 241. 6.7 On cherche à minimiser la longueur de l’intervalle de confiance h( a, b) = ns2 (b − a)/( ab) sous la contrainte que la probabilité dans cet intervalle est 1 − α, c’est-à-dire que G (b) − G ( a) = 1 − α. En utilisant la méthode des multiplicateurs de Lagrange, on pose ns2 nb2 − + λ ( G ( b ) − G ( a ) − 1 + α ). a b Les dérivées de cette fonction par rapport à chacune de ses variables sont : L( a, b, λ) = ∂ ns2 L( a, b, λ) = − 2 + λg( a) ∂a a ∂ −ns2 L( a, b, λ) = − 2 + λg(b) ∂b b ∂ L( a, b, λ) = G (b) − G ( a) − 1 + α. ∂λ En posant ces dérivées égales à zéro et en résolvant, on trouve que g( a) b2 = 2 g(b) a ou, de manière équivalente, que b2 g(b) = a2 g( a). 102 Solutions Chapitre 7 7.1 a) On a n f ( x1 , . . . , x n ; θ ) = ∏ f ( x i ; θ ) i =1 n = θ n ∏ xiθ −1 i =1 = θ n ! n ∏ xiθ i =1 n ∏ i =1 ! xi−1 = g ( t ( x1 , . . . , x n ); θ ) h ( x1 , . . . , x n ) , où g(y; θ ) = θ n yn n t ( x1 , . . . , x n ) = ∏ x i i =1 n h( x1 , . . . , xn ) = ∏ xi−1 . i =1 Ainsi, T ( X1 , . . . , Xn ) = ∏in=1 Xi est une statistique exhaustive pour θ. b) D’une part, l’erreur de type I, consiste à rejeter l’hypothèse H0 alors qu’elle est vraie. La probabilité de faire ce type d’erreur, notée α, correspond donc à la que la statistique du test se retrouve dans la région critique lorsque l’hypothèse H0 est vraie. On a donc 3 α = Pr X1 X2 ≥ ; θ = 1 4 = ZZ C f X1 X2 ( x1 , x2 ; 1) dx2 dx1 , où C = {( x1 , x2 ); x1 x2 ≥ 3/4}. Or, f X1 X2 ( x1 , x2 ; θ ) = f X1 ( x1 ; θ ) f X2 ( x2 ; θ ) = θ 2 x1θ −1 x2θ −1 , d’où f X1 X2 ( x1 , x2 ; 1) = 1, 0 < x1 , x2 < 1. La région critique C est représentée à la figure E.6. Ainsi, α= Z 1 Z 1 dx2 dx1 dx1 = 1− 4x1 3/4 1 3 3 = + ln 4 4 4 ≈ 0,034. 3/4 3/(4x1 ) Z 1 3 103 0.0 0.2 0.4 x2 0.6 0.8 1.0 Solutions 0.0 0.2 0.4 0.6 0.8 1.0 x1 Fig. E.6: Domaine de définition de la densité conjointe des variables X1 et X2 de l’exercice 7.1. La zone hachurée est la région critique C = {( x, y); xy ≥ 3/4} du test d’hypothèse. D’autre part, l’erreur de type II consiste à ne pas rejeter l’hypothèse H0 , alors qu’elle est fausse. La valeur β est donc la probabilité que la statistique se retrouve à l’extérieur de la région critique lorsque l’hypothèse H0 est fausse, c’est-à-dire 3 β = Pr X1 X2 < ; θ = 2 4 3 = 1 − Pr X1 X2 ≥ ; θ = 2 4 =1− ZZ C f X1 X2 ( x1 , x2 ; 2) dx2 dx1 . 104 Solutions Dès lors, puisque f X1 X2 ( x1 , x2 ; 2) = 4x1 x2 , β=1− Z 1 Z 1 3/4 3/(4x1 ) 4x1 x2 dx2 dx1 9 9 3 − ln 16 8 4 ≈ 0,886. = 7.2 On sait que X̄ ∼ N (µ, 50002 /n). Or, α = Pr[ X̄ ≥ c; µ = 30 000] √ n(c − 30 000) =1−Φ 5 000 d’où √ zα = n(c − 30 000) . 5 000 De même, β = Pr[ X̄ < c; µ = 35 000] √ n(c − 35 000) =Φ , 5 000 d’où √ z 1− β = n(c − 35 000) . 5 000 On trouve dans une table de la loi normale que zα = z0,01 = 2,326 et que z1− β = z0,98 = −2,05. En résolvant pour n et c le système à deux équations et deux inconnues, on obtient n = 19,15 et c = 32 658. Aux fins du test, on choisira donc une taille d’échantillon de n = 19 ou n = 20. 7.3 a) Soit X la variable aléatoire du nombre de dentistes qui recommande le dentifrice parmi un groupe-test de 390 dentistes. On a donc que X ∼ Binomiale(390, θ ) et on teste H0 : θ = 0,75 H1 : θ 6= 0,75. Il s’agit d’un test bilatéral sur une proportion avec un grand échantillon. La statistique du test est Z= p θ̂ − 0,75 0,75(1 − 0,75)/390 Solutions 105 et on rejette H0 si |z| > zα/2 . Ici, on a α = 0,05, θ̂ = 273/390, d’où z = −2,28. Puisque |z| > z0,025 = 1,96, on juge, à un seuil de signification de 5 %, que la proportion de dentistes qui recommandent le dentifrice est suffisamment éloignée de la prétention du fabricant pour rejetter l’hypothèse H0 . On peut vérifier les résultats ci-dessus avec la fonction prop.test de R: > prop.test(273, n = 390, p = 0.75, correct = FALSE) 1-sample proportions test without continuity correction data: 273 out of 390, null probability 0.75 X-squared = 5.2, df = 1, p-value = 0.02259 alternative hypothesis: true p is not equal to 0.75 95 percent confidence interval: 0.6527490 0.7433494 sample estimates: p 0.7 On constate que la valeur test θ = 0,75 ne se trouve pas dans l’intervalle de confiance à 95 %, d’où le rejet de l’hypothèse H0 . b) Puisque z0,005 = 2,576 > 2,28, on ne rejette pas l’hypothèse H0 à un seuil de signification de 1 %. D’ailleurs un intervalle de confiance à 99 % nous est fourni par la fonction prop.test : > prop.test(273, n = 390, p = 0.75, conf.level = 0.99, + correct = FALSE) 1-sample proportions test without continuity correction data: 273 out of 390, null probability 0.75 X-squared = 5.2, df = 1, p-value = 0.02259 alternative hypothesis: true p is not equal to 0.75 99 percent confidence interval: 0.6372906 0.7560183 sample estimates: p 0.7 On constate que cet intervalle comprend la valeur θ = 0,75. c) La valeur p est le seuil de signification auquel on rejette H0 . Ainsi, p = 2Pr[ Z > 2,28] ≈ 0,0226. On rejette donc H0 avec un niveau de confiance maximal de 97,74 %. Cette valeur p apparaît dans les résultats de la fonction prop.test en a) et b). 106 Solutions 7.4 a) Il s’agit d’un test bilatéral sur une proportion avec un grand échantillon. La statistique du test est Z= p θ̂ − 0,20 0,20(1 − 0,20)/n et on rejette H0 si |z| > z0,025 = 1,96. b) En calculant la valeur de la statistique pour chacune des proportions données, on constate que toutes les statistiques sont plus inférieures à 1,96. Auncun membre ne rejette donc l’hypothèse H0 . c) Étant donné que le seuil de signification est 5 %, si l’hypothèse H0 est vraie, on peut s’attendre à un taux de rejet de 5 %. d) Si, en b), l’on n’a jamais rejeté l’hypothèse H0 , c’est que 100 % des intervalles de confiance à 95 % pour θ contiennent la valeur 0,20. e) La valeur de la statistique est z= p 219/1124 − 0,20 (0,20)(1 − 0,20)/1124 = −0,4325 et |z| < 1,96. Donc, on ne rejette pas H0 à un seuil de signification de 5 %. La valeur p associée est : p = Pr[| Z | > −0,4325] = 2Pr[ Z > 0,4325] = 0,6654, ce qui représente le seuil de signification minimal auquel il est possible de rejeter H0 . Ces résultats sont confirmés par la fonction prop.test de R : > prop.test(219, 1124, p = 0.2, correct = FALSE) 1-sample proportions test without continuity correction data: 219 out of 1124, null probability 0.2 X-squared = 0.1871, df = 1, p-value = 0.6654 alternative hypothesis: true p is not equal to 0.2 95 percent confidence interval: 0.1727403 0.2190181 sample estimates: p 0.1948399 7.5 a) Il s’agit d’un test sur la différence entre deux proportions. Il faut commencer par construire la statistique. On a X ∼ Binomiale(n, θ1 ) Y ∼ Binomiale(m, θ2 ). Solutions 107 Pour n et m grands, on a, approximativement, X ∼ N (nθ1 , nθ1 (1 − θ1 )) Y ∼ N (mθ2 , mθ2 (1 − θ2 ), et donc, toujours approximativement, θ1 (1 − θ1 ) X θ̂1 = ∼ N θ1 , n n Y θ2 (1 − θ2 ) θ̂2 = ∼ N θ2 , . m m Par conséquent, p (θ̂1 − θ̂2 ) − (θ1 − θ2 ) ∼ N (0, 1). θ1 (1 − θ1 )/n + θ2 (1 − θ2 )/m Pour pouvoir calculer la valeur de cette statistique pour un échantillon aléatoire, on remplace θ1 et θ2 dans le radical par θ̂1 = X/n et θ̂2 = Y/m, dans l’ordre. Un intervalle de confiance de niveau 1 − α pour θ1 − θ2 est donc s θ̂1 (1 − θ̂1 ) θ̂2 (1 − θ̂2 ) + . (θ̂1 − θ̂2 ) ± zα/2 n m De manière similaire, la statistique utilisée pour tester la différence entre les deux proportions θ1 et θ2 est Z= q (θ̂1 − θ̂2 ) − (θ1 − θ2 ) , θ̂1 (1 − θ̂1 )/n + θ̂2 (1 − θ̂2 )/m et on rejette H0 : θ1 = θ2 en faveur de H1 : θ1 6= θ2 si |z| > zα/2 . Ici, on a x = 351, y = 41, n = 605 et m = 800 − 605 = 195. Ainsi, θ̂1 = 0,5802, θ̂2 = 0,2103 et |z| = 10,44 > 1,96. On rejette donc H0 à un seuil de signification de 5 %. La fonction prop.test de R corrobore ces résultats : > prop.test(c(351, 41), c(605, 195), correct = FALSE) 2-sample test for equality of proportions without continuity correction data: c(351, 41) out of c(605, 195) X-squared = 80.7464, df = 1, p-value < 2.2e-16 alternative hypothesis: two.sided 95 percent confidence interval: 0.3004992 0.4393185 sample estimates: prop 1 prop 2 0.5801653 0.2102564 108 Solutions b) L’intervalle de confiance est (θ1 − θ2 ) ∈ (0,3005, 0,4393). Comme 0 n’appartient pas à cet intervalle, on rejette H0 . c) On cherche maintenant un intervalle de confiance pour la proportion de la population en faveur de l’introduction du taxe sur le tabac. On a une observation x = 351 + 41 = 392 d’une distribution Binomiale(800, θ ), d’où θ̂ = 392/800 = 0,49. Un intervalle de confiance à 95 % pour θ est s θ̂ (1 − θ̂ ) θ ∈ θ̂ ± 1,96 800 r 0,49(0,51) ∈ 0,49 ± 1,96 800 ∈ (0,4555, 0,5246). Vérification avec R : > prop.test(351 + 41, 800, correct = FALSE)$conf.int [1] 0.4554900 0.5246056 attr(,"conf.level") [1] 0.95 7.6 a) Nous avons un test unilatéral à gauche sur la différence entre deux moyennes. En supposant égales les variances des deux populations, on a X ∼ N (µ X , σ2 ) et Y ∼ N (µY , σ2 ). On sait que X̄ ∼ N (µ X , σ2 /n) et Ȳ ∼ N (µY , σ2 /m), d’où un estimateur de µ X − µY sur lequel baser un test est σ2 σ2 X̄ − Ȳ ∼ N µ X − µY , + . n m La variance σ2 est toutefois inconnue. Un estimateur de ce paramètre est la moyenne pondérée des estimateurs de chaque échantillon, soit S2p = (n − 1)S2X + (m − 1)SY2 . n+m−2 Or, (n + m − 2)S2p /σ2 ∼ χ2 (n + m − 2). Par conséquent, ( X̄ − Ȳ ) − (µ X − µY ) √ −1 −1 σ T= s n +m (n + m − 2)S2p σ2 ( X̄ − Ȳ ) − (µ X − µY ) =s ∼ t ( m + n − 2). nS2X + mSY2 1 1 + n+m−2 n m Solutions 109 On rejette H0 : µ X = µY en faveur de H1 : µ X < µy si t ≤ −t0,05 (n + m − 2). b) Avec les données de l’énoncé, la valeur de la statistique développée en a) est t = −0,838, alors que le 95e centile d’une loi t avec 13 + 16 − 2 = 27 degrés de liberté est t0,05 (27) = 1,703. Puisque |t| < 1,703, on ne rejette pas H0 . c) On a p = Pr[ T < −0,838], où T ∼ t(27). À l’aide de R, on trouve > pt(-0.838, df = 27) [1] 0.2046940 Puisque p = 0,2047 > 0,05, on ne rejette pas H0 . La conclusion est évidemment la même qu’en a). d) On souhaite tester l’égalité de deux variances, c’est-à-dire H0 : σX2 = σY2 versus H1 : σX2 ≠ σY2 . Pour ce faire, on se base sur le fait que nS2X /σX2 ∼ χ2 (n − 1) et que mSY2 /σY2 ∼ χ2 (m − 1). Ainsi, sous H0 (c’est-à-dire lorsque σX2 = σY2 ), F= nS2X /(n − 1) ∼ F (n − 1, m − 1). mSY2 /(m − 1) On rejette H0 si la valeur de la statistique est supérieure au 100(1 − α)e centile d’une loi F avec n − 1 et m − 1 degrés de liberté. Ici, on a f = 0,8311 et f 0,05 (12, 15) = 2,48. On ne rejette donc pas H0 . L’hypothèse des variances égales est donc raisonnable. 7.7 a) Il s’agit d’un simple test sur une moyenne. La statistique pour un petit échantillon est X̄ − 3 315 T= √ . S2 /10 On rejette H0 si t > t0,01 (10) = 2,764. b) La fonction t.test de R retourne tous les résultats pertinents pour ce test : > x <- c(3119, 2657, 3459, 3629, 3345, 3629, + 3515, 3856, 3629, 3345, 3062) > t.test(x, alternative = "g", mu = 3315) One Sample t-test data: x t = 0.6993, df = 10, p-value = 0.2502 alternative hypothesis: true mean is greater than 3315 95 percent confidence interval: 3202.12 Inf sample estimates: mean of x 3385.909 110 Solutions On ne rejette donc pas H0 à un seuil de signification de 5 %. c) Le niveau de confiance auquel on rejetterait H0 est 1 − p = 0,7498. d) On a un test unilatéral à gauche sur une variance pour lequel la statistique est 11S2 Y= . 5252 On rejette H0 si y < χ20,95 (10) = 3,94. e) Ici, y = 4,103 > 3,94. On ne rejette donc pas H0 . f) On a p = Pr[Y < 4,103], où Y ∼ χ2 (10). Or, > pchisq(4.103, 10) [1] 0.05741915 d’où la valeur p du test sur la variance est 0,0574. 7.8 a) La statistique à utiliser est la même qu’à l’exercice 7.7. b) On a > y <- c(4082, 3686, 4111, 3686, 3175, 4139, + 3686, 3430, 3289, 3657, 4082) > t.test(y, alt = "g", mu = 3315) One Sample t-test data: y t = 4.0283, df = 10, p-value = 0.001203 alternative hypothesis: true mean is greater than 3315 95 percent confidence interval: 3542.928 Inf sample estimates: mean of x 3729.364 On rejette donc H0 . c) Le niveau de confiance auquel on rejette H0 est 1 − p = 0,9988. d) La statistique à utiliser est la même qu’à l’exercice 7.7. e) On a y = 4,223 > 3,94. On ne rejette donc pas H0 . f) La valeur p du test sur la variance est p = Pr[Y < 4,223] = 0,0574. g) Les moyennes semblent être différentes entre les deux groupes, mais les variances égales. En effet, les résultats sur le test de l’égalité des variances est > var.test(x, y) F test to compare two variances data: x and y F = 0.9718, num df = 10, denom df = 10, p-value = 0.9648 Solutions 111 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 0.2614662 3.6120359 sample estimates: ratio of variances 0.9718155 On ne rejette donc clairement pas l’hypothèse selon laquelle σX2 = σY2 . Ainsi, on peut tester H0 : µ X = µY H1 : µ X ≠ µY ou H0 : µ X = µY H1 : µ X < µY . En supposant les variances égales. Les résultats de ces tests sont, dans l’ordre : > t.test(x, y, alt = "two.sided", var.equal = TRUE) Two Sample t-test data: x and y t = -2.3778, df = 20, p-value = 0.0275 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -644.75458 -42.15451 sample estimates: mean of x mean of y 3385.909 3729.364 > t.test(x, y, alt = "less", var.equal = TRUE) Two Sample t-test data: x and y t = -2.3778, df = 20, p-value = 0.01375 alternative hypothesis: true difference in means is less than 0 95 percent confidence interval: -Inf -94.33337 sample estimates: mean of x mean of y 3385.909 3729.364 Dans les deux cas, on rejette assez facilement l’hypothèse H0 . On établit donc que les fillettes nées au Québec sont en moyenne plus petites que les garçons. 7.9 a) La plus petite valeur de la statistique de Wilcoxon s’obtiendra lorsque tous les sujets du groupe traitement recevront les plus petits rangs, 112 Solutions c’est-à-dire les rangs de 1 à 17. La statistique est alors 17 WS = ∑i= i =1 (17)(18) = 153. 2 b) La plus grande valeur de la statistique de Wilcoxon s’obtiendra lorsque tous les sujets du groupe traitement recevront les plus grands rangs, c’est-à-dire les rangs de 27 à 40. La statistique est alors WS = 40 23 i =1 i =1 ∑i− ∑i= (40)(41) (23)(24) − = 544. 2 2 c) Comme la distribution de la statistique de Wilcoxon sous l’hypothèse nulle est symétrique, la moyenne est donc la valeur centrale, c’est-àdire 544 − 153 = 348,5. 153 + 2 7.10 a) Simplement WS = 1 + 3 + 5 + 6 = 15. b) Il y a (74) = (73) = 35 configurations possibles. c) Il faut trouver les 35 configurations possibles et calculer les 35 valeurs de WS correspondantes. On obtient : 1 fois 10 ; 1 fois 11 ; 2 fois 12 ; 3 fois 13 ; 4 fois 14 ; 4 fois 15 ; 5 fois 16 ; 4 fois 17 ; 4 fois 18 ; 3 fois 19 ; 2 fois 20 ; 1 fois 21 et 1 fois 22. La valeur p est donc 4 5 3 2 1 24 p = (3) + (1) (1) + (1) + (2) = . 35 35 35 35 35 35 Bibliographie Freund, J. E. 1992, Mathematical Statistics, 5e éd., Prentice Hall, Upper Saddle River, NJ, ISBN 0-1356383-4-8. Hogg, R. V., A. T. Craig et J. W. McKean. 2005, Introduction to Mathematical Statistics, 6e éd., Prentice Hall, Upper Saddle River, NJ, ISBN 0-1300850-7-3. Hogg, R. V. et E. A. Tanis. 2001, Probability and Statistical Inference, 6e éd., Prentice Hall, ISBN 0-1302729-4-9. Mood, A. M., F. A. Graybill et D. C. Boes. 1974, Introduction to the Theory of Statistics, 3e éd., McGraw-Hill, Boston, ISBN 0-0704286-4-6. Owen, W. J. 2008, Mathematical Statistics with Applications – Student Solutions Manual, 7e éd., Duxbury Press, ISBN 978-0-49538506-6. R Development Core Team. 2009, R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Vienna, Austria. URL http://www.r-project.org. Wackerly, D. D., W. Mendenhall et R. L. Scheaffer. 2008, Mathematical Statistics with Applications, 7e éd., Duxbury Press, ISBN 978-0-49511081-1. 113