Statistiques et Probabilités 2 Mohamed BOUTAHAR 1 4 octobre 2005 1 Département de mathématiques case 901, Faculté des Sciences de Luminy. 163 Av. de Luminy 13288 MARSEILLE Cedex 9, et GREQAM, 2 rue de la vieille charité 13002. e-mail : [email protected] Table des matières 1 Distributions de probabilité discrètes 1 Inégalités classiques . . . . . . . . . . . . . 1.1 Inégalité de Markov . . . . . . . . . 1.2 Inégalité de Bienaymé-Tchebychev 2 Indépendance . . . . . . . . . . . . . . . . 2.1 Variables indépendantes . . . . . . 2.2 Distributions marginales . . . . . . 3 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Distributions de probabilité continues 1 Densité de probabilité, moments . . . . . . . . . 2 Fonction caractéristique . . . . . . . . . . . . . 3 Indépendance . . . . . . . . . . . . . . . . . . . 3.1 Distributions marginales . . . . . . . . . 3.2 Variables indépendantes . . . . . . . . . 4 Fonction de répartition . . . . . . . . . . . . . . 4.1 Cas scalaire . . . . . . . . . . . . . . . . 4.2 Cas d’un couple aléatoire . . . . . . . . . 5 Distributions usuelles . . . . . . . . . . . . . . . 5.1 Loi uniforme . . . . . . . . . . . . . . . . 5.2 Loi de Gauss . . . . . . . . . . . . . . . 5.3 Loi exponentielle . . . . . . . . . . . . . 5.4 Loi gamma . . . . . . . . . . . . . . . . 5.5 Loi de Cauchy . . . . . . . . . . . . . . . 6 Transformation des variables aléatoires . . . . . 6.1 Cas discret . . . . . . . . . . . . . . . . 6.2 Cas continu . . . . . . . . . . . . . . . . 7 Suite de variables aléatoires . . . . . . . . . 7.1 Loi de Khi-deux . . . . . . . . . . . . . 7.2 Loi de Student . . . . . . . . . . . . . . 7.3 Loi de Fisher . . . . . . . . . . . . . . . 7.4 Loi de la moyenne et variance empirique 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 4 5 5 5 6 . . . . . . . . . . . . . . . . . . . . . . 7 7 8 9 9 9 10 10 10 11 11 11 11 11 12 12 12 12 13 13 13 14 14 TABLE DES MATIÈRES 3 2 Description d’une série statistique 1 Généralités, Définitions . . . . . . . . . . . . . . . . . . . . . . . 2 Distribution des fréquences . . . . . . . . . . . . . . . . . . . . . 2.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Distribution des fréquences . . . . . . . . . . . . . . . . . 2.4 Représentation graphique des distributions de fréquences 3 Caractéristiques de tendance centrale . . . . . . . . . . . . . . . 3.1 Définition : . . . . . . . . . . . . . . . . . . . . . . . . . 4 Caractéristiques de dispersion . . . . . . . . . . . . . . . . . . . 4.1 La dispersion en termes d’intervalles . . . . . . . . . . . 4.2 La dispersion en termes d’écarts . . . . . . . . . . . . . . 5 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Liaisons entre variables statistiques 0.1 La distribution marginale . . . . . . . . 0.2 La distribution conditionnelle . . . . . . 1 L’ajustement, régression simple . . . . . . . . . 1.1 Coefficient de corrélation linéaire : . . . . 1.2 Ajustement par la méthode des moindres 1.3 Qualité d’ajustement . . . . . . . . . . . . . . . . . . . . . . . . . . . carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 16 16 16 17 18 18 18 18 19 19 21 . . . . . . 22 23 23 24 24 24 25 5 Estimation statistique et test d’hypothèses 1 Estimation ponctuelle des paramètres . . . . . . . . . . . . . . . . . . 1.1 Choix des estimateurs . . . . . . . . . . . . . . . . . . . . . . 1.2 Construction des estimateurs . . . . . . . . . . . . . . . . . . 2 Estimation par intervalle de confiance et Tests . . . . . . . . . . . . . 2.1 Intervalle de confiance pour la moyenne d’une population gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Comparaison d’une moyenne théorique et d’une moyenne ob2.3 2.4 29 29 29 30 31 31 servée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Comparaison des moyennes de deux échantillons indépendants. 32 Comparaison des moyennes de deux séries appariés. . . . . . . 33 2.5 3 Intervalle de confiance pour la variance d’une population gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Comparaison d’une variance théorique et d’une variance observée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Comparaison des variances de deux échantillons indépendants Analyse de la variance . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Comparaison simultanée de plusieurs moyennes . . . . . . . . 3.2 Comparaison simultanée de plusieurs variances . . . . . . . . . 34 34 34 35 35 36 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 3 6 EXERCICES 37 1 Distributions de Probabilité Discrètes . . . . . . . . . . . . . . . . . 37 2 Distributions de Probabilité Continues . . . . . . . . . . . . . . . . . 38 3 Estimation et tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Chapitre 1 Distributions de probabilité discrètes 1 Inégalités classiques 1.1 Inégalité de Markov Theorem 1 Soit X une variable aléatoire à valeurs dans un espace dénombrable E avec E ⊂ R, alors pour tout a > 0, E(|f (X)|) P (|f (X)| ≥ a) ≤ . (1.1) a Preuve : On a X |f (xk )| pk E(|f (X)|) = xk ∈E = X xk ∈A |f (xk )| pk + X xk ∈A |f (xk )| pk , où A = {xk ∈ E, |f (xk )| ≥ a} , et A est le complémentaire de A dans E. Donc X E(|f (X)|) ≥ |f (xk )| pk xk ∈A X ≥ de plus 1.2 P xk ∈A apk , xk ∈A pk = P (X ∈ A) = P (|f (X)| ≥ a).¤ Inégalité de Bienaymé-Tchebychev Theorem 2 Soit X une variable aléatoire à valeurs dans E, alors pour tout ε > 0 P (|X − EX| ≥ ε) ≤ 4 σ 2X . ε2 (1.2) Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 5 Preuve : On applique l’inégalité de Markov (1.1) avec f (t) = |t − EX|2 , a = ε2 .¤ 2 Indépendance 2.1 Variables indépendantes Soit X et Y deux variables aléatoires. On dit que X et Y sont indépendantes si P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B). 2.2 (1.3) Distributions marginales Soit E1 × E2 et le couple aléatoire X = (X1 , X2 )0 , où chaque Xi est à valeurs dans Ei . La distribution marginale de la variable Xi est définie par Pi (A) = P (Xi ∈ A), ∀A ∈ F. Theorem 3 Soit X et Y deux variables aléatoires discrètes à valeurs dans E1 et E2 ,et indépendantes, soit f : E1 → R, et g : E2 → R, telles que f (X) et g(Y ) sont intégrables alors f (X)g(Y ) est intégrable et E(f (X)g(Y )) = E(f (X))E(g(Y )) (1.4) Preuve : Posons Z = (X, Y ) et h(Z) = f (X)g(Y ), alors Z est à valeurs dans E = E1 × E2 , de plus d’après l’hypothèse d’indépendance P ((X, Y ) = (x, y)) = P (X = x)P (Y = y). Donc X |h(zk )| P (Z = zk ) E(|h(Z)|) = zk ∈E = X xk ,yl = X xk |f (xk )| |g(yl )| P (X = xk )P (Y = yl ) |f (xk )| P (X = xk ) X yl |g(yl )| P (Y = yl ) car f (X) et g(Y ) sont intégrables, donc E(|h(Z)|) < ∞, par conséquent h(Z) est intégrable. Par un raisonnement analogue à ci-dessus, mais sans la valeur absolue on obtient l’égalité (1.4). ¤ Theorem 4 (Variance d’une somme de variables aléatoires indépendantes). Soit X1 et X2 2 variables aléatoires indépendantes, alors V (X1 + X2 ) = V (X1 ) + V (X2 ). (1.5) 6 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar Preuve : V (X1 + X2 ) = V (X1 ) + V (X2 ) + 2 cov(X1 , X2 ), où cov(X1 , X2 ) = E((X1 − EX1 )(X2 − EX2 )) est la covariance de X1 et X2 , mais d’après (1.4) on a cov(X1 , X2 ) = E((X1 − EX1 )(X2 − EX2 )) = E((X1 − EX1 ))E((X2 − EX2 )) = 0.¤ Remarque : Si deux variables aléatoires X et Y sont indépendantes alors elles sont non covariées (cov(X, Y ) = 0). 3 Fonction génératrice Soit X une variable discrète à valeurs dans N. Definition 1 On appelle fonction génératrice de X, l’application gX : C → C définie par : ∞ X X gX (s) = E(s ) = sk P (X = k), |s| ≤ 1. k=0 La connaissance de la fonction génératrice gX permet le calcul des moments de X, en effet on a 0 00 0 (1) et E(X 2 ) = gX (1) + gX (1), EX = gX (1.6) 0 00 et gX sont les dérivées première et seconde de la fonction gX . où gX Theorem 5 Soit X et Y deux variables aléatoires indépendantes à valeurs dans N, alors (1.7) gX+Y (s) = gX (s)gY (s) Preuve : gX+Y (s) = E(sX+Y ) = E(sX sY ) = E(sX )E(sY ), d’après (1.4). ¤. Chapitre 2 Distributions de probabilité continues Soit X une variable aléatoire à valeurs dans E ⊂ R ou Rd , si E est non dénombrable, alors on dit que X est une variable continue. 1 Densité de probabilité, moments Soit X = (X1 , X2 ) un couple aléatoire à valeurs dans R2 , et soit fX une fonction de R2 dans R+ intégrable et telle que Z fX (x)dx = 1. (2.1) R2 On dit que X admet la densité de probabilité fX si pour tout A ⊂ R2 Z P (X ∈ A) = fX (x)dx. A Soit g : R2 → R, telle que mathématique de g(X) par R R2 |g(x)| fX (x)dx < ∞, alors on définit l’espérance E(g(X)) = Z g(x)fX (x)dx, (2.2) R2 en particulier i) si E(g(X)) existe avec g(x1 , x2 ) = gi (x) = xi , 1 ≤ i ≤ 2, alors on définit l’espérance mathématique du couple X par R x f (x)dx E(X1 ) 1 X 2 R = . E(X) = R E(X2 ) x f (x)dx R2 2 X 7 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 8 ii) si E(g(X)) existe avec g(x1 , x2 ) = gi gj (x) = xi xj , 1 ≤ i ≤ 2, 1 ≤ j ≤ 2, alors on définit la matrice de covariance du couple aléatoire X = (X1 , X2 ) par µ ¶ V (X1 ) cov(X1 , X2 ) V (X) = , cov(X2 , X1 ) V (X2 ) où cov(X1 , X2 ) = cov(X2 , X1 ) = E(X1 X2 ) − E(X1 )E(X2 ) Z Z Z x1 x2 fX (x)dx − x1 fX (x)dx x2 fX (x)dx. = R2 2 R2 R2 Fonction caractéristique Soit X un couple aléatoire à valeurs dans R2 . Definition 2 On appelle fonction caractéristique de X, l’application φX : R2 → C définie par : φX (u) = φX (u1 , u2 ) = E(ei(u1 X1 +u2 X2 ) ), avec i2 = −1. La connaissance de la fonction caractéristique φX permet le calcul des moments de X, en effet si X est une variable aléatoire, on a Theorem 6 Si on suppose de plus que E(X k ) < ∞ et que la fonction φ est de classe C ∞ , alors φ(k) (0) E(X k ) = (2.3) ik où φ(k) est la dérivée d’ordre k de la fonction φ. Preuve : D’après la formule de Taylor φ(t) = P∞ (itX)k P (it)k k E( k=0 k! ) = ∞ k=0 k! E(X ).¤. P∞ k=0 φ(k) (0)tk k! = E(eitX ) = Theorem 7 Si deux couples aléatoires à valeurs dans R2 ont la même fonction caractéristique, alors ils ont la même loi, c’est à dire la même densité. Preuve : On se limite au cas où φX = φY = φ est intégrable, dans ce cas le théorème résulte de l’application du théorème d’inversion de Fourier Z 1 fX (x) = fY (x) = e−i(x1 u1 +x2 u2 ) φ(u1 , u2 )du1 u2 .¤ (2π)2 R2 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 3 3.1 9 Indépendance Distributions marginales Soient X et Y deux variables aléatoires à valeurs dans R tels que (X, Y )0 admette la densité fX,Y (x, y). Alors on définit les densités marginales de X et de Y par Z Z fX,Y (x, y)dy et fY (y) = fX,Y (x, y)dx fX (x) = R 3.2 R Variables indépendantes Soient X et Y deux variables aléatoires à valeurs dans R.On dit que X et Y sont indépendantes si P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B). (2.4) En utilisant le théorème de Fubini, et les mêmes arguments que le théorème 3 on obtient le théorème Theorem 8 Soit X et Y deux variables aléatoires à valeurs dans R indépendantes, soit f : R → R, et g : R → R, telles que f (X) et g(Y ) sont intégrables alors f (X)g(Y ) est intégrable et E(f (X)g(Y )) = E(f (X))E(g(Y )) (2.5) Theorem 9 (admi) Soit X = (X1 , X2 )de densité fX (x), et tel que les Xi , 1 ≤ i ≤ 2, soient des variables aléatoires indépendantes. On a alors fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ), (2.6) où fXi est la densité marginale de la variable Xi . Réciproquement si fX a la forme (2.6) où les fXi , 1 ≤ i ≤ 2 sont des densités de probabilité, alors les Xi , 1 ≤ i ≤ 2, sont indépendantes et les fXi sont les densités des Xi . Theorem 10 Soit X = (X1 , X2 ) de densité fX (x) et de fonction caractéristique φX (u). Pour que les variables aléatoires Xi , 1 ≤ i ≤ 2, soient indépendantes, il faut et il suffit que φX (u1 , u2 ) = φX1 (u1 )φX2 (u2 ), (2.7) où φXi est la fonction caractéristique de la variable Xi . Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 10 Preuve : Supposons que les Xk sont indépendantes, alors fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ), donc Z Z i(u1 x1 +u2 x2 ) e fX (x)dx = eiu1 x1 eiu2 x2 fX1 (x1 )fX2 (x2 )dx1 dx2 , φX (u) = R2 R2 donc d’après Fubini Z Z iu1 x1 φX (u) = e fX1 (x1 )dx1 eiu2 x2 fX2 (x2 )dx2 = φX1 (u1 )φX2 (u2 ). R R Inversement, supposons que (2.7) est satisfaite, Soit X̃j , 1 ≤ j ≤ 2, une suite de variables indépendantes telles que chaque X̃j ait la même loi que Xj , et X̃ = (X̃1 , X̃2 ). D’après la partie directe du théorème : φX̃ (u1 , u2 ) = φX̃1 (u1 )φX̃2 (u2 ), et comme φX̃i (ui ) = φXi (ui ), on a φX̃ (u) = φX (u), donc, par le théorème 7 X et X̃ ont la même loi ; d’après le théorème 9 fX (x1 , x2 ) = fX̃ (x1 , x2 ) = fX1 (x1 )fX2 (x2 ).¤ 4 4.1 Fonction de répartition Cas scalaire Soit X une variable aléatoire de densité f (x), la fonction de répartition de X Rt est définie par : F : R → [0, 1] et F (t) = P (X ≤ t) = −∞ f (x)dx. Remarque : F est une fonction non décroissante telle que F (−∞) = 0, F (+∞) = 1, et F 0 (t) = f (t). 4.2 Cas d’un couple aléatoire Soit X = (X1 , X2 ) un couple aléatoire de densité f (x), la fonction de répartition de X est définie par : F : R2 → [0, 1] et si t = (t1 , t2 ) alors Z t1 Z t2 F (t) = P (X ≤ t) = P (X1 ≤ t1 , X2 ≤ t2 ) = f (x1 , x2 )dx1 dx2 . −∞ On a aussi f (t1 , , t2 ) = ∂ 2 F (t1 , t2 ) . ∂t1 ∂t2 −∞ Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 5 5.1 11 Distributions usuelles Loi uniforme On dit que X suit une loi uniforme sur [a, b], noté X à U[a, b], si elle admet la densité ½ 1 1 si x ∈ [a, b] b−a fX (x) = 1[a,b] (x) = (2.8) 0 sinon. b−a On montre que E(X) = (a + b)/2, V (X) = (b − a)2 /12, φX (u) = 5.2 eiub −eiua . iu(b−a) Loi de Gauss On dit que X suit une loi de Gauss de moyenne m et de variance σ 2 , noté X à N(m, σ 2 ), si elle admet la densité (x−m)2 1 fX (x) = √ e− 2σ2 , ∀x ∈ R. σ 2π On montre que E(X) = m, V (X) = σ 2 , φX (u) = eium− 5.3 σ 2 u2 2 (2.9) . Loi exponentielle On dit que X suit une loi exponentielle de paramètre λ > 0, noté X à E(λ), si elle admet la densité ½ −λx λe si x ≥ 0 (2.10) fX (x) = 0 sinon. On montre que E(X) = λ1 , V (X) = 5.4 1 , φX (u) λ2 = λ . λ−iu Loi gamma On dit que X suit une loi gamma de paramètres α > 0 et β > 0, noté X à Γ(α, β), si elle admet la densité ½ β α α−1 −βx x e si x ≥ 0 Γ(α) fX (x) = (2.11) 0 sinon, R∞ où Γ(α) = 0 tα−1 e−t dt. ´−α ³ α α iu . On montre que E(X) = β , V (X) = β 2 , φX (u) = 1 − β Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 5.5 12 Loi de Cauchy On dit que X suit une loi Cauchy , noté X à C, si elle admet la densité fX (x) = 1 , ∀x ∈ R. π(1 + x2 ) (2.12) Une variable de Cauchy n’admet pas d’espérance mathématique car Z ∞ Z ∞ Z ∞ x + − dx = +∞. x fX (x)dx x fX (x)dx = π(1 + x2 ) −∞ −∞ 0 6 6.1 Transformation des variables aléatoires Cas discret Exemple : Soit X la variable aléatoire définie par xi 0 1 -1 2 P (X(ω) = xi 0.25 0.2 0.25 0.3 On définit la variable aléatoire Y = X(X + 1), alors Y prends ses valeurs dans y 0 2 6 {0, 2, 6} avec la loi de probabilité suivante : i P (Y (ω) = yi ) 0.5 0.2 0.3 Theorem 11 Si X est une variable aléatoire discrète à valeurs dans E, et g une application injective, alors Y = g(X) est une variable aléatoire discrète à valeurs dans g(E), ayant la même loi de probabilité que X : P (Y (ω) = yi ) = P (X(ω) = xi ), yi = g(xi ). 6.2 Cas continu Soit Y = X 2 , où X à N(0, 1) donc Y est à valeurs dans R+ donc fY (y) = 0 ∀y ≤ R √y x2 √ √ 0. Si y ≥ 0, on a FY (y) = P (Y ≤ y) = P (− y ≤ X ≤ y) = √12π −√y e− 2 = 2 R √y − x2 1 − y2 0 √2 2 donc f (y) = F (y) = √ e e , c’est à dire que Y à X 2 (1). Si la Y Y 2π 0 2πy transformation g n’est pas bijective, on utilise souvent la fonction de répartition pour calculer la loi de Y = g(X). Cependant si g est bijective on a le théorème Theorem 12 Soit X = (X1 , X2 ) un couple aléatoire de densité fX , et soit g une application de R2 dans R2 . On définit la transformée de X par g : Y = g(X) = (g1 (X), g2 (X)). On suppose que g vérifie les conditions suivantes : i) g est définie sur un ouvert U ⊂ R2 tel que Z P (X ∈ U) = fX (x)dx = 1, U Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 13 et g est bijective d’inverse g−1 = (g1−1 , g2−1 ). ii) les dérivées partielles de g (resp. de g −1 ) existent et sont continues sur U (resp. sur V = g(U ) ). iii) Le déterminant jacobien de g, défini par J(g(x)) = ∂g1 (x) ∂g2 (x) ∂g1 (x) ∂g2 (x) − 6= 0, ∀x ∈ U. ∂x1 ∂x2 ∂x2 ∂x1 Alors Y admet une densité fY donnée par ¯ ¯ −1 ( ¯ ∂g1 (y) ∂g2−1 (y) ∂g1−1 (y) ∂g2−1 (y) ¯ − fX (g −1 (y)) ¯ ∂y ∂y2 ∂y2 ∂y1 ¯ 1 fY (y) = 0 sinon, si y ∈ V = g(U ) (2.13) Exemple Soit (X1 , X2 ) un couple aléatoire suivant une loi uniforme sur [0, 1]2 et le couple aléatoire Y = g(X) avec g(x1 , x2 ) = ( xx12 , x1 + x2 ). y2 2 , y1y+1 ), les autres g est une application bijective d’inverse g−1 (y1 , y2 ) = ( yy11+1 hypothèses du théorème ci-dessus sont satisfaites, de plus ∂g1−1 (y) ∂g2−1 (y) ∂g1−1 (y) ∂g2−1 (y) − ∂y1 ∂y2 ∂y2 ∂y1 y2 y1 (y1 +1)2 y1 +1 y2 1 2 = = det (y1−y . +1)2 y1 +1 (y1 + 1)2 J(g−1 (y)) = Par conséquent fY (y) = 7 7.1 ½ y2 (y1 +1)2 0 si y ∈ V = g(U) sinon. Suite de variables aléatoires Loi de Khi-deux On dit que X suit une loi Khi-deux à n degrés de liberté , noté X à X 2 (n), si X à Γ( n2 , 12 ). P Remarque : on montre que si X = nk=1 Zk2 où (Zk , 1 ≤ k ≤ n) est une suite de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) suivant une loi gaussienne N(0, 1), alors X à X 2 (n) 7.2 Loi de Student On dit que X suit une loi Student à n degrés de liberté , noté X à t(n), si X = √Z , Z à N(0, 1), Y à X 2 (n), et Z et Y sont indépendantes. Y /n Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 7.3 14 Loi de Fisher On dit que X suit une loi Fisher à (n1 , n2 ) degrés de liberté , noté X à F (n1 , n2 ), 1 si X = YY12 /n , Yi à X 2 (ni ), i = 1, 2 et Y1 et Y2 sont indépendantes. /n2 7.4 Loi de la moyenne et variance empirique Theorem 13 (Fisher) (Xk , 1 ≤ k ≤ n) est une suite de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) suivant une loi gaussienne N(m, σ 2 ). Alors 1X 1X X= Xk , σ b2x = (Xk − X)2 n k=1 n k=1 n n qui désignent respectivement la moyenne et la variance empirique de la suite (Xk , 1 ≤ k ≤ n) sont telles que X à N(m, X et nσ b 2x σ2 sont indépendantes. b2 σ2 n σ ), 2 x à X 2 (n − 1), n σ Chapitre 3 Description d’une série statistique 1 Généralités, Définitions 1. La statistique : C’est l’étude des phénomènes préalablement exprimés sous forme numérique. 2. L’unité statistique : C’est l’élément de l’ensemble que l’on veut étudier, exemple : un étudiant est une unité statistique lorsque l’on étudie une classe. 3. Le caractère : C’est l’aspect de l’unité statistique que l’on retient dans l’analyse. 4. L’échantillon : C’est un sous-ensemble d’une population statistique. 5. La variable statistique : C’est l’expression numérique du caractère observé sur les unités statistiques considérés. i) La variable statistique x est dite discrète lorsqu’elle ne peut prendre que des valeurs isolées : x1 , x2 , ..., xk , où x1 < x2 < ... < xk . Exemple : le nombre de chevaux fiscaux d’une voiture ; le nombre d’enfants dans une famille,... ii) La variable statistique x est dite continue lorsqu’elle peut prendre n’importe quelle valeur d’un intervalle [a, b]. Exemple : la durée en minute d’une conversation téléphonique. Dans ce cas l’intervalle des valeurs possibles est divisé en k classes [a0 , a1 [, [a1 , a2 [, ..., [ak−1 , ak ], où a0 = a < a1 < ... < ak−1 < ak = b. ah−1 et ah sont les frontières de la h-ième classe, xh = ah−12+ah est le centre de celle-ci. 6. La série statistique : C’est à la fois : i) L’ensemble des valeurs {x1 , x2 , ..., xk } (resp. des classes de valeur {[a0 , a1 [, [a1 , a2 [, ..., [ak−1 , ak ]}) de la variable x. ii) Le nombre d’observation associé à chaque valeurs xi (resp. à chaque classe). 15 16 150 100 20 50 40 ni 60 nicumulees 200 80 250 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 0 1 2 3 4 0 1 x 2 3 4 x Fig. 3.1 — Fréquences absolues (à gauche) et fréquences absolues cumulées (à droite) du nombre de garçons. 2 2.1 Distribution des fréquences Cas discret -Si dans une série statistique résultant de n observations, on a trouvé ni fois la valeur xi , ni représente la fréquence absolue de cette valeur et le rapport fi = nni représente sa fréquence relative. Pj -L ’expression i=1 ni est appelée fréquence cumulée absolue des valeurs de x inférieures ou égales Pj à xj . -L ’expression i=1 fi est appelée fréquence cumulée relative des valeurs de x inférieures ou égales à xj . Exemple : L’unité statistique étant la famille de quatre enfants dont l’aîné a moins de 16 ans, on s’intéresse au nombre x de garçons qui la compose. L’étude statistique suivante porte sur un échantillon de 250 familles (voir graphique 3.1) Valeurs de x 0 1 2 3 4 Fréquence absolue ni 13 61 93 65 18 Fréquence relative fi 0,052 0,244 0,372 0,260 0,072 Fréquence absolue cumulée 13 74 167 232 250 Fréquence relative cumulée 0,052 0,296 0,668 0,928 1 2.2 Cas continu On appelle fréquence absolue de la hième classe la nombre nh d’observations dont les valeurs appartiennent à cette classe. Le nombre fh = nnh représente la fréquence 17 nh 50 100 150 200 250 300 350 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 50 100 150 200 x Fig. 3.2 — Histogramme des fréquences absolues de la durée de service du guichet de la poste. relative de la hième Ph classe. -L ’expression i=1 ni est appelée fréquence cumulée absolue des h premières classes. P -L ’expression ji=1 fi est appelée fréquence cumulée relative des h premières classes. Exemple : On s’intéresse à la durée x de service d’un guichet de la poste qui peut servir au plus un client à la fois. On a relevé la durée de service de 1000 clients consécutifs. L’unité de temps est la seconde, les résultats sont résumés par le tableau suivant (voir aussi graphique 3.2) C la sse s d e [0 ,3 0 [ [3 0 ,6 0 [ [6 0 ,9 0 [ [9 0 ,1 2 0 [ [1 2 0 ,1 5 0 [ [1 5 0 ,1 8 0 [ [1 8 0 ,2 4 0 [ 369 251 148 98 65 43 26 0 ,3 6 9 0 ,2 5 1 0 ,1 4 8 0 ,0 9 8 0 ,0 6 5 0 ,0 4 3 0 ,0 2 6 369 620 768 866 931 974 1000 0 ,3 6 9 0 ,6 2 0 0 ,7 6 8 0 ,8 6 6 0 ,9 3 1 0 ,9 7 4 1 va leu rs d e x Fréq u e n ce a b so lu e nh Fréq u e n ce re la tive fh Fréq u e n ce a b solu e cu m u lé e Fréq u e n ce rela tive cu m u lé e 2.3 Distribution des fréquences L’ensemble des k valeurs xi (resp. des k classes) et les effectifs ni correspondants, constitue la distribution de fréquences de la variable x. Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 2.4 18 Représentation graphique des distributions de fréquences On peut porter en ordonnée les fréquences absolues. Dans le cas discret on obtient un diagramme en bâtons. Dans le cas continu, on construit un histogramme de fréquences, l’aire de chaque classe devant être proportionnelle à son effectif correspondant. 3 3.1 Caractéristiques de tendance centrale Définition : Ce sont des indicateurs qui permettent de synthétiser l’ensemble de la série statistique en faisant ressortir une position centrale de la valeur du caractère étudié. 1. La médiane : C’est la valeur xm de la variable x qui partage les éléments de la série statistique, préalablement classés par ordre de valeurs croissantes, en deux groupes d’effectifs égaux : 50 % des valeurs observées sont inférieures à xm et 50 % sont supérieures. Dans le cas continu, elle est donnée par j aj − aj−1 n X xm = aj−1 + ( − ni ), nj 2 i=1 sachant que xm appartient à [aj−1 , aj [. 2. Le mode : Variable discrète : c’est la valeur pour laquelle la fréquence est maximale. Variable continue : la classe modale est celle pour laquelle la fréquence est maximale. Lorsqu’il y a une seule valeur ou classe modale, la distribution est dite unimodale. 3. La moyenne. -La moyenne x de k valeurs distinctes x1 , ..., xk , et de fréquences n1 , ..., nk : X 1X x= ni xi , n = ni . n i=1 i=1 k k -La moyenne x de n valeurs distribuées en k classes [a0 , a1 [, ..., [ak−1 , ak [ et d’effectifs n1 , ..., nk : k 1X ai−1 + ai . x= ni xi , xi = n i=1 2 4 Caractéristiques de dispersion Deux séries de même nature peuvent présenter des caractéristiques de tendance centrale voisines, mais différer quant à la dispersion de leurs valeurs par rapport à la tendance centrale. Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 4.1 19 La dispersion en termes d’intervalles i). Intervalle de variation ou étendue : C’est la différence entre les valeurs extrêmes de la variable ou entre les centres de classes extrêmes xk − x1 . ii). L’intervalle interquartile : Si l’on peut diviser x1 , ..., xk en quatre classes [x1 , Q1 [, [Q1 , Q2 [, [Q2 , Q3 [, [Q3 , xk ] ayant toutes la même fréquence n4 , alors Q1 , Q2 , et Q3 sont appelés respectivement premier, deuxième et troisième quartiles. Dans le cas continu j Q1 = aj−1 + j aj − aj−1 n X aj − aj−1 3n X ( − ni ), Q3 = aj−1 + ( − ni ). nj 4 n 4 j i=1 i=1 [Q1 , Q3 ] est l’intervalle interquartile. 4.2 La dispersion en termes d’écarts L’origine retenue pour le calcul des écarts étant une caractéristique de tendance centrale, les écarts ne traduiront la dispersion que si l’on considère leur valeur absolue ou leurs puissances paires. i). Les écarts absolus : P -L’ écart absolu par rapport à la médiane eM = n1 ki=1 ni |xi − M| , M est la médiane de la série. P -L’ écart absolu par rapport à la moyenne arithmétique ex = n1 ki=1 ni |xi − x|. ii). Variance, écart-typeP : 2 1 -Variance : V (x) = σ bx = n ki=1 ni (xi − x)2 . -Ecart-type : σ bx . Proposition 14 pour tout a ∈ R, on a V (a + x) = V (x), V (ax) = a2 V (x), et 1X ni x2i − (x)2 . V (x) = n i=1 k Exemples : Exemple 1. La distribution des salaires annuels dans une population contenant n = 14890442 actifs, ( le nombre d’individus Ni touchant le salaire si exprimé en euros) est distribuée comme suit : 0.0 e+00 4.0 e+06 N.individus 8.0 e+06 1.2 e+07 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 0 e+00 2 e+05 4 e+05 6 e+05 8 e+05 1 e+06 salaire Fig. 3.3 — Le nombre d’individus N ayant comme salaire s si (en C = ) Ni 10000 11583265 20000 2045372 30000 683240 40000 349740 . 50000 183280 100000 36250 200000 7975 500000 1015 1000000 305 Le salaire moyen est donné par 1X s= Ni si = 13862.81C =, n i=1 9 la variance et l’écart-type sont donnés par : 1X Ni (si − s)2 = 133496156, σ bs = 11554.05, V (s) = n i=1 9 le premier, deuxième et troisième quartiles sont 20 21 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar Q1 = 10435.56, Q2 = 14338.53 et Q3 = 18241.5. Remarque. Le salaire médian qui est égal à sm = Q2 est différent du salaire moyen s. Exemple 2. Dans une classe constituée de deux groupes G1 et G2, la note obtenue dans l’examen de statistique est distribuée comme suit : Groupe 1 Groupe 2 9 2 10 10 9 1 9 9 8.5 4 9.5 9.5 10 10 10 7 9 9 9 10 7 9 9 17 8.5 12 9.5 9.5 8 16 La moyenne de la classe est égale à x = 9. La moyenne du groupe 1 est égale à xG1 = 9, et la moyenne du groupe 2 est aussi égale à xG2 = 9. Cependant les deux groupes, même s’ils ont la même moyenne, sont complètement différents. En effet dans le groupe 1, la plupart des notes tournent autour de la moyenne globale 9, les étudiants ont presque le même niveau. Le groupe 2 est plus hétérogène, il y a des étudiants faibles (notes :1,2 et 4) et des étudiants forts (notes : 12,16 et 17). Si on calcule la variance de chaque groupe on trouve: VG1 = 0.6428571 ce qui donne un écart-type de σ G1 =0.8017837. VG2 = 19.10714 ce qui donne un écart-type de σ G2 = 4.371172. VG2 > VG1 , en conclusion plus la variance est grande plus l’échantillon est hétérogène. 5 Moments Le moment d’ordre r de la variable x par rapport à l’origine x0 est défini par 1X ni (xi − x0 )r . mr (x0 ) = n i=1 k Si x0 = 0 les moments sont dits simples et notés mr . Si x0 = x les moments sont dits centrés et notés µr . Proposition 15 On a µ2 = m2 − m21 , µ3 = m3 − 3m1 m2 + 3m31 , µ4 = m3 − 4m1 m3 + 6m31 m2 − 3m41 . Chapitre 4 Liaisons entre variables statistiques Definition 3 Une série double à deux indices est définie par l’observation de n couples de valeur tels que : i) Cas discret : x prends les valeurs x1 , ..., xp et y prends les valeurs y1 , ..., yr , et à chaque couple de valeur (xi , yj )1≤i≤p;1≤j≤r on associe : -Sa fréquence absolue ni,j qui est le nombre de fois où (x, y) = (xi , yj ). n -Sa fréquence relative fi,j = ni,j . ii) Cas continu : Les valeurs observées pour x et pour y sont regroupées respectivement en p et r classes [a0 , a1 [,[a1 , a2 [,...,[ap−1 , ap ], resp. [b0 , b1 [, [b1 , b2 [ ,..., [br−1 , br ], et ni,j est le nombre d’observations pour lesquelles ai−1 ≤ x ≤ ai , et bj−1 ≤ y ≤ bj . Exemple : sur 200 personnes de même âge et de même sexe on en dénombre 25 dont la taille y est comprise entre 165 et 167 cm et le poids x entre 60 et 65 kg ; 30 dont la taille entre 167 et 169 et le poids entre 60 et 65 kg ; le reste est tel que 55 ≤ x ≤ 60 et 160 ≤ y ≤ 165.On peut représenter les données par y(taille) 160 − 165 165-167 167 − 169 Totaux partiels x(poids) 55 − 60 60 − 65 Totaux partiels 145 0 145 0 25 25 0 30 30 145 55 200 Les résultats sont présentés souvent avec un tableau à double entrée(ou matrice) comme suit 22 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar y 23 Totaux partiels y1 ... yj ... yr x1 .. . n1,1 .. . ... .. . n1,j .. . ... .. . n1,r .. . n1,• = xi .. . ni,1 .. . ... .. . ni,j .. . ... .. . ni,r .. . ni,• = xp Totaux partiels np,1 n = Pp•,1 i=1 ni,1 ... ... np,j n = Pp•,j i=1 ni,j ... ... np,r n = Pp•,r i=1 ni,r x 0.1 La distribution marginale Pr j=1 n1,j .. . P r j=1 ni,j .. . P np,• = rj=1 np,j P n = i,j ni,j La distribution marginale de x se lit sur la dernière colonne du tableau ; elle concerne les fréquences de x considérées isolément : le nombre d’observations pour P lesquelles x = xi (resp. x appartient à la classe [ai−1 , ai [) est ni,• = rj=1 ni,j . De même, les fréquences de la distribution marginale de y se lisent dans la dernière ligne du tableau. On définit : -les moyennes marginales x et y : p 1X 1X x= ni,• xi et y = n•,j yj . n i=1 n j=1 r -les variances marginales p σ 2x 0.2 1X 1X = ni,• (xi − x)2 et σ 2y = n•,j (yj − y)2 . n i=1 n j=1 r La distribution conditionnelle A chaque valeur fixée xi correspond la distribution conditionnelle de y sachant x = xi d’effectifs ni,1 , ..., ni,r . On définit : - la moyenne conditionnelle de y sachant x = xi : yi = r 1 X ni,j yj . ni,• j=1 - la variance conditionnelle de y sachant x = xi : σ b2xi (y) r 1 X = ni,j (yj − y i )2 . ni,• j=1 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 24 De même on définit : - la moyenne conditionnelle de x sachant y = yj : p 1 X xj = ni,j xi . n•,j i=1 - la variance conditionnelle de x sachant y = yj : 1 1.1 σ b2yj (x) p 1 X = ni,j (xi − xj )2 . n•,j i=1 L’ajustement, régression simple Coefficient de corrélation linéaire : C’est un nombre sans dimension destiné à mesurer l’intensité de liaison entre les variations de x et celles de y. Il a pour expression r= 1X cov(x, y) , où cov(x, y) = ni,j (xi − x)(yj − y). σ bx σ by n i,j Definition 4 Etant donné un ensemble de points de coordonnées (xi , yi ), 1 ≤ i ≤ n formant un nuage dans le plan XOY , l’ajustement consiste à choisir une courbe continue qui résume le nuage. Cette courbe a pour but d’expliquer comment y varie en fonction de x. 1.2 Ajustement par la méthode des moindres carrés Le type d’ajustement étant préalablement choisi, la courbe d’ajustement Pn de2 y en x, d’équation y = f (x), est dite des moindres carrés si f est telle que i=1 di soit minimale où di = yi − f (xi ) 1.2.1 l’ajustement linéaire : droite des moindres carrés Lorsque le nuage est rectiligne on choisit f (x) = ax + b. La droite des moindres carrés est donnée par y = b ax + bb, où n 1X cov(x, y) b ,b = y −b ax , où cov(x, y) = (xi − x)(yi − y), b a = n i=1 σ b2x n n n 1X 1X 1X 2 2 σ bx = (x − x) , x = xi , y = yi . n i=1 i n i=1 n i=1 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 25 Proposition 16 i) |r| ≤ 1, ii) r2 = b a1 b a2 , où b a1 (resp. b a2 ) est le coefficient directeur de la droite d’ajustement de y en x (resp. de x en y). 1.3 Qualité d’ajustement Pour juger de la bonne qualité de l’ajustement on définit le coefficient 2 R = σ b2y − SSR/n σ b2y , SSR = n X e2i , i=1 axi ) le résidu qui SSR est la somme des carrés des résidus, avec ei = yi − (bb + b correspond à l’observation yi . R2 est un réel toujours inférieur à 1. Si R2 est proche de 1 alors l’ajustement est de bonne qualité. Si R2 est proche de 0 alors l’ajustement est de mauvaise qualité. Exemples : Exemple 1) On reprend l’exemple de la distribution des salaires, le graphique 3.3 nous suggère que le nombre d’individus décroît lorsque le salaire croit, le rythme de décroissance est exponentiel. On peut donc déduire que le coefficient de corrélation linéaire est négatif ; en effet on trouve r = −0.3005368. Pour expliquer N en fonction de s, nous allons faire une transformation logarithmique. En effet en posant y = ln(N) et x = ln(s), le graphique 4.1 montre qu’il y a une relation linéaire en y et x. Le coefficient de corrélation linéaire est r = −0.998564. Un ajustement linéaire de y en x est bien justifié. On trouve bb = 37.241 et b a = −2.305. La droite des moindres carrés est donnée par y = −2.305x + 37.241. La somme des carrés des résidus SSR = 0.2012 est très faible. Le coefficient R2 = 0.9971 est proche de 1, on peut donc affirmer que l’ajustement est de bonne qualité. En résumé, on peut donc supposer que le nombre d’individus N est lié au salaire s par la relation N (s) = e−2.305 ln(s)+37.241 = 1.491286 × (1016 )s−2.305 . Exemple 2) En l’absence de mortalité, on souhaite décrire l’évolution dans le temps de la croissance d’une population de bactéries. Des numérations faites tous les jours à partir du 2e donne les résultats suivants (voir le graphique 4.3) : 26 12 10 6 8 log(N.individus) 14 16 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 10 11 12 13 log(salaire) 12 10 6 8 log(N.individus) 14 16 Fig. 4.1 — Le logarithme du nombre d’individus ln (N) en fonction du logarithme du salaire ln(s). 10 11 12 13 log(salaire) Fig. 4.2 — Droite des moindres carrés y = −2.305x + 37.241 27 4000 0 2000 N.bactéries 6000 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 2 4 6 8 10 12 jours Fig. 4.3 — Evolution des bactéries. ti (jours) Ni (bactéries) 2 3 4 5 6 7 8 9 10 11 12 55 90 135 245 403 665 1100 1810 3000 4450 7350 , D’après le graphique 4.3 le nombre de bactéries croit de manière rapide (exponentiel). On peut donc déduire que le coefficient de corrélation linéaire entre le nombre de bactéries N et la variable temps t est positif ; en effet on trouve r = 0.8596725. Pour expliquer N en fonction de t, nous allons faire une transformation logarithmique seulement de la variable N (car c’est la variable qui a des valeurs très grandes). En effet en posant y = ln(N) et x = t, le graphique 4.4 montre qu’il y a une relation linéaire en y et x. Le coefficient de corrélation linéaire est r = 0.9916918. Un ajustement linéaire de y en x est bien justifié. On trouve bb = 3.014 et b a = 0.494. La droite des moindres carrés est donnée par y = 0.494x + 3.014. La somme des carrés des résidus SSR = 0.04499 est très faible. Le coefficient R2 = 0.9993 est très proche de 1, on peut donc affirmer que l’ajustement est de très bonne qualité. En résumé, on déduit que l’évolution du nombre de bactéries en fonction des jours suit l’équation N(t) = e0.494t+3.014 = 20.36871e0.494t . 7 6 4 5 log(`N.bactéries`) 8 9 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 2 4 6 8 10 12 jours 7 6 4 5 log(`N.bactéries`) 8 9 Fig. 4.4 — Evolution du log(bactéries) 2 4 6 8 10 12 jours Fig. 4.5 — Droite des moindres carrés y = 0.494x + 3.014. 28 Chapitre 5 Estimation statistique et test d’hypothèses L’estimation a pour but de chercher, à travers l’examen d’un échantillon, une information quantitative à propos d’un paramètre θ L’ estimation est dite ponctuelle lorsque l’on se propose de substituer à la valeur θ un nombre unique θ̂ construit à partir d’un échantillonnage, exemple : x est un estimateur ponctuel de la moyenne m. L’ estimation est dite par intervalle de confiance lorsque l’on se propose de construire à partir de l’échantillon un intervalle [a, b] qui peut contenir θ avec une probabilité 1-α : P (a ≤ θ ≤ b) = 1 − α, α fixé à l’avance. On dit alors que [a, b] est un intervalle de confiance au niveau α pour θ. Les tests d’hypothèses servent à valider une caractéristique d’une population à travers l’examen d’un échantillon, ils sont aussi utilisés pour comparer des caractéristiques entre plusieurs populations. 1 1.1 Estimation ponctuelle des paramètres Choix des estimateurs Pour un paramètre θ, il est possible d’imaginer plusieurs estimateurs, θ̂, construits à partir d’un même échantillon ; il convient donc de retenir l’estimateur qui donnera la meilleure approximation possible de θ. Cela suppose que : i) E(θ̂) = θ, on dit que l’estimateur est sans biais. ii) θ̂ converge en probabilité vers θ lorsque la taille n de l’échantillon tends vers ¯ ¯ ¯ ¯ l’infini : ∀ > 0, P (¯θ̂ − θ¯ > ) → 0, lorsque n → ∞, on dit que θ̂ est consistant. iii) La variance de θ̂ soit minimale. Remarque : Il existe pour la variance de θ̂ une borne inférieure, dite borne de 29 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 30 Cramer-Rao, : V (θ̂) ≥ I(θ)−1 , où I(θ) = E(( ∂ log L(θ, X) 2 )) ∂θ matrice d’information de Fisher ; L(θ, X) = n Y fXi (Xi , θ) i=1 la vraisemblance de l’échantillon, fXi (x, θ) est la densité de Xi . Si V (θ̂) = I(θ)−1 , on dit que l’estimateur θ̂ est efficace. 1.2 Construction des estimateurs Il existe plusieurs estimateurs, on se contente dans ce cours de définir deux types : 1.2.1 Estimateur des moindres carrés C’est la méthode introduite dans le paragraphe 4.1 (ajustement et régression linéaire). 1.2.2 Estimateur du maximum de vraisemblance Q C’est le point θ̂ qui rend maximale la vraisemblance L(θ, X) = ni=1 fXi (Xi , θ) L(θ,X) = 0. considérée comme fonction de θ, il est souvent solution de ∂ log ∂θ Exemple. Soit (Xt , 1 ≤ t ≤ n) une suite i.i.d de variables aléatoires ayant la densité f (x) = θe−θx 1{x>0} , où θ > 0 est un paramètre inconnu. Alors n n Y Y n fXi (Xi , θ) = θ e−θXi , L(θ, X) = i=1 i=1 log L(θ, X) = n log θ − θ ∂ log L(θ, X) n = − ∂θ θ n X Xi , i=1 n X i=1 Xi , Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar donc θ̂ = 2 1 , X 31 1X Xi . n i=1 n X= Estimation par intervalle de confiance et Tests Soit θ̂ un estimateur de θ, la construction d’un intervalle de confiance est basée sur un pivot pv = f (θ̂), dont la loi ne dépend pas de θ. 2.1 Intervalle de confiance pour la moyenne d’une population gaussienne On suppose que Xi à N(m, σ 2 ), 1 ≤ i ≤ n. 2.1.1 σ connu P √ , en effet X = n1 ni=1 Xi à N(m, σ 2 /n), Le pivot est donné par pv = n X−m σ donc pv à N(0, 1). On lit alors dans la table de Gauss le quantile u1− α2 tel que P (N(0, 1) ∈ [−u1− α2 , u1− α2 ]) = 1 − α donc P (pv ∈ [−u1− α2 , u1− α2 ]) = 1 − α, par conséquent P (m ∈ [X − u1− α2 √σn , X + u1− α2 √σn ]) = 1 − α; l’ intervalle de confiance au niveau α pour m est alors donné par σ σ Iα = [x − u1− α2 √ , x + u1− α2 √ ]. n n 2.1.2 (5.1) σ inconnu L’intervalle ci-dessus est inutilisable car il dépend de σ, il faut estimer ce Pdonc √ X−m n 1 2 dernier, le pivot est donné par pv = n S , où S = n−1 1 (Xi − X)2 , qui est un estimateur empirique et sans biais de la variance σ 2 . 2 On a (n−1)S à X 2 (n−1), et donc pv à t(n−1), loi de Student à (n-1) degrés de libσ2 erté. On lit alors dans la table de Student t1− α2 tel que P (t(n−1) ∈ [−t1− α2 , t1− α2 ]) = 1 − α; l’ intervalle de confiance au niveau α pour m est alors donné par s s Iα0 = [x − t1− α2 √ , x + t1− α2 √ ]. n n 2.2 (5.2) Comparaison d’une moyenne théorique et d’une moyenne observée On attribue la valeur m0 pour moyenne du caractère dans une population et on veut juger le bien fondé de cette hypothèse en se basant sur un échantillon. On Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 32 effectue alors le test d’hypothèse : H0 : m = m0 contre H1 : m 6= m0 √ 0 où m est la moyenne théorique. On considère alors n X−m qui suit, sous H0 , S une loi de Student à (n-1) degrés de liberté. Soit la quantile t1− α2 tel que P (t(n−1) ∈ [−t1− α2¯, t1− α2 ]) =¯ 1 − α. ¯√ 0¯ ≤ t1− α2 alors on ne peut pas refuser H0 au seuil de signification α. Si ¯ n X−m S ¯ 2.3 Comparaison des moyennes de deux échantillons indépendants. Soit deux échantillons aléatoires d’observations provenant de deux populations P1 et P2 et de moyenne X et Y respectivement. En général X 6= Y ,il s’agit d’expliquer cette différence. On suppose que X à N(mx , σ 2x ), Y à N(my , σ 2y ), X et Y sont deux échantillons indépendants, on désire effectuer le test H0 : mx = my contre H1 : mx 6= my . On utilise D = X − Y , qui est un bon indicateur de l’écart entre les deux moyennes. i) Cas σ 2x et σ 2y connues : Sous H0 : r 2D σ2 à N(0, 1), on fixe α (0,01 ou 0,05) et σx + ny nx y on lit dans la table de Gauss u1−α/2 tel que P (|N(0, 1)| > u1−α/2 ) = α, l’intervalle critique au seuil α est donné par s s σ 2x σ 2y [ σ 2x σ 2y Im =] − ∞, −u1−α/2 + ] [u1−α/2 + , ∞[, nx ny nx ny décision : si d = x − y ∈ Im on rejette H0 . ii) Cas σ 2x et σ 2y inconnues : ii.1 Cas des grands échantillons (nx ≥ 30 et ny ≥ 30) : On peut remplacer σ 2x (resp P n . σ 2x ) par Sx2 = nx1−1 1 x (Xi − X)2 (resp. Sy2 ), et donc l’intervalle critique au seuil α est donné par s s 2 [ 2 s s2y sx s2x y Im =] − ∞, −u1−α/2 + ] [u1−α/2 + , ∞[, (5.3) nx ny nx ny 33 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar décision : si d ∈ Im on rejette H0 . ii.2) Cas des petits échantillons : a) σ 2x = σ 2y = σ 2 . On montre alors que sous H0 : r D 2 +(n −1)S 2 q (nx −1)Sx y y 1 + n1 nx +ny −2 nx y à t(nx + ny − 2) avec D = X − Y , donc l’intervalle critique au seuil α est donné par [ (5.4) Im =] − ∞, −t1−α/2 f (x, y)] [t1−α/2 f (x, y), ∞[, où f (x, y) = s (nx − 1)s2x + (ny − 1)s2y nx + ny − 2 s 1 1 + , nx ny (5.5) décision : si d = x − y ∈ Im on rejette H0 . b) σ 2x 6= σ 2y .On détermine l’angle θ (exprimé en degré) défini par 0 < θ ≤ 45◦ tel que √ sx / nx tan θ = (5.6) √ , sY / ny √ √ il faut choisir les indices X et Y de telle sorte que sx / nx ≤ sY / ny . La table de Sukhatme, donne pour un seuil de signification α et en fonction de ν 1 = nX − 1 et ν 2 = nY − 1 et θ le nombre ε tel que SH = r X−Y vérifie 2 S2 Sx + ny nx y P (|SH| ≥ ε) = α. Si |SH| ≥ ε alors on rejette H0. 2.4 Comparaison des moyennes de deux séries appariés. Soit deux séries de n observations X1 , ..., Xn de moyenne X et Y1 , ..., Yn de 2 Y. Ici l’observation Xi est appariée à Yi . On pose Di = Xi − Yi , SD = moyenne P P n n 1 1 2 1 (Di − D) , D = n i=1 Di . n−1 Pour tester H0 : mx = my contre H1 : mx 6= my , on considère √ D n . SD Si n est grand, disons supérieur à 30, T est assimilée à une variable centrée réduite de Gauss ; si n est petit et si D suit une loi de Gauss, T suit une loi de Student à (n − 1) degrés de liberté. T = Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 2.5 34 Intervalle de confiance pour la variance d’une population gaussienne 2 On a le pivot pv = (n−1)S à X 2 (n−1), loi de Khi-deux à (n-1) degrés de liberté. σ2 On lit alors dans la table de Khi-deux xa et xb tels que P (xa ≤ X 2 (n − 1) ≤ xb ) = 1 − α. L’ intervalle de confiance au niveau α pour σ 2 est donné par : Iv = [ 2.6 (n − 1)s2 (n − 1)s2 , ]. xb xa Comparaison d’une variance théorique et d’une variance observée On attribue la valeur σ 20 pour variance du caractère dans une population et on veut juger le bien fondé de cette hypothèse en se basant sur un échantillon. On effectue alors le test d’hypothèse : H0 : la variance du caractère dans la population est σ 20 contre H1 : non H0 . 2 Sous H0 , (n−1)S à X 2 (n − 1) donc si σ 20 refuser l’hypothèse H0 . 2.7 (n−1)S 2 σ 20 ∈ [xa , xb ] alors on ne peut pas Comparaison des variances de deux échantillons indépendants On veut tester On calcul les rapports i. Si Sx2 Sy2 > Sy2 , Sx2 Sx2 Sy2 et Sy2 Sx2 H0 : σ 2x = σ 2y contre H1 : σ x 6= σ y . et on considère le plus grand parmi les deux : on décidera à l’aide du rapport Sx2 , Sy2 comme suit : on a sous H0 : Sx2 Sy2 à F (nx − 1, ny − 1), loi de Fisher-Snédécor à (nx − 1, ny − 1) degrés de liberté, donc l’intervalle critique au seuil α est donné par Iα = [fα , ∞[, avec P (F (nx − 1, ny − 1) > fα ) = α, décision : si s2x s2y ∈ Iα on rejette H0 . (5.7) Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar ii. Si Sx2 Sy2 S2 ≤ Sy2 , Sx2 on décidera à l’aide du rapport Sy2 , Sx2 35 comme suit : on a sous H0 : Sy2 à F (ny − 1, nx − 1), loi de Fisher-Snédécor à (ny − 1, nx − 1) degrés de x liberté, donc l’intervalle critique au seuil α est donné par Iα = [fα , ∞[, avec P (F (ny − 1, nx − 1) > fα ) = α, décision : si 3 s2y s2x ∈ Iα on rejette H0 . Analyse de la variance Le but est de comparer plusieurs séries d’observations d’une variable X afin de décider s’elles proviennent de populations dans lesquelles X a la même moyenne ou la même variance. On considère k échantillons gaussiens Ei = {xi,1 , ..., xi,ni } , 1 ≤ i ≤ k indépendants. On désigne par m1 , ..., mk les moyennes de X dans les populations P1 , ..., Pk respectivement d’où sont extraits les échantillons E1 , ..., Ek . On suppose que X a la même variance σ 20 dans les populations P1 , ..., Pk . On définit la variance intraclasse, par 1 X 2 = ν i si , ν i = ni − 1, n − k i=1 k 2 Sintra s2i (5.8) ni ni 1 X 1 X 2 = (xi,j − xi ) , xi = xi,j . ni − 1 j=1 ni j=1 On définit la variance interclasse, par 1 X = ni (xi − x)2 , k − 1 i=1 k 2 Sinter x = 3.1 ni k k X 1 XX xi,j , n = ni . n i=1 j=1 i=1 Comparaison simultanée de plusieurs moyennes On veut tester H0 : m1 = m2 = ... = mk contre H1 : ∃i 6= j tels que mi 6= mj . (5.9) Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 36 S2 à F (k − 1, n − k), loi de Fisher-Snédécor à (k − 1, n − k) On a sous H0 : Sinter 2 intra degrés de liberté, donc l’intervalle critique au seuil α est donné par décision : si 3.2 2 Sinter 2 Sintra Iα = [fα , ∞[, avec P (F (k − 1, n − k) > fα ) = α, ∈ Iα on rejette H0 . Comparaison simultanée de plusieurs variances On veut tester 3.2.1 (5.10) H0 : σ 21 = σ 22 = ... = σ 2k contre H1 : ∃i 6= j tels que σ2i 6= σ 2j . Test de Neyman et Pearson n1 = n2 = ... = nk et on considère la variable aléatoire ¡ 2 2 ¢1 b2 ... σ b2k k σ b1 σ ¢, NP = 1 ¡ 2 (5.11) b22 + ... + σ b2k σ b1 + σ k On suppose que σ b2i ni 1 X = (xi,j − xi )2 . ni j=1 On a sous H0 , NP suit une loi tabulée par Neyman et Pearson. Remarquons que NP ≤ 1. Soit lα tel que P (NP ≤ lα ) = α, donc l’intervalle critique au seuil α est donné par Iα = [0, lα [, décision : si NP ∈ Iα on rejette H0 . 3.2.2 Test de Barlett On considère la statistique 1 B = λ ( 2 − (n − k) ln Sintra 1 λ = 1+ 3(k − 1) ½ k X j=1 ν i ln s2i ) (5.12) , 1 1 1 1 + .... + − ν1 ν2 νk n − k ¾ , ν k = nk − 1. Sous H0 , B à X 2 (k − 1) . Soit x21−α tel que P(X 2 (k − 1) ≥ x21−α ) = α. Décision : si B ∈ [x21−α , +∞[ alors on rejette H0 . Chapitre 6 EXERCICES 1 Distributions de Probabilité Discrètes Exercice 1. On lance simultanément deux dés, soit la variable aléatoire S = X + Y , où X est le chiffre obtenu avec le dé 1 et Y est le chiffre obtenu avec le dé 2. Calculer la probabilité que S = 10. Exercice 2. Dans une population atteinte d’une maladie, on extrait un échantillon de 20 personnes. On suppose que la probabilité qu’une personne, prise au hasard dans l’échantillon, soit touchée par la maladie est égale à 14 . i) Quelle est la probabilité qu’il y ait exactement 5 malades ? ii) Quelle est la probabilité pour que le nombre de malades soit supérieur ou égal à 10 ? Exercice 3. Calculer la moyenne et la variance d’une variable aléatoire binomiale d’ordre n et de paramètre p. Exercice 4. Soient X1 , ..., Xn n variables aléatoires discrètes indépendantes et idenPn 1 2 tiquement distribuées, de variance σ . Calculer l’écart type de n i=1 Xi . Exercice 5. (Loi géométrique) On dit que T suit une loi géométrique de paramètre p ∈ [0, 1] si P (T = n) = p(1 − p)n−1 pour tout n ≥ 1. Calculer la fonction génératrice, la moyenne et la variance de T . Exercice 5. Soit X une variable prenant ses valeurs dans N. Montrer que E(X) = ∞ X n=1 P (X ≥ n). Exercice 7. (Approximation polynomiale de Bernstein) Soit f une fonction continue de [0, 1] dans R, on définit le polynôme de Bernstein associé à f Pn (x) = n X k f ( )Cnk xk (1 − x)n−k . n k=0 37 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 38 On introduit pour chaque x ∈ [0, 1] une suite (Xn , n ≥ 0) de variables aléatoires de Bernoulli, mutuellement indépendantes, de même loi P (Xn = 1) = x, P (Xn = 0) = 1 − x. i) Préciser la loi de Sn = X1 + ... + Xn , en déduire que Pn (x) = E(f ( Sn )). n ii) Montrez que pour tout ε > 0 il existe δ(ε) tel que ¯ ¯ ¯ ¯ ¯ ¯ ¯ Sn ¯ Sn ¯ ¯ ¯ ¯ S n ¯E(f ( )) − f (x)¯ ≤ P (¯ − x¯ < δ(ε))ε + 2MP (¯ − x¯ ≥ δ(ε)); ¯n ¯n ¯ ¯ ¯ ¯ n où M = maxx∈[0,1] |f (x)| . iii) Montrez l’inégalité |Pn (x) − f (x)| ≤ ε + 2M x(1 − x) 1 . δ 2 (ε) n iv) En déduire que le polynôme Pn converge uniformément vers f sur [0, 1]. 2 Distributions de Probabilité Continues Exercice 1.(Loi Uniforme) Soit X une variable aléatoire suivant une loi uniforme sur un intervalle [a,b], notée U[a,b], donc de densité ½ 1 si x ∈ [a, b] b−a f (x) = 0 sinon i) Calculer E(X) , σ(X), ii) Calculer la fonction de répartition F (t) ainsi que la fonction caractéristique ϕ(t) de X. Exercice 2. Soit X la variable aléatoire ayant la fonction caractéristique t2 ϕ(t) = e− 2 . Calculez E(X) , σ(X), Exercice 3. Soit X la variable aléatoire à valeurs dans R+ et ayant la densité f (x) = e−αx . i) Calculez α, E(X) et σ(X), ii) Calculez la fonction de répartition F (t) ainsi que la fonction caractéristique ϕ(t) de X. iii)Déterminer un intervalle [a, b] tel que P (X ∈ [a, b]) ≥ 96%. Exercice 4. La variable aléatoire suit la loi uniforme sur l’intervalle [−1, 2]. Calculez Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 39 la loi de Y = |X|. Exercice 5. La variable aléatoire suit une loi normale de moyenne 0 et de variance 1. Déterminez la loi de Z = X 2 + 2X. Exercice 6. Soient λ > 0, et la fonction f définie sur R par f (x) = 12 λe−λ|x| . i) Montrer que f est une densité de probabilité. ii) Soit X une variable aléatoire de densité de probabilité f . Déterminer la fonction de répartition F de X. iii) On effectue le changement de variable Y = |X| . Déterminer la loi de probabilité de Y . Calculer E(Y ) et var(Y ). Exercice 7. Le couple aléatoire prend ses valeurs dans ]0, 1[×]0, 1[ avec la densité de probabilité f (x1 , x2 ) = x1 + x2 . Calculez les densités marginales de X1 et X2 , les variables aléatoires X1 et X2 sontelles indépendantes ? Exercice 8. Le couple aléatoire prend ses valeurs dans ]0, +∞[×]0, +∞[ avec la densité de probabilité f (x1 , x2 ) = e−x1 −x2 . i)Les variables aléatoires X1 et X2 sont-elles indépendantes ? ii) Calculez E(X1 ), E(X2 ) et cov(X1 , X2 ). Exercice 9. Le couple aléatoire prend ses valeurs dans le domaine D suivant D = {x1 > 0, x2 > 0, x1 + x2 < 1} , avec la densité de probabilité f (x1 , x2 ) = K(x1 + x2 ). i) Calculez K. ii)Les variables aléatoires X1 et X2 sont-elles indépendantes ? iii) Calculez E(X1 ), E(X2 ) et cov(X1 , X2 ) iv) Déterminer les lois marginales de X1 et X2 . Exercice 10.Soit X une variable aléatoire de densité de probabilité ½ a(4 − x) si 0 ≤ x ≤ 4 f (x) = 0 sinon ; i) Calculer a. ii) Déterminer la fonction caractéristique φ de X. iii) Soient X1 et X2 deux variables aléatoires indépendantes et ayant la même loi que X. On effectue le changement de variables Y1 = X1 cos θ + X2 sin θ, Y2 = −X1 sin θ + X2 cos θ, θ ∈ [0, π]. Déterminer la loi de probabilité du couple (Y1 , Y2 ). Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 40 Exercice 11. Soient X1 et X2 deux variables aléatoires indépendantes identiquement distribuées selon la loi exponentielle de paramètre λ. Trouvez la distribution du couple Y = (Y1 , Y2 ) donné par Y1 = X1 , Y2 = X12 + X22 . X2 Exercice 12. Soit X une variable aléatoire non-négative et intégrable, de fonction de répartition F (x). La formule suivante Z ∞ E(X) = (1 − F (x))dx, 0 est vraie. Démontrez-la dans le cas où X admet une densité de probabilité. 3 Estimation et tests Exercice 1. En l’absence de mortalité, la croissance de toute population de bactéries est modélisée par l’équation N(t) = N0 ekt , où N(t) est le nombre de bactéries à l’instant t et N0 est le nombre de bactéries à l’instant initial t = 0. L’unité de temps choisie est un jour (24 heures). Les nombres N0 et k dépendent du type de population bactérienne considérée. On s’intéresse à une population particulière. Des numérations faites tous les jours à partir du 2e donne les résultats suivants : ti Ni 2 3 4 5 6 7 8 9 10 11 12 , 55 90 135 245 403 665 1100 1810 3000 4450 7350 avec ti :jour de l’observation, Ni : nombre de bactéries au jour ti . On pose yi = ln(Ni ) et Y (t) = ln(N(t)) = ln(N0 ) + kt, où ln représente le logarithme népérien. i) Calculer les moyennes des observations ti et yi ainsi que les écarts types de ces observations. ii) Par la méthode des moindres carrés, déterminer la droite de régression de Y en t. Calculer le coefficient de corrélation des séries d’observations ainsi que le résidu quadratique moyen. iii) Ecrire le modèle théorique ajusté aux données (ti , Ni ) auquel conduisent les estimations de N0 et k. Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 41 iv) Au bout d’un jour, quelle est l’estimation du nombre de bactéries ? Au bout de combien de jours peut-on prévoir que le nombre de bactéries sera 2000 fois celui du nombre initial ? Exercice 2. La distribution des revenus soumis à l’impôt a été étudiée par Pareto qui a proposé le modèle théorique N = Ama , où N est le nombre de revenus supérieurs ou égaux à m, A et a sont des constantes à estimer. Pour une année, on observe les revenus d’une population soumis à l’impôt et on a obtenu : mi 10000 20000 30000 40000 50000 100000 200000 500000 1000000 Ni 11583265 2045372 683240 349740 . 183280 36250 7975 1015 305 i) On pose y = ln(N), x = ln(m) et b = ln(A). Le modèle proposé équivaut à y = ax + b. Calculer le coefficient de corrélation associé aux couples (xi , yi ) où xi = ln(mi ) et yi = ln(Ni ). ii) Par la méthode des moindres carrés, calculer les valeurs a et b ajustées aux couples (xi , yi ). iii) Déduire de ce qui précède le modèle théorique de Pareto. iv) Calculer le nombre le plus probable de revenus supérieurs ou égaux à 300 000. Exercice 3. Soit (Xi )1≤i≤n une suite i.i.d selon la loi N(0, σ 2 ) avec σ 2 inconnue. i) Calculer l’estimateur du maximum de vraisemblance σ b 2 de σ 2 . ii) Montrer que le moment d’ordre 4 de X1 est 3σ 2 . Exercice 4. On suppose que (Xi ), 1 ≤ i ≤ n, est une suite i.i.d suivant une loi de Pareto de paramètres (x0 , θ), (x0 > 0, θ > 2) donc de densité ( ¡ x0 ¢θ+1 θ si x > x0 x0 x fθ (x) = 0 si x ≤ x0 . i) On suppose que x0 = 1. Calculer l’estimateur du maximum de vraisemblance b θ de θ. Exercice 5. Une agence immobilière se propose d’estimer le prix de vente moyen X des maisons à Marseille. On suppose que X à N(m, σ 2 ). Elle constitue à cet effet, un échantillon aléatoire de 25 maisons vendues récemment, le prix moyen étant x25 = 148000 euros et l’écart-type estimé est s = 62000 euros. Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 42 i) Calculer un intervalle de confiance au niveau α = 0.05 pour le prix de vente moyen de ces maisons vendues récemment. ii) On a entendu récemment qu’un ami a acquis une maison pour 206000 euros. Est-ce plausible, ou cette information est-elle entachée d’erreur ? Exercice 6. Le poids d’une variété d’animaux de 1 ans d’un certain élevage suit sensiblement une loi de Gauss de moyenne 80kg et d’écart type 12kg. On considère un échantillon de 16 animaux dont le poids moyen est de 73,5 kg. Faut-il écarter l’hypothèse selon laquelle l’échantillon n’est pas représentatif de l’élevage : i) au seuil de signification α = 0.05 ?ii)au seuil de signification α = 0.01? Exercice 7. Le taux de glycémie à jeun d’une population d’adultes est supposé distribué suivant une loi de Gauss d’espérance mathématique 0.80g/l. Sur un échantillon de 12 personnes on a trouvé les mesures suivantes : 0.60 0.90 0.74 0.96 0.85 1.05 0.80 0.93 1.17 0.70 0.84 0.75 i) Calculer le taux moyen de glycémie à jeun des personnes de l’échantillon. ii) Au seuil de signification α = 0.05, ce taux moyen est-il compatible avec le taux moyen de la population ? Exercice 8. Lors du développement d’une espèce de crustacés, on compte l’intervalle X (en jours) entre deux mues larvaires fixées. Pour un premier lot d’animaux, on a obtenu les résultats suivants : intervalle X 11 12 13 14 15 16 17 18 nombre d’animaux 2 6 17 18 9 4 2 0 Pour un second lot d’animaux, élevés dans un milieu plus riche destiné à accélérer le développement, on a obtenu les résultats suivants : intervalle X 11 12 13 14 15 16 17 18 nombre d’animaux 3 7 21 12 5 2 0 1 i) Calculer les estimations de l’espérance mathématique m1 et de l’écart type σ b1 relatif au premier lot, ainsi que de l’espérance mathématique m2 et de l’écart type σ b2 relatif au second lot. ii) Au seuil de signification α = 0.05, tester l’hypothèse nulle : H0 : m1 = m2 . Exercice 9. On a déterminé dans le sang le taux d’une certaine protéine chez des sujets atteints d’une maladie. On a trouvé 152 148 139 135 1 43 13 0 143 144 138 137 140 148 142 135 145 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 43 i) Donner une estimation de la moyenne et de la variance du taux de la protéine de la population d’où extrait cet échantillon. ii) Calculer l’intervalle de confiance à 95% de la moyenne. Afin de déterminer si ce taux de protéine est normal et pouvoir se servir de ce dosage comme aide au diagnostic, on a étudié un lot de 13 témoins, on a trouvé 140 143 137 127 130 138 135 141 136 132 134 135 133 iii) Donner une estimation de la moyenne et de la variance de la population des témoins. iv) Les témoins et les patients ont-ils des variances significativement différentes au seuil de signification α = 0.05. v) Au seuil de signification α = 0.05, tester l’hypothèse nulle : H0 : m1 = m2 , où m1 et m2 est le taux de la protéine chez les patients et les témoins respectivement. Exercice 10. Dans une certaine population, les hommes adultes se répartissent en deux catégories, l’une P1 constituée de nomades et l’autre P2 constituée d’agriculteurs. On se propose de comparer les tailles des individus de P1 et P2 . Soit X (resp. Y ) la variable aléatoire taille des individus de P1 (resp. P2 ) supposée gaussienne. On a prélevé au hasard dans P1 (resp. P2 ) un échantillon E1 (resp. E2 ) et on a obtenu E1 E2 175 176 179 177 180 180 178 183 176 178 177 177 178 165 176 174 187 192 169 171 170 177 173 171 167 170 i) Calculer les estimations de l’espérance mathématique mX et de l’écart type σ X relatif à E1 , ainsi que de l’espérance mathématique mY et de l’écart type σ Y relatif à E2 . ii) Calculer les intervalles de confiance au niveau α = 0.05 pour mX et mY . iii)Au seuil de signification α = 0.01, tester l’hypothèse nulle : H0 : σ 2X = σ 2Y . iv)Au seuil de signification α = 0.05, tester l’hypothèse nulle : H0 : mX = mY . Exercice 11. Pour deux séries indépendantes de taille respectivement nx = 13, et ny = 21 on a trouvé Sx2 = 105, Sy2 = 75. Au seuil de signification α = 0.01, tester l’hypothèse nulle : H0 : σ 2X = σ 2Y . Exercice 12. Cinq laboratoires utilisent cinq méthodes différentes pour déterminer le taux de protéine du sang. On suppose que la variable aléatoire "taux de la protéine" suit un loi de Gauss. Chaque laboratoire Li , 1 ≤ i ≤ 5, effectue les mesures sur un échantillon aléatoire Ei de taille ni , xi le taux moyen de la protéine par ce laboratoire et σ bi l’écart type des mesures à xi . On a trouvé les résultats : Ei ni xi σ b2i E1 10 152 18 E2 15 150 21 E3 10 148 28 E4 20 151 18 E5 10 153 26 Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar 44 i) Calculer les variances intraclasse et interclasse des mesures relatives aux 5 laboratoires ii) Peut-on refuser, au seuil de signification α = 0.10, l’homogénéité des variances des taux de la protéine auxquelles conduisent les 5 méthodes ?, si non donner une estimation de cette variance commune. iii) On admet qu’il y a homogénéité des variances, étudier l’homogénéité, au seuil de signification α = 0.05, des moyennes des taux de la protéine auxquelles conduisent les 5 méthodes. Exercice 13. Dans une cimenterie, six fours rotatifs ont été chargés et réglés pour fabriquer une même quantité de ciment. On prélève cinq éprouvettes dans la fabrication de chaque four et on mesure la charge de rupture à la traction R, exprimée en kg/cm2 , de ces éprouvettes. On a obtenu F1 F2 F3 F4 F5 F6 13.1 12.8 12.7 13.6 13.5 10 11 12.9 13.7 14.7 14.5 13.7 12.8 11.5 14.1 13.5 14.2 14 12.3 12.3 14.5 14 15 14.1 14 12.5 14 14 14.7 14.7 i) Calculer les variances intraclasse (dans les fours) et interclasse (entre les fours) des observations précédentes. ii) Au seuil de signification α = 0.05, peut-on considérer qu’il y a homogénéité des dispersions des résistances à la rupture ? Pour cela utiliser les deux tests : le test Neyman et Pearson et le test de Barlett. iii) En admettant l’homogénéité des dispersions, étudier l’homogénéité, au seuil de signification α = 0.05, de cette production.