Probabilités Elémentaires – Licence Chapitre 8 : Intervalles de confiance et tests Dans le chapitre précédent, nous avons vu comment estimer les paramètres d’une loi de probabilité à partir d’un échantillon. Malheureusement, cette estimation des paramètres est fortement variable et il est parfois nécessaire de prendre en compte cette variablilité à travers la construction d’intervalles de confiance ou de tests statistiques. 1 Intervalles de confiance Au lieu de se donner une fonction (estimateur) qui donne une estimation ponctuelle d’un paramètre réel, on cherche un intervalle dans lequel se trouve le paramètre étudié avec une probabilité contrôlée (et généralement grande). Définition 1. Soit (X1 , · · · , Xn ) un échantillon aléatoire dont la loi de probabilité dépend du paramètre θ ∈ R. Soit α ∈ [0, 1]. Un intervalle [Φ1 (X1 , · · · , Xn ), Φ2 (X1 , · · · , Xn )] est un intervalle de confiance de θ de niveau 1 − α si, pour tout θ ∈ R, P(θ ∈ [Φ1 (X1 , · · · , Xn ), Φ2 (X1 , · · · , Xn )]) = 1 − α. 1.1 Méthode de construction Un principe de construction d’intervalle de confiance consiste à utiliser une statistique pivotale T piv qui dépend à la fois de l’échantillon (X1 , · · · , Xn ) et de θ, mais dont la loi de probabilité est indépendante de θ. Notons tα le quantile de la loi de T piv , i.e. le réel tel que P(T piv ≤ tα ) = α. On peut alors écrire P(tα/2 ≤ T piv ≤ t1−α/2 ) = 1 − α d’où on déduit un intervalle de confiance 1 − α pour θ puisque T piv est une fonction de θ. Exemple : On considère le cas où les v.a X1 , · · · , Xn sont de loi N (µ, σ 2 ), où µ est inconnue et σ 2 connue. On cherche un intervalle de confiance de niveau 1 − α pour µ. On utilise le fait que X̄ ∼ N (µ, σ 2 /n) et donc Z = X̄ − µ √ ∼ N (0, 1). σ/ n Si on note Nα le quantile d’ordre α de la loi N (0, 1), on peut donc écrire X̄−µ √ ≤ N1−α/2 ) σ/ n N1−α/2 ) = P(−N1−α/2 √σn ≤ µ − X̄ ≤ N1−α/2 √σn ) ≤ X̄ + N1−α/2 √σn ). 1 − α = P(−N1−α/2 ≤ Z ≤ N1−α/2 ) = P(−N1−α/2 ≤ µ−√X̄ = P(−N1−α/2 ≤ σ/ ≤ n σ √ = P(X̄ − N1−α/2 n ≤ µ Un intervalle de confiance de niveau 1 − α pour µ est : h σ σ i [BI , BS ] = X̄ − N1−α/2 √ , X̄ + N1−α/2 √ . n n On remarque que la largeur de l’intervalle est une fonction décroissante de α et de n. Si on veut un intervalle de niveau 1, il nous faut prendre ] − ∞, +∞[, ce qui n’apporte aucune information sur la valeur du paramètre. Inversement, si on souhaite obtenir un intervalle réduit, il faut accepter d’augmenter α, le risque que l’intervalle ne contienne pas la paramètre (risque de non recouvrement), ou bien augmenter n, la taille de l’échantillon. 1 1.2 Intervalle de confiance pour une espérance On vient de voir comment construire un intervalle de confiance pour l’espérance dans le cas gaussien, lorsque la variance σ 2 est connue. Qu’en est-il lorsque celle-ci est inconnue, ce qui est généralement le cas ? Définition 2. Soit (X1 , · · · , Xn ) un échantillon aléatoire de loi N (µ, σ 2 ). La loi de probabilité de la statistique T = X̄ − µ √ S∗/ n est indépendante de µ et de σ 2 . On la nomme loi de Student à n − 1 degrés de liberté et on note T ∼ tn−1 . Cette loi de probabilité continue, généralisant la loi normale standard, a été introduite par William Gosset, chef brasseur de Guinness, ayant pris pour pseudonyme Student. La loi de Student à ν degrés de liberté est une loi dont la densité est symétrique autour de 0, en forme de cloche et ressemble à celle d’une N (0, 1) un peu "écrasée". Pour de grandes valeurs de ν, la différence entre les deux densités est négligeable. Figure 1 – Densités t1 , t3 , t7 , t10 , t15 , t30 et N (0, 1) On aura besoin par la suite des quantiles de la loi de Student. Notons tα (ν) le quantile d’ordre α de la loi de Student à ν degrés de liberté. Par symétrie, t0.5 (ν) = 0 et si 0 < α < 1, tα (ν) = −t1−α (ν). Ces quantiles s’obtiennent dans des tables comme celle-ci. Pr[T ≤ x] ν 0.90 0.95 0.975 0.99 0.995 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 ∞ 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310 1.282 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 1.645 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 1.960 31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 2.326 63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.576 On peut donc écrire X̄ − µ P − t1−α/2 (n − 1) ≤ ∗ √ ≤ t1−α/2 (n − 1) = 1 − α S / n 2 et on en déduit, de la même manière que précédemment, qu’un intervalle de confiance de niveau 1 − α pour µ (quand σ 2 est inconnue) est donné par : h S∗ S∗ i [BI , BS ] = X̄ − t1−α/2 (n − 1) √ , X̄ + t1−α/2 (n − 1) √ . n n Remarque : Si la loi des Xi n’est pas gaussienne, les intervalles précédents restent approximativement corrects grâce au théorème limite central. Cette approximation est d’autant meilleure que n est grand et que la loi des Xi est proche de la loi normale. 1.3 Intervalle de confiance pour une variance On se place à nouveau dans le cadre gaussien et on cherche un intervalle de confiance pour σ 2 . Considérons d’abord le cas où l’espérance µ est connue. Proposition 1. Soit (X1 , · · · , Xn ) un échantillon aléatoire de loi N (µ, σ 2 ). La statistique Pn 2 i=1 (Xi − µ) σ2 suit une loi du chi-deux à n degrés de liberté. On aura besoin par la suite des quantiles de la loi du chi-deux. Notons χα (ν) le quantile d’ordre α de la loi du chi-deux à ν degrés de liberté. Ces quantiles s’obtiennent dans des tables comme celle-ci. P(χ2 ≤ x) ν 0.01 0.025 0.05 0.95 0.975 0.99 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.000 0.020 0.115 0.297 0.554 0.872 1.239 1.646 2.088 2.558 3.053 3.571 4.107 4.660 5.229 5.812 6.408 7.015 7.633 8.260 8.897 9.542 10.196 10.856 11.524 12.198 12.879 13.565 14.256 14.953 0.001 0.051 0.216 0.484 0.831 1.237 1.690 2.180 2.700 3.247 3.816 4.404 5.009 5.629 6.262 6.908 7.564 8.231 8.907 9.591 10.283 10.982 11.689 12.401 13.120 13.844 14.573 15.308 16.047 16.791 0.004 0.103 0.352 0.711 1.145 1.635 2.167 2.733 3.325 3.940 4.575 5.226 5.892 6.571 7.261 7.962 8.672 9.390 10.117 10.851 11.591 12.338 13.091 13.848 14.611 15.379 16.151 16.928 17.708 18.493 3.841 5.991 7.815 9.488 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773 5.024 7.378 9.348 11.143 12.833 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979 6.635 9.210 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892 On peut donc écrire P χα/2 (n) ≤ Pn i=1 (Xi σ2 − µ)2 ≤ χ1−α/2 (n) = 1 − α et on en déduit, de la même manière que précédemment, qu’un intervalle de confiance de niveau 1 − α pour σ 2 (quand µ est connue) est donné par : h Pn (X − µ)2 Pn (X − µ)2 i i i i=1 [BI , BS ] = , i=1 . χ1−α/2 (n) χα/2 (n) Lorsque l’espérance µ n’est pas connue, on utilise la propriété suivante, que nous admettrons. Proposition 2. Soit (X1 , · · · , Xn ) un échantillon aléatoire de loi N (µ, σ 2 ). La statistique Pn 2 (n − 1)S ∗2 i=1 (Xi − X̄) = σ2 σ2 suit une loi du chi-deux à n − 1 degrés de liberté. 3 On peut donc écrire (n − 1)S ∗2 P χα/2 (n − 1) ≤ ≤ χ (n − 1) =1−α 1−α/2 σ2 et on en déduit, de la même manière que précédemment, qu’un intervalle de confiance de niveau 1 − α pour σ 2 (quand µ est inconnue) est donné par : [BI , BS ] = h (n − 1)S ∗2 (n − 1)S ∗2 i , . χ1−α/2 (n − 1) χα/2 (n − 1) Remarque : Contrairement aux intervalles de confiance précédemment construits pour l’espérance, ceux pour la variance ne sont pas symétriques par rapport à l’estimateur ponctuel, S ∗2 . Cela provient du fait que la loi du χ2 n’a pas une densité symétrique. 1.4 Intervalles de confiance unilatéraux Jusqu’à présent, nous avons construit uniquement des intervalles de confiance bilatéraux et symétriques, c’est-à-dire que l’on a "raboté" α/2 à gauche et à droite pour obtenir une probabilité de recouvrement égale à 1 − α. Néanmoins, il est possible de construire des intervalles de confiance asymétriques, voire unilatéraux. Si on reprend le premier exemple traité, celui de l’espérance d’une loi normale de variance connue, on peut écrire X̄−µ √ ≤ N1−α ) 1 − α = P(Z ≤ N1−α ) = P( σ/ n µ−√X̄ = P(−N1−α ≤ σ/ ) = P(−N1−α √σn ≤ µ − X̄) n = P(X̄ − N1−α √σn ≤ µ). Un intervalle de confiance unilatéral de niveau 1 − α pour µ est : h i σ [BI , BS ] = X̄ − N1−α √ , +∞ . n 2 2.1 Décision statistique Généralités La théorie de l’estimation permet d’obtenir des estimations ponctuelles ou par intervalle qui affinent l’information tirée de l’échantillon concernant la valeur de la caractéristique d’intérêt de la population. La théorie de la décision statistique aide à la prise de décision dans un contexte aléatoire. Le cadre de travail suppose que cette décision dépend de la valeur d’une caractéristique d’intérêt de la population. Or on ne dispose que de l’information incertaine obtenue d’un échantillon. On va voir que cet échantillon peut être utilisé pour "tester" la valeur de la caractéristique de la population. Le résultat de cette action indique la décision à prendre, tout en contrôlant les risques d’une mauvaise décision. 2.2 Hypothèses statistiques Dans la vie courante, la prise de décisions se base sur des conjectures faites par un décideur sur la réalité d’une situation qu’il ne connaît pas complètement. En Statistique, ces conjectures sont des hypothèses sur la loi de v.a {X1 , · · · , Xn } devant être mesurées sur les individus d’un échantillon issu d’une population. Au départ, le décideur entretient une conjecture privilégiée concernant cette loi. L’hypothèse nulle est cette conjecture privilégiée. C’est celle que le décideur ne lâchera pas sans un sérieux doute sur sa validité. On la note H0 . L’hypothèse nulle est confrontée à une conjecture qui la contredit, appelée hypothèse alternative. On la note H1 . Le décideur fera sienne l’hypothèse H1 s’il réussit à sérieusement mettre en doute la validité de H0 . Dans ce cours, on se contentera d’étudier des tests dont les hypothèses considérées se rapportent aux paramètres : on parle de tests paramétriques. Exemple : Une usine fabrique des boulons, dont le diamètre théorique est 10mm. En réalité, on considère que X, la v.a. représentant le diamètre d’un boulon pris au hasard, suit une loi N (µ, σ 2 ), 4 où µ = µ0 = 10mm si la ligne de production est bien réglée. Pour vérifier que ces réglages sont bons, l’industriel prélève n boulons au hasard et mesure leur diamètre X1 , · · · , Xn . Son hypothèse nulle, H0 , est que tout va bien : "µ = µ0 ". Son hypothèse alternative est qu’il y a un problème : "µ = µ1 6= µ0 ". 2.3 Risques d’erreurs Un test d’hypothèses (ou simplement un test) est une procédure consistant, au vu d’un échantillon, à rejeter ou non H0 . On rejette H0 (au profit de H1 ) si les données mettent en doute H0 . Ce faisant, on peut se tromper de deux façons : – Rejeter H0 alors que H0 est vraie : c’est l’erreur de première espèce. – Ne pas rejeter H0 alors que H0 est fausse : c’est l’erreur de seconde espèce. La probabilité de commettre ces erreurs s’appelle le risque. Il y 2 risques : – Le risque de première espèce = probabilité de commettre une erreur de 1ère espèce. – Le risque de seconde espèce = probabilité de commettre une erreur de 2ème espèce. Un bon test d’hypothèses doit minimiser ces 2 risques. Malheureusement, les risques de première et de seconde espèce sont antagonistes : on ne peut pas les minimiser simultanément. La stratégie consiste alors à fixer une borne supérieure α, appelée le niveau, au risque de première espèce (souvent le plus lourd de conséquences), puis à minimiser le risque de seconde espèce, noté β. De manière équivalente, on cherchera à maximiser la puissance du test, 1 − β. Un test est de niveau α si la procédure qui le définit assure que la probabilité de rejeter H0 alors que H0 est vraie (risque de première espèce) ne dépasse pas α. Cette stratégie offre parfois une façon de poser en pratique H0 et H1 puisque rejeter H0 à tort est l’erreur dont on veut contrôler le risque. Le risque de seconde espèce (= probabilité que le test ne rejette pas H0 alors que H0 est fausse) est une quantité souvent plus complexe à calculer (et dont les conséquences sont souvent moindres que le risque de première espèce). Exemple : Reprenons l’exemple précédent. L’industriel n’a aucune raison a priori de supposer que sa ligne de production est mal réglée. De plus, s’il arrête la production alors que sa machine est bien réglée, cela lui coûtera beaucoup d’argent. Il veut donc limiter le risque que cela arrive à une valeur très faible, par exemple α = 1%. Pour décider de rejeter ou non H0 , on va se baser sur une statistique de test W qui dépend bien sûr de l’échantillon X1 , · · · , Xn . La règle de décision est la suivante : si la valeur observée de W appartient à la zone de rejet, qui dépend de α, on rejettera H0 . 2.4 2.4.1 Tests concernant l’espérance Variance connue On rappelle que si X̄ est la moyenne d’un échantillon de n v.a. {X1 , · · · , Xn } indépendantes de loi N (µ, σ 2 ) alors √ X̄ − µ n ∼ N (0, 1). σ Considérons le problème de tester au niveau α l’hypothèse H0 : µ = µ0 contre l’hypothèse H1 : µ 6= µ0 . Pour construire le test, on raisonne comme suit : si H0 est vraie, X̄ a pour espérance µ0 et on serait surpris d’observer une valeur x̄ très différente de µ0 . On choisit donc comme statistique de test X̄ ∼ N (µ, σ 2 /n) et Z = W = √ X̄ − µ0 n σ √ 0 qui, sous l’hypothèse H0 suit une loi N (0, 1). L’échantillon met en doute H0 si w = n x̄−µ < −c σ ou w > c, où c est une borne à déterminer. En prenant c = N1−α/2 , on définit un test de niveau α. En effet, si H0 est vraie, P(rejeter H0 à tort) = P(Z < −N1−α/2 ou Z > N1−α/2 ) = P(Z < −N1−α/2 ) + P(Z > N1−α/2 ) = α/2 + α/2 = α. 5 Exemple : Reprenons l’exemple précédent. L’industriel prélève 100 boulons et mesure leur diamètre : il observe x̄ = 9, 98mm. On suppose que le diamètre des boulons suit une loi normale et que σ = 0, 1. On a donc √ 9, 98 − 10 = −2 ∈ [−N0.995 , N0.995 ] = [−2.576, 2.576]. 0, 1 En conclusion, on ne rejette pas l’hypothèse H0 : on considère que la ligne de production est bien réglée. w= 100 Remarque : On s’aperçoit que l’on accepte l’hypothèse H0 uniquement si h √ X̄ − µ0 σ σ i n ∈ [−N1−α/2 , N1−α/2 ] ⇔ µ0 ∈ X̄ − N1−α/2 √ , X̄ + N1−α/2 √ σ n n qui n’est autre que l’intervalle de confiance symétrique de niveau 1 − α pour µ. W = 2.4.2 Variance inconnue Souvent en pratique σ 2 est inconnue et le test précédent est inutilisable car Z ne peut pas être √ calculé. On est alors obligé de passer par la loi de Student. On rappelle que T = n X̄−µ S ∗ ∼ tn−1 . On choisit donc comme statistique de test W = √ X̄ − µ0 n S∗ qui, sous l’hypothèse H0 suit la loi tn−1 . Pour tester H0 : µ = µ0 contre H1 : µ 6= µ0 quand σ 2 est inconnue, un test de niveau α, appelé le test de Student (ou t-test) bilatéral, rejette H0 au profit de H1 si √ x̄ − µ0 n < −t1−α/2 (n − 1) ou w > t1−α/2 (n − 1). s∗ La preuve que le niveau de ce test est bien α est similaire au cas σ 2 connue. Ce test possede plusieurs variantes, s’adaptant aux differents contextes rencontrés. w= Variante 1 Pour tester H0 : µ = ( ou ≤) µ0 contre H1 : µ > µ0 quand σ 2 est inconnue, un test de niveau α rejette H0 au profit de H1 si w > t1−α (n − 1). C’est le test de Student unilatéral à droite. Variante 2 Pour tester H0 : µ = ( ou ≥) µ0 contre H1 : µ < µ0 quand σ 2 est inconnue, un test de niveau α rejette H0 au profit de H1 si w < −t1−α (n − 1). C’est le test de Student unilatéral à gauche. Exemple : Un médicament prétend baisser la tension. Un échantillon de 8 individus est choisi au hasard dans une population. On se propose d’administrer le médicament et de mesurer la baisse de tension Xi (= Av − Ap) sur chacun d’entre eux. Les Xi sont indépendantes et supposées de loi N (µ, σ 2 ) avec σ 2 inconnue. Si les données sont : 3.6 2.2 2.4 1.5 -0.9 1.3 2.7 2.1 ( x̄ = 1.8625, s∗ = 1.32335), déterminer (au niveau α = 0.05) si le médicament est efficace. Les hypothèses H0 et H1 ne sont pas données : il faut les poser (difficulté supplémentaire). Si on déclare le traitement efficace (µ > 0) alors qu’il ne l’est pas (µ = 0), on sera amené à en recommander l’usage. L’inverse, où on déclare inefficace un traitement qui agit est moins grave. On veut donc contrôler le risque de faussement rejeter µ = 0. Ceci mène à H0 : µ = 0 et H1 : µ > 0 (Variante 1). On obtient √ x̄ − µ0 √ n = 8 × 1.8625/1.32335 = 3.9808 > t0.95 (7) = 1.895 s∗ donc on rejette H0 au profit de H1 : le traitement peut bien être considéré efficace. w= 6 2.4.3 Cas non gaussien Pour les tests précédents, on a supposé que l’échantillon est constitué de n v.a indépendantes de loi N (µ, σ 2 ). On considère maintenant le cas où ces v.a sont de loi quelconque. Par le théorème central-limite, on a, quand n ≥ 30, X̄ ' N (µ, σ 2 /n). Ainsi tous les tests données précédemment sont de niveau approché α dans leur contexte respectif. 2.5 Tests concernant la proportion On veut tester la valeur de la proportion p des individus d’une population possédant une certaine particularité. On a vu que la proportion empirique P̂ de personnes d’un échantillon possédant la particularité a pour loi approchée P̂ ' N p, p(1 − p)/n . Pour tester H0 : p = p0 contre H1 : p 6= p0 , on construit un test de niveau α approché en raisonnant de la même façon que pour une espérance. On est amené à rejeter H0 si √ p p √ n(p̂ − p0 )/ p0 (1 − p0 ) < −N1−α/2 ou n(p̂ − p0 )/ p0 (1 − p0 ) > N1−α/2 . Variante 1 Pour H0 : p = (ou ≤) p0 contre H1 : p > p0 : on rejette H0 au niveau approché α si p √ n(p̂ − p0 )/ p0 (1 − p0 ) > N1−α . Variante 2 Pour H0 : p = (ou ≥) p0 contre H1 : p < p0 : on rejette H0 au niveau approché α si p √ n(p̂ − p0 )/ p0 (1 − p0 ) < −N1−α . Exemple : La proportion p0 de personnes dans une population ayant un taux de plombémie élevé est de 11.4%. Dans un village, un échantillon de 67 habitants a donné 14 personnes (soit 21%) ayant une plombémie élevée. Or, à première vue, il n’y a pas de source de pollution. On veut décider si on doit s’alarmer de ce fait. Pour être prudent, on prend α = 0.01. Ici H0 et H1 ne sont pas données, il faut les poser. Affirmer que la proportion de personnes ayant une plombémie élevée dépasse la "norme" de p0 = 0.114 peut mener, par le principe de précaution, à une évacuation problématique des habitants. Comme on veut contrôler ce risque, on est amené à poser H0 : p = 0.114(= p0 ) contre H1 : p > p0 (Variante 1) On calcule √ n(p̂ − p0 )/ p p √ p0 (1 − p0 ) = 67(0.21 − 0.114)/ 0.114(1 − 0.114) = 2.45 > N0.99 ≈ 2.326 On rejette H0 au niveau approché α = 0.01. Il faut s’alarmer ! 2.6 Tests pour 2 échantillons On considère le contexte où on dispose de 2 échantillons de v.a indépendantes : X1 , · · · , Xn ∼ N (µx , σx2 ) et Y1 , · · · , Ym ∼ N (µy , σy2 ). 2.6.1 Tests concernant l’espérance On suppose σx2 = σy2 et on veut tester H0 : µx = µy contre H1 : µx 6= µy (test bilatéral). Le premier échantillon observé donne {x1 , · · · , xn }, x̄ et sx , le deuxième {y1 , · · · , ym }, ȳ et sy . On applique le test de Student bilatéral pour 2 échantillons : au niveau α on rejette H0 si w=q x̄ − ȳ q ns2x +ms2y n+m−2 1 n + 1 m < −t1−α/2 (n + m − 2) ou w > t1−α/2 (n + m − 2). Pour un test unilateral à droite (H1 : µx > µy ), on rejette H0 si w > t1−α (n + m − 2). Pour un test unilateral à gauche (H1 : µx < µy ), on rejette H0 si w < −t1−α (n + m − 2). 7 2.6.2 Tests concernant la proportion On considère maintenant le cas où un échantillon de taille n engendre la v.a P̂x estimant la proportion théorique px dans une 1ère population. Un 2ème échantillon de taille m engendre la v.a P̂y estimant la proportion théorique py dans la 2ème population. On veut tester H0 : px = py contre H1 : px 6= py . np̂x +mp̂y Notons p̂xy = n+m . On rejette H0 au niveau approché α si p̂x − p̂y q w=p p̂xy (1 − p̂xy ) n1 + 1 m < −N1−α/2 ou w > N1−α/2 . Pour un test unilateral à droite (H1 : px > py ), on rejette H0 si w > N1−α . Pour un test unilateral à gauche (H1 : px < py ), on rejette H0 si w < −N1−α . Exemple : On veut savoir si les mésanges de Corse diffèrent de celles du continent. Un échantillon de n = 25 mésanges de Corse est capturé et on observe leur poids (x̄C = 19.3 gr, sC = 1.37) et leur sexe p̂C = 0.56 (= 14 mâles). Un 2ème échantillon de m = 33 mésanges est capturé dans les étangs littoraux et on observe x̂L = 17.4 gr, sL = 1.51 et p̂L = 0.394 (= 13 mâles). Au niveau α = 0.05, que peut-on conclure ? On applique des tests bilatéraux puisqu’on veut simplement savoir si les caractéristiques diffèrent entre les 2 populations. Pour le poids, on suppose σC = σL et on obtient w=q x̄C − x̄L q ns2C +ms2L n+m−2 1 n + 1 m 19.3 − 17.4 √ = 4.85 > t0.975 (56) ≈ 2 =√ 2.18 0.07 Pour le sexe, on obtient p̂x − p̂y q w=p p̂xy (1 − p̂xy ) n1 + 1 m 0.56 − 0.394 √ =√ = 1.25 ∈ [−N0.975 , N0.975 ] = [−1.96, 1.96] 0.249 0.07 En conclusion, on rejette l’égalité des poids mais on accepte l’hypothèse H0 : pC = pL . Remarque : Les logiciels renvoient souvent la probabilité critique (p-value en anglais) associée au test, qui désigne la plus petite valeur de α pour laquelle on rejette H0 . Dans les exemples vus précédemment, elle peut se calculer de la façon suivante : pc = P(|W | > |w||H0 vraie ) s’il s’agit d’un test bilatéral et P(W > w|H0 vraie) ou P(W < w|H0 vraie) s’il s’agit d’un test unilatéral. Si on reprend le dernier exemple traité, on rejette l’hypothèse H0 : pC = pL à partir du moment où N1−α/2 = 1.25 = N0.894 ⇔ α ≈ 0.21 donc la probabilité critique associée à ce test est 0.21. 8