Cours8 Fichier

publicité
Probabilités Elémentaires – Licence
Chapitre 8 : Intervalles de confiance et tests
Dans le chapitre précédent, nous avons vu comment estimer les paramètres d’une loi de probabilité à
partir d’un échantillon. Malheureusement, cette estimation des paramètres est fortement variable et
il est parfois nécessaire de prendre en compte cette variablilité à travers la construction d’intervalles
de confiance ou de tests statistiques.
1
Intervalles de confiance
Au lieu de se donner une fonction (estimateur) qui donne une estimation ponctuelle d’un paramètre
réel, on cherche un intervalle dans lequel se trouve le paramètre étudié avec une probabilité contrôlée
(et généralement grande).
Définition 1. Soit (X1 , · · · , Xn ) un échantillon aléatoire dont la loi de probabilité dépend du paramètre θ ∈ R. Soit α ∈ [0, 1]. Un intervalle [Φ1 (X1 , · · · , Xn ), Φ2 (X1 , · · · , Xn )] est un intervalle de
confiance de θ de niveau 1 − α si, pour tout θ ∈ R,
P(θ ∈ [Φ1 (X1 , · · · , Xn ), Φ2 (X1 , · · · , Xn )]) = 1 − α.
1.1
Méthode de construction
Un principe de construction d’intervalle de confiance consiste à utiliser une statistique pivotale
T piv qui dépend à la fois de l’échantillon (X1 , · · · , Xn ) et de θ, mais dont la loi de probabilité est
indépendante de θ. Notons tα le quantile de la loi de T piv , i.e. le réel tel que
P(T piv ≤ tα ) = α.
On peut alors écrire
P(tα/2 ≤ T piv ≤ t1−α/2 ) = 1 − α
d’où on déduit un intervalle de confiance 1 − α pour θ puisque T piv est une fonction de θ.
Exemple : On considère le cas où les v.a X1 , · · · , Xn sont de loi N (µ, σ 2 ), où µ est inconnue et σ 2
connue. On cherche un intervalle de confiance de niveau 1 − α pour µ. On utilise le fait que
X̄ ∼ N (µ, σ 2 /n) et donc Z =
X̄ − µ
√ ∼ N (0, 1).
σ/ n
Si on note Nα le quantile d’ordre α de la loi N (0, 1), on peut donc écrire
X̄−µ
√ ≤ N1−α/2 )
σ/ n
N1−α/2 ) = P(−N1−α/2 √σn ≤ µ − X̄ ≤ N1−α/2 √σn )
≤ X̄ + N1−α/2 √σn ).
1 − α = P(−N1−α/2 ≤ Z ≤ N1−α/2 ) = P(−N1−α/2 ≤
µ−√X̄
= P(−N1−α/2 ≤ σ/
≤
n
σ
√
= P(X̄ − N1−α/2 n ≤ µ
Un intervalle de confiance de niveau 1 − α pour µ est :
h
σ
σ i
[BI , BS ] = X̄ − N1−α/2 √ , X̄ + N1−α/2 √ .
n
n
On remarque que la largeur de l’intervalle est une fonction décroissante de α et de n. Si on veut
un intervalle de niveau 1, il nous faut prendre ] − ∞, +∞[, ce qui n’apporte aucune information
sur la valeur du paramètre. Inversement, si on souhaite obtenir un intervalle réduit, il faut accepter
d’augmenter α, le risque que l’intervalle ne contienne pas la paramètre (risque de non recouvrement),
ou bien augmenter n, la taille de l’échantillon.
1
1.2
Intervalle de confiance pour une espérance
On vient de voir comment construire un intervalle de confiance pour l’espérance dans le cas gaussien,
lorsque la variance σ 2 est connue. Qu’en est-il lorsque celle-ci est inconnue, ce qui est généralement
le cas ?
Définition 2. Soit (X1 , · · · , Xn ) un échantillon aléatoire de loi N (µ, σ 2 ). La loi de probabilité de
la statistique
T =
X̄ − µ
√
S∗/ n
est indépendante de µ et de σ 2 . On la nomme loi de Student à n − 1 degrés de liberté et on note
T ∼ tn−1 .
Cette loi de probabilité continue, généralisant la loi normale standard, a été introduite par William
Gosset, chef brasseur de Guinness, ayant pris pour pseudonyme Student. La loi de Student à ν degrés
de liberté est une loi dont la densité est symétrique autour de 0, en forme de cloche et ressemble
à celle d’une N (0, 1) un peu "écrasée". Pour de grandes valeurs de ν, la différence entre les deux
densités est négligeable.
Figure 1 – Densités t1 , t3 , t7 , t10 , t15 , t30 et N (0, 1)
On aura besoin par la suite des quantiles de la loi de Student. Notons tα (ν) le quantile d’ordre α de
la loi de Student à ν degrés de liberté. Par symétrie, t0.5 (ν) = 0 et si 0 < α < 1, tα (ν) = −t1−α (ν).
Ces quantiles s’obtiennent dans des tables comme celle-ci.
Pr[T ≤ x]
ν
0.90
0.95
0.975
0.99
0.995
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
∞
3.078
1.886
1.638
1.533
1.476
1.440
1.415
1.397
1.383
1.372
1.363
1.356
1.350
1.345
1.341
1.337
1.333
1.330
1.328
1.325
1.323
1.321
1.319
1.318
1.316
1.315
1.314
1.313
1.311
1.310
1.282
6.314
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812
1.796
1.782
1.771
1.761
1.753
1.746
1.740
1.734
1.729
1.725
1.721
1.717
1.714
1.711
1.708
1.706
1.703
1.701
1.699
1.697
1.645
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
2.042
1.960
31.821
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764
2.718
2.681
2.650
2.624
2.602
2.583
2.567
2.552
2.539
2.528
2.518
2.508
2.500
2.492
2.485
2.479
2.473
2.467
2.462
2.457
2.326
63.657
9.925
5.841
4.604
4.032
3.707
3.499
3.355
3.250
3.169
3.106
3.055
3.012
2.977
2.947
2.921
2.898
2.878
2.861
2.845
2.831
2.819
2.807
2.797
2.787
2.779
2.771
2.763
2.756
2.750
2.576
On peut donc écrire
X̄ − µ
P − t1−α/2 (n − 1) ≤ ∗ √ ≤ t1−α/2 (n − 1) = 1 − α
S / n
2
et on en déduit, de la même manière que précédemment, qu’un intervalle de confiance de niveau
1 − α pour µ (quand σ 2 est inconnue) est donné par :
h
S∗
S∗ i
[BI , BS ] = X̄ − t1−α/2 (n − 1) √ , X̄ + t1−α/2 (n − 1) √ .
n
n
Remarque : Si la loi des Xi n’est pas gaussienne, les intervalles précédents restent approximativement
corrects grâce au théorème limite central. Cette approximation est d’autant meilleure que n est grand
et que la loi des Xi est proche de la loi normale.
1.3
Intervalle de confiance pour une variance
On se place à nouveau dans le cadre gaussien et on cherche un intervalle de confiance pour σ 2 .
Considérons d’abord le cas où l’espérance µ est connue.
Proposition 1. Soit (X1 , · · · , Xn ) un échantillon aléatoire de loi N (µ, σ 2 ). La statistique
Pn
2
i=1 (Xi − µ)
σ2
suit une loi du chi-deux à n degrés de liberté.
On aura besoin par la suite des quantiles de la loi du chi-deux. Notons χα (ν) le quantile d’ordre α
de la loi du chi-deux à ν degrés de liberté. Ces quantiles s’obtiennent dans des tables comme celle-ci.
P(χ2 ≤ x)
ν
0.01
0.025
0.05
0.95
0.975
0.99
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
0.000
0.020
0.115
0.297
0.554
0.872
1.239
1.646
2.088
2.558
3.053
3.571
4.107
4.660
5.229
5.812
6.408
7.015
7.633
8.260
8.897
9.542
10.196
10.856
11.524
12.198
12.879
13.565
14.256
14.953
0.001
0.051
0.216
0.484
0.831
1.237
1.690
2.180
2.700
3.247
3.816
4.404
5.009
5.629
6.262
6.908
7.564
8.231
8.907
9.591
10.283
10.982
11.689
12.401
13.120
13.844
14.573
15.308
16.047
16.791
0.004
0.103
0.352
0.711
1.145
1.635
2.167
2.733
3.325
3.940
4.575
5.226
5.892
6.571
7.261
7.962
8.672
9.390
10.117
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.151
16.928
17.708
18.493
3.841
5.991
7.815
9.488
11.070
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42.557
43.773
5.024
7.378
9.348
11.143
12.833
14.449
16.013
17.535
19.023
20.483
21.920
23.337
24.736
26.119
27.488
28.845
30.191
31.526
32.852
34.170
35.479
36.781
38.076
39.364
40.646
41.923
43.195
44.461
45.722
46.979
6.635
9.210
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
On peut donc écrire
P χα/2 (n) ≤
Pn
i=1 (Xi
σ2
− µ)2
≤ χ1−α/2 (n) = 1 − α
et on en déduit, de la même manière que précédemment, qu’un intervalle de confiance de niveau
1 − α pour σ 2 (quand µ est connue) est donné par :
h Pn (X − µ)2 Pn (X − µ)2 i
i
i
i=1
[BI , BS ] =
, i=1
.
χ1−α/2 (n)
χα/2 (n)
Lorsque l’espérance µ n’est pas connue, on utilise la propriété suivante, que nous admettrons.
Proposition 2. Soit (X1 , · · · , Xn ) un échantillon aléatoire de loi N (µ, σ 2 ). La statistique
Pn
2
(n − 1)S ∗2
i=1 (Xi − X̄)
=
σ2
σ2
suit une loi du chi-deux à n − 1 degrés de liberté.
3
On peut donc écrire
(n − 1)S ∗2
P χα/2 (n − 1) ≤
≤
χ
(n
−
1)
=1−α
1−α/2
σ2
et on en déduit, de la même manière que précédemment, qu’un intervalle de confiance de niveau
1 − α pour σ 2 (quand µ est inconnue) est donné par :
[BI , BS ] =
h (n − 1)S ∗2
(n − 1)S ∗2 i
,
.
χ1−α/2 (n − 1) χα/2 (n − 1)
Remarque : Contrairement aux intervalles de confiance précédemment construits pour l’espérance,
ceux pour la variance ne sont pas symétriques par rapport à l’estimateur ponctuel, S ∗2 . Cela provient
du fait que la loi du χ2 n’a pas une densité symétrique.
1.4
Intervalles de confiance unilatéraux
Jusqu’à présent, nous avons construit uniquement des intervalles de confiance bilatéraux et symétriques, c’est-à-dire que l’on a "raboté" α/2 à gauche et à droite pour obtenir une probabilité de
recouvrement égale à 1 − α. Néanmoins, il est possible de construire des intervalles de confiance
asymétriques, voire unilatéraux. Si on reprend le premier exemple traité, celui de l’espérance d’une
loi normale de variance connue, on peut écrire
X̄−µ
√ ≤ N1−α )
1 − α = P(Z ≤ N1−α ) = P( σ/
n
µ−√X̄
= P(−N1−α ≤ σ/
) = P(−N1−α √σn ≤ µ − X̄)
n
= P(X̄ − N1−α √σn ≤ µ).
Un intervalle de confiance unilatéral de niveau 1 − α pour µ est :
h
i
σ
[BI , BS ] = X̄ − N1−α √ , +∞ .
n
2
2.1
Décision statistique
Généralités
La théorie de l’estimation permet d’obtenir des estimations ponctuelles ou par intervalle qui affinent
l’information tirée de l’échantillon concernant la valeur de la caractéristique d’intérêt de la population. La théorie de la décision statistique aide à la prise de décision dans un contexte aléatoire. Le
cadre de travail suppose que cette décision dépend de la valeur d’une caractéristique d’intérêt de la
population. Or on ne dispose que de l’information incertaine obtenue d’un échantillon. On va voir
que cet échantillon peut être utilisé pour "tester" la valeur de la caractéristique de la population. Le
résultat de cette action indique la décision à prendre, tout en contrôlant les risques d’une mauvaise
décision.
2.2
Hypothèses statistiques
Dans la vie courante, la prise de décisions se base sur des conjectures faites par un décideur sur la
réalité d’une situation qu’il ne connaît pas complètement. En Statistique, ces conjectures sont des
hypothèses sur la loi de v.a {X1 , · · · , Xn } devant être mesurées sur les individus d’un échantillon issu
d’une population. Au départ, le décideur entretient une conjecture privilégiée concernant cette loi.
L’hypothèse nulle est cette conjecture privilégiée. C’est celle que le décideur ne lâchera pas sans
un sérieux doute sur sa validité. On la note H0 . L’hypothèse nulle est confrontée à une conjecture qui
la contredit, appelée hypothèse alternative. On la note H1 . Le décideur fera sienne l’hypothèse
H1 s’il réussit à sérieusement mettre en doute la validité de H0 .
Dans ce cours, on se contentera d’étudier des tests dont les hypothèses considérées se rapportent
aux paramètres : on parle de tests paramétriques.
Exemple : Une usine fabrique des boulons, dont le diamètre théorique est 10mm. En réalité, on
considère que X, la v.a. représentant le diamètre d’un boulon pris au hasard, suit une loi N (µ, σ 2 ),
4
où µ = µ0 = 10mm si la ligne de production est bien réglée. Pour vérifier que ces réglages sont
bons, l’industriel prélève n boulons au hasard et mesure leur diamètre X1 , · · · , Xn . Son hypothèse
nulle, H0 , est que tout va bien : "µ = µ0 ". Son hypothèse alternative est qu’il y a un problème :
"µ = µ1 6= µ0 ".
2.3
Risques d’erreurs
Un test d’hypothèses (ou simplement un test) est une procédure consistant, au vu d’un échantillon,
à rejeter ou non H0 . On rejette H0 (au profit de H1 ) si les données mettent en doute H0 . Ce faisant,
on peut se tromper de deux façons :
– Rejeter H0 alors que H0 est vraie : c’est l’erreur de première espèce.
– Ne pas rejeter H0 alors que H0 est fausse : c’est l’erreur de seconde espèce.
La probabilité de commettre ces erreurs s’appelle le risque. Il y 2 risques :
– Le risque de première espèce = probabilité de commettre une erreur de 1ère espèce.
– Le risque de seconde espèce = probabilité de commettre une erreur de 2ème espèce.
Un bon test d’hypothèses doit minimiser ces 2 risques. Malheureusement, les risques de première
et de seconde espèce sont antagonistes : on ne peut pas les minimiser simultanément. La stratégie
consiste alors à fixer une borne supérieure α, appelée le niveau, au risque de première espèce (souvent
le plus lourd de conséquences), puis à minimiser le risque de seconde espèce, noté β. De manière
équivalente, on cherchera à maximiser la puissance du test, 1 − β.
Un test est de niveau α si la procédure qui le définit assure que la probabilité de rejeter H0 alors
que H0 est vraie (risque de première espèce) ne dépasse pas α. Cette stratégie offre parfois une façon
de poser en pratique H0 et H1 puisque rejeter H0 à tort est l’erreur dont on veut contrôler le risque.
Le risque de seconde espèce (= probabilité que le test ne rejette pas H0 alors que H0 est fausse) est
une quantité souvent plus complexe à calculer (et dont les conséquences sont souvent moindres que
le risque de première espèce).
Exemple : Reprenons l’exemple précédent. L’industriel n’a aucune raison a priori de supposer que
sa ligne de production est mal réglée. De plus, s’il arrête la production alors que sa machine est bien
réglée, cela lui coûtera beaucoup d’argent. Il veut donc limiter le risque que cela arrive à une valeur
très faible, par exemple α = 1%.
Pour décider de rejeter ou non H0 , on va se baser sur une statistique de test W qui dépend bien
sûr de l’échantillon X1 , · · · , Xn . La règle de décision est la suivante : si la valeur observée de W
appartient à la zone de rejet, qui dépend de α, on rejettera H0 .
2.4
2.4.1
Tests concernant l’espérance
Variance connue
On rappelle que si X̄ est la moyenne d’un échantillon de n v.a. {X1 , · · · , Xn } indépendantes de loi
N (µ, σ 2 ) alors
√ X̄ − µ
n
∼ N (0, 1).
σ
Considérons le problème de tester au niveau α l’hypothèse H0 : µ = µ0 contre l’hypothèse H1 : µ 6=
µ0 . Pour construire le test, on raisonne comme suit : si H0 est vraie, X̄ a pour espérance µ0 et on
serait surpris d’observer une valeur x̄ très différente de µ0 . On choisit donc comme statistique de
test
X̄ ∼ N (µ, σ 2 /n) et Z =
W =
√ X̄ − µ0
n
σ
√
0
qui, sous l’hypothèse H0 suit une loi N (0, 1). L’échantillon met en doute H0 si w = n x̄−µ
< −c
σ
ou w > c, où c est une borne à déterminer. En prenant c = N1−α/2 , on définit un test de niveau α.
En effet, si H0 est vraie,
P(rejeter H0 à tort) = P(Z < −N1−α/2 ou Z > N1−α/2 )
= P(Z < −N1−α/2 ) + P(Z > N1−α/2 ) = α/2 + α/2 = α.
5
Exemple : Reprenons l’exemple précédent. L’industriel prélève 100 boulons et mesure leur diamètre :
il observe x̄ = 9, 98mm. On suppose que le diamètre des boulons suit une loi normale et que σ = 0, 1.
On a donc
√
9, 98 − 10
= −2 ∈ [−N0.995 , N0.995 ] = [−2.576, 2.576].
0, 1
En conclusion, on ne rejette pas l’hypothèse H0 : on considère que la ligne de production est bien
réglée.
w=
100
Remarque : On s’aperçoit que l’on accepte l’hypothèse H0 uniquement si
h
√ X̄ − µ0
σ
σ i
n
∈ [−N1−α/2 , N1−α/2 ] ⇔ µ0 ∈ X̄ − N1−α/2 √ , X̄ + N1−α/2 √
σ
n
n
qui n’est autre que l’intervalle de confiance symétrique de niveau 1 − α pour µ.
W =
2.4.2
Variance inconnue
Souvent en pratique σ 2 est inconnue et le test précédent est inutilisable car Z ne peut pas être
√
calculé. On est alors obligé de passer par la loi de Student. On rappelle que T = n X̄−µ
S ∗ ∼ tn−1 .
On choisit donc comme statistique de test
W =
√ X̄ − µ0
n
S∗
qui, sous l’hypothèse H0 suit la loi tn−1 .
Pour tester H0 : µ = µ0 contre H1 : µ 6= µ0 quand σ 2 est inconnue, un test de niveau α, appelé le
test de Student (ou t-test) bilatéral, rejette H0 au profit de H1 si
√ x̄ − µ0
n
< −t1−α/2 (n − 1) ou w > t1−α/2 (n − 1).
s∗
La preuve que le niveau de ce test est bien α est similaire au cas σ 2 connue. Ce test possede plusieurs
variantes, s’adaptant aux differents contextes rencontrés.
w=
Variante 1 Pour tester H0 : µ = ( ou ≤) µ0 contre H1 : µ > µ0 quand σ 2 est inconnue, un
test de niveau α rejette H0 au profit de H1 si
w > t1−α (n − 1).
C’est le test de Student unilatéral à droite.
Variante 2 Pour tester H0 : µ = ( ou ≥) µ0 contre H1 : µ < µ0 quand σ 2 est inconnue, un
test de niveau α rejette H0 au profit de H1 si
w < −t1−α (n − 1).
C’est le test de Student unilatéral à gauche.
Exemple : Un médicament prétend baisser la tension. Un échantillon de 8 individus est choisi au
hasard dans une population. On se propose d’administrer le médicament et de mesurer la baisse
de tension Xi (= Av − Ap) sur chacun d’entre eux. Les Xi sont indépendantes et supposées de loi
N (µ, σ 2 ) avec σ 2 inconnue. Si les données sont :
3.6
2.2
2.4
1.5
-0.9
1.3
2.7
2.1
( x̄ = 1.8625, s∗ = 1.32335), déterminer (au niveau α = 0.05) si le médicament est efficace. Les
hypothèses H0 et H1 ne sont pas données : il faut les poser (difficulté supplémentaire). Si on déclare
le traitement efficace (µ > 0) alors qu’il ne l’est pas (µ = 0), on sera amené à en recommander
l’usage. L’inverse, où on déclare inefficace un traitement qui agit est moins grave. On veut donc
contrôler le risque de faussement rejeter µ = 0. Ceci mène à H0 : µ = 0 et H1 : µ > 0 (Variante 1).
On obtient
√ x̄ − µ0 √
n
= 8 × 1.8625/1.32335 = 3.9808 > t0.95 (7) = 1.895
s∗
donc on rejette H0 au profit de H1 : le traitement peut bien être considéré efficace.
w=
6
2.4.3
Cas non gaussien
Pour les tests précédents, on a supposé que l’échantillon est constitué de n v.a indépendantes de
loi N (µ, σ 2 ). On considère maintenant le cas où ces v.a sont de loi quelconque. Par le théorème
central-limite, on a, quand n ≥ 30,
X̄ ' N (µ, σ 2 /n).
Ainsi tous les tests données précédemment sont de niveau approché α dans leur contexte respectif.
2.5
Tests concernant la proportion
On veut tester la valeur de la proportion p des individus d’une population possédant une certaine
particularité. On a vu que la proportion empirique P̂ de personnes d’un échantillon possédant la
particularité a pour loi approchée
P̂ ' N p, p(1 − p)/n .
Pour tester H0 : p = p0 contre H1 : p 6= p0 , on construit un test de niveau α approché en raisonnant
de la même façon que pour une espérance. On est amené à rejeter H0 si
√
p
p
√
n(p̂ − p0 )/ p0 (1 − p0 ) < −N1−α/2 ou n(p̂ − p0 )/ p0 (1 − p0 ) > N1−α/2 .
Variante 1 Pour H0 : p = (ou ≤) p0 contre H1 : p > p0 : on rejette H0 au niveau approché α si
p
√
n(p̂ − p0 )/ p0 (1 − p0 ) > N1−α .
Variante 2 Pour H0 : p = (ou ≥) p0 contre H1 : p < p0 : on rejette H0 au niveau approché α si
p
√
n(p̂ − p0 )/ p0 (1 − p0 ) < −N1−α .
Exemple : La proportion p0 de personnes dans une population ayant un taux de plombémie élevé
est de 11.4%. Dans un village, un échantillon de 67 habitants a donné 14 personnes (soit 21%) ayant
une plombémie élevée. Or, à première vue, il n’y a pas de source de pollution. On veut décider si on
doit s’alarmer de ce fait. Pour être prudent, on prend α = 0.01. Ici H0 et H1 ne sont pas données,
il faut les poser. Affirmer que la proportion de personnes ayant une plombémie élevée dépasse la
"norme" de p0 = 0.114 peut mener, par le principe de précaution, à une évacuation problématique
des habitants. Comme on veut contrôler ce risque, on est amené à poser
H0 : p = 0.114(= p0 ) contre H1 : p > p0 (Variante 1)
On calcule
√
n(p̂ − p0 )/
p
p
√
p0 (1 − p0 ) = 67(0.21 − 0.114)/ 0.114(1 − 0.114) = 2.45 > N0.99 ≈ 2.326
On rejette H0 au niveau approché α = 0.01. Il faut s’alarmer !
2.6
Tests pour 2 échantillons
On considère le contexte où on dispose de 2 échantillons de v.a indépendantes :
X1 , · · · , Xn ∼ N (µx , σx2 ) et Y1 , · · · , Ym ∼ N (µy , σy2 ).
2.6.1
Tests concernant l’espérance
On suppose σx2 = σy2 et on veut tester H0 : µx = µy contre H1 : µx 6= µy (test bilatéral).
Le premier échantillon observé donne {x1 , · · · , xn }, x̄ et sx , le deuxième {y1 , · · · , ym }, ȳ et sy .
On applique le test de Student bilatéral pour 2 échantillons : au niveau α on rejette H0 si
w=q
x̄ − ȳ
q
ns2x +ms2y
n+m−2
1
n
+
1
m
< −t1−α/2 (n + m − 2) ou w > t1−α/2 (n + m − 2).
Pour un test unilateral à droite (H1 : µx > µy ), on rejette H0 si w > t1−α (n + m − 2).
Pour un test unilateral à gauche (H1 : µx < µy ), on rejette H0 si w < −t1−α (n + m − 2).
7
2.6.2
Tests concernant la proportion
On considère maintenant le cas où un échantillon de taille n engendre la v.a P̂x estimant la proportion
théorique px dans une 1ère population. Un 2ème échantillon de taille m engendre la v.a P̂y estimant
la proportion théorique py dans la 2ème population. On veut tester H0 : px = py contre H1 : px 6= py .
np̂x +mp̂y
Notons p̂xy = n+m
. On rejette H0 au niveau approché α si
p̂x − p̂y
q
w=p
p̂xy (1 − p̂xy ) n1 +
1
m
< −N1−α/2 ou w > N1−α/2 .
Pour un test unilateral à droite (H1 : px > py ), on rejette H0 si w > N1−α .
Pour un test unilateral à gauche (H1 : px < py ), on rejette H0 si w < −N1−α .
Exemple : On veut savoir si les mésanges de Corse diffèrent de celles du continent. Un échantillon
de n = 25 mésanges de Corse est capturé et on observe leur poids (x̄C = 19.3 gr, sC = 1.37) et
leur sexe p̂C = 0.56 (= 14 mâles). Un 2ème échantillon de m = 33 mésanges est capturé dans les
étangs littoraux et on observe x̂L = 17.4 gr, sL = 1.51 et p̂L = 0.394 (= 13 mâles). Au niveau
α = 0.05, que peut-on conclure ? On applique des tests bilatéraux puisqu’on veut simplement savoir
si les caractéristiques diffèrent entre les 2 populations.
Pour le poids, on suppose σC = σL et on obtient
w=q
x̄C − x̄L
q
ns2C +ms2L
n+m−2
1
n
+
1
m
19.3 − 17.4
√
= 4.85 > t0.975 (56) ≈ 2
=√
2.18 0.07
Pour le sexe, on obtient
p̂x − p̂y
q
w=p
p̂xy (1 − p̂xy ) n1 +
1
m
0.56 − 0.394
√
=√
= 1.25 ∈ [−N0.975 , N0.975 ] = [−1.96, 1.96]
0.249 0.07
En conclusion, on rejette l’égalité des poids mais on accepte l’hypothèse H0 : pC = pL .
Remarque : Les logiciels renvoient souvent la probabilité critique (p-value en anglais) associée
au test, qui désigne la plus petite valeur de α pour laquelle on rejette H0 . Dans les exemples vus
précédemment, elle peut se calculer de la façon suivante :
pc = P(|W | > |w||H0 vraie )
s’il s’agit d’un test bilatéral et P(W > w|H0 vraie) ou P(W < w|H0 vraie) s’il s’agit d’un test
unilatéral. Si on reprend le dernier exemple traité, on rejette l’hypothèse H0 : pC = pL à partir du
moment où
N1−α/2 = 1.25 = N0.894 ⇔ α ≈ 0.21
donc la probabilité critique associée à ce test est 0.21.
8
Téléchargement