TP7 - ULB

publicité
Intervalles de confiance et tests d’hypothèses
TP7
I. Rappels théorique
-
-
Supposons que la variable aléatoire que nous étudions (de type « scale » dans les notations
SPSS comme TR, taille, poids, QI, score …) possède une fonction de distribution qui
dépend d’un (ou plusieurs) paramètre(s) : F(x ;t )
Exemple : la loi Normale dépend des paramètres µ et s (la moyenne et l’écart-type); la loi
de Poisson dépend d’un seul paramètre ? (la moyenne = variance), la loi Gamma G dépend
de deux paramètres (a et b) etc.
Supposons encore que l’on effectue n observations indépendantes de X.
Le ou les paramètres, généralement inconnus, peuvent être estimés à partir des n observations.
Exemple : dans le cas de la loi Normale, le paramètre µ (la moyenne) est estimée par :
x = Est.µ =
1
n
n
∑x
i
; la variance s² est estimée par s ² = Est .σ 2 = 1
n
∑(x
n −1
i =1
i =1
i
− x) 2 .
On dit que x est une estimation de la moyenne µ et que s² est une estimation de la variance s².
On remarque que ces estimations dépendent des valeurs de x1 , x2 , … xn . En effet, un autre
ensemble d’observations aurait donné une autre estimation de µ (ou s²). La valeur numérique
obtenue pour l’estimation d’un paramètre dépend de l’échantillon tiré. Il est donc légitime de
considérer ces estimations comme des variables aléatoires. Nous parlerons alors d’estimateurs
du paramètre (en termes de notation on passe des minuscules - les observations - aux
majuscules - les variables aléatoires -).
Remarque : d’une manière générale, les valeurs types de l’échantillon (comme la variance,
l’indice de symétrie - skewness, ou d’aplatissement - kurtosis, la corrélation de Pearson dans
le cadre bidimensionnel etc.) peuvent être vus comme des variables aléatoires.
L’inférence statistique se propose d’étudier ces nouvelles variables aléatoires, leur
distribution exacte et asymptotique (quand n ? ∞ ).
La distribution d’échantillonnage étudiée dans le cadre du cours est celle de la moyenne :
X=
1
n
n
∑X
i
i =1
On peut montrer que si la variable X est distribuée suivant une loi N ( µ , σ ) , alors X (la
distribution d’échantillonnage de la moyenne) est distribuée suivant une loi Normale
N ( µ,
σ
n
) . On parle de
la distribution échantillonnage de la moyenne X .
L’écart type de cette distribution d’échantillonnage (
σ
) est appelé l’erreur type ou erreur
n
standard (standard error dans SPSS).
(1)
Remarques :
1
1) Dire que X est distribuée suivant une loi Normale N ( µ,
σ
n
)
est équivalent à dire que : la
x−µ
est distribuée suivant une loi N(0,1).
(1’)
σ
n
2) Si X n’est pas distribuée dans la population suivant une loi Normale, alors le résultat n’est
qu’asymptotiquement vrai (c.-à-d. quand n ? ∞ ) où µ et s sont la moyenne et l’écart-type
de la distribution inconnue.
3) Lorsque la distribution de X dans la population est normale, la distribution
variable centrée et réduite
échantillonnée de la moyenne X dépend de s la variance de la variable X dans la
population. Dans ce cas, de deux choses l’une : soit s est connu : et le résultat (1) est
directement exploitable, soit s est inconnu et nous devons remplacer s par son
estimation ; dans ce cas le résultat (1) ou (1’) doit être aménagé. Au lieu d’avoir (1’),
nous avons :
x−µ
La variable centrée et réduite
est distribuée suivant une loi de « Student » tn-1
s
n
où n est le nombre d’observations dans l’échantillon
(2)
La loi de Student « ressemble » à la loi Normale N(0,1) ; elle dépend du nombre de degrés
de liberté (n-1) (cfr. cours de BA2). Lorsque n > 60, la loi de Student (t60 ) se confond
presque avec la loi Normale N(0,1).
a) Intervalles de confiance
Lorsque l’on peut spécifier la distribution d’échantillonnage (exacte ou asymptotique) d’un
paramètre (ce qui est le cas ici pour la moyenne échantillon), nous pouvons préciser, à
partir de l’estimation que nous avons faite, une région dans laquelle il y a beaucoup de
chance de trouver la vraie valeur du paramètre inconnu de la distri bution de X. Cette
région est appelée zone de confiance ou intervalle de confiance.
L’interprétation probabiliste de l’intervalle de confiance est la suivante : quel que soit le
paramètre t de la distribution de X, la probabilité que l’intervalle aléatoire (bi,bs ) recouvre la
vraie valeur de t vaut (1 – a) ; en d’autres termes, si, ayant calculé bi, et bs à partir des
données de l’échantillon x1 , x2 , … xn , on affirme que la vraie valeur de t est située entre a et
b, on émet une proposition qui sera vraie dans (1 – a)100 cas sur cent.
Les résultats - (1’) et (2) - permettent d’introduire la notion d’intervalle de confiance sur
une moyenne. Nous pouvons écrire lorsque s ² est connue :


X −µ
P − z α <
<z α
σ
1−
 1−
2
2

n

où z
α
1−
2


 = 1− α



est le quantile d’ordre 1 −
(3)
α
2
de la loi Normale N(0,1). Si a = 5 % alors z
α
1−
2
=1,96…
Si la variance s ² est inconnue , alors nous devons utiliser la relation (2) pour obtenir :




X −µ

P − t
<t
α <
α = 1 −α
s
n −1;1− 
 n−1;1−
2
2


n


(4)
2
où t
n −1;1−
α
2
est le quantile d’ordre 1 −
n = 20 alors t
n −1;1−
α
2
α
2
de la loi de Student à n-1 degrés de liberté. Si a = 5 % et
=2,093…
A ce stade, les événements décrits dans les relations (3) et (4) peuvent se réécrire :
En écrivant l’événement entre crochets (3).
Si s est connu :
−z
α
1−
2
<
X −µ
<z α
σ
1−
En écrivant l’événement entre crochets (4)
Si s est inconnu :
−t
2
α
n −1;1 −
2
<
X −µ
<t
α
s
n −1;1−
2
n
n
En isolant (au centre) µ (par calcul
algébrique élémentaire) :
X −z
α
1−
2
σ
n
<µ< X + z
α
1−
2
En isolant (au centre) µ (par calcul
algébrique élémentaire) :
σ
X −t
n
α
n −1;1−
2
s
n
< µ< X +t
α
n −1;1 −
2
s
n
Ces relations définissent l’intervalle de confiance sur le paramètre µ :

σ
σ 
X − z α
;X+z α

1−
1−

n
n 
2
2

si s est connu,  X − t
La longueur de l’intervalle vaut 2 ⋅ z
1−
α
2

σ
n
n −1;1−
α
2
(ou 2 ⋅ t
s
n
n −1;1−
; X +t
α
2
s
n −1;1−
α
2
s 

n 
sinon.
). Pour un niveau a donné cette
n
longueur diminuera avec une augmentation de la taille de l’échantillon.
SPSS permet de représenter l’intervalle de confiance sur une moyenne à l’aide du graphique
« Error bar » :
174
95% CI TAILLE en CM
172
170
168
166
164
162
1
Groupe
3
b) Test d’hypothèses
C’est toujours la relation (1’) ou (2) qui est utilisée lors d’un test d’hypothèse de conformité
sur µ.
Un test se caractérise par une hypothèse nulle H0 et une hypothèse alternative H1 . L’hypothèse
nulle dans le cas d’un test bilatéral de conformité s’écrit :
H0 : µ = µ0 où µ0 est une valeur fixée.
Lors de l’exécution d’un test, nous nous plaçons dans le cas ou l’hypothèse nulle est
vérifiée (µ = µ0 ) :
Donc les relations (3) et (4) peuvent se réécrire :
En écrivant l’événement entre crochets (3)
Si s est connu :
−z
1−
<
α
2
X − µ0
<z α
σ
1−
En écrivant l’événement entre crochets (4)
Si s est inconnu :
−t
2
n −1;1 −
α
2
<
X − µ0
<t
α
s
n −1;1 −
2
n
n
En isolant (au centre) X (par calcul
algébrique élémentaire) :
µ0 − z
α
1−
2
σ
n
< X < µ0 + z
α
1−
2
σ
n
En isolant (au centre) X (par calcul
algébrique élémentaire) :
µ0 − t
α
n −1;1−
2
s
n
< X < µ0 + t
α
n −1;1 −
2
s
n
la zone définie par :
la zone définie par :

σ
σ 
µ0 − z α
; µ0 + z α

1−
1−

n
n 
2
2

µ0 − t
α
n −1;1−

2
est appelée zone d’acceptation de H0 . En
est appelée zone d’acceptation de H0 . En
d’autres termes, si X (que l’on a obtenu
avec les données de l’échantillon) est
compris entre ces bornes, on ne rejettera
pas H0 .
d’autres termes, si X (que l’on a obtenu
avec les données de l’échantillon) est
compris entre ces bornes, on ne rejettera
pas H0 .
s
n
; µ0 + t
n −1;1−
α
2
s 

n 
4
On constate donc que les notions d’intervalle de confiance (IC) et de test d’hypothèse sont
étroitement liées.
Cependant l’IC fournit une information supplémentaire à celle du test d’hypothèse. Si l’on
rejette une hypothèse nulle µ = µ0 , on n’est pas plus avancé sur la valeur réelle du paramètre µ
inconnu. L’intervalle de confiance quant à lui fournit une plage de variatio n dans laquelle il y
a une forte probabilité de trouver la vraie valeur du paramètre inconnu.
La longueur de l’IC est la distance à laquelle il faut être de µ0 pour avoir une puissance de test
de (1-a).
SPSS ne permet pas de représenter graphiquement la zone d’acceptation d’un test. Pour ce
faire XL offre plus de souplesse.
Voici, en XL, une représentation commune de l’IC et de la zone d’acceptation d’un test t de
conformité de moyenne : X = 169 .10 et µ0 = 170 . Les longueurs sont identiques mais l’intervalle
est centré sur x pour l’IC. Dans le cas des tests d’hypothèse, l’intervalle est centré sur µ0 et
définit la zone d’acceptation. Si x tombe dans la zone d’acceptation, on ne rejette pas
µ0 = 170 .
180
175
170
165
160
155
150
145
140
IC
Test
En changeant la valeur de test : µ0 = 160, nous obtenons le graphique suivant : les longueurs
d’intervalles n’ont pas changé (puisque n, s et a sont restés identiques) seul l’intervalle
d’acceptation à translaté vers le bas. x tombe maintenant en dehors de la zone d’acceptation
et nous pouvons rejeter l’hypothèse H0 : µ0 = 160. Si l’hypothèse nulle est rejetée, nous avons
néanmoins, avec l’intervalle de confiance, une idée de l’endroit probable de la vraie valeur de
µ.
180
175
170
165
160
155
150
145
140
IC
Test
5
c) En pratique
1. Inférence à propos de la moyenne d’une population, échantillon unique.
Exemple : on évalue le QI d’une centaine d’enfants d’un groupe d’âge (notre échantillon), que
peut-on dire par rapport au QI réel (dans la population) des enfants de cet âge ?
Deux possibilités :
- Calculer un IC de 95% sur la moyenne de la population. Analyze – descritive statistics
– Explore. Dans statistics, cocher IC. On a une probabilité de 95% que cet IC
recouvre la vraie moyenne du paramètre inconnu.
- Utiliser un test t de conformité de moyenne pour tester une hypothèse sur la moyenne
d’une population. Première étape : poser une hypothèse nulle. Par exemple, le QI
moyen des enfants de cet âge est de 100. Deuxième étape : tester cette H 0 via Analyse
– compare means – one sample t test. Introduire dans test value la valeur de notre
hypothèse nulle. Dans output, si p < .05, on rejette notre H 0 . Cela se note : t(dl) =
valeur de t ; p< 0.05. Le nombre de degrés de liberté est égal au nombre de sujets dans
l’échantillon – 1 (n-1). Pour corroborer ce résultat, l’IC de la différence fournit dans
l’output ne comprend pas la valeur 0.
2. Echantillons appariés (intra-sujets)
Exemple : tester les effe ts de la privation de sommeil sur la vitesse de lecture de pseudo mots.
Les mêmes participants sont testés 2 fois, une fois dans des conditions normales de sommeil
et une fois après une nuit où il leur est interdit de dormir. On compare leur vitesse de lecture
dans les 2 conditions. La différence de vitesse est-elle significative ?
Test t pour échantillons appariés. Analyse – compare means – paired sample t test.
En général, l’ H 0 est qu’il n’y a pas de différence entre les 2 conditio ns. L’output nous donne
la valeur du t et sa valeur de signification (p). Si p < .05, le test est significatif, on rejette
notre H 0 de non différence entre les 2 moyennes. L’output nous fournit également un
intervalle de confiance de 95% de la différence, qui est donc un intervalle à l’intérieur duquel
la vraie valeur de la différence entre les 2 moyennes devrait se trouver dans 95% des
échantillons. Cet intervalle corrobore l’information fournie par le test t : s’il ne comprend pas
la valeur 0, le résultat est significatif.
Cet IC aurait pu être obtenu d’une autre manière : créez une nouvelle variable qui porte sur
l’écart entre les 2 moyennes. Calculez (via Analyze – descritive statistics – Explore) un IC de
confiance sur la différence. Si cet IC ne comprend pas la valeur 0, cela signifie qu’il y a bien
une différence statistiquement significative entre les 2 moyennes. Cet IC est le même que
celui fournit par SPSS quand on fait le test t.
Condition d’application du test t pour échantillons appariés
La différence entre les 2 scores doit se distribuer normalement (cf test de KolmogorovSmirnov)
6
3. Echantillons indépendants
Exemple : on compare le résultat à un test de lecture de 2 groupes d’enfants de 7 ans: le
premier groupe a appris lire au moyen d’une méthode A ; le second au moyen d’une méthode
B. La différence au niveau des résultats des 2 groupes est-elle significative ?
Test t pour échantillons indépendants : Analyse – compare means – independant t test.
L’ H 0 habituelle est qu’il n’y a pas de différence entre les 2 groupes. L’output nous donne la
valeur de t et sa valeur de signification à la fois dans le cas où les variances sont supposées
égales et dans le cas où les variances sont supposées inégales (cf test de Levene sur l’égalité
des variances).
Encore une fois, si p < .05, le test est significatif, on rejette notre H 0 de non différence entre
les 2 moyennes. Ce résultat devrait être confirmé par un IC (fournit par SPSS) qui n’inclut
pas la différence de moyennes de 0.
Une autre façon de procéder est de calculer un IC pour chacune des moyennes (via Analyze –
descritive statistics – Explore). Si chaque moyenne tombe en dehors de l’intervalle de
confiance de l’autre, ces moyennes sont significativement différentes. Si chaque moyenne
tombe à l’intérieur de l’intervalle de confiance de l’autre, les moyennes ne sont pas
significativement différentes. Enfin, si l’une tombe dans l’IC de l’autre mais pas l’inverse, on
ne peut pas tirer de conclusion.
Conditions d’application du test t pour échantillons indépendants
-
-
Les 2 échantillons indépendants proviennent de populations dont les variances sont
égales, que l’hypothèse soit vraie ou fausse (cf test de Levene sur l’homogénéité des
variances).
Les données se distribuent normalement (cf Kolmogorov-Smirnov test).
4. Equivalents non paramétriques des tests t
Si les conditions d’application du test t ne sont pas remplies, on peut remplacer les tests t par
des tests non paramétriques (pas de présupposés par rapport à la distribution de la population).
Alternative au test t pour échantillons indépendants : test U de Mann-Whitney.
Alternative pour test t pour échantillons appariés : test de Wilcoxon et test du signe.
7
II. Exercices : Intervalles de confiance
Exercice 1
Après avoir longuement discuté de la grille des notations, plusieurs enseignants se partagent
au hasard les 800 copies d’un examen de statistiques. Voici les résultats obtenus par un
enseignant sur les 40 premiers étudiants qu’il a corrigés.
x
n
4
2
5
1
6
1
8
6
9
4
10
7
11
7
12
5
13
2
15
2
16
1
18
1
20
1
Que peut- il dire à ses collègues des résultats obtenus par l’ensemble de ses étudiants ?
Exercice 2
Dans une expérience investiguant la relative facilité avec laque lle les mots présentés dans les
champs visuels gauche et droit sont reconnus, 40 mots sont présentés aléatoirement dans chaque
champ visuel de 14 sujets (20 à gauche et 20 à droite). Les données reprises dans le fichier
« champ-visuel.sav » reprennent, pour chaque sujet et pour chaque champ visuel, les temps de
décisions médians.
(a) Créez la variable d’écart des temps de décisions médians entre les champs visuels gauche
et droit.
(b) Calculez la moyenne de cette nouvelle variable ainsi que l’IC à 95 % et représentez les
graphiquement.
(c) Que pouvez-vous conclure ?
(d) Recommencez l’exercice (b) et (c) en supprimant l’individu n° 10.
Exercice 3
Une étude a été planifiée pour déterminer si la réactivité émotionnelle des enfants de familles
mono-parentales est différente de celle d’enfants de familles traditionnelles avec deux parents.
Un échantillon est prélevé pour chaque type de famille. Ces enfants sont soumis à un test de
réactivité émotionnelle. Pour ce test, plus le résultat du score est élevé, plus l’enfant présente
une réactivité émotionnelle prononcée. Les résultats sont repris dans le fichier « R1-9.sav ».
(a) Déterminez la moyenne des scores de réactivité émotionnelle pour chacun des groupes
ainsi qu’un intervalle de confiance de la vraie moyenne.
(b) représentez les IC graphiquement ; Que constatez-vous ?
Solutions
Exercice 1
Nous allons chercher un intervalle de confiance sur la moyenne de la population (les 800
copies) basé sur l’échantillon des 40.
Après avoir encodé les données en SPSS, il convient de les pondérer par la variable
« effectif » (n). On exécute la commande « Analyze – descritive statistics - Explore » pour
ensuite placer la variable « note » dans la liste des variables dépendantes et cochez l’intervalle
de confiance dans la fenêtre « statistics… ».
8
Nous obtenons :
Descriptives
note
Statistic
10,50
Mean
95% Confidence
Interval for Mean
Lower Bound
Upper Bound
5% Trimmed Mean
Median
Skewness
Kurtosis
Std. Error
,523
9,44
11,56
10,39
10,00
,570
1,342
,374
,733
L’intervalle de confiance à 95 % sur la moyenne de la population est de (9.44 ; 11.56). Ce qui
veut dire : La probabilité que cet intervalle recouvre la vraie valeur de la moyenne est de 95%.
Exercice 2
(a)
9
(b) Par la commande « Analyze – descriptive statistics – Explore » sur la variable « ecart »,
nous obtenons :
Descriptives
ecart
Mean
95% Confidence
Interval for Mean
Statistic
-31,1429
Lower Bound
Upper Bound
Std. Error
20,64505
-75,7438
13,4581
5% Trimmed Mean
Median
-18,1587
-4,5000
Variance
Kurtosis
5967,055
12,840
1,154
La moyenne vaut –31.14 et l’intervalle de confiance sur la vraie moyenne des écarts vaut (75.74 ; 13.46)
Graphiquement, « Graph – Error bar - Simple » : (en créant une variable classe qui vaut 1
pour chaque observation :
Ce qui donne :
95% CI ecart
0,00
-30,00
-60,00
1
classe
(c) Nous constatons que la valeur 0 se trouve dans l’IC ; nous pourrions donc interpréter ceci
(si les conditions d’application du test sont bien remplies) comme un NRH0 si H0 est
10
l’hypothèse qu’il n’y a pas de différence, en moyenne, dans la reconnaissance des mots entre
les champs visuels gauche et droite.
(d) Après sélection des individus ~= 10
Descriptives
ecart
Statistic
-10,8462
Mean
95% Confidence
Interval for Mean
Lower
Bound
Upper
Bound
5% Trimmed Mean
Std. Error
4,07910
-19,7337
-1,9586
-9,1624
La moyenne observée vaut à présent –10.84 et l’intervalle de confiance sur la vraie moyenne
est (-19.73 ; -1.9586).
Le graphique devient :
0,00
95% CI ecart
-5,00
-10,00
-15,00
-20,00
1
classe
Le point 0 n’appartient pas à l’intervalle, donc nous pourrions conclure qu’il y a une
différence, en moyenne entre la reconnaissance des mots présentés dans les champs visuels
gauche et droit.
11
Exercice 3
(a) La commande « Analyze – descriptive statistics – Explore » sur la variable « score », nous
obtenons :
Descriptives
score
groupe
mono-parentale
Statistic
Mean
95% Confidence
Interval for Mean
9,50
Lower Bound
Upper Bound
bi-parentale
Mean
95% Confidence
Interval for Mean
7,28
11,72
13,42
Lower Bound
Upper Bound
Std. Error
,980
,973
11,28
15,56
La moyenne observée des scores des enfants de familles mono-parentales vaut 9.50 ;
l’intervalle de confiance vaut (7.28 ; 11.72). Pour les familles bi-parentales, la moyenne est de
13.42 et l’IC vaut (11.28 ; 15.56).
(b)
15
95% CI score
12,5
10
7,5
mono-parentale
bi-parentale
groupe
Les intervalles se chevauchent ; chacune des moyennes tombe en dehors de l’autre intervalle.
Si les conditions d’applications du test t de comparaison de moyennes sont respectées, nous
pouvons conclure que ces moyennes sont significativement (à 5 %) différentes. Attention si
les deux moyennes tombent chacune dans l’IC de l’autre, moyennant le respect des conditions
d’application du test t, nous pourrons conclure au NRH0 ; mais si l’une tombe dans l’IC de
l’autre sans que l’inverse ne soit vrai, il n’est pas possible de tirer de conclusion uniquement
avec ces deux intervalles, il faut alors considérer l’IC de µ1 - µ2 .
12
Téléchargement