R-cours 7

publicité
Cours 7 : Rappels de cours et exemples sous
R
I- Régression linéaire simple
II- Analyse de variance à 1 facteur
III- Tests statistiques
I- Le modèle de régression linéaire simple:
théorie
Rappels On cherche à expliquer ou à prévoir les variations d’une variable Y
(variable dépendante) par celles d’une fonction linéaire de X (variable
explicative), i.e., à valider le modèle de RLS
Y = aX + b + ε
où ε est une variable aléatoire gaussienne de moyenne nulle et de variance
Pour cela on observe un n-échantillon de réalisations de X et de Y, sur
lesquelles on va chercher à voir si le lien est plausible,
i.e. si il existe a, b et σ ²
yi = axi + b + ε i , i = 1,..., n.
(validation)
Avec ε i i.i.d. Gaussiennes et σ ² pas trop grand,
et à approcher les valeurs des paramètres a, b, et σ ² (estimation)
σ²
I- Le modèle de régression linéaire simple:
théorie
Estimation des paramètres :
•
Estimation de a et b : On commence par chercher le « meilleur » ajustement
linéaire sur nos données, au sens des moindres carrés :
ŷyˆi = axi + b =i° valeur estimée
ei = yi − yˆi
= i° résidu
n
â et b̂ sont tels que
n
ˆ − bˆ)² est minimal. Ce sont les
∑ e = ∑ ( y − ax
i =1
2
i
i =1
i
i
coefficients de la régression (ou estimateurs des moindres carrés).
I- Le modèle de régression linéaire simple:
théorie
n
On montre que :
aˆ =
∑ ( x − x )( y − y )
i =1
i
i
n
∑ ( x − x )²
i =1
ˆ
, bˆ = y − ax
i
ˆ + bˆ
y = ax
•
La droite d’ajustement
moindres carrés.
s’appelle droite de régression ou des
•
La valeur ŷ estime la valeur moyenne de Y lorsque X=xi (E(Y/X=xi)) .
i
C’est aussi la prévision de Y pour une observation telle que X=xi.
•
Estimation de σ ²: La variance de l’erreur s’estime par
n
s² =
∑e
i =1
2
i
n−2
=
SSR
n−2
I- Le modèle de régression linéaire simple:
théorie
Validation du modèle sur les données : il faut que le modèle soit de
bonne qualité (bon pouvoir explicatif et prédictif)
•
Analyse de la qualité du modèle : Décomposition de la variabilité
SST = ∑ ( yi − y )² = nsY2
SSM = ∑ ( yˆi − y )² =sY2ˆ
SSR = ∑ ei2 = (n − 2) s 2
=somme des carrés des variations de y
=somme des carrés des variations expliquées
par le modèle
=somme des carrés des variations résiduelles
On montre que : SST=SSR+SSM
Au plus SSM est grand (ou SSR faible), au meilleur est l’ajustement.
I- Le modèle de régression linéaire simple:
théorie
Les indicateurs de variabilité sont résumés dans le tableau d’analyse de la
variance ci-dessous :
source
Degrés
de
liberté
Somme
Somme des
des carrés carrés moyens
Stat de
Fisher
modèle
1
SSM
SSM
F=SSM/s²
erreur
n-2
SSR
s²=SSR/(n-2)
total
n-1
SST
s²(Y)=SST/(n-1)
I- Le modèle de régression linéaire simple:
théorie
Indicateur principal de qualité du modèle: le coefficient de détermination (%
de variation expliqué par le modèle, carré du coefficient de corrélation
linéaire):
R² =
SSM 1 − SSR
=
SST
SST
doit être proche de 1.
Autres indicateurs :
SSM
F=
- Le F de Fisher
doit être le plus grand possible
s²
- Le s² doit être le plus faible possible pour garantir de bonnes prévisions.
- Les coefficients doivent être stables pour garantir de bonnes prévisions, i.e.
leurs écarts type
doivent être faibles. On montre que
s(aˆ ) et s(bˆ)


avec


2
s
x² 
1
ci = xi − x
s ²(aˆ ) = n
; s ²(bˆ) = s ²  + n
n

c
²
∑ ci ²
∑


i=1
i=1 i 

I- Le modèle de régression linéaire simple:
théorie
Vérification des hypothèses sur les aléas ε i: il faut que les aléas
soient i.i.d. et gaussiens
Tests graphiques :
•
Le graphe des résidus versus les valeurs prédites ne doit pas présenter de
structure (indépendance, homoscedasticité, normalité).
•
Le corrélogramme (ACF) ne doit pas présenter de structure (indépendance)
•
Le QQ-plot suit la première bissectrice
I- Le modèle de régression linéaire simple:
théorie
I- Le modèle de régression linéaire simple:
théorie
Conséquences
• de la non-normalité :
– Les estimateurs ne sont pas optimaux
– Les tests et intervalles de confiances sont invalides. En réalité seulement les
distribution à queue très longue posent problème et une légère non-normalité
peut être ignorée, d’autant plus que l’échantillon est grand.
•
d’une variance non constante : Les estimations ne sont pas bonnes il faut utiliser les
moindres carrés pondérés.
I- Le modèle de régression linéaire simple:
théorie
Solutions
•
Essayer de transformer les données en se rappelant que
- quoiqu’on fasse, certaines données ne peuvent être analysées par
régression
- la bonne transformation est parfois difficile à trouver.
•
Utiliser une régression non-linéaire.
I- Le modèle de régression linéaire simple:
théorie
Repérage des points aberrants:
•
Résidu réduit ou studentisé :
ei
rei =
s (ei )


 1
ci ² 
 = s ²(1 − hii )²
s ²(ei ) = s ² 1 − − n
 n
ci ² 
∑

i =1


Tests graphiques
• Le graphe des résidus réduits versus les valeurs prédites doit normalement
être compris entre –2 et 2 pour au moins 95% des observations dès lors que
la normalité est vérifiée.
I- Le modèle de régression linéaire simple:
théorie
•
Des observations dont le résidu réduit est >2 en v.a. sont des points
contribuant fortement à la valeur de s². Ils peuvent constituer des points
aberrants. Il faut les analyser plus avant.
-
Analyse du « leverage » de ces points (hii) : Le leverage mesure l’influence
potentielle d’un point sur la valeur des coefficients de la régression. Une
valeur hii>4/n traduit un point trop influent sur la détermination des
coefficients.
-
Analyse de la distance de Cook : La distance de Cook mesure le leverage et
la contribution au s², c’est-à-dire l’influence réelle d’un point . Une valeur
>1 traduit un point aberrant.
I- Le modèle de régression linéaire simple:
théorie
Solutions
• Enlever les observations aberrantes et recalculer la régression.
Comparer les résultats. Y-a-t-il des différences significatives entre
les coefficients?
I- Le modèle de régression linéaire simple:
théorie
Validation du modèle sur la population
Une fois la gaussianité vérifiée, on peut effectuer des tests afin d’asseoir la
pertinence du modèle sur la population étudiée. Ces tests testent
l’hypothèse :
H 0 : a = 0 contre H1 : a ≠ 0
(a=0 signifie absence de lien linéaire entre X et Y)
• Test de student . Basé sur la statistique
aˆ
T=
• Test de Fisher. Basé sur la statistique : F =
s ( aˆ )
SSM
s²
T ∼ T(n-2) sous H 0
F ∼ F(1,n-2) sous H 0
I- Le modèle de régression linéaire simple:
exemple
Exemple 1 : On cherche à expliquer les variations de y par celles d’une fonction linéaire
de x à partir de 30 observations de chacune des variables, i.e. à ajuster le modèle
yi = axi + b + ε i , i = 1,...,30.
où εi est une suite de variables aléatoires i.i.d.gaussiennes de moyenne nulle et de variance
>x=1:100; X=sample(x,30,replace=TRUE)
>Y=3+7*X+rnorm(30,0,100)
>regression=lm(Y~X); regression
Call:
lm(formula = Y ~ X)
Coefficients:
(Intercept)
X
-30.26
7.42
σ²
Le modèle de régression linéaire simple:
exemple
Dessin du nuage de points :
> plot(X,Y)
>text(40,600, substitute(y==a*x+b, list(a=regression$coef[2],
b=regression$coef[1])))
> lines(X,regression$fitted.values) #ou abline(regression)
> M=locator(); v=locator()
> segments(0,M$y,M$x,M$y)
> arrows(M$x,M$y,M$x,v$y,angle=30, code=3)
> segments(M$x,v$y,0,v$y,lty=2)
> text(0,350, "yi",col="red")
> text(0,200, "^yi",col="red")
> text(25,250, "ei",col="red")
> title("nuage de points et droite de regression")
Le modèle de régression linéaire simple:
exemple
Le modèle de régression linéaire simple:
exemple
Explication des sorties R
> names(regression)
[1] "coefficients" "residuals"
"effects"
[5] "fitted.values" "assign"
"qr"
[9] "xlevels"
"call"
"terms"
"rank"
"df.residual"
"model«
coefficients (ou coef) : estimations des paramètres aˆ et bˆ
fitted.values (ou fitted): valeurs estimées yˆi
Residuals (ou res) : résidus ei = yi − yˆi
df.residual : nombre de ddl des résidus (n-2)
Le modèle de régression linéaire simple:
exemple
> anova(regression)
F=MSM/MSR
Analysis of Variance Table
SSM
Response: Y
SSR
Df Sum Sq Mean Sq F value
Pr(>F)
X
1 1485466 1485466 159.83 4.312e-13 ***
Residuals 28
260238
9294
MSM=SSM/dl=SSM
--n-2
MSR=SSR/dl=SSR/n-2
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Le modèle de régression linéaire simple:
exemple
â
>summary(regression)
Call:
lm(formula = Y ~ X)
Residuals:
Min
1Q
-206.89 -76.47
Median
12.28
^b
3Q
61.42
Max
192.04
s(^b)
s(â)
Coefficients:
tb=^b/s(^b)
Estimate Std. Error t value Pr(>|t|)
(Intercept) -30.2553
34.3536 -0.881
0.386
ta=â/s(â)
X
7.4199
0.5869 12.642 4.31e-13 ***
--S=sqrt(MSR)
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 96.41 on 28 degrees of freedom
Multiple R-Squared: 0.8509,
Adjusted R-squared: 0.8456
F-statistic: 159.8 on 1 and 28 DF, p-value: 4.312e-13
R²=SSM/(SSM
+SSR)
Le modèle de régression linéaire simple:
exemple
Pertinence du modèle sur les données :
De petites valeurs sont un gage
>summary(regression)
de stabilité du modèle donc du
Call:
lm(formula = Y ~ X)
Residuals:
Min
1Q
-206.89 -76.47
Median
12.28
pouvoir prédictif: valeur de b
pas très stable ici
3Q
61.42
Max
192.04
% de variations expliquées
par le modèle R² doit être
proche de 1 pour bon
pouvoir explicatif: ok ici
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -30.2553
34.3536 -0.881
0.386
X
7.4199
0.5869 12.642 4.31e-13 ***
Écart-type résiduel
--Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1doit être faible
Residual standard error: 96.41 on 28 degrees of freedom
Multiple R-Squared: 0.8509,
Adjusted R-squared: 0.8456
F-statistic: 159.8 on 1 and 28 DF, p-value: 4.312e-13
pour bon pouvoir
prédictif
Le modèle de régression linéaire simple:
exemple
• Conclusion 1 : le modèle a un bon pouvoir explicatif sur les
données, mais le pouvoir prédictif risque d’être entaché par
l’instabilité du coefficient b et une variance résiduelle importante.
Le modèle de régression linéaire simple:
exemple
Analyse des résidus
Fonctions R utiles:
- influence(): étude des points contribuant à l’instabilité du modèle
(prédiction).
- residuals()
- rstudent() : résidus réduits
- acf() : graphe d’autocorrelation des résidus
- plot()
- qqnorm()
Le modèle de régression linéaire simple:
exemple
- Repérage des points aberrants et des points contribuant fortement à
la détermination du modèle :
Est suspect un point tel que le résidu réduit est supérieur à 2
en valeur absolue : si sa distance de Cook’s est >1, le point
suspect contribue trop fortement à la détermination du modèle
- Vérifier les hypothèse sur les aléas : iid et normalité (préalable à
l’interprétation des tests)
Le graphe des résidus (ou des résidus réduits) ne doit pas
présenter de structure (variance constante sur la verticale et
symetrie par rapport aux abscisses).
. Le graphe des résidus réduits doit être compris entre –2 et 2 et
ne doit pas présenter de structure. D’autres graphiques tels
que le qqnorm() ou acf() peuvent aider.
Le modèle de régression linéaire simple:
exemple
Le modèle de régression linéaire simple:
exemple
> regression$res
1
-124.555774
7
62.303811
13
-32.171872
19
-25.642668
25
1.090471
2
3
192.039037 -206.889677
8
9
49.992064
58.754097
14
15
66.230754
14.259927
20
21
-90.246235
50.526061
26
27
94.392800
29.988159
4
5
66.405930 134.778691
10
11
-59.526887 -122.429844
16
17
-85.047904 -10.456005
22
23
40.156580 -54.350556
28
29
20.679500 -162.341983
6
84.971904
12
164.829565
18
-85.910834
24
10.292678
30
-82.121786
Le modèle de régression linéaire simple:
exemple
> rstudent(regression)
1
2
3
4
5
6
-1.33891051 2.18030419 -2.35658586 0.69563804 1.44970973 0.90378230
7
8
9
10
11
12
0.67206553 0.54684103 0.61362322 -0.63902844 -1.37190197 1.80811221
13
14
15
16
17
18
-0.33693306 0.72519680 0.14970613 -0.92811721 -0.11319206 -0.91236104
19
20
21
22
23
24
-0.27792699 -0.96174524 0.53172811 0.43253471 -0.58014349 0.10726922
25
26
27
28
29
30
0.01142126 1.03392757 0.31123595 0.21446494 -1.79851278 -0.86589500
Le modèle de régression linéaire simple:
exemple
>par(mfrow=c(2,2)); plot(regression)
Graphe1 : doit être sans structure réparti de part et d’autre de l’axe des x
Graphe 2 : doit suivre la bissectrice
Graphe 3 : doit être sans structure
Graphe 4 : distances de Cook ou courbe de niveaux de leverage de distances de Cook’s
égales
Le modèle de régression linéaire simple:
exemple
>plot(regression$fitted,rstudent(regression),xlabel="fitted values",
ylabel="standardized residuals");
>abline(h=2,col="red");abline(h=-2,col="red")
Le modèle de régression linéaire simple:
exemple
> par(mfrow=c(1,2))
> plot(regression$residuals)
> acf(regression$res)
Le modèle de régression linéaire simple:
exemple
Conclusion 2 : Les résidus semblent approximativement gaussiens
(qqnorm) et i.i.d. (pas de structure, de part et d’autre de 0 sur les
plots et le corrélogramme).Deux points devraient être
éventuellement enlevés du modèle : les points 2 et 3.
Le modèle de régression linéaire simple:
exemple
Le modèle de régression linéaire simple:
exemple
Validité du modèle sur la population
>summary(regression)
Call:
lm(formula = Y ~ X)
Residuals:
Min
1Q
-206.89 -76.47
Median
12.28
3Q
61.42
Max
192.04
La variable X a une influence
significative sur Y à 5%: le
coefficient est significativement
différent de zero: le modèle est
pertinent par student
Coefficients:
Le terme constant n’est
Estimate Std. Error t value Pr(>|t|)
pas significativement
(Intercept) -30.2553
34.3536 -0.881
0.386
different de zero: on peut
X
7.4199
0.5869 12.642 4.31e-13 ***
decider de refaire tourner
--le modèle sans lui
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 96.41 on 28 degrees of freedom
Multiple R-Squared: 0.8509,
Adjusted R-squared: 0.8456
F-statistic: 159.8 on 1 and 28 DF, p-value: 4.312e-13
Le modèle est
pertinent à 5% par
Fisher
Le modèle de régression linéaire simple:
exemple
Conclusion 3: le modèle linéaire est pertinent pour expliquer
variations de Y sur la population.
Conclusion : L’ajustement linéaire est pertinent ici. Pour obtenir un
meilleur pouvoir prédictif, il faudrait éventuellement retirer les
points 2 et 3 de l’analyse et utiliser un modèle sans terme constant.
II- Analyse de variance : théorie
•
Soit X une variable qualitative (facteur) à p modalités (niveaux) et Y une variable
quantitative. On veut mettre en évidence une différence de valeur moyenne de la
variable Y selon le niveau du facteur. On suppose alors que X discrimine bien Y:
E(Y/X=x j ) = µ + α j
ou de façon équivalente
avec ε j de moyenne nulle.
On veut pouvoir rejeter l’hypothèse :
Y j = µ + α j + ε j , j = 1,...p.
H 0 : α1 =...=α j =...=α p
Pour cela, on observe ces deux variables sur un ensemble de n individus, on suppose
yij = µ + α j + ε ij i = 1....n j , j = 1,...p.
p
n =n
∑ j
avec
j =1
et on veut valider l’hypothèse précédente. On fait généralement l’hypothèse implicite que
les ε ij
sont iid gaussiens.
II- Analyse de variance : théorie
p
• y=1 ∑ n y
n j=1 j j
E1 (X = x1 )
y11 ,... yn11
E j (X = x j )
….
y1 j ,... yn j j
n
y1
……
y
j
=
E p (X = x p )
y1 p ,... yn p p
j
∑
i =1
y ij
yp
II- Analyse de variance : théorie
• Un moyen simple pour se rendre compte :
II- Analyse de variance : théorie
•
Lorsque n1 = ... = n p
on dit qu’on a un plan équilibré.
II- Analyse de variance : théorie
Estimation des paramètres
• Moyennes
On a p+1 inconnues du modèle ( µ ,α1,...,α p ) et uniquement p groupes donc
on doit imposer une contrainte. On impose :
p
∑ n jα j = 0
j =1
•
(ce qu’un groupe perd l’autre le gagne)
On cherche les valeurs des paramètres minimisant la fontion des moindres
carrés:
∑i ∑ ( yij −α j − µ )2
j
II- Analyse de variance : théorie
•
On trouve :
µˆ = y
et
αˆ j = y j − y
yˆ j = αˆ
ˆ est la moyenne estimée ou prédite dans le niveau j du facteur
j −µ
eij = y − yˆ j est le i° résidu du niveau j du facteur
ij
•
Estimation de la variance des erreurs :
∑ ∑e
ij
s² =
i
j
n− p
²
II- Analyse de variance : théorie
Validation du modèle : on doit d’abord vérifier que le facteur X discrimine bien Y,
c’est à dire que la majeure partie de la variabilité est bien expliquée par le modèle.
Décomposition de la variabilité
D j = ∑ ( yij − y j )2 = Somme des carrés des variations dans le
niveau j
i ∈E j
SSint ra = ∑ D j = (n − p ) s ² = Somme des carrés des variations intra-niveaux
j
SSint er = ∑ n j ( y j − y )2 = Somme des carrés des variations inter-niveaux
j
SST = ∑ ∑ ( yij − y )2 = somme des carrés des variations totales
j i∈Ej
On a :
SST = SSint er + SSint ra
Le modèle est d’autant meilleur que SSinter est grand (que SSintra est faible)
II- Analyse de variance : théorie
•
Indice de qualité du modèle : le rapport de corrélation (% de variations
expliquée par X)
η2 =
•
SS INTER
SS
= 1 − INTRA
SST
SST
Autre indice : le F de Fisher :
F=
VINTER =
SS INTER
p −1
VINTER
VINTRA
VINTER =
SS INTRA
n− p
II- Analyse de variance : théorie
Les indicateurs de variabilité sont résumés dans le tableau d’analyse de la
variance ci-dessous :
source
Degrés
de
liberté
Somme
des
carrés
Somme des carrés
moyens
Stat de
Fisher
Intergroupes
p-1
SSinter
Vinter=SSinter/p-1
F=Vinter/
s²
Intragroupes
n-p
SSintra
Vintra=s²
=SSintra/(n-p)
total
n-1
SST
s²(Y)=SST/(n-1)
II- Analyse de variance : théorie
Validation des hypothèses sur les aléas
Voir régression
II- Analyse de variance : théorie
Test d’égalité des moyennes
Dès lors qu’on a vérifié que les erreurs sont i.i.d. gaussiennes, on peut
tester
H 0 : α1 =...=α j =...=α p
En utilisant le test de Fisher. On utilise la statistique de test
F=
VINTER
VINTRA
sous H 0 , F ∼ F ( p − 1, n − p )
II- Analyse de variance :exemple
Six (k) insecticides (spray) ont été testés chacun sur 12 cultures. La
réponse observée (count) est le nombre d'insectes. Les données sont
contenues dans le data.frame « InsectSprays ». On veut savoir si il
existe un effet significatif du facteur insecticide, i.e. on veut valider
le modèle d’analyse de variance :
Countij = µ + α j + ε ij , i = 1,...12; j = 1,...6.
où ε i est une suite de variables aléatoires i.i.d. de moyenne nulle et de
variance σ ²
>anov=aov(sqrt(count) ~ spray, data = InsectSprays)
II- Analyse de variance
SSInter
> summary(anov)
P(F>Fvalue)
F suit F(k-1,n-k)
SSIntra
Df Sum Sq Mean Sq F value
5 88.438 17.688 44.799
66 26.058
0.395
spray
Residuals
--Signif. codes:
Pr(>F)
< 2.2e-16 ***
V Inter
0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
V intra
k-1
n-k
V inter/V intra
II- Analyse de variance
> names(anov)
[1] "coefficients" "residuals" "effects"
"rank"
[5] "fitted.values" "assign"
"qr"
"df.residual"
[9] "contrasts" "xlevels"
"call"
"terms"
[13] "model"
coefficients : moyennes dans les niveaux αˆ j
residuals : résidus estimes du modèle eij = yij − yˆij
fitted.values : valeurs estimées yˆij = µˆ + αˆ j
>boxplot(sqrt(InsectSpray$count))~InsectSpray$spray
II- Analyse de variance
Le Boxplot montre :
- les points aberrants
- l’asymétrie de la distribution
- une inégalité dans les variances. Cependant, comme souvent il y
a peu de données dans chaque niveau du facteur on peu s’attendre
à une grande variabilité même si les variances des souspopulations sont en réalité égales.
II- Analyse de variance
Analyse des résidus (cf régression)
>par(mfrow=c(2,2)); plot(anov)
II- Analyse de variance
>plot(rstudent(anov))
II- Analyse de variance
>par(mfrow=c(2,1))
> acf(anov$res)
>plot(anov$res)
II- Analyse de variance
La distribution des résidus semble gaussienne
Les résidus sont i.i.d.
Il existe des points aberrants 39, 27, 25 dont les distances de Cook’s
montrent qu’ils influencent trop les coefficients.
II- Analyse de variance
>summary(anov)
Df Sum Sq Mean Sq F value
5 88.438 17.688 44.799
66 26.058
0.395
spray
Residuals
--Signif. codes:
Pr(>F)
< 2.2e-16 ***
0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Le test de Fisher montre que l’on rejette fortement l’hypothèse nulle
(avec un risque de se tromper presque nul): le modèle est significatif
:il existe un fort effet du facteur spray sur le nombre d’insectes : les
moyennes sont differentes
>boxplot(sqrt(InsectSpray$count))~InsectSpray$spray
II- Analyse de variance
>anov$coeff
(Intercept)
3.7606784
sprayB
0.1159530
sprayC
-2.5158217
sprayD
-1.5963245
sprayE
-1.9512174
sprayF
0.2579388
Le groupe A est le groupe de référence avec une moyenne de 3.76. Le groupe B
a une moyenne de 3.76+0.11,….
Les écarts les plus significatifs sont entre les groupes A B et F et les groupes C
D et E, qui sont plus efficaces que les premiers.
III- Test de comparaison de moyenne
Soient (X1, . . . , Xn) un echantillon issu d’une population iid N(1, 1) et (Y1, . . . ,
Ym) un échantillon issu d’une population iid E(1). On veut tester:
H 0 : E ( X ) = E (Y ) contre H1 : E ( X ) ≠ E (Y )
• Lorsque les variances théoriques des deux variables sont égales :
Test de student
X −Y
(n1 − 1) s12 + (n2 − 1) s22
t ∼ T (n1 + n2 − 2) sous H 0
t=
; s² =
n1 + n2 − 2
1 1
s
+
n1 n2
• Lorsque les variances théoriques des deux variables sont inégales :
Correction de Welch
III- Test de comparaison de moyenne
Test de student à la main (à α=5%) :
>x = rnorm(100,1,1); y = rexp(200,1)
>p=abs(mean(x)-mean(y))
> s=sqrt((99*var(x)+199*var(y))/298)
>t=p/(s*sqrt(1/100+1/200))
>t
[1] 0.7274531
On compare |t| le fractile d’ordre 1- α/2 de la loi de student à 298 ddl.
Si |t| supérieur, on rejette H0, sinon en accepte.
III- Test de comparaison de moyenne
Avec la fonction t-test : Cas où on suppose les variances égales :
>x = rnorm(100,1,1); y = rexp(200,1)
>t.test(x,y, var.equal=T)
Two Sample t-test
P(|T|>t)
Où T suit T(298)
Rejet de H0 si <5%
data: x and y
t = -0.7275, df = 298, p-value = 0.4675
Nombre
de ddl = 298
alternative hypothesis: true difference in means is not equal
to 0
95 percent confidence interval:
-0.3460831 0.1592772
Valeur de t
sample estimates:
mean of x mean of y
0.9584589 1.0518618
X
III- Test de comparaison de moyenne
Avec la fonction t-test : Cas où on suppose les variances inégales
>x = rnorm(100,1,2); y = rexp(200,1)
>st=t.test(x,y)
Welch Two Sample t-test
Généralisation du test de Student au cas de
variances inégales
data: x and y
t = 0.8249, df = 118.758, p-value = 0.4111
alternative hypothesis: true difference in means is not equal to 0
Rejet de H0 si <5%
95 percent confidence interval:
-0.2472865 0.6004484
sample estimates:
mean of x mean of y
1.182571 1.005990
Nombre de ddl
corrigé=178,46
X
Y
Valeur de la Statistique de
Welch
III- Test de comparaison de moyenne
> names(st)
[1] "statistic" "parameter" "p.value" "conf.int" "estimate"
[6] "null.value" "alternative" "method" "data.name"
statistic : valeur de t
alternative : type d’alternative two-sided, one-sided.
estimate : moyennes empiriques des echantillons
null.value : hypothese nulle
conf.int: intervalles de confiances
parameter :ddl
Conclusion : pour les deux exemples, on ne peut pas rejeter l’hypothèse nulle
au seuil 5% : les moyennes ne sont pas significativement différentes.
IV – Test du chi2
On veut tester à partir d’un tableau de contingence de n individus s’il y a une
relation entre deux caractères X et Y
H 0 : les deux critères sont indépendants
contre H1 = ! H 0
Statistique de test :
χ n−1 ² ∼ χ ²((l − 1)(c − 1)) sous H 0
Où Oi sont les éléments du tableau de contingence, Ei sont les éléments du
tableau attendu sous l’hypothèse d’indépendance (voir un cours et
l’exemple ci-après)
IV – Test du chi2
Test du chi2 à la main
>O=matrix(c(442,514,38,6),nrow=2,byrow=TRUE)
>colnames(O)=c("homme","femme"); rownames(O)=c("voyant","aveugle")
#tableau théorique Ei
>O #tableau observé Oi
homme femme
homme femme
voyant 442 514
voyant 458.88 497.12
aveugle 38 6
aveugle 21.12 22.88
#Création du tableau théorique :
>ni=apply(O,1,sum); nj= apply(O,2,sum)
voyant aveugle
homme femme
956 44
480 520
>E=matrix(c(ni[1]*nj[1]/1000,ni[2]*nj[1]/1000,ni[1]*nj[2]/1000,
ni[2]*nj[2]/1000),2,2)
>chi2=sum((O-E)^2/E)
[1] 27.13874
IV – Test du chi2
> X2=chisq.test(O, correct=F)
Pearson's Chi-squared test
Valeur de la statistique de test du chi2
data: tab
X-squared = 27.1387, df = 1, p-value = 1.894e-07
P(X>X-squared )
X v.a. de loi X²(1)
On rejette H0 si la p-value est <5%. Ici, c’est le cas, les caractères sexe et
cecite ne sont pas indépendants.
Téléchargement