Introduction générale

publicité
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
Introduction générale
La notion de base en statistique est celle de population : ensemble d’individus (ou objets ou
unités statistiques) pouvant être décrits par un ensemble de variables (ou propriétés ou
caractéristiques) communes. La variabilité d’une population signifie que les variables décrivant
les individus peuvent prendre des valeurs différentes d’un individu à l’autre. L’analyse
statistique est l’étude de cette variabilité.
Souvent, il est matériellement impossible d’étudier tous les individus d’une population. Si l’on se
limite à une partie de la population, on fait un sondage; la partie étudiée s’appelle un
échantillon. Afin d’assurer la représentativité de l’échantillon, celui-ci est la plupart du temps tiré
au hasard dans la population.
La théorie de l’échantillonnage nous permet de passer des caractéristiques de la population aux
caractéristiques d’un échantillon représentatif.
Schéma récapitulatif
Echantillon E
Population P
(représentatif de la
population)
N individus
X : variable aléatoire
Echantillonnage
n individus
X : variable aléatoire
X i ≡ X ∀i
recensement exhaustif
sondage
loi statistique caractérisée
par:
loi statistique caractérisée
par:
Moyenne : m
Variance : σ²
Proportion : P
estimation
Moyenne : X
Variance : S²
Proportion : F
Intervalles de confiance
On distingue deux cas :
•
•
On connaît la population c’est à dire sa loi avec ses caractéristiques (moyenne,
variance) et on cherche des renseignements sur un échantillon de n individus (loi,
moyenne,
variance,
avec
quels
intervalles
de
confiance?).
⇒ c’est un problème d échantillonnage : déduction.
On connaît l’échantillon c’est à dire sa loi avec ses caractéristiques (moyenne,
variance) et on veut estimer la population toute entière (loi, moyenne, variance, avec
quels intervalles de confiance?).
⇒ c’est un problème d’estimation : induction.
EchM1.doc
1/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
MODULE 1 : Variables et lois d’échantillonnage
Les lois d’échantillonnage et les variables d’échantillonnage définies dans ce module 1 vont
nous servir dans les modules 3 et 4 pour établir les intervalles de confiance (c’est à dire
encadrer les paramètres inconnus d’une population : moyenne, variance, proportion) et faire
des tests d’hypothèse (c’est à dire tester les paramètres d’une population à partir des données
d’échantillonnage).
M1Unité 1 : Définitions
Soit X, une variable aléatoire qui représente la population. Elle est caractérisée par la
densité de probabilité f(x), dans le cas d’une variable aléatoire continue, ou par sa probabilité
élémentaire p(x), dans le cas d’une variable aléatoire discrète.
• On appelle échantillon de taille n issu de X, ou n-échantillon de X, le vecteur aléatoire
(X1, X 2 ,...X i K, Xn ) où X i ≡ X ∀i ( X i suit la même loi que X) et X i , X j indépendants
∀i ≠ j . L’échantillon est dit IID c'est-à-dire identiquement indépendamment distribué.
On parle dans ce cas d’échantillon théorique aléatoire probabilisé.
• L’ensemble de n valeurs images indépendantes de X est constitué de n images de l’épreuve
associée à X indépendantes (x 1, x 2 , K, x n ) . Ainsi, x i est l’image obtenue à la ième
répétition de l’épreuve. Cet ensemble est l’image de la variable aléatoire (X1, X 2 , K, X n ) .
On parle ici d’échantillon empirique ou observé.
Convergence de la fonction de répartition d’un échantillon.
Soit (X1, X 2 , K, X n ) un échantillon théorique.
(x 1, x 2 ,K, x n ) un échantillon empirique.
x1 < x 2 < L < x n
On va noter F’(x) la fonction de répartition empirique ou fonction des fréquences cumulées.
F(x)=Prob(X≤x) est la fonction de répartition théorique ou encore c’est la probabilité de
l’événement “X≤x”
F’(x)=
∑ fi
xi ≤ x
P
F’(x) converge en probabilité vers F(x) : F’(x) → F( x )
Définition de la vraisemblance d’un échantillon
• Cas discret :
X : variable aléatoire discrète caractérisée par {χ; p( x )} (Cf cours Math Stat1)
Soit (X1, X 2 , K, X n ) un échantillon théorique
La probabibilé conjointe est égale au produit des probabilités élémentaires (VA indépendantes)
P[X1 = x 1; X 2 = x 2 ; L; X n = x n ] = P[X1 = x 1 ]LP[X n = x n ]
∀i, Pr ob[X i = x i ] = Pr ob[X = x i ] = P( x i )
D’où P[X1 = x 1 ] ⋅ P[X 2 = x 2 ]LP[X n = x n ] = P( x 1 ) LP( x n )
• Cas continu :
X : variable aléatoire continue caractérisée par {χ; f ( x )}
EchM1.doc
2/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
P[x1 < X1 < x1 + dx1; L; x n < X n < x n + dx n ] = P[x 1 < X1 ≤ x1 + dx 1] ⋅ LP[x n ≤ X n ≤ x n + dx n ]
= f ( x 1 )dx 1 L f ( x n )dx n
= f ( x 1 ) L f ( x n )dx1 L d( x n )
On appelle vraisemblance de l’échantillon et on note L(x1,L, x n ) le produit des probabilités
élémentaires ou des densités de probabilité :
L(x1,L, x n ) = p( x 1 ) Lp( x n ) X : variable aléatoire discrète
L(x1,L, x n ) = f ( x 1 ) L f ( x n )
X : variable aléatoire continue
Caractéristiques de l’échantillon théorique :
• moyenne empirique notée : X =
1
n
• variance empirique notée : S 2 =
∑ Xi = m1′
1
n
∑ ( X i − X)2 = µ '2
• moment non centré empirique d’ordre r : mr′ =
• moment centré empirique d’ordre r: µ r' =
• Proportion : F =
∑
n
1
Xr =
n i =1 i
∑ fi Xri
∑ (
∑
n
n
)
1
r
( X i − X )r =
fi X i − X
n i =1
i =1
X
n
Caractéristiques théoriques c’est à dire caractéristiques de la population :
• moment non centré d’ordre r : m r = E  X r  =
 
mr = E  X r  =
 
∑ x k px
∫ x f (x)dx
r
dans le cas continu
χ
dans le cas discret
x∈χ
• moment non centré d’ordre 1
∫
m = E[X] = xf (x )dx (cas continu)
m = E[X] =
χ
∑ xpx
(cas discret)
x ∈χ
• La variance :
µ 2 = V[ X] = E[X − E( X )]2 =
µ 2 = V[ X] = E[X − E( X)]2 =
∫ (x − m)
2
f ( x )dx (cas continu)
χ
∑ (x − m)2 px (cas discret)
x ∈χ
• p : proportion dans la population
EchM1.doc
3/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
Synthèse : notations :
Caractéristiques
de la population
Caractéristiques
correspondantes
dans l’échantillon
théorique
La moyenne :
m
X
La variance :
σ 2 = V [ X]
S 2 ou Ŝ 2
mr
m'r
p
F
Le moment
d’ordre r
non
centré
La proportion
M1Unité 2 : Variables d’échantillonnage
2.1 Etude de X
X=
∑
1 n
Xi
n i =1
X est la moyenne de l’échantillon théorique.
Les X i sont des variables aléatoires X est une variable aléatoire.
Calculons son espérance et sa variance :
1 n
 1 n
• E X = E
Xi  =
E (X i )
 n i =1  n i =1
[]
∑
∑
avec E[X i ] = E[X] = m moyenne théorique (puisque X i ≡ X )
[]
EX =
∑
n
1
m⇒
n i =1
() [
[]
EX =m
( )]2 = E[X − m]2
• V X =E X−E X
EchM1.doc
4/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
1 n

V X = E
X i − m
 n i =1

()
∑
2
1 n
mn 
= E

Xi −
n
n 
 i =1

∑
2
 n

 ( X i − m) 


= E  i =1

n






n n

1 n
=
E  ( X i − m) 2 + 2
( X i − m)( X j − m)

n 2  i =1
i =1 j =1

2
∑
∑
=
∑∑
n
n n

1 


E(X i − m)2 + 2
E ( X i − m)( X j − m) 

n2 

i =1 j =1
i =1

∑∑ [
∑
[
(
)]
∑
E[X i − m]2 =
[
]
]
X i , X j ind E (X i − m) X j − m = E[X i − m] E X j − m = 0
()
VX =
()
VX =
()
1
n2
nσ 2
n2
=
σ2
n
σ2
n
[]
V X est un indicateur de la dispersion de X autour de m = E X .
Lorsque n augmente,
( )
σ2
diminue.
n
V X
n0
n 0 > n1 > n 2
n1
n2
X
2.2 Etude de S²
∑(
n
)
1
2
S =
Xi − X
n i=1
2
S 2 est la variance de l’échantillon théorique.
Les X i sont des variables aléatoires, donc S 2 est une variable aléatoire.
EchM1.doc
5/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
[ ]
On cherche à calculer E S 2 .
Rappel : σ 2 = E[X − m]2 = E[X i − m]2 ∀i
(
) (
Xi − m = Xi − X + X − m
(X i − m)2
(
= Xi − X
)
)2 + (X − m)2 + 2(Xi − X)(X − m)
∑ (X i − m)2 = ∑ (Xi − X) + ∑ (X − m)
2
i
Or
2
i
∑ (Xi − X)(X − m)
+2
i
i


 i

∑ (X i − X )(X − m) = (X − m)∑ (X i − X ) = (X − m)⋅  ∑ X i − nX 
i
Comme X =
Donc

E

 i
1
n
∑ Xi , alors ∑ Xi − nX = 0
i
i
∑ (Xi − m)2 = ∑ (X i − X )
2
i

i

(
+n X−m

)2
2
2
∑ (Xi − m)2  = E∑ (Xi − X)  + En(X − m)  ⇔



 i




∑ E[Xi − m]2 = EnS 2  + n E[X − m]
2
i
- E[X i − m]2 = σ 2 ∀i
∑ E[Xi − m]2 = nσ 2
i
[
- EX−m
]2 = E[X − E(X)]2 = V(X) = σn
2
σ2
⇒ nσ 2 = EnS 2  + n


n
E nS 2  = nσ 2 − σ 2 = (n − 1)σ 2


 n − 1 2
E S 2  = 
σ
   n 
On recherche Ŝ 2 tel que E[Ŝ 2 ] = σ 2 (pour avoir un estimateur sans biais de la variance de la
population, Cf. module 2).
 n

E
S2  = σ2
n − 1

∑ (Xi − X)
(
X
−
X
)
=
i
∑
n−1
2
Ŝ 2 =
n
n 1
S2 =
n −1
n −1n
Ŝ 2 =
1
n −1
∑ (Xi − X)
2
2
On dit qu’on a un estimateur sans biais de σ 2 (Cf. module 2).
EchM1.doc
6/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
2.3 Etude du moment empirique non centré d’ordre r
Le moment empirique non centré d’ordre r m′r se calcule par :
m′r =
1
n
∑ Xri
n
i =1
X i ≡ X . Les X i sont des variables aléatoires, donc m′r est une variable aléatoire.
[ ]
Le moment non centré d’ordre r de la population est : m r = E X r
[ ] [ ]
X i ≡ X , E X r = E Xri ∀i
[ ]
n
1 n r  1 n
m
1
r
′
E[m r ] = E 
Xi  =
E Xi =
mr = n r = mr
n i =1
n
 n i =1  n i =1
∑
∑
E[m′r ] = m r
Ainsi :
1
V[m ′r ] = E[m ′r − E(m ′r )]2 = E 
n

= E


=
=
∑
∑

E 
n 2 

X ri − n m r 


n

∑


= E


2
∑
2
∑  Xri − mr 
2
1
= E
n
 X r − m  
r 
 i

n


∑
X ri −
n mr 

n 
2
2

 X r − m  X r − m 
r  j
r 
 i
j

∑∑
 X r − m  + 2
r
 i

E
n 2 
1
∑

X ri − m r 

i
2
∑∑ EXri − m r  Xrj − mr 
+2

i
j
E  X ri − m r   X rj − m r  = E  X ri − m r  ⋅ E  X rj − m r  (propriété de l’indépendance des variables

 
 



aléatoires)
[
] [
] [
[ ] [
[ ]
Or m r = E  X ri  ∀i donc E X ri − m r ⋅ E X rj − mr = E X ri − E X ri ⋅ E X rj − E X rj = 0
 
V (m′r ) =
1
2
∑ E[Xri − mr ]
n
( )
2
n i =1
n
=
V X ri
2
n
1
= E X i2r + m r2 − 2m r X ri
n
1
1
= E X i2r + m r2 − 2m r E[X i ]r = m 2r + m r2 − 2m r − m r
n
n
[
[[ ]
V (m r′ ) =
]
] [
]
m 2r − m r2
n
Pour r=1, m′r = X = m1
EchM1.doc
7/15
Echantillonnage
()
VX =
Module 1 – Variables et lois d’échantillonnage
m 2 − m12
n
E  X 2  − (E[X])2
 
V (X )
=
=
n
n
2.4 Etude de la proportion d’échantillon F
• Soit Y une variable aléatoire dans une population.
Y présente deux modalités : évènement A → P( A ) = P
évènement A → P( A ) = 1 − p = q
La variable aléatoire Y est donc associée au tirage d’un individu.
Y est une variable de Bernouilli.
• Maintenant, soit la variable X associée au tirage de n individus de manière indépendante
(c’est-à-dire au nombre de fois où A se produit).
∑ Yi
n
Donc X =
i =1
Alors X ≡ B(n, p ) (loi binomiale de paramètres n et p).
• Considérons F la proportion dans l’échantillon théorique issu de la population.
F=
X
obéit elle aussi à une loi binomiale.
n
Calculons son espérance et sa variance :
X
= p (car la variable binomiale a une espérance égale à np).
E[F] = E   = E[X] =
n
n  n
1
np
Donc : E[F] = p
X
V[X] =
=
V [F] = V   =
n
 n  n2
n2
npq).
Donc : V [F] =
1
npq
pq
(car la variable binomiale a une variance égale à
pq
n
M1Unité 3 : Lois de probabilités des variables d’échantillonnage fondées
sur l’hypothèse de normalité : cas d’un échantillon tiré d’une population
normale.
L’hypothèse fondamentale est celle de normalité de la variable aléatoire X ≡ N(m, σ )
3.1 Loi de X
∑
n
1
X=
Xi
n i =1
X est la moyenne de l’échantillon théorique.


Rappel :
a i X i ≡ N a i X i ;
 i
i

∑
EchM1.doc
∑
∑
a i2 σ i2


e ija i a j σ i σ j 

j

∑∑
+2
i
8/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
Où X i ≡ N(m i ; σ i ) car les Xi constituent un échantillon IID (identiquement indépendamment
distribué).
[
]
1
, X i ≡ N(m, σ ), E[X i ] = E[X ] = m ; V [X i ] = V [X ] = σ 2 ∀i ≠ j
n
indépendantes.
Ici a i =
e ij = 0 car X i X j
∑ a im i = ∑ n m = m
1
i
∑
i
a i2 σ i2 =
i
∑ n2
1
σ2 =
nσ 2
i
n2
=
σ2
n


X ≡ N m; σ

n

3.2 Loi de la variance S²
∑(
)
1
2
Xi − X ,
n i
S2 =
S 2 est la variance de l’échantillon théorique.
(X i − m) = (X i − X) + (X − m)
(X i − m)2
(
= Xi − X
)2 + (X − m)2 + 2(Xi − X)(X − m)
2
2
∑ (X i − m)2 = ∑ (Xi − X) + ∑ (X − m) + 2∑ (Xi − X)(X − m)
i
i
avec
i


∑ (Xi − X)(X − m) = (X − m)∑ (Xi − X) = 0  ∑ (Xi − X) = ∑ Xi − ∑ X = nX − nX = 0 
i
∑
i
(X i − m)2
σ2
i
 i
i
=
∑
i
(Xi − X)2 + n (X − m)2
σ2
i
i

σ2
X ≡ N(m; σ) ∀i X i ≡ N(m; σ)
Xi − m
≡ N(0,1) (variable aléatoire normale centrée réduite)
σ
Ui =
∑
n
(X i − m)2
2
σ
i =1
indépendants)
≡ χ 2 (n) (car


X ≡ N m; σ 
n

∑ Ui2 ≡ χ 2 (n)
n
i =1
(
)2
(
X−m
n X−m
X−m
≡ N(0;1) d’où
=
2
σ
σ2
σ 
n


n

variable aléatoire centrée réduite)
Donc,
(loi du Khi deux à n degrés de liberté) Ui
)2
≡ χ 2 (1) (on a là uniquement le carré d’une
nS 2
⇒ χ 2 (n) =
+ χ 2 (1)
2
σ
EchM1.doc
9/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
D’où le Théorème de Fisher
Soit un échantillon IID (c’est-à-dire que les variables aléatoires X i sont indépendantes et
identiquement distribuées) issu de la loi Normale de moyenne m et d’écart type σ (notée :
N(m,σ)), alors :
•
les grandeurs aléatoires (n − 1)
Ŝ 2
•
(n − 1) Ŝ 2
≡ χ 2 (n − 1) car Ŝ 2 =
2
σ
⇒
nS 2
σ
2
≡ χ 2 (n − 1) ou
≡ χ 2 (n − 1)
nS 2
σ
2
σ2
et
X−m
sont indépendantes.
σ
n
n
S 2 (Cf. unité 2 §2.2)
n −1


X ≡ N m; σ

n

3.3 Loi de X indépendante de σ 2 (de la variance de la population)
Soit (X1 L X i L X n ) un échantillon IID
X i ≡ N(m; σ)


X ≡ N m; σ

n

On se place ici dans le cas où l’écart-type σ de la population est inconnu.
Lorsque dans une loi normale, la variance est inconnue, on l’élimine : on fait une studentisation.
2
nS
X −m
≡ N(0,1) et
≡ χ 2 (n − 1) sont indépendants (Théorème de Fisher)
2
σ
σ
n
La loi de Student se constitue de la façon suivante :
La loi de Student est le rapport entre une variable aléatoire obéissant à une loi normale et la
racine carrée d’une variable aléatoire suivant une loi de χ 2 rapporté à son degré de liberté.
Ces variables aléatoires étant indépendantes, si X ≡ N(0;1) et Y ≡ χ 2 (n) , alors T(n) =
Donc T(n) =
X
Y
n
N(0,1)
χ 2 (n)
n
C’est-à-dire :
X−m
σ
n
nS 2
=
X−m
S
n −1
≡ T(n − 1)
σ 2 (n − 1)
Ici, on a une loi de Student à n – 1 degrés de liberté car la loi du χ 2 utilisée est à (n – 1) degrés
de liberté.
Rappel :
EchM1.doc
10/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
∑ (Xi − X)
1

n

2


X ≡ N m; σ

n

S2 =
nS 2 = (n − 1)Ŝ 2 ⇒
S2
Ŝ 2
=
⇒
n −1
n
T(n − 1) ≡


Ŝ 2 =
1
(n − 1)
∑ (Xi − X)
2
X−m
X−m
=
S
Ŝ
n −1
n
3.4 Loi de F
Soit X une variable aléatoire dans la population obéissant à une loi binomiale
X ≡ B(n, p)
Supposons n grand ( n → ∞ , en pratique n > 50) et np > 18.
(
L
)
L
X ≡ B(n, p ) → N np, npq ( → signifie « converge en loi vers »)
X
(Cf. §2.4 unité 2)
n
Soit F =
F converge alors vers une loi normale. On a montré dans le paragraphe 2.4 de l’unité 2 que
E[F] = p et V [F] =
L 
pq 
pq
. Donc : F → N p,
n 
n

M1Unité4 Lois de probabilité de variables d’échantillonnage à partir de
deux échantillons tirés dans deux populations normales.
Soient deux populations dans lesquelles nous définissons deux variables aléatoires X1 et X 2 .
Dans ces deux populations, nous prélevons deux échantillons IID de taille respective n1 et n2.
Hypothèses : X1 ≡ N(m1, σ1 ) et
X 2 ≡ N(m 2 , σ 2 )
4.1 Loi de la différence des moyennes d’échantillons lorsque σ12 et σ 22
sont connus
X1 =
1
n1
∑X
n
1i
i =1
1
X2 =
n2
∑X
n
i =1
2i


σ

X1 ≡ N m1 , 1


n
1



σ

X 2 ≡ N m 2 , 2

n 2 

avec X1 et X2 indépendants
Le théorème central limite permet de donner la loi de X1 − X 2 :

σ 12 σ 22 
+
X1 − X 2 ≡ N m1 − m 2 ;

n1 n 2 


Rappel :
EchM1.doc

a i X i ≡ N a im i ;

i
 i
∑
∑

a i2 σ i2 

i

∑
11/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
σ 12
σ2 σ2 σ2
+ (−1) 2 2 = 1 + 2
n1
n2
n1 n 2
Ici 12
4.2 Loi du rapport des variances
X 1 ≡ N(m1 , σ 1 ) S12 =
X 2 ≡ N(m 1 , σ 2 ) S 22 =
n1 S12
σ 12
1
n1
∑ (X
1
n2
n1
1i
− X1
i =1
n2
∑ (X
2i
)
− X2
i=1
2
)
2
≡ χ 2 (n1 − 1)
indépendants
n 2 S 22
2
≡ χ (n 2 − 1)
σ 22
La loi de Fisher-Snédécor se présente comme le rapport de 2 Khi-deux indépendants,
rapportés à leur degré de liberté. L’ordre du rapport des χ 2 donne l’ordre des degrés de liberté
de la variable de Fisher. Donc ici :
n1S12
χ 2 (n1 ) / n1
F(n1 , n 2 ) =
χ 2 (n 2 ) / n 2
⇒
σ 12 (n1 − 1)
n 2 S 22
=
n1S12 σ 22 n 2 − 1
≡ F(n1 − 1; n 2 − 1)
n1 − 1 σ 12 n 2 S 22
σ 22 (n 2 − 1)
2
nS
on a vu nS 2 = (n − 1)Sˆ 2 ⇒ Sˆ 2 =
n −1
⇒ F(n1 − 1; n 2 − 1) =
Sˆ 12 σ 12 n1S12 σ 22 n 2 − 1
=
. 2
2
2
Sˆ 22 σ 2 n1 − 1 σ 1 n 2 S 2
4.3 Loi de la différence des moyennes d’échantillons lorsque les écarts
types σ12 et σ 22 sont inconnus
X1 =
∑X
n
1
n1
1i
i =1
1
X2 =
n2
∑X
n
2i
i =1


σ

X1 ≡ N m1 , 1


n
1



σ

X 2 ≡ N m 2 , 2

n 2 

σ1 inconnu
avec X1 et X2 indépendantes
σ 2 inconnu

σ 12 σ 22 
+
X1 − X 2 ≡ N m1 − m 2 ;

n1 n 2 


Rappel :
X −m
σ
n
≡ N(0,1)
X−m
S
n −1
EchM1.doc
≡ T(n − 1)
12/15
Echantillonnage
(X
•
Module 1 – Variables et lois d’échantillonnage
)
− X 2 − [m1 − m 2 ]
1
σ 12 σ 22
+
n1 n 2
≡ N(0,1)
Le but de la studentisation est d’éliminer les écart-types inconnus des populations. Ici, pour
faire disparaître σ1 et σ 2 on est obligé de faire une hypothèse : celle de l’égalité des
variances.
Hypothèse : σ 12 = σ 22 = σ 2
(X
1
)
− X 2 − [m1 − m 2 ]
1
1
σ
+
n1 n 2
⇒
≡ N(0,1)
d’après le théorème d’additivité des χ 2 indépendants :

≡ χ 2 (n1 − 1) 
2
2
σ
 n 1S 1 n 2 S 2
⇒
+
≡ χ 2 (n1 + n 2 − 2)

2
2
2
2
σ
σ
n 2S 2 n 2S 2

=
≡ χ 2 (n 2 − 1)
2
2
σ2
σ

n1 S12
σ 12
•
=
n1S12
2
Formation de la loi de Student :
(X1 − X 2 ) − (m1 − m 2 )
σ
1 + 1
n1
n2
n1S 12
σ 2 n1
(
+ n 2 S 22
=
(X1 − X 2 ) − (m1 − m 2 )
1 + 1
n1
n2
+ n 2 − 2)
n1S12
+ n 2 S 22
≡ T(n1 + n 2 − 2)
n1 + n 2 − 2
n1S12 + n 2 S 22
est un estimateur sans biais de la variance σ 2 à partir de deux échantillons
n1 + n 2 − 2
[
]
Comme E χ 2 (n) = n , alors :
n S 2 + n S2 
n S2 + n S2 
1 1
2 2
2 2
 = n1 + n 2 − 2 ⇔ E  1 1
 = σ 2 ⇒ Estimateur sans biais (Cf. mod ule 2)
E
2
n
+
n
−
2




σ
2


 1

4.4 Loi de la différence de deux proportions
Soient ici deux variables aléatoires X1 et X 2 obéissant à deux lois binomiales :
(
X1 ≡ B(n1, p1 ) → N n1p1, n1p1q1
L
(
)
X 2 ≡ B(n 2 , p 2 ) → N n 2p 2 , n 2p 2 q 2
L
)
avec
n1 > 50
n1p1 > 18
n 2 > 50
n 2p 2 > 18
Nous avons vu (Cf. §3.4 unité 2) que :
EchM1.doc
13/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
(
)
F1 =
X1 L
→ N p1; p1q1 n1
n1
F2 =
X2 L
→ N p 2 ; p 2 q 2 n 2
n2
D’où
(
)

p q
p q
L
F1 − F2 → N p1 − p 2 ; 1 1 + 2 2

n1
n2

(F1 − F2 ) − (p1 − p 2 ) ≡ N(0,1)
p1q1 p 2 q 2
+
n1
n2
EchM1.doc




14/15
Echantillonnage
Module 1 – Variables et lois d’échantillonnage
Fiche récapitulative :
Cas d’un échantillon tiré d’une population normale
σ connu :
Hypothèse :
X ≡ N(m, σ )


X ≡ N m, σ

n

•

pq 
F ≡ N p,

n 

•
nS 2
•
≡ χ 12−α (n − 1)
σ2
σ2
2
nS
avec Sˆ 2 =
n −1
≡ χ 12−α (n − 1)
σ inconnu :
X −m
n −1
S
(n − 1)Sˆ 2
=
X−m
≡ T (n − 1)
Sˆ n
Cas de deux échantillons tirés de deux populations normales
X1 ≡ N(m1 , σ 1 )
X 2 ≡ N(m1 , σ 2 )
avec X1 et X2 indépendantes et n1 : taille de l’échantillon 1, n2 taille de l’échantillon 2
σ i connus :
•

σ 12 σ 22 
X1 − X 2 ≡ N m1 − m 2 ;
+

n1 n 2 


•

p q
p q
F1 − F2 ≡ N p1 − p 2 ; 1 1 + 2 2

n
n2
1

•
Ŝ12 σ 22 n1S12 σ 22 n 2 − 1
F1− α (n1 − 1; n 2 − 1) =
=
.
Ŝ 22 σ12 n1 − 1 σ12 n 2 S 22
σ i inconnus et par hypothèse, σ 1 = σ 2
(X1 − X 2 )− (m1 − m 2 )
1
n1




+ 1
EchM1.doc
n2
n1 S12 + n 2 S 22
n1 + n 2 − 2
≡ T (n1 + n 2 − 2)
15/15
Téléchargement