Echantillonnage Module 1 – Variables et lois d’échantillonnage Introduction générale La notion de base en statistique est celle de population : ensemble d’individus (ou objets ou unités statistiques) pouvant être décrits par un ensemble de variables (ou propriétés ou caractéristiques) communes. La variabilité d’une population signifie que les variables décrivant les individus peuvent prendre des valeurs différentes d’un individu à l’autre. L’analyse statistique est l’étude de cette variabilité. Souvent, il est matériellement impossible d’étudier tous les individus d’une population. Si l’on se limite à une partie de la population, on fait un sondage; la partie étudiée s’appelle un échantillon. Afin d’assurer la représentativité de l’échantillon, celui-ci est la plupart du temps tiré au hasard dans la population. La théorie de l’échantillonnage nous permet de passer des caractéristiques de la population aux caractéristiques d’un échantillon représentatif. Schéma récapitulatif Echantillon E Population P (représentatif de la population) N individus X : variable aléatoire Echantillonnage n individus X : variable aléatoire X i ≡ X ∀i recensement exhaustif sondage loi statistique caractérisée par: loi statistique caractérisée par: Moyenne : m Variance : σ² Proportion : P estimation Moyenne : X Variance : S² Proportion : F Intervalles de confiance On distingue deux cas : • • On connaît la population c’est à dire sa loi avec ses caractéristiques (moyenne, variance) et on cherche des renseignements sur un échantillon de n individus (loi, moyenne, variance, avec quels intervalles de confiance?). ⇒ c’est un problème d échantillonnage : déduction. On connaît l’échantillon c’est à dire sa loi avec ses caractéristiques (moyenne, variance) et on veut estimer la population toute entière (loi, moyenne, variance, avec quels intervalles de confiance?). ⇒ c’est un problème d’estimation : induction. EchM1.doc 1/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage MODULE 1 : Variables et lois d’échantillonnage Les lois d’échantillonnage et les variables d’échantillonnage définies dans ce module 1 vont nous servir dans les modules 3 et 4 pour établir les intervalles de confiance (c’est à dire encadrer les paramètres inconnus d’une population : moyenne, variance, proportion) et faire des tests d’hypothèse (c’est à dire tester les paramètres d’une population à partir des données d’échantillonnage). M1Unité 1 : Définitions Soit X, une variable aléatoire qui représente la population. Elle est caractérisée par la densité de probabilité f(x), dans le cas d’une variable aléatoire continue, ou par sa probabilité élémentaire p(x), dans le cas d’une variable aléatoire discrète. • On appelle échantillon de taille n issu de X, ou n-échantillon de X, le vecteur aléatoire (X1, X 2 ,...X i K, Xn ) où X i ≡ X ∀i ( X i suit la même loi que X) et X i , X j indépendants ∀i ≠ j . L’échantillon est dit IID c'est-à-dire identiquement indépendamment distribué. On parle dans ce cas d’échantillon théorique aléatoire probabilisé. • L’ensemble de n valeurs images indépendantes de X est constitué de n images de l’épreuve associée à X indépendantes (x 1, x 2 , K, x n ) . Ainsi, x i est l’image obtenue à la ième répétition de l’épreuve. Cet ensemble est l’image de la variable aléatoire (X1, X 2 , K, X n ) . On parle ici d’échantillon empirique ou observé. Convergence de la fonction de répartition d’un échantillon. Soit (X1, X 2 , K, X n ) un échantillon théorique. (x 1, x 2 ,K, x n ) un échantillon empirique. x1 < x 2 < L < x n On va noter F’(x) la fonction de répartition empirique ou fonction des fréquences cumulées. F(x)=Prob(X≤x) est la fonction de répartition théorique ou encore c’est la probabilité de l’événement “X≤x” F’(x)= ∑ fi xi ≤ x P F’(x) converge en probabilité vers F(x) : F’(x) → F( x ) Définition de la vraisemblance d’un échantillon • Cas discret : X : variable aléatoire discrète caractérisée par {χ; p( x )} (Cf cours Math Stat1) Soit (X1, X 2 , K, X n ) un échantillon théorique La probabibilé conjointe est égale au produit des probabilités élémentaires (VA indépendantes) P[X1 = x 1; X 2 = x 2 ; L; X n = x n ] = P[X1 = x 1 ]LP[X n = x n ] ∀i, Pr ob[X i = x i ] = Pr ob[X = x i ] = P( x i ) D’où P[X1 = x 1 ] ⋅ P[X 2 = x 2 ]LP[X n = x n ] = P( x 1 ) LP( x n ) • Cas continu : X : variable aléatoire continue caractérisée par {χ; f ( x )} EchM1.doc 2/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage P[x1 < X1 < x1 + dx1; L; x n < X n < x n + dx n ] = P[x 1 < X1 ≤ x1 + dx 1] ⋅ LP[x n ≤ X n ≤ x n + dx n ] = f ( x 1 )dx 1 L f ( x n )dx n = f ( x 1 ) L f ( x n )dx1 L d( x n ) On appelle vraisemblance de l’échantillon et on note L(x1,L, x n ) le produit des probabilités élémentaires ou des densités de probabilité : L(x1,L, x n ) = p( x 1 ) Lp( x n ) X : variable aléatoire discrète L(x1,L, x n ) = f ( x 1 ) L f ( x n ) X : variable aléatoire continue Caractéristiques de l’échantillon théorique : • moyenne empirique notée : X = 1 n • variance empirique notée : S 2 = ∑ Xi = m1′ 1 n ∑ ( X i − X)2 = µ '2 • moment non centré empirique d’ordre r : mr′ = • moment centré empirique d’ordre r: µ r' = • Proportion : F = ∑ n 1 Xr = n i =1 i ∑ fi Xri ∑ ( ∑ n n ) 1 r ( X i − X )r = fi X i − X n i =1 i =1 X n Caractéristiques théoriques c’est à dire caractéristiques de la population : • moment non centré d’ordre r : m r = E X r = mr = E X r = ∑ x k px ∫ x f (x)dx r dans le cas continu χ dans le cas discret x∈χ • moment non centré d’ordre 1 ∫ m = E[X] = xf (x )dx (cas continu) m = E[X] = χ ∑ xpx (cas discret) x ∈χ • La variance : µ 2 = V[ X] = E[X − E( X )]2 = µ 2 = V[ X] = E[X − E( X)]2 = ∫ (x − m) 2 f ( x )dx (cas continu) χ ∑ (x − m)2 px (cas discret) x ∈χ • p : proportion dans la population EchM1.doc 3/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage Synthèse : notations : Caractéristiques de la population Caractéristiques correspondantes dans l’échantillon théorique La moyenne : m X La variance : σ 2 = V [ X] S 2 ou Ŝ 2 mr m'r p F Le moment d’ordre r non centré La proportion M1Unité 2 : Variables d’échantillonnage 2.1 Etude de X X= ∑ 1 n Xi n i =1 X est la moyenne de l’échantillon théorique. Les X i sont des variables aléatoires X est une variable aléatoire. Calculons son espérance et sa variance : 1 n 1 n • E X = E Xi = E (X i ) n i =1 n i =1 [] ∑ ∑ avec E[X i ] = E[X] = m moyenne théorique (puisque X i ≡ X ) [] EX = ∑ n 1 m⇒ n i =1 () [ [] EX =m ( )]2 = E[X − m]2 • V X =E X−E X EchM1.doc 4/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage 1 n V X = E X i − m n i =1 () ∑ 2 1 n mn = E Xi − n n i =1 ∑ 2 n ( X i − m) = E i =1 n n n 1 n = E ( X i − m) 2 + 2 ( X i − m)( X j − m) n 2 i =1 i =1 j =1 2 ∑ ∑ = ∑∑ n n n 1 E(X i − m)2 + 2 E ( X i − m)( X j − m) n2 i =1 j =1 i =1 ∑∑ [ ∑ [ ( )] ∑ E[X i − m]2 = [ ] ] X i , X j ind E (X i − m) X j − m = E[X i − m] E X j − m = 0 () VX = () VX = () 1 n2 nσ 2 n2 = σ2 n σ2 n [] V X est un indicateur de la dispersion de X autour de m = E X . Lorsque n augmente, ( ) σ2 diminue. n V X n0 n 0 > n1 > n 2 n1 n2 X 2.2 Etude de S² ∑( n ) 1 2 S = Xi − X n i=1 2 S 2 est la variance de l’échantillon théorique. Les X i sont des variables aléatoires, donc S 2 est une variable aléatoire. EchM1.doc 5/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage [ ] On cherche à calculer E S 2 . Rappel : σ 2 = E[X − m]2 = E[X i − m]2 ∀i ( ) ( Xi − m = Xi − X + X − m (X i − m)2 ( = Xi − X ) )2 + (X − m)2 + 2(Xi − X)(X − m) ∑ (X i − m)2 = ∑ (Xi − X) + ∑ (X − m) 2 i Or 2 i ∑ (Xi − X)(X − m) +2 i i i ∑ (X i − X )(X − m) = (X − m)∑ (X i − X ) = (X − m)⋅ ∑ X i − nX i Comme X = Donc E i 1 n ∑ Xi , alors ∑ Xi − nX = 0 i i ∑ (Xi − m)2 = ∑ (X i − X ) 2 i i ( +n X−m )2 2 2 ∑ (Xi − m)2 = E∑ (Xi − X) + En(X − m) ⇔ i ∑ E[Xi − m]2 = EnS 2 + n E[X − m] 2 i - E[X i − m]2 = σ 2 ∀i ∑ E[Xi − m]2 = nσ 2 i [ - EX−m ]2 = E[X − E(X)]2 = V(X) = σn 2 σ2 ⇒ nσ 2 = EnS 2 + n n E nS 2 = nσ 2 − σ 2 = (n − 1)σ 2 n − 1 2 E S 2 = σ n On recherche Ŝ 2 tel que E[Ŝ 2 ] = σ 2 (pour avoir un estimateur sans biais de la variance de la population, Cf. module 2). n E S2 = σ2 n − 1 ∑ (Xi − X) ( X − X ) = i ∑ n−1 2 Ŝ 2 = n n 1 S2 = n −1 n −1n Ŝ 2 = 1 n −1 ∑ (Xi − X) 2 2 On dit qu’on a un estimateur sans biais de σ 2 (Cf. module 2). EchM1.doc 6/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage 2.3 Etude du moment empirique non centré d’ordre r Le moment empirique non centré d’ordre r m′r se calcule par : m′r = 1 n ∑ Xri n i =1 X i ≡ X . Les X i sont des variables aléatoires, donc m′r est une variable aléatoire. [ ] Le moment non centré d’ordre r de la population est : m r = E X r [ ] [ ] X i ≡ X , E X r = E Xri ∀i [ ] n 1 n r 1 n m 1 r ′ E[m r ] = E Xi = E Xi = mr = n r = mr n i =1 n n i =1 n i =1 ∑ ∑ E[m′r ] = m r Ainsi : 1 V[m ′r ] = E[m ′r − E(m ′r )]2 = E n = E = = ∑ ∑ E n 2 X ri − n m r n ∑ = E 2 ∑ 2 ∑ Xri − mr 2 1 = E n X r − m r i n ∑ X ri − n mr n 2 2 X r − m X r − m r j r i j ∑∑ X r − m + 2 r i E n 2 1 ∑ X ri − m r i 2 ∑∑ EXri − m r Xrj − mr +2 i j E X ri − m r X rj − m r = E X ri − m r ⋅ E X rj − m r (propriété de l’indépendance des variables aléatoires) [ ] [ ] [ [ ] [ [ ] Or m r = E X ri ∀i donc E X ri − m r ⋅ E X rj − mr = E X ri − E X ri ⋅ E X rj − E X rj = 0 V (m′r ) = 1 2 ∑ E[Xri − mr ] n ( ) 2 n i =1 n = V X ri 2 n 1 = E X i2r + m r2 − 2m r X ri n 1 1 = E X i2r + m r2 − 2m r E[X i ]r = m 2r + m r2 − 2m r − m r n n [ [[ ] V (m r′ ) = ] ] [ ] m 2r − m r2 n Pour r=1, m′r = X = m1 EchM1.doc 7/15 Echantillonnage () VX = Module 1 – Variables et lois d’échantillonnage m 2 − m12 n E X 2 − (E[X])2 V (X ) = = n n 2.4 Etude de la proportion d’échantillon F • Soit Y une variable aléatoire dans une population. Y présente deux modalités : évènement A → P( A ) = P évènement A → P( A ) = 1 − p = q La variable aléatoire Y est donc associée au tirage d’un individu. Y est une variable de Bernouilli. • Maintenant, soit la variable X associée au tirage de n individus de manière indépendante (c’est-à-dire au nombre de fois où A se produit). ∑ Yi n Donc X = i =1 Alors X ≡ B(n, p ) (loi binomiale de paramètres n et p). • Considérons F la proportion dans l’échantillon théorique issu de la population. F= X obéit elle aussi à une loi binomiale. n Calculons son espérance et sa variance : X = p (car la variable binomiale a une espérance égale à np). E[F] = E = E[X] = n n n 1 np Donc : E[F] = p X V[X] = = V [F] = V = n n n2 n2 npq). Donc : V [F] = 1 npq pq (car la variable binomiale a une variance égale à pq n M1Unité 3 : Lois de probabilités des variables d’échantillonnage fondées sur l’hypothèse de normalité : cas d’un échantillon tiré d’une population normale. L’hypothèse fondamentale est celle de normalité de la variable aléatoire X ≡ N(m, σ ) 3.1 Loi de X ∑ n 1 X= Xi n i =1 X est la moyenne de l’échantillon théorique. Rappel : a i X i ≡ N a i X i ; i i ∑ EchM1.doc ∑ ∑ a i2 σ i2 e ija i a j σ i σ j j ∑∑ +2 i 8/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage Où X i ≡ N(m i ; σ i ) car les Xi constituent un échantillon IID (identiquement indépendamment distribué). [ ] 1 , X i ≡ N(m, σ ), E[X i ] = E[X ] = m ; V [X i ] = V [X ] = σ 2 ∀i ≠ j n indépendantes. Ici a i = e ij = 0 car X i X j ∑ a im i = ∑ n m = m 1 i ∑ i a i2 σ i2 = i ∑ n2 1 σ2 = nσ 2 i n2 = σ2 n X ≡ N m; σ n 3.2 Loi de la variance S² ∑( ) 1 2 Xi − X , n i S2 = S 2 est la variance de l’échantillon théorique. (X i − m) = (X i − X) + (X − m) (X i − m)2 ( = Xi − X )2 + (X − m)2 + 2(Xi − X)(X − m) 2 2 ∑ (X i − m)2 = ∑ (Xi − X) + ∑ (X − m) + 2∑ (Xi − X)(X − m) i i avec i ∑ (Xi − X)(X − m) = (X − m)∑ (Xi − X) = 0 ∑ (Xi − X) = ∑ Xi − ∑ X = nX − nX = 0 i ∑ i (X i − m)2 σ2 i i i = ∑ i (Xi − X)2 + n (X − m)2 σ2 i i σ2 X ≡ N(m; σ) ∀i X i ≡ N(m; σ) Xi − m ≡ N(0,1) (variable aléatoire normale centrée réduite) σ Ui = ∑ n (X i − m)2 2 σ i =1 indépendants) ≡ χ 2 (n) (car X ≡ N m; σ n ∑ Ui2 ≡ χ 2 (n) n i =1 ( )2 ( X−m n X−m X−m ≡ N(0;1) d’où = 2 σ σ2 σ n n variable aléatoire centrée réduite) Donc, (loi du Khi deux à n degrés de liberté) Ui )2 ≡ χ 2 (1) (on a là uniquement le carré d’une nS 2 ⇒ χ 2 (n) = + χ 2 (1) 2 σ EchM1.doc 9/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage D’où le Théorème de Fisher Soit un échantillon IID (c’est-à-dire que les variables aléatoires X i sont indépendantes et identiquement distribuées) issu de la loi Normale de moyenne m et d’écart type σ (notée : N(m,σ)), alors : • les grandeurs aléatoires (n − 1) Ŝ 2 • (n − 1) Ŝ 2 ≡ χ 2 (n − 1) car Ŝ 2 = 2 σ ⇒ nS 2 σ 2 ≡ χ 2 (n − 1) ou ≡ χ 2 (n − 1) nS 2 σ 2 σ2 et X−m sont indépendantes. σ n n S 2 (Cf. unité 2 §2.2) n −1 X ≡ N m; σ n 3.3 Loi de X indépendante de σ 2 (de la variance de la population) Soit (X1 L X i L X n ) un échantillon IID X i ≡ N(m; σ) X ≡ N m; σ n On se place ici dans le cas où l’écart-type σ de la population est inconnu. Lorsque dans une loi normale, la variance est inconnue, on l’élimine : on fait une studentisation. 2 nS X −m ≡ N(0,1) et ≡ χ 2 (n − 1) sont indépendants (Théorème de Fisher) 2 σ σ n La loi de Student se constitue de la façon suivante : La loi de Student est le rapport entre une variable aléatoire obéissant à une loi normale et la racine carrée d’une variable aléatoire suivant une loi de χ 2 rapporté à son degré de liberté. Ces variables aléatoires étant indépendantes, si X ≡ N(0;1) et Y ≡ χ 2 (n) , alors T(n) = Donc T(n) = X Y n N(0,1) χ 2 (n) n C’est-à-dire : X−m σ n nS 2 = X−m S n −1 ≡ T(n − 1) σ 2 (n − 1) Ici, on a une loi de Student à n – 1 degrés de liberté car la loi du χ 2 utilisée est à (n – 1) degrés de liberté. Rappel : EchM1.doc 10/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage ∑ (Xi − X) 1 n 2 X ≡ N m; σ n S2 = nS 2 = (n − 1)Ŝ 2 ⇒ S2 Ŝ 2 = ⇒ n −1 n T(n − 1) ≡ Ŝ 2 = 1 (n − 1) ∑ (Xi − X) 2 X−m X−m = S Ŝ n −1 n 3.4 Loi de F Soit X une variable aléatoire dans la population obéissant à une loi binomiale X ≡ B(n, p) Supposons n grand ( n → ∞ , en pratique n > 50) et np > 18. ( L ) L X ≡ B(n, p ) → N np, npq ( → signifie « converge en loi vers ») X (Cf. §2.4 unité 2) n Soit F = F converge alors vers une loi normale. On a montré dans le paragraphe 2.4 de l’unité 2 que E[F] = p et V [F] = L pq pq . Donc : F → N p, n n M1Unité4 Lois de probabilité de variables d’échantillonnage à partir de deux échantillons tirés dans deux populations normales. Soient deux populations dans lesquelles nous définissons deux variables aléatoires X1 et X 2 . Dans ces deux populations, nous prélevons deux échantillons IID de taille respective n1 et n2. Hypothèses : X1 ≡ N(m1, σ1 ) et X 2 ≡ N(m 2 , σ 2 ) 4.1 Loi de la différence des moyennes d’échantillons lorsque σ12 et σ 22 sont connus X1 = 1 n1 ∑X n 1i i =1 1 X2 = n2 ∑X n i =1 2i σ X1 ≡ N m1 , 1 n 1 σ X 2 ≡ N m 2 , 2 n 2 avec X1 et X2 indépendants Le théorème central limite permet de donner la loi de X1 − X 2 : σ 12 σ 22 + X1 − X 2 ≡ N m1 − m 2 ; n1 n 2 Rappel : EchM1.doc a i X i ≡ N a im i ; i i ∑ ∑ a i2 σ i2 i ∑ 11/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage σ 12 σ2 σ2 σ2 + (−1) 2 2 = 1 + 2 n1 n2 n1 n 2 Ici 12 4.2 Loi du rapport des variances X 1 ≡ N(m1 , σ 1 ) S12 = X 2 ≡ N(m 1 , σ 2 ) S 22 = n1 S12 σ 12 1 n1 ∑ (X 1 n2 n1 1i − X1 i =1 n2 ∑ (X 2i ) − X2 i=1 2 ) 2 ≡ χ 2 (n1 − 1) indépendants n 2 S 22 2 ≡ χ (n 2 − 1) σ 22 La loi de Fisher-Snédécor se présente comme le rapport de 2 Khi-deux indépendants, rapportés à leur degré de liberté. L’ordre du rapport des χ 2 donne l’ordre des degrés de liberté de la variable de Fisher. Donc ici : n1S12 χ 2 (n1 ) / n1 F(n1 , n 2 ) = χ 2 (n 2 ) / n 2 ⇒ σ 12 (n1 − 1) n 2 S 22 = n1S12 σ 22 n 2 − 1 ≡ F(n1 − 1; n 2 − 1) n1 − 1 σ 12 n 2 S 22 σ 22 (n 2 − 1) 2 nS on a vu nS 2 = (n − 1)Sˆ 2 ⇒ Sˆ 2 = n −1 ⇒ F(n1 − 1; n 2 − 1) = Sˆ 12 σ 12 n1S12 σ 22 n 2 − 1 = . 2 2 2 Sˆ 22 σ 2 n1 − 1 σ 1 n 2 S 2 4.3 Loi de la différence des moyennes d’échantillons lorsque les écarts types σ12 et σ 22 sont inconnus X1 = ∑X n 1 n1 1i i =1 1 X2 = n2 ∑X n 2i i =1 σ X1 ≡ N m1 , 1 n 1 σ X 2 ≡ N m 2 , 2 n 2 σ1 inconnu avec X1 et X2 indépendantes σ 2 inconnu σ 12 σ 22 + X1 − X 2 ≡ N m1 − m 2 ; n1 n 2 Rappel : X −m σ n ≡ N(0,1) X−m S n −1 EchM1.doc ≡ T(n − 1) 12/15 Echantillonnage (X • Module 1 – Variables et lois d’échantillonnage ) − X 2 − [m1 − m 2 ] 1 σ 12 σ 22 + n1 n 2 ≡ N(0,1) Le but de la studentisation est d’éliminer les écart-types inconnus des populations. Ici, pour faire disparaître σ1 et σ 2 on est obligé de faire une hypothèse : celle de l’égalité des variances. Hypothèse : σ 12 = σ 22 = σ 2 (X 1 ) − X 2 − [m1 − m 2 ] 1 1 σ + n1 n 2 ⇒ ≡ N(0,1) d’après le théorème d’additivité des χ 2 indépendants : ≡ χ 2 (n1 − 1) 2 2 σ n 1S 1 n 2 S 2 ⇒ + ≡ χ 2 (n1 + n 2 − 2) 2 2 2 2 σ σ n 2S 2 n 2S 2 = ≡ χ 2 (n 2 − 1) 2 2 σ2 σ n1 S12 σ 12 • = n1S12 2 Formation de la loi de Student : (X1 − X 2 ) − (m1 − m 2 ) σ 1 + 1 n1 n2 n1S 12 σ 2 n1 ( + n 2 S 22 = (X1 − X 2 ) − (m1 − m 2 ) 1 + 1 n1 n2 + n 2 − 2) n1S12 + n 2 S 22 ≡ T(n1 + n 2 − 2) n1 + n 2 − 2 n1S12 + n 2 S 22 est un estimateur sans biais de la variance σ 2 à partir de deux échantillons n1 + n 2 − 2 [ ] Comme E χ 2 (n) = n , alors : n S 2 + n S2 n S2 + n S2 1 1 2 2 2 2 = n1 + n 2 − 2 ⇔ E 1 1 = σ 2 ⇒ Estimateur sans biais (Cf. mod ule 2) E 2 n + n − 2 σ 2 1 4.4 Loi de la différence de deux proportions Soient ici deux variables aléatoires X1 et X 2 obéissant à deux lois binomiales : ( X1 ≡ B(n1, p1 ) → N n1p1, n1p1q1 L ( ) X 2 ≡ B(n 2 , p 2 ) → N n 2p 2 , n 2p 2 q 2 L ) avec n1 > 50 n1p1 > 18 n 2 > 50 n 2p 2 > 18 Nous avons vu (Cf. §3.4 unité 2) que : EchM1.doc 13/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage ( ) F1 = X1 L → N p1; p1q1 n1 n1 F2 = X2 L → N p 2 ; p 2 q 2 n 2 n2 D’où ( ) p q p q L F1 − F2 → N p1 − p 2 ; 1 1 + 2 2 n1 n2 (F1 − F2 ) − (p1 − p 2 ) ≡ N(0,1) p1q1 p 2 q 2 + n1 n2 EchM1.doc 14/15 Echantillonnage Module 1 – Variables et lois d’échantillonnage Fiche récapitulative : Cas d’un échantillon tiré d’une population normale σ connu : Hypothèse : X ≡ N(m, σ ) X ≡ N m, σ n • pq F ≡ N p, n • nS 2 • ≡ χ 12−α (n − 1) σ2 σ2 2 nS avec Sˆ 2 = n −1 ≡ χ 12−α (n − 1) σ inconnu : X −m n −1 S (n − 1)Sˆ 2 = X−m ≡ T (n − 1) Sˆ n Cas de deux échantillons tirés de deux populations normales X1 ≡ N(m1 , σ 1 ) X 2 ≡ N(m1 , σ 2 ) avec X1 et X2 indépendantes et n1 : taille de l’échantillon 1, n2 taille de l’échantillon 2 σ i connus : • σ 12 σ 22 X1 − X 2 ≡ N m1 − m 2 ; + n1 n 2 • p q p q F1 − F2 ≡ N p1 − p 2 ; 1 1 + 2 2 n n2 1 • Ŝ12 σ 22 n1S12 σ 22 n 2 − 1 F1− α (n1 − 1; n 2 − 1) = = . Ŝ 22 σ12 n1 − 1 σ12 n 2 S 22 σ i inconnus et par hypothèse, σ 1 = σ 2 (X1 − X 2 )− (m1 − m 2 ) 1 n1 + 1 EchM1.doc n2 n1 S12 + n 2 S 22 n1 + n 2 − 2 ≡ T (n1 + n 2 − 2) 15/15