Chapitre 3: Méthodes d’estimation et tests classiques sur un échantillon gaussien Léonard Gallardo∗ 1 Etude des échantillons gaussiens On rappelle qu’un n-échantillon d’une loi F est un n-uplet (X1 , . . . , Xn ) de variables aléatoires i.i.d. de même loi F et définies sur un certain espace probabilisé (Ω, F, P) qu’on ne précisera pas forcément. Il est commode de considérer ce n-échantillon comme le vecteur aléatoire X := (X1 , . . . , Xn ) de Rn dont les composantes sont les Xi ; c’est ce que nous ferons toujours par la suite. 1.1 La loi du χ2 à n degrés de liberté On rappelle qu’une variable aléatoire X suit la loi Gamma de paramètres α > 0 et b > 0 (notée Γ(α, b)) si elle a une densité de probabilité donnée par : (1) bα α−1 −bx x e 1[0,∞[ (x). fα,b (x) = Γ(α) Proposition 1.1 : La fonction caractéristique φX d’une variable aléatoire X de loi Γ(α, b) est de la forme −α t . (2) φX (t) = 1 − i b Z ∞ bα eitx xα−1 e−bx dx. D’où en développant eitx en série endémonstration : φX (t) = Γ(α) 0 tière : Z ∞ bα X (it)n ∞ n+α−1 −bx φX (t) = x e dx Γ(α) n=0 n! 0 Z ∞ ∞ X (it)n bα 1 = xn+α−1 e−x dx n+α n! Γ(α) b 0 n=0 ∞ n X Γ(n + α) it = n!Γ(α) b n=0 n −α ∞ X (α + n − 1)(α + n − 2) · · · α it t + = 1−i . n! b b n=0 ∗ cours de Statistiques, Master 1, Université de Tours, année 2007-2008, Laboratoire de Mathématiques et Physique Théorique-UMR 6083, Parc de Grandmont, 37200 TOURS, FRANCE. email : [email protected] 1 Corollaire 1.2 : Une variable aléatoire X de loi Γ(α, b) a des moments de tous les ordres et en particulier E(X) = (3) α , b E(X 2 ) = α(α + 1) , b2 V ar(X) = α b2 démonstration : φX (t) est indéfiniment dérivable donc X a des moments de tous les ordres. En dérivant φX deux fois, on obtient −α−1 −α−2 iα t i2 α(α + 1) t 0 00 φX (t) = 1−i , φX (t) = 1−i b b b2 b D’où le résultat en faisant t = 0. Corollaire 1.3 (additivité des lois Gamma) : Soient X1 , . . . , Xn des variables aléatoires indépendantes de lois respectives Γ(α1 , b), . . . , Γ(αn , b). Alors la variable aléatoire X1 + · · · + Xn suit la loi Γ(α1 + · · · + αn , b). démonstration : D’après (2) est l’indépendance des Xi , la fonction caractéristique de la variable aléatoire X1 + · · · + Xn vaut : φX1 +···+Xn (t) = n Y k=1 t 1−i b −αk = t 1−i b −(α1 +···+αn ) C’est la fonction caractéristique d’une loi Γ(α1 + · · · + αn , b). . Corollaire 1.4 : Soit (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, 1). Alors la variable aléatoire χ2n = X12 + · · · + Xn2 suit la loi Γ( n2 , 21 ). Elle a pour densité (4) fχ2n (x) = 2−n/2 n −1 − 1 x x 2 e 2 1[0,∞[ (x). Γ( n2 ) et elle est telle que (5) E(χ2n ) = n et V ar(χ2n ) = 2n. démonstration : Il suffit de prouver ce résultat pour n = 1 puis d’appliquer le corollaire 1.3. Soit X une variable aléatoire N (0, 1). La fonction caractéristique de X 2 est égale à Z ∞ 1 2 2 itX 2 eitx e−x /2 dx φX 2 (t) = E(e )= √ 2π −∞ Z ∞ 1 1 2 =√ e− 2 x (1−2it) dx = (1 − 2it)−1/2 . 2π −∞ On reconnait l’expression de la fonction caractéristique de la loi Γ( 12 , 12 ). d’où le résultat. Définition 1.5 : La loi de la variable aléatoire du corollaire précédent s’appelle loi du χ2 à n degrés de liberté. 2 Comme consèquence du corollaire 1.3, on a l’additivité des lois pour des variables du chi-deux indépendantes : Corollaire 1.6 : Si (Xi )1≤i≤k est une famille finie de variables aléatoires indépendantes P telle que pour tout i, Xi suit une loi χ2ni , alors la variable aléatoire ki=1 Xi suit la loi χ2n où P n = ki=1 ni . Remarque : Pour le calcul du corollaire 1.4, on a utilisé le fait que pour tout m ∈ R et tout z ∈ C tel que Re(z) > 0, on a Z ∞ 1 x−m 2 1 √ (6) e− 2 ( z ) dx = z. 2π −∞ En effet la formule est vraie pour z > 0 et comme le premier membre de (6) est une fonction holomorphe de la variable z dans le demi-plan Re(z) > 0, le résultat en découle par prolongement analytique. Remarque et Notation : Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, 1) et soit σ > 0. Alors σX = (σX1 , . . . , σXn ) est un n-échantillon de la loi normale N (0, σ 2 ). La variable aléatoire ||σX||2 = σ 2 (X12 + · · · + Xn2 ) et sa loi seront alors notés σ 2 χ2n . Attention, quand on parlera de la loi σ 2 χ2n , il faudra se souvenir que c’est la variable aléatoire χ2n qui est multipliée par σ 2 et non sa fonction de répartition ! 1.2 Transformation orthogonale d’un n-échantillon gaussien. Théorème de Cochran Le but de ce paragraphe est de mettre en évidence une propriété remarquable des néchantillons gaussiens : la conservation de leur nature par changement de base orthonormale ou par transformation orthogonale de Rn . Cette propriété géomètrique est à la base des méthodes statistiques d’estimation et de tests liées aux lois gaussiennes. Tout d’abord il convient de savoir reconnaître facilement un n-échantillons gaussien. L’outil théorique "infaillible" qui permet de voir si un vecteur (resp. une loi) est gaussien (resp. gaussienne) et qui permet aussi de dire si ses composantes (resp. ses marginales) sont indépendantes est la fonction caractéristique : Théorème 1.7 : X = (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, σ 2 ) si et seulement si la fonction caractéristique φX de X est de la forme 1 φX (t) = exp(− σ 2 ||t||2 ) t ∈ Rn , 2 (7) où ||t|| = p t21 + · · · + t2n est la norme euclidienne du vecteur t = (t1 , . . . , tn ). démonstration : 1) (C.N.) Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, σ 2 ) et soit t ∈ Rn . Grâce à l’indépendance des Xk , on a : ! n n Y Y i<t|X> itk Xk φX (t) = E(e )=E e = E(eitk Xk ) k=1 n Y k=1 1 1 = exp − σ 2 t2k = exp − σ 2 ||t||2 . 2 2 k=1 3 2) (C.S.) Si X = (X1 , . . . , Xn ) est un vecteur aléatoire de fonction de caractéristique φX (t) = exp(− 12 σ 2 ||t||2 ) (t = (t1 , . . . , tn ) ∈ Rn ), alors pout tout k = 1, . . . , n, on a φXk (tk ) = φX (0, . . . , 0, tk , 0, . . . , 0) = e− σ2 2 t 2 k . Ce qui montre que Xk est de loi N (0, σ 2 ). De plus comme pour tout t ∈ Rn , φX (t) = Q n k=1 φXk (tk ), les variables aléatoires Xk sont indépendantes. Remarque : Si X est un n-échantillon de la loi normale N (0, σ 2 ), alors pour tout t ∈ Rn , la variable aléatoire réelle < t|X > (produit scalaire de t et X) est de loi N (0, σ 2 ||t||2 ) car pour u ∈ R, (8) φ<t|X> (u) = E(eiu<t|X> ) = E(ei<ut|X> ) = e− σ2 ||ut||2 2 est la fonction caractéristique de la loi N (0, σ 2 ||t||2 ). = e− σ 2 ||t||2 2 u 2 Théorème 1.8 (de Cochran) : Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, σ 2 ). Alors : 1) les composantes de X dans toute base orthonormale de Rn , forment aussi un n-échantillon de la loi N (0, σ 2 ). 2) Le transformé du vecteur X par une transformation orthogonale de Rn , est toujours un n-échantillon de la loi N (0, σ 2 ). 3) Soit E1 ⊕· · ·⊕Ep une décomposition de Rn en p sous espaces vectoriels deux à deux orthogonaux et de dimensions respectives r1 , . . . , rp . Alors les vecteurs aléatoires XE1 , . . . , XEp projections orthogonales respectives de X sur E1 , . . . , Ep , sont indépendants. De plus les variables aléatoires ||XE1 ||2 , . . . , ||XEp ||2 sont indépendantes et de lois respectives σ 2 χ2r1 , . . . , σ 2 χ2rp . démonstration : Soit v1 , . . . , vn une base orthonormale de Rn . On a évidemment X = Pn 0 k=1 < X|vk > vk . Le vecteur X = (< X|v1 >, . . . , < X|vn >) a pour fonction caractéristique Pn Pn φX 0 (t) = E(ei k=1 tk <X|vk > ) = E ei<X| k=1 tk vk > n n X 1 1 2 X tk vk ||2 = exp − σ 2 ||t||2 , = φX ( tk vk ) = exp − σ || 2 2 k=1 k=1 d’après le théorème 1.5 et P en utilisant le fait que (vk ) est une base orthonormale pour affirP mer que || nk=1 tk vk ||2 = nk=1 t2k = ||t||2 . Du théorème 1.5, on obtient alors que X 0 est un n-échantillon de la loi N (0, σ 2 ). 2) Cette assertion n’est qu’une formulation équivalente de 1). En effet soit A une matrice orthogonale n × n. Par définition ses vecteurs lignes v1 , . . . , vn , forment une base orthonormale de Rn . Le vecteur AX transformé de X par l’action de la matrice A est le vecteur de Rn de coordonnées < X|v1 >, . . . , < X|vn > (dans la base canonique) donc c’est encore un n-échantillon de la loi N (0, σ 2 ) d’après le 1). 3) Choisissons dans chaque sous espace Ej une base orthonormale {vj,1 , . . . , vj,rj } et munissons Rn de la base orthonormale B obtenue en réunissant toutes ces bases. La projection orthogonale XEj du vecteur aléatoire X sur Ej , est alors égale à XEj = rj X < X|vj,k > vj,k k=1 4 Les vecteurs aléatoires XEj sont clairement indépendants puisque leurs composantes < X|vr,s > dans la base B sont des variables aléatoires indépendantes d’après le 1). Il en résulte aussi que les variables ||XE1 ||2 , . . . , ||XEp ||2 sont indépendantes. D’autre part, d’après le théorème de Pythagore, on a 2 ||XEj || = rj X | < X|vj,k > |2 . k=1 Le corollaire 1.4 et la remarque qui suit, montrent alors que ||XEj ||2 suit la loi σ 2 χ2rj . 2 Statistiques fondamentales d’un échantillon gaussien Dans le langage des statisticiens, le "terme statistique " lorsqu’il est associé à échantillon", est un synonyme de variable aléatoire liée à l’échantillon . Ainsi par exemple la moyenne et la variance empirique sont les statistiques importantes d’un échantillon. Définition 2.1 : Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi N (m, σ 2 ). Alors les statistiques (variables aléatoires) n (9) 1X Xi , X̄ = n i=1 (10) 1 X (Xi − X̄)2 , S = n − 1 i=1 n 2 s’appellent respectivement la moyenne et la variance empirique du n-échantillon X. ¯ = X̄ − m et Remarque 1 : Pour l’échantillon centré X̃ = (X1 − m, . . . , Xn − m) on a X̃ S̃ 2 = S 2 . On retiendra cette invariance du S 2 par centrage de l’échantillon. Remarque 2 : X̄ et S 2 sont des "estimateurs" respectivement des paramètres m et σ 2 de la loi de l’échantillon, d’où la terminologie adoptée. Précisons qu’on appelle estimateur d’un certain paramètre lié à une loi, une statistique (variable aléatoire) qui converge (en un certain sens1 ) vers la valeur du paramètre lorsque la taille n de l’échantillon tend vers l’infini. En effet, on a ici n 1X X̄ = Xi → m p.s. (n → ∞), n i=1 d’après la loi forte des nombres (voirPle cours de Probabilités). De même, puisqu’on Pgrands n n 1 n 1 2 2 peut écrire S 2 = n−1 (X − X̄)2 = n−1 i i=1 i=1 Xi − n−1 (X̄) , on voit que S 2 → E(X12 − (E(X1 ))2 = σ 2 p.s. (n → ∞). toujours d’après la loi forte des grands nombres. Théorème 2.2 : Si X = (X1 , . . . , Xn ) est un n-échantillon de la loi N (m, σ 2 ), les variables aléatoires X̄ et S 2 définies en (9) et (10) sont indépendantes. De plus 1 par exemple pour la convergence p.s. ou la convergence L2 , etc... 5 √ 1) La variable aléatoire n(X̄ − m) suit la loi N (0, 1). σ 2) La variable aléatoire S 2 suit la loi σ2 χ2 n−1 n−1 et en particulier E(S 2 ) = σ 2 . n 1X 3) La variable aléatoire (Xi − m)2 suit la loi n i=1 σ2 2 χ . n n démonstration : Considérons la décomposition en somme directe Rn = E1 ⊕ E1⊥ , où E1 est la droite engendrée par le vecteur unitaire v1 = √1n (1, . . . , 1) et E1⊥ est le supplémentaire orthogonal de E1 . D’après la Remarque 1) ci-dessus, il suffit de considérer le cas où l’échantillon X est centré. Sa projection XE1 est alors égale à XE1 =< X|v1 > v1 , où n √ 1 X < X|v1 >= √ Xi = nX̄, n i=1 et sa projection XE1⊥ sur E1⊥ est telle que : 2 2 2 ||XE1⊥ || = ||X|| − ||XE1 || = n X Xi2 2 − n(X̄) = i=1 n X (Xi − X̄)2 = (n − 1)S 2 . i=1 L’indépendance de X̄ et S 2 résulte alors du théorème de Cochran. De plus il est clair que √ nX̄ est de loi N (0, σ 2 ) et d’après le théorème de Cochran la variable ||XE1⊥ ||2 = (n − 1)S 2 suit la loi σ 2 χ2n−1 . D’où les résultats 1) et 2). Le résultat 3) est immédiat car il résulte de la définition de la loi du χ2 . Une autre loi très importante liée à l’échantillon gaussien est la loi de Student que nous introduisons maintenant : Définition 2.3 : Soient X et Y deux variables aléatoires√indépendantes telles que X suit la loi N (0, 1) et Y la loi χ2n . La loi de la variable aléatoire n √XY est appelée loi de Student à n-degrés de liberté. Cette loi est notée tn . Exemple : Si X = (X1 , . . . , Xn ) est un n-échantillon de la loi normale N (m, σ 2 ) et si X̄ et S 2 sont respectivement la moyenne et la variance empirique de X, alors d’après le théorème 2.2, la variable aléatoire √ n(X̄ − m) (11) , suit la loi tn−1 . S Cette variable aléatoire est utilisée pour estimer la moyenne d’une loi normale de variance inconnue comme nous le verrons dans le prochain paragraphe. La loi de Student est tabulée. Pour les grandes valeurs de n, on assimile tn à la loi normale N (0, 1). En effet : Proposition 2.4 : tn converge en loi vers N (0, 1) quand n → ∞. démonstration : Soient X, X1 , . . . , Xn , . . . des variables aléatoires indépendantes de loi N (0, 1). Par définition, la variable aléatoire √ nX X Tn = p 2 =q 2 , X1 +···+Xn2 X1 + · · · + Xn2 n 6 q suit la loi tn . Mais d’après la loi des grands nombres, On en déduit aussitôt que Tn → X en loi quand n → ∞. X12 +···+Xn2 n → 1 p.s. quand n → ∞. Proposition 2.5 : La loi de Student tn a une densité de probabilité donnée par la formule ) 1 Γ( n+1 2 ftn (x) = √ n πn Γ( 2 ) (12) 1 2 1 + xn ! n+1 2 (x ∈ R). démonstration : Voir l’annexe du chapitre 2. Exercice : Montrer que limn→∞ ftn (x) = 3 3.1 √1 2π exp − 12 x2 (utiliser la formule de Stirling). Estimation et tests classiques sur les paramètres d’une loi normale Notions élémentaires et naïves sur la problèmatique de l’estimation et des tests statistiques Définition 3.1 : Etant donné un n-échantillon X = (X1 , . . . , Xn ) issu d’une loi F , estimer un paramètre λ de la loi F avec un niveau de confiance 1 − α ( où 0 < α < 1, est fixé), c’est trouver un intervalle aléatoire I, dépendant de l’échantillon X, et tel que : P(λ ∈ I) ≥ 1 − α. (13) On déduit de (13) que P(λ ∈ I c ) ≤ α. Le nombre α appelé risque d’erreur de première espèce, est donc un majorant de la probabilité de se tromper en affirmant que λ ∈ I. Pour faire comprendre les idées de l’estimation et des tests, on va discuter un exemple très simple : On cherche à estimer la moyenne m0 d’une loi normale N (m0 , σ 2 ) dont la variance σ 2 est connue. On considère donc un n-échantillon X = (X1 , . . . , Xn ) issu de la loi N (m0 , σ 2 ). On sait d’après la remarque 2 du paragraphe 2, qu’il est naturel√ de choisir X̄ comme estimateur n(X̄ − m0 ) de m0 et d’après le 1) du théorème 2.2, la variable aléatoire suit la loi N (0, 1). σ Pour tout a ∈]0, 1[, soit φa , le nombre tel que Z +∞ 1 2 √ e−x /2 dx = a. 2π φa Pour α ∈]0, 1[, on a donc √ n(X̄ − m0 ) α P ≤ φ2 = 1 − α σ ou encore φα φα P X̄ − σ √2 ≤ m0 ≤ X̄ + σ √2 n n (14) 7 = 1 − α. Ceci montre que l’intervalle φ α2 φ α2 X̄ − σ √ , X̄ + σ √ n n (15) est un intervalle de confiance de m0 au niveau de confiance 1 − α. C’est de cette manière qu’on présente toujours le résultat d’un problème d’estimation : on peut seulement dire que la valeur de m0 appartient à cet intervalle avec un niveau de confiance 1 − α. Il n’y a pas unicité de l’intervalle de confiance. En effet φb φa X̄ − σ √ , X̄ + σ √ n n est un intervalle de confiance de m0 au niveau de confiance 1 − α, pour tous a, b ∈ [0, 12 ] tels que a + b = α (on convient de prendre φ0 = +∞). Il existe ainsi deux intervalles de confiance non bornés de niveau de confiance 1 − α : (16) h h i φα i φα − ∞, X̄ + σ √ , X̄ − σ √ , +∞ et n n qu’on appelle intervalles de confiance unilatéraux alors que l’intervalle de confiance (15) s’appelle l’intervalle de confiance bilatéral. Signification de l’intervalle de confiance : Il est utile d’insister au moins une fois sur la signification précise des méthodes de la Statistique et sur la notion de rigueur (au sens mathématique) sous jacente. La notion d’intervalle de confiance est l’occasion d’en donner une idée. Lorsqu’on observe une valeur x̄ de X̄, on obtient l’intervalle de confiance observé φ α2 φ α2 x̄ − σ √ , x̄ + σ √ . n n Dans la pratique c’est toujours un intervalle de confiance observé que l’on obtient. Alors que signifie le niveau de confiance 1 − α ? Une vision naïve et qu’on accepte en général, consiste à considérer 1 − α comme un "degré de vraisemblance" du fait que l’intervalle de confiance observé contient la vraie valeur de la moyenne m0 . Si on connait la loi des grands nombres, on peut voir précisemment les choses de la manière suivante : Si on fait un assez grand nombre (disons N ) de tirages indépendants de n-échantillons de la loi N (m0 , σ 2 ), alors parmi les N intervalles de confiance observés, il y en aura (en moyenne) une proportion de 100(1 − α)% qui contiendront la vraie valeur de m0 . Test statistique associé à l’estimation de la moyenne : Une manière équivalente d’écrire la formule (14) est la suivante : φ α2 φ α2 = 1 − α. (17) P m0 − σ √ ≤ X̄ ≤ m0 + σ √ n n Ainsi si m0 est "la vrai valeur" de la moyenne, il y a une probabilité 1 − α pour que X̄ appartienne à l’intervalle φa φb (18) I0 = m0 − σ √ , m0 + σ √ n n 8 Ainsi quand on regarde si X̄ ∈ I0 , on dit qu’on teste l’hypothèse H0 :"la moyenne est égale à m0 "contre l’hypothèse H1 :"la moyenne n’est pas égale à m0 . Le mécanisme du test est donc le suivant : On fait l’hypothèse H0 . L’intervalle I0 est alors déterminé par le niveau de confiance qu’on décidé. On tire alors un n-échantillon et on calcule X̄. Si X̄ ∈ I0 , on accepte H0 , sinon on rejette H0 au profit de H1 . Les erreurs liées au test : Les erreurs principales commises dans un test sont de deux ordres : i) L’erreur de 1-ère espèce : C’est la probabilité de rejetter H0 quand H0 est vraie. Cette erreur est parfaitement controlée puisqu’elle est égale à α par définition. Cette erreur est choisie par "l’expérimentateur". ii) L’erreur de 2-ième espèce : C’est la probabilité d’accepter H0 lorsque H0 est fausse. Cette erreur qu’on note β dépend de α, de n et de H1 (plus précisement de la vraie valeur de m0 ). Il est très difficile de la déterminer dans les tests en général. Dans l’exemple que nous étudions, supposons que la vraie valeur de la moyenne soit m0 + δ. Alors √ n(X̄ − (m0 + δ)) suit la loi N (0, 1) σ √ √ n(X̄ − m0 ) i.e. la vraie loi de Z = est la loi N ( δ σ n , 1) et non pas la loi N (0, 1). Sur les σ √ deux figures ci-dessous, on a posé an = δ σ n et la courbe de droite dans les deux cas est la vraie densité de Z. Dans la figure 1, la valeur de n est petite, alors que dans la figure 2, on a pris une valeur de n beaucoup plus grande. La partie hachurée dans les deux cas est égale à l’erreur de deuxième espèce β. On voit donc que la seule manière de réduire cette erreur est d’augmenter la taille de l’échantillon. Ce fait est général mais dans les tests que nous présenterons dans la suite de ce cours, nous ne chercherons pas à déterminer l’erreur de deuxième espèce. 6 6 −φ α2 0 −φ α2 an φ α2 0 φ α2 an - figure 2 figure 1 Exercice : Dans l’exemple ci-dessus, on voit que l’erreur de seconde espèce dépend en fait de l’écart δ entre la moyenne supposée et la moyenne réelle. En supposant que la variance σ 2 vaut 1, et que l’erreur de première espèce α = 0, 05, si δ = 1, calculer la taille minimale que doit avoir l’échantillon pour que l’erreur β soit inférieure à 0,05 (on utilisera évidemment une table de la loi N (0, 1)). Justification d’un test : Dans un test, il y a toujours une hypothèse H0 qu’on cherche en général à "conforter" et une hypothèse alternative H1 qu’on acceptera de considérer si "cela en vaut la peine". Soit PH0 la probabilité conditionnelle sachant H0 2 . Le mécanisme du 2 i.e. sachant que l’hypothèse H0 est vraie 9 test consiste en général à définir une zone de rejet pour une statistique convenable qui rend bien compte du problème. On dira alors que le test est justifié si étant donné un risque (de première espèce) α ∈]0, 1[, on a PH0 (rejeter H0 ) ≤ α. 3.2 Estimation de la moyenne d’une loi normale et test de Student ; cas où la variance n’est pas connue A. Estimation de la moyenne Soit X = (X1 , . . . , Xn ) est un n-échantillon de la loi normale N (m, σ 2 ). Comme dans le paragraphe précédent, on cherche à estimer le paramètre m mais ici σ 2 n’est pas supposée connue (ce qui correspond à une vision plus réaliste des situations pratique). On va donc utiliser la variance empirique S 2 de l’échantillon comme estimateur de σ 2 et la variable aléatoire √ n(X̄ − m) (19) Tn−1 = , S qui suit la loi de Student tn−1 à n − 1 degrés de liberté, comme statistique fondamentale pour déterminer un intervalle de confiance. Ainsi étant donné le risque α ∈]0, 1[, on utilise la table de la loi tn−1 , pour déterminer le "seuil" t(n−1, α2 ) tel que P(tn−1 ≥ t(n−1, α2 ) ) = (20) α . 2 On a alors √ n(X̄ − m) ≤ t(n−1, α ) = 1 − α, P 2 S (21) c’est à dire (22) S S P X̄ − t(n−1, α2 ) √ ≤ m ≤ X̄ + t(n−1, α2 ) √ n n = 1 − α, ce qui nous donne pour m un intervalle de confiance bilatéral au niveau de confiance 1 − α égal à S S (23) X̄ − t(n−1, α2 ) √ , X̄ + t(n−1, α2 ) √ . n n Exercice : Déterminer des intervalles de confiance unilatéraux pour m en Utilisant les nombres t(n−1,a) tels que (24) P(tn−1 ≥ t(n−1,a) ) = a (a ∈]0, 1[). B. Le test de Student La méthode d’estimation précédente est équivalente au test suivant : 10 Théorème 3.2 (Student3 , 1908) : Etant donné X = (X1 , . . . , Xn ) un n-échantillon de la loi normale N (m, σ 2 ), et la statistique √ n(X̄ − m) Tn−1 = , S pour tester l’hypothèse H0 : ”m = m0 ” contre l’hypothèse H1 : m 6= m0 ” (resp. H1 : m > m0 ”, resp. H1 : m < m0 ”), on rejette H0 au profit de H1 si |Tn−1 | > t(n−1, α2 ) (resp. Tn−1 > t(n−1, α2 ) , resp. Tn−1 < −t(n−1, α2 ) ), où t(n−1,α) désigne la queue d’ordre α de la distribution tn−1 donnée par (24). démonstration : ce test est justifié mathématiquement par la méthode d’estimation donnée dans le paragraphe précédent et heuristiquement par le fait que si l’hypothèse alternative H1 est vraie alors Tn−1 va probablement prendre une valeur extérieure à ] − t(n−1, α2 ) , t(n−1, α2 ) [ (resp. une grande valeur i.e. supérieure à t(n−1,α) , resp. une petite valeur i.e inférieure à −t(n−1,α) ). Remarque 1 : Lorsque n est grand, on utilise la table de la loi normale N (0, 1) pour déterminer les seuils t(n−1,α) , ce qui est justifié par la proposition 2.4. Remarque 2 : On peut aussi utiliser le test de Student pour des grands échantillons non gaussiens, ce qui est justifié par le théorème limite suivant : Proposition 3.3 : Si X̄n et Sn2 sont la moyenne et la variance empiriques d’un n-échantillon X1 , . . . , Xn d’une loi de moyenne m et de variance σ 2 , alors √ n(X̄n − m) → N (0, 1) en loi (n → ∞). (25) Sn √ démonstration : D’après le théorème limite central, n(X̄σn −m) → N (0, 1) en loi quand n → ∞) et Sσn → 1 p.s. (n → ∞) d’après la loi forte des grands nombres. Comme √ √ n(X̄n −m) n(X̄n −m) = / Sσn , les deux convergences précédentes donnent le résultat. Sn σ 3.3 Le test de Student d’égalité des moyennes de deux lois normales Soit X = (X1 , . . . , Xn1 ) un n-échantillon issu d’une loi normale N (m1 , σ12 ) et Y = (Y1 , . . . , Yn2 ) un n-échantillon, indépendant du précédent et issu d’une loi normale N (m2 , σ22 ). On notera respectivement X̄ et Ȳ les moyennes empiriques de ces deux échantillons. Claireσ2 σ2 σ2 σ2 ment, X̄ suit la loi N (m1 , n11 ), Ȳ suit la loi N (m2 , n22 ) et X̄ − Ȳ suit la loi N (m1 −m2 , n11 + n22 ). Problème : On veut tester l’hypothèse H0 : ”m1 = m2 ” contre l’hypothèse H1 : m1 6= m2 ” (resp. H1 : m2 > m1 ”, resp. H1 : m2 < m1 ”). Tout dépend de la connaissance ou non des variances σ12 et σ22 : A. Cas où les variances sont connues : On forme le rapport X̄ − Ȳ N=q 2 . σ1 σ22 + n2 n1 3 de son vrai nom W. Gosset dont l’employeur (les brasseries Guinness) l’avait obligé a utiliser un pseudonyme pour publier ses recherches. 11 Sous l’hypothèse H0 , la variable aléatoire N est de loi N (0, 1). Comme d’habitude pour a ∈]0, 1[, notons na de seuil de la queue d’ordre a de la distribution N (0, 1) (i.e. P(N (0, 1) > na ) = a). Alors au niveau de confiance 1 − α, on rejette H0 au profit de H1 si |N | > n α2 (resp. N < −nα , resp. N > nα ). La justification de ce test est évidente. B. Cas où les variances sont inconnues mais égales : Généralement la valeur exacte des variances est inconnue est le test trivial présenté en A, ne peut pas s’appliquer. Le problème est alors difficile. On peut néanmoins le résoudre facilement si on sait que σ12 = σ22 = σ 2 mais σ 2 étant évidemment inconnue. Cette hypothèse est loin d’être farfelue et elle est souvent vérifiée dans certaines questions pratiques. La statistique liée au problème que nous étudions serait X̄ − Ȳ N= q σ n11 + n12 (26) si σ était connue. Il nous faut donc remplacer σ par un estimateur convenable : Proposition 3.4 : Sous les hypothèses précédentes, la statistique √ (X̄ − Ȳ ) n1 + n2 − 2 qP , (27) T =q Pn2 n1 1 1 2 2 + n2 j=1 (Yj − Ȳ ) i=1 (Xi − X̄) + n1 suit la loi de Student tn1 +n2 −2 à n1 + n2 − 2 degrés de liberté. P 1 (Xi −X̄)2 démonstration : D’après le théorème 2.2 on sait que la variable aléatoire ni=1 σ2 Pn2 (Yj −Ȳ )2 2 2 (resp. j=1 σ2 ) suit la loi χn1 −1 (resp. la loi χn2 −1 ). Par la propriété d’additivité des lois du chi2 indépendantes, la variable aléatoire (28) 2 χ = n1 X (Xi − X̄)2 i=1 σ2 n2 X (Yj − Ȳ )2 + σ2 j=1 suit la loi χ2n1 +n2 −2 à n = n1 + n2 − 2 degrés de liberté. Mais avec les notations (26) et (27), la variable aléatoire T s’écrit √ N n (29) T = p , χ2 où les variables aléatoires N et χ2 sont indépendantes. En effet d’après le théorème 2.2, Pn1 on sait que X̄ et i=1 (Xi − X̄)2 sont des variables aléatoires indépendantes et comme les échantillons X et Y sont indépendants, il y a aussi indépendance entre X̄ (resp. Ȳ ) et qP Pn2 n1 2 2 2 i=1 (Xi − X̄) + j=1 (Yj − Ȳ ) , ce qui implique l’indépendance de N et χ . Par définition la variable T de (29) suit la loi de Student tn1 +n2 −2 . Le test de Student d’égalité des moyennes (voir le problème posé au début de ce paragraphe) consiste alors à utiliser la statistique T donnée par la formule (27) et à procéder comme suit : on rejette H0 au profit de H1 au risque4 α ∈]0, 1[ si |T | > t(n, α2 ) (resp. T < −t(n,α ), 4 ou au niveau de confiance 1 − α. 12 resp. T > t(n,α) ), où t(n,α) désigne la borne de la queue d’ordre α de la loi de Student tn (avec n = n1 + n2 − 2). Exemple numérique5 : On considère les données suivantes qui concernent le gain en poids de 20 rats de laboratoire dont les dix premiers (resp. les dix autres) ont reçu leur ration de proteines sous forme de cacahuètes crues (resp. de cacahuètes grillées) : X : 62, 56, 61, 58, 60, 44, 56, 60, 56, 63 Y : 53, 51, 62, 55, 59, 56, 61, 54, 47, 57 Le problème est alors de tester si la torréfaction des cacahuètes a une influence sur la prise de poids. Alors le calcul explicite aux échantillons observés Plié P10 donne 2les valeurs suivantes : 10 2 X̄ = 57, 6, Ȳ = 55, 5, i=1 (Xi − X̄) = 264, j=1 (Yj − Ȳ ) = 189 et la variable T de (27) prend la valeur √ 2, 1 18 T =√ q = 0, 94. 1 1 453 10 + 10 La table de la loi tn (avec n = 18) montre qu’au risque α = 0, 05, correspondant le seuil tn, α2 = 2, 101. Comme on a donc |T | = 0, 94 ≤ tn, α2 = 2, 101, on accepte l’hypothèse H0 d’égalité des moyennes des lois d’où sont issus les deux échantillons X et Y . Remarque : Les hypothèses implicites dans l’exemple précédent sont d’une part que les lois d’où sont extraites les échantillons X et Y sont des lois normales et d’autre part qu’elles sont de même variance car il n’y a aucune raison sérieuse de penser que la différence d’alimentation va impliquer des variances différentes dans les deux populations de rats. 3.4 Le test de Fisher-Snedecor d’égalité des variances de deux lois normales Dans l’utilisation du test de Student concernant l’égalité des moyennes de deux populations normales, on a fait l’hypothèse d’égalité des variances. Ceci suppose qu’on puisse vérifier raisonnablement cette hypothèse. C’est le but de ce paragraphe. Définition 3.5 : On appelle loi de Fisher-Snedecor, la loi d’une variable aléatoire de la /n1 où Y1 et Y2 sont des variables aléatoires indépendantes de lois respectives χ2n1 et forme YY21 /n 2 χ2n2 . Cette loi qui dépend des deux paramètres n1 et n2 est noté F (n1 , n2 ). Proposition 3.6 : La loi de Fisher-Snedecor F (n1 , n2 ) a une densité de probabilité de la forme (30) f(n1 ,n2 ) (x) = ( nn21 )n1 /2 . B( n21 , n22 ) Γ( n21 )Γ( n22 ) n1 n2 où B( , ) = . 2 2 2 Γ( n1 +n ) 2 5 tiré du livre de Hoel, Port et Stone p.91 13 x 1+ n1 −1 2 n1 x n2 1R+ (x), n1 +n 2 2 démonstration : Voir l’annexe du chapitre 2. Les tables de la loi F (n1 , n2 ) : La loi de Fisher-Snedecor est tabulée. Plus précisemment c’est en général la queue d’ordre α = 0, 05 et α = 0, 01 qui est donnée. Ainsi la table que nous joignons à la fin de ce chapitre donne pour différentes valeurs de n2 variant de 1 à 100 et de n1 allant de 1 à 25, la valeur de la borne fn1 ,n2 ,α telle que P(F (n1 , n2 ) ≥ fn1 ,n2 ,α ) = α. 6 densité de F (n1 , n2 ) L’aire hachurée vaut α 0 1 - fn1 ,n2 ,α Exercice (asymptotique de la loi F (n1 , n2 )) : Soient Y1 et Y2 comme dans la définition cidessus. Y1 /n1 . 1)calculer E Y2 /n2 2)Montrer que Y1 /n1 → 1 P − p.s. (n1 → +∞, n2 → +∞). Y2 /n2 3) Expliquer comment on trouve les bornes fn1 ,n2 ,α lorsque les valeurs de n1 et n2 ne figurent plus dans la table (on distinguera les trois cas i) n1 petit et n2 grand, ii) n1 grand et n2 petit, iii) n1 et n2 grands). A. Test d’hypothèse simple sur la variance d’une loi normale : Etant donné un n-échantillon X = (X1 , . . . , Xn ) issu d’une loi normale N (m, σ 2 ) de variance σ 2 inconnue, et σ02 un nombre qu’on soupçonne être égal à σ 2 . On veut : tester l’hypothèse H0 : ”σ 2 = σ02 ” contre l’hypothèse alternative H1 : ”σ 2 6= σ02 ” (resp. H1 : ”σ 2 < σ02 ”, resp. H1 : ”σ 2 > σ02 ”) Pn 1 2 Solution : On prend S 2 = n−1 i=1 (Xi − X̄) comme statistique du problème puisque 2 c’est l’estimateur empirique de σ . Si l’hypothèse H0 est vraie, la variable aléatoire (n − 1)S 2 χ = , σ02 2 suit la loi χ2n−1 du χ2 à n − 1 degrés de liberté. Désignons par χ2n−1,α la borne de la queue d’ordre α de la loi χ2n−1 . Alors : i)(test bilatéral) on rejette H0 au profit de H1 : ”σ 2 6= σ02 ” si χ2 > χ2n−1, α ou si χ2 < χ2n−1,1− α 2 2 ii) (test latéral droit) on rejette H0 au profit de H1 : ”σ 2 > σ02 ” si χ2 > χ2n−1,α . iii) (test latéral gauche) on rejette H0 au profit de H1 : ”σ 2 < σ02 ” si χ2 < χ2n−1,1−α . Remarque : Pour le test bilatéral ,comme on l’a déjà vu, on répartit le risque sur les 14 grandes et les petites valeurs de χ2 car si l’hypothèse H0 est vraie la valeur de la statistique χ2 aura tendance à prendre une valeur raisonnable ni trop grande, ni trop petite. Pour les tests unilatéraux il n’en est pas de même par exemple l’hypothèse H1 : ”σ 2 > σ02 ” est plus vraisemblable si χ2 prend une valeur grande. B. Le test de Fisher-Snedecor : P 1 P 2 Soient S12 = n11−1 ni=1 (Xi − X̄)2 et S22 = n21−1 ni=1 (Yi − Ȳ )2 , les variances empiriques de deux échantillons indépendants X = (X1 , . . . , Xn1 ) et Y = (Y1 , . . . , Yn2 ) issus respectivement de deux lois normales N (m1 , σ12 ) et N (m2 , σ22 ). On veut, au risque α, tester l’égalité des variances de ces deux lois normales ; Théorème 3.7 (de Fisher-Snedecor) : 1) Pour tester au risque α, l’hypothèse H0 : ”σ12 = σ22 ” contre l’alternative unilatérale H1 : ”σ12 > σ22 (resp. H1 : ”σ12 < σ22 ), on forme le rapport F = S12 S22 (resp. F = S22 ) S12 et on rejette H0 au profit de H1 si F > fn1 −1,n2 −1,α (resp. F > fn2 −1,n1 −1,α ), où fn1 −1,n2 −1,α désigne la borne de la queue d’ordre α de la distribution de Fisher-Snedecor F (n1 −1, n2 −1). 2) Si on veut tester au risque α, l’hypothèse H0 : ”σ12 = σ22 ” contre l’alternative bilatérale H1 : ”σ12 6= σ22 , on rejette H0 au profit de H1 si S12 ≥ S22 et S12 ≥ fn1 −1,n2 −1, α2 , S22 S22 ≥ S12 et S22 ≥ fn2 −1,n1 −1, α2 . S12 ou si 2 χ2n1 −1 2 χn2 −1 suit la loi (resp. (resp. σ2 ), sous l’hydémonstration : 1) Comme n1 − 1 n2 − 1 2 S pothèse H0 , le quotient S12 , suit la loi de Fisher-Snedecor F (n1 − 1, n2 − 1). Alors si on note 2 PH0 la probabilité conditionnelle sachant H0 , on a par définition : S12 σ12 S22 ) PH0 (F > fn1 −1,n2 −1,α ) ≤ α, i.e. la probabilité de rejeter H0 si H0 est vraie, est inférieure ou égale à α, ce qui justifie le test unilatéral. 2) Pour le test bilatéral, on a : 2 S22 2 2 2 2 S1 PH0 (rejeter H0 ) = PH0 S1 ≥ S2 , 2 ≥ fn1 −1,n2 −1, α2 + PH0 S2 ≥ S1 , 2 ≥ fn2 −1,n1 −1, α2 S2 S 2 2 1 S1 S2 ≤ PH0 ≥ fn1 −1,n2 −1, α2 + PH0 ≥ fn2 −1,n1 −1, α2 2 S2 S12 α α ≤ + = α. 2 2 Ce qui justifie le test. 15 4 Annexe 4.1 Théorème limite central dans Rk , loi multinomiale et convergence vers la loi du Chi-deux A. Le théorème limite central dans Rk : Soit X1 , . . . , Xn un n-échantillon issu d’une loi F sur Rk de moyenne m et de matrice de covariance Γ. On rappelle (cf. le cours de Probabilités) que : (31) 1 √ (X1 + · · · + Xn − nm) → Nk (0, Γ) n en loi (n → ∞), où Nk (0, Γ) est une loi gaussienne sur Rk , centrée et de matrice de covariance Γ. Si Y est un vecteur aléatoire de loi Nk (0, Γ), il a une fonction caractéristique φ(t) = E(ei<t|Y > ) (t ∈ Rk ) donnée par 1 (32) φ(t) = exp − < t|Γt > , 2 et lorsque Γ est inversible, une densité donnée par 1 1 −1 p exp − < x|Γ x > , (33) f (x) = 2 (2π)k/2 |Γ| où |Γ| désigne le déterminant de la matrice Γ. B. La loi multinomiale (Rappel) : Notation : Toute mesure de probabilité concentrée sur l’ensemble {1, 2, . . . , k} des entiers entre 1 et k, est représentée par un vecteur ligne p = (p1 , . . . , pk ). (34) Soit n ≥ 1 un entier fixé et (X1 , . . . , Xn ) un n-échantillon d’une loi p = (p1 , . . . , pk ) portée par {1, 2, . . . , k}. Pour chaque 1 ≤ i ≤ k, on considère la variable aléatoire Ni = (35) n X 1[Xj =i] . j=1 La loi du vecteur aléatoire N = (N1 , . . . , Nk ) est la loi multinomiale de paramètres (n; p1 , . . . , pk ) (voir le chapitre 2). Théorème 4.1 : (36) lim n→∞ Nk − npk N1 − np1 ,..., √ √ np1 npk L = Nk (0, Γ), √ où Γ = Ik − pi pj 1≤i,j≤k . De plus Nk (0, Γ) est une loi gaussienne dégénérée qui est la projec√ √ √ tion d’un vecteur Nk (0, Ik ) sur l’hyperplan de Rk orthogonal au vecteur p = ( p1 , . . . , pk ). 16 démonstration : Pour j ∈ N, posons 1 1 Zj = √ (1[Xj =1] − p1 ), . . . , √ (1[Xj =k] − pk ) . p1 pk Les vecteurs aléatoires Zj sont indépendants et de même loi et on a 1 Nk − npk N1 − np1 √ (Z1 + · · · + Zn ) = ,..., √ . √ np1 npk n Le théorème limite central donne alors le résultat (36) où Γ = (Γ)ij est la matrice des covariances du vecteur aléatoire Z1 donnée par 1 1 Γij = E √ (1[X1 =i] − pi ) √ (1[X1 =j] − pj ) . pi pj √ Un calcul très simple, laissé en exercice, montre alors que Γ = Ik − pi pj 1≤i,j≤k où Ik est la matrice identité de Rk . Pour tout x ∈ Rk , on voit alors facilement que √ √ Γx = x− < x| p > p √ i.e. Γx est la projection orthogonale de x sur l’hyperplan ( p)⊥ . En particulier la matrice Γ est de rang k − 1. De plus si Y = (Y1 , . . . , Yk ) est un vecteur gaussien Nk (0, Ik ), le vecteur aléatoire ΓY a pour fonction caractéristique t ϕΓY (t) = E ei<t|ΓY > = E ei< Γt|Y > 1 = ϕY (t Γt) = exp − ||t Γt||2 2 1 = exp − ||Γt||2 . 2 √ √ √ Or ||Γt||2 =< Γt|Γt >=< Γt|t − (t| p) p >=< Γt|t > car Γt est orthogonal à p. Ceci montre que ϕΓY (t) = exp − 21 < t|Γt > est la fonction caractéristique de la loi Nk (0, Γ), L d’où ΓY = Nk (0, Γ). C. Convergence vers la loi du chi-deux On a vu au chapitre 2 le résultat suivant : (37) k X (npi − Ni )2 i=1 npi L → χ2 (k − 1) (n → ∞). 1 k , . . . , N√k −np , la quantité (37) est précisément démonstration : Si on note Xn = N√1 −np np1 npk 2 2 égale à ||Xn || . Mais la fonction f : (x1 , . . . , xk ) 7→ x1 + · · · + x2k = ||x||2 étant continue sur Rk , on sait d’après le cours de probabilités que la convergence en loi Xn → ΓY implique que L f (Xn ) → f (ΓY ). Autrement dit L ||Xn || → ||ΓY ||2 . Mais d’après le théorème de Cochran ||ΓY ||2 suit la loi χ2 (k − 1). D’où le résultat. 17 4.2 4.2.1 La loi de Student Densité de la loi de Student Soient X et Y des variables aléatoires indépendantes telles que X est de loi N (0, 1) est de Y de loi χ2n . Le couple (X, Y ) a pour densité de probabilité la fonction f donnée par 1 (1/2)n/2 n −1 −y/2 2 f (x, y) = √ e−x /2 y2 e 1[0,+∞[ (y) Γ( n2 ) 2π 2−n/2 −x2 /2 n −1 −y/2 =√ 1[0,+∞[ (y). e y2 e 2πΓ( n2 ) Dans la suite nous noterons C = bornée. On a −n/2 √2 2πΓ( n ) 2 et T = √ nX √ . Y Soit g : R → R une fonction borélienne √ nx 2 n g √ e−x /2 y 2 −1 e−y/2 dxdy y R×R+ Z Z (38) E (g(T )) = C √ √ nx √ et v = y, ce qui équivaut à x = n−1/2 u v y D(x,y) = n−1/2 v 3/2 . Comme le domaine d’intégration D(u,v) Faisons le changement de variable u = et y = v. Le déterminant jacobien vaut change pas, il vient Z Z D(x, y) n 2 dudv g(u)e−u v/2n v 2 −1 e−v/2 E (g(T )) = C D(u, v) R×R+ Z +∞ Z +∞ n+1 v u2 −1/2 −1 − (1+ ) n dv v 2 e 2 g(u) =n C du. ne −∞ 0 Mais en utilisant la densité de la loi Γ(α, b) avec α = n+1 2 et b = 1 2 1+ u2 n , on voit que − n+1 n+1 2 u2 = 2 2 Γ( n+1 ) 1 + . Il 2 n l’intégrale en dv dans la formule précédente est égale à Γ(α) bα en résulte que l’on a − n+1 Z +∞ 2 ) 1 Γ( n+1 u2 2 E (g(T )) = g(u) √ 1+ du, n n πn Γ( 2 ) −∞ − n+1 n+1 2 1 Γ( 2 ) u2 √ ce qui montre que la fonction u 7→ πn Γ( n ) 1 + n est la densité de T . 2 4.2.2 Espérance et Variance de la loi de Student On sait déjà que la loi de Student est centrée car sa densité est une fonction paire. En fait pour n = 1, E(T ) n’existe pas et si n ≥ 2, E(T ) = 0. Pour le calcul de la variance supposons n ≥ 3 et utilisons la formule (38) avec la fonction g(u) = u2 . On a Z Z n n 2−n/2 2 2 Var(T ) = E T = √ x2 e−x /2 y 2 −2 e−y/2 dxdy n 2πΓ( 2 ) R×R+ Z +∞ −n/2 Z +∞ n−2 1 2 −x2 /2 n2 √ xe = dx y 2 −1 e−y/2 dy n Γ( 2 ) −∞ 2π 0 −n/2 n−2 n2 n = 2 2 Γ −1 , n Γ( 2 ) 2 18 la dernière égalité résultant de l’utilisation de la densité de la loi du chi-deux à n − 2 degrés n n de liberté pour évaluer l’intégrale par rapport à y. Mais ( 2 − 1)Γ 2 − 1 = Γ( n2 ). D’où Var(T ) = n n−2 (sin ≥ 3). Si n ≤ 2, E(T 2 ) = +∞ et donc Var(T ) n’existe pas. 4.3 4.3.1 La loi de Fisher-Snedecor Densité de la loi de Fisher-Snedecor Soient X et Y des variables aléatoires suivant la loi du chi-deux à respectivement n1 et n2 degrés de liberté. D’après la formule (4) le couple (X, Y ) a une densité de probabilité de la forme 2−(n1 +n2 ) n1 −1 n2 −1 −(x+y)/2 x2 y2 e f (x, y) = n1 1R+ ×R+ (x, y). Γ( 2 )Γ( n22 ) Posons F = n2 X , n1 Y C= 2−(n1 +n2 ) n n Γ( 21 )Γ( 22 ) et soit g : R → R une fonction borélienne bornée. On a Z Z (39) g E (g(F )) = C R+ ×R+ n2 x n1 −1 n2 −1 −(x+y)/2 x2 y2 e dxdy. n1 y D(x,y) Faisons le changement de variable u = nn21xy et v = y de déterminant jacobien D(u,v) = Comme le domaine d’intégration reste égal à R+ × R+ , on a Z Z n1 n21 −1 n2 −1 −v(1+ nn1 u) n1 2 v2 e g(u) uv vdudv E (g(F )) = C n2 n2 R+ ×R+ Z +∞ Z n n1 n1 +n2 n1 n1 +∞ −1 −1 −v(1+ n21 u) 2 2 2 g(u)u v e = C( ) dv du. n2 0 0 n1 v. n2 Par le changement de variable t = 2v(1 + nn12 u), l’intégrale précédente en dv n1 +n2 n1 +n2 R +∞ n1 +n2 n1 +n2 n1 +n2 t 2 vaut 2− 2 (1 + nn12 u)− 2 t 2 −1 e− 2 dt = 2− 2 (1 + nn12 u)− 2 2n1 +n2 Γ( n1 +n ). 2 0 D’où n1 n1 n1 +n2 n1 + n2 ) E (g(F )) = C( ) 2 2 2 Γ( n2 2 Z +∞ g(u)u 0 n1 −1 2 n1 1+ u n2 − n1 +n 2 2 du. Compte tenu de la valeur de C, ceci montre que la densité de F est de la forme fF (u) = n1 n2 n21 − n1 +n 2 2 2 n1 Γ( n1 +n ) n 1 −1 2 2 u 1+ u 1R+ (u), Γ( n21 )Γ( n22 ) n2 ce qui démontre le résultat de la proposition 3.6. 19 4.3.2 Espérance et variance de la loi de Fisher-Snedecor Supposons n2 ≥ 3. La formule (39) avec g(u) = u, nous donne 2−(n1 +n2 ) n2 E(F ) = n1 Γ( 2 )Γ( n22 ) n1 −(n1 +n2 ) 2 n2 = n1 n2 Γ( 2 )Γ( 2 ) n1 −(n1 +n2 ) 2 n2 = n1 n2 Γ( 2 )Γ( 2 ) n1 = Z Z n2 −2 2 n1 x2y Z R+ ×R+ +∞ n 1 2 x e y dx n2 −2 2 e−y/2 dy 0 0 Z +∞ Z −x/2 e−(x+y)/2 dxdy +∞ x n1 +2 −1 2 −x/2 e +∞ Z dx y 0 n2 −2 −1 2 e−y/2 dy 0 2−(n1 +n2 ) n2 n1 +2 n1 + 2 n2 −2 n2 − 2 2 Γ( )2 Γ( ) Γ( n21 )Γ( n22 ) n1 2 2 d’après l’expression de la densité du chi-deux à n1 + 2 (resp. n2 − 2) degrés de liberté pour la valeur de l’intégrale ci-dessus en dx (resp. en dy). Mais puisque Γ( n12+2 ) = n21 Γ( n21 ) et Γ( n22 = n22 − 1 Γ n22 − 1 , l’expression précédente se simplifie et on obtient n2 n2 − 2 E(F ) = (si n2 ≥ 3). Remarque : 1) Pour n2 ≤ 2, E(F ) n’existe pas. 2) E(F ) ne dépend pas de n1 (nombre de degrés de liberté du numérateur de F ). Calculons maintenant le moment d’ordre 2 de F . Supposons n2 ≥ 5. En prenant la fonction g(u) = u2 dans la formule (39), on obtient 2−(n1 +n2 ) E(F ) = n1 Γ( 2 )Γ( n22 ) 2 −(n1 +n2 ) 2 = n1 Γ( 2 )Γ( n22 ) −(n1 +n2 ) 2 = n1 Γ( 2 )Γ( n22 ) −(n1 +n2 ) = 2 Γ( n21 )Γ( n22 ) n2 n1 2 Z Z n2 n1 2 Z n2 n1 2 Z n2 n1 2 x n1 +1 2 y n2 −3 2 e−(x+y)/2 dxdy R+ ×R+ +∞ x n1 +1 2 −x/2 e +∞ Z dx 0 y n2 −3 2 e−y/2 dy 0 +∞ x n1 +4 −1 2 −x/2 e 0 Z dx +∞ y n2 −4 −1 2 e−y/2 dy 0 2n1 +4 Γ( n1 + 4 n2 −4 n2 − 4 )2 Γ( ) 2 2 Après simplification des fonctions Γ comme dans le point 1), on obtient E(F 2 ) = n22 (n1 + 2) n1 (n2 − 2)(n2 − 4) (si n2 ≥ 5). D’où on déduit 2 2 Var(F ) = E(F ) − (E(F )) = 2 n2 n2 − 2 On notera que si n2 ≤ 4, E(F 2 ) = +∞. 20 2 (2n1 + n2 − 2) n1 (n2 − 4) (si n2 ≥ 5).