HECI Hautes Etudes Canadiennes et Internationales Année Universitaire 2008/2009 Intitulé du cours : Statistique de Gestion Deuxième année Volume horaire : 30 heures Professeur : Malick MANE, Statisticien Économiste Support de cours Plan du cours Partie 1 : Calcul des probabilités Chapitre 1 : Probabilités Chapitre 2 : Variables aléatoires Chapitre 3 : Lois de probabilités Partie 2 : Statistique Estimation et tests statistiques Chapitre 5 : Estimation par intervalle de confiance Chapitre 6 : Tests d’hypothèses 1 Partie 1 : Calcul des probabilités Chapitre I : Probabilités Les calculs de probabilité en tant que discipline étudie les phénomènes et expériences aléatoires. La Probabilité est un outil nécessaire à la prévision et aux anticipations d’où son importance dans les domaines telles que la météorologie, la finance, la gestion et l’économie. I / Vocabulaire Probabiliste Expérience aléatoire : On appelle expérience aléatoire une expérience conduisant selon le hasard à plusieurs résultats possibles. Exemple : lancer une pièce de monnaie, lancer un dé numéroté de 1 à 6 Univers ou ensemble fondamental : On appelle univers associé à l’expérience aléatoire l’ensemble (Ω) de tous les résultats possibles. Exemple : jet d’une pièce de monnaie : {P, F}, jet d’un Dé : { 1, 2, 3, 4, 5, 6} Evénement élémentaire ou éventualité : Tout élément A de (Ω) est appelé événement élémentaire et le nombre d’élément d’un événement est appelé cardinal de A. On note card A. II/ Opérations sur les événements Soient deux événements A et B. L’événement A B (A ou B) est celui qui est réalisé lorsque l’un au moins des deux événements est réalisé. L’événement A B (A et B) est celui qui est réalisé lorsque les deux événements sont réalisés simultanément. Si A B = Ø on dit que A et B sont incompatibles (c’est-à-dire si l’un se réalise l’autre ne peut pas se réaliser) L’événement Ā c’est le contraire ou le complémentaire de A. c’est celui qui est réalisé lorsque A n’est pas réalisé. On a Ā A = Ø Illustration : Propriété des opérateurs logiques : - Commutativité - Associativité - Distributivité Loi de Morgan : A B A B = A = A B B 2 III/ Probabilité 1) Définition Soit [Ω, P(Ω)] un espace probabilisable, une probabilité est une application P: Ω [0 ; 1] A P(A) P(A) probabilité de l’événement A c'est-à-dire chance pour que A se réalise. On a P(A) = cardA Card Exemple : jet de Dé : Ω = A= 1 P(A) = 1, 2, 3, 4, 5, 6 1 ; B = 1, 2 6 P(B) = card Ω = 6 2 ; C = 2, 4, 6 6 P(C) = 3 6 2) Propriétés des probabilités P(Ω) = 1 , l’ensemble des événements de Ω forment un système complet n d’événements. On a P( A ) 1 i 1 P (Ā) = 1 - P(A) P (A B) = P(A) + P(B) – P ( A B ) Si A et B sont incompatibles alors P ( A B ) = 0 Donc P (A B) = P(A) + P(B) P(A) = P ( A B ) + P ( A B ) P(B) = P ( A B ) + P ( A B ) Exemple : On choisit au hasard un habitant de Dakar, la probabilité qu’il aime le théâtre est 0,6. La probabilité qu’il aime le cinéma est 0,4. La probabilité qu’il aime le théâtre et le cinéma est 0,2. Quelle est la probabilité : 1) qu’il n’aime que le théâtre ? 2) qu’il aime le théâtre ou le cinéma ? 3) qu’il n’aime aucun des deux ? 4) qu’il ‘aime qu’un seul des deux ? 3 IV/Probabilités Conditionnelles 1) Définition Soit [Ω, P(Ω), P] un espace probabilisé. Soient A et B deux événements aléatoires avec P(B) ≠ 0. On suppose que l’événement B s’est réalisé et on veut maintenant réévaluer les chances de réalisation de A en tenant compte du fait que B s’est réalisé. Cette nouvelle probabilité de A s’appelle Probabilité conditionnelle de A sachant B et on la note : P (A/B). On a P (A/B) = P (A B ) P( B) Exemple : jet de Dé non pipé : Ω = {1, 2, 3, 4, 5, 6} A = {1, 2, 4, 6} P (A) = 4 6 B = {3, 4, 5} P(B) = P (A B ) P (A/B) = P( B) 3 6 donc A B = { 4} 1 6 P (A B ) = 1 A.N P (A/B) = 4 6 = 6 1 4 2) Proprieties P ( B ) P( B) 1 P( B) P( B) P (Ω /B) = P (Ø/B) = 0 P (Ā/B) = 1- P (A/B) 3) Formule des probabilités composées Soient A et B deux événements aléatoires. On a alors : P(A B ) = P(A). P (B/A) Si P(A) ≠0 P(A B ) = P(B). P(A/B) Si P(B) ≠0 Plus généralement, si A1, A2,........An sont des événements tels que : P (A1 A2 ...... Ak) > 0, k = 1,2,…….., n-1) P (A1 A2 ...... Ak) = P(A1).P (A2/ A1).P(A3/ A1 A2)…….P(An/ A1 A2 ...... An-1) Illustration : soient trois événements A, B et C On a P(A B C) = P(A).P (B/A).P(C / A B ) Exemple: Un candidat doit tirer 4 questions sur les 28 préparées par un examinateur ; ces 28 questions comprennent 10 questions de marketing 6 de comptabilité 4 de finance et 8 d’économie. Le candidat tire successivement les 4 questions sans remettre dans le tas une question déjà tirée. Quelle est la probabilité de tirer dans l’ordre une question de marketing, une de comptabilité, une de Finance et une d’économie. 4 4) Formule des probabilités totales On appelle système complet d’événements toute famille {A1…….. An }d’événements deux à deux incompatible tels que : - Ai ≠ Ø avec i = 1…….n - A1 A2 ...... An = P (A1) + P(A2) + ……+ P(An) = 1 Pour tout événement B, la formule des probabilités totales s’écrit : n P(B) = P( Ai B) = 1 n P( A ).P( B / A ) i i 1 Exemple : Deux usines fabriquent des pièces. La première fournit 45% de la production. Parmi les pièces fabriquées par la première 8 % ont des défauts et parmi celles fabriquées par la deuxième 12% présentent des défauts. On choisit une pièce au hasard dans l’ensemble de la production. 1) Quelle est la probabilité pour que la pièce : a) provienne de la première usine et ait des défauts ? b) provienne de la deuxième usine et n’ait pas de défauts ? c) soit défectueuse ? 5) Formule de Bayes Soient B un événement et {A1…….. An }un système complet d’événement, la formule de Bayes s’écrit alors : P( Ai ).P( B / Ai ) Ai / B ) n P( P( Ai ).P( B / Ai ) 1 Exemple : (suite de l’exemple précédent) 2) la pièce choisit est défectueuse. Quelle est la probabilité pour qu’elle provienne de la première usine ? 3) la pièce choisit est bonne. Quelle est la probabilité pour qu’elle provienne de la deuxième usine ? V/ Indépendance Deux événements A et B sont indépendants si les chances de réalisation de l’un ne change selon que l’autre se réalise ou pas. On a P ( A B ) = P(A).P(B) P (A/B) = P(B) 5 Chapitre 2 : Variables aléatoires - lois de probabilités I / Variables aléatoires discrètes 1) définition Soient [Ω, P(Ω), P] un espace probabilisé et w un événement. Une variable aléatoire réelle X est une application X:Ω E R w X(w) E = ensemble des valeurs possibles de la variable X. On dit que la V A X est discret si son ensemble de valeurs possibles est un ensemble discret de la forme E = {x1, x2,…….,xn}. 2) Loi de probabilité de la VAX Soient les probabilités P(X= x1) = P1 , P(X= x2) = P2 ,………, P(X= xn) = Pn des valeurs possibles de le V AX. . n X suit une loi de probabilité lorsque P( X x ) 1 i 1 Le tableau suivant représente la loi de probabilité de X. X Loi de probabilité P(X= xi ) x1 P1 x2 P2 ……………. ……………. xn Pn Exemple : Jet d’un dé non pipé Ω = {1, 2, 3, 4, 5, 6} E R Soit X la V A définit par : X : Ω On a X(1) = 5 , X(2) = 1, X(3) = 0 , X(4) = 2, X(5)= 0 , X(6) = 2 Donc E = {0, 1, 2, 5} La loi de probabilité de X : P(X= 0) = P({3, 5}) = 2 6 1 6 P(X= 1) = P ({2}) = P(X= 2) = P({4, 6}) = 2 6 1 6 P(X= 5) = P({1}) = On a le tableau suivant : X P(X= xi ) 0 1 1 3 1 2 6 1 3 3 1 6 3).Fonction de répartition 6 a) Définition On appelle fonction de réparation d’une variable aléatoire réel X, l’application F de R dans [0,1] définie par quelque soit x Є R F(x) = P(X≤ xi ) b) - Propriétés F est une fonction en escalier ; F est une fonction croissante ; Soient a, b Є R, si a < b alors : P (a < X≤ b) = F(b) – F(a) Exemple : Soit le tableau de l’exemple précédent. Déterminer la fonction de répartition puis faire la représentation graphique F(x). X P(X= xi ) 0 1 1 1 3 2 1 6 3 1 3 6 Fonction de répartition Si x < 0 F(x) = P(x<0) = 0 0≤x<1 F(x) = P(x<1) = P(x = 0) = 1 1≤ x < 2 F(x) = P(x<2) = P(x = 0) + P(x = 1) = 1 2≤ x < 3 F(x) = P(x<3) = P(x = 0) + P(x = 1) = P(x = 2) = 5 x ≥3 En résumé : 2 6 F(x) = P(x<3) = P(x = 0) + P(x = 1) = P(x = 2) = P(x = 3) = 1 0 1 F(x) = 3 si x < 0 3 1 5 si 0 ≤ x < 1 2 si 1≤ x < 2 6 si 2≤ x < 3 1 si x ≥3 Représentation graphique 7 4) Caractéristiques d’une variable aléatoire discrète a) Espérance mathématique et Variance Espérance mathématique On appelle espérance mathématique (ou valeur moyenne) de la variable X, le nombre : n E(X) = x .P i i 1 Propriétés - X et Y deux variables aléatoires telles que Y = aX + b, On a E(Y) = a E(X) + b n 2 - E( X ) = x 2 i .Pi 1 Variance et Ecart type On appelle variance de la V A X, le nombre : n Var (X) = [ x i E ( X )] 2 .Pi = E( X2) - E ( X ) 2 1 Propriétés - X et Y deux variables aléatoires telles que Y = aX + b, On a Var(Y) = a2 Var(X) - Var(X) ≥ 0 Ecart type : (X ) Var ( X ) Exemple Soit la V A X définie par la loi de probabilité suivante : X P(X= xi ) 0 1 2 3 1 1 1 1 3 6 3 6 1) Calculer E(X) et V(X) 2) On pose Y = -2X + 1, déterminer E(Y) et V(Y) II/ Variables aléatoires continues 1) Définition Soient [Ω, P(Ω), P] un espace probabilisé et w un événement. Une variable aléatoire réelle X est une application X:Ω E R w X(w) E = ensemble des valeurs possibles de la variable X. On dit que la VA X est continue si son ensemble de valeurs possibles est un ensemble continu 2) densité de probabilité a) Définition La dérivée de la fonction de répartition définie par f (x) = F’(x), s’appelle densité de probabilité de la V A X. La densité de probabilité est telle que : P (a ≤ X ≤ b) = b a f ( x) dx 8 b) Propriétés - x Є R, f(x) ≥ 0 - f est une fonction continue sur R sauf en un nombre fini de points. - on a f ( x) 1 Exemple : Soit X la variable aléatoire continue de densité de probabilité f . λ x (4-x) si 0≤ x≤ 4 f(x) = 0 sinon λ ε IR _ 1) Trouver λ afin que X suive bien une loi de probabilité. 2) Déterminer la fonction de répartition de X et la représentation graphique. 3) Calculer les probabilités suivantes : P (X=2) ; P(X<2) ; P (2<X<3) ; P (X<6/X≥3) 3) Fonction de répartition On appelle fonction de répartition de la V A X, l’application F:R [0, 1] x F(x) = P (X≤ x) L’ensemble des valeurs possibles de X est l’intervalle [a, b] de R x On à F(X) = P (X ≤ x) = f (t ) dt a) Propriétés - F est une fonction continue sur R - F est à valeur dans [0, 1], lim F(x) = 0, lim F(x) = 1 x x - F est une fonction croissante. a, b Є R avec a < b on a : P (a ≤ X ≤ b) = P ( a < X < b) = P( a < X ≤ b) = P(a ≤ X< b) = F(b) – F(a) 3) Caractéristique d’une variable continue a) Espérance mathématique On appelle espérance mathématique de la V A X, le nombre : E(X) = x. f ( x ) dx b) Variance et écart type On appelle variance de la V A X, le nombre : Var (X) = [ x E ( X )] 2 f ( x ) dx après développement on retrouve le résultat suivant : Var (X) = Or donc x 2 x 2 . f ( x ) dx - [E(X)]2 . f ( x ) dx = E (X2) Var (X) = E (X2) – [E(X)]2 Ecart type (X ) Var ( X ) Remarque : -Soit X et Y deux variables aléatoires telles que Y = aX + b, On a Var(Y) = a2 Var(X) -Var(X) ≥ 0 Exemple : Même énoncé que l’exemple précédent. Calculer E(X) et Var(X). Chapitre 3 : Lois de probabilités 9 II/ Lois discrètes Cette partie se portera uniquement sur la loi Binomiale et la loi de Poisson 1) loi Binomiale a) Définition Considérons une expérience aléatoires qui n’a que deux résultats possibles A et Ā. On suppose que P(A) = p donc P(Ā) = 1 – P(A). Cet expérience est appelée Phénomène Bernoulli. On recommence cet expérience de Bernoulli n fois de suite, la V A X qui est égale au nombre de fois où l’événement A s’est réalisé suit une loi Binomiale de paramètre n et p. On note X β (n, p) On a P(X=k) = C k n . p k .(1 p ) n k b) Valeurs Caractéristiques E(X) = n. p Var(X) = n.p.(1-p) Exemple Lors d’une naissance, la probabilité d’avoir une fille est de 0,52. On considère une famille de 6 enfants. Calculer la probabilité d’avoir : a. Aucune fille ; b. Au moins deux filles ; c. Au plus 3 filles ; d. Aucun garçon. 2) loi de Poisson a) Définition Une VAX suit une loi de Poisson de paramètre λ > 0 (on note X e k est : P(X=k) = P (λ)), si sa probabilité k! b). valeurs Caractéristiques E(X) = V(X) = λ Exemple : Le nombre d’arrivées de client dans une superette au cours d’une demi-heure suit une loi de poisson de paramètre λ = 2 Quelle est la probabilité d’avoir : a. Aucun client ? b. Au moins 2 clients ? c. Moins de 4 clients sachant qu’il y a au moins 2 clients ? 3) Approximation de la loi Binomiale par la loi de Poisson Soit X β (n, p). On considère que l’approximation de la loi Binomiale par la loi de Poisson est acceptable lorsque : p ≤ 0,1 n ≥ 30 np < 15 Dans ce cas E(X) = Var(X) = λ II/ Lois continues 10 1) Loi Normale La loi normale ou loi de Laplace-Gauss est la plus célèbre des lois de probabilité car c’est une des distributions que l’on rencontre le plus souvent en pratique. C’est en effet la loi qui s’applique à une variable statistique qui est la résultante d’un grand nombre de causes indépendantes, dont les effets s’additionnent et dont aucune n’est prépondérante. Exemple : erreur de mesure, fluctuation d’une grandeur économique etc. a) Définition Une V A X suit une loi normale de paramètre m et , si sa densité est donnée par : 1 xm 2 1 ( ) 2 f(x) = x e 2 On note X suit une N(m, ) b) Valeurs Caractéristiques Variance : Var(X) = 2 Espérance : E(X) = m écart type : c) loi normale centrée réduite Si X suit N (m, ) alors la variable aléatoire dite centrée réduite noté T = X m de paramètre 0 et 1 suit une loi normale centrée réduite noté N(0,1) de densité : F(t) = 1 2 e 1 2 t 2 x Remarque La variable aléatoire T est dite centrée réduite car E(T) = 0 (T est centrée) et Var(T) = 1 ( T est réduite) d). fonction de répartition x F(X) = P (X ≤ x) = f (t ) dt e). tables de la loi normale - table de la fonction intégrale de N(0,1) La fonction de répartition de N(0,1) est (t ) = P (X ≤ x) qui donne 1 2 1 x t (t) e 2 dx 2 (t ) n’est tubulée que pour les valeurs de t ≥ 0 Pour lire sur la table il faut systématiquement utiliser la variable centrée réduite T associée à X en posant T = X m Propriétés : - ( t ) 1 (t ) - P (-t ≤ T ≤ t) = 2 (t ) - 1 Exemple : Soit X suit N(2, 3) 11 X m X m 52 on a alors P( ≤ )= P(T≤1) = (1) = 0,8413 3 0,35 2 P (X≤0,35)= P(T ≤ )= P(T ≤ - 0,55) = (0,55) = 1 - (0,55) = 1 – 0,7088 3 P(X≤5 ) on utilise T = =0,2912 - table de l’écart réduit La table de l’écart réduit, permet de déterminer commodément les valeurs de t correspondant à des valeurs rondes des probabilités, connaissant le seuil d’erreur α. P (-t ≤ T ≤ t) = 1 – α Si α = 0,05 on a alors t = 1,96 f) Approximations - Approximation de la loi binomiale par une loi normale Soit X β (n, p). On considère que l’approximation de la loi Binomiale par une loi normale est acceptable lorsque : n ≥ 30 np ≥ 15 np(1-p) > 5 dans ce cas E(X) = np et Var(X) = np(1-p) - Approximation de la loi binomiale par une loi normale Soit X P (λ ). On considère que l’approximation de la loi de Poisson par une loi normale est acceptable lorsque : λ > 20 Dans ce cas E(X) = λ et Var(X) = λ 2). lois de probabilités dérivées Nous traiterons uniquement sur cette partie la loi du Khi-deux, la loi de Student et la loi de Fisher-Snedecor a) loi du KHI- DEUX Définition Soient X1, X2, ……..Xn des variables aléatoires indépendantes et suivant chacune la loi normale N(0,1), alors Y = suit la li du KHI-DEUX à n degré de liberté (ddl). On note Y Valeurs Caractéristiques E (Y) = n Var (Y) = 2n Utilisation de la table du KHI-DEUX La table donne pour une valeur de n dépassée : P ( , la valeur du ayant la probabilité d’être )= Si les valeurs de n et sont données alors on lit Exemple : Pour n = 5 Si on lit sur la table sur la table du KHI-DEUX. 12 Si on lit sur la table b) loi de STUDENT Définition Soient X et Y deux variables aléatoires indépendantes de lois respectives N (0 ,1) et On appelle loi de student à n degré de liberté noté ( . ), la loi suivie par le rapport : Valeurs Caractéristiques E( )=0 Var ( )= Utilisation de la table de STUDENT La table donne la probabilité pour que égale ou dépasse en valeur absolue une valeur donnée de : P Si les valeurs de n et sont données alors on lit Exemple : Pour n = 1 Si on lit sur la table Si sur la table de student. on lit sur la table c) loi de FISHER-SNEDECOR Définition Soient X et Y deux variables aléatoires indépendantes de lois respectives On appelle loi de Fisher-Snedecor à n et m degré de liberté noté ( .et . ), la loi suivie par le rapport : Valeurs Caractéristiques E( )= (m Var ( )= Utilisation de la table de FISHER-SNEDECOR Si les valeurs de n, m et sont données alors on lit sur la table de Fisher. Exemple : si n = 8 (n est en colonne) et m = 14 (m est en ligne) Pour on lit sur la table Pour on lit sur la table 13 Partie 2 : Statistique (Estimation et tests statistiques) Chapitre 4 : Estimation par intervalle de confiance Soit X une variable aléatoire dont la probabilité contient un paramètre inconnu Ө. L’estimation par intervalle de confiance consiste à trouver un intervalle [a b] qui a une grande probabilité (1 – α) de contenir le paramètre Ө. [a b] = intervalle de confiance de paramètre inconnu Ө 1 – α = niveau ou seuil de confiance (probabilité pour que Ө appartienne à [a b]) α = risque ou seuil d’erreur (probabilité pour que Ө n’appartienne pas à [a b]) I/ Intervalle de confiance d’une proportion On désigne par p la proportion inconnue d’individus possédant certains caractères. Pour cela on prend un échantillon de n individus dans la population. Si dans l’échantillon k individus possèdent le caractère Xi, l’estimation ponctuelle de p est : f k n L’intervalle de confiance de p au seuil de confiance 1-α lorsque n ≥30 est : f t f (1 f ) ; f t n f (1 f ) n Où t est lue sur la table de la loi N (0 ; 1) on connaissant la valeur α Exemple : On veut connaître le taux de satisfaction d’un nouveau produit A. Pour cela on interroge un échantillon de 100 consommateurs.60 parmi eux disent être satisfaits du produit A. Estimer par intervalle de confiance le taux réel de satisfaction au seuil de confiance de 95%. II/ Intervalle de confiance d’une moyenne Soit X une VA qui suit la loi N (m, σ). On désigne par m le paramètre (la moyenne) inconnu. Pour déterminer l’intervalle de confiance on distingue deux cas : 1ère Cas : Ecart type de la population(σ) connu : x t ; x t n n 14 t est lu sur la table de la loi N (0 ; 1) en connaissant la valeur α 1 n Xi , la moyenne de l’échantillon ; n 1 2ième Cas : Ecart type de la population(σ) inconnu : Avec x s s ; x t n 1 n 1 Si n ≤ 30, t est lu sur la table de la loi de student à n-1 ddl (st (n-1)) en connaissant la valeur α. Si n > 30, t est lu sur la table de la loi N (0 ; 1) en connaissant la valeur α x t 1 n ( Xi X ) 2 la variance de l’échantillon n 1 Exemple : Dans une supérette on suppose que le nombre de visiteurs par heure suit une loi normale. On veut connaître le nombre de visiteurs moyen par heure. Pour cela on dispose d’un échantillon du nombre de visiteurs par heure pendant 4 heures : 30 25 35 18. a) Estimer par intervalle de confiance de seuil α = 5% le nombre de visiteurs moyen par heure de cette supérette. b) Répondre à la même question en supposant que l’écart type du nombre de visiteur par heure est de 7. 2 s est l’écart type de l’échantillon. On a s III/ Intervalle de confiance d’une Variance Soit X une VA qui suit la loi N (m, σ). On distingue deux cas : 1ère Cas : Moyenne de la population(m) connu : nˆ 2 nˆ 2 ; L’intervalle de confiance est de la forme suivante : l1 l2 l1 et l 2 sont lu sur la table du Khi-Deux à n ddl 1 n 2 ˆ ( Xi m) 2 la variance estimée de la population. Avec n 1 ième 2 Cas : Moyenne de la population(m) inconnu : ns 2 ns 2 ; L’intervalle de confiance est de la forme suivante : l1 l2 l1 et l 2 sont lu sur la table du Khi-Deux à n-1 ddl 2 Avec s 1 n ( Xi X ) 2 la variance de l’échantillon n 1 Exemple : Dans une supérette on suppose que le nombre de visiteurs par heure suit une loi normale. On veut connaître le nombre de visiteurs moyen par heure. Pour cela on dispose d’un échantillon du nombre de visiteurs par heure pendant 4 heures : 30 25 35 18. c) Estimer par intervalle de confiance de seuil α = 5% la variance du nombre de visiteurs par heure de cette supérette. d) Répondre à la même question en supposant que la moyenne du nombre de visiteur par heure est de 30. 15 Chapitre 5 : Tests d’hypothèses - Problème de comparaison I/ Tests d’hypothèses A/ Généralité sur les tests Soit X une variable aléatoire dont la loi de probabilité dépend d’un paramètre inconnu θ. Un test d’hypothèse statistique est un mécanisme qui permet de trancher entre deux hypothèses concernant le paramètre inconnu θ à partir d’un échantillon. On note H0 et H1 ces deux hypothèses dont une seule est vraie. Ces deux hypothèses doivent être posées de telle sorte que l’acceptation de l’une corresponde au rejet de l’un. Puisque les tests d’hypothèses sont basés sur les informations d’un échantillon, nous devons admettre la possibilité d’erreurs. Ainsi quelque soit l’issue du test on s’expose toujours à deux risques d’erreurs. Réalité Décision Accepter H0 rejet de H0 (accepter H1) H0 H1 Décision correct (1-α) Erreur de 1ère espèce (α) Erreur de 2ième espèce(β) Décision correct (1-β) L’erreur de 1ère espèce consiste à rejeter l’hypothèse H 0 qui est en réalité vraie. La probabilité de cette erreur est α. La probabilité α est appelée seuil de signification ou niveau de significativité. L’erreur de 2ième espèce consiste à accepter l’hypothèse H0 qui est en réalité fausse. Pour faire un test statistique on peu adopter la méthodologie suivante : Choix des hypothèses 1. Détermination de la nature du test : test bilatéral, unilatéral gauche ou unilatéral droit. 2. Détermination de la région critique : région de rejet de l’hypothèse H0 3. Conclusion : Rejet ou acceptation de H0 4. B/ Test sur une Proportion 1) Données du problème Soit p la proportion inconnue d’individus de la population possédant un certain caractère. Soit p0 la proportion supposée être celle de la population. Soit f0 la fréquence d’individus possédant un certain caractère dans un échantillon de taille n. 16 Si n est suffisamment grand (n ≥ 30), la variable aléatoire Fn (fréquence d’individus possédant un certain caractère dans un échantillon de taille n) suit une loi N p 0 , p 0 (1 p 0 ) .On en déduit que la variable Z = n Fn p 0 p 0 (1 p 0 ) suit une loi normale n central et réduite 2) Procédure du test Les trois formes de tests possibles sont les suivantes. Test1 : Test bilatéral H 0 : p p0 On cherche à tester l’hypothèse H H 1 : p p0 0 La région critique est C : f0 f 1 , f 2 p 0 (1 f ) p0 (1 f ) et f2 = p0 t n n t est lu sur la table N(0,1) de l’écart réduit en connaissant la valeur de α Avec f1= p 0 t Conclusion : Si f0 appartient à C, on rejette H0.On accepte si f0 f 1 , f 2 Exemple D’après les statistiques de l’état civil, la proportion des nouveaux nés de sexe masculin est de 51,5%. Sur un échantillon de 700 naissances après traitement contre la stérilité, on a enregistré 362 garçons et 338 filles. Le traitement a-t-il une influence significative sur le sexe des nouveaux nés au seuil de 5% ? Test2 : Test unilatéral gauche H 0 : p p0 H 0 : p p0 ou H 1 : p p0 H 1 : p p0 On cherche à tester l’hypothèse H0 La région critique est C : f0 < f1 17 p 0 (1 f ) n t est tel que P N (0,1) t 1 .Sa valeur est lu sur la table N(0,1) de la fonction intégrale en connaissant la valeur de α Avec f1= p 0 t Conclusion : Si f0 appartient à C, on rejette H0.On accepte si f0 > f1 Exemple Un laboratoire de recherche médicale met en place un vaccin qu’il affirme être efficace à 90%. Un test effectué sur 200 personnes vaccinées, 160 n’ont pas été atteintes. Ce vaccin est il réellement efficace au seuil de 5% ? Test3 : Test unilatéral droit H 0 : p p0 H 0 : p p0 ou H 1 : p p0 H 1 : p p0 On cherche à tester l’hypothèse H0 La région critique est C : f0 > f2 p 0 (1 f ) Avec f2 = p0 t n t est tel que P N (0,1) t 1 .Sa valeur est lu sur la table N(0,1) de la fonction intégrale en connaissant la valeur de α Conclusion : Si f0 appartient à C, on rejette H0.On accepte si f0 < f1 Exemple A partir de statistiques compilées dans le passé on sait que 40% des individus de la ville ALPHA achètent le riz de marque « Oncle BEN ». On vient de terminer une campagne publicitaire en faveur du riz « Oncle BEN ». Pour vérifier l’efficacité de cette campagne on interroge un échantillon de 500 personnes dans la ville 235 d’entre elles confirment avoir acheté le riz « Oncle BEN ». Peut on conclure que la campagne publicitaire a été efficace au seuil α = 0,05 C/ Test sur une Moyenne 1) Données du problème Soit m la moyenne inconnue de la population. Soit m 0 une valeur hypothétique particulière de la moyenne de la population. Soit x la moyenne observée dans un échantillon de taille n. 2) Procédure du test Deux cas sont à distinguer : 1ère Cas : Ecart type de la population(σ) connu : La variable aléatoire x n (la moyenne observée dans un échantillon de taille n) suit une loi 18 .On en déduit que la variable T = N m, n xn m suit une loi normale central et réduite n Test1 : Test bilatéral H 0 : m m0 H 1 : m m0 On cherche à tester l’hypothèse H0 La région critique est C : Avec m1= m0 t n x m1 , m2 m2 = m 0 t et n t est lu sur la table N(0,1) de l’écart réduit en connaissant la valeur de α Conclusion : Si m0 appartient à C, on rejette H0.On accepte si m0 m1 , m2 Exemple : Une machine automatique est réglée pour remplir des boites de masse moyenne 1,2 g avec un écart type de 0,063g. Il arrive parfois que la machine se dérègle. Cependant, même lorsqu’elle fonctionne convenablement, on observe des variations de masse autour de la moyenne. Sur un échantillon de 25 boites choisies au hasard, on a trouvé une masse moyenne de 1,23g et un écart type de 4 grammes. Peut-on considérer au seuil de 5%, que la machine est déréglée ? Test2 : Test unilatéral gauche H 0 : m m 0 H 0 : m m0 ou H 1 : m m0 H 1 : m m0 On cherche à tester l’hypothèse H0 La région critique est C : < m1 x Avec m1= m0 t n t est tel que P T t 1 .Sa valeur est lu sur la table N(0,1) de la fonction intégrale en connaissant la valeur de α Conclusion : Si x appartient à C, on rejette H0.On accepte si x > m1 Test3 : Test unilatéral droit H 0 : m m 0 H 0 : m m0 ou H 1 : m m0 H 1 : m m0 On cherche à tester l’hypothèse H0 La région critique est C : > m2 x 19 Avec m2 = m0 t n t est tel que P T t 1 .Sa valeur est lu sur la table N(0,1) de la fonction intégrale en connaissant la valeur de α Conclusion : Si x appartient à C, on rejette H0.On accepte si x < m2 2ième Cas : Ecart type de la population(σ) inconnu : xn m s La statistique T = converge vers la loi de student à (n-1) degrés de liberté. n 1 s s Ainsi m1= m0 t et m2 = m0 t n 1 n 1 Avec s l’écart type de l’échantillon Si n ≤ 30, t est lu sur la table de la loi de student à n-1 ddl (st (n-1)) en connaissant la valeur α. Si n > 30, t est lu sur la table de la loi N (0 ; 1) en connaissant la valeur α (car la loi de student converge vers la loi normale quand n est grand) Remarque : En dépit de ces quelques différences, la méthodologie du test demeure la même que précédemment selon qu’il s’agit respectivement d’un test bilatéral unilatéral gauche ou droit Exemple : Un contrôle effectué sur un échantillon de 100 câbles métallique indique une résistance moyenne à la rupture de 2,96 tonnes avec un écart type de 200 kg. Cette observation est-elle compatible au seuil de 5% avec la norme d’une résistance : 1) Egale à 3 tonnes ? 2) Supérieure à 3 tonnes ? II/ Tests de comparaisons A / Tests de comparaison de deux proportions 1) données du problème Soit p1 la proportion inconnue d’individus possédant un certain caractère A dans la populaton1 Soit p2 la proportion inconnue d’individus possédant ce même caractère dans la populaton2. On prend un échantillon1 d’individus dans la population1. On calcule la fréquence de k1 l’échantillon en posant f1 = n1 k1= le nombre d’individus possédant le caractère A dans l’échantillon 1 n1 = la taille de l’échantillon1 On prend un échantillon2 d’individus dans la population2. On calcule la fréquence de k2 l’échantillon en posant f2 = n2 k2= le nombre d’individus possédant le caractère A dans l’échantillon 2 n2 = la taille de l’échantillon 2. 20 2) procédure du test Test1 : Test bilatéral H 0 : p1 p2 On cherche à tester l’hypothèse H H1 : p1 p2 On calcule la valeur de l’expression t 0 0 f1 f 2 1 1 p (1 p ) n n 2 1 k1 k 2 Avec p n1 n2 Région critique : C = t 0 > t Avec t lue sur la table de la loi N(0,1) de l’écart réduit. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t0 ≤ t Exemple On envisage de comparer les proportions respectives du nombre d’accidents du travail par rapport à l’effectif total du personnel, survenu dans deux entreprise A et B au cours d’une période donnée. Sur un échantillon de100 personnes interrogées dans l’entreprise A, on note 9 accidents. Sur un échantillon de 400 personnes interrogées dans l’entreprise B, on note 56accidents. Peut-on considérer que la différence constatée entre les deux proportions est significative au seuil de signification de 5% ? Test2 : Test unilatéral gauche H 0 : p1 p2 H1 : p1 p2 On cherche à tester l’hypothèse H0 Région critique : C = t 0 ≤ - t Avec t lue sur la table de la loi N(0,1) de la fonction intégrale. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 >- t Test3 : Test unilatéral droit H 0 : p1 p2 H1 : p1 p2 On cherche à tester l’hypothèse H0 Région critique : C = t 0 ≥ t Avec t lue sur la table de la loi N(0,1) de la fonction intégrale. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 < t 21 B / Tests de comparaison de deux moyennes 1) Données du problème Soit X1 une variable aléatoire qui suit la loi N (m1 ; 12 ). Soit X2 une variable aléatoire qui suit la loi N (m2 ; 22 ). m1 et m2 sont les moyennes inconnues respectives de la population1 et 2 X 1 la moyenne calculée à partir de l’échantillon1 tiré de la popuation1 X 2 la moyenne calculée à partir de l’échantillon2 tiré de la popuation2 2) Procédure du test On distingue deux cas : Cas 1 : écart type de la population connu (on suppose dans ce cas que 1 2 ) Test1 : Test bilatéral H 0 : m1 m2 On cherche à tester l’hypothèse H H1 : m1 m2 On calcule la valeur de l’expression t 0 0 x1 x 2 n1 n 2 n1 n 2 Région critique : C = t 0 ≥ t Avec t lue sur la table de la loi N(0,1) de l’écart réduit. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 < t Exemple Deux machines remplissent des boites de thé dont l’écart type du poids est 0,045kg. La première pour un échantillon de 100 boites on trouve un poids moyen de 6,11kg La deuxième pour un échantillon de 200 boites on trouve un poids moyen de 6,14kg Le poids moyen des boites pour la première machine diffère –t- il significativement du poids moyen pour la deuxième machine au seuil α = 5%. Test2 : Test unilatéral gauche H 0 : m1 m2 H1 : m1 m2 On cherche à tester l’hypothèse H0 Région critique : C = t 0 ≤ - t Avec t lue sur la table de la loi N(0,1) de la fonction intégrale. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 >- t Test3 : Test unilatéral droit 22 H 0 : m1 m2 H1 : m1 m2 On cherche à tester l’hypothèse H0 Région critique : C = t 0 ≥ t Avec t lue sur la table de la loi N(0,1) de la fonction intégrale. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 < t Cas 2 : écart type de la population inconnu On estime l’écart type par S . 2 n1 s12 n2 s 22 S S est tell que n1 n2 1 2 1 2 avec s1 1 n1 ( xi1 X 1 ) 2 n1 1 s 22 1 n2 n2 (x i2 X 2 )2 1 2 2 s et s représentent respectivement les variances de l’échantillon 1 et 2 Test1 : Test bilatéral H 0 : m1 m2 On cherche à tester l’hypothèse H H1 : m1 m2 On calcule la valeur de l’expression t 0 0 x1 x 2 S n1 n 2 n1 n 2 Région critique : C = t 0 ≥ t avec Si n1 n2 2 30 t est lu sur la table de la loi de student à n-1 ddl (st (n-1)) en connaissant la valeur α. Si n1 n 2 2 30 t est lue sur la table de la loi N(0,1) de l’écart réduit en connaissant la valeur α. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 < t Exemple Deux machines remplissent des boites de thé. La première pour un échantillon de 100 boites on trouve un poids moyen de 6,11kg et un écart type de 0,04kg. La deuxième pour un échantillon de 200 boites on trouve un poids moyen de 6,14kg et un écart type de 0,05kg. Le poids moyen des boites pour la première machine diffère –t- il significativement du poids moyen pour la deuxième machine au seuil α = 5%. Test2 : Test unilatéral gauche H 0 : m1 m2 H1 : m1 m2 On cherche à tester l’hypothèse H0 23 Région critique : C = t 0 ≤ - t avec Si n1 n2 2 30 t est lu sur la table de la loi de student à n-1 ddl (st (n-1)) en connaissant la valeur α. Si n1 n 2 2 30 t est lue sur la table de la loi N(0,1) de l’écart réduit en connaissant la valeur α. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 >- t Test3 : Test unilatéral droit H 0 : m1 m2 H1 : m1 m2 On cherche à tester l’hypothèse H0 Région critique : C = t 0 ≥ t avec Si n1 n2 2 30 t est lu sur la table de la loi de student à n-1 ddl (st (n-1)) en connaissant la valeur α. Si n1 n 2 2 30 t est lue sur la table de la loi N(0,1) de l’écart réduit en connaissant la valeur α. Conclusion : Si t 0 appartient à C, on rejette H0.On accepte si t 0 < t 24