Université Jean Monnet L. P. Gestion de la Production Industrielle STATISTIQUES I. Théorie des tests statistiques : 1) L’idée : Pour contrôler une production, on peut contrôler un à un chacun des objets produits. En général on ne le fait pas, car cela revient très cher et, sur une production très importante, la tâche est suffisamment ennuyeuse pour qu’elle soit mal faite : il reste des défauts après contrôle. On préférera contrôler une partie des pièces et en déduire la qualité générale. On utilise alors des procédures de test, dont beaucoup sont normalisées. Le test va nous donner un résultat probable (donc avec un risque de se tromper !) peu coûteux. Mais il faut avoir une propriété à tester, appelée ici une hypothèse (par exemple : ‘plus de 99% des produits sont corrects’, ou bien ‘la longueur moyenne des tiges est 123 mm’). 2) Méthodologie des tests d’hypothèse : Il nous faut, au départ, une hypothèse à tester. Nous la mettrons toujours sous une forme précise (par exemple : ‘99% des produits sont corrects’ à la place de ‘plus de 99% des produits sont corrects’), de façon à pouvoir calculer des probabilités précises. On l’appelle classiquement H0. On lui associe généralement l’hypothèse alternative, notée H1. Il nous faut aussi savoir quelle confiance accorder au test. On donne en général un risque, plus précisément le risque de rejeter l’hypothèse, alors même qu’elle est vraie. Notons le r. On détermine ensuite une procédure et un nombre (ou une série de nombres), à calculer au cours du test (à partir des résultats du test). Notons x ce nombre. A l’aide de ces éléments, nous déterminerons, en appliquant les techniques de calcul de probabilités, une zone de valeurs pour le nombre x, zone dans laquelle il se trouve avec la probabilité 1-r si l’hypothèse H0 est vraie (donc H0 étant vraie, le risque que x ne se trouve pas dans la zone est r). Le test théorique peut alors être énoncé ( x est dans la zone : on accepte H0 ; x n’est pas dans la zone : on rejette H0). Par exemple, on veut tester le fait que 99% des pièces sont correctes en fin de fabrication, en prenant au hasard 10 pièces. L’hypothèse à tester est H0 : « 99 % des pièces sont bonnes », l’hypothèse alternative est « moins de 99% des pièces sont bonnes ». La procédure est « échantillon de 10 pièces », le nombre x sera le nombre de pièces incorrectes, parmi les 10. Enfin, on va prendre un seuil de risque de 5% (seuil très classique). Sachant que 1% des pièces sont incorrectes (hypothèse H0), on peut calculer la probabilité de trouver k pièces mauvaises parmi les 10 (cf. II) : k 0 1 2 3 4 5 6 7 8 9 10 Pr( X = k ) (%) 90,4 9,1 0,4 0,01 0 0 0 0 0 0 0 (les probabilités pour k supérieur ou égal à 4 ne sont pas parfaitement nulles, mais infimes : de 2 10-3 à 10-18 – dans ce tableau, X est la variable aléatoire « nombre de pièces incorrectes » qui modélise x). On cherche ensuite une zone de valeur dans laquelle on a au moins 95% de chance de trouver x. Le choix de cette zone sera guidé par une ‘heuristique’ (c. a d. une méthode qui guide la recherche). Ici, il est évident que nous serons inquiets si x est important, et satisfaits si x vaut 0. Donc on cherche un intervalle [0 , n], avec n le plus faible possible. Le tableau montre que [ 0 , 1 ] convient : x sera dans cet intervalle avec une probabilité au moins égale à 95% (en fait 99,5%), et on a un risque inférieur à 5% que x n’y soit pas alors même que le taux de pièces incorrectes est de 1%. 1 Le test théorique est donc : Compter le nombre x de pièces incorrectes dans l’échantillon. Si x vaut 0 ou 1 on accepte l’hypothèse, sinon on la rejette. Remarquons que le test est un peu faible, car on ne rejettera l’hypothèse (99% des pièces sont bonnes) que si l’on trouve 2 pièces incorrectes sur 10, c’est à dire 20% de pièces incorrectes. Pour améliorer l’efficacité du test, il faudrait prendre bien plus de 10 pièces dans l’échantillon. 3) Risques de première et de deuxième espèce : Le risque dont la valeur est donnée ( r ) est la probabilité de rejeter H 0 alors même qu’elle est vraie. On l’appelle le risque de première espèce. Il existe en effet un autre risque, le risque de deuxième espèce, qui est le risque d’accepter H0 alors que cette hypothèse est fausse. Ce risque est plus difficile à calculer, et n’est pas un nombre comme r, car la probabilité d’accepter H 0 alors qu’elle est fausse dépend du degré de fausseté de H0. Par exemple, dans l’exemple du 2), on peut calculer, pour chaque valeur de la proportion p de pièces correctes, la probabilité d’accepter H0 (c’est à dire de trouver 0 ou 1 pièce incorrecte). Par exemple, pour p = 0.98, on a les valeurs suivantes : k Pr( X = k ) (%) 0 81,7 1 16,7 Plus de 2 1,6 Et donc on a 98,4% de risque d’accepter H0 . Le risque de deuxième espèce est de 98,4% pour 2 fois trop de pièces défectueuses, ce qui nous montre que notre test est sans utilité puisqu’on est presque sûr d’accepter deux fois trop de pièces défectueuses. On peut définir une fonction ‘risque de deuxième espèce’, en fonction de p : R(p) = Pr( X = 0) + Pr( x = 1) = p9 ( 10 –9 p ) (où p varie de 0 à 1). Sa courbe est : Pour 80% de pièces correctes (donc 20% de déchets, la probabilité de réussite du test est proche de 0,4 (40%). Pour 60% de pièces correctes (donc 40% de déchets, la probabilité de réussite du test est proche de 0,05 (5%). et l’on voit que le risque de deuxième espèce ne devient faible que pour des valeurs de p de l’ordre de 0,6 (moins de 5% si p < 0,6058). Ce qui nous confirme que le test choisi n’est pas efficace. 4) Fonction de puissance d’un test : Dans la plupart des tests que nous rencontrerons, nous pourrons, comme ci – dessus, déterminer, en fonction d’un paramètre lié à l’hypothèse, une fonction ‘risque de deuxième espèce’, et son complémentaire, la fonction de puissance du test. Elle donne, pour chaque valeur du paramètre la probabilité d’acceptation de H0. Notre intérêt est qu’elle soit presque égale à 1 lorsque l’hypothèse est satisfaite et presque nulle lorsque l’hypothèse est fausse, donc qu’elle varie abruptement dans la zone où l’on passe de ‘H0 est vraie’ à ‘H0 est fausse’. 2 Par exemple, pour contrôler le taux de moins de 1% de pièces défectueuses, on utilisera un échantillon de 100 pièces .Par la même méthode que ci dessus on trouve que le test est : si le nombre de pièces défectueuses k est inférieur ou égal à 3, on accepte l’hypothèse (donc on considère les pièces comme acceptables en général) ; si k>3 on rejette H0, donc on décide qu’il y a trop de pièces défectueuses (Le seuil de risque est toujours de 5%). La fonction de puissance a comme courbe : On voit qu’on passe assez rapidement de 0 à 100% de réussite au test, et que ce test n’a aucune chance de réussir lorsque p vaut 0,8. Dans le test avec 10 pièces, on avait encore 40% de chances de réussites pour p = 0,8. Un test sur 200 pièces donnera une courbe encore plus abrupte, et restant pratiquement à 0 plus longtemps. 5) Le test du Khi – deux : C’est un test d’adéquation d’une répartition de population statistique à un modèle probabiliste. Autrement dit, l’hypothèse testée est que la population considérée a une répartition en classes analogue à un tirage au hasard d’une variable aléatoire suivant la loi modèle. Par exemple, le nombre d’appel au service de maintenance d’une entreprise, jour par jour, a été recensé, et on a trouvé : Nombre d’appels 0 1 2 3 4 5 6 Plus de 6 Nombre de jours 12 45 51 32 16 10 6 11 Une des modélisations classique des événements peu fréquents se fait par la loi de Poisson. La moyenne étant 2,83 appels, on sera tenté de modéliser par la loi P( 2,83). Pour tester cette hypothèse, nous répartissons les 183 jours suivant la loi de poisson (nombre théorique = 183 Pr(X=nombre d’appels ) : Nombre d’appels Nombre théorique 0 10,9 1 30,9 2 43,7 3 41,2 4 29,2 5 16,5 6 7,8 Plus de 6 2,8 Les nombres sont différents, mais une répartition aléatoire suit souvent de très loin le modèle. Il faut estimer si la différence est anormale ou pas. Pour cela on calcule le nombre : 2 2 2 2 2 2 2 12 10 , 9 45 30 , 9 51 43 , 7 32 41 , 2 16 29 , 2 10 16 , 5 6 7 , 8 1 2 , 8 2 10 , 9 30 , 9 43 , 7 41 , 2 29 , 2 16 , 5 7 , 8 2 , 8 On mesure ainsi un écart entre la valeur modèle et la valeur réelle, élevé au carré pour donner de l’importance aux grands écarts, mais divisé par la valeur théorique pour équilibrer (un écart fort sur une classe importante est moins significatif que si la classe a un effectif théorique faible). On trouve 2 = 42,78. Noter que l’essentiel de la valeur de 2 est donnée par la classe plus de 6. Le nombre 42,78 est ensuite comparé à un nombre test fonction du nombre de classes étudiées (ici 8, donc 7 ‘degrés de liberté’, puisque la connaissance de 7 des nombres théoriques permet de trouver le 8e, car le total 183 est connu) et du seuil de risque choisi (prenons le classique 5%). Les tables de la loi du 2 donnent 2théorique = 14,06. 42,78 étant supérieur, le test échoue, et on peut conclure que le modèle avec la loi de Poisson ne convient pas. Le test se construit ainsi : On considère l’hypothèse H0 : ‘Les données recueillies correspondent à la réalisation d’une variable aléatoire connue’. L’hypothèse alternative est H 1 : ‘Les 3 données recueillies ne correspondent pas’. Notons r le risque. On répartit les données en différentes classes, en comptabilisant le nombre de cas où les données sont dans chaque classe. Une réalisation d’un modèle donné donne des effectifs de classe qui différent légèrement des valeurs théoriques (ne serait – ce que parce que les effectifs de classes sont des entiers). Le calcul du nombre : effectif réel effectif théorique effectif théorique 2 2 nous donne une idée de la ‘distance’ entre la réalisation et le modèle. Si les données sont très proches du modèle, le 2 sera faible, et si elles sont notablement différentes, le 2 sera fort. On s’attend donc à avoir 2 faible lorsque H0 est vraie. On prend alors comme zone d’acceptation de l’hypothèse un intervalle [ 0 , a ] dans lequel 2 sera avec la probabilité 1 – r. Sous l’hypothèse H0 , la loi de 2 est complexe, mais s’approxime très bien lorsque les classes n’ont pas des effectifs trop faibles (on considère que 5 est un minimum). La loi utilisée est la loi du 2 à ( n – p ) degrés de liberté où n est le nombre de classes, et p le nombre d’effectifs théoriques que l’on peut calculer en connaissant les autres. On donne généralement la loi du 2 par des tables qui donnent, pour un risque r et un nombre n de degrés de libertés donnés la valeur a telle que Pr{ 2n > a } = r. On a ainsi la limite de l’intervalle d’acceptation, et on peut appliquer le test : 2calculé < a : Le test réussit ; Le modèle peut être utilisé. 2calculé > a : Le test échoue ; Avec le risque r de se tromper, on peut affirmer que le modèle ne convient pas Attention : L’échec du test ne permet pas d’affirmer avec certitude que le modèle ne s’applique pas (il existe des réalisations extrêmes d’une loi donnée). Le fait qu’il réussisse ne prouve pas que le modèle est sûrement le bon (il a pu réussir alors que ce n’était pas cette loi qui convenait). Mais en général on peut s’appuyer sur ce test pour confirmer une intuition, ou, comme dans l’exemple ci – dessus, rejeter un modèle à priori. Si les classes sont trop petites (en particulier pour des classes vides), on regroupe plusieurs classes, de façon a obtenir des effectifs supérieurs à 5. Dans l’exemple ci – dessus, il convient de regrouper les classes 6 et plus de 6, et le 2théorique devient (pour 6 ddl) 12,59 alors que le 2calculé vaut 22,21. La conclusion est la même, mais la pratique est plus saine. De nombreux logiciels calculent, pour des tables à deux dimensions, des seuils de signification (par exemple dans les tris croisés des logiciels de statistiques). Le test est celui de l’indépendance des données, et on souhaite montrer qu’elle est fausse, donc que le test échoue. Ils ne donnent pas de conclusion de test (faute d’avoir le seuil de risque), mais donnent une probabilité annoncée comme un seuil de confiance. En fait, il s’agit du seuil de confiance ( 1 – r ) pour lequel la valeur test a est juste égale au résultat 2calculé . La méthode est donc à interpréter avec précaution, mais il est facile de voir qu’un seuil de confiance très proche de 100% donne une bonne raison de penser que les variables sont dépendantes. II. Théorie de l’échantillonnage : 1) L’idée : Dans de nombreux cas il est impossible d’avoir un résultat statistique exact ; soit la population n’est pas accessible (répartition des poissons dans le lac Léman), soit elle évolue dans le temps (qualité d’une production industrielle), soit le recensement complet est impossible (étrangers en situation irrégulière) ou illusoire (personnes sans domicile fixe). On ne testera alors qu’une partie La théorie de l’échantillonnage montre qu’une analyse d’une partie bien choisie de la population peut donner de bons résultats. Une difficulté existe cependant : le choix de l’échantillon. La façon de choisir les individus de l’échantillon peut influer sur le résultat (faire un sondage sur la santé des français par téléphone donne un résultat de meilleure santé que dans la réalité car les personnes très malades sont à l’hôpital ; On 4 dit que l’échantillon est biaisé). Nous ne traiterons que des échantillons pris au hasard dans la population (la façon de choisir est hors de notre étude). Nous allons étudier différents cas (proportion dans une population, moyenne d’un caractère, etc.). Pour cela nous considérerons d’abord la population parfaitement connue, et nous en déduirons la façon dont se comportent les échantillons (qui peuvent varier dans de grandes proportions). Dans un deuxième temps, nous essaierons de prédire, à partir de la connaissance d’un échantillon, les caractéristiques inconnues d’une population. 2) Estimation d’une proportion : On teste des individus. S’ils répondent à un ou plusieurs critères (dimensions, poids, aspect, etc. ), ils sont conformes. Attention, dans ce cadre, le mot ‘conforme’ n’a pas le sens habituel, il veut simplement dire ‘qui correspond au critère donné’. Nous allons d’abord étudier ce qui se passe dans les échantillons. 2 . 1 ) Cas général : Dans une population d’effectif N, P individus sont conformes. On prend un échantillon d’effectif n et on s’intéresse à la variable aléatoire Q : nombre d’individus conformes dans l’échantillon. On a : k n k C C P N P P (Q ) k ( Loi hypergéométrique ) n C N Cette loi est très peu maniable, sauf si N est petit (ça arrive!). Elle se simplifie par approximation lorsque n est petit par rapport à N. Retenons cependant que : P Nn Qn np (où p est la proportion d’individus conformes) et V(Q) = np 1p N N 1 On montre que, lorsque N est grand, et grand par rapport à n, la loi hypergéométrique est proche d’une loi binomiale. On retrouve alors les valeurs caractéristiques Q n p et V(Q) = n p ( 1 – p ). 2 . 2 ) Echantillon petit par rapport à la population : Lorsque N est très grand par rapport à n (classiquement N > 10 n ) et n n’est pas trop réduit, on peut approximer la loi de probabilité de Q par une loi binomiale B( n , p ), où p est la proportion d’individus conformes de la population : P P ( Q k ) B( n, p )( k ) Cnk p k (1 p) nk avec p N Par exemple, si 35% des français possèdent une voiture de marque française, sur 20 personnes interrogées au hasard, le nombre de celles qui ont une voiture française pourra varier de 0 à 20, avec les probabilités suivantes : Nombre 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Proba 0 0,2 1 3,2 7,4 12,7 17,1 18,4 16,1 11,6 6,9 3,4 1,4 0,4 0,1 0 0 0 0 0 0 (en %) Les probabilités marquées 0 ne sont pas strictement nulles, elles sont inférieures à 0,05%. Ces cas sont donc très improbables. On voit que les valeurs possibles de Q sont nombreuses, même si l’on ne considère que les relativement probables (de 4 à 10, la probabilité dépasse 5%, une chance sur 20). Il est important de se souvenir que les valeurs possibles du nombre de conformes dans l’échantillon peuvent être très variables (C’est ce que l’on appelle la dispersion d’échantillonnage) 5 Si, de plus, n est grand, la loi binomiale est peu utilisable. On l’approxime à son tour par: np k . np ( Q k ) e - Une loi de Poisson de paramètre np si np est petit : P k ! - Dans le cas général, une loi de Laplace - Gauss de moyenne n p et de variance n p ( 1 – p ). Dans ce cas, les probabilités P(Q=k) sont considérées comme sans intérêt (si on a besoin de les calculer, on prendra P( k-0,5<Q<k+0,5) ) et on calcule plutôt des probabilités du genre P( Q < a ) ou P( a < Q < b ). Par exemple, si 20% de la production est à rejeter ( attention, ici, la conformité est d’être à rejeter ! ), sur un échantillon de 100 pièces, on a : n p = 20 n p ( 1 – p) = 16 ( = 4) La loi de la variable aléatoire Q (nombre de pièces à rejeter — loi binomiale B( 100 ; 0,2 ) ) s’approxime par la loi N(20,4). Q 20 avec Q* on obtient : 4 10 20 30 20 P (10 Q 30) P Q* (2 ,5) ( 2,5) 0,988 4 4 On a donc 98,8% de chances pour que le nombre de pièces à rejeter de l’échantillon soit compris entre 10 et 30. Une remarque utile : p( 1-p ) 0,25. Cette majoration, qui donne un écart - type 0,5 n , est aussi une bonne approximation de lorsque p est au voisinage de 0,5. 2 . 3 ) Estimation d’une proportion : Prenons maintenant le problème à l’envers : On ne connaît pas le nombre P d’individus conformes dans la population (ni même éventuellement la taille N de la population). Mais on peut tester un échantillon, qui va nous donner un nombre k0 de conformes (k0 est la valeur de k obtenue réellement, la réalisation de la variable aléatoire Q). On va s’en servir pour estimer la proportion p d’individus conformes. Pour cela, étudions, pour chaque proportion possible, la probabilité que Q soit k0 k0 égal à k0. On montre que cette probabilité est maximale pour p . On dit alors que est n n l’estimateur du maximum de vraisemblance pour p. Un estimateur pour un nombre inconnu est un nombre obtenu par une méthode donnée, et dont on peut espérer qu’il ne s’éloigne pas trop de la valeur inconnue. C’est en général la réalisation d’une variable aléatoire. L’estimateur est sans biais si la variable aléatoire a pour moyenne le nombre inconnu. k0 Q Q Notre estimateur est sans biais, car p n n n 2 . 4 ) Intervalle de confiance : Il est impossible de connaître le nombre d’individus conformes de l’échantillon. A défaut, on se contenterait d’un intervalle de valeurs. Cependant, le seul intervalle dont on est sûr ( [ 0 , n ] ), n’a aucun intérêt. Pour avoir un renseignement utile, on se contente d’un intervalle dans lequel on est sûr à 50%, ou à 90 %, ou à 99%, etc. d’avoir le nombre d’individus conformes. On parle alors d’intervalle de confiance à t%, et de risque d’erreur à ( 100-t )%. Par exemple, pour la production citée au 2 . 2, l’intervalle [ 10 , 30 ] est un intervalle de confiance à 98,8% sur le nombre de pièces à rejeter : On a 98,8 chances sur 100 pour que le nombre soit compris entre 10 et 30, et un risque de 1,2% de se tromper ( donc que le nombre de pièces à rejeter soit inférieur à 10, ou supérieur à 30 ). En pratique, la population est mal connue, et nous chercherons plutôt un intervalle de confiance sur la proportion (inconnue) p d’individus conformes à partir de la connaissance d’un échantillon. 6 2 . 5 ) Estimation par intervalle de confiance : Un inconvénient d’un estimateur simple est de ne pas donner de garantie sur sa proximité à la vraie valeur (Pour les possesseurs de voitures françaises — voir le 2 . 2, premier exemple, les valeurs possibles de k – pour 35% de possesseurs– peuvent facilement être 5 ou 10, ce qui donne les estimations 25% ou 50%). On améliorera la réponse en donnant un intervalle de confiance sur p à partir de la connaissance de k0. Voyons d’abord le cas où N est grand par rapport à n, et où n lui – même est grand (donc on peut utiliser une loi Normale). Si p est connu, on obtient facilement des intervalles de confiances sur k Qnp en utilisant les propriétés de la loi Normale : np(1 p) est une variable Normale centrée réduite Q np t t en prenant t dans la table de la loi Normale et on a la probabilité t que np ( 1 p ) 1t . Par exemple, pour t = 0,95, on choisira t tel que 2 * centrée réduite de façon que PX t * PX* 0 ,025 0 ,975 , soit PX . On obtient t = 1,96. t t t t p ( 1 p ) p ( 1 p ) p . Le problème résiduel est le p(1-p) qui reste sous la n n n n ( 1 p ) np t ( 1 p ) 0 t np 0 t np On en déduit que t , soit en divisant par n, 0 0 t t racine carrée. Lorsque p n’est pas très faible ou très proche de 1, on peut, sans trop perdre de précision, majorer par 0,25 le nombre p(1-p). On obtient alors : t0 t t p 0 t n 2n n 2n Par exemple, dans le contrôle d’une production, on examine 100 pièces produites, et on trouve 20 pièces ayant un défaut. L’intervalle de confiance à 95% sur la proportion de pièces ayant t 20 1 , 96 20 1 , 96 0t t 0t , , 0 , 102 ; 0 , 298 un défaut est . On n n 100 100 2 n 2 n 2 100 2 100 estimera donc à 20% le pourcentages de pièces défectueuses, à 10% près (9,98 arrondi à 10), avec un risque d’erreur de 5%. A noter : si l’on avait testé 400 pièces au lieu de 100, l’intervalle aurait été réduit de moitié. Il y a donc avantage à augmenter la taille de l’échantillon. Dans le cas où n est petit, l’intervalle ci – dessus n’est plus toujours un intervalle de confiance à t%, mais suffit souvent pour une estimation saine. Par contre, si N, l’effectif de la population est faible, cette méthode ne donne plus rien d’utile. 3) Estimation d’une moyenne, d’une variance : 3.1 ) Cas général : On mesure un caractère X de la population. On suppose que ce caractère suit une loi quelconque, de moyenne m et d’écart - type . La mesure des pièces d’un échantillon donne les x x x . . x 1 2 3 n résultats x1 , x2 , x3, . . , xn . On va étudier la variable aléatoire x en n 2 ( x ) m , V ( x ) calculant sa moyenne et sa variance. On trouve: E . Donc la moyenne de n l’échantillon a la même moyenne que la population, et une variance inversement proportionnelle à la 7 taille n de l’échantillon. Donc la moyenne de l’échantillon se rapproche de celle de la population lorsque la taille de l ’échantillon augmente. Donc x est un estimateur (sans biais car sa moyenne est m ) de la moyenne de la population. Par contre la variance de l’échantillon est un estimateur biaisé de la variance de la population ( il y a en général une plus faible dispersion dans un échantillon que dans la population xi x 2 totale ). On montre qu’ un estimateur sans biais de est s 2 2 ( avec n-1 au lieu de n n1 n fois la variance de l’échantillon ( On l’appelle variance d’échantillon) . L’écart n 1 type d’échantillon est noté n-1 ou s (attention, c’est un estimateur biaisé de . A retenir estimateur de m : x ), c’est à dire x x x x n i i 2 estimateur de 2 : s 2 2 n 1 n 1 n On supposera dans la suite que ce caractère suit une loi Normale de moyenne m et d’écart - type ( c’est très souvent le cas dans les processus de fabrication ). Alors x suit une loi Normale, ) . Notons que, pour un grand échantillon, même si la loi de X n’est pas la loi la loi N(m, n Normale, la loi de x est encore approximativement N(m, n ). 3.2 ) Intervalle de confiance sur la moyenne : 3.2.1 ) On connaît l’écart - type : Ce cas est assez fréquent, car dans de nombreux cas la moyenne évolue (dérive, usure, etc.), sans que la dispersion change notablement. On est amené alors à rechercher la vraie valeur de la moyenne, connaissant l’écart - type. Un intervalle de confiance à t% sur x est donné par le paramètre t , donné par la table de ,m m t valeurs de la loi Normale (voir le paragraphe 2 . 5). C’est n t . On en déduit ( n c’est notre but!), un intervalle de confiance à t% sur la moyenne m de la population : ,x x t t n n Quelques valeurs classiques: t (%) 90 95 1,645 1,96 t 99 2,576 99,87 3 99,99 3,8 En pratique, pour 90%, 95% et 99%, on prend souvent 1.6, 2 et 2.6 comme valeurs de t. 3.2.2 ) On ne connaît pas l’écart - type : On avait, dans le paragraphe précédent, utilisé le fait que x suit une loi connue, donc que xm suit la loi Normale centrée réduite. Ce qui nous a donné la valeur de t. Mais on ne connaît n plus , et on peut tout au plus l’estimer à l’aide de s ( n-1 – voir paragraphe 3 . 1). On est amené à 8 xm , qui est une loi de Student à n-1 degrés de liberté. Lorsque n est grand, s n cette loi se rapproche d’une loi Normale centrée réduite. Donc si n est grand ( en pratique au-delà de 100 ), on estimera à l’aide de l’écart - type de l’échantillon ( éventuellement avec n-1 si n est un peu faible ), et on appliquera la méthode précédente. Par contre, si n est faible, on utilisera, à la place des t , donnés par la loi Normale, les valeurs données par la loi de Student à ( n - 1 ) degrés de liberté. Les tables donnent en général les ‘queues de distribution’, c’est à dire, pour un nombre de d. d. l. donné, les valeurs de t telles que soit P( X > t ) = t%, soit P( X < t ) = t%. Pour un intervalle de confiance à 95%, donc avec 5% à répartir en dehors de l’intervalle (2,5% avant, 2,5% après), on prendra t = 2,5 dans le premier cas, t = 97,5 dans le deuxième. étudier la loi de Exemple : On teste un échantillon au hasard de 10 pièces, et on obtient les longueurs suivantes ( en mm ) :20.4, 21.1, 20.5, 20.7, 19.9, 20.5, 20.8, 21, 20.2, 20.9. La moyenne de l’échantillon est 20.6 mm, l’écart – type s = 0.374 donne une estimation de l’écart – type de l’ensemble des pièces. La loi de Student à 9 degrés de liberté (10 - 1 ) donne 0.975 = 2.26. Donc un intervalle de confiance sur la moyenne des longueurs est : 0 , 374 0 , 374 20 , 6 2 , 26; 20 , 6 2 , 26 = [ 20,33 ; 20.87 ] 10 10 Si par contre l’écart - type sur la production avait été connu, et égal encore à 0,374 mm, on 0 , 374 0 , 374 20 , 6 1 , 96; 20 , 6 1 , 96 aurait obtenu = [ 20,37 ; 20.83 ]. On voit que la 10 10 méconnaissance de l’écart – type a augmenté la taille de l’intervalle de confiance (En plus de la méconnaissance de la vraie valeur moyenne, on ne connaît pas la dispersion). 4) Pour aller plus loin : Bien d’autres outils ont été crées par les statisticiens, pour analyser la dispersion (variance) d’une population, comparer deux moyennes ou deux variances, estimer la dispersion à partir de l’étendue (valeur maxi - valeur mini), etc. Vous trouverez dans les ouvrages de statistiques les méthodes utilisées. Je vous recommande, pour un travail efficace en entreprise les normes AFNOR de statistiques, bien documentées pour l’utilisation. 9