ce que vous devez savoir - Les

publicité
Université Jean Monnet
L. P. Gestion de la Production Industrielle
STATISTIQUES
I. Théorie des tests statistiques :
1) L’idée :
Pour contrôler une production, on peut contrôler un à un chacun des objets produits. En
général on ne le fait pas, car cela revient très cher et, sur une production très importante, la tâche est
suffisamment ennuyeuse pour qu’elle soit mal faite : il reste des défauts après contrôle. On préférera
contrôler une partie des pièces et en déduire la qualité générale. On utilise alors des procédures de
test, dont beaucoup sont normalisées.
Le test va nous donner un résultat probable (donc avec un risque de se tromper !) peu coûteux.
Mais il faut avoir une propriété à tester, appelée ici une hypothèse (par exemple : ‘plus de 99% des
produits sont corrects’, ou bien ‘la longueur moyenne des tiges est 123 mm’).
2) Méthodologie des tests d’hypothèse :
Il nous faut, au départ, une hypothèse à tester. Nous la mettrons toujours sous une forme
précise (par exemple : ‘99% des produits sont corrects’ à la place de ‘plus de 99% des produits sont
corrects’), de façon à pouvoir calculer des probabilités précises. On l’appelle classiquement H0. On lui
associe généralement l’hypothèse alternative, notée H1.
Il nous faut aussi savoir quelle confiance accorder au test. On donne en général un risque,
plus précisément le risque de rejeter l’hypothèse, alors même qu’elle est vraie. Notons le r.
On détermine ensuite une procédure et un nombre (ou une série de nombres), à calculer au
cours du test (à partir des résultats du test). Notons x ce nombre.
A l’aide de ces éléments, nous déterminerons, en appliquant les techniques de calcul de
probabilités, une zone de valeurs pour le nombre x, zone dans laquelle il se trouve avec la probabilité
1-r si l’hypothèse H0 est vraie (donc H0 étant vraie, le risque que x ne se trouve pas dans la zone est r).
Le test théorique peut alors être énoncé ( x est dans la zone : on accepte H0 ; x n’est pas dans la zone :
on rejette H0).
Par exemple, on veut tester le fait que 99% des pièces sont correctes en fin de fabrication, en
prenant au hasard 10 pièces. L’hypothèse à tester est H0 : « 99 % des pièces sont bonnes »,
l’hypothèse alternative est « moins de 99% des pièces sont bonnes ». La procédure est « échantillon
de 10 pièces », le nombre x sera le nombre de pièces incorrectes, parmi les 10. Enfin, on va prendre
un seuil de risque de 5% (seuil très classique). Sachant que 1% des pièces sont incorrectes (hypothèse
H0), on peut calculer la probabilité de trouver k pièces mauvaises parmi les 10 (cf. II) :
k
0
1
2
3
4
5
6
7
8
9
10
Pr( X = k ) (%)
90,4 9,1
0,4 0,01
0
0
0
0
0
0
0
(les probabilités pour k supérieur ou égal à 4 ne sont pas parfaitement nulles, mais infimes : de 2 10-3
à 10-18 – dans ce tableau, X est la variable aléatoire « nombre de pièces incorrectes » qui modélise x).
On cherche ensuite une zone de valeur dans laquelle on a au moins 95% de chance de trouver x.
Le choix de cette zone sera guidé par une ‘heuristique’ (c. a d. une méthode qui guide la recherche).
Ici, il est évident que nous serons inquiets si x est important, et satisfaits si x vaut 0. Donc on cherche
un intervalle [0 , n], avec n le plus faible possible. Le tableau montre que [ 0 , 1 ] convient : x sera
dans cet intervalle avec une probabilité au moins égale à 95% (en fait 99,5%), et on a un risque
inférieur à 5% que x n’y soit pas alors même que le taux de pièces incorrectes est de 1%.
1
Le test théorique est donc : Compter le nombre x de pièces incorrectes dans l’échantillon. Si x
vaut 0 ou 1 on accepte l’hypothèse, sinon on la rejette.
Remarquons que le test est un peu faible, car on ne rejettera l’hypothèse (99% des pièces sont
bonnes) que si l’on trouve 2 pièces incorrectes sur 10, c’est à dire 20% de pièces incorrectes. Pour
améliorer l’efficacité du test, il faudrait prendre bien plus de 10 pièces dans l’échantillon.
3) Risques de première et de deuxième espèce :
Le risque dont la valeur est donnée ( r ) est la probabilité de rejeter H 0 alors même qu’elle est
vraie. On l’appelle le risque de première espèce. Il existe en effet un autre risque, le risque de
deuxième espèce, qui est le risque d’accepter H0 alors que cette hypothèse est fausse. Ce risque est
plus difficile à calculer, et n’est pas un nombre comme r, car la probabilité d’accepter H 0 alors qu’elle
est fausse dépend du degré de fausseté de H0.
Par exemple, dans l’exemple du 2), on peut calculer, pour chaque valeur de la proportion p
de pièces correctes, la probabilité d’accepter H0 (c’est à dire de trouver 0 ou 1 pièce incorrecte). Par
exemple, pour p = 0.98, on a les valeurs suivantes :
k
Pr( X = k ) (%)
0
81,7
1
16,7
Plus de 2
1,6
Et donc on a 98,4% de risque d’accepter H0 . Le risque de deuxième espèce est de 98,4% pour 2
fois trop de pièces défectueuses, ce qui nous montre que notre test est sans utilité puisqu’on est
presque sûr d’accepter deux fois trop de pièces défectueuses.
On peut définir une fonction ‘risque de deuxième espèce’, en fonction de p : R(p) = Pr( X = 0) +
Pr( x = 1) = p9 ( 10 –9 p ) (où p varie de 0 à 1). Sa courbe est :
Pour 80% de pièces correctes (donc 20% de
déchets, la probabilité de réussite du test est
proche de 0,4 (40%).
Pour 60% de pièces correctes (donc 40% de
déchets, la probabilité de réussite du test est
proche de 0,05 (5%).
et l’on voit que le risque de deuxième espèce ne devient faible que pour des valeurs de p de l’ordre de
0,6 (moins de 5% si p < 0,6058). Ce qui nous confirme que le test choisi n’est pas efficace.
4) Fonction de puissance d’un test :
Dans la plupart des tests que nous rencontrerons, nous pourrons, comme ci – dessus,
déterminer, en fonction d’un paramètre lié à l’hypothèse, une fonction ‘risque de deuxième espèce’, et
son complémentaire, la fonction de puissance du test. Elle donne, pour chaque valeur du paramètre la
probabilité d’acceptation de H0. Notre intérêt est qu’elle soit presque égale à 1 lorsque l’hypothèse est
satisfaite et presque nulle lorsque l’hypothèse est fausse, donc qu’elle varie abruptement dans la zone
où l’on passe de ‘H0 est vraie’ à ‘H0 est fausse’.
2
Par exemple, pour contrôler le taux de moins de 1% de pièces défectueuses, on utilisera un
échantillon de 100 pièces .Par la même méthode que ci dessus on trouve que le test est : si le nombre
de pièces défectueuses k est inférieur ou égal à 3, on accepte l’hypothèse (donc on considère les
pièces comme acceptables en général) ; si k>3 on rejette H0, donc on décide qu’il y a trop de pièces
défectueuses (Le seuil de risque est toujours de 5%). La fonction de puissance a comme courbe :
On voit qu’on passe assez rapidement de
0 à 100% de réussite au test, et que ce
test n’a aucune chance de réussir
lorsque p vaut 0,8. Dans le test avec 10
pièces, on avait encore 40% de chances
de réussites pour p = 0,8.
Un test sur 200 pièces donnera une courbe encore plus abrupte, et restant pratiquement à 0
plus longtemps.
5) Le test du Khi – deux :
C’est un test d’adéquation d’une répartition de population statistique à un modèle
probabiliste. Autrement dit, l’hypothèse testée est que la population considérée a une répartition en
classes analogue à un tirage au hasard d’une variable aléatoire suivant la loi modèle.
Par exemple, le nombre d’appel au service de maintenance d’une entreprise, jour par jour, a
été recensé, et on a trouvé :
Nombre d’appels
0
1
2
3
4
5
6
Plus de 6
Nombre de jours
12
45
51
32
16
10
6
11
Une des modélisations classique des événements peu fréquents se fait par la loi de Poisson.
La moyenne étant 2,83 appels, on sera tenté de modéliser par la loi P( 2,83). Pour tester cette
hypothèse, nous répartissons les 183 jours suivant la loi de poisson (nombre théorique = 183 
Pr(X=nombre d’appels ) :
Nombre d’appels
Nombre théorique
0
10,9
1
30,9
2
43,7
3
41,2
4
29,2
5
16,5
6
7,8
Plus de 6
2,8

Les nombres sont différents, mais une répartition aléatoire suit souvent de très loin le modèle.
Il faut estimer si la différence est anormale ou pas. Pour cela on calcule le nombre :









2
2
2
2
2
2 2
12

10
,
9
45

30
,
9
51

43
,
7
32

41
,
2
16

29
,
2
10

16
,
5
6

7
,
8
1

2
,
8
2








10
,
9
30
,
9
43
,
7
41
,
2
29
,
2
16
,
5
7
,
8
2
,
8
On mesure ainsi un écart entre la valeur modèle et la valeur réelle, élevé au carré pour
donner de l’importance aux grands écarts, mais divisé par la valeur théorique pour équilibrer (un
écart fort sur une classe importante est moins significatif que si la classe a un effectif théorique
faible). On trouve 2 = 42,78. Noter que l’essentiel de la valeur de 2 est donnée par la classe plus de
6.
Le nombre 42,78 est ensuite comparé à un nombre test fonction du nombre de classes étudiées (ici 8,
donc 7 ‘degrés de liberté’, puisque la connaissance de 7 des nombres théoriques permet de trouver le
8e, car le total 183 est connu) et du seuil de risque choisi (prenons le classique 5%). Les tables de la
loi du 2 donnent 2théorique = 14,06. 42,78 étant supérieur, le test échoue, et on peut conclure que le
modèle avec la loi de Poisson ne convient pas.
Le test se construit ainsi :
On considère l’hypothèse H0 : ‘Les données recueillies
correspondent à la réalisation d’une variable aléatoire connue’. L’hypothèse alternative est H 1 : ‘Les
3
données recueillies ne correspondent pas’. Notons r le risque. On répartit les données en différentes
classes, en comptabilisant le nombre de cas où les données sont dans chaque classe. Une réalisation
d’un modèle donné donne des effectifs de classe qui différent légèrement des valeurs théoriques (ne
serait – ce que parce que les effectifs de classes sont des entiers). Le calcul du nombre :


effectif
réel

effectif
théorique



effectif
théorique
2
2
nous donne une idée de la ‘distance’ entre la réalisation et le modèle. Si les données sont très proches
du modèle, le 2 sera faible, et si elles sont notablement différentes, le 2 sera fort. On s’attend donc à
avoir 2 faible lorsque H0 est vraie. On prend alors comme zone d’acceptation de l’hypothèse un
intervalle [ 0 , a ] dans lequel 2 sera avec la probabilité 1 – r.
Sous l’hypothèse H0 , la loi de 2 est complexe, mais s’approxime très bien lorsque les classes n’ont
pas des effectifs trop faibles (on considère que 5 est un minimum). La loi utilisée est la loi du 2 à
( n – p ) degrés de liberté où n est le nombre de classes, et p le nombre d’effectifs théoriques que l’on
peut calculer en connaissant les autres. On donne généralement la loi du 2 par des tables qui donnent,
pour un risque r et un nombre n de degrés de libertés donnés la valeur a telle que Pr{ 2n > a } = r. On
a ainsi la limite de l’intervalle d’acceptation, et on peut appliquer le test :
 2calculé < a : Le test réussit ; Le modèle peut être utilisé.
 2calculé > a : Le test échoue ; Avec le risque r de se tromper, on peut affirmer que le modèle ne
convient pas
Attention :
 L’échec du test ne permet pas d’affirmer avec certitude que le modèle ne s’applique pas (il
existe des réalisations extrêmes d’une loi donnée). Le fait qu’il réussisse ne prouve pas que le
modèle est sûrement le bon (il a pu réussir alors que ce n’était pas cette loi qui convenait).
Mais en général on peut s’appuyer sur ce test pour confirmer une intuition, ou, comme dans
l’exemple ci – dessus, rejeter un modèle à priori.
 Si les classes sont trop petites (en particulier pour des classes vides), on regroupe plusieurs
classes, de façon a obtenir des effectifs supérieurs à 5. Dans l’exemple ci – dessus, il convient
de regrouper les classes 6 et plus de 6, et le 2théorique devient (pour 6 ddl) 12,59 alors que le
2calculé vaut 22,21. La conclusion est la même, mais la pratique est plus saine.
 De nombreux logiciels calculent, pour des tables à deux dimensions, des seuils de
signification (par exemple dans les tris croisés des logiciels de statistiques). Le test est celui
de l’indépendance des données, et on souhaite montrer qu’elle est fausse, donc que le test
échoue. Ils ne donnent pas de conclusion de test (faute d’avoir le seuil de risque), mais
donnent une probabilité annoncée comme un seuil de confiance. En fait, il s’agit du seuil de
confiance ( 1 – r ) pour lequel la valeur test a est juste égale au résultat 2calculé . La méthode
est donc à interpréter avec précaution, mais il est facile de voir qu’un seuil de confiance très
proche de 100% donne une bonne raison de penser que les variables sont dépendantes.
II. Théorie de l’échantillonnage :
1) L’idée :
Dans de nombreux cas il est impossible d’avoir un résultat statistique exact ; soit la
population n’est pas accessible (répartition des poissons dans le lac Léman), soit elle évolue dans le
temps (qualité d’une production industrielle), soit le recensement complet est impossible (étrangers en
situation irrégulière) ou illusoire (personnes sans domicile fixe). On ne testera alors qu’une partie La
théorie de l’échantillonnage montre qu’une analyse d’une partie bien choisie de la population peut
donner de bons résultats.
Une difficulté existe cependant : le choix de l’échantillon. La façon de choisir les individus de
l’échantillon peut influer sur le résultat (faire un sondage sur la santé des français par téléphone donne
un résultat de meilleure santé que dans la réalité car les personnes très malades sont à l’hôpital ; On
4
dit que l’échantillon est biaisé). Nous ne traiterons que des échantillons pris au hasard dans la
population (la façon de choisir est hors de notre étude).
Nous allons étudier différents cas (proportion dans une population, moyenne d’un caractère,
etc.). Pour cela nous considérerons d’abord la population parfaitement connue, et nous en déduirons
la façon dont se comportent les échantillons (qui peuvent varier dans de grandes proportions). Dans
un deuxième temps, nous essaierons de prédire, à partir de la connaissance d’un échantillon, les
caractéristiques inconnues d’une population.
2) Estimation d’une proportion :
On teste des individus. S’ils répondent à un ou plusieurs critères (dimensions, poids, aspect,
etc. ), ils sont conformes. Attention, dans ce cadre, le mot ‘conforme’ n’a pas le sens habituel, il veut
simplement dire ‘qui correspond au critère donné’. Nous allons d’abord étudier ce qui se passe dans
les échantillons.
2 . 1 ) Cas général :
Dans une population d’effectif N, P individus sont conformes. On prend un
échantillon d’effectif n et on s’intéresse à la variable aléatoire Q : nombre d’individus conformes dans
l’échantillon. On a :
k n

k
C
C
P
N

P
P
(Q
)
k
( Loi hypergéométrique )
n
C
N
Cette loi est très peu maniable, sauf si N est petit (ça arrive!). Elle se simplifie par
approximation lorsque n est petit par rapport à N. Retenons cependant que :
P
Nn
Qn np (où p est la proportion d’individus conformes) et V(Q) = np
1p
N
N
1
On montre que, lorsque N est grand, et grand par rapport à n, la loi hypergéométrique est proche
d’une loi binomiale. On retrouve alors les valeurs caractéristiques Q  n p et V(Q) = n p ( 1 – p ).
2 . 2 ) Echantillon petit par rapport à la population :
Lorsque N est très grand par rapport à n (classiquement N > 10 n ) et n n’est pas trop
réduit, on peut approximer la loi de probabilité de Q par une loi binomiale B( n , p ), où p est la
proportion d’individus conformes de la population :
P
P ( Q  k )  B( n, p )( k )  Cnk p k (1  p) nk avec p 
N
Par exemple, si 35% des français possèdent une voiture de marque française, sur 20
personnes interrogées au hasard, le nombre de celles qui ont une voiture française pourra varier de 0
à 20, avec les probabilités suivantes :
Nombre 0 1 2 3 4 5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
Proba
0 0,2 1 3,2 7,4 12,7 17,1 18,4 16,1 11,6 6,9 3,4 1,4 0,4 0,1 0
0
0
0
0
0
(en %)
Les probabilités marquées 0 ne sont pas strictement nulles, elles sont inférieures à 0,05%.
Ces cas sont donc très improbables.
On voit que les valeurs possibles de Q sont nombreuses, même si l’on ne considère que les
relativement probables (de 4 à 10, la probabilité dépasse 5%, une chance sur 20). Il est important de
se souvenir que les valeurs possibles du nombre de conformes dans l’échantillon peuvent être très
variables (C’est ce que l’on appelle la dispersion d’échantillonnage)
5
Si, de plus, n est grand, la loi binomiale est peu utilisable. On l’approxime à son tour par:
np
k .

np
(
Q

k
)
e
- Une loi de Poisson de paramètre np si np est petit : P
k
!
- Dans le cas général, une loi de Laplace - Gauss de moyenne n p et de variance n p ( 1 – p ).
Dans ce cas, les probabilités P(Q=k) sont considérées comme sans intérêt (si on a besoin de les
calculer, on prendra P( k-0,5<Q<k+0,5) ) et on calcule plutôt des probabilités du genre P( Q < a ) ou
P( a < Q < b ).
Par exemple, si 20% de la production est à rejeter ( attention, ici, la conformité est d’être à
rejeter ! ), sur un échantillon de 100 pièces, on a :
n p = 20 n p ( 1 – p) = 16 ( = 4) La loi de la variable aléatoire Q (nombre de pièces à rejeter
— loi binomiale B( 100 ; 0,2 ) ) s’approxime par la loi N(20,4).
Q  20
avec Q* 
on obtient :
4
10  20
30  20 
P (10  Q  30)  P
 Q* 
   (2 ,5)   ( 2,5)  0,988
 4
4 
On a donc 98,8% de chances pour que le nombre de pièces à rejeter de l’échantillon soit
compris entre 10 et 30.
Une remarque utile : p( 1-p )  0,25. Cette majoration, qui donne un écart - type   0,5 n ,
est aussi une bonne approximation de  lorsque p est au voisinage de 0,5.
2 . 3 ) Estimation d’une proportion :
Prenons maintenant le problème à l’envers : On ne connaît pas le nombre P d’individus
conformes dans la population (ni même éventuellement la taille N de la population). Mais on peut
tester un échantillon, qui va nous donner un nombre k0 de conformes (k0 est la valeur de k obtenue
réellement, la réalisation de la variable aléatoire Q). On va s’en servir pour estimer la proportion p
d’individus conformes. Pour cela, étudions, pour chaque proportion possible, la probabilité que Q soit
k0
k0
égal à k0. On montre que cette probabilité est maximale pour p 
. On dit alors que
est
n
n
l’estimateur du maximum de vraisemblance pour p.
Un estimateur pour un nombre inconnu est un nombre obtenu par une méthode donnée, et
dont on peut espérer qu’il ne s’éloigne pas trop de la valeur inconnue. C’est en général la réalisation
d’une variable aléatoire. L’estimateur est sans biais si la variable aléatoire a pour moyenne le nombre
inconnu.
k0
Q Q
Notre estimateur
est sans biais, car     p
n
 n n
2 . 4 ) Intervalle de confiance :
Il est impossible de connaître le nombre d’individus conformes de l’échantillon. A défaut, on
se contenterait d’un intervalle de valeurs. Cependant, le seul intervalle dont on est sûr ( [ 0 , n ] ), n’a
aucun intérêt. Pour avoir un renseignement utile, on se contente d’un intervalle dans lequel on est sûr
à 50%, ou à 90 %, ou à 99%, etc. d’avoir le nombre d’individus conformes. On parle alors d’intervalle
de confiance à t%, et de risque d’erreur à ( 100-t )%. Par exemple, pour la production citée au 2 . 2,
l’intervalle [ 10 , 30 ] est un intervalle de confiance à 98,8% sur le nombre de pièces à rejeter : On a
98,8 chances sur 100 pour que le nombre soit compris entre 10 et 30, et un risque de 1,2% de se
tromper ( donc que le nombre de pièces à rejeter soit inférieur à 10, ou supérieur à 30 ).
En pratique, la population est mal connue, et nous chercherons plutôt un intervalle de
confiance sur la proportion (inconnue) p d’individus conformes à partir de la connaissance d’un
échantillon.
6
2 . 5 ) Estimation par intervalle de confiance :
Un inconvénient d’un estimateur simple est de ne pas donner de garantie sur sa proximité à la
vraie valeur (Pour les possesseurs de voitures françaises — voir le 2 . 2, premier exemple, les valeurs
possibles de k – pour 35% de possesseurs– peuvent facilement être 5 ou 10, ce qui donne les
estimations 25% ou 50%). On améliorera la réponse en donnant un intervalle de confiance sur p à
partir de la connaissance de k0.
Voyons d’abord le cas où N est grand par rapport à n, et où n lui – même est grand (donc on
peut utiliser une loi Normale). Si p est connu, on obtient facilement des intervalles de confiances sur k
Qnp
en utilisant les propriétés de la loi Normale :
np(1 p) est une variable Normale centrée réduite
Q

np



t
t en prenant t dans la table de la loi Normale
et on a la probabilité t que 
np
(
1

p
)


1t
. Par exemple, pour t = 0,95, on choisira t tel que
2
*
centrée réduite de façon que PX 
t 




*
PX*
0
,025
0
,975
, soit PX 
. On obtient t = 1,96.
t 
t 


t
t
p
(
1

p
)
p
(
1

p
)



p



. Le problème résiduel est le p(1-p) qui reste sous la
n
n
n
n

(
1

p
)

np

t

(
1

p
)
0
t np
0
t np
On en déduit que t
, soit en divisant par n,
0
0
t
t
racine carrée. Lorsque p n’est pas très faible ou très proche de 1, on peut, sans trop perdre de
précision, majorer par 0,25 le nombre p(1-p). On obtient alors :
t0 
t

t 
p
0 t
n 2n
n 2n
Par exemple, dans le contrôle d’une production, on examine 100 pièces produites, et on
trouve 20 pièces ayant un défaut. L’intervalle de confiance à 95% sur la proportion de pièces ayant




t
20
1
,
96
20
1
,
96
0t t
0t



,


, 

0
,
102
;
0
,
298



un défaut est 
. On
n
n
100
100
2
n
2
n
2
100
2
100





estimera donc à 20% le pourcentages de pièces défectueuses, à 10% près (9,98 arrondi à 10), avec
un risque d’erreur de 5%.
A noter : si l’on avait testé 400 pièces au lieu de 100, l’intervalle aurait été réduit de moitié. Il y a
donc avantage à augmenter la taille de l’échantillon.
Dans le cas où n est petit, l’intervalle ci – dessus n’est plus toujours un intervalle de confiance à t%,
mais suffit souvent pour une estimation saine. Par contre, si N, l’effectif de la population est faible,
cette méthode ne donne plus rien d’utile.
3) Estimation d’une moyenne, d’une variance :
3.1 ) Cas général :
On mesure un caractère X de la population. On suppose que ce caractère suit une loi
quelconque, de moyenne m et d’écart - type . La mesure des pièces d’un échantillon donne les
x
x
x
.
.
x
1
2
3
n
résultats x1 , x2 , x3, . . , xn . On va étudier la variable aléatoire x
en
n
2

(
x
)
m
, V
(
x
)
calculant sa moyenne et sa variance. On trouve: E
. Donc la moyenne de
n
l’échantillon a la même moyenne que la population, et une variance inversement proportionnelle à la
7
taille n de l’échantillon. Donc la moyenne de l’échantillon se rapproche de celle de la population
lorsque la taille de l ’échantillon augmente.
Donc x est un estimateur (sans biais car sa moyenne est m ) de la moyenne de la
population. Par contre la variance de l’échantillon est un estimateur biaisé de la variance de la
population ( il y a en général une plus faible dispersion dans un échantillon que dans la population
xi x


2
totale ). On montre qu’ un estimateur sans biais de  est s
2
2
( avec n-1 au lieu de n
n1
n
fois la variance de l’échantillon ( On l’appelle variance d’échantillon) . L’écart n 1
type d’échantillon est noté n-1 ou s (attention, c’est un estimateur biaisé de  .
A retenir
estimateur de m : x
), c’est à dire


x

x


x

x
n

i
i
2 
estimateur de 2 : s


2
2
n

1
n

1 n
On supposera dans la suite que ce caractère suit une loi Normale de moyenne m et d’écart
- type  ( c’est très souvent le cas dans les processus de fabrication ). Alors x suit une loi Normale,

) . Notons que, pour un grand échantillon, même si la loi de X n’est pas la loi
la loi N(m,
n
Normale, la loi de
x
est encore approximativement N(m,

n
).
3.2 ) Intervalle de confiance sur la moyenne :
3.2.1 ) On connaît l’écart - type :
Ce cas est assez fréquent, car dans de nombreux cas la moyenne évolue (dérive, usure, etc.),
sans que la dispersion change notablement. On est amené alors à rechercher la vraie valeur de la
moyenne, connaissant l’écart - type.
Un intervalle de confiance à t% sur x est donné par le paramètre t , donné par la table de


,m


m


t
valeurs de la loi Normale (voir le paragraphe 2 . 5). C’est 

n
t
. On en déduit (
n

c’est notre but!), un intervalle de confiance à t% sur la moyenne m de la population :

,x

x





t
t
n
n


Quelques valeurs classiques:
t (%)
90
95
1,645
1,96
t
99
2,576
99,87
3
99,99
3,8
En pratique, pour 90%, 95% et 99%, on prend souvent 1.6, 2 et 2.6 comme valeurs de t.
3.2.2 ) On ne connaît pas l’écart - type :
On avait, dans le paragraphe précédent, utilisé le fait que
x
suit une loi connue, donc que
xm
suit la loi Normale centrée réduite. Ce qui nous a donné la valeur de t. Mais on ne connaît
n
plus , et on peut tout au plus l’estimer à l’aide de s ( n-1 – voir paragraphe 3 . 1). On est amené à

8
xm
, qui est une loi de Student à n-1 degrés de liberté. Lorsque n est grand,
s
n
cette loi se rapproche d’une loi Normale centrée réduite.
Donc si n est grand ( en pratique au-delà de 100 ), on estimera  à l’aide de l’écart - type de
l’échantillon ( éventuellement avec n-1 si n est un peu faible ), et on appliquera la méthode
précédente.
Par contre, si n est faible, on utilisera, à la place des t , donnés par la loi Normale, les
valeurs données par la loi de Student à ( n - 1 ) degrés de liberté. Les tables donnent en général les
‘queues de distribution’, c’est à dire, pour un nombre de d. d. l. donné, les valeurs de t telles que soit
P( X > t ) = t%, soit P( X < t ) = t%. Pour un intervalle de confiance à 95%, donc avec 5% à
répartir en dehors de l’intervalle (2,5% avant, 2,5% après), on prendra t = 2,5 dans le premier cas,
t = 97,5 dans le deuxième.
étudier la loi de
Exemple : On teste un échantillon au hasard de 10 pièces, et on obtient les longueurs
suivantes ( en mm ) :20.4, 21.1, 20.5, 20.7, 19.9, 20.5, 20.8, 21, 20.2, 20.9. La moyenne de
l’échantillon est 20.6 mm, l’écart – type s = 0.374 donne une estimation de l’écart – type de
l’ensemble des pièces. La loi de Student à 9 degrés de liberté (10 - 1 ) donne 0.975 = 2.26. Donc un
intervalle de confiance sur la moyenne des longueurs est :


0
,
374 0
,
374
20
,
6

2
,
26;
20
,
6

2
,
26


= [ 20,33 ; 20.87 ]
10
10


Si par contre l’écart - type sur la production avait été connu, et égal encore à 0,374 mm, on


0
,
374 0
,
374
20
,
6

1
,
96;
20
,
6

1
,
96

aurait obtenu 
= [ 20,37 ; 20.83 ]. On voit que la

10

10
méconnaissance de l’écart – type a augmenté la taille de l’intervalle de confiance (En plus de la
méconnaissance de la vraie valeur moyenne, on ne connaît pas la dispersion).
4) Pour aller plus loin :
Bien d’autres outils ont été crées par les statisticiens, pour analyser la dispersion (variance) d’une
population, comparer deux moyennes ou deux variances, estimer la dispersion à partir de l’étendue
(valeur maxi - valeur mini), etc. Vous trouverez dans les ouvrages de statistiques les méthodes
utilisées. Je vous recommande, pour un travail efficace en entreprise les normes AFNOR de
statistiques, bien documentées pour l’utilisation.
9
Téléchargement