Le formidable développement des outils informatiques et de leur puissance de calcul permet de
traiter de très grands nombres de données, d’obtenir rapidement des résultats et des inter-
prétations et il est peu de domaines aujourd’hui qui ne fassent appel aux statistiques comme sources
d’informations. Que l’on s’intéresse à la physique, fondamentale ou appliquée, que l’on travaille
dans la finance, le commerce, l’assurance, la biologie, dans le monde de la recherche comme dans
celui de l’entreprise, les données sont relevées, analysées et exploitées.
La première tâche de la statistique consiste à décrire de façon précise et rigoureuse les ensembles
qu’elle étudie sous l’angle particulier qui l’intéresse mais la tâche ne s’arrête pas là. Au-delà des
observations qu’elle peut effectuer, la statistique cherche à construire des modèles, à élaborer
des hypothèses plus ou moins probables concernant certains événements échappant à son
observation directe ; soit parce que ces événements concernent des ensembles plus vastes que ceux
qui ont été observés, soit qu’il s’agisse d’événements à venir.
Cette deuxième phase de l’étude statistique, appelée statistique inductive ou statistique inférentielle
part des résultats obtenus sur les échantillons observés et, connaissant les différents modèles déve-
loppés par la théorie des probabilités, permet d’élaborer des hypothèses valables avec de fortes
probabilités portant sur la population alors même que celle-ci n’aura pas été observée de façon
exhaustive.
Un premier ouvrage reprend les bases de la théorie des probabilités et les lois de probabilités
permettant la modélisation de situations concrètes. Dans ce deuxième ouvrage, les méthodes
de la statistique inférentielle sont étudiées, d’une part, avec la résolution de problèmes d’esti-
mations de paramètres et, d’autre part, avec des problèmes portant sur le contrôle des normes à
partir de l’observation d’échantillons ou enfin le contrôle de la validité des modèles formulés.
PRÉSENTATION