PRÉSENTATION Le formidable développement des outils informatiques et de leur puissance de calcul permet de traiter de très grands nombres de données, d’obtenir rapidement des résultats et des interprétations et il est peu de domaines aujourd’hui qui ne fassent appel aux statistiques comme sources d’informations. Que l’on s’intéresse à la physique, fondamentale ou appliquée, que l’on travaille dans la finance, le commerce, l’assurance, la biologie, dans le monde de la recherche comme dans celui de l’entreprise, les données sont relevées, analysées, et exploitées. La première tâche de la statistique consiste à décrire de façon précise et rigoureuse les ensembles qu’elle étudie sous l’angle particulier qui l’intéresse mais la tâche ne s’arrête pas là. Au-delà des observations qu’elle peut effectuer, la statistique cherche à construire des modèles, à élaborer des hypothèses plus ou moins probables concernant certains événements échappant à son observation directe ; soit parce que ces événements concernent des ensembles plus vastes que ceux qui ont été observés, soit qu’il s’agisse d’événements à venir. Cette deuxième phase de l’étude statistique, appelée statistique inductive ou statistique inférentielle part des résultats obtenus sur les échantillons observés et, connaissant les différents modèles développés par la théorie des probabilités, permet d’élaborer des hypothèses valables avec de fortes probabilités portant sur la population alors même que celle-ci n’aura pas été observée de façon exhaustive. Cet ouvrage reprend les bases de la théorie des probabilités et les lois de probabilités permettant la modélisation de situations concrètes. Les méthodes de la statistique inférentielle sont étudiées dans un deuxième ouvrage avec, d’une part, la résolution de problèmes d’estimations de paramètres et, d’autre part, avec des problèmes portant sur le contrôle des normes à partir de l’observation d’échantillons ou enfin le contrôle de la validité des modèles formulés. SOMMAIRE Chapitre 1 - Éléments de probabilités 1-V ocabulaire 2-A lgèbre des événements 3-P robabilités 9 9 10 12 ■■ Axiomes de définition ■■ Règles de calcul ■■ Théorèmes des probabilités a)Théorème des probabilités totales b)Théorème des probabilités composées. Probabilités conditionnelles 12 13 13 13 16 4-O utils d’aide à la résolution de problèmes avec conditionnement 22 ■■ L’arbre de probabilité ■■ Le tableau de contingence 22 24 Chapitre 2 - Variables aléatoires et loi de probabilités 33 1-V ariable aléatoire 2-P rocessus aléatoire 3 - L oi de probabilité : fonction de distribution et fonction de répartition 33 34 34 ■■ Le cas d’une variable discrète a)Fonction de distribution b)Fonction de répartition d’une variable discrète ■■ Le cas des variables aléatoires continues a)Densité de probabilité, fonction de distribution 34 34 36 37 38 SOMMAIRE b)La fonction de répartition 4 - Caractéristiques d’une variable aléatoire ■■ L’espérance mathématique E (X) a)Dans le cas discret b)Dans le cas continu ■■ Variance et écart-type a)Dans le cas discret b)Dans le cas continu 5 - Propriétés de l’espérance et de l’écart-type d’une variable aléatoire ■■ Changement de variable affine ■■ Somme et différence de variables aléatoires indépendantes 38 42 42 43 43 43 43 43 47 47 47 Chapitre 3 - Quelques lois de probabilités théoriques discrètes57 1 - La loi uniforme 2 - L e processus de Bernoulli ■■ La loi de Bernoulli ou loi de l’alternative a)Définition b)Les caractéristiques de la variable de Bernoulli. ■■ La loi binomiale a)Définition b)Les caractéristiques d’une variable binomiale c) Somme de variables aléatoires suivant une loi binomiale ■■ La loi géométrique a)Définition b)Les caractéristiques d’une variable géométrique 3 - Le processus de Poisson ■■ La loi de Poisson a)Définition b)Les caractéristiques d’une variable de Poisson ■■ Approximation d’une loi binomiale par une loi de Poisson 57 58 58 59 59 59 59 60 60 63 63 63 64 65 65 66 69 1 - L a loi exponentielle ■■ Fonction de distribution et fonction de répartition ■■ Les caractéristiques d’une variable exponentielle ■■ La loi sans mémoire 2 - L a loi normale ou loi de Laplace Gauss 79 79 79 80 81 82 ■■ La densité de probabilité 83 ■■ Les caractéristiques d’une variable normale 83 ■■ La courbe densité de la loi normale 83 ■■ La variable normale centrée réduite 84 ■■ Caractéristiques de la variable normale centrée réduite 84 ■■ Fonction de répartition de la variable normale centrée réduite U85 ■■ Calculs de probabilités 85 a)Calcul de la probabilité, connaissant la borne 86 On peut suivre les étapes suivantes : 86 b) Calcul de la borne, connaissant la probabilité 90 c) Calcul des bornes d’un intervalle centré autour de la moyenne, connaissant sa probabilité 91 ■■ Intervalles caractéristiques 92 ■■ Fonction affine d’une variable normale 92 ■■ Somme et différence de variables aléatoires normales indépendantes 92 ■■ Approximation des lois de Poisson et binomiale par une loi normale 97 a)Approximation de la loi binomiale par une loi normale 97 b)Approximation d’une loi de Poisson par une loi normale 97 c) La correction de continuité 97 3 - L a loi du khi-deux ■■ Définition ■■ La courbe densité de la loi du khi-deux ■■ Les caractéristiques d’une variable du khi-deux ■■ Somme de deux variables du khi-deux indépendantes ■■ Approximation de la loi du khi deux par une loi normale 4 - L a loi de Student 99 99 100 100 101 101 102 SOMMAIRE Chapitre 4 - Quelques lois de probabilités continues SOMMAIRE ■■ Définition ■■ La courbe densité de la loi de Student ■■ Les caractéristiques d’une variable de Student ■■ Approximation d’une distribution de Student par une distribution normale 5 - La loi de Fisher Snedécor (loi F) 102 102 103 103 103 ■■ Définition103 ■■ Propriété104 ■■ La courbe densité de la loi de Fisher 104 Annexes - Les tables de lois des probabilités 115