COURS DE PROBABILITE 2ième année d’économie et de gestion Semestre 1 Laurence GRAMMONT [email protected] Les solutions des exercices posés dans ce polycopié ne sont pas rédigées. October 3, 2003 2 Contents 1 Prérequis Dénombrements Théorie des ensembles 1.1 Dénombrement. Analyse combinatoire . 1.1.1 Principe multiplicatif . . . . . . . 1.1.2 Permutations sans répétitions . . 1.1.3 Les arrangements sans répétition 1.1.4 Combinaisons sans répétitions . . 1.2 Théorie sommaire des ensembles . . . . . 1.2.1 Définitions . . . . . . . . . . . . . 1.2.2 Propriétés . . . . . . . . . . . . . 1.2.3 Notion de cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Introduction au calcul des probabilités 2.1 Du langage ensembliste à celui des évènements 2.2 Définition des probabilités dans le cas Ω fini . 2.3 Probabilités : Définition axiomatique . . . . . 2.4 Probabilités conditionnelles. Notion d’indépendance . . . . . . . . . . . . . 2.5 Exercices d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 . . . . . . . . . 11 . . . . . . . . . 12 . . . . . . . . . 14 . . . . . . . . . 15 . . . . . . . . . 22 3 Variables aléatoires et lois de probabilités 3.1 Espace probabilisé et loi de probabilité . . . . . . . . . . . . 3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Lois discrètes et lois continues . . . . . . . . . . . . . 3.2 Notion de variable aléatoire et loi de probabilité d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 . . . . . . . . . 5 5 5 6 7 8 9 9 10 10 . . . . 25 25 25 25 26 . 26 4 CONTENTS 3.2.1 3.2.2 3.2.3 3.2.4 3.3 3.4 3.5 Exemple introductif . . . . . . . . . . . . . . . . . . . Définitions . . . . . . . . . . . . . . . . . . . . . . . . Exemples . . . . . . . . . . . . . . . . . . . . . . . . Fonction de répartition d’une loi de probabilité d’une v.a . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . 3.3.1 Rappel de statistique descriptive univariée . . . . . . 3.3.2 Définitions d’une v.a.d. et de sa loi de probabilité . . 3.3.3 Fonction de répartition . . . . . . . . . . . . . . . . . 3.3.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . Variables aléatoires continues (v.a.c) . . . . . . . . . . . . . 3.4.1 Définition - Fonction de répartition . . . . . . . . . . 3.4.2 Fonction densité . . . . . . . . . . . . . . . . . . . . . 3.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . Caractéristiques d’une variable aléatoire . . . . . . . . . . . 3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Espérance . . . . . . . . . . . . . . . . . . . . . . . . 3.5.3 Variances . . . . . . . . . . . . . . . . . . . . . . . . 3.5.4 Moments . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.5 Médiane et Mode . . . . . . . . . . . . . . . . . . . . 3.5.6 Fonction d’une variable aléatoire . . . . . . . . . . . 4 Lois discrètes usuelles 4.1 Introduction . . . . . . . . . . . 4.2 Schéma de Bernouilli . . . . . . 4.3 Le shéma Binomial . . . . . . . 4.4 Le schéma hypergéométrique . . 4.5 Loi géométrique et loi de Pascal 4.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 . 27 . 28 . . . . . . . . . . . . . . . . . 29 29 29 29 30 31 32 32 33 34 34 34 35 38 39 40 41 . . . . . . 45 45 46 47 50 52 55 Chapter 1 Prérequis Dénombrements Théorie des ensembles 1.1 Dénombrement. Analyse combinatoire Elle a pour but de dénombrer les différentes dispositions que l’on peut former à partir d’un ensemble d’éléments. dispositions : sous ensembles ordonnés ou non d’un ensemble. 1.1.1 Principe multiplicatif Principe Soit ξ une expérience qui comporte 2 étapes : la 1ère qui a p résultats possibles et chacun de ces résultats donne lieu à q résultats lors de la 2ème. Alors l’expérience a p × q résultats possibles. Remarque : Le principe multiplicatif peut s’énoncer ainsi : si un évènement A peut se produire de p façons et si un évènement B peut se produire de q façons, la réalisation de A suivie de B peut se produire de p × q façons. Exemple 1 On jette 3 dés identiques. Combien y-a-t-il de résultats possibles ? 63 5 6CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES Exemple 2 Une urne contient 1R, 1B, 1N, 1V . On effectue 2 tirages successifs avec remise. Combien y-a-t-il de résultats possibles ? 4 × 4 = 16 (cela correspond au principe multiplicatif) Conséquence Si une expérience ξ consiste à répéter n fois de façon indépendante une même expérience ξ0 qui a p résultats possibles, alors ξ a pn = p × p × . . . × p issues possibles. | {z } fois 1.1.2 Permutations sans répétitions Exemple : On a 3 lettres a, b, c Les permutations sont les sous-ensembles ordonnés de {a, b, c} abc acb bac cab cba bca Définition Une permutation de n éléments est une disposition ordonnée sans répétition de ces n éléments. (une façon de ranger côte à côte ces n éléments) Résultat Si Pn est le nombre de permutations de n éléments alors Pn = n! preuve : Soit n éléments a1 , a2 , . . . , an . a1 : on peut le mettre dans n’importe quelle case a2 : dans n − 1 cases an : dans une case. Exemple 1 De combien de manière peut-on classer 4 individus. P4 = 4! = 24 1.1. DÉNOMBREMENT. ANALYSE COMBINATOIRE 7 Exemple 2 Une maı̂tresse de maison doit placer 6 personnes autour d’une table ronde. Combien a-t-elle de possibilités. P5 = 5! Exemple 3 Un géophile dispose de 21 paires de bottes de couleurs différentes pour chausser ses 42 pattes (21 G et 21 D) 1◦ ) De combien de façon peut-il se chausser 2◦ ) De combien de façon peut-il se chausser avec m̂ couleur pied D et pied G Solution : 1◦ ) 21 ! × 21 ! 1.1.3 2◦ ) 21 ! Les arrangements sans répétition Exemple : On a 3 lettres a, b, c. Combien y-a-t-il de mots de 2 lettres différentes : ab ba ac ca bc cb : il y a 6 mots de 2 lettres : arrangements de 2 éléments parmi 3 Définition : Un arrangement de p éléments parmi n est une disposition ordonnée sans répétition de p éléments. (une façon de ranger p éléments pris parmi n en tenant compte de l’ordre) Résultat Apn = nb d’arrangement de p éléments parmi n n! Apn = (n − p)! preuve : 1ère place : n possibilités 2ème place : n − 1 possibilités pème place : n − p + 1 possibilités Exemple 1 Pour accéder à une banque de données, il faut 4 lettres différentes. Combien de mots de passe peut-on avoir ? A426 = 258800 8CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES Exemple 2 12 candidats se présentent aux élections d’un conseil d’administration comportant 8 places 6=. Combien de listes possibles y-a-t-il ? A812 = 12! 4! Remarque Qu’est-ce qu’un arrangement avec répétition de p éléments parmi n ? C’est une disposition ordonnée de p éléments avec autant de répétition que l’on souhaite. Le nombre d’arrangements avec répétition est de np 1.1.4 Combinaisons sans répétitions Exemple On a 4 éléments a, b, c, d Les combinaisons de 2 éléments sont {a, b} {a, c} {a, d} {b, c} {b, d} {c, d}. Il y en a 6. Définition Une combinaison de p éléments parmi n est une disposition non ordonnée de p éléments parmi n. (sous ensembles de p éléments parmi n) Remarque Arrangement : on tient compte de l’ordre Combinaison : on ne tient pas compte de l’ordre. 2 arrangements comportant les mêmes éléments définissent une seule combinaison. Résultat Le nombre de combinaisons de p éléments parmi n est Cnp = n! (n − p)!p! preuve : A partir d’une combinaison de p éléments on peut faire p! arrangements Apn = p!Cnp Propriétés 1.2. THÉORIE SOMMAIRE DES ENSEMBLES Cn0 = Cnn = 1 j Cn+1 = Cnj−1 + Cnj n X n (a + b) = Cnk ak bn−k 9 (formule du binôme) k=0 1.2 1.2.1 Théorie sommaire des ensembles Définitions - Un ensemble est une collection d’objets appelés éléments. - φ ensemble vide : il ne contient aucun élément. - Soit Ω un ensemble Un ensemble A est un sous ensemble de Ω ou une partie de Ω si tous les éléments de A sont éléments de Ω. on dit aussi que A est une partie de Ω. L’ensemble des parties de Ω est noté P(Ω). Ex : donner l’ensemble des parties de Ω avec Ω = {a, b, c}. P(Ω) = { {a, b, c} {a, b} {a, c} {b, c} φ {a} {b} {c} } (8 éléments) Soient Ω, A, B ∈ P(Ω) x ∈ A signifie que l’élément x appartient à l’ensemble A. x∈ / A signifie que l’élément x n’appartient pas à A. - Inclusion A ⊂ B signifie que tous les éléments de A sont dans l’ensemble B. A 6⊂ B. - Complémentaire Ā (ou Ac ) ensemble des éléments de Ω qui n’appartiennent pas à A. - Union A ∪ B : x ∈ A ∪ B ⇔ x ∈ A ou x ∈ B. A ∩ B : x ∈ A ∩ B ⇔ x ∈ A et x ∈ B. - Intersection A∪A=A A∩A=A A∩φ=φ A ∪ φ = A Remarque : si A ⊂ B alors A ∪ B = B si A ⊂ B alors A ∩ B = A - Appartenance Définition A et B sont disjoints ssi A∩B =φ 10CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES - Différence A\B = A ∩ B - E, F des ensembles Une application de E dans F est une correspondance qui aux éléments x ∈ E associe des éléments y de F . 1.2.2 Propriétés A∪B =B∪A A∩B =B∩A A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) A∩B =A∪B A∪B =A∩B 1.2.3 Notion de cardinal Si Ω a un nombre fini d’éléments, alors pour tout A ∈ P(Ω), A a également un nombre fini d’éléments. cardinal de A, noté card(A) est le nombre d’éléments de A. Propriétés card A = card Ω − card A card A ∪ B = card A + card B − card (A ∩ B) card (A/B) = card A − card (A ∩ B) card φ = 0 Chapter 2 Introduction au calcul des probabilités Ce sont les jeux de hasard qui sont à l’origine du calcul des probabilités. Vers 1654, Pascal et Fermat se sont confrontés au problème suivant : pourquoi en jetant 3 dés obtient-on plus souvent la somme 11 que la somme 10 alors que pour 11 : 146, 236, 155, 335, 443, 245 pour 12 : 156, 246, 255, 345, 336, 444 C’est à la suite de leur correspondance qu’est né le calcul des probabilités. Les probabilités ont connu un grand essor au XIXe . Mais ce n’est qu’en 1933 que grâce à Kolmogorov le calcul des probabilités s’inscrit enfin dans un cadre théorique rigoureux. La découverte de la physique quantique et des théories modernes de l’imprévisibilité redonnent au calcul des probabilités une place centrale dans l’étude de la nature. 2.1 Du langage ensembliste à celui des évènements On a une expérience aléatoire (tirage d’une carte, lancement d’un dé) qui est une action qui débouche sur plusieurs résultats possibles. Pour la définir, il s’agit de recenser l’ensemble de ses résultats possibles appelés éventualités ou évènements élémentaires. On appelle univers l’ensemble de ses éventualités et il est noté Ω. 11 12 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS Un évènement est un ensemble d’éventualités noté A, c’est donc aussi une partie de Ω.(A ∈ P(Ω)). On représente un évènement par un ensemble. Ex : jet de dé = exp aléatoire univers Ω = {1,2,3,4,5,6} éventualités {1} {2} ... {6} évènement A : tomber sur un pair A = {2, 4, 6} A est l’évènement réalisé quand A ne l’est pas A = {1, 3, 5}. A ∪ B est l’évènement qui est réalisé dès que l’un au moins des événements A ou B l’est. A ∩ B est l’évènement qui est réalisé dès que les événements A et B le sont. A = {2, 4, 6} B = ”tomber sur un nombre ≤ 3”. A ∪ B = {1, 2, 3, 4, 6} A ∩ B = {2} Ω est l’évènement certain : réalisé à coup sûr. φ est l’évènement impossible : ”obtenir 7” par exemple. A ⊂ B signifie que chaque fois que A est réalisé B l’est aussi. A ∩ B = φ : événements incompatibles. Soit Ω l’ensemble des éventualités ou univers. On arrive au point essentiel de définir la probabilité d’un évènement A (A ⊂ Ω) qui doit mesurer la chance que l’évènement A a de se réaliser lorsqu’on effectue une épreuve. La complexité de la définition dépend de celle de Ω : Ω fini, Ω infini dénombrable, Ω infini non dénombrable. 2.2 Définition des probabilités dans le cas Ω fini Probabilité de Laplace (XVIIIe ) Elle correspond à la notion intuitive de probabilité. Définition 2.2. DÉFINITION DES PROBABILITÉS DANS LE CAS Ω FINI 13 soit Ω fini,dont les événements élémentaires sont équiprobables. P (A) = card A = Nb cas favorables card Ω Nb cas possibles Attention à l’hypothèse d’équiprobabilité. Exemple 1 : Une urne contient 1B 1N On fait 2 tirages avec remise Proba d’avoir 2 Noires ? On a Ω = {(N, N ); (B, B); (B, N ); (N, B)}. cardΩ = 4 (ou alors on applique le principe multiplicatif vu qu’il y a indépendance). A : ”avoir 2 Noires”. A = {(N, N )}. cardA On a P (A) = = 1/4 cardΩ Remarque : si on ne tient pas compte de l’ordre et que l’on écrit Ω = {{N, N } {B, B} {B, N }}, les évènements élémentaires n’étant pas équiprobables, cardA . on n’a pas P (A) = cardΩ Erreur : on aurait P (A) = 1/3 !! Exemple 2 : Soit une urne contenant 1R ;1V ; 1J ;1B On effectue 3 tirages avec remises. Quelle est la probabilité d’obtenir 2 fois la blanche ? On a cardΩ = 4 × 4 × 4 = 64 (principe multiplicatif). Soit A : ”2 fois la blanche exactement”. 3! Ainsi cardA = C32 (place des 2 blanches) ×3 (l’autre couleur) = × 3 = 9. 2! 9 Donc P (A) = 64 Exemple 3 Soit une urne contenant 2V et 3B 1) On effectue 2 tirages sans remise Proba d’avoir 2 vertes exactement, 2 blanches exactement, 1V et 1B. 2)même question avec tirage avec remise. 1) Erreur : Ω = {(B, B) (V, V ) (B, V ) (V, B)} évènements non équiprobables ! 14 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS on écrit : Ω = {(B1 , B2 ) (B1 , B3 ) (B2 , B3 ) (B3 , B2 ) . . .} On a cardΩ = A25 = 20. On a cardA A2 2 1 P (A) = = 2 = = , cardΩ 20 20 10 A23 6 3 cardB P (B) = = = = , cardΩ 20 20 10 12 6 3 cardC P (C) = = = = . cardΩ 20 10 5 cardC = C21 (choix V) ×C31 (choix B) ×2 (ordre) = 2 × 3 × 2 = 12. 2) On a cardΩ = 52 (principe mult), ainsi 2×2 4 9 2×3×2 12 P (A) = = ; P (B) = ; P (C) = = . 52 25 25 25 25 Propriétés P (A) + P (A) = 1 ∀A ∈ P(Ω) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ∀A, B ∈ P(Ω) A ⊂ B ⇒ P (A) ≤ P (B) Ex : à démontrer en utilisant les propriétés du cardinal. 2.3 Probabilités : Définition axiomatique Si Ω est infini, la définition précédente devient caduque. Les fondements de la probabilité mathématique sont dus à Kolmogorov (1933). Il faut savoir qu’en 1919, Von Mises affirmait ”le calcul des probabilités n’est pas une discipline mathématique”. Définition Ω fini ou infini dénombrable P une application de P(Ω) dans [0, 1] est une probalité si et seulement si (1) P (Ω) = 1 (2) ∀(Ai )i=1,...,n tq Ai ∩ Aj = φ ∀i 6= j ! i=n n [ X Ai = P (Ai ). P i=1 !i=1 ∞ ∞ X [ Ai = P (Ai ). (3) P i=1 i=1 Dans le cas Ω non dénombrable, on ne peut pas forcément définir une proba- 2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE15 bilité sur P(Ω), qui satisfasse les axiomes (1) (2) (3) sur P(Ω). On est obligé de la définir sur une famille F de P(Ω), famille qui vérifie certaines propriétés: si A ∈ F , A ∈ F si A, B ∈ F A ∪ B ∈ F et A ∩ B ∈ F ∞ [ Ai ∈ F (Ai )i∈N ∈ F ⇒ i=1 On dit que F est une σ-algèbre. ex vérifier que la probabilité de Laplace satisfait aux axiomes (1) (2) (3.) Propriétés P (A) + P ((A) = 1 ∀A ∈ P(Ω)(ou F) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) A ⊂ B ⇒ P (A) ≤ P (B) Preuve : • A ∪ A = Ω ⇒ P (A ∪ A) = P (Ω) = 1. A ∩ A = φ ⇒ P (A ∪ A) = P (A) + P (Ā). • A ∪ B = A ∪ (B\A ∩ B) d’où P (A ∪ B) = P (A ∪ (B\A∩B )) = P (A) + P (B\A ∩ B). or B = (B\A ∩ B) ∪ (A ∩ B). d’où P (B) = P (B\A ∩ B) + P (A ∩ B) d’où le résultat. •A⊂B B = A ∪ (B\A) d’où P (B) = P (A) + P (B\A) . | {z } ≥0 2.4 Probabilités conditionnelles. Notion d’indépendance Les concepts d’indépendance et de probabilité conditionnelle sont définis explicitement par Abraham De Moivre (1667 - 1754). On lui doit également un énoncé clair et précis de la formule des probabilités composées. Soit Ω un univers (lié à une expérience aléatoire ξ) , P une probabilité sur 16 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS P(Ω)(ou F). Soient A, B deux évènements, A ⊂ Ω, P (A) > 0 et B ⊂ Ω. Définition la probabilité conditionnelle de B sous l’hypothèse A est définie par P (A ∩ B) P (B|A) = . P (A) Signification : P (B|A) exprime la probabilité de B quand on sait que A est déjà réalisé. On dit couramment probabilité de B sachant A. Exemple : On extrait sans remise 2 cartes d’un jeu de 32. La première carte tirée est un roi. Quelle est la proba que la 2e carte soit aussi un roi ? 3 P (B|A) = 31 directement. (on raisonne sur ce qu’il advient une fois la 1ere carte tirée.) 4 Si on veut appliquer la définition, c’est plus compliqué : P (A) = 32 P (A ∩ B) ? il s’agit de définir l’univers sur lequel est défini A ∩ B. Soit l’experience aléatoire ξ : tirer 2 cartes sans remise. On a cardΩ = A232 = 32! = 32 × 31 et card A ∩ B = A42 . Ainsi 30! 4×3 4×3 3 P (A ∩ B) = 32×31 donc P (B|A) = 32×31 × 32 = 31 . 4 Ainsi en général on utilise la relation dans le sens P (A∩B) = P (B|A)×P (A) Propriété 1 : Formule des probabilités composées P (A ∩ B) = P (B|A) × P (A) P (A ∩ B) = P (A|B) × P (B) si P (A) > 0 si P (B) > 0 Théorème Soit A ∈ P(Ω) (ou F), tq P (A) > 0, P étant une probabilité sur P(Ω) P(Ω) → [0, 1] P|A : est une probabilité sur P(Ω) B → PA (B) = P (B|A) preuve : P (Ω ∩ A) P (A) = = 1. P (A) P (A) P ((B1 ∪ B2 ) ∩ A) P [(B1 ∩ A) ∪ (B2 ∩ A)] (2) On a PA (B1 ∪ B2 |A) = = . Or P (A) P (A) B1 ∩ B2 = φ donc (B1 ∩ A) ∩ (B2 ∩ A) = φ d’où P [(B1 ∩ A) ∪ (B2 ∩ A)] = P ((B1 ∩ A) P (B2 ∩ A) P (B1 ∩ A) + P (B2 ∩ A). Ainsi PA (B1 ∪ B2 |A) = + = P (A) P (A) (1) On a PA (Ω) = P (Ω|A) = 2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE17 PA (B1 ) + PA (B2 ). (3) est montré de la même manière. Exemple : Soit un jeu de 52. On fait 2 tirages avec remise. Probabilité que la première carte soit un roi rouge et la 2e un roi noir ? On a Ω = {(D, R)...}. Soient les événements suivants: A: ”la première carte est un roi rouge” et B: la deuxième carte un roi noir”. On a P (A ∩ B) = P (B|A) × P (A), Ainsi 2 2 2 2 P (A) = et P (B|A) = 52 (= P (B)), donc P (A ∩ B) = × = 52 52 52 P (A) × P (B). Définition P (A) > 0 P (B) > 0 A et B sont indépendants si et seulement si P (B|A) = P (B) ou P (A|B) = P (A) Soient A, B ∈ P(Ω) (ouF) , avec Ce qui est le cas dans un tirage avec remise. Le tirage de la première carte n’influe pas sur le tirage de la 2e . Ce n’est plus le cas pour les tirages sans remise. Caractérisation A et B (P (A) > 0 P (B) > 0) sont indépendants si et seulement si P (A ∩ B) = P (A) × P (B) Exemple : Soit une urne contenant 10 blanches ,20 rouges et 30 noires. On tire 2 boules sans remises. Probabilité que la première soit rouge (évènement A) et la deuxième soit blanche (évènement B) ? On a P (A ∩ B) = P (B|A) × P (A). (pas d’indépendance) 20 1 On a P (A) = = et 60 3 10 P (B|A) = . Donc 59 10 1 P (A ∩ B) = × 59 3 18 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS m̂ question avec des tirages avec remises 1 1 1 1 10 = × = P (A ∩ B) = P (A) × P (B) = × 3 60 3 6 18 Exemple : un jeu radiophonique consiste à poser 10 questions à un candidat qui doit choisir parmi 2 réponses dont une seule est juste. Le candidat perd au bout de 2 réponses fausses. 1) Probabilité qu’un candidat qui répond au hasard puisse gagner ? 2) Probabilité qu’il ait perdu au bout de 5 questions sachant qu’il a perdu ? 1) Soit G évènement :”le candidat a gagné”. ξ : poser 10 questions pour lesquelles il y a 2 réponses. On a cardΩ = 210 . card G = nombre de réponses toutes justes ou une fausse = 1 + 10 = 11. Ainsi P (G) = 211 10 2) Soit A = ”le candidat a perdu au bout de 5 questions”. P (A ∩ G) P (A) On a P (A|G) = = et P (G) P (G) P (G) = 1 − P (G) = 1 − 211 10 C41 P (A) = 25 ↓ attention ! Exemple introductif Un sac contient 5 boules rouges et 15 boules jaunes. Un deuxième sac contient 9 boules rouges. ξ : On tire au hasard 1 boule du 1er sac et on la remet dans le second sac sans regarder la couleur. On tire alors une boule du 2e sac. Quelle est la probabilité P que cette boule soit rouge ? Commentaire : ξ comporte 2 étapes. La deuxième étape dépend de la 1er . Si on tire une rouge alors P = 10 = 1. 10 9 Si on tire une jaune alors P = 10 . 2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE19 Soit A = ”boule R au 2e tirage”, B1 : ”1er boule est R” B2 : ”2e boule est J”. On a B1 ∩ B2 = φ, B1 ∪ B2 = Ω. Ainsi A = (A ∩ B1 ) ∪ (A ∩ B2 ). D’où P (A) = P (A ∩ B1 ) + P (A ∩ B2 ) = P (A|B1 ) × P (B1 ) + P (A ∩ B2 ) × P (B2 ) 5 9 + 10 × 15 = 1 × 20 20 Propriété 2 - Formule des probabilités totales n [ Soient (Bi )i=1,...n ∈ P(Ω) (ou F), tq Bi = Ω Bi ∩ Bj = φ i 6= j P (Bi ) > 0 i=1 Soit A ∈ P(Ω) (ou F), on a n X P (A) = P (A|Bi ) × P (Bi ) i=1 n [ n [ Preuve : A = A ∩ Bi = (A ∩ Bi ), ainsi i=1 i=1 P P P (A) = ni=1 P (A ∩ Bi ) = ni=1 P (A|Bi ) × P (Bi ). Exemple : Soit un sac contenant 6 jetons : 5 numérotés 1 et 1 numéroté 2. Soient 2 urnes : U1 contenant six boules Blanches et quatre Noires et U2 contenant 8 B et 2 N . L’expérience aléatoire comporte 2 étapes. On pioche au hasard dans le sac, on regarde le numéro et on pioche dans l’urne correspondante. Probabilité que la boule soit blanche ? On a U1 ∪ U2 = Ω et U1 ∩ U2 = φ, on a donc P (B) = P (B ∩ U1 ) + P (B ∩ U2 ) = P (B|U1 ) × P (U 1 ) + P (B|U 2 )P (U2 ) 6 5 8 1 1 2 7 × + × = + = = 10 6 10 6 3 15 15 Autre question : sachant que la boule est blanche proba qu’elle provienne de U1 : P (B ∩ U1 ) P (B|U1 ) × P (U1 ) P (B|U1 ) × P (U1 ) = On a P (U1 |B) = = = P (B) P (B) P (B|U1 ) × P (U1 ) + P (B|U2 ) × P (U2 ) 20 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS 5 1 6 × 10 6 = 3 = 5 . 7 7 7 15 15 Théorème de Bayes Soit {Bi , i = 1, . . . , n} n [ Bi = Ω, i=1 P (Bi ) > 0 Bi ∩ Bj = φ ∀i 6= j, . On a Soit A ∈ P(Ω)(ou F), P (A|Bk ) × P (Bk ) P (Bk |A) = n X P (A|Bi ) × P (Bi ) i=1 Preuve : P (Bk |A) = P (Bk ∩ A) et on applique la formule des probabilités P (A) totales. Exemple : Une population est constituée de 10 Français, 10 Allemands. 7 Français sont bruns, 3 blonds, 1 Allemand est brun, 9 blonds. On rencontre un blond, probabilité qu’il soit Allemand ? Soient les événements A = ”il est blond”, B1 = ”Allemand” et B2 = ”Français”. 9 On connait P (B1 ) = 1/2, P (B2 ) = 1/2, P (A|B1 ) = et P (A|B2 ) = 3/10. 10 On demande P (B1 |A). On a B1 ∪ B2 = Ω et B1 ∩ B2 = φ, on peut donsc appliquer le théorème de Bayes: 9 1 × P (A|B1 ) × P (B1 ) 10 2 P (B1 |A) = = = 9 1 3 1 P (A|B1 ) × P (B1 ) + P (A|B2 ) × P (B2 ) × + × 10 2 10 2 3 . 4 Exemple : 2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE21 Une entreprise utilise 3 machines différentes A, B, C pour fabriquer des pièces. 40 % sont fabriquées par A, 30 % par B et 30 % par C. La machine A produit 2 % de pièces défectueuses, B 4 % et C 5 %. 1) On prélève une pièce au hasard. Probabilité qu’elle soit défectueuse. 2) On prélève une pièce. Elle est défectueuse. Probabilité qu’elle vienne de A. 3) On prélève une pièce. Elle est saine. Probabilité qu’elle vienne de C. Soient A : ” être fabriqué par A, B : ”être fabriqué par B,.... D : ”être défectueuse” et D : saine. On a P (A) = 0, 4, P (B) = 0, 3, et P (C) = 0, 3. A, B, C sont tels que A ∩ B = φ, A ∩ C = φ, C ∩ B = φ et A ∪ B ∪ C = Ω. 1)En appliquant la formule des probabilités totales, on a P (D) = P (D|A) × P (A) + P (D|B) × P (B) + P (D|C) × P (C) = 0, 02 × 0, 4 + 0, 04 × 0, 3 + 0, 05 × 0, 3. P (D|A) × P (A) 0, 02 × 0, 4 2)D’après le théorème de Bayes, P (A|D) = = P (D) P (D) P (D|C) × P (C) 0, 95 × 0, 3 3) P (C|D) = = 1 − P (D) P (D) Exemple : Une urne contient 10 B 20 R 30 N . On tire 3 boules sans remise. Probabilité que les 2 premières soient rouges et la troisième noire ? Soient les évènements: A:” la première boule tirée est rouge”, B:”la 2ième est rouge”, on a 20 . Donc P (A ∩ B) = P (B|A) × P (A), or P (A) = = 1/3 et P (B|A) = 19 59 60 19 1 P (A ∩ B) = × . 59 3 Posons C = A ∩ B. Soit D:”la troisième est noire”. On a 30 19 P (D ∩ C) = P (D|C) × P (C) = × . 58 59 × 3 Exemple : Soient 2 dés ; l’un d’eux est pipé. ils permet d’obtenir 6 dans 50 % des cas ; l’autre est équilibré. On lance l’un des deux dés choisi au hasard. On obtient 6. Quelle est la probabilité qu’on ait utilisé le dé équilibré ? 22 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS Soient E : ”le dé est équilibré,” P : ”le dé est pipé,” A : ”obtenir 6”. 1 1 1 1 Les données sont P (E) = , P (P ) = , P (A|E) = et P (A|P ) = . 2 2 6 2 On a E ∪ P = Ω et E ∩ P = φ. On peut donc appliquer le théorème de 1 1 × P (A|E) × P (E) bayes: P (E|A) = = 6 2 = 0, 25. 1 1 1 P (A|E) × P (E) + P (A|P ) × P (P ) × + 6 2 4 2.5 Exercices d’application Exercice 1 : Dans une entreprise, la probabilité qu’un ouvrier A quitte l’entreprise dans l’année est 1/5, probabilité qu’un cadre B quitte l’entreprise dans l’année est 1/8 et la probabilité que A et B quittent l’entreprise est 1/40. Calculer la probabilité que l’un des deux quitte l’entreprise et que ni l’un ni l’autre ne quitte l’entreprise. Exercice 2 : Dans une population, on a observé que pendant 1 mois, 40 % des individus sont allés au cinéma, 25 % au théatre et 12,5 % au cinéma et au théatre. Calculer la probabilité que pendant 1 mois un individu 1) aille au cinéma ou au théatre. 2)n’aille pas au cinéma. 3)n’aille ni au cinéma ni au théatre. 4)aille au cinéma mais pas au théatre. 5) probabilité qu’un individu aille au théatre sachant qu’il est allé au cinéma 6) probabilité qu’un individu n’aille pas au cinéma sachant qu’il n’est pas allé au théatre. Exercice 3 : Une urne contient 5B et 3N 1) 5 tirages sans remises 1-a) Proba d’avoir 3B puis 2N 1-b) Proba d’avoir exactement 3B 2.5. EXERCICES D’APPLICATION 2) 5 tirages avec remise 1-a) Proba d’avoir BBBN N 2-b) Proba d’avoir exactement 3B. 23 24 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS Chapter 3 Variables aléatoires et lois de probabilités 3.1 3.1.1 Espace probabilisé et loi de probabilité Définition On a vu qu’une expérience aléatoire ξ définissait un ensemble d’événements possibles Ω appelé univers. Sur P(Ω) on peut définir une application P telle que ∀A ∈ P(Ω) (ou c alF ) P (A) est la probabilité de l’évènement A de se réaliser. Définition Soit Ω un univers. On appelle espace probabilisé le triplet (Ω, P(Ω) (ou c alF ), P ) P étant une probabilité sur P(Ω) P est appelée loi de probabilité On note souvent (Ω, P ). Remarque : Si ξ est une expérience aléatoire et Ω l’ensemble de ses éventualités, le statisticien cherche à donner une loi de probabilité P. (Ω, P ) décrira le caractère aléatoire de l’expérience. 3.1.2 Exemples Exemple 1 : On lance successivement 2 fois une pièce : ξ Ω = {(P, P )(F, F )(P, F )(F, P )} avec P = pile et F = face. 25 26CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS On définit la probabilité suivante: P : Ω → [0, 1] ∀ω ∈ Ω P (ω) = 1 4 Exemple 2 : Dans une urne contenant 3 Blanches, 4 Rouges, 6 Noires, on tire une boule et on observe sa couleur: 4 6 3 Ω = {B, R, N }, P (B) = , P (R) = , P (N ) = . 13 13 13 Exemple 3 : Une pièce a 2 faces valant respectivement +1 et −1. ξ : on fait 3 lancers successifs. On a {(+1, +1, −1)(+1, +1, +1)(+1, −1, +1)(+1, −1, −1) Ω= (−1, +1, −1)(−1, +1, +1)(−1, −1, 1)(−1, −1, −1)} 1 P (ω) = 3 ∀ω ∈ Ω. Les événements sont équiprobables. 2 3.1.3 Lois discrètes et lois continues On rencontrera deux types de lois de probabilité : - Lois discrètes : P : Ω → [0, 1] où Ω est fini ou ∞ dénombrable i.e. Ω est une suite (finie ou ∞) d’ événements élémentaires que l’on peut noter Ω = {ωi i ∈ I} avec I ⊂ N. Soient pi = P ({ωi }) i ∈ I. [ X Soit A un évènement qq, si A = {ωi } alors P (A) = pi i∈J i∈J - Lois continues : P : Ω → [0, 1] est continue si tous les événements élémentaires ont une probabilité nulle. d−c ex : Ω = [a, b] ∀[c, d] ⊂ [a, b] P ([c, d]) = (loi uniforme) b−a 3.2 3.2.1 Notion de variable aléatoire et loi de probabilité d’une variable aléatoire Exemple introductif Soient 2 joueurs Albert et Bernard. L’un des deux lance un dé 1F si 1 ou 6, A −→ B 2F si 2,3 ou 5, B −→ A si 4, partie nulle. 3.2. NOTION DE VARIABLE ALÉATOIRE ET LOI DE PROBABILITÉ D’UNE VARIABLE ALÉ Appelons X le gain d’Albert. X dépend du hasard, plus particulièrement du résultat du lancer de dé. On dira que X est une variable aléatoire car elle dépend du hasard. Ici ξ = lancer de dé Ω = {1, 2, 3, 4, 5, 6} ainsi X dépend des événements de Ω et peut prendre les valeurs −1, 0, 2. X(1) = −1, X(6) = −1, X(2) = X(3) = X(5) = 2, X(4) = 0. Ω→R ω → X(ω) X est une application numérique de {1, 2, 3, 5, 6} dans R. X: Le dé étant non truqué, les événements élémentaires de Ω sont équiprobables. 1 Ainsi (Ω, P ) est un espace probabilisé P ({i}) = i = 1, 2, 3, 4, 5, 6 6 On demande la probabilité qu’Albert a de gagner 2 F. On a 1 P (X = 2) = P [ω tq X(ω) = 2] = P [X −1 (2)] = P ({2, 3, 5}) = , 2 1 P (X = −1) = P (X = 0) = 1/6. 3 Ainsi à chaque valeur de X, on peut associer une probabilité. Cette correspondance s’appelle loi de probabilité de X représentée par le tableau suivant: valeurs de X probabilité 3.2.2 -1 0 2 1/3 1/6 1/2 Définitions Définition 1 : Une variable aléatoire est une fonction de Ω dans R (Ω, P ) étant un espace probabilisé. Rmq : Si Ω fini ou ∞ dénombrable aucun pb. Si Ω est non dénombrable, il faut une propriété supplémentaire : X −1 (] − ∞, x]) ∈ F. F étant une σ algèbre (par exemple les intervalles de R). X est une correspondance entre l’ensemble des évènements élémentaires et R. Définition 2 : 28CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS Soit X une v.a définie sur l’espace probabilisé (Ω, P ). On appelle loi de probabilité de X, la probabilité PX définie sur l’ensemble des intervalles I de R tq ∀I ⊂ R Px (I) = P {ω tq X(ω) ∈ I} 3.2.3 Exemples Exemple 1. On lance successivement 2 fois une pièce de monnaie. Soit la variable aléatoire X représentant le nombre de faces obtenues après ces 2 lancements. 1) donner les valeurs de X 2) définir la loi de probabilité de X Solution : Ω = {(P, P ), (P, F ), (F, P ), (F, F )} évènements équiprobables X: Ω (P, P ) (P, F ) (F, P ) (F, F ) →R →0 →1 →1 →2 X(Ω) = {0, 1, 2} Valeurs de X 0 1 2 1 1 1 PX 4 2 4 Exemple 2. Dans une urne, il y a des boules blanches et rouges. Les blanches sont en proportion p et les rouges en proportion q = 1 − p. ξ : on tire une boule. Ω = {B, R}, p(B) = p, p(R) = q. X : nb de rouges obtenues. Donner la loi de probabilité de X. On a Px (0) = P (X = 0) = P (B) = p et Px (1) = P (X = 1) = P (R) = q. ev élémentaires Valeurs de X probabilités B 0 p R 1 q Remarque : On peut faire une analogie entre variable aléatoire (v.a) et variable statistique. La notion de probabilité pour les v.a remplace celle de fréquence relative pour les variables statistiques. 3.3. VARIABLES ALÉATOIRES DISCRÈTES 3.2.4 29 Fonction de répartition d’une loi de probabilité d’une v.a Définition. soit X une v.a définie sur (Ω, P ) on appelle fonction de répartition de X la fonction F de R dans R définie par F (x) = P (X ≤ x). Propriétés. (1) P (a < X ≤ b) = F (b) − F (a) ∀b ≥ a. (2) F est croissante (3) F (x) ∈ [0, 1] ∀x ∈ R, lim F (x) = 1, X→+∞ lim F (x) = 0. x→−∞ La fonction de répartition permet de calculer toutes les probabilités relatives aux intervalles. 3.3 Variables aléatoires discrètes On peut faire une analogie entre les variables statistiques et les variables aléatoires discrètes (v.a.d). 3.3.1 Rappel de statistique descriptive univariée Ω : population M = ensemble de classes Ci i = 1, . . . k x : Ω → M variable statistique classes C1 C2 . . . Ck fréquences relatives f1 f2 fk fréquences relatives cumulées F1 = f1 F2 = f1 + f2 Fk = 1 3.3.2 Définitions d’une v.a.d. et de sa loi de probabilité Définition 1. une variable X est discrète si l’ensemble de ses valeurs est fini ou ∞ dénombrable. Analogie : v. stat v. aléatoire discrètre classe de modalité valeurs de X Ci xi 30CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS Définition 2. La loi de probabilité de X est définie par 1) les valeurs de X : xi i ∈ I, 2) les probabilités des valeurs de X pi = P (X = xi ). Souvent on dresse le tableau : valeurs de X x1 x2 proba P (X = xi ) p1 p2 Analogie : 3.3.3 ... ... xn pn v. aléatoire discrètre v. statistique fréquence relative pi = p(X = xi ) fi de Ci Fonction de répartition X : Ω → {x1 , . . . , xn } La fonction de répartition F (F (x) = P (X ≤ x)) vérifie: x ∈] − ∞, x1 [ F (x) = P (φ) = 0, x ∈ [x1 , x2 [ F (x) = P (X ≤ x) = F (x1 ) = P (X = x1 ) = p1 , x ∈ [xi , xi+1 [ F (x) = p1 + p2 + . . . + pi , x ≥ xn F (x) = 1. X F (x) = pi i tq xi ≤x Propriété pi = F (xi ) − F (xi−1 ) Ainsi si on connait la loi de probabilité de X on déduit sa fonction de répartition et inversement. Analogie : v. statistique v. aléatoire discrètre fréquences fonction relatives de répartition cumulées 3.3. VARIABLES ALÉATOIRES DISCRÈTES 3.3.4 31 Exemples • Exemple 1 : ξ : on jette 2 dés. Soit X la v.a. qui représente la somme des points obtenus par les 2 dés. 1) donner la loi de probabilité de X. 2) donner la fonction de répartition de X. • Exemple 2 : on lance une pièce de monnaie un certain nombre de fois. Soit X le nombre de jets nécessaires pour obtenir pile pour la 1ere fois 1) quelles valeurs prend X ? 2) quelle est la loi de probabilité de X ? 3) fonction de répartition 1)L’univers est défini de la manière suivante: Ω = {suite infinie (un )n∈N un = P ou F }, et on a X(Ω) = N∗ 2) valeurs de X 1 2 . . . k 1 1 1 proba ... k 2 2 2 2 3) x < 1 F (x) = 0, 1≤x<2 F (x) = 1/2, 1 1 2≤x<3 F (x) = + 2 = 3/4, 2 2 k k k ≤ x < k + 1 F (x) = 21 + 212 + 213 + . . . + 21k = 12 1−(1/2) = 1 − 21k = 2 2−1 k . 1−1/2 • Exemple 3 : D’un sac contenant n jetons, numérotés de 1 à n on tire successivement au hasard sans remise 3 jetons. soit X le numéro du 3e jeton obtenu. Déterminer la loi de proba de X et sa fonction de répartition. n ≥ 3, Ω = {triplet}. X(Ω) = {1, . . . , n}. P (X = k) = P ({triplet tq 3e numéro est k}) A2 1 = . = n−1 A3n n X1 E(x) F (x) = = . n n k≤x • Exemple 4 : On place un hamster dans une cage. Il se trouve face à 5 32CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS portillons dont un seul lui permet de sortir. A chaque essai infructueux, il reçoit une décharge électrique et on le replace à l’endroit initial. 1) En supposant que le hamster choisisse de façon équiprobable entre les 5 solutions à chaque nouvel essai, déterminer la probabilité des événements suivants : le hamster sort au 1er essai, au 3e , au 7e . 2) Le hamster mémorise maintenant les essais infructueux et choisit de façon équiprobable entre les portillons qu’il n’a pas encore essayés. Soit X le nb d’essais effectués pour sortir. Quelles valeurs prend X ? Déterminer sa loi de probabilité Solution succinte : 1)P (1er essai) = 1/5, P (3e essai) = 1 = 0, 0524; 5 2) X(Ω) = {1, 2, 3, 4, 5} 3.4 3.4.1 4 4 1 × × = 0, 128, P (7e ) = (4/5)6 × 5 5 5 valeurs de X 1 2 3 4 5 proba 0, 2 0, 2 02 0, 2 0, 2 Variables aléatoires continues (v.a.c) Définition - Fonction de répartition Définition : La v.a X est continue si et seulement si ses valeurs constituent un ou plusieurs intervalles La fonction de répartition est définie par F (x) = P (X ≤ x) Définition : Si F est continue et dérivable alors X est absolument continue. Rmq dans beaucoup d’ouvrage on parle de continuité à la place d’absolue continuité Propriétés 3.4. VARIABLES ALÉATOIRES CONTINUES (V.A.C) (1) F est croissante, (2) lim F (x) = 1 x→+∞ lim F (x) = 0 x→−∞ si 33 X(Ω) = R (3) P (a ≤ X < b) = F (b) − F (a) (4) si X est abs cont Alors ∀x P (X = x) = 0. preuve de (4) : 0 ≤ P (X = x) ≤ P (x − u ≤ X < x + v) = F (x + v) − F (x − u) = (F (x + v) − F (x)) + (F (x) − F (x − u)) ∀u, v | {z } | {z } 3.4.2 ↓v→0 ↓u→0 0 0 . Fonction densité Définition 1 P (a ≤ X < b) F (b) − F (a) = b−a b−a Ainsi on en déduit naturellement la notion de densité de probabilité en 1 point. La densité moyenne de proba sur [a, b] de X v.a.c. f (a, b) = Définitions 2 F (x + ∆x) − F (x) ∆x→0 ∆x (i) La densité de probabilité en 1 point f (x) = lim (ii) Si X est abs continue f (x) = F 0 (x) est appelée fonction densité Z x Conséquences ∀x ∈ R F (x) = f (y)dy −∞ Z b P (a ≤ X ≤ b) = f (y)dy. a Propriété de f (1) f ≥ 0 Z +∞ (2) f (x)dx = 1 −∞ Remarque (2) est souvent utilisé pour montrer qu’une fonction est effectivement une densité. 34CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS 3.4.3 Exemples Exercice 1 Soit X la v.a. donnée par sa fonction densité x<0 0 1 x ∈ [0, 1] f (x) = (Loi uniformément répartie sur [0, 1]) 0 x>1 1) donner le graphe de f 2) donner la fonction de répartition et son graphe. Calculer P (0, 25 ≤ X < 0, 5). Exercice 2 On suppose que la durée de vie d’un individu est une v.a. continue dont la densité de probabilité est k t2 (100 − t)2 t ∈ [0, 100] f (t) = 0 sinon 1) Déterminer k pour que f soit la fonction densité d’une v.a 2) Calculer la probabilité pour qu’un individu meurt entre 60 et 70 ans. 3.5 3.5.1 Caractéristiques d’une variable aléatoire Introduction Pour une variable statistique donnée par le tableau classes fréquences relatives C1 f1 .. .. . . Cn fn on avait défini des grandeurs caractérisant la v. statistique comme la moyenne, la variance, l’écart type. 3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 35 n X x = fi xi moyenne i=1 n X V (x) = fi x2i − x2 variance Rappels i=1 n X = fi (xi − x)2 i=1 σ(x) = pV (x) écart type On va faire de même pour les variables aléatoires. 3.5.2 Espérance • Cas des variables discrètes Soit X une v.a. définie sur (Ω, P ) tq X(Ω) = {xi , i ∈ I}, L’espérance de X est définie par X E(X) = pi xi . pi = P (X = xi ) i∈I (analogie avec les variables statistiques) • Cas des variables absolument continues X : (Ω, P ) → R de fonction densité f définie sur R Z +∞ E(X) = xf (x) dx. −∞ Z b Si f est définie sur [a, b] E(X) = xf (x)dx. a Exercice 1 Dans une urne, on a des boules blanches en proportion p et des noires en B→0 proportion q = 1 − p. Soit X : N →1 Calculer E(X). sol : valeurs de X 0 1 proba p q Exercice 2 E(X) = q 36CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS Lancers successifs de 2 pièces de monnaie. X : nb de faces obtenues. Calculer E(X) X: 0 1 proba 4 Exercice 3 Lancer de 2 dés. Calculer E(X) sol : E(X) = 1 1 2 2 1 4 E(X) = 1 1 +2× =1 2 4 X = somme des 2 dés. 2 6 12 20 30 42 40 30 20 12 252 + + + + + + +1+ + + = =7 36 36 36 36 36 36 36 36 36 36 36 Exercice 4 On jette un dé : X : pt du dé 1 1 proba 6 X 2 1 6 3 1 6 4 1 6 5 1 6 6 1 6 21 1 E(X) = (1 + 2 + 3 + 4 + 5 + 6) = | {z }6 6 6×7 2 Exercice 5 Un joueur tire au hasard une carte parmi 52. Il gagne 200 F si la carte est un coeur et perd 100 F sinon. Soit G : Ω → R le gain du joueur. 1) définir la loi de probabilité de G 2) calculer son espérance Ω = {52 cartes} Valeur de G proba 200 -100 1 3 4 4 E(G) = 200 300 100 − =− = −25 4 4 4 Exercice 6 Deux joueurs A et B lancent chacun une pièce. Si les 2 pièces tombent sur pile A gagne g sinon B gagne 2 F. Un jeu est équitable si et seulement si l’espérance du gain de chaque joueur est nulle. Que doit valoir g pour que le jeu soit équitable ? sol : Ω = {(P, P )(F, F )(P, F )(F, P )} 3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE GA : gain de A -2 3 4 g GB 2 1 3 proba proba 4 4 6 g 6 g E(GA ) = − + , E(GB ) = − . Ainsi 4 4 4 4 E(GA ) = E(GB ) = 0 si et seulement si g = 6. 37 −g 1 4 Exercice 7 0 x −x + 2 1) représentation de f et vérifier que f est une fonction 2) calculer F , la fonction de répartition. 3) calculer E(X). Soit X définie par sa fonction densité f (x) = si x < 0 x > 2 si x ∈ [0, 1[ si x ∈ [1, 2] densité. sol : 2×1 base × hauteur 1) • Aire triangle = = =1 (calcul géométrique) 2 2 Z +∞ Z 1 Z 2 • f (x)dx = x dx + −x + 2 dx −∞ 0 1 2 1 2 x 2 = + −x2 + 2x 2 0 1 = 1/2 + −2 + 4 + 1/2 − 2 = 1 (calcul analytique) =0 x<0 2 x = x ∈ [0, 1[ 2 2 2) F (x) x = − + 2x − 1 x ∈ [1, 2[ 2 =1 x>2 Z +∞ Z 1 Z 2 2 3) E(X) = x f (x) dx = x dx + x(−x + 2)dx −∞ 0 1 3 1 2 8 x x3 2 = + − 3 +x = 1/3 + − + 4 − [−1/3 + 1] = 1 3 0 3 1 Propriétés de l’espérance Soit a, b ∈ R, X : Ω → R, Y :Ω→R 38CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS E(aX + b) = a E(X) + b E(X + Y ) = E(X) + E(Y ) E(X − Y ) = E(X) − E(Y ) E(X.Y ) = E(X).E(Y ) si X et Y sont indépendantes (définition au chapitre 4) 3.5.3 Variances • Cas des variables discrètes Soit X une v;a;d telle que X(Ω) = {xi i ∈ I} et P (X = xi ) = pi . X X V (X) = pi x2i − E(X)2 = pi (xi − E(X))2 (analogie avec les v. i∈I i∈I statistiques) • Cas des variables absolument continues de fonction densité f : R → R Z +∞ Z +∞ 2 V (X) = (x − E(X)) f (x)dx = x2 f (x)dx − E(X)2 . −∞ −∞ Pour toutes les variables aléatoires, on peut définir V (X) = E[(x − E(X))2 ] = E(X 2 ) − E(X)2 . définition : on appelle écart type de X, noté σ(X), la quantité: σ(X) = p V (X) Exercice 1 Soit X la v.a. discrète définie par xi pi −2 1/8 −1 1/4 0 1/5 1 1/8 2 3/10 sol : E(X) = Calculer E(X) et V (X) 9 ' 0, 225 40 3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 83 V (X) = − 40 9 40 2 39 3239 ' 2, 02 1600 = Exercice 2 Une entreprise de la région estime que la demande concernant l’un des articles qu’elle produit est une v.a. continue X dont la densité de probabilité est f (x) = 0 x<0 = 3x + 2 x ∈ [0, 1/3[ =x x ∈ [1/3, 2/3] = −3x + 3 x ∈ [2/3, 1[ =0 x≥1 1) représentation de f . 2) fonction de répartition de f . 3) P [200 < X < 600]. 4) E(X), V (X). Propriété de la variance V (aX + b) = a2 V (X) V (X + Y ) = V (X) + V (Y ) si X et Y sont indépendantes V (X − Y ) = V (X) + V (Y ) si X et Y sont indépendantes On verra plus tard la définition mathématique de l’indépendance de 2 v.a. mais on peut la définir intuitivement. 2 v.a. sont indépendantes si elles n’ont aucune liaison entre elles. Ex : on lance 2 dés X : n◦ du 1er dé Y = n◦ du 2e . Elles sont indépendantes. 3.5.4 Moments Définition On appelle moments centrés d’ordre k de X: mk = E(X k ) X • v.a. discrètes mk = pi xki , si X(Ω) = {xi i ∈ I} i∈I Z +∞ • v.a. continues mk = −∞ Propriété xk f (x)dx 40CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS V (X) = m2 − m21 définition on appelle moments centrés en E(X) d’ordre k de X: Mk = E(X − E(X))k (V (X) = M2 ) 3.5.5 Médiane et Mode Définition Soit X une v.a. On appelle médiane de X, notée Me , le réel (ou l’intervalle)abscisse 1 de l’intersection entre y = et y = F (x). 2 Exemple 0 x<0 0 x>2 f (x) = x [0, 1[ 2 − x [1, 2[ Z x Si x < 0, F (x) = f (t)dt = 0. −∞ 2 x Z x t x2 = . Si x ∈ [0, 1[, F (x) = tdt = 2 0 2 0 x Z x t2 Si x ∈ [1, 2[, F (x) = 1/2 + (2 − t)dt = 1/2 + 2t − = 1/2 + 2x − 2 1 1 x2 x2 − 2 + 1/2 = −1 + 2x − . 2 2 On a Me = 1. Définition Soit X une v.a. On appelle mode de X la valeur x0 telle que (i) si X est discrète P (X = x) ≤ P (X = x0 ) ∀x (ii) si X est continue f (x) ≤ f (x0 ) ∀x Rmq : une v.a. peut avoir plusieurs modes. 3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 3.5.6 41 Fonction d’une variable aléatoire Soit X une v.a. et Y = ϕ(X), ϕ étant une fonction de R dans R. • Cas d’une variable discrète Soit X une v.a.d telle que X(Ω) = {x1 , . . . , xn }, pi = P (X = xi ). Y = ϕ(X) est définie sur le même univers Ω et Y (Ω) = {ϕ(x1 ), . . . , ϕ(xn )} L’évaluation de la distribution Y ne présente pas de difficultés majeures. On calcule la probabilité des évènements. P (Y = yk ) = P ({ω ∈ Ω tq Y (ω) = yk }) = P (ω ∈ Ω tq ϕ(X(ω)) = yk ) Par contre on peut calculer E(Y ) et V (Y ) sans la distribution de probabilité de Y : E(Y ) = V (Y ) = n X i=1 n X pi ϕ(xi ) fi ϕ2 (xi ) − E(Y )2 i=1 Exemple : Soit X une v.a. prenant chacune des valeurs 0,1,2,3,4,5 avec la même prob1 abilité 6 Soient Y = 2X + 1 et Z = X 2 1) Calculer E(Y ), V (Y ) puis E(Z), V (Z). 2) Donner la loi de probabilité de Y puis de Z. sol : 1 1) E(Y ) = [1 + 3 + 5 + 7 + 9 + 11] = 6 6 1 70 35 V (Y ) = [1 + 9 + 25 + 49 + 81 + 121] − 62 = = 6 6 2 1 55 E(Z) = [1 + 4 + 9 + 16 + 25] = 6 6 1 55 979 552 2849 V (Z) = [1 + 16 + 81 + 256 + 625] − 2 = − 2 = = 79, 14 6 6 6 6 36 Valeurs de Y 1 3 5 7 9 11 2) 1 1 1 1 1 1 probas 6 6 6 6 6 6 42CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS • Cas d’une variable continue Soit X une v.a.c. de fonction densité f Soit ϕ une fonction de R dans R telle que Y = ϕ(X) soit également une v.a.c. Dans les applications rencontrées, on a Z +∞ E(Y ) = ϕ(x) f (x)dx −∞ Z +∞ V (Y ) = ϕ2 (x) f (x)dx − E(Y )2 −∞ Rmq : si on pose Y = ϕ(X) avec X v.a., Y n’est pas forcément une v.a. Exemple : Soit X une v.a. telle que 1/2 sur [−1, 1] f (x) = 0 ailleurs 2 Soit Y = X 1) Calculer E(Y ) et V (Y ) 2) Quelle est la fonction densité de Y ? Retrouver E(Y ) et V (Y ). sol : 3 1 x 1 1 1 1 2 x dx = = + = 1) E(Y ) = 6 −1 6 6 3 −1 2 5 1 Z 1 1 1 x 1 1 1 V (Y ) = x4 dx − 2 = − = − 2 3 10 −1 9 5 9 −1 Z 1 2) Calculons la fonction de répartition de Y . G(y) = P (Y ≤ y) = P (X 2 ≤ y). Pour y < 0 G(y) = 0. √ √ Pour y > 0 G(y) = P (− y ≤ X ≤ y) , avec F la fonction √ √ = P (X ≤ y) − P (X ≤ − y) √ √ = F ( y) − F (− y) de répartition de X. si x < −1 0 1+x on a F (x) = si x ∈ [−1, 1] Ainsi, 2 1 si x > 1 Pour y < 1, G(y) = 0. 3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE 43 √ Pour y ∈ [0, 1], G(y) = y. Pour y > 1, G(y) = 0. La fonction densité de Y , g(y) = G0 (y) est donc Ainsi g(y) = 0 pour y < 0 et y > 1, 1 g(y) = √ pour 0 ≤ y ≤ 1 2 y √ 1/2 y y ∈ [0, 1] g(y) = 0 sinon Z Z 1 1 1 1 1 1 1/2 1 3/2 On a E(Y ) = y √ dy = y dy = 4 /3/2 0 = , 2 y 2 0 2 3 0 Z 1 Z 1 1 1 1 1 y 3/2 dy − V (Y ) = 42 √ dy − 2 = 2 y 3 2 0 9 0 1 2 5/2 1 1 1 1 = × (4 )0 − = − . 2 5 9 5 9 44CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS Chapter 4 Lois discrètes usuelles 4.1 Introduction On a un phénomène aléatoire que l’on veut comprendre. Ce phénomène aléatoire est à priori complexe et on ne peut calculer directement les probabilités de ses éventualités. ex : comprendre la dépense annuelle des ménages français pour les loisirs; par exemple, on veut calculer la probabilité qu’ils dépensent 5 000 F par an. On dispose donc d’une population pour laquelle le modèle est destiné, d’un individu et d’un caractère étudié (représenté par une variable aléatoire X). Que fait-on ? 1 - Pour avoir une première idée du phénomène représenté par une variable aléatoire X, on peut faire plusieurs observations de X. ex : X = dépense annuelle pour les loisirs d’un ménage (variable aléatoire attachée à un individu). On demande à un certain nombre de ménages ses dépenses annuelles en loisirs. On a donc la valeur de Xi , Xi étant la dépense annuelle pour le ménage i. Cette suite d’observation débouche sur la définition d’une variable statistique x souvent décrite de la manière suivante : valeurs de x xi fréquences ni 45 46 CHAPTER 4. LOIS DISCRÈTES USUELLES On étudie cette variable statistique à l’aide des techniques des statistiques descriptives (1ere année). 2 - Il y a quelques lois de probabilité ou lois théoriques qui décrivent assez bien un grand nombre de phénomènes aléatoires. On veut représenter le phénomène aléatoire par une loi de probabilité théorique. Cette modélisation est évidemment plus riche que la représentation par une variable statistique : ici on peut calculer la probabilité de tout évènement associé au phénomène aléatoire. Dans ce chapitre, nous allons fournir un catalogue de lois de probabilité discrètes (description, étude) souvent utiles en pratique. Le statisticien plus chevroné construira ses propres modèles théoriques. 3 - Après le choix d’un modèle théorique se pose la question suivante : peut-on quantifier l’approximation du phénomène aléatoire par le modèle théorique. 4.2 Schéma de Bernouilli Toute épreuve n’ayant que 2 résultats possibles peut-être considérée comme une situation d’alternative. En d’autres termes, les 2 résultats possibles sont complémentaires l’un de l’autre. Il s’agit d’une situation fréquente dans la pratique dès que l’on cherche à mettre en évidence un caractère particulier au sein d’une population : tout individu de cette population peut être décrit selon une alternative : soit il présente ce caractère, soit il ne le présente pas. Exemple : Etude de l’impact d’une campagne publicitaire pour un nouveau produit. Q1 : Est-ce que l’individu possédait ce produit auparavant ? Q2 : L’individu a-t-il été touché par la campagne ? Q3 : La campagne a-t-elle induit l’achat ? Souvent les résultats possibles sont des objets qualitatifs. Pour les quantifier, il faut leur trouver un codage. 4.3. LE SHÉMA BINOMIAL 47 On définit ainsi une v.a. X dites de Bernouilli (savant suisse 1654-1705) par 0 1 1−p p Définition On réalise une expérience aléatoire qui a 2 résultats possibles : le succès S, de probabilité. p, et l’Echec E de probabilité. 1 − p. La v.a 1 si succès est une v.a. de Bernouilli X: 0 si échec Mode Si p > q, le mode est1; sip < q, le mode est0 Médiane p > q ⇒ q < 1/2 Me = 1 p < q ⇒ q > 1/2 Me = 0 Propriété E(X) = p V (X) = p(1 − p) Remarque : La v.a. de Bernouilli est une v.a. indicatrice : elle indique la réalisation éventuelle de l’événement de probabilité p. Le shéma de Bernouilli est le plus simple des modèles probabilistes. 4.3 Le shéma Binomial C’est une succession d’épreuves de Bernouilli (n) indépendantes. Définition : 48 CHAPTER 4. LOIS DISCRÈTES USUELLES On réalise n fois successivement et d’une manière indépendante une expérience aléatoire qui a 2 résultats possibles, S (succès) de probabilité p et E (échec) de probabilité 1 − p X = nombre de succès obtenus est une v.a. binomiale de paramètre n et p. Notation B(n, p). Remarque : On peut également la définir comme une somme de v.a. de Bernouilli. A chaque épreuve i, on associe la v.a. de Bernouilli Xi X= n X Xi . i=1 X ∼ B(n, p) Loi de probabilité X(Ω) = {0, . . . , n} P (X = k) = Cnk pk (1 − p)n−k ∀k ∈ X(Ω) n : nb d’épreuves, k : nb de S (succès), p : probabilité du succès. Propriétés E(X) = np V (X) = np(1 − p) Propriété Si X1 ∼ B(n1 , p) et X2 ∼ B(n2 , p) indépendantes, alors X1 + X2 ∼ B(n1 + n2 , p) Preuve : somme de v.a Benouilli. Il y a des tables pour éviter de calculer les probabilités d’ événements liés à la loi binomiale. On peut également, dans certains cas, approximer B(n, p) par une autre loi. Exercice : Une machine à embouteiller peut tomber en panne. La probabilité d’une panne à chaque emploi est de 0,01. La machine doit être utilisée 100 fois. 4.3. LE SHÉMA BINOMIAL 49 Soit X= nb de pannes obtenues après 100 utilisations. 1) Quelle est la loi de X ? Calculer P (X = 0), P (X = 1) et P (X ≥ 4). 2) On estime le coût d’une réparation à 500 F. Soit la v.a Y représentant la dépense pour les réparations après 100 utilisations. Exprimer Y en fonction de X et calculer E(Y ) V (Y ). Solution : 0 1) X ∼ B(100, 0, 01) ; P (X = 0) = C100 (0, 01)0 0, 99100 = 0, 366 1 P (X = 1) = C100 0, 01 0, 9999 = 100 × 0, 01 × 0, 9999 = 0, 377 P (X ≥ 4) = 1 − (. . .) = 0, 061 2) Y = 500X E(Y ) = 500 E(X) = 500 × 100 × 0, 01 = 500 V (Y ) = 5002 V (X) = 5002 0, 99 = 247500 Exercice : Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans virus. Par commodité les scions sont rangés par paquets de 2. Un paquet est dit sain si les 2 scions le sont. 1) Proba d’avoir un paquet sain ? 2) X = nb de paquets sains sur un lot de 10 Quelle est la loi de X ? 3) Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont sains. Proba qu’un lot soit accepté ? Solution : 1) p = 0, 95 × 0, 95 = 0, 9025 2) X ∼ B(10, p) 3) P (X ≥ 9) = P (X = 9) + P (X = 10) = 0, 7361 Remarque Le schéma binomial correspond au processus de tirage d’un échantillon aléatoire avec remise : N1 : nb d’individus ayant la propriété S N2 : nb d’individus n’ayant pas la propriété S N = N1 + N2 : nb total d’individus On fait n tirages avec remise Soit X = nb d’individus ayant la propriété S 50 CHAPTER 4. LOIS DISCRÈTES USUELLES X ∼ B(n, p) avec p = N1 N Propriété Calcul en chaine des probalités de la loi binomiale: si X ∼ B(n, p) alors (n − k + 1)p P (X = k − 1) k(1 − p) n−k+1 p P (X = k) = P (X = k − 1) k 1−p P (X = k) = Preuve : 4.4 Le schéma hypergéométrique Exemple : En pratique lorsque l’on tire un échantillon de taille n parmi une population de taille N , le bon sens veut que l’on ne prenne pas 2 fois le même individu. Cela signifie que le tirage se fait sans remise. Les v.a de Bernouilli associées aux différents éléments de l’échantillon et indicatrices de la présence ou absence d’un caractère donné, sont alors dépendantes. Le schéma binomiale n’est plus adapté. Le schéma hypergéométrique est une succession d’épreuves de Bernouilli non indépendantes. Définition Si dans une population de taille N , on a 2 types de populations: N1 N1 individus type 1 en proportion p = N N2 individus type 2 : N2 . On fait n tirages sans remise dans la population et la v.a X = nb individus de type 1 dans l’échantillon. X obéit au schéma hypergéométrique H(N, n, p) X X= Xi , avec Xi v.a de Bernouilli non indépendantes. i Loi de probabilité 4.4. LE SCHÉMA HYPERGÉOMÉTRIQUE 51 Si X ∼ H(N, n, p), alors Les valeurs de X sont les entiers compris entre 0 et n si P (X = k) = CNk 1 × CNn−k 2 . CNn n < N2 et n < N1 (dénombrement classique) Propriétés E(X) = np V (X) = np(1 − p) N −n N −1 Théorème : Quand N → +∞ avec n, p fixes La loi hypergéométrique H(N, n, p) tend vers la loi binomiale B(n, p) Que signifie une loi qui tend vers une autre loi ? d’application) Dans la pratique, on utilise l’approximation dès que (cf chap. condition n < 0, 1 N preuve : en cours magistral. Exemple 1 A un guichet SNCF se présentent 2 femmes et 3 hommes. On choisit au hasard 2 personnes 6= pour une enquête. Soit X = nb de femmes. a) Probabilité de choisir une femme au moins. b) Calculer E(X) et σ(X). 2 a) X ∼ H 5, 2, . 5 C21 C31 C22 C30 7 P (X ≥ 1) = P (X = 1) + P (X = 2) = + = = 0, 7. 2 2 C5 C5 10 3 4 b) E(X) = np = 2 × = = 0, 8, 5 5 N −n 2 3 3 9 V (X) = npq =2× × × = = 0, 36, N −1 5 5 4 25 σ(X) = 0, 6. 52 CHAPTER 4. LOIS DISCRÈTES USUELLES Exemple 2 On choisit au hasard 10 étudiants de DEUG 6= pour un entretien : 304 étudiants sont inscrits en 1ère année, 233 en 2ème . X = nb d’étudiants de 1ère année parmi les 10 choisis. Calculer la probabilité d’avoir 5 étudiants de 1ère année et déterminer E(X) et σ(X). 304 ), X ∼ H(537, 10, 537 5 5 C C P (X = 5) = 30410 233 ' 0, 227. C537 Mais on peut utiliser l’approximation n 10 304 304 Comme = < 0, 1, on peut approximer H 537, 10, par B 10, . N 537 537 537 5 5 304 233 5 ' 0, 225. On a P (X = 5) = C10 537 537 304 E(X) = np = 10 × = 5, 661, 537 304 233 527 N −n = 10 × × × ' 2, 415, V (X) = npq N −1 537 537 536 σ(X) = 1, 554. √ avec l’approximation σ(X) = npq = 1, 567. 4.5 Loi géométrique et loi de Pascal On se place dans une optique différente. A la base, il y a toujours l’épreuve de Bernouilli qui a 2 résultats possibles : un évènement de probabilité p et l’autre. Mais cette fois, on ne connait pas le nombre d’épreuves. Définition X suit la loi géométrique de paramètre G(p), si elle est égale au nombre d’épreuves de Bernouilli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois l’évènement de probabilité p. Loi de probabilité X(Ω) = N∗ , (l’ensemble des valeurs est ∞ dénombrable) et 4.5. LOI GÉOMÉTRIQUE ET LOI DE PASCAL P (X = k) = q k−1 p 53 k ∈ N∗ fonction de répartition n n−1 X X 1 − qn P (X ≤ n) = q k−1 p = p qk = p = 1 − qn 1 − q k=1 k=0 FX (n) = 1 − q n caractéristiques 1 p 1−p V (X) = p2 E(X) = Définition La loi de Pascal est la généralisation de la loi géométrique lorsque l’on s’intéresse à l’obtention pour la k ième fois de l’évènement de probabilité p Loi de probabilité X(Ω) = {k, . . . , ∞} et k−1 k−1 j−k P (X = j) = Cj−1 p q p j ≥ k. Caractéristiques k p k(1 − p) V (X) = p2 E(X) = Remarque : la ressemblance avec la loi binomiale n’est qu’apparente. La grande différence est que le nombre de répétitions de l’épreuve élémentaire de Bernouilli n’est pas connu, et c’est lui qui représente l’aléatoire du problème ! • Application Ces 2 lois interviennent particulièrement en contrôle de qualité mais aussi dans la surveillance des événements dont une certaine fréquence de survenue est interprétée en terme de signal d’alarme. 54 CHAPTER 4. LOIS DISCRÈTES USUELLES • Remarque de modélisation La probabilité de l’évènement qui nous intéresse est toujours p, elle est constante au cours du temps. Cette propriété de stationnarité n’est pas systématique dans les situations réelles que l’on doit modéliser. Exemple Supposons que 5 % des pièces en sortie d’une chaine de production soient défectueuses. On souhaite connaitre la probabilité qu’un échantillon de 20 pièces issu de cette chaine ne contienne aucune pièce défectueuse. D’autre part, on recherche la probabilité que la première pièce défectueuse ne soit pas l’une des 20 premières sorties de la chaine. - chaque pièce est indentifiée par un caractère à 2 modalités : Elle est soit défectueuse (succès), soit non défectueuse (echec). La modélisation de base est donc le schéma de Bernouilli avec p = 0, 05. On peut faire l’hypothèse de l’indépendance des épreuves de Bernouilli (grande taille de la population). Soit X la v.a représentant le nb de défectueuses après la réalisation de 20 épreuves de Bernouilli. On a X ∼ B(20, 0, 05) P (X = 0) = 0, 9520 = 0, 3585. - On garde la modélisation des pièces par les aléas de Bernouilli. On fait l’hypothèse d’indépendance (gd nb de pièces). Mais le nombre de pièces n’est plus donné : c’est un aléa. Y = nombre de pièces observées jusqu’à l’obtention d’une défectueuse, on a Y ∼ G(0, 05) ∞ ∞ X k−1 20 1 − 0, 95 0, 95 0, 05 = 0, 95 P (Y ≥ 21) = × 0, 05 1 − 0, 95 k=21 0, 05 = 0, 9520 = 0, 3585. 0, 05 Si on s’était intéressé au nombre de pièces à examiner pour en avoir 2 défectueuses, on aurait utilisé une loi de Pascal. 4.6. LOI DE POISSON 4.6 55 Loi de Poisson Siméon-Denis Poisson(1781-1840)est un probabiliste, mathématicien et physicien français à qui l’on doit d’importants développements sur la loi des grands nombres, les suites d’épreuves de Bernouilli mais aussi sur les applications des probabilités dans le domaine du droit. Soit X une variable binomiale B(n, p). On va supposer que p ≈ 0 et que n → +∞ de manière à ce que np → m Quel modèle va suivre cette variable aléatoire ? P (X = k) = Cnk pk (1 − p)n−k . On montrera en CM que mk −m e . P (X = k) −→ n→+∞ k! np→m définition X est une v.a. de Poisson de paramètre m si et seulement si X(Ω) = N, et mk −m P (X = k) = e . k! Notation : P(m) On est dans la situation o`‘u X(Ω) est infini dénombrable. On peut maintenant poser la loi de Poisson comme modèle d’une épreuve aléatoire : Théorème d’approximation Soit X ∼ B(n, p) quand n → +∞ tq np → m p→0 L Alors X → P(m) Modélisation Lorsqu’un évènement a une faible probabilité p d’apparition lors d’une épreuve de Bernouilli et si l’on répète un grand nombre de fois cette épreuve (n) le nombre total de réalisations de l’évènement considéré suit à peu près une loi de Poisson de paramètre m = np Dans la pratique : n > 50 p < 0, 1 56 CHAPTER 4. LOIS DISCRÈTES USUELLES Rmq : plus p est petit, meilleure est l’approximation. Pour cette raison la loi de Poisson a été appelée loi des phénomènes rares Les processus de Poisson sont fréquents dans les problèmes de gestion : - nb de pièces défectueuses dans un échantillon de grande taille prélevé dans une production où la proportion des défectueuses est faible. - nb de quadruplés, quintuplés par an dans un pays donné - nb d’appels intercontinentaux sur une ligne pendant une durée donnée. - nb d’erreurs commises au cours d’une longue suite d’opérations (inventaire) - pannes de machine - émission de particules radio-actives caractéristiques Si X ∼ P(m) Alors E(X) = m V (X) = m Il faut savoir que X mk k≥0 k! = em X mk−1 mk −m E(X) = k e = e−m m =m k! (k − 1)! K≥0 K≥1 k X X X mk m mk V (X) = k2 e−m − m2 = k(k − 1) e−m + k e−m − m2 k! k! k! K≥0 K≥1 K≥1 X mk−2 X mk−1 = m2 e−m + m e−m − m2 (k − 2)! (k − 1)! K≥2 K≥1 X =m Propriété : somme de v.a de Poisson Si X1 et X2 sont 2 variables de poisson P(m1 ), P(m2 ) indépendantes alors X1 + X2 ∼ P(m1 + m2 ) (ceci est vrai pour une somme finie quelconque de v.a de Poisson indépendantes) Preuve : 4.6. LOI DE POISSON 57 " P (Y = k) = P (X1 + X2 = k) = P k [ # X1 = i ∩ X2 = k − i i=0 = = k X i=0 K X i=0 = K X i=0 P (X1 = i).P (X2 = k − i) mi1 −m1 mk−i 2 e e−m2 i! (k − i)! Cki mi1 mk−i 2 e−(m1 +m2 ) k! (m1 + m2 )k −(m1 +m2 ) = e k! . Propriété Si X ∼ P(m), alors m P (X = k) = . P (X = k − 1) k Conséquence : les probabilités % tant que k ≤ m puis & ont une valeur maximale P (X = m) et alors pour k ≥ m et P (X = m) = P (X = m − 1). Conséquence statistique On peut envisager une loi de Poisson comme modèle représentatif de données statistiques discrètes pour lesquelles la variable ne prend que des valeurs entières, positives ou nulles et pour lesquelles - la moyenne ' la variance et fk 1 est proportionnel à fk étant les fréquences fk−1 k Exemple 1 Lors d’un sondage portant sur un grand nombre de personnes, on sait que 2% des personnes interrogées acceptent de ne pas rester anonymes. Sachant que l’un des sondeurs a interrogé 250 personnes (en les choisissant de manière indépendante), calculer la probabilité a) que ces 250 personnes souhaitent rester anonymes b) 3 personnes acceptent de ne pas rester anonymes c) plus de 10 personnes acceptent de ne pas rester anonymes 58 CHAPTER 4. LOIS DISCRÈTES USUELLES X = nb de personnes ne souhaitant pas rester anonymes. X ∼ B(250, 0, 02) h P(5) 0 P (X = 0) = e−5 50! = e−5 = 0, 0067 3 P (X = 3) = e−5 53! = 0, 14 P (X ≥ 10) = 1 − P (X < 10) = 1 − P (X ≤ 9) Exemple 2 Dans un hôpital parisien, il arrive en moyenne 1,25 personnes à la minute aux urgences entre 9 h et 12 h. X : nb de personnes observées à la minute à l’entrée de ce service. On admet X ∼ P(m) avec m = 1, 25 Déterminer les probabilités suivantes a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au moins. a) P (X = 2) = 0, 2238 b) P (X ≤ 4) = 0, 9909 c) P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − 0, 8685 = 0, 1315.