Chapitre 1. Evènement aléatoire et Probabilité. 1. Hasard et déterminisme. Evènement aléatoire. On se demande souvent si le hasard existe ou non : peut-être pas si on se réfère à l’exemple d’Alexandre Flemming.Tout phénomène de la nature est bien réglé (déterministe) . S’il se produit, c’est forcément sous l’environnement, les conditions ou facteurs (qui peuvent être très nombreux et qu’on ne peut pas tous connaître) qui ont conduit à sa réalisation. En revanche du point de vue de l’individu qui ne connaît pas cet environnement (les conditions), le phénomène est inconnu. L’exemple le plus simple est le jet d’une pièce de monnaie, dont le résultat (Pile ou Face ?) est (en apparence) hasardeux, imprévisible, aléatoire. Nous disons « en apparence », car si nous avions un ensemble de données physiques (résistance de l’air, force de lancer, inclinaison de la trajectoire….), on pourrait peut-être trouver un modèle mathématique ou expérimental qui permette de prédire le résultat. Ce n’est visiblement pas le cas, car aucune expérience connue, ni aucune équation mathématique ne donne une méthode pour trouver le résultat. La littérature relate par contre, et de manière abondante des expériences qui tente d’évaluer le nombre de chances pour Pile ou Face de sortir au cours d’un lancer. On y observe une certaine « stabilité » de chaque issue , et que l’intuition suggère effectivement : il y a pratiquement autant de chances pour « Pile » que pour « Face ». Est-ce raisonnable ? La théorie des probabilités fournit le cadre formel qui permet de justifier ces résultats expérimentaux. Par événement aléatoire, on entendra donc un fait dont on ne sait pas a priori s’il se réalisera ou non à l’issue d’une expérience aléatoire. Par exemple : 1 2 3 4 Tir sur une cible Virus dans votre boîte e-mail ou sur un site Web http.www.site.dz. Résultat du lancer d’une pièce de monnaie ou d’un dé Temps de téléchargement d’une page Web 7 5 6 7 8 9 10 11 12 Occurrence d’un défaut au cours du contrôle de qualité d’un lot d’articles Existence d’un gisement pétrolifère dans une région du grand Sud. Niveau de pénétration d’un produit innovant (NTIC, Mobile, Informatique … Résistance d’un matériau à des contraintes Occurrence d’un séisme (lieu, date,… Niveau de qualité de l’air Qualité d’une image transmise par satellite Panne d’une machine 2. Fréquence et notion intuitive de la probabilité. La définition classique (ou intuitive) de la probabilité est basée sur la notion fréquentielle (ou statistique): c’est la fréquence d’occurrence d’un événement (Par exemple Face) observée au cours d'un grand nombre d'expériences aléatoires (par exemple des lancers de pièces de monnaie). Cette définition trouve l’une des ses justifications dans la fameuse loi des grands nombres énoncée plus loin. Si on lance notre pièce un grand nombre de fois, on peut s’attendre à obtenir autant de Pile que de Face, soit une fréquence de ½ . Voici, à titre d’exemples relatés dans la littérature, les fréquences de Face observées par des scientifiques du XVIIème siècle au cours de séries de lancers réels de pièces de monnaie. Expérience Buffon Pearson (1ère expérience) Pearson (2ère expérience) fréquence 0.5069 0.5016 0.5005 Erreur 0.0069 0.0016 0.0005 Nombre de lancers 4040 12000 24000 Exemple 1: Le tableau ci-dessous résume des séries de jet d’une pièce de monnaie. Chaque expérience est répétée 100 fois, et on observe le nombre de fois où l’événement « Face » se réalise. On constate que la fréquence de réalisation est voisine de 0.5. Nombre de faces dans des séries de n=100 expériences 54 48 43 46 46 52 53 40 58 55 53 51 46 49 51 54 49 50 41 48 52 48 54 50 51 53 53 53 45 49 Nombre total de « face » dans une série de 1000 expériences 504 485 509 8 58 48 49 45 53 45 47 60 51 50 47 52 47 41 54 51 45 41 46 46 51 55 49 52 51 52 52 59 50 44 52 49 44 47 51 48 52 48 59 51 48 52 47 50 47 60 48 59 55 57 46 47 55 51 57 39 52 53 47 53 46 45 41 55 41 51 50 54 48 48 536 485 488 500 497 494 484 On peut émettre la conjecture que cette stabilité (« limite ») observée peut faire usage de loi. Pour formaliser cette intuition, on considère une série de n observations, où intervient le hasard (appelées expériences aléatoires). On note pour chaque expérience si un événement donné A se réalise ou non. Soit N n ( A) le nombre d’occurrences de l’événement A au cours des n expériences. Par probabilité de l’événement A , on comprend la « limite » N n ( A) n n ®¥ P ( A) = lim N n ( A) , s’appelle fréquence relative de l’événement A : c’est n la proportion de fois où l’événement A s’est réalisé au cours des n expériences. Le si elle existe. La quantité numérateur de cette expression N n ( A) s’appelle fréquence absolue de l’événement A . La probabilité de A , est donc définie ici comme la limite de la fréquence de réalisation N n ( A) , n pour peu que n soit suffisamment grand. Cette définition correspond tout à fait à notre intuition. Cependant, elle ne peut être vérifiée expérimentalement de manière traditionnelle, car il est pratiquement impossible d’observer une série réelle infinie d’expériences et vérifier si la limite existe. de A dans une série d’expériences. On utilise alors l’approximation P( A) » Exemple 2: Aujourd’hui, la plupart des logiciels permettent de générer artificiellement des suites de Face (ou Pile) (codées en binaires : 0 ou 1) avec des probabilités équiprobables et de vérifier expérimentalement cette loi. Les graphiques ci-dessous 9 illustrent ces expériences sur ordinateur, et montrent bien la tendance (convergence) de N n ( A) à se « stabiliser » autour de la valeur ½ lorsque le nombre de n lancers n augmente. C’est cette valeur ½ qui sera prise en guise de valeur de la probabilité d’occurrence de pile. la fréquence Nn•n 0.7 0.6 0.5 0.4 n 20 40 60 80100 0.575 0.55 0.525 0.475 2004006008001000 0.45 0.425 fré quence 1 0.8 0.6 0.4 0.2 20 40 60 80 100 Nombre de lancers Figure 1. Fréquence d’apparition de « Face » lors de n = 100 et 1000 lancers d’une pièce parfaite Exemple 3: La figure ci-dessous illustre une simulation de n = 100 tirs sur une cible ( 77 succès) et n = 1.000 ( 792 succès). 10 On peut noter quelques propriétés de la fréquence relative : (i) (ii) N n ( A) £1 ; n Si A est l’événement certain, il se réalisera dans toutes les n expériences et 0£ dans ce cas, P( A) = N n ( A) n = =1. n n 3. Axiomatique de Kolmogorov. L’approche axiomatique de Kolmogorov, communément admise (même s’il en existe d’autres) suppose que les phénomènes aléatoires étudiés peuvent être décrits à l’aide d’un certain ensemble (non vide) d’évènements élémentaires W = {w } appelés ensemble des éventualités, des issues, des épreuves (univers des issues possibles). Les évènements élémentaires w sont interprétés comme des issues exhaustives du phénomène aléatoire étudié. Tout événement A peut être décrit à l’aide d’évènements élémentaires de W : A se réalise si l’un de ses évènements élémentaires se réalise. Dans l’exemple du jeu de Pile ou Face, on peut prendre W = {Pile, Face} ; dans l’exemple du jet d’un dé, ce peut être W = {1,2,3,4,5,6} … Cela dépend bien entendu du type d’expérience menée : ici on s’intéresse au numéro sortant. Il est vrai que dans 11 l »’exemple du jet d’une pièce, on aurait pu penser à une autre « possibilité » pour la pièce de tomber sur son troisième « côté circulaire », ce qui aurait donné W = {Pile, Face, Biais} . Mais aucune expérience relatée jusqu’à présent ne relate qu’une telle « possibilité » se soit réalisée. En ce sens la théorie des probabilités dans cette phase de modélisation tient compte du sens commun. Si dans cet exemple, il est relativement aisé de construire l’espace des issues possibles, cela peut devenir un jeu de l’esprit assez délicat et qui peut conduire à des conclusions erronées. Le paradoxe du Chevalier de Méré (cf. exercices), comme beaucoup d’autres paradoxes de la théorie des probabilités, explique ces situations où le sens commun peut dicter des modélisations conduisant à des conclusions erronées. L’ensemble de tous les évènements possibles F (dont on sait calculer la probabilité) est une famille de parties de W qui possède les propriétés suivantes : (i) (ii) (iii) La famille F contient l’ensemble F représentant l’évènement impossible et l’ensemble W appelé événement certain. Le complémentaire de tout événement A Î F est encore un événement de F (qui se réalise lorsque A ne se réalise pas); Si A et B sont des sous-ensembles de W appartenant à F, alors F contient également l’intersection A I B (c’est l’événement qui se réalise si A et B se réalisent simultanément) et la réunion A U B (qui se réalise si A ou (inclusif) B se réalise). Les éléments de F s’appellent évènements aléatoires ou tout simplement évènements. La famille F algèbre des évènements. Opération algébrique sur les évènements F W AÌ B A=B Evènement impossible Evènement certain L’événement A entraîne l’événement B A Ì B et B Ì A AU B AU B = W AI B Evènement qui se réalise si au moins A , B ou ( A et B ) se réalisent Il est certain que A ou B (ou les deux) se réalisent Se réalise si A et B se réalisent simultanément 12 AI B =F A+ B A et B sont exhaustifs ou incompatibles : ils ne peuvent se réaliser simultanément Evènement qui se réalise si A ou B se réalise (lorsque A I B = F ) A+ B = W Il est certain que soit A, soit B se réalise AB A\B Evènement A I B pour simplifier Se réalise lorsque A se réalise et B ne se réalise pas Se réalise lorsque A ne se réalise pas __ A =W\ A ADB ( A \ B )+( B \ A ) 3. Représentation graphique: Diagramme de Venn. Le langage de la théorie des ensembles permet de représenter les opérations sur les évènements. B A Figure 1: Inclusion B Ì A 13 Ý B A B A Figure 2 : Intersection A I B B Ü A B A Figure 3 : Réunion A U B 14 B\A A\B Figure 4 : Différence A \ B et B \ A . B AI B =F A Figure 5 : Evènements disjoints (mutuellement exhaustifs ou incompatibles). Exemple 4 : Supposons que l’expérience consiste à observer l’état de votre boîte à email, alors W = {V , S } ( V =infectée par un virus, S =saine) et F ={ F, V , S , W }. 15 Exemple 5: Si l’expérience consiste à observer le résultat du lancer d’une pièce de monnaie, alors W = {Pile, Face}. Si l’expérience consiste à lancer deux pièces, alors W = {(P, P ), ( P, F ), ( F , P ), ( F , F ) )}. Dans les deux cas, F =P( W ), l’ensemble des parties de W . Exemple 6: Lancer d’un dé : W = {1,2,3,4,5,6} et F =P( W ) . On peut définir les événements A = «le résultat du lancer est pair »={2,4,6}. B = « le résultat est impair »={1,3,5}. C = « le résultat est pair et plus petit que 4}={2}. Notons que A I B = F , et dans ce cas, on dit que les évènements A et B sont incompatibles (ils ne peuvent se réaliser simultanément). Lorsque C Ì A , on dit que l’événement C entraîne l’événement A (la réalisation de C entraîne ou implique celle de A ). Exemple 7: Le nombre de visites au site Web : http.www.université.dz est un entier aléatoire et W = {0,1,2,...}. Nous avons noté que la description de l’espace W n’est pas toujours unique et dépend d’autre part de la modélisation.. Exemple 8 : Considérons le modèle d’expérience suivant qui consiste à jeter un « objet » au hasard dans le plan x0 y . Par exemple, si on cherche à déterminer la position du propriétaire d’un téléphone mobile par satellite, l’ensemble W représente toutes les positions possibles du plan i.e. W = { ( x, y ) : - ¥ < x < +¥,-¥ < y < +¥ }. Il aurait été possible au lieu du plan cartésien de considérer le système de coordonnées polaires W = { ( r , q ) : 0 £ r < +¥,0 £ q £ 2p }. Dans la plupart des problèmes de modélisation utilisant la théorie des probabilités, il est nécessaire de considérer des familles d’évènements plus fines. Ainsi, dans l’exemple 6, la famille F doit contenir également des évènements du type {T £ 5 sec ondes} , {T £ t }, { t 0 0 £ T £ t1 } , etc… 16 On impose à la famille F, une autre propriété: (iv) Si les sous-ensembles A1 , A2 ,..., Ai ,... de W sont des évènements (i.e.e F), les réunions ¥ ¥ i =1 i =1 U Ai et intersections I Ai sont également des évènements e F. La famille F vérifiant (i)-(iv) s’appelle s-algèbre (ou tribu) d’évènements de W . 5. Probabilité : On appelle mesure de probabilité ou simplement probabilité une fonction P : F ®[0,1] qui à chaque événement A e F associe un réel compris entre 0 et 1 appelé probabilité de l’événement A . Cette fonction est une "mesure" des évènements aléatoires permettant de quantifier leur occurrence. Elle vérifie les propriétés suivantes: (i) P(F ) = 0 et P(W) = 1 . Par conséquent, 0 £ P ( A) £ 1 , "A Î F. (ii) Si A et B sont incompatibles ( A I B = F ), alors P( A U B) = P( A) + P( B) i.e. P est une fonction additive. Cette définition plus rigoureuse s’accorde avec la notion intuitive examinée au début de ce chapitre. Dans le cas d’espace infini (dénombrable ou non), on impose que la probabilité vérifie la condition : (iii) Si A1 , A2 ,... sont des évènements de F incompatibles deux à deux ¥ ¥ i =1 i =1 ( Ai I A j = F pour i ¹ j ), alors P( U Ai ) = å P( Ai ) . Le triplet ( W ,F, P ) est appelé espace probabilisé. 17 Exemple 9: Si W = {w1 , w 2 ,..., w n } est un ensemble fini à n éléments équiprobables (de n même probabilité), alors F =P( W ). Puisque å P{wi } = P(W) = 1 , alors P{wi } = 1 , n s’écrit i =1 i = 1,2,..., n . La probabilité de tout événement A nombre d ' éléments de A P ( A) = ; ce qu’on exprime souvent de la manière n suivante : P( A) = nombre de cas favorables à l ' évènement nombre de cas possibles A (1) Exemple 10: Supposons que les évènements élémentaires soient équiprobables : P{i} = 1 / 6 pour i = 1 à un nombre pair 6 . La probabilité d’avoir cardA 3 1 1 1 P( A) = = = . De la même manière: P( B) = et P(C ) = . n 6 2 2 6 6. Modèles d’expériences aléatoires à espace des épreuves fini. Décrivons quelques modèles qui se rencontrent fréquemment dans la pratique du calcul de probabilités. La nature des expériences proprement dite importe peu : seul compte le nombre des épreuves qui est fini. ) N = {1,2,..., N } l’ensemble des N premiers entiers. Chaque modèle considère une ) urne contenant N boules identiques numérotées à l’aide des chiffres de N . On tire Soit successivement n boules de l’urne et on note leurs numéros : i1 , i2 ,..., i n . A. Tirage au hasard avec remise. C’est un modèle d’expérience où chaque boule tirée est remise ensuite dans l’urne. Le modèle probabiliste associé a pour espace des épreuves : ) W = w = (w = (i1, i2 ,...,i n ) : i k Î N , k = 1,2,..., n { } et tous les évènements élémentaires w sont équiprobables. 18 B. Tirage au hasard sans remise. Dans ce cas, chaque boule tirée n’est pas remise dans l’urne W = {w = (w = (i1, i2 ,..., in ) : ik Î N , k = 1,2,..., n et i1, i2 ,..., in distincts} et tous les évènements élémentaires w sont équiprobables. Dans le cas de tirage sans remise, il est parfois commode de considérer que les boules sont tirées d’un coup en une seule fois de telle manière que l’ordre dans lequel les boules sont tirées n’est pas important (par exemple pour n = 3 , on ne distingue pas les issues (1,2,3) et (3,2,1) . Un tel tirage est dit non ordonné. Pour un tirage ordonné, les deux issues précédentes sont différentes. Nous noterons (i1 , i 2 ,.., in ) une collection ordonnée de n éléments de N̂ , et [i1 , i2 ,..., i n ] une collection non ordonnée de ces nombres. Nous avons ainsi 4 modèles principaux d’expériences. A1.Tirage ordonné sans remise. L’espace des évènements élémentaires est W = {w = (i1, i2 ,..., in ) : ik Î N , k = 1, 2,..., n; i1 ¹ i2 ¹ ... ¹ in } N! n . Le symbole AN s’appelle aussi en ( N - n)! combinatoire, nombre d’arrangements (sans répétitions) de n objets dans N cases. Ici N! = N ( N - 1)... ´ 2 ´ 1 est le nombre de toutes les permutations possibles de N éléments. et cardW = ANn = N ( N - 1)...(N - n + 1) = B1.Tirage non ordonné sans remise. W = {w = [i1, i2 ,..., in ] : ik Î N , k = 1,2,..., n; i1 ¹ i2 ¹ ... ¹ in } n A N! = N . C’est aussi le nombre de combinaisons (sans n! ( N - n)! n! répétitions) de n éléments pris parmi N éléments. Le coefficient binomial est souvent æNö noté C Nn = C Nn º çç ÷÷ , et possède les propriétés suivantes : ènø n et cardW = C N = 19 n (i) C N = C NN - n ; n +1 n +1 n (ii) C N +1 = C N + C N ; 0 (iii) C N + C 1N + ... + C NN = 2 N . N i i N -i (iv) (a + b) N = å C N , "a, b, "N Î IN . (binôme de Newton) a b i =1 (v) a i n -i å CaCb i =0 = Can+b (formule de Vandermonde). La relation (ii) permet de construire un triangle arithmétique (appelé triangle de Pascal) qui permet de calculer de proche en proche les coefficients binomiaux : les éléments non nuls du tableau (n, N ) forment un triangle. 1 1 1 1 1 1 1 1 1 1 2 3 4 5 6 7 8 1 3 6 10 15 21 28 1 4 10 20 35 56 1 5 15 35 70 1 6 1 21 7 1 56 28 8 1 Exemple : C 42 = C 32 + C 31 (6=3+3). Autres relations utiles. · n CN = 0, si n > N . · 0 n Pour n £ N , C N = C NN = 1, C 1N = N , C N = C NN -n . N n -1 n CN = CN -1 n n AN n CN = . n! · · 20 a! (a - b)! (b - c)! c! · C ab C bc = C ac C ab--cc = · n Pour a = b = 1, (iv) donne 2 N = å C N (i.e. le nombre de sous-ensembles N n =0 d’un ensemble de cardinal N est égal à 2 N . · N n Pour a = 1, b = -1 , 0 = å (- 1)n C N . n=0 B2. Tirage non ordonné avec remise. W = {w = [i1, i2 ,..., in ] : ik Î N , k = 1, 2,..., n} n Ici, card W = C N + n -1 . C’est donc le nombre de combinaisons (avec répétition éventuelle de certains éléments) de n éléments dans un ensemble de N éléments. A2.Tirage ordonné avec remise. W = {w = (i1 , i 2 ,..., i n ) : i k Î N , k = 1,2,..., n} et cardW = N n . C’est le nombre d’arrangements (avec répétition) de n éléments choisis parmi n éléments distincts Formule de Stirling Dans les formules ci-dessus, on rencontre l’expression n! = n(n - 1)(n - 2).....3 ´ 2 ´ 1 . Ce nombre croit très rapidement avec n . On connaît cependant des formules très simples donnant une valeur approchée, pour les grandes valeurs de n n! » 2p n n n e - n an ® 1 lorsque n ® ¥ . L’erreur relative de bn la formule de Stirling peut être estimée à l’aide des inégalités : L’approximation a n » bn signifie ici que 21 0< n! n -n 2pn n e - 1 < e1 /(12n) - 1. Récapitulatif et application en physique statistique. Le problème consiste à répartir n boules dans N cellules (urnes, boîtes,cases…). En physique statistique, ce type de problème surgit par exemple lors de l’étude de la distribution de n particules (ce peut être des protons, électrons…) selon N états (ce, peut être des niveaux d’énergie). Le tirage ordonné (resp. non ordonné) correspond au fait que les particules sont discernables (indiscernables) Le tirage avec remise correspond au fait que dans une cellule (urne) on peut avoir un nombre quelconque de particules, alors que le tirage sans remise indique que dans l’urne il ne peut y avoir qu’une seule particule. En physique statistique, chaque cas correspond à une distribution donnée. Ainsi, les particules discernables (indiscernables) ne satisfaisant pas au principe de prohibition de Paul suivent une distribution de Maxwell-Boltzman (resp. de BoséEnstein). Les particules indiscernables satisfaisant au principe de Paul suivent une distribution de Fermi-Dirac. La littérature de Physique considère souvent que les électrons et les protons suivent la distribution de Fermi-Dirac. Les photons et pi-méson suivent la distribution de Bosé-Einstein. Type d’expérience (tirage) De répartition de n particules dans N cellules ou n boules dans N urnes Tirage ordonné (particules discernables) Avec remise (sans prohibition) Sans remise (avec prohibition) Nn Maxwell-Boltzman n AN Tirage non ordonné (particules indiscernables) C N +n -1 Bosé-Eisntein C Nn Fermi-Dirac Taille cardW de l’espace des épreuves pour différents types d’expériences et relation avec les distributions de Physique statistique 7. Cas non dénombrable. 22 Exemple 11: Probabilité géométrique (2D et 3D) : Supposons que l’expérience du jet d’un objet au hasard dans le plan possède la propriété de symétrie (« équiprobabilité » de tous les évènements élémentaires). On peut ainsi admettre que si S1 et S 2 sont deux domaines de surfaces égales, et que p1 = P (l’objet tombe dans le domaine S i ), i = 1,2 alors p1 = p 2 . Si A est un événement de W , de mesure de surface S ( A) , alors S ( A) P( A) = . Cette formule peut-être considérée comme une généralisation de la S ( W) formule précédente au cas d’ensemble non dénombrable d’évènements élémentaires. En 3D (espace à 3 dimensions), au lieu des surfaces, on considèrera les volumes V ( A) P( A) = . V (W ) 8. Propriétés de la probabilité : De la définition, il découle que : (i) P( A ) = 1 - P( A) . En particulier, P(F ) = 1 - P(W) = 1 - 1 = 0. Notons cependant que si P( A) = 0 , cela ne veut pas dire que A = F est l’événement impossible. On dit dans ce cas que A est de probabilité nulle ou négligeable. (ii) Si A I B ¹ F , alors P( A U B) = P( A) + P( B ) - P( A I B). (iii) P( A + B) £ P( A) + P( B) . (iv) Si A Ì B , alors P( A) £ P( B) . (v) P( U Ai ) £ å P( Ai ) (inégalité de Boole). (vi) Si {Ai }est une suite d’évènements tels que å P( Ai ) < ¥ , alors avec une ¥ ¥ i =1 i =1 ¥ i =1 probabilité 1, il ne se réalise qu’un nombre fini de ces évènements.(lemme de Borel-Cantelli). (vii) Si {Ai } est une suite décroissante d’évènements : Ai +1 Ì Ai , i ³ 1 et 23 B = A1 I A2 I ... I An , alors lim P ( Ai ) = P ( B ) . n ®¥ (viii) Si {Ai } est une suite croissante d’évènements : Ai Ì Ai +1 , i ³ 1 et B = A1 U A2 U ... U An , alors lim P ( Ai ) = P ( B) . n®¥ (ix) Si {Ai , i = 1,..., n} est système exhaustif d’évènements (une famille d’évènements incompatibles deux à deux et A un certain événement), alors n P( A) = å P( A I Ai ) (formule des probabilités totales) i =1 (x) Si {Ai , i = 1,..., n} est une famille d’évènements quelconque, alors æ n Pçç U Ai è i =1 ö n ÷÷ = å P( Ai ) - å P( Ai I A j ) + P( Ai I A j I Ak ) + ... å 1£i < j £ n 1£i < j < k £ n ø i =1 æ n ö ... + (- 1)n +1 Pçç I Ai ÷÷ è i =1 ø (formule de Poincaré) 9. Probabilité conditionnelle, Causalité et Indépendance. Dans les problèmes de modélisation, la notion d’influence d’un événement par rapport à un autre (par exemple, est-ce que l’événement A est la cause de l’événement B) reste souvent une notion assez vague. La notion de probabilité conditionnelle permet dans de nombreuses applications de réévaluer la probabilité d’un événement lorsqu’on dispose d’une information supplémentaire. La probabilité de l’événement A sachant B, s’écrit P( A I B) , si P(B) ¹ F P( B) Si B = W , alors P( A / W) = P ( A) . Pour P( B) = 0 , P( A / B) n’est pas définie. P( A / B) = (2) Deux évènements A et B sont indépendants si P( A / B) = P( A) ou si P( B / A) = P( B) . En d’autres termes, l’événement A est indépendant de l’évènement B, ou la non réalisation de B n’influe pas sur la réalisation de A (et/ou vice-versa). Ces deux 24 dernières relations sont équivalentes et on peut réécrire (2) sous la forme : P( A I B) = P ( A).P( B) . Exemple 12: Une urne contient 4 boules blanches et 6 boules noires. On tire deux boules successivement sans remise. (i) Si la première boule est blanche, quelle est la probabilité pour que la seconde soit blanche ? (ii) la probabilité pour que les deux boules soient blanches ? Soient les évènements A= « la première boule tirée est blanche » ; B= « la deuxième boule tirée est blanche ». (i) (ii) 3 (en effet si la 1ère boule tirée est blanche, alors il reste 9 boules 9 dont 3 blanches). 4 3 P( A I B) = P( A).P( B / A) = ´ . 10 9 P( B / A) = Par induction, on obtient la formule générale : P( A1 A2 ...An ) = P( A1 ).P( A2 / A1 )...P( An / A1 Aé ...An -1 ) Et si ces évènements sont indépendants, alors P( A1 A2 ...An ) = P( A1 ).P( A2 )...P( An ) Les évènements A1 , A2 ,..., An sont mutuellement indépendants, si pour toute permutation 1 < i1 < i 2 < ... < ik < n les évènements A , A ,..., A sont indépendants. i1 i2 ik Citons encore quelques propriétés des probabilités conditionnelles: · · · P( A / A) = 1 , P(F / A) = 0 et P(W / A) = 1. Si A Ì B , alors P( B / A) = 1. P( A / C ) £ P( B / C ) si A Ì B. 25 · · · P( B + C / A) = P( B / A) + P(C / A) si B I C = F. En général, P( B + C / A) = P( B / A) + P(C / A) - P( B I C / A). P( B / A) + P( B / A) = 1 . Mais en général, P( B / A) + P( B / A ) ¹ 1 . 10. Formule des probabilités totales : Soient H 1 , H 2 ,..., H n des évènements aléatoires (interprétés comme des hypothèses) formant un système exhaustif d’évènements i.e. incompatibles deux à deux ( H i I H j = F pour i ¹ j ), et tels que H 1 U H 2 U ... U H n = W (il est certain que l’un de ces n évènements doit se réaliser). Une telle famille d’évènements est appelée système complet. Soit d’autre part A un certain événement, alors n P( A) = å P( H i ) P( A / H i ) i =1 (3) ou encore n P( A) = å P( A I H i ) i =1 (4) Exemple 13: Contrôle de qualité. Une usine contient trois machines M1, M2, M3 assurant chacune 25%, 35% et 40% de la production d’un certain produit P. Les statistiques du contrôle de qualité ont montré que les proportions de défectueux sont respectivement 5%, 4% ? 2% pour chacune des machines. Quelle est la probabilité pour qu’un article choisi au hasard s’avère défectueux ? Notons Hi= « l’article a été fabriqué par la machine N°i », i=1,2,3. et A= « l’article choisi est défectueux ». Alors, en vertu de la formule (3) : P( A) = P( H1 ) P( A / H1 ) + P( H é ) P( A / H 2 ) + P( H 3 ) P( A / H 3 ) = 0.25´0.05+ 0.35´0.04+ 0.40´0.02= 0.0345 Exemple 14: Accès à une Base de données. Soient n utilisateurs d’une même base de données qui souhaitent accéder à une même donnée. Le premier qui y accède met un verrou pour la bloquer, les autres ne pouvant plus y accéder jusqu’à sa libération. On s’intéresse à la probabilité de l’événement A={la donnée est verrouillée}. On connaît les 26 probabilités « a priori » P( H i ) = P {que la donnée soit sollicitée par le i-ème utilisateur}, i = 1,2,..., n . D’autre part, pour chaque utilisateur N° i, on connaît P( A / H i ) représentant la probabilité que la donnée soit verrouillée par le i-ème utilisateur. La probabilité de l’événement A est donnée par la formule ci-dessus. 11. Arbre de probabilités. Il est parfois commode de représenter l’espace probabilisé à l’aide d’un arbre de probabilités (on dit encore arbre des éventualités ou arbre pondéré). Son utilisation permet de visualiser les différentes issues possibles et constitue en quelque sorte un résumé de la situation probabiliste. Les sommets du graphe représentent des évènements possibles. Un arc ou branche du graphe correspond à une éventualité possible, et est pondérée par la probabilité de réalisation de l’éventualité figurant à son extrémité, pondérée par celle figurant à son origine. P( B / A) P( A) A B AI B A B AI B P( B / A) W P( B / A ) P( A ) B B AIB B AIB A P( B / A ) Figure 6 : Arbre de probabilités. L’arbre est toujours parcouru de la racine (sommet initial) vers l’extrémité des branches en utilisant les règles suivantes : ¨chaque chemin correspond à l’intersection des évènements rencontrés ; ¨on affecte à un chemin donné une probabilité égale au produit des probabilités rencontrées ; la probabilité d’un événement correspondant à la réunion de plusieurs chemins est la somme des probabilités correspondant à ces chemins. 27 Exemple 15 Une urne contient 6 boules blanches et 4 boules noires. On tire au hasard deux boules successivement et sans remise. L’espace des évènements élémentaires est dans ce cas : W = {BB, BN , NB, NN }. Notons Bi (resp. N i ) ={la i-ème boule tirée est blanche (resp.noire)}. Calculons les probabilités nécessaires au graphe. On peut voir que B1 = {BB, BN } , N1 = {NB, NN }, B 2 = {BB, NB}, N 2 = {BN , NN }. Notons que les évènements de W ne sont pas équiprobables. 6 3 4 2 P( B1 ) = = , P ( N1 ) = = ; 10 5 10 5 5 4 P( B2 / B1 ) = , P( N 2 / B1 ) = 9 9 6 2 3 1 P( B2 / N1 ) = = , P( N 2 / N1 ) = = 9 3 9 3 5 9 3 5 B1 BB AI B N2 BN 2 3 B2 NB 3 9 N2 4 9 W 2 5 B2 N1 NN On peut vérifier que 6 5 1 P( B1 I B2 ) = P( BB ) = P( B1 ) P( B2 / B1 ) = ´ = 10 9 3 6 4 4 P( B1 I N 2 ) = P( BN ) = P( B1 ) P( N 2 / B1 ) = ´ = 10 9 15 28 4 6 4 P( N1 I B2 ) = P( NB) = P( N1 ) P( B2 / N1 ) = ´ = 10 9 15 4 3 2 P( N1 I N 2 ) = P( NN ) = P( N 1 ) P( N 2 / N1 ) = ´ = 10 9 15 12. Formule de Bayes (ou formules des causes). Dans les conditions précédentes P( H i / A) = P( H i ).P( A / H i ) n å P( H i ).P( A / H i ) i =1 Ce résultat s’appelle parfois théorème des causes ou des hypothèses. En effet, supposons que l’événement A peut avoir plusieurs causes H 1 , H 2 ,..., H n qui s’excluent mutuellement. Si seule une de ces causes (hypothèses) se réalise, alors on peut calculer la probabilité de chacune des causes sachant que A s’est réalisé. Les probabilités P( H 1 ),..., P( H n ) s’appellent également probabilités a priori (initiales), et P( H 1 / A), ..., P( H n / A) sont les probabilités a posteriori. Les probabilités a priori correspondent en quelque sorte aux probabilités fournies par n expertises concernant A. La formule de Bayes permet de reconsidérer la véracité des hypothèses compte tenu des résultats des observations de l’expérience ou des différentes expertises. Exemple 13 (suite) : La probabilité pour qu’un article défectueux soit produit par la première machine P( H1) P( A / H1) 0.25 ´ 0.05 25 P( H1 / A) = = = P( A) 0.0345 69 P( H 2) P( A / H 2 ) 0.35 ´ 0.04 28 Par la deuxième machine: P( H 2 / A) = = = P( A) 0.0345 69 Exemple 14 (suite) : Si l’on sait que la donnée est verrouillée, on peut calculer par cette formule la probabilité que la donnée soit verrouillée pour cause d’utilisation par le ième utilisateur. 29