Lycée Roland Garros BCPST 1ère année Mathématiques 2013 - 2014 Chapitre no 17. Probabilités de base 1 Expériences aléatoires 1.1 Dénition Une expérience aléatoire est une expérience dont l'issue ne peut être prédite de manière certaine. Il y a alors un certain nombre d'issues à envisager. Dénition 1. L'ensemble des résultats possibles d'une expérience aléatoire est généralement noté Ω et appelé univers. Un élément de Ω est généralement noté ω et appelé une éventualité ou issue. Il faut donc retenir qu'on met dans l'ensemble Ω tout ce qui peut se produire, tous les résultats possibles de l'expérience. 1.2 Des exemples 1. On lance une pièce (jeu de Pile ou Face). On choisira l'ensemble Ω = {P, F } C'est un ensemble à 2 éléments qui sont les deux issues de l'expérience. 2. On jette un dé. L'expérience est naturellement modélisée par l'ensemble Ω = {1, 2, . . . , 6} 3. On jette deux dés (discernables). Une issue est un couple ω = (ω1 , ω2 ), où ω1 est le score du premier dé, et ω2 le score du second dé. On choisira donc Ω = {1, 2, . . . , 6}2 4. On tire une main de 8 cartes dans un jeu de 32. On note C l'ensemble des 32 cartes. L'issue est la donnée de l'ensemble des 8 cartes de la main, pour lesquelles l'ordre ne compte pas. On prendra donc Ω = {P ⊂ C : Card(P ) = 8} c'est-à-dire l'ensemble des sous-parties de C qui contiennent 8 éléments. 1 5. Un enfant naît d'un père Aa et d'une mère Aa. L'enfant héritera d'un des trois génotypes possibles AA, Aa ou aa. On prendra donc Ω = {AA, Aa, aa} 6. L'entraîneur des Bleus choisit les cinq premiers tireurs pour la séance de tir au but. Une issue est un 5-uplet (ω1 , . . . , ω5 ) de joueurs distincts parmi les 11 joueurs de l'équipe (l'ordre compte). En notant J l'ensemble des 11 joueurs, Ω = {5 − listes sans répétition de J} 7. On tire au sort l'ordre de passage de Pierre(1) , Paul(2) , Jacques(3) et Thierry(4) à un oral. Une issue est une façon d'ordonner les 4 candidats, donc Ω = {permutations de l'ensemble {1, 2, 3, 4}} = {(1, 2, 3, 4), (2, 1, 3, 4), . . .} Au fait, combien y'a t-il de telles permutations (que vaut Card(Ω)) ? 8. Je décide de jeter une pièce jusqu'à ce qu'elle tombe sur la tranche. Combien d'essais faudra-t-il avant que j'y arrive ? N'importe quel entier naturel est envisageable donc Ω = {1, 2, 3, . . .} = N∗ 9. Je regarde par la fenêtre. Combien de temps dois-je attendre pour voir un oiseau passer ? L'issue peut être n'importe quel nombre réel positif donc Ω = [0, +∞[= R∗ Pour les exemples 8 et 9, l'univers Ω est un ensemble inni. Dans le programme de première année, on se limitera cependant au cas d'un univers Ω ni. Cette restriction permet d'éviter bon nombre de problèmes techniques mais ne nous permettra pas de traiter des problèmes comme celles de ces deux exemples. 2 Évènements 2.1 Dénitions Un évènement E est une caractéristique de l'expérience, qui est réalisée ou non. Dans l'ensemble Ω, il y a certaines issues ω pour lesquels l'évènement est réalisé (ω ∈ E ), et d'autres issues ω pour lesquels l'évènement n'est pas réalisé (ω ∈ / E ). En clair : 2 Dénition 2. On appelle évènement toute sous-partie E de Ω, autrement dit tout élément de P(Ω). L'évènement A est dit réalisé si l'issue eective ω de l'expérience appartient à A. L'ensemble des évènements est donc P(Ω), l'ensemble de toutes les sous-parties de Ω. Vocabulaire probabiliste. 1. L'évènement Ω est dit certain. 2. L'évènement ∅ est dit impossible. 3. Un évènement ne contenant qu'une issue, autrement dit de la forme E = {ω}, est dit élementaire. 4. Lorsque A ⊂ B on dit parfois que A implique B . . (1) On jette un dé. L'évènenement E : le résultat est pair est Exemples E = {2, 4, 6} (2) On jette deux dés. On pose Ω = {1, 2, . . . , 6}2 . L'évènement F : les deux scores sont égaux est F = {(1, 1), (2, 2), . . . , (6, 6)}, l'évènement G : la somme des deux scores fait 5 est G = {(1, 4), (2, 3), (3, 2), (4, 1)}, L'évènement H : on obtient un double 6 est un évènement élémentaire car H = {(6, 6)}. À vous : 1. Pouvez-vous écrire l'évènement obtenir au moins un 6 ? 2. Ecrire l'évènement M : les deux scores sont ≤ 4 . Vérier que G implique M . Est-il vrai que M implique G ? 2.2 Opérations sur les évènements Dénition 3. Soient A et B deux évènements. • A est appelé évènement contraire de A ou encore non A . • A ∪ B est appelé réunion de A et B ou encore A ou B . • A ∩ B est appelé intersection de A et B ou encore A et B . 3 Dénition 4. Lorsque A ∩ B = ∅, on dit que A et B sont incompatibles. Pour un lancer de dé (Ω = {1, 2, . . . , 6}), les évènements A : obtenir un multiple de 3 et B : obtenir un score ≤ 2 sont incompatibles. Exemple. Rappel : règles des opérations ∪ et ∩ (1) Lois de Morgan : (A ∪ B) = A ∩ B, (A ∩ B) = A ∪ B (2) union et intersection sont commutatifs : A ∪ B = B ∪ A, A∩B =B∩A (3) ∪ est distributive sur ∩ et vice versa : A∪(B ∩C) = (A∪B)∩(A∪C), A∩(B ∪C) = (A∩B)∪(A∩C) (4) Opérations évidentes : A ∪ ∅ = A, A ∩ ∅ = ∅, A ∪ Ω = Ω, A∩Ω=A Dénition 5. On appelle système complet toute famille (A1 , . . . , An ) d'évènements tels que (1) ∀i, j ∈ {1, 2, . . . , n}, avec i 6= j , on a Ai ∩ Aj = ∅, S (2) ni=1 Ai = Ω. Remarque. La propriété 1 se lit : les Ai sont deux-à-deux disjoints . Soit Ω = {1, 2, . . . , 100}, et les évènements A = {1, 2, . . . , 20}, B = {21, . . . , 50} et C = {51, . . . , 100}. La famille (A, B, C) forme un système complet de Ω. Exemple. 4 Soit Ω = {1, 2, . . . , 6}2 qui modélise le résultat d'un lancer de 2 dés. Soit A : deux scores pairs , B : deux scores impairs et C : un score pair et l'autre impair . La famille (A, B, C) forme un système complet de Ω. Exemple. Proposition 1. Pour tout évènement A, la famille (A, A) est un système complet. Démonstration. On vérie aisément que A ∩ A = ∅ et A ∪ A = Ω. 3 Probabilités 3.1 Avant-propos La démarche probabiliste consiste à associer à chaque évènement un nombre qui quantie son degré de vraisemblance, entre 0 (évènement impossible) et 1 (évènement certain). Le calcul des probabilités est un concept purement théorique, il est le produit de la modélisation de problèmes concrets, c'est-à-dire leur transformation en problèmes mathématiques abstraits. Sans cette étape de modélisation parler de probabilités n'a pas réellement de sens rigoureux : par exemple une question du genre la probabilité que je réussisse au concours n'est pas bien dénie : quel sens pourrait-on lui donner ? L'étape de modélisation nécessite souvent des hypothèses de simplication, nécessaires pour rendre le problème traitable mathématiquement. Par exemple on peut être amené à supposer que le sexe des diérents enfants d'un même couple sont indépendants, mais cette hypothèse est discutable. En fait il conviendra de toujours s'interroger sur la délité d'un modèle : est-il une bonne représentation de la situation réelle ? Les hypothèses faites sont-elles raisonnables ? Pourquoi ? 3.2 Dénitions et premières propriétés Dénition 6. On appelle probabilité sur Ω toute application P : P(Ω) → [0, 1] A 7→ P(A) vériant les axiomes suivants : (1) pour tous évènements A et B incompatibles (A ∩ B = ∅), on a P(A ∪ B) = P(A) + P(B) 5 (2) P(Ω) = 1. La propriété 1 s'appelle axiome d'additivité. Les propriétés suivantes, qui sont des conséquences de ces deux axiomes, servent constamment dans le calcul des probabilités et doivent être comprises parfaitement. Proposition 2. Pour tous évènements, 1. 2. 3. 4. 5. 6. P(∅) = 0, P(A) = 1 − P(A), si A ⊂ B alors P(A) ≤ P(B), P(A ∪ B) = P(A) + P(B) − P(A ∩ B) P(A ∪ B) ≤ P(A) + P(B) si A1 , . . . , An sont deux à deux incompatibles alors P( Sn i=1 Ai ) = Pn i=1 P(Ai ) Démonstration. 1. P(∅) = P(∅ ∪ ∅) = P(∅) + P(∅) donc P(∅) = 0. 2. P(Ω) = 1 = P(A) + P(A) car A et A sont disjoints. 3. si A ⊂ B alors B = A ∪ (B \ A) et cette union est disjointe donc P(B) = P(B \ A), 4. A et B \ A étant incompatibles, on a P(A ∪ B) = P(A) + P(B \ A) = P(A) + (P(B) − P(A ∩ B)). 5. Conséquence immédiate du point précédent. 6. Par récurrence : pour n = 2 c'est l'axiome d'additivité, et en supposant la propriété vraie au rang n alors pour (n + 1) évènements incompatibles P( n+1 [ Ai ) = P i=1 n [ ! ! Ai ∪ An+1 i=1 =P n [ ! Ai + P (An+1 ) i=1 = = n X i=1 n+1 X P(Ai ) + P (An+1 ) P(Ai ) i=1 6 (union disjointe) ATTENTION ! A l'issue d'un calcul de probabilité, toujours se demander si le résultat paraît cohérent au vu du problème posé. Par exemple, si je trouve une probabilité très faible, est-ce bien ce à quoi on s'attendait ? Avoir l'esprit critique sur ses résultats permet de détecter bien des erreurs ! Sachez qu'en particulier un correcteur réagit très mal en lisant comme résultat nal une probabilité < 0 ou > 1, surtout si ça ne semble pas poser de problème au candidat. 3.3 Dénition d'une probabilité selon les évènements élémentaires Théorème 1. Soit un univers Ω = {ω1 , . . . , ωn } et des réels p1 , . . . , pn vériant 1. ∀i ∈ {1, 2, . . . , n}, pi ≥ 0, 2. p1 + . . . pn = 1. Il existe une unique probabilité P sur Ω telle que ∀i ∈ {1, 2, . . . , n}, pi ≥ 0, P({ωi }) = pi . De plus, pour tout évènement A, X P(A) = pi . i tel que ωi ∈A Démonstration. Unicité. Si P({ωi }) = pi pour tout i alors, pour A un évènement, on a A = S {ω} donc nécessairement ω∈A P(A) = X (1) P({ωi }). i tel que ωi ∈A Existence. L'application P dénie par (1) dénit bien une probabilité. En eet si A et B sont incompatibles alors P(A ∪ B) = X i tel que ωi ∈A∪B pi = X i tel que ωi ∈A pi + X pi = P(A) + P(B). i tel que ωi ∈B De plus P vérie bien sûr, pour tout i ∈ {1, 2, . . . , n}, P({ωi }) = pi . . Dénir un modèle probabiliste pour une expérience, c'est simplement spécier les probabilités de chacune des issues possibles, c'est-à-dire choisir les valeurs de p1 , p2 , . . . , pn . Bien sûr ces nombres doivent être positifs et leur somme doit être égale à 1. Moralité Exemple. vérie Il existe une unique probabilité P sur l'ensemble {Y, M, C, A} qui P({Y }) = 0.3, P({M }) = 0.1, P({C}) = 0.35, P({A}) = 0.25 7 3.4 Formule des probabilités totales : version 1 Théorème 2 (Probabilités totales, version 1). Soit (A1 , . . . , An ) un système complet. Alors pour tout évènement B , P(B) = Pn i=1 P(B ∩ Ai ) Démonstration. B ∩A1 , . . . , ∩An sont deux-à-deux incompatibles puisque pour i 6= j , on a (B ∩ Ai ) ∩ (B ∩ Aj )S= B ∩ (Ai ∩ Aj )P= B ∩ ∅ = ∅. Donc par l'axiome d'additivité, P(B) = P ( ni=1 (B ∩ Ai )) = ni=1 P(B ∩ Ai ). On tire une bille dans un grand panier de billes toutes diérentes. Alors P(la bille est bleue) = P(la bille est bleu clair)+P(la bille est bleu foncé). Exemple. 3.5 Probabilité uniforme Dénition 7. Soit Ω un ensemble ni. Il existe en vertu du théorème 1 une unique probabilité P sur Ω vériant : ∀ω ∈ Ω, P({ω}) = 1 Card(Ω) P est appelée probabilité uniforme sur Ω. . P est l'unique probabilité qui aecte à chaque issue ω la même probabilité, qui doit alors nécessairement valoir 1/n pour que la somme fasse 1. Quand on doit modéliser une situation probabiliste, on choisira la probabilité uniforme si rien ne permet de penser que telle issue est plus probable qu'une autre (c'est très fréquent !). Remarque ATTENTION. Ne pas confondre choisir au hasard avec choisir au hasard uniformément . C'est un abus de langage trop fréquent ! Si j'interroge un passant dans la rue, son âge sera certes un nombre aléatoire entre 0 et 120, mais certainement pas selon la probabilité uniforme : il y a par exemple plus de jeunes de 20 ans que de personnes de 116 ans ! Proposition 3. Si P est la probabilité uniforme sur Ω, alors pour tout évènement A, P(A) = Card(A) Card(Ω) En somme, lorsqu'on travaille sous la probabilité uniforme, calculer P(A) revient à calculer Card(A), c'est-à-dire compter les issues qui réalisent A. Les problèmes de probabilités ne sont alors que des histoires de dénombrement ! Des exemples : 8 1. On distribue une main de Poker (5 cartes d'un jeu de 32 cartes). Calculer la probabilité que la main contienne exactement 3 carreaux, que la donne contienne au moins une paire. 2. Quelle est la probabilité pour que mon code de carte bleue contienne 4 chires rangés dans l'ordre strictement croissant ? Quelle est la probabilité pour qu'il contienne deux chires pairs et deux chires impairs ? 4 Conditionnement 4.1 Dénition . Le petit Kevin va choisir une glace. Je dois deviner quel parfum il va choisir. Me basant sur une étude statistique réalisée sur 1000 élèves, j'estime que son choix va se faire selon les probabilités suivantes : Motivation P(vanille) = 0.2, P(fraise) = 0.2, P(chocolat) = 0.5, P(pistache) = 0.1 Mais je me souviens soudainement que Kevin déteste le chocolat. Les chires ci-dessus ne sont alors plus pertinents car ils ne tiennent pas compte de cette information. Je vais naturellement considérer une nouvelle probabilité, dite probabilité sachant que Kevin n'aime pas le chocolat , qui respectera les rapports entre les probabilités des autres parfums. En l'occurrence je dois toutes les multiplier par 2 : P(vanille|pas chocolat) = 0.4 P(fraise|pas chocolat) = 0.4, P(pistache|pas chocolat) = 0.2 Dénition 8. Soient A et B deux évènements de Ω avec P(B) 6= 0. On dénit la probabilité conditionnelle de A sachant B par : P(A|B) = P(A ∩ B) P(B) P(A|B) peut aussi être notée PB (A). Théorème 3. PB est une probabilité sur Ω. Démonstration. On vérie que PB vérie les deux axiomes des probabilités : P(B) PB (Ω) = P(Ω∩B) = P(B) = 1. P(B) 0 )∩B) P((A∩B)∪(A0 ∩B)) Si A ∩ A0 = ∅, on a PB (A ∪ A0 ) = P((A∪A = PB (A) + P(B) P(B) 0 PB (A ). 9 : PB possède donc toutes les propriétés des probabilités énoncées dans ce cours. Moralité ATTENTION. On parle de la probabilité de A sachant B mais pour autant on n'a jamais dit que A|B était un évènement. D'ailleurs ça n'a aucun sens de parler de A|B , seule la notation P(A|B) a du sens. Mais elle doit être comprise comme la probabilité, sachant que B est réalisé, de l'évènement A. Proposition 4. Soient A et B deux évènements tels que P(B) 6= 0. Alors P(A ∩ B) = P(B) × P(A|B) Cette dernière formule traduit une idée toute bête : pour que A et B se réalisent, il faut que B se réalise puis que A se réalise (en sachant que B s'est réalisé) Remarque. probabilité P(A|B) est le poids associé à une branche dans un arbre de [Dessin] Dans une urne contenant 4 boules noires et 2 boules blanches, on tire deux boules sans remise. Calculer la probabilité de piocher une boule noire puis une boule blanche. Exemple. 4.2 Formule des probabilités composées La formule suivante n'est que la généralisation à n évènements de la formule donnée dans la proposition 4. Théorème 4 (Formule des probabilités composées). Soient A1 , . . . , An des évènements tels que P(A1 ∩ · · · ∩ An−1 ) 6= 0. On a P(A1 ∩ · · · ∩ An ) = P(A1 ) × P(A2 |A1 ) × P(A3 |A2 ∩ A1 ) × · · · × P(An |A1 ∩ · · · ∩ An−1 ) Démonstration. Par récurrence sur n. On tire sans remise 4 boules dans une urne contenant six rouges et 4 noires. Calculer la probabilité de ne tirer que des boules noires. Exemple. 10 4.3 Formule des probabilités totales : version 2 Théorème 5 (Probabilités totales, version 2). Soit B un évènement et (A1 , . . . , An ) un système complet d'évènements tels que ∀i ∈ {1, 2, . . . , n}, P(Ai ) 6= 0. On a P(B) = n X P(Ai )P(B|Ai ) i=1 Démonstration. il sut de reprendre la version 1 de cette formule et d'utiliser la dénition d'une probabilité conditionnelle. On met deux boules blanches dans une urne. On tire ensuite un dé et on met autant de boules noires que le score du dé. On pioche ensuite une boule dans cette urne. Quelle est la probabilité pour que celle-ci soit noire ? Exemple. 4.4 Formule de Bayes Théorème 6 (Formule de Bayes). Soient A et B deux évènements tels que P(A), P(B) 6= 0. On a P(A|B) = P(A) × P(B|A) P(B) Démonstration. Laissée au lecteur car très facile ! Remarque. La formule de Bayes s'écrit aussi P(B) × P(A|B) = P(A) × P(B|A) • Quand on écrit P(B) × P(A|B), B est vu comme la cause et A comme la conséquence ; • Quand on écrit P(A) × P(B|A), A est vu comme la cause et B comme la conséquence. Par conséquent, la formule de Bayes permet de basculer la relation de causalité entre 2 évènements. La cause devient conséquence et vice-versa. Un fabricant souhaite commercialiser un alcootest. En laboratoire, les tests montrent que ? sur les personnes ivres, 95% des tests sont positifs. ? sur les personnes sobres, 4% des tests sont positifs. Par ailleurs, on sait d'après des données gouvernementales que sur la route en moyenne 2% des conducteurs sont ivres. Calculer la probabilité qu'un conducteur interpellé soit ivre sachant que le résultat de son test est positif. Interpréter. Exemple. 11 5 Indépendance 5.1 Indépendance de 2 évènements Dénition 9. Deux évènements A et B sont dits indépendants (et on note parfois A ⊥ B ) si P(A ∩ B) = P(A)P(B) Proposition 5. On suppose que P(B) 6= 0. Les évènements A et B sont indépendants si et seulement si P(A|B) = P(A) Démonstration. Laissée au lecteur car vraiment facile. Cette proposition, parfois prise comme la dénition d'indépendance, correspond vraiment à la notion intuitive d'indépendance : l'égalité P(A|B) = P(A) signie que le fait d'avoir l'information que B s'est réalisé n'a aucune inuence sur la probabilité que A se réalise. En pratique, l'indépendance de deux évènements est souvent une hypothèse de modélisation. On supposera que deux évènements sont indépendants s'ils ne paraissent avoir aucun lien potentiel, c'est-à-dire si rien ne laisse présumer de l'existence d'une corrélation entre eux Lancers de dé successifs, ou plus généralement des expériences successives étant réalisées dans des conditions où aucune interférence n'est possible. Exemple. Proposition 6. Le passage au contraire préserve la relation d'indépendance. Plus clairement, si A et B sont indépendants alors • A et B sont indépendants, • A et B sont indépendants, • A et B sont indépendants. Démonstration. P(A ∩ B) = P(B \ (A ∩ B)) = P(B) − P(A ∩ B) = P(B) − P(A)P(B) = P(B)(1 − P(A)) = P(A ∩ B) De même pour les deux autres points. 12 Attention. L'indépendance n'est pas conservée par conditionnement. Nous verrons notamment en TD qu'il n'y a pas d'implication entre P(A ∩ B) = P(A)P(B) et P(A ∩ B|C) = P(A|C)P(B|C). L'une peut avoir lieu sans que l'autre ait lieu et vice-versa. 5.2 Indépendance (mutuelle) de n évènements On généralise maintenant la notion d'indépendance à un nombre quelconque, disons n, d'évènements que nous noterons A1 , . . . , An . Dénition 10. On dit que A1 , . . . , An sont dits mutuellement indépendants si ! ∀J ⊂ {1, 2, . . . , n}, P \ k∈J Ak = Y P(Ak ) k∈J Attention, il ne sut pas que des évènements soient deux à deux indépendants pour qu'ils soient mutuellement indépendants. Par exemple, pour n = 3, des évènements A1 , A2 , A3 sont deux-à-deux indépendants si : Remarque. P(A1 ∩ A2 ) = P(A1 )P(A2 ) P(A1 ∩ A3 ) = P(A1 )P(A3 ) P(A2 ∩ A3 ) = P(A2 )P(A3 ) (2) mais pour qu'ils soient mutuellement indépendants il faut avoir en plus : P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 ) (3) Il se trouve qu'en général il n'y a aucun lien d'implication entre (3) et (2). Exemple. On lance deux dés et on considère les évènements A : 1er score pair, B : 2ème score pair, C : Les deux scores ont la même parité . Montrer que A, B et C sont deux-à-deux indépendants mais pas mutuellement indépendants. 13