DENOMBREMENTS - PROBABILITES I. Langage des parties d’un ensemble E désigne un ensemble et A et B désignent deux parties (ou sous-ensembles) de E. On écrit : A E et B E (A est contenu, ou est inclus, dans E ; idem pour B). Réunion de A et B Intersection de A et B Complémentaire de A A et B disjoints AB A B A B = A E E A E E B B A A AB A AB B A Partition A4 A7 A1 Les parties A1, A2, …, Ap, constituent A3 A6 A8 une partition de E si elles sont deux à deux A2 A5 disjointes et si leur réunion est égale à E. Alors, quelle que soit la partie B de E, B = (B A1)(B A1)…(B Ap), les parties (B Ai), pour 1 i p, étant disjointes deux à deux. E Remarque : Cette définition suppose donc non vides les parties A1, A2, …, Ap. Produit cartésien d’ensembles Soit deux ensembles E et F. On appelle produit cartésien de E et de F l’ensemble EF = {(x, y) / x E et y F}. Cette définition s’étend au produit cartésien de plus de deux ensembles. Cardinal d’un ensemble fini On note In = {k, k IN / 1 k n}. Donc In est une partie de IN. On convient d’écrire I0 = . Soit un ensemble E. S’il existe une bijection d’un ensemble In sur E, on dit que E est un ensemble fini. L’entier naturel n est appelé cardinal de E ou nombre des éléments de E. On note : n = card E. E désignant un ensemble fini et A1, A2, …, Ap des parties de E constituant une partition de E, alors : card E = card A1 + card A2 + … + card Ap. E et F désignant deux ensembles finis leur produit cartésien EF est un ensemble fini et card EF = (card E) (card F). Exemple : Le tableau donnant les résultats du lancer de deux dés. II. Vocabulaire probabiliste A. Univers – Exemples On envisage une expérience aléatoire comportant un nombre fini d’issues. On désigne par l’ensemble de ces issues : = {1, 2, … , r}. est appelé l’univers associé à cette expérience. On appelle événement toute partie A de . Un événement réduit à une seule issue {i} est un événement élémentaire. Si A et B désignent deux événements de , l’événement AB est réalisé si l’un au moins des événements A et B est réalisé. L’événement AB est réalisé si les événements A et B sont tous les deux réalisés. Exemple : On considère l’ensemble des entiers de 20 à 40. On choisit l’un de ces nombres au hasard. A est l’événement : « le nombre est multiple de 3 », B l’événement : « le nombre est multiple de 2 » et C : « le nombre est multiple de 6 ». Ainsi C = AB. L’événement AB est l’événement : « le nombre est multiple de 2 ou de 3 ». B. Loi de probabilité On définit sur l’ensemble une loi de probabilité P en se donnant une suite de nombres (p1, p2, … , pr) , chacun de ces nombres pi étant associé à une issue i, on note encore pi = P(i), et vérifiant : ir pour tout i ( 1 i n), pi 0 et p i 1. i 1 La probabilité d’un événement A est la somme de toutes les probabilités des issues appartenant à A. On convient que P() = 0. Exemple : Lorsqu’on prélève au hasard une boule dans une urne contenant trois boules rouges, deux boules bleues et une boule jaune, si l’on considère les trois issues R (rouge), B (bleue) et J (jaune), plusieurs choix des pi remplissent les conditions précédentes, mais le modèle choisi n’est bon que lorsque les fréquences statistiques fi se rapprochent des pi, quand le nombre d’expériences devient grand. L’intuition conduit au modèle ci-contre issue i probabilité pi R 1 2 B 1 3 J 1 6 Propriétés parties de A , AB = A A, B vocabulaire des événements propriété A quelconque 0 P(A) 1 événement certain, impossible P() = 1 P() = 0 A et B sont incompatibles P(AB) = P(A) + P(B) événement contraire de A P( A ) = 1 – P(A) événements quelconques P(AB) = P(A) + P(B) – P(AB) Exemple : Dans une classe, 30% suivent le cours d’allemand (A), 40% celui d’espagnol (E), et 60% celui d’allemand ou d’espagnol. Quelle est la probabilité qu’un élève suive les cours d’allemand ou d’espagnol ? Loi équirépartie Soit P = (p1, p2, … , pr) une loi de probabilité sur un univers = {1, 2, … , r}. On dit que la loi P est équirépartie sur (ou qu’il y a équiprobabilité) si tous les pi sont égaux. 1 1 Dans ce cas (fréquent), on a, pour chaque issue, P(i) = pi = . Et, pour tout card n card A nombre de cas favorables événement A, P(A) = . card nombre de cas possibles Exemple 1 : On reprend l’exemple précédent. Calculer P(A), P(B), P(C), P(AB), P(AB), P(AC) et P(AC). Exemple 2 : On extrait une carte au hasard d’un jeu de 32 cartes. Quelle est la probabilité de l’événement C : « la carte n’est ni un roi, ni un cœur » ? III. Conditionnement et indépendance A. Probabilité conditionnelle Définition : Soit A un événement de l’ensemble des issues, tel que P(A) 0. On définit sur une nouvelle probabilité, notée PA, en posant, pour tout événement B, P(A B) PA(B) = . P(A) PA est appelée probabilité conditionnelle sachant que A est réalisé. On note encore PA(B) = P(B/A) qui se lit « probabilité de B sachant A ». Remarque : On admet que PA est une probabilité. Il peut être commode de représenter l’épreuve par un arbre, en indiquant sur les branches de premier niveau les probabilités de A et de A , puis sur les branches de deuxième niveau les probabilités conditionnelles. Exemple : Une urne contient trois boules rouges et deux boules vertes. On tire deux boules au hasard, successivement et sans remise. A est l’événement : « La première boule tirée est rouge » ; B est l’événement : « La deuxième boule tirée est rouge ». 1/2 B A 3/5 1/2 3/4 2/5 B B A 1/4 B Théorème : Etant donné deux événements quelconques A et B relatifs à une même épreuve : P(BA) = P(A) PA(B) ; La démonstration découle directement de la définition d’une probabilité conditionnelle. Exemple : En reprenant l’exemple, quelle est la probabilité d’obtenir deux boules rouges ? 3 1 3 P(BA) = P(A) PA(B) P(BA) = . 5 2 10 B. Formule des probabilités totales Théorème : Soit A1, A2, …, Ak, des événements de probabilité non nulle, réalisant une partition de l’univers . Alors, pour tout événement B de ce même univers, P(B) = P(A1B) + P(A2B) + … + P(AkB), avec, pour 1 k, P(AB) = P(A) PA (B). Démonstration Les événements A1, A2, …, Ak désignant une partition de l’univers , toute partie B de cet univers s’écrit : B = (B A1) (B A2) … (B Ak), les parties (B A) étant disjointes deux à deux. Donc P(B) = P(A1B) + P(A2B) + … + P(AkB). Enfin, par définition d’une probabilité conditionnelle, PA ( B) P( A B) P( A B) PA ( B) P( A ). P( A ) Remarque : Un arbre de probabilités comporte des nœuds et des branches. On applique les règles suivantes : la somme des probabilités marquées sur des branches issues d’un même nœud est égale à 1, la probabilité d’un événement qui correspond à un chemin est le produit des probabilités inscrites sur les branches de ce chemin, la probabilité d’un événement est la somme des probabilités des branches aboutissant à cet événement. Exemple : On considère trois urnes respectivement notées U1, U2 et U3. L’urne U1 contient une boule rouge et cinq boules jaunes, l’urne U2 contient trois boules rouges et une boule jaune, l’urne U3 contient une boule rouge et deux boules jaunes. On choisit une urne au hasard et on tire une boule de cette urne. Quelle est la probabilité que la boule tirée soit rouge ? On note U1 l’événement : « l’urne choisie est U1 » ; on définit de même U2 et U3. On note R et J les événements respectifs « la boule tirée est rouge » et « la boule tirée est jaune ». Le déroulement de cette expérience peut être schématisé dans un arbre (de gauche à droite ou de haut en bas) constitué de tous les chemins possibles : U1 1/3 1/3 U2 1/3 U3 1/6 R 5/6 J 3/4 R 1/4 J 1/3 2/3 R J La probabilité d’un chemin est le produit des probabilités marquées sur ses branches. Ainsi 1 1 P(U1R) = , ce que traduit l’égalité P(U1R) = P(U1) P(R/U1). 3 6 La probabilité d’un événement est la somme des probabilités des chemins qui conduisent à cet événement. Ainsi 1 1 1 3 1 1 5 P(R) = + + = , ce que traduit la formule des probabilités totales. 3 6 3 4 3 3 12 C. Indépendance Définition : On dit de deux événements A et B qu’ils sont indépendants lorsque P(AB) = P(A)P(B). Cela revient à dire que, si P(A) 0, P(B/A) = P(B). Remarque : La seconde formulation rend plus naturelle la définition. il paraît normal de considérer comme « indépendants », au sens intuitif du terme, deux événements A et B dès lors que la probabilité de B est la même que celle de B sachant A. IV. Variables aléatoires Exemple : On lance trois fois de suite une pièce de monnaie équilibrée. On gagne 2 F pour chaque résultat « Pile » et on perd 1 F pour chaque résultat « Face ». L’ensemble des issues est = {PPP, PPF, PFP, PFF, FPP, FPF, FFP, FFF} et il est de bon sens de choisir l’équiprobabilité sur . L’application X : , qui, à chaque issue, associe le gain ( encore appelé gain algébrique) du joueur, prend les valeurs – 3, 0 3 et 6. Pour chaque valeur, telle que + 3 on 3 peut considérer l’événement (X = + 3) = {PPF, PFP, FPP} et lui associer sa probabilité . 8 On obtient ainsi une nouvelle loi de probabilité sur l’ensemble des gains : ’ = X() ={- 3, 0, 3, 6}. On la nomme loi de X. gain xi probabilité pi = P(X = xi) x1 = - 3 1 8 x2 = 0 3 8 x3 = 3 3 8 x4 = 6 1 8 A. Définitions 1 : Une variable aléatoire X est une application définie sur un ensemble muni d’une loi de probabilité P, à valeurs dans . X prend les valeurs x1, x2, …, xn, avec les probabilités définies par : pi = P(X = xi). L’affectation des pi aux xi permet de définir une nouvelle loi de probabilité sur ’ = {x1, x2, … , xn}. Cette loi, notée P’ ou PX, est appelée la loi de X. Définitions 2 : On appelle espérance mathématique de X le nombre : in p x . E(X) = i i i 1 On appelle variance de X le nombre : in V(X) = p x - E ( X ) 2 i i 1 i in ou V(X) = p x 2 i i E ( X ) . 2 i 1 Cette dernière formule est appelée formule de König (1849-1913). On appelle écart-type de X le nombre : (X) = V(X) . Exemple : Dans l’exemple précédent E(X) = 1,5. C’est le gain moyen. V(X) = 9, 468 75 ; et (X) 3,08. Démonstration Par définition de la variance, i n V (X ) p ( x E ( X )) i 2 i i 1 i n p (( x ) i i 2 2 xi E ( X ) ( E ( X ) 2 ) i 1 i n p (x ) i i 1 i n Comme 2E( X ) i n p x ( E ( X )) p 2 i i i 1 i i 1 i n p x E ( X ) et p i i i 1 i i n 2 i 1 on en déduit la formule de König. i 1 B. Quelques interprétations E(X) est la moyenne des valeurs xi, pondérées par les valeurs pi. Dans le domaine des jeux (le terme « espérance » vient de là), E(X) est le gain moyen que peut espérer un joueur sur un grand nombre de parties. Cela permet de qualifier un jeu d’équitable (ou honnête) lorsque E(X) = 0 ; lorsque E(X) > 0, le jeu est favorable au joueur, il lui est défavorable si E(X) < 0. Tout comme en statistique, variance et écart-type sont des paramètres de dispersion. Plus qu’à leur valeur intrinsèque, il faut accorder une signification à leur comparaison, pour deux variables aléatoires définies sur le même ensemble. En terme de jeu, cette dispersion traduit le risque de gagner ou perdre gros. C. Théorème : Soit X et Y deux variables aléatoires définies sur le même univers et a et b deux réels. Alors l’espérance des nouvelles variables aléatoires X + Y, aX et X + b est donnée par : E(X + Y) = E(X) + E(Y), E(aX) = aE(X) et E(X + b) = E(X) + b. Exemple : On lance trois dés. Quelle est, en moyenne, la somme des points obtenus ? Soit X1, X2 et X3 les variables aléatoires désignant les points obtenus sur chaque dé. La somme des points obtenus est X = X1 + X2 + X3. Comme 1 E(X1) = E(X2) = E(X3) = (1 2 3 4 5 6) 3,5 , 6 on obtient : E(X) = E(X1) + E(X2) + E(X3) soit E(X) = 10,5. Corollaire : Soit X une variable aléatoire, a et b deux réels. Alors : V(aX) = a2V(X) et (aX) = a(X) ; V(X + b) = V(X) et (X + b) = (X). D. Définition : Soit X et Y deux variables aléatoires définies sur le même univers . X prend les valeurs x1, x2, …, xn, et Y les valeurs y1, y2, …, ym. On dit que X et Y sont indépendantes lorsque, pour tous i et j (1 i n et 1 j m), les événements (X = xi) et (Y = yj) sont indépendants. Exemple : L’expérience consiste à lancer deux dés parfaitement équilibré : X désigne la variable aléatoire égale à la somme des deux nombres obtenus sur la face supérieure et Y est égale à leur produit. Calculer P((X = 2)(Y=3)), puis P(X = 2) et P(Y = 3). Ces deux variables aléatoires sont-elles indépendantes ?