MA 311 ESISAR Calcul des Probabilités Le monde des phénomènes scientifiques peut se diviser en deux: • Il y a les phénomènes dits déterministes, ce sont des phénomènes dont on est capable de modéliser précisément l’évolution avec des équations. Une fois résolues, ces équations nous permettent de connaitre exactement le comportement du phénomène. Exemples: La chute d’une pierre, le mouvement des planètes... • Les autres sont des phénomènes aléatoires (du latin alea, dé), c’est à dire que le hasard intervient dans leur évolution. Ainsi toute modélisation exacte du comportement de ce genre de phénomène devient chimérique... Exemples: L’évolution du cours du temps d’une action, la propagation d’une épidémie, l’arrivée de personnes à un guichet, l’apparition d’erreurs lors de la transmission d’un signal, etc... • C’est en réalité plus compliqué: certains phénomènes sont déterministes, mais si compliqués à modéliser qu’on les considère comme étant aléatoires. Exemples: Le mouvement de certaines particules dans un fluide, le lancer d’un dé... Au vu de l’importance (économique, politique...) des domaines où apparaissent les phénomènes aléatoires, on ne peut pas se permettre de ne pas les étudier sous prétexte qu’on ne pourra jamais les maitriser. La théorie mathématique des probabilités essayera donc non pas de prédire de façon exacte l’évolution d’un phénomène, mais de quantifier la possibilité qu’il évolue dans tel ou tel sens. Chapitre I Le vocabulaire mathématique des probabilités La théorie mathématique des probabilités, comme les autres théories mathématiques, possède un vocabulaire spécifique précis qu’il faudra maîtriser. 1 Quelques rappels de théorie des ensembles On pourrait résumer ce cours en ces termes: calculer des probabilités, c’est mesurer la taille d’ensembles. Ceci implique qu’il faudra être à l’aise avec les opérations habituelles des ensembles, que l’on va rappeler. Définition: Un ensemble est une collection d’élements. Dire que deux ensembles sont égaux, c’est dire qu’ils ont les mêmes éléments. Définition: Soient A, B des ensembles. • On dit que A est inclus dans B si tout élément de A est aussi un élément de B. On le note A ⊂ B. • On appelle union de A et B l’ensemble, noté A ∪ B, des éléments qui sont dans A ou dans B • On appelle intersection de A et B l’ensemble, noté A ∩ B, des éléments qui sont dans A et aussi dans B • On appelle complémentaire de A l’ensemble des éléments qui ne sont pas dans A. On le note A ou c A • Si E est un ensemble, on dit que A est une partie de E si A ⊂ E. • Deux ensembles A et B sont dits disjoints si A ∩ B = ∅ • On appelle A privé de B l’ensemble, noté A\B des éléments qui sont dans A mais pas dans B Enfin, rappelons que pour montrer que A = B, on doit prouver que A ⊂ B et B ⊂ A. MA311 I. Le vocabulaire mathématique des probabilités 3 Remarque importante: En probabilité, au lieu d’écrire A ∩ B, on écrira souvent A, B 2 L’ensemble fondamental On considère une expérience aléatoire, c’est à dire une expérience dont le résultat ne peut être prévu. Exemple(s): 1. On lance un dé, et on note le chiffre obtenu. 2. On compte le nombre de tentatives qu’il faut avant d’obtenir un 6 avec un dé. 3. On choisit un nombre réel au hasard entre 0 et +∞ Définition: • Chacun des résultats possibles de cette expérience s’appelle un évènement élémentaire, ou une éventualité. • L’ensemble de tous les évènements élémentaires, c’est à dire l’ensemble de tous les résultats possibles de l’expérience, s’appelle l’ensemble fondamental associé à cette expérience. On peut l’appeller aussi l’univers associé à l’expérience • L’ensemble fondamental se note Ω Exemple(s): Reprenons les 3 exemples cités ci dessus: 1. Dans cette expérience, 6 est un évènement élémentaire. L’ensemble fondamental associé est {1, 2, 3, 4, 5, 6} 2. Dans cette expérience, 1 ou 34 sont des évènements élémentaires. L’ensemble fondamental associé est {1, 2, . . .} = N∗ 3. Dans cette expérience, 1 ou 4, 678920233 sont des évènements élémentaires. L’ensemble fondamental associé est R+ . L’ensemble Ω peut être simple comme très compliqué. On même parfois choisir plusieurs façons de le décrire. La notion que l’on va rencontrer continuellement sera la notion d’évènement: Définition: Un évènement est une partie de Ω. C’est un ensemble d’éventualités. MA311 I. Le vocabulaire mathématique des probabilités 4 Exemple(s): 1. Dans l’expérience 1, "le dé fait un nombre pair" est un évènement. C’est la partie de Ω égale à {2, 4, 6} 2. Dans l’expérience 2, "j’ai besoin d’au moins 3 lancers pour obtenir un 6" est un évènement. C’est la partie de Ω égale à {3, 4, . . .} 3 Notion de probabilité On étudie un phénomène aléatoire, et on note Ω l’ensemble des résultats possibles. Les résultats de l’expérience sont impossibles à prédire: néammoins, on veut savoir si un évènement a plus de chances de se produire qu’un autre. Il va donc falloir quantifier la probabilité qu’un évènement se réalise. L’idée naturelle est donc de considérer une application qui prend en entrée un évènement auquel elle va associer un nombre: plus ce nombre sera grand, plus l’évènement aura de chances de se produire; à l’inverse si le nombre est faible, l’évènement aura peu de chances de se produire. Définition: Soit Ω l’univers d’une expérience aléatoire. On appelle probabilité sur Ω une application P : { ensemble des évènements } → [0, 1] A → P (A) qui vérifie: 1. P (Ω) = 1 2. P (A ∪ B) = P (A) + P (B) si A et B sont disjoints. Exemple(s): Si Ω est un ensemble fini, on vérifie sans difficulté que l’application P : A → card(A) card(Ω) est une probabilité. MA311 I. Le vocabulaire mathématique des probabilités 5 Proposition 1 (Propriétés fondamentales d’une probabilité) Soit P une probabilité sur Ω. On a: 1. Si A est un évènement, P (c A) = 1 − P (A) 2. P (∅) = 0 3. si A ⊂ B, P (B\A) = P (B) − P (A) (Attention, c’est faux si on n’a pas A ⊂ B) 4. si A ⊂ B, P (A) ≤ P (B) 5. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Démonstration: Remarques: • La probabilité d’un évènement est donc comprise entre 0 et 1. Dans un exercice, il faudra donc toujours vérifier que la probabilité que l’on vient de calculer est comprise entre 0 et 1. Cela permet d’éviter les grosses erreurs. • L’évènement Ω est l’évènement certain: on est sur qu’il va arriver, car Ω regroupe tous les résultats possibles! • Par contre, un évènement A = Ω tel que P (A) = 1 n’est pas un évènement certain. C’est un évènement qu’on appelle presque sur. Cet évènement peut ne pas se produire! Chapitre II Dénombrement 1 Probabilité uniforme Soit une expérience aléatoire, soit Ω son ensemble fondamental. Plaçons nous dans le cas où: 1. Ω est fini (l’expérience n’a qu’un nombre fini de résultats possibles) 2. Chaque évènement élémentaire a la même probabilité de se produire. (on parle de probabilité uniforme) Exemples: • On lance un dé, on a autant de chances d’avoir un 1, un 2 ou un 6. • Un professeur choisit au hasard un élève dans une promo. Soit A un évènement, calculons P (A): Ainsi, savoir calculer card(A) est d’une importance capitale. On va donc exposer dans ce chapitre les différentes méthodes permettant de calculer les cardinaux d’ensembles. MA311 II. Dénombrement 2 Les formules à savoir a) Réunion d’ensembles 7 Proposition 2 Si A et B sont deux ensembles, alors card(A ∪ B) = card(A) + card(B) − card(A ∩ B) Remarque: • Si A et B sont disjoints, on a donc card(A ∪ B) = card(A) + card(B). Cette formule s’utilise souvent de la façon suivante: lorsque le cardinal d’un ensemble est un peu difficile à calculer, on peut décomposer cet ensemble en plusieurs ensembles dont le cardinal est facile à calculer. Exemple(s): On cherche le nombre de tiercés gagnants où le cheval n◦ 13 arrive en 3ième ou 2ième position. On peut dire que cet ensemble est l’union de A = {tiercés gagnants où le cheval n◦ 13 arrive en 3ième position}, et de {B = tiercés gagnants où le cheval n◦ 13 arrive en 2ième position}. b) Produits d’ensembles Proposition 3 Si A et B sont deux ensembles, alors card(A × B) = card(A)card(B) Démonstration: Exemple(s): Dans un groupe de 10 garçons et 10 filles, combien de couples (mixtes) peut-on former ? c) Nombre d’applications Proposition 4 Si A et B sont deux ensembles, le nombre d’applications f : A → B est card(B)card(A) . MA311 II. Dénombrement 8 Démonstration: Exemple(s): On possède 5 peluches et 3 tiroirs. Combien y a-t-il de façons de ranger les peluches dans les tiroirs ? d) Arrangements Définition: Soit E un ensemble à n éléments. Un p− arrangement de E est une suite ordonnée (a1 , a2 , . . . , ap ) de p éléments 2 à 2 distincts de E. Exemple(s): Dans une course de chevaux, un tiercé est un 3−arrangement de l’ensemble des chevaux partants. Attention! Il y a une notion d’ordre qui est fondamentale dans les arrangements. En effet, (a1 , a2 , a3 ) = (a2 , a1 , a3 ) Proposition 5 Soit E un ensemble à n éléments. Le nombre de p−arrangements de E est Apn = n! (n − p)! Démonstration: Exemple(s): Si il y a 16 chevaux au départ d’une course, il y a donc A316 tiercés possibles. MA311 II. Dénombrement 9 Intéressons nous au cas où n = p: Définition: Un n arrangement d’un ensemble de n éléments s’appelle une permutation. Une permutation de E est la donnée des éléments de E, rangés dans un ordre différent. Il y a donc Ann = n! permutations de E. Exemple(s): 6 personnes doivent s’asseoir sur un banc. Il y a 6! façons de placer ces 6 personnes sur le banc. e) Combinaisons Définition: Soit E un ensemble à n éléments. Le nombre de parties de E qui possèdent p éléments (p ≤ n) est n! n p = Cn = p p!(n − p)! (On parle de combinaison de p éléments parmi n) Exemple(s): On considère une promo de 50 élèves. Combien de binômes de TP peut-on former ? La différence entre les arrangements et les combinaisons est qu’il n’y a pas d’ordre dans les combinaisons: la partie {a1 , a2 , a3 } est la même que {a2 , a3 , a1 }. Proposition 6 Soit E un ensemble à n éléments. Le nombre de parties de E est 2n . Démonstration: MA311 3 II. Dénombrement 10 Quelques remarques sur le dénombrement Le dénombrement est assez difficile dans le sens où on a du mal à s’apercevoir de ses erreurs. En effet, ces erreurs sont induites par la façon dont notre cerveau a raisonné, façon qui nous parait naturelle (et donc juste!) puisque c’est la nôtre. • Ne pas hésiter à relire plusieurs fois l’énoncé pour bien comprendre ce qui est demandé. • Bien retenir les exemples cités dans le cours, comme exemples typiques d’utilisation des Apn , les Cnp ... • Une erreur fréquente est d’oublier de prendre en compte certains cas. • Mais une autre erreur, plus difficile à déceler, est de compter plusieurs fois de suite le même objet. • Ne pas oublier que P (A) = 1 − P (c A). Il est parfois plus facile de calculer P (c A) que P (A) • Ne pas hésiter à decomposer un problème en plusieurs problèmes plus faciles à résoudre. • Lorsque les choix se succèdent de façon indépendantes, on multiplie les possibilités, on peut mettre ceci sous forme d’un arbre. • Pour être vraiment à l’aise avec ces calculs, pas de secret, seul l’entrainement fonctionne... 4 Exercices Exercice 1 Une urne contient 10 boules noires et 6 boules blanches discernables. 1. On tire simultanément 5 boules de l’urne. (a) Décrire l’ensemble fondamental associé à cette experience. (b) Calculer la probabilité de tirer 2 blanches et 3 noires. 2. On tire maintenant successivement deux boules de l’urne, sans remise. (a) Si on classe les boules par ordre de tirage, décrire l’ensemble fondamental associé à cette experience. (b) Calculer dans ce cas la probabilité de tirer 1 blanche, puis une noire. (c) Mêmes questions si on ne classe pas les boules. 3. On tire maintenant deux boules de l’urne avec remise. (a) Si on classe les boules par ordre de tirage, décrire l’ensemble fondamental associé à cette experience. (b) Calculer dans ce cas la probabilité de tirer 1 blanche, puis une noire. (c) Mêmes questions si on ne classe pas les boules. Exercice 2 Voici un problème historique: Le premier problème du Chevalier de Méré Le Chevalier de Méré, adepte des jeux de hasard, posa un jour cette question à Pascal: Quel est le plus probable: obtenir au moins un 6 en lancant 4 fois de suite un dé, ou obtenir au moins un double 6 en lancant 24 fois de suite 2 dés? MA311 II. Dénombrement 11 Que répondre au Chevalier de Méré? Exercice 3 Le Chevalier de Méré continue d’embêter Pascal. Voici le nouveau problème qu’il lui pose: Deux joueurs jouent à un jeu de hasard en plusieurs parties: celui qui, le premier gagne trois parties gagne le jeu et la totalité de la mise. Malheureusement, le jeu est interrompu alors que le premier a déjà gagné 2 parties, et le deuxieme joueur 1 partie. Comment répartir équitablement la mise? Que répondre au Chevalier de Méré? Exercice 4 Une entreprise dispose d’un parc de 20 voitures, parmi lesquelles 5 sont en panne. Pour une mission, on a besoin de 4 voitures et on choisit donc 4 voitures parmi les 20. 1. Combien y-a-t-il de choix possibles ? 2. Calculer de 2 façons différentes la probabilité pour que parmi les 4 voitures tirées il y en ait une au moins en panne. 3. Quelle est la probabilité pour que 2 voitures exactement parmi les 4 soient en panne ? Exercice 5 4 personnes font une course. Combien y a-t-il de classements possibles, en admettant qu’il puisse y avoir des ex-aequo? Chapitre III Probabilités conditionnelles et indépendance Il suffit de penser à quelques exemples concrets de probabilités pour voir que dans certaines situations, il existe (ou il n’existe pas !) des liens entre les évènements. Par exemple, les évènements {il fera froid demain à Valence} et {demain je mettrai un pull} sont surement reliés. A l’inverse, les évènements {il fera froid demain à Valence} et {demain un requin blanc mordra un surfeur en Australie} ont l’air plutôt indépendants. C’est la formulation mathématique de ces liens qu’on étudie dans ce chapitre. 1 Probabilités conditionnelles Plaçons nous dans la situation suivante. Je lance un dé. A priori, on a donc P ( le dé fait 6 ) = 16 . Mais supposons qu’un ami me dise: "Tiens, le dé a fait un nombre pair". Je vais instinctivement me dire, sachant que les seuls résultats possibles sont 2,4,6, que P ( le dé fait 6 ) = 13 . Ainsi rajouter de l’information change la probabilité d’un évènement: c’est la théorie des probabilités conditionnelles. En étudiant l’exemple précédent, on s’aperçoit que connaitre l’information B revient à changer l’univers Ω en B. Ce qui conduit à poser la définition suivante: Définition: Soit A et B deux évènements. Si P (B) = 0, on appelle probabilité de A sachant B le nombre: P (A|B) = P (A ∩ B) P (B) Mathématiquement, au vu de la définition, on comprend bien pourquoi il faut que P (B) = 0. Mais intuitivement, cela se comprend aussi: quel intérêt à rajouter l’information B si celle si n’a aucune chance de se produire ? Remarque: MA311 III. Probabilités conditionnelles et indépendance 13 • On a donc P (A ∩ B) = P (A|B)P (B). Cette relation est parfois utile... 2 Utilisation des probabilités conditionnelles a) Système complet d’évènements C’est une notion très importante. Il arrive souvent que l’on puisse décomposer l’univers d’une expérience aléatoire en plusieurs évènements disjoints, chacun étant de probabilité > 0. Définition: On considère une expérience aléatoire, d’univers Ω. Soit (Ai )i∈N une famille de parties qui vérifient: 1. Ω = ∪i∈I Ai (les Ai reconstituent toutes les éventualités possibles) 2. ∀i ∈ I, ∀j = i ∈ I, Ai ∩ Aj = ∅ (Chaque évènement Ai est disjoint des autres Aj ) 3. ∀i ∈ I, P (Ai ) = 0 (Chaque Aj apporte réellement de l’information) On dit que (Ai )i∈N forme un système complet d’évènements. Exemple(s): On considère un magasin possédant 3 portes d’entrée A, B et C. La moitié des personnes passent par la porte A, le reste se répartit entre les portes B et C. On choisit une personne au hasard dans le magasin. Si on pose: EA = la personne est entrée par la porte A EB = la personne est entrée par la porte B, alors EA , EB , EC , est un système complet d’évènements. EC = la personne est entrée par la porte C b) Formule des probabilités totales Souvent, on arrive pas à calculer directement P (B), mais on arrive à calculer P (B sachant certaines informations). Comment retrouver alors P (B)? Exemple(s): On considère une promo composée de 80% de garçons et de 20% de filles. Je sais que 30% des filles d’une promo fument, et que cette proportion est de 40% chez les garçons. Je choisis une personne au hasard, et je me demande quelle est la probabilité qu’elle fume: je connais P (la personne fume | c’est une fille) et P (la personne fume | c’est un garçon). Comment calculer P (la personne fume) ? C’est l’objet de la formule suivante: MA311 III. Probabilités conditionnelles et indépendance 14 Proposition 7 (Formule des probabilités totales) Soit B un évènement. Si (Ai )i∈N est un système complet d’évenements, on a : P (B|Ai )P (Ai ) P (B) = i∈N Démonstration: Exemple(s): Reprenons l’exemple précédent. c) La formule de Bayes Supposons que l’on dispose d’un système complet d’évènements (Ai ). Je considère un évènement B, je cherche P (Aj |B). Proposition 8 (Formule de Bayes) Soit (Ai )i∈I un système complet d’évènements, soit B un évènement. Soit i0 un indice. On a: P (B|Ai0 )P (Ai0 ) P (Ai0 |B) = i∈I P (B|Ai )P (Ai ) MA311 III. Probabilités conditionnelles et indépendance 15 Démonstration: Exemple(s): Avec l’exemple des fumeurs. On choisit une personne au hasard, et cette personne fume. Quelle est la probabilité que cette personne soit une fille? d) La formule des probabilités conditionnelles en cascade Proposition 9 Soient A1 , A2 , ..., An des évènements. On a: P (A1 ∩ A2 ∩ .... ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) . . . P (An |A1 ∩ A2 ∩ .... ∩ An−1 ) Exemple(s): On choisit, dans un groupe de 9 personnes, 4 personnes successivement. Le groupe est constitué de 5 garçons et 4 filles. Quelle est la probabilité que toutes les personnes choisies soient des filles ? MA311 3 III. Probabilités conditionnelles et indépendance 16 Indépendance C’est l’un des concepts fondamentaux des probabilités. Intuitivement, si deux évènements A et B sont indépendants, on se dit que P (A|B) = P (A). Ce qui peut se réécrire P (A∩ B) = P (A)P (B). C’est la définition que l’on adoptera pour modéliser mathématiquement l’indépendance. a) Indépendance de deux évènements Définition: Soit Ω un univers, soient A, B deux évènements. On dits que A et B sont indépendants si P (A ∩ B) = P (A)P (B) Exemple(s): On lance deux dés. On pose A =le premier dé fait 2 et B =le deuxième dé fait 3. Intuitivement, il est évident que A et B sont indépendants. Vérifions le par le calcul. On a Ω = {(i, j), i = résultat du dé 1, j = résultat du dé 2},donc card(Ω) = 6 × 6 = 36. 11 1 = = P (A)P (B) Ainsi, P (A ∩ B) = P (le premier dé fait 2 et le deuxième dé fait 3)= 36 66 A et B sont donc bien indépendants. Remarques: • Parfois (comme dans l’exemple ci dessus), il n’est pas nécéssaire (et pas conseillé, car trop long !!) de faire un calcul pour prouver que deux évènements sont indépendants: leur définition suffit. • Par contre, dès que ce n’est pas évident, un calcul est nécéssaire. Et parfois celui ci nous prouve que l’intuition peut être trompeuse... Proposition 10 1. Si A et B sont deux évènements indépendants, alors c A et B sont aussi indépendants. 2. Un évènement presque sûr ou de probabilité nulle est indépendant de tous les autres évènements. Démonstration: MA311 b) III. Probabilités conditionnelles et indépendance 17 Indépendance d’une suite d’évènements On généralise la définition précédente au cas d’une suite de n évènements (n > 2). Définition: Soient A1 , ..., An des évènements. On dit que A1 , ..., An sont dits indépendants (ou mutuellement indépendants) si: ∀i1 < i2 < ... < ik , P (Ai1 ∩ Ai2 ∩ ... ∩ Aik ) = P (Ai1 )P (Ai2 )...P (Aik ) Prenons un exemple pour bien comprendre cette définition: Soient A, B, C 3 évènements. ⎧ ⎪ ⎨P (A ∩ B) = P (A)P (B), P (A ∩ C) = P (A)P (C), P (B ∩ C) = P (B)P (C) A, B, C indépendants ⇔ et ⎪ ⎩ P (A ∩ B ∩ C) = P (A)P (B)P (C) Attention à ne pas confondre indépendance et indépendance 2 à 2 En effet, on voit bien sur l’exemple précédent que dire "A, B, C sont indépendants" est différent de dire "A et B sont indépendants, B et C sont indépendants, A et C sont indépendants". On a bien sûr A, B, C sont indépendants ⇒ A et B sont indépendants, B et C sont indépendants, A et C sont indépendants; Mais la réciproque est fausse en général, comme le prouve l’exemple suivant: Exemple(s): ⎧ ⎪ ⎨A = le premier dé fait 4 On lance deux dés. Notons: B = le deuxième dé fait 3 ⎪ ⎩ C = la somme des résultats des deux dés fait 7 Montrer que A, B et C sont indépendants 2 à 2 mais que A, B, C ne sont pas indépendants. MA311 4 III. Probabilités conditionnelles et indépendance 18 Exercices Exercice 6 Le docteur M. pense avoir démontré un théorème très important, mais malheureusement sa démonstration comporte une faute. En lisant son texte, un lecteur s’apercoit de l’erreur avec une probabilité p. Pour être sûr que son article est juste, il fait effectuer n relectures de ce dernier par n lecteurs avisés indépendants. 1. Soit k ∈ N∗ . On note X = nombre de lecteurs ayant repéré l’erreur. Calculez la probabilité que X = k. 2. Quelle est la probabilité qu’en n relectures, on s’apercevoive de l’erreur au moins deux fois? Application numérique: p = 0.2, n = 4 3. Le docteur M. est voué à un grand avenir et n’aimerait pas publier un article faux. Combien de lectures doit il faire effectuer si il veut que l’erreur soit découverte avec 90% de chances ? Application numérique: p = 0.2 Exercice 7 Une information (de type binaire V ou F ) est transmise à travers n personnes J1 , J2 , ..., Jn . J1 recoit la bonne information, la transmet à J2 et ainsi de suite jusqu’à Jn qui transmet finalement l’information. Chaque personne transmet ce qu’il entendu avec la probabilité p, sinon il transmet le contraire. Ce que la personne transmet est indépendant de ce que les autres personnes ont transmis. On note pi = la probabilité pour l’information initiale soit correctement transmise par Ji 1. Exprimer pn en fonction de pn−1 (n ≥ 2) 2. En déduire pn en fonction de n 3. Que se passe t-il quand n → +∞? Exercice 8 Une source d’information émet un message sous forme de " 0 " ou de " 1 " avec des probabilités respectives p0 = 0.3 et p1 = 0.7. On souhaite transmettre ce message vers le recepteur par une liaison A. Cette liaison, à cause de défauts, transmet le contraire du message avec une probabilité d’erreur qA = 10−7 . On souhaite diminuer cette probabilité d’erreur, on considère alors le système suivant: Les messages sont maintenant transmis vers un récepteur par 2 canaux distincts A et B. On admet que les 2 liaisons sont indépendantes et que les probabilités d’erreur sur chacune de ces liaisons sont respectivement qA = 10−7 et qB = 2.10−7 (quel que soit le message émis). 1. A un instant donné, le récepteur reçoit " 0 " sur le premier canal et " 1 " sur le second. On demande de décider quel était le message émis, en choisissant celui dont la probabilité d’émission sachant le résultat à la réception (sur les 2 canaux) est maximale. (méthode du maximum a posteriori) 2. Etablir une règle de décision par la méthode du maximum a posteriori pour toutes les configurations possibles en réception. MA311 III. Probabilités conditionnelles et indépendance 19 • 0 recu sur A, 0 recu sur B • 0 recu sur A, 1 recu sur B ( autrement dit, que décider dans les cas suivants: • 1 recu sur A, 1 recu sur B ) • 1 recu sur A, 0 recu sur B 3. Calculer approximativement la probabilité d’erreur globale de cette règle de décision. Qu’en conclure ? Chapitre IV Variables aléatoires C’est le concept fondamental du cours. On considère une expérience aléatoire; par exemple, on considère l’arrivée de personnes à un centre commercial. On désigne par Ω l’ensemble des résultats de cette expérience. Dans ce phénomène, une grandeur m’interesse plus particulièrement: • Par exemple, si je suis le patron d’une boutique du centre, c’est le nombre de gens qui arrivent dans la journée qui est important. • Si je suis le responsable d’une passerelle un peu fragile, c’est plutôt le poids des personnes qui va attirer mon attention. • Si je suis un dragueur de supermarché, c’est plutôt le nombre de filles entrant dans le magasin qui sera la donnée pertinente. Chacune des grandeurs ci dessus est en fait une fonction f : Ω → R. Dire que l’ensemble de départ est Ω revient à dire que ces fonctions sont aléatoires (elles dépendent du résultat de l’expérience, lui même aléatoire) En probabilités, ces grandeurs sont appelées des Variables Aléatoires 1 Notion de variable aléatoire Définition: Soit une expérience aléatoire d’univers Ω. On dit que X est une variable aléatoire réelle si X est une fonction de Ω dans R Remarques: • On écrira souvent v.a au lieu de variable aléatoire. • Nous rencontrerons surtout des variable aléatoires réelles, mais toutes les v.a ne sont pas forcément réelles: certaines sont des v.a complexes (ie leur ensemble d’arrivée est C); Si l’ensemble d’arrivée est Rn , on parlera plutôt de vecteur aléatoire. Dans le monde fabuleux des variables aléatoires, deux types de v.a nous intéresseront plus particulierement. MA311 a) IV. Variables aléatoires 21 V.a discrètes et v.a continues Définition: Soit X une variable aléatoire réelle. Si l’ensemble d’arrivée de X est dénombrable (ie égal à Z ou une partie de Z), on dit que X est une v.a discrète. Exemple(s): 1 si la pièce fait pile 1. On joue à un jeu de pile ou face. On pose X = 0 sinon L’ensemble d’arrivée de X est {0, 1}, cette v.a est donc discrète. 2. Un joueur s’entraîne à tirer des coups francs. Il continue à tirer tant qu’il n’en a pas réussi un. On note T =numéro du premier coup franc réussi. L’ensemble d’arrivée de T est {1, 2, ...} = N∗ , cette v.a est donc discrète. Définition: Soit X une variable aléatoire réelle. Si l’ensemble d’arrivée de X contient un intervalle de R, on dit que X est une v.a continue. Exemple(s): 1. On choisit un nombre réel entre 0 et 1, on appelle U ce nombre. Les valeurs prises par U sont donc [0, 1]: U est une v.a continue. 2. On note T =durée de vie d’une ampoule électrique. L’ensemble des valeurs de T est [0, +∞[, c’est donc une v.a continue b) Loi d’une variable aléatoire Une v.a est aléatoire, on est donc incapable de prédire la valeur qu’elle va prendre. Par contre, ce que l’on va essayer de faire, c’est de calculer la probabilité qu’elle prenne telle ou telle valeur. Notation: Si X : Ω → R est une v.a, si A ⊂ R, on note { X ∈ A } = X −1 (A) = {w ∈ Ω tq X(w) ∈ A} C’est l’évènement : "X vaut une valeur qui est dans A" Exemple(s): Reprenons l’exemple du centre commercial; Je suis le responsable de la passerelle. On pose X = poids total qui traverse la passerelle en une journée. (en tonnes) D’après mes calculs, ma passerelle va s’effondrer si (en cumulé) plus de 10 tonnes lui passent dessus. La probabilité que la passerelle s’effondre est donc P (X ∈]10, +∞[). ⎧ ⎪ ⎨P (X ∈ [a, +∞[) = P (X ≥ a) Notation: On notera P (X ∈ {a}) = P (X = a) ⎪ ⎩ P (X ∈ [a, b]) = P (a ≤ X ≤ b) MA311 IV. Variables aléatoires 22 Définition: Soit X une v.a. On appelle loi de X la donnée des nombres P (X ∈ A), pour tous les ensembles A⊂R Connaitre la loi d’une v.a, c’est donc être capable de calculer, ∀A ⊂ R, P (X ∈ A). Avec cette définition, on s’apercoit que connaitre la loi d’une v.a n’est pas une tâche facile, car il y a beaucoup de parties A telles que A ⊂ R. Dans la suite, on va voir qu’il n’est pas nécéssaire de calculer P (X ∈ A) pour tout A ⊂ R, mais qu’on peut se permettre de ne calculer P (X ∈ A) que pour certaines parties A. 2 Les V.A discrètes a) Loi d’une v.a discrète Soit X une v.a discrète, ie X prend ses valeurs dans une partie de Z. Proposition 11 (Loi d’une v.a discrète) Soit X une v.a discrète. Calculer la loi de X, c’est calculer, pour tous k ∈ Z, P (X = k) Proposition 12 Soit X une v.a discrète. On a alors P (X = k) = 1 k Démonstration: Ce petit résultat est très important dans la pratique, car il permet de vérifier que l’on ne s’est pas trompé lors du calcul de la loi: en effet, si on ne trouve pas 1 en calculant k P (X = k), cela veut dire qu’il y a une erreur dans le calcul des P (X = k). b) Les lois discrètes classiques On va maintenant donner quelques lois qui se retrouvent fréquemment dans la pratique. Chacune de ses lois modélise une expérience aléatoire bien particulière qu’il faudra retenir. La loi de Bernoulli: MA311 IV. Variables aléatoires 23 Considérons l’expérience suivante: Un joueur de foot tire un coup franc. Il peut réussir avec la probabilité p, ou rater avec la proba 1 − p. 0 si le coup franc est raté On pose X = La loi de X est donc donnée par: 1 sinon Définition: La loi Binomiale: Considérons l’expérience suivante: Un joueur de foot tire n coups francs. Il peut réussir un coup franc avec la probabilité p, ou rater avec la proba 1 − p. Chaque tir de coup franc est indépendant des autres. Posons X =nombre de coups francs réussis. Calculons la loi de X: Définition: La loi géométrique: Considérons l’expérience suivante: Un joueur de foot tire des coups francs. Il peut réussir un coup franc avec la probabilité p, ou rater avec la proba 1 − p. Chaque tir de coup franc est indépendant des autres. Posons X =nb de tentatives nécéssaires pour réussir le premier coup franc. Calculons la loi de X: MA311 IV. Variables aléatoires 24 Définition: La loi de Poisson: On introduit ici une loi qui modélise les phénomènes qui peuvent prendre beaucoup de valeurs, et tels que la probabilité que le phénomène prenne une valeur fixée est faible. C’est la loi des "évènements rares" Définition: Soit X une v.a qui prend ses valeurs dans N, soit λ ∈ R+ . Si ∀k ∈ N, P (X = k) = X ∼ P oi(λ) e−λ λk k! , on dit que X suit la loi de Poisson de paramètre λ. On note Quelques phénomènes que l’on modélise par une loi de Poisson: • Le nombre de soldats prussiens tués par des mules au 19ième siècle peut être modélisé par une loi de Poisson (exemple historique!) • On choisit une partie du ciel, et on note X le nombre d’étoiles dans cette partie. X est une v.a de Poisson. • Le nombre d’arrivées à un guichet pendant [0, t], le nombre d’appels téléphoniques à un standard, le nombre d’erreurs survenant lors de la transmission d’un signal. MA311 3 IV. Variables aléatoires 25 Les V.A à densité On s’intéresse ici aux variables aléatoires continues, en réalité à un certain type de v.a continues: les v.a qui possèdent une densité de probabilité. a) Notion de densité Définition: Soit f : R → R, une fonction. Si f vérifie: 1. ∀x ∈ R, f (x) ≥ 0 f (x) dx = 1 2. R 3. f continue (sauf éventuellement en un nombre fini de points) alors on dit que f est une densité de probabilité. Définition: Soit X une v.a continue. On dit que X possède (ou admet) une densité de probabilité f si a 2 f (t) dt ∀(a, b) ∈ R , P (b ≤ X ≤ a) = b Ainsi, on comprend que dans la suite du cours, le calcul intégral de 1er cycle sera de grande utilité... Notamment le calcul d’intégrales multiples, qu’il faudra maîtriser (en fait, surtout dans le chapitre suivant). De petites révisions s’imposent... On déduit de cette définition deux petits résultats évidents, mais d’usage fréquent: Proposition 13 Soit X une v.a qui possède une densité. Alors 1. ∀a ∈ R, P (X = a) = 0 2. ∀a ∈ R, P (X < a) = P (X ≤ a) Démonstration: b) Les principales v.a à densité La loi uniforme: MA311 IV. Variables aléatoires 26 Soient (a, b) ∈ R2 . Considérons l’expérience suivante: Je choisis un nombre réel dans l’intervalle [a, b], et j’appelle U ce nombre. ⎧ ⎪ si x < a, P (U ≤ x) = 0 ⎪ ⎨ x−a On a: si x ∈ [a, b], P (U ≤ x) = ⎪ b−a ⎪ ⎩ si x > b, P (U ≤ x) = 1 x dt x−a = . On en déduit donc: Or b−a a b−a Définition: On dit que U est une v.a de loi uniforme sur [a, b] si elle admet pour densité la fonction suivante: 1 si x ∈ [a, b] b−a f (x) = 0 sinon On note alors X ∼ U ([a, b]). 1/(b-a) a b Figure IV.1: Densité de la loi U ([a, b]) La loi exponentielle: Cette loi est utilisée pour modéliser les temps d’attente: • Temps d’attente avant d’être servi à un guichet. • Temps de vie (=temps de bon fonctionnement) d’un objet (une durée de vie peut être vue comme un temps d’attente avant la mort, c’est une philosophie qui peut paraître un peu désabusée mais mathématiquement c’est vrai) Définition: Soit λ > 0, soit X une v.a. On dit que X suit la loi exponentielle de paramètre λ si X possède comme densité la fonction suivante: 0 si x < 0 f (x) = sinon λe−λx On note alors X ∼ Exp(λ). MA311 IV. Variables aléatoires 27 2 1.8 1.6 1.4 1.2 y 1 0.8 0.6 0.4 0.2 –2 –1 0 1 2 3 4 5 Figure IV.2: Densité de la loi Exp( 12 ) Quelques propriétés de la loi exponentielle: Proposition 14 Si X ∼ Exp(λ), on a: 1. P (X ≥ 0) = 1 (X est presque surement positive) 2. ∀(s, t) ∈ R+ , P (X > t + s|X > s) = P (X > t) (la loi exponentielle est sans mémoire) Démonstration: Remarques: • Le premier de ces résultats est évident de par la définition de la loi exponentielle, mais il ne faut jamais l’oublier ; si X ∼ Exp(λ), on peut affirmer que X ≥ 0. • Le deuxième résultat est moins evident, mais capital. Il exprime que si l’on attend déja depuis 5 minutes à un standard téléphonique, la probabilité que l’on attende encore 2 minutes de plus est la même que si on avait pas déjà attendu 5 min: la loi exponentielle est sans mémoire. Ce phénomène est évident par exemple dans l’étude des durées de vie de machines: si on suppose qu’un appareil n’a pas d’usure, son temps de vie est clairement sans mémoire. Bien sûr dans la pratique beaucoup de machines sont sujettes à l’usure, mais très souvent celle ci est négligeable devant la (grande) durée de vie de la machine (durée de vie d’une ampoule électrique, par exemple), et donc la modélisation par une loi exponentielle est valable. MA311 IV. Variables aléatoires 28 • On peut prouver que la loi exponentielle est la seule loi à densité qui ait cette propriété; c’est la raison pour laquelle on l’utilise pour modéliser les temps d’attente ou les durées de vie. La loi Normale: C’est la loi la plus célèbre des probabilités. C’est la loi qui modélise le hasard lorsque celui n’a pas de raison d’être étrange, lorsque celui ci est "normal". Définition: Soit (m, σ) ∈ R2 , soit X une v.a. On dit que X suit la loi Normale de paramètre m et σ si X possède comme densité la fonction suivante: f (x) = √ (x−m)2 1 e− 2σ2 2πσ On note alors X ∼ N (m, σ). Le graphe de la densité de la loi Normale est la célèbre "cloche": 1 0.8 0.6 y 0.4 0.2 –4 –3 –2 –1 0 1 2 3 4 x Figure IV.3: Densité de la loi normale N (0, 1) Quelques exemples typiques de phénomènes que l’on modélise avec une loi Normale: • Les caractères physiques d’une population: la taille, le poids... • les notes à un devoir de maths. • le salaire moyen des individus d’une population. Une propriété fondamentale de la loi Normale: Proposition 15 Si X ∼ N (m, σ), alors: X −m ∼ N (0, 1) σ Démonstration: voir exercice 12 Ainsi, lorsqu’on est face à une loi normale quelconque, on peut se ramener (à l’aide d’une soustraction MA311 IV. Variables aléatoires 29 et d’une division) à faire des calculs avec la loi N (0, 1). Dans la suite, on ne parlera donc plus que de la loi N (0, 1). (qu’on appelle d’ailleurs loi Normale centrée réduite) Si X ∼ N (0, 1), sa densité est donc: f (x) = deux résultats suivants, d’usage fréquent: 2 x √1 e− 2 2π . Cette fonction est paire, on en déduit les Proposition 16 Si X ∼ N (0, 1), on a: 1. ∀a > 0, P (X ≤ a) = P (X ≥ −a) 2. ∀a > 0, P (|X| ≤ a) = 2P (X ≤ a) − 1 Démonstration: x2 1 √ e− 2 dx. 2π −∞ Malheureusement, cette fonction n’est pas exprimable à l’aide des fonctions usuelles (on ne connait pas La loi normale étant d’usage courant, nous devons être capables de calculer φ(a) = P (X ≤ a) = a x2 de primitive de e− 2 ). On a donc calculé de façon approchée, pour certaines valeurs de a, la valeur de φ(a). Ces valeurs sont regroupées dans des tables qui permettent : 1. Etant donné a, de calculer P (X ≤ a) 2. Etant donné α, de trouver b ∈ R tel que P (X ≤ b) ≤ α Exemple(s): La température T dans les frigos suit une loi N (0, 1). 1. Je dois conserver un aliment entre 0 et 4. Calculer la probabilité que mon frigo conserve correctement mon aliment. 2. Un fabriquant de produits frais cherche une température α telle que son aliment reste consommable s’il est conservé en dessous de α. Quelle température α doit il choisir s’il veut que son aliment soit conservable dans 90% des frigos ? MA311 IV. Variables aléatoires 30 Il n’est pas toujours évident de comprendre ce que représente le notion de densité. Imaginons qu’un professeur fasse un histogramme des 300 notes obtenues à son examen. Il obtient le résultat suivant: 200 150 100 50 0 5 10 15 20 Figure IV.4: Histogramme des notes obtenues On choisit un élève au hasard parmi les 300, et on note X = note de cet élève. Pour calculer P (X ≤ 12) = proportion des élèves qui ont moins de 12, que va t-on faire? On va ajouter les hauteurs des barres jusqu’à la barre 12, puis diviser par 300. Autrement dit, quitte à diviser chaque hauteur par 300, cela revient à ajouter les hauteurs des barres. Et bien imaginons maintenant que X n’est plus une v.a discrète, mais une v.a continue qui peut prendre un nombre infini de valeurs: On pourrait de même tracer un histogramme representant les valeurs prises; mais les barres de l’histogramme ont maintenant une longueur nulle (infinité de valeurs possibles), ce sont juste des segments; autrement dit l’histogramme devient une courbe, qui n’est autre que la densité de X. En effet, pour calculer P (X ≤ 12), on calcule à ajouter des barres. 12 −∞ f (x) dx , où f est la densité de X. Cela revient MA311 IV. Variables aléatoires 31 0.2 0.18 0.16 0.14 0.12 y 0.1 0.08 0.06 0.04 0.02 0 5 10 15 20 x Figure IV.5: Comparaison histogramme-densité 4 Fonction de répartition, Espérance, Variance d’une v.a a) Fonction de répartition Définition: Soit X une v.a. On appelle fonction de répartition de X la fonction FX (t) = P (X ≤ t) Exemple(s): Soit X ∼ Exp(λ). On a : ⎧ ⎨0 si t ≤ 0 t FX (t) = ⎩ λe−λx dx = 1 − eλt sinon 0 Quel est l’intérêt de FX ? Et bien calculer FX est une autre façon de donner la loi de X. Proposition 17 (Retrouver la loi de X discrète avec FX ) Soit X une v.a discrète. On a: P (X = k) = FX (k) − FX (k − 1) Proposition 18 (Retrouver la densité de X continue avec FX ) Soit X une v.a continue admettant une densité f . Si FX est continue, de classe C 1 (sauf éventuellement en un nombre fini de points), alors X possède une densité qui est FX On peut donc conclure en disant que pour donner la loi d’une v.a X: MA311 IV. Variables aléatoires • si X est discrète, il faut: 32 calculer ∀k ∈ Z, P (X = k) ou alors calculer ∀k ∈ Z, P (X ≤ k) = FX (k) • si X possède une densité, il faut: a ⎧ ⎨ calculer la densité f, ie la fonction qui vérifie P (X ≤ a) = f (t) dt −∞ ⎩ ou alors calculer ∀t ∈ R, P (X ≤ t) = FX (t) Il y a donc plusieurs façons de donner la loi d’une v.a; à nous de choisir celle qui sera la plus simple au niveau calculs. Exemple(s): Soient X1 et X2 deux v.a discrètes. On pose Y = max(X1 , X2 ) 1. Calculer P (Y = k) et P (Y ≤ k) 2. Conclure: si on doit calculer la loi de X, quelle technique utiliser ? b) Espérance d’une v.a Définition: Soit X une v.a discrète, on dit que X possède une espérance si On pose alors E(X) = kP (X = k): c’est l’espérance de X. kP (X = k) converge k k Cette définition montre ce qu’est l’espérance de X c’est la moyenne des valeurs k prises par X, pondérée par la probabilité que X = k. On a une définition analogue dans le cas des v.a à densité: Définition: Soit X une v.a possédant une densité f , on dit que X possède une espérance si On pose alors E(X) = xf (x) dx: c’est l’espérance de X. R xf (x) dx existe R Remarques: • L’espérance est un nombre, une donnée déterministe, qui ne dépend pas du hasard ! • On note parfois EX au lieu de E(X). Exemple(s): • Un joueur lance une pièce : si la pièce fait pile, il gagne 1 euro , sinon il perd un euro. Quel est le gain du joueur en moyenne ? MA311 IV. Variables aléatoires 33 • La durée de vie des ampoules éléctriques de la marque A est une v.a de loi Exp( 16 ). Quelle est la durée moyenne de fonctionnement de ces ampoules ? Attention! certaines v.a n’admettent pas d’espérance. (Voir la loi de Cauchy dans le formulaire) Proposition 19 (Propriétés de l’espérance) 1. Si X = a presque surement (P (X = a) = 1), alors E(X) = a. 2. (Linéarité): Si a ∈ R, si X et Y sont des v.a, alors E(aX + Y ) = aE(X) + E(Y ) 3. Si X ≤ Y , alors E(X) ≤ E(Y ). 4. Si A est un évènement, E(1A ) = P (A) 5. Si X ≤ 0 presque surement, alors E(X) = 0 ⇔ X = 0 Plaçons nous dans la situation suivante: je connais la loi d’une v.a X, et on me demande de calculer E(g(X)), où g est une fonction quelconque. Par exemple, je cherche E(X 2 ). Quelle formule utiliser? Proposition 20 Soit X une v.a et g une fonction. Si g(X) admet une espérance, alors: E(g(X)) = g(k)P (X = k) si X discrète g(x)f (x) dx si X admet une densité f k E(g(X)) = R Exemple(s): Si X ∼ B(p), calculer E(X 2 ) Proposition 21 (Une formule pour les v.a positives) Si X est une v.a positive, alors E(X) = +∞ 0 P (X > t) dt MA311 c) IV. Variables aléatoires 34 Variance d’une v.a Je considère une v.a X, qui possède une espérance E(X). En moyenne, X vaut donc E(X). Cependant, cela n’empeche pas X de prendre des valeurs qui peuvent être très différentes de E(X). Comment quantifier ce phénomène? La v.a (X − E(X))2 met en valeur ce phénomène. Si X − E(X) est proche de 0, X ne s’écarte pas beaucoup de sa moyenne: cette valeur ne nous intéresse pas, en la mettant au carré on la diminue. A l’inverse, on amplifie les grands écarts. Prenons maintenant la moyenne de cette v.a: ce nombre nous donnera une idée donc de l’amplitude avec laquelle X s’écarte de E(X). Définition: Soit X une v.a. Si le nombre E (X − E(X))2 existe, alors on dit que X admet une variance, et on pose var(X) = E (X − E(X))2 Remarques: • Certaines v.a n’admettent pas de variance. • La variance est un nombre positif. Proposition 22 Si var(X) = 0, alors X est constante (égale à sa moyenne E(X)) Ce résultat est conforme à ce que l’on demande à la variance: quantifier l’écart entre X et sa moyenne. Si cet écart est nul, X vaut E(X). Proposition 23 (Propriétés de la variance) 1. Si X est une v.a presque surement constante, alors var(X) = 0. 2. Si a ∈ R, alors var(aX) = a2 var(X) 3. En général, var(X + Y ) = var(X) + var(Y ) Démonstration: MA311 IV. Variables aléatoires 35 Proposition 24 (Autre formule pour la variance) Si X possède une variance, alors var(X) = E(X 2 ) − E(X)2 Démonstration: On voit avec cette formule que si E(X 2 ) et E(X) existent, alors var(X) existe. Plus généralement, on va s’intéresser à l’existence de E(X k ), si k ∈ N∗ : Définition: Soit X une v.a. On dit que X admet un moment d’ordre k si E(X k ) existe. On appelle E(X k ) moment d’ordre k de X. 5 Variables aléatoires indépendantes Nous avons défini l’indépendance de deux évènements, mais nous devons définir maintenant l’indépendance de deux v.a. En effet, si on pose X = nombre d’attaques de requins en Australie et Y = nombre de crevaisons d’un vélo en une année, il est assez naturel de penser que X et Y sont deux v.a indépendantes. Comment le définir mathématiquement ? a) Des définitions Définition: Soient X et Y deux v.a réelles. On dit que X et Y sont indépendantes si ∀A ⊂ R, ∀B ⊂ R, P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B) On va regarder ce que donne cette définition dans le cas particulier où X et Y sont deux v.a discrètes ou deux v.a continues: MA311 IV. Variables aléatoires 36 Définition: Si X et Y sont deux v.a discrètes, alors ⎧ ⎪ ⎨∀i ∈ Z, ∀j ∈ Z, P (X = i, Y = j) = P (X = i)P (Y = j) X, Y indépendantes ⇔ ou ⎪ ⎩ ∀i ∈ Z, ∀j ∈ Z, P (X ≤ i, Y ≤ j) = P (X ≤ i)P (Y ≤ j) Définition: Si X et Y sont deux v.a continues, alors X, Y indépendantes ⇔ ∀i ∈ Z, ∀j ∈ Z, P (X ≤ i, Y ≤ j) = P (X ≤ i)P (Y ≤ j) On va également généraliser cette définition à l’indépendance de plusieurs v.a: Définition: Soient X1 , ..., Xn des v.a. On dit que X1 , X2 , ..., Xn sont indépendantes si P (X1 ≤ x1 , . . . , Xn ≤ xn ) = P (X1 ≤ x1 ) . . . P (Xn ≤ xn ) et enfin (ouf!) voici la définition de l’indépendance d’une famille infinie de v.a: Définition: Soient X1 , ..., Xn , ... une suite de v.a. On dit que ces v.a sont indépendantes si pour tout choix dans cette suite d’une sous famille finie de v.a Xi1 , ...Xip , ces v.a Xi1 , ...Xip sont indépendantes. b) Conséquences de la définition D’abord un petit résultat bien utile: Proposition 25 Si X et Y sont deux v.a indépendantes, si f et g sont des fonctions, alors f (X) et g(Y ) sont indépendantes. Exemple(s): Si X et Y sont deux v.a indépendantes, alors X 2 et eY sont indépendantes. On va tirer de l’indépendance un résultat important: MA311 IV. Variables aléatoires 37 Proposition 26 (V.A indépendantes et espérance) Si X et Y sont deux v.a indépendantes, alors: 1. E(XY ) = E(X)E(Y ) 2. var(X + Y ) = var(X) + var(Y ) Remarques: • La quantité E(XY ) − E(X)E(Y ) s’appelle covariance de X et Y . • Attention !! les résultats de la proposition précédente sont FAUX (sauf miracle) si X et Y ne sont pas indépendantes, comme le prouve l’exemple suivant: Exemple(s): Soit X une v.a de loi B( 12 ). Posons X = Y , calculons E(XY ). On a E(XY ) = E(X 2 ) = 12 P (X = 1) + 02 P (X = 0) = 1 2 et E(X)E(Y ) = E(X)2 = 14 . On a donc bien E(XY ) = E(X)E(Y ) 6 Exercices Exercice 9 Le jeu américain "chuck a luck" est le suivant: On parie sur un nombre de 1 à 6. On lance 3 dés. 3 2 1 0 Si le nombre sur lequel on a parié sort : fois, on gagne 3$ fois, on gagne 2 $ ; fois, on gagne 1 $ ; fois, on perd 1 $. 1. Soit X le gain lors d’une partie, déterminer la loi de X. 2. En moyenne, combien gagne t-on à ce jeu lors d’une partie ? Exercice 10 Dans la mémoire d’un ordinateur d’un ordinateur, on appelle quartet un ensemble de 4 bits (1 bit=0 ou 1). Soit Q un quartet, notons par Z le nombre tel que Q = écriture de Z en base 2. On suppose que la mémoire de l’ordinateur n’a pas été initialisée: ainsi, tous les bits de la mémoire se trouvent, indépendamment, dans l’état 1 avec probabilité p. 1. Calculer l’espérance et la variance de Z. 2. Calculer la probabilité que Z soit pair. 3. Calculer P (Z > 3). MA311 IV. Variables aléatoires 38 Exercice 11 1. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est distribué exponentiellement et sa valeur moyenne est de 10000 kilomètres. Une personne souhaite se lancer dans un voyage de 5000 kms. Avec quelle probabilité terminera-t-elle son voyage sans avarie de batterie ? 2. Une machine remplit des bouteilles d’eau. Le volume qu’elle délivre est en réalité aléatoire: c’est une v.a de loi N (m, σ 2 ), avec m = 1.5, et σ = 0.025 (a) Calculer P1 = proportion de bouteilles remplies avec moins de 1.47 l d’eau. (b) Calculer P2 = proportion de bouteilles contenant entre 1.48 et 1.52 l d’eau. Exercice 12 X −m ∼ N (0, 1) Montrer que si X ∼ N (m, σ), alors σ MA311 IV. Variables aléatoires 39 Chapitre V Couples de V.A Maintenant que nous savons manipuler une variable aléatoire, nous pouvons passer à l’étape suivante qui est de savoir manipuler en même temps plusieurs variables aléatoires. En effet, très souvent dans un problème on rencontre plusieurs variables aléatoires qui sont amenées à interagir entre elles. Exemple(s): Deux enfants volent de la confiture dans la cuisine. Pendant un temps T1 , les 2 enfants restent dans la cuisine le temps d’accomplir leur méfait, puis s’échappent. Le temps que met la maman avant de rentrer dans la cuisine est T2 . Quelle est la probabilité que la maman découvre les voleurs ? C’est P (T1 ≥ T2 ). 1 Loi conjointe d’un couple de v.a, lois marginales Définition: est un couple de Soient X et Y deux v.a réelles. On dit que la fonction: Ω → R2 w → (X(w), Y (w)) v.a, et on le note (X, Y ). On peut bien sûr généraliser cette définition au cas où il y a plus de deux v.a. On parle alors de vecteur aléatoire. Avant de passer aux résultats fondamentaux, définissons d’abord les objets: Définition: Connaitre la loi d’un couple de v.a (X, Y ), c’est être capable de calculer P (X ∈ A, Y ∈ B), ∀(A, B) ⊂ R2 . MA311 V. Couples de V.A 41 Définition: Soit (X, Y ) un couple de v.a. • La loi de X est une loi marginale du couple (X, Y ). • De même, la loi de Y est une loi marginale du couple (X, Y ). Ces définitions étant très générales, on va voir ce qu’elles donnent dans deux cas particuliers. 2 Cas des v.a discrètes a) Loi du couple Dans le cas où X et Y sont discrètes, le calcul de la loi du couple (X, Y ) se simplifie: Définition: Connaitre la loi d’un couple de v.a (X, Y ), c’est être capable de calculer: ⎧ 2 ⎪ ⎨P (X = i, Y = j), ∀(i, j) ∈ R ou ⎪ ⎩ P (X ≤ i, Y ≤ j), ∀(i, j) ∈ R2 b) Calcul des lois marginales à partir de la loi du couple Si l’on connait la loi du couple (X, Y ), il est important de savoir retrouver les lois marginales de X et Y: Proposition 27 Soient X et Y deux v.a discrètes. On a: P (X = k) = P (X = k, Y = j) j∈Z P (Y = k) = j∈Z Démonstration: P (X = j, Y = k) MA311 V. Couples de V.A 42 Représentation en tableau: Si X et Y prennent peu de valeurs, il est assez agréable comme celui ci: X\Y 0 1 1 0.1 0.5 4 0 0.2 5 0 0 de donner la loi de (X, Y ) dans un tableau 3 0.1 0 0.1 La somme des chiffres du tableau doit donc faire 1; La loi marginale de X est obtenue en ajoutant les colonnes, et celle de Y en ajoutant les lignes: X\Y 1 4 5 Loi de Y c) 0 1 3 0.1 0.5 0.1 0 0.2 0 0 0 0.1 0.1 0.7 0.2 Loi de X 0.7 0.2 0.1 Retrouver la loi conjointe à partir des lois marginales On sait maintenant, connaissant la loi conjointe d’un couple (X, Y ), calculer les lois de X et Y . On se pose donc tout naturellement la question inverse: est il possible, connaissant la loi de X et celle de Y , de retrouver la loi de (X, Y ) ? La réponse en général est non, car cela nécéssite des renseignements sur les liens qui unissent X et Y , liens qui ne sont pas fournis par la simple donnée des lois de X et de Y . Il existe des v.a X, Y, Z telles que les couples (X, Y ), (X, Z) ont des lois différentes mais les mêmes lois marginales. Exemple(s): On lance deux dés. On pose X =valeur du premier dé, et Y =valeur de deuxième. On pose Z = 7 − X. 1. Calculer les lois des couples (X, Y ) et (X, Z) 2. Calculer les lois marginales X, Y, Z. Il y a cependant un cas où ceci est possible, c’est quand on sait qu’il n’y a pas de liens entre X et Y , autrement dit si on sait que X et Y sont indépendantes. La loi du couple est alors donnée par ∀(i, j) ∈ R2 , P (X = i, Y = j) = P (X = i)P (Y = j) MA311 3 V. Couples de V.A 43 Couple de v.a à densité Soient X et Y deux v.a continues. Définition: Soient X et Y deux variables aléatoires. On dit que le couple (X, Y ) possède une densité conjointe si il existe une fonction f : R2 → R (appelée densité conjointe) qui vérifie: 1. ∀(x, y) ∈ R2 , f (x, y) ≥ 0 f (x, y) dxdy 2. R2 telle que ∀A ⊂ R, ∀B ⊂ R, f (x, y) dxdy P (X ∈ A, Y ∈ B) = A Remarque : on a en particulier ∀(a, b) ∈ R2 , a) P (X ≤ a, Y ≤ b) = B a b −∞ −∞ f (x, y) dxdy Calcul des lois marginales à partir de la loi du couple La formule vue précédemment pour les v.a discrètes se généralise, en remplaçant les Proposition 28 Soit (X, Y ) un couple de v.a dont la densité conjointe est f (x, y) • Alors X possède une denxité fX donnée par fX (x) = R f (x, y) dy • Alors Y possède une denxité fY donnée par fY (y) = R f (x, y) dx Exemple(s): Soit (X, Y ) un couple de v.a dont la densité conjointe est 2e−x e−2y si x ≥ 0 et y ≥ 0 f (x, y) = 0 sinon Calculer la loi marginale de X. par des : MA311 b) V. Couples de V.A 44 Cas où X et Y sont indépendantes Comme on l’a dit précédemment, si l’on connait uniquement la densité de X et celle de Y , il est impossible de retrouver la densité du couple (X, Y ), sauf si X et Y sont indépendantes: Proposition 29 1. Si X et Y sont indépendantes, de densités respecives fX et fY , alors le couple (X, Y ) possède une densité fX,Y donnée par fX,Y = fX (x)fY (y). 2. Soit (X, Y ) un couple de v.a dont la densité conjointe est fX,Y . Si fX,Y = g(x)h(y), alors X et Y sont indépendantes, et g = densité de X et h = densité de Y . (si f, g ≥ 0) Ainsi, on retiendra que si fX,Y peut se mettre sous la forme d’un produit de deux fonctions ne dépendant respectivement que de x et y, alors X et Y sont indépendantes. Exemple(s): Dans l’exemple précédent, on peut voir tout de suite que les v.a X et Y sont indépendantes. 4 Utilisation de la loi conjointe Cette partie est très importante, elle détaille l’intérêt de la densité conjointe. a) Calcul de probabilités faisant intervenir X et Y Comme on l’a dit dans l’exemple introductif du chapitre, on doit très souvent calculer des probabilités ou interviennent conjointement X et Y . Exemple(s): P (X ≤ Y ), P (X + Y ≤ a), ou P (X ≤ 2Y ) Les probabilités de ce type se calculent en utilisant le notion de densité conjointe. Si on doit calculer P (g(x, y) ∈ A (g est une fonction, A un ensemble), la marche à suivre est la suivante: 1. On détermine l’ensemble B tel que P (g(x, y) ∈ A) = P ((X, Y ) ∈ B). f (x, y) dxdy et on calcule l’intégrale double... 2. On écrit ensuite P ((X, Y ) ∈ B) = B Ceci est plus clair sur un exemple: Exemple(s): Soit (X, Y ) un couple de v.a dont la densité conjointe est 2e−x e−2y si x ≥ 0 et y ≥ 0 . Calculer P (X ≤ 2Y ). f (x, y) = 0 sinon MA311 b) V. Couples de V.A 45 Calcul de lois Cette méthode peut être utilisée pour calculer la loi d’une v.a du type g(X, Y ) (où g est une fonction): Exemple(s): Soit (X, Y ) un couple de v.a dont la densité conjointe est e−(x+y) si x ≥ 0 et y ≥ 0 f (x, y) = 0 sinon 1. Montrer que Y = 0 presque surement. 2. Calculer la densité de X Y Un cas particulier important est le calcul de la loi de X + Y , si X et Y sont indépendantes. Proposition 30 (Produit de convolution de deux densités) Si X et Y sont deux v.a indépendantes, de densités fX et fY , alors X + Y possède une densité donnée par fX+Y (x) = R fX (x − y)fY (y) dy = fX ∗ fY La densité de X + Y est donc le produit de convolution des densités de X et Y . MA311 5 V. Couples de V.A 46 Loi conditionnelle Le concept de loi conditionnelle exprime le lien reliant deux v.a X et Y . Cas de 2 v.a discrètes: Définition: Soit X et Y discrètes, soit k ∈ N. Calculer la loi conditionnelle de X sachant {Y = k}, c’est calculer P (X = i|Y = k), ∀i ∈ R la loi conditionnelle de X sachant Y = k la loi de Y on peut calculer la loi de X, en utilisant la formule des probabilités totales: P (X = i|Y = k)P (Y = k) P (X = i) = L’interêt de la loi conditionnelle est le suivant: si on connait: k∈Z Cas de 2 v.a à densité: Définition: Soit (X, Y ) un couple de v.a possédant une densité conjointe fX,Y . Si fY (y) = 0, on définit la densité conditionnelle de X sachant {Y = y} par {Y =y} fX (x) = fX,Y (x, y) fY (y) la densité conditionnelle de X sachant Y = y L’interêt est de pouvoir retrouver la loi de X si on connait la densité de Y t {Y =y} fX (x) fY (y) dxdy en utilisant la formule P (X ≤ t) = R −∞ (généralisation de la formule des probabilités totales au cas continu) Remarque: • On rencontre parfois P (X ≤ t|Y = y). Comme Y possède une densité, P (Y = y) = 0 et donc a priori (cf Chapitre III) P (X ≤ t|Y = y) n’a pas de sens. En fait, on pose P (X ≤ t|Y = y) = 6 t −∞ {Y =y} fX (x) dx Exercices Exercice 13 Soit X et Y deux v.a indépendantes suivant la loi normale N (0, 1). 1. Calculer la loi de Z = X 2 + Y 2 2. Calculer E(Z) MA311 V. Couples de V.A 47 Exercice 14 Stéphanie doit se rendre à la poste. Le temps qu’elle passe à attendre dans la queue suit une loi Exp(λ1 ). Le temps qu’elle passe au guichet suit une loi Exp(λ2 ). Le temps qu’elle doit attendre avant que son téléphone portable sonne suit une loi Exp(λ3 ). Ces 3 grandeurs sont indépendantes. Calculer la probabilité que le téléphone portable de Stéphanie sonne dans la poste. Chapitre VI Fonction génératrice, Fonction caractéristique d’une V.A De nombreux problèmes de probabilités peuvent s’avérer difficiles si l’on aborde leur calcul du point de vue sans deux outils qui s’avèrent parfois très efficaces. ces outils sont ce que l’on appelle des transformées de variables aléatoires. 1 Fonction génératrices Attention, on ne s’intéresse ici qu’aux v.a discrètes Définition: Soit X une v.a discrète. On appelle fonction génératrice de X la fonction, notée GX : [−1, 1] → R t → E(tX ) GX : Exemple(s): Soit X une v.a de loi de Poisson de paramètre λ. Calculons GX (t): GX (t) = E(tX ) = +∞ tk P (X = k) k=0 = +∞ tk e−λ k=0 = e−λ +∞ (tλ)k k=0 −λ tλ = e λk k! e k! = eλ(t−1) Proposition 31 Si X et Y sont deux v.a indépendantes, alors GX+Y (t) = GX (t)GY (t) MA311 VI. Fonction génératrice, Fonction caractéristique d’une V.A 49 Démonstration: GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX )E(tY ) car, comme X et Y sont indépendantes, tX et tY sont indépendantes = GX (t)GY (t) A quoi servent ces fonctions génératrices? L’intérêt est donné par les résultats suivants: Proposition 32 1. Si X et Y sont deux v.a qui possèdent la même fonction caractéristique, alors elles ont la même loi. 2. GX (1) = E(X) Démonstration: 1. On a GX (t) = k∈Z t k P (X = k). C’est une série entière. Si GY = GX , on a donc tk P (X = k) = tk P (Y = k) k∈Z k∈Z Si deux séries entières sont égales, on a égalité des coefficients. Donc ∀k ∈ Z, P (X = k) = P (Y = k). k−1 2. On dérive la série entière, on obtient GX (t) = k∈Z∗ kt P (X = k). En 1, cela donne GX (1) = k∈Z∗ kP (X = k) = E(X) Voici deux exemples où on s’aperçoit de l’interêt des fonctions génératrices: Exemple(s): 1. Soit X une v.a de loi de Poisson de paramètre λ. Calculons E(X) à l’aide de GX . E(X) = (GX ) (1) = (eλ(t−1) ) (1) = λeλ(t−1) (1) = λe0 = λ C’est plus simple que le calcul de +∞ ke−λ k=0 λk !! k! 2. Soient X et Y deux v.a indépendantes de lois de Poisson de paramètres λ1 et λ2 . On cherche la loi de X + Y , pour cela calculons GX+Y GX+Y (t) = GX (t)GY (t) P roposition λ1 (t−1) λ2 (t−1) = e e = e(λ1 +λ2 )(t−1) Or si Z ∼ P oi(λ1 + λ2 ), GZ (t) = e(λ1 +λ2 )(t−1) . Donc d’après la proposition ci dessus, Z et X + Y ont la même loi. Ainsi X + Y ∼ P oi(λ1 + λ2 ) La proposition précédente découle en fait du résultat plus général suivant: Proposition 33 1. La loi de X est donnée par P (X = k) = (k) (k) GX (0) k! 2. on a, si |X|k est intégrable, GX (1) = E(X(X − 1)...(X − k + 1)) MA311 2 VI. Fonction génératrice, Fonction caractéristique d’une V.A 50 Fonctions caractéristiques Ici, les v.a ne sont plus nécéssairement discrètes. Définition: Soit X une v.a. Si t ∈ R, on appelle fonction caractéristique de X la fonction R → C t → E(eitX ) eitx fX (x)dx En particulier, si X a pour densité fX , on a ϕX (t) = ϕX : R Remarques: • C’est donc une fonction à valeurs complexes, qui est définie sur R. • Parfois il faudra utiliser la méthode des résidus pour calculer ϕX (t). • Si X est discrète, on a: GX (eit ) = ϕX (t). Exemple(s): Si X ∼ N (m, σ), on a ϕX (t) = e(im− σ 2 t2 ) 2 L’intérêt et l’utilisation des fonctions caractéristiques sont similaires à ceux des fonctions génératrices: Proposition 34 1. Si 2 v.a ont la même fonction caractéristique, alors elles ont la même loi. (k) 2. Si X k possède une espérance, ϕX est k fois dérivable et on a : ik E(X k ) = ϕX (0) En particulier, on a iE(X) = ϕX (0) MA311 VI. Fonction génératrice, Fonction caractéristique d’une V.A 51 Chapitre VII Convergence des suites de V.A On s’intéresse maintenant à des situations où la même expérience se répète plusieurs fois. Exemples: • Transmission d’un message dans une ligne ponctuée de défauts. • Sondages Peut on étudier simplement ce genre de phénomènes ? 1 La loi des grands nombres a) Le théorème Si je jette n fois une pièce équilibrée, si je note n1 = nombre de piles obtenus, l’intuition nous dit que 1 n1 va tendre vers . Ce phénomène est appelé "loi des grands nombres" si n est grand, le rapport n 2 Nous allons énoncer le résultat mathématique qui correspond à cette intuition, et avant nous devons d’abord donner une définition de la notion de convergence. Définition: Soit (Xn ) une suite de v.a, soit X une v.a. On dit que Xn −−−−− → X presque surement si l’ensemble → X(w)} est de probabilité 1 {w ∈ Ω tq Xn (w) −−−−− n→+∞ n→+∞ Cela veut dire que si n est grand, Xn et X prennent les mêmes valeurs avec la probabilité 1. Proposition 35 (Loi des grands nombres) Soit (Xn ) une suite de v.a qui verifie: 1. Les (Xi ) sont indépendantes 2. Les (Xi ) ont toutes la même loi. 3. Les (Xi ) admettent une espérance. (On pose E(Xi ) = m) Alors X1 + X2 + ... + Xn −−−−−→ m presque surement X˜n = n→+∞ n MA311 VII. Convergence des suites de V.A 53 Remarques: 1. Il existe plusieurs "lois des grands nombres". Leur différence consiste en des hypothèses différentes sur les Xi , et/ou sur des modes différents de convergence. 2. Si ce résultat semble naturel, la démonstration n’en est pas moins douloureuse. Ce n’est pas un résultat trivial. 3. Comme les Xi ont toutes la même loi, il suffit de prouver que E(X1 ) existe. Comment comprendre ce résultat ? et bien, si l’on répète une expérience identique plusieurs fois, de façon indépendante, le nombre X1 +X2n+...+Xn , moyenne des résultats obtenus, sera proche de m, espérance commune des Xi . Exemple(s): Reprenons l’exemple des deux dés. Remarque: Attention à ne pas faire l’erreur suivante: Je lance ma pièce, j’obtiens sur les 20 premiers lancers nombre de piles 1 20 piles. D’après la loi des grands nombres, le rapport nombre de lancers doit tendre vers 2 . Or il vaut ième lancer pour "équilibrer". 1 pour l’instant. J’ai donc de bonnes chances d’obtenir un face lors du 21 Non, jamais la loi des grands nombres n’affirme une telle chose! Les lancers étant indépendants, la probabilité d’obtenir un face lors du 21 ième lancer est toujours 12 b) Application fondamentale: les méthodes de Monte-Carlo On l’a vu, les applications de la théorie des probabilité sont multiples: Files d’attentes, propagation de maladies, transmissions d’erreurs, étude de durées de vie de machines, gestions de stocks, étude des cours de valeurs financières... Mais toutes ces applications semblent naturelles, puisque dans les phénomènes énoncés, le hasard intervient de façon évidente. Il est une autre application, toute aussi importante que les précédentes, qui semble plus étrange: c’est le calcul approché d’intégrales. MA311 VII. Convergence des suites de V.A 54 Une intégrale (une aire, un volume, un flux...) est une donnée déterministe (l’aire d’une surface délimitée par une courbe ne dépend pas du hasard!) et pourtant dans la pratique, on utilise souvent le hasard pour les calculer. L’idée est la suivante: Je considère une fonction f dont je souhaite calculer l’intégrale sur [a, b]. M a b Figure VII.1: Une pauvre fonction dont on cherche l’intégrale Je me bande les yeux et choisit au hasard n points dans le rectangle. Certains des points sont au dessus de la courbe, d’autres non; Je compte le nombre de points au dessous de la courbe et je fais le de points au dessous de la courbe = nombre de points aundessous de la courbe . rapport nombre nombre total de points choisis b f (t) dt quand n → +∞. Alors j’affirme que ce rapport tend vers a (b − a)M Il suffit donc de prendre n suffisamment grand pour avoir une approximation de l’intégrale. Démonstration: Remarques: 1. La méthode décrite ici (sommairement) est très utilisée car: • En général, on ne sait pas calculer de primitive de la fonction f • Il existe d’autres méthodes de calcul approché d’intégrales (approximation à l’aide de rectangles, de trapèzes...) mais ces méthodes déterministes s’appliquent lorsque f est suffisamment régulière (i.e de classe C 1 , C 2 ...) La méthode de Monte-Carlo par contre s’applique même si la fonction est un atroce cas pathologique (pas continue, ou continue mais pas dérivable...) MA311 VII. Convergence des suites de V.A 55 2. La terminologie Monte Carlo vient bien sur des casinos de Monaco, temples du hasard (enfin, pas tant que ca...) c) Comment calculer π en lançant des aiguilles par terre... Voici un joli exemple d’application des méthodes de Monte Carlo: le calcul de π: On possède une table, recouverte de lignes parallèles, espacées entre elles de D cm. On y jette une aiguille de longueur l, avec l ≤ D. On cherche la probabilité que l’aiguille rencontre une ligne. On repère la position de l’aiguille avec les coordonées suivantes: • θ est l’angle aigu formé entre l’aiguille et une perpendiculaire aux lignes. • X est la distance entre le milieu de l’aiguille et la ligne parallèle la plus proche. 1. Quelles lois suivent θ et X? Sont-elles indépendantes? 2. Trouver la probabilité cherchée. 3. Imaginez une méthode pour calculer π. MA311 2 VII. Convergence des suites de V.A 56 Approximation de lois Ce qui nous interesse, ce ne sont pas les valeurs d’une v.a, mais la loi de cette v.a. (les valeurs ne sont pas prévisibles de toute façon!) On va chercher ici à calculer la loi de X, si X s’écrit comme une somme de plusieurs v.a. a) Convergence en loi Définition: Soit (Xn ) une suite de v.a. On dit que (Xn ) converge en loi vers X si → P (X ≤ t0 ) P (Xn ≤ t0 ) −−−−− n→+∞ (si t0 est un point où FX est continue) • Dans le cas où les Xi sont discrètes, on a: → P (X = k) (Xn ) converge en loi vers X ⇔ ∀k ∈ Z, P (Xn = k) −−−−− n→+∞ • Dans le cas où les Xi possèdent une densité fi , on a: (Xn ) converge en loi vers X ⇔ ∀x ∈ R, b) fn (x) −−−−−→ f (x) n→+∞ Approximation de la loi Binomiale par la loi de Poisson Un exemple classique de convergence en loi est la résultat suivant: Proposition 36 (Convergence de la loi binomiale vers la loi de Poisson) Soit λ ∈ R. Soit (Xn ) une suite de v.a telles que Xn ∼ B(n, pn ). Si npn −−−−−→ λ, alors Xn converge en loi vers la loi P oi(λ) n→+∞ i Ainsi, on pourra écrire P (Xn = i) = e−λ λi! au lieu de P (Xn = i) = Cni pin (1 − pn )n−i , ce qui est plus simple à calculer. Ce résultat sert dans la pratique à faire l’approximation suivante: Si X ∼ B(n, p), avec n grand et np petit, on dira que X ∼ P oi(np). Le terme n grand veut dire de l’ordre de la centaine, alors que np sera ≤ 15 Exemple(s): Des transistors sont vendus par paquets de 100. Parmi eux, se trouvent des transistors défectueux, dans une proportion de 1%. Calculer la probabilité qu’il y ait plus de 2 transistors défectueux dans le paquet. MA311 c) VII. Convergence des suites de V.A 57 Le théorème central limit Soient X1 , X2 , ..., Xn des v.a indépendantes, de même loi, d’espérance m. Imaginons que l’on approxime (approximation très grossière!) Xi par sa moyenne m. Considérons la v.a Z = X1 + ... + Xn − nm qui représente l’erreur faite en remplacant Xi par sa moyenne m. Le théorème central limit nous affirme alors que cette v.a, si n est assez grand, suivra une loi normale. Proposition 37 (Théorème Central limit) Soit (Xn ) une suite de v.a telles que: 1. Les Xi sont indépendantes 2. Les Xi ont la même loi 3. Les Xi possèdent une espérance m et une variance σ 2 Alors Zn = X1 + . . . Xn √ converge en loi vers la loi N (0, 1) σ n Autrement dit, si n est grand, on connait la loi de Zn : C’est la loi N (0, 1). Cela revient à dire (voir √ propriétés de la loi Normale) que X1 + . . . + Xn ∼ N (nm, σ n) Conclusion: Si X1 , . . . , Xn sont des v.a indépendantes de même loi, la loi de X1 + . . . + Xn est une loi Normale (pour n assez grand) En réalité, le TCL reste vrai même si les Xi n’ont pas la même loi (il faut cependant que Xi − mi i soit petit face à Xn ). n=1 Ceci explique pourquoi beaucoup de phénomènes aléatoires sont modélisés par une loi Normale: car souvent un phénomène aléatoire est souvent la somme de plusieurs phénomènes indépendants. Exemple(s): • L’erreur commise suite à une mesure physique peut être modélisée par une loi normale, car cette erreur est la somme de plusieurs causes indépendantes: erreur dûe à la température + erreur dûe à des conditions de pression + erreur dûe à un souffle + erreur dûe à des mouvements de l’utilisateur... • La taille d’une personne peut s’expliquer par des facteurs génétiques, alimentaires, sociaux, ... MA311 3 VII. Convergence des suites de V.A 58 Exercices Exercice 15 Pour éclairer un local, on dispose d’un stock de 40 ampoules, de durée de vie indépendantes, suivant toutes la loi Exp(0.01) (le temps est en heures). Calculer la probabilité que ce stock suffise à éclairer le local pendant 5000 heures. Exercice 16 Soit ε > 0. On lance une pièce équilibrée. On pose f = fréquence d’apparition des piles. D’après la loi des grands nombres, on sait que f doit se rapprocher de 12 si le nombre de lancers est suffisamment grand. Combien de lancers doit-on effectuer pour être sûr à 95% que f soit proche de 1 2 à ε près ? MA311 VII. Convergence des suites de V.A 59 Chapitre VIII Probabilités et Simulation 1 Pourquoi simuler une variable aléatoire ? Il est capital dans la pratique de savoir faire la chose suivante: étant donnée une loi de probabilité L connue, pouvoir sortir une liste (x1 , x2 , ...xn ) de nombres représentant les valeurs qu’ont prises successivement n v.a indépendantes suivant toutes la loi L. Dans quel but ? • Par exemple, pour calculer une intégrale avec la méthode de Monte Carlo, nous devons être capable de "tirer" des points, au hasard sur une zone du plan. Nous devons donc être capables avec un ordinateur de "reproduire" cette experience aléatoire: ce qui revient à être capable de simuler des v.a de loi uniforme. • Si l’on étudie une file d’attente à une caisse, nous devrons simuler l’arrivée des personnes à cette caisse; Si on suppose que les temps entre 2 arrivées de clients sont des lois exponentielles, nous devrons donner des valeurs à ces temps, ces temps n’étant pas choisis n’importe comment, mais étant choisis comme les réalisations de v.a indépendantes de lois exponentielles. Si je tape sur Matlab exprnd(λ,n,1), j’obtiens n nombres a1 , .., an . Que veulent dire ces nombres ? Il signifient qu’on a pris n v.a indépendantes X1 , ..., Xn de même loi Exp(λ), que la première a pris comme valeur a1 , la deuxième a2 , etc... La simulation sert à plusieurs choses: 1. Bien sur, à reproduire en labo le phénomène qu’on étudie, et en déduire des résultats; 2. Mais aussi à faire certains calculs de manière approchée: Exemple 1: Une machine est constituée de 3 composants de la manière suivante: T2 T1 T3 Figure VIII.1: Schéma de fonctionnement d’une machine Chacun des composants possède une durée de vie Ti , qui est une v.a de loi Exponentielle. MA311 VIII. Probabilités et Simulation 1. Calculer T = durée de vie du système en fonction de T1 , T2 et T3 . 2. Calculer la durée de vie moyenne du système E(T ) de façon théorique. 3. Calculer par simulation E(T ). Exemple 2: Soient T1 et T2 deux v.a indépendantes de loi Exp(1) et Exp(2). 1. Calculer P (T1 ≤ T2 ). 2. Retrouver ce résultat par simulation. 61 MA311 2 VIII. Probabilités et Simulation 62 Comment simuler une loi de probabilité quelconque? On peut démontrer que si l’on sait simuler une v.a de loi U [0, 1], on peut simuler à partir de U n’importe quelle variable aléatoire. Nous nous contenterons d’utiliser les commandes de Matlab qui permettent de simuler les lois classiques. Donnons juste un exemple qui montre comment simuler une loi Exponentielle à partir d’une loi Uniforme: Exemple(s): 1. Soit λ ∈ R+∗ , soit U une v.a de loi uniforme sur [0, 1]. On considère X = − ln(U ) . λ (a) Pourquoi peut on dire que X existe presque surement? (b) Calculer la loi de X Tout repose donc sur la simulation d’une v.a U [0, 1]: le fameux rand() des calculatrices. Comment fonctionne ce rand() ? MA311 VIII. Probabilités et Simulation 63 Une méthode couramment employée consiste à construire la suite suivante: 1≤a≤M On se donne des réels a, b, M tels que , et on construit la suite 0≤b<M xi+1 = axi + b On pose ensuite ui = xi M, [M ] (0 ≤ x0 < M ) ces nombres sont dans [0, 1]. Bien entendu, nulle part le hasard n’intervient dans la construction de ces nombres, ce ne sont que des nombres pseudo-aléatoires: si l’on part du même x0 (x0 est la graine, seed), on obtiendra la même suite! Cette suite est même périodique, elle se répète... bref rien à voir avec du hasard. Mais en réalité, si la période est suffisamment grande, on peut en premiere approximation considérer que cette suite nous sort bien des nombres "au hasard". Exemple: La suite xi+1 = 3125xi + 1 [235 ] est périodique de période 34 359 738 668 De tels générateurs sont appelés générateurs congruentiels. 3 Exercices Exercice 17 Le but de cet exercice est de simuler une loi normale à l’aide d’une loi uniforme: Soient U1 et U2 2 v.a indépendantes de loi U ([0, 1]). On pose: X1 = −2 ln(U1 ) cos(2πU2 ) X2 = −2 ln(U1 ) sin(2πU2 ) Montrer que X1 et X2 sont indépendantes et suivent la loi N (0, 1) Exercice 18 Le but de cet exercice est de montrer comment simuler une loi de probabilité quelconque à partir d’une loi U ([0, 1]). Soit X une v.a à simuler, de fonction de répartition FX . On pose G(y) = inf {y ≤ FX (x)} x∈R 1. Calculer la fonction de répartition de la v.a G(U ). 2. En déduire le résultat. Table des Matières I Le vocabulaire mathématique des probabilités 1 Quelques rappels de théorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . . 2 L’ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Notion de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II Dénombrement 1 Probabilité uniforme . . . . . . . . . . . . 2 Les formules à savoir . . . . . . . . . . . . 3 Quelques remarques sur le dénombrement 4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . III Probabilités conditionnelles et indépendance 1 Probabilités conditionnelles . . . . . . . . . . 2 Utilisation des probabilités conditionnelles . . 3 Indépendance . . . . . . . . . . . . . . . . . . 4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 4 . . . . 6 6 7 10 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 13 16 18 . . . . . . . . . . . . . . . . . . d’une v.a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 20 22 25 31 35 37 . . . . . . 40 40 41 43 44 46 46 VI Fonction génératrice, Fonction caractéristique d’une V.A 1 Fonction génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Fonctions caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 48 50 VIIConvergence des suites de V.A 1 La loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Approximation de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 52 56 58 IV Variables aléatoires 1 Notion de variable aléatoire . . . . 2 Les V.A discrètes . . . . . . . . . . 3 Les V.A à densité . . . . . . . . . . 4 Fonction de répartition, Espérance, 5 Variables aléatoires indépendantes 6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variance . . . . . . . . . . . . . . V Couples de V.A 1 Loi conjointe d’un couple de v.a, lois marginales 2 Cas des v.a discrètes . . . . . . . . . . . . . . . 3 Couple de v.a à densité . . . . . . . . . . . . . 4 Utilisation de la loi conjointe . . . . . . . . . . 5 Loi conditionnelle . . . . . . . . . . . . . . . . . 6 Exercices . . . . . . . . . . . . . . . . . . . . . 64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MA311 VIII. Table des matières VIII Probabilités et Simulation 1 Pourquoi simuler une variable aléatoire ? . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Comment simuler une loi de probabilité quelconque? . . . . . . . . . . . . . . . . . . . 3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 60 60 62 63