1 Université Paris Villetaneuse Année 2013/2014 Clément Foucart Probabilités Prépa Capes Probabilités et Statistiques: Eléments de cours et exercices Les programmes de mathématiques dans l'enseignement secondaire ainsi qu'en classes préparatoires et BTS mettent de plus en plus en avant la théorie des probabilités. S'il est rare que les exercices de probabilités donnés au lycée et dans les premières années universitaires nécessitent des raisonnements diciles en analyse réelle, plusieurs types de dicultés apparaissent lorsque l'on enseigne ou que l'on étudie les probabilités. D'une part, des énoncés mal construits (trop succincts ou au contraire trop longs) peuvent rapidement bloquer le lecteur 1 . D'autre part, on peut être amené à mobiliser des connaissances en analyse ou en algèbre (calculs de séries, d'intégrales, algèbre linéaire, matrice à inverser). La théorie de la mesure n'est pas au programme du CAPES. Nous nous bornerons donc à l'usage de notions probabilistes sans donner plus de détails quant à leurs dénitions en théorie de la mesure. Il faut néanmoins bien comprendre que probabilités et intégration partagent beaucoup de choses, comme nous le verrons dans les chapitres suivants, probabilités discrètes (respectivement continues) amènent à l'étude de séries (respectivement d'intégrales). An de donner un cadre clair, nous introduirons rapidement les tribus (c'est d'ailleurs au programme en classes préparatoires économiques et sociales, voie scientique). D'un point de vue pédagogique, introduire les tribus permet de s'entraîner à manipuler les sous-ensembles. Les exercices accompagnés du signe # sont corrigés. Ils ont été dans leur grande majorité rédigés par Alexandre Genadot et Pierre Veuillez (http ://mathsece.free.fr/) 2 . An de vous entraîner, vous pouvez consulter les références suivantes : Ouvrages utilisés pour la rédaction de ce polycopié 1) Intégration et Probabilités, Auliac, Cocozza-Thivent, Mercier, Roussignol, EdiScience. 2) Probabilités, analyse de données et Statistiques, Saporta, Technip. 3) Polycopié du cours de préparation au capes de Paris 6. Frédérique Petit et Béatrice de Tilière (disponible en ligne sur la page de B. de Tilière) 4) Probabilités et statistiques pour le CAPES externe et l'Agrégation interne de Mathématiques (Jérôme Escoer) 5) Annales des ECRICOMES (pour les problèmes et exercices de probabilités : http ://mathsece.free.fr/sujetsent 6) Analyse pour l'agrégation, Zuily et Queélec. Dunod, Références pouvant être consultées 1) Probabilités Tome 1, licence- capes Jean-Yves Ouvrard, chez Cassini 2) Introduction au calcul des probabilités et à la statistique, Jean-François Delmas, disponible en ligne 3) Probability and random processes Grimmett and Stirzaker third edition, Oxford 1. et ceci est vrai à tout niveau. 2. J'en prote pour les remercier ici. 2 Table des matières 1 Rappels fondamentaux 1.1 1.2 1.3 5 Rudiments sur les ensembles et les fonctions 1.1.1 Notions de base sur les ensembles 1.1.2 Ensembles et fonctions Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2.1 Ensembles au plus dénombrables 1.2.2 Ensembles nis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2 Espaces probabilisés 15 2.1 Terminologie probabiliste et notion de probabilité 2.2 Probabilité conditionnelle 2.3 2.4 . . . . . . . . . . . . . . . . . 15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2.1 Formule des probabilités totales et formule de Bayes . . . . . . . . . . . . 23 2.2.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variables aléatoires : notion de loi et de moments 25 . . . . . . . . . . . . . . . . . 26 2.3.1 Loi d'une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.3.2 Fonctions de répartition et indépendance . . . . . . . . . . . . . . . . . . 27 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Variables aléatoires discrètes 3.1 8 Généralités 37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Loi et fonction de répartition 3.1.2 Espérance 3.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance 3.1.4 37 . . . . . . . . . . . . . . . . . . . . . . . . 37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 . 40 Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . 41 3.2 Lois discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.3 Vecteurs aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4 3.3.1 Vecteurs aléatoires discrets : lois marginales, indépendance 3.3.2 Structure algébrique, covariance et corrélation . . . . . . . . 44 . . . . . . . . . . . . . . . 45 3.3.3 Loi multinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.3.4 Somme de variables aléatoires indépendantes . . . . . . . . . . . . . . . . 48 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4 Variables aléatoires à densité 4.1 Généralités 73 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Loi et fonction de répartition 4.1.2 Espérance 74 . . . . . . . . . . . . . . . . . . . . . . . . 75 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 3 4 TABLE DES MATIÈRES 4.2 4.3 4.4 4.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance 4.1.4 Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . Lois à densité usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vecteurs aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 77 77 80 4.3.1 Vecteurs aléatoires à densité : lois marginales, indépendance . . . . . . . 81 4.3.2 Loi normale multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . 81 4.3.3 Sommes de deux variables aléatoires indépendantes : convolution . . . . . 82 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 5 Théorèmes limites 5.1 76 99 Notions de convergence de suites aléatoires . . . . . . . . . . . . . . . . . . . . . 99 5.1.1 Convergence en probabilité et loi faible des grands nombres. 99 5.1.2 Convergence en loi 5.1.3 Approximations de certaines lois et théorème central limite . . . . . . . . 102 5.1.4 Convergence presque-sûre et loi forte des grands nombres . . . . . . . . . 104 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 6 Eléments de statistiques 109 6.1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.2 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 7 Sujets des examens passés et problèmes 121 7.1 Fonctions additives et loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . 126 7.2 Théorème de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 7.3 Marche aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 8 Problèmes d'analyse pour les probabilités 135 Chapitre 1 Rappels fondamentaux Ce chapitre est du niveau de première et deuxième année. Il est conseillé d'y revenir si vous avez des lacunes. Nous commençons par des rappels de base sur les ensembles et les opérations sur les ensembles. Nous terminons par des rappels sur les ensembles dénombrables. Ces ensembles jouent un rôle primordial lors de l'étude des probabilités discrètes. Les notions présentées ici font parties des cours de première et deuxième année de mathématiques. Nous renvoyons le lecteur aux ouvrages consacrés. 1.1 Rudiments sur les ensembles et les fonctions 1.1.1 Notions de base sur les ensembles Ω sera inclus dans N, R ou Rd pour d ≥ 2). A est un sousensemble (on dit aussi partie) de Ω, si A est une collection d'éléments de Ω : au sens où tous les éléments de A sont éléments de Ω. On note alors Soit Ω un ensemble (typiquement la relation ⊂ est la relation d' A ⊂ Ω, inclusion. Rappel : On raisonne souvent par double inclusion pour montrer que deux ensembles sont égaux : A = B ⇐⇒ A ⊂ B et B ⊂ A. On note P(Ω) l'ensemble des parties de Ω. P(Ω) = {A; A C'est à dire : sous-ensemble de Ω}. Opérations sur les ensembles : A ∈ P(Ω). n'appartiennent pas à A : Ensemble complémentaire. Soit ments de Ω qui Le complémentaire de A est l'ensemble des élé- Ac = {x ∈ Ω; x ∈ / A}. On note ∅ le complémentaire de Ω. Cet ensemble s'appelle l'ensemble vide. 5 6 CHAPITRE 1. Réunion : La réunion de deux ensembles A et B est notée x ∈ A ∪ B ⇐⇒ x ∈ A ou RAPPELS FONDAMENTAUX A∪B et est dénie par : x∈B Attention, le "ou" n'est pas exclusif, c'est à dire que x peut appartenir à la fois à A et à B . Intersection : l'intersection de deux ensembles A et B x ∈ A ∩ B ⇐⇒ x ∈ A L'ensemble des éléments de A qui ne sont pas dans B est notée et x∈B est noté On le dénit par : réunion est notée x∈ [ x∈ \ i∈I i∈I S i∈I Ai , familles T leur intersection Ai ⇐⇒ ∃i ∈ I tel que d'ensembles : soit i∈I x ∈ Ai , Ai ⇐⇒ ∀i ∈ I, x ∈ Ai , donc Ai donc x∈ / \ i∈I x∈ / [ i∈I et est denie par : A \ B . On dit "A privé de B ". A \ B = A ∩ Bc. Ces opérations se généralisent à des A∩B I ⊂ N et (Ai , i ∈ I). Leur Ai ⇐⇒ ∀i ∈ I, x ∈ / Ai Ai ⇐⇒ ∃i ∈ I tel que x∈ / Ai . Remarque 1.1.1 Toutes ces opérations sont stables dans P(Ω). On rappelle les règles de calculs : (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (A ∪ B)c = Ac ∩ B c (A ∩ B)c = Ac ∪ B c Plus généralement : (∪i∈I Ai )c = ∩i∈I Aci et (∩i∈I Ai )c = ∪i∈I Aci . Dénition 1.1.1 (Partition) Une famille de parties de Ω, (Ai , i ∈ I) est une partition de Ω si ; i) ∪i∈I Ai = Ω ii) ∀i ∈ I, j ∈ I : i 6= j =⇒ Ai ∩ Aj = ∅. Dénition 1.1.2 (Produit cartésien) Le produit cartésien de deux ensembles E et F est notè, E × F et est déni par : E × F = {(x, y); x ∈ E et y ∈ F }. Plus généralement, le produit cartésien de E1 × E2 × E3 × ... × En = n Y i=1 n ensembles est : Ei = {(x1 , x2 , ..., xn ); ∀i ∈ [|1, n|], xi ∈ Ei }. 1.2. ENSEMBLES DÉNOMBRABLES 7 1.1.2 Ensembles et fonctions On donne ici quelques rudiments sur les applications : les dénitions d'injectivité, surjectivité, de l'image et de l'image réciproque d'un ensemble par une application. Soient E et F deux ensembles, soit f une application qui va de E dans F : Dénition 1.1.3 La fonction f est dite injective si : ∀x, y ∈ E, f (x) = f (y) =⇒ x = y. Dans ce cas, un élément de F a au plus un antécédent par f dans E . surjective si : ∀z ∈ F, ∃x ∈ E; f (x) = z. Dans ce cas, tout élément de F a au moins un antécédent par f . bijective si : injective et surjective. Dans ce cas, pour tout z dans F , il existe un et un seul x ∈ E tel que f (x) = z . Dénition 1.1.4 Soit f une application de E dans F , A une partie de E et B une partie de F. On appelle image de A par f l'ensemble noté f (A) déni par f (A) = {y ∈ F ; ∃x ∈ A tel que y = f (x)}. On appelle image réciproque de B par f l'ensemble noté f −1 (B) déni par f −1 (B) = {x ∈ E; f (x) ∈ B}. Remarque 1.1.2 La notation f −1 est abusive car f n'est pas toujours bijective et n'a donc pas toujours de réciproque, l'ensemble f −1 (B) existe même si f n'est pas bijective. Proposition 1.1.1 (Image réciproque et union) Soient A, B ∈ P(F ) f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B) f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B) f −1 (Ac ) = f −1 (A)c Preuve 1.2 laissée en exercice. Ensembles dénombrables Pour clôturer ces généralités, et avant de passer aux probabilités, nous rappelons la notion d'ensemble dénombrable, ainsi que des éléments de dénombrement. Le dénombrement est fondamental dans les probabilités discrétes. Nous traitons ces questions à part an de se concentrer dans la suite sur les probabilités. 8 CHAPITRE 1. RAPPELS FONDAMENTAUX 1.2.1 Ensembles au plus dénombrables Dénition 1.2.1 Un ensemble E est dit au plus dénombrable s'il existe une injection de E dans N Deux cas sont possibles : l'ensemble N. E est inni et dans ce cas, on peut démontrer qu'il existe une bijection de E dans L'ensemble est dit dénombrable. L'ensemble E est ni et dans ce cas, on peut dénombrer combien il possède d'éléments. Remarque 1.2.1 (Exemples) Ces propriétés sortent du cadre du cours, mais sont à savoir démontrer. L'ensemble des rationnels Q est dénombrable. L'ensemble des réels R est non dénombrable. 1.2.2 Ensembles nis On dit qu'un ensemble est ni s'il est vide, ou s'il existe un entier naturel n et une bijection [|1, n|] := {1, 2, ..., n} dans E . Si E 6= ∅, l'entier n est appelé cardinal de E . On note Card E = n. Par convention Card ∅ = 0. On a Card E = n si et seulement si les éléments de E peuvent être notés e1 , ..., en où les ek sont distincts. Dénombrer un ensemble ni E correspond à déterminer de le nombre déléments de E, c'est à dire son cardinal. Plusieurs méthodes sont possibles. Néanmoins, rappelons les trois conditions qui doivent être remplies pour que le dénombrement soit correct : 1) S'assurer que seuls des éléments de E sont comptés 2) S'assurer que l'on en oublie pas 3) S'assurer que l'on ne compte pas plusieurs fois le même élément. Propriétes des cardinaux Proposition 1.2.1 Soit E un ensemble ni. Si F est un ensemble en bijection avec E , alors F est ni et Card E = Card F . Démonstration dans E. Soit f Si E est un ensemble ni de cardinal une bijection de donc l'application φ◦f E dans F, n alors il existe φ une bijection de [|1, n|] la composée de deux bijections est une bijection, est une bijection. De plus le cardinal de F est n. Proposition 1.2.2 Soit E un ensemble ni. Toute partie A de E est nie et Card A ≤ Card E . Si A est une partie de E et Card A = CardE alors A = E . Proposition 1.2.3 Soit A et B deux parties de E , ensemble ni. 1) 2) 3) 4) Si A et B sont disjointes, Card (A ∪ B) = Card (A) + Card (B) Card (A \ B) = Card A − Card B Card Ac = Card E − Card A Card (A ∪ B) = Card A + Card B − Card (A ∩ B) 1.2. ENSEMBLES DÉNOMBRABLES 9 Proposition 1.2.4 (Formule du Crible) Soit (Ai , i ∈ I) une famille de parties de l'ensemble ni E alors pour tout entier n ≥ 1 ; Card (∪ni=1 Ai ) n X = (−1)k+1 k=1 Card (∩kl=1 Ail ) X 1≤i1 <i2 <i3 <...<ik ≤n Si (Ai , i ∈ I) est une partition de E alors Card (∪ni=1 Ai ) = Card (E) Preuve. Par récurrence. Cette formule correspond à la formule du crible dans le cadre des probabilités sur des en- équiprobabilité. sembles nis avec l'hypothèse d' Nous verrons qu'elle se généralise à toutes les probabilités (pas seulement pour la probabilité uniforme). Proposition 1.2.5 (Cardinal d'un produit d'ensembles nis) Soit (Ei , i ∈ [|1, n|]) une famille d'ensembles nis. On a : Card (E1 × E2 × ... × En ) = (Card E1 )(Card E2 )...(Card En ). Remarque 1.2.2 Cette formule est fondamentale en dénombrement. Une bonne compréhen- sion de sa signication et de sa preuve est le meilleur départ possible en probabilités discrètes. Démonstration. n = 2, une fois le résultat établi pour n = 2, on peut raisonner par récurrence. Soient A et B , deux ensembles de cardinal respectif n et p. On va procéder par récurrence sur p. Initialisons, la récurrence : supposons p = 1, par dénition puisque Card A = n, il existe une bijection φ : A 7→ {1, ..., n}. L'application : On se concentre sur φ : (a, b) ∈ A × B 7→ φ(a) ∈ {1, ..., n} est une bijection, donc Card (A × B) = n. p. A et B deux ensembles avec B de cardinal p+1. On note A = {a1 , ..., an }, B = Hypothèse de récurrence : Supposons que la propriété est vraie au rang Hérédité : On note {b1 , ..., bp , bp+1 } A × B = {(a, b); a ∈ A, b ∈ B} = A × ({b1 , ..., bp }) ∪ A × {bp+1 }. Par hypothèse de récurrence Card Card (A × {b1 , ..., bp }) = np, donc (A × B) = np + n = n(p + 1). La propriété étant héréditaire, initialisée, on conclut qu'elle est vraie pour tout entier récurrence. p par 10 CHAPITRE 1. RAPPELS FONDAMENTAUX Arrangements et combinaisons Dénition 1.2.2 On appelle p-liste d'un ensemble E à n éléments, toute suite de p éléments de E . C'est à dire un élément de E p . Remarque 1.2.3 L'ordre des p-éléments est important. Une p-liste peut contenir plusieurs fois le même élément. On parle aussi de p-uplet, ou p-uple. Théorème 1.2.6 Il y a np p-listes d'un ensemble à n éléments. Démonstration. E | × E... {z × E}. p On choisit éléments dans E : on a donc à compter le nombre d'éléments de D'après la proposition 1.2.5, il y a (Card E)p éléments. p fois On peut également raisonner de la façon suivante (c'est en fait tout à fait équivalent, mais la rédaction est diérente) : On choisit d'abord le premier élément de la liste : on a tés. On choisit ensuite le second élément, on a également Le nombre de p-listes possibili- p fois. np . {1, ..., n} dans possibilités, et ainsi de suite possibles est alors le produit de toutes ces possibilités : c'est à dire En fait, on peut identier {1, ..., p}. n n p-liste d'un ensemble à n éléments et application de On a donc le théorème suivant : Théorème 1.2.7 Soient A et B de cardinal respectif n et p. Le nombre d'applications de A dans B est (Card A)Card B . Dénition 1.2.3 Un de p éléments parmi n est une liste de p éléments distincts d'un ensemble E à n éléments. Si Card E = n, un arrangement de n éléments est une permutation de E . arrangement Théorème 1.2.8 On note Apn le nombre d'arrangements de p parmi n. On a : Apn = n(n − 1)...(n − p + 1) = n! . (n − p)! Remarque 1.2.4 On note souvent (n)p (symbole de Pochhammer) Apn (néanmoins cette notation n'est pas utilisée en secondaire). Démonstration. Notons Apn l'ensemble des arrangements de p parmi n. On souhaite démontrer que Card On procède par récurrence sur que la propriété est vraie au par le Théorème 1.2.5 Apn = n! . (n − p)! p. Si p = 1 alors A1n = n (et ce pour tout n). Soit p ≥ 1, supposons p+1 p 1 rang p. Clairement An est en bijection avec An × An−p . Donc Ap+1 = Apn A1n−p . n Par hypothèse de récurrence, et car Ap+1 = n A1n−p = n − p, on a n! n! × (n − p) = . (n − p)! (n − p − 1)! 1.2. ENSEMBLES DÉNOMBRABLES 11 Dénition 1.2.4 (Combinaison) Soit E un ensemble ni de cardinal n. On appelle combinaison de k éléments de E toute partie de E decardinal k . On note nk le nombre de combinaisons de k éléments parmi n. Autrement dit nk est le nombre de façons de choisir k éléments parmi n sans tenir compte de leur ordre. Il faut bien faire la diérence entre partie et liste ! Théorème 1.2.9 Pour tout k ≤ n n n! = k!(n − k)! k Démonstration. On va faire une récurrence sur n. On note la propriété au rang n, Pn n k = n = 0, on compte 0 même : = 1. 0 On initialise la propriété : partie l'ensemble vide lui : n! . k!(n−k)! les parties de l'ensemble vide ; il n'y a qu'une Pn =⇒ Pn+1 . Soit E = {a1 , ..., an+1 }. Soit k = 0, = 1 : la seule partie de E avec 0 élément est l'ensemble vide. Soit k ≥ 1, une partie de E contient l'élément an+1 ou non. On écrit donc l'ensemble des parties à k éléments de E comme l'union disjointe des parties à k éléments sans an+1 et des parties n à k éléments avec an+1 . Comptons le nombre de parties. On a parties de E contenant k k éléments sans an+1 . Il reste à compter les parties de E à k éléments contenant an+1 . Ces parties s'écrivent de la forme B ∪ {an+1 } avec B une partie de {a1 , ..., an } à k − 1 éléments. On en n déduit qu'il y a parties de E à k éléments contenant an+1 . Par hypothèse de récurrence k−1 n n! = (k−1)!(n−k+1)! , donc k−1 On montre maintenant l'hérédité, c'est à dire : n+1 k n+1 k n n (n + 1)! . = + = k!(n + 1 − k)! k k−1 Remarque 1.2.5 Au long de la preuve, on a démontré un résultat intéressant, à savoir n+1 n n = + . k k k−1 Cette relation permet de calculer les premières valeurs de n k . Construire le triangle de Pascal. Proposition 1.2.10 (Formule de Vandermonde) ∀0 ≤ p ≤ n + m X p n+m n m = . p k p − k k=0 Démonstration. Soient Dénombrer les parties E un ensemble de cardinal n, F à p éléments de E ∪ F . un ensemble disjoint de cardinal m. 12 CHAPITRE 1. 1.3 RAPPELS FONDAMENTAUX Exercices Exercice 1.3.1 Une classe comporte 20 étudiants. Douze lles et huit garçons. Le professeur décide de désigner un groupe de travail de trois élèves chargé de préparer un devoir maison. 1) Combien de groupes de travail de trois élèves est il possible de former ? 2) Combien y a-t-il de groupes constitués de trois lles ? 3) Combien y a-t-il de groupe avec deux lles et un garçon ? Exercice 1.3.2 On organise un championnat de Curling. Sept équipes sont qualiées. Si chaque équipe rencontre une seule fois chacune des autres équipes, quel nombre de matchs doit-on prévoir ? Si chaque équipe rencontre deux fois chacune des autres équipes (match aller, match retour) quel nombre de matchs doit-on prévoir ? Exercice 1.3.3 On considère n points distincts d'un cercle avec n ≥ 3. En joignant ces points deux à deux, combien détermine-t-on de droites ? Combien existe-t-il de triangles ayant leurs sommets en ces points ? Exercice 1.3.4 Un restaurant propose trois entrées, deux plats et quatre desserts. Un menu se compose d'une entrée, un plat, un dessert. Quel est le nombre de menus ? Exercice 1.3.5 On étudie le lectorat de trois revues (a=Libération, b=Le Monde, c=Le Figaro). Sur 100 personnes interrogées dans la rue, 57 lisent a, 42 lisent b, 38 lisent c, 22 lisent a et b, 14 lisent b et c, 16 lisent a et c, 8 lisent a,b et c. Calculer le nombre de personnes 1) qui ne lisent que a et b, que b et c, que a et c 2) qui ne lisent que a, que b, que c 3) qui ne lisent aucune des trois revues. Exercice 1.3.6 (#) Soit n ∈ N∗ . On pose : f (x) = (1 + x)n 1. Développer (1 + x)n . 2. En déduire la valeur des sommes suivantes : n X n A= , k k=0 n X n k B= 2 , k k=0 n X n C= (−1)k k k=0 3. Calculer la dérivée f 0 (x) de deux façons. 4. En déduire la somme : n n n n D= +2 +3 + ··· + n 1 2 3 n Correction. 1.3. EXERCICES 13 1. D'après la formule du binôme : n n X n p n−p X n p n n n 2 n n f (x) = (x + 1) = x1 = x = + x+ x +···+ x p p 0 1 2 n p=0 p=0 n 2. On remarque, grâce à la question précédente, que : A = f (1) = (1 + 1)n = 2n B = f (2) = (1 + 2)n = 3n C = f (−1) = (1 − 1)n = 0 3. Calculons f 0 (x) car n≥1 de deux façons. D'une part par hypothèse (rappelons que f (x) = (1 + x)n 00 = 1) donc : f 0 (x) = n(1 + x)n−1 (un )0 = nu0 un−1 . D'autre part : n n n 2 n n f (x) = + x+ x + ··· + x 0 1 2 n On a utilisé la formule : Donc : n n n n−1 f (x) = x+2 x + ··· + n x 1 2 n 0 4. Avec la question précédente, on voit que : D = f 0 (1) = n(1 + 1)n−1 = n2n−1 Exercice 1.3.7 (#) Un étudiant va acheter trois livres de math et deux bandes dessinées. Dans le magasin, il y a dix livres de math et vingt bandes dessinées. 1. De combien de façons l'étudiant peut-il faire ses achats ? 2. De retour chez lui, il forme une pile avec ses nouveaux livres. De combien de façons peut-il le faire ? 3. Même question si l'étudiant souhaite que ses livres de math se trouvent en bas de la pile, et ses bandes dessinées en haut. 4. Même question si l'étudiant souhaite que ses livres de math se suivent dans la pile (mais pas nécessairement les bandes dessinées). Correction. 1. Pour l'achat des livres, l'ordre n'a pas d'importance. L'étudiant choisit 3 livres de math parmi 10 et 2 bandes dessinées parmi 20. Donc le nombre de façons de faire ces achats est : 10 3 20 2 = 10×9×8 3×2 × 20×19 2 = 10 × 3 × 4 × 10 × 19 = 22800. 2. Ici l'ordre compte. L'étudiant choisit un de ses 5 livres pour être le premier de la pile, puis un des 4 autres pour être le deuxième, etc. Il a donc 5 × 4 × 3 × 2 = 5! = 120 de constituer la pile. (Nombre de permutations d'un ensemble de cardinal 5) façons 14 CHAPITRE 1. RAPPELS FONDAMENTAUX 3. Dans cette question, l'étudiant forme une pile avec ses 3 livres de math : il a façons de le faire. Puis une pile avec ses bandes dessinées : il a 2 3×2 = 6 façons de le faire. Enn, il place la pile de livres de math sous la pile de bande dessinées, mais il n'y a qu'une seule façon de faire cela. Il a donc 6 × 2 = 12 façons de constituer la pile de 5 livres. 4. Ici, l'étudiant forme une pile avec ses 3 livres de math (donc 6 façons de le faire, on l'a vu), une pile avec ses bandes dessinées (2 façons de le faire), puis il insère la pile de livre de math : sous les bandes dessinées ou bien entre les deux bandes dessinées ou bien au dessus des bandes dessinées Finalement, il a donc 6 × 2 × 3 = 36 façons de constituer la pile. Exercice 1.3.8 10 livres doivent être rangés dans une bibliothèque, dont 4 livres de maths, 3 livres de chimie, 2 livres de littérature, et 1 d'histoire. On souhaite ranger les livres de manière que les livres du même sujet soient regroupés sur l'étagère. Combien d'arrangements sont possibles ? Exercice 1.3.9 1. On appelle partage par paire d'un ensemble toute partition dont les parties contiennent chacune deux éléments. Quel est le nombre de partages par paires d'un ensemble de 2n éléments ? 2. On considère 32 joueurs de tennis, de combien de façons peut-on organiser le premier tour d'un tournoi de tennis en simple ? En double ? Exercice 1.3.10 4 2 Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(P(Ω)) = n card (Ω) = n alors card(P(Ω)) = 2 Soit . Démontrer que si Exercice 1.3.11 Montrer que pour tous Exercice 1.3.12 Soient n, p ∈ N, n n n n+1 n = et = + . p n−p p+1 p p+1 A,B et C trois parties d'un même ensemble E. 1. A l'aide de dessins, justier les lois de Morgan : (A ∪ B)c = Ac ∩ B c et (A ∩ B)c = Ac ∪ B c . 2. A l'aide de dessins, Justier les relations ensemblistes suivantes : A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C). 3. Donner une forme simpliée des expressions : (A ∪ B) ∩ (A ∪ B c ) et (A ∪ B) ∩ (Ac ∪ B) ∩ (Ac ∪ B c ). Chapitre 2 Espaces probabilisés An de motiver les dénitions qui suivent, voici deux exemples types de problèmes où les probabilités se révèlent nécessaires. Il est courant que des exercices soient énoncés de cette manière en secondaire ou dans les premières années d'université. Exemple 2.0.1 (Contrôle de production) Une usine produit à grande échelle une pièce mécanique. Le processus de fabrication est complexe et ne permet pas de détecter à tout moment si une pièce est défectueuse. Néanmoins, le fabricant a des engagements envers ses clients et souhaite vérier que son stock ne contient pas trop de pièces défectueuses. Pour en estimer le nombre, on peut par exemple prendre 100 pièces et compter combien sont défectueuses. Si on en trouve 3, on a envie de conclure que 3% de la production sera défectueuse. Ce n'est évidemment pas précis, et le calcul des probabilités est nécessaire pour répondre à la question. Exemple 2.0.2 (Fiabilité) Imaginons qu'un système embarque plusieurs composants électro- niques qui tombent en panne à des temps aléatoires. An d'assurer la abilité du système, on a besoin d'informations précises sur ces temps aléatoires. Cela nous conduira à considérer des lois de probabilités. Dans cette section, nous présentons les fondements de la théorie. Les exercices associés sont un peu abstraits mais permettent une compréhension plus globale de la théorie. 2.1 Terminologie probabiliste et notion de probabilité La première étape pour étudier un phénomène aléatoire est d'identier les résultats possibles d'une expérience impliquant ce phénomène. Dénition 2.1.1 On note Ω l'ensemble de tous les résultats possibles. On appelle cet ensemble l' univers (on parle également d'ensemble fondamental ou d'espace d'états). N = 10000 pièces, un nombre m de pièces sont n = 100. Comment décrire Ω ? On peut prendre pour univers Ω l'ensemble des tirages de n pièces sans tenir compte de l'ordre : c'est à dire l'ensemble des combinaisons de n éléments parmi N . Le cardinal de Ω N ! . est donc le nombre de combinaisons de n éléments parmi N : = n!(NN−n)! n Reprenons l'exemple 2.0.1. Supposons que sur défectueuses. On tire maintenant au sort On peut prendre pour univers l'ensemble des tirages tenant compte de l'ordre : dans ce cas, il s'agit de l'ensemble des arrangements de n AN n. 15 éléments parmi N. Le cardinal de Ω est donc 16 CHAPITRE 2. ESPACES PROBABILISÉS On peut également prendre pour univers l'ensemble décrit par le nombre de pièces défectueuses tirées : Ω = {0, 1, ..., n}. Il n'y a donc pas unicité de l'espace Ω. Plusieurs choix sont possibles, le meilleur est toujours celui qui mène aux calculs les plus simples... Dans l'exemple de durée de fonctionnement, s'il y a un seul composant, l'espace de probabilité naturel pour modéliser le temps de panne est Ω = R+ . S'il y a N Ω = RN +. composants, on peut prendre Une fois le choix de l'univers clair, on peut s'intéresser à certains événements. Par exemple le nombre de pièces défectueuses est inférieur à 5 (dans l'exemple 2.0.1) ou le composant ne tombe pas en panne dans les 10 prochaines années . Si l'on peut décrire un événement à l'aide d'une phrase, il faut bien comprendre que c'est un sous-ensemble de l'univers Ω1 Le tableau suivant donne les correspondances entre ensembles et événements. Notations ω vocabulaire ensembliste élément de vocabulaire probabiliste Ω tirage, résultat possible ou expérience ω∈A A⊂B ω appartient à A A contenu dans B l'expérience ω l'événement A B l'événement A∪B A∩B Ac ∅ Ω A∩B =∅ réunion de A B A et B A A et intersection de ensemble complémentaire de A ou B et B réalise événement "non entraîne A" ensemble vide événement impossible ensemble plein événement certain A A et B disjoints et B A événements incom- patibles. L'objectif est donc d'étudier les occurrences de ces événements. On entend par occurrence, [0, 1], Ω est non-dénombrable, la probabilité d'apparition de l'événement : c'est à dire un réel appartenant au segment vériant certaines propriétés naturelles (voir Dénition 2.1.5). Lorsque il est impossible d'attribuer à chaque élément de et on ne peut dénir notion de tribu P P(Ω), une probabilité vériant ces propriétés que sur un sous-ensemble strict de qui peut être passée en première lecture. P(Ω). Ces dicultés mènent à la Dénition 2.1.2 Une tribu (aussi appelée σ-algèbre) sur un ensemble Ω est une famille F de parties de Ω, vériant les trois propriétés suivantes : Ω∈F Pour tout élément A de F , Ac appartient à F (on parle de stabilité par passage au complémentaire) S Pour toute suite (An )n∈N d'éléments de F , n∈N An ∈ F . Proposition 2.1.1 L'intersection dénombrable de tribus est une tribu (voir Exercice). En général, la réunion de deux tribus n'est pas une tribu ! Dénition 2.1.3 La tribu engendrée par un ensemble de parties G de Ω est la plus petite tribu, 1. c'est une diculté lorsque l'on débute en probabilité. 2.1. TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILITÉ 17 au sens de l'inclusion, contenant G . On a donc \ σ(G) := A tribu ;G∈A A. Dénition 2.1.4 Une tribu importante, à laquelle nous ferons implicitement référence dans le chapitre 4, est la tribu des boréliens. La tribu des boréliens est la tribu sur Rd engendrée par l'ensemble G des pavés ouverts (des intervalles ouverts si d = 1). On la notera B(Rd ). Introduisons maintenant la notion de probabilité. La première notion de probabilité étudiée en secondaire est celle d'équiprobabilité dans un univers tous les éléments de Ω Ω ni. Supposons que de par l'expérience équiprobabilité ) ont la même chance d'être obtenu (c'est la notion d' dénit une notion de probabilité de la façon suivante. Soit A est la proportion d'éléments de A dans Ω. A on un événement. La probabilité de On dénit P(A) = Card Card A . Ω Les propriétés du cardinal d'un ensemble conduisent immédiatement à la célèbre formule P(A ∪ B) = P(A) + P(B) − P(A ∩ B). En eet Card (A ∪ B) = A + Card B − Card (A ∩ B). Card Cette notion de probabilité est d'un certain point de vue la plus simple et ramène le calcul à des questions de dénombrement (parfois loin d'être faciles). Remarque 2.1.1 Ces dernières années, les programmes ne mettent pas l'accent sur le dénombrement, néanmoins vous devez en connaître les rudiments. La situation d'équiprobabilité est un cas particulier (on parlera dans la suite de loi uniforme). Pour avoir une dénition tout à fait générale et pouvoir par exemple étudier les probabilités approche fréquentiste. Lorsque l'on peut expérience aléatoire, on constate que la fréquence pour des expériences liées à des univers innis, suivons l' répéter un grand nombre de fois une même d'apparition d'un événement A, c'est à dire le quotient nombre de fois que A se réalise nombre de fois que l'on fait l'expérience uctue de moins en moins et semble converger vers une limite au fur et à mesure que le nombre d'expériences grandit. On note cette quantité P(A). P(A) est proche de 1, A s'est produit très souvent et donc lors d'une expérience, l'événement A a beaucoup de chances de se réaliser. Au contraire si P(A) est proche de 0, alors A s'est peu produit et la chance qu'il se réalise est petite. Si A et B sont des événements incompatibles, alors le nombre de fois ou l'événement A ∪ B se réalise est simplement la somme du nombre de fois où A s'est réalisé et du nombre de fois ou B s'est réalisé. En "passant à la limite", on a si A ∩ B = ∅ De façon heuristique, si P(A ∪ B) = P(A) + P(B). 18 CHAPITRE 2. ESPACES PROBABILISÉS Présentée telle quelle la notion de probabilité n'est pas du tout rigoureuse. En eet, nous ne pouvons pas a priori manipuler des limites sans savoir si elles existent. Cependant, cette heuristique nous indique déjà qu'une probabilité est une application qui va de l'ensemble des événements à l'intervalle [0, 1] et qui de plus vérient certaines propriétés d'additivité. Nous allons poser comme axiome qu'une probabilité vérie la σ -additivité, qui est une généralisation de l'additivité vue ci-dessus. Dénition 2.1.5 Si F est une tribu sur l'ensemble Ω, une probabilité sur la tribu F est une application notée P de F dans [0, 1] telle que : P(Ω) = 1 Pour toute suite (nie ou innie) (An , n ≥ 1) d'événements deux à deux disjoints de F , P( [ An ) = n≥1 X P(An ). n≥1 Le triplet (Ω, F, P) est appelé espace probabilisé. Avec cette dénition, c'est un théorème qui établira la convergence des fréquences d'apparition de cet événement vers sa probabilité (Loi des grands nombres, voir Chapitre 5). Remarque 2.1.2 Il est légitime de se poser la question de l'intérêt de la notion de tribu. Lorsque Ω est au plus dénombrable, cela ne pose en général pas de problème, on prendra F = P(Ω). Lorsque Ω est inni non dénombrable, typiquement Ω = R, on ne peut pas dénir une probabilité sur la tribu P(Ω). Il existe des parties de R qui n'appartiennent pas aux boréliens. Nous n'irons pas plus loin sur ces questions qui sortent du programme. Mais il est bon de savoir qu'il existe des ensembles non boréliens. Dans la proposition suivante sont rassemblées des propriétés élémentaires mais fondamentales liées à la dénition : Proposition 2.1.2 Pour tout événement A, P(Ac ) = 1 − P(A) c Pour tous événements A et B , P(B) = PP(B ∩ A)+ P(B ∩ A ). Plus généralement si (Ai , i ∈ I) est une partition de Ω alors P(A) = i∈I P(B ∩ Ai ). Si A ⊂ B alors P(A) ≤ P(B) et P(B \ A) = P(B) − P(A). Pour tous événements A, B : P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Si A1 , A2 , ..., An , ... est une suite d'événements : on a ! P \ n An ! =1−P [ ! et P Acn n [ =1−P An n Soient n événements A1 , A2 , ..., An alors P ( Sn i=1 Ai ) ≤ ! P i=1n \ Acn n P(Ai ) Proposition 2.1.3 (Propriété de la limite monotone) 1) Si A S1 , A2 , ..., An , ... est une suite croissante (pour l'inclusion) d'événements et que l'on note A = P(A) = lim ↑ P(An ). n→∞ An alors 2.1. TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILITÉ 19 2) Si A1 , A2T , ..., An , ... est une suite décroissante (pour l'inclusion) d'événements et que l'on note A = An alors P(A) = lim ↓ P(An ). n→∞ Démonstration. On démontre seulement 1). La preuve de 2) est similaire, il sut de passer au complémentaire. Si 1) (An , n ≥ 1) est une suite croissante au sens de l'inclusion alors 1. est une suite réelle croissante majorée par événements suivants (P(An ), n ≥ La suite est donc convergente. On dénit les B1 = A1 , B2 = A2 \ A1 , Bi = Ai \ Ai−1 . Sn S S Bi ⊂ ni=1 Ai . Vérions l'inclusion réciproque. Soit ω ∈ ni=1 Ai . On pose k = min{i ∈ [|1, n|]; ωS∈ Ai }. DeSdeux choses l'une, si k = 1, ω ∈ A1 = B1 , si k > 1, ω ∈ Ak \ Ak−1 = Bk . Donc ni=1 Ai ⊂ ni=1 Bi . Par σ -additivité : ! ∞ ∞ [ X P Bi = P(Bi ) Clairement i=1 i=1 Or i=1 Sn k=1 P(Bk ) = P ( k=1 Bk ) = P ( k=1 Ak ) = P(An ), Sn Pn (P(An ), n ≥ 1) donc converge. Proposition 2.1.4 (Formule du Crible) Soit (Ai , i ∈ I) une famille d'événements alors pour tout entier n ≥ 1 ; P (∪ni=1 Ai ) = n X X (−1)k+1 P(∩kl=1 Ail ). 1≤i1 <i2 <i3 <...<ik ≤n k=1 Démonstration. A vous ! Trois cas fondamentaux sont à distinguer concernant l'univers Ω. Univers ni p résultats possibles Ω = {a1 , ..., ap }. On note la probabilité a , P[{a i }] = pi . Les événements {ai } sont disjoints et quelque soit S i A = i;ai ∈A {ai } et donc X P(A) = pi . Supposons que l'expérience donne de l'événement élémentaire l'événement A, on a i∈[|1,p|],ai ∈A Lorsque Ω est ni le calcul d'une probabilité revient au calcul d'une Lorsque de plus, l'expérience a des réalisations équiprobables, dant de i pi = p et P(A) = X i;ai ∈A pi = X i;ai ∈A p = pCard A. somme nie. élement de [0, 1] indépen- 20 CHAPITRE 2. On obtient ainsi avec A = Ω, p = 1 Card Ω . ESPACES PROBABILISÉS Dans ce cas, le calcul se ramène à un problème de dénombrement. Nous retiendrons la formule p= nombre de cas favorables nombre de cas possibles . Exemple 2.1.1 (Les anniversaires) On cherche à calculer la probabilité qu'au moins deux personnes parmi n soient nées le même jour. On formalise le problème en prenant Ω = [|1, 365|]n , c'est à dire l'ensemble des anniversaires possibles parmi les n. On suppose que tous les jours sont équiprobables. Soit A l'événement Au moins, deux personnes ont leur anniversaire le même jour Calculer P[A] peut sembler dicile, il faut penser à regarder ce que signie l'événement contraire : Ac : chaque personne parmi les n est née un jour diérent. Puisqu'on a supposé que tout était équiprobable, P[Ac ] = nombres de cas favorables An365 = nombres de cas possibles 365n On a nalement P[A] = 1 − P[Ac ] = 1 − An365 ≈ 0.5 pour n = 23. 365n Nous avons vu précédemment que plusieurs choix d'univers sont parfois possibles pour une même expérience aléatoire (néanmoins nous parlerons de l'univers). Certains choix aident les calculs. On reprend l'exemple 2.0.1 du contrôle de production où nous allons voir apparaître une première loi usuelle importante : la loi hypergéométrique. Exercice 2.1.1 (#) On tire n pièces sans remise dans une production de N pièces parmi lesquelles m sont défectueuses. Quelle est la probabilité de l'événement : le nombre de pièces tirées défectueuses est égal à k ? Solution : N Si on choisit de prendre comme univers Ω, l'ensemble des tirages de sans tenir compte de l'ordre. C'est à dire l'ensemble des combinaisons de élément de Ω a donc pour probabilité (il y a autant de raison de tirer un pièces parmi n parmi N . Chaque N , et nous sommes dans une situation d'équiprobabilité : n n-uplet non ordonné qu'un autre). l'événement nombre de pièces tirées qui sont défectueuses est égal à n-uplets n non ordonnés qui contiennent exactement P(Ak ) = k Ak = Card Ω Card k Ak correspond à la partie de : le Ω des objets défectueux. On a donc Card N n Ak . Ak . Si k ≥ n + 1 alors clairement Card Ak = 0. Si k > m ou n − k > N − m alors Card Ak = 0 (on ne peut pas tirer plus de pièces défectueuses que m, ni avoir plus de pièces non-défectueuses que N − m). Dans les autres cas : on compte n−k k Card Ak = . Donc nalement : m N −m On cherche donc à calculer Card k m P(Ak ) = n−k N −m N n . 2.1. TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILITÉ 21 C'est la loi hypergéométrique. L'exercice est résolu. Prenons maintenant l'univers des tirages où l'ordre compte, c'est à dire que des arrangements de n parmi N. Ω est l'ensemble Le fait de prendre l'ordre des pièces que l'on tire en compte, ne change rien quant au fait de tirer une pièce défectueuse ou non. Il n'y a pas plus de chance de tirer tel ou tel arrangement. Nous sommes à nouveau dans un cadre équiprobable. On a Ω = AnN . De la même façon que précédemment, on identie l'événement à Bk = {arrangements de n objets parmi N avec k défectueux}. Il faut calculer Card Bk : Pour réaliser un n-uplet ordonné avec k éléments défectueux, on commence par choisir la place n des éléments défectueux : on a possibilités. On choisit un k -uplet ordonné parmi les m k k défectueux : on a Am possibilités. Il faut aussi choisir un (n − k)-uplet ordonné parmi les N − m n−k objets non défectueux : on en a AN −m . Finalement cette fois Card Card n k n−k Bk = Am AN −m k n! m! (N − m)! = k!(n − k)! (m − k)! (N − m − n + k)! m! (N − m)! = n! k!(m − k)! (n − k)!(N − m − n + k)! m n−k = n! k N −m On a donc P(Bk ) = n! m k n−k N −m AnN k m = n−k N −m N n . Ce qui correspond à la probabilité calculée précédemment. Il faut noter que du fait de l'expérience, il n'est pas naturel de prendre en compte l'ordre des pièces que l'on tire et que le calcul est plus dangereux. Univers inni dénombrable Si Ω = {a1 , a2 , ..., ai , ...}, on note pi = P({ai }). Comme précédemment Ω = P S i≥1 pi = 1. De plus tout événement A peut s'écrire A = i:ai ∈A {ai }, d'où P(A) = X S i≥1 {ai }, et pi . i;ai ∈A Donc lorsque Ω est dénombrable, le calcul d'une probabilité sera lié à celui de la somme d'une certaine série. Il est important de noter que dans le cas d'un univers inni dénombrable il n'y a plus de notion P i≥1 pi = 1 n'est d'équiprobabilité ! En eet supposons que pi est une constante p, l'égalité plus vériée. Remarque 2.1.3 A ce propos, tout texte commençant par une phrase du type On choisit un nombre au hasard n'a pas de sens mathématique. L'ensemble des entiers est inni dénombrable, et vous ne pouvez pas choisir de façon équiprobable un entier. 22 CHAPITRE 2. ESPACES PROBABILISÉS Univers inni non-dénombrable Le dernier cas à distinguer est celui où une expérience où l'univers est R Ω est non-dénombrable. Vous pouvez facilement imaginer (exemple ?). Exemple 2.1.2 (Fléchettes) On considère l'expèrience suivante : on lance une échette sur une cible. On s'intéresse à la position de la échette. Un choix d'univers Ω est clairement P(D) où D est le disque représentant la cible. Soit A ∈ P(Ω), on a envie de dénir la probabilité que A se réalise par aire de A . P(A) = aire de D Cependant la théorie de la mesure nous dit qu'il existe des sous-ensembles A pour lesquels on ne peut pas dénir d'aire. Il faut se restreindre aux parties de Ω qui ont une aire bien dénie. Un univers associé à l'étude de la distance entre la échette et le centre du disque est Ω = R2 et on peut prendre la tribu des boréliens. Pour étudier la trajectoire de la échette, on peut prendre Ω = C(R+ , D) : l'ensemble des fonctions continues. Le choix de la tribu est plus dicile et sort du cadre du cours. 2.2 Probabilité conditionnelle On dénit dans ce paragraphe la notion de probabilité conditionnelle. Dénition 2.2.1 Soient A et B deux événements avec P(B) > 0. On appelle probabilité conditionnelle de A sachant B et on note PB (A) = La quantité on sait que P(A ∩ B) P(B) PB (A) est la probabilité que l'événement A se réalise B est arrivé, on peut restreindre l'univers à Ω ∩ B . sachant que B est arrivé. Si Remarque 2.2.1 Pour comprendre pourquoi on pose cette dénition, on peut reprendre l'ap- proche fréquentiste. De façon heuristique, si on note NA∩B et NB respectivement le nombre de fois que A et B se réalisent et le nombre de fois que B se réalise, parmi N expériences. On a NA∩B N NA∩B N P(A ∩ B) NA∩B = lim × = lim × lim = . N →∞ NB N →∞ N N →∞ NB NB N →∞ N P(B) PB (A) = lim Il existe une autre notation couramment utilisée pour les probabilités conditionnelles : P(A|B). Cette notation n'est pas celle au programme du secondaire. D'autre part, il faut bien comprendre que A|B n'est pas un événement ! A|B seul n'étant pas déni ne doit pas apparaître dans vos copies ! Proposition 2.2.1 Soient (Ω, F, P) un espace probabilisé et B élément de F tel que P(B) > 0. Alors l'application PB de F dans [0, 1] est une probabilité. Démonstration. Laissée en exercice. 2.2. PROBABILITÉ CONDITIONNELLE 23 Exercice 2.2.1 On reprend l'exemple du contrôle de production : N objets, m défectueux. On suppose que l'on tire les éléments de l'échantillon les uns après les autres. La probabilité que le m . Quelle est la probabilité de tirer un objet défectueux au premier objet tiré soit défectueux est N deuxième tirage sachant que l'on a tiré un objet défectueux au premier tirage ? Exercice 2.2.2 [Test de maladie] Un laboratoire pharmaceutique met au point un test pour détecter une maladie. On sait que la maladie touche 1% de la population. On eectue le test sur un échantillon de malades et voit que 95% sont positifs. On eectue ensuite le test sur une population de non malades et 5% sont déclarés positifs par le test. Formaliser l'énoncé (donner un univers). Est-ce un bon test ? Les événements à considérer sont : Malade , Non malade , Test positif , Test négatif . Les données du problèmes sont alors : P(Test P(Malade) = 0.01, PMalade (Test ) = 0.95 positif et ) = 0.05. Une façon de juger la qualité du test est de calculer la probabilité d'être PTest positif (Malade). Pour faire ce calcul, on négatif malade sachant que le test est positif. C'est à dire a besoin de la formule de Bayes. 2.2.1 Formule des probabilités totales et formule de Bayes Proposition 2.2.2 (formule des probabilités composées) Soient n événements A1 , ...., An tel que P(A1 ∩ A2 ∩ ... ∩ An−1 ) > 0, on a : P(A1 ∩ A2 ∩ ... ∩ An ) = P(A1 )P(A2 |A1 )P(A3 |A1 ∩ A2 )...P(An |A1 ∩ A2 ∩ ... ∩ An−1 ). Démonstration. Si P(A1 ∩A2 ∩...∩An−1 ) > 0 alors pour tout 1 ≤ i ≤ n−1 P(A1 ∩A2 ∩...∩Ai ) > 0. Faire une récurrence. Proposition 2.2.3 Soit B un événement tel que P(B) > 0 et P(B c ) > 0 alors pour tout événement A : P(A) = PB (A)P(B) + PB c (A)P(B c ). Démonstration. On a A = (A ∩ B) ∪ (A ∩ B c ) et les événements A ∩ B donc et A ∩ Bc sont disjoints P(A) = P(A ∩ B) + P(A ∩ B c ), on conclut par dénition des probabilités conditionnelles. On généralise cette proposition : Proposition 2.2.4 (Formule des probabilités totales) Si (Bi , i ≥ 1) est une famille au plus dénombrable d'événements formant une partition de Ω et P(Bi ) > 0 pour tout i ∈ I , alors pour tout événement A, on a : P(A) = X PBi (A)P(Bi ). i∈I Démonstration. Laissée en exercice. Remarque 2.2.2 (Lien avec les arbres pondérés) Les formules des probabilités composées et des probabilités totales sont à rapprocher de la représentation en arbre pondéré utilisée au lycée pour représenter une expérience aléatoire. On rappelle qu'un arbre pondéré est un arbre tel que : 24 CHAPITRE 2. ESPACES PROBABILISÉS La somme des pondérations (ou probabilités) des noeuds issus d'un même sommet donne 1. La probabilité d'un chemin est le produit des probabilités des branches qui le composent. La pondération de la branche allant du sommet A vers le sommet B est la probabilité conditionnelle de B sachant A, PA (B). La construction d'un arbre pondéré obéit au principe suivant : le noeud racine réprésente l'événement certain ω , et si un noeud représente un événement A, on construit autant de ls qu'il y a d'événements A ∩ En , où (En ) est une partition de Ω. La formule des probabilités composées est la traduction exacte de l'item 2. ci-dessus : la probabilité d'un noeud de l'arbre est la probabilité de l'intersection des événements qui composent le chemin qui le relie au sommet. La formule des probabilités totales dans ce contexte dit que la probabilité d'un événement est la somme des probabilités des feuilles de l'arbre qui concernent cet événement. Exemple 2.2.1 On dispose de deux urnes, l'une contenant 1 boule blanche et 3 noires, l'autre 2 blanches et 2 noires. On choisit uniformément au hasard parmi les deux urnes, puis on tire au hasard une boule dans l'urne choisie. On considére la probabilité de l'événement A = on tire une boule noire . L'univers Ω est {(i, j), i = 1, 2, j = 1, 2, 3, 4}, où i est le numéro de l'urne et j celui de la boule. On considére la partition Ω = E1 ∪ E2 , où Ei = {(i, j), j = 1, 2, 3, 4} qui est l'événement consistant à choisir l'urne i. Si on numérote en premier les boules noires, l'événement A s'écrit {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2)}. Pour tout i, la probabilité conditionnelle PEi est la probabilité uniforme sur Ei . Donc PE1 (A) = 3/4 et PE2 (A) = 1/2. D'après la formule des probabilités totales, P(A) = PE1 (A)P(E1 ) + PE2 (A)P(E2 ) = 34 × 21 + 12 × 12 = 58 . Proposition 2.2.5 (Formule de Bayes simple) Soient A et B deux événements tels que P(A), P(B) et P(B c ) sont strictement positifs. On a : PA (B) = Démonstration. On a PA (B) = PB (A)P(B) . PB (A)P(B) + PB c (A)P(B c ) P(B∩A) P(A) par la formule des probabilités totales = P(A∩B)P(B) . On décompose ensuite le P(A) c : P(A) = PB (A)P(B) + PB c (A)P(B ). dénominateur A nouveau, cette proposition se généralise, à une famille formant une partition de Ω. Proposition 2.2.6 (Formule de Bayes) Si (Bi , i ∈ I) est une famille qui forme une partition de Ω telle que pour tout i ∈ I , P(Bi ) > 0 alors, quelque soit l'événement A, si P(A) > 0 PBi (A)P(Bi ) . i∈I PBi (A)P(Bi ) PA (Bi ) = P Démonstration. Même argument que précédemment. Les deux dernières formules permettent de calculer des probabilités conditionnelles PA (B) PB (A). connaissant les probabilités inverses Exercice 2.2.3 Calculer la probabilité d'avoir tiré une boule dans la première urne sachant que c'est une noire. Sous son apparente simplicité, la formule de Bayes est le départ d'une théorie entière appelée la statistique bayésienne. 2.2. PROBABILITÉ CONDITIONNELLE 25 Nous reprenons maintenant la question de l'exercice 2.2.2 concernant le test de maladie. La formule de Bayes va nous permettre de calculer la probabilité qu'un individu soit malade sachant qu'il a été testé positif. On note On a PT (M ) = M l'événement malade , T l'événement test positif . PM (T )P(M ) = 0.16. PM (T )P(M ) + PM c (T )P(M c ) Résultat, le test n'est pas bon. 2.2.2 Indépendance Nous passons maintenant à une notion fondamentale en probabilités : la notion d'indépendance. Si la connaissance d'un événement n'inue en rien sur la probabilité d'un autre, on dit que les événements sont indépendants. La notion de probabilité conditionnelle formalise cela. Si B est un événement avec probabilité strictement positive et dit indépendants. P(A|B) = P(A) alors A et B sont Par dénition des probabilités conditionnelles cela équivaut à la dénition suivante : Dénition 2.2.2 Deux événements A et B sont indépendants si P(A ∩ B) = P(A)P(B). Pour illustrer cette notion, on reprend l'exemple de contrôle de production. Exemple 2.2.2 (Contrôle de production non destructif) On a N objets, m défectueux. On tire au hasard n objets parmi les N en remettant chaque objet après l'avoir tiré. (on parle de tirage avec remise). Soit l' événement Ai : l'objet tiré au ième tirage est défectueux . Montrer que Ai et Aj sont indépendants pour tout i 6= j . Exemple 2.2.3 Cette fois on ne remet pas l'objet tiré. (tirage sans remise). Calculer P(A1 ∩A2 ) et conclure que ce ne sont pas des événements indépendants Proposition 2.2.7 Soient A et B deux événements indépendants alors Ac et B sont indépendants, ainsi que A et B c et Ac et B c . Démonstration. Laissée en exercice. On généralise maintenant la notion d'indépendance à une famille d'événements : Dénition 2.2.3 (Indépendance mutuelle) Soit une famille (Ai , i ∈ I) d'événements. On dit qu'elle est formée d'événements (mutuellement) indépendants si pour toute sous famille nie i1 , i2 , ..., ip de I on a : ! P p \ Aik k=1 P(Aik ). k=1 Ai et Aj pour tout i 6= j n'implique pas l'indé(Ai , i ∈ I). Donnons un contre-exemple : Ω = {1, 2, 3, 4}, muni de la Considérer A = {1, 2}, B = {1, 3}, C = {2, 3}. Attention à bien noter que l'indépendance de pendance de la famille probabilité uniforme. = p Y 26 2.3 CHAPITRE 2. ESPACES PROBABILISÉS Variables aléatoires : notion de loi et de moments On a vu dans la section précédente, les dicultés que le choix de l'univers pouvait impliquer. Dans la plupart des cas, on se concentre sur les événements que l'on souhaite étudier. Plus généralement, on dénit la notion de variables aléatoires dénies sur un espace Une variable aléatoire est une aléatoire. On rappelle que les pavés Qn i=1 ]ai , bi [. Ω abstrait. application dont la valeur dépend du résultat de l'expérience B(Rd ) est la tribu des boréliens, c'est à dire la tribu engendrée par Dénition 2.3.1 Une variable aléatoire X est une application X : ω ∈ Ω 7→ X(ω) ∈ Rd telle que pour tout A ∈ B(Rd ) X −1 (A) = {ω ∈ Ω; X(ω) ∈ A} ∈ F. Cela correspond à la notion de mesurabilité : X est une fonction (2.1) F -mesurable à valeurs dans X tombe X ∈ B . l'espace euclidien. En probabilité, cela signie que l'on peut étudier l'événement dans Qn i=1 [ai , bi ] . Pour tout d B ∈ B(R ), on identiera l'événement X −1 (B) avec On admet la proposition suivante issue de la théorie de la mesure. Proposition 2.3.1 L0 (Ω, F) l'ensemble des variables aléatoires à valeurs dans l'espace euclidien Rd est un espace vectoriel. Exemple 2.3.1 (Fonction indicatrice) Soit A un événement. On dénit 1A : ω 7→ 1 si ω ∈ A 0 sinon. Exemple 2.3.2 On lance une échette sur une cible et cherche à connaître la distance entre la échette et le centre de la cible. On pose Ω = R2 et X : w = (x, y) 7→ p x2 + y 2 . X est une fonction continue (donc mesurable) et vérie la condition 2.1. Remarque 2.3.1 Lorsque l'on peut prendre F = P(Ω) (par exemple, lorsque Ω est ni, et que l'on souhaite que tous les événements élémentaires soient dans la tribu) alors la condition 2.1 est toujours vraie. Proposition 2.3.2 L'ensemble des variables aléatoires dénies sur un même espace (Ω, F) forme une algèbre : en particulier la somme et le produit de deux variables aléatoires sont des variables aléatoires. 2.3. VARIABLES ALÉATOIRES : NOTION DE LOI ET DE MOMENTS 27 2.3.1 Loi d'une variable aléatoire Le plus souvent, (typiquement lorsque la variable aléatoire prend un nombre inni de valeurs), lorsque l'on étudie la variable aléatoire bilité avec laquelle caractérisée par sa X, X se répartit dans les fonction de répartition on n'étudie pas X(ω) en chaque boréliens. La variable aléatoire ou par sa loi. X ω, mais la proba- est ainsi souvent Dénition 2.3.2 On appelle loi ou distribution d'une variable aléatoire X dénie sur un espace probabilisé (Ω, F, P), l'application PX : B ∈ B(Rd ) 7→ P(X −1 (B)). On a le résultat fondamental suivant : Proposition 2.3.3 L'application PX est une probabilité sur (Rd , B(Rd )). Démonstration. A faire en cours. Exemple 2.3.3 (jeu de dé) On joue au jeu suivant : on lance un dé équilibré. On réalise un gain nul si on obtient 1, 1 euro si on obtient 2, 3 ou 4 et 2 euros si le résultat est 5 et 4 euros si le résultat est 6. On dénit la variable aléatoire X donnant le montant du gain. Déterminer sa loi. Proposition 2.3.4 Si X est une variable aléatoire sur (Ω, F). Soit g une fonction continue par morceaux sur X(Ω) alors l'application g ◦ X est une variable aléatoire. On la note souvent g(X). 2.3.2 Fonctions de répartition et indépendance On se place dans le cas des variables aléatoires réelles : c'est à dire à valeurs dans R. souvent v.a.r pour variable aléatoire réelle. Dénition 2.3.3 On appelle fonction de répartition de X , l'application : F : x ∈ R 7→ P(X ≤ x). Comme mentionné précédemment l'événement X ≤x s'identie à X −1 (] − ∞, x]). Proposition 2.3.5 Toute fonction de répartition vérie les propriétés suivantes : 1. 2. 3. 4. F est croissante lim F (x) = 0 et lim F (x) = 1 x→−∞ x→+∞ F est continue à droite en tout point de R F a une limite à gauche en tout point x de R, et ∀x ∈ R, F (x) − F (x−) = P[X = x] où F (x−) = lim F (t). t→x;t<x 5. L'ensemble des points de discontinuité de F est au plus dénombrable. On note 28 CHAPITRE 2. ESPACES PROBABILISÉS La fonction de répartition peut être dénie pour des vecteurs aléatoires, en prenant la relation d'ordre (x1 , ..., xp ) ≤ (x01 , ..., x0p ) si xi ≤ x0i pour i ∈ [|1, n|] Remarque 2.3.2 Démonstration. 1. Soit 2. y ≥ x, F (y) − F (x) = P[x < X ≤ y] ≥ 0 An = X −1 (] − ∞, n])T , (An , n ≥ 1) est une suite décroissante T∞ ∞ monotone : lim P(An ) = P( k=1 Ak ), or k=1 Ak = ∅ donc F (−n) = P(X ∈] − ∞, n]). d'événements. Par limite Soit n→∞ lim P(An ) = lim F (−n) = 0. F étant une fonction monotone, on a 3. Comme F limx→−∞ F (x) = limn→−∞ F (n). est monotone (croissante), pour montrer que de montrer que 1 ) −→ n n→∞ F (x + décroissante, donc la suite F (x). La suite d'événements (P(An ), n ≥ 1) lim P(An ) = P n→∞ F ∞ \ est continue à droite, il sut An := X −1 ] − ∞, x + n1 ] est converge et ! = P(X −1 (] − ∞, x]) = F (x). An n=1 F x − n1 , on cherche à montrer que cette suite a une limite quand n −1 ] − ∞, x − n1 ] . La suite (An , n ≥ 1) est croissante donc note An = X 4. A nouveau, on étudie +∞. On P(An , n ≥ 1) converge tend vers et sa limite est P ∞ [ ! An . n=1 On a S∞ n=1 An = X −1 (] − ∞, x[), par suite lim F (x − n→∞ La fonction F 1 ) = P(X < x). n a donc une limite à gauche en x, elle vaut P(X < x). De plus on a F (x) − lim− F (t) = P(X ≤ x) − P(X < x) = P(X = x). t→x 5. On note Dn := {x0 tel que lim F (x) − F (x0 ) ≥ x→x+ 0 1 }. Comme n F est croissante et comprise S0∞et 1, Dn contient au plus n éléments. Soit D l'ensemble des points D = n=1 Dn , donc D est une union dénombrable d'ensembles nis. entre de discontinuité, Le théorème suivant nous dit que si les propriétés 1, 2, 3 sont vériées alors la fonction la fonction de répartition d'une variable aléatoire réelle. Théorème 2.3.6 Toute fonction F : R 7→ [0, 1] telle que 1. F est croissante F est 2.3. VARIABLES ALÉATOIRES : NOTION DE LOI ET DE MOMENTS 29 2. lim F (x) = 0 et lim F (x) = 1 x→−∞ x→+∞ 3. F est continue à droite en tout point de R est la fonction de répartition d'une variable aléatoire réelle. Proposition 2.3.7 La fonction de répartition de X caractérise sa loi. Démonstration. Pour tout x < y , PX (]x, y]) = F (y) − F (x), donc F types donne PX sur les parties du ]x, y], comme ces parties engendrent la tribu borélienne, cela caractérise PX sur tout B(R). Le terme variable aléatoire est particulièrement utilisé pour des variables réelles. Lorsque à valeurs dans Lorsque d ≥ 2, d R X est , on parle plus couramment de vecteurs aléatoires. la dénition générale (Dénition 2.3.1) correspond à la dénition d'un vecteur aléatoire. De façon équivalente, un vecteur aléatoire est une application X1 (ω) X2 (ω) . X : ω ∈ Ω 7→ . . Xn (ω) où chaque Xi est une v.a.r. On introduit maintenant l'indépendance des variables aléatoires. Dénition 2.3.4 Deux variables aléatoires X et Y sont indépendantes si P(X ∈ A et Y ∈ B) = P(X ∈ A)P(Y ∈ B) pour tous A, B boréliens. Dénition 2.3.5 (indépendance mutuelle) (Xi , i ∈ I) est une famille de variables aléa- toires indépendantes si pour toute sous-famille {i1 , ..., ip } nie de I , on a, pour toute famille de boréliens (Bk )1≤k≤p ! P p \ (Xik ∈ Bk ) k=1 Exemple fondamental : si A et B = p Y k=1 P(Xik ∈ Bk ). sont deux événements indépendants alors 1A et 1B sont deux variables aléatoires indépendantes. L'indépendance correspond à une structure produit cachée . Pour construire deux variables indépendantes sur un même espace probabilisé. On peut munir le produit cartésien de la probabilité produit PX ⊗ PY dénie par PX ⊗ PY (]a, b]×]c, d]) = PX (]a, b])PY (]c, d]) pour tout Critère d'indépendance : Si X1 (ω) X2 (ω) . X : ω ∈ Ω 7→ . . Xn (ω) a < b, c < d. X(Ω)×Y (Ω) 30 CHAPITRE 2. alors X1 , ..., Xn 2.4 sont indépendantes si et seulement si ESPACES PROBABILISÉS P(X1 ,...,Xn ) = PX1 ⊗ PX2 ⊗ ... ⊗ PXn . Exercices Exercice 2.4.1 (Univers) Proposer un univers Ω pour chacune des expériences suivantes : 1) On lance deux dés. Etant donné que le premier dé donne 3, quelle est la probabilité que le total des deux dés dépasse 6 ? 2) On lance un dé rouge et un dé bleu et on observe les points donnés par chacun d'eux 3) On tire une pièce plusieurs fois jusqu'à obtenir face pour la première fois. On observe combien de lancers on doit faire. Soit A : on obtient face après un nombre pair de lancers . A est il un événement ? Exercice 2.4.2 Exprimer chacun des événements suivants à l'aide des opérations de complé- mentation, union et intersection : A et B se réalisent, mais pas C ; A , B , C se réalise ; au plus un des trois événements A , B , C se réalise ; aucun des trois événements A , B , C ne se réalise ; les trois événements A , B , C se réalisent . au moins un des trois événements Exercice 2.4.3 (#) Trois usines pharmaceutiques A, B, et C produisent respectivement 40%, 35% et 25% du nombre total de comprimés achetés par un grossiste. Chacune de ces usines produit respectivement 5, 6, et 3% de comprimés défectueux. Le qualiticien de l'entreprise reçoit une nouvelle livraison. 1. Déterminer les probabilités des diérentes possibilités suivantes : provenir de A et être défectueux, provenir de A et être conforme, provenir de B et être défectueux, provenir de B et être conforme, provenir de C et être défectueux, provenir de C et être conforme. 2. Dans cette livraison, on prend un comprimé au hasard. Quelle est la probabilité p1 pour qu'il soit défectueux ? Quelle est la probabilité p2 pour qu'il soit conforme ? 3. Dans cette livraison, on prend un comprimé au hasard, on constate qu'il est défectueux. Quelle est la probabilité qu'il ait été fabriqué dans l'usine A ? Solution. Réécrivons l'énoncé "mathématiquement". Notons D (resp. Dc ) l'événement "le comP(A) = 40/100, P(B) = 35/100 P(D|A) = 5/100, P(D|B) = 6/100 et P(D|C) = 3/100. primé est défectueux (resp. non défectueux)". On a 25/100. 1. 2. 3. De plus, et P(C) = P(A ∩ D) = P(D|A)P(A) = 2/100 ; P(A ∩ Dc ) = P(A) − P(A ∩ D) = 38/100. P(B ∩ D) = 2, 1% ; P(B ∩ Dc ) = 32, 9%. P(C ∩ D) = 0.75% ; P(C ∩ Dc ) = 24, 25%. p1 = P(D) = P(A ∩ D) + P(B ∩ D) + P(C ∩ D) = 4, 85% ; P(Dc ) = 95, 15%. p2 = P(A|D) = P(A ∩ D)/P(D) ' 41%. Exercice 2.4.4 Une urne contient cinq boules roules et trois boules noires. On tire au hasard une boule. Si cette boule est noire, on arrête le jeu. Si cette boule est rouge, on replace la boule dans le sac, on ajoute deux boules rouges et on procède à un deuxième tirage. 2.4. EXERCICES 31 1) Représenter l'expérience à l'aide d'un arbre pondéré. 2) Quelle est la probabilité de tirer deux boules rouges ? Exercice 2.4.5 (Allèle) On suppose qu'un gène est formé de deux allèles A et a. Un individu peut avoir l'un des trois génotypes AA, Aa, aa. Un enfant hérite d'un allèle de chacun de ses parents, chacun d'eux étant choisi au hasard. Par exemple si le père est de type Aa, et la mère AA, alors les enfants peuvent être du types AA ou Aa. On considère une population dont les proportions des génotypes pour les hommes comme pour les femmes sont de p0 pour AA, q0 pour Aa, r0 pour aa. 1) On suppose que le génotype de l'enfant est formé au hasard, on le note (x, y) avec x le génotype de son père et y celui de sa mère. a) Quelle est la probabilité qu'un enfant ait deux parents de type AA ? b) un parent de type AA et un parent de type Aa ? c) deux parents de type Aa ? 2) quelle est la probabilité que l'enfant soit de type AA sachant que : a) les deux parents sont de type AA ? b) un des deux parents est de type AA et l'autre de type Aa ? c) les deux parents sont de types Aa ? 3)-a Calculer la probabilité p1 pour que l'enfant soit de type AA b) calculer la probabilité r1 pour que l'enfant soit de type aa c) calculer la probabilité q1 que l'enfant soit de type Aa Exercice 2.4.6 (Rats) On fait une expérience sur le comportement des rats. Ils doivent choi- sir entre 4 portes d'apparence identique. En réalité une seule porte est la bonne (et permet au rat de sortir), les deux autres portes ramènent le rat a son point de départ. L'expérience a lieu jusqu'à ce que le rat sorte. On suppose qu'il évite les portes choisies auparavant et qu'il choisit de façon équiprobable entre celles qu'il n'a pas encore ouvertes. Soient les événements : S1 = le rat sort la première fois. S2 = le rat sort la deuxième fois. S3 = le rat sort la troisième fois. S4 = le rat sort la quatrième fois. Construire un arbre pondéré et donner la probabilité de chacun des événements. Exercice 2.4.7 (Kids) Une famille a deux enfants. On cherche la probabilité que les deux enfants soient des garçons, sachant qu'au moins est un garçon ? 1) Prenons en compte l'âge des enfants : le plus jeune et le plus âgé peuvent être chacun des garçons. Donner l'univers. On suppose que chaque conguration a la même probabilité. 2) Calculer la probabilité. 3) Sachant maintenant que le plus jeune enfant est un garçon, quelle est la probabilité que les deux soient des garçons ? 32 CHAPITRE 2. ESPACES PROBABILISÉS Exercice 2.4.8 (Urnes #) On considère deux urnes. Chaque urne contient des boules colo- rées. La première urne contient 2 boules blanches et 3 boules noires. La deuxième urne contient 3 blanches et 4 noires. On tire une boule au hasard dans la première urne et on la place dans la deuxième. On suppose que toutes les boules ont la même chance d'être tirée (rappeler le nom de cette hypothèse). On tire alors au hasard une boule dans la deuxième urne et on l'examine. Quelle est la probabilité que la boule soit noire ? Correction. On note les urnes I et II. L'événement qui nous intéresse est A= la boule tirée dans II est noire On va utiliser la formule des probabilités totales. Soit B . l'événement, on a tiré une boule noire dans l'urne I D'après la formule des probabilités totales, on a : P[A] = P[A|B]P[B] + P[A|B c ]P[B c ]. Sachant qu'on a tiré une boule noire dans la première urne (notée I) ; la probabilité que l'on tire une noire dans la deuxième (notée II) est P[A|B c ] = 4 8 = 1 et 2 P[B] = 53 . P[A|B] = P[A∩B] P[B] = 5 8 Donc, 23 5 3 12 = . P[A] = . + 8 5 25 40 Exercice 2.4.9 Un domino est un rectangle comportant deux parties parties gurent entre 0 et 6 points. Les dominos [i|j] et [j|i] [i|j]. Sur chacune de ces ne sont pas distingués. 1. Combien de dominos diérents peut-on ainsi obtenir ? 2. On suppose que l'on a un jeu complet de dominos. On prend l'un de ces dominos au hasard. (a) Quelle est la probabilité que ce soit un double ? (b) Quelle est la probabilité que la somme des points soit 6 ? (c) Quelle est la probabilité que ce soit un double si l'on sait que la somme des points vaut 6 ? 3. On retire du jeu les dominos dont la somme des points est 6, et on en tire un parmi les dominos restants. Quelle est la probabilité que ce soit un double ? 4. On dit que des dominos sont amis si l'une de leurs parties a le même nombre de points. A partir du jeu complet, on tire deux dominos. Quelle est la probabilité qu'ils soient amis ? Exercice 2.4.10 (Poker #) On joue au poker avec un jeu de 32 cartes. Il y a donc 4 couleurs : carreau, trèe, pique et coeur. 8 hauteurs : 7, 8, 9, 10, valet, dame, roi, as. Chaque joueur reçoit 5 cartes. Quelle est la probabilité qu'un joueur ait : 1) 2) 3) 4) un carré : quatre cartes de même hauteur un brelan : trois cartes de même hauteur une paire : deux cartes de même hauteur deux paires 2.4. EXERCICES 33 5) un full (brelan+ paire) ? Solution. sons de 5 L'univers Ω est l'ensemble des mains possibles, c'est-à-dire l'ensemble des combinai- éléments parmi dit on munit Ω 32. On suppose que toutes les mains sont équiprobables, autrement de la probabilité uniforme P(A) = card (A) card (Ω) . 1) Déterminons le cardinal de l'ensemble correspondant à l'événement A = le joueur possède un carré. Choix de la hauteur : Choix de la couleur : 8 1 4 4 = 8 (on choisit un élément parmi 8) = 1 (on choisit une couleur diérente pour chaque carte : deux cartes de même hauteur et de même couleur sont identiques !) 7 1 Choix de la hauteur de la 5ème carte : =7 : il n'y a que 4 cartes de chaque hauteur, une fois choisie la hauteur du carré, il reste seulement 7 hauteurs potentielles 4 = 4. 1 8×1×7×4 Choix de la couleur de l a 5ème carte : On a donc 2) Soit l'événement A = le P(A) = Choix de la couleur : 3 = 224 201376 ≈ 0, 00111. joueur possède un brelan. 8 1 Choix de la hauteur des trois cartes : 4 (325) =8 (on choisit un élément parmi 8) = 4 (on choisit trois couleurs diérentes pour chaque carte : deux cartes de même hauteur et de même couleur sont identiques !) Choix de la hauteur des cartes restantes : 7 2 : (les deux cartes restantes sont d'une hauteur diérente, sinon nous aurions un full). 42 . P(A) = Choix de la couleur des cartes restantes : On a donc 3) Soit l'événement A = lejoueur 8×4×(72)×42 (325) . possède une paire. 8 Choix des hauteurs : (on choisit 1 élément parmi 8) 1 4 Choix des couleurs : (on choisit deux couleurs diérentes pour chaque carte) 2 7 Choix des hauteurs des cartes restantes : : (les cartes restantes sont d'une hauteur 3 diérente, sinon nous aurions au moins un brelan). 43 . 8 4 7 ( )×( )×( )×43 . P(A) = 1 2 32 3 (5) Choix de la couleur des cartes restantes : On a donc 4) Soit l'événement A = lejoueur possède deux paires. 8 Choix des hauteurs : (on choisit deux éléments parmi 8) 2 4 2 Choix des couleurs : (on choisit deux couleurs diérentes pour chaque paire) 2 6 Choix de la hauteur de la carte restante : : (la carte restante est d'une hauteur diérente, 1 sinon nous aurions un full). Choix de la couleur de la carte restante : On a donc 5) Soit l'événement A = lejoueur 4. P(A) = 2 (82)×(42) ×(61)×4 . (325) possède un full. 8 (on choisit un élément parmi 8) 1 4 Choix des couleurs : 3 7 Choix de la hauteur des cartes restantes : : (les cartes restantes sont d'une hauteur 1 Choix des hauteurs : diérente, sinon nous aurions un carré). Choix des couleurs de la paire 4 . 2 On a donc P(A) = (81)×(43)×(71)×(42) . (325) 34 CHAPITRE 2. ESPACES PROBABILISÉS Exercice 2.4.11 Les coecients a, b, c de l'équation quadratique ax2 + bx + c = 0 sont détermines en lançant trois fois un de équilibré. Quelle est la probabilité que les racines soient réelles ? Complexes non réelles ? Exercice 2.4.12 Un antivirus assure avec une abilité de a = 95% la détection d'un malware M lorsqu'il est eectivement présent. Cependant, le test indique aussi un résultat faussement b = 1% des systèmes réellement sains à qui on l'applique. On suppose qu 'une proportion p = 0.5% des systèmes ont le malware M. 1) En considérant que les paramètres a, b et p sont des probabilités, déterminer la probabilité "positif" pour qu'un système soit vraiment atteint sachant qu'il a un test positif ? 2) On suppose maintenant que a, b et p sont dénis comme ci dessus mais qu'on ne connait plus leur valeur numérique. A quelles conditions sur ces valeurs le test est-il utile ? Exercice 2.4.13 Pour lutter contre les spams, les messageries ont mis en place des techniques en repérant certains mots ou expressions {merveilleux ; On dit qu'il y a détection 2 pouvant gurer dans les emails : par exemple gratuit ; argent ; vous avez gagné ; cadeau }. si cette famille de mots est présente dans le mail. Le ltre fonctionne alors de la façon suivante : Si sachant qu'il y a détection, la probabilité d'être un spam dépasse le seuil de 90%, l'email est déplacé dans les courriers indésirables. Sinon il n'est pas déplacé. 1) On suppose qu'il n'y a qu'un seul mot dans la famille. Soient les événements et S = spam . D= détection Redémontrer la formule de Bayes PD [S] = PS (D)P(S) . PS (D)P(S) + PS̄ (D)P(S̄) 2) Lors de la phase d'apprentissage (lorsque vous indiquez à votre messagerie qu'un email est indésirable) ; l'anti-spam compte le nombre de spams contenant le mot. On suppose qu'il y a 70% des spams qui contiennent le mot, et 15% des non-spams qui le contiennent. En approchant les probabilités par ces quantités que valent On suppose P(S) = 0.7. PS (D) et PS̄ (D) ? Dans ces conditions si vous recevez un email contenant ce mot sera- t-il déplacé dans les courriers indésirables ? L'est-il si P(S) = 0.5 ? i ∈ {1, .., n}, on appelle Mi (S ∩ Mi )i≥1 sont indépendants, ainsi que les événements (S̄ ∩ Mi )i≥1 . L'événement de détection D correspond à avoir tous les mots dans le mail : M1 ∩ M2 ∩ ... ∩ Mn . On note pi = PS (Mi ) , qi = PS̄ (Mi ) et s = P(S), démontrer que : 3) On considère maintenant une famille de n mots. Pour tout l'événement le i-ème mot est présent . On suppose que les événements PD [S] = sn p1 p2 ...pn . sn p1 p2 ...pn + (1 − s)n q1 q2 ...qn Indication : remarquer que M1 ∩ M2 ∩ S = M1 ∩ S ∩ M2 ∩ S . 2. A plan for spam http ://www.paulgraham.com/spam.html, voir aussi ltrage bayésien anti-spam dans wikipedia (qui contient des erreurs de maths !) 2.4. EXERCICES 35 4) On suppose qu'il y a les 5 mots et expressions suivants dans notre ltre. Si Mot : merveilleux argent gratuit cadeau vous avez gagné parmi les spams : 70% 75% 40% 60% 85% parmi les non-spams : 30% 15% 10% 60% 2% s = 0.5, un mail contenant ces 5 mots sera-t'il déplacé en indésirable ? Qu'en est-il s'il contient seulement les mots argent et gratuit ? Exercice 2.4.14 Montrer que la probabilité qu'exactement un des événements A et B se réalise est P[A] + P[B] − 2P[A ∩ B] Exercice 2.4.15 Montrer que P n [ i=1 ! Ai ≥ n X i=1 P(Ai ) − X 1≤i<k≤n P(Ai ∩ Ak ) Exercice 2.4.16 Calculer la probabilité qu'une main de 13 cartes tirée à partir d'un paquet de 52 cartes contienne exactement deux rois et un as. Quelle est la probabilité qu'elle contienne exactement un as sachant qu'elle contient un roi ? On rappelle qu'il y a 4 rois et 4 as dans un paquet. Exercice 2.4.17 On tire un dé deux fois. Calculer les probabilités des événements suivants a) b) c) d) Un 6 est réalisé exactement une fois. Les deux numéros sont impairs la somme des numéros est 4 la somme des numéros est divisible par 3 ? Exercice 2.4.18 On dispose de deux pièces A et B . La pièce A est équilibrée, au sens où elle donne face et pile avec probabilité 21 . La pièce B donne face avec probabilité p et pile avec probabilité 1 − p On eectue une succession de lancers selon le procédé suivant : On choisit une des deux pièces A, B au hasard, on la lance A chaque lancer, si on obtient face, on garde la pièce pour le lancer suivant, sinon on change de pièce. Pour tout entier naturel, on note An l'événement le n-ième lancer se fait avec la pièce A Soit an = P[An ], étudier la suite (an , n ≥ 1) et commenter vos résultats. Exercice 2.4.19 bilité d'obtenir 6 On dispose de deux dés, l'un honnête , et l'autre pipé pour lequel la probaest 1/3 tandis que les autres faces ont toutes la même probabilité. 1) On choisit un dé au hasard et on le lance. Quelle est la probabilité de faire 2) On choisit un dé au hasard et on le lance une fois 4 6? fois. Quelle est la probabilité d'obtenir au moins 6? 3) On joue 4 fois en choisissant chaque fois au hasard l'un des dés. Quelle est la probabilité d'obtenir au moins une fois 6? 36 CHAPITRE 2. Exercice 2.4.20 On note Ω l'ensemble des huit résultats de trois lancers successifs d'une pièce de monnaie et on considère les deux événements suivants : pile", B ="pile équibrobables, ESPACES PROBABILISÉS A="le premier jet donne un est amené au moins deux fois. Si on suppose que tous les éléments de A et B Ω sont sont-ils indépendants ? Exercice 2.4.21 Montrer que si F et G sont des fonctions de répartition alors pour tout λ ∈ (0, 1), λF + (1 − λ)G est une fonction de répartition. Exercice 2.4.22 Soit X une variable aléatoire réelle. Donner les fonctions de répartitions des valeurs aléatoires suivantes : X + = max{0, X}, X − = − min{0, X}, |X| = X + + X − , −X Exercice 2.4.23 On appelle médiane, un réel m tel que limF (y) ≤ y↑m 1 ≤ F (m). 2 Montrer que toute fonction de répartition a au moins une médiane. Montrer que l'ensemble des médianes est un intervalle fermé de R Exercice 2.4.24 Soient Xet Y deux variables aléatoires réelles de fonctions de répartition F et G dénies par : F (x) = 0 si x < −1 0 si x ≤ 0 1 x2 si 0 ≤ x ≤ 21 . si − 1 ≤ x < 2. G(x) = 3 1 si x ≥ 2 1 − 34 e1/2−x si x ≥ 1 2 1) Déterminer les réels x et y tels que P[X = x] > 0, et P[Y = y] > 0. 2) Déterminer la fonction de répartition de aX + b où a > 0. 3) On suppose que X et Y sont indépendantes. Déterminer les fonctions de répartitions de max(X, Y ) et min(X, Y ). Exercice 2.4.25 Soient F et G deux tribus. 1) 2) 3) 4) Soit A ∈ P(Ω), montrer que {∅, Ω, A, Ac } est une tribu. Soient A et B des éléments de F , montrer que A ∩ B , A \ B appartiennent à F . Montrer que F ∩ G est une tribu. Montrer que F ∪ G n'est pas forcément une tribu. Chapitre 3 Variables aléatoires discrètes Dans ce chapitre, nous étudions les probabilités discrètes. Les exemples étudiés précédemment sont pour la ma jorité des exemples discrets. Nous avons déjà vu que le dénombrement joue une rôle important. 3.1 Généralités Dénition 3.1.1 Une v.a.r X est discrète si X(Ω) est au plus dénombrable. Remarque 3.1.1 Cela ne signie pas forcément que X est à valeurs dans les entiers. La variable peut prendre ses valeurs dans un sous-ensemble dénombrable de R tel que Q. 3.1.1 Loi et fonction de répartition Soit X une variable discrète, X(Ω) = {xi , i ∈ I}. PX (B) = P(X ∈ B) = P [ i;xi ∈B La loi de X , PX est déterminée par ! {X = xi } = X P(X = xi ) avec i;xi ∈B B ⊂ X(Ω) . Finalement la loi d'une variable discrète est déterminée par l'ensemble des valeurs prises et par les valeurs P(X = xi ). X(Ω) Il est important de noter que l'on a toujours X P(X = xi ) = 1. i∈I Inversement, on a la propriété suivante : Proposition 3.1.1 Soit I une partie non videPde N. Soient (xi , i ∈ I) une famille de réels et (pi , i ∈ I) une famille de réels positifs vériant X(Ω) = {xi , i ∈ I} ∀i ∈ I , P(X = xi ) = pi . i∈I pi = 1. On peut dénir la variable X avec : Exemple 3.1.1 Soit X une variable aléatoire à valeurs dans N telle que ∀n ∈ N, P(X = n) = e−1 n!1 Montrer que cela dénit bien une loi. X est discrète, la fonction de répartition est une fonction intervalle ]xi , xi+1 [ la fonction F : x 7→ P(X ≤ x) est constante. Lorsque 37 en escalier : sur chaque 38 CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES 3.1.2 Espérance La notion d'espérance correspond à celle de moyenne. Dénition 3.1.2 Soit X une v.a.r discrète. Si X(Ω) = {xi , i ∈ I} avec I dénombrable, et si P i∈I |xi |P[X = xi ] < ∞ alors l'espérance de X est dénie par E(X) := X xi P[X = xi ]. i∈I Dans le cas où I est ni, l'hypothèse de convergence de la série est toujours vériée. Dans le xi P[X = xi ] est absolument l'espérance de X ne dépend pas de cas inni dénombrable, on suppose que la série de terme général convergente. L'absolue convergence de la série garantie que l'ordre des xi . On rappelle qu'il existe des séries convergentes, non absolument convergentes, dont la somme dépend de l'ordre pris sur ses termes. Penser à P 1 n∈Z n ou P n≥1 (−1)n qui sont n non absolument convergentes. Il faut bien comprendre que l'espérance n'existe pas toujours, même dans le cas discret ! Si la variable aléatoire discrète est à valeurs positives alors son espérance existe ou est innie. Exemple 3.1.2 (Paradoxe de Saint Petersbourg) On tire une pièce, si elle tombe sur face le jeu s'arrête, si elle tombe sur pile le joueur gagne deux fois sa mise et rejoue. On continue ainsi de suite en doublant le gain du joueur à chaque fois qu'il rejoue. Imaginons qu'il ait misé 1 euro. Quelle est la loi de son gain ? Quelle mise maximale le joueur doit il accepter pour jouer ? On note X son gain. On a P(X = 2n ) = 21n pour n ∈ N? . On a bien ∞ X P(X = 2n ) = 1. n=1 On remarque tout d'abord que la loi ne dépend pas de la mise de départ. De plus on a n≥1 2n P(X = P 2n ] = n≥1 1 = ∞. Finalement, la moyenne du gain étant innie, le joueur devrait a priori toujours jouer. P Proposition 3.1.2 Si X(Ω) possède un maximum et un minimum, alors E(X) existe et xmin ≤ E[X] ≤ xmax Démonstration. A faire. Théorème 3.1.3 Soit Ω ni ou dénombrable, si la série est absolument convergente, on a E[X] = X X(ω)P({ω}). ω∈Ω Démonstration. On note Ai = {ω ∈ Ω; X(ω)xi }. On a P(X = xi ) = P(X −1 ({xi }) = P(Ai ) = X ω∈Ai P({ω}) 3.1. GÉNÉRALITÉS 39 On a donc X xi P(X = xi ) = XX = XX i i∈I i = = ω∈Ai X xi P({ω}) ω∈Ai XX i P({ω}) X(ω)P({ω}) ω∈Ai X(ω)P({ω}) ω∈Ω Ce théorème est essentiel du point de vue théorique. Jusqu'à maintenant le rôle de l'univers était quelque peu caché puisque nous travaillions directement sur l'espace probabilisé (X(Ω), B(R), PX ). Dans la plupart des cas, les calculs sont plus simples sur ce triplet que sur celui de l'univers. Néanmoins le théorème 3.1.3 permet de travailler avec diérentes variables aléatoires simultanément. Proposition 3.1.4 (linéarité) Soient X et Y deux variables aléatoires discrètes sur Ω. On suppose qu'elles possèdent une espérance. Soit λ ∈ R. Alors, la variable aléatoire X + λY est discrète et a pour espérance : E[X + λY ] = E[X] + λE[Y ]. Démonstration. La série P ω∈Ω (X(ω) + λY (ω))P({ω}) est absolument convergente car c'est une somme de deux séries absolument convergentes (utiliser l'inégalité triangulaire). On a donc : X (X(ω) + λY (ω))P({ω}) = ω∈Ω X X(ω)P({ω}) + λ ω∈Ω X Y (ω)P({ω}) = E[X] + λE[Y ]. ω∈Ω Le théorème 3.1.3 et la propriété 3.1.4 restent vrais pour toute variable aléatoire, pas forcément discrète, dénie sur n'importe quel univers Ω. Du point de vue de mesure, l'espérance n'est rien d'autre que l'intégrale de X contre la mesure P la théorie de la : Z ”E[X] = X(ω)P(dω).” Ω Proposition 3.1.5 Soient X et Y deux variables aléatoires. Supposons que 0 ≤ X ≤ Y et que Y admet un moment d'ordre 1. Alors X admet un moment d'ordre 1 et E[X] ≤ E[Y ]. Démonstration. Laissée en exercice. 40 CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES 3.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance Soit X g une variable aléatoire discrète. Soit une fonction continue par morceaux dénie sur X(Ω), clairement la variable g ◦ X est une (g ◦ X)(Ω) = {g(xi ), i ∈ I}. Le théorème suivant est très important. un ensemble J contenant variable discrète : on a Théorème 3.1.6 (théorème de transfert) E[g(X)] = X g(xi )P(X = xi ) i∈I Démonstration. On note Ai = {ω ∈ Ω; X(ω) = xi }. E[g(X)] = X g(X(ω))P({ω}) = ω∈Ω = X XX g(xi )P({ω}) i∈I ω∈Ai g(xi ) i∈I X P({ω}) = ω∈Ai X g(xi )P(Ai ). i∈I Proposition 3.1.7 Soit g une fonction positive. Si E[g(X)] = 0 alors P[g(X) = 0] = 1. On dit que la variable g(X) est nulle presque-sûrement. Démonstration. P E[g(X)] = i∈I g(xi )P[X = xi ] = 0. Comme g(xi )P[X = xi ] est positif, tous les termes sont nuls et si P[X = xi ] > 0 alors g(xi ) = 0. Autrement dit g(x) = 0 si S S {x } = 0, donc x ∈ i∈I,P[X=xi ]>0 {xi }. On a de plus PX i i∈I,P[X=xi ]=0 On a [ P {xi } = 1 i∈I,P[X=xi ]>0 L'indépendance entre deux variables aléatoires X, Y peut s'exprimer avec l'opérateur d'es- pérance. Proposition 3.1.8 X et Y sont deux variables indépendantes si pour toutes fonctions f et g continues bornées, E[f (X)g(Y )] = E[f (X)]E[g(Y )] Démonstration Si f et des fonctions X et Y sont indépendantes alors la propriété est vraie par dénition pour g simples. Toute fonction continue bornée est limite de fonctions simples. Critère d'indépendance. Soient X et Y et Y (Ω) = {y1 , y2 , ...}. X et Y deux variables discrètes telles que sont indépendantes si P(X = xi , Y = yj ) = P(X = xi )P(Y = yi ). X(Ω) = {x1 , x2 , ...} 3.2. LOIS DISCRÈTES USUELLES 41 3.1.4 Moments, variance et écart-type Dénition 3.1.3 On appelle moment d'ordre k de X l'espérance si elle existe de la variable X k avec k ≥ 2 On a d'après le théorème de transfert : E[X k ] = X xki P(X = xi ) i∈I Dénition 3.1.4 On appelle variance de X , l'espérance de (X − E[X])2 : On a immédiatement V(X) = E[(X − E[X])2 ]. P 2 V(X) = i (xi − E[X]) P[X = xi ]. On mesure l'écart de la variable aléatoire par rapport à sa moyenne. C'est une mesure de dispersion autour de E(X). Proposition 3.1.9 Si X admet une variance et V(X) = 0 alors X = 0 avec probabilité 1 Théorème 3.1.10 Si X possède un moment d'ordre 2 alors V(X) = E(X 2 ) − E(X)2 . 3.2 Lois discrètes usuelles On présente les lois classiques au programme. Loi de Bernoulli Dénition 3.2.1 Soit p ∈ [0, 1], X suit la loi de Bernoulli de paramètre p si 1. X(Ω) = {0, 1} 2. P(X = 1) = p et P(X = 0) = 1 − p La fonction indicatrice d'un événement est une variable aléatoire qui suit une loi de Bernoulli. Soit A ∈ F , X = 1A a pour loi, la loi de Bernoulli avec paramètre Proposition 3.2.1 E(X) = p et V(X) = p(1 − p) Loi uniforme sur [|1, n|] Dénition 3.2.2 X a pour loi, la loi uniforme sur [|1, n|] si 1 X(Ω) = [|1, n|] 2 P(X = k) = n1 . Proposition 3.2.2 On a E[X] = n+1 2 et V(X) = n2 −1 12 Démonstration. Utiliser les formules n X k= k=1 n X k=1 k2 = n(n + 1) 2 n(n + 1)(2n + 1) 6 p = P(A). 42 CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES Loi de Poisson La variable aléatoire X suit une loi de Poisson de paramètre λ (loi sur N) si : λk −λ e . k! P[X = k] = Il faut savoir calculer les moments ! E[X] = ∞ X ke−λ k=0 ∞ X λk λk−1 =λ = λe−λ eλ = λ. e−λ k! (k − 1)! k=1 Plus généralement E[X(X − 1)...(X − j + 1)] = ∞ X k=0 =λ k k(k − 1)...(k − j + 1)e−λ ∞ X ∞ −λ e j=k E[X 2 − X] = λ2 , On en déduit que λk k! X λj−k λk e−λ = λk = λk (j − k)! k! j=0 d'où E[X 2 ] = λ2 + λ et V(X) = λ. Loi binomiale On considère n tirages équiprobables indépendants dans un ensemble composé de deux types d'éléments, le premier (I) en proportion p, le deuxième en proportion nombre d'éléments du premier type tirés parmi l'échantillon de taille X n. suit une loi binomiale. Supposons qu'à chaque élément échantillonné la variable aléatoire Yi qui vaut 1 si variables de Bernoulli de paramètre q = 1 − p. Soit X La variable aléatoire i ∈ [|1, n|], on associe i est de type I, 0 sinon. Les variables aléatoires Yi sont des p indépendantes. Il est évident que le nombre X d'éléments de type (I) dans l'échantillon vérie : X= n X Yi i=1 Dénition 3.2.3 Soient n ∈ N? et p ∈ [0, 1]. X suit la loi binomiale de paramètre n et p si 1. X(Ω) = [|0, n|] 2. P(X = k) = On a E[X] = np n k pk (1 − p)n−k et le V(X) = np(1 − p). 3.2. LOIS DISCRÈTES USUELLES 43 Loi hypergéométrique On a déjà rencontré cette loi dans le problème de contrôle de production 2.0.1. On redonne ici l'expérience type menant à une loi hypergéométrique. On considère un tirage équiprobable sans remise de n éléments dans une population de taille N ≥ n. On s'intéresse à un type donné (I) (par exemple Np ( défectueux ) d'éléments de la population, que l'on supposera être en proportion p est donc un entier). Soit taille X le nombre d'éléments de type I présents dans l'échantillon de n. Dénition 3.2.4 X suit une loi hypergéométrique de paramètres N, n, p si N (1−p) n−k N n Np k P[X = k] = avec max{0; n − N (1 − p)} ≤ k ≤ min{n, N p}. Proposition 3.2.3 E[X] = np, V(X) = N −n np(1 N −1 Démonstration. Pour tout i ∈ [|1, N |], soit 0 1 i = Il y a i. N n échantillons de taille si i , − p). n'appartient pas à l'échantillon sinon n possibles N −1 n−1 et On a donc échantillons possibles de taille N −1 n−1 N n P[i = 1] = = n contenant n . N On peut écrire X= N X Yi i i=1 où Yi prend la valeur 1 si i est de type I, E[X] = N X 0 E[Yi i ] = i=1 sinon. On en déduit : N X E[Yi ]E[i ] = i=1 De même, on calcule V(X) = (exercice) N X n p = np N i=1 N −n np(1 − p). N −1 Loi géométrique On considère une population dont une proportion p est composée d'éléments de type I donné. 1 élément de ce type en procédant à une suite de tirage équiprobables et Y le nombre de tirage nécessaires pour obtenir un élément de type I. La loi ? géométrique de paramètre p sur N : c'est à dire : On désire obtenir indépendants : Soit de Y est la loi P[Y = k] = (1 − p)k−1 p On a tiré k−1 éléments de type II, le k -ième E[Y ] = 1 et p est de type I. Les moments sont V(Y ) = 1−p . p2 44 CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES Loi binomiale négative n éléments de type I. On note Y le nombre de tirages nécessaires pour avoir n éléments. L'événement {Y = k} signie que k tirages ont donné un élément de type II, et n tirages ont donné un élément de Il s'agit d'une généralisation de la loi géométrique. Cette fois ci on désire obtenir n−1 , on en déduit : n−1+k type I (dont le dernier). Le nombre de choix possibles est n−1 pn (1 − p)k . n−1+k P[Y = k] = Moments : E[X] = n 1−p p 3.3 et V(X) = n 1−p . p2 Vecteurs aléatoires discrets 3.3.1 Vecteurs aléatoires discrets : lois marginales, indépendance Soit X X1 , X2 , ..., Xn ses X1 (ω) X2 (ω) . X : ω ∈ Ω 7→ . . . Xn (ω) un vecteur aléatoire discret. Soient composantes, c'est à dire Exemple 3.3.1 On lance deux fois un dé équilibré. On pose Ω = [|1, 6|]2 , F = P(Ω) et P la probabilité uniforme. Soit X le vecteur aléatoire bi-dimensionnel : X : ω ∈ Ω 7→ U (ω) = ω1 + ω2 . V (ω) = max(ω1 , ω2 ) Exercice 3.3.1 Les variables U et V sont elles indépendantes ? Déterminer la loi de X . Dénition 3.3.1 (Lois marginales) On appelle lois marginales de X , les lois de X1 , ..., Xn . La loi de X est aussi appelée loi conjointe des Xi , 1 ≤ i ≤ n. Les propriétés suivantes se généralisent au cas multidimensionnel, pour alléger les notations, on considère un vecteur bidimensionnel ( n = 2). Soit X = (U, V ). La loi de P(U = ui ) = X U se déduit de la loi de (U, V ) : P(U = ui , V = vj ). j∈I Exercice 3.3.2 Reprenons le vecteur aléatoire de l'exemple précédent. Déterminer ses lois marginales. La loi conditionnelle de V sachant U = ui est la donnée de P(V = vj et U = ui ) vj ; P(U = ui ) . 3.3. VECTEURS ALÉATOIRES DISCRETS 45 Exercice 3.3.3 Déterminer la loi de U sachant V = 3. Proposition 3.3.1 Soient X et Y deux v.a.r discrètes indépendantes possédant une espérance E[XY ] = E[X]E[Y ]. Démonstration. Proposition 3.3.2 (Admis) Si X1 , ...., Xn sont indépendantes, alors toute fonction de X1 , ..., Xp est indépendantes de toute fonction de Xp+1 , ..., Xn . 3.3.2 Structure algébrique, covariance et corrélation `0 (Ω, F, P) l'ensemble des variables aléatoires discrètes dénies sur un même espace 0 probabilisé (Ω, F, P). L'espace ` est un espace vectoriel pour la loi de composition interne + : On note (X + Y ) est l'élément de `0 qui à ω∈Ω associe X(ω) + Y (ω) et la loi de composition externe scalaire : ∀λ ∈ R, (λ.X)(ω) = λX(ω). Proposition 3.3.3 Soit `1 l'ensemble des variables aléatoires discrètes possédant une espérance, i.e `1 = {X ∈ `0 ; E[|X|] < ∞}. 1) `1 est un sous-espace vectoriel de `0 2) E est une forme linéaire sur `1 Proposition 3.3.4 Soit `2P l'ensemble des éléments de `0P possédant un moment d'ordre 2, i.e `2P = {X ∈ `0 ; E[X 2 ] < ∞} `2P est un sous-espace vectoriel de `0P inclus dans `1P . Démonstration. Utiliser ab ≤ 21 (a2 + b2 ) Dénition 3.3.2 (Covariance) On appelle covariance l'application Cov : (X, Y ) ∈ `2 × `2 7→ E[XY ] − E[X]E[Y ]. Par dénition Cov(X, X) = V(X). On a également la propriété importante suivante : Proposition 3.3.5 V n X i=1 ! Xi = n X i=1 V(Xi ) + 2 X Cov(Xi , Xj ). 1≤i<j≤n Remarque 3.3.1 Cette formule est importante et se simplie lorsque Cov(Xi , Xj ) = 0 pour tout i 6= j . On dit que les variables ne sont pas corrélées . Proposition 3.3.6 Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))] . 46 CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES On donne ici quelques propriétés d'algèbre bilinéaire associées à la covariance. Théorème 3.3.7 L'application Cov est une forme bilinéaire symétrique positive sur `2P . 1) Symétrie : Cov(X, Y ) = Cov(Y, X). 2) Bilinéarité : immédiat par linéarité de 3) Positivité : E. Cov(X, X) = E ((X − E(X))2 ) ≥ 0. La covariance n'est pas dénie-positive. On a seulement que Cov(X, X) = 0 =⇒ X est constante presque sûrement. Remarque 3.3.2 Cov est un produit scalaire sur le sous-espace vectoriel des variables aléa- toires centrées (c'est à dire d'espérance nulle), quotienté par la relation d'équivalence notée "=" : X = Y ⇐⇒ X − Y = 0 avec probabilté 1. Nous ne rentrons pas dans les détails ici, mais il faut reconnaître dans la notation `1P , `2P les espaces `p de la théorie des séries. En eet dans le cadre des séries, on a `p := {(xi , i ∈ N) ∈ RN : Dans notre cadre, est isomorphe à `pP X i≥0 |xi |p < ∞} correspond à l'espace `p où xi est muni du poids P[xi ]. Autrement dit : `pP {(xi , i ∈ N? ) : X i≥1 |xi |p P(xi ) < ∞}. Dénition 3.3.3 (Coecient de corrélation) Soient X et Y deux éléments de L2 de va- riance strictement positives. On appelle coecient de corrélation linéaire le réel : ρ(X, Y ) := Cov(X, Y ) . σ(X)σ(Y ) On p rappelle que σ(X) est l'écart-type de la variable aléatoire X , c'est à dire σ(X) = Cov(X, X). p V(X) = Remarque 3.3.3 On met en garde le lecteur quant à la non-transitivité de la corrélation : ρ(X, Y ) > 0 et ρ(X, Z) > 0 n'implique pas d'erreurs potentielles lors d'interprétation. ρ(Y, Z) > 0. C'est assez contre-intuitif et source Proposition 3.3.8 Quelque soit le couple (X, Y ) de variables aléatoires de L2 , on a : Démonstration. Il faut démontrer |ρ(X, Y )| ≤ 1 |Cov(X, Y )| ≤ σ(X)σ(Y ). Soit λ ∈ R, on a Le trinôme en V(X + λY ) = V(X) + λ2 V(Y ) + 2λCov(X, Y ). λ à droite dans l'égalité ci-dessus est toujours positif puisque On en déduit que son discriminant est négatif ou nul : V(X + λY ) ≥ 0. ∆ = 4(Cov(X, Y ))2 − 4V(X)V(Y ) ≤ 0. On en déduit donc le résultat. Remarque 3.3.4 C'est la même preuve que celle de l'inégalité de Cauchy-Schwarz. Il faut impérativement la connaître. 3.3. VECTEURS ALÉATOIRES DISCRETS 47 3.3.3 Loi multinomiale On commence par une généralisation du théorème binomiale : Soient un entier. On a X (x1 + ... + xk )n = n1 ,...,nk ;n1 +...nk x1 , ..., xk k réels, soit n n! xn1 1 ...xnk k . n !n !...n ! k =n 1 2 On note parfois n n1 , n2 , ..., nk = n! n1 !n2 !...nk ! Ce nombre est le coecient multinomial. On passe maintenant à la loi multinomiale. Il s'agit d'une généralisation de la loi binomiale. On considère dans une population composée d'éléments de m X m n tirages équiprobables, indépendants types, chaque type j étant en proportion pj : pj = 1. j=1 j = 1, .., m, comme étant le nombre d'éléments de type (N1 , ..., Nm ) suit une loi multinomiale de paramètre M(n, n1 , ..., nm ). On dénit la variable aléatoire j gurant dans n, p1 , ..., pm . On Nj pour l'échantillon. Le vecteur la notera Dénition 3.3.4 Le vecteur aléatoire X = (N1 , ..., Nm ) suit une loi multinomiale de paramètres n, p1 , ..., pm si P(X = (n1 , ..., nm )) = où Pm i=1 ni = n, n! pn1 1 ...pnmm n1 !...nm ! n! n1 !...nm ! est le nombre de partitions de {1, ..., n} avec des sous-ensembles de cardinaux n1 , ..., nm . Proposition 3.3.9 La j -ème loi marginale de X est une loi binomiale de paramètre n, pj Un élément tiré au hasard est soit du type probabilité (1 − pj ) Aj avec probabilité : le nombre total d'éléments du type loi binomiale de paramètre l'événement j n, pj . j pj soit d'un autre type avec dans l'échantillon suit donc une On va retrouver cela par le calcul. Soit nj xé. On dénit déni par Aj := {(n1 , ..., nj−1 , nj , nj+1 , ..., nm ); P[Nj = nj ] = P[X ∈ Aj ] = X Aj X i6=j ni = n − nj } n! pn1 1 ...pnmm n1 !...nm ! X n! (n − nj )! n pj j (1 − pj )n−nj nj !(n − nj )! n1 !...nj−1 !nj+1 !...nm ! Aj n nj = pj (1 − pj )n−nj = nj 48 CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES Nl , Nj , soient non corrélées, et a fortiori indépendantes. On calcule la covariance de deux marginales Nj , Nl . Le couple (Nj , Nl ) suit une loi multinomiale de paramètres : n, pj , pl , 1−(pj +pl ). En eet, lorsque l'on tire un échantillon de taille n, chaque élément tiré est soit de type j avec probabilité pj , soit de type l avec probabilité pl , soit d'un autre type avec probabilité 1 − (pj + pl ). On en déduit Il n'y a aucune raison pour que les variables aléatoires X E[Nj Nl ] = nj nl (nj ,nl );nj +nl ≤n X = (nj ,nl );nj +nl ≤n n! n p j pnl (1 − pl − pj )n−nj −nl nj !nl !(n − nj − nl )! j l (n − 2)! n −1 p j plnl −1 (1 − pl − pj )n−2−(nj −1)−(nl −1) (nj − 1)!(nl − 1)!(n − 2 − (nj − 1) − (nl − 1))! j × n(n − 1)pj pi = n(n − 1)pj pl ce qui n'est pas égal à E[Nj ]E[Nl ] = n2 pj pl . 3.3.4 Somme de variables aléatoires indépendantes Somme de variables de Bernoulli Proposition 3.3.10 Soient X1 , ..., Xn n variables indépendantes de loi de Bernoulli de paramètre p. La variable aléatoire Y = n X Xi i=1 suit une loi binomiale de paramètre (n, p). Remarque 3.3.5 C'est de cette façon que nous avons introduit la loi binomiale au Chapitre 3. En fait nous allons voir que nous pouvons toujours construire une variable aléatoire de loi binomiale comme somme de Bernoulli indépendantes. Ce qui suit n'est pas clairement au programme, mais permet de comprendre l'indépendance. On considère une variable de Bernoulli de paramètre et note S, p 1. An de n copies indépendantes : l'événement la variable de Bernoulli réalise façon indépendante, on va construire On se place sur l'espace (Ωn , F ⊗n , P⊗n ) la probabilité produit. On dénit où F ⊗n et (Ω, F, P). On appelle succès, répéter n fois l'expérience, de sur un espace P⊗n sont respectivement la tribu produit et Xi : ω ∈ Ωn 7→ ωi . Par dénition de la tribu produit P⊗n , on a P⊗n (Xi = 1) = P⊗n (Ω × Ω × ..., ×{S}, ×... × Ω) = P(Ω) × P({S})... × P(Ω) = P[{S}] = p. Soit (x1 , ..., xn ) ∈ {0, 1}n . On a P⊗n [X1 = x1 , ..., Xn = xn ] = P⊗n [X1 = x1 ]...P⊗n [Xn = xn ] = pk (1 − p)n−k 3.3. VECTEURS ALÉATOIRES DISCRETS kP est le nombre Y = ni=1 Xi suit la où P[Y = k] = ( de xi , i ∈ [|1, |n] valant 49 1. On conclut immédiatement que la variable loi suivante : le nombre de façon de choisir k éléments parmi k n−k n)×p (1−p) n k = p (1−p)n−k . k Somme de variables binomiales Proposition 3.3.11 Soient X1 , ..., Xk des variables aléatoires binomiales de paramètres respectifs (n1 , p), ..., (nk , p). La variable aléatoire Y = k X Xi i=1 est une de loi binomiale de paramètre ( Pk i=1 ni , p). D'après la proposition précédente, chaque variable Xi est somme de ni variables de Bernoulli indépendantes. On les numérote de la façon suivante : X1 = n1 X Bi , X2 = n2 X Bi , ..., Xk = i=n1 +1 i=1 nk X On a donc Y = k X Xi = i=1 ni X k X Bi i=n1 +...+nk−1 +1 Bj = i=1 j=n1 +...+ni−1 +1 D'après la proposition précédente, on a donc que Y n1 +...+n X k Bl . l=1 suit une loi binomiale de paramètre (n1 + ... + nk , p). Somme de variables de Poisson Proposition 3.3.12 Soient X1 , ..., Xk des variables aléatoires dénies sur un même espace, indépendantes de loi de Poisson de paramètre respectif λi . La variable aléatoire Y = k X Xi i=1 suit une loi de Poisson de paramètre On le fait dans le cas donne donc X1 et X2 k = 2, Pk i=1 λi et le soin de faire une récurrence sur variables telles que λj1 −λ1 P[X1 = j] = e j! P[X2 = l] = λl2 −λ2 e l! k est laissé au lecteur. On se 50 CHAPITRE 3. On cherche à calculer P[X1 + X2 = n]. P[X1 + X2 = n] = P n [ VARIABLES ALÉATOIRES DISCRÈTES On a : ! {X1 = i} ∩ {X2 = n − i} i=0 = = n X i=0 n X i=0 n X P(X1 = i, X2 = n − i) P(X1 = i)P(X2 = n − i) λi1 −λ1 λn−i 2 e e−λ2 i! (n − i)! i=0 n n X 1 X n i n−i (λ1 + λ2 )i −(λ1 +λ2 ) =e λ1 λ2 = e−(λ1 +λ2 ) . i! i=0 i i! i=0 = Un outil très important pour étudier plus généralement les sommes de variables aléatoires est la notion de fonction génératrice. Cette notion n'est pas exigible mais apparaît implicitement dans de nombreux exercices. Nous soulignons également qu'une fonction génératrice n'est rien d'autre qu'une série entière (totalement au programme.) Soit dans N. La fonction génératrice associée à X X une variable aléatoire à valeurs est dénie de la façon suivante : X GX : s ∈] − 1, 1[7→ E[s ] = ∞ X sk P[X = k]. k=0 La fonction génératrice caractérise entièrement la loi. Proposition 3.3.13 Soient X et Y deux variables aléatoires. X et Y ont même loi si et seulement si GX = GY . Démonstration. Que peut-on dire des coecients de deux séries entières égales ? 3.4 Exercices Exercice 3.4.1 Soit n un entier ≥ 1. On considère l'expérience aléatoire qui consiste à lancer successivement n fois un dé (équilibré) et à noter les n résultats obtenus (dans l'ordre). 1. Décrire l'univers Ω associé à cette expérience aléatoire. Déterminer le cardinal de Ω. 2. Calculer la probabilité de l'évènement A = on obtient au moins un 6 . 3. Démontrer que pour avoir une probabilité supérieure ou égale à 0, 9 d'obtenir au moins un 6, il faut et il sut que : n≥ ln(10) ln(6) − ln(5) Exercice 3.4.2 Une urne contient trois boules blanches et trois boules noires. On tire simultanément quatre boules de l'urne au hasard. Quelle est la probabilité qu'il y ait autant de blanches que de noires ? 3.4. EXERCICES 51 Exercice 3.4.3 On considère un jeu de échettes. La cible est un disque de rayon 3. Par simplicité, nous supposons que le joueur atteint toujours la cible. Supposons que le centre de la cible est situé à l'origine du plan R2 . Nous souhaitons étudier les emplacements des échettes sur la cible. Nous supposons que la cible est divisée en trois cercles centrés à l'origine C1 , C2 , C3 de rayons respectifs 1, 2, 3. Ces cercles divisent la cible en trois anneaux A1 , A2 , A3 avec Ak = {(x, y) ∈ R2 ; k − 1 ≤ p x2 + y 2 < k}. 1) Donner un univers Ω. 2) On suppose que la probabilité de tomber dans un anneau est proportionnelle à son aire. Calculer P(A1 ), P(A2 ), P(A3 ) 3) Soit maintenant X la variable aléatoire qui donne le nombre de points selon l'emplacement de la échette. On suppose que la règle du jeu est la suivante : Si la échette tombe dans Ak alors le joueur remporte 3 − k + 1 points. Calculer l'espérance de X 4) Donner la fonction de répartition de X et tracer la. 5) On suppose maintenant que le joueur n'atteint pas la cible avec une probabilité donnée p > 0. On suppose que si le joueur atteint la cible alors il marque des points selon les mêmes règles que précédemment. Sinon, il marque 0 point. Mêmes questions que précédemment. Exercice 3.4.4 (Minimum de deux variables aléatoires géométriques) Dans cet exer- cice, p désigne un réel de ]0; 1[ et q = 1 − p. On considère deux variables aléatoires X et Y , indépendantes, et suivant toutes deux la même loi géométrique de paramètre p. 1. Soit i ∈ N . En remarquant que (X ≤ i) = ? i [ (X = k), montrer que P(X > i) = q i . k=1 2. Vérier que l'égalité précédente est encore vraie lorsque i = 0. 3. On dénit une variable aléatoire Z en posant Z = min(X, Y ), c'est-à-dire : ( X Z= Y si X ≤ Y si Y < X Expliquer pourquoi, pour tout i ∈ N : (Z > i) = (X > i) ∩ (Y > i) 4. En déduire P (Z > i), pour i ∈ N. 5. Soit i ∈ N∗ . En utilisant le fait que (Z > i − 1) = (Z > i) ∪ (Z = i), calculer P (Z = i), pour i ∈ N∗ . 6. Démontrer que Z suit la loi géométrique de paramètre 1 − q 2 . Exercice 3.4.5 Le trousseau de clefs d'un gardien de nuit comporte dix clefs, dont une seule ouvre la porte du poste de garde. Pour qu'il y pénètre, il y a deux scenarios possibles : • Cas A : il prend une clef au hasard, l'essaie, la met de côté si elle n'ouvre pas, et ainsi de suite. • Cas B : il prend une clef au hasard, l'essaie, mais la laisse sur le trousseau si elle n'ouvre pas, et ainsi de suite. 52 CHAPITRE 3. On désigne respectivement par XA et XB VARIABLES ALÉATOIRES DISCRÈTES les variables aléatoires égales aux nombres d'essais (y compris le bon) avant succès, dans le premier et le second scenario. Déterminer la loi de probabilité et la fonction de répartition de E[XA ] Calculer et XA et de XB . E[XB ]. Le gardien utilise la méthode B un jour sur trois. Un jour, après avoir essayé 8 clefs, il n'a toujours pas ouvert la porte. Quelle est la probabilité pour qu'il ait utilisé la méthode Exercice 3.4.6 B? n un entier naturel non nul. Une personne eectue n lancers indépendants Xn le nombre de "piles" obtenus. Quelle est la loi de Xn ? quelle est son espérance ? sa variance ? Calculer la probabilité pour qu'à l'issue des n lancers, le nombre de piles soit strictement Soit d'une pièce parfaitement équilibrée. Soit 1) 2) supérieur au nombre de faces. Exercice 3.4.7 (#) montage A et B Une entreprise de construction produit des objets sur deux chaînes de qui fonctionnent indépendemment l'une de l'autre. Pour une chaîne donnée, les fabrications des pièces sont indépendantes. On suppose que produit est 0.1 40% A 60% des ob jets et B A soit défectueux B soit défectueux est produit des objets. La probabilité qu'un ob jet construit par la chaine alors que la probabilité pour qu'un objet construit par la chaine 0.2. 1. On choisit au hasard un objet à la sortie de l'entreprise. On constate que cet objet est défectueux. Calculer la probabilité de l'événement l'ob jet provient de la chaîne A . 2. On suppose de plus que le nombre d'objets produits en une heure par aléatoire Y qui suit une loi de Poisson de paramètre On considère la variable aléatoire par la chaîne A X A est une variable λ = 20. représentant le nombre d'objets défectueux produits en une heure. (a) Rappeler la loi de Y ainsi que la valeur de l'espérance et de la variance de Y. k et n deux entiers naturels, déterminer la probabilité conditionnelle P(Y =n) [X = k]. (On distinguera les cas k ≤ n et k > n ). En déduire, en utilisant le système complet d'événements (Y = i) i∈N , que X suit (b) Soient (c) une loi de Poisson de paramètre 2 . Solution. 1. Pour un objet pris à la sortie, P (A) = 0.6 D =l'objet est défectueux. a P (D/A) = 0.1 et P (D/B) = 0.2 et P (B) = 0.4 Soit On et comme (A, B) est un système complet d'évé- nements, P (D) = P (D/A) P (A) + P (D/B) P (B) = 0.1 · 0.6 + 0.2 · 0.4 = 0.14 Si l'ob jet est défectueux, la probabilité de l'événement l'objet provient de la chaîne A est P (A/D) que l'on calcule par la formule de Bayes : P (D/A) P (A) P (A ∩ D) = P (D) P (D) 0.1 · 0.6 0.06 6 3 = = = = 0.14 0.14 14 7 P (A/D) = 3.4. EXERCICES 53 2. On suppose de plus que le nombre d'objets produits en une heure par aléatoire Y qui suit une loi de Poisson de paramètre On considère la variable aléatoire par la chaîne A est une variable λ = 20. représentant le nombre d'objets défectueux produits en une heure. Y (Ω) = N V (Y ) = λ = 20 (a) On a X A et pour tout entier n : P (Y = n) = λn e−λ . n! E (Y ) = λ = 20 et Y = n, X est le nombre d'objet défectueux parmi n, qui sont défectueux indépendemment les un des autres avec une même probabilité 0.1. Donc sachant (b) Quand Y = n, X ,→ B (n, 0.1) et P [X = k/Y = n] = 0 si k > n (c) Comme (Y = n)n∈N , et P [X = k/Y = n] = Cnk 0.1k 0.9n−k si k≤n est un système complet d'événements on a pour tout entier P (X = k) = +∞ X k: P [X = k/Y = n] P (Y = n) n=0 série convergente dont on calcule la somme partielle en distinguant suivant que ou n<k M X : P [X = k/Y = n] P (Y = n) = k−1 X n≥k P [X = k/Y = n] P (Y = n) n=0 k=0 + M X P [X = k/Y = n] P (Y = n) n=k M X = 0+ Cnk 0.1k 0.9n−k n=k 20n e−20 n! k M X 0.1 n! −20 (0.9 · 20)n e 0.9 k! (n − k)!n! n=k k M X 1 1 −20 1 e 18n 9 k! n=k (n − k)! k M −k X 1 1 m+k −20 1 e 18 9 k! m=0 m! k 1 1 2k e−2 e−20 18k e18 = 9 k! k! = = = → donc Exercice 3.4.8 à N avec X suit une loi de Poisson de paramètre On lance successivement N ≥ 2. n 2 boules au hasard dans N cases numérotées de 1 On suppose que les diérents lancers de boules sont indépendants et que la probabilité pour qu'une boule quelconque tombe dans une case donnée est 1 . N Une case peut contenir plusieurs boules. Le gain étant fonction du nombre de cases atteintes, on étudie la variable aléatoire Tn égale au nombre de cases non vides à l'issue des n lancers. 54 CHAPITRE 3. n 1. Déterminer en fonction de n≤N et et N VARIABLES ALÉATOIRES DISCRÈTES les valeurs prises par Tn (on distinguera deux cas : n > N ). 2. Donner les lois de T1 3. Déterminer, lorsque et T2 . n ≥ 2, (Tn = 1), (Tn = 2), (Tn = n) n > N et n ≤ N ). la probabilité des événements (pour la dernière probabilité, on distinguera deux cas : 4. À l'aide de la formule des probabilités totales, justier l'égalité entier k tel que (I) suivante, pour tout k N −k+1 P (Tn = k) + P (Tn = k − 1) N N E(Tn ) de la variable Tn , on considère la fonction polynomiale P (Tn+1 = k) = 5. An de calculer l'espérance Gn (I) 1 ≤ k ≤ n. dénie par : ∀x ∈ R, Gn (x) = (a) Quelle est la valeur de (b) Exprimer E(Tn ) P (Tn = k)xk k=1 Gn (1) ? en fonction de (c) En utilisant la relation n X (I), G0n (1). montrer que : ∀x ∈ R, Gn+1 (x) = 1 (x − x2 )G0n (x) + xGn (x) N (d) En dérivant l'expression précédente, en déduire que : 1 E(Tn+1 ) = 1 − E(Tn ) + 1 N (e) Prouver enn que l'espérance de Tn est donnée par : E(Tn ) = N (f ) L'entier N 1 1− 1− N étant xé, calculer la limite de n E(Tn ) lorsque n tend vers +∞. Interpréter le résultat. Exercice 3.4.9 On lance n fois (n ≥ 3) une pièce de monnaie parfaitement équilibrée. Pour tout i ∈ [|1, n|], on pose Ai = on a obtenu pile au i-ème lancer . 1. Soit X le nombre total de piles obtenu. Donner sa loi, son espérance et sa variance. 2. Si, à l'issue des n lancers, on obtient par exemple pile-pile-face-face-face-pile-. . . , on dit que l'on a une première série de longueur 2, parce qu'on a obtenu 2 piles au début (et pas plus), et une deuxième série de longueur 3, parce qu'on a obtenu ensuite 3 faces (et pas plus). Autre exemple : si l'on obtient face-face-pile-face-. . . , on a une première série de longueur 2 et une deuxième série de longueur 1. On note S1 la longueur de la première série et S2 la longueur de la deuxième série si elle existe. On convient de poser S2 = 0 s'il n'y a pas de deuxième série, c'est-à-dire si S1 = n. Déterminer S1 (Ω). 3. Justier l'égalité (S1 = 1) = (A1 ∩A2 )∪(A1 ∩A2 ). En déduire, en justiant soigneusement, 1 2 que P(S1 = 1) = . 3.4. EXERCICES 55 4. En étudiant l'événement (S1 = k) à la manière de la question précédente, démontrer que : k 1 ∀k ∈ [|1, n − 1|], P(S1 = k) = 2 n−1 1 . 5. Démontrer que P(S1 = n) = 2 6. Vérier, en utilisant les formules obtenues dans les deux questions précédentes, que : n X P(S1 = k) = 1 k=1 7. Soit x ∈ R \ {1}. Démontrer que pour tout n ∈ N∗ : n X ixi−1 = i=1 nxn+1 − (n + 1)xn + 1 . (1 − x)2 Calculer l'espérance de S1 . 8. Justier l'égalité S2 (Ω) = [|0, n − 1|]. 9. Calculer P(S2 = 0). 10. Soit k ∈ [|1, n|]. Montrer que : 0 si k = n 1 si k = n − 1 P(S2 = 1|S1 = k) = 1 si k ≤ n − 2 2 11. En déduire que : P(S2 = 1) = Exercice 3.4.10 Une urne contient Exercice 3.4.11 Soit N 1 2 boules numérotées de 1 à N. (n ≤ N ). On étudiera d'abord le cas avec remise, puis sans remise. Soit X et Y le plus petit et le plus grand des nombres obtenus a) Calculer P(X ≥ x) pour tout x ∈ [|1, n|]. En déduire la loi de X . b) Calculer P(Y ≤ y) pour tout y ∈ [|1, n|]. En déduire la loi de Y . que : pour tout a) Déterminer a un nombre réel, et k ∈ N, X On en tire c) La variable aléatoire Exercice 3.4.12 P[X = k] = a 2k k! X admet elle une espérance ? Si oui, la déterminer. X admet elle une variance ? Si oui, la déterminer. Calculer la fonction de répartition de : la loi uniforme sur {1, ..., n} la loi de Bernoulli de paramètre la loi Binomiale de paramètres 4 p et 1 2 une à une une variable aléatoire à valeurs dans a. b) La variable aléatoire n N, telle 56 CHAPITRE 3. la loi géométrique de paramètre p. Exercice 3.4.13 On admet que si 0≤x<1 et VARIABLES ALÉATOIRES DISCRÈTES r ∈ N? , ∞ X 1 k+r−1 k = x (1 − x)r r−1 k=0 Considérons une urne contenant des boules blanches en proportion proportion p, des boules noires en 1 − p. On eectue des tirages avec remise dans cette urne jusqu'à l'obtention de Soit X le nombre de boules noires obtenues (avant la 1) Calculer P[X = k] pour tout k ∈ N. r 2) Montrer que l'on obtient presque-sûrement 3) Calculer rème r boules blanches. boule blanche). boules blanches E[X]. Exercice 3.4.14 Une urne contient Exercice 3.4.15 Un garagiste dispose de N boules numérotées de 1 à N. (n ≤ N ). On étudiera d'abord le cas avec remise, puis sans remise. Soit X et Y le plus petit et le plus grand des nombres obtenus a) Calculer P(X ≥ x) pour tout x ∈ [|1, n|]. En déduire la loi de X . b) Calculer P(Y ≤ y) pour tout y ∈ [|1, n|]. En déduire la loi de Y . 2 On en tire n une à une voitures de location. Chacune est utilisable en moyenne 4 jours sur 5. Il loue les voitures avec une marge de 50 euros par jour et par voiture. On considère X la variable aléatoire égale au nombre de clients se présentant chaque jour pour louer une voiture. On suppose X(Ω) = {0, 1, 2, 3} avec P[X = 0] = 0.1 P[X = 1] = 0.3 P[X = 2] = 0.4 P[X = 3] = 0.2. a) Déterminer la loi de la variable aléatoire Y représentant le nombre de clients satisfaits par jour b) Calculer la marge moyenne par jour. Exercice 3.4.16 Une urne contient initialement une boule blanche et une boule rouge. On eectue des tirages successifs d'une boule dans l'urne selon le protocole suivant : après chaque tirage, la boule tirée est remise dans l'urne et on rajoute dans l'urne une boule de la même couleur, avant le tirage suivant. Pour tout entier non nul aléatoire égale au nombre de boules blanches obtenues au cours des X1 . Déterminer la loi de X2 . Montrer que la loi de Xn n, on note Xn la variable n premiers tirages. Déterminer la loi de Exercice 3.4.17 (#) Soit est donnée par N P(Xn = k) = 1 . n+1 λ et (Xi )i≥0 une de N . Montrer que une variable aléatoire de Poisson de paramètre suite de variables de Bernoulli de paramètre p, S= indépendantes entre elles et N X i=1 est une variable de Poisson de paramètre pλ. Xi 3.4. EXERCICES 57 Solution. Pour n ≥ 0, N X P(S = n) = P ! Xi = n = i=1 Comme N X N X P Xi = n, N = k k X =P Xi i=1 P ! Xi = n k variables de Bernoulli de paramètre k et n 0 p (1 − p)k−n = p p et indé- : n>k sinon. si k n i=1 Comme · P (N = k) . Xi = n est une v.a. binomiale de paramètres k X Xi = n, N = k . i=1 ! i=1 De plus, comme on considère une somme de pendantes, P ! a i=1 Pk = k X k≥0 X1 , . . . , Xk , on ! est indépendant de P Xi = n, N = k X i=1 k≥0 k X ! k N P(λ), P(N = k) = e−λ λk! . est une v.a. Finalement, on a X k λk pn e−λ X k! pn (1 − p)k−n e−λ P(S = n) = = (1 − p)k−n λk n k! n! k!(k − n)! k≥n k≥n et par un changement de variables dans la somme : P(S = n) = pn e−λ X 1 λn pn e−λ λ(1−p) (λp)n −λp (1 − p)k λk+n = e = e . n! k≥0 k! n! n! Exercice 3.4.18 (Loi multinomiale #) Une boîte contient n jetons numérotés de 1 à n. On tire un jeton au hasard, on note son numéro et on le remet dans la boîte. Si le numéro de ce jeton est i, alors on tire au hasard et sans remise hasard dans trois urnes U1 , U2 et U3 X Uk k = 1, 2, 3, on note Xk la variable après cette opération. la variable aléatoire donnant le numéro du jeton que l'on a tiré au départ dans la boîte. Quelle est la loi de 2. Calculer pour 3. jetons de la boîte que l'on distribue au (vides au départ). Pour aléatoire désignant le nombre de jetons de l'urne 1. Soit i X ? Déterminer la loi conjointe du couple (Xk , X), où k = 1, 2, 3. k = 1, 2, 3, l'espérance de (a) Trouver la loi du vecteur aléatoire Xk (On pourra utiliser X = X1 + X2 + X3 ). (X1 , X2 , X). (b) En déduire la loi du vecteur aléatoire (X1 , X2 , X3 ). solution 1. La loi de X est la loi uniforme sur {1, .., n}. Pour 1≤i≤n et 0 ≤ j ≤ n, P(Xk = j, X = i) = P(Xk = j|X = i)P(X = i) = P(Xk = j|X = i) · et sachant {X = i}, la v.a. Xk est une binomiale de paramètres 1/3 et 0 P(Xk = j, X = i) = 1 j n i 1 j 3 si 2 i−j 3 si j>i j ≤ i ≤ n. i. 1 n On a donc 58 CHAPITRE 3. 2. Comme X = X1 + X2 + X 3 VARIABLES ALÉATOIRES DISCRÈTES et que les trois v.a. 3E[X1 ] = E[X] = et donc 3. X1 , X 2 et X3 ont même loi, 1 n(n + 1) n 2 n+1 . 6 1 ≤ i ≤ n et 0 ≤ j, k ≤ n, E[X1 ] = (a) Pour P(X1 = j, X2 = k, X = i) = P(X=i) (X1 = j, X2 = k)P(X = i) = Conditionnellement à {X = i}, l'expérience revient à placer L'espace des congurations possibles, qui est de cardinal uniforme. De plus, le nombre de congurations avec boules dans la seconde est si j+k ≤i j i 1 P(X=i) (X1 = j, X2 = k). n boules dans 3 urnes. i 3 , est muni de la probabilité k boules dans la 1ère urne et i! j!k!(i − j − k)! et 0 sinon. On a donc P(X1 = j, X2 = k, X = i) = 11 i! i n 3 j!k!(i − j − k)! si j + k ≤ i ≤ n. (b) Par la question précédente, on a directement P(X1 = j, X2 = k, X3 = l) = Exercice 3.4.19 (#) si j + k + l ≤ n. On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la probabilité d'obtenir pile est X 1 1 (j + k + l)! n 3j+k+l j!k!l! 2/3, et face 1/3. Les lancers sont supposés indépendants. On note la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la première fois de deux piles consécutifs. Soit n pn la probabilité de l'événement (X = n). (X = 2), (X = 3), (X = 4), (X = 5). Déterminer la un entier naturel non nul. On note 1) Expliciter les événements p1 , p2 , p3 , p4 et valeur de p5 2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier lancer, montrer que 1 2 ∀n ≥ 3, pn = pn−2 + pn−1 . 9 3 3) En déduire l'expression de 4) Calculer pn en fonction de E[X]. Exercice 3.4.20 1) Déterminer α, β, γ n pour n ≥ 1. tels que pour tout k ∈ N? , 1 α β γ = + + k(k + 1)(k + 2) k k+1 k+2 3.4. EXERCICES 2) Soit a ∈ R. 59 Déterminer a pour que pk = a k(k + 1)(k + 2) soit une loi de probabilité. 3) Cette loi de probabilité admet elle une espérance ? une variance ? Exercice 3.4.21 Soit X une variable aléatoire à valeurs dans 1) Montrer que pour tout n ∈ N? , n X kP[X = k] = converge. Montrer n−1 X ! − nP(X > n). P[X > k] i=1 k=1 2) On suppose que N? . lim nP(X > n) = 0 et que la série que X admet une espérance et que de terme général n→∞ E(X) = ∞ X uk = P(X > k) P(X > k). k=1 3) Réciproquement, on suppose que X admet une espérance. Montrer que lim nP(X > n) = 0 n→∞ et en déduire E[X] = ∞ X P[X > k]. k=0 Exercice 3.4.22 1) Si 2) Si Soit X une v.a.r discrète telle P E(X) existe, E(X) = ∞ k=1 P[X ≥ k]. E[X(X − 1)] existe, E[X(X − 1)] = 2 Exercice 3.4.23 N que ∞ X ∞ X p=2 n=p On considère un entier naturel boules numérotées de 1 à N. X(Ω) = N. N Montrer que P[X ≥ n]. supérieur ou égal à 3. Une urne contient On y eectue des tirages successifs d'une boule avec remise de la boule tirée après chaque tirage, jusqu'à obtenir pour la première fois un numéro déjà tiré. TN On note alors le rang aléatoire de ce dernier tirage. Par exemple, si on a obtenu successivement les numéros 1-5-4-7-3-5, la variable valeur 6. Alors que si on a obtenu 5-4-2-2 la variable 1) Déterminer la loi, l'espérance et la variance de 2) Soit TN prend la valeur 4. T3 . N ≥3 a) Déterminer l'ensemble des valeurs que peut prendre b) Calculer c) Prouver TN . P[TN = 2], P[TN = 3] et P[TN = N + 1] pour tout entier k de {1, ..., N }, les égalités k−1 Y N! i P[TN > k] = = 1− . (N − k)!N k N i=0 En déduire la loi de la variable aléatoire TN TN prend la 60 CHAPITRE 3. Exercice 3.4.24 On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la probabilité d'obtenir pile est X VARIABLES ALÉATOIRES DISCRÈTES 2/3, et face 1/3. Les lancers sont supposés indépendants. On note la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la première fois de deux piles consécutifs. Soit n pn la probabilité de l'événement (X = n). (X = 2), (X = 3), (X = 4), (X = 5). Déterminer la un entier naturel non nul. On note 1) Expliciter les événements p1 , p2 , p3 , p4 et valeur de p5 2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier lancer, montrer que 1 2 ∀n ≥ 3, pn = pn−2 + pn−1 . 9 3 3) En déduire l'expression de 4) Calculer pn en fonction de n E[X]. Exercice 3.4.25 1) Déterminer α, β, γ pour n ≥ 1. tels que pour tout k ∈ N? , 1 α β γ = + + k(k + 1)(k + 2) k k+1 k+2 2) Soit a ∈ R. Déterminer a pour que pk = a k(k + 1)(k + 2) soit une loi de probabilité. 3) Cette loi de probabilité admet elle une espérance ? une variance ? Exercice 3.4.26 (A faire !) ? N Soit P une probabilité et X une variable aléatoire à valeurs dans . 1) Montrer que pour tout n ∈ N? , n X kP[X = k] = converge. Montrer ! P[X > k] i=1 k=1 2) On suppose que n−1 X − nP(X > n). lim nP(X > n) = 0 et que la série que X admet une espérance et que n→∞ E(X) = ∞ X de terme général P(X > k). k=1 3) Réciproquement, on suppose que X admet une espérance. Montrer que lim nP(X > n) = 0 n→∞ et en déduire E[X] = ∞ X k=0 P[X > k]. uk = P(X > k) 3.4. EXERCICES Exercice 3.4.27 1) Si 2) Si 61 X une v.a.r discrète telle P∞ E(X) = k=1 P[X ≥ k]. Soit E(X) existe, E[X(X − 1)] Soient X et Y Déterminer la loi de Montrer que ∞ X ∞ X p=2 n=p P[X ≥ n]. deux variables aléatoires indépendantes, à valeurs dans X T = min(X, Y ). Déterminer en fonction de la loi de Exercice 3.4.29 X(Ω) = N. existe, E[X(X − 1)] = 2 Exercice 3.4.28 que Y, et de la loi de la loi de N. Z =X +Y. n variables aléatoires indépendantes de Bernoulli de paramètre p est une loi binomiale de paramètres n, p. Montrer que la somme de n variables aléatoires de Poisson de paramètres λ1 , ..., λn respectiPn vement est une loi de Poisson de paramètre i=1 λi Exercice 3.4.30 Montrer que la somme de Une urne contient une boule blanche et une boule noire, les boules étant indiscernables au toucher. On y prélève une boule, chaque boule ayant la même probabilité d'être tirée, on note sa couleur, et on la remet dans l'urne avec c boules de la couleur de la boule tirée. On répète cette épreuve, on réalise ainsi une succession de tirages On considère les variables aléatoires Xi = 1 Xi = 0 On dénit, pour (Xi )1≤i≤n dénies par : (n ≥ 2). si on obtient une boule blanche au i-ème tirage. . sinon 2 ≤ p ≤ n, la variable aléatoire Zp = Zp p X par Xi i=1 1) Déterminer la loi du couple (X1 , X2 ). En déduire la loi de Z2 3) a) Déterminer Zp (Ω). Soit p ≤ n − 1 b) Déterminer P(Xp+1 = 1|Zp = k) pour k ∈ Zp (Ω). X2 . 2) Déterminer la loi de En utilisant la formule des probabilités totales, montrer que P[Xp+1 = 1] = c) Montrer par récurrence que pour tout 1 + cE[Zp ] 2 + pc p ∈ [|1, n|], P[Xp = 1] = P[Xp = 0] = 1 2 Exercice 3.4.31 Soit une pièce avec probabilité d'avoir face p. On lance la pièce n fois, soit X la variable aléatoire représentant le nombre de faces obtenues, et Y le nombre de piles. Quelle est la loi de X , la loi de Y ? montrer que les variables aléatoires X et Y ne sont pas indépendantes. On lance maintenant la pièce N fois où N est un nombre aléatoire qui suit une loi de Poisson. On note encore X et Y le nombre de faces et le nombre de piles. Déterminer la loi du couple (X, Y ), en déduire que X et Y sont indépendantes, et donner leurs lois respectives. 62 CHAPITRE 3. Exercice 3.4.32 n On considère VARIABLES ALÉATOIRES DISCRÈTES urnes numérotées de 1 n. à La première urne contient des boules blanches et des boules noires ; la proportion de boules blanches est vantes contiennent chacune On eectue n a boules blanches et a p1 . Les urnes sui- boules noires. tirages de la manière suivante : on tire une boule de la premiere urne que l'on place dans la deuxième urne, puis on tire une boule de la deuxième urne que l'on place dans la troisième, et ainsi de suite jusqu'au tirage dans la dernière urne. Pour 1 ≤ k ≤ n, on désigne par kème urne est blanche, égale à 0 Xj la variable aléatoire égale à fonction de p1 et de k ème si la boule tirée de la 1) Déterminer les lois de probabilités de X1 et X2 , 1 si la boule tirée dans la urne est noire. puis leurs espérances et leurs variances en a. 2) Démontrer qu'il existe une valeur de p1 pour laquelle X1 et X2 suivent la même loi de probabilité. p1 étudier l'indépendance de X1 et X2 . Pour 1 ≤ k ≤ n, on qk = P[Xk = 0]. existe une matrice M dépendant de a telle que pour k ∈ [|1, n − 1|] pk+1 pk =M qk+1 qk 3) Pour cette valeur de pk = P[Xk = 1] 4) Démontrer qu'il 5) Déterminer 6) Déterminer M n pour n ∈ N, puis lim pn et lim qn . n→∞ Exercice 3.4.33 Soit déterminer la loi de (X, Y ) un couple de variables aléatoires à valeurs dans P({X = j} ∩ {Y = k}) = λ. X et de Exercice 3.4.34 et Y Soit X N×N tel que : (j + k)λj+k ej!k! f : x 7→ 2xe2x−1 − 1) Y . Les variables X et Y (On pourra étudier b) Déterminer les lois de sur R+ . sont elles indépendantes ? deux variables indépendantes vériant : 1 P[X = n] = P[Y = n] = 4 n ∈ N. Déterminer a. Calculer E[X] Xn . n→∞ ∀(j, k) ∈ N2 , a) Déterminer pose et 1 + an n! pour tout 1) 2) et 3) Déterminer la V(X) loi de S = X + Y . Exercice 3.4.35 On admet que si r ∈ N? , ∞ X 1 k+r−1 k = x (1 − x)r r − 1 k=0 0≤x<1 et Considérons une urne contenant des boules blanches en proportion proportion p, des boules noires en 1 − p. On eectue des tirages avec remise dans cette urne jusqu'à l'obtention de Soit X le nombre de boules noires obtenues (avant la rème boule blanche). r boules blanches. 3.4. EXERCICES 1) Calculer 63 P[X = k] pour tout k ∈ N. 2) Montrer que l'on obtient presque-sûrement 3) Calculer r boules blanches E[X]. Exercice 3.4.36 (#) a ∈ N. A chaque partie, il peut gagner 1 euro avec une probabilité p et perdre 1 euro avec une probabilité q = 1 − p. Le but du joueur est alors de jouer jusqu'à l'obtention de la fortune c ≥ a, c ∈ N mais il doit s'arrêter s'il est ruiné. On note sc (a) sa probabilité de succès (atteindre c avant la ruine). 1. Calculer sc (0) 2. Montrer, pour et Un joueur va au casino avec une fortune sc (c) a > 0, en raisonnant sur ce qui s'est passé au premier coup, la relation sc (a) = psc (a + 1) + qsc (a − 1) 3. Déduire la valeur de sc (a) suivant que p = 0, 5 ou p 6= 0, 5. 4. Application numérique : Calculer la valeur précédente avec c = 20000 dans les cas p = 0; 5 et p = 18/38 a = 900 ; c = 1000 ; a = 100 ; . Solution 1. Si on démarre avec une fortune nulle, on ne peut atteindre la somme on démarre avec c, on a atteint la somme c et donc sc (c) = 1 2. Au premier coup, on peut soit gagner 1 euro (avec proba q ). Si on part d'une fortune fortune de a+1 a p), c : sc (0) = 0 . Si . soit en perdre 1 (avec proba et que l'on gagne au premier coup, on se retrouve avec une et la probabilité d'atteindre c vaut alors sc (a + 1). On a la même chose si on perd au premier coup et on a bien la formule de récurrence pour 1≤a≤c−1 : sc (a) = psc (a + 1) + qsc (a − 1) 3. Si si p = 0 (et donc q = 1), a < c et sc (c) = 1. on a sc (a) = sc (a − 1) Le cas le plus intéressant est bien sûr pour 1 ≤ a ≤ c − 1. On a donc sc (a) = 0 p > 0. On a alors une suite récurrente d'ordre 2 qui vérie psc (a + 1) = sc (a) − qsc (a − 1) et sc (0) = 0, sc (c) = 1. Pour trouver son expression générale, on doit trouver les racines pr2 − r + q = 0. q/p. de son équation caractéristique équation a deux racines : 1 et Si Après résolution, on trouve que cette q = p, c'est-à-dire si p=1/2, 1 est la racine double de l'équation caractéristique et alors on a sc (a) = (αa + β)1a = αa + β avec α et β 0 = sc (0) = β et 1 = sc (c) = αc + β . On nal sc (a) = a/c . à déterminer. D'après la question a), β=0 et α = 1/c. Cela donne au q 6= p, c'est-à-dire q/p) et alors si p 6= 1/2, l'équation caractéristique a deux racines distinctes (1 et en déduit que Si a a q q a sc (a) = α + β1 = α +β p p 64 CHAPITRE 3. αc avec α q p β et +β à déterminer. D'après la question a), et alors c −1 α = −β = (1 − (q/p) ) sc (a) = 4. Application numérique : si −5 2, 66 · 10 VARIABLES ALÉATOIRES DISCRÈTES 0 = sc (0) = α + β et 1 = sc (c) = ce qui entraîne 1 − (q/p)a . 1 − (q/p)c p = 1/2, s1000 (900) = 9/10. si p = 18/38, s1000 (900) = . Exercice 3.4.37 (Une marche aléatoire) On étudie le cours en bourse d'une action. On suppose que les variations journalières sont indépendantes les unes des autres. On convient de noter 0 le cours au début de l'observation. On suppose que chaque jour, l'action monte d'une unité (+1) avec probabilité le cours constaté le 2n-ème p ou descend d'une unité (-1) avec probabilité jour. 1 − p. On note X2n , Par exemple si n=2, et que le cours à baisser les trois premiers jours et monté le quatrième jour, on a X4 = −1 − 1 − 1 + 1 = −2 1) Quelles sont les valeurs prises par 2) On note Y2n le nombre de jours parmi les le nombre de jours parmi les de Y2n et X2n ? Z2n ? 2n jours d'observation où l'action a monté ; et Z2n 2n jours, où l'action a baissé. Quelles sont les lois de probabilité Donner leur espérance. n et Y2n Z2n , et d'autre part X2n , Y2n et Z2n ? X2n ? Montrer que pour tout k ∈ [| − n, n−] 2n P[X2n = 2k] = pn+k q n−k n+k 3) Quelles relations lient d'une part En déduire une expression de Exercice 3.4.38 On dispose d'un dé équilibré à p. Soit 6 obtenus, on X, Y, Z de la manière probabilité d'apparition de pile soit égale à lancers du dé ; si n est le nombre de On dénit trois variables aléatoires 6 faces et d'une pièce truquée telle que la N un entier naturel non nul. On eectue N lance alors n fois la pièce. suivante : Z indique le nombre de 6 tirés parmi les N lancers de dé. X indique le nombre de piles obtenus parmi les lancers de la pièce. Y indique le nombre de faces obtenues au lancers de la pièce. Z , son espérance, sa variance. k ∈ N, n ∈ N, déterminer la probabilité conditionnelle P[X = k|Z = n]. Montrer que pour tout couple d'entiers naturels (k, n) : 1) Préciser la loi de 2) Pour 3) P[X = k et N −n n 1 n N k 5 n−k Z = n] = p (1 − p) 6 6 k n = 0 sinon. 4) Calculer la probabilité P(X = 0). si 0≤k≤n≤N 3.4. EXERCICES 65 (k, n) tels que 0 ≤ k ≤ n ≤ N n N N N −k = . k n k n−k 5) Montrer que pour tout couple d'entiers naturels En déduire la probabilité 6) Montrer que la variable la loi de Y P(X = k). aléatoire X suit une loi binomiale de paramètre 8) Déterminer la loi du Exercice 3.4.39 (X, Y ). X couple (X, Y ). Soit X et Y Y et a et Y 2i+j , pour tout N? , telles que (i, i) ∈ N? × N? a b) Déterminer les lois marginales de X sont-elles indépendantes ? deux variables aléatoires dans P[{X = i} ∩ {Y = j}] = c) Quelle est ? 7) Calculer la covariance de a) Calculer (N, p6 ). X et Y. sont elles indépendantes ? Exercice 3.4.40 uniforme sur Soit [|1, X|], Exercice 3.4.41 X une variable aléatoire uniforme sur déterminer la loi de Soit n Y et calculer P(X = Y ) et 2. Déterminer la loi de Exercice 3.4.42 nant les valeurs 0 Soit ou 1 P(X ≥ Y ). X1 , X2 , X3 2. Les variables aléatoires 1/2. X On considère les variables Z = X2 X3 et (Y, Z). et Y sont-elles indépendantes ? 3. Calculer l'esperance et la variance de n variables aléatoires indé- des variables de Bernoulli, deux à deux indépendantes, pre- avec probabilité 1. Déterminer la loi jointe de Soit X et Y deux sur {1, ..., n}. D = Y − X. Y = X1 X2 Exercice 3.4.43 une variable aléatoire E[Y ]. un entier naturel non nul, et pendantes suivant toutes les deux des lois uniformes 1. Calculer [|1, n|] et Y Y +Z et YZ un entier naturel non nul, et X et Y deux {1, ..., n}. variables aléatoires indé- pendantes suivant toutes les deux des lois uniformes sur 1. Calculer P(X = Y ) et 2. Déterminer la loi de Exercice 3.4.44 nant les valeurs 0 Soit ou 1 P(X ≥ Y ). D = Y − X. X1 , X2 , X3 des variables de Bernoulli, deux à deux indépendantes, pre- 1/2. avec probabilité Y = X1 X2 1. Déterminer la loi jointe de On considère les variables et (Y, Z). 2. En déduire les lois marginales de Y et Z. Z = X2 X3 66 CHAPITRE 3. (Y, Z) 3. Calculer Cov Les variables aléatoires 4. Calculer l'espérance et la variance de VARIABLES ALÉATOIRES DISCRÈTES X Y +Z et et Y sont-elles indépendantes ? YZ Exercice 3.4.45 (Processus d'assainissement informatique) Soit p ∈]0, 1[, une entre- prise dispose de N copies d'un même logiciel. Une proportion p est infectée par un virus, et il est impossible de discerner un logiciel sain d'un contaminé. On suppose que N = nm avec n et m deux entiers strictement plus grand que 1. Un des responsables propose la méthode suivante pour assainir le lot : Les N copies forment la génération 0. On prélève n logiciels au hasard et avec remise dans la génération 0. On les copie chacun m fois. Les N = nm logiciels obtenus constituent la génération 1. On itère le procédé. Durant tout le processus, la copie d'un logiciel sain est saine, d'un logiciel contaminé, contaminée. Le statisticien pense que si la proportion p est faible, on a de bonnes chances d'obtenir un lot sain après un assez grand nombre d'opérations. On souhaite vérier si eectivement ce procédé fonctionne. Préliminaire. On considère un couple de variables aléatoires (X, Y ) dénies sur (Ω, F, P). Soit k et l deux entiers strictement positifs. On suppose que X prend q valeurs réelles : x1 , ..., xq , et Y , r valeurs réelles : y1 , ..., yr . Soit g une fonction réelle. Pour tout 1 ≤ j ≤ q , soit Ej = r X i=1 g(yi )P[Y = yi |X = xj ]. Démontrer que E[g(Y )] = q X Ej P[X = xj ]. (3.1) j=1 On passe maintenant au problème en question. Soit k ∈ N, on note Tk le nombre de copies infectées obtenues parmi les n tirées dans la génération k , pour constituer la génération k + 1 1) Quelles sont les valeurs prises par Tk ? Pour j décrivant l'ensemble de ces valeurs, déterminer la loi conditionnelle de Tk+1 sachant Tk = j. 2) En déduire, à l'aide de (3.1), une relation entre E[Tk+1 ] et E[Tk ] et montrer que pour tout k , E[Tk ] = np. 3) On considère maintenant la variable Zk = Tk (n − Tk ). a) En utilisant le préliminaire avec (Tk , Tk+1 ) et une fonction g convenablement choisie. Montrer que la suite de terme général E[Zk ] est géométrique. b) Donner l'expression de E[Zk ] en fonction de p, n et k . c) Montrer que la suite (E[Zk ], k ≥ 0) tend vers 0. 4 a) Que signie concrètement l'événement Zk = 0 ? b) Quelle est la plus petite valeur de j(n − j) lorsque j parcourt {1, 2, ..., n − 1}. ? c) En déduire, à l'aide de 3-c), que P(0 < Tk < n) −→ 0. k→∞ d) Calculer la limite de P[Zk = 0] et interpréter le résultat. 3.4. EXERCICES 67 e) Déterminer en fonction de n uniquement, une valeur de k telle que P[Zk = 0] > 0, 99 5) On cherche maintenant à calculer la probabilité de l'événement F= A partir d'un certain rang ; les générations ne sont constituées que de logiciels infectées . a) Montrer que la suite d'événements ({Tk = n})k≥1 est croissante pour l'inclusion. b) Que représente alors P[F ] pour la suite, (P[Tk = n])k≥1 ? 6) Soit j ∈ [|1, n − 1|], déterminer la limite de P[Tk = j] quand k tend vers l'inni. 7) En utilisant le résultat de la question 2), donner la valeur de P[F ]. 8) On cherche maintenant à calculer la probabilité de l'événement G= A partir d'un certain rang, les générations ne sont constituées que de copies saines. Calculer P[G], que pensez vous de la méthode du statisticien ? Séries génératrices Révision : séries Exercice 3.4.46 (#) Déterminer le rayon de convergence des séries entières suivantes : 1. 2. 3. 4. n! n n (2n)! x P √n 2n n 2n +1 x P (1+i)n z3n n Pn lnn2 n n z nn P Solution. On utilise le résultat suivant : pour une série P n an X n , si la limite an+1 =L lim n→+∞ an existe (limite éventuellement innie), alors son rayon de convergence est égal à 1. Posons an = 1/L. n! . Alors (2n)! an+1 n+1 −→ 0. an = (2n + 1)(2n + 2) n→+∞ Le rayon de convergence est donc R = +∞ . √ 2. Posons 3. an = n . Alors 2n +1 √ n an+1 = √n + 1(2 + 1) −→ 1/2. an n(2n+1 + 1) n→+∞ P n Le rayon de convergence de la série n an X est donc R = 2 et celui de la série considérée √ ici est R = 2 (prendre X = x2 ). √ Comme |1 + i| = 2, on a √ √ an+1 n 2 = −→ 1/ 2. an n + 1 2 n→+∞ √ P n Le rayon de convergence de la série 2 et celui de la série est donc R = n an X √ 1/3 considérée ici est R = ( 2) = 21/6 . 68 CHAPITRE 3. 4. VARIABLES ALÉATOIRES DISCRÈTES an+1 (n + 1)ln(n+1) 2 2 = = exp (ln(n + 1)) − (ln n) . an nln n Or, (ln(n+1))2 −(ln n)2 = (ln(n+1)−ln n)(ln(n+1)+ln n) = ln(1+1/n) ln(n+n2 ) donc 1 ln(n+n2 ) n an+1 −→ e0 = 1 an n→+∞ R=1 et ∼ n→+∞ . Exercice 3.4.47 (#) Pour n ∈ N on dénit sur [0; 1], un = X n (1 − X). 1. Montrer que n un converge simplement sur [0; 1] et calculer n un (x) pour tout x ∈ [0; 1]. P 2. Montrer que n un ne converge pas normalement sur [0; 1] (a) en utilisant la dénition, (b) en utilisant le Théorème de continuité des séries. P 3. Vérier que n un converge normalement sur [0; a] pour tout a ∈]0; 1[. P P Solution. 1. La série que l'on étudie est à termes positifs ou nuls. Pour montrer que [0; 1], simplement sur montrons que pour lim N →+∞ existe. Si x = 1, N X PN n=0 un (x) = La série et 2. n S(x) = 1 un si N X n=0 n=0 P un (1) = 0 x ∈ [0, 1], N X n=0 P n un converge la limite xn (1 − x) et on a donc la convergence voulue. Si xn (1 − x) = (1 − x) converge donc simplement sur 0 ≤ x < 1, 1 − xN +1 = 1 − xN +1 −→ 1. N →+∞ 1−x [0; 1] et sa somme S est dénie par S(1) = 0 x ∈ [0, 1[. (a) Une série converge uniformément si N X un (x) − S(x) −→ 0. sup N →+∞ x∈[0,1] n=0 Cherchons la borne supérieure de la fonction | PN n=0 un − S| N X |1 − xN +1 − 1| = xN +1 un (x) − S(x) = 0 n=0 sur si si [0, 1] : on a x<1 . x=1 La borne supérieure qui vaut donc 1 ne converge pas vers 0 : la convergence n'est pas uniforme. 3.4. EXERCICES 69 (b) On peut aussi le montrer en utilisant la propriété suivante : si une série de fonctions continues converge uniformément, alors sa somme est également continue. Ici, toutes les fonctions un n ≥ 0 pour sont continues sur [0, 1] mais S n'est pas continue en 1 : la convergence ne peut donc pas être uniforme. 3. Soit 0 < a < 1. Dire que la convergence est normale sur X n [0, a] revient à dire que la série sup |un (x)| x∈[0,a] supx∈[0,a] |un (x)| quand n → +∞. En n un , on voit qu'elle est croissante sur [0, n+1 ] puis n , 1]. Comme n/(n + 1) tend vers 1 et comme a < 1, pour n assez décroissante sur [ n+1 grand on a n/(n + 1) > a. La fonction un est alors croissante sur [0, a] et atteint donc son maximum en a : sup |un (x)| = an (1 − a) pour a assez grand converge. Pour cela, cherchons un équivalent de étudiant les variations de la fonction x∈[0,a] et la série de terme général ) et la série P n un (an (1 − a))n est convergente puisque a<1 (voir question a) [0, a]. converge normalement sur Séries génératrices Exercice 3.4.48 (#) Calculer à l'aide de la fonction génératrice l'espérance et la variance de la loi géométrique de paramètre p et de la loi de Poisson de paramètre λ. Solution. On traite d'abord le cas où X est une v.a. de Poisson de paramètre P(X = k) = e−λ Pour s ∈] − 1, 1[, λk , k! λ : k ≥ 0. on a k X (sλk ) X X X k −λ k −λ λ =e = e−λ esλ = eλ(s−1) . GX (s) = E s = s P(X = k) = s e k! k! k≥0 k≥0 k≥0 Comme l'espérance de X existe (puisque la série de terme général (kP(X = k))k converge absolument), on a E[X] = Or, G0X (s) = λeλ(s−1) et donc E[X] = λ E[X(X − 1)] = lim lim s→1, s<1 G0X (s). . De même, s→1, s<1 G00X (s) = E[X 2 ] lim s→1, s<1 existe et alors λ2 eλ(s−1) = λ2 . V(X) = E[X(X − 1)] + E[X] − E[X]2 = λ2 + λ − λ2 = λ . procède de la même manière si X est une v.a. géométrique : si −1 < s < 1, X X X sp GX (s) = sk P(X = k) = sk p(1 − p)k−1 = ps (s(1 − p))k−1 = 1 − s(1 − p) k≥0 k≥1 k≥1 On a donc On (1 − p)s < 1). avant E[X] = 1/p (la dernière égalité est valide car En dérivant, on obtient comme et V(X) = (1 − p)/p2 . 70 CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES Exercice 3.4.49 (#) Soit X et Y deux variables aléatoires indépendantes de lois de Poisson de paramètres respectifs λ > 0 et γ > 0. Déterminer, en calculant sa fonction génératrice, la loi de X + Y . Solution. Pour s ∈] − 1, 1[, on a GX+Y (s) = E[sX+Y ] = E[sX sY ] = E[sX ]E[sY ] = GX (s)GY (s) car les 2 v.a. sont indépendanntes. Or, GX (s) = eλ(s−1) et GY (s) = eγ(s−1) donc GX+Y (s) = e(λ+γ)(s−1) . La série génératrice caractérisant la loi d'une v.a., on en déduit que X+Y est une v.a. de λ + γ. Poisson de paramètre Exercice 3.4.50 (#) Soit (Xk )1≤k≤n une suite de v.a. indépendantes telles que pour 1 ≤ k ≤ n, Xk suit une loi uniforme discrète sur {1, . . . k}, c'est-à-dire que pour i ∈ {1, . . . k}, P (Xk = i) = 1 . k Déterminer la fonction génératrice de Xk et celle de Yn = n1 (X1 + X2 + · · · + Xn ). Solution. Commençons par la série génératrice de Xk P(Xk = i) = Pour s ∈] − 1, 1[, 1 , k qui est une v.a. uniforme sur {1, . . . , k} : 1 ≤ i ≤ k. on a GXk (s) = n X n si P(Xn = i) = i=1 Calculons maintenant la série génératrice de s 1 − sk 1X i . s = k i=1 k 1−s Yn = n1 (X1 + X2 + · · · + Xn ). On a n h i Y h Yn Xk i 1/n X1 +···+Xn GYn (s) = E s =E s = E s1/n k=1 car les v.a. (Xk )k sont indépendantes. On a donc GYn (s) = n Y k=1 GXk (s 1/n )= n Y s1/n 1 − sk/n k=1 k 1 − s1/n = s (1 − n s1/n ) n Y n! k=1 1 − sk/n Exercice 3.4.51 Soit n xé, et (Xi )i=1,...,n une suite de v.a. de Bernoulli indépendantes de paramètre pn = λ/n ; Xi = 1 modélise que le i-ème assuré subit un sinistre. Le nombre d'assurés subissant un sinistre est donc Yn = X1 + . . . + Xn . On suppose que les Xi sont indépendants ; le fait que pn est petit avec n modélise que le risque de sinistre pour chaque assuré est petit devant le nombre d'assurés, λ représentant le "nombre d'assurés sinistrés espéré". 1. Soit Z ∼ P (λ). Calculer la série génératrice GZ de Z . 3.4. EXERCICES 71 2. Calculer la série génératrice GXi de Xi . 3. Calculer la série génératrice GYn de Yn . 4. Calculer limn→+∞ GY n . On rappelle que ln(1 + u) = u(1 + (u)), où limu→0 (u) = 0. Conclusion ? Exercice 3.4.52 (#) (Somme aléatoire) Soit (Xn )n∈N une suite de v.a. iid à valeurs dans N et T une variable aléatoire, P à valeurs dans N, et indépendantes des (Xn )n∈N . On pose S0 = 0 et pour tout n ≥ 1, Sn = nk=1 Xk et S(w) = ST (w) (w). 1. Montrer que GS = GT ◦ GX1 . 2. Montrer que si X1 et T ont une espérance, alors l'espérance de S existe et E[S] = E[T ]E[X]. 3. On prend pour les (Xn )n∈N des v.a. iid de loi de Bernoulli de paramètre p, et pour T une loi de Poisson de paramètre λ. Quelle est la loi de S ? Solution. 1. On a GS (s) = X sk P(S = k) = k≥0 De plus, comme on a X sk X P(S = k, T = n) = n≥0 k≥0 X sk sk k≥0 S n = X 1 + X2 + · · · + Xn GS (s) = X et que X T X P(Sn = k, T = n). n≥0 est indépendant des v.a. X1 , . . . , X n , P(Sn = k)P(T = n). n≥0 k≥0 On veut intervertir les deux signes de sommation. Pour cela, il faut montrer que la série |s| < 1, X XX XX sk P(Sn = k)P(T = n) ≤ P(Sn = k)P(T = n) = P(S = k) = 1 < +∞ double converge absolument. Puisque k≥0 n≥0 k≥0 n≥0 k≥0 (on a refait les mêmes calculs que précédemment mais dans l'autre sens). On peut intervertir les deux sommes, on a alors GS (s) = X P(T = n) n≥0 Or, Sn est la somme de n X sk P(Sn = k) = k≥0 X P(T = n)GSn (s). n≥0 variables indépendantes et de même loi, on a donc GSn (s) = n Y GXi (s) = (GX1 (s))n i=1 et GS (s) = X n≥0 ce qui est la relation à trouver. P(T = n) (GX1 (s))n = GT (GX1 (s)), 72 CHAPITRE 3. 2. On justie l'existence de E[S] VARIABLES ALÉATOIRES DISCRÈTES en montrant que la suite K X ! kP(S = k) k=0 et alors la série Comme E[S] P k≥0 kP(S = k) existe, on sait que est bornée K≥0 est absolument convergente. E[S] = G0S (1). En utilisant a), on a E[S] = G0X1 (1)G0T (GX1 (1)) = E[X1 ]G0T (1) = E[X1 ]E[T ] On a utilisé que pour toute série génératrice, G(1) = 1. GT (s) = eλ(s−1) et GX1 (s) = ps + 1 − p. λ(ps+1−p−1) relation trouvée à la question a), on a GS (s) = e = epλ(s−1) et v.a. de Poisson de paramètre pλ. 3. On a dans ce cas particulier En utilisant la donc S est une Chapitre 4 Variables aléatoires à densité Ebauche de motivation : la planche de Galton. On répète plusieurs fois l'expérience suivante : on laisse tomber une bille sur une planche 1 2 1 2 2 x √1 e− 2 2π Figure 4.1 Planche de Galton inclinée munie de clous. Lorsque la bille rebondit sur le clou, elle a une chance sur deux de tomber à droite ou à gauche. On récolte les billes et observe leurs répartitions. Ce que Galton observe avec son expérience est la tendance des billes à se répartir d'une façon particulière. De façon heuristique, lorsque l'on augmente le nombre de billes, l'histogramme se rapproche d'une courbe. Il s'agit de la courbe de Gauss, et cette convergence est appelée le théorème de de Moivre-Laplace. Il apparait ainsi qu'à partir d'expériences simples, on passe d'un monde discret à un monde continu Mathématiquement, le phénomène observé par Galton s'exprime ainsi : √ P 2 n Sn 1 − n 2 1 ≤ z −→ √ 2π 73 Z z −∞ u2 e− 2 du. 74 CHAPITRE 4. Où Sn suit une loi binomiale de paramètres VARIABLES ALÉATOIRES À DENSITÉ (n, 12 ). Ces résultats de convergence seront étudiées dans le chapitre 5. Nous établissons dans un premier temps la notion de densité. 4.1 Généralités Dénition 4.1.1 Soit X une variable aléatoire réelle, on dit que X admet une densité f si sa fonction de répartition F est continue de la forme : Z x F (x) = −∞ f (t)dt, pour tout x ∈ R avec 1. f est positive 2. fR possède un nombre ni de points de discontinuité ∞ 3. −∞ f (x)dx = 1. Remarque 4.1.1 La fonction f n'est pas unique, puisque l'on peut changer sa valeur en un point sans changer la valeur de l'intégrale. Néanmoins nous parlerons de la densité. Proposition 4.1.1 En tout point x0 où f est continue, F est dérivable et F 0 (x0 ) = f (x0 ). Savoir faire la démonstration de cette propriété est très important. La propriété correspond en fait au théorème fondamental de l'analyse reliant intégrale et dérivée. Démonstration. On écrit le taux d'accroissement en x0 F (x0 + h) − F (x0 ) 1 = h h Soit > 0, par continuité de f en x0 , il existe h Z de la fonction F : x0 +h f (t)dt x0 tel que si On écrit donc |x − x0 | ≤ h alors |f (x) − f (x0 )| ≤ . Z x0 +h F (x0 + h) − F (x0 ) 1 = − f (x ) (f (x) − f (x )) dx 0 0 h h x0 Z x0 +h 1 |f (x) − f (x0 )|dx ≤ h x0 1 ≤ h ≤ h Si h tend vers 0, le taux d'accroissement de F en x0 admet une limite et sa limite vaut f (x0 ). Par dénition de la dérivée (en tant que limite du taux d'accroissement) : F 0 (x0 ) = f (x0 ). La notion d'intégrale généralisée est sous-jacente à l'étude des probabilités continues. Une piqûre de rappel concernant les intégrales généralisées peut être utile... 4.1. GÉNÉRALITÉS 75 4.1.1 Loi et fonction de répartition Proposition 4.1.2 Soit X une variable aléatoire réelle admettant une densité f . Pour tout (a, b) ∈ R2 avec a ≤ b P[a < X ≤ b] = b Z f (t)dt a Démonstration. On a F (b) = P[X ≤ b]. l'événement {a < X ≤ b} correspond à {X ≤ b} \ {X ≤ a}. Donc P[a < X ≤ b] = F (b) − F (a) Z Z b f (t)dt − = f (t)dt −∞ −∞ Z b f (t)dt = a par la relation de Chasles a Proposition 4.1.3 Pour une variable à densité, P[X = a] = 0 pour tout a ∈ R. Démonstration. {X = a} est la limite à F , F (a) − F (x) −→ 0. La probabilité de l'événement lorsque x tend vers a. Par continuité de gauche de F (a) − F (x) x→a;x<a 4.1.2 Espérance Dénition 4.1.2 Soit X une v.a.r de densité f . On appelle espérance de X , le réel Z +∞ E[X] := tf (t)dt −∞ dénie uniquement si cette intégrale converge absolument. Il faut voir l' analogie entre cette dénition et la dénition de l'espérance d'une variable discrète : E[X] = X xi P[X = xi ]. i∈I La série est remplacée par l'intégrale. Dans le cas discret, c'est de probabilité de l'événement élémentaire {X = xi }. P[X = xi ] qui donne le poids Dans le cas continu, ces éléments élémen- taires sont donnés par la dérivée de la fonction de répartition F 0 (x) c'est à dire f (x) (en dehors d'une famille nie de points). Contrairement au cadre discret, les variables aléatoires à densité ne forment pas un espace vectoriel : Soient X et Y à densité, il n'y a aucune raison a priori que Un exemple trivial est donnée par pour est Y X (le démontrer). Dans ce cas : dégénérée, P[X + Y = 0] = 1. X +Y ait une densité. et Y = −X : si X a une densité alors il en est de même X + Y = 0 presque sûrement. On dit que la loi de X + Y Remarque 4.1.2 (Où est l'univers ?) D'aucun aura remarqué, que l'univers Ω n'apparait que rarement dans cette partie où l'on traite des variables à densité. Nous avons déjà vu 76 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ qu'une fois les variables aléatoires discrètes dénies sur un espace abstrait Ω, on peut en pratique tout calculer en considérant sa loi : c'est à dire en travaillant sur l'espace probabilisé (X(Ω), B(R), PX ). Le théorème 3.1.3 nous dit que E[X] = X X(ω)P({ω}). ω∈Ω La théorie de la mesure permet de dénir une notion d'intégrale sur un espace Ω général contre toute probabilité P, et montre que pour toute variable aléatoire réelle dénie sur un triplet (Ω, F, P), Z X(ω)dP(ω) E[X] = (4.1) Ω On énonce les théorèmes fondamentaux suivants sans donner de démonstration. Théorème 4.1.4 Soient X et Y deux variables à densité admettant une espérance, soit λ un réel. La variable aléatoire X + λY admet une espérance (mais pas forcément une densité !) et E[X + λY ] = E[X] + λE[Y ] Une façon de démontrer ce résultat est de travailler avec un couple de variables aléatoires dont X les lois marginales correspondent à la loi de et la loi de Y. Cela nécessiterait de travailler avec des intégrales multiples, nous ferons ce genre de calculs lorsque l'on étudiera les vecteurs aléatoires. 4.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance Théorème 4.1.5 (Théorème de transfert) Soient X une variable aléatoire réelle de densité f et g une fonction continue par morceaux réelle telle que |g|f soit intégrable sur R. Alors g(X) est une variable aléatoire réelle et possède une espérance : Z +∞ g(x)f (x)dx. E[g(X)] = −∞ Corollaire 4.1.6 Pour tout A borélien, Z E[1A (X)] = f (x)dx A En fait, la variable aléatoire 1A (X) est une variable de Bernoulli de paramètre A priori, le calcul de la loi de la v.a.r g(X) R A f (x)dx. n'est pas dans le programme ; mais il faut com- prendre que cela correspond à un changement de variable "dans f ". Il peut arriver lors d'une épreuve mélangeant analyse et probabilité, que vous soyez amenés à faire ce genre de calcul. C 1 strictement croissante et d'inverse C 1 (en fait il sut que g diéomorphisme) alors g(X) est à densité. En eet, soit Fg sa fonction de répartition, Z g−1 (x) −1 Fg (x) := P[g(X) ≤ x] = P[X ≤ g (x)] = f (t)dt. On mentionne donc que si soit un g est −∞ Finalement, Fg0 (x) = f (g −1 (x))(g −1 )0 (x) = f (g −1 (x))(g 0 ◦ g −1 (x))−1 . 4.2. LOIS À DENSITÉ USUELLES 77 4.1.4 Moments, variance et écart-type Dénition 4.1.3 (moment) Soit k ∈ N? . On appelle moment d'ordre k l'espérance si elle existe de la variable X k . D'après le théorème de transfert, c'est donc Z k ∞ xk f (x)dx. E[X ] = −∞ Remarque 4.1.3 L'ensemble des variables aléatoires à densité ne forme pas un sous-espace vectoriel de L0 , contrairement aux variables discrètes ! L'ensemble des variables aléatoires dénies sur un même espace Ω muni d'une tribu F , L0 contient les deux cas : discret et à densité. Il faut savoir qu'il contient beaucoup plus ; il y a par exemple des variables non discrètes sans densité... Dénition 4.1.4 (Variance) On appelle variance de X l'espérance de la variable (X−E[X])2 : V(X) := E[(X − E[X])2 ]. Par le théorème de transfert : Z +∞ V(X) = −∞ Pour calculer V, (x − E[X])2 f (x)dx on utilise souvent la formule : V(X) = E[X 2 ] − E[X]2 . 4.2 Lois à densité usuelles Loi uniforme X suit une loi uniforme sur le segment [a, b] f (x) = On a F (x) = x−a pour b−a x ∈ [a, b]. si sa densité est donnée par : 1 1[a,b] (x). b−a Les moments sont : E[X] = a+b 2 et V(X) = (b − a)2 . 12 Loi exponentielle Une variable aléatoire X suit une loi exponentielle de paramètre f (x) = θe−θx 1R+ (x). On a E[X] = 1 θ et V(X) = 1 . θ2 La loi exponentielle est un cas particulier de la loi suivante. θ si sa densité est 78 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ Loi Gamma On rappelle la dénition de la fonction Γ pour tout réel Z p>0 : ∞ e−x xp−1 dx Γ(p) = 0 Une variable aléatoire suit une loi Gamma de paramètre densité est : f (x) = θ>0 et p>0 (notée Γ(p, θ)) si sa θp −θx p−1 e x 1R+ (x). Γ(p) Proposition 4.2.1 E[X r ] = Γ(p + r) θr Γ(p) Démonstration. Z r E[X ] = 0 ∞ θp −θx r+p−1 e x dx = Γ(p) On obtient donc E[X r ] = Z 0 ∞ θp −u u r+p−1 1 e du Γ(p) θ θ 1 Γ(p + r) . θr Γ(p) Les propriétés de la fonction Gamma sont très importantes. On en rappelle quelques unes, sans donner de démonstration. Γ(p) = (p − 1)Γ(p − 1) Γ(p) = (p − 1)! Γ(1/2) = Γ(p + 1) ∼ si p Néanmoins, vous devez savoir étudier la fonction Γ. est entier √ π p p e p→∞ √ 2πp(1 + 1 ) 12p Loi normale 2 X suit la loi gaussienne N (m, σ ), où m ∈ R, σ ≥ 0, 2 (x−m) √1 exp − quand σ > 0, et si X = m quand σ = 0. 2σ 2 σ 2π Une variable aléatoire densité sur R : si sa loi a pour Remarque 4.2.1 Il faut impérativement savoir démontrer que 2 √ x exp − dx = 2π. 2 −∞ Z ∞ Il n'existe pas de forme explicite à l'aide de fonctions usuelles de x 7→ Calculons les moments : Rx 0 u2 e− 2 du. 4.2. 1) LOIS À DENSITÉ USUELLES E[X] = √1 σ 2π R∞ xe− −∞ (x−m)2 2σ 2 1 E[X] = √ σ 2π Z dx. 79 On pose ∞ (σu + m)e u= −u2 /2 −∞ x−m , on obtient σ 1 σdu = m + √ σ 2π Z ∞ 2 /2 ue−u σdu = m −∞ car la fonction à intégrer dans la partie droite est impaire. 2) Z ∞ (x−m)2 1 x2 e− 2σ2 dx E[X ] = √ σ 2π −∞ Z ∞ 1 2 (σu + m)2 e−u /2 σdu = √ σ 2π −∞ 2σ 2 = m2 + √ Γ(3/2). π 2 On a Γ(3/2) = 21 Γ(1/2) = √ π , et donc 2 E[X 2 ] = m2 + σ 2 . Si X est centrée réduite , c'est-à-dire lorsque sienne standard. m=0 et σ 2 = 1, la loi normale s'appelle On a les propriétés intéressantes (mais non-exigibles) suivantes. Exercice 4.2.1 (#) Montrer les assertions suivantes : 2 /2 1) P(X > t) ≤ 12 e−t 2) P(X > t) ∼ 3) E[ezX ] = ez . 2 √ 1 e−t /2 . 2πt t→∞ 2 /2 pour tout z ∈ R. Solution. Preuve de 1) P[X > t] = (2π) −1/2 Z t Z ∞ e−x 2 /2 ∞ dx 2 e−(x+t) /2 dx 0 Z ∞ 1 2 2 −1/2 −t2 /2 ≤ (2π) e e−x /2 dx = e−t /2 . 2 0 = (2π) −1/2 Preuve de 2) 2 /2 et cette intégrale tend (2π)−1/2 e−t P[X > t] = t R ∞ −y vers e dy = 1. 0 Z 0 ∞ e−y e−y 2 /2t2 dy gaus- 80 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ Preuve de 3) zX E[e ∞ Z −1/2 2 ezx−x /2 dx −∞ Z ∞ 1 2 −1/2 z 2 /2 = (2π) e e− 2 (x−z) dx Z−∞ ∞ 1 2 2 2 e− 2 (x−z) dx = ez /2 . = (2π)−1/2 ez /2 ] = (2π) −∞ Loi Bêta Une variable aléatoire suit une loi Bêta de paramètre f (x) = et β>0 si sa densité est : 1 xα−1 (1 − x)β−1 1[0,1] (x), B(α, β) où Z 1 B(α, β) = Exercice 4.2.2 α>0 0 xα−1 (1 − x)β−1 dx. Démontrer que B(α, β) = Γ(α)Γ(β) . Γ(α + β) Nous terminons ce catalogue avec une dernière loi un peu moins classique. Loi de Weibull λ > 0 et k > 0 k x k−1 −(x/λ)k f (x) = e 1R+ (x). λ λ Une variable aléatoire suit une loi Weibull de paramètre si sa densité est : Cette loi est utilisée dans de nombreux domaines (par exemple en abilité, en logistique et en météo). Proposition 4.2.2 La fonction de répartition de la loi de Weibull est F (x) = 1 − e−(x/λ) pourx ≥ 0 et 0 si x < 0. k E[X] = λΓ(1 h + 1/k) 2 i 1 2 2 V[X] = λ Γ 1 + k − Γ 1 + k Démonstration. Exercice. Remarque 4.2.2 Il est intéressant de voir le rôle des paramètres dans la forme de la densité. 4.3 Vecteurs aléatoires à densité Dénition 4.3.1 Un vecteur aléatoire X de Ω dans Rp admet une densité s'il existe une fonction f : Rp → R positive, intégrable et d'intégrale valant 1, telle que : ∀ (x1 , ..., xp ) ∈ Rp P[X1 ≤ x1 , X2 ≤ x2 , ..., Xp ≤ xp ] = Z x1 Z x2 Z xp ... −∞ −∞ f (u1 , u2 , ..., up )du1 ...dup −∞ 4.3. VECTEURS ALÉATOIRES À DENSITÉ 81 4.3.1 Vecteurs aléatoires à densité : lois marginales, indépendance Proposition 4.3.1 Soit X un vecteur aléatoire à densité. Les variables aléatoires X1 , ..., Xp sont alors également à densité. Une densité pour Xi est fXi : x 7→ Z ∞ f (u1 , ..., ui−1 , x, ui+1 , ..., up )du1 ...dui−1 dui+1 ...dup −∞ Dénition 4.3.2 Les fonctions fXi , pour i = 1, ..., p sont appelées densités marginales du vecteur X . Théorème 4.3.2 (Théorème de factorisation) Soit X = (X1 , ..., Xp ) un vecteur aléatoire. Les variables aléatoires X1 , ...Xp sont indépendantes si et seulement si le vecteur X a une densité f à variables séparées : c'est à dire : Dans ce cas, on a : fi = λi fXi Démonstration. f (x1 , ..., xp ) = f1 (x1 )...fp (xp ). Q avec λi = 1. On démontre que si la densité s'écrit sous forme de produit alors les variables sont indépendantes : P[X1 ≤ x1 , ...., Xp ≤ xp ] = Z x1 Z xp f (u1 , ..., up )du1 ...dup ... Z−∞ xp Z−∞ x1 f1 (u1 )...fp (up )du1 ...dup Z x1 Z xp 1 1 = fp (up )dup f1 (u1 )du1 .. λ1 −∞ λp −∞ Z x1 Z xp fXp (up )dup = fX1 (u1 )du1 ... = ... −∞ −∞ −∞ −∞ = P[X1 ≤ x1 ]...P[Xp ≤ xp ] 4.3.2 Loi normale multidimensionnelle Dénition 4.3.3 (Vecteur gaussien) Un vecteur aléatoire X = (X1 , ..., Xp ) est un vecteur gaussien si pour tous réels λ1 , ..., λp , λ1 X1 + ...λp Xp suit une loi normale. Remarque 4.3.1 On en déduit que si A est une application linéaire de Rp dans Rd , et si X est gaussien dans Rp alors AX est gaussien dans Rd De façon plus explicite, on a la dénition suivante en terme de densité : Dénition 4.3.4 Soit m ∈ Rp , et Σ une matrice (p, p) réelle symétrique positive, X est un vecteur normal de dimension p si sa densité est donnée par 1 1 −1 f (x) = exp − h(x − m), Σ (x − m)i p 2 (2π)p/2 Det(Σ) 82 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ Σ est appelée matrice de variance-covariance. En eet, la matrice Σ est donnée = V(Xi ) et Σi,j = cov(Xi , Xj ). Si la matrice est diagonale, alors les variables ne sont La matrice par Σi,i pas corrélés. En fait, dans le monde gaussien une matrice diagonale correspond à un vecteur à composantes indépendantes. Théorème 4.3.3 Les composantes d'un vecteur gaussien sont indépendantes si et seulement si elles ne sont pas corrélées. Remarque 4.3.2 Il faut bien faire attention à ce que dit ce théorème. En général l'indépen- dance n'est pas équivalente à la corrélation nulle. Ce n'est vrai que si on a démontré au préalable que le vecteur est gaussien. En particulier, on peut construire des exemples de variables aléatoires X, Y de loi normale, telles que X et Y ne soient pas indépendantes et cov(X, Y ) = 0, bien sûr dans ce cas, le vecteur (X, Y ) n'est pas gaussien. Exercice 4.3.1 Montrer que si X et Y sont deux variables aléatoires réelles indépendantes de loi normale de paramètre m et σ 2 , alors X + Y et X − Y sont indépendantes. Indication : montrer que (X + Y, X − Y ) est un vecteur gaussien. 4.3.3 Sommes de deux variables aléatoires indépendantes : convolution On ne rentrera pas dans les détails. Le produit de convolution n'est pas au programme (mais est tombé en problème en 2001). On démontre que si densité indépendantes, alors X+Y X et Y sont deux variables aléatoires à est également à densité. On donne de plus une forme intégrale de sa densité. Théorème 4.3.4 (produit de convolution) Soit X une v.a.r de densité f et Y une v.a.r indépendante de densité g . La variable aléatoire Z = X + Y a pour densité : h : z 7→ Z ∞ −∞ f (z − y)g(y)dy. la fonction h est appelée convolée de f et g , et notée f ? g . Remarque 4.3.3 L'opération ? est l'opération de convolution, c'est une opération commu- tative, non inversible. Ce dernier point n'est pas trivial et peut faire l'objet d'un problème d'analyse. Démonstration. Soit z ∈ R, on cherche à exprimer la fonction de répartition de Z = X + Y . f et g les densités de X et Y . Ces variables étant indépendantes, la densité de (X, Y ) φ(x, y) = f (x)g(y). On intègre cette fonction de R2 sur le domaine {(x, y), x + y ≤ z} : Z P[X + Y ≤ z] = 1{(x,y),x+y≤z} g(x)f (y)dxdy R2 Z ∞ Z z−y = f (x)dx g(y)dy −∞ −∞ Z ∞ Z z = f (u − y)du g(y)dy −∞ −∞ Z z Z ∞ = f (u − y)g(y)dudy On note est −∞ avec le changement de variable u = x + y. −∞ 4.4. EXERCICES 83 Théorème 4.3.5 Soient X1 , ..., Xn des variables aléatoires indépendantes P de loi gaussienne 2 2 de paramètres respectifs (m n , σn ). La variable aléatoire Y = P1 n, σ1 ), ...,P(m gaussienne de paramètres i=1 mi , ni=1 σi2 . 4.4 n i=1 Xi suit une loi Exercices Exercice 4.4.1 (#) Déterminer c (si c'est possible) pour que les fonctions suivantes soient des densités de probabilité sur R : 1. f (x) = c1[a,b] (x) où a et b sont deux réels tels que a < b 2. f (x) = ce−αx 1[0,+∞[ (x), où α ∈ R c 3. f (x) = 1+x 2 α+1 1[a,+∞[ (x) pour a > 0 et α ∈ R. 4. f (x) = c xa 5. f (x) = c sin(2x + π4 )1[− π8 , π8 ] (x) Solution. 1. c = 1/(b − a) R∞ α ≤ 0, l'intégrale −∞ f (x)dx n'est pas convergente : il n'existe donc pas de c répondant −αx à la question. Si α > 0, x 7→ ce est intégrable sur ]0, +∞[ et l'intégrale vaut α. On a donc c = α. 2. Si 3. c = 1/π 4. Si 5. α ≤ 0, impossible. Si α > 0, c = α/a c=2 Exercice 4.4.2 (#) Soit X une variable aléatoire suivant une loi dont la densité de probabilité est donnée par fX : R −→ R+ −x2 /2 x 7−→ xe 1R?+ (x). Après avoir démontré leurs existences, déterminer l'espérance et la variance de la variable aléatoire X 2 . Solution. On pose Y = X 2 . On a alors E[Y ] = E[X 2 ] et V[Y ] = E[Y 2 ]−E[Y ]2 = E[X 4 ]−E[X 2 ]2 . L'existence de l'espérance et de la variance découle de la comparaison avec les intégrales de Riemann. Calcul de l'espérance. Par dénition, Z E[Y ] = +∞ x2 xe−x 2 /2 dx. 0 On introduit alors les fonctions suivantes u : R+ → R+ 2 x 7−→ −e−x /2 , v : R+ → R+ x 7−→ x2 , 84 CHAPITRE 4. On a alors VARIABLES ALÉATOIRES À DENSITÉ +∞ Z u0 (x)v(x)dx. E[Y ] = 0 Puisque u et E[Y ] = v sont de classe 2 [−x2 e−x /2 ]+∞ 0 C1 sur R+ , +∞ Z +2 la formule d'intégration par parties donne −x2 /2 xe Z +∞ xe−x dx = 2 0 2 /2 dx = 2[−e−x 0 2 /2 ]+∞ = 2. 0 Calcul de la variance. Nous avons ensuite +∞ Z 2 x4 xe−x E[Y ] = 2 /2 dx. 0 On introduit alors les fonctions suivantes u : R+ → R+ 2 x 7−→ −e−x /2 , v : R+ → R+ x 7−→ x4 , On a alors +∞ Z 2 u0 (x)v(x)dx. E[Y ] = 0 Puisque u et v sont de classe 2 E[Y ] = C 1 sur R+ , 2 [−x4 e−x /2 ]+∞ 0 la formule d'intégration par parties donne Z +∞ +4 3 −x2 /2 xe Z +∞ x2 xe−x dx = 4 0 2 /2 dx. 0 On eectue alors une nouvelle intégration par parties (ou alors on remarque que l'on a déjà fait le calcul plus haut) pour obtenir 2 Z E[Y ] = 8 +∞ xe−x 2 /2 dx = 8[−e−x 2 /2 0 ]+∞ = 8. 0 On en déduit que V[Y ] = E[Y 2 ] − E[Y ]2 = 4. Exercice 4.4.3 Pour quelles valeurs de α ≥ 0, l'espérance E(X α ) est-elle nie, si la densité de la loi de X est fX : R −→ R+ x 7−→ C(1 + x2 )−m où C ∈ R et m ∈ R. Réponse : α < 2m − 1. Exercice 4.4.4 Soient a < b deux réels. Calculer E e−X si X suit une loi uniforme sur l'intervalle [a, b], c'est-à-dire si la densité de X est fX = Réponse. E e−X = e−b −e−a . b−a 1 1 b−a [a,b] . 4.4. EXERCICES 85 Exercice 4.4.5 (#) 1. Soit F la fonction de répartition d'une variable aléatoire X . On suppose que F est bijective. Soit U une variable aléatoire uniforme sur [0, 1]. Montrer que F −1 (U ) a même loi que X . 2. On suppose que X est une v.a. à valeurs dans R et ayant pour densité : f : y 7−→ 1 π(1 + y 2 ) (on dit que X est une v.a. de Cauchy de paramètre 1). 3. Calculer la fonction de répartition de X . 4. Montrer que si U est une v.a. uniforme sur [0, 1], alors 1 Y = tan π U − 2 a même loi que X . Solution. 1. Déterminons la fonction de répartition de F −1 (U ) : P(F −1 (U ) ≤ x) = P(U ≤ F (x)) = F (x). 2. Z x F (x) = −∞ 3. F est strictement croissante F −1 . Soit y ∈ [0, 1], 1 π dy = Arctan(x) + . π(1 + y 2 ) π 2 et continue : F est donc inversible. Calculons son inverse 1 π 1 π y= Arctan(x) − ⇐⇒ π y − = Arctan(x) ⇐⇒ x = tan π y − π 2 2 2 −1 et donc F (y) = tan π y − π2 . On conclut que F −1 (U ) a même loi que X par question 1. la Exercice 4.4.6 (#) Soit X une variable aléatoire positive ayant une densité continue f et telle que E[X r ] est nie pour r ≥ 1. 1. Montrer que lim xr P(X > x) = 0. x→+∞ Indication : trouver une expression de P(X > x) en fonction de f . 2. En déduire que Z ∞ E[X r ] = rxr−1 P(X > x)dx. 0 Indication : Que vaut la dérivée de x 7−→ P(X > x) ? Solution. 86 CHAPITRE 4. 1. On a P(X > x) = R +∞ x f (t)dt VARIABLES ALÉATOIRES À DENSITÉ et donc r x P(X > x) = x r +∞ Z f (t)dt ≤ x et ce dernier terme tend vers 0 quand x → +∞ Z +∞ tr f (t)dt x puisque E[X r ] = R +∞ 0 tr f (t)dt est nie. 2. On fait une intégration par parties. Puisque f x > 0, (P(X > x))0 = −f (x). On a alors Z A h iA Z A r−1 r rt P(X > x)dt = t P(X > t) + tr f (t)dt est continue, on a pour 0 x Le premier terme tend vers 0 d'après a) et le second vers pour A > 0, 0 E[X r ] qui est nie. Exercice 4.4.7 (#) Soit X une variable aléatoire telle que X et 2X ont même fonction de répartition. Donner une équation vériée par la fonction de répartition de X et en déduire sa loi. Solution. On note F x ∈ R. On a x x F (x) = P(X ≤ x) = P(2X ≤ x) = P X ≤ =F . 2 2 x et en faisant tendre n En réitérant, on a alors que pour tous x ∈ R et n ∈ N, F (x) = F n 2 + − vers +∞, on a donc F (x) = F (0 ) si x > 0 et F (x) = F (0 ) si x < 0. Or, F est continue à + droite donc F (0 ) = F (0). La fonction F est donc constante sur ] − ∞, 0[ et sur [0, +∞[. Mais, par propriété des fonctions de répartition, F (−∞) = 0 et F (+∞) = 1. On en déduit que F (x) = 0 si x < 0 et F (x) = 1 si x ≥ 0, ce qui signie que P(X = 0) = 1 et donc X est nulle. la fonction de répartition de X. Soit Exercice 4.4.8 Soit X une variable aléatoire de loi exponentielle de paramètre λ. On désigne par [.] la fonction partie entière. 1) On pose Y = [X]. Donner la loi de Y , son espérance et sa variance. 2) Soit Z l'entier le plus proche de Y , donner la loi de Z . Exercice 4.4.9 Soit X une variable aléatoire de loi normale centrée réduite. On note Y = Déterminer la fonction de répartition de Y et sa densité. X2 2 . Exercice 4.4.10 Soient X et Y deux variables aléatoires réelles indépendantes de densités respectives f et g et de fonctions de répartition respectives F et G. Donner les densités de U = max(X, Y ) et V = min(X, Y ). Exercice 4.4.11 Soit X une variable aléatoire à densité. Soit g une fonction C 1 croissante. Montrer que Z E[g(X)] = g(0) + ∞ g 0 (t)P[X > t]dt 0 Exercice 4.4.12 Soit (X1 , ..., Xn ), n variables indépendantes identiquement distribuées. Dé- terminer la fonction de répartition de min(X1 , ..., Xn ). En supposant que la loi de X1 est une densité, exprimer la densité de min(X1 , ..., Xn ). 4.4. EXERCICES 87 Exercice 4.4.13 (Exercice fondamental) Soient X et Y deux variables aléatoires (à densité ou discrètes) avec un moment d'ordre 2. En pensant à l'inégalité de Cauchy-Schwarz, démontrer que p p E[Y 2 ] E[X 2 ]. E[XY ] ≤ Exercice 4.4.14 La durée en heures de fonctionnement d'un ordinateur est une variable aléa- toire continue de densité : x f : x 7→ λe− 36 1) Calculer si x ≥ 0; 0 sinon. λ. 2) Quelle est la probabilité que l'ordinateur fonctionne entre 10 et 36 heures ? 3) Quelle est la probabilité qu'il fonctionne moins de 36 heures ? Exercice 4.4.15 La RATP estime que le retard en minutes du bus 156 est une variable aléatoire X de densité de probabilité f avec f (x) = ax(10 − x) si x ∈ [0, 10] et 0 sinon. 1) Trouver a tel que f soit bien une densité de probabilité. 2) Calculer le retard moyen d'un bus et sa variance 3) Déterminer la fonction de répartition de X et calculer la probabilité qu'un bus ait un retard supérieur à 8 minutes. 4) Soit Y = X 2 , déterminer la fonction de répartition de Y puis sa densité de probabilité. Exercice 4.4.16 (#) Soit f la fonction dénie sur R par : 2 f (t) = (1 + t)3 f (t) = 0 si t ≥ 0 si t < 0 1. Montrer que f est une densité d'une variable aléatoire Z 2. Déterminer la fonction de répartition FZ de Z . 3. Justier la convergence de l'intégrale : Z 0 +∞ 2t dt (1 + t)3 La calculer en eectuant le changement de variable u = t + 1. 4. Prouver que Z admet une espérance et la déterminer. 5. Z admet-elle une variance ? Solution. 1. On vérie les caractéristiques d'une densité : f est positive sur continue sur ∗ R R 88 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ Z 0 0 si x ≥ 0 : FZ (x) = Z +∞ 3. l'intégrale 0 En +∞ en ±∞. −∞ f est bien une densité de variable Rx On a FZ (x) = f (t) dt donc −∞ si x < 0 : FZ (x) = 0 Z Z Donc 2. +∞ f est impropre f est prolongeable à gauche et à droite en 0 donc −∞ R0 R0 f = −∞ 0 = 0 (converge) −∞ K Z X Z K 2 1 1 f= =1− →1 3 dt = − 2 (1 + t) (1 + t) 0 (1 + K)2 0 0 Z +∞ Z +∞ f converge et vaut 1 et f converge et vaut 1. donc x 0+ −∞ 0 2t dt (1 + t)3 f =1− Z +∞ Or l'intégrale de Riemann 1Z d'intégrale à termes positifs, On eectue le changement de 0 1 (1 + x)2 n'est impropre qu'en on a un équivalent simple : dt : t = 0 ↔ r = 1 Z K aléatoire. +∞ 2t 2t 2 3 = 3 3 ∼ 2 > 0. t (1 + t) t (1 + 1/t) 1 dt t2 est convergente car 2 > 1. Donc par comparaison +∞ 2t dt converge. (1 + t)3 0 1 variable (u est de classe C sur [1, K + 1]) u = t + 1 : du ↔ Z K+1 Z K+1 2 2 2t 2 (u − 1) du = − du 3 dt = u3 u2 u3 (1 + t) 1 1 K+1 −2 −2 1 1 = +1 = + 2 + u u 1 K + 1 (K + 1)2 −→ 1 K→∞ Z donc 0 +∞ 2t dt = 1 (1 + t)3 4. Espérance ? On étudie la convergence Z R +∞ −∞ tf (t) dt impropre en 0 ±∞. tf (t) dt = 0 Z +∞ 2t tf (t) dt = 3 dt = 1 (d'après la question précédente) (1 + t) 0 0 R +∞ donc tf (t) dt converge et Z admet une espérance E (Z) = 1 −∞ Z−∞ +∞ 5. Comme 2t2 2 3 ∼ t (1 + t) dont l'intégrale diverge en +∞, alors Z2 n'a pas d'espérance et Z n'a pas de variance. Exercice 4.4.17 (#) On considère trois variables aléatoires X , Y et Z indépendantes et suivant la loi exponentielle de paramètre λ. 4.4. EXERCICES 89 1. Déterminer la loi de Y + Z (on pourra calculer sa densité). 2. (a) Déterminer la densité de la variable aléatoire D = Y + Z − X sur R+ . (b) Calculer P(X ≤ Y + Z). 3. Déterminer l'événement complémentaire de l'événement {X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y } et calculer sa probabilité. 4. Quelle est la probabilité pour qu'on puisse construire un triangle (éventuellement aplati) dont les côtés aient pour longueurs X , Y et Z ? solution 1. Y +Z est encore une variable aléatoire à valeurs dans dantes, une densité fY +Z x>0 Z de −∞ 2. fY +Z (x) = 0 pour (a) La variable aléatoire x > 0, pour fY (t)fZ (x − t)dt = 0 Y +Z −X . On R dans R. On a donc besoin de calculer la densité de une fonction continue bornée de +∞ −λy E[Φ(−X)] = Φ(−y)λe u=−y x > 0, Z −X est donc (4.2) utilise la méthode vue en TD. Z 0 Φ(u)λeλu du. dy = 0 La densité de et, à nouveau par convolution, fY +Z (t)f−X (x − t)dt. −∞ Z −∞ u 7−→ λeλu 1]−∞,0] (u) et en revenant à (4.2), on a pour +∞ fD (x) = 2 λ te −λt sont indépen- +∞ fD (x) = Φ Z et λe−λt λe−λ(x−t) = λ2 xe−λx . est indépendante de Z Soit Y x Z x ≤ 0. −X et comme peut être dénie par convolution, ce qui donne pour +∞ fY +Z (x) = De plus, Y +Z R+ λ(x−t) 1[0,+∞[ (t)λe −∞ 3 λx 1]−∞,0] (x − t)dx = λ e Z +∞ te−2λt dt. x Le calcul de cette intégrale se fait à l'aide d'une intégration par parties, ce qui donne pour x>0 λ (2λx + 1)e−λx . 4 fD (x) = (b) On a P(X ≤ Y + Z) = P(D ≥ 0) = Z 0 +∞ λ fD (x)dx = 4 En intégrant à nouveau par parties, on obtient : Z +∞ (2λx + 1)e−λx dx. 0 P(D ≥ 0) = 3/4. 90 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ C = {X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y }. L'événement complémentaire est C = {X > Y + Z} ∪ {Y > Z + X} ∪ {Z > X + Y }. Les trois événements constituant la réunion précédente sont deux à deux disjoints (si on avait par exemple {X > Y + Z} et {Y > Z + X}, on aurait {X > 2Z + X}, ce qui est clairement impossible puisque Z + est à valeurs dans R ). De plus, d'après la question b), chacun de ces événements a pour probabilité 1/4. c On en déduit que P(C ) = 3/4. 3. Posons c 4. On peut construire un triangle de côtés donnés si et seulement si chacun de ces nombres est inférieur ou égal à la somme des deux autres, ce qui correspond à la réalisation de l'événement C de probabilité 1/4 . Exercice 4.4.18 Dans cet exercice, n désigne un entier naturel non nul. nxn−1 si x ∈ [0; 1] 0 sinon 1. Soit fn la fonction dénie par : fn (x) = Montrer que fn est une densité de probabilité. 2. On considère une variable aléatoire Xn réelle dont une densité de probabilité est fn . On dit alors que Xn suit une loi monôme d'ordre n. (a) Reconnaître la loi de X1 . (b) Dans le cas où n est supérieur ou égal à 2, déterminer la fonction de répartition Fn de Xn , ainsi que son espérance E (Xn ) et sa variance V (Xn ). 3. On considère deux variables aléatoires Un et Vn dénies sur le même espace probabilisé (Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles vérient en particulier l'égalité suivante : ∀x ∈ R, P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x) On pose Mn = sup (Un , Vn ) et on admet que Mn est une variable aléatoire dénie, elle aussi, sur (Ω, A, P ). (a) Pour tout réel x, écrire, en justiant la réponse, l'événement (Mn 6 x) à l'aide des événements (Un 6 x) et (Vn 6 x). (b) En déduire une densité de Mn . Vérier que Mn suit une loi monôme dont on donnera l'ordre, puis déterminer sans calcul E (Mn ). (c) On pose Tn = inf (Un , Vn ). Exprimer Mn + Tn en fonction de Un et Vn , puis en déduire, sans calcul d'intégrale, la valeur de E (Tn ). Dans cet exercice, n désigne un entier naturel non nul. 1. Soit fn la fonction dénie par : nxn−1 si x ∈ [0; 1] 0 sinon R− {0, 1} (en fait, en 0 elle fn (x) = fn est positive sur R et continue sur R +∞ f n est impropre en ±∞ car fn est continue par morceaux R−∞ R0 0 f = −∞ 0 converge et est nulle. −∞ n R +∞ R +∞ fn = 1 0 = 0 1 R1 R 1 n−1 f = nx dx = [xn ]1x=0 = 1 car 0n = 0 pour n ∈ N∗ n 0 0 R +∞ Donc f converge et vaut 1. −∞ n Donc fn est bien une densité de probabilité. est continue) sur R 4.4. EXERCICES 91 2. On considère une variable aléatoire dit alors que Xn Xn réelle dont une densité de probabilité est suit une loi monôme d'ordre (a) Pour sur n = 1 la densité est : f1 (x) = 1 0 fn . On n. si x ∈ [0; 1] sinon donc X1 suit une loi uniforme [0, 1] (b) La fonction de réparition de Xn est donnée par : Rx Fn (x) = −∞ f où il faut distinguer suivant que x < 0 : 0 ≤ x ≤ 1 et x > 1 : Rx si x < 1 alors Fn (x) = 0=0 −∞ R Rx 0 si 0 ≤ x ≤ 1 alors Fn (x) = 0 + 0 ntn−1 dt = 0 + [tn ]x0 = xn −∞ Rx R 1 n−1 R0 0 = 0 + [tn ]10 + 0 = 1 nt dt + 0 + si 1 < x alors Fn (x) = 1 0 −∞ R +∞ Pour calculer E (Xn ) on étudie la convergence et on calcule tfn (t) dt qui −∞ impropre en ±∞ R0 R0 t fn (t) dt = −∞ 0 = .0 −∞ R +∞ R +∞ 0=0 t f (t) dt = n 1 Z1 1 Z 11 Z 1 n n+1 n n−1 n t fn (t) dt = t nt dt = nt dt = t = n+1 n+1 0 0 0 t=0 n Donc Xn a une espérance et E (Xn ) = n+1 1 Z 1 Z 1 n n+2 n n+1 2 2 nt dt = t fn (t) dt = = De même pour E Xn = t n+2 n+2 0 0 0 Donc X a une variance et 2 n n 2 2 V (Xn ) = E Xn − E Xn = − n+2 n+1 2 n + 2n + 1 − n (n + 2) = n (n + 2) (n + 1)2 n = (n + 2) (n + 1)2 est Un et Vn dénies sur le même espace probabilisé (Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles 3. On considère deux variables aléatoires vérient en particulier l'égalité suivante : ∀x ∈ R, Mn = sup (Un , Vn ) sur (Ω, A, P ). On pose aussi, (a) P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x) (Mn 6 x) et on admet que Mn est une variable aléatoire dénie, elle x c'est à dire tous sont x et (Mn 6 x) = (Un 6 x) ∩ (Vn 6 x) Comme Un et Vn sont indépendantes, on a alors : p (Mn 6 x) = p (Un 6 x)·p (Vn 6 x) En notant F la fonction de répartition d'une loi monôme et G celle de Mn on a est l'événement le plus grand es tplus petit que plus petit que (b) alors : G (x) = F (x) · F (x) = F (x)2 pour tout x réel. Comme F est la fonctio de répartition d'une variable à densité, on sait 92 CHAPITRE 4. que F VARIABLES ALÉATOIRES À DENSITÉ est continue sur 1 C sur F 0 = fn de classe et que R R− {0, 1} (là où fn est continue) Donc que G G est continue sur de classe R comme R− {0, 1} composée de fonctions continues. 0 est une variable à densité et suit une E (Mn ) = 2xn nxn−1 = 2nx2n−1 si x ∈ [0; 1] 0 sinon loi monôme d'ordre 2n G = 2F (x) F (x) = 2F (x) fn (x) = Mn et donc sur 0 et que Donc C 1 2n 2n + 1 Tn = inf (Un , Vn ). On a Mn + Tn = Un + Vn (car l'un est le plus petit et l'auter le plus grand) n 2n De plus E (Un ) = E (Vn ) = alors E (Un + Vn ) = E (Un ) + E (Vn ) = n+1 n+1 Et comme Tn = Mn + Tn − Mn = Un + Vn − Mn on a nalement (c) On pose E (Tn ) = E (Un + Vn ) − E (Mn ) 2n 2n − = n + 1 2n + 1 2n2 = (n + 1) (2n + 1) Exercice 4.4.19 (Inégalité de Paley-Zigmund) Soit X une variable positive, non nulle, ayant un moment d'ordre 2. Montrer P (X ≥ αE[X]) ≥ (1 − α)2 (E[X])2 E[X 2 ] pour tout α ∈]0, 1[. Exercice 4.4.20 (#) Soit X une variable aleatoire normale de moyenne µ = 2 de variance σ 2 = 4. 1. Soit la variable T = (X − µ)/σ . Quelle loi de probabilité suit T ? 2. On considère l'événement {X < 1, 5}. Quel est l'événement équivalent pour T ? Quelle est la probabilité correspondante ? 3. Même question pour l'évenement {X > −2}. 4. Soit l'évenement {−1 ≤ T < 1}. Quel est l'événement équivalent pour X ? Quelle est sa probabilité ? 5. Déterminer les valeurs x telles que P(X < x) = 0, 76 ; P(X ≥ x) = 0, 6 et P(0 ≤ X < x) = 0, 40. Solution. 2. P(X < 1, 5) = P(T < −0, 25) = 1 − P(T ≤ 0, 25) = 0, 401 3. P(X > −2) = P(T > −2)P(T ≤ 2) = 0, 977 4.4. 4. EXERCICES 93 P(−1 ≤ T < 1) = P(T < 1)−P(T < −1) = P(T < 1)−P(T > 1) = P(T < 1)−(1−P(T ≤ 1)) et donc P(−1 ≤ T < 1) = 2P(T < 1) − 1 = 0, 682 . 5. x−2 ). Donc x−2 2 2 P(X < x) = P(T < P(X ≥ x) = P T ≥ x−2 2 = 0, 71 =P T ≤ 2−x 2 et x = 3, 42 et donc . x = 1, 5 . = P T < x−2 − P (T < −1) . On a alors P(0 ≤ X < x) = P −1 ≤ T < x−2 2 2 x−2 x−2 P(0 ≤ X < x) = P T < − 1 + P(T ≤ 1) = P T < − 0, 16 2 2 P(T ≤ 1) = 0, 84). = 0, 56. On a alors-+ x = 2, 3 (car d'après la table de la loi normale, x On cherche donc tel que P T < x−2 2 . Exercice 4.4.21 (#) Le taux de glycémie d'une population est répartie suivant une loi nor- male. Une enquête auprès de l'ensemble de cette population montre que 84,1% des individus ont un taux inférieur à 1,40 g/l et 2,3% ont un taux supérieur à 1,60 g/l. 1. A l'aide de la table de la loi normale, déterminer la moyenne et la variance du modèle. 2. En admettant qu'un taux de glycémie supérieur à 1,30 g/l nécessite un traitement, quel pourcentage de cette population devra t'on traiter ? Solution. 1. Notons respectivement note X. m et σ2 la moyenne et la variance du taux de glycémie que l'on On a 0, 841 = P(X < 1, 4) = P X −m 1, 4 − m < σ σ . N (m, σ 2 ), N = X−m est une v.a. normale σ 1,4−m utilisant la table de la loi normale, on a donc = 1. De même, σ Comme X est une v.a. normale N (0, 1). En 1, 6 − m 0, 977 = P(X < 1, 6) = P N < σ et 1,6−m σ = 2. Pour trouver m et σ, il sut donc de résoudre le système σ + m = 1, 4 2σ + m = 1, 6 qui a pour solution 2. Il sut de calculer m = 1, 2 σ = 0, 2 . X est donc une v.a. N (1, 2; 0, 04). P(X > 1, 3) = P(N > 0, 5) = 1 − P(N ≤ 0, 5) = 0, 31 . Exercice 4.4.22 (#) Soit X une variable aléatoire gaussienne centrée et réduite (on note X ∼ N (0, 1)). Trouver la densité de la variable aléatoire Y = X 2 . Solution. La densité de X 2 est e−y/2 f (y) = √ 1[0,+∞[ (y). 2πy 94 CHAPITRE 4. Exercice 4.4.23 On considère N de loi normale P(ε = −1) = P(ε = 1) = 1/2. 0 1. Montrer que N := εN a même loi que N loi que N ). 0 2. Est-ce que N + N est une v.a. normale ? VARIABLES ALÉATOIRES À DENSITÉ N (0, 1) et ε, indépendante de (on pourra d'abord montrer que N, −N telle que a même Solution. 1. Calculons la fonction de répartition de N 0. Pour x ∈ R, P(N 0 ≤ x) = P(εN ≤ x) = P(ε = 1, εN ≤ x) + P(ε = −1, εN ≤ x) = P(ε = 1, N ≤ x) + P(ε = −1, N ≥ −x) = P(ε = 1)P(N ≤ x) + P(ε = −1)P(N ≥ −x) puisque les variables ε et N sont indépendantes. De plus, en utilisant la dénition de ε et la propriété de symétrie de la loi normale centrée réduite, 1 1 P(N 0 ≤ x) = P(N ≤ x) + P(N ≤ x) = P(N ≤ x). 2 2 Les 2 v.a. N et N0 ont donc même fonction de répartition : elles ont donc même loi. 2. En utilisant l'indépendance de N et ε, on remarque que 1 1 ·1= 2 2 (on rappelle que comme N est une variable à densité, on a P(N 6= 0) = 1−P(N = 0) = 1). 0 0 On a donc montré que P(N + N = 0) = 1/2. Cette probabilité étant non nulle, N + N P(N + N 0 6= 0) = P((ε + 1)N 6= 0) = P(ε + 1 6= 0)P(N 6= 0) = ne peut pas être une variable à densité et a fortiori pas une v.a. normale. N et N 0 sont N + N 0 est une Rappel de cours : Si pendantes, alors N (µ1 , σ12 ) N (µ1 + µ2 , σ12 + σ22 ). deux variables normales v.a. normale et N (µ2 , σ22 ) indé- Cet exercice fournit donc un contre-exemple à cette propriété quand les 2 v.a. sont dépendantes. Exercice 4.4.24 (dicile) Soient a et b deux réels strictement positifs et s ∈]0, 1[. R 1) Etablir la convergence de l'intégrale J = aJ ). . Calculer sa valeur (indication calculer +∞ 1 du eu +a 0 On considère une suite de variables aléatoires (Yk )k≥1 dénies sur (Ω, F, P), indépendantes et suivant la même loi exponentielle de paramètre b. On considère également sur le même espace probabilisé Ω, une variable aléatoire N indépendantes des Yk , suivant une loi géométrique de paramètre s. On va étudier Z := max{Y1 , ..., YN }. ? 2) Soit j ∈ N et t > 0. Calculer la probabilité conditionnelle P[Z ≤ t|N = j] 3) En déduire la fonction de répartition de Z et déterminer une densité. 4) Montrer que Z a une espérance et que l'on a E[Z] = − ln(s) . b(1 − s) Seul le résultat de la question 4 est nécessaire pour traiter les questions suivantes : 4.4. EXERCICES 95 5) Soit g la fonction dénie sur [0, ∞[ par g(0) = 1 et g(t) = Montrer que g est continue et bornée sur [0, +∞[. Etablir que pour tout t > 0 et n ∈ N, on a l'égalité g(t) = g(t)e −(n+1)t + n X te−t 1−e−t pour t > 0. te−(k+1)t . k=0 +∞ −(k+1)t dt etP la calculer. 6) Justier la convergence R ∞ de l'intégrale 0 te 1 7) Montrer alors que 0 g(t)dt est convergence et égale à ∞ k=1 k2 P∞ 1 2 8) On rappelle que k=1 k2 = π6 . Montrer que la valeur moyenne de la quantité E[Z] sur ]0, 1[, R 1 − ln(s) 2 c'est à dire 0 b(1−s) ds, est égale à π6b . R Exercice 4.4.25 On considère une fonction F F (x) = a 1) Déterminer les valeurs de dénie par x ≤ −1 , si F (x) = bx + c si x ∈] − 1, 1[ , F (x) = d si x≥1. a, b , c d et pour que F soit une fonction de répartition d'une variable aléatoire à densité. 2) Représenter graphiquement F. 3) Déterminer la densité de probabilité associée à Exercice 4.4.26 Soit f la fonction de R ∀x ∈ [2, 4[ f (x) = λ 1) Déterminer 3) pour que f R+ 1 ; (1 − x)2 dénie par f (x) = 0 x ∈ / [2, 4[ . soit une densité de probabilité. f . Déterminer sa fonction de répartition F . Calculer l'espérance E(X) et la variance V (X) de la variable aléatoire X . On pourra utiliser 2) Soit X λ∈R dans F. une variable aléatoire de densité les égalités x = (x − 1) + 1 , Exercice 4.4.27 Soit X x2 = (x − 1)2 + 2(x − 1) + 1 . une variable aléatoire réelle de densité pX . Déterminer la densité de Y dans les cas suivants : Y = aX + b où a, b sont des nombres réels et a 6= 0 ; Y = X2 ; Y = exp(X). la variable aléatoire Résoudre cet exercice en utilisant les deux méthodes suivantes : le calcul de la fonction de répartition, l'utilisation du théorème de transfert. Exercice 4.4.28 Soit X une variable aléatoire de loi normale centrée réduite. Démontrer que pour tout variable aléatoire X k ∈ N, X R∞ 0 x2 xk e− 2 dx est convergente. En déduire que la admet des moments de tout ordre. admet x2 x ∈ R 7→ px (x) = √12π e− 2 0 comme espérance et 1 comme Démontrer que l'application Montrer que l'intégrale est bien une densité de probabilité. variance. 96 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ Y = σX + m avec σ, m deux réels non-nuls suit une loi que Y admet des moments de tout ordre et a pour espérance Montrer que la variable aléatoire normale m N (m, σ). σ2. En déduire et variance Exercice 4.4.29 FX (x) On considère une variable aléatoire réelle si x<0 x x FX (x) = 1 − (1 + )e− 2 2 1) FX (x) est-elle continue sur R ? 2) Déterminer limx→+∞ FX (x). Interprétation ? 3) Calculer la densité de probabilité fX (x). Quel est le 4) Calculer l'espérance et l'écart-type de X . représentative de FX (x). 5) Calculer P (1 ≤ X < 2). Exercice 4.4.30 Soit T si fT (t) = λ(1 − t2 ) x≥0 mode de X? t∈ / [−1, +1] si t ∈ [−1, +1] fT (t). Déterminer la fonction de répartition FT (t) et tracer sa courbe représentative. 1 . Représenter cette probabilité sur Calculer la probabilité de l'événement |T | ≥ 2 1) Calculer λ si une variable aléatoire réelle, de densité de probabilité : fT (t) = 0 3) dont la fonction de répartition est donnée par : FX (x) = 0 2) X et représenter graphiquement chacun des deux graphiques précédents. 4) Calculer l'espérance et la variance de Exercice 4.4.31 bilité, fU Soit U est dénie par T. Quelle est sa médiane ? une variable aléatoire de loi uniforme sur fU (x) = 1[0,1] (x)). [0, 1] ( sa densité de proba- On pose 1 X = − ln(U ) ; λ FX est la fonction de répartition de X et fX sa densité de probabilité. 1. Rappeler la fonction de répartition FU (x) = P (U ≤ x), x ∈ R, de la variable aléatoire U . 2. Déterminer la fonction de répartition FX et la densité de probabilité de la variable aléatoire X. 3. Quelle est la loi de X ? Donner les valeurs de E(X) et V (X). On rappelle que Z +∞ xn e−x dx = n! . 0 Exercice 4.4.32 La durée en heures de fonctionnement d'un ordinateur est une variable aléa- toire continue de densité : x f : x 7→ λe− 100 1) Calculer si x ≥ 0; 0 sinon. λ. 2) Quelle est la probabilité que l'ordinateur fonctionne entre 50 et 100 heures ? 4.4. EXERCICES 97 3) Quelle est la probabilité qu'il fonctionne moins de 100 heures ? Exercice 4.4.33 (Inégalité de Paley-Zigmund) ayant un moment d'ordre 2. P (X ≥ αE[X]) ≥ (1 − pour tout α ∈]0, 1[. Soit X une variable positive, non nulle, Montrer 2 2 (E[X]) α) E[X 2 ] 98 CHAPITRE 4. VARIABLES ALÉATOIRES À DENSITÉ Chapitre 5 Théorèmes limites Dans ce chapitre, on s'intéresse au comportement asymptotique de suites de variables aléatoires. Deux théorèmes majeurs en probabilité sont au programme. La loi des grands nombres. Le théorème de la limite centrale (ou théorème central limite) Il y a plusieurs versions du premier théorème et nous nous bornerons à la version faible. Le premier théorème est qualié de "loi". Ce théorème fait la jonction entre la dénition axiomatique que l'on a donnée et l'approche démontrer que si A fréquentiste, qui nous a servi de motivation : nous allons est un événement associé à une expérience, alors : nombre de fois que A se réalise nombre de fois que l'on fait l'expérience −→ P(A) Le deuxième théorème permet d'étudier les uctuations de ces quantités autour de la limite. C'est un théorème central en statistiques. Nous considérons des variables aléatoires soit discrètes, soit à densité. 5.1 Notions de convergence de suites aléatoires 5.1.1 Convergence en probabilité et loi faible des grands nombres. Dénition 5.1.1 Soit (Xn , n ≥ 1) une suite de v.a.r. et X une v.a.r. dénies sur le même espace probabilisé. La suite (Xn , n ≥ 1) converge en probabilité si : ∀a > 0, P[|Xn − X| > a] −→ 0. n→∞ Cela signie donc que la probabilité que l'écart entre Xn et convergence correspond à une certaine distance sur l'espace X L0 dépasse a tend vers 0. Cette des variables aléatoires, c'est hors programme (voir par exemple Zuily-Quéelec : Analyse pour l'agrégation p515) Inégalités de Markov et de Tchebychev Proposition 5.1.1 (Inégalité de Markov) Soit X une variable possédant un moment d'ordre 1 alors : ∀a > 0, P[|X| > a] ≤ 99 E[|X|] a 100 CHAPITRE 5. THÉORÈMES LIMITES Démonstration. Soit A = {|X| > a}, on a E[1A ] = P(A). De plus |X| = |X|1|X|≤a + |X|1|X|>a ≥ a1|X|>a d'où P[|X| > a] ≤ E[|X|] . a Proposition 5.1.2 (Inégalité de Tchebychev) Soit X une variable possédant un moment d'ordre 2, alors ∀a > 0, P[|X − E(X)| > a] ≤ Démonstration. V(X) . a2 C'est immédiat par l'inégalité de Markov appliquée à Y = |X − E(X)|2 . Vous pouvez également suivre le même argument que précédemment (à savoir faire). Théorème 5.1.3 (Loi faible des grands nombres I) Soit (Xn , n ≥ 1) une suite de va- riables aléatoires réelles dénies sur un même espace (Ω, F, P) indépendantes, de même Pn es1 pérance et variance. On dénit la moyenne empirique des variables (Xn ) par Zn = n i=1 Xi . Alors, Zn −→ E[X1 ] en probabilité. n→∞ Démonstration. L'inégalité de Tchebyche nous donne V Snn Sn Sn Sn P | −E |> t = P | − E[X]|> t ≤ . n n n t2 D'autre part V Sn n 2 t 1 V(Sn ). n2 t2 = Par indépendance, cette dernière quantité est égale à n 1 X V(X) V(Xi ) = . 2 2 n t i=1 nt2 On conclut que Sn converge en probabilité vers la constante n E[X]. Dénition 5.1.2 Sous réserve d'existence des quantités manipulées, on dit que la suite (Xn , n ≥ 1) converge en moyenne vers X si lim E (|Xn − X|) = 0 n→∞ converge en moyenne quadratique vers X si lim E (|Xn − X|2 ) = 0 n→∞ Proposition 5.1.4 Si (Xn , n ≥ 1) converge en moyenne vers X , alors E[Xn ] −→ E[X] n→∞ Démonstration. Par la seconde inégalité triangulaire ||E[Xn ]| − |E[X]|≤ E[|Xn − X|] La quantité à droite tend vers 0 par dénition. On énonce alors le théorème suivant : 5.1. NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES 101 Théorème 5.1.5 (Convergence en moyenne quadratique) Soit (Xn , n ≥ 1) une suite de variables aléatoires réelles indépendantes de même loi etPde carré intégrable (i.e possédant un moment d'ordre 2). La suite des moyennes empiriques n1 ni=1 Xi converge en moyenne quadratique vers E[X1 ]. Démonstration. On a : n 1X E || Xi − E[X1 ]|2 n i=1 ! n =V 1X Xi n i=1 ! . Or par indépendance, et car les variables on même loi, on a : n V 1X Xi n i=1 On obtient la convergence souhaitée. ! = n 1 X 1 V(Xi ) = V(X1 ). 2 n i=1 n Proposition 5.1.6 La convergence en moyenne quadratique implique la convergence en moyenne, qui implique la convergence en probabilité. Démonstration... 5.1.2 Convergence en loi Dénition 5.1.3 Soit (Xn , n ≥ 1) une suite de variables aléatoires. On note leur fonction de répartition Fn . Soit X une variable aléatoire. de fonction de répartition F . On dit que (Xn , n ≥ 1) converge en loi vers X et on note L Xn −→ X n→∞ Si pour tout x point de continuité de F on a Fn (x) −→ F (x). n−→∞ Comme son nom l'indique, cette convergence est relative aux lois des variables et pas aux variables elles-mêmes contrairement à la convergence en probabilité, on ne peut pas munir L0 d'une distance pour cette convergence (on peut le faire pour les mesures de probabilités associées). On admet la proposition suivante : Proposition 5.1.7 (Convergence en loi et fonctions tests) L Xn −→ X n→∞ si et seulement si, pour toute fonction continue bornée φ de Rd dans R, on a E[φ(Xn )] −→ E[φ(X)]. n→∞ La proposition nous permet de prendre des fonctions continues bornées à la place d'indicatrice de fermés. Sa démonstration (que nous ne faisons pas) est basée sur une approximation de l'indicatrice par des fonctions régulières. La démonstration n'est pas triviale et n'est pas au programme. 102 CHAPITRE 5. THÉORÈMES LIMITES Proposition 5.1.8 On a l'implication suivante Xn −→ X en probabilité =⇒ Xn −→ X en loi. n→∞ n→∞ La réciproque est fausse. Démonstration. On va utiliser la proposition précédente. Soit qui converge en probabilité vers X. Si φ elle est uniformément continue. Pour tout |φ(x) − φ(y)| ≤ . (Xn , n ≥ 1) une suite de v.a est une fonction continue à support compact, alors > 0, il existe η > 0 On a donc tel que si |x − y| ≤ η on a |E[φ(Xn ) − φ(X)]| ≤ E[|φ(Xn ) − φ(X)|] = E[|φ(Xn ) − φ(X)|1{|Xn −X|≤η} ] + E[|φ(Xn ) − φ(X)|1{|Xn −X|>η} ] ≤ + 2||φ||∞ P[|Xn − X| > η]. On a donc lim sup|E[φ(Xn ) − φ(X)]| ≤ . n→∞ Ceci est vrai pour tout >0 donc lim |E[φ(Xn ) − φ(X)]| = 0, n→∞ on conclut par la proposition précédente. 5.1.3 Approximations de certaines lois et théorème central limite Théorème 5.1.9 (Approximation loi hypergéométrique-loi binomiale) Soit (Xk , k ≥ 1) une suite de variables aléatoires de loi hypergéométrique de paramètres (k, n, p). La suite (Xk , k ≥ 1) converge en loi vers une variable X binomiale de paramètre (n, p) Remarque 5.1.1 La loi hypergéométrique résulte d'un tirage sans remise alors que la loi binomiale d'un tirage avec remise. A la limite, que l'on "remette les boules" dans l'urne ou pas, on obtient la loi binomiale. Démonstration. Tout d'abord, la variable Xk prend ses valeurs dans [| max{0; n−k(1−p)}, min{n, kp}|]. On a de plus kp j P[Xk = j] = k(1−p) n−j k n (kp)! k(1 − p) n!(k − n)! × × j!(kp − j)! (n − j)!(k(1 − p) − n + j)! n! n (kp)! k(1 − p) (k − n)! = × × . j (kp − j)! (k(1 − p) − n + j)! n! = En remarquant que q! (q−l)! = Alq ∼ q l , q→∞ on obtient n (N p)k (N (1 − p))n−k n k P[Xk = j] ∼ = p (1 − p)n−k . n k→∞ k N k 5.1. NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES 103 k , n − k(1 − p) ≤ 0 et kp ≥ n, Xk prend donc ses valeurs dans [|0, n|]. obtenue, pour tout j ∈ [|0; n|], P[Xk = j] −→ P[X = j], où X suit une A partir d'un certain rang D'après l'équivalence loi binomiale. On en déduit la convergence simple des continuité de F. En eet, si x ∈ [0, n] \ [|0, n|], Fk (x) = P[Xk ≤ x] = Pour conclure, il reste à remarquer [x] X j=0 x alors Fk k→∞ vers F sur l'ensemble des points de est un point de continuité de P[Xk = j] −→ k→∞ [x] X F et P[X = j] = F (x). j=0 Fk (x) = F (x) = 0 si x < 0 et Fk (x) = F (x) = 1 si x > n. Théorème 5.1.10 (Approximation de la loi binomiale par la loi de Poisson) Soit (Xk , k ≥ 1) une suite de variables aléatoires réelles. Chaque Xk suit une loi binomiale de paramètres k, λk . Le réel λ est xé. Alors la suite (Xk , k ≥ 1) converge en loi vers X une variable aléatoire de Poisson de paramètre λ. démonstration. Dans la preuve du théorème précédent, on a vu qu'il était en fait susant pour les variables discrètes de montrer les convergences des probabilités On a pour tout P[Xk = j] vers P[X = j]. k ≥ j, k j P[Xk = j] = p (1 − p)k−j j k−j j λ k λ 1− = k k j −j k λ 1− k λj k! λ λj −λ = e . 1 − −→ k→∞ j! j! (k − j)! kj k La dernière ligne vient du fait que λ 1− k k −→ e−λ k→∞ (à savoir démontrer) et de 1 − λk k! (k − j)! kj −j −→ 1. k→∞ Théorème 5.1.11 (Théorème central limite) Soit (Xn , n ≥ 1) une suite de variables aléa- toires réelles indépendantes et de même loi, admettant une espérance (notée m) et une variance (notée σ 2 ). Soit Sn = n X Xi . i=1 On a E[Sn ] = nm et V (Sn ) = nσ 2 . La suite des variables aléatoires centrées réduites : Sn − nm √ ;n ≥ 1 nσ converge en loi vers une loi gaussienne N (0, 1). Autrement dit : Sn − nm P a≤ √ ≤b nσ 1 −→ √ n→∞ 2π Z a b 2 /2 e−t dt 104 Démonstration. CHAPITRE 5. THÉORÈMES LIMITES La preuve la plus ecace repose sur les fonctions caractéristiques, outils que élémentaires. nous ne développons pas dans ce cours. Il existe des preuves Nous verrons en problème, un cas particulier. Pour le cas général, voir par exemple l'article de Jérôme Depauw 1 Le théorème central limite met en avant le caractère universel de la loi gaussienne, il justie la modélisation d'une erreur aléatoire par une loi normale. Souvent, une erreur aléatoire est modélisée par l'addition d'un grands nombres d'événements indépendants. Proposition 5.1.12 (intervalle de conance) Supposons que V(X1 ) = 1, on déduit du théorème précédent le résultat suivant : la probabilité que E[X1 ] se trouve dans l'intervalle aléatoire " n n 1X b 1X a Xi − √ , Xi − √ n i=1 n n i=1 n # est égale à 1 P(a ≤ Z ≤ b) = √ 2π Z b x2 e− 2 dx. a Cette dernière vaut environ 0.95 pour b = −a = 1.96. On dit alors que l'intervalle " n n 1X 1.96 1 X 1.96 Xi − √ , Xi + √ n i=1 n n i=1 n # est un intervalle de probabilité (on dit aussi intervalle de conance) pour le paramètre de la moyenne θ = E[X1 ] à 95% On termine ce chapitre en mentionnant la loi forte des grands nombres. Ce théorème dépasse le cadre du cours mais est fondamental en théorie des probabilités. 5.1.4 Convergence presque-sûre et loi forte des grands nombres Dénition 5.1.4 On dit que la suite (Xn , n ≥ 1) converge presque-sûrement vers X , si P {ω ∈ Ω; Xn (ω) −→ X(ω)} = 1. n→∞ Cette notion de convergence est très forte. Elle implique la convergence en probabilité (mais n'est pas équivalente). Pour établir la convergence presque-sûre d'une suite de variables aléatoires des informations précises sur la tra jectoire de la suite sont nécessaires (et rarement accessibles). On peut maintenant énoncer la loi forte des grands nombres. Théorème 5.1.13 (Loi forte des grands nombres) Soit (Xn , n ≥ 1) une suite de variables indépendantes avec un moment d'ordre 1, alors lim n1 Pn i=1 Xi = E[X1 ] presque sûrement. 1. disponible ici : www.lmpt.univ-tours.fr/∼depauw/TCLRMS_WEB.pdf. 5.2. EXERCICES. 105 La démonstration de ce théorème requiert au minimum le ment issu des axiomes posés sur la probabilité d'événements (Ai , i ≥ 1) P lemme de Borel-Cantelli, directe- dans la dénition. Si on considère une suite indépendants de même probabilité p. La variable aléatoire n 1X 1A n i=1 i E[X1 ] = p. La loi faible des grands nombres nous dit que cette fréquence converge en probabilité vers p. La loi correspond à la fréquence d'apparition des événements Ai pour i entre 1 et n, et forte nous dit que cette convergence est presque-sûre et nous permet de revenir à la dénition heuristique d'une probabilité en tant que limite d'une fréquence d'apparition... 5.2 Exercices. ? Exercice 5.2.1 Soit (Xn , n ≥ 1) une suite de variables aléatoires de loi géométrique sur N de paramètre nθ avec θ ∈ R?+ . Montrer que la suite la loi exponentielle de paramètre θ. Xn n n≥1 converge en loi vers une v.a.r suivant Exercice 5.2.2 Soit (Xn , n ≥ 1) une suite de v.a.r indépendantes identiquement distribuées de loi uniforme sur [0, 1]. On note mn = min{X1 , ..., Xn } et Mn = max{X1 , ..., Xn }, montrer que (mn , n ≥ 1) converge en probabilité vers 0 et (Mn , n ≥ 1) vers 1. Exercice 5.2.3 Soit (Xn , n ≥ 1) une suite de v.a.r telle que E[Xn ] n→∞ −→ a et V(Xn ) −→ 0, montrer que Xn −→ a en probabilité. n→ Exercice 5.2.4 Soit f une fonction continue bornée de R dans R. Montrer que lim n→∞ ∞ X k=0 e k k f = f (λ). k! n −nλ (nλ) Indication : utiliser une suite de variables de Poisson de paramètre λ, et utiliser la loi faible des grands nombres. La loi forte est hors programme. Exercice 5.2.5 Soit (Xn )n≥1 une suite de v.a. i.i.d. suivant la loi normale N (1, 3). Montrer que la suite de terme général n 1X Xi eXi n i=1 converge en probabilités et déterminer sa limite. Exercice 5.2.6 1) Soit f une fonction uniformément continue de Rd dans R et (Xn , n ∈ N) une suite qui converge en probabilité vers X , alors (f (Xn ), n ≥ 0) converge en probabilité vers f (X). 2) Montrer que si (Xn , n ≥ 0) et (Yn , n ≥ 0) convergent respectivement vers X et Y en probabilité alors (Xn + Yn , n ≥ 1) converge vers X + Y en probabilité. 106 CHAPITRE 5. THÉORÈMES LIMITES 3) Soit (Xn , n ≥ 1) une suite de v.a.r. indépendantes de même loi telle que E[|X1 |] < ∞. Vérier que P P n i=1 Xn = n Xi n en déduire à l'aide de la question 2), que − n−1 Xi n − 1 i=1 , n n−1 converge en probabilité vers 0. Xn n Exercice 5.2.7 Soient {Xn }n≥1 une suite de variables aléatoires i.i.d telles que X1 ∼ P(1). P Pour tout entier naturel non nul n on pose Sn = 1. Déterminer la limite en loi de n S√ n −n n o n≥1 2. Montrer que e−n n k=1 . n X nk k=0 Xk . k! −→ n→+∞ 1 . 2 Exercice 5.2.8 (Une loi faible des grands nombres pour des variables non indépendantes) Soit (Xn , n ≥ 1) une suite de v.a.r.Pindépendantes de même loi admettant un moment d'ordre 2. On pose Yn = Xn Xn+1 et Sn = nk=1 Yk . 1) Les variables Yn sont-elles indépendantes ? 2) Montrer que pour tout > 0, 1 Sn P | − E[Y1 ]|> ≤ 2 2 V (Sn ) n n 3) En déduire que Sn n converge en probabilité vers E[X1 ]2 . Exercice 5.2.9 (Inégalité de Hölder) Soient X et Y Soient p et q deux variables aléatoires possédant respectivement un moment moment d'ordre q. + 1q = 1. d'ordre p et un deux réels positifs tels que 1 p L'inégalité d'Hölder que l'on va démontrer est 1 1 E[|XY |] ≤ (E[|X|p ]) p (E[|Y |q ]) q 1) Soient x, y deux réels positifs. En utilisant la concavité de ln, c'est-à-dire pour tout λ ∈]0, 1[ ln(λx + (1 − λ)y) ≥ λ ln(x) + (1 − λ) ln(y), montrer l'inégalité (appelée inégalité de Young) xy ≤ 2) En posant X̃ = X et E[|X|p ]1/p Ỹ = xp y q + . p q Y , montrer l'inégalité d'Hölder. E[|Y |q ]1/q X a un moment d'ordre s. Soit 0 ≤ r ≤ s. En appliquant l'inégalité d'Hölder p |X|r et 1 avec p = rs , et q = p−1 son conjugué, montrer 3) On suppose que aux variables E[|X|r ] ≤ E[|X|s ]1/p . En déduire que X a un moment d'ordre r pour tout r ≤ s. 5.2. EXERCICES. Exercice 5.2.10 107 (Xn , n ≥ 1) une suite 4 toires indépendantes telles que pour tout k ≥ 1, E[Xk ] = 0 et E[Xk ] ≤ K Pn positif indépendant de k . On pose Sn = k=1 Xk , on va montrer que [Loi forte des grands nombres] Soit Sn −→ 0 n n→∞ et " Sn n E de variables aléaoù K est un réel p.s. 4 # −→ 0. n→∞ 1) En utilisant le résultat de la dernière question de l'exercice précédent. Justier que E[Xi3 ] E[Xi2 ], ont un sens. Montrer que " # X E[Sn4 ] = E Xk4 + 6 E[Xi2 ]2 ≤ E[Xi4 ], Xi2 Xj2 . i<j k≥1 2) Montrer que X en déduire E[Sn4 ] ≤ nK + 3n(n − 1)K ≤ 3Kn2 . 3) Montrer que " E # X n≥1 (Sn /n)4 ≤ 3K X 1 . n2 n≥1 En déduire que " E 4) Montrer que E P n≥1 (Sn /n) 4 <∞ Sn n 4 # −→ 0. n→∞ implique que P[Sn /n −→ 0] = 1. n→∞ Exercice 5.2.11 Soient (Xi ) une suite de variables aléatoires indépendantes de même loi de Poisson de paramètre 1. 1) Quelle est la loi de ? 2) On pose Sn Sn = Sn −E[Sn ] =√ V ar(Sn ) Pn i=1 Xi ? . En utilisant le théorème central limite, déterminer lim P(Sn? ≤ 0). 3) En déduire un équivalent de Exercice 5.2.12 nk k=0 k! . Pn On dispose d'un dé. On cherche à savoir s'il est truqué ou non. Pour cela on n lancers de dé et 1/6. Nn . On dénit fn par : va étudier la diérence entre la fréquence d'apparition de 6 lors de Nn le nombre de 6 obtenus parmi n lancers. Déterminer la loi de fn = Déterminer l'espérance et la variance de fn Nn . n Soit 108 CHAPITRE 5. THÉORÈMES LIMITES 1 En utilisant l'inégalité de Bienaymé-Tchebychev, montrer que 1 5 P |Fn − |≥ 0.01 ≤ 6 36n × 0.012 2) Estimer avec l'inégalité précédente, le nombre de lancers que l'on doit eectuer pour qu'au cours de ces lancers la fréquence d'apparition de 6 dière de 1/6 d'au plus 1/100 avec un risque d'erreur inférieur à 5/100 ? 3) Estimer ce nombre avec le théorème central limite. Chapitre 6 Eléments de statistiques Nous nous concentrons sur la statistique inférentielle. La statistique descriptive est également au programme et fait régulièrement l'objet de questions à l'oral. Le lecteur pourra par exemple consulter le chapitre 5 du livre de Saporta Probabilités, analyse des données et Statistique. 6.1 Estimation L'objectif de la statistique inférentielle est d'estimer les paramètres d'une loi de probabilité régissant une expérience aléatoire. Il s'agit de mettre en place les outils pour estimer des paramètres à partir des réalisations d'une expérience. Les théorèmes limites vus précédemment sont fondamentaux dans la théorie de l'estimation. Il y a deux types d'estimation, l'estimation ponctuelle : on approche directement le paramètre en donnant une valeur numérique et l'estimation par intervalle : la valeur recherchée est encadrée par des bornes aléatoires avec une probabilité donnée (par exemple 95%). Soit de même loi que X. 1) la variable aléatoire n X. Si par exemple : suit une loi de Poisson, comment peut on estimer son paramètre à partir des n X suit une loi normale, comment peut on estimer ses paramètres à Θ l'ensemble Θ = [0, 1] pour la m et observations ? 3) la variable aléatoire est inconnue mais possède une espérance, peut on estimer Soit λ observations ? 2) la variable aléatoire σ X X1 , X2 , ..., Xn n variables aléatoires par ces n variables aléatoires à avoir une variable aléatoire et On cherche à partir des valeurs prises des renseignements sur la loi de partir des X des paramètres d'une loi. Par exemple, Θ = R+ E[X] ? pour la loi exponentielle, ou loi de Bernoulli. Dénition 6.1.1 Soit X une variable aléatoire de loi à paramètres dans Θ. Un échantillon de taille n de X est un vecteur aléatoire (X1 , ..., Xn ) dont les composantes ont même loi que X . Etant donné un échantillon de taille n, on appelle estimateur de θ, une variable aléatoire de la forme Tn = f (X1 , ..., Xn ) La variable aléatoire Tn est un estimateur convergent de θ si ∀θ ∈ Θ, ∀α > 0, P (|Tn − θ| > α) −→ 0. n→∞ On dénit maintenant la notion de biais d'un estimateur (au programme en BTS). Dénition 6.1.2 (Biais d'un estimateur) Soit Tn un estimateur du paramètre θ, 109 110 CHAPITRE 6. ELÉMENTS DE STATISTIQUES Si pour tout θ ∈ Θ, E[Tn ] = θ, l'estimateur est dit sans biais. Si pour tout θ ∈ Θ, E[Tn ] −→ θ, l'estimateur est dit asymptotiquement sans biais. n→∞ Remarque 6.1.1 Il faut noter que la propriété d'être non biaisé n'est pas indispensable. Il arrive même que certains estimateurs biaisés donnent de meilleurs résultats ! Proposition 6.1.1 Tout estimateur asymptotiquement sans biais dont la variance tend vers 0 est convergent. Démonstration. Utiliser l'inégalité de Markov. Dénition 6.1.3 Supposons que Tn a un moment d'ordre 2. Le risque quadratique de l'estimateur Tn est la quantité RTn (θ) := E[(Tn − θ)2 ] θ et Tn . La notion de risque quadratique permet Sn est meilleur que Tn si Il mesure l'écart en moyenne quadratique entre de comparer deux estimateurs : l'estimateur ∀θ ∈ Θ, RSn (θ) ≤ RTn (θ). Dénition 6.1.4 Soit (X1 , ..., Xn ) un échantillon de taille n de X . La moyenne empirique est n 1X X n := Xi . n i=1 La variance empirique est n Sn2 La variance empirique corrigée 1X := (Xi − X n )2 . n i=1 est n Σ2n := 1 X (Xi − X n )2 . n − 1 i=1 Proposition 6.1.2 Soit X une variable aléatoire de moyenne m et d'écart-type σ, alors E[X n ] = m, E[Sn2 ] = V(X n ) = n−1 2 σ , n σ2 n E[Σ2n ] = σ 2 . Démonstration. Exercice. Proposition 6.1.3 Soit X une variable aléatoire de moyenne m et de variance σ2 . 6.1. ESTIMATION 111 1) La moyenne empirique X n est un estimateur sans biais et convergent de m. Si on se donne une réalisation ω , une estimation ponctuelle de la moyenne est donnée par n 1X xi x̄ = n i=1 où xi = Xi (ω) sont les données. 2) La variance empirique σn est un estimateur sans biais de la variance. Si on se donne une réalisation ω , une estimation ponctuelle de la variance est donnée par n 1X (xi − x̄)2 n i=1 où xi = Xi (ω) sont les données. 3) La variance empirique corrigée Σn est un estimateur sans biais de la variance. Si on se donne une réalisation ω , une estimation ponctuelle de la variance est donnée par n 1 X (xi − x̄)2 n − 1 i=1 où xi = Xi (ω) sont les données. 4) A ces trois estimateurs classiques, on peut rajouter celui du moment d'ordre r : n m̂r := 1X r x. n i=1 i Démonstration. 1) Laissée au lecteur (appliquée la loi faible des grands nombres). 2) Laissée au lecteur. 3) Les variables Xi étant indépendantes de même loi, nous avons # n n 1 X (Xk − X̄n )2 = E[(X1 − X̄n )2 ]. E[Σn ] = E n − 1 k=1 n−1 " Nous avons E[(X1 − X̄n )2 ] = E[X12 ] − = E[X12 ] − Les variables aléatoires (Xi ) 2 n n X 2 n n X E[X1 Xi ] + i=1 i=1 E[X1 Xi ] + 1 E n2 1 n2 n X !2 Xi i=1 n X n X E[Xi Xj ]. i=1 j=1 étant indépendantes et identiquement distribuées nous avons : E[Xi Xj ] = E[X12 ] si i = j E[Xi Xj ] = E[X1 ]2 si i 6= j. 112 CHAPITRE 6. ELÉMENTS DE STATISTIQUES On a donc − n n X n 1 X 2X 2 E[X1 Xi ] = − E[X12 ] + (n − 1)E[X1 ]2 2 E[Xi Xj ] n i=1 n n i=1 j=1 n 1 X 2 2 ] + (n − 1)E[X ] E[X 1 1 n2 i=1 1 = E[X12 ] + (n − 1)E[X1 ]2 . n = On en déduit : E[(X1 − X̄n )2 ] = E[X12 ] − Finalement n−1 1 E[X12 ] + (n − 1)E[X1 ]2 = (E[X12 ] − E[X1 ]2 ). n n E[Σ2n ] = EX12 ] − E[X1 ]2 = σ 2 . Une méthode classique pour construire un estimateur est la méthode des moments basée sur une application directe de la loi des grands nombres. La méthode des moments consiste à exprimer θ E[X], E[X 2 ], ... puis de remplacer chaque moment par le moment lui correspondant. Cela fournit un estimateur convergent de θ . L'expression peut 2 2 2 intervenir σ que l'on remplace alors par Sn ou Σn . en termes des moments empirique aussi faire E[X], E[X 2 ] etc jusqu'à obtenir à l'aide des moments une expression 2 inversible de θ . On inverse alors cette expression, ce qui donne θ en fonction de E[X], E[X ], ... 2 2 2 et on remplace E[X] par X̄n , E[X ] par m̂2 (ou par Σn + X̄n ) etc. En pratique, on calcule Exemple 6.1.1 Soit X une variable aléatoire prenant les valeurs {0, 1, 2} avec les probabilités P[X = 0] = 1 − p1 − p2 , P[X = 1] = p1 , P[X = 2] = p2 ; alors 1 2 2 pˆ2 = S + Xn − Xn 2 n est un estimateur sans biais du paramètre p2 . Un estimateur classique est l 'estimateur du maximum de vraisemblance (E.M.V). On sup- θ ∈ R. Soit (X1 , ..., Xn ) un échantillon. Notons L(x1 , ..., xn ; θ) (X1 , ...Xn ). Lorsque (x1 , ..., xn ) est xé, θ 7→ L(x1 , ..., xn , θ) est appelée vraisem- pose que la loi a pour paramètre la densité de blance de θ. Dénition 6.1.5 On appelle estimateur du maximum de vraisemblance la valeur de θ qui rend maximale L(x1 , ..., xn , θ). Puisque le logarithme est une fonction strictement croissante, on peut chercher à maximiser la fonction θ 7→ − ln L(x1 , ..., xn , θ). En pratique, un E.M.V est une solution de l'équation de la vraisemblance : ∂ ln L(X, θ) = 0. ∂θ 6.1. ESTIMATION 113 Intervalles de conance et lois usuelles en statistiques Nous avons déjà brièvement introduit la notion d'intervalle de conance dans la proposition 5.1.12. Au lieu de donner une valeur (estimation ponctuelle) du paramètre bornes B1 et B2 θ on cherche deux entre lesquelles on espère que se trouve la vraie valeur du paramètre. Les bornes sont des fonctions des variables aléatoires X1 , ..., Xn . Dénition 6.1.6 Soit B1 = f1 (X1 , ..., Xn ) et B2 = f2 (X1 , ..., Xn ). On appelle intervalle de probabilité pour le paramètre θ le couple (B1 , B2 ) et P(B1 ≤ θ ≤ B2 ) est la probabilité de recouvrement (appelée plus souvent niveau de conance). Si cette probabilité est égale à α, [B1 , B2 ] est appelé intervalle de probabilité 1 − α. En général on choisit une valeur faible pour α et on construit l'intervalle de sorte que la probabilité de recouvrement soit égale à 1 − α. On appelle intervalle de conance 1 − α (noté souvent IC1−α (θ) pour θ toute réalisation [b1 , b2 ] d'un intervalle de probabilité de recouvrement égale à 1 − α [B1 , B2 ]. Pour comprendre le principe de construction d'un intervalle de conance nous allons nous concentrer dans un premier temps sur le cas d'un intervalle de conance pour la moyenne dans le cas gaussien. (X1 , ..., Xn ) un échantillon de loi normale N (µ, σ 2 ). On suppose σ connu le paramètre à estimer est µ. Comme l'échantillon est gaussien, X̄n suit une loi normale de paramètres (µ, σ 2 /n). Pour pouvoir utiliser les tables gaussiennes, on dénit T = X̄s/n√−µ qui suit une loi n gaussienne standard. La variable T est appelée statistique pivotale, elle dépend de X1 , ..., Xn et θ = µ mais sa loi est indépendante de µ. Cette statistique est utile car elle va permettre d'encadrer le paramètre µ. Dans un premier temps, on observe que Soit P[qα/2 < T < q1−α/2 ] = 1 − α, où qp on a désigne le quantile d'ordre qp = −q1−p p pour la loi normale N (0, 1). Comme cette loi est symétrique, et on peut donc écrire que √ X̄n − µ P −q1−α/2 ≤ n ≤ q1−α/2 = 1 − α. σ En isolant µ pour l'encadrer, on obtient σ σ = 1 − α. P X̄n − q1−α/2 √ ≤ µ ≤ X̄n + q1−α/2 √ n n On pose σ B1 = X̄n − q1−α/2 √ n σ B2 = X̄n + q1−α/2 √ n l'intervalle [B1 , B2 ] est un intervalle de probabilité 1 − α pour la moyenne µ. Il est important de comprendre que ce sont B1 et B2 qui sont aléatoires et non pas µ. En pratique on utilise les réalisations des variables aléatoires, un intervalle de conance est une réalisation [b1 , b2 ]. et Remarque 6.1.2 La largeur de l'intervalle de conance est une fonction décroissante de α et de n. 114 CHAPITRE 6. ELÉMENTS DE STATISTIQUES Deux lois utiles : la loi du khi-deux et la loi de Student Dénition 6.1.7 Soit d ≥ 1. Par P dénition, la loi du Khi-deux à d degrés de liberté est la loi de la variable aléatoire Yd = di=1 Ni2 où N1 , ..., Nd sont d variables gaussiennes centrées réduites. Proposition 6.1.4 Soit Yd une variable aléatoire qui suit une loi du khi-deux à d degrés de liberté, alors 1 sa densité est donnée par fYd (x) = kd xd/2−1 e−x/2 1[0,∞[ (x) avec kd = 2d/2 Γ(d/2) Yd est intégrable √ d] = d √ et E[Y Si d ≥ 30, P[ Yd − 2d − 1 ∈ I] ≈ P[N ∈ I] où N est une Gaussienne standard. Dénitionq6.1.8 On dit que la variable aléatoire Td suit la loi de Student à d degrés de liberté si Td = N Ydd où N et Yd sont deux variables indépendantes de loi respective la loi normale centrée réduite, et la loi du khi-deux à d degrés de liberté. Proposition 6.1.5 Soit Td une variable aléatoire suivant la loi de Student. Sa densité est fTd (x) = cd (1 + x2 /d)− où d+1 2 , Γ( d+1 ) cd = √ 2 Πd 2 e−x /2 pTd (x) −→ √ . d→∞ 2π Dans les applications, si d ≥ 30 alors P[Td ∈ I] ≈ P[N ∈ I]. Intervalle de conance pour une moyenne et une variance. N (µ, σ 2 ). Deux cas sont à envisager pour la détermination d'un intervalle de conance : selon que σ soit σ connu ou non. Dans le premier cas, on a montré précédemment que B1 = X̄n − q1−α/2 et n σ B2 = X̄n + u1−α/2 √n forment les bornes d'un intervalle de probabilité 1 − α. Dans le seoond cas, où σ est inconnu. On a que Soient X1 , ..., Xn n variables aléatoires gaussiennes, indépendantes et de même loi n 1 X (n − 1)Σ2n = 2 (Xi − X̄n )2 σ2 σ i=1 suit une loi du khi-deux à avec N de loi N (0, 1) et K n−1 degrés de liberté. On dénit T = √ n (X̄Σnn−µ . On a √ n(X̄n − µ)/σ N T =q = S2 K (n − 1) σ2 (n−1) indépendante de loi du khi-deux à n − 1 degrés de liberté. T est une statistique pivotale puisque sa loi est indépendante des paramètres. On en déduit un intervalle 6.2. EXERCICES 115 pour µ car on a P[tn−1;α/2 < T < tn−1;1−α/2 ] = 1 − α, où α pour la loi de Student à n − 1 degrés de liberté. On a donc quantile d'ordre 2 de probabilité 1−α P[tn−1:α/2 < en isolant µ et en remarquant que par rapport à 0, on obtient tn−1;α/2 est le √ X̄n − µ n < tn−1,1−α/2 ] = 1 − α, Σn tn−1;α/2 = −tn−1;1−α/2 car la loi de Student est symétrique Σn Σn P X̄n − tn−1;1−α/2 √ < µ < X̄n + tn−1;1−α/2 √ n n = 1 − α; ce qui permet de conclure. Nous terminons par la construction d'un intervalle de conance pour une variance. La statistique pivotale utilisée est T = Elle suit une loi du Khi-deux à rn−1,α/2 et rn−1,1−α/2 1 − α pour σ 2 : (n − 1)S 2 . σ2 n − 1 degrés de liberté. Elle est comprise entre les quantiles 1 − α, ce qui permet d'obtenir un intervalle de conance avec probabilité (n − 1)Σ2n (n − 1)Σ2n IC1−α (σ ) = ; . rn−1,1−α/2 rn−1,α/2 2 Nous nous sommes limités aux variables aléatoires gaussiennes. Cependant en utilisant le théorème central limite, si nos variables possèdent une variance, on peut approcher des intervalles de conance par ceux déterminés précédemment. Evidemment il s'agira d'approximation et le niveau de conance ne sera pas exactement respecté mais ces approximation sont en général très bonnes pour 6.2 n ≥ 30. Exercices Exercice 6.2.1 (#) On a relevé le nombre de dents cariées chez 100 enfants âgés de 7 ans dans une région de France. Les résultats obtenus sont les suivants : Nb de dents cariées Nb d'enfants 0 1 2 3 4 5 6 7 30 34 14 10 4 5 1 2 Calculer la moyenne empirique et la variance empirique du nombre de dents cariées. Solution. La moyenne empirique est X= 30 × 0 + 34 × 1 + · · · + 2 × 7 = 1, 53. 100 et la variance empirique est n 1 X 1 S = 30 × (0 − X)2 + 34 × (1 − X)2 + · · · + 2 × (7 − X)2 = 2, 36. (Xk − X)2 = n − 1 k=1 99 2 116 CHAPITRE 6. Exercice 6.2.2 (#) Un statisticien observe le nombre d'ampoules défaillantes à la sortie d'une chaîne de production. Il veut estimer la probabilité il compte le nombre de 1. Montrer que pn ELÉMENTS DE STATISTIQUES Nn p qu'une ampoule soit défaillante. Pour cela, pn = Nn /n , égaux à zero. Il propose d'estimer par : est un estimateur sans biais de p. 2. Calculer son risque quadratique. Solution. Nn = X1 + · · · + Xn On a où Xi = 1 si l'ampoule v.a. sont donc toutes de loi de Bernoulli de paramètre p. i est défaillante et 0 sinon. Les On suppose de plus qu'elles sont indépendantes. 1. Si les Xi sont i.i.d., Nn est une variable binomiale de paramètres p et n. On a alors 1 np Nn = E[Nn ] = = p E n n n et l'estimateur est bien sans biais. 2. Le risque quadratique est par dénition E (pn − p)2 = E Exercice 6.2.3 (#) " Nn −p n X avec = 1 1 np(1 − p) p(1 − p) 2 E (N − np) = 2 V(Nn ) = = . n 2 2 n n n n Considérons un échantillon de taille λ > 0 loi de Poisson de paramètre aléatoire 2 # X ∼ P(λ)). 1. Montrer que l'estimateur 1 issu d'une population suivant une (ceci revient donc simplement à considérer une variable δ(X) = 1[X=0] 2. On cherche à présent à estimer e−3λ . est non biaisé pour e−λ . Que pouvez-vous dire sur la statistique 3. Proposer en toute généralité un estimateur sans biais pour (−2)X ? e−nλ . Solution. 0 1. On a E[δ(X)] = E[1{X=0} ] = P(X = 0) = e−λ λ0! = e−λ . 2. De même, X λk = e−λ e−2λ = e−3λ . E (−2)X = (−2)k e−λ k! k≥0 3. On vérie que (1 − n)X Exercice 6.2.4 (#) est un estimateur sans biais de (Xi )1≤i≤n avec n ≥ 2 le modèle avec PK et {1, . . . , K}. Le but de cet exercice est de proposer On considère un échantillon tel que les v.a. sont i.i.d. de loi uniforme sur deux estimateurs du paramètre K > 0. X ∼ PK , RK (K̂, K). 1. A l'aide de l'espérance de risque quadratique 2. e−nλ . (a) Montrer que l'E.M.V. est (b) Montrer que sous PK , K̃ proposer un estimateur K̃ = max(X1 , . . . , Xn ). vérie P (K̃ ≤ k) = kn Kn K̂ de K. Déterminer son 6.2. EXERCICES (c) Soit X 117 une variable aléatoire à valeurs dans E[X] = K−1 X {1, . . . , K}. Montrer que P (X > k). k=0 (d) En deduire le biais de K̃ . Solution. (Xi )1≤i≤n qui sont E[X1 ] = (K + 1)/2. On propose donc 1. La moyenne empirique est un estimateur sans biais de l'espérance des {1, . . . , K}. estimateur de K : uniformes sur comme Or, cette espérance vaut n K̂ = 2X − 1 = 2X Xi − 1 . n i=1 Cet estimateur est sans biais (puisque la moyenne empirique l'est) donc le risque quadratique de K̂ est sa variance : RK (K̂, K) = V car les Xi ! ! n n X 4 4 2X Xi − 1 = 2 V Xi = V (X1 ) n i=1 n n i=1 sont indépendantes et de même loi. De plus, K 1 K(K + 1)(2K + 1) (K + 1)(2K + 1) 1 X 2 k = = E[X ] = K k=1 K 6 6 2 et donc (K + 1)(2K + 1) V(X) = − 6 K +1 2 2 = K2 − 1 12 et le risque quadratique est RK (K̂, K) = 2. K2 − 1 . 3n (a) On a L(K, k1 , . . . , kn ) = P(X1 = k1 )P(X2 = k2 ) · · · P(Xn = kn ) = Or, l'assertion La fonction L ∀i, ki ≤ K 1/K n 0 si ∀i, ki ≤ K sinon. max(k1 , k2 , . . . , kn ) ≤ K . max(k1 , . . . , kn ) puis est décroissante et est équivalente à est donc nulle jusqu'à stricte- ment positive. Son maximum est donc atteint en max(k1 , . . . , kn ) et l'E.M.V. est K̃ = max(X1 , . . . , Xn ) . (b) P(K̃ ≤ k) = P(max(X1 , . . . , Xn ) ≤ k) = P(X1 ≤ k, . . . , Xn ≤ k) = P(X1 ≤ k)n = car les variables sont indépendantes et de loi uniforme. kn Kn 118 CHAPITRE 6. ELÉMENTS DE STATISTIQUES 3. On a K−1 X P(X > k) = k=0 K−1 X K X P(X = j) = k=0 j=k+1 K−1 X K−1 X P(X = j + 1) k=0 j=k En inversant les 2 signes de sommation, on a K−1 X P(X > k) = j K−1 XX P(X = j+1) = K−1 X j=0 k=0 k=0 P(X = j+1) j=0 4. En utilisant iii) et ii), le biais de K̃ j X 1= K−1 X P(X = j+1)(j+1) = E[X]. j=0 k=0 est K−1 1 X n k . E[K̃] − K = P(K̃ > k) − K = (1 − P(K̃ ≤ k)) − K = K n k=0 k=0 k=0 K−1 X K−1 X Le biais est donc strictement positif : Exercice 6.2.5 (#) Pour X = {0, . . . , m}, m ∈ N n = 1, K̃ n'est pas sans biais. on considère le modèle des lois binomiales sur l'espace et m x f (x, θ) = θ (1 − θ)m−x , x ∈ X , x avec le paramètre θ ∈ [0, 1]. g(θ) 1. Montrer qu'une fonction polynôme de degré 2. Soit Solution g(θ) = θ2 . < m, Montrer que l'estimateur sans biais associé s'annule en g(θ) admet un {0, . . . , m} → R telle que Or, comme X1 g est un et dans ce cas un tel estimateur est unique. On considère une variable 1. Dire que admet un estimateur sans biais si et seulement si X1 de loi binomiale de paramètres m et x=0 θ avec et θ x = 1. à estimer. estimateur sans biais signie qu'il existe une fonction Φ : E [Φ(X1 )] = g(θ). est une v.a. binomiale de paramètres m et θ, on a m X m k E [Φ(X1 )] = Φ(k) θ (1 − θ)m−k k k=0 m X m k et donc s'il existe Φ telle qu'on ait l'égalité Φ(k) θ (1 − θ)m−k = g(θ), g est k k=0 nécessairement un polynôme de degré strictement inférieur à m. La réciproque et l'unicité k m−k découlent du fait que la famille de polynômes (X (1 − X) )0≤k≤m est une base de l'espace vectoriel des polynômes de degrés inférieurs ou égaux à m (c'est une famille libre et elle a m + 1 éléments). 6.2. EXERCICES 119 2. D'après ce qui précède, on doit avoir on a Φ(0) = 0. m X m k Φ(k) θ (1 − θ)m−k = θ2 . k k=0 En prenant θ = 0, On a alors l'égalité : m X m X m k m k−1 m−k θ = Φ(k) θ (1 − θ) =θ Φ(k) θ (1 − θ)m−k . k k k=1 k=1 2 Comme 0 est racine double du polynôme m X θ Pm k=1 Φ(k) m k k−1 θ (1 − θ)m−k , m k−1 0= Φ(k) 0 (1 − 0)m−k = Φ(1). k k=1 on doit avoir 120 CHAPITRE 6. ELÉMENTS DE STATISTIQUES Chapitre 7 Sujets des examens passés et problèmes Epreuve de probabilités Calculs d'intégrales et notion d'entropie Exercice 7.0.6 1) Supposons Soit (Ω, F, P) Ω = {1, ..., n}. un espace probabilisé. On dénit l'entropie de la probabilité H(P) = − où pk = P({k}). Avec pour convention n X P par pk ln(pk ) k=1 0 ln(0) = 0. H est à valeurs dans R+ et trouver P telle que H(P) = 0. H(P) lorsque P est la loi uniforme sur {1, ..., n}. a) Montrer que b) Calculer c) On va montrer que la probabilité uniforme réalise le maximum de l'entropie sur Ω = {1, ..., n}. On rappelle que la fonction tels que Pn k=1 λk = 1 et tous n X k=1 Soit (qk , k ∈ [|1, n|]) et admet ln est concave. On x1 , ..., xk positifs : λk ln(xk ) ≤ ln (pk , k ∈ [|1, n|]) n X que pour tous λ k xk k=1 Conclure avec pk = 1/n pour tout k=1 n X qk ln(qk ). k=1 k ∈ {1, ...n}. 2) a) Rappeler la dénition d'une densité de probabilité sur Soit f . deux probabilités sur qk ln(pk ) ≤ une densité de probabilité sur R. R. On note Z Hf = − f (x) ln(f (x))dx, R 121 réels positifs ! de l'inégalité ci-dessus que n X λk {1, ..., n}. Démontrer à l'aide 122 CHAPITRE 7. lorsque cette intégrale a un sens et la loi de densité f. SUJETS DES EXAMENS PASSÉS ET PROBLÈMES Hf = ∞ b) Calculer l'entropie de la loi normale centrée réduite est c) Soient f et g x 7→ 2 √1 e−x /2 , 2π x sinon. La quantité N (0, 1). Hf est appelée entropie de On rappelle que la densité de la loi normale variant dans R. deux fonctions strictement positives. Ecrire (et justier) l'égalité g(x) g(x) − f (x) =1+ . f (x) f (x) En utilisant l'inégalité ln(1 + z) ≤ z pour tout z > −1, établir Z ln(g(x)/f (x))f (x)dx ≤ 0. que si f, g sont des densités R d) En prenant dans l'inégalité ci-dessus g la densité de la loi normale, démontrer que la loi normale réalise le maximum d'entropie sur les densités vériant 2 R R x f (x)dx = 1. R R xf (x)dx = 0 et En thermodynamique, l'entropie mesure l'état de désorganisation interne d'un système. Boltzmann (1870) a montré qu'un système isolé évolue spontanément vers l'état le plus désordonné. La théorie de l'information a été introduite par Shannon (1948) qui associe entropie et information manquante sur le système : toute évolution spontanée d'un système isolé se fait avec perte d'information sur le système. De façon intuitive, les lois gaussiennes reètent un manque d'information. Dans une certaine mesure, cela justie le choix de cette fonction comme "fonction d'erreur". Calculs binomiaux On considère un serveur informatique consommant 500 watts. Pour améliorer la sûreté de fonctionnement d'un serveur informatique, on envisage d'introduire de la redondance (*), c'est- à-dire d'équiper le serveur de plusieurs exemplaires d'un même composant. On étudie deux congurations : (I) (II) Redondance des alimentations : On met 3 alimentations de 300 watts chacune. Redondance des disques durs : Le serveur est conguré en RAID5 (**), c'est-à-dire qu'il dispose de 4 disques durs et continue à fonctionner avec un disque dur en panne. On suppose que la probabilité qu'une alimentation tombe en panne est dur est q. p et celle d'un disque On suppose que tous les composants sont indépendants. 1) Soit un serveur avec la conguration (I) a) Combien d'alimentations peuvent tomber en panne sans que le serveur ne tombe en panne ? i ∈ {1, 2, 3}, on dénit Ai la variable aléatoire qui vaut 1 si la i-ème alimentation panne, 0 sinon. Quelle est la loi de Ai ? b) Pour tout tombe en 123 c) On note NA le nombre d'alimentations en panne. Exprimer NA en fonction de A1 , A2 , A3 . Na ? Quelle est la loi de d) On suppose qu'aucun composant diérent des alimentations ne peut tomber en panne. Justier que la probabilité de panne (notée Pa (p)) est donnée par que P(Na ≥ 2) et montrer Pa (p) = p2 (3 − 2p). 2) Soit un serveur en conguration (II). ND a) Soit le nombre de disques durs en panne. Déterminer la loi de ND (vous pourrez q ). introduire des variables aléatoires de Bernoulli indépendantes de paramètre b) On suppose qu'aucun composant diérent des disques durs ne peut tomber en panne. Montrer que la probabilité que le serveur tombe en panne (notée PD (q)) vérie PD (q) = q 2 (3q 2 − 8q + 6). 3) On suppose p = q. En étudiant le signe de la fonction conguration parmi (I) et (II) est la plus able. p 7→ PA (p) − PD (p), décider quelle Tranport d'information : loi binomiale/loi de Poisson Soit n ∈ N? . On considère un système comportant transmetteurs indépendants : I1 , ..., In . 0. Il communique avec I2 et lui donne l'information qu'il porte (c'est-à-dire 0) avec probabilité p ∈]0, 1[ ou l'information contraire (c'est-à-dire 1) avec probabilité 1 − p. Soit 2 ≤ k ≤ n, chaque Ik reçoit ainsi une information de Ik−1 et : On suppose que I1 n porte l'information I1 (avec proba p) I2 In−1 In 0 0 1 1 0 (avec proba 1 − p) Figure transmet cette information à Ik+1 , 7.1 Modèle de transmission avec probabilité p ou transmet l'information contraire à Ik+1 , On récupère l'information à la sortie de avec probabilité 1−p (on dira qu'il ment ). In . 1) On pose Tn := min{k ∈ {1, ..., n}; Ik Quelles sont les valeurs prises par } ment Tn ? et Tn = 0 si aucun transmetteur ne ment. Déterminer la loi de Tn . 124 CHAPITRE 7. SUJETS DES EXAMENS PASSÉS ET PROBLÈMES Les questions qui suivent sont indépendantes de la question 1. On s'intéresse maintenant à la probabilité que l'information reçue coïncide avec l'information de départ (c'est-à-dire 0). Première méthode 2) Soit un la probabilité que In délivre la bonne information. Enoncer la formule des probabilités totales et prouver la relation de récurrence suivante un = pun−1 + (1 − p)(1 − un−1 ). n ≥ 1, un = 3) Démontrer par récurrence que pour tout suite lorsque n → ∞. 1+(2p−1)n et étudier la limite de cette 2 Deuxième méthode 4) Soit x, y ∈ R+ . Rappeler la formule du binôme de Newton et à l'aide de celle-ci montrer que [n/2] X n 1 n n ((x + y) + (y − x) ) = x2k y n−2k 2 2k k=0 [n/2] désigne la partie entière du réel 5) Pour tout i ≥ 1, on note Xi n/2. la variable aléatoire dénie de la façon suivante. Xi = 1 si Ii ment, Xi = 0 sinon. En justiant soigneusement, donner la loi (avec ses paramètres) de la variable aléatoire Sn = Pn i=1 Xi . Sn est le nombre de transmetteurs menteurs et justier In donne 0 = Sn a une valeur paire . 6) Justier que la variable aléatoire l'égalité des événements 7) A l'aide de la question 4, calculer la probabilité qu'une variable aléatoire binomiale de paramètres n, p ait une valeur paire. En déduire la probabilité que In délivre la bonne information. Approximation par une loi de Poisson On suppose maintenant que la probabilité qu'un transmetteur ne mente pas est pn = λ/n, avec λ > 0. 8) Soit (Sn )n≥1 (n, pn ). Démontrer la propriété P λk −λ λk −→ e k! . On rappelle que ∞ = eλ . k=0 k! n→∞ une suite de variables aléatoires de loi binomiale du cours suivante : pour tout k ∈ N, P(Sn = k) 9) Démontrer que ∞ e−λ + eλ X λ2k = . 2 (2k)! k=0 Z une variable aléatoire de loi de Poisson de paramètre λ. On rappelle que cela signie k −2λ P(Z = k) = e−λ λk! . A l'aide de la question précédente, montrer que P(Z est paire) = e 2 +1 . 10) Soit 11) Soit (an )n≥1 la suite dénie par an = P(In donne 0). Déterminer sa limite lorsque vers l'inni. Entre le modèle où la probabilité de transmission est p n et ne dépend pas de tend n et ce modèle, quel est celui qui transmet le bon message avec la plus grande probabilité lorsque n tend vers l'inni ? 125 QCM et loi hypergéométrique Y deux variables aléatoires discrètes à valeurs dans {0, ..., m}. dénition de E[Y ]. Soit x ∈ {0, ..., m}, on note E(X=x) [Y ] l'espérance de Y par probabilité conditionnelle P(X=x) : c'est-à-dire 0) Soient X et E(X=x) [Y ] = m X yP(X=x) (Y = y), montrer que E[Y ] = y=0 m X Rappeler la rapport à la E(X=x) [Y ]P(X = x). x=0 On fait passer un examen sous forme d'un QCM (questions à choix multiples). L'examen se compose de 20 questions tirées au hasard et sans remise parmi 100 questions possibles seule une réponse est correcte. Si le candidat choisit la bonne réponse il a un point, sinon 0 point. recouvrant le programme. A chaque question est proposée 4 réponses possibles, On considère un candidat ayant appris une proportion 1) On note X p 100p ∈ N). du programme ( le nombre de questions gurant parmi les 20 que le candidat a révisées. Justier brièvement que X suit une loi hypergéométrique de paramètres 100p x P[X = x] = Rappeler la signication du coecient binomial (100, 20, p) 100(1−p) 20−x 100 20 n k . et justier brièvement la formule ci- dessus. X questions {0, ..., 20}. Ces rapportent X points au candidat. On suppose dans la suite que X(Ω) = 2) Etant donnée une question non révisée, le candidat choisit uniformément au hasard une réponse parmi les 4 possibles. Quelle est la probabilité que le candidat choisisse la bonne réponse ? 3) Le nombre de questions non révisées par le candidat est 20 − X . On les numérote par {1, 2, ..., 20 − X}. A toute question i ∈ {1, 2, ..., 20 − X}, on associe une variable aléatoire Xi suivant une loi de Bernoulli de paramètre 1/4 : Xi = 1 si le candidat répond bien à la question i, Xi = 0 sinon. Les variables (Xi , i ≥ 1) sont indépendantes. On note Y la somme des points obtenus en répondant aux questions non révisées. Y , à l'aide d'une somme, en fonction des Xi et de X . x ∈ {0, ..., 20}, sachant X = x, justier que Y suit une loi binomiale de paramètre (20 − x, 1/4). c) Que vaut E(X=x) [Y ] ? (on rappelle que l'espérance d'une loi binomiale de paramètre (m, q) est mq ). P20 d) En utilisant la formule E[Y ] = x=0 E(X=x) [Y ]P(X = x), montrer que E[Y ] = 5 − 5p. Indication : On rappelle que E[X] = 20p (vu en cours). a) Exprimer b) Soit 4) On note de N N la note du candidat. Exprimer en fonction de p. N Pour quelle valeur de X et Y E[N ] = 10 ? en fonction de p a-t-on et déterminer l'espérance 126 CHAPITRE 7. 5) On détermine maintenant la loi de P[N = n] = n X x=0 SUJETS DES EXAMENS PASSÉS ET PROBLÈMES N =X +Y. P[X = x, Y = n − x] = = n X x=0 n X Montrer les trois égalités P[X = x]P(X=x) [Y = n − x] 100p x x=0 100(1−p) 20−x 100 20 6) (Question bonus) On suppose maintenant que l'on enlève réponse et on note N 0 3/4 et 1 1/3 de point à chaque mauvaise la note obtenue. Sans chercher la loi explicite de la note, mais en introduisant à la place des probabilité n−x 20−n 20 − x 1 3 . n−x 4 4 Xi , la variable aléatoire avec probabilité 1/4 Xi0 prenant comme valeur démontrer que −1/3 avec E[N 0 ] = 20p. * la redondance consiste à disposer plusieurs exemplaires d'un même équipement ou d'un même processus ou de tout autre élément participant à une solution électronique, mécanique ou industrielle. Selon les circonstances elle est utile : 1. pour augmenter la capacité totale ou les performances d'un système, 2. pour réduire le risque de panne, 3. pour combiner ces deux eets. ** En informatique, le mot RAID désigne les techniques permettant de répartir des données sur plusieurs disques durs an d'améliorer soit la tolérance aux pannes, soit la sécurité, soit les performances de l'ensemble, ou une répartition de tout cela. La technologie RAID a été élaborée par un groupe de chercheurs de l'université de Californie à Berkeley en 1987. Ils étudièrent la possibilité de faire reconnaître deux disques durs ou plus comme une seule entité par le système. Ils obtinrent pour résultat un système de stockage aux performances bien meilleures que celles des systèmes à disque dur unique, mais doté d'une très mauvaise abilité. Les chercheurs s'orientèrent alors vers des architectures redondantes, an d'améliorer la tolérance aux pannes du système de stockage. (Source Wikipedia) 7.1 Fonctions additives et loi exponentielle Préliminaire sur les fonctions additives Considérons Φ une fonction x, y ∈ R. monotone additive de R i.e. Φ(x + y) = Φ(x) + Φ(y) pour tous Φ(q) = qΦ(1) pour tout q ∈ Q. Φ(1) = 0 alors Φ est identiquement nulle. c) Montrer que si Φ(1) 6= 0 alors Φ(x) = Φ(1)x d) Soit Ψ une fonction monotone vériant Ψ(x + y) = Ψ(x)Ψ(y) pour tous x, y ∈ R. Démontrer ax qu'il existe a tel que Ψ(x) = e . a) Montrer que b) Montrer que si 7.2. THÉORÈME DE WEIERSTRASS 127 l'objectif de cette partie est de caractériser la loi exponentielle par son Soit X absence de mémoire. une variable aléatoire telle que : PX>s [X > t + s] = P[X > t] (7.1) e) Montrer que la loi exponentielle vérie (7.1). f ) Montrer inversement que si 7.2 X vérie (7.1) alors X a une loi exponentielle. Théorème de Weierstrass Weierstrass a démontré que toute fonction continue sur le segment [0, 1] est limite uniforme sur ce segment d'une suite de polynômes. Bernstein a découvert une nouvelle démonstration qui utilise les probabilités. On commence par des résultats basiques d'analyse. Pour toute fonction continue f sur [0, 1], ||f ||∞ := sup |f (x)|. x∈[0,1] Soit f une fonction continue sur [0, 1], on dénit son module de continuité par m : δ 7→ sup{|f (u) − f (v)|; |u − v| ≤ δ}. 1) Montrer que |f (x) − f (y)| ≤ 2||f ||∞ 2) Montrer que si |x − y| ≤ δ alors pour tout |f (x) − f (y)| ≤ m(δ). (bn )n≥0 une suite réelle, rappeler n ≥ 1, on considère le polynôme 3) Soit Soit Bn (x) = X1 , ..., Xn Montrer que m(δ) −→ 0. δ→0 la dénition avec les quanticateurs de n X n k=0 4) Soient x, y ∈ [0, 1]. k k n−k x (1 − x) bn −→ 0. n→∞ k . f n des variables aléatoires indépendantes de carré intégrable et Sn = n X Xi . i=1 Montrer que V(X) Sn . P | − E[X]|> t ≤ n nt2 En déduire la loi faible des grands nombres. Xi de Bernoulli de paramètre x. Sn 1 P | − x|> t ≤ . n 4nt2 5) On prend maintenant des variables 6) Montrer que Sn E f = Bn (x). n Montrer que 128 CHAPITRE 7. SUJETS DES EXAMENS PASSÉS ET PROBLÈMES 7) Montrer que Sn , f (x) − Bn (x) = E f (x) − f n en déduire l'inégalité |f (x) − Bn (x)| ≤ E |f (x) − f 8) Soit δ > 0, en considérant l'événement Sn n | . Sn |≤ n A = {x ∈ [0, 1]; |x − δ}, montrer que Sn E |f (x) − f | ≤ m(δ) + 2||f ||∞ E[1|x− Sn |>δ| ]. n n 9 En utilisant la question (4), déduire que E |f (x) − f Sn n ||f ||∞ | ≤ m(δ) + . 2nδ 2 10) Montrer que ||f − Bn ||∞ ≤ m(δ) + Soit > 0. 11) Montrer qu'il existe 12) Déterminer 7.3 ||f ||∞ . 2nδ 2 n0 δ m(δ ) ≤ /2. tout n ≥ n0 , ||f − Bn ||∞ ≤ . tel que tel que pour Conclure. Marche aléatoire On se donne un espace probabilisé (Ω, F, P) sur lequel est dénie une suite variables aléatoires indépendantes identiquement distribuées. La loi de X1 (Xn , n ∈ N? ) est donnée par 1 P(X1 = 1) = P(X1 = −1) = . 2 On dénit S0 = 0 La suite de variables aléatoires et (Sn , n ≥ 1) 2 +1 1 S1 S2 Sn = Pn k=1 est appelée −1 +1 Xk . marche aléatoire symétrique. S4 S3 −1 S5 0 1 2 3 4 5 de 7.3. MARCHE ALÉATOIRE 129 Plusieurs questions naturelles se posent, la marche aléatoire, retourne-t-elle à l'origine ? Si oui, combien de temps met-on en moyenne pour y revenir ? L'objectif du problème est de répondre à ces deux questions. On dénit T = min{n ≥ 1; Sn = 0} La variable aléatoire T +∞ si {n ≥ 1; Sn = 0} = 6 ∅ sinon. est le premier temps de retour à 0 de la marche aléatoire. Le problème contient trois parties. La troisième partie est purement analytique. N'hésitez pas à admettre des questions d'analyse pour avancer. 130 CHAPITRE 7. SUJETS DES EXAMENS PASSÉS ET PROBLÈMES Etude du temps de retour à l'origine : En = la 1) On considère les événement marche aléatoire n'a pas touché n et Ak = La marche aléatoire visite 0 k . Justier brièvement les égalités 0 entre les temps pour la dernière fois avant l'instant n, 1 et à l'instant En = (T > n) ∪ (T = +∞) Ak = (Sk = 0) ∩ ! n \ (Si 6= 0) i=k+1 2) Montrer que n \ P(Ak ) = P(Sk = 0)P(Sk =0) ! (Si 6= 0) . i=k+1 On rappelle que la notation P(Sk =0) (.) correspond à la probabilité conditionnelle sachant Sk = 0. 3) Soit k Sn0 = Sn+k pour tout n ≥ 0. (Sn , n ≥ 0), montrer que un entier xé, on dénit 0 sachant S0 =0 a même loi que En remarquant que (Sn0 , n ≥ 0) P(Ak ) = P(Sk = 0)P (En−k ) . 4) Justier que S P( nk=0 Ak ) = 1 et montrer que n X P(Sk = 0)P (En−k ) = 1. k=0 5) Soit x ∈ [0, 1[. On considère les suites (an , n ≥ 0) an = P[Sn = 0]xn Justier que les séries de terme général et (bn , n ≥ 0) et dénies par bn = P[En ]xn . (an , n ≥ 0) et (bn , n ≥ 0) sont convergentes. En utilisant le produit de Cauchy (voir l'encadré à la n du sujet) montrer que 1 = 1−x +∞ X ! ∞ X P[Sn = 0]xn n=0 ! P[En ]xn . n=0 P[S2n+1 = 0] = 0 pour tout n. On dénit une suite de variables aléatoires (Yi , i ≥ 1) de la façon suivante : Yi = 1 si Xi = 1 et 0 sinon. Justier l'identité événements ! 2n X (S2n = 0) = Yi = n . 6) Justier que indépendantes des i=1 Quelles sont les lois respectives de Yi et P2n i=1 Yi ? En déduire que 2n n 4n P[S2n = 0] = . 7.3. MARCHE ALÉATOIRE 7) En admettant 131 1 ∞ X n=0 montrer que ∞ X 2n n 4n 1 , x2n = √ 1 − x2 r P[En ]xn = n=0 8) En remarquant que l'événement pour tout (T = +∞) 1+x . 1−x est inclus dans En pour tout n, montrer que x ∈ [0, 1[, n P[T = +∞]x ≤ P[En ]x Montrer que pour tout n et en déduire que n=0 x ∈ [0, 1[ P[T = +∞] ≤ En faisant tendre x 1, vers ∞ X n P[T = +∞]x ≤ ∞ X P[En ]xn . n=0 √ 1 − x2 . montrer par encadrement que P[T = +∞] = 0. Qu'en déduisez vous pour la marche aléatoire, avec quelle probabilité retourne-t-elle à l'origine ? Etude de l'espérance du temps de retour à l'origine : 9) Justier que P[T > n] = P[En ] et en déduire que pour tout ∞ X r n P[T > n]x = n=0 x ∈ [0, 1[, 1+x . 1−x Montrer que X n≥0 On rappelle que si P n≥1 an x n lim− x→R 10) Justier que pour tout P[T > n] = ∞. est une série entière de rayon de convergence ∞ X an x n = n=1 ∞ X n=1 an Rn ∈ R+ ∪ {+∞}. k ∈ N, P[T = k] = P[T > k − 1] − P[T > k]. En utilisant cette relation, établir que pour tout entier naturel n X k=0 kP[T = k] = n−1 X k=0 1. On le démontre dans la dernière partie du sujet n ≥ 2, P[T > k] − nP[T > n]. R alors 132 CHAPITRE 7. 11) On suppose que E[T ] < +∞. Montrer que ∞ X nP[T > n] = n SUJETS DES EXAMENS PASSÉS ET PROBLÈMES P[T = k] et ∞ X n k=n+1 nP[T > n] En déduire que k=n+1 tend vers 0 n lorsque E[T ] = ∞ X P[T = k] ≤ ∞ X kP[T = k]. k=n+1 tend vers l'inni, et que P[T > k]. k=0 En particulier, si E[T ] < +∞ alors P∞ k=0 P[T > k] < ∞. 12) Montrer à l'aide de la question précédente et de la question 9 que E[T ] = +∞. La moyenne du temps de retour à l'origine est donc innie. Cette propriété remarquable est liée au faite que si la marche aléatoire s'éloigne beaucoup de 0, il lui faut beaucoup de temps pour y revenir. 1 . Développement en série entière de φ : x → √1−x La fonction n, à l'ordre φ:x→ √1 est de classe 1−x on a au point x ∈ [0, 1[ φ(x) = φ(n) sur n X xk k! la dérivée n-ième de (k) t ∈ [0, x], 15) On a 2 0 φ, x (x − t)n (n+1) φ (t)dt. n! montrer par récurrence que 2n+1 (2n)! (1 − x)− 2 . n 4 n! démontrer que n 2n+2 (x − t)n (n+1) x−t 1 n+1 φ (t) = (n + 1) n+1 × n! 4 1−t (1 − t)3/2 l'inégalité suivante : pour tout Z φ (0) + φ(n) (x) = 14) Soit [0, 1[. Par la formule de Taylor avec reste intégral : k=0 13) On note C∞ t ∈ [0, x], 0 ≤ x−t 1−t (2n+2 n+1 ) 4n+1 ≤ x. 0≤ en déduire Z 0 ≤ 1. En étudiant la fonction Montrer à partir de ces inégalités que (x − t)n (n+1) (n + 1)xn φ (t) ≤ , n! (1 − x)3/2 x (x − t)n (n+1) φ (t)dt −→ 0. n→+∞ n! 16) Etablir l'égalité préalablement admise ∞ 2n X 1 n √ = x2n . n 2 4 1−x n=1 2. (2n+2 n+1 ) 4n+1 = P[S2n+2 = 0] ≤ 1 t 7→ x − x−t , montrer que 1−t 7.3. MARCHE ALÉATOIRE 133 Rappel sur le produit de Cauchy : si (an , n ≥ 1) et (bn , n ≥ 1) sont deux suites positives et forment les termes généraux de séries convergentes, alors la série de terme général cn = n X ak bn−k k=0 converge et sa somme vaut ∞ X n=0 Figure cn = ∞ X n=0 ! an ∞ X ! bn . n=0 7.2 Réalisation d'une marche aléatoire symétrique, n=100 et n=1000 Les marches aléatoires jouent un rôle important en théorie des probabilités. L'échelle de temps dans la simulation à droite est dix fois plus petite que celle de gauche. Cette courbe approche une fonction aléatoire célèbre : le mouvement Brownien. Cette fonction aléatoire est avec probabilité 1, continue, non-dérivable, non monotone par morceaux. Ces fonctions très irrégulières sont typiques en théorie des probabilités (plus précisément en théorie des processus stochastiques.) Il n'est pas facile de construire des fonctions déterministes avec de telles propriétés. Le mouvement Brownien est enseigné en M2. Il est impliqué dans de nombreux modèles probabilistes pour la physique, la biologie ou la nance. 134 CHAPITRE 7. SUJETS DES EXAMENS PASSÉS ET PROBLÈMES Chapitre 8 Problèmes d'analyse pour les probabilités Intégrale de Gauss Soit f : x ∈ R 7→ e−x 1) Montrer que f est intégrable sur 2 /2 . R. 2) Soit Z ∞ f (x)dx. G := 0 Montrer que Z ∞ f (x)dx = 2G. −∞ 3) Soit Z e−(x H := 2 +y 2 ) dxdy. R+ ×R+ Montrer que H = G2 . 4) Rappeler brièvement la dénition des coordonnées polaires. En passant aux coordonnées polaires, montrer que Z 2 e−r rdrdθ. H= R+ ×[0, π2 ] En déduire la valeur de H puis de G. Intégrales de Wallis et la formule de Stirling La formule de Stirling est l'équivalent suivant : n n √ 2πn . n→∞ e n! ∼ An de l'établir, on introduit les intégrales de Wallis : pour Z In = π/2 sinn (t)dt. 0 135 n ∈ N, 136 CHAPITRE 8. 1) Montrer que (In )n∈N PROBLÈMES D'ANALYSE POUR LES PROBABILITÉS est décroissante et convergente. n∈N 2) Montrer que pour tout n ≥ 2, tel que In = 3) Calculer I2n et 4) Démontrer que n−1 In−2 . n−2 I2n+1 . I2n −→ I2n+1 n→∞ 1. 5) En déduire que 6) En remarquant que 1.3.5...(2n − 1) 2.4.6...2n 2.4.6...2n = 2n n!, √ 2 n −→ n→∞ 1 . π montrer que n(2n)! 1 −→ √ , π 22n (n!)2 n→∞ 7) Soit f une fonction C 2 ([0, 1], R). Z Montrer qu'il existe 1 f (x)dx = 0 Indication : introduire ξ ∈ [0, 1] 1 1 (f (0) + f (1)) − f 00 (ξ). 2 12 φ(x) = 12 x(1−x), en particulier remarquer que 8) En appliquant la formule précédente, montrer que pour k+1 Z k avec tel que : R1 0 f (x)dx = − 1≤k ≤n−1 R1 0 φ00 (x)f (x). : 1 1 ln(x)dx = (ln(k) + ln(k + 1)) + ξk−2 2 12 k ≤ ξk ≤ k + 1. 9) Montrer que Z 1 n n X n 1 1 X 1 ln(x)dx = ln(k) − ln(n) + . 2 12 k=1 ξk2 k=1 10) En déduire que 11) On pose n 1 1 X 1 ln(n!) = n + ln(n) − n + 1 − . 2 12 k=1 ξk2 Pn 1 1 γn = 1 − 12 k=1 ξ 2 , justier que γn est une suite convergente et que k 1 n! = nn+ 2 e−n eγn . 12) On pose cn = eγn , on cherche la limite c de cette suite. Montrer en calculant c2n que c2n √ 22n (n!)2 2√ n→∞ n(2n)! c = lim 13) En utilisant la question 6) montrer que c= √ 2π , en déduire la formule de Stirling. 137 Pour Z de loi N (0, 1), Φ(t) = FZ (t) = P (Z ≤ t) = t 0, 0 0, 1 0, 2 0, 3 0, 4 0, 5 0, 6 0, 7 0, 8 0, 9 1, 0 1, 1 1, 2 1, 3 1, 4 1, 5 1, 6 1, 7 1, 8 1, 9 2, 0 2, 1 2, 2 2, 3 2, 4 2, 5 2, 6 2, 7 2, 8 2, 9 3, 0 3, 1 3, 2 3, 3 3, 4 3, 5 3, 6 3, 7 3, 8 3, 9 0, 00 0, 5000 0, 5398 0, 5793 0, 6179 0, 6554 0, 6915 0, 7257 0, 7580 0, 7881 0, 8159 0, 8413 0, 8643 0, 8849 0, 9032 0, 9192 0, 9332 0, 9452 0, 9554 0, 9641 0, 9713 0, 9772 0, 9821 0, 9861 0, 9893 0, 9918 0, 9938 0, 9953 0, 9965 0, 9974 0, 9981 0, 9987 0, 9990 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 1, 0000 Exemples : 0, 01 0, 5040 0, 5438 0, 5832 0, 6217 0, 6591 0, 6950 0, 7291 0, 7611 0, 7910 0, 8186 0, 8438 0, 8665 0, 8869 0, 9049 0, 9207 0, 9345 0, 9463 0, 9564 0, 9649 0, 9719 0, 9778 0, 9826 0, 9864 0, 9896 0, 9920 0, 9940 0, 9955 0, 9966 0, 9975 0, 9982 0, 9987 0, 9991 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 1, 0000 0, 02 0, 5080 0, 5478 0, 5871 0, 6255 0, 6628 0, 6985 0, 7324 0, 7642 0, 7939 0, 8212 0, 8461 0, 8686 0, 8888 0, 9066 0, 9222 0, 9357 0, 9474 0, 9573 0, 9656 0, 9726 0, 9783 0, 9830 0, 9868 0, 9898 0, 9922 0, 9941 0, 9956 0, 9967 0, 9976 0, 9982 0, 9987 0, 9991 0, 9994 0, 9995 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000 0, 03 0, 5120 0, 5517 0, 5910 0, 6293 0, 6664 0, 7019 0, 7357 0, 7673 0, 7967 0, 8238 0, 8485 0, 8708 0, 8907 0, 9082 0, 9236 0, 9370 0, 9484 0, 9582 0, 9664 0, 9732 0, 9788 0, 9834 0, 9871 0, 9901 0, 9925 0, 9943 0, 9957 0, 9968 0, 9977 0, 9983 0, 9988 0, 9991 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000 0, 04 0, 5160 0, 5557 0, 5948 0, 6331 0, 6700 0, 7054 0, 7389 0, 7704 0, 7995 0, 8264 0, 8508 0, 8729 0, 8925 0, 9099 0, 9251 0, 9382 0, 9495 0, 9591 0, 9671 0, 9738 0, 9793 0, 9838 0, 9875 0, 9904 0, 9927 0, 9945 0, 9959 0, 9969 0, 9977 0, 9984 0, 9988 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000 t x2 dx e− 2 √ 2π −∞ Z 0, 05 0, 5199 0, 5596 0, 5987 0, 6368 0, 6736 0, 7088 0, 7422 0, 7734 0, 8023 0, 8289 0, 8531 0, 8749 0, 8944 0, 9115 0, 9265 0, 9394 0, 9505 0, 9599 0, 9678 0, 9744 0, 9798 0, 9842 0, 9878 0, 9906 0, 9929 0, 9946 0, 9960 0, 9970 0, 9978 0, 9984 0, 9989 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000 0, 06 0, 5239 0, 5636 0, 6026 0, 6406 0, 6772 0, 7123 0, 7454 0, 7764 0, 8051 0, 8315 0, 8554 0, 8770 0, 8962 0, 9131 0, 9279 0, 9406 0, 9515 0, 9608 0, 9686 0, 9750 0, 9803 0, 9846 0, 9881 0, 9909 0, 9931 0, 9948 0, 9961 0, 9971 0, 9979 0, 9985 0, 9989 0, 9992 0, 9994 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000 0, 07 0, 5279 0, 5675 0, 6064 0, 6443 0, 6808 0, 7157 0, 7486 0, 7794 0, 8078 0, 8340 0, 8577 0, 8790 0, 8980 0, 9147 0, 9292 0, 9418 0, 9525 0, 9616 0, 9693 0, 9756 0, 9808 0, 9850 0, 9884 0, 9911 0, 9932 0, 9949 0, 9962 0, 9972 0, 9979 0, 9985 0, 9989 0, 9992 0, 9995 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000 0, 08 0, 5319 0, 5714 0, 6103 0, 6480 0, 6844 0, 7190 0, 7517 0, 7823 0, 8106 0, 8365 0, 8599 0, 8810 0, 8997 0, 9162 0, 9306 0, 9429 0, 9535 0, 9625 0, 9699 0, 9761 0, 9812 0, 9854 0, 9887 0, 9913 0, 9934 0, 9951 0, 9963 0, 9973 0, 9980 0, 9986 0, 9990 0, 9993 0, 9995 0, 9996 0, 9997 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000 Φ(0, 25) ' 0, 5987, Φ(−0, 32) = 1 − Φ(0, 32) ' 1 − 0, 6255 = 0, 3745 0, 09 0, 5359 0, 5753 0, 6141 0, 6517 0, 6879 0, 7224 0, 7549 0, 7852 0, 8133 0, 8389 0, 8621 0, 8830 0, 9015 0, 9177 0, 9319 0, 9441 0, 9545 0, 9633 0, 9706 0, 9767 0, 9817 0, 9857 0, 9890 0, 9916 0, 9936 0, 9952 0, 9964 0, 9974 0, 9981 0, 9986 0, 9990 0, 9993 0, 9995 0, 9997 0, 9998 0, 9998 0, 9999 0, 9999 0, 9999 1, 0000