17. Probabilités sur un univers quelconque Jusqu’à présent dans ce cours, il n’a été question que de probabilités sur un univers fini. Dans ce chapitre, on reprend les notions abordées dans ce cadre et on les généralise au cas d’un univers quelconque (i.e. fini ou infini). Les points de ce chapitre ressemblent ainsi, pour beaucoup, à ceux des chapitres 11 et 12 vus à la fin du premier semestre. 17.1 Un exemple L’objectif des probabilités est, comme cela a été présenté précédemment, d’offrir un cadre mathématique adéquat pour la modélisation d’expériences aléatoires. Pour cela, on met en relation deux à deux les résultats possibles de l’expérience aléatoire avec des sous-ensembles d’un ensemble mathématique. Si l’on ne considère que des ensembles finis, cela signifie que l’on ne peut considérer que des expériences aléatoires dont le nombre de résultats possibles est fini. Or il existe de très nombreux problèmes que l’on souhaiterait considérer pour lesquels le nombre d’issues possibles n’est pas fini. On imagine que l’on souhaite modéliser la réponse d’une personne à qui l’on demande de choisir un entier naturel au hasard en utilisant les probabilités. Le nombre de réponses possibles que cette personne peut apporter est infini : elle peut tout à fait répondre 1, comme 42, comme 2250000 , comme �e 467 �!. A priori, il y a autant de réponses possibles que d’entiers naturels. En l’occurrence, il serait très compliqué de mettre en place une bonne modélisation de ce problème. Une réponse à cette question dépend certainement de la familiarité et de l’affinité de la personne interrogée vis-à-vis des entiers naturels et cela constitue une problématique de modélisation bien trop complexe à ce niveau. On va donc considérer un problème similaire mais on remplace l’humain trop complexe par un automate probabiliste. L’automate choisi au hasard un chiffre entre 1 et 9, puis il tire à pile ou face. S’il tombe sur pile, il s’arrête. Sinon, il choisit à nouveau un chiffre entre 0 et 9, cette fois. Puis, il tire à nouveau à pile ou face pour s’avoir s’il s’arrête. S’il tombe sur pile, il s’arrête. S’il tombe sur face, il reprend au niveau de la deuxième étape. Une fois qu’il s’est arrêté, l’automate renvoie le nombre entier constitué de la juxtaposition des différents chiffres qu’il a tiré, dans l’ordre du tirage. Chapitre 17. Probabilités sur un univers quelconque 202 Exercice 17.1 Écrire un programme en pseudo-code qui réalise le processus décrit ci-dessus. Réécrire ce programme en language Scilab et vérifier qu’il tourne correctement. ■ Exercice 17.2 Quelles sont les chances que le programme renvoie : le nombre 7 ; le nombre 1000 ; un nombre supérieur ou égal à 1000 ? Est-il certain que le programme va s’arrêter à un moment ? ■ On pourra remarquer que l’exemple qui a été décrit ici peut facilement être modélisé grâce aux variables aléatoires réelles discrètes étudiées dans la suite de ce chapitre. 17.2 Espaces probabilisés 17.2.1 Tribus Définition 17.2.1 — Tribu ou σ-algèbre. Soient Ω un ensemble et A un sous-ensemble de P (Ω). Alors on dit que A est une tribu (ou σ-algèbre) sur Ω si et seulement si on a les propositions suivantes : (i) (ii) (iii) Ω∈A ; ∀A ∈ A , A ∈ A ; ∀ (An )n∈N ∈ A N , +∞ � n=0 An ∈ A . Exercice 17.3 Soient Ω un�ensemble et A ⊂ Ω. Montrer que chacun des trois ensembles � A1 = {�, Ω}, A2 = �, A, A, Ω et A3 = P (Ω) est une tribu sur Ω. ■ 17.2 Espaces probabilisés 203 Théorème 17.2.1 — Règles de calcul. Soit A une tribu sur un ensemble Ω. Alors on a les propositions suivantes : (i) (ii) (iii) (iv) (v) �∈A ; ∀(A, B) ∈ A 2 , A ∪ B ∈ A ; ∀(A, B) ∈ A 2 , A ∩ B ∈ A ; ∀(A, B) ∈ A 2 , A \ B ∈ A ; +∞ � ∀ (An )n∈N ∈ A N , An ∈ A . n=0 Exercice 17.4 Démontrer le théorème. ■ On rappelle qu’un système complet d’évènements fini est une collection finie d’évènements qui est modélisée par une famille finie formant une partition de Ω. Cette notion peut être utilement élargie, dans le cas où Ω infini, à une notion plus générale de systèmes complets d’évènements pour laquelle on admet également les partitions dénombrables de Ω (i.e. les partitions de Ω qui peuvent être indexées par N). Théorème 17.2.2 — Tribu engendrée par une partition. Soit (Ai )i ∈I une partition d’un ensemble Ω telle que I fini ou I = N. Alors, il existe une plus petite tribu A sur Ω telle que, pour tout i ∈ I, Ai ∈ A . Dans ce cas, on parle de tribu engendrée par la partition (Ai )i ∈I . Démonstration. Ce théorème est admis. R 17.2.2 ■ On parlera également, de manière abusive, de tribu engendrée par un système complet d’évènements, lorsque l’on confond les évènements avec les sous-ensembles qui les modélisent. Probabilités et espaces probabilisés Définition 17.2.2 — Espace probabilisable. Soit A une tribu sur un ensemble Ω. Alors on dit que (Ω, A ) est un espace probabilisable. Chapitre 17. Probabilités sur un univers quelconque 204 Définition 17.2.3 — Probabilité. Soit (Ω, A ) un espace probabilisable. Une probabilité sur (Ω, A ) est une application P de A vers [0, 1] telle que : (i) (ii) P(Ω) = 1 ; � � � � +∞ +∞ � � � � ∀ (An )n∈N ∈ A , ∀i �= j , Ai ∩ A j = � ⇒ P An = P(An ) . N n=0 n=0 (σ-additivité) On dit alors que (Ω, A , P) est un espace probabilisé. Théorème 17.2.3 — Propriétés d’une probabilité. Soient (Ω, A , P) un espace probabilisé, A, B ∈ A . Alors on a les propositions suivantes : (i) (ii) (iii) (iv) (v) (vi) P(�) = 0 ; A ∩ B = � ⇒ P(A ∪ B) = P(A) + P(B) ; P(A) = 1 − P(A) ; P(A \ B) = P(A) − P(A ∩ B) ; B ⊂ A ⇒ P(B) ≤ P(A) ; P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Démonstration. On commence par montrer (i). Comme � ∩ � = � et que quant la σ-additivité, on a, P (�) = +∞ � n=0 P(�). On en déduit que P(�) = 0. +∞ � n=0 � = �, en appli- On montre maintenant (ii). Soient A, B ∈ A tels que A ∩ B = �. On peut alors considérer la suite (A, B, �, �, ...) d’éléments de A et on obtient, via la σ-additivité, P(A ∪ B) = P(A) + P(B). Les autres points se démontrent alors exactement comme dans le cas des probabilités finies. ■ Définition 17.2.4 — P-négligeable, P-presque sûr. Soit (Ω, A , P) un espace probabilisé et A ∈ A . On dit que A est P-négligeable si et seulement si P(A) = 0. On dit que A est P-presque sûr si et seulemennt si P(A) = 1. 17.2.3 Limite monotone Théorème 17.2.4 — Limite monotone. Soient (Ω, A , P) un espace probabilisé et (An )n∈N ∈ A N . Alors, on a : (i) (∀n ∈ N, An ⊂ An+1 ) ⇒ P (ii) (∀n ∈ N, An+1 ⊂ An ) ⇒ P � +∞ � �n=0 +∞ � n=0 � lim P(A ) An = n→+∞ n � lim P(A ) An = n→+∞ n (cas (An )n∈N croissante) (cas (An )n∈N décroissante) Démonstration. On commence par le cas croissant. On remarque que, dans ce cas, la suite +∞ � An , B0 = A0 et, pour (P(An ))n∈N est croissante, majorée par 1, donc converge. On pose A = n=0 +∞ � tout n ∈ N, Bn+1 = An+1 \ An . Alors, A = Bn et, pour tout i �= j , Bi ∩ B j = �. On a donc, n=0 � � +∞ +∞ +∞ +∞ � � � � P(A) = P Bn = P(Bn ) = P(A0 ) + P(An \ An−1 ) = P(A0 ) + (P(An ) − P(An−1 ∩ An )) = P(A0 ) + n=0 +∞ � n=1 n=0 n=1 n=1 lim P(A ) − P(A ) = lim P(A ). (P(An ) − P(An−1 )) = P(A0 ) + n→+∞ n 0 n n→+∞ Pour le cas décroissant, on se ramène au cas croissant en passant En � au �complémentaire. � � +∞ � lim P A . Mais, effet, si ∀n ∈ N, An+1 ⊂ An , alors ∀n ∈ N, An ⊂ An+1 . On a donc P An = n→+∞ n n=0 17.2 Espaces probabilisés +∞ � 205 +∞ � par les lois de De Morgan, An = An . D’où, P n=0 n=0 � � �� lim lim P (A ). = n→+∞ n n→+∞ 1 − P A n � +∞ � n=0 � An = 1 − P � +∞ � n=0 � � � lim P A = An = 1 − n→+∞ n ■ Corollaire 17.2.5 Soient (Ω, A , P) un espace probabilisé et (An )n∈N ∈ A N . Alors, on a : � � � � +∞ n � � lim P P An = n→+∞ Ak (i) �n=0 � �k=0 � +∞ n � � lim P An = n→+∞ Ak P (ii) n=0 k=0 Démonstration. On pose, pour tout n ∈ N, Bn = n � k=0 Ak et Cn = n � k=0 Ak . On a alors, pour tout n ∈ N, Bn ⊂ Bn+1 et Cn+1 ⊂ Cn . On peut donc appliquer le théorème. Or +∞ � n=0 Cn = +∞ � n=0 An , ce qui permet de conclure. +∞ � n=0 An = +∞ � n=0 Bn et ■ Exercice 17.5 — Suite infinie de pile ou face. On considère l’expérience aléatoire consistant à lancer une pièce une infinité de fois de manière successive. On modélise les résultats ∗ de l’expérience par l’ensemble Ω = {0, 1}N . � � � � 1. Soit i ∈ N∗ . À quoi correspond l’ensemble Ai = �(ωn )n∈N � ∗ ∈ Ω ωi = 1 ? i� −1 A j ∩ Ai ? 2. Soit i ∈ N∗ . À quoi correspond l’ensemble Bi = j =1 3. Soit (1n )n∈N∗ la suite constante égale à 1. On pose B0 = {(1n )n∈N∗ }. Montrer que (Bi )i ∈N forme une partition de Ω. On note B la tribu engendrée par la partition (Bi )i ∈N et on admet qu’il existe une unique probabilité P sur (Ω, B) telle que P(Ai ) = 12 pour tout i ∈ N∗ . 4. Trouver un sous-ensemble C �= � dans B et un sous-ensemble D �= Ω dans B tels que C est P-négligeable et D est P-presque sûr. ■ Chapitre 17. Probabilités sur un univers quelconque 206 17.2.4 Probabilités conditionnelles Cette section est quasi-identique à la section 11.2.2 qui a été faite dans le contexte des probabilités finies. On pourra donc s’inspirer de cette précédente section pour rédiger les démonstrations qui sont demandées ici. Définition 17.2.5 — Probabilité conditionnelle. Soient (Ω, A , P) un espace probabilisé et A ∈ A tel que P(A) �= 0. Alors, pour tout B ∈ A , on définit la probabilité conditionnelle de B sachant A, notée P(B | A), via : P(A ∩ B) . P(B | A) = P(A) R De même que dans le cas fini, l’application définie par PA : P (Ω) → [0, 1], B �→ PA (B) = P(B | A) est une probabilité sur l’espace probalisable (Ω, A ). Théorème 17.2.6 — Formule de Bayes. Soient (Ω, A , P) un espace probabilisé et A, B ∈ A . On suppose que P(A) et P(B) sont non nuls, alors on a : P(A | B) = P(B | A)P(A) . P(B) Exercice 17.6 Démontrer le théorème. ■ Théorème 17.2.7 — Formule des probabilités composées. Soient (Ω, A , P) un espace probabilisé, n un entier supérieur ou égal à 2 et A1 , ..., An ∈ A . On suppose que P(A1 ∩...∩An−1 ) �= 0. Alors on a : P(A1 ∩ ... ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 )...P�n−1 Ai (An ) i =1 = P(A1 )P(A2 | A1 )P(A3 | A1 ∩ A2 )...P(An | Exercice 17.7 Démontrer le théorème. �n−1 i =1 Ai ) . ■ 17.2 Espaces probabilisés 207 Exercice 17.8 Énoncer une généralisation du théorème donnant la formule des probabilités totales dans le cadre d’un espace probabilisé (Ω, A , P) et d’une partition finie (A1 , ..., An ) ∈ A n de Ω. ■ Théorème 17.2.8 — Formule des probabilités totales (partition dénombrable). Soient (Ω, A , P) un espace probabilisé et (An )n∈N ∈ A N une partition de Ω telle que P(An ) �= 0 pour � � tout n ∈ N. Alors, pour tout B ∈ A , la série P(B∩An ) (aussi égale à la série P(An )PAn (B) = n≥0 n≥0 � P(An )P(B | An )) converge et on a : n≥0 P(B) = = = � P(B ∩ An ) n=0 +∞ � P(An )P(B | An ) . n=0 +∞ � n=0 P(An )PAn (B) � +∞ � Démonstration. On a B = B ∩ Ω = B ∩ An = (B ∩ An ). De plus, pour tout i , j ∈ N tels que n=0 � � � �n=0 i �= j , (B �∩ Ai ) ∩ B ∩ A� j = B ∩ Ai ∩ A j = �. On peut donc utiliser la σ-additivité de P et on a +∞ +∞ � � P(B) = P P (B ∩ An ). Les égalités suivantes découlent alors directement de la (B ∩ An ) = n=0 n=0 +∞ � +∞ � définition de la probabilité conditionnelle. ■ Exercice 17.9 On dispose d’une infinité dénombrable d’urnes indexées par N∗ et telles que, pour tout n ∈ N∗ , l’urne Un possède n! boules numérotées de 1 à n!. On tire d’abord une urne, puis on tire une boule dans cette urne. Pour choisir l’urne, on tire à pile ou face jusqu’à ce que l’on tombe sur pile : l’urne choisie porte le numéro correspondant au nombre de tirages que l’on a dû réaliser pour obtenir pile. La boule est tirée au hasard dans l’urne. Déterminer la probabilité de tirer une boule numérotée 1. ■ 208 17.2.5 Chapitre 17. Probabilités sur un univers quelconque Indépendance en probabilités Exercice 17.10 Rappeler les définitions d’indépendance, d’indépendance mutuelle et d’indépendance deux à deux, en les adaptant au contexte d’un espace probabilisé (Ω, A , P). Généraliser ces deux dernières notions de manière à pouvoir considérer des familles finies et infinies dénombrables. ■ 17.3 Variables aléatoires réelles 209 17.3 Variables aléatoires réelles 17.3.1 Généralités Définition 17.3.1 Soit (Ω, A ) un espace probabilisable. Une variable aléatoire réelle sur (Ω, A ) (VAR sur (Ω, A )) est une application X de Ω dans R telle que, pour tout réel x, l’image inverse de [x, +∞[ par X est dans la tribu A . Autrement dit : ∀x ∈ R, [X ≤ x] = X −1 (] − ∞, x]) = {ω ∈ Ω | X(ω) ≤ x} ∈ A . R Par rapport à la définition d’une variable aléatoire réelle finie, on rajoute une condition qui correspond à l’idée que l’application X est compatible avec la tribu A . Cette condition n’est pas nécessaire dans le cas où A = P (Ω) car toute application de Ω dans R vérifie alors cette condition. Exercice 17.11 Soient X une VAR sur un espace probabilisable (Ω, A ), a, b, x ∈ R et I ⊂ R. Rappeler le sens des notations [X ∈ I], [X = x] et [X ≤ x]. Montrer que [a < X ≤ b] ∈ A et [X = b] ∈ A . ■ Exercice 17.12 Rappeler les quatre opérations usuelles définies dans le cadre des VARDF. Ces opérations sont aussi valables dans le cadre des VAR. Démontrer le pour l’addition et la ■ multiplication par un scalaire. Chapitre 17. Probabilités sur un univers quelconque 210 Le schéma qui suit donne un aperçu du principe d’une variable aléatoire réelle. Les éléments de Ω sont associés à des réels via la variable aléatoire X (flèches en pointillés). Dans Ω, les éléments peuvent être regroupés dans des sous-ensembles définis par les images de leurs éléments par X. Ces sous-ensembles, notés ici Ai , appartiennent à la tribu A définissant l’espace probabilisable considéré. La probabilité de ces sous-ensembles, définies par l’application P (flèches à pointes pleines), sont également obtenues en partant directement des sous-ensembles de R correspondant aux images de leurs éléments par X (flèches à pointes vides). Ainsi, plus besoin de se préoccuper de la structure de Ω, il suffit de considérer l’ensemble des réels. � � A4 = X ≤ x 4 Ω � � A1 = X = x 1 � � � � P A1 = P X = x 1 � � A3 = X = x 3 � � � � P A4 = P X ≤ x 4 � � � � P A3 = P X = x 3 � � A2 = X = x 2 � � � � P A2 = P X = x 2 R x4 17.3.2 x3 0 x2 x1 Loi de probabilité et fonction de répartition La définition qui suit utilise la notion de tribu borélienne de R, notée B. Cette tribu est la tribu sur R engendrée par les intervalles ouverts de R. Une définition de la tribu des boréliens dépasse largement le cadre de ce programme et on n’attend pas à ce que celle-ci soit connue. On pourra comprendre B de manière simplifiée comme l’ensemble des intervalles de R, ainsi que de n’importe quelle union ou intersection dénombrable d’intervalles de R. Définition 17.3.2 — Loi de probabilité. Soit X une VAR sur un espace probabilisé (Ω, A , P). On appelle loi de probabibilité de X la fonction L X définie par : L X : B −→ [0, 1] . B �−→ P(X ∈ B) 17.4 Variables aléatoires réelles discrètes 211 Définition 17.3.3 — Égalité en loi. Soient X et Y des VAR sur un espace probabilisé (Ω, A , P). L On dit que X et Y sont égales en loi si L X = L Y . On note alors, X = Y. Définition 17.3.4 — Fonction de répartition. Soit X une VAR sur un espace probabilisé (Ω, A , P). On appelle fonction de répartition de X et on note FX la fonction définie par : FX : R −→ [0, 1] . x �−→ P(X ≤ x) Théorème 17.3.1 — Propriétés de la fonction de répartition. Soient X une VAR sur un espace probabilisé (Ω, A , P) et FX sa fonction de répartition. Alors, on a les propositions suivantes : (i) (ii) (iii) FX est croissante, FX est continue à droite en tout point x de R, lim lim x→−∞ FX (x) = 0 et x→+∞ FX (x) = 1. � � Démonstration. Pour tout x, y ∈ R, (x ≤ y) ⇒ [X ≤ x] ⊂ [X ≤ y] , puis FX (x) ≤ FX (y). Ce qui montre la croissance. Le théorème de la limite monotone 8.2.1 (celui d’analyse, pas celui de probabilités !) assure que la fonction croissante FX possède une limite à droite en tout point x de R. On remarque � � ��+∞ � �� � � � 1 1 lim P X ≤ x + 1 = n→+∞ ensuite que +∞ n=1 X ≤ x + n = [X ≤ x]. D’où FX (x) = P n=1 X ≤ x + n n � � lim P X ≤ x + 1 = par le théorème de la limite monotone (celui de probabilités cette fois !). Or n→+∞ n lim+ P (X ≤ x + h) = lim+ F (x + h). Ainsi, F est bien continue à droite en x. X X h→0 h→0 lim F (x) et lim F (x) Toujours par le théorème de la limite motone 8.2.1, les limites x→−∞ X x→+∞ X �+∞ �+∞ existent. De plus, on remarque que n=1 [X ≤ −n] = � et n=1 [X ≤ n] = [X ∈ R] = Ω. On en déduit ��+∞ � lim F (x) = lim F (−n) = P au théorème de la limite donc que x→−∞ X n→+∞ X n=1 [X ≤ −n] = P (�) = 0 �grâce � �+∞ lim F (x) = lim F (n) = P monotone des probabilités. De même, x→+∞ X n→+∞ X n=1 [X ≤ n] = P (Ω) = 1. ■ R Il est possible de montrer une forme de réciproque à ce théorème : toute fonction réelle vérifiant ces trois propositions est la fonction de répartition d’une variable aléatoiré réelle. Elle n’est toutefois pas au programme. Théorème 17.3.2 — Caractérisation de la loi par la fonction de répartition. Soient X et Y deux VAR sur un espace probabilisé (Ω, A , P). On a l’équivalence suivante : L X = Y ⇔ ∀x ∈ R, FX (x) = FY (x) . Démonstration. Ce théorème est admis. ■ 17.4 Variables aléatoires réelles discrètes 17.4.1 Ensembles discrets La notion d’ensemble discret est une notion qui dépasse un peu le cadre de ce programme. On la définit tout de même dans le cadre des réels puisqu’elle est indispensable si l’on veut pouvoir définir ensuite la notion de variable aléatoire réelle discrète. Définition 17.4.1 — Partie discrète de R. Soit A un sous-ensemble de R. On dit que A est une partie discrète de R si pour tout x ∈ A, il existe ε > 0 telle que A ∩ [x − ε, x + ε] = {x}. Chapitre 17. Probabilités sur un univers quelconque 212 R En termes mathématiques plus élaborés, on dit que les éléments de A sont tous des points isolés. Exercice 17.13 Lesquels des ensembles suivants sont des parties discrètes de R ? � � � 1 �� ∗ n ∈ N , B = [0, 1] , C = Z, D = Q . A= n� ■ On admettra que toute partie discrète de R est au plus dénombrable (finie ou infinie dénombrable). 17.4.2 Définitions Définition 17.4.2 — Variable aléatoire réelle discrète. Soient (Ω, A ) un espace probabilisable et X une VAR sur (Ω, A ). On dit que X est une variable aléatoire réelle discrète sur (Ω, A ) (VARD sur (Ω, A )) si son image X(Ω) est une partie discrète de R. Exemple 17.1 Le nombre aléatoire donné par le programme défini en 17.1 peut être modélisé par une VARD X dont l’image est N∗ . ■ ■ Le théorème sur les opérations usuelles peut être partiellement adapté au contexte des VARD dans le sens où la somme des deux VARD est une VARD, la multiplication d’un scalaire par une VARD est une VARD et la multiplication de deux VARD est une VARD. Toutefois, le transfert d’une VARD par une fonction de transfert, même s’il s’agit bien d’une VAR, n’est pas a priori une VARD (l’image d’une partie discrète de R par une fonction réelle n’est pas forcément une partie discrète). En pratique, il s’agit de cas peu usuels et les transferts de VARD que l’on considère donne tous des VARD. Théorème 17.4.1 — Caractérisation la fonction de répartition. Soient X et Y deux VARD sur un espace probabilisé (Ω, A , P). On a l’équivalence suivante : (∀x ∈ R, P(X = x) = P(Y = x)) ⇔ ∀x ∈ R, FX (x) = FY (x) . Démonstration. Ce théorème est admis. ■ Exercice 17.14 Quelle valeur donne-t-on à P(X = k) si X modélise le nombre aléatoire renvoyé par le programme défini en 17.1 et k ∈ N∗ ? ■ 17.4 Variables aléatoires réelles discrètes 17.4.3 213 Espérance mathématique Définition 17.4.3 — Espérance mathématique d’une VARD. Soit X une VARD sur un espace probabilisé (Ω, A , P). On dit que X admet une espérance mathématique si la série � x∈X(Ω) xP(X = x) est absolument convergente. L’espérance mathématique de X, notée E(X) est la somme de cette série. Comme X(Ω) est une partie discrète de R, c’est un ensemble au plus dénombrable et il peut être indexé par une partie de N. Si X(Ω) est infini, ceci permet de considérer une série � i ≥0 x i P(X = x i ) et dans le cas où celle-ci est absolument convergente, on peut montrer que sa somme ne dépend pas de l’ordre d’indexation choisi pour les éléments de X(Ω). Si X(Ω), on peut également considérer la même série, en supposant que P(X = x i ) = 0 pour tout i supérieur à un certain rang. Ainsi, pour une variable aléatoire qui admet une espérance, on pourra � systématiquement considérer une série i ≥0 x i P(X = x i ) pour le calcul de cette espérance. Exercice 17.15 On considère la variable aléatoire de l’exercice précédent. 1. Montrer que la série de l’espérance mathématique diverge vers +∞ pour cette variable. 2. On modifie légèrement l’expérience aléatoire. Cette fois-ci la pièce est truquée et tombe sur pile avec une probabilité p > 12 . Pour quelle valeur de p la variable aléatoire admet-elle une espérance ? Donner la valeur de cette espérance le cas échéant. ■ Théorème 17.4.2 — Théorème de transfert. Soient X une VARD sur un espace probabilisé (Ω, A , P) et g une fonction réelle définie sur X(Ω). Alors g (X) admet une espérance mathé� matique si et seulement si la série x∈X(Ω) g (x)P(X = x) est absolument convergente. On a alors : � � � E(g (X)) = lim g (x)P(X = x) . x∈X(Ω) Démonstration. La démonstration de ce théorème est admise. 17.4.4 Variance ■ Définition 17.4.4 — Variance d’une VARD. Soit X une VARD sur un espace probabilisé (Ω, A , P) telle que X admet une espérance. On dit que X admet une variance si (X − E (X))2 Chapitre 17. Probabilités sur un univers quelconque 214 admet une espérance mathématique. La variance de X est le réel, noté V(X), tel que : � � V(X) = E (X − E (X))2 . Théorème 17.4.3 — Positivité de la variance. Soit X une VARD sur un espace probabilisé (Ω, A , P). On suppose que X admet une variance. Alors, on a : (i) (ii) V(X) ≥ 0 V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)). Exercice 17.16 Démontrer le théorème. ■ Théorème 17.4.4 — Formule de Koenig-Huygens. Soit X une VARD sur un espace probabilisé (Ω, A , P) telle que X admet une variance. Alors, on a : V(X) = E(X 2 ) − (E(X))2 . Exercice 17.17 Démontrer le théorème. 17.4.5 ■ Définition 17.4.5 — Écart-type d’une VARD. Soit X une VARD sur un espace probabilisé (Ω, A , P) telle que X admet une variance. On appelle écart-type de X le réel, noté σ(X), tel que : � σ(X) = V(X) . Transferts usuels Théorème 17.4.5 — Transfert linéaire. Soient X une VARD sur un espace probabilisé (Ω, A , P) et a, b deux réels. On suppose que X admet une espérance et une variance. Alors, aX + b adment une espérance et une variance, et on a : 17.4 Variables aléatoires réelles discrètes (i) (ii) 215 E(aX + b) = aE(X) + b V(aX + b) = a 2 V(X) Exercice 17.18 Démontrer le théorème. ■ Définition 17.4.6 — Variable centrée et réduite. Soit X une VARD sur un espace probabilisé (Ω, A , P). On dit que X est centrée lorsque X admet une espérance et E(X) = 0. On dit que X est centrée et réduite lorsque X admet une espérance et une variance, et E(X) = 0 et V(X) = 1. Si X admet une variance et V(X) �= 0, on appelle variable centrée réduite associée à X la VARD, notée X ∗ , définie par : X − E(X) X∗ = . σ(X) 17.4.6 Moments Définition 17.4.7 — Moment d’ordre r . Soient X une VARD sur un espace probabilisé (Ω, A , P) et r ∈ N. On dit que X admet un moment d’ordre r si X r admet une espérance mathématique. Le moment d’ordre r de X est le réel, noté m r (X), tel que m r (X) = E(X r ). Le moment centré d’ordre r de X est le réel, noté µr (X), tel que µr (X) = E ((X − E(X))r ). R Le moment d’ordre 1 de X est l’espérance de X. Son moment centré d’ordre 2 est sa variance. Théorème 17.4.6 Soient X une VARD sur un espace probabilisé (Ω, A , P) et r ∈ N∗ . Si X admet un moment d’ordre r alors on a : (i) (ii) X admet un moment d’ordre s, pour tout s ∈ �0, r �, X admet un moment centré d’ordre r . Démonstration. La démonstration est admise mais elle ne présente pas de difficulté théorique à ce niveau et peut-être traitée en exercice. ■ R Ainsi, si E(X 2 ) existe, on peut utiliser le théorème pour montrer dire que E(X) et V(X) existent. 216 Chapitre 17. Probabilités sur un univers quelconque 17.5 Lois usuelles 17.5.1 VARDF Exercice 17.19 Donner les quatre lois usuelles présentées dans le chapitre 12 avec les formules des espérances et des variances. ■ 17.5.2 Loi géométrique Définition 17.5.1 Soient X une VARD sur un espace probabilisé (Ω, A , P) et p ∈]0, 1[. On dit que X suit une loi géométrique de paramètre p si X(Ω) = N∗ et, pour tout k ∈ N∗ , P(X = k) = p(1 − p)k−1 . On note alors X �→ G (p). Exercice 17.20 Justifier l’affirmation suivante : « Une loi géométrique est la loi du rang d’apparition d’un premier succès dans un processus de Bernoulli sans mémoire ». ■ Exercice 17.21 Vérifier que l’on a bien +∞ � k=1 P(X = k) = 1. ■ 17.5 Lois usuelles 217 Théorème 17.5.1 Soit X une VARD telle que X �→ G (p). Alors, on a : E(X) = Démonstration. La série +∞ � � 1 p et V(X) = 1−p . p2 kp(1 − p)k−1 converge par le théorème des séries géométrique et k≥1 +∞ � � 2 p k(1 − p)k−1 = (1−(1−p))2 = p1 . De même, la série k p(1 − p)k−1 k=1 k=1 k≥1 � � � � +∞ +∞ +∞ � 2 � � converge et on a E(X 2 ) = k p(1−p)k−1 = k(k − 1)p(1 − p)k−1 + kp(1 − p)k−1 = p(1− k=1 k=1 k=1 � � +∞ � p(1−p) 1−p 1 1 k−2 k(k − 1)(1 − p) + E(X) = (1−(1−p))3 + p = p 2 . On a donc V(X) = E(X 2 ) − E(X)2 = p 2 . ■ p) E(X) = kp(1 − p) k−1 =p k=2 17.5.3 Loi de Poisson Définition 17.5.2 Soient X une VARD sur un espace probabilisé (Ω, A , P) et λ ∈ R. On dit que k X suit une loi de Poisson de paramètre λ ∈ R si X(Ω) = N et, pout tout k ∈ N, P(X = k) = λk! e −λ . On note alors X �→ P (λ). Exercice 17.22 Vérifier que l’on a bien +∞ � k=0 P(X = k) = 1. ■ Théorème 17.5.2 Soit X une VARD telle que X �→ P (λ). Alors, on a : E(X) = λ Démonstration. La série E(X) = série e k=0 � k k λk! e −λ k=2 λk−2 (k−2)! λ2 + λ − λ2 = λ. 17.5.4 =e −λ k k≥0 +∞ � k=1 V(X) = λ . k k λk! e −λ converge (résultats sur les séries exponentielles) et on a k k λk! = e −λ +∞ � k=1 λk (k−1)! = e −λ λ +∞ � =e −λ 2 λ +∞ � k=0 λk k! 2 λk−1 (k−1)! k=1 +∞ � k(k − 1) λk! e −λ converge et on a E(X(X − 1)) = k≥0 +∞ � −λ 2 λ +∞ � � et k=0 2 = e −λ λ k +∞ � k=0 λk k! = λ. De même, la k(k − 1) λk! e −λ = e −λ 2 +∞ � k=2 k k(k − 1) λk! = = λ . On a donc V(X) = E(X ) −E(X) = E(X(X −1)) +E(X) −E(X)2 = ■ Culture G : La ruine du joueur Au début des années 2000, le nombre de sites internets dédiés aux jeux d’argents (paris sportifs, poker en ligne, etc.), ainsi que leur fréquentation, s’est très largement développé pour représenter rapidement un marché de plusieurs milliards d’euros. Et avec le développement de ce nouveau marché, comme c’est le cas dès qu’un nouveau marché s’ouvre sur internet, on a vu le développement d’une multitude d’arnaques autour de ce marché. Parmi les arnaqueurs, un certain nombre prétendait présenter des méthodes permettant de gagner de manière presque sûre au poker. Cela incitait fortement les internautes à s’inscrire sur les sites de poker en ligne proposés et à y dépenser leur argent alors que les méthodes étaient bien évidemment complètement bidons. Parmi ces méthodes bidon, la plus célèbre est la méthode du doublement de la 218 Chapitre 17. Probabilités sur un univers quelconque mise. Le principe est le suivant. Un joueur joue uniquement sur des tables à deux joueurs de telle façon que s’il gagne, il récupère le double de sa mise. Le joueur commence sur une table où chaque joueur mise 1$. S’il gagne, il empoche 2$ et a donc gagné 1$ net. Il continuera ensuite à jouer sur une table à 1$. Par contre, s’il perd, il rejoue sur une table à 2$. Dans ce cas, s’il gagne, il empoche 4$ et aura donc gagné 1$ net, vu qu’il a misé d’abord 1$, puis 2$. L’idée est que le joueur doit doubler la mise à chaque fois jusqu’à ce qu’il gagne, de manière à ce qu’il gagne 1$ net à la fin de chaque série de défaite couronnée par une victoire. Si l’on suppose que le joueur gagne une fois sur deux, il est presque sûre que chaque série de défaite va éventuellement se terminer par une victoire, et qu’il sera bien 1$ plus riche à la fin de la série. En dehors du fait que tous les joueurs n’ont pas forcément une chance sur deux de gagner à une partie de poker, que le raisonnement ne comptabilise pas le pourcentage de la mise reversé au site pour chaque partie et qu’il y a forcément une mise maximale que l’on peut jouer sur le site de telle sorte qu’il y a un nombre maximal de fois que l’on pourra doubler sa mise, en dehors de toutes ces raisons qui justifieraient déjà largement de ne pas suivre ce stratagème, on peut montrer que le joueur qui le suit est presque sûr de se retrouver ruiné.