17. Probabilités sur un univers quelconque

publicité
17. Probabilités sur un univers quelconque
Jusqu’à présent dans ce cours, il n’a été question que de probabilités sur un univers fini.
Dans ce chapitre, on reprend les notions abordées dans ce cadre et on les généralise au cas
d’un univers quelconque (i.e. fini ou infini). Les points de ce chapitre ressemblent ainsi, pour
beaucoup, à ceux des chapitres 11 et 12 vus à la fin du premier semestre.
17.1 Un exemple
L’objectif des probabilités est, comme cela a été présenté précédemment, d’offrir un cadre
mathématique adéquat pour la modélisation d’expériences aléatoires. Pour cela, on met en
relation deux à deux les résultats possibles de l’expérience aléatoire avec des sous-ensembles
d’un ensemble mathématique. Si l’on ne considère que des ensembles finis, cela signifie que
l’on ne peut considérer que des expériences aléatoires dont le nombre de résultats possibles est
fini. Or il existe de très nombreux problèmes que l’on souhaiterait considérer pour lesquels le
nombre d’issues possibles n’est pas fini.
On imagine que l’on souhaite modéliser la réponse d’une personne à qui l’on demande de
choisir un entier naturel au hasard en utilisant les probabilités. Le nombre de réponses possibles
que cette personne peut apporter est infini : elle peut tout à fait répondre 1, comme 42, comme
2250000 , comme �e 467 �!. A priori, il y a autant de réponses possibles que d’entiers naturels. En
l’occurrence, il serait très compliqué de mettre en place une bonne modélisation de ce problème.
Une réponse à cette question dépend certainement de la familiarité et de l’affinité de la personne
interrogée vis-à-vis des entiers naturels et cela constitue une problématique de modélisation
bien trop complexe à ce niveau.
On va donc considérer un problème similaire mais on remplace l’humain trop complexe par
un automate probabiliste. L’automate choisi au hasard un chiffre entre 1 et 9, puis il tire à pile
ou face. S’il tombe sur pile, il s’arrête. Sinon, il choisit à nouveau un chiffre entre 0 et 9, cette fois.
Puis, il tire à nouveau à pile ou face pour s’avoir s’il s’arrête. S’il tombe sur pile, il s’arrête. S’il
tombe sur face, il reprend au niveau de la deuxième étape. Une fois qu’il s’est arrêté, l’automate
renvoie le nombre entier constitué de la juxtaposition des différents chiffres qu’il a tiré, dans
l’ordre du tirage.
Chapitre 17. Probabilités sur un univers quelconque
202
Exercice 17.1 Écrire un programme en pseudo-code qui réalise le processus décrit ci-dessus.
Réécrire ce programme en language Scilab et vérifier qu’il tourne correctement.
■
Exercice 17.2 Quelles sont les chances que le programme renvoie : le nombre 7 ; le nombre
1000 ; un nombre supérieur ou égal à 1000 ? Est-il certain que le programme va s’arrêter à un
moment ?
■
On pourra remarquer que l’exemple qui a été décrit ici peut facilement être modélisé grâce
aux variables aléatoires réelles discrètes étudiées dans la suite de ce chapitre.
17.2 Espaces probabilisés
17.2.1
Tribus
Définition 17.2.1 — Tribu ou σ-algèbre. Soient Ω un ensemble et A un sous-ensemble
de P (Ω). Alors on dit que A est une tribu (ou σ-algèbre) sur Ω si et seulement si on a les
propositions suivantes :
(i)
(ii)
(iii)
Ω∈A ;
∀A ∈ A , A ∈ A ;
∀ (An )n∈N ∈ A N ,
+∞
�
n=0
An ∈ A .
Exercice 17.3 Soient
Ω un�ensemble et A ⊂ Ω. Montrer que chacun des trois ensembles
�
A1 = {�, Ω}, A2 = �, A, A, Ω et A3 = P (Ω) est une tribu sur Ω.
■
17.2 Espaces probabilisés
203
Théorème 17.2.1 — Règles de calcul. Soit A une tribu sur un ensemble Ω. Alors on a les
propositions suivantes :
(i)
(ii)
(iii)
(iv)
(v)
�∈A ;
∀(A, B) ∈ A 2 , A ∪ B ∈ A ;
∀(A, B) ∈ A 2 , A ∩ B ∈ A ;
∀(A, B) ∈ A 2 , A \ B ∈ A ;
+∞
�
∀ (An )n∈N ∈ A N ,
An ∈ A .
n=0
Exercice 17.4 Démontrer le théorème.
■
On rappelle qu’un système complet d’évènements fini est une collection finie d’évènements
qui est modélisée par une famille finie formant une partition de Ω. Cette notion peut être
utilement élargie, dans le cas où Ω infini, à une notion plus générale de systèmes complets
d’évènements pour laquelle on admet également les partitions dénombrables de Ω (i.e. les
partitions de Ω qui peuvent être indexées par N).
Théorème 17.2.2 — Tribu engendrée par une partition. Soit (Ai )i ∈I une partition d’un
ensemble Ω telle que I fini ou I = N. Alors, il existe une plus petite tribu A sur Ω telle que,
pour tout i ∈ I, Ai ∈ A . Dans ce cas, on parle de tribu engendrée par la partition (Ai )i ∈I .
Démonstration. Ce théorème est admis.
R
17.2.2
■
On parlera également, de manière abusive, de tribu engendrée par un système complet
d’évènements, lorsque l’on confond les évènements avec les sous-ensembles qui les modélisent.
Probabilités et espaces probabilisés
Définition 17.2.2 — Espace probabilisable. Soit A une tribu sur un ensemble Ω. Alors on
dit que (Ω, A ) est un espace probabilisable.
Chapitre 17. Probabilités sur un univers quelconque
204
Définition 17.2.3 — Probabilité. Soit (Ω, A ) un espace probabilisable. Une probabilité sur
(Ω, A ) est une application P de A vers [0, 1] telle que :
(i)
(ii)
P(Ω) = 1 ;
� �
�
�
+∞
+∞
�
�
�
�
∀ (An )n∈N ∈ A , ∀i �= j , Ai ∩ A j = � ⇒ P
An =
P(An ) .
N
n=0
n=0
(σ-additivité)
On dit alors que (Ω, A , P) est un espace probabilisé.
Théorème 17.2.3 — Propriétés d’une probabilité. Soient (Ω, A , P) un espace probabilisé,
A, B ∈ A . Alors on a les propositions suivantes :
(i)
(ii)
(iii)
(iv)
(v)
(vi)
P(�) = 0 ;
A ∩ B = � ⇒ P(A ∪ B) = P(A) + P(B) ;
P(A) = 1 − P(A) ;
P(A \ B) = P(A) − P(A ∩ B) ;
B ⊂ A ⇒ P(B) ≤ P(A) ;
P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Démonstration. On commence par montrer (i). Comme � ∩ � = � et que
quant la σ-additivité, on a, P (�) =
+∞
�
n=0
P(�). On en déduit que P(�) = 0.
+∞
�
n=0
� = �, en appli-
On montre maintenant (ii). Soient A, B ∈ A tels que A ∩ B = �. On peut alors considérer la suite
(A, B, �, �, ...) d’éléments de A et on obtient, via la σ-additivité, P(A ∪ B) = P(A) + P(B).
Les autres points se démontrent alors exactement comme dans le cas des probabilités finies. ■
Définition 17.2.4 — P-négligeable, P-presque sûr. Soit (Ω, A , P) un espace probabilisé et
A ∈ A . On dit que A est P-négligeable si et seulement si P(A) = 0. On dit que A est P-presque
sûr si et seulemennt si P(A) = 1.
17.2.3
Limite monotone
Théorème 17.2.4 — Limite monotone. Soient (Ω, A , P) un espace probabilisé et (An )n∈N ∈
A N . Alors, on a :
(i)
(∀n ∈ N, An ⊂ An+1 ) ⇒ P
(ii)
(∀n ∈ N, An+1 ⊂ An ) ⇒ P
�
+∞
�
�n=0
+∞
�
n=0
�
lim P(A )
An = n→+∞
n
�
lim P(A )
An = n→+∞
n
(cas (An )n∈N croissante)
(cas (An )n∈N décroissante)
Démonstration. On commence par le cas croissant. On remarque que, dans ce cas, la suite
+∞
�
An , B0 = A0 et, pour
(P(An ))n∈N est croissante, majorée par 1, donc converge. On pose A =
n=0
+∞
�
tout n ∈ N, Bn+1 = An+1 \ An . Alors, A =
Bn et, pour tout i �= j , Bi ∩ B j = �. On a donc,
n=0
�
�
+∞
+∞
+∞
+∞
�
�
�
�
P(A) = P
Bn =
P(Bn ) = P(A0 ) +
P(An \ An−1 ) = P(A0 ) +
(P(An ) − P(An−1 ∩ An )) =
P(A0 ) +
n=0
+∞
�
n=1
n=0
n=1
n=1
lim P(A ) − P(A ) = lim P(A ).
(P(An ) − P(An−1 )) = P(A0 ) + n→+∞
n
0
n
n→+∞
Pour le cas décroissant, on se ramène au cas croissant en passant
En
� au �complémentaire.
� �
+∞
�
lim P A . Mais,
effet, si ∀n ∈ N, An+1 ⊂ An , alors ∀n ∈ N, An ⊂ An+1 . On a donc P
An = n→+∞
n
n=0
17.2 Espaces probabilisés
+∞
�
205
+∞
�
par les lois de De Morgan,
An =
An . D’où, P
n=0
n=0
�
� ��
lim
lim P (A ).
= n→+∞
n
n→+∞ 1 − P A n
�
+∞
�
n=0
�
An = 1 − P
�
+∞
�
n=0
�
� �
lim P A =
An = 1 − n→+∞
n
■
Corollaire 17.2.5 Soient (Ω, A , P) un espace probabilisé et (An )n∈N ∈ A N . Alors, on a :
�
�
�
�
+∞
n
�
�
lim P
P
An = n→+∞
Ak
(i)
�n=0 �
�k=0 �
+∞
n
�
�
lim P
An = n→+∞
Ak
P
(ii)
n=0
k=0
Démonstration. On pose, pour tout n ∈ N, Bn =
n
�
k=0
Ak et Cn =
n
�
k=0
Ak . On a alors, pour tout
n ∈ N, Bn ⊂ Bn+1 et Cn+1 ⊂ Cn . On peut donc appliquer le théorème. Or
+∞
�
n=0
Cn =
+∞
�
n=0
An , ce qui permet de conclure.
+∞
�
n=0
An =
+∞
�
n=0
Bn et
■
Exercice 17.5 — Suite infinie de pile ou face. On considère l’expérience aléatoire consistant à lancer une pièce une infinité de fois de manière successive. On modélise les résultats
∗
de l’expérience par l’ensemble Ω = {0, 1}N .
�
�
�
�
1. Soit i ∈ N∗ . À quoi correspond l’ensemble Ai = �(ωn )n∈N
� ∗ ∈ Ω ωi = 1 ?
i�
−1
A j ∩ Ai ?
2. Soit i ∈ N∗ . À quoi correspond l’ensemble Bi =
j =1
3. Soit (1n )n∈N∗ la suite constante égale à 1. On pose B0 = {(1n )n∈N∗ }. Montrer que (Bi )i ∈N
forme une partition de Ω.
On note B la tribu engendrée par la partition (Bi )i ∈N et on admet qu’il existe une unique
probabilité P sur (Ω, B) telle que P(Ai ) = 12 pour tout i ∈ N∗ .
4. Trouver un sous-ensemble C �= � dans B et un sous-ensemble D �= Ω dans B tels que
C est P-négligeable et D est P-presque sûr.
■
Chapitre 17. Probabilités sur un univers quelconque
206
17.2.4
Probabilités conditionnelles
Cette section est quasi-identique à la section 11.2.2 qui a été faite dans le contexte des
probabilités finies. On pourra donc s’inspirer de cette précédente section pour rédiger les
démonstrations qui sont demandées ici.
Définition 17.2.5 — Probabilité conditionnelle. Soient (Ω, A , P) un espace probabilisé et
A ∈ A tel que P(A) �= 0. Alors, pour tout B ∈ A , on définit la probabilité conditionnelle de B
sachant A, notée P(B | A), via :
P(A ∩ B)
.
P(B | A) =
P(A)
R
De même que dans le cas fini, l’application définie par PA : P (Ω) → [0, 1], B �→ PA (B) =
P(B | A) est une probabilité sur l’espace probalisable (Ω, A ).
Théorème 17.2.6 — Formule de Bayes. Soient (Ω, A , P) un espace probabilisé et A, B ∈ A .
On suppose que P(A) et P(B) sont non nuls, alors on a :
P(A | B) =
P(B | A)P(A)
.
P(B)
Exercice 17.6 Démontrer le théorème.
■
Théorème 17.2.7 — Formule des probabilités composées. Soient (Ω, A , P) un espace probabilisé, n un entier supérieur ou égal à 2 et A1 , ..., An ∈ A . On suppose que P(A1 ∩...∩An−1 ) �= 0.
Alors on a :
P(A1 ∩ ... ∩ An ) = P(A1 )PA1 (A2 )PA1 ∩A2 (A3 )...P�n−1 Ai (An )
i =1
= P(A1 )P(A2 | A1 )P(A3 | A1 ∩ A2 )...P(An |
Exercice 17.7 Démontrer le théorème.
�n−1
i =1
Ai ) .
■
17.2 Espaces probabilisés
207
Exercice 17.8 Énoncer une généralisation du théorème donnant la formule des probabilités
totales dans le cadre d’un espace probabilisé (Ω, A , P) et d’une partition finie (A1 , ..., An ) ∈ A n
de Ω.
■
Théorème 17.2.8 — Formule des probabilités totales (partition dénombrable). Soient
(Ω, A , P) un espace probabilisé et (An )n∈N ∈ A N une partition de Ω telle que P(An ) �= 0 pour
�
�
tout n ∈ N. Alors, pour tout B ∈ A , la série
P(B∩An ) (aussi égale à la série
P(An )PAn (B) =
n≥0
n≥0
�
P(An )P(B | An )) converge et on a :
n≥0
P(B) =
=
=
�
P(B ∩ An )
n=0
+∞
�
P(An )P(B | An ) .
n=0
+∞
�
n=0
P(An )PAn (B)
�
+∞
�
Démonstration. On a B = B ∩ Ω = B ∩
An =
(B ∩ An ). De plus, pour tout i , j ∈ N tels que
n=0
�
�
�
�n=0
i �= j , (B �∩ Ai ) ∩ B ∩ A� j = B ∩ Ai ∩ A j = �. On peut donc utiliser la σ-additivité de P et on a
+∞
+∞
�
�
P(B) = P
P (B ∩ An ). Les égalités suivantes découlent alors directement de la
(B ∩ An ) =
n=0
n=0
+∞
�
+∞
�
définition de la probabilité conditionnelle.
■
Exercice 17.9 On dispose d’une infinité dénombrable d’urnes indexées par N∗ et telles que,
pour tout n ∈ N∗ , l’urne Un possède n! boules numérotées de 1 à n!. On tire d’abord une urne,
puis on tire une boule dans cette urne. Pour choisir l’urne, on tire à pile ou face jusqu’à ce
que l’on tombe sur pile : l’urne choisie porte le numéro correspondant au nombre de tirages
que l’on a dû réaliser pour obtenir pile. La boule est tirée au hasard dans l’urne. Déterminer
la probabilité de tirer une boule numérotée 1.
■
208
17.2.5
Chapitre 17. Probabilités sur un univers quelconque
Indépendance en probabilités
Exercice 17.10 Rappeler les définitions d’indépendance, d’indépendance mutuelle et d’indépendance deux à deux, en les adaptant au contexte d’un espace probabilisé (Ω, A , P).
Généraliser ces deux dernières notions de manière à pouvoir considérer des familles finies et
infinies dénombrables.
■
17.3 Variables aléatoires réelles
209
17.3 Variables aléatoires réelles
17.3.1
Généralités
Définition 17.3.1 Soit (Ω, A ) un espace probabilisable. Une variable aléatoire réelle sur
(Ω, A ) (VAR sur (Ω, A )) est une application X de Ω dans R telle que, pour tout réel x, l’image
inverse de [x, +∞[ par X est dans la tribu A . Autrement dit :
∀x ∈ R, [X ≤ x] = X −1 (] − ∞, x]) = {ω ∈ Ω | X(ω) ≤ x} ∈ A .
R
Par rapport à la définition d’une variable aléatoire réelle finie, on rajoute une condition
qui correspond à l’idée que l’application X est compatible avec la tribu A . Cette condition
n’est pas nécessaire dans le cas où A = P (Ω) car toute application de Ω dans R vérifie
alors cette condition.
Exercice 17.11 Soient X une VAR sur un espace probabilisable (Ω, A ), a, b, x ∈ R et I ⊂ R.
Rappeler le sens des notations [X ∈ I], [X = x] et [X ≤ x]. Montrer que [a < X ≤ b] ∈ A et
[X = b] ∈ A .
■
Exercice 17.12 Rappeler les quatre opérations usuelles définies dans le cadre des VARDF.
Ces opérations sont aussi valables dans le cadre des VAR. Démontrer le pour l’addition et la
■
multiplication par un scalaire.
Chapitre 17. Probabilités sur un univers quelconque
210
Le schéma qui suit donne un aperçu du principe d’une variable aléatoire réelle. Les éléments
de Ω sont associés à des réels via la variable aléatoire X (flèches en pointillés). Dans Ω, les
éléments peuvent être regroupés dans des sous-ensembles définis par les images de leurs
éléments par X. Ces sous-ensembles, notés ici Ai , appartiennent à la tribu A définissant l’espace
probabilisable considéré. La probabilité de ces sous-ensembles, définies par l’application P
(flèches à pointes pleines), sont également obtenues en partant directement des sous-ensembles
de R correspondant aux images de leurs éléments par X (flèches à pointes vides). Ainsi, plus
besoin de se préoccuper de la structure de Ω, il suffit de considérer l’ensemble des réels.
�
�
A4 = X ≤ x 4
Ω
�
�
A1 = X = x 1
� �
�
�
P A1 = P X = x 1
�
�
A3 = X = x 3
�
�
� �
P A4 = P X ≤ x 4
�
�
� �
P A3 = P X = x 3
�
�
A2 = X = x 2
�
�
� �
P A2 = P X = x 2
R
x4
17.3.2
x3
0
x2
x1
Loi de probabilité et fonction de répartition
La définition qui suit utilise la notion de tribu borélienne de R, notée B. Cette tribu est la
tribu sur R engendrée par les intervalles ouverts de R. Une définition de la tribu des boréliens
dépasse largement le cadre de ce programme et on n’attend pas à ce que celle-ci soit connue.
On pourra comprendre B de manière simplifiée comme l’ensemble des intervalles de R, ainsi
que de n’importe quelle union ou intersection dénombrable d’intervalles de R.
Définition 17.3.2 — Loi de probabilité. Soit X une VAR sur un espace probabilisé (Ω, A , P).
On appelle loi de probabibilité de X la fonction L X définie par :
L X : B −→ [0, 1]
.
B �−→ P(X ∈ B)
17.4 Variables aléatoires réelles discrètes
211
Définition 17.3.3 — Égalité en loi. Soient X et Y des VAR sur un espace probabilisé (Ω, A , P).
L
On dit que X et Y sont égales en loi si L X = L Y . On note alors, X = Y.
Définition 17.3.4 — Fonction de répartition. Soit X une VAR sur un espace probabilisé
(Ω, A , P). On appelle fonction de répartition de X et on note FX la fonction définie par :
FX : R −→ [0, 1]
.
x �−→ P(X ≤ x)
Théorème 17.3.1 — Propriétés de la fonction de répartition. Soient X une VAR sur un
espace probabilisé (Ω, A , P) et FX sa fonction de répartition. Alors, on a les propositions
suivantes :
(i)
(ii)
(iii)
FX est croissante,
FX est continue à droite en tout point x de R,
lim
lim
x→−∞ FX (x) = 0 et x→+∞ FX (x) = 1.
�
�
Démonstration. Pour tout x, y ∈ R, (x ≤ y) ⇒ [X ≤ x] ⊂ [X ≤ y] , puis FX (x) ≤ FX (y). Ce qui
montre la croissance.
Le théorème de la limite monotone 8.2.1 (celui d’analyse, pas celui de probabilités !) assure
que la fonction croissante FX possède une limite à droite en tout point x de R. On remarque
�
�
��+∞ �
��
�
�
�
1
1
lim P X ≤ x + 1
= n→+∞
ensuite que +∞
n=1 X ≤ x + n = [X ≤ x]. D’où FX (x) = P
n=1 X ≤ x + n
n
�
�
lim P X ≤ x + 1 =
par le théorème de la limite monotone (celui de probabilités cette fois !). Or n→+∞
n
lim+ P (X ≤ x + h) = lim+ F (x + h). Ainsi, F est bien continue à droite en x.
X
X
h→0
h→0
lim F (x) et lim F (x)
Toujours par le théorème de la limite motone 8.2.1, les limites x→−∞
X
x→+∞ X
�+∞
�+∞
existent. De plus, on remarque que n=1 [X ≤ −n] = � et n=1 [X ≤ n] = [X ∈ R] = Ω. On en déduit
��+∞
�
lim F (x) = lim F (−n) = P
au théorème de la limite
donc que x→−∞
X
n→+∞ X
n=1 [X ≤ −n] = P (�) = 0 �grâce
�
�+∞
lim F (x) = lim F (n) = P
monotone des probabilités. De même, x→+∞
X
n→+∞ X
n=1 [X ≤ n] = P (Ω) = 1. ■
R
Il est possible de montrer une forme de réciproque à ce théorème : toute fonction réelle
vérifiant ces trois propositions est la fonction de répartition d’une variable aléatoiré réelle.
Elle n’est toutefois pas au programme.
Théorème 17.3.2 — Caractérisation de la loi par la fonction de répartition. Soient X et Y
deux VAR sur un espace probabilisé (Ω, A , P). On a l’équivalence suivante :
L
X = Y ⇔ ∀x ∈ R, FX (x) = FY (x) .
Démonstration. Ce théorème est admis.
■
17.4 Variables aléatoires réelles discrètes
17.4.1
Ensembles discrets
La notion d’ensemble discret est une notion qui dépasse un peu le cadre de ce programme.
On la définit tout de même dans le cadre des réels puisqu’elle est indispensable si l’on veut
pouvoir définir ensuite la notion de variable aléatoire réelle discrète.
Définition 17.4.1 — Partie discrète de R. Soit A un sous-ensemble de R. On dit que A est
une partie discrète de R si pour tout x ∈ A, il existe ε > 0 telle que A ∩ [x − ε, x + ε] = {x}.
Chapitre 17. Probabilités sur un univers quelconque
212
R
En termes mathématiques plus élaborés, on dit que les éléments de A sont tous des points
isolés.
Exercice 17.13 Lesquels des ensembles suivants sont des parties discrètes de R ?
� �
�
1 ��
∗
n ∈ N , B = [0, 1] , C = Z, D = Q .
A=
n�
■
On admettra que toute partie discrète de R est au plus dénombrable (finie ou infinie dénombrable).
17.4.2
Définitions
Définition 17.4.2 — Variable aléatoire réelle discrète. Soient (Ω, A ) un espace probabilisable et X une VAR sur (Ω, A ). On dit que X est une variable aléatoire réelle discrète sur
(Ω, A ) (VARD sur (Ω, A )) si son image X(Ω) est une partie discrète de R.
Exemple 17.1 Le nombre aléatoire donné par le programme défini en 17.1 peut être modélisé
par une VARD X dont l’image est N∗ .
■
■
Le théorème sur les opérations usuelles peut être partiellement adapté au contexte des
VARD dans le sens où la somme des deux VARD est une VARD, la multiplication d’un scalaire par
une VARD est une VARD et la multiplication de deux VARD est une VARD. Toutefois, le transfert
d’une VARD par une fonction de transfert, même s’il s’agit bien d’une VAR, n’est pas a priori une
VARD (l’image d’une partie discrète de R par une fonction réelle n’est pas forcément une partie
discrète). En pratique, il s’agit de cas peu usuels et les transferts de VARD que l’on considère
donne tous des VARD.
Théorème 17.4.1 — Caractérisation la fonction de répartition. Soient X et Y deux VARD
sur un espace probabilisé (Ω, A , P). On a l’équivalence suivante :
(∀x ∈ R, P(X = x) = P(Y = x)) ⇔ ∀x ∈ R, FX (x) = FY (x) .
Démonstration. Ce théorème est admis.
■
Exercice 17.14 Quelle valeur donne-t-on à P(X = k) si X modélise le nombre aléatoire
renvoyé par le programme défini en 17.1 et k ∈ N∗ ?
■
17.4 Variables aléatoires réelles discrètes
17.4.3
213
Espérance mathématique
Définition 17.4.3 — Espérance mathématique d’une VARD. Soit X une VARD sur un espace probabilisé (Ω, A , P). On dit que X admet une espérance mathématique si la série
�
x∈X(Ω) xP(X = x) est absolument convergente. L’espérance mathématique de X, notée E(X)
est la somme de cette série.
Comme X(Ω) est une partie discrète de R, c’est un ensemble au plus dénombrable et il
peut être indexé par une partie de N. Si X(Ω) est infini, ceci permet de considérer une série
�
i ≥0 x i P(X = x i ) et dans le cas où celle-ci est absolument convergente, on peut montrer que
sa somme ne dépend pas de l’ordre d’indexation choisi pour les éléments de X(Ω). Si X(Ω), on
peut également considérer la même série, en supposant que P(X = x i ) = 0 pour tout i supérieur à un certain rang. Ainsi, pour une variable aléatoire qui admet une espérance, on pourra
�
systématiquement considérer une série i ≥0 x i P(X = x i ) pour le calcul de cette espérance.
Exercice 17.15 On considère la variable aléatoire de l’exercice précédent.
1. Montrer que la série de l’espérance mathématique diverge vers +∞ pour cette variable.
2. On modifie légèrement l’expérience aléatoire. Cette fois-ci la pièce est truquée et
tombe sur pile avec une probabilité p > 12 . Pour quelle valeur de p la variable aléatoire
admet-elle une espérance ? Donner la valeur de cette espérance le cas échéant.
■
Théorème 17.4.2 — Théorème de transfert. Soient X une VARD sur un espace probabilisé
(Ω, A , P) et g une fonction réelle définie sur X(Ω). Alors g (X) admet une espérance mathé�
matique si et seulement si la série x∈X(Ω) g (x)P(X = x) est absolument convergente. On a
alors :
�
�
�
E(g (X)) = lim
g (x)P(X = x) .
x∈X(Ω)
Démonstration. La démonstration de ce théorème est admise.
17.4.4
Variance
■
Définition 17.4.4 — Variance d’une VARD. Soit X une VARD sur un espace probabilisé
(Ω, A , P) telle que X admet une espérance. On dit que X admet une variance si (X − E (X))2
Chapitre 17. Probabilités sur un univers quelconque
214
admet une espérance mathématique. La variance de X est le réel, noté V(X), tel que :
�
�
V(X) = E (X − E (X))2 .
Théorème 17.4.3 — Positivité de la variance. Soit X une VARD sur un espace probabilisé
(Ω, A , P). On suppose que X admet une variance. Alors, on a :
(i)
(ii)
V(X) ≥ 0
V(X) = 0 ⇔ P(X = E(X)) = 1 (on dit que X est presque surement égale à E(X)).
Exercice 17.16 Démontrer le théorème.
■
Théorème 17.4.4 — Formule de Koenig-Huygens. Soit X une VARD sur un espace probabilisé (Ω, A , P) telle que X admet une variance. Alors, on a :
V(X) = E(X 2 ) − (E(X))2 .
Exercice 17.17 Démontrer le théorème.
17.4.5
■
Définition 17.4.5 — Écart-type d’une VARD. Soit X une VARD sur un espace probabilisé
(Ω, A , P) telle que X admet une variance. On appelle écart-type de X le réel, noté σ(X), tel
que :
�
σ(X) = V(X) .
Transferts usuels
Théorème 17.4.5 — Transfert linéaire. Soient X une VARD sur un espace probabilisé (Ω, A , P)
et a, b deux réels. On suppose que X admet une espérance et une variance. Alors, aX + b
adment une espérance et une variance, et on a :
17.4 Variables aléatoires réelles discrètes
(i)
(ii)
215
E(aX + b) = aE(X) + b
V(aX + b) = a 2 V(X)
Exercice 17.18 Démontrer le théorème.
■
Définition 17.4.6 — Variable centrée et réduite. Soit X une VARD sur un espace probabilisé
(Ω, A , P). On dit que X est centrée lorsque X admet une espérance et E(X) = 0. On dit que X
est centrée et réduite lorsque X admet une espérance et une variance, et E(X) = 0 et V(X) = 1.
Si X admet une variance et V(X) �= 0, on appelle variable centrée réduite associée à X la
VARD, notée X ∗ , définie par :
X − E(X)
X∗ =
.
σ(X)
17.4.6
Moments
Définition 17.4.7 — Moment d’ordre r . Soient X une VARD sur un espace probabilisé
(Ω, A , P) et r ∈ N. On dit que X admet un moment d’ordre r si X r admet une espérance
mathématique. Le moment d’ordre r de X est le réel, noté m r (X), tel que m r (X) = E(X r ). Le
moment centré d’ordre r de X est le réel, noté µr (X), tel que µr (X) = E ((X − E(X))r ).
R
Le moment d’ordre 1 de X est l’espérance de X. Son moment centré d’ordre 2 est sa
variance.
Théorème 17.4.6 Soient X une VARD sur un espace probabilisé (Ω, A , P) et r ∈ N∗ . Si X admet
un moment d’ordre r alors on a :
(i)
(ii)
X admet un moment d’ordre s, pour tout s ∈ �0, r �,
X admet un moment centré d’ordre r .
Démonstration. La démonstration est admise mais elle ne présente pas de difficulté théorique
à ce niveau et peut-être traitée en exercice.
■
R
Ainsi, si E(X 2 ) existe, on peut utiliser le théorème pour montrer dire que E(X) et V(X)
existent.
216
Chapitre 17. Probabilités sur un univers quelconque
17.5 Lois usuelles
17.5.1
VARDF
Exercice 17.19 Donner les quatre lois usuelles présentées dans le chapitre 12 avec les
formules des espérances et des variances.
■
17.5.2
Loi géométrique
Définition 17.5.1 Soient X une VARD sur un espace probabilisé (Ω, A , P) et p ∈]0, 1[. On dit
que X suit une loi géométrique de paramètre p si X(Ω) = N∗ et, pour tout k ∈ N∗ , P(X = k) =
p(1 − p)k−1 . On note alors X �→ G (p).
Exercice 17.20 Justifier l’affirmation suivante : « Une loi géométrique est la loi du rang
d’apparition d’un premier succès dans un processus de Bernoulli sans mémoire ».
■
Exercice 17.21 Vérifier que l’on a bien
+∞
�
k=1
P(X = k) = 1.
■
17.5 Lois usuelles
217
Théorème 17.5.1 Soit X une VARD telle que X �→ G (p). Alors, on a :
E(X) =
Démonstration. La série
+∞
�
�
1
p
et
V(X) =
1−p
.
p2
kp(1 − p)k−1 converge par le théorème des séries géométrique et
k≥1
+∞
�
� 2
p
k(1 − p)k−1 = (1−(1−p))2 = p1 . De même, la série
k p(1 − p)k−1
k=1
k=1
k≥1
�
� �
�
+∞
+∞
+∞
� 2
�
�
converge et on a E(X 2 ) =
k p(1−p)k−1 =
k(k − 1)p(1 − p)k−1 +
kp(1 − p)k−1 = p(1−
k=1
k=1
k=1
�
�
+∞
�
p(1−p)
1−p
1
1
k−2
k(k − 1)(1 − p)
+ E(X) = (1−(1−p))3 + p = p 2 . On a donc V(X) = E(X 2 ) − E(X)2 = p 2 . ■
p)
E(X) =
kp(1 − p)
k−1
=p
k=2
17.5.3
Loi de Poisson
Définition 17.5.2 Soient X une VARD sur un espace probabilisé (Ω, A , P) et λ ∈ R. On dit que
k
X suit une loi de Poisson de paramètre λ ∈ R si X(Ω) = N et, pout tout k ∈ N, P(X = k) = λk! e −λ .
On note alors X �→ P (λ).
Exercice 17.22 Vérifier que l’on a bien
+∞
�
k=0
P(X = k) = 1.
■
Théorème 17.5.2 Soit X une VARD telle que X �→ P (λ). Alors, on a :
E(X) = λ
Démonstration. La série
E(X) =
série
e
k=0
�
k
k λk! e −λ
k=2
λk−2
(k−2)!
λ2 + λ − λ2 = λ.
17.5.4
=e
−λ
k
k≥0
+∞
�
k=1
V(X) = λ .
k
k λk! e −λ converge (résultats sur les séries exponentielles) et on a
k
k λk! = e −λ
+∞
�
k=1
λk
(k−1)!
= e −λ λ
+∞
�
=e
−λ 2
λ
+∞
�
k=0
λk
k!
2
λk−1
(k−1)!
k=1
+∞
�
k(k − 1) λk! e −λ converge et on a E(X(X − 1)) =
k≥0
+∞
�
−λ 2
λ
+∞
�
�
et
k=0
2
= e −λ λ
k
+∞
�
k=0
λk
k!
= λ. De même, la
k(k − 1) λk! e −λ = e −λ
2
+∞
�
k=2
k
k(k − 1) λk! =
= λ . On a donc V(X) = E(X ) −E(X) = E(X(X −1)) +E(X) −E(X)2 =
■
Culture G : La ruine du joueur
Au début des années 2000, le nombre de sites internets dédiés aux jeux d’argents (paris
sportifs, poker en ligne, etc.), ainsi que leur fréquentation, s’est très largement développé pour
représenter rapidement un marché de plusieurs milliards d’euros. Et avec le développement de
ce nouveau marché, comme c’est le cas dès qu’un nouveau marché s’ouvre sur internet, on a vu
le développement d’une multitude d’arnaques autour de ce marché. Parmi les arnaqueurs, un
certain nombre prétendait présenter des méthodes permettant de gagner de manière presque
sûre au poker. Cela incitait fortement les internautes à s’inscrire sur les sites de poker en ligne
proposés et à y dépenser leur argent alors que les méthodes étaient bien évidemment complètement bidons. Parmi ces méthodes bidon, la plus célèbre est la méthode du doublement de la
218
Chapitre 17. Probabilités sur un univers quelconque
mise. Le principe est le suivant.
Un joueur joue uniquement sur des tables à deux joueurs de telle façon que s’il gagne, il
récupère le double de sa mise. Le joueur commence sur une table où chaque joueur mise 1$. S’il
gagne, il empoche 2$ et a donc gagné 1$ net. Il continuera ensuite à jouer sur une table à 1$. Par
contre, s’il perd, il rejoue sur une table à 2$. Dans ce cas, s’il gagne, il empoche 4$ et aura donc
gagné 1$ net, vu qu’il a misé d’abord 1$, puis 2$. L’idée est que le joueur doit doubler la mise à
chaque fois jusqu’à ce qu’il gagne, de manière à ce qu’il gagne 1$ net à la fin de chaque série de
défaite couronnée par une victoire. Si l’on suppose que le joueur gagne une fois sur deux, il est
presque sûre que chaque série de défaite va éventuellement se terminer par une victoire, et qu’il
sera bien 1$ plus riche à la fin de la série.
En dehors du fait que tous les joueurs n’ont pas forcément une chance sur deux de gagner à
une partie de poker, que le raisonnement ne comptabilise pas le pourcentage de la mise reversé
au site pour chaque partie et qu’il y a forcément une mise maximale que l’on peut jouer sur le
site de telle sorte qu’il y a un nombre maximal de fois que l’on pourra doubler sa mise, en dehors
de toutes ces raisons qui justifieraient déjà largement de ne pas suivre ce stratagème, on peut
montrer que le joueur qui le suit est presque sûr de se retrouver ruiné.
Téléchargement