Probabilités

publicité
Page 1
Valérie Girardin & Nikolaos Limnios
Probabilités
Processus stochastiques et applications
Rédigé principalement à l’attention des étudiants en Master de
mathématiques et en écoles d’ingénieurs, cet ouvrage présente des notions
complexes de la théorie des probabilités à travers une introduction aux
processus stochastiques et à leurs applications.
Composé d’un cours complet, de nombreux exercices corrigés et de
problèmes de synthèse, ce manuel servira également de base de révision au
concours de l’Agrégation de mathématiques.
Sommaire
Notations
1. Suites aléatoires indépendantes
2. Conditionnement et martingales
3. Chaînes de Markov
4. Notions générales sur les processus
5. Processus markoviens
et semi-markoviens
Problèmes à résoudre
À la fin de chaque chapitre, on trouvera
des exercices suivis de leurs corrigés
Agrégée de mathématiques, Valérie Girardin est maître de conférences à l’Université de Caen BasseNormandie, Laboratoire de Mathématiques Nicolas Oresme, et habilitée à diriger les recherches.
Nikolaos Limnios est professeur à l’Université de Technologie de Compiègne (UTC), Laboratoire de
Mathématiques Appliquées.
ISBN 978-2-311-40015-1
WWW.VUIBERT.FR
9 782311 400151
MASTER, ÉCOLES D’INGÉNIEURS
& AGRÉGATION MATHÉMATIQUES
10:45
Cours & exercices corrigés
17/12/13
Probabilités. Processus stochastiques et applications
CV_Probabilite_Processus2NEW:EP
Valérie Girardin
Nikolaos Limnios
MASTER
ÉCOLES D’INGÉNIEURS
AGRÉGATION
MATHÉMATIQUES
Probabilités
Processus stochastiques et applications
• Cours complet
• Exercices d’application corrigés
• Problèmes de synthèse
“bqL” — 2013/12/12 — 10:57 — page 228 — #238
“bqM” — 2013/12/17 — 9:21 — page III — #1
Table des matières
Avant-propos
V
Notations
1 Suites aléatoires indépendantes
1.1 Suites infinies . . . . . . . . . . . . . .
1.1.1 Suites d’événements . . . . . .
1.1.2 Indépendance . . . . . . . . . .
1.2 Sommes aléatoires . . . . . . . . . . .
1.3 Convergence et théorèmes limites . . .
1.3.1 Différents types de convergence
1.3.2 Théorèmes limites . . . . . . .
1.4 Exercices et compléments . . . . . . .
VII
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
5
8
13
14
15
23
2 Conditionnement et martingales
2.1 Conditionnement . . . . . . . . . . . . . . . . . . . .
2.1.1 Conditionnement par rapport à un événement
2.1.2 Probabilités conditionnelles . . . . . . . . . .
2.1.3 Lois conditionnelles . . . . . . . . . . . . . .
2.1.4 Espérance conditionnelle . . . . . . . . . . . .
2.1.5 Conditionnement et indépendance . . . . . .
2.1.6 Détermination pratique . . . . . . . . . . . .
2.2 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . .
2.3 Martingales à temps discret . . . . . . . . . . . . . .
2.3.1 Définitions et propriétés . . . . . . . . . . . .
2.3.2 Inégalités remarquables . . . . . . . . . . . .
2.3.3 Martingales et temps d’arrêt . . . . . . . . .
2.3.4 Convergence des martingales . . . . . . . . .
2.3.5 Martingales de carré intégrable . . . . . . . .
2.4 Exercices et compléments . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
29
31
34
35
42
44
47
49
49
54
57
60
61
64
3 Chaînes de Markov
3.1 Propriétés générales . . . . . . . . . . . . .
3.1.1 Fonction de transition et exemples .
3.1.2 Chaînes de Markov et martingales .
3.1.3 Chaînes de Markov et temps d’arrêt
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
73
73
74
83
84
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
“bqM” — 2013/12/17 — 9:21 — page IV — #2
IV
Table des matières
3.2
3.3
3.4
3.5
3.6
3.7
Décomposition de l’espace d’état
Loi stationnaire et comportement
Chaînes de Markov périodiques .
Chaînes de Markov finies . . . .
3.5.1 Propriétés . . . . . . . . .
3.5.2 Application en fiabilité . .
Processus de branchement . . . .
Exercices et compléments . . . .
. . . . . . . .
asymptotique
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
4 Notions générales sur les processus
4.1 Propriétés générales . . . . . . . . . . .
4.2 Stationnarité et ergodicité . . . . . . . .
4.3 Processus à accroissements indépendants
4.4 Processus ponctuels sur la droite . . . .
4.4.1 Notions générales . . . . . . . . .
4.4.2 Processus de renouvellement . .
4.4.3 Processus de Poisson . . . . . . .
4.4.4 Résultats asymptotiques . . . . .
4.5 Exercices et compléments . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
86
93
101
105
105
111
114
118
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
133
133
141
148
151
151
153
158
161
165
5 Processus markoviens et semi-markoviens
173
5.1 Processus de Markov de sauts . . . . . . . . . . . . . . . . . . 173
5.1.1 Processus de Markov . . . . . . . . . . . . . . . . . . . 173
5.1.2 Définition et fonction de transition . . . . . . . . . . . 176
5.1.3 Générateur infinitésimal et équations de Kolmogorov . 179
5.1.4 Chaîne immergée et classification des états . . . . . . 182
5.1.5 Loi stationnaire et comportement asymptotique . . . . 189
5.2 Processus semi-markoviens . . . . . . . . . . . . . . . . . . . . 193
5.2.1 Processus de renouvellement markoviens . . . . . . . . 193
5.2.2 Classification des états et comportement asymptotique 196
5.3 Exercices et compléments . . . . . . . . . . . . . . . . . . . . 199
Problèmes à résoudre
209
Bibliographie
219
Index
223
Table des figures
229
“bqM” — 2013/12/17 — 9:21 — page 29 — #37
CHAPITRE 2
Conditionnement et martingales
Nous présentons d’abord dans ce chapitre les lois conditionnelles et l’espérance conditionnelle en suivant une démarche de difficulté croissante. Nous
étudions le conditionnement en nous plaçant dans le cas où la loi conditionnelle existe, ce qui est toujours vérifié pour des variables aléatoires à valeurs
dans Rd . Par contre, nous définissons l’espérance conditionnelle dans le cas
général. Un paragraphe est dédié au calcul pratique de lois et espérances
conditionnelles.
Nous présentons ensuite les temps d’arrêt, intéressants en eux-mêmes et
nécessaires à l’étude des martingales et des chaînes de Markov.
La théorie des martingales à temps discret qui suit est basée sur l’espérance conditionnelle. Nous donnons leurs propriétés fondamentales dont le
théorème d’arrêt, quelques inégalités remarquables et différents théorèmes
de convergence, en particulier pour les martingales de carré intégrable.
2.1 Conditionnement
Nous commençons par un cas simple, qui permet de mettre en place des
notations qui seront ensuite utiles dans le cas le plus général.
2.1.1 Conditionnement par rapport à un événement
Lorsque l’on sait qu’un événement donné a été réalisé, on est amené à modifier la probabilité considérée pour tenir compte de cette information.
Définition-Théorème 2.1 Soient (Ω, F , P) un espace de probabilité et B
un événement non négligeable. La formule
P(A | B) =
P(A ∩ B)
P(B)
(2.1)
définit une probabilité P(· | B) sur (Ω, F ) appelée probabilité conditionnelle
à B ou sachant B.
“bqM” — 2013/12/17 — 9:21 — page 30 — #38
30
Chapitre 2. Conditionnement et martingales
Démonstration.- L’application est clairement à valeurs dans [0, 1], avec
P(Ω | B) = 1.
Si (An ) est une suite d’événements disjoints deux à deux, alors
P
[
n≥0
P[(∪
P[∪n≥0 (An ∩ B)]
n≥0 An ) ∩ B]
An | B =
=
.
P(B)
P(B)
Or, par σ-additivité de P
P, nous avons P[∪n≥0 (An ∩ B)] =
d’où P(∪n≥0 An | B) = n≥0 P(An | B).
P
n≥0
P(An ∩ B),
Pour tous événements A et B non négligeables, il découle directement
de la définition d’une probabilité conditionnelle que
P(A | B)P(B) = P(B | A)P(A) = P(A ∩ B).
Ceci se généralise à toute famille finie d’événements comme suit.
Proposition 2.2 (Formule des probabilités composées) Soient A1 ,
. . . , An des événements. Si P(A1 ∩ · · · ∩ An−1 ) > 0 alors
P
n
\
i=1
Ai = P(A1 )P(A2 | A1 )P(A3 | A1 ∩A2 ) . . . P(An | A1 ∩A2 ∩· · ·∩An−1 ).
Démonstration.- Par récurrence, car P(A1 ∩ A2 ) = P(A1 )P(A2 | A1 ) et
P(A1 ∩ · · · ∩ An ) = P(An | A1 ∩ · · · ∩ An−1 )P(A1 ∩ · · · ∩ An−1 ),
par définition de la probabilité conditionnelle.
Si X est une variable aléatoire intégrable et B un événement non négligeable, l’espérance conditionnelle de X sachant B (ou par rapport à B) est
par définition égale à son espérance par rapport à la probabilité conditionnelle à B, soit
Z
E (X | B) =
Ω
X(ω)P(dω | B).
Elle a donc toutes les propriétés de l’espérance. On la calcule de la manière
suivante.
Proposition 2.3 Si X est une variable aléatoire intégrable et B un événement non négligeable, alors
Z
E (X11B )
1
E (X | B) =
=
X(ω)dP(ω).
P(B)
P(B) B
Démonstration.- Pour X = 11A , avec A ∈ F, la relation est vérifiée
d’après la définition (2.1).
Pn
Pour une variable étagée Xn = i=1 ai 11Ai , elle est également vérifiée par
linéarité de l’espérance.
“bqM” — 2013/12/17 — 9:21 — page 31 — #39
2.1 Conditionnement
31
Si X est positive, elle est la limite d’une suite (Xn ) de variables étagées.
Donc par le théorème de convergence monotone, nous avons E (Xn | B) ր
E (X | B) et E (Xn 11B ) ր E (X11B ).
Enfin, pour X réelle intégrable, nous concluons en considérant la décomposition X = X + − X − , où X + = sup(X, 0) et X − = − inf(X, 0).
Ce conditionnement par rapport à l’événement B peut être vu comme un
conditionnement par rapport à la tribu engendrée par B, en définissant pour
tout A ∈ F,
(
P(A | B) si ω ∈ B
P[A | σ(B)](ω) =
P(A | B) sinon.
et donc pour toute variable X,
E [X | σ(B)](ω) =
(
E (X | B)
E (X | B)
si ω ∈ B
sinon.
C’est la généralisation de ces notions au conditionnement par rapport à une
sous-tribu quelconque de F que nous présentons ici.
2.1.2 Probabilités conditionnelles
Considérons d’abord un système de constituants B = {B1 , . . . , Bn } de Ω,
c’est-à-dire une partition constituée d’événements non négligeables. Si l’on
savait a priori que Bi a été réalisé, alors la probabilité conditionnelle d’un
événement A sachant B serait naturellement P(A ∩ Bi )/P(Bi ). Par conséquent, nous pouvons interpréter la probabilité conditionnelle de A sachant
B sous la forme
P(A | B)(ω) =
n
X
P(A ∩ Bi )
i=1
P(Bi )
11Bi (ω),
ω ∈ Ω.
La probabilité conditionnelle P(A | B) ainsi définie est une variable aléatoire et il est intéressant de remarquer qu’elle est σ(B)-mesurable et qu’elle
vérifie
Z
P(A | B)dP = P(A ∩ B), B ∈ B.
B
De plus, E [P(A | B)] = P(A).
Ceci suggère la définition suivante de la probabilité conditionnelle P(A |
G) par rapport à une sous-tribu G quelconque de F .
Définition 2.4 Soient G une sous-tribu de F et A un événement. La probabilité conditionnelle de A sachant G est une variable aléatoire G-mesurable
vérifiant
Z
P(A | G)dP = P(A ∩ B), B ∈ G.
B
Nous la noterons P(A | G)
“bqM” — 2013/12/17 — 9:21 — page 32 — #40
32
Chapitre 2. Conditionnement et martingales
La probabilité conditionnelle dépend évidemment de la probabilité P. Elle
est de plus seulement définie p.s., puisque c’est une variable aléatoire.
Exemple 2.5 P(A | {Ø, Ω}) est la variable aléatoire constante P(A).
⊳
Le théorème suivant constitue une autre définition possible de la probabilité conditionnelle à G.
Théorème 2.6 La probabilité conditionnelle P(A | G) est la projection
orthogonale de la variable aléatoire 11A ∈ L2 (Ω, F , P) sur L2 (Ω, G, P), c’està-dire que P(A | G) est la classe d’équivalence dans L2 (Ω, F , P) des variables
aléatoires Y ∈ L2 (Ω, F , P) G-mesurables telles que
Z ∈ L2 (Ω, G, P).
E (Y Z) = E (11A Z),
Pn
Démonstration.- C’est évident pour Z = i=1 ai 11Ai , avec ai ∈ R et
Ai ∈ G. Nous considérons ensuite des variables Z positives et nous concluons
pour toute variable Z réelle avec Z = Z + − Z − .
Exemple 2.7 Si G = σ(Bi , i ∈ I), où {Bi : i ∈ I} est un système de
constituants fini ou dénombrable de Ω, alors la relation suivante est vérifiée.
P(A | G) =
X P(A ∩ Bi )
P(Bi )
i∈I
11Bi .
En effet, la variable
aléatoire Y = P(A | G) étant G-mesurable, nous pouvons
P
écrire Y = i∈I ai 11Bi , avec ai ∈ R. Par conséquent
P(A ∩ Bi ) =
d’où
Z
Y dP = ai P(Bi ),
Bi
1
P(A | Bi ) = ai =
P(Bi )
Z
Bi
P(A | G)dP,
et la conclusion en découle puisque P(A ∩ Bi ) = P(A | Bi )P(Bi ).
⊳
Théorème 2.8 Si (Ω, F , P) est un espace de probabilité et G une sous-tribu
de F , alors :
1. P(Ω | G) = 1 p.s. ;
2. pour tout A ∈ F, on a 0 ≤ P(A | G) ≤ 1 p.s. ;
3. pour toute suite (An ) d’événements de F disjoints deux à deux, on a
P
[
n≥0
X
An | G =
P(An | G) p.s..
n≥0
“bqM” — 2013/12/17 — 9:21 — page 33 — #41
2.1 Conditionnement
33
R
Démonstration.- 1. Nous avons B P(Ω | G)dP = P(B ∩ Ω) = P(B) pour
tout B ∈ G, d’où P(Ω | G) = 1 p.s..
2. Soit C = {ω ∈ Ω : P(A | G)(ω) > 1}. Nous avons
Z
P(C) ≤
P(A | G)dP = P(A ∩ C),
C
d’où une contradiction si P(C) > 0.
3. Nous avons pour tout B ∈ G
Z X
XZ
P(An | G)dP =
P(An | G)dP
B n≥0
n≥0
=
X
n≥0
B
P(An ∩ B) = P
h [
n≥0
i
An ∩ B .
P
Donc n≥0 P(An | G), qui est évidemment G-mesurable, est bien la probabilité conditionnelle de ∪n≥0 An sachant G.
Comme nous venons de le souligner, la propriété 3. pour une suite (An )
donnée, est seulement vérifiée p.s., soit sur Ω\N (An ) avec P[N (An )] = 0,
et non pour tout ω. La fonction A −→ P(A | G)(ω) n’est pas en général
une probabilité sur F pour tout ω ; il faut retrancher N = ∪N (An ), où
la réunion est prise sur toutes les suites d’événements de F . Cette réunion
n’étant pas dénombrable, il est possible que l’événement N ait une probabilité strictement positive.
Proposition 2.9 Si G est une sous-tribu de F , si C ∈ F et si A ∈ G, alors
P(A ∩ C | G) = P(C | G)11A p.s..
En particulier, pour C = Ω et A ∈ G, on obtient P(A | G) = 11A p.s..
Démonstration.- Pour tout B ∈ G, d’une part,
Z
P(A ∩ C | G)dP = P(A ∩ C ∩ B),
B
et d’autre part,
Z
B
11A P(C | G)dP = P(A ∩ C ∩ B),
d’où le résultat.
Il reste à montrer l’existence de la probabilité conditionnelle. Pour toute
variable aléatoire X positive définie sur (Ω, F , P), la quantité
Z
µ(B) =
XdP, B ∈ G,
(2.2)
B
est bien définie. La mesure µ ainsi définie sur (Ω, G, P) est à valeurs dans
R+ . Elle est absolument continue par rapport à P et sa dérivée de RadonNikodym est une variable aléatoire G-mesurable. Enfin, pour X = 11A , où
“bqM” — 2013/12/17 — 9:21 — page 34 — #42
34
Chapitre 2. Conditionnement et martingales
A ∈ F, nous déduisons du théorème de Radon-Nikodym et de (2.2) que
Z
Z
P(A | G)dP = µ(B) =
11A dP = P(A ∩ B), B ∈ G,
B
B
ce qui prouve l’existence d’une variable aléatoire vérifiant les propriétés de
la définition 2.4.
Une probabilité conditionnelle peut aussi être vue comme un cas particulier de probabilité (ou noyau) de transition (ou noyau markovien) entre
deux espaces mesurables.
Définition 2.10 Soient (Ω, F ) et (E, E) deux espaces mesurables. Une application π : Ω × E −→ [0, 1] telle que π(ω, .) est une probabilité sur (E, E)
pour presque tout ω ∈ Ω et π(., A) est une fonction F -mesurable pour tout
A ∈ E, est appelée probabilité de transition de Ω à E.
△
Exemple 2.11 Soient f : (Ω × E, F ⊗ E) −→ (R, B(R)) une fonction mesurable positive et µ une mesure positive sur (E, E) telles que
Z
f (ω, ω ′ )dµ(ω ′ ) = 1, ω ∈ Ω.
E
R
La formule π(ω, A) = A f (ω, ω ′ )dµ(ω ′ ) définit une probabilité de transition
de Ω à E. De plus, π(ω, .) est absolument continue par rapport à µ de densité
f (ω, ·).
⊳
Supposons maintenant que (E, E) = (Ω, F ).
Définition 2.12 Soit G une sous-tribu de F . Une probabilité de transition
de Ω à Ω est appelée probabilité conditionnelle par rapport à G si pour tout
A ∈ F, la variable π(·, A) est une version de la probabilité conditionnelle
P(A | G), c’est-à-dire si π(·, A) = P(A | G)(·) P-p.s..
2.1.3 Lois conditionnelles
Soient (Ω, F ) un espace mesurable, et P l’ensemble des probabilités sur
(Rd , B(Rd )). Soit Q : Ω −→ P une application. Donc Q(ω) est une probabilité sur (Rd , B(Rd )) pour tout ω ∈ Ω. Nous noterons Q(ω, B) la mesure de
tout B ∈ B(Rd ) par Q(ω).
Afin de pouvoir parler de Q comme d’une variable aléatoire, P doit être
muni d’une tribu. Nous considérerons donc l’espace mesurable (P, H), où
H est la tribu engendrée par les fonctions définies sur P par P −→ P (B)
pour tout B ∈ B(Rd ).
Définition 2.13 Soit (Ω, F ) un espace mesurable. Toute application mesurable de (Ω, F ) dans (P, H) est appelée loi (ou probabilité) aléatoire sur
(Rd , B(Rd )).
△
“bqM” — 2013/12/17 — 9:21 — page 35 — #43
2.1 Conditionnement
35
Cette notion de probabilité aléatoire permet de définir la loi conditionnelle
d’une variable aléatoire sachant une sous-tribu.
Définition 2.14 Soient X : (Ω, F , P) −→ (Rd , B(Rd )) une variable aléatoire et G une sous-tribu de F . Une application Q : Ω × B(Rd ) −→ P est
appelée loi conditionnelle de X sachant G si pour tout B ∈ B(Rd ) fixé, la
variable Q(·, B) est égale à la probabilité conditionnelle de (X ∈ B) par
rapport à G.
△
De même, on définit la densité et la fonction de répartition dites conditionnelles de la loi conditionnelle.
Définition 2.15 Soient X = (X1 , . . . , Xd ) : (Ω, F , P) −→ (Rd , B(Rd )) une
variable aléatoire et G une sous-tribu de F .
Une fonction F : Ω × Rd −→ [0, 1] est appelée fonction de répartition
conditionnelle de X par rapport à G si F (ω, ·) est une fonction de répartition
pour tout ω ∈ Ω, et si, pour tout x = (x1 , . . . , xd ) ∈ Rd ,
F (·, x) = P(X1 ≤ x1 , . . . , Xd ≤ xd | G) p.s..
Une fonction q borélienne positive définie sur (Ω × Rd , F ⊗ B(Rd )) est
appelée densité conditionnelle de X sachant G si la fonction Q définie sur
Ω × B(Rd ) par
Z
Q(ω, B) =
q(ω, x)dx
B
est une loi conditionnelle de X sachant G.
△
Pour toute variable aléatoire réelle X, on peut montrer qu’il existe une
loi et une fonction de répartition conditionnelles à toute sous-tribu G. Il n’y
a pas unicité mais si Q1 et Q2 sont deux lois conditionnelles de X sachant
G, alors Q1 (·, B) = Q2 (·, B) p.s. pour tout B ∈ G.
2.1.4 Espérance conditionnelle
Si une variable aléatoire positive possède une loi conditionnelle, l’espérance
conditionnelle de cette variable se calcule directement, comme l’espérance
mathématique ordinaire, par la formule habituelle appliquée à sa loi conditionnelle. Si la variable positive ne possède pas de loi conditionnelle, l’espérance conditionnelle existe encore. Enfin, l’espérance conditionnelle d’une
variable aléatoire quelconque est définie sous certaines conditions.
Définition 2.16 Soient X une variable aléatoire définie sur (Ω, F , P) et G
une sous-tribu de F .
Si X est positive, l’espérance conditionnelle de X sachant G est la variable aléatoire G-mesurable, notée E (X | G), à valeurs dans R+ et telle
que
Z
Z
XdP =
E (X | G)dP, C ∈ G.
(2.3)
C
C
“bqM” — 2013/12/17 — 9:21 — page 64 — #72
64
Chapitre 2. Conditionnement et martingales
Démonstration.- D’une part, si (Mn ) est bornée dans L2 , elle est bornée
également dans L1 . Et par le théorème de convergence de Doob, M∞ =
limn→+∞ Mn existe p.s..
D’autre part, nous déduisons de l’égalité suivante
E [(Mn+m − Mn )2 ] =
n+m
X
k=n+1
E [(Mk − Mk−1 )2 ]
et par le lemme de Fatou lorsque m tend vers l’infini que
X
E [(M∞ − Mn )2 ] ≤
E [(Mk − Mk−1 )2 ].
k≥n+1
De plus, Mn = E (Mm | F n ) pour tous m ≥ n et E (· | F n ) est un opérateur
continu sur L2 , donc par passage à la limite Mn = E (M∞ | F n ).
Le théorème suivant constitue une loi des grands nombres et un théorème
de la limite centrale pour les martingales.
Théorème 2.82 Si (Mn ) est une martingale L2 , et si (an ) est une suite
numérique croissante vers l’infini, telles que hM in /an tend en probabilité
vers une limite σ 2 strictement positive et
n
1 X
p.s.
E [(Mk − Mk−1 )2 11{|Mk −Mk−1 |≥ε√an } ] −→ 0
an
k=1
pour tout ε > 0, alors
Mn p.s.
−→ 0 et
an
Mn L
√ −→ N (0, σ 2 ).
an
2.4 Exercices et compléments
Exercice 2.1 Somme aléatoire de variables aléatoires.- Soit N , une variable
aléatoire à valeurs dans N∗ indépendante d’une suite aléatoire (Xn ) intéPN
grable. On note SN = i=1 Xi , où Sn = X1 + · · · + Xn .
1. Calculer l’espérance conditionnelle de SN sachant N . En déduire l’espérance de SN .
2. Déterminer la loi conditionnelle de N sachant (SN = s).
Solution.- 1. Nous avons E (SN | N = n) = E (Sn ) = nE X1 , et donc
E (SN | N ) = N E X1 . On en déduit que
E SN = E [E (SN | N )] = E [N E X1 ] = (E N )(E X1 ).
2. D’après la définition 2.28 et le théorème 2.6, P(N = n | SN = s) =
ϕ(s) si
E [11(SN ∈B) 11(N =n) ] = E [11(SN ∈B) ϕ(SN )],
B ∈ B(R).
“bqM” — 2013/12/17 — 9:21 — page 65 — #73
2.4 Exercices et compléments
65
Or, d’une part,
E [11(SN ∈B) 11(N =n) ] = P(N = n, Sn ∈ B) = P(N = n)
et d’autre part,
E [11(SN ∈B) ϕ(SN )] =
Z
Z
fSn (s)ds,
B
ϕ(s)fSN (s)ds ;
B
par conséquent, P(N = n | SN = s) = P(N = n)fSn (s)/fSN (s).
Exercice 2.2 Loi de Poisson composée en assurance.- Soit ST la somme
des indemnités payées par une compagnie d’assurance dans un intervalle de
temps I = [0, T ]. On suppose que les accidents surviennent indépendamment
les uns des autres et ne peuvent être simultanés. On suppose aussi que le
nombre d’accidents survenant dans I est fini. On découpe I en n intervalles
Ijn de même longueur.
Soient Njn la variable aléatoire égale à 0 si aucun accident n’a lieu dans
n
Ij et à 1 sinon, Xjn la somme des indemnités payées par la compagnie
d’assurance dans Ijn et pnj la probabilité d’accident dans Ijn . On notera P
la loi conditionnelle de Xjn sachant (Njn = 1) pour n grand.
1. Exprimer ST en fonction
des autres variables.
Pn
Pn
2. On suppose que j=1 pnj tend vers λ ∈ R∗+ et que j=1 (pnj )2 tend
vers 0 lorsque n tend vers l’infini. Montrer que ST suit une loi de Poisson
composée.
3. Application : pnj = 1/n, avec pour P la loi B(p) avec p ∈]0, 1[.
Pn
Solution.- 1. Soit Sn = j=1 Xjn . Pour n suffisamment grand pour que
la probabilité que plusieurs accidents aient lieu dans un même intervalle Ijn
soit négligeable, on a ST = Sn . Nous nous placerons dans ce cas pour la
suite.
2. Utilisons la transformée de LaplaceQde Sn . Comme les variables Xi
n
sont indépendantes, on sait que ψSn (t) = j=1 ψXjn (t). Or
n
n
ψXjn (t) = E (e−tXj ) = 1 − pnj + E (e−tXj | Njn = 1)pnj = 1 − pnj [1 − ψP (t)].
On sait que pour x > 0, on a − log(1 − x) = x + x2 [1 + ε(x)], avec ε(x) < 1
pour 0 < x < x0 . Or pnj tend vers 0 par hypothèse lorsque n tend vers
l’infini, donc max1≤j≤n pnj < x0 /2 pour n assez grand. Ainsi,
− log ψSn (t) = [1 − ψP (t)]
n
X
j=1
pnj + [1 − ψP (t)]2
n
X
j=1
(pnj )2 [1 + ε([1 − ψP (t)]pnj )].
Par définition de la transformée de Laplace, on a |1 − ψP (t)| ≤ 2. Par
conséquent,
[1 − ψP (t)]2
n
X
j=1
(pnj )2 [1 + ε([1 − ψP (t)]pnj )] −→ 0,
n → +∞,
“bqM” — 2013/12/17 — 9:21 — page 66 — #74
66
Chapitre 2. Conditionnement et martingales
et ψSn (t) tend vers exp(λ[ψP (t) − 1]) qui est la transformée de Laplace de
la loi de Poisson composée CP(λ, P ) d’après la proposition 1.26.
3. D’après l’exemple 1.29, on obtient ST ∼ P(p).
Exercice 2.3 Espérance conditionnelle et sommes.- Soient X et Y deux
variables indépendantes et de même loi P .
1. Calculer l’espérance conditionnelle de X sachant X + Y .
2. Si P est la loi normale centrée réduite, calculer l’espérance conditionnelle de |X| sachant X 2 + Y 2 , puis celle de X sachant X 2 + Y 2 .
Solution.- 1. On a
X + Y = E (X + Y | X + Y ) = E (X | X + Y ) + E (Y | X + Y ),
donc E (X | X + Y ) = (X + Y )/2.
2. On sait par la proposition 2.27 que E (|X| | X 2 + Y 2 ) = ϕ(X 2 + Y 2 )
si, pour toute fonction h : R −→ R borélienne, on a
E [h(X 2 + Y 2 )ϕ(X 2 + Y 2 )] = E [h(X 2 + Y 2 )|X|].
D’une part,
E [h(X 2 + Y 2 )ϕ(X 2 + Y 2 )] =
ZZ
2
2
e−(x +y )/2
=
h(x2 + y 2 )ϕ(x2 + y 2 )
dxdy
2π
R2
Z Z 2π
Z
2
2
e−r /2
=
h(r2 )ϕ(r2 )
rdrdθ =
h(r2 )ϕ(r2 )e−r /2 rdr,
2π
R+ 0
R+
car
R 2π
0
dθ = 2π. D’autre part,
E [h(X 2 + Y 2 )|X|]
=
=
ZZ
Z
R2
Z
h(x2 + y 2 )|x|
2π
(1)
=
R 2π
0
+y 2 )/2
2π
dxdy
2
e−r /2
h(r )r| cos θ|
rdrdθ
2π
h(r2 )r2
R+
(1) puisque
2
2
R+ 0
Z
e−(x
2e−r
π
2
/2
dr.
| cos θ|dθ = 4. D’où ϕ(r2 ) = 2r/π. On en déduit que
E (|X| | X 2 + Y 2 ) =
Par contre, E (X | X 2 + Y 2 ) = 0 car
R 2π
0
2p 2
X + Y 2.
π
cos θdθ = 0.
Exercice 2.4 Fonction caractéristique et conditionnement.- On suppose
que X et Y sont deux variables aléatoires telles que Y ∼ N (m, α2 ) et
2 2
E (eitX | Y ) = e−σ t /2 eitY .
“bqM” — 2013/12/17 — 9:21 — page 67 — #75
2.4 Exercices et compléments
67
1. a. Déterminer la fonction caractéristique de X et en déduire sa loi.
b. Même question pour (X, Y ).
2. Déterminer E (X|Y et en déduire que X − Y et Y sont indépendantes.
3. a. Déterminer la loi conditionnelle de X sachant (Y = y).
b. Déterminer la loi conditionnelle de Y sachant (X = x).
c. Déterminer l’espérance conditionnelle de Y sachant X.
Solution.- 1. a. On a
φX (t) = E [E (eitX | Y )] = e−σ
2 2
t /2
φY (t) = eimt e−(σ
2
+α2 )t2 /2
,
donc X ∼ N (m, σ 2 + α2 ).
b. De même
φ(X,Y ) (t, s) =
=
E [E (eitX eisY | Y )] = e−σ
e
2
2
t /2
e
2 2
φY (s + t)
im(s+t) −(σ +α )t /2 −α s /2 −α2 st
e
2
2 2
e
,
donc (X, Y )′ est un vecteur gaussien d’espérance (m, m)′ et de matrice de
variances-covariances
2
σ + α2 α2
Γ=
.
α2
α2
2. Par le théorème 2.44,
E (X | Y ) =
Cov (X, Y )Y + E XVar Y − Cov (X, Y )E Y
= Y.
Var Y
On a E X = E Y = m, donc E (X − Y ) = 0 et
Cov (X − Y, Y )
= E [(X − Y )Y ]
= E (XY ) − E (Y 2 ) = E [Y E (X | Y )] − E (Y 2 ),
donc Cov (X − Y, Y ) = 0. Et (X − Y, Y )′ est un vecteur gaussien comme
transformé linéaire du vecteur gaussien (X, Y )′ , donc X − Y et Y sont
indépendantes.
3. a. Par le théorème 2.44, on sait que X sachant (Y = y) suit une loi
gaussienne
E X − Cov (X, Y )(y − E X)
Cov (X, Y )2
N
, Var X −
.
Var X
Var X
Or Cov (X, Y ) = α2 donc X sachant (Y = y) suit une loi N (y, σ 2 ).
b. En utilisant encore le théorème 2.44, Y sachant (X = x) suit une loi
mσ 2 + xα2 α2 σ 2
N
,
.
σ 2 + α2 σ 2 + α2
c. On en déduit que
E (Y | X) =
mσ 2
α2
+ 2
X,
2
+α
σ + α2
σ2
l’espérance conditionnelle cherchée.
Page 1
Valérie Girardin & Nikolaos Limnios
Probabilités
Processus stochastiques et applications
Rédigé principalement à l’attention des étudiants en Master de
mathématiques et en écoles d’ingénieurs, cet ouvrage présente des notions
complexes de la théorie des probabilités à travers une introduction aux
processus stochastiques et à leurs applications.
Composé d’un cours complet, de nombreux exercices corrigés et de
problèmes de synthèse, ce manuel servira également de base de révision au
concours de l’Agrégation de mathématiques.
Sommaire
Notations
1. Suites aléatoires indépendantes
2. Conditionnement et martingales
3. Chaînes de Markov
4. Notions générales sur les processus
5. Processus markoviens
et semi-markoviens
Problèmes à résoudre
À la fin de chaque chapitre, on trouvera
des exercices suivis de leurs corrigés
Agrégée de mathématiques, Valérie Girardin est maître de conférences à l’Université de Caen BasseNormandie, Laboratoire de Mathématiques Nicolas Oresme, et habilitée à diriger les recherches.
Nikolaos Limnios est professeur à l’Université de Technologie de Compiègne (UTC), Laboratoire de
Mathématiques Appliquées.
ISBN 978-2-311-40015-1
WWW.VUIBERT.FR
9 782311 400151
MASTER, ÉCOLES D’INGÉNIEURS
& AGRÉGATION MATHÉMATIQUES
10:45
Cours & exercices corrigés
17/12/13
Probabilités. Processus stochastiques et applications
CV_Probabilite_Processus2NEW:EP
Valérie Girardin
Nikolaos Limnios
MASTER
ÉCOLES D’INGÉNIEURS
AGRÉGATION
MATHÉMATIQUES
Probabilités
Processus stochastiques et applications
• Cours complet
• Exercices d’application corrigés
• Problèmes de synthèse
Téléchargement