EXERCICES DE CALCUL STOCHASTIQUE DESS IM Evry, option

publicité
EXERCICES DE CALCUL STOCHASTIQUE
DESS IM Evry, option finance
Monique Jeanblanc
Université d’EVRY
Octobre 2005
2
Contents
1 Rappels
1.1 Tribu . . . . . . . . . . .
1.2 Variables gaussiennes . .
1.3 Espérance conditionnelle
1.4 Martingales . . . . . . .
1.5 Temps d’arrêt . . . . . .
1.6 Temps discret . . . . . .
1.7 Algèbre béta-Gamma . .
1.8 Divers . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Mouvement Brownien
2.1 Propriétés élémentaires . . . . . . . . . .
2.2 Processus Gaussiens . . . . . . . . . . .
2.3 Multidimensionnel . . . . . . . . . . . .
2.4 Temps d’atteinte . . . . . . . . . . . . .
2.5 Scaling . . . . . . . . . . . . . . . . . . .
2.6 Compléments . . . . . . . . . . . . . . .
2.7 Finance . . . . . . . . . . . . . . . . . .
2.8 Problème . . . . . . . . . . . . . . . . .
2.8.1 Partie I : Résultats préliminaires
2.8.2 Partie II . . . . . . . . . . . . . .
2.8.3 Partie III . . . . . . . . . . . . .
3 Intégrale d’Itô
3.1 Intégrale de Wiener . . . . . . . . .
3.2 Formule d’Itô . . . . . . . . . . . . .
3.3 Cas multidimensionnel . . . . . . . .
3.4 Compléments . . . . . . . . . . . . .
3.5 Brownien géométrique et extensions.
3.6 Le crochet . . . . . . . . . . . . . . .
3.7 Finance . . . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
8
9
11
13
14
15
15
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
20
21
22
25
26
28
29
29
30
30
.
.
.
.
.
.
.
33
33
34
39
40
42
43
44
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
CONTENTS
4 Equations différentielles stochastiques
49
4.1 Equation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . 56
5 Exemples
5.1 Processus de Bessel
5.2 Processus de Bessel
5.3 Autres processus. .
5.4 Des calculs . . . .
. . . .
carré
. . . .
. . . .
6 Girsanov
6.1 Résultats élémentaires.
6.2 Crochet. . . . . . . . .
6.3 Processus. . . . . . .
6.4 Cas multidimensionel .
6.5 Temps d’arrêt. . . . .
6.6 Finance . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
59
59
61
64
64
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
67
69
69
75
76
78
7 Compléments
7.1 Théorème de Lévy. . . . . . .
7.2 Equations rétrogrades . . . .
7.3 Théorèmes de représentation
7.4 Temps local. . . . . . . . . . .
7.5 Lois . . . . . . . . . . . . . .
7.6 Filtrations . . . . . . . . . . .
7.7 Options barrières . . . . . . .
7.8 Méandres, ponts, excursions .
7.9 Divers . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
88
92
92
93
94
95
96
96
8 Processus à sauts
8.1 Processus de Poisson . . . . .
8.2 Poisson composé . . . . . . .
8.3 Formule d’Itô . . . . . . . . .
8.4 Défaut . . . . . . . . . . . . .
8.5 Marché complets, incomplets
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99
99
101
102
103
103
1 Rappels, Corrigés
1.1 Tribu . . . . . . . . . . .
1.2 Variables gaussiennes. .
1.3 Espérance conditionnelle
1.4 Martingales . . . . . . .
1.5 Temps d’arrêt . . . . . .
1.6 Temps discret . . . . . .
1.7 Algèbre béta-gamma . .
1.8 Divers . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
107
107
108
111
113
114
115
115
115
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
CONTENTS
5
2 Mouvement Brownien, Corrigés
2.1 Propriétés élémentaires . . . . .
2.2 Processus Gaussien . . . . . . .
2.3 Multidimensionnel . . . . . . .
2.4 Temps d’atteinte . . . . . . . .
2.5 Scaling . . . . . . . . . . . . . .
2.6 Compléments . . . . . . . . . .
2.7 Finance . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
117
117
121
124
125
127
127
129
3 Intégrale d’Itô, Corrigés
3.1 Intégrale de Wiener . . . . . . . . .
3.2 Formule d’Itô . . . . . . . . . . . . .
3.3 Cas multidimensionnel . . . . . . . .
3.4 Compléments . . . . . . . . . . . . .
3.5 Brownien géométrique et extensions
3.6 Le crochet . . . . . . . . . . . . . . .
3.7 Finance . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
131
131
132
137
138
139
142
142
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Equations différentielles stochastiques, Corrigés
145
4.1 Equation Linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.3 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . 151
5 Exemples, Corrigés
5.1 Processus de Bessel
5.2 Processus de Bessel
5.3 Autres processus .
5.4 Des Calculs . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
153
153
155
155
156
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
159
159
160
160
163
163
165
7 Compléments, Corrigés
7.1 Théorème de Lévy. . . . . . .
7.2 Equations rétrogrades . . . .
7.3 Théorèmes de représentation
7.4 Temps local. . . . . . . . . . .
7.5 Lois . . . . . . . . . . . . . .
7.6 Filtrations . . . . . . . . . . .
7.7 Options barrières . . . . . . .
7.8 Méandres, ponts, excursions .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
167
167
168
168
168
170
170
171
172
. . . .
carré
. . . .
. . . .
6 Girsanov, Corrigés
6.1 Résultats élémentaires
6.2 Crochet . . . . . . . .
6.3 Processus . . . . . . .
6.4 Cas multidimensionnel
6.5 Temps d’arrêt . . . . .
6.6 Finance . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
6
Rappels
8 Sauts, Corrigés.
175
8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 175
8.2 Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
8.3 Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . 178
Chapter 1
Rappels
1.1
Tribu
Exercice 1.1.1 Ensembles appartenant à une tribu.
1. Montrer que si F est une tribu, et si A et B appartiennent à F avec
A ⊂ B, alors B − A ∈ F où B − A est l’ensemble des éléments de B qui
ne sont pas dans A.
2. Montrer que 11B−A = 11B − 11A .
def
3. Montrer que si C et D appartiennent à F, alors C∆D = {C ∩ Dc } ∪
{C c ∩ D} aussi.
Exercice 1.1.2 Exemples de tribus.
1. Décrire la tribu engendrée par un ensemble A.
2. Décrire la tribu engendrée par deux ensembles A et B disjoints.
Exercice 1.1.3 Fonctions indicatrices.
On note 11A la v.a. qui vaut 1 pour ω ∈ A et 0 sinon.
1. Montrer que 11A∩B = 11A 11B .
2. Montrer que, si A ∩ B = ∅, on a 11A∪B = 11A + 11B .
3. Montrer que 11A∪B = 11A + 11B − 11A∩B .
Exercice 1.1.4 Union et intersection.
Soit F1 et F2 deux tribus. Montrer que F1 ∩ F2 est une tribu. Montrer qu’en
général F1 ∪ F2 n’est pas une tribu.
Exercice 1.1.5 Tribu grossie par un ensemble.(*)
Soit F une tribu et A n’appartenant pas à F. Montrer que la tribu engendrée
par F et A est composée des ensembles B tels que il existe C et D appartenant
à F vérifiant B = (C ∩ A) ∪ (D ∩ Ac ).
7
8
Rappels
Exercice 1.1.6 Tribu engendrée par une v.a.(*)
Soit X une v.a. sur un espace (Ω, G). La tribu engendrée par X, notée σ(X),
est la plus petite sous tribu F telle que X soit mesurable de (Ω, F) dans (IR, B).
Elle est engendrée par C = {F ⊂ Ω, |F = X −1 (B), B ∈ B). Montrer que C
est une tribu. Vérifier que si Y = h(X) avec h borélienne, alors Y est σ(X)
mesurable. On admettra que la réciproque est vraie.
Exercice 1.1.7 Lois de v.a.
Soit (X, Y ) un couple de variables indépendantes et (Z, T ) deux variables indépendantes
loi
loi
telles que X = Z et Y = T .
1. Comparer E(f (X)) et E(f (Z)).
2. Comparer E(X 2 Y ) et E(Z 2 T ).
3. Comparer E(f (X)g(Y )) et E(f (Z)g(T )).
4. Comparer E(f (X, Y )) et E(f (Z, T )).
1.2
Variables gaussiennes
Exercice 1.2.1 Moments.
Soit X une v.a.r. de loi N (0, σ 2 ). Calculer E(X 3 ), E(X 4 ), E(|X|) et E(|X 3 |).
Exercice 1.2.2 Moments. Soit X un v.a. normale. Calculer les moments de
eX .
Exercice 1.2.3 Exponentielles. Soit N une v.a. de loi N (0, 1). Calculer
2
E(exp(aN 2 + bN )). Montrer que E(exp a2 N 2 ) = E(exp aN N 0 ) avec N et N 0
i.i.d.
Exercice 1.2.4 Somme de variables gaussiennes indépendantes.
Soit X et Y deux v.a. gaussiennes indépendantes. Montrer que X + Y est une
variable gaussienne. Précisez sa loi.
Exercice 1.2.5 Transformée de Laplace.
Soit X une v.a.r. de loi N (m, σ 2 ).
1. Quelle est la loi de
X−m
σ
? Calculer E|X − m|.
2. Montrer que E(eλX ) = exp(λm + 21 λ2 σ 2 ). Calculer E(XeλX ).
Z x
y2
1
√
3. Soit Φ(x) = 2π
e− 2 dy. Calculer, dans le cas m = 0 et σ = 1 la
−∞
valeur de E(11X≤b exp λX) en fonction de (Φ, λ, b).
4. Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0.
Enoncés. 2005-06
9
5. Montrer que E(eθX f (X)) = emθ+σ
bornée.
2 2
θ /2
E(f (X + θσ 2 ) pour f continue
6. Montrer que, si f est ”régulière” E(f (X)(X − m)) = σ 2 E(f 0 (X)).
7. Montrer que si G est une va de loi N (0, 1)
E(eaG N (bG + c)) = ea
2
/2
c + ab
N(√
1 + b2
Exercice 1.2.6 Convergence.
Soit (Xn , n ≥ 1) une suite de v.a. gaussiennes qui converge dans L2 vers X.
Quelle est la loi de X?
Exercice 1.2.7 Vecteur gaussien. Soit X un vecteur gaussien à valeurs dans
IRn et A une matrice (p, n). Montrer que AX est un vecteur gaussien. Préciser
son espérance et sa variance.
Exercice 1.2.8 Vecteur Gaussien. Soit (X, Y ) un vecteur gaussien centré
tel que E(XY ) = 0. Montrer que X et Y sont indépendantes.
Exercice 1.2.9 Projection.(*)
Rappel : projection dans L2 : Soit A un sous espace de L2 (Ω) engendré par les
variables
P aléatoires Y1 , . . . , Yn , c’est-à-dire si Z ∈ A, il existe (ai ) réels tels que
Z = i ai Yi . Soit X ∈ L2 . On appelle projection de X sur A l’unique élément
P rX de A tel que
E( (X − P rX)Z) = 0, ∀Z ∈ A
Soit (X1 , X2 , . . . , Xd , Y1 , . . . , Yn ) un vecteur gaussien centré dans Rd+n .
Montrer que X = (X1 , X2 , . . . , Xd ) et Y = (Y1 , . . . , Yn ) sont deux vecteurs
gaussiens centrés.
On suppose d = 1. Montrer que P rX est une v.a. gaussienne σ(Y ) mesurable,
telle que X − P rX et Y sont indépendantes.
Exercice 1.2.10 Caractérisation de vecteur gaussien. (*) Soit (X, Y )
deux v.a.r. telles que Y est gaussienne et la loi conditionnelle de X à Y est
gaussienne de moyenne aY + b et de variance indépendante de Y , c’est-à-dire
λ2
que E(exp(λX)|Y = y) = exp(λ(ay + b) + σ 2 ). Montrer que le couple (X, Y )
2
est gaussien.
1.3
Espérance conditionnelle
On travaille sur un espace (Ω, F, P ) muni d’une sous-tribu de F notée G.
Exercice 1.3.1 Montrer que
E(Y E(X|G)) = E(XE(Y |G))
10
Rappels
Exercice 1.3.2 Montrer que si X ∈ L2 et E(X|G) = Y et E(X 2 |G) = Y 2 alors
X =Y.
Exercice 1.3.3 Soit (X, Y ) indépendantes, X strictement positive et Z = XY .
Calculer E(11Z≤t |X) en utilisant la fonction de répartition de Y .
Exercice 1.3.4 Soit (X, Y ) indépendantes, équidristibuées et M = max(X, Y ).
Calculer E(11X≤t |M ).
Exercice 1.3.5 Conditionnement et indépendance.
Soit X, Y deux v.a. telles que la v.a. X − Y est indépendante de G, d’espérance
m et de variance σ 2 . On suppose que Y est G-mesurable. Calculer E(X − Y | G).
En déduire E(X | G). Calculer E( (X − Y )2 | G). En déduire E(X 2 | G).
Exercice 1.3.6 Vecteur gaussien (*) Suite de l’exercice 1.2.9
Soit (X, Y1 , . . . , Yn ) un vecteur gaussien centré dans IR1+n . Montrer que E(X|Y ) =
P rX.
On suppose n = 1. Montrer que E(X|Y ) = αY . Déterminer α.
Exercice 1.3.7 Soit X = X1 + X2 . On suppose que X1 est indépendante de
G, que X2 est G mesurable et que X1 est gaussienne.
1. Calculer E(X|G) et var (X|G).
2. Calculer E(eλX |G).
Exercice 1.3.8 Covariance conditionnelle. Soit Z1 , Z2 deux variables aléatoires
de carré intégrable. On définit
Cov(Z1 , Z2 |G) = E(Z1 Z2 |G) − E(Z1 |G)E(Z2 |G) .
Montrer que
Cov(Z1 , Z2 |G) = E[ (Z1 − E(Z1 |G)) Z2 |G ].
Exercice 1.3.9 Tribu grossie.
Soit A ∈
/ G et A ∈ F et X une v.a. intégrable. On note H la tribu engendrée par
G et A. (Voir exercice 1.1.5). On admettra que les v.a. Z qui sont H mesurables
s’écrivent Z = Y1 11A + Y2 11Ac , où les v.a. Yi sont G-mesurables. Montrer que
E(X|H) =
E(X11A |G)
E(X11Ac |G)
11A +
11Ac
E(11A |G)
E(11Ac |G)
Exercice 1.3.10 Linéarité. Soit Z = αY + β, avec α 6= 0. Montrer que
E(aX + b|Z) = aE(X|Y ) + b.
Exercice 1.3.11 Grossissement progressif (*) Soit F une tribu. On considère la tribu G engendrée par τ ∧ 1 où τ est une v.a. à valeurs dans IR+ .
1. Montrer que toute v.a. G mesurable s’écrit h(τ ∧ 1) où h est borélienne.
Enoncés. 2005-06
11
2. Montrer que, si X est une v.a. F mesurable, E(X|G)111≤τ = A111≤τ où A
est une constante. Montrer que A = E(X111≤τ )/P (1 ≤ τ ).
Exercice 1.3.12 Conditionnement et indépendance 1. Soit G1 et G2
deux σ-algèbres indépendantes, G = G1 ∨ G2 et (Xi , i = 1, 2) deux variables
aléatoires bornées telles que Xi est Gi mesurable. Montrer que E(X1 X2 |G) =
E(X1 |G1 )E(X2 |G2 ).
Exercice 1.3.13 Conditionnement et indépendance 2. Montrer que si G
est indépendante de σ(X) ∨ F, E(X|G ∨ F ) = E(X|F).
Exercice 1.3.14 Formule de Bayes.
sous-tribu de F. Montrer que
Soit dQ = LdP sur (Ω, F) et G une
EQ (X|G) = EP (X|G), ∀X ∈ F
si et seulement si L est G mesurable.
Exercice 1.3.15 Soit f et g deux densités strictement positives sur IR. Soit X
une v.a. de densité f sur un espace (Ω, P ). Montrer qu’il existe une probabilité
Q sur cet espace telle que X soit de densité g.
Exercice 1.3.16 Indépendance conditionnelle Soit (Ft ) et (Gt ) deux filtrations.
1. Montrer que les propriétés suivantes sont équivalentes. (H1) for any t,
the σ-algebras F∞ and Gt are conditionally independent given Ft .
(H2)
∀F ∈ F∞ , ∀Gt ∈ Gt , E(F Gt |Ft ) = E(F |Ft ) E(Gt |Ft )
(H3)
∀t, ∀Gt ∈ Gt , E(Gt |F∞ ) = E(Gt |Ft )
(H4)
∀t, ∀F ∈ F∞ , E(F |Gt ) = E(F |Ft ).
2. Soit F et G deux filtrations telles que Ft ⊂ Gt . Montrer que
(H) Every F-square integrable martingale is a G-square integrable martingale
équivaut à (H1).
3. Dans le cas Gt = Ft ∨ σ(t ∧ τ ) où τ est un temps aléatoire, montrer que
(H1) équivaut à
(H5) ∀s ≤ t, P (τ ≤ s|F∞ ) = P (τ ≤ s|Ft ).
1.4
Martingales
L’espace Ω est muni d’une filtration (Ft ).
Exercice 1.4.1 Exemple de base. Soit X une v.a. intégrable. Montrer que
(E(X |Ft ), t ≥ 0) est une martingale.
12
Rappels
Exercice 1.4.2 Surmartingale. On dit que M est une surmartingale si
- Mt est adapté, intégrable
- E(Mt |Fs ) ≤ Ms , ∀s ≤ t
Le processus M est une sousmartingale si −M est une surmartingale.
1. Montrer que si M est une martingale et A un processus croissant adapté
(As ≤ At , ∀s ≤ t) alors M − A est une surmartingale.
2. Soit M une martingale. Que peut-on dire de M 2 ?
2
3. Soit M une martingale telle que E(M∞
) < ∞. Montrer que supt E(Mt2 ) <
∞.
4. Montrer qu’une surmartingale telle que E(ZT ) = E(Z0 ) est une martingale sur [0, T ].
Exercice 1.4.3 Martingale locale. Montrer qu’une martingale locale positive est une surmartingale.
Exercice 1.4.4 Martingale en fonction de la valeur terminale. Soit X
une martingale telle que XT = ζ. Exprimer Xt en fonction de ζ pour t < T au
moyen d’une espérance conditionnelle.
Exercice 1.4.5 Un lemme. On trouve dans la littérature (Duffie) le lemme
suivant:
Z t
Lemma: Let φ be an adapted bounded process. Then (Yt = Mt −
φs ds, 0 ≤
t ≤ T ) for some martingale M if and only if
Z
Yt = E[
0
T
φs ds + YT |Ft ]
t
Donner une démonstration de ce lemme.
Exercice 1.4.6 Martingale de carré intégrable. Soit (Mt , t ≥ 0) une Ft martingale de carré intégrable (telle que Mt2 soit d’espérance finie, pour tout t).
Montrer que
1. E((Mt − Ms )2 |Fs ) = E(Mt2 |Fs ) − Ms2 pour t > s.
2. E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) pour t > s.
3. La fonction Φ définie par Φ(t) = E(Mt2 ) est croissante.
Exercice 1.4.7 Projection de martingale. Montrer que si M est une Ft martingale, c’est aussi une martingale par rapport à sa propre filtration Gt =
σ(Ms , s ≤ t). Soit Ht ⊂ Ft . Montrer que Yt = E(Mt |Ht ) est une Ht -martingale.
Exercice 1.4.8 Une sousmartingale. Soit τ une v.a. positive. Montrer que
Zt = P (τ ≤ t|Ft ) est une sousmartingale.
Enoncés. 2005-06
13
Exercice 1.4.9 Exemples de martingales.
1. Soit X un PAI. Montrer que X est une martingale et que si X est de carré
intégrable, Xt2 − E(Xt2 ) est une martingale.
2. Soit X une chaine de Markov. Montrer que
Z tX
X
f (Xs− , Xs ) −
qXs ,j f (Xs , j)ds
s≤t
0
est une martingale.
Exercice 1.4.10 Soit M une martingale positive continue uniformément intégrable
et τ = inf{t : Mt = 0}. Montrer que M est nulle sur t > τ .
1.5
Temps d’arrêt
Exercice 1.5.1 Tribu associée à un temps d’arrêt.
d’arrêt. Montrer que Fτ est une tribu.
Soit τ un temps
Exercice 1.5.2 Soit T un temps d’arrêt et X une variable aléatoire appartenant à FT , vérifiant X ≥ T . Montrer que X est un temps d’arrêt.
Exercice 1.5.3 Exemple de processus adapté. Soit T un temps d’arrêt.
Montrer que le processus Xt = 11]0,T ] (t) est adapté.
Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps d’arrêt tels
que S ≤ T . Montrer que FS ⊂ FT .
Exercice 1.5.5 Propriété de mesurabilité. Soit S un temps d’arrêt. Montrer que S est FS -mesurable.
Exercice 1.5.6 Soit S et T deux temps d’arrêt. Montrer que {S ≤ T }, {T ≤
S} appartiennent à FS .
Exercice 1.5.7 Exemple de processus càdlàg. Soit S et T deux temps
d’arrêt tels que S < T . Montrer que le processus Zt = 11[S,T [ (t) (égal à 1 si
S ≤ t < T et à 0 sinon) est un processus càdlàg.
Exercice 1.5.8 Exemple trivial de temps d’arrêt. Montrer qu’une constante τ est un temps d’arrêt. Quelle est dans ce cas la tribu Fτ ?
Exercice 1.5.9 Opérations sur les temps d’arrêt. Montrer que l’inf (resp.
le sup) de deux temps d’arrêt est un temps d’arrêt.
Exercice 1.5.10 Caractérisation de martingale.
1. Soit s < t, A ∈ Fs et T = t11Ac + s11A . Montrer que T est un temps
d’arrêt.
14
Rappels
2. Montrer que si E(XT ) = E(X0 ) pour tout temps d’arrêt T , alors le processus X est une martingale.
Exercice 1.5.11 Théorème d’arrêt. Soit M une martingale continue telle
loi a
que M0 = a et limt→∞ Mt = 0. Montrer que sup Mt =
où U est une v.a. de
U
loi uniforme sur [0, 1].
1.6
Temps discret
L’espace Ω est muni d’une filtration (Fn ).
Exercice 1.6.1 Soit Fn une suite de tribu décroissante On suppose que si B ∈
F∞ = ∩n Fn alors P (B) = 0 ou P (B) = 1. Calculer E([P (A|Fn ) − P (A|Fm )]2 ).
En déduire que P (A|Fn ) converge
Exercice 1.6.2 Soit Fn une suite de tribu croissante et F∞ = ∪n Fn . Montrer
que E(X|Fn ) converge dans L2 vers E(X|F∞ ).
Exercice 1.6.3 Processus croissant associé à une martingale de carré
intégrable. Soit (Xn , n ≥ 0) une (Fn )-martingale vérifiant E(Xn2 ) < ∞ pour
tout n.
1. Montrer que, pour tout p ≥ 0, E(Xn+p |Fn ) = Xn .
2
pour tout n.
2. Montrer que E((Xn − Xn−1 )2 |Fn−1 ) = E(Xn2 |Fn−1 ) − Xn−1
3. Montrer qu’il existe un unique processus (An ) tel que
(i) An est Fn−1 adapté,
(ii) A0 = 0,
(iii) Xn2 − An est
une martingale.
Vérifier que An est un processus croissant.
On montrera que la suite de processus définie par A0 = 0, An = An−1 +
2
e a les mêmes
a les propriétés désirées et que si A
E(Xn2 |Fn−1 ) − Xn−1
en − A
en−1 .
propriétés, An − An−1 = A
Exercice 1.6.4 Intégrale stochastique. Soit M une martingale et H un
processus borné prévisible (soit Hn est Fn−1 -mesurable). 0n note ∆Mk = Mk −
Mk−1 .
Pn
1. Montrer que (H · M )n = k=1 Hk ∆Mk est une martingale.
2
2
2. Soit M et N deux
Pn martingales telles que E(Mn ) < ∞, E(Nn ) < ∞ On
note [M, N ] = k=1 ∆Mk ∆Nk . Montrer que
(Mn Nn − M0 N0 − [M, N ]n ; n ≥ 0)
est une martingale.
Enoncés. 2002-03
1.7
15
Algèbre béta-Gamma
Exercice 1.7.1 Loi Arc sinus Une variable aléatoire A a une loi Arc Sinus si
1
1
loi
sa densité est √ √
11t∈[0,1] . Montrer que cos2 (Θ) = A si Θ est uniforme
π 1−t
sur [0, 2π].
N2
loi
Soit N et N 0 deux variables N (0, 1) indépendantes. Montrer que 2
=
N + N 02
A.
N
1
Soit C = 0 . Montrer que C a une loi de Cauchy et que
a une loi Arc
N
1 + C2
sinus.
1.8
Divers
Exercice 1.8.1 Soit X un processus at Mt = sup0≤s≤t Xs . On note τ une v.a.
de loi exponentielle de paramètre θ indépendante de X. Montrer que
µZ ∞
¶
−λu −θTu
E (exp(−λMτ )) = 1 − λE
due
e
0
où Tu = inf{t : Xt ≥ u}.
Exercice 1.8.2 Transformée de Laplace et indépendance. Soit X et
Y deux v.a. indépendantes. Justifier que E(eλ(X+Y ) ) = E(eλX )E(eλY ). La
réciproque est-elle vraie?
Exercice 1.8.3 Transformée de Laplace et moments. Soit X et Y deux
v.a. bornées telles que E(eλX) = E(eλY ) pour tout λ. Montrer que X et Y ont
même moments.
Exercice 1.8.4 Markov. Soit X un processus de Markov fort et Ta = inf{t :
Xt = a}. Montrer que, pour t < T
P (XT ∈ dx |Xt = a) = P (XT ∈ dx|Ta = t) .
Exercice 1.8.5 Propriété de Markov Soit B un mouvement Brownien et f
une fonction. On note T f = inf{t : Bt = f (t)}. Montrer que P (Bt ≥ f (s)|T f =
1
s) = 11s<t . Si f est croissante, montrer que P (T f ≤ t) = 2P (Bt ≥ f (T f )).
2
16
Brownien.
Chapter 2
Mouvement Brownien
Dans tout ce qui suit, (Bt , t ≥ 0) (ou (Wt , t ≥ 0)) est un mouvement Brownien
réel (un processus à accroissements indépendants issu de 0, tel que pour t > s,
Bt − Bs est une v.a. gaussienne centré de variance t − s) et on note (Ft ) sa
filtration naturelle.
Dans certains exercices, il sera précisé que B est issu de x. On rappelle que B
et (Bt2 − t, t ≥ 0) sont des martinales.
2.1
Propriétés élémentaires
Exercice 2.1.1 Caractérisation. Montrer qu’un processus X est un mouvement Brownien si et seulement si
a. Pour tout t0 < t1 . . . < tn , le vecteur (Xt0 , Xt1 , . . . , Xtn ) est un vecteur
gaussien centré
b. E(Xt Xs ) = s ∧ t
c. X0 = 0
Exercice 2.1.2 Calcul d’espérances.
1. Calculer pour tout couple (s, t) les quantités E(Bs Bt2 ), E(Bt |Fs ) et E(Bt |Bs ).
2. On a vu, dans Exercice 1.2.1, que si Z est une v.a. gaussienne centrée de
variance σ 2 , on a E(Z 4 ) = 3σ 4 . Calculer E(Bt2 Bs2 ).
3. Quelle est la loi de Bt + Bs ?
4. Soit θs une variable aléatoire bornée Fs -mesurable. Calculer pour t ≥ s,
E(θs (Bt − Bs )) et E[θs (Bt − Bs )2 ].
5. Calculer E(11Bt ≤a ) et E(Bt 11Bt ≤a ) où 11A (ω) est la v.a. égale à 1 si ω ∈ A
et 0 sinon.
Rt
Rt
6. Calculer E( 0 exp(Bs )ds) et E(exp(αBt ) 0 exp(γBs )ds).
17
18
Brownien.
√
Exercice 2.1.3 Lois. Montrer que E(f (Bt )) = E(f (G u + Bt−u )) avec G
v.a. indépendante de Bt−u et de loi gaussienne centré réduite.
Exercice 2.1.4 Soit Θ une variable aléatoire de loi exponentielle de paramètre
θ (soit P (Θ ∈ dx) = θe−θx 11x>0 dx) indépendante de B. Quelle est la loi de BΘ ?
Exercice 2.1.5 Des martingales. Parmi les processus suivants, quels sont
ceux qui sont des martingales. ( On pourra utiliser, sans démonstration, que
Z t
Z t
E[
Bu du|Fs ] =
E[Bu |Fs ] du.)
0
1. Mt =
0
Bt3
−3
Rt
0
Bs ds.
2. Zt = Bt3 − 3tBt .
Rt
3. Xt = tBt − 0 Bs ds.
Z t
4. Ut = sin Bt −
Bs (cos s) ds.
0
Z
1 t
5. Ut = sin Bt +
sin(Bs ) ds.
2 0
Rt
6. Yt = t2 Bt − 2 0 Bs ds.
Exercice 2.1.6 On suppose b < 0 < a. Montrer que (a − Bt )(Bt − b) + t est
une Ft -martingale. En déduire E(Ta,b ) où Ta,b = Ta ∧ Tb .
Exercice 2.1.7 Exponentielle de Brownien. Calculer E(ex+Bt ) et E(sin(x+
Bt )) en utilisant
Z
1 t
E(f (x + Bt )) = f (x) +
E(f 00 (x + Bs )) ds .
2 0
Exercice 2.1.8 Changement de temps. Soit Zt = BA(t) où A est une fonction déterministe continue strictement croissante.
1. Calculer l’espérance et la variance de Zt . Ce processus est-il une martingale par rapport à Ft ?.
2. On définit Gt = FA(t) . Montrer que Z est une G-martingale.
3. Déterminer le processus croissant C tel que (Zt )2 −Ct soit une G-martingale.
4. Soit un processus M tel que M est une martingale et il existe A, fonction
déterministe continue strictement croissante telle que Mt2 − A(t) est une
martingale. On note C l’inverse de A, c’est-à-dire la fonction telle que
C(A(t)) = t. Montrer que Wt = MC(t) est un mouvement Brownien.
Exercice 2.1.9 Calcul d’espérance. Comment calculer Ex (f (Bt )g(Bs ))?
Enoncés. 2002-03
19
Exercice 2.1.10 Calculer
Z
E((λ
1
duBu + µB1 )2 )
0
¡
¢
Exercice 2.1.11 Calcul de transformée de Laplace. Calculer Ex exp(−λWt2 ) .
Exercice 2.1.12 Comportement limite.
1. Montrer que limt→∞
Bt
=0
t
2. Montrer que limt→∞ Px (Bt < 0) = 1/2. En déduire que pour tout x > 0,
si T0 = inf{t : Bt = 0}, on a Px (T0 < ∞) ≥ 1/2. (En fait, on peut montrer
que T0 est fini ps.)
Z 1
Bs
Exercice 2.1.13 Montrer que l’intégrale
ds est convergente.
s
0
Exercice 2.1.14 Tribu triviale. On admettra qu’un ensemble appartenant à
la filtration F0 = F0+ a pour probabilité 0 ou 1.
1
Si τ = inf{t ≥ 0 : Bt > 0}, montrer que P (τ ≤ t) ≥ . En déduire que
2
P (τ = 0) = 1.
Exercice 2.1.15 Application de la propriété de Markov. Montrer que
Z
Z s
Z
¡ t
¢
¡ t−s
¢
Ex
h(r, Br )dr|Fs =
h(r, Br )dr + EBs
h(s + u, Bu )du
0
0
0
Exercice 2.1.16 Soit τ unµZtemps d’arrêt, λ¶ > 0 et u uneµZ
fonction continue¶
τ
∞
−λt
bornée. On pose g(x) = Ex
e u(Bt )dt et f (x) = Ex
e−λt u(Bt )dt
0
0
où comme d’habitude l’indice x précise que le Brownien est issu de x.
1. Montrer que g et f sont définies.
2. Montrer que
µZ
∞
Ex
e
−λt
¶
¡
¢
u(Bt )dt = Ex 11τ <∞ e−λτ f (Bτ ) .
τ
3. Montrer que si τ = T0 , alors g(x) = f (x) − f (0)ϕ(x) où on explicitera ϕ.
Exercice 2.1.17 Polynômes d’Hermite. Les polynômes d’Hermite Hk sont
X αk
α2
définis par eαx− 2 =
Hk (x). Montrer qu’il existe Hk (x, t), polynômes
k!
X αk
α2
en les deux variables (t, x) tels que eαx− 2 t =
Hk (x, t). En déduire la
k!
k
valeur de E(Bt |Fs ).
20
Brownien.
Exercice 2.1.18 Des gaussiennes Soit St = exp(µt+σWt ). Calculer l’espérance
Z T
Z T
et la variance de
St dt et
ln St dt. Ces variables sont-elles gaussiennes?
0
0
Exercice 2.1.19 Zeros Montrer que
P (Bu 6= 0, ∀u ∈]s, t[) =
2
arcsin
π
r
s
t
Exercice 2.1.20 Filtration Soit Gt = Ft ∨ σ(B1 ). Vérifier que B n’est pas
une (Gt )-martingale.
2.2
Processus Gaussiens
Z
Exercice 2.2.1 Montrer que le processus Yt =
son espérance et sa covariance.
t
Bu du est gaussien. Calculer
0
Exercice 2.2.2 Expliciter la solution de
dXt = −aXt dt + ebt dBt
Calculer E(Xt ) et V ar(Xt ).
Exercice 2.2.3 Non-existence de processus. Montrer qu’il n’existe pas de
processus X tel que ∀(s, t), s 6= t, les variables Xt et Xs soient indépendantes,
Z t
2
centrées gausssiennes, et E(Xt ) localement borné. On considérera
Xs ds et
0
on montrera que ce processus serait Gaussien, on calculera son espérance et sa
variance.
Exercice 2.2.4 Le pont Brownien. On définit un pont Brownien par
Zt = Bt − tB1 , 0 ≤ t ≤ 1.
1. Montrer que Z est un processus gaussien indépendant de B1 . Préciser sa
loi, c’est-à-dire sa moyenne et sa fonction de covariance.
2. Montrer que le processus Z̃ avec Z̃t = Z1−t a même loi que Z.
t , 0 < t < 1 a même loi
3. Montrer que le processus Y avec Yt = (1 − t)B 1−t
que Z.
loi
4. Montrer que (Zt = (Bt |B1 = 0)).
Z
t
Bs
ds
0 s
est un processus gaussien. Calculer sa variance et sa covariance. En déduire que
Z est un mouvement Brownien. Montrer que Z n’est pas une (FtB )-martingale,
où (FtB ) est la filtration naturelle de B.
Exercice 2.2.5 Un exemple surprenant. Montrer que Zt = Bt −
Enoncés. 2002-03
21
Exercice 2.2.6 Pont. Soit B un MB et Γt l’espace Gaussien engendré par
u
(Bu − Bt , u ≤ t). Montrer que Γt est croissant en t. Montrer que Γ(Bu , u ≤
t
t) = Γt ⊕ Γ(Bt ) où Γ(G) est l’espace engendré par G.
Exercice 2.2.7 Changement de probabilité. Soit B un MB, Lt = exp(mBt −
m2
t) , et Q définie sur FT par dQ = LT dP . Montrer que B̃t = Bt − mt est,
2
sous Q, un processus gaussien à accroissements indépendants. Montrer que B̃t
est un Q-mouvement Brownien.
Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et T une v.a. positive.
On admettra que
E(sup(|Bt | − tp/2 )) < ∞
t
1. Montrer que
E(sup(|Bt | − µtp/2 )) = λE(sup(|Bs | − sp/2 ))
t
s
1
avec λ = ( )1/(p−1) .
µ
2. Montrer que E(|BT |) ≤ E(supt (|Bt | − µtp/2 )) + µE(T p/2 ).
3. Montrer que
∀p > 1, ∃Cp , ∀T,
2.3
E(|BT |) ≤ Cp ||T 1/2 ||p
Multidimensionnel
Exercice 2.3.1 Soit deux mouvements Browniens B (1) et B (2) corrélés de coefficient de corrélation ρ. Montrer, sans utiliser la formule d’Itô pour des processus corrélés, p
qu’il existe un Brownien B (3) , indépendant de B (2) tel que
(1)
(2)
B = ρB + 1 − ρ2 B (3) .
Exercice 2.3.2 Somme de browniens. Soit W un mouvement
brownien
p
indépendant de B et ρ ∈ [0, 1]. Montrer que (Ut = ρWt + 1 − ρ2 Bt , t ≥ 0) est
un mouvement Brownien.
Soient B (1) et B (2) deux browniens indépendants et (σi , i = 1, 2) deux fonctions
déterministes. Montrer qu’il existe une fonction σ3 telle que le processus B (3)
défini par
(3)
(1)
(2)
σ3 (t)dBt = σ1 (t)dBt + σ2 (t)dBt
est un Brownien.
Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction borélienne
bornée. Montrer que, pour 0 < s < t Ex (f (Bt )|Fs ) = Φ(Bs ) avec Φ(x) =
Ex [f (Bt−s )]. En déduire que B i B j est une martingale pour i 6= j.
22
Brownien.
Exercice 2.3.4 Mouvement Brownien dans R2 .
1. Soit W1 et W2 deux mouvements Browniens indépendants. Le processus
Wt = W1 (t) + W2 (t) est-il un mouvement Brownien? Si oui, justifiez la
réponse, sinon, expliquez pourquoi. Même question avec αW1 (t)+βW2 (t).
2. Soit W1 et W2 deux processus. Soit c un réel donné. Montrer que si
µ
½
·
¸·
¸¾
¶
t
1 c
a
exp aW1 (t) + bW2 (t) − [a, b]
, t≥0
c 1
b
2
est une martingale pour tout couple (a, b), W1 et W2 sont des MB. Calculer
E[exp(aW1 (t) + bW2 (t))].
Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel et
U une matrice telle que U U T = I. Montrer que (U Bt , t ≥ 0) est un MB.
2.4
Temps d’atteinte
Dans tous ces exercices, a ∈ IR et Ta = inf{t : Bt = a} où B est un mouvement
Brownien.
Exercice 2.4.1 Transformée de Laplace. Montrer que Ta est un temps
d’arrêt. Calculer E(e−λTa ) pour tout λ réel. Montrer que P (Ta < ∞) = 1 et
que E(Ta ) = ∞.
Mêmes questions avec St = exp(σBt ).
Exercice 2.4.2 Montrer (sans calculs) que pour b > a > 0, la v.a. Tb − Ta est
indépendante de Ta . Quelle est la loi de Tb − Ta ? Que peut-on dire du processus
(Ta , a > 0)?
Exercice 2.4.3 Soit a < 0 < b et T = Ta ∧ Tb . Calculer P (Ta < Tb ) et E(T ).
Exercice 2.4.4 Processus du temps d’atteinte.
1. Soit f (t) = E(e−rTa 11Ta <t ). On ne cherchera pas à calculer f ici.
Calculer en fonction de f la quantité E(e−r inf(T,Ta ) ) où T est un nombre
positif.
2. Montrer que si 0 < a < b, Tb − Ta est indépendant de Ta et a même loi
que Tb−a .
3. Mêmes questions si Ta = inf{t; νt + Bt = a}.
4. Soit S un brownien géométrique(
soit St =Zx exp(νt+σWt )) et τa = inf{t :
Z ∞
τb
−rt
St = a}. Calculer E(
e St dt) et E(
e−rt St dt).
0
0
Montrer que si 0 < a < b, τb − τa est indépendant de τa et a même loi que
τb−a .
Calculer E(e−rτK 11τK <T 11τH −τK >t ).
Enoncés. 2002-03
23
Exercice 2.4.5 Temps d’atteinte Soit T un nombre réel. Calculer Zt =
loi
P (Ta > T |Ft ). On rappelle que supu≤t Wu = |Wt |.
Exercice 2.4.6 Premier instant. Soit W un MB issu de 0 et T d = d+inf{t :
d
d
Wt+d = 0}. Calculer E(e−λT ) et E(11Wd ≤a e−λT ).
Soit T ∗ = d si Wd ≥ −a et T ∗ = d + T d si Wd ≤ −a, Wd+T d ≥ −a. Calculer
∗
E(e−λT ).
loi
Exercice 2.4.7 Self decomposable Montrer qu’il existe c tel que Tr = cTr +
X avec X indépendante de c.
Exercice 2.4.8 Soit Tea et Tba deux v.a. indépendantes de même loi que Ta .
Tea
Quelle est la loi de
(Sans faire de calculs).
Tea + Tba
Exercice 2.4.9 Loi de l’inf. Soit I = − inf s≤T1 Bs . Montrer que P (I ∈ dx) =
dx
.
1 + x2
Exercice 2.4.10 Calculer E(e−λTa ) avec Ta = inf{t : Xt = a} et Xt = νt +
Wt . Calculer E(e−λT ) pour T = Ta ∧ Tb .
Exercice 2.4.11 Soit Ta∗ = inf{u : Mu − Bu > a} avec Mu = supt≤u Bt .
Montrer que MTa∗ a une loi exponentielle.
Exercice 2.4.12 Temps d’atteinte Soit A et B deux nombres positifs. On
exp(−2µx/σ 2 ) − exp(2µB/σ 2 )
note Xt = µt + σBt et h(x) =
. Vérifier que
exp(−2µA/σ 2 ) − exp(2µB/σ 2 )
h(Xt ) est une martingale. Le temps d’arrêt τ est défini par
τ = inf{t : Xt = A ouXt = −B} .
Calculer P (Xτ = A).
Exercice 2.4.13 Soit f une fonction borélienne bornée et et
θ2
u(x) = Ex (exp[− T0 +
2
Z
T0
duf (Bu )])
0
où B est un mouvement Brownien issu de x. Montrer que u est solution de
1 00
θ2
u = ( + f )u, u(0) = 1
2
2
Exercice 2.4.14 Soient a, d deux nombres réels positifs.
1. Calculer E(e−|Bd |
√
2λ
11Bd ≤−a ).
24
Brownien.
2. Soit T1 = inf{t ≥ d : Bt = 0}. Montrer que T1 est un temps d’arrêt. Calculer E(e−λT1 ) et E(e−λT1 11Bd ≤−a ). Montrer que BT1 +d est indépendant
de Bd et de T1 .
3. On introduit la v.a. τ1 suivante : si Bd ≤ −a, on pose τ1 = d. Si Bd > −a
et si BT1 +d ≤ −a, on pose τ1 = T1 + d, sinon on pose τ1 = ∞.
Calculer pour λ > 0 la transformée de Laplace de τ1 , soit E(e−λτ1 ).
4. On continue. Si Bd ≤ −a, on pose τ2 = d. Si Bd > −a et si BT1 +d ≤ −a,
on pose T τ2 = T1 + d, sinon on définit T2 = inf{t ≥ T1 + d : Bt = 0}.
Si BT2 +d ≤ −a on pose τ2 = T2 + d. Dans tous les autres cas, on pose
τ2 = ∞.
(a) Montrer que BT2 +d est indépendant de (BT1 +d , Bd ) et de T2 .
(b) Calculer la transformée de Laplace de τ2 .
5. On utilise la même procédure pour définir par itération τn et on pose
τ = τ∞ .
(a) Montrer que τ est fini en utilisant, après l’avoir justifié que
Y
P (τ < ∞) =
P (BTi +d < −a)
i
(b) Calculer la transformée de Laplace de τ .
(c) Calculer la transformée de Laplace de Bτ .
(d) Montrer que Bτ est indépendant de τ .
Exercice 2.4.15 On trouve parfois (voir exercice précédent, ou les temps d’atteinte
d’un niveau) des temps d’arrêt τ tels que τ et Bτ sont indépendants. Ceci n’est
cependant pas très courant. Dans ce qui suit on admettra le résultat (non trivial) suivant (Cramer) Si X et Y sont deux v.a. indépendantes telles que X + Y
est une v.a. gaussienne, alors X et Y sont des gaussiennes.
Le but de cet exercice est de montrer : si τ est borné par K et si τ et Bτ
sont indépendants, alors τ est une constante.
1. Montrer que si s > K,
bs−τ
Bs = Bτ + B
b un mouvement Brownien indépendant de Fτ .
avec B
bs−τ sont des v.a. indépendantes.
2. Montrer que Bτ et B
3. Calculer l’espérance et la variance de Bτ . (Attention, ce n’est pas trivial.
Penser au cas où τ = Ta .)
bs−τ est une v.a. Gaussienne.
4. Montrer que B
√
loi p
5. Montrer que l’on obtient K − τ G = K − E(τ ) G où G est une v.a.
gaussienne réduite centrée.
Enoncés. 2002-03
25
6. Conclure.
Exercice 2.4.16 Soit a et µ deux constantes strictement positives et T1 =
inf{t : Bt ≥ a − µt}, T2 = inf{t : Bt ≤ −a + µt}. On pose, pour tout λa ≥ 0,
Φ(λ) = E(exp[−λτ ]) avec τ = T1 ∧ T2 .
loi
loi
1. Montrer que T1 = T2 et que (T1 , T2 ) = (T2 , T1 ).
2. Vérifier que Φ est bien définie et donner un majorant et un minorant simples de Φ (S’aider par un dessin).
3. Montrer que Φ(λ) = 2E (exp(−λT1 )11T1 <T2 ).
4. Montrer que
eλa Φ(−λµ − λ2 /2) + e−λa Φ(λµ − λ2 /2) = 2
Exercice 2.4.17 Soit Xt = νt + σBt . Montrer que, pour tout λ
exp(λXt + βt), t ≥ 0
est une martingale pour un paramètre β que
µ l’onµ déterminera.
¶¶
λ2
On note Ta = inf{t : Xt ≥ a}. Calculer E exp − Ta
et P (Ta < ∞).
2
Exercice 2.4.18 Calculer P (Mt ≤ y|Wt = x) où Mt = sup(Ws , s ≤ t).
2.5
Scaling
Z t
Exercice 2.5.1 Montrer que le calcul de E(
exp(νs + σBs ) ds) se déduit de
0
Z T
E(
exp(2(µs + Bs ) ds). On ne demande pas de faire ce calcul.
0
Exercice 2.5.2 Soit T1 = inf{t : Bt = 1}. Utiliser le scaling du MB pour
établir les égalités en loi suivantes
loi
1. T1 =
1
avec S1 = sup(Bu , u ≤ 1)
S12
loi
2. Ta = a2 T1 avec Ta = inf{t : Bt = a}.
loi
loi
3. gt = tg1 , dt = td1 où gt = sup{s ≤ t : Bs = 0} et dt = inf{s ≥ t : Bs = 0}.
loi t loi
1
d1 = d(1/t) .
Montrer que {gt < u} = {du > t}. En déduire gt =
26
Brownien.
4. On suppose que A est un processus croissant continu tel que, pout tout c
loi √
(Bct , Act , t ≥ 0) = ( cBt , cAt ; t ≥ 0)
loi
On note ∆a = inf{t : At ≥ a}. Montrer que d∆a = ad∆1 . En déduire
loi
Ag = 1/d∆1 .
5. Montrer que At = sups≤t Bs2 vérifie les conditions précédentes.
Exercice 2.5.3 Montrer que
1
loi
sup |Wt | = p ∗
T1
0≤t≤1
où T1∗ = inf{t ≥ 0 : |Wt | = 1}.
Exercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit que
A a la propriété (hom) s’ il existe r ∈ IR tel que pour tout c,
loi √
(Bct , Act ; t ≥ 0) = ( cBt , cr+1 At ; t ≥ 0)
Z
Pour quelle valeur de r la fonctionnelle At =
0
t
11(Bs >0) ds a t’elle la propriété
(hom)? Même question pour le temps local (voir la définition plus loin)
2.6
Compléments
Exercice 2.6.1 Projection d’un Brownien. Soit B un MB dans sa filtration
bt
(Ft ) et (Gt ) une filtration plus petite que (Ft ). On suppose que E(Bt |Gt ) = B
b
est un MB. Montrer que Bt = Bt .
Exercice 2.6.2 Filtration de carrés de Browniens. Soit Yt = aBt2 + bWt2
avec a 6= b et a et b non nuls, W et B étant des Browniens indépendants.
Montrer que σ(Ys , s ≤ t) = σ(Bs , Ws , s ≤ t). Généraliser au cas de n carrés.
Exercice 2.6.3 Représentation prévisible. Soit W (i) , i = 1, 2, 3 trois MB,
avec W (i) , i = 1, 2 indépendants. Montrer qu’il n’est pas possible d’avoir
(2)
(1)
(3)
σ(Ws , s ≤ t)) = σ(Ws , Ws , s ≤ t). On utilisera le théorème de représentation
(1)
(2)
prévisible pour représenter Wt , Wt en terme de W (3) .
Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on définit la tribu
Ftβ = σ{(Bs −
s
Bt , s ≤ t}
t
1. Montrer que la famille Ftβ est croissante en t.
Enoncés. 2002-03
27
2. Soit f ∈ L2 (IR+ , ds). Calculer la projection Fbt sur L2 ((F β )t ) de Ft =
Z t
f (s)dBs .
0
Z
t
bt = Bt −
3. Montrer que le processus B
du
0
Brownien et que
Bu
est un (Ftβ )-mouvement
u
bu , u ≤ t}
Ftβ = σ{B
Z
t
4. Montrer que Fbt =
0
bt , avec fb(t) = f (t) − 1
fb(s)dB
t
Z
t
f (u)du.
0
Exercice 2.6.5 Soit B un MB réel, T0 = inf{t : Bt = 0}, g = sup{t <
1Z : Bt = 0} et d = inf{t > 1 : Bt = 0}.
Z Montrer que Px (d > 1 + t) =
p(1, x; y)Py (T0 > t)dy et que P0 (g ≤ t) = p(t, 0; y)Py (T0 > 1 − t)dy.
Exercice 2.6.6 Loi de gt . Montrer que
1
1
P ( sup Bu > 0, Bs < 0) = 2P (Bt > 0, Bs < 0) = 2[ −
arcsin
4 2π
s≤u≤t
r
s
]
t
En déduire la loi de gt = sup{s ≤ t : Bs = 0}
Exercice 2.6.7 Représentation prévisible. Trouver un processus f prévisible
Z T
tel que F = E(F ) +
fs dBs pour
0
1. F = BT ,
Z T
2. F =
Bs ds,
0
3. F = BT2 ,
4. F = exp BT .
Exercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un second
mouvement Brownien issu de 0 indépendant de B et
Z t
Z t
Ws
1
Xt = (1 − t)
ds
+
(1
−
t)
dBs .
2
(1
−
s)
1
−
s
0
0
Z t
Z t Z s
Z t
Wu
Ws
Ws
ds
ds −
du = (1 − t)
ds.
1. Montrer que
2
1
−
s
(1
−
u)
(1
− s)2
0
0
0
0
2. En admettant que si f et g sont deux
Z t fonctions
Z s déterministes on peut
intervertir le sens des intégrales dans
dsf (s)
g(u)dBu , montrer que
0
Z
Bt −
Z
t
ds
0
0
s
1
dBu = (1 − t)
1−u
0
Z
0
t
1
dBs
1−s
28
Brownien.
3. Vérifier que X est solution de
Z
t
X t = Bt +
0
Ws − Xs
ds .
1−s
Z
t
4. (sans utiliser ce qui précede) Montrer que Xt = (1 − t)
0
Wt .
dBs − dWs
+
1−s
5. Calculer E(Xs Xt ).
Exercice 2.6.9 Soit G une filtration, W un G mouvement brownien. Soit H
une filtration plus petite que G. Montrer que le processus Mt = E(Wt |Ht )
est une martingale. (on précisera par rapport à quelle filtration). Soit Xt =
Z t
Wt +
Yu du où Y est un processus G adapté. On note FX la filtration de X et
0
Z t
Ybu du, t ≥ 0) est une FX -martingale
Ybu = E(Yu |FuX ). Vérifier que Zt = (Xt −
0
(on calculera l’espérance conditionnelle de Zt par rapport à FX
s .
Exercice 2.6.10 Let X be a Brownian motion with drift µ and MtX = sup{ s ≤
t}Xt . Prove that
Z ∞
E(MTX |Ft ) = MtX +
(1 − F (T − t, u)du
MtX −Xt
where F (T − t, u) = P (MTX−t ≤ u)
2.7
Finance
Exercice 2.7.1 Black et Scholes. Calculer E(e−at (St − K)+ ) quand
St = xebt exp(σWt −
σ2
t)
2
Ecrire la formule obtenue quand a = b = r et quand a = r, b = r − δ. Calculer
E(e−rt (St − K)+ |Fs ) pour s < t.
Exercice 2.7.2 Options reset Une option reset est caractérisée par une suite
de dates t1 , t2 , . . . , tn . Le payoff de cette option est
X
A=
(ST − Sti )+ 11Sti =inf{K,St1 ,St2 ,...,Stn } + (ST − K)+ 11K=inf{K,St1 ,St2 ,...,Stn }
i
Calculer le prix d’une telle option, c’est-à-dire calculer E(e−rT A) quand
St = xert exp(σWt −
.
σ2
t)
2
Enoncés. 2002-03
2.8
2.8.1
29
Problème
Partie I : Résultats préliminaires
Soit (Bt )t≥0 un mouvement Brownien standard sur un espace de probabilit
(Ω, F, P ). On note (Ft )t≥0 la filtration naturelle de B.
Etant donné un processus continu (Xt )t≥0 à valeurs réelles, on pose pour
t > 0,
MtX = sup Xs ,
s≤t
mX
t
= inf Xs .
s≤t
Si a est un nombre réel strictement positif, on définit également
TaX = inf{t ≥ 0; Xt = a},
T̃aX = inf{t ≥ 0; |Xt | = a} .
Il a été démontré en cours que TaB est un temps d’arrêt relativement à (Ft )t≥0 ,
fini p.s. , tel que E(TaB ) = ∞ et pour λ ≥ 0 ,
³ √ ´
¤
£
E exp(−λTaB ) = exp −a 2λ .
1. En inversant la transformée de Laplace de TaB , montrer que la densité de
la loi de TaB est donnée par
µ 2¶
a
a
√
exp −
1(t>0) .
3
2t
2πt
2. Démontrer que pour λ ≥ 0 ,
h
i ³
³ √ ´´−1
E exp(−λT̃aB ) = cosh a 2λ
.
3. Prouver que T̃aB est intégrable et calculer E(T̃aB ) .
4. Soient c et d deux nombres réels strictement positifs et posons T B =
B
TcB ∧ T−d
. Montrer que pour λ ∈ IR ,
·
µ 2
¶¸
λ
sinh(λd)
E exp − T B 1(T B =TcB )
=
,
2
sinh(λ(c + d))
·
µ 2
¶¸
λ B
cosh(λ(c − d)/2)
E exp − T
=
.
2
cosh(λ(c + d)/2)
5. En utilisant la propriété de Markov forte, démontrer que si c ≥ 0 , b ≤ c ,
P [Bt ≤ c , MtB > c] = P [Bt > 2c − b].
6. En-déduire que pour chaque t > 0 , les variables aléatoires MtB et |Bt | ont
la même loi.
30
Brownien.
7. Vérifier que pour chaque t > 0 , la densité de la loi du couple (Bt , MtB )
est donnée par
µ
¶
2(2c − b)
(2c − b)2
√
exp −
1{0≤c} 1{b≤c} .
2t
2πt3
8. Retrouver alors la densité de la loi de TaB explicitée au 1. .
2.8.2
Partie II
On considère le processus (Yt )t≥0 défini par : ∀t ≥ 0 , Yt = µ t + Bt , où µ ∈ IR .
1. Montrer qu’il existe une mesure de probabilité P µ sous laquelle (Yt )t≥0
est un mouvement Brownien standard.
2. En utilisant le résultat de la question I.7. , en-déduire que pour chaque
t > 0 , la densité de la loi du couple (Yt , MtY ) est donnée par
µ
¶
µ
¶
2(2c − b)
(2c − b)2
1 2
√
exp −
. exp µ b − µ t 1{0≤c} 1{b≤c} .
2t
2
2πt3
2.8.3
Partie III
£
¤
Soit (St )t≥0 le processus tel que : ∀t ≥ 0 , St = x exp (r − 12 σ 2 )t + σBt , où x,
r et σ sont des nombres réels strictement positifs. Dans la suite, on désignera
par N la fonction de répartition de la loi normale centrale réduite.
1. Expliciter la probabilité P θ qui fait de (B̃t )t≥0 un mouvement Brownien
standard, avec B̃t = θt + Bt et θ = σr − σ2 .
2. Trouver une relation entre MtS et MtB̃ et entre mSt et mB̃
t pour chaque
t > 0.
Dans ce qui suit, H et K désigne des nombres réels strictements positifs.
3. Montrer que
£
¤
P St ≤ K , MtS ≤ H = N (d1 ) −
avec
µ
H
x
¶(2r/σ2 )−1
¶ ¶
µ µ ¶ µ
√
1
K
− r − σ 2 t /σ t ,
log
x
2
µ µ
¶ µ
¶ ¶
√
Kx
1 2
d2 = log
−
r
−
σ
t /σ t .
2
H
2
d1 =
N (d2 ) ,
Enoncés. 2002-03
31
4. Montrer que
£
¤
P St ≥ K , mSt ≥ H = N (d3 ) −
avec
µ
H
x
¶(2r/σ2 )−1
N (d4 ) ,
¶ ¶
µ ³ ´ µ
√
x
1
log
+ r − σ 2 t /σ t ,
K
2
¶ ¶
µ µ 2¶ µ
√
1 2
H
t /σ t .
+ r− σ
d4 = log
xK
2
d3 =
5. Déduire de la question 3. que (E désignant l’espérance sous P )
h
i
E St 1{St ≤K ,MtS ≤H} = x ert
avec
Ã
µ
N (d5 ) −
H
x
¶(2r/σ2 )+1
!
N (d6 )
,
µ µ ¶ µ
¶ ¶
√
K
1
log
− r + σ 2 t /σ t ,
x
2
¶ µ
¶ ¶
µ µ
√
1 2
Kx
−
r
+
σ
t /σ t .
d6 = log
2
H
2
d5 =
6. En utilisant le résultat de la question 4., vérifier que
!
Ã
µ ¶(2r/σ2 )+1
h
i
H
E St 1{St ≥K ,mSt ≥H} = x ert N (d7 ) −
N (d8 ) ,
x
avec
µ ³ ´ µ
¶ ¶
√
x
1 2
d7 = log
+ r+ σ
t /σ t ,
K
2
µ µ 2¶ µ
¶ ¶
√
H
1
d8 = log
+ r + σ 2 t /σ t .
Kx
2
h
i
7. On pose v1 (x, T ) = E e−rT (ST − K)+ 1{mST ≥H} .
Montrer que
#
"
#
"
µ ¶(2r/σ2 )−1
µ ¶(2r/σ2 )+1
H
H
−rT
N (d8 ) −e
K N (d3 ) −
N (d4 ) .
v1 (x, T ) = x N (d7 ) −
x
x
∂
Déterminer la quantité ∂x
v1 (x, T − t) .
h
i
8. On pose v2 (x, T ) = E e−rT (ST − K)+ 1{MTS ≤H} . Donner une formule
explicite pour v2 (x, T ) et
∂
∂x v2 (x, T
− t) .
32
Itô.
9. On pose
h
i
v3 (x, T ) = E e−rT (ST − K)+ 1{MTS ≥H} ,
h
i
v4 (x, T ) = E e−rT (ST − K)+ 1{mST ≤H} ,
¤
£
v(x, T ) = E e−rT (ST − K)+ .
Donner une relation entre v2 (x, T ) ,v3 (x, T ) et v(x, T ) d’une part et entre
v1 (x, T ) ,v4 (x, T ) et v(x, T ) d’autre part.
Chapter 3
Intégrale d’Itô
Dans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtration
est notée (Ft ).
3.1
Intégrale de Wiener
Exercice 3.1.1 Soit Yt = tBt . Calculer dYt , l’espérance de Yt et E(Yt Ys ).
Z t
Exercice 3.1.2
1. Montrer que la v.a. Xt =
(sin s) dBs est définie.
0
2. Montrer que X est un processus gaussien.
Calculer son espérance et la covariance E(Xs Xt ).
3. Calculer E[Xt |Fs ].
Z
4. Montrer que Xt = (sin t)Bt −
t
(cos s)Bs ds.
0
Exercice 3.1.3
est défini.
1. Montrer que le processus (Yt =
Rt
0
(tan s) dBs , 0 ≤ t <
π
2)
2. Montrer que Y est un processus gaussien, calculer son espérance et sa
variance et son espérance conditionnelle.
Z t
Bs
3. Montrer que Yt = (tan t) Bt −
ds.
2s
cos
0
Exercice 3.1.4 Pont. On considère l’équation différentielle stochastique
(
Xt
dXt =
dt + dBt ; 0 ≤ t < 1
t−1
X0 = 0
33
34
Itô.
1. Montrer que
Z
t
Xt = (1 − t)
0
dBs
; 0 ≤ t < 1.
1−s
2. Montrer que (Xt , t ≥ 0) est un processus gaussien. Calculer son espérance
et sa covariance.
3. Montrer que limt→1 Xt = 0.
Exercice 3.1.5 Montrer que, si f est une fonction déterministe de carré intégrable
Z ∞
Z t
E(Bt
f (s) dBs ) =
f (s) ds .
0
0
Exercice 3.1.6 ZCalculs de moments.
Z
t2
Calculer A = E(
(Bt −Bt1 ) dt|Ft1 ). Montrer que
t1
Z
t2
t1
(Bt −Bt1 ) dt =
t2
(t2 −
t1
t)dB·Z
t . Utiliser cette égalité
¸ pour calculer A d’une autre manière. Calculer
t2
Var
(Bt − Bt1 ) dt|Ft1 .
t1
3.2
Formule d’Itô
Exercice 3.2.1 Ecrire les processus suivants comme des processus d’Itô en
précisant leur drift et le coefficient de diffusion
1. Xt = Bt2
2. Xt = t + eBt
3. Xt = Bt3 − 3tBt
4. Xt = 1 + 2t + eBt
5. Xt = [B1 (t)]2 + [B2 (t)]2
1
6. Xt = (Bt + t) exp(−Bt − t)
2
7. Xt = exp(t/2) sin(Bt )
µZ
¶
t
a(s)ds
Exercice 3.2.2 Intégration par parties. Soit Xt = exp
et
0
Z t·
Yt = Y0 +
0
µ Z
b(s) exp −
¶¸
s
a(u)du
dBs
0
où a et b sont des fonctions déterministes. On pose Zt := Xt Yt . Montrer que
dZt = a(t)Zt dt + b(t)dBt .
Enoncés. 2005-06
35
Exercice 3.2.3 Intégration par parties. Soit Yt = tX1 (t)X2 (t) avec
dX1 (t) =
dX2 (t) =
f (t) dt + σ1 (t)dBt
σ2 (t)dBt
Calculer dYt .
Rt
Exercice 3.2.4 Montrer que (Yt = sin(Bt ) + 12 0 sin(Bs ) ds, t ≥ 0) est une
martingale. Calculer son espérance et sa variance.
Exercice 3.2.5 Equation différentielle. On admet que le système suivant
admet une solution

Z t


Ys dBs
 Xt = x +
Z 0t


 Yt = y −
Xs dBs
0
Montrer que
Xt2
+
Yt2
2
2
t
= (x + y )e .
Z
Exercice 3.2.6 Formule d’Itô. Soit Yt =
t
Z
s
e dBs et Zt =
0
t
Ys dBs .
0
1. Ecrire l’EDS vérifiée par Zt .
2. Calculer E(Zt ), E(Zt2 ) et E(Zt Zs ).
Exercice 3.2.7 On suppose que X est un processus d’Itô de drift a(Kt − Xt ),
que Xt = f (Kt ) et que Kt = bt + σBt où a, b, σ sont des constantes et B un
mouvement brownien. Quelle est la forme de f ?
Exercice 3.2.8 Exponentielle.
Soit σ un processus adapté continu de
L2 (Ω × IR) et
Z t
Z
1 t 2
Xt =
σs dBs −
σ ds .
2 0 s
0
On pose Yt := exp Xt et Zt = Yt−1 .
1. Expliciter la dynamique de Y , c’est-à-dire exprimer dYt .
2. Montrer que Y est une martingale locale. Donner une condition sur σ
pour que ce soit une martingale.
3. Calculer E(Yt ) dans ce cas. Expliciter les calculs quand σ = 1.
4. Calculer dZt .
Exercice 3.2.9 Soit (a, b, c, z) des constantes et
µ
¶
Z t
2
2
Zt = e(a−c /2)t+cWt z + b
e−(a−c /2)s−cWs ds
0
Quelle est l’EDS vérifiée par Z?
36
Itô.
Exercice 3.2.10 On considère le processus de dynamique
dSt = St ((r − q + ht )dt + σdWt )
où (ht , t ≥ 0) est un processus adapté.
1. On se place dans le cas ht = 0, ∀t. Montrer que (Mt = St e−(r−q)t , t ≥ 0)
est une martingale positive. On définit une probabilité Q par dQ|Ft =
Mt
M0 dP |Ft . Comment se transforme le MB W?
2. Dans le cas h non nul, expliciter St (Utiliser l’exercice 3.2.9).
3. On suppose que ht = h(St ) où h est une fonction continue. On admet
qu’il existe une solution de l’EDS correspondante. Montrer que
e−rT E(e−
RT
0
h(Ss )ds
Ψ(ST )) = e−qT S0 EQ (ST−1 Ψ(ST ))
4. On se place maintenant dans le cas ht = St−p , avec p réel. On admet qu’il
existe une solution de l’EDS. On pose Zt = Stp .
(a) Quelle est la dynamique de Z?
(b) Vérifier, en utilisant l’exercice 4 que l’on peut expliciter Z.
(c) Pour quelles fonctions f , le processus f (Z) est il une martingale
(locale)?
Exercice 3.2.11 Processus d’Ornstein Uhlenbeck. Soit X tel que dXt =
(a − bXt )dt + dBt
µ Z t
¶
Z
c2 t 2
1. Montrer que Zt = exp c
Xs dBs −
X ds est une martingale
2 0 s
0
locale.
2. Soit Ut = Xt2 . Ecrire dUt puis la variable Ut comme une somme d’intégrales.
Z t
Z t
Z t
1
3. Montrer que
Xs dBs = (Xt2 − X02 − t) − a
Xs ds + b
Xs2 ds .
2
0
0
0
Exercice 3.2.12 Soit Z le processus défini par
µ
¶
1
Wt2
√
Zt =
exp −
.
2(1 − t)
1−t
1. Montrer que Z est une martingale et que Zt tend vers 0 quand t tend vers
1..
2. Calculer E(Zt ).
3. Ecrire Zt sous la forme
Z
Zt = exp (
t
Φs dWs −
0
où Φ est un processus que l’on précisera.
1
2
Z
0
t
Φ2s ds)
Enoncés. 2005-06
37
Exercice 3.2.13 Moments d’une exponentielle. Soit L le processus solution de
dLt = Lt φdWt , L0 = 1
où φ est une constante. Le processus L est l’exponentielle de Doléans-Dade de
φW et se note Lt = E(φW )t .
1. Déterminer la fonction λ telle que, pour a ∈ IR, le processus (Lt )a exp(−λ(a)t)
est une martingale.
2. En déduire le calcul de E [(Lt )a ] pour tout a ∈ IR.
Exercice 3.2.14 Démonstration de l’unicité de l’écriture d’un processus d’Itô.
Soit dXt = at dt + σt dWt . On souhaite démontrer que si X ≡ 0, alors a ≡ 0, σ ≡
0.
1. Appliquer la formule d’Itô à Yt = exp(−Xt2 ).
2. En déduire le résultat souhaité.
Exercice 3.2.15 Soit V = KX avec
dXt
dKt
=
=
Xt (µ − k − s ln Xt )dt + σXt dWt
Kt (r + k)dt
Calculer dVt et d ln Xt .
Exercice 3.2.16 Montrer que
Z t
¡
¢
¡ B2
¢
1
Mt = exp −
Bs2 ds exp − t tanh(T − t)
2
(cosh(T − t))1/2
0
est une martingale locale.
Z
t
Exercice 3.2.17 Soit At =
exp(Ws + νs)ds et dSt = St (rdt + σdWt ). Mon-
0
f (t, St , At )
trer que le processus
est une martingale si f vérifie une équation aux
dérivées partielles à coefficients déterministes que l’on précisera.
1
1
dt. Montrer que
est une martingale
Xt
Xt
(locale). Quelles sont les fonctions f telles que f (t, Xt ) soit une martingale
locale?.
Exercice 3.2.18 Soit dXt = dBt +
Exercice 3.2.19 Soit B et W deux browniens corrélés et
√
drt = [a(b − rt ) − λσrt ]dt + σ rt dWt
dVt = (rt − δ)Vt dt + σV Vt dBt
√
On pose Xt = rt et Yt = ln Vt − αXt avec α = 2ρσV /σ. Calculer dX et dY .
38
Itô.
à Z
Exercice 3.2.20 Soit T fixé et B(t, T ) = exp −
!
T
f (t, u)du
avec
t
df (t, T ) = α(t, T )dt + σ(t, T )dWt , ∀t < T
Montrer que
1
dB(t, T ) = (rt − α̃(t, T ) + σ̃(t, T ))B(t, T )dt − σ̃(t, T )B(t, T )dWt
2
Z T
où on a noté α̃(t, T ) =
α(u, T )du
t
Exercice 3.2.21 Soit
√
drt = (a − brt )dt − σ rt (dWt + λdt)
et B un mouvement Brownien indépendant de W . On note H le processus
µZ t
¶
Z
Z t
Z t
√
1 t 2
Ht = exp
(λ1 + λrs )ds +
λ1 dBs +
λ rs dWs
rs ds +
2 0
0
0
0
Montrer que le calcul de E(exp(HTα )|Ft ) se réduit à celui de E(exp(−ηrT −
Z T
µ
rs ds)|Ft ).
t
Exercice 3.2.22 Fonction d’échelle. Soit X un processus d’Itô. Une fonction s est une fonction d’echelle si s(X) est une martingale locale. Déterminer
les fonctions d’échelle des processus suivants:
1. Bt + νt
2. Xt = exp(Bt + νt)
Z t
Z t
3. Xt = x +
b(Xs )ds +
σ(Xs )ds. Identifier le processus croissant A tel
0
0
que s(Xt ) = βAt où β est un MB.
Exercice 3.2.23 Soit
dΨt = (1 − rΨt )dt + σΨt dWt
Soit u une solution de
σ 2 2 00
x u (x) + (1 − rx)u0 (x) − λu(x) = 0
2
On définit x∗ comme solution de x∗ u0 (x∗ ) = u(x∗ ) et v(x) =
admettra que v 00 (x) ≥ 0.
Soit enfin V définie par
½
V (x)
= v(x),
=
x,
0 ≤ x ≤ x∗
x > x∗
x∗
u(x). On
u(x∗ )
Enoncés. 2005-06
39
Montrer que 1 − (r + λ)x∗ ≤ 0.
Ecrire la formule d’Itô pour e−λt V (Ψt ). Il apparait un terme LV (x) − λV (x)
avec
σ 2 2 00
LV (x) = (1 − rx)V 0 (x) +
x V (x)
2
Montrer que sur x > x∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x∗ , on a
LV (x) − λV (x) = 0
En déduire que
V (Ψ0 ) ≥ Ẽ(e−λT V (ΨT ))
(en admettant que l’intégrale stochastique est une martingale).
Exercice 3.2.24 Reprendre l’exercice 2.6.8 en utilisant la formule d’Itô.
Exercice 3.2.25 Pont Brownien Calculer P (sup0≤s≤t Bs ≤ y, Bt ∈ dx). En
déduire que, pour un pont brownien b, issu de x à l instant 0, qui doit se trouver
en z, z > 0 à l’instant t, on a pour y > z
µ
¶
(z + x − 2y)2
(z − x)2
P ( sup bs ≤ y) = exp −
+
.
2t
2t
0≤s≤t
Quelle est la valeur de P (sup0≤s≤t bs ≤ y) pour y < z?
Exercice 3.2.26 Formule de Clark-Ocone Soit f une fonction bornée de
classe C 1 . Justifier rapidement qu’il existe une fonction ψ telle que, pour t ≤ 1
E(f (B1 )|Ft ) = ψ(t, Bt ) .
Expliciter ψ(t, x) sous la forme d’une espérance (non conditionnelle). Ecrire la
formule d’Itô pour ψ en faisant les simplifications qui s’imposent. Montrer que
Z t
ψ(t, Bt ) = E(f (B1 )) +
E(f 0 (B1 )|Fs )dBs .
0
3.3
Cas multidimensionnel
Exercice 3.3.1 On considère deux processus S1 et S2 définis par
dSi (t) = Si (t)(rdt + σi dBti ),
i = 1, 2
(3.1)
où B 1 et B 2 sont deux Browniens indépendants et où les coefficients r, σi sont
constants.
def S1 (t)+S2 (t)
.
2
1. On pose S3 (t) =
vérifiée par S3 .
def
2. Soit S4 (t) =
vérifiée par S4 .
p
Ecrire l’équation différentielle stochastique
S1 (t)S2 (t). Ecrire l’équation différentielle stochastique
40
Itô.
Exercice 3.3.2 Formule d’Itô multidimensionnelle. Soient (B1 (t), t ≥ 0)
et (B2 (t), t ≥ 0) deux mouvements Browniens indépendants. Soit (Li (t), i =
1, 2 , t ≥ 0)) les processus définis par
dLi (t) = θi (t)Li (t)dBi (t) , Li (0) = 1
où (θi (t), i = 1, 2) sont des processus adaptés continus bornés. Soit Zt =
L1 (t)L2 (t). Ecrire dZt .
Montrer que L1 (t)L2 (t) est une martingale.
Exercice 3.3.3 Soit (B1 (t), t ≥ 0) et (B2 (t), t ≥ 0) deux mouvements Browniens indépendants et ρ une constante telle que |ρ| ≤ 1.
p
1. Montrer que le processus (Wt , t ≥ 0) défini par Wt = ρB1 (t)+ 1 − ρ2 B2 (t)
est un mouvement Brownien.
2. Soit (φi (t), t ≥ 0; i = 1, 2) deux processus continus adaptés de carré
RT
intégrable (tels que ∀T ≥ 0, E( 0 φ2i (t) dt) < ∞).
(a) On définit (Zt , t ≥ 0) par dZt = φ1 (t)dB1 (t) + φ2 (t)dB2 (t) et Z0 = z.
Montrer que Z est une martingale.
(b) Soit Ψ(t) = φ21 (t) + φ22 (t). On suppose que Ψ(t) > 0. On définit
(Yt , t ≥ 0) par
φ1 (t)
φ2 (t)
dYt = p
dB1 (t) + p
dB2 (t) , Y0 = y .
Ψ(t)
Ψ(t)
Ecrire l’équation vérifiée par Yt2 .
Montrer que (Yt , t ≥ 0) est un mouvement Brownien.
3. On définit Rt = B12 (t) + B22 (t).
√ Ecrire l’équation différentielle vérifiée par
R et celle vérifiée par Ut = Rt . On montrera que
a
dt + bdB3 (t)
Ut
dUt =
où a et b sont des constantes et B3 un mouvement Brownien.
(i)
(i)
(i)
(i)
(i)
Exercice 3.3.4 Soit dSt = St (µt dt + σt dWt ) où W (i) , i = 1, 2 sont
(1)
(2)
deux MB corrélés. Déterminer ki , i = 1, 2 pour que e−rt (St )k1 (St )k2 soit
une martingale.
3.4
Compléments
Exercice 3.4.1 Formule de Tanaka. Soit f une fonction et F définie par
Z x
Z z
F (x) =
dz
f (y) dy
−∞
−∞
Enoncés. 2005-06
41
Vérifier que
Z
∞
F (x) =
Z
Z
x
0
et que F (x) =
(x − y)+ f (y)dy
−∞
∞
f (y) dy =
f (y) 11x>y dy.
−∞
−∞
Montrer, en appliquant la formule d’Itô à F que
Z
Z
t
∞
f (Bs )ds = 2
0
−∞
µ
¶
Z t
f (y) (Bt − y)+ − (B0 − y)+ −
11Bs >y dBs dy .
0
Exercice 3.4.2 Egalité de Bougerol.
browniens indépendants.
Soit W1 et W2 deux mouvements
1. Appliquez la formule d’Itô aux processus
Z
def
t
def
exp(−W1 (s)) dW2 (s), Zt = sinh W1 (t)
Xt = exp(W1 (t))
0
Z
Z
t
2. Montrer que dZt =
φ(Zs )dW1 (s) +
0
ψ(Zs )ds.
0
Z
def
t
t
3. Vérifier que Mt = W2 (t) +
Xs dW1 (s) est une martingale. Calculer
Z t
2
E(Mt ). En admettant que Mt =
γs dW3 (s), où W3 est un mouvement
0
brownien, identifier γ.
0
4. En déduire une relation entre Xt et Zt .
√
Exercice 3.4.3 Soit drt = δdt + 2 rt dBt et f (t, x) une fonction de Cb1,2 .
1. Quelle condition doit vérifier la fonction s pour que s(rt ) soit une martingale ?
2. Quelle condition doit vérifier la fonction f pour que f (t, rt ) soit une martingale ?
3. Soit Zt = rt2 et ρt =
√
rt . Ecrire les EDS vérifiées par Zt et par ρt .
√
√
4. Soit drt1 = µ1 dt + 2 rt dBt1 et drt2 = µ2 dt + 2 rt dBt2 deux processus, avec
B 1 et B 2 deux browniens indépendants. On admettra que r1 et r2 sont
indépendants. On note R le processus défini par Rt = rt1 + rt2 . Montrer
que R s’écrit sous la forme (5.1).
Exercice 3.4.4 Temps d’atteinte. Soit τ = Ta = inf{t : Wt = a}. On a
calculé Zt = P (τ > T |Ft ). Quelle est la dynamique du processus Z?.
42
Itô.
Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la forme
dXt = Ht dWt , dYt = Kt dWt . On note Mt l’unique solution de l’équation
dMt = Mt dXt , M0 = 1. Montrer que la solution de dZt = dYt + Zt dXt , Z0 = z
est
Z t
1
Zt = Mt (z +
(dYs − Hs Ks ds))
0 Ms
Quelle est la solution de dZt = dYt + Zt dXt lorsque dXt = Ht dWt1 , dYt =
Kt dWt2 où W 1 et W 2 sont deux MB éventuellement corrélés?
3.5
Brownien géométrique et extensions.
Dans cette section, S est un Brownien géométrique de dynamique
dSt = St (b dt + σ dBt )
(3.2)
où b et σ sont des constantes.
Exercice 3.5.1 Soit S̃t = e−bt St .
1. Montrer que (S̃t , t ≥ 0) est une martingale. En déduire E(St ) et la valeur
de E(St |Fs ) pour tous les couples (t, s).
2. Ecrire l’équation différentielle vérifiée par (St )−1 .
3. Montrer que ST = S0 exp[(b − 12 σ 2 )T + σBT ], puis que ST = St exp[(b −
1 2
2 σ )(T − t) + σ(BT − Bt )].
4. Soit dLt = −Lt θt dWt où θt est un processus adapté continu de L2 (Ω × IR)
. On pose Yt = St Lt . Calculer dYt .
5. Soit ζt défini par
dζt = −ζt (r dt + θt dBt )
Montrer que ζt = Lt exp(−rt). calculer dζt−1 .
6. Calculer d(St ζt ). Comment choisir θ pour que ζS soit une martingale ?
Exercice 3.5.2 Soit At =
1
t
Z
t
ln Ss ds.
0
1. Montrer que ln Ss = ln St + (b −
σ2
2 )(s
− t) + σ(Bs − Bt ) pour s ≥ t.
2. Montrer que At est une variable gaussienne.
Z
1 T
3. Soit G(t, T ) =
(Bs − Bt ) ds. Montrer que
T t
AT =
t
1
σ2
t
At + (1 − )[ln St + (b −
)(T − t)] + σG(t, T )
T
T
2
2
Enoncés. 2005-06
43
4. Montrer que G(t, T ) est une variable gaussienne indépendante de Ft , dont
on calculera l’espérance conditionnelle et la variance conditionnelle (par
rapport à Ft ).
5. En déduire que AT = Zt + U où Zt est Ft mesurable et U une variable
gaussienne indépendante de Ft . Montrer que α(t)eZt = E(eAT |Ft ),où l’on
précisera la valeur de α.
RT
Exercice 3.5.3 Soit VT = h1 T −h Su du où h est un nombre réel donné tel que
0 < h < T . Soit X le processus défini par
e−bt Xt = E[e−bT VT |Ft ] .
1. Quelle est la valeur de XT ?
2. Exprimer Xt en fonction de St pour t ≤ T − h.
3. Exprimer Xt en fonction de St et de (Su , T − h ≤ u ≤ t) pour T − h ≤
t ≤ T.
4. Montrer que dXt = Xt bdt + σSt γt dWt avec γt = 11{t<T −h}
11{T −h<t<T }
1 − e−b(T −t)
.
bh
1 − e−bh
+
bh
Exercice 3.5.4 Soit Yt = Sta avec a ≥ 2. Quelle est l’EDS satisfaite par Y ?
Calculer E(Yt ).
Exercice 3.5.5 Soit δ une fonction borélienne bornée et
dSt = St ((r − δ(t))dt + σdWt ), S0 = x .
Les questions qui suivent peuvent être traitées dans un ordre différent.
Rt
1. Montrer que e−rt St + 0 δ(s)e−rs Ss ds est une martingale locale.
2. Ecrire explicitement la solution S en fonction de S0 , r, σ, δ et W .
3. Calculer espérance et variance de S.
4. Calculer avec le minimum de calculs (on peut utiliser des résultats connus),
E((ST − K)+ ) dans le cas δ constant.
3.6
Le crochet
Soit M une martingale continue de carré intégrable. On admet qu’il existe
un processus croissant A tel que Mt2 − At est une martingale. On note At =
hM, M it = hM it ce processus que l’on appelle le crochet de M .
Exercice 3.6.1 Calcul de crochets.
44
Itô.
1. Calculer hM i pour M = B.
Z t
2. Calculer hM i pour Mt =
σs dBs
0
Exercice 3.6.2 Crochet de martingales. Soit M et N deux martingales.
On pose, par analogie avec 2ab = (a + b)2 − a2 − b2
2hM, N i = hM + N, M + N i − hM, M i − hN, N i
Montrer que M N − hM, N i est une martingale.
Exercice 3.6.3 Utilisation de crochets. Ecrire la formule d’Itô en utilisant
le crochet.
3.7
Finance
Exercice 3.7.1 Dans un marché incomplet, il existe des actifs contingents duZ T
plicables. En particulier, montrer que
(aSs + b)ds est duplicable lorsque S
est un processus d’Itô.
0
Exercice 3.7.2 Equation d’évaluation. Soit dSt = rSt dt + St σ(t, St )dBt ,
où r est une constante.
1. Montrer que E(Φ(ST )|Ft ) est une martingale pour toute fonction Φ borélienne
bornée.
2. Justifier que E(Φ(ST )|Ft ) = E(Φ(ST )|St )
3. Soit ϕ(t, x) la fonction définie par ϕ(t, St ) = E(Φ(ST )|St ). Ecrire dZt avec
Zt = ϕ(t, St ).
4. En utilisant que ϕ(t, St ) est une martingale, et en admettant que ϕ est
C 1,2 , montrer que pour tout t > 0 et tout x > 0:
∂ϕ
∂ϕ
1
∂2ϕ
(t, x) + rx (t, x) + σ 2 (t, x)x2 2 (t, x) = 0 .
∂t
∂x
2
∂x
Quelle est la valeur de ϕ(T, x)?
Exercice 3.7.3 Options Européennes et Américaines. On rappelle l’inégalité
de Jensen : si Φ est une fonction convexe et G une tribu, E(Φ(X)|G) ≥
Φ(E(X|G)).
On admettra que si τ est un temps d’arrêt borné par T et Z une sous-martingale,
E(ZT ) ≥ E(Zτ ). On note dSt = St (rdt + σt dWt ) le prix d’un actif où σ
est un processus adapté borné. Soit C = E(e−rT (ST − K)+ ) le prix d’un
call Européen et C Am = supτ E(e−rτ (Sτ − K)+ ) le prix d’un call Américain,
le sup étant pris sur tous les temps d’arrêt à valeurs dans [0, T ]. On note
P = E(e−rT (KerT − ST )+ ) et P Am = supτ E(e−rτ (Kerτ − Sτ )+ ) les prix de
puts à strike actualisés.
Enoncés. 2005-06
45
1. Montrer que (e−rt St − K)+ est une sous-martingale.
2. Soit g une fonction convexe de classe C 2 telle que g(0) = 0. Montrer que
∀x, ∀α ≥ 1, g(x) ≤
1
g(αx)
α
En déduire que
E(e−ru g(Su )|Ft ) ≤ E(e−rT g(ST )|Ft )
pour tout t < u ≤ T . Montrer que C = C Am .
3. Montrer que P = P Am .
Exercice 3.7.4 Volatilité stochastique Soit r un réel et (σt , t ≥ 0) un processus aléatoire (Ft ) adapté tel que σ1 ≤ σt ≤ σ2 où σ1 et σ2 sont des constantes.
1. On note V1 la fonction V1 (t, x) définie par V1 (t, x) = e−r(T −t) E(h(XT )|Xt =
x) lorsque dX(t) = X(t)(rdt + σ1 dBt ). Montrer que e−rt V1 (t, Xt ) est une
martingale.
2. Ecrire l’ EDS vérifiée par le processus V1 (t, Xt ). En déduire que la fonction
V1 satisfait une EDP. Dans la suite, on suppose V1 convexe en x.
3. Soit dS1 (t) = S1 (t)(rdt+σt dWt ). Ecrire la formule d’Itô pour e−rt V1 (t, St ).
En déduire e−rT V1 (t, ST ) en fonction de e−rt V1 (t, St ), d’une intégrale en
dt dont on donnera le signe et d’une intégrale stochastique.
4. Montrer que e−rt V1 (t, St ) ≤ E(e−rT h(ST )|Ft ) ≤ e−rt V2 (t, St ).
Exercice 3.7.5 Heath-Jarrow-Morton. Soit T fixé et (rt , 0 ≤ t ≤ T ) une
famille de processus (dépendant du paramètre T ) que l’on notera, comme dans
toute la littérature sur les taux (r(t, T ), 0 ≤ t ≤ T ) telle que, pour tout T fixé
dr(t, T ) = σ(t, T )Σ(t, T )dt + σ(t, T )dWt
où
∂
Σ(t, T ) = σ(t, T ) .
∂T
Z T +a
1. On pose Xt =
r(t, u)du. Montrer que l’on peut écrire
T
Z
Z
t
Xt = X0 +
µs ds +
0
où on explicitera µ et φ.
2. En déduire la dynamique de Yt = exp Xt .
t
φs dWs
0
46
Itô.
Exercice 3.7.6 Portefeuille de marché. On considère un marché comportant un actif sans risque de taux r et un actif risqué de dynamique
dSt = St (µt dt + σt dWt ) .
Un portefeuille est un couple (α, β) de processus adaptés et la valeur du portefeuille est le processus (Vt , t ≥ 0)
Vt = αt St0 + βt St .
Le portefeuille est dit autofinançant si
dVt = αt dSt0 + βt dSt .
1. Montrer qu’un portefeuille autofinançant est caractérisé par le couple
(v, β) tel que
dVt = rt Vt dt + βt (dSt − rt St dt), V0 = v .
On utilise très souvent le processus H défini par
dHt = −Ht (rt dt + θt dWt )
avec θ =
µt − rt
.
σt
2. Montrer que Mt = (Ht )−1 est la valeur d’un portefeuille autofinançant
dont on précisera la valeur de α et de β. Ce portefeuille est appellé portefeuille de marché .
Exercice 3.7.7 Dividendes. Soit
dSt = St ([r − δ]dt + σdWt ), S0 = x
(3.3)
1. Montrer que St = S0 exp(at + cWt ) où on explicitera a, c. Montrer que
Z
St e
−rt
−rT
= E(ST e
T
+
δSs e−rs ds|Ft ), .
t
2. Montrer qu’il existe β tel que S β soit une Q-martingale.
3. On suppose que dYt = Yt (rdt + νdWt ), Y0 = y. Soit γ une constante.
Montrer que Y γ vérifie une équation du type (3.3) où l’on précisera la
valeur de δ et de σ.
4. Calculer E((ST − K)+ ).
Exercice 3.7.8 Assurance de portefeuille.
Enoncés. 2005-06
47
1. Soit M une martingale telle que MT ≥ 0. Montrer que Mt ≥ 0 pour
t < T . Cette propriété s’étend-elle au cas t > T ? Si oui, donner une
démonstration, sinon, donner un contre exemple.
Soit τ un temps d’arrêt borné par T . On suppose que Mτ = 0. Montrer
qu’alors Ms = 0 pour s ∈ [τ, T ].
2. Soit V la valeur d’un portefeuille autofinançant dans un modèle BlackScholes. On rappelle que d(Rt Vt ) = πt Rt σVt dWt avec Rt = e−rt . Montrer
que si VT ≥ K alors Vt ≥ e−r(T −t) K. Montrer que s’il existe τ < T tel
que Vτ = e−r(T −τ ) K, alors Vt = e−r(T −t) K pour t ∈ [τ, T ].
3. Un agent de richesse initiale x souhaite former un portefeuille tel que
VT > K. Quelle condition sur x cela implique t’il? Comment peut-il
réaliser cet objectif? (on donnera plusieurs solutions)
r
Yt
Exercice 3.7.9 Soit dXt =
Xt dWt et dYt = gt dBt + µdt. On note
T −t
C(T − t, x, σ) la fonction
de Black-Scholes. Donner une relation entre g, µ pour
r
Yt
que C(T − t, Xt ,
) soit une martingale.
T −t
Z
Exercice 3.7.10 Calcul de E(exp −
T
rs ds|Ft ) avec rt = f (t) +
0
σ2
t + σWt
2
Exercice 3.7.11 Question préliminaire Soit X et Y deux processus d’Itô continus (on ne précisera pas leur dynamique, c’est inutile pour ce qui suit). Rappeler
la formule d’intégration par parties pour d(XY ). En déduire que
Xt d(
1
1
1
)+
dXt + dhX, it = 0 .
Xt
Xt
X
On considère un marché comportant deux actifs dont les prix sont des processus
d’Itô S 1 et S 2 tels que S 1 est strictement positif. Un portefeuille de valeur
Vt = πt1 St1 + πt2 St2 est autofinancant si
dVt = πt1 dSt1 + πt2 dSt2 .
On choisit comme numéraire le premier actif et on note Vet = Vt /St1 , Set2 = St2 /St1 ,
d’où
Vet = Vt /St1 = πt1 + πt2 Set2 .
Le but de cet exercice est de montrer que la notion d’autofinancement ne dépend
pas du choix de numéraire, c’est-à-dire que
implique
dVt = πt1 dSt1 + πt2 dSt2
(3.4)
dVet = πt2 dSet2 .
(3.5)
48
Equa. Diff.
1. Calculer dhV,
1
it
S (1)
en fonction de dhS (1) ,
1
it
S (1)
et dhS (2) ,
1
it
S (1)
Ã
!
1
1
1
(2)
(2)
(2)
1
2
2. Montrer que dVt = πt St d (1) + (1) dSt + dhS , (1) it
S
St
St
Ã
!
(2)
St
1
2
3. Montrer que dVt = πt d
.
(1)
St
Exercice 3.7.12 On considère un marché dans lequel sont négociés trois actifs
Un actif sans risque dont la dynamique est dSt0 = St0 rdt et DEUX actifs risqués
dSti = Sti (µi dt + σdWt )
avec µ1 6= µ2 et le même mouvement Brownien uni-dimensionnel W . Les actifs
contingents sont choisis dans FT = σ(Ss1 , Ss2 , s ≤ T ) = σ(Ws , s ≤ T ).
1. Montrer que le marché est complet.
2. Montrer que la marché admet des opportunités d’arbitrage.
3. Construire EXPLICITEMENT une telle opportunité d’arbitrage, c’està-dire expliciter un triplet (π0 , π1 , π2 ) de processus adaptés tels que le
portefuille associé soit autofinancant et V0 = 0, VT > 0. On pourra se
restreindre à une OA statique, c’est-à-dire telle que (π0 , π1 , π2 ) soient des
constantes.
Chapter 4
Equations différentielles
stochastiques
4.1
Equation linéaire
1
1
Exercice 4.1.1 Soit α, σ deux constantes et dX(t) = − αX(t) dt + σdW (t).
2
2
Soit Yt = Xt eαt/2 . Ecrire dYt . En déduire la forme de la solution X(t).
Exercice 4.1.2 Soit l’EDS
dXt = bXt dt + dBt , X0 = x.
1. On pose Yt = e−t X
Zt . Quelle est l’EDS vérifiée par Yt ? Exprimer Yt sous
t
la forme Yt = y +
f (s)dBs où l’on explicitera la fonction f .
0
2. Calculer E(Yt ) et E(Yt2 ).
Z t
Z t
3. Justifier que
Ys ds est un processus gaussien. Calculer E(exp[
Ys ds]).
0
0
Z
4. Exprimer Yt pour t > s sous la forme Yt = Ys +
t
g(u)dBu où l’on
s
explicitera la fonction g. Calculer E(Yt |Fs ) et Var (Yt |Fs )
5. Calculer E(Xt |Fs ) et Var (Xt |Fs ).
Exercice 4.1.3 Soit
dΨt = (1 − rΨt )dt + σΨt dWt
Soit u une solution de
σ 2 2 00
x u (x) + (1 − rx)u0 (x) − λu(x) = 0
2
49
50
Equa. Diff.
On définit x∗ comme solution de x∗ u0 (x∗ ) = u(x∗ ) et v(x) =
admettra que v 00 (x) ≥ 0.
Soit enfin V définie par
½
V (x)
= v(x),
=
x,
x∗
u(x). On
u(x∗ )
0 ≤ x ≤ x∗
x > x∗
Montrer que 1 − (r + λ)x∗ ≤ 0.
Ecrire la formule d’Itô pour e−λt V (Ψt ). Il apparait un terme LV (x) − λΨ(x)
avec
σ 2 2 00
LV (x) = (1 − rx)V 0 (x) +
x V (x)
2
Montrer que sur x > x∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x∗ , on a
LV (x) − V (x) = 0
En déduire que
V (Ψ0 ) ≥ Ẽ(e−λT V (ΨT ))
(en admettant que l’intégrale stochastique est une martingale).
Exercice 4.1.4 Préliminaire. Soit a, α, b, β quatre constantes réelles. Soit
x ∈ IR.
On considère l’équation différentielle stochastique
dXt
X0
= (a + αXt ) dt + (b + βXt ) dBt
= x
(4.1)
1. Montrer que (4.1) admet une solution unique.
2. On note m(t) = E(Xt ) et M (t) = E(Xt2 ).
(a) Montrer que m(t) est l’unique solution de l’équation différentielle
ordinaire
y 0 − αy = a
y(0) = x
(4.2)
(b) Ecrire la formule d’Itô pour Xt2 où Xt est solution de (4.1).
(c) En déduire que M (t) est l’unique solution de l’équation différentielle
ordinaire
y 0 − (2α + β 2 ) y = 2(a + bβ)m + b2
y(0) = x2
(4.3)
où m est la solution de (4.2). (On admettra que l’intégrale stochastique qui intervient est une martingale)
(d) Résoudre (4.2) puis (4.3).
Enoncés. 2005-06
51
Exercice 4.1.5 Cas particulier 1.
1. Soit (Yt )t≥0 l’unique solution de l’équation (4.1) quand a = b = 0 vérifiant
Y0 = 1.
Montrer que
1
Yt = exp {(α − β 2 )t + βBt } .
2
2. Montrer que si α ≥ 0, Y est une sous-martingale par rapport à la filtration
(Ft ).
A quelle condition sur α, Y est elle une martingale?
3. Soit (Zt )t≥0 le processus défini par
Z t
Z t
Zt = x + (a − bβ)
Ys−1 ds + b
Ys−1 dBs .
0
0
Montrer que (Zt )t≥0 est un processus d’Itô. Calculer < Y, Z >t .
En déduire que la solution Xt de (4.1) peut s’écrire Xt = Yt Zt .
Exercice 4.1.6 Cas particulier 2. On se place dans le cas a = β = 0
dXt
X0
= αXt dt + b dBt
= x.
(4.4)
1. Montrer que l’unique solution de (4.4) s’écrit
Z t
αt
Xt = e (X0 + b
e−αs dBs ) .
0
(On pourra utiliser l’exercice précédent ou poser Yt = e−αt Xt et résoudre
l’équation vérifée par Y .
2. Montrer que X est un processus gaussien, calculer son espérance et sa
variance.
Z t
³
´
Rt
3. Justifier que
Xs ds est un processus gaussien. Calculer E exp[ 0 Xs ds] .
0
4. Calculer E(Xt |Fs ) et Var (Xt |Fs ).
5. Soit Xt solution de (4.4), et φ une fonction de classe C 2 . Ecrire la formule
d’Itô pour Zt = φ(Xt ). Z
x
y2
En déduire que si φ(x) =
exp(−α 2 ) dy, alors
b
0
Z t
B2
Zt = b
exp(−α 2s ) dBs
b
0
Zt est-elle une martingale de carré intégrable?
52
Equa. Diff.
6. Soit λ fixé. Calculer
2
Φ(t, y) = E(eλXt ) .
2
Soit t fixé. Etudier la martingale E(eλXt |Fs ) , s ≤ t.
Montrer que Φ est solution d’une équation aux dérivées partielles. Soit
Ψ(t, x) = ln Φ(t, x). Montrer que
Ψ(t, x) = x2 a(t) + b(t), avec a0 (t) = −a(t)(2α + b2 a(t)), b0 (t) = −b2 a(t) .
Exercice 4.1.7 Cas particulier 3. On se place dans le cas a = α = 0
dXt
X0
=
=
(b + βXt )dBt
x
(4.5)
où x 6= − βb . Soit h la fonction définie par
h(y) =
1
b + βy
ln |
|
β
b + βx
pour y 6= − βb
1. On pose Yt = h(Xt ). Quelle est l’équation vérifiée par Yt ?
2. En déduire que la solution de (4.5) s’écrit
Xt = (x +
b
β2
b
) exp(− t + βBt ) −
β
2
β
Exercice 4.1.8 Cas particulier 4. On se place dans le cas a = 1, b = 0. On
pose Yt = e−αt Xt . Quelle est l’équation différentielle vérifiée par Y ?
Calculer E(Xt ) et Var (Xt ).
Exercice 4.1.9 Soit f, F, g, G des fonctions continues bornées. On note X la
solution de
dXt = [f (t) + F (t)Xt ]dt + [g(t) + G(t)Xt ]dWt , X0 = x
et Y la solution de
dYt = F (t)Yt dt + G(t)Yt dWt , Y0 = 1
1. Expliciter Y .
2. Soit Z défini par
Z
Zt = x +
0
t
Z
Ys−1 [f (s) − G(s)g(s)]ds +
Montrer que X = Y Z.
0
t
Ys−1 g(s)dWs .
Enoncés. 2005-06
53
3. Soit m(t) = E(Xt ) et Mt = E(Xt2 ). Montrer que m est l’unique solution
de y 0 (t) − F (t)y(t) = f (t), y(0) = x. En déduire
¸
·
Z t
m(t) = exp(Fe(t)) x +
exp −Fe(s)f (s)ds
0
Z
t
où Fe(t) =
F (s)ds. Montrer que M est l’unique solution de
0
Y 0 (t) − [2F (t) + G2 (t)]y(t) = 2[f (t) + g(t)G(t)]m(t) + g 2 (t), y(0) = x2
Exercice 4.1.10 Calculer espérance et variance de Xt avec
p
dXt = a(b − Xt )dt + σ Xt dWt
Exercice 4.1.11 Soit 0 < s < T et m ∈ IR. Vérifier que la solution de
dXt =
est
Xt =
(s − T )Xt + mT
dt + dBt
(s − T )t + T 2
m
t + [(ss − T )t + T 2 ]
T
Z
0
t
dBu
(s − T )u + T 2
Exercice 4.1.12 Soit π un processus adapté (de carré intégrable), σ, θ et r
des processus adaptés (bornés), c un processus positif, adapté, borné et X la
solution de
dXtx,π,c
= rt Xtx,π,c dt − ct dt + πtT σt [dWt + θt dt]
x,π,c
= x
X
(0)
(4.6)
´
³R
Rt
Rt
t
On note H le deflateur, soit Ht = exp 0 rs ds + 0 θs dWs − 12 0 θ2 ds =
Z t
Rt
Lt 0 rs ds .Montrer que les processus Ht Xt +
Hs cs ds, t ≥ 0 et Lt (Xt Rt +
0
Rt
cRs ds) sont des martingale. Vérifier que leur difference est une martingale.
0
Exercice 4.1.13 Calculer E(exp(λXT )) pour
dXt
dVt
p
(µ − αXt − γVt )dt + Vt dW1,t
p
= k(θ − Vt )dt + σ Vt dW2,t
=
Exercice 4.1.14 On considère l’équation
dXt = 11Xt ≥0 dWt , X0 = x .
(4.7)
On suppose qu’il existe une solution.
1. Vérifier que, pour x = 0, la solution de (4.7) n’est pas identiquement nulle.
54
Equa. Diff.
2. Vérifier que, pour x ≥ 0, la solution est à valeurs positives. On pourra
montrer, en utilisant la formule d’Itô, que si f est une fonction régulière,
nulle sur IR+ , alors f (Xt ) est nulle.
3. Montrer que la solution issue de 0 est d’espérance nulle à tout instant t.
4. Que peut on en conclure?
Exercice 4.1.15 Soit
dSt = µ(St )dt + σ(St )dWt
où µ et σ 2 (le carré de σ) sont des fonctions affines : µ(x) = µ0 + µ1 x ; σ 2 (x) =
σ0 + σ1 x. On souhaite montrer que pour toute fonction affine ψ(x) = ψ0 + ψ1 x,
pour tout θ, il existe deux fonctions α et β telles que,
Ã
à Z
!
!
E
T
eθST exp −
= eα(t)+β(t)St .
ψ(Ss )ds |Ft
t
1. Montrer qu’il suffit d’établir l’existence de deux fonctions α et β telles que
le processus
µ Z
¶
t
eα(t)+β(t)St exp −
ψ(Ss )ds
0
est une martingale avec α(T ) = 0, β(T ) = θ.
2. Montrer que la détermination de α et β conduit à la résolution d’une
équation de Ricatti (type d’équation différentielle non linéaire) et d’une
équation différentielle linéaire. On ne demande pas la résolution de ces
équations.
3. Généraliser le résultat au cas où dSt = µ(St )dt + σ(St )dWt + dXt où
(Xt , t ≥ 0) est un processus de Poisson.
Exercice 4.1.16 Soit 0 < s < T et m ∈ IR. Vérifier que la solution de
dXt =
est
4.2
(s − T )Xt + mT
dt + dWt , X0 = 0
(s − T )t + T 2
m
Xt = t + [(s − T )t + T 2 ]
T
Z
0
t
dWu
(s − T )u + T 2
Finance
Exercice 4.2.1 Options Asiatiques. Soit St solution de
dSt = St (r dt + σ dBt )
les paramètres r et σ étant constants.
Enoncés. 2005-06
55
Ã
1
(
T
1. Soit K une constante. Montrer que le processus Mt = E
Z
!
T
+
Su du − K) |Ft
0
est une martingale.
2. Montrer que, si l’on pose ζt = St−1 (K −
Ã
Mt = St E
1
[
T
Z
T
t
1
T
Z
t
Su du), on a
0
Su
du − ζt ]+ |Ft
St
!
.
Ã
!
à Z
!
Z
1 T Su
1 T Su
+
+
3. Soit Φ(t, x) = E [
du − x] . Montrer que Φ(t, x) = E [
du − x] |Ft
T t St
T t St
et que Mt = St Φ(t, ζt ).
4. Ecrire la formule d’Itô pour M . En déduire une équation aux dérivées
partielles vérifiée par Φ.
Exercice 4.2.2 Black et Scholes, volatilité déterministe. Soit σ une fonction déterministe continue et r une constante et (St , t ≥ 0) la solution de
dSt = St (r dt + σ(t) dBt ) , S0 = x
1. Montrer que
µ
¶
Z t
Z
1 t 2
St = S0 exp rt +
σ(s) dBs −
σ (s) ds
2 0
0
Z
Z
1 t 2
2. Montrer que
σ(s) dBs −
σ (s) ds est une variable gaussienne dont
2 0
0
on calculera l’espérance et la variance.
t
3. On rappelle que dans le cas σ constant, le prix d’un call est donné par
C(0, x) = xN (d1 ) − Ke−rT N (d2 )
avec
d1 =
1
√
σ T
µ
ln(
x
σ2
) + T (r +
)
K
2
¶
√
, d2 = d1 − σ T
En déduire (sans faire de calculs) que, dans le cas de volatilité déterministe,
la formule de Black et Scholes s’écrit
E((ST − K)+ ) = xN (D1 ) − Ke−rT N (D2 )
Exprimer D1 et D2 .
56
Equa. Diff.
Exercice 4.2.3 La formule de Dupire. Soit
dSt = St (rdt + σ(t, St )dWt )
où σ est une fonction de IR+ × IR+ dans IR et f (t, x) la densité de St , soit
f (t, x) = P (St ∈ dx). ON admettra que
£
¤
1
∂t f − ∂xx x2 σ 2 (t, x)f (t, x) + ∂x [rxf ] = 0
2
On note C(K, T ) le prix en zéro d’un call Européen de strike K et de maturité
T . On note ∂1 C, ∂2 C, ∂11 C les dérivées partielles de C par rapport à la première
variable, seconde variable, dérivée seconde par rapport à la premiere variable.
1. Montrer que ∂11 C(K, T ) = e−rT f (T, K).
2. Montrer que
¤
1 ∂2 £ 2 2
∂2
∂
∂ 2 ∂C
x σ (t, x)f (t, x) = ert 2 (rx C) + ert 2
2
2 ∂x
∂x
∂x
∂x ∂t
3. En déduire
1 2 2
∂2C
∂C
∂C
x σ (t, x) 2 (t, x) = rx
(x, t) +
(t, x)
2
∂x
∂x
∂t
4.3
Equations différentielles
Exercice 4.3.1 Soit α une constante et
dXt = −α2 Xt2 (1 − Xt )dt + αXt (1 − Xt )dWt
(4.8)
la condition initiale étant X0 = x avec x ∈]0, 1[. On admet que X prend ses
Xt
valeurs dans l’intervalle ]0, 1[. On pose Yt =
.
1 − Xt
1. Quelle est l’équation différentielle stochastique vérifiée par Y ?
2. En déduire que Xt =
x exp(αWt − α2 t/2)
.
x exp(αWt − α2 t/2) + 1 − x
Exercice 4.3.2 Produit d’exponentielle. Soit W un MB et h un prodef
cessus adapté borné. On note E(hW )t = Lt l’unique solution de dLt =
Lt ht dWt , L0 = 1. Etablir une formule du type E(h1 W1 +h2 W2 )t = Xt E(h1 W1 )t E(h2 W2 )t
où X est à déterminer.
Exercice 4.3.3 Soit W un mouvement Brownien issu de a > 0 et T0 = inf{t :
Wt = 0}. Pour t < T0 , on définit Xt = µ (Wt )α . Montrer que, pour t < T0 ,
dXt = b(Xt ) dt + σ(Xt ) dWt
2005-06
57
où on explicitera b et σ. En déduire la forme de la solution de dYt = Ytn dWt +
1
nY 2n−1 dt, Y0 = y ≥ 0 avant le premier temps d’atteinte de 0. (On admettra
2 t
l’unicité de la solution).
Exercice 4.3.4 Ponts
1. Soit N une gaussienne réduite centrée indépendante de B. Vérifier
que la
Z t
N − Xt
1
dt est Xt = tN + (1 − t)
dBs .
solution de dXt = dBt +
1−t
0 1−s
En déduire que X est un processus gaussien, dont on calculera l’espérance
et la covariance.
2. Soit W un MB indépendant de B.Z Vérifier que la solution
Z t de dXt =
t
Wt − Xt
Ws
1
dBt +
dt est Xt = (1 − t)
ds + (1 − t)
dBs .
2
1−t
0 (1 − s)
0 1−s
En déduire que X est un processus gaussien, dont on calculera l’espérance
et la covariance.
58
Exemples. Enoncés
Chapter 5
Exemples
Dans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtration
est notée (Ft ).
5.1
Processus de Bessel
Exercice 5.1.1 Soit B1 et B2 deux mouvements Browniens indépendants et
Zt = B12 (t) + B22 (t) .
1. Ecrire l’EDS vérifiée par Zt .
√
2. On pose Yt = Zt . Ecrire l’EDS vérifiée par Yt .
3. Ecrire l’EDS vérifiée par 1/Yt .
Exercice 5.1.2 Formule d’Itô On considère les processus de la forme
√
drt = µdt + 2 rt dBt
(5.1)
On admet que rt ≥ 0 presque partout (par rapport à t et à ω.)
1. Soit f (t, x) une fonction de Cb1,2 . Quelle condition doit vérifier la fonction
f pour que f (t, rt ) soit une martingale ?
2. Soit Zt = rt2 et ρt =
√
rt . Ecrire les EDS vérifiées par Zt et par ρt .
√
√
3. Soit drt1 = µ1 dt + 2 rt dBt1 et drt2 = µ2 dt + 2 rt dBt2 deux processus, avec
B 1 et B 2 deux browniens indépendants. On admettra que r1 et r2 sont
indépendants. On note R le processus défini par Rt = rt1 + rt2 . Montrer
que R s’écrit sous la forme (5.1).
59
60
Exemples. Enoncés
Exercice 5.1.3 Processus de Bessel de dimension 3. Soit R le processus
solution de
1
dRt =
dt + dWt , R0 = 1 .
Rt
1. Montrer que Zt =
1
est une martingale locale.
Rt
λ2 t sinh λRt
)
, t ≥ 0) est une martingale locale.
2
λRt
On admetra que c’est une martingale.
2. Montrer que (Ut = exp(−
3. En déduire la valeur de E(exp(−
m > 0.
λ2 Tm
) où Tm = inf{t : Rt = m}, avec
2
4. Soit f une fonction continue bornée et a un nombre réel. Quelles conditions doit vérifier la fonction v pour que
Z t
v(Rt ) exp[−at −
f (Rs )ds]
0
soit une martingale?
5. Supposons que v est explicitée. Comment calculerez vous
Z Tm
E(exp[−aTm −
f (Rs ) ds]) ?
0
Exercice 5.1.4 Processus de Bessel de dimension 2. Soit dRt = dWt +
1
dt.
2Rt
1. Montrer que Zt = ln Rt est une intégrale stochastique par rapport à W .
Z
ν 2 t ds
ν
)
2. Soit ν un nombre réel positif. Montrer que Lt = [Rt ] exp(−
2 0 Rs2
est une martingale locale.
Exercice 5.1.5 Processus de Bessel de dimension δ.
δ−1
dt.
2Rt
Soit dRt = dBt +
1. Pour quelles fonctions s le processus s(Rt ) est-il une martingale locale?
2. Quelle est la dynamique de Yt = Rt2 ?
µ
µ2
def
3. Montrer que Zt = exp(− (Yt − δt) −
2
2
Z
t
Yu du) est une martingale.
0
4. Soit dQ = ZdP . Quelle est la dynamique de Y sous Q?
Exercice 5.1.6 Minimum d’un Bessel
Quelle est la loi de inf s≤t Xs lorsque X est un processus de Bessel?
2005-06
5.2
61
Processus de Bessel carré
1
1
Exercice 5.2.1 Soit α, σ deux constantes et dX(t) = − αX(t) dt + σdW (t).
2
2
Soit Yt = Xt eαt/2 . Ecrire dYt .
1. En déduire la forme de la solution X(t).
2. On suppose que (W1 , W2 , . . . , Wn ) sont des Browniens indépendants et
1
1
on note Xi la solution de dXi (t) = − αXi (t) dt + σdWi (t). Soit r le
2
2
processus défini par r(t) = X12 (t) + . . . + Xn2 (t).
3. Montrer que le processus B défini par B(0) = 0 et dB(t) =
est un mouvement Brownien.
n
X
Xi (t)dWi (t)
√
rt
i=1
√
4. Montrer que drt = (a − brt ) dt + σ rt dBt
Exercice 5.2.2 Processus de Bessel carré. Soit x ≥ 0 et R un processus
tel que
p
dRt = µdt + 2 |Rt |dWt , R0 = x
(5.2)
On admettra que Rt existe et que Rt ≥ 0.
1. Soit Zt = (Wt )2 . Montrer que Z vérifie une équation de la forme (5.2).
Quelle est la valeur de µ correspondante?
2. Soit W 1 un mouvement Brownien indépendant de W et Zt1 = (Wt )2 +
(Wt1 )2 . Montrer que Z 1 vérifie une équation de la forme (5.2). Quelle est
la valeur de µ correspondante? Généralisation à la somme des carrés de n
Browniens indépendants.
3. Soit ρt =
√
Rt . Montrer que dρt = b(t, ρt , µ)dt + dWt . On explicitera b.
4. Soit W 1 un mouvement Brownien indépendant de W . On note R(µ) (x) le
processus défini en (5.2) et, pour y ≥ 0, le processus R(ν) (y) solution de
(ν)
dRt
= νdt + 2
(µ)
p
(ν)
Rt (ν)dWt1 , R0 = y
(ν)
(5.3)
On notera simplement Rt et Rt ces deux processus. On supposera que
(µ)
(ν)
les processus Rt et Rt ne s’annulent pas et on admettra qu’ils sont
indépendants.
(µ)
(a) Soit Xt = Rt
(ν)
+ Rt . Calculer dXt .
62
Exemples. Enoncés
(b) Montrer que le processus Z défini ci-dessous est un mouvement Brownien
q
q
(µ)
(ν)
Rt dWt + Rt dWt1
q
(µ)
(ν)
Rt + Rt
dZt =
(µ)
(c) En déduire que Xt = Rt
(ν)
+ Rt
vérifie
p
dXt = βdt + 2 Xt dZt
On explicitera β en fonction de µ et ν.
(µ)
(µ)
5. (a) On suppose que l’on connaı̂t E(Rt ) = m(µ) et Var(Rt ) = v(µ)
pour tout µ. Exprimer E(Xt ) et Var(Xt ) en fonction de m et v.
√
(b) On admet que, si W est un brownien issu de x (voir exo 2.1.11)
E(exp −λ(Wt )2 ) = √
1
λx
exp(−
)
1 + 2λt
1 + 2λt
(1)
(5.4)
(1)
(2)
Comment calculer E(exp −λ[ρt ]2 ), E(exp −λRt (x)) et E(exp −λRt (x)) ?.
(µ)
On utilisera la question (d) et l’indépendance de Rt
(ν)
et Rt .
6. Montrer que
³
´µ−1
(µ)
(1)
(1)
E(exp −λRt (x)) = E(exp −λRt (x)) E(exp −λRt (0))
(µ)
Calculer E(exp −λRt (x)).
(µ)
7. Comment démontrer l’indépendance de Rt
Comment démontrer (5.4) ?
(ν)
et Rt
?
Exercice 5.2.3 Processus de Bessel carré. Soit X un BESQ(δ) (x).
1
1. Montrer que ( Xct , t ≥ 0) est un BESQ(δ) (x/c).
c
2. Monter que, si F est un processus adapté
Zt = exp{
1
2
Z
t
Fs d(Xs − δs) −
0
1
2
Z
t
0
Fs2 Xs ds}
est une martingale locale.
3. Montrer que si F est déterministe, dérivable
Z t
Z
1 t 2
1
F (s)ds −
F Xs ds + Xs dF (s)}
Zt = exp{ F (t)Xt − F (0)X0 − δ
2
2 0 s
0
2005-06
63
4. Soit Φ solution de
Φ00 = b2 Φ , Φ(0) = 1, Φ0 (1) = 0
1
b2
Montrer que Zt = exp{ F (t)Xt − F (0)X0 − δ ln Φ(t) −
2
2
admettra que Z est une martingale.
Z
t
Xs ds}. On
0
5. En déduire que
1
Q(δ)
x (exp −
2
Z
1
Xs ds) = (cosh b)−δ/2 exp(−xb tanh b)
0
Exercice 5.2.4 En utilisant que
loi
sup |Wt | =
1≤t≤1
Z
(2)
où Rs = Bs +
1
2
s
0
du
(2)
Ru
1
2
Z
1
ds
(2)
Rs
0
montrer que E sup1≤t≤1 (|Wt |) =
p
π/2.
Exercice 5.2.5 Application du théorème de Lamperti The following absolute
continuity relation between two BES processes (with ν ≥ 0)
µ ¶ν
µ 2Z t
¶
Rt
ν
ds
Px(ν) =
exp −
Px(0)
x
2 0 Rs2
where P (ν) is the law of a BES with index ν. On utilisera
W (ν) |Ft = exp(νWt −
ν2
t)W |Ft
2
loi
et (Rt ; t ≥ 0) = x exp(BCt + νCt )
√
Exercice 5.2.6 Soit dXt = 2 Xt dWt + δ(t)dt où δ est une fonction (continue
bornée). On veut calculer
Ã
Ã
!
!
Z
1 T
A = Et,x exp −
Xu m(u)du f (XT )
2 t
1. On se place dans le cas f = 1, et on note ϕ la solution de
∂uu ϕ(u, T ) = m(u)ϕ(u, T ) ; ∂u ϕ(T, T ) = 0
Montrer que
Ã
Ã
Et,x
1
exp −
2
Z
T
!!
Xu m(u)du
t
µ
= exp
à Z
!
¶
∂u ϕ(t, T )
1 T ∂u ϕ(s, T )
x exp
δ(u)du
2ϕ(t, T )
2 t
ϕ(s, T )
2. Montrer que le calcul de A se ramène au calcul de la solution d’une EDP.
64
Exemples. Enoncés
5.3
Autres processus.
Exercice 5.3.1 Processus d’Ingersoll. Soit a < z < b et Z le processus
solution de
dZt = (Zt − a)(b − Zt )σdWt , Z0 = z
On admet que pour tout t, le processus Z vérifie a < Zt < b.
1. Calculer d(Zt−1 ).
def
2. soit ζt =
Zt − a
. Calculer dζt puis d(ln ζt ).
b − Zt
3. Soit Xt = (b − Zt )g(t, ζt ). Donner une condition sur g pour que X soit
une martingale. Sauriez vous résoudre l’équation obtenue ?
4. Soit Y solution de
dYt = (Yt − a)(b − Yt )2 dt + (Yr − a)(b − Yt )σdWt
Montrer qu’il existe une probabilité Q que l’on déterminera telle que, sous
Q Y ait même loi que Z sous P .
Exercice 5.3.2 Un processus stationnaire. Soit X vérifiant dXt = −aXt dt+
σdWt , X0 v.a. donnée.
1. Explicitez Xt .
2. Montrer que si X0 est une v.a. gaussienne indépendante de W , le processus
X est un processus gaussien.
3. On suppose que X0 est gaussienne, indépendante de W . Déterminer la loi
de X0 pour que la loi de la v.a. Xt ne dépende pas de t.
Exercice 5.3.3 Soit X solution de (on admet que X existe)
dXt = Xt (1 − Xt ) ((µ − Xt )dt + dWt ) , X0 = x
Soit h0 (x) =
¡ 1−x ¢2θ−1
x
x
et h1 (x) = 2 ln(1−x)−ln
et τ = inf{t ≥ 0, St 6∈ [a, b]}.
(2µ−1)
1. Montrer que h0 (Xt ) et h1 (Xt ) − t sont des martingales.
2. Montrer que P (Xτ = a) =
5.4
h0 (x)−h0 (b)
h0 (a)−h0 (b)
et calculer E(τ ).
Des calculs
Exercice 5.4.1 Un calcul de probabilité. On suppose connue
Φ(a, T ) = P (Wt ≤ at , ∀t ≤ T )
2005-06
65
Soit W1 et W2 deux MB indépendants et
dXt
dYt
=
=
Xt (rdt + σ1 dW1 (t)), X0 = 1
Yt (rdt + σ2 dW2 (t)), Y0 = 1
Calculer, en fonction de Φ la quantité P (Xt ≤ Yt , ∀t ≤ T ).
Exercice 5.4.2 Un calcul de loi Let dXt = µ(t)dt + σ(t)dWt , X0 = 0 where
µ and σ are piece wise constant over known time.
Let us restrict our attention to the case
µ(t) = µ ∀t ∈ [0, 1[,
σ(t) = σ ∀t ∈ [0, 1[,
µ(t) = µ1 ∀t ∈ [1, ∞[,
σ(t) = σ1 ∀t ∈ [1, 2[/, .
Describe the distribution of Yt = max0≤s≤t Xs .
Exercice 5.4.3 Montrer que la solution de
·
¸
dSt
dCt = Ct rt dt + m(
− rt dt)
St
avec dSt = St (µt dt + σt dWt ) s’écrit sous la forme
µ
Ct = C0
St
exp[a
S0
Z
Z
t
t
rs ds + b
0
0
¶m
σs2 ds]
où on explicitera a et b.
Exercice 5.4.4 Changement de temps Soit dXt = −λXt dt + σdWt et τ =
inf{t : |Xt | > g(t)} où g est une fonction déterministe. Exprimer P (τ > t) en
fonction de Ψ(u) = P (τ ∗ > u) avec τ ∗ = inf{t : |Wt | > h(t)}.
66
Girsanov. Enoncés
Chapter 6
Girsanov
Dans tous ces exercices, B (ou W ) désigne un P -mouvement Brownien issu de
0, Ft sa filtration canonique.
6.1
Résultats élémentaires.
Exercice 6.1.1 Changement de probabilité Soit (θt , t ≥ 0) un processus
Z t
Z
1 t 2
adapté continu borné et Lt = exp[
θs dBs −
θ ds]. Soit Q la probabilité
2 0 s
0
définie sur FT par dQ = LT dP . Soit (φt , t ≥ 0) un processus adapté continu
Z t
Z t
borné et Mt =
φs dBs −
θs φs ds. Montrer que Mt est une Q-martingale.
0
0
On pose Zt = Mt Lt . Calculer dZt . Montrer que Zt est une P -martingale locale.
Pouvait-on prévoir ce résultat.
Exercice 6.1.2 Un calcul d’espérance. Soit θ un processus adapté borné
et H le processus défini par dHt = −Ht θt dWt , H0 = 1. On note dQ|Ft =
Z
1 T 2
Ht dP |Ft . Montrer que EP (HT ln HT ) = EQ (
θ ds). On pourra faire une
2 0 s
démonstration à la main (quand θ est déterministe) ou utiliser le théorème de
Girsanov.
Exercice 6.1.3 Calcul d’espérance. Soit p une fonction déterministe
donnée.
Z
t
Pour quelles fonctions h et k le processus exp(h(t) + k(t)Wt2 +
est-il une martingale. Applications :
Z T
1. Calculer E[exp(λWT2 +
p(s)Ws2 ds]
0
Z
2. Calculer E[exp(λWT2 +
0
T
p(s)Ws2 ds)Ψ(A + BWT )]
67
0
p(s)Ws2 ds)
68
Girsanov. Enoncés
Exercice 6.1.4 Itô+ Girsanov. Soit Γ le processus solution de dΓt = Γt (βt dt+
γt dWt ), Γ0 = 1 où β et γ sont des processus F adaptés bornés.
µ Z t
¶
βs ds est une martingale locale.
1. Montrer que Γt exp −
0
2. Trouver une probabilité Q telle que Γt soit une Q-martingale locale.
3. Calculer dΓ−1 . Trouver une probabilité R telle que Γ−1
soit une Rt
martingale locale.
Exercice 6.1.5 Longstaff ’s Model. Soit rt = Yt2 avec dYt = dWt − (λYt +
α
2 )dt.
1. Donner la dynamique de r.
2. Soit f et g deux fonctions déterministes (que l’on supposera continues
bornées). Exprimer
Z
t
E(exp
0
1
[f (s)Ws + g(s)]dWs −
2
1
en fonction de exp
2
Z
t
Z
t
0
[f 2 (s)Ws2 + 2Ws f (s)g(s)]ds)
g 2 (s)ds.
0
Z
3. Montrer que le calcul de E(exp −
t
rs ds) se déduit du calcul de l’expression
0
précédente avec des fonctions f et g vérifiant des conditions que l’on
précisera.
Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densité
P (Bt + νt ∈ dy|Bs + νs = x)
ne dépend pas de ν.
Exercice 6.1.7 Loi du sup. On supposera que l’on connait la loi du couple
(Bt∗ , Bt ) où pour un processus X on note
Xt∗ = sup Xs .
s≤t
Montrer comment calculer la loi de (L∗t , Lt ) pour Lt = exp(αBt −
Exercice 6.1.8 Loi de quantiles
α2
t).
2
2005-06
69
1. Soit F et G deux fonctionnelles définies sur C([0, 1], IR). Montrer que l’on
a équivalence entre
loi
(i) ∀t, ∀µ ∈ IR, F (Xs , s ≤ t) = G(Xs , s ≤ t) le processus X étant un
Brownien de drift µ
loi
(ii) ∀t, F (Xs , s ≤ t) = G(Xs , s ≤ t) le processus X étant un Brownien.
Z
2. Soit At =
que
0
t
ds11Xs ≥0 et θt = sup{s ≤ t : supu≤s Xu = Xs }. Montrer
loi
At = θt , lorsque le processus Xest un mouvement Brownien de drift µ
équivaut à
loi
A1 = θ1 , lorsque le processus Xest un mouvement Brownien
3. Soit X un mouvement Brownien. Montrer que si E(f (X1 , A1 )11X1 >0 ) =
loi
E(f (X1 , θ1 )11X1 >0 ), alors X1 , A1 = (X1 , θ1 ).
La preuve de la première assertion peut être trouvée dans Embrechts et al.
6.2
Crochet.
1
Exercice 6.2.1 Girsanov Soit M une P -martingale et dQ = exp(Mt − hM it ) dP .
2
Montrer que si N est une P martingale, N − < N, M > est une Q martingale.
Exercice 6.2.2 h-processus. Soit X tel que dXt = µdt + σdWt , X0 = x et h
une fonction de classe C 1 telle que h(Xt ) est une martingale positive. On note
h(Xt )
Q la probabilité définie par dQ|Ft =
dP |Ft . Soit M une P -martingale.
h(x)
Z t 0
h (Xs )
Montrer que Mt −
dhM, Xis est une Q-martingale.
0 h(Xs )
6.3
Processus.
Exercice 6.3.1 Processus de Bessel. Soit P la probabilité historique, θ et
µ deux processus.Z On note P θ la probabilité telle que le processus W θ défini
def
t
par Wtθ = Wt −
θ(s)ds soit un mouvement Brownien et P µ la probabilité
0
Z t
µ def
telle que W = Wt −
µ(s)ds soit un mouvement Brownien.
0
1. Quelles sont les densités Lθ =
dP θ
dP µ
et Lµ =
?
dP
dP
70
Girsanov. Enoncés
Lθ
2. Soit L = µ . Expliciter L en fonction de W puis en fonction de W µ . A
L
quel changement de probabilité type Girsanov correspond L?
3. Soit R le processus solution de
dRt =
(a) Montrer que
Z
t
δ−1
dt + dWt , R0 = 1
Rt
dRs
1
= ln Rt +
Rs
2
Z
t
1
ds
2
0
0 Rs
Z t
Z
1 t 2
(b) Soit θ un processus adapté borné et Lt = exp(
θ(s)dW (s)−
θ (s)ds).
2 0
0
On notera Q la probabiité définie par dQ = Lt dP .
Comment choisir θ pour que, sous Q
dRt =
1
dt + dW̃t
Rt
où W̃ est un Q-Brownien.
(c) Exprimer dans ce cas Lt en n’utilisant que le processus R
(d) En déduire que
µ
Z
δ
E(f (Rt )) = E (ρt ) exp[α
t
0
¶
ds
] f (ρt )
ρ2s
où α est une constante dépendant de n et
dρt =
1
dt + dW̃t , ρ0 = 1 .
ρt
Exercice 6.3.2 Fonctionnelles exponentielles
Rt
Rt
1. Calculer E( 0 exp(Bs )ds) et E(exp(αBt ) 0 exp(γBs )ds).
Z
2. Soit A(t, ν) =
t
exp(Bs + νs)ds.
0
(a) Montrer en utilisant le théorème de Girsanov que le calcul de E(A(t, ν))
se ramène au cas ν = 0.
(b) Peut-on faire un calcul direct?
Exercice 6.3.3 Soit X le processus solution de
dXt = −λXt dt + dBt , X0 = x.
2005-06
71
1. On définit
µ Z t
¶
Z
λ2 t 2
Lt = exp λ
Xs dBs −
X ds
2 0 s
0
. Vérifier que L est une martingale locale. On admet pour la suite que
c’est une martingale.
2. On note P λ la mesure de probabilité définie sur Ft par dP λ = Lt dP .
Quelle est la dynamique de X sous Pλ ?
3. Montrer que
Z
t
Lt = exp(
λXs dXs +
0
4. Calculer
1
2
Z
t
λ2 Xs2 ds)
0
¶
µ
Z
b2 t 2
X ds) .
EP exp(−
2 0 s
5.
Z t
Z t
6. Montrer que le calcul de E(exp
Xs2 ds) se déduit de celui de E(exp(a
Bs dBs −
0
0
Z t
b
Bs2 ds)). On ne cherchera pas à effectuer ce dernier calcul.
0
Exercice 6.3.4 Processus d’Ornstein-Uhlenbeck.
1. Soit U une variable gaussienne d’espérance m et de variance σ 2 . Calculer
E(exp{λU 2 + µU }) pour 1 − 2λσ 2 ≥ 0.
2. On définit sur FT la mesure P b par
Z
T
dP b = exp{−b
Bs dBs −
0
b2
2
Z
0
T
Bs2 ds}dP
(a) Justifier que, sous P b le processus (Wt = Bt + b
un brownien.
Rt
0
Bs ds , t ≤ T ) est
(b) En déduire que sous P b , le processus (Bt , t ≥ 0) est un processus
d’Ornstein-Uhlenbeck, et que Bt est une variable gaussienne dont on
précisera, en s’appuyant sur le cours, l’espérance et la variance.
(c) Montrer que, sous P , on a
Z
t
Bs dBs =
0
1 2
(B − t).
2 t
La même égalité est-elle vraie sous P b ?
72
Girsanov. Enoncés
(d) Montrer que, pour tout t ≤ T ,
EP (exp{−αBt2 −
Z
b2
2
t
0
b
Bs2 ds}) = Eb (exp{−αBt2 + (Bt2 − t)})
2
où Eb désigne l’espérance sous P b .
Montrer que si B̃ est un brownien issu de a, on a
EP (exp{−αB̃t2 −
b2
2
Z
t
0
b
B̃s2 ds}) = Eb (exp{−αB̃t2 + (B̃t2 − a2 − t)})
2
(e) En déduire (il y a des calculs) que, pour tout t,
EP (exp{−αBt2 −
b2
2
Z
0
t
Bs2 ds}) = (cosh bt + 2
1
α
sinh bt)− 2
b
3. Montrer que si B̃t est un Brownien issu de a
EP (exp{−αB̃t2 −
b2
2
Z
t
0
B̃s2 ds}) = (cosh bt+2
1
α
xb 1 + 2α
b coth bt
]
sinh bt)− 2 exp[−
b
2 coth bt + 2α
b
avec x = a2 .
Exercice 6.3.5 Soit S solution de
dSt = St (µ dt + σ dBt ) , S0 = s ,
les coefficients µ et σ étant constants.
1. Montrer que St = S0 exp(µt + σBt −
σ2
t).
2
µ−r
2. On pose θ = −
. Soit Q définie sur Ft par dQ = Lt dP avec Lt =
σ
1
exp(θBt − θ2 t). Montrer que (Wt = Bt + θt, t ≥ 0) est un Q-mouvement
2
brownien.
σ2
3. Soit P̃ définie sur Ft par dP̃ = Zt dQ avec Zt = exp(σWt −
t).
2
Montrer que
dSt = St ((r + σ 2 ) dt + σ dB̃t )
où B̃ est un P̃ -mouvement brownien.
µ
¶
St
rt
4. Soit Pt = P0 e . Montrer que
, t ≥ 0 est une Q-martingale.
Pt
Pt
Montrer que
est une P̃ -martingale.
St
2005-06
73
µZ
5. Soit Ft = e−λt
¶
t
Su du + sA
où A, λ sont des constantes
0
Ft eλt
. Ecrire l’équation différentielle stochastique vérifiée par
St
Ψt en utilisant le Brownien B̃.
Soit Ψt =
Exercice 6.3.6 Soit α, β et σ des fonctions (déterministes) bornées et b(t) =
Z t
β(s) ds. On note r le processus solution de
0
drt = (α(t) − β(t)rt ) dt + σ(t)dWt
On suppose que σ ne s’annule pas.
1. Vérifier que
µ
¶
Z t
Z t
rt = exp(−b(t)) r0 +
exp(b(u)) α(u) du +
exp(b(u)) σ(u) dWu .
0
0
2. Calculer E(rt ) et Cov(rt , rs ).
3. Soit Q1 la probabilité définie sur Ft par dQ1 = Lt dP , avec
Z
t
Lt = exp(
θ(s)dWs −
0
1
2
Z
t
(θ(s))2 ds)
0
α(s)
. On suppose θ bornée. On note Wt1 = Wt −
σ(s)
Montrer que (exp(b(t)) rt , t ≥ 0) est une Q1 martingale.
Z
t
où θ(s) = −
θ(s) ds.
0
4. Soit Q2 la probabilité définie sur Ft par dQ2 = Zt dP , avec
dZt = Zt
β(t)
rt dWt1 , Z0 = 1
σ(t)
Montrer que r est une Q2 -martingale.
Exercice 6.3.7 Drift non observable Soit BtY = Y t + Bt où Y est une
variable aléatoire de loi ν, indépendante de B. Soit F une fonctionnelle sur
C([0, t], IR). Montrer que
E[F (BsY , s ≤ t)] = E[F (Bs ; s ≤ t)h(Bt , y)]
Z
avec h(x, t) =
y2
t) En déduire que, sur l’espace canonique
2
Z t
h0
Xt −
ds x (Xs , s)
h
0
ν(dy) exp(yx −
74
Girsanov. Enoncés
est une martingale sous P h avec P h |Ft = h(Xt , t)W |Ft . Montrer que BtY =
Z tZ t
h0
h
e
eth est un Brownien.
Bt +
ds x (BsY , s) où B
h
0
0
2
1
Soit Q définie par dQ = e−Y Bt − 2 Y t dP . Montrer que sous Q, BtY est indépendant
de Y .
Exercice 6.3.8 Soit B un MB et F sa filtration naturelle. On note h une
fonction.
1. Donner des conditions sur h pour que dQ = h(BT )dP définisse, sur FT
une probabililité équivalente à P .
2. Calculer Lt telle que dQ|Ft = Lt dP |Ft
3. Montrer que ∀X ∈ FT , on a EQ (X|BT ) = EP (X|BT )
4. Expliciter Q(BT ∈ dx).
5. Soit A ∈ FT , indépendante de BT . Montrer que Q(A) = P (A). Donner
des exemples de tels A.
6. Calculer Q(f (BT )|Ft ).
7. Montrer que
Z
Z
t
Lt = 1 +
dBs
0
∞
2
h0 (y)e−(y−Bs ) /(2(T −s))
p
dy
2π(T − s)
−∞
8. Montrer que le processus W défini par
Z ∞
2
dyh0 (y)e−(y−Bt ) /(2(T −t))
dt
dWt = dBt − Z−∞
∞
2
dyh(y)e−(y−Bt ) /(2(T −t))
−∞
est un Q mouvement Brownien.
9. (cette question ne dépend pas des précédentes) Soit Gt = Ft ∨σ(BT ). MonZ t
BT − Bs
trer que le processus Mt = Bt −
ds est un P -Gt mouvement
T −s
0
Brownien. Montrer que Mt est indépendante de BT .
10. Montrer que M est un Q-Gt mouvement Brownien.
à Z
¶2
Z µ
Z t
t
x − Xs
1 t x − Xs
x − Xs
ds et Mt = exp −
dWs −
ds
Exercice 6.3.9 Soit Xt = Wt +
1−s
1−s
2 0
1−s
0
0
Montrer que
µ 2
¶
x
(x − Xt )2
1
Mt = exp − +
+ ln(1 − t)
2
2(1 − t)
2
Verifier cette formule
2005-06
75
Exercice 6.3.10 Soit dQ|Ft = h(t, Xt )dP |Ft . Sous quelles conditions sur h Q
est-elle une probabilité sur FT ? Montrer que
Z
t
Bt −
∂x h(s, Bs )ds
0
est une Q-martingale?
³
¡
¢
Exercice 6.3.11 Soit Lt = exp − 14 e−2Wt − 1 +
1. Question préliminaire: Calculer l’intégrale
Rt
0
1
2
Rt¡
0
¢ ´
e−2Ws − 41 e−4Ws ds
e−2Ws dWs .
2. Montrer que L est une martingale. Quelle est son espérance?
3. On pose dQ = Lt dP . Quelle est la dynamique de W sous Q?
6.4
Cas multidimensionel
Exercice 6.4.1 Cas multidimensionel. Soient (B1 (t), t ≥ 0) et (B2 (t), t ≥
0) deux mouvements Browniens indépendants. Soit (Li (t), i = 1, 2 , t ≥ 0) les
processus définis par
dLi (t) = θi (t)Li (t)dBi (t) , Li (0) = 1
où (θi (t), i = 1, 2) sont des processus adaptés continus bornés.
1. Vérifier que
Z
Li (t) = exp(
0
t
1
θi (s)dBi (s) −
2
Z
0
t
θi2 (s) ds) .
2. Soit T ≥ 0 et Q1 la probabilité définie sur FT par dQ1 = L1 (T )dP .
Z t
Soit (φt , t ≥ 0) un processus adapté continu et Mt =
φs dB1 (s) −
0
Z t
θ1 (s)φs ds.
0
(a) Montrer que (Mt , 0 ≤ t ≤ T ) est une Q1 -martingale locale.
(b) On pose Z1 (t) = Mt L1 (t). Calculer dZ1 (t). Montrer que Z1 est une
P -martingale. Pouvait-on prévoir ce résultat ?
3. Soit Zt = L1 (t)L2 (t). Ecrire dZt . Montrer que Z est une P -martingale.
4. Soit Q la probabilité définie sur FT par dQ = ZT dP . Comment se transforment les browniens Bi ?
76
Girsanov. Enoncés
5. Soit (Si , i = 1, 2) deux processus solutions de
dSi (t) = Si (t)[bi (t)dt + σi (t)dB1 (t) + φi (t)dB2 (t)]
Montrer qu’il existe une probabilité Q équivalente à P telle que, sous Q
dSi (t) = Si (t)[rdt + σi (t)dW1 (t) + φi (t)dW2 (t)]
où (Wi , i = 1, 2) sont des Q-Browniens indépendants.
6.5
Temps d’arrêt.
Exercice 6.5.1 Temps d’arrêt. Soit τ un (Ft )-temps d’arrêt. Soit Q telle
que dQ|FT = LT dP |FT et X ∈ FT . Comparer EP (LT 11τ >T X) et EQ (X11τ >T ).
Exercice 6.5.2 Let W be a Brownian motion and T = inf{t : eBt −t/2 > a},
where a > 1. Prove that, ∀λ ≥ 1/2,
E(11T <∞ exp(λBT −
λ2
T )) = 1
2
Exercice 6.5.3 Temps d’atteinte. Soit X un processus tel que
dXt = µdt + νdWt , X0 = 0
où µ et ν sont des constantes telles que ν > 0. Soit r une constante.
1. Montrer qu’il existe θ tel que
def
Mt = exp(−rt + θXt )
soit une martingale.
2. Soit b un nombre positif et τ le temps d’arrêt défini par
τ = inf{t ≥ 0 | Xt = b}
Calculer E(exp(−rτ + θXτ )). On admettra que la martingale Mt est
uniformément intégrable et que le temps d’arrêt τ est fini. En déduire
E(exp(−rτ )).
3. On suppose que les conditions de la première question sont satisfaites.
Soit Q telle que dQ = Mt dP , sur Ft . Comment se transforme W ?
4. Soit S le processus défini par
dSt = St [rdt + σdWt ], S0 = s
et Yt = ln
St
. Ecrire dYt .
s
2005-06
77
5. Soit B une constante telle que s < B. Soit TB le temps d’arrêt
TB = inf{t ≥ 0 | St = B}
Calculer
E(exp(−rTB )) .
Exercice 6.5.4 Soit f Zet g deux fonctions déterministes, f de classe C‘1, g
t
continue. On note Ft =
f (u)dWu et u est la solution de
0
u00 (t) − 2
f 0 (t) 0
u (t) − 2λg(t)f 2 (t)u(t) = 0
f (t)
avec u0 (T ) = −2aλu(T )f 2 (T ). Le but de cet exercice est de montrer que
#!! µ
Ã
Ã
"
¶2
Z T
u(T )
2
2
E exp −λ aFT +
g(t)Ft dt
=
u(0)
0
1. Montrer que, pour toute fonction h continue, le processus L défini par
¶
µZ t
Z
1 t 2
Lt = exp
h(s)Fs dWs −
h (s)Fs2 ds
2 0
0
est une martingale.
2. En déduire que
Ã
ÃZ
1 =
=
!!
Z t
h(s)
1
E exp
dFs2 −
(h(s)f (s) + h2 (s)Fs2 )ds
2 0
0 2f (s)
Ã
Ã
!!
µ 0
¶
Z T
Z t
1 h(T ) 2
h (t)f (t) − f 0 (t)h(t)
2
2
2
E exp
F −
Ft
dt −
(h(s)f (s) + h (s)Fs )ds
2 f (T ) T
f 2 (t)
0
0
T
3. Montrer que
Ã
" µ
¶
µ 00
¶ #! µ
¶1/2
Z T
1
u0 (T )
u (t) − 2u0 (t)f 0 (t)/f (t)
u(T )
2
2
E exp
F
−
F
dt
=
T
t
2 u(T )f 2 (T )
u(t)f 2 (t)
u(0)
0
4. Résoudre le même problème par changement de temps.
5. Soit Ψ une fonction borélienne bonée de IR dans IR. Comment calculer
!!
Ã
Ã
"
#
Z T
Z T
2
2
K = E exp −λ aFT +
φ(t)Ft dt)
g(t)Ft dt Ψ(A + BFT +
0
0
Exercice 6.5.5 Decomposition canonique Soit W un mouvement Brownien et h une fonction positive, vérifiant h(0, 0) = 1 et harmonique en espace (c’est-à-dire telle que h(t, Wt ) est une martingale). On définit Q par
Z t 0
hx
(s, Ws )ds est un Q-mouvement
dQ|Ft = h(t, Wt )dPFt . Montrer que Wt −
0 h
Brownien.
78
Girsanov. Enoncés
6.6
Finance
Exercice 6.6.1 Moyenne. Soit dSt = St (rdt + σdBt ), S0 = 1, r et σ
étant des constantes. On souhaite calculer C = E[(ZT − ST )+ ] quand ZT =
µ Z T
¶
1
exp
ln St dt .
T 0
1. Soit Q la probabilité définie sur FT par dQ = exp(σBT − σ 2 T /2)dP .
Montrer que
e−rT EP [(ZT − ST )+ ] = EQ [(
ZT
− 1)+ ] .
ST
Z
T
β(t)dB̃t ).
2. Soit B̃t = Bt − σt. Ecrire ZT /ST sous la forme exp(αT −
0
3. Montrer que le calcul de C se réduit au calcul de E((S̃T − K)+ ) pour un
Brownien géométrique S̃ dont on précisera la loi.
Exercice 6.6.2 Volatilité stochastique On rappelle le théorème de représentation
prévisible à deux dimensions Soit W = (W 1 , W 2 ) un Brownien à valeurs dans
IR2 et (Ft ) sa filtration canonique. Toute (Ft )-martingale de carré intégrable
Z t
Z t
1
s’écrit Mt = m +
φ1 (s)dW (s) +
φ2 (s)dW 2 (s) où (φi , i = 1, 2) sont des
0
0
processus adaptés. Soient µ et η deux fonctions déterministes de IR+ dans IR et
σ, γ deux fonctions déterministes de IR dans IR. On considère alors un marché
financier où l’actif risqué vérifie
dSt = St (µ(t)dt + σ(Yt )dWt1 ), S0 = s
où Y est un processus solution de
dYt = η(t)dt + γ(Yt )dWt2 , Y0 = 1
1. Quelles doivent être les propriétés du processus (Lt , t ≥ 0) pour que la
formule dQ|Ft = Lt dP définisse une probabilité Q ?
2. Déterminer l’ensemble des probabilités équivalentes à P telles que, sous
Q, S soit une martingale.
3. Soit B un actif contingent B ∈ FT . Comment lui donner un prix (le taux
sans risque est nul) ?
Exercice 6.6.3 Options boost. Soit M une Ft -martingale à valeurs strictement positives.
1. Justifier qu’il existe ψ tel que dMt = ψt dWt .
2. Montrer qu’il existe Ψ tel que dMt = Ψt Mt dWt .
2005-06
79
3. Soit γ un nombre réel. Calculer d[(Mt )γ ].
4. Soit S un Brownien géométrique tel que S0 = s et
dSt = St (r dt + σdWt )
(6.1)
où r et σ sont des constantes. Montrer qu’il existe γ tel que St = s(Mt )γ
où M est une martingale de la forme précédente. Expliciter Ψ en fonction
de r et σ. A quel choix de r et σ correspond la valeur γ = 1?
5. Soit K un nombre réel positif et M une martingale telle que dMt =
Mt σdWt où σ est une constante et M0 = 1. Montrer que
E((Mt − K)+ ) = E((1 − KMt )+ )
On pourra utiliser le théorème de Girsanov et faire apparaitre une nouvelle
probabilité Q et déterminer la loi de 1/M sous Q.
6. Soit S un processus vérifiant (6.1), St∗ = sups≤t Ss et Wt∗ = sups≤t Ws . La
loi de Wt∗ est connue (c’est celle de |Wt |, ce résultat sera admis), on notera
Φ(a) = P (Wt∗ ≤ a). Calculer, en utilisant les résultats de la question 3,
E(11ST∗ ≤a ) qui correspond à la valeur d’une option boost (au coefficient
exp(−rT ) près).
Exercice 6.6.4 Volatilité stochastique. Soit W 1 et W 2 deux Browniens
indépendants, et Ft = σ(Ws1 , Ws2 , s ≤ t) la filtration engendrée par les deux
Browniens. Soit µ et η deux fonctions déterministes bornées de IR+ dans IR et
σ, γ deux fonctions déterministes bornées définies de IR dans IR. On note S la
solution de
dSt = St (µ(t)dt + σ(Yt )dWt1 ), S0 = s
où Y est un processus solution de
dYt = η(t)dt + γ(Yt )dWt2 , Y0 = 1
1. Soit θ un processus borné et Z la solution de
dZt = Zt θt dWt1 , Z0 = 1
Ecrire explicitement Zt sous la forme d’une exponentielle.
2. Soit λ et ν deux processus adaptés bornés et L le processus défini par
·Z t
¸
Z
Z t
Z
1 t
1 t
1
2
2
2
Lt = exp
λs dWs −
(λs ) ds +
νs dWs −
(νs ) ds (6.2)
2 0
2 0
0
0
Ecrire l’EDS vérifiée par L.
Z t
1
3. On pose W̃t = Wt −
λs ds et on note Z̃ la solution de dZ̃t = Z̃t θdW̃t1 , Z̃0 =
0
1 où θ est une constante. Montrer que LZ̃ est une martingale.
80
Girsanov. Enoncés
4. Soit Q définie sur Ft par dQ = Lt dP . Montrer que Z̃ est une Q martingale.
En déduire que W̃ 1 est un Q brownien.
Z t
5. Montrer que W̃t2 = Wt2 −
νs ds est un Q brownien.
0
6. On admet que si Q est une mesure équivalente à P il existe λ, ν tels que la
densité de Q par rapport à P soit de la forme (6.2). Décrire l’ensemble des
couples λ, ν correspondants à des probabilités Q telles que (St e−rt , t ≥ 0)
soit une Q-martingale.
7. Le marché financier est-il complet ?
8. Soit X un actif contingent duplicable, c’est-à-dire tel qu’il existe V processus adapté de la forme
dVt = rVt dt + φt (dSt − rSt dt)
vérifiant VT = X, avec φ processus adapté borné. (On ne demande pas
de justifier cette définition)
(a) Montrer que (Vt e−rt , t ≥ 0) est une Q martingale pour tout Q ∈ Q.
(b) On suppose que Vt = v(t, St , Yt ). Montrer que v vérifie une équation
aux dérivées partielles que l’on explicitera.
Exercice 6.6.5 Symétrie put-call. Soit M une (Ft )-martingale telle que
dMt = Mt σdWt où σ est une constante et M0 = 1.
1. Vérifier que M est à valeurs strictement positives.
2. Calculer dYt quand Yt = (Mt )−1 .
3. Soit Q telle que dQ = Mt dP sur Ft . Déterminer la loi de Y sous Q.
4. Montrer que EP ((MT − K)+ ) = KEP ((K −1 − MT )+ ).
Exercice 6.6.6 Symétries
On suppose que le prix d’un actif, sous la probabilité risque neutre Q est donné
par (3.3) où q est le taux de dividendes. On note C(x, K, r, q) (ou C(x, K, r, q, σ)
si besoin est) le prix d’une option d’achat européenne de prix d’exercice K, soit
C(x, K, r, q) = E(e−rT (ST − K)+ )
On rappelle que, dans le cas r = 0 = q, en notant C ∗ (x, K) = C(x, K, 0, 0) le
prix d’un call de strike K sur un sous jacent de valeur initiale x et P ∗ le prix
d’un put, on a
· µ ¶¸
· µ ¶¸
h ³ x ´i
h ³ x ´i
K
K
−KN d0
, P ∗ (x, K) = −xN d0
+KN d1
,
C ∗ (x, K) = xN d1
K
K
x
x
(6.3)
2005-06
81
avec
√
1 √
ln(α) + σ T , d0 (α) = d1 (α) − σ T
2
σ T
x
et que le delta du call est DeltaC∗ (x, K) = N (d1 ( )).
K
d1 (α) =
1
√
1. Montrer, en utilisant les résultats de l’exercice 3.3 que C(x, K, r, q) =
C ∗ (xe−qT , Ke−rT ).
2. Montrer, au vu des formules précédentes que
· µ −qT ¶¸
xe
−qT
DeltaC(x, K, r, q) = e
N d1
Ke−rT
·
−qT
DeltaP(x, K, r, q) = −e
où DeltaC est le Delta du call.
3. Montrer, au vu des formules (6.3) et de la question (a) que
C(x, K, r, q) = C ∗ (Ke−µT , x) = P ∗ (xe−µT , K) = P (K, x, q, r)
(6.4)
où µ = r − q et P le prix d’un put. Commenter.
4. On souhaite montrer avec des arguments probabilistes que C ∗ (K, x) =
P ∗ (x, K). (cas µ = 0).
(a) On commencera par calculer la dynamique de 1/S, dans le cas dSt =
St σdWt .
e
e est l’espérance
(b) On transformera E((ST −K)+ ) en E((x−
S̃T )+ ) où E
sous une probabilité que l’on précisera.
5. Le payoff d’une option power sur le sous-jacent Y est YTα (YT − K)+ . Montrez que son prix C pow (y, K, ν, α) peut s’obtenir facilement à partir de call
européens portant sur les sous jacents Y α et Y α+1 .
Exercice 6.6.7 Options power. Soit
dSt = St ((r − δ)dt + σdBt ), S0 = x .
Cette dynamique modélise, sous la probabilité risque-neutre P , le prix d’un actif
versant des dividendes au taux δ le taux spot étant r.
1. On souhaite évaluer un actif contingent sur S, actif versant des dividendes.
Il s’agit donc de calculer
EP (h(ST )e−r(T −t) |Ft ) .
Quelle est la valeur de cet actif dans le cas h(x) = (xα −K)+ ? (On utilisera
sans modération les formules classiques sur l’évaluation de produits étudiés
dans le poly ou dans tout ouvrage de référence.)
N d0
µ
Ke−rT
xe−qT
¶¸
82
Girsanov. Enoncés
2. On suppose r = δ. On pose dQ|Ft = (St /x)dP |Ft . Justifier rapidement
que l’on définit un changement de probabilité. On pose Zt = x2 /St . Quelle
est la dynamique de (Zt , t ≥ 0) sous Q? Montrer que pour toute fonction
f borélienne bornée
1
x2
EP (ST f ( )) = EP (f (ST ))
x
ST
3. On repasse au cas général. Montrer que S a est une martingale pour
une valeur de a que l’on précisera. Montrer que, pour toute fonction
f borélienne bornée
EP (f (ST )) =
1
x2
a
f
(
E
(S
))
P
T
xa
ST
4. On se place dans le cas
h(x) = xβ (x − K)+
Montrer que h(ST ) s’écrit comme différence de deux payoffs correspondants á des options d’achat Européennes portant sur S β+1 et sur S β avec
des strikes que l’on déterminera.
(i)
(i)
(i)
Exercice 6.6.8 Option d’échange Soit dSt = St (bi dt + σi dWt , i = 1, 2
où les coefficients sont constants, les browniens W (i) étant correlles. Calculer la
(1)
(2)
valeur d’une option d’échange dont le payoff est (ST − ST )+ .
Exercice 6.6.9 Option quanto
Exercice 6.6.10 Taux de change On considère deux pays. Les quantités
relatives au pays domestique seront indexées par d, les quantités relatives à
l’autre pays par f . Chaque pays possède un taux sans risque noté respectivement
rd et rf . Les marchés des deux pays sont dirigés par un mouvement Brownien
W . Sous la probabilité P , un actif S suit la dynamique
dSt = St (µt dt + σtS dWt )
On suppose que chacun des deux marchés est sans arbitrage : il existe une
probabilité risque neutre domestique notée Qd équivalente à P telle que sous
d
Qd le processus (e−r t Std , t ≥ 0) est une Qd martingale.
1. Montrer que tout actif domestique S d a une dynamique de la forme
dStd = Std (rd dt + σt dWtd )
où W d est un Qd mouvement Brownien. On notera λd la prime de risque
définie par dWtd = dWt + λdt dt. Le taux de change entre ces pays est X
dirigé par
dXt = Xt [(rd − rf ) dt + σtX dWtd ]
Si S f est un prix en unités monétaires du pays étranger, S f X est le prix
du même produit en unités monétaires domestiques.
2005-06
83
2. Soit S f un actif étranger de dynaique
dStf = Stf (rtf dt + σt dWtf )
Montrer que
λft − λdt = −σtX
Z t
f
d
σsX ds
Wt − Wt =
0
3. Quelle est la dynamique du taux de change inverse Y = 1/X ?
4. On souhaite valoriser une option quanto, c’est à dire une option sur produit étranger faisant intervenir le taux de change. Comment évaluer en
monnaie domestique un flux étranger de (SfT − K)+ ? Comment évaluer
une option d’achat sur action étrangère avec strike en monnaie domestique ?
Exercice 6.6.11 Richesse (Cox-Huang, Karatzas) Un agent financier souhaite
investir sur un marché sur lequel deux actifs sont négociables:
Un actif sans risque de dynamique dS0 (t) = S0 (t)r(t)dt où r est
déterministe,
Un actif risqué dont le prix a pour dynamique dS1 (t) = S1 (t)(b(t)dt+
σ(t)dWt ). On suppose que σ ne s’annule pas.
La richesse X de cet agent a pour dynamique
dXt = Xt r(t)dt + πt [b(t) − r(t)]dt + σ(t)πt dWt
où π est un processus (Ft ) adapté représentant la proportion de la richesse
investie dans l’actif risqué.
1. Montrer qu’il existe une probabilité Q telle que dS1 (t) = S1 (t)(r(t)dt +
ft ) où W
f est un Q mouvement Brownien.
σ(t)dW
2. Montrer que (R(t)Xt , t ≥ 0) est une Q martingale locale, avec R(t) =
Z t
exp −
r(s)ds
0
b(t) − r(t)
et H solution de l’équation dHt = −Ht (r(t)dt +
σ(t)
θ(t)dWt ), H0 = 1. Montrer que le processus (Ht Xt , t ≥ 0) est une P martingale locale.
3. Soit θ(t) =
4. On suppose que (Ht Xt , t ≥ 0) est une P -martingale pour tout choix de
π. L’agent souhaite obtenir une richesse terminale égale à ζ, v.a. FT
mesurable (i.e. XT = ζ). Montrer que sa richesse initiale X0 est alors
déterminée, et que son portefeuille de couverture (i.e. π) également.
84
Girsanov. Enoncés
Exercice 6.6.12 Optimisation de richesse Sur le marché financier on trouve
un actif risqué et un actif sans risque. Soit (St , t ≥ 0) le prix de l’actif risqué.
On suppose que dSt = St (µt dt + σdBt ) . L’actif sans risque vérifie
dS0 (t) = S0 (t)rt dt .
Les processus µt , rt sont Ft -adaptés bornés, σ est une constante non nulle.
µ Z t
¶
1. Montrer que St exp −
µs ds est une P -martingale.
0
µt − rt
.
2. On pose θt =
σ
Z
t
Déterminer Q telle que, sous Q le processus B̃t = Bt +
θs ds soit un
0
mouvement Brownien.
Ecrire l’équation vérifiée par St en utilisant B̃t .
3. Un agent de richesse initiale x investit sa richesse Xt suivant l’actif sans
risque et l’actif risqué de prix St suivant Xt = n0 (t)S0 (t) + n1 (t)St . On
suppose que dXt = n0 (t)dS0 (t) + n1 (t)dSt .
(a) Montrer que dXt = rt Xt dt + n1 (t)(dSt − St rt dt).
Z t
(b) On note πt = n1 (t)St et Rt = exp −
rs ds.
0
Ecrire dXt en fonction de πt , rt , et Bt .
(c) Montrer que, sous Q, le processus Xt Rt est une martingale.
(d) Soit ζ = XT . Ecrire Xt sous forme d’une espérance conditionnelle
faisant intervenir ζ et le processus r.
4. On se donne un processus (ct , t ≥ 0) à valeurs positives adapté et un
processus (πt , t ≥ 0) de carré intégrable Ft - adapté.
Soit (Xt , t ≥ 0) un processus tel que
dXt = rt Xt + πt (dBt + θt dt) − ct dt .
(6.5)
Z t
(a) Montrer que, sous Q, le processus Xt Rt +
Rs cs ds est une martin0 Z
T
gale. v En déduire que Xt Rt = EQ (XT RT +
Rs cs ds|Ft ).
t
(b) Ecrire cette relation sous P .
(c) Montrer que si l’on impose la condition XT ≥ 0, il existe une solution
de (6.5) positive, vérifiant cette condition.
Exercice 6.6.13 Soit Xt = µt + σBt . On note Ta = inf{t|Xt = a}. Trouver
une probabilité Q telle que sous Q, (B̃t = Xt /σ , t ≥ 0) soit un mouvement
Brownien. Exprimer Ta en utilisant B̃t . Calculer EP (exp −λTa ).
2005-06
85
Exercice 6.6.14 Montrer que le prix d’une option Asiatique dont le strike est
le sous jacent est le prix d’un call sur un sous jacent de dynamique dZt =
(1 − rUt )dt − Zt σdWt . Comment faire le calcul?
Exercice 6.6.15 Zero-coupons Soit Yt = h(t)dt + dWt et
où ¸¶
h et
µ rt =· σ(t)Y
Z tt
rs ds .
σ sont des fonctions de classe C 1 . On souhaite calculer E exp −
0
1. Exprimer dr.
µZ
¶
Z
1 t 2
= exp
2. Soit
H(s)dWs −
H (s)ds . Justifier que E(LH
T )=1
2 0
0
pour toute fonction H continue. En déduire que
Ã
"
#!
Z T
Z
1 T 2
0
E exp H(T )WT −
F (s)Ws ds −
H (s)ds
= 1.
2 0
0
t
LH
t
3. En utilisant Lht , montrer que
Ã
" Z
#!
Ã
Ã
T
E
exp −
rs ds
=E
Z
exp h(T )WT −
0
Z
T
0
T
Ws (h (s) + σ(s))ds −
0
0
1
2
Z
T
!!
2
h (s)ds
0
4. Calculer cette quantité.
√
Exercice 6.6.16 Soit dYt = 2 Yt dWt + (2β(t)Yt + δ)dt √
et rt = σ(t)Yt , où σ et
β sont des fonctions de classe C 1 . On introduit dXt = 2 Xt dWt + δdt.
1. Calculer drt .
2. Soit H une fonction de classe C 2 et
µZ t
¶
Z
p
1 t 2
H
Zt = exp
H(s) Xs dWs −
H (s)Xs ds
2 0
0
On admet que Z est une martingale. Montrer que
µ µ
¶¶
Z t
Z t
Z
1
1 t 2
Zt = exp
H(t)Xt − δ
H(s)ds −
H 0 (s)Xs ds −
H (s)Xs ds
2
2 0
0
0
3. Montrer que
Ã
E
" Z
exp −
#!
T
rs ds
=
0
"
1
exp (−β0 X0 − δ
2
Z
T
#
β(s)ds) E
0
Ã
"
1¡
exp
β(T )XT −
2
4. Comment calculer cette dernière expression?
Z
0
T
¢
Xs (β (s) + β (s) + 2σ(s))ds
2
0
#!
.
86
Compléments. Enoncés
Exercice 6.6.17 On se place dans le cas où St = e2(Wt +νt) Montrer en utilisant la formule d’Itô que S est une sousmartingale pour ν + 1 ≥ 0 et une
surmartingale sinon. En déduire que le prix d’une option asiatique est plus petit que le prix d’une option plain vanilla. Montrer par une minoration simple
Z
1 T
que E(
exp(2(Ws + νs))ds) ≥ E(e2(WT +νT ) )
T 0
Chapter 7
Compléments
ENONCES
Dans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtration est notée (Ft ).
7.1
Théorème de Lévy.
Exercice 7.1.1 Lévy’s theorem. Let W be a standard Brownian motion and
D=
sup (Ws − Wt ), D1 = Wθ − inf Wt , D2 = sup Wt − Wσ
θ≤t≤1
0≤s≤t≤1
0≤t≤σ
where θ (resp. σ) is the time of the absolute maximum (resp. minimum) of the
Brownian motion over [0, 1], (i.e., ).
loi
1. Prove that D = sup0≤t≤1 |Wt |.
2. En déduire la loi de D.
loi
3. Prove that D1 = supg≤t≤1 |Wt | where g = sup{t ≤ 1 : Wt = 0}.
Exercice 7.1.2 Loi du couple (|Bt |, Lt ).
1. Montrer que la loi du couple (|Bt |, Lt ) est
¶
µ
2(a + `)
(a + `)2
µt (da, d`) = 11a≥0 11`≥0 √
da d`
exp −
2t
2πt3
2. On note Ta = inf{t ≥ 0; Bt = a} et τ` = inf{t ≥ 0; Lt = `}. Montrer que
loi
T` = τ`
87
88
Compléments. Enoncés
3. Montrer que le processus (|Bt |, Lt ) est markovien de semi groupe
Z
Qt (α, λ, f ) = µt (da, d`)f (α ∨ ` − (` − a), (λ − α) + α ∨ `)
4. Montrer que St (St − Bt ) et Bt sont indépendantes.
loi t
5. Montrer que St (St − Bt ) = E où E est une variable exponentielle de
2
paramètre 1.
Exercice 7.1.3 On note W ∗ le processus Wt∗ = sups≤t Ws .
1. Justifier rapidement (en se basant sur des résultats classiques) que P (Wt∗ >
a) = 2P (Wt > a) pour a > 0. Cette égalité est-elle vérifiée également pour
a ≤ 0?
2. Soit s < t. Montrer que
P ( sup Wu > 0, Ws < 0) = 2P (Wt > 0, Ws < 0)
s≤u≤t
3. Calculer explicitement cette quantité.
4. On note gt = sup{s ≤ t : Ws = 0}. Calculer la loi de gt .
Exercice 7.1.4 On note Mt = sup0≤s≤t Bs et θ = sup{t ≤ 1 : Bt = Mt }. On
souhaite calculer la loi de θ.
1. Ecrire {θ ≤ t} en utilisant les variables Mt et supt≤s≤1 Bs
2. Ecrire {θ ≤ t} en utilisant Mt et supt≤s≤1 (Bs − Bs )
3. Quelle est la loi de supt≤s≤1 (Bs − Bs ) conditionnelle à Ft ?
4. En déduire que P (θ ≤ t|Ft ) = Φ(Mt − Bt ) où Φ(x) = P (M1−t < x)
5. En utilisant le cours, calculer Φ(x).
6. On admet que Mt − Bt a même loi que Bt . Comment obtenir la loi de θ?
7.2
Equations rétrogrades
Exercice 7.2.1 Equation rétrograde 1. Soit H
dHt = −Ht (rdt + θdWt ) , H0 = 1
On notera Ht,s =
Hs
pour t < s.
Ht
1. Soit t fixé. Quelle est l’EDS suivie par (Ht,s , s ≥ t).
2000-01
89
def
2. Soit ζ une v.a. de FT et Xt = ln E(Ht,T eζ |Ft ). Montrer que Yt =
exp(Xt )Ht est une martingale que l’on peut écrire sous la forme z +
Z t
zs dWs .
0
bt2 + bX
bt + c)dt + X
bt dWt où X
b est un processus
3. Montrer que dXt = (aX
adapté que l’on déterminera en fonction de Z, z, r et θ et où b et c sont
des constantes.
Exercice 7.2.2 Equation rétrograde 2. La question (b) est triviale, si l’on
admet (a). Dans tout le problème ζ est une variable FT -mesurable, intégrable.
1. Soit H est une variable FT mesurable, intégrable. Justifier qu’ilZ existe un
t
hs dWs .
processus (hs , s ≤ T ) et une constante z tels que E(H|Ft ) = z+
0
On pourra admettre ce résultat pour poursuivre.
bs , s ≤ T ) tel
2. On note Xt = E(ζ|Ft ). Montrer qu’il existe un processus (X
que
bt dWt , YT = ζ
dXt = X
(7.1)
En déduire que, si ζ une variable FT mesurable intégrable, il existe un
b de processus (Ft ) adaptés vérifiant (7.1).
couple (X, X)
3. Soit r un nombre réel. En utilisant ert E(ζe−rT |Ft ) montrer qu’il existe
b de processus (Ft ) adaptés tels que
un couple (X, X)
bt dWt
dXt = rXt dt + X
YT = ζ
4. Soit (rt , t ≥ 0) un processus (Ft ) adapté borné. En utilisant une méthode
b de processus (Ft ) adaptés
analogue, montrer qu’il existe un couple (X, X)
tels que
bt dWt , YT = ζ
dXt = rt Xt dt + X
5. Soit Γβ,γ le processus solution de dΓt = −Γt (βt dt + γt dWt ), Γ0 = 1 où
β et γ sont des processus (Ft ) adaptés bornés. Soit φ un processus (Ft )
adapté borné. En considérant
Z T
E(ΓT ζ +
Γs φs ds|Ft )
t
b de processus (Ft ) adaptés tels que
montrer qu’il existe un couple (X, X)
bt )dt + X
bt dWt ,
dXt = −(φt + Xt βt + γt X
bT = ζ
X
1
ln (E [exp (2aζ) |Ft ]), montrer
2a
b de processus (Ft )-adaptés tels que
qu’il existe un couple (X, X)
6. Soit a un nombre réel. En considérant
bt2 dt + X
bt dWt , X
bT = ζ
dXt = −X
(7.2)
90
Compléments. Enoncés
7. Montrer que
³ h
i´
1
ln E Γ2ac,b
exp
(2aζ)
|F
est solution de
t
t,T
2a
bt2 − bX
b − c)dt + X
bt dWt , X
bT = ζ
dXt = −(aX
Exercice 7.2.3 Equation rétrograde 3..
1. Soit (αt , t ≥ 0) un processus F-adapté. Donner la solution (Y, Z) de
l’équation rétrograde
−dYt = αt dt − Zt dWt ,
YT = 0.
(7.3)
2. Au moyen du théorème de Girsanov, donner la solution de
−dYt = (αt + γZt )dt − Zt dW (t),
YT = 0.
(7.4)
où γ est un scalaire quelconque. Exprimer Y0 sous la forme d’une espérance
dépendant des données du problème.
Z T
3. On pose αt = Wt . Montrer que Y0 =
E(Mt Wt ) dt où Mt = exp(γWt −
0
1 2
γ t). Calculer E(Mt Wt ) et E(Mt signWt )) où
2
sign(Ws ) = 1 si Ws > 0,
et; sign(Ws ) = −1 si Ws ) ≤ 0 .
4. On introduit le processus
Z
Wt =
t
sign(Ws ) dWs ,
0
On rappelle (cf. cours) que ce processus est un mouvement Brownien, on
notera F t = σ(W s ; s ≤ t) sa filtration, qui est incluse dans Ft . Montrer
que la solution de
−dY t = (W t + γZ t ) dt − Z t dW t ,
Y T = 0,
vérifie
Y 0 = γT 2 /2.
(7.5)
5. Montrer que la solution de
−dYt = (W t + γZt )dt − Zt dWt ,
vérifie
Z
T
Y0 =
0
¡
¢
E MT W t dt =
Z
0
T
YT = 0,
¡
¢
E Mt W t dt.
(7.6)
2000-01
91
6. Montrer, au moyen de la formule d’Itô que
¢
¡
E Mt W t =
Z
t
γE (Ms sign(Ws )) ds,
0
pour 0 ≤ t ≤ T. et en déduire que
Z
Y0 = γT 2 /2 − 2γ
T
√
(T − s)Φ(−γ s)ds.
(7.7)
0
où Φ est la fonction de répartition de la loi normale centrée réduite.
7. Supposons que Y0 représente l’utilité (mesure le bien être que l’on éprouve
quand on consomme c) associée à un plan de consommation (ct = exp(W (t)))
et une information F et que Y 0 représente l’utilité associée au même plan
de consommation mais avec l’information F. Interprétez alors le résultat
trouvé en (7.5) et en (7.7) selon que γ > 0 ou que γ < 0.
Exercice 7.2.4 facts on quadratic BSDE The solution of the BSDE −dyt =
1
azt2 − zt dWt , yT = ζ is yt = 2a
ln E(e2aζ |Ft ). The solution of
−dy = (az 2 + bz)dt − zdWt
obtained by Girsanov.
ct )
−dy = (az 2 + bz)dt − zdWt = az 2 dt − z(dWt − bdt) = az 2 dt − zt dW
leads to
yt
=
=
=
1
b 2aζ |Ft )
ln E(e
2a
1 2
1 2
1
ln E(ebWT − 2 b T e2aζ |Ft )ebWt − 2 b t
2a µ
¶
1
1 2
bWT − 12 b2 T 2aζ
ln E(e
e |Ft ) + bWt − b t
2a
2
The solution of
−dy = (az 2 + bz + ct )dt − zdWt
Rt
follows setting ỹt = yt + 0 cs ds. The process ỹ satisfies
Z
2
−dỹ = (az + bz)dt − zdWt , ỹT = ζ +
T
cs ds
0
therefore
1
2a
µ
¶ Z t
RT
1 2
1
ln E(ebWT − 2 b T e2a(ζ+ 0 cs ds) |Ft ) + bWt − b2 t −
cs ds
2
0
92
Compléments. Enoncés
7.3
Théorèmes de représentation
Exercice 7.3.1 Soit W (i) , i = 1, 2, 3 trois MB, avec W (i) , i = 1, 2 indépendants.
(3)
(1)
(2)
Montrer qu’il n’est pas possible d’avoir σ(Ws , s ≤ t)) = σ(Ws , Ws , s ≤ t).
Z
Exercice 7.3.2 Changement de temps Soit Mt =
0
t
11Ws >0 dWs .
1. Justifier que (Mt , t ≥ 0) est une martingale.
2. Trouver un processus (At , t ≥ 0) croissant tel que Mt2 − At est une (Ft )martingale.
3. On admet qu’il existe un processus croissant C tel que A(C(t)) = t. Montrer que (MCt , t ≥ 0) est un (Gt )-mouvement Brownien. Préciser quelle
est la filtration (Gt )-utilisée.
Exercice 7.3.3 Crochet et indédendance. Soient W1 et W2 deux MB tels
que leur crochet soit nul. Montrer qu’ils sont indépendants.
7.4
Temps local.
Exercice 7.4.1 Formule de Tanaka.
1. Peut-on appliquer la formule d’Itô pour calculer dZt avec Zt = |Wt |?
2. On admet qu’il existe un processus croissant L tel que
Z
|Wt | = |W0 | +
t
f (Ws )dWs + Lt
0
Z
avec f (x) = 1 si x > 0 et f (x) = −1 sinon. Montrer que (
t
f (Ws )dWs , t ≥
0
0) est un mouvement Brownien que l’on notera β.
3. Soit St = sups≤t Ws . Vérifier que S est un processus croissant. Comparer
les décompositions |Wt | = βt + Lt et St − Wt = −Wt + St . Pour cette
question, je ne vous demande aucun raisonnement précis.
Exercice 7.4.2 Temps local. Soit L le temps local. Montrer que Lt =
inf s≥t (|Bs | + Ls ).
Exercice 7.4.3 Temps aléatoire. Soit B un MB, S son maximum sur [0, 1]
(soit S = sup{Bs , s ≤ 1} et θ = inf{t ≤ 1 : Bt = S}. La v.a. θ est-elle un
temps d’arrêt? Quelle est la loi de θ? On calculera P (θ ≤ u) et on utilisera le
loi
principe de réflexion et l’identité de Lévy (St − Bt , t ≥ 0) = (|Bt |, t ≥ 0).
Calculer P (θ ≤ t|Ft ).
2000-01
93
Exercice 7.4.4 Des martingales. Soit X une martingale continue et St =
sups≤t Xs .
1. Pour quelles fonctions f le processus Yt = f (Xt , St , hXit ) est-il une martingale locale?
2. Montrer que si g est C 2 et g(0) = 0, le processus
g(St ) − (St − Xt )g 0 (St )
est une martingale locale.
3. Montrer que si g est C 2 et g(0) = 0, le processus
g(Lt ) − |Xt |g 0 (Lt )
est une martingale locale.
Exercice 7.4.5 Scaling Soit B un MB et L son temps local. Montrer que
loi
x/λ
(Lxλ2 t , x ∈ IR, t ≥ 0) = (λLt
On utilisera
Z
λ2 t
loi
Z
t
f (Bs )ds = λ2
0
x ∈ IR, t ≥ 0)
f (λBu )du
0
Exercice 7.4.6 Calculer E(LxTa ).
Exercice 7.4.7 Let M be a continuous martingale such that hM i∞ = ∞ and
β the associated Dubins-Schwarz BM. Prove that Lat (M ) = LahM it (β).
Exercice 7.4.8 Let φ be a non negative process indexed by IR+ × IR. Prove
that
Z ∞
Z t
Z t
y
dy
ds Ls φ(s, y) =
ds hY is φ(s, Ys ) .
−∞
7.5
0
0
Lois
Exercice 7.5.1 Temps d’atteinte. Soit X solution de
Xt = a(Xt )dt + b(Xt )dWt , X0 = x .
On note Ta = inf{t ≥ 0 | Xt = a}.
1. Donner des conditions sur la fonction V pour que (e−λt V (Xt ), t ≥ 0) soit
une martingale.
2. En déduire E(e−λTa 11(Ta <∞) ) en fonction de V . On ne demande pas
d’expliciter V .
94
Compléments. Enoncés
Z
x
y
dy et Yt = f (Xt ). On suppose b ∈ C 1 . Calculer dYt .
0 b(y)
Z t
Z t
4. En déduire que
Xs dWs = f (Xt ) − f (x) +
g(Xs ) ds où g est une
3. Soit f (x) =
0
fonction que l’on précisera.
0
Exercice 7.5.2 Temps d’atteinte Soit Vt = v + Wt et τa (V ) = inf{t : Vt =
2
loi (a − v)
a}. Montrer que τa (V ) =
, où G est une variable de loi N (0, 1).
2
G
¡
¢
Comment calculer E 11{T <τa (V )} h(VT ) ?
Exercice 7.5.3 Soit M une martingale telle que M0 = a et limt→∞ Mt = 0.
loi a
On rappelle (exercice 1.5.11) sup Mt =
où U est une v.a. de loi uniforme sur
U
[0, 1].
On propose des applications de ce résultat.
1. Let B be a BM with initial value a > 0 and T0 = inf{t : Bt = 0}. Identify
the law of supu≤T0 Bu .
loi 1
2. Prove that, for a > 0, supu (Bu − au) =
e, where e is a standard
2a
exponential variable with mean 1.
3. Let B be a BM and T1 the first hitting time of 1. Define It = − inf s≤t Bs .
Identify the law of IT1 .
Exercice 7.5.4 Loi du maximum.
loi
On rappelle que, pour T fixé, maxt≤T Wt = |WT |. On note C = E[(e−σWT −1)+ ]
σWT +
et P = [(1 − e
) ]. Montrer que pour x > 0
E[max(xeσWt − xeσWT )] = x[C + P ]
t≤T
(Il n’y a aucun calcul à faire)
7.6
Filtrations
Exercice 7.6.1 Agent initié L’agent initié connait la valeur terminale du
Brownien. Le problème
est de savoir comment se transforment les martingales.
Z t
WT − Wu
def
Soit Zt = Wt −
du
T −u
0
1. Soit f une fonction déterministe. Montrer que
Z T
Z u
Z u
Z T
1
E[Zu
f (v)dWv ] =
f (v)dv −
ds
dvf (v)
T −s s
0
0
0
Z T
En déduire que si, pour tout u, E[Zu
f (v)dWv ] = 0 , alors f vérifie
0
Z T
1
f (u) =
dvf (v) et montrer que f est une constante.
T −u u
2000-01
95
2. Soit t < T . On admet que E(Wt |WT ) = aWT + b où a et b sont des
t
constantes. Montrer que b = 0 et que a =
. (On pourra prendre
T
l’espérance des deux membres et calculer E(Wt WT ))
3. Soit s < t < T . On admet que E(Wt |Ws , WT ) = aWs + bWT + c où a, b
t−s
T −t
,b=
, c = 0.
et c sont des constantes. Montrer que a =
T −s
T −s
4. On note Ft∗ = Ft ∨ σ(WT ) la tribu engendrée par (Wu , u ≤ t) et par WT .
On admet que pour s < t, E(Wt |WT , Ws ) = E(Wt |Fs∗ ). Montrer que Z
est une (Ft∗ )- martingale. On pourrait montrer que c’est un MB.
Exercice 7.6.2 Soit G une filtration et W un G mouvement brownien.
1. Soit H une filtration plus petite que G. Vérifier que le processus Mt =
E(Wt |Ht ) est une martingale. (on précisera par rapport à quelle filtration).
Z
2. Soit Xt = Wt +
t
Yu du où Y est un processus G adapté intégrable. On
0
note FX la filtration de X (qui vérifie FtX ⊂ Gt ) et Ybu = E(Yu |FuX ).
Z t
Vérifier que Zt = (Xt −
Ybu du, t ≥ 0) est une FX -martingale (on cal0
culera l’espérance conditionnelle de Zt par rapport à FsX ). Montrer que
Z est un mouvement Brownien.
7.7
Options barrières
Exercice 7.7.1 On note N la fonction de répartition de la loi normale et Mt =
sup(Bs , s ≤ t).
√
1. Soit x ∈ IR. Montrer que P (Bt ≤ x) = P (Bt ≤ −x) = N (x( t)−1 ).
2. Soit y > 0 donné, T = inf{t ≥ 0 |Bt = y}.
Soit Bt∗ = BT +t −BT . On admet que T est un temps d’arrêt et (Bt∗ , t ≥ 0)
est un Brownien indépendant de FT .
(a) Montrer que
∗
P (Bt ≤ x, Mt > y) = P (T < t, Bt−T
≤ x − y)
(b) Montrer que
Z
∗
P (T < t, Bt−T
≤ x−y) =
t
0
∗
∗
P (T ∈ du)P (Bt−u
≤ x−y) = P (T < t, Bt−T
≥ y−x)
96
Compléments. Enoncés
(c) Montrer que pour y > x, on a
P (Bt ≤ x, Mt > y) = P (Bt ≥ 2y − x)
En déduire que
x
x − 2y
P (Bt ≤ x, Mt < y) = N ( √ ) − N ( √ )
t
t
3. En déduire la loi de T , celle de Mt et la densité du couple (Bt , Mt ).
4. Soit Xt = µt + Bt , Yt = sup (Xs , 0 ≤ s ≤ t}. Montrer, en utilisant le
théorème de Girsanov, que le calcul de
P (Xt < x, Yt < y)
se déduit du calcul précédent.
7.8
Méandres, ponts, excursions
Exercice 7.8.1 Loi conditionnelle. Soit dt = inf{s ≥ t : Bs = 0}. Mon(−Wt )2
loi
trer que dt (W ) = t +
où G est une variable gaussienne de loi N (0, 1)
G2
indépendante de Wt . Soit g = sup{t ≤ 1 : Bt = 0}. Calculer P (g ≤ t|Ft ).
Exercice 7.8.2 Martingale d’Azéma. On admet que le processus mu =
1
√
|Bgt +u(t−gt ) |, u ≤ 1 est indépendant de Fgt , que sgneBt est Fgt mesurable
t − gt
2
et que m1 a pour densité xe−x /2 11x>0 dx. Calculer E(Bt |Fgt ), E(Bt2 − t|Fgt ) et
E(eαBt −
7.9
α2
2
t
|Fgt ). Montrer que ces processus sont des martingales.
Divers
Exercice 7.9.1 Soit dSt = St (µdt + σdWt ) et S̃t = St max(1, max0≤s≤t
Calculer e−rT E(S̃T )
K
Ss ).
Exercice 7.9.2 Soit S un brownien géométrique
dSt = St (µdt + σdWt )
On pose Mt =
1
t
Z
t
Su du. Calculer
0
E((MT − k)+ |Ft )11Mt ≥(T k/t)
1. Soit s < t Ms = supu≤s Wu , Mts = sups≤u≤t Wu . Calculer P (Ms <
a, Mts < b, Wt < c). On donnera le résultat sous forme d’une intégrale.
2005-06
97
2. Soit Xt = e2(Wt +νt) (x +
Rt
0
e2(Ws +νs) ds). Montrer que
dXt = f (t, Xt )dt + g(t, Xt )dWt
où l’on explicitera les fonctions f et g. Comment pourrait-on calculer le
prix d’une option européenne sur le sous jacent X, en présence d’un actif
sans risque de taux constant r?
Exercice 7.9.3 Let B be a Brownian motion and Ta = inf{t ≥ 0 : Bt = a}
where a > 0.
1. Using the Doléans-Dade exponential of λB, prove that
Z
−λ2 Ta
E(e
/2|Ft ) = e
−λa
Ta ∧t
+λ
e−λ(a−Bu )−λ
2
u/2
du
0
and that
Z
e
−λ2 Ta /2
=e
−λa
Ta
+λ
2
e−λ(a−Bu )−λ
u/2
du
0
2. By differentiating the Laplace transform of Ta , and the fact that ϕ satisfies
the Kolmogorov equation, prove that
Z ∞
2
∂
λe−λc = 2
e−λ t/2 ϕ(t, c) dt
∂t
0
where ϕ(t, x) =
2
√ 1 e−x /(2t) .
2πt
3. Prove that, for any f
Z
Ta ∧t
Z
∞
E(f (Ta )|Ft ) = E(f (Ta )) + 2
f (u + s)
0
0
∂
ϕ(u, Bs − a)dudBs
∂u
4. Deduce that
Z
11Ta <t = P (Ta < t) + 2
Ta ∧t
ϕ(T − t, Bt − a)dBt
0
98
Sauts. Enoncés
Chapter 8
Processus à sauts
8.1
Processus de Poisson
Dans cette section, Nt est un processus de Poisson d’intensité déterministe λ(s)
Z t
et Mt = Nt −
λ(s)ds la martingale compensée.
0
Exercice 8.1.1 Soit N i , i = 1, 2 deux processus de Poisson indépendants de
même intensité. Montrer que N 1 − N 2 est une martingale.
Exercice 8.1.2 Soit Ft∗ = σ(Ns , s ≤ t, NT ). Montrer que
Z t
NT − Ns
def
Mt∗ = Nt −
ds
T −s
0
est une Ft∗ -martingale.
Exercice 8.1.3 Montrer que les processus
Z t
Z t
Xt = exp(
sdNs +
λ(s)(1 − es )ds)
0
0
Z t
Z t
Yt = exp(
ln(1 + s)dMs +
[ln(1 + s) − s]λ(s)ds)
0
0
sont des martingales.
Exercice 8.1.4 Caractérisation de Processus de Poisson.
X
1. Calculer ψ(z, t) =
z n P (Nt = n).
n
2. Soit X un processus à accroissements indépendants,
à valeurs dans l’ensemble
X
loi
z n P (Xt = n). Mondes entiers, tel que Xt+s − Xt = Xs et ψ(z, t) =
n
trer que ψ(z, t + h) = ψ(z, t)ψ(z, h). On suppose qu’il existe ν tel que
1
P (Xh ≥ 2) → 0
h
,
1
P (Xh = 1) → ν
h
99
,
1
(1 − P (Xh = 0)) → ν
h
100
Sauts. Enoncés
∂
quand h tend vers 0. Montrer que ψ(z, t) = ν(z − 1)ψ(z, t). Quel est le
∂t
processus X?
Exercice 8.1.5 Soit (Yi , i ≥ 1) des variables indépendantes équidistribuées
PNt
d’espérance µ et indépendantes de N . On note Xt =
i=1 Yi le processus
de Poisson composé. Soit Mt = Nt − λt et Zt = Xt − µλt. Montrer que Z et
(Mt Yt − µλt, t ≥ 0) sont des martingales.
Exercice 8.1.6 On considère l’équation
Z
t
Xt = x + Nt − c
Xs ds
0
1. Montrer que cette équation admet au plus une solution.
2. Montrer que
Z
t
e−ct x +
e−c(t−s) dNs
0
est une solution.
Exercice 8.1.7 On note τ = T1 le premier saut de N et Dt = Nt∧τ
Z
t∧τ
1. Déterminer δ tel que Zt = Dt −
δu du soit une martingale.
0
2. On note Lt = (1 − Dt )/(1 − F (t)) où F (t) = P (τ ≤ t) est supposée
continue. Montrer que dLt = αt dZt où on explicitera α. Même question
si F est seulement continue à droite.
3. Soit N1 et N2 deux PP d’intensité constante λ1 et λ2 et Di les processus
α1
α2
associés. On note µ1 (t) = (
− 1)D2 (t−) et µ2 (t) = (
− 1)D1 (t−).
λ1
λ2
Soit ρt solution de dρt = ρt− (µ1 (t)dZ1 (t) + µ2 (t)dZ2 (t)). Expliciter ρt .
Soit dQ = ρt dP . Calculer Q(τ1 > t, τ2 < s) pour s < t.
Z
t
Exercice 8.1.8 Calculer la TL de
Ns ds.
0
Exercice 8.1.9 Montrer que
Z
f (Nt == f (N0 ) + ∆f (0)
Rt
0
dNs
¡R s
0
µZ
t
dNs +
0
Calculer
Z
t
dNs
0
¢
¡R s
¢
Rt
Ru
dNu et 0 dNs 0 dNu 0 dNv
s
¶
2
∆ f (Nu− dNu
0
2005-06
8.2
101
Poisson composé
Let λ0 be a positive number and µ be a probability law on IR. A (λ, µ) compound
Poisson process is a process X = (Xt , t ≥ 0) of the form
Xt =
Nt
X
Yk
k=1
where N is a Poisson process with intensity λ > 0 and (Yk , k ∈ IN ) are nonnegative i.i.d. random variables with law µ, independent of N . It differs from a
Poisson process since the sizes of the jump are random variables, independent
of the Poisson process.
Exercice 8.2.1 We denote by Y a random variable with law µ. Prove that a
compound Poisson process is with independent increments, and
E(Xt ) =
Var (Xt ) =
λtE(Y )
λtE(Y 2 ).
Exercice 8.2.2 Let X be a (λ, µ) componud Poisson process. Prove that the
process
X
Mtf =
f (∆Xs )11∆Xs 6=0 − tλµ(f )
s≤t
is a martingale; the process
(Mtf )2 − tλµ(f 2 )
is a martingale.
Suppose that X is a pure jump process and that there exists a finite positive
measure σ such that
X
f (∆Xs )11∆Xs 6=0 − tσ(f )
s≤t
is a martingale for any f , then X is a compound Poisson process.
Exercice 8.2.3 If X is a (λ, µ) compound Poisson process,
µ
µ
¶¶
Z ∞
E(e−αXt ) = exp −λt 1 −
e−αu µ(du)
.
0
Exercice 8.2.4 Let X be a (λ, µ) compound Poisson process and f a bounded
Borel function. Then,
ÃN
!
Z
t
X
exp
f (Yk ) + t (1 − ef (x) )λµ(dx)
k=1
is a martingale.
102
8.3
Sauts. Enoncés
Formule d’Itô
Exercice 8.3.1 Soit W un mouvement Brownien et Mt = Nt −λt la martingale
compensée associée au processus de Poisson N d’intensité constante λ.
1. Montrer que la solution de
dSt = S(t− )(rdt + σdWt + φdMt ), S0 = x
est, pour φ > −1
1
St = xert exp(σWt − σ 2 t) exp(ln(1 + φ)Nt − φλt) .
2
(8.1)
2. Ecrire la solution en faisant apparaitre la martingale M .
3. Quelle est la dynamique de 1/St ?
4. Quelle est la dynamique de St2 ?
5. Calculer E(St ) et E(St2 ).
6. Quelle est la solution de (8.1)pour φ = −1? et pour φ < −1?
7. Quelle est la solution de (8.1) lorsque les coefficients dépendent du temps?
Exercice 8.3.2 Soit
dXt = µ(t, Xt )dt + σ(t, Xt )dWt + φ(t, Xt− )dMt
et H une fonction de classe C 1,2 . Sous quelles conditions le processus Yt =
H(t, Xt ) est-il une martingale locale?
Exercice 8.3.3 Soit un espace de probabilité (Ω, F, P ) sur lequel évoluent un
mouvement Brownien W et un processus de Poisson N , d’intensité déterministe
λ. On suppose que Ft = σ(Ws , Ns , s ≤ t).
1. Déterminer la dynamique de toutes les martingales strictement positives.
2. Soit Q une probabilité équivalente à P sur tout Ft . Caractériser la dynamique de la densité Lt de Q par rapport à P .
3. Quelle sont les formes possibles de L si on impose que, sous Q le processus
S̃ = e−rt St où S a pour dynamique
dSt = S(t− )(rdt + σdWt + φdMt )
soit une martingale?
4. Même question si
dSt = S(t− )(µdt + σdWt + φdMt )
2005-06
8.4
103
Défaut
Exercice 8.4.1 Soit τ un temps aléatoire sur un espace (Ω, Gt , P ). On suppose
Z t∧τ
qu’il existe un processus positif, G-adapté (λs , s ≥ 0) tel que 11τ ≤t −
λu du
0
soit une Gt martingale. Soit h une fonction borélienne, X une variable aléatoire
GT mesurable et
Z T
Z T
Z u
¡
¢
Vt = E(X exp −
λs ds +
du hu λu exp −
λs ds |Gt ) .
t
t
t
Montrer que
¯ ´
³
¯
11{t<τ } Vt = E (∆Vτ )11{t<τ ≤T } + X11{T <τ } ¯ Gt .
Z
(Appliquer Ito à Vt exp −
Ut (1 − 11τ ≤t ).
8.5
Z
t
t
λs ds +
0
¡
du hu λu exp −
0
Z
u
¢
λs ds = Ut et à
0
Marché complets, incomplets
Exercice 8.5.1 Soit
dSt = St− [µdt + φdMt ]
and r = 0. Quelle est la condition pour que ce marché soit sans arbitrage?
Quelle est le m.m.e.? Quelle est la dynamique de S sous Q?
Exercice 8.5.2 On étudie un modèle dans lequel il y a un actif sans risque de
taux r et un actif risqué
dSt = S(t− )(rdt + σdWt + φdMt )
(8.2)
1. Montrer que ce marché est incomplet, déterminer les m.m.e..
2. Quels sont les actifs duplicables?
3. On note X x,π,C la valeur d’un portefeuille π de richesse initiale x, avec
processus de consommation cumulé C. Montrer que
Z t
Z t
Rs dCs
πs Xs d(RS) −
Rt Xt = x +
0
0
4. Soit Q l’ensemble des probabilités risque neutre, et
Vt = esssupQ EQ (RT B|Ft )
On admettra que V est une surmartingale pour tout Q et que toute surmatingale s’écrit comme une martingale moins un processus croissant.
104
Sauts. Enoncés
Z t
Montrer qu’il existe AQ processus croissant, µ, ν tels que Vt = v+
µs dWsQ +
0
Z t
Q
Q
Q
Q
Q
dMs − At , où W et M sont des Q-martingales et W un MB..
0
Préciser le lien entre AP et AQ .
φ
− νt ≥ 0
σ
Z t
φ
P
λ(µs − νs ) est un processus croissant.
6. Montrer que A −
σ
0
5. Montrer que µt
7. En déduire que V est la valeur d’un portefeuille X dont on explicitera le
processus de consommation.
Exercice 8.5.3 On considère un actif de prix
dSt = St− (rdt + ϕdMt )
où M est la martingale compos ée associé à un processus de Poisson d’intensité
constante λ.
1. Vérifier que St e−rt est une martingale.
2. Soit X le valeur d’un portefuille autofinancant comportant θ parts d’actif
risqué, soit
dXt = rXt dt + θt (dSt − rSt dt)
Vérifier que X̃t = ert Xt est une martingale. Ecrire la dynamique de X̃ en
fonction de S̃.
3. Ecrire l’EDS vérifiée par X/S.
4. On pose dQ = St e−rt /S0 dP . Vérifier que X/S est une martingale sous
Q.
Corrigés. 2005-06
s
105
CORRIGES
106
Rappels
Chapter 1
Rappels, Corrigés
1.1
Tribu
Exercice 1.1.1: L’ensemble B − A s’écrit B ∩ Ac . Si F est une tribu, elle est
stable par passage au complémentaire et par intersection, d’où le résultat.
Exercice 1.1.2 : 1) La tribu engendrée par A est constituée des quatre ensembles A, Ac , ∅, Ω.
2) Cette tribu doit contenir A et B, l’ensemble vide et Ω. Puis les complémentaires,
soit Ac et B c (les complémentaires de Ω et de l’ensemble vide égaux à l’ensemble
vide et à Ω sont déjà dans la liste). Puis les unions d’ensembles soit A ∪ B, les
autres unions A ∪ Ω = Ω, A ∪ B c = B c ,... sont déja dans la liste. Puis les
intersections Ac ∩ B c . On a terminé car les autres ensembles formés à partir
d’opérations de passage au complémentaire, d’intersection et d’union sont dans
la liste par exemple (Ac ∩ B c ) ∪ B c = B c .
Exercice 1.1.4 : Soit G = F1 ∩ F2 la famille composée des ensembles qui appartiennent à F1 et à F2 . La famille G est une tribu si
(i) Ω ⊂ G, ce qui est le cas car Ω ⊂ F1 , Ω ⊂ F2 donc Ω ⊂ F1 ∩ F2 .
(ii) la famille G est stable par passage au complémentaire: si
A ⊂ G, la stabilité des tribus F1 et F2 par passage au complémentaire implique
Ac ⊂ F1 , Ac ⊂ F2 donc Ac ⊂ F1 ∩ F2 .
(iii) la famille G est stable par intersection dénombrable: si Ai ⊂ G,
la stabilité des tribus F1 et F2 par intersection dénombrable implique ∩i Ai ⊂
F1 , Ac ⊂ F2 donc ∩i Ac ⊂ F1 ∩ F2 .
Les autres propriétés résultent des précédentes: L’ensemble vide appartient à G
car c’est le complémentaire de Ω ( utiliser (i) et (ii)), la famille G est stable par
union dénombrable: en passant au complémentaire l’identité (∩Ai )c ∪ (Aci ) on
obtient ∩Ai = (∪i Ai )c . Il reste à utiliser (ii) et (iii).
L’union de tribus n’est pas une tribu: considèrer le cas F 1 = σ(A), F 2 = σ(B).
la famille F 1 ∪ F 2 ne contient pas Ac ∩ B c . Ne pas confondre sous ensembles
107
108
Rappels
et éléments. Par exemple, un intervalle est un sous ensemble de IR, et n’est pas
un élément de IR.
Exercice 1.1.6 : On utilise que X −1 (B) = {ω : X(ω) ∈ B}. La famille C
est une tribu: la stabilité requise provient des égalités suivantes: X −1 (B c ) =
(X −1 (B))c , X −1 (∩Bn ) = ∩X −1 (Bn ). On trouvera une démonstration de la
réciproque dans tout ouvrage de proba, cette démonstration est basée sur le
théorème qui précise que si une tribu contient une classe stable par intersection
finie, elle ccntient la plus petite tribu engendrée par cette classe.
Exercice 1.1.7 : Les diverses quantités que l’on veut comparer sont égales.
Les espérances E(f (X)) et E(f (Z)) sont égales parce que X et Z ont même
loi, et E(f (X, Y )) = E(f (Z, T )) car le couple (X, Y ) a même loi que le couple
(Z, T ). Si l’hypothèse (Z, T ) sont indépendantes n’était pas faite, l’égalité en loi
des variables X et Z et celle des variables Y et T ne suffirait pas. Par exemple,
loi
on peut prendre X = Y de loi gaussienne N (0, 1), X et Y indépendantes et
Z = T = X. On aurait alors E(X 2 Y 2 ) = 1 et E(Z 2 T 2 ) = E(X 4 ) = 3. (contre
exemple pour la question 3)
1.2
Variables gaussiennes.
Exercice 1.2.1 : Par symétrie de la densité et imparité de x3 , on a E(X 3 ) = 0
x2
Z ∞
−
et, par parité de x4 on a E(X 4 ) = σ√22π
x4 e 2σ 2 dx. Cette dernière
0
intégrale se calcule par intégrations par parties successives et on obtient E(X 4 ) =
3σ 4 .
Z ∞
2
x2
2σ
On a également E(|X|) = √
x exp − 2 dx, d’où E(|X|) = √
et,
2σ
σ 2π 0
2π
4σ 3
par des calculs analogues E(|X 3 |) = √ .
2π
Exercice 1.2.4 : Si X et Y sont gaussiennes indépendantes, la somme X + Y
est gaussienne: ceci se voit très facilement avec les fonctions caractéristiques:
E(eit(X+Y ) ) = E(eitX )E(eitY ) = eitm1 −
2
t 2 σ1
2
eitm2 −
2
t2 σ2
2
= eitm−
t2 σ 2
2
avec m = m1 + m2 et σ 2 = σ12 + σ22 .
On peut le voir aussi en se souvenant que si X et Y sont
R ∞indépendantes, de
densité f et g, la somme X + Y a pour densité h(x) = −∞ f (x − y) g(y) dy
et en effectuant le calcul. Attention, ce résultat n’est pas vrai si on n’a pas
l’indépendance de X et Y .
On peut aussi calculer la transformée de Laplace de la somme
¡
¢
λ2
E exp(λ(X+Y )) = E(exp(λ(X))E(exp(λ(Y )) = exp[λ(m(X)+m(Y ))+ (σ 2 (X)+σ 2 (Y ))]
2
Corrigés. 2005-06
109
ce qui montre que la somme a une loi gausienne d’espérance m(X) + m(Y ) et
de variance σ 2 (X) + σ 2 (Y ).
Exercice 1.2.5 :
1. Si X est N (m, σ 2 ),sa densité est f (x) =
Y =
1
(x − m)2
√ exp −
et la v.a.
2σ 2
σ 2π
X −m
est N (0, 1). On peut le vérifier de plusieurs façons.
σ
• En calculant la fonction de répartition de Y : Soit FY la fonction de
répartition de Y . On a FY (y) = P (Y ≤ y) = P (X ≤ m + yσ) =
FX (m+yσ). Il reste à dériver par rapport à y pour obtenir la densité
1
y2
de Y qui est σf (m + yσ) = √ exp − .
2
2π
• On peut utiliser les fonctions caractéristiques. Soit φ(t) = E(eitX ) =
t2 σ 2
eitm− 2 la fonction caractéristique de X; la fontion caractéristique
de Y est
E(eitY ) = E(eit
X−m
σ
) = e−
itm
σ
t2
t
φ( ) = e− 2
σ
Cette remarque permet de ramener des calculs sur N (m, σ 2 ) à des
calculs sur N (0, 1).
La variable X − m est gaussienne centrée. D’où en utilisant l’exercice 1,
E(|X − m|) = √2σ
.
2π
Z ∞
1
(x − m)2
√
eλx exp −
dx.
2σ 2
σ 2π −∞
2
= exp(λm + 21 σ 2 λ2 ) exp[− 2σ1 2 (x − (m +
On montre que eλx exp − (x−m)
2σ 2
2 2
λσ )) ] et le résultat s’obtient facilement. item Soit X une v.a. de loi
N (0, 1). On a
2. On a E(eλX ) =
1
E(11X<b eλX ) = √
2π
Z
b
−∞
eλx e−
x2
2
1 λ2
dx = √ e 2
2π
Z
b−λ
e−
x2
2
dx = e
λ2
2
Φ(b−λ).
−∞
3. Soit U une variable gaussienne d’espérance m et de variance σ 2 . Pour
calculer E(exp{λU 2 + µU }), on doit calculer
Z ∞
2
1
2
1
√
eλu +µu e− 2σ2 (u−m) du .
σ 2π −∞
On montre que
λu2 +µu−
1 ³
m 2 ´2 Σ2
m 2 m2
1
2
(u−m)
=
−
u
−
(µ
+
)Σ
+
(µ+
) − 2
2σ 2
2Σ2
σ2
2
σ2
2σ
110
Rappels
avec Σ2 =
Il vient
σ2
1−2λσ 2 .
Σ
E(exp{λU + µU }) = exp
σ
2
µ
Σ2
m
m2
(µ + 2 )2 − 2
2
σ
2σ
¶
.
En particulier
E(exp λU 2 ) = √
m2 λ
1
exp
1 − 2λσ 2
1 − 2λσ 2
4. Il est facile, par changement de variable, d’obtenir E(eθX f (X)) = emθ+σ
θσ 2 ) pour f continue bornée.
2 2
θ /2
5. Par dérivation par rapport à θ, on obtient pour f ”régulière” E(f (X)(X −
m)) = σ 2 E(f 0 (X)).
6. En dérivant E(eaG N (bG + c)) par rapport à b, on obtient le résultat.
Exercice 1.2.6 : Rappels:
la convergence L2 implique la convergence L1 : ||X
R n − X||2 converge vers 0
implique ||Xn − X||1 converge vers 0, avec ||X||1 = Ω |X|dP . Ce résultat est
évident compte tenu de l’inégalité ||X||1 ≤ ||X||2 qui résulte de la positivité de
la variance Var (|X| ) = ||X||22 − ||X||21 .
Si Xn converge vers X dans L2 (resp. L1 ), on a E(Xn2 ) converge vers E(X 2 )
(resp E(Xn ) converge vers E(X)). (La réciproque est fausse)
Si Xn converge dans L2 vers X, on a en particulier mn converge vers m et σn2
converge vers σ . La suite de fonctions caractéristiques eitmn −
t2 σ 2
eitm− 2 et la loi de X est gaussienne.
2
t 2 σn
2
converge vers
Exercice 1.2.7 : Soit X un vecteur gaussien. Le vecteur Y = AX est un
vecteur gaussien, car toutes les combinaisons linéaires de composantes de Y sont
des combinaisons linéaires de composantes de X, donc une variable gaussienne.
Que le vecteur X soit gaussien ou non, on a E(AX) = AE(X) et Var AX =
At (Var X)A, où VarX désigne la matrice de variance covariance du vecteur X.
On obtient dans le cas p = 1 que At (Var X)A ≥ 0, c’est-à-dire que les matrices
de variance covariance sont semi définies positives.
Exercice 1.2.8 : La v.a. λX + µY est gaussienne d’espérance λE(X) + µE(Y )
et de variance λ2 σ 2 (X) + µ2 σ 2 (Y ). On en déduit
·
¸
1 2 2
2 2
E(exp(λX + µY )) = exp λE(X) + µE(Y ) + (λ σ (X) + µ σ (Y ))
2
·
¸
·
¸
1 2 2
1 2 2
= exp λE(X) + λ σ (X) exp µE(Y ) + µ σ (Y ) = E(exp λX) E(exp µY )
2
2
d’où l’indépendance.
E(f (X+
Corrigés. 2005-06
111
Exercice 1.2.9 : Si (X, Y ) est un vecteur gaussien, X et Y
gaussiens.
Cas
Pn d = 1. La projection de X sur (Y1 , Y2 , . . . , Yn ) est de
i=1 ai Yi C’est une v.a. gaussienne car Y est gaussien.
P r X, Y ) est gaussien. Les vecteurs X − P r X et Y sont
E((X − P r X)Yi ) = 0 par définition de la projection.
sont des vecteurs
la forme P r X =
Le vecteur (X −
indépendants car
Exercice 1.2.10 : Toujours avec la transformée de Laplace.
On vérifie dans un premier temps que
E(exp(λX))
=
E[E(exp(λX)|Y )] = E[exp(λ(aY + b) +
=
exp[λaE(Y ) +
λ2 2
σ )]
2
λ2 a2 2
λ2
σ (Y )] exp[λb + σ 2 ]
2
2
donc, la v.a. X est gaussienne d’espérance b+aE(Y ) et de variance σ 2 +a2 σ 2 (Y ).
λ2 2
σ )] et en
On calcule de la même façon E(Y eλX ) = E(Y exp(λ(aY + b) +
2
2
dérivant par rapport à λ, on trouve E(XY ) = aE(Y ) + bE(Y ).
D’autre part
E(exp(λX + µY ))
=
E[exp(µY )E(exp(λX|Y )]
λ2 2
λ2 σ 2
σ )] = E[exp[(λa + µ)Y ]] exp(λb +
)
2
2
λ2 σ 2
(λa + µ)2 2
σ (Y )] exp(λb +
)
= exp[(λa + µ)E(Y ) +
2
2
=
E[exp(µY ) exp(λ(aY + b) +
et on vérifie que ceci est
1
exp(λE(X) + µE(Y )) + Var(λX + µY ))
2
1.3
Espérance conditionnelle
Exercice 1.3.2 : Il suffit de calculer E([X − Y ]2 |G) qui vaut 0 (développer le
carré) donc, en prenant l’espérance E([X − Y ]2 ) = 0.
Exercice 1.3.5 : Sous les hypothèses de l’exercice E(X − Y |G) = E(X|G) − Y
car Y est G-mesurable et E(X −Y |G) = E(X −Y ) = m par indépendance. D’où
E(X |G) = m+Y . De la même façon E((X −Y )2 |G) = E(X 2 |G)−2Y E(X|G)+
Y 2 d’où E(X 2 |G) = σ 2 + (Y + m)2 .
Exercice 1.3.6 : Par définition de la projection E(XZ) = E((P r X)Z) pour
tout Z combinaison linéaire des Yi . Cela ne suffit pas à dire que P r X est
l’espérance conditionnelle car il existe des v.a. qui sont Y -mesurable et qui ne
sont pas combinaison linéaire des Yi . Mais nous avons montré que X − P r X
et Y sont indépendantes, d’où E(X − P r X |Y ) = E(X − P r X) = 0. D’où
112
Rappels
E(X|Y ) = P r X.
Si n = 1, E(X|Y ) = P r X appartient à l’espace engendré par Y donc s’écrit
αY , et on déduit de E(X|Y ) = αY , après multiplication par Y et intégration
E(XY )
α=
.
E(Y 2 )
Exercice 1.3.7 : Soit X = X1 + X2 . On a E(X|G) = E(X1 |G) + E(X2 |G) =
E(X1 ) + X2 . Puis E(X 2 |G) = E(X12 ) + X22 + 2X2 E(X1 ) et
Var (X|G) = E(X 2 |G) − (E(X|G))2 = Var X1 .
E(eλX |G) = E(eλX1 eλX2 |G) = eλX2 E(eλX1 ) = eλX2 exp(λE(X1 ) +
λ2
2 Var (X1 ))
Exercice 1.3.8 : Il est facile de montrer la suite d’égalités
Cov (Z1 , Z2 |G) =
=
=
E(Z1 Z2 |G) − E(Z1 |G)E(Z2 |G)
E(Z1 Z2 |G) − E(Z2 (E(Z1 |G))|G)
E((Z1 − E(Z1 |G) Z2 |G)
Exercice 1.3.9 : Le membre de droite, noté K est H mesurable. Il suffit de
vérifier que
E(X11H ) = E(K11H )
pour tout H ∈ H, ce qui se réduit à
E(X11C 11A ) = E(K11C 11A , et E(X11C 11Ac ) = E(K11C 11Ac )
ce qui est routine.
Exercice 1.3.10 : Par linéarité, E(aX + b|Z) = aE(X|Z) + b. La tribu engendrée par Z est composée des sous-ensembles de Ω de la forme Z −1 (A) où
A est un borélien de IR et Z −1 (A) = {ω|Z(ω) ∈ A} = {ω|αY (ω) + b ∈ A} =
{ω|Y (ω) ∈ B} où B est l’ensemble des nombres réels tels que x ∈ B ⇐⇒
αx + b ∈ A et est un borélien (La preuve parfaite exigerait la démonstration de
ce point, qui tient au fait que B est l’image réciproque de A par l’application
1
g : y → y − b, soit B = g −1 (A) et que g est continue, donc borélienne)
α
Exercice 1.3.11 : La premiere question est directe en utilisant le résultat admis dans l’exercice 1.1.6. En utilisant cette question, on a que E(X|G)111≤τ
est de la forme h(1 ∧ τ )111≤τ = h(1)111≤τ . En prenant l’espérance des deux
membres, on identifie la constante h(1).
Exercice 1.3.12 : Trivial.
Exercice 1.3.13 : E(X|F) est G ∨ F mesurable. Soit F ∈ F et G ∈ G, on a
alors, en utilisant l’indépendance
E(X11F 11G ) = E(X11F )E(11G )
Corrigés. 2005-06
113
et
E(11F 11G E(X|F)) = E(11F E(X|F))E(11G )
donc E(X11F 11G ) = E(11F 11G E(X|F)). Nous avons donc montré que E(X11H ) =
E(11H E(X|F)) pour tout H ∈ G ∨ F de la forme H = F ∩ G. Ces ensembles engendrent la tribu G ∨ F et forment une famille stable par intersection. L’application qui à H associe E(X11H ) (resp. E(11H E(X|F))) définit une
mesure positive sur cette tribu, les deux mesures, après normalisation par E(X)
sont des probabilités (c’est-à-dire l’application qui à H associe E(X11H )/E(X)
est une probabilité) qui coincident sur les ensembles de la forme F ∩ G, donc,
par théorème de classe monotone, elles coincident sur la tribu engendrée.
Exercice 1.3.14 :
Seule la réciproque demande une démonstration. Si
EQ (X|G) = EP (X|G) alors EP (LX|G) = EP (X|G)EP (L|G) = EP (XEP (L|G)|G)
D’où EP (X(L − EP (L|G))|G) = 0 pour tout X. Il en résulte (prendre X =
L − EP (L|G)) que L − EP (L|G) = 0.
Z
Exercice 1.3.15 : Soit dQ = Ψ(X)dP . On a EP (φ(X)) = φ(x)f (x)dx, EQ (φ(X)) =
Z
EP (Ψ(X)φ(X)) = Ψ(x)φ(x)f (x)dx. Il suffit de choisir Ψ telle que Ψ(x)f (x) =
g(x).
1.4
Martingales
Exercice 1.4.1 : Soit s ≥ t et Xt = E(X|Ft ). On a, en utilisant Ft ⊂ Fs
E(Xs |Ft ) = E(X|Fs |Ft ) = E(X|Ft ) = Xt .
Exercice 1.4.2 : Soit Xt = Mt − At . On a, pour t ≥ s E(Xt |Fs ) = Ms −
E(At |Fs ) et comme As ≤ At ou −At ≤ −As , E(Xt |Fs ) ≤ Ms − E(As |Fs ) =
Ms − As = Xs .
Exercice 1.4.3 : C’est le lemme de Fatou: de l’inégalité
E(Mt∧τn |Fs ) = Ms∧τn
on en déduit l’inégalité de surmartingale en utilisant que Ms∧τn converge vers
Ms et que
lim E(Mt∧τn |Fs ) ≤ E(lim Mt∧τn |Fs ) = E(Mt |Fs )
(le lemme de Fatou assure que lim E(Xn |G) ≤ E(lim Xn |G) si les v.a. sont positives).
Soit F ∈ F et G ∈ G E(X11F 11G ) = E(11F 11G E(X|F)) car E(X11F 11G ) =
E(X11F )E(11G ) et E(11F 11G E(X|F)) = E(11F E(X|F))E(11G ).
114
Rappels
Exercice 1.4.4 : Par définition de la propriété de martingale, Xt = E(XT |Ft ).
Cette propriété est à la base de tous les calculs d’évaluation en finance. En effet, ces formules reposent sur le fait qu’un certain processus est une martingale
et donc que sa valeur à l’instant t est l’espérance conditionnelle de sa valeur
terminale.
Exercice 1.4.7 : Soit G = (Gt , t ≥ 0) la filtration de M , c’est à dire Gt =
σ(Ms , s ≤ t). Par définition, Gt ⊂ Ft (La martingale M est F adaptée, et la
filtration de M est la plus petite filtration telle que la propriété d’adaptation
soit vraie. On a alors E(Mt |Gs ) = E(Mt |Fs |Gs ) = E(Ms |Gs ) = Ms On peut
aussi montrer que si que si M est une F-martingale et Ht ⊂ Ft , E(Mt |Ht ) est
une H-martingale.
Exercice 1.4.8 : Pour s < t, on a (τ ≤ s) ⊂ (τ < t), d’où
Zt = E(τ ≤ t|Ft ) ≥ E(τ ≤ s|Ft )
et le résultat suit en prenant l’espérance conditionnelle par rapport à Fs .
1.5
Temps d’arrêt
Exercice 1.5.1 : La seule difficulté est la stabilité par passage au complémentaire.
Si A ∈ Fτ on écrit
Ac ∩ (τ ≤ t) = (τ ≤ t) − (A ∩ (τ ≤ t) ∈ Ft
Exercice 1.5.2 :Par hypothèse sur X, pour tout a, {X ≤ a} ∈ FT Par
définition de la tribu FT , {X ≤ a} ∩ {T ≤ t} ∈ Ft . Par suite {X ≤ a} ∩ {T ≤
a} ∈ Fa . Le premier membre de cette inclusion est {X ≤ a}.
Exercice 1.5.4 : Il suffit d’écrire
A ∩ (T ≤ t) = A ∩ (S ≤ t) ∩ (T ≤ t)
et donc, si A ∈ FS on a A ∩ (T ≤ t) ∈ Ft .
Exercice 1.5.5: Il suffit d’écrire
(S ≤ a) ∩ (S ≤ t) = (S ≤ (a ∧ t)) ∈ Fa∧t
Exercice 1.5.6: Montrons que S ≤ T ∈ FT . pour cela , on écrit
(S ≤ T ) ∩ (T ≤ t) = (S ∧ t ≤ T ∧ t) ∩ (T ≤ t) ∩ (S ≤ t)
et chacu des trois ensembles du membre de droite est dans Ft (car S ∧ t est plus
petit que t donc Ft mesurable.
Corrigés. 2005-06
115
On introduit R = S ∧ T . C’est un temps d’arrêt, FR mesurable avec
FR ⊂ FT . Donc (R = T ) ∈ FT , et (R < T ) ∈ FT , par suite (S < T ) ∈ FT et
S = T ∈ FT , ainsi que T ≤ S et T < S.
Exercice 1.5.7 : Soit ω fixé. La fonction t → Zt (ω) vaut 1 pour t ∈ [S(ω), T (ω[
et 0 sinon. Elle est continue sur les trois intervalles [0, S(ω)[, ]S(ω), T (ω)[, ]T (ω), ∞[.
Elle est continue à droite en S(ω) car si t → S(ω) ”par la droite” (soit t > S(ω)),
Zt (ω) = 1 tend vers ZS(ω) (ω) = 1.
Exercice 1.5.11 : Utiliser le théorème d’arrêt et le temps d’arrêt Ty pour
y > a. On a E(MTy ∧t ) = a. On fait alors tendre t vers l’infini MTy ∧t converge
vers y sur Ty < ∞ et vers 0 sinon. (et est borné). D’où P (Ty < ∞) = a/y. Il
reste à remarquer que P (Ty < ∞) = P (sup Mt ≥ y).
1.6
Temps discret
Exercice 1.6.3 : L’égalité E(Xn+p |Fn ) = Xn est vraie pour p = 1. En utilisant
E(Xn+p |Fn ) = E(Xn+p |Fn+p−1 |Fn ) = E(Xn+p−1 |Fn )
on démontre le résultat par récurrence.
Exercice 1.6.4 : On obtient
E((H · M )n |Fn−1 )
n
X
=
E(Hk (Mk − Mk−1 ) |Fn−1 )
k=1
n−1
X
=
Hk (Mk − Mk−1 ) + E(Hn (Mn − Mn−1 ) |Fn−1 )
k=1
n−1
X
=
Hk (Mk − Mk−1 ) + Hn E(Mn − Mn−1 |Fn−1 )
k=1
n−1
X
=
Hk (Mk − Mk−1 )
k=1
1.7
Algèbre béta-gamma
1.8
Divers
Exercice 1.8.1 :
Z
E(exp −λMτ )
∞
= E(θ
0
Z
dte−θt e−λMt ) = E(θ
0
∞
Z
dte−θt λ
∞
Mt
e−λu du)
116
Brownien.
Z
Z
∞
= E(θ
dt
0
Z ∞
= θE(
0
0
∞
Z
due−θt λ11u>Mt e−λu ) = E(θ
Z
Tu
due−λu λ
0
Z
dte−θt ) =
∞
Z
∞
du
0
0
∞
dte−θt λ11Tu >t e−λu )
due−λu λ(1 − e−θTu )
0
λX
Exercice 1.8.2 : La partie directe est évidente, car e et eλY sont indépendantes.
La réciproque n’est pas vraie, comme le montre le contre exemple suivant: Soit
X, Y telles que P (X = i, Y = j) = ai,j où les ai,j sont donnés pas les coefficients
de la matrice


1/9 1/6 1/18
 1/18 1/9 1/6 
1/6 1/18 1/9
La loi de X est égale à celle de Y et P (X = i) = 1/3 = P (Y = j). On vérifie
que X et Y ne sont pas indépendantes (par exemple P (X = 1, Y = 3) 6= 1/9.
La loi de X + Y est égale à la loi de X1 + Y1 où X1 a même loi que X, Y1 a
même loi que Y et X1 et Y1 sont indépendantes.
Cet exercice montre que la loi de la somme de deux v.a. dépend très fortement de la loi du COUPLE. Rappellons à ce sujet que si Z1 et Z2 sont gaussiennes, cela n’implique pas que Z1 +Z2 est gaussienne: Le contre exemple suivant
du à Nelson le prouve: Soit n la densité gaussienne réduite centrée et u une fonction impaire continue, nulle hors de [−1, +1] telle que |u(x)| < (2πe)−1/2 . On
vérifie que f (x, y) = n(x)n(y) + u(x)u(y) est une densité, que les lois marginales
sont normales, et la loi de la somme n’est pas normale.
Par contre, si le vecteur (X, Y ) est gaussien, la somme X + Y est gaussienne.
Pour que le vecteur (X, Y ) soit gaussien, il faut et il suffit que X soit gaussien
et que la loi conditionnelle de Y à X soit gaussienne.
Chapter 2
Mouvement Brownien,
Corrigés
2.1
Propriétés élémentaires
Exercice 2.1.1 : Trivial. Ceci constitue une caractérisation du mouvement
Brownien comme processus gaussien.
Exercice 2.1.2 :
1. On a E(Bs Bt2 ) = E( E(Bs Bt2 |Fs )). La variable Bs est Fs -mesurable,
d’où, si t > s, E(Bs Bt2 ) = E(Bs E(Bt2 |Fs )).
On sait que Bt2 − t est une martingale, d’où E(Bt2 |Fs ) = Bs2 − s + t. En
utilisant que Bt est centré et que E(Bt3 ) = 0, on obtient que
E(Bs Bt2 ) = E(Bs (Bs2 − s + t)) = E(Bs3 ) = 0.
Si s > t, on a E(Bs Bt2 ) = E( E(Bs Bt2 |Ft )) = E(Bt2 E(Bs |Ft )) = E(Bt3 ) =
0.
2. Le MB est une martingale, donc E(Bt |Fs ) = Bs pour t ≥ s et E(Bt |Fs ) =
Bs pour t < s car Bt est Fs -mesurable dans ce cas. Si s < t, E(Bt |Bs ) =
E(Bt −Bs +Bs |Bs ) = E(Bt −Bs |Bs )+Bs = Bs car Bt −Bs est indépendant
de Bs et centré. Si t < s, on s’inspire du pont Brownien (voir ex suivant)
t
t
t
pour écrire E(Bt |Bs ) = E(Bt − Bs |Bs ) + Bs . La v.a. Bt − Bs
s
s
s
t
est centrée et indépendante de Bs : en effet, le couple (Bt − Bs , Bs )
s
est un couple gaussien centré et sa covariance est nulle. On en déduit
t
E(Bt |Bs ) = Bs .
s
On peut aussi utiliser les résultats sur le conditionnement d’un vecteur
gaussien.
117
118
Brownien.
3. La variable Bt + Bs est gaussienne (car B est un processus gaussien)
centrée. On peut aussi écrire (Bt + Bs ) comme une somme de v.a. gaussiennes indépendantes: Bt + Bs = Bt − Bs + 2Bs . On en déduit que sa
variance est t + 3s.
4. Soit θs une variable aléatoire bornée Fs -mesurable. On a, pour s ≤ t
E(θs (Bt − Bs )) = E(E(θs (Bt − Bs )|Fs )) = E(θs E((Bt − Bs )|Fs )) = 0.
De même
E(θs (Bt −Bs )2 ) = E(E(θs (Bt −Bs )2 |Fs )) = E(θs E((Bt −Bs )2 |Fs )) = (t−s)E(θs ).
Z
5. E(11Bt ≤a ) =
Ω
Z
11Bt ≤a dP =
a
−∞
x2
1
√
exp(− ) dx =
2t
2πt
Z
√
a/ t
−∞
y2
1
√ exp(− ) dy =
2
2π
a
N ( √ ). On peut aussi écrire
t
√
√
E(11Bt ≤a ) = P (Bt ≤ a) = P ( tU ≤ a) = P (U ≤ a/ t) où U est une v.a.
de loi N (0, 1).
Z a
Z a/√t
√
1
x2
1
y2
E(Bt 11Bt ≤a ) =
x√
exp(− ) dx = t
y √ exp(− ) dy
2t
2
2πt
2π
−∞
−∞
et la dernière intégrale se calcule facilement.
Exercice 2.1.3 :
Pour t > u, la propriété d’indépendance et de stationarité des accroissements
conduit à
√
loi
bt−u + Bu )) loi
bt−u + uG))
f (Bt ) = f (Bt − Bu + Bu ) = f (B
= f (B
bs = Bs+u − Bu est un MB indépendant de Fu .
où B
Exercice 2.1.4 :
On peut calculer la densité de BΘ
Z
Z ∞
x2
1
√
P (BΘ ∈ dx) = P (Bt ∈ dx)θe−θt 11t>0 dt =
exp(− )θe−θt dt
2t
2πt
0
On trouve
√
2θ −|x|√2θ
e
dx
2
mais ce calcul d’intégrale n’est pas trivial. Cependant, on peut y arriver sans
utiliser un attirail lourd de changement de variables. On sait que la transformée
de Laplace du temps d’atteinte du niveau a par un mouvement Brownien est
√
2
|a|
e−|a| 2λ et que la densité de ce temps d’atteinte est √
e−a /2u . Ce qui
2πu3
s’écrit
Z ∞
√
|a| −a2 /2t
−|a| 2λ
= E(e−λTa ) =
e−λt √
e
dt .
2πt3
0
P (BΘ ∈ dx) =
Corrigés. 2002-03
119
Par dérivation par rapport à λ, on obtient
Z ∞
√
|a|
|a| −a2 /2t
√ e−|a| 2λ =
e−λt √
e
dt .
2πt
2λ
0
D’où
Z
∞
λ
e
−λt
0
1 −a2 /2t
√
e
dt =
2πt
√
2λ −|a|√2λ
e
.
2
Exercice 2.1.5 :
3
3
1. Le processus M est F-mesurable. Mt est intégrable: E(|B
|) = Ct 2 où C
Z t
Z t
Z t rt
2s
est une constante et E|
Bs ds| ≤
E(|Bs |) ds =
ds < ∞.
π
0
0
0
En utilisant que, pour t > s, la v.a. Bt − Bs est indépendante de Fs , on
obtient
E(Bt3 |Fs ) = E((Bt −Bs +Bs )3 |Fs ) = E((Bt −Bs )3 )+3Bs E(Bt −Bs )2 +3Bs2 E(Bt −Bs )+Bs3
d’où E(Bt3 |Fs ) = 3Bs (t − s) + Bs3 .
D’autre part
Z t
Z t
Z
E(
Bu du|Fs ) =
E(Bu |Fs ) du =
0
0
s
Z t
Z
E(Bu |Fs ) du+
E(Bu |Fs ) du =
0
s
s
Bu du+Bs (t−s)
0
La propriété de martingale est alors facile à vérifier.
2. Des calculs analogues montrent que Bt3 − 3tBt est une martingale. Il
suffit de montrer que pour s < t, E(Bt3 − 3tBt |Fs ) = Bs3 − 3sBs . Or, en
utilisant que Bt −Bs est indépendant de Fs , on obtient E((Bt −Bs )3 |Fs ) =
E((Bt −Bs )3 ) = 0 car E(X 3 ) = 0 si X est une variable gaussienne centrée.
Il reste à utiliser (a − b)3 = a3 − 3a2 b + 3ab2 − b3 pour obtenir
E(Bt − Bs )3 |Fs ) = E(Bt3 |Fs ) − 3Bs E(Bt2 |Fs ) + 3Bs2 E(Bt |Fs ) − Bs3
= E(Bt3 |Fs ) − 3Bs (Bs2 − s + t) + 3Bs2 Bs − Bs3
Le processus Bt3 − 3tBt est une martingale, donc par différence tBt −
Z t
Z t
Bs ds est une martingale, égale (intégration par parties) à
sdBs .
0
0
3. La v.a. Xt est Ft mesurable et intégrable : en effet |Xt | ≤ t|Bt | +
Z t
|Bs |ds = Z et il est facile de vérifier que Z est intégrable (soit E(Z) <
0
2t
∞, car E(|Bt |) = √ ).
2π
Soit t > s.
E(Xt |Fs ) =
=
Z t
Z t
E(tBt −
Bu du|Fs ) = tE(Bt |Fs ) −
E(Bu |Fs )du
0
0
Z s
Z t
Z s
Z
tBs −
Bu du −
Bs du = tBs −
Bu du − Bs (t − s) = −
0
s
0
s
Bu du + Bs s = Xs
0
120
Brownien.
le processus X est une martingale.
On peut aussi appliquer la formule d’Itô et Zvérifier que dXt = tdBt .
t
Comme f (s) = s est de carré intégrable (soit
s2 ds < ∞) , l’intégrale
0
Z t
sdBs est une martingale. On peut aussi remarquer que, par
de Wiener
0
Z t
intégration par parties, Xt =
sdBs .
0
4. On verra plus tard que U n’est pas une martingale. On peut remarquer
que E(Ut ) n’est sans doute pas constant.
Z t
Z t
5. Soit t > s. E(Yt |Fs ) = E(t2 Bt −2
Bu du|Fs ) = t2 E(Bt |Fs )−2
E(Bu |Fs )du =
0
0
Z t
Z s
Z s
t2 Bs − 2
Bu du − 2
Bs du = t2 Bs − 2
Bu du − 2Bs (t − s) = Ys +
0
s
0
(t2 − s2 )Bs − 2Bs (t − s) Pour que Y soit une martingale, il faudrait que
0 = (t2 − s2 )Bs − 2Bs (t − s) = (t − s)Bs (t + s − 2), ce qui n’est pas.
Exercice 2.1.6 : En écrivant Mt = −(Bt2 − t) + (a + b)Bt − ab et en utilisant
que B et (Bt2 − t, t ≥ 0) sont des martingales, le caractère martingale de M
provient de la structure espace vectoriel de l’ensemble des martingales. Le processus Mt∧Ta,b est une martingale de valeur initiale −ab, donc E[Mt∧Ta,b ] = −ab.
Le temps d’arrêt Ta,b , majoré par Ta est fini. Lorsque t converge vers l’infini
Mt∧Ta,b = (a−Bt∧Ta,b )(Bt∧Ta,b −b)+t ∧ Ta,b converge vers (a−BTa,b )(BTa,b −b)+
Ta,b = Ta,b , car (a − BTa,b )(BTa,b − b) = 0. La quantité (a − Bt∧Ta,b )(Bt∧Ta,b − b)
est majorée par (a − b)2 et la quantité t ∧ Ta,b converge en croissant vers Ta,b
dont on ne sait pas qu’elle est intégrable. On peut conclure en appliquant le
théorème de Lebesgue dominé pour la partie E(a − Bt∧Ta,b )(Bt∧Ta,b − b) et le
théorème de convergence monotone pour la partie portant sur le temps d’arrêt.
On en déduit E(Ta,b ) = −ab.
Exercice
2.1.9 :Soit t ≥ s.¸ Ex (f (Bt )g(Bs )) = Ex (f (B̂t−s
·Z
Z + Bs )g(Bs )) =
E
dyf (y)pt−s (Bs , y)g(Bs ) = E(Ψ(Xs )) avec Ψ(z) = g(z) f (y)pt−s (z, y)dy.
Z
D’où Ex (f (Bt )g(Bs )) = ps (x, z)Ψ(z)dz.
Autre mode de raisonnement: On applique la propriété de Markov.
Ex (f (Bt )g(Bs )) = Ex (g(Bs )E((f (Bt )|Fs )) = Ex (g(Bs )E((f (Bt )|Bs )) = Ex (g(Bs )ϕ(Bs ))
R
avec ϕ(z) = Ez (f (Bt−s )) = f (y)pt−s (z, y)dy.
Exercice 2.1.11 :
Ex (exp −λ(Wt )2 ) = √
1
λx2
exp(−
)
1 + 2λt
1 + 2λt
Corrigés. 2002-03
121
Z
1
Exercice 2.1.13 : E|
0
Bs
ds| ≤
s
Z
1
E|
0
Bs
|ds = c
s
Z
0
1
1
√ ds < ∞.
s
Exercice 2.1.14 Utiliser que {Bt < 0} ⊂ {τ ≤ t}.
Exercice 2.1.16 La quantité e−λt u(Bt ) est majorée par e−λt M , qui est intégrable
sur [0, ∞], d’où l’existence de f et g.
La suite d’égalités
µZ ∞
¶
µ ·Z ∞
¸¶
−λt
−λt
Ex
dte u(Bt )
= Ex Ex
dte u(Bt ) |Fτ
·Z ∞ τ
¸
·Z τ∞
¸
−λt
−λτ
−λt
Ex
dte u(Bt )|Fτ
= e
Ex
dte u(Bt+τ − Bτ + Bτ )|Fτ
τ
0
·Z ∞
¸
Z ∞
Ex
dte−λt u(Bt+τ − Bτ + Bτ )|Fτ
=
dte−λt Ex (u(Bt+τ − Bτ + Bτ )|Fτ )
0
0
Ex (u(Bt+τ − Bτ + Bτ )|Fτ )
bt )]
= EBτ [u(B
b étant le Brownien
où la dernière égalité résulte de la propriété forte de Markov, B
(Bt+τ − Bτ , t ≥ 0), indépendant de Fτ , conduisent à
µZ ∞
¶
−λt
Ex
dte u(Bt ) = Ex (e−λτ ψ(Bτ ))
τ
Z
avec ψ(x) =
∞
bt )] = f (x) ce qui est le résultat souhaité.
dte−λt Ex [u(B
0
Exercice 2.1.17 : Il suffit d’écrire
X αk
k!
E(Btk |Fs ) =
X αk
k!
Hk (Bs , −(t − s))
Exercice 2.1.19 :P (au moins un zero dans ]s, t[|Bs = a) = T (Ta ≤ t − s).
Il reste à calculer
Z ∞
Z t−s
2
1
a2
2
da √
e−a /2s
dx(2πx3 )−1/2 a exp(− )
2x
2πs
0
0
On utilise Fubini et de la trigo.
2.2
Processus Gaussien
Z
t
Exercice 2.2.1 : Soit Yt =
Bu du. Le processus Y est défini trajectoire
0
par trajectoire, comme intégrale de Riemann d’une fonction continue. En particulier, on a dYt = Bt dt. Le processus Y est un processus gaussien. Tout
d’abord, Yt est une gaussienne comme limite de sommes de Riemann qui sont
des gaussiennes car B est un processus gaussien. Le caractère gaussien du processus s’obtient par un raisonnement analogue.
122
Brownien.
Z
t
On a E(Yt ) =
E(Bu ) du = 0.
0
Z
Z
t
La covariance de Y est E(Yt Ys ) =
0
Z
dvE(Bu Bv ). Il reste à intégrer
0
·Z
t
s
du
¸
s
du
dv(u ∧ v) .
0
0
On se place dans le cas s < t et il vient
¸ Z t ·Z s
¸ Z
Z s ·Z s
E(Yt Ys ) =
du
(v ∧ u)dv +
du
(v ∧ u)dv =
0
0
s
Tous calculs faits, pour s < t: E(Yt Ys ) =
Exercice 2.2.2
La solution est
0
·Z
s
du
0
Z
u
s
vdv +
0
u
s2
(3t − s).
6
Z
t
Xt = e−at x + e−at
e(a+b)t dBt
0
On procède comme pour le processus d’OU. On peut aussi résoudre dXt =
−aXt dt ce qui donne Xt = ce−at et appliquer une méthode de variation de la
constante. On cherche un processus c tel que Xt = Ct e−at vérifie l’équation
(cette méthode ne prend toute sa signification que si on a vu le lemme d’Itô)
dXt = −aCt e−at dt + e−at dCt = −aXt dt + ebt dBt
d’ou e−at dCt = ebt dBt soit dCt = e(b+a)t dBt . Il resterait à vérifier que l’on a
bien trouvé une solution, car on ne dispose pas du lemme d’Itô et on ne sait pas
justifier que la dérivée de Ct e−at est −aCt e−at dt + e−at dCt .
Exercice 2.2.4 :
1. Le processus (Zt = Bt − tB1 , 0 ≤ t ≤ 1) est un processus gaussien car
pour tout choix de (ai , ti )
X
X
X
a i Zt i =
ai Bti − (
ai ti )B1
est une v.a.r. gaussienne (B est un processus gaussien). De la même façon,
on obtient que le vecteur (Zt , B1 ) est gaussien. Ses deux composantes Zt
et B1 sont indépendantes car E(Zt B1 ) = E(Bt B1 ) − tE(B12 ) = 0. La
covariance de Z est
E(Zt Zs ) = E(Bs Bt ) − sE(B1 Bt ) − tE(Bs B1 ) + tsE(B12 ) = (s ∧ t) − st.
On appelle Z un pont Brownien.
¸ Z t ·Z
udv +
du
s
0
s
vd
Corrigés. 2002-03
123
2. Le processus (Yt = Z1−t , 0 ≤ t ≤ 1) est gaussien centré. Sa covariance est,
pour s ≤ t,
E(Yt Ys ) = (1 − t) ∧ (1 − s) − (1 − s)(1 − t) = (s ∧ t) − st = s(1 − t).
t .
3. Soit Yt = (1 − t)B 1−t
Le processus Y est un processus gaussien car
P
P
ai Yti =
bi Bsi . On a E(Yt ) = 0 et pour s < t
t B s ) = (1 − t)(1 − s)
E(Ys Yt ) = (1 − t)(1 − s)E(B 1−t
1−s
s
= s(1 − t)
1−s
Exercice
X2.2.5 : Par définition de l’intégrale de Riemann,
X toute combinaison
2
linéaire
ai Zti est limite dans L de sommes du type
bj Btj , d’où le cari
j
actère gaussien. (Attention, il ne faut pas se contenter de dire que Z est la
somme de deux processus gaussiens. La somme de deux v.a. gaussiennes n’est
pas nécessairement une gaussienne. Cette propriété est vraie si les variables
Z t
n
X
Bs
B ti
sont indépendantes) On utilise ici que
ds = lim
(ti+1 − ti ).
s
ti
0
i=0
Pour caractériser la loi du processus gaussien Z, il suffit de donner son
espérance et sa covariance( sa variance s’en déduira)
Il est immédiat de montrer que E(Zt ) = 0. Il reste à calculer la covariance. Soit
s < t.
Z t
Z s
Z t
Z
Bu
Bu
Bu s Bv
E(Zs Zt ) = E(Bs Bt )−E[
du]−E[Bt
du]+E[
Bs
du
dv
u
u
u 0
v
0
0
0
Z
On utilise que E(
Z
b
f (Bu )du) =
a
b
E[f (Bu )]du et que E(Bu Bv ) = u ∧ v).
a
Après quelques calculs d’intégration sur les intégrales doubles, il vient E(Zs Zt ) =
s. Le processus Z est un processus gaussien d’espérance nulle et de covariance
s ∧ t.
Le processus Z est donc un mouvement Brownien. Cependant le processus Z
n’est pas une (Ft ) martingale: pour s > t
Z s
1
E(Zs − Zt |Ft ) =
Bs du 6= 0
u
t
On a ici l’exemple d’un processus qui est un MB (et une martingale par rapport
à sa propre filtration), mais qui n’est pas un brownien, ni même une martingale
par rapport à une filtration plus grosse. Le problème est connu sous le nom de
grossissement de filtration. (Voir l’exercice sur l’agent initié, dans le chapitre
compléments)
124
Brownien.
u
u
u
t
Exercice 2.2.6 : Bu − Bt = (Bu −
Bt+h ) − (Bt −
Bt+h ) montre
t
t+h
t
t+h
u
la croissance et Bt est orthogonal à Bu − Bt .
t
Exercice 2.2.7 : Rappel : soit X est une v.a. de loi N (m; σ 2 ) et Y =
exp{λ(X − m) − 12 λ2 σ 2 }. Soit dQ = Y dP . Sous Q, X est une v.a. de densité
N (m + λσ 2 , σ 2 ).
On montre alors que B̃t = Bt − mt a une loi gaussienne sous Q.
On vérifie ensuite l’indépendance des accroissements: il s’agit de montrer que
EQ (φ(B̃t+s − B̃s ) ψ(B̃s )) = EQ (φ(B̃t+s − B̃s )) EQ (ψ(B̃s ))
pour toutes fonctions boréliennes bornées (φ, ψ). On a, par changement de
m2
t)
probabilité, avec Lt = exp(mBt −
2
A = EQ (φ(B̃t+s − B̃s ) ψ(B̃s )) = EP (Lt+s φ(B̃t+s − B̃s ) ψ(B̃s ).
On a B̃t+s − B̃s = Bt+s − Bs − mt.
En utilisant l’indépendance de Bt+s − Bs et de Bs (sous P ) et la forme de L,
on obtient
1
1
A = EP [exp(m(Bt+s −Bs )− m2 t)) φ(Bt+s −Bs −mt)] EP [exp(mBs − m2 s)ψ(B̃s )].
2
2
Sous P , Bt+s − Bs et Bt ont même loi, d’où
1
1
A = EP [exp(mBt − m2 t)φ(Bt − mt)] EP [exp(mBs − m2 s)ψ(B̃s )]
2
2
1
1
= EP [exp(mBt − m2 t)φ(B̃t )] EP [exp(mBs − m2 s)ψ(B̃s )]
2
2
ce qui conduit à
A = EQ (φ(B̃t )) EQ (ψ(B̃s )) .
Exercice 2.2.8 :
loi
sup(|Bt |−µtp/2 )| = sup(|Bλ2 s )|−µ(λ2 s)p/2 ) = sup(λ|Bs |−µ(λ2 s)p/2 ) = λ sup(|Bs |−sp/2 )
t
s
s
s
E(|BT |) ≤ E((|BT | − µT p/2 )) + µE(T p/2 ) ≤ E(supt (|Bt | − µtp/2 )) + µE(T p/2 )
2.3
Multidimensionnel
Exercice 2.3.2 : Si les coefficients σi sont des constantes, il suffit de définir
B3 (t) = √ 21 2 (σ1 B1 (t) + σ2 B2 (t)). Ce processus est un Brownien car c’est
σ1 +σ2
une martingale telle que (B32 (t) − t; t ≥ 0) est une martingale. Si les σ sont
Corrigés. 2002-03
125
déterministes, on pose dB3 = √
Le processus
1
(σ1 (t)dB1 (t)
σ12 (t)+σ22 (t)
1
B(3) (t) = p
1 − ρ2
+ σ2 (t)dB2 (t)).
(B(2) (t) − ρB(1) (t))
est une martingale
2
(t) =
B(3)
1
2
(t) − 2ρB(1) (t)B(2) (t)
(B 2 + ρ2 B(1)
1 − ρ2 (2)
Par définition de la corrélation, B(1) (t)B(2) (t) − ρt est une martingale. Il s’en
2
suit que B(3)
(t) − t est une martingale, donc B(3) est un MB. Il reste à montrer
que B(3) est indépendant de B(1) . On peut utiliser le théorème de RP pour
établir que si le coefficient de corrélation de deux MB est nul, ces processus sont
indépendants.
2.4
Temps d’atteinte
Exercice 2.4.1 : Soit λ > 0. Le processus M défini par Mt = exp(λBt − 21 λ2 t)
est une martingale. On applique le théorème d’arrêt de Doob. Si a > 0,
la martingale Mt∧Ta est uniformément intégrable, car majorée par exp(λa).
Donc E(exp(λBTa − 21 λ2 Ta )) = 1, soit E(exp(λa − 12 λ2 Ta )11Ta <∞ ) = 1. D’où
1
E(exp(− λ2 Ta ) 11Ta <∞ ) = exp −λa. Pour λ = 0; on obtient P (Ta < ∞) = 1,
2
1
puis E(exp(− λ2 Ta ) ) = exp −λa. En dérivant par rapport à λ2 , et en prenant
2
λ = 0, on en déduit l’espérance de Ta .
Exercice 2.4.2 : La propriété de Markov fort montre que B̂t = BTa +t − BTa =
BTa +t − a est indépendant de FTa , donc de Ta . Comme b > a, on a
Tb = inf{t : Bt = b} = inf{t ≥ Ta : Bt = b} = Ta + inf{t : B̂t = b − a}
loi
On en déduit que la v.a. Tb − Ta est indépendante de Ta et que Tb − Ta = Tb−a .
Le processus Ta est donc à accroissements indépendants et stationnaires. C’est
donc un processus de Lévy.
Exercice 2.4.3 : Appliquer le théorème d’arrêt de Doob à la martingale Bt et
à BT2 ∧n − (T ∧ n).
Exercice 2.4.5 : On note St = maxs≤t Ws .
maxs≤t Ws ∨ maxt<s≤T Ws on en déduit
En remarquant que ST =
P (τ > T |Ft ) = P (ST < a|Ft ) = 11St <a P ( max Ws − Wt < a − Wt |Ft )
t<s<T
126
Brownien.
fu = Wt+u −Wt est un MB indépendant de Ft . D’où P (maxt<s<T Ws −
Le processus W
Wt < a − Wt |Ft ) = Ψ(a − Wt ) avec
Z √x
√
T −t
2
2
Ψ(x) = P ( max W̃u < x) = P (|W̃T −t | < x) = P (| T − t G| < x) = √
e−u /2 du .
0<u<T −t
2π 0
√
d
Exercice 2.4.6 : Des calculs simples montrent que E(e−λT ) = E(exp −|Bd | 2λ)e−λd .
d
De même, E(11Bd ≤α e−λT
) = E(11Bd ≤α Φ(Bd ))e−λd avec Φ(x) = Ex (e−λT0 ) =
√
E0 (e−λTx ) = exp(−|x| 2λ. D’où
√
√
d
E(11Bd ≤α e−λT ) = E(11Bd ≤α exp(−|Bd | 2λ)e−λd ) = E(11G≤α/√d exp(G 2dλ)e−λd )
Exercice 2.4.9 : Par définition P (I ≤ x) = P (inf s≤T1 Bs ≥ −x) = P (T1 ≤
T−x ). En utilisant le théorème d’arrêt E(BT1 ∧T−x ) = E(B0 ) = 0, d’où
P (T1 ≤ T−x ) − xP (T1 ≥ T−x ) = 0 = P (T1 ≤ T−x ) − x(1 − P (T1 ≤ T−x ))
et P (T1 ≤ T−x ) =
x
.
1+x
Exercice 2.4.10 : On regarde la martingale exp θXt − λt pour un θ . Ensuite,
on montre que
(eβb − eβa )eαXt −λt + (eαab − eαb )eβXt −λt
√
√
est une martingale pour β = ν 2 + 2λ − ν, α = − ν 2 + 2λ − ν.
Exercice 2.4.11 : On utilise que (MTa∗ < y) = (supu<v Bu < y).
P (MTa∗ − y > x|MTa∗ > y) =
=
=
P (T ∗ > Tx+y |Ta∗ > Ty )
P (Mu − Bu ≤ a, Ty < u < Tx+y |Mu − Bu < a, ∀u < Ty )
P (M̃u − B̃u ≤ a, ∀u, 0 < u < T̃x ) = P (M̃Ta∗ ≥ x)
Pour obtenir le paramètre, on calcule l’espérance
0 = E(BT ∗ ∧n = E(MTa∗ ∧n ) − E(MTa∗ ∧n − BTa∗ ∧n )
et on passe à la limite E(MTa∗ ∧n ) = a.
Exercice 2.4.12 : Le processus exp[−2µXt /σ 2 ] est une martingale, en effet il est facile de mettre ce processus sous la forme exp(λBt − 12 λ2 t). On en
déduit que h(Xt ) est une martingale et que E(h(Xτ ∧t) ) = h(0). L’inégalité
|h(Xτ ∧t) )| ≤ supx∈[−B,A] (h(x)) permet d’appliquer le théorème de convergence
dominée.
Exercice 2.4.18 : On sait que (poly, Lamberton et Lapeyre 2nd edition, page
96, Musiela et Rutkowski p. 49, Voir aussi Karatzas et Shreve, page 95) si
Mt = sups≤t Ws
P (Wt ≤ x , Mt ≤ y) = P (Wt ≤ x) − P (Wt ≥ 2y − x)
Corrigés. 2002-03
pour
127
0 ≤ y, x ≤ y. On en déduit, par dérivation
P (Wt ∈ dx , Mt ≤ y) = √
1
1
x2
(2y − x)2
)
exp(− ) − √
exp(−
2t
2t
2πt
2πt
et
P (Mt ≤ y|Wt = x) =
(2y − x)2
x2
P (Wt ∈ dx , Mt ≤ y)
= 1 − exp(−
+ )
P (Wt ∈ dx)
2t
2t
Si le MB est issu de x, on utilise
P (sup Ws + x ≤ y|Wt + x = z) = P (Mt ≤ y − x|Wt = z − x)
s≤t
2.5
Scaling
Exercice 2.5.2 : La partie a) résulte de
loi
(T1 > t) = (1 > St ) = (1 >
√
tS1 ) = (
1
> t)
S12
La partie c) résulte de
d∆a
1
1
At ≥ 1, √ Bt = 0}
a
a
=
inf{t ≥ ∆a : Bt = 0} = inf{t :
loi
inf{t : At/a ≥ 1, Bt/a = 0} = ad∆1
=
et
loi
(Ag ≤ a) = (g ≤ ∆1 ) = (1 ≤ d∆a = (1 ≤ ad∆1 ) = (
1
≤ a)
d∆1
loi
La partie d) est facile. Dans ce cas ∆1 = T1∗ = inf{t : sups≤t |Bs | ≥ 1}.
Exercice 2.5.3 :
P ( sup |Wt | ≤ x) = P (
1≤t≤1
2.6
sup
1≤t≤(1/x2 )
|Wt | ≤ 1) = P (M1 ≥
Compléments
bt )2 )
Exercice 2.6.1 : On calcule E((Bt − B
bt )2 ) =
E((Bt − B
bt2 ) − 2E(Bt B
bt )
E(Bt2 ) + E(B
bt )
= 2t − 2E(Bt B
Il reste à calculer
¡
¢
bt ) = E[ E (Bt B
bt |Gt ]) = E(B
bt2 ) = t
E(Bt B
1
)
x2
128
Brownien.
bt )2 ) = 0; il s’en suit l‘égalité souhaitée.
d’où E((Bt − B
(s) def
Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u ≤ s, βu =
u
u
u s
(s)
Bu − Bs ∈ Πt . Il suffit d’écrire βu = Bu − Bt + ( Bt − Bs ) = βu(t) −
s
t
s t
u
u (t)
(t)
βs . Le processus (βu ; u ≤ t) est indépendant de la variable Bt (calculer
s
t
u
(s)
les covariances), et Bu = (βu + Bt est la décomposition orthogonale de B,
Z t t
b est un processus
la projection de Ft est donc
f (s)ds βs(t) . Le processus B
0
gaussien centré de covariance t ∧ s, c’est un MB (On peut aussi le voir en
utilisant des résultats d’unicité en loi de solution d’équa diff) Il est facile de
montrer que
Z s
du (t)
(t)
b
Bs = βs −
βu
0 u
et que, en particulier
Z t
du (t)
bt = −
B
βu
0 u
Z t
D’où l’égalité des tribus. Il en résulte, en notant F̄ (t) =
f (s)ds et en utilisant
0
une intégration par partie que
Z t
Z t
Z t
F̄ (s) b
bs − Bt F̄ (t) +
dBs .
f (s)dBs =
f (s)dB
t
s
0
0
0
Exercice 2.6.7 : On utilisera le théorème de représentation prévisible pour
(1)
(2)
représenter Wt , Wt en terme de W (3) . Si l’égalité était possible, on aurait
Z t
Z t
Z t
(i)
(1)
(2)
(i) 2
(2)
Wt =
Φ(i)
dW
avec
E[Φ
]
ds
=
t
et
E(W
W
)
=
E(
Φ(1)
s
t
t
s
s
s Φs ds) =
0
0.
0
0
Exercice 2.6.8 : Les premiéres questions se traitaient en utilisant des formules
d’intégration par parties, ou la formule d’Itô. A la main, on calcule
Z t
Z t
Z t Z s
Z t Z s
Ws − Xs
Ws
Wu
1
Bt +
ds = Bt +
ds −
ds
du
−
ds
dBu
2
1
−
s
1
−
s
(1
−
u)
1
−
u
0
0
0
0
0
0
Z t
Z t
t−u
Ws
t−s
= Bt −
dBu +
(1 −
)ds
1
−
u
1
−
s
1
−s
0
0
Z t
Z t
t−u
Ws
t−s
(1 −
=
)dBu +
(1 −
)ds
1
−
u
1
−
s
1
−s
0
0
Z t
Z t
1
Ws
= (1 − t)
dBu + (1 − t)
ds
1
−
u
(1
− s)2
0
0
Par différentiation
dXt
= (1 − t)
Wt
dt − dt
(1 − t)2
Z
0
t
1
Ws
ds + (1 − t)
dBt − dt
(1 − s)2
1−t
Z
0
t
1
dBs
1−s
2002-03
=
129
Wt
1
dt + dBt −
Xt dt
1−t
1−t
Le calcul de la covariance du processus Gaussien X s’obtenait en appliquant
plusieurs fois le résultat d’isométrie
Z t
Z s
Z t∧s
E(
f (u)dWu
g(u)dWu ) =
f (u)g(u)du
0
Z
0
Z
t
s
f (u)dWu et
et en remarquant que les v.a.
0
On trouvait pour s < t
0
g(v)dBv sont indépendantes.
0
E(Xs Xt ) = s + 2s(1 − t) + (2 − s − t) ln(1 − s)
2.7
Finance
Exercice 2.7.1 : On calcule séparément E(St 11St <K ) et E(11St <K ). On trouve
E(e−rt (St − K)+ ) = xN (d1 (t)) − Ke−rt N (d2 (t))
avec
√
1
x
1
√ (ln( + σ 2 t + rt), d2 (t) = d1 − σ t
K
2
σ t
En appliquant la propriété de Markov, on en déduit
d1 (t) =
E(e−r(t−s) (St − K)+ |Fs ) = xN (d1 (t − s)) − Ke−r(t−s) N (d2 (t − s)) .
Exercice 2.7.2 : Nous présentons le calcul pour deux dates. Il s’agit de calculer
l’espérance de
(ST − St1 )+ 11St1 <K + (ST − K)+ 11K<St1
On utilise la formule de BS.
E[(ST − St1 )+ 11St1 <K ]
=
E((ST − St+1 |Ft1 ) =
=
avec
d1 =
Il vient
E[11St1 <K E((ST − St+1 |Ft1 )]
E((ST − St+1 |§t1 )
St1 N (d1 ) − St1 e−r(T −t1 ) N (d2 )
1
1
√
( σ 2 (T − t1 ) + r(T − t1 ))
σ T − t1 2
E[(ST − St+1 11St1 <K = aE(St1 11St1 <K
avec
a = N (d1 ) − N (d2 )e−r(T −t1 )
E[(ST − K)+ 11{K<St1 } ] = E[11{K<St1 } (St1 N (d∗1 ) − Ke−r(T −t1 ) N (d∗2 )
d∗1 =
St
1
1
√
(ln( 1 + σ 2 (T − t1 ) + r(T − t1 ))
K
2
σ T − t1
130
Itô. Corrigés
Chapter 3
Intégrale d’Itô, Corrigés
3.1
Intégrale de Wiener
Rt
Rt
Exercice 3.1.1 : On a tBt = 0 sdBs + 0 Bs ds (en utilisant la formule
d’intégration par parties) et E(Yt ) = 0, E(Ys Yt ) = ts(t ∧ s). Le processus Y est
un processus gaussien (c’était d’ailleurs évident par définition de Y ). On peut
aussi utiliser la formule d’Itô (voir plus loin) qui conduit à dYt = tdBt + Bt dt.
Z
t
Exercice 3.1.2 : La v.a. Xt =
(sin s) dBs est définie, car
0
Rt
0
sin2 s ds < ∞,
pour tout t.R Le processus X est gaussien d’espérance nulle et de covariance
s∧t
1
E(Xs Xt ) = 0 sin2 u du. Il vient alors E(Xt Xs ) = s∧t
2 − 4 sin 2(s ∧ t).
Le processus X est une martingale, d’où, pour s < t, on a E(Xt |Fs ) = Xs . La
dernière égalité résulte d’une IP.
Z
Exercice 3.1.3 : La v.a. Yt =
t
(tan s) dBs est définie, car
0
Rt
0
tan2 s ds < ∞
pour t < π2 . Le processus Y est gaussien, centré de covariance E(Yt Ys ) =
R s∧t
tan2 u du = tan(s ∧ t) − (s ∧ t).
0
Le processus Y est une martingale.
Exercice 3.1.4 : Soit
Z
t
Xt = (1 − t)
0
dBs
;0≤t<1
1−s
Z
En appliquant le Lemme d’Itô (ou une I.P.) à f (t, y) = (1−t)y et Yt =
0
131
t
dBs
1−s
132
Itô. Corrigés
(donc dYt =
Z t
dBt
dBs
dBt
) il vient dXt = (−dt)
+ (1 − t)
, d’où
1−t
1
−
s
1
−t
0
(
Xt
dXt =
dt + dBt ; 0 ≤ t < 1
t−1
X0 = 0
Z
t
On admet l’unicité de la solution. Le processus X est gaussien car
0
dBs
est
1−s
une intégrale de Wiener, et on a E(Xt ) = 0 et pour s < t
Z s
Z t
Z s
du
dBu
dBu
E(Xs Xt ) = (1−t)(1−s)E(
) = (1−t)(1−s)
= (1−t)s
1
−
u
1
−
u
(1
−
u)2
0
0
0
En particulier E(Xt2 ) = t(1 − t) d’où Xt tend vers 0 quand t tend vers 1. Le
processus X est un pont Brownien.
Z t
Exercice 3.1.5 : Formule évidente en écrivant Bt =
dBs et en utilisant
l’isométrie.
0
Z
Exercice 3.1.6 : E(
t2
Z
t2
(Bt − Bt1 ) dt|Ft1 ) =
E((Bt − Bt1 )|Ft1 ) , dt = 0.
t1
t1
Z t2
Z t2
Par intégration par parties
Bt − Bt1 ) dt = t2 (Bt2 − Bt1 ) −
tdBt =
t1
t1
Z t2
Z t2
(t2 − t)dBt On en déduit que la variance cherchée est
(t2 − t)2 dt.
t1
3.2
t1
Formule d’Itô
Exercice 3.2.1 : 1. Soit Xt = Bt2 . On a, en posant f (x) = x2
1
dXt = f 0 (Bt )dBt + f 00 (Bt ) dt = 2Bt dBt + dt .
2
2. Soit Xt = t + exp Bt . En posant f (t, x) = t + ex , on a
dXt = dt + exp Bt dBt +
1
exp Bt dt .
2
3. Soit Xt = Bt3 − 3tBt . En posant f (t, x) = x3 − 3tx on obtient
1
dXt = 3Bt2 dBt − 3tdBt − 3Bt dt + 3 2Bt dBt dBt = (3Bt2 − 3t)dBt .
2
On retrouve le caractère martingale de X établi au chapitre précédent.
Rt
Rt
Rs
Exercice 3.2.2 : Soit Xt = exp 0 a(s) ds et Yt = Y0 + 0 [b(s) exp(− 0 a(u)du) dBs ,
où a et b sont des fonctions déterministes. En utilisant la notation différentielle
2002-03
133
¡
¢
Rt
Rt
˙ t=
dXt = a(t) exp 0 a(s) ds dt et dYt = b(t) exp(− 0 a(u)du) dBt , d’où dXt dY
0. On pose Zt = Xt Yt . Par la formule d’Itô, on a
dZt = Xt dYt + Yt dXt = b(t) dBt + a(t)Xt Yt dt
Rt
soit dZt = a(t)Zt dt + b(t)dBt . Le processus (Zt exp − 0 a(s) ds = Yt ; t ≥ 0) est
une martingale locale.
Exercice 3.2.3 : La formule d’Itô donne (nous omettons les indices t
dY
= X1 X2 dt + t(X1 dX2 + X2 dX1 + dhX1 , X2 i
= X1 X2 dt + t(X2 f (t) + σ1 σ2 )dt + t(X1 σ2 + X2 σ1 )dB
Exercice 3.2.4 : La formule d’Itô appliquée à sin Bt donne
Z t
Z
1 t
sin Bt = 0 +
cos Bs dBs −
sin Bs ds,
2 0
0
Rt
Rt
d’où Yt = 0 cos Bs dBs . C’est une martingale, car E( 0 cos2 Bs ds) < ∞, pour
Rt
tout t. On a E(Yt ) = 0 et var Yt = E( 0 cos2 Bs ds).
Exercice 3.2.5 : En appliquant la formule d’Itô, on obtient
d(Xt2 +Yt2 ) = 2Xt dXt +2Yt dYt +dhXit +dhY it = 2Xt Yt dBt −2xt Yt dBt +(Xt2 +Yt2 )dt
En posant Zt = Xt2 + Yt2 on montre que le processus Z vérifie dZt = Zt dt ce
qui s’intègre en Zt = zet .
ExerciceZ 3.2.6 : Il est évident que dZt = Yt dBt . On calcule facilement
t
E(Ys2 ) =
e2s ds. Par suite L’intégrale stochastique est une martingale car
0
Z t
Z t
2
E(
Ys ds) =
E(Ys2 )ds < ∞
0
et E(Zt ) = 0, E(Zt2 ) = E(
Rt
0
0
Ys2 ds).
Exercice 3.2.7 : Soit dXt = a(Kt − Xt ) dt + σdBt . On voudrait que Xt =
f (Kt ). La formule d’Itô appliquée à f (Kt ) donne
1
dXt = f 0 (Xt )dKt + f 00 (Kt )σ 2 dt
2
soit
1
dXt = (f 0 (Kt )b + f 00 (Kt )σ 2 ) dt + f 0 (Kt )σdBt
2
Si on identifie les deux drifts, on obtient
1
a(Kt − f (Kt )) = f 0 (Kt )b + f 00 (Kt )σ 2
2
134
Itô. Corrigés
d’où f est solution de
1 2 00
σ f (x) + bf 0 (x) + af (x) = ax .
2
On résout cette EDO et on montre que f est de la forme
b
αeλ1 x + βeλ2 x + (x − )
a
avec λ1 et λ2 solutions de 12 σ 2 λ2 + bλ + a = 0.
Exercice 3.2.8 : Soit Xt =
Rt
0
σ(s) dBs −
1
2
Rt
0
σ 2 (s) ds. On a
1
dXt = σ(t) dBt − σ 2 (t) dt.
2
Soit Yt = exp Xt . On applique la formule d’Itô avec f (x) = ex .
dYt
=
=
=
1
exp(Xt ) σ 2 (t) dt
2
1
1
Yt (− σ 2 (t) dt + σ(t)dBt ) + Yt σ 2 (t) dt
2
2
Yt σ(t) dBt .
exp(Xt ) dXt +
Le processus Y est une martingale locale. C’est une martingale si
µZ t
¶
2 2
E
Yt σ (t) dt < ∞ .
0
Ce critère n’est pas très bon, nous en verrons d’autres par la suite.
Si σ est une constante, Y est un brownien géométrique avec drift nul. En
particulier,
σ2
Yt = exp(σBt −
t)
2
est une (vraie) martingale:
Vérifions à titre d’exercice dans ce cas les conditions d’intégrabilité:
1
Yt = exp Xt = exp(σBt − σ 2 t)
2
d’où
σ2
1
E(|Yt |) = E(Yt ) = E(exp(σBt −
t)) = √
2
2πt
Z
∞
1
2
x2
eσx− 2 σ t e− 2t dx = 1
−∞
E(Yt2 ) = E(exp(2σBt − σ 2 t)) = exp(σ 2 t) .
En particulier, si σ = 1 le processus exp( Bt − 2t ) est une martingale.
2002-03
135
Soit Zt =
1
Yt .
dZt = −
Pour calculer dZt , on peut utiliser la formule d’Itô
Yt σ(t)
1 2Yt2 σ 2 (t)
dBt +
dt = Zt (−σ(t)dBt + σ 2 (t)dt)
2
Yt
2
Yt3
ce qui va s’écrire
Z
t
Zt = Z0 exp(−
σ(s)dBs +
0
1
2
Z
t
σ 2 (s) ds)
0
formule que l’on peut obtenir directement en inversant l’exponentielle.
Exercice 3.2.9 : Par simple application de la formule d’Itô
dZt = (aZt + b)dt + cZt dWt
Exercice 3.2.10 : Dans le cas h = 0, on a
1
St = S0 e(r−q)t eσWt − 2 σ
1
2
t
= e(r−q)t Mt .
2
Donc Mt = M0 eσWt − 2 σ t est une martingale positive, d’espérance 1 et on peut
ct = Wt − σt est un MB.
l’utiliser comme densité de RN. Sous Q, le processus W
Dans le cas général
Rt
St = S0 e(r−q)t e
On en déduit e−
e−rT E(e−
RT
0
Rt
0
hs ds
h(Ss )ds
=
0
1
−(r−q)t
.
St Mt e
Ψ(ST )) = e−rT E(
hs ds σWt − 12 σ 2 t
e
.
Donc
1
1
MT e−(r−q)T Ψ(ST )) = e−qT EQ ( Ψ(ST )) .
ST
ST
On se place dans le cas ht = St−p et on pose Zt = Stp . Le calcul d Ito conduit à
dZt
1
pStp σdWt + (r − q)pStp dt + pdt + p(p − 1)Stp−2 St2 σ 2 dt
2 ¸
¶
µ·
1
= pZt σdWt + (r − q)p + p(p − 1)σ 2 Zt + p dt
2
= (aZt + b)dt + cZt dWt
=
Le processus f (Zt ) est une martingale locale si
1
f 0 (z)(az + b) + f 00 (z)c2 z 2 = 0 .
2
On pose g = f 0 . L’équation
1
g(z)(az + b) + g 0 c2 z 2 = 0
2
2
−1/c
a pour solution g(z) = α exp( c2b
. Les fonctions f recherchées (ce que
2 z )z
l’on appelle les fonctions d’échelle) sont les primitives de g.
136
Itô. Corrigés
Exercice 3.2.11 : Le processus Z est une martingale locale car dZt = cXt Zt dBt .
On a
dUt
Z
soit Ut = U0 + 2
=
=
2Xt dXt + dhXit
2Xt (a − bXt )dt + 2Xt dBt + dt
Z
t
t
Xs dBs +
(2Xs (a − bXs ) + 1)ds On en déduit
0
0
1 2
(X − X02 − t) =
2 t
Z
Z
t
Xs dBs + a
0
Z
t
t
Xs ds − b
0
0
Xs2 ds
Exercice 3.2.12 : Pour montrer que Z est une martingale locale, on calcule dZ et on vérifie que son drift est nul. On a Zt = f (t, Bt ) avec f (t, x) =
x2
1
√
exp −
Il en résulte que
2(1 − t)
1−t
dZt = −
Bt
Bt2
exp
−
dBt
2(1 − t)
(1 − t)3/2
Le processus (Zt , t < 1) est une martingale locale. C’est une vraie martingale
si pour tout T ≤ 1
Z
E[
T
0
Bt2
Bt2
exp
−
dt] < ∞
(1 − t)3
(1 − t)
Z
Le terme de gauche est majoré par E[
T
0
Bt2
dt] =
(1 − t)3
Z
T
0
t
dt < ∞.
(1 − t)3
a
Exercice 3.2.13 : Soit Zt = (Lt ) exp(−Γ(a)t). Alors
dZt = dMt + e−Γ(a)t (Lt )a (−Γ(a) + a(a − 1)φ)
où M est une martingale.
Exercice 3.2.14 : Il est facile d’établir que
dYt = −Yt [(2Xt at + σt2 (1 + 2Xt2 ))dt + 2Xt σt dWt ]
et, en utilisant que Xt = 0 et Yt = 1 on obtient 0 = −σt2 dt.
Exercice 3.2.22 : La fonction d’échelle de Xt = exp(Bt + νt) est s(x) = x−2ν .
Z t
Le processus croissant de s(X) est At =
(s0 σ)2 (Xs )ds.
0
Exercice 3.2.26 : On obtient facilement
b1−t + Bt )|Ft ) = ψ(t, Bt )
E(f (B1 )|Ft ) = E(f (B1 − Bt + Bt )|Ft ) = E(f (B
2002-03
137
avec
ψ(t, x) = E(f (x + B1−t )) .
(3.1)
D autre part, la formule d’Itô et la propriété de martingale de ψ(t, Bt ) conduisent
Z t
à ψ(t, Bt ) = E(f (B1 )) +
∂x ψ(s, Bs )dBs . On écrit (grace à 3.1)
0
∂x ψ(t, x) = E(f 0 (x + B1−t ))
et un raisonnement analogue au précédent montre que si on pose ϕ(t, x) =
E(f 0 (x + B1−t )) on obtient
ϕ(t, Bt ) = E(f 0 (B1 )|Ft )
3.3
Cas multidimensionnel
Exercice 3.3.1 : De façon évidente, on a
dS3 (t) =
1
1
[dS1 (t) + dS2 (t)] = [r(S1 (t) + S2 (t)] dt+σ1 S1 (t)dB1 (t)+σ2 S2 (t)dB2 (t) .
2
2
On peut remarquer que
q
σ12 S12 (t) + σ22 S22 (t) dB 3 (t) = (σ1 S1 (t)dB1 (t) + σ2 S2 (t)dB2 (t))
définit un Brownien B3 qui permet d’écrire
dS3 (t) = r S3 (t)dt + σ(t)S3 (t)dBt3
√ 2 2
σ1 S1 (t)+σ22 S22 (t)
où σ(t) =
est un processus.
S1 (t)+S2 (t)
En utilisant le lemme d’Itô, on obtient
1
σ1
σ2
dS4 (t) = S4 (t)(r dt − (σ12 + σ22 ) dt + dB1 (t) + dB2 (t)) ,
8
2
2
ce que l’on peut écrire
1
dS4 (t) = S4 (t)(r dt − (σ12 + σ22 ) dt + σdB4 (t)) .
8
Pour vérifier que B3 et B4 sont des browniens, on peut procéder de différentes
façons (voir aussi les exercices sur le Brownien)
a. Bi (t + s) − Bi (t) a même loi que Bi (s), cette loi est N (0, s) et les accroissements sont indépendants
b. Bi et (Bi2 (t) − t, t ≥ 0) sont des martingales et Bi est un processus continu
2
c. pour tout λ, le processus exp(λBi (t) − λ2 t) est une martingale.
138
Itô. Corrigés
3.4
Compléments
Exercice 3.4.1 : En utilisant le théorème de Fubini pour les intégrales doubles
Z x
Z z
Z x
Z x
Z x
F (x) =
dz
dyf (y) =
dyf (y)
dz =
dyf (y)(x − y)+
−∞
−∞
−∞
y
−∞
Par dérivation par rapport à la borne supérieure
Z x
Z ∞
F 0 (x) =
dyf (y) =
f (y)11x>y dy
−∞
−∞
Le lemme d’Itô conduit alors au résultat. La formule finale s’écrit aussi
Z t
Z ∞
f (Bs )ds = 2
LB (t, y)f (y)dy
0
avec LB (t, y) =
−∞
µ
¶
Z t
(Bt − y)+ − (B0 − y)+ −
11Bs >y dBs et est connue sous
0
le nom formule de temps d’occupation. Le processus LB (·, y) est le temps local
de B au point y entre 0 et t. La difficulté est de vérifier que le processus L(·, y)
est un processus croissant.
Exercice 3.4.2 : On a, en exprimant Xt comme le produit de exp W1 (t) et de
Z t
Ut =
exp[−W1 (s)] dW2 (s) qui vérifie dUt = exp[−W1 (t)] dW2 (t)
0
dXt
= exp W1 (t)(exp −W1 (t)) dW2 (t) + Ut (exp[W1 (t)]dW1 (t) +
=
1
dW2 (t) + Xt dW1 (t) + Xt dt
2
1
exp[W1 (t)]dt)
2
1
1
Soit f (x) = sinh x, alors, f 0 (x) = (ex +e−x ) = cosh x et f 00 (x) = (ex −e−x ) =
2
2
sinh x. O applique le lemme d’Itô:
q
1
1
dZt = cosh(W1 (t)) dW1 (t) + sinh(W1 (t)) dt = 1 + Zt2 dW1 (t) + Zt dt
2
2
Z t
def
Mt = W2 (t) +
Xs dW1 (s) est une martingale locale comme somme de deux
0
Z t
Z t
2
(1 + Xs2 )ds, d’où γs =
Xs ds =
martingales locales. Son crochet est t +
0
0
Z tp
Z
p
1 t
1 + Xs2 . En regroupant les résultats Xt =
1 + Xs2 dW3 (t) +
Xt dt
2 0
0
Z t
Z tp
1
Zs ds. On obtient donc l’égalité en loi de X
et Zt =
1 + Zs2 dW1 (s) +
2 0
0
et de Z.
2002-03
139
Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et le
lemme d’Itô conduit à
2 a − Wt
(a − Wt )2
dZt = 11St <a √ √
exp −
dWt .
2
2π T − t
3.5
Brownien géométrique et extensions
Exercice 3.5.1 : Soit dSt = St (b dt + σ dBt ) un brownien géométrique et
S̃t = e−bt St . La formule d’Itô montre que
d(S̃t ) = e−bt dSt − be−bt St dt = e−bt σSt dBt = S̃t σdBt .
D’après les exercices précédents
1
S̃t = S̃0 exp(σBt − σ 2 t)
2
et S̃ est une martingale. Il en résulte
1
St = S0 exp((b − σ 2 )t + σBt )
2
ou encore
1
St = Ss exp((b − σ 2 )(t − s) + σ(Bt − Bs )), s ≤ t
2
On obtient
1
E(St ) = S0 exp((b − σ 2 )t) E(exp σBt ) = S0 exp bt
2
en utilisant la transformée de Laplace de la gaussienne Bt , et en utilisant les
propriétés de l’espérance conditionnelle
µ
¶
1
E(St |Fs ) = Ss E exp((b − σ 2 )(t − s) + σ(Bt − Bs ))|Fs
2
¡
¢
Le calcul de E exp((b − 12 σ 2 )(t − s) + σ(Bt − Bs ))|Fs se fait aisément à partir
de celui de E(exp(σ(Bt − Bs ))|Fs ) = E(exp(σ(Bt − Bs ))) pour lequel il suffit
d’utiliser la transformée de Laplace de la v.a. gaussienne Bt − Bs . On obtient
E(St |Fs ) = exp(b(t − s))Ss .
Cette dernière formule s’obtient aussi directement en utilisant que S̃ est une
martingale.
Si Zt = (S̃t )−1 , on a dZt = Zt ((σ 2 − b) dt − σdBt ).
Rt
Ces calculs se généralisent. Soit dSt = St (bt dt+σt dBt ) et Yt = St exp(− 0 bs ds).
Rt
Rt
On a d(exp(− 0 bs ds) = bt exp(− 0 bs ds)dt. Le processus Y vérifie
Z t
Z t
Z t
dYt = exp(−
bs ds)dSt −St bt exp(−
bs ds)dt = exp(−
bs ds)St σt dBt = Yt σt dBt
0
0
0
140
Itô. Corrigés
et est une martingale locale.
La solution de dLt = −Lt θt dBt est une martingale locale, qui s’écrit
Z t
Z
1 t 2
Lt = L0 exp(−
θs dBs −
θ ds).
2 0 s
0
On pose Yt = St Lt . On a
dYt = St dLt + Lt dSt + d < S, L >t .
Par définition dhS, Lit = −St σt Lt θt dt, d’où
dYt = Yt ((bt − θt σt ) dt + σt dBt ) .
t
. Il vient alors
En finance, on utilise souvent le cas θt = − r(t)−b
σt
dYt = Yt (r(t) dt + σt dBt ) .
Rt
Soit Rt = exp(− 0 r(s) ds). Le processus Y R = LRS est une martingale locale
qui vérifie d(LRS) = LRSσdB.
Exercice 3.5.2 : Soit
et At =
R
1 t
t
0
dSt = St (rdt + σdBt )
ln Ss ds. On a St = S0 exp(σBt − 12 σ 2 t + rt) et
ln St = ln Ss + σ(Bt − Bs ) + (r −
σ2
)(t − s)
2
Le processus ln St est un processus gaussien, d’où At est une variable gaussienne.
RT
Soit G(t, T ) = T1 t (Bs − Bt ) ds. Le processus s → Bs − Bt est gaussien,
d’où G(s, T ) est une variable gaussienne. Le processus (Bs − Bt , s ≥ t) est
RT
indépendant de Ft donc G(t, T ) aussi, d’où E(G(t, T )|Ft ) = T1 t E(Bs −
Bt ) ds = 0.
1
Var (G(t, T )|Ft ) = E(G (t, T )) = 2
T
Z
2
T
Z
T
E((Bs − Bt )(Bu − Bt ))ds du .
t
t
E((Bs − Bt )(Bu − Bt )) = (s ∧ u) − t. Tous calculs faits
1 1 3 1 3
( T − t + tT (t − T ))
T2 3
3
³R
´
R
t
T
ln Ss ds + t ln Ss ds et en remarquant que
0
Var (G(t, T )|Ft ) =
En écrivant AT =
Z
1
T
T
ln Ss ds = (T − t) ln St +
t
1 r − σ2
(T − t)2 + σG(t, T )
2 2
2002-03
141
on obtient
AT =
t
t
1
σ2
At + (1 − )[ln St + (r −
(T − t)] + σG(t, T ).
T
T
2
2
Exercice 3.5.4 : Soit S̃t = e−rt St . On a vu déja plusieurs fois que S̃t est une
martingale (par exemple vérifier, en utilisant le lemme d’Itô, que dS̃t = S̃t σdBt ).
Soit Xt défini par
Z
e−rT T
e−rt Xt = E[
Suσ du |Ft ] .
h
T −h
On a, XT = VT et si t ≤ T − h
e
−rt
Xt = e
−rT
1
h
Z
T
E(Su |Ft ) du
T −h
soit
e−rt Xt = Stσ e−rt
1 − e−rh
rh
et si T − h ≤ t ≤ T
e−rt Xt = e−rT
= e−rT
1
h
Z
t
E(Su |Ft ) du+
T −h
σStσ
½
1
h
Z
1
h
Z
T
E(Su |Ft ) du
T −h
T
E(Su |Ft ) du =
t
e−rT
h
Z
t
T −h
1 − e−r(T −t)
rh
½
¾
S σ 1 − e−r(T −t)
= rdt + σ 1t<T −h + 1T −h<t<T t
dWt .
Xt
rh
Rt
Exercice 3.5.5: Soit Zt = e−rt St + 0 δ(s)e−rs Ss ds. On a alors
dXt
= rdt +
Xt
Xt
dZt
−rh
Suσ du+Stσ e−rt
1{t<T −h}
1−e
rh
+ 1{T −h<t<T }
1 − e−r(T −t)
.
rh
¾
dWt
= −re−rt St dt + e−rt dSt + δt e−rt St dt
= St e−rt σdWt
Le processus Z est une martingale locale. On peut expliciter S qui est la solution
d’une équation du type dSt = St (a(t)dt + σdWt par
St = S0 exp(rt − ∆(t) + σWt )
avec ∆(t) =
Rt
0
δ(s)ds. En écrivant
1
St = S0 exp(rt − ∆(t)) exp(σWt − σ 2 t)
2
142
Itô. Corrigés
1
et en utilisant que exp(σWt − σ 2 t) est une martingale d’éspérance 1, on obtient
2
E(St ) = S0 exp(rt − ∆(t)) .
On montre que S est de carré intégrable : en effet
1
1
St2 = S02 exp(2rt−2∆(t)+2σWt ) = S02 exp(2rt−2∆(t)+ (2σ)2 t) exp(2σWt − (2σ)2 t)
2
2
1
et l’on sait que exp(2σWt − (2σ)2 t) est une martingale égale à 1 en t = 0, d’où
2
1
E(St2 ) = S02 exp(2rt − 2∆(t) + (2σ)2 t)
2
Rt
et E( 0 Ss2 e−2rs ds) < ∞, ce qui établit le caractère martingale de la martingale
locale Z.
On sait que (formule de Black et Scholes en changeant de nom les paramètres)
si dSt = St (adt + σdWt ), S0 = x alors
E(e−aT (ST − K)+ )) = xN (d1 ) − Ke−aT N (d2 )
avec d1 =
1
√
σ T
ln(
x
1
) + σ 2 T ). Le calcul demandé est alors facile.
−aT
Ke
2
3.6
Le crochet
3.7
Finance
Exercice 3.7.3 : Pour g(x) = (x − K)+
CtAm ≥ Ct = E(e−rT (ST − K)+ |Ft ) = E(e−rT g(ST )|Ft )
et aussi
e−ru g(Su ) ≤ e−rT g(Su er(T −u) )
= e−rT g(erT E(ST e−rT Fu )) = e−rT g(E(erT ST e−rT Fu ))
= e−rT g(E(ST Fu )) ≤ E(e−rT g(ST )|Ft ))
P ≤ P Am et la propriété de sous martingale de (K −St e−rt ) permet de conclure.
Exercice 3.7.11 : On écrit la formule d’intégration par parties
d(
1
1
1
Xt
) = Xt d( ) + dXt + dhX, it .
Yt
Yt
Yt
Y
En particulier (on omet les indices t) (X = Y )
d(
1
1
1
X
) = d(1) = 0 = Xd( ) + dX + dhX, i .
X
X
X
X
Corrigés. 2005-06
143
Soit dV = π1 dS 1 + π 2 dS 2 . On a donc
dhV,
1
1
1
i = π1 dhS 1 , 1 i + π 2 dhS 2 , 1 i .
S1
S
S
Par suite, si V 1 = V /S 1 , on peut écrire la suite d’égalités (on utilise V =
π1 S 1 + π2 S 2 )
dVt1
1
1
1
) + 1 dV + dhV, 1 i
S1
S
S
¢
1
1
1 ¡
1
= (π 1 S 1 + π 2 S 2 )d( 1 ) + 1 π1 dS 1 + π 2 dS 2 + π1 dhS 1 , 1 i + π 2 dhS 2 , 1 i
S
S
S
S
¶
µ
¶
µ
1
1
1
1
1
1
1 1
2
2
2
2 1
= π1 S d( 1 ) + 1 dS + dhS , 1 i + π S d( 1 ) + 1 dS + dhS , 1 i
S
S
S
S
S
S
2
S
= π 2 d( 1 )
S
=
V d(
Exercice 3.7.12 : On remarque que
FT = σ(Ws , s ≤ t) = σ(Ss1 , s ≤ t) = σ(Ss2 , s ≤ t)
Le marché est complet: en effet, toute v.a. FT mesurable s’écrit comme valeur
terminale d’un portefeuille auto-finançant composé des actifs sans risque et de
l’actif 1, donc le marché composé d’un actif supplémentaire (avec les mêmes
actifs contingents) est également complet. La seule probabilité équivalente à la
probabilité P telle que l’actif sans risque et l’actif 1, actualisés, sont des mar1
µi − r
tingales est Q définie par dQ|Ft = exp(−θWt − θ2 t)dP |Ft avec θ =
.
2
σ
L’actif 2, actualisé n’est pas une martingale sous Q, il n’existe donc pas de probabilité équivalente à la probabilité P telle que TOUS les actifs actualisés soient
des martingales. Le marché présente des opportunités d’arbitrage. Supposons
µ1 > µ2 . Si, à la date 0, on achète une part de l’actif 1 et on vend une part de
l’actif 2 (capital initial investi nul) et que l’on maintient cette position jusqu’en
T , on a un portefeuille de valeur
£
¤
1
ST1 − ST2 = exp(µ1 T ) − exp(µ2 T ) exp(σWT − σ 2 T ) > 0
2
ce qui constitue un arbitrage.
144
Equa. Diff.
Chapter 4
Equations différentielles
stochastiques, Corrigés
4.1
Equation Linéaire
Exercice 4.1.4 : L’équation a une solution unique car b(t, x) = a + αx et
σ(t, x) = b + βx sont lipschitziennes et ont une croissance linéaire. On a
Z
Z
t
Xt = x +
t
(a + αXs ) ds +
0
(b + βXs ) dBs
0
Rt
Rt
L’intégrale stochastique est une martingale car E( 0 (b+βXs )2 ds) ≤ E( 0 2(b2 +
β 2 Xs2 ) ds) et la solution de l’équation vérifie E(sups≤t Xs2 ) < ∞. D’où en
prenant l’espérance de Xt et en posant m(t) = E(Xt )
Z
t
m(t) = x +
(a + αm(s)) ds .
0
La fonction m est dérivable et vérifie m0 (t) = a + αm(t). Compte tenu de la
condition initiale m(0) = x, la solution est
m(t) = (x +
a αt a
)e −
α
α
La formule d’Itô conduit à
d(Xt2 ) = 2Xt (a + αXt ) dt + 2Xt (b + βXt ) dBt + (b + βXt ) dt .
En admettant que l’intégrale stochastique est une martingale et en posant
M (t) = E(Xt2 )
Z
M (t) = x2 + 2
Z
t
(am(s) + αM (s)) ds +
0
0
145
t
(b2 + β 2 + 2bβm(s)) ds
146
soit
Equa. Diff.
½
M 0 (t) − (2α + β 2 )M (t) = 2(a + bβ)m(t) = b2
M (0) = x2
la solution est




M (t)
k(−α − β 2 )
c



K +k+c
=
=
=
=
2
Ce2α+β )t + keαt + c
2(a + bβ)(x + αa )
1
(b2 − 2(a + bβ) αa ) 2α+β
2
2
x
Exercice 4.1.5 : On a dYt = Yt (αdt + βdBt ) dont la solution est (cf brownien
géométrique)
1
Yt = exp[(α − β 2 )t + βBt )]
2
On a (cf propriété de martingale du Brownien)
1
1
E(Yt |Fs ) = exp(αt)E(exp[− β 2 t + βBt ] |Fs ) = exp(αt) exp[− β 2 s + βBs ]
2
2
D’où, si α ≥ 0, on a E(Yt |Fs ) ≥ Ys . Le processus Y est une martingale si on a
égalité soit si α = 0.
c. Le processus Y ne s’annule pas. Le processus Zt est un processus d’Itô car
Yt−1 est de carré intégrable (voir brownien géométrique) et
dZt = (a − bβ)Yt−1 dt + bYt−1 dBt
On a ainsi dhY, Zit = bYt−1 Yt β = bβ.
Soit Ut = Yt Zt . La formule d’Itô conduit à
dUt = (a − bβ) dt + b dBt + Ut (α dt + β dBt ) + bβ dt = (a + αUt ) dt + (b + βUt ) dBt
et comme U0 = x on a par unicité Xt = Ut .
Exercice 4.1.6: Soit dXt = αXt dt + b dBt . On sait (ex précédents) que
cette équation admet une solution unique. En posant Zt = e−αt Xt on voit que
dZt = e−αt dBt d’où
¯
Z t
Xt = eαt x + eαt
e−αs b dBs
0
Il en résulte que X est un processus gaussien de moyenne E(Xt ) = eαt x et de
variance
1 − e−2αt def 2
V (Xt ) = b2 e2αt
= σ (t) .
2α
Si Yt = φ(Xt ), la formule d’Itô conduit à
1
dYt = φ0 (Xt )dXt + φ00 (Xt )b2 dt .
2
Corrigés. 2005-06
147
Dans le cas particulier de l’énoncé,
dYt = exp(−
soit
Z
α 2
X )(bdBt )
b2 t
t
Yt = b
exp(−
0
α 2
X )dBs
b2 s
Rt
2
C’est une martingale car E( 0 exp(− 2α
b2 Xs )ds) < ∞ (faire le calcul en utilisant
ce qui suit) de carré intégrable.
2
En utilisant le calcul de E(eλU ) quand U est une gaussienne, on trouve, en
posant m(t) = eαt
1
2
E(eλXt ) = p
1−
2λσ 2 (t)
exp
λm2 (t)x2
= Φ(t, x)
1 − 2λσ 2 (t)
et
1
2
E(eλXt |Fs ) = p
1 − 2λσ 2 (t − s)
exp
λm2 (t − s)Xs2
= Φ(t − s, Xs )
1 − 2λσ 2 (t − s)
Soit t fixé. Par définition, le processus d’Itô V défini par Vs = Φ(t − s, Xs )
est une martingale, donc son drift est nul. On a donc
1
−∂1 Φ(t − s, x) + αx∂2 Φ(t − s, x) + b2 ∂22 Φ(t − s, x) = 0
2
1
∂1 Φ(u, x) + αx∂2 Φ(u, x) + b2 ∂22 Φ(u, x) = 0
2
En posant Ψ = ln Φ et en recherchant Ψ sous la forme
Ψ(t, x) = x2 a(t) + b(t)
on a (voir la forme de Φ) les conditions de l’énoncé sur les fonctions a et b.
Exercice 4.1.13 : Dans un premier temps, on pose Yt = eαt Xt . Ce processus
vérifie
p
dYt = eαt (µ − γVt )dt) + eαt Vt dW1,t
Calculer ϕ(λ) = E(exp(λXT )) revient à calculet ψ(λ) = E(exp(λYT )). On a
en effet ϕ(λ) = ψ(λeαT . Le calcul des espérances conditionneles se réduit à un
calcul d’espérance par la propriété de Markov. On a
Z t
Z t
p
Yt = Y0 +
eαs (µ − γVs )ds +
eαs Vs dW1,s
0
0
On est donc ramené à calculer
µ
µ
¶¶
Z t
Z t
p
A = E exp −γ
eαs Vs ds +
eαs Vs dW1,s
0
0
148
Equa. Diff.
En décorrélant W1,t , le terme sous l’exponentielle est
Z t
Z t
Z t
p
p
p
−γ
eαs Vs ds + ρ
eαs Vs W2,s + 1 − ρ2
eαs Vs dWs
0
0
0
En utilisant l’indépendance entre W et V
Ã
Ã
!!
p
Z t
Z t
Z
p
1 − ρ2 t 2αs
αs
αs
e Vs ds + ρ
e
A = E exp −γ
Vs W2,s +
e Vs
2
0
0
0
Il reste un calcul du type espérance de l’exponentielle de
Z t
Z t
p
f (s)Vs ds +
g(s) Vs dW2,s
0
0
Cette expression sécrit
Z t
Z t
g(s)(dVs − k(θ − Vs )ds)
f (s)Vs ds +
0
Z
0
Z
t
F (s)Vs ds +
=
Z
t
G(s)dVs
0
0
t
F (s)Vs ds + G(t)Vt − G(0)V0 −
0
Z t
= G(t)Vt +
H(s)Vs ds
Z
=
0
ou f, g, F, G, H sont des fonctions déterministes. (remarque: pour un ornstein
Uhlenbeck, ce type de calcul est standard)
Exercice 4.1.10 : On pose Yt = eat Xt . On a
p
dYt = abeat dt + σeat/2 Yt dWt
et E(Yt ) = x + b(eat − 1) En utilisant
Z t
p
Yt = x +
abeas ds + σeas/2 Ys dWs
0
p
= E(Yt ) + σeas/2 Ys dWs
Z t
p
on obtient Yt − E(Yt ) =
σeas/2 Ys dWs par suite
0
Z
V ar(Yt ) =
t
σ 2 eas E(Ys )ds
0
³ R
´
t
Exercice ?? : Si α et β existent, le processus Mt = eα(t)+β(t)St exp − 0 ψ(Ss )ds
est une martingale, donc E(MT |Ft ) = Mt ce qui conduit à
Ã
à Z
!
!
µ Z t
¶
T
θST
α(t)+β(t)St
E e
exp −
ψ(Ss )ds |Ft = e
exp −
ψ(Ss )ds .
0
0
0
t
G0 Vs ds
Corrigés. 2005-06
149
Rt
D’où le résultat en remarquant que exp(− 0 ψ(Ss )ds) est Ft adapté. Pour que
M soit une martingale, il faut que sa partie à variation bornée soit nulle. Il est
facile de voir que
d(eα(t)+β(t)St ) = eα(t)+β(t)St (α0 + β 0 )dt + βdSt + β 2 σ(St )2 dt
Ce qui conduit à
α0 + β 0 St − ψ(St ) + βµ(St )dt + β 2 σ(St )2 = 0
soit
α0 + β 0 x − ψ(x) + β(µ0 + µ1 x) + β 2 (σ0 + σ1 x) = 0
Cette équation doit être vérifiée pour tout (t, x) d’où (cours élémentaire sur les
ED)
α0 − ψ0 + βµ0 + β 2 σ0
β 0 − ψ1 + βµ1 + β 2 σ1
= 0
= 0
La seconde équation est une équation de Ricatti
4.2
Finance
Exercice 4.2.1 : Soit St solution de
dSt = St (r dt + σ dBt ) .
On a pour t ≤ u
µ
¶
σ2
Su = St exp r(u − t) + σ(Bu − Bt ) −
(u − t)
2
(4.1)
Le processus S est à valeurs
(si S0 > 0) et!ne s’annule pas.
à positives
Z T
1
1. Le processus Mt = E [
Su du − K]+ |Ft est une martingale, car il
T 0
s’écrit E(Z|Ft ).
+
+
2. En utilisant que s(a − b)
à =Z(sa − sb) si s > 0!et la Ft -mesurabilité de
T
1
Su
K
St , on obtient Mt = St E [
du − ]+ |Ft ce qui s’écrit de façon
T 0 St
St
évidente
!
à Z
1 T Su
du − ζt ]+ |Ft
St E [
T t St
Z
1 t
Su du), variable Ft -mesurable.
avec ζt = St−1 (K −
T 0
3. On rappelle que, si X est indépendante de G et Y est G-mesurable,
E(f (X, Y )|G) = [E(f (X, y)]y=Y .
150
Equa. Diff.
Su
, u ≥ t) sont indépendantes de Ft (utiliser (4.1)), et ζt est Ft
St
mesurable. Il en résulte
Mt = St Φ(t, ζt )
Les variables (
avec
Ã
Φ(t, x) = E
1
T
Z
!+
Su
du − x
.
St
T
t
Su
est indépendant de Ft , on obtient le résultat.
St
1
5. On a (appliquer Itô à f (x) = )
x
4. En utilisant que
dSt−1 = −
1 2
σ2
1
r
σ
dSt +
d < S, S >t = (
− )dt − dBt .
2
3
St
2 St
St
St
St
on en déduit les égalités suivantes
dζt
=
d < ζ, ζ >t
=
dΦ(t, ζt )
=
d < S, Φ >t
=
St
−St−1 dt
T
ζt2 σ 2 dt
1
+ (K −
T
Z
0
t
1
Su du)dSt−1 = − dt + ζt (−σdBt − rdt + σ 2 dt)
T
1
Φ0t dt + Φ0x dζt + Φ”xx d < ζ, ζ >t = (...) dt − σζt Φ0x dBt
2
−St σ 2 ζt Φ0x
La formule d’Itô appliquée à Mt est alors (écriture volontairement simplifiée)
dMt = ΦdS + SdΦ + dSdΦ
ce qui s’écrit
1
Φ(t, ζt )dSt + St [Φ0t (t, ζt )dt + Φ0x (t, ζt )dζt + Φxx ”(t, ζt )d < ζ, ζ >t ] + d < S, Φ >t
2
Soit
∂Φ
1
∂Φ 1 2 2 ∂ 2 Φ
− ( + rζ)
+ σ ζ
) dt + dNt
∂t
T
∂x
2
∂x2
où N est une martingale du type (...) dBt . Le processus M étant une martingale,
on doit avoir la partie processus à variation finie nulle, soit
dMt = St (rΦ +
0 = rΦ +
∂Φ
1
∂Φ 1 2 2 ∂ 2 Φ
− ( + rζ)
+ σ ζ
∂t
T
∂x
2
∂x2
Exercice 4.2.2 :
µ
¶
Z t
Z
1 t 2
St = S0 exp rt +
σ(s)dBs −
σ (s) ds
2 0
0
est solution de l’équation proposée. Il suffit d’appliquer la formule d’Itô.
Corrigés. 2005-06
Z
151
t
2.
σ(s)dBs est une variable gaussienne (intégrale de Wiener) centrée
Z t
Z t
Z
1 t 2
2
de variance
σ (s)ds. Il en résulte que
σ(s)dBs −
σ (s) ds est une
2 0
0
Z t 0
Z t
1
variable gaussienne car d’espérance −
σ 2 (s) ds et de variance
σ 2 (s)ds.
2 0
0
3. La formule de valorisation d’une option revient à calculer EQ (ST − K)+ .
Dans le cas où ST = S0 eU où U est une variable d’espérance rT et de variance
V 2 = σ 2 T , on a
C(0, x) = xN (d1 ) − Ke−rT N (d2 )
0
avec
µ
¶
x
V2
ln( ) + T r +
, d2 = d1 − V
K
2
Z T
2
2
Il suffit donc de remplacer σ T par Σ =
σ 2 (s)ds
1
d1 =
V
0
C(0, x) = xN (d1 ) − Ke−rT N (d2 )
avec
4.3
1
d1 =
Σ
µ
¶
x
Σ2
ln( ) + T r +
) , d2 = d1 − Σ
K
2
Equations différentielles
Exercice 4.3.4 : Nous vérifions que
Z
Xt = tN + (1 − t)
0
t
1
dBs
1−s
(4.2)
N − Xt
dt. Par différentiation de (4.2)
1−t
Z t
1
= N dt − 1
dBs + dBt
1
−
s
0
1
= N dt −
(Xt − tX1 )dt + dBt
1−t
1
= dBt +
(−Xt + N )dt
1−t
est solution de dXt = dBt +
dXt
Le processus X est donc gaussien, centré, de covariance (s < t)
E(Xs Xt )
Z
s
ts + (1 − t)(1 − s)
0
Z
= ts + (1 − t)(1 − s)E(
t
0
1
du = s
(1 − u)2
1
dBu
1−u
Z
0
s
1
dBv
1−v
152
Exemples
Chapter 5
Exemples, Corrigés
5.1
Processus de Bessel
Exercice 5.1.3 :
La formule d’Itô conduit à
dZt = −
Soit Vt =
1
1 2
1
1
1
1
dRt +
dhRit = − 2 dBt − 3 dt + 3 dt = − 2 dBt
Rt2
2 Rt3
Rt
Rt
Rt
Rt
sinh λRt
sinh λx
. On pose f (x) =
, d’où
λRt
λx
f 0 (x)
f 00 (x) =
sinh λx cosh λx
+
λx2
x
sinh λx λ cosh λx cosh λx λ sinh λx
+2
−
−
+
.
λx3
x2
x2
x
=−
La formule d’Itô conduit à
tλ2
λ2
dUt = e 2 [− Vt dt + dVt ]
2
−
et on vérifie que les termes en dt s’annulent.
Il suffit d’appliquer le théorème d’arrêt de Doob à la martingale Ut et au
λ2 Tb sinh λb
λ2 Tb
temps d’arrêt Tb . On obtient E(exp(−
)(
)) = 1, d’où E(exp(−
)) =
2
λb
2
λb
.
sinh λb
Exercice 5.1.4 :
1. On applique Itô
d(ln Rt ) =
1
1
1 1
1
1
1
dRt −
dRt dRt =
dWt −
dt +
dt =
dWt .
Rt
2(Rt )2
Rt
Rt 2Rt
2(Rt )2
Rt
153
154
Exemples
2. Toujours en appliquant Itô
dRtν = νRtν−1 dRt +
1
ν(ν − 1) ν−2
ν(ν − 1) ν−2
Rt dRt dRt = νRtν−1 dWt +νRtν−1
dt+
Rt dt .
2
2Rt
2
= νRtν−1 dWt +
Z
ν2
3. On pose Zt = exp(−
2
dZt
=
dLt
=
=
0
ds
) et on applique le lemme d’Itô.
Rs2
t
ds
ν2 1
) = Zt (− ) 2 dt
2
2 Rt
0 Rs
·
¸
ν(ν − 1) ν−2
ν2 1 ν
1
Zt dRtν + Rtν dZt = Zt νRtν−1 dWt + νRtν−1
dt +
Rt dt −
R
dt
2Rt
2
2 Rt2 t
d exp(−
ν2
2
Z
t
ν 2 ν−2
dt
R
2 t
Zt νRtν−1 dWt
Exercice 5.1.5 :
dYt = 2
p
Yt dWt + δdt
La formule d’Itô conduit á
√
dZt = Zt (−µ Y )dWt
ft def
Sous Q W
= Wt + µ
Z tp
√
ft + (δ − 2µYt )dt.
Yu du est un MB et dYt = 2 Yt dW
0
Exercice 5.2.2 : Par application de la formule d’Itô à Zt = Wt2
p
dZt = 2Wt dWt + dt = 2 Zt dWt + dt
on a alors
dZt = 2Wt dWt +2Wt1 dWt1 +2dt = p
2
q
(Wt )2 + (Wt1 )2 (Wt dWt +Wt1 dWt1 )
(Wt )2 + (Wt1 )2
p
= 2 Zt dWt3 + 2dt
Avec n Browniens on obtient µ = n.
def √
Si ρt = Rt , la formule d’Itô conduit à
1
(µ − 1)dt + dWt
2ρt
q
(µ)
(ν)
(µ)
(ν)
dXt = dRt + dRt = (µ + ν)dt + 2 Rt + Rt dZt
dρt =
où Z est un MB. On en déduit que la somme de deux Bessels carrés indépendants
est un Bessel carré.
Exercice 5.1.6 : Px (inf s≤t Xs ) = Px (Ta > t) et on connait la transformée de
Corrigés. 2005-06
155
Laplace de Ta E (ν) (exp −
λ2
Ta ).
2
¡ Xt∧τ ¢
(3)
Wx |Ft d’où pour a < x Px (φ(Ta )11Ta <∞ ) =
x
a
(3)
(3)
(3)
Wx (φ(Ta )) D’où Px (Ta > t) = Px (∞ > Ta > t) + (1 − xa ) et Px (∞ >
x
√
a
a
Ta > t) = P0 (T(x−a) > t) = P0 ((x − a) > |N | t).
x
x
Voir Borodin pour l autre cas
(3)
Dans le cas du BES(3) Px |Ft =
5.2
Processus de Bessel carré
(2)
Exercice 5.2.4 : Remarquer que E(R1 ) = E
p
ξ12 + ξ22 .
Exercice 5.2.5 : On part de
W (ν) |Ft = exp(νWt −
ν2
t)W |Ft
2
loi
On sait que (Rt ; t ≥ 0) = x exp(BCt + νCt )
P (ν) (F (Rs ), s ≤ t) = W (ν) (F (xBu ), u ≤ Ct )
W (ν) (F (xBu ), u ≤ Ct ) = W (exp(BCt +νCt )F (xBu ), u ≤ Ct ) = P (0) (
Rt ν
ν2
) exp −
F (Rs ), s ≤ t)
x
2Ct
car sous P (0)
exp νBCt = (exp BCt )ν , Rt = x exp BCt
5.3
Autres processus
Exercice 5.3.3 :
La première question résulte d’une application du lemme d’Itô: f (t, Xt ) est
une martingale locale si ’Gf (t, Xt ) = 0 avec Gf (t, x) = ∂t f + x(1 − x)(µ −
x)∂x f + 12 x2 (1 − x)2 ∂xx f . Dire que h0 (X) est une martingale locale revient à
vérifier que h0 est solution de x(1 − x)(µ − x)h0 + 12 x2 (1 − x)2 h00 = 0. Montrer
que h1 (Xt ) − t est une martingale locale revient à vérifier que h1 satisfait
1
−1 + x(1 − x)(µ − x)h0 + x2 (1 − x)2 h00 = 0 .
2
En appliquant le théorème d’arêt de Doob (la fonction h0 est bornée sur [a, b],
la martingale locale h0 (Xt∧τ ) est uniformément intégrable) E(h0 (Xτ )) = h0 (x)
soit
h0 (x) = E(h0 (Xτ )) = h0 (a)P (Xτ = a)+h0 (b)P (Xτ = b) = h0 (a)P (Xτ = a)+h0 (b)(1−P (Xτ = a)) .
156
Exemples
On applique ensuite le théorème de Doob à h1 (Xt ) − t
h1 (x) =
=
5.4
E[(h1 (a) − τ )11Xτ =a )] + E[(h1 (b) − τ )11Xτ =b )]
h1 (a)P (Xτ = a) + h1 (b)(1 − P (Xτ = a)) − E(τ )
Des Calculs
Exercice 5.4.2 : For t ≤ 1 and a > 0, the events {Yt ≤ a} and {Ta ≥ t} are
equal, where Ta = inf{t ≥ 0, Xt = a}.
e = X/σ and Tα (X)
e = inf{t ≥ 0, X
et = α}.
Then, P (Yt ≤ a) = P (Ta ≥ t). Let X
e
Then, Ta = Tα (X) where α = a/σ.
It is well known (the proof follows, from example from inversion of Laplace
transform) that
2
e ∈ dt) = √|α| exp − (α − µ̃t)
P0 (Tα (X)
3
2t
2πt
where µ̃ = µ/σ (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor,
second edition, page 320, ex. 1.21).
Therefore, you get the cumulative function of Y for t ≤ 1.
Let us denote Φ(t, a, µ, σ) = P (sup0≤s≤t (µs + σWs ) ≤ a).
Suppose now that 2 > t > 1. Then
ft−1
Xt = X1 + µ1 (t − 1) + σ1 (Wt − W1 ) = X1 + µ1 (t − 1) + σ1 W
where W̃ is a BM independent of σ(Ws , s ≤ 1).
Then,
¡
¢
fs−1 ) ≤ a
P (Yt ≤ a) = P Y1 ≤ a , max (X1 + µ1 (s − 1) + σ1 W
1≤s≤t
¡
£
¤¢
fs−1 ) ≤ a)|F1
= P Y1 ≤ a P max (X1 + µ1 (s − 1) + σ1 W
1≤s≤t
=
E(11(Y1 ≤a) Ψ(t − 1, X1 ))
where
fs ) ≤ a) = E( max (µ1 s + σ1 W
fs ) ≤ a − x)
Ψ(u, x) = E( max (x + µ1 s + σ1 W
0≤s≤u
0≤s≤u
and this quantity is known from step 1: Ψ(u, x) = Φ(u, a − x, µ1 , σ1 ).
Then, it remains to know the law of the pair Y1 , X1 . This is the reflection
principle in the case µ = 0 (Revuz Yor, page 105 ex. 3.14) and the general
result follows from Girsanov’s theorem. For example Borodin-Salminen, page
198, formula 1.18 in the case where σ = 1
P (Y1 ≥ y, X1 ∈ dz) = √
µ2 t (|z − y| + y)2
1
exp[µy −
−
] dz
2
2t
2πt
Corrigés. 2005-06
157
References:
Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts and
Formulae, Birkhäuser, 1996.
Exercice 5.4.3 : On écrit dS = D(rdt + σt dW̃t ). Si C̃ est la valeur de C
actualisé, alors dC = CmσdW̃t . Il suffit de résoudre et d’identifier
¶m
µ
Z
Z
m−1 t
1 t 2
St
exp[−
[
rs ds +
σs ds]]
Ct = C0
S0
m
2 0
0
Exercice 5.4.4 : On remarque
que Yt = eλt Xt est un MB changé de temps:
Z t
e2λt − 1
Yt = BΛ(t) avec Λ(t) = σ 2
e2λu du = σ 2
. Par suite τ = inf{t : |Yt | >
2λ
0
eλy g(t)}. D’où la suite d’égalités
{τ > t}
avec
=
{|BΛ(u) | < eλu g(u), ∀Λ(u) < Λ(t)}
=
{|Bv | < eλC(v) g(C(v)), ∀v < Λ(t)} = {τ ∗ > Λ(t)}
τ ∗ = inf{t : |Wt | > eλC(t) g(C(t))}
158
Girsanov.
Chapter 6
Girsanov, Corrigés
6.1
Résultats élémentaires
Exercice 6.1.2 : Par changement de proba, le processus H étant une martingale positive d’espérance 1, en posant dQ = Ht dP , on définit une nouvelle
probabilité Q et EP (HT ln HT ) = EQ (ln HT ). Or,
Z
t
Ht = exp(−
0
D’où
1
θs dWs −
2
Z
Z
t
EQ (ln HT ) = EQ (−
θs dWs −
0
t
0
1
2
θs2 ds)
Z
0
t
θs2 ds)
Z t
Z t
Le processus W̃t = Wt +
θs ds est un Q mouvement Brownien, et −
θs dWs −
0
0
Z t
Z t
Z t
1
1
θ2 ds = −
θs dW̃s +
θ2 ds, d’où le résultat.
2 0 s
2 0 s
0
Z t
Z
Z t
1 t 2
Exercice 6.1.4 : On a Γt = exp(
βs ds) exp(
γs dWs −
γ ds), d’où
2 0 s
0
0
Z t
βt
Γt exp(−
βs ds) est une martingale. L’écriture dΓt = Γt γt (dWt + dt) monγt
0
βt
tre que sous Q défini par dQ = Lt dP , avec dLt = Lt dWt , le processus W̃t
γt
βt
défini par dW̃t = dWt + dt est un mouvement Brownien.
γt
Le processus Γ vérifiant dΓt = Γt γt dW̃t est une Q-martingale locale. On obtient
γt2 − βt
−1
facilement d(Γ−1
dt) et le choix de R s’en suit.
t ) = −Γt γt (dWt −
γt
159
160
6.2
Girsanov.
Crochet
1
Exercice 6.2.1 : Soit Z = N − < N, M > et Lt = exp(Mt − hM it ). On a
2
d(ZL) = ZdL + LdZ + dhZ, Li = mart + dhZ, Li − LdhM, N i = mart
Z t 0
h (Xs )
dhM, Xi est une
Exercice 6.2.2 : On vérifie que Zt = h(Xt )Mt −
0 h(Xs )
P -martingale.
6.3
Processus
Exercice 6.3.4 :
1. La question 1 a déja été traitée dans l’exercice 1.2.3.
2. On se place dans le cas d’un Brownien issu de a. Soit
Z T
Z
b2 T 2
b
dP = exp{−b
Bs dBs −
Bs ds}dP .
2 0
0
En posant θs = −bBRs et en appliquant Girsanov, on montre que sous P b
t
le processus Bt + b 0 Bs ds est un brownien issu de a que l’on note Wt .
L’égalité
Z
t
Bt = −
bBs ds + Wt
0
qui s’écrit dBt = −bBt dt + dWt montre que le processus (Bt , t ≥ 0) est
un processus d’Ornstein-Uhlenbeck sous P b . D’où (cf. cours) Bt est une
1 − e−2tb
variable gaussienne sous P b , d’espérance ae−bt et de variance
.
2b
Soit x = a2 . En utilisant que, sur Ft ,
Z t
Z
b2 t 2
dP = exp{b
Bs dBs +
Bs ds}dP b
2
0
0
on a, pour tout Z, Ft -mesurable P -intégrable,
Z T
Z
b2 T 2
EP (Z) = Eb (Z exp{b
Bs dBs +
Bs ds})
2 0
0
d’où
EP (exp{−αBt2
b2
−
2
Z
0
t
Z
Bs2
ds}) =
Eb (exp{−αBt2
La formule d’Itô montre que
Z t
1
Bs dBs = (Bt2 − a2 − t)
2
0
+b
t
Bs dBs })
0
Corrigés. 2005-06
161
(sous P et sous Pb ).
On obtient, en posant x = a2
Z
b2 t 2
b
2
EP (exp{−αBt −
Bs ds}) = Eb (exp{−αBt2 + (Bt2 − x − t)})
2 0
2
Sous P b , Bt est une gaussienne. On applique le résultat de la question 1
et on trouve (calculs)
2 Z t
1
α
xb 1 + 2α
2 b
b coth bt
EP (exp{−αBt −
]
Bs2 ds}) = (cosh bt+2 sinh bt)− 2 exp[−
2 0
b
2 coth bt + 2α
b
On note Φ(α, b) l’expression de droite.
Exercice 6.3.3 : Soit dXt = −λXt dt+dWZt un processus d’Ornstein-Uhlenbeck.
t
Sous Pλ , X est un Brownien car Xt = −λ
Xs ds + Wt . On a
0
EP (exp −
b2
2
Z
0
Ã
= E Pλ
T
Xs2 ds) = EPλ (L−1
T exp −
Ã
Z
exp −λ
Ã
Ã
0
T
λ2
Xs dXs −
2
b2
2
Z
T
0
2
λ
λ + b2
= EPλ exp − (XT2 − T ) −
2
2
µ
¶
p
λT
λ
=
exp
Φ( , λ2 + b2 )
2
2
Z
T
0
Xs2
Z
0
T
Xs2 ds)
!!
Z
b2 T 2
ds −
Xs ds
2 0
!!
Xs2 ds
(On comparera cet exercice au précédent)
Exercice 6.3.5 : Soit S solution de
dSt = St (µ dt + σ dBt ) , S0 = s .
St = S0 exp(µt + σBt −
σ2
t).
2
1
1. Soit dQ = Lt dP avec Lt = exp(θBt − θ2 t). Le théorème de Girsanov
2
montre que W est un Q-mouvement Brownien.
σ2
t)
2
Le théorème de Girsanov montre que (B̃t = Wt − σt, t ≥ 0) est un P̃ mouvement brownien. On a alors
2. Soit dP̃ = Zt dQ avec Zt = exp(σWt −
dSt = St ((r + σ 2 ) dt + σ dB̃t )
162
Girsanov.
St
, t ≥ 0) est une Q-martingale, car
Pt
2
σ
d(St e−rt )
Yt = Y0 exp(σWt −
t) (ou parce que (Itô) dYt =
= Yt dWt .)
2
P0
σ2
Pt
est une P̃ -martingale car Zt = Z0 exp(−σ B̃t − t)
Le processus Zt =
St
2
³R
´
t
4. Soit Ft = e−λt 0 Su du + sA où A, λ sont des constantes
Ft λt
Soit Ψt =
e . On a dΨt = (1 − rΨt ) dt − σΨt dB̃t
Pt
3. Soit Pt = P0 ert . Le processus (Yt =
Exercice 6.3.7 : Let BtY = Y t + Bt and F be a functional on C([0, t], IR).
Using the independance between Y and B, and Cameron-Martin theorem, we
get
Z
Y
E[F (Bs , s ≤ t)] = E[F (sY + Bs , s ≤ t)] = ν(dy)E[F (sy + Bs , s ≤ t)]
(6.1)
Z
y2
=
ν(dy)E[F (Bs , s ≤ t) exp(yBt − t)] = E[F (Bs ; s ≤ t)h(B(6.2)
t , y)]
2
= E h (F (Xs , s ≤ t)]
(6.3)
Z
where h(x, t) =
ν(dy) exp(yx −
def
Bth =
y2
t) and P h |Ft = h(Bt , t)W |Ft . Therefore,
2
Z
t
Bt −
ds
0
h0x
(Bs , s)
h
is a P h -martingale, more precisely a P h Brownian motion and Bt is solution of
Z
Xt = Bth +
t
ds
0
h0x
(Xs , s)
h
Z
eth +
Under P h , B has the same law as B Y under P . Then, BtY = B
Let us remark that
E(Y |BtY ) =
t
ds
0
h0x Y
(Bt , t).
h
h0x Y
(Bs , s)
h
where BtY = σ(BsY , s ≤ t). On a
EQ (f (Y )F (BsY , s ≤ t))
=
=
=
1
2
EP (e−Y Bt − 2 Y t F (BsY , s ≤ t))
Z
1 2
ν(dy)f (y)EP (e−yBt − 2 y t F (Bs + ys, s ≤ t))
Z
ν(dy)f (y)E(F (Bs , s ≤ t)) = E(F (Bs , s ≤ t))EP (f (Y ))
Corrigés. 2005-06
163
et la loi de Y estRla même sous P et
R t sous Q. Exercice gi:4 : On remarque que
t
e−2Wt − 1 = −2 0 e−2Ws dWs + 2 0 e−2Ws ds
¶
Z µ
¢ 1 t −2Ws 1 −4Ws
1 ¡ −2Wt
− e
−1 +
e
− e
ds
4
2 0
4
¶
Z
Z
Z µ
1 t −2Ws
1 t −2Ws
1 t −2Ws 1 −4Ws
e
e
e
=
dWs −
ds +
− e
ds
2 0
2 0
2 0
4
Z
Z
1 t −4Ws
1 t −2Ws
e
dWs −
e
ds
=
2 0
4 0
³R
´
Rt
t
et on sait que exp 0 θs dWs − 12 0 θ2 ds est une martingale locale. On peut
c =
vérifier Rque la condition de Novikov est satisfaite Sous Q, le processus W
1 t −2Ws
W−2 0e
ds est un MB.
6.4
Cas multidimensionnel
6.5
Temps d’arrêt
µ
µ2
Exercice 6.5.1 : Soit dPµ = Lt dP où Lt = exp(− Bt −
t). Sous Pµ ,
σ
2σ 2
µ
Xt
(B̃t = Bt + t =
, t ≥ 0) est un Brownien et Xt = σ B̃t .
σ
σ
a
De l’égalité Ta = inf{t |B̃t = }, on en déduit le résultat qui figure dans le
σ
cours en procédant comme suit:
On a dP = L−1
t dPµ avec
µ2
µ
µ2
µ
B̃
−
L−1
=
exp(
B
+
t)
=
exp(
t)
t
t
t
σ
2σ 2
σ
2σ 2
et pour tout temps d’arrêt T , on a
−λ(T ∧t)
EP (exp(−λ(T ∧t)) = EPµ (LT ∧t e
µ
¶
µ
µ2 + 2λσ 2
) = EPµ exp( B̃T ∧t −
(T ∧t))
σ
2σ 2
On en déduit
EP (exp(−λTa )11Ta <∞ ) = exp
¶
µ
µ
µ2 + 2λσ 2
a
E
exp(−
T
)
1
1
Pµ
a
Ta <∞
σ2
2σ 2
Le passage à la limite quand t → ∞ est licite pour a ≥ 0, car d’une part
µ2 + 2λσ 2
e−λ(T ∧t) ≤ 1 et d’autre part B̃Ta ∧t ≤ a, d’où exp( σµ B̃T ∧t −
(T ∧ t))
2σ 2
a
est borné. On utilise aussi B̃Ta 11Ta <∞ = .
σ
164
Girsanov.
Exercice 6.5.2 :
E(11T <∞ exp(λBT −
λ2
T )) = P (λ) (T < ∞) =
2
and use that
T = inf{t : Bt − t/2 > ln a} = inf{t : Wt + (λ − 1/2)t > ln a}
2
Exercice 6.5.3 : Le processus (Mt = exp(θB̃t − θ2 t ) , t ≥ 0) est une Pµ martingale et si a et θ sont positifs (Mt∧Ta , t ≥ 0) est uniformément intégrable,
car majorée par exp(θa). On en déduit EPµ (MTa ) = 1 d’où
p
aµ a µ2 + 2λσ 2
−λTa
)
EP (e
11Ta <∞ ) = exp( 2 −
σ
σ2
et on vérifie que Ta est fini (faire λ = 0).
Exercice 6.5.4 : L est une martingale exponentielle d’espérance 1, en utilisant
que dFt2 = 2Ft f (t)dWt + f 2 (t)dt on obtient la première égalité. Une intégration
par partie montre que
¶
µ
Z T
Z T
h(s)
h(T ) 2 h(0) 2
h(t)
dFs2 dWs =
FT −
F0 −
Ft2 d
f (T )
f (0)
f (t)
0 2f (s)
0
u0
et on utilise que
u(t)f (t)
ÃZ
!
µ 00
¶ #!
T 0
u (t) − 2u0 (t)f 0 (t)/f (t)
u (t)
2
Ft
= exp
dt
dt
u(t)f 2 (t)
u(t)
0
ce qui donne le résultat. On prend ensuite h(t) =
Ã
E
" µ
¶
Z T
1
u0 (T )
2
exp
−
F
T
2 u(T )f 2 (T )
0
Pour calculer l’expression avec Ψ, on fait un changement de probabilité en
posant dQ = LT dP . On a
Ã
!
µ
¶1/2
Z T
u(T )
2
K=
EQ Ψ(A + BFT +
φ(t)Ft dt)
u(0)
0
et en appliquant Girsanov,
Ã
!
¶1/2
µ
Z T
Z T
Z t
u(T )
u(t)
f (s)
EQ Ψ(A + Bu(T )
dBt +
dtφ(t)u(t)
dBs
)
K=
u(0)
u(s)
0
0
0 f (t)
On peut calculer le membre de droite, car c’est l’exponentielle d’une gausienne.
Exercice 6.6.16 : On a dr = 2
L’etude de Z se fait par une IP.
Exercice 6.5.5 :
p
σ(t)rt dWt + ([2β(t) +
σ 0 (t)
]rt + δσ(t))dt.
σ(t)
1. Utiliser Girsanov et Bayes.
2. C’est le théorème de Girsanov appliqué sur l’espace produit.
3. Appliquer Itô. Les termes en dt sont nuls car π est une martingale.
Corrigés. 2005-06
6.6
165
Finance

Ã
Exercice 6.6.14 : Il s’agit de calculer A = E e−rT
que l’on écrit
A=
1
T
Z
T
!+ 

Su du − ST
0
1
E(e−rT ST (YT − K)+ )
T
Z t
1
Su du et K = T . Par un changement de probabilité (le proavec Yt =
St 0
St
cessus e−rt
est une Q-martingale positive d’espérance 1), on obtient A =
S0
S0
Ẽ((YT − K)+ ) avec, sous Q̃
T
dYt = (1 − rYt )dt + Yt σdW̃t .
On peut utiliser que Yt = Ut + Vt avec U solution de
dUt = −rUt dt − σUt dW̃t , U0 = 1
Z
et Vt = y +
t
(Us )−1 ds, ce qui ne nous avance pas beaucoup.
0
Exercice 6.6.15 :
1. On a drt =
σ 0 (t)
rt dt + σ(t)(dWt + h(t)dt).
σ(t)
2. On reconnait une exponentielle de Doleans Dade, et une intégration par
parties donne le résultat.
3. En appliquant Girsanov, et en utilisant que rt = σ(t)Yt
Ã
" Z
#!
Ã
ÃZ
!!
Z
Z T
T
T
1 T 2
E exp −
= E exp
h (s)ds −
rs ds
σ(s)Ws ds
h(s)dWs −
2 0
0
0
0
Une integration par parties permet de conclure.
4. La quantité
Ã
A=E
Ã
Z
T
exp h(T )WT −
!!
0
Ws (h (s) + σ(s))ds
0
se calcule en recherchant une fonction g telle que g 0 (s) = σ(s)+h0 (s), g(T ) =
h(T ). On obtient alors
!
à Z
!
Ã
" Z
#!
Ã
Z
T
1 T 2
1 T 2
h (s)ds A = exp
(g (s) − h2 (s))ds
E exp −
rs ds
= exp −
2 0
2 0
0
166
Compléments
On peut aussi remarquer que
Z
h(T )WT −
T
Ws (h0 (s) + σ(s))ds
0
est une variable gaussienne centrée dont on identifie la variance.
Z t
1 − e−b
≥
Exercice 6.6.17 : St = x + mart + 2(ν + 1)
Su du. Utiliser que
b
0
Z T
1
e−b . On en déduit que E((
exp(2(Ws + νs))ds − K)+ ) ≥ E((exp 2(WT +
T 0
νT ) − k)+ ) pour k assez petit.
Exercice 6.6.7 Pour évaluer EP (h(ST )|Ft ) dans le cas h(x) = (xα − K)+ , on
b2
utilise ce qui précède en écrivant STα sous la forme x exp((a − )t + bWt ). IL
2
est facile de vérifier que sous Q,
dZt = −σZt dW̃t
et comme W̃ donc −W̃ est un MB, Z a même dynamique sous Q que S sous
P . Par suite
∀ϕ, EP (ϕ(ST )) = EQ (ϕ(ZT )) .
Par définition de Q
x2
x2
1
EP (ST f ( )) = EQ (f ( )) .
x
ST
ST
Par définition de Z,
EQ (ST f (
x2
)) = EQ (f (ZT )) = EP (f (ST )) .
ST
Si S a est une martingale, le même raisonnement conduit à la formule souhaitée.
Un peu d’algèbre permettait décrire xβ (x − K)+ comme
(xβ+1 − K β+1 )+ − K(xβ − K β )+ .
Chapter 7
Compléments, Corrigés
7.1
Théorème de Lévy.
Exercice 7.1.1 : Soit St = sup0≤s≤t Ws et
D
=
sup (Ws − Wt ) = sup
0≤s≤t≤1
=
sup (Ws − Wt )
0≤t≤1 0≤s≤t
loi
sup (St − Wt ) = sup |Wt |
0≤t≤1
0≤t≤1
Grace au théorème de Lévy
loi
(St − Wt , St , Wt ; θ ≤ t ≤ 1) = (|Wt |, Lt , Lt − |Wt |; g ≤ t ≤ 1)
D’où
loi
Wθ , sup (St − Wt − St )) = Lg − |Bg |, sup (|Wt | − Lt ) = (Lg , sup (|Wt | − Lg )
g≤t≤1
θ≤t≤1
g≤t≤1
Thus
loi
D1 = Wθ + sup (St − Wt − St ) = Lg + sup |Wt | − Lg
g≤t≤1
θ≤t≤1
Exercice 7.1.2 : La premiere égalité provient du théorème de Lévy et de la
connaissance de la loi du couple St , Bt ). La seconde égalité en loi provient de la
symétrie de la loi du couple. Pour le semi groupe, on utilise la formule de Lévy
ev = Bt+v − Bt
et l’indépendance de (Bu , u ≤ t) et de B
E(f (St+s − Bt+s , St+s |Fs )
et , Bs + (Ss − Bs ) ∨ Set St+s )|Fs )
= E(f ((Ss − Bs ) ∨ Set − B
Z
=
µt (da, d`)f (α ∨ ` − (` − a), (λ − α) + α ∨ `)
Les résultats concernant l’indépendance de St (St −Bt ) et Bt sont dus à Seshadri.
167
168
7.2
Compléments
Equations rétrogrades
Exercice 7.2.1 : Il s’agit d’appliquer la formule d’Itô et le théorème de
représentation. La propriété de martingale de X provient de Xt = E(eζ HT |Ft )
et le théorème de représentation établit l’existence de z. Puis, en utilisant la
formule d’Itô
d(1/Ht ) =
d(Zt /Ht ) =
dXt
=
=
7.3
1
1
1
dHt + 3 dhHit =
[(r + θ2 )dt + θdWt )]
Ht2
Ht
Ht
Zt
zt
[(r + θ2 )dt + θdWt ) + Ht zt dWt +
θdt
Ht
Ht
µ
¶
zt
1 zt
zt
2
2
(
+ θ)dWt + (r + θ ) +
θ− (
+ θ) dt
Ht
Ht
2 Ht
b 2 )dt
bt dWt + (r + θX
bt − 1 X
X
2 t
−
Théorèmes de représentation
Exercice 7.3.1 : On utilisera le théorème de représentation prévisible pour
(1)
(2)
représenter Wt , Wt en terme de W (3) . Si l’égalité était possible, on aurait
Z t
Z t
Z t
(i)
(i)
(i)
(1)
(2)
(1) (2)
Wt =
Φt dWt avec
E[Φt ]2 dt = t et E(Wt Wt ) = E(
Φt Φt dt) =
0.
0
0
0
Exercice 7.3.2 : M est une intégrale stochastique, l’intégrand est borné donc
de carré intégrable, M est une martingale.
Par propriété de l’intégrale stochastique
·Z t
¸2 Z t
11Ws >0 dWs −
(11Ws >0 )2 ds
0
0
est une martingale.
la formule d’Itô à
Z t Une autre méthode consiste àZ appliquer
t
11Ws >0 dWs . Le processus At =
11Ws >0 ds est un processus
Yt2 avec Yt =
0
croissant.
def
Le processus MCt est une Gt = FCt martingale et
0
MC2 t − ACt = MC2 t − t
est une martingale.
7.4
Temps local.
Exercice 7.4.1 : On ne peut pas appliquer Itô car x → |x| n’est pas de classe
C 2 . Un calcul fait en pensant qu’un point ne compte pas et que l’on peut négliger
le point oú la dérivée n’existe pas conduirait à (la dérivée de |x| est égale à sgn
Corrigés. 2005-06
169
Z
t
sauf en 0 et la dérivé seconde est nulle sauf en 0) |Bt | =
sgn(Bs )dBs et
0
l’intégrale du membre de droite n’est pas positive (nous verrons plus loin que
c’est un mouvement Brownien).
Z t
Le processus β est une martingale de crochet
f 2 (Bs )ds = t, c’est un MB. Il
0
est évident que pour u ≥ t
Su = sup Ws ≥ St = sup Ws
s≤u
s≤t
La première décomposition exprime que |Wt | est égal à un MB plus un processus
croissant, la seconde décomposition dit que St − Wt a la même propriété. On
loi
peut montrer, grace au lemme de Skohorod (voir poly) que (St − Wt , t ≥ 0) =
loi
(|Wt |, t ≥ 0) et que (Lt , t ≥ 0) = (St , t ≥ 0).
Exercice 7.4.2 : |Bs | + Ls ≥ Lt = Ldt for s ≥ t, and |Bdt | + Ldt = Ldt .
Exercice 7.4.3 : (θ ≤ u) = sups≥u Bs ≤ sups≤u Bs = sup1≥s≥u (Bs − Bu ) +
Bu ≤ sups≤u Bs d’où P (θ ≤ u) = P (Sb1−u ≤ Su − Bu ) On trouve finalement
que θ a une loi Arc Sinus.
Exercice 7.4.4 : On utilise la formule d’Itô
1 00
dYt = fx0 (Xt , St , hXit )dXt +fs0 (Xt , St , hXit )dSt +(ft0 + fxx
)(Xt , St , hXit )dhXit
2
Or fs0 (Xt , St , hXit ) = fs0 (St , St , hXit ) dSt presque surement. Si
et fs0 (s, s, t) = 0, Y est une martingale locale.
g(St ) − (St − Xt )g 0 (St )
1 00
f + ft0 = 0
2 xx
Z t
Z t
Z t
= g(St ) −
g 0 (Ss )dSs +
g 0 (Ss )dXs +
(Ss − Xs )g 00 (Ss )dSs
0
0
0
Z t
=
g 0 (Ss )dXs
0
Exercice 7.4.5 : On utilise le scaling du MB pour écrire
Z
λ2 t
loi
Z
f (Bs )ds = λ2
0
0
t
Z
f (λBu )du = λ2
da f (λa)Lat
Z
Exercice 7.4.7 : From the occupation formula and change of time
Z t
Z hM it
Z
dhM is f (βhM is ) =
duf (βu ) = dyf (y)LyhM it (β).
0
0
t
dhM is f (Ms ) =
0
170
7.5
Compléments
Lois
Exercice 7.5.1 : Soit Yt = f (Xt ). On en déduit
dYt
=
=
Xt
1¡ 1
Xt b0 (Xt ) ¢ 2
b (Xt )dt
dXt +
− 2
b(Xt )
2 b(Xt )
b (Xt )
¡ a(Xt )
¢ 1¡
¢
Xt
dt + dWt + b(Xt ) − Xt b0 (Xt ) dt
b(Xt )
2
Le résultat souhaité en découle.
Z t
Z t
£ a(Xs ) 1 ¡
¢¤
0
f (Xt ) − f (X0 ) −
Xs
+ b(Xs ) − Xs b (Xs ) ds =
Xs dWs
b(Xs )
2
0
0
Exercice 7.5.2 : Let V be a standard Brownian motion starting at v, that
is, Vt = v + Wt . In this case, the two events { τa (V ) ≤ t} and { sups≤t Ws ≥
α}, where α = a − v are equal. The reflection principle implies that the r.v.
sups≤t Ws is equal in law to the r.v. kWt k. Therefore,
P (τα (W ) ≤ t) = P (sup Ws ≥ α) = P (kWt k ≥ α) = P (Wt2 ≥ α2 ) = P (tG2 ≥ α2 )
s≤t
where G is a Gaussian variable, with mean 0 and variance 1. It follows that
2
loi α
τα (W ) = 2 , and the probability density function of τa (V ) is
G
³ (v − a)2 ´
a−v
exp −
f (t) = √
.
2t
2πt3
The computation of
¡
¢
¡
¢
¡
¢
E 11{T <τa (V )} h(VT ) = E h(VT ) − E 11{T ≥τa (V )} h(VT )
can be done using Markov property:
¡
¢
¡
¢
¡
¢
E 11{T ≥τa (V )} h(VT ) = E 11{T ≥τa (V )} E(h(VT )|Fτa (V ) ) = E 11{T ≥τa (V )} h(VeT −τa (V ) +a) ,
where Ve is a Brownian motion independent of τa (V ).
Exercice 7.5.3 : Soit y > a. On admettra que M est uniformément intégrable.
a = E[MTy ] = yP (Ty < ∞) = yP (sup Mt ≥ y)
Soit
7.6
a
a
a
= P (sup Mt ≥ y) = P ( ≥ U ) = P ( ≥ y).
y
y
U
Filtrations
Exercice 7.6.2 : Mt = E(Wt |Ht ) est un processus H-adapté. Pour montrer
que c’est une H-martingale, il suffit d’écrire la suite d’égalités suivantes, pour
Corrigés. 2005-06
171
t≥s
E(Mt |Hs ) =
=
E(Wt |Ht |Hs ) = E(Wt |Hs )
E(Wt |Gs |Hs ) = E(Ws |Hs )
Pour montrer que Z est une FX -martingale, on écrit (en justifiant chaque égalité,
ce que je ne fais pas)
Z t
E(Zt |FsX ) = E(Xt |FsX ) − E(
Ybu du|FsX )
0
Z t
Z t
X
= E(Wt +
Yu du|Fs ) − E(
Ybu du|FsX )
0
0
Z s
Z t
Z s
Z t
X
X
X
b
= E(Wt |Fs ) + E(
Yu du|Fs ) + E(
Yu du|Fs ) −
Yu du − E(
Ybu du|FsX )
0
s
0
s
Z s
Z t
Z s
Z t
X
X
X
b
Yu du|Fs ) + E(
Yu du|Fs ) −
Yu du − E(
Ybu du|FsX )
= E(Ws |Fs ) + E(
0
s
0
s
Z t
Z s
Z t
= E(Xs |FsX ) +
E(Yu |FsX )du −
Ybu du − E(
Ybu du|FsX )
s
0
s
Z t
Z s
Z t
= Xs +
Ybu du −
E(Ybu |FsX )du − E(
Ybu du|FsX )
s
0
s
Z s
Ybu du)
= Xs −
0
on a utilisé que E(Wt |FsX ) = E(Ws |FsX ) et que, pour u > s
E(Yu |FsX ) = E(Yu |FuX |FsX ) = E(Ybu |FsX )
7.7
Options barrières
Rx
2
1
Exercice 7.7.1 : Soit Φt (x) = P (Bt < x) = √2πt
exp(− u2t )du. on a
−∞
Φt (x) = 1 − Φt (−x) d’où, P (Bt < x) = P (Bt > −x).
Soit T = inf{t ≥ 0|Bt = y}. Par définition P (Bt ≤ x, Mt > y) = P (T <
∗
t, Bt−T
< x − y). Si Mt > y, c’est que l’on a dépassé y avant t: Si Mt > y, on a
∗
∗
T < t. De plus Bt−T
= Bt − BT = Bt − y. Par indépendance, P (T < t, Bt−T
<
R
Rt
t
∗
∗
x − y) = 0 P (T ∈ du , Bt−u < x − y) = 0 P (T ∈ du)P (Bt−u < x − y). D’après
∗
∗
1, P (Bt−u
< x − y) = P (Bt−u
> −x + y), d’où
Z
0
t
Z
∗
P (T ∈ du)P (Bt−u
< x − y) =
0
t
∗
P (T ∈ du)P (Bt−u
> y − x)
et par indépendance
Z t
Z t
∗
∗
P (T ∈ du)P (Bt−u
> y−x) =
P (T ∈ du, Bt−u
> y−x) = P (T < t, Bt > 2y−x)
0
0
172
Compléments
En tenant compte du fait que si Bt > 2y − x et y > x , alors Bt > y, donc T < t
on en déduit P (T < t, Bt > 2y − x) = P (Bt > 2y − x) d’où
P (Bt ≤ x, Mt > y) = P (Bt > 2y − x)
En utilisant
P (Bt ≤ x, Mt < y) = P (Bt ≤ x) − P (Bt ≤ x, Mt > y)
on obtient
x − 2y
x
P (Bt ≤ x, Mt < y) = N ( √ ) − N ( √ )
t
t
3. La loi de T s’obtient en écrivant P (T < t) = P (Mt < y) et la densité du
couple (Bt , Mt ) en dérivant P (Bt ≤ x, Mt < y).
4. Soit Xt = µt + Bt , Yt = sup (Xs , 0 ≤ s ≤ t}. Soit dQ = ζdP avec ζ =
exp(−µXt + 21 µ2 t). En utilisant le théorème de Girsanov, on a
1
P (Xt < x, Yt < y) = EQ (exp(µXt − µ2 t) 11Xt <x 11Yt <y )
2
que l’on peut calculer car sous Q, X est un mouvement Brownien et on connait
la loi du couple (x, Y ) sous Q.
7.8
Méandres, ponts, excursions
Exercice 7.8.1: Let V be a standard Brownian motion starting at v, that is,
Vt = v + Wt . In this case, the two events { τa (V ) ≤ t} and { sups≤t Ws ≥
α}, where α = a − v are equal. The reflection principle implies that the r.v.
sups≤t Ws is equal in law to the r.v. kWt k. Therefore,
P (τα (W ) ≤ t) = P (sup Ws ≥ α) = P (kWt k ≥ α) = P (Wt2 ≥ α2 ) = P (tG2 ≥ α2 )
s≤t
where G is a Gaussian variable, with mean 0 and variance 1. It follows that
2
loi α
τα (W ) = 2 , and the probability density function of τa (V ) is
G
³ (v − a)2 ´
a−v
exp −
f (t) = √
.
2t
2πt3
The computation of
¡
¢
¡
¢
¡
¢
E 11{T <τa (V )} h(VT ) = E h(VT ) − E 11{T ≥τa (V )} h(VT )
can be done using Markov property:
¡
¢
¡
¢
¡
¢
E 11{T ≥τa (V )} h(VT ) = E 11{T ≥τa (V )} E(h(VT )kFτa (V ) ) = E 11{T ≥τa (V )} h(VeT −τa (V ) +a) ,
where Ve is a Brownian motion independent of τa (V ).
Corrigés. 2005-06
173
For t < 1, the set {g ≤ t} is equal to {dt > 1}.
loi
dat (W ) = t + inf {u ≥ 0 : Wu+t − Wt = a − Wt } = t + τba−Wt = t +
P
(a − Wt )2
.
G2
³ a2
´
³ kak ´
√
>
1
−
t
=
Φ
.
G2
1−t
Then, the Itô-Tanaka formula combined with the identity xΦ0 (x) + Φ00 (x) = 0
lead to
µ
µ
¶
¶ µ
¶
¶
Z t µ
Z
|Wt |
|Ws |
1 t ds 00
|Ws |
|Ws |
0
√
P (g ≤ t|Ft ) = Φ √
=
Φ √
d √
+
Φ
2 0 1−s
1−t
1−s
1−s
1−s
0
¶
µ
¶
µ
Z t
Z t
sgn(W
)
dL
|W
|W
|
s
s
s|
s
0
0
√
√
=
dWs +
Φ √
Φ √
1−s
1−s
1−s
1−s
0
0
r Z t
¶
Z t µ
|Ws |
sgn(Ws )
2
dL
√
√ s .
Φ0 √
=
dWs +
π
1
−
s
1
−
s
1−s
0
0
Exercice 7.4.6 : The occupation time formula leads to
Z Ta (X)
Z a
E
f (Xs ) ds =
f (x)E[LxTa ]dx
0
−∞
It remains to compute φ(x) = E[LxTa ]. Tanaka’s formula reads
Z
(XTa − x)+
=
(−x)+ +
Z
(a − x)+
=
Ta
1
11(Xs >x) dXs + LxTa
2
Ta
1
11(Xs >x) (dWs + νds) + LxTa
2
0
(−x)+ +
0
Then, taking expectation of both sides
Z Ta
(a − x)+ − (−x)+ − νE[
11(Xs >x) ds]
0
Z a
= (a − x)+ − (−x)+ − νE[
LyTa dy]
1
E[ÃLxTa ] =
2
x
Therefore, if φ(x) = E[ÃLxTa ]
1
φ(x) = (a − x)+ − (−x)+ − ν
2
Z
a
φ(y)dy, φ(a) = 0
x
which gives
φ(x) =
 1


 ν (1 − exp(2ν(x − a))
for 0 ≤ x ≤ a


 1 (1 − exp(−2νa)) exp(2νx) for x ≤ 0
ν
174
Sauts.
Exercice 7.8.2 : Il suffit d’écrire
√
Bt = m1 t − gt (sgneBt )
√
√
On a alors E(Bt |F
rgt ) = E(m1 t − gt (sgneBt )Fgt ) = t − gt (sgneBt )E(m1 ) =
√
√
π
t − gt (sgneBt )
On note µt = t − gt (sgneBt ), c’est une martingale. Des
2
calculs analogues conduisent à
E(Bt2 − t|Fgt ) = E(m21 )µ2t − t
E(eαBt −
avec h(x) = E(exm1 ).
α2
2
t
|Fgt ) = h(αµt )e−
α2
2
Chapter 8
Sauts, Corrigés.
8.1
Processus de Poisson
Exercice 8.1.2 :
E(Nt − Ns |Fs ∧ σ(N1 )) = E(Nt − Ns |(Ns − N1 ))
Il est bien connu (ou tout au moins facile de vérifier ) que si X et Y sont deux
variables de Poisson, indépendantes, de paramètre µ et ν
¶
µ
n
αk (1 − α)n−k
P (X = k|X + Y = n) =
k
avec α =
µ
. On en déduit
µ+ν
E(Nt − Ns |Fs ∧ σ(N1 )) =
t−s
(N1 − Ns )
1−s
La vérification de la propriété de martingale est alors facile.
λn t n
Exercice 8.1.4 : Si N est un processus de Poisson, P (Nt = n) = e−λt
n!
d’ou
ψ(z, t) = e−λt e−λtz
loi
Si N un processus à accroissements indépendants tel que Nt+s − Nt = Ns
X
ψ(z, t + s) =
z n P (Nt+s = n) = E(z Nt+s ) = E(z Nt+s −Nt +Nt )
n
= E(z Nt+s −Nt )E(z Nt ) = E(z Ns )E(z Nt ) = ψ(z, t)ψ(z, s)
On en déduit
ψ(z, t + h) − ψ(z, t) = ψ(z, t)[ψ(z, h) − 1]
ce qui conduit à une EDO en urilisant les propriétés de ψ données dans l’énoncé.
En tenant compte de ψ(z, 0) = 1, on montrait que ψ(z, t) = e−λt e−λtz , ce qui
175
176
Sauts.
caractérise le processus de Poisson (cette égalité caractérise la loi de Nt , ce qui
loi
avec N un processus à accroissements indépendants tel que Nt+s − Nt = Ns
caractérise le processus de Poisson.)
Exercice 8.1.5 : Le processus de Poisson composé est un processus à accroissements indépendants, donc pour s < t
E(Yt − Ys |Fs ) = E(Yt − Ys ) = E(Xt − Xs ) − µλ(t − s) = 0
On peut le démontrer à la main, sans utiliser que le processus de Poisson composé est un PAI
Nt
X
E(Xt − Xs |Fs ) = E(
Nt −N
s +Ns
X
Yi |Fs ) = E(
i=Ns +1
Yi |Fs ) = Ψ(Ns )
i=Ns +1
avec
n+Nt−s
Ψ(n)
X
= E(
=
X
Yi ) =
X
P (Nt−s = k)E(
i=n+1
n+k
X
Yi )
i=n+1
P (Nt−s = k)kE(Y1 ) = E(Y1 )E(Nt−s ) = E(Y1 )λ(t − s)
Exercice 8.1.6 : Si X et X̃ sont deux solutions,
Z t
Z t
def
Zt = Xt − X̃t = −c
(Xs − X̃s )ds = −c
Zs ds
0
0
et Z est solution de l’équation différentielle ordinaire
initiale nulle. DoncZZ = 0.
t
Soit Xt = e−ct x +
Z
= −cZt avec condition
e−c(t−s) dNs . On calcule
0
t
Z
Xs ds =
0
Zt0
Z
t
e
−cs
xds +
0
Z
t
s
ds
0
e−c(s−u) dNu .
0
L’intégrale double se calcule en employant Fubini (pour des intégrales de Stieltjes)
Z t Z s
Z t
Z t
Z
1 t
ds
e−c(s−u) dNu =
dNu
dse−c(s−u) =
dNu (1 − e−c(t−u) )
c
0
0
0
u
0
Z t
1
=
(Nt −
e−c(t−s) dNs ) .
c
0
En utilisant que M et Y sont des martingales
E(Mt Yt |Fs ) = E(Mt (Yt − Ys )|Fs ) + Ms Ys = E((Mt − Ms )(Yt − Ys )|Fs ) + Ms Ys
Le calcul de E((Mt − Ms )(Yt − Ys )|Fs ) se fait comme le précédent. Exercice
8.1.8 : Si j’ecris la formule d ito d(tNt ) = Nt dt + tdNt D’ou
Z t
Z t
Z t
Ns ds = tNt −
sdNs =
(t − s)dNs
0
0
0
Corrigés. 2005-06
177
Pour calculer la TL, il suffit d utiliser que pour toute fonction h (ici, pour t fixé
h(s) = −λ(t − s)) si c est l’intensité de N
Z t
Z t
E(exp(
h(s)dNs ) = exp(−c
(1 − eh(s) )ds)
0
8.2
0
Poisson composé
Exercice 8.2.1 : From the independance of Yk , one gets
E(λ
n
X
m
X
Yk + µ
k=1
)) = E(λY1 )n E(µY1 )m
k=n+1
Then, the independence and stationarity of the increments of N follows from
E(λXs +µ(Xt −Xs )) = E(ψ(λ, Ns )ψ(µ, Nt −Ns )) = E(ψ(λ, Ns ))E(ψ(µ, Nt−s ))
where ψ(λ, n) = E(λY1 )n . From the independence of N and the r.v. (Yk , k ≥ 1)
and using the Poisson law of Nt , we get
X
P (Xt ≤ x) =
P (Nt = n,
n
X
=
n
X
P (Nt = n)P (
n
e−λt
=
Yk ≤ x)
k=1
X (λt)n
n
n!
n
X
Yk ≤ x)
k=1
F ∗ (x) .
and
E(Xt )
=
∞
X
E(
n=1
= E(Y )
n
X
k=1
∞
X
Yk 11Nt =n ) =
∞
X
nE(Y )P (Nt = n)
n=1
nP (Nt = n) = λtE(Y1 ) .
n=1
The computation of the variance can be done with the same method, however,
it is more convenient to use the Laplace transform of Xt and the fact that the
second moment is obtained from the second derivative of the Laplace transform.
Exercice 8.2.2 :
From the independence of increments, we obtain that
(Xt − tλE(Y ), t ≥ 0) is a martingale.
More generally, for any bounded Borel
R
function f , we denote by µ(f ) = f (x)µ(dx) the expectation E(f (Y )). From
the definition of M f ,
X
X
P (Tn < t) − tλµ(f ) = 0
E(f (Yn ))P (Tn < t) − tλµ(f ) = σ(f )
E(Mtf ) =
n
n
178
Sauts.
The proof of the proposition is now standard and results from the computation
of conditional expectation which lead to, for s > 0


X
f
− Mtf |Ft ) = E 
f (∆Xu )11∆Xu 6=0 − sλµ(f )|Ft  = 0 .
E(Mt+s
t<u≤t+s
For the reciprocal, write
eiuXt
=
X
1+
s≤t
Z
=
t
+
0
where f (x) = e
iux
eiuXs− (eiuXs − 1)
Z
eiuXs− dMsf + σ(f )
t
eiuXs− ds
0
− 1. Hence,
Z
t+s
E(eiuXt+s |Ft ) = eiuXt + σ(f )
drE(eiuXt+r |Ft )
t
Rs
Setting ϕ(s) = E(eiuXt+s |Ft ) one get ϕ(s) = ϕ(0) + σ(f ) 0 ϕ(r)dr, hence
Z
E(eiuXt+s |Ft ) = es λ µ(dx)(eiux − 1)
where λ = σ(1) and µ = σ/λ).
Exercice 8.2.3 : From the independence between the r.v. (Yk , k ≥ 1) and
the process N ,
Ã
!
Nt
X
−αXt
E(e
) = E exp (−α
Yk ) = E(Φ(Nt ))
k=1
Ã
where Φ(n) = E
exp (−α
n
X
!
Yk )
= [ΨY (α)]n , with ΨY (α) = E (exp −αY ).
k=1
X
λn tn
Now, E(Φ(Nt )) =
[ΨY (α)]n e−λt
.
n!
n
8.3
Marché complets, incomplets
Exercice 8.5.1 : We shall now restrict our attention to the simple case of a
complete market where
dSt = St− [µdt + φdMt ]
and r = 0. Here, M is the compensated martingale associated with a poisson
process with deterministic intensity.
The non-arbitrage condition is equivalent to the existence of γ such that
λφ − µ
> 0.
γ > −1 and µ + λφγ = 0. This implies that
λφ
Corrigés. 2005-06
179
dQ
|F = Lt where
The unique equivalent martingale measure Q is defined by
dP t
L is the strictly positive martingale
µ
λφ − µ
λφ
Lt =
¶Nt
exp(tµ/φ)
µ
dMt .
λφ
def
Under the measure Q, M̃t = Mt + tµ/φ is a martingale.
Exercice 8.5.2 : Les m.m.e. sont définies par leur densité L vérifiant
which satisfies dLt = −Lt−
dLt = Lt− (−ψt dWt + γt dMt )
avec
σψ(t) = b − r + λφγ(t) , dP ⊗ dt.p.s.
Elles sont indexées par un processus γ > −1. Sous P γ , le processus W γ défini
par
Z t
def
W γ (t) = W (t) −
ψ(s) ds
0
def
Z
t
est un mouvement Brownien M γ (t) = M (t) −
On utilisera
Z
W γ (t) = W (t) + tθ +
b−r
.
σ
t
λφ
0
avec θ =
λγ(s)ds est une martingale.
0
γ(s)
ds = W 0 (t) +
σ
Z
t
λφ
0
γ(s)
ds
σ
180
Sauts.
Bibliography
181
Téléchargement