EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry

publicité
EXERCICES DE CALCUL STOCHASTIQUE
M2IF Evry
Monique Jeanblanc
Université d’EVRY
Mars 2009
2
Contents
1 Rappels
7
1.1
Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.2
Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.3
Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.4
Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.5
Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.6
Changement de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.7
Algèbre béta-Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.8
Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2 Mouvement Brownien
15
2.1
Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.2
Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
2.3
Brownien Multidimensionnel
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.4
Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.5
Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.6
Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.7
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.8
Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.8.1
. . . . . . . . . . . . . . . . . . . . . . . .
24
2.8.2
Partie II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
2.8.3
Partie III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
Partie I : Résultats préliminaires
3 Intégrale d’Itô
29
3.1
Intégrale de Wiener
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
3.2
Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
3.3
Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
3.4
Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
3.5
Brownien géométrique et extensions. . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
3.6
Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
3.7
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
3
4
CONTENTS
4 Exemples
45
4.1
Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
4.2
Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
4.3
Autres processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
4.4
Des calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
5 Equations différentielles stochastiques
51
5.1
Equation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
5.2
Processus affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
5.3
Autres équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
5.4
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
5.5
Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
6 Girsanov
59
6.1
Résultats élémentaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
6.2
Crochet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
6.3
Processus.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
6.4
Cas multidimensionel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
6.5
Temps d’arrêt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
6.6
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
7 Compléments
75
7.1
Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
7.2
Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
7.3
Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
78
7.4
Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
7.5
Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
7.6
Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
7.7
Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
7.8
Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
7.9
Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
8 Processus à sauts
85
8.1
Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
8.2
Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
8.3
Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
8.4
Temps de Défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
8.5
Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
1 Rappels, Corrigés
91
1.1
Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
1.2
Variables gaussiennes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
92
CONTENTS
5
1.3
Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
94
1.4
Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
1.5
Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
97
1.6
Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98
1.7
Algèbre béta-gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98
1.8
Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98
2 Mouvement Brownien, Corrigés
2.1
Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2.2
Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.3
Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
2.4
Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
2.5
Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.6
Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
2.7
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3 Intégrale d’Itô, Corrigés
113
3.1
Intégrale de Wiener
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.2
Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.3
Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.4
Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.5
Brownien géométrique et extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
3.6
Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.7
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4 Exemples, Corrigés
5
101
125
4.1
Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.2
Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.3
Autres processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.4
Des Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Equations différentielles stochastiques, Corrigés
129
5.1
Equation Linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.2
Processus affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.3
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.4
Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6 Girsanov, Corrigés
135
6.1
Résultats élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.2
Crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.3
Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.4
Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6
Rappels
6.5
Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.6
Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
7 Compléments, Corrigés
141
7.1
Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
7.2
Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
7.3
Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
7.4
Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
7.5
Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
7.6
Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
7.7
Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
7.8
Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8 Sauts, Corrigés.
149
8.1
Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.2
Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.3
Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Chapter 1
Rappels
1.1
Tribu
Exercice 1.1.1 Ensembles appartenant à une tribu.
1. Montrer que si F est une tribu, et si A et B appartiennent à F avec A ⊂ B, alors B − A ∈ F
où B − A est l’ensemble des éléments de B qui ne sont pas dans A.
def
2. Montrer que si C et D appartiennent à F, alors C∆D = {C ∩ Dc } ∪ {C c ∩ D} appartient à
F.
Exercice 1.1.2 Exemples de tribus.
1. Décrire la tribu engendrée par un ensemble A.
2. Décrire la tribu engendrée par deux ensembles A et B disjoints.
Exercice 1.1.3 Fonctions indicatrices.
On note 11A la v.a. qui vaut 1 pour ω ∈ A et 0 sinon.
1. Montrer que 11A∩B = 11A 11B .
2. Montrer que, si A ∩ B = ∅, on a 11A∪B = 11A + 11B .
3. Montrer que 11B−A = 11B − 11A .
4. Montrer que 11A∪B = 11A + 11B − 11A∩B .
Exercice 1.1.4 Union et intersection.
Soit F1 et F2 deux tribus. Montrer que F1 ∩ F2 est une tribu. Montrer qu’en général F1 ∪ F2 n’est
pas une tribu.
Exercice 1.1.5 Tribu grossie par un ensemble.
Soit F une tribu et A n’appartenant pas à F. Montrer que la tribu engendrée par F et A (c’est-àdire la plus petite tribu contenant F et A) est composée des ensembles B tels que il existe C et D
appartenant à F vérifiant B = (C ∩ A) ∪ (D ∩ Ac ).
Exercice 1.1.6 Tribu engendrée par une v.a.
Soit X une v.a. sur un espace (Ω, G). La tribu engendrée par X, notée σ(X), est la plus petite sous
tribu F telle que X soit mesurable de (Ω, F) dans (R, B). Elle est engendrée par C = {F ⊂ Ω, |F =
X −1 (B), B ∈ B). Montrer que C est une tribu. Vérifier que si Y = h(X) avec h borélienne, alors Y
est σ(X) mesurable. On admettra que la réciproque est vraie.
7
8
Rappels
Exercice 1.1.7 Lois de v.a.
Soit (X, Y ) un couple de variables indépendantes et (Z, T ) deux variables indépendantes telles que
loi
loi
X = Z et Y = T .
1. Soit f une fonction borélienne (bornée) de R dans R. Comparer E(f (X)) et E(f (Z)).
2. Soit h une fonction borélienne (bornée) de R2 dans R. Comparer E(h(X, Y )) et E(h(Z, T )).
1.2
Variables gaussiennes
On note N la fonction de répartition de la loi gaussienne standard: N (x) =
N (m, σ 2 ) la loi d’ une v.a. gausienne d’espérance m et de variance σ 2 .
√1
2π
Rx
−∞
e−u
2
/2
du et
Exercice 1.2.1 Moments.
Soit X une v.a.r. de loi N (0, σ 2 ).
1. Calculer E(X 3 ), E(X 4 ), E(|X|) et E(|X 3 |).
2. Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0.
3. Montrer que E(exp 12 a2 X 2 )) = E(exp(aXY )) où Y est indépendante de X et de même loi.
Exercice 1.2.2 Somme de variables gaussiennes indépendantes.
Soit X et Y deux v.a. gaussiennes indépendantes. Montrer que X + Y est une variable gaussienne.
Précisez sa loi.
Exercice 1.2.3 Transformée de Laplace.
Soit X une v.a.r. de loi N (m, σ 2 ).
1. Quelle est la loi de
X−m
σ
? Calculer E|X − m|.
2. Montrer que E(eλX ) = exp(λm + 12 λ2 σ 2 ). Calculer E(XeλX ).
2
3. Dans le cas où X est v.a. gaussienne standard montrer que E(exp a2 X 2 ) = E(exp aXX 0 ) avec
X et X 0 i.i.d.
Z x
y2
1
√
4. Soit Φ(x) = 2π
e− 2 dy. Calculer, dans le cas m = 0 et σ = 1 la valeur de E(11X≤b exp λX)
−∞
en fonction de (Φ, λ, b).
5. Montrer que E(eθX f (X)) = emθ+σ
2 2
θ /2
E(f (X + θσ 2 ) pour f continue bornée.
6. Montrer que, si f est ”régulière” E(f (X)(X − m)) = σ 2 E(f 0 (X)).
Exercice 1.2.4 Convergence.
Soit (Xn , n ≥ 1) une suite de v.a. gaussiennes qui converge dans L2 vers X. Quelle est la loi de X?
Exercice 1.2.5 Vecteur gaussien. Soit X un vecteur gaussien à valeurs dans Rn et A une matrice
(p, n). Montrer que AX est un vecteur gaussien. Préciser son espérance et sa variance.
Exercice 1.2.6 Vecteur Gaussien. Soit (X, Y ) un vecteur gaussien centré tel que E(XY ) = 0.
Montrer que X et Y sont indépendantes.
Enoncés
9
Exercice 1.2.7 Projection.(*)
Rappel : projection dans L2 : Soit A un sous espace de L2 (Ω) engendré
par les variables aléatoires
P
Y1 , . . . , Yn , c’est-à-dire si Z ∈ A, il existe (ai ) réels tels que Z = i ai Yi . Soit X ∈ L2 . On appelle
projection de X sur A l’unique élément P rX de A tel que
E( (X − P rX)Z) = 0, ∀Z ∈ A
Soit (X1 , X2 , . . . , Xd , Y1 , . . . , Yn ) un vecteur gaussien centré dans Rd+n . Montrer que X =
(X1 , X2 , . . . , Xd ) et Y = (Y1 , . . . , Yn ) sont deux vecteurs gaussiens centrés.
On suppose d = 1. Montrer que P rX est une v.a. gaussienne σ(Y ) mesurable, telle que X − P rX
et Y sont indépendantes.
Exercice 1.2.8 Caractérisation de vecteur gaussien. Soit (X, Y ) deux v.a.r. telles que Y
est gaussienne et la loi conditionnelle de X à Y est gaussienne de moyenne aY + b et de variance
λ2 2
indépendante de Y , c’est-à-dire que E(exp(λX)|Y = y) = exp(λ(ay + b) +
σ ). Montrer que le
2
couple (X, Y ) est gaussien.
1.3
Espérance conditionnelle
On travaille sur un espace (Ω, F, P) muni d’une sous-tribu de F notée G.
Exercice 1.3.1 Montrer que, si X et Y sont bornées
E(Y E(X|G)) = E(XE(Y |G))
Montrer que si X est G-mesurable et Y est indépendante de G, pour toute fonction borélienne bornée
Φ,
E(Φ(X, Y )|F) = Ψ(X)
où Ψ(x) = E(Φ(x, Y )).
Exercice 1.3.2 Montrer que si X ∈ L2 , E(X|G) = Y et E(X 2 |G) = Y 2 alors X = Y .
Exercice 1.3.3 Soit (X, Y ) indépendantes, X strictement positive et Z = XY . Calculer E(11Z≤t |X)
en utilisant la fonction de répartition de Y .
Exercice 1.3.4 Soit (X, Y ) indépendantes, équidristibuées et M = max(X, Y ). Calculer E(11X≤t |M ).
Exercice 1.3.5 Conditionnement et indépendance.
Soit X, Y deux v.a. telles que la v.a. X − Y est indépendante de G, d’espérance m et de variance
σ 2 . On suppose que Y est G-mesurable. Calculer E(X − Y | G). En déduire E(X | G). Calculer
E( (X − Y )2 | G). En déduire E(X 2 | G).
Exercice 1.3.6 Vecteur gaussien (*) Suite de l’exercice 1.2.7
Soit (X, Y1 , . . . , Yn ) un vecteur gaussien centré dans R1+n . Montrer que E(X|Y ) = P rX.
On suppose n = 1. Montrer que E(X|Y ) = αY . Déterminer α.
Exercice 1.3.7 Soit X = X1 + X2 . On suppose que X1 est indépendante de G, que X2 est G
mesurable et que X1 est gaussienne.
1. Calculer E(X|G) et var (X|G).
10
Rappels
2. Calculer E(eλX |G).
Exercice 1.3.8 Covariance conditionnelle. Soit Z1 , Z2 deux variables aléatoires de carré intégrable.
On définit
Cov(Z1 , Z2 |G) = E(Z1 Z2 |G) − E(Z1 |G)E(Z2 |G) .
Montrer que
Cov(Z1 , Z2 |G) = E[ (Z1 − E(Z1 |G)) Z2 |G ].
Exercice 1.3.9 Tribu grossie.
Soit A ∈
/ G et A ∈ F et X une v.a. intégrable. On note H la tribu engendrée par G et A. (Voir
exercice 1.1.5). On admettra que les v.a. Z qui sont H mesurables s’écrivent Z = Y1 11A + Y2 11Ac ,
où les v.a. Yi sont G-mesurables. Montrer que
E(X|H) =
E(X11A |G)
E(X11Ac |G)
11A +
11Ac
E(11A |G)
E(11Ac |G)
Exercice 1.3.10 Linéarité. Soit Z = αY +β, avec α 6= 0. Montrer que E(aX+b|Z) = aE(X|Y )+b.
Exercice 1.3.11 Grossissement progressif Soit F une tribu. On considère la tribu G engendrée
par τ ∧ 1 où τ est une v.a. à valeurs dans R+ .
1. Montrer que toute v.a. G mesurable s’écrit h(τ ∧ 1) où h est borélienne.
2. Montrer que, si X est une v.a. F mesurable, E(X|G)111≤τ = A111≤τ où A est une constante.
Montrer que A = E(X111≤τ )/P(1 ≤ τ ).
Exercice 1.3.12 Conditionnement et indépendance 1. Soit G1 et G2 deux σ-algèbres indépendantes,
G = G1 ∨G2 et (Xi , i = 1, 2) deux variables aléatoires bornées telles que Xi est Gi mesurable. Montrer
que E(X1 X2 |G) = E(X1 |G1 )E(X2 |G2 ).
Exercice 1.3.13 Conditionnement et indépendance 2. Montrer que si G est indépendante de
σ(X) ∨ F, E(X|G ∨ F) = E(X|F).
Exercice 1.3.14 Formule de Bayes.
Montrer que
Soit dQ = LdP sur (Ω, F) et G une sous-tribu de F.
EQ (X|G) =
1
EP (ZX|G) .
EP (Z|G)
Montrer que
EQ (X|G) = EP (X|G), ∀X ∈ F
si et seulement si L est G mesurable.
Exercice 1.3.15 Soit f et g deux densités strictement positives sur R. Soit X une v.a. de densité
f sur un espace (Ω, P). Montrer qu’il existe une probabilité Q sur cet espace telle que X soit de
densité g.
Exercice 1.3.16 Indépendance conditionnelle Soit (Ft ) et (Gt ) deux filtrations.
1. Montrer que les propriétés suivantes sont équivalentes.
(H1) pour tout t, les tribus F∞ et Gt sont conditionellement indépendantes par rapport à Ft .
(H2)
∀F ∈ F∞ , ∀Gt ∈ Gt , E(F Gt |Ft ) = E(F |Ft ) E(Gt |Ft )
(H3)
∀t, ∀Gt ∈ Gt , E(Gt |F∞ ) = E(Gt |Ft )
(H4)
∀t, ∀F ∈ F∞ , E(F |Gt ) = E(F |Ft ).
Enoncés
11
2. Soit F et G deux filtrations telles que Ft ⊂ Gt . Montrer que
(H) Toute F-martingale de carré intégrableest une G-martingale
équivaut à (H1).
3. Dans le cas Gt = Ft ∨ σ(t ∧ τ ) où τ est un temps aléatoire, montrer que (H1) équivaut à
(H5) ∀s ≤ t, P(τ ≤ s|F∞ ) = P(τ ≤ s|Ft ).
1.4
Martingales
L’espace Ω est muni d’une filtration (Ft ).
Un processus M est une martingale si
- pour tout t, Mt est intégrable;
- pour tout t > s, E(Mt |Fs ) = Ms , p.s.
On dit que M est une surmartingale si
- Mt est adapté, intégrable;
- E(Mt |Fs ) ≤ Ms , ∀s ≤ t .
Le processus M est une sousmartingale si −M est une surmartingale.
Exercice 1.4.1 Exemple de base. Soit X une v.a. intégrable. Montrer que (E(X |Ft ), t ≥ 0) est
une martingale.
Exercice 1.4.2 Surmartingale.
1. Montrer que si M est une martingale et A un processus croissant adapté (As ≤ At , ∀s ≤ t)
alors M − A est une surmartingale.
2. Soit M une martingale. Que peut-on dire de M 2 ?
2
3. Soit M une martingale telle que E(M∞
) < ∞. Montrer que supt E(Mt2 ) < ∞.
4. Montrer qu’une surmartingale telle que E(ZT ) = E(Z0 ) est une martingale sur [0, T ].
Exercice 1.4.3 Martingale locale. Montrer qu’une martingale locale positive est une surmartingale.
Exercice 1.4.4 Martingale en fonction de la valeur terminale. Soit X une martingale telle
que XT = ζ. Exprimer Xt en fonction de ζ pour t < T au moyen d’une espérance conditionnelle.
Exercice 1.4.5 Un lemme. On trouve dans la littérature (Duffie) le lemme suivant:
Z t
Lemma: Let φ be an adapted bounded process. Then (Yt = Mt −
φs ds, 0 ≤ t ≤ T ) for some
0
martingale M if and only if
Z
Yt = E[
T
φs ds + YT |Ft ]
t
Donner une démonstration de ce lemme.
Exercice 1.4.6 Martingale de carré intégrable. Soit (Mt , t ≥ 0) une Ft -martingale de carré
intégrable (telle que Mt2 soit d’espérance finie, pour tout t). Montrer que
1. E((Mt − Ms )2 |Fs ) = E(Mt2 |Fs ) − Ms2 pour t > s.
2. E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) pour t > s.
3. La fonction Φ définie par Φ(t) = E(Mt2 ) est croissante.
12
Rappels
Exercice 1.4.7 Projection de martingale. Montrer que si M est une Ft -martingale, c’est aussi
une martingale par rapport à sa propre filtration Gt = σ(Ms , s ≤ t). Soit Ht ⊂ Ft . Montrer que
Yt = E(Mt |Ht ) est une Ht -martingale.
Exercice 1.4.8 Une sousmartingale. Soit τ une v.a. positive. Montrer que Zt = P(τ ≤ t|Ft )
est une sousmartingale.
Exercice 1.4.9 Processus à accroissements indépendants. Soit X un PAI (processus à accroissements indépendants, c’est-à-dire tel que, pour t > s, la v.a. Xt − Xs est indépendante de
σ(Xu , u ≤ s)). Montrer que, si, pour tout t, la v.a. Xt est intégrable, X est une martingale et que
si X est de carré intégrable, Xt2 − E(Xt2 ) est une martingale. Montrer que, si eλXt est intégrable,
Zt =
eλXt
E(eλXt )
est une martingale.
Exercice 1.4.10 Soit M une martingale positive continue uniformément intégrable et τ = inf{t :
Mt = 0}. Montrer que M est nulle sur t > τ .
Exercice
R t 1.4.11 Soit
R tX un processus F-adapté, positif à trajectoires continues et G ⊂ F. Montrer
que E( 0 Xs ds|Gt ) − 0 E(Xs |Gs )ds est une G-martingale.
1.5
Temps d’arrêt
Exercice 1.5.1 Tribu associée à un temps d’arrêt. Soit τ un temps d’arrêt. Montrer que Fτ
est une tribu.
Exercice 1.5.2 Soit T un temps d’arrêt et X une variable aléatoire appartenant à FT , vérifiant
X ≥ T . Montrer que X est un temps d’arrêt.
Exercice 1.5.3 Exemple de processus adapté. Soit T un temps d’arrêt. Montrer que le processus Xt = 11]0,T ] (t) est adapté.
Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps d’arrêt tels que S ≤ T . Montrer
que FS ⊂ FT .
Exercice 1.5.5 Propriété de mesurabilité. Soit S un temps d’arrêt. Montrer que S est FS mesurable.
Exercice 1.5.6 Soit S et T deux temps d’arrêt. Montrer que {S ≤ T }, {T ≤ S} appartiennent à
FS .
Exercice 1.5.7 Exemple de processus càdlàg. Soit S et T deux temps d’arrêt tels que S < T .
Montrer que le processus Zt = 11[S,T [ (t) (égal à 1 si S ≤ t < T et à 0 sinon) est un processus càdlàg.
Exercice 1.5.8 Exemple trivial de temps d’arrêt. Montrer qu’une constante τ est un temps
d’arrêt. Quelle est dans ce cas la tribu Fτ ?
Exercice 1.5.9 Opérations sur les temps d’arrêt. Montrer que l’inf (resp. le sup) de deux
temps d’arrêt est un temps d’arrêt.
Enoncés
13
Exercice 1.5.10 Caractérisation de martingale.
1. Soit s < t, A ∈ Fs et T = t11Ac + s11A . Montrer que T est un temps d’arrêt.
2. Montrer que si E(XT ) = E(X0 ) pour tout temps d’arrêt T , alors le processus X est une
martingale.
Exercice 1.5.11 Théorème d’arrêt. Soit M une martingale continue telle que M0 = a et
loi a
limt→∞ Mt = 0. Montrer que sup Mt =
où U est une v.a. de loi uniforme sur [0, 1].
U
1.6
Changement de probabilité
Ce thème sera central en vue d’application à la finance.
Deux probabilités P et Q définies sur le même espace (Ω, F) sont dites équivalentes si elles ont
mêmes ensembles négligeables, c’est à dire si
P(A) = 0 ⇐⇒ Q(A) = 0.
On admet le résultat: Si P et Q sont équivalentes, il existe une variable Y , strictement positive,
F-mesurable, d’espérance 1 sous P appelée densité de Radon-Nikodym telle que dQ = Y dP ou encore
R
dQ
Q(A) = A Y dP. On écrit également cette relation sous la forme
= Y . Réciproquement, si Y
dP
est une v.a. strictement positive, F-mesurable, d’espérance 1 sous P, la relation EQ (Z) = EP (ZY )
définit une probabilité Q équivalente à P. Elle est facile à mémoriser par la règle de calcul formel
suivante:
Z
Z
Z
dQ
EQ (Z) = ZdQ = Z
dP = ZY dP = EP (ZY )
dP
On a aussi
1
dP
= .
dQ
Y
Exercice 1.6.1 Montrer que si P est une probabilité et Z une v.a., telle que l’égalité dQ = ZdP
(soit Q(A) = EP (Z11A )) définit une probabilité, alors EP (Z) = 1 et P(Z < 0) = 0.
Exercice 1.6.2
1. Soit U une variable de Bernoulli sous P définie par
P(U = 0) = 1 − p,
P(U = 1) = p.
Soit Y la variable définie par Y = λU + µ(1 − U ). Dans quels cas cette variable est elle
d’espérance 1? Soit dQ = Y dP, Calculer Q(U = 1). Quelle est la loi de U sous Q?
2. Soit X est une v.a. de loi N (m, σ 2 ) sous P et soit Y = exp{h(X −m)− 21 h2 σ 2 }. Soit dQ = Y dP.
Calculer EQ {exp(λX)}) = EP {Y exp(λX)}. En déduire la loi de X sous Q (utiliser l’exercice
1.2.1.
3. Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U ) soit gaussien.
1
On pose dQ = Y dP avec Y = exp(U − EP (U ) − VarP U ). Montrer que X est gaussien sous
2
Q, de même covariance que sous P.
1.7
Algèbre béta-Gamma
Exercice 1.7.1 Loi Arc sinus Une variable aléatoire A a une loi Arc Sinus si sa densité est
1
1
loi
√ √
11t∈[0,1] . Montrer que cos2 (Θ) = A si Θ est uniforme sur [0, 2π].
π 1−t
14
Brownien.
Soit N et N 0 deux variables N (0, 1) indépendantes. Montrer que
N2
loi
= A.
N 2 + N 02
Soit C =
N
1
. Montrer que C a une loi de Cauchy et que
a une loi Arc sinus.
N0
1 + C2
1.8
Divers
Exercice 1.8.1 Soit X un processus at Mt = sup0≤s≤t Xs . On note τ une v.a. de loi exponentielle
de paramètre θ indépendante de X. Montrer que
Z ∞
−λu −θTu
E (exp(−λMτ )) = 1 − λE
due
e
0
où Tu = inf{t : Xt ≥ u}.
Exercice 1.8.2 Transformée de Laplace et indépendance. Soit X et Y deux v.a. indépendantes.
Justifier que E(eλ(X+Y ) ) = E(eλX )E(eλY ). La réciproque est-elle vraie?
Exercice 1.8.3 Transformée de Laplace et moments. Soit X et Y deux v.a. bornées telles
que E(eλX) = E(eλY ) pour tout λ. Montrer que X et Y ont même moments.
Exercice 1.8.4 Markov. Soit X un processus de Markov fort et Ta = inf{t : Xt = a}. Montrer
que, pour t < T
P(XT ∈ dx |Xt = a) = P(XT ∈ dx|Ta = t) .
Exercice 1.8.5 Propriété de Markov Soit B un mouvement Brownien et f une fonction. On
note T f = inf{t : Bt = f (t)}. Montrer que
P(Bt ≥ f (s)|T f = s) =
1
11s<t .
2
Si f est croissante, montrer que P(T f ≤ t) = 2P(Bt ≥ f (T f )).
Chapter 2
Mouvement Brownien
Dans tout ce qui suit, (Bt , t ≥ 0) est un mouvement Brownien réel (un processus à accroissements
indépendants issu de 0, tel que pour t > s, Bt − Bs est une v.a. gaussienne centré de variance t − s)
et on note F = (Ft , t ≥ 0) sa filtration naturelle.
Dans certains exercices, il sera précisé que B est issu de x.
On rappelle que si X est un processus continu issu de 0, c’est un mouvement Brownien si et seulement
si X et (Xt2 − t, t ≥ 0) sont des martingales.
Le mouvement Brownien est un processus de Markov fort: pour tout temps d’arrêt τ fini
E(f (Bt+τ |Fτ ) = E(f (Bt+τ |Bτ ) .
2.1
Propriétés élémentaires
Exercice 2.1.1 Caractérisation. Montrer qu’un processus X est un mouvement Brownien si et
seulement si
a. Pour tout t0 < t1 · · · < tn , le vecteur (Xt0 , Xt1 , . . . , Xtn ) est un vecteur gaussien centré
b. E(Xt Xs ) = s ∧ t
c. X0 = 0
Exercice 2.1.2 Caractérisation 2.
Montrer qu’un processus continu X est une mouvement
Brownien si et seulement si, pour tout λ le processus exp(λXt − 12 λ2 t) est une martingale.
Exercice 2.1.3 Calcul d’espérances.
1. Calculer pour tout couple (s, t) les quantités E(Bs Bt2 ), E(Bt |Fs ), E(Bt |Bs ) et E(eλBt |Fs ).
Rt
Rt
2. Calculer E( 0 Bu du|Fs ) avec t > s et E( 0 Bu du|Bs )
3. On a vu, dans Exercice 1.2.1, que si Z est une v.a. gaussienne centrée de variance σ 2 , on a
E(Z 4 ) = 3σ 4 . Calculer E(Bt2 Bs2 ).
4. Quelle est la loi de Bt + Bs ?
5. Soit θs une variable aléatoire bornée Fs -mesurable. Calculer pour t ≥ s, E(θs (Bt − Bs )) et
E[θs (Bt − Bs )2 ].
6. Calculer E(11Bt ≤a ) et E(Bt 11Bt ≤a ).
Rt
Rt
7. Calculer E( 0 exp(Bs )ds) et E(exp(αBt ) 0 exp(γBs )ds).
8. Calculer E(eBt |Fs ) et E((aeBt − b)+ |Fs ).
15
16
Brownien.
√
Exercice 2.1.4 Lois. Montrer que E(f (Bt )) = E(f (G u + Bt−u )) avec G v.a. indépendante de
Bt−u et de loi gaussienne centré réduite. En déduire le calcul de E(f (Bt )|Fs ).
Exercice 2.1.5 Soit Θ une variable aléatoire de loi exponentielle de paramètre θ (soit P (Θ ∈ dx) =
θe−θx 11x>0 dx) indépendante de B. Quelle est la loi de BΘ ?
Exercice 2.1.6 Des martingales. Parmi les processus suivants,
quels sont
Z t
Z t ceux qui sont des
martingales. (On pourra utiliser, sans démonstration, que E[
Bu du|Fs ] =
E[Bu |Fs ] du.)
0
1. Mt = Bt3 − 3
Rt
0
0
Bs ds.
2. Zt = Bt3 − 3tBt .
Rt
3. Xt = tBt − 0 Bs ds.
Z
1 t
sin(Bs ) ds.
4. Ut = sin Bt +
2 0
Rt
5. Yt = t2 Bt − 2 0 Bs ds.
Exercice 2.1.7 Exponentielle de Brownien. Calculer E(ex+Bt ) et E(sin(x + Bt )) en utilisant
Z
1 t
E(f (x + Bt )) = f (x) +
E(f 00 (x + Bs )) ds .
2 0
Exercice 2.1.8 Changement de temps. Soit Zt = BA(t) où A est une fonction déterministe
continue strictement croissante.
1. Calculer l’espérance et la variance de Zt . Ce processus est-il une martingale par rapport à F?.
2. On définit Gt = FA(t) . Montrer que Z est une G-martingale.
3. Déterminer le processus croissant C tel que (Zt )2 − Ct soit une G-martingale.
4. Soit un processus M tel que M est une martingale et il existe A, fonction déterministe continue
strictement croissante telle que Mt2 − A(t) est une martingale. On note C l’inverse de A, c’està-dire la fonction telle que C(A(t)) = t. Montrer que Wt = MC(t) est un mouvement Brownien.
Exercice 2.1.9 Calcul d’espérance. Comment calculer Ex (f (Bt )g(Bs ))?
Exercice 2.1.10 Calculer
Z
1
E((λ
duBu + µB1 )2 )
0
Exercice 2.1.11 Calcul de transformée de Laplace. Calculer Ex exp(−λWt2 ) .
Exercice 2.1.12 Comportement limite.
1. Montrer que limt→∞
Bt
=0
t
2. Montrer que limt→∞ Px (Bt < 0) = 1/2. En déduire que pour tout x > 0, si T0 = inf{t : Bt =
0}, on a Px (T0 < ∞) ≥ 1/2. (En fait, on peut montrer que T0 est fini ps.)
Z
Exercice 2.1.13 Montrer que l’intégrale
0
1
Bs
ds est convergente.
s
Enoncés
17
Exercice 2.1.14 Tribu triviale. On admettra qu’un ensemble appartenant à la filtration F0 = F0+
a pour probabilité 0 ou 1.
1
Si τ = inf{t ≥ 0 : Bt > 0}, montrer que P (τ ≤ t) ≥ . En déduire que P (τ = 0) = 1.
2
Exercice 2.1.15 Applications de la propriété de Markov. Montrer que
Z
t
Ex
Z
h(r, Br )dr|Fs =
0
0
Z
s
h(r, Br )dr + EBs
t−s
h(s + u, Bu )du
0
Exercice 2.1.16
continue bornée. On pose
Z τ Soit τ un temps d’arrêt, λZ> ∞0 et u une fonction
−λt
−λt
g(x) = Ex
e u(Bt )dt et f (x) = Ex
e u(Bt )dt où comme d’habitude l’indice x
0
0
précise que le Brownien est issu de x.
1. Montrer que g et f sont définies.
2. Montrer que
Z
Ex
∞
e−λt u(Bt )dt = Ex 11τ <∞ e−λτ f (Bτ ) .
τ
3. Montrer que si τ = T0 , alors g(x) = f (x) − f (0)ϕ(x) où on explicitera ϕ.
α2
Exercice 2.1.17 Polynômes d’Hermite. Les polynômes d’Hermite Hk sont définis par eαx− 2 =
X αk
α2
Hk (x). Montrer qu’il existe Hk (x, t), polynômes en les deux variables (t, x) tels que eαx− 2 t =
k!
X αk
Hk (x, t). En déduire la valeur de E(Btk |Fs ).
k!
Exercice 2.1.18 Des gaussiennes. Soit St = exp(µt + σBt ). Calculer l’espérance et la variance
Z T
Z T
de
St dt et
ln St dt. Ces variables sont-elles gaussiennes?
0
0
Exercice 2.1.19 Zeros. Montrer que
2
P(Bu =
6 0, ∀u ∈]s, t[) = arcsin
π
r
s
t
Exercice 2.1.20 Filtration. Soit Gt = Ft ∨ σ(B1 ). Vérifier que B n’est pas une G-martingale.
2.2
Processus Gaussiens
Z
t
Exercice 2.2.1 Montrer que le processus Yt =
Bu du est gaussien. Calculer son espérance et sa
0
covariance.
Exercice 2.2.2 Expliciter la solution de
dXt = −aXt dt + ebt dBt
Calculer E(Xt ) et V ar(Xt ).
18
Brownien.
Exercice 2.2.3 Non-existence de processus. Montrer qu’il n’existe pas de processus ”régulier”
X tel que ∀(s, t), s 6= t, les variables Xt et Xs soient indépendantes, centrées gausssiennes, et E(Xt2 )
Z t
localement borné. On considérera
Xs ds et on montrera que ce processus serait Gaussien, on
0
calculera son espérance et sa variance.
Exercice 2.2.4 Le pont Brownien. On définit un pont Brownien par
Zt = Bt − tB1 , 0 ≤ t ≤ 1.
1. Montrer que Z est un processus gaussien indépendant de B1 . Préciser sa loi, c’est-à-dire sa
moyenne et sa fonction de covariance.
2. Montrer que le processus Z̃ avec Z̃t = Z1−t a même loi que Z.
t , 0 < t < 1 a même loi que Z.
3. Montrer que le processus Y avec Yt = (1 − t)B 1−t
loi
4. Montrer que (Zt = (Bt |B1 = 0)).
Z
t
Bs
ds est un processus
0 s
gaussien. Calculer sa variance et sa covariance. En déduire que Z est un mouvement Brownien.
Montrer que Z n’est pas une FB -martingale, où FB est la filtration naturelle de B.
Exercice 2.2.5 Un exemple surprenant. Montrer que Zt = Bt −
u
Bt , u ≤ t).
t
Montrer que Γt est croissant en t. Montrer que Γ(Bu , u ≤ t) = Γt ⊕ Γ(Bt ) où Γ(G) est l’espace
engendré par G.
Exercice 2.2.6 Pont. Soit B un MB et Γt l’espace Gaussien engendré par (Bu −
m2
t) , et Q
2
définie sur FT par dQ = LT dP. Montrer que B̃t = Bt − mt est, sous Q, un processus gaussien à
accroissements indépendants. Montrer que B̃t est un Q-mouvement Brownien.
Exercice 2.2.7 Changement de probabilité. Soit B un MB, Lt = exp(mBt −
Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et τ une v.a. positive. On admettra que
E(sup(|Bt | − tp/2 )) < ∞
t
1. Montrer que
E(sup(|Bt | − µtp/2 )) = λE(sup(|Bs | − sp/2 ))
t
s
1
avec λ = ( )1/(p−1) .
µ
2. Montrer que E(|Bτ |) ≤ E(supt (|Bt | − µtp/2 )) + µE(τ p/2 ).
3. Montrer que
∀p > 1, ∃Cp , ∀τ,
2.3
E(|Bτ |) ≤ Cp ||τ 1/2 ||p
Brownien Multidimensionnel
Exercice 2.3.1 Deux mouvenements Browniens B et W sont corrélés si le processus (Wt Bt −ρt, t ≥
0) est une martingale. Soit deux mouvements Browniens B et W corrélés de coefficient de corrélation
ρ. Montrer, sans utiliser la formule d’Itô
p pour des processus corrélés, qu’il existe un Brownien Z,
indépendant de W tel que B = ρW + 1 − ρ2 Z.
Enoncés
19
Exercice 2.3.2 Somme de browniens.
Soit W un mouvement brownien indépendant de B et
p
ρ ∈ [0, 1]. Montrer que (Zt = ρWt + 1 − ρ2 Bt , t ≥ 0) est un mouvement Brownien.
Soient B et W deux browniens indépendants et (σi , i = 1, 2) deux fonctions déterministes. Montrer
qu’il existe une fonction σ3 telle que le processus Z défini par
σ3 (t)dZt = σ1 (t)dBt + σ2 (t)dWt
est un Brownien.
Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction borélienne bornée. Montrer que, pour 0 < s < t Ex (f (Bt )|Fs ) = Φ(Bs ) avec Φ(x) = Ex [f (Bt−s )]. En déduire que B i B j est
une martingale pour i 6= j.
Exercice 2.3.4 Mouvement Brownien dans R2 .
1. Soit W1 et W2 deux mouvements Browniens indépendants. Le processus Wt = W1 (t) + W2 (t)
est-il un mouvement Brownien? Si oui, justifiez la réponse, sinon, expliquez pourquoi. Même
question avec αW1 (t) + βW2 (t).
2. Soit W1 et W2 deux processus. Soit c un réel donné. Montrer que si
t
1 c
a
exp aW1 (t) + bW2 (t) − [a, b]
, t≥0
c 1
b
2
est une martingale pour tout couple (a, b), W1 et W2 sont des MB. Calculer E[exp(aW1 (t) +
bW2 (t))].
Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel et U une matrice telle
que U U T = I. Montrer que (U Bt , t ≥ 0) est un MB.
2.4
Temps d’atteinte
Dans tous ces exercices, a ∈ R et Ta = inf{t : Bt = a}.
Exercice 2.4.1 Transformée de Laplace. Montrer que Ta est un temps d’arrêt.
E(e−λTa ) pour tout λ réel. Montrer que P(Ta < ∞) = 1 et que E(Ta ) = ∞.
Mêmes questions avec τa = inf{t : St = a} où St = exp(σBt ).
Calculer
Exercice 2.4.2 Soit a < 0 < b et T = Ta ∧ Tb . Calculer P(Ta < Tb ) et E(T ).
Exercice 2.4.3 Temps d’atteinte.
1. Soit f (t) = E(e−rTa 11Ta <t ). On ne cherchera pas à calculer f ici.
Calculer en fonction de f la quantité E(e−r inf(T,Ta ) ) où T est un nombre positif.
2. Montrer que si 0 < a < b, Tb − Ta est indépendant de Ta et a même loi que Tb−a . Montrer
(sans calculs) que pour b > a > 0, la v.a. Tb − Ta est indépendante de Ta . Quelle est la loi de
Tb − Ta ? Que peut-on dire du processus (Ta , a > 0)?
loi
3. Soit T un nombre réel. Calculer Zt = P(Ta > T |Ft ). On rappelle que supu≤t Bu = |Bt |.
4. Calculer E(e−λTa ) avec Ta = inf{t : Xt = a} et Xt = νt + Wt . Calculer E(e−λT ) pour
T = Ta ∧ Tb .
loi
5. Montrer qu’il existe c tel que Tr = cTr + X avec X indépendante de c.
20
Brownien.
6. Mêmes questions si Ta = inf{t; νt + Bt = a}.
7. Soit
un brownien géométrique
(soit St = x exp(νt + σWt )) et τa = inf{t : St = a}. Calculer
Z S
Z τb
∞
E(
e−rt St dt) et E(
e−rt St dt). TROP DIFFICILE
0
0
Montrer que si 0 < a < b, τb − τa est indépendant de τa et a même loi que τb−a .
Calculer E(e−rτK 11τK <T 11τH −τK >t ).
Exercice 2.4.4 On suppose b < 0 < a. Montrer que (a − Bt )(Bt − b) + t est une F-martingale. En
déduire E(Ta,b ) où Ta,b = Ta ∧ Tb .
Exercice 2.4.5 Premier instant. Soit B un MB issu de 0 et T d = d+inf{t : Bt+d = 0}. Calculer
d
d
E(e−λT ) et E(11Bd ≤a e−λT ).
∗
Soit T ∗ = d si Bd ≥ −a et T ∗ = d + T d si Bd ≤ −a, Bd+T d ≥ −a. Calculer E(e−λT ).
Exercice 2.4.6 Soit Tea et Tba deux v.a. indépendantes de même loi que Ta . Quelle est la loi de
Tea
(Sans faire de calculs).
Tea + Tba
Exercice 2.4.7 Loi de l’inf. Soit I = − inf s≤T1 Bs . Montrer que P(I ∈ dx) =
dx
.
1 + x2
Exercice 2.4.8 Soit Ta∗ = inf{u : Mu − Bu > a} avec Mu = supt≤u Bt . Montrer que MTa∗ a une
loi exponentielle.
Exercice 2.4.9 Temps d’atteinte Soit A et B deux nombres positifs. On note Xt = µt + σBt et
exp(−2µx/σ 2 ) − exp(2µB/σ 2 )
h(x) =
. Vérifier que h(Xt ) est une martingale. Le temps d’arrêt τ
exp(−2µA/σ 2 ) − exp(2µB/σ 2 )
est défini par
τ = inf{t : Xt = A ouXt = −B} .
Calculer P(Xτ = A).
Exercice 2.4.10 Soit f une fonction borélienne bornée et et
Z T0
θ2
u(x) = Ex (exp[− T0 +
duf (Bu )])
2
0
où B est un mouvement Brownien issu de x. Montrer que u est solution de
1 00
θ2
u = ( + f )u, u(0) = 1
2
2
Exercice 2.4.11 Soient a, d deux nombres réels positifs.
√
2λ
1. Calculer E(e−|Bd |
11Bd ≤−a ).
2. Soit T1 = inf{t ≥ d : Bt = 0}. Montrer que T1 est un temps d’arrêt. Calculer E(e−λT1 ) et
E(e−λT1 11Bd ≤−a ). Montrer que BT1 +d est indépendant de Bd et de T1 .
3. On introduit la v.a. τ1 suivante : si Bd ≤ −a, on pose τ1 = d. Si Bd > −a et si BT1 +d ≤ −a,
on pose τ1 = T1 + d, sinon on pose τ1 = ∞.
Calculer pour λ > 0 la transformée de Laplace de τ1 , soit E(e−λτ1 ).
4. On continue. Si Bd ≤ −a, on pose τ2 = d. Si Bd > −a et si BT1 +d ≤ −a, on pose T2 = T1 + d,
sinon on définit T2 = inf{t ≥ T1 + d : Bt = 0}. Si BT2 +d ≤ −a on pose τ2 = T2 + d. Dans
tous les autres cas, on pose τ2 = ∞.
Enoncés
21
(a) Montrer que BT2 +d est indépendant de (BT1 +d , Bd ) et de T2 .
(b) Calculer la transformée de Laplace de τ2 .
5. On utilise la même procédure pour définir par itération τn et on pose τ = τ∞ .
(a) Montrer que τ est fini en utilisant, après l’avoir justifié que
Y
P(τ < ∞) =
P(BTi +d < −a)
i
(b) Calculer la transformée de Laplace de τ .
(c) Calculer la transformée de Laplace de Bτ .
(d) Montrer que Bτ est indépendant de τ .
Exercice 2.4.12 On trouve parfois (voir exercice précédent, ou les temps d’atteinte d’un niveau)
des temps d’arrêt τ tels que τ et Bτ sont indépendants. Ceci n’est cependant pas très courant.
Dans ce qui suit on admettra le résultat (non trivial) suivant (Cramer) Si X et Y sont deux v.a.
indépendantes telles que X + Y est une v.a. gaussienne, alors X et Y sont des gaussiennes.
Le but de cet exercice est de montrer : si τ est borné par K et si τ et Bτ sont indépendants,
alors τ est une constante.
1. Montrer que si s > K,
bs−τ
Bs = Bτ + B
b un mouvement Brownien indépendant de Fτ .
avec B
bs−τ sont des v.a. indépendantes.
2. Montrer que Bτ et B
3. Calculer l’espérance et la variance de Bτ . (Attention, ce n’est pas trivial. Penser au cas où
τ = Ta .)
bs−τ est une v.a. Gaussienne.
4. Montrer que B
√
loi p
5. Montrer que l’on obtient K − τ G = K − E(τ ) G où G est une v.a. gaussienne réduite
centrée.
6. Conclure.
Exercice 2.4.13 Soit a et µ deux constantes strictement positives et T1 = inf{t : Bt ≥ a − µt},
T2 = inf{t : Bt ≤ −a + µt}. On pose, pour tout λa ≥ 0, Φ(λ) = E(exp[−λτ ]) avec τ = T1 ∧ T2 .
loi
loi
1. Montrer que T1 = T2 et que (T1 , T2 ) = (T2 , T1 ).
2. Vérifier que Φ est bien définie et donner un majorant et un minorant simples de Φ (S’aider
par un dessin).
3. Montrer que Φ(λ) = 2E (exp(−λT1 )11T1 <T2 ).
4. Montrer que
eλa Φ(−λµ − λ2 /2) + e−λa Φ(λµ − λ2 /2) = 2
Exercice 2.4.14 Soit Xt = νt + σBt . Montrer que, pour tout λ
exp(λXt + βt), t ≥ 0
est une martingale pour un paramètre β que
l’on
déterminera.
λ2
et P(Ta < ∞).
On note Ta = inf{t : Xt ≥ a}. Calculer E exp − Ta
2
Exercice 2.4.15 Calculer P(Mt ≤ y|Bt = x) où Mt = sup(Bs , s ≤ t).
22
Brownien.
2.5
Scaling
Z t
Z
Exercice 2.5.1 Montrer que le calcul de E(
exp(νs + σBs ) ds) se déduit de E(
0
T
exp(2(µs +
0
Bs ) ds). On ne demande pas de faire ce calcul.
Exercice 2.5.2 Soit T1 = inf{t : Bt = 1}. Utiliser le scaling du MB pour établir les égalités en loi
suivantes
loi
1. T1 =
1
avec S1 = sup(Bu , u ≤ 1)
S12
loi
2. Ta = a2 T1 avec Ta = inf{t : Bt = a}.
loi
loi
3. gt = tg1 , dt = td1 où gt = sup{s ≤ t : Bs = 0} et dt = inf{s ≥ t : Bs = 0}. Montrer que
loi t loi
1
d1 = d(1/t) .
{gt < u} = {du > t}. En déduire gt =
4. On suppose que A est un processus croissant continu tel que, pout tout c
loi √
(Bct , Act , t ≥ 0) = ( cBt , cAt ; t ≥ 0)
loi
loi
On note ∆a = inf{t : At ≥ a}. Montrer que d∆a = ad∆1 . En déduire Ag = 1/d∆1 .
5. Montrer que At = sups≤t Bs2 vérifie les conditions précédentes.
Exercice 2.5.3 Montrer que
1
loi
sup |Bt | = p ∗
T1
0≤t≤1
où T1∗ = inf{t ≥ 0 : |Bt | = 1}.
Exercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit que A a la propriété
(hom) s’ il existe r ∈ R tel que pour tout c,
loi √
(Bct , Act ; t ≥ 0) = ( cBt , cr+1 At ; t ≥ 0)
Z
Pour quelle valeur de r la fonctionnelle At =
0
t
11(Bs >0) ds a t’elle la propriété (hom)? Même
question pour le temps local (voir la définition plus loin)
2.6
Compléments
Exercice 2.6.1 Projection d’un Brownien. Soit B un MB dans sa filtration F et G une filtration
bt est un MB. Montrer que B
bt = Bt .
plus petite que F. On suppose que E(Bt |Gt ) = B
Exercice 2.6.2 Filtration de carrés de Browniens. Soit Yt = aBt2 + bWt2 avec a 6= b et a et b
non nuls, W et B étant des Browniens indépendants. Montrer que σ(Ys , s ≤ t) = σ(Bs , Ws , s ≤ t).
Généraliser au cas de n carrés.
Exercice 2.6.3 Représentation prévisible. Soit B (i) , i = 1, 2, 3 trois MB, avec B (i) , i = 1, 2
(3)
(1)
(2)
indépendants. Montrer qu’il n’est pas possible d’avoir σ(Bs , s ≤ t)) = σ(Bs , Bs , s ≤ t). On
(1)
(2)
utilisera le théorème de représentation prévisible pour représenter Bt , Bt en terme de B (3) .
Enoncés
23
Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on définit la tribu
s
Ftβ = σ{(Bs − Bt , s ≤ t}
t
1. Montrer que la famille Ftβ est croissante en t.
Z
2. Soit f ∈ L2 (R+ , ds). Calculer la projection Fbt sur L2 ((F β )t ) de Ft =
t
f (s)dBs .
0
Z
t
bt = Bt −
3. Montrer que le processus B
du
0
Bu
est un (Ftβ )-mouvement Brownien et que
u
bu , u ≤ t}
Ftβ = σ{B
Z
4. Montrer que Fbt =
0
t
bt , avec fb(t) = f (t) − 1
fb(s)dB
t
Z
t
f (u)du.
0
Exercice 2.6.5 Soit B un MB réel, T0 = inf{t : BZt = 0}, g = sup{t < 1 : Bt = 0} et d =
inf{t > 1 : Bt = 0}. Montrer que Px (d > 1 + t) =
p(1, x; y)Py (T0 > t)dy et que P0 (g ≤ t) =
Z
p(t, 0; y)Py (T0 > 1 − t)dy.
Exercice 2.6.6 Loi de gt . Montrer que
1
1
P( sup Bu > 0, Bs < 0) = 2P(Bt > 0, Bs < 0) = 2[ −
arcsin
4 2π
s≤u≤t
r
s
]
t
En déduire la loi de gt = sup{s ≤ t : Bs = 0}
Exercice 2.6.7 Représentation prévisible. Trouver un processus f prévisible tel que F =
Z T
E(F ) +
fs dBs pour
0
1. F = BT ,
Z T
2. F =
Bs ds,
0
3. F = BT2 ,
4. F = exp BT .
Exercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un second mouvement Brownien
issu de 0 indépendant de B et
Z t
Z t
Ws
1
Xt = (1 − t)
ds + (1 − t)
dBs .
2
0 (1 − s)
0 1−s
Z
1. Montrer que
0
t
Ws
ds −
1−s
Z
Z
t
s
ds
0
0
Wu
du = (1 − t)
(1 − u)2
Z
t
0
Ws
ds.
(1 − s)2
2. En admettant que
Z t si f et Zg ssont deux fonctions déterministes on peut intervertir le sens des
intégrales dans
dsf (s)
g(u)dBu , montrer que
0
0
Z
Bt −
Z
t
ds
0
0
s
1
dBu = (1 − t)
1−u
Z
t
0
1
dBs
1−s
24
Brownien.
3. Vérifier que X est solution de
Z
X t = Bt +
0
t
Ws − Xs
ds .
1−s
Z
t
4. (sans utiliser ce qui précede) Montrer que Xt = (1 − t)
0
dBs − dWs
+ Wt .
1−s
5. Calculer E(Xs Xt ).
Exercice 2.6.9 Soit G une filtration, W un G mouvement brownien. Soit H une filtration plus
petite que G. Montrer que le processus Mt = E(Wt |Ht ) est une martingale. (on précisera par
Z t
rapport à quelle filtration). Soit Xt = Wt +
Yu du où Y est un processus G adapté. On note FX
0
Z t
X
b
la filtration de X et Yu = E(Yu |Fu ). Vérifier que Zt = (Xt −
Ybu du, t ≥ 0) est une FX -martingale
0
(on calculera l’espérance conditionnelle de Zt par rapport à FX
s .
Exercice 2.6.10 Let X be a Brownian motion with drift µ and MtX = sup{ s ≤ t}Xt . Prove that
Z ∞
E(MTX |Ft ) = MtX +
(1 − F (T − t, u)du
MtX −Xt
where F (T − t, u) = P(MTX−t ≤ u)
2.7
Finance
Exercice 2.7.1 Black et Scholes. Calculer E(e−at (St − K)+ ) quand
St = xebt exp(σBt −
σ2
t)
2
Ecrire la formule obtenue quand a = b = r et quand a = r, b = r − δ. Calculer E(e−rt (St − K)+ |Fs )
pour s < t.
Exercice 2.7.2 Options reset Une option reset est caractérisée par une suite de dates t1 , t2 , . . . , tn .
Le payoff de cette option est
X
(ST − Sti )+ 11Sti =inf{K,St1 ,St2 ,...,Stn } + (ST − K)+ 11K=inf{K,St1 ,St2 ,...,Stn }
A=
i
Calculer le prix d’une telle option, c’est-à-dire calculer E(e−rT A) quand
St = xert exp(σBt −
σ2
t)
2
.
2.8
2.8.1
Problème
Partie I : Résultats préliminaires
Soit (Bt )t≥0 un mouvement Brownien standard sur un espace de probabilit (Ω, F, P ). On note
(Ft )t≥0 la filtration naturelle de B.
Enoncés
25
Etant donné un processus continu (Xt )t≥0 à valeurs réelles, on pose pour t > 0 ,
MtX = sup Xs ,
s≤t
mX
t = inf Xs .
s≤t
Si a est un nombre réel strictement positif, on définit également
TaX = inf{t ≥ 0; Xt = a},
T̃aX = inf{t ≥ 0; |Xt | = a} .
Il est connu que TaB est un temps d’arrêt relativement à (Ft )t≥0 , fini p.s. , tel que E(TaB ) = ∞ et
pour λ ≥ 0 ,
√ E exp(−λTaB ) = exp −a 2λ .
1. En inversant la transformée de Laplace de TaB , montrer que la densité de la loi de TaB est
donnée par
2
a
a
√
exp −
1(t>0) .
3
2t
2πt
2. Démontrer que pour λ ≥ 0 ,
h
i √ −1
E exp(−λT̃aB ) = cosh a 2λ
.
3. Prouver que T̃aB est intégrable et calculer E(T̃aB ) .
B
4. Soient c et d deux nombres réels strictement positifs et posons T B = TcB ∧ T−d
. Montrer que
pour λ ∈ R ,
2
λ B
sinh(λd)
E exp − T 1(T B =TcB )
,
=
2
sinh(λ(c + d))
2
λ
cosh(λ(c − d)/2)
E exp − T B
=
.
2
cosh(λ(c + d)/2)
5. En utilisant la propriété de Markov forte, démontrer que si c ≥ 0 , b ≤ c ,
P[Bt ≤ c , MtB > c] = P[Bt > 2c − b].
6. En-déduire que pour chaque t > 0 , les variables aléatoires MtB et |Bt | ont la même loi.
7. Vérifier que pour chaque t > 0 , la densité de la loi du couple (Bt , MtB ) est donnée par
2(2c − b)
(2c − b)2
√
exp −
1{0≤c} 1{b≤c} .
2t
2πt3
8. Retrouver alors la densité de la loi de TaB explicitée au 1. .
2.8.2
Partie II
On considère le processus (Yt )t≥0 défini par : ∀t ≥ 0 , Yt = µ t + Bt , où µ ∈ R .
1. Montrer qu’il existe une mesure de probabilité Pµ sous laquelle (Yt )t≥0 est un mouvement
Brownien standard.
2. En utilisant le résultat de la question I.7. , en-déduire que pour chaque t > 0 , la densité de la
loi du couple (Yt , MtY ) est donnée par
1 2
(2c − b)2
2(2c − b)
√
. exp µ b − µ t 1{0≤c} 1{b≤c} .
exp −
2t
2
2πt3
26
Brownien.
2.8.3
Partie III
Soit (St )t≥0 le processus tel que : ∀t ≥ 0 , St = x exp (r − 12 σ 2 )t + σBt , où x, r et σ sont des
nombres réels strictement positifs. Dans la suite, on désignera par N la fonction de répartition de
la loi normale centrale réduite.
1. Expliciter la probabilité Pθ qui fait de (B̃t )t≥0 un mouvement Brownien standard, avec B̃t =
θt + Bt et θ = σr − σ2 .
2. Trouver une relation entre MtS et MtB̃ et entre mSt et mB̃
t pour chaque t > 0.
Dans ce qui suit, H et K désigne des nombres réels strictements positifs.
3. Montrer que
P St ≤ K , MtS ≤ H = N (d1 ) −
avec
(2r/σ2 )−1
H
x
N (d2 ) ,
√
1 2
− r− σ
t /σ t ,
d1 = log
2
√
Kx
1 2
d2 = log
− r− σ
t /σ t .
2
H
2
K
x
4. Montrer que
P St ≥ K , mSt ≥ H = N (d3 ) −
avec
H
x
(2r/σ2 )−1
N (d4 ) ,
√
x
1
log
+ r − σ 2 t /σ t ,
K
2
2 √
H
1
d4 = log
+ r − σ 2 t /σ t .
xK
2
d3 =
5. Déduire de la question 3. que (E désignant l’espérance sous P)
h
i
E St 1{St ≤K ,MtS ≤H} = x ert
avec
N (d5 ) −
H
x
!
(2r/σ2 )+1
N (d6 )
,
√
1
− r + σ 2 t /σ t ,
2
√
Kx
1 2
d6 = log
−
r
+
σ
t /σ t .
2
H
2
d5 =
log
K
x
6. En utilisant le résultat de la question 4., vérifier que
h
i
E St 1{St ≥K ,mSt ≥H} = x ert
avec
N (d7 ) −
H
x
(2r/σ2 )+1
√
1 2
x
+ r+ σ
t /σ t ,
d7 = log
K
2
2 √
1 2
H
+ r+ σ
t /σ t .
d8 = log
Kx
2
!
N (d8 )
,
Enoncés. 2005-06
27
h
i
7. On pose v1 (x, T ) = E e−rT (ST − K)+ 1{mST ≥H} .
Montrer que
"
#
"
#
(2r/σ2 )+1
(2r/σ2 )−1
H
H
−rT
v1 (x, T ) = x N (d7 ) −
N (d8 ) − e
K N (d3 ) −
N (d4 ) .
x
x
∂
v1 (x, T − t) .
Déterminer la quantité ∂x
h
i
8. On pose v2 (x, T ) = E e−rT (ST − K)+ 1{MTS ≤H} . Donner une formule explicite pour v2 (x, T )
et
∂
∂x v2 (x, T
9. On pose
− t) .
h
i
v3 (x, T ) = E e−rT (ST − K)+ 1{MTS ≥H} ,
h
i
v4 (x, T ) = E e−rT (ST − K)+ 1{mST ≤H} ,
v(x, T ) = E e−rT (ST − K)+ .
Donner une relation entre v2 (x, T ) ,v3 (x, T ) et v(x, T ) d’une part et entre v1 (x, T ) ,v4 (x, T ) et
v(x, T ) d’autre part.
28
Itô.
Chapter 3
Intégrale d’Itô
Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.
On considère un processus θ,
f f -adapté continu à gauche, et admettant des limites à droite, tel que
Z ∞
θt2 dt < ∞, a.s
0
P i,n
θ 11]ti ,ti+1 avec θi,n ∈ L2 (Ω) et Fti on montre qu’il existe des processus θ de la forme θtn =
2
mesurables, convergeant vers θ dans L2 (Ω × R+ ) (au sens où kθ − θn k → 0 quand n → ∞. On
Rt
Pk(n) j,n
définit 0 θs dBs , comme la limite de j=1 θ̃ (B(tj+1 ) − B(tj ))
Rt
Le processus I(θ)t = 0 θs dBs a les propriétés suivantes. Si
Z ∞
E
θt2 dt < ∞, ∀t
n
0
le processus I(θ) est une martingale, dans les autres cas, c’est une martingale locale.
Si
Z ∞
2
E
θt dt < ∞, ∀t
0
le processus
Z
(I(θ)t −
0
∞
θt2 dt, t ≥ 0)
est une martingale.
Intégrale de Wiener: Si f est une fonction déterministe, de carré intégrable sur tout intervalle
[0, t], le processus (I(f )t , t ≥ 0) est un processus gaussien.
Crochet: Le crochet d’une martingale de carré intégrable continue M est l’unique processus
croissant hM i tel que Mt2 − hM it soit une martingale.
R∞
Le crochet de I(θ) est par définition hI(θ)it = 0 θt2 dt Si X et Y sont deux martingales continues
leur crochet hX, Y i est l’unique processus à variation bornée tel que XY − hX, Y i est une martinRt
gale. Le crochet de deux intégrales stoichastiques est hI(θ), I(ψ)i = 0 θs ψs ds Si X et Y sont deux
semi-martingales continues leur crochet est le crochet des parties martingales
Processus d’Itô: On appelle processus d’Itô un processus X admettant une décomposition de
la forme
Z t
Z t
Xt = x +
as ds +
σs dBs
0
0
29
30
Itô.
où a et σ sont des processus F-adaptés, vérifiant
Rt
|as |ds < ∞ et
0
Rt
0
σs2 ds < ∞.
Formule d’intégration par parties: Soit X et Y deux processus d’Itô
dXt
dYt
= at dt + σt dBt
= bt dt + νt dBt
relatifs au même mouvement Brownien B, alors
d(XY )t = Xt dYt + Yt dXt + dhX, Y it
Formule d’Itô: Si f est une fonction C 1,2
Z
f (t, Xt ) = f (0, X0 ) +
Z
t
t
A(s, Xs )ds +
0
∂x f (s, Xs )dBs
0
où
1
Af (t, x) = ∂t f (t, x) + b(t, x)∂x f (t, x) + ∂xx f (t, x)
2
Cette formule s’écrit aussi
1
df (t, Xt ) = ∂t f (t, Xt )dt + ∂x f (t, Xt )dXt + ∂xx f (t, Xt )dhXit
2
˙ , avec la table de
Les crochets se calculent formellement de la façon suivante dhX, Y i = dX dY
multiplication suivante
dt · dt = 0,
3.1
dt · dBt = 0,
dBt · dBt = dt
Intégrale de Wiener
Exercice 3.1.1 Soit Yt = tBt . Calculer dYt , l’espérance de la v.a. Yt et la covariance E(Yt Ys ).
Z
Exercice 3.1.2
t
1. Montrer que la v.a. Xt =
(sin s) dBs est définie.
0
2. Montrer que X est un processus gaussien.
Calculer son espérance et sa covariance E(Xs Xt ).
3. Calculer E[Xt |Fs ].
Z
4. Montrer que Xt = (sin t)Bt −
t
(cos s)Bs ds.
0
Exercice 3.1.3 Montrer que (Yt = sin(Bt ) +
son espérance et sa variance.
Exercice 3.1.4
1
2
Rt
0
sin(Bs ) ds, t ≥ 0) est une martingale. Calculer
1. Montrer que le processus (Yt =
Rt
0
(tan s) dBs , 0 ≤ t <
π
2)
est défini.
2. Montrer que Y est un processus gaussien, calculer son espérance, sa covariance et l’espérance
conditionnelle
E(Yt |Fs ).
Enoncés. 2005-06
31
Z
t
Bs
ds.
cos2 s
3. Montrer que Yt = (tan t) Bt −
0
Exercice 3.1.5 Pont Brownien. On considère l’équation différentielle stochastique
(
Xt
dXt =
dt + dBt ; 0 ≤ t < 1
t−1
X0 = 0
et l’on admet l’existence d’une solution.
1. Montrer que
Z
t
Xt = (1 − t)
0
dBs
; 0 ≤ t < 1.
1−s
2. Montrer que (Xt , t ≥ 0) est un processus gaussien. Calculer son espérance et sa covariance.
3. Montrer que limt→1 Xt = 0.
Exercice 3.1.6 Montrer que, si f est une fonction déterministe de carré intégrable
Z ∞
Z t
E(Bt
f (s) dBs ) =
f (s) ds .
0
0
Exercice 3.1.7 Calculs deZmoments.
Z
t2
Soit t1 < t2 . Calculer A = E(
(Bt − Bt1 ) dt|Ft1 ). Montrer que
Z t2
(Bt −Bt1 ) dt =
(t2 −t)dBt .
t1
t1
t1
Z t2
Utiliser cette égalité pour calculer A d’une autre manière. Calculer Var
(Bt − Bt1 ) dt|Ft1 .
t2
t1
3.2
Formule d’Itô
Exercice 3.2.1 Ecrire les processus suivants comme des processus d’Itô en précisant leur drift et
le coefficient de diffusion
1. Xt = Bt2
2. Xt = t + eBt
3. Xt = Bt3 − 3tBt
4. Xt = 1 + 2t + eBt
5. Xt = [B1 (t)]2 + [B2 (t)]2
1
6. Xt = (Bt + t) exp(−Bt − t)
2
7. Xt = exp(t/2) sin(Bt )
Z
Exercice 3.2.2 Intégration par parties. Soit Xt = exp
t
a(s)ds
et
0
Z t
Yt = Y0 +
0
Z
b(s) exp −
s
a(u)du
dBs
0
où a et b sont des fonctions boréleiines intégrables. On pose Zt := Xt Yt . Montrer que dZt =
a(t)Zt dt + b(t)dBt .
32
Itô.
Exercice 3.2.3 Intégration par parties. Soit Yt = tX1 (t)X2 (t) avec
dX1 (t) = f (t) dt + σ1 (t)dBt
dX2 (t) = σ2 (t)dBt
Calculer dYt .
Exercice 3.2.4 Equation différentielle. On admet que le système suivant admet une solution

Z t


Ys dBs
 Xt = x +
Z 0t


 Yt = y −
Xs dBs
0
Montrer que Xt2 + Yt2 = (x2 + y 2 )et .
Z
Exercice 3.2.5 Formule d’Itô. Soit Yt =
t
Z
es dBs et Zt =
0
t
Ys dBs .
0
1. Ecrire l’EDS vérifiée par Zt .
2. Calculer E(Zt ), E(Zt2 ) et E(Zt Zs ).
Exercice 3.2.6 On suppose que X est un processus d’Itô de drift a(Kt − Xt ), que Xt = f (Kt ) et
que Kt = bt + σBt où a, b, σ sont des constantes et B un mouvement brownien. Quelle est la forme
de f ?
Exercice 3.2.7 Exponentielle. Soit σ un processus adapté continu de L2 (Ω × R) et
Z
t
Xt =
σs dBs −
0
1
2
Z
0
t
σs2 ds .
On pose Yt := exp Xt et Zt = Yt−1 .
1. Expliciter la dynamique de Y , c’est-à-dire exprimer dYt .
2. Montrer que Y est une martingale locale. Donner une condition sur σ pour que ce soit une
martingale.
3. Calculer E(Yt ) dans ce cas. Expliciter les calculs quand σ = 1.
4. Calculer dZt .
Exercice 3.2.8 Soit (a, b, c, z) des constantes et
Zt = e
(a−c2 /2)t+cBt
Z t
−(a−c2 /2)s−cBs
z+b
e
ds
0
Quelle est l’EDS vérifiée par Z?
Exercice 3.2.9 On considère le processus de dynamique
dSt = St ((r − q + ht )dt + σdBt )
où (ht , t ≥ 0) est un processus adapté.
Enoncés. 2005-06
33
1. On se place dans le cas ht = 0, ∀t. Montrer que (Mt = St e−(r−q)t , t ≥ 0) est une martingale
Mt
positive. On définit une probabilité Q par dQ|Ft = M
dP |Ft . Comment se transforme le MB
0
B?
2. Dans le cas h non nul, expliciter St .
3. On suppose que ht = h(St ) où h est une fonction continue. On admet qu’il existe une solution
de l’EDS correspondante. Montrer que
e−rT E(e−
RT
0
h(Ss )ds
Ψ(ST )) = e−qT S0 EQ (ST−1 Ψ(ST ))
4. On se place maintenant dans le cas ht = St−p , avec p réel. On admet qu’il existe une solution
de l’EDS. On pose Zt = Stp .
(a) Quelle est la dynamique de Z?
(b) Vérifier, en utilisant l’exercice 4 que l’on peut expliciter Z.
(c) Pour quelles fonctions f , le processus f (Z) est il une martingale (locale)?
Exercice 3.2.10 Processus d’Ornstein Uhlenbeck. Soit X tel que dXt = (a − bXt )dt + dBt
Z t
Z
c2 t 2
1. Montrer que Zt = exp c
Xs dBs −
X ds est une martingale locale.
2 0 s
0
2. Soit Ut = Xt2 . Ecrire dUt puis la variable Ut comme une somme d’intégrales.
Z t
Z t
Z t
1
3. Montrer que
Xs dBs = (Xt2 − X02 − t) − a
Xs ds + b
Xs2 ds .
2
0
0
0
Exercice 3.2.11 Soit Z le processus défini par
Zt = √
1
Bt2
exp −
.
2(1 − t)
1−t
1. Montrer que Z est une martingale et que Zt tend vers 0 quand t tend vers 1..
2. Calculer E(Zt ).
3. Ecrire Zt sous la forme
Z
t
Zt = exp (
Φs dBs −
0
1
2
Z
0
t
Φ2s ds)
où Φ est un processus que l’on précisera.
Exercice 3.2.12 Moments d’une exponentielle stochastique. Soit L le processus solution de
dLt = Lt φdBt , L0 = 1
où φ est une constante. Le processus L est l’exponentielle de Doléans-Dade de φB et se note
Lt = E(φB)t .
1. Déterminer la fonction Γ telle que, pour a ∈ R, le processus (Lt )a exp(−Γ(a)t) est une martingale.
2. En déduire le calcul de E [(Lt )a ] pour tout a ∈ R.
Exercice 3.2.13 Démonstration de l’unicité de l’écriture d’un processus d’Itô.
Soit dXt = at dt + σt dBt . On souhaite démontrer que si X ≡ 0, alors a ≡ 0, σ ≡ 0.
34
Itô.
1. Appliquer la formule d’Itô à Yt = exp(−Xt2 ).
2. En déduire le résultat souhaité.
Exercice 3.2.14 Soit V = KX avec
dXt
dKt
=
=
Xt (µ − k − s ln Xt )dt + σXt dBt
Kt (r + k)dt
Calculer dVt et d ln Xt .
Exercice 3.2.15 Montrer que
Z
t
Mt = exp −
0
B2
1
Bs2 ds exp − t tanh(T − t)
2
(cosh(T − t))1/2
est une martingale locale.
Z
t
Exercice 3.2.16 Soit At =
exp(Bs + νs)ds et dSt = St (rdt + σdBt ). Montrer que le proces0
sus f (t, St , At ) est une martingale si f vérifie une équation aux dérivées partielles à coefficients
déterministes que l’on précisera.
1
1
dt. Montrer que
est une martingale (locale). Quelles
Xt
Xt
sont les fonctions f telles que f (t, Xt ) soit une martingale locale?.
Exercice 3.2.17 Soit dXt = dBt +
Exercice 3.2.18 Soit B et W deux browniens corrélés et
drt
dVt
On pose Xt =
√
√
= [a(b − rt ) − λσrt ]dt + σ rt dWt
= (rt − δ)Vt dt + σV Vt dBt
rt et Yt = ln Vt − αXt avec α = 2ρσV /σ. Calculer dX et dY .
Z
Exercice 3.2.19 Soit T fixé et B(t, T ) = exp −
!
T
f (t, u)du
avec
t
df (t, T ) = α(t, T )dt + σ(t, T )dBt , ∀t < T
Montrer que
1
dB(t, T ) = (rt − α̃(t, T ) + σ̃(t, T ))B(t, T )dt − σ̃(t, T )B(t, T )dBt
2
Z T
où on a noté α̃(t, T ) =
α(u, T )du
t
Exercice 3.2.20 Soit
√
drt = (a − brt )dt − σ rt (dBt + λdt)
et W un mouvement Brownien indépendant de B. Soit λ1 une constante et H le processus
Z t
Z
Z t
Z t
√
1 t 2
Ht = exp
rs ds +
(λ + λrs )ds +
λ1 dWs +
λ rs dBs
2 0 1
0
0
0
Z
Montrer que le calcul de
E(exp(HTα )|Ft )
se réduit à celui de E(exp(−ηrT − µ
T
rs ds)|Ft ).
t
Enoncés. 2005-06
35
Exercice 3.2.21 Fonction d’échelle. Soit X un processus d’Itô. Une fonction s est une fonction
d’echelle si s(X) est une martingale locale. Déterminer les fonctions d’échelle des processus suivants:
1. Bt + νt
2. Xt = exp(Bt + νt)
Z t
Z t
3. Xt = x +
b(Xs )ds +
σ(Xs )ds. Identifier le processus croissant A tel que s(Xt ) = βAt où
0
β est un MB.
0
Exercice 3.2.22 Soit
dΨt = (1 − rΨt )dt + σΨt dBt
Soit u une solution de
σ 2 2 00
x u (x) + (1 − rx)u0 (x) − λu(x) = 0
2
On définit x∗ comme solution de x∗ u0 (x∗ ) = u(x∗ ) et v(x) =
Soit enfin V définie par
V (x)
x∗
u(x). On admettra que v 00 (x) ≥ 0.
u(x∗ )
0 ≤ x ≤ x∗
x > x∗
= v(x),
=
x,
Montrer que 1 − (r + λ)x∗ ≤ 0.
Ecrire la formule d’Itô pour e−λt V (Ψt ). Il apparait un terme LV (x) − λV (x) avec
LV (x) = (1 − rx)V 0 (x) +
σ 2 2 00
x V (x)
2
Montrer que sur x > x∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x∗ , on a LV (x) − λV (x) = 0
En déduire que
V (Ψ0 ) ≥ Ẽ(e−λT V (ΨT ))
(en admettant que l’intégrale stochastique est une martingale).
Exercice 3.2.23 Reprendre l’exercice 2.6.8 en utilisant la formule d’Itô.
Exercice 3.2.24 Pont Brownien Calculer P (sup0≤s≤t Bs ≤ y, Bt ∈ dx). En déduire que, pour
un pont brownien b, issu de x à l instant 0, qui doit se trouver en z, z > 0 à l’instant t, on a pour
y>z
(z + x − 2y)2
(z − x)2
P ( sup bs ≤ y) = exp −
+
.
2t
2t
0≤s≤t
Quelle est la valeur de P (sup0≤s≤t bs ≤ y) pour y < z?
Exercice 3.2.25 Formule de Clark-Ocone Soit f une fonction bornée de classe C 1 . Justifier
rapidement qu’il existe une fonction ψ telle que, pour t ≤ 1
E(f (B1 )|Ft ) = ψ(t, Bt ) .
Expliciter ψ(t, x) sous la forme d’une espérance (non conditionnelle). Ecrire la formule d’Itô pour
ψ en faisant les simplifications qui s’imposent. Montrer que
Z
t
ψ(t, Bt ) = E(f (B1 )) +
0
E(f 0 (B1 )|Fs )dBs .
36
Itô.
3.3
Cas multidimensionnel
Exercice 3.3.1 On considère deux processus S1 et S2 définis par
dSi (t) = Si (t)(rdt + σi dBti ),
i = 1, 2
(3.1)
où B 1 et B 2 sont deux Browniens indépendants et où les coefficients r, σi sont constants.
def S1 (t)+S2 (t)
.
2
1. On pose S3 (t) =
def
2. Soit S4 (t) =
Ecrire l’équation différentielle stochastique vérifiée par S3 .
p
S1 (t)S2 (t). Ecrire l’équation différentielle stochastique vérifiée par S4 .
Exercice 3.3.2 Formule d’Itô multidimensionnelle. Soient (B1 (t), t ≥ 0) et (B2 (t), t ≥ 0)
deux mouvements Browniens indépendants. Soit (Li (t), i = 1, 2 , t ≥ 0)) les processus définis par
dLi (t) = θi (t)Li (t)dBi (t) , Li (0) = 1
où (θi (t), i = 1, 2) sont des processus adaptés continus bornés. Soit Zt = L1 (t)L2 (t). Ecrire dZt .
Montrer que L1 (t)L2 (t) est une martingale.
Exercice 3.3.3 Soit (B1 (t), t ≥ 0) et (B2 (t), t ≥ 0) deux mouvements Browniens indépendants et
ρ une constante telle que |ρ| ≤ 1.
1. Montrer que le processus (Wt , t ≥ 0) défini par Wt = ρB1 (t)+
Brownien.
p
1 − ρ2 B2 (t) est un mouvement
2. Soit (φi (t), t ≥ 0; i = 1, 2) deux processus continus adaptés de carré intégrable (tels que
RT
∀T ≥ 0, E( 0 φ2i (t) dt) < ∞).
(a) On définit (Zt , t ≥ 0) par dZt = φ1 (t)dB1 (t) + φ2 (t)dB2 (t) et Z0 = z. Montrer que Z est
une martingale.
(b) Soit Ψ(t) = φ21 (t) + φ22 (t). On suppose que Ψ(t) > 0. On définit (Yt , t ≥ 0) par
φ1 (t)
φ2 (t)
dYt = p
dB1 (t) + p
dB2 (t) , Y0 = y .
Ψ(t)
Ψ(t)
Ecrire l’équation vérifiée par Yt2 .
Montrer que (Yt , t ≥ 0) est un mouvement Brownien.
3. On définit√Rt = B12 (t) + B22 (t). Ecrire l’équation différentielle vérifiée par R et celle vérifiée
par Ut = Rt . On montrera que
dUt =
a
dt + bdB3 (t)
Ut
où a et b sont des constantes et B3 un mouvement Brownien.
(i)
(i)
(i)
(i)
(i)
Exercice 3.3.4 Soit dSt = St (µt dt + σt dBt ) où B (i) , i = 1, 2 sont deux MB corrélés.
(1)
(2)
Déterminer ki , i = 1, 2 pour que e−rt (St )k1 (St )k2 soit une martingale.
Enoncés. 2005-06
3.4
37
Compléments
Exercice 3.4.1 Formule de Tanaka. Soit f une fonction et F définie par
Z x
Z z
F (x) =
dz
f (y) dy
−∞
Vérifier que
Z
∞
F (x) =
Z
Z
x
et que F 0 (x) =
(x − y)+ f (y)dy
−∞
∞
f (y) dy =
−∞
−∞
f (y) 11x>y dy.
−∞
Montrer, en appliquant la formule d’Itô à F que
Z t
Z ∞
Z t
f (Bs )ds = 2
f (y) (Bt − y)+ − (B0 − y)+ −
11Bs >y dBs dy .
0
−∞
0
Exercice 3.4.2 Egalité de Bougerol. Soit B1 et B2 deux mouvements browniens indépendants.
1. Appliquez la formule d’Itô aux processus
Z t
def
def
Xt = exp(B1 (t))
exp(−B1 (s)) dB2 (s), Zt = sinh B1 (t)
0
Z
2. Montrer que dZt =
Z
t
φ(Zs )dB1 (s) +
0
t
ψ(Zs )ds.
0
Z t
def
3. Vérifier que Mt = B2 (t) +
Xs dB1 (s) est une martingale. Calculer E(Mt2 ). En admettant
0
Z t
que Mt =
γs dB3 (s), où B3 est un mouvement brownien, identifier γ.
0
4. En déduire une relation entre Xt et Zt .
√
Exercice 3.4.3 Soit drt = δdt + 2 rt dBt et f (t, x) une fonction de Cb1,2 .
1. Quelle condition doit vérifier la fonction s pour que s(rt ) soit une martingale ?
2. Quelle condition doit vérifier la fonction f pour que f (t, rt ) soit une martingale ?
√
3. Soit Zt = rt2 et ρt = rt . Ecrire les EDS vérifiées par Zt et par ρt .
√
√
4. Soit drt1 = µ1 dt + 2 rt dBt1 et drt2 = µ2 dt + 2 rt dBt2 deux processus, avec B 1 et B 2 deux
1
browniens indépendants. On admettra que r et r2 sont indépendants. On note R le processus
défini par Rt = rt1 + rt2 . Montrer que R s’écrit sous la forme (4.1).
Exercice 3.4.4 Temps d’atteinte. Soit τ = Ta = inf{t : Bt = a}. On a calculé Zt = P (τ >
T |Ft ). Quelle est la dynamique du processus Z?.
Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la forme dXt = Ht dBt , dYt =
Kt dBt . On note Mt l’unique solution de l’équation dMt = Mt dXt , M0 = 1. Montrer que la solution
de dZt = dYt + Zt dXt , Z0 = z est
Z t
1
Zt = Mt (z +
(dYs − Hs Ks ds))
M
s
0
Quelle est la solution de dZt = dYt + Zt dXt lorsque dXt = Ht dBt1 , dYt = Kt dBt2 où B 1 et B 2 sont
deux MB éventuellement corrélés?
38
Itô.
3.5
Brownien géométrique et extensions.
Dans cette section, nous étudions le Brownien géométrique, processus de dynamique
dSt = St (b dt + σ dBt ), S0 = x
(3.2)
où b et σ sont des constantes.
Exercice 3.5.1 Existence et unicité de la solution de 3.2)
1. Soit S̃t = e−bt St . Vérifier par
dSet = Set σdBt .
En déduire que Se est una martingale. Vérifier que Yet = xe
1 2
que Yt = xebt eσBt − 2 σ t est solution de (3.3)
(3.3)
σBt − 12 σ 2 t
est solution de (3.3) puis
2. Soit S une autre solution de (3.3). Quelle est l’EDS vérifiée par S/Y . Résoudre cette équation
et en déduire (3.3) admet une unique solution.
3. Calculer E(St ) et la valeur de E(St |Fs ) pour tous les couples (t, s).
4. Montrer que ST = S0 exp[(b− 21 σ 2 )T +σBT ], puis que ST = St exp[(b− 21 σ 2 )(T −t)+σ(BT −Bt )].
5. Ecrire l’équation différentielle vérifiée par (St )−1 .
Exercice 3.5.2 Changement de probabilité.
1. Soit dLt = −Lt θt dBt où θt est un processus adapté continu de L2 (Ω×R) . On pose Yt = St Lt .
Calculer dYt .
2. Soit r une constante et ζt défini par
dζt = −ζt (r dt + θt dBt )
Montrer que ζt = Lt exp(−rt). calculer dζt−1 .
3. Calculer d(St ζt ). Comment choisir θ pour que ζS soit une martingale ? La probailité obtenue
est telle que le processus S actualisé par le taux sans risque r (soit §t e−rt est une martingale.
Cette (unique=) probabilité est la probbilté risque neutre (ou le mesure martingsle équivalente)
Exercice 3.5.3 Soit At =
1
t
Z
t
ln Ss ds.
0
1. Montrer que ln Ss = ln St + (b −
σ2
2 )(s
− t) + σ(Bs − Bt ) pour s ≥ t.
2. Montrer que At est une variable gaussienne.
Z
1 T
3. Soit G(t, T ) =
(Bs − Bt ) ds. Montrer que
T t
AT =
t
t
1
σ2
At + (1 − )[ln St + (b −
)(T − t)] + σG(t, T )
T
T
2
2
4. Montrer que G(t, T ) est une variable gaussienne indépendante de Ft , dont on calculera l’espérance
conditionnelle et la variance conditionnelle (par rapport à Ft ).
5. En déduire que AT = Zt +U où Zt est Ft mesurable et U une variable gaussienne indépendante
de Ft . Montrer que α(t)eZt = E(eAT |Ft ),où l’on précisera la valeur de α.
Enoncés. 2005-06
39
Exercice 3.5.4 Soit VT =
le processus défini par
1
h
RT
T −h
Su du où h est un nombre réel donné tel que 0 < h < T . Soit X
e−bt Xt = E[e−bT VT |Ft ] .
1. Quelle est la valeur de XT ?
2. Exprimer Xt en fonction de St pour t ≤ T − h.
3. Exprimer Xt en fonction de St et de (Su , T − h ≤ u ≤ t) pour T − h ≤ t ≤ T .
4. Montrer que dXt = Xt bdt+σSt γt dBt avec γt = 11{t<T −h}
1 − e−bh
1 − e−b(T −t)
+11{T −h<t<T }
.
bh
bh
Exercice 3.5.5 Soit Yt = Sta avec a ≥ 2. Quelle est l’EDS satisfaite par Y ? Calculer E(Yt ).
Exercice 3.5.6 Soit δ une fonction borélienne bornée et
dSt = St ((r − δ(t))dt + σdBt ), S0 = x .
Les questions qui suivent peuvent être traitées dans un ordre différent.
1. Montrer que e−rt St +
Rt
0
δ(s)e−rs Ss ds est une martingale locale.
2. Ecrire explicitement la solution S en fonction de S0 , r, σ, δ et B.
3. Calculer espérance et variance de S.
4. Calculer avec le minimum de calculs (on peut utiliser des résultats connus), E((ST − K)+ )
dans le cas δ constant.
3.6
Le crochet
Soit M une martingale continue de carré intégrable. On admet qu’il existe un processus croissant
A tel que Mt2 − At est une martingale. On note At = hM, M it = hM it ce processus que l’on appelle
le crochet de M .
Exercice 3.6.1 Calcul de crochets.
1. Calculer hM i pour M = B.
Z
t
2. Calculer hM i pour Mt =
σs dBs
0
Exercice 3.6.2 Crochet de martingales. Soit M et N deux martingales. On pose, par analogie
avec 2ab = (a + b)2 − a2 − b2
2hM, N i = hM + N, M + N i − hM, M i − hN, N i
Montrer que M N − hM, N i est une martingale.
Exercice 3.6.3 Utilisation de crochets. Ecrire la formule d’Itô en utilisant le crochet.
40
Itô.
3.7
Finance
Nous considérons un marché financier comportant un actif sans risque de dynamique
dSt0 = St0 rt dt
où r est un processus F-adapté (très souvent, une fonction déterministe ou une constante) et des
actifs risqués dont les prix sont donnés par des processus d’Itô, sous une probabilité P dite historique.
Si S est un prix, la quantité S(S 0 )−1 est le prix actualisé. Une mesure martingale équivalente est une
mesure de probabilité Q, équivalente à la probabilité historique P telle que les prix actualisés sont
des martingales (locales). Un marché est sans arbitrage s’il existe au moins une mesure martingale
équivalente, complet si cette mme est unique. Dans le cas d’un marché complet sans arbitrage le
prix d’un actif contigent H (une variable aléatoire) est
Vt = EQ (HSt0 /ST0 |Ft )
Un portefeuille est un couple (α, β) de processus adaptés et la valeur du portefeuille est le
processus (Vt , t ≥ 0)
Vt = αt St0 + βt St .
Le portefeuille est dit autofinançant si
dVt = αt dSt0 + βt dSt .
Voir Poncet et Portait pour de plus amples explications.
Exercice 3.7.1
On considère un marché financier où deux actifs sont négociés: un actif sans risque, de taux constant
r, un actif risqué dont le prix S suit la dynamique
dSt = St (µ(t)dt + σ(t)dBt )
les coefficients µ et σ étant des fonctions déterministes.
1. Ecrire la valeur de St en fonction de S0 , des fonctions µ, σ, et du MB B.
2. Déterminer le(s) mesure(s) martingale(s) équivalente(s).
3. Justifier que ce marché est complet, sans arbitrage. On notera Q la mme.
4. Quelle est la dynamique de Se sous P et sous Q?
5. Calculer, pour tout couple (s, t) EP (St |Fs ) et EQ (St |Fs ).
6. On considère l’actif contingent versant h(ST ) à la date T , où h est une fonction (déterministe).
(a) Quel est le prix de cet actif à la date t? Montrer que ce prix peut être obtenu sous forme
d’une intégrale dt́erministe.
(b) Ecrire l’EDP d’évaluation.
(c) Comment couvrir cet actif en utilisant l’actif sans risque et l’actif S? Expliquer en
particulier comment déterminer le nombre de parts d’actifs S et le montant de cash (on
ne demande pas de calcul explicite)
(d) Quels seraient les modifications à apporter si r est une fonction déterministe? un processus?
7. On se place dans le cas h(x) = x2 . Expliciter le prix à la date t et le portefeuille de couverture.
Même question pour h(x) = ax + b où a et b sont des constantes.
Enoncés. 2005-06
41
Exercice 3.7.2 Portefeuille auto-financant
1. Quelle serait la richesse d’un agent qui détiendrait à chaque instant t, un nombre de parts
d’actif risqué égal à t, en utilisant une stratégie autofinançante
2. Quelle serait la richesse terminale (à l’instant T ) d’un agent de richesse initiale x qui souhaite
avoir un montant de cash égal à (T − t)x à chaque instant t en utilisant une stratégie autofinançante (on donnera le résultat sous forme d’un intégrale stochastique dont tous les coefficients
sont explicites)
Exercice 3.7.3 Autofinancement Cet exercice important montre que la définition de l’autofinancement
est invariante par changement de nbuméraire. Question préliminaire: Soit X et Y deux processus
d’Itô continus (on ne précisera pas leur dynamique, c’est inutile pour ce qui suit). Rappeler la
formule d’intégration par parties pour d(XY ). En déduire que
Xt d(
1
1
1
)+
dXt + dhX, it = 0 .
Xt
Xt
X
On considère un marché comportant deux actifs dont les prix sont des processus d’Itô S 1 et S 2 tels
que S 1 est strictement positif. Un portefeuille de valeur Vt = πt1 St1 + πt2 St2 est autofinancant si
dVt = πt1 dSt1 + πt2 dSt2 .
On choisit comme numéraire le premier actif et on note Vet = Vt /St1 , Set2 = St2 /St1 , d’où
Vet = Vt /St1 = πt1 + πt2 Set2 .
Le but de cet exercice est de montrer que la notion d’autofinancement ne dépend pas du choix de
numéraire, c’est-à-dire que
(3.4)
dVt = πt1 dSt1 + πt2 dSt2
implique
dVet = πt2 dSet2 .
1. Calculer dhV,
1
it
S (1)
en fonction de dhS (1) ,
1
it
S (1)
et dhS (2) ,
(3.5)
1
it
S (1)
!
1
1
1
(2)
(2)
(2)
1
2
2. Montrer que dVt = πt St d (1) + (1) dSt + dhS , (1) it
S
St
St
!
(2)
St
1
2
3. Montrer que dVt = πt d
.
(1)
St
Exercice 3.7.4 Dans un marché incomplet, il existe des actifs contingents duplicables. En particZ T
ulier, montrer que
(aSs + b)ds est duplicable lorsque S est un processus d’Itô.
0
Exercice 3.7.5 Equation d’évaluation. Soit dSt = rSt dt+St σ(t, St )dBt , où r est une constante.
1. Montrer que E(Φ(ST )|Ft ) est une martingale pour toute fonction Φ borélienne bornée.
2. Justifier que E(Φ(ST )|Ft ) = E(Φ(ST )|St )
3. Soit ϕ(t, x) la fonction définie par ϕ(t, St ) = E(Φ(ST )|St ). Ecrire dZt avec Zt = ϕ(t, St ).
42
Itô.
4. En utilisant que ϕ(t, St ) est une martingale, et en admettant que ϕ est C 1,2 , montrer que pour
tout t > 0 et tout x > 0:
∂ϕ
∂ϕ
1
∂2ϕ
(t, x) + rx (t, x) + σ 2 (t, x)x2 2 (t, x) = 0 .
∂t
∂x
2
∂x
Quelle est la valeur de ϕ(T, x)?
Exercice 3.7.6 Options Européennes et Américaines. On rappelle l’inégalité de Jensen : si
Φ est une fonction convexe et G une tribu, E(Φ(X)|G) ≥ Φ(E(X|G)).
On admettra que si τ est un temps d’arrêt borné par T et Z une sous-martingale, E(ZT ) ≥ E(Zτ ).
On note dSt = St (rdt + σt dBt ) le prix d’un actif où σ est un processus adapté borné. Soit C =
E(e−rT (ST − K)+ ) le prix d’un call Européen et C Am = supτ E(e−rτ (Sτ − K)+ ) le prix d’un
call Américain, le sup étant pris sur tous les temps d’arrêt à valeurs dans [0, T ]. On note P =
E(e−rT (KerT − ST )+ ) et P Am = supτ E(e−rτ (Kerτ − Sτ )+ ) les prix de puts à strike actualisés.
1. Montrer que (e−rt St − K)+ est une sous-martingale.
2. Soit g une fonction convexe de classe C 2 telle que g(0) = 0. Montrer que
∀x, ∀α ≥ 1, g(x) ≤
En déduire que
1
g(αx)
α
E(e−ru g(Su )|Ft ) ≤ E(e−rT g(ST )|Ft )
pour tout t < u ≤ T . Montrer que C = C Am .
3. Montrer que P = P Am .
Exercice 3.7.7 Volatilité stochastique Soit r un réel et (σt , t ≥ 0) un processus aléatoire (Ft )
adapté tel que σ1 ≤ σt ≤ σ2 où σ1 et σ2 sont des constantes.
1. On note V1 la fonction V1 (t, x) définie par V1 (t, x) = e−r(T −t) E(h(XT )|Xt = x) lorsque dX(t) =
X(t)(rdt + σ1 dBt ). Montrer que e−rt V1 (t, Xt ) est une martingale.
2. Ecrire l’ EDS vérifiée par le processus V1 (t, Xt ). En déduire que la fonction V1 satisfait une
EDP. Dans la suite, on suppose V1 convexe en x.
3. Soit dS1 (t) = S1 (t)(rdt + σt dBt ). Ecrire la formule d’Itô pour e−rt V1 (t, St ). En déduire
e−rT V1 (t, ST ) en fonction de e−rt V1 (t, St ), d’une intégrale en dt dont on donnera le signe et
d’une intégrale stochastique.
4. Montrer que e−rt V1 (t, St ) ≤ E(e−rT h(ST )|Ft ) ≤ e−rt V2 (t, St ).
Exercice 3.7.8 Heath-Jarrow-Morton. Soit T fixé et (rt , 0 ≤ t ≤ T ) une famille de processus (dépendant du paramètre T ) que l’on notera, comme dans toute la littérature sur les taux
(r(t, T ), 0 ≤ t ≤ T ) telle que, pour tout T fixé
dr(t, T ) = σ(t, T )Σ(t, T )dt + σ(t, T )dBt
où
∂
Σ(t, T ) = σ(t, T ) .
∂T
Z T +a
1. On pose Xt =
r(t, u)du. Montrer que l’on peut écrire
T
Z
Xt = X0 +
µs ds +
0
où on explicitera µ et φ.
Z
t
t
φs dBs
0
Enoncés. 2005-06
43
2. En déduire la dynamique de Yt = exp Xt .
Exercice 3.7.9 Portefeuille de marché. On considère un marché comportant un actif sans risque
de taux r et un actif risqué de dynamique
dSt = St (µt dt + σt dBt ) .
1. Montrer qu’un portefeuille autofinançant est caractérisé par le couple (v, β) tel que
dVt = rt Vt dt + βt (dSt − rt St dt), V0 = v .
On utilise très souvent le processus H défini par
dHt = −Ht (rt dt + θt dBt )
avec θ =
µt − rt
.
σt
2. Montrer que Mt = (Ht )−1 est la valeur d’un portefeuille autofinançant dont on précisera la
valeur de α et de β. Ce portefeuille est appellé portefeuille de marché .
Exercice 3.7.10 Dividendes. Soit
dSt = St ([r − δ]dt + σdBt ), S0 = x
(3.6)
1. Montrer que St = S0 exp(at + cBt ) où on explicitera a, c. Montrer que
Z
St e−rt = E(ST e−rT +
T
δSs e−rs ds|Ft ), .
t
2. Montrer qu’il existe β tel que S β soit une Q-martingale.
3. On suppose que dYt = Yt (rdt + νdBt ), Y0 = y. Soit γ une constante. Montrer que Y γ vérifie
une équation du type (3.6) où l’on précisera la valeur de δ et de σ.
4. Calculer E((ST − K)+ ).
Exercice 3.7.11 Assurance de portefeuille.
1. Soit M une martingale telle que MT ≥ 0. Montrer que Mt ≥ 0 pour t < T . Cette propriété
s’étend-elle au cas t > T ? Si oui, donner une démonstration, sinon, donner un contre exemple.
Soit τ un temps d’arrêt borné par T . On suppose que Mτ = 0. Montrer qu’alors Ms = 0 pour
s ∈ [τ, T ].
2. Soit V la valeur d’un portefeuille autofinançant dans un modèle Black-Scholes. On rappelle
que d(Rt Vt ) = πt Rt σVt dBt avec Rt = e−rt . Montrer que si VT ≥ K alors Vt ≥ e−r(T −t) K.
Montrer que s’il existe τ < T tel que Vτ = e−r(T −τ ) K, alors Vt = e−r(T −t) K pour t ∈ [τ, T ].
3. Un agent de richesse initiale x souhaite former un portefeuille tel que VT > K. Quelle condition
sur x cela implique t’il? Comment peut-il réaliser cet objectif? (on donnera plusieurs solutions)
r
Yt
Xt dBt et dYt = gt dBt +µdt. On note C(T −t, x, σ) la fonction
T −t
r
Yt
de Black-Scholes. Donner une relation entre g, µ pour que C(T − t, Xt ,
) soit une martingale.
T −t
Exercice 3.7.12 Soit dXt =
44
Exemples. Enoncés
Z
T
Exercice 3.7.13 Calcul de E(exp −
rs ds|Ft ) avec rt = f (t) +
0
σ2
t + σBt
2
Exercice 3.7.14 On considère un marché dans lequel sont négociés trois actifs Un actif sans risque
dont la dynamique est dSt0 = St0 rdt et DEUX actifs risqués
dSti = Sti (µi dt + σdBt )
avec µ1 6= µ2 et le même mouvement Brownien uni-dimensionnel B. Les actifs contingents sont
choisis dans FT = σ(Ss1 , Ss2 , s ≤ T ) = σ(Bs , s ≤ T ).
1. Montrer que le marché est complet.
2. Montrer que la marché admet des opportunités d’arbitrage.
3. Construire EXPLICITEMENT une telle opportunité d’arbitrage, c’est-à-dire expliciter un
triplet (π0 , π1 , π2 ) de processus adaptés tels que le portefeuille associé soit autofinancant et
V0 = 0, VT > 0. On pourra se restreindre à une OA statique, c’est-à-dire telle que (π0 , π1 , π2 )
soient des constantes.
Exercice 3.7.15 On considère un modèle Black et Scholes et on note Q l’unique mme.
1. On note Yt =
Rt
0
Su du. Quel est le prix, à la date t du payoff YT (versé en T )?
2. Expliciter la stratégie de couverture de YT
3. On considère le payoff h(YT , ST ), versé en T , où h est une fonction borélienne (bornée)
• Montrer que le prix à la date t de h(YT , ST ) s’écrit ϕ(t, Yt , St ) et montrer comment obtenir
ϕ(t, y, x) par un calcul d’espérance (non conditionnelle)
• Quelle est l’EDP satisfaite par ϕ?
• Déterminer la stratégie de couverture associée.
On considère c et π deux processus adaptés et X π,c la solution de
dXt = rXt dt + πt (dSt − rSt dt) − ct dt,
• Montrer que (e−rt Xt +
Rt
0
X0 = x
e−rs cs ds, t ≥ 0) est une Q-martingale.
• Montrer que, pour t < T ,
Z
Xt e−rt
=
EQ (XT e−rT +
t
−rt
Xt e
ζt
=
−rT
EP (XT e
T
e−rs cs ds|Ft )
Z
ζT +
T
ζs e−rs cs ds|Ft )
t
• Soit ψ et ϑ deux processus adaptés. On souhaite que les relations πt = ψt Xt et ct = ϑt Xt
soient satisfaites. Quelle sera dans ce cas la solution Xtπ,c (l’expliciter en terme des processus
ψ, ϑ, B)?.
• On admet que le processus X représente la richesse d’un agent financier investissant π sur
l’actif risqué et consommant ct dt durant l’intervalle de temps t, t + dt. Montrer, en utilisant
cette interprétation que pour obtenir une richesse terminale (en T ) positive et avoir une consommation positive, l’agent doit avoir une richesse initiale positive et que sa richesse sera
positive à chaque instant t.
Chapter 4
Exemples
Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.
4.1
Processus de Bessel
Exercice 4.1.1 Soit B1 et B2 deux mouvements Browniens indépendants et
Zt = B12 (t) + B22 (t) .
1. Ecrire l’EDS vérifiée par Z.
√
2. On pose Yt = Zt . Ecrire l’EDS vérifiée par Y .
3. Ecrire l’EDS vérifiée par 1/Y .
Exercice 4.1.2 Formule d’Itô On considère les processus de la forme
√
drt = µdt + 2 rt dBt
(4.1)
On admet que rt ≥ 0 presque partout (par rapport à t et à ω.)
1. Soit f (t, x) une fonction de Cb1,2 . Quelle condition doit vérifier la fonction f pour que f (t, rt )
soit une martingale ?
√
2. Soit Zt = rt2 et ρt = rt . Ecrire les EDS vérifiées par Zt et par ρt .
√
√
3. Soit drt1 = µ1 dt + 2 rt dBt1 et drt2 = µ2 dt + 2 rt dBt2 deux processus, avec B 1 et B 2 deux
browniens indépendants. On admettra que r1 et r2 sont indépendants. On note R le processus
défini par Rt = rt1 + rt2 . Montrer que R s’écrit sous la forme (4.1).
Exercice 4.1.3 Processus de Bessel de dimension 3. Soit R le processus solution de
dRt =
1. Montrer que Zt =
1
dt + dWt , R0 = 0 .
Rt
1
est une martingale locale.
Rt
2. Montrer que (Ut = exp(−
c’est une martingale.
λ2 t sinh λRt
)
, t ≥ 0) est une martingale locale. On admetra que
2
λRt
45
46
Exemples. Enoncés
λ2 Tm
3. En déduire la valeur de E exp(−
) où Tm = inf{t : Rt = m}, avec m > 0.
2
4. Soit f une fonction continue bornée et a un nombre réel. Quelles conditions doit vérifier la
fonction v pour que
Z t
v(Rt ) exp[−at −
f (Rs )ds]
0
soit une martingale?
5. Supposons que v est explicitée. Comment calculerez vous
Z
Tm
E(exp[−aTm −
f (Rs ) ds]) ?
0
Exercice 4.1.4 Processus de Bessel de dimension 2. Soit dRt = dWt +
1
dt.
2Rt
1. Montrer que Z = ln R est une martingale locale.
ν2
2. Soit ν un nombre réel positif. Montrer que Lt = [Rt ] exp(−
2
locale.
Z
ν
Exercice 4.1.5 Processus de Bessel de dimension δ.
δ−1
dBt +
dt.
2Rt
0
t
ds
) est une martingale
Rs2
Soit R le processus solution de dRt =
1. Pour quelles fonctions s le processus s(Rt ) est-il une martingale locale?
2. Quelle est la dynamique de Yt = Rt2 ?
µ
µ2
def
3. Montrer que Zt = exp(− (Yt − δt) −
2
2
Z
t
Yu du) est une martingale.
0
4. Soit dQ = ZdP . Quelle est la dynamique de Y sous Q?
Exercice 4.1.6 Minimum d’un Bessel
Quelle est la loi de inf s≤t Xs lorsque X est un processus de Bessel?
4.2
Processus de Bessel carré
1
1
Exercice 4.2.1 Soit α, σ deux constantes et dX(t) = − αX(t) dt + σdW (t). Soit Yt = Xt eαt/2 .
2
2
Ecrire dYt .
1. En déduire la forme de la solution X(t).
2. On suppose que (W1 , W2 , . . . , Wn ) sont des Browniens indépendants et on note Xi la solution
1
1
de dXi (t) = − αXi (t) dt + σdWi (t). Soit r le processus défini par r(t) = X12 (t) + · · · + Xn2 (t).
2
2
3. Montrer que le processus B défini par B(0) = 0 et dB(t) =
Brownien.
n
X
Xi (t)dWi (t)
est un mouvement
√
rt
i=1
2009-10
47
√
4. Montrer que drt = (a − brt ) dt + σ rt dBt
Exercice 4.2.2 Processus de Bessel carré. Soit x ≥ 0 et R un processus tel que
p
dRt = µdt + 2 |Rt |dBt , R0 = x
(4.2)
On admettra que R existe et que R ≥ 0.
1. Soit Zt = (Bt )2 . Montrer que Z vérifie une équation de la forme (4.2). Quelle est la valeur de
µ correspondante?
2. Soit B 1 un mouvement Brownien indépendant de B et Zt1 = (Bt )2 + (Bt1 )2 . Montrer que Z 1
vérifie une équation de la forme (4.2). Quelle est la valeur de µ correspondante? Généralisation
à la somme des carrés de n Browniens indépendants.
√
3. Soit ρt = Rt . Montrer que dρt = b(t, ρt , µ)dt + dBt . On explicitera b.
4. Soit B 1 un mouvement Brownien indépendant de B. On note R(µ) (x) le processus défini en
(4.2) et, pour y ≥ 0, le processus R(ν) (y) solution de
(ν)
dRt
(µ)
= νdt + 2
p
(ν)
Rt (ν)dBt1 , R0
=y
(4.3)
(ν)
(µ)
On notera simplement Rt et Rt ces deux processus. On supposera que les processus Rt
(ν)
et Rt ne s’annulent pas et on admettra qu’ils sont indépendants.
(µ)
(a) Soit Xt = Rt
(ν)
+ Rt . Calculer dXt .
(b) Montrer que le processus Z défini ci-dessous est un mouvement Brownien
q
q
(µ)
(ν)
Rt dBt + Rt dBt1
q
dZt =
(µ)
(ν)
Rt + Rt
(µ)
(c) En déduire que Xt = Rt
(ν)
+ Rt
vérifie
dXt = βdt + 2
p
Xt dZt
On explicitera β en fonction de µ et ν.
(µ)
(µ)
5. (a) On suppose que l’on connaı̂t E(Rt ) = m(µ) et Var(Rt ) = v(µ) pour tout µ. Exprimer
E(Xt ) et Var(Xt ) en fonction de m et v.
√
(b) On admet que, si W est un brownien issu de x (voir exo 2.1.11)
E(exp −λ(Wt )2 ) = √
1
λx
exp(−
)
1 + 2λt
1 + 2λt
(1)
(1)
(4.4)
(2)
Comment calculer E(exp −λ[ρt ]2 ), E(exp −λRt (x)) et E(exp −λRt (x)) ?.
(µ)
On utilisera la question (d) et l’indépendance de Rt
(ν)
et Rt .
6. Montrer que
µ−1
(µ)
(1)
(1)
E(exp −λRt (x)) = E(exp −λRt (x)) E(exp −λRt (0))
(µ)
Calculer E(exp −λRt (x)).
48
Exemples. Enoncés
(µ)
7. Comment démontrer l’indépendance de Rt
Comment démontrer (4.4) ?
(ν)
?
et Rt
Exercice 4.2.3 Processus de Bessel carré. Soit X un BESQ(δ) (x).
1
1. Montrer que ( Xct , t ≥ 0) est un BESQ(δ) (x/c).
c
2. Monter que, si F est un processus adapté
Z
Z
1 t
1 t 2
Zt = exp{
Fs d(Xs − δs) −
F Xs ds}
2 0
2 0 s
est une martingale locale.
3. Montrer que si F est déterministe, dérivable
Z t
Z
1
1 t 2
Zt = exp{ F (t)Xt − F (0)X0 − δ
F (s)ds −
F Xs ds + Xs dF (s)}
2
2 0 s
0
4. Soit Φ solution de
Φ00 = b2 Φ , Φ(0) = 1, Φ0 (1) = 0
Z
1
b2 t
Montrer que Zt = exp{ F (t)Xt − F (0)X0 − δ ln Φ(t) −
Xs ds}. On admettra que Z est
2
2 0
une martingale.
5. En déduire que
1
Q(δ)
x (exp −
2
Z
1
Xs ds) = (cosh b)−δ/2 exp(−xb tanh b)
0
Exercice 4.2.4 En utilisant que
1
sup |Wt | =
2
1≤t≤1
loi
Z
(2)
où Rs = Bs +
1
2
s
0
du
(2)
Ru
Z
1
0
ds
(2)
Rs
montrer que E sup1≤t≤1 (|Wt |) =
p
π/2.
Exercice 4.2.5 Application du théorème de Lamperti The following absolute continuity relation
between two BES processes (with ν ≥ 0)
2Z t
ν
ν
Rt
ds
(ν)
exp −
Px =
Px(0)
x
2 0 Rs2
where P (ν) is the law of a BES with index ν. On utilisera
W (ν) |Ft = exp(νWt −
ν2
t)W |Ft
2
loi
et (Rt ; t ≥ 0) = x exp(BCt + νCt )
√
Exercice 4.2.6 Soit dXt = 2 Xt dWt + δ(t)dt où δ est une fonction (continue bornée). On veut
calculer
!
!
Z
1 T
Xu m(u)du f (XT )
A = Et,x exp −
2 t
2009-10
49
1. On se place dans le cas f = 1, et on note ϕ la solution de
∂uu ϕ(u, T ) = m(u)ϕ(u, T ) ; ∂u ϕ(T, T ) = 0
Montrer que
Et,x
1
exp −
2
Z
!!
T
Xu m(u)du
= exp
t
∂u ϕ(t, T )
x exp
2ϕ(t, T )
1
2
Z
T
t
!
∂u ϕ(s, T )
δ(u)du
ϕ(s, T )
2. Montrer que le calcul de A se ramène au calcul de la solution d’une EDP.
4.3
Autres processus.
Exercice 4.3.1 Processus d’Ingersoll. Soit a < z < b et Z le processus solution de
dZt = (Zt − a)(b − Zt )σdBt , Z0 = z
On admet que pour tout t, le processus Z vérifie a < Zt < b.
1. Calculer la dynamique de Z −1 .
def
2. soit ζt =
Zt − a
. Calculer la dynamique de ζ et celle de ln ζ.
b − Zt
3. Soit Xt = (b − Zt )g(t, ζt ). Donner une condition sur g pour que X soit une martingale. Sauriez
vous résoudre l’équation obtenue ?
4. Soit Y solution de
dYt = (Yt − a)(b − Yt )2 dt + (Yt − a)(b − Yt )σdBt
Montrer qu’il existe une probabilité Q que l’on déterminera telle que, sous Q Y ait même loi
que Z sous P.
Exercice 4.3.2 Un processus stationnaire. Soit X vérifiant dXt = −aXt dt+σdBt , X0 v.a. donnée.
1. Explicitez Xt .
2. Montrer que si X0 est une v.a. gaussienne indépendante de B, le processus X est un processus
gaussien.
3. On suppose que X0 est gaussienne, indépendante de B. Déterminer la loi de X0 pour que la
loi de la v.a. Xt ne dépende pas de t.
Exercice 4.3.3 Soit X solution de (on admet que X existe)
dXt = Xt (1 − Xt ) ((µ − Xt )dt + dBt ) , X0 = x
avec x ∈]0, 1[. Soit h0 (x) =
0 < a < x < b < 1.
1−x 2θ−1
x
x
et h1 (x) = 2 ln(1−x)−ln
et τ = inf{t ≥ 0, St 6∈ [a, b]}, avec
(2µ−1)
1. Montrer que h0 (Xt ) et h1 (Xt ) + t sont des martingales.
2. Montrer que P (Xτ = a) =
h0 (x)−h0 (b)
h0 (a)−h0 (b)
et calculer E(τ ).
50
4.4
Equa. Diff.
Des calculs
Exercice 4.4.1 Un calcul de probabilité. On suppose connue
Φ(a, T ) = P (Bt ≤ at , ∀t ≤ T )
Soit B1 et B2 deux MB indépendants et
dXt
dYt
=
=
Xt (rdt + σ1 dB1 (t)), X0 = 1
Yt (rdt + σ2 dB2 (t)), Y0 = 1
Calculer, en fonction de Φ la quantité P (Xt ≤ Yt , ∀t ≤ T ).
Exercice 4.4.2 Un calcul de loi Let dXt = µ(t)dt + σ(t)dBt , X0 = 0 where µ and σ are piece
wise constant over known time.
Let us restrict our attention to the case
µ(t) = µ ∀t ∈ [0, 1[,
σ(t) = σ ∀t ∈ [0, 1[,
µ(t) = µ1 ∀t ∈ [1, ∞[,
σ(t) = σ1 ∀t ∈ [1, 2[/, .
Describe the distribution of Yt = max0≤s≤t Xs .
Exercice 4.4.3 Montrer que la solution de
dSt
dCt = Ct rt dt + m(
− rt dt)
St
avec dSt = St (µt dt + σt dBt ) s’écrit sous la forme
Ct = C0
St
exp[a
S0
Z
Z
t
rs ds + b
0
0
t
m
σs2 ds]
où on explicitera a et b.
Exercice 4.4.4 Changement de temps Soit dXt = −λXt dt + σdBt et τ = inf{t : |Xt | > g(t)}
où g est une fonction déterministe. Exprimer P (τ > t) en fonction de Ψ(u) = P (τ ∗ > u) avec
τ ∗ = inf{t : |Bt | > h(t)}.
Chapter 5
Equations différentielles
stochastiques
Une équation différentielle stochastique est une équation de la forme
dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 = x
où l’inconnue est le processus X, les donnés sont le mouvement Brownien B (éventuellement multidimensionel) et les fonctions b et σ.
L’équation précédente a une unique solution si
a- les fonctions b et σ sont continues,
b- il existe K tel que pour tout t ∈ [0, T ], x ∈ R, y ∈ R
i) |b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ K |x − y|
2
2
2
ii) |b(t, x)| + |σ(t, x)| ≤ K 2 (1 + |x| ). De plus cette solution vérifie
E( sup |Xt |2 ) < ∞.
0≤t≤T
5.1
Equation linéaire
Exercice 5.1.1 Soit l’EDS
dXt = bXt dt + dBt , X0 = x.
1. On Z
pose Yt = e−bt Xt . Quelle est l’EDS vérifiée par Yt ? Exprimer Yt sous la forme Yt =
t
y+
f (s)dBs où l’on explicitera la fonction f .
0
2. Calculer E(Yt ) et E(Yt2 ).
Z t
Z t
3. Justifier que
Ys ds est un processus gaussien. Calculer E(exp[
Ys ds]).
0
0
Z
4. Exprimer Yt pour t > s sous la forme Yt = Ys +
t
g(u)dBu où l’on explicitera la fonction g.
s
Calculer E(Yt |Fs ) et Var (Yt |Fs )
5. Calculer E(Xt |Fs ) et Var (Xt |Fs ).
Exercice 5.1.2 Soit
dΨt = (1 − rΨt )dt + σΨt dBt
51
52
Equa. Diff.
et L le générateur associé
LV (x) = (1 − rx)V 0 (x) +
σ 2 2 00
x V (x)
2
Soit u une solution de
Lu(x) − λu(x) = 0
On définit x∗ comme solution de x∗ u0 (x∗ ) = u(x∗ ) et v(x) =
Soit enfin V définie par
V (x)
= v(x),
=
x,
x∗
u(x). On admettra que v 00 (x) ≥ 0.
u(x∗ )
0 ≤ x ≤ x∗
x > x∗
Montrer que 1 − (r + λ)x∗ ≤ 0.
Ecrire la formule d’Itô pour e−λt V (Ψt ) (il apparait un terme LV (x) − λΨ(x)). Montrer que sur
x > x∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x∗ , on a LV (x) − V (x) = 0
En déduire que
V (Ψ0 ) ≥ Ẽ(e−λT V (ΨT ))
(en admettant que l’intégrale stochastique est une martingale).
Exercice 5.1.3 Cas particulier 1.
1. Montrer que la solution Y de
dYt = αXt dt + βXt dBt , Y0 = 1 ,
est
1
Yt = exp {(α − β 2 )t + βBt } .
2
2. Montrer que si α ≥ 0, Y est une sous-martingale par rapport à la filtration (Ft ).
A quelle condition sur α, Y est elle une martingale?
3. Soit (Zt )t≥0 le processus défini par
Z
t
Zt = x + (a − bβ)
0
Z
Ys−1
t
ds + b
0
Ys−1 dBs .
Montrer que (Zt )t≥0 est un processus d’Itô. Calculer < Y, Z >t .
En déduire que la solution X de (5.3) peut s’écrire Xt = Yt Zt .
Exercice 5.1.4 Cas particulier 2. On considère l’équation
dXt
X0
=
=
αXt dt + b dBt
x.
1. Montrer que l’unique solution de (5.1) s’écrit
Z
t
αt
Xt = e (X0 + b
e−αs dBs ) .
0
2. Montrer que X est un processus gaussien, calculer son espérance et sa variance.
Z t
Rt
3. Justifier que
Xs ds est un processus gaussien. Calculer E exp[ 0 Xs ds] .
0
(5.1)
Enoncés. 2009-10
53
4. Calculer E(Xt |Fs ) et Var (Xt |Fs ).
5. Soit X solution de (5.1), et φ une fonction de classe C 2 . Ecrire la formule d’Itô pour Zt =
φ(Xt ).
Z x
y2
En déduire que si φ(x) =
exp(−α 2 ) dy, alors
b
0
Z
t
exp(−α
Zt = b
0
Bs2
) dBs
b2
Z est-elle une martingale de carré intégrable?
6. Soit λ fixé. Calculer
2
Φ(t, y) = E(eλXt ) .
2
Soit t fixé. Etudier la martingale E(eλXt |Fs ) , s ≤ t.
Montrer que Φ est solution d’une équation aux dérivées partielles. Soit Ψ(t, x) = ln Φ(t, x).
Montrer que
Ψ(t, x) = x2 a(t) + b(t), avec a0 (t) = −2a(t)(α + b2 a(t)), b0 (t) = −b2 a(t) .
Exercice 5.1.5 Cas particulier 3. On considère l’équation
dXt
X0
=
=
(b + βXt )dBt
x
(5.2)
où x 6= − βb . Soit h la fonction définie par
h(y) =
1
b + βy
ln |
|
β
b + βx
pour y 6= − βb
1. On pose Yt = h(Xt ). Quelle est l’équation vérifiée par Y ?
2. En déduire que la solution de (5.2) s’écrit
Xt = (x +
b
β2
b
) exp(− t + βBt ) −
β
2
β
Exercice 5.1.6 Cas particulier 4. On se place dans le cas a = 1, b = 0. On pose Yt = e−αt Xt .
Quelle est l’équation différentielle vérifiée par Y ?
Calculer E(Xt ) et Var (Xt ).
Exercice 5.1.7 Cas général. Soit a, α, b, β quatre constantes réelles. Soit x ∈ R.
On considère l’équation différentielle stochastique
dXt
X0
= (a + αXt ) dt + (b + βXt ) dBt
= x
1. Montrer que (5.3) admet une unique solution.
2. On note m(t) = E(Xt ) et M (t) = E(Xt2 ).
(5.3)
54
Equa. Diff.
(a) Montrer que m(t) est l’unique solution de l’équation différentielle ordinaire
y 0 − αy = a
y(0) = x
(5.4)
(b) Ecrire la formule d’Itô pour X 2 où X est solution de (5.3).
(c) En déduire que M (t) est l’unique solution de l’équation différentielle ordinaire
y 0 − (2α + β 2 ) y
y(0)
= 2(a + bβ)m + b2
= x2
(5.5)
où m est la solution de (5.4). (On admettra que l’intégrale stochastique qui intervient est
une martingale)
(d) Résoudre (5.4) puis (5.5).
Exercice 5.1.8 Soit f, F, g, G des fonctions continues bornées. On note X la solution de
dXt = [f (t) + F (t)Xt ]dt + [g(t) + G(t)Xt ]dBt , X0 = x
et Y la solution de
dYt = F (t)Yt dt + G(t)Yt dBt , Y0 = 1
1. Expliciter Y .
2. Soit Z défini par
Z
Zt = x +
0
t
Z
Ys−1 [f (s) − G(s)g(s)]ds +
0
t
Ys−1 g(s)dBs .
Montrer que X = Y Z.
3. Soit m(t) = E(Xt ) et Mt = E(Xt2 ). Montrer que m est l’unique solution de y 0 (t) − F (t)y(t) =
f (t), y(0) = x. En déduire
Z t
m(t) = exp(Fe(t)) x +
exp −Fe(s)f (s)ds
0
Z
où Fe(t) =
t
F (s)ds. Montrer que M est l’unique solution de
0
Y 0 (t) − [2F (t) + G2 (t)]y(t) = 2[f (t) + g(t)G(t)]m(t) + g 2 (t), y(0) = x2
Exercice 5.1.9 Calculer l’espérance et la variance de la v.a. Xt avec
p
dXt = a(b − Xt )dt + σ Xt dBt , X0 = x
Exercice 5.1.10 Soit 0 < s < T et m ∈ R. Vérifier que la solution de
dXt =
(s − T )Xt + mT
dt + dBt
(s − T )t + T 2
est
m
Xt = t + [(s − T )t + T 2 ]
T
Z
0
t
dBu
(s − T )u + T 2
Enoncés. 2009-10
55
Exercice 5.1.11 Soit π un processus adapté (de carré intégrable), σ, θ et r des processus adaptés
(bornés), c un processus positif, adapté, borné et X la solution de
dXtx,π,c
X0x,π,c
= rt Xtx,π,c dt − ct dt + πtT σt [dBt + θt dt]
(5.6)
= x
R
Rt
Rt
Rt
t
On note H le deflateur, soit Ht = exp 0 rs ds + 0 θs dBs − 21 0 θ2 ds = Lt 0 rs ds . Montrer que
Z t
Rt
Hs cs ds, t ≥ 0 et Lt (Xt Rt + 0 cRs ds) sont des martingales. Vérifier que
les processus Ht Xt +
0
leur difference est une martingale.
5.2
Processus affines
Exercice 5.2.1 Calculer E(exp(λXT )) pour
dXt
dVt
p
= (µ − αXt − γVt )dt + Vt dB1,t
p
= k(θ − Vt )dt + σ Vt dB2,t
Exercice 5.2.2 Soit
dXt = µ(Xt )dt + σ(Xt )dBt
2
où µ et σ (le carré de σ) sont des fonctions affines : µ(x) = µ0 + µ1 x ; σ 2 (x) = σ0 + σ1 x. On souhaite
montrer que pour toute fonction affine ψ(x) = ψ0 + ψ1 x, pour tout θ, il existe deux fonctions α et
β telles que,
!
!
Z T
θXT
E e
exp −
ψ(Xs )ds |Ft = eα(t)+β(t)St .
t
1. Montrer qu’il suffit d’établir l’existence de deux fonctions α et β telles que le processus
Z t
α(t)+β(t)St
e
exp −
ψ(Ss )ds
0
est une martingale avec α(T ) = 0, β(T ) = θ.
2. Montrer que la détermination de α et β conduit à la résolution d’une équation de Ricatti (type
d’équation différentielle non linéaire) et d’une équation différentielle linéaire. On ne demande
pas la résolution de ces équations.
3. Généraliser le résultat au cas où dSt = µ(St )dt+σ(St )dBt +dXt où (Xt , t ≥ 0) est un processus
de Poisson.
5.3
Autres équations
Exercice 5.3.1 On considère l’équation
dXt = 11Xt ≥0 dBt , X0 = x .
(5.7)
On suppose qu’il existe une solution.
1. Vérifier que, pour x = 0, la solution de (5.7) n’est pas identiquement nulle.
2. Vérifier que, pour x ≥ 0, la solution est à valeurs positives. On pourra montrer, en utilisant
la formule d’Itô, que si f est une fonction régulière, nulle sur R+ , alors f (Xt ) est nulle.
3. Montrer que la solution issue de 0 est d’espérance nulle à tout instant t.
4. Que peut on en conclure?
56
Equa. Diff.
5.4
Finance
Exercice 5.4.1 Options Asiatiques. Soit St solution de
dSt = St (r dt + σ dBt )
les paramètres r et σ étant constants.
Z
1
1. Soit K une constante. Montrer que le processus Mt = E (
T
martingale.
St−1 (K
2. Montrer que, si l’on pose ζt =
1
−
T
1
Mt = St E [
T
Z
!
T
+
Su du − K) |Ft
est une
0
t
Su du), on a
0
Z
T
t
Su
du − ζt ]+ |Ft
St
!
.
!
!
Z
Z
1 T Su
1 T Su
+
+
3. Soit Φ(t, x) = E [
du − x] . Montrer que Φ(t, x) = E [
du − x] |Ft
T t St
T t St
et que Mt = St Φ(t, ζt ).
4. Ecrire la formule d’Itô pour M . En déduire une équation aux dérivées partielles vérifiée par
Φ.
Exercice 5.4.2 Black et Scholes, volatilité déterministe. Soit σ une fonction déterministe
continue et r une constante et (St , t ≥ 0) la solution de
dSt = St (r dt + σ(t) dBt ) , S0 = x
1. Montrer que
Z t
Z
1 t 2
St = S0 exp rt +
σ(s) dBs −
σ (s) ds
2 0
0
Z
t
2. Montrer que
σ(s) dBs −
0
et la variance.
1
2
Z
t
σ 2 (s) ds est une variable gaussienne dont on calculera l’espérance
0
3. On rappelle que dans le cas σ constant, le prix d’un call est donné par
C(0, x) = xN (d1 ) − Ke−rT N (d2 )
avec
d1 =
√
x
σ2
ln( ) + T (r +
) , d2 = d1 − σ T
K
2
σ T
1
√
En déduire (sans faire de calculs) que, dans le cas de volatilité déterministe, la formule de
Black et Scholes s’écrit
E((ST − K)+ ) = xN (D1 ) − Ke−rT N (D2 )
Exprimer D1 et D2 .
Enoncés. 2009-10
57
Exercice 5.4.3 La formule de Dupire. Soit
dSt = St (rdt + σ(t, St )dBt )
où σ est une fonction de R+ × R+ dans R et f (t, x) la densité de St , soit f (t, x) = P (St ∈ dx). ON
admettra que
1
∂t f − ∂xx x2 σ 2 (t, x)f (t, x) + ∂x [rxf ] = 0
2
On note C(K, T ) le prix en zéro d’un call Européen de strike K et de maturité T . On note
∂1 C, ∂2 C, ∂11 C les dérivées partielles de C par rapport à la première variable, seconde variable,
dérivée seconde par rapport à la premiere variable.
1. Montrer que ∂11 C(K, T ) = e−rT f (T, K).
2. Montrer que
1 ∂2 2 2
∂2
∂
∂ 2 ∂C
x σ (t, x)f (t, x) = ert 2 (rx C) + ert 2
2
2 ∂x
∂x
∂x
∂x ∂t
3. En déduire
5.5
1 2 2
∂2C
∂C
∂C
x σ (t, x) 2 (t, x) = rx
(x, t) +
(t, x)
2
∂x
∂x
∂t
Equations différentielles
Exercice 5.5.1 Soit α une constante et
dXt = −α2 Xt2 (1 − Xt )dt + αXt (1 − Xt )dBt
(5.8)
la condition initiale étant X0 = x avec x ∈]0, 1[. On admet que X prend ses valeurs dans l’intervalle
Xt
]0, 1[. On pose Yt =
.
1 − Xt
1. Quelle est l’équation différentielle stochastique vérifiée par Y ?
2. En déduire que Xt =
x exp(αBt − α2 t/2)
.
x exp(αBt − α2 t/2) + 1 − x
Exercice 5.5.2 Produit d’exponentielle. Soit B un MB et h un processus adapté borné. On
def
note E(hB)t = Lt l’unique solution de dLt = Lt ht dBt , L0 = 1. Etablir une formule du type
E(h1 B1 + h2 B2 )t = Xt E(h1 B1 )t E(h2 B2 )t où X est à déterminer.
Exercice 5.5.3 Soit B un mouvement Brownien issu de a > 0 et T0 = inf{t : Bt = 0}. Pour
t < T0 , on définit Xt = µ (Bt )α . Montrer que, pour t < T0 ,
dXt = b(Xt ) dt + σ(Xt ) dBt
1
où on explicitera b et σ. En déduire la forme de la solution de dYt = Ytn dBt + nYt2n−1 dt, Y0 = y ≥ 0
2
avant le premier temps d’atteinte de 0. (On admettra l’unicité de la solution).
Exercice 5.5.4 Ponts
1. Soit N une gaussienne réduite centrée indépendante
de B. Vérifier que la solution de dXt =
Z t
N − Xt
1
dBt +
dt est Xt = tN + (1 − t)
dBs . En déduire que X est un processus
1−t
0 1−s
gaussien, dont on calculera l’espérance et la covariance.
58
Girsanov. Enoncés
Wt − Xt
2. Soit W un MB indépendant de B. Vérifier que la solution de dXt = dBt +
dt est
1−t
Z t
Z t
Ws
1
Xt = (1 − t)
ds + (1 − t)
dBs . En déduire que X est un processus gaussien,
2
(1
−
s)
1
−
s
0
0
dont on calculera l’espérance et la covariance.
Chapter 6
Girsanov
Soit (Ω, F, P) un espace de probabilité. Une probabilité Q sur (Ω, F) est dite équivalente à P si
P(A) = 0 équivaut à Q(A) = 0. Dans ce cas, il existe une variable aléatoire Z, F-mesurable,
strictement positive telle que Q(A) = EP (Z11A ) ce que l’on note dQ|F = ZdP|F . La v.a. Z vérifie
EP (Z) = 1, on l’appelle densité de Radon-Nykodym.
Si (Ω, F, P) est un espace de probabilité filtré, et si Q est équivalente à P sur FT (avec T ≤ ∞),
alors dQ|Ft = Zt dP|Ft et le processus (Zt , t ≤ T ) est une Ft , t ≤ T ) martingale. On rappelle la
formule de Bayes (voir Exercice 1.3.14): pour X FT -mesurable bornée
EQ (X|Ft ) =
1
EP (XZT |Ft )
Zt
Dans tous ces exercices, B désigne un P -mouvement Brownien issu de 0, F = (Ft , t ≥ 0) sa filtration
naturelle.
6.1
Résultats élémentaires.
R
Dans la plupart des exercices, on considère des intégrales θs dBs avec θ borné. La plupart des
résultat se généralisent au cas de processus de carré intégrable.
Exercice 6.1.1 Changement de probabilité. Soit (θt , t ≥ 0) un processus adapté continu borné
Z t
Z
1 t 2
et L la martingale df́inie par Lt = exp[
θs dBs −
θ ds]. Soit Q la probabilité définie sur FT
2 0 s
0
Z t
Z t
θs φs ds.
φs dBs −
par dQ = LT dP. Soit (φt , t ≥ 0) un processus adapté continu borné et Mt =
0
0
Montrer que M est une Q-martingale.
On pose Zt = Mt Lt . Montrer que Z est une P-martingale locale. Pouvait-on prévoir ce résultat.
Exercice 6.1.2 Calcul d’espérance 1. Soit θ un processus adapté borné et H le processus
défini par dHt = −Ht θt dBt , H0 = 1. On note dQ|Ft = Ht dP|Ft . Montrer que EP (HT ln HT ) =
Z
1 T 2
θ ds). On pourra faire une démonstration à la main (quand θ est déterministe) ou utiliser
EQ (
2 0 s
le théorème de Girsanov.
Exercice 6.1.3 Calcul d’espérance 2. Soit pZ une fonction déterministe donnée. Pour quelles
t
fonctions h et k le processus exp(h(t) + k(t)Bt2 +
p(s)Bs2 ds) est-il une martingale? Applications :
0
59
60
Girsanov. Enoncés
Z
1. Calculer E[exp(λBT2 +
T
0
Z
2. Calculer
E[exp(λBT2
T
+
0
p(s)Bs2 ds]
p(s)Bs2 ds)Ψ(A + BBT )]
Exercice 6.1.4 Itô+ Girsanov. Soit Γ le processus solution de
dΓt = Γt (βt dt + γt dBt ),
Γ0 = 1
où β et γ sont des processus F adaptés bornés.
Z t
1. Montrer que Γt exp −
βs ds est une martingale locale.
0
2. Trouver une probabilité Q telle que Γ soit une Q-martingale locale.
3. Trouver une probabilité R telle que Γ−1
soit une R-martingale locale.
t
Exercice 6.1.5 Longstaff ’s Model. Soit rt = Yt2 avec dYt = dBt − (λYt + α2 )dt.
1. Donner la dynamique de r.
2. Soit f et g deux fonctions déterministes (que l’on supposera continues bornées). Exprimer
Z
t
E(exp
0
1
en fonction de exp
2
Z
t
1
[f (s)Bs + g(s)]dBs −
2
Z
0
t
[f 2 (s)Bs2 + 2Bs f (s)g(s)]ds)
g 2 (s)ds.
0
Z
3. Montrer que le calcul de E(exp −
t
rs ds) se déduit du calcul de l’expression précédente avec
0
des fonctions f et g vérifiant des conditions que l’on précisera.
Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densité
P (Bt + νt ∈ dy|Bs + νs = x)
ne dépend pas de ν.
Exercice 6.1.7 Loi du sup. On suppose que l’on connait la loi du couple de v.a. (Bt∗ , Bt ) où pour
un processus X on note
Xt∗ = sup Xs .
s≤t
Montrer comment calculer la loi de (L∗t , Lt ) pour Lt = exp(αBt −
α2
t).
2
Exercice 6.1.8 Loi de quantiles.
1. Soit F et G deux fonctionnelles définies sur C([0, 1], R). Montrer que l’on a équivalence entre
loi
(i) ∀t, ∀µ ∈ R, F (Xs , s ≤ t) = G(Xs , s ≤ t) le processus X étant un Brownien de drift µ
loi
(ii) ∀t, F (Xs , s ≤ t) = G(Xs , s ≤ t) le processus X étant un Brownien.
2009-2010
61
Z
2. Soit At =
0
t
ds11Xs ≥0 et θt = sup{s ≤ t : supu≤s Xu = Xs }. Montrer que
loi
At = θt , lorsque le processus Xest un mouvement Brownien de drift µ
équivaut à
loi
A1 = θ1 , lorsque le processus Xest un mouvement Brownien
3. Soit X un mouvement Brownien. Montrer que si E(f (X1 , A1 )11X1 >0 ) = E(f (X1 , θ1 )11X1 >0 ),
loi
alors (X1 , A1 ) = (X1 , θ1 ).
6.2
Crochet.
1
Exercice 6.2.1 Girsanov Soit M une P-martingale de carré intégrable et dQ = exp(Mt − hM it ) dP.
2
Montrer que si N est une P martingale, N − < N, M > est une Q martingale.
Exercice 6.2.2 h-processus. Soit X tel que dXt = µdt + σdBt , X0 = x et h une fonction de
classe C 1 telle que h(Xt ) est une martingale positive. On note Q la probabilité définie par dQ|Ft =
Z t 0
h(Xt )
h (Xs )
dP|Ft . Soit M une P-martingale. Montrer que Mt −
dhM, Xis est une Q-martingale.
h(x)
0 h(Xs )
6.3
Processus.
Exercice 6.3.1 Processus de Bessel. Soient θ et µ deux processus
adaptés bornés. On note Pθ
Z t
def
la probabilité telle que le processus B θ défini par Btθ = Bt −
θs ds soit un mouvement Brownien
0
Z t
def
et Pµ la probabilité telle que B µ avec Btµ = Bt −
µs ds soit un mouvement Brownien.
0
1. Quelles sont les densités Lθ =
dPθ
dPµ
et Lµ =
?
dP
dP
Lθ
2. Soit L = µ . Expliciter L en fonction de B puis en fonction de B µ . A quel changement de
L
probabilité type Girsanov correspond L?
3. Soit δ > 1 et R le processus solution de
dRt =
δ−1
dt + dBt , R0 = 1
Rt
(on admet qu’il existe une solution)
(a) Montrer que
Z
Z
dRs
1 t 1
= ln Rt +
ds
2 0 Rs2
0 Rs
Z
Z t
1 t 2
θ ds). On note Q la
(b) Soit θ un processus adapté borné et Lt = exp(
θs dB(s) −
2 0 s
0
probabiité définie par dQ = Lt dP.
Comment choisir θ pour que, sous Q
t
dRt =
1
dt + dB̃t
Rt
où B̃ est un Q-Brownien. Exprimer L en n’utilisant que le processus R
62
Girsanov. Enoncés
(c) En déduire que
Z
E(f (Rt )) = E (ρt )δ exp[α
t
0
ds
]
f
(ρ
)
t
ρ2s
où α est une constante dépendant de n et
dρt =
1
dt + dB̃t , ρ0 = 1 .
ρt
Exercice 6.3.2 Fonctionnelles exponentielles
Rt
Rt
1. Calculer E( 0 exp(Bs )ds) et E(exp(αBt ) 0 exp(γBs )ds).
Z t
exp(Bs + νs)ds.
2. Soit A(t, ν) =
0
(a) Montrer en utilisant le théorème de Girsanov que le calcul de E(A(t, ν)) se ramène au cas
ν = 0.
(b) Peut-on faire un calcul direct?
Exercice 6.3.3 Soit X le processus solution de
dXt = −λXt dt + dBt , X0 = x.
1. On définit
Z t
Z
λ2 t 2
Lt = exp λ
Xs dBs −
X ds .
2 0 s
0
Vérifier que L est une martingale locale. On admet pour la suite que c’est une martingale.
2. On note Pλ la mesure de probabilité définie sur Ft par dPλ = Lt dP. Quelle est la dynamique
de X sous Pλ ?
3. Montrer que
Z
t
Lt = exp(
λXs dXs +
0
4. Calculer
EP
b2
exp(−
2
Z
t
0
1
2
Xs2
Z
t
0
λ2 Xs2 ds)
ds) .
Exercice 6.3.4 Processus d’Ornstein-Uhlenbeck.
1. On définit sur FT la mesure Pb par
Z
b2 T 2
Bs ds}dP
dP = exp{−b
Bs dBs −
2 0
0
Rt
(a) Justifier que, sous Pb le processus (Wt = Bt + b 0 Bs ds , t ≤ T ) est un brownien.
Z
b
T
(b) En déduire que sous Pb , le processus (Bt , t ≥ 0) est un processus d’Ornstein-Uhlenbeck,
et que Bt est une variable gaussienne dont on précisera, en s’appuyant sur le cours,
l’espérance et la variance.
(c) Montrer que, sous P, on a
Z
t
Bs dBs =
0
La même égalité est-elle vraie sous Pb ?
1 2
(B − t).
2 t
2009-2010
63
(d) Montrer que, pour tout t ≤ T ,
EP (exp{−αBt2 −
b2
2
Z
t
0
b
Bs2 ds}) = Eb (exp{−αBt2 + (Bt2 − t)})
2
b
où Eb désigne l’espérance sous P .
Montrer que si B̃ est un brownien issu de a, on a
Z
b2 t 2
b
2
EP (exp{−αB̃t −
B̃s ds}) = Eb (exp{−αB̃t2 + (B̃t2 − a2 − t)})
2 0
2
(e) En déduire (il y a des calculs) que, pour tout t,
Z
1
b2 t 2
α
2
EP (exp{−αBt −
B ds}) = (cosh bt + 2 sinh bt)− 2
2 0 s
b
2. Montrer que si B̃t est un Brownien issu de a
Z
1
b2 t 2
α
xb 1 + 2α
2
b coth bt
EP (exp{−αB̃t −
B̃s ds}) = (cosh bt + 2 sinh bt)− 2 exp[−
]
2 0
b
2 coth bt + 2α
b
avec x = a2 .
Exercice 6.3.5 Soit S solution de
dSt = St (µ dt + σ dBt ) , S0 = s ,
les coefficients µ et σ étant constants.
1. Montrer que St = S0 exp(µt + σBt −
σ2
t).
2
µ−r
1
. Soit Q définie sur Ft par dQ = Lt dP avec Lt = exp(θBt − θ2 t).
σ
2
Montrer que (Wt = Bt + θt, t ≥ 0) est un Q-mouvement brownien.
2. On pose θ = −
σ2
3. Soit P̃ définie sur Ft par dP̃ = Zt dQ avec Zt = exp(σWt −
t).
2
Montrer que
dSt = St ((r + σ 2 ) dt + σ dB̃t )
où B̃ est un P̃-mouvement brownien.
St
4. Soit Pt = P0 ert . Montrer que
, t ≥ 0 est une Q-martingale.
Pt
Pt
est une P̃-martingale.
Montrer que
St
Z t
5. Soit Ft = e−λt
Su du + sA où A, λ sont des constantes
0
Ft eλt
Soit Ψt =
. Ecrire l’équation différentielle stochastique vérifiée par Ψt en utilisant le
St
Brownien B̃.
Z
t
Exercice 6.3.6 Soit α, β et σ des fonctions (déterministes) bornées et b(t) =
β(s) ds. On note
0
r le processus solution de
drt = (α(t) − β(t)rt ) dt + σ(t)dBt
On suppose que σ ne s’annule pas.
64
Girsanov. Enoncés
1. Vérifier que
Z t
Z t
rt = exp(−b(t)) r0 +
exp(b(u)) α(u) du +
exp(b(u)) σ(u) dBu .
0
0
2. Calculer E(rt ) et Cov(rt , rs ).
3. Soit Q1 la probabilité définie sur Ft par dQ1 = Lt dP, avec
Z t
Z
1 t
Lt = exp(
θ(s)dBs −
(θ(s))2 ds)
2 0
0
α(s)
. On suppose θ bornée. On note Bt1 = Bt −
où θ(s) = −
σ(s)
(exp(b(t)) rt , t ≥ 0) est une Q1 martingale.
Z
t
θ(s) ds. Montrer que
0
4. Soit Q2 la probabilité définie sur Ft par dQ2 = Zt dQ1 , avec
dZt = Zt
β(t)
rt dBt1 , Z0 = 1
σ(t)
Montrer que r est une Q2 -martingale locale.
Exercice 6.3.7 Drift non observable Soit BtY = Y t + Bt où Y est une variable aléatoire de loi
ν, indépendante de B. Soit F une fonctionnelle sur C([0, t], R). Montrer que
E[F (BsY , s ≤ t)] = E[F (Bs ; s ≤ t)h(Bt , y)]
Z
avec h(x, t) =
ν(dy) exp(yx −
h
y2
t) En déduire que, sur l’espace canonique
2
Z t
h0
Xt −
ds x (Xs , s)
h
0
h
est une martingale sous P avec P |Ft = h(Xt , t)B|Ft . Montrer que
BtY
eth +
=B
Z tZ
t
ds
0
0
eth est un Brownien.
où B
2
1
Soit Q définie par dQ = e−Y Bt − 2 Y t dP. Montrer que sous Q, BtY est indépendant de Y .
h0x Y
(Bs , s)
h
Exercice 6.3.8 On note h une fonction.
1. Donner des conditions sur h pour que dQ = h(BT )dP définisse, sur FT une probabililité
équivalente à P.
2. Calculer Lt telle que dQ|Ft = Lt dP|Ft
3. Montrer que ∀X ∈ FT , on a EQ (X|BT ) = EP (X|BT )
4. Expliciter Q(BT ∈ dx).
5. Soit A ∈ FT , indépendante de BT . Montrer que Q(A) = P(A). Donner des exemples de tels
A.
6. Calculer Q(f (BT )|Ft ).
7. Montrer que
Z
Z
t
Lt = 1 +
0
2
∞
dBs
dy
−∞
h0 (y)e−(y−Bs ) /(2(T −s))
p
2π(T − s)
2009-2010
65
8. Montrer que le processus W défini par
Z
dWt = dBt −
∞
2
dyh0 (y)e−(y−Bt )
Z−∞
∞
dyh(y)e−(y−Bt )
2
/(2(T −t))
dt
/(2(T −t))
−∞
est un Q mouvement Brownien.
9. (cette question ne dépend pas des précédentes) Soit Gt = Ft ∨σ(BT ). Montrer que le processus
Z t
BT − Bs
ds est un P-Gt mouvement Brownien. Montrer que Mt est indépendante
Mt = Bt −
T −s
0
de BT .
10. Montrer que M est un Q-Gt mouvement Brownien.
Z
t
x − Xs
ds et Mt = exp −
1−s
Exercice 6.3.9 Soit, pour t < 1, Xt = Bt +
0
Montrer que
Z
t
0
x − Xs
1
dBs −
1−s
2
Z t
0
x − Xs
1−s
2
x
(x − Xt )2
1
Mt = exp − +
+ ln(1 − t)
2
2(1 − t)
2
Exercice 6.3.10 Soit dQ|Ft = h(t, Xt )dP|Ft . Sous quelles conditions sur h Q est-elle une probabilité sur FT ? Montrer que
Z
t
Bt −
∂x h(s, Bs )ds
0
est une Q-martingale?
Exercice 6.3.11 Soit Lt = exp − 14 e−2Bt − 1 +
1. Question préliminaire: Calculer l’intégrale
Rt
0
1
2
Rt
0
e−2Bs − 41 e−4Bs ds
e−2Bs dBs .
2. Montrer que L est une martingale. Quelle est son espérance?
3. On pose dQ = Lt dP. Quelle est la dynamique de B sous Q?
6.4
Cas multidimensionel
Exercice 6.4.1 Cas multidimensionel. Soient (B1 (t), t ≥ 0) et (B2 (t), t ≥ 0) deux mouvements
Browniens indépendants. Soit (Li (t), i = 1, 2 , t ≥ 0) les processus définis par
dLi (t) = θi (t)Li (t)dBi (t) , Li (0) = 1
où (θi (t), i = 1, 2) sont des processus adaptés continus bornés.
1. Vérifier que
Z
t
Li (t) = exp(
θi (s)dBi (s) −
0
1
2
Z
0
t
θi2 (s) ds) .
2. Soit T ≥ 0 et Q1 la probabilité définie sur FT par dQ1 = L1 (T )dP. Soit (φt , t ≥ 0) un processus
Z t
Z t
adapté continu et Mt =
φs dB1 (s) −
θ1 (s)φs ds.
0
0
(a) Montrer que (Mt , 0 ≤ t ≤ T ) est une Q1 -martingale locale.
2
!
ds
66
Girsanov. Enoncés
(b) On pose Z1 (t) = Mt L1 (t). Calculer dZ1 (t). Montrer que Z1 est une P-martingale.
Pouvait-on prévoir ce résultat ?
3. Soit Zt = L1 (t)L2 (t). Ecrire dZt . Montrer que Z est une P-martingale.
4. Soit Q la probabilité définie sur FT par dQ = ZT dP. Comment se transforment les browniens
Bi ?
5. Soit (Si , i = 1, 2) deux processus solutions de
dSi (t) = Si (t)[bi (t)dt + σi (t)dB1 (t) + φi (t)dB2 (t)]
Montrer qu’il existe une probabilité Q équivalente à P telle que, sous Q
dSi (t) = Si (t)[rdt + σi (t)dB1 (t) + φi (t)dB2 (t)]
où (Bi , i = 1, 2) sont des Q-Browniens indépendants.
6.5
Temps d’arrêt.
Exercice 6.5.1 Temps d’arrêt. Soit τ un (Ft )-temps d’arrêt. Soit Q telle que dQ|FT = LT dP|FT
et X ∈ FT . Comparer EP (LT 11τ >T X) et EQ (X11τ >T ).
Exercice 6.5.2 Let B be a Brownian motion and T = inf{t : eBt −t/2 > a}, where a > 1. Prove
that, ∀λ ≥ 1/2,
λ2
E(11T <∞ exp(λBT − T )) = 1
2
Exercice 6.5.3 Temps d’atteinte. Soit X un processus tel que
dXt = µdt + νdBt , X0 = 0
où µ et ν sont des constantes telles que ν > 0. Soit r une constante.
1. Montrer qu’il existe θ tel que
def
Mt = exp(−rt + θXt )
soit une martingale.
2. Soit b un nombre positif et τ le temps d’arrêt défini par
τ = inf{t ≥ 0 | Xt = b}
Calculer E(exp(−rτ + θXτ )). On admettra que la martingale Mt est uniformément intégrable
et que le temps d’arrêt τ est fini. En déduire E(exp(−rτ )).
3. On suppose que les conditions de la première question sont satisfaites. Soit Q telle que dQ =
Mt dP, sur Ft . Comment se transforme B?
4. Soit S le processus défini par
dSt = St [rdt + σdBt ], S0 = s
et Yt = ln
St
. Ecrire dYt .
s
2009-2010
67
5. Soit B une constante telle que s < B. Soit TB le temps d’arrêt
TB = inf{t ≥ 0 | St = B}
Calculer
E(exp(−rTB )) .
1
Exercice
Z t 6.5.4 Soit f et g deux fonctions déterministes, f de classe C , g continue. On note
f (s)dBs et u est la solution de
Ft =
0
u00 (t) − 2
f 0 (t) 0
u (t) − 2λg(t)f 2 (t)u(t) = 0
f (t)
avec u0 (T ) = −2aλu(T )f 2 (T ). Le but de cet exercice est de montrer que
"
E
exp −λ
Z
aFT2
+
0
T
#!!
g(t)Ft2 dt
=
u(T )
u(0)
2
1. Montrer que, pour toute fonction h continue, le processus L défini par
Z
t
Lt = exp
0
1
h(s)Fs dBs −
2
Z
t
h
0
2
(s)Fs2 ds
est une martingale.
2. En déduire que
!!
Z
1 t
h(s)
2
2
2
exp
dFs −
(h(s)f (s) + h (s)Fs )ds
2 0
0 2f (s)
!!
0
Z T
Z t
h (t)f (t) − f 0 (t)h(t)
1 h(T ) 2
2
2
2
F −
Ft
dt −
(h(s)f (s) + h (s)Fs )ds
exp
2 f (T ) T
f 2 (t)
0
0
Z
1
=
E
=
E
T
3. Montrer que
E
" 00
#! 1/2
Z T
1
u0 (T )
u (t) − 2u0 (t)f 0 (t)/f (t)
u(T )
2
2
Ft
exp
FT −
dt
=
2 u(T )f 2 (T )
u(t)f 2 (t)
u(0)
0
4. Résoudre le même problème par changement de temps.
5. Soit Ψ une fonction borélienne bonée de R dans R. Comment calculer
"
#
!!
Z T
Z T
2
2
K = E exp −λ aFT +
g(t)Ft dt Ψ(A + BFT +
φ(t)Ft dt)
0
0
Exercice 6.5.5 Decomposition canonique Soit B un mouvement Brownien et h une fonction
positive, vérifiant h(0, 0) = 1 et harmonique en espace (c’est-à-dire telle que h(t, Bt ) est une martinZ t 0
hx
(s, Bs )ds est un Q-mouvement
gale). On définit Q par dQ|Ft = h(t, Bt )dPFt . Montrer que Bt −
0 h
Brownien.
68
Girsanov. Enoncés
6.6
Finance
Dans toute cette section, P est la probabilité historique, Q la probabilité
R t risque neutre.Le processus
Se est le prix de l’actif sous-jacent aprs actualisation (soit Set = St e− 0 rs ds . Dans un modèle Black
et Scholes, le prix de l’actif suit
dSt = St (bt dt + σdBt )
sous la probabilité P, où σ est une constante.
Exercice 6.6.1 Moyenne. Soit dSt = St (rdt + σdBt ), S0 = 1, r et σ étant des constantes. On
Z T
1
ln St dt .
souhaite calculer C = EQ [(ZT − ST )+ ] quand ZT = exp
T 0
1. Soit Q∗ la probabilité définie sur FT par dQ∗ = exp(σBT − σ 2 T /2)dQ. Montrer que
e−rT EQ [(ZT − ST )+ ] = EQ∗ [(
ZT
− 1)+ ] .
ST
Z
T
2. Soit B̃t = Bt − σt. Ecrire ZT /ST sous la forme exp(αT −
β(t)dB̃t ) pour une fonction β
0
que l’on précisera.
3. Montrer que le calcul de C se réduit au calcul de EQ ((S̃T −K)+ ) pour un Brownien géométrique
S̃ dont on précisera la loi.
Exercice 6.6.2 Volatilité stochastique On rappelle le théorème de représentation prévisible à
deux dimensions: soit B = (B 1 , B 2 ) un Brownien à valeurs dans R2 et FB sa filtration canonique.
Z t
Z t
Toute FB -martingale de carré intégrable s’écrit Mt = m +
φ1s dBs1 +
φ2s dBs2 où (φi , i = 1, 2)
0
0
sont des processus adaptés.
Soient µ et η deux fonctions déterministes de R+ dans R et σ, γ deux fonctions déterministes de R
dans R. On considère alors un marché financier où l’actif risqué vérifie
dSt = St (µ(t)dt + σ(Yt )dBt1 ), S0 = s
où Y est un processus solution de
dYt = η(t)dt + γ(Yt )dBt2 , Y0 = 1
1. Déterminer l’ensemble des probabilités équivalentes à P telles que, sous Q, S soit une martingale.
2. Soit B un actif contingent B ∈ FT . Comment lui donner un prix (le taux sans risque est nul)
?
Exercice 6.6.3 Options boost. Soit M une F-martingale à valeurs strictement positives.
1. Justifier qu’il existe ψ tel que dMt = ψt dBt et qu’il existe Ψ tel que dMt = Ψt Mt dBt .
2. Soit S un Brownien géométrique tel que S0 = x et
dSt = St (r dt + σdBt )
(6.1)
où r et σ sont des constantes. Montrer qu’il existe γ tel que St = x(Mt )γ où M est une
martingale. A quel choix de r et σ correspond la valeur γ = 1?
2009-2010
69
3. Soit S un processus vérifiant (6.1), St∗ = sups≤t Ss et Bt∗ = sups≤t Bs . La loi de Bt∗ est connue
(c’est celle de |Bt |, ce résultat sera admis), on notera Φ(a) = P(Bt∗ ≤ a). Calculer, en utilisant
les résultats de la question 3, E(11ST∗ ≤a ) qui correspond à la valeur d’une option boost (au
coefficient exp(−rT ) près).
Exercice 6.6.4 Volatilité stochastique. Soit B 1 et B 2 deux Browniens indépendants, et Ft =
σ(Bs1 , Bs2 , s ≤ t) la filtration engendrée par les deux Browniens. Soit µ et η deux fonctions déterministes
bornées de R+ dans R et σ, γ deux fonctions déterministes bornées définies de R dans R. On note
S la solution de
dSt = St (µ(t)dt + σ(Yt )dBt1 ), S0 = s
où Y est un processus solution de
dYt = η(t)dt + γ(Yt )dBt2 , Y0 = 1
1. Soit θ un processus borné et Z la solution de
dZt = Zt θt dBt1 , Z0 = 1
Ecrire explicitement Zt sous la forme d’une exponentielle.
2. Soit λ et ν deux processus adaptés bornés et L le processus défini par
Z t
Z
Z t
Z
1 t
1 t
1
2
2
2
Lt = exp
λs dBs −
(λs ) ds +
νs dBs −
(νs ) ds
2 0
2 0
0
0
(6.2)
Ecrire l’EDS vérifiée par L.
Z t
3. On pose B̃t = Bt1 −
λs ds et on note Z̃ la solution de dZ̃t = Z̃t θdB̃t1 , Z̃0 = 1 où θ est une
0
constante. Montrer que LZ̃ est une martingale.
4. Soit Q∗ définie sur Ft par dQ∗ = Lt dP. Montrer que Z̃ est une Q∗ martingale. En déduire
que B̃ 1 est un Q∗ brownien.
Z t
2
2
5. Montrer que B̃t = Bt −
νs ds est un Q∗ brownien.
0
6. On admet que si Q est une mesure équivalente à P il existe λ, ν tels que la densité de Q par
rapport à P soit de la forme (6.2). Décrire l’ensemble des couples λ, ν correspondants à des
probabilités Q telles que (St e−rt , t ≥ 0) soit une Q-martingale.
7. Le marché financier est-il complet ?
8. Soit X un actif contingent duplicable, c’est-à-dire tel qu’il existe V processus adapté de la
forme
dVt = rVt dt + φt (dSt − rSt dt)
vérifiant VT = X, avec φ processus adapté borné. (On ne demande pas de justifier cette
définition)
(a) Montrer que (Vt e−rt , t ≥ 0) est une Q martingale pour tout Q ∈ Q.
(b) On suppose que Vt = v(t, St , Yt ). Montrer que v vérifie une équation aux dérivées partielles que l’on explicitera.
Exercice 6.6.5 Symétrie put-call.
est une constante et M0 = 1.
Soit M une (Ft )-martingale telle que dMt = Mt σdBt où σ
70
Girsanov. Enoncés
1. Vérifier que M est à valeurs strictement positives.
2. Calculer dYt quand Yt = (Mt )−1 .
3. Soit Q∗ telle que dQ∗ = Mt dP sur Ft . Déterminer la loi de Y sous Q∗ .
4. Montrer que EP ((MT − K)+ ) = KEP ((K −1 − MT )+ ).
Exercice 6.6.6 Symétries
On suppose que le prix d’un actif, sous la probabilité risque neutre Q est donné par
dSt = St ([r − q]dt + σdBt ), S0 = x
où q est le taux de dividendes. On note C(x, K, r, q) (ou C(x, K, r, q, σ) si besoin est) le prix d’une
option d’achat européenne de prix d’exercice K, soit
C(x, K, r, q) = EQ (e−rT (ST − K)+ )
On rappelle que, dans le cas r = 0 = q, en notant C ∗ (x, K) = C(x, K, 0, 0) le prix d’un call de strike
K sur un sous jacent de valeur initiale x et P ∗ le prix d’un put, on a
h x i
h x i
K
K
C ∗ (x, K) = xN d1
−KN d0
, P ∗ (x, K) = −xN d0
+KN d1
, (6.3)
K
K
x
x
avec
√
1 √
ln(α) + σ T , d0 (α) = d1 (α) − σ T
2
σ T
x
et que le delta du call est DeltaC∗ (x, K) = N (d1 ( )).
K
d1 (α) =
1
√
1. Montrer, en utilisant les résultats de l’exercice 3.6 que C(x, K, r, q) = C ∗ (xe−qT , Ke−rT ).
2. Montrer, au vu des formules précédentes que
−qT xe
DeltaC(x, K, r, q) = e−qT N d1
Ke−rT
Ke−rT
DeltaP(x, K, r, q) = −e−qT N d0
xe−qT
où DeltaC est le Delta du call.
3. Montrer, au vu des formules (6.3) et de la question (a) que
C(x, K, r, q) = C ∗ (Ke−µT , x) = P ∗ (xe−µT , K) = P (K, x, q, r)
(6.4)
où µ = r − q et P le prix d’un put. Commenter.
Exercice 6.6.7 Options power. Soit
dSt = St ((r − δ)dt + σdBt ), S0 = x .
Cette dynamique modélise, sous la probabilité risque-neutre Q, le prix d’un actif versant des dividendes au taux δ le taux spot étant r.
1. Calculer
EQ (h(ST )e−r(T −t) |Ft )
dans le cas h(x) = (xα − K)+ .
2. On suppose r = δ. On pose dQ∗ |Ft = (St /x)dQ|Ft et Zt = x2 /St . Quelle est la dynamique de
(Zt , t ≥ 0) sous Q∗ ? Montrer que pour toute fonction f borélienne bornée
1
x2
EQ (ST f ( )) = EQ (f (ST ))
x
ST
2009-2010
71
3. On repasse au cas général. Montrer que S a est une martingale pour une valeur de a que l’on
précisera. Montrer que, pour toute fonction f borélienne bornée
EQ (f (ST )) =
1
x2
a
E
(S
f
(
))
Q
T
xa
ST
4. On se place dans le cas
h(x) = xβ (x − K)+
Montrer que h(ST ) s’écrit comme différence de deux payoffs correspondants à des options
d’achat Européennes portant sur S β+1 et sur S β avec des strikes que l’on déterminera.
(i)
(i)
(i)
Exercice 6.6.8 Option d’échange Soit dSt = St (bi dt + σi dBt , i = 1, 2 où les coefficients sont
constants, les browniens B (i) étant correlles. Calculer la valeur d’une option d’échange dont le payoff
(1)
(2)
est (ST − ST )+ .
Exercice 6.6.9 Taux de change On considère deux pays. Les quantités relatives au pays domestique seront indexées par d, les quantités relatives à l’autre pays par f . Chaque pays possède
un taux sans risque noté respectivement rd et rf . Les marchés des deux pays sont dirigés par un
mouvement Brownien B. Sous la probabilité P, un actif S suit la dynamique
dSt = St (µt dt + σtS dBt )
On suppose que chacun des deux marchés est sans arbitrage : il existe une probabilité risque neutre
d
domestique notée Qd équivalente à P telle que sous Qd le processus (e−r t Std , t ≥ 0) est une Qd
martingale.
1. Montrer que tout actif domestique S d a une dynamique de la forme
dStd = Std (rd dt + σt dBtd )
où B d est un Qd mouvement Brownien. On notera λd la prime de risque définie par dBtd =
dBt + λdt dt. Le taux de change entre ces pays est X dirigé par
dXt = Xt [(rd − rf ) dt + σtX dBtd ]
Si S f est un prix en unités monétaires du pays étranger, S f X est le prix du même produit en
unités monétaires domestiques.
2. Soit S f un actif étranger de dynaique
dStf = Stf (rtf dt + σt dBtf )
Montrer que
λft − λdt = −σtX
Z t
f
d
Bt − Bt =
σsX ds
0
3. Quelle est la dynamique du taux de change inverse Y = 1/X ?
4. On souhaite valoriser une option quanto, c’est à dire une option sur produit étranger faisant
intervenir le taux de change. Comment évaluer en monnaie domestique un flux étranger de
(SfT −K)+ ? Comment évaluer une option d’achat sur action étrangère avec strike en monnaie
domestique ?
72
Girsanov. Enoncés
Exercice 6.6.10 Richesse (Cox-Huang, Karatzas) Un agent financier souhaite investir sur un
marché sur lequel deux actifs sont négociables:
Un actif sans risque de dynamique dS0 (t) = S0 (t)r(t)dt où r est déterministe,
Un actif risqué dont le prix a pour dynamique dS1 (t) = S1 (t)(b(t)dt + σ(t)dBt ). On suppose
que σ ne s’annule pas.
La richesse X de cet agent a pour dynamique
dXt = Xt r(t)dt + πt [b(t) − r(t)]dt + σ(t)πt dBt
où π est un processus F adapté représentant la proportion de la richesse investie dans l’actif risqué.
et ) où B
e est un
1. Montrer qu’il existe une probabilité Q telle que dS1 (t) = S1 (t)(r(t)dt + σ(t)dB
Q-mouvement Brownien.
Z t
2. Montrer que (R(t)Xt , t ≥ 0) est une Q-martingale locale, avec R(t) = exp −
r(s)ds
0
b(t) − r(t)
3. Soit θ(t) =
et H solution de l’équation dHt = −Ht (r(t)dt + θ(t)dBt ), H0 = 1.
σ(t)
Montrer que le processus (Ht Xt , t ≥ 0) est une P-martingale locale.
4. On suppose que (Ht Xt , t ≥ 0) est une P-martingale pour tout choix de π. L’agent souhaite
obtenir une richesse terminale égale à ζ, v.a. FT mesurable (i.e. XT = ζ). Montrer que
sa richesse initiale X0 est alors déterminée, et que son portefeuille de couverture (i.e. π)
également.
Exercice 6.6.11 Optimisation de richesse Sur le marché financier on trouve un actif risqué et
un actif sans risque. Soit (St , t ≥ 0) le prix de l’actif risqué. On suppose que dSt = St (µt dt + σdBt )
. L’actif sans risque vérifie
dS0 (t) = S0 (t)rt dt .
Les processus µt , rt sont Ft -adaptés bornés, σ est une constante non nulle.
Z t
1. Montrer que St exp −
µs ds est une P-martingale.
0
2. On pose θt =
µt − rt
.
σ
Z
Déterminer Q telle que, sous Q le processus B̃t = Bt +
t
θs ds soit un mouvement Brownien.
0
Ecrire l’équation vérifiée par St en utilisant B̃t .
3. Un agent de richesse initiale x investit sa richesse Xt suivant l’actif sans risque et l’actif risqué
de prix St suivant Xt = n0 (t)S0 (t) + n1 (t)St . On suppose que dXt = n0 (t)dS0 (t) + n1 (t)dSt .
(a) Montrer que dXt = rt Xt dt + n1 (t)(dSt − St rt dt).
Z t
(b) On note πt = n1 (t)St et Rt = exp −
rs ds.
0
Ecrire dXt en fonction de πt , rt , et Bt .
(c) Montrer que, sous Q, le processus Xt Rt est une martingale.
(d) Soit ζ = XT . Ecrire Xt sous forme d’une espérance conditionnelle faisant intervenir ζ et
le processus r.
4. On se donne un processus (ct , t ≥ 0) à valeurs positives adapté et un processus (πt , t ≥ 0) de
carré intégrable Ft - adapté.
Soit (Xt , t ≥ 0) un processus tel que
dXt = rt Xt dt + πt (dBt + θt dt) − ct dt .
(6.5)
2009-2010
73
Z
(a) Montrer que, sous Q, le processus Xt Rt +
Z T
Xt Rt = EQ (XT RT +
Rs cs ds|Ft ).
t
Rs cs ds est une martingale. En déduire que
0
t
(b) Ecrire cette relation sous P.
(c) Montrer que si l’on impose la condition XT ≥ 0, il existe une solution de (6.5) positive,
vérifiant cette condition.
Exercice 6.6.12 Soit Xt = µt + σBt . On note Ta = inf{t|Xt = a}. Trouver une probabilité Q
telle que sous Q, (B̃t = Xt /σ , t ≥ 0) soit un mouvement Brownien. Exprimer Ta en utilisant B̃t .
Calculer EP (exp −λTa ).
Exercice 6.6.13 Montrer que le prix d’une option Asiatique dont le strike est le sous jacent est
le prix d’un call sur un sous jacent de dynamique dZt = (1 − rZt )dt − Zt σdBt . Comment faire le
calcul?
Exercice 6.6.14 On considère un modèle Black et Scholes.
EP (St |Fs ) et EQ (St |Fs ).
Rt
On note Yt = 0 Su du.
Calculer, pour tout couple (s, t)
• Quel est le prix, à la date t du payoff YT (versé en T )?
• Expliciter la stratégie de couverture de YT
• On considère le payoff h(YT , ST ), versé en T , où h est une fonction borélienne (bornée)
– Montrer que le prix à la date t de h(YT , ST ) s’écrit ϕ(t, Yt , St ) et montrer comment obtenir
ϕ(t, y, x) par un calcul d’espérance (non conditionnelle)
– Quelle est l’EDP satisfaite par ϕ?
– Déterminer la stratégie de couverture associée.
Exercice 6.6.15 Zero-coupons SoitdYt = h(t)dt+dB
t et rt = σ(t)Yt où h et σ sont des fonctions
Z t
de classe C 1 . On souhaite calculer E exp −
rs ds .
0
Z
1. Soit f une fonction continue et
Lft
= exp
0
1. En déduire que
"
E
t
Z
exp h(T )BT −
0
T
1
f (s)dBs −
2
1
h (s)Bs ds −
2
Z
Z
0
t
0
T
H (s)ds . Justifier que E(LfT ) =
2
#!
2
h (s)ds
= 1.
0
2. On note Σ (resp. H) la primitive de σ (resp. h) nulle en 0. Montrer que
" Z
#!
Z T
Z
T
E exp −
rs ds
= exp(Σ(T )H(T )−
Σ(T )h(t)dt)E exp h(T )BT −
0
0
!!
T
Σ(t)dBt ds
0
3. Calculer cette quantité.
√
Exercice 6.6.16 Soit dYt = 2 Yt dB
√ t + (2β(t)Yt + δ)dt et rt = σ(t)Yt , où σ et β sont des fonctions
de classe C 1 . On introduit dXt = 2 Xt dBt + δdt.
.
74
Compléments. Enoncés
1. Soit H une fonction de classe C 2 et
Z t
Z
p
1 t 2
Zt = exp
H(s) Xs dBs −
H (s)Xs ds
2 0
0
On admet que Z est une martingale. Montrer que
Zt = exp
1
Z t
Z t
Z t
− H(0)X0
1
H(t)Xt − δ
H(s)ds −
H 0 (s)Xs ds −
H 2 (s)Xs ds
e 2
2
0
0
0
2. Montrer que
E
" Z
exp −
T
#!
rs ds
=
0
"
1
exp (−β(0)X0 − δ
2
Z
T
#
β(s)ds) E
0
"
1
exp
β(T )XT −
2
Z
T
#!
Xs (β 2 (s) + β 0 (s) + 2σ(s))ds
0
3. Comment calculer cette dernière expression?
Exercice 6.6.17 On se place dans le cas où St = e2(Bt +νt) Montrer que S est une sousmartingale
pour ν +1 ≥ 0 et une surmartingale sinon. En déduire que le prix d’une option asiatique est plus petit
Z
1 T
que le prix d’une option plain vanilla. Montrer par une minoration simple que E(
exp(2(Bs +
T 0
νs))ds) ≥ E(e2(BT +νT ) )
Chapter 7
Compléments
Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.
7.1
Théorème de Lévy.
Exercice 7.1.1 Lévy’s theorem. Let
D=
sup (Bs − Bt ), D1 = Bθ − inf Bt , D2 = sup Bt − Bσ
θ≤t≤1
0≤s≤t≤1
0≤t≤σ
where θ (resp. σ) is the time of the absolute maximum (resp. minimum) of the Brownian motion
over [0, 1], (i.e., ).
loi
1. Prove that D = sup0≤t≤1 |Bt |.
2. En déduire la loi de D.
loi
3. Prove that D1 = supg≤t≤1 |Bt | where g = sup{t ≤ 1 : Bt = 0}.
Exercice 7.1.2 On note B ∗ le processus Bt∗ = sups≤t Bs .
1. Justifier rapidement (en se basant sur des résultats classiques) que P(Bt∗ > a) = 2P(Bt > a)
pour a > 0. Cette égalité est-elle vérifiée également pour a ≤ 0?
2. Soit s < t. Montrer que
P( sup Bu > 0, Bs < 0) = 2P(Bt > 0, Bs < 0)
s≤u≤t
3. Calculer explicitement cette quantité.
4. On note gt = sup{s ≤ t : Bs = 0}. Calculer la loi de gt .
Exercice 7.1.3 On note Bt∗ = sup0≤s≤t Bs et θ = sup{t ≤ 1 : Bt = Bt∗ }. On souhaite calculer la
loi de θ.
1. Ecrire {θ ≤ t} en utilisant les variables Bt∗ et supt≤s≤1 Bs
2. Ecrire {θ ≤ t} en utilisant Bt∗ et supt≤s≤1 (Bs − Bs )
75
76
Compléments. Enoncés
3. Quelle est la loi de supt≤s≤1 (Bs − Bs ) conditionnelle à Ft ?
∗
4. En déduire que P(θ ≤ t|Ft ) = Φ(Bt∗ − Bt ) où Φ(x) = P(B1−t
< x)
5. Calculer Φ(x).
6. On admet que Bt∗ − Bt a même loi que Bt . Comment obtenir la loi de θ?
7.2
Equations rétrogrades
Exercice 7.2.1 Equation rétrograde 1. Dans tout le problème ζ est une variable FT -mesurable,
intégrable.
bs , s ≤ T ) tel que
1. On note Xt = E(ζ|Ft ). Montrer qu’il existe un processus (X
bt dBt ,
dXt = X
XT = ζ
(7.1)
b de
2. Soit r un nombre réel. En utilisant ert E(ζe−rT |Ft ) montrer qu’il existe un couple (X, X)
processus (Ft ) adaptés tels que
bt dBt
dXt = rXt dt + X
XT = ζ
b de processus
3. Soit (rt , t ≥ 0) un processus F adapté borné. Montrer qu’il existe un couple (X, X)
F-adaptés tels que
bt dBt , XT = ζ
dXt = rt Xt dt + X
4. Soit Γβ,γ le processus solution de dΓt = −Γt (βt dt+γt dBt ), Γ0 = 1 où β et γ sont des processus
F adaptés bornés. Soit φ un processus F adapté borné. En considérant
Z
E(ΓT ζ +
T
Γs φs ds|Ft )
t
b de processus F adaptés tels que
montrer qu’il existe un couple (X, X)
bt )dt + X
bt dBt ,
dXt = −(φt + Xt βt + γt X
5. Soit a un nombre réel. En considérant
b de processus F-adaptés tels que
(X, X)
XT = ζ
1
ln (E [exp (2aζ) |Ft ]), montrer qu’il existe un couple
2a
b 2 dt + X
bt dBt , XT = ζ
dXt = −aX
t
6. Montrer que
h
i
1
ln E Γ2ac,b
est solution de
t,T exp (2aζ) |Ft
2a
bt2 − bX
bt − c)dt + X
bt dBt , XT = ζ
dXt = −(aX
Exercice 7.2.2 Equation rétrograde 2. Soit H la solution de
dHt = −Ht (rdt + θdBt ) , H0 = 1
On notera Ht,s =
Hs
pour t < s.
Ht
1. Soit t fixé. Quelle est l’EDS suivie par (Ht,s , s ≥ t).
(7.2)
2009-10
77
def
2. Soit ζ une v.a. bornée FT -mesurable et Xt = ln E(Ht,T eζ |Ft ). Montrer que Yt = exp(Xt )Ht
Z t
zs dBs .
est une martingale que l’on peut écrire sous la forme z +
0
b 2 + bX
bt + c)dt + X
bt dBt où X
b est un processus adapté que l’on
3. Montrer que dXt = (aX
t
déterminera en fonction de Y, z, r et θ et où b et c sont des constantes.
Exercice 7.2.3 Equation rétrograde 3..
1. Soit (αt , t ≥ 0) un processus F-adapté. Donner la solution (Y, Z) de l’équation rétrograde
−dYt = αt dt − Zt dBt ,
YT = 0.
(7.3)
2. Au moyen du théorème de Girsanov, donner la solution de
−dYt = (αt + γZt )dt − Zt dB(t),
YT = 0.
(7.4)
où γ est un scalaire quelconque. Exprimer Y0 sous la forme d’une espérance dépendant des
données du problème.
Z T
1
3. On pose αt = Bt . Montrer que Y0 =
E(Mt Bt ) dt où Mt = exp(γBt − γ 2 t). Calculer
2
0
E(Mt Bt ) et E(Mt signBt )) où
sign(Bs ) = 1 si Bs > 0,
4. On introduit le processus
et; sign(Bs ) = −1 si Bs ) ≤ 0 .
Z
t
Bt =
sign(Bs ) dBs ,
0
On rappelle que ce processus est un mouvement Brownien, on notera F t = σ(B s ; s ≤ t) sa
filtration, qui est incluse dans Ft . Montrer que la solution de
−dY t = (B t + γZ t ) dt − Z t dB t ,
vérifie
Y T = 0,
Y 0 = γT 2 /2.
(7.5)
5. Montrer que la solution de
−dYt = (B t + γZt )dt − Zt dBt ,
vérifie
Z
T
Y0 =
E MT B t dt =
Z
T
YT = 0,
(7.6)
E Mt B t dt.
0
0
6. Montrer, au moyen de la formule d’Itô que
Z t
E Mt B t =
γE (Ms sign(Bs )) ds,
0
pour 0 ≤ t ≤ T. et en déduire que
Z
T
Y0 = γT 2 /2 − 2γ
√
(T − s)Φ(−γ s)ds.
0
où Φ est la fonction de répartition de la loi normale centrée réduite.
(7.7)
78
Compléments. Enoncés
7. Supposons que Y0 représente l’utilité (mesure le bien être que l’on éprouve quand on consomme c) associée à un plan de consommation (ct = exp(B(t))) et une information F et que
Y 0 représente l’utilité associée au même plan de consommation mais avec l’information F.
Interprétez alors le résultat trouvé en (7.5) et en (7.7) selon que γ > 0 ou que γ < 0.
Exercice 7.2.4 facts on quadratic BSDE The solution of the BSDE −dyt = azt2 − zt dBt , yT = ζ
1
is yt = 2a
ln E(e2aζ |Ft ). The solution of
−dy = (az 2 + bz)dt − zdBt
obtained by Girsanov.
bt )
−dy = (az 2 + bz)dt − zdBt = az 2 dt − z(dBt − bdt) = az 2 dt − zt dB
leads to
yt
=
=
=
1
b 2aζ |Ft )
ln E(e
2a
1 2
1 2
1
ln E(ebBT − 2 b T e2aζ |Ft )ebBt − 2 b t
2a 1
1 2
bBT − 12 b2 T 2aζ
ln E(e
e |Ft ) + bBt − b t
2a
2
The solution of
−dy = (az 2 + bz + ct )dt − zdBt
follows setting ỹt = yt +
Rt
0
cs ds. The process ỹ satisfies
Z
−dỹ = (az 2 + bz)dt − zdBt , ỹT = ζ +
T
cs ds
0
therefore
1
2a
7.3
Z t
R
1 2
bBT − 12 b2 T 2a(ζ+ 0T cs ds)
ln E(e
e
|Ft ) + bBt − b t −
cs ds
2
0
Théorèmes de représentation
Exercice 7.3.1 Soit B (i) , i = 1, 2, 3 trois MB, avec B (i) , i = 1, 2 indépendants. Montrer qu’il n’est
(3)
(1)
(2)
pas possible d’avoir σ(Bs , s ≤ t)) = σ(Bs , Bs , s ≤ t).
Z
Exercice 7.3.2 Changement de temps Soit Mt =
0
t
11Bs >0 dBs .
1. Justifier que (Mt , t ≥ 0) est une martingale.
2. Trouver un processus (At , t ≥ 0) croissant tel que Mt2 − At est une (Ft )-martingale.
3. On admet qu’il existe un processus croissant C tel que A(C(t)) = t. Montrer que (MCt , t ≥ 0)
est un (Gt )-mouvement Brownien. Préciser quelle est la filtration (Gt )-utilisée.
Exercice 7.3.3 Crochet et indépendance. Soient B1 et B2 deux MB tels que leur crochet soit
nul. Montrer qu’ils sont indépendants.
2009-10
7.4
79
Temps local.
Exercice 7.4.1 Loi du couple (|Bt |, Lt ). On note L le temps local de B.
1. Montrer que la loi du couple (|Bt |, Lt ) est
2(a + `)
(a + `)2
µt (da, d`) = 11a≥0 11`≥0 √
exp −
da d`
2t
2πt3
loi
2. On note Ta = inf{t ≥ 0; Bt = a} et τ` = inf{t ≥ 0; Lt = `}. Montrer que T` = τ`
3. Montrer que le processus (|Bt |, Lt ) est markovien de semi groupe
Z
Qt (α, λ, f ) = µt (da, d`)f (α ∨ ` − (` − a), (λ − α) + α ∨ `)
4. Montrer que, pour tout t, les v.a.s St (St − Bt ) et Bt sont indépendantes.
loi
5. Montrer que St (St − Bt ) =
t
E où E est une variable exponentielle de paramètre 1.
2
Exercice 7.4.2 Formule de Tanaka.
1. Peut-on appliquer la formule d’Itô pour calculer dZt avec Zt = |Bt |?
2. On admet qu’il existe un processus croissant L tel que
Z
|Bt | = |B0 | +
t
f (Bs )dBs + Lt
0
Z
avec f (x) = 1 si x > 0 et f (x) = −1 sinon. Montrer que (
mouvement Brownien que l’on notera β.
t
f (Bs )dBs , t ≥ 0) est un
0
3. Soit St = sups≤t Bs . Vérifier que S est un processus croissant. Comparer les décompositions
|Bt | = βt + Lt et St − Bt = −Bt + St . Pour cette question, je ne vous demande aucun
raisonnement précis.
Exercice 7.4.3 Temps local. Soit L le temps local. Montrer que Lt = inf s≥t (|Bs | + Ls ).
Exercice 7.4.4 Temps aléatoire. Soit B un MB, S son maximum sur [0, 1] (soit S = sup{Bs , s ≤
1} et θ = inf{t ≤ 1 : Bt = S}. La v.a. θ est-elle un temps d’arrêt? Quelle est la loi de θ? On
loi
calculera P(θ ≤ u) et on utilisera le principe de réflexion et l’identité de Lévy (St − Bt , t ≥ 0) =
(|Bt |, t ≥ 0).
Calculer P(θ ≤ t|Ft ).
Exercice 7.4.5 Des martingales. Soit X une martingale continue et St = sups≤t Xs .
1. Pour quelles fonctions f le processus Yt = f (Xt , St , hXit ) est-il une martingale locale?
2. Montrer que si g est C 2 et g(0) = 0, le processus
g(St ) − (St − Xt )g 0 (St )
est une martingale locale.
80
Compléments. Enoncés
3. Montrer que si g est C 2 et g(0) = 0, le processus
g(Lt ) − |Xt |g 0 (Lt )
est une martingale locale.
Exercice 7.4.6 Scaling Soit B un MB et L son temps local. Montrer que
loi
x/λ
(Lxλ2 t , x ∈ R, t ≥ 0) = (λLt
On utilisera
Z
λ2 t
Z
loi
f (Bs )ds = λ
0
x ∈ R, t ≥ 0)
t
2
f (λBu )du
0
Exercice 7.4.7 Calculer E(LxTa ).
Exercice 7.4.8 Let M be a continuous martingale such that hM i∞ = ∞ and β the associated
Dubins-Schwarz BM. Prove that Lat (M ) = LahM it (β).
Exercice 7.4.9 Let φ be a non negative process indexed by R+ × R. Prove that
Z t
Z ∞
Z t
y
ds hY is φ(s, Ys ) .
dy
ds Ls φ(s, y) =
−∞
7.5
0
0
Lois
Exercice 7.5.1 Temps d’atteinte. Soit X solution de
Xt = a(Xt )dt + b(Xt )dBt , X0 = x .
On note Ta = inf{t ≥ 0 | Xt = a}.
1. Donner des conditions sur la fonction V pour que (e−λt V (Xt ), t ≥ 0) soit une martingale.
2. En déduire E(e−λTa 11(Ta <∞) ) en fonction de V . On ne demande pas d’expliciter V .
Z x
y
3. Soit f (x) =
dy et Yt = f (Xt ). On suppose b ∈ C 1 . Calculer dYt .
b(y)
0
Z t
Z t
g(Xs ) ds où g est une fonction que l’on précisera.
Xs dBs = f (Xt )−f (x)+
4. En déduire que
0
0
Exercice 7.5.2 Temps d’atteinte Soit Vt = v + Bt et τa (V ) = inf{t : Vt = a}. Montrer que
2
loi (a − v)
τa (V ) =
, où G est une variable de loi N (0, 1).
2
G
Comment calculer E 11{T <τa (V )} h(VT ) ?
Exercice 7.5.3 Soit M une martingale telle que M0 = a et limt→∞ Mt = 0. On rappelle (exercice
loi a
1.5.11) sup Mt =
où U est une v.a. de loi uniforme sur [0, 1].
U
On propose des applications de ce résultat.
1. Let B be a BM with initial value a > 0 and T0 = inf{t : Bt = 0}. Identify the law of
supu≤T0 Bu .
2009-10
81
loi 1
2. Prove that, for a > 0, supu (Bu − au) =
e, where e is a standard exponential variable with
2a
mean 1.
3. Let B be a BM and T1 the first hitting time of 1. Define It = − inf s≤t Bs . Identify the law of
IT1 .
Exercice 7.5.4 Loi du maximum.
loi
On rappelle que, pour T fixé, maxt≤T Bt = |BT |. On note C = E[(e−σBT −1)+ ] et P = [(1−eσBT )+ ].
Montrer que pour x > 0
E[max(xeσBt − xeσBT )] = x[C + P ]
t≤T
(Il n’y a aucun calcul à faire)
7.6
Filtrations
Exercice 7.6.1 Agent initié L’agent initié connait la valeur terminale Zdu Brownien. Le problème
t
BT − Bu
def
du
est de savoir comment se transforment les martingales. Soit Zt = Bt −
T −u
0
1. Soit f une fonction déterministe. Montrer que
Z
E[Zu
Z
T
f (v)dBv ] =
0
f (v)dv −
0
Z
En déduire que si, pour tout u, E[Zu
et montrer que f est une constante.
Z
u
0
u
1
ds
T −s
Z
T
dvf (v)
s
T
f (v)dBv ] = 0 , alors f vérifie f (u) =
0
1
T −u
Z
T
dvf (v)
u
2. Soit t < T . On admet que E(Bt |BT ) = aBT + b où a et b sont des constantes. Montrer que
t
b = 0 et que a = . (On pourra prendre l’espérance des deux membres et calculer E(Bt BT ))
T
3. Soit s < t < T . On admet que E(Bt |Bs , BT ) = aBs + bBT + c où a, b et c sont des constantes.
t−s
T −t
Montrer que a =
,b=
, c = 0.
T −s
T −s
4. On note Ft∗ = Ft ∨ σ(BT ) la tribu engendrée par (Bu , u ≤ t) et par BT . On admet que pour
s < t, E(Bt |BT , Bs ) = E(Bt |Fs∗ ). Montrer que Z est une (Ft∗ )- martingale. On pourrait
montrer que c’est un MB.
Exercice 7.6.2 Soit G une filtration et B un G mouvement brownien.
1. Soit H une filtration plus petite que G. Vérifier que le processus Mt = E(Bt |Ht ) est une
martingale. (on précisera par rapport à quelle filtration).
Z
t
Yu du où Y est un processus G adapté intégrable. On note FX la filtration
Z t
de X (qui vérifie FtX ⊂ Gt ) et Ybu = E(Yu |FuX ). Vérifier que Zt = (Xt −
Ybu du, t ≥ 0) est
2. Soit Xt = Bt +
0
0
une FX -martingale (on calculera l’espérance conditionnelle de Zt par rapport à FsX ). Montrer
que Z est un mouvement Brownien.
82
Compléments. Enoncés
7.7
Options barrières
Exercice 7.7.1 On note N la fonction de répartition de la loi normale et Mt = sup(Bs , s ≤ t).
√
1. Soit x ∈ R. Montrer que P(Bt ≤ x) = P(Bt ≤ −x) = N (x( t)−1 ).
2. Soit y > 0 donné, T = inf{t ≥ 0 |Bt = y}.
Soit Bt∗ = BT +t − BT . On admet que T est un temps d’arrêt et (Bt∗ , t ≥ 0) est un Brownien
indépendant de FT .
(a) Montrer que
∗
P(Bt ≤ x, Mt > y) = P(T < t, Bt−T
≤ x − y)
(b) Montrer que
Z
∗
P(T < t, Bt−T
≤ x − y) =
0
t
∗
∗
P(T ∈ du)P(Bt−u
≤ x − y) = P(T < t, Bt−T
≥ y − x)
(c) Montrer que pour y > x, on a
P(Bt ≤ x, Mt > y) = P(Bt ≥ 2y − x)
En déduire que
x − 2y
x
P(Bt ≤ x, Mt < y) = N ( √ ) − N ( √ )
t
t
3. En déduire la loi de T , celle de Mt et la densité du couple (Bt , Mt ).
4. Soit Xt = µt + Bt , Yt = sup (Xs , 0 ≤ s ≤ t}. Montrer, en utilisant le théorème de Girsanov,
que le calcul de
P(Xt < x, Yt < y)
se déduit du calcul précédent.
7.8
Méandres, ponts, excursions
loi
Exercice 7.8.1 Loi conditionnelle.
Soit dt = inf{s ≥ t : Bs = 0}. Montrer que dt (B) =
(−Bt )2
où G est une variable gaussienne de loi N (0, 1) indépendante de Bt . Soit g = sup{t ≤
t+
G2
1 : Bt = 0}. Calculer P(g ≤ t|Ft ).
1
|Bgt +u(t−gt ) |, u ≤
t − gt
2
mesurable et que m1 a pour densité xe−x /2 11x>0 dx.
Exercice 7.8.2 Martingale d’Azéma. On admet que le processus mu = √
1 est indépendant de Fgt , que sgneBt est Fgt
Calculer E(Bt |Fgt ), E(Bt2 − t|Fgt ) et E(eαBt −
gales.
7.9
α2
2
t
|Fgt ). Montrer que ces processus sont des martin-
Divers
Exercice 7.9.1 Soit dSt = St (µdt + σdBt ) et S̃t = St max(1, max0≤s≤t
K
Ss ).
Calculer e−rT E(S̃T )
2009-10
83
Exercice 7.9.2 Soit S un brownien géométrique
dSt = St (µdt + σdBt )
On pose Mt =
1
t
Z
t
Su du. Calculer
0
E((MT − k)+ |Ft )11Mt ≥(T k/t)
1. Soit s < t Ms = supu≤s Bu , Mts = sups≤u≤t Bu . Calculer P(Ms < a, Mts < b, Bt < c). On
donnera le résultat sous forme d’une intégrale.
Rt
2. Soit Xt = e2(Bt +νt) (x + 0 e2(Bs +νs) ds). Montrer que
dXt = f (t, Xt )dt + g(t, Xt )dBt
où l’on explicitera les fonctions f et g. Comment pourrait-on calculer le prix d’une option
européenne sur le sous jacent X, en présence d’un actif sans risque de taux constant r?
Exercice 7.9.3 Let B be a Brownian motion and Ta = inf{t ≥ 0 : Bt = a} where a > 0.
1. Using the Doléans-Dade exponential of λB, prove that
Z
−λ2 Ta
E(e
/2|Ft ) = e
−λa
Ta ∧t
+λ
e−λ(a−Bu )−λ
2
u/2
du
0
and that
Z
e
−λ2 Ta /2
−λa
=e
Ta
+λ
e−λ(a−Bu )−λ
2
u/2
du
0
2. By differentiating the Laplace transform of Ta , and the fact that ϕ satisfies the Kolmogorov
equation, prove that
Z ∞
2
∂
−λc
λe
=2
e−λ t/2 ϕ(t, c) dt
∂t
0
where ϕ(t, x) =
2
√ 1 e−x /(2t) .
2πt
3. Prove that, for any f
Z
Ta ∧t
Z
∞
E(f (Ta )|Ft ) = E(f (Ta )) + 2
f (u + s)
0
4. Deduce that
0
Z
11Ta <t = P(Ta < t) + 2
∂
ϕ(u, Bs − a)dudBs
∂u
Ta ∧t
ϕ(T − t, Bt − a)dBt
0
84
Sauts. Enoncés
Chapter 8
Processus à sauts
8.1
Processus de Poisson
P∞
Un processus de Poisson standard est un processus de comptage (i.e. Nt =
i=1 11Ti ≤t , où les
Ti sont des v.a. positives croissantes) à accroissements indépendents et stationnaires. La variable
aléatoire Nt a pour loi une loi de Poisson de paramêtre λ.
Un processus de Poisson d’intensité déterministe λ(s) est un processus de comptage tel que Mt =
Z t
Rt
Nt −
λ(s)ds est la martingale compensée. POur tout processus Z on définit 0 Zs dNs =
P
P∞ 0
s≤t Zs ∆Ns .
i=1 ZTi 11Ti ≤t =
Si
dXt
dYt
=
=
at dt + σt dBt + ϕt dNt
αt dt + νt dBt + ϑt dNt
la formule d’intégration par parties est
d(XY )t
Xt− dYt + Yt− dXt + d[X, Y ]t
= Xt− dYt + Yt− dXt + σt νt dt + ϕt ϑt dNt
Dans cete section, N est un processus de Poisson de filtration naturelle F = (Ft = σ(Ns , s ≤ t); t ≥
0).
def
Exercice 8.1.1 Montrer que si N est un processus de Poisson standard, Mt = Nt − λt est une
martingale. Montrer que si N est un processus de Poisson d’intensit é λ(s), f une fonction borélienne
bornée et g une fonction borélienne bornée à valeurs dans ] − 1, ∞[, les processus
Z t
Z t
Xt = exp(
f (s)dNs +
λ(s)(1 − ef (s) )ds)
0
0
Z t
Z t
Yt = exp(
ln(1 + g(s))dMs +
[ln(1 + g(s)) − g(s)]λ(s)ds)
0
0
sont des martingales.
Exercice 8.1.2 Soit N i , i = 1, 2 deux processus de Poisson indépendants de même intensité. Montrer que N 1 − N 2 est une martingale.
Exercice 8.1.3 Soit Ft∗ = σ(Ns , s ≤ t, NT ). Montrer que
Z t
NT − Ns
def
ds
Mt∗ = Nt −
T −s
0
85
86
Sauts. Enoncés
est une F∗ -martingale.
Exercice 8.1.4 Caractérisation de Processus de Poisson.
1. Calculer ψ(z, t) =
X
z n P (Nt = n).
n
2. Soit X un processus à accroissements
X indépendants, à valeurs dans l’ensemble des entiers, tel
loi
que Xt+s − Xt = Xs et ψ(z, t) =
z n P (Xt = n). Montrer que ψ(z, t + h) = ψ(z, t)ψ(z, h).
n
On suppose qu’il existe ν tel que
1
P (Xh ≥ 2) → 0
h
1
P (Xh = 1) → ν
h
,
,
1
(1 − P (Xh = 0)) → ν
h
∂
ψ(z, t) = ν(z − 1)ψ(z, t). Quel est le processus X?
∂t
quand h tend vers 0. Montrer que
Exercice 8.1.5 Calculer la transformée de Laplace de
Rt
0
Ns ds
Exercice 8.1.6 On note τ = T1 le premier saut de N et Dt = Nt∧τ
Z
t∧τ
1. Déterminer δ tel que Zt = Dt −
δu du soit une martingale.
0
2. On note Lt = (1 − Dt )/(1 − F (t)) où F (t) = P (τ ≤ t) est supposée continue. Montrer que
dLt = αt dZt où on explicitera α. Même question si F est seulement continue à droite.
3. Soit N1 et N2 deux PP d’intensité constante λ1 et λ2 et Di les processus associés. On note
α1
α2
µ1 (t) = ( −1)D2 (t−) et µ2 (t) = ( −1)D1 (t−). Soit ρt solution de dρt = ρt− (µ1 (t)dZ1 (t)+
λ1
λ2
µ2 (t)dZ2 (t)). Expliciter ρt . Soit dQ = ρt dP . Calculer Q(τ1 > t, τ2 < s) pour s < t.
8.2
Poisson composé
Soit λ un nombre réel positif, µ une loi de probabilité sur R. Un processus de Poisson composé de
paramêtres (λ, µ) est un processus X = (Xt , t ≥ 0) de la forme
Xt =
Nt
X
Yk
k=1
où N est un processus de Poisson d’intensité λ et où les (Yk , k ∈ N) sont des v.a. i.i.d. de loi µ,
indépendantes de N .
Exercice 8.2.1 Soit Mt = Nt − λt et Zt = Xt − µλt. Montrer que Z et (Mt Yt − µλt, t ≥ 0) sont
des martingales.
Exercice 8.2.2 On considère l’équation
Z
Xt = x + Nt − c
t
Xs ds
0
1. Montrer que cette équation admet au plus une solution.
2009-10
87
2. Montrer que
Z
t
e−ct x +
e−c(t−s) dNs
0
est une solution.
Exercice 8.2.3 Montrer qu’un processus de Poisson composé a des accroissements indépendants et
stationnaires et que (si Y1 est intégrable)
E(Xt )
Var (Xt )
= λtE(Y1 )
= λtE(Y12 ).
Exercice 8.2.4 Let X be a (λ, µ) componud
Exercice 8.2.5 Let X be a (λ, µ) compound Poisson process and f a bounded Borel function.
Then,
!
Z
Nt
X
exp
f (Yk ) + t (1 − ef (x) )λµ(dx)
k=1
is a martingale.
Poisson process. Prove that the process
X
Mtf =
f (∆Xs )11∆Xs 6=0 − tλµ(f )
s≤t
is a martingale; the process
(Mtf )2 − tλµ(f 2 )
is a martingale.
Suppose that X is a pure jump process and that there exists a finite positive measure σ such
that
X
f (∆Xs )11∆Xs 6=0 − tσ(f )
s≤t
is a martingale for any f , then X is a compound Poisson process.
Exercice 8.2.6 If X is a (λ, µ) compound Poisson process,
Z ∞
E(e−αXt ) = exp −λt 1 −
e−αu µ(du)
.
0
8.3
Formule d’Itô
Dans cette section, B est un mouvement Brownien et N un processus de Poisson de martingale
compensée M . On note Ft = σ(Ws , Ns , s ≤ t).
Exercice 8.3.1 On suppose que N est d’intensité constante λ.
1. Montrer que la solution de
dSt = S(t− )(rdt + σdBt + φdMt ), S0 = x
est, pour φ > −1
1
St = xert exp(σWt − σ 2 t) exp(ln(1 + φ)Nt − φλt) .
2
(8.1)
88
Sauts. Enoncés
2. Ecrire la solution en faisant apparaitre la martingale M .
3. Quelle est la dynamique de 1/S?
4. Quelle est la dynamique de S 2 ?
5. Calculer E(St ) et E(St2 ).
6. Quelle est la solution de (8.1)pour φ = −1? et pour φ < −1?
7. Quelle est la solution de (8.1) lorsque les coefficients dépendent du temps?
Exercice 8.3.2 Soit
dXt = µ(t, Xt )dt + σ(t, Xt )dBt + φ(t, Xt− )dMt
et H une fonction de classe C 1,2 . Sous quelles conditions sur les coefficients le processus Yt = H(t, Xt )
est-il une martingale locale?
8.4
Temps de Défaut
Exercice 8.4.1 Soit τ un temps aléatoire sur un espace (Ω, G, P). On suppose qu’il existe un
Z t∧τ
processus positif, G-adapté (λs , s ≥ 0) tel que 11τ ≤t −
λu du soit une G martingale. Soit h une
0
fonction borélienne, X une variable aléatoire GT mesurable et
Z
Z
T
Vt = E(X exp −
λs ds +
du hu λu exp −
t
Montrer que
8.5
Z
T
t
u
λs ds |Gt ) .
t
11{t<τ } Vt = E (∆Vτ )11{t<τ ≤T } + X11{T <τ } Gt .
Marché complets, incomplets
Exercice 8.5.1 Soit
dSt = St− [µdt + φdMt ]
and r = 0. Quelle est la condition pour que ce marché soit sans arbitrage? Quelle est le m.m.e. Q?
Quelle est la dynamique de S sous Q?
Exercice 8.5.2 On étudie un modèle dans lequel il y a un actif sans risque de taux r et un actif
risqué
dSt = S(t− )(rdt + σdBt + φdMt )
(8.2)
1. Montrer que ce marché est incomplet, déterminer les m.m.e..
2. Quels sont les actifs duplicables?
3. On note X x,π,C la valeur d’un portefeuille π de richesse initiale x, avec processus de consommation cumulé C. Montrer que
Z
Rt Xt = x +
Z
t
t
πs Xs d(RS) −
0
Rs dCs
0
2009-10
89
4. Soit Q l’ensemble des probabilités risque neutre, et
Vt = esssupQ EQ (RT B|Ft )
On admettra que V est une surmartingale pour tout Q et que toute surmatingale s’écrit comme
une martingale moins un processus croissant.
Z t
Z t
Montrer qu’il existe AQ processus croissant, µ, ν tels que Vt = v +
µs dBsQ +
dMsQ − AQ
t ,
0
0
où W Q et M Q sont des Q-martingales et B Q un MB.. Préciser le lien entre AP et AQ .
φ
− νt ≥ 0
σ
Z t
φ
P
λ(µs − νs ) est un processus croissant.
6. Montrer que A −
σ
0
5. Montrer que µt
7. En déduire que V est la valeur d’un portefeuille X dont on explicitera le processus de consommation.
Exercice 8.5.3 On considère un actif de prix
dSt = St− (rdt + ϕdMt )
où M est la martingale compos ée associé à un processus de Poisson d’intensité constante λ.
1. Vérifier que St e−rt est une martingale.
2. Soit X le valeur d’un portefeuille autofinancant comportant θ parts d’actif risqué, soit
dXt = rXt dt + θt (dSt − rSt dt)
Vérifier que X̃t = ert Xt est une martingale. Ecrire la dynamique de X̃ en fonction de S̃.
3. Ecrire l’EDS vérifiée par X/S.
4. On pose dQ = St e−rt /S0 dP. Vérifier que X/S est une martingale sous Q.
90
Rappels
s
CORRIGES
Chapter 1
Rappels, Corrigés
1.1
Tribu
Exercice 1.1.1: L’ensemble B − A s’écrit B ∩ Ac . Si F est une tribu, elle est stable par passage
au complémentaire et par intersection, d’où le résultat.
Exercice 1.1.2 : 1) La tribu engendrée par A est constituée des quatre ensembles A, Ac , ∅, Ω.
2) Cette tribu doit contenir A et B, l’ensemble vide et Ω. Puis les complémentaires, soit Ac et B c
(les complémentaires de Ω et de l’ensemble vide égaux à l’ensemble vide et à Ω sont déjà dans la
liste). Puis les unions d’ensembles soit A ∪ B, les autres unions A ∪ Ω = Ω, A ∪ B c = B c ,... sont
déja dans la liste. Puis les intersections Ac ∩ B c . On a terminé car les autres ensembles formés à
partir d’opérations de passage au complémentaire, d’intersection et d’union sont dans la liste par
exemple (Ac ∩ B c ) ∪ B c = B c .
Exercice 1.1.4 : Soit G = F1 ∩ F2 la famille composée des ensembles qui appartiennent à F1 et à
F2 . La famille G est une tribu si
(i) Ω ⊂ G, ce qui est le cas car Ω ⊂ F1 , Ω ⊂ F2 donc Ω ⊂ F1 ∩ F2 .
(ii) la famille G est stable par passage au complémentaire: si A ⊂ G, la stabilité des
tribus F1 et F2 par passage au complémentaire implique Ac ⊂ F1 , Ac ⊂ F2 donc Ac ⊂ F1 ∩ F2 .
(iii) la famille G est stable par intersection dénombrable: si Ai ⊂ G, la stabilité des
tribus F1 et F2 par intersection dénombrable implique ∩i Ai ⊂ F1 , Ac ⊂ F2 donc ∩i Ac ⊂ F1 ∩ F2 .
Les autres propriétés résultent des précédentes: L’ensemble vide appartient à G car c’est le complémentaire
de Ω ( utiliser (i) et (ii)), la famille G est stable par union dénombrable: en passant au complémentaire
l’identité (∩Ai )c ∪ (Aci ) on obtient ∩Ai = (∪i Ai )c . Il reste à utiliser (ii) et (iii).
L’union de tribus n’est pas une tribu: considèrer le cas F 1 = σ(A), F 2 = σ(B). la famille F 1 ∪ F 2
ne contient pas Ac ∩ B c . Ne pas confondre sous ensembles et éléments. Par exemple, un intervalle
est un sous ensemble de R, et n’est pas un élément de R.
Exercice 1.1.6 : On utilise que X −1 (B) = {ω : X(ω) ∈ B}. La famille C est une tribu: la stabilité requise provient des égalités suivantes: X −1 (B c ) = (X −1 (B))c , X −1 (∩Bn ) = ∩X −1 (Bn ). On
trouvera une démonstration de la réciproque dans tout ouvrage de proba, cette démonstration est
basée sur le théorème qui précise que si une tribu contient une classe stable par intersection finie,
elle contient la plus petite tribu engendrée par cette classe.
Exercice 1.1.7 : Les diverses quantités que l’on veut comparer sont égales. Les espérances E(f (X))
et E(f (Z)) sont égales parce que X et Z ont même loi, et E(f (X, Y )) = E(f (Z, T )) car le couple
(X, Y ) a même loi que le couple (Z, T ). Si l’hypothèse (Z, T ) sont indépendantes n’était pas faite,
91
92
Rappels
l’égalité en loi des variables X et Z et celle des variables Y et T ne suffirait pas. Par exemple, on
loi
peut prendre X = Y de loi gaussienne N (0, 1), X et Y indépendantes et Z = T = X. On aurait
2 2
alors E(X Y ) = 1 et E(Z 2 T 2 ) = E(X 4 ) = 3. (contre exemple pour la question 3)
1.2
Variables gaussiennes.
Exercice 1.2.1 : Par symétrie de la densité et imparité de x3 , on a E(X 3 ) = 0 et, par parité de
x2
Z ∞
−
x4 on a E(X 4 ) = σ√22π
x4 e 2σ 2 dx. Cette dernière intégrale se calcule par intégrations par
0
4
4
parties successives et on obtient E(X
Z ∞ ) = 3σ . 2
2
x
2σ
On a également E(|X|) = √
et, par des calculs anax exp − 2 dx, d’où E(|X|) = √
2σ
σ 2π 0
2π
4σ 3
logues E(|X 3 |) = √ .
2π
Soit U une variable gaussienne d’espérance m et de variance σ 2 . Pour calculer E(exp{λU 2 + µU }),
on doit calculer
Z ∞
2
1
2
1
√
eλu +µu e− 2σ2 (u−m) du .
σ 2π −∞
On montre que
λu2 + µu −
avec Σ2 =
Il vient
1
1 m 2 2 Σ2
m 2
m2
2
(u
−
m)
=
−
u
−
(µ
+
)Σ
+
(µ
+
)
−
2σ 2
2Σ2
σ2
2
σ2
2σ 2
σ2
1−2λσ 2 .
E(exp{λU 2 + µU }) =
Σ
exp
σ
Σ2
m
m2
(µ + 2 )2 − 2
2
σ
2σ
.
En particulier
E(exp λU 2 ) = √
1
m2 λ
exp
2
1 − 2λσ 2
1 − 2λσ
Par propriété de l’espérance conditionelle E(eaXY ) = E(Φ(X)) avec Φ(x) = eaxY .
Exercice 1.2.2 : Si X et Y sont gaussiennes indépendantes de loi N (m1 , σ12 ) et N (m2 , σ22 ), la
somme X + Y est gaussienne: ceci se voit très facilement avec les fonctions caractéristiques:
E(eit(X+Y ) ) = E(eitX )E(eitY ) = eitm1 −
2
t 2 σ1
2
eitm2 −
2
t 2 σ2
2
= eitm−
t2 σ 2
2
avec m = m1 + m2 et σ 2 = σ12 + σ22 .
On peut le voir aussi en se souvenant
que si X et Y sont indépendantes, de densité f et g, la somme
R∞
X + Y a pour densité h(x) = −∞ f (x − y) g(y) dy et en effectuant le calcul. Attention, ce résultat
n’est pas nécessairement vrai si on n’a pas l’indépendance de X et Y (la somme de deux gaussiennes
est une gaussienne si le vecteur est gaussien).
On peut aussi calculer la transformée de Laplace de la somme
E exp(λ(X + Y )) = E(exp(λ(X))E(exp(λ(Y ))
= exp[λ(m1 + m2 ) +
λ2 2
(σ + σ22 )]
2 1
ce qui montre que la somme a une loi gausienne d’espérance m1 + m2 et de variance σ12 + σ22 .
Exercice 1.2.3 :
Corrigés
93
1
(x − m)2
X −m
√ exp −
et la v.a. Y =
est
2
2σ
σ
σ 2π
N (0, 1). On peut le vérifier de plusieurs façons.
1. Si X est N (m, σ 2 ), sa densité est f (x) =
• En calculant la fonction de répartition de Y : Soit FY la fonction de répartition de Y . On
a FY (y) = P(Y ≤ y) = P(X ≤ m + yσ) = FX (m + yσ). Il reste à dériver par rapport à y
1
y2
pour obtenir la densité de Y qui est σf (m + yσ) = √ exp − .
2
2π
• On peut utiliser les fonctions caractéristiques. Soit φ(t) = E(eitX ) = eitm−
tion caractéristique de X; la fontion caractéristique de Y est
E(eitY ) = E(eit
X−m
σ
) = e−
t2 σ 2
2
la fonc-
t2
t
φ( ) = e− 2
σ
itm
σ
Cette remarque permet de ramener des calculs sur N (m, σ 2 ) à des calculs sur N (0, 1).
La variable X −m est gaussienne centrée. D’où en utilisant l’exercice 1.2.1, E(|X −m|) =
√2σ .
2π
Z ∞
1
(x − m)2
√
eλx exp −
dx.
2σ 2
σ 2π −∞
2
= exp(λm + 12 σ 2 λ2 ) exp[− 2σ1 2 (x − (m + λσ 2 ))2 ] et le résultat
On montre que eλx exp − (x−m)
2σ 2
s’obtient facilement.
2. On a E(eλX ) =
3. Soit X une v.a. de loi N (0, 1). On a
1
E(11X<b eλX ) = √
2π
Z
b
eλx e−
x2
2
−∞
1 λ2
dx = √ e 2
2π
Z
b−λ
e−
x2
2
dx = e
λ2
2
Φ(b − λ).
−∞
4. Il est facile, par changement de variable, d’obtenir
E(eθX f (X)) = emθ+σ
2 2
θ /2
E(f (X + θσ 2 )
pour f continue bornée.
5. Par dérivation par rapport à θ, on obtient pour f ”régulière”
E(f (X)(X − m)) = σ 2 E(f 0 (X))
6. En dérivant E(eaG N (bG + c)) par rapport à b, on obtient le résultat.
Exercice 1.2.4 : On rappele quelques résultats classiques:
1
(a) la convergence L2 implique
R la convergence L : ||Xn −X||2 converge vers 0 implique ||Xn −X||1
converge vers 0, avec ||X||1 = Ω |X|dP. Ce résultat est évident compte tenu de l’inégalité ||X||1 ≤
||X||2 qui résulte de la positivité de la variance Var (|X| ) = ||X||22 − ||X||21 .
(b) Si Xn converge vers X dans L2 (resp. L1 ), on a E(Xn2 ) converge vers E(X 2 ) (resp E(Xn )
converge vers E(X)). (La réciproque est fausse)
Si Xn converge dans L2 vers X, on a en particulier mn converge vers m et σn2 converge vers σ .
La suite de fonctions caractéristiques eitmn −
2
t 2 σn
2
converge vers eitm−
t2 σ 2
2
et la loi de X est gaussienne.
Exercice 1.2.5 : Soit X un vecteur gaussien. Le vecteur Y = AX est un vecteur gaussien,
car toutes les combinaisons linéaires de composantes de Y sont des combinaisons linéaires de composantes de X, donc une variable gaussienne.
Que le vecteur X soit gaussien ou non, on a E(AX) = AE(X) et Var AX = At (Var X)A, où
VarX désigne la matrice de variance covariance du vecteur X. On obtient dans le cas p = 1 que
94
Rappels
At (Var X)A ≥ 0, c’est-à-dire que les matrices de variance covariance sont semi définies positives.
Exercice 1.2.6 : La v.a. λX + µY est gaussienne d’espérance λE(X) + µE(Y ) et de variance
λ2 σ 2 (X) + µ2 σ 2 (Y ). On en déduit
1 2 2
2 2
E(exp(λX + µY )) = exp λE(X) + µE(Y ) + (λ σ (X) + µ σ (Y ))
2
1 2 2
1 2 2
= exp λE(X) + λ σ (X) exp µE(Y ) + µ σ (Y ) = E(exp λX) E(exp µY )
2
2
d’où l’indépendance.
Exercice 1.2.7 : Si (X, Y ) est un vecteur gaussien, X et Y sont des vecteurs
Pn gaussiens.
Cas d = 1. La projection de X sur (Y1 , Y2 , . . . , Yn ) est de la forme P r X = i=1 ai Yi C’est une v.a.
gaussienne car Y est gaussien. Le vecteur (X − P r X, Y ) est gaussien. Les vecteurs X − P r X et Y
sont indépendants car E((X − P r X)Yi ) = 0 par définition de la projection.
Exercice 1.2.8 : Toujours avec la transformée de Laplace.
On vérifie dans un premier temps que
E(exp(λX))
=
E[E(exp(λX)|Y )] = E[exp(λ(aY + b) +
=
exp[λaE(Y ) +
λ2 2
σ )]
2
λ2
λ2 a 2 2
σ (Y )] exp[λb + σ 2 ]
2
2
donc, la v.a. X est gaussienne d’espérance b + aE(Y ) et de variance σ 2 + a2 σ 2 (Y ). On calcule de
λ2 2
la même façon E(Y eλX ) = E(Y exp(λ(aY + b) +
σ )] et en dérivant par rapport à λ, on trouve
2
2
E(XY ) = aE(Y ) + bE(Y ).
D’autre part
E(exp(λX + µY )) =
=
=
=
et on vérifie que ceci est
1.3
E[exp(µY )E(exp(λX|Y )]
λ2 2
σ )]
2
2 2
λ σ
)
E[exp[(λa + µ)Y ]] exp(λb +
2
(λa + µ)2 2
λ2 σ 2
exp[(λa + µ)E(Y ) +
σ (Y )] exp(λb +
)
2
2
E[exp(µY ) exp(λ(aY + b) +
1
exp(λE(X) + µE(Y )) + Var(λX + µY ))
2
Espérance conditionnelle
Exercice 1.3.2 : Il suffit de calculer E([X −Y ]2 |G) qui vaut 0 (développer le carré) donc, en prenant
l’espérance E([X − Y ]2 ) = 0.
Exercice 1.3.5 : Sous les hypothèses de l’exercice E(X −Y |G) = E(X|G)−Y car Y est G-mesurable
et E(X − Y |G) = E(X − Y ) = m par indépendance. D’où E(X |G) = m + Y . De la même façon
E((X − Y )2 |G) = E(X 2 |G) − 2Y E(X|G) + Y 2 d’où E(X 2 |G) = σ 2 + (Y + m)2 .
Corrigés
95
Exercice 1.3.6 : Par définition de la projection E(XZ) = E((P r X)Z) pour tout Z combinaison
linéaire des Yi . Cela ne suffit pas à dire que P r X est l’espérance conditionnelle car il existe des v.a.
qui sont Y -mesurable et qui ne sont pas combinaison linéaire des Yi . Mais nous avons montré que
X −P r X et Y sont indépendantes, d’où E(X −P r X |Y ) = E(X −P r X) = 0. D’où E(X|Y ) = P r X.
Si n = 1, E(X|Y ) = P r X appartient à l’espace engendré par Y donc s’écrit αY , et on déduit de
E(XY )
E(X|Y ) = αY , après multiplication par Y et intégration α =
.
E(Y 2 )
Exercice 1.3.7 : Soit X = X1 + X2 . On a E(X|G) = E(X1 |G) + E(X2 |G) = E(X1 ) + X2 . Puis
E(X 2 |G) = E(X12 ) + X22 + 2X2 E(X1 ) et
Var (X|G) = E(X 2 |G) − (E(X|G))2 = Var X1 .
E(eλX |G) = E(eλX1 eλX2 |G) = eλX2 E(eλX1 ) = eλX2 exp(λE(X1 ) +
λ2
2 Var (X1 ))
Exercice 1.3.8 : Il est facile de montrer la suite d’égalités
Cov (Z1 , Z2 |G) =
=
=
E(Z1 Z2 |G) − E(Z1 |G)E(Z2 |G)
E(Z1 Z2 |G) − E(Z2 (E(Z1 |G))|G)
E((Z1 − E(Z1 |G) Z2 |G)
Exercice 1.3.9 : Le membre de droite, noté K est H mesurable. Il suffit de vérifier que
E(X11H ) = E(K11H )
pour tout H ∈ H, ce qui se réduit à
E(X11C 11A ) = E(K11C 11A , et E(X11C 11Ac ) = E(K11C 11Ac )
ce qui est routine.
Exercice 1.3.10 : Par linéarité, E(aX + b|Z) = aE(X|Z) + b. La tribu engendrée par Z est
composée des sous-ensembles de Ω de la forme Z −1 (A) où A est un borélien de R et Z −1 (A) =
{ω|Z(ω) ∈ A} = {ω|αY (ω) + b ∈ A} = {ω|Y (ω) ∈ B} où B est l’ensemble des nombres réels tels
que x ∈ B ⇐⇒ αx + b ∈ A et est un borélien (La preuve parfaite exigerait la démonstration de ce
1
point, qui tient au fait que B est l’image réciproque de A par l’application g : y → y − b, soit
α
B = g −1 (A) et que g est continue, donc borélienne)
Exercice 1.3.11 : La premiere question est directe en utilisant le résultat admis dans l’exercice
1.1.6. En utilisant cette question, on a que E(X|G)111≤τ est de la forme h(1 ∧ τ )111≤τ = h(1)111≤τ .
En prenant l’espérance des deux membres, on identifie la constante h(1).
Exercice 1.3.12 : Trivial.
Exercice 1.3.13 : E(X|F) est G ∨ F mesurable. Soit F ∈ F et G ∈ G, on a alors, en utilisant
l’indépendance
E(X11F 11G ) = E(X11F )E(11G )
et
E(11F 11G E(X|F)) = E(11F E(X|F))E(11G )
donc E(X11F 11G ) = E(11F 11G E(X|F)). Nous avons donc montré que E(X11H ) = E(11H E(X|F)) pour
tout H ∈ G ∨ F de la forme H = F ∩ G. Ces ensembles engendrent la tribu G ∨ F et forment une
famille stable par intersection. L’application qui à H associe E(X11H ) (resp. E(11H E(X|F))) définit
96
Rappels
une mesure positive sur cette tribu, les deux mesures, après normalisation par E(X) sont des probabilités (c’est-à-dire l’application qui à H associe E(X11H )/E(X) est une probabilité) qui coincident
sur les ensembles de la forme F ∩ G, donc, par théorème de classe monotone, elles coincident sur la
tribu engendrée.
Exercice 1.3.14 : Seule la réciproque demande une démonstration. Si EQ (X|G) = EP (X|G) alors
EP (LX|G) = EP (X|G)EP (L|G) = EP (XEP (L|G)|G) D’où EP (X(L − EP (L|G))|G) = 0 pour tout X. Il
en résulte (prendre X = L − EP (L|G)) que L − EP (L|G) = 0.
Z
Exercice 1.3.15 : Soit dQ = Ψ(X)dP. On a EP (φ(X)) = φ(x)f (x)dx, EQ (φ(X)) = EP (Ψ(X)φ(X)) =
Z
Ψ(x)φ(x)f (x)dx. Il suffit de choisir Ψ telle que Ψ(x)f (x) = g(x).
1.4
Martingales
Exercice 1.4.1 : Soit s ≥ t et Xt = E(X|Ft ). On a, en utilisant Ft ⊂ Fs
E(Xs |Ft ) = E(X|Fs |Ft ) = E(X|Ft ) = Xt .
Exercice 1.4.2 : Soit Xt = Mt − At . On a, pour t ≥ s E(Xt |Fs ) = Ms − E(At |Fs ) et comme
As ≤ At ou −At ≤ −As , E(Xt |Fs ) ≤ Ms − E(As |Fs ) = Ms − As = Xs .
Exercice 1.4.3 : C’est le lemme de Fatou: de l’inégalité
E(Mt∧τn |Fs ) = Ms∧τn
on en déduit l’inégalité de surmartingale en utilisant que Ms∧τn converge vers Ms et que
lim E(Mt∧τn |Fs ) ≤ E(lim Mt∧τn |Fs ) = E(Mt |Fs )
(le lemme de Fatou assure que lim E(Xn |G) ≤ E(lim Xn |G) si les v.a. sont positives).
Soit F ∈ F et G ∈ G E(X11F 11G ) = E(11F 11G E(X|F)) car E(X11F 11G ) = E(X11F )E(11G ) et
E(11F 11G E(X|F)) = E(11F E(X|F))E(11G ).
Exercice 1.4.4 : Par définition de la propriété de martingale, Xt = E(XT |Ft ). Cette propriété est
à la base de tous les calculs d’évaluation en finance. En effet, ces formules reposent sur le fait qu’un
certain processus est une martingale et donc que sa valeur à l’instant t est l’espérance conditionnelle
de sa valeur terminale.
Exercice 1.4.7 : Soit G = (Gt , t ≥ 0) la filtration de M , c’est à dire Gt = σ(Ms , s ≤ t). Par
définition, Gt ⊂ Ft (La martingale M est F adaptée, et la filtration de M est la plus petite filtration
telle que la propriété d’adaptation soit vraie. On a alors E(Mt |Gs ) = E(Mt |Fs |Gs ) = E(Ms |Gs ) = Ms
On peut aussi montrer que si que si M est une F-martingale et Ht ⊂ Ft , E(Mt |Ht ) est une Hmartingale.
Exercice 1.4.8 : Pour s < t, on a (τ ≤ s) ⊂ (τ < t), d’où
Zt = E(τ ≤ t|Ft ) ≥ E(τ ≤ s|Ft )
et le résultat suit en prenant l’espérance conditionnelle par rapport à Fs .
Corrigés
97
Exercice 1.4.9 : Si X est un PAI, et Xt intégrable, pour t > s, les propriétés de l’espérance
conditionelle permettent d’écrire
E(Xt − Xs |Fs ) = E(Xt − Xs )
def
d’øù Yt = Xt − E(Xt ) est une martingale. En utilisant que le PAI Y est une martingale
E(Yt2 − Ys2 |Fs ) = E((Yt − Ys )2 |Fs ) = E((Yt − Ys )2 )
et il est facile d’en déduire que Xt2 − E(Xt2 ) est une martingale. De la même façon
E(Zt |Fs )
=
=
1.5
E(eλXt |Fs
E(eλ(Xt −Xs ) |Fs λXs
E(eλ(Xt −Xs ) )
=
e
=
eλXs
E(eλXt )
E(eλXt )
E(eλ(Xt −Xs ) )E(eλXs )
1
eλXs = Zs
E(eλXs )
Temps d’arrêt
Exercice 1.5.1 : La seule difficulté est la stabilité par passage au complémentaire. Si A ∈ Fτ on
écrit
Ac ∩ (τ ≤ t) = (τ ≤ t) − (A ∩ (τ ≤ t) ∈ Ft
Exercice 1.5.2 :Par hypothèse sur X, pour tout a, {X ≤ a} ∈ FT Par définition de la tribu FT ,
{X ≤ a} ∩ {T ≤ t} ∈ Ft . Par suite {X ≤ a} ∩ {T ≤ a} ∈ Fa . Le premier membre de cette inclusion
est {X ≤ a}.
Exercice 1.5.4 : Il suffit d’écrire
A ∩ (T ≤ t) = A ∩ (S ≤ t) ∩ (T ≤ t)
et donc, si A ∈ FS on a A ∩ (T ≤ t) ∈ Ft .
Exercice 1.5.5: Il suffit d’écrire
(S ≤ a) ∩ (S ≤ t) = (S ≤ (a ∧ t)) ∈ Fa∧t
Exercice 1.5.6: Montrons que S ≤ T ∈ FT . pour cela , on écrit
(S ≤ T ) ∩ (T ≤ t) = (S ∧ t ≤ T ∧ t) ∩ (T ≤ t) ∩ (S ≤ t)
et chacu des trois ensembles du membre de droite est dans Ft (car S ∧ t est plus petit que t donc
Ft mesurable.
On introduit R = S ∧ T . C’est un temps d’arrêt, FR mesurable avec FR ⊂ FT . Donc
(R = T ) ∈ FT , et (R < T ) ∈ FT , par suite (S < T ) ∈ FT et S = T ∈ FT , ainsi que T ≤ S
et T < S.
Exercice 1.5.7 : Soit ω fixé. La fonction t → Zt (ω) vaut 1 pour t ∈ [S(ω), T (ω[ et 0 sinon. Elle
est continue sur les trois intervalles [0, S(ω)[, ]S(ω), T (ω)[, ]T (ω), ∞[. Elle est continue à droite en
S(ω) car si t → S(ω) ”par la droite” (soit t > S(ω)), Zt (ω) = 1 tend vers ZS(ω) (ω) = 1.
Exercice 1.5.11 : Utiliser le théorème d’arrêt et le temps d’arrêt Ty pour y > a. On a E(MTy ∧t ) =
a. On fait alors tendre t vers l’infini MTy ∧t converge vers y sur Ty < ∞ et vers 0 sinon. (et est
borné). D’où P(Ty < ∞) = a/y. Il reste à remarquer que P(Ty < ∞) = P(sup Mt ≥ y).
98
Rappels
1.6
Temps discret
Exercice ?? : L’égalité E(Xn+p |Fn ) = Xn est vraie pour p = 1. En utilisant
E(Xn+p |Fn ) = E(Xn+p |Fn+p−1 |Fn ) = E(Xn+p−1 |Fn )
on démontre le résultat par récurrence.
Exercice ?? : On obtient
E((H · M )n |Fn−1 ) =
n
X
E(Hk (Mk − Mk−1 ) |Fn−1 )
k=1
=
n−1
X
Hk (Mk − Mk−1 ) + E(Hn (Mn − Mn−1 ) |Fn−1 )
k=1
=
n−1
X
Hk (Mk − Mk−1 ) + Hn E(Mn − Mn−1 |Fn−1 )
k=1
=
n−1
X
Hk (Mk − Mk−1 )
k=1
1.7
Algèbre béta-gamma
1.8
Divers
Exercice 1.8.1 :
Z
E(exp −λMτ )
∞
= E(θ
Z
−θt −λMt
dte
0
Z ∞ Z
= E(θ
dt
Z
0
∞
= θE(
0
0
Z
∞
∞
e−λu du)
Z ∞ Z ∞
∞
−θt
−λu
due λ11u>Mt e
) = E(θ
du
dte−θt λ11Tu >t e−λu )
e
) = E(θ
−θt
dte
0
Z
due−λu λ
0
Tu
λ
Mt
Z
dte−θt ) =
0
∞
0
due−λu λ(1 − e−θTu )
0
Exercice 1.8.2 : La partie directe est évidente, car eλX et eλY sont indépendantes. La réciproque
n’est pas vraie, comme le montre le contre exemple suivant: Soit X, Y telles que P(X = i, Y = j) =
ai,j où les ai,j sont donnés pas les coefficients de la matrice


1/9 1/6 1/18
 1/18 1/9 1/6 
1/6 1/18 1/9
La loi de X est égale à celle de Y et P(X = i) = 1/3 = P(Y = j). On vérifie que X et Y ne sont
pas indépendantes (par exemple P(X = 1, Y = 3) 6= 1/9.
La loi de X + Y est égale à la loi de X1 + Y1 où X1 a même loi que X, Y1 a même loi que Y et X1
et Y1 sont indépendantes.
Cet exercice montre que la loi de la somme de deux v.a. dépend très fortement de la loi du
COUPLE. Rappellons à ce sujet que si Z1 et Z2 sont gaussiennes, cela n’implique pas que Z1 + Z2
est gaussienne: Le contre exemple suivant du à Nelson le prouve: Soit n la densité gaussienne réduite
centrée et u une fonction impaire continue, nulle hors de [−1, +1] telle que |u(x)| < (2πe)−1/2 . On
vérifie que f (x, y) = n(x)n(y) + u(x)u(y) est une densité, que les lois marginales sont normales, et
Corrigés
99
la loi de la somme n’est pas normale.
Par contre, si le vecteur (X, Y ) est gaussien, la somme X + Y est gaussienne. Pour que le vecteur
(X, Y ) soit gaussien, il faut et il suffit que X soit gaussien et que la loi conditionnelle de Y à X soit
gaussienne.
100
Brownien.
Chapter 2
Mouvement Brownien, Corrigés
2.1
Propriétés élémentaires
Exercice 2.1.1 : Trivial. Ceci constitue une caractérisation du mouvement Brownien comme processus gaussien centré de covariance t ∧ s.
Exercice 2.1.3 :
1. On a E(Bs Bt2 ) = E( E(Bs Bt2 |Fs )). La variable aléatoire Bs est Fs -mesurable, d’où E(Bs Bt2 ) =
E(Bs E(Bt2 |Fs )).
On sait que Bt2 − t est une martingale, d’où, si s > t, E(Bt2 |Fs ) = Bs2 − s + t. En utilisant que
la v.a. Bt est centrée et que E(Bt3 ) = 0, on obtient que
E(Bs Bt2 ) = E(Bs (Bs2 − s + t)) = E(Bs3 ) = 0.
Si s > t, on a E(Bs Bt2 ) = E( E(Bs Bt2 |Ft )) = E(Bt2 E(Bs |Ft )) = E(Bt3 ) = 0 où on a utilisé la
propriété de martingale de B.
2. Le MB est une martingale, donc E(Bt |Fs ) = Bs pour t ≥ s et E(Bt |Fs ) = Bs pour t < s car Bt
est Fs -mesurable dans ce cas. Si s < t, E(Bt |Bs ) = E(Bt −Bs +Bs |Bs ) = E(Bt −Bs |Bs )+Bs =
Bs car Bt − Bs est indépendant de Bs et centré. Si t < s, on s’inspire du pont Brownien (voir
t
t
t
ex suivant) pour écrire E(Bt |Bs ) = E(Bt − Bs |Bs ) + Bs . La v.a. Bt − Bs est centrée
s
s
s
t
et indépendante de Bs : en effet, le couple (Bt − Bs , Bs ) est un couple gaussien centré et sa
s
t
covariance est nulle. On en déduit E(Bt |Bs ) = Bs .
s
On peut aussi utiliser les résultats sur le conditionnement d’un vecteur gaussien.
3. La variable Bt + Bs est gaussienne (car B est un processus gaussien) centrée. On peut
aussi écrire (Bt + Bs ) comme une somme de v.a. gaussiennes indépendantes: si t > s,
Bt + Bs = Bt − Bs + 2Bs . On en déduit que sa variance est t + 3s.
4. Soit θs une variable aléatoire bornée Fs -mesurable. On a, pour s ≤ t
E(θs (Bt − Bs )) = E(E(θs (Bt − Bs )|Fs )) = E(θs E((Bt − Bs )|Fs )) = 0.
De même
E(θs (Bt − Bs )2 ) = E(E(θs (Bt − Bs )2 |Fs )) = E(θs E((Bt − Bs )2 |Fs )) = (t − s)E(θs ).
101
102
Brownien.
√
√
5. E(11Bt ≤a ) = P(Bt ≤ a) = P( tU ≤ a) = P(U ≤ a/ t) où U est une v.a. de loi N (0, 1).
Z a
Z a/√t
√
1
x2
1
y2
E(Bt 11Bt ≤a ) =
x√
exp(− ) dx = t
y √ exp(− ) dy et la dernière intégrale
2t
2
2πt
2π
−∞
−∞
se calcule facilement.
Exercice 2.1.4 :
Pour t > u, la propriété d’indépendance et de stationarité des accroissements conduit à
loi
bt−u + Bu )) loi
bt−u +
f (Bt ) = f (Bt − Bu + Bu ) = f (B
= f (B
√
uG))
bs = Bs+u − Bu est un MB indépendant de Fu et G une v;a. gaussienne standard, indépendante
où B
bt−u .
de B
Exercice 2.1.5 :
On peut calculer la densité de BΘ
Z
Z
P(BΘ ∈ dx) =
P(Bt ∈ dx)θe
−θt
∞
√
11t>0 dt =
0
On trouve
1
x2
exp(− )θe−θt dt
2t
2πt
√
P(BΘ ∈ dx) =
2θ −|x|√2θ
e
dx
2
mais ce calcul d’intégrale n’est pas trivial. Cependant, on peut y arriver sans utiliser un attirail lourd
de changement de variables. On sait que la transformée de Laplace du temps d’atteinte du niveau a
√
2
|a|
par un mouvement Brownien est e−|a| 2λ et que la densité de ce temps d’atteinte est √
e−a /2u .
3
2πu
Ce qui s’écrit
Z ∞
√
|a| −a2 /2t
−|a| 2λ
e
dt .
= E(e−λTa ) =
e−λt √
2πt3
0
Par dérivation par rapport à λ, on obtient
√
|a|
√ e−|a| 2λ =
2λ
D’où
Z
λ
∞
−λt
e
0
Z
∞
0
|a| −a2 /2t
e
dt .
e−λt √
2πt
1 −a2 /2t
√
e
dt =
2πt
√
2λ −|a|√2λ
e
.
2
Exercice 2.1.6 :
3
1. Le processus M est F-mesurable. La v.a. Mt r
est intégrable: E(|Bt3 |) = Ct 2 où C est une
Z t
Z t
Z t
2s
constante et E|
Bs ds| ≤
E(|Bs |) ds =
ds < ∞.
π
0
0
0
En utilisant que, pour t > s, la v.a. Bt − Bs est indépendante de Fs , on obtient
E(Bt3 |Fs ) =
=
E((Bt − Bs + Bs )3 |Fs ) = E((Bt − Bs )3 ) + 3Bs E(Bt − Bs )2 + 3Bs2 E(Bt − Bs ) + Bs3
3Bs (t − s) + Bs3 .
D’autre part
Z t
Z t
Z
E(
Bu du|Fs ) =
E(Bu |Fs ) du =
0
0
0
Z
s
Z
t
E(Bu |Fs ) du+
E(Bu |Fs ) du =
s
La propriété de martingale de M est alors facile à vérifier.
s
Bu du+Bs (t−s)
0
Corrigés
103
2. Des calculs analogues aux précédents montrent que Bt3 − 3tBt est une martingale. Il suffit
de montrer que pour s < t, E(Bt3 − 3tBt |Fs ) = Bs3 − 3sBs . Or, en utilisant que Bt − Bs est
indépendant de Fs , on obtient E((Bt − Bs )3 |Fs ) = E((Bt − Bs )3 ) = 0 car E(X 3 ) = 0 si X est
une variable gaussienne centrée. Il reste à utiliser (a − b)3 = a3 − 3a2 b + 3ab2 − b3 pour obtenir
E(Bt − Bs )3 |Fs ) = E(Bt3 |Fs ) − 3Bs E(Bt2 |Fs ) + 3Bs2 E(Bt |Fs ) − Bs3
= E(Bt3 |Fs ) − 3Bs (Bs2 − s + t) + 3Bs2 Bs − Bs3
Z t
Le processus Bt3 − 3tBt est une martingale, donc par différence tBt −
Bs ds est une martin0
Z t
sdBs .
gale, égale (intégration par parties) à
0
Z
t
3. La v.a. Xt est Ft -mesurable et intégrable : en effet |Xt | ≤ t|Bt | +
|Bs |ds =: Z et il est
0
2t
facile de vérifier que Z est intégrable (soit E(Z) < ∞, car E(|Bt |) = √ ).
2π
Soit t > s.
Z t
Z t
E(Xt |Fs ) = E(tBt −
Bu du|Fs ) = tE(Bt |Fs ) −
E(Bu |Fs )du
0
0
Z s
Z t
Z s
= tBs −
Bu du −
Bs du = tBs −
Bu du − Bs (t − s)
s
0
Z s 0
= −
Bu du + Bs s = Xs
0
le processus X est une martingale.
On peut aussi appliquer la formule d’Itô et vérifier que dXt = tdBt . Comme f (s) = s est de
Z t
Z t
carré intégrable (soit
s2 ds < ∞) , l’intégrale de Wiener
sdBs est une martingale. On
0
Z0 t
peut aussi remarquer que, par intégration par parties, Xt =
sdBs .
0
4. On verra plus tard que U n’est pas une martingale. On peut remarquer que E(Ut ) n’est sans
doute pas constant.
Z t
Z t
5. Soit t > s. E(Yt |Fs ) = E(t2 Bt − 2
Bu du|Fs ) = t2 E(Bt |Fs ) − 2
E(Bu |Fs )du = t2 Bs −
0
0
Z s
Z t
Z s
2
2
Bu du − 2
Bs du = t Bs − 2
Bu du − 2Bs (t − s) = Ys + (t2 − s2 )Bs − 2Bs (t − s) Pour
0
s
0
que Y soit une martingale, il faudrait que 0 = (t2 − s2 )Bs − 2Bs (t − s) = (t − s)Bs (t + s − 2),
ce qui n’est pas.
Exercice 2.4.4 : En écrivant Mt = −(Bt2 − t) + (a + b)Bt − ab et en utilisant que B et (Bt2 − t, t ≥ 0)
sont des martingales, le caractère martingale de M provient de la structure espace vectoriel de
l’ensemble des martingales. Le processus Mt∧Ta,b est une martingale de valeur initiale −ab, donc
E[Mt∧Ta,b ] = −ab. Le temps d’arrêt Ta,b , majoré par Ta est fini (cf. Exercice 2.4.1). Lorsque t
converge vers l’infini Mt∧Ta,b = (a − Bt∧Ta,b )(Bt∧Ta,b − b) + t ∧ Ta,b converge vers (a − BTa,b )(BTa,b −
b) + Ta,b = Ta,b , car (a − BTa,b )(BTa,b − b) = 0. La quantité (a − Bt∧Ta,b )(Bt∧Ta,b − b) est majorée par (a − b)2 et la quantité t ∧ Ta,b converge en croissant vers Ta,b dont on ne sait pas qu’elle
est intégrable. On peut conclure en appliquant le théorème de Lebesgue dominé pour la partie
E(a − Bt∧Ta,b )(Bt∧Ta,b − b) et le théorème de convergence monotone pour la partie portant sur le
temps d’arrêt. On en déduit E(Ta,b ) = −ab.
104
Brownien.
Z
Exercice 2.1.9 : Soit t ≥ s. Ex (f (Bt )g(Bs )) = Ex (f (B̂t−s +Bs )g(Bs )) = E
Z
E(Ψ(Xs )) avec Ψ(z) = g(z) f (y)pt−s (z, y)dy.
Z
D’où Ex (f (Bt )g(Bs )) = ps (x, z)Ψ(z)dz.
dyf (y)pt−s (Bs , y)g(Bs ) =
Autre mode de raisonnement: On applique la propriété de Markov.
Ex (f (Bt )g(Bs )) = Ex (g(Bs )E((f (Bt )|Fs )) = Ex (g(Bs )E((f (Bt )|Bs )) = Ex (g(Bs )ϕ(Bs ))
R
avec ϕ(z) = Ez (f (Bt−s )) = f (y)pt−s (z, y)dy.
Exercice 2.1.11 :En utilisant l’exercice 1.2.1:
1
λx2
exp(−
)
1 + 2λt
1 + 2λt
Z 1
Z 1
Bs
Bs
1
√ ds < ∞.
ds| ≤
E| |ds = c
s
s
s
0
0
Ex (exp −λ(Bt )2 ) = √
Z
1
Exercice 2.1.13 : E|
0
Exercice 2.1.14 Utiliser que {Bt < 0} ⊂ {τ ≤ t}.
Exercice 2.1.16 La quantité e−λt u(Bt ) est
l’existence de f et g.
La suite d’égalités
Z ∞
−λt
Ex
dte u(Bt )
Z ∞ τ
−λt
Ex
dte u(Bt )|Fτ
τ
Z ∞
−λt
Ex
dte u(Bt+τ − Bτ + Bτ )|Fτ
majorée par e−λt M , qui est intégrable sur [0, ∞], d’où
Z ∞
−λt
= Ex Ex
dte u(Bt ) |Fτ
Zτ ∞
−λτ
−λt
= e
Ex
dte u(Bt+τ − Bτ + Bτ )|Fτ
0
Z ∞
=
dte−λt Ex (u(Bt+τ − Bτ + Bτ )|Fτ )
0
0
Ex (u(Bt+τ − Bτ + Bτ )|Fτ )
bt )]
= EBτ [u(B
b étant le Brownien (Bt+τ −Bτ , t ≥ 0),
où la dernière égalité résulte de la propriété forte de Markov, B
indépendant de Fτ , conduisent à
Z ∞
Ex
dte−λt u(Bt ) = Ex (e−λτ ψ(Bτ ))
τ
Z
∞
avec ψ(x) =
bt )] = f (x) ce qui est le résultat souhaité.
dte−λt Ex [u(B
0
Exercice 2.1.17 : Il suffit d’écrire
X αk
k!
E(Btk |Fs ) =
X αk
k!
Hk (Bs , −(t − s))
Exercice 2.1.19 :P(au moins un zéro dans ]s, t[|Bs = a) = P(Ta ≤ t − s). Il reste à calculer
Z
∞
da √
2
0
2
1
e−a /2s
2πs
On utilise Fubini et de la trigonométrie.
Z
0
t−s
dx(2πx3 )−1/2 a exp(−
a2
)
2x
Corrigés
2.2
105
Processus Gaussien
Z
t
Exercice 2.2.1 : Le processus Y tel que Yt =
Bu du est défini trajectoire par trajectoire, comme
0
intégrale de Riemann d’une fonction continue. En particulier, on a dYt = Bt dt. Nous vérifions que le
processus Y est un processus gaussien. Tout d’abord, la v.a. Yt est une gaussienne comme limite de
sommes de Riemann qui sont des gaussiennes car B est un processus gaussien. Le caractère gaussien
du processus s’obtient
par un raisonnement analogue.
Z
t
On a E(Yt ) =
E(Bu ) du = 0.
0
Z
Z
t
La covariance de Y est E(Yt Ys ) =
s
du
dvE(Bu Bv ). Il reste à intégrer
0
0
Z
Z
t
du
0
s
dv(u ∧ v) .
0
On se place dans le cas s < t et il vient
Z t Z s
(v ∧ u)dv +
du
(v ∧ u)dv
0
0
s
0
Z t Z s
Z s Z u
Z s
=
du
vdv +
udv +
du
vdv .
Z
E(Yt Ys )
Z
s
=
s
du
0
Tous calculs faits, pour s < t: E(Yt Ys ) =
0
u
s
0
s2
(3t − s).
6
Exercice 2.2.2 La solution est
Z
t
Xt = e−at x + e−at
e(a+b)t dBt
0
On procède comme pour le processus d’OU. On peut aussi résoudre dXt = −aXt dt ce qui donne
Xt = Ce−at et appliquer une méthode de variation de la constante. On cherche un processus C tel
que Xt = Ct e−at vérifie l’équation (cette méthode ne prend toute sa signification que si on a vu la
formule d’intégration par parties)
dXt = −aCt e−at dt + e−at dCt = −aXt dt + ebt dBt
d’ou e−at dCt = ebt dBt soit dCt = e(b+a)t dBt . Il resterait à vérifier que l’on a bien trouvé une
solution, car on ne dispose pas du lemme d’Itô et on ne sait pas justifier que la dérivée de Ct e−at
est −aCt e−at dt + e−at dCt .
Exercice 2.2.4 :
1. Le processus (Zt = Bt − tB1 , 0 ≤ t ≤ 1) est un processus gaussien car pour tout choix de
(ai , ti )
X
X
X
a i Zt i =
ai Bti − (
ai ti )B1
est une v.a.r. gaussienne (B est un processus gaussien). De la même façon, on obtient que
le vecteur (Zt , B1 ) est gaussien. Ses deux composantes Zt et B1 sont indépendantes car
E(Zt B1 ) = E(Bt B1 ) − tE(B12 ) = 0. La covariance de Z est
E(Zt Zs ) = E(Bs Bt ) − sE(B1 Bt ) − tE(Bs B1 ) + tsE(B12 ) = (s ∧ t) − st.
On appelle Z un pont Brownien.
106
Brownien.
2. Le processus (Yt = Z1−t , 0 ≤ t ≤ 1) est gaussien centré. Sa covariance est, pour s ≤ t,
E(Yt Ys ) = (1 − t) ∧ (1 − s) − (1 − s)(1 − t) = (s ∧ t) − st = s(1 − t).
t . Le processus Y est un processus gaussien car
3. Soit Yt = (1 − t)B 1−t
a E(Yt ) = 0 et pour s < t
t B s ) = (1 − t)(1 − s)
E(Ys Yt ) = (1 − t)(1 − s)E(B 1−t
1−s
P
ai Yti =
P
bi Bsi . On
s
= s(1 − t)
1−s
X
Exercice 2.2.5 : Par définition de l’intégrale de Riemann, toute combinaison linéaire
a i Zt i
i
X
est limite dans L2 de sommes du type
bj Btj , d’où le caractère gaussien. (Attention, il ne faut
j
pas se contenter de dire que Z est la somme de deux processus gaussiens. La somme de deux v.a.
gaussiennes n’est pas nécessairement une gaussienne. Cette propriété est vraie si les variables sont
Z t
n
X
Bs
Bti
indépendantes) On utilise ici que
ds = lim
(ti+1 − ti ).
s
ti
0
i=0
Pour caractériser la loi du processus gaussien Z, il suffit de donner son espérance et sa covariance.
Il est immédiat de montrer que E(Zt ) = 0. Il reste à calculer la covariance. Soit s < t.
Z
t
E(Zs Zt ) = E(Bs Bt ) − E[
0
Z
Z
b
On utilise que E(
f (Bu )du) =
a
Bu
Bs
du] − E[Bt
u
Z
s
0
Z t
Z
Bu
Bu s Bv
du] + E[
du
dv
u
u 0
v
0
b
E[f (Bu )]du et que E(Bu Bv ) = u ∧ v). Après quelques calculs
a
d’intégration sur les intégrales doubles, il vient E(Zs Zt ) = s. Le processus Z est un processus
gaussien d’espérance nulle et de covariance s ∧ t.
Le processus Z est donc un mouvement Brownien. Cependant le processus Z n’est pas une (Ft )
martingale: pour s > t
Z s
1
E(Zs − Zt |Ft ) =
Bs du 6= 0
u
t
On a ici l’exemple d’un processus qui est un MB (et une martingale par rapport à sa propre filtration), mais qui n’est pas un brownien, ni même une martingale par rapport à une filtration plus
grosse. Le problème est connu sous le nom de grossissement de filtration. (Voir l’exercice sur l’agent
initié, dans le chapitre compléments)
u
u
u
t
Bt = (Bu −
Bt+h ) − (Bt −
Bt+h ) montre la croissance de Γt
t
t+h
t
t+h
u
et Bt est orthogonal à Bu − Bt .
t
Exercice 2.2.6 : Bu −
Exercice 2.2.7 : Rappel (cf. Exercice 1.6.2) : soit X est une v.a. de loi N(m; σ 2 ) et Y =
exp{λ(X − m) − 21 λ2 σ 2 }. Soit dQ = Y dP. Sous Q, X est une v.a. de densité N (m + λσ 2 , σ 2 ).
On montre alors que B̃t = Bt − mt a une loi gaussienne sous Q.
On vérifie ensuite l’indépendance des accroissements: il s’agit de montrer que
EQ (φ(B̃t+s − B̃s ) ψ(B̃s )) = EQ (φ(B̃t+s − B̃s )) EQ (ψ(B̃s ))
pour toutes fonctions boréliennes bornées (φ, ψ). On a, par changement de probabilité, avec Lt =
m2
exp(mBt −
t)
2
A = EQ (φ(B̃t+s − B̃s ) ψ(B̃s )) = EP (Lt+s φ(B̃t+s − B̃s ) ψ(B̃s ).
Corrigés
107
On a B̃t+s − B̃s = Bt+s − Bs − mt.
En utilisant l’indépendance de Bt+s − Bs et de Bs (sous P) et la forme de L, on obtient
1
1
A = EP [exp(m(Bt+s − Bs ) − m2 t)) φ(Bt+s − Bs − mt)] EP [exp(mBs − m2 s)ψ(B̃s )].
2
2
Sous P, Bt+s − Bs et Bt ont même loi, d’où
1
1
A = EP [exp(mBt − m2 t)φ(Bt − mt)] EP [exp(mBs − m2 s)ψ(B̃s )]
2
2
1
1
= EP [exp(mBt − m2 t)φ(B̃t )] EP [exp(mBs − m2 s)ψ(B̃s )]
2
2
ce qui conduit à
A = EQ (φ(B̃t )) EQ (ψ(B̃s )) .
Exercice 2.2.8 :
loi
sup(|Bt | − µtp/2 )| = sup(|Bλ2 s )| − µ(λ2 s)p/2 ) = sup(λ|Bs | − µ(λ2 s)p/2 ) = λ sup(|Bs | − sp/2 )
t
s
s
s
E(|BT |) ≤ E((|BT | − µT p/2 )) + µE(T p/2 ) ≤ E(supt (|Bt | − µtp/2 )) + µE(T p/2 )
2.3
Multidimensionnel
Exercice 2.3.2 : Si les coefficients σi sont des constantes, il suffit de définir B3 (t) = √
1
(σ1 B1 (t)+
σ12 +σ22
σ2 B2 (t)). Ce processus est un mouvement Brownien car c’est une martingale et (B32 (t)−t; t ≥ 0) est
une martingale. Si les σ sont déterministes, on pose dB3 = √ 2 1 2 (σ1 (t)dB1 (t) + σ2 (t)dB2 (t)).
σ1 (t)+σ2 (t)
Le processus
1
B(3) (t) = p
1 − ρ2
(B(2) (t) − ρB(1) (t))
est une martingale
2
B(3)
(t) =
1
2
(B 2 + ρ2 B(1)
(t) − 2ρB(1) (t)B(2) (t)
1 − ρ2 (2)
2
Par définition de la corrélation, B(1) (t)B(2) (t) − ρt est une martingale. Il s’en suit que B(3)
(t) − t
est une martingale, donc B(3) est un MB. Il reste à montrer que B(3) est indépendant de B(1) .
Remarque: On peut utiliser le théorème de RP pour établir que si le coefficient de corrélation de
deux MB est nul, ces processus sont indépendants.
2.4
Temps d’atteinte
Exercice 2.4.1 : Soit λ > 0. Le processus M défini par Mt = exp(λBt − 21 λ2 t) est une martingale.
On applique le théorème d’arrêt de Doob. Si a > 0, la martingale Mt∧Ta est uniformément intégrable,
car majorée par exp(λa). Donc E(exp(λBTa − 21 λ2 Ta )) = 1, soit E(exp(λa − 12 λ2 Ta )11Ta <∞ ) =
1
1. D’où E(exp(− λ2 Ta ) 11Ta <∞ ) = exp −λa. Pour λ = 0; on obtient P(Ta < ∞) = 1, puis
2
1
E(exp(− λ2 Ta ) ) = exp −λa. En dérivant par rapport à λ2 , et en prenant λ = 0, on en déduit
2
l’espérance de Ta .
108
Brownien.
Exercice 2.4.2 : Appliquer le théorème d’arrêt de Doob à la martingale B et au processus
2
Bt∧n
− (t ∧ n).
Exercice ?? : On note St = maxs≤t Bs . En remarquant que ST = maxs≤t Bs ∨ maxt<s≤T Bs on
en déduit
P(τ > T |Ft ) = P(ST < a|Ft ) = 11St <a P( max Bs − Bt < a − Bt |Ft )
t<s<T
eu = Bt+u −Bt est un MB indépendant de Ft . D’où P(maxt<s<T Bs −Bt < a−Bt |Ft ) =
Le processus B
Ψ(a − Bt ) avec
Z √x
√
T −t
2
2
Ψ(x) = P( max B̃u < x) = P(|B̃T −t | < x) = P(| T − t G| < x) = √
e−u /2 du .
0<u<T −t
2π 0
√
d
Exercice 2.4.5 : Des calculs simples montrent que E(e−λT ) = E(exp −|Bd | 2λ)e−λd . De même,
√
d
E(11Bd ≤α e−λT ) = E(11Bd ≤α Φ(Bd ))e−λd avec Φ(x) = Ex (e−λT0 ) = E0 (e−λTx ) = exp(−|x| 2λ. D’où
√
√
d
E(11Bd ≤α e−λT ) = E(11Bd ≤α exp(−|Bd | 2λ)e−λd ) = E(11G≤α/√d exp(G 2dλ)e−λd )
Exercice 2.4.3 : La propriété de Markov fort montre que B̂t = BTa +t − BTa = BTa +t − a est
indépendant de FTa , donc de Ta . Comme b > a, on a
Tb = inf{t : Bt = b} = inf{t ≥ Ta : Bt = b} = Ta + inf{t : B̂t = b − a}
loi
On en déduit que la v.a. Tb − Ta est indépendante de Ta et que Tb − Ta = Tb−a . Le processus Ta
est donc à accroissements indépendants et stationnaires. C’est donc un processus de Lévy.
1
Le processus eθ(Xt −νt)− 2 θ
pour obtenir
2
t
est une martingale. On applique ensuite le théorème d’arrêt de Doob
p
1 2
= eνa exp −|a| ν 2 + λ2 .
E( exp − λ Ta
2
Ensuite, on montre que
(eβb − eβa )eαXt −λt + (eαab − eαb )eβXt −λt
√
√
est une martingale pour β = ν 2 + 2λ − ν, α = − ν 2 + 2λ − ν.
Exercice 2.4.7 : Par définition P(I ≤ x) = P(inf s≤T1 Bs ≥ −x) = P(T1 ≤ T−x ). En utilisant le
théorème d’arrêt de Doob E(BT1 ∧T−x ) = E(B0 ) = 0, d’où
P(T1 ≤ T−x ) − xP(T1 ≥ T−x ) = 0 = P(T1 ≤ T−x ) − x(1 − P(T1 ≤ T−x ))
et P(T1 ≤ T−x ) =
x
.
1+x
Exercice 2.4.8 : On utilise que (MTa∗ < y) = (supu<v Bu < y).
P(MTa∗ − y > x|MTa∗ > y) =
=
=
P(T ∗ > Tx+y |Ta∗ > Ty )
P(Mu − Bu ≤ a, Ty < u < Tx+y |Mu − Bu < a, ∀u < Ty )
P(M̃u − B̃u ≤ a, ∀u, 0 < u < T̃x ) = P(M̃Ta∗ ≥ x)
Pour obtenir le paramètre, on calcule l’espérance
0 = E(BT ∗ ∧n = E(MTa∗ ∧n ) − E(MTa∗ ∧n − BTa∗ ∧n )
Corrigés
109
et on passe à la limite E(MTa∗ ∧n ) = a.
Exercice 2.4.9 : Le processus exp[−2µXt /σ 2 ] est une martingale, en effet il est facile de mettre
ce processus sous la forme exp(λBt − 12 λ2 t). On en déduit que h(Xt ) est une martingale et que
E(h(Xτ ∧t) ) = h(0). L’inégalité |h(Xτ ∧t) )| ≤ supx∈[−B,A] (h(x)) permet d’appliquer le théorème de
convergence dominée.
Exercice 2.4.15 : On sait que (Lamberton et Lapeyre 2nd edition, page 96, Musiela et Rutkowski
p. 49, Voir aussi Karatzas et Shreve, page 95) si Mt = sups≤t Bs
P(Bt ≤ x , Mt ≤ y) = P(Bt ≤ x) − P(Bt ≥ 2y − x)
pour
0 ≤ y, x ≤ y. On en déduit, par dérivation
P(Bt ∈ dx , Mt ≤ y) = √
et
P(Mt ≤ y|Bt = x) =
1
x2
1
(2y − x)2
exp(− ) − √
exp(−
)
2t
2t
2πt
2πt
(2y − x)2
x2
P(Bt ∈ dx , Mt ≤ y)
= 1 − exp(−
+ )
P(Bt ∈ dx)
2t
2t
Si le MB est issu de x, on utilise
P(sup Bs + x ≤ y|Bt + x = z) = P(Mt ≤ y − x|Bt = z − x)
s≤t
2.5
Scaling
Exercice 2.5.2 : La partie a) résulte de
loi
(T1 > t) = (1 > St ) = (1 >
√
tS1 ) = (
1
> t)
S12
La partie c) résulte de
d∆a
1
1
At ≥ 1, √ Bt = 0}
a
a
=
inf{t ≥ ∆a : Bt = 0} = inf{t :
loi
inf{t : At/a ≥ 1, Bt/a = 0} = ad∆1
=
et
1
loi
(Ag ≤ a) = (g ≤ ∆1 ) = (1 ≤ d∆a = (1 ≤ ad∆1 ) = (
d∆1
≤ a)
loi
La partie d) est facile. Dans ce cas ∆1 = T1∗ = inf{t : sups≤t |Bs | ≥ 1}.
Exercice 2.5.3 :
P( sup |Bt | ≤ x) = P(
1≤t≤1
2.6
sup
1≤t≤(1/x2 )
|Bt | ≤ 1) = P(M1 ≥
Compléments
bt )2 )
Exercice 2.6.1 : On calcule E((Bt − B
bt )2 ) =
E((Bt − B
bt2 ) − 2E(Bt B
bt )
E(Bt2 ) + E(B
bt )
= 2t − 2E(Bt B
1
)
x2
110
Brownien.
Il reste à calculer
bt ) = E[ E (Bt B
bt |Gt ]) = E(B
bt2 ) = t
E(Bt B
bt )2 ) = 0; il s’en suit l‘égalité souhaitée.
d’où E((Bt − B
u
(s) def
Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u ≤ s, βu = Bu − Bs ∈ Πt . Il suffit
s
u
u s
u
(s)
(t)
d’écrire βu = Bu − Bt + ( Bt − Bs ) = βu(t) − βs(t) . Le processus (βu ; u ≤ t) est indépendant
t
s t
s
u
u
(s)
de la variable Bt (calculer les covariances), et Bu = (βu + Bt est la décomposition orthogonale
t
t
Z t
(t)
b est un processus gaussien centré
de B, la projection de Ft est donc
f (s)ds βs . Le processus B
0
de covariance t ∧ s, c’est un MB (On peut aussi le voir en utilisant des résultats d’unicité en loi de
solution d’équa diff) Il est facile de montrer que
Z s
du (t)
(t)
b
βu
Bs = βs −
0 u
et que, en particulier
Z
t
du (t)
βu
0 u
Z t
D’où l’égalité des tribus. Il en résulte, en notant F̄ (t) =
f (s)ds et en utilisant une intégration
bt = −
B
0
par partie que
Z
Z
t
f (s)dBs =
0
t
bs −
f (s)dB
0
Bt
F̄ (t) +
t
Z
0
t
F̄ (s) b
dBs .
s
(1)
(2)
Exercice 2.6.7 : On utilisera le théorème de représentation prévisible pour représenter Bt , Bt
Z t
Z t
(i)
2
en terme de B (3) . Si l’égalité était possible, on aurait Bt =
Φ(i)
dB
avec
E[Φ(i)
s
s
s ] ds = t et
0
0
Z t
(1) (2)
(2)
E(Bt Bt ) = E(
Φ(1)
s Φs ds) = 0.
0
Exercice 2.6.8 : Les premiéres questions se traitaient en utilisant des formules d’intégration par
parties, ou la formule d’Itô. A la main, on calcule
Z t
Z t
Z t Z s
Z t Z s
Bs − Xs
Bs
Bu
1
Bt +
ds = Bt +
ds −
ds
du −
ds
dBu
2
1
−
s
1
−
s
(1
−
u)
1
−
u
0
0
0
0
0
0
Z t
Z t
t−u
Bs
t−s
= Bt −
dBu +
(1 −
)ds
1−s
0 1−u
0 1−s
Z t
Z t
Bs
t−u
t−s
(1 −
)dBu +
(1 −
)ds
=
1−u
1−s
0 1−s
0
Z t
Z t
1
Bs
= (1 − t)
dBu + (1 − t)
ds
2
0 1−u
0 (1 − s)
Par différentiation
dXt
Z t
Z t
1
Bt
Bs
1
dt − dt
ds + (1 − t)
dBt − dt
dBs
= (1 − t)
2
(1 − t)2
(1
−
s)
1
−
t
1
−
s
0
0
Bt
1
=
dt + dBt −
Xt dt
1−t
1−t
Le calcul de la covariance du processus Gaussien X s’obtenait en appliquant plusieurs fois le
résultat d’isométrie
Z t
Z s
Z t∧s
E(
f (u)dBu
g(u)dBu ) =
f (u)g(u)du
0
0
0
2009-10
111
Z
et en remarquant que les v.a.
Z
t
f (u)dBu et
0
s<t
s
g(v)dBv sont indépendantes. On trouvait pour
0
E(Xs Xt ) = s + 2s(1 − t) + (2 − s − t) ln(1 − s)
2.7
Finance
Exercice 2.7.1 : On calcule séparément E(St 11St <K ) et E(11St <K ). On trouve
E(e−rt (St − K)+ ) = xN (d1 (t)) − Ke−rt N (d2 (t))
avec
d1 (t) =
√
1
x
1
√ (ln( + σ 2 t + rt), d2 (t) = d1 − σ t
K
2
σ t
En appliquant la propriété de Markov, on en déduit
E(e−r(t−s) (St − K)+ |Fs ) = xN (d1 (t − s)) − Ke−r(t−s) N (d2 (t − s)) .
Exercice 2.7.2 : Nous présentons le calcul pour deux dates. Il s’agit de calculer l’espérance de
(ST − St1 )+ 11St1 <K + (ST − K)+ 11K<St1
On utilise la formule de BS.
E[(ST − St1 )+ 11St1 <K ]
=
E((ST − St+1 |Ft1 ) =
=
avec
d1 =
Il vient
E[11St1 <K E((ST − St+1 |Ft1 )]
E((ST − St+1 |§t1 )
St1 N (d1 ) − St1 e−r(T −t1 ) N (d2 )
1
1
√
( σ 2 (T − t1 ) + r(T − t1 ))
σ T − t1 2
E[(ST − St+1 11St1 <K = aE(St1 11St1 <K
avec
a = N (d1 ) − N (d2 )e−r(T −t1 )
E[(ST − K)+ 11{K<St1 } ] = E[11{K<St1 } (St1 N (d∗1 ) − Ke−r(T −t1 ) N (d∗2 )
d∗1 =
St
1
1
√
(ln( 1 + σ 2 (T − t1 ) + r(T − t1 ))
K
2
σ T − t1
112
Itô. Corrigés
Chapter 3
Intégrale d’Itô, Corrigés
3.1
Intégrale de Wiener
Rt
Rt
Exercice 3.1.1 : On a tBt = 0 sdBs + 0 Bs ds (en utilisant la formule d’intégration par parties)
et E(Yt ) = 0, E(Ys Yt ) = ts(t ∧ s). Le processus Y est un processus gaussien (c’était d’ailleurs
évident par définition de Y ). On peut aussi utiliser la formule d’Itô (voir plus loin) qui conduit à
dYt = tdBt + Bt dt.
Z
t
Rt
sin2 s ds < ∞, pour tout t. Le
R s∧t
processus X est gaussien d’espérance nulle et de covariance E(Xs Xt ) = 0 sin2 u du. Il vient alors
1
E(Xt Xs ) = s∧t
2 − 4 sin 2(s ∧ t).
Le processus X est une martingale, d’où, pour s < t, on a E(Xt |Fs ) = Xs . La dernière égalité
résulte d’une IP.
Exercice 3.1.2 : La v.a. Xt =
(sin s) dBs est définie, car
0
Z
0
t
Rt
(tan s) dBs est définie, car 0 tan2 s ds < ∞ pour t < π2 . Le
0
R s∧t
processus Y est gaussien, centré de covariance E(Yt Ys ) = 0 tan2 u du = tan(s ∧ t) − (s ∧ t).
Le processus Y est une martingale.
Exercice 3.1.4 : La v.a. Yt =
Exercice 3.1.5 : Soit
Z
t
Xt = (1 − t)
0
dBs
;0≤t<1
1−s
Z
En appliquant le Lemme d’Itô (ou une I.P.) à f (t, y) = (1 − t)y et Yt =
Z t
dBt
dBs
il vient dXt = (−dt)
+ (1 − t)
, d’où
1
−
s
1
−t
0
(
Xt
dt + dBt ; 0 ≤ t < 1
dXt =
t−1
X0 = 0
Z
0
t
t
dBt
dBs
(donc dYt =
)
1−s
1−t
dBs
est une intégrale de
1
−s
0
Wiener, et on a E(Xt ) = 0 et la covariance de X est donnée par, pour s < t
Z t
Z s
Z s
dBu
dBu
du
E(Xs Xt ) = (1 − t)(1 − s)E(
) = (1 − t)(1 − s)
= (1 − t)s
2
0 1−u 0 1−u
0 (1 − u)
On admet l’unicité de la solution. Le processus X est gaussien car
113
114
Itô. Corrigés
En particulier E(Xt2 ) = t(1 − t) d’où Xt tend vers 0 quand t tend vers 1. Le processus X est un
pont Brownien.
Z t
Exercice 3.1.6 : Formule évidente en écrivant Bt =
dBs et en utilisant l’isométrie.
Z
Z
t2
0
t2
(Bt − Bt1 ) dt|Ft1 ) =
E((Bt − Bt1 )|Ft1 ) , dt = 0. Par intégration par
Exercice 3.1.7 : E(
t1
t1
Z t2
Z t2
Z t2
parties
Bt − Bt1 ) dt = t2 (Bt2 − Bt1 ) −
tdBt =
(t2 − t)dBt On en déduit que la variance
t1
t1
t1
Z t2
cherchée est
(t2 − t)2 dt.
t1
3.2
Formule d’Itô
Exercice 3.2.1 : 1. Soit Xt = Bt2 . On a, en posant f (x) = x2
1
dXt = f 0 (Bt )dBt + f 00 (Bt ) dt = 2Bt dBt + dt .
2
2. Soit Xt = t + exp Bt . En posant f (t, x) = t + ex , on a
dXt = dt + exp Bt dBt +
1
exp Bt dt .
2
3. Soit Xt = Bt3 − 3tBt . En posant f (t, x) = x3 − 3tx on obtient
1
dXt = 3Bt2 dBt − 3tdBt − 3Bt dt + 3 2Bt dBt dBt = (3Bt2 − 3t)dBt .
2
On retrouve le caractère martingale de X établi au chapitre précédent.
Rt
Rt
Rs
Exercice 3.2.2 : Soit Xt = exp 0 a(s) ds et Yt = Y0 + 0 [b(s) exp(− 0 a(u)du) dBs , où a et b sont
Rt
des fonctions déterministes. En utilisant la notation différentielle dXt = a(t) exp 0 a(s) ds dt et
Rt
˙ t = 0. On pose Zt = Xt Yt . Par la formule d’Itô, on a
dYt = b(t) exp(− 0 a(u)du) dBt , d’où dXt dY
dZt = Xt dYt + Yt dXt = b(t) dBt + a(t)Xt Yt dt
soit dZt = a(t)Zt dt + b(t)dBt . Le processus (Zt exp −
locale.
Rt
0
a(s) ds = Yt ; t ≥ 0) est une martingale
Exercice 3.2.3 : La formule d’Itô donne (nous omettons les indices t
dY
=
=
X1 X2 dt + t(X1 dX2 + X2 dX1 + dhX1 , X2 i
X1 X2 dt + t(X2 f (t) + σ1 σ2 )dt + t(X1 σ2 + X2 σ1 )dB
Exercice 3.1.3 : La formule d’Itô appliquée à sin Bt donne
Z
Z t
1 t
sin Bs ds,
sin Bt = 0 +
cos Bs dBs −
2 0
0
Rt
Rt
d’où Yt = 0 cos Bs dBs . C’est une martingale, car E( 0 cos2 Bs ds) < ∞, pour tout t. On a
Rt
E(Yt ) = 0 et var Yt = E( 0 cos2 Bs ds).
2009-10
115
Exercice 3.2.4 : En appliquant la formule d’Itô, on obtient
d(Xt2 + Yt2 ) = 2Xt dXt + 2Yt dYt + dhXit + dhY it = 2Xt Yt dBt − 2xt Yt dBt + (Xt2 + Yt2 )dt
En posant Zt = Xt2 +Yt2 on montre que le processus Z vérifie dZt = Zt dt ce qui s’intègre en Zt = zet .
Z
Exercice 3.2.5 : Il est évident que dZt = Yt dBt . On calcule facilement
E(Ys2 )
L’intégrale stochastique est une martingale car
Z t
Z t
E(
Ys2 ds) =
E(Ys2 )ds < ∞
0
et E(Zt ) =
0, E(Zt2 )
= E(
=
t
e2s ds.
0
0
Rt
Y 2 ds).
0 s
Exercice 3.2.6 : Soit dXt = a(Kt − Xt ) dt + σdBt . On voudrait que Xt = f (Kt ). La formule d’Itô
appliquée à f (Kt ) donne
1
dXt = f 0 (Xt )dKt + f 00 (Kt )σ 2 dt
2
soit
1
dXt = (f 0 (Kt )b + f 00 (Kt )σ 2 ) dt + f 0 (Kt )σdBt
2
Si on identifie les deux drifts, on obtient
1
a(Kt − f (Kt )) = f 0 (Kt )b + f 00 (Kt )σ 2
2
d’où f est solution de
1 2 00
σ f (x) + bf 0 (x) + af (x) = ax .
2
On résout cette EDO et on montre que f est de la forme
b
αeλ1 x + βeλ2 x + (x − )
a
avec λ1 et λ2 solutions de 21 σ 2 λ2 + bλ + a = 0.
Exercice 3.2.7 : Soit Xt =
Rt
0
σ(s) dBs −
1
2
Rt
0
σ 2 (s) ds. On a
1
dXt = σ(t) dBt − σ 2 (t) dt.
2
Soit Yt = exp Xt . On applique la formule d’Itô avec f (x) = ex .
dYt
=
=
=
1
exp(Xt ) σ 2 (t) dt
2
1
1
Yt (− σ 2 (t) dt + σ(t)dBt ) + Yt σ 2 (t) dt
2
2
Yt σ(t) dBt .
exp(Xt ) dXt +
Le processus Y est une martingale locale. C’est une martingale si
Z t
2 2
E
Yt σ (t) dt < ∞ .
0
Ce critère n’est pas très bon, nous en verrons d’autres par la suite.
Si σ est une constante, Y est un brownien géométrique avec drift nul. En particulier,
Yt = exp(σBt −
σ2
t)
2
116
Itô. Corrigés
est une (vraie) martingale:
Vérifions à titre d’exercice dans ce cas les conditions d’intégrabilité:
1
Yt = exp Xt = exp(σBt − σ 2 t)
2
d’où
E(|Yt |) = E(Yt ) = E(exp(σBt −
E(Yt2 )
σ2
1
t)) = √
2
2πt
Z
∞
1
2
x2
eσx− 2 σ t e− 2t dx = 1
−∞
2
= E(exp(2σBt − σ t)) = exp(σ 2 t) .
En particulier, si σ = 1 le processus exp( Bt − 2t ) est une martingale.
Soit Zt =
1
Yt .
Pour calculer dZt , on peut utiliser la formule d’Itô
dZt = −
Yt σ(t)
1 2Yt2 σ 2 (t)
dBt +
dt = Zt (−σ(t)dBt + σ 2 (t)dt)
2
Yt
2
Yt3
ce qui va s’écrire
Z
Zt = Z0 exp(−
0
t
1
σ(s)dBs +
2
Z
t
σ 2 (s) ds)
0
formule que l’on peut obtenir directement en inversant l’exponentielle.
Exercice 3.2.8 : Par simple application de la formule d’Itô
dZt = (aZt + b)dt + cZt dBt
Exercice 3.2.9 : Dans le cas h = 0, on a
1
St = S0 e(r−q)t eσBt − 2 σ
1
2
hs ds
=
2
t
= e(r−q)t Mt .
Donc Mt = M0 eσBt − 2 σ t est une martingale positive, d’espérance 1 et on peut l’utiliser comme
bt = Bt − σt est un MB.
densité de RN. Sous Q, le processus B
Dans le cas général
Rt
1 2
St = S0 e(r−q)t e 0 hs ds eσBt − 2 σ t .
On en déduit e−
Rt
0
e−rT E(e−
RT
0
1
−(r−q)t
.
St Mt e
h(Ss )ds
Donc
Ψ(ST )) = e−rT E(
1
1
MT e−(r−q)T Ψ(ST )) = e−qT EQ ( Ψ(ST )) .
ST
ST
On se place dans le cas ht = St−p et on pose Zt = Stp . Le lemme d’Itô conduit à
dZt
1
pStp σdBt + (r − q)pStp dt + pdt + p(p − 1)Stp−2 St2 σ 2 dt
2
1
= pZt σdBt + (r − q)p + p(p − 1)σ 2 Zt + p dt
2
= (aZt + b)dt + cZt dBt
=
Le processus f (Zt ) est une martingale locale si
1
f 0 (z)(az + b) + f 00 (z)c2 z 2 = 0 .
2
On pose g = f 0 . L’équation
1
g(z)(az + b) + g 0 c2 z 2 = 0
2
2009-10
117
2
−1/c
a pour solution g(z) = α exp( c2b
. Les fonctions f recherchées (ce que l’on appelle les fonctions
2 z )z
d’échelle) sont les primitives de g.
Exercice 3.2.10 : Le processus Z est une martingale locale car dZt = cXt Zt dBt . On a
dUt
Z
soit Ut = U0 + 2
Z
t
2Xt dXt + dhXit
2Xt (a − bXt )dt + 2Xt dBt + dt
t
Xs dBs +
0
=
=
(2Xs (a − bXs ) + 1)ds On en déduit
0
1 2
(X − X02 − t) =
2 t
Z
Z
t
Z
t
Xs dBs + a
t
Xs ds − b
0
0
0
Xs2 ds
Exercice 3.2.11 : Pour montrer que Z est une martingale locale, on calcule dZ et on vérifie que
1
x2
. Il en résulte que
son drift est nul. On a Zt = f (t, Bt ) avec f (t, x) = √
exp −
2(1 − t)
1−t
dZt = −
Bt
Bt2
dBt
exp −
3/2
2(1 − t)
(1 − t)
Le processus (Zt , t < 1) est une martingale locale. C’est une vraie martingale si pour tout T ≤ 1
Z
T
E[
0
Bt2
Bt2
exp
−
dt] < ∞
(1 − t)3
(1 − t)
Z
T
Le terme de gauche est majoré par E[
0
Bt2
dt] =
(1 − t)3
Z
T
0
t
dt < ∞.
(1 − t)3
a
Exercice 3.2.12 : Soit Zt = (Lt ) exp(−Γ(a)t). Alors, en utilisant que
1
Lt = eθBt − 2 θ
2
t
implique
1
Lat = eaφBt − 2 aφ
2
t
1
= eaφBt − 2 a
2
φ2 t
1
e2φ
2
(a2 −a)
on obtient
dZt = dMt + e−Γ(a)t (Lt )a (−Γ(a) + a(a − 1)φ)
où M est une martingale.
Le processus Z est une martingale pour Γ(a) = a(a − 1)φ. Exercice 3.2.13 : Il est facile d’établir
que
dYt = −Yt [(2Xt at + σt2 (1 + 2Xt2 ))dt + 2Xt σt dBt ]
et, en utilisant que Xt = 0 et Yt = 1 on obtient 0 = −σt2 dt.
Exercice 3.2.21 : La fonction d’échelle de Xt = exp(Bt + νt) est s(x) = x−2ν . Le processus
Z t
croissant de s(X) est At =
(s0 σ)2 (Xs )ds.
0
Exercice 3.2.25 : On obtient facilement
b1−t + Bt )|Ft ) = ψ(t, Bt )
E(f (B1 )|Ft ) = E(f (B1 − Bt + Bt )|Ft ) = E(f (B
avec
ψ(t, x) = E(f (x + B1−t )) .
(3.1)
118
Itô. Corrigés
D autre part, la formule d’Itô et la propriété de martingale de ψ(t, Bt ) conduisent à ψ(t, Bt ) =
Z t
E(f (B1 )) +
∂x ψ(s, Bs )dBs . On écrit (grace à 3.1)
0
∂x ψ(t, x) = E(f 0 (x + B1−t ))
et un raisonnement analogue au précédent montre que si on pose ϕ(t, x) = E(f 0 (x + B1−t )) on
obtient
ϕ(t, Bt ) = E(f 0 (B1 )|Ft )
3.3
Cas multidimensionnel
Exercice 3.3.1 : De façon évidente, on a
dS3 (t) =
1
1
[dS1 (t) + dS2 (t)] = [r(S1 (t) + S2 (t)] dt + σ1 S1 (t)dB1 (t) + σ2 S2 (t)dB2 (t) .
2
2
On peut remarquer que
q
σ12 S12 (t) + σ22 S22 (t) dB 3 (t) = (σ1 S1 (t)dB1 (t) + σ2 S2 (t)dB2 (t))
définit un Brownien B3 qui permet d’écrire
dS3 (t) = r S3 (t)dt + σ(t)S3 (t)dBt3
√
σ 2 S 2 (t)+σ 2 S 2 (t)
1 1
2 2
où σ(t) =
est un processus.
S1 (t)+S2 (t)
En utilisant le lemme d’Itô, on obtient
1
σ1
σ2
dS4 (t) = S4 (t)(r dt − (σ12 + σ22 ) dt + dB1 (t) + dB2 (t)) ,
8
2
2
ce que l’on peut écrire
1
dS4 (t) = S4 (t)(r dt − (σ12 + σ22 ) dt + σdB4 (t)) .
8
Pour vérifier que B3 et B4 sont des browniens, on peut procéder de différentes façons (voir aussi les
exercices sur le Brownien)
a. Bi (t+s)−Bi (t) a même loi que Bi (s), cette loi est N (0, s) et les accroissements sont indépendants
b. Bi et (Bi2 (t) − t, t ≥ 0) sont des martingales et Bi est un processus continu
2
c. pour tout λ, le processus exp(λBi (t) − λ2 t) est une martingale.
3.4
Compléments
Exercice 3.4.1 : En utilisant le théorème de Fubini pour les intégrales doubles
Z x
Z z
Z x
Z x
Z x
F (x) =
dz
dyf (y) =
dyf (y)
dz =
dyf (y)(x − y)+
−∞
−∞
−∞
y
Par dérivation par rapport à la borne supérieure
Z x
Z
0
F (x) =
dyf (y) =
−∞
−∞
∞
−∞
f (y)11x>y dy
2009-10
119
Le lemme d’Itô conduit alors au résultat. La formule finale s’écrit aussi
Z t
Z ∞
f (Bs )ds = 2
LB (t, y)f (y)dy
0
avec LB (t, y) =
−∞
Z t
(Bt − y)+ − (B0 − y)+ −
11Bs >y dBs et est connue sous le nom formule de
0
temps d’occupation. Le processus LB (·, y) est le temps local de B au point y entre 0 et t. La
difficulté est de vérifier que le processus L(·, y) est un processus croissant.
Z t
Exercice 3.4.2 : On a, en exprimant Xt comme le produit de exp B1 (t) et de Ut =
exp[−B1 (s)] dB2 (s)
0
qui vérifie dUt = exp[−B1 (t)] dB2 (t)
dXt
= exp B1 (t)(exp −B1 (t)) dB2 (t) + Ut (exp[B1 (t)]dB1 (t) +
1
= dB2 (t) + Xt dB1 (t) + Xt dt
2
1
exp[B1 (t)]dt)
2
1
1
Soit f (x) = sinh x, alors, f 0 (x) = (ex + e−x ) = cosh x et f 00 (x) = (ex − e−x ) = sinh x. O applique
2
2
le lemme d’Itô:
q
1
1
dZt = cosh(B1 (t)) dB1 (t) + sinh(B1 (t)) dt = 1 + Zt2 dB1 (t) + Zt dt
2
2
Z t
def
Mt = B2 (t) +
Xs dB1 (s) est une martingale locale comme somme de deux martingales locales.
0
Z t
Z t
p
Son crochet est t +
Xs2 ds =
(1 + Xs2 )ds, d’où γs = 1 + Xs2 . En regroupant les résultats
0
Z tp
Z t0
Z tp
Z
1
1 t
Xt =
Xt dt et Zt =
Zs ds. On obtient donc
1 + Xs2 dB3 (t) +
1 + Zs2 dB1 (s) +
2 0
2 0
0
0
l’égalité en loi de X et de Z.
Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et le lemme d’Itô conduit à
2 a − Bt
(a − Bt )2
dZt = 11St <a √ √
exp −
dBt .
2
2π T − t
3.5
Brownien géométrique et extensions
Exercice 3.5.2 : Soit dSt = St (b dt + σ dBt ) un brownien géométrique et Set = e−bt St . La formule
d’intégration par parties montre que
d(Set ) = e−bt dSt − be−bt St dt = e−bt σSt dBt = Set σdBt .
D’après les exercices précédents,
1
Set = Se0 exp(σBt − σ 2 t)
2
et Se est une martingale. Il en résulte
1
St = S0 exp((b − σ 2 )t + σBt )
2
ou encore
1
St = Ss exp((b − σ 2 )(t − s) + σ(Bt − Bs )), s ≤ t
2
120
Itô. Corrigés
On obtient
E(St ) = ebt E(Set ) = ebt S0
et
E(St |Fs ) = E(ebt Set |Fs ) = ebt Ses = eb(t−s) Ss
Le calcul de E exp((b − 12 σ 2 )(t − s) + σ(Bt − Bs ))|Fs se fait également à partir de celui de E(exp(σ(Bt −
Bs ))|Fs ) = E(exp(σ(Bt − Bs ))) pour lequel il suffit d’utiliser la transformée de Laplace de la v.a.
gaussienne Bt − Bs . On obtient
E(St |Fs ) = exp(b(t − s))Ss .
Si Zt = (S̃t )−1 , on a dZt = Zt ((σ 2 − b) dt − σdBt ).
Ces calculs se généralisent au cas de coefficients aléatoires. Soit dSt = St (bt dt + σt dBt ) et
Rt
Rt
Rt
Yt = St exp(− 0 bs ds). On a d(exp(− 0 bs ds) = bt exp(− 0 bs ds)dt. Le processus Y vérifie
Z
Z
t
bs ds)dSt − St bt exp(−
dYt = exp(−
0
Z
t
t
bs ds)dt = exp(−
0
bs ds)St σt dBt = Yt σt dBt
0
et est une martingale locale.
La solution de dLt = −Lt θt dBt est une martingale locale, qui s’écrit
Z t
Z
1 t 2
Lt = L0 exp(−
θs dBs −
θ ds).
2 0 s
0
On pose Yt = St Lt . On a
dYt = St dLt + Lt dSt + d < S, L >t .
Par définition dhS, Lit = −St σt Lt θt dt, d’où
dYt = Yt ((bt − θt σt ) dt + σt dBt ) .
t
. Il vient
En finance, le changement de probailité le plus utilis{e correspond au cas θt = − r(t)−b
σt
alors
dYt = Yt (r(t) dt + σt dBt ) .
Rt
Soit Rt = exp(− 0 r(s) ds). Le processus Y R = LRS est une martingale locale qui vérifie d(LRS) =
LRSσdB.
Exercice 3.5.3 : Soit
et At =
R
1 t
t
0
dSt = St (rdt + σdBt )
ln Ss ds. On a St = S0 exp(σBt − 21 σ 2 t + rt) et
ln St = ln Ss + σ(Bt − Bs ) + (r −
σ2
)(t − s)
2
Le processus ln S est un processus gaussien, d’où At est une variable gaussienne.
RT
Soit G(t, T ) = T1 t (Bs − Bt ) ds. Soit t fixé. Le processus (Bs − Bt , s ≥ t) est gaussien, d’où G(t, T )
est une variable gaussienne. Le processus (Bs − Bt , s ≥ t) est indépendant de Ft donc G(t, T ) aussi,
RT
d’où E(G(t, T )|Ft ) = T1 t E(Bs − Bt ) ds = 0.
Var (G(t, T )|Ft ) = E(G2 (t, T )) =
1
T2
Z
T
Z
T
E((Bs − Bt )(Bu − Bt ))ds du .
t
t
2009-10
121
E((Bs − Bt )(Bu − Bt )) = (s ∧ u) − t. Tous calculs faits
1 1 3 1 3
( T − t + tT (t − T ))
T2 3
3
R
RT
t
ln Ss ds + t ln Ss ds et en remarquant que
0
Var (G(t, T )|Ft ) =
En écrivant AT =
1
T
Z
T
ln Ss ds = (T − t) ln St +
t
on obtient
AT =
1 r − σ2
(T − t)2 + σG(t, T )
2 2
t
t
1
σ2
At + (1 − )[ln St + (r −
(T − t)] + σG(t, T ).
T
T
2
2
Exercice 3.5.5 : Soit Set = e−bt St . On a vu déja plusieurs fois que Set est une martingale (par
exemple vérifier, en utilisant le lemme d’Itô, que dSet = Set σdBt ).
Soit Xt défini par
Z
e−bT T
e−bt Xt = E[
Su du |Ft ] .
h
T −h
On a, XT = VT et si t ≤ T − h
e−bt Xt = e−bT
1
h
Z
T
E(Su |Ft ) du
T −h
soit
e−bt Xt = St e−bt
et si T − h ≤ t ≤ T
e−bt Xt = e−bT
Z
T
E(Su |Ft ) du
T −h
Z
Z
1 T
e−bT t
1 − e−b(T −t)
=e
E(Su |Ft ) du +
E(Su |Ft ) du =
Su du + St e−bt
.
h t
h
bh
T −h
T −h
σSt
1 − e−bh
1 − e−b(T −t)
dXt
= bdt +
1{t<T −h}
+ 1{T −h<t<T }
dBt
Xt
Xt
bh
bh
St 1 − e−b(T −t)
= bdt + σ 1t<T −h + 1T −h<t<T
dBt .
Xt
bh
Rt
Exercice 3.5.6: Soit Zt = e−rt St + 0 δ(s)e−rs Ss ds. On a alors
−bT
1
h
Z
1
h
1 − e−bh
bh
t
dZt
=
−re−rt St dt + e−rt dSt + δt e−rt St dt
=
St e−rt σdBt
Le processus Z est une martingale locale. On peut expliciter S qui est la solution d’une équation
du type dSt = St (a(t)dt + σdBt ) par
St = S0 exp(rt − ∆(t) + σBt )
avec ∆(t) =
Rt
0
δ(s)ds. En écrivant
1
St = S0 exp(rt − ∆(t)) exp(σBt − σ 2 t)
2
122
Itô. Corrigés
1
et en utilisant que exp(σBt − σ 2 t) est une martingale d’éspérance 1, on obtient
2
E(St ) = S0 exp(rt − ∆(t)) .
On montre que S est de carré intégrable : en effet
1
1
St2 = S02 exp(2rt − 2∆(t) + 2σBt ) = S02 exp(2rt − 2∆(t) + (2σ)2 t) exp(2σBt − (2σ)2 t)
2
2
1
et l’on sait que exp(2σBt − (2σ)2 t) est une martingale égale à 1 en t = 0, d’où
2
1
E(St2 ) = S02 exp(2rt − 2∆(t) + (2σ)2 t)
2
Rt
et E( 0 Ss2 e−2rs ds) < ∞, ce qui établit le caractère martingale de la martingale locale Z.
On sait que (formule de Black et Scholes en changeant de nom les paramètres) si dSt = St (adt +
σdBt ), S0 = x alors
E(e−aT (ST − K)+ )) = xN (d1 ) − Ke−aT N (d2 )
avec d1 =
1
√
σ T
ln(
x
1
) + σ 2 T ). Le calcul demandé est alors facile.
−aT
Ke
2
3.6
Le crochet
3.7
Finance
Exercice 3.7.6 : Par définition,
CtAm ≥ Ct = E(e−rT (ST − K)+ |Ft ) = E(e−rT g(ST )|Ft )
avec g(x) = (x − K)+ . En utilisant g(x) ≤ e−rt g(xart , pour tout t et l’inégalité de Jensen (liée à la
convexité de g) on obtient
e−ru g(Su ) ≤ e−rT g(Su er(T −u) )
= e−rT g(erT E(ST e−rT |Fu )) = e−rT g(E(erT ST e−rT |Fu ))
= e−rT g(E(ST |Fu )) ≤ E(e−rT g(ST )|Fu )) = Cu
P ≤ P Am et la propriété de sous martingale de (K − St e−rt ) permet de conclure.
Exercice 3.7.3 : On écrit la formule d’intégration par parties
d(
Xt
1
1
1
) = Xt d( ) + dXt + dhX, it .
Yt
Yt
Yt
Y
En particulier (on omet les indices t) (X = Y )
d(
X
1
1
1
) = d(1) = 0 = Xd( ) + dX + dhX, i .
X
X
X
X
Soit dV = π1 dS 1 + π 2 dS 2 . On a donc
dhV,
1
1
1
i = π1 dhS 1 , 1 i + π 2 dhS 2 , 1 i .
S1
S
S
Corrigés. 2009-10
123
Par suite, si V 1 = V /S 1 , on peut écrire la suite d’égalités (on utilise V = π 1 S 1 + π 2 S 2 )
dVt1
1
1
1
) + 1 dV + dhV, 1 i
1
S
S
S
1
1
1
1
1 1
2 2
= (π S + π S )d( 1 ) + 1 π1 dS 1 + π 2 dS 2 + π1 dhS 1 , 1 i + π 2 dhS 2 , 1 i
S
S
S
S
1
1
1
1
2
2
1
1
1 1
2
2 1
= π1 S d( 1 ) + 1 dS + dhS , 1 i + π S d( 1 ) + 1 dS + dhS , 1 i
S
S
S
S
S
S
2
S
= π 2 d( 1 )
S
= V d(
Exercice 3.7.14 : On remarque que
FT = σ(Bs , s ≤ t) = σ(Ss1 , s ≤ t) = σ(Ss2 , s ≤ t)
Le marché est complet: en effet, toute v.a. FT mesurable s’écrit comme valeur terminale d’un
portefeuille auto-finançant composé des actifs sans risque et de l’actif 1, donc le marché composé
d’un actif supplémentaire (avec les mêmes actifs contingents) est également complet. La seule
probabilité équivalente à la probabilité P telle que l’actif sans risque et l’actif 1, actualisés, sont des
1
µi − r
martingales est Q définie par dQ|Ft = exp(−θBt − θ2 t)dP |Ft avec θ =
. L’actif 2, actualisé
2
σ
n’est pas une martingale sous Q, il n’existe donc pas de probabilité équivalente à la probabilité P
telle que TOUS les actifs actualisés soient des martingales. Le marché présente des opportunités
d’arbitrage. Supposons µ1 > µ2 . Si, à la date 0, on achète une part de l’actif 1 et on vend une
part de l’actif 2 (capital initial investi nul) et que l’on maintient cette position jusqu’en T , on a un
portefeuille de valeur
1
ST1 − ST2 = exp(µ1 T ) − exp(µ2 T ) exp(σBT − σ 2 T ) > 0
2
ce qui constitue un arbitrage.
124
Exemples
Chapter 4
Exemples, Corrigés
4.1
Processus de Bessel
Exercice 4.1.3 : La formule d’Itô conduit à
dZt = −
Soit Vt =
1
1 2
1
1
1
1
dRt +
dhRit = − 2 dBt − 3 dt + 3 dt = − 2 dBt
Rt2
2 Rt3
Rt
Rt
Rt
Rt
sinh λRt
sinh λx
. On pose f (x) =
, d’où
λRt
λx
f 0 (x)
f 00 (x)
sinh λx cosh λx
+
λx2
x
sinh λx λ cosh λx cosh λx λ sinh λx
+2
−
−
+
.
λx3
x2
x2
x
=−
=
La formule d’intégration par parties conduit à
tλ2
λ2
dUt = e 2 [− Vt dt + dVt ]
2
−
et on vérifie que les termes en dt s’annulent.
Il suffit d’appliquer le théorème d’arrêt de Doob à la martingale U et au temps d’arrêt Tb (on
λ2 Tb
λ2 Tb sinh λb
)(
)) = 1, d’où E(exp(−
)) =
utilise que sinh x est born,ée sur [0, b]). On obtient E(exp(−
2
λb
2
λb
.
sinh λb
Exercice 4.1.4 :
Les deux résultats s’obtiennet en appliquant le lemme d’Itô
d(ln Rt ) =
1
1
1
1 1
1
1
dRt −
dRt dRt =
dBt −
dt +
dt =
dBt ,
Rt
2(Rt )2
Rt
Rt 2Rt
2(Rt )2
Rt
dRtν = νRtν−1 dRt +
ν(ν − 1) ν−2
1
ν(ν − 1) ν−2
Rt dRt dRt = νRtν−1 dBt + νRtν−1
dt +
Rt dt .
2
2Rt
2
= νRtν−1 dBt +
125
ν 2 ν−2
R
dt
2 t
126
Exemples
ν2
On pose Zt = exp(−
2
dZt
=
dLt
=
=
Z
ds
) et on applique le lemme d’Itô.
Rs2
0
Z
t
ds
ν2 1
)
=
Z
(−
) dt
t
2
2 Rt2
0 Rs
ν(ν − 1) ν−2
ν2 1 ν
ν−1
ν−1 1
ν
ν
Zt dRt + Rt dZt = Zt νRt dBt + νRt
dt +
Rt dt −
R dt
2Rt
2
2 Rt2 t
d exp(−
ν2
2
t
Zt νRtν−1 dBt
Exercice 4.1.5 :
dYt = 2
La formule d’Itô conduit á
et def
Sous Q B
= Bt + µ
p
Yt dBt + δdt
√
dZt = Zt (−µ Y )dBt
Z tp
√
et + (δ − 2µYt )dt.
Yu du est un MB et dYt = 2 Yt dB
0
Exercice 4.2.2 : Par application de la formule d’Itô à Zt = Bt2
p
dZt = 2Bt dBt + dt = 2 Zt dBt + dt
on a alors
dZt = 2Bt dBt + 2Bt1 dBt1 + 2dt = p
2
q
(Bt )2 + (Bt1 )2 (Bt dBt + Bt1 dBt1 )
(Bt )2 + (Bt1 )2
p
= 2 Zt dBt3 + 2dt
Avec n Browniens on obtient µ = n.
def √
Si ρt = Rt , la formule d’Itô conduit à
1
(µ − 1)dt + dBt
2ρt
q
(µ)
(ν)
(µ)
(ν)
dXt = dRt + dRt = (µ + ν)dt + 2 Rt + Rt dZt
dρt =
où Z est un MB. On en déduit que la somme de deux Bessels carrés indépendants est un Bessel
carré.
Exercice 4.1.6 : Px (inf s≤t Xs ) = Px (Ta > t) et on connait la transformée de Laplace de Ta
λ2
E(ν) (exp − Ta ).
2
Xt∧τ a
(3)
Wx |Ft d’où pour a < x Px (φ(Ta )11Ta <∞ ) = Wx (φ(Ta ))
x
x
a
(3)
(3)
(3)
D’où Px (Ta > t) = Px (∞ > Ta > t) + (1 − xa ) et Px (∞ > Ta > t) = P0 (T(x−a) > t) =
x
√
a
P0 ((x − a) > |N | t).
x
Voir Borodin pour l autre cas
(3)
Dans le cas du BES(3) Px |Ft =
4.2
Processus de Bessel carré
p
(2)
Exercice 4.2.4 : Remarquer que E(R1 ) = E ξ12 + ξ22 .
Corrigés. 2009-10
127
Exercice 4.2.5 : On part de
W(ν) |Ft = exp(νBt −
ν2
t)W|Ft
2
loi
On sait que (Rt ; t ≥ 0) = x exp(BCt + νCt )
P(ν) (F (Rs ), s ≤ t) = W(ν) (F(xBu ), u ≤ Ct )
W (ν) (F (xBu ), u ≤ Ct ) = W(exp(BCt +νCt )F(xBu ), u ≤ Ct ) = P(0) (
car sous P(0)
4.3
Rt ν
ν2
) exp −
F(Rs ), s ≤ t)
x
2Ct
exp νBCt = (exp BCt )ν , Rt = x exp BCt
Autres processus
Exercice 4.3.3 : La première question résulte d’une application du lemme d’Itô: f (t, Xt ) est une
martingale locale si Gf (t, Xt ) = 0 avec Gf (t, x) = ∂t f + x(1 − x)(µ − x)∂x f + 12 x2 (1 − x)2 ∂xx f . Dire
que h0 (X) est une martingale locale revient à vérifier que h0 est solution de x(1 − x)(µ − x)h0 +
1 2
2 00
2 x (1 − x) h = 0. Montrer que h1 (Xt ) − t est une martingale locale revient à vérifier que h1
satisfait
1
−1 + x(1 − x)(µ − x)h0 + x2 (1 − x)2 h00 = 0 .
2
En appliquant le théorème d’arêt de Doob (la fonction h0 est bornée sur [a, b], la martingale locale
h0 (Xt∧τ ) est uniformément intégrable) E(h0 (Xτ )) = h0 (x) soit
h0 (x) = E(h0 (Xτ )) = h0 (a)P(Xτ = a) + h0 (b)P(Xτ = b) = h0 (a)P(Xτ = a) + h0 (b)(1 − P(Xτ = a)) .
On applique ensuite le théorème de Doob à h1 (Xt ) − t
h1 (x)
4.4
= E[(h1 (a) − τ )11Xτ =a )] + E[(h1 (b) − τ )11Xτ =b )]
= h1 (a)P(Xτ = a) + h1 (b)(1 − P(Xτ = a)) − E(τ )
Des Calculs
Exercice 4.4.2 : For t ≤ 1 and a > 0, the events {Yt ≤ a} and {Ta ≥ t} are equal, where
Ta = inf{t ≥ 0, Xt = a}.
e = X/σ and Tα (X)
e = inf{t ≥ 0, X
et = α}. Then, Ta = Tα (X)
e
Then, P(Yt ≤ a) = P(Ta ≥ t). Let X
where α = a/σ.
It is well known (the proof follows, from example from inversion of Laplace transform) that
2
e ∈ dt) = √|α| exp − (α − µ̃t)
P0 (Tα (X)
2t
2πt3
where µ̃ = µ/σ (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor, second edition, page
320, ex. 1.21).
Therefore, you get the cumulative function of Y for t ≤ 1.
Let us denote Φ(t, a, µ, σ) = P(sup0≤s≤t (µs + σBs ) ≤ a).
Suppose now that 2 > t > 1. Then
et−1
Xt = X1 + µ1 (t − 1) + σ1 (Bt − B1 ) = X1 + µ1 (t − 1) + σ1 B
128
Equa. Diff.
where B̃ is a BM independent of σ(Bs , s ≤ 1).
Then,
es−1 ) ≤ a
= P Y1 ≤ a , max (X1 + µ1 (s − 1) + σ1 B
1≤s≤t
es−1 ) ≤ a)|F1
= P Y1 ≤ a P max (X1 + µ1 (s − 1) + σ1 B
P(Yt ≤ a)
1≤s≤t
= E(11(Y1 ≤a) Ψ(t − 1, X1 ))
where
es ) ≤ a) = E( max (µ1 s + σ1 B
es ) ≤ a − x)
Ψ(u, x) = E( max (x + µ1 s + σ1 B
0≤s≤u
0≤s≤u
and this quantity is known from step 1: Ψ(u, x) = Φ(u, a − x, µ1 , σ1 ).
Then, it remains to know the law of the pair Y1 , X1 . This is the reflection principle in the case
µ = 0 (Revuz Yor, page 105 ex. 3.14) and the general result follows from Girsanov’s theorem. For
example Borodin-Salminen, page 198, formula 1.18 in the case where σ = 1
P(Y1 ≥ y, X1 ∈ dz) = √
1
µ2 t (|z − y| + y)2
exp[µy −
−
] dz
2
2t
2πt
References:
Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts and Formulae, Birkhäuser,
1996.
Exercice 4.4.3 : On écrit dS = D(rdt + σt dB̃t ). Si C̃ est la valeur de C actualisé, alors dC =
CmσdB̃t . Il suffit de résoudre et d’identifier
m
Z
Z
St
m−1 t
1 t 2
Ct = C0
exp[−
[
rs ds +
σ ds]]
S0
m
2 0 s
0
Exercice 4.4.4 : On remarque que Yt = eλt Xt est un MB changé de temps: Yt = BΛ(t) avec
Z t
e2λt − 1
2
Λ(t) = σ
e2λu du = σ 2
. Par suite τ = inf{t : |Yt | > eλy g(t)}. D’où la suite d’égalités
2λ
0
{τ > t}
= {|BΛ(u) | < eλu g(u), ∀Λ(u) < Λ(t)}
= {|Bv | < eλC(v) g(C(v)), ∀v < Λ(t)} = {τ ∗ > Λ(t)}
avec
τ ∗ = inf{t : |Bt | > eλC(t) g(C(t))}
Chapter 5
Equations différentielles
stochastiques, Corrigés
5.1
Equation Linéaire
Exercice 5.1.7 : L’équation a une solution unique car b(t, x) = a + αx et σ(t, x) = b + βx sont
lipschitziennes et ont une croissance linéaire. On a
Z
Z
t
Xt = x +
t
(a + αXs ) ds +
(b + βXs ) dBs
0
0
Rt
Rt
L’intégrale stochastique est une martingale car E( 0 (b + βXs )2 ds) ≤ E( 0 2(b2 + β 2 Xs2 ) ds) et la
solution de l’équation vérifie E(sups≤t Xs2 ) < ∞. D’où en prenant l’espérance de Xt et en posant
m(t) = E(Xt )
Z t
m(t) = x +
(a + αm(s)) ds .
0
0
La fonction m est dérivable et vérifie m (t) = a + αm(t). Compte tenu de la condition initiale
m(0) = x, la solution est
a
a
m(t) = (x + )eαt −
α
α
La formule d’Itô conduit à
d(Xt2 ) = 2Xt (a + αXt ) dt + 2Xt (b + βXt ) dBt + (b + βXt ) dt .
En admettant que l’intégrale stochastique est une martingale et en posant M (t) = E(Xt2 )
Z
M (t) = x2 + 2
Z
t
0
soit
la solution est
t
(am(s) + αM (s)) ds +
(b2 + β 2 M (s) + 2bβm(s)) ds
0
M 0 (t) − (2α + β 2 )M (t) = 2(a + bβ)m(t) + b2
M (0) = x2




M (t)
k(−α − β 2 )
c



C +k+c
=
=
=
=
2
Ce(2α+β )t + keαt + c
2(a + bβ)(x + αa )
1
(b2 − 2(a + bβ) αa ) 2α+β
2
2
x
129
130
Equa. Diff.
Exercice 5.1.3 : On a dYt = Yt (αdt + βdBt ) dont la solution est (cf brownien géométrique)
1
Yt = exp[(α − β 2 )t + βBt )]
2
On a (cf propriété de martingale du Brownien)
1
1
E(Yt |Fs ) = exp(αt)E(exp[− β 2 t + βBt ] |Fs ) = exp(αt) exp[− β 2 s + βBs ]
2
2
D’où, si α ≥ 0, on a E(Yt |Fs ) ≥ Ys . Le processus Y est une martingale si on a égalité soit si α = 0.
c. Le processus Y ne s’annule pas. Le processus Zt est un processus d’Itô car Yt−1 est de carré
intégrable (voir brownien géométrique) et
dZt = (a − bβ)Yt−1 dt + bYt−1 dBt
On a ainsi dhY, Zit = bYt−1 Yt β = bβ.
Soit Ut = Yt Zt . La formule d’Itô conduit à
dUt = (a − bβ) dt + b dBt + Ut (α dt + β dBt ) + bβ dt = (a + αUt ) dt + (b + βUt ) dBt
et comme U0 = x on a par unicité Xt = Ut .
Exercice 5.1.4: L’équation dXt = αXt dt + b dBt admet une solution unique. En posant Zt =
e−αt Xt on voit que dZt = e−αt dBt d’où
¯
Z t
Xt = eαt x + eαt
e−αs b dBs
0
Il en résulte que X est un processus gaussien de moyenne E(Xt ) = eαt x et de variance
V (Xt ) = b2 e2αt
1 − e−2αt def 2
= σ (t) .
2α
Si Yt = φ(Xt ), la formule d’Itô conduit à
1
dYt = φ0 (Xt )dXt + φ00 (Xt )b2 dt .
2
Dans le cas particulier de l’énoncé,
dYt = exp(−
soit
Z
Yt = b
α 2
X )(bdBt )
b2 t
t
exp(−
0
α 2
X )dBs
b2 s
Rt
2
C’est une martingale car E( 0 exp(− 2α
b2 Xs )ds) < ∞ (faire le calcul en utilisant ce qui suit) de carré
intégrable.
2
En utilisant le calcul de E(eλU ) quand U est une gaussienne, on trouve, en posant m(t) = eαt
1
2
E(eλXt ) = p
1 − 2λσ 2 (t)
et
2
E(eλXt |Fs ) = p
1
1 − 2λσ 2 (t − s)
exp
exp
λm2 (t)x2
= Φ(t, x)
1 − 2λσ 2 (t)
λm2 (t − s)Xs2
= Φ(t − s, Xs )
1 − 2λσ 2 (t − s)
Corrigés. 2009-10
131
Soit t fixé. Par définition, le processus d’Itô V défini par Vs = Φ(t − s, Xs ) est une martingale,
donc son drift est nul. On a donc
1
−∂1 Φ(t − s, x) + αx∂2 Φ(t − s, x) + b2 ∂22 Φ(t − s, x) = 0
2
1
∂1 Φ(u, x) + αx∂2 Φ(u, x) + b2 ∂22 Φ(u, x) = 0
2
En posant Ψ = ln Φ et en recherchant Ψ sous la forme
Ψ(t, x) = x2 a(t) + b(t)
on a (voir la forme de Φ) les conditions de l’énoncé sur les fonctions a et b.
Exercice 5.2.1 : Dans un premier temps, on pose Yt = eαt Xt . Ce processus vérifie
p
dYt = eαt (µ − γVt )dt) + eαt Vt dW1,t
Calculer ϕ(λ) = E(exp(λXT )) revient à calculer ψ(λ) = E(exp(λYT )). On a en effet ϕ(λ) = ψ(λeαT ).
Le calcul des espérances conditionnelles se réduit à un calcul d’espérance par la propriété de Markov.
On a
Z t
Z t
p
Yt = Y0 +
eαs (µ − γVs )ds +
eαs Vs dW1,s
0
0
On est donc ramené à calculer
Z t
Z t
p
αs
αs
A = E exp −γ
e Vs ds +
e
Vs dW1,s
0
0
En décorrélant W1,t , le terme sous l’exponentielle est
Z t
Z t
Z t
p
p
p
αs
αs
2
Vs W2,s + 1 − ρ
−γ
eαs Vs dWs
e Vs ds + ρ
e
0
0
0
En utilisant l’indépendance entre W et V
Z
t
A = E exp −γ
Z
αs
e Vs ds + ρ
0
t
p
e
Vs W2,s +
p
1 − ρ2
2
αs
0
Z
!!
t
e
2αs
Vs ds
0
Il reste un calcul du type espérance de l’exponentielle de
Z t
Z t
p
f (s)Vs ds +
g(s) Vs dW2,s
0
Cette expression sécrit
Z t
f (s)Vs ds +
0
=
=
Z
0
Z
t
t
F (s)Vs ds +
0
0
Z t
Z t
F (s)Vs ds + G(t)Vt − G(0)V0 −
G0 Vs ds
0
0
Z t
G(t)Vt +
H(s)Vs ds
Z
t
g(s)(dVs − k(θ − Vs )ds) =
G(s)dVs
0
0
ou f, g, F, G, H sont des fonctions déterministes. (remarque: pour un processus d’Ornstein Uhlenbeck, ce type de calcul est standard)
Exercice 5.1.9 : On pose Yt = eat Xt . On a
dYt = abeat dt + σeat/2
p
Yt dWt
132
Equa. Diff.
et on en déduit E(Yt ) = x + b(eat − 1) En utilisant
Z
Yt
Z t
p
abeas ds +
σeas/2 Ys dWs
0
0
Z t
p
E(Yt ) +
σeas/2 Ys dWs
=
t
x+
=
0
Z
t
on obtient Yt − E(Yt ) =
σeas/2
p
Ys dWs par suite
0
Z
t
V ar(Yt ) =
σ 2 eas E(Ys )ds
0
5.2
Processus affines
R
t
Exercice 5.2.2 : Si α et β existent, le processus Mt = eα(t)+β(t)St exp − 0 ψ(Ss )ds est une
martingale, donc E(MT |Ft ) = Mt ce qui conduit à
Z
E e
θST
T
exp −
!
!
ψ(Ss )ds |Ft
Z t
= eα(t)+β(t)St exp −
ψ(Ss )ds .
0
0
Rt
D’où le résultat en remarquant que exp(− 0 ψ(Ss )ds) est Ft -mesurable. Pour que M soit une
martingale, il faut que sa partie à variation bornée soit nulle. Il est facile de voir que
d(eα(t)+β(t)St ) = eα(t)+β(t)St (α0 + β 0 )dt + βdSt + β 2 σ(St )2 dt
Ce qui conduit à
α0 + β 0 St − ψ(St ) + βµ(St )dt + β 2 σ(St )2 = 0
soit
α0 + β 0 x − ψ(x) + β(µ0 + µ1 x) + β 2 (σ0 + σ1 x) = 0
Cette équation doit être vérifiée pour tout (t, x) d’où (cours élémentaire sur les ED)
α0 − ψ0 + βµ0 + β 2 σ0
β 0 − ψ1 + βµ1 + β 2 σ1
=
=
0
0
La seconde équation est une équation de Ricatti
5.3
Finance
Exercice 5.4.1 : La solution de
dSt = St (r dt + σ dBt )
vérifie, pour t ≤ u
σ2
Su = St exp r(u − t) + σ(Bu − Bt ) −
(u − t)
2
Le processus S est à valeurs positives (si S0 > 0)!et ne s’annule pas.
Z
1 T
1. Le processus Mt = E [
Su du − K]+ |Ft est une martingale.
T 0
(5.1)
Corrigés. 2009-10
133
+
2. En utilisant que s(a − b)+ = (sa
! − sb) si s > 0 et la Ft -mesurabilité de St , on obtient
Z T
1
K
Su
Mt = St E [
du − ]+ |Ft ce qui s’écrit de façon évidente
T 0 St
St
1
St E [
T
Z
T
t
Su
du − ζt ]+ |Ft
St
!
Z
1 t
avec ζt =
−
Su du), variable Ft -mesurable.
T 0
3. On rappelle que, si X est indépendante de G et Y est G-mesurable,
St−1 (K
E(f (X, Y )|G) = [E(f (X, y)]y=Y .
Les variables (
résulte
Su
, u ≥ t) sont indépendantes de Ft (utiliser (5.1)), et ζt est Ft mesurable. Il en
St
Mt = St Φ(t, ζt )
avec
Φ(t, x) = E
4. On obtient
dSt−1 = −
1
T
Z
t
T
!+
Su
du − x
.
St
1 2
σ2
r
σ
1
dSt +
d < S, S >t = (
− )dt − dBt .
2
3
St
2 St
St
St
St
on en déduit les égalités suivantes
Z
St
1 t
1
dt + (K −
Su du)dSt−1 = − dt + ζt (−σdBt − rdt + σ 2 dt)
T
T 0
T
d < ζ, ζ >t = ζt2 σ 2 dt
1
dΦ(t, ζt ) = Φ0t dt + Φ0x dζt + Φ”xx d < ζ, ζ >t = (...) dt − σζt Φ0x dBt
2
d < S, Φ >t = −St σ 2 ζt Φ0x
dζt
=
−St−1
La formule d’Itô appliquée à Mt est alors (écriture volontairement simplifiée)
dMt = ΦdS + SdΦ + dSdΦ
ce qui s’écrit
1
Φ(t, ζt )dSt + St [Φ0t (t, ζt )dt + Φ0x (t, ζt )dζt + Φxx ”(t, ζt )d < ζ, ζ >t ] + d < S, Φ >t
2
Soit
∂Φ
1
∂Φ 1 2 2 ∂ 2 Φ
− ( + rζ)
+ σ ζ
) dt + dNt
∂t
T
∂x
2
∂x2
où N est une martingale du type (...) dBt . Le processus M étant une martingale locale, sa partie
processus à variation finie est nulle, soit
dMt = St (rΦ +
0 = rΦ +
1
∂Φ 1 2 2 ∂ 2 Φ
∂Φ
− ( + rζ)
+ σ ζ
∂t
T
∂x
2
∂x2
Exercice 5.4.2 : Il est facile de montrer que
Z t
Z
1 t 2
St = S0 exp rt +
σ(s)dBs −
σ (s) ds
2 0
0
134
Girsanov.
est solution de l’équation proposée.
Z
t
2. POur t fixé,
σ(s)dBs est une variable gaussienne (intégrale de Wiener) centrée de variance
Z t
Z
1 t 2
σ 2 (s)ds. Il en résulte que
σ(s)dBs −
σ (s) ds est une variable gaussienne car d’espérance
2 0
0 Z
0Z
t
1 t 2
−
σ (s) ds et de variance
σ 2 (s)ds.
2 0
0
3. La formule de valorisation d’une option revient à calculer EQ (ST −K)+ . Dans le cas où ST = S0 eU
où U est une variable d’espérance rT et de variance V 2 = σ 2 T , on a
Z
t
0
C(0, x) = xN (d1 ) − Ke−rT N (d2 )
avec
x
V2
ln( ) + T r +
K
2
Z T
Il suffit donc de remplacer σ 2 T par Σ2 =
σ 2 (s)ds
1
d1 =
V
, d2 = d1 − V
0
C(0, x) = xN (d1 ) − Ke−rT N (d2 )
avec
5.4
1
d1 =
Σ
x
Σ2
ln( ) + T r +
, d2 = d1 − Σ
K
2
Equations différentielles
Exercice 5.5.4 : Nous vérifions que
Z
Xt = tN + (1 − t)
0
est solution de dXt = dBt +
t
1
dBs
1−s
N − Xt
dt. Par différentiation de (5.2)
1−t
Z t
1
dXt = N dt − 1
dBs + dBt
0 1−s
1
= N dt −
(Xt − tX1 )dt + dBt
1−t
1
(−Xt + N )dt
= dBt +
1−t
Le processus X est donc gaussien, centré, de covariance (s < t)
E(Xs Xt ) =
=
Z t
Z s
1
1
ts + (1 − t)(1 − s)E(
dBu
dBv
1
−
u
1
−
v
0
0
Z s
1
ts + (1 − t)(1 − s)
du = s
2
0 (1 − u)
(5.2)
Chapter 6
Girsanov, Corrigés
6.1
Résultats élémentaires
Exercice 6.1.2 : Par changement de probabilité, le processus H étant une martingale positive
d’espérance 1, en posant dQ = Ht dP, on définit une nouvelle probabilité Q et EP (HT ln HT ) =
EQ (ln HT ). Or,
Z t
Z
1 t 2
Ht = exp(−
θs dBs −
θ ds)
2 0 s
0
D’où
Z
EQ (ln HT ) = EQ (−
Z
0
t
1
θs dBs −
2
Z
t
0
θs2 ds)
t
Le processus B̃t = Bt +
θs ds est un Q mouvement Brownien, et
0
Z
−
0
t
1
θs dBs −
2
Z
0
t
Z
θs2 ds
t
=−
0
1
θs dB̃s +
2
Z
t
0
θs2 ds ,
d’où le résultat.
Z
Z t
Z
Z t
1 t 2
Exercice 6.1.4 : On a Γt = exp(
βs ds) exp(
γs dBs −
γ ds), d’où Γt exp(−
βs ds) est
2 0 s
0
0
0
βt
une martingale. L’écriture dΓt = Γt γt (dBt + dt) montre que sous Q défini par dQ = Lt dP, avec
γt
βt
βt
dLt = Lt dBt , le processus B̃t défini par dB̃t = dBt + dt est un mouvement Brownien.
γt
γt
Le processus Γ vérifiant dΓt = Γt γt dB̃t est une Q-martingale locale. On obtient facilement d(Γ−1
t )=
2
γ
−
β
t
t
dt) et le choix de R s’en suit.
−Γ−1
t γt (dBt −
γt
6.2
t
Crochet
1
Exercice 6.2.1 : Soit Z = N − < N, M > et Lt = exp(Mt − hM it ). On a d(ZL) = ZdL + LdZ +
2
dhZ, Li = mart + dhZ, Li − LdhM, N i = mart
Z t 0
h (Xs )
Exercice 6.2.2 : On vérifie que Zt = h(Xt )Mt −
dhM, Xi est une P-martingale.
0 h(Xs )
135
136
6.3
Girsanov.
Processus
Exercice 6.3.4 :
1. La question 1 a déja été traitée dans l’exercice ??.
2. On se place dans le cas d’un Brownien issu de a. Soit
Z T
Z
b2 T 2
b
dP = exp{−b
Bs dBs −
Bs ds}dP .
2 0
0
b
En
R t posant θs = −bBs et en appliquant Girsanov, on montre que sous P le processus Bt +
b 0 Bs ds est un brownien issu de a que l’on note Wt . L’égalité
Z t
Bt = −
bBs ds + Wt
0
qui s’écrit dBt = −bBt dt + dWt montre que le processus (Bt , t ≥ 0) est un processus
d’Ornstein-Uhlenbeck sous Pb . D’où Bt est une variable gaussienne sous Pb , d’espérance ae−bt
1 − e−2tb
.
et de variance
2b
Soit x = a2 . En utilisant que, sur Ft ,
Z
dP = exp{b
t
Bs dBs +
0
b2
2
Z
t
0
Bs2 ds}dPb
on a, pour tout Z, Ft -mesurable P-intégrable,
Z T
Z
b2 T 2
EP (Z) = Eb (Z exp{b
Bs dBs +
Bs ds})
2 0
0
d’où
EP (exp{−αBt2 −
Z
b2
2
t
0
Z
Bs2 ds}) = Eb (exp{−αBt2 + b
t
Bs dBs })
0
La formule d’Itô montre que
Z
t
Bs dBs =
0
1 2
(B − a2 − t)
2 t
(sous P et sous Pb ).
On obtient, en posant x = a2
EP (exp{−αBt2
b2
−
2
Z
0
t
b
Bs2 ds}) = Eb (exp{−αBt2 + (Bt2 − x − t)})
2
b
Sous P , Bt est une gaussienne. On applique le résultat de la question 1 et on trouve (calculs)
Z
1
b2 t 2
α
xb 1 + 2α
b coth bt
EP (exp{−αBt2 −
Bs ds}) = (cosh bt + 2 sinh bt)− 2 exp[−
]
2 0
b
2 coth bt + 2α
b
On note Φ(α, b) l’expression de droite.
Exercice 6.3.3 : Soit dXZt = −λXt dt + dBt un processus d’Ornstein-Uhlenbeck. Sous Pλ , X est
t
un Brownien car Xt = −λ
Xs ds + Bt . On a
0
EP (exp −
b2
2
Z
T
0
Xs2 ds) = EPλ (L−1
T exp −
b2
2
Z
0
T
Xs2 ds)
Corrigés. 2009-10
137
Z
=
EPλ
exp −λ
0
T
λ2
Xs dXs −
2
2
=
=
Z
T
0
λ + b2
λ
EPλ exp − (XT2 − T ) −
2
2
p
λT
λ
exp
Φ( , λ2 + b2 )
2
2
Xs2
Z
0
T
!!
Z
b2 T 2
ds −
Xs ds
2 0
!!
Xs2 ds
(On comparera cet exercice au précédent)
Exercice 6.3.5 : Soit S solution de
dSt = St (µ dt + σ dBt ) , S0 = s .
St = S0 exp(µt + σBt −
σ2
t).
2
1
1. Soit dQ = Lt dP avec Lt = exp(θBt − θ2 t). Le théorème de Girsanov montre que W est un
2
Q-mouvement Brownien.
σ2
t)
2
Le théorème de Girsanov montre que (B̃t = Wt − σt, t ≥ 0) est un P̃-mouvement brownien.
On a alors
dSt = St ((r + σ 2 ) dt + σ dB̃t )
2. Soit dP̃ = Zt dQ avec Zt = exp(σWt −
St
, t ≥ 0) est une Q-martingale, car Yt = Y0 exp(σWt −
Pt
d(St e−rt )
σ2
t) (ou parce que (Itô) dYt =
= Yt dWt .)
2
P0
Pt
σ2
Le processus Zt =
est une P̃-martingale car Zt = Z0 exp(−σ B̃t −
t)
St
2
R
t
4. Soit Ft = e−λt 0 Su du + sA où A, λ sont des constantes
Ft λt
Soit Ψt =
e . On a dΨt = (1 − rΨt ) dt − σΨt dB̃t
Pt
3. Soit Pt = P0 ert . Le processus (Yt =
Exercice 6.3.7 : Let BtY = Y t + Bt and F be a functional on C([0, t], R). Using the independance
between Y and B, and Cameron-Martin theorem, we get
Z
Y
E[F (Bs , s ≤ t)] = E[F (sY + Bs , s ≤ t)] = ν(dy)E[F (sy + Bs , s ≤ t)]
(6.1)
Z
y2
=
ν(dy)E[F (Bs , s ≤ t) exp(yBt − t)] = E[F (Bs ; s ≤ t)h(Bt , y)] (6.2)
2
h
= E (F (Xs , s ≤ t)]
(6.3)
Z
y2
where h(x, t) = ν(dy) exp(yx − t) and Ph |Ft = h(Bt , t)W |Ft . Therefore,
2
Z t
h0
h def
Bt = Bt −
ds x (Bs , s)
h
0
is a P h -martingale, more precisely a Ph Brownian motion and Bt is solution of
Z t
h0
Xt = Bth +
ds x (Xs , s)
h
0
138
Girsanov.
Z
h
Under P , B has the same law as B
Y
under P. Then,
that
h0x
E(Y |BtY ) =
h
BtY
eh +
=B
t
t
ds
0
h0x Y
(Bt , t). Let us remark
h
(BsY , s)
where BtY = σ(BsY , s ≤ t). On a
EQ (f (Y )F (BsY , s ≤ t)) =
=
=
1
2
EP (e−Y Bt − 2 Y t F (BsY , s ≤ t))
Z
1 2
ν(dy)f (y)EP (e−yBt − 2 y t F (Bs + ys, s ≤ t))
Z
ν(dy)f (y)E(F (Bs , s ≤ t)) = E(F (Bs , s ≤ t))EP (f (Y ))
et la loi de Y est la même sous P et sous Q.
Rt
Rt
Exercice gi:4 : On remarque que e−2Bt − 1 = −2 0 e−2Bs dBs + 2 0 e−2Bs ds
Z 1 t −2Bs 1 −4Bs
1
e
− e
ds
− e−2Bt − 1 +
4
2 0
4
Z
Z
Z 1 t −2Bs
1 t −2Bs
1 t −2Bs 1 −4Bs
=
e
dBs −
e
ds +
e
− e
ds
2 0
2 0
2 0
4
Z
Z
1 t −2Bs
1 t −4Bs
=
e
dBs −
e
ds
2 0
4 0
R
Rt
t
et on sait que exp 0 θs dBs − 12 0 θ2 ds est une martingale locale. On peut vérifier que la condition
R
b = B − 1 t e−2Bs ds est un MB.
de Novikov est satisfaite Sous Q, le processus B
2
6.4
Cas multidimensionnel
6.5
Temps d’arrêt
0
µ
µ2
µ
Xt
Exercice 6.5.1 : Soit dPµ = Lt dP où Lt = exp(− Bt − 2 t). Sous Pµ , (B̃t = Bt + t =
, t ≥ 0)
σ
2σ
σ
σ
est un Brownien et Xt = σ B̃t .
a
De l’égalité Ta = inf{t |B̃t = }, on en déduit le résultat qui figure dans le cours en procédant
σ
comme suit:
On a dP = L−1
t dPµ avec
µ
µ2
µ
µ2
L−1
t) = exp( B̃t − 2 t)
t = exp( Bt +
2
σ
2σ
σ
2σ
et pour tout temps d’arrêt T , on a
EP (exp(−λ(T ∧ t)) = EPµ (LT ∧t e
On en déduit
−λ(T ∧t)
µ2 + 2λσ 2
µ
(T ∧ t))
) = EPµ exp( B̃T ∧t −
σ
2σ 2
µ2 + 2λσ 2
µ
Ta ) 11Ta <∞
EP (exp(−λTa )11Ta <∞ ) = exp 2 a EPµ exp(−
σ
2σ 2
Le passage à la limite quand t → ∞ est licite pour a ≥ 0, car d’une part e−λ(T ∧t) ≤ 1 et d’autre
µ2 + 2λσ 2
a
part B̃Ta ∧t ≤ a, d’où exp( σµ B̃T ∧t −
(T ∧ t)) est borné. On utilise aussi B̃Ta 11Ta <∞ = .
2
2σ
σ
Corrigés. 2009-10
139
Exercice 6.5.2 :
E(11T <∞ exp(λBT −
λ2
T )) = P(λ) (T < ∞) =
2
and use that
T = inf{t : Bt − t/2 > ln a} = inf{t : Bt + (λ − 1/2)t > ln a}
2
Exercice 6.5.3 : Le processus (Mt = exp(θB̃t − θ2 t ) , t ≥ 0) est une Pµ -martingale et si a et θ
sont positifs (Mt∧Ta , t ≥ 0) est uniformément intégrable, car majorée par exp(θa). On en déduit
EPµ (MTa ) = 1 d’où
p
aµ a µ2 + 2λσ 2
−λTa
EP (e
11Ta <∞ ) = exp( 2 −
)
σ
σ2
et on vérifie que Ta est fini (faire λ = 0).
Exercice 6.5.4 : L est une martingale exponentielle d’espérance 1, en utilisant que dFt2 =
2Ft f (t)dBt + f 2 (t)dt on obtient la première égalité. Une intégration par partie montre que
Z T
Z T
h(s)
h(T ) 2 h(0) 2
h(t)
2
2
dFs dBs =
F −
F −
Ft d
f (T ) T f (0) 0
f (t)
0 2f (s)
0
u0
et on utilise que
u(t)f (t)
00
#!
Z T 0 !
0
0
u
(t)
−
2u
(t)f
(t)/f
(t)
u (t)
Ft2
dt
= exp
dt
u(t)f 2 (t)
u(t)
0
ce qui donne le résultat. On prend ensuite h(t) =
" Z T
u0 (T )
1
2
E exp
FT −
2 u(T )f 2 (T )
0
Pour calculer l’expression avec Ψ, on fait un changement de probabilité en posant dQ = LT dP. On
a
!
1/2
Z T
u(T )
2
K=
EQ Ψ(A + BFT +
φ(t)Ft dt)
u(0)
0
et en appliquant Girsanov,
1/2
u(T )
EQ
K=
u(0)
Z
T
Ψ(A + Bu(T )
0
u(t)
dBt +
f (t)
Z
Z
T
t
dtφ(t)u(t)
0
0
!
f (s)
)
dBs
u(s)
On peut calculer le membre de droite, car c’est l’exponentielle d’une gausienne.
Exercice 6.6.16 : On a dr = 2
p
σ(t)rt dBt + ([2β(t) +
une IP.
Exercice 6.5.5 :
σ 0 (t)
]rt + δσ(t))dt. L’etude de Z se fait par
σ(t)
1. Utiliser Girsanov et Bayes.
2. C’est le théorème de Girsanov appliqué sur l’espace produit.
3. Appliquer Itô. Les termes en dt sont nuls car π est une martingale.
6.6
Finance

Exercice 6.6.13 : Il s’agit de calculer A = E e−rT
A=
1
T
Z
T
!+ 
 que l’on écrit
Su du − ST
0
1
E(e−rT ST (YT − K)+ )
T
140
Compléments
Z
1
avec Yt =
St
t
Su du et K = T . Par un changement de probabilité (le processus e−rt
0
Q-martingale positive d’espérance 1), on obtient A =
S0
Ẽ((YT − K)+ ) avec, sous Q̃
T
St
est une
S0
dYt = (1 − rYt )dt + Yt σdB̃t .
On peut utiliser que Yt = Ut + Vt avec U solution de
Z
et Vt = y +
dUt = −rUt dt − σUt dB̃t , U0 = 1
t
(Us )−1 ds, ce qui ne nous avance pas beaucoup.
0
Exercice 6.6.15 :
1. On a drt =
σ 0 (t)
rt dt + σ(t)(dBt + h(t)dt).
σ(t)
2. Une intégration par parties donne le résultat.
3. Une nouvelle intégration par parties donne le résultat
4. Une quantité du type
Z
!!
T
A = E exp f (T )BT −
Bs g(s)ds
0
se calcule en recherchant une fonction ϕ telle que ϕ0 (s) = g(s), ϕ(T ) = g(T ). On peut aussi
remarquer que
Z T
h(T )BT −
Bs (h0 (s) + σ(s))ds
0
est une variable gaussienne centrée dont on identifie la variance.
Z t
1 − e−b
Exercice 6.6.17 : St = x + mart + 2(ν + 1)
Su du. Utiliser que
≥ e−b . On en déduit
b
0
Z
1 T
+
que E((
exp(2(Bs + νs))ds − K) ) ≥ E((exp 2(BT + νT ) − k)+ ) pour k assez petit.
T 0
Exercice 6.6.7 Pour évaluer EQ (h(ST )|Ft ) dans le cas h(x) = (xα − K)+ , on utilise ce qui précède
b2
en écrivant STα sous la forme x exp((a − )t + bBt ). IL est facile de vérifier que sous Q∗ ,
2
dZt = −σZt dB̃t
et comme B̃ donc −B̃ est un MB, Z a même dynamique sous Q∗ que S sous Q. Par suite
∀ϕ, EQ (ϕ(ST )) = EQ∗ (ϕ(ZT )) .
Par définition de Q∗
1
x2
x2
EQ (ST f ( )) = EQ∗ (f ( )) .
x
ST
ST
Par définition de Z,
x2
)) = EQ∗ (f (ZT )) = EQ (f (ST )) .
ST
Si S a est une martingale, le même raisonnement conduit à la formule souhaitée. Un peu d’algèbre
permettait décrire xβ (x − K)+ comme
EQ∗ (ST f (
(xβ+1 − K β+1 )+ − K(xβ − K β )+ .
Chapter 7
Compléments, Corrigés
7.1
Théorème de Lévy.
Exercice 7.1.1 : Soit St = sup0≤s≤t Ws et
D
=
sup (Ws − Wt ) = sup
0≤s≤t≤1
=
sup (Ws − Wt )
0≤t≤1 0≤s≤t
loi
sup (St − Wt ) = sup |Wt |
0≤t≤1
0≤t≤1
Grace au théorème de Lévy
loi
(St − Wt , St , Wt ; θ ≤ t ≤ 1) = (|Wt |, Lt , Lt − |Wt |; g ≤ t ≤ 1)
D’où
loi
Wθ , sup (St − Wt − St )) = Lg − |Bg |, sup (|Wt | − Lt ) = (Lg , sup (|Wt | − Lg )
g≤t≤1
θ≤t≤1
g≤t≤1
Thus
loi
D1 = Wθ + sup (St − Wt − St ) = Lg + sup |Wt | − Lg
g≤t≤1
θ≤t≤1
Exercice 7.4.1 : La premiere égalité provient du théorème de Lévy et de la connaissance de la loi
du couple St , Bt ). La seconde égalité en loi provient de la symétrie de la loi du couple. Pour le semi
ev = Bt+v − Bt
groupe, on utilise la formule de Lévy et l’indépendance de (Bu , u ≤ t) et de B
E(f (St+s − Bt+s , St+s |Fs ) =
=
et , Bs + (Ss − Bs ) ∨ Set St+s )|Fs )
E(f ((Ss − Bs ) ∨ Set − B
Z
µt (da, d`)f (α ∨ ` − (` − a), (λ − α) + α ∨ `)
Les résultats concernant l’indépendance de St (St − Bt ) et Bt sont dus à Seshadri.
7.2
Equations rétrogrades
Exercice 7.2.2 : Il s’agit d’appliquer la formule d’Itô et le théorème de représentation. La propriété
de martingale de X provient de Xt = E(eζ HT |Ft ) et le théorème de représentation établit l’existence
141
142
Compléments
de z. Puis, en utilisant la formule d’Itô
1
1
1
dHt + 3 dhHit =
[(r + θ2 )dt + θdWt )]
2
Ht
Ht
Ht
Zt
zt
d(Zt /Ht ) =
[(r + θ2 )dt + θdWt ) + Ht zt dWt +
θdt
Ht
Ht
zt
zt
1 zt
dXt = (
+ θ)dWt + (r + θ2 ) +
θ− (
+ θ)2 dt
Ht
Ht
2 Ht
1
bt dWt + (r + θX
bt − X
b 2 )dt
= X
2 t
d(1/Ht ) =
7.3
−
Théorèmes de représentation
(1)
(2)
Exercice 7.3.1 : On utilisera le théorème de représentation prévisible pour représenter Wt , Wt
Z t
Z t
(i)
(i)
(i)
(3)
en terme de W . Si l’égalité était possible, on aurait Wt =
Φt dWt avec
E[Φt ]2 dt = t et
0
0
Z t
(1)
(2)
(1) (2)
E(Wt Wt ) = E(
Φt Φt dt) = 0.
0
Exercice 7.3.2 : M est une intégrale stochastique, l’intégrand est borné donc de carré intégrable,
M est une martingale.
Par propriété de l’intégrale stochastique
Z t
2 Z t
11Ws >0 dWs −
(11Ws >0 )2 ds
0
0
est une martingale. Une autre méthode consiste à appliquer la formule d’Itô à Yt2 avec Yt =
Z t
Z t
11Ws >0 dWs . Le processus At =
11Ws >0 ds est un processus croissant.
0
0
def
Le processus MCt est une Gt = FCt martingale et
MC2 t − ACt = MC2 t − t
est une martingale.
7.4
Temps local.
Exercice 7.4.2 : On ne peut pas appliquer Itô car x → |x| n’est pas de classe C 2 . Un calcul fait
en pensant qu’un point ne compte pas et que l’on peut négliger le point oú la dérivée n’existe pas
conduirait à (la dérivée de |x| est égale à sgn sauf en 0 et la dérivé seconde est nulle sauf en 0)
Z t
|Bt | =
sgn(Bs )dBs et l’intégrale du membre de droite n’est pas positive (nous verrons plus loin
0
que c’est un mouvement Brownien).
Z
Le processus β est une martingale de crochet
t
f 2 (Bs )ds = t, c’est un MB. Il est évident que pour
0
u≥t
Su = sup Ws ≥ St = sup Ws
s≤u
s≤t
La première décomposition exprime que |Wt | est égal à un MB plus un processus croissant, la seconde décomposition dit que St − Wt a la même propriété. On peut montrer, grace au lemme de
loi
loi
Skohorod (voir poly) que (St − Wt , t ≥ 0) = (|Wt |, t ≥ 0) et que (Lt , t ≥ 0) = (St , t ≥ 0).
Corrigés. 2009-10
143
Exercice 7.4.3 : |Bs | + Ls ≥ Lt = Ldt for s ≥ t, and |Bdt | + Ldt = Ldt .
Exercice 7.4.4 : (θ ≤ u) = sups≥u Bs ≤ sups≤u Bs = sup1≥s≥u (Bs − Bu ) + Bu ≤ sups≤u Bs d’où
P(θ ≤ u) = P(Sb1−u ≤ Su − Bu ) On trouve finalement que θ a une loi Arc Sinus.
Exercice 7.4.5 : On utilise la formule d’Itô
1 00
dYt = fx0 (Xt , St , hXit )dXt + fs0 (Xt , St , hXit )dSt + (ft0 + fxx
)(Xt , St , hXit )dhXit
2
1 00
+ ft0 = 0 et fs0 (s, s, t) = 0, Y
Or fs0 (Xt , St , hXit ) = fs0 (St , St , hXit ) dSt presque surement. Si fxx
2
est une martingale locale.
Z t
Z t
Z t
g(St ) − (St − Xt )g 0 (St ) = g(St ) −
g 0 (Ss )dSs +
g 0 (Ss )dXs +
(Ss − Xs )g 00 (Ss )dSs
0
0
0
Z t
=
g 0 (Ss )dXs
0
Exercice 7.4.6 : On utilise le scaling du MB pour écrire
Z λ2 t
Z t
Z
loi
f (Bs )ds = λ2
f (λBu )du = λ2 da f (λa)Lat
0
0
Z
Exercice 7.4.8 : From the occupation formula and change of time
Z hM it
Z
duf (βu ) = dyf (y)LyhM it (β).
Z
t
t
dhM is f (Ms ) =
0
0
dhM is f (βhM is ) =
0
7.5
Lois
Exercice 7.5.1 : Soit Yt = f (Xt ). On en déduit
dYt
=
=
Xt
1
1
Xt b0 (Xt ) 2
dXt +
− 2
b (Xt )dt
b(Xt )
2 b(Xt )
b (Xt )
1
a(Xt )
Xt
dt + dWt + b(Xt ) − Xt b0 (Xt ) dt
b(Xt )
2
Le résultat souhaité en découle.
Z t
Z t
a(Xs ) 1
0
f (Xt ) − f (X0 ) −
Xs
+ b(Xs ) − Xs b (Xs ) ds =
Xs dWs
b(Xs )
2
0
0
Exercice 7.5.2 : Let V be a standard Brownian motion starting at v, that is, Vt = v + Wt . In this
case, the two events { τa (V ) ≤ t} and { sups≤t Ws ≥ α}, where α = a − v are equal. The reflection
principle implies that the r.v. sups≤t Ws is equal in law to the r.v. kWt k. Therefore,
P(τα (W ) ≤ t) = P(sup Ws ≥ α) = P(kWt k ≥ α) = P(Wt2 ≥ α2 ) = P(tG2 ≥ α2 )
s≤t
loi
where G is a Gaussian variable, with mean 0 and variance 1. It follows that τα (W ) =
probability density function of τa (V ) is
(v − a)2 a−v
f (t) = √
.
exp −
2t
2πt3
α2
, and the
G2
144
Compléments
The computation of
E 11{T <τa (V )} h(VT ) = E h(VT ) − E 11{T ≥τa (V )} h(VT )
can be done using Markov property:
E 11{T ≥τa (V )} h(VT ) = E 11{T ≥τa (V )} E(h(VT )|Fτa (V ) ) = E 11{T ≥τa (V )} h(VeT −τa (V ) + a) ,
where Ve is a Brownian motion independent of τa (V ).
Exercice 7.5.3 : Soit y > a. On admettra que M est uniformément intégrable.
a = E[MTy ] = yP(Ty < ∞) = yP(sup Mt ≥ y)
Soit
7.6
a
a
a
= P(sup Mt ≥ y) = P( ≥ U ) = P( ≥ y).
y
y
U
Filtrations
Exercice 7.6.2 : Mt = E(Wt |Ht ) est un processus H-adapté. Pour montrer que c’est une Hmartingale, il suffit d’écrire la suite d’égalités suivantes, pour t ≥ s
E(Mt |Hs )
= E(Wt |Ht |Hs ) = E(Wt |Hs )
= E(Wt |Gs |Hs ) = E(Ws |Hs )
Pour montrer que Z est une FX -martingale, on écrit (en justifiant chaque égalité, ce que je ne fais
pas)
E(Zt |FsX ) =
=
=
=
=
=
=
Z t
E(Xt |FsX ) − E(
Ybu du|FsX )
0
Z t
Z t
E(Wt +
Yu du|FsX ) − E(
Ybu du|FsX )
0
0
Z s
Z t
Z s
Z t
X
X
E(Wt |Fs ) + E(
Yu du|Fs ) + E(
Yu du|FsX ) −
Ybu du − E(
Ybu du|FsX )
0
s
0
s
Z s
Z t
Z t
Z s
Yu du|FsX ) + E(
Yu du|FsX ) −
Ybu du − E(
Ybu du|FsX )
E(Ws |FsX ) + E(
0
s
0
s
Z t
Z s
Z t
X
X
b
E(Xs |Fs ) +
E(Yu |Fs )du −
Yu du − E(
Ybu du|FsX )
s
0
s
Z s
Z t
Z t
X
b
b
Ybu du|FsX )
E(Yu |Fs )du − E(
Yu du −
Xs +
s
0
s
Z s
Xs −
Ybu du)
0
on a utilisé que E(Wt |FsX ) = E(Ws |FsX ) et que, pour u > s
E(Yu |FsX ) = E(Yu |FuX |FsX ) = E(Ybu |FsX )
7.7
Options barrières
Exercice 7.7.1 : Soit Φt (x) = P(Bt < x) =
P(Bt < x) = P(Bt > −x).
√1
2πt
Rx
−∞
2
exp(− u2t )du. on a Φt (x) = 1 − Φt (−x) d’où,
Corrigés. 2009-10
145
∗
Soit T = inf{t ≥ 0|Bt = y}. Par définition P(Bt ≤ x, Mt > y) = P(T < t, Bt−T
< x − y). Si
∗
Mt > y, c’est que l’on a dépassé y avant t: Si Mt > y, on a T < t. De plus Bt−T = Bt −BT = Bt −y.
Rt
Rt
∗
∗
∗
Par indépendance, P(T < t, Bt−T
< x − y) = 0 P(T ∈ du , Bt−u
< x − y) = 0 P(T ∈ du)P(Bt−u
<
∗
∗
x − y). D’après 1, P(Bt−u < x − y) = P(Bt−u > −x + y), d’où
Z
t
0
Z
∗
P(T ∈ du)P(Bt−u
< x − y) =
t
0
∗
P(T ∈ du)P(Bt−u
> y − x)
et par indépendance
Z t
Z t
∗
∗
P(T ∈ du)P(Bt−u > y − x) =
P(T ∈ du, Bt−u
> y − x) = P(T < t, Bt > 2y − x)
0
0
En tenant compte du fait que si Bt > 2y − x et y > x , alors Bt > y, donc T < t on en déduit
P(T < t, Bt > 2y − x) = P(Bt > 2y − x) d’où
P(Bt ≤ x, Mt > y) = P(Bt > 2y − x)
En utilisant
P(Bt ≤ x, Mt < y) = P(Bt ≤ x) − P(Bt ≤ x, Mt > y)
on obtient
x
x − 2y
P(Bt ≤ x, Mt < y) = N ( √ ) − N ( √ )
t
t
3. La loi de T s’obtient en écrivant P(T < t) = P(Mt < y) et la densité du couple (Bt , Mt ) en
dérivant P(Bt ≤ x, Mt < y).
4. Soit Xt = µt + Bt , Yt = sup (Xs , 0 ≤ s ≤ t}. Soit dQ = ζdP avec ζ = exp(−µXt + 12 µ2 t). En
utilisant le théorème de Girsanov, on a
1
P(Xt < x, Yt < y) = EQ (exp(µXt − µ2 t) 11Xt <x 11Yt <y )
2
que l’on peut calculer car sous Q, X est un mouvement Brownien et on connait la loi du couple
(x, Y ) sous Q.
7.8
Méandres, ponts, excursions
Exercice 7.8.1: Let V be a standard Brownian motion starting at v, that is, Vt = v + Wt . In this
case, the two events { τa (V ) ≤ t} and { sups≤t Ws ≥ α}, where α = a − v are equal. The reflection
principle implies that the r.v. sups≤t Ws is equal in law to the r.v. kWt k. Therefore,
P(τα (W ) ≤ t) = P(sup Ws ≥ α) = P(kWt k ≥ α) = P(Wt2 ≥ α2 ) = P(tG2 ≥ α2 )
s≤t
loi
where G is a Gaussian variable, with mean 0 and variance 1. It follows that τα (W ) =
probability density function of τa (V ) is
α2
, and the
G2
(v − a)2 a−v
f (t) = √
.
exp −
2t
2πt3
The computation of
E 11{T <τa (V )} h(VT ) = E h(VT ) − E 11{T ≥τa (V )} h(VT )
can be done using Markov property:
E 11{T ≥τa (V )} h(VT ) = E 11{T ≥τa (V )} E(h(VT )kFτa (V ) ) = E 11{T ≥τa (V )} h(VeT −τa (V ) + a) ,
146
Compléments
where Ve is a Brownian motion independent of τa (V ).
For t < 1, the set {g ≤ t} is equal to {dt > 1}.
loi
dat (W ) = t + inf {u ≥ 0 : Wu+t − Wt = a − Wt } = t + τba−Wt = t +
(a − Wt )2
.
G2
kak √
>
1
−
t
=
Φ
.
G2
1−t
Then, the Itô-Tanaka formula combined with the identity xΦ0 (x) + Φ00 (x) = 0 lead to
Z
Z t |Wt |
|W |
|Ws |
1 t ds 00
|Ws |
√ s
P(g ≤ t|Ft ) = Φ √
Φ
=
d √
+
Φ0 √
2 0 1−s
1−t
1−s
1−s
1−s
0
Z t Z t
|Ws |
sgn(Ws )
dL
|W |
√
√ s Φ0 √ s
=
Φ0 √
dWs +
1−s
1−s
1−s
1−s
0
0
r Z t
Z t 2
|Ws |
sgn(Ws )
dL
√
√ s .
=
Φ0 √
dWs +
π 0
1−s
1−s
1−s
0
P
a2
Exercice 7.4.7 : The occupation time formula leads to
Z Ta (X)
Z a
E
f (Xs ) ds =
f (x)E[LxTa ]dx
0
It remains to compute φ(x) =
−∞
E[LxTa ].
(XTa − x)+
(a − x)+
Tanaka’s formula reads
Z Ta
1
= (−x)+ +
11(Xs >x) dXs + LxTa
2
0
Z Ta
1
= (−x)+ +
11(Xs >x) (dWs + νds) + LxTa
2
0
Then, taking expectation of both sides
Z
1
E[LxTa ] =
2
(a − x)+ − (−x)+ − νE[
=
(a − x)+ − (−x)+ − νE[
Ta
0
Z
11(Xs >x) ds]
a
x
Therefore, if φ(x) = E[LxTa ]
1
φ(x) = (a − x)+ − (−x)+ − ν
2
which gives
φ(x) =
Z
LyTa dy]
a
φ(y)dy, φ(a) = 0
x
 1


 ν (1 − exp(2ν(x − a))
for 0 ≤ x ≤ a


 1 (1 − exp(−2νa)) exp(2νx)
ν
for x ≤ 0
Exercice 7.8.2 : Il suffit d’écrire
√
Bt = m1 t − gt (sgneBt )
√
√
√
On a alors E(Bt |Fgt ) = E(m1 t − gt (sgneBt )Fgt ) = t − gt (sgneBt )E(m1 ) = t − gt (sgneBt )
√
On note µt = t − gt (sgneBt ), c’est une martingale. Des calculs analogues conduisent à
E(Bt2 − t|Fgt ) = E(m21 )µ2t − t
r
π
2
Corrigés. 2009-10
147
E(eαBt −
avec h(x) = E(exm1 ).
α2
2
t
|Fgt ) = h(αµt )e−
α2
2
148
Sauts.
Chapter 8
Sauts, Corrigés.
8.1
Processus de Poisson
Exercice 8.4.1 : Il suffit d’utiliser l’Exercice 1.4.9.
Exercice 8.1.3 : La Propiéé d’accroissements indépendants du processus de POisson conduit à
E(Nt − Ns |Fs ∧ σ(N1 )) = E(Nt − Ns |(Ns − N1 ))
Il est bien connu (ou tout au moins facile de vérifier ) que si X et Y sont deux variables de Poisson,
indépendantes, de paramètre µ et ν
n
P(X = k|X + Y = n) =
αk (1 − α)n−k
k
avec α =
µ
. On en déduit
µ+ν
E(Nt − Ns |Fs ∧ σ(N1 )) =
t−s
(N1 − Ns )
1−s
La vérification de la propriété de martingale est alors facile.
Exercice 8.1.4 : Si N est un processus de Poisson, P(Nt = n) = e−λt
λn t n
d’où
n!
ψ(z, t) = e−λt e−λtz
loi
Si N un processus à accroissements indépendants tel que Nt+s − Nt = Ns
ψ(z, t + s) =
∞
X
z n P(Nt+s = n) = E(z Nt+s ) = E(z Nt+s −Nt +Nt )
n=0
=
E(z Nt+s −Nt )E(z Nt ) = E(z Ns )E(z Nt ) = ψ(z, t)ψ(z, s)
On en déduit
ψ(z, t + h) − ψ(z, t) = ψ(z, t)[ψ(z, h) − 1]
ce qui conduit à une EDO en utilisant les propriétés de ψ données dans l’énoncé. En tenant compte
de ψ(z, 0) = 1, on montre que ψ(z, t) = e−λt e−λtz , ce qui caractérise le processus de Poisson (cette
égalité caractérise la loi de Nt , ce qui avec N un processus à accroissements indépendants tel que
loi
Nt+s − Nt = Ns caractérise le processus de Poisson.)
149
150
Sauts.
Exercice 8.2.1 : Le processus de Poisson composé est un processus à accroissements indépendants,
donc pour s < t
E(Yt − Ys |Fs ) = E(Yt − Ys ) = E(Xt − Xs ) − µλ(t − s) = 0
On peut le démontrer à la main:
Nt
X
E(Xt − Xs |Fs ) = E(
Nt −N
s +Ns
X
Yi |Fs ) = E(
i=Ns +1
Yi |Fs ) = Ψ(Ns )
i=Ns +1
avec
n+Nt−s
Ψ(n)
X
= E(
Yi ) =
X
P(Nt−s = k)E(
i=n+1
X
=
n+k
X
Yi )
i=n+1
P(Nt−s = k)kE(Y1 ) = E(Y1 )E(Nt−s ) = E(Y1 )λ(t − s)
Exercice 8.2.2 : Si X et X̃ sont deux solutions,
Z t
Z t
def
(Xs − X̃s )ds = −c
Zs ds
Zt = Xt − X̃t = −c
0
0
et Z est solution de l’équation différentielle ordinaire
Z = 0.
Z t
Soit Xt = e−ct x +
e−c(t−s) dNs . On calcule
Zt0
= −cZt avec condition initiale nulle. Donc
t
Z
0
Z
Z
t
Xs ds =
0
Z
t
e
−cs
xds +
0
s
ds
0
e−c(s−u) dNu .
0
L’intégrale double se calcule en employant Fubini (pour des intégrales de Stieltjes)
Z t Z s
Z t
Z t
Z
1 t
−c(s−u)
−c(s−u)
ds
e
dNu =
dNu
dse
=
dNu (1 − e−c(t−u) )
c 0
0
0
0
u
Z t
1
=
(Nt −
e−c(t−s) dNs ) .
c
0
En utilisant que M et Y sont des martingales
E(Mt Yt |Fs ) = E(Mt (Yt − Ys )|Fs ) + Ms Ys = E((Mt − Ms )(Yt − Ys )|Fs ) + Ms Ys
Le calcul de E((Mt −Ms )(Yt −Ys )|Fs ) se fait comme le précédent. Exercice 8.1.5 : Par intégration
par parties, d(tNt ) = Nt dt + tdNt D’ou
Z t
Z t
Z t
(t − s)dNs
sdNs =
Ns ds = tNt −
0
0
0
Pour calculer la TL, il suffit d utiliser que pour toute fonction h (ici, pour t fixé h(s) = −λ(t − s))
si c est l’intensité de N
Z t
Z t
E(exp(
h(s)dNs ) = exp(−c
(1 − eh(s) )ds)
0
8.2
0
Poisson composé
Exercice 8.2.3 : Par indépendance des Yk , on obtient
E(λ
n
X
k=1
Yk + µ
m
X
k=n+1
Yk )) = E(λY1 )n E(µY1 )m
Corrigés. 2009-10
151
Le caractère PAIS de N s’obtient à partir de
E(λXs + µ(Xt − Xs )) = E(ψ(λ, Ns )ψ(µ, Nt − Ns )) = E(ψ(λ, Ns ))E(ψ(µ, Nt−s ))
où ψ(λ, n) = E(λY1 )n . Le processus N est indépendant des (Yk , k ≥ 1) et la v.a. Nt a une loi de
Poisson : il s’en suit que
X
P(Xt ≤ x) =
P(Nt = n,
n
X
=
n
X
P(Nt = n)P(
n
e−λt
=
Yk ≤ x)
k=1
n
X
X (λt)n
n!
n
Yk ≤ x)
k=1
F ∗ (x) ,
et
∞
X
E(Xt ) =
E(
n=1
=
E(Y )
n
X
Yk 11Nt =n ) =
∞
X
nE(Y )P(Nt = n)
n=1
k=1
∞
X
nP(Nt = n) = λtE(Y1 ) .
n=1
Le calcul de la variance peut être obtenu avec les mm̂es arguments, mais il est plus facile d’utiliser
que le moment d’ordre deux est obtenu par dérivation (d’ordre deux) de la transformée de Laplace
de Xt Exercice 8.2.4 :
Le processus X étant un PAI et E(Xt ) = λtE(Y1 ) on obtient que
(Xt − tλE(Y ),
t
≥
0)
est
une
martingale.
Plus généralement, si f une fonction borélienne bornée, on
R
note µ(f ) = f (x)µ(dx) l’espE(f (Y )). Par définition de M f ,
X
X
E(Mtf ) =
E(f (Yn ))P(Tn < t) − tλµ(f ) = σ(f )
P(Tn < t) − tλµ(f ) = 0
n
n
La fin de la preuve est standard et utilise le calcul suivant, pour s > 0


X
f
E(Mt+s
− Mtf |Ft ) = E 
f (∆Xu )11∆Xu 6=0 − sλµ(f )|Ft  = 0 .
t<u≤t+s
Pour la réciproque, on écrit
eiuXt
=
1+
Z
=
X
eiuXs− (eiuXs − 1)
s≤t
t
+
0
Z
eiuXs− dMsf + σ(f )
t
eiuXs− ds
0
où f (x) = eiux − 1. Il en résulte
Z
E(e
iuXt+s
|Ft ) = e
iuXt
+ σ(f )
t+s
drE(eiuXt+r |Ft ) .
t
Rs
En posant ϕ(s) = E(eiuXt+s |Ft ) on obtient ϕ(s) = ϕ(0) + σ(f ) 0 ϕ(r)dr, d’où
Z
iuXt+s
s
E(e
|Ft ) = e λ µ(dx)(eiux − 1)
avec λ = σ(1) et µ = σ/λ).
152
Sauts.
Exercice 8.2.6 : From the independence between the r.v. (Yk , k ≥ 1) and the process N ,
!
Nt
X
−αXt
Yk ) = E(Φ(Nt ))
E(e
) = E exp (−α
k=1
where Φ(n) = E exp (−α
X
n −λt λ
n n
n
X
!
= [ΨY (α)]n , with ΨY (α) = E (exp −αY ). Now, E(Φ(Nt )) =
Yk )
k=1
t
[ΨY (α)] e
. Exercice 8.4.1 : Appliquer la formule d’intégration par parties à Vt exp −
n!
n
Z t
Z u
du hu λu exp −
λs ds = Ut et à Ut (1 − 11τ ≤t ).
0
8.3
Z
0
Marché complets, incomplets
Exercice 8.5.1 : We shall now restrict our attention to the simple case of a complete market where
dSt = St− [µdt + φdMt ]
and r = 0. Here, M is the compensated martingale associated with a poisson process with deterministic intensity.
The non-arbitrage condition is equivalent to the existence of γ such that γ > −1 and µ+λφγ = 0.
λφ − µ
This implies that
> 0.
λφ
dQ
|F = Lt where L is the strictly
The unique equivalent martingale measure Q is defined by
dP t
positive martingale
N
λφ − µ t
Lt =
exp(tµ/φ)
λφ
µ
which satisfies dLt = −Lt− dMt .
λφ
def
Under the measure Q, M̃t = Mt + tµ/φ is a martingale.
Exercice 8.5.2 : Les m.m.e. sont définies par leur densité L vérifiant
dLt = Lt− (−ψt dBt + γt dMt )
avec
σψ(t) = b − r + λφγ(t) , dP ⊗ dt.p.s.
Elles sont indexées par un processus γ > −1. Sous Pγ , le processus B γ défini par
Z t
def
Btγ = Bt −
ψ(s) ds
0
def
Z
est un mouvement Brownien Mtγ = Mt −
On utilisera
λγ(s)ds est une martingale.
0
Z
B γ (t) = B(t) + tθ +
b−r
.
σ
t
λφ
0
avec θ =
t
γ(s)
ds = Bt0 +
σ
Z
t
λφ
0
γ(s)
ds
σ
t
λs ds +
0
Téléchargement