Poly 2016-2017 - Inria Sophia Antipolis

publicité
Introduction à la modélisation financière
en temps continue
&
Calcul Stochastique
Mireille Bossy
INRIA
Master 2 IMAFA à Polytech Nice Sophia Antipolis
(24 novembre 2016)
SOMMAIRE
Sommaire
1
2
3
Quelques elements de la theorie des probabilites
1.1 Espace de probabilité, variable aléatoire . . . . . . . . . . . . . . .
1.1.1 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . .
1.1.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Quelque lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Masse de Dirac . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.3 Loi normale et variables aléatoires gaussiennes . . . . . . .
1.3 Quelques résultats élémentaires et Inégalités . . . . . . . . . . . . .
1.4 Convergence de variables aléatoires . . . . . . . . . . . . . . . . .
1.5 Probabilité conditionnelle sachant un événement . . . . . . . . . . .
1.6 Espérance conditionnelle sachant une tribu ou une variable aléatoire
1.7 Loi des grands nombres et théorème de limite centrale . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
. iii
. iv
. iv
.
v
. vi
. vi
. vi
. vii
. viii
. xi
. xi
. xiv
Processus Stochastiques et mouvement Brownien
2.1 Généralités sur les processus stochastiques . . . . . . . .
2.2 Le mouvement brownien . . . . . . . . . . . . . . . . .
2.2.1 Quelques propriétés du mouvement brownien . .
2.2.2 Quelques propriétés de la trajectoire brownienne
2.2.3 Mouvement brownien vectoriel . . . . . . . . .
2.2.4 Mouvement brownien vectoriel corrélé . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
3
4
5
Premiers éléments de Calcul Stochastique
3.1 Filtration et adaptation . . . . . . . . . . . . . . . . .
3.1.1 Martingales en temps continue . . . . . . . . .
3.1.2 Des exemples de martingales . . . . . . . . . .
3.1.3 L’inégalité maximale de Doob . . . . . . . . .
3.2 Sur la convergence des variables aléatoires . . . . . . .
3.2.1 Variation quadratique du mouvement brownien
3.3 Intégrale d’Itô – cas unidimensionnel . . . . . . . . . .
3.3.1 Différents espaces de processus . . . . . . . .
3.3.2 Intégration des processus élémentaires . . . . .
3.3.3 Intégration des processus de MF2 (0, T ) . . . .
3.3.4 Intégration de processus de L2F (0, T ) . . . . .
3.3.5 L’intégrale stochastique comme processus . . .
3.4 Formule d’Itô – cas unidimensionnel . . . . . . . . . .
3.5 Intégrale d’Itô – cas multidimensionnel . . . . . . . .
3.6 Formule d’Itô – cas multidimensionnel . . . . . . . . .
3.7 Processus d’Itô et martingale . . . . . . . . . . . . . .
3.8 Caractérisation de Lévy du mouvement brownien . . .
3.9 Changement de Probabilité . . . . . . . . . . . . . . .
3.9.1 Exemple élémentaire . . . . . . . . . . . . . .
3.9.2 Le cas des variables gaussiennes . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
8
9
9
9
10
11
11
12
14
15
16
17
19
20
22
23
23
24
24
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
SOMMAIRE
4
Options européennes, modèle de Black et Scholes unidimensionnel
4.1 Description du modèle de marché Black et Scholes . . . . . . . . . . . . .
4.2 Les stratégies de financement . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Les stratégies autofinancées . . . . . . . . . . . . . . . . . . . . .
4.2.2 Actualisation, changement de numéraire . . . . . . . . . . . . . . .
4.3 Opportunité d’arbitrage et probabilité risque neutre . . . . . . . . . . . . .
4.3.1 Lien entre A.O.A et probabilité risque neutre . . . . . . . . . . . .
4.4 Stratégies admissibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Options européennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1 Le pricing d’option européenne dans le modèle de Black et Scholes
4.5.2 Premier énoncé pour le pricing d’une option européenne . . . . . .
4.5.3 Second énoncé pour la valorisation d’une option européenne . . . .
4.5.4 La formule de Black et Scholes . . . . . . . . . . . . . . . . . . .
4.6 Mouvement brownien et équation de la chaleur . . . . . . . . . . . . . . .
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
28
28
29
29
30
31
31
32
32
34
35
36
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
Chapitre 1
Quelques elements de la theorie des
probabilites
1.1
Espace de probabilité, variable aléatoire
Définition 1.1.1. On se donne un ensemble Ω et F, un ensemble de parties de Ω.
F est une tribu sur Ω, encore appelé une σ-algèbre, si cet ensemble d’ensembles vérifie les trois propriétés
suivantes :
1) ∅ ∈ F et Ω ∈ F ;
2) si A ∈ F alors son complémentaire Ac ∈ F ;
3) F est stable par l’intersection et la réunion dénombrable.
Définition 1.1.2. Une probabilité P sur l’espace mesurable (Ω, F) est une mesure positive sur (Ω, F) de masse
1. Plus précisément, P est une application de F dans [0, 1] telle que
— 1) P(Ω) = 1.
[
X
— 2) Si (An )n∈N est une suite d’éléments de F telle que Ai ∩ Aj = ∅, i 6= j, alors P(
An ) =
P(An).
n∈N
n∈N
L’espace mesuré (Ω, F, P) est appelé espace de probabilité.
A un phénomène aléatoire, on peut associer de façon intuitive un couple (Ω, F). Ω est appelé l’ensemble
des réalisations. On note par ω un élément générique de Ω appelé épreuve ou réalisation. F est l’ensemble des
parties de Ω associées à des événements. Ω est l’événement certain, ∅ est l’événement impossible.
Un événement A est dit presque sûr si son complémentaire Ac est P-négligeable, P(Ac ) = 0.
Une propriété P est dite presque sûre (noté p.s.) si P est vraie P presque partout ou encore si l’ensemble des
ω ∈ Ω qui ne satisfont pas P est P-négligeable.
Définition 1.1.3. Une variable aléatoire (v.a.) X est une fonction mesurable définie sur l’ensemble Ω, à valeurs
dans un autre espace mesurable (E, E).
X : Ω −→ E et pour tout B ∈ E, X −1 (B) ∈ F.
Dans toute la suite E sera égal à R ou Rd et E à la tribu borélienne de R ou Rd notés B(R), B(Rd ). Suivant le
contexte, |x|Rdésignera la valeur absolue sur R ou la norme euclidienne sur Rd .
Dès que Ω |X(ω)|dP(ω) < +∞, pour une v.a. X à valeurs dans Rd , son espérance E(X) est bien définie et
Z
E(X) =
X(ω)dP(ω).
Ω
Pour 1 ≤ p < ∞ on définitZl’espace Lp (Ω, F, P) comme l’espace des variables aléatoires X p-intégrables,
c’est à dire vérifiant E|X|p =
|X|p (ω)dP(ω) < ∞. En identifiant entres elles les variables égales presque
Ω
sûrement, on obtient l’espace quotient Lp (Ω, F, P) (noté parfois simplement Lp ). Pour 0 < p < ∞, on pose
1
kXkp = (E|X|p ) p .
iii
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
Alors, Lp (Ω, F, P), muni de la norme k · kp est un espace de Banach 1
1.1.1
Loi d’une variable aléatoire
Définition 1.1.4. Soit X : (Ω, F, P) −→ (E, E). On appelle loi de la v.a. X, notée PX , la mesure image de P
par X :
∀B ∈ E, PX (B) = P({ω ∈ X −1 (B)}) = P({ω; X(ω) ∈ B}).
PX est une mesure de probabilité sur (E, E).
Dans la suite on utilisera la notation P(X ∈ B) pour P({ω; X(ω) ∈ B}).
Définition 1.1.5. Soit X une v.a. à valeurs dans Rd . X est à densité par rapport à la mesure de Lebesgue sur
Rd (notée λ) si sa loi PX est absolument continue 2 par rapport à λ. Il existe alors une fonction p définie sur
(Rd , B(Rd )), mesurable et positive, vérifiant
Z
Z
∀A ∈ B(Rd ), PX (A) =
p(x)dx =
1A (x1 , . . . , xd )p(x1 , . . . , xd )dx1 . . . dxd .
Rd
A
On dit que X est à densité p et que PX a pour densité p.
Pour une fonction g mesurable et telle que E{g(X)} existe, on a
Z
E{g(X)} =
g(x)PX (dx).
R
Si X est à densité p(x), on a
Z
E{g(X)} =
g(x)p(x)dx.
R
Proposition 1.1.6. Soit X une v.a à valeurs dans Rd . Une mesure de probabilité µ sur (Rd , B(Rd )) est la loi de
X si et seulement si pour toute fonction f continue et bornée sur Rd , à valeurs dans R,
Z
E(f (X)) =
f (x)µ(dx).
Rd
En particulier, X est à densité
p(x) si et seulement si, pour toute fonction f continue et bornée sur Rd , à
R
valeurs dans R, E(f (X)) = Rd f (x)p(x)dx.
Soit maintenant X une v.a à valeurs dans R. La fonction F : R −→ [0, 1] définie par F (x) = P(X ≤ x) =
PX {] − ∞, x]} est la fonction de répartition de la loi de X. X a la densité p si la fonction p(x) vérifie
Z x
F (x) =
p(y)dy.
−∞
1.1.2
Indépendance
Définition 1.1.7. Deux événements A, B de F sont indépendants si P(A ∩ B) = P(A)P(B).
Une collection (éventuellement infinie) d’événements (Ai )i∈I est indépendante si pour tous les sous ensembles
finis J ⊂ I on a


\
Y
P
Aj  =
P(Aj ).
j∈J
j∈J
1. On appelle espace métrique tout couples (E, d) où d est une métrique sur l’espace E. On dira que la suite (xn )n∈N est de Cauchy
dans E si elle vérifie : ∀ε > 0, ∃N ∈ N, ∀n, m > N, d(xn , xm ) < ε. Une suite de Cauchy n’est pas nécessairement convergente mais
une suite convergente est toujours de Cauchy. Un espace métrique sur lequel les suites de Cauchy sont convergentes est appelé espace complet.
Un espace vectoriel normé complet pour la métrique associée à sa norme est appelé un espace de Banach.
2. Soient deux mesures, µ1 et µ2 , positives et σ-finies sur (Ω, F ). µ1 est absolument continue par rapport à µ2 (noté µ1 << µ2 ) si les
ensembles négligeables pour µ2 le sont pour µ1 .
iv
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
Définition 1.1.8. Soient X une v.a. à valeurs dans Rd et H une sous–tribu de F. On dit que X est indépendante
de H si pour tout B ∈ B(Rd ) et A ∈ H,
P{(X ∈ B) ∩ A} = P(X ∈ B)P(A).
Définition 1.1.9. Deux variables aléatoires réelles X, Y sont indépendantes si
P((X ∈ A) ∩ (Y ∈ B)) = P(X ∈ A)P(Y ∈ B)
pour tout A, B dans B(R).
Une collection finie X1 , . . . , Xn de v.a. réelles sont indépendantes si
!
n
n
\
Y
P
(Xi ∈ Ai ) =
P(Xi ∈ Ai ),
i=1
i=1
pour A1 , . . . , An dans B(R). Une suite infinie (Xn )n≥1 de v.a. réelles est indépendante si toutes les sous–
collections finies Xi1 , . . . , Xik sont indépendantes, pour tout k ∈ N.
Théorème 1.1.1. n variables aléatoires, X1 , . . . , Xn , sont indépendantes si est seulement si pour toutes fonctions
f1 , . . . , fn , mesurables et positives ou mesurables et bornées, on a
( n
)
n
Y
Y
E
fi (Xi ) =
E{fi (Xi )}.
i=1
i=1
n variables aléatoires, X1 , . . . , Xn , sont indépendantes si est seulement si f1 (X1 ), . . . , fn (Xn ) le sont, pour tout
choix f1 , . . . , fn de fonctions mesurables.
Dans le cas où les lois de X1 , . . . , Xn ont des densités, on a
Corollaire 1.1.10. Soit p(X1 ,...,Xn ) (x1 , . . . , xn ) la densité jointe de (X1 , . . . , Xn ). Alors X1 , . . . , Xn sont indépendantes si est seulement si
p(X1 ,...,Xn ) (x1 , . . . , xn ) =
n
Y
pXi (xi ),
i=1
où pXi (x) est la densité de Xi .
1.2
Quelque lois usuelles
Définition 1.2.1. Soit X une v.a. à valeurs dans Rd . Sa loi PX est caractérisée par sa transformée de Fourier
Z
φX (u) =
exp(i < u, x >)PX (dx), u ∈ Rd ,
Rd
où < x, y > désigne le produit scalaire de x, y dans Rd . φX (u) : u → E(ei<u,X> ) est appelé la fonction
caractéristique de X.
Lorsque X est une v.a. réelle positive, sa loi PX est également caractérisée par sa transformée de Laplace
t 7→ E(e−tX ), pour t ∈ R+ .
Définition 1.2.2. Soient X et Y deux v.a à valeurs réelles telles que E(X 2 ) < +∞ et E(Y 2 ) < +∞. La variance
2
de X, notée σX
ou V ar(X), est définie par
2
σX
= E{(X − E(X))2 } = E{X 2 } − E{X}2 .
La covariance de X et Y , notée Cov(X, Y ), est définie par
Cov(X, Y ) = E{(X − E(X))(Y − E(Y ))} = E(XY ) − E(X)E(Y ).
v
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
1.2.1
Masse de Dirac
Soit a ∈ Rd et X une v.a. telle que X = a P-presque sûrement. Alors la loi de X est la masse de Dirac δa .
2
EX = a, σX
= 0, φX (u) = ei<u,a> , pour u ∈ Rd .
1.2.2
Loi uniforme
Soient −∞ < a < b < +∞. La loi uniforme sur un intervalle (a, b), notée U (a, b) a pour densité x 7→
1(a,b) (x)dx.
2
Une v.a. X est de loi uniforme sur (a, b) si PX = U (a, b). On a alors EX = (b + a)/2, σX
= (b − a)2 /12,
sin(u(b − a)/2)
φX (u) = eiu(a+b)/2
.
u(b − a)/2
Plus généralement, si λ est la mesure de Lebesgue sur Rd et si A est un borélien borné de Rd tel que λ(A) 6= 0,
une v.a. X est dite uniforme sur A si sa loi est donnée par
1
b−a
P(X ∈ x) =
1.2.3
1
1A (x)dx.
λ(A)
Loi normale et variables aléatoires gaussiennes
Une variable aléatoire réelle normale (ou gaussienne), de paramètres (µ, σ 2 ) où µ ∈ R et σ 2 > 0, est une v.a.
de densité
p(x) = √
1
exp(−(x − µ)2 /2σ 2 ), x ∈ R.
2πσ
Cette distribution de probabilité, usuellement notée N (µ, σ), est la loi normale.
La loi N (µ, 0), dite loi normale dégénérée, n’a pas de densité et correspond à la masse de Dirac δµ .
La loi N (0, 1) est appelée la loi normale centrée et réduite ou loi normale standard.
Si X est de loi N (µ, σ 2 ),
E(X) = µ, V ar(X) = σ 2 , φX (u) = exp(iuµ − σ 2 u2 /2).
Définition 1.2.3. Un vecteur aléatoire X = (X1 , . . . , Xd ) à valeurs dans Rd est gaussien si toute combinaison
d
X
linéaire
ai Xi est de loi normale (éventuellement dégénérée).
i=1
Si X = (X1 , . . . , Xd ) est un vecteur gaussien, la matrice carré Γ := (Γi,j )(1≤i≤d,1≤j≤d) avec Γi,j =
E(Xi Xj )−E(Xi )E(Xj ), appelée matrice de covariance est une matrice symétrique et positive (à valeurs propres
positives).
Théorème 1.2.1. X est une variable aléatoire gaussienne à valeurs dans Rd , d’espérance µ et de covariance Γ,
si est seulement si sa fonction caractéristique est de la forme
φX (u) = exp{i < u, µ > −
1
< u, Γu >},
2
où µ ∈ Rd et Γ est une matrice non nulle, symétrique et positive. On notera Nd (µ, Γ) la loi du vecteur aléatoire
X.
Lorsque Γ est inversible (i.e si son determinant est non nul), la loi Nd (µ, Γ) a pour densité
1
t −1
p exp − (x − µ) Γ (x − µ) ,
x ∈ R −→
2
(2π)d/2 |Γ|
d
1
où |Γ| désigne le déterminant de la matrice Γ.
vi
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
1.3
Quelques résultats élémentaires et Inégalités
Théorème 1.3.1. (Inégalité de Chebyshev). Soit X une v.a. réelle appartenant à Lp (Ω, F, P) pour 1 ≤ p < ∞.
Alors,
Pour tout α > 0, P (|X − E(X)| ≥ α) ≤
E{|X − E(X)|p }
.
αp
Preuve. Remarquons que αp 1{|X − E(X)| ≥ α} ≤ |X − E(X)|p . Alors,
1
E 1{|X − E(X)| ≥ α} = P(|X − E(X)| ≥ α) ≤ p E{|X − E(X)|p }.
α
Théorème 1.3.2. (Inégalité de Jensen). Soit φ : R → R une fonction convexe. Soit X une v.a. réelle telle que
E|X| < +∞ et E|φ(X)| < +∞. Alors
φ(E{X}) ≤ E{φ(X)}.
Preuve. La démonstration repose sur une propriété des fonctions convexes : φ est la borne supérieure des fonctions affines (dites d’appui) qui lui sont inférieurs. En particulier, il existe un ensemble dénombrable de réels
(an , bn )n∈N tel que φ(x) = sup(an x + bn ). Ainsi,
n≥1
E{φ(X)} ≥ E{an X + bn } = an E(X) + bn .
Cette inégalité étant vraie pour tout n, en passant au sup on obtient que E{φ(X)} ≥ supn (an E(X) + bn ) =
φ(E(X)).
Théorème 1.3.3.
a) (Inégalité de Hölder.) Soient X et Y , deux v.a. réelles telles que E(|X|p ) < ∞ et E(|Y |q ) < ∞, pour
p > 1 et p1 + 1q = 1. Alors
1
1
|E(XY )| ≤ E|XY | ≤ E(|X|p ) p E(|Y |q ) q .
b) (Inégalité de Minkowski.) Soient X et Y , deux v.a. réelles telles que E(|X|p ) < ∞ et E(|Y |p ) < ∞ pour
1 < p < ∞. Alors
1
1
1
E(|X + Y |p ) p ≤ E(X p ) p + E(Y p ) p .
Preuve. La fonction x 7→ ex est strictement convexe, c’est à dire que pour tout α ∈]0, 1[, eαx+(1−α)y
≤ αeu +
U e
(1 − α)ev . Alors pour deux v.a. U et V telles que E(eU + eV ) < ∞, en prenant x = log
et y =
U)
E(e
V e
log
, on a
E(eV )
U α V 1−α
e
e
eU
eV
≤
α
+
(1
−
α)
.
E(eU )
E(eV )
E(eU )
E(eV )
Ainsi en prenant l’espérance des deux cotés de l’inégalité ci-dessus, on obtient
α
(1−α)
E{eαU e(1−α)V } ≤ E(eU )
E(eV )
.
(1.1)
L’inégalité de Hölder résulte de (1.1), en prenant U = p log |X|, V = q log |Y | et α = p1 .
Il suffit d’écrire que (X + Y )p = X(X + Y )p−1 + Y (X + Y )p−1 , pour déduire l’inégalité de Minkowski de
celle de Hölder .
Rappelons certains résultats élémentaires sur la variance.
vii
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
Théorème 1.3.4. Soit X une v.a. réelle avec E{X 2 } < +∞.
1
a) E{|X|} < ∞ et E{X} ≤ E{X 2 } 2 .
2
b) Si σX
= 0, alors X est une constante et P{X = α} = 1 pour un certain α dans R.
2
c) Si Y = aX + b, alors σY2 = a2 σX
.
2
d) Si X, Y sont deux v.a. avec σX
< ∞ et σY2 < ∞, alors
2
2
σX+Y
= σX
+ σY2 + 2Cov(X, Y ).
De plus, |Cov(X, Y )| ≤ σX σY .
2
2
e) Si X, Y dans (d) sont indépendantes, alors Cov(X, Y ) = 0 et σX+Y
= σX
+ σY2 .
Nous rappelons maintenant un résultat utile pour la simulation de variable aléatoire.
Théorème 1.3.5. Soit F (x) la fonction de répartition d’une probabilité sur R. Pour tout u ∈ [0, 1], on définit
F −1 (u) = inf{x : F (x) ≥ u}.
Soit U une v.a. de loi uniforme sur [0, 1]. On pose Y = F −1 (U ). Alors Y est une v.a. telle que P(Y ≤ y) = F (y).
1.4
Convergence de variables aléatoires
Dans cette section, toutes les variables aléatoires seront supposées définies sur un même espace de probabilité
(Ω, F, P) et à valeurs dans R où Rd . Rappelons que suivant le contexte, |x| désigne la valeur absolue ou la norme
euclidienne sur Rd .
Définition 1.4.1. Une suite de v.a. (Xn )n≥1 converge presque sûrement vers une v.a. X si l’ensemble
n
o
N = ω ∈ Ω : lim Xn (ω) 6= X(ω)
n→∞
est P-négligeable (P(N ) = 0).
Remarquons que
P{ω ∈ Ω : lim Xn (ω) = X(ω)} = P(N c ) = 1.
n→∞
On utilisera la notation
lim Xn = X p.s.
n→∞
(
)
Soit (An )n≥1 une suite d’événements de F. L’événement ω;
X
1An (ω) = ∞ est l’événement "un nombre
n
infini des événements An se produit". Cet événement est appelé la limite supérieure de la suite (An ) et est noté
lim sup An ou lim An . Pour un ω fixé, une infinité d’événements An sont réalisés si et seulement si, pour tout
n→∞
n→∞
[
p il existe au moins un m ≥ p tel que ω ∈ Am . Ceci signifie que la suite d’événements
Am décroît lorsque
m≥p
(
p % ∞ vers l’événement
)
ω;
X
1An = ∞ . Ainsi, on a
n
(
lim sup An =
n→∞

)
ω;
X
n
1An = ∞ = p→∞
lim 

[
n≥p
An  =
∞
\


[

p=1
An  .
n≥p
Le lemme suivant permet de caractériser l’événement asymptotique limAn et donne une condition très utile de
convergence presque sûre vers zéro d’une suite d’indicatrice d’ensemble.
Lemme 1.4.2. de Borel–Cantelli. Soit (An )n≥1 une suite d’événements de (Ω, F, P).
viii
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
P∞
P(An ) < ∞, alors P limAn = 0 ; l’événement limAn est négligeable.
P∞
b) Si la suite (An ) est une suite d’événements indépendants et si n=1 P(An ) = ∞, alors P limAn = 1.
P∞
b’) Si la suite (An ) est une suite d’événements indépendants et si P limAn = 0, alors n=1 P(An ) < ∞.
a) Si
n=1
Preuve.

(a) P limAn = lim P 
p→∞

[
An  ≤ lim
p→∞
n≥p
X
P(An ) = 0.
n≥p
(b) Par l’indépendance des An , on a







Y
\
[
(1 − P(An )) .
Acn  = lim 1 −
An  = lim 1 − P 
P limAn = lim P 
p→∞
Si
∞
X
p→∞
n≥p

P(An ) = ∞, alors log 
n=1
p→∞
n≥p
n≥p

Y
(1 − P(An )) ≤
n≥p
X
−P(An ) = −∞. On en déduit que
n≥p
Y
(1 − P(An )) =
n≥p
0 et que P limAn = 1.
Q
(b’) Si P limAn = 0, alors on déduit du calcul ci-dessus que limp→∞ n≥p (1 − P(An )) = 1. Donc
X
| log (1 − P(An )) | = 0. En remarquant que x ≤ | log(1 − x)| pour tout 0 < x < 1, on en déduit la
lim
p→∞
n≥p
convergence de la série
P
n
P(An ).
Définition 1.4.3. Une suite de v.a. (Xn )n≥1 converge dans Lp vers une v.a. X si les variables Xn appartiennent
à Lp (ΩF, P) ( E|Xn |p < ∞), X appartient à Lp (ΩF, P) ( E|X|p < ∞) et
1
lim kXn − XkLp = lim (E(|Xn − X|p )) p = 0.
n→∞
n→∞
Lp
On utilisera la notation Xn →X.
Remarque 1.4.4. Si (Xn )n≥1 est une suite de v.a. intégrables (i.e. dans L1 (ΩF, P)),
L1
lim Xn = X p.s. ; Xn →X.
n→∞
R
En effet, il faut montrer que limn→∞ Ω |Xn − X|dP = 0. Or pour cela on a besoin d’une hypothèse supplémentaire. Par exemple pour appliquer le théorème de convergence dominée, il faut supposer que les variables
|Xn − X| sont majorées par une v.a. intégrable.
Définition 1.4.5. Une suite de v.a. (Xn )n≥1 converge en probabilité vers X si pour tout ε > 0
lim P ({ω : |Xn (ω) − X(ω)| > ε}) = 0.
n→∞
On écrit simplement,
lim P (|Xn − X| > ε) = 0
n→∞
P
et on note Xn −→X.
Théorème 1.4.1. Soit (Xn )n≥1 une suite de v.a.
Lp
P
a) Si Xn →X, alors Xn −→X.
P
b) Si Xn → X presque sûrement, alors Xn −→X.
ix
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
P
b) Si Xn −→X, alors on peut extraire de la suite (Xn )n≥1 une sous–suite (Xν(n) )n≥1 qui converge vers X
presque sûrement.
Les trois notions de convergence ci-dessus (p.s., dans Lp , en probabilité) sont des variantes de la convergence
"point par point" de l’analyse classique, c’est à dire une convergence en valeur des fonctions considérées.
Nous abordons maintenant la notion de convergence faible (appelée aussi convergence en loi) de variables
aléatoires. Cette convergence est de nature très différente des précédentes. Ici, ce sont les distributions de probabilité ou lois des variables qui convergent et non les variables elles mêmes.
Définition 1.4.6. Soient µn et µ des mesures bornées sur Rd . La suite de mesures µn converge faiblement (ou
étroitement) vers µ si pour toute fonction à valeurs réelles, continue et bornée sur Rd (ie f ∈ Cb (Rd )),
Z
Z
lim
f (x)µn (dx) =
f (x)µ(dx).
n→∞
Rd
Rd
Définition 1.4.7. Une suite de v.a. (Xn )n≥1 converge en loi vers X si les lois PXn convergent faiblement vers
L
PX . On notera Xn →X.
Théorème 1.4.2. Soient (Xn )n≥1 et X définis sur un même espace de probabilité (Ω, F, P).
P
L
Si Xn −→X, alors Xn →X.
Théorème 1.4.3. Soit (µn , n ≥ 1) une suite de mesure de probabilité sur Rd convergeant faiblement vers la
probabilité µ.
a)Si f est une fonction de Rd dans R, borélienne, bornée et telle que l’ensemble de ses points de discontinuité
soit µ-négligeable, alors
Z
Z
lim
f (x)µn (dx) =
f (x)µ(dx).
n→∞
Rd
Rd
b) En particulier,
lim µn (A) = µ(A),
n→∞
o
Dès que A est un borélien de Rd de frontière ∂A = Ā − A µ-négligeable (µ(∂A) = 0).
L
Corollaire 1.4.8. Si Xn →X, les fonctions de répartitions FXn (x) de Xn convergent vers la fonction de répartition FX (x) de X en tout point x où FX (x) est continue.
Nous citons maintenant un résultat utile qui illustre les liens entre convergence faible et convergence de fonctions caractéristiques
Théorème 1.4.4. de continuité de Levy. Soit (µn )n≥1 une suite de mesures de probabilité sur Rd et soit φn leur
transformée de Fourier (ou fonction caractéristique). Si φn (u) converge vers une fonction φ(u) pour tout u ∈ Rd ,
si de plus φ est continue en 0, alors φ est la transformée de Fourier d’une mesure µ et µn converge faiblement
vers µ.
Enfin, citons deux résultats de convergence d’espérance, parmi les plus fréquemment utilisés.
Lemme 1.4.9. Convergence monotone. Si (Xn ; n ≥ 1) est une suite de variables aléatoires croissantes positives,
i.e. 0 ≤ Xn ≤ Xn+1 ; on peut affirmer que :
E[ lim Xn ] = lim E[Xn ].
n→∞
n→∞
Théorème 1.4.5. Convergence dominée ou théorème de Lebesgue. Soit (Xn )n∈N une suite de v.a. à valeurs
réelles telle que :
a) la suite (Xn )n∈N converge X P-presque surement ;
b) il existe une v.a. Y intégrable telle que ∀n ∈ N, |Xn | ≤ |Y |.
Alors, lim E[Xn ] = E[ lim Xn ] = E[X].
n→+∞
n→+∞
x
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
1.5
Probabilité conditionnelle sachant un événement
Soit (Ω, F, P) un espace de probabilité.
Définition 1.5.1. Soit B un événement de la tribu F de probabilité non nulle (P(B) > 0). à tout evenement A de
F on associe la quantité P(A|B) défini par
P(A|B) =
P(A ∩ B)
.
P(B)
L’application A 7→ P(A|B) définie une mesure de probabilité sur (Ω, F).
Définition 1.5.2. Soit (Ω, F, P) un espace de probabilité, X une variable aléatoire réelle intégrable et un événement B ∈ F tel que P(B) > 0.
On appelle espérance conditionnelle de X sachant B
Z
1
X(ω)dP(ω).
E(X|B) =
P(B) B
Contrairement à l’espérance conditionnelle savant une variable aléatoire ou une sous-tribu, l’espérance conditionnelle ci-dessus est une quantité déterministe et non une variable aléatoire.
Proposition 1.5.3. Si A et B sont deux événements disjoints, alors
E(X/A ∪ B) =
1.6
P(A)
P(B)
E(X|A) +
E(X|B).
P(A) + P(B)
P(A) + P(B)
Espérance conditionnelle sachant une tribu ou une variable aléatoire
Soit (Ω, F, P) un espace de probabilité.
Définition 1.6.1. Soit X une variable aléatoire à valeurs dans Rd . La classe σ(X) = X −1 (B(Rd )), donnée aussi
par
σ(X) = {A ⊂ Ω : X −1 (B) = A, pour B ∈ B(Rd )}
est une sous–tribu de F et est appelée la σ-algèbre générée par X.
Théorème 1.6.1. Soit X une v.a. à valeurs dans Rd et Y une v.a. réelle. Y est mesurable par rapport à σ(X) si
et seulement si il existe une fonction borélienne sur Rd telle que Y = f (X).
Définition et Proposition 1.6.2. Soit Y une variable aléatoire réelle intégrable et soit B une sous–tribu de F. Il
existe une variable aléatoire Ỹ , unique à l’égalité presque sûre près, telle que Ỹ est B-mesurable et
Z
Z
Ỹ dP, pour tout B ∈ B.
(1.2)
Y dP =
B
B
La classe d’équivalence de ces variables Ỹ , pour l’égalité presque sûre, est appelée espérance conditionnelle de
Y sachant B et est notée E{Y |B}.
Preuve. L’existence de Ỹ se démontre à l’aide du
Théorème 1.6.2. de Radon–Nikodym. Pour µ1 et µ2 deux mesures positives σ-finies 3 sur (Ω, F), il existe une
décomposition unique de µ1 en la somme d’une mesure singulière 4 par rapport à µ2 et d’une mesure ayant une
densité par rapport à µ2 . Si µ1 est absolument continue 5 par rapport à µ2 (µ1 << µ2 ) elle a une densité (définie
dµ1
µ2 p.s.) appelée dérivée de Radon–Nikodym de µ1 par rapport à µ2 qui est souvent notée dµ
.
2
3. Une mesure µ est finie (ou borné) si µ(Ω) < ∞ ; elle est σ-finie si il existe une suite d’ensembles (An ) dans F telle que ∪n An = Ω
et µ(An ) < ∞, ∀n
4. Deux mesures sont singulières (ou étrangères) si elles sont concentrées sur des ensembles disjoints
5. cf note 2
xi
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
En particulier, si µ1 et µ2 sont deux mesures positives et bornées telles que µ1 << µ2 , il existe une variable
dµ1
1
aléatoire positive dµ
dµ2 (définie µ2 p.s. et µ2 -intégrable) telle que µ1 = dµ2 µ2 .
Supposons dans un premier temps que Y est une v.a. positive. Appelons µ2 la restriction de P à la tribu B et
µ1 la mesure sur (Ω, B) définie par
Z
µ1 (B) =
1B Y dP, pour tout B ∈ B.
Ω
Alors µ1 et µ2 sont deux mesures positives et bornées sur (Ω, B) et µ1 << µ2 . Le Théorème de Radon–Nikodym
nous
donneRl’existence d’une v.a. Ỹ , B-mesurable et B-intégrable , telle que µ1 = Ỹ µ2 . Ỹ vérifie donc µ1 (B) =
R
Y
dP
= B Ỹ dP.
B
Si Y n’est pas positive, on la décompose en sa partie positive et négative Y + = Y ∨ 0 et Y − = −(Y ∧ 0) de
sorte que Y = Y + − Y − . On procède comme ci-dessus pour obtenir Y˜+ et Y˜− et la v.a. Y˜+ − Y˜− convient.
Pour l’unicité, si Ỹ et Ŷ sont B-mesurables et intégrables et vérifient (1.2) alors en particulier pour tout B ∈ B
et Z = 1B on déduit immédiatement de (1.2) que
Z
(Ỹ − Ŷ )dP = 0
B
En prenant B = (Ỹ > Ŷ ) puis B = (Ỹ < Ŷ ), on obtient que Ỹ = Ŷ p.s.
Il est utile de remarquer que la définition ci-dessus est équivalente à la même formulation où l’on a remplacé
(1.2) par
E{Ỹ Z} = E{E{Y |B}Z} = E{Y Z} pour toutes v.a. réelles Z, B-mésurable et bornée.
(1.3)
En effet pour Z = 1B , (1.3) implique (1.2). Inversement, toute v.a. réelle bornée et B-mesurable est la limite
uniforme d’une suite de variables aléatoires étagées et B-mesurables.
Remarque 1.6.3.
1) L’espérance conditionnelle, comme élément de L1 , est une classe d’équivalence de variables aléatoires
pour l’égalité presque sûre. Ainsi toutes relations (égalités, inégalités) faisant intervenir des espérances
conditionnelles doivent être toujours comprises au sens presque sûres même si ce n’est pas toujours explicitement indiqué.
2) Pour une sous–tribu B de F donnée, l’espérance conditionnelle E{Y |B} est B-mesurable. C’est donc une
variable aléatoire intégrable sur l’espace de probabilité (Ω, B, P).
Proposition 1.6.4. Si Y est une v.a. positive non forcement intégrable, son espérance conditionnelle E{Y |B} par
rapport à une sous–tribu B est bien définie.
Preuve. En effet, on pose Ym = Y ∧ m ≥ 0 ; alors Ym ∈ L1 (Ω, F, P) et E{Ym |B} est bien défini. Comme
Ym % Y , par convergence monotone 6 pour tout B ∈ B,
E(Y 1B ) = lim E(Ym 1B ) = lim E(E{Ym |B}1B ) = E( lim E{Ym |B}1B )
m→∞
m→∞
m→∞
ce qui permet de définir E{Y |B} comme limm→∞ E{Ym |B}.
Définition 1.6.5. Pour X une v.a. à valeurs dans Rd et Y une v.a. réelle et intégrable, on appelle espérance conditionnelle de Y sachant X et on note E{Y |X} la variable aléatoire σ(X)-mesurable et intégrable E{Y |σ(X)}.
Nous donnons ci-dessous quelques propriétés de l’espérance conditionnelle analogue à l’espérance.
Théorème 1.6.3. Soit B une sous–tribu de F.
a) Sur l’espace L1 (Ω, F, P), l’application Y → E{Y |B} est linéaire.
6. Rappelons que si Y positive n’est par intégrable on pose E(Y ) = ∞
xii
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
b) Si Y ≥ 0, alors E{Y |B} ≥ 0. De plus si Y et Y 0 , intégrables, sont telles que Y ≥ Y 0 alors E{Y |B} ≥
E{Y 0 |B}.
c)(Convergence monotone.) Si Yn ≥ 0, n ≥ 1 et Yn % Y p.s alors
lim E{Yn |B} = E{Y |B}.
n→∞
d) (Lemme de Fatou.) Si Yn ≥ 0, n ≥ 1 alors
E{lim inf Yn |B} ≤ lim inf E{Yn |B}.
n→∞
n→∞
e)(Théorème de convergence dominée de Lebesgue.) Si lim Yn = Y p.s. et |Yn | ≤ Z, pour tout n ≥ 1, avec
n→∞
Z dans L1 (Ω, F, P), alors
lim E{Yn |B} = E{Y |B}
n→∞
f)(Inégalité de Jensen) Soit φ : R → R une fonction convexe. Soit Y une v.a. réelle intégrable telle que
E|φ(Y )| < ∞. Alors
φ(E{Y |B}) ≤ E{φ(Y )|B}.
Preuve. Les points a) et b) se déduisent de la propriété (1.3) de la définition de l’espérance conditionnelle. Pour
a), soient X et Y deux v.a. dans L1 (Ω, F, P) et a, b dans R. Pour tout Z, v.a. réelle bornée B-mesurable,
E{(aX + bY )Z} =
aE{XZ} + bE{Y Z}
= aE{E(X|B)Z} + bE{E(Y |B)Z}
= E{(aE(X|B) + bE(Y |B))Z}.
et par unicité E{aX + bY |B}
R = aE(X|B) + bE(Y |B). Pour b), on pose X = E{Y |B} et Z = 1(X<0) . Alors
E(XZ) = E(X 1(X<0) ) = (X<0) XdP < 0 dès que P(X < 0) > 0. Z étant B-mesurable et positive, par (1.3)
E(XZ) = E(Y Z) ≥ 0 ce qui implique que P(X < 0) = 0.
Le point c) se démontre de la même façon que la proposition 1.6.4. d) et f) se démontrent de la même façon que
les preuves du lemme de Fatou et du théorème de convergence dominée pour l’espérance. Idem pour l’inégalité
de Jensen.
Nous listons maintenant quelques propriétés spécifiques à l’espérance conditionnelle.
Théorème 1.6.4. Soit B une sous–tribu de F.
a) Si Y (intégrable) est B mesurable, E(Y |B) = Y p.s.
b) Si Y est intégrable et Z est B-mesurable bornée,
E{Y Z|B} = ZE{Y |B}.
c) Si G est une sous–tribu de F telle que G ⊂ B, pour Y intégrable,
E{E{Y |B}|G} = E{Y |G}.
Si G est la tribu triviale {∅, Ω}, E(Y |G) = E(Y ).
d) Si B = σ(X) pour une v.a. X, il existe une fonction borélienne f telle que E(Y |B) = f (X).
e) Si la v.a Y est indépendante de la sous-tribu B (au sens de la définition 1.1.8), alors E(Y |B) = E(Y ).
Preuve. Si Y est B mesurable, il est clair que le choix Ỹ = Y vérifie (1.2), ce qui donne le point a) par
unicité. Pour le point b), ZE(Y |B) est bien B-mesurable. De même ZW est B-mesurable et bornée dès que
la v.a. W B-mesurable et bornée. La relation (1.3) appliquée à E(Y |B) donne E(W ZY ) = E(W ZE(Y |B))
ce qui démontre b). Soit maintenant G ⊂ B, une v.a. Z, G-mesurable, étant également B-mesurable, on a
E(ZE(Y |B)) = E(ZY ) = E(ZE(Y |G)) pour tout Z G-mesurable, ce qui donne c). Le point d) se déduit immédiatement du Théorème 1.6.1 en remarquant que E{Y |X} est σ(X)-mesurable.
xiii
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
Théorème 1.6.5. Soit X une v.a à valeurs dans Rd et Y une v.a. réelle intégrable.
Si X et Y sont indépendantes, alors E{Y |X} = E{Y }.
Preuve. Par hypothèse, Y est indépendante de σ(X). Ainsi, pour tout Z σ(X)-mesurable, par (1.3), E(ZE(Y |X)) =
E(ZY ) = E(Z)E(Y ), et on conclut par l’unicité de l’espérance conditionnelle que E(Y |X) = E(Y ).
1.7
Loi des grands nombres et théorème de limite centrale
Soit (Xn )n≥1 une suite de v.a réelles définies sur un même espace de probabilité (Ω, F, P). On notera
Sn =
n
X
Xi .
i=1
Un théorème qui assure la convergence de la variable aléatoire n1 Sn en un certain sens (en probabilité, dans Lp ,
presque sûrement) est une loi des grands nombres.
Un théorème assurant la convergence en probabilité est appelé une loi faible des grands nombres.
Un théorème assurant la convergence presque sûre est appelé une loi forte des grands nombres.
Théorème 1.7.1. Loi forte des grands nombres. Soit (Xn )n≥1 une suite de v.a réelles indépendantes, identiquement distribuées 7 (i.i.d) 8 et définies sur un même espace de probabilité (Ω, F, P).
2
< ∞ (les v.a. Xi sont dans L2 (Ω, F, P)). Alors,
Soit µ = E(X1 ) et σ 2 = σX
1
n
Sn
1X
= lim
Xi = µ, presque sûrement et dans L2 .
n→∞ n
n→∞ n
i=1
lim
Sn (ω)
En particulier, P {ω; lim
= µ} = 1.
n→∞
n
Notons
n
Sn
1X
=
Xi .
n
n i=1
X̄n :=
Lorsqu’on s’intéresse à une loi F sur (R, B(R)), la suite de v.a (Xn , n ≥ 1) i.i.d et de loi F peut modéliser
une suite d’observations indépendantes de la loi F . On appelle alors X̄n l’espérance empirique ou la moyenne
empirique de l’échantillon (X1 , . . . , Xn ). X̄n est un estimateur de la moyenne de la loi F . Remarquons que
n
E(X̄n ) =
1X
E(Xi ) = µ.
n i=1
Cet estimateur est donc sans biais. Par l’hypothèse d’indépendance, E{(Xj − µ)(Xi − µ)} = 0 dès que j 6= i.
Ainsi
E{(X̄n − µ)2 } =
n
1 X
1
E{(Xi − µ)2 } = 2 nσ 2
2
n i=1
n
et la variance de X̄n , E{(X̄n − µ)2 } est égale à
(1.4)
σ2
. En particulier,
n
lim E{(X̄n − µ)2 } = 0.
n→∞
(1.5)
7. On dit d’un ensemble (Xn , n ≥ 1) de v.a. qu’elles sont identiquement distribuées si toutes les v.a. Xi de l’ensemble ont la même loi.
8. i.i.d est l’abréviation de indépendantes et identiquement distribuées.
xiv
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
Sn
X̄n =
convergence donc bien dans L2 vers µ. La convergence L2 impliquant la convergence en probabilité,
n
on obtient en corollaire du théorème 1.7.1 la loi faible des grands nombres.
Preuvedu Théorème 1.7.1. Il reste à démontrer la convergence presque sûre. Un schéma de preuve très classique
consiste à démontrer la convergence p.s. en deux étapes : on commence par identifier une sous–suite de (X̄n ) qui
converge presque sûrement, (l’existence d’une telle sous–suite est assurée par la convergence dans L2 ). On montre
ensuite que l’écart entre un terme de la suite originale et le terme de la sous–suite qui lui est le plus proche tend
vers 0 p.s, ce qui permettra de conclure à convergence p.s. de la suite originale (X̄n ).
Nous nous restreindrons ici au cas µ = E(Xi ) = 0, (le cas µ 6= 0 s’en déduisant aisément).
S 2
En écrivant l’inégalité de Chebyshev 1.3.1 pour la variable X̄n2 = n2 , on a
n
E{(X̄n2 )2 }
σ2
= 2 2.
2
α
n α
∞
oc
[
1
= 0 . Alors, N =
lim |X̄n2 | ≥
et
n→∞
p
p=1
pour tout α > 0, P(|X̄n2 | ≥ α) ≤
n
Posons N = ω; lim X̄n2
n→∞
P(N ) = P
∞ [
p=1
1
lim |X̄n2 | ≥
n→∞
p
!
≤
∞
X
1
lim |X̄n2 | ≥
P
n→∞
p
p=1
∞
X
σ2
Puisque pour tout α > 0, la série
converge, on peut appliquer le lemme 1.4.2 de Borel–Cantelli avec
n2 α 2
n=1
o
n
= 0 pour tout p et ainsi que P(N ) = 0. La suite (X̄n2 )
α = p1 pour conclure que P limn→∞ |X̄n2 | ≥ p1
converge donc vers 0 presque sûrement.
Pour n dans N, on note kn l’entier tel que kn2 ≤ n ≤ (kn + 1)2 . Nous venons de montrer que lim X̄kn2 = 0
n→∞
presque sûrement. On considère maintenant la suite (Zn ) définie par
Zn := X̄n −
n
kn2
1 X
X̄kn2 =
Xi .
n
n
2
i=kn +1
Si on montre que (Zn ) tend presque sûrement vers 0, on pourra en conclure que (X̄n ) tend également presque
sûrement vers 0. Par un calcul similaire à (1.4),

2
√
n
2 2
X
(n − kn )  1
1 + 2kn 2
1+2 n 2
(n − kn2 )σ 2

E
≤
σ
≤
σ .
E{(Zn )2 } =
X
=
i
n2
n − kn2
n2
n2
n2
2
i=kn +1
En utilisant une nouvelle fois l’inégalité de Chebyshev, on obtient que pour tout p ≥ 1
√
1
1+2 n 2 2
P(|Zn | ≥ ) ≤
σ p .
p
n2
√
∞
X
1+2 n
La série
étant encore convergente, en appliquant une nouvelle fois le lemme de Borel–Cantelli et
n2
n=1
les mêmes arguments que précédemment, on obtient la convergence presque sûre de la suite (Zn ) vers 0.
Nous donnons maintenant une autre version du théorème 1.7.1 ou seule l’hypothèse d’intégrabilité est requise.
Théorème 1.7.2. LoiP
forte des grands nombres de Kolmogorov. Soient (Xn )n≥1 une suite de v.a réelles i.i.d
n
et µ ∈ R. Pour Sn = i=1 Xn on a
Sn
= µ presque sûrement,
n→∞ n
lim
si et seulement si E(Xi ) existe et vérifie E(Xi ) = µ.
xv
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
La preuve de ce théorème est plus difficile que la preuve précédente (voir par exemple dans [1], [7]). La preuve
connue la plus rapide utilise un résultat de la théorie des martingales.
Le résultat important suivant permet de préciser la convergence de la loi d’une somme de variables i.i.d. :
Théorème 1.7.3. de limiteP
centrale. Soit (Xn )n≥1 une suite de v.a réelles i.i.d. avec V ar(X1 ) = σ 2 < ∞ et
n
E(X1 ) = µ. Alors si Sn = i=1 Xn on a
n
X
Sn − nµ
√
lim
= lim
n→∞
n→∞
σ n
i=1
(Xi − µ)
√
σ n
= Z en loi,
où Z est une v.a. réelle de loi gaussienne N (0, 1).
Preuve. Par hypothèse, les variables (Xi − µ) sont centrées et identiquement distribuées suivant une loi donnée F .
Appelons φ la transformée de Fourier de F (ou encore la fonction caractéristique de la v.a. (X1 − µ). Calculons
Sn − nµ
√
la fonction caractéristique de
: pour tout u dans R,
σ n



n

Y
Sn − nµ
iu
√ (Xj − µ)
ψn (u) := E exp iu √
=E
exp


σ n
σ n
j=1
=
n
Y
j=1
E exp
iu
√ (Xj − µ)
σ n
n
u
√
= φ
,
σ n
les deux dernières égalités se déduisant du caractère
i.i.d. des v.a. (Xj − µ) (théorème 1.1.1). Par hypothèse, la
R
loi F a un moment d’ordre 2 (E(X1 − µ)2 = x2 dF (x) < ∞). Sa transformée de Fourier φ est donc deux fois
dérivable en 0. Il est facile de vérifier la formule
φ(u)(n) = in E ((X1 − µ)n exp(iu(X1 − µ))) , pour n = 0,1 et 2
u2
1
u
=
1
−
+
o
et
et d’en déduire que φ0 (0) = 0 et φ00 (0) = −σ 2 . Ainsi φ σ√
n
2n
n
u
√
lim ψn (u) = lim exp n log φ
n→∞
n→∞
σ n
u2
1
= lim exp n log 1 −
+o
n→∞
2n
n
2
u
= exp −
.
2
La limite des fonction ψn (u) étant une fonction continue en 0, par le théorème 1.4.4, on peut conclure que la
Sn − nµ
√
suite des lois des v.a.
associées à chaque ψn converge faiblement vers la mesure dont la transformée
σ n
de Fourier est la fonction u 7→ exp(−u2 /2). Le théorème 1.2.1 permet d’identifier cette mesure comme la loi
gaussienne centrée et réduite.
Si le théorème de la limite centrale renseigne sur la vitesse de convergence de la loi d’un estimateur
le théorème suivant permet de préciser la convergence presque sure :
1
n
Pn
i=1
Xi ,
Théorème 1.7.4. du logarithme itéré. Soit (Xn )n≥1 une suite de v.a réelles i.i.d. avec V ar(X1 ) = σ 2 < ∞ et
E(X1 ) = µ. Alors, presque sûrement, on a


n
m
X
X
Xi − nµ
Xi − mµ 



i=1
i=1
 = 1.
lim sup p
= lim 
sup p

n→∞
2σ 2 n log log n n→∞ m≥n 2σ 2 m log log m 

xvi
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
De la mme façon, on montre que
n
X
Xi − nµ
i=1
lim inf p
n→∞
2σ 2 n log log n
√
n
= −1,
!
n
1X
Xi − µ
n i=1
oscille indéfiniment entre les valeurs −1 et 1, ou encore que
√
σ 2 log log n
√
la vitesse de convergence presque sûre de l’estimateur est en
.
n
ce qui signifie que la quantité
p
2σ 2 log log n
Références bibliographiques
[1] D. DACUNHA-CASTELLE and M. DUFLO. Probabilités et Statistiques, Problèmes à Temps Fixe. Masson,
Paris, 1982.
[2] Jean Jacod and Philip E. Protter. Probability essentials. Universitext. Springer, New York, 2000.
xvii
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 1. QUELQUES ELEMENTS DE LA THEORIE DES PROBABILITES
xviii
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET MOUVEMENT BROWNIEN
Chapitre 2
Processus Stochastiques et mouvement
Brownien
2.1
Généralités sur les processus stochastiques
Un processus stochastique est un modèle mathématique pour décrire l’état d’un phénomène aléatoire évoluant
dans le temps.
Processus stochastique,
fonction aléatoire
ou signal aléatoire
en sont des synonymes.
Soit un espace de probabilité (Ω, F, P). On désigne par T l’ensemble des temps.
On appelle processus aléatoire toute application de T × Ω dans E,
(t, ω) ∈ T × Ω −→ Xt (ω) ∈ E.
En général, on note X ou (Xt , t ∈ T) cette application.
Dans le cadre de ce cours, T sera R+ ou un intervalle borné [0, T ] ou [t1 , t2 ].
E est l’espace des états du processus, égal à R ou Rd et muni de la tribu E, égale à B(R) ou B(Rd ), d ≥ 1.
On supposera toujours que la fonction ω −→ Xt (ω) est mesurable de (Ω, F) dans (Rd , B(Rd )), de sorte que
Xt soit une variable aléatoire à valeurs Rd , d ≥ 1.
Définition 2.1.1. On appelle processus stochastique à temps continu, une collection de v.a. (Xt , t ∈ R+ ) sur
(Ω, F) à valeurs dans (Rd , B(Rd )).
L’observation d’un processus stochastique revient à fixer un ω dans Ω. On appelle trajectoire la fonction de T
dans Rd , obtenue en fixant ω dans Ω,
t ∈ R+ −→ Xt (ω) ∈ Rd .
La valeur à l’instant t ∈ T d’un processus X est la fonction de Ω dans Rd , obtenue en fixant t dans T,
ω ∈ Ω −→ Xt (ω) ∈ Rd .
On notera Xt la “valeur” du processus à l’instant t, qui pour des raisons techniques évidentes sera toujours
supposée être une v.a., c.à.d une fonction mesurable de (Ω, F) dans (Rd , B(Rd )).
Toujours pour des raisons techniques, il est commode de supposer une mesurabilité jointe quand on considère
un processus comme fonction des deux variables (t, ω) :
Définition 2.1.2. Un processus (Xt , t ∈ R+ ) est dit mesurable si l’application 1
(t, ω) ∈ R+ × Ω, B(R+ ) ⊗ F → Xt (ω) ∈ (Rd , B(Rd ))
est mesurable.
1. Pour (E1 , E1 ), . . . , (En , En ) n espaces mesurables, la tribu produit E1 ⊗ . . . ⊗ En est la tribu de E1 × . . . × En engendrée par les
pavés Γ1 × . . . × Γn pour Γ1 ∈ E1 , . . . , Γn ∈ En . L’espace mesurable ainsi défini est le produit des n espaces mesurables.
1
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET MOUVEMENT BROWNIEN
Lorsque l’on considère un processus particulier, il est naturel de s’intéresser à la régularité de ses trajectoires.
Dans le cadre de ce cours, nous ne considérerons que des processus à trajectoires continues.
Proposition 2.1.3. Si (Xt , t ∈ R+ ) est un processus à trajectoires continues (on dit aussi processus continu),
c.a.d. tel que la fonction t → Xt (ω) pour tout ω ∈ Ω est une fonction continue, il est mesurable.
Définition 2.1.4. La loi temporelle d’un processus aléatoire X est définie par la donnée de ses distributions fini–
dimensionnelles, c’est à dire la donnée des lois de probabilités de tous les vecteurs aléatoires (Xt1 , . . . , Xtk )
pour tout k ≥ 1 et t1 < . . . < tk dans T.
2.2
Le mouvement brownien
Le mouvement brownien et les processus de diffusion qui en dérivent, jouent un rôle central dans la théorie
des processus stochastiques.
Ils fournissent des modèles simples pour de nombreuses applications sur lesquelles de nombreux calculs
peuvent être faits.
Le mouvement brownien tire son nom du botaniste Robert Brown qui décrivit en 1827 le mouvement de fines
particules (pollens) en suspension dans un fluide.
Entre la description de Brown et la définition actuelle du mouvement brownien, cet objet a retenu l’attention
de physiciens comme Einstein et Smoluchowski et de mathématiciens comme Wiener, Levy et Itô.
Historiquement, le mouvement brownien est associé à l’observation d’un mouvement qui évolue au cours du
temps de façon si désordonnée qu’il semble imprévisible mais qui présente une certaine homogénéité dans le
temps : la date du début de l’observation n’est pas importante mais sa durée oui.
Définition 2.2.1. Un mouvement brownien standard réel sur R+ est un processus (Wt , t ≥ 0) réel et à trajectoires continues, tel que
- W0 = 0.
- Tout accroissement Wt − Ws où 0 ≤ s < t suit une loi gaussienne centrée, de variance t − s.
- Pour tout 0 = t0 < t1 < t2 < . . . < tn , les accroissements Wti+1 − Wti ; 0 ≤ i ≤ n sont indépendants.
Le mouvement brownien est un processus à accroissements indépendants, stationnaires et gaussiens.
A t ≥ 0 fixé, Wt est une v.a. de loi gaussienne N (0, t) et
P(Wt ∈ [x, x + dx]) = p(x)dx = √
x2
1
exp(− )dx.
2t
2πt
√
√
En particulier, Wt ∈ [−1.96 t, 1.96 t] avec une probabilité de 95% (car P(|Z| ≤ 1.96) ' 0.95 lorsque Z
est de loi gaussienne N (0, 1)).
On peut montrer que cette propriété est vérifiée pour toute la trajectoire brownien.
L’existence d’un mouvement brownien, au sens de la définition précédente, n’est pas évidente. Voir par
exemple la construction de Wiener dans [8], ou encore [9].
En général, les phénomènes observés ne sont pas aussi normalisés que le mouvement brownien standard.
Définition 2.2.2. On appelle encore mouvement brownien, issu de x, de dérive b et de coefficient de diffusion σ,
le processus
Xt = x + σWt + bt.
X est encore un processus à accroissements indépendants, stationnaires et gaussiens mais non centré et tel que
X0 = x.
Dans la suite, en l’absence de précision, “mouvement brownien” désignera le mouvement brownien standard.
2.2.1
Quelques propriétés du mouvement brownien
Les propriétés suivantes sont classiques et très utiles pour les calculs.
Proposition 2.2.3.
2
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET MOUVEMENT BROWNIEN
i) Propriété de symétrie : Si (Wt , t ≥ 0) est un mouvement brownien standard, il en est de même de (−Wt , t ≥ 0).
ii) Propriété d’échelle : Si (Wt , t ≥ 0) est un mouvement brownien standard, alors pour tout c > 0, il en est de
même du processus (Wtc , t ≥ 0) défini pour tout t ≥ 0 par
Wtc =
1
Wc 2 t .
c
fth = Wt+h − Wh ; t ≥ 0) est un
iii) Invariance par translation : Le mouvement brownien translaté de h > 0, (W
mouvement brownien, indépendant du mouvement brownien arrêté en h (Ws , 0 ≤ s ≤ h).
ctT = WT −WT −t est un mouvement brownien
iv) Retournement du temps : Le processus retourné à l’instant T , W
sur [0, T ].
2.2.2
Quelques propriétés de la trajectoire brownienne
Proposition 2.2.4. Le mouvement brownien oscille entre −∞ et +∞ quand le temps augmente indéfiniment. En
effet, presque sûrement,
lim sup Wt = lim sup Wu = +∞,
t→+∞
t→+∞ u≥t
lim inf Wt = −∞.
t→+∞
Mais,
Wt
→ 0, p.s. t → +∞.
t
La vitesse de divergence du mouvement brownien est moins grande que celle de t.
Exercice d’application :
I. Principe de symétrie des trajectoires du MVB :
a) Montrer que pour tout α ≥ 0, P(Wt ≤ α) = P(Wt ≥ −α).
b) Calculer la loi du maximum courant du mouvement brownien : (Mt = sup Ws , t ≥ 0).
0≤s≤t
Calcul de la loi jointe de (Wt , Mt ) :
P(Wt ∈ da, Mt ∈ db) = −
∂ ∂
P(Wt ≤ a, Mt ≥ b)dadb.
∂b ∂a
A l’aide d’un petit dessin et du principe de symétrie, il faut se convaincre que, pour b ≥ a,
P(Wt ≤ a, Mt ≥ b) = P(Wt ≥ 2b − a, Mt ≥ b)
= P(Wt ≥ 2b − a).
D’où, par différentiation
∂ 2
(2b − a)2
√
exp −
dadb
P(Wt ∈ da, Mt ∈ db) =
∂a 2πt
2t
2(2b − a)
(2b − a)2
= √
exp −
dadb.
2t
2πt3
3
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET MOUVEMENT BROWNIEN
Calcul de la loi de Mt :
P(Mt ∈ db) = P(Wt ≤ b, Mt ∈ db)
!
Z b
=
P(Wt ∈ da, Mt ∈ db)da db
−∞
!
∂ 2
(2b − a)2
√
exp −
da db
=
2t
2πt
−∞ ∂a
!
Z b
∂ 2
(2b − a)2
√
exp −
da db
=
2t
2πt
−∞ ∂a
a=b
(2b − a)2
b2
2
2
exp −
exp(− )db.
da
=√
= √
2t
2t
2πt
2πt
a=−∞
Z
b
Au passage, on remarque que P(Mt ∈ db) = P(|Wt | ∈ db).
II. L’intervalle de confiance pour l’ensemble de la trajectoire brownienne :
On montre que pour tout t ≥ 0,
√
P(sup |Ws | ≤ 2 t) ' 90%.
s≤t
En effet, pour tout t ≥ 0,
√
√
P(sup |Ws | ≤ 2 t) = 1 − P(sup |Ws | ≥ 2 t).
s≤t
s≤t
Or,
√
√
√
P(sup |Ws | ≥ 2 t) ≤ P(inf Ws ≤ −2 t) + P(sup Ws ≥ 2 t)
s≤t
s≤t
s≤t
√
= 2P(sup Ws ≥ 2 t)
s≤t
√
= 2P(|Wt | ≥ 2 t) ' 10%,
car P(|Z| ≤ 1.96) ' 0.95 lorsque Z est de loi gaussienne N (0, 1). Ce qui implique le résultat.
Proposition 2.2.5 (Sur l’irrégularité des trajectoires).
a) Si (Wt , t ≥ 0) est un mouvement brownien standard, le processus en temps inversé (Bt = tW 1t , t > 0, B0 = 0)
est un mouvement brownien.
b) Le mouvement brownien n’est pas dérivable en zéro et donc par stationnarité des accroissements, n’est dérivable
en aucun point.
2.2.3
Mouvement brownien vectoriel
Définition 2.2.6. On appelle mouvement brownien vectoriel standard, un processus à trajectoires continues, à
valeurs dans Rd , (Wt = (Wt1 , Wt2 , . . . , Wtd ), t ≥ 0) tel que
- W0 = 0,
- tout accroissement Wt − Ws où 0 ≤ s < t, suit une loi gaussienne sur Rd centrée et de matrice de covariance
(t − s)Id.
- Pour tout 0 = t0 < t1 < t2 < . . . < tn , les accroissements Wti+1 − Wti , avec 0 ≤ i ≤ n, sont indépendants.
Les processus des coordonnées (Wti , t ≥ 0) ,i = 1, . . . , d sont des mouvements browniens réels standard
indépendants. Réciproquement, des mouvements browniens standard indépendants engendrent un mouvement
brownien vectoriel.
4
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET MOUVEMENT BROWNIEN
2.2.4
Mouvement brownien vectoriel corrélé
Définition 2.2.7. Un vecteur aléatoire X = (X1 , . . . , Xd ) à valeurs dans Rd est gaussien si toute combinaison
d
X
linéaire
ai Xi est de loi normale (éventuellement dégénérée).
i=1
Si X = (X1 , . . . , Xd ) est un vecteur gaussien, la matrice carré Γ := (Γi,j )(1≤i≤d,1≤j≤d) avec Γi,j =
E(Xi Xj )−E(Xi )E(Xj ), appelée matrice de covariance est une matrice symétrique et positive (à valeurs propres
positives) 2 .
Théorème 2.2.8. X est une variable aléatoire gaussienne à valeurs dans Rd , d’espérance µ et de covariance Γ,
si est seulement si sa fonction caractéristique est de la forme
φX (u) = exp{i < u, µ > −
1
< u, Γu >},
2
où µ ∈ Rd et Γ est une matrice non nulle, symétrique et positive. On notera Nd (µ, Γ) la loi du vecteur aléatoire
X.
Lorsque Γ est inversible, la loi Nd (µ, Γ) a la densité
1
t −1
p exp − (x − µ) Γ (x − µ) ,
x ∈ R −→
2
(2π)d/2 |Γ|
d
1
où |Γ| désigne le déterminant de la matrice Γ.
Définition 2.2.9. On appelle mouvement brownien vectoriel corrélé, un processus à trajectoires continues, à
valeurs dans Rd , (Bt = (Bt1 , Bt2 , . . . , Btd ), t ≥ 0) tel que
- B0 = 0,
- tout accroissement Bt − Bs où 0 ≤ s < t, suit une loi gaussienne sur Rd centrée et de matrice de covariance
(t − s)K, où K est la matrice de covariance du vecteur gaussien B1 (et est donnée).
- Pour tout 0 = t0 < t1 < t2 < . . . < tn , les accroissements Bti+1 − Bti , avec 0 ≤ i ≤ n, sont indépendants.
La matrice K est toujours symétrique. Ses valeurs propres sont positives ou nulles, mais elle peut ne pas être
inversible.
Lorsqu’il n’existe aucune relation affine presque sûre entre les composantes du vecteur aléatoire B1 , la matrice
K est à valeurs propres strictement positives : elle est définie positive, est donc inversible.
Calcul de covariance.
pose
Soit (Wt1 , Wt2 ) un mouvement brownien standard en dimension 2. Soit ρ ∈ [−1, 1]. On
Bt1 = Wt1
Bt2 = ρWt1 + (1 − ρ)Wt2
Calculer la matrice 2 × 2 de la covariance de B1 .
Décomposition de Cholesky. Toute matrice Γ non nulle, symétrique définie et positive admet une décomposition de Cholesky. Ainsi, il existe une unique matrice L triangulaire inférieure telle que
Γ = Lt L.
Cette propriété est très utile pour construire des variables gaussiennes de loi donnée. En effet, soit Γ une
matrice carré d × d non nulle, symétrique définie positive et µ un vecteur de Rd . Construisons une v.a de loi
2. Une matrice symétrique M est positive si ∀r ∈ Rd , z t M z ≥ 0 ou encore (z.M z) ≥ 0. Une matrice symétrique M est définie positive
si ∀r ∈ Rd , z t M z ≥ 0, et si toutes les valeurs propres de M sont strictement positives ; la matrice M est alors inversible.
5
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET MOUVEMENT BROWNIEN
Nd (µ, Γ). Soit L issu de la décomposition de Cholesky de Γ. Soit G une va gaussienne Nd (0, Id). Alors la v.a
X = µ + LG est de loi Nd (µ, Γ). En effet, calculons la matrice de covariance de X
!
d
d
X
X
ΓG (i, j) = E(Xi Xj ) − E(Xi )E(Xj ) = E(Xi Xj ) = E
Li,k Gk
Lj,l Gl
k=1
=
d
X
l=1
Li,k Lj,d E(G2k ) = (Lt L)i,j = Γi,j .
k=1
Cas fréquent en finance.
dominante.
On observe souvent que la matrice de corrélation d’un panier de d titres est à diagonale


1
5%

\
(2.1)
ρ=
5%
1
On se donne un modèle de prix pour la couverture optionnelle de la forme
ln(St ) = σBt
où σ est un vecteur de volatilité et où B est un mouvement brownien corrélé de corrélation ρ.
Comment simuler B et S ?
On pose la matrice de covariance :
Γ = (ρi,j σi σj )i,j
Cette matrice est symétrique, et si on a de la chance elle est aussi positive. Il existe des algorithmes 3 très efficace
pour le calcul de la matrice L issu de la décomposition de Cholesky de Γ. Si W est un mouvement brownien
standard,
B = LWt est de loi Nd (0, tΓ).
Références bibliographiques
[3] Ioannis Karatzas and Steven E. Shreve. Brownian motion and stochastic calculus, volume 113 of Graduate
Texts in Mathematics. Springer-Verlag, New York, 1988.
[4] D. REVUZ and M. YOR. Continuous Martingales and Brownian Motion. Springer–Verlag, Berlin, 1991.
3. Notons que pour calculer L telle que M = Lt L, pour tout x on pose y = M x alors, connaissant (y, x) il faut trouver L et z tels que
Lt z = y et Lx = z
6
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Chapitre 3
Premiers éléments de Calcul Stochastique
3.1
Filtration et adaptation
Lorsque l’on s’intéresse à l’étude des processus stochastiques, il est naturel de vouloir rapprocher des événements présents (à une date courante t ≥ 0) d’événements passés ou futurs. Les tribus (ensembles structurés
d’évènements) vont jouer un grand rôle dans l’étude des processus.
On associe à un espace de probabilité (Ω, F, P) une suite de tribus indicées par le temps appelé filtration. Le
rôle de la filtration est de formaliser une chronologie des évènements de la tribu F.
Définition 3.1.1. Un espace de probabilité filtré est un espace de probabilité (Ω, F, P) auquel on associe une
famille croissante (au sens de l’inclusion) de sous–tribus de F, notée (Ft , t ≥ 0) :
0 ≤ s < t,
Fs ⊂ Ft .
On notera (Ω, F, (Ft )t≥0 , P), l’espace de probabilité filtré, de filtration (Ft )t≥0 .
Exemple : La filtration engendrée par un processus
On note (FtX , t ≥ 0) la filtration engendrée par le processus (Xt , t ≥ 0). Elle est définie de la manière
suivante :
• Pour tout t ≥ 0, FtX est la plus petite tribu qui rend mesurable toutes les applications ω ∈ Ω → Xθ (ω)
quelque soit θ ≤ t :
FtX := σ(Xθ , 0 ≤ θ ≤ t).
Ainsi, toute les valeurs passés du processus X sont des variables aléatoires sur l’espace de probabilité (Ω, FtX , P).
Les conditions habituelles
Dans la suite, pour des raisons techniques, on supposera toujours qu’une filtration possède les deux propriétés
suivantes, appelées “les conditions habituelles” :
Soit N l’ensemble des événements négligeables de F pour P : N = {A ∈ F; P(A) = 0}.
On va supposer :
a) Si A ∈ N , alors pour tout t ≥ 0, A ∈ Ft .
On exige ainsi que toutes les sous–tribus de la filtration contiennent tout les événements négligeable de F
(ou encore que N ⊂ F0 ).
b) (Ft , t ≥ 0) est continue à droite, c’est à dire
∀t ≥ 0, Ft = Ft+ =
\
Ft+ε .
ε>0
7
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
La filtration engendrée par un processus (X) ne vérifie pas en générale ces conditions. On corrige alors cette
filtration pour obtenir ce qu’on appelle la filtration naturelle :
!
[
\
X
σ(Xs , s ≤ t + ε) N .
Ft = σ
ε>0
Définition 3.1.2. Un processus (Xt , t ≥ 0) est dit Ft –adapté si pour tout t ≥ 0, Xt est une variable aléatoire
Ft –mesurable.
Exemples de processus adaptés
- X est naturellement FtX –adapté.
- Soit maintenant (Ft ) et X un processus Ft –adapté. Alors (f (t, Xt ), t ≥ 0) est lui aussi Ft –adapté dès que
f est mesurable.
Z t
- (
f (s, Xs )ds, t ≥ 0) est Ft –adapté (pourvu que l’intégrale soit bien définie).
0
- Si de plus X est continu, le processus (MtX = sups≤t Xs , t ≥ 0) est Ft –adapté.
Les fonctions mesurables de ces processus sont aussi Ft –adapté.
En modélisation, deux situations peuvent se rencontrer :
a) (Ft ) est la filtration naturelle d’un processus particulier, sur (Ω, F, P). En général, il s’agira de la filtration
naturelle d’un mouvement brownien.
b) La filtration (Ft ) sur (Ω, F, P) est imposée. Dans ce cas, on doit définir un mouvement brownien adapté à
cette filtration donnée :
Définition 3.1.3. Soit (Ω, F, (Ft )t≥0 , P) un espace de probabilité filtré. Un Ft –mouvement brownien standard
(on dit aussi processus de Wiener), (Wt , t ≥ 0) est un processus stochastique à valeurs réelles et à trajectoires
continues qui vérifie :
(Wt , t ≥ 0) est un processus (Ft )-adapté, càd ∀t ≥ 0, Wt est Ft –mesurable.
∀0 ≤ s ≤ t, Wt − Ws est indépendant de Fs .
∀0 ≤ s ≤ t, Wt − Ws a même loi que Wt−s et est gaussien N (0, t − s).
W0 = 0 P p.s. (pour le standard)
Si (Ft ) = (FtW ), i.e si la filtration imposée est la filtration naturelle du mouvement brownien, alors les deux
définitions 2.2.1 et 3.1.3 coïncident.
3.1.1
Martingales en temps continue
On se donne un espace probabilisé filtré (Ω, F, (Ft ), P).
Définition 3.1.4. Un processus (Mt , t ≥ 0) est une Ft –martingale si
(i) (Mt ) est un processus Ft –adapté.
(ii) E|Mt | < +∞, pour tout t ≥ 0, (i.e. le processus (Mt ) est intégrable).
(iii) Pour tout s ≤ t, E(Mt |Fs ) = Ms .
• Si on remplace (iii) par :
(iii’) Pour tout s ≤ t, E(Mt |Fs ) ≤ Ms , on dit que (Mt ) est une surmartingale.
• Si on remplace (iii) par :
(iii”) Pour tout s ≤ t, E(Mt |Fs ) ≥ Ms , on dit que (Mt ) est une sousmartingale.
— Si un processus (Mt ) est une Ft –martingale, alors
∀t ≥ 0, E(Mt ) = E(M0 ).
L’espérance d’une martingale reste constante au cours du temps !
— Le terme de martingale est emprunté au jeux de hasard. Le processus (sur–sous-)martingale est alors dans
ce contexte le gain à chaque étape du jeux (cas de martingale à temps discret).
— Un des grands intérêts de la propriété de martingale est qu’elle permet de “faire” des calculs sur le processus.
8
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
3.1.2
Des exemples de martingales
L’exemple le plus simple de martingale : soit X une v.a réelle, intégrable alors, le processus (Mt ) défini pour
tout t ≥ 0 par
Mt = E(X|Ft )
est une martingale.
Soit maintenant (Wt , t ≥ 0) un Ft mouvement brownien standard.
1. (Wt ) est une Ft –martingale.
2. (Wt2 − t, t ≥ 0) est une Ft –martingale.
3. (exp(σWt −
3.1.3
σ2
2 t), t
≥ 0) est une Ft –martingale.
L’inégalité maximale de Doob
Les martingales sont des objets qui jouent un grand rôle dans la théorie des processus stochastiques, notamment
parce qu’on peut leur appliquer l’inégalité maximale suivante :
Théorème 3.1.5. (Inégalité de Doob).
Soit (Mt ) une Ft –martingale réelle et continue (ie à trajectoires
continues). Pour tout p > 1 tel que MT ∈ Lp (Ω) (i.e. E|MTp | < +∞), on a
1) MT∗ := sup |Mt | est dans Lp (Ω) (ie E|MT∗ |p < +∞).
0≤t≤T
2)
1
E
MT∗p p
≤
1
p
{E (|MT |p )} p .
p−1
Ce résultat se démontre à l’aide du Théorème d’arrêt ?? au chapitre ??. La preuve est reportée à la section ??.
A l’aide de l’inegalité de Jensen, montrer que
(a + b)p ≤ 2p−1 (ap + bp ).
Considérons le cas où (M ) est un brownien standard (W ). Alors, en utilisant la loi explicite du maximum du
mouvement brownien (voir la section 2.2.2), on peut montrer que
p p1
p p1
1
∗p p
= E sup |Wt |
= E max sup (Wt ), − inf (Wt )
E MT
0≤t≤T
≤
0≤t≤T
p E sup (Wt ) − inf (Wt )
0≤t≤T
0≤t≤T
p
0≤t≤T
1
p
p
1
p
1
≤ {2 E (|WT | )} ≤ 2 {E (|WT |p )} p .
Pour p = 2, on retrouve ci-dessus l’inégalité de Doob, pour le mouvement brownien. Pour p > 2, le calcul
ci-dessus, bien que exploitant une identité connue sur la loi du maximum du mouvement brownien, devient une
estimation plus grossière que la l’inégalité de Doob (en effet, 2 > p/(p − 1) dès que p > 2).
3.2
Sur la convergence des variables aléatoires
Suivant le contexte, |x| désignera la valeur absolue sur R ou la norme euclidienne sur Rd .
Définition 3.2.1. Une suite de v.a. (Xn )n≥1 converge presque sûrement vers une v.a. X si l’ensemble
N = ω ∈ Ω : lim Xn (ω) 6= X(ω)
n→+∞
est P-négligeable (i.e. P(N ) = 0).
P{ω ∈ Ω : lim Xn (ω) = X(ω)} = P(N c ) = 1.
n→+∞
On utilisera la notation
lim Xn = X p.s.
n→+∞
9
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Définition 3.2.2. Une suite de v.a. (Xn )n≥1 converge dans Lp vers une v.a. X si les variables Xn appartiennent
à Lp (Ω, F, P) (i.e. E|Xn |p < +∞), X appartient à Lp (Ω, F, P) (i.e. E|X|p < +∞) et
1
lim kXn − XkLp = lim (E(|Xn − X|p )) p = 0.
n→+∞
L
n→+∞
p
On utilisera la notation Xn →X.
Si (Xn )n≥1 est une suite de v.a. intégrables (i.e. dans L1 (Ω, F, P)),
L1
lim Xn = X p.s. ; Xn →X.
n→+∞
R
En effet, il faut montrer que limn→+∞ Ω |Xn − X|dP = 0. Or pour cela on a besoin d’une hypothèse supplémentaire. Par exemple pour appliquer le théorème de convergence dominée, il faut supposer que les variables |Xn −X|
sont majorées par une v.a. intégrable.
Définition 3.2.3. Une suite de v.a. (Xn )n≥1 converge en probabilité vers X si pour tout ε > 0
lim P ({ω : |Xn (ω) − X(ω)| > ε}) = 0.
n→+∞
On écrit simplement,
lim P (|Xn − X| > ε) = 0
n→+∞
P
et on note Xn −→X.
Théorème 3.2.4. Soit (Xn )n≥1 une suite de v.a.
Lp
P
a) Si Xn →X, p ≥ 1, alors Xn −→X.
P
b) Si Xn → X presque sûrement, alors Xn −→X.
P
b) Si Xn −→X, alors on peut extraire de la suite (Xn )n≥1 une sous–suite (Xν(n) )n≥1 qui converge vers X
presque sûrement.
Les trois notions de convergence ci-dessus (p.s., dans Lp , en probabilité) sont des variantes de la convergence
“point par point” de l’analyse classique, c’est à dire une convergence en valeur des fonctions considérées.
3.2.1
Variation quadratique du mouvement brownien
Sur un intervalle [0, T ], on considère une partition τ (δ) = {0 = t0 < t1 < . . . < tn = T } de pas δ =
max(tj − tj−1 ). On définit la p–variation (p > 0) d’un processus (Xt , t ≥ 0) sur l’intervalle [0, T ] par
VTp (τ (δ), X)
=
n
X
|Xtk − Xtk−1 |p .
k=1
La 1-variation de pas δ,
La 2-variation de pas δ,
VT1 (τ (δ), X)
VT2 (τ (δ), X)
est la variation usuelle de X.
est appelée variation quadratique de X.
Considérons le cas particulier du mouvement brownien (qui est une martingale de carré intégrable) :
Proposition 3.2.5. Soit T > 0 fixé et τ (δ) une partition de l’intervalle [0, T ] de pas δ.
a) Pour tout t > 0, la variation quadratique sur [0, t] du mouvement brownien W converge vers t, dans L2 (Ω)
et presque sûrement, quand le pas δ tend vers 0 :
lim Vt2 (τ (δ), W ) = t, p.s.
δ→0
c) Presque toutes les trajectoires du mouvement brownien W sont à 1-variation infinies, sur tout compact.
Lorsque X est une fonction continûment différentiable (i.e de classe C 1 ) de R+ dans R, sa variation VT1 (τ, X)
est bornée et sa variation quadratique VT2 (τ, X) tend vers 0.
10
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
3.3
Intégrale d’Itô – cas unidimensionnel
- Les trajectoires du mouvement brownien sont presque sûrement de 1-variations infinies sur tout compact (et
nulle part différentiable). Ceci signifie qu’il n’est pas possible de définir une intégrale de la forme
T
Z
Xs (ω)dWs (ω)
0
au sens de Lebesgue–Stieljes sur les trajectoires (ie ω par ω, presque sûrement).
- On montre que la p–variation du mouvement brownien sur tout compact tend vers 0 dès que p > 2. La
variation quadratique est la bonne quantité à étudier pour la construction de intégrale stochastique pour
une classe appropriée d’intégrants X.
- Cette construction a été introduite par Itô (1942) pour définir des intégrales contre le mouvement brownien
et a ensuite été généralisée pour les intégrales contre des martingales continues et de carré intégrable par
Kunita et Watanabe (1967).
- Dans le cadre de ce cours, nous ne parlerons que de l’intégrale d’Itô.
3.3.1
Différents espaces de processus
Soit (Ω, F, (Ft ), P) et W un Ft –mouvement brownien réel.
Définition 3.3.1. Pour T > 0 fixé, on définit l’espace MF2 (0, T ) par
n
MF2 (0, T ) = (φt , 0 ≤ t ≤ T ) processus réel, mesurable
!
Z T
o
2
et Ft –adapté tel que E
φθ dθ < +∞ ,
0
Z
et quotienté par la relation d’équivalence : φ ' ψ ⇔ E
T
|φθ − ψθ |2 dθ = 0. On vérifie que MF2 (0, T ) est
0
un espace de Hilbert 1 pour le produit scalaire
!
T
Z
(φ, ψ) = E
φθ ψθ dθ .
0
On définit de la même manière MF2 (R+ ). MF2 est un ensemble de processus pour lesquels on va définir
l’intégrale d’Itô. Cette intégrale aura la particularité d’être une martingale de carré intégrable.
A l’espace MF2 (0, T ), on va associer l’espace de processus élémentaires suivant
Définition 3.3.2. On note EFb (0, T ), le sous–espace de MF2 (0, T ) des processus en escalier et borné qui s’écrivent
sous la forme
φt (ω) =
n−1
X
φi (ω)1]ti ,ti+1 ] (t),
i=0
où 0 = t0 < t1 < . . . < tn = T et où les φi sont des v.a. Fti -mesurables et bornées, (i.e. ∀i, ∃Ci , φi ≤
Ci P p.s.).
Proposition 3.3.3 (Densité de EFb (0, T ) dans MF2 (0, T ).). Tout processus (φt ) de MF2 (0, T ) est limite d’une
suite (φnt ) de processus de EFb (0, T ) :
!
Z
T
|φs − φns |2 ds
lim E
n→+∞
= 0.
0
1. On appelle espace préHilbertien réel un R-espace vectoriel muni d’un produit scalaire euclidien. Un espace de Hilbert est un espace
préHilbertien complet.
11
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
3.3.2
Intégration des processus élémentaires
— Soit (φt , t ∈ [0, T ]) un processus élémentaire de
EFb (0, T )
de la forme φt =
n−1
X
φi
1]ti ,ti+1 ] (t) avec
i=0
0 = t0 < t1 < . . . < tn = T .
On pose I(φ) =
n−1
X
φi (Wti+1 − Wti )
i=0
T
Z
φs dW s.
et on note I(φ) =
0
— De la même façon, pour tout t ∈ [0, T ], on pose
It (φ) =
n−1
X
φi Wti+1 ∧t − Wti ∧t
i=0
Z
t
φs dW s.
et on note It (φ) =
0
t
Z
— Enfin, on notera, pour tout s ≤ t,
φθ dWθ pour It (φ) − Is (φ).
s
Remarque 3.3.4.
- Par construction, le processus
It (φ) =
n−1
X
φi Wti+1 ∧t − Wti ∧t , t ∈ [0, T ]
i=0
est à trajectoire continue en temps.
- Il est facile de voir que (It (φ), t ∈ [0, T ]) est un processus Ft -adapté.
- Il est également facile de voir que pour tout t, l’application It : φ → It (φ) est linéaire pour φ ∈ EFb (0, T ).
Théorème 3.3.5. Pour φ, ψ des processus élémentaires bornés (i.e. appartenant à EFb (0, T )) et pour tout 0 ≤
s ≤ t ≤ T,
Z t
i) EFs
φθ dWθ = 0.
s
En particulier, (It (φ)) est une Ft –martingale continue.
ii)
Fs
Z
t
t
Z
φθ dWθ
E
s
ψθ dWθ
Fs
Z
t
=E
φθ ψθ dθ .
s
s
En particulier :
EFs
Z
2
t
φθ dWθ
= EFs
s
Z
t
φ2θ dθ .
s
L’égalité ci-dessus est appelée
R t l’isométrie d’Itô.
Le processus (It2 (φ) − 0 φ2θ dθ, t ≤ T ) est une Ft –martingale continue.
Preuve. Par la propriété de linéarité de It et de E, il suffit de vérifier les points i) et ii) pour φ et ψ de la forme
φt = Φ1]a,T ] (t) avec Φ une v.a. Fa –mesurable
ψt = Ψ1]b,T ] (t) avec Ψ une v.a. Fb –mesurable.
It (φ) = Φ(Wt − Wt∧a )
It (ψ) = Ψ(Wt − Wt∧b ).
On suppose que a ≤ b, l’autre cas se déduira par symétrie.
12
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Preuve de i). Il faut calculer EFs (It (φ) − Is (φ)). On distingue les cas s < a et s ≥ a.
Si s < a , alors Is (φ) = 0 et


EFs It (φ) = EFs (Φ(Wt − Wt∧a )) = EFs Φ EFa (Wt − Wt∧a ) = 0.
|
{z
}
=0
Si a < s < t :
EFs It (φ)
= EFs (Φ(Wt − Wa )) = ΦEFs (Wt − Wa )
Φ EFs (Wt − Ws ) + ΦEFs ( Ws − Wa )
| {z }
|
{z
}
=0
Fs -mesurable
= Φ(Ws − Wa ) = Is (φ).
=
Donc EFs (It (φ)) = Is (φ) et (It (φ))t∈[0,T ] est bien une Ft –martingale.
Preuve de ii).
On applique les mêmes arguments : on doit calculer
J = EFs (It (φ) − Is (φ))(It (ψ) − Is (ψ)) .
Remarquons que par i),
= EFs It (φ)It (ψ) − Is (φ)Is (ψ)
= EFs ΦΨ(Wt − Wt∧a )(Wt − Wt∧b ) − Is (φ)Is (ψ).
J
Par ailleurs, on note également
H
t
Z t
= EFs ΦΨ
1]a,T ] (θ)1]b,T ] (θ)dθ
s
s
Z t
EFs ΦΨ
1]b,T ] (θ)dθ (car a ≤ b)
s
EFs (ΦΨ) t ∨ b − s ∨ b .
EFs
=
=
=
Z
φθ ψθ dθ
On doit montrer que J = H. Il faut examiner les différents cas :
si b ≥ t, alors b ≥ s et Is (ψ) = 0 ainsi que J = H = 0.
Si b < t, il n’y a deux sous–cas :
Cas s ≤ b < t : alors, H = EFs (ΦΨ) t − b , Is (ψ) = 0 et
J = EFs (ΦΨ(Wt − Wa )(Wt − Wb ))
= EFs ΦΨ(Wt − Wb )2 ) + EFs (ΦΨ(Wb − Wa )(Wt − Wb )) .
Or, l’accroissement Wt − Wb est indépendant de la tribu Fb , donc est indépendant de Fs , Φ et Ψ. D’autre
part Wb − Wa , Φ et ψ sont Fb –mesurables. Donc


J = (t − b)EFs (ΦΨ) + EFs ΦΨ(Wb − Wa ) EFb (Wt − Wb ) .
{z
}
|
=0
Cas b ≤ s ≤ t : se traite de la même façon.
Ainsi,
Z t
Z
EFs It2 +
φ2θ dθ − Is2 (φ) −
0
ce qui prouve que (It2 (φ) −
Rt
0
s
φ2θ dθ
=0
0
φ2θ dθ), 0 ≤ t ≤ T ) est bien une Ft –martingale.
13
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Corollaire 3.3.6. Pour un processus élémentaire borné φ ∈ EFb (0, T ), on a l’inégalité maximale
"
2 #
Z t
Z T
φ2s ds.
φs dWs ≤ 4E
E max 0≤t≤T
0
0
Preuve. On vient de voir que (It (φ)) est une Ft –martingale, il suffit donc d’appliquer l’inégalité de Doob 3.1.5
pour p = 2 :

2 
"
2 #
Z t
Z T
φs dWs 
φs dWs ≤ 4E 
E max 0≤t≤T
0
0
et d’appliquer le point ii) (l’isométrie d’Itô).
Pn−1
Pour tout t ≤ T , l’application It : EFb (0, T ) −→ L2 (Ω, F, P), φ 7→ i=0 φi Wti+1 ∧t − Wti ∧t est linéaire
et continue pour la topologie induite sur EFb (0, T ) par la norme de MF2 (0, T ).
Nous sommes ramené à la situation suivante :
Soit E est un espace vectoriel normé, de norme k k, on notera E 0 l’ensemble des applications linéaires de E −→
R. E 0 est appelé le dual topologique de E.
Corollaire 3.3.7 (du Théorème de Hahn–Banach sous sa forme analytique). Soit G un sous–espace vectoriel
de E et soit g : G → R une application linéaire continue de norme kgkG0 =
sup |g(x)|. Alors il existe
x∈G,kxk≤1
f ∈ E 0 qui prolonge g et tel que kf kE 0 = kgkG0 .
Intégration des processus de MF2 (0, T )
3.3.3
On a obtenu que pour tout t ≤ T , l’application
It : EFb (0, T ) −→ L2 (Ω, F, P)
φ −→
n−1
X
φi Wti+1 ∧t − Wti ∧t
i=0
est linéaire et (cf. Corollaire 3.3.6) continue pour la topologie induite sur EFb (0, T ) par la norme de MF2 (0, T ).
Donc (cf. Corollaire 3.3.7 du Th. de Hahn–Banach) l’application It peut être prolongée par une application
linéaire continue notée encore It : MF2 (0, T ) → L2 (Ω, F, P).
En particulier, par densité de EFb (0,T ) dans MF2 (0,T ) , pour tout φ dans MF2 (0, T ), il existe une suite (φn , n)
d’éléments de EFb (0, T ) telle que
It (φ) = lim It (φn ) dans L2 (Ω).
n→+∞
— Il suffit d’extraire une sous suite pour que la convergence soit presque sûre. On en déduit que It (φ) est
Ft –mesurable comme limite d’une suite de v.a Ft –mesurable. (It (φ))t∈[0,T ] est donc un processus Ft adapté.
— De plus, il y a unicité du prolongement It au sens ou si It0 est un autre prolongement
∀φ ∈ MF2 (0, T ) It (φ) = It0 (φ) P p.s
par unicité de la limite presque sure.
Théorème
3.3.8. Pour φet ψ dans MF2 (0, T ), il existe une modification adaptée et continue du processus (It (φ), t ≤ T )
Z t
notée
φθ dWθ , t ≤ T telle que, ∀s ≤ t ≤ T ,
0
i) EFs
Z
t
Z
s
t
φθ dWθ , 0 ≤ t ≤ T
φθ dWθ = 0, en particulier
est une (Ft )–martingale.
0
14
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Fs
Z
t
Z
φθ dWθ
ii) E
s
t
ψθ dWθ
Fs
Z
=E
s
t
φθ ψθ dθ .
s
En particulier, on a l’isométrie d’Itô
"Z
2 #
t
Fs
E
φθ dWθ
=
Fs
Z
E
s
"Z
φ2θ dθ
.
s
2 #
t
φθ dWθ
E
t
Z
=
E
s
t
φ2θ dθ
.
s
iii) Si (Wt1 , Wt2 , t ≥ 0) est un Ft –mouvement brownien en dimension 2, alors
Z t
Z t
EFs
φθ dWθ1
ψθ dWθ2 = 0.
s
s
Un processus (Yt , t ≤ 0) est dit modification de (Xt , t ≥ 0) si pour tout t ≥ 0 P(Yt = Xt ) = 1.
Preuve. Pour démontrer l’existence d’une modification continue, il faut montrer qu’une suite (φnt ) d’éléments de EFb (0, T ) qui
converge vers (φt ) dans MF2 (0,T ) , converge uniformément en temps (On montre cela à l’aide du Lemme de Borel–Cantelli).
Les points i), ii) et iii) sont démontrés pour des processus élémentaires bornés (cf. Théorème 3.3.5 et sa
preuve). Par passage à la limite ils sont vrais pour le prolongement It . Ils sont vrais aussi pour la modification continue
car :
X, Y ∈ L2 (Ω) et X = Y p.s. ⇒ EG X = EG Y
pour toute sous tribu G de F.
3.3.4
Intégration de processus de L2F (0, T )
On aura besoin d’étendre la construction de l’intégrale à une classe plus vaste de processus Ft –adaptés pour
lesquels l’hypothèse d’intégrabilité est relaxée :
Définition 3.3.9. On définit l’espace L2F (0, T ) par
n
L2F (0, T ) =
(φt , 0 ≤ t ≤ T ) processus réel, mesurable
!
Z T
o
et Ft –adapté tel que
φ2θ dθ < +∞ P p.s. .
0
Proposition 3.3.10. (Densité de EF (0, T ) dans L2F (0, T )).
EF (0, T ) est le sous–espace de L2F (0, T ) des processus en escalier (non forcement bornés)de la forme φt (ω) =
n−1
X
φi (ω)1]ti ,ti+1 ] (t), où 0 = t0 < t1 < . . . < tn = T et où les φi sont des v.a. Fti -mesurables et dans L2 (Ω).
i=0
Tout processus (φt ) de L2F (0, T ) est limite d’une suite (φnt ) de processus de EF (0, T ) au sens suivant
Z T
lim
|φs (ω) − φns (ω)|2 ds = 0, P p.s.
n→+∞
0
Définition et Proposition 3.3.11. Soit φ un processus de L2F (0, T ) et (φn ) une suite de processus de EF (0, T )
telle que
Z T
|φs − φns |2 ds → 0 en probabilité, quand n → +∞.
0
(L’existence d’une telle suite est assuré par le résultat de densité.) Alors, il existe une v.a limite en probabilité de
RT
( 0 φns dWs ). Si (φen ) est une autre suite de processus vérifiant la même propriété que (φn ) alors les limites en
RT
RT
probabilité de ( 0 φns dWs ) et ( 0 φens dWs ) sont égales presque sûrement.
RT
On note I(φ) toute limite d’une suite de la forme ( 0 φns dWs ) avec (φn ) comme ci-dessus.
15
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
3.3.5
L’intégrale stochastique comme processus
Pour φ ∈ L2F (0, T ), on construit It (φ), pour chaque t ∈ [0, T ], (si les hypothèses sont vérifiées sur [0, T ],
elles le sont sur [0, t] pour tout t ≤ T ).
Z t
n
φθ dWθ , donc
It (φ) est donc la limite en probabilité d’une suite de v.a. Ft –mesurables de la forme
0
n
It (φ) est la limite presque sûre d’une sous suite Ft –mesurable. On peut donc en conclure que (It (φ), t ≤ T ) est
un processus Ft –adapté. De plus,
Théorème 3.3.12. Pour tout φ ∈ L2F (0, T ), (It (φ), t ≤ T ) admet une modification adaptée et continue qui sera
Z t
φθ dWθ , t ≤ T .
notée
0
Remarque 3.3.13.
1) De manière évidente, si φ ∈ L2F (0, T ) et φ ∈ MF2 (0, T ), les intégrales stochastiques de φ comme processus de
L2F (0, T ) et comme processus de MF2 (0, T ) sont modifications l’une de l’autre.
2) Contrairement à l’intégrale stochastique de processus de MF2 (0, T ), celle de processus de L2F (0, T ) n’est pas
une martingale et ne vérifie pas (a priori) l’isométrie d’Itô.
RT
Proposition 3.3.14. Soit (φt ) un processus adapté, tel que 0 φ2s ds < +∞, P p.s. Alors,
!
T
Z
φ2s ds
E
"
Z
< +∞ ⇐⇒ E
2 #
< +∞.
φs dW s
t
sup
t∈[0,T ]
0
0
Dans ce cas, l’isométrie d’Itô implique que

!2 
Z T
Z
E
φs dWs  = E
0
!
T
φ2s ds
.
0
Preuve.
R
Rt
T
Sens ⇒. Si E 0 φ2s ds < +∞ alors ( 0 φs dWs , t ∈ [0, T ]) est une martingale et l’inégalité maximale
s’applique pour p = 2 : ainsi

2 
"
Z t
2 #
Z T
E sup φs dWs ≤ 4E 
φs dWs  < +∞.
0≤t≤T
0
0
Sens ⇐. Ce sens nécessite d’utiliser un argument de localisation de l’intégrant (φt ) : on introduit la suite
croissante de temps d’arrêt 2
Z t
τn = inf{t ≥ 0;
φ2s ds = n}
0
avec la convention que inf ∅ = +∞.
(n)
Considérons (φt = 1{t≤τn } φt ). Alors pour tout n, φ(n) ∈ MF2 (0, T ) et ainsi

Z
E
!2 
T
φ(n)
s dWs
Z
=E
0
!
T
2
(φ(n)
s ) ds
Z
=E
0
!
T ∧τn
2
(φs ) ds
0
Mais pour tout n,

Z
!2 
T ∧τn
φs dWs
E
0
"
Z
≤E
sup
t∈[0,T ]
t
2 #
φs dW s
< +∞.
0
2. La notion de temps d’arrêt sera détaillée à la section ?? du chapitre ??.
16
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Ainsi
Z
!
T ∧τn
2
≤E
(φs ) ds
E
"
sup
t∈[0,T ]
0
Par le lemme de convergence monotone 1.4.9,
!
Z T ∧τn
Z
2
(φs ) ds = E
lim E
n→+∞
Z
0
t
2 #
φs dW s
< +∞.
0
!
T
2
(φs ) ds
"
≤E
Z
sup
t∈[0,T ]
0
t
2 #
φs dW s
< +∞.
0
Ce qu’il faut absolument retenir :
Soit (Wt )t≥0 un Ft –mvt brownien et (φt )0≤t≤T unprocessus Ft –adapté.
Rt
On peut définir l’intégrale stochastique 0 φs dWs
0≤t≤T
RT
• dès que 0 φ2s ds < +∞
P
p.s.,
c’est
à
dire
dès
que
φ ∈ L2F (0, T )
RT 2 2
• dès que E 0 φs ds < +∞càd dès que φ ∈ MF (0, T ).
R
R
t
T
φ dWs
est une martingale si E 0 φ2s ds < +∞,
0 s
0≤t≤T
c’est à dire si φ ∈ MF2 (0, T ) et l’isométrie d’Itô s’applique.
R
R
2 T
t
La condition E 0 φ2s ds < +∞ est équivalente à E supt∈[0,T ] 0 φs dWs
< +∞.
2 R
RT
T 2
Dans ce cas, l’isométrie d’Itô implique que E
φ
dW
=
E
φ
ds
.
s
s
s
0
0
3.4
Formule d’Itô – cas unidimensionnel
Soient (Ω, F, (Ft )t≥0 , P) un espace probabilisé filtré et (Wt , t ≥ 0) un Ft -mouvement brownien standard réel
unidimensionnel.
Définition 3.4.1. Un processus d’Itô réel, est un processus X à valeurs dans R, continu et adapté de la forme
Z t
Z t
Xt = X0 +
bθ dθ +
σθ dWθ , P p.s.,
0
0
ce qu’on note encore
dXt = bt dt + σt dWt
X(0) = X0 ,
où
1) X0 est une v.a. F0 mesurable.
2) (bt )0≤t≤T est un processus réel, Ft –adapté, tel que
3) (σt )0≤t≤T est un processus réel appartenant à
RT
0
|bs |ds < +∞, P p.s.
L2F (0, T )
(ie, σt est Ft –adapté et
RT
0
|σs |2 ds < +∞, P p.s.).
Des contraintes sur les coefficients b et σ, il résulte bien que le processus (Xt ) est Ft –adapté et continu.
Théorème 3.4.2 (Formule d’Itô (en dimension un)). Soit f : R → R de classe C 2 (R). Soit X un processus d’Itô
réel. Presque sûrement, pour tout t ∈ [0, T ]
Z t
Z
1 t 2 00
0
f (Xt ) =f (X0 ) +
f (Xs )dXs +
σ f (Xs )ds
2 0 s
0
Z t
Z t
Z
1 t 2 00
=f (X0 ) +
f 0 (Xs )bs ds +
f 0 (Xs )σs dWs +
σ f (Xs )ds
2 0 s
0
0
17
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Forme différentielle :
1
df (Xt ) = f 0 (Xt )dXt + σs2 f 00 (Xt )dt.
2
Si f dépend aussi du temps,
f : [0, T ] × R → R de classe C 1,2 ([0, T ] × R),
Z t
Z t
Z
∂f
∂f
1 t 2 ∂2f
f (t, Xt ) =f (0, X0 ) +
σ
(s, Xs )ds.
(s, Xs )ds +
(s, Xs )dXs +
2 0 s ∂x2
0 ∂t
0 ∂x
Preuve.
- Il suffit de démontrer la formule pour la date t = T seulement. En effet, T est arbitraire et si les hypothèses
sont satisfaites sur [0, T ], elles le sont aussi bien sure [0, θ] pour θ ≤ T . Ainsi, montrer la formule d’Itô à l’instant T
revient à montrer que pour tout t ∈ [0, T ]
Z
Z t
1 t 2 00
σs f (Xs )ds
f (Xt ) = f (X0 ) +
f 0 (Xs )dXs +
2 0
0
presque sûrement. La continuité en temps des termes de gauche et de droite de l’égalité permet de passer le “presque
sûrement” avant le pour tout t (ie P(gauchet = droitet , ∀t ∈ [0, T ]) = 1).
- On montre qu’on peut se ramener à démontre la formule d’Itô dans le cas où les coefficients b et σ sont
presque sûrement uniformément bornés sur [0, T ] (ceci en construisant des suites bn et σ n de tronquation de b
et σ par des valeurs de plus en plus grandes et en utilisant les hypothèses d’intégrabilité de b et σ + le théorème de
convergence de l’intégrale stochastique qui convergence en probabilité (et donc p.s. quitte à extraire une sous–suite)).
N
- On considère une subdivision de [0, T ] de la forme 0 = tN
0 < t1 =
N ∈ N. Alors,
N
−1
X
A := f (XT ) − f (X0 ) =
T
N
< . . . < tN
N = T , de pas h =
T
N
où
f (X(j+1)h ) − f (Xjh ).
j=0
P
P
On rappelle que si (Xn )n est une suite de v.a. telle que Xn −→X et Xn −→Y alors X = Y presque sûrement. Il
suffit donc de montrer la convergence en probabilité du terme de droite de l’égalité ci-dessus vers le terme
de droite de la formule d’Itô (comme f (XT ) − f (X0 ) “converge” vers lui-même en probabilité le rappel ci-dessus
nous donne l’égalité presque sure des deux limites).
- On applique la formule de Taylor à l’ordre 2 en espace : il existe une suite βj (ω) ∈]0, 1[ telle que
A =
N
−1
X
(X(j+1)h − Xjh )f 0 (Xjh )
j=0
+
N −1
1 X
(X(j+1)h − Xjh )2 f 00 (Xjh + βj (X(j+1)h − Xjh ))
2 i=0
:= A1 + A2 .
Pour A1 ). En remplaçant (X(j+1)h − Xjh ) par sa valeur :
A1
=
N
−1
X
i=0
Z
(j+1)h
!
bs f 0 (Xjh )ds
jh
+
N
−1
X
i=0
Z
!
(j+1)h
σs f 0 (Xjh )dWs
jh
:= A11 + A12 .
Z
T
bs f 0 (Xs )ds par convergence dominée. Pour A12 , il faut utiliser un théorème de convergence en probabilité
0
RT
de l’intégrale stochastique : pour que A12 → 0 σs f 0 (s, Xs )dWs , σ étant presque sûrement bornée, il suffit de montrer
A11 →
que
N
−1 Z (j+1)h
X
i=0
0
f (Xjh ) − f 0 (Xs )2 ds → 0 en probabilité. Or, la convergence ci-dessus à lieu presque sûrement par la
jh
continuité des trajectoires de X.
18
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Pour A2 ).
A2
=
+
!2
N −1 Z (j+1)h
1 X
bs ds f 00 Xjh + βj (X(j+1)h − Xjh )
2 i=0
jh
! Z
!
Z
N
−1
(j+1)h
(j+1)h
X
bs ds
σs dWs f 00 Xjh + βj (X(j+1)h − Xjh )
i=0
+
jh
jh
N −1 Z (j+1)h
1 X
σs dWs
2 i=0
jh
!2
f 00 Xjh + βj (X(j+1)h − Xjh )
= C1 + C2 + C3 .
R
2
(j+1)h
b étant borné, jh
bs ds ≤ Bh2 → 0 et donc C1 → 0p.s..
C2 ≤
N
−1
X
i=0
Comme t →
Rt
0
Z
(k+1)h
σs dWs sup f 00 Xkh + βj (X(k+1)h − Xkh ) .
Bh sup k
k kh
σs dWs est continue, C2 → 0.
Pour C3 ). Il faut maintenant montrer que
Z
1 T 2 00
P
σs f (Xs )ds −→0.
C 3 −
2 0
Dans le cas où σ = cte et où f 00 (x) = cte la relation ci-dessus devient
N
−1 X
(tj+1 − tj ) − Wtj+1 − Wtj
2 P
−→0
i=0
t−
N
−1
X
Wtj+1 − Wtj
2
P
−→0
i=0
ce qui est vrai par la convergence presque sure de la variation quadratique du mouvement brownien.
Exemple élémentaire :
Soit (Wt ) un brownien réel. Montrer en utilisant la formule d’Itô que le processus (Wt2 −t) est une martingale.
3.5
Intégrale d’Itô – cas multidimensionnel
L(Rr , Rd ) désigne l’ensemble des applications linéaires de Rr dans Rd (matrices d lignes et r colonnes).
(U · V ) désigne le produit scalaire entre les vecteurs U et V .
Soit (Wt , t ≥ 0) un Ft –mouvement brownien de dimension r. Soit φ un processus à valeurs matricielles :
pour tout t ≤ T , φt est une v.a à valeurs dans L(Rr , Rd ). On dit encore que φ est dans MF2 (0, T ) si
2
∀i ∈ {1, . . . , d}, j ∈ {1, . . . , r}, (φi,j
t )t≤T ∈ MF (0, T ).
Z t
Z t
(i)
On définit
φs dWs comme le vecteur de dimension d dont la i–ème coordonnée est
φs dWs
=
0
0
Z
r
t
X
j
φi,j
s dWs .
j=1
0
On vérifie alors à l’aide de l’isometrie d’Iô (Théorème 3.3.8) que
19
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Proposition 3.5.1.
Z t
Fs
1) E
φθ dWθ = (0, . . . , 0).
s
2) Si ψ vérifie les mêmes hypothèses que φ
Z t
Z t
Z t
Z t
t
Fs
Fs
Fs
(φθ · ψθ ) dθ
trace φθ ψθ dθ = E
ψθ dWθ
=E
φθ dWθ ·
E
s
3.6
s
s
s
Formule d’Itô – cas multidimensionnel
Soit (Wt , t ≥ 0) un Ft –mouvement brownien standard vectoriel, de dimension r, sur un espace probabilisé
filtré (Ω, F, (Ft )t≥0 , P).
Définition 3.6.1. Un processus d’Itô, est un processus X à valeurs dans Rd , continu et adapté de la forme
Z t
Z t
Xt = X0 +
bθ dθ +
σθ dWθ P p.s.
0
0
noté encore
dXt = bt dt + σt dWt
X(0) = X0
où
1) X0 est une v.a. F0 mesurable.
RT
2) (bt )0≤t≤T est un processus à valeurs dans Rd , Ft –adapté et tel que 0 |bs |ds < +∞ P p.s.
3) (σt )0≤t≤T est un processus à valeurs matricielles tel que pour tout t ∈ [0, T ], σt ∈ L(Rr , Rd )
et pour tout i = 1, . . . , d, j = 1, . . . , r (σti,j )0≤t≤T appartient à L2F (0, T ) (ie, σ i,j est Ft –adapté et
Z T
|σsi,j |2 ds < +∞ P p.s.).
0
Ainsi, pour tout t ∈ [0, T ], Xt = (Xt1 , . . . , Xtd ) avec pour chaque i = 1, . . . d,
Z t
r Z t
X
P p.s.,
Xti = X0i +
bis ds +
σsi,j dWsj .
0
j=1
0
Comme à la section 3.7, on a que si (σ i,j ∈ MF2 (0, T )) pour tout i = 1, . . . , d, j = 1, . . . , r, (Xt ) est une
martingale si et seulement si pour Lebesgue presque tout t ∈ [0, T ], P − ps, bit = 0, pour tout i = 1, . . . , d.
Soit u(t, x) une fonction de [0, T ] × Rd à valeurs dans R, de classe C 1,2 ([0, T ] × Rd ). On note
le gradient u
∇u(t, x)
∂u
(t, x), 1 ≤ i ≤ d
∂xi
∂2u
(t, x), 1 ≤ i, j ≤ d
∂xi ∂xj
=
∈ Rd
la matrice hessienne
uxx (t, x)
=
∈ L(Rd , Rd ).
Proposition 3.6.2. Formule d’Itô, le cas multidimensionnel
Soit une fonction u(t, x) ∈ C 1,2 ([0, T ] × Rd , R).
Presque sûrement, pour tout t ∈ [0, T ],
Z t
Z t
∂u
u(t, Xt ) =u(0, X0 ) +
(s, Xs )ds +
∇u(s, Xs ) · dXs
0 ∂s
0
Z t
1
+
trace σs σst uxx (s, Xs ) ds
2 0
Z t
Z t
∂u
=u(0, X0 ) +
(s, Xs )ds +
∇u(s, Xs ) · dXs
0 ∂s
0
Z
d
r
1 t X ∂ 2 u X ik jk
+
σs σs ds
2 0 i,j=1 ∂xi ∂xj
k=1
20
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Sous forme différentielle
du(t, Xt ) =
∂u
1
(t, Xt ) + ∇u(t, Xt ) · bt dt +
trace(σt σtt uxx (t, Xt ) dt
∂t
2
+ ∇u(t, Xt ) · σt dWt .
Proposition 3.6.3. (Formule d’intégration par parties (IPP) pour des fonctions déterministes du temps.)
Soit f : [0, T ] → R de classe C 1 et W un mouvement brownien réel standard. Alors,
t
Z
Z
f (s)dWs = f (t)Wt −
0
t
f 0 (s)Ws ds.
0
Preuve. On applique la formule d’Itô au produit f (t)Wt :
Z
f (t)Wt = f (0)0 +
t
f 0 (s)Ws ds +
Z
t
f (s)dWs .
0
0
La formule précédente est sans surprise par rapport à la formule d’IPP standard. Que se passe t’il quand on
remplace f (t) par un processus d’Itô ?
Proposition 3.6.4. (Formule d’intégration par partie stochastique (IPPS)). Soit W un mouvement brownien
réel standard.
On considère deux processus d’Itô réels X et Y définis par
dXt = bt dt + σt dWt ,
dYt = βt dt + γt dWt .
Alors,
d(Xt Yt ) = Xt dYt + Yt dXt + σt γt dt,
ou encore
Z
Xt Yt = X0 Y0 +
t
Z
Xs dYs +
0
t
Z
Ys dXs +
0
t
σs γs ds.
0
En multiD on a toujours que :
Soit (Wt )t≥0 un Ft –mvt brownien et (φt )0≤t≤T unprocessus Ft –adapté.
Rt
On peut définir l’intégrale stochastique 0 φs dWs
0≤t≤T
RT
dès que 0 φ2sds < +∞ P p.s., c’est à dire dès que φ ∈ L2F (0, T ).
RT
ou dès que E 0 φ2s ds < +∞ P p.s., càd dès que φ ∈ MF2 (0, T ).
R
R
t
T 2
φ
dW
est
une
martingale
si
E
φ
ds
< +∞,
s
s
s
0
0
0≤t≤T
c’est à dire si φ∈ MF2 (0, T ) et l’isométrie d’Itô s’applique.
RT
La condition E 0 φ2s ds < +∞ est équivalente à
R
2 t
E supt∈[0,T ] 0 φs dWs
< +∞. Dans ce cas, l’isométrie d’Itô
2 R
2
RT
RT
T 2
t
implique que E
φ
dW
=
E
trace(φ
φ
)ds
=
E
φ
ds
.
s
s
s
s
s
0
0
0
21
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
3.7
Processus d’Itô et martingale
Soit (Ω, F, (Ft )t≥0 , P) un espace probabilisé filtré et (Wt , t ≥ 0) un Ft –mouvement brownien standard réel
(dimension 1).
Proposition 3.7.1.
(1) Si (Mt , t ∈ [0, T ]) est une Ft -martingale de carré intégrable (i.e E(Mt2 ) < +∞) , alors
E (Mt − Ms )2 /Fs = E(Mt2 − Ms2 /Fs ).
(2) Si (Mt , t ∈ [0, T ]) est une Ft -martingale, telle que
t
Z
pour tout t ∈ [0, T ],
Mt =
bs ds,
0
avec P p.s.,
RT
0
|bs |ds < +∞, pour que (Mt ) soit bien définie. Alors, P p.s. tout t ∈ [0, T ], Mt = 0.
Preuve. Montrons (1). Notons que E(Mt Ms /Fs ) = Ms2 . Ainsi
E (Mt − Ms )2 /Fs = E Mt2 − 2Mt Ms + Ms2 /Fs = E(Mt2 − Ms2 /Fs ).
Montrons (2). Pour montrer que Mt = 0 pour tout t, il suffit de montrer que E(MT2 ) = 0.
Nous donnons ici une version simplifié de la preuve du point (2) 3 .
On ajoute à la proposition l’hypothèse suivante : il existe une constante déterministe C telle que, P p.s.,
supt∈[0,T ] |bt | ≤ C. M est alors une martingale de carré intégrable.
T
Pour n ∈ N, considérons une partition (tni = i × , i = 0, . . . , n) de [0, T ].
n
Alors, par le point (1) et pour tout n,
!
!
n
n
X
X
2
2
2
2
2
2
E(MT ) = E MT − M0 = E
(Mtni − Mtni−1 ) = E
(Mtni − Mtni−1 )
i=1
i=1

Z
n
X
= E
!2 
tn
i
 ≤ C2
|bs |ds
tn
i−1
i=1
n
X
T
(tni − tni−1 )2 = C 2
n
i=1
n étant arbitraire, il suffit de le faire tendre vers l’infini pour conclure E(MT2 ) = 0. Ceci entraine que P p.s.,
MT = 0.
De l’inégalité maximale de Doob, on obtient encore que P p.s., ∀t ∈ [0, T ], Mt = 0.
Corollaire 3.7.2.
1) La décomposition d’un processus d’Itô (X) est unique.
t
Z
Si Xt = X0 +
Z
t
ks ds +
0
hs dWs = X00 +
0
Z
t
Z
bs ds +
0
t
σs dWs ,
0
alors X0 = X00 P p.s., ks = bs et hs = σs , ds × dP p.p.
2) Si (Xt , t ∈ [0, T ]) est une martingale de la forme
Z
Xt = X0 +
t
Z
bs ds +
0
avec P p.s.,
RT
0
|bs |ds < +∞ et
RT
0
t
σs dWs ,
0
|σs |2 ds < +∞, alors bs = 0 ds × dP p.p.
3. La preuve complète utilise la notion de temps d’arrêt.
22
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Preuve. A nouveau, nous donnons seulement une idée de la preuve, en ajoutant l’hypothèse que (ht ) et (σt ) sont
des processus appartenant à MF2 (0, T ).
Montrons (1). On commence par remarquer immédiatement que X0 = X00 . on applique le point (2) de la
Rt
proposition précédente, avec la martingale Mt = 0 (hs − σs )dWs et b0t := (kt − bt ).
On en déduit que Mt = 0 P-presque surement. D’après l’isométrie d’Itô,
Z t
0 = E(Mt2 ) = E
(σs − hs )2 ds.
0
On en déduit finalement que σ = ht , dt × dP, puis que bt = kt , dt × dP.
R Pour montrer le point (2), il suffit d’appliquer la linéarité de la propriété de martingale au processus (Xt −
σ dWs , t ∈ [0, T ]), et conclure que bt = 0, dt × dP.
0 s
3.8
Caractérisation de Lévy du mouvement brownien
Soit (Ω, F, (Ft )t≥0 , P) un espace probabilisé filtré et (Wt , t ≥ 0) un Ft –mouvement brownien standard réel
(dim 1).
La propriété que Wt − Ws a une moyenne nulle, indépendamment de Fs signifie que le mouvement Brownien
est une martingale. De plus, nous avons énoncé que la variation quadratique de W converge vers t, dans L2 (Ω) et
presque sûrement, quand le pas δ tend vers 0 :
lim Vt2 (τ (δ), W ) = t, p.s.
δ→0
Le fait remarquable est que la contraposée de cet énoncé est vraie : le mouvement Brownien est la seule
martingale qui a cette variation quadratique. Ce résultat est connu sous le nom de caractérisation de Lévy
Théorème 3.8.1 (-Caractérisation de Lévy du mouvement brownien). Soit (Xt , t ≥ 0) une martingale (locale) 4
telle que X0 = 0. On a alors les équivalences suivantes
* (Xt , t ≥ 0) est un mouvement brownien standard, dans l’espace de probabilité filtré de la martingale.
* (Xt , t ≥ 0) est continue et (Xt2 − t, t ≥ 0) est une martingale (locale).
* La variation quadratique de (Xt , t ≥ 0) sur [0, t] est égale à t.
Ce résultat se généralise en dimension quelconque.
3.9
Changement de Probabilité
Pourquoi changer de probabilité ?
- Statistique : Théorie de l’estimation par maximum de vraisemblance.
- Etude des martingales : de nombreuses propriétés sur les solutions d’EDS découlent des techniques de
changement de probabilité.
Dans le cas de modèles discrets, les changement de probabilité sont fréquents. Les transformations sont
très simples est on ne les références pas comme changement de probabilité.
- En finance : Harrison & Pliska (1987) introduisent la notion de probabilité risque neutre pour son lien avec
la complétude des marchés financiers et l’absence d’opportunité d’arbitrage.
Définition 3.9.1. Changement de Probabilité. Soit (Ω, F, P) un espace de probabilité de référence.
Une probabilité Q sur (Ω, F) définit un changement de probabilité par rapport à P, s’il existe une v.a. Z
positive, F-mesurable, telle que
Q(A) = EP (Z 1A ), pour tout A ∈ F.
Z
Z
g(ω)Q(dω) =
g(ω)Z(ω)dP(ω), ∀f mesurable bornée.
Ω
Ω
La v.a. Z s’appelle la vraisemblance (ou la densité) de Q par rapport à P.
4. La notion de martingale locale est plus générale que la notion de martingale au sens où toute martingale est une martingale locale. Cette
notion de martingale locale sera introduite avec la notion de temps d’arrêt
23
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Remarquons que EP (Z) = 1.
On note souvent Q = ZP ou dQ = ZdP ou encore
dQ = Z.
dP F
Définition 3.9.2. Probabilités équivalentes. On dit que des probabilités Q et P sont équivalentes si Z est
strictement positive P p.s. ce qui entraîne que P est un changement de probabilité par rapport à Q de densité
Z −1 .
Lorsque les probabilités P et Q sont équivalentes, on écrit souvent Z sous la forme exp(Y ).
3.9.1
Exemple élémentaire
En finance : le modèle binomiale à une période.
Soit U une v.a. qui prend deux valeurs u et d avec les probabilités p et 1 − p. Pour F, on prend la tribu
engendrée par U .
S0 est le prix connu aujourd’hui. S = S0 U , le prix demain. Soit r le taux d’intérêt sur la période.
• Chercher une probabilité Q (si elle existe) telle que le rendement espéré de l’actif risqué soit identique au
rendement de l’actif non risqué. En particulier
EQ S = S0 (1 + r).
• Trouver l’unique (si elle existe) densité Z correspondant à ce changement de probabilité. Les probabilités
P et Q sont elles équivalentes ?
3.9.2
Le cas des variables gaussiennes
Soit U une v.a de loi N (0, σ 2 ) et F la tribu engendrée par U . On considère encore S = S0 U (même si le
choix de la loi gaussienne n’est pas réaliste dans ce contexte).
• Trouver Q une probabilité risque neutre, c’est à dire vérifiant
EQ S = S0 (1 + r).
Réponse : il y en a une infinité, mais une seule probabilité Q est telle que U soit encore de loi gaussienne, de
variance σ 2 , sous la nouvelle probabilité Q.
Proposition 3.9.3. Soit X v.a. de loi N (m, σ 2 ) sous P, σ 2 > 0. Soit
λ2
Z = exp λX − σ 2 .
2
Z est une v.a. positive, d’espérance 1 qui définit une nouvelle probabilité Q, par dQ = ZdP, sous laquelle X est
une v.a. de loi gaussienne N (m + σλ, σ 2 ).
Preuve. Les calculs sont laissés au lecteur. Prenons tout d’abord, X de loi N (0, 1). Alors pour toute fonction f
continue et bornée :
1
EQ (f (X)) = EP (f (X) exp(λX − λ2 )) = EP (f (X + λ)).
2
Maintenant, si G est de loi N (m, σ 2 ), en posant fe(x) = f (m + σx),
EQ (f (G)) = EQ (f (σX + m))
1
= EP (fe(X) exp(λX − λ2 )) = EP (fe(X + λ))
2
= EP (f (m + σ(X + λ))) = EP (f (G + σλ)).
Application : on cherche la loi Q telle que EQ S0 U = S0 (1 + r), pour U de loi N (0, σ 2 ) sous P. Il suffit de
1+r
poser dQ = ZdP, avec Z défini comme dans la proposition pour λ =
.
σ
24
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
Références bibliographiques
[5] I. KARATZAS and S.E. SHREVE. Brownian Motion and Stochastic Calculus. Springer-Verlag, New York,
1988.
[6] D. REVUZ and M. YOR. Continuous Martingales and Brownian Motion. Springer–Verlag, Berlin, 1991.
25
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 3. PREMIERS ÉLÉMENTS DE CALCUL STOCHASTIQUE
26
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
Chapitre 4
Valorisation d’options européennes, dans
le cadre du modèle de Black et Scholes
unidimensionnel
4.1
Description du modèle de marché Black et Scholes
Soit T une date de fin de gestion (par exemple la date d’échéance d’une option).
On considère un marché ou un sous–marché composé de
- un titre risqué (St , t ∈ [0, T ])
- un titre non risqué (St0 , t ∈ [0, T ])
I On se place dans le cadre simplifié suivant :
— L’action sous-jacente ne distribue pas de dividende durant la durée de vie de l’option ;
— Les transactions sur l’action se font au comptant ;
— La courbe des taux est plate et invariante dans le temps.
L’actif risqué.
Le processus (St , t ∈ [0, T ]) suit le modèle de Black et Scholes :
1 2
St = S0 exp (µ − σ )t + σWt ,
2
où S0 est le prix observé aujourd’hui à la date 0, µ est la rentabilité instantané moyenne et σ la volatilité de l’actif.
En appliquant la formule d’Itô pour différencier S, on obtient la forme différentielle suivante pour S :
dSt = St (µdt + σdWt ).
Le modèle de B&S est nécessairement posé dans un espace de probabilité (Ω, F, P), muni d’un Brownien
W = (Wt )t≥0 de dimension 1. Si (Ft )t≤T est la filtration naturelle de W , alors S = (St )t≥0 est Ft -adapté.
L’actif non risqué.
L’actif non risqué est décrit également par l’évolution de son prix (St0 )0≤t≤T . Il s’agit de modéliser la capitalisation d’un placement sûr, comme un placement à la caisse d’épargne ou l’achat de bons du Trésor.
Dans le modèle de Black et Scholes, on suppose l’existence d’un unique taux de prêt et d’emprunt, connu à la
date t = 0 et qui reste constant au cours du temps, du moins jusqu’à l’échéance du dérivé.
(St0 )0≤t≤T est défini par l’équation toute simple
dSt0 = St0 rdt
S00 = 1
27
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
de solution
St0 = exp(rt).
L’ensemble des prix du marché considéré (St0 , St ) est un vecteur de dimension 2.
4.2
Les stratégies de financement
Sur le marché (ou sous–marché) considéré (St0 , St ), on considère maintenant des stratégies d’investissement
pour les agents.
- Une stratégie est un processus aléatoire de dimension 2, Ft -adapté, notée φ = (φt )t≤T avec φt =
(Ht0 , Ht ).
- La valeur d’une stratégie à l’instant t est
Vt (φ) = Ht0 St0 + Ht St ,
où
- Ht0 ∈ R est la quantité d’actifs sans risque détenus par l’investisseur.
- Ht ∈ Rd est le vecteur des quantités d’actifs risqués détenus.
Vt (φ) = Ht0 St0 + Ht St .
4.2.1
Les stratégies autofinancées
Une stratégie est dite autofinancée si, une fois la mise initiale fixée, on ne consomme, ni n’investit de liquidités
supplémentaires jusqu’à T .
Définition 4.2.1. Une stratégie autofinancée est un processus (φt ), à valeurs dans R2 , Ft -adapté, vérifiant
RT
RT
(i) 0 |Ht0 |dt < +∞ et 0 |Ht |2 dt < +∞.
(ii) φ vérifie la condition d’autofinancement :
Vt (φ) = H00 S00 + H0 S0 +
Z
t
Hu0 dSu0 +
Z
t
Hu dSu .
(4.1)
dVt (φ) = Ht0 dSt0 + Ht dSt , V0 (φ) = H00 S00 + H0 S0 .
(4.2)
0
0
Ou encore
On peut justifier l’équation d’autofinancement 4.1 ou 4.2 en revenant au cas discret : considérons φn =
(Hn0 , Hn ), de valeur
Vn (φ) = Sn Hn + Sn0 Hn0 .
A chaque temps n de la modélisation, on doit re-balancer le portefeuille sans ajouter ou retirer de cash. Cette règle
impose la relation de re-balancement à valeur constante
0
Vn (φ) = Sn Hn+1 + Sn0 Hn+1
.
Ainsi,
0
0
Vn+1 (φ) − Vn (φ) = Hn+1 (Sn+1 − Sn ) + Hn+1
(Sn+1
− Sn0 ).
ou encore,
∆Vn (φ) = Hn ∆Sn + Hn0 ∆Sn0 .
Rt
Rt
La condition (i) permet de bien définir les intégrales 0 Hu0 dSu0 et 0 Hu dSu . Pour cela, il faut également
utiliser le fait que S est un processus continu sur un intervalle [0, T ], admettant un maximum ω par ω.
28
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
4.2.2
Actualisation, changement de numéraire
La valeur du numéraire St0 évolue à chaque instant.
On note (βt ) le processus de facteur d’actualisation : βt = 1/St0 = exp(−rt).
Quelque soit la valeur V d’un bien dans ce marché, on notera Ṽ sa valeur actualisé.
Les prix actualisés des actifs du notre marché sont (Set , Set0 ) avec
Set = βt St ,
et Set0 = βt St0 = 1, ∀t.
Lemme 4.2.2.
(i) La valeur actualisée du portefeuille de stratégie φ est
Vet (φ) = Ht0 + Ht Set .
(ii) En termes de prix actualisés, l’équation d’autofinancement devient
Vet (φ) = H00 + H0 Se0 +
Z
t
Hu dSeu .
0
Ou encore
dVet (φ) = Ht dSet .
Preuve. Le premier point (i) est immédiat.
Rappelons que l’autofinancement implique que dVt = Ht0 dSt0 +Ht dSt , ce qui signifie que Vt est un processus
d’Itô.
Comme exp(−rt) est déterministe et dérivable, de la formule d’Itô, il est facile de déduire que
dṼt = d(Vt exp(−rt)) = exp(−rt)dVt + Vt d(exp(−rt)).
Ainsi
dṼt = exp(−rt) Ht0 dSt0 + Ht dSt − r exp(−rt) Ht0 St0 + Ht St dt.
Or rappelons encore que St0 = exp(rt) et dSt0 = r exp(rt), ainsi l’expression ci-dessus se simplifie en
dṼt = exp(−rt) (Ht dSt − r exp(−rt)Ht St dt)
= Ht (exp(−rt)dSt + St d(exp(−rt)))
= Ht d(exp(−rt)St ) = Ht dS̃t
4.3
Opportunité d’arbitrage et probabilité risque neutre
Définition 4.3.1. On note Q, l’ensemble des mesures de probabilités sur (Ω, FT ) équivalentes à P et telles que si
P∗ ∈ Q, alors sous P∗ , les prix actualisés (Set ) sont des Ft -martingales :
∀0 ≤ s ≤ t ≤ T,
. EP∗ Set Fs = Ses
Définition 4.3.2. Une opportunité d’arbitrage est une stratégie autofinancée φ, d’investissement initial nul, de
valeur à l’instant T positive ou nulle et cette valeur est strictement positive avec une probabilité strictement
positive.
1) P V0 (φ) = H00 S00 + H0 S0 = 0 = 1,
2) P (VT (φ) ≥ 0) = 1,
29
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
3) P (VT (φ) > 0) > 0.
On peut remplacer 3) par EP (VT (φ)) > 0.
• Pour qu’un système de prix soit consistant, le marché considéré ne doit pas offrir d’opportunité d’arbitrage.
• On parle d’absence d’opportunité d’arbitrage (A.O.A)
Sous quelles conditions peut–on affirmer qu’un modèle de marché n’offre pas d’opportunité d’arbitrage ?
4.3.1
Lien entre A.O.A et probabilité risque neutre
Le lien intuitif . Il y a équivalence entre A.O.A et l’existence d’une probabilité risque neutre (ou au moins une
implication).
Plaçons nous à une date t ∈ [0, T ]. Connaissant tout le passé Ft , un incrément futur du prix
S̃t+s − S̃t
de l’actif risqué ne peux être signé avec une probabilité égale à 1 ! Sinon, on peut construire un arbitrage simple
en achetant/vendant l’actif en prévision de la hausse/baisse certaine future et en se finançant/plaçant au taux r.
Notons ici qu’il est absolument nécessaire de travailler en unité monétaire actualisé pour que la comparaison entre
les deux prix ait un sens.
Ainsi, pour certifier qu’un (modèle de) marché est sans arbitrage possible, il suffit de montrer qu’il existe une
probabilité P∗ équivalente à la probabilité de référence P telle que
EP∗ Set+s − Set /Ft = 0.
En effet, si la moyenne est nulle sous P∗ équivalente à P, alors nécessairement
P Set+s − Set > 0/Ft = 0
P Set+s − Set < 0/Ft = 0
EP∗ Set+s − Set /Ft = 0 est caractéristique de la propriété de martingale.
Ce constat peut varier suivant le modèle de marché considéré :
Cas d’un modèle à temps discret, horizon de gestion fini
Soit N fixé dans N∗ . Soit (Sn0 , Sn )n∈{0,1,...,N } un processus de prix à temps discret sur N dates. ∀n, Sn est
une v.a. à valeurs dans R.
Le marché (Sn0 , Sn )n∈{0,1,...,N } est sans arbitrage.
⇐⇒
Il existe P∗ équivalente à P telle que (Sen ) soit une P∗ - martingale.
Modélisation à temps discret, mais à horizon de gestion infini
Un exemple de marché :
Soit (Yn )n≥0 une suite de Bernoulli (i.e. les v.a. Yn sont i.i.d et
P(Y0 = 1) = P(Y0 = −1) = 1/2.
Soit le marché (Sn0 , Sn )n≥0 :
Sn0 = 1, (taux d’intérêt r = 0)
Sn+1 = Sn exp (Yn+1 ) , S0 = 1.
1) Calculer une probabilité qui rend (Sn )n martingale.
2) Montrer qu’il existe une stratégie autofinancée φ et un temps d’arrêt τ tel que
a) τ est P-p.s. fini.
b) V0 (φ) = 0 et Vτ (φ) = 1.
Dans ce marché : ∃ P∗ ; A.O.A.
(Cette stratégie d’arbitrage est la stratégie du “ quitte ou double".)
30
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
Marché en temps continu
Un exemple de marché :
Soit le marché (St0 , St )0≤t≤T
St0 = 1 (taux d’intérêt r = 0)
St = Bt (un mouvement brownien).
1) Calculer une probabilité qui rend (St ) martingale.
Z
2) [Dudley 1977] Soit Z une v.a FT -mesurable, il existe un processus (Ht ) adapté tel que
Ainsi,
R
t
H
dB
−
H
B
,
H
s
s
t t
t est un arbitrage, dès que Z est une v.a. positive.
0
R
t
Ainsi, la stratégie 0 Hs dBs − Ht Bt , Ht est un arbitrage, dès que Z est une v.a. positive.
T
Hs dBs = Z.
0
Conclusion. Identifier une probabilité risque-neutre dans le marché ne suffit pas à éliminer tout lesarbitrages.
Rt
Mais pour éliminer toutes les opportunités d’arbitrage, il suffit de contraindre les processus du type 0 Hs dSes , t ≤ T
à être des P∗ – martingales.
4.4
Stratégies admissibles
On suppose l’existence d’une probabilité risque neutre P∗ appartenant à Q.
Définition 4.4.1. Une stratégie φ = (Ht0 , Ht )t≤T est dite admissible si
a) φ est autofinancée ;
b)
sup Vet (φ) est une v.a de carré intégrable sous P∗ :
0≤t≤T
EP∗
4.5
sup Vet (φ)2
< +∞.
0≤t≤T
Options européennes
• Une option européenne est un contrat transférable qui dégage un flux positif ou nul, à une échéance T fixée
à l’avance.
• L’ option européenne est entièrement déterminée par la donnée de T et de ce flux h ≥ 0, variable aléatoire FT -mesurable.
Deux situations :
(a) h est de la forme f (ST ).
(b) h est de la forme f ({St , t ≤ T }).
Définition 4.5.1. Une option européenne est simulable si il existe une stratégie admissible φ, dont la valeur à
l’échéance T est égale au flux h dégagé par l’option :
VT (φ) = h.
Définition 4.5.2. Sous la condition d’A.O.A.,
si φ est une stratégie simulant l’option européenne de flux h à T , on appelle
(i) V0 (φ), le prix d’arbitrage de h,
(ii) Vt (φ), le prix implicite de l’option à la date t.
(iii) La valeur d’exercice à la date θ, f (Sθ ) ou f ({St , t ≤ θ}) est le prix intrinsèque de l’option à cette date.
Proposition 4.5.3. Sous la condition d’A.O.A.,
le prix d’arbitrage est bien défini (il est unique).
31
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
4.5.1
Le pricing d’option européenne dans le modèle de Black et Scholes
Théorème 4.5.4. Pour le modèle de Black et Scholes unidimensionnel, il existe une unique probabilité P∗ , équivalente à P telle que sous P∗ , le prix actualisé de l’actif soit une P∗ -martingale.
Preuve. Nous cherchons donc une probabilité sous laquelle Set soit une martingale. Nous allons utiliser la forme
explicite de
1 2
e
St = S0 exp (µ − r − σ )t + σWt .
2
Notons que si µ = r la probabilité de référence est une probabilité qui rend Se martingale.
Rappelons la forme de la martingale de l’exponentielle du brownien :
1 2
Mt = M0 exp − σ t + σWt
2
est une martingale relativement à la probabilité sous laquelle W est un mouvement brownien.
Ainsi, posons
µ−r
Wt∗ = Wt +
t
σ
de sorte que
1 2
∗
e
St = S0 exp − σ t + σWt .
2
W ∗ est un processus à trajectoire continue, à accroissement indépendant. A chaque instant t, le changement de
probabilité doit ainsi recentrer la variable gaussienne Wt∗ .
Ainsi sur (Ω, FT ) considérons pour tout t ∈ [0, T ]
µ−r
1 (µ − r)2
Zt = exp −
Wt −
t
.
σ
2 σ2
Notons que (Zt , t ∈ [0, T ]) est une martingale. Alors, sous la nouvelle probabilité P∗ définie par dP∗ = ZT dP,
calculons la loi de W ∗ : considérons une fonction test continue et bornée f .
EP∗ [f (Wt∗ )] = EP [f (Wt∗ )ZT ] = EP [f (Wt∗ )EP (ZT /Ft )] = EP [f (Wt∗ )Zt ]
Z
1
1 2
µ−r
1 (µ − r)2
µ−r
t) √
exp(− y ) exp
y−
=
f (y +
t dy
σ
2t
σ
2 σ2
2πt
ZR
1
1
exp(− y 2 )dy
=
f (y) √
2t
2πt
R
= EP [f (Wt )]
Ainsi, W ∗ est bien un mouvement brownien sous la nouvelle probabilité, de sorte que le prix de l’actif actualisé
1
Set = S0 exp − σ 2 t + σWt∗ ,
2
est bien une martingale de type brownien géométrique sous la nouvelle probabilité P∗ .
Notons pour finir que ZT > 0 et 1/ZT > 0, ce qui veut dire que P∗ est bien équivalente à P.
Notons enfin que dans ce cas Zt est unique.
4.5.2
Premier énoncé pour le pricing d’une option européenne
A l’aide de la formule d’Itô, on calcule facilement les différentielles :
dSt = St (µdt + σdWt )
dSt = St (rdt + σdWt∗ )
dSet = Set ((µ − r)dt + σdWt )
dSet = Set σdWt∗ .
32
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
On déduit des deux formes des equations d’autofinancement que
dVet = Ht dSet = Ht Set σdWt∗ .
Ainsi Ve serait une martingale si on arrive à montrer que Ht Set est un processus de MF
2 (0, T ).
A ce stade, il est essentiel de lier la notion de stratégie admissible à la caractérisation suivante des processus
de M2F (0, T ) :
RT
Proposition 4.5.5. Soit (φt ) un processus adapté, tel que 0 φ2s ds < +∞, P p.s. Alors,
!
"
Z
2 #
Z
T
t
φ2s ds
E
< +∞ ⇐⇒ E
sup
φs dWs
t∈[0,T ]
0
< +∞.
0
Lemme 4.5.6. Si φ est un portefeuille admissible, alors Ve (φ) est une P∗ -martingale.
Preuve. Il suffit donc de montrer que Ht Set est dans M2F (0, T ). Nous utilisons la caractérisation de la proposition
4.5.5 :
"
"
#
Z t
2 #
2
E∗ sup
σHt Ses dWs∗
= E sup Vet (φ) − V0
t∈[0,T ]
≤ 4E
t∈[0,T ]
0
"
sup
Vet (φ)
2
#
< +∞.
t∈[0,T ]
Théorème 4.5.7. Pour le modèle de Black et Scholes, on rappelle que sur (Ω, F, P), W est un Brownien et
(Ft )t≥0 est sa filtration naturelle. Alors,
(1) toute option européenne définie par une v.a h, FT mesurable et de carré intégrable sous P∗ , est simulable.
(2) La valeur à l’instant t de toute stratégie simulante φ est donnée par
Vt (φ)
= EP∗ exp(−r(T − t)h Ft .
Preuve du théorème 4.5.7. Montrons (2) : Soit φ un portefeuille simulant. φ etant admissible, Ve est une P∗ martingale. Ainsi pour tout t ∈ [0, T ],
Vet (φ) = EP∗ VeT /Ft
Vt (φ) exp(−rt) = EP∗ (exp(−rT )VT (φ)/Ft )
et enfin
Vt (φ)
= EP∗ (exp(−r(T − t)h/ Ft ) .
Montrons (1) : C’est à cette étape qu’intervient l’hypothèse que Vf
T est une va de carrée intégrable.
Théorème 4.5.8 (Représentation des martingales browniennes). Soit (Mt , 0 ≤ t ≤ T ), une martingale par
rapport à la filtration naturelle (Ft , t ∈ [0, T ]) d’un mouvement brownien (Bt ) sur un espace de probabilité
(Ω, F, Q), de carré intégrable. On suppose que cette martingale est de carré intégrable.
! Alors, il existe un proZ T
cessus Ft -adapté (Kt , 0 ≤ t ≤ T ) dans M2F (0, T ), c’est à dire tel que EQ
Ks2 ds < +∞ et
0
Z
∀t ∈ [0, T ], Mt = M0 +
t
Ks dBs , Q p.s.
0
33
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
Appliquons ce théorème à la martingale (Vet , t ∈ [0, T ]) dans l’espace (Ω, FT , P∗ ) avec le mouvement browRt
nien W ∗ de filtration (Ft , t ∈ [0, T ]). Soit donc K ∈ M2F (0, T ) tel que Vet = V0 + 0 Ks dWs∗ . De l’unicité de la
décomposition d’un processus d’Itô, on déduite que Kt = σHt Set dt × P∗ presque partout, ou encore
Ht =
Kt
σ Set
Ht0 = Vet − Ht Set = Vet −
Kt
σ
4.5.3
Second énoncé pour la valorisation d’une option européenne
On se donne (Ω, F, (Ft )t≤T , P) et un Ft -mvt brownien (Wt )t≥0 sous P de dimension 1.
Notons tout d’abord que pour tout s ≤ t
σ 2 (t − s)
St = Ss exp µ(t − s) −
+ σ(Wt − Ws )
2
σ 2 (t − s)
Set = Ses exp((µ − r)(t − s) −
+ σ(Wt − Ws ))
2
En particulier, on peut poser
Stx,s = x exp(µ(t − s) −
σ 2 (t − s)
+ σ(Wt − Ws ))
2
pour avoir St = StSs ,s . Écrit avec le brownien W ∗ de la probabilité risque neutre P∗ , on obtient aussi
σ 2 (t − s)
St = Ss exp(r(t − s) −
+ σ(Wt∗ − Ws∗ ))
2
σ 2 (t − s)
∗
∗
e
e
St = Ss exp −
+ σ(Wt − Ws )
2
σ 2 (t − s)
x,s
∗
∗
e
St = x exp −
+ σ(Wt − Ws )
2
Le résultat de valorisation suivant concerne les option européenne de flux h de la forme f (ST ).
Théorème 4.5.9 (Princing pour une option de flux h de la forme f (ST )). Pour le modèle de Black et Scholes,
1) toute option européenne définie par une v.a h, FT mesurable et de la forme f (ST ), est simulable
pour f conti
nue, bornée ou au plus linéaire à l’infini (i.e. f (x) ≤ A + B|x|) et telle que EP∗ f 2 (ST ) < +∞.
2) La valeur à l’instant t de toute stratégie simulante φ est donnée par
x,t Vt = EP∗ exp(−r(T − t)f (ST ) := F (t, St ).
x=St
où on a posé
F (t, x) = EP∗ exp(−r(T − t)f (STx,t ) .
3) La stratégie simulante est explicite : φ = (Ht0 , Ht )t≤T avec
Ht =
Ht0
∂F
(t, St ),
∂x
∂F
= exp(−rt) F (t, St ) − St
(t, St ) .
∂x
34
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
Preuve. Notons d’abord que Stx,s est indépendant de Ft , ainsi
F (t, x) = EP∗ exp(−r(T − t)f (STx,t )/Ft .
et
F (t, St ) = EP∗ exp(−r(T − t)f (STx,t )/Ft x=St
= EP∗ exp(−r(T − t)f (STx,t )x=S /Ft = EP∗ (exp(−r(T − t)f (ST )/Ft )
t
Du théorème précédent qui s’applique encore ici, on déduit immédiatement 1) et 2). Montrons 3). Nous avons
donc Vet = exp(−rt)F (t, St ) et
Z
1 2
y2
dy
.
)p
F (t, x) =
e−r(T −t) f (xeσy−( 2 σ −r)(T −t) ) exp(−
2(T − t)
2π(T − t)
R
Nous verrons section 4.6 que F est une fonction C ∞ . On peut donc appliquer Itô pour calculer
dVet = d (exp(−rt)F (t, St ))
= −r exp(−rt)F (t, St )dt + exp(−rt)
∂F
∂F
σ 2 St2 ∂ 2 F
(t, St )dt +
(t, St )dSt +
(t,
S
)dt
.
t
∂t
∂x
2 ∂x2
Mais dSt = St (rdt + σdWt∗ ). Ainsi
∂F
(t, St )dWt∗
dVet = σ exp(−rt)St
∂x
∂F
∂F
σ 2 St2 ∂ 2 F
(t, St ) +
(t, St )St r +
(t, St ) − rF (t, St ) dt
+ exp(−rt)
∂t
∂x
2 ∂x2
∂F
∂F
∂F
σ 2 St2 ∂ 2 F
= σ Set
(t, St )dWt∗ + exp(−rt)
(t, St ) +
(t, St )St r +
(t,
S
)
−
rF
(t,
S
)
dt.
t
t
∂x
∂t
∂x
2 ∂x2
Or (Ve ) est une martingale, et l’équation d’autofinancement donne dVet = Ht Set σdWt∗ . par l’unicité de la décomposition d’un processus d’Itô, on déduit des expressions ci-dessus que
∂F
Ht Set σ = σ Set
(t, St ), dt × Pp.p.
∂x
et ainsi Ht =
∂F
∂x (t, St ).
Le terme en dt permet d’introduire l’EDP de Black et Scholes :

 ∂F
σ 2 x2 ∂ 2 F
∂F
(t,
x)xr
+
(t,
x)
+
(t, x) − rF (t, x) = 0
∂t
∂x
2 ∂x2
 F (T, x) = f (x)
4.5.4
La formule de Black et Scholes
Désigne la formule explicite : Vt = F (t, St ), où
Z
1 2
F (t, x) =
e−r(T −t) f (xeσy−( 2 σ −r)(T −t) ) exp(−
R
y2
dy
)p
.
2(T − t)
2π(T − t)
On accompagne la formule d’une série d’indicateurs de sensibilité :
∂F
Le delta : ∆(t) =
(t, St ) = Ht .
∂x
2
∂ F
Le gamma : Γ(t) =
(t, St ).
∂x2
35
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
∂F
∂F
(t, St ) ou Θ(t) = −
(t, St )
∂t
∂T
∂F
Le vega : V ega(t) =
(t, St , σ). (noté ν ? ?)
∂σ
∂F
Le rho : ρ(t) =
(t, St , σ).
∂r
∂2F
(t, St ).
Le vega gamma : volga =
∂σ 2
2
∂ F
Le vanna =
(t, St ).
∂σ2∂x
∂∆
Le delta decay = charm =
(t, St ).
∂T
∂Γ
Le gamma decay = color =
(t, St ).
∂T
3
∂ F
(t, St ).
Le speed =
∂x3
Le thêta : Θ(t) =
4.6
Mouvement brownien et équation de la chaleur
Considérons la densité gaussienne comme un noyau
1
(y − x)2
g(t, x, y) := g(t, y − x) = √
.
exp −
2t
2πt
L’une des propriétés fondamentales de ce noyau est la propriété de convolution :
Z
g(t, ·) ∗ g(s, ·)(x) =
g(t, x − z)g(s, z)dz = g(t + s, x)
R
ce qu’on peut encore écrire en utilisant la notation précédente
Z
g(t + s, x, y) =
g(t, x, z)g(s, z, y)dz.
R
En effet, x+Wt+s est une v.a. de densité gaussienne g(t+s, x, y). D’autre part, x+Wt+s = x+Wt +(Wt+s −Wt ).
Par indépendance des accroissements browniens, la densité de x + Wt+s est la convolution des densités de x + Wt
et de (Wt+s − Wt ) qui sont g(t, x, y) et g(s, 0, y).
Une deuxième propriété importante du noyau gaussien est :
1 ∂2
1 ∂2
∂
g(t, x, y) =
g(t,
x,
y)
=
g(t, x, y).
∂t
2 ∂x2
2 ∂y 2
On dit que le noyau g est la solution fondamentale de l’équation de la chaleur.
Proposition 4.6.1.
a) Soit f une fonction mesurable bornée. La fonction uf (t, x) définie sur R+ × R par
(t, x) → uf (t, x) = E (f (x + Wt ))
est de classe C ∞ en espace et en temps pour tout t > 0 et vérifie l’équation de la chaleur

 ∂ f
1 ∂2 f
u (t, x) =
u (t, x) pour tout t > 0 et x ∈ R,
2 ∂x2
 u∂tf (0, x) = f (x),
pour tout x ∈ R.
b) Soit une v.a. réelle X0 de densité π(x), indépendante
R du mouvement brownien (Wt , t ≥ 0).
La densité de la loi de X0 + Wt égale à q(t, y) = R g(t, x, y)π(x)dx vérifie aussi une équation de la chaleur

1 ∂2
 ∂
q(t, y) =
q(t, y) pour tout t > 0 et y ∈ R,
∂t
2 ∂y 2

q(0, y) = π(y), pour tout y ∈ R.
36
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
Les résultats précédents s’étendent sans difficulté au cas du mouvement brownien avec dérive (Xtx = x + bt +
σWt , t ≥ 0).
Xtx est de loi gaussienne décentrée N (x + bt, σ 2 t) de densité
(y − x − bt)2
exp −
.
gb,σ2 (t, x, y) = √
2σ 2 t
2πσ 2 t
1
Il est facile de vérifier que la fonction (t, x) → p(t, x) = gb,σ2 (t, x, y) satisfait
∂
p(t, x) = Lb,σ2 p(t, x).
∂t
où Lb,σ2 est l’opérateur différentiel du second ordre (ou générateur) associé au processus (Xtx , t ≥ 0) est défini
par
Lb,σ2 φ(x) =
1 2 00
σ φ (x) + bφ0 (x)
2
2
En effet, on a toujours ∂t g(t, x, y) = ∂xx
g(t, x, y) donc
∂t gb,σ2 (t, x, y) =
∂ g(σ 2 t, x + bt, y) = σ 2 ∂t g(σ 2 t, x + bt, y) + b∂x g(σ 2 t, x + bt, y)
∂t
ou encore
∂t gb,σ2 (t, x, y) =
1 2 2
σ ∂xx gb,σ2 (t, x, y) + b∂x gb,σ2 (t, x, y) = Lb,σ2 gb,σ2 g(t, x, y)
2
Proposition 4.6.2. Pour toute fonction f mesurable et bornée,
uf (t, x) = E [f (x + bt + σWt )] = Ef (Xtx ) vérifie l’équation
(
∂
u(t, x) = Lb,σ2 u(t, x) pour tout t > 0 et x ∈ R,
∂t
u(0, x) = f (x), pour tout x ∈ R.
De plus, si f est de classe Cb1,2 sur R+∗ × R,
Ef (t, Xtx ) = f (0, x) +
Z
0
t
∂
E Lb,σ2 f (s, Xsx ) + f (s, Xsx ) ds.
∂t
Un autre exemple de lien processus–EDP (qui ne nécessite par de calcul stochastique) est le cas du brownien
géométrique : pour (Wt , t ≥ 0) un mouvement brownien standard, on défini le processus (Stx , t ≥ 0) (x > 0) par
1 2
x
St = x exp µt + σWt − σ t .
2
S x est un brownien géométrique de valeur initiale x.
Pour tout t > 0, Stx suit une loi log–normale de densité
2 !
1
1
y
1 2
√
l(t, x, y) =
exp − 2 log( ) − (µ − σ )t
2σ t
x
2
σy 2πt
qui se déduit de la densité gaussienne par la formule de changement de variable pour les densités.
D’autre part, pour toute fonction f mesurable et bornée sur R+ , v f (t, x) = E [f (Stx )] est solution de l’EDP à
coefficients variables

∂
1
2


v(t, x) = σ 2 x2 ∂xx
v(t, x) + µx∂x v(t, x),
∂t
2
(4.3)
pour tout t > 0 et x ∈ R+ ,


+
v(0, x) = f (x), pour tout x ∈ R .
37
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
CHAPITRE 4. OPTIONS EUROPÉENNES, MODÈLE DE BLACK ET SCHOLES UNIDIMENSIONNEL
En effet,
1
v f (t, x) = E f exp log x + σWt + (µ − σ 2 )t
2
= uf ◦exp (t, log x)
où l’EDP satisfaite par u(t, y) est associée au générateur du mouvement brownien avec dérive Xt = y + σWt +
t(µ − σ 2 /2). En particulier, d’après la Proposition 4.6.2,
∂t u(t, y) =
1 2 2
σ ∂yy u(t, y) + (µ − σ 2 /2)∂y u(t, y).
2
Pour x = ey , comme v(t, x) = u(t, y) = v(t, ey ),
∂t u(t, y) = ∂t v(t, x),
∂y u(t, y) = x∂x v(t, x),
2
2
∂yy
u(t, y) = x2 ∂xx
v(t, x) + x∂x v(t, x),
Ce qui permet de vérifier (4.3).
• Les liens avec l’équation de la chaleur, énoncé précédemment, s’étendent au cas vectoriel sans restriction.
Exercice :
Déduire de ce qui précède que pour toute constante r > 0
F (θ, x) = EP [exp(−r(T − t)f (Sθx )]
est C ∞ en x en tout θ > 0, dès que f est mesurable et bornée.
Références bibliographiques
[7] Jean Jacod and Philip E. Protter. Probability essentials. Universitext. Springer, New York, 2000.
[8] Ioannis Karatzas and Steven E. Shreve. Brownian motion and stochastic calculus, volume 113 of Graduate
Texts in Mathematics. Springer-Verlag, New York, 1988.
[9] D. REVUZ and M. YOR. Continuous Martingales and Brownian Motion. Springer–Verlag, Berlin, 1991.
38
IMAFA P OLYTECH N ICE S OPHIA /C OURS DE MATHS FINANCIÈRES /M. B OSSY
Téléchargement