Mouvement Brownien Exité

publicité
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA
RECHERCHE SCIENTIFIQUE
UNIVERSITE 20 AOUT 55 DE SKIKDA
FACULTE DES SCIENCES
DEPARTEMENT DES SCIENCES FONDAMONTALES
MEMOIRE
POUR L’OBTENTION DU DIPLOME DE MAGISTER EN
MATHEMATIQUES DE L’ECOLE DOCTORALE
OPTION
PROBABILITES ET STATISTIQUES
Intitulé :
Mouvement Brownien Exité
Présenté par :
Halim Atoui
Soutenu devant le jury
PRESIDENT
A. NOUAR
M.C
U.SKIKDA
RAPPORTEUR
H. BOUTABIA
Prof
U.Badji Mokhtar
EXAMINATEUR
N. DJELLAB
M.C
U.Badji Mokhtar
EXAMINATEUR
M.R. REMITA
M.C
U.Badji Mokhtar
Année universitaire 2009/2010
Table des matières
1 Rappels de calcul stochastique
1
1.1 Généralités sur les processus stochastiques . . . . . . . . . . . . . . . . . . . . . . .
2
1.2 Intégrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.2.1
Intégrale par rapport au MB . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.2.2
Intégration par rapport à une martingale continue . . . . . . . . . . . . . . .
9
1.2.3
Semimartingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.2.4
Résultats importants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.3 Equations di¤érentielles stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.4 Processus de Markov et Di¤usion . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.4.1
Distributions invariantes et loi forte des grands nombres . . . . . . . . . . .
2 Temps Locaux Et Excursions
22
2.1 Temps Locaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1
19
23
Temps local brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
2.2 Excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
2.2.1
Processus de Poisson ponctuel . . . . . . . . . . . . . . . . . . . . . . . . . .
27
2.2.2
Excursions Browniennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3 Mouvement Brownien Excité
30
3.1 Décompositon trajéctorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
3.2 Théorème de Ray-Knight pour X 1 et X 2 . . . . . . . . . . . . . . . . . . . . . . . .
38
3.3 Drift homogène, comportement asymptotique . . . . . . . . . . . . . . . . . . . . .
46
3.3.1
Critère de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
3.3.2
Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
3.4 conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
i
ii
Remerciements
Je tiens à exprimer ma reconnaissance à Monsieur H. Boutabia Professeur à l’université de
Annaba qui m’a donné l’idée de ce travail. il m’a communiqué le goût de la théorie d’approximation
et m’a beaucoup appris dans ce domaine. il m’a o¤ert toutes les facilités a…n de me permettre de
réaliser mon travail.
Je remercie vivement Monsieur A. Nouar Maître de conférence à l’université de Skikda d’avoir
accepté de présider le jury de ma soutenance.
Je remercie in…niment Madame N. Djellab Maître de conférence à l’université de Annaba, Monsieur R. Remita, Maître de conférence à l’université de Annaba d’avoir acceptés d’examiner mon
travail.
En…n je remercie tous mes amis et tout le personnel administratif du département de mathématiques
iii
Abstract
We study a natural continuous time version of excited random walks, “Excited Brownian motions”
in Rd when specialised and simpli…ed to d = 1; becomes the stochastic di¤erential equation
Xt = Bt +
Zt
s
ds;
g Xs ; LX
s
0
for some bounded measurable g; and where B is a Brownian motion and (Lxt : t
0; x 2 R)
is the local time process of X. Though X is not Markovian, an analogue of the Ray-Knight
theorem holds for Lx1 ; which allows one to obtain a necessary and su¢ cient condition for
recurrence and to prove in many cases of interest that limt
!1
Xt =t exists almost surely, and
to identify the limit.
Keywords : Reinforced process ; Excited process ; Recurrence ; Law of large numbers.
iv
Résumé
Nous étudions la version continue en temps des marches aléatoires excitées ; “Mouvements Browniens Excités”dé…nis par l’équation di¤érentielle stochastique
Xt = Bt +
Zt
s
ds;
g Xs ; LX
s
0
pour une certaine fonction g mesurable et bornée, et où B est un mouvement brownien et (Lxt : t
0; x 2 R)
est le processus du temps local de X: Bien que X ne soit pas markovien, un analogue du théorème
de Ray-Knight se tient pour Lx1 ; ce qui permet d’obtenir une condition nécessaire et su¢ sante pour
caractèriser la récurrence, et de prouver dans de nombreux cas d’intérêt que limt
!1
Xt =t existe
presque sûrement en donnant la forme explicité de cette limite.
Mots clés : processus renforcés ; Processus excités ; Récurrence ; Loi des grands nombres.
v
Introduction
Les processus aléatoires qui interagissent avec leur trajectoire passée ont été beaucoup étudiés ces
dernières années. Les marches aléatoires renforcées ont été introduites par Coppersmith et Diaconis,
puis étudiées par Pemantle, Davis et de nombreux autres auteurs (voir [30]). Quelques exemples des
processus continus en temps et en espace dé…nis par une équation di¤érentielle stochastique ont été
également étudiés. Par exemple l’auto-interaction di¤usions a été étudiée par Benaïm, Ledoux et
Raimond (voir [7]-[9]) et également par Cranston, Le Jan, Herrmann, Kurtzmann and Roynette (voir
[12], [15], [23]), sont des processus dé…nis par une équation di¤érentielle stochastique pour laquelle
la dérive est une fonction de la position actuelle et de la mesure d’occupation du processus passé.
Un autre exemple qui n’est pas solution d’une équation di¤érentielle stochastique a été étudiée par
Tôth and Werner [36]. Ce type de processus est une version continue de certaines auto-interaction
généralisant le cas des marches aléatoires étudiées par Tôth (voir [35]).
L’un des problèmes les plus di¢ ciles de la théorie des probabilités est de construire et analyser des
modèles pour les marches aléatoires excitées, qui ont été introduites par Benjamini et Wilson [10],
puis encore étudiées d’abord sur Zd [1], [4], [5], [11], [20], [21], [22], [26], [41], [42], mais également
sur les arbres [6], [37]. Dans cette classe de marches, les probabilités de transition dépendent du
nombre de fois où la marche a visité le site actuel. En particulier Zerner [41] et plus tard Kosygina
et Zerner [20] ont montré que sur Z, si pi est la probabilité de passer de x à x + 1 après la i-ème
visite de x, alors que la marche est presque sûrement récurrente si et seulement si,
X
(2pi 1) 2 [ 1; 1]
i
et elle est p.s. transitoire sinon. D’ailleurs Basdevant et Singh [4] ont montré que la marche aléatoire
a une vitesse positive si et seulement si
X
i
(2pi
1) 2
= [ 2; 2] :
Nous étudions ce qui pourrait être une version continue en temps de cette question, le mouvements
Brownien excité considéré ici est dé…ni par l’équation di¤érentielle stochastique
t
dXt = dBt + g Xt ; LX
dt;
t
pour une certaine fonction g mesurable et bornée, et où B est un mouvement brownien et (Lxt : t
(1)
0; x 2 R)
est le processus du temps local de X: Ces processus ont été déjà étudiés par Norris, Rogers et
Williams [28], qui ont considéré également le cas où g est seulement localement bornée. Ils ont obtenu une version du théorème de Ray-Knight, dans certains cas, l’existence d’une vitesse positive,
par exemple, si g est continue, constante par rapport à x, non négative et croissante par rapport à
l (En particulier lorsque g (x; l) = l).
vi
Dans ce memoire, nous nous sommes principalement concentré sur le cas lorsque g est bornée.
Nous démontrons un critère général de récurrence et l’existence d’une vitesse positive lorsque g est
constante par rapport à x sans aucune condition sur le signe de g: Nous obtenons aussi une loi des
grands nombres avec une expression explicite de la vitesse. Là encore, nous nous sommes inspiré
des arguments donnés dans [28].
Cette thèse est organisée comme suit :
Dans le chapitre 1, nous introduisons quelques notations et nous préparons certains outils requis
pour notre travail. Les résultats principaux de ce chapitre concernent le mouvement brownien,
l’intégration stochastique, les équations di¤érentielles stochastiques et les di¤usions. Notre référence
sera l’ouvrage [17], [19][29], [33], [34].
La première section du chapitre 2 concerne les dé…nitions et premières propriétés des temps locaux.
L’ouvrage de Norris [32] mène une étude plus compléte et fournit des exemples. La dernière section
traite des processus d’excursions, où nous étudierons principalement les excursions browniennes. On
pourra utilement se référer à [16], [32], [38], [40].
Notre objectif principal dans le chapitre 3 est :
D’abord, de décrir la loi des excursions des processus ci-dessus, et d’étudier également la propriété
de récurrence en donnant une loi 0-1 générale.
Deuxièmement,en utilisant des idées de McGill [25] et de Jeulin [18], d’étudier le comportement
(comme processus dans la variable de l’espace a) de
Na
Zt
us IfXs
ag dXs
0
sous la mesure de Wiener P . Ici, T
inf ft : Xt =
Kg, pour K 2 N …xé, et u est un processus
previsible approprié. L’idée principale est essentiellement le fait que N est une martingale par
rapport à la …ltration d’excursion (Ea ), à condition que u satisfait une condition de mesurabilité
forçant N d’être adapté, et une condition d’intégrabilité (voir théorème 3.1.2). Le théorème classique
de Ray-Knight est un corollaire. En utilisant le changement de Cameron-Martin-Girsanov de la
mesure pour convertir le processus canonique X dans une solution de (1) ; Le point essentiel est alors
que la densité de Cameron-Martin-Girsanov peut également être considérée comme un changement
de mesure dans la …ltration (Ea ) ; convertissant la Q-martingale N en une P -martingale plus la
dérive, qui peut être identi…ée explicitement.
s
En…n, nous étudions explicitement le cas où g est une fonction de LX
s seulement ; en donnant un
critère de récurrence sans aucune condition sur le signe de g, et nous obtenons aussi une loi des
grands nombres avec une expression explicite de la vitesse.
Chapitre 1
Rappels de calcul stochastique
1
Chapitre 1. Rappels de calcul stochastique
1.1
2
Généralités sur les processus stochastiques
Dans toute la suite, nous nous plaçons sur un espace de probabilité ‡tré
; F; (Ft )t
0
; P satisfai-
sant les conditions habituelles (i.e. pour tout ti0; Ft = \ Fs et contient les ensembles négligeables).
sit
Si T est un temps d’arrêt et X = (Xt )t
0
est un processus à trajectoires continues, on note X T le
processus arrêté dé…ni par XtT = Xt^T pour tout t
0:
Dé…nition 1.1.1 On appelle mouvement brownien (de dimension d, issu de 0) toute famille (Bt )t
0
d
de v.a. à valeurs dans R ; dé…nies sur ( ; F; P ) ; telles que :
(i) B0 = 0 p.s. De plus, pour tout choix de l’entier n
les v.a. Bt1 ; Bt2
Bt1 ; : : : ; Btn
Btn
1
1 et des nombres réels 0 = t0 < t1 <
sont indépendantes et pour tout j 2 f1; : : : ; ng ; Btj
est un vecteur gaussien centré de covariance (tj
< tn ;
Btj
1
tj 1 ) Id:
(ii) Pour tout ! 2 ; la fonction t ! Bt (!) est continue.
Remarque 1.1.1 Par un argument de classes monotones, on montre que la loi de (Bt1 ; Bt2 ; : : : Btn )
est donnée par
P ((Bt1 ; Bt2 ; : : : Btn ) 2 A) =
Z
dy1 : : : dyn pt1 (y1 ) pt2
t1
(y2
y1 )
ptn
tn
1
(yn
yn 1 ) ;
(1.1)
A
pour tout A 2 B Rd
n
, où
pt (y) = p
1
e
2 t
y2
2t
pour ti0 et y 2 R
Mesure de Wiener. Notons C R+ ; Rd l’espace des fonctions continues de R+ dans R: La donnée
d’un mouvement brownien B fournit donc une application
! C R+ ; Rd
!
! (t ! Bt (!))
qui est mesurable lorsque C R+ ; Rd est muni de la plus petite tribu rendant mesurables les applications coordonnées w ! w (t) : Il est facile de voir que cette tribu notée C coïncide avec la tribu
borélienne pour la topologie de la convergence uniforme sur tout compact. La mesure de Wiener
(loi du mouvement brownien) est par dé…nition la mesure-image de P (d!) par cette application. Si
W (dw) désigne cette mesure-image, la formule (1:1), qui est vraie pour n’importe quel mouvement
brownien B montre que, pour 0 = t0 < t1 <
< tn , et A0 ; A1 ; : : : ; An 2 B Rd ;
W (fw; w (t0 ) 2 A0 ; w (t1 ) 2 A1 ; : : : ; w (tn ) 2 An g)
Z
= 1A0 (0)
dy1 : : : dyn pt1 (y1 ) pt2 t1 (y2 y1 ) ptn
A1
An
Section 1.1. Généralités sur les processus stochastiques
tn
1
(yn
yn 1 ) ;
Chapitre 1. Rappels de calcul stochastique
3
(avce la convention y0 = 0). De plus ces propriétés caractérisent la probabilité W : en e¤et, la classe
des ensembles de la forme fw; w (t0 ) 2 A0 ; w (t1 ) 2 A1 ; : : : ; w (tn ) 2 An g (les “cylindres”) est stable
par intersection …nie et engendre la tribu C ce qui, par un argument standard de classes monotones,
su¢ t pour dire qu’une mesure de probabilité sur C est caractérisée par ses valeurs sur cette classe.
En conséquence, la mesure de Wiener ne dépend pas du choix du mouvement brownien B pour la
construction. Si B 0 est un autre mouvement brownien, on a pour tout A 2 C;
P (Bt )t
0
2 A = W (A) = P (Bt0 )t
0
2A :
Si l’on prend maintenant comme espace de probabilité
= C R+ ; Rd ;
F = C;
P (dw) = W (dw) ;
le processus, dit canonique,
Xt (w) = w (t)
est un mouvement brownien. C’est la construction du mouvement brownien canonique.
Théorème 1.1.1 (Propriété de Markov forte). Soit T un t.a. tel que P (T < 1) > 0: Alors,
conditionnellement à fT < 1g ; le processus B (T ) dé…ni par
(T )
Bt
= BT +t
(1.2)
BT
est un mouvement brownien indépendant de la tribu FT :
Théorème 1.1.2 (Régularité)
1. Le M.B. est à variation in…nie sur tout intervalle.
2. Le M.B. n’est dérivable en aucun point (Paley, Wiener, Zygmund 1933).
3. Les trajectoires du MB sont localement Hölder-continues d’ordre ,
< 1=2:
Dé…nition 1.1.2 Si (Ft ) est une …ltration, un processus adapté B est dit (Ft )-mouvement brownien
si
(i) B est un mouvement brownien.
(ii) pour tout t > 0, le processus Bt+s
Bt , s > 0 est indépendent de (Ft ).
Théorème 1.1.3 ([19])Soit X un processus à valeurs dans un espace métrique (E; d) :
(i) Si (Xt ; t
0) est un processus adapté, à trajectoires continues à droite et si O est un ouvert de
E, alors
TO = inf ft
0; Xt 2 Og ;
est un temps d’arrêt de (Ft+ ), où Ft+ = \ Fs :
sit
Section 1.1. Généralités sur les processus stochastiques
Chapitre 1. Rappels de calcul stochastique
(ii) Si (Xt ; t
4
0) est un processus a trajectoires continues et adapté, si F est un fermé de E, alors
TF = inf ft
0; Xt 2 F g ;
est un temps d’arrêt.
Théorème 1.1.4 ([32]) Si (Xt ; t
0) est un processus adapté et à trajectoires continues, et si T
est un temps d’arrêt. Alors on a :
ZT
0
0
E jXt j dt = E @
ZT
0
De plus, si cette quantité est …nie, alors on a :
ZT
0
1
jXt j dtA :
(1.3)
1
0 T
Z
E (Xt ) dt = E @ Xt dtA :
(1.4)
0
Dé…nition 1.1.3 Un processus adapté réel (Xt )t
0
est une martingale (resp. surmartingale, sous-
martingale) si pour tout t, Xt est intégrable et si pour tous s < t, E (Xt j Fs ) = Xs (resp.
E (Xt j Fs )
Xs ; E (Xt j Fs )
Xs ) p.s. .
Théorème 1.1.5 (Théorème d’arrêt de Doob) Si M est une fF g-martingale continue et si S
et T sont deux temps d’arrêt bornés tels que S
T , alors MT est intégrable et on a :
E (MT j FS ) = MS :
(1.5)
Ce résultat s’étend à tous les temps d’arrêt si la martingale est uniformément intégrable.
Proposition 1.1.1 Pour tout espace probabilisé …ltré
réel standard sur Rd dé…ni sur
; F; (Ft )t
0
; F; (Ft )t
0
; P ; le mouvement brownien
; P est une martingale.
Cette dernière propriété du mouvement brownien est essentielle dans la dé…nition de l’intégrale
stochastique d’Itô.
Dé…nition 1.1.4 (Martingales locales) Un processus adapté à trajectoires continues M = (Mt )t
tel que M0 = 0 p.s. est une martingale locale (continue) s’il existe une suite croissante (Tn ; n 2 N)
de temps d’arrêt telle que Tn " 1 et pour tout n le processus arrêté M Tn est une martingale uniformément intégrable.
Plus généralement, lorsque M0 6= 0, on dit que M est une martingale locale (continue) si Mt =
M0 + Nt , où le processus N est une martingale locale issue de 0.
Dans tous les cas, on dit que la suite de temps d’arrêt Tn " 1 réduit M si pour tout n le processus
arrêté M Tn est une martingale uniformément intégrable.
Section 1.1. Généralités sur les processus stochastiques
0
Chapitre 1. Rappels de calcul stochastique
5
Dé…nition 1.1.5 (Processus variation quadratique) Soit X = (Xt )t
0
un processus stochas-
tique à valeurs réelles sur ( ; F; P ) : On dira que X admet une variation quadratique s’il existe
un processus stochastique réel Y = (Yt )t
subdivisions (
n )n
= tnj
j=0;:::;j(n)
la suite de v.a.r.
0
tel que l’on ait : pour tout t > 0, pour toute suite de
de [0; t] dont le pas j
nj
= supi=0;:::;j(n)
j(n) 1
Tt
n
(X) =
X
1
tni+1
tni tend vers 0,
2
Xtni+1
Xtni
i=0
converge en probabilité, quand n ! +1, vers Yt . On note
Yt = hX; Xit (ou hXit ) :
(hX; Xit )t
0
s’appelle la variation quadratique de X = (Xt )t
Théorème 1.1.6 ([19]) Soit M = (Mt )t
croissant, noté (hM; M it )t
0
0
0
:
une martingale locale (continue). Il existe un processus
unique à une indistinguabilité prés, tel que Mt2
martingale locale continue. De plus, pour tout T > 0, si 0 = tn0 < tn1 <
hM; M it soit une
< tnpn = T est une suite
de subdivisions emboitées de [0; T ] de pas tendant vers 0, on a
hM; M iT = lim
n !1
pn
X
2
Mtni
Mtni
1
(1.6)
i=1
au sens de la convergence en probabilité. Le processus hM; M i est appelé la variation quadratique
de M .
Proposition 1.1.2 ([32]) Soit X une martingale locale continue. Alors il y a équivalence entre :
(i) X0 2 L2 et E [hX; Xi1 ] < 1;
(ii) X est une martingale bornée dans L2 .
Section 1.1. Généralités sur les processus stochastiques
Chapitre 1. Rappels de calcul stochastique
1.2
6
Intégrale stochastique.
Le calcul di¤érentiel donne un cadre à la notion d’équation di¤érentielle ordinaire, qui sert de
modèle pour de phénomènes variables dans le temps. Quand on a voulu ajouter à ces équations des
perturbations aléatoires, on a été géné par la non di¤érentiabilité du MB.
Du coup on a commencé par construire une intégrale par rapport au MB, pour ensuite dé…nir la
notion d’équation di¤érentielle stochastique.
1.2.1
Intégrale par rapport au MB
On va présenter dans cette section l’intégrale stochastique d’Itô par rapport au mouvement brownien. Elle s’inscrit dans la théorie plus large de l’intégrale stochastique par rapport à des semimartingales continues.
On va commencer par dé…nir la classe des fonctions aléatoires que l’on va intégrer. Dans toute cette
sous-section, on suppose donné un espace probabilisé …ltré
Dé…nition 1.2.1 Pour (S; T ) tels que 0
tiques réels f : [S; T ]
S
; F; (Ft )t
0
;P :
T; L2 (S; T ) est l’ensemble des processus stochas-
! R dé…nis sur ( ; F) ; Ft -adaptés tels que
0 T
1
Z
E @ f 2 (t; !) dtA < +1:
(1.7)
S
Dé…nition 1.2.2 Un processus f de L2 (S; T ) est un processus élémentaire s’il existe une partition
S = t0 < t1 <
< tn = T de [S; T ] et des variables aléatoires e0 ; : : : en
1
respectivement,
Ft0 ; : : : ; Ftn 1 -mesurables tels que pour presque tout ! 2 ;
f (t; !) =
n 1
X
ei (!) 1[ti ;ti+1 [ (t) :
i=0
Dé…nition 1.2.3 Pour tout processus élémentaire f , on dé…nit l’intégrale d’Itô I (f; S; T ) de f par
rapport au mouvement brownien B par :
I (f; S; T ) (!) =
n 1
X
ei (!) Bti+1 (!)
i=0
On note I (f; S; T ) (!) ainsi dé…nie par
ZT
S
Section 1.2. Intégrale stochastique.
f (t; !) dBt (!) :
Bti (!)
p.s.
Chapitre 1. Rappels de calcul stochastique
7
Le lemme qui suit est essentiel puisqu’il permet d’établir la continuité uniforme de la fonction
f 7 ! I (f; S; T ) de l’ensemble des processus élémentaires, muni de la norme dé…nie en (1:7), dans
L2 ( ; F; P ) :
Lemme 1.2.1 Pour tout processus élémentaire f , on a l’égalité suivante :
20
3
12 3
2 T
Z
ZT
7
6
E 4@ f (t) dBt A 5 = E 4 f 2 (t) dt5 :
(1.8)
S
S
On voit que la continuité est très forte puisque l’intégrale stochastique est une isométrie de l’ensemble
des processus élémentaires dans l’ensemble des variables aléatoires du second ordre. En utilisant
la densité de l’ensemble des processus élémentaires dans L2 (S; T ) ; il est alors possible d’étendre
f 7 ! I (f; S; T ) à l’ensemble L2 (S; T ) par passage à la limite et on obtient la dé…nition de l’intégrale
stochastique sur L2 (S; T ) : Plus précisément,
Dé…nition 1.2.4 Pour f 2 L2 (S; T ) ; il existe une suite de processus élémentaires (fn )n
que
0
lim E @
n !+1
ZT
(f (t; !)
S
et l’intégrale stochastique de f est dé…nie par
ZT
f (t; !) dBt (!) =
S
lim
0
telle
1
fn (t; !))2 dtA = 0;
n !+1
ZT
fn (t; !) dBt (!) ;
S
où la limite est prise dans L2 ( ; F; P ) :
Cette dé…nition implique que le caractère isométrique (1:8) de l’intégrale stochastique se prolonge
à tout L2 (S; T ) :
Si on se donne un processus stochastique f 2 L2 (0; T ) ; l’intégrale stochastique permet de dé…nir un
processus stochastique (I (f; 0; t))0
pour tout t
: En e¤et, tout processus de L2 (0; T ) est élément de L2 (0; t)
t T
T: On peut donc dé…nir I (f; 0; t) pour 0
t
T dès que f est élément de L2 (0; T ) :
Les propositions qui suivent énoncent les propriétés du processus stochastique (I (f; 0; t))0
t T
:
Proposition 1.2.1 (voir [29]; p.32) Pour tout processus f 2 L2 (0; T ) ; il existe une modi…cation
continue du processus (I (f; 0; t))0
t T
; c’est-à-dire qu’il existe un processus stochastique ( t )0
à trajectoires presque sûrement continues et véri…ant :
0
Zt
8t 2 [0; T ] ; P @! 2 ; f (s; !) dBs (!) =
0
Section 1.2. Intégrale stochastique.
t
1
(!)A = 1:
t T
Chapitre 1. Rappels de calcul stochastique
8
Dans toute la suite, on choisira toujours cette modi…cation à trajectoires presque sûrement continues.
Proposition 1.2.2 Pour f 2 L2 (0; T ) ; le processus (I (f; 0; t))0
pace probabilisé …ltré
; F; (Ft )t
t T
est une martingale sur l’es-
; P : On a de plus
0 t
1
Z
8t 2 [0; T ] ; E @ f (s; !) dBs (!)A = 0:
0
0
La relation de Chasles ainsi que la linéarité par rapport au processus intégré sont véri…ées par
l’intégrale stochastique :
8 (s; t) 2 R+ ; s
t; 8f 2 L2 (0; t) ;
Zt
fu dBu =
0
et
8 (f; g) 2 L2 (S; T )
2
; 8c 2 R;
ZT
Zs
fu dBu +
S
fu dBu ;
s
0
(ft + cgt ) dBt =
Zt
ZT
ft dBt + c
S
ZT
gt dBt :
S
On vient de construire l’intégrale forte d’Itô, en ce sens qu’on a exigé du processus intégré d’être
élément de l’ensemble L2 (S; T ) : Il est possible d’a¤aiblir les hypothèses sur le processus f que l’on
intègre et de dé…nir un prolongement de l’intégrale stochastique à cette nouvelle classe de processus.
Dé…nition 1.2.5 Pour (S; T ) tels que 0
tiques réels f : [S; T ]
T; P (S; T ) est l’ensemble des processus stochas-
S
! R dé…nis sur ( ; F) ; Ft -adaptés tels que
0 T
1
Z
P @ f 2 (t; !) dt < +1A = 1:
S
Proposition 1.2.3 Pour tout processus f de P (S; T ) ; il existe une suite (fn )n
0
de processus
élémentaires de P (S; T ) telle que, en probabilité
lim
n !+1
ZT
(fn (t)
f (t))2 dt = 0:
S
On dé…nit alors l’intégrale de f par rapport au mouvement brownien Bt sur l’intervalle [S; T ] comme
la limite en probabilité de la suite
0
@
ZT
S
1
fn (t) dBt A
:
n 0
Comme précédemment, il est possible de trouver une modi…cation continue sur [0; T ] du processus
t !
ZT
0
pour tout processus f 2 P (0; T ) :
Section 1.2. Intégrale stochastique.
fs dBs ;
Chapitre 1. Rappels de calcul stochastique
1.2.2
9
Intégration par rapport à une martingale continue
Dans cette partie, nous allons voir quel est le cadre le plus général sur lequel on peut défnir l’intégrale stochastique, ce qui nous amènera au concept de semimartingale. Nous verrons également
le théorème de Lévy qui nous dit qu’en fait, les martingales continues ressemblent beaucoup au
mouvements browniens.
Proposition 1.2.4 (Variation quadratique d’une martingale continue) Soit M une mar~ tels
tingale continue, alors il existe un unique processus croissant hM i et une unique martingale M
que :
~ t:
M02 = hM it + M
0 Mt2
8t
hM it est la limite dans L2 ; pour des subdivisions de pas tendant vers 0, de
Pni
j=1
2
Mtij
Mtij
1
:
Remarque 1.2.1 Ainsi, le mouvement brownien standard sur R a pour variation quadratique
hBit = t p.s..
Ce qui est important, c’est que, pour une martingale continue, la variation quadratique reste …nie
presque sûrement. C’est ce qui permet …nalement, de construire le calcul stochastique par rapport
à une martingale continue exactement de la même façon que par rapport au mouvement brownien.
Aussi nous nous contenterons d’exposer directement les résultats-clefs du calcul stochastique général
sans les démontrer.
Soient (Mt )t
sa …ltration associée, (Ht )t 0 un processus adapté,
R
localement borné p.s.. Alors l’intégrale stochastique d’Itô HdM est une martingale caractérisée
0
une martingale continue, (Ft )t
0
par :
Théorème 1.2.1 Pour ( i )i
1
une suite croissante de subdivisons de [0; t] de pas tendant vers 0,
on a
ni
X
Htij
1
Mtij
j=1
Mtij
2
1
L
!
Zt
Hu dMu lorsque i " 1:
0
Théorème 1.2.2 ([29]) La variation quadratique de l’intégrale d’Itô
est donnée par :
h(H M )it =
Zt
Rt
0
Hu dMu , notée ((H M )t )t
0
Hu2 d hM iu ;
0
ce qui peut s’écrire sous la forme d h(H M )i = H 2 d hM i :
Le théorème de Lévy nous dit en substance que toutes les martingales continues ressemblent au
mouvement brownien.
Section 1.2. Intégrale stochastique.
;
Chapitre 1. Rappels de calcul stochastique
Théorème 1.2.3 ([32]; Lévy)Si (Mt )t
0
10
est une martingale issue de 0 dont la variation quadra-
tique est d hM i = dt, alors c’est un mouvement brownien.
Corollaire 1.2.1 Soit (Mt )t
(Bs )s
0
0
une martingale continue. Alors il existe un mouvement brownien
tel qu’on puisse passer de B à M par reparamétrisation du temps :
Mt = BhM it :
1.2.3
Semimartingales
Pour parachever notre étude, la dé…nition de l’intégrale stochastique nous allons regrouper l’intégrale
stochastique et l’intégrale de Stieltjes en une seule dé…nition.
Dé…nition 1.2.6 On appelle semimartingale un processus continu (Xt )t
la somme d’une martingale continue (Mt )t
0
0
qui se décompose comme
et d’un processus continu à variations localement
bornées (At )t 0 . Cette décompostion est appelée décomposition de Doob-Meyer, et elle est unique
car une martingale continue à variations bornées est nulle.
Dé…nition 1.2.7 Pour X = M + A une semimartingale et sa décomposition de Doob-Meyer et H
un processus adapté, on dé…nit l’intégrale d’Itô par la formule suivante :
Z
Z
Z
HdX = HdM + HdA:
Dé…nition 1.2.8 La variation quadratique d’une semimartingale est la variation quadratique de sa
partie martinagale ; elle s’interprète, de la même façon que pour une martingale, comme la somme
des carrés des accroissements in…nitésimaux. :
Théorème 1.2.4 (formule d’Itô) Pour F de classe C 2 ; (Xt )t
F (Xt )
F (X0 ) =
Zt
1
F 0 (Xu ) dXu +
2
0
Zt
0
une semimartingale :
F 00 (Xu ) d hXiu :
0
Dé…nition 1.2.9 Pour X, Y deux semimartingales, la variation quadratique croisée de X et Y ,
notée hX; Y i est la somme des produits des accroissements in…nitésimaux de X et Y . On a :
hX; Y i =
Section 1.2. Intégrale stochastique.
1
(hX + Y i
2
hXi
hY i) :
Chapitre 1. Rappels de calcul stochastique
1.2.4
11
Résultats importants
Représentation des martingales
Nous allons établir que, dans le cas où la …ltration sur
est engendrée par un mouvement brownien,
toutes les martingales peuvent être représentées comme intégrales stochastiques par rapport à ce
mouvement brownien.
Théorème 1.2.5 ([32]) Supposons que la …ltration (Ft ) sur
est la …ltration canonique d’un
mouvement Brownien B issu de 0. Alors, pour toute variable aléatoire Z 2 L2 ( ; F1 ) ; il existe un
(unique) processus h 2 L2 (B) tel que
Z = E [Z] +
Z1
(1.9)
h (s; !) dBs :
0
En conséquence, pour toute martingale M bornée dans L2 (respectivement pour toute martingale
locale M ), il existe un (unique) processus h 2 L2 (B) (resp. h 2 L2loc (B)) et une constante C 2 R
tels que
Mt = C +
Zt
(1.10)
h (s; !) dBs :
0
Pour la proposition suivante, rappelons que la tribu des ensembles prévisibles par rapport à une
…ltration donnée est la tribu engendrée par les processus adaptés continus, et qu’un processus est
dit prévisible s’il est mesurable par rapport à cette tribu.
Proposition 1.2.5 ([32]) Si M est une martingale locale continue telle que la mesure d hM; M it ;
est presque sûrement équivalente à la mesure de Lebesgue (i.e. ont les mêmes ensembles négligeébles),
alors il existe un processus FtM -prévisible ft qui est strictement positif dt
mouvement Brownien
tels que
d hM; M it = ft dt et Mt = M0 +
Zt
fs1=2 dBs :
dP p.s. et un FtM -
(1.11)
0
Théorème 1.2.6 (voir [32], (1.14) et (1.15) chapitre VIII) Supposons que (Xt ) est une martingale
locale continue et hX; Xit
M t et X0 = 0: Alors le processus
0
1
Zt
1
E (Xt ) = exp @Xt
d hX; Xit A
2
0
est une martingale.
Section 1.2. Intégrale stochastique.
Chapitre 1. Rappels de calcul stochastique
12
Théoréme de Girsanov
Soit
; F; (Ft )t
0
; P un espace de probabilité …ltré. Le but de ce paragraphe est d’étudier com-
ment se transforme la notion de martingale locale lorsque la probabilité P est remplacée par une
probabilité Q absolument continue par rapport P . Nous commençons par rappeler le théorème
d’existence de la densité de Radon-Nikodym.
Théorème 1.2.7 ([19]) Soit
; F; (Ft )t
0
; P un espace de probabilité …ltré. Soit Q une mesure
absolument continue par rapport à P; Q P (i.e. pour tout A 2 F; P (A) = 0 =) Q (A) = 0).
Alors, il existe une variable aléatoire F-mesurable, positive telle que pour tout A 2 F;
Z
Q (A) = ZdP:
A
La variable aléatoire
Z=
dQ
dP
est appelée la densité de Radon-Nikodym.
On pose, pour tout t
0,
Zt = E (Z j Ft ) :
Alors, (Zt )t
0
est une martingale continue à droite et uniformément intégrable. Soit T un temps
d’arrêt relativement à la …ltration (Ft )t
0
: On pose QT = QjFT ; PT = PjFT les restrictions respectives
des mesures Q et P à la tribu FT des événements antérieurs à T . Alors, on montre facilement que
ZT =
dQT
:
dPT
Théorème 1.2.8 ([19]; Girsanov) Soit Q une mesure absolument continue par rapport à P sur
F1 : On suppose que (Zt )t
0
est continue. Alors,
(i) chaque P -semi-martingale est une Q-semi-martingale.
(ii) si M est une P -martingale locale continue et si
M0 = M
alors M 0 est bien dé…nie sur
; F; (Ft )t
0
1
hM; Zi ;
Z
; Q et (Mt0 )t
0
est une Q-martingale locale. De plus,
hM 0 ; M 0 i = hM; M i Q-p.s.
Les deux corollaires suivants démontrent l’intérêt du théorème de Girsanov :
Section 1.2. Intégrale stochastique.
Chapitre 1. Rappels de calcul stochastique
Corollaire 1.2.2 Soit (Bt )t
Pour tout t
0
13
un (Ft )t 0 -mouvement Brownien standard sur
0; on dé…nit
est un mouvement Brownien sur
; F; (Ft )t
t 0
0
;P :
;Q :
Corollaire 1.2.3 Soit L une martingale locale continue sur
On suppose que
E exp
0
1
hB; Zit :
Z
~t = Bt
B
~t
Alors, B
; F; (Ft )t
1
hL; Li1
2
; F; (Ft )t
0
;P
telle que L0 = 0.
< 1:
Alors,
(i) E (L) est une martingale uniformément intégrable.
~t = Bt hL; Bi ; alors B
~t
(ii) si on dé…nit B
est un Q-mouvement Brownien si (Bt )t
t
t 0
0
est un
P -mouvement Brownien.
1.3
Equations di¤érentielles stochastiques
L’intégrale stochastique permet de donner un sens aux équations di¤érentielles stochastiques.
Dé…nition 1.3.1 Soient T > 0, d et n deux entiers strictement positifs, b : [0; T ]
a : [0; T ]
Rd ! Rd et
Rd ! Mnd (R) des fonctions boréliennes où Mnd (R) désigne l’ensemble des matrices
réelles à n lignes et d colonnes. On désigne par (Bt )t
dé…ni sur un espace …ltré
; F; (Ft )t
coe¢ cient de dérive b et de di¤usion
0
0
un mouvement brownien standard sur Rn
; P : Une équation di¤éerentielle stochastique sur Rd de
consiste en la recherche d’un processus (Xt )0
t T
à valeurs
dans Rd véri…ant presque sûrement :
8t 2 [0; T ] ; Xt =
+
Zt
b (r; Xr ) dr +
0
où
Zt
a (r; Xr ) dBr ;
X0 = ;
0
est une variable aléatoire quelconque indépendante du M.B.
On écrira encore
8t 2 [0; T ] ; dXt = b (t; Xt ) dr + a (t; Xt ) dBt :
(1.12)
Nous allons préciser les notions d’existence et d’unicité des solutions d’une E.D.S.
Dé…nition 1.3.2 (Solution (forte) d’une EDS) Une solution de l’EDS (1:12), X, est un processus continu tel que :
1. X est mesurable et adapté à la …ltration (Ft )t
RT
2. P -p.s. 0 jb (r; Xr )j + ka (r; Xr )k2 dr < 1;
0
;
Section 1.3. Equations di¤érentielles stochastiques
Chapitre 1. Rappels de calcul stochastique
Rt
Rt
3. P -p.s., on a : Xt = + 0 b (r; Xr ) dr + 0 a (r; Xr ) dBr ; 0
14
t
T:
où la …ltration est dé…nie pour tout t positif par :
Ft =
f f ; Bs ; s
tg [ N g
N étant l’ensemble des ensembles négligeables.
On dira qu’il y a unicité forte pour l’équation si, pour toutes solutions Xt1 et Xt2 ; on a :
P Xt1 = Xt2 ; 8t 2 [0; T ] = 1:
Dé…nition 1.3.3 Une solution faible de (1:12) est la donnée d’un triplet (X; B) ; ( ; F; P ) et (Ht )
où :
1. ( ; F; P ) est un espace de probabilité et (Ht ) est une …ltration de cet espace.
2. B est un mouvement brownien de dimension n tel que (Bt ) est une martingale relativement a la
…ltration (Ht ) :
3. X est un processus adapté a la …ltration (Ht ) :
4. On a p.s. :
Xt =
+
Zt
b (r; Xr ) dr +
0
Zt
a (r; Xr ) dBr :
0
On dira alors que le couple (Bt ; Xt ) est une solution faible de (1:12) :
Dé…nition 1.3.4 (i) On dit qu’il y a unicité trajectorielle des solutions de (1:12) si, pour tout
x 2 Rd ; étant données deux solutions (Bt ; Xt1 ) et (Bt ; Xt2 ) de (1:12) telles X0i = x; i = 1; 2 on a
Xt1 = Xt2 p.s.
(ii) On dit qu’il y a unicité faible (ou en loi) des solutions de (1:12) si deux solutions faibles ont
toujours même loi., i.e., pour tout x 2 Rd ; étant données deux solutions (Bt1 ; Xt1 ) et (Bt2 ; Xt2 ) de
(1:12) telles que X0i = x; i = 1; 2 les processus (Xt1 ; t
0) et (Xt2 ; t
0) ont même loi.
Il est clair, par dé…nition, une solution forte est aussi une solution faible.
Dé…nition 1.3.5 L’équation di¤érentielle stochastique (1:12)est dit bien posée si, pour toute condition initiale x 2 Rd , elle admet une solution faible qui est unique dans le sens de la loi de probabilité.
Stroock et Varadhan a dé…ni une solution faible de la SDE (1:12) comme une solution de ce qu’on
appelle le problème des martingales.
Dé…nition 1.3.6 Le problème des martingales pour (a; b) ou pour l’opérateur
d
d
X
1X
2
Lt f (x) =
ai;j (t; x) @ij f (x) +
bi (t; x) @i f (x)
2 i;j=1
i=1
Section 1.3. Equations di¤érentielles stochastiques
Chapitre 1. Rappels de calcul stochastique
15
se formule comme suit :Pour chaque x 2 Rd ; et s > 0, trouver une mesure de probabilité Px;s sur
( ; F) telle que
1. Px;s (Xu = x; 0
u
s) = 1;
2. Pour toute fonction deux fois continûment di¤érentiable f , le processus
f (Xt )
Zt
(Lu f ) Xu du
s
Dé…nition 1.3.7 est une martingale sous Px;s par rapport à Ft
Dans le cas où il y a exactement une solution au problème de martingale, il est dit que le problème
de martingale est bien posé.
Théorème 1.3.1 ( [33] Théorème 23.5) Supposons que b : R+
Rd
! Rd et a : R+
Rd
!
Mnd (R) sont des fonctions prévisibles et bornées, et que a (t; ) et b (t; ) sont continues pour tout
t
0: Alors pour toute probabilité sur Rn ; il y a une solution du problème des martingales pour
(a; b) de distribution nitiale :
Théorème 1.3.2 ([33] Théorème 17.1) Soient a et b sont des fonctions prévisibles, et considérons
l’EDS :
dXt = b (t; Xt ) dr + a (t; Xt ) dBt
(1.13)
Alors l’EDS est exacte si et seulement si les deux conditions suivantes sont véri…ées
(i) l’EDS (1:13)a une solution faible ;
(ii) il y a unicité trajectorielle des solutions de l’EDS (1:13).
Alors il y a unicité en loi des solutions de l’EDS (1:13).
Théorème 1.3.3 ([33] Théorème 21.1) Supposons que b : Rd ! Rd et a : Rd ! M+
d (R) sont
deux fonctions mesurables et bornées telles que le problème des martingales pour (a; b) est bien posé :
pour tout y 2 Rd il existe une unique mesure de probabilité P y sur Rd telle que :
(i) P y (X0 = y) = 1;
1
(ii) pour toute f 2 CK
;
Ctf
= f (Xt )
f (X0 )
Zt
Lf (Xs ) ds est une P y -martingale,
0
où
Lf (x) =
Alors sous P y ; fXt : t
d
d
X
1X
ai;j (x) @ij2 f (x) +
bi (x) @i f (x)
2 i;j=1
i=1
0g est un processus de Markov fort homogène en temps.
Section 1.3. Equations di¤érentielles stochastiques
Chapitre 1. Rappels de calcul stochastique
16
Théorème 1.3.4 ([33],Yamada-Watanabe) Considérons l’EDS :
(1.14)
dXt = b (Xt ) dr + a (Xt ) dBt :
On suppose que a et b sont mesurables, et satisfont les conditions suivantes :
(i) il existe une fonction croissante
: R+ ! R+ tel que
Z
(u) 1 du = 1;
0+
et pour tout x; y 2 R;
(a (x)
a (y))2
(jx
yj) ;
(ii) b est Lipschitzienne.
Alors il y a unicité en loi pour (1:14) :
Théorème 1.3.5 ([16]; Théorème de Comparaison). Soient les EDS
dXi (t) = bi (Xi (t)) dt + ai (Xi (t)) dBt ; i = 1; 2
où bi est lipschitzienne et [a (x)
b2 (x) : Alors X1 (t)
1.4
a (y)]2
X2 (t) :
k jx
yj : Supposons que X1 (0)
X2 (0) et b1 (x)
Processus de Markov et Di¤usion
Dé…nition 1.4.1 Soit (E; E) un espace mesuré. Un noyau N sur E est une application de E
dans R+ [ f+1g tel que
E
(i) pour tout x 2 E; l’application A 7! N (x; A) est une mesure positive sur E;
(ii) pour tout A 2 E; l’application x 7! N (x; A) est E-mesurable.
Un noyau
est appelé probabilité de transition (ou noyau de transition) si
(x; E) = 1 pour tout
x 2 E:
Si f 2 E+ , c’est-à-dire que f est une application de (E; E) dans (R+ ; B) mesurable, alors on dé…nit
la fonction N f sur E par
N f (x) =
Z
N (x; dy) f (y) :
E
La fonction N f appartient encore à E+ . De plus, si M et N sont deux noyaux alors M N dé…nit par
Z
M N (x; A) = M (x; dy) N (y; A)
E
est encore un noyau.
Section 1.4. Processus de Markov et Di¤usion
Chapitre 1. Rappels de calcul stochastique
17
Dé…nition 1.4.2 Une fonction de transition (en abrégé f.t.) sur (E; E) est une famille (Ps;t )0
s<t
de probabilités de transitions sur (E; E) telle que pour tous s < t < v, on ait
Z
Ps;t (x; dy) Pt;v (y; A) = Ps;v (x; A)
(1.15)
E
pour tous x 2 E et A 2 E:
La relation (2.1) est appelé équation de Chapman-Kolmogorov. La f.t. est dite homogène si Ps;t
ne dépend de s et t que par la di¤érence t
s. Dans ce cas, on note Pt pour P0;t et l’équation de
Chapman-Kolmogorov s’écrit
Pt+s (x; A) =
Z
(1.16)
Ps (x; dy) Pt (y; A)
E
pour tous s; t
0: On dit que (Pt )t
0
est un semi-groupe.
Dé…nition 1.4.3 (Processus de Markov). Soit ( ; F; (Ft ) ; P) un espace de probabilité …ltré. Un
processus adapté X est un processus de Markov pour la …ltration (Ft ), de fonction de transition Ps;t
si, pour toute fonction f 2 E+ et s < t;
E (f (Xt ) j Fs ) = Ps;t f (Xs ) P p.s.
(1.17)
Le processus est dit homogène si la f.t. est homogène et la formule précédente s’écrit alors
E (f (Xt ) j Fs ) = Pt s f (Xs ) P p.s:
(1.18)
Dans toute la suite du chapitre, on se restreint aux processus homogènes en temps.
Pour tout processus de Markov(Xt ), pour tout f borné mesurable et t
0; soit
Tt f (x) = E (f (Xt ) j X0 = x) = Ex f (Xt )
(1.19)
La propriété de Markov implique que
Ex (f (Xs+t ) j Fs ) = EXs f (Xt ) = Tt f (Xs )
on en déduit alors la propriété Semigroupe :
Ts+t f (x) = Ts (Tt f ) (x)
pour s; t
(1.20)
0: En considérant la norme kf k = sup jf (x)j sur l’espace L1 = ff : kf k < 1g nous
voyons que Tt est une contraction semigroupe sur L1 ; i.e.
kTt f k
kf k
À la suite de Dynkin (1965), mais en utilisant une notation légèrement di¤érente, nous allons dé…nir
le domaine de T par
D (T ) = ff 2 L1 : kTt f
Section 1.4. Processus de Markov et Di¤usion
f k ! 0 as t ! 0g :
Chapitre 1. Rappels de calcul stochastique
18
Théorème 1.4.1 ([16]) D (T ) est un espace vectoriel fermé. Si f 2 D (T ) alors Ts f 2 D (T ) et
l’application s ! Ts f est continue.
Le générateur in…nitésimal d’un semigroupe est dé…nie par :
Af = lim
h#0
Th f f
h
(1.21)
Son domaine D (A) est l’ensemble des f pour lesquelles la limite existe, ce sont les fontions f pour
lesquelles il existe g de sorte que
Th f f
h
g
! 0 lorsque h ! 0
Théorème 1.4.2 ([16]) D (A) est dense dans D (T ) : Si f 2 D (A) alors Af 2 D (T ) ; Tt f 2 D (A) ;
et on a :
d
Tt f = ATt f = Tt Af
dt
Zt
Tt f f = Ts Af ds
(1.22)
(1.23)
0
Le théorème suivant fait le lien entre les générateurs et les problèmes de martingales.
Théorème 1.4.3 ([16]) Si f 2 D (A) alors pour toute mesure de probabilité
Mtf
f (Xt )
f (X0 )
Zt
Lf (Xs ) ds
0
est une P martingale par rapport à la …ltration Ft engendrée par (Xt ), où
d
d
X
1X
2
Lf (x) =
ai;j (x) @ij f (x) +
bi (x) @i f (x) :
2 i;j=1
i=1
(1.24)
Processus de di¤usion. Supposons que nous ayons une famille de mesures Px sur (C; C) a…n que,
sous Px les trajectoires Xt (!) = ! (t) donnent la solution unique au problèmes de martingales pour
2
(b; a) issue de x; et Ft est la …ltration engendrée par (Xt ) : Soit CK
l’ensemble des fonctions de
classe C 2 à support compact.
Dé…nition 1.4.4 Un processus de markov X =
processus de di¤usion de générateur L si
(i) les trajectoires de X sont continues,
Section 1.4. Processus de Markov et Di¤usion
; Ft ; F; Xt ; (Px )x2E à valeurs dans Rd est appelé
Chapitre 1. Rappels de calcul stochastique
(ii) pour tout x 2 Rd ; t
0 et f 2 Ck2 ;
Ex (f (Xt ))
19
0 t
1
Z
f (x) = Ex @ Lf (Xs ) dsA :
(1.25)
0
On dit dans ce cas que X admet a pour coe¢ cient de di¤usion et b pour coe¢ cient de dérive.
Notons qu’alors, pour tout x,
Mtf
= f (Xt )
Zt
f (x)
(1.26)
Lf (Xs ) ds
0
est une Px -martingale. En e¤et
Ex
Mtf
Msf j Fs
Zt
f (Xs ) j Fs )
= Ex (f (Xt )
8
<
= EXs f (Xt s )
:
Ex (Lf (Xu ) j Fs ) du
s
t
Z s
f (X0 )
Lf (Xu ) du
0
9
=
;
= 0:
En toute généralité, le problème de l’existence et l’unicité d’un processus de di¤usion associé au
couple (a; b) est donc relié à celui d’un problème de martingales.
Soient I un invervalle ouvert (non vide) de R noté I = ]l; r[ ; et l’équation di¤érentielle stochastique
suivante :
dXt =
où X0 est une variable aléatoire sur I et (Bt )t
1.4.1
(1.27)
(Xt ) dBt + b (Xt ) dt;
0
est un mouvement brownien standard sur R:
Distributions invariantes et loi forte des grands nombres
Dé…nition 1.4.5 Une mesure de probabilité sur I est invariante pour l’EDS (1:27) si
Z
Z
2
Pt f (x) (dx) = f (x) (dx) ; 8f 2 CK
(I; R) ; t 0
I
et est réversible si
Z
Z
g (x) Pt f (x) (dx) = f (x) Pt g (x) (dx) ;
2
8f; g 2 CK
(I; R) ; t
0
I
Si
(x) = P (X0
x) est la distribution de X0 :La distribution
(x) est dite stationnaire ou inva-
riante pour le processus de di¤usion Xt si pour tout t la distribution de Xt est la même que
Si Pt (x; y) dénote la fonction de transition de Xt ; i.e.
Pt (x; y) = P (Xt
Section 1.4. Processus de Markov et Di¤usion
y j X0 = x) ;
(x) :
Chapitre 1. Rappels de calcul stochastique
alors
(x) satisfait
(y) =
Z
20
(1.28)
Pt (x; y) d (x) :
Pour justi…er (1:28) appliquant la formule de la probabilité totale et le fait que la distribution
stationnaire est la distribution de Xt pour tout t;
Z
P (X0 y) = P (Xt y) = P (Xt
Si la distribution stationnaire a une densité,
y j X0 = x) d (x) :
(x) = d (x) =dx; alors
(x) est dite la densité
stationnaire ou invariante. Si
t
(1.29)
(x; y) = @Pt (x; y) =@y;
dénote la densité de Pt (x; y) ; alors la densité stationnaire satisfait
Z
(y) =
t (x; y) (x) dx:
(1.30)
Le Théorème suivant montre que l’existence d’une probabilité invariante est équivalente à la récurrent positive. En outre, un calcul de la densité invariante est fourni.
Théorème 1.4.4 ([17]). Supposons que la di¤usion est récurrente positive sur I = (a; b) :
(a) Alors il existe une unique distribution invariante
(dx) :
(b) Pour tout f à valeurs réelles telles que
Z
jf (x)j (dx) < 1;
S
la loi forte des grands nombres a lieu, ce qui signi…e que pour toute distribution initiale ;
1
lim
t !1 t
Zt
f (Xs ) ds =
0
Z
f (x) (dx) ;
(1.31)
S
avec une probabilité 1.
(c) Si a et b sont inaccessibles ou ré‡échissants, alors la probabilité invariante a une densité
qui est l’unique solution intégrable normalisée de A
1 d2
2 dx2
ou tout simplement de
2
1 d
2 dx
(x) = 0; i.e.,
d
( (x) (x)) = 0
dx
(x) (x)
2
(x) (x)
(x) ;
pour x 2 I;
(x) (x) = 0:
(1.32)
(1.33)
Réversibilité
Nous avons d’abord dé…nir la notion de réversibilité de temps pour un processus stochastique.
Section 1.4. Processus de Markov et Di¤usion
Chapitre 1. Rappels de calcul stochastique
Dé…nition 1.4.6 Un processus stochastique
21
= ( t )t
0
est dit réversible si la famille des distribu-
tions de probabilité conjointes satisfait, pour tout m 2 N; t > 0 et 0
t1 ;
t2 ; : : : ;
=d
tm
t t1 ;
t t2 ; : : : ;
t1 < t2 <
t tm
tm
t;
(1.34)
;
où =d signi…e que les deux vecteurs aléatoires ont la même distribution.
Un processus stochastique réversible est stationnaire, puisque la condition (1:34) signi…e que
t1 ;
t2 ; : : : ;
tm
=
d
=
=
tm t1 ;
tm t2 ; : : : ;
s+tm (s+t1 ) ;
d
s+t1 ;
0
s+tm (s+t2 ) ; : : : ;
s+t2 ; : : : ;
s+tm
0
:
Proposition 1.4.1 ([17]) Notons ^t le retournement du temps d’une di¤usion
^ =
t
t 2 [0; T ] :
T t;
t;
donné par
(1.35)
Alors, le processus ^t est un processus de di¤usion.
On rappelle tout d’abord le résultat principal obtenu sur le comportement ergodique d’une solution
(Xt )t
0
de (1:27) en dimension 1.
Théorème 1.4.5 ([17] x 6:8 )
On suppose que (Xt )t
0
(solution de (1:27) et de mesure de vitesse m) est récurrent sur I: Soient
f et g deux fonctions mesurables réelles positives telles que
Z
Z
(f (x) + g (x)) m (dx) < +1;
g (x) m (dx) 6= 0:
I
Alors
I
Rt
R0t
0
f (Xs ) ds
g (Xs ) ds
!
p:s
Section 1.4. Processus de Markov et Di¤usion
R
f (x) m (dx)
RI
g (x) m (dx)
I
(1.36)
Chapitre 2
Temps Locaux Et Excursions
22
Chapitre 2. Temps Locaux Et Excursions
2.1
23
Temps Locaux
Théorème 2.1.1 ([32]; Formule de Tanaka). Soit X une semi-martingale continue. Pour tout
x 2 R, Il existe un processus adapté et continu (Lxt ; t
jXt
où sgn (x) =
(
xj = jX0
xj +
Zt
0) tel que
sgn (Xs
x) dXs + Lxt :
(2.1)
0
1 si x
0
:
1 si x > 0
Le processus (Lxt ; t 0) est appelé temps local (au sens semi-martingale) de X en x.
On peut écrire la formule de tanaka sous d’autres formes :
(Xt
+
x) = (X0
+
x) +
Zt
1
1fXs >xg dXs + Lxt :
2
(2.2)
Zt
1fXs
1
+ Lxt :
2
(2.3)
0
(Xt
x) = (X0
x)
xg dXs
0
Ces deux identités découlent immédiatement de (2:1) :
Remarque 2.1.1 Une conséquence de la formule de Tanaka est que jXt
xj, (Xt
x)+ , (Xt
x)
sont des semi-martingales.
On étudie maintenant quelques propriétés élémentaires du temps local de X. Commençons par
étudier le support de dL (t; x).
Théorème 2.1.2 ([32])Soit X une semi-martingale continue. Pour tout x 2 R, le support de la
measure (aléatoire) dLx est un sous-ensemble de fs : Xs = xg :
Remarque 2.1.2 Pour tout x 2 R; Lx0 = 0: Le Théorème (22) nous con…rme donc que
Lxt = 0; 8x 2
=
Proposition 2.1.1 ([32])Soit
(2.4)
inf Xs ; sup Xs :
0 s t
0 s t
un processus de changement de temps et X une -semi-martingale
continue, alors
Lat (X ) = Lat (X) :
De plus, si X est une martingale locale alors pour tout reèl a, les deux ensembles flimt
et
fLa1
< 1g sont équivalents p.s.
Section 2.1. Temps Locaux
!1
Xt exsisteg
Chapitre 2. Temps Locaux Et Excursions
24
Jusqu’ici, on a regardé le temps local en tant que processus en t. Il est intéressant de le considérer
comme processus à deux indices (t; x). Le théorème suivant nous donne des informations précises
sur la continuité conjointe en (t; x) du temps local.
Théorème 2.1.3 ([32])Soit X une semi-martingale continue. Il existe une version de (Lxt ; t
qui est continue en t et càdlàg en x. de plus,
Lxt
Lxt = 2
Zt
0; x 2 R)
1fXs =xg dVs ;
0
où X = X0 + M + V est la décomposition canonique de X.
Corollaire 2.1.1 Si X est une martingale locale continue, alors il existe une version bicontinue de
(Lxt ; t
0; x 2 R).
Remarque 2.1.3 Désormais, en prendra toujours une version du temps local qui est continue en
t et càdlàg en x. En particulier, pour une martingale locale continue, on tavaillera toujours sur une
version bicontinue de son temps local.
Théorème 2.1.4 ([32])(formule des temps d’occupation) On a preque sûrement,
Zt
f (Xs ) d hXis =
0
pour tout t
Z
f (x) Lxt dx;
(2.5)
R
0 et toute fonction borélienne f
0:
Remarque 2.1.4 L’expression ”formule de temps d’occupation” s’interprète le mieux dans le cas
du mouvement brownien. En e¤et, si X = B (mouvement brownien), alors pour tout A 2 B (R), en
prenant f = 1A dans (2:5), on a
Zt
1fBs 2Ag ds =
0
Z
Lxt (B) dx; 8t:
(2.6)
A
Le temps local est donc la densité (par rapport à la mesure de lebesgue) de la mesure du temps
R
d’occupation (A) = A 1fBs 2Ag ds:
Il est possible d’étendre la formule des temps d’occupation pour des fonctions plus générales.
Proposition 2.1.2 ([32]) On a preque sûrement,
Zt
g (s; Xs ) d hXis =
0
pour tout t
0 et toute fonction borélienne g
Section 2.1. Temps Locaux
Z
R
dx
Zt
g (s; x) ds Lxs ;
0
0 dé…nie sur R+
R.
(2.7)
Chapitre 2. Temps Locaux Et Excursions
2.1.1
25
Temps local brownien
Dans la section précédente, on a étudié des propriétés générales du temps local d’une semi-martingale
continue. Dans la présente section, on va voir des propriétés particulièrement liées à ceux du mouvement brownien.
Identité de Lévy
Lemme 2.1.1 ([32] Skorokhod)Soit (y (s) ; s
0) une fonction continue sur R+ telle que y (0)
0.
alors il existe un unique couple de fonctions (z; a) dé…nies sur R+ véri…ant les trois conditions
suivantes :
(i) z = y + a;
(ii) z
0;
(iii) a est croissante et continue, a (0) = 0, et la mesure da (s) est portée par fs
0 : z (s) = 0g :
En plus, la fonction a est donnée par
a (t) = sup y (s) ;
0 s t
où y (s) := max (0; y (s)) est la partie négative de y (s) :
Soit B un mouvement brownien, issu de 0, et soit Lxt son temps local. On s’intéresse au processus
fL0t ; t
0g. Rappelons la formule de tanaka
jBt j =
Zt
sgn (Bs ) dBs + L0t :
0
Dans cette identité, on constate que jBj
0, que le processus L0t est croissant et continu tel que
L00 = 0, et que dL0t est portée par fs 0 : jBs j = 0g. Par le lemme de skorokhod, on a L0t =
Rt
sup0 s t ( s ) , où t := 0 sgn (Bs ) dBs . Comme 0 = 0, on peut encore écrire
L0t = sup (
0 s t
s) :
Remarquons que est une martingale locale continue issue de 0, dont la variation quadratique est
Rt
(sgn (Bs ))2 ds = t. Par la caractérisation de Lévy pour le mouvement brownien, on voit que
0
est un mouvement brownien standard. Donc le processus (L0t ; t
où St := sup0
s t
0) a la méme loi que (St ; t
0),
Bs :
En fait, on a une identité en loi bivariée.
Théorème 2.1.5 ([32] Identité de Lévy)Les processus (St
méme loi.
Section 2.1. Temps Locaux
Bt ; St ; t
0) et (jBt j ; L0t ; t
0) ont la
Chapitre 2. Temps Locaux Et Excursions
Corollaire 2.1.2 Les …ltrations de
26
et de jBj coincident.
Etudions d’abord les zeros du mouvement brownien en terme du temps local en 0. pour simpli…er
les notations, on écrira Lt := L0t , et soit
t
= inf fs > 0 : Ls > tg ; t
0:
Comme L1 = 1 p:s: (ceci est une conséquence immédiate de l’identité de Lévy), on sait que
presque surement
(Lt ; t
t
< 1 pour tout t
0). Notons en particulier que
0. Le processus ( t ; t
0
0) est l’inverse continue à droite de
= 0 p:s: (ceci découle de l’identité de Lévy et du fait que
B visite R+ dans chaque voisinage de 0).
On dé…nit
O (!) :=
avec la convention
0
[
]
s
(!) ;
s
(!)[ ;
s 0
= 0: Notons qu’il y a au plus un nombre in…ni dénombrable d’intervalles
non-vides dans l’union.
Théorème 2.1.6 ([32]) Pour presque tout !, les trois ensembles suivants sont identiques :
(i) Z (!) := inf ft
0; Bt (!) = 0g ;
c
(ii) O (!) ;
(iii) Le support
(!) de la mesure dLt (!) :
Remarque 2.1.5 L’ensemble des zeros de B est donc le complémentaire de O (!) : Les intervalles
]
s
(!) ;
s
(!)[ (lorsqu’il sont non-vides) sont appelés les intervalles d’excursions (au dehors de 0)
du mouvement brownien, que l’on étudiera dans la section suivante.
Deux mouvements browniens ré‡ichis
Soient,
Mt+
Les processus Mt+ et Mt
Rt
0
1fBs >0g dBs ; et Mt
Rt
0
1fBs <0g dBs :
sont des martingales continus, à carré intégrable, de variations qua-
dratiques
M
+
t
A+
t
Zt
1fBs >0g ds;
= At
Zt
1fBs <0g ds:
=
0
M
t
0
Section 2.1. Temps Locaux
Chapitre 2. Temps Locaux Et Excursions
et
+
=
M ;M
27
Zt
1fBs >0g 1fBs <0g ds = 0:
0
Comme
A+
1
= A1 = 1; on peut dé…nir leurs inverses continues à droite :
+
t
0 : A+
s > tg ;
:= inf fs
t
:= inf fs
0 : As > tg :
D’aprés le théorème de Knight (voir [32] Théorème 1.9 Chap.V) il existe deux mouvements browniens
indépendants
+
et
tel que M (
+
B+
=
+
D’aprés lemme de skorohod B (
1
L
2
2.2
2.2.1
+
t
et par la dé…nition du temps local de B;
)=
1
+ L
2
+
;
) ; 12 L (
= sup
s t
1
+ L
2
=
B
:
) ont la même loi que (jBj ; L), de plus,
+
s
1
L
2
;
t
= sup
s t
s
:
Excursions
Processus de Poisson ponctuel
Tout au long de cette section, nous considérons un espace measurable (U; L) Auquel est ajouté un
point , et l’on pose U = U [ f g et L =
(L; f g) :
Dé…nition 2.2.1 un processus e = (et ; t > 0) dé…ni sur un espace de probabilité ( ; F; P ) à valeurs
dans (U ; L ) est dit processus ponctuel si
(i) (t; w) ! et (w) est ß
(]0; 1[)
F measurable ;
(ii) l’ensemble Dw = ft; et (w) 6= g est dénombrable p.s.
Donné un processus ponctuel, avec chaque ensemble
telque et (w) = et (w) si et (w) 2 ; et (w) =
soit
une sous ensemble mesurable de ]0; 1[
N (w) =
2 L , on dé…ni un processus ponctuel e
sinon. le processus e est la trace de e sur :
U;
X
I (t; et (w)) :
t>0
en particulier, si
= [0; t]
; on peut ecrire Nt pour N ; De même N[s;t] =
P
s<u6t
I (eu )
Dé…nition 2.2.2 On dit qu’un processus ponctuel est discret si NtU < 1 p.s. pour tout t. Le
processus e est -discret s’il y a une suite d’ensembles (Un ), telle que l’union de (Un ) est U;et eUn
est discret.
Section 2.2. Excursions
Chapitre 2. Temps Locaux Et Excursions
28
Dé…nition 2.2.3 Soit ( ; F; Ft ; P ) un espace de probabilité …ltré. Un (Ft ) processus de poisson
N est un processus adapté, continue à droite tel que N0 = 0 et pour tout s < t, k 2 N;
P [Nt
Ns = k j Fs ] = c
k (t
s)k
exp ( c (t
k!
s))
tel que c > 0 est le parametre de N .
Dé…nition 2.2.4 Un Ft processus de poisson ponctuel est un processus de poisson -discret (et )
tel que
1- le processus e est Ft adapté ; pour tout
2- por tout s et t > 0 et tout
de Nt .
2.2.2
2 L, le processus Nt est Ft adapté.
2 L; la loi conditionelle de N]s;s+t[ par rapport à Fs est la même loi
Excursions Browniennes
Dans ce qui suit, nous travaillons avec la version canonique du MB. On note par W l’espace de
Wiener, P la mesure de Wiener, et F la tribu engendrée par W completée par rapport à P .
Désormais, nous appliquons les résultats de la section précédente, à un espace (U ; L ) que nous
allons maintenant dé…nir. Pour ! 2 W , on pose
R (!) = inf ft > 0 : ! (t) = 0g :
L’espace U est l’ensemble de ces fonctions ! tels que 0 < R (!) < 1 et ! (t) = 0 pour tout
t > R (!).
On considére l’espace measurable (U; L) auquel est ajouté un point , U = U [f g et L =
(L; f g)
Dé…nition 2.2.5 (Excursions Browniennes). Le processus d’excursion est un processus e = (es ; s > 0)
de…ni en (W; F; P ) à valeurs dans (U ; L ) par
1-si
s
(!)
s
(!) > 0, alors es (!) est
r ! Ifr<
2-si
s
(!)
s
s (!)
s
(!)g B
s
(!)+r
(!) ;
(!) = 0;alors es (!) = :
On écrit quelquefois es (r; !) ou es (r) au lieu de es (!) pour un temps r donné.
Théorème 2.2.1 ([32] Itô).
Le processus d’excursion (et ) est un processus de poisson ponctuel F t -mesurable.
Section 2.2. Excursions
Chapitre 2. Temps Locaux Et Excursions
29
A partir de B, nous avons dé…ni le processus d’excursion. Inversement, si le processus d’excursion
est connue, on peut reconstruire B.
Plus précisément
Proposition 2.2.1 ([32] Proposition 2.5 p.482 )
On a
t
(!) =
et
P
s6t R (es (!)) ;
Bt (!) =
X
s6Lt
où Lt est l’inverse continu à droite de
Section 2.2. Excursions
t.
t
es (t
(!) =
s
P
s<t
(!) ; !)
R (es (!)) :
Chapitre 3
Mouvement Brownien Excité
30
Chapitre 3. Mouvement Brownien Excité
3.1
31
Décompositon trajéctorielle
Notons ( ; F; Qx ) l’espace de Wiener, où Qx est la loi d’un mouvement brownien réel issu de x.
Soient Xt (!) = ! (t) pour tout t
0 et (Ft ; t
0) la …ltration associée à X. Dans la suite, Nous
notons Lat pour désigner la version presque sûrement bicontinue du temps local de Xt , dont on
normalise de telle sorte que la formule de la densité d’occupation (2:5) devient
Zt
f (Xs ) ds =
0
Z
f (a) Lat da:
Nous supposons maintenant une certaine fonction g mesurable et bornée: R R+ ! R; soit
0 t
1
Z
Zt
1
s
s
dXs
Mtg = exp @ g Xs ; LX
g 2 Xs ; LX
dsA :
s
s
2
0
On a,
0
Zt
s
g 2 Xs ; LX
ds
s
Mt
0
où M = sups
0
g
2
s
Xs ; LX
s
; alors d’après Théorème 1.2.6 (Mtg ; t > 0) est une (Ft ; t > 0)-martingale.
g
On dé…ni Px;t
la mesure de probabilité sur ( ; Ft ) de densité Mtg par rapport à Qx restreint à Ft .
Par consistance, il est possible de construire une mesure de probabilité unique Pxg sur
Pxg
restreinte à Ft soit
'
Px;t
.
, telle que
Par la formule de la transformation de la dérive (théorème de Girsanov),
on peut prouver que sous Pxg ,
Bt = Xt
x
Zt
s
g Xs ; LX
ds
s
0
est un mouvement brownien issu de 0. L’unicité découle par des arguments similaire : partant de
g
Pxg la loi d’une solution et puis on construit Px;t
, alors on a la proposition suivante :
Proposition 3.1.1 Soit x 2 R:Alors il y a une solution unique (X; B) de l’équation
Xt = x + Bt +
Zt
s
g Xs ; LX
ds
s
(3.1)
0
où B est un mouvement brownien issu de 0 et (Lxt : t
X:
0; x 2 R) est le processus du temps local de
Nous utiliserons la notation Exg et Exgn pour les espérances par rapport à Pxg et Pxgn :
Section 3.1. Décompositon trajéctorielle
Chapitre 3. Mouvement Brownien Excité
32
Lemme 3.1.1 Soit (gn )n>0 une suite de fonctions mesurables bornées, tel que gn (x; l) converge vers
g (x; l), quand n ! 1, pour x et l, presque partout, et telle que
sup jgn (x; u)j < +1
(3.2)
x;n;u
Alors Pxgn converge faiblement vers Pxg sur
pour tout x.
Preuve. Soit Z une variable aléatoire Ft -mesurable, continue et bornée. Nous devons prouver que
Exgn (Z) converge vers Exg (Z).
Comme Exgn (Z) et Exg (Z) sont respectivement égales à Qx (ZMtgn ) et Qx (ZMtg ) ; il su¢ t de prouver
que Mtgn converge dans L2 vers Mtg :
Rt
Rt
Rt
s
s
s
dXs 21 0 g 2 Xs ; LX
ds:On
On a Yt = 0 g Xs ; LX
ds est un processus d’Itô et hY it = 0 g 2 Xs ; LX
s
s
s
a donc, pour f 2 C 2 ,
f (Yt )
f (Y0 ) =
Zt
=
Zt
1
f (Ys ) dYs +
2
0
0
Zt
f 00 (Ys ) d hY is
0
0
f (Ys ) g
s
Xs ; LX
s
dXs
1
2
0
+
Zt
s
f 0 (Ys ) g 2 Xs ; LX
ds
s
0
1
2
Zt
s
f 00 (Ys ) g 2 Xs ; LX
ds:
s
0
Soit f (x) = ex : On a f = f 0 = f 00 et
Mtg
=1+
Zt
s
Msg g Xs ; LX
ds:
s
0
Donc
Qx (Mtgn
Mtg )2
0 t
Z
s
= Qx @
Msgn gn Xs ; LX
s
00 t
Z
s
@
Qx
Msgn gn Xs ; LX
s
12
dsA
s
Msg g Xs ; LX
s
2
s
Msg g Xs ; LX
s
0
=
Zt
s
Qx Msgn gn Xs ; LX
s
s
Msg g Xs ; LX
s
2
Alors,
d
Qx (Mtgn
dt
Mtg )2
t
Qx Mtgn gn Xt ; LX
t
Section 3.1. Décompositon trajéctorielle
t
Mtg g Xt ; LX
t
dsA
ds
0
2
1
Chapitre 3. Mouvement Brownien Excité
33
or
Qx [Mtgn gn
Mtg g]2 = Qx [Mtgn gn
Mtg gn + Mtg gn
Mtg g]2
= P [(Mtgn Mtg ) gn + Mtg (gn g)]2
h
2Qx (Mtgn Mtg )2 gn2 + (Mtg )2 (gn
(pour tout a; b 2 R : (a + b)2
i
g)2 :
2 (a2 + b2 )). Comme gn (x; u) est bornée pour tout n; x; u: On a,
t
2gn2 Xt ; LX
t
c
pour certain constant c > 0; : Il résulte alors que,
d
Qx (Mtgn
dt
Mtg )2
2Qx
h
(Mtg )2
2
(gn
g)
t
Xt ; LX
t
i
+ cQx
h
(Mtgn
h
On conclut par le théorème de la convergence dominée que P (Mtg )2 (gn
Mtg )2
i
t
g)2 Xt ; LX
t
vers 0 et par utilisant le lemme de Gronwall.
Dé…nissons
Rt
A+
t =
0
1fXs >0g ds; At =
On peut dé…nir leurs inverses continues à droite :
+
(t) = inf fu > 0 j A+
u > tg ;
Rt
0
i
converge
(3.3)
1fXs <0g ds:
(3.4)
(t) = inf fu > 0 j Au > tg
On dé…ni les deux processus X + et X comme suit
Xt+ = X
+ (t)
; Xt = X
Notons par Q+ et Q les lois respectives de X + et X
(3.5)
(t) :
sous Q, et soit Q+
t et Qt leurs restrictions
t)). Il est bien connu que Q+
t (resp Qt ) est la
sur Ft respectivement (alors Qt est la loi de (Xs ; s
loi d’un mouvement brownien ré‡ichi au dessus de 0 (resp en dessous de 0) et issu de 0. Notez que
l’identité de Lévy (voir Théorème 1.4.6) montre que Le processus
t
:= Xt
L0t (resp
t
:= Xt + L0t )
(où L0 est le temps local de X en 0) est un mouvement brownien sous Q+
t (resp Qt ) et que le
processus Ntg dé…ni par :
0
Ntg := exp @
Zt
s
g Xs ; LX
d
s
s
1
2
Zt
0
0
est une martingale sur ( ; F; Q )
1
s
g 2 Xs ; LX
dsA
s
Soit P g; les mesures dont leurs restrictions sur Ft est Ptg; ; où P~t sont dé…nis par
Ptg; := Ntg
Section 3.1. Décompositon trajéctorielle
Qt 8t
0:
(3.6)
Chapitre 3. Mouvement Brownien Excité
34
En appliquant le théorème de Girsanov sur l’espace ( ; F; P g; ), le processus
Xt =
Lt +
t
Zt
s
ds;
g Xs ; LX
s
(3.7)
0
avec
t
~g
est un Ft -mouvement brownien.
Soit P := P g;+
P g; et soit (X 1 ; X 2 ) le processus canonique de la loi P~ g : Alors X 1 et X 2 sont
independents et P g;+ ; P g; sont leurs distributions respectives. Notons L(1) et L(2) les processus du
temps local en 0 de X 1 et X 2 ; et dé…nissons leurs inverses continues à droite
i
(s) = inf t j L(i) (t) > s
2
par
i
L(i) (1) ;
i
(s)
(s ) ;
(s ) > 0, et ei (s) = 0 sinon. Soit e le processus d’excursions obtenu par l’addition
(2)
~ 1 = L(1)
de e1 et e2 ; pour s
L
1 ^ L1 : La construction de la fonction d’excursion e à partir des
si
i
pour tout u 2 0;
)+u
et
pour i 2 f1; 2g :
Notons par e1 et e2 leurs processus d’excursion hors de 0, pour s
i
e(i)
s (u) = X i (s
1
(s)
i
fonctions d’excursions respectives e1 et
8
>
>
<
es =
>
>
:
Comme pour tout s
e2 de (X 1 ; L1 ) et de (X 2 ; L2 ) est classique :
(1)
1
(s)
1
(s ) > 0
(2)
2
(s)
2
(s ) > 0
es si
es si
(3.8)
0 sinon.
(1)
(2)
0; soit es = 0 soit es = 0 (L’independance de X 1 et X 2 implique que les
(1)
(2)
deux processus ponctuels es et es sont independants), on a
(2)
e(1)
= es 1fes
s ; es
Notons
0g ; e (t) 1fes 0g
:
la transformation mesurable qui reconstruit un processus hors de son processus excursions
es (voir 2.2.1),
( e)t =
X
es (t
s
(!) ; !) :
~t
s6L
(2)
~ est le temps local en 0 de e; et on a pour tout t 2 R+ [ f1g ; L
~ t = L(1)
où L
t ^ Lt :
Proposition 3.1.2 ([31] Proposition 3.1 )
(i)
e et X ont même loi.
Preuve. Supposons d’abord que g (x; l) = 0 si x 2 ( c; c) ; pour une certaine constante c > 0. Pour
tout 2 ( c; c) ; on dé…ni un processus X comme suit : soit T0 = 0 et pour n
Sn = inf t
Section 3.1. Décompositon trajéctorielle
Tn
1
j Xt 2 f
; g ;
1,
Chapitre 3. Mouvement Brownien Excité
35
Tn = inf ft > Sn j Xt = 0g :
On dé…ni également
A (t) =
X
n 1
et soit
(Tn ^ t
Sn ^ t) ;
(t) l’inverse continue à droite de A : Ensuite, posons
Xt := X
(t)
Comme le temps local ne croit que lorsque X est nul, il découle que pendant chaque intervalle de
temps (Sn ; Tn ) ; le temps local en 0 de X ne peut pas croitre. Et pour u 2 (Sn ; Tn ) ;
A (u) = (u
Sn ) +
n 1
X
(Tk
Sk )
k=1
et
A (Sn ) =
n 1
X
(Tk
Sk )
k=1
alors on a :
u = Sn + (A (u)
Donc, pour u =
A (Sn )) :
(t) ; t 2 (A (Sn ) ; A (Tn )) on a,
(t) = Sn + (A (
= Sn + (t
(t))
A (Sn ))
A (Sn )) :
Ainsi, par (3:7) sur les intervalles (A (Sn ) ; A (Tn )) ; si X suit la loi de e; alors X est la solution
de l’EDS
Xt
(t)
dXt = dRt + g Xt ; L
dt;
(3.9)
où L:: est le temps local de X, et R est le mouvement brownien dé…ni par
Rt =
n 1
X
BTk
BSk + B
(t)
BSn ;
k=1
pour t 2 (A (Sn ) ; A (Tn )) :
Notons L: ;: le processus du temps local de X : La trajectoire de X est continue au voisinage de
tout x 2
= ( c; c) ; alors d’après la proposition 2.1.1,
Lx
(t)
= Lt ;x 8t
0 8x 2
= ( c; c) :
et comme g (x; l) = 0 quand x 2 ( c; c) ;
g x; Lx
(t)
= g (x; Lt ;x ) 8t
Section 3.1. Décompositon trajéctorielle
0 8x 2 R:
Chapitre 3. Mouvement Brownien Excité
36
Ainsi, X satisfait en fait l’EDS :
dXt = dRt + g Xt ; Lt
;Xt
(3.10)
dt;
jusqu’à la première fois qu’il atteingne 0 et quand il atteind 0, il saute instantanément à
ou
avec une probabilité 1=2, indépendamment de sa trajectoire passée. Notez que ceci détermine la loi
de X .
Or il résulte aussi de (??), que si X admet pour loi P , alors X résoud ainsi l’EDS (3:10) jusqu’à
la première fois qu’il atteingne 0, puis saute à
ou
avec une probabilité 1=2 (car il n’y a pas de
dérive dans ( c; c)).
Presque sûrement,
lim A (t) = t;
!0+
au sens de la convergence uniforme sur des intervales compacts :
Presque sûrement, pour tout t 2 [0; T ] ;
jA (t)
tj
ZT
1fXs 2(
; )g ds
! 0;
! 0;
0
notons que la mesure Lebesgue de l’ensemble des zeros de X est nulle (voir, 2.1.6). Alors pour tout
t1 ; : : : ; tn …xés; presque sûrement,
lim Xt1 ; : : : Xtn = (Xt1 ; : : : Xtn ) :
!0
d’où, pour le processus càdlàg X := X
les distributions marginales convergent vers celles de X:
Il résulte alors X converge vers X, quand
tend vers 0, et nous concluons que la loi de e est P .
Pour terminer la preuve, pour c > 0, on dé…ni gc par
gc (x; l) = g (x; l) 1 (x 2
= [ c; c]) :
d’aprét Lemme 3.1.1 on sait que P gc converge vers P g ; quand c ! 0: Il en est de même pour la
convergenve de P gc ;+ et P gc ; vers respectivement P g;+ et P g; : Comme e est une transformation
mesurable de (X 1 ; X 2 ) ; on a le résultat.
Dé…nition 3.1.1 Un point x est dit recurrent pour (Xt ) si la probabilité que le processus visite x
une in…nité de fois est égale à 1, ce qui signi…e que :
Px fXtm = x pour une suite croissante (tm ) tendant vers 1g = 1
Section 3.1. Décompositon trajéctorielle
Chapitre 3. Mouvement Brownien Excité
37
On notera que x est transitoire pour (Xt ) signi…e que
Px
n
o
lim jXt j = 1 = 1
t !1
Lorsque tous les points sont recurrents (resp. transitoires), on dira que le processus (Xt ) est recurrent
(resp. transitoire).
Considérons les événements Ra := fLa1 = +1g ; a 2 R (l’événement de la récurrence pour a):
Supposons que y est récurrent pour (Xt ) ; et notons
k
= inf ft
k 1
0
= inf ft
: Xt = yg : Les variables aléatoires f
pose alors pour tout " > 0;
"
k
= f! : 9t 2 (
k;
k+1 ) ; Xt
k gk 0
2 (z
0 : Xt = yg ; et pour tout k 2 N ;
sont …nies et croissants vers 1: On
"; z + ")g
En utilisant le lemme de Borel-Cantelli conditionnel, on obtient pour tout " > 0;
Pxg (lim inf
alors pour N assez grand, et tout k
pour (Xt ) : Donc pour tout x; y; z;
N; 9
Pxg -p.s.,
0
k
Ry
2(
"
k)
=1
k;
k+1 )
tels que X
0
k
= z; d’où z est récurrent
Rz d’où Ry = Rz :
Dans la suite, nous noterons R l’événement de la récurrence ( = Ra pour tout a ). Notez que nous
avons encore pour tout x
0 (resp. x
les cas, R est l’événement fL01 = +1g :
Pour t > 0 et a 2 R; soit
a
t
0), P g;+ (resp. P g; )-p.s. , Rx = R0 (= R) : Donc, dans tous
= inf s > 0 :
Rs
0
1fXu
Lemme 3.1.2 ([41], Lemme 3) Soient a 2 R; x; y
telles que g (z; l) =
(z; l) pour tout z
ag du
a et tout l
> t : Alors, on a :
a et g;
deux fonctions mesurables et bornées
0: Alors X
a
t
a a la même distribution
sous Pxg;+ et sous Py ;+ : En particulier,
Pxg;+ (La1 = 1) = Py ;+ (La1 = 1) :
(3.11)
Notez qu’une proposition semblable a lieu pour P:g; : Une conséquence immediate de ce lemme est
que
Pxg; (R) = P g; (R) ;
pour tout x 2 R:
Proposition 3.1.3 (i) P g;+ (R) et P g; (R) appartiennent à f0; 1g :
(ii) Pxg (R) = 1; si et seulement si, P g;+ (R) = P g; (R) = 1:
(iii) Pxg (R) = 0; si et seulement si, P g;+ (R) = 0 ou P g; (R) = 0:
Section 3.1. Décompositon trajéctorielle
(3.12)
Chapitre 3. Mouvement Brownien Excité
38
Preuve. (i) Par la proposition 3.1.2, on a :
~1 = 1
Pxg (R) = P~xg L
(2)
= P~xg L(1)
1 = L1 = 1
= Pxg;+ L(1)
1 = 1
= Pxg;+ (R)
(1)
Pxg;
Pxg; (R) ;
L(2)
1 = 1
(3.13)
(2)
à cause du fait que L1 et L1 sont indépendants.
Supposons que P g;+ (R) > 0: Comme R 2
g;+
des martingales sur la martingale (P
([z FTz ) ; on appliquant le théorème de convergence
(R j FTz ))z
0
; alors on a P g;+ -p.s.,
lim P g;+ (R j FTz )
1R =
z !1
lim PzgTz ;+ (R) ;
=
(3.14)
z !1
où gTz est dé…nie par
gTz (y; l) = g y; LyTz + l :
Notons que sous Pxg ; (Xt ; gt ) est un processus de Markov et que (3.14) est la propriété forte de
Markov pour ce processus. D’après (2:4) pour tout y
z, LyTz = 0 alors,
gTz (y; l) = g y; LyTz + l = g (y; l) ;
donc gTz et g coïncident pour tout y
tout z
0: Alors, par (3:12), limz
!1
pour tout y
z; :
(3.15)
z, d’où d’aprés (3:11), cette limite est égale Pzg;+ (R) pour
Pzg;+ (R) = P g;+ (R) :Ainsi on a prouvé que
1R = P g;+ (R) :
Donc, P g;+ (R) est égale 1 car elle est positive par hypothèse.
(ii)-(iii) Pour tout x 2 R;
Pxg (R) = Pxg;+ (R)
= P g;+ (R)
Pxg; (R)
P g; (R) :
si P g;+ (R) = P g; (R) = 1 alors Pxg (R) = 1; si P g;+ (R) = 0 ou P g; (R) = 0 alors Pxg (R) = 0: On
peut conclure que Pxg (R) appartient à f0; 1g :
3.2
Théorème de Ray-Knight pour X 1 et X 2
Nous recueillons ici un certain nombre de dé…nitions et des résultats bien connus. On dé…ni, pour
a2R
Aat
Zt
1fXs
ag ds;
0
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
Chapitre 3. Mouvement Brownien Excité
et on désigne par
a
t
39
l’inverse continue à droite du processus croissant Aat ;
a
t
Aat étan fFt g adapté Il s’ensuit que
inf fu : Aat > tg ;
a
t
est un fFt g temps d’arrêt. On pose :
Rt
a
a
;
Xta = 0 1fXt ag dXs ;
t = X a
t
Fta =
~a
et on dé…ni X
t
(f
a
s
:s
tg) :
~a
X at . Notons que ce processus satisfait l’inégalité X
t
a pour tout t
0; d’où
d’aprés David Williams [40], nous dé…nissons
~a : t
X
t
Ea
0
La famille croissante de tribus (Ea ; a 2 R) appelée la …ltration d’excursions de Xt : En fait Walsh
[38] montre que (Ea ; a 2 R) est une …ltration continue à droite.
La formule de Tanaka (2:3) (qui peut être considérée comme la dé…nition de temps local d’une
semi-martingale) stipule que que
(Xt
a)
= (X0
Zt
a)
1fXt
ag dXs
1
+ Lat
2
0
= (X0
1
Xta + Lat ;
2
a)
(3.16)
Pour prouver le résultat principal de cette section, Theorem 3.2.2, nous avons besoin de changement
de temps des intégrales stochastiques : le résultat suivant, cité par Rogers-Williams [33], couvre tous
les cas dont nous avons besoin. La …ltration fFt g est supposée continue à droite.
Théorème 3.2.1 ([33])
Soit A un processus croissant continu nul en 0 avec nsonoinverse continue à droite et soit F~t = F t :
(1) Si T est un fFt g-temps d’arrêt, alors AT est un F~t -temps d’arrêt.
n o
(ii) Si S est un F~t -temps d’arrêt, alors S est un fFt g-temps d’arrêt.
n o
(iii) Si H est un processus nul en 0; F~t -previsible, alors H A est un processus fFt g-previsible:
(iv) Supposons que M est une fFt g-martingale locale avec la propriété que
n o
9 une suite de F~t -temps d’arrêt Sn " 1 tels que
(Sn )
est une martingale uniformément integrabte.
n o
n o
~ t = M ( t ) est une F~t -martingale locale, et pour tout processus F~t -previsible localeAlors M
M
ment bornée H; nul en 0;
Z
(0;t]
~s =
Hs dM
Z
(0;
H (As ) dMs :
t]
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
(3.17)
Chapitre 3. Mouvement Brownien Excité
Lemme 3.2.1
a
t
vement Brownien.
est un F
a
t
40
-mouvement Brownien. En particulier, Ea engendrée par un mou-
Preuve. On a
Xta = (Xt
Alors si Tn = inf ft : Xta <
remplies, et dans ce cas
sauter quand
où Xt ^a et
Lat
a
t
1
a) + Lat ;
2
n; ou Lat > ng ; et Sn = AaTn ; les conditions du théorème A (iv) sont
est une F
saute ; et un saut de
a
t
-martingale locale. Elle est continue, parce qu’elle ne peut
est un intervalle dans lequel X fait une excursion dans (0; 1),
sont constants, et donc Xta est également constant. En…n, (Xta )2 Aat , est une F
martingale locale continue, à partir de laquelle on déduit de même que X aat
2
Aaat = ( at )2
a
t
-
t
a
t
-martingale locale continue, et est un F at -mouvement Brownien. Il résulte alors
~ ta engendrent la même …ltration (brownienne).
de ([33] ;§ V.6) que at et X
est une F
a
t
Ainsi, toutes les variables aléatoires L2 (Ea ) peuvent être représentées comme des intégrales stochastiques. C’est l’idée centrale qui a été derrière le lemme clé de McGill [25]:
Soit u un processus fFt g-previsible, et pour tout a 2 R soit
u~at = u at :
On pose :
L (E) = fu previsible tel que u~at est fFta g -previsible 8ag :
Dans notre développement, l’analogue du lemme de McGill est le résultat suivant :
Théorème 3.2.2 Supposons que u 2 L (E) et véri…e la condition
E
Z1
u2s IfXs
ag ds
< 1 pour tout a 2 R:
0
Alors le processus
Na =
Z1
us IfXs
ag dXs
0
est une fEa g-martingale qui a pour variation quadratique
hN ia =
Z1
u2s IfXs
ag ds:
0
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
(3.18)
Chapitre 3. Mouvement Brownien Excité
41
R1 2
Preuve. Soit Ca = 0 us 1fXs ag ds: Tout d’abord, nous montrons que N et C sont Ea -adaptés.
D’après le Théorème 3.2.1(iv), pour tout a 2 R;
Z1
Na
0
us 1fXs
ag dXs
2 s
Z
us d 4 1fXu
=
Z1
=
Z1
=
Z1
u as dX aat
=
Z1
u~as d as :
0
ag dXu
0
3
5
us dXsa
0
0
0
qui est Ea mesurable. De même,
Ca =
Z1
u2s IfXs ag ds
=
0
Z1
(~
uas )2 ds
0
est également Ea mesurable, car u 2 L (E) :
Pour a < b 2 R …xés, et pour tout F 2 L1 (Ea ), d’après Lemme 3.2.1 Ea est la tribu engendrée par
le mouvement brownien
a
:,
le théorème 1:2:5 montre que tout élément F de L2 (Ea ) s’écrit sous la
forme :
F = E (F ) +
Z1
vs d
a
s
0
pour un certain processus v fFta g-prévisible tel que E
F = E (F ) +
Z1
R1
0
vs2 ds < 1: Par le théorème 3.2.1 (iii)-(iv),
vAat 1fXt
ag dXt ;
0
on a alors :
Ft = E [F j Fta ] = E (F ) +
Zt
vAat 1fXt
ag dXt ;
0
où
a
F = F1 = E [F j F1
] = E [F j Ea ] :
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
Chapitre 3. Mouvement Brownien Excité
42
Alors
E ((Nb
00
N a ) F ) = E @@
Z1
0
us Ifa<Xs
0
= E (F ) E @
Z1
bg dXs
us 1fa<Xs
21 0
Z
4
+E
us 1fa<Xs
1 1
AFA
bg dXs
Z1
bg dXs
0
= 0+
Z1
1
A
vAat 1fXt
ag dXt
0
us 1fa<Xs
vAat 1fXt
bg
ag
3
5
ds = 0:
0
D’où (Na ; Ea ) est une martingale. Ensuite, si
Mt
Zt
us 1fa<Xs
bg dXs ;
0
par la formule d’Itô, on a
E (Nb
Na )2 F
00 1
Z
= E @@ us 1fa<Xs
bg dXs
0
0
= E @2
Z1
Ms us 1fa<Xs
0 10
Z
@
= E
u2s 1fa<Xs
12
A
bg dXs
1
1
FA
1
0
FA + E @
Z1
u2s 1fa<Xs
0
FA;
bg ds
0
bg ds
1
FA
Le premier terme disparaissant par un raisonnement analogue à celui utilisé pour prouver que N
est une martingale.
D’où Na2
Ca est une fEa g-martingale, et puisque C est croissante et continue,
lim (Cx
x<a
!
Ca ) = lim
x<a
!
Z1
u2s 1fx<Xs
ag ds
0
=
Z1
u2s lim 1fx<Xs
=
Z1
u2s 1fXs =ag ds = 0;
0
x<a
!
0
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
ag
ds
Chapitre 3. Mouvement Brownien Excité
43
De même,
lim (Cx
Ca ) = 0;
x>a
!
donc limx
!a
(Cx
Ca ) = 0; C est donc (Ea )-prévisible, d’où d’après le théorème 1.1.6 C = hN i :
On remarque comme une première conséquence que nous sommes maintenant à quelques pas du
célèbre théorème de Ray-Knight pour le temps local brownien.
Fixons 0
a; et soit T
x
inf ft : Xt =
a
ag : Dé…nissons maintenant
Zx(a)
LxT aa ;
Yx(a)
ZT
a
1fXs
XTx aa ;
x ag dXs
0
Corollaire 3.2.1 (Ray-knight) Sous Q; le processus Z resoud l’equation dé¢ rentielle stochastique
Zx(a)
=2
Zx
Zz+
1=2
dWz + 2x
(0
x
(3.19)
a)
0
où W est un mouvement brownien.
Preuve. Le processus ut
1ft
est dans L (E) ; et véri…e (3:18) : En e¤et
Tg
u~at = 1f
n
~ tx
t:X
et AxT aa = inf
de at ; en e¤et
a
=
a
t
Tg
o
= 1ft
Aa
Tg
~ a est adapté à la …ltration F a
a est un (Fta )-temps d’arrêt. Comme X
t
t
~ tx
X
a
a
= (x
a
t
a)
1
+ Laat ;
2
et d’après le Lemme de Skorokhod avec a (t) = 12 Laat ; y (t) = (x
1 a
L a = sup
2 t
s t
a
s
(x
a)
+
a)
a
t;
~ ta
et z (t) = X
:
Il est facile de véri…er la condition (3:18) ;
E
Z1
12ft
T
ag
IfXs
x ag ds
= E
0
E
ZT
0
T
Z
a
IfXs
x ag ds
a
ds = E (T a ) < 1;
0
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
a
;
Chapitre 3. Mouvement Brownien Excité
44
alors nous appliquons Théorème 3.2.2 ; Y est une (Ea )-martingale, avec
Yx(a) =
Z1
1fs
T
ag
1fXs
x ag ds
=
Zx
Zz dz
0
0
par le fait que le temps local est la densité d’occupation.
La Formule de Tanaka à l’instant T
XT
XT
(x
a
a)
a
(x
a
nous permet d’écrire :
a)
= (a
XTx
x)
a
a
1
+ LxT aa ;
2
x) = 0; d’où
= x; (a
Zx(a) = 2x + 2Yx(a) ;
n
(a)
comme Yx : 0
o
a est (fEa g ; Q )-martingale continue de variation quadratique
x
Rx
0
(a)
Zz dz;
alors la proposition 1.2.5 a¢ rme qu’il existe un mouvement brownien W issu de 0 tel que
Yx(a)
=
(a)
Y0
=
Zx
+
Zx
1=2
Zz(a)
dWz
0
Zz(a)
1=2
dWz ;
0
il resulte que
Zx(a)
=2
Zx
Zz(a)
1=2
dWz + 2x
(0
x
a) :
0
Théorème de Ray-Knight pour L(2);:
:
:
X 1 est un mouvement browien sous Q
(2);x a
LT
a
alors d’après le corrolaire, sous Q
(a)
le processus Zx
resoud l’equation dé¤érentielle stochastique
Zx(a)
=2
Zx
Zz+
1=2
dWz + 2x
(0
x
a)
0
n
(a)
L’objectif est de trouver la loi de Zx : 0
P g;
NTg
Q
a
sur FT
a
x
a
o
n
(2);x a
LT a ; 0
x
a
o
sous P g; : Comme
avec la densité NTg a ; l’expression exponentielle de martingales (3:6) pour
nous permet de voir comment les martingales transforment quand Q change en P g; , mais
en exprimant NTg
a
en tant qu’exponentielle d’une (Ea )-martingale, nous pouvons également voir
comment les (Ea )-martingales (en particulier Y !) transforment quand Q change en P g; .
Maintenant, nous pouvons très facilement, obtenir l’analogue du théorème de Ray-Knight pour la
loi P g; .
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
Chapitre 3. Mouvement Brownien Excité
Théorème 3.2.3 Sous P g;
45
le processus du temps local
(2);x a
(a)
Zx
LT
0 x a
a
satisfait
0 x a
l’équation di¤érentielle stochastique
Zx(a) =
Zx
2
1=2
Zz(a)
dWz + 2
Zx
a; Zz(a)
1+f z
(3.20)
dz:
0
0
t
g Xt ; LX
est dans L (E) parce que
t
Preuve. Le processus ut
~ a ; LX~at
u~at = g X
t
t
a
et L
~a
X
t
a
t
~ au nivau X
~ a à l’instant t, qui est (F a )-prévisible.
est le temps local de X
t
t
Comme u1(0;T
a)
satisfait (3:18), alors d’après Théorème 3.2.2,
Nx(a)
=
Z1
us IfXs2
2
x ag dXs
0
est une ((Ea ) ; Q )-martingale.
En…n, il résulte du Théorème 3.2.2 que
N (a) ; Y (a)
x
=
*Z1
=
ZT
us IfXs2
2
x ag dXs ;
ZT
a
1fXs2
2
x ag dXs
0
0
+
a
1fXs2
x ag us ds;
0
et par (une extension de) la formule de la densité d’occupation (Proposition 2.1.2),
ZT
Zx
a
1fXs2
x ag g
s
Xs ; LX
ds =
s
0
0
Zx
=
0T a
Z
@
dx
g u
a
a; L(2);u
s
0
f z
1
aA
ds L(2);u
s
a; Zz(a) dz:
(3.21)
0
Mais Z (a) est FT a -mesurable, alors il su¢ t d’obtenir la loi P g; de Z (a) : Cependant,
g;
dP
dQ
j
FT
a
= NTg
a
0T a
Z
s
@
= exp
dXs2
g Xs ; LX
s
0
= exp N1
1
hN i1
2
Section 3.2. Théorème de Ray-Knight pour X 1 et X 2
1
2
ZT
0
a
1
s
g 2 Xs ; LX
dsA
s
Chapitre 3. Mouvement Brownien Excité
46
(a)
(a)
alors, par le théorème de Cameron-Martin,
sous P g; ; Y~x
Yx
D E
R x (a)
de variation quadratique Y~ =
Zz dz: De (3:16) et (3:21),
x
N (a) ; Y (a)
x
est une martingale,
0
Zx(a) = 2Yx(a) + 2x
Zx
1+f z
= 2Y~x + 2
a; Zz(a)
dz;
0
la proposition 1.2.5 a¢ rme qu’il existe un mouvement brownien W issu de 0 tel que
Zx D E1=2
(a)
Y~x(a) = Y0 + d Y~
dWz
x
0
à partir de laquelle (3:20) suit immédiatement.
Un résultat analogue pour X 1 a lieu: Pour a
0 et 0
a, soit
x
(1);a x
Zx(a) = LTa
(3.22)
;
est le processus de temps local de X 1 et Ta = inf ft : Xt1 = ag le premier
où nous rappelons que L(1);:
:
temps d’atteinte de X 1 en a. Rappelons aussi que la loi de X 1 est P g;+ :
(a)
Proposition 3.2.1 Le processus Zx ; x 2 [0; a] est un processus de Markov non homogène issu
de 0 solution de l’EDS :
dZx(a) = 2 Zx(a)
avec
3.3
1=2
d
x
+2 1
x; Zx(a)
f a
dx:
(3.23)
un mouvement Brownien.
Drift homogène, comportement asymptotique
Dans le reste de cette section, nous supposons que g ne dépend pas de x:
3.3.1
Critère de récurrence
Notez que le Théorème de Ray - Knight (Proposition 3.2.1) implique que, pour a > 0, nous avons
(1);a x
(a)
Corollaire 3.3.1 (Ray–Knight). Le processus Zx = LTa
0 de générateur
d2
L = 2z 2 + 2 (1
dz
f (z))
; x 2 [0; a] est une di¤usion issu de
d
;
dz
(3.24)
Ainsi Z (a) résoud l’EDS suivante :
dZx(a) = 2 Zx(a)
avec
1=2
d
x
+2 1
f Zx(a)
un mouvement Brownien.
Section 3.3. Drift homogène, comportement asymptotique
dx:
(3.25)
Chapitre 3. Mouvement Brownien Excité
47
Preuve. On a,
f (z) =
Zz
g (u) du;
0
Zz
0
jf (z)
f (z )j =
g (u) du
z0
z0j :
K jz
les coe¢ cients satisfont les conditions du théorème de Yamada-Watanabe (Théorème 1.3.4), l’unicité
trajectorielle prise pour (3:25), et en conséquence (Théorème 1.3.2) l’unicité en loi prise pour (3:25).
On peut appliquer (Théorème 1.3.1) pour prouver qu’il existe une solution de (3:25) où au moins
on peut, si le coe¢ cient de di¤usion
N
1=2
2 (x+ )
(x)
est borné. Toutefois, en replacant
( ) par
( ^ N ) ; On peut appliquer (Théorème 1.3.1) pour prouver l’existence d’une solution
()
solution Z N de
dZxN = 2 ZxN
1=2
d
x
+ 2 1 + f ZxN
dx:
par (Théorème 1.3.4) il y a unicité trajectorielle, et cette solution donne une solution de (3:25) pour
tout s
inf t : ZtN > N ; on peut passé de Z N vers une solution Z de (3:25). Comme la solution
faible existe, et il y a unicité trajectorielle, par (Théorème 1.3.2) l’EDS (3:25) est exacte, d’où par
(Théorème 1.3.3), la solution est un processus de Markov fort, et en conséquence une di¤usion
unidimensionnelle.
Dans la suite, Z désigne une di¤usion issue de 0 de générateur L. Alors
(Zx ; 0
x
(a)
Zx ; 0
x
a
et
a) ont même loi.. Comme remarqué dans [[28] Théorème 3], la di¤usion Z admet
une mesure invariante ; et d’après (1:32) la densité invariante
L ( )=
d2
[2x
dz 2
(x)]
d
[2 (1
dz
résoud l’équation di¤érentielle
f (x))
(x)] = 0:
(3.26)
On peut réduire (3:26) à une équation di¤érentielle de premier ordre,
[x
d’où
x
(x)]0 =
(1
f (x))
[x
x
0 x
Z
(1
@
(x) = c exp
0
on trouve
0
(x) = c exp @
avec c une constante positive. Lorsque
Zx
0
(x)] ;
1
f (l)) A
dl ;
l
f (l)
1
dl A
;
l
est une mesure …nie, c est choisie de sorte que
mesure de probabilité.
Section 3.3. Drift homogène, comportement asymptotique
(3.27)
est une
Chapitre 3. Mouvement Brownien Excité
48
Théorème 3.3.1
P g;+ (R) = 1 ()
Z1
0
0
Zx
exp @
0
(a)
(1);0
Preuve. Supposons que P g;+ (R) = 1: Alors Za
Ainsi Za (qui a même loi que
récurrent positif, i.e.
(a)
Za )
f (l)
dl A
dx = +1:
l
(3.28)
converge p.s. vers 1 lorsque a ! 1:
LTa
converge en probabilité vers 1: Il s’en suit que Z n’est pas
n’est pas une mesure …nie.
(a)
(1);0
Supposons maintenant que P g;+ (R) = 0: Ainsi Za
LTa
(1);0
converge p.s. vers L1
(1);0
L1 :
a ! 1: Il s’en suit que Za converge en probabilité vers
positif, i.e.
1
< 1 quand
Cela implique que Z est récurrent
est une mesure …nie.
Bien sûr, un résultat analogue vaut aussi pour X 2 . Le critère devient :
0 x
1
Z
Z1
dl
P g; (R) = 1 () exp @ f (l) A dx = +1:
l
(3.29)
0
0
En particulier, X (1) et X (2) ne peuvent pas être à la fois transitoire.
(1);x
Lemme 3.3.1 Let
x
transitoire), alors f
x
(a)
0g est une di¤usion de générateur L, et de distribution initiale :
:x
(1);a x
Preuve. Zx = LTa
0: Supposons que Z est récurrent positif (alors X 1 est
= L1 ; pour x
étant réversible par rapport à
(a)
x
(a)
x
= Za
(voir, Proposition 1.4.1), alors
(1);a (a x)
= LTa
(1);x
= LTa
est une di¤usion stationnaire de générateur L; et soient U une variable aléatoire independente de
X 1 de loi . Le processus
(a)
x
(a)
x
=
résoud l’EDS
Za
x
(a)
s
2
1=2
d
s
+2
0
Za
x
1+f
(a)
s
ds;
(3.30)
0
(a)
et si ~x est la (unicité trajectorielle) solution de
~(a)
x
=U+
Za
x
2
1=2
~(a)
s
0
d
s
+2
Za
x
(a)
1 + f ~s
ds;
0
Comme il y a unicité trajectorielle pour tout EDS (3:25), on applique théorème de comparison
(Théorème 1.3.5),
(a)
P g;+ ~x
(a)
x
pour tout x 2 [0; a] = 1:
Section 3.3. Drift homogène, comportement asymptotique
Chapitre 3. Mouvement Brownien Excité
n (a)
o
Mais ~x : 0 x a est une di¤usion stationnaire de générateur L; alors pour tout
P g;+ sup sup
a
0 x a
(a)
x
= " lim P g;+
>
sup
a !1
0 x a
a !1
fn
x : x
(a)
x : 0
a
; qui est la même pour tout a
x;
0 x a
! 1: Par conséquent,
0g resoud
o la même EDS (3:30) comme
x
> 0;
>
(a)
sup ~x >
" lim P g;+
et qui tends vers 0 comme
(a)
x
49
(a)
x
= lima
!1
(a)
x
est un processus continu, et
; avec des conditions initiales di¤érentes (chaque
resoud le même problème de martingales , et le théorème de la convergence
1
dominée implique qu’il en est de même pour la limite) ; en e¤et, 8h 2 CK
2
3
Zx
(a)
Lh (a)
lim 4h (a)
h 0
du5
u
x
a !1
= h
lim
a !1
= h ( x)
0
(a)
x
h ( 0)
h
lim
a !1
Zx
(a)
0
Zx
Lh
0
lim
a !1
(a)
u
du
Lh ( u ) du:
0
d’où, par (Théorème 1.3.3), la solution est un processus de Markov fort et est en conséquence une
di¤usion unidimensionnelle..
3.3.2
Loi des grands nombres
Notre résultat suivant est la loi forte des grands nombres avec une expression explicite de la vitesse.
Théorème 3.3.2 (i) supposons est une mesure de probabilité et notons par v la moyenne de
R1
(i.e. v = 0 x (x) dx 2 [0; 1]). Alors P~ g p:s:
t
(ii) supposons
Xt1
1
= :
!1 t
v
lim
(3.31)
est une mesure in…ni. Alors P~ g -p.s:
t
Preuve. Prenons v = 1 quand
Xt1
= 0:
!1 t
lim
(3.32)
est une mesure in…ni. On va prouver d’abord que (dans tous les
cas) :
TK
K
! v; P~ g -p.s.
Section 3.3. Drift homogène, comportement asymptotique
(3.33)
Chapitre 3. Mouvement Brownien Excité
quand K ! 1: Fixons N
50
1: Comme g est bornée,
[K=N ]
1 X
TN (i+1)
K i=1
1
TK
K
[K=N ]
1 X
Ui ;
K i=1
TN i
(3.34)
où Ui sont des variables aléatoires i.i.d. de même distribution que TN (Ui est le temps passé dans
[N (i) ; N (i + 1)] entre les instants TN (i) et TN (i+1) ). Maintenant, en notant E l’espérence par rapport
à P~ g , on a :
i
h
(1);0
(a)
(3.35)
E [Za ] = E Za = E LTa
est une fonction croissante en a: Par le théorème de la convergence monotone E [Za ] converge vers
E [Z1 ]
v: On montre que E [Za ] < 1 pour tout a (comme g est bornée, alors 2 (1 + f (z)) est
dominé par c (1 + z) pour une certaine constante positive c) utilisant (3:25) ;
Za = 2
Za
0
Za
2
Za
Za
1=2
(Zx )
d
x
+2
(1 + f (Zx )) dx
+2
c (1 + z) dx;
0
(Zx )1=2 d
x
0
0
d’où,
0
E @2
E (Za )
ainsi pour tout N
Za
0
1
c (1 + z) dxA < 1;
1; et d’aprés la formule des temps d’occupation (2:5), P~ g -preque sûrement,
ZTN
0
(1)
On a pour tout s 2 [0; TN ] ; 0
Xs
1n0
(1)
Xs
N
o ds
=
ZN
(1);a
LTN da:
0
N; d’où
TN =
ZTN
0
1n0
(1)
Xs
N
o ds
et par suite
E [TN ] =
ZN
0
E
h
(1);a
LTN
i
da =
ZN
E [Za ] da
N E [ZN ] < +1:
0
D’aprèt la Loi des grands nombres
[K=N ]
1 X
1
Ui converge p.s.vers E [TN ] :
K i=1
N
Section 3.3. Drift homogène, comportement asymptotique
(3.36)
Chapitre 3. Mouvement Brownien Excité
51
Donc (3:34) montre que
[K=N ]
1 X
lim inf
Ui
K !1 K
i=1
1
lim inf TK
K !1 K
1
E [TN ]
N
ZN
1
E [Za ] da:
N
=
0
Laissons N
! 1; on obtient d’après (1:31)
1
TK
K
lim inf
K !1
(3.37)
v:
Ainsi on peut conclure quand v = 1: Supposons maintenant que v < 1: Alors par lemme 3.3.1
(1);a
a
= L1
est un di¤usion de générateur L avec une distrubition initiale : On a
ZK
TK =
ZK
(1);a
LTK da
0
a da;
0
Ainsi que
lim sup
K !1
1
TK
K
(3.38)
v;
par le théorème ergodique pour les di¤usions recurrentes positives (voir, Théorème 1.4.5). Avec
(3:37) ce qui prouve (3:33) :
Notons que pour tout t 2 (TN ; TN +1 ) :
Xt1
t
N +1
:
TN
(3.39)
La loi des grands nombres suit immédiatement quand v = 1: Supposons maintenant que v < 1:
Comme g est bornée, pour tout N , (Xt1 ; t
TN ) domine un mouvement brownien avec dérive
kf k1 issu de N et absorbé en 0. Donc pour tout " > 0; ils existe c > 0 et C > 0 tels que
P g;+
pour tout N
inf
t2(TN ;TN +cN )
Xt1 < (1
") N
C exp ( cN ) ;
1: Alors on a P~ g -p.s.
inf
t2(TN ;TN +cN )
pour tout N assez grand. De plus comme limN
Xt1
!1
(1
") N;
TN =N = v; on a TN +1
(3.40)
TN = o (N ) : Alors p.s.
pour N assez grand
inf
t2(TN ;TN +1 )
Xt1
(1
") N;
Section 3.3. Drift homogène, comportement asymptotique
(3.41)
Chapitre 3. Mouvement Brownien Excité
52
Donc p.s. pour tout N assez grand et t 2 (TN ; TN +1 ) ;
Xt1
t
(1
")
N
TN +1
:
Par (3:33), TN
vN p.s: et par (3:39) on peut conclure.
Ici aussi, un résultat analogue pour X 2 : On a P~ g -p.s.
Xt2
t
où
v0 =
Z1
0
1
2
!
1
;
v0
(3.42)
2 x
3
Z
dl
x exp 4 f (l) 5 dx:
l
0
Comme nous avons déjà vu, X et X ne peuvent pas être à la fois transitoire. Mais supposons, par
exemple que X 1 est transitoire et X est récurrent. Alors pour t assez grand Xt1 = Xt+U , où U est
la variable aléatoire …nie égal au temps total passé par X dans la partie négative. Ainsi X satisfait
la même loi de grands nombres que de X 1 , à savoir p.s.
Xt
t
3.4
1
! :
v
(3.43)
conclusion
Dans cet mémoire, on a étudié une version continue en temps des marches aléatoires excités ; “Mouvements Browniens Excités”, qui est un modéle des processus aléatoires qui interagissent avec leur
trajectoire passée, et qui sont dé…nis par des équations di¤érentielles stochastiques. On a prouvé
une loi 0-1 pour la recurrence, et on s’est intéressé au cas homogène, où on a trouvé un critère de
récurrence général, ainsi qu’une loi des grands nombres avec une expression explicite de la vitesse.
3.4. conclusion
Bibliographie
[1] Amir G., Benjamini I, Kozma G. : Excited random walk against a wall, Probab. Theory
and Related Fields 140, (2008), 83–102.
[2] Azéma, J., Yor, M. (eds.) Temps locaux. Astérisque 52-53. Société Mathématique de France
1978
[3] Barlow, M.T. : L (Bt ; t) is not a semimartingale. Séminaire de Probabilités XVI, pp. 206-211.
Berlin Heidelberg New York : Springer 1982
[4] Basdevant A.-L., Singh A. : On the speed of a cookie random walk, Probab. Theory Related
Fields 141, (2008), 625–645.
[5] Basdevant A.-L., Singh A. : Rate of growth of a transient cookie random walk, Electron.
J. Probab. 13, (2008), 811–851.
[6] Basdevant A.-L., Singh A. : Recurrence and transience of a multi-excited random walk on
a regular tree, arXiv :0803.3284.
[7] Benaïm M., Ledoux, M., Raimond, O. : Self-interacting di¤usions, Probab. Theory Relat.
Fields 122(1), 1–41 (2002).
[8] Benaïm, M., Raimond, O. : Self-interacting di¤usions II : convergence in law, Ann. Inst.
H. Poincaré Probab. Statist. 39(6), 1043–1055 (2003).
[9] Benaïm, M., Raimond, O. : Self-interacting di¤usions III : the symmetric case, Ann. Probab. 33(5), 1717–1759 (2005).
[10] Benjamini I., Wilson D. B. : Excited random walk, Electron. Comm. Probab. 8 (electronic),
(2003), 86–92.
[11] Bérard J., Ramirez A. : Central limit theorem for the excited random walk in dimension
d
2, Electron. Comm. Probab. 12, (2007), 303–314.
[12] Cranston, M., Le Jan, Y. : Self-attracting di¤usions : two case studies, Math. Ann. 303,
87–93 (1995).
[13] Dellacherie, C. et Meyer, P.A. Probabilités et potentiel (Théorie des martingales). Herman,
Paris, 1980.
53
Bibliographie
54
[14] El-Karoui, N. et Chaleyat-Maurel, M. Un problème de ré‡exion et ses applications au
temps local et aux équations di¤érentielles stochastiques sur R - cas continu. In : Temps Locaux,
Astérisque Vol. 52/3, Soc. Math. France, 1977.
[15] Herrmann, S., Roynette, B. : Boundedness and convergence of some self-attracting di¤usions, Math. Ann. 325(1), 81–96 (2003).
[16] Ikeda, N., Watanabe, S. : Stochastic di¤erential equations and di¤usion processes. Amsterdam Tokyo : North Holland-Kodansha 1981
[17] Itô, K., McKean, H.P. : Di¤usion processes and their sample paths. Berlin Heidelberg New
York : Springer 1965
[18] Jeulin, T. : Ray-Knight’s theorem on Brownian local times and Tanaka’s formula. In : Cinlar,
E., Chung, K.L., Getoor, R.K. (eds.) Seminar on Stochastic Processes, 1983, pp. 131-142.
Boston : Birkhauser 1984
[19] Karatzas, I, Shreve, S. : Brownian motion and stochastic calculus, Springer-Verlag.
[20] Kosygina E., Zerner M. P. W. : Positively and negatively excited random walks on integers,
with branching processes, preprint, arXiv :0801.1924.
[21] Kozma G : Excited random walk in three dimensions has positive speed, arXiv :math/0310305.
[22] Kozma G : Excited random walk in two dimensions has linear speed, arXiv :math/0512535.
[23] Kurtzmann A. : Asymptotic behavior of Self-interacting Di¤usions on Rd , Ph.D. thesis,
University of Neuchâtel, (2007).
[24] McGill, P. Calculation of some conditional excursion formulae. Zeit. für Wahrscheinlichkeitstheorie 61, 255-260 (1982).
[25] McGill, P. : Markov properties of di¤usion local times ; a martingale approach. Adv. Appl.
Prob. 14, 789-810 (1982).
[26] Mountford T., Pimentel L.P.R., Valle G. : On the speed of the one-dimensional excited
random walk in the transient regime, ALEA Lat. Am. J. Probab. Math. Stat. 2, (2006), 279–296
(electronic).
[27] Norris, J.R., Rogers, L.C.G., Williams, D. : An excluded volume problem for Brownian
motion. Phys. Letters A 112, 16-18 (1985)
[28] Norris J.R., Rogers L.C.G., Williams D. : Self-avoiding random walk : a Brownian motion
model with local time drift, Probab. Theory Related Fields 74, (1987), 271–287.
[29] Oksendal. B., Stochastic di¤erential equations, Springer, 2000.
[30] Pemantle R. : A survey of random processes with reinforcement, Probab. Surv. 4 (electronic),
(2007), 1–79.
Bibliographie
Bibliographie
55
[31] Raimond O., Schapira B. : Excited Brownian motions, arXiv :0810.3538v2.
[32] Revuz D., Yor M. : Continuous martingales and Brownian motion, Springer-Verlag, third
ed. (1999).
[33] Rogers, L.C.G., Williams, D. : Di¤usions, Markov processes, and martingales, vol. 2. Chichester : Wiley 1987
[34] Stroock, D.W., Varadhan, S.R.S. : Multidimensional di¤usion processes. Berlin Heidelberg
New York : Springer 1979.
[35] Tôth B. : Self-interacting random motions, Proceedings of the 3rd European Congress of
Mathematics, Barcelona 2000, vol. 1, pp. 555-565, Birkhauser, (2001).
[36] Tôth B., Werner W. : The true self-repelling motion, Probab. Theory Related Fields 111,
(1998), 375–452.
[37] Volkov S. : Excited random walk on trees, Electron. J. Probab. 8, (2003), 15 pp. (electronic).
[38] Walsh, J.B. Excursions and local time. In : Temps Locaux, Astérisque Vol. 52/3, Soc. Math.
France, 1977.
[39] Williams, D. : Markov properties of Brownian local time. Bull. Am. Math. Soc. 75, 1055-56
(1969)
[40] Williams, D. Conditional excursion theory. In : Séminaire de Probabilité XIII, Lect. Notes in
Math. 721, Springer-Verlag, Berlin and New York, 1979.
[41] Zerner M. P. W. : Multi-excited random walks on integers, Probab. Theory Relat. Fields
133, (2005), 98–122.
[42] Zerner M. P. W. : Recurrence and transience of excited random walks on Zd and strips,
Electron. Comm. Probab. 11, (2006), 118–128 (electronic).
Bibliographie
Téléchargement