REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE 20 AOUT 55 DE SKIKDA FACULTE DES SCIENCES DEPARTEMENT DES SCIENCES FONDAMONTALES MEMOIRE POUR L’OBTENTION DU DIPLOME DE MAGISTER EN MATHEMATIQUES DE L’ECOLE DOCTORALE OPTION PROBABILITES ET STATISTIQUES Intitulé : Mouvement Brownien Exité Présenté par : Halim Atoui Soutenu devant le jury PRESIDENT A. NOUAR M.C U.SKIKDA RAPPORTEUR H. BOUTABIA Prof U.Badji Mokhtar EXAMINATEUR N. DJELLAB M.C U.Badji Mokhtar EXAMINATEUR M.R. REMITA M.C U.Badji Mokhtar Année universitaire 2009/2010 Table des matières 1 Rappels de calcul stochastique 1 1.1 Généralités sur les processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Intégrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2.1 Intégrale par rapport au MB . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2.2 Intégration par rapport à une martingale continue . . . . . . . . . . . . . . . 9 1.2.3 Semimartingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.4 Résultats importants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3 Equations di¤érentielles stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4 Processus de Markov et Di¤usion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.1 Distributions invariantes et loi forte des grands nombres . . . . . . . . . . . 2 Temps Locaux Et Excursions 22 2.1 Temps Locaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 19 23 Temps local brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2 Excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1 Processus de Poisson ponctuel . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.2 Excursions Browniennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3 Mouvement Brownien Excité 30 3.1 Décompositon trajéctorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.2 Théorème de Ray-Knight pour X 1 et X 2 . . . . . . . . . . . . . . . . . . . . . . . . 38 3.3 Drift homogène, comportement asymptotique . . . . . . . . . . . . . . . . . . . . . 46 3.3.1 Critère de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.3.2 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4 conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 i ii Remerciements Je tiens à exprimer ma reconnaissance à Monsieur H. Boutabia Professeur à l’université de Annaba qui m’a donné l’idée de ce travail. il m’a communiqué le goût de la théorie d’approximation et m’a beaucoup appris dans ce domaine. il m’a o¤ert toutes les facilités a…n de me permettre de réaliser mon travail. Je remercie vivement Monsieur A. Nouar Maître de conférence à l’université de Skikda d’avoir accepté de présider le jury de ma soutenance. Je remercie in…niment Madame N. Djellab Maître de conférence à l’université de Annaba, Monsieur R. Remita, Maître de conférence à l’université de Annaba d’avoir acceptés d’examiner mon travail. En…n je remercie tous mes amis et tout le personnel administratif du département de mathématiques iii Abstract We study a natural continuous time version of excited random walks, “Excited Brownian motions” in Rd when specialised and simpli…ed to d = 1; becomes the stochastic di¤erential equation Xt = Bt + Zt s ds; g Xs ; LX s 0 for some bounded measurable g; and where B is a Brownian motion and (Lxt : t 0; x 2 R) is the local time process of X. Though X is not Markovian, an analogue of the Ray-Knight theorem holds for Lx1 ; which allows one to obtain a necessary and su¢ cient condition for recurrence and to prove in many cases of interest that limt !1 Xt =t exists almost surely, and to identify the limit. Keywords : Reinforced process ; Excited process ; Recurrence ; Law of large numbers. iv Résumé Nous étudions la version continue en temps des marches aléatoires excitées ; “Mouvements Browniens Excités”dé…nis par l’équation di¤érentielle stochastique Xt = Bt + Zt s ds; g Xs ; LX s 0 pour une certaine fonction g mesurable et bornée, et où B est un mouvement brownien et (Lxt : t 0; x 2 R) est le processus du temps local de X: Bien que X ne soit pas markovien, un analogue du théorème de Ray-Knight se tient pour Lx1 ; ce qui permet d’obtenir une condition nécessaire et su¢ sante pour caractèriser la récurrence, et de prouver dans de nombreux cas d’intérêt que limt !1 Xt =t existe presque sûrement en donnant la forme explicité de cette limite. Mots clés : processus renforcés ; Processus excités ; Récurrence ; Loi des grands nombres. v Introduction Les processus aléatoires qui interagissent avec leur trajectoire passée ont été beaucoup étudiés ces dernières années. Les marches aléatoires renforcées ont été introduites par Coppersmith et Diaconis, puis étudiées par Pemantle, Davis et de nombreux autres auteurs (voir [30]). Quelques exemples des processus continus en temps et en espace dé…nis par une équation di¤érentielle stochastique ont été également étudiés. Par exemple l’auto-interaction di¤usions a été étudiée par Benaïm, Ledoux et Raimond (voir [7]-[9]) et également par Cranston, Le Jan, Herrmann, Kurtzmann and Roynette (voir [12], [15], [23]), sont des processus dé…nis par une équation di¤érentielle stochastique pour laquelle la dérive est une fonction de la position actuelle et de la mesure d’occupation du processus passé. Un autre exemple qui n’est pas solution d’une équation di¤érentielle stochastique a été étudiée par Tôth and Werner [36]. Ce type de processus est une version continue de certaines auto-interaction généralisant le cas des marches aléatoires étudiées par Tôth (voir [35]). L’un des problèmes les plus di¢ ciles de la théorie des probabilités est de construire et analyser des modèles pour les marches aléatoires excitées, qui ont été introduites par Benjamini et Wilson [10], puis encore étudiées d’abord sur Zd [1], [4], [5], [11], [20], [21], [22], [26], [41], [42], mais également sur les arbres [6], [37]. Dans cette classe de marches, les probabilités de transition dépendent du nombre de fois où la marche a visité le site actuel. En particulier Zerner [41] et plus tard Kosygina et Zerner [20] ont montré que sur Z, si pi est la probabilité de passer de x à x + 1 après la i-ème visite de x, alors que la marche est presque sûrement récurrente si et seulement si, X (2pi 1) 2 [ 1; 1] i et elle est p.s. transitoire sinon. D’ailleurs Basdevant et Singh [4] ont montré que la marche aléatoire a une vitesse positive si et seulement si X i (2pi 1) 2 = [ 2; 2] : Nous étudions ce qui pourrait être une version continue en temps de cette question, le mouvements Brownien excité considéré ici est dé…ni par l’équation di¤érentielle stochastique t dXt = dBt + g Xt ; LX dt; t pour une certaine fonction g mesurable et bornée, et où B est un mouvement brownien et (Lxt : t (1) 0; x 2 R) est le processus du temps local de X: Ces processus ont été déjà étudiés par Norris, Rogers et Williams [28], qui ont considéré également le cas où g est seulement localement bornée. Ils ont obtenu une version du théorème de Ray-Knight, dans certains cas, l’existence d’une vitesse positive, par exemple, si g est continue, constante par rapport à x, non négative et croissante par rapport à l (En particulier lorsque g (x; l) = l). vi Dans ce memoire, nous nous sommes principalement concentré sur le cas lorsque g est bornée. Nous démontrons un critère général de récurrence et l’existence d’une vitesse positive lorsque g est constante par rapport à x sans aucune condition sur le signe de g: Nous obtenons aussi une loi des grands nombres avec une expression explicite de la vitesse. Là encore, nous nous sommes inspiré des arguments donnés dans [28]. Cette thèse est organisée comme suit : Dans le chapitre 1, nous introduisons quelques notations et nous préparons certains outils requis pour notre travail. Les résultats principaux de ce chapitre concernent le mouvement brownien, l’intégration stochastique, les équations di¤érentielles stochastiques et les di¤usions. Notre référence sera l’ouvrage [17], [19][29], [33], [34]. La première section du chapitre 2 concerne les dé…nitions et premières propriétés des temps locaux. L’ouvrage de Norris [32] mène une étude plus compléte et fournit des exemples. La dernière section traite des processus d’excursions, où nous étudierons principalement les excursions browniennes. On pourra utilement se référer à [16], [32], [38], [40]. Notre objectif principal dans le chapitre 3 est : D’abord, de décrir la loi des excursions des processus ci-dessus, et d’étudier également la propriété de récurrence en donnant une loi 0-1 générale. Deuxièmement,en utilisant des idées de McGill [25] et de Jeulin [18], d’étudier le comportement (comme processus dans la variable de l’espace a) de Na Zt us IfXs ag dXs 0 sous la mesure de Wiener P . Ici, T inf ft : Xt = Kg, pour K 2 N …xé, et u est un processus previsible approprié. L’idée principale est essentiellement le fait que N est une martingale par rapport à la …ltration d’excursion (Ea ), à condition que u satisfait une condition de mesurabilité forçant N d’être adapté, et une condition d’intégrabilité (voir théorème 3.1.2). Le théorème classique de Ray-Knight est un corollaire. En utilisant le changement de Cameron-Martin-Girsanov de la mesure pour convertir le processus canonique X dans une solution de (1) ; Le point essentiel est alors que la densité de Cameron-Martin-Girsanov peut également être considérée comme un changement de mesure dans la …ltration (Ea ) ; convertissant la Q-martingale N en une P -martingale plus la dérive, qui peut être identi…ée explicitement. s En…n, nous étudions explicitement le cas où g est une fonction de LX s seulement ; en donnant un critère de récurrence sans aucune condition sur le signe de g, et nous obtenons aussi une loi des grands nombres avec une expression explicite de la vitesse. Chapitre 1 Rappels de calcul stochastique 1 Chapitre 1. Rappels de calcul stochastique 1.1 2 Généralités sur les processus stochastiques Dans toute la suite, nous nous plaçons sur un espace de probabilité ‡tré ; F; (Ft )t 0 ; P satisfai- sant les conditions habituelles (i.e. pour tout ti0; Ft = \ Fs et contient les ensembles négligeables). sit Si T est un temps d’arrêt et X = (Xt )t 0 est un processus à trajectoires continues, on note X T le processus arrêté dé…ni par XtT = Xt^T pour tout t 0: Dé…nition 1.1.1 On appelle mouvement brownien (de dimension d, issu de 0) toute famille (Bt )t 0 d de v.a. à valeurs dans R ; dé…nies sur ( ; F; P ) ; telles que : (i) B0 = 0 p.s. De plus, pour tout choix de l’entier n les v.a. Bt1 ; Bt2 Bt1 ; : : : ; Btn Btn 1 1 et des nombres réels 0 = t0 < t1 < sont indépendantes et pour tout j 2 f1; : : : ; ng ; Btj est un vecteur gaussien centré de covariance (tj < tn ; Btj 1 tj 1 ) Id: (ii) Pour tout ! 2 ; la fonction t ! Bt (!) est continue. Remarque 1.1.1 Par un argument de classes monotones, on montre que la loi de (Bt1 ; Bt2 ; : : : Btn ) est donnée par P ((Bt1 ; Bt2 ; : : : Btn ) 2 A) = Z dy1 : : : dyn pt1 (y1 ) pt2 t1 (y2 y1 ) ptn tn 1 (yn yn 1 ) ; (1.1) A pour tout A 2 B Rd n , où pt (y) = p 1 e 2 t y2 2t pour ti0 et y 2 R Mesure de Wiener. Notons C R+ ; Rd l’espace des fonctions continues de R+ dans R: La donnée d’un mouvement brownien B fournit donc une application ! C R+ ; Rd ! ! (t ! Bt (!)) qui est mesurable lorsque C R+ ; Rd est muni de la plus petite tribu rendant mesurables les applications coordonnées w ! w (t) : Il est facile de voir que cette tribu notée C coïncide avec la tribu borélienne pour la topologie de la convergence uniforme sur tout compact. La mesure de Wiener (loi du mouvement brownien) est par dé…nition la mesure-image de P (d!) par cette application. Si W (dw) désigne cette mesure-image, la formule (1:1), qui est vraie pour n’importe quel mouvement brownien B montre que, pour 0 = t0 < t1 < < tn , et A0 ; A1 ; : : : ; An 2 B Rd ; W (fw; w (t0 ) 2 A0 ; w (t1 ) 2 A1 ; : : : ; w (tn ) 2 An g) Z = 1A0 (0) dy1 : : : dyn pt1 (y1 ) pt2 t1 (y2 y1 ) ptn A1 An Section 1.1. Généralités sur les processus stochastiques tn 1 (yn yn 1 ) ; Chapitre 1. Rappels de calcul stochastique 3 (avce la convention y0 = 0). De plus ces propriétés caractérisent la probabilité W : en e¤et, la classe des ensembles de la forme fw; w (t0 ) 2 A0 ; w (t1 ) 2 A1 ; : : : ; w (tn ) 2 An g (les “cylindres”) est stable par intersection …nie et engendre la tribu C ce qui, par un argument standard de classes monotones, su¢ t pour dire qu’une mesure de probabilité sur C est caractérisée par ses valeurs sur cette classe. En conséquence, la mesure de Wiener ne dépend pas du choix du mouvement brownien B pour la construction. Si B 0 est un autre mouvement brownien, on a pour tout A 2 C; P (Bt )t 0 2 A = W (A) = P (Bt0 )t 0 2A : Si l’on prend maintenant comme espace de probabilité = C R+ ; Rd ; F = C; P (dw) = W (dw) ; le processus, dit canonique, Xt (w) = w (t) est un mouvement brownien. C’est la construction du mouvement brownien canonique. Théorème 1.1.1 (Propriété de Markov forte). Soit T un t.a. tel que P (T < 1) > 0: Alors, conditionnellement à fT < 1g ; le processus B (T ) dé…ni par (T ) Bt = BT +t (1.2) BT est un mouvement brownien indépendant de la tribu FT : Théorème 1.1.2 (Régularité) 1. Le M.B. est à variation in…nie sur tout intervalle. 2. Le M.B. n’est dérivable en aucun point (Paley, Wiener, Zygmund 1933). 3. Les trajectoires du MB sont localement Hölder-continues d’ordre , < 1=2: Dé…nition 1.1.2 Si (Ft ) est une …ltration, un processus adapté B est dit (Ft )-mouvement brownien si (i) B est un mouvement brownien. (ii) pour tout t > 0, le processus Bt+s Bt , s > 0 est indépendent de (Ft ). Théorème 1.1.3 ([19])Soit X un processus à valeurs dans un espace métrique (E; d) : (i) Si (Xt ; t 0) est un processus adapté, à trajectoires continues à droite et si O est un ouvert de E, alors TO = inf ft 0; Xt 2 Og ; est un temps d’arrêt de (Ft+ ), où Ft+ = \ Fs : sit Section 1.1. Généralités sur les processus stochastiques Chapitre 1. Rappels de calcul stochastique (ii) Si (Xt ; t 4 0) est un processus a trajectoires continues et adapté, si F est un fermé de E, alors TF = inf ft 0; Xt 2 F g ; est un temps d’arrêt. Théorème 1.1.4 ([32]) Si (Xt ; t 0) est un processus adapté et à trajectoires continues, et si T est un temps d’arrêt. Alors on a : ZT 0 0 E jXt j dt = E @ ZT 0 De plus, si cette quantité est …nie, alors on a : ZT 0 1 jXt j dtA : (1.3) 1 0 T Z E (Xt ) dt = E @ Xt dtA : (1.4) 0 Dé…nition 1.1.3 Un processus adapté réel (Xt )t 0 est une martingale (resp. surmartingale, sous- martingale) si pour tout t, Xt est intégrable et si pour tous s < t, E (Xt j Fs ) = Xs (resp. E (Xt j Fs ) Xs ; E (Xt j Fs ) Xs ) p.s. . Théorème 1.1.5 (Théorème d’arrêt de Doob) Si M est une fF g-martingale continue et si S et T sont deux temps d’arrêt bornés tels que S T , alors MT est intégrable et on a : E (MT j FS ) = MS : (1.5) Ce résultat s’étend à tous les temps d’arrêt si la martingale est uniformément intégrable. Proposition 1.1.1 Pour tout espace probabilisé …ltré réel standard sur Rd dé…ni sur ; F; (Ft )t 0 ; F; (Ft )t 0 ; P ; le mouvement brownien ; P est une martingale. Cette dernière propriété du mouvement brownien est essentielle dans la dé…nition de l’intégrale stochastique d’Itô. Dé…nition 1.1.4 (Martingales locales) Un processus adapté à trajectoires continues M = (Mt )t tel que M0 = 0 p.s. est une martingale locale (continue) s’il existe une suite croissante (Tn ; n 2 N) de temps d’arrêt telle que Tn " 1 et pour tout n le processus arrêté M Tn est une martingale uniformément intégrable. Plus généralement, lorsque M0 6= 0, on dit que M est une martingale locale (continue) si Mt = M0 + Nt , où le processus N est une martingale locale issue de 0. Dans tous les cas, on dit que la suite de temps d’arrêt Tn " 1 réduit M si pour tout n le processus arrêté M Tn est une martingale uniformément intégrable. Section 1.1. Généralités sur les processus stochastiques 0 Chapitre 1. Rappels de calcul stochastique 5 Dé…nition 1.1.5 (Processus variation quadratique) Soit X = (Xt )t 0 un processus stochas- tique à valeurs réelles sur ( ; F; P ) : On dira que X admet une variation quadratique s’il existe un processus stochastique réel Y = (Yt )t subdivisions ( n )n = tnj j=0;:::;j(n) la suite de v.a.r. 0 tel que l’on ait : pour tout t > 0, pour toute suite de de [0; t] dont le pas j nj = supi=0;:::;j(n) j(n) 1 Tt n (X) = X 1 tni+1 tni tend vers 0, 2 Xtni+1 Xtni i=0 converge en probabilité, quand n ! +1, vers Yt . On note Yt = hX; Xit (ou hXit ) : (hX; Xit )t 0 s’appelle la variation quadratique de X = (Xt )t Théorème 1.1.6 ([19]) Soit M = (Mt )t croissant, noté (hM; M it )t 0 0 0 : une martingale locale (continue). Il existe un processus unique à une indistinguabilité prés, tel que Mt2 martingale locale continue. De plus, pour tout T > 0, si 0 = tn0 < tn1 < hM; M it soit une < tnpn = T est une suite de subdivisions emboitées de [0; T ] de pas tendant vers 0, on a hM; M iT = lim n !1 pn X 2 Mtni Mtni 1 (1.6) i=1 au sens de la convergence en probabilité. Le processus hM; M i est appelé la variation quadratique de M . Proposition 1.1.2 ([32]) Soit X une martingale locale continue. Alors il y a équivalence entre : (i) X0 2 L2 et E [hX; Xi1 ] < 1; (ii) X est une martingale bornée dans L2 . Section 1.1. Généralités sur les processus stochastiques Chapitre 1. Rappels de calcul stochastique 1.2 6 Intégrale stochastique. Le calcul di¤érentiel donne un cadre à la notion d’équation di¤érentielle ordinaire, qui sert de modèle pour de phénomènes variables dans le temps. Quand on a voulu ajouter à ces équations des perturbations aléatoires, on a été géné par la non di¤érentiabilité du MB. Du coup on a commencé par construire une intégrale par rapport au MB, pour ensuite dé…nir la notion d’équation di¤érentielle stochastique. 1.2.1 Intégrale par rapport au MB On va présenter dans cette section l’intégrale stochastique d’Itô par rapport au mouvement brownien. Elle s’inscrit dans la théorie plus large de l’intégrale stochastique par rapport à des semimartingales continues. On va commencer par dé…nir la classe des fonctions aléatoires que l’on va intégrer. Dans toute cette sous-section, on suppose donné un espace probabilisé …ltré Dé…nition 1.2.1 Pour (S; T ) tels que 0 tiques réels f : [S; T ] S ; F; (Ft )t 0 ;P : T; L2 (S; T ) est l’ensemble des processus stochas- ! R dé…nis sur ( ; F) ; Ft -adaptés tels que 0 T 1 Z E @ f 2 (t; !) dtA < +1: (1.7) S Dé…nition 1.2.2 Un processus f de L2 (S; T ) est un processus élémentaire s’il existe une partition S = t0 < t1 < < tn = T de [S; T ] et des variables aléatoires e0 ; : : : en 1 respectivement, Ft0 ; : : : ; Ftn 1 -mesurables tels que pour presque tout ! 2 ; f (t; !) = n 1 X ei (!) 1[ti ;ti+1 [ (t) : i=0 Dé…nition 1.2.3 Pour tout processus élémentaire f , on dé…nit l’intégrale d’Itô I (f; S; T ) de f par rapport au mouvement brownien B par : I (f; S; T ) (!) = n 1 X ei (!) Bti+1 (!) i=0 On note I (f; S; T ) (!) ainsi dé…nie par ZT S Section 1.2. Intégrale stochastique. f (t; !) dBt (!) : Bti (!) p.s. Chapitre 1. Rappels de calcul stochastique 7 Le lemme qui suit est essentiel puisqu’il permet d’établir la continuité uniforme de la fonction f 7 ! I (f; S; T ) de l’ensemble des processus élémentaires, muni de la norme dé…nie en (1:7), dans L2 ( ; F; P ) : Lemme 1.2.1 Pour tout processus élémentaire f , on a l’égalité suivante : 20 3 12 3 2 T Z ZT 7 6 E 4@ f (t) dBt A 5 = E 4 f 2 (t) dt5 : (1.8) S S On voit que la continuité est très forte puisque l’intégrale stochastique est une isométrie de l’ensemble des processus élémentaires dans l’ensemble des variables aléatoires du second ordre. En utilisant la densité de l’ensemble des processus élémentaires dans L2 (S; T ) ; il est alors possible d’étendre f 7 ! I (f; S; T ) à l’ensemble L2 (S; T ) par passage à la limite et on obtient la dé…nition de l’intégrale stochastique sur L2 (S; T ) : Plus précisément, Dé…nition 1.2.4 Pour f 2 L2 (S; T ) ; il existe une suite de processus élémentaires (fn )n que 0 lim E @ n !+1 ZT (f (t; !) S et l’intégrale stochastique de f est dé…nie par ZT f (t; !) dBt (!) = S lim 0 telle 1 fn (t; !))2 dtA = 0; n !+1 ZT fn (t; !) dBt (!) ; S où la limite est prise dans L2 ( ; F; P ) : Cette dé…nition implique que le caractère isométrique (1:8) de l’intégrale stochastique se prolonge à tout L2 (S; T ) : Si on se donne un processus stochastique f 2 L2 (0; T ) ; l’intégrale stochastique permet de dé…nir un processus stochastique (I (f; 0; t))0 pour tout t : En e¤et, tout processus de L2 (0; T ) est élément de L2 (0; t) t T T: On peut donc dé…nir I (f; 0; t) pour 0 t T dès que f est élément de L2 (0; T ) : Les propositions qui suivent énoncent les propriétés du processus stochastique (I (f; 0; t))0 t T : Proposition 1.2.1 (voir [29]; p.32) Pour tout processus f 2 L2 (0; T ) ; il existe une modi…cation continue du processus (I (f; 0; t))0 t T ; c’est-à-dire qu’il existe un processus stochastique ( t )0 à trajectoires presque sûrement continues et véri…ant : 0 Zt 8t 2 [0; T ] ; P @! 2 ; f (s; !) dBs (!) = 0 Section 1.2. Intégrale stochastique. t 1 (!)A = 1: t T Chapitre 1. Rappels de calcul stochastique 8 Dans toute la suite, on choisira toujours cette modi…cation à trajectoires presque sûrement continues. Proposition 1.2.2 Pour f 2 L2 (0; T ) ; le processus (I (f; 0; t))0 pace probabilisé …ltré ; F; (Ft )t t T est une martingale sur l’es- ; P : On a de plus 0 t 1 Z 8t 2 [0; T ] ; E @ f (s; !) dBs (!)A = 0: 0 0 La relation de Chasles ainsi que la linéarité par rapport au processus intégré sont véri…ées par l’intégrale stochastique : 8 (s; t) 2 R+ ; s t; 8f 2 L2 (0; t) ; Zt fu dBu = 0 et 8 (f; g) 2 L2 (S; T ) 2 ; 8c 2 R; ZT Zs fu dBu + S fu dBu ; s 0 (ft + cgt ) dBt = Zt ZT ft dBt + c S ZT gt dBt : S On vient de construire l’intégrale forte d’Itô, en ce sens qu’on a exigé du processus intégré d’être élément de l’ensemble L2 (S; T ) : Il est possible d’a¤aiblir les hypothèses sur le processus f que l’on intègre et de dé…nir un prolongement de l’intégrale stochastique à cette nouvelle classe de processus. Dé…nition 1.2.5 Pour (S; T ) tels que 0 tiques réels f : [S; T ] T; P (S; T ) est l’ensemble des processus stochas- S ! R dé…nis sur ( ; F) ; Ft -adaptés tels que 0 T 1 Z P @ f 2 (t; !) dt < +1A = 1: S Proposition 1.2.3 Pour tout processus f de P (S; T ) ; il existe une suite (fn )n 0 de processus élémentaires de P (S; T ) telle que, en probabilité lim n !+1 ZT (fn (t) f (t))2 dt = 0: S On dé…nit alors l’intégrale de f par rapport au mouvement brownien Bt sur l’intervalle [S; T ] comme la limite en probabilité de la suite 0 @ ZT S 1 fn (t) dBt A : n 0 Comme précédemment, il est possible de trouver une modi…cation continue sur [0; T ] du processus t ! ZT 0 pour tout processus f 2 P (0; T ) : Section 1.2. Intégrale stochastique. fs dBs ; Chapitre 1. Rappels de calcul stochastique 1.2.2 9 Intégration par rapport à une martingale continue Dans cette partie, nous allons voir quel est le cadre le plus général sur lequel on peut défnir l’intégrale stochastique, ce qui nous amènera au concept de semimartingale. Nous verrons également le théorème de Lévy qui nous dit qu’en fait, les martingales continues ressemblent beaucoup au mouvements browniens. Proposition 1.2.4 (Variation quadratique d’une martingale continue) Soit M une mar~ tels tingale continue, alors il existe un unique processus croissant hM i et une unique martingale M que : ~ t: M02 = hM it + M 0 Mt2 8t hM it est la limite dans L2 ; pour des subdivisions de pas tendant vers 0, de Pni j=1 2 Mtij Mtij 1 : Remarque 1.2.1 Ainsi, le mouvement brownien standard sur R a pour variation quadratique hBit = t p.s.. Ce qui est important, c’est que, pour une martingale continue, la variation quadratique reste …nie presque sûrement. C’est ce qui permet …nalement, de construire le calcul stochastique par rapport à une martingale continue exactement de la même façon que par rapport au mouvement brownien. Aussi nous nous contenterons d’exposer directement les résultats-clefs du calcul stochastique général sans les démontrer. Soient (Mt )t sa …ltration associée, (Ht )t 0 un processus adapté, R localement borné p.s.. Alors l’intégrale stochastique d’Itô HdM est une martingale caractérisée 0 une martingale continue, (Ft )t 0 par : Théorème 1.2.1 Pour ( i )i 1 une suite croissante de subdivisons de [0; t] de pas tendant vers 0, on a ni X Htij 1 Mtij j=1 Mtij 2 1 L ! Zt Hu dMu lorsque i " 1: 0 Théorème 1.2.2 ([29]) La variation quadratique de l’intégrale d’Itô est donnée par : h(H M )it = Zt Rt 0 Hu dMu , notée ((H M )t )t 0 Hu2 d hM iu ; 0 ce qui peut s’écrire sous la forme d h(H M )i = H 2 d hM i : Le théorème de Lévy nous dit en substance que toutes les martingales continues ressemblent au mouvement brownien. Section 1.2. Intégrale stochastique. ; Chapitre 1. Rappels de calcul stochastique Théorème 1.2.3 ([32]; Lévy)Si (Mt )t 0 10 est une martingale issue de 0 dont la variation quadra- tique est d hM i = dt, alors c’est un mouvement brownien. Corollaire 1.2.1 Soit (Mt )t (Bs )s 0 0 une martingale continue. Alors il existe un mouvement brownien tel qu’on puisse passer de B à M par reparamétrisation du temps : Mt = BhM it : 1.2.3 Semimartingales Pour parachever notre étude, la dé…nition de l’intégrale stochastique nous allons regrouper l’intégrale stochastique et l’intégrale de Stieltjes en une seule dé…nition. Dé…nition 1.2.6 On appelle semimartingale un processus continu (Xt )t la somme d’une martingale continue (Mt )t 0 0 qui se décompose comme et d’un processus continu à variations localement bornées (At )t 0 . Cette décompostion est appelée décomposition de Doob-Meyer, et elle est unique car une martingale continue à variations bornées est nulle. Dé…nition 1.2.7 Pour X = M + A une semimartingale et sa décomposition de Doob-Meyer et H un processus adapté, on dé…nit l’intégrale d’Itô par la formule suivante : Z Z Z HdX = HdM + HdA: Dé…nition 1.2.8 La variation quadratique d’une semimartingale est la variation quadratique de sa partie martinagale ; elle s’interprète, de la même façon que pour une martingale, comme la somme des carrés des accroissements in…nitésimaux. : Théorème 1.2.4 (formule d’Itô) Pour F de classe C 2 ; (Xt )t F (Xt ) F (X0 ) = Zt 1 F 0 (Xu ) dXu + 2 0 Zt 0 une semimartingale : F 00 (Xu ) d hXiu : 0 Dé…nition 1.2.9 Pour X, Y deux semimartingales, la variation quadratique croisée de X et Y , notée hX; Y i est la somme des produits des accroissements in…nitésimaux de X et Y . On a : hX; Y i = Section 1.2. Intégrale stochastique. 1 (hX + Y i 2 hXi hY i) : Chapitre 1. Rappels de calcul stochastique 1.2.4 11 Résultats importants Représentation des martingales Nous allons établir que, dans le cas où la …ltration sur est engendrée par un mouvement brownien, toutes les martingales peuvent être représentées comme intégrales stochastiques par rapport à ce mouvement brownien. Théorème 1.2.5 ([32]) Supposons que la …ltration (Ft ) sur est la …ltration canonique d’un mouvement Brownien B issu de 0. Alors, pour toute variable aléatoire Z 2 L2 ( ; F1 ) ; il existe un (unique) processus h 2 L2 (B) tel que Z = E [Z] + Z1 (1.9) h (s; !) dBs : 0 En conséquence, pour toute martingale M bornée dans L2 (respectivement pour toute martingale locale M ), il existe un (unique) processus h 2 L2 (B) (resp. h 2 L2loc (B)) et une constante C 2 R tels que Mt = C + Zt (1.10) h (s; !) dBs : 0 Pour la proposition suivante, rappelons que la tribu des ensembles prévisibles par rapport à une …ltration donnée est la tribu engendrée par les processus adaptés continus, et qu’un processus est dit prévisible s’il est mesurable par rapport à cette tribu. Proposition 1.2.5 ([32]) Si M est une martingale locale continue telle que la mesure d hM; M it ; est presque sûrement équivalente à la mesure de Lebesgue (i.e. ont les mêmes ensembles négligeébles), alors il existe un processus FtM -prévisible ft qui est strictement positif dt mouvement Brownien tels que d hM; M it = ft dt et Mt = M0 + Zt fs1=2 dBs : dP p.s. et un FtM - (1.11) 0 Théorème 1.2.6 (voir [32], (1.14) et (1.15) chapitre VIII) Supposons que (Xt ) est une martingale locale continue et hX; Xit M t et X0 = 0: Alors le processus 0 1 Zt 1 E (Xt ) = exp @Xt d hX; Xit A 2 0 est une martingale. Section 1.2. Intégrale stochastique. Chapitre 1. Rappels de calcul stochastique 12 Théoréme de Girsanov Soit ; F; (Ft )t 0 ; P un espace de probabilité …ltré. Le but de ce paragraphe est d’étudier com- ment se transforme la notion de martingale locale lorsque la probabilité P est remplacée par une probabilité Q absolument continue par rapport P . Nous commençons par rappeler le théorème d’existence de la densité de Radon-Nikodym. Théorème 1.2.7 ([19]) Soit ; F; (Ft )t 0 ; P un espace de probabilité …ltré. Soit Q une mesure absolument continue par rapport à P; Q P (i.e. pour tout A 2 F; P (A) = 0 =) Q (A) = 0). Alors, il existe une variable aléatoire F-mesurable, positive telle que pour tout A 2 F; Z Q (A) = ZdP: A La variable aléatoire Z= dQ dP est appelée la densité de Radon-Nikodym. On pose, pour tout t 0, Zt = E (Z j Ft ) : Alors, (Zt )t 0 est une martingale continue à droite et uniformément intégrable. Soit T un temps d’arrêt relativement à la …ltration (Ft )t 0 : On pose QT = QjFT ; PT = PjFT les restrictions respectives des mesures Q et P à la tribu FT des événements antérieurs à T . Alors, on montre facilement que ZT = dQT : dPT Théorème 1.2.8 ([19]; Girsanov) Soit Q une mesure absolument continue par rapport à P sur F1 : On suppose que (Zt )t 0 est continue. Alors, (i) chaque P -semi-martingale est une Q-semi-martingale. (ii) si M est une P -martingale locale continue et si M0 = M alors M 0 est bien dé…nie sur ; F; (Ft )t 0 1 hM; Zi ; Z ; Q et (Mt0 )t 0 est une Q-martingale locale. De plus, hM 0 ; M 0 i = hM; M i Q-p.s. Les deux corollaires suivants démontrent l’intérêt du théorème de Girsanov : Section 1.2. Intégrale stochastique. Chapitre 1. Rappels de calcul stochastique Corollaire 1.2.2 Soit (Bt )t Pour tout t 0 13 un (Ft )t 0 -mouvement Brownien standard sur 0; on dé…nit est un mouvement Brownien sur ; F; (Ft )t t 0 0 ;P : ;Q : Corollaire 1.2.3 Soit L une martingale locale continue sur On suppose que E exp 0 1 hB; Zit : Z ~t = Bt B ~t Alors, B ; F; (Ft )t 1 hL; Li1 2 ; F; (Ft )t 0 ;P telle que L0 = 0. < 1: Alors, (i) E (L) est une martingale uniformément intégrable. ~t = Bt hL; Bi ; alors B ~t (ii) si on dé…nit B est un Q-mouvement Brownien si (Bt )t t t 0 0 est un P -mouvement Brownien. 1.3 Equations di¤érentielles stochastiques L’intégrale stochastique permet de donner un sens aux équations di¤érentielles stochastiques. Dé…nition 1.3.1 Soient T > 0, d et n deux entiers strictement positifs, b : [0; T ] a : [0; T ] Rd ! Rd et Rd ! Mnd (R) des fonctions boréliennes où Mnd (R) désigne l’ensemble des matrices réelles à n lignes et d colonnes. On désigne par (Bt )t dé…ni sur un espace …ltré ; F; (Ft )t coe¢ cient de dérive b et de di¤usion 0 0 un mouvement brownien standard sur Rn ; P : Une équation di¤éerentielle stochastique sur Rd de consiste en la recherche d’un processus (Xt )0 t T à valeurs dans Rd véri…ant presque sûrement : 8t 2 [0; T ] ; Xt = + Zt b (r; Xr ) dr + 0 où Zt a (r; Xr ) dBr ; X0 = ; 0 est une variable aléatoire quelconque indépendante du M.B. On écrira encore 8t 2 [0; T ] ; dXt = b (t; Xt ) dr + a (t; Xt ) dBt : (1.12) Nous allons préciser les notions d’existence et d’unicité des solutions d’une E.D.S. Dé…nition 1.3.2 (Solution (forte) d’une EDS) Une solution de l’EDS (1:12), X, est un processus continu tel que : 1. X est mesurable et adapté à la …ltration (Ft )t RT 2. P -p.s. 0 jb (r; Xr )j + ka (r; Xr )k2 dr < 1; 0 ; Section 1.3. Equations di¤érentielles stochastiques Chapitre 1. Rappels de calcul stochastique Rt Rt 3. P -p.s., on a : Xt = + 0 b (r; Xr ) dr + 0 a (r; Xr ) dBr ; 0 14 t T: où la …ltration est dé…nie pour tout t positif par : Ft = f f ; Bs ; s tg [ N g N étant l’ensemble des ensembles négligeables. On dira qu’il y a unicité forte pour l’équation si, pour toutes solutions Xt1 et Xt2 ; on a : P Xt1 = Xt2 ; 8t 2 [0; T ] = 1: Dé…nition 1.3.3 Une solution faible de (1:12) est la donnée d’un triplet (X; B) ; ( ; F; P ) et (Ht ) où : 1. ( ; F; P ) est un espace de probabilité et (Ht ) est une …ltration de cet espace. 2. B est un mouvement brownien de dimension n tel que (Bt ) est une martingale relativement a la …ltration (Ht ) : 3. X est un processus adapté a la …ltration (Ht ) : 4. On a p.s. : Xt = + Zt b (r; Xr ) dr + 0 Zt a (r; Xr ) dBr : 0 On dira alors que le couple (Bt ; Xt ) est une solution faible de (1:12) : Dé…nition 1.3.4 (i) On dit qu’il y a unicité trajectorielle des solutions de (1:12) si, pour tout x 2 Rd ; étant données deux solutions (Bt ; Xt1 ) et (Bt ; Xt2 ) de (1:12) telles X0i = x; i = 1; 2 on a Xt1 = Xt2 p.s. (ii) On dit qu’il y a unicité faible (ou en loi) des solutions de (1:12) si deux solutions faibles ont toujours même loi., i.e., pour tout x 2 Rd ; étant données deux solutions (Bt1 ; Xt1 ) et (Bt2 ; Xt2 ) de (1:12) telles que X0i = x; i = 1; 2 les processus (Xt1 ; t 0) et (Xt2 ; t 0) ont même loi. Il est clair, par dé…nition, une solution forte est aussi une solution faible. Dé…nition 1.3.5 L’équation di¤érentielle stochastique (1:12)est dit bien posée si, pour toute condition initiale x 2 Rd , elle admet une solution faible qui est unique dans le sens de la loi de probabilité. Stroock et Varadhan a dé…ni une solution faible de la SDE (1:12) comme une solution de ce qu’on appelle le problème des martingales. Dé…nition 1.3.6 Le problème des martingales pour (a; b) ou pour l’opérateur d d X 1X 2 Lt f (x) = ai;j (t; x) @ij f (x) + bi (t; x) @i f (x) 2 i;j=1 i=1 Section 1.3. Equations di¤érentielles stochastiques Chapitre 1. Rappels de calcul stochastique 15 se formule comme suit :Pour chaque x 2 Rd ; et s > 0, trouver une mesure de probabilité Px;s sur ( ; F) telle que 1. Px;s (Xu = x; 0 u s) = 1; 2. Pour toute fonction deux fois continûment di¤érentiable f , le processus f (Xt ) Zt (Lu f ) Xu du s Dé…nition 1.3.7 est une martingale sous Px;s par rapport à Ft Dans le cas où il y a exactement une solution au problème de martingale, il est dit que le problème de martingale est bien posé. Théorème 1.3.1 ( [33] Théorème 23.5) Supposons que b : R+ Rd ! Rd et a : R+ Rd ! Mnd (R) sont des fonctions prévisibles et bornées, et que a (t; ) et b (t; ) sont continues pour tout t 0: Alors pour toute probabilité sur Rn ; il y a une solution du problème des martingales pour (a; b) de distribution nitiale : Théorème 1.3.2 ([33] Théorème 17.1) Soient a et b sont des fonctions prévisibles, et considérons l’EDS : dXt = b (t; Xt ) dr + a (t; Xt ) dBt (1.13) Alors l’EDS est exacte si et seulement si les deux conditions suivantes sont véri…ées (i) l’EDS (1:13)a une solution faible ; (ii) il y a unicité trajectorielle des solutions de l’EDS (1:13). Alors il y a unicité en loi des solutions de l’EDS (1:13). Théorème 1.3.3 ([33] Théorème 21.1) Supposons que b : Rd ! Rd et a : Rd ! M+ d (R) sont deux fonctions mesurables et bornées telles que le problème des martingales pour (a; b) est bien posé : pour tout y 2 Rd il existe une unique mesure de probabilité P y sur Rd telle que : (i) P y (X0 = y) = 1; 1 (ii) pour toute f 2 CK ; Ctf = f (Xt ) f (X0 ) Zt Lf (Xs ) ds est une P y -martingale, 0 où Lf (x) = Alors sous P y ; fXt : t d d X 1X ai;j (x) @ij2 f (x) + bi (x) @i f (x) 2 i;j=1 i=1 0g est un processus de Markov fort homogène en temps. Section 1.3. Equations di¤érentielles stochastiques Chapitre 1. Rappels de calcul stochastique 16 Théorème 1.3.4 ([33],Yamada-Watanabe) Considérons l’EDS : (1.14) dXt = b (Xt ) dr + a (Xt ) dBt : On suppose que a et b sont mesurables, et satisfont les conditions suivantes : (i) il existe une fonction croissante : R+ ! R+ tel que Z (u) 1 du = 1; 0+ et pour tout x; y 2 R; (a (x) a (y))2 (jx yj) ; (ii) b est Lipschitzienne. Alors il y a unicité en loi pour (1:14) : Théorème 1.3.5 ([16]; Théorème de Comparaison). Soient les EDS dXi (t) = bi (Xi (t)) dt + ai (Xi (t)) dBt ; i = 1; 2 où bi est lipschitzienne et [a (x) b2 (x) : Alors X1 (t) 1.4 a (y)]2 X2 (t) : k jx yj : Supposons que X1 (0) X2 (0) et b1 (x) Processus de Markov et Di¤usion Dé…nition 1.4.1 Soit (E; E) un espace mesuré. Un noyau N sur E est une application de E dans R+ [ f+1g tel que E (i) pour tout x 2 E; l’application A 7! N (x; A) est une mesure positive sur E; (ii) pour tout A 2 E; l’application x 7! N (x; A) est E-mesurable. Un noyau est appelé probabilité de transition (ou noyau de transition) si (x; E) = 1 pour tout x 2 E: Si f 2 E+ , c’est-à-dire que f est une application de (E; E) dans (R+ ; B) mesurable, alors on dé…nit la fonction N f sur E par N f (x) = Z N (x; dy) f (y) : E La fonction N f appartient encore à E+ . De plus, si M et N sont deux noyaux alors M N dé…nit par Z M N (x; A) = M (x; dy) N (y; A) E est encore un noyau. Section 1.4. Processus de Markov et Di¤usion Chapitre 1. Rappels de calcul stochastique 17 Dé…nition 1.4.2 Une fonction de transition (en abrégé f.t.) sur (E; E) est une famille (Ps;t )0 s<t de probabilités de transitions sur (E; E) telle que pour tous s < t < v, on ait Z Ps;t (x; dy) Pt;v (y; A) = Ps;v (x; A) (1.15) E pour tous x 2 E et A 2 E: La relation (2.1) est appelé équation de Chapman-Kolmogorov. La f.t. est dite homogène si Ps;t ne dépend de s et t que par la di¤érence t s. Dans ce cas, on note Pt pour P0;t et l’équation de Chapman-Kolmogorov s’écrit Pt+s (x; A) = Z (1.16) Ps (x; dy) Pt (y; A) E pour tous s; t 0: On dit que (Pt )t 0 est un semi-groupe. Dé…nition 1.4.3 (Processus de Markov). Soit ( ; F; (Ft ) ; P) un espace de probabilité …ltré. Un processus adapté X est un processus de Markov pour la …ltration (Ft ), de fonction de transition Ps;t si, pour toute fonction f 2 E+ et s < t; E (f (Xt ) j Fs ) = Ps;t f (Xs ) P p.s. (1.17) Le processus est dit homogène si la f.t. est homogène et la formule précédente s’écrit alors E (f (Xt ) j Fs ) = Pt s f (Xs ) P p.s: (1.18) Dans toute la suite du chapitre, on se restreint aux processus homogènes en temps. Pour tout processus de Markov(Xt ), pour tout f borné mesurable et t 0; soit Tt f (x) = E (f (Xt ) j X0 = x) = Ex f (Xt ) (1.19) La propriété de Markov implique que Ex (f (Xs+t ) j Fs ) = EXs f (Xt ) = Tt f (Xs ) on en déduit alors la propriété Semigroupe : Ts+t f (x) = Ts (Tt f ) (x) pour s; t (1.20) 0: En considérant la norme kf k = sup jf (x)j sur l’espace L1 = ff : kf k < 1g nous voyons que Tt est une contraction semigroupe sur L1 ; i.e. kTt f k kf k À la suite de Dynkin (1965), mais en utilisant une notation légèrement di¤érente, nous allons dé…nir le domaine de T par D (T ) = ff 2 L1 : kTt f Section 1.4. Processus de Markov et Di¤usion f k ! 0 as t ! 0g : Chapitre 1. Rappels de calcul stochastique 18 Théorème 1.4.1 ([16]) D (T ) est un espace vectoriel fermé. Si f 2 D (T ) alors Ts f 2 D (T ) et l’application s ! Ts f est continue. Le générateur in…nitésimal d’un semigroupe est dé…nie par : Af = lim h#0 Th f f h (1.21) Son domaine D (A) est l’ensemble des f pour lesquelles la limite existe, ce sont les fontions f pour lesquelles il existe g de sorte que Th f f h g ! 0 lorsque h ! 0 Théorème 1.4.2 ([16]) D (A) est dense dans D (T ) : Si f 2 D (A) alors Af 2 D (T ) ; Tt f 2 D (A) ; et on a : d Tt f = ATt f = Tt Af dt Zt Tt f f = Ts Af ds (1.22) (1.23) 0 Le théorème suivant fait le lien entre les générateurs et les problèmes de martingales. Théorème 1.4.3 ([16]) Si f 2 D (A) alors pour toute mesure de probabilité Mtf f (Xt ) f (X0 ) Zt Lf (Xs ) ds 0 est une P martingale par rapport à la …ltration Ft engendrée par (Xt ), où d d X 1X 2 Lf (x) = ai;j (x) @ij f (x) + bi (x) @i f (x) : 2 i;j=1 i=1 (1.24) Processus de di¤usion. Supposons que nous ayons une famille de mesures Px sur (C; C) a…n que, sous Px les trajectoires Xt (!) = ! (t) donnent la solution unique au problèmes de martingales pour 2 (b; a) issue de x; et Ft est la …ltration engendrée par (Xt ) : Soit CK l’ensemble des fonctions de classe C 2 à support compact. Dé…nition 1.4.4 Un processus de markov X = processus de di¤usion de générateur L si (i) les trajectoires de X sont continues, Section 1.4. Processus de Markov et Di¤usion ; Ft ; F; Xt ; (Px )x2E à valeurs dans Rd est appelé Chapitre 1. Rappels de calcul stochastique (ii) pour tout x 2 Rd ; t 0 et f 2 Ck2 ; Ex (f (Xt )) 19 0 t 1 Z f (x) = Ex @ Lf (Xs ) dsA : (1.25) 0 On dit dans ce cas que X admet a pour coe¢ cient de di¤usion et b pour coe¢ cient de dérive. Notons qu’alors, pour tout x, Mtf = f (Xt ) Zt f (x) (1.26) Lf (Xs ) ds 0 est une Px -martingale. En e¤et Ex Mtf Msf j Fs Zt f (Xs ) j Fs ) = Ex (f (Xt ) 8 < = EXs f (Xt s ) : Ex (Lf (Xu ) j Fs ) du s t Z s f (X0 ) Lf (Xu ) du 0 9 = ; = 0: En toute généralité, le problème de l’existence et l’unicité d’un processus de di¤usion associé au couple (a; b) est donc relié à celui d’un problème de martingales. Soient I un invervalle ouvert (non vide) de R noté I = ]l; r[ ; et l’équation di¤érentielle stochastique suivante : dXt = où X0 est une variable aléatoire sur I et (Bt )t 1.4.1 (1.27) (Xt ) dBt + b (Xt ) dt; 0 est un mouvement brownien standard sur R: Distributions invariantes et loi forte des grands nombres Dé…nition 1.4.5 Une mesure de probabilité sur I est invariante pour l’EDS (1:27) si Z Z 2 Pt f (x) (dx) = f (x) (dx) ; 8f 2 CK (I; R) ; t 0 I et est réversible si Z Z g (x) Pt f (x) (dx) = f (x) Pt g (x) (dx) ; 2 8f; g 2 CK (I; R) ; t 0 I Si (x) = P (X0 x) est la distribution de X0 :La distribution (x) est dite stationnaire ou inva- riante pour le processus de di¤usion Xt si pour tout t la distribution de Xt est la même que Si Pt (x; y) dénote la fonction de transition de Xt ; i.e. Pt (x; y) = P (Xt Section 1.4. Processus de Markov et Di¤usion y j X0 = x) ; (x) : Chapitre 1. Rappels de calcul stochastique alors (x) satisfait (y) = Z 20 (1.28) Pt (x; y) d (x) : Pour justi…er (1:28) appliquant la formule de la probabilité totale et le fait que la distribution stationnaire est la distribution de Xt pour tout t; Z P (X0 y) = P (Xt y) = P (Xt Si la distribution stationnaire a une densité, y j X0 = x) d (x) : (x) = d (x) =dx; alors (x) est dite la densité stationnaire ou invariante. Si t (1.29) (x; y) = @Pt (x; y) =@y; dénote la densité de Pt (x; y) ; alors la densité stationnaire satisfait Z (y) = t (x; y) (x) dx: (1.30) Le Théorème suivant montre que l’existence d’une probabilité invariante est équivalente à la récurrent positive. En outre, un calcul de la densité invariante est fourni. Théorème 1.4.4 ([17]). Supposons que la di¤usion est récurrente positive sur I = (a; b) : (a) Alors il existe une unique distribution invariante (dx) : (b) Pour tout f à valeurs réelles telles que Z jf (x)j (dx) < 1; S la loi forte des grands nombres a lieu, ce qui signi…e que pour toute distribution initiale ; 1 lim t !1 t Zt f (Xs ) ds = 0 Z f (x) (dx) ; (1.31) S avec une probabilité 1. (c) Si a et b sont inaccessibles ou ré‡échissants, alors la probabilité invariante a une densité qui est l’unique solution intégrable normalisée de A 1 d2 2 dx2 ou tout simplement de 2 1 d 2 dx (x) = 0; i.e., d ( (x) (x)) = 0 dx (x) (x) 2 (x) (x) (x) ; pour x 2 I; (x) (x) = 0: (1.32) (1.33) Réversibilité Nous avons d’abord dé…nir la notion de réversibilité de temps pour un processus stochastique. Section 1.4. Processus de Markov et Di¤usion Chapitre 1. Rappels de calcul stochastique Dé…nition 1.4.6 Un processus stochastique 21 = ( t )t 0 est dit réversible si la famille des distribu- tions de probabilité conjointes satisfait, pour tout m 2 N; t > 0 et 0 t1 ; t2 ; : : : ; =d tm t t1 ; t t2 ; : : : ; t1 < t2 < t tm tm t; (1.34) ; où =d signi…e que les deux vecteurs aléatoires ont la même distribution. Un processus stochastique réversible est stationnaire, puisque la condition (1:34) signi…e que t1 ; t2 ; : : : ; tm = d = = tm t1 ; tm t2 ; : : : ; s+tm (s+t1 ) ; d s+t1 ; 0 s+tm (s+t2 ) ; : : : ; s+t2 ; : : : ; s+tm 0 : Proposition 1.4.1 ([17]) Notons ^t le retournement du temps d’une di¤usion ^ = t t 2 [0; T ] : T t; t; donné par (1.35) Alors, le processus ^t est un processus de di¤usion. On rappelle tout d’abord le résultat principal obtenu sur le comportement ergodique d’une solution (Xt )t 0 de (1:27) en dimension 1. Théorème 1.4.5 ([17] x 6:8 ) On suppose que (Xt )t 0 (solution de (1:27) et de mesure de vitesse m) est récurrent sur I: Soient f et g deux fonctions mesurables réelles positives telles que Z Z (f (x) + g (x)) m (dx) < +1; g (x) m (dx) 6= 0: I Alors I Rt R0t 0 f (Xs ) ds g (Xs ) ds ! p:s Section 1.4. Processus de Markov et Di¤usion R f (x) m (dx) RI g (x) m (dx) I (1.36) Chapitre 2 Temps Locaux Et Excursions 22 Chapitre 2. Temps Locaux Et Excursions 2.1 23 Temps Locaux Théorème 2.1.1 ([32]; Formule de Tanaka). Soit X une semi-martingale continue. Pour tout x 2 R, Il existe un processus adapté et continu (Lxt ; t jXt où sgn (x) = ( xj = jX0 xj + Zt 0) tel que sgn (Xs x) dXs + Lxt : (2.1) 0 1 si x 0 : 1 si x > 0 Le processus (Lxt ; t 0) est appelé temps local (au sens semi-martingale) de X en x. On peut écrire la formule de tanaka sous d’autres formes : (Xt + x) = (X0 + x) + Zt 1 1fXs >xg dXs + Lxt : 2 (2.2) Zt 1fXs 1 + Lxt : 2 (2.3) 0 (Xt x) = (X0 x) xg dXs 0 Ces deux identités découlent immédiatement de (2:1) : Remarque 2.1.1 Une conséquence de la formule de Tanaka est que jXt xj, (Xt x)+ , (Xt x) sont des semi-martingales. On étudie maintenant quelques propriétés élémentaires du temps local de X. Commençons par étudier le support de dL (t; x). Théorème 2.1.2 ([32])Soit X une semi-martingale continue. Pour tout x 2 R, le support de la measure (aléatoire) dLx est un sous-ensemble de fs : Xs = xg : Remarque 2.1.2 Pour tout x 2 R; Lx0 = 0: Le Théorème (22) nous con…rme donc que Lxt = 0; 8x 2 = Proposition 2.1.1 ([32])Soit (2.4) inf Xs ; sup Xs : 0 s t 0 s t un processus de changement de temps et X une -semi-martingale continue, alors Lat (X ) = Lat (X) : De plus, si X est une martingale locale alors pour tout reèl a, les deux ensembles flimt et fLa1 < 1g sont équivalents p.s. Section 2.1. Temps Locaux !1 Xt exsisteg Chapitre 2. Temps Locaux Et Excursions 24 Jusqu’ici, on a regardé le temps local en tant que processus en t. Il est intéressant de le considérer comme processus à deux indices (t; x). Le théorème suivant nous donne des informations précises sur la continuité conjointe en (t; x) du temps local. Théorème 2.1.3 ([32])Soit X une semi-martingale continue. Il existe une version de (Lxt ; t qui est continue en t et càdlàg en x. de plus, Lxt Lxt = 2 Zt 0; x 2 R) 1fXs =xg dVs ; 0 où X = X0 + M + V est la décomposition canonique de X. Corollaire 2.1.1 Si X est une martingale locale continue, alors il existe une version bicontinue de (Lxt ; t 0; x 2 R). Remarque 2.1.3 Désormais, en prendra toujours une version du temps local qui est continue en t et càdlàg en x. En particulier, pour une martingale locale continue, on tavaillera toujours sur une version bicontinue de son temps local. Théorème 2.1.4 ([32])(formule des temps d’occupation) On a preque sûrement, Zt f (Xs ) d hXis = 0 pour tout t Z f (x) Lxt dx; (2.5) R 0 et toute fonction borélienne f 0: Remarque 2.1.4 L’expression ”formule de temps d’occupation” s’interprète le mieux dans le cas du mouvement brownien. En e¤et, si X = B (mouvement brownien), alors pour tout A 2 B (R), en prenant f = 1A dans (2:5), on a Zt 1fBs 2Ag ds = 0 Z Lxt (B) dx; 8t: (2.6) A Le temps local est donc la densité (par rapport à la mesure de lebesgue) de la mesure du temps R d’occupation (A) = A 1fBs 2Ag ds: Il est possible d’étendre la formule des temps d’occupation pour des fonctions plus générales. Proposition 2.1.2 ([32]) On a preque sûrement, Zt g (s; Xs ) d hXis = 0 pour tout t 0 et toute fonction borélienne g Section 2.1. Temps Locaux Z R dx Zt g (s; x) ds Lxs ; 0 0 dé…nie sur R+ R. (2.7) Chapitre 2. Temps Locaux Et Excursions 2.1.1 25 Temps local brownien Dans la section précédente, on a étudié des propriétés générales du temps local d’une semi-martingale continue. Dans la présente section, on va voir des propriétés particulièrement liées à ceux du mouvement brownien. Identité de Lévy Lemme 2.1.1 ([32] Skorokhod)Soit (y (s) ; s 0) une fonction continue sur R+ telle que y (0) 0. alors il existe un unique couple de fonctions (z; a) dé…nies sur R+ véri…ant les trois conditions suivantes : (i) z = y + a; (ii) z 0; (iii) a est croissante et continue, a (0) = 0, et la mesure da (s) est portée par fs 0 : z (s) = 0g : En plus, la fonction a est donnée par a (t) = sup y (s) ; 0 s t où y (s) := max (0; y (s)) est la partie négative de y (s) : Soit B un mouvement brownien, issu de 0, et soit Lxt son temps local. On s’intéresse au processus fL0t ; t 0g. Rappelons la formule de tanaka jBt j = Zt sgn (Bs ) dBs + L0t : 0 Dans cette identité, on constate que jBj 0, que le processus L0t est croissant et continu tel que L00 = 0, et que dL0t est portée par fs 0 : jBs j = 0g. Par le lemme de skorokhod, on a L0t = Rt sup0 s t ( s ) , où t := 0 sgn (Bs ) dBs . Comme 0 = 0, on peut encore écrire L0t = sup ( 0 s t s) : Remarquons que est une martingale locale continue issue de 0, dont la variation quadratique est Rt (sgn (Bs ))2 ds = t. Par la caractérisation de Lévy pour le mouvement brownien, on voit que 0 est un mouvement brownien standard. Donc le processus (L0t ; t où St := sup0 s t 0) a la méme loi que (St ; t 0), Bs : En fait, on a une identité en loi bivariée. Théorème 2.1.5 ([32] Identité de Lévy)Les processus (St méme loi. Section 2.1. Temps Locaux Bt ; St ; t 0) et (jBt j ; L0t ; t 0) ont la Chapitre 2. Temps Locaux Et Excursions Corollaire 2.1.2 Les …ltrations de 26 et de jBj coincident. Etudions d’abord les zeros du mouvement brownien en terme du temps local en 0. pour simpli…er les notations, on écrira Lt := L0t , et soit t = inf fs > 0 : Ls > tg ; t 0: Comme L1 = 1 p:s: (ceci est une conséquence immédiate de l’identité de Lévy), on sait que presque surement (Lt ; t t < 1 pour tout t 0). Notons en particulier que 0. Le processus ( t ; t 0 0) est l’inverse continue à droite de = 0 p:s: (ceci découle de l’identité de Lévy et du fait que B visite R+ dans chaque voisinage de 0). On dé…nit O (!) := avec la convention 0 [ ] s (!) ; s (!)[ ; s 0 = 0: Notons qu’il y a au plus un nombre in…ni dénombrable d’intervalles non-vides dans l’union. Théorème 2.1.6 ([32]) Pour presque tout !, les trois ensembles suivants sont identiques : (i) Z (!) := inf ft 0; Bt (!) = 0g ; c (ii) O (!) ; (iii) Le support (!) de la mesure dLt (!) : Remarque 2.1.5 L’ensemble des zeros de B est donc le complémentaire de O (!) : Les intervalles ] s (!) ; s (!)[ (lorsqu’il sont non-vides) sont appelés les intervalles d’excursions (au dehors de 0) du mouvement brownien, que l’on étudiera dans la section suivante. Deux mouvements browniens ré‡ichis Soient, Mt+ Les processus Mt+ et Mt Rt 0 1fBs >0g dBs ; et Mt Rt 0 1fBs <0g dBs : sont des martingales continus, à carré intégrable, de variations qua- dratiques M + t A+ t Zt 1fBs >0g ds; = At Zt 1fBs <0g ds: = 0 M t 0 Section 2.1. Temps Locaux Chapitre 2. Temps Locaux Et Excursions et + = M ;M 27 Zt 1fBs >0g 1fBs <0g ds = 0: 0 Comme A+ 1 = A1 = 1; on peut dé…nir leurs inverses continues à droite : + t 0 : A+ s > tg ; := inf fs t := inf fs 0 : As > tg : D’aprés le théorème de Knight (voir [32] Théorème 1.9 Chap.V) il existe deux mouvements browniens indépendants + et tel que M ( + B+ = + D’aprés lemme de skorohod B ( 1 L 2 2.2 2.2.1 + t et par la dé…nition du temps local de B; )= 1 + L 2 + ; ) ; 12 L ( = sup s t 1 + L 2 = B : ) ont la même loi que (jBj ; L), de plus, + s 1 L 2 ; t = sup s t s : Excursions Processus de Poisson ponctuel Tout au long de cette section, nous considérons un espace measurable (U; L) Auquel est ajouté un point , et l’on pose U = U [ f g et L = (L; f g) : Dé…nition 2.2.1 un processus e = (et ; t > 0) dé…ni sur un espace de probabilité ( ; F; P ) à valeurs dans (U ; L ) est dit processus ponctuel si (i) (t; w) ! et (w) est ß (]0; 1[) F measurable ; (ii) l’ensemble Dw = ft; et (w) 6= g est dénombrable p.s. Donné un processus ponctuel, avec chaque ensemble telque et (w) = et (w) si et (w) 2 ; et (w) = soit une sous ensemble mesurable de ]0; 1[ N (w) = 2 L , on dé…ni un processus ponctuel e sinon. le processus e est la trace de e sur : U; X I (t; et (w)) : t>0 en particulier, si = [0; t] ; on peut ecrire Nt pour N ; De même N[s;t] = P s<u6t I (eu ) Dé…nition 2.2.2 On dit qu’un processus ponctuel est discret si NtU < 1 p.s. pour tout t. Le processus e est -discret s’il y a une suite d’ensembles (Un ), telle que l’union de (Un ) est U;et eUn est discret. Section 2.2. Excursions Chapitre 2. Temps Locaux Et Excursions 28 Dé…nition 2.2.3 Soit ( ; F; Ft ; P ) un espace de probabilité …ltré. Un (Ft ) processus de poisson N est un processus adapté, continue à droite tel que N0 = 0 et pour tout s < t, k 2 N; P [Nt Ns = k j Fs ] = c k (t s)k exp ( c (t k! s)) tel que c > 0 est le parametre de N . Dé…nition 2.2.4 Un Ft processus de poisson ponctuel est un processus de poisson -discret (et ) tel que 1- le processus e est Ft adapté ; pour tout 2- por tout s et t > 0 et tout de Nt . 2.2.2 2 L, le processus Nt est Ft adapté. 2 L; la loi conditionelle de N]s;s+t[ par rapport à Fs est la même loi Excursions Browniennes Dans ce qui suit, nous travaillons avec la version canonique du MB. On note par W l’espace de Wiener, P la mesure de Wiener, et F la tribu engendrée par W completée par rapport à P . Désormais, nous appliquons les résultats de la section précédente, à un espace (U ; L ) que nous allons maintenant dé…nir. Pour ! 2 W , on pose R (!) = inf ft > 0 : ! (t) = 0g : L’espace U est l’ensemble de ces fonctions ! tels que 0 < R (!) < 1 et ! (t) = 0 pour tout t > R (!). On considére l’espace measurable (U; L) auquel est ajouté un point , U = U [f g et L = (L; f g) Dé…nition 2.2.5 (Excursions Browniennes). Le processus d’excursion est un processus e = (es ; s > 0) de…ni en (W; F; P ) à valeurs dans (U ; L ) par 1-si s (!) s (!) > 0, alors es (!) est r ! Ifr< 2-si s (!) s s (!) s (!)g B s (!)+r (!) ; (!) = 0;alors es (!) = : On écrit quelquefois es (r; !) ou es (r) au lieu de es (!) pour un temps r donné. Théorème 2.2.1 ([32] Itô). Le processus d’excursion (et ) est un processus de poisson ponctuel F t -mesurable. Section 2.2. Excursions Chapitre 2. Temps Locaux Et Excursions 29 A partir de B, nous avons dé…ni le processus d’excursion. Inversement, si le processus d’excursion est connue, on peut reconstruire B. Plus précisément Proposition 2.2.1 ([32] Proposition 2.5 p.482 ) On a t (!) = et P s6t R (es (!)) ; Bt (!) = X s6Lt où Lt est l’inverse continu à droite de Section 2.2. Excursions t. t es (t (!) = s P s<t (!) ; !) R (es (!)) : Chapitre 3 Mouvement Brownien Excité 30 Chapitre 3. Mouvement Brownien Excité 3.1 31 Décompositon trajéctorielle Notons ( ; F; Qx ) l’espace de Wiener, où Qx est la loi d’un mouvement brownien réel issu de x. Soient Xt (!) = ! (t) pour tout t 0 et (Ft ; t 0) la …ltration associée à X. Dans la suite, Nous notons Lat pour désigner la version presque sûrement bicontinue du temps local de Xt , dont on normalise de telle sorte que la formule de la densité d’occupation (2:5) devient Zt f (Xs ) ds = 0 Z f (a) Lat da: Nous supposons maintenant une certaine fonction g mesurable et bornée: R R+ ! R; soit 0 t 1 Z Zt 1 s s dXs Mtg = exp @ g Xs ; LX g 2 Xs ; LX dsA : s s 2 0 On a, 0 Zt s g 2 Xs ; LX ds s Mt 0 où M = sups 0 g 2 s Xs ; LX s ; alors d’après Théorème 1.2.6 (Mtg ; t > 0) est une (Ft ; t > 0)-martingale. g On dé…ni Px;t la mesure de probabilité sur ( ; Ft ) de densité Mtg par rapport à Qx restreint à Ft . Par consistance, il est possible de construire une mesure de probabilité unique Pxg sur Pxg restreinte à Ft soit ' Px;t . , telle que Par la formule de la transformation de la dérive (théorème de Girsanov), on peut prouver que sous Pxg , Bt = Xt x Zt s g Xs ; LX ds s 0 est un mouvement brownien issu de 0. L’unicité découle par des arguments similaire : partant de g Pxg la loi d’une solution et puis on construit Px;t , alors on a la proposition suivante : Proposition 3.1.1 Soit x 2 R:Alors il y a une solution unique (X; B) de l’équation Xt = x + Bt + Zt s g Xs ; LX ds s (3.1) 0 où B est un mouvement brownien issu de 0 et (Lxt : t X: 0; x 2 R) est le processus du temps local de Nous utiliserons la notation Exg et Exgn pour les espérances par rapport à Pxg et Pxgn : Section 3.1. Décompositon trajéctorielle Chapitre 3. Mouvement Brownien Excité 32 Lemme 3.1.1 Soit (gn )n>0 une suite de fonctions mesurables bornées, tel que gn (x; l) converge vers g (x; l), quand n ! 1, pour x et l, presque partout, et telle que sup jgn (x; u)j < +1 (3.2) x;n;u Alors Pxgn converge faiblement vers Pxg sur pour tout x. Preuve. Soit Z une variable aléatoire Ft -mesurable, continue et bornée. Nous devons prouver que Exgn (Z) converge vers Exg (Z). Comme Exgn (Z) et Exg (Z) sont respectivement égales à Qx (ZMtgn ) et Qx (ZMtg ) ; il su¢ t de prouver que Mtgn converge dans L2 vers Mtg : Rt Rt Rt s s s dXs 21 0 g 2 Xs ; LX ds:On On a Yt = 0 g Xs ; LX ds est un processus d’Itô et hY it = 0 g 2 Xs ; LX s s s a donc, pour f 2 C 2 , f (Yt ) f (Y0 ) = Zt = Zt 1 f (Ys ) dYs + 2 0 0 Zt f 00 (Ys ) d hY is 0 0 f (Ys ) g s Xs ; LX s dXs 1 2 0 + Zt s f 0 (Ys ) g 2 Xs ; LX ds s 0 1 2 Zt s f 00 (Ys ) g 2 Xs ; LX ds: s 0 Soit f (x) = ex : On a f = f 0 = f 00 et Mtg =1+ Zt s Msg g Xs ; LX ds: s 0 Donc Qx (Mtgn Mtg )2 0 t Z s = Qx @ Msgn gn Xs ; LX s 00 t Z s @ Qx Msgn gn Xs ; LX s 12 dsA s Msg g Xs ; LX s 2 s Msg g Xs ; LX s 0 = Zt s Qx Msgn gn Xs ; LX s s Msg g Xs ; LX s 2 Alors, d Qx (Mtgn dt Mtg )2 t Qx Mtgn gn Xt ; LX t Section 3.1. Décompositon trajéctorielle t Mtg g Xt ; LX t dsA ds 0 2 1 Chapitre 3. Mouvement Brownien Excité 33 or Qx [Mtgn gn Mtg g]2 = Qx [Mtgn gn Mtg gn + Mtg gn Mtg g]2 = P [(Mtgn Mtg ) gn + Mtg (gn g)]2 h 2Qx (Mtgn Mtg )2 gn2 + (Mtg )2 (gn (pour tout a; b 2 R : (a + b)2 i g)2 : 2 (a2 + b2 )). Comme gn (x; u) est bornée pour tout n; x; u: On a, t 2gn2 Xt ; LX t c pour certain constant c > 0; : Il résulte alors que, d Qx (Mtgn dt Mtg )2 2Qx h (Mtg )2 2 (gn g) t Xt ; LX t i + cQx h (Mtgn h On conclut par le théorème de la convergence dominée que P (Mtg )2 (gn Mtg )2 i t g)2 Xt ; LX t vers 0 et par utilisant le lemme de Gronwall. Dé…nissons Rt A+ t = 0 1fXs >0g ds; At = On peut dé…nir leurs inverses continues à droite : + (t) = inf fu > 0 j A+ u > tg ; Rt 0 i converge (3.3) 1fXs <0g ds: (3.4) (t) = inf fu > 0 j Au > tg On dé…ni les deux processus X + et X comme suit Xt+ = X + (t) ; Xt = X Notons par Q+ et Q les lois respectives de X + et X (3.5) (t) : sous Q, et soit Q+ t et Qt leurs restrictions t)). Il est bien connu que Q+ t (resp Qt ) est la sur Ft respectivement (alors Qt est la loi de (Xs ; s loi d’un mouvement brownien ré‡ichi au dessus de 0 (resp en dessous de 0) et issu de 0. Notez que l’identité de Lévy (voir Théorème 1.4.6) montre que Le processus t := Xt L0t (resp t := Xt + L0t ) (où L0 est le temps local de X en 0) est un mouvement brownien sous Q+ t (resp Qt ) et que le processus Ntg dé…ni par : 0 Ntg := exp @ Zt s g Xs ; LX d s s 1 2 Zt 0 0 est une martingale sur ( ; F; Q ) 1 s g 2 Xs ; LX dsA s Soit P g; les mesures dont leurs restrictions sur Ft est Ptg; ; où P~t sont dé…nis par Ptg; := Ntg Section 3.1. Décompositon trajéctorielle Qt 8t 0: (3.6) Chapitre 3. Mouvement Brownien Excité 34 En appliquant le théorème de Girsanov sur l’espace ( ; F; P g; ), le processus Xt = Lt + t Zt s ds; g Xs ; LX s (3.7) 0 avec t ~g est un Ft -mouvement brownien. Soit P := P g;+ P g; et soit (X 1 ; X 2 ) le processus canonique de la loi P~ g : Alors X 1 et X 2 sont independents et P g;+ ; P g; sont leurs distributions respectives. Notons L(1) et L(2) les processus du temps local en 0 de X 1 et X 2 ; et dé…nissons leurs inverses continues à droite i (s) = inf t j L(i) (t) > s 2 par i L(i) (1) ; i (s) (s ) ; (s ) > 0, et ei (s) = 0 sinon. Soit e le processus d’excursions obtenu par l’addition (2) ~ 1 = L(1) de e1 et e2 ; pour s L 1 ^ L1 : La construction de la fonction d’excursion e à partir des si i pour tout u 2 0; )+u et pour i 2 f1; 2g : Notons par e1 et e2 leurs processus d’excursion hors de 0, pour s i e(i) s (u) = X i (s 1 (s) i fonctions d’excursions respectives e1 et 8 > > < es = > > : Comme pour tout s e2 de (X 1 ; L1 ) et de (X 2 ; L2 ) est classique : (1) 1 (s) 1 (s ) > 0 (2) 2 (s) 2 (s ) > 0 es si es si (3.8) 0 sinon. (1) (2) 0; soit es = 0 soit es = 0 (L’independance de X 1 et X 2 implique que les (1) (2) deux processus ponctuels es et es sont independants), on a (2) e(1) = es 1fes s ; es Notons 0g ; e (t) 1fes 0g : la transformation mesurable qui reconstruit un processus hors de son processus excursions es (voir 2.2.1), ( e)t = X es (t s (!) ; !) : ~t s6L (2) ~ est le temps local en 0 de e; et on a pour tout t 2 R+ [ f1g ; L ~ t = L(1) où L t ^ Lt : Proposition 3.1.2 ([31] Proposition 3.1 ) (i) e et X ont même loi. Preuve. Supposons d’abord que g (x; l) = 0 si x 2 ( c; c) ; pour une certaine constante c > 0. Pour tout 2 ( c; c) ; on dé…ni un processus X comme suit : soit T0 = 0 et pour n Sn = inf t Section 3.1. Décompositon trajéctorielle Tn 1 j Xt 2 f ; g ; 1, Chapitre 3. Mouvement Brownien Excité 35 Tn = inf ft > Sn j Xt = 0g : On dé…ni également A (t) = X n 1 et soit (Tn ^ t Sn ^ t) ; (t) l’inverse continue à droite de A : Ensuite, posons Xt := X (t) Comme le temps local ne croit que lorsque X est nul, il découle que pendant chaque intervalle de temps (Sn ; Tn ) ; le temps local en 0 de X ne peut pas croitre. Et pour u 2 (Sn ; Tn ) ; A (u) = (u Sn ) + n 1 X (Tk Sk ) k=1 et A (Sn ) = n 1 X (Tk Sk ) k=1 alors on a : u = Sn + (A (u) Donc, pour u = A (Sn )) : (t) ; t 2 (A (Sn ) ; A (Tn )) on a, (t) = Sn + (A ( = Sn + (t (t)) A (Sn )) A (Sn )) : Ainsi, par (3:7) sur les intervalles (A (Sn ) ; A (Tn )) ; si X suit la loi de e; alors X est la solution de l’EDS Xt (t) dXt = dRt + g Xt ; L dt; (3.9) où L:: est le temps local de X, et R est le mouvement brownien dé…ni par Rt = n 1 X BTk BSk + B (t) BSn ; k=1 pour t 2 (A (Sn ) ; A (Tn )) : Notons L: ;: le processus du temps local de X : La trajectoire de X est continue au voisinage de tout x 2 = ( c; c) ; alors d’après la proposition 2.1.1, Lx (t) = Lt ;x 8t 0 8x 2 = ( c; c) : et comme g (x; l) = 0 quand x 2 ( c; c) ; g x; Lx (t) = g (x; Lt ;x ) 8t Section 3.1. Décompositon trajéctorielle 0 8x 2 R: Chapitre 3. Mouvement Brownien Excité 36 Ainsi, X satisfait en fait l’EDS : dXt = dRt + g Xt ; Lt ;Xt (3.10) dt; jusqu’à la première fois qu’il atteingne 0 et quand il atteind 0, il saute instantanément à ou avec une probabilité 1=2, indépendamment de sa trajectoire passée. Notez que ceci détermine la loi de X . Or il résulte aussi de (??), que si X admet pour loi P , alors X résoud ainsi l’EDS (3:10) jusqu’à la première fois qu’il atteingne 0, puis saute à ou avec une probabilité 1=2 (car il n’y a pas de dérive dans ( c; c)). Presque sûrement, lim A (t) = t; !0+ au sens de la convergence uniforme sur des intervales compacts : Presque sûrement, pour tout t 2 [0; T ] ; jA (t) tj ZT 1fXs 2( ; )g ds ! 0; ! 0; 0 notons que la mesure Lebesgue de l’ensemble des zeros de X est nulle (voir, 2.1.6). Alors pour tout t1 ; : : : ; tn …xés; presque sûrement, lim Xt1 ; : : : Xtn = (Xt1 ; : : : Xtn ) : !0 d’où, pour le processus càdlàg X := X les distributions marginales convergent vers celles de X: Il résulte alors X converge vers X, quand tend vers 0, et nous concluons que la loi de e est P . Pour terminer la preuve, pour c > 0, on dé…ni gc par gc (x; l) = g (x; l) 1 (x 2 = [ c; c]) : d’aprét Lemme 3.1.1 on sait que P gc converge vers P g ; quand c ! 0: Il en est de même pour la convergenve de P gc ;+ et P gc ; vers respectivement P g;+ et P g; : Comme e est une transformation mesurable de (X 1 ; X 2 ) ; on a le résultat. Dé…nition 3.1.1 Un point x est dit recurrent pour (Xt ) si la probabilité que le processus visite x une in…nité de fois est égale à 1, ce qui signi…e que : Px fXtm = x pour une suite croissante (tm ) tendant vers 1g = 1 Section 3.1. Décompositon trajéctorielle Chapitre 3. Mouvement Brownien Excité 37 On notera que x est transitoire pour (Xt ) signi…e que Px n o lim jXt j = 1 = 1 t !1 Lorsque tous les points sont recurrents (resp. transitoires), on dira que le processus (Xt ) est recurrent (resp. transitoire). Considérons les événements Ra := fLa1 = +1g ; a 2 R (l’événement de la récurrence pour a): Supposons que y est récurrent pour (Xt ) ; et notons k = inf ft k 1 0 = inf ft : Xt = yg : Les variables aléatoires f pose alors pour tout " > 0; " k = f! : 9t 2 ( k; k+1 ) ; Xt k gk 0 2 (z 0 : Xt = yg ; et pour tout k 2 N ; sont …nies et croissants vers 1: On "; z + ")g En utilisant le lemme de Borel-Cantelli conditionnel, on obtient pour tout " > 0; Pxg (lim inf alors pour N assez grand, et tout k pour (Xt ) : Donc pour tout x; y; z; N; 9 Pxg -p.s., 0 k Ry 2( " k) =1 k; k+1 ) tels que X 0 k = z; d’où z est récurrent Rz d’où Ry = Rz : Dans la suite, nous noterons R l’événement de la récurrence ( = Ra pour tout a ). Notez que nous avons encore pour tout x 0 (resp. x les cas, R est l’événement fL01 = +1g : Pour t > 0 et a 2 R; soit a t 0), P g;+ (resp. P g; )-p.s. , Rx = R0 (= R) : Donc, dans tous = inf s > 0 : Rs 0 1fXu Lemme 3.1.2 ([41], Lemme 3) Soient a 2 R; x; y telles que g (z; l) = (z; l) pour tout z ag du a et tout l > t : Alors, on a : a et g; deux fonctions mesurables et bornées 0: Alors X a t a a la même distribution sous Pxg;+ et sous Py ;+ : En particulier, Pxg;+ (La1 = 1) = Py ;+ (La1 = 1) : (3.11) Notez qu’une proposition semblable a lieu pour P:g; : Une conséquence immediate de ce lemme est que Pxg; (R) = P g; (R) ; pour tout x 2 R: Proposition 3.1.3 (i) P g;+ (R) et P g; (R) appartiennent à f0; 1g : (ii) Pxg (R) = 1; si et seulement si, P g;+ (R) = P g; (R) = 1: (iii) Pxg (R) = 0; si et seulement si, P g;+ (R) = 0 ou P g; (R) = 0: Section 3.1. Décompositon trajéctorielle (3.12) Chapitre 3. Mouvement Brownien Excité 38 Preuve. (i) Par la proposition 3.1.2, on a : ~1 = 1 Pxg (R) = P~xg L (2) = P~xg L(1) 1 = L1 = 1 = Pxg;+ L(1) 1 = 1 = Pxg;+ (R) (1) Pxg; Pxg; (R) ; L(2) 1 = 1 (3.13) (2) à cause du fait que L1 et L1 sont indépendants. Supposons que P g;+ (R) > 0: Comme R 2 g;+ des martingales sur la martingale (P ([z FTz ) ; on appliquant le théorème de convergence (R j FTz ))z 0 ; alors on a P g;+ -p.s., lim P g;+ (R j FTz ) 1R = z !1 lim PzgTz ;+ (R) ; = (3.14) z !1 où gTz est dé…nie par gTz (y; l) = g y; LyTz + l : Notons que sous Pxg ; (Xt ; gt ) est un processus de Markov et que (3.14) est la propriété forte de Markov pour ce processus. D’après (2:4) pour tout y z, LyTz = 0 alors, gTz (y; l) = g y; LyTz + l = g (y; l) ; donc gTz et g coïncident pour tout y tout z 0: Alors, par (3:12), limz !1 pour tout y z; : (3.15) z, d’où d’aprés (3:11), cette limite est égale Pzg;+ (R) pour Pzg;+ (R) = P g;+ (R) :Ainsi on a prouvé que 1R = P g;+ (R) : Donc, P g;+ (R) est égale 1 car elle est positive par hypothèse. (ii)-(iii) Pour tout x 2 R; Pxg (R) = Pxg;+ (R) = P g;+ (R) Pxg; (R) P g; (R) : si P g;+ (R) = P g; (R) = 1 alors Pxg (R) = 1; si P g;+ (R) = 0 ou P g; (R) = 0 alors Pxg (R) = 0: On peut conclure que Pxg (R) appartient à f0; 1g : 3.2 Théorème de Ray-Knight pour X 1 et X 2 Nous recueillons ici un certain nombre de dé…nitions et des résultats bien connus. On dé…ni, pour a2R Aat Zt 1fXs ag ds; 0 Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 Chapitre 3. Mouvement Brownien Excité et on désigne par a t 39 l’inverse continue à droite du processus croissant Aat ; a t Aat étan fFt g adapté Il s’ensuit que inf fu : Aat > tg ; a t est un fFt g temps d’arrêt. On pose : Rt a a ; Xta = 0 1fXt ag dXs ; t = X a t Fta = ~a et on dé…ni X t (f a s :s tg) : ~a X at . Notons que ce processus satisfait l’inégalité X t a pour tout t 0; d’où d’aprés David Williams [40], nous dé…nissons ~a : t X t Ea 0 La famille croissante de tribus (Ea ; a 2 R) appelée la …ltration d’excursions de Xt : En fait Walsh [38] montre que (Ea ; a 2 R) est une …ltration continue à droite. La formule de Tanaka (2:3) (qui peut être considérée comme la dé…nition de temps local d’une semi-martingale) stipule que que (Xt a) = (X0 Zt a) 1fXt ag dXs 1 + Lat 2 0 = (X0 1 Xta + Lat ; 2 a) (3.16) Pour prouver le résultat principal de cette section, Theorem 3.2.2, nous avons besoin de changement de temps des intégrales stochastiques : le résultat suivant, cité par Rogers-Williams [33], couvre tous les cas dont nous avons besoin. La …ltration fFt g est supposée continue à droite. Théorème 3.2.1 ([33]) Soit A un processus croissant continu nul en 0 avec nsonoinverse continue à droite et soit F~t = F t : (1) Si T est un fFt g-temps d’arrêt, alors AT est un F~t -temps d’arrêt. n o (ii) Si S est un F~t -temps d’arrêt, alors S est un fFt g-temps d’arrêt. n o (iii) Si H est un processus nul en 0; F~t -previsible, alors H A est un processus fFt g-previsible: (iv) Supposons que M est une fFt g-martingale locale avec la propriété que n o 9 une suite de F~t -temps d’arrêt Sn " 1 tels que (Sn ) est une martingale uniformément integrabte. n o n o ~ t = M ( t ) est une F~t -martingale locale, et pour tout processus F~t -previsible localeAlors M M ment bornée H; nul en 0; Z (0;t] ~s = Hs dM Z (0; H (As ) dMs : t] Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 (3.17) Chapitre 3. Mouvement Brownien Excité Lemme 3.2.1 a t vement Brownien. est un F a t 40 -mouvement Brownien. En particulier, Ea engendrée par un mou- Preuve. On a Xta = (Xt Alors si Tn = inf ft : Xta < remplies, et dans ce cas sauter quand où Xt ^a et Lat a t 1 a) + Lat ; 2 n; ou Lat > ng ; et Sn = AaTn ; les conditions du théorème A (iv) sont est une F saute ; et un saut de a t -martingale locale. Elle est continue, parce qu’elle ne peut est un intervalle dans lequel X fait une excursion dans (0; 1), sont constants, et donc Xta est également constant. En…n, (Xta )2 Aat , est une F martingale locale continue, à partir de laquelle on déduit de même que X aat 2 Aaat = ( at )2 a t - t a t -martingale locale continue, et est un F at -mouvement Brownien. Il résulte alors ~ ta engendrent la même …ltration (brownienne). de ([33] ;§ V.6) que at et X est une F a t Ainsi, toutes les variables aléatoires L2 (Ea ) peuvent être représentées comme des intégrales stochastiques. C’est l’idée centrale qui a été derrière le lemme clé de McGill [25]: Soit u un processus fFt g-previsible, et pour tout a 2 R soit u~at = u at : On pose : L (E) = fu previsible tel que u~at est fFta g -previsible 8ag : Dans notre développement, l’analogue du lemme de McGill est le résultat suivant : Théorème 3.2.2 Supposons que u 2 L (E) et véri…e la condition E Z1 u2s IfXs ag ds < 1 pour tout a 2 R: 0 Alors le processus Na = Z1 us IfXs ag dXs 0 est une fEa g-martingale qui a pour variation quadratique hN ia = Z1 u2s IfXs ag ds: 0 Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 (3.18) Chapitre 3. Mouvement Brownien Excité 41 R1 2 Preuve. Soit Ca = 0 us 1fXs ag ds: Tout d’abord, nous montrons que N et C sont Ea -adaptés. D’après le Théorème 3.2.1(iv), pour tout a 2 R; Z1 Na 0 us 1fXs ag dXs 2 s Z us d 4 1fXu = Z1 = Z1 = Z1 u as dX aat = Z1 u~as d as : 0 ag dXu 0 3 5 us dXsa 0 0 0 qui est Ea mesurable. De même, Ca = Z1 u2s IfXs ag ds = 0 Z1 (~ uas )2 ds 0 est également Ea mesurable, car u 2 L (E) : Pour a < b 2 R …xés, et pour tout F 2 L1 (Ea ), d’après Lemme 3.2.1 Ea est la tribu engendrée par le mouvement brownien a :, le théorème 1:2:5 montre que tout élément F de L2 (Ea ) s’écrit sous la forme : F = E (F ) + Z1 vs d a s 0 pour un certain processus v fFta g-prévisible tel que E F = E (F ) + Z1 R1 0 vs2 ds < 1: Par le théorème 3.2.1 (iii)-(iv), vAat 1fXt ag dXt ; 0 on a alors : Ft = E [F j Fta ] = E (F ) + Zt vAat 1fXt ag dXt ; 0 où a F = F1 = E [F j F1 ] = E [F j Ea ] : Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 Chapitre 3. Mouvement Brownien Excité 42 Alors E ((Nb 00 N a ) F ) = E @@ Z1 0 us Ifa<Xs 0 = E (F ) E @ Z1 bg dXs us 1fa<Xs 21 0 Z 4 +E us 1fa<Xs 1 1 AFA bg dXs Z1 bg dXs 0 = 0+ Z1 1 A vAat 1fXt ag dXt 0 us 1fa<Xs vAat 1fXt bg ag 3 5 ds = 0: 0 D’où (Na ; Ea ) est une martingale. Ensuite, si Mt Zt us 1fa<Xs bg dXs ; 0 par la formule d’Itô, on a E (Nb Na )2 F 00 1 Z = E @@ us 1fa<Xs bg dXs 0 0 = E @2 Z1 Ms us 1fa<Xs 0 10 Z @ = E u2s 1fa<Xs 12 A bg dXs 1 1 FA 1 0 FA + E @ Z1 u2s 1fa<Xs 0 FA; bg ds 0 bg ds 1 FA Le premier terme disparaissant par un raisonnement analogue à celui utilisé pour prouver que N est une martingale. D’où Na2 Ca est une fEa g-martingale, et puisque C est croissante et continue, lim (Cx x<a ! Ca ) = lim x<a ! Z1 u2s 1fx<Xs ag ds 0 = Z1 u2s lim 1fx<Xs = Z1 u2s 1fXs =ag ds = 0; 0 x<a ! 0 Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 ag ds Chapitre 3. Mouvement Brownien Excité 43 De même, lim (Cx Ca ) = 0; x>a ! donc limx !a (Cx Ca ) = 0; C est donc (Ea )-prévisible, d’où d’après le théorème 1.1.6 C = hN i : On remarque comme une première conséquence que nous sommes maintenant à quelques pas du célèbre théorème de Ray-Knight pour le temps local brownien. Fixons 0 a; et soit T x inf ft : Xt = a ag : Dé…nissons maintenant Zx(a) LxT aa ; Yx(a) ZT a 1fXs XTx aa ; x ag dXs 0 Corollaire 3.2.1 (Ray-knight) Sous Q; le processus Z resoud l’equation dé¢ rentielle stochastique Zx(a) =2 Zx Zz+ 1=2 dWz + 2x (0 x (3.19) a) 0 où W est un mouvement brownien. Preuve. Le processus ut 1ft est dans L (E) ; et véri…e (3:18) : En e¤et Tg u~at = 1f n ~ tx t:X et AxT aa = inf de at ; en e¤et a = a t Tg o = 1ft Aa Tg ~ a est adapté à la …ltration F a a est un (Fta )-temps d’arrêt. Comme X t t ~ tx X a a = (x a t a) 1 + Laat ; 2 et d’après le Lemme de Skorokhod avec a (t) = 12 Laat ; y (t) = (x 1 a L a = sup 2 t s t a s (x a) + a) a t; ~ ta et z (t) = X : Il est facile de véri…er la condition (3:18) ; E Z1 12ft T ag IfXs x ag ds = E 0 E ZT 0 T Z a IfXs x ag ds a ds = E (T a ) < 1; 0 Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 a ; Chapitre 3. Mouvement Brownien Excité 44 alors nous appliquons Théorème 3.2.2 ; Y est une (Ea )-martingale, avec Yx(a) = Z1 1fs T ag 1fXs x ag ds = Zx Zz dz 0 0 par le fait que le temps local est la densité d’occupation. La Formule de Tanaka à l’instant T XT XT (x a a) a (x a nous permet d’écrire : a) = (a XTx x) a a 1 + LxT aa ; 2 x) = 0; d’où = x; (a Zx(a) = 2x + 2Yx(a) ; n (a) comme Yx : 0 o a est (fEa g ; Q )-martingale continue de variation quadratique x Rx 0 (a) Zz dz; alors la proposition 1.2.5 a¢ rme qu’il existe un mouvement brownien W issu de 0 tel que Yx(a) = (a) Y0 = Zx + Zx 1=2 Zz(a) dWz 0 Zz(a) 1=2 dWz ; 0 il resulte que Zx(a) =2 Zx Zz(a) 1=2 dWz + 2x (0 x a) : 0 Théorème de Ray-Knight pour L(2);: : : X 1 est un mouvement browien sous Q (2);x a LT a alors d’après le corrolaire, sous Q (a) le processus Zx resoud l’equation dé¤érentielle stochastique Zx(a) =2 Zx Zz+ 1=2 dWz + 2x (0 x a) 0 n (a) L’objectif est de trouver la loi de Zx : 0 P g; NTg Q a sur FT a x a o n (2);x a LT a ; 0 x a o sous P g; : Comme avec la densité NTg a ; l’expression exponentielle de martingales (3:6) pour nous permet de voir comment les martingales transforment quand Q change en P g; , mais en exprimant NTg a en tant qu’exponentielle d’une (Ea )-martingale, nous pouvons également voir comment les (Ea )-martingales (en particulier Y !) transforment quand Q change en P g; . Maintenant, nous pouvons très facilement, obtenir l’analogue du théorème de Ray-Knight pour la loi P g; . Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 Chapitre 3. Mouvement Brownien Excité Théorème 3.2.3 Sous P g; 45 le processus du temps local (2);x a (a) Zx LT 0 x a a satisfait 0 x a l’équation di¤érentielle stochastique Zx(a) = Zx 2 1=2 Zz(a) dWz + 2 Zx a; Zz(a) 1+f z (3.20) dz: 0 0 t g Xt ; LX est dans L (E) parce que t Preuve. Le processus ut ~ a ; LX~at u~at = g X t t a et L ~a X t a t ~ au nivau X ~ a à l’instant t, qui est (F a )-prévisible. est le temps local de X t t Comme u1(0;T a) satisfait (3:18), alors d’après Théorème 3.2.2, Nx(a) = Z1 us IfXs2 2 x ag dXs 0 est une ((Ea ) ; Q )-martingale. En…n, il résulte du Théorème 3.2.2 que N (a) ; Y (a) x = *Z1 = ZT us IfXs2 2 x ag dXs ; ZT a 1fXs2 2 x ag dXs 0 0 + a 1fXs2 x ag us ds; 0 et par (une extension de) la formule de la densité d’occupation (Proposition 2.1.2), ZT Zx a 1fXs2 x ag g s Xs ; LX ds = s 0 0 Zx = 0T a Z @ dx g u a a; L(2);u s 0 f z 1 aA ds L(2);u s a; Zz(a) dz: (3.21) 0 Mais Z (a) est FT a -mesurable, alors il su¢ t d’obtenir la loi P g; de Z (a) : Cependant, g; dP dQ j FT a = NTg a 0T a Z s @ = exp dXs2 g Xs ; LX s 0 = exp N1 1 hN i1 2 Section 3.2. Théorème de Ray-Knight pour X 1 et X 2 1 2 ZT 0 a 1 s g 2 Xs ; LX dsA s Chapitre 3. Mouvement Brownien Excité 46 (a) (a) alors, par le théorème de Cameron-Martin, sous P g; ; Y~x Yx D E R x (a) de variation quadratique Y~ = Zz dz: De (3:16) et (3:21), x N (a) ; Y (a) x est une martingale, 0 Zx(a) = 2Yx(a) + 2x Zx 1+f z = 2Y~x + 2 a; Zz(a) dz; 0 la proposition 1.2.5 a¢ rme qu’il existe un mouvement brownien W issu de 0 tel que Zx D E1=2 (a) Y~x(a) = Y0 + d Y~ dWz x 0 à partir de laquelle (3:20) suit immédiatement. Un résultat analogue pour X 1 a lieu: Pour a 0 et 0 a, soit x (1);a x Zx(a) = LTa (3.22) ; est le processus de temps local de X 1 et Ta = inf ft : Xt1 = ag le premier où nous rappelons que L(1);: : temps d’atteinte de X 1 en a. Rappelons aussi que la loi de X 1 est P g;+ : (a) Proposition 3.2.1 Le processus Zx ; x 2 [0; a] est un processus de Markov non homogène issu de 0 solution de l’EDS : dZx(a) = 2 Zx(a) avec 3.3 1=2 d x +2 1 x; Zx(a) f a dx: (3.23) un mouvement Brownien. Drift homogène, comportement asymptotique Dans le reste de cette section, nous supposons que g ne dépend pas de x: 3.3.1 Critère de récurrence Notez que le Théorème de Ray - Knight (Proposition 3.2.1) implique que, pour a > 0, nous avons (1);a x (a) Corollaire 3.3.1 (Ray–Knight). Le processus Zx = LTa 0 de générateur d2 L = 2z 2 + 2 (1 dz f (z)) ; x 2 [0; a] est une di¤usion issu de d ; dz (3.24) Ainsi Z (a) résoud l’EDS suivante : dZx(a) = 2 Zx(a) avec 1=2 d x +2 1 f Zx(a) un mouvement Brownien. Section 3.3. Drift homogène, comportement asymptotique dx: (3.25) Chapitre 3. Mouvement Brownien Excité 47 Preuve. On a, f (z) = Zz g (u) du; 0 Zz 0 jf (z) f (z )j = g (u) du z0 z0j : K jz les coe¢ cients satisfont les conditions du théorème de Yamada-Watanabe (Théorème 1.3.4), l’unicité trajectorielle prise pour (3:25), et en conséquence (Théorème 1.3.2) l’unicité en loi prise pour (3:25). On peut appliquer (Théorème 1.3.1) pour prouver qu’il existe une solution de (3:25) où au moins on peut, si le coe¢ cient de di¤usion N 1=2 2 (x+ ) (x) est borné. Toutefois, en replacant ( ) par ( ^ N ) ; On peut appliquer (Théorème 1.3.1) pour prouver l’existence d’une solution () solution Z N de dZxN = 2 ZxN 1=2 d x + 2 1 + f ZxN dx: par (Théorème 1.3.4) il y a unicité trajectorielle, et cette solution donne une solution de (3:25) pour tout s inf t : ZtN > N ; on peut passé de Z N vers une solution Z de (3:25). Comme la solution faible existe, et il y a unicité trajectorielle, par (Théorème 1.3.2) l’EDS (3:25) est exacte, d’où par (Théorème 1.3.3), la solution est un processus de Markov fort, et en conséquence une di¤usion unidimensionnelle. Dans la suite, Z désigne une di¤usion issue de 0 de générateur L. Alors (Zx ; 0 x (a) Zx ; 0 x a et a) ont même loi.. Comme remarqué dans [[28] Théorème 3], la di¤usion Z admet une mesure invariante ; et d’après (1:32) la densité invariante L ( )= d2 [2x dz 2 (x)] d [2 (1 dz résoud l’équation di¤érentielle f (x)) (x)] = 0: (3.26) On peut réduire (3:26) à une équation di¤érentielle de premier ordre, [x d’où x (x)]0 = (1 f (x)) [x x 0 x Z (1 @ (x) = c exp 0 on trouve 0 (x) = c exp @ avec c une constante positive. Lorsque Zx 0 (x)] ; 1 f (l)) A dl ; l f (l) 1 dl A ; l est une mesure …nie, c est choisie de sorte que mesure de probabilité. Section 3.3. Drift homogène, comportement asymptotique (3.27) est une Chapitre 3. Mouvement Brownien Excité 48 Théorème 3.3.1 P g;+ (R) = 1 () Z1 0 0 Zx exp @ 0 (a) (1);0 Preuve. Supposons que P g;+ (R) = 1: Alors Za Ainsi Za (qui a même loi que récurrent positif, i.e. (a) Za ) f (l) dl A dx = +1: l (3.28) converge p.s. vers 1 lorsque a ! 1: LTa converge en probabilité vers 1: Il s’en suit que Z n’est pas n’est pas une mesure …nie. (a) (1);0 Supposons maintenant que P g;+ (R) = 0: Ainsi Za LTa (1);0 converge p.s. vers L1 (1);0 L1 : a ! 1: Il s’en suit que Za converge en probabilité vers positif, i.e. 1 < 1 quand Cela implique que Z est récurrent est une mesure …nie. Bien sûr, un résultat analogue vaut aussi pour X 2 . Le critère devient : 0 x 1 Z Z1 dl P g; (R) = 1 () exp @ f (l) A dx = +1: l (3.29) 0 0 En particulier, X (1) et X (2) ne peuvent pas être à la fois transitoire. (1);x Lemme 3.3.1 Let x transitoire), alors f x (a) 0g est une di¤usion de générateur L, et de distribution initiale : :x (1);a x Preuve. Zx = LTa 0: Supposons que Z est récurrent positif (alors X 1 est = L1 ; pour x étant réversible par rapport à (a) x (a) x = Za (voir, Proposition 1.4.1), alors (1);a (a x) = LTa (1);x = LTa est une di¤usion stationnaire de générateur L; et soient U une variable aléatoire independente de X 1 de loi . Le processus (a) x (a) x = résoud l’EDS Za x (a) s 2 1=2 d s +2 0 Za x 1+f (a) s ds; (3.30) 0 (a) et si ~x est la (unicité trajectorielle) solution de ~(a) x =U+ Za x 2 1=2 ~(a) s 0 d s +2 Za x (a) 1 + f ~s ds; 0 Comme il y a unicité trajectorielle pour tout EDS (3:25), on applique théorème de comparison (Théorème 1.3.5), (a) P g;+ ~x (a) x pour tout x 2 [0; a] = 1: Section 3.3. Drift homogène, comportement asymptotique Chapitre 3. Mouvement Brownien Excité n (a) o Mais ~x : 0 x a est une di¤usion stationnaire de générateur L; alors pour tout P g;+ sup sup a 0 x a (a) x = " lim P g;+ > sup a !1 0 x a a !1 fn x : x (a) x : 0 a ; qui est la même pour tout a x; 0 x a ! 1: Par conséquent, 0g resoud o la même EDS (3:30) comme x > 0; > (a) sup ~x > " lim P g;+ et qui tends vers 0 comme (a) x 49 (a) x = lima !1 (a) x est un processus continu, et ; avec des conditions initiales di¤érentes (chaque resoud le même problème de martingales , et le théorème de la convergence 1 dominée implique qu’il en est de même pour la limite) ; en e¤et, 8h 2 CK 2 3 Zx (a) Lh (a) lim 4h (a) h 0 du5 u x a !1 = h lim a !1 = h ( x) 0 (a) x h ( 0) h lim a !1 Zx (a) 0 Zx Lh 0 lim a !1 (a) u du Lh ( u ) du: 0 d’où, par (Théorème 1.3.3), la solution est un processus de Markov fort et est en conséquence une di¤usion unidimensionnelle.. 3.3.2 Loi des grands nombres Notre résultat suivant est la loi forte des grands nombres avec une expression explicite de la vitesse. Théorème 3.3.2 (i) supposons est une mesure de probabilité et notons par v la moyenne de R1 (i.e. v = 0 x (x) dx 2 [0; 1]). Alors P~ g p:s: t (ii) supposons Xt1 1 = : !1 t v lim (3.31) est une mesure in…ni. Alors P~ g -p.s: t Preuve. Prenons v = 1 quand Xt1 = 0: !1 t lim (3.32) est une mesure in…ni. On va prouver d’abord que (dans tous les cas) : TK K ! v; P~ g -p.s. Section 3.3. Drift homogène, comportement asymptotique (3.33) Chapitre 3. Mouvement Brownien Excité quand K ! 1: Fixons N 50 1: Comme g est bornée, [K=N ] 1 X TN (i+1) K i=1 1 TK K [K=N ] 1 X Ui ; K i=1 TN i (3.34) où Ui sont des variables aléatoires i.i.d. de même distribution que TN (Ui est le temps passé dans [N (i) ; N (i + 1)] entre les instants TN (i) et TN (i+1) ). Maintenant, en notant E l’espérence par rapport à P~ g , on a : i h (1);0 (a) (3.35) E [Za ] = E Za = E LTa est une fonction croissante en a: Par le théorème de la convergence monotone E [Za ] converge vers E [Z1 ] v: On montre que E [Za ] < 1 pour tout a (comme g est bornée, alors 2 (1 + f (z)) est dominé par c (1 + z) pour une certaine constante positive c) utilisant (3:25) ; Za = 2 Za 0 Za 2 Za Za 1=2 (Zx ) d x +2 (1 + f (Zx )) dx +2 c (1 + z) dx; 0 (Zx )1=2 d x 0 0 d’où, 0 E @2 E (Za ) ainsi pour tout N Za 0 1 c (1 + z) dxA < 1; 1; et d’aprés la formule des temps d’occupation (2:5), P~ g -preque sûrement, ZTN 0 (1) On a pour tout s 2 [0; TN ] ; 0 Xs 1n0 (1) Xs N o ds = ZN (1);a LTN da: 0 N; d’où TN = ZTN 0 1n0 (1) Xs N o ds et par suite E [TN ] = ZN 0 E h (1);a LTN i da = ZN E [Za ] da N E [ZN ] < +1: 0 D’aprèt la Loi des grands nombres [K=N ] 1 X 1 Ui converge p.s.vers E [TN ] : K i=1 N Section 3.3. Drift homogène, comportement asymptotique (3.36) Chapitre 3. Mouvement Brownien Excité 51 Donc (3:34) montre que [K=N ] 1 X lim inf Ui K !1 K i=1 1 lim inf TK K !1 K 1 E [TN ] N ZN 1 E [Za ] da: N = 0 Laissons N ! 1; on obtient d’après (1:31) 1 TK K lim inf K !1 (3.37) v: Ainsi on peut conclure quand v = 1: Supposons maintenant que v < 1: Alors par lemme 3.3.1 (1);a a = L1 est un di¤usion de générateur L avec une distrubition initiale : On a ZK TK = ZK (1);a LTK da 0 a da; 0 Ainsi que lim sup K !1 1 TK K (3.38) v; par le théorème ergodique pour les di¤usions recurrentes positives (voir, Théorème 1.4.5). Avec (3:37) ce qui prouve (3:33) : Notons que pour tout t 2 (TN ; TN +1 ) : Xt1 t N +1 : TN (3.39) La loi des grands nombres suit immédiatement quand v = 1: Supposons maintenant que v < 1: Comme g est bornée, pour tout N , (Xt1 ; t TN ) domine un mouvement brownien avec dérive kf k1 issu de N et absorbé en 0. Donc pour tout " > 0; ils existe c > 0 et C > 0 tels que P g;+ pour tout N inf t2(TN ;TN +cN ) Xt1 < (1 ") N C exp ( cN ) ; 1: Alors on a P~ g -p.s. inf t2(TN ;TN +cN ) pour tout N assez grand. De plus comme limN Xt1 !1 (1 ") N; TN =N = v; on a TN +1 (3.40) TN = o (N ) : Alors p.s. pour N assez grand inf t2(TN ;TN +1 ) Xt1 (1 ") N; Section 3.3. Drift homogène, comportement asymptotique (3.41) Chapitre 3. Mouvement Brownien Excité 52 Donc p.s. pour tout N assez grand et t 2 (TN ; TN +1 ) ; Xt1 t (1 ") N TN +1 : Par (3:33), TN vN p.s: et par (3:39) on peut conclure. Ici aussi, un résultat analogue pour X 2 : On a P~ g -p.s. Xt2 t où v0 = Z1 0 1 2 ! 1 ; v0 (3.42) 2 x 3 Z dl x exp 4 f (l) 5 dx: l 0 Comme nous avons déjà vu, X et X ne peuvent pas être à la fois transitoire. Mais supposons, par exemple que X 1 est transitoire et X est récurrent. Alors pour t assez grand Xt1 = Xt+U , où U est la variable aléatoire …nie égal au temps total passé par X dans la partie négative. Ainsi X satisfait la même loi de grands nombres que de X 1 , à savoir p.s. Xt t 3.4 1 ! : v (3.43) conclusion Dans cet mémoire, on a étudié une version continue en temps des marches aléatoires excités ; “Mouvements Browniens Excités”, qui est un modéle des processus aléatoires qui interagissent avec leur trajectoire passée, et qui sont dé…nis par des équations di¤érentielles stochastiques. On a prouvé une loi 0-1 pour la recurrence, et on s’est intéressé au cas homogène, où on a trouvé un critère de récurrence général, ainsi qu’une loi des grands nombres avec une expression explicite de la vitesse. 3.4. conclusion Bibliographie [1] Amir G., Benjamini I, Kozma G. : Excited random walk against a wall, Probab. Theory and Related Fields 140, (2008), 83–102. [2] Azéma, J., Yor, M. (eds.) Temps locaux. Astérisque 52-53. Société Mathématique de France 1978 [3] Barlow, M.T. : L (Bt ; t) is not a semimartingale. Séminaire de Probabilités XVI, pp. 206-211. Berlin Heidelberg New York : Springer 1982 [4] Basdevant A.-L., Singh A. : On the speed of a cookie random walk, Probab. Theory Related Fields 141, (2008), 625–645. [5] Basdevant A.-L., Singh A. : Rate of growth of a transient cookie random walk, Electron. J. Probab. 13, (2008), 811–851. [6] Basdevant A.-L., Singh A. : Recurrence and transience of a multi-excited random walk on a regular tree, arXiv :0803.3284. [7] Benaïm M., Ledoux, M., Raimond, O. : Self-interacting di¤usions, Probab. Theory Relat. Fields 122(1), 1–41 (2002). [8] Benaïm, M., Raimond, O. : Self-interacting di¤usions II : convergence in law, Ann. Inst. H. Poincaré Probab. Statist. 39(6), 1043–1055 (2003). [9] Benaïm, M., Raimond, O. : Self-interacting di¤usions III : the symmetric case, Ann. Probab. 33(5), 1717–1759 (2005). [10] Benjamini I., Wilson D. B. : Excited random walk, Electron. Comm. Probab. 8 (electronic), (2003), 86–92. [11] Bérard J., Ramirez A. : Central limit theorem for the excited random walk in dimension d 2, Electron. Comm. Probab. 12, (2007), 303–314. [12] Cranston, M., Le Jan, Y. : Self-attracting di¤usions : two case studies, Math. Ann. 303, 87–93 (1995). [13] Dellacherie, C. et Meyer, P.A. Probabilités et potentiel (Théorie des martingales). Herman, Paris, 1980. 53 Bibliographie 54 [14] El-Karoui, N. et Chaleyat-Maurel, M. Un problème de ré‡exion et ses applications au temps local et aux équations di¤érentielles stochastiques sur R - cas continu. In : Temps Locaux, Astérisque Vol. 52/3, Soc. Math. France, 1977. [15] Herrmann, S., Roynette, B. : Boundedness and convergence of some self-attracting di¤usions, Math. Ann. 325(1), 81–96 (2003). [16] Ikeda, N., Watanabe, S. : Stochastic di¤erential equations and di¤usion processes. Amsterdam Tokyo : North Holland-Kodansha 1981 [17] Itô, K., McKean, H.P. : Di¤usion processes and their sample paths. Berlin Heidelberg New York : Springer 1965 [18] Jeulin, T. : Ray-Knight’s theorem on Brownian local times and Tanaka’s formula. In : Cinlar, E., Chung, K.L., Getoor, R.K. (eds.) Seminar on Stochastic Processes, 1983, pp. 131-142. Boston : Birkhauser 1984 [19] Karatzas, I, Shreve, S. : Brownian motion and stochastic calculus, Springer-Verlag. [20] Kosygina E., Zerner M. P. W. : Positively and negatively excited random walks on integers, with branching processes, preprint, arXiv :0801.1924. [21] Kozma G : Excited random walk in three dimensions has positive speed, arXiv :math/0310305. [22] Kozma G : Excited random walk in two dimensions has linear speed, arXiv :math/0512535. [23] Kurtzmann A. : Asymptotic behavior of Self-interacting Di¤usions on Rd , Ph.D. thesis, University of Neuchâtel, (2007). [24] McGill, P. Calculation of some conditional excursion formulae. Zeit. für Wahrscheinlichkeitstheorie 61, 255-260 (1982). [25] McGill, P. : Markov properties of di¤usion local times ; a martingale approach. Adv. Appl. Prob. 14, 789-810 (1982). [26] Mountford T., Pimentel L.P.R., Valle G. : On the speed of the one-dimensional excited random walk in the transient regime, ALEA Lat. Am. J. Probab. Math. Stat. 2, (2006), 279–296 (electronic). [27] Norris, J.R., Rogers, L.C.G., Williams, D. : An excluded volume problem for Brownian motion. Phys. Letters A 112, 16-18 (1985) [28] Norris J.R., Rogers L.C.G., Williams D. : Self-avoiding random walk : a Brownian motion model with local time drift, Probab. Theory Related Fields 74, (1987), 271–287. [29] Oksendal. B., Stochastic di¤erential equations, Springer, 2000. [30] Pemantle R. : A survey of random processes with reinforcement, Probab. Surv. 4 (electronic), (2007), 1–79. Bibliographie Bibliographie 55 [31] Raimond O., Schapira B. : Excited Brownian motions, arXiv :0810.3538v2. [32] Revuz D., Yor M. : Continuous martingales and Brownian motion, Springer-Verlag, third ed. (1999). [33] Rogers, L.C.G., Williams, D. : Di¤usions, Markov processes, and martingales, vol. 2. Chichester : Wiley 1987 [34] Stroock, D.W., Varadhan, S.R.S. : Multidimensional di¤usion processes. Berlin Heidelberg New York : Springer 1979. [35] Tôth B. : Self-interacting random motions, Proceedings of the 3rd European Congress of Mathematics, Barcelona 2000, vol. 1, pp. 555-565, Birkhauser, (2001). [36] Tôth B., Werner W. : The true self-repelling motion, Probab. Theory Related Fields 111, (1998), 375–452. [37] Volkov S. : Excited random walk on trees, Electron. J. Probab. 8, (2003), 15 pp. (electronic). [38] Walsh, J.B. Excursions and local time. In : Temps Locaux, Astérisque Vol. 52/3, Soc. Math. France, 1977. [39] Williams, D. : Markov properties of Brownian local time. Bull. Am. Math. Soc. 75, 1055-56 (1969) [40] Williams, D. Conditional excursion theory. In : Séminaire de Probabilité XIII, Lect. Notes in Math. 721, Springer-Verlag, Berlin and New York, 1979. [41] Zerner M. P. W. : Multi-excited random walks on integers, Probab. Theory Relat. Fields 133, (2005), 98–122. [42] Zerner M. P. W. : Recurrence and transience of excited random walks on Zd and strips, Electron. Comm. Probab. 11, (2006), 118–128 (electronic). Bibliographie