Ann´ee Acad´emique 2023-2024
cours de Processus stochastiques MPSE 2-ISSP
Universit´e Joseph KI-ZERBO / Burkina Faso 1Pr Issa ZABSONRE ©2023
Table des mati`eres
1 Introduction au processus stochastiques 2
1.1 G´en´eralit´es ....................................... 2
1.2 Rappels sur l’esp´erance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Chaˆınes de Markov 6
2.1 Construction et d´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Propri´et´es ´el´ementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Propri´et´e de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Classesd´etats ..................................... 13
2.5 Op´erateur potentiel et nature des classes d’´etats . . . . . . . . . . . . . . . . . . 14
2.6 Th´eor`emesergodiques ................................. 18
2.7 P´eriodicit´e, convergence des lois marginales . . . . . . . . . . . . . . . . . . . . . 22
2.8 R´eversibilit´e, algorithme de Metropolis . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9 Extension `a un espace d’´etats continu . . . . . . . . . . . . . . . . . . . . . . . . 27
3 Martingales 29
3.1 G´en´eralit´es ....................................... 29
3.2 Tempsdarrˆet...................................... 32
3.3 Th´eor`eme d’arrˆet : le cas born´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 D´ecompositiondeDoob ................................ 37
3.5 In´egalit´esmaximales.................................. 39
3.6 Convergence dans L2(et plus g´en´eralement Lp, p > 1)............... 42
3.7 Interlude : urnes de Polya . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.8 Convergence : r´esultats plus g´en´eraux . . . . . . . . . . . . . . . . . . . . . . . . 46
3.9 Deuxi`eme interlude : processus de branchement . . . . . . . . . . . . . . . . . . . 49
3.10 Martingales eguli`eres et th´eor`eme d’arrˆet . . . . . . . . . . . . . . . . . . . . . . 50
4 Processus en temps continu 53
4.1 Processus ponctuels, processus de Poisson . . . . . . . . . . . . . . . . . . . . . . 53
4.1.1 Pr´eliminaires : loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.2 Les processus de Poisson comme processus ponctuels . . . . . . . . . . . . 54
4.1.3 Cas E=R+.................................. 55
4.2 G´en´eralisation aux processus Markovien en temps discret . . . . . . . . . . . . . 57
4.3 Mouvementbrownien.................................. 57
4.3.1 Processusgaussiens .............................. 57
4.3.2 Mouvementbrownien ............................. 58
1
Chapitre 1
Introduction au processus
stochastiques
1.1 G´en´eralit´es
Dans tout le cours, on consid`erera un espace probabilis´e (Ω,F,P), un espace mesurable (E, E)
et un ensemble T.
D´efinition 1.1.1. On appelle processus stochastique, ou processus al´eatoire, une famille (Xt)t∈T
de variables al´eatoires `a valeurs dans E. Autrement dit, pour tout t T , l’application ωXt(ω)
est une application mesurable de (Ω,F)dans (E, E). On appelle E l’espace d’´etats du processus.
Remarque 1.1.2. En pratique, on utilise souvent les processus pour de la moelisation dy-
namique : Xtest la valeur d’une variable d’int´erˆet `a la date t. L’ensemble Trepr´esente alors
l’ensemble des dates possibles.
D´efinition 1.1.3. Lorsque T=Nou T=Zon dit que (Xt)t∈T est un processus `a temps
discret. Lorsque T=R, ou un intervalle de R, on parle de processus `a temps continu.
Exemple 1.1.4. Un exemple `a temps discret : soit Xtle PIB d’un pays `a l’ann´ee t(donc
E=mathbbR+). En revanche, en finance, les prix des actifs, devises, ... sont mises `a jour avec
une fr´equence tellement ´elev´ee qu’on pr´ef`ere utiliser une moelisation `a temps continu : soit Xt
le cours EURO/DOLLAR `a la date t,tmesur´ee en heures avec t= 0 correspondant au 1er
janvier 1999 `a 0h.
2
CHAPITRE 1. INTRODUCTION AU PROCESSUS STOCHASTIQUES
On peut donc voir un processus comme une fonction de deux variables :
× T E
(ω, t)7→ Xt(ω)
qui doit v´erifier la condition que, pour tfix´e, (ω, t)7→ Xt(ω) est mesurable (autrement dit, Xt
v´erifie bien la d´efinition de variable al´eatoire). A ωfix´e, la fonction t7→ Xt(ω) s’appelle une
trajectoire du processus.
D´efinition 1.1.5. On appelle filtration une suite (Ft)t∈T de σ-alg`ebres v´erifiant
st⇒ Fs⊂ Ft⊂ F.
Remarque 1.1.6. Explication sur cette notion : quand on observe un processus au cours du
temps, `a la date t, on connaˆıt les valeurs de Xspour stmais on ne connaˆıt pas encore les
valeurs de Xspour s>t. En terme de conditionnement, ¸ca veut dire qu’on sera souvent amen´e `a
conditionner par les variables (Xs)st, ou de fa¸con ´equivalente par la σ-alg`ebre Ft:= σ(Xs, s
t). On v´erifie imm´ediatement que (Ft)t∈T est une filtration, on l’appelle filtration canonique.
Donc, l’id´ee d’une filtration (Ft)t∈T est de repr´esenter l’information disponible `a la date t.
On peut se poser la question naturelle : pourquoi introduire un concept g´en´eral de filtration plutˆot
que d’utiliser toujours la filtration canonique ? D’un point de vue intuitif : `a la date t, on peut
avoir plus d’informations que les valeurs pass´ees (Xs)st. Dans l’exemple o`u Xtest le PIB d]un
pays `a l’ann´ee t, `a la fin de l’ann´ee t, on connaˆıt certes le PIB de ce pays `a l’ann´ee t, mais
aussi le PIB des USA, des autres pays de la zone euro, le cours du p´etrˆole, les diff´erents taux
de change, etc. qui peuvent donner de l’information sur les valeurs futures du PIB de la France.
D’un point de vue plus formel, on peut avoir plusieurs processus d´efinis sur le mˆeme (Ω,F,P),
par exemple (Xt)t∈T et (Yt)tT, et la consid´erer la filtration (Ft)t∈T =σ(Xs, Ys, s t)qui n’est
pas la filtration canonique pour le processus (Xt).
D´efinition 1.1.7. Le processus (Xt)t∈T est dit adapt´e `a la filtration (Ft)t∈T si pour tout t∈ T
,Xtest Ft-mesurable.
Exemple 1.1.8. Dans cet exemple T=N, soit (εt)tNune suite de variables al´eatoires i.i.d de
loi N(0,1),(α, β)tR2,X0= 0 et
Xt+1 =αXt+β+εt.
Ce processus est ´etudi´e dans le cours de s´eries temporelles sous le nom de processus autor´egressif
(AR). On d´efinit (Ft)t∈T =σ(εs, s t)la filtration canonique pour (εt)tN. On peut v´erifier de
fa¸con triviale que le processus (Xt)tNest adapt´e `a la filtration (Ft)tN.
On peut maintenant annoncer le plan du cours. Dans les Chapitres 2 et 3, on n’´etudiera que
des processus `a temps discret avec T=N.
Au chapitre 2, on ´etudiera les chaˆınes de Markov, d´efinies par la propri´et´e
L(Xt+1|Ft) = L(Xt+1|Xt)
(o`u Lse lit ”loi de”, l`a encore, une d´efinition formelle viendra plus tard). On se restreindra au
cas o`u E est fini ou d´enombrable.
Au chapitre 3, on ´etudiera les martingales, c’est-`a-dire la classe des processus `a valeurs dans
E=Rv´erifiant la relation
E(Xt+1|Ft) = Xt
Universit´e Joseph KI-ZERBO / Burkina Faso 3Pr Issa ZABSONRE ©2023
1 / 61 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !