Liste d`exercices 1

publicité
M1: EXERCICES DE PROBABILITÉS 1
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
1. Espérance conditionnelle
Exercice 1. Soient X1 et X2 deux variables aléatoires indépendantes, de loi de Poisson
de paramètre λ. Soit Y = X1 + X2 . Calculer
P (X1 = i|Y ).
Exercice 2. Soit (X, Y ) un vecteur de R2 distribué uniformément sur le disque fermé de
rayon unité. Calculer la densité conditionnelle de X étant Y .
Exercice 3. Le vecteur aléatoire (X, Y ) a pour densité
x
1
fX,Y (x, y) = √ exp(− x(y − x))1{x>0} 1{y>0} .
2
2π
Déterminer la densité conditionnelle de Y sachant X = x.
Exercice 4. Soit (X, Y ) un couple de variables aléatoires de densité jointe
f (x, y) = 4y(x − y) exp(−(x + y))10≤y≤x .
4.1. Calculer E[X|Y ].
4.2. Calculer P (X < 1|Y ).
Exercice 5. Soient X1 et X2 deux variables aléatoires telles que X1 = X2 sur B ∈ F.
Montrer que
E[X1 |F] = E[X2 |F]
p.s. sur B.
Exercice 6. On considère un jeu de pile ou face, où la probabilité d’obtenir pile (resp.
face) est p (resp. 1 − p), 0 < p < 1. Un joueur A effectue une série de lancers ; il gagne
dès que le nombre de pile dépasse de deux unités le nombre de fois où l’on a obtenu face.
Il perd si le nombre de face dépasse de deux unités le nombre de fois où l’on a obtenu
pile. Le jeu s’arrête lorsque A a gagné ou perdu .
6.1. Soit En l’événement: "le jeu continue après 2n lancers", n ≥ 1. Montrer que P (En ) =
rn où r est un réel que l’on déterminera.
6.2. Calculer la probabilité pour que le joueur A gagne et montrer que le jeu s’arrête.
Exercice 7. Soit N une v.a. à valeurs dans {0, 1, ..., n}; on note αk = P (N = k). On
considère (n ; n ≥ 0) une suite de v.a. indépendantes, de même loi: P (0 = 1) = p; P (0 =
0) = q , avec p + q = 1, p > 0, q > 0. On suppose que N est indépendante de la famille
P
(n ; n ≥ 1). On définit alors la v.a. X par la relation: X = N
k=1 k .
7.1. Calculer la loi de X. Exprimer
• E[X] à l’aide E[N ].
• E[X 2 ] à l’aide E[N ] et E[N 2 ].
1
2
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
7.2. Soit p0 ∈]0, 1[. Déterminer la loi de N pour que la loi conditionnelle de N sachant
X = 0 soit la loi binomiale B(n, p0 ).
Exercice 8. On considère les relations:
1
2−n
P (X = 0) = ;
P (X = 2n ) = P (X = −2n ) =
;
∀n ≥ 1.
3
3
8.1. Montrer que les relations (1) définissent une loi de probabilité d’une v.a.r. X.
(1)
8.2. On introduit la probabilité de transition:
1
1
Q(0, .) = (δ2 + δ−2 ),
Q(x, .) = (δ0 + δ2x ),
x ∈ R∗ ,
2
2
où δa désigne la mesure de Dirac en a. Soit Y une seconde v.a.r. telle que la loi conditionnelle de Y sachant X est donnée par la probabilité de transition Q. Montrer alors
que E(Y |X) = X et Y et X ont même loi.
Exercice 9. Soient X et Y deux v.a.r. indépendantes et de loi uniforme sur [0, 1]. On
pose U = inf{X, Y } et V = sup{X, Y }. Calculer E[U |V ] et la meilleure prédiction de U
par une fonction affine de V .
Exercice 10. Soit G ∈ G. Montrer que
R
P (A|G)dP
P (G|A) = RG
.
P (A|G)dP
Ω
Il s’agit de la version générale de la formule de Bayes.
Exercice 11. Soient X et Y deux variables aléatoires telles que X ≤ Y , et a > 0.
11.1. Montrer que E[X|F] ≤ E[Y |F].
11.2. Montrer que
E[X 2 |F]
.
a2
Exercice 12. On note Bn l’ensemble des boréliens de Rn , et soit Sn l’ensemble des
boréliens symétriques A de Rn , i.e. −A = A.
P (|X| ≥ a|F) ≤
12.1. Montrer que Sn est une sous-tribu de Bn et qu’une v.a. Y est Sn -mesurable si et
seulement si Y (−x) = Y (x).
12.2. On dit qu’une probabilité P sur (Rn , Bn ) est symétrique si P (A) = P (−A) pour
tout A appartenant à Bn . Montrer que si φ est une v.a.r. positive ou intégrable par
rapport à P sur Rn , on a: E[φ|Sn ](x) = 21 (φ(x) + φ(−x)).
12.3. On suppose n = 1 et on note X l’application identité de R dans R. Déterminer
E[φ||X| = x] et E[φ|X 2 = x].
Exercice 13. Donner un exemple sur Ω = {a, b, c} pour lequel
E [E[X|F1 ]|F2 ] 6= E [E[X|F2 ]|F1 ] .
Exercice 14. Soient X et Y deux variables aléatoires.
14.1. Montrer que si X et Y sont indépendantes, alors E[X|Y ] = E[X].
14.2. Donner un exemple de variables aléatoires à valeurs dans {−1, 0, 1} telles que X
et Y ne sont pas indépendantes, alors que E[X|Y ] = E[X].
M1 PROBAS - LISTE 1
3
Exercice 15. Soient n ≥ 1 un entier fixé et p1 , p2 , p3 trois réels positifs vérifiant p1 + p2 +
p3 = 1. On note
pi1 pj2 p3n−i−j
pi,j = n!
i! j! (n − i − j)!
lorsque i + j ≤ n et pi,j = 0 sinon.
15.1. Montrer qu’il existe un couple de v.a. (X, Y ) tel que P (X = i, Y = j) = pi,j .
15.2. Déterminer la loi de X, celle de Y et la loi de Y sachant X = i.
15.3. Calculer E[XY ].
Exercice 16. Soient X1 , X2 ,P
..., Xn , n v.a.r. intégrables, indépendantes et de même loi.
On note m = E[X1 ] et Sn = ni=1 Xi .
16.1. Calculer E[Sn |Xi ] pour tout i, 1 ≤ i ≤ n.
16.2. Calculer E[Xi |Sn ] pour tout i, 1 ≤ i ≤ n.
16.3. On supposera que n = 2 et que les v.a. Xi ont une densité commune ϕ. Calculer
la densité conditionnelle de Xi sachant S2 . Poursuivre les calculs lorsque Xi suit une loi
exponentielle.
Exercice 17. Soient X et Y deux v.a.r., Y de loi exponentielle. On suppose que la loi
de X conditionnellement à Y = y est une loi de Poisson de paramètre y.
17.1. Calculer la loi du couple (X, Y ), celle de X, et la loi de Y sachant X = n.
17.2. Montrer que E[(Y − X)2 ] = 1, en conditionnant par rapport à Y , puis par rapport
à X (on rappelle que que si ξ suit une loi γa,b et α est une v.a. géométrique de paramètre
p, alors E[ξ] = ab, V arξ = ab2 , E[α] = 1/p, V arα = (1 − p)/p2 ).
Exercice 18. Soient X1 , X2 , ..., Xn , n v.a.r. indépendantes, admettant p comme densité
commune.
18.1. Montrer que pour tout i 6= j, P (Xi = Xj ) = 0. On note alors X(1) , X(2) , ..., X(n) la
suite {X1 , X2 , ..., Xn } ordonnée par ordre croissant:
X(1) < X(2) < ... < X(n) .
18.2. Montrer que X(1) , X(2) , ..., X(n) admet pour densité
f (x1 , x2 , ..., xn ) = n! p(x1 )p(x2 )...p(xn )1{x1 <x2 <...<xn }
18.3. On suppose à présent que la loi commune des Xi est la loi uniforme sur [a, b].
(1) Déterminer la densité de (X(1) , X(n) ).
(2) On note µn (a, b; x1 , x2 , ..., xn ) la densité de X(1) , X(2) , ..., X(n) . Montrer que conditionnellement à X(1) = x1 et X(n) = xn le vecteur X(2) , X(3) , ..., X(n−1) a pour
densité µn−2 (x1 , xn ; x2 , x3 , ..., xn−1 ). En déduire que
X(n−1) − X(1)
X(2) − X(1)
,...,
X(n) − X(1)
X(n) − X(1)
est une v.a. indépendante de (X(1) , X(n) ) et a pour densité µn−1 (0, 1; .).
Exercice 19. On considère un espace mesurable (Ω, F) et {Ai ; i ≤ n} des collections de
parties de Ω telles que Ai ⊂ F.
4
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
19.1. Montrer que si les Ai sont indépendantes et forment chacune un π-système, alors
les σ(Ai ) sont indépendantes.
19.2. Soit {Xi ; i ≤ n} une collection de variables aléatoires réelles. Montrer que ces
variables aléatoires sont indépendantes si et seulement si
Y
P (X1 ≤ x1 , . . . , Xn ≤ xn ) =
P (Xi ≤ xi )
i≤n
pour tout n-uplé (x1 , . . . , xn ) ∈ Rn .
2. Chaînes de Markov
Exercice 20. Soit (E, E) un espace dénombrable muni de la σ-algèbre de ses parties, π
une probabilité de transition de E vers E, ν une mesure de probabilité sur (E, E). On
pose
X
νπ(A) =
ν(y)π(y, A),
A ∈ F.
y∈E
Montrer que νπ est une mesure positive sur (E, E). Expliciter νπ(f ) lorsque f : (E, E) −→
(R+ , B+ ). Donner une interprétation de νπ. Vérifier: (νπ)π 0 = ν.(ππ 0 ), π 0 désignant une
seconde probabilité de transition de E vers F.
Exercice 21. Soit (Xn ; n ≥ 0) une chaîne de Markov sur (E, E), de loi initiale µ et de
probabilité de transition π. Montrer que si r et s sont deux entiers tels que r ≥ 1 et s > 1,
alors les deux processus (Xn+r ; n ≥ 0) et (Xsn ; n ≥ 0) sont des chaînes de Markov.
Exercice 22. On suppose que le temps qu’il fera demain dépend des deux jours précédents. On fait de plus les hypothèses suivantes:
(1) S’il a plu les deux jours précédents (état 0), il pleuvra demain avec probabilité 0.7,
(2) S’il a plu aujourd’hui mais pas hier (état 1), il pleuvra demain avec probabilité
0.5,
(3) S’il a plu hier mais pas aujourd’hui (état 2), il pleuvra demain avec probabilité
0.4,
(4) S’il n’a pas plu les deux jours précédents (état 3), il pleuvra demain avec probabilité
0.2.
22.1. Montrer que cette situation peut etre modélisée par une chaîne de Markov.
22.2. Sachant qu’il a plu lundi et mardi, quelle est la probabilité qu’il pleuve jeudi?
Exercice 23. Soit (ξn ; n ≥ 0), une suite de v.a., indépendantes et équidistribuées, à
valeurs dans un espace dénombrable E. On pose:
Xn = (ξn , ξn+1 ); n ≥ 0.
23.1. Montrer que (Xn ) est une chaîne de Markov.
23.2. Calculer π 2 , où π désigne la matrice de transition de (Xn ), interpréter ce résultat.
Exercice 24. Soient (Xn ; n ≥ 0) une chaîne de Markov sur (E, E), de probabilité de
transition π, et f : (E, E) −→ (F, F).
24.1. Montrer que (f (Xn ); n ≥ 0) est une chaîne de Markov, lorsque f est bijective.
24.2. Montrer que ((Xn , f (Xn )); n ≥ 0) une chaîne de Markov.
M1 PROBAS - LISTE 1
5
24.3. On suppose E = Z, X0 = 0, π(x, x+1) = π(x, x−1) = 1/2. Vérifier que le processus
(|Xn |; n ≥ 0) est une chaîne de Markov.
Exercice 25. Soit (Xn ; n ≥ 0) une chaîne de Markov sur S = {0, 1}, de probabilité de
transition
1−α
α
β
1−β
et de mesure initiale µ. Montrer que
β
β
n
Pµ (Xn = 0) =
+ (1 − α − β) µ(0) −
.
α+β
α+β
Exercice 26. Soit {ξj ; j ≥ 1} une suite de variables iid, uniformes sur E = {0, . . . , N }.
On pose Xn = (ξ1 , . . . , ξn ). Montrer que {Xn ; n ≥ 1} est une chaîne de Markov inhomogène, dont on calculera la probabilité de transsition.
Exercice 27. Soit {ξj ; j ≥ 1} une
P suite de variables iid, à valeurs dans Z, de loi symétrique
par rapport à 0. On pose Xn = j≤n ξj , avec X0 = 0. On cherche à montrer ici le principe
de réflexion pour cette marche aléatoire: si a > 0, on a
P0 sup Xm > a ≤ 2P0 (Xn > a) .
(2)
m≤n
On définit pour cela une suite de variables aléatoires {Ym (ω); m ≥ 1} par
Ym (ω) = 1(m≤n, ωn−m >a) .
On pose aussi
N = inf{l ≤ n; Xl > a},
avec la convention inf(∅) = ∞.
27.1. Montrer que, si y > a, on a Ey [Ym ] ≥ 12 .
27.2. Montrer que YN ◦ θN = 1(Xn >a) .
27.3. Montrer que (N < ∞) = (N ≤ n) et que sur (N < ∞), on a
1
E0 [YN ◦ θN |FN ] ≥ .
2
27.4. Déduire (2) des deux questions précédentes.
Exercice 28. Soit (Xn ; n ≥ 0) une chaîne de Markov sur (E, E), de probabilité de transition π. On note Fn = σ(X0 , X1 , ..., Xn ). Une fonction f : (E, E) −→ (R, R) est dite
invariante ou harmonique pour π si
X
X
|f (y)|π(x, y) < K
et
f (y)π(x, y) = f (x),
E
E
pour tout x de E.
P
28.1. Soit f une fonction harmonique vérifiant de plus E |f (y)|ν(y) < ∞, où ν est la
loi de X0 . Montrer que (f (Xn ); n ≥ 0) est une Fn - martingale.
28.2. On suppose que E est fini et contient deux états absorbants a et b: π(a, a) =
π(b, b) = 1. On note σ(x) = inf{n ≥ 0; Xn = x} et T = σ(a) ∧ σ(b).
(1) Montrer: P ({Xn = c; ∀n ≥ 0}|X0 = c) = 1 lorsque c = a ou b.
6
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
(2) On suppose que π(x, {a, b}) > 0, pour tout x de E. On note:
= inf{π(x, {a, b}); x ∈ E, x 6= a, x 6= b}
An = {Xi 6= a, Xi 6= b, pour tout 0 ≤ i ≤ n}.
Démontrer que P (An |X0 = x) ≤ (1 − )n . En déduire Px (T < ∞) = 1 pour tout
x de E.
28.3. On suppose Px (T < ∞) = 1 pour tout x de E. Soit f une fonction harmonique
pour π, bornée et telle que f (a) 6= f (b). Calculer les deux probabilités d’absorption en a
et b:
ρx,a = P (XT = a|X0 = x) , ρx,b = P (XT = b|X0 = x)
28.4. Etudier le cas particulier où E = {1, 2, 3, ..., n}, π(1, 1) = 1, π(n, n) = 1, π(i, i+1) =
π(i, i − 1) = 1/2 pour 2 ≤ i ≤ n − 1, n étant un entier supérieur à 3.
Exercice 29. Dessiner le graphe, et classifier les états pour les chaînes de Markov dont
les probabilités de transition sont données ci-dessous:


0 1/2 1/2
1/2 0 1/2
1/2 1/2 0


0
0 0 1
 0
0 0 1


1/2 1/2 0 0
0
0 1 0


1/2 0 1/2 0
0
1/4 1/2 0 1/4 0 


1/2 0 1/2 0
0 


 0
0
0 1/2 1/2
0
0
0 1/2 1/2
Exercice 30. Nous allons, dans cet exercice, étudier la transience la récurrence de
marches aléatoires sur Zd : soit (Yn ; n ≥ 0) une suite v.a. indépendantes et à valeurs
dans Zd . On suppose queP
les v.a. Yn ont pour tout n ≥ 1 la même loi ν. La chaîne associée est (Xn ), où Xn = 0≤i≤n Yi . On note π la probabilité de transition. On rappelle
aussi que
X
π(x, y) = ν(y − x), π n (x, y) = ν ∗n (y − x), U (x, y) =
ν ∗n (y − x),
n≥0
où U désigne le potentiel de (Xn ), ν ∗n est la puissance n-ième de la convolution. En
particulier U (x, x) = U (0, 0), pour tout x de Zd . Les points sont donc simultanément
récurrents ou transients.
P
30.1. On suppose que ν admet un moment d’ordre un que l’on note: m = k∈Zd kν(k).
Montrer que si m 6= 0 la chaîne est transiente, ce qui permet de retrouver le cas n =
1, ν = pδ1 + qδ−1 avec p 6= q, q = 1 − p.
30.2. On souhaite à présent étudier le cas d’une marche aléatoire à valeurs dans Z2 , telle
que m = 0. On choisit ν = 41 (δ(0,1) + δ(0,−1) + δ(1,0) + δ(−1,0) ). On note αn (resp. βn )
l’abcisse de Xn .
M1 PROBAS - LISTE 1
7
(1) Montrer que αn + βn possède la même parité que n. En déduire: π n (0, 0) = 0 si n
est impair.
(2) Démontrer la formule:
n
1 2n X
1 2n 2n!
n−k
2n
2k k
n
π (0, 0) =
C2n C2k C2n−2k =
C2n
2
4
4
(n!)
k=0
On pourra faire intervenir les déplacements horizontaux et verticaux.
(3) Sachant que
√
n! ∼n→∞ 2π nn+1/2 e−n ,
en déduire que π 2n (0, 0) est équivalent à
1
πn
lorsque n → ∞. Conclure.
Exercice 31. On considère un jeu se déroulant de la manière suivante: supposons que le
joueur dispose d’une fortune initiale égale à z euros, avec z ∈ N. A chaque instant n, il
tire au hasard (de manière indépendante du passé) un entier ` ∈ {1, 2, 3}. Alors
• Si ` = 1, le joueur ne gagne rien et ne perd rien.
• Si ` = 2, le joueur double sa fortune.
• Si ` = 3, le joueur perd toute sa fortune.
On note Xn la richesse du joueur à l’instant n.
31.1. Montrer que pour tout n ∈ N, Xn+1 peut s’écrire
Xn+1 = 2Xn 1(ξn+1 =2) + Xn 1(ξn+1 =1) ,
où les variables aléatoires {ξk ; k ≥ 1} sont indépendantes, de loi uniforme sur {1, 2, 3}.
31.2. Montrer que {Xn ; n ≥ 0} est une chaîne de Markov.
31.3. Calculer la matrice de transition de Xn , que l’on notera π = (πi,j ).
(n)
31.4. On désigne par πi,j les éléments de la matrice π n . Montrer par récurrence que,
pour tout i ∈ N, et n ≥ 1, on a
n
Cnj
2
(n)
(n)
j
πi,j (i, 2 i) = n
.
pour j ∈ {0, . . . , n},
et πi,j (i, 0) = 1 −
3
3
31.5. En déduire la nature les états de la chaîne.
31.6. On désigne par σ0 le premier instant non nul, pour lequel la richesse du joueur
s’annule. Déterminer, pour tout état initial z et pour tout n ∈ N, la quantité Pz (σ0 = n).
Montrer que σ0 suit une loi géométrique de paramètre 31 .
Exercice 32. On joue à pile ou face, avec probabilité p d’obtenir face. Les jets sont
indépendants. On convient de dire que l’on se trouve dans l’état E1 à l’instant n si l’on a
tiré face aux temps n et n − 1; on note d’une manière analogue E2 = (P, P ), E3 = (P, F )
et E4 = (F, P ).
32.1. Montrer que la suite des jets constitue une chaîne de Markov, dont on donnera sa
matrice de transition.
32.2. Trouver la probabilité de passer de l’état Ei à l’état Ej pendant le laps de temps k.
32.3. Calculer la distribution stationnaire. Que peut-on dire quant à la récurrence de la
chaîne?
8
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
Exercice 33. On considère la matrice

1/3 2/3
2/3 1/3

0
 0

0
 0
1/4 0
1/6 1/6
stochastique Π:

0
0
0
0
0
0
0
0 

1/4 3/4 0
0 

1/5 4/5 0
0 
1/4 0 1/4 1/4
1/6 1/6 1/6 1/6
d’une chaîne de Markov à valeurs dans E = {1, 2, 3, 4, 5, 6}.
33.1. Déterminer la décomposition des états récurrents de E en classes fermées.
33.2. Montrer que Π peut s’écrire sous la forme:


A 0 0
 0 B 0
U1 V1 T
où A, B, U1 , V1 et T sont des matrices carrées que l’on déterminera.
33.3. Soient C, C1 et C2 les trois matrices carrées d’ordre deux, suivantes:
1−p
p
C=
α
1−α
C1 définie par
C1 =
et
α p
α p
C2 =
p −p
−α α
Vérifier que
Cn =
1
(1 − α − p)n
C1 +
C2 .
α+p
α+p
33.4. Montrer que Πn vaut:

 n
A
0
0
 0 Bn 0 
Un Vn T n
33.5. Calculer An , B n et T n . Ecrire une relation de récurrence satisfaite par Un et Vn (on
ne demande pas de calculer Un et Vn ).
33.6. Soit α le temps d’arrêt: α = inf{n ≥ 1; Xn ∈ {1, 2}}. On pose λn = P5 (α =
n), An = {Xn ∈ {1, 2}}.
(1) Après avoir établi que P5 (α ≤ n) = P5 (Xn ∈ {1, 2}), vérifier: Πn (5, 1)+Πn (5, 2) =
λ1 + λ2 + ... + λn .
(2) Montrer que la suite d’événements (An ) est croissante et que: λn = 41 Πn−1 (5, 5) +
1 n−1
Π (5, 6). En déduire la valeur de λn .
3
33.7. Rechercher les probabilités invariantes.
Exercice 34. Soit (Xn ), une chaîne de Markov à valeurs dans N, de probabilité de
transition Π: Π(n, n + 1) = ρ, Π(n, 0) = 1 − ρ pour tout n ≥ 0, où 0 < ρ < 1. On note
T0 le temps d’arrêt défini par T0 = inf{n ≥ 1; Xn = 0}.
M1 PROBAS - LISTE 1
9
34.1. Calculer la loi de T0 lorsque X0 = 0. En déduire que la chaîne est récurrente et
irréductible.
34.2. Pour tout entier k, on note:
ξ(k) = E0 [
TX
0 −1
1{Xn =k} ].
n=0
Vérifier que la relation précédente définit une mesure invariante.
Exercice 35. Dans cet exercice, Xn désigne le nombre de particules présentes à l’instant
n dans un volume V donné. On suppose que pendant le laps de temps [n, n + 1[, chacune
des Xn particules a la probabilité p (0 < p < 1) de quitter la région V , et que pendant
cet intervalle de temps, un nombre aléatoire de particules, suivant une loi de Poisson
de paramètre λ entre dans V . On admet que les différents phénomènes aléatoires ainsi
considérés sont indépendants les uns des autres.
35.1. Montrer que (Xn ) est une chaîne de Markov de probabilité de transition:
x
X
Cxk
Q(x, y) =
pk (1 − p)x−k λy−x+k e−λ
(y − x + k)!
k=(x−y)+
35.2. Calculer directement E[eitX1 |X0 = x].
35.3. En déduire la fonction caractéristique de X1 lorsque X0 suit une loi de Poisson
P(θ). Montrer ensuite que P(λ/p) est une mesure invariante.
35.4. Montrer que (Xn ) est une chaîne irréductible, récurrente et positive.
35.5. Quelle est la limite de X n , lorsque n tend vers l’infini?
Exercice 36. On considère une chaîne de Markov sur les sommets d’un triangle (on note
E = {1, 2, 3} cet espace d’état) définie par les règles suivantes: à chaque instant on se
déplace sur le sommet contigu en sens trigonométrique avec probabilité α et dans le sens
des aiguilles d’une montre avec probabilité 1 − α, où 0 < α < 1.
36.1. Ecrire la matrice de transition p de cette chaîne.
36.2. Calculer sa loi stationnaire ν.
36.3. Montrer que pour tout x, y ∈ E, on a limn→∞ pn (x, y) = ν(y). On pourra utiliser
le critère suivant: soit X une chaîne de Markov de transition p̂ irréductible récurrente sur
un espace fini E. S’il existe un m ≥ 1 vérifiant p̂m (x, y) > 0 pour tout x, y ∈ E, alors
limn→∞ p̂n (x, y) = µ(y), où µ est la probabilité invariante de X.
36.4. Calculer, pour toute loi initiale µ,
lim Pµ (Xn = 1, Xn+1 = 2) ,
n→∞
et
lim Pµ (Xn = 2, Xn+1 = 1) .
n→∞
36.5. Pour quelles valeurs de α la loi stationnaire est-elle réversible (voir définition à
l’exercice 37)?
Exercice 37. Lorsque l’espace E est fini mais grand, on est parfois amené, pour simuler
une variable aléatoire de loi fixée ν, à l’approcher en tant que loi stationnaire d’une chaîne
de Markov. On se propose ici d’étudier de manière théorique cet algorithme, appelé
algorithme de Metropolis. Soit donc p une matice de transition irréductible et symétrique.
10
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
Soit ν une mesure de probabilité sur E, telle que ν(x) > 0 pour tout x ∈ E. On définit
une nouvelle matrice de transition q sur E par


si ν(y) ≥ ν(x)
p(x, y)
ν(y)
si ν(y) < ν(x)
q(x, y) = p(x, y) ν(x)

P

1 − z6=x q(x, z) si y = x,
c’est-à-dire que l’on définit q(x, y) à l’aide des deux premières lignes pour y 6= x, puis
on en déduit la valeur de q(x, x).
37.1. On dit qu’une probabilité µ est réversible pour une matrice de transition p̂ sur E
si, pout tout x, y ∈ E, on a
µ(x)p̂(x, y) = µ(y)p̂(y, x).
(1) Montrer qu’une probabilité réversible est stationnaire.
(2) Montrer que ν est réversible pour q.
37.2. En utilisant le fait que p est irréductible, montrer que q est aussi irréductible.
37.3. On suppose que la mesure ν n’est pas uniforme. Soit M l’ensemble des états x de
E tels que ν(x) = maxy∈E ν(y).
(1) Montrer qu’il existe x0 ∈ M et y 6∈ M tels que p(x0 , y) > 0.
(2) En déduire qu’il existe au moins un z ∈ E tel que q(x0 , z) < p(x0 , z).
(3) Montrer que q(x0 , x0 ) > 0.
(4) Montrer que limn→∞ q n (x, y) = ν(y) pour tout x, y ∈ E. On pourra utiliser le
critère suivant: soit X une chaîne de Markov de transition p̂ irréductible récurrente sur un espace fini E. S’il existe un x ∈ E vérifiant p̂(x, x) > 0, alors
limn→∞ p̂n (x, y) = µ(y), où µ est la probabilité invariante de X.
3. Martingales
Exercice 38. Soit {Xn ; n ≥ 1} une martingale par rapport à une filtration Gn , et soit
Fn = σ{X1 , . . . , Xn }.
Montrer que Fn ⊂ Gn et que Xn est une Fn -martingale.
Exercice 39. On dit que f : Rd → R est sur-harmonique lorsque ∆f ≤ 0. Ces fonctions
vérifient
Z
f (x) ≥
f (y)dπ(y),
∂B(x,r)
où ∂B(x, r) = {y; |x − y| = r} est la frontière de la boule de centre x et de rayon r, et
π est la mesure de surface normalisée sur cette frontière. Soit f ≥ 0 sur-harmonique sur
Rd , et soit {ξn ; n ≥ 1} une suite de variables aléatoires iid de loi uniforme sur ∂B(0, 1).
On pose Sn = ξn + Sn−1 et S0 = x. Montrer que Xn = f (Sn ) est une sur-martingale.
Exercice 40. Soit {ξn ; n ≥ 1} une suite de variables aléatoires indépendantes telles que
E[ξj ] = 0. Posons
X
Xn =
ξi1 · · · ξik .
1≤i1 <...<ik ≤n
Montrer que X est une martingale.
Exercice 41. Soient {Xn ; n ≥ 1} et {Yn ; n ≥ 1} deux sous-martingales par rapport à Fn .
Montrer que Xn ∨ Yn est une sous-martingale.
M1 PROBAS - LISTE 1
11
Exercice 42. Soit {Yn ; n ≥ 1} une suite de variables iid positives telles que E[Yj ] = 1,
P (Yj = 1) < 1 et P (Yj = 0) = 0. On pose
Xn = Πj≤n Yj
42.1. Montrer que X est une martingale.
42.2. Montrer que limn→∞ Xn = 0 p.s.
Exercice 43. On se propose d’étudier un processus de branchement défini de la manière
suivante: soit {ξin ; i, n ≥ 1} une suite de variables aléatoires iid à valeurs entières. On
pose Z0 = 1 et pour n ≥ 0,
!
Zn
X
Zn+1 =
ξin+1 1Zn >0 .
i=1
Ce processus se nomme processus de Galton Watson, et représente le nombre de personnes
vivantes à chaque génération pour de nombreux modèles biologiques. On pose
Fn = σ{ξim ; 1 ≤ m ≤ n, i ≥ 1},
et µ = E[ξin ].
43.1. Montrer que
Zn
µn
est une Fn -martingale.
43.2. Montrer que
Zn
µn
converge p.s. vers une variable aléatoire Z∞ .
43.3. On suppose ici que µ < 1.
(1) Montrer que P (Zn > 0) ≤ E[Zn ].
(2) Montrer que Zn converge vers 0 en probabilité.
(3) Montrer que Zn = 0 pour n suffisamment grand.
43.4. On suppose maintenant que µ = 1 et P (ξin = 1) < 1.
(1) Montrer que Zn converge p.s. vers une variable aléatoire Z∞ .
(2) Supposons que P (Z∞ = k) > 0 pour k ≥ 0. Montrer qu’il existe alors N > 0 tel
que
P (Zn = k pour tout n ≥ N ) > 0.
(3) Montrer que P (Zn = k pour tout n ≥ N ) = 0 pour tout k > 0.
(4) En déduire que Z∞ = 0.
43.5. On suppose enfin que µ > 1, et on montrera que
P (Zn > 0 pour tout n ≥ 0) > 0.
On pose pour cela pk = P (ξin = k), et soit
∞
X
φ(s) =
pk sk ,
s ∈ [0, 1],
k=0
la fonction génératrice de ξin .
(1) Montrer que φ est croissante, convexe, et que lims→1 φ0 (s) = µ.
(2) Soit θm = P (Zm = 0). Montrer que θm = φ(θm−1 ).
(3) En utilisant le fait que φ0 (1) > 1, montrer qu’il existe au moins une racine de
l’équation φ(x) = x dans [0, 1). Soit ρ la plus petite de ces racines.
(4) Montrer que φ est strictement convexe, et en déduire que ρ est racine unique de
φ(x) = x dans [0, 1)
12
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
(5) Montrer que la probabilité d’extinction est telle que
P (Zn = 0 pour un certain n ≥ 0) = ρ < 1.
43.6. Galton et Watson s’intéressaient à la survivance des noms de famille. Supposons que
chaque famille a exactement trois enfants, et que la distribution des sexes est uniforme.
Dans l’Angleterre du 19ème siècle, seuls les garçons pouvaient garder leur nom de famille.
Calculer alors la probabilité de survie.
Exercice 44. Soit {Yn ; n ≥ 1} une suite de variables aléatoires indépendantes
Pn de même
loi normale N (0, σ 2 ), où σ > 0. On pose Fn = σ(Y1 , . . . , Yn ) et Xn =
i=1 Yi . On
rappelle que
2 2
uσ
E[exp(uY1 )] = exp
.
2
On pose aussi, pour u ∈ R∗ ,
1 2 2
u
Zn = exp uXn − nu σ .
2
44.1. Montrer que {Znu ; n ≥ 1} est une Fn -martingale pour tout u ∈ R∗ .
44.2. On se propose ici d’étudier la convergence presque sûre de Znu pour u ∈ R∗ .
(1) Montrer que pour tout u ∈ R∗ , Znu converge presque sûrement.
(2) Montrer que
1
1 2 2
Kn ≡
uXn − nu σ
n
2
converge presque sûrement, et déterminer sa limite.
(3) Trouver la limite presque sûre de Znu pour u ∈ R∗ .
44.3. On étudie ici la convergence de Znu dans L1 , pour u ∈ R∗ .
(1) Trouver limn→∞ E[Znu ].
(2) La martingale Znu converge-t-elle dans L1 ?
Exercice 45. A l’instant 1, une urne contient une boule verte et une boule bleue. On
tire une boule et on la remplace par deux boules de la même couleur que celle tirée, ce
qui donne une nouvelle composition de l’urne à l’instant 2. On répète alors le procédé
pour les instants successifs. On note Yn le nombre de boules vertes dans l’urne à l’instant
Yn
n, et Xn = n+1
la proportion de boules vertes à cet instant. On pose Fn = σ(Y1 , . . . , Yn ).
45.1. Montrer que E[Yn+1 |Fn ] = (Yn + 1)Xn + Yn (1 − Xn ).
45.2. Montrer que {Xn ; n ≥ 1} est une Fn -martingale convergeant presque sûrement vers
une variable aléatoire U .
45.3. En appliquant le théorème de la convergence dominée, montrer que pour tout k ≥ 1,
on a limn→∞ E[Xnk ] = E[U k ].
45.4. On fixe k ≥ 1. On pose alors, pour n ≥ 1,
Yn (Yn + 1) . . . (Yn + k − 1)
.
Zn =
(n + 1)(n + 2) . . . (n + k)
(1) En introduisant les variables aléatoires 1{Yn+1 =Yn } et 1{Yn+1 =Yn +1} , montrer que
{Zn ; n ≥ 1} est une Fn -martingale.
(2) Exprimer la limite presque sûre de Zn en fonction de la variable aléatoire U .
M1 PROBAS - LISTE 1
13
(3) En déduire la valeur de E[U k ].
(4) Montrer que ces moments sont ceux d’une loi U([0, 1]).
Exercice 46. Soit (Xn )n∈N une martingale intégrable relativement à une filtration Fn .
On suppose qu’il existe une constante M > 0 telle que ∀n ≥ 1
E |Xn − Xn−1 | Fn−1 ≤ M p.s.
46.1. Montrer que si (Vn )n≥1 est un processus positif et prévisible (i.e Vn est Fn−1 −mesurable)
alors
∞
∞
h
i
X
X
Vn E |Xn − Xn−1 |Fn−1 ≤ M
Vn .
n=1
n=1
46.2. Soit ν un temps d’arrêt intégrable. Montrer que Xν est intégrable et que Xν∧p
converge vers Xν dans L1 . En déduire que E(Xν ) = E(X0 ).
Indication : écrire
∞
X
Xν − Xν∧p =
1{ν∧p<n≤ν} (Xn − Xn−1 ) .
n=1
46.3. En déduire que si ν1 ≤ ν2 sont deux temps d’arrêt avec ν2 intégrable alors E[Xν2 ] =
E[Xν1 ].
Exercice 47. Soit (Yn )n≥1 une suite de variables aléatoires indépendantes de même loi
donnée
Ppar P (Yn = 1) = p = 1 − P (Yn = −1) = 1 − q. On définit (Sn )n∈N par S0 = 0 et
Sn = nk=1 Yk .
47.1. On suppose que p = q = 12 . On note par Ta = inf{n ≥ 0, Sn = a} (a ∈ Z∗ ).
Montrer que E(Ta ) = +∞.
47.2. Soit T = Ta,b = inf{n ≥ 0, Sn = −a ou Sn = b} (a, b ∈ N). Déduire de E(ST ) la
probabilité de l’événement (ST = −a).
47.3. Montrer que Zn = Sn2 − n est une martingale, déduire de E(ZT ) la valeur de E(T ).
47.4. On suppose que p > q et on pose µ = E(Yk ). Montrer que
Sn
q
Xn = Sn − nµ et Un =
p
sont des martingales. En déduire P (ST = −a) et E(T ).
4. Modèles discrets en finance
Exercice 48. On considère dans cet exercice le modèle de Cox, Ross et Rubinstein: l’actif
à risque unique a un prix Rn à l’instant n, et l’actif non risqué un prix Sn = (1 + r)n . On
fait les hypothèses suivantes sur le cours de l’actif risqué: entre deux périodes consécutives,
la variation relative des cours est soit a, soit b, avec −1 < a < b, c’est-à-dire que
Rn+1 = (1 + a)Rn
ou Rn+1 = (1 + b)Rn ,
n = 0, . . . , N − 1.
L’espace naturel des résultats possible est donc Ω = {1 + a, 1 + b}N , et on prend F0 =
{∅, Ω}, F = P(Ω), et Fn = σ(R1 , . . . , Rn ). On munit aussi Ω d’une probabilité P telle
n
que tous les singletons de Ω ont une probabilité non nulle. Posons Tn = RRn−1
, et notons
que Fn = σ(T1 , . . . , Tn ).
48.1. Montrer que le prix actualisé R̃n est une martingale si et seulement si E[Tn+1 |Fn ] =
1 + r.
14
ESPÉRANCE CONDITIONNELLE, CHAÎNES DE MARKOV, MARTINGALES
48.2. En déduire que, pour que le marché soit viable, il est nécessaire que r ∈ (a, b).
48.3. Donner un exemple d’arbitrage possible si r 6∈ (a, b).
b−r
48.4. On supposera pour toute la suite que r ∈ (a, b), et on pose p = b−a
. Montrer que R̃n
est une martingale sous P si et seulement si les variables aléatoires Tj sont indépendantes,
équidistribuées, de lois donnée par
P (Tj = 1 + a) = p = 1 − P (Tj = 1 + b).
En déduire que le marché est complet.
48.5. Soit Cn (resp. Pn ) la valeur, à l’instant n, d’un call (resp. d’un put) européen.
(1) Montrer que
Cn − Pn = Rn − K(1 + r)−(N −n) .
Cette relation générale est connue sous le nom de parité call-put.
(2) Montrer que Cn peut s ’écrire sous la forme Cn = c(n, Rn ), où c est une fonction
que l’on exprimera à l’aide de K, a, b, p.
48.6. Montrer que la stratégie de couverture parfaite d’un call est définie par une quantité
d’actif risqué Hn = ∆(n, Rn−1 ) à détenir à l’instant n, où ∆ est une fonction à exprimer
à partir de la fonction c.
Exercice 49. On considèrera dans cet exercice le modèle de Cox, Ross et Rubinstein dit
multinomial: l’actif à risque unique a un prix Rn à l’instant n, et l’actif non risqué un
prix Sn = (1 + r)n . On fait les hypothèses suivantes sur le cours de l’actif risqué: entre
deux périodes consécutives, pour k ≥ 3, la variation relative des cours est un élément de
l’ensemble {a1 , a2 , . . . , ak }, avec −1 < a1 < a2 < . . . < ak , c’est-à-dire que
Rn+1 = (1 + aj )Rn
avec j ∈ {1, 2, . . . , k},
n = 0, . . . , N − 1.
L’espace naturel des résultats possible est donc Ω = {1 + a1 , . . . , 1 + ak }N , et on prend
F0 = {∅, Ω}, F = P(Ω), et Fn = σ(R1 , . . . , Rn ). On munit aussi Ω d’une probabilité P
n
telle que tous les singletons de Ω ont une probabilité non nulle. Posons Tn = RRn−1
, et
notons que Fn = σ(T1 , . . . , Tn ). On notera
pn,j = P (Tn = 1 + aj ) ,
j ∈ {1, 2, . . . , k},
n = 0, . . . , N − 1.
49.1. Montrer que le prix actualisé R̃n est une P -martingale si et seulement si E[Tn+1 |Fn ] =
1 + r.
49.2. En déduire que, pour que le marché soit viable, il est nécessaire que r ∈ [a1 ; ak ].
49.3. Donner un exemple d’arbitrage possible si r < a1 .
49.4. On suppose pour le reste de l’exercice que
k
1X
r=
aj .
k j=1
Soit Q l’ensemble des probabilités Q sur Ω vérifiant
(i) Sous Q, la famille {Tn ; n ≤ N − 1} est une famille de varibles aléatoires indépendantes et identiquement distribuées.
(ii) R̃n est une Q-martingale.
M1 PROBAS - LISTE 1
15
(1) Soit Q(1) la probabilité définie sur Ω par: la famille de variables aléatoires {Tn ; n ≤
N − 1} est une famille de variables aléatoires indépendantes et identiquement
distribuées, de loi donnée par
1
Q(1) (Tn = 1 + aj ) = , j ∈ {1, 2, . . . , k}.
k
(1)
Montrer que Q ∈ Q.
(2) Montrer que Q possède une infinité d’éléments.
(3) En déduire que le marché n’est pas complet.
49.5. On travaillera ici sous la probabilité Q(1) . Soit Cn la valeur, à l’instant n, d’un
call européen de prix d’exercice K et d’échéance N . Montrer que Cn peut s’écrire sous la
forme Cn = c(n, Rn ), où c est une fonction que l’on exprimera à l’aide de K, a1 , . . . , ak .
On pourra utiliser la loi multinomiale, que l’on peut définir de la manière suivante: on
considère une urne contenant une proportion pj de boules de type j, pour j ∈ {1, . . . , k},
P
avec kj=1 pj = 1. On fait n tirages avec remise dans cette urne, et on note Xj le nombre
de boules de type j obtenu. Alors, pour tout j-uplé d’entiers naturels (n1 , . . . , nj ) tel que
Pk
j=1 nj = n, on a
n!
k
Y
j=1
nj ! j=1
P (X1 = n1 , . . . , Xk = nk ) = Qk
n
pj j .
La loi du vecteur (X1 , . . . , Xk ) se nomme loi multinomiale de paramètres (n, k, p1 , . . . , pk ).
Téléchargement