EXERCICES DE PROBABILITES M2IF Evry, 2011-2012

publicité
EXERCICES DE PROBABILITES
M2IF Evry, 2011-2012
Monique Jeanblanc
Université d’EVRY
June 10, 2011
Les solutions doivent être retournées à Evry avant le 1 septembre, par courrier postal au nom
Monique Jeanblanc, Département de mathématiques, Rue du Père Jarlan, 91025 EVRY Cedex. Vous
pouvez aussi envoyer un fichier pdf à l’adresse
[email protected]
Si vous ne rendez pas ces exercices, ou si les solutions ne sont pas satisfaisantes, votre
inscription ne sera pas validée. Ce devoir constitue un travail personnel de mise à niveau.
Les auteurs de devoirs rédigés en commun (tout ou partie) ne seront pas admis à suivre
le M2IF.
Les outils qui seront présentés dans le cours de calcul stochastique seront utilisés dans tous les cours
de Finance. Il est donc indispensable que vous ayez une maitrise des outils probabilistes de base. Ces
devoirs de vacances constituent donc un test. Il est important que vous sachiez les résoudre (ne sous
traitez pas leur résolution). Si ce n’est pas le cas, mettez vos connaissances à jour, en particulier en
lisant le chapitre 1 du cours disponible sur
http://www.maths.univ-evry.fr/pages_perso/jeanblanc/cours/M2_cours.pdf
et en résolvant les exercices correspondant à ce chapitre, que vous trouverez (énoncés et corrigés) sur
http://www.maths.univ-evry.fr/pages_perso/jeanblanc/cours/M2-exo.pdf
Le chapitre 1 du polycopié ne sera pas repris en cours, il constitue les prérequis en probabilités.
Certains exercices sont en anglais, il m’a paru superflu de les traduire. N’oubliez pas que non-positive
(resp. non-increasing) signifie négatif (resp. décroissant).
Parfois, la solution de l’exercice n a un lien avec l’exercice k. N’oubliez pas de le signaler. Pour ceux
d’entre vous qui possèdent des connaissances de calcul stochastique, tout commentaire liant un exercice
avec un résultat de calcul stochastique connu est bienvenu.
Les solutions de ce devoir qui seront rédigées avec un traitement de texte type Tex, Latex seront appréciées. Vous aurez obligatoirement durant l’année scolaire à vous familiariser avec de tels traitements
de texte, prenez de l’avance! Ne pas utiliser Word, cela constituerait une perte de temps.
Certains exercices ne sont PAS à rédiger: vous devez savoir les résoudre, mais je ne vous demande
pas de les rédiger. Cependant, je considérerai que la résolution est acquise et je m’y référerai souvent
durant le cours.
Dans de nombreux exercices, on utilise ce qui suit:
Une filtration F = (Fn , n ≥ 0) à temps discret est une suite de tribus Fn telles que Fn ⊂ Fn+1 , une
suite (Xn , n ≥ 0) de v.a. est dite F adaptée si, pour tout n, la v.a. Xn est Fn mesurable.
Une v.a. τ , à valeurs dans IN ∪ ∞ est un temps d’arrêt si, pour tout n, {τ ≤ n} ⊂ Fn .
Une filtration à temps continu est une famille de tribus (Ft , t ≥ 0) telles que Fs ⊂ Ft pour s < t, une
famille (Xt , t ≥ 0) de v.a. (un processus) est dite F-adaptée si, pour tout t, la v.a. Xt est Ft mesurable.
Une v.a. τ , à valeurs dans R+ ∪ ∞ est un temps d’arrêt si, pour tout t, {τ ≤ t} ⊂ Ft .
1. Exercice sur les lois exponentielles et les lois de Poisson (NE PAS REDIGER)
(a) If X has a Poisson law with parameter θ > 0, prove that
(i) for any s ∈ R, E[sX ] = eθ(s−1) .
1
2
(ii) E[X] = θ, var (X) = θ.
(iii) for any u ∈ R, E(eiuX ) = exp(θ(eiu − 1))
(iv) for any α ∈ R, E(eαX ) = exp(θ(eα − 1))
(b) Let Xn be the sum of n independent exponential r.v’s of parameter λ. Compute the law of
Xn and E(e−µXn )
(c) Let Ti be a family of independent exponential random variables with parameter λ and, for
any t > 0
n
X
Nt = inf{n ≥ 1 :
Ti > t}
i=1
Prove that Nt has a Poisson distribution.
(d) Let τ be an exponential random variable with parameter λ. Prove that 11τ ≤t − λ(t ∧ τ ) is a
martingale
Pn
(e) Soit (Xi , i ≥ 1) une suite de v.a. indépendantes, de même loi et Sn = i=1 Xi .
i. Montrer que (Sn − nE(X1 ), n ≥ 1) est une martingale
ii. Calculer la fonction caractéristique de Sn .
2. Variables gaussiennes (NE PAS REDIGER) Soit X une v.a. de loi N (m, σ 2 ).
(a) Montrer que E(eθX f (X)) = emθ+σ
2 2
θ /2
E(f (X + θσ 2 )) pour f continue bornée.
(b) Montrer que, si f est "régulière" E(f (X)(X − m)) = σ 2 E(f 0 (X)).
(c) Montrer que E(eλX ) = exp(λm + 12 λ2 σ 2 ). En déduire les moments de eX , les moments de X
et E(XeλX ). On admettra que si Y est une v.a. telle que E(eλY ) = exp(λa + 12 λ2 b2 ) pour
tout λ, Y est une v.a. gaussienne dont on précisera les paramètres. Donner une justification
de ce résultat.
Z x
y2
(d) Soit N (x) = √12π
e− 2 dy. Calculer, dans le cas m = 0 et σ = 1 la valeur de
−∞
E(11X≤b exp(λX)) en fonction de (N , λ, b).
(e) Let G be
a Gaussian random variable, and, for any t ∈ R+ , define the random variable
√
St = eG t . Prove that the function t → E((St − 1)+ ) is a cumulative distribution function
of some r.v. Z; identify the law of Z.
(f) Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0.
(g) Soit (X, Y ) un vecteur Gaussien. Calculer E(X|Y ) et, pour une fonction Φ régulière,
E(Φ(X)|Y ). Quelle est la loi conditionnelle de X par rapport à Y ?
(h) Soit (Xn , n1 ) une suite de v.a. gaussiennes. On suppose que cette suite converge dans L2 .
Démontrer soigneusement que la limite est gaussienne (ne vous contentez pas de dire c’est
un résultat connu)
3. Fonctions génératrices (NE PAS REDIGER)
Soit X P
une v.a. à valeurs dans IN . La fonction génératrice de X est la fonction f définie par
∞
f (s) = n=0 sn P(X = n).
(a) Calculer E(X) et Var(X) en fonction de f . Montrer que si deux v.a. ont même fonction
génératrice, elles sont égales en loi.
(b) Soit X et Y deux v.a. de fonction génératrice f et g. Déterminer la fonction génératrice de
X +Y.
(c) Soit Xn , X des v.a. de fonctions génératices fn et f . Montrer que si fn (s) → f (s) pour tout
s ∈]0, 1[, alors Xn converge en loi vers X
(d) Soit Yi une famille de v.a. i.i.d. de fonction génératrice g et N une v.a. indépendante des Yi ,
PN
de fonction génératrice f . Déterminer la fonction génératrice de Z = i=1 Yi (pour N = 0,
on pose Z = 0.
4. Divers, NE PAS REDIGER
3
Pn
(a) Soit (Xn , n ≥ 1) une suite de v.a. indépendantes centrées telles que Sn := 1 Xi forme une
suite de Cauchy dans L2 (la norme L2 étant kXk = (E(X 2 ))1/2 ). Montrer que Sn converge
dans L2 (soit: il P
existe S ∈ L2 telle que E((Sn − S)2 ) converge vers 0). Montrer que E(Sn2 )
∞
converge vers E( 1 Xi2 ) < ∞. En déduire que Xn converge p.s. vers 0.
Pn
(b) Soient (Xn , n ≥ 1) des v.a. Fn = σ(X1 , X2 , . . . , Xn ) et Sn = i=1 Xi , S0 = 0. Montrer que
Fn = σ(S1 , . . . , Sn )
(c) Soit a un réel donné et τ = inf{n : Sn ≥ a} et où l’inf d’un ensemble vide est ∞. Montrer
que τ est un temps d’arrêt. Donner un exemple explicite oú τ = ∞. Soit m fixé et gm =
sup{n ≤ m : Sn ≤ 0} et dm = inf {n ≥ m : Sn ≤ 0} Les v.a. g et d sont-elles des temps
d’arrêt?
5. Martingales, Surmartingales (NE PAS REDIGER)
(a) Soit (Zn , 0 ≤ n ≤ N ) une famille de v.a. On définit (Un , 0 ≤ n ≤ N ) par
UN
Un
=
=
ZN
max(Zn , E(Un+1 |Fn )), n ≤ N − 1
i. Montrer que U est une surmartingale telle que ∀n, Un ≥ Zn .
ii. Montrer que si Y est une autre surmartingale telle que ∀n, Yn ≥ Zn alors ∀n, Un ≤ Yn
iii. Soit τ = inf{n : Zn = Un }. Montrer que Un∧τ est une martinjgale.
(b) Soit Un une surmartingale. Montrer qu’il existe une martingale M et un processus A croissant
(An ≤ An+1 ) tel que An soit Fn−1 mesurable et que Un = Mn − An . Montrer l’unicité sous
la condition A0 = 0.
(c) Soit M une martingale. Les processus M 2 et |M | sont-ils des sur/sous martingales?
Soit A un processus croissant(Ft )-adapté. Le processus A est-il une sur/sous martingale? ,
Soit A un processus croissant non (Ft )-adapté. Le processus E(At |Ft ) est-il une sur/sous
martingale?
6. Martingales à temps discret. NE PAS REDIGER
) tel que X0 = x (constante) et X1 est
(a) Un exemple : On considère un processus X = (X0 , X1P
n
une v.a. telle que P(X1 = xi ) = pi , i = 1, . . . , n avec i=1 pi = 1.
i. Soit n = 2. Trouver une condition sur les pi telle que X soit une martingale.
ii. Soit n = 3. Déterminer l’ensemble P de tous les pi tels que X soit une martingale.
iii. Soit n = 3, et X à valeurs positives. Déterminer supP E((X1 −K)+ ) et inf P E((X1 −K)+ )
(b) Soit (Ω, F, P un espace de probabilité muni d’une filtration discrète F = (Fn , n ≥ 0) et une
suite (Ln , n ≥ 0) de v.a. F adaptées, positives
i. Sous quelles conditions la mesure Qn définie sur Fn par Qn (An ) = E(Ln An ) est -elle
une probabilité? Montrer que Qn (Ap ) = Qp (Ap ) pour Ap ∈ Fp et p < n est vérifiée si et
seulement si (Ln , n ≥ 0) est une martingale
ii. Soit (XPn , n ≥ 1) une suite de v.a. F adaptées, i.i.d. de loi gaussienne N (µ, 1) et
n
Sn = e i=1 Xi , n ≥ 0. Sous quelle condition la suite Sn , n ≥ 0 est -elle une martingale.
Montrer qu’il existe une suite de v.a. Ln telles que Sn soit une Q martingale, où Q est
définie sur F = ∪Fn par ∀An ∈ Fn , Q(An ) = Qn (An ).
7. Pour les étudiants ayant suivi un cours sur le MB (ce point figurant dans le CV) résoudre a). Pour
les autres, résoudre b)
Rt
(a) Soit W un mouvement Brownien. Soit t fixé. Montrer que Xt = 0 Ws ds existe. Calculer
l’espérance et la variance de cette v.a. Calculer E(Xt Xs ). Quelle est la loi de la v.a. Xt ?
Calculer E(eλXt |Fs )
Pn
(b) Soient (Xn , n ≥ 1) des v.a. indépendantes de loi N (mi , σi2 ) et Sn =
i=1 Xi . Calculer
l’espérance et la variance de cette v.a. Calculer E(Sn Sm ). Quelle est la loi de la v.a. Sn ?
Calculer E(eλSn |Fm )
4
8. Un premier pas vers le risque de crédit
R t Soit λ une fonction déterministe à valeurs positives
et Θ une v.a. positive. On note τ = inf{t : 0 λ(s)ds ≥ Θ}
(a) Calculer la loi de τ si Θ a une loi exponentielle, et si Θ a une loi uniforme. Dans la suite Θ
a une loi exponentielle de paramètre 1.
(b) Calculer P(τ ≤ T |τ < t), E(11τ ≤T |τ ) et P(τ ≤ T |τ > t)
R t∧τ
(c) Montrer que 11τ ≤t − 0 λ(s)ds est une martingale
(d) On suppose que λ est un processus F adapté et que Θ est indépendant de F∞ . Calculer la
loi de τ et P(τ < T |Ft )
(e) (NE PAS REDIGER) Let qi be a non-increasing function taking values in [0, 1]. The
random times τi , i = 1, · · · , n) are defined as the first time that qi (t) reaches a uniformly
distributed threshold Ui on [0; 1], i.e. τi = inf{t : qi (t) < Ui }. Prove that qip
(t) = P(τi > t).
Let Y1 , · · · , Yn and Y be independent random variables and Xi = ρi Y + 1 − ρ2i Yi . The
default thresholds are defined by Ui = 1 − Fi (Xi ) where Fi is the cumulative distribution
function of Xi . Prove that
Ã
!
Fi−1 (1 − qi (t)) − ρi Y
Yi
p
P(τi ≤ t|Y ) = F
1 − ρ2i
Consider the particular case where
q
Xi = ρi Y +
1 − ρ2i Yi ,
where Y, Yi , i = 1, 2, . . . , n, are independent, standard Gaussian variables under the probability measure P . Prove that
!
Z Y Ã −1
N (Fi (ti )) − ρi y
p
N
f (y)dy .
P(τi ≤ ti , ∀i ≤ n) =
1 − ρ2i
i
where f is the density of Y .
9. Martingales
(a) Let X be a stochastic process. We denote by FX its natural filtration. The process is
said to have independent increments if, for any pair (s, t) of positive numbers Xt+s − Xt is
independent of FtX . Prove the following results
i. If E(|Xt |) < ∞, then the process Xt − E(Xt ) is a martingale.
ii. For any u, the process Zt (u) :=
iii. If E(eλXt ) < ∞ , the process
eiuXt
E(eiuXt )
λXt
e
E(eλXt )
is a martingale.
is a martingale
The process is said to have stationary increments if, for any pair (s, t) of positive numbers
Xt+s − Xt has the same law as Xs . Prove that, for any n ≥ 1, E(eitX1 ) = ϕn (t) where ϕ is
a characteristic function(depending on n).
Rt
(b) Soit a un processus F-adapté continu (borné) et Fet ⊂ Ft . Montrer que E( 0 as ds|Fet ) −
Rt
e martingale.
E(as |Fes )ds est une F
0
(c) Soit (Mt , t ≥ 0) une F-martingale
i. Soit G = (Gt , t ≥ 0) une filtration telle que Ft ⊂ Gt , ∀t. Le processus M est-il une
G-martingale?
ii. Soit H = (Ht , t ≥ 0) une filtration telle que Ht ⊂ Ft , ∀t. Le processus E(Mt |Ht ) est-il
une H-martingale
iii. Sous quelles conditions la somme (resp. le produit) de martingales est-elle une martingale?
(d) Soit (Mt , t ≥ 0) une F-martingale de carré intégrable (telle que Mt2 soit d’espérance finie,
pour tout t).
5
i.
ii.
iii.
iv.
Montrer que E((Mt − Ms )2 |Fs ) = E(Mt2 |Fs ) − Ms2 pour t > s.
Montrer que E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) pour t > s.
Montrer que la fonction Φ définie par Φ(t) = E(Mt2 ) est croissante.
Le processus Y défini par Yt = Mt2 est-il une sur-martingale (ou une sous-martingale)
10. Changement de probabilité Ce thème sera central en vue d’application à la finance. On donne
ici quelques définitions et propriétés (admises ) dans un cas simple et on propose des exercices.
Deux probabilités P et Q définies sur le même espace (Ω, F) sont dites équivalentes si elles ont
mêmes ensembles négligeables, c’est à dire si
P(A) = 0 ⇐⇒ Q(A) = 0.
On admet le résultat: Si P et Q sont équivalentes, il existe une variable Y , strictement positive, Fmesurable, d’espérance 1 sous P appelée densité de Radon-Nikodym telle que dQ = Y dP ou encore
R
dQ
Q(A) = A Y dP. On écrit également cette relation sous la forme
= Y . Réciproquement, si Y
dP
est une v.a. strictement positive, F-mesurable, d’espérance 1 sous P, la relation EQ (Z) = EP (ZY )
définit une probabilité Q équivalente à P. Elle est facile à mémoriser par la règle de calcul formel
suivante:
Z
Z
Z
dQ
EQ (Z) = ZdQ = Z
dP = ZY dP = EP (ZY )
dP
dP
1
= .
dQ
Y
Si Y est seulement positive, on a P(A) = 0 =⇒ Q(A) = 0 et on dit que Q est absolument continue
par rapport à P.
On a aussi
(a) Soit (Ω, (Fn ), P un espace de probabilité muni d’une filtration discrète (c’est-à-dire une suite
de tribus Fn telles que Fn ⊂ Fn+1 et une suite Ln de v.a. F adaptés (telles que Ln est Fn
mesurable), positives
i. Sous quelles conditions la mesure Qn définie sur Fn par Qn (An ) = E(Ln An ) est -elle
une probabilité? Montrer que Qn (Ap ) = Qp (Ap ) pour Ap ∈ Fp et p < n est vérifiée si et
seulement si Ln , n ≥ 1 est une martingale
ii. Soit
Pn (Xn , n ≥ 1) une suite de v.a. F adaptés, i.i.d. de loi gaussienne N (µ, 1) et Sn =
e i=1 Xi , n ≥ 0. Sous quelle condition la suite Sn , n ≥ 0 est -elle une martingale. Montrer
qu’il existe une suite de v.a. Ln telles que Sn soit une Q martingale
(b) Soit (X, Y ) un couple de v.a. admettant une densité f (x, y) strictement positive. On définit
1
la mesure Q par Q(A) = E(11A f (X,Y
) ) pour tout A ∈ σ(X, Y ). Montrer que Q est une mesure
de probabilité. Déterminer la loi de X sous Q (par exemple, en calculant Q(X ≤ x), mais il
y a des méthodes plus astucieuses) Montrer que sous Q, les v.a. X et Y sont indépendantes
(c) Montrer que si P est une probabilité et Z une v.a., telle que l’égalité dQ = ZdP (soit
Q(A) = EP (Z11A )) définit une probabilité, alors EP (Z) = 1 et P(Z < 0) = 0.
(d) Soit U une variable de Bernoulli sous P définie par
P(U = 0) = 1 − p,
P(U = 1) = p.
Soit Y la variable définie par Y = λU + µ(1 − U ). Dans quels cas cette variable est elle
d’espérance 1? Soit dQ = Y dP, Calculer Q(U = 1). Quelle est la loi de U sous Q?
(e) Soit X est une v.a. de loi N (m, σ 2 ) sous P et soit Y = exp{h(X − m) − 21 h2 σ 2 }. Soit
dQ = Y dP. Calculer EQ {exp(λX)}) = EP {Y exp(λX)}. En déduire la loi de X sous Q.
(f) Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U ) soit
1
gaussien. On pose dQ = Y dP avec Y = exp(U − EP (U ) − VarP U ). Montrer que X est
2
gaussien sous Q, de même covariance que sous P.
6
(g) Soit P une probabilité et Q une probabilité équivalente à P définie par dQ = LdP. Montrer que
l’on peut exprimer l’espérance conditionnelle d’une variable sous Q en fonction de l’espérance
conditionnelle sous P :
EP (LX |G)
EQ (X |G) =
.
EP (L |G)
11.
Espérance conditionnelle. L’espérance conditionnelle E(X |G ) de X quand G est l’unique
variable aléatoire
a. G-mesurable
b. telle que E[E(X |G )Y ] = E(XY ) pour toute variable Y , G-mesurable bornée.
Démontrer les propriétés suivantes (ces propriétés seront admises dans le cours de M2):
(a) Linéarité. Soit a et b deux constantes. E(aX + bY |G ) = aE(X |G ) + bE(Y |G ).
(b) Croissance. Soit X et Y deux v. a. telles que X ≤ Y . Alors E(X |G ) ≤ E(Y |G ).
(c) E[E(X |G )] = E(X).
(d) Si X est G-mesurable, E(X |G ) = X.
(e) Si Y est G-mesurable, E(XY |G ) = Y E(X |G ).
(f) Si X est indépendante de G, E(X |G ) = E(X).
(g) Si G est la tribu grossière (composée de l’ensemble vide et de Ω), E(X|G) = E(X).
(h) Si G et H sont deux tribus telles que H ⊂ G alors E(X |H ) = E(E(X |H) |G ) = E(E(X |G ) |H ).
(i) Si (X, Y ) sont indépendantes, et φ une fonction borélienne bornée, E(φ(X, Y )|Y ) = [E(φ(X, y))]y=Y .
(j) Soit A ∈
/ G et A ∈ F et X une v.a. intégrable. On note H la tribu engendrée par G et A.
On admettra que les v.a. Z qui sont H-mesurables s’écrivent Z = Y1 11A + Y2 11Ac , où les v.a.
Yi sont G-mesurables. Montrer que
E(X|H) =
E(X11A |G)
E(X11Ac |G)
11A +
11Ac
E(11A |G)
E(11Ac |G)
12. Divers
(a) CET EXERCICE EST INDISPENSABLE Soit b un nombre réel. On note (x)+ la
partie positive de x, soit x+ = sup(x, 0). Calculer, en terme de fonction de répartition de la
loi gaussienne la quantité C(a) = E((aeX − b)+ ). Calculer la dérivée de C(a).
2
(b) Soient N et N 0 deux v.a. de loi N (0, 1), indépendantes. Montrer que E(exp a2 N 2 ) =
E(exp aN N 0 ).
(c) Somme
aléatoire Soit (Xi , i ≥ 1) une suite de v.a. indépendantes, de même loi et Sn =
Pn
X
.
i=1 i Soit N une v.a. de loi de Poisson, indépendante des Xi .
i. Calculer E(SN ).
ii. Calculer la fonction caractéristique de SN .
13. Mouvement Brownien Dans cet exercice, W est un mouvement Brownien.
(a) Montrer que, pour 0 < s < t < 1 on a E(Wt − Ws |W1 − Ws ) =
t−s
1−s (W1
− Ws ).
(b) Parmi les processus suivants, quels sont ceux qui sont un MB
i. Xt = 2(W1+t/4 − W1 )
ii. Yt = W2t − Wt
iii. (1 + t)Ut/(t+1) avec Us = Ws − sW1 , pour s ∈ [0, 1].
(c) Soit X et Y deux processus continus, θ un nombre réel et
Ut = sin(θ)Xt + cos(θ)Yt
Vt = cos(θ)Xt − sin(θ)Yt
Montrer que U et V sont des MB indépendants si et seulement si X et Y sont des MB
indépendants.
Téléchargement