TD 8 – Espérance conditionnelle 1 Propriétés élémentaires des

publicité
ENS Paris, 2013/2014
Processus aléatoires
Bastien Mallein
Bureau V2
TD 8 – Espérance conditionnelle
31 mars 2014
Dans toute la suite, (Ω, F, P) représente un espace de probabilité.
1
Propriétés élémentaires des espérances conditionnelles
Exercice 1 (Positivité de l’espérance conditionnelle). Soient G une sous-tribu de F et X une variable
aléatoire positive sur Ω. Montrer que {E[X|G] > 0} est le plus petit ensemble G-mesurable (aux ensembles
négligeables près) qui contient {X > 0}.
Démonstration. E(X|G) est une variable aléatoire G-mesurable, donc {E[X|G] > 0} ∈ G. De plus, on a
E(X1{E(X|G)=0} ) = E(E(X|G)1{E(X|G)=0} ) = 0,
donc {X > 0} ⊂ {E(X|G) > 0} aux ensembles négligeables près. D’autre part, pour tout A ∈ G tel que
{X > 0} ⊂ A, on a
0 = E(X1{Ac } ) = E(E(X|G)1{Ac } ),
donc {E(X|G) > 0} ⊂ A aux ensembles négligeables près.
Exercice 2 (Indépendance des espérances conditionnelles).
1. Soient X et Y deux variables aléatoires
indépendantes de loi de Bernoulli de paramètre p, q ∈ (0, 1). On pose Z = 1{X+Y >0} et G = σ(Z).
Calculer E[X|G] et E[Y |G]. Ces deux variables aléatoires sont-elles indépendantes ?
2. Soient U, T des variables aléatoires à valeurs dans des espaces mesurables quelconques (E, A) et (F, B)
telles que pour toute sous-tribu G de F, pour toutes fonctions (f, g) : E × F → R2 mesurables bornées,
E[f (U )|G] et E[g(T )|G] sont indépendantes. Montrer que U ou T est constante.
Démonstration. Les ensembles {Z = 0} et {Z = 1} forment une partition de Ω, de plus
E(X|Z = 0) = E(Y |Z = 0) = 0
et
E(X|Z = 1) =
p
,
p + q − pq
E(Y |Z = 1) =
q
,
p + q − pq
d’où qE(X|G) = pE(Y |G), qui sont proportionnelles donc non-indépendantes.
On choisit pour f = 1A et g = 1B , avec A ∈ A et B ∈ B. Le résultat précédent implique que pour tout
A, B ∈ A × B, soit P(U ∈ A) ∈ {0, 1}, soit P(T ∈ B) ∈ {0, 1}, ce qui implique bien que l’une de ces variables
aléatoires est constante.
Exercice 3 (Symétrie par rapport au pipe). On se donne deux variables aléatoires réelles positives X et Y ,
et on suppose que E[X|Y ] = Y et E[Y |X] = X.
1. Montrer que si X et Y sont dans L2 , alors X = Y p.s.
1
2. Montrer que pour toute variable aléatoire positive Z et tout a ≥ 0,
E[Z|Z ∧ a] ∧ a = Z ∧ a.
3. Montrer que le couple (X ∧ a, Y ∧ a) vérifie les mêmes hypothèses que le couple (X, Y ), et en déduire
que X = Y p.s.
Démonstration. On calcule
E((X − Y ))2 = E(X 2 ) + E(Y 2 ) − 2E(XY ),
or E(XY ) = E(XE(Y |X)) = E(X 2 ) = E(Y 2 ), donc X = Y p.s.
Soit a > 0, on a
E(Z|Z ∧ a) = E(Z1{Z<a} |Z ∧ a) + E(Z1{Z≥a} |Z ∧ a)
= E(Z ∧ a1{Z∧a<a} |Z ∧ a) + E(Z1{Z∧a=a} |Z ∧ a)
= Z ∧ a1{Z∧a<a} + E(Z1{Z≥a} |Z ∧ a)1{Z∧a=a}
dès lors E(Z|Z ∧ a) ∧ a = Z ∧ a.
On utilise alors l’inégalité de Jensen
E(X ∧ a|Y ∧ a) ≤ E(X|Y ∧ a) ∧ a
or E(X|Y ∧ a) ∧ a = E(E(X|Y )|Y ∧ a) ∧ a = E(Y |Y ∧ a) ∧ a = Y ∧ a. Par conséquent, on a
E(X ∧ a|Y ∧ a) ≤ Y ∧ a
and E(Y ∧ a|X ∧ a) ≤ X ∧ a.
En particulier, E(X ∧ a) ≤ E(Y ∧ a), par conséquent,
E(E(X ∧ a|Y ∧ a) − Y ∧ a) = 0,
d’où on conclut E(X ∧ a|Y ∧ a) = Y ∧ a, car une variable aléatoire négative d’espérance nulle est nulle.
On conclut en utilisant que X ∧ a et Y ∧ a sont dans L2 .
2
Calculs d’espérances conditionnelles
Exercice 4 (Un calcul de loi conditionnelle). On se donne deux réels a et b strictement positifs, et (X, Y )
une variable aléatoire à valeurs dans Z+ × R+ dont la loi est caractérisée par
Z
P(X = n, Y ≤ t) = b
0
t
(ay)n
exp(−(a + b)y)dy.
n!
Y
Déterminer, pour toute fonction h mesurable bornée, E[h(Y )|X], et en déduire E[ (X+1)
]. Calculer ensuite
E[1{X=n} |Y ] et enfin E[X|Y ].
Démonstration. On calcule pour commencer
n
Z +∞
(ay)n −(a+b)y
b
a
P(X = n) =
b
e
dy =
.
n!
a+b a+b
0
2
On a donc
X+1
Z
E(h(Y )|X) = (a + b)
R+
dès lors
y X −(a+b)y
e
dy,
X!
Z
Y
((a + b)y)X+1 −(a+b)y
1
E
=E
e
dy =
.
X +1
(X
+
1)!
a
+
b
+
R
De plus, on a
t
Z
e−by dy,
P(Y ≤ t) = b
0
par conséquent,
P(X = n|Y ) =
(aY )n −aY
e
,
n!
donc E(X|Y ) = aY .
Exercice 5 (Espérance conditionnelle de variables aléatoires exponentielles). Soient X1 , . . . , Xn des variables
aléatoires indépendantes de même loi exponentielle de paramètre λ. On note T = X1 + . . . + Xn . Calculer
E[h(X1 )|T ] pour toute fonction h : R → R borélienne bornée. Que remarque-t-on lorsque n = 2 ?
En déduire que, pour tout t > 0,
h
i
E[h(X1 , X1 + X2 , . . . X1 + · · · + Xn−1 )|T = t] = E h(tU (1) , . . . tU (n−1) ,
avec U (1) , . . . U (n−1) le réordonnement de U1 , . . . Un−1 des variables aléatoires i.i.d. de loi uniforme sur [0, 1].
Démonstration. Soit k ∈ N, on note sk = x1 + · · · + xk , on a alors
ZZZ
E(h(X1 )f (T )) = λn
e−λ(x1 +···+xn ) h(x1 )f (x1 + · · · + xn )dx
Rn
+
= λn
ZZZ
e−λsn h(s1 )f (sn )ds
0≤s1 ≤···≤sn
=
λn
(n − 2)!
Z
h(s)f (t)(t − s)n−2 e−λt dsdt,
0≤s≤t
donc
Z
E(h(X1 )|T ) =
0
T
λn
h(s)(T − s)n−2 ds.
(n − 2)!
En particulier, si n = 2 la loi de X1 conditionnellement à T est uniforme sur [0, T ].
On observe également que
ZZZ
ZZZ
h
i
1
(n − 1)!
E h(tU (1) , tU (n−1) ) = n−1
h(s(1) , . . . s(n−1) )ds = n−1
h(s1 , . . . sn−1 )ds.
t
t
[0,t]n−1
0≤s1 ≤···≤sn−1
D’autre part
n
ZZZ
h(s1 , . . . sn−1 )f (sn )e−λsn
E[h(X1 , X1 + X2 , . . . X1 + · · · + Xn−1 )f (T )] = λ
0≤s1 ···≤sn
3
et
λn
E(f (T )) =
(n − 1)!
Z
+∞
f (t)tn−1 e−λt dt.
0
Exercice 6 (Convergence conditionnelle). On se donne (Xi )i≥1 et (Fi )i≥1 une suite de variables aléatoires
positives et une suite de sous-tribus de F. On suppose que E[Xi | Fi ] converge en probabilité vers 0.
1. Montrer que (Xi )i≥1 converge en probabilité vers 0.
2. Montrer que la réciproque est fausse.
Démonstration. Raisonnons par l’absurde, et supposons qu’il existe > 0 tel que P(Xi > ) > infiniment
souvent. On pose Ai = {E(Xi |Fi ) > 2 /10}, par hypothèse on a limi→+∞ P(Ai ) = 0. Dès lors, P(Xi >
, Aci ) ≥ /2 pour une infinité de i. Dès lors
E[Xi 1Aci ] = E(E[Xi |Fi ]1Aci ) ≤ 2 /10
E(Xi 1Aci ] ≥ E(Xi 1{Xi >,Aci } ) ≥
2
,
2
ce qui est une contradiction.
3
Pour aller plus loin
Exercice 7 (Indépendance conditionnelle). On dit que deux variables aléatoires X et Y sont indépendantes
conditionnellement à G si pour toutes fonctions f et g de R dans R mesurables positives,
E[f (X)g(Y )|G] = E[f (X)|G]E[g(Y )|G].
1. Que signifie ceci si G = {∅, Ω} ? Si G = F ?
2. Montrer que la définition précédente équivaut à : pour toute variable aléatoire G-mesurable positive Z,
pour toutes fonctions f et g de R dans R mesurables positives,
E[f (X)g(Y )Z] = E[f (X)ZE[g(Y )|G]],
et aussi à : pour toute fonction g de R dans R mesurable positive,
E[g(Y )|G ∨ σ(X)] = E[g(Y )|G].
Démonstration. Si G est triviale, c’est la définition de l’indépendance, si c’est F, les variables aléatoires sont
toujours indépendantes.
On suppose que pour toutes fonctions f, g mesurables positives, on a
E(f (X)g(Y )|G) = E(f (X)|G)E(g(Y )|G).
Dès lors, pour toute variable aléatoire G-mesurable positive, alors
E(f (X)g(Y )Z) = E [E(f (X)g(Y )|G)Z]
= E [E(f (X)|G)E(g(Y )|G)Z]
= E [f (X)E(g(Y )|G)Z] .
4
Réciproquement, on suppose que pour toute fonction mesurable positive f, g, et pour toute variable aléatoire
G-mesurable positive Z,
E(f (X)g(Y )Z) = E [f (X)E(g(Y )|G)Z] .
Alors, comme ZE(g(Y )|G) est G-mesurable positive, on a
E(f (X)g(Y )|G) = E(f (X)|G)E(g(Y )|G).
De plus, sous ces conditions, pour tout borélien produit de σ(X) ∨ G, de la forme {X ∈ H} ∩ G, on a
E(g(Y )1{X∈H} 1G ) = E(g(Y )|G)1{X∈H} 1G ).
ce qui caractérise la variable aléatoire E(G(Y )|G ∨ σ(X)). La réciproque est évidente.
Exercice 8 (Convergence L2 de martingale rétrograde). Soit (Fn , n ≥ 0) une suite décroissante de sous-tribus
de F, avec F0 = F. Soit X une variable aléatoire de carré intégrable.
1. Montrer que les variables E[X|Fn ] − E[X|Fn+1 ] sont orthogonales dans L2 , et que la série
X
(E[X|Fn ] − E[X|Fn+1 ])
n≥0
converge dans L2 .
2. Montrer que si F∞ =
T
n≥0
Fn , on a
lim E[X|Fn ] = E[X|F∞ ] dans L2 .
n→∞
Démonstration. On calcule, pour m < n
E [(E(X|Fn+1 ) − E(X|Fn )) (E(X|Fm+1 ) − E(X|Fm ))]
= E [E(X|Fn+1 )E(X|Fm+1 ) − E(X|Fn+1 )E(Y |Fm ) + E(X|Fn )E(Y |Fm+1 ) − E(X|Fn )E(X|Fm )]
= E E(X|Fm+1 )2 − E(X|Fm )2 + E(X|Fm+1 )2 − E(X|Fm )2
=0
ce qui montre que la famille est orthogonale. De plus, pour m = n, on a
h
i
2
E (E(X|Fn+1 ) − E(X|Fn )) = E E(X|Fn )2 − E(X|Fn+1 )2 ,
donc
i
P h
2
E (E(X|Fn+1 ) − E(X|Fn )) < +∞, d’où la convergence de la série dans L2 , par critère de Cauchy
dans L2 .
On déduit de la question précédente que E(X|Fn ) converge, on note Y la variable aléatoire limite. Par
décroissance des tribus, on a Y est Fn -mesurable pour tout n. C’est donc une variable aléatoire F∞ -mesurable.
Or, par Jensen,
Y = E(Y |F∞ ) = lim E [E(X|Fp )|F∞ ] = E(X|F∞ )
p→+∞
2
où la limite est prise dans L .
5
Exercice 9 (Biais par la taille conditionnel). Soit X une variable aléatoire strictement positive p.s. telle que
b par
E(X) = 1. On définit la mesure de probabilité P
b
∀A ∈ F, P(A)
= E (1A X) .
Soit G une sous-tribu de F, montrer que pour toute variable aléatoire intégrable Y ,
b |G] = E[XY |G]
E[X|G]E[Y
p.s.
b
En déduire une condition pour que P(·|G) = P(·|G)
Démonstration. Soit Y une variable aléatoire mesurable, et Z une variable aléatoire G-mesurable, on a
h
i
b Z E[Y
b |G] = E
b [Y Z] = E(XY Z) = E [ZE[XY |G]] .
E
Et d’autre part
h
i
h
i
h
i
b Z E[Y
b |G] = E XZ E[Y
b |G] = E Z E[Y
b |G]E(X|G) ,
E
on a donc égalité.
En particulier, si X est une variable aléatoire G-mesurable, on a
b |G] = E(Y |G).
E[Y
Exercice 10 (Propagation de la rumeur). Soit p ∈ (0, 1), on considère le modèle de propagation de la rumeur
suivant. L’information initiale est 1, et chaque individu qui entend la rumeur (à la génération k) la transmet
à deux nouvelles personnes (à la génération k +1) avec probabilité p, ou transmet l’information contraire avec
probabilité 1 − p. Quel est la probabilité qu’il existe un individu à la génération k possédant l’information
initiale jamais dégradée ? Calculer l’espérance et la variance de Zk le nombre d’individus à la génération k
qui ont reçu l’information 1. Montrer que 2−n Zn converge p.s.
6
Téléchargement