ENS Paris, 2013/2014 Processus aléatoires Bastien Mallein Bureau V2 TD 8 – Espérance conditionnelle 31 mars 2014 Dans toute la suite, (Ω, F, P) représente un espace de probabilité. 1 Propriétés élémentaires des espérances conditionnelles Exercice 1 (Positivité de l’espérance conditionnelle). Soient G une sous-tribu de F et X une variable aléatoire positive sur Ω. Montrer que {E[X|G] > 0} est le plus petit ensemble G-mesurable (aux ensembles négligeables près) qui contient {X > 0}. Démonstration. E(X|G) est une variable aléatoire G-mesurable, donc {E[X|G] > 0} ∈ G. De plus, on a E(X1{E(X|G)=0} ) = E(E(X|G)1{E(X|G)=0} ) = 0, donc {X > 0} ⊂ {E(X|G) > 0} aux ensembles négligeables près. D’autre part, pour tout A ∈ G tel que {X > 0} ⊂ A, on a 0 = E(X1{Ac } ) = E(E(X|G)1{Ac } ), donc {E(X|G) > 0} ⊂ A aux ensembles négligeables près. Exercice 2 (Indépendance des espérances conditionnelles). 1. Soient X et Y deux variables aléatoires indépendantes de loi de Bernoulli de paramètre p, q ∈ (0, 1). On pose Z = 1{X+Y >0} et G = σ(Z). Calculer E[X|G] et E[Y |G]. Ces deux variables aléatoires sont-elles indépendantes ? 2. Soient U, T des variables aléatoires à valeurs dans des espaces mesurables quelconques (E, A) et (F, B) telles que pour toute sous-tribu G de F, pour toutes fonctions (f, g) : E × F → R2 mesurables bornées, E[f (U )|G] et E[g(T )|G] sont indépendantes. Montrer que U ou T est constante. Démonstration. Les ensembles {Z = 0} et {Z = 1} forment une partition de Ω, de plus E(X|Z = 0) = E(Y |Z = 0) = 0 et E(X|Z = 1) = p , p + q − pq E(Y |Z = 1) = q , p + q − pq d’où qE(X|G) = pE(Y |G), qui sont proportionnelles donc non-indépendantes. On choisit pour f = 1A et g = 1B , avec A ∈ A et B ∈ B. Le résultat précédent implique que pour tout A, B ∈ A × B, soit P(U ∈ A) ∈ {0, 1}, soit P(T ∈ B) ∈ {0, 1}, ce qui implique bien que l’une de ces variables aléatoires est constante. Exercice 3 (Symétrie par rapport au pipe). On se donne deux variables aléatoires réelles positives X et Y , et on suppose que E[X|Y ] = Y et E[Y |X] = X. 1. Montrer que si X et Y sont dans L2 , alors X = Y p.s. 1 2. Montrer que pour toute variable aléatoire positive Z et tout a ≥ 0, E[Z|Z ∧ a] ∧ a = Z ∧ a. 3. Montrer que le couple (X ∧ a, Y ∧ a) vérifie les mêmes hypothèses que le couple (X, Y ), et en déduire que X = Y p.s. Démonstration. On calcule E((X − Y ))2 = E(X 2 ) + E(Y 2 ) − 2E(XY ), or E(XY ) = E(XE(Y |X)) = E(X 2 ) = E(Y 2 ), donc X = Y p.s. Soit a > 0, on a E(Z|Z ∧ a) = E(Z1{Z<a} |Z ∧ a) + E(Z1{Z≥a} |Z ∧ a) = E(Z ∧ a1{Z∧a<a} |Z ∧ a) + E(Z1{Z∧a=a} |Z ∧ a) = Z ∧ a1{Z∧a<a} + E(Z1{Z≥a} |Z ∧ a)1{Z∧a=a} dès lors E(Z|Z ∧ a) ∧ a = Z ∧ a. On utilise alors l’inégalité de Jensen E(X ∧ a|Y ∧ a) ≤ E(X|Y ∧ a) ∧ a or E(X|Y ∧ a) ∧ a = E(E(X|Y )|Y ∧ a) ∧ a = E(Y |Y ∧ a) ∧ a = Y ∧ a. Par conséquent, on a E(X ∧ a|Y ∧ a) ≤ Y ∧ a and E(Y ∧ a|X ∧ a) ≤ X ∧ a. En particulier, E(X ∧ a) ≤ E(Y ∧ a), par conséquent, E(E(X ∧ a|Y ∧ a) − Y ∧ a) = 0, d’où on conclut E(X ∧ a|Y ∧ a) = Y ∧ a, car une variable aléatoire négative d’espérance nulle est nulle. On conclut en utilisant que X ∧ a et Y ∧ a sont dans L2 . 2 Calculs d’espérances conditionnelles Exercice 4 (Un calcul de loi conditionnelle). On se donne deux réels a et b strictement positifs, et (X, Y ) une variable aléatoire à valeurs dans Z+ × R+ dont la loi est caractérisée par Z P(X = n, Y ≤ t) = b 0 t (ay)n exp(−(a + b)y)dy. n! Y Déterminer, pour toute fonction h mesurable bornée, E[h(Y )|X], et en déduire E[ (X+1) ]. Calculer ensuite E[1{X=n} |Y ] et enfin E[X|Y ]. Démonstration. On calcule pour commencer n Z +∞ (ay)n −(a+b)y b a P(X = n) = b e dy = . n! a+b a+b 0 2 On a donc X+1 Z E(h(Y )|X) = (a + b) R+ dès lors y X −(a+b)y e dy, X! Z Y ((a + b)y)X+1 −(a+b)y 1 E =E e dy = . X +1 (X + 1)! a + b + R De plus, on a t Z e−by dy, P(Y ≤ t) = b 0 par conséquent, P(X = n|Y ) = (aY )n −aY e , n! donc E(X|Y ) = aY . Exercice 5 (Espérance conditionnelle de variables aléatoires exponentielles). Soient X1 , . . . , Xn des variables aléatoires indépendantes de même loi exponentielle de paramètre λ. On note T = X1 + . . . + Xn . Calculer E[h(X1 )|T ] pour toute fonction h : R → R borélienne bornée. Que remarque-t-on lorsque n = 2 ? En déduire que, pour tout t > 0, h i E[h(X1 , X1 + X2 , . . . X1 + · · · + Xn−1 )|T = t] = E h(tU (1) , . . . tU (n−1) , avec U (1) , . . . U (n−1) le réordonnement de U1 , . . . Un−1 des variables aléatoires i.i.d. de loi uniforme sur [0, 1]. Démonstration. Soit k ∈ N, on note sk = x1 + · · · + xk , on a alors ZZZ E(h(X1 )f (T )) = λn e−λ(x1 +···+xn ) h(x1 )f (x1 + · · · + xn )dx Rn + = λn ZZZ e−λsn h(s1 )f (sn )ds 0≤s1 ≤···≤sn = λn (n − 2)! Z h(s)f (t)(t − s)n−2 e−λt dsdt, 0≤s≤t donc Z E(h(X1 )|T ) = 0 T λn h(s)(T − s)n−2 ds. (n − 2)! En particulier, si n = 2 la loi de X1 conditionnellement à T est uniforme sur [0, T ]. On observe également que ZZZ ZZZ h i 1 (n − 1)! E h(tU (1) , tU (n−1) ) = n−1 h(s(1) , . . . s(n−1) )ds = n−1 h(s1 , . . . sn−1 )ds. t t [0,t]n−1 0≤s1 ≤···≤sn−1 D’autre part n ZZZ h(s1 , . . . sn−1 )f (sn )e−λsn E[h(X1 , X1 + X2 , . . . X1 + · · · + Xn−1 )f (T )] = λ 0≤s1 ···≤sn 3 et λn E(f (T )) = (n − 1)! Z +∞ f (t)tn−1 e−λt dt. 0 Exercice 6 (Convergence conditionnelle). On se donne (Xi )i≥1 et (Fi )i≥1 une suite de variables aléatoires positives et une suite de sous-tribus de F. On suppose que E[Xi | Fi ] converge en probabilité vers 0. 1. Montrer que (Xi )i≥1 converge en probabilité vers 0. 2. Montrer que la réciproque est fausse. Démonstration. Raisonnons par l’absurde, et supposons qu’il existe > 0 tel que P(Xi > ) > infiniment souvent. On pose Ai = {E(Xi |Fi ) > 2 /10}, par hypothèse on a limi→+∞ P(Ai ) = 0. Dès lors, P(Xi > , Aci ) ≥ /2 pour une infinité de i. Dès lors E[Xi 1Aci ] = E(E[Xi |Fi ]1Aci ) ≤ 2 /10 E(Xi 1Aci ] ≥ E(Xi 1{Xi >,Aci } ) ≥ 2 , 2 ce qui est une contradiction. 3 Pour aller plus loin Exercice 7 (Indépendance conditionnelle). On dit que deux variables aléatoires X et Y sont indépendantes conditionnellement à G si pour toutes fonctions f et g de R dans R mesurables positives, E[f (X)g(Y )|G] = E[f (X)|G]E[g(Y )|G]. 1. Que signifie ceci si G = {∅, Ω} ? Si G = F ? 2. Montrer que la définition précédente équivaut à : pour toute variable aléatoire G-mesurable positive Z, pour toutes fonctions f et g de R dans R mesurables positives, E[f (X)g(Y )Z] = E[f (X)ZE[g(Y )|G]], et aussi à : pour toute fonction g de R dans R mesurable positive, E[g(Y )|G ∨ σ(X)] = E[g(Y )|G]. Démonstration. Si G est triviale, c’est la définition de l’indépendance, si c’est F, les variables aléatoires sont toujours indépendantes. On suppose que pour toutes fonctions f, g mesurables positives, on a E(f (X)g(Y )|G) = E(f (X)|G)E(g(Y )|G). Dès lors, pour toute variable aléatoire G-mesurable positive, alors E(f (X)g(Y )Z) = E [E(f (X)g(Y )|G)Z] = E [E(f (X)|G)E(g(Y )|G)Z] = E [f (X)E(g(Y )|G)Z] . 4 Réciproquement, on suppose que pour toute fonction mesurable positive f, g, et pour toute variable aléatoire G-mesurable positive Z, E(f (X)g(Y )Z) = E [f (X)E(g(Y )|G)Z] . Alors, comme ZE(g(Y )|G) est G-mesurable positive, on a E(f (X)g(Y )|G) = E(f (X)|G)E(g(Y )|G). De plus, sous ces conditions, pour tout borélien produit de σ(X) ∨ G, de la forme {X ∈ H} ∩ G, on a E(g(Y )1{X∈H} 1G ) = E(g(Y )|G)1{X∈H} 1G ). ce qui caractérise la variable aléatoire E(G(Y )|G ∨ σ(X)). La réciproque est évidente. Exercice 8 (Convergence L2 de martingale rétrograde). Soit (Fn , n ≥ 0) une suite décroissante de sous-tribus de F, avec F0 = F. Soit X une variable aléatoire de carré intégrable. 1. Montrer que les variables E[X|Fn ] − E[X|Fn+1 ] sont orthogonales dans L2 , et que la série X (E[X|Fn ] − E[X|Fn+1 ]) n≥0 converge dans L2 . 2. Montrer que si F∞ = T n≥0 Fn , on a lim E[X|Fn ] = E[X|F∞ ] dans L2 . n→∞ Démonstration. On calcule, pour m < n E [(E(X|Fn+1 ) − E(X|Fn )) (E(X|Fm+1 ) − E(X|Fm ))] = E [E(X|Fn+1 )E(X|Fm+1 ) − E(X|Fn+1 )E(Y |Fm ) + E(X|Fn )E(Y |Fm+1 ) − E(X|Fn )E(X|Fm )] = E E(X|Fm+1 )2 − E(X|Fm )2 + E(X|Fm+1 )2 − E(X|Fm )2 =0 ce qui montre que la famille est orthogonale. De plus, pour m = n, on a h i 2 E (E(X|Fn+1 ) − E(X|Fn )) = E E(X|Fn )2 − E(X|Fn+1 )2 , donc i P h 2 E (E(X|Fn+1 ) − E(X|Fn )) < +∞, d’où la convergence de la série dans L2 , par critère de Cauchy dans L2 . On déduit de la question précédente que E(X|Fn ) converge, on note Y la variable aléatoire limite. Par décroissance des tribus, on a Y est Fn -mesurable pour tout n. C’est donc une variable aléatoire F∞ -mesurable. Or, par Jensen, Y = E(Y |F∞ ) = lim E [E(X|Fp )|F∞ ] = E(X|F∞ ) p→+∞ 2 où la limite est prise dans L . 5 Exercice 9 (Biais par la taille conditionnel). Soit X une variable aléatoire strictement positive p.s. telle que b par E(X) = 1. On définit la mesure de probabilité P b ∀A ∈ F, P(A) = E (1A X) . Soit G une sous-tribu de F, montrer que pour toute variable aléatoire intégrable Y , b |G] = E[XY |G] E[X|G]E[Y p.s. b En déduire une condition pour que P(·|G) = P(·|G) Démonstration. Soit Y une variable aléatoire mesurable, et Z une variable aléatoire G-mesurable, on a h i b Z E[Y b |G] = E b [Y Z] = E(XY Z) = E [ZE[XY |G]] . E Et d’autre part h i h i h i b Z E[Y b |G] = E XZ E[Y b |G] = E Z E[Y b |G]E(X|G) , E on a donc égalité. En particulier, si X est une variable aléatoire G-mesurable, on a b |G] = E(Y |G). E[Y Exercice 10 (Propagation de la rumeur). Soit p ∈ (0, 1), on considère le modèle de propagation de la rumeur suivant. L’information initiale est 1, et chaque individu qui entend la rumeur (à la génération k) la transmet à deux nouvelles personnes (à la génération k +1) avec probabilité p, ou transmet l’information contraire avec probabilité 1 − p. Quel est la probabilité qu’il existe un individu à la génération k possédant l’information initiale jamais dégradée ? Calculer l’espérance et la variance de Zk le nombre d’individus à la génération k qui ont reçu l’information 1. Montrer que 2−n Zn converge p.s. 6