Université de Grenoble
M1 – Processus stochastiques
2013-2014
Feuille de TD no1
Conditionnement discret
Exercice 1
Soient Xet Ydeux variables aléatoires indépendantes à valeurs dans Net S=X+Y.
Calculer la loi conditionnelle de X(ainsi que son espérance) sachant S=sdans les cas
suivants :
1. Xet Ysuivent des lois de Poisson de paramètres respectifs λet µ;
2. Xet Ysuivent des lois géométriques sur Nde même paramètre p;
3. Xet Ysuivent des lois binomiales de paramètres respectifs (n, p)et (m, p).
Exercice 2
Soit (Ω,F,P)un espace de probabilité, (Ai)iIune famille au plus dénombrable d’événe-
ments de probabilités P(Ai)>0constituant une partition de et Ala sous-tribu de F
engendrée par ces événements.
1. Montrer que
A={[
iJ
Ait.q. J∈ P(I)}.
2. Soit Xune fonction définie sur et à valeurs dans un espace mesuré muni d’une
tribu Eséparant les points. Montrer que Xest (A,E)-mesurable si et seulement si
elle est constante sur chacun des événements Ai.
3. On note, pour tout iIet toute variable aléatoire réelle Xpositive ou bornée,
E(X|Ai)l’espérance de Xpour la probabilité conditionnelle P(·|Ai). Montrer que
E(X|Ai) = E(X1Ai)
P(Ai).(1)
En déduire que toute variable aléatoire réelle intégrable Xest intégrable pour la
probabilité conditionnelle P(·|Ai)et que son espérance pour cette probabilité est
donnée par la formule (1).
4. On définit, pour toute variable aléatoire réelle intégrable Xdéfinie sur , une
variable aléatoire réelle ˜
Xpar
˜
X=X
iI
E(X|Ai)1Ai.
Montrer que
(i) ˜
Xest A-mesurable et intégrable,
(ii) E(˜
X1A) = E(X1A)pour tout évenement A∈ A,
(ii’) E(˜
X Y ) = E(X Y )pour toute variable aléatoire YA-mesurable bornée.
5. Montrer que les relations (i) et (ii) (resp. (i) et (ii’)) caractérisent ˜
X. On notera
˜
X=E(X|A): c’est l’espérance conditionnelle sachant la tribu A.
6. Montre que si Zest une variable aléatoire bornée et A-mesurable, et Xune variable
aléatoire réelle intégrable,
E(ZX|A) = ZE(X|A),
et que si Zest une variable aléatoire intégrable et indépendante de A,
E(Z|A) = E(Z).
7. On suppose que Xest de carré intégrable. Montrer que :
E[(XE(X|A))2] = min
XA−mesurable
E(X2)<
E[(XX)2],
et que ce problème de minimisation caractérise E(X|A).
8. On suppose que chacun des événements Aiest réunion disjointe de deux événe-
ments A
iet A′′
ide probabilités strictement positives. On note Ala sous-tribu de
Fengendrée par la partition (A
i, A′′
i)iI. Comparer les tribus Aet A. Montrer que
E(X|A) = E[E(X|A)|A].
9. On considère dans cette question Ω = [0,1[ muni de sa tribu borélienne Fet de
la mesure de Lebesgue P. Expliciter E(X|A)si Xest une fonction intégrable sur
[0,1[ et Ala tribu engendrée par une partition finie de [0,1[ en intervalles. Plus
particulièrement, que peut-on dire de la suite (E[X|An])n∈N si Xest une fonction
continue sur [0,1] et, pour tout nN,Anla tribu engendrée par les intervalles
k1
2n,k
2n(1 k2n)?
10. On revient au cas général. Montrer qu’il existe une variable aléatoire Zà valeurs
dans I, muni de la tribu discrète, telle que pour tout iI,Aisoit l’événement
{Z=i}. Montrer qu’il existe une fonction mesurable fde Idans Rtelle que
E(X|A) = f(Z). Cette fonction est-elle unique ?
11. Montrer que dans ce cas ˜
X=E(X|A)est caractérisée par les deux propriétés
suivantes :
(a) ˜
Xest intégrable,
(b) il existe une fonction mesurable fde Idans Rtelle que ˜
X=f(Z);
(c) pour toute fonction mesurable bornée gde Idans R, on a E[Xg(Z)] =
E[f(Z)g(Z)].
Université de Grenoble
M1 – Processus stochastiques
2013-2014
Feuille de TD no2
Espérance conditionnelle
Exercice 3
Soient Xet Ydeux variables aléatoires réelles intégrables définies sur un même espace
de probabilité (Ω,F,P). On suppose E(X|Y) = Yet E(Y|X) = X. Montrer que X=Y
p.s.
Exercice 4
Variance conditionnelle. Soit (Ω,F,P)un espace de probabilité et Aune sous-tribu
de F. Pour toute variable aléatoire XL2(Ω,F,P), on définit la variance conditionnelle
Var(X|A)par :
Var(X|A) = E(XE[X|A])2|A.
1. Montrer que Var(X|A) = E(X2|A)E(X|A)2.
En particulier, E(X|A)2E(X2|A).
2. Montrer que Var(X) = E[Var(X|A)] + Var [E(X|A)].
En particulier, Var [E(X|A)] Var(X). Discuter le cas d’égalité.
Exercice 5
Soit (Ω,F,P)un espace de probabilité, Xune variable aléatoire réelle intégrable définie
sur cet espace et Aune sous-tribu de F.
1. On suppose dans cette question les tribus σ(X)et Aindépendantes. Que peut-on
dire de E(X|A)?
2. On suppose dans cette question que Xsuit une loi de Bernoulli et que E(X|A)est
constante. Montrer que les tribus σ(X)et Asont indépendantes. Généraliser au
cas où Xest une variable aléatoire réelle ne prenant que deux valeurs.
3. On revient au cas général. Si la v.a E(X|A)est constante, peut-on en déduire que
les tribus σ(X)et Asont indépendantes ?
Exercice 6
Prédiction linéaire. Soit (X1,...,Xn, Y )un vecteur aléatoire à valeurs dans Rn+1, de
carré intégrable. Si on observe (X1,...,Xn)avant Y, la meilleure prédiction, au sens L2,
de Yest l’espérance conditionnelle E[Y|X1,...,Xn]. C’est une fonction de (X1,...,Xn)
dont la détermination est parfois compliquée et fait appel à la connaissance de la loi
conjointe de tout le vecteur (X1,...,Xn, Y ). On peut se poser une question plus simple :
quelle est la meilleure approximation, au sens L2, de Ypar une fonction linéaire de
(X1,...,Xn)? Dans la suite, on note ΓXla matrice dont le coefficient d’indices (i, j)est
E[XiXj].
1. Prouver le résultat suivant qui montre en particulier que la réponse dépend unique-
ment de la matrice ΓXet des E(Y Xi),1in.
Proposition 1 (Prédiction linéaire) Il existe une unique v.a Yso-
lution de :
YV ect(X1,...,Xn) et E[(YY)2] = min
YV ect(X1,...,Xn)
E[(YY)2].(2)
On l’appelle le meilleur prédicteur linéaire de Ysachant X1,...,Xnet on le note
P(Y|X1,...,Xn). De plus, (2) est équivalente à :
YV ect(X1,...,Xn) et j= 1,...,n, E(Y Xj) = E(YXj).
Enfin, pour tout vecteur ligne α= (α1,...,αn)dans Rn,
P(Y|X1,...,Xn) = α1X1+...+αnXnαΓX= (E(Y X1),...,E(Y Xn)) .
De plus, si Y=P(Y|X1,...,Xn) = α
1X1+...+α
nXn,
E[(YY)2] = E[Y2](α)TΓXα.
2. On suppose désormais que Yest à valeurs dans Rd. Généraliser la proposition 1.
Exercice 7
Soit (Xi)i1une suite de variables aléatoires réelles indépendantes suivant la même loi
de Bernoulli de paramètre 0< p < 1:P(Xi= 1) = p,P(Xi= 0) = 1 ppour tout
i1, et Nune v.a intégrable à valeurs dans N, indépendante de la suite (Xi)i1. On
note gla fonction génératrice de N,λson espérance et, pour tout n0,Sn=Pn
i=1 Xi
(en particulier, pour n= 0,S0= 0). On définit une v.a SNà valeurs dans Npar
SN(ω) = SN(ω)(ω) =
N(ω)
X
i=1
Xi(ω).
1. Calculer, pour tout nN,E(SN|N)et E(SN).
2. Exprimer la fonction génératrice hde SNen fonction de get de p.
3. On suppose dans cette question que Nsuit la loi de Poisson de paramètre λ > 0:
P(N=n) = eλλn
n!pour tout nN. Expliciter h. Montrer que SNet NSNsont
indépendantes. Préciser leurs lois.
4. On suppose dans cette question que SNet NSNsont indépendantes et on définit
une fonction Gsur [0,1] ×[0,1] par :
G(s, t) = E(sSNtNSN) (0 s, t 1) .
(a) Exprimer de deux manières G(s, t)en fonction de g,p,s,t.
(b) En dérivant la relation obtenue, trouver une équation différentielle vérifiée par
g. En déduire que Nsuit une loi de Poisson.
Université de Grenoble
M1 – Processus stochastiques
2013-2014
Feuille de TD no3
Lois conditionnelles
Exercice 8
On considère (X1,...,Xn)i.i.d et on note Sn=Pn
i=1 Xi.
1. Calculer P(X1= 0|Sn)lorsque les Xisont de loi de Poisson de paramètre θ.
2. Calculer P(X1t|Sn)lorsque les Xisont de loi exponentielle de paramètre θet
n2.
Exercice 9
On considère (X, Y )un couple de variables aléatoires où Xest de loi de Bernoulli de
paramètre p]0,1[ et pour a∈ {0,1}, la loi de Ysachant X=aest une gaussienne
de moyenne maet de variance σ2
a. Décrire la loi du couple (X, Y ), la loi de Yet la loi
conditionnelle de Xsachant Y.
Exercice 10
Loi conditionnelle dans un espace gaussien. Rappelons qu’un vecteur aléatoire
Xà valeurs dans Rnest gaussien si et seulement si pour tout λRn,hλ, Xia une
loi gaussienne 1. De plus, si Xest gaussien et si Iet Jsont deux sous-ensembles de
{1,...,n}, les processus (Xi)iIet (Xj)jJsont indépendants si et seulement si les cova-
riances Cov(Xi, Xj)sont nulles pour tous iIet jJ.
1. Montrer que l’espérance conditionnelle de (Xj)jJsachant (Xi)iIest le meilleur
prédicteur linéaire de (Xj)jJsachant (1,(Xi)iI).
2. Déterminer la loi conditionnelle de (Xj)jJsachant (Xi)iI.
3. Application. On suppose que Xest un vecteur gaussien centré de matrice de
covariance :
Γ =
1 0 0
011/2
0 1/2 1
.
Calculer E(X2
3|X1, X2).
1. Ainsi l’espace vectoriel engendré par les coordonnées de Xest composé de v.a gaussiennes, c’est
le prototype de ce qu’on appelle un espace gaussien : un sous-espace vectoriel fermé de L2(Ω,F,P)
constitué de variables aléatoires gaussiennes.
1 / 20 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !