Université de Tours
UFR Sciences et Techniques Année 2009-2010
Master 1 de Mathématiques mardi 15 juin 2010
Épreuve de Probabilités 2 (durée : 3 heures)
Le seul document autorisé est le formulaire joint au sujet.
Tout matériel électronique est interdit.
Les trois exercices sont indépendants
Exercice I
Nous rappelons que par commodité d’écriture, nous écrivons les vecteurs de Rnsous
forme de vecteurs lignes mais quand ils interviennent dans des calculs matriciels, ce sont des
vecteurs colonnes.
1) Soit X= (X1, X2)un vecteur aléatoire de R2. Démontrer que les variables aléatoires
composantes Xi(1i2) sont indépendantes et de loi normale N(0, σ2)si et seulement
si la fonction caractéristique φXde Xest de la forme
φX(t) = exp(1
2σ2(t2
1+t2
2)) t= (t1, t2)R2().
2) On considère le vecteur aléatoire X0=AX transformé du vecteur aléatoire Xpar la
matrice
A= 1
2
1
2
1
2
1
2!.
Démontrer que les composantes X0
1et X0
2du vecteur X0dans la base canonique de R2sont
des variables aléatoires indépendantes.
3) En déduire que les variables aléatoires X=X1+X2
2et Z= (X1X)2+ (X2X)2sont
indépendantes.
4) Calculer explicitement les lois des variables aléatoires Xet Zde la question 3).
Exercice II
Soient Xet Ydes variables aléatoires définies sur un espace probabilisé(Ω,F,P)et soit
A∈ F un événement.
On notera E(Y|X)l’espérance conditionnelle de Ysachant X(lorsqu’elle existe) et on notera
P(A|X) := E(1A|X).
I) Soit φ:R2Rune fonction mesurable bornée. On considère des variables aléatoires Zet
Xindépendantes. Montrer que la variable aléatoire φ(Z, X)a une espérance conditionnelle
sachant Xdonnée par la formule :
E(φ(Z, X)|X) = f(X)p.s.,
f(x) = E(φ(Z, x)), (xR) (indication : on pourra utiliser la propriété caractéristique de
l’espérance conditionnelle). Dans la suite de l’exercice, on admettra que la formule précédente
1
est encore vraie si φ:Rn×RRet Zest un vecteur aléatoire à valeurs dans Rnindépendant
de la variable aléatoire X.
II) Soient X, Z1, Z2, . . . , Zn, . . . des variables aléatoires indépendantes à valeurs dans [0,1].
On suppose que la suite (Zn)n1est i.i.d. et de loi uniforme et pour tout entier n1, on
pose
Yn=1[ZnX].
1. Prouver que pour toute suite finie (u1, . . . , un)∈ {0,1}n, on a
P(Y1=u1, . . . , Yn=un|X) = Xs(1 X)nsp.s.
s=u1+· · · un.
2. Démontrer que E(Yn|X) = P(Yn= 1|X)(n1).
3. On pose Sn=Y1+· · · +Yn. Pour tout n1trouver la valeur de E(Sn|X)et prouver
que E((SnnX)2|X) = nX(1 X)p.s.
4. En déduire que limn+
Sn
n=Xdans L2et en probabilité.
Exercice III
Soit (Nt)t0un processus de Poisson d’intensité λ > 0représentant les désintégrations ra-
dioactives enregistrées par un compteur Geiger, Ntétant le nombre de désintégrations qui se
produisent pendant le temps t. On suppose N0= 0. Pour t > 0, on note Ftla tribu engendrée
par les variables aléatoires (Ns)st.
1) On pose Xt=Ntλt. Pour tout t > 0et tout h > 0, calculer E(Nt+hNt|Ft)et en
déduire que
t > 0,h > 0,E(Xt+h|Ft) = Xt(p.s.)
(on dit que le processus (Xt)t0est une Ft-martingale à temps continu).
2) On suppose que le compteur Geiger a des ratés ; chaque atome qui se décompose n’est
enregistré par le compteur qu’avec la probabilité p(0< p < 1). Soit Ytle nombre de
désintégrations qui sont détectées par le compteur jusqu’au temps t. On peut modéliser ce
comportement de la façon suivante :
Soit (χn)n1une suite de variables de Bernoulli indépendantes de même paramètre pet
indépendantes du processus (Nt)t0. La variable χnvaut 1si le nième atome qui se désintégre
est détecté et 0sinon. On écrira donc
Yt=1[Nt>0]
Nt
X
k=1
χk
1. Déterminer pour tout t0fixé, la loi de probabilité de Yt.
2. Déterminer la loi de probabilité du nombre de désintégrations non détectées NtYt
pendant le temps t.
3. Démontrer que (Yt)t0est un processus de Poisson dont on précisera l’intensité.
2
1 / 2 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !