Probabilités Table des matières - Ceremade

publicité
Université Paris–Dauphine
DEMI2E
Année 2014/2015
Probabilités
Partie III
Joseph Lehec
Table des matières
8 Variables indépendantes
8.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9 Théorèmes limites
9.1 Loi des grands nombres . . . .
9.2 Convergence en loi . . . . . . .
9.3 Théorème de la limite centrale
9.4 Loi de l’arc sinus . . . . . . . .
9.5 Exercices . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
2
3
3
5
5
7
8
10
11
8
8.1
Variables indépendantes
Définition
Définition 8.1. Soient X, Y des variables aléatoires. On dit que X et Y sont indépendantes si
pour tous A, B ∈ B(R)
P(X ∈ A, Y ∈ B) = P(X ∈ A)P(X ∈ B).
Proposition 8.2. Soient X et Y des variables discrètes, X et Y sont indépendantes si et seulement
si
P(X = x, Y = y) = P(X = x)P(Y = y), ∀x, y ∈ R.
(1)
Remarque. Attention ceci ne marche que pour les variables discrètes. Par exemple si X et Y sont
continues, on a toujours
P(X = x, Y = y) = 0 = P(X = x)P(Y = y).
Démonstration. On suppose qu’on a (1) et que X et Y sont à valeurs dans N (par exemple). Soient
A, B des Boréliens de R, on a
X
P(X ∈ A, Y ∈ B) =
P(X = i, Y = j)
i∈A,j∈B
=
X
P(X = i)P(Y = j)
i∈A,j∈B
=
X
P(X = i)
i∈A
X
P(Y = j)
j∈B
= P(X ∈ A)P(X ∈ B),
ce qui montre que X et Y sont indépendantes. La réciproque est évidente.
Exemple 8.3. On lance deux dés, on appelle X et Y les résultats respectifs du premier et deuxième
dé. On a
1
P(X = 2, Y = 3) =
= P(X = 2)P(Y = 3).
36
Donc {X = 2} est indépendant de {Y = 3} et de même pour les autres valeurs de X et Y . Ainsi
X est indépendant de Y .
Proposition 8.4. Si X et Y sont indépendantes alors
E[f (X)g(Y )] = E[f (X)] E[g(Y )],
pour toutes fonctions f et g (telles que les espérances précédentes soient bien définies).
Démonstration. C’est toujours la même histoire : on a la propriété pour les fonctions indicatrices,
par linéarité on l’obtient pour les fonctions étagées, puis pour les fonctions positives par convergence
monotone, etc. . .
Proposition 8.5. Soient X, Y des variables aléatoires indépendantes. On a MX+Y = MX MY .
Démonstration. On utilise la proposition précédente :
MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX )E(etY ) = MX (t)MY (t).
Exemple 8.6. Soit X, Y des variables indépendantes suivant des lois de Poisson de paramètres λ
et µ, respectivement. On calcule la fonction génératrice des moments de X + Y :
MX+Y (t) = MX (t)MY (t)
= exp λ(et − 1) exp µ(et − 1)
= exp (λ + µ)(et − 1) .
On reconnaît la fonction génératrice des moments de la loi de Poisson de paramètre λ + µ. Comme
la fonction génératrice des moments caractérise la loi, la variable X + Y suit la loi de Poisson de
paramètre λ + µ.
2
Définition 8.7. On dit que (Xn )n∈N est une suite de variables aléatoires indépendantes si pour
toute suite finie d’indices 0 ≤ i1 < i2 < · · · < in et de Boréliens B1 , . . . , Bn on a
P(Xi1 ∈ B1 , . . . , Xin ∈ Bn ) = P(Xi1 ∈ B1 ) × · · · × P(Xin ∈ Bn ).
Si on a seulement
P(Xi ∈ A, Xj ∈ B) = P(Xi ∈ A)P(Xj ∈ B)
pour tout i 6= j on dit que les variables (Xi )i≥1 sont deux à deux indépendantes.
8.2
Covariance
Définition 8.8. On appelle covariance de deux variables de carré intégrable la quantité
cov(X, Y ) = E(XY ) − E(X)E(Y ).
Remarque. Comme 2|XY | ≤ X 2 + Y 2 , la covariance de X et Y est définie dès que X et Y sont de
carré intégrable.
La covariance sert à calculer la variance de la somme :
var(X + Y ) = E[(X + Y )2 ] − [E(X + Y )]2
= E(X 2 ) + 2E(XY ) + E(Y 2 ) − (EX)2 − 2(EX)(EY )
= var(X) + var(Y ) + 2cov(X, Y ).
Plus généralement on a
var
n
X
i=1
!
Xi
=
n
X
var(Xi ) + 2
i=1
X
cov(Xi , Xj )
1≤i<j≤n
pour toute famille X1 , . . . , Xn de variables de carré intégrable.
Lemme 8.9. Si X, Y sont indépendantes et de carré intégrable alors cov(X, Y ) = 0.
Démonstration. Il suffit d’appliquer la Proposition 8.4 : on a E(XY ) = E(X)E(Y ).
Remarque. La réciproque n’est pas vraie, on peut avoir cov(X, Y ) = 0 sans que X et Y soient
indépendantes.
Par conséquent si X et Y sont indépendantes on a var(X + Y ) = var(X) + var(Y ). Plus généralement, si X1 , X2 , . . . , Xn sont indépendantes
var(X1 + · · · + Xn ) = var(X1 ) + · · · + var(Xn ).
Exemple 8.10. On peut retrouver la variance de la binomiale ainsi. Soient X1 , .P
. . , Xn des variables indépendantes suivant toutes la loi de Bernoulli de paramètre p. Alors X = i Xi suit une
binomiale de paramètres n et p et
var(X) = var(X1 ) + · · · + var(Xn ) = np(1 − p).
Des variables qui, comme dans l’exemple précédent, sont indépendantes et de même loi sont
dites i.i.d. (pour “indépendantes identiquement distribuées”).
8.3
Exercices
Exercice 8.1. On considère une main de poker, le nombre d’as est–il indépendant du nombre de
rois ? du nombre de trèfles ?
Exercice 8.2. Soit X et Y des variables aléatoires indépendantes, prenant toutes les deux les
valeurs 1 et −1 avec probabilité 1/2. Montrer que X, Y et XY sont deux à deux indépendantes.
Sont–elles mutuellement indépendantes ?
3
Exercice 8.3 (loi faible des grands nombres). Soit (Xi )i≥1 une suite de variables i.i.d. de carré
intégrable. On pose m = E(X1 ) et σ = var(X1 ).
1. Exprimer la variance de (X1 + · · · + Xn )/n en fonction de n et σ.
2. Montrer que pour tout > 0 on a
X1 + · · · + Xn
lim P − m ≥ = 0.
n→+∞
n
On dit que (X1 + · · · + Xn )/n converge vers m en probabilité.
Exercice 8.4. Soient X, Y des variables indépendantes.
1. Exprimer la fonction de répartition de max(X, Y ) en fonction des répartitions de X et Y .
Même question avec min(X, Y ).
2. On suppose maintenant que X et Y sont uniformes sur [0, 1], déterminer la loi de max(X, Y ).
Exercice 8.5. Soient n, m des entiers, et p ∈ [0, 1]. Soient X et Y des variables indépendantes et
binomiales de paramètres n, p et m, p, respectivement.
1. Calculer les fonctions génératrices des moments de X et Y .
2. Déterminer la fonction génératrice des moments de X + Y .
3. En déduire la loi de X + Y .
Exercice 8.6. Soient X, Y des variables aléatoires indépendantes et de même loi géométrique de
paramètre p.
1. Déterminer la loi de min(X, Y ).
2. Calculer la fonction de masse de X − Y .
3. Montrer que min(X, Y ) est indépendante de X − Y .
Exercice 8.7. Soient X1 , X2 des variables indépendantes de lois respectives Γ(n1 , λ) et Γ(n2 , λ).
1. Calculer la fonction génératrice des moments de X1 + X2 et en déduire sa loi.
2. Quelle est la loi de Y1 + · · · + Yn si les Yi sont i.i.d de loi exponentielle ?
Exercice 8.8. On considère n lancers de dés successifs. On appelle Aij l’événement “les résultats
des i–ème et j–ème lancers sont égaux” et on pose
X
X=
1Aij .
1≤i<j≤n
1. Calculer l’espérance de X.
2. Montrer que les événements (Aij )1≤i<j≤n sont deux à deux indépendants. Sont–ils mutuellement indépendants ?
3. Déterminer la variance de X.
Exercice 8.9. On modélise les durées qui s’écoulent entre deux passages successifs de bus à un
arrêt par une suite (τi )i≥1 de variables i.i.d. de loi exponentielle de paramètre λ > 0 : le premier
bus met un temps τ1 à arriver, puis il s’écoule un temps τ2 avant le passage du deuxième, etc. . .
Pour tout entier n ≥ 1 on appelle
n
X
Tn =
τi
i=1
le temps de passage du n-ième bus.
1. Soit n ≥ 1. Déterminer la loi de Tn .
Indication : On pourra calculer sa fonction génératrice des moments.
2. Montrer que pour tout entier n ≥ 1 et pour tout t > 0, on a
(λt)n e−λt
+ P(Tn+1 ≤ t).
n!
Indication : On pourra intégrer par parties.
3. On fixe t > 0. Déduire de la question précédente la loi du nombre N (t) de bus déjà passés à
l’instant t.
P(Tn ≤ t) =
4
9
Théorèmes limites
9.1
Loi des grands nombres
Soit (Xn ) une suite de variables aléatoires i.i.d. de loi donnée par
1
2
P(Xi = 1) = P(Xi = −1) =
et soit
Sn =
n
X
Xi
k=1
la marche aléatoire simple symétrique sur Z. On a déjà vu précédemment que pour tout > 0 et
tout n ≥ 1.
Sn 1
P ≥ ≤ 2
n
n
Lemme 9.1. Soit > 0. Il existe une constante C telle que
Sn C
P ≥ ≤ 4 2.
n
n
Par conséquent
X
n≥1
Sn P ≥ < +∞.
n
Démonstration. D’après l’inégalité de Markov
P(|Sn | > n) = P(|Sn |4 > n4 4 ) ≤
1
E[Sn4 ].
n4 4
(2)
Rappelons que Sn = X1 + · · · + Xn , on a en développant et en utilisant la linéarité de l’espérance
X
X
X
E[Sn4 ] =
E[Xi4 ] + 12
E[Xi3 Xj ] + 12
E[Xi2 Xj2 ]
i
+ 24
i<j
i6=j
X
E[Xi Xj Xk2 ]
+ 24
i<j,k6=i,j
X
E[Xi Xj Xk Xl ],
i<j<k<l
Comme les Xi sont d’espérance nulle et indépendantes on a
E[Xi3 Xj ] = E[Xi3 ]E[Xj ] = 0.
De même
E[Xi Xj Xk2 ] = E[Xi ]E[Xj ]E[Xk2 ] = 0
et E[Xi Xj Xk Xl ] = 0. De plus comme E[Xi2 ] = 1
E[Xi2 Xj2 ] = E[Xi2 ]E[Xj2 ] = 1.
On a aussi E[Xi4 ] = 1, et donc
E[Sn4 ] =
X
E[Xi4 ] + 12
i
X
E[Xi2 Xj2 ] ≤ C n2
i<j
pour une certaine constante C. En reportant ceci dans (2) on obtient le résultat.
Lemme 9.2 (lemme de Borel–Cantelli). Soit (An ) une suite d’événements vérifiant
X
P(An ) < +∞,
n≥1
alors presque surement l’événement An ne se produit que pour un nombre fini d’entiers n.
5
Démonstration. On note lim sup An l’événement « An se produit pour une infinité de n ». Alors
\ [
lim sup An =
An .
k≥1 n≥k
Par conséquent
[
An & lim sup An .
n≥k
Et donc par convergence monotone

P

[
An  & P(lim sup An ).
n≥k
Il suffit donc de montrer que

lim P 
k→+∞
Mais comme la série
P

[
An  = 0.
n≥k
P(An ) converge
X
lim
k→+∞
P(An ) = 0.
n≥k
De plus on a l’inégalité

P

[
An  ≤
n≥k
X
P(An ).
n≥k
D’où le résultat.
En combinant les deux lemmes précédents, on en déduit qu’étant donné > 0, presque surement
Sn ≤ , pour n suffisamment grand.
n
Comme une intersection dénombrable d’événements quasi–certains est un événement quasi–certain,
on en déduit que presque surement
Sn 1
∀k ≥ 1, ≤ , pour n suffisamment grand.
n
k
Autrement dit, avec probabilité 1
Sn
→ 0.
n
Autrement dit dans une suite infinie jeu de pile ou face, la proportion de piles obtenus tend vers
1/2, presque surement.
De plus, on a seulement utilisé le fait que les Xi sont indépendantes de moyennes nulles et admettent
un moment d’ordre 4. La même démonstration donnerait donc le résultat suivant : Soit (Xi ) une
suite de variables i.i.d. telles que E[Xi4 ] < +∞. Alors presque surement
n
1X
Xi −→ E[X1 ].
n i=1
En fait l’hypothèse de moment d’ordre 4 est superflue.
Théorème 9.3 (Loi forte des grands nombres). Soit (Xi ) une suite de variables i.i.d. intégrables :
E[|Xi |] < +∞. Alors, presque surement
n
1X
Xi −→ E[X1 ].
n i=1
On admettra ce résultat.
6
9.2
Convergence en loi
Soit X, X1 , X2 , . . . des variables aléatoires. En lisant entre les lignes de la section précédente
on obtient le résultat suivant.
Lemme 9.4. Il y a équivalence entre
Xn −→ X,
p.s.
et la propriété

∀ > 0,
lim P 
n→+∞

[
{|Xk − X| ≥ } = 0.
k≥n
Cette observation motive la définition suivante.
Définition 9.5. On dit que (Xn ) converge vers X en probabilité si
∀ > 0,
lim P(|Xn − X| ≥ ) = 0.
n→+∞
Le lemme précédent montre que si Xn → X presque surement, alors Xn → X en probabilité.
On va maintenant parler d’une troisième notion de convergence, la convergence en loi.
Définition 9.6. Soient X, X1 , X2 , . . . des variables aléatoires et F, F1 , F2 , . . . leurs fonctions de
répartition respectives. On dit que (Xn ) converge en loi vers X si
lim Fn (x) = F (x)
n
pour tout x tel que F soit continue en x.
Remarque. Cette définition peut sembler étrange : pourquoi ne demander la convergence qu’aux
points de continuité de F ? En fait la définition serait trop restrictive si on demandait la convergence
en tout point de R. Prenons par exemple Xn uniforme sur [0, 1/n]. Alors 0 ≤ Xn ≤ 1/n presque
surement, ce qui implique
Xn → 0, p.s.
Soit Fn la fonction de répartition

 0
nx
Fn (x) =

1
de Xn et F celle de la variable constante égale à 0. On a
si x < 0,
si 0 ≤ x <
si n1 ≤ x,
1
n,
et F (x) =
0
1
si x < 0,
si 0 ≤ x.
On en déduit facilement que
lim Fn (x) = F (x)
n
pour tout x 6= 0, donc en tout point de continuité de F . En revanche, on n’a pas convergence en
0, puisque Fn (0) = 0 pour tout n et F (0) = 1.
Proposition 9.7. Si (Xn ) converge vers X en probabilité alors (Xn ) converge vers X en loi.
Remarque. On a donc la chaine d’implication suivante
convergence
presque sure
=⇒
convergence
en probabilité
=⇒
convergence
en loi
La réciproque de chacune de ces implications est en générale fausse.
Démonstration. Soit x ∈ R et soit δ > 0. On écrit
P(Xn ≤ x) = P(Xn ≤ x, X ≤ x + δ) + P(Xn ≤ X, X > x + δ)
≤ P(X ≤ x + δ) + P(|Xn − X| ≥ δ).
7
Et de même
P(X ≤ x − δ) ≤ P(Xn ≤ x) + P(|Xn − X| ≥ δ).
On en déduit que
F (x − δ) − P(|Xn − X| ≥ δ) ≤ Fn (x) ≤ F (x + δ) + P(|Xn − X| ≥ δ)
(3)
pour tout x ∈ R et tout δ > 0. Supposons maintenant que F est continue en x. Étant donné > 0
il existe δ > 0 tel que
F (x − δ) ≥ F (x) − et F (x + δ) ≤ F (x) + .
De plus comme Xn → X en probabilité P(|Xn − X| ≥ δ) ≤ pour n assez grand. L’inégalité (3)
devient donc
F (x) − 2 ≤ Fn (x) ≤ F (x) + 2,
pour n assez grand, ce qu’il fallait démontrer.
Remarque. On aurait en fait pu montrer le résultat suivant qui est un peu plus précis. Si Xn → X
en probabilité, alors pour tout x ∈ R
F (x−) ≤ lim inf Fn (x) ≤ lim sup Fn (x) ≤ F (x),
n→+∞
n→+∞
où F (x−) est la limite à gauche de F en x.
On aura besoin du lemme suivant.
Lemme 9.8. Soient X, X1 , X2 , . . . des variables aléatoires et F, F1 , F2 , . . . leurs fonctions de répartition respectives. Si
Fn (x) − Fn (y) → F (x) − F (y),
∀x, y ∈ R,
alors Fn (x) → F (x) pour tout x ∈ R. Et donc Xn → X en loi.
Démonstration. Soit x ∈ R et soit > 0. Comme F (y) → 0 quand y → −∞ il existe y tel que
F (y) ≤ . Comme Fn (x) − Fn (y) → F (x) − F (y) on a
Fn (x) ≥ Fn (x) − Fn (y) ≥ F (x) − F (y) − ≥ F (x) − 2,
pour n suffisamment grand. De même il existe z tel que F (z) ≥ 1 − . Par conséquent
Fn (x) ≤ Fn (x) − Fn (z) + 1 ≤ F (x) − F (z) + + 1 ≤ F (x) + 2
pour n suffisamment grand. Donc
|Fn (x) − F (x)| ≤ 2
pour n assez grand, ce qu’il fallait démontrer.
9.3
Théorème de la limite centrale
Revenons à la marche aléatoire. On a vu que
Sn
−→ 0,
n
On va maintenant montrer que
Sn
√
n
p.s.
converge en loi.
Lemme 9.9. Si n → +∞ et si |k| = o(n2/3 ) alors
2
1
P(S2n = 2k) = √ e−k /n (1 + o(1)).
πn
8
Démonstration. Comme la loi de S2n est symétrique on peut supposer que k est positif. Soit
k ∈ {0, . . . , n}
Qk−1
Qk−1
2n
2n −2n i=0 (n − i)
2n −2n i=1 (1 − ni )
P(S2n = 2k) =
2−2n =
2
=
2
Qk
Qk
i
n+k
n
n
i=1 (n + i)
i=1 (1 + )
n
En utilisant
1+
i
n
= exp
i
+O
n
i2
n2
,
et l’hypothèse k = o(n2/3 ) on obtient
Qk−1
3 !
k−1
i
X i
k
k
i=1 1 − n
− +O
= exp −2
Qk
2
i
n
n
n
i=1 1 + n
i=1
= e−k
De plus on a vu précédemment que
2
/n
(1 + o(1)).
2n −2n
1
2
= √ (1 + o(1)).
n
πn
D’où le résultat.
Théorème 9.10 (de Moivre–Laplace). On a
S
√n −→ N (0, 1),
n
en loi.
Démonstration. D’après le Lemme 9.8 il suffit de montrer que
Z y
2
Sn
1
P √ ∈]x, y] → √
e−t /2 dt,
n
2π x
√
√
pour tous réels x ≤ y ∈ R. On fixe x ≤ y. Si 2k/ 2n ∈]x, y] alors |k| = O( n) et le lemme
précédent s’applique. Par conséquent
X
S2n
P √ ∈]x, y] =
P(S2n = 2k)
√n
√n
2n
2
=
x<k≤
2
y
2
1
√ ek /n (1 + o(1)).
πn
X
√n
2
x<k≤
√n
2
y
Appelons
2
1
φ(x) = √ e−x /2
2π
q
n
la densité de la Gaussienne N (0, 1) et posons ak = n2 k. Pour n fixé, quand k parcourt les entiers
q
p
p
entre n2 x et n2 y la suite (ank ) parcourt une subdivision de l’intervalle ]x, y] de pas n2 . Comme
φ est une fonction continue, la somme de Riemann
r
X
X
2
1
2
√ ek /n =
φ(ank )
n √n
πn
√n
√n
√n
2
x<k≤
2
y
2
x<k≤
2
y
converge vers l’intégrale de φ sur [x, y]. On en déduit
Z y
S2n
P √ ∈]x, y] →
φ(t) dt,
2n
x
ce qui est le résultat cherché pour les entiers pairs. Les calculs sont similaires pour les entiers
impairs.
9
√
Quand n tend vers l’infini Sn / n est à peu près Gaussienne. Ce résultat est en fait un cas
particulier du théorème suivant.
Théorème 9.11 (Théorème de la limite centrale). Soit (Xn ) une suite de variables i.i.d. de carré
intégrable. On pose m = E[Xi ] et σ = var(Xi ). Alors
Pn
i=1 (Xi − m)
√
−→ N (0, 1), en loi.
nσ
On dit que la Gaussienne a un caractère universel, au sens où quelle que soit la loi de départ
des Xi (pourvu quelle admette un moment d’ordre 2) la somme des Xi se comporte comme une
Gaussienne.
9.4
Loi de l’arc sinus
Dans cette section, on va donner un autre exemple de convergence en loi. On revient à la marche
simple symétrique sur Z. On considère
Dn = sup{k ≤ n; Sk = 0},
le temps du dernier passage en 0 avant le temps n. On a vu au chapitre 3 que
2k
2(n − k) −2n
P(D2n = 2k) =
2
.
k
n−k
Théorème 9.12. Soient x, y des réels vérifiant 0 ≤ x ≤ y ≤ 1. On a
Z y
1
Dn
p
∈]x, y] −→
dt.
P
n
π
t(1
− t)
x
Démonstration. On va se contenter de faire les calculs pour n pair. On écrit
X
D2n
P
∈]x, y] =
P(D2n = 2k)
2n
xn<k≤yn
X 2k 2(n − k)
=
2−2n .
k
n−k
xn<k≤yn
On sait que
2p −2p
1
2
= √ (1 + o(1))
πp
p
quand p tend vers l’infini. Supposons que 0 < x < y < 1. Alors pour k ∈]xn, yn] on a
k → +∞ et (n − k) → +∞.
Par conséquent
Et donc
2k
k
P
2(n − k) −2n
1
2
= p
(1 + o(1)).
n−k
π k(n − k)
D2n
∈]x, y] =
2n
De plus comme la fonction √
1
t(1−t)
π
xn<k≤yn
π
xn<k≤yn
p
p
k(n − k)
(1 + o(1)).
est continue sur [x, y], la somme de Riemann
1
X
1
X
k(n − k)
converge vers
Z
1
X
=
xn<k≤yn
y
1
π
q
k
n
1
×n
1−
k
n
dt.
π t(1 − t)
On obtient donc le résultat, du moins si x > 0 et y < 1. Les cas x = 0 ou y = 1 se déduisent du cas
précédent par argument similaire à celui du Lemme 9.8. Les détails sont laissés en exercice.
x
p
10
Autrement dit Dn /n converge en loi vers une variable continue de densité
1
p
1[0,1] (t).
π t(1 − t)
Cette loi est appelée loi de l’arc sinus, parce que sa fonction de répartition F vaut
Z
√
1 x
1
2
p
F (x) =
dy = arcsin( x)
π 0
π
y(1 − y)
pour tout x ∈ [0, 1].
Figure 1 – Densité de la loi de l’arc sinus
1
1
9.5
Exercices
Exercice 9.1. Une pièce tombe 5 400 fois du côté pile sur 10 000 lancers. Peut–on raisonnablement
penser qu’elle est truquée ?
Exercice 9.2. Des catastrophes se produisent aux temps T1 , T2 , . . . . On suppose que les durées
(Ti+1 − Ti )i≥1 qui s’écoulent entre deux catastrophes successives sont indépendantes et de même
loi, et que cette loi est intégrable. On appelle
Nt = card({n, Tn ≤ t})
le nombre de catastrophes qui se sont produites au temps t.
1. Montrer que Nt → +∞ p.s.
2. Montrer que
Nt
1
→
,
t
E[T1 ]
p.s.
Exercice 9.3.
1. Soient X, X1 , . . . , Xn , . . . des variables aléatoires à valeurs dans N. Montrer
que la suite (Xn )n≥1 converge vers X en loi si et seulement si pour tout k ∈ N on a
lim P(Xn = k) = P(X = k).
n→∞
2. Soit λ > 0 et pour tout n suffisamment grand, soit Xn une variable suivant une loi binomiale
de paramètres n et λ/n. Étudier la convergence en loi de la suite (Xn ).
Exercice 9.4. On s’intéresse à la vitesse de convergence dans le théorème de de Moivre–Laplace.
1. Reprendre l’exercice 4.9 et montrer que
2n −2n
1
1
.
2
=√
1+O
n
n
πn
11
2. Reprendre la démonstration du Théorème 9.10 et montrer que pour tout x ≤ y et pour tout
n≥1
Z y
C
Sn
1
−t2 /2
≤ √
P √
√
e
dt
∈]x,
y]
−
n
n
2π x
pour une constante C dépendant de x, y mais pas de n.
Exercice 9.5. Soit λ > 0 et soit (Xn ) une suite de variables aléatoires telle que pour tout n la
variable Xn suive une loi de Poisson de paramètre λn.
1. Soit (kn ) une suite d’entiers tendant vers l’infini de sorte que la suite (xn ) définie par
xn =
kn − λn
√
λn
soit bornée. Montrer que
2
e−xn /2 C
P(Xn = kn ) − √
≤ ,
n
2πλn pour une constante C dépendant de λ et supn {|xn |}.
Indication : On pourra utiliser la formule de Stirling améliorée suivante :
n n √
1
n! =
2πn 1 + O
e
n
2. En déduire que la suite (Yn ) définie par
Yn =
Xn − λn
√
λn
converge en loi vers la Gaussienne standard.
3. Retrouver ce résultat à partir du théorème de la limite centrale, et en utilisant l’exemple 8.6.
12
Téléchargement