Indépendance d`événements et de variables aléatoires

publicité
Agrégation de Mathématiques
Frédéric Boure
Indépendance d'événements et de variables aléatoires.
Exemples.
On considère dans toute la leçon (Ω, F, P) un espace de probabilité.
1
Indépendance d'événements, probabilités conditionnelles.
Dénition 1.1
(Evenements indépendants). Deux événements A et B sont dits indépendants lorsque
P(A ∩ B) = P(A)P(B).
Une famille quelconque d'événements (Ai )i∈I de F est mutuellement indépendante si
∀J ⊂ I, J ni , P
\
Ai
=
i∈J
Y
P(Ai ).
i∈J
Proposition 1.2. Soient A, B deux évenemtns avec P(B) > 0. On pose
PB (A) := P(A|B) =
P(A ∩ B)
.
P(B)
la probabilité conditionnelle de A sachant que B est réalisé. Alors l'application
PB : F
A
→ [0, 1]
7→ PB (A)
est une probabilité.
Proposition 1.3. Si A et B sont deux événements avec P(B) > 0 alors
A et B sont indépendants ⇐⇒ PB (A) = P(A).
Exemple.
1) Dans un jeu de 32 cartes, les événements {Obtenir un roi} et {Obtenir un pique} sont indépendants. Les événements {Obtenir un trèe} et {Obtenir un pique} ne sont pas indépendants.
2) Si Ω = [0, 1] et P = λ la mesure de Lebesgue. Les événements
[ 2(k − 1) 2k − 1 An :=
,
2n
2n
n−1
16l62
dénis pour n ∈ N forment une famille mutuellement indépendante.
Proposition 1.4.
1) Si A et B sont deux événements indépendnats, il en est de même pour A et B c , Ac
et B et enn A et B c .
c
2) Plus généralement, si (Ai )i∈I est une famille mutuellement indépendante et si on contruit une famille
d'événements (Bi )i∈I comme suit
Bi = Ai ou Bi = Aci
alors la famille (Bi )i∈I est mutuellement indépendante.
Applications. Dev Calcul de l'indicatrice d'Euler par une méthode probabiliste. Pour tout entier n,
ϕ(n) = n
Y
p|n,p∈P
1−
1
p
où P est l'ensemble des nombres premiers.
Théorème 1.5
1) Si
(Lemme de Borel-Cantelli). Soit (An )n une famille dénombrable d'événements
P(An ) < ∞ alors P(lim supn An ) = 0.
Pn
2) Si n P(An ) = ∞ avec (An )n famille indépendante, alors P(lim supn An ) = 1.
P
Remarque On note l'événement {lim sup A } = {A
n
n
i.s.} où i.s. signie inniment souvent.
♦
Applications.
1) Suite de Pile/Face.
On considère une expérience aléatoire qui consiste à lancer successivement une
pièce truquée, P(pile) = p ∈]0, 1[.
On se demande si on va voir apparaître au moins un pile. On montre que presque-sûrement, il y a toujours
au moins un pile qui sort.
On se demande maintenant s'il y a une innité de pile qui apparaît. On note
An := {obtenir pile au n-ième lancer} et lim sup An := {obtenir pile i.s.}.
n
Le lemme de Borel-Cantelli 2) montre que
P(obtenir pile i.s.) = 1.
Quelle est la probabilité d'obtenir une innité de fois deux piles consécutifs ? (rép. 1)
2)
Marche aléatoire sur
Z
non symétrique. Soit la suite {Zi }i
dénie par Z0 = 0 et, pour tout i > 0,
(
Zi+1 = Zi + 1 avec probabilité p
Zi+1 = Zi − 1 avec probabilité q = 1 − p
où p 6= 12 . On considère l'événement An := {après 2n pas, je suis en 0} alors
2n n
(4p(1 − p))n
am
√
P(An ) =
p (1 − p)n ∼
6
n
C
πn
où a < 1. Le premier point du lemme de Borel-Cantelli permet de déduire que l'état 0 est transient pour
la chaîne de Markov {Zi }i
2
Indépendance de tribus, variables aléatoires indépendantes.
Dénition 2.1. Soit (Ai )i∈I une famille de sous-tribus de P . On dit qu'elles sont indépendantes si et seulement
si
∀J ⊂ I, J ni, ∀Ai ∈ Ai , P
\
Aj
=
j∈J
Y
P(Aj ).
j∈J
Soit (Xi )i∈I une famille de variables aléatoires,
Xi : (Ω, F, P) → (Ei , Ei )
On dit que (Xi )i∈I sont indépendantes si et seulement si les sous-tribus (σ(Xi ))i∈I le sont.
On va désormais donner quelques caractérisations de l'indépendance de deux variables aléatoires. On pourra
étendre ces caractérisations à une famille quelconque de variables aléatoires.
Théorème 2.2
(Caractérisation de l'indépendance). Soient X, Y deux variables aléatoires. Les assertions
suivantes sont équivalentes :
(i) X et Y sont indépendantes
(ii) ∀A ∈ E, ∀B ∈ F, P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B)
(iii) Si C (resp. D) est stable par intersection et engendre E (resp. F )
P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B)
∀(A, B) ∈ C × D.
(iv) ∀f : (E, E) → (R, B(R)), ∀g : (F, F) → (R, B(R)) mesurables,
E(f (X)g(Y )) = E(f (X))E(g(Y )).
(v) ∀f : (E, E) → (R, B(R)), ∀g : (F, F) → (R, B(R)) mesurables, f (X) et g(Y ) sont indépendantes.
On se limitera dans la suite aux variables aléatoires réelles (v.a.r) ou vecteurs aléatoires dans Rd .
Loi conjointe et lois marginales
Proposition 2.3. Soit (X1 , X2 , . . . , Xd ) une famille nie de v.a.r indépendantes. La loi P(X
du vecteur
aléatoire sur (R , B(R )) est égale au produit des lois marginales P ⊗ · · · ⊗ P .
Réciproquement, si la loi du vecteur est égale au produit des marges alors les variables aléatoires sont indépendantes.
1 ,...,Xd )
d
d
X1
Xd
Caractérisation par les fonctions caractéristiques, de répartition
Proposition 2.4. La famille (X1 , X2 , . . . , Xd ) de variables aléatoires à valeurs dans Rr
dante si et seulement si
1
, . . . , Rrd est indépen-
∀(t1 , . . . , td ) ∈ Rr1 × · · · × Rrd , ϕ(X1 ,...,Xd ) (t1 , . . . , td ) = ϕX1 (t1 ) · · · ϕXd (td )
si et seulement si, pour r1 = · · · = rd = 1,
F(X1 ,...,Xd ) (t1 , . . . , td ) = FX1 (t1 ) · · · FXd (td )
où ϕXi (resp. FXi ) représente la fonction caractéristique (resp. de répartition) de Xi .
Applications.
1) Méthode de Box-Muller pour simuler
√ des v.a. gaussiennes. Si√U et V
sont des variables aléatoires
i.i.d de loi uniforme sur [0, 1], alors X = −2 log V cos(2πU ) et Y = −2 log V sin(2πU ) sont i.i.d. de loi
normale centrée réduite.
2) Dev Théorème de Renyi. Soit {Xn }n une
de v.a.r iid de fonction de répartition F continue.
Psuite
n
On dénit Rn le rang relatif de Xn par Rn := j=1 1l{Xj >Xn } . Alors la suite de variable aléatoire {Rn }n
est iid et
1
∀k ∈ {1, 2, . . . , n}.
P(Rn = k) =
n
Loi du tout ou rien de Kolmogorov
Dénition 2.5
(Tribu asymptotique). Soit (Ω, F, P) un espace de probabilité et {Ti }i∈N une suite de tribus
indépendantes. Soit
Cn = σ
[
Tp
et C∞ =
p>n
\
Cn .
n∈N
La tribu C∞ s'appelle tribu asymptotique.
Remarques
1) Si on considère une suite de variables aléatoires indépendantes {Xi }i∈N
Xi : (Ω, F) → (Ei , Ei )
alors Ti = σ(Xi ) := {Xi−1 (A) : A ∈ Ei } est une sous-tribu de F et on peut dénir la tribu asymptotique
pour {Xn }n .
2) Un événement est dans la tribu asymptotique de {Xn }n s'il ne dépend que du comportement de la suite
{Xn }n lorsque n → ∞.
3)
Exemple. A := {ω ∈ Ω : limn Xn (ω) existe} ∈ C∞
♦
Théorème 2.6 (Loi de 0-1 de Kolmogorov). Soit {Ti }i∈N une suite de tribus indépendantes et C∞ sa tribu
asymptotique. Alors, pour tout événement A ∈ C∞ ,
P (A) ∈ {0, 1}.
Applications.
Une application mesurable pour C∞ est presque-sûrement constante.
A := {An i.s.} ∈ A∞ pour la suite de tribu An = σ(An ) = {∅, An , Acn , Ω} donc si {An }n est une suite
d'événements indépendants, P(A) ∈ {0, 1}. On peut alors donner une précisionP
sur le lemme de B-C :
Si {An }n est une suite d'événements indépendants, si P(lim sup An ) = 0 alors n P(An ) < ∞.
3
Somme de variables aléatoires indépendantes.
Proposition 3.1. Soient X, Y deux variables aléatoire indépendantes. Alors,
P X+Y = P X ? P Y
ϕX+Y = ϕX · ϕY
Applications.
1) Soit {Xn }n une suite de var iid de loi N (m, σ 2 ). Alors, X ∼ N (m, σ 2 /n),Sn2 ∼ χ2 (n) et X ⊥ Sn2 .
2) Théorème de Berstein. Si X et Y sont deux var iid et L2 avec X + Y ⊥ X − Y alors X et Y sont
gausiennes.
Pn
Dans la suite, {Xn }n désigne une suite de var iid et on dénit Sn := i=1 Xi .
Théorèmes limites
Théorème 3.2
(Loi des grands nombres).
1) (loi faible) Si X admet un moment d'ordre 1, alors
Sn
P
−−−−→ E(X).
n→∞
n
2) (loi forte) X admet un moment d'ordre 1 si et seulement si
Sn p.s.
−−−−→ E(X).
n n→∞
Applications.
1) Presque tout nombre réel de [0, 1] admet en moyenne autant de 0 que de 1 dans son
développement dyadique.
2) Dev Presque tout irrationnel est normal.
3) Méthode de Monte-Carlo. Soit f : Rd → R avec d > 1. Soit à évaluer l'intégrale
Z 1
Z 1
I=
···
f (t1 , . . . , tn )d(t1 , . . . , tn ).
0
0
Soit X = (X1 , · · · , Xn ) un vecteur aléatoire uniformément distribué sur [0, 1]d . On a alors I = E[f (X1 , · · · , Xn )]
et
N
1 X
p.s.
f (X(ωi )) −−−−→ I.
N →∞
N i=1
Théorème 3.3 (Théorème de la limite centrale). Si X admet un moment d'ordre 2, et en notant m := E(X)
et σ 2 = Var(X) alors
Applications.
Sn − nm L
√
−−−−→ N (0, 1).
n→∞
σ n
limn→∞ e−n
nk
k=0 k!
Pn
=
1
2
Un exemple de processus stochastique
Décrivons un processus de branchement élémentaire : le processus de Galton-Watson simple.
Dénition 3.4 (Processus de Galton-Watson). Un processus
est une chaîne de
avec p∗i
j := P(
Pi
Markov {Z
k=0
de Galton-Watson
de loi de reproduction P
n : n ∈ N} sur l'espace d'état N de matrice de transition (pij ) donnée par
∗i
pj , si i > 1 ;
pij = P(Zn+1 = j|Zn = i) =
j>0
δ0j , si i = 0
Yk = j) où {Yk }k est une suite de var iid de loi de probabilité P .
L'étude de cette chaîne est facilitée par l'usage de fonctions génératrices et/ou de martingales et des théorèmes limites qui leurs sont associées. On étudie par exemple la survivance de l'espèce, la vitesse d'extinction,
l'instabilité de la chaîne etc.
Sources : Barbe-Ledoux ; Resnik (A probability path) ; Zuily-Queelec ; Cottrell.
Téléchargement