Telechargé par david Balavoine

tribus-indépendantes

publicité
Le lemme des coalitions revisité
Il s’agit de donner une version unifiée du lemme des coalitions vu dans le cours sous plusieurs versions. Pour cela on
va introduire une notion fondamentale : celle d’indépendance de tribus.
1
Tribus : rappels et compléments
Définition 1 (Tribus-algèbre)
Soit Ω un ensemble non vide.
a) Une algèbre (sur Ω) est un ensemble A de parties de Ω (i.e. A ⊂ P (Ω) stable par passage au complémentaire,
stable par réunion finie et contenant Ω.
b) Une tribu ou σ-algèbre (sur Ω) est est un ensemble A de parties de Ω stable par passage au complémentaire,
stable par réunion dénombrable et contenant Ω.
c) Une sous-tribu d’une tribu A est simplement une tribu T vérifiant T ⊂ A.
d) La donnée d’un ensemble non vide Ω (appelé aussi univers) et d’une tribu A sur Ω définit un espace probabilisable (Ω, A). Les éléments de A s’appellent les événements de l’univers.
Remarques
• Une algèbre est aussi stable par intersection finie en vertu de la formule
\
Ai =
i∈J1,nK
si A ∈ A alors A ∈ A.
[
A i et du fait que
i∈J1,nK
• Une algèbre est exactement un sous-anneau de l’anneau (P (Ω), ∆, ∩) où ∆ est la différence symétrique
(A∆B = A ∩ B ∪ B ∩ A).
•[
Si A est une\
tribu alors ∅ ∈ A et pour toute famille (A i )i∈I ∈ AI indexée par I au plus dénombrable alors
A i ∈ A et
A i ∈ A. De ce fait une tribu est aussi une algèbre.
i∈I
i∈I
Exemples 1
• La tribu la plus simple que l’on puisse définir sur un ensemble Ω est ∅, Ω : on l’appelle la tribu grossière.
• A contrario la tribu la plus complète est P (Ω).
Proposition 1 et définition 2 (Tribu engendrée)
Ð
Ð Une famille quelconque F de parties de Ω étant donnée , il existe une plus petite (au sens de l’inclusion) tribu
Ð
contenant F et notée σ(F ). La tribu σ(F ) s’appelle la tribu engendrée par F .
dem :
On montre facilement qu’une intersection quelconque
de tribus est une tribu et comme il existe toujours une tribu
\
A.
contenant F (à savoir P (Ω)) on a σ(F ) =
Atribu
F ⊂A
Exemple 2
La tribu engendrée par A ⊂ Ω qu’on note σ(A) à la place de σ
A
est σ(A) = ∅, A, A, Ω .
1
Définition 3
a) Si A1 , . . . , An sont des tribus sur Ω, on note σ(A1 , . . . , An ) la tribu engendrée par F = A1 ∪ · · · ∪ An .
b) Si A 1 , . . . , A n sont des parties de Ω, on note σ(A 1 , . . . , A n ) la tribu engendrée par F = A 1 , . . . , A n .
Dans la suite on considère un espace probabilisable (Ω, A, P) ; on rappelle que A est une tribu sur Ω et que P est une
application de A dans [0, 1] telle que :
a) P(Ω) = 1
b) pour toute suite d’événements (A n )n deux à deux incompatibles, la famille (P(A n ))n est sommable et
X
[
P(A n ) (σ-additivité)
P
An =
n∈N
n∈N
Et les propriétés que vérifie P :
i. P(∅) = 0
n
[
ii. Si A 1 , . . . , A n sont des événements deux à deux incompatibles alors P
Ak =
k=1
n
X
P(A k ). En particulier, pour
k=1
tout événement A, P(A) = 1 − P(A).
iii. Si A et B sont des événements vérifiant A ⊂ B alors P(A) ¶ P(B) et P(B \ A) = P(B) − P(A).
iv. Si A et B sont des événements alors P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
v. Sous-additivité finie : si A 1 , . . . , A n sont des événements alors P(A 1 ∪ · · · ∪ A n ) ¶ P(A 1 ) + · · · + P(A n ).
vi. Continuité croissante : si (A n )n est une suite d’événements croissante pour l’inclusion, alors :
[
lim P(A n ) = P
An
n→+∞
n∈N
vii. Continuité décroissante : si (A n )n est une suite d’événements décroissante pour l’inclusion, alors :
\
lim P(A n ) = P
An
n→+∞
n∈N
viii. Sous-additivité dénombrable : soit (A n )n une suite d’événements. Alors
X
[
P
An ¶
P(A n )
n∈N
n∈N
avec la convention que si la famille (P(A n ))n n’est pas sommable alors
X
P(A n ) = +∞.
n∈N
On rappelle aussi la définition d’une variable aléatoire discrète :
Définition 4 (Variable aléatoire discrète)
On appelle variable aléatoire discrète (v.a.) de l’espace probabilisé (Ω, A, P) et à valeurs dans un ensemble E,
toute application X : Ω −→ E
telle que :
ω 7−→ X(ω)
a) l’ensemble X(Ω) est au plus dénombrable ;
b) pour tout x ∈ X(Ω), l’ensemble X−1 x est un événement : ∀x ∈ X(Ω), X−1 x ∈ A.
L’ensemble des valeurs prises par X et noté X(Ω) s’appelle le support de X.
Théorème 2 et définition 5
Ð
Ð Soit X une variable aléatoire à valeurs dans E. Alors l’ensemble σ(X) = X−1 (A) ; A ∈ P (E) est une tribu dite
Ð
engendrée par X.
2
dem :
On a Ω = X−1 (E) donc Ω ∈ σ(X) ; si A ∈ P (E) alors X−1 (A) = X−1(A) et donc σ(X) est stable par passage au
[
[
A n et donc σ(X) est stable par union
complémentaire. Enfin si (A n )n ∈ P (E)N alors
X−1 (A n ) = X−1
n∈N
n∈N
dénombrable.
Remarques
• Avec la notation probabiliste, on a aussi σ(X) = X ∈ A ; A ∈ P (E) = X−1 (A) ; A ∈ P (X(Ω)) puisque
pour tout A ∈ P (E), X−1 (A) = X−1 (A ∩ X(Ω)). De ce fait il n’est pas difficile de voir que σ−1 (X) est la tribu
engendrée par les événements X = x x décrivant X(Ω) (utiliser le fait que X(Ω) est au plus dénombrable
et la stabilité d’une tribu par union dénombrable). Et ainsi σ(X) ne dépend que de X et de Ω.
• Plus généralement si T est une tribu de parties de E alors σT (X) = X−1 (A) ; A ∈ T est une tribu dite
engendrée par X et T.
• Si f est une application de E dans F (ensemble non vide), on aura σ( f (X)) = σT (X) où T = P ( f −1 (F))
vu que ∀A ∈ P (F), ( f (X))−1 (A) = X−1 ( f −1 (A)).
Exemple 3 (Fondamental)
−1
0 = A et
1 = A, 1−1
Si A ∈ A est un événement alors σ(A) = σ(1A ) = ∅, A, A, Ω . En effet 1−1
A
A (∅) = ∅, 1A
1−1
0,
1
=
Ω.
A
Définition 6
Soit X 1 , . . . , X n des variables aléatoires sur un même espace probabilisé avec X i à valeurs dans un ensemble E i .
On note σ(X 1 , . . . , X n ) la tribu engendrée par σ(X 1 ) ∪ · · · ∪ σ(X n ) i.e. σ(X 1 , . . . , X n ) = σ(σ(X 1 ) ∪ · · · ∪ σ(X n )) ou
encore σ(X 1 , . . . , X n ) = σ(σ(X 1 ), . . . , σ(X n )).
Proposition 3
Ð
Avec les notations précédentes : σ(X 1 , . . . , X n ) = σ(Y) où Y = (X 1 , . . . , X n ).
dem :
Soit A ∈ σ(Y) : il existe donc B ∈ Y(Ω) tel que A = Y−1 (B) = ω ∈ Ω | (X 1 (ω), . . . , X n (ω)) ∈ B ∩ Y(Ω) ; notons
πi E1 × · · · × E n −→ E i la i-ième projection de sorte que X i = πi (Y) ; comme B∩Y(Ω) est au plus dénombrable
(x 1 , . . . , x n ) 7−→ x i
il existe une surjection α : N → B ∩ Y(Ω) et dès lors
ω ∈ A ⇐⇒ ∃p ∈ N, (X 1 (ω), . . . , X n (ω)) = α(p)
⇐⇒ ∃p ∈ N, ∀i ∈ J1, nK, ω ∈ X−1
i (πi (α(p)) (car X i = πi (Y))
Et donc A =
[
X 1 = π1 (α(p)) ∩ · · · ∩ X n = πn (α(p)) ; or chaque X i = πi (α(p)) ∈ σ(X i ) ⊂ σ(X 1 , . . . , X n )
p∈N
par def
et comme σ(X 1 , . . . , X n ) est stable par union dénombrable, on a bien A ∈ σ(X 1 , . . . , X n ) i.e. σ(Y) ⊂ σ(X 1 , . . . , X n ).
−1
Réciproquement pour tout i, σ(X i ) ⊂ σ(Y) car pour tout A i ∈ P (E i ), X−1
i (A i ) = Y (E 1 ×· · ·×E i−1 ×A i ×E i+1 ×· · · E n )
et ainsi σ(Y) contient σ(X 1 ) ∪ · · · ∪ σ(X n ) et donc aussi, par définition, la tribu engendrée par σ(X 1 ) ∪ · · · ∪ σ(X n )
i.e. σ(X 1 , . . . , X n ) ⊂ σ(Y).
Proposition 4
Ð
Ð Soit A 1 , . . . , A n des événements de A ; la tribu engendrée par A 1 , . . . , A n est aussi la tribu engendrée par les
Ð
v.a. 1A 1 , . . . , 1A n i.e. σ(A 1 , . . . , A n ) = σ(σ(1A 1 ), . . . , σ(1A n )) = σ(σ(A 1 ), . . . , σ(A n )).
3
dem :
Posons F = A 1 , . . . , A n ; on a pour tout i, A i ⊂ F ⊂ σ(F ) et donc par définition d’une tribu engendrée,
n
n
[
[
σ(A i ) ⊂ σ(F ) puis
σ(A i ) ⊂ σ(F ) et donc σ
σ(A i ) ⊂ σ(F ) i.e. σ(σ(A 1 ), . . . , σ(A n )) ⊂ σ(F ).
i=1
i=1
Puis pour tout i ∈ J1, nK, A i ∈ σ(A i ) ⊂
n
[
σ(A i ) ⊂ σ(σ(A 1 ), . . . , σ(A n )) et donc F ⊂ σ(σ(A 1 ), . . . , σ(A n )) et donc
i=1
on a l’autre inclusion : σ(F ) = σ(σ(A 1 ), . . . , σ(A n )).
Conclusion : σ(A 1 , . . . , A n ) = σ(F ) = σ(σ(A 1 ), . . . , σ(A n )) ; mais σ(A i ) = σ(1A i ) et donc
σ(A 1 , . . . , A n ) = σ(σ(1A 1 ), . . . , σ(1A n )) = σ(1A 1 , . . . , 1A n ).
def
Terminons cette partie par la notion de π-système et de classe monotone, deux notions qui vont être cruciales pour
les démonstrations qui vont suivre.
Définition 7 (π-système)
Un π-système est un ensemble C de parties de Ω stable par intersection finie.
Exemples 4
• Une tribu et une algèbre sont bien évidemment des π-systèmes.
• [a, b] ; (a, b) ∈ R2 et a ¶ b ∪ ∅ , ]a, b] ; (a, b) ∈ R2 et a ¶ b et ] − ∞, x] ; x ∈ R sont des π-systèmes.
Définition 8 (classe monotone)
Une classe monotone est un ensemble M de parties de Ω stable par union croissante[et par différence et qui
contient Ω. Ainsi M ⊂ P (Ω), Ω ∈ M, ∀(A n )n ∈ MN vérifiant ∀n ∈ N, A n ⊂ A n+1 alors
A n ∈ M et si A, B ∈ M
n∈N
vérifie A ⊂ B alors B \ A ∈ M a .
a. Il est alors d’usage de noter B − A à la place de B \ A, l’inclusion A ⊂ B étant implicite dans cette notation.
Exemples 5
• Une tribu est bien évidemment une classe monotone.
• Si P et Q sont deux probabilités sur un même espace probabilisable (Ω, A) alors M = A ∈ A | P(A) = Q(A) est
une classe monotone : en effet on a bien Ω ∈ M car P(Ω) = Q(Ω) = 1 ; si A, B ∈ M vérifient A ⊂ B alors B − A ∈ M
car
) ∈ MN est une suite croissante, par continuité croissante,
P(B −A) = P(B) − P(A) = Q(B) − Q(A) et
si (A n
[
[
[
P
A n = lim P(A n ) = lim Q(A n ) = Q
A n et donc
A n ∈ M.
n∈N
n→+∞
n→+∞
n∈N
n∈N
Proposition 5
Ð
Une partie A de P (Ω) est une tribu ssi A est un π-système et une classe monotone.
dem :
• Le sens =⇒ est clair.
• sens ⇐= : soit A ⊂ P (Ω) un π-système et une classe monotone, montrons que A est une tribu :
a) Ω ∈ A car A est une classe monotone ;
b) si A ∈ A alors A = Ω − A ∈ A car A est une classe monotone et Ω ∈ A ;
4
c) il reste la stabilité par réunion dénombrable ; on commence par montrer la stabilité par réunion finie : soit
donc A 0 , . . . , A n ∈ A ; on a A 0 , . . . , A n ∈ A et comme A est un π-système, on a donc A 0 ∩ · · · ∩ A n ∈ A et donc
A 0 ∪ · · · ∪ A n = A 0 ∩ · · · ∩ A n ∈ A.
Passons maintenant au cas dénombrable : soit (A n ) ∈ AN ; posons pour tout n ∈ N, Bn = A 0 ∪· · ·∪A n ; d’après
ce
[qu’on vient de voir, Bn ∈ A
[; de plus
[pour tout n, Bn ⊂ Bn+1 et ainsi puisque A est une classe monotone,
Bn ∈ A et on conclut car
An =
Bn .
n∈N
2
n∈N
n∈N
Indépendance et tribus
On commence par introduire la notion d’indépendance de tribus qui est très simple (pas la peine d’examiner des sousensembles). Une sous-tribu de l’espace probabilisé (Ω, A, P) n’est rien d’autre ici qu’une sous-tribu de A.
Définition 9
Soit A1 , . . . , An des sous-tribus de l’espace!probabilisé (Ω, A, P) ; on dit que A1 , . . . , An sont indépendantes ssi
n
Y
\
∀(A 1 , . . . , A n ) ∈ A1 × · · · × An , P
Ai =
P(A i ).
i∈J1,nK
i=1
Remarque
Si A1 , . . .\
, An sont \
indépendantes, il en va de même de (Ai )i∈I où I est une partie non vide J1, nK : cela vient du
fait que
Ai =
B j où B j = A j si j ∈ I et Ω sinon. Puis comme chaque B j est dans A j , par indépendance
i∈I
de A1 , . . . , An , P
j∈J1,nK
\
!
Bj
=
j∈J1,nK
n
Y
P(B j ), ce qui donne P
\
Ai =
Y
i∈I
j=1
P(A i ) puisque P(B j ) = 1 si j 6∈ I.
i∈I
Théorème 6
Ð
Ð Soit A1 , . . . , An des sous-tribus de l’espace probabilisé (Ω, A, P) alors A1 , . . . , An sont indépendantes ssi
Ð
∀(A 1 , . . . , A n ) ∈ A1 × · · · × An , A 1 , . . . , A n sont indépendantes.
dem :
• le sens ⇐= est clair ;
• supposons A1 , . . . , An indépendantes
et soit (A 1 , . . . , A n ) ∈ A1 × · · · × An ; il s’agit de montrer que pour tout
Y
\
ensemble fini I non vide, P
Ai =
P(A i ) ce qui découle directement de la remarque ci-dessus.
i∈I
i∈I
Ainsi on peut conclure que pour toute partie finie I, P
\
i∈I
Ai =
Y
P(A i ), ce qui par définition signifie l’indé-
i∈I
pendance de A 1 , . . . , A n .
Théorème 7 (Lien avec l’indépendance d’événements)
Ð
Ð Soit A 1 , . . . , A n des événements alors A 1 , . . . , A n sont indépendants ssi les tribus σ(A 1 ), . . . , σ(A n ) sont indéÐ
pendantes.
dem :
• sens ⇐= : c’est clair avec le théorème précédent puisque A i ∈ σ(A i ).
• sens =⇒ : il s’agit de voir que pour tout B1 , . . . , Bn ∈ σ(A 1 ) × · · · × σ(A n ), P
n
\
i=1
Bi =
n
Y
P(Bi ) soit encore en
i=1
5
passant par les formules P(Bi ) = E(1Bi ) et P
n
\
‚
Bi = E(1Tni=1 Bi ) = E
i=1
n
Y
Œ
que
1Bi
i=1
‚
∀B1 , . . . , Bn ∈ σ(A 1 ) × · · · × σ(A n ), E
n
Y
Œ
1Bi
=
i=1
n
Y
E(1Bi )
(?)
i=1
Afin de traiter tous les cas une astuce consiste à écrire que pour tout Bi ∈ σ(A i ) = ∅, A i , A i , Ω , il existe
ai , bi ∈ Z tel que 1Bi = ai + bi 1A i : en effet
• si Bi = ∅, on prend ai = bi = 0 ;
• si Bi = Ω, on prend ai = 1 et bi = 0 ;
• si Bi = A i , on prend ai = 0 et bi = 1 ;
• si Bi = A i , on prend ai = 1 et bi = −1 car 1A i = 1 − 1A i .
Dès lors (?) revient à montrer que :
Œ
n
n
Y
Y
(ai + bi 1A i ) =
∀a1 , . . . , an , b1 , . . . , bn ∈ Z, E
E ai + bi 1A i
‚
i=1
(??)
i=1
n
Y
Y
X Y
Pour cela on commence par montrer par récurrence sur n que
ai ×
(ai + bi 1A i ) =
bi 1A i où par
i=1
convention
Y
I⊂J1,nK i∈I
t=1:
i∈I
i∈∅
• pour n = 1, I ⊂ J1, nK prend deux valeurs I = ∅ ou I = J1, 1K et donc
ce qui valide la formule pour n = 1 ;
X Y
ai ×
Y
bi 1A i = a1 ×1+1× 1A i ,
i∈I
I⊂J1,nK i∈I
• passage de n à n + 1 : supposons la formule vraie pour n et montrons là pour n + 1 :
‚ n
Œ
n+1
Y
Y
(ai + bi 1A i ) =
(ai + bi 1A i ) (an+1 + bn+1 1A n+1 )
i=1
i=1
!
X Y
=
ai ×
Y
I⊂J1,nK
i∈I
=
!
ai an+1 ×
|
{z
Y
J⊂J1,n+1K i∈J
Y
X Y
bi 1A i +
i∈I
}
=α
X
Si maintenant on calcule
bi 1A i (an+1 + bn+1 1A n+1 )
i∈I
I⊂J1,nK i∈I
X
Y
ai ×
Y
|
‚
ai ×
Y
!
Œ
b i 1A i
bn+1 1A n+1
i∈I
I⊂J1,nK i∈I
{z
=β
}
bi 1A i on peut aussi le scinder en deux termes suivant que
i∈J
J ⊂ J1, n + 1K contient n + 1 ou pas :
X Y
Y
•
ai ×
bi 1A i correspond à β car J ⊂ J1, n + 1K contenant n + 1 peut s’écrire J = I ∪ n + 1
i∈J
J⊂J1,n+1K i∈J
n+1∈J
avec I ⊂ J1, nK quelconque (union disjointe) et parce que
Y
i∈J
6
‚
bi 1A i =
Y
i∈I
Œ
bi 1A i
bn+1 1A n+1
Y
i∈J
ai =
Y
i∈I
ai vu que J = I ∩ J1, nK = I et
•
X
Y
ai ×
Y
i∈J
J⊂J1,n+1K i∈J
n+1∈J
/
bi 1A i correspond à α car J ⊂ J1, n + 1K ne contenant pas n + 1 est donc un sous!
ensemble quelconque I de J1, nK et parce que
Y
Y
ai =
i∈I
i∈J
ai an+1 vu que ûJ1,n+1K J = ûJ1,nK I ∪ n + 1
(union disjointe)
Conclusion : on a bien
X
Y
Y
ai ×
n+1
Y
bi 1A i = β + α =
(ai + bi 1A i ), ce qui achève la récurrence.
i∈J
J⊂J1,n+1K i∈J
i=1
Retour à la preuve de (??) : par linéarité de l’espérance
!
Œ
Œ
‚
‚ n
Y
Y
X Y
Y
X Y
Y
1A i
(ai + bi 1A i ) = E
ai ×
bi 1A i =
ai ×
bi E
E
i=1
i∈I
I⊂J1,nK i∈I
=
X Y
ai ×
Y
ai ×
Y
=
=
=
ai ×
ai ×
=
=
I=1
n
Y
Y
\
Ai
i∈I
bi P (A i )
ind. des A i , P
\
Y
Ai =
i∈I
b i E 1A i
Y
P(A i )
i∈I
i∈I
I⊂J1,nK i∈I
n
Y
i∈I
I⊂J1,nK i∈I
X Y
bi P
i∈I
I⊂J1,nK i∈I
X Y
bi E 1Ti∈I A i
i∈I
I⊂J1,nK i∈I
X Y
i∈I
i∈I
I⊂J1,nK i∈I
ai + bi E(1A i )
E a i + b i 1A i
démonstration analogue
i=1
n
Y
X Y
Y
Remarque : plus généralement dans un anneau commutatif on a la formule
(ai + bi ) =
ai ×
bi , (qui
i=1
i∈I
I⊂J1,nK i∈I
se démontre de la même manière) ce qui permet de retrouver facilement la formule du binôme et les fonctions
n
Y
symétriques élémentaires dans le développement de
(X − ai ) en se plaçant dans l’anneau K[X]. On peut même
i=1
retrouver la formule du crible de Poincaré en se plaçant dans l’anneau A = ZE et en passant par les fonctions
caractéristiques : Soit A 1 , . . . , A n n sous-ensembles d’un ensemble fini E (n ∈ N∗ ) alors
Œ!
‚
X
n
n
k
X
\
[
k+1
card
Ai =
(−1)
card
Aij
.
i=1
1¶i1 <i2 <···<ik ¶n
k=1
j=1
Principe : on utilise la fonction indicatrice et le fait que
X
card A =
1A (x) ∀A, B ∈ P (E), 1A∩B = 1A 1B ,
1A = 1 − 1A ;
(∗)
x∈E
puis on remarque que : 1Sni=1 A i = 1−1Tn
i=1 A i
= 1−
n
Y
1A i = 1−
i=1
n
Y
n
Y
1 − 1A i et on développe le produit
1 − 1A i
i=1
i=1
en faisant intervenir les fonctions symétriques élémentaires :
n
Y
i=1
n
X
(−1)k
1 − 1A i = 1 +
k=1
X
1¶i1 <i2 <···<ik ¶n
1A i · · · 1A i = 1 +
1
k
n
X
(−1)k
k=1
X
1¶i1 <i2 <···<ik ¶n
1Tk
j=1 A i j
7
On obtient alors la formule 1Sni=1 A i =
n
X
(−1)k+1
X
1T k
j=1 A i j
1¶i1 <i2 <···<ik ¶n
k=1
qui jointe à (∗) donne le résultat.
De plus en passant par l’espérance, on retombe sur la formule du crible pour les probabilités :
‚
Œ
X
n
n
k
X
\
[
k+1
P
Aij
(−1)
P
Ai =
i=1
1¶i1 <i2 <···<ik ¶n
k=1
j=1
Pour clore cette digression remarquons qu’on peut généraliser la formule (avec l’hypothèse de commutation deux
à deux) :
n
Y
X
Y
Y
Y
(ai,i1 + ai,i2 + · · · + ai,im ) =
ai1 ,1 ×
ai2 ,2 × · · · ×
aim ,m
(I1 ,...,I
)∈(P (J1,nK))m i1 ∈I1
Sm
m
j=1 I j =J1,nK
i=1
i2 ∈I2
im ∈I m
ce qui permet ensuite d’en déduire la formule du multinôme.
Corollaire 8
Si les événements (A i )i∈I sont mutuellement indépendants alors les événements (Bi )i∈I où chaque Bi (pour
i ∈ I) est A i ou A i , sont mutuellement indépendants.
dem :
Y
\
P(Bi ) ; on constate pour cela que
Bi =
Il s’agit de montrer que si J ⊂ I est un ensemble fini non vide alors P
i∈J
i∈J
les événements de la sous-famille (A i )i∈J sont indépendants (car toute sous famille de (A i )i∈J est en particulier une
sous-famille finie de (A i )i∈I ) et donc d’après ce qui précède, les tribus (σ(A i ))i∈J sont indépendantes ; on conclut
alors car ∀i ∈ J, Bi ∈ σ(A i ).
Théorème 9 (Lien avec l’indépendance de variables aléatoires)
Ð
Ð Soit X 1 , . . . , X n des v.a. sur un même espace probabilisé (Ω, A, P). Alors X 1 , . . . , X n sont indépendantes ssi les
Ð
tribus σ(X 1 ), . . . , σ(X n ) sont indépendantes.
dem :
• =⇒ : Supposons
ce qui par définition signifie que ∀(x 1 , . . . , x n ) ∈ X 1 (Ω)×· · ·×X n (Ω)
X 1 , . . . , X n indépendantes
les événements X 1 = x 1 , . . . , X n = x n sont indépendants. Comme tout élément de σ(X i ) est de la forme
n
n
Y
\
X i ∈ A i avec A i ∈ P (E), il s’agit donc de voir que P
Xi ∈ Ai
=
P(X i ∈ A i ) pour A 1 , . . . , A n des
i=1
i=1
parties respectivement de E1 , . . . , E n ; posons pour tout k, A0k = A k ∩ X k (Ω) qui est donc un ensemble au plus
dénombrable :
n \
Xi ∈ Ai =
i=1
n \
X i ∈ A0i =
i=1
Qn
n \
P
Xi = xi
(x i )ni=1 ∈
Qn
n
Y
n
Y
Qn
0
i=1 A i
X

i=1
P (X i = x i )
x i ∈A0i
i=1
(indépendance des X = x i )
i=1


0
i=1 A i
n \
Xi = xi
i=1
0
i=1 A i
X
(x i )ni=1 ∈
=
X
=
8
(x i )ni=1 ∈
i=1
on en déduit par σ-additivité que :
n
\
P
Xi ∈ Ai
=
a
P (X i = x i ) =
n
Y
i=1
P(X i ∈ A0i ) =
n
Y
i=1
P(X i ∈ A i )
et ainsi on a bien σ(X 1 ), . . . , σ(X n ) indépendantes.
• Supposons que
∀(x 1 , . . . , x n ) ∈ X 1 (Ω) × · · · × X n (Ω) les
σ(X 1 ), . . . , σ(X
n ) soient indépendantes ; en particulier
événements X 1 = x 1 , . . . , X n = x n sont indépendants car X i = x i ∈ σ(X i ) et on utilise le théorème 6 ;
ainsi par définition X 1 , . . . , X n sont indépendantes.
Remarques
• On en déduit que si X 1 , . . . , X n sont indépendantes, il en va de même de (X i )i∈I où I ⊂ J1, nK est non vide
(passer par les tribus).
• On a donc en utilisant la définition de l’indépendance de tribus, X 1 , . . . , X n indépendantes ssi
n \
∀(A 1 , . . . , A n ) ∈ P (E1 ) × · · · × P (E n ), P
Xi ∈ Ai
=
n
Y
i=1
P(X i ∈ A i ).
i=1
En utilisant le théorème 6 cela équivaut aussi à l’indépendance de X 1 ∈ A 1 , . . . , X n ∈ A n et enfin c’est
aussi équivalent (définition initiale de l’indépendance de v.a.) à
n \
∀(x 1 , . . . , x n ) ∈ X 1 (Ω) × · · · × X n (Ω), P
Xi = xi
i=1
=
n
Y
P(X i = x i ).
i=1
Bref toutes ces équivalences expliquent les différentes versions de la définition de l’indépendance de n
variables aléatoires discrètes qu’on trouve dans les manuels.
Corollaire 10
Soit A 1 , . . . , A n des événements alors A 1 , . . . , A n sont indépendants ssi les variables aléatoires 1A 1 , . . . , 1A n sont
indépendantes.
dem :
Clair car A 1 , . . . , A n sont indépendants ssi σ(A 1 ) = σ(1A 1 ), . . . , σ(A n ) = σ(1A n ) sont indépendantes et donc ssi
1A 1 , . . . , 1A n sont indépendantes.
Corollaire 11
Soit X 1 , . . . , X n des variables aléatoires indépendantes sur un même espace probabilisé (Ω, A, P). Si pour tout
i ∈ J1, nK, la fonction f i est définie sur X i (Ω), les variables aléatoires f1 (X 1 ), . . . , f n (X n ) sont indépendantes.
dem :
Soit ( y1 , . . . , yn ) ∈ f (X 1 (Ω)) × · · · × f (X n (Ω)) :
n
\
∩ · · · ∩ X n ∈ f n−1 yn
P
f (X i ) = yi
= P X 1 ∈ f1−1 y1
i=1
=P
X 1 ∈ f1−1
y1
···P
X n ∈ f n−1
yn
(par indépendance)
= P( f1 (X 1 ) = y1 ) · · · P( f n (X n ) = yn )
et donc d’après la remarque f1 (X 1 ), . . . , f n (X n ) sont indépendantes.
3
Le lemme des coalitions
On commence par établir le lemme des classes monotones ou théorème π−λ de Dynkin qui est crucial pour le lemme
des coalitions.
9
Lemme 12 (Classes monotones)
Ð Soit M une classe monotone et C un π-système tel que C ⊂ M. Alors σ(C) ⊂ M.
Ð
Ð
Ð Autrement dit la plus petite classe monotone contenant C est la tribu engendrée par C puisqu’une tribu est
Ð
aussi une classe monotone.
dem :
On commence par introduire le concept de classe monotone engendrée par une famille F de parties de Ω ; il
est simple de voir
\ qu’une intersection quelconque de classes monotones est encore une classe monotone et donc
M(F ) =
M est la plus petite (pour l’inclusion) classe monotone contenant F (l’intersection est bien
M classe monotone
F ⊂M
définie car il existe au moins une classe monotone contenant F à savoir P (Ω) : M(F ) s’appelle la classe monotone
engendrée par F . Le lemme sera alors montré si on établit que M(C) = σ(C).
\
Par définition σ(C) =
T et comme une tribu est une classe monotone, il vient que M(C) ⊂ σ(C) (car dans
T tribu
C⊂T
l’intersection définissant M(C) figurent toutes les tribus contenant C). Ainsi on a montré que C ⊂ M(C) ⊂ σ(C).
L’idée consiste ensuite à montrer que M(C) est un π-système : en effet dans ce cas M(C) sera une tribu (cf.
proposition 5) et comme C ⊂ M(C), on aura donc σ(C) ⊂ M(C) et finalement M(C) = σ(C) d’où le lemme.
Montrons donc que M(C) est un π-système : pour A ∈ C, on pose DA = B ∈ M(C) | A ∩ B ∈ M(C) .
• on a C ⊂ DA car si B ∈ C alors B ∈ M(C) (clair) et comme C est un π-système, on a A ∩ B ∈ C et donc
A ∩ B ∈ M(C) i.e. B ∈ DA .
• DA est une classe monotone :
? Ω ∈ DA car Ω ∈ M(C) (car M(C) est une classe monotone) et A ∩ Ω = A ∈ C ⊂ M(C).
? Soit B, B0 ∈ DA avec B ⊂ B0 : on a donc B, B0 ∈ M(C) et A ∩ B ∈ M(C) et A ∩ B0 ⊂ M(C) ; on a donc aussi
B0 − B ∈ M(C) (car M(C) est une classe monotone) et puisque A ∩ (B0 − B) = (A ∩ B) − (A ∩ B0 ), pour les
mêmes raisons A ∩ (B0 − B) ∈ M(C) i.e. B0 − B ∈ DA .
[
? Soit (Bn )n ∈ DN
Bn ∈ M(C)
A une suite croissante : pour tout n, Bn ∈ M(C) et A ∩ Bn ⊂ M(C) ; on a donc
[ n∈N
(car M(C) est une classe monotone) et comme (A ∩ Bn )n est une suite croissante, on a aussi
A ∩ Bn ∈ M(C)
n∈N
[
[
i.e. A ∩
Bn ∈ M(C) et donc
Bn ∈ DA .
n∈N
n∈N
Grâce aux éléments soulignés, on en déduit que DA est une classe monotone.
Conclusion : DA est une classe monotone contenant C et donc M(C) ⊂ DA et comme par définition DA ⊂ M(C),
on en déduit que M(C) = DA .
• À ce stade de la démonstration on a donc démontré que ∀A ∈ C, ∀B ∈ M(C), A ∩ B ∈ M(C) : ce n’est pas
encore la stabilité par produit mais on y est presque ! On fixe alors B ∈ M(C) et on introduit
D0B = A ∈ M(C) | A ∩ B ∈ M(C) .
D’après ce qu’on vient de voir C ⊂ D0B et on montre de la même façon que précédemment que D0B est une classe
monotone ce qui entraîne immédiatement que M(C) ⊂ D0B puis M(C) = D0B .
Conclusion finale : on a donc démontré que ∀A, B ∈ M(C), A ∩ B ∈ M(C) et par une récurrence immédiate il vient
donc que M(C) est stable par intersection finie et donc M(C) est un π-système comme on voulait.
Théorème 13 (π-système et indépendance)
Ð
Ð Soit (Ω, A, P) un espace probabilisé et A1 , . . . , An des sous-tribus de A. On suppose que pour tout k ∈ J1, nK, il
Ð
Ð existe un π-système Ck contenant Ω tel que Ak = σ(Ck ). On suppose de plus que C1 , . . . , Cn sont indépendants
Ð
au sens où ∀(C1 , . . . , . . . , Cn ) ∈ C1 × · · · × Cn , P(C1 ∩ · · · ∩ Cn ) = P(C1 ) · · · P(Cn ).
10
Conclusion : A1 , . . . , An sont indépendantes.
dem :
On fixe (C2 , . . . , Cn ) ∈ C2 × · · · × Cn et on pose M1 = A 1 ∈ A1 | P(A 1 ∩ C2 ∩ · · · ∩ Cn ) = P(A 1 )P(C2 ) · · · P(Cn ) .
Montrons que M1 est une classe monotone :
• Ω ∈ M1 car Ω ∈ C1 (et bien sûr à A1 )
• soit A 1 , A01 ∈ M1 avec A 1 ⊂ A01 : on a P((A01 − A 1 ) ∩ C2 · · · Cn ) + P(A 1 ∩ C2 · · · Cn ) = P(A01 ∩ C2 ∩ · · · ∩ Cn ) et ainsi
puisque A 1 , A01 ∈ M1 , il vient que
P((A01 − A 1 ) ∩ C2 · · · Cn ) = P(A01 ∩ C2 ∩ · · · ∩ Cn ) − P(A 1 ∩ C2 ∩ · · · ∩ Cn )
= P(A01 )P(C2 ) · · · P(Cn ) − P(A 1 )P(C2 ) · · · P(Cn )
= (P(A01 ) − P(A 1 ))P(C2 ) · · · P(Cn )
= P(A01 − A 1 )P(C2 ) · · · P(Cn )
et ainsi A01 − A 1 ∈ M1 .
• Soit [
(A p ) p ∈ MN
1 une suite croissante pour l’inclusion
[ : on constate que (A p ∩C2 · · ·∩Cn )n est une suite croissante
avec
A p ∩ C2 · · · ∩ Cn = A ∩ C2 · · · ∩ Cn où A =
A p et ainsi par continuité croissante
p∈N
p∈N
P(A ∩ C2 · · · ∩ Cn ) = lim P(A p ∩ C2 · · · ∩ Cn ) = lim P(A p )P(C2 ) · · · P(Cn ) = P(A)P(C2 ) · · · P(Cn )
p→+∞
p→+∞
car toujours par continuité croissante, P(A) = lim P(A p ) et ainsi A =
p→+∞
[
A p ∈ M1 , ce qui finit la preuve que
p∈N
M1 est une classe monotone.
On constate ensuite que C1 ⊂ M car C1 , C2 , . . . , Cn sont indépendantes et ainsi d’après le lemme des classes monotones, on en déduit que σ(C1 ) ⊂ M, ce qui établit puisque C2 , . . . , Cn sont quelconques que
∀(A 1 , C2 , . . . , Cn ) ∈ A1 × C2 × · · · × Cn , P(A 1 ∩ C2 ∩ · · · ∩ Cn ) = P(A 1 )P(C2 ) · · · P(Cn ).
On fixe A 1 ∈ A1 , (C3 , . . . , Cn ) ∈ C3 × · · · × Cn et on pose
M2 = A 2 ∈ A2 | P(A 1 ∩ A 2 ∩ C3 ∩ · · · ∩ Cn ) = P(A 1 )P(A 2 )P(C3 ) · · · P(Cn )
D’après ce qu’on vient de voir, C2 ⊂ M2 ; puis on montre que M2 est une classe monotone (on a bien Ω ∈ M2 car
Ω ∈ C2 et le reste se démontre comme précédemment) et ainsi d’après le lemme des classes monotones, σ(C2 ) ⊂ M2
et donc
∀(A 1 , A 2 , C3 . . . , Cn ) ∈ A1 × A2 × C3 · · · × Cn , P(A 1 ∩ A 2 ∩ C3 ∩ · · · ∩ Cn ) = P(A 1 )P(A 2 )P(C2 ) · · · P(Cn ).
On recommence ensuite en fixant (A 1 , A 2 , C4 , . . . , Cn ) ∈ A1 × A2 × C4 × · · · × Cn et on introduit
M3 = A 3 ∈ A3 | P(A 1 ∩ A 2 ∩ A 3 ∩ C4 ∩ · · · ∩ Cn ) = P(A 1 )P(A 2 )P(A 3 )P(C4 ) · · · P(Cn )
et on montre que σ(C3 ) ⊂ M3 etc.
On arrive ainsi à montrer que ∀(A 1 , . . . , A n ) ∈ A1 × · · · × An , P(A 1 ∩ · · · ∩ A n ) = P(A 1 ) · · · P(A n ), ce qui par définition
signifie que A1 , . . . , An sont indépendantes.
Nous pouvons maintenant énoncer et démontrer le lemme des coalitions dans toute sa généralité :
Lemme 14 (Coalitions)
Ð
Ð Soit A1 , . . . , Am des sous-tribus indépendantes d’un espace probabilisé (Ω, A, P), n un entier non nul, I1 , I2 , . . . , I n
Ð
Ð des sous-ensembles non vides formant une partition de J1, mK. Alors les tribus
Ð
Ð
Ð
σ A i 1 ; i1 ∈ I 1 , . . . , σ A i n ; i n ∈ I n
Ð
Ð
Ð
sont indépendantes.
11
dem :
¨
Notons pour tout k ∈ J1, nK, Ck =
«
\
A ik ; (A ik )ik ∈Ik ∈ Aik i ∈I
: c’est un π-système (clair) qui contient Ω
k
k
\
puisque Ω ∈ Aik pour tout ik ∈ I k et donc Ω =
Ω ∈ Ck . Vérifions que Ck engendre σ Aik ; ik ∈ I k :
ik ∈I k
ik ∈I k
• l’inclusion Ck ⊂ σ Aik ; ik ∈ I k est claire et donc σ(Ck ) ⊂ σ Aik ; ik ∈ I k ;
¨
Ω
si j 6= ik
B j où B j =
et on a
A
si
j = ik
ik
j∈I k
Œ
‚
[
[
σ(Aik ) ⊂ σ(Ck ) i.e.
bien B j ∈ A j et donc σ(Aik ) ⊂ σ(Ck ) ; on en déduit que
σ(Aik ) ⊂ σ(Ck ) puis σ
• pour tout ik ∈ I k , on a l’inclusion Aik ⊂ Ck car si A ik ∈ Aik alors A ik =
\
ik ∈I k
ik ∈I k
σ Aik ; ik ∈ I k ⊂ σ(Ck ) et ainsi on a bien σ Aik ; ik ∈ I k = σ(Ck ).
Vérifions maintenant l’indépendance
de C1\
, . . . , Cn : en effet soit (A 1 , . . . , A n ) ∈ C1 × · · · × Cn : pour tout k ∈ J1, nK, il
existe (A k,ik )ik ∈Ik ∈ Aik i ∈I tel que A k =
A k,ik ; puis en considérant (B j ) j∈J1,mK avec B j = Ω si j 6∈ I k et B j = A k, j
k
k
ik ∈I k
si j ∈ I k , on a B j ∈ A j et comme A1 , . . . , Am sont indépendantes, il en va de même des (B j ) j∈J1,mK (cf. théorème 6)
‚
Œ
Y
Y
\
Bj =
et donc P
P(B j ) d’où l’égalité P(A k ) =
P(A k,ik ).
j∈I k
ik ∈I k
j∈I k
Toujours par indépendance des (Ai )i∈J1,mK et puisque I1 , . . . , I n forment une partition de J1, mK, on a
Œ
‚
\
P(A 1 ∩ · · · ∩ A n ) = P
A 1,i1 ∩ · · · ∩
i1 ∈I1
=
Y
P(A 1,i1 ) × · · · ×
i1 ∈I1
\
A n,in
in ∈I n
Y
P(A n,in )
in ∈I n
= P(A 1 ) · · · P(A n )
Conclusion : C1 , . . . , Cn sont bien indépendants ; ce sont de plus des π-systèmescontenant Ω avec pour
tout k,
σ Aik ; ik ∈ I k = σ(Ck ) et donc d’après le théorème 13, les tribus σ Ai1 ; i1 ∈ I1 , . . . , σ Ain ; in ∈ I n sont indépendantes.
Corollaire 15
Soit X 1 , . . . , X m des variables aléatoires sur un même espace probabilisé (Ω, A, P) et indépendantes, n un entier
naturel un entier naturel non nul, I1 , I2 , . . . , I n des sous-ensembles non vides formant une partition de J1, mK.
i. Les tribus σ(X i1 ; i1 ∈ I1 ), . . . , σ(X in ; in ∈ I n ) sont indépendantes.
ii. Pour tout j entre 1 et n, on considère une variable aléatoire Y j qui est une fonction des variables X i pour
i ∈ I j . Alors les variables Y1 , . . . , Yn sont indépendantes.
dem :
i. D’après le théorème 9 les tribus σ(X 1 ), . . . , σ(X n ) sont indépendantes puisque X 1 , . . . , X n le sont : on conclut alors
avec le lemme des coalitions puisque σ(X ik ; ik ∈ I k ) = σ(σ(X ik ) ; ik ∈ I k )
ii. Découle de i. et des propositions 3 et 11
Remarque
Avec les notations du corollaire précédent, on aura donc aussi l’indépendance des (Yi )i∈I où I est un sousensemble non vide de J1, nK.
12
Corollaire 16
Soit A 1 , . . . , A m des événements de A, n un entier naturel un entier naturel non nul, I1 , I2 , . . . , I n des sousensembles non vides formant une partition de J1, mK.
i. Les tribus σ(A i1 ; i1 ∈ I1 ), . . . , σ(A in ; in ∈ I n ) sont indépendantes.
ii. Pour tout j entre 1 et n, on considère l’événement B j qui s’écrit comme réunion ou intersection des événements (A i )i∈I j ou de leur contraire. Alors B1 , . . . , Bn sont indépendants.
dem :
i. Appliquer le corollaire précédent en considérant X i = 1A i et en utilisant la proposition 4.
ii. utiliser le fait que B j ∈ σ(A i j ; i j ∈ I j ) et le théorème 6.
Remarque
Avec les notations du corollaire précédent, on aura donc aussi l’indépendance des (Bi )i∈I où I est un sousensemble non vide de J1, nK.
13
Téléchargement