Le lemme des coalitions revisité Il s’agit de donner une version unifiée du lemme des coalitions vu dans le cours sous plusieurs versions. Pour cela on va introduire une notion fondamentale : celle d’indépendance de tribus. 1 Tribus : rappels et compléments Définition 1 (Tribus-algèbre) Soit Ω un ensemble non vide. a) Une algèbre (sur Ω) est un ensemble A de parties de Ω (i.e. A ⊂ P (Ω) stable par passage au complémentaire, stable par réunion finie et contenant Ω. b) Une tribu ou σ-algèbre (sur Ω) est est un ensemble A de parties de Ω stable par passage au complémentaire, stable par réunion dénombrable et contenant Ω. c) Une sous-tribu d’une tribu A est simplement une tribu T vérifiant T ⊂ A. d) La donnée d’un ensemble non vide Ω (appelé aussi univers) et d’une tribu A sur Ω définit un espace probabilisable (Ω, A). Les éléments de A s’appellent les événements de l’univers. Remarques • Une algèbre est aussi stable par intersection finie en vertu de la formule \ Ai = i∈J1,nK si A ∈ A alors A ∈ A. [ A i et du fait que i∈J1,nK • Une algèbre est exactement un sous-anneau de l’anneau (P (Ω), ∆, ∩) où ∆ est la différence symétrique (A∆B = A ∩ B ∪ B ∩ A). •[ Si A est une\ tribu alors ∅ ∈ A et pour toute famille (A i )i∈I ∈ AI indexée par I au plus dénombrable alors A i ∈ A et A i ∈ A. De ce fait une tribu est aussi une algèbre. i∈I i∈I Exemples 1 • La tribu la plus simple que l’on puisse définir sur un ensemble Ω est ∅, Ω : on l’appelle la tribu grossière. • A contrario la tribu la plus complète est P (Ω). Proposition 1 et définition 2 (Tribu engendrée) Ð Ð Une famille quelconque F de parties de Ω étant donnée , il existe une plus petite (au sens de l’inclusion) tribu Ð contenant F et notée σ(F ). La tribu σ(F ) s’appelle la tribu engendrée par F . dem : On montre facilement qu’une intersection quelconque de tribus est une tribu et comme il existe toujours une tribu \ A. contenant F (à savoir P (Ω)) on a σ(F ) = Atribu F ⊂A Exemple 2 La tribu engendrée par A ⊂ Ω qu’on note σ(A) à la place de σ A est σ(A) = ∅, A, A, Ω . 1 Définition 3 a) Si A1 , . . . , An sont des tribus sur Ω, on note σ(A1 , . . . , An ) la tribu engendrée par F = A1 ∪ · · · ∪ An . b) Si A 1 , . . . , A n sont des parties de Ω, on note σ(A 1 , . . . , A n ) la tribu engendrée par F = A 1 , . . . , A n . Dans la suite on considère un espace probabilisable (Ω, A, P) ; on rappelle que A est une tribu sur Ω et que P est une application de A dans [0, 1] telle que : a) P(Ω) = 1 b) pour toute suite d’événements (A n )n deux à deux incompatibles, la famille (P(A n ))n est sommable et X [ P(A n ) (σ-additivité) P An = n∈N n∈N Et les propriétés que vérifie P : i. P(∅) = 0 n [ ii. Si A 1 , . . . , A n sont des événements deux à deux incompatibles alors P Ak = k=1 n X P(A k ). En particulier, pour k=1 tout événement A, P(A) = 1 − P(A). iii. Si A et B sont des événements vérifiant A ⊂ B alors P(A) ¶ P(B) et P(B \ A) = P(B) − P(A). iv. Si A et B sont des événements alors P(A ∪ B) = P(A) + P(B) − P(A ∩ B). v. Sous-additivité finie : si A 1 , . . . , A n sont des événements alors P(A 1 ∪ · · · ∪ A n ) ¶ P(A 1 ) + · · · + P(A n ). vi. Continuité croissante : si (A n )n est une suite d’événements croissante pour l’inclusion, alors : [ lim P(A n ) = P An n→+∞ n∈N vii. Continuité décroissante : si (A n )n est une suite d’événements décroissante pour l’inclusion, alors : \ lim P(A n ) = P An n→+∞ n∈N viii. Sous-additivité dénombrable : soit (A n )n une suite d’événements. Alors X [ P An ¶ P(A n ) n∈N n∈N avec la convention que si la famille (P(A n ))n n’est pas sommable alors X P(A n ) = +∞. n∈N On rappelle aussi la définition d’une variable aléatoire discrète : Définition 4 (Variable aléatoire discrète) On appelle variable aléatoire discrète (v.a.) de l’espace probabilisé (Ω, A, P) et à valeurs dans un ensemble E, toute application X : Ω −→ E telle que : ω 7−→ X(ω) a) l’ensemble X(Ω) est au plus dénombrable ; b) pour tout x ∈ X(Ω), l’ensemble X−1 x est un événement : ∀x ∈ X(Ω), X−1 x ∈ A. L’ensemble des valeurs prises par X et noté X(Ω) s’appelle le support de X. Théorème 2 et définition 5 Ð Ð Soit X une variable aléatoire à valeurs dans E. Alors l’ensemble σ(X) = X−1 (A) ; A ∈ P (E) est une tribu dite Ð engendrée par X. 2 dem : On a Ω = X−1 (E) donc Ω ∈ σ(X) ; si A ∈ P (E) alors X−1 (A) = X−1(A) et donc σ(X) est stable par passage au [ [ A n et donc σ(X) est stable par union complémentaire. Enfin si (A n )n ∈ P (E)N alors X−1 (A n ) = X−1 n∈N n∈N dénombrable. Remarques • Avec la notation probabiliste, on a aussi σ(X) = X ∈ A ; A ∈ P (E) = X−1 (A) ; A ∈ P (X(Ω)) puisque pour tout A ∈ P (E), X−1 (A) = X−1 (A ∩ X(Ω)). De ce fait il n’est pas difficile de voir que σ−1 (X) est la tribu engendrée par les événements X = x x décrivant X(Ω) (utiliser le fait que X(Ω) est au plus dénombrable et la stabilité d’une tribu par union dénombrable). Et ainsi σ(X) ne dépend que de X et de Ω. • Plus généralement si T est une tribu de parties de E alors σT (X) = X−1 (A) ; A ∈ T est une tribu dite engendrée par X et T. • Si f est une application de E dans F (ensemble non vide), on aura σ( f (X)) = σT (X) où T = P ( f −1 (F)) vu que ∀A ∈ P (F), ( f (X))−1 (A) = X−1 ( f −1 (A)). Exemple 3 (Fondamental) −1 0 = A et 1 = A, 1−1 Si A ∈ A est un événement alors σ(A) = σ(1A ) = ∅, A, A, Ω . En effet 1−1 A A (∅) = ∅, 1A 1−1 0, 1 = Ω. A Définition 6 Soit X 1 , . . . , X n des variables aléatoires sur un même espace probabilisé avec X i à valeurs dans un ensemble E i . On note σ(X 1 , . . . , X n ) la tribu engendrée par σ(X 1 ) ∪ · · · ∪ σ(X n ) i.e. σ(X 1 , . . . , X n ) = σ(σ(X 1 ) ∪ · · · ∪ σ(X n )) ou encore σ(X 1 , . . . , X n ) = σ(σ(X 1 ), . . . , σ(X n )). Proposition 3 Ð Avec les notations précédentes : σ(X 1 , . . . , X n ) = σ(Y) où Y = (X 1 , . . . , X n ). dem : Soit A ∈ σ(Y) : il existe donc B ∈ Y(Ω) tel que A = Y−1 (B) = ω ∈ Ω | (X 1 (ω), . . . , X n (ω)) ∈ B ∩ Y(Ω) ; notons πi E1 × · · · × E n −→ E i la i-ième projection de sorte que X i = πi (Y) ; comme B∩Y(Ω) est au plus dénombrable (x 1 , . . . , x n ) 7−→ x i il existe une surjection α : N → B ∩ Y(Ω) et dès lors ω ∈ A ⇐⇒ ∃p ∈ N, (X 1 (ω), . . . , X n (ω)) = α(p) ⇐⇒ ∃p ∈ N, ∀i ∈ J1, nK, ω ∈ X−1 i (πi (α(p)) (car X i = πi (Y)) Et donc A = [ X 1 = π1 (α(p)) ∩ · · · ∩ X n = πn (α(p)) ; or chaque X i = πi (α(p)) ∈ σ(X i ) ⊂ σ(X 1 , . . . , X n ) p∈N par def et comme σ(X 1 , . . . , X n ) est stable par union dénombrable, on a bien A ∈ σ(X 1 , . . . , X n ) i.e. σ(Y) ⊂ σ(X 1 , . . . , X n ). −1 Réciproquement pour tout i, σ(X i ) ⊂ σ(Y) car pour tout A i ∈ P (E i ), X−1 i (A i ) = Y (E 1 ×· · ·×E i−1 ×A i ×E i+1 ×· · · E n ) et ainsi σ(Y) contient σ(X 1 ) ∪ · · · ∪ σ(X n ) et donc aussi, par définition, la tribu engendrée par σ(X 1 ) ∪ · · · ∪ σ(X n ) i.e. σ(X 1 , . . . , X n ) ⊂ σ(Y). Proposition 4 Ð Ð Soit A 1 , . . . , A n des événements de A ; la tribu engendrée par A 1 , . . . , A n est aussi la tribu engendrée par les Ð v.a. 1A 1 , . . . , 1A n i.e. σ(A 1 , . . . , A n ) = σ(σ(1A 1 ), . . . , σ(1A n )) = σ(σ(A 1 ), . . . , σ(A n )). 3 dem : Posons F = A 1 , . . . , A n ; on a pour tout i, A i ⊂ F ⊂ σ(F ) et donc par définition d’une tribu engendrée, n n [ [ σ(A i ) ⊂ σ(F ) puis σ(A i ) ⊂ σ(F ) et donc σ σ(A i ) ⊂ σ(F ) i.e. σ(σ(A 1 ), . . . , σ(A n )) ⊂ σ(F ). i=1 i=1 Puis pour tout i ∈ J1, nK, A i ∈ σ(A i ) ⊂ n [ σ(A i ) ⊂ σ(σ(A 1 ), . . . , σ(A n )) et donc F ⊂ σ(σ(A 1 ), . . . , σ(A n )) et donc i=1 on a l’autre inclusion : σ(F ) = σ(σ(A 1 ), . . . , σ(A n )). Conclusion : σ(A 1 , . . . , A n ) = σ(F ) = σ(σ(A 1 ), . . . , σ(A n )) ; mais σ(A i ) = σ(1A i ) et donc σ(A 1 , . . . , A n ) = σ(σ(1A 1 ), . . . , σ(1A n )) = σ(1A 1 , . . . , 1A n ). def Terminons cette partie par la notion de π-système et de classe monotone, deux notions qui vont être cruciales pour les démonstrations qui vont suivre. Définition 7 (π-système) Un π-système est un ensemble C de parties de Ω stable par intersection finie. Exemples 4 • Une tribu et une algèbre sont bien évidemment des π-systèmes. • [a, b] ; (a, b) ∈ R2 et a ¶ b ∪ ∅ , ]a, b] ; (a, b) ∈ R2 et a ¶ b et ] − ∞, x] ; x ∈ R sont des π-systèmes. Définition 8 (classe monotone) Une classe monotone est un ensemble M de parties de Ω stable par union croissante[et par différence et qui contient Ω. Ainsi M ⊂ P (Ω), Ω ∈ M, ∀(A n )n ∈ MN vérifiant ∀n ∈ N, A n ⊂ A n+1 alors A n ∈ M et si A, B ∈ M n∈N vérifie A ⊂ B alors B \ A ∈ M a . a. Il est alors d’usage de noter B − A à la place de B \ A, l’inclusion A ⊂ B étant implicite dans cette notation. Exemples 5 • Une tribu est bien évidemment une classe monotone. • Si P et Q sont deux probabilités sur un même espace probabilisable (Ω, A) alors M = A ∈ A | P(A) = Q(A) est une classe monotone : en effet on a bien Ω ∈ M car P(Ω) = Q(Ω) = 1 ; si A, B ∈ M vérifient A ⊂ B alors B − A ∈ M car ) ∈ MN est une suite croissante, par continuité croissante, P(B −A) = P(B) − P(A) = Q(B) − Q(A) et si (A n [ [ [ P A n = lim P(A n ) = lim Q(A n ) = Q A n et donc A n ∈ M. n∈N n→+∞ n→+∞ n∈N n∈N Proposition 5 Ð Une partie A de P (Ω) est une tribu ssi A est un π-système et une classe monotone. dem : • Le sens =⇒ est clair. • sens ⇐= : soit A ⊂ P (Ω) un π-système et une classe monotone, montrons que A est une tribu : a) Ω ∈ A car A est une classe monotone ; b) si A ∈ A alors A = Ω − A ∈ A car A est une classe monotone et Ω ∈ A ; 4 c) il reste la stabilité par réunion dénombrable ; on commence par montrer la stabilité par réunion finie : soit donc A 0 , . . . , A n ∈ A ; on a A 0 , . . . , A n ∈ A et comme A est un π-système, on a donc A 0 ∩ · · · ∩ A n ∈ A et donc A 0 ∪ · · · ∪ A n = A 0 ∩ · · · ∩ A n ∈ A. Passons maintenant au cas dénombrable : soit (A n ) ∈ AN ; posons pour tout n ∈ N, Bn = A 0 ∪· · ·∪A n ; d’après ce [qu’on vient de voir, Bn ∈ A [; de plus [pour tout n, Bn ⊂ Bn+1 et ainsi puisque A est une classe monotone, Bn ∈ A et on conclut car An = Bn . n∈N 2 n∈N n∈N Indépendance et tribus On commence par introduire la notion d’indépendance de tribus qui est très simple (pas la peine d’examiner des sousensembles). Une sous-tribu de l’espace probabilisé (Ω, A, P) n’est rien d’autre ici qu’une sous-tribu de A. Définition 9 Soit A1 , . . . , An des sous-tribus de l’espace!probabilisé (Ω, A, P) ; on dit que A1 , . . . , An sont indépendantes ssi n Y \ ∀(A 1 , . . . , A n ) ∈ A1 × · · · × An , P Ai = P(A i ). i∈J1,nK i=1 Remarque Si A1 , . . .\ , An sont \ indépendantes, il en va de même de (Ai )i∈I où I est une partie non vide J1, nK : cela vient du fait que Ai = B j où B j = A j si j ∈ I et Ω sinon. Puis comme chaque B j est dans A j , par indépendance i∈I de A1 , . . . , An , P j∈J1,nK \ ! Bj = j∈J1,nK n Y P(B j ), ce qui donne P \ Ai = Y i∈I j=1 P(A i ) puisque P(B j ) = 1 si j 6∈ I. i∈I Théorème 6 Ð Ð Soit A1 , . . . , An des sous-tribus de l’espace probabilisé (Ω, A, P) alors A1 , . . . , An sont indépendantes ssi Ð ∀(A 1 , . . . , A n ) ∈ A1 × · · · × An , A 1 , . . . , A n sont indépendantes. dem : • le sens ⇐= est clair ; • supposons A1 , . . . , An indépendantes et soit (A 1 , . . . , A n ) ∈ A1 × · · · × An ; il s’agit de montrer que pour tout Y \ ensemble fini I non vide, P Ai = P(A i ) ce qui découle directement de la remarque ci-dessus. i∈I i∈I Ainsi on peut conclure que pour toute partie finie I, P \ i∈I Ai = Y P(A i ), ce qui par définition signifie l’indé- i∈I pendance de A 1 , . . . , A n . Théorème 7 (Lien avec l’indépendance d’événements) Ð Ð Soit A 1 , . . . , A n des événements alors A 1 , . . . , A n sont indépendants ssi les tribus σ(A 1 ), . . . , σ(A n ) sont indéÐ pendantes. dem : • sens ⇐= : c’est clair avec le théorème précédent puisque A i ∈ σ(A i ). • sens =⇒ : il s’agit de voir que pour tout B1 , . . . , Bn ∈ σ(A 1 ) × · · · × σ(A n ), P n \ i=1 Bi = n Y P(Bi ) soit encore en i=1 5 passant par les formules P(Bi ) = E(1Bi ) et P n \ Bi = E(1Tni=1 Bi ) = E i=1 n Y que 1Bi i=1 ∀B1 , . . . , Bn ∈ σ(A 1 ) × · · · × σ(A n ), E n Y 1Bi = i=1 n Y E(1Bi ) (?) i=1 Afin de traiter tous les cas une astuce consiste à écrire que pour tout Bi ∈ σ(A i ) = ∅, A i , A i , Ω , il existe ai , bi ∈ Z tel que 1Bi = ai + bi 1A i : en effet • si Bi = ∅, on prend ai = bi = 0 ; • si Bi = Ω, on prend ai = 1 et bi = 0 ; • si Bi = A i , on prend ai = 0 et bi = 1 ; • si Bi = A i , on prend ai = 1 et bi = −1 car 1A i = 1 − 1A i . Dès lors (?) revient à montrer que : n n Y Y (ai + bi 1A i ) = ∀a1 , . . . , an , b1 , . . . , bn ∈ Z, E E ai + bi 1A i i=1 (??) i=1 n Y Y X Y Pour cela on commence par montrer par récurrence sur n que ai × (ai + bi 1A i ) = bi 1A i où par i=1 convention Y I⊂J1,nK i∈I t=1: i∈I i∈∅ • pour n = 1, I ⊂ J1, nK prend deux valeurs I = ∅ ou I = J1, 1K et donc ce qui valide la formule pour n = 1 ; X Y ai × Y bi 1A i = a1 ×1+1× 1A i , i∈I I⊂J1,nK i∈I • passage de n à n + 1 : supposons la formule vraie pour n et montrons là pour n + 1 : n n+1 Y Y (ai + bi 1A i ) = (ai + bi 1A i ) (an+1 + bn+1 1A n+1 ) i=1 i=1 ! X Y = ai × Y I⊂J1,nK i∈I = ! ai an+1 × | {z Y J⊂J1,n+1K i∈J Y X Y bi 1A i + i∈I } =α X Si maintenant on calcule bi 1A i (an+1 + bn+1 1A n+1 ) i∈I I⊂J1,nK i∈I X Y ai × Y | ai × Y ! b i 1A i bn+1 1A n+1 i∈I I⊂J1,nK i∈I {z =β } bi 1A i on peut aussi le scinder en deux termes suivant que i∈J J ⊂ J1, n + 1K contient n + 1 ou pas : X Y Y • ai × bi 1A i correspond à β car J ⊂ J1, n + 1K contenant n + 1 peut s’écrire J = I ∪ n + 1 i∈J J⊂J1,n+1K i∈J n+1∈J avec I ⊂ J1, nK quelconque (union disjointe) et parce que Y i∈J 6 bi 1A i = Y i∈I bi 1A i bn+1 1A n+1 Y i∈J ai = Y i∈I ai vu que J = I ∩ J1, nK = I et • X Y ai × Y i∈J J⊂J1,n+1K i∈J n+1∈J / bi 1A i correspond à α car J ⊂ J1, n + 1K ne contenant pas n + 1 est donc un sous! ensemble quelconque I de J1, nK et parce que Y Y ai = i∈I i∈J ai an+1 vu que ûJ1,n+1K J = ûJ1,nK I ∪ n + 1 (union disjointe) Conclusion : on a bien X Y Y ai × n+1 Y bi 1A i = β + α = (ai + bi 1A i ), ce qui achève la récurrence. i∈J J⊂J1,n+1K i∈J i=1 Retour à la preuve de (??) : par linéarité de l’espérance ! n Y Y X Y Y X Y Y 1A i (ai + bi 1A i ) = E ai × bi 1A i = ai × bi E E i=1 i∈I I⊂J1,nK i∈I = X Y ai × Y ai × Y = = = ai × ai × = = I=1 n Y Y \ Ai i∈I bi P (A i ) ind. des A i , P \ Y Ai = i∈I b i E 1A i Y P(A i ) i∈I i∈I I⊂J1,nK i∈I n Y i∈I I⊂J1,nK i∈I X Y bi P i∈I I⊂J1,nK i∈I X Y bi E 1Ti∈I A i i∈I I⊂J1,nK i∈I X Y i∈I i∈I I⊂J1,nK i∈I ai + bi E(1A i ) E a i + b i 1A i démonstration analogue i=1 n Y X Y Y Remarque : plus généralement dans un anneau commutatif on a la formule (ai + bi ) = ai × bi , (qui i=1 i∈I I⊂J1,nK i∈I se démontre de la même manière) ce qui permet de retrouver facilement la formule du binôme et les fonctions n Y symétriques élémentaires dans le développement de (X − ai ) en se plaçant dans l’anneau K[X]. On peut même i=1 retrouver la formule du crible de Poincaré en se plaçant dans l’anneau A = ZE et en passant par les fonctions caractéristiques : Soit A 1 , . . . , A n n sous-ensembles d’un ensemble fini E (n ∈ N∗ ) alors ! X n n k X \ [ k+1 card Ai = (−1) card Aij . i=1 1¶i1 <i2 <···<ik ¶n k=1 j=1 Principe : on utilise la fonction indicatrice et le fait que X card A = 1A (x) ∀A, B ∈ P (E), 1A∩B = 1A 1B , 1A = 1 − 1A ; (∗) x∈E puis on remarque que : 1Sni=1 A i = 1−1Tn i=1 A i = 1− n Y 1A i = 1− i=1 n Y n Y 1 − 1A i et on développe le produit 1 − 1A i i=1 i=1 en faisant intervenir les fonctions symétriques élémentaires : n Y i=1 n X (−1)k 1 − 1A i = 1 + k=1 X 1¶i1 <i2 <···<ik ¶n 1A i · · · 1A i = 1 + 1 k n X (−1)k k=1 X 1¶i1 <i2 <···<ik ¶n 1Tk j=1 A i j 7 On obtient alors la formule 1Sni=1 A i = n X (−1)k+1 X 1T k j=1 A i j 1¶i1 <i2 <···<ik ¶n k=1 qui jointe à (∗) donne le résultat. De plus en passant par l’espérance, on retombe sur la formule du crible pour les probabilités : X n n k X \ [ k+1 P Aij (−1) P Ai = i=1 1¶i1 <i2 <···<ik ¶n k=1 j=1 Pour clore cette digression remarquons qu’on peut généraliser la formule (avec l’hypothèse de commutation deux à deux) : n Y X Y Y Y (ai,i1 + ai,i2 + · · · + ai,im ) = ai1 ,1 × ai2 ,2 × · · · × aim ,m (I1 ,...,I )∈(P (J1,nK))m i1 ∈I1 Sm m j=1 I j =J1,nK i=1 i2 ∈I2 im ∈I m ce qui permet ensuite d’en déduire la formule du multinôme. Corollaire 8 Si les événements (A i )i∈I sont mutuellement indépendants alors les événements (Bi )i∈I où chaque Bi (pour i ∈ I) est A i ou A i , sont mutuellement indépendants. dem : Y \ P(Bi ) ; on constate pour cela que Bi = Il s’agit de montrer que si J ⊂ I est un ensemble fini non vide alors P i∈J i∈J les événements de la sous-famille (A i )i∈J sont indépendants (car toute sous famille de (A i )i∈J est en particulier une sous-famille finie de (A i )i∈I ) et donc d’après ce qui précède, les tribus (σ(A i ))i∈J sont indépendantes ; on conclut alors car ∀i ∈ J, Bi ∈ σ(A i ). Théorème 9 (Lien avec l’indépendance de variables aléatoires) Ð Ð Soit X 1 , . . . , X n des v.a. sur un même espace probabilisé (Ω, A, P). Alors X 1 , . . . , X n sont indépendantes ssi les Ð tribus σ(X 1 ), . . . , σ(X n ) sont indépendantes. dem : • =⇒ : Supposons ce qui par définition signifie que ∀(x 1 , . . . , x n ) ∈ X 1 (Ω)×· · ·×X n (Ω) X 1 , . . . , X n indépendantes les événements X 1 = x 1 , . . . , X n = x n sont indépendants. Comme tout élément de σ(X i ) est de la forme n n Y \ X i ∈ A i avec A i ∈ P (E), il s’agit donc de voir que P Xi ∈ Ai = P(X i ∈ A i ) pour A 1 , . . . , A n des i=1 i=1 parties respectivement de E1 , . . . , E n ; posons pour tout k, A0k = A k ∩ X k (Ω) qui est donc un ensemble au plus dénombrable : n \ Xi ∈ Ai = i=1 n \ X i ∈ A0i = i=1 Qn n \ P Xi = xi (x i )ni=1 ∈ Qn n Y n Y Qn 0 i=1 A i X i=1 P (X i = x i ) x i ∈A0i i=1 (indépendance des X = x i ) i=1 0 i=1 A i n \ Xi = xi i=1 0 i=1 A i X (x i )ni=1 ∈ = X = 8 (x i )ni=1 ∈ i=1 on en déduit par σ-additivité que : n \ P Xi ∈ Ai = a P (X i = x i ) = n Y i=1 P(X i ∈ A0i ) = n Y i=1 P(X i ∈ A i ) et ainsi on a bien σ(X 1 ), . . . , σ(X n ) indépendantes. • Supposons que ∀(x 1 , . . . , x n ) ∈ X 1 (Ω) × · · · × X n (Ω) les σ(X 1 ), . . . , σ(X n ) soient indépendantes ; en particulier événements X 1 = x 1 , . . . , X n = x n sont indépendants car X i = x i ∈ σ(X i ) et on utilise le théorème 6 ; ainsi par définition X 1 , . . . , X n sont indépendantes. Remarques • On en déduit que si X 1 , . . . , X n sont indépendantes, il en va de même de (X i )i∈I où I ⊂ J1, nK est non vide (passer par les tribus). • On a donc en utilisant la définition de l’indépendance de tribus, X 1 , . . . , X n indépendantes ssi n \ ∀(A 1 , . . . , A n ) ∈ P (E1 ) × · · · × P (E n ), P Xi ∈ Ai = n Y i=1 P(X i ∈ A i ). i=1 En utilisant le théorème 6 cela équivaut aussi à l’indépendance de X 1 ∈ A 1 , . . . , X n ∈ A n et enfin c’est aussi équivalent (définition initiale de l’indépendance de v.a.) à n \ ∀(x 1 , . . . , x n ) ∈ X 1 (Ω) × · · · × X n (Ω), P Xi = xi i=1 = n Y P(X i = x i ). i=1 Bref toutes ces équivalences expliquent les différentes versions de la définition de l’indépendance de n variables aléatoires discrètes qu’on trouve dans les manuels. Corollaire 10 Soit A 1 , . . . , A n des événements alors A 1 , . . . , A n sont indépendants ssi les variables aléatoires 1A 1 , . . . , 1A n sont indépendantes. dem : Clair car A 1 , . . . , A n sont indépendants ssi σ(A 1 ) = σ(1A 1 ), . . . , σ(A n ) = σ(1A n ) sont indépendantes et donc ssi 1A 1 , . . . , 1A n sont indépendantes. Corollaire 11 Soit X 1 , . . . , X n des variables aléatoires indépendantes sur un même espace probabilisé (Ω, A, P). Si pour tout i ∈ J1, nK, la fonction f i est définie sur X i (Ω), les variables aléatoires f1 (X 1 ), . . . , f n (X n ) sont indépendantes. dem : Soit ( y1 , . . . , yn ) ∈ f (X 1 (Ω)) × · · · × f (X n (Ω)) : n \ ∩ · · · ∩ X n ∈ f n−1 yn P f (X i ) = yi = P X 1 ∈ f1−1 y1 i=1 =P X 1 ∈ f1−1 y1 ···P X n ∈ f n−1 yn (par indépendance) = P( f1 (X 1 ) = y1 ) · · · P( f n (X n ) = yn ) et donc d’après la remarque f1 (X 1 ), . . . , f n (X n ) sont indépendantes. 3 Le lemme des coalitions On commence par établir le lemme des classes monotones ou théorème π−λ de Dynkin qui est crucial pour le lemme des coalitions. 9 Lemme 12 (Classes monotones) Ð Soit M une classe monotone et C un π-système tel que C ⊂ M. Alors σ(C) ⊂ M. Ð Ð Ð Autrement dit la plus petite classe monotone contenant C est la tribu engendrée par C puisqu’une tribu est Ð aussi une classe monotone. dem : On commence par introduire le concept de classe monotone engendrée par une famille F de parties de Ω ; il est simple de voir \ qu’une intersection quelconque de classes monotones est encore une classe monotone et donc M(F ) = M est la plus petite (pour l’inclusion) classe monotone contenant F (l’intersection est bien M classe monotone F ⊂M définie car il existe au moins une classe monotone contenant F à savoir P (Ω) : M(F ) s’appelle la classe monotone engendrée par F . Le lemme sera alors montré si on établit que M(C) = σ(C). \ Par définition σ(C) = T et comme une tribu est une classe monotone, il vient que M(C) ⊂ σ(C) (car dans T tribu C⊂T l’intersection définissant M(C) figurent toutes les tribus contenant C). Ainsi on a montré que C ⊂ M(C) ⊂ σ(C). L’idée consiste ensuite à montrer que M(C) est un π-système : en effet dans ce cas M(C) sera une tribu (cf. proposition 5) et comme C ⊂ M(C), on aura donc σ(C) ⊂ M(C) et finalement M(C) = σ(C) d’où le lemme. Montrons donc que M(C) est un π-système : pour A ∈ C, on pose DA = B ∈ M(C) | A ∩ B ∈ M(C) . • on a C ⊂ DA car si B ∈ C alors B ∈ M(C) (clair) et comme C est un π-système, on a A ∩ B ∈ C et donc A ∩ B ∈ M(C) i.e. B ∈ DA . • DA est une classe monotone : ? Ω ∈ DA car Ω ∈ M(C) (car M(C) est une classe monotone) et A ∩ Ω = A ∈ C ⊂ M(C). ? Soit B, B0 ∈ DA avec B ⊂ B0 : on a donc B, B0 ∈ M(C) et A ∩ B ∈ M(C) et A ∩ B0 ⊂ M(C) ; on a donc aussi B0 − B ∈ M(C) (car M(C) est une classe monotone) et puisque A ∩ (B0 − B) = (A ∩ B) − (A ∩ B0 ), pour les mêmes raisons A ∩ (B0 − B) ∈ M(C) i.e. B0 − B ∈ DA . [ ? Soit (Bn )n ∈ DN Bn ∈ M(C) A une suite croissante : pour tout n, Bn ∈ M(C) et A ∩ Bn ⊂ M(C) ; on a donc [ n∈N (car M(C) est une classe monotone) et comme (A ∩ Bn )n est une suite croissante, on a aussi A ∩ Bn ∈ M(C) n∈N [ [ i.e. A ∩ Bn ∈ M(C) et donc Bn ∈ DA . n∈N n∈N Grâce aux éléments soulignés, on en déduit que DA est une classe monotone. Conclusion : DA est une classe monotone contenant C et donc M(C) ⊂ DA et comme par définition DA ⊂ M(C), on en déduit que M(C) = DA . • À ce stade de la démonstration on a donc démontré que ∀A ∈ C, ∀B ∈ M(C), A ∩ B ∈ M(C) : ce n’est pas encore la stabilité par produit mais on y est presque ! On fixe alors B ∈ M(C) et on introduit D0B = A ∈ M(C) | A ∩ B ∈ M(C) . D’après ce qu’on vient de voir C ⊂ D0B et on montre de la même façon que précédemment que D0B est une classe monotone ce qui entraîne immédiatement que M(C) ⊂ D0B puis M(C) = D0B . Conclusion finale : on a donc démontré que ∀A, B ∈ M(C), A ∩ B ∈ M(C) et par une récurrence immédiate il vient donc que M(C) est stable par intersection finie et donc M(C) est un π-système comme on voulait. Théorème 13 (π-système et indépendance) Ð Ð Soit (Ω, A, P) un espace probabilisé et A1 , . . . , An des sous-tribus de A. On suppose que pour tout k ∈ J1, nK, il Ð Ð existe un π-système Ck contenant Ω tel que Ak = σ(Ck ). On suppose de plus que C1 , . . . , Cn sont indépendants Ð au sens où ∀(C1 , . . . , . . . , Cn ) ∈ C1 × · · · × Cn , P(C1 ∩ · · · ∩ Cn ) = P(C1 ) · · · P(Cn ). 10 Conclusion : A1 , . . . , An sont indépendantes. dem : On fixe (C2 , . . . , Cn ) ∈ C2 × · · · × Cn et on pose M1 = A 1 ∈ A1 | P(A 1 ∩ C2 ∩ · · · ∩ Cn ) = P(A 1 )P(C2 ) · · · P(Cn ) . Montrons que M1 est une classe monotone : • Ω ∈ M1 car Ω ∈ C1 (et bien sûr à A1 ) • soit A 1 , A01 ∈ M1 avec A 1 ⊂ A01 : on a P((A01 − A 1 ) ∩ C2 · · · Cn ) + P(A 1 ∩ C2 · · · Cn ) = P(A01 ∩ C2 ∩ · · · ∩ Cn ) et ainsi puisque A 1 , A01 ∈ M1 , il vient que P((A01 − A 1 ) ∩ C2 · · · Cn ) = P(A01 ∩ C2 ∩ · · · ∩ Cn ) − P(A 1 ∩ C2 ∩ · · · ∩ Cn ) = P(A01 )P(C2 ) · · · P(Cn ) − P(A 1 )P(C2 ) · · · P(Cn ) = (P(A01 ) − P(A 1 ))P(C2 ) · · · P(Cn ) = P(A01 − A 1 )P(C2 ) · · · P(Cn ) et ainsi A01 − A 1 ∈ M1 . • Soit [ (A p ) p ∈ MN 1 une suite croissante pour l’inclusion [ : on constate que (A p ∩C2 · · ·∩Cn )n est une suite croissante avec A p ∩ C2 · · · ∩ Cn = A ∩ C2 · · · ∩ Cn où A = A p et ainsi par continuité croissante p∈N p∈N P(A ∩ C2 · · · ∩ Cn ) = lim P(A p ∩ C2 · · · ∩ Cn ) = lim P(A p )P(C2 ) · · · P(Cn ) = P(A)P(C2 ) · · · P(Cn ) p→+∞ p→+∞ car toujours par continuité croissante, P(A) = lim P(A p ) et ainsi A = p→+∞ [ A p ∈ M1 , ce qui finit la preuve que p∈N M1 est une classe monotone. On constate ensuite que C1 ⊂ M car C1 , C2 , . . . , Cn sont indépendantes et ainsi d’après le lemme des classes monotones, on en déduit que σ(C1 ) ⊂ M, ce qui établit puisque C2 , . . . , Cn sont quelconques que ∀(A 1 , C2 , . . . , Cn ) ∈ A1 × C2 × · · · × Cn , P(A 1 ∩ C2 ∩ · · · ∩ Cn ) = P(A 1 )P(C2 ) · · · P(Cn ). On fixe A 1 ∈ A1 , (C3 , . . . , Cn ) ∈ C3 × · · · × Cn et on pose M2 = A 2 ∈ A2 | P(A 1 ∩ A 2 ∩ C3 ∩ · · · ∩ Cn ) = P(A 1 )P(A 2 )P(C3 ) · · · P(Cn ) D’après ce qu’on vient de voir, C2 ⊂ M2 ; puis on montre que M2 est une classe monotone (on a bien Ω ∈ M2 car Ω ∈ C2 et le reste se démontre comme précédemment) et ainsi d’après le lemme des classes monotones, σ(C2 ) ⊂ M2 et donc ∀(A 1 , A 2 , C3 . . . , Cn ) ∈ A1 × A2 × C3 · · · × Cn , P(A 1 ∩ A 2 ∩ C3 ∩ · · · ∩ Cn ) = P(A 1 )P(A 2 )P(C2 ) · · · P(Cn ). On recommence ensuite en fixant (A 1 , A 2 , C4 , . . . , Cn ) ∈ A1 × A2 × C4 × · · · × Cn et on introduit M3 = A 3 ∈ A3 | P(A 1 ∩ A 2 ∩ A 3 ∩ C4 ∩ · · · ∩ Cn ) = P(A 1 )P(A 2 )P(A 3 )P(C4 ) · · · P(Cn ) et on montre que σ(C3 ) ⊂ M3 etc. On arrive ainsi à montrer que ∀(A 1 , . . . , A n ) ∈ A1 × · · · × An , P(A 1 ∩ · · · ∩ A n ) = P(A 1 ) · · · P(A n ), ce qui par définition signifie que A1 , . . . , An sont indépendantes. Nous pouvons maintenant énoncer et démontrer le lemme des coalitions dans toute sa généralité : Lemme 14 (Coalitions) Ð Ð Soit A1 , . . . , Am des sous-tribus indépendantes d’un espace probabilisé (Ω, A, P), n un entier non nul, I1 , I2 , . . . , I n Ð Ð des sous-ensembles non vides formant une partition de J1, mK. Alors les tribus Ð Ð Ð σ A i 1 ; i1 ∈ I 1 , . . . , σ A i n ; i n ∈ I n Ð Ð Ð sont indépendantes. 11 dem : ¨ Notons pour tout k ∈ J1, nK, Ck = « \ A ik ; (A ik )ik ∈Ik ∈ Aik i ∈I : c’est un π-système (clair) qui contient Ω k k \ puisque Ω ∈ Aik pour tout ik ∈ I k et donc Ω = Ω ∈ Ck . Vérifions que Ck engendre σ Aik ; ik ∈ I k : ik ∈I k ik ∈I k • l’inclusion Ck ⊂ σ Aik ; ik ∈ I k est claire et donc σ(Ck ) ⊂ σ Aik ; ik ∈ I k ; ¨ Ω si j 6= ik B j où B j = et on a A si j = ik ik j∈I k [ [ σ(Aik ) ⊂ σ(Ck ) i.e. bien B j ∈ A j et donc σ(Aik ) ⊂ σ(Ck ) ; on en déduit que σ(Aik ) ⊂ σ(Ck ) puis σ • pour tout ik ∈ I k , on a l’inclusion Aik ⊂ Ck car si A ik ∈ Aik alors A ik = \ ik ∈I k ik ∈I k σ Aik ; ik ∈ I k ⊂ σ(Ck ) et ainsi on a bien σ Aik ; ik ∈ I k = σ(Ck ). Vérifions maintenant l’indépendance de C1\ , . . . , Cn : en effet soit (A 1 , . . . , A n ) ∈ C1 × · · · × Cn : pour tout k ∈ J1, nK, il existe (A k,ik )ik ∈Ik ∈ Aik i ∈I tel que A k = A k,ik ; puis en considérant (B j ) j∈J1,mK avec B j = Ω si j 6∈ I k et B j = A k, j k k ik ∈I k si j ∈ I k , on a B j ∈ A j et comme A1 , . . . , Am sont indépendantes, il en va de même des (B j ) j∈J1,mK (cf. théorème 6) Y Y \ Bj = et donc P P(B j ) d’où l’égalité P(A k ) = P(A k,ik ). j∈I k ik ∈I k j∈I k Toujours par indépendance des (Ai )i∈J1,mK et puisque I1 , . . . , I n forment une partition de J1, mK, on a \ P(A 1 ∩ · · · ∩ A n ) = P A 1,i1 ∩ · · · ∩ i1 ∈I1 = Y P(A 1,i1 ) × · · · × i1 ∈I1 \ A n,in in ∈I n Y P(A n,in ) in ∈I n = P(A 1 ) · · · P(A n ) Conclusion : C1 , . . . , Cn sont bien indépendants ; ce sont de plus des π-systèmescontenant Ω avec pour tout k, σ Aik ; ik ∈ I k = σ(Ck ) et donc d’après le théorème 13, les tribus σ Ai1 ; i1 ∈ I1 , . . . , σ Ain ; in ∈ I n sont indépendantes. Corollaire 15 Soit X 1 , . . . , X m des variables aléatoires sur un même espace probabilisé (Ω, A, P) et indépendantes, n un entier naturel un entier naturel non nul, I1 , I2 , . . . , I n des sous-ensembles non vides formant une partition de J1, mK. i. Les tribus σ(X i1 ; i1 ∈ I1 ), . . . , σ(X in ; in ∈ I n ) sont indépendantes. ii. Pour tout j entre 1 et n, on considère une variable aléatoire Y j qui est une fonction des variables X i pour i ∈ I j . Alors les variables Y1 , . . . , Yn sont indépendantes. dem : i. D’après le théorème 9 les tribus σ(X 1 ), . . . , σ(X n ) sont indépendantes puisque X 1 , . . . , X n le sont : on conclut alors avec le lemme des coalitions puisque σ(X ik ; ik ∈ I k ) = σ(σ(X ik ) ; ik ∈ I k ) ii. Découle de i. et des propositions 3 et 11 Remarque Avec les notations du corollaire précédent, on aura donc aussi l’indépendance des (Yi )i∈I où I est un sousensemble non vide de J1, nK. 12 Corollaire 16 Soit A 1 , . . . , A m des événements de A, n un entier naturel un entier naturel non nul, I1 , I2 , . . . , I n des sousensembles non vides formant une partition de J1, mK. i. Les tribus σ(A i1 ; i1 ∈ I1 ), . . . , σ(A in ; in ∈ I n ) sont indépendantes. ii. Pour tout j entre 1 et n, on considère l’événement B j qui s’écrit comme réunion ou intersection des événements (A i )i∈I j ou de leur contraire. Alors B1 , . . . , Bn sont indépendants. dem : i. Appliquer le corollaire précédent en considérant X i = 1A i et en utilisant la proposition 4. ii. utiliser le fait que B j ∈ σ(A i j ; i j ∈ I j ) et le théorème 6. Remarque Avec les notations du corollaire précédent, on aura donc aussi l’indépendance des (Bi )i∈I où I est un sousensemble non vide de J1, nK. 13