Agrégation de Mathématiques Frédéric Boure Indépendance d'événements et de variables aléatoires. Exemples. On considère dans toute la leçon (Ω, F, P) un espace de probabilité. 1 Indépendance d'événements, probabilités conditionnelles. Dénition 1.1 (Evenements indépendants). Deux événements A et B sont dits indépendants lorsque P(A ∩ B) = P(A)P(B). Une famille quelconque d'événements (Ai )i∈I de F est mutuellement indépendante si ∀J ⊂ I, J ni , P \ Ai = i∈J Y P(Ai ). i∈J Proposition 1.2. Soient A, B deux évenemtns avec P(B) > 0. On pose PB (A) := P(A|B) = P(A ∩ B) . P(B) la probabilité conditionnelle de A sachant que B est réalisé. Alors l'application PB : F A → [0, 1] 7→ PB (A) est une probabilité. Proposition 1.3. Si A et B sont deux événements avec P(B) > 0 alors A et B sont indépendants ⇐⇒ PB (A) = P(A). Exemple. 1) Dans un jeu de 32 cartes, les événements {Obtenir un roi} et {Obtenir un pique} sont indépendants. Les événements {Obtenir un trèe} et {Obtenir un pique} ne sont pas indépendants. 2) Si Ω = [0, 1] et P = λ la mesure de Lebesgue. Les événements [ 2(k − 1) 2k − 1 An := , 2n 2n n−1 16l62 dénis pour n ∈ N forment une famille mutuellement indépendante. Proposition 1.4. 1) Si A et B sont deux événements indépendnats, il en est de même pour A et B c , Ac et B et enn A et B c . c 2) Plus généralement, si (Ai )i∈I est une famille mutuellement indépendante et si on contruit une famille d'événements (Bi )i∈I comme suit Bi = Ai ou Bi = Aci alors la famille (Bi )i∈I est mutuellement indépendante. Applications. Dev Calcul de l'indicatrice d'Euler par une méthode probabiliste. Pour tout entier n, ϕ(n) = n Y p|n,p∈P 1− 1 p où P est l'ensemble des nombres premiers. Théorème 1.5 1) Si (Lemme de Borel-Cantelli). Soit (An )n une famille dénombrable d'événements P(An ) < ∞ alors P(lim supn An ) = 0. Pn 2) Si n P(An ) = ∞ avec (An )n famille indépendante, alors P(lim supn An ) = 1. P Remarque On note l'événement {lim sup A } = {A n n i.s.} où i.s. signie inniment souvent. ♦ Applications. 1) Suite de Pile/Face. On considère une expérience aléatoire qui consiste à lancer successivement une pièce truquée, P(pile) = p ∈]0, 1[. On se demande si on va voir apparaître au moins un pile. On montre que presque-sûrement, il y a toujours au moins un pile qui sort. On se demande maintenant s'il y a une innité de pile qui apparaît. On note An := {obtenir pile au n-ième lancer} et lim sup An := {obtenir pile i.s.}. n Le lemme de Borel-Cantelli 2) montre que P(obtenir pile i.s.) = 1. Quelle est la probabilité d'obtenir une innité de fois deux piles consécutifs ? (rép. 1) 2) Marche aléatoire sur Z non symétrique. Soit la suite {Zi }i dénie par Z0 = 0 et, pour tout i > 0, ( Zi+1 = Zi + 1 avec probabilité p Zi+1 = Zi − 1 avec probabilité q = 1 − p où p 6= 12 . On considère l'événement An := {après 2n pas, je suis en 0} alors 2n n (4p(1 − p))n am √ P(An ) = p (1 − p)n ∼ 6 n C πn où a < 1. Le premier point du lemme de Borel-Cantelli permet de déduire que l'état 0 est transient pour la chaîne de Markov {Zi }i 2 Indépendance de tribus, variables aléatoires indépendantes. Dénition 2.1. Soit (Ai )i∈I une famille de sous-tribus de P . On dit qu'elles sont indépendantes si et seulement si ∀J ⊂ I, J ni, ∀Ai ∈ Ai , P \ Aj = j∈J Y P(Aj ). j∈J Soit (Xi )i∈I une famille de variables aléatoires, Xi : (Ω, F, P) → (Ei , Ei ) On dit que (Xi )i∈I sont indépendantes si et seulement si les sous-tribus (σ(Xi ))i∈I le sont. On va désormais donner quelques caractérisations de l'indépendance de deux variables aléatoires. On pourra étendre ces caractérisations à une famille quelconque de variables aléatoires. Théorème 2.2 (Caractérisation de l'indépendance). Soient X, Y deux variables aléatoires. Les assertions suivantes sont équivalentes : (i) X et Y sont indépendantes (ii) ∀A ∈ E, ∀B ∈ F, P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B) (iii) Si C (resp. D) est stable par intersection et engendre E (resp. F ) P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B) ∀(A, B) ∈ C × D. (iv) ∀f : (E, E) → (R, B(R)), ∀g : (F, F) → (R, B(R)) mesurables, E(f (X)g(Y )) = E(f (X))E(g(Y )). (v) ∀f : (E, E) → (R, B(R)), ∀g : (F, F) → (R, B(R)) mesurables, f (X) et g(Y ) sont indépendantes. On se limitera dans la suite aux variables aléatoires réelles (v.a.r) ou vecteurs aléatoires dans Rd . Loi conjointe et lois marginales Proposition 2.3. Soit (X1 , X2 , . . . , Xd ) une famille nie de v.a.r indépendantes. La loi P(X du vecteur aléatoire sur (R , B(R )) est égale au produit des lois marginales P ⊗ · · · ⊗ P . Réciproquement, si la loi du vecteur est égale au produit des marges alors les variables aléatoires sont indépendantes. 1 ,...,Xd ) d d X1 Xd Caractérisation par les fonctions caractéristiques, de répartition Proposition 2.4. La famille (X1 , X2 , . . . , Xd ) de variables aléatoires à valeurs dans Rr dante si et seulement si 1 , . . . , Rrd est indépen- ∀(t1 , . . . , td ) ∈ Rr1 × · · · × Rrd , ϕ(X1 ,...,Xd ) (t1 , . . . , td ) = ϕX1 (t1 ) · · · ϕXd (td ) si et seulement si, pour r1 = · · · = rd = 1, F(X1 ,...,Xd ) (t1 , . . . , td ) = FX1 (t1 ) · · · FXd (td ) où ϕXi (resp. FXi ) représente la fonction caractéristique (resp. de répartition) de Xi . Applications. 1) Méthode de Box-Muller pour simuler √ des v.a. gaussiennes. Si√U et V sont des variables aléatoires i.i.d de loi uniforme sur [0, 1], alors X = −2 log V cos(2πU ) et Y = −2 log V sin(2πU ) sont i.i.d. de loi normale centrée réduite. 2) Dev Théorème de Renyi. Soit {Xn }n une de v.a.r iid de fonction de répartition F continue. Psuite n On dénit Rn le rang relatif de Xn par Rn := j=1 1l{Xj >Xn } . Alors la suite de variable aléatoire {Rn }n est iid et 1 ∀k ∈ {1, 2, . . . , n}. P(Rn = k) = n Loi du tout ou rien de Kolmogorov Dénition 2.5 (Tribu asymptotique). Soit (Ω, F, P) un espace de probabilité et {Ti }i∈N une suite de tribus indépendantes. Soit Cn = σ [ Tp et C∞ = p>n \ Cn . n∈N La tribu C∞ s'appelle tribu asymptotique. Remarques 1) Si on considère une suite de variables aléatoires indépendantes {Xi }i∈N Xi : (Ω, F) → (Ei , Ei ) alors Ti = σ(Xi ) := {Xi−1 (A) : A ∈ Ei } est une sous-tribu de F et on peut dénir la tribu asymptotique pour {Xn }n . 2) Un événement est dans la tribu asymptotique de {Xn }n s'il ne dépend que du comportement de la suite {Xn }n lorsque n → ∞. 3) Exemple. A := {ω ∈ Ω : limn Xn (ω) existe} ∈ C∞ ♦ Théorème 2.6 (Loi de 0-1 de Kolmogorov). Soit {Ti }i∈N une suite de tribus indépendantes et C∞ sa tribu asymptotique. Alors, pour tout événement A ∈ C∞ , P (A) ∈ {0, 1}. Applications. Une application mesurable pour C∞ est presque-sûrement constante. A := {An i.s.} ∈ A∞ pour la suite de tribu An = σ(An ) = {∅, An , Acn , Ω} donc si {An }n est une suite d'événements indépendants, P(A) ∈ {0, 1}. On peut alors donner une précisionP sur le lemme de B-C : Si {An }n est une suite d'événements indépendants, si P(lim sup An ) = 0 alors n P(An ) < ∞. 3 Somme de variables aléatoires indépendantes. Proposition 3.1. Soient X, Y deux variables aléatoire indépendantes. Alors, P X+Y = P X ? P Y ϕX+Y = ϕX · ϕY Applications. 1) Soit {Xn }n une suite de var iid de loi N (m, σ 2 ). Alors, X ∼ N (m, σ 2 /n),Sn2 ∼ χ2 (n) et X ⊥ Sn2 . 2) Théorème de Berstein. Si X et Y sont deux var iid et L2 avec X + Y ⊥ X − Y alors X et Y sont gausiennes. Pn Dans la suite, {Xn }n désigne une suite de var iid et on dénit Sn := i=1 Xi . Théorèmes limites Théorème 3.2 (Loi des grands nombres). 1) (loi faible) Si X admet un moment d'ordre 1, alors Sn P −−−−→ E(X). n→∞ n 2) (loi forte) X admet un moment d'ordre 1 si et seulement si Sn p.s. −−−−→ E(X). n n→∞ Applications. 1) Presque tout nombre réel de [0, 1] admet en moyenne autant de 0 que de 1 dans son développement dyadique. 2) Dev Presque tout irrationnel est normal. 3) Méthode de Monte-Carlo. Soit f : Rd → R avec d > 1. Soit à évaluer l'intégrale Z 1 Z 1 I= ··· f (t1 , . . . , tn )d(t1 , . . . , tn ). 0 0 Soit X = (X1 , · · · , Xn ) un vecteur aléatoire uniformément distribué sur [0, 1]d . On a alors I = E[f (X1 , · · · , Xn )] et N 1 X p.s. f (X(ωi )) −−−−→ I. N →∞ N i=1 Théorème 3.3 (Théorème de la limite centrale). Si X admet un moment d'ordre 2, et en notant m := E(X) et σ 2 = Var(X) alors Applications. Sn − nm L √ −−−−→ N (0, 1). n→∞ σ n limn→∞ e−n nk k=0 k! Pn = 1 2 Un exemple de processus stochastique Décrivons un processus de branchement élémentaire : le processus de Galton-Watson simple. Dénition 3.4 (Processus de Galton-Watson). Un processus est une chaîne de avec p∗i j := P( Pi Markov {Z k=0 de Galton-Watson de loi de reproduction P n : n ∈ N} sur l'espace d'état N de matrice de transition (pij ) donnée par ∗i pj , si i > 1 ; pij = P(Zn+1 = j|Zn = i) = j>0 δ0j , si i = 0 Yk = j) où {Yk }k est une suite de var iid de loi de probabilité P . L'étude de cette chaîne est facilitée par l'usage de fonctions génératrices et/ou de martingales et des théorèmes limites qui leurs sont associées. On étudie par exemple la survivance de l'espèce, la vitesse d'extinction, l'instabilité de la chaîne etc. Sources : Barbe-Ledoux ; Resnik (A probability path) ; Zuily-Queelec ; Cottrell.