1 Pile, face, coupons Mots-clés. Combinatoire ; loi discrète ; distance en variation totale ; loi des petits nombres ; convergence abrupte ; loi de Gumbel. Outils. Loi des grands nombres ; théorème limite central ; inégalité de Markov. Difficulté. * Ce chapitre est consacré au jeu de pile ou face et au problème du collectionneur de coupons, deux objets probabilistes importants qu’il est bon de connaître et savoir reconnaître. Ce chapitre contient également une étude de la distance en variation totale pour les mesures de probabilité discrètes. 1.1 Jeu de pile ou face Le jeu de pile ou face consiste en des lancers successifs d’une pièce de monnaie qui donnent à chaque fois soit pile (succès, codé 1) soit face (échec, codé 0). On modélise cela par une suite (Xn )n1 de variables aléatoires indépendantes et identiquement distribuées de loi de Bernoulli Ber(p) : P(Xn = 1) = 1 − P(Xn = 0) = p ∈ [0, 1]. Le nombre de succès dans les n premiers lancers Sn = X 1 + · · · + X n est une variable aléatoire à valeurs dans {0, 1, . . . , n} qui suit la loi binomiale Bin(n, p) de taille n et de paramètre p, donnée pour tout k = 0, 1, . . . , n par n k n! pk (1 − p)n−k . p (1 − p)n−k = P(Sn = k) = k!(n − k)! k © Springer-Verlag Berlin Heidelberg 2016 D. Chafaï and F. Malrieu, Recueil de Modèles Aléatoires, Mathématiques et Applications 78, DOI 10.1007/978-3-662-49768-5_1 1 2 1 Pile, face, coupons La moyenne et la variance de Sn sont donnés par E(Sn ) = np et Var(Sn ) = np(1 − p). Le temps T du premier succès, qui est aussi le nombre de lancers pour obtenir un premier succès, est donné par T := inf{n 1 : Xn = 1} Si p > 0, T suit la loi géométrique Geo(p) sur N∗ de paramètre p donnée par P(T = k) = (1 − p)k−1 p, k ∈ N∗ . On a T ≡ ∞ si p = 0 et P(T < ∞) = 1 sinon. De plus E(T ) = 1 p et Var(T ) = 1−p . p2 Le nombre d’échecs avant le premier succès T := inf{n 0 : Xn+1 = 1} = T − 1 suit la loi géométrique GeoN (p) sur N et de paramètre p donnée par P(T = k) = P(T − 1 = k) = (1 − p)k p, k ∈ N, et on a E(T ) = E(T ) − 1 = 1−p p et Var(T ) = Var(T ) = 1−p . p2 Pour tout r ∈ N∗ , le nombre de lancers Tr nécessaires pour obtenir r succès est défini par récurrence par T1 := T Tr+1 := inf{n > Tr : Xn = 1}. et Les variables aléatoires T1 , T2 − T1 , T3 − T2 , . . . sont indépendantes et identiquement distribuées de loi géométrique Geo(p). La variable aléatoire Tr suit la loi de Pascal ou loi binomiale-négative Geo(p)∗r . On a pour tout k r, k−1 (1 − p)k1 −1 p · · · (1 − p)kr −1 p = (1 − p)k−r pr P(Tr = k) = r−1 k1 1,...,kr 1 k1 +···+kr =k et E(Tr ) = rE(T ) = r p et Var(Tr ) = rVar(T ) = r 1−p . p2 Le processus de Bernoulli (Sn )n0 a des trajectoires constantes par morceaux, avec des sauts d’amplitude +1, et les temps de saut sont donnés par (Tr )r1 (temps inter-sauts i.i.d. géométriques). Il constitue le processus de 1.1 Jeu de pile ou face 3 comptage de tops espacés par des durées indépendantes de même loi géométrique, analogue discret du processus de Poisson. Comme Sn est une somme de variables indépendantes, (Sn )n0 est une chaîne de Markov sur N de noyau P(x, y) = p1y=x+1 + (1 − p)1y=x , et (Sn − np)n0 est une martingale. Par la loi des grands nombres (LGN) et le théorème limite central (TLC) √ Sn Sn p.s. n loi − p −→ N (0, 1). −→ p et n→∞ n n→∞ n p(1 − p) Cela permet notamment de construire un intervalle de confiance asymptotique pour p appelé intervalle de Wald, qui est cependant peu précis. Remarque 1.1 (Intervalle de Clopper-Pearson). Il est également possible de confectionner des intervalles de confiance pour p non asymptotiques, comme celui de Clopper-Pearson par exemple, basé sur la correspondance Betabinomiale. Soit U1 , . . . , Un des v.a.r. i.i.d. de loi uniforme sur [0, 1]. Notons U(1,n) · · · U(n,n) leur réordonnement croissant. Alors pour tout k = 1, . . . , n la v.a.r. U(k,n) suit la loi Beta(k, n − k + 1) sur [0, 1] de densité t ∈ [0, 1] → tk−1 (1 − t)n−k , Beta(k, n − k + 1) où 1 sa−1 (1 − s)b−1 ds, Beta(a, b) := 0 et P(Sn k) = P(1{U1 p} + · · · + 1{Un p} k) = P(U(k,n) p). On déduit de cette identité une expression exacte de la probabilité que Sn appartienne à un intervalle donné. Notons que comme Sn est discrète, ses quantiles sont aussi discrets, ce qui empêche de fabriquer un intervalle exact de niveau α ∈ [0, 1] arbitraire, et suggère de procéder à un lissage. Remarque 1.2 (Motifs répétés et lois du zéro-un). Lorsque 0 < p < 1, le lemme de Borel-Cantelli (cas indépendant) entraîne que toute suite finie de 0 et de 1 apparaît presque sûrement une infinité de fois dans la suite X1 , X2 , . . . L’indépendance est capitale. Un singe éternel tapant sur un clavier finira toujours par écrire les œuvres complètes de William Shakespeare ! Alternativement, on peut déduire ce résultat de la nature géométrique du temps d’apparition du premier succès dans un jeu de pile ou face obtenu en découpant le jeu de pile ou face en blocs successifs de même longueur que la chaîne recherchée. Remarque 1.3 (Jeu de pile ou face et loi uniforme sur [0, 1]). Si U est une ∞ variable aléatoire sur [0, 1] et si U = n=1 bn 2−n est son écriture en base 2, alors U suit la loi uniforme sur [0, 1] si et seulement si les bits (bn )n1 de son écriture en base 2 sont des v.a.r. i.i.d. de Bernoulli de paramètre 1/2. Remarque 1.4 (Algorithme de débiaisage de von Neumann). Soit (Xn )n1 une suite de variables aléatoires de Bernoulli indépendantes et de paramètre 0 < p < 1 inconnu. On fabrique la suite (Yn )n1 de variables aléatoires indépendantes et de même loi sur {0, 1, 2} comme suit 4 1 Pile, face, coupons X1 X2 X3 X4 · · · Y1 Y2 en posant Yn = 0 si (X2n−1 , X2n ) = (0, 1), Yn = 1 si (X2n−1 , X2n ) = (1, 0), et Yn = 2 sinon. La suite (Zn )n1 obtenue à partir de (Yn )n1 en effaçant les 2 est constituée de variables aléatoires de Bernoulli indépendantes de paramètre 1/2. La production de chaque terme de la suite (Zn )n1 nécessite un nombre aléatoire géométrique de termes de la suite (Xn )n1 . 1.2 Approximation binomiale-gaussienne Soit (Xn )n1 des v.a.r. i.i.d. de moyenne m et variance 0 < σ 2 < ∞, et Sn = X1 + · · · + Xn . Le théorème limite central indique que pour tout t ∈ R, t x2 Sn − nm 1 √ √ e− 2 dx. lim P t = n→∞ nσ −∞ 2π Le théorème limite central de Berry-Esseen raffine ce résultat asymptotique en fournissant une borne quantitative uniforme : si X1 , X2 , . . . sont de Bernoulli de paramètre p ∈ ]0, 1[, on a m := E(X1 ) = p, σ 2 := E((X − m)2 ) = p(1 − p), τ 3 := E(|X1 − m|3 ) = p(1 − p)(1 − 2p(1 − p)), et t e− x22 √ dx sup P Sn np(1 − p)t + np − 2π t∈R −∞ τ3 1 − 2p(1 − p) √ 3 = √ . nσ p(1 − p) n Cette approximation de la loibinomiale par la loi gaussienne est d’autant meilleure que (1 − 2p(1 − p))/ np(1 − p) est petit. À n fixé, cette borne est minimale pour p = 1/2 mais explose quand p se rapproche de 0 ou de 1. Pour ces régimes extrêmes, il est plus approprié d’utiliser une approximation par la loi de Poisson, abordée dans la section 1.4. Lorsque X1 , X2 , . . . sont des variables de Bernoulli de paramètre p ∈ ]0, 1[, le TLC suggère d’approcher la loi binomiale Bin(n, p) de Sn par la loi gaussienne N (nm, nσ 2 ) lorsque n est grand. Le théorème limite central de de Moivre et Laplace précise que pour tous −∞ < a < b < +∞, (k−np)2 exp − 2np(1−p) √ =0 lim n sup P(Sn = k) − n→∞ 2πnp(1 − p) k∈In (a,b) où In (a, b) = 0kn: k − np np(1 − p) ∈ [a, b] , 1.3 Distance en variation totale 5 Lois binomiales 0.2 Bin(42,0.1) Bin(42,0.5) Bin(42,0.9) P(X=n) 0.15 0.1 0.05 0 0 10 20 n 30 40 Fig. 1.1. Lois binomiales de même taille, pour trois valeurs du second paramètre, illustrant la pertinence de l’approximation de la loi binomiale par une loi gaussienne et par une loi de Poisson selon les cas. qui redonne le TLC par intégration : b x2 1 Sn − np e− 2 dx. lim P ∈ [a, b] = √ n→∞ 2π a np(1 − p) 1.3 Distance en variation totale Dans toute cette section, E est un ensemble au plus dénombrable muni de la topologie et de la tribu discrètes P(E). L’ensemble des lois sur E est un espace métrique complet pour la distance en variation totale dVT (μ, ν) := sup |μ(A) − ν(A)|. A⊂E 6 1 Pile, face, coupons Notons que dVT (μ, ν) = μ − νVT où ηVT := supA⊂E |η(A)| pour toute mesure signée η de masse finie sur E. On a 0 dVT (μ, ν) 1 car le diamètre de [0, 1] est 1. De plus dVT (μ, ν) = 1 si μ et ν ont des supports disjoints. Théorème 1.5 (Autres expressions). Si μ et ν sont des lois sur E alors 1 1 f dμ − f dν = 1 sup dVT (μ, ν) = |μ(x) − ν(x)|. 2 f :E→[−1,1] 2 x∈E De plus, le supremum dans la définition de dVT (·, ·) est atteint pour l’ensemble A∗ = {x ∈ E : μ(x) ν(x)}, et il est atteint dans l’expression variationnelle fonctionnelle de dVT (·, ·) pour f = 1A∗ − 1Ac∗ . Démonstration. La seconde égalité provient de l’inégalité f dμ − f dν |f (x)||μ(x) − ν(x)| sup |f (x)| |μ(x) − ν(x)| x∈E x∈E x∈E qui est saturée pour f = 1A∗ − 1Ac∗ . Pour la première égalité, on écrit 1 |μ(A) − ν(A)| = fA dμ − fA dν 2 où f = 1A − 1Ac , ce qui donne 1 1 = f dμ − f dν sup |μ(x) − ν(x)| |μ(A) − ν(A)| 2 2 f :E→[−1,1] x∈E qui est saturée pour A = A∗ car, par définition de A∗ , 2|μ(A∗ ) − ν(A∗ )| = μ(A∗ ) − ν(A∗ ) + ν(Ac∗ ) − μ(Ac∗ ) |μ(x) − ν(x)| + |μ(x) − ν(x)|. = x∈A∗ x∈Ac∗ Théorème 1.6 (Convergence en loi). Si (Xn )n1 sont des variables aléatoires sur E et si μn désigne la loi de Xn , alors pour toute loi μ sur E, les propriétés suivantes sont équivalentes : 1. limn→∞ f dμn = f dμ pour toute fonction bornée f : E → R ; 2. limn→∞ μn (x) = μ(x) pour tout x ∈ E ; 1. En particulier on a 2·VT = ·1 (E,R) . 1.3 Distance en variation totale 7 3. limn→∞ dVT (μn , μ) = 0. Lorsqu’elles ont lieu on dit que (Xn ) converge en loi vers μ quand n → ∞. Toute fonction E → R est continue pour la topologie discrète sur E. Démonstration. Pour déduire 1. de 3. il suffit d’utiliser l’expression variationnelle fonctionnelle de dVT (·, ·). Pour déduire 2. de 1. on peut prendre f = 1{x} . Pour déduire 3. de 2. on observe que pour tout A ⊂ E, |μn (x) − μ(x)| = x∈E |μn (x) − μ(x)| + |μn (x) − μ(x)|. x∈Ac x∈A Grâce à 2., si A est fini, alors pour tout ε > 0, il existe un entier N = N (A, ε) tel que le premier terme du membre de droite est majoré par ε pour tout n N . Le second terme du membre de droite peut se contrôler comme suit : |μn (x) − μ(x)| μn (x) + μ(x). x∈Ac x∈Ac x∈Ac Puisqu’on a x∈Ac μn (x) = μ(x) − x∈A x∈A μn (x) + μ(x), x∈Ac on obtient |μn (x) − μ(x)| x∈Ac |μn (x) − μ(x)| + 2 μ(x). x∈Ac x∈A Puisque μ ∈ P, pour tout ε > 0, on peut choisir A fini tel que μ(Ac ) ε . Ainsi, on obtient lim |μn (x) − μ(x)| = 0, n→∞ x∈E qui n’est rien d’autre que 3. d’après le théorème 1.5. Remarque 1.7 (Dispersion à l’infini). Si (μn )n1 sont des lois sur E et μ(x) := limn→∞ μn (x) alors μ n’est pas forcément une loi, sauf si E est fini. En effet, lorsque E est infini, il peut se produire un phénomène de dispersion de masse à l’infini. Un contre-exemple est fourni par E = N et μn qui affecte la masse 1/n aux singletons {1}, . . . , {n}, ce qui donne μ identiquement nulle. Théorème 1.8 (Minimum). Si μ et ν sont des lois sur E alors (μ(x) ∧ ν(x)). dVT (μ, ν) = 1 − x∈E En particulier, dVT (μ, ν) = 1 ssi μ et ν ont des supports disjoints. 8 1 Pile, face, coupons Démonstration. Rappelons que a ∧ b = min(a, b). Il suffit d’écrire (μ(x) ∧ ν(x)) = 1 (μ(x) + ν(x) − |μ(x) − ν(x)|) = 1 − dVT (μ, ν). 2 x∈E x∈E Théorème 1.9 (Couplage). Si μ et ν sont des lois sur E alors dVT (μ, ν) = inf P(X = Y ) (X,Y ) où l’infimum porte sur les couples de variables aléatoires sur E × E de lois marginales μ et ν. De plus, il existe un couple de ce type pour lequel l’égalité est atteinte c’est-à-dire que l’infimum est un minimum. Le théorème 1.9 est souvent utilisé de la manière suivante : on construit explicitement grâce au contexte un couple (X, Y ) de variables aléatoires tel que X ∼ μ et Y ∼ ν, et on en déduit que dVT (μ, ν) P(X = Y ). Démonstration. Soit (X, Y ) un couple de v.a. sur E × E de lois marginales μ et ν. Comme P(X = x, Y = x) μ(x) ∧ ν(x) pour tout x ∈ E, (μ(x) ∧ ν(x)) P(X = x, Y = x) = P(X = Y ). 1 − dVT (μ, ν) = x∈E x∈E Il suffit donc de construire un couple (X, Y ) pour lequel l’égalité est atteinte. Posons p = 1 − dVT (μ, ν) ∈ [0, 1] et distinguons trois cas. — Cas où p = 0. On prend (X, Y ) avec X et Y indépendantes de lois respectives μ et ν. Puisque dVT (μ, ν) = 1, μ et ν ont des supports disjoints, d’où P(X = Y ) = x∈E μ(x)ν(x) = 0 ; — Cas où p = 1. Alors dVT (μ, ν) = 0, d’où μ = ν. On prend (X, Y ) où X ∼ μ et Y = X ; — Cas où 0 < p < 1. Soit U, V, W des variables aléatoires de lois p−1 (μ ∧ ν), (1 − p)−1 (μ − (μ ∧ ν)), (1 − p)−1 (ν − (μ ∧ ν)). Notons que p = x∈E (μ(x) ∧ ν(x)) (théorème 1.8). Soit B une v.a. de loi de Bernoulli Ber(p) indépendante du triplet (U, V, W ). Posons (X, Y ) = (U, U ) si B = 1 et (X, Y ) = (V, W ) si B = 0. On a alors X ∼ μ et Y ∼ ν, et puisque les lois de V et W ont des supports disjoints, on a P(V = W ) = 0, et donc P(X = Y ) = P(B = 1) = p. 1.4 Approximation binomiale-Poisson Si Sn suit la loi binomiale Bin(n, p) alors pour tout k ∈ N, on a, 1.5 Problème du collectionneur de coupons P(Sn = k) − e−np (np)k = k! 9 n (np)k n−k+1 ··· (1 − p)n − e−np . n(1 − p) n(1 − p) k! Ceci montre que si p dépend de n avec limn→∞ np = λ alors la loi de Sn tend vers Poi(λ). La distance en variation totale permet de quantifier cette convergence en loi : l’inégalité de Le Cam du théorème 1.10 ci-dessous donne ∞ k P(Sn = k) − e−np (np) 2np2 , k! k=0 utile si np2 est petit. Si par exemple p = λ/n alors np = λ et np2 = λ2 /n. Théorème 1.10 (Inégalité de Le Cam). Soient X1 , . . . , Xn des variables aléatoires indépendantes de lois de Bernoulli Ber(p1 ), . . . , Ber(pn ). Soit μn la loi de Sn = X1 + · · · + Xn et soit νn = Poi(p1 + · · · + pn ) la loi de Poisson de même moyenne que Sn . Alors on a dVT (μn , νn ) p21 + · · · + p2n . Démonstration. On établit par récurrence sur n que si α1 , . . . , αn et β1 , . . . , βn sont des lois de probabilité sur N alors on a l’inégalité sous-additive dVT (α1 ∗ · · · ∗ αn , β1 ∗ · · · ∗ βn ) dVT (α1 , β1 ) + · · · + dVT (αn , βn ). On établit ensuite que dVT (Ber(p), Poi(p)) p2 , et on exploite le semi-groupe de convolution des lois de Poisson : Poi(a) ∗ Poi(b) = Poi(a + b). L’inégalité 2 − 1 − ∞ suivante p21 + · · · + p2n (p1 + · · · + pn ) max pk 1kn permet de retrouver la loi des petits nombres : si (Xn,k )1kn est un tableau triangulaire de variables aléatoires indépendantes de lois de Bernoulli avec Xn,k ∼ Ber(pn,k ) pour tous n k 1, et si lim pn,1 + · · · + pn,n = λ n→∞ et lim max pn,k = 0, n→∞ 1kn alors Xn,1 + · · · + Xn,n converge en loi vers Poi(λ) quand n → ∞. 1.5 Problème du collectionneur de coupons Le problème du collectionneur de coupons est dans la même boîte à outils que le jeu de pile ou face ou le jeu de dé, auquel il est intimement relié. Un grand nombre de situations concrètes cachent un collectionneur de coupons ou une de ses variantes. Nous nous limitons ici à sa version la plus simple. 10 1 Pile, face, coupons Il faut jouer un nombre de fois (aléatoire) géométrique à pile ou face pour voir apparaître les deux côtés de la pièce. Si on remplace la pièce de monnaie par un dé à r 2 faces, combien de fois faut-il lancer le dé pour voir apparaître les r faces différentes ? On modélise cela, pour un entier fixé r 2, en considérant la variable aléatoire T := min{n 1 : {X1 , . . . , Xn } = {1, . . . , r}} = min{n 1 : card{X1 , . . . , Xn } = r} où (Xn )n1 est une suite de variables aléatoires i.i.d. de loi uniforme sur {1, . . . , r}. La variable aléatoire T est le premier instant où les r faces du dé sont apparues. Ce temps dépend bien entendu de r mais, par souci de simplicité, nous omettrons cette dépendance dans la notation. Le nom collectionneur de coupons provient des coupons à collectionner présents dans certains paquets de céréales. Théorème 1.11 (Combinatoire). On a T r, et pour tout n r, r! n − 1 P(T = n) = n r−1 r où la notation en accolades désigne le nombre de Stirling de seconde espèce, qui est le nom donné en combinatoire au nombre de manières de partitionner un ensemble à n − 1 éléments en r − 1 sous-ensembles non vides. Démonstration. On a XT ∈ {X1 , . . . , XT −1 } car le coupon qui termine la collection n’a forcément jamais été vu auparavant. Si on fixe n r, l’événement {T = n} correspond à choisir le type du dernier coupon puis à répartir les n−1 coupons restants sur les r−1 types restants. Le résultat désiré en découle car la loi des types est uniforme. Bien qu’explicite, le théorème 1.11 n’est malgré tout pas très parlant. Le résultat intuitif suivant va beaucoup nous aider à étudier la variable T . Lemme 1.12 (Décomposition). On a T = G1 + · · · + Gr où G1 , . . . , Gr sont des variables aléatoires indépendantes avec Gi ∼ Geo(πi ), πi := r−i+1 , r 1 i r. En particulier, on a P(T < ∞) = 1, et de plus E(T ) = r(log(r) + γ) + or→∞ (r) et Var(T ) = π2 2 r + or→∞ (r2 ), 6 n où γ = limn→∞ ( i=1 1/i − log(n)) ≈ 0.577 est la constante d’Euler. 1.5 Problème du collectionneur de coupons 11 Démonstration. On pose G1 ≡ 1 et pour tout 1 < i r, Gi = min{n 1 : XGi−1 +n ∈ {X1 , . . . , XGi−1 }}. On a card({X1 , . . . , XGi }) = i pour tout 1 i n. Les variables aléatoires G1 , G1 + G2 , . . . , G1 + · · · + Gr sont les temps d’apparition des r premiers succès dans un jeu de pile ou face spécial dans lequel la probabilité de gagner change après chaque succès : cette probabilité vaut successivement π1 = 1, π2 = r−1 r−2 1 , π3 = , . . . , πr = . r r r La décroissance de cette suite traduit le fait qu’il est de plus en plus difficile d’obtenir un coupon d’un nouveau type au fil de la collection. Calculons à présent les moments de T . La linéarité de l’espérance donne E(T ) = r E(Gi ) = i=1 = r i=1 r 1 π i=1 i r r 1 =r = r(log(r) + γ + o(1)). r−i+1 i i=1 D’autre part, l’indépendance des v.a. G1 , . . . , Gr (exercice !) donne Var(T ) = r Var(Gi ) = i=1 =r i=1 r−1 r−i i=1 r 1 − πi i2 = πi2 π2 2 r − r(log(r) + γ) + o(r2 ). 6 Théorème 1.13 (Queue de distribution). Pour tout n 1, P(T > n) = r k=1 (−1)k−1 n r k . 1− k r Démonstration. On a {T > n} = En,1 ∪ · · · ∪ En,r où En,i := {X1 = i, . . . , Xn = i}. Si i1 , . . . , ik ∈ {1, . . . , r} sont deux à deux distincts, alors, en notant R = {1, . . . , r} \ {i1 , . . . , ik }, on a P(En,i1 ∩ · · · ∩ En,ik ) = P(X1 ∈ R) · · · P(Xn ∈ R) 12 1 Pile, face, coupons = r−k r n = 1− k r n . On utilise enfin le principe d’inclusion-exclusion ou crible de Poincaré 2 . Il est délicat de déduire le comportement de la queue de T en fonction de n et r à partir du théorème 1.13 en raison de l’alternance des signes. Théorème 1.14 (Déviation). Pour tout réel t > 0, T − r log(r) > t e−t+εr P(T > rt + r log(r)) = P r où εr = (rt + r log(r) − rt + r log(r))/r ∈ [0, 1/r[. Démonstration. Pour tout entier n 1, on peut écrire r P(T > n) = P(∪ri=1 En,i ) P(En,i ) où En,i := {X1 = i, . . . , Xn = i}. i=1 Comme P(En,i ) = (1 − 1/r) e−n/r , on choisit n = rt + r log(r). n Pour α > 0 et r fixés, on peut choisir t assez grand pour que e−t+εr α, par exemple t = − log(α) + 1/r, ce qui donne l’intervalle de prédiction non asymptotique [r, r log(r) − r log(α) + 1] de niveau 1 − α pour T . Théorème 1.15 (Comportement asymptotique). T P −→ 1. r log(r) r→∞ Démonstration. Fixons ε > 0. Par l’inégalité de Markov et le lemme 1.12, T E((T − r log(r))2 ) P − 1 > ε r log(r) ε2 r2 log(r)2 Var(T ) + (E(T ) − r log(r))2 = ε2 r2 log(r)2 1 =O . log(r)2 Il s’agit d’une preuve par méthode du second moment. Dans le même esprit, une méthode du quatrième moment est utilisée pour le théorème 11.6. La borne établie dans la preuve du théorème précédent n’est pas sommable en r et ne permet donc pas de démontrer une convergence presque sûre en utilisant le lemme de Borel-Cantelli, qui n’aurait de sens qu’avec un espace de n n j+1 2. P(∪k=1 Ak ) = j=1 (−1) k1 <...<kj P(Ak1 ∩ · · · ∩ Akj ). 1.5 Problème du collectionneur de coupons 13 probabilité unique valable pour tout r. D’autre part, la borne établie permet d’obtenir un intervalle de prédiction non asymptotique : pour α = 0.05, r fixé, et t bien choisi, on a P(|T − r log(r)|/r > t) = O(1/t2 ) = α. L’intervalle de prédiction est de largeur 2rt, et se dégrade quand t croît (α diminue). Le théorème suivant affirme que les fluctuations asymptotiques dans la convergence précédente suivent une loi de Gumbel. Théorème 1.16 (Fluctuations asymptotiques). On a T T − r log(r) loi = log(r) − 1 −→ Gumbel r→∞ r r log(r) −t où la loi de Gumbel a pour fonction de répartition t ∈ R → e−e . La figure 1.2 illustre ce résultat. Queue du collectionneur de coupons r=20 1 MonteCarlo N=2000 Gumbel P(T>n) 0.8 0.6 0.4 0.2 0 50 100 150 200 n Fig. 1.2. Approximations de la queue de distribution de la variable aléatoire T par celle de r log(r) + rG où G suit la loi de Gumbel en vertu du théorème 1.16, ainsi que par une méthode de Monte-Carlo avec N tirages en utilisant la représentation de T en somme de variables aléatoires géométriques indépendantes. Démonstration. Il suffit d’établir que pour tout t ∈ R on a 14 1 Pile, face, coupons −t lim P(T > r log(r) + tr) = S(t) := 1 − e−e . r→∞ Fixons t ∈ R et supposons que r est assez grand pour que r log(r) + tr > r. Introduisons l’entier nt,r = r log(r) + tr. Le théorème 1.13 donne P(T > r log(r) + tr) = P(T > nt,r ) = r k−1 (−1) k=1 Comme r k n r k t,r 1− . k r rk /k! et 1 − u e−u pour tout u 0, on a n r k t,r e−tk . −→ 1− r→∞ k! k r Enfin, par convergence dominée, on obtient lim r→∞ r k=1 (−1)k−1 n ∞ e−tk r k t,r = S(t). = (−1)k−1 1− r k! k k=1 Ceci achève la preuve du théorème. Alternativement, il est possible d’établir le théorème en utilisant l’approximation exponentielle des lois géométriques. Posons Hk := 1r Gr−k+1 . Pour tout k 1 fixé, la suite (Hk )rk converge en loi vers la loi exponentielle de paramètre k. On dispose de plus de la version quantitative suivante sur les fonctions caractéristiques : pour tout t ∈ R et tout k 1, il existe une constante C > 0 telle que pour r assez grand, E(eitHk ) − E(eitEk ) C rk où Ek est une v.a.r. de loi exponentielle de paramètre k. En utilisant l’inégalité |a1 · · · ar − b1 · · · br | |a1 − b1 | + · · · + |ar − br |, a, b ∈ {z ∈ C : |z| 1}r , il vient, en considérant des variables aléatoires réelles E1 , . . . , Er indépendantes de lois exponentielles de paramètres respectifs 1, . . . , r, T log(r) . E(eit r ) − E(eit(E1 +···+Er ) ) C r Le lemme de Rényi 11.3 indique que E1 + · · · + Er a même loi que la variable aléatoire max(F1 , . . . , Fr ) où F1 , . . . , Fr sont des v.a.r. i.i.d. de loi exponentielle de paramètre 1, puis on utilise la convergence en loi vers la loi de Gumbel de la suite de v.a.r. (max(F1 , . . . , Fr ) − log(r))r1 . Le théorème 1.16 fournit un intervalle de prédiction asymptotique pour la variable aléatoire T : pour tous réels b a, −b lim P(T ∈ [r log(r) + ra, r log(r) + rb]) = e−e r→∞ − e−e −a . 1.6 Pour aller plus loin 15 La loi de Gumbel est très concentrée, et sa fonction de répartition fait apparaître une montée abrupte de 0 à 1. Cela donne un phénomène de seuil 3 pour la variable aléatoire T . La quantité P(T > n) passe abruptement de ≈ 1 à ≈ 0 autour de n = r log(r) si r 1 : Théorème 1.17 (Convergence abrupte en n = r log(r)). Pour tout réel c > 0, P(T > r log(r) + rc) e−c+εr où 0 εr < 1/r. Si (cr )r∈N∗ est une suite qui tend vers l’infini, alors lim P(T > r log(r) − rcr ) = 1. r→∞ Démonstration. La première majoration provient du théorème 1.14. D’autre part, le théorème 1.16 affirme que (T − r log(r))/r converge en loi vers la loi de Gumbel quand r → ∞, ce qui donne, grâce au fait que cr → ∞, T − r log(r) > −cr −→ 1. P(T > r log(r) − rcr ) = P r→∞ r 1.6 Pour aller plus loin Notre étude du jeu de pile ou face fait l’impasse sur un certain nombre de propriétés remarquables, comme la loi de l’arc–sinus et les principes d’invariance, abordées dans le livre de William Feller [Fel68, Fel71]. Ce livre contient également une preuve du théorème de Berry-Esseen, à base d’analyse de Fourier. Un joli problème de la plus longue sous-suite commune à deux jeux de pile ou face est étudié dans le livre d’optimisation combinatoire randomisée de Michael Steele [Ste97]. L’article [Ste94] de Michael Steele sur l’approximation par la loi de Poisson est bien éclairant. On trouvera également dans le livre [BHJ92] de Andrew Barbour, Lars Holst, et Svante Janson une version renforcée de l’inégalité de Le Cam, obtenue par Barbour et Eagleson en utilisant la méthode d’intégration par parties de Louis Chen et Charles Stein : dVT (Ber(p1 ) ∗ · · · ∗ Ber(pn ), Poi(p1 + · · · + pn )) (1 − e−(p1 +···+pn ) ) p21 + · · · + p2n . p1 + · · · + p n À titre de comparaison, une version inhomogène du théorème limite central de Berry-Esseen, tirée du livre de William Feller, affirme que si (Xn )n1 sont des variables aléatoires indépendantes alors en notant Sn = X1 + · · · + Xn , σk2 = E(|Xk − E(Xk )|2 ), τk3 = E(|Xk − E(Xk )|3 ), on a 3. «Threshold phenomenon» en anglais. 16 1 Pile, face, coupons 2 x 2 Sn − E(Sn ) 1 (τ 3 + · · · + τn3 )2 − t2 x −√ sup P e dt 1 3. 2π −∞ Var(Sn ) x∈R (σ12 + · · · + σn2 ) D’autre part, on peut voir la distance en variation totale dVT (·, ·) comme une distance de Wasserstein (couplage). Pour le voir, on observe tout d’abord que P(X = Y ) = E(d(X, Y )) pour la distance atomique d(x, y) = δx=y , d’où, en notant Π(μ, ν) l’ensemble des lois sur E × E de lois marginales μ et ν, dVT (μ, ν) = min d(x, y) dπ(x, y). π∈Π(μ,ν) E×E Le problème du collectionneur de coupons est notamment abordé dans le livre de William Feller [Fel68, Fel71], le livre de Rejeev Motwani et Prabhakar Raghavan [MR95], et dans les articles de Lars Holst[Hol01] et de Aristides Doumas et Vassilis Papanicolaou [DP13]. Donald Newman et Lawrence Shepp on montré dans [NS60] que si on impose que chaque type soit observé m fois, alors le temps de complétion de la collection vaut en moyenne r log(r) + (m − 1)r log(log(r)) + O(r). D’autres variantes se trouvent dans le livre de Claude Bouzitat, Gilles Pagès, Frédérique Petit, et Fabrice Carrance [BPPC99]. Le théorème 1.16 révélant une fluctuation asymptotique de loi de Gumbel a été obtenu par Paul Erdős et Alfréd Rényi [ER61a]. Une analyse du cas non uniforme associé à une probabilité discrète (p1 , . . . , pr ) est menée dans un article de Lars Holst [Hol01]. Lorsque r n’est pas connu, on dispose de l’estimateur rn := card{X1 , . . . , Xn }. Si e1 , . . . , er est la base canonique de Rr alors le vecteur aléatoire Cn := (Cn,1 , . . . , Cn,r ) := eX1 + · · · + eXn de Nr suit la loi multinomiale de taille n et de paramètre (p1 , . . . , pr ), et on a rn = r 1{Cn,i >0} = r − i=1 r 1{Cn,i =0} . i=1 En particulier, E( rn ) = r − r i=1 P(Cn,i = 0) = r − r (1 − pi )n . i=1 Notons enfin que comme les r types sont ordonnés, la variable aléatoire max(X1 , . . . , Xn ) est un estimateur du bord droit r du support {1, . . . , r}. Le collectionneur de coupons est un cas particulier du problème du recouvrement abordé dans l’article [Ald91] de David Aldous, dans le livre de David 1.6 Pour aller plus loin 17 Aldous et James Fill [AF01], dans le cours de Amir Dembo [Dem05], et le livre de David Levin, Yuval Peres, et Elizabeth Wilmer [LPW09] : si (Xn )n1 est une suite de variables aléatoires, pas nécessairement indépendantes ou de même loi, et prenant leurs valeurs dans un même ensemble fini E, alors le temps de recouvrement 4 de E est T := inf{n 1 : {X1 , . . . , Xn } = E}. 4. En anglais : covering time. http://www.springer.com/978-3-662-49767-8