Lycée Roland Garros BCPST 1ère année Mathématiques 2013 - 2014 Chapitre no 21. Variables aléatoires nies Sont à connaître par c÷ur avant d'attaquer ce chapitre les résultats suivants, tous issus du chapitre Probabilités de base. • • • • • formule des probabilités totales, dénition des probabilités conditionnelles, formule des probabilités composées, formule de Bayes, dénition de l'indépendance de n évènements. Dans tout ce chapitre même quand ce ne sera pas mentionné explicitement Ω désignera un ensemble ni. 1 Variables aléatoires nies, lois de probabilité et fonctions de répartition 1.1 Variables aléatoires nies Dénition 1. On appelle variable aléatoire nie toute application X : Ω → R où Ω est un ensemble ni. L'ensemble X(Ω) est appelé univers image, c'est l'ensemble des valeurs possibles pour X . L'ensemble Ω étant supposé ni, il en va de même pour X(Ω). Autrement dit X a un nombre ni de valeurs possibles, d'où le nom de v.a. nie. En deuxième année il sera question de variables aléatoires avec un nombre inni de valeurs possibles, par exemple X(Ω) = N ou R. . On tire deux dés (discernables) et on note les deux résultats. Une issue de cette expérience est un couple (x1 , x2 ) avec x1 , x2 ∈ [[1, 6]], par conséquent Ω = [[1, 6]]2 . Si on souhaite s'intéresser à la somme des deux résultats, on considèrera la variable aléatoire Exemple. Fil Rouge X : Ω → R (x1 , x2 ) 7→ x1 + x2 . L'ensemble des valeurs possibles pour X est X(Ω) = {2, 3, . . . , 12}. 1 On tire 3 cartes dans un jeu de 32 cartes et on s'intéresse au nombre de c÷urs tirés. Le résultat de l'expérience est une partie de 3 éléments de l'ensemble C des 32 cartes donc on choisit Ω = {P ⊂ C : Card P = 3}. Pour un tirage ω on note X(ω) le nombre de c÷urs dans le tirage ω . X est une v.a. nie avec X(Ω) = {0, 1, 2, 3}. Exemple. Dénition 2. Deux exemples importants. • Soit a ∈ R. L'application X : Ω → R ω 7→ a. est une v.a. dite constante. Elle vérie X(Ω) = {a}. • Soit A ⊂ Ω un évènement. L'application 1A : Ω → ( 1 ω 7→ 0 R si ω ∈ A si ω ∈ /A est une v.a. appelée indicatrice de A. On tire un dé : Ω = [[1, 6]]. Soit A : le résultat est impair. Mathématiquement, A est déni par A = {1, 3, 5}. L'indicatrice de A est l'application 1A : Ω → R dénie par Exemple. 1A (1) = 1A (3) = 1A (5) = 1, 1A (2) = 1A (4) = 1A (6) = 0. Dénition 3. Soit X une v.a. et I ⊂ R. L'ensemble des issues ω pour lesquelles X(ω) ∈ I est notée en probabilité : {X ∈ I} = {ω ∈ Ω : X(ω) ∈ I} {X ∈ I} est une sous-partie de Ω, c'est-à-dire un évènement. Certains notent plutôt [X ∈ I] voire (X ∈ I). Par ailleurs une intersection d'évènements du type {X = x} ∩ {Y = y} (X et y étant deux v.a.) sera plutôt notée {X = x, Y = y} pour alléger. Remarque. Exemple. Pour x ∈ R, on note par exemple : {X ≤ x} = {ω ∈ Ω : X(ω) ≤ x} = X −1 (] − ∞, x]) {X < x} = {ω ∈ Ω : X(ω) < x} = X −1 (] − ∞, x[) {X = x} = {ω ∈ Ω : X(ω) = x} = X −1 ({x}) Proposition 1. Si X est une v.a. on a {X ≤ x} = {X < x} ∪ {X = x}, en particulier si X est à valeurs entières (X(Ω) ⊂ Z) alors pour k ∈ Z : {X ≤ k} = {X ≤ k − 1} ∪ {X = k}. 2 Proposition 2. Soit A ⊂ Ω un évènement. On a {1A = 1} = A, et {1A = 0} = A . On lance deux dés et on note X la somme des deux scores obtenus. On a vu que Ω = [[1, 6]]2 et X(Ω) = {2, 3, 4, . . . , 12}. On a par exemple : Exemple. Fil Rouge {X = 2} = {(1, 1)} {X = 3} = {(1, 2), (2, 1)} {X = 4} = {(1, 3), (2, 2), (3, 1)} .. . {X = 12} = {(6, 6)} Proposition 3. Soit X une v.a. nie sur Ω et X(Ω) = {x1 , x2 , . . . , xn } l'ensemble des valeurs possibles de X . Alors la famille d'évènements ({X = x1 }, {X = x2 }, . . . , {X = xn }) forme un système complet d'évènements de Ω. Démonstration. Immédiat d'après les dénitions. Exemple. Fil Rouge . On a Ω = {X = 2} ∪ {X = 3} ∪ · · · ∪ {X = 12} Dénition 4. Si X et Y sont deux v.a. sur Ω on peut dénir toutes les opé- rations sur les variables aléatoires : par exemple X + Y est dénie par (X + Y )(ω) = X(ω) + Y (ω). De même pour XY , X/Y , X 2 , eX−Y , en bref tout ce qu'on veut . . . 1.2 Loi d'une variable aléatoire nie Dénition 5. Soit X : Ω → R une v.a. nie. Alors l'application fX : X(Ω) → [0, 1] x 7→ P({X = x}) est appelée loi de probabilité (ou loi tout court) de la v.a. X . La loi de X est donc la donnée de toutes les valeurs des probabilités des évènements relatifs à la v.a. X : elle décrit la répartition statistique de X sur ses valeurs possibles. Déterminer la loi de X c'est calculer P({X = x}) pour tout x ∈ X(Ω). 3 Remarque. On écrit souvent P(X = x) au lieu de P({X = x}), par abus. Représentation graphique. On représente habituellement la loi fX par un diagramme en bâtons. Si X(Ω) = {x1 , x2 , . . . , xn }, on trace pour chaque xi un bâton de hauteur fX (xi ) à l'abscissePxi . La somme des hauteurs des bâtons doit bien sur être égale à 1 puisque x∈X(Ω) P(X = x) = 1. . X est la somme des scores des deux dés. La probabilité P sur Ω est uniforme puisque chaque couple de résultats a une probabilité 1/36. Pour k ∈ [[2, 12]] on a Exemple. Fil Rouge {X = k} = {(i, j) ∈ [[1, 6]]2 : i + j = k}. On peut ainsi calculer : P(X = 2) = P({(1, 1)}) = 1 36 P(X = 3) = P({(1, 2), (2, 1)}) = 2 36 P(X = 4) = P({(1, 3), (2, 2), (3, 1)}) = 3 36 et ainsi de suite. Les résultats peuvent être rassemblés dans un tableau : xi 2 3 4 5 6 7 8 9 10 11 12 P(X = xi ) 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 et peuvent être représentés par un diagramme en bâtons : [Dessin] 1.3 Dénition d'une v.a. à partir des pi Une question importante sur le plan théorique : si on donne des xi et des pi , existe t-il une v.a. dont la loi soit donnée par P(X = xi ) = pi ? Réponse : OUI du moment que les pi sont positifs et que leur somme fait 1. 4 Théorème 1. Soient (x1 , x2 , . . . , xn ) ∈ Rn et (p1 , p2 , . . . , pn ) ∈ Rn . On suppose que (i) ∀i ∈ [[1, n]], pi ≥ 0, P (ii) ni=1 pi = 1. Alors il existe une v.a. X dont la loi est donnée par ∀i ∈ [[1, m]], P(X = xi ) = pi Démonstration. Il sut de choisir Ω = {x1 , x2 , . . . , xm } avec la probabilité P dénie par P({xi }) = pi , et X l'application identité. 1.4 Fonction de répartition d'une variable aléatoire nie Dénition 6. Soit X : Ω → R une v.a. nie. Alors l'application FX : R → [0, 1] x 7→ P({X ≤ x}) est appelée fonction de répartition de la v.a. X . Exemple. Soit X une v.a. dont la loi est donnée par : xi 1 2 4 6 8 P(X = xi ) 3/10 1/10 1/10 2/10 3/10 Représenter graphiquement la loi de probabilité ainsi que la fonction de répartition de X . La donnée de fx est équivalente à la donnée de FX . En eet on peut retrouver l'une à partir de l'autre et vice-versa. F Déterminer FX à partir de fx : FX est une fonction croissante et en escalier. Si on note X(Ω) = {x1 , x2 , . . . , xn }, on a si x < x1 , 0P k FX (x) = si xk ≤ x < xk+1 , i=1 fX (xi ) 1 si xn ≤ x. En clair FX fait un saut de hauteur fX (xi ) à chaque valeur xi . F Retrouver fX à partir de Fx : 5 On réexploite cette dernière remarque : fX (xi ) est la hauteur du saut que FX fait en xi . On a fX (x1 ) = FX (x1 ) fX (x2 ) = FX (x2 ) − FX (x1 ) .. . pour k ∈ [[2, n]]. fX (xk ) = FX (xk ) − FX (xk−1 ) Application. Soient x1 , X2 et X3 les scores pour trois lancers de dés successifs. On note Z = max(X1 , X2 , X3 ). On a P(Z ≤ k) = P(X1 ≤ k, X2 ≤ k, X3 ≤ k) = P(X1 ≤ k)P(X2 ≤ k)P(X3 ≤ k) = (k/6)3 donc pour k ∈ [[1, 6]] on a 3k 2 − 3k + 1 P(X = k) = (k/6) − ((k − 1)/6) = 63 3 3 1.5 Image d'une variable aléatoire par une fonction Dénition 7. Soit X une v.a. et φ : R 7→ R une fonction. Alors on dénit la variable φ(X) : Ω → R ω 7→ φ(X(ω)) Proposition 4. La loi de φ(X) est donnée par : ∀y ∈ Y (Ω), P(Y = y) = X P(X = x) x∈X(Ω):φ(x)=y Démonstration. L'évènement {Y = y} est égal à la réunion (disjointe) des évènements {X = x} pour x tel que φ(x) = y . Exemple. loi de Y . Soit X le résultat d'un dé et Y = (X − 2)(X − 4). Déterminer la On a Y (Ω) = {−1, 0, 3, 8} et P(Y P(Y P(Y P(Y = −1) = P(X = 3) = 1/6, = 0) = P(X ∈ {2, 4}) = P(X = 3) + P(X = 3) = 2/6, = 3) = P(X ∈ {1, 5}) = P(X = 1) + P(X = 5) = 2/6, = 8) = P(X = 6) = 1/6. 6 2 Espérance et variance d'une variable aléatoire 2.1 Dénition de l'espérance Dénition 8. Soit X une v.a. avec X(Ω) = {x1 , x2 , . . . , xn }. On dénit l'espérance de X par E(X) = X x P(X = x) = n X xk P(X = xk ). k=1 x∈X(Ω) En clair l'espérance de X est la moyenne des valeurs prises par X , pondérée par les probabilités qu'a X de prendre chacune de ces valeurs. Proposition 5. • Si X est constante égale à a alors E(X) = a. • Soit A un évènement. On a E(1A ) = P(A). Démonstration. . . . On lance un dé, on note X le résultat. La loi de probabilité de X est donnée par le tableau suivant : Exemple. xi 1 2 3 4 5 6 P(X = xi ) 1/6 1/6 1/6 1/6 1/6 1/6 On a donc E(X) = P(X = 1) + 2P(X = 2) + 3P(X = 3) + 4P(X = 4) + 5P(X = 5) + 6P(X = 6) 1+2+3+4+5+6 = 6 7 = = 3, 5 2 On reprend l'exemple de la variable Z ci-dessus (Z est le maximum des scores de trois lancers de dé). On a Z(Ω) = [[1, 6]] et Exemple. E(Z) = 6 X kP(Z = k) k=1 1 + (2 × 7) + (3 × 19) + (4 × 37) + (5 × 61) + (6 × 91) 63 1071 = 3 ' 4, 95 6 = 7 2.2 Propriétés de l'espérance Proposition 6. Linéarité de l'espérance (admis). Soient X, Y deux v.a. nies sur Ω. On a pour a, b ∈ R : E(aX + bY ) = aE(X) + bE(Y ) En particulier en prenant pour Y la constante égale à 1, on a E(aX + b) = aE(X) + b Exemple. Fil Rouge. Calcul de E(X) si X est la somme des scores de deux dés. Faire ce calcul sans la linéarité puis avec la linéarité. On trouve E(X) = 7. Dénition 9. On dit qu'une v.a. X est positive (on écrit X ≥ 0) si ∀ω ∈ Ω, X(ω) ≥ 0. En fait de manière générale quand on écrit une propriété sur X (X ∈ [a, b], X = 0, . . . )c'est sous-entendu : pour tout ω . Proposition 7. Positivité de l'espérance. (i) Soit X une v.a. nie. Si X ≥ 0 (c'est-à-dire X(ω) ≥ 0 pour tout ω ) alors E(X) ≥ 0. (ii) Si X ≥ 0 et E(X) = 0 alors X = 0 (c'est-à-dire X(ω) = 0 pour tout ω ) (iii) Soient X et Y deux v.a. nies. Si X ≥ Y alors E(X) ≥ E(Y ). ! L'implication E(X) ≥ 0 ⇒ X ≥ 0, elle, est évidemment fausse. De même, sans supposer que X ≥ 0 l'implication E(X) = 0 ⇒ X = 0 est fausse ! Pouvez-vous donner des contre-exemples ? Attention Théorème 2. Théorème de transfert. Soit X une v.a. nie sur Ω avec X(Ω) = {x1 , x2 , . . . , xn }, et u : R → R une fonction telle que X(Ω) ⊂ Du . Alors E(u(X)) = n X u(xi )P(X = xi ). i=1 En clair l'espérance de u(X) est la moyenne des u(xi ), pondérée par les probabilités que X a de prendre chacun des xi . : on peut calculer par exemple E(X 2 ), E(eX ) . . . sans pour autant avoir à déterminer les lois de X 2 , eX . . . il sut de connaître la loi de X ! Moralité Soit X de loi uniforme sur [[−1, 1]]. Calculer E(X 2 ). On trouve E(X 2 ) = 2/3. Exemple. 8 2.3 Moments d'une variable aléatoire Dénition 10. Soit X une v.a. avec X(Ω) = {x1 , x2 , . . . , xn } et soit r ∈ N∗ . On appelle moment de X d'ordre r le réel r mr (X) = E(X ) = X r x P(X = r) = n X (xk )r P(X = xk ) k=1 x∈X(Ω) Soit Z le nombre de FACE obtenus en lançant deux fois une pièce. Donner le moment d'ordre 3 de Z . Exemple. m3 (Z) = E(Z 3 ) = 03 P(Z = 0) + 13 P(Z = 1) + 23 P(Z = 2) = 5 1 1 + ×8= . 2 4 2 2.4 Variance et écart-type Dénition 11. Soit X une v.a. On dénit la variance de X par Var(X) = E (X − E(X))2 C'est donc le moment d'ordre 2 de la variable X − E(X). Proposition 8. Formule de K÷nig-Huygens. On a Var(X) = E(X 2 ) − E(X)2 Démonstration. m = E(X) est une constante donc Var(X) = E(X 2 + m2 − 2mE(X)) = E(X 2 ) + m2 − 2mE(X) = E(X 2 ) − m2 . Les notions de variance et d'espérance d'une v.a. sont à rapprocher des notions correspondantes pour les échantillons. Remarque. Dénition 12. L'écart-type de X est déni par σ(X) = p Var(X) Bien sur σ(X) est bien déni puisque Var(X) ≥ 0. L'écart-type et la variance de X sont des réels positifs qui quantient la dispersion de X autour de sa moyenne. Un écart-type élevé signie que X a tendance a prendre des valeurs lointaines de sa moyenne. Remarque. Reprenons l'exemple de Z = le nombre √de FACE obtenus sur 2 lancers. On obtient Var(Z) = 1/2 et donc σ(Z) = 1/ 2. Exemple. 9 Théorème 3. Eet d'une fonction ane sur la variance. On a pour a, b ∈ R : Var(aX + b) = a2 Var(X) σ(aX + b) = |a|σ(X) Démonstration. . . . Dénition 13. Une v.a. X est dite • centrée lorsque E(X) = 0, • réduite lorsque Var(X) = 1. Il est souvent commode de travailler avec des v.a. centrées réduites. Le résultat suivant justie qu'on peut toujours se ramener à ce cas quitte à opérer une certaine fonction ane sur notre variable. Proposition 9. Soit X une v.a. nie. Alors (i) la variable X − E(X) est centrée, (ii) la variable X − E(X) est centrée réduite. σ(X) 2.5 Inégalités classiques Théorème 4. Inégalité de Markov. Soit X une v.a. positive. On a P(X ≥ r) ≤ E(X) r . Si E(X) n'est pas trop grande alors X ne peut pas être ≥ r avec trop grande probabilité. Moralité Démonstration. L'inégalité X(ω) ≥ r1{X≥r} (ω) est vériée pour tout ω donc E(X) ≥ rE(1{X≥r} ) = rP(X ≥ r). Théorème 5. Inégalité de Bienaymé-Tchebychev. Soit X une v.a. Alors ∀ε > 0, P(|X − E(X)| ≥ ε) ≤ Var(X) ε2 . Si Var(X) n'est pas trop grande alors X ne peut pas être loin de E(X) avec trop grande probabilité. Moralité Démonstration. Grâce à l'inégalité de Markov, P(|X − E(X)| ≥ ε) = P((X − 2) E(X))2 ≥ ε2 ) ≤ E((X−E(X)) = Var(X) . ε2 ε2 10 3 Lois de probabilité usuelles Dans cette section nous survolons les quelques lois de probabilité nies qui interviennent le plus souvent. Nous donnerons l'espérance et la variance de toutes ces lois. Pour ces résultats le symbole F signie que le calcul est à connaître ! 3.1 Loi certaine Dénition 14. X suit la loi certaine égale à m ∈ R si X(Ω) = {m}. On a alors automatiquement P(X = m) = 1 Une telle variable n'a donc pas réellement de caractère aléatoire. Elle est pour cette raison dite déterministe. La loi certaine n'est donc pas un objet d'étude intéressant en soi mais a néanmoins une importance théorique. Proposition 10. Soit X une v.a. de loi certaine égale à m. Var(X) = 0 E(X) = m 3.2 Loi uniforme Dénition 15. Soit E = {x1 , . . . , xn } un ensemble ni à n éléments. On dit que X suit la loi uniforme sur E si P(X = xk ) ne dépend pas de k , ce qui implique que ∀k ∈ [[1, n]], P(X = xk ) = 1 n On note X ,→ U(E) pour dire X suit la loi uniforme sur E La loi uniforme est adaptée pour modéliser toute expérience dont les issues sont équiprobables. C'est le cas dès que les issues mettent en jeu des objets indiscernables puisque dans ce cas on n'a aucune raison d'attribuer une plus grande probabilité à tel ou tel de ces objets. C'est donc une situation très fréquente : jet de dé, lancer de pièce, roulette, tirage de boules dans une urne. . . Le plus souvent on est amené à considérer la loi uniforme sur un ensemble du type E = [[1, n]] ou plus généralement E = [[m, n]] avec m, n ∈ Z. On donne donc l'espérance et la variance dans ce cas particulier. Remarque. Proposition 11. Si X ,→ U([[1, n]]) alors E(X) = n+1 2 Var(X) = F Démonstration. . . . 11 n2 − 1 12 3.3 Loi de Bernoulli Dénition 16. Soit p ∈]0, 1[. On dit que X suit la loi de Bernoulli de paramètre p si X(Ω) = {0, 1} et P(X = 1) = p, P(X = 0) = 1 − p On note X ,→ B(1, p) pour dire X suit la loi de Bernoulli de paramètre p. La loi de Bernoulli permet de modéliser toute expérience à 2 issues. En eet si Z est une v.a. avec Z(Ω) = {a, b} alors on peut considérer X = 1{Z=a} (ce qui revient à considérer a comme 1 et b comme 0). La v.a. X suit la loi B(1, p) avec p = P(Z = a). Soit Z le résultat du lancer d'une pièce. Z(Ω) = {P, F }. La variable X = 1{Z=P } suit la loi B(1, 1/2). Exemple. Proposition 12. Soit X une v.a. de loi B(1, p). On a E(X) = p Var(X) = p(1 − p) F F 3.4 Loi binomiale . Supposons qu'on réalise n fois une tentative d'un certain dé (comme réussir un panier au basket, obtenir 6 avec un dé, . . . ). On note X le nombre de succès obtenus. On a X(Ω) = {0, 1, . . . , n}. Chaque tentative a une probabilité p de réussir avec p ∈]0, 1[ xé, et les résultats des tentatives sont supposés mutuellement indépendants. Dans ce cadre là, quelle est la loi Schéma binomial de X ? Il est commode de noter 1 un succès et 0 un échec, l'univers est alors Ω = {0, 1}n et X est la variable aléatoire dénie par X : Ω → R (ω1 , . . . , ωn ) 7→ ω1 + · · · + ωn Par exemple, pour ω = (1, 0, 0, 0, 1, 1, 0, 1, 0) on a X(ω) = 4 donc 4 succès. L'évènement {X = k} contient les issues qui contiennent k fois 1 et (n − k) fois 0. On remarque que • chacune de ces issues a une probabilité pk (1 − p)n−k , n • il y a telles issues puisqu'il s'agit de choisir les positions des k succès k parmi les n tentatives. 12 n k On a donc P(X = k) = p (1 − p)n−k . k Dénition 17. On dit que X suit la loi binomiale de paramètres n et p (avec n ∈ N∗ et p ∈]0, 1[) si X(Ω) = {0, 1, . . . , n} et n k P(X = k) = p (1 − p)n−k k ∀k ∈ [[0, n]], On note X ,→ B(n, p) pour dire X suit la loi binomiale de paramètres n et p. D'après le schéma binomial, cette loi est adaptée pour modéliser toute situation où l'on compte le nombre d'occurrences d'un évènement que l'on tente de réaliser un certain nombre de fois de manière indépendante. Par la formule du binôme de Newton on a nk=0 P(X = k) = (p + (1 − p))n = 1 donc la loi binomiale est bien une loi de probabilité. P Remarque. Pour n = 1 on retombe bien sur le cas particulier de la loi de Bernoulli, la notation B(1, p) est donc cohérente (et c'est un heureux hasard que Bernoulli et binomiale commencent par la même lettre) Remarque. Proposition 13. Soit X une v.a. de loi B(n, p). On a E(X) = np Var(X) = np(1 − p) F F Démonstration. n X n k k p (1 − p)n−k E(X) = k k=0 n X n k = k p (1 − p)n−k k k=1 n X (n − 1)! pk (1 − p)n−k (k − 1)!(n − k)! k=1 n X n−1 k =n p (1 − p)n−k k − 1 k=1 n−1 X n−1 k = np p (1 − p)n−k−1 k k=0 =n Or la somme de la dernière ligne vaut 1 car elle est égale à P(Y ∈ [[0, n − 1]]) où Y est une v.a. de loi B(n − 1, p). La preuve de l'expression de Var(X) sera faite au chapitre 22. 13 3.5 Loi hypergéométrique . On considère une urne contenant N boules, blanches ou noires. On note p la proportion de boules blanches et q = 1 − p la proportion de boules noires, de sorte que l'urne contient : • N p boules blanches, • N q boules noires. On tire n boules dans cette urne simultanément, et on note X le nombre de boules blanches obtenues. Quelle est la loi de X ? Schéma hypergéométrique L'évènement {X = k} est réalisé si l'on fait un tirage contenant k blanches et Np k (n − k) noires. Le nombre de ces tirages est égal à N total de tirages possibles est . n Nq n−k et le nombre Dénition 18. Soit 1 ≤ n ≤ N et p ∈]0, 1[ tel que N p ∈ N. On dit que X suit la loi hypergéométrique de paramètres N, n et p si X(Ω) = {0, 1, . . . , n} et ∀k ∈ {0, 1, . . . , n}, P(X = k) = Np k N n Nq n−k où q = 1 − p. On note X ,→ H(N, n, p) pour dire X suit la loi hypergéométrique de paramètres N, n et p. d'après le schéma hypergéométrique, cette loi est adaptée pour modéliser une situation où un ensemble de N objets est séparé en deux catégories (N p du premier type et N q du second type) et où on tire n objets sans remise parmi ces N objets. P(X = k) est en fait nul : • si k > N p (ce qui n'est possible que si n > N p), • si n − k > N q (ce qui n'est possible que si n > N q ), Remarque. Proposition 14. Soit X une v.a. de loi H(N, n, p). On a E(X) = np Var(X) = npq F N −n N −1 Si n est xé et N devient très grand, le schéma sans remise coïncide à peu près avec le schéma avec remise. Il est donc normal d'imaginer que la loi hypergéométrique doit alors ressembler à la loi binomiale, puisque les tirages des n boules deviennent presque indépendants et de probabilité p. En eet : 14 Proposition 15. Approximation de H(N, n, p) par B(n, p). Soit XN une v.a. de loi H(N, n, p) avec N p ∈ N. Alors pour k ∈ {0, 1, . . . , n} xé on a lim P(XN = k) = N →+∞ n k p (1 − p)n−k k Autrement dit la loi H(N, n, p) converge vers B(n, p) Remarque. D'un point de vue pragmatique, on peut considérer que H(N, n, p) = B(n, p) lorsque N ≥ 10n, sans faire une grosse erreur. 15