Oral 2015 Probabilités 1 1. On lance un dé non pipé autant de fois que nécessaire pour obtenir un 6. Quelle est la loi du nombre N de lancers nécessaires ? Quel est le nombre moyen de lancers nécessaires (c’est-à-dire l’espérance de N ) ? 2. On lance un dé non pipé autant de fois que nécessaire pour obtenir successivement un 1 au 2n + 1-ième lancer puis un 6 au 2n + 2-ième lancer (pour un certain n ∈ N∗ ). Quel est le nombre moyen de lancers nécessaires ? 3. Soit Y une variable aléatoire à valeurs dans N. Montrer : E(Y ) = +∞ X P(Y ≥ n) n=1 4. On lance un dé non pipé autant de fois que nécessaire pour obtenir successivement un 1 puis un 6, puis on s’arrête. On note X 1 , X 2 , . . . les variables aléatoires modélisant les résultats des lancers. On note T le nombre de lancers effectués. (a) Montrer que T est d’espérance finie. (b) On note, si t ∈ N∗ , x(t ) = P(T ≥ t ) et y(t ) = P X 1 =1 (T ≥ t ). Trouver des réels a, b, c, d tels que ( x(t ) = ax(t − 1) + b y(t ) ∀t ≥ 3 y(t ) = c x(t − 2) + d y(t − 1) En déduire E(T ). 5. Quel est le nombre moyen de lancers nécessaires pour obtenir successivement deux 3 ? 1. On sait (cours, savoir le redémontrer) que N suit une loi géométrique G (1/6). Donc son espérance est (cours, savoir le redémontrer. . .) 6. 2. On regroupe les lancers par deux : la probabilité d’obtenir (6, 6) aux lancers (2k + 1, 2k + 2) (k ≥ 0) est 1/36. On a donc encore affaire à une variable géométrique de paramètre 1/36. Il faudra en moyenne 36 ”couples de lancers” pour obtenir un (1, 6). Donc 72 lancers. 3. Un grand classique. . .Partons de la sigma-additivité : P(Y ≥ n) = +∞ X k=n P(Y = k) = +∞ X k=1 u n,k où l’on note u n,k = 0 si k < n, u n,k = P(Y = k) si k ≥ n (on restreint (k, n) à N∗ × N∗ ). Alors X (i) pour tout n, u n,k converge, et sa somme vaut P(Y ≥ n). k X (ii) pour tout k, u n,k converge, et sa somme vaut kP(Y = k). n La caractérisation de la sommabilité par paquets (familles positives) montre alors le résultat. 4. Le calcul du 2. montre que T est presque sûrement finie, et que son espérance est finie (inférieure à 72). De plus, si t ≥ 3, P(T ≥ t ) = P(X 1 = 1)P X 1 =1 (T ≥ t ) + P(X 1 6= 1)P X 1 6=1 (T ≥ t ) relation qui s’interprète comme 1 5 x(t ) = x(t − 1) + y(t ) 6 6 et de même P X 1 =1 (T ≥ t ) = P(X 2 = 1)P(X 1 =1,X 2 =1) (T ≥ t ) + P(X 2 6∈ {1, 6})P(X 1 =1,X 2 6∈{1,6}) (T ≥ t ) s’interprète comme 1 2 y(t ) = y(t − 1) + x(t − 2) 6 3 Les familles x et y sont sommables ; on somme donc, on obtient E(T ) − 1 − 1 = et +∞ X t =3 y(t ) = X 5 1 +∞ y(t ) (E (T ) − 1) + 6 6 t =3 X 1 2 1 +∞ y(t ) + y(2) + E(T ) 6 t =3 6 3 Mais y(2) = 1, on obtient donc l’équation ¶ µ 5 5 1 1 2 E(T ) − 2 = E(T ) − + + E(T ) 6 6 5 6 3 et finalement E(T ) = 36. 5. On reprend les calculs précédents, en changeant les notations : on note, si t ∈ N∗ , x(t ) = P(T ≥ t ) et y(t ) = P X 1 =3 (T ≥ t ). La relation 5 1 x(t ) = x(t − 1) + y(t ) 6 6 reste vraie, mais on a cette fois 5 y(t ) = x(t − 2) 6 (avec toujours t ≥ 3). Les calculs, analogues mais plus faciles, donnent E(T ) = 42. 2 Oral 2015 Probabilités 2 1. On effectue des lancers successifs d’un dé (non pipé). On note b n la probabilité pour que les lancers n −1 et n donnent successivement un 1 puis un 6. On note a n la probabilité pour que les lancers n − 1 et n soient les premiers lancers où l’on obtient successivement un 1 puis un 6. Définir b 0 , a 1 , b 1 pour que n X bn = a k b n−k k=1 En utilisant les séries a n x et b n x n , en déduire l’espérance du nombre de lancers nécessaires pour obtenir successivement un 1 puis un 6. P n P 2. Quelle est l’espérance nombre de lancers nécessaires pour obtenir successivement deux 3 ? Soit n = 2 ; on a alors a n = b n (la valeur commune étant 1/36), on prendra donc b 0 = 1. Si n = 3, on a aussi a n = b n , donc pour avoir b3 = a1 b2 + a2 b1 + a3 b0 avec b 0 = 1, on prendra a 1 = b 1 = 0. On note alors B n l’événement « les lancers n−1 et n donnent successivement 1 puis 6 » et A n l’événement « les lancers n−1 et n sont les premiers qui donnent successivement 1 puis 6 ». Alors, par formule des probabilités totales (on a clairement B n ⊂ A 2 ∪ A 3 . . . ∪ A n et la réunion est disjointe), n X P(A k )P A k (B n ) P(B n ) = k=2 or, par indépendance (implicitement supposée) des lancers, P A k (B n ) = b n−k (k ≤ n), d’où n n X X bn = a k b n−k = a k b n−k k=2 k=0 en posant de plus a 0 = 0. Mais attention, la formule est fausse pour n = 0 : b 0 6= a 0 b 0 ; elle est en revanche vraie pour n = 1 (0 = 0). Par produit de Cauchy, on a donc à ! à !à ! +∞ +∞ +∞ X X X k k k bk x − 1 = bk x ak x k=0 k=0 Mais dès lors que n ≥ 2, b n = +∞ X k=0 k=0 1 . Donc 36 ak x k = x2 x 2 + 36 × (1 − x) L’espérance cherchée est la dérivée de cette expression en 1. La dérivée vaut 2x(x 2 + 36(1 − x)) − x 2 (2x − 36) (x 2 + 36(1 − x))2 ce qui, pour x = 1, donne la valeur 36. Pour deux 3 consécutifs, le même genre de considérations fonctionne, mais on prend b 0 = 1 et b 1 = 1/6, a 0 = a 1 = 0 (on commence par explorer : b 2 = a 2 , b 3 = a 2 × 1/6 + a 3 , b 4 = a 4 + a 3 /6 + a 2 b 2 . . . ). On obtient 1 x2 +∞ X 36 1 − x an x n = 1 x2 x n=0 +1+ 36 1 − x 6 Et la dérivée en 1 vaut 42. 4 Oral 2015 Probabilités 3 Soit n ≥ 2 et (Uk )k≥1 une suite de variables aléatoires indépendantes et de loi uniforme sur l’ensemble {1, . . . , n}. Ces variables modélisent, par exemple, les résultats successifs d’un tirage au hasard et avec remise d’une boule parmi n boules numérotées de 1 à n. Pour tout m ≥ 1 et i ∈ {1, . . . , n} on note X i(m) = Card ({k ∈ {1, . . . , m} ; Uk = i }) = m X 1{Uk =i } k=1 le nombre d’occurrences de la boule i obtenues dans les m premiers tirages. 1. Quelle est la loi de X i(m) pour i ∈ {1, . . . , n} et m ≥ 1 fixés ? 2. Soit m ≥ 1 et i , j ∈ {1, . . . , n} fixés, i 6= j . Calculer la covariance des variables aléatoires X i(m) et X j(m) . Sont-elles indépendantes ? 3. On suppose désormais qu’on effectue au total un nombre aléatoire N de tirages successifs avec remise, où N suit une loi de Poisson de paramètre λ > 0 et est indépendante de (Uk )k≥1 . On pose Yi = X i(N ) ∀i ∈ {1, . . . , n} avec par convention X i(0) = 0. Déterminer, en fonction de λ et de n, la loi de Yi pour tout i ∈ {1, . . . , n}. 4. Déterminer la loi conjointe de (Y1 , . . . , Yn ) La loi de X i(m) est une loi B(m, 1/n). Calculons ³ à ´ E X i(m) X j(m) = E = ! X (k,`)∈1,m2 X (k,`)∈1,m2 = X 1{Uk =i } 1{U` = j } ¡ ¢ E 1{Uk =i }∩{U` = j } ¡ ¢ P {Uk = i } ∩ {U` = j } (k,`)∈1,m2 = X (k,`)∈1,m2 ,k6=` = (m 2 − m) × Mais E(X i(m) )E(X j(m) ) = ³ m ´2 n P(Uk = i )P(U` = j ) 1 n2 . On en déduit Cov(X i(m) , X j(n) ) = − m n2 et les variables aléatoires X i(m) et X j(m) ne sont pas indépendantes, ce dont on pouvait se douter. Question classique : on commence par dire que les Yi sont à valeurs dans N. Puis on calcule, pour tout k, P(Yi = k) = = +∞ X n=0 +∞ X P(N = n)P(N =n) (Yi = k) P(N = n)P(N =n) (Yi = k) n=k et on aboutit avec une sommation assez simple. On peut aussi calculer la fonction génératrice de Yi : si |x| ≤ 1, à ! +∞ X +∞ X g Yi (t ) = P(N = j )P(N = j ) (Yi = p) x p p=0 j =0 la validité de cette écriture assure la sommabilité de la famille (car il s’agit de réels positifs), ce qui permet d’obtenir à ! +∞ +∞ X X (j) g Yi (t ) = P(N = j ) P(X i = p)x p p=0 j =0 et, comme on connaît la fonction génératrice d’une loi binomiale, on obtient ¶ µ λ g Yi (x) = exp (x − 1) n donc Yi suit une loi de Poisson de paramètre λ/n. Le nombre de réunions disjointes 1, k 1 + . . . + k n = A 1 ∪ · · · ∪ A n où chaque A i est de cardinal k i est (k 1 + . . . + k n )! k1 ! . . . kn ! 6 (récurrence sur n) ; on en déduit P(Y1 = k 1 , . . . , Yn = k n ) = P(Y1 = k 1 , . . . , Yn = k n , N = k 1 + . . . + k n ) = P(N = n)P(N =n) (Y1 = k 1 , . . . , Yn = k n ) µ ¶ e −λ (k 1 + . . . + k n )! 1 k1 +...+kn λk1 +...+kn × (k 1 + . . . + k n )! k1 ! . . . kn ! n µ ¶ λ µ ¶k n exp − Y n λ j = kj! n j =1 = Il se trouve donc que les Y j sont indépendantes. 7 Oral 2015 Probabilités 4 Soit X 1 , X 2 deux variables aléatoires discrètes centrées admettant des moments d’ordre 2. 1. Montrer que |Cov(X 1 , X 2 )| ≤ 1 (Var(X 1 ) + Var(X 2 )) 2 2. Déterminer les cas d’égalité dans l’inégalité précédente. 3. On note µ Var(X 1 ) Cov(X 1 , X 2 ) Σ= Cov(X 1 , X 2 ) Var(X 2 ) ¶ Montrer qu’il existe θ ∈ R et α ≥ β ≥ 0 tels que α 0 R(−θ) Σ R(θ) = 0 β µ où cos θ − sin θ R(θ) = sin θ cos θ µ ¶ ¶ Donner une condition nécessaire et suffisante sur X 1 et X 2 pour que β > 0. 4. On suppose la condition précédente réalisée. Exprimer Cov(X 1 , X 2 ) en fonction de α, β, θ puis montrer que |Cov(X 1 , X 2 )| ≤ avec c = 1−c (Var(X 1 ) + Var(X 2 )) 2 2β ∈]0, 1]. α+β 1. On peut partir de (X 1 − X 2 )2 ≥ 0, puis utiliser linéarité et positivité de l’espérance pour conclure que |Cov(X 1 , X 2 )| ≤ 1 (Var(X 1 ) + Var(X 2 )) 2 (ne pas oublier que les variables sont centrées). Ensuite, on remplace X 1 par −X 1 , on obtient ce qu’on veut. 2. D’après le calcul précédent, sachant qu’une variable a une espérance nulle si et seulement si elle est nulle presque sûrement, les cas d’égalité sont X 1 = X 2 p.s. et X 1 = −X 2 p.s. 3. Une matrice symétrique est diagonalisable en base orthonormale. Quitte à changer le premier vecteur d’une telle base en son opposé, on peut supposer que cette base est orthonormale directe, i.e. que la matrice de passage est une matrice de rotation. De plus ici les valeurs propres sont positives, car on est en dimension 2 et le déterminant et la trace de la matrice de départ sont positives. β est nul si et seulement si le déterminant est nul, i.e. (Cov(X 1 , X 2 ))2 = Var(X 1 )Var(X 2 ) cas d’égalité dans l’inégalité de Cauchy-Schwarz : cette égalité est vérifiée si et seulement si X 2 = 0 ou il existe λ tel que X 1 = λX 2 presque sûrement. Donc la cns demandée peut s’exprimer sous la forme « (X 1 , X 2 ) libre ». 4. Du calcul. . . Cov(X 1 , X 2 ) = (α − β) cos θ sin θ Et, par la trace : α−β 1−c = . On doit donc montrer Var(X 1 ) + Var(X 2 ) = α + β. Or 2 2(α + β) α−β 1 |α − β|| sin(2θ)| ≤ 2 2 9 Oral 2015 Probabilités 5 Soit n ≥ 2. On considère une file d’attente avec un guichet et n clients qui attendent. Chaque minute, le guichet se libère. Le guichetier choisit alors le client qu’il appelle selon le processus suivant : – Avec probabilité 1/2, il appelle le client en première position dans la file. – Sinon, il choisit de manière équiprobable parmi les clients aux positions 2, . . . , n. Enfin, un nouveau client arrive dans la file et se place en dernière position (de telle sorte qu’il y a toujours exactement n clients qui attendent). 1. Quelle est la loi du temps d’attente pour un client qui se trouve en première position ? (on conviendra que si ce client est appelé en premier, son temps d’attente est 1 minute). Donner son espérance et sa variance. 2. Pour tout k ∈ 1, n, on note Tk,n le temps d’attente d’un client qui se trouve initialement en position k dans la file. Montrer que Tk,n a une espérance et une variance finies. 3. Trouver une relation entre E(Tk,n ) et E(Tk−1,n ) pour tout k ≥ 2. En déduire la valeur de E(Tk,n ) en fonction de n et k. 4. Peut-on procéder de même pour calculer V(Tk,n ) en fonction de n et k ? Oral 2015 Probabilités 6 - v1 Soit n, K des entiers ≥ 1 et X 0 , . . . , X n des variables aléatoires indépendantes et de même loi uniforme sur {1, 2, . . . , K }. 1. Soit S ⊂ {1, . . . , K }. Donner la valeur de P(X 0 ∈ S) en fonction de Card(S). 2. Soit z ∈ {1, . . . , K }. Calculer P(X 1 6= z, . . . , X n 6= z). 3. Calculer P(X 0 6∈ {X 1 , . . . , X n }) de deux manières différentes et en déduire une expression de E [Card{X 1 , . . . , X n }] 4. Donner un équivalent de E [Card{X 1 , . . . , X n }] lorsque (i) K est fixe et n → +∞, (ii) n est fixe et K → +∞, (iii) n = K → +∞ Oral 2015 Probabilités 6 - v2 Soit n, K des entiers ≥ 1 et X 0 , . . . , X n des variables aléatoires indépendantes et de même loi uniforme sur {1, 2, . . . , K }. 1. En calculant P(X 0 6∈ {X 1 , . . . , X n }) de deux manières différentes, trouver une expression de E [Card{X 1 , . . . , X n }] 2. Donner un équivalent de E [Card{X 1 , . . . , X n }] lorsque (i) K est fixe et n → +∞, (ii) n est fixe et K → +∞, (iii) n = K → +∞ Première manière, en utilisant les probabilités totales et un conditionnement par la valeur de X 0 : K X P(X 0 6∈ {X 1 , . . . , X n }) = P(X 0 = k)P (X 1 6= k, . . . , X n 6= k) k=1 = (1 − 1 n ) K Deuxième manière, en conditionnant par les valeurs prises par X 1 , . . . , X n : X P (X 0 6∈ {X 1 , . . . , X n }) = P ({X 1 , . . . , X n } = A) P(X 0 6∈ A) A⊂1,K = min(n,K X ) k=1 = min(n,K X ) ! à X õ k=1 = µµ min(n,K X ) k=1 P ({X 1 , . . . , X n } = A) P(X 0 6∈ A) A⊂1,K ,Card(A)=k k 1− K ! ¶ X P ({X 1 , . . . , X n } = A) A⊂1,K ,Card(A)=k ¶ ¶ k 1− P(Card(X 1 , . . . , X n } = k) K En égalant ces deux expressions, on obtient (1 − 1 1 n ) = 1 − E[Card({X 1 , . . . , X n })] K K et donc le résultat : µ 1 E[Card({X 1 , . . . , X n })] = K 1 − (1 − )n K ¶ Quand K est fixe et n → +∞, un équivalent est K . Quand n est fixe et K tend vers +∞, un équivalent est n. Quand n = K tend vers +∞, un équivalent est n(1 − 1/e). Les deux premiers résultats sont assez naturels. 13 Oral 2015 Probabilités 7 1. Soit (X , Y ) un couple de variables aléatoires à valeurs dans N2 , et A ⊂ N. Montrer que |P(X ∈ A) − P(Y ∈ A)| ≤ P(X 6= Y ) 2. Si p est un réel dans [0, 1], construire un couple (X , Y ) de variables aléatoires, à valeurs dans N×{0, 1}, tel que les lois marginales de X et Y soient respectivement une loi de Poisson P (p) et une loi de Bernoulli B(p), et tel que P ((X , Y ) = (1, 0)) = 0 et ∀k ≥ 2 P ((X , Y ) = (k, 1)) = 0 Montrer qu’on a alors P(X 6= Y ) ≤ 2p 2 . 3. On considère une famille finie de variables aléatoires mutuellement indépendantes, suivant chacune une loi de Poisson. Que peut-on dire de la somme de ces variables ? 4. En utilisant tout ce qui précède, ¶ montrer que si une variable aléatoire X µ λ et si une variable aléatoire Y suit une loi suit une loi binomiale B n, n de Poisson P (λ) (λ > 0), alors, pour toute partie A ⊂ N, 2λ2 |P(X ∈ A) − P(Y ∈ A)| ≤ n Puis que +∞ X k=0 |P(X = k) − P(Y = k)| ≤ 4λ2 n Oral 2015 Probabilités 8 On dit qu’une loi de probabilité L sur N est infiniment divisible lorsque, pour toute variable aléatoire X de loi L , pour tout n ≥ 1, il existe des variables aléatoires Y1 , . . . , Yn , indépendantes et équidistribuées (i.e. de même loi), à valeurs dans N, telles que X ait même loi que Y1 + . . . + Yn . 1. Soit λ > 0 ; la loi de Poisson P (λ) est-elle infiniment divisible ? 2. Soit p ∈]0, 1[, m ≥ 1 ; la loi binomiale B(m, p) est-elle infiniment divisible ? 3. Soit X est une variable aléatoire à valeurs dans N. On suppose que X + 1 suit une loi géométrique G (p) (0 < p < 1). Montrer que la loi de X est infiniment divisible. 4. La loi G (p) (0 < p < 1) est-elle infiniment divisible ? 5. On dit qu’une loi L sur N est infiniment divisible au sens large lorsque, pour toute variable aléatoire X de loi L , pour tout n ≥ 1, il existe des variables aléatoires discrètes Y1 , . . . , Yn , indépendantes et équidistribuées (i.e. de même loi), pas nécessairement à valeurs dans N, telles que X = Y1 + . . . + Yn . Les lois G (p) et B(m, p) sont-elles infiniment divisibles au sens large ? 1.Soit X suivant une loi de Poisson P (λ). Il est classique (avec les fonctions génératrices par exemple) de montrer que si X et Y suivent des lois de Poisson de paramètres respectifs α et β, et sont indépendantes, X + Y suit une loi de Poisson de paramètre α + β. Par récurrence sur n, si les Yi sont mutuellement indépendantes et suivent chacune une loi de Poisson P (λ/n), Y1 + . . . + Yn suit une loi de Poisson de paramètre λ. La loi de Poisson P (λ) est donc infiniment divisible. 2. Si n > m, si les Yi sont indépendantes et équidistribuées à valeurs dans N, de deux choses l’une : ou presque sûrement Y1 = 0, donc presque sûrement Y1 + . . . + Yn = 0. Ou il existe n 0 ≥ 1 tel que P(Y1 = n 0 ) > 0. Mais alors P(Y1 + . . . + Yn = nn 0 ) > 0. Or nn 0 > m, la loi de Y1 + . . . + Yn ne peut donc pas être une loi binomiale B(n, p). 3. Calculons la fonction génératrice de X : si |z| ≤ 1, g X (z) = +∞ X k=0 (1 − p)k pz k = p 1 − (1 − p)z Si la fonction définie sur [−1, 1] par ¡ ¢−1/n h : t 7→ p 1/n 1 − (1 − p)t est loi fonction génératrice d’une loi de probabilité sur N, on conclut. Or, sur ] − 1, 1[, ¶ µ ¶ µ ¶µ 1 1 1 + 1 . . . + k − 1 +∞ X n n n (1 − x)−1/n = 1 + xk k! k=1 On parvient donc à écrire h(t ) = +∞ X ak t k k=0 où les a k sont positifs de somme 1 (car h(1) = 1). Donc h est la fonction génératrice d’une loi de probabilité, si les Yi (1 ≤ i ≤ n) sont indépendantes et suivent cette loi, alors leur somme suit une loi qui est celle de X . D’où l’infinie divisibilité. Supposons que X suive une loi G (p). Soit Y1 , Y2 deux variables aléatoires à valeurs dans N. Si P(Y1 = 0) > 0, alors P(Y1 +Y2 = 0) > 0, et Y1 +Y2 ne peut pas suivre une loi géométrique. Si P(Y1 = 0) = 0, alors Y1 + Y2 ≥ 2 p.s., et Y1 + Y2 ne suit pas une loi géométrique. . .La loi G (p) n’est donc même pas 2 fois divisible. . . La loi G (p) est infiniment divisible au sens large ; en effet, si X suit une loi G (p), pour tout n ≥ 1 il existe Y1 , . . . , Yn indépendantes équidistribuées telles que Y1 + . . . + Yn ait même loi que X + 1. Mais alors X a même loi que (Y1 − 1/n) + . . . + (Yn − 1/n), et ces Yi − 1/n ont même loi et sont indépendantes. En revanche, élargir le sens ne rend pas la loi binomiale infiniment divisible : si Y1 n’est pas presque sûrement constante, elle prend au moins deux valeurs a et b avec une probabilité non nulle. Les valeurs distinctes na, (n − 1)a + b,. . .,nb sont prises chacune avec une probabilité non nulle par Y1 + . . . + Yn , cela fait trop de valeurs pour une loi binomiale si n est grand. 16 Oral 2015 Probabilités 9 Version 1 Soit (X n )n≥1 une suite de variables aléatoires mutuellement indépendantes, à valeurs dans N, de même loi. On suppose qu’il existe n 0 tel que P(X 1 > n 0 ) = 0. Soit N une variable aléatoire indépendante des X n (n ∈ N), suivant une loi de Poisson P (λ). On définit enfin, pour tout i ∈ 0, n 0 , la variable aléatoire Ni = Card ({k ∈ 1, N ; X k = i }) On note enfin SN = X1 + . . . + XN 1. Déterminer la loi de Ni . n0 X 2. Que vaut Ni ? i =0 3. Montrer que les Ni (0 ≤ i ≤ n 0 ) sont indépendantes. n0 X 4. Montrer que S N = i Ni . i =0 Oral 2015 Probabilités 9 Version 2 Soit (X n )n≥1 une suite de variables aléatoires mutuellement indépendantes, à valeurs dans N, de même loi. Soit N une variable aléatoire indépendante des X n (n ∈ N), suivant une loi de Poisson P (λ) (λ ≥ 0). On note enfin SN = X1 + . . . + XN Déterminer une suite (Ni )i ∈N de variables aléatoires mutuellement indépendantes, vérifiant (i) pour tout i , il existe λi ≥ 0 tel que Ni ∼ P (λi ). +∞ X (ii) Ni = N i =0 +∞ X (iii) i =0 i Ni = S N Vérifier la conformité avec les différents programmes. Posable en mp. Oral 2015 Probabilités 1* On considère deux variables aléatoires indépendantes X 1 et X 2 , suivant chacune une loi de Poisson de paramètre λ1 et λ2 respectivement. 1. Déterminer la loi de X 1 + X 2 . 2. Pour n ∈ N, déterminer la loi conditionnelle de X 1 sachant X 1 + X 2 = n 19 Oral 2015 Probabilités 10 Deux chaînes de production A et B sont à l’œuvre dans une usine : A produit 60% de la production, B le reste. La probabilité qu’un objet provenant de A soit défectueux est de 0, 1 et de 0, 2 pour B . 1. On choisit au hasard un objet à la sortie de l’entreprise, on constate qu’il est défectueux. Calculer la probabilité de « l’objet vient de la chaîne A » 2. Pourquoi peut-on interpréter la loi de Poisson comme « la loi des événements rares » ? On suppose de plus que A produit une quantité aléatoire Y A d’objets par heure, suivant une loi de Poisson de paramètre λ = 20. Déterminer la loi de X A , nombre d’objets défectueux produits en une heure par la chaîne A. 4. On prend maintenant en compte les deux chaînes, donner la loi du nombre d’objets défectueux produits en une heure. 1. C’est typiquement une application de la formule de Bayes, ou probabilité des causes. En effet, on tire au hasard un objet à la sortie de l’usine, on note E l’événement « l’objet vient de la chaîne A », et on note F l’événement « l’objet est défectueux ». On connaît P(E ), P(E ), PE (F ), PE (F ). On cherche PF (E ). On retrouve la formule de Bayes à partir de la double formule : P(E ∩ F ) = P(E )PE (F ) P(E ∩ F ) = P(F )PF (E ) d’où (toutes les probabilités étant non nulles) PF (E ) = P(E )PE (F ) P(E )PE (F ) = P(F ) P(E )PE (F ) + P(E )PE (F ) Et donc PF (E ) = 3 0, 6 × 0, 1 = ≈ 0, 428 0, 6 × 0, 1 + 0, 4 × 0, 2 7 2. D’après le cours, si, pour tout n, X n suit une loi B(n, p n ), si np n −−−−−→ λ, n→+∞ alors, pour tout k ∈ N, λk n→+∞ k! Dans une modélisation classique, X n est somme de n variables aléatoires indépendantes de même loi B(1, p n ). Pour que l’approximation de la loi de X n par une loi de Poisson soit valable, il faut que n soit « grand », donc que p n soit « petit » (λ est fixé), ce qui justifie le terme d’événement « rare ». P(X n = k) −−−−−→ e −λ 20 3. Soit n un entier naturel. Comme d’habitude, le calcul commence par les probabilités totales : P(X A = n) = +∞ X P(Y A = k)P(Y A =k) (X A = n) k=0 Or, sachant Y A = k, le nombre d’objets défectueux produits par la chaîne A suit une loi B(0, 1, k). Donc à ! +∞ X −λ λk k (0, 1)n (0, 9)k−n P(X A = n) = e k! n k=n et on trouve en calculant la somme que X A suit une loi de Poisson de paramètre (0, 1) × λ. 4. On prend maintenant en compte les deux chaînes, donner la loi du nombre d’objets défectueux produits en une heure. Le nombre d’objets moyens produits par heure dans la chaîne A est λ = 20. Donc le nombre moyen d’objets produits par la chaîne B (toujours par heure) est µ = 40/3. Il est cohérent avec la question précédente de faire l’hypothèse que le nombre d’objets produits en une heure par la chaîne B suit une loi de Poisson de paramètre µ (le paramètre d’une loi de Poisson est égal à son espérance). Le nombre d’objets défectueux produits en une heure par la chaîne B suit alors une loi de Poisson de paramètre 0, 2 × µ. On fait l’hypothèse que les deux chaînes fonctionnent indépendamment l’une de l’autre. Une somme de deux variables indépendantes suivant des lois de Poisson suit elle-même une loi de Poisson (classique, se fait par exemple très agréablement avec les fonctions génératrices). Donc le nombre total d’objets défectueux produits en une heure suit une loi de Poisson de paramètre 0, 1 × λ + 0, 2 × µ = 14/3. 21