PSI : mathématiques 2016-2017 Corrigé de la feuille d’exercices 1 Exercice 1. Remarquons que les différents tirages se font dans des urnes différentes, il sont donc indépendants. L’ensemble des valeurs prises par X est J1, nK. Pour déterminer la loi de X, on va commencer par déterminer P(X 6 k), pour k 2 J1, nK. Pour i 2 J1, nK, soit Ai l’événement “on tire un numéro 6 k dans l’urne i". On a P(X 6 k) = P(A1 \ · · · \ AN ) = ✓ ◆N k P(Ai ) = , n N Y i=1 en utilisant l’indépendance dans la deuxième égalité. On a ensuite directement : 8k 2 J2, nK, P(X = k) = P(X 6 k) P(X 6 k 1) = kN (k 1)N 1 et P(X = 1) = N . N n n Exercice 2. Première méthode. En notant X1 , resp. X2 , le nombre de lancers nécessaires pour obtenir pile avec la première, resp. la seconde, pièce on a X = min(X1 , X2 ). D’autre part, X1 , resp. X2 désigne le rang d’obtention du premier “pile” pour la première, resp. la seconde, pièce et chaque lancer de pièce renvoie “pile” avec probabilité p donc X1 , X2 ⇠ G(p). En conséquence, X est à valeurs dans N⇤ et pour tout n 2 N⇤ : P(X > n) = P(X1 > n, X2 > n) = P(X1 > n)P(X2 > n). Or, pour i = 1, 2 P(Xi > n) = +1 X P(X1 = k) = k=n +1 X (1 p)k 1 p= p(1 k=n p)n p 1 = (1 p)n 1 . Une autre façon de le voir consiste à remarquer que l’événement (Xi > n) est égal à l’événement “les n 1 premiers lancers ont donné face”. Finalement P(X > n) = (1 p)2n 2 et P(X = n) = P(X > n) = (1 = (1 p) P(X > n + 1) 2n 2 p)2 (1 n 1 p)2 ) = (1 (1 (1 (1 p)2n 2 (2p p2 ) p)2 ) donc X ⇠ G(1 (1 p)2 ). Deuxième méthode. On répète l’expérience “lancer deux pièces simultanément” jusqu’à obtention du succès “avoir au moins un pile”. La variable X suit donc une loi géométrique de paramètre P(A), où A est l’événement “avoir au moins une fois pile”. Le complémentaire de A est l’événement “obtenir deux fois face”, de probabilité (1 p)2 (les deux lancers sont indépendants). Ainsi, X ⇠ G(1 (1 p)2 ). 1 PSI : mathématiques 2016-2017 Exercice 3. Commençons par calculer la fonction de répartition de M = max16i6n Xi . Il s’agit de calculer la probabilité de l’événement (M 6 x) pour x réel. Or, (M 6 x) = n \ (Xi 6 x), i=1 donc par indépendance FM (x) = n Y Fi (x). i=1 Calculons maintenant la fonction de répartition de m = min16i6n Xi . On a, de façon similaire, ! n \ Fm (x) = P(m 6 x) = 1 P(m > x) = 1 P Xi > x i=1 =1 n Y n Y P(Xi > x)) = 1 i=1 (1 Fi (x)). i=1 Finalement, on remarque que (x1 < m 6 M 6 x2 ) = n \ (x1 < Xi 6 x2 ) i=1 et ces événements sont indépendants d’où P(x1 < m 6 M 6 x2 ) = n Y P(x1 < Xi 6 x2 ) = i=1 puisque, pour i 2 J1, nK, (Fi (x2 ) Fi (x1 )), i=1 P(x1 < Xi 6 x2 ) = P((Xi > x1 ) \ (Xi 6 x2 )) = P(Xi > x1 ) + P(Xi 6 x2 ) = Fi (x2 ) n Y Fi (x1 ). P((Xi 6 x1 ) [ (Xi > x2 )) Exercice 4. Notons P pour “pile" et F pour “face”, n est fixé. L’univers décrivant une partie est {P, F }n , de cardinal 2n . Une situation gagnante est un n uplet formé d’un seul P et de (n 1) F (n possibilités) ou un n uplet formé d’un seul F et de (n 1) P (n possibilités). Pour chaque partie, la probabilité qu’il y ait un gagnant est donc p= 2n n = n 1. n 2 2 La variable X correspond donc au nombre de parties nécessaires pour obtenir une situation gagnante, la probabilité de succès à chaque épreuve étant égale à p. Ainsi, X suit une loi géométrique de paramètre p. D’après le cours, E(X) = 1 2n 1 = p n V(X) = 2 1 p p2 = 2n 1 (2n 1 n2 n) . PSI : mathématiques 2016-2017 Exercice 5. 1. On remarque que U est à valeurs dans N et V est à valeurs dans N⇤ . Pour (i, j) couple de N ⇥ N⇤ , on va calculer P(U = i, V = j). On distingue le cas i = 0 : par indépendance P(U = 0, V = j) = P(X = Y, X = j) = P(X = j, Y = j) = (p(1 Pour i > 1, on a (U = i) = (X Y = i) \ (V = j)) [ ((Y ) . X = i) \ (V = j)) Y = i) \ (Y = j)) [ ((Y = ((X 1 2 X = i) et Y = i) [ (Y (U = i) \ (V = j) = ((X p)j X = i) \ (X = j)) = ((X = i + j) \ (Y = j)) [ ((Y = i + j) \ (X = j)). Cette réunion est disjointe (i > 1) donc par indépendance P(U = i, V = j) = P(X = i + j)P(Y = j) + P(Y = i + j)P(X = j) = 2p2 (1 p)i+2j D’où, pour tout (i, j) 2 N ⇥ N⇤ P(U = i, V = j) = ( 2 . p2 (1 p)2j 2 si i = 0 2p2 (1 p)i+2j 2 sinon 2. On obtient les lois marginales avec la formule des probabilités totales, appliquée aux systèmes complets d’événements {(U = i); i 2 N} ou {(V = j); j 2 N}. Loi de U . On traite 0 à part. P(U = 0) = +1 X P(U = 0, V = j) = j=1 Pour i > 1, +1 X p2 ((1 p)2 )j 1 = j=1 P(U = i) = = +1 X P(U = i, V = j) = j=1 2p2 (1 p)i p)2 = +1 X +1 X 2p(1 2 p P(U = i, V = j) = i=0 = p2 (1 p)i ((1 p)2 )j 1 p)i ((1 p)2 )j 1 j=1 p)i . 1 (1 P1 On peut vérifier que 0 P(U = i) = 1. Loi de V . Pour tout j > 1, on a P(V = j) = 2p2 (1 1 p2 p = . 2 (1 p) 2 p +1 X 2p2 (1 i=0 p)2j 2 + +1 X 2p2 (1 p)i ((1 p)2 )j 1 i=1 2 2j 2 = p (1 p) = p(2 p)(1 + 2p(1 p)2j 2 p)2j 1 . On peut également vérifier. 3. En utilisant les calculs précédents, on a bien que pour (i, j) 2 N ⇥ N⇤ , P(U = i, V = j) = P(U = i)P(V = j). Les variables aléatoires U et V sont donc indépendantes. 3 PSI : mathématiques 2016-2017 Exercice 6. 1. Les variables aléatoires X et Y sont à valeurs dans N. La formule des probabilités totales appliquée au système complet d’événements (N = n)n2N donne, pour tout k 2 N, P(X = k) = +1 X n=0 +1 X P((X = k) \ (N = n)) = n=k P((X = k) \ (N = n)) puisque les événements (X = k) \ (N = n) sont impossibles pour n < k. D’autre part, sachant que n colis ont été expédiés, le nombre de ceux qui arriveront détériorés suit la loi binomiale B(n, p), donc pour n > k, ✓ ◆ n k P(N =n) (X = k) = p (1 p)n k . k D’où, P(X = k) = +1 X P(N =n) (X = k)P(N = n) = n=k =e n=k +1 ( p)k X (1 k! p)n n=k = +1 ✓ ◆ X n ( p)k e k! p n k k (n k)! =e k pk (1 p)n +1 ( p)k X (1 k! n=0 k n e p)n n! n (n)! , en reconnaissant la série entière exponentielle. Donc X ⇠ P( p). Un calcul similaire montre que Y ⇠ P( (1 p)). 2. Pour répondre à la question, on compare P(X = i, Y = j) avec P(X = i)P(Y = j) pour tout (i, j) 2 N2 . On a encore P(X = i, Y = j) = +1 X n=0 P((X = i) \ (Y = j) \ (N = n)). Or, N = X + Y donc l’événement (X = i) \ (Y = j) \ (N = n) est impossible si n 6= i + j et la somme précédente n’a qu’un seul terme : P(X = i, Y = j) = P((X = i) \ (Y = j) \ (N = i + j)) = P(X = i \ N = i + j). Ce calcul a déjà été fait : P(X = i, Y = j) = P(N =i+j) (X = i)P(N = i + k) ✓✓ ◆ ◆✓ ◆ i+j i+j i j = p (1 p) e i (i + j)! i j p) i+j p (1 =e . i!j! On constate donc que pour tout (i, j) 2 N2 , P(X = i, Y = j) = P(X = i)P(Y = j) et, bien que cela contredise l’intuition, les variables aléatoires X et Y sont indépendantes ! 4 PSI : mathématiques 2016-2017 Exercice 7. Par indépendance des (Xn )n2N , on a pour tout n 2 N, E(Y n) = E(Xn Xn+1 ) = E(Xn )E(Xn+1 ) = p2 . Ainsi, par linéarité, E(Sn ) = E(Y1 ) + · · · + E(Yn ) = np2 . Pour calculer la variance de Sn , il va nous falloir connaître plus en détail les variables Yn . Soit n 2 N, la variable aléatoire Yn est à valeurs dans {0, 1} et P(Yn = 1) = P(Xn = Xn+1 = 1) = P(Xn = 1)P(Xn+1 = 1) = p2 par indépendance. Donc Yn ⇠ B(p2 ), et V(Yn ) = p2 (1 La formule de la variance d’une somme donne V(Sn ) = n X V(Yk ) + 2 X p)2 . Cov(Yi , Yj ). i<j k=1 Or, si |i j| > 1, les variables aléatoires Yi et Yj sont indépendantes puisque Yi est fonction de Xi , Xi+1 et Yj est fonction de Xj , Xj+1 avec {Xi , Xi+1 }, {Xj , Xj+1 } disjoints. Dans ce cas-là, Cov(Yi , Yj ) = 0. Il ne reste donc qu’à calculer, pour i 2 J1, n 1K, Cov(Yi , Yi+1 ) = E(Yi Yi+1 ) E(Yi )E(Yi+1 ). Puisque Yi Yi+1 est une variable aléatoire à valeurs dans {0, 1} et que, par indépendance, P(Yi Yi+1 = 1) = P(Xi = Xi+1 = Xi+2 ) = p3 , on a Yi Yi+1 ⇠ B(p3 ) et E(Yi Yi+1 ) = p3 . Finalement, Cov(Yi , Yi+1 ) = p3 et V(Sn ) = np2 (1 Exercice 8. p)2 + 2(n 1)p3 (1 (p2 )2 = p3 (1 p) = p2 (1 p) p)(3np + n 2p). 1. Par récurrence ou dérivations successives. 2. N est à valeurs dans N⇤ et suit une loi géométrique de paramètre p. 3. Puisqu’on relance la pièce n fois lorsque (N = n), X est à valeurs dans N. Pour déduire la loi de X, on utilise le système complet d’événements (N = n)n2N⇤ . La loi conditionnelle de X sachant (N = n), pour n 2 N ⇤ , est la loi binomiale B(n, p). Notons qu’il faut lancer au moins autant de fois qu’on obtient de pile. La formule des probabilités totales donne, pour k 2 N, P(X = k) = +1 X P(N =n) (X = k)P(N = n) = n=1 +1 X n=max(k,1) ✓ ◆ n k p (1 k En utilisant la question 1, on a , pour k > 1, +1 ✓ ◆ X pk+1 n P(X = k) = (1 k+1 k (1 p) p)2 n=k pk+1 (1 p)2k = (1 p)k+1 (1 (1 p)2 )k+1 pk+1 (1 p)k 1 (1 p)k 1 = = . (2p p2 )k+1 (2 p)k+1 5 n p)n k p(1 p)n 1 . PSI : mathématiques 2016-2017 Enfin, pour k = 0, P(X = 0) = +1 X p)n p(1 (1 p)n 1 n=1 = p 1 p 1 = 2 +1 X p)2n = p (1 n=1 1 p 1 (1 p)2 p . p 4. La variable BG est à valeurs dans N. On a p0 , P(BG = 0) = P(B = 0) = 1 et pour k > 1, par indépendance P(BG = k) = P(B = 1, G = k) = P(B = 1)P(G = k) = p02 (1 En choissisant p0 tel que 1 p02 (1 p0 = p0 ) k 1 = 1 p 2 p soit p0 = 1 1 (2 p)2 ✓ 1 2 p p ◆k 1 p 2 p = 1 = 1 2 p, p0 ) k 1 . on a p)k 1 . p)k+1 (1 (2 Pour cette valeur de p0 , on a P(BG = k) = P(X = k), 8k 2 N. Donc on peut effectivement choisir p0 de sorte que BG suive la même loi que X. Ce qui nous permet, par indépendance d’en déduire l’espérance de X : E(X) = E(BG) = E(B)E(G) = p0 Exercice 9. 1. On a X(⌦) = J1, nK. Il y a Ainsi, E(X) = n X n P k= k=1 n(n+1) 2 P(X = k) = 1 = 1. p0 boules dans l’urne. Pour k 2 J1, nK, 2k . n(n + 1) n kP(X = k) = k=1 X 2 2n + 1 k2 = . n(n + 1) 3 k=1 2. (a) On a Y (⌦) = J1, nK également. Soit (i, j) 2 J1, nK2 . Si i 6= j, on a P(X = i, Y = j) = P(X=i) (Y = j)P(X = i) = = (n j n(n+1) 2 1 ⇥ 2i n(n + 1) 1 ⇥ 2i n(n + 1) 4ij . 1)n(n + 1)(n + 2) Si i = j, on a P(X = i, Y = i) = P(X=i) (Y = i)P(X = i) = = (n 4i(i 1) . 1)n(n + 1)(n + 2) 6 i n(n+1) 2 1 PSI : mathématiques 2016-2017 (b) Soit j 2 J1, nK. D’après la formule des probabilités totales avec le système complet d’événements {(X = i); i 2 J1, nK} P(Y = j) = n X P(X = i, Y = j) i=1 = = X 4j(j 1) + 1)n(n + 1)(n + 2) (n (n 4j 1)n(n + 1)(n + 2) (n ✓ 4ij 1)n(n + 1)(n + 2) i6=j ! n X j 1+ j j i=1 2j n(n + 1) = 1 (n 1)n(n + 1)(n + 2) 2 2j = (n2 + n 2) (n 1)n(n + 1)(n + 2) 2j = . n(n + 1) ◆ On constate que la loi de Y est la même que celle de X. (c) On a P(X = 1, Y = 1) = 0 6= P(X = 1)P(Y = 1) = X et Y ne sont pas indépendantes. 4 n2 (n+1)2 donc les variables Exercice 10. 1 1. Le théorème de transfert nous dit que la variable aléatoire Y = 1+X est d’espérance finie si et seulement si la série de terme général ✓ ◆ ✓ ◆ n 1 P(X = n) = e 1+n (n + 1)! n>0 n>0 converge absolument - dans ce cas, l’espérance de Y est égale à la valeur de cette somme. Il s’agit d’une série à termes réels positifs, qui converge absolument par la règle de d’Alembert : en effet, > 0 et n+1 e (n + 1)! = ! 0, (n + 2)! n e n+2 lorsque n ! +1. Ainsi, Y est d’espérance finie et E(Y ) = +1 X n=0 n (n + 1)! e = 1 (e e 1) = 1 e . On peut également commencer par dire que Y 6 1 donc par comparaison, Y est d’espérance finie. 2. On procède de même : par le théorème de transfert, il faut déterminer si la série de terme général positif ✓ ◆ ✓ ◆ 1 1 n 1 P(X = n) = p(1 p) n n n>1 n>1 converge (absolument). On reconnaît un multiple de la série entière logarithmique : en effet, +1 n X x n=1 7 n PSI : mathématiques 2016-2017 est le développement en série entière de la fonction f : x 7! ln(1 z) sur l’intervalle ] 1, 1[. Puisque (1 p) 2] 1, 1[, la série qui nous intéresse converge absolument et p p E(X) = f (1 p) = ln(p). 1 p 1 p Exercice 11. 1. Pour n 2 N⇤ , notons Pn l’événement “On obtient pile au n ième lancer". L’événement Bk = P̄k \ Pk 1 \ Pk 2 , pour k > 3, correspond donc à l’obtention d’une séquence (pile, pile, face) au rang k. Notons que P(Bn ) = 81 . On peut alors écrire, pour k > 3, (X 6 k) = k [ Bk . l=3 Puisque (X 6 k + 1) = (X 6 k) [ Bk+1 on a P(X 6 k + 1) = P(X 6 k) + P(Bk+1 ) P((X 6 k) \ Bk+1 ). Mais, pour n > 5, (X 6 k) \ Bk+1 = ((X 6 k 2) \ Bk+1 ) [ (Bk 1 \ Bk+1 ) [ (Bk \ Bk+1 ). Or les événements (Bk 1 \ Bk+1 ) et (Bk \ Bk+1 ) sont impossibles. De plus les événements (X 6 k 2) et Bk+1 concernent des lancers différents et sont donc indépendants. D’où P((X 6 k) \ Bk+1 ) = P(X 6 k 2)P(Bk+1 ). Pour n > 5, on a donc la relation de récurrence suivante : P(X 6 k + 1) = P(X 6 k) + 1 (1 8 P(X 6 k 2)) . 2. Soit A l’événement “ On obtient au moins une fois cette séquence”.Alors A est la réunion croissante des (X 6 k), pour k > 3 et 0 1 [ P(A) = P @ (X 6 k)A = lim P(X 6 k). k!+1 k>3 On a vu que la suite P(X 6 k) était croissante. Puisqu’elle est aussi majorée par 1, elle converge vers une limite l. En passant à la limite dans la relation de récurrence, l doit satisfaire 1 l = l + (1 l), soit l = 1. 8 En conséquence, l’événement A est quasi-certain et le jeu s’arrête. 3. La variable X est à valeurs positives, en conséquence, son espérance est bien définie dans R+ [ {+1}. Pour k > 3, l’événement (X = k) correspond à “On a obtenu pile aux lancers de rangs k 2, k 1 et face au k ième lancer sans jamais avoir obtenu la séquence (pile, pile, face) auparavant”. On a (X = k + 3) = (X > k) \ Pk+1 \ Pk+2 \ P̄k+3 . 8 PSI : mathématiques 2016-2017 L’événement (X > k) signifie que l’on n’a pas obtenu la séquence voulue lors des k premiers tirages, il ne dépend donc que de ces k premiers tirages, donc les événements précédents sont indépendants, d’où 1 P(X = k + 3) = P(X > k)P(Pk+1 )P(Pk+2 )P(P̄k+3 ) = P(X > k). 8 On en déduit que E(X) = +1 X P(X > k) = 8 k=0 +1 X P(X = k + 3). k=0 Les événements (X = k + 3)k>0 sont disjoints, de réunion A. D’après la question précédente : +1 X 1 = P(A) = P(X = k). k=3 En conséquence E(X) = 8. Il s’agit du nombre moyen de lancers à faire pour obtenir “pile, pile, face ” pour la première fois. 9 PSI : mathématiques 2016-2017 Corrigé de la feuille d’exercices 2 Exercice 1. Pour tout i 2 J1, nK, on note Xi la variable aléatoire égale au numéro sorti lors du i ième tirage. n P Ainsi Sn = Xi . i=1 Les variables Xi sont indépendantes et de même loi U (J1, N K), donc chaque Xi a pour 2 espérance N 2+1 et variance (N12 1) . On en déduit N +1 N2 1 et V(Sn ) = nV(X1 ) = n . 2 12 Exercice 2. Remarquons que l’énoncé ne demande pas de déterminer la loi de Z. Notons tout de même que Z est une variable finie, à valeurs dans J0, nK. Ainsi, il n’est pas nécessaire de s’interroger quant à l’existence des moments de Z. Commençons par calculer l’espérance de Z grâce au théorème de transfert, appliqué à la fonction f (x, y) = |x y| et au couple (X, Y ). E(Sn ) = nE(X1 ) = n E(Z) = n X n X i=0 j=0 |i j|P(X = i, Y = j) = n X n X i=0 j=0 |i j|P(X = i)P(Y = j) = n X n X i=0 j=0 |i j| en utilisant l’indépendance dans la seconde égalité. La somme double se réécrit 0 1 n i n X X X 1 @ (i j) + E(Z) = (j i)A (changements de variables : i i (n + 1)2 i=0 j=0 j=i+1 0 1 n i n i n X X X X 1 1 @ A = j+ j = (i(i + 1) + (n i)(n i + 1)) (n + 1)2 2(n + 1)2 i=0 j=0 j=1 1 , (n + 1)2 j, j i=0 n X 1 (2i2 2in + n(n + 1)) 2(n + 1)2 i=0 ✓ ◆ 1 n(n + 1)(2n + 1) n2 (n + 1) n(n + 1)2 = + (n + 1)2 6 2 2 n(2n + 1 3n + 3(n + 1)) n(n + 2) = = . 6(n + 1) 3(n + 1) = Puis, par linéarité on calcule l’espérance de Z 2 : E(Z 2 ) = E((X Y )2 ) = E(X 2 ) + E(Y 2 ) 2E(XY ). Puisque X, Y ⇠ U(J0, nK) et par indépendance : E(Z 2 ) = 2E(X 2 ) 2E(X)2 = 2V(X). Les formules du cours ne s’appliquent pas ici (X et Y sont uniformes sur J0, nK et non J1, nK). On calcule donc E(X 2 ) = n X k=0 k2 1 n(2n + 1) = . n+1 6 1 j i) PSI : mathématiques 2016-2017 Puis n X E(X) = k k=0 Ainsi, V(X) = 1 n = . n+1 2 n2 n(n + 2) = . 4 12 n(2n + 1) 6 Enfin, V(Z) = E(Z 2 ) n(n + 2) 6 E(Z)2 = n2 (n + 2)2 n2 + 2n + 3 = . 9(n + 1)2 18(n + 1)2 Exercice 3. 1. La variable aléatoire X doit vérifier : X P(X = k) = 1. k2N En conséquence, 1= +1 X e k=0 = 2 e 4 2 2k 4k! (1 + ↵k) +1 k X 2 k=0 k! +↵ +1 X k=0 2k (k 1)! ! . Notons qu’il est bien possible de scinder la somme en deux ici, puisque les deux séries apparaissant sont des séries exponentielles, la seconde étant décalée. On a donc e 2 e2 + 2↵e2 4 4 = 1 + 2↵ 3 ↵= . 2 1= En particulier, pour k 2 N, 1 e 2 2k 3 e 2 2k + . 4 k! 2 4(k 1)! P(X = k) = 2. Pour calculer l’espérance de X, on commence par remarquer, comme le suggère l’énoncé, que P(X = k) = 14 P(Y = k) + 34 P(T = k), pour tout k, où P(Y = k) = e 2 2k k! et P(T = k) = e 2 2k 1 (k 1)! donc Y et T 1 suivent une loi de Poisson de paramètre 2. La variable X, à valeurs dans N, est d’espérance finie si la série de terme général (kP(X = k))k2N converge absolument. Or, la remarque précédente entraîne que pour tout k 2 N, 1 3 kP(X = k) = kP(Y = k) + kP(T = k). 4 4 Puisque Y suit une loi de Poisson de paramètre 2, elle est d’espérance finie égale à 2 et la série de terme général (kP(Y = k))k converge absolument. 2 PSI : mathématiques 2016-2017 De même, T 1 est d’espérance finie égale à 2 donc T est également d’espérance finie égale à 3 et la série de terme général (kP(T = k))k converge absolument. Par linéarité, la série de terme général (kP(X = k))k2N converge absolument et X est d’espérance finie. On peut alors calculer cette espérance (on peut séparer la somme en deux puisque l’on vient de voir que les séries impliquées sont absolument convergentes). 1 3 1 9 11 E(X) = E(Y ) + E(T ) = + = . 4 4 2 4 4 De la même façon, puisque Y , T 1 et donc T admettent des moments d’ordre 2, la variable X admet également un moment d’ordre 2. On a (calculs faits en cours) E(Y 2 ) = E(Y )2 +V(Y ) = 6, E(T 2 ) = E((T 1)2 ) 1+2E(T ) = E(T 1)2 +V(T 1) 1+6 = 11 donc 1 3 6 33 39 E(X 2 ) = E(Y 2 ) + E(T 2 ) = + = . 4 4 4 4 4 Finalement, V(X) = E(X 2 ) E(X)2 = 39 4 121 35 = . 16 16 Exercice 4. On utilise la bilinéarité de la covariance : Cov(X + Y, X Y ) = Cov(X, X Y ) + Cov(Y, X = Cov(X, X) = V(X) Y) Cov(X, Y ) + Cov(Y, X) Cov(Y, Y ) V(Y ) = 0. Exercice 5. 1. La variable U suit une loi de Poisson de paramètre a + b, et V suit une loi de Poisson de paramètre b + c. Il y a deux méthodes pour le montrer : un calcul direct de la loi ou bien l’utilisation des fonction génératrices (cf cours). On présente la première pour U . Remarquons tout d’abord que U est à valeurs dans N. Soit k 2 N. L’événement (U = k) s’écrit : (U = k) = k [ l=0 ((X = l) \ (Y = k l)). Ces événements étant disjoints, on a, par indépendance P(U = k) = k X P(X = l)P(Y = k a l e a bk l e b l!(k l)! l=0 k ✓ ◆ e (a+b) X k l k = ab k! l = = l) l=0 k X (a + l=0 k b) e (a+b) k! d’où le résultat anoncé. 3 , l PSI : mathématiques 2016-2017 2. U suit une loi de Poisson de paramètre a + b, donc E(U ) = V(U ) = a + b et V suit une loi de Poisson de paramètre b + c, donc E(V ) = V(V ) = b + c. Par bilinéarité, Cov(U, V ) = Cov(X +Y, Y +Z) = Cov(X, Y )+Cov(Y, Y )+Cov(X, Z)+Cov(Y, Z). Puisque les variables X, Y et Z sont indépendantes, on a Cov(X, Y ) = Cov(X, Z) = Cov(Y, Z) = 0, et Cov(U, V ) = V(Y ) = b. D’autre part, par indépendance, V(U ) = V(X) + V(Y ) = a + b et de même V(V ) = b + c. D’où b ⇢(U, V ) = p . (a + b)(b + c) Exercice 6. La variable Zn se réécrit sous la forme Zn = n ✓ Y 1 n 1 i=1 ◆X i . On étudie dans ⇣ un premier ⌘ temps l’espérance de Z Les variables (Xk )k étant indépendantes, 1 Xk les variables 1 n le sont également et, sous réserve de convergence, k E(Zn ) = n Y ✓ E k=1 1 n 1 ◆X k ! . X k 1 D’après la formule de transfert, pour tout k 2 J1, nK, la variable ⇣ aléatoire 1 n ⌘ k est d’espérance finie si et seulement si la série de terme général 1 n1 P(Xk = k) k converge absolument. Ce terme général s’écrit ✓ 1 n 1 ◆k k k! e et est bien le terme général d’une série (exponentielle) absolument convergente, de somme 1 e + (1 n ) = e n . D’où ⇣ ⌘n E(Zn ) = e n =e . Pour calculer la variance de Zn , il faut étudier l’espérance de Zn2 . Pour les mêmes raisons, sous réserve de convergence ✓ ◆ ! n Y 1 2Xk 2 E(Zn ) = E 1 . n k=1 De même, on a E D’où et ✓ 1 1 n ◆2Xk ! = +1 ✓ X 1 i=0 ⇣ E(Zn2 ) = e V(Zn ) = E(Zn2 ) 1 n ◆2k 2 n + k k! n2 ⌘n E(Zn )2 = e 4 e 2 =e =e (e n + (1 1 2 ) n =e 2 +n 1) ⇠ e +1 2 n . 2 n + n2 . PSI : mathématiques 2016-2017 D’après l’inégalité de Bienaymé-Tchébychev, pour ✏ > 0, P(|Zn E(Zn )| > ✏) 6 V(Zn ) . ✏2 Comme V(Zn ) ⇠ e 2 n , la limite de V(Zn ) lorsque n tend vers +1 est nulle et par comparaison, celle de P(|Zn e )| > ✏) l’est également. Exercice 7 (Loi hypergeométrique). 1. On a Xi (⌦) = J0, min(a, n)K ⇢ J0, nK. Soit k 2 J0, nK, calculons P(Xi = k). Le nombre de tirages possibles dans l’urne est aN n . Un tirage réalise l’événement (Xi = k) s’il est formé de k boules de la couleur i et de n k boules d’autres couleurs. Il y a ka (qui est bien nul si k > a) façons de choisir les boules de couleur i et (Nn 1)a façons de choisir les boules de couleur k différentes. D’où P(Xi = k) = a k (N 1)a n k aN n . Une telle loi s’appelle une loi hypergéométrique. La variable Xi prend un nombre fini de valeurs, elle est donc d’espérance finie et E(Xi ) = n X k=0 ✓ kP(Xi = k) = k=0 k a k (N 1)a n k aN n ✓ ◆✓ ◆ aN a (N 1)a = k n k n k k=1 ✓ ◆ 1X ✓ ◆✓ ◆ n aN a 1 (N 1)a = a n k 1 n k k=1 ✓ ◆ 1 nX1 ✓ ◆✓ ◆ aN a 1 (N 1)a = a n k n 1 k k= ✓ ◆ 1 ✓ ◆ aN aN 1 = a par la formule de Vandermonde n 1 n ✓ ◆ 1 ✓ ◆ aN aN 1 aN 1 = a n n 1 n 1 n = . N 2. Pour calculer la variance de X, on commence, d’après la suggestion de l’énoncé, par calculer E(Xi (Xi 1)) d’une façon similaire. Le théorème de transfert donne : E(Xi ) = n X k(k k=0 ✓ n 1X 1)P(Xi = k) ✓ ◆✓ ◆ a (N 1)a = k(k 1) k n k k=2 ✓ ◆ 1X ✓ ◆✓ ◆ n aN a 2 (N 1)a = a(a 1) n k 2 n k k=2 ✓ ◆ 1 n X2 ✓a 2◆✓ (N 1)a ◆ aN = a(a 1) n k n 2 k k=0 ✓ ◆ 1 ✓ ◆ aN aN 2 = a(a 1) par la formule de Vandermonde n n 2 aN n ◆ ◆ n X n 1X 5 PSI : mathématiques 2016-2017 ✓ ◆ aN (aN 1) aN 2 E(Xi ) = n(n 1) n 2 n(n 1)(a 1) = . N (aN 1) 1 a(a ✓ aN 2 1) n 2 ◆ On peut alors calculer la variance : V(Xi ) = E(Xi (Xi 1)) + E(Xi ) n(n 1)(a 1) n + N (aN 1) N n)(aN 1) E(Xi )2 = n N (n 1)(a 1) + (N N N (aN 1) 2 n N a Na Nn + n n (N 1)(aN = = 2 N N (aN 1) N aN 1 ✓ ◆ n 1 aN n = 1 . N N aN 1 = n2 N2 n) 3. L’égalité X1 + · · · + XN = n, est vraie puisque X1 + · · · + Xn est bien le nombre total de boules tirées. Pour tout i 2 J1, nK, on a X Cov(X1 + · · · + Xn , Xi ) = V(Xi ) + Cov(Xi , Xj ) j6=i et puisque la variable aléatoire X1 +· · ·+Xn est constante, Cov(X1 +· · ·+Xn , Xi ) = 0. D’autre part, puisque toutes les couleurs jouent des rôles symétriques, les covariances Cov(Xi , Xj ), pour i 6= j sont toutes égales. Finalement, on obtient, pour i 6= j (N 1) Cov(Xi , Xj ) = V(Xi ) puis Cov(Xi , Xj ) = n (n aN ) . N 2 aN 1 Le coefficient de corrélation ⇢(Xi , Xj ), vaut alors, pour i 6= j, Cov(Xi , Xj ) Cov(Xi , Xj ) ⇢(Xi , Xj ) = p = = V(Xi ) V(Xi )V(Xj ) 1 N 1 . Interprétation : les variables aléatoires Xi et Xj ont tendance à varier en sens contraire. Cela est normal puisque la somme des Xi est constante égale à n. Exercice 8 (Loi binomiale négative ou de Pascal). On dit qu’une variable aléatoire X suit une loi binomiale négative de paramètres n et p si X(⌦) = {n, n + 1, . . .} et P(X = k) = k 1 n p)k n . n 1 p (1 1. On raisonne par récurrence sur n 2 N⇤ . Si n = 1, la variable X1 suit une loi géométrique de paramètre p : c’est la même chose qu’une loi binomiale négative de paramètre 1 et p. Si la propriété est vraie au rang n 1, soient X1 , . . . , Xn des variables aléatoires indépendantes suivant toutes une loi géométrique de paramètre p. Alors, par hypothèse de récurrence, Y = X1 + · · · + Xn 1 suit une loi binomiale négative de paramètres 6 PSI : mathématiques 2016-2017 n 1 et p. Déterminons la loi de Z = Y + Xn . Puisque Y (⌦) = {n 1, n, n + 1, . . .} et Xn (⌦) = N⇤ , on a Z(⌦) = {n, n + 1, . . .}. Soit donc un entier k > n ! k[1 P(Z = k) = P (Y = l) \ (Xn = k l) l=n 1 k 1 X = l) car ces événements sont disjoints P(Y = l, Xn = k l=n 1 k 1 X = l) par indépendance P(Y = l)P(Xn = k l=n 1 k 1 ✓ X l = n l=n 1 n = p (1 p) ◆ 1 n p 2 k n 1 (1 k 1 ✓ X l n l=n 1 p)l n+1 ⇥ p(1 p)k l 1 ◆ 1 . 2 Reste à montrer que cette somme est bien égale à nk 11 . On rappelle la formule du p p ⇤ triangle de Pascal : p+1 1K. q+1 = q+1 + q , pour p 2 N et q 2 J0, p On a ✓ ◆ ✓ ◆ ✓ ◆ k 1 k 2 k 2 = + n 1 n 1 n 2 ✓ ◆ ✓ ◆ ✓ ◆ k 3 k 3 k 2 = + + n 1 n 2 n 2 ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ j j k 3 k 2 = + + ··· + + , (n 1 6 j 6 k 2) n 1 n 2 n 2 n 2 ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ n 1 n 1 n k 3 k 2 = + + + ··· + + n 1 n 2 n 2 n 2 n 2 ✓ ◆ k 2 X k = . n 2 k=n 2 C’est bien la somme ci-dessus. Par principe de récurrence, on a montré que la somme de n variables aléatoires indépendantes de même loi G(p) suit une loi binomiale négative de paramètres n et p. 2. Par linéarité, l’espérance d’une variable aléatoire de loi binomiale négative de paramètres n et p est n E(X1 + · · · + Xn ) = nE(X1 ) = . p La variance est, par indépendance, V(X1 + . . . Xn ) = nV(X1 ) = n(1 p) . p2 Exercice 9. Les tirages considérés sont avec remise, on peut donc modéliser Sn par une somme de n variables aléatoires X1 , . . . , Xn indépendantes et de même loi. La fonction génératrice de X1 est ✓ ◆ t t2 1 t+1 2 GX1 = P(S1 = 0) + P(S1 = 1)t + P(S1 = 2)t2 = + + = . 4 2 4 2 7 PSI : mathématiques 2016-2017 Par indépendance et puisque les variables ont même loi, pour tout réel t n GSn (t) = [GX1 (t)] = ✓ t+1 2 ◆2n . En développant cette expression avec la formule du binôme, on obtient que Sn est à valeurs dans J0, 2nK et pour tout k 2 J0, 2nK, ✓ ◆ 1 2n P(Sn = k) = 2n . 2 k Pour l’espérance, remarquons que GSn est dérivable sur R et pour tout réel t, G0Sn (t) = n t+1 2n 1 . 2 D’où E(Sn ) = G0Sn (1) = n. Exercice 10 (Loi binomiale négative ou de Pascal). 1. On peut le montrer par récurrence sur p, ou par dérivation de la fonction f : x 7! 1 1 tx , pour |x| < 1. 2. Une fois obtenu le (n 1) ième pile, Yn représente le nombre de lancers nécessaires pour obtenir pile à nouveau pour la première fois, donc : Yn ⇠ G(p). 3. On a Xn = Y1 + · · · + Yn et puisque les lancers sont indépendants, les variables Yi sont indépendantes. La fonction génératrice de leur somme est donc égale au produit de leur fonction génératrice commune, donc à GnY1 . D’après le cours, GY1 est une série entière de rayon de convergence GYn (t) = pt , pour tout t 2 (1 p)t 1 1 , p 1 p i La fonction génératrice de Xn est donc donnée par, pour tout t 2 GX n = ✓ pt (1 p)t 1 ◆n = 1 1 1 1 p D’après la première question : pour tout t tel que |(1 1 1 puis, pour tout t 2 i (1 p)t)n 1 1 1 p, 1 p h GXn (t) = p n = pn +1 ✓ X k+n = n k=0 +1 ✓ X k+n k=0 +1 ✓ X k=n n k n 1 ◆ 1 1 ◆ 1 (1 1 . pn tn . (1 p)t)n (1 ◆ 1 et de somme 1 1 1 p, 1 p h p)t| < 1, on a p)k tk (1 (1 p)k p)k tn+k n k t . On a donc Xn (⌦) = Jn, +1J (logique : pour obtenir n piles, il faut au moins n lancers) et pour tout entier k > n, et ✓ ◆ k 1 n P(Xn = k) = p (1 p)k n . n 1 On dit que Xn suit une loi de Pascal de paramètres (n, p). 8 PSI : mathématiques 2016-2017 Exercice 11. Notons pi = P(X1 = i) et qi = P(X2 = i) pour i 2 J1, 6K. Puisque les variables X1 et X2 sont finies, leur fonction génératrice est polynomiale et définie sur R. La fonction génératrice de X1 est G1 (t) = p1 t + p2 t2 + · · · + p6 t6 , et la fonction génératrice de G2 est G2 (t) = q1 t + q2 t2 + · · · + q6 t6 . Par indépendance, la fonction génératrice G de X1 + X2 est égale au produit de G1 et G2 . D’autre part, s’il est possible de choisir les (pi )i et (qj )j de sorte que X1 + X2 suivent une loi uniforme sur J2, 12K, alors on a 1 2 t2 1 t11 (t + · · · + t1 2) = . 11 11 1 t G(t) = Ainsi, en simplifiant par t2 , pour t 6= 0, on devrait donc avoir (p1 + p2 t + · · · + p6 t5 )(q1 + q2 t + · · · + q6 t5 ) = 1 1 t11 . 11 1 t Mais chaque polynôme du membre de gauche de cette égalité étant de degré impair admet au moins une racine réelle alors que le polynôme du second membre n’admet que des racines complexes non réelles, d’où la contradiction. Exercice 12. Désignons par Ci , pour i 2 N l’événement “le i ème champignon cueilli est comestible”. Par la formule des probabilités totales appliquée avec le système complet d’événements {(N = n); n 2 N}, la probabilité de l’événement C =“tous les champignons sont comestibles” est P(C) = = = +1 X n=1 +1 X n=1 +1 X n=1 P(C, N = n) P(C1 \ C2 \ · · · \ Cn , N = n) P(N =n) (C1 \ C2 \ · · · \ Cn )P(N = n) On peut logiquement supposer les événements Ci mutuellement indépendants et indépendants de N , de sorte que P(N =n) (C1 \ C2 \ · · · \ Cn ) = P(C1 \ C2 \ · · · \ Cn ) = On obtient donc P(C) = +1 X n Y P(Ci ) = pn . i=1 P(N = n)pn = GN (p). n=1 Exercice 13. D’après l’énoncé, X suit une loi de Poisson de paramètre a donc sa fonction génératrice GX est définie sur R et pour tout réel x, GX (x) = ea(t 1) . De même, Y ayant la même loi que X, a la même fonction génératrice. Calculons la fonction génératrice de 3Y : 3Y (⌦) = 3N et G3Y est définie comme la fonction admettant le développement en série entière suivant : G3Y (t) = +1 X n=0 P(3Y = n)tn = +1 X P(3Y = 3k)t3k = k=0 +1 X k=0 9 P(Y = k)(t3 )k = GY (t3 ) = ea(t 3 1) . PSI : mathématiques 2016-2017 Remarquons que le rayon de convergence de cette série entière est égal à +1. Puisque X et Y sont indépendantes, X et 3Y le sont aussi et la fonction génératrice de Z est définie sur R, avec 3 GZ (t) = GX (t)G3Y (t) = ea(t +t 2) 1. 1ère méthode : E(Z) = E(X) + 3E(Y ) = 4a et, par indépendance V(Z) = V(X) + 9V(Y ) = 10a. 2. 2 ème méthode : GZ est de classe C 1 sur R E(Z) = G0Z (1) = 4a et V(Z) = G00Z (1)+G0Z (1) G0Z (1)2 = 6a+16a2 +4a 16a2 = 10a. ( Rd ! R . Par hypothèse, les vecteurs Z = (X1 , X2 , . . . , Xd ) (x1 , . . . , xd ) 7! x1 et Z 0 = (X2 , X1 , . . . , Xd ) suivent la même loi donc ⇡(Z), ⇡(Z 0 ) suivent la même loi (Rapel : la loi d’une variable composée f (Y ) ne dépend que de la loi de Y ), ce qui veut dire que X1 et X2 ont même loi. On montre similairement que X1 , . . . , Xd suivent la même loi. En conséquence, E(Xi ) = E(Xj ), pour tous i, j 2 J1, dK et puisque X1 + · · · + Xd = 1, on a 1 = E(X1 + · · · + Xd ) = dE(Xi ), Exercice 14. Soit ⇡ : d’où E(Xi ) = d1 . Suivant l’indication, on étudie E(X1 (X1 +· · ·+Xd )). D’une part, E(X1 (X1 +· · ·+Xd )) = E(X1 ) = d1 en utilisant l’hypothèse et d’autre part E(X1 (X1 + · · · + Xd )) = E(X12 ) + E(X1 X2 ) + · · · + E(X1 Xd ) = E(X12 ) + (d 1)E(Xi Xj ), pour i 6= j, la dernière égalité se justifiant par le fait que X1 X2 suit la même loi que Xi Xj pour i 6= j (il suffit de considérer ⇡ 0 (x1 , . . . , xd ) = x1 x2 et de raisonner comme au début). On obtient alors E(X12 ) d(d 1) d 1 2 2 2 2 d d E(X1 ) (d 1) 1 d E(X1 ) = = d2 (d 1) d2 (d 1) 1 1 V(X1 ) = ( 2 E(X12 )) = . d 1 d d 1 Cov(Xi , Xj ) = E(Xi Xj ) E(Xi )E(Xj ) = 1 1 d2 Exercice 15 (Entropie). 1. Puisque pour tout x 2 E, 0 6 p(x) 6 1, H(X) est une somme de termes positifs, donc H(x) > 0. L’entropie est nulle si tous ces termes sont nuls, c’est-à-dire si p(x) ln(p(x)) = 0 P pour tout x 2 E, donc p(x) = 1 ou p(x) = 0. Puisque x2E p(x) = 1, il existe x0 tel que p(x0 ) = 1 et X est quasi-constante égale à x0 . Si X suit une loi uniforme sur J1, nK, alors p(k) = n1 pour k 2 J1, nK et on a n H(X) = 1X 1 ln( ) = n n k=1 10 1 1 1 ln( n ) = ln(nn ) = ln(n). n n n PSI : mathématiques 2016-2017 2. En notant p(x, y) = P(X = x, Y = y), remarquons que par indépendance, p(x, y) = p(x)p(y) et on a X H(X, Y ) = p(x, y) ln(p(x, y)) (x,y)2E⇥F X = p(x)p(y)(ln(p(x)) + ln(p(y))) (x,y)2E⇥F X = (x,y)2E⇥F = X p(x) ln(p(x)) + x2E X en utilisant dans la quatrième égalité que 3. On part du membre de droite : y2F p(x)p(y) ln(p(y)) (x,y)2E⇥F p(y) ln(p(y)) y2F = H(X) + H(Y ), X X p(x)p(y) ln(p(x)) + X P(Y = y)H(X | Y = y) = P X p(y) y2F = y2F x2E XX = p(x, y) p(y) ln p(y) ✓ p(x, y) p(y) p(x, y) (ln(p(x, y)) y2F x2E XX = p(x). P(Y =y) (X = x) ln(P(Y x2E XX P p(y) = 1 = p(x, y) ln(p(x, y)) y2F x2E = H(X, Y ) y) (X = x)) ◆ ! ln(p(y))) X p(y) ln(p(y)) y2F H(Y ) = H(X | Y ). 4. L’entropie est maintenant la somme d’une série à termes positifs, donc à valeurs dans R+ [ {+1}. Comme précédemment, elle s’annule si X est constante presque sûrement. 5. Si X suit une loi géométrique de paramètre p, 0 < p < 1, on a H(X) = +1 X p)n p(1 1 p)n ln(p(1 1 ) n=1 = p ln(p) +1 X (1 p)n 1 + ln(1 p) n=1 = ln(p) p(1 ln(p) = ln(p) p(1 (1 (n n=1 p) ln(1 p) +1 X n=0 = +1 X p) ln(1 p) ln(1 p 11 p) p) . 1 p2 n(1 p)n 1)(1 p)n 1 !