Télécharger

publicité
PSI : mathématiques
2016-2017
Corrigé de la feuille d’exercices 1
Exercice 1. Remarquons que les différents tirages se font dans des urnes différentes, il
sont donc indépendants.
L’ensemble des valeurs prises par X est J1, nK. Pour déterminer la loi de X, on va
commencer par déterminer P(X 6 k), pour k 2 J1, nK. Pour i 2 J1, nK, soit Ai l’événement
“on tire un numéro 6 k dans l’urne i". On a
P(X 6 k) = P(A1 \ · · · \ AN ) =
✓ ◆N
k
P(Ai ) =
,
n
N
Y
i=1
en utilisant l’indépendance dans la deuxième égalité. On a ensuite directement :
8k 2 J2, nK, P(X = k) = P(X 6 k)
P(X 6 k
1) =
kN
(k 1)N
1
et P(X = 1) = N .
N
n
n
Exercice 2.
Première méthode. En notant X1 , resp. X2 , le nombre de lancers nécessaires pour
obtenir pile avec la première, resp. la seconde, pièce on a X = min(X1 , X2 ). D’autre part,
X1 , resp. X2 désigne le rang d’obtention du premier “pile” pour la première, resp. la seconde,
pièce et chaque lancer de pièce renvoie “pile” avec probabilité p donc X1 , X2 ⇠ G(p). En
conséquence, X est à valeurs dans N⇤ et pour tout n 2 N⇤ :
P(X > n) = P(X1 > n, X2 > n) = P(X1 > n)P(X2 > n).
Or, pour i = 1, 2
P(Xi > n) =
+1
X
P(X1 = k) =
k=n
+1
X
(1
p)k
1
p=
p(1
k=n
p)n
p
1
= (1
p)n
1
.
Une autre façon de le voir consiste à remarquer que l’événement (Xi > n) est égal à
l’événement “les n 1 premiers lancers ont donné face”.
Finalement P(X > n) = (1 p)2n 2 et
P(X = n) = P(X > n)
= (1
= (1
p)
P(X > n + 1)
2n 2
p)2
(1
n 1
p)2 ) = (1
(1
(1
(1
p)2n
2
(2p
p2 )
p)2 )
donc X ⇠ G(1 (1 p)2 ).
Deuxième méthode. On répète l’expérience “lancer deux pièces simultanément” jusqu’à obtention du succès “avoir au moins un pile”. La variable X suit donc une loi géométrique de paramètre P(A), où A est l’événement “avoir au moins une fois pile”. Le
complémentaire de A est l’événement “obtenir deux fois face”, de probabilité (1 p)2 (les
deux lancers sont indépendants).
Ainsi, X ⇠ G(1 (1 p)2 ).
1
PSI : mathématiques
2016-2017
Exercice 3. Commençons par calculer la fonction de répartition de M = max16i6n Xi . Il
s’agit de calculer la probabilité de l’événement (M 6 x) pour x réel. Or,
(M 6 x) =
n
\
(Xi 6 x),
i=1
donc par indépendance
FM (x) =
n
Y
Fi (x).
i=1
Calculons maintenant la fonction de répartition de m = min16i6n Xi . On a, de façon
similaire,
!
n
\
Fm (x) = P(m 6 x) = 1 P(m > x) = 1 P
Xi > x
i=1
=1
n
Y
n
Y
P(Xi > x)) = 1
i=1
(1
Fi (x)).
i=1
Finalement, on remarque que
(x1 < m 6 M 6 x2 ) =
n
\
(x1 < Xi 6 x2 )
i=1
et ces événements sont indépendants d’où
P(x1 < m 6 M 6 x2 ) =
n
Y
P(x1 < Xi 6 x2 ) =
i=1
puisque, pour i 2 J1, nK,
(Fi (x2 )
Fi (x1 )),
i=1
P(x1 < Xi 6 x2 ) = P((Xi > x1 ) \ (Xi 6 x2 ))
= P(Xi > x1 ) + P(Xi 6 x2 )
= Fi (x2 )
n
Y
Fi (x1 ).
P((Xi 6 x1 ) [ (Xi > x2 ))
Exercice 4.
Notons P pour “pile" et F pour “face”, n est fixé. L’univers décrivant une partie est
{P, F }n , de cardinal 2n .
Une situation gagnante est un n uplet formé d’un seul P et de (n 1) F (n possibilités)
ou un n uplet formé d’un seul F et de (n 1) P (n possibilités). Pour chaque partie, la
probabilité qu’il y ait un gagnant est donc
p=
2n
n
= n 1.
n
2
2
La variable X correspond donc au nombre de parties nécessaires pour obtenir une situation
gagnante, la probabilité de succès à chaque épreuve étant égale à p. Ainsi, X suit une loi
géométrique de paramètre p. D’après le cours,
E(X) =
1
2n 1
=
p
n
V(X) =
2
1
p
p2
=
2n
1 (2n 1
n2
n)
.
PSI : mathématiques
2016-2017
Exercice 5.
1. On remarque que U est à valeurs dans N et V est à valeurs dans N⇤ . Pour (i, j)
couple de N ⇥ N⇤ , on va calculer P(U = i, V = j).
On distingue le cas i = 0 : par indépendance
P(U = 0, V = j) = P(X = Y, X = j) = P(X = j, Y = j) = (p(1
Pour i > 1, on a (U = i) = (X
Y = i) \ (V = j)) [ ((Y
) .
X = i) \ (V = j))
Y = i) \ (Y = j)) [ ((Y
= ((X
1 2
X = i) et
Y = i) [ (Y
(U = i) \ (V = j) = ((X
p)j
X = i) \ (X = j))
= ((X = i + j) \ (Y = j)) [ ((Y = i + j) \ (X = j)).
Cette réunion est disjointe (i > 1) donc par indépendance
P(U = i, V = j) = P(X = i + j)P(Y = j) + P(Y = i + j)P(X = j)
= 2p2 (1
p)i+2j
D’où, pour tout (i, j) 2 N ⇥ N⇤
P(U = i, V = j) =
(
2
.
p2 (1 p)2j 2 si i = 0
2p2 (1 p)i+2j 2 sinon
2. On obtient les lois marginales avec la formule des probabilités totales, appliquée
aux systèmes complets d’événements {(U = i); i 2 N} ou {(V = j); j 2 N}.
Loi de U . On traite 0 à part.
P(U = 0) =
+1
X
P(U = 0, V = j) =
j=1
Pour i > 1,
+1
X
p2 ((1
p)2 )j
1
=
j=1
P(U = i) =
=
+1
X
P(U = i, V = j) =
j=1
2p2 (1
p)i
p)2
=
+1
X
+1
X
2p(1
2 p
P(U = i, V = j) =
i=0
= p2 (1
p)i ((1
p)2 )j
1
p)i ((1
p)2 )j
1
j=1
p)i
.
1 (1
P1
On peut vérifier que 0 P(U = i) = 1.
Loi de V . Pour tout j > 1, on a
P(V = j) =
2p2 (1
1
p2
p
=
.
2
(1 p)
2 p
+1
X
2p2 (1
i=0
p)2j
2
+
+1
X
2p2 (1
p)i ((1
p)2 )j
1
i=1
2
2j 2
= p (1
p)
= p(2
p)(1
+ 2p(1
p)2j
2
p)2j
1
.
On peut également vérifier.
3. En utilisant les calculs précédents, on a bien que pour (i, j) 2 N ⇥ N⇤ ,
P(U = i, V = j) = P(U = i)P(V = j).
Les variables aléatoires U et V sont donc indépendantes.
3
PSI : mathématiques
2016-2017
Exercice 6.
1. Les variables aléatoires X et Y sont à valeurs dans N. La formule des
probabilités totales appliquée au système complet d’événements (N = n)n2N donne,
pour tout k 2 N,
P(X = k) =
+1
X
n=0
+1
X
P((X = k) \ (N = n)) =
n=k
P((X = k) \ (N = n))
puisque les événements (X = k) \ (N = n) sont impossibles pour n < k. D’autre
part, sachant que n colis ont été expédiés, le nombre de ceux qui arriveront détériorés
suit la loi binomiale B(n, p), donc pour n > k,
✓ ◆
n k
P(N =n) (X = k) =
p (1 p)n k .
k
D’où,
P(X = k) =
+1
X
P(N =n) (X = k)P(N = n) =
n=k
=e
n=k
+1
( p)k X
(1
k!
p)n
n=k
=
+1 ✓ ◆
X
n
( p)k
e
k!
p
n k
k
(n
k)!
=e
k
pk (1
p)n
+1
( p)k X
(1
k!
n=0
k
n
e
p)n
n!
n
(n)!
,
en reconnaissant la série entière exponentielle.
Donc X ⇠ P( p). Un calcul similaire montre que Y ⇠ P( (1
p)).
2. Pour répondre à la question, on compare P(X = i, Y = j) avec P(X = i)P(Y = j)
pour tout (i, j) 2 N2 . On a encore
P(X = i, Y = j) =
+1
X
n=0
P((X = i) \ (Y = j) \ (N = n)).
Or, N = X + Y donc l’événement (X = i) \ (Y = j) \ (N = n) est impossible si
n 6= i + j et la somme précédente n’a qu’un seul terme :
P(X = i, Y = j) = P((X = i) \ (Y = j) \ (N = i + j)) = P(X = i \ N = i + j).
Ce calcul a déjà été fait :
P(X = i, Y = j) = P(N =i+j) (X = i)P(N = i + k)
✓✓
◆
◆✓
◆
i+j
i+j i
j
=
p (1 p)
e
i
(i + j)!
i
j
p)
i+j p (1
=e
.
i!j!
On constate donc que pour tout (i, j) 2 N2 ,
P(X = i, Y = j) = P(X = i)P(Y = j)
et, bien que cela contredise l’intuition, les variables aléatoires X et Y sont indépendantes !
4
PSI : mathématiques
2016-2017
Exercice 7. Par indépendance des (Xn )n2N , on a pour tout n 2 N,
E(Y n) = E(Xn Xn+1 ) = E(Xn )E(Xn+1 ) = p2 .
Ainsi, par linéarité, E(Sn ) = E(Y1 ) + · · · + E(Yn ) = np2 .
Pour calculer la variance de Sn , il va nous falloir connaître plus en détail les variables
Yn . Soit n 2 N, la variable aléatoire Yn est à valeurs dans {0, 1} et
P(Yn = 1) = P(Xn = Xn+1 = 1) = P(Xn = 1)P(Xn+1 = 1) = p2
par indépendance. Donc Yn ⇠ B(p2 ), et V(Yn ) = p2 (1
La formule de la variance d’une somme donne
V(Sn ) =
n
X
V(Yk ) + 2
X
p)2 .
Cov(Yi , Yj ).
i<j
k=1
Or, si |i j| > 1, les variables aléatoires Yi et Yj sont indépendantes puisque Yi est fonction
de Xi , Xi+1 et Yj est fonction de Xj , Xj+1 avec {Xi , Xi+1 }, {Xj , Xj+1 } disjoints. Dans ce
cas-là, Cov(Yi , Yj ) = 0.
Il ne reste donc qu’à calculer, pour i 2 J1, n 1K,
Cov(Yi , Yi+1 ) = E(Yi Yi+1 )
E(Yi )E(Yi+1 ).
Puisque Yi Yi+1 est une variable aléatoire à valeurs dans {0, 1} et que, par indépendance,
P(Yi Yi+1 = 1) = P(Xi = Xi+1 = Xi+2 ) = p3 ,
on a Yi Yi+1 ⇠ B(p3 ) et E(Yi Yi+1 ) = p3 . Finalement,
Cov(Yi , Yi+1 ) = p3
et V(Sn ) = np2 (1
Exercice 8.
p)2 + 2(n
1)p3 (1
(p2 )2 = p3 (1
p) = p2 (1
p)
p)(3np + n
2p).
1. Par récurrence ou dérivations successives.
2. N est à valeurs dans N⇤ et suit une loi géométrique de paramètre p.
3. Puisqu’on relance la pièce n fois lorsque (N = n), X est à valeurs dans N. Pour
déduire la loi de X, on utilise le système complet d’événements (N = n)n2N⇤ . La
loi conditionnelle de X sachant (N = n), pour n 2 N ⇤ , est la loi binomiale B(n, p).
Notons qu’il faut lancer au moins autant de fois qu’on obtient de pile. La formule
des probabilités totales donne, pour k 2 N,
P(X = k) =
+1
X
P(N =n) (X = k)P(N = n) =
n=1
+1
X
n=max(k,1)
✓ ◆
n k
p (1
k
En utilisant la question 1, on a , pour k > 1,
+1 ✓ ◆
X
pk+1
n
P(X = k) =
(1
k+1
k
(1 p)
p)2
n=k
pk+1
(1 p)2k
=
(1 p)k+1 (1 (1 p)2 )k+1
pk+1 (1 p)k 1
(1 p)k 1
=
=
.
(2p p2 )k+1
(2 p)k+1
5
n
p)n
k
p(1
p)n
1
.
PSI : mathématiques
2016-2017
Enfin, pour k = 0,
P(X = 0) =
+1
X
p)n p(1
(1
p)n
1
n=1
=
p
1
p
1
=
2
+1
X
p)2n = p
(1
n=1
1 p
1 (1 p)2
p
.
p
4. La variable BG est à valeurs dans N. On a
p0 ,
P(BG = 0) = P(B = 0) = 1
et pour k > 1, par indépendance
P(BG = k) = P(B = 1, G = k) = P(B = 1)P(G = k) = p02 (1
En choissisant p0 tel que 1
p02 (1
p0 =
p0 ) k
1
=
1 p
2 p
soit p0 = 1
1
(2
p)2
✓
1
2
p
p
◆k
1 p
2 p
=
1
=
1
2 p,
p0 ) k
1
.
on a
p)k 1
.
p)k+1
(1
(2
Pour cette valeur de p0 , on a
P(BG = k) = P(X = k), 8k 2 N.
Donc on peut effectivement choisir p0 de sorte que BG suive la même loi que X. Ce
qui nous permet, par indépendance d’en déduire l’espérance de X :
E(X) = E(BG) = E(B)E(G) = p0
Exercice 9.
1. On a X(⌦) = J1, nK. Il y a
Ainsi,
E(X) =
n
X
n
P
k=
k=1
n(n+1)
2
P(X = k) =
1
= 1.
p0
boules dans l’urne. Pour k 2 J1, nK,
2k
.
n(n + 1)
n
kP(X = k) =
k=1
X
2
2n + 1
k2 =
.
n(n + 1)
3
k=1
2. (a) On a Y (⌦) = J1, nK également. Soit (i, j) 2 J1, nK2 . Si i 6= j, on a
P(X = i, Y = j) = P(X=i) (Y = j)P(X = i) =
=
(n
j
n(n+1)
2
1
⇥
2i
n(n + 1)
1
⇥
2i
n(n + 1)
4ij
.
1)n(n + 1)(n + 2)
Si i = j, on a
P(X = i, Y = i) = P(X=i) (Y = i)P(X = i) =
=
(n
4i(i 1)
.
1)n(n + 1)(n + 2)
6
i
n(n+1)
2
1
PSI : mathématiques
2016-2017
(b) Soit j 2 J1, nK. D’après la formule des probabilités totales avec le système complet d’événements {(X = i); i 2 J1, nK}
P(Y = j) =
n
X
P(X = i, Y = j)
i=1
=
=
X
4j(j 1)
+
1)n(n + 1)(n + 2)
(n
(n
4j
1)n(n + 1)(n + 2)
(n
✓
4ij
1)n(n + 1)(n + 2)
i6=j
!
n
X
j 1+
j j
i=1
2j
n(n + 1)
=
1
(n 1)n(n + 1)(n + 2)
2
2j
=
(n2 + n 2)
(n 1)n(n + 1)(n + 2)
2j
=
.
n(n + 1)
◆
On constate que la loi de Y est la même que celle de X.
(c) On a P(X = 1, Y = 1) = 0 6= P(X = 1)P(Y = 1) =
X et Y ne sont pas indépendantes.
4
n2 (n+1)2
donc les variables
Exercice 10.
1
1. Le théorème de transfert nous dit que la variable aléatoire Y = 1+X
est d’espérance
finie si et seulement si la série de terme général
✓
◆
✓
◆
n
1
P(X = n)
=
e
1+n
(n + 1)!
n>0
n>0
converge absolument - dans ce cas, l’espérance de Y est égale à la valeur de cette
somme. Il s’agit d’une série à termes réels positifs, qui converge absolument par la
règle de d’Alembert : en effet, > 0 et
n+1 e
(n + 1)!
=
! 0,
(n + 2)! n e
n+2
lorsque n ! +1. Ainsi, Y est d’espérance finie et
E(Y ) =
+1
X
n=0
n
(n + 1)!
e
=
1
(e
e
1) =
1
e
.
On peut également commencer par dire que Y 6 1 donc par comparaison, Y est
d’espérance finie.
2. On procède de même : par le théorème de transfert, il faut déterminer si la série de
terme général positif
✓
◆
✓
◆
1
1
n 1
P(X = n)
=
p(1 p)
n
n
n>1
n>1
converge (absolument). On reconnaît un multiple de la série entière logarithmique :
en effet,
+1 n
X
x
n=1
7
n
PSI : mathématiques
2016-2017
est le développement en série entière de la fonction f : x 7! ln(1 z) sur l’intervalle
] 1, 1[. Puisque (1 p) 2] 1, 1[, la série qui nous intéresse converge absolument
et
p
p
E(X) =
f (1 p) =
ln(p).
1 p
1 p
Exercice 11.
1. Pour n 2 N⇤ , notons Pn l’événement “On obtient pile au n ième lancer". L’événement
Bk = P̄k \ Pk 1 \ Pk 2 ,
pour k > 3, correspond donc à l’obtention d’une séquence (pile, pile, face) au rang
k. Notons que P(Bn ) = 81 . On peut alors écrire, pour k > 3,
(X 6 k) =
k
[
Bk .
l=3
Puisque (X 6 k + 1) = (X 6 k) [ Bk+1 on a
P(X 6 k + 1) = P(X 6 k) + P(Bk+1 )
P((X 6 k) \ Bk+1 ).
Mais, pour n > 5,
(X 6 k) \ Bk+1 = ((X 6 k
2) \ Bk+1 ) [ (Bk
1
\ Bk+1 ) [ (Bk \ Bk+1 ).
Or les événements (Bk 1 \ Bk+1 ) et (Bk \ Bk+1 ) sont impossibles. De plus les
événements (X 6 k 2) et Bk+1 concernent des lancers différents et sont donc
indépendants. D’où
P((X 6 k) \ Bk+1 ) = P(X 6 k
2)P(Bk+1 ).
Pour n > 5, on a donc la relation de récurrence suivante :
P(X 6 k + 1) = P(X 6 k) +
1
(1
8
P(X 6 k
2)) .
2. Soit A l’événement “ On obtient au moins une fois cette séquence”.Alors A est la
réunion croissante des (X 6 k), pour k > 3 et
0
1
[
P(A) = P @ (X 6 k)A = lim P(X 6 k).
k!+1
k>3
On a vu que la suite P(X 6 k) était croissante. Puisqu’elle est aussi majorée par 1,
elle converge vers une limite l. En passant à la limite dans la relation de récurrence,
l doit satisfaire
1
l = l + (1 l), soit l = 1.
8
En conséquence, l’événement A est quasi-certain et le jeu s’arrête.
3. La variable X est à valeurs positives, en conséquence, son espérance est bien définie
dans R+ [ {+1}.
Pour k > 3, l’événement (X = k) correspond à “On a obtenu pile aux lancers de
rangs k 2, k 1 et face au k ième lancer sans jamais avoir obtenu la séquence
(pile, pile, face) auparavant”. On a
(X = k + 3) = (X > k) \ Pk+1 \ Pk+2 \ P̄k+3 .
8
PSI : mathématiques
2016-2017
L’événement (X > k) signifie que l’on n’a pas obtenu la séquence voulue lors des k
premiers tirages, il ne dépend donc que de ces k premiers tirages, donc les événements précédents sont indépendants, d’où
1
P(X = k + 3) = P(X > k)P(Pk+1 )P(Pk+2 )P(P̄k+3 ) = P(X > k).
8
On en déduit que
E(X) =
+1
X
P(X > k) = 8
k=0
+1
X
P(X = k + 3).
k=0
Les événements (X = k + 3)k>0 sont disjoints, de réunion A. D’après la question
précédente :
+1
X
1 = P(A) =
P(X = k).
k=3
En conséquence E(X) = 8. Il s’agit du nombre moyen de lancers à faire pour obtenir
“pile, pile, face ” pour la première fois.
9
PSI : mathématiques
2016-2017
Corrigé de la feuille d’exercices 2
Exercice 1. Pour tout i 2 J1, nK, on note Xi la variable aléatoire égale au numéro sorti
lors du i ième tirage.
n
P
Ainsi Sn =
Xi .
i=1
Les variables Xi sont indépendantes et de même loi U (J1, N K), donc chaque Xi a pour
2
espérance N 2+1 et variance (N12 1) . On en déduit
N +1
N2 1
et V(Sn ) = nV(X1 ) = n
.
2
12
Exercice 2. Remarquons que l’énoncé ne demande pas de déterminer la loi de Z. Notons
tout de même que Z est une variable finie, à valeurs dans J0, nK. Ainsi, il n’est pas nécessaire
de s’interroger quant à l’existence des moments de Z.
Commençons par calculer l’espérance de Z grâce au théorème de transfert, appliqué à
la fonction f (x, y) = |x y| et au couple (X, Y ).
E(Sn ) = nE(X1 ) = n
E(Z) =
n X
n
X
i=0 j=0
|i j|P(X = i, Y = j) =
n X
n
X
i=0 j=0
|i j|P(X = i)P(Y = j) =
n X
n
X
i=0 j=0
|i j|
en utilisant l’indépendance dans la seconde égalité. La somme double se réécrit
0
1
n
i
n
X
X
X
1
@ (i j) +
E(Z) =
(j i)A (changements de variables : i
i
(n + 1)2
i=0
j=0
j=i+1
0
1
n
i
n i
n
X
X
X
X
1
1
@
A
=
j+
j =
(i(i + 1) + (n i)(n i + 1))
(n + 1)2
2(n + 1)2
i=0
j=0
j=1
1
,
(n + 1)2
j, j
i=0
n
X
1
(2i2 2in + n(n + 1))
2(n + 1)2
i=0
✓
◆
1
n(n + 1)(2n + 1) n2 (n + 1) n(n + 1)2
=
+
(n + 1)2
6
2
2
n(2n + 1 3n + 3(n + 1))
n(n + 2)
=
=
.
6(n + 1)
3(n + 1)
=
Puis, par linéarité on calcule l’espérance de Z 2 :
E(Z 2 ) = E((X
Y )2 ) = E(X 2 ) + E(Y 2 )
2E(XY ).
Puisque X, Y ⇠ U(J0, nK) et par indépendance :
E(Z 2 ) = 2E(X 2 )
2E(X)2 = 2V(X).
Les formules du cours ne s’appliquent pas ici (X et Y sont uniformes sur J0, nK et non
J1, nK). On calcule donc
E(X 2 ) =
n
X
k=0
k2
1
n(2n + 1)
=
.
n+1
6
1
j
i)
PSI : mathématiques
2016-2017
Puis
n
X
E(X) =
k
k=0
Ainsi,
V(X) =
1
n
= .
n+1
2
n2
n(n + 2)
=
.
4
12
n(2n + 1)
6
Enfin,
V(Z) = E(Z 2 )
n(n + 2)
6
E(Z)2 =
n2 (n + 2)2
n2 + 2n + 3
=
.
9(n + 1)2
18(n + 1)2
Exercice 3.
1. La variable aléatoire X doit vérifier :
X
P(X = k) = 1.
k2N
En conséquence,
1=
+1
X
e
k=0
=
2
e
4
2 2k
4k!
(1 + ↵k)
+1 k
X
2
k=0
k!
+↵
+1
X
k=0
2k
(k
1)!
!
.
Notons qu’il est bien possible de scinder la somme en deux ici, puisque les deux
séries apparaissant sont des séries exponentielles, la seconde étant décalée. On a
donc
e
2
e2 + 2↵e2
4
4 = 1 + 2↵
3
↵= .
2
1=
En particulier, pour k 2 N,
1 e 2 2k
3 e 2 2k
+
.
4 k!
2 4(k 1)!
P(X = k) =
2. Pour calculer l’espérance de X, on commence par remarquer, comme le suggère
l’énoncé, que P(X = k) = 14 P(Y = k) + 34 P(T = k), pour tout k, où
P(Y = k) =
e
2 2k
k!
et P(T = k) =
e 2 2k 1
(k 1)!
donc Y et T 1 suivent une loi de Poisson de paramètre 2.
La variable X, à valeurs dans N, est d’espérance finie si la série de terme général
(kP(X = k))k2N converge absolument. Or, la remarque précédente entraîne que
pour tout k 2 N,
1
3
kP(X = k) = kP(Y = k) + kP(T = k).
4
4
Puisque Y suit une loi de Poisson de paramètre 2, elle est d’espérance finie égale à
2 et la série de terme général (kP(Y = k))k converge absolument.
2
PSI : mathématiques
2016-2017
De même, T 1 est d’espérance finie égale à 2 donc T est également d’espérance
finie égale à 3 et la série de terme général (kP(T = k))k converge absolument.
Par linéarité, la série de terme général (kP(X = k))k2N converge absolument et
X est d’espérance finie. On peut alors calculer cette espérance (on peut séparer la
somme en deux puisque l’on vient de voir que les séries impliquées sont absolument
convergentes).
1
3
1 9
11
E(X) = E(Y ) + E(T ) = + = .
4
4
2 4
4
De la même façon, puisque Y , T 1 et donc T admettent des moments d’ordre 2,
la variable X admet également un moment d’ordre 2. On a (calculs faits en cours)
E(Y 2 ) = E(Y )2 +V(Y ) = 6, E(T 2 ) = E((T 1)2 ) 1+2E(T ) = E(T 1)2 +V(T 1) 1+6 = 11
donc
1
3
6 33
39
E(X 2 ) = E(Y 2 ) + E(T 2 ) = +
= .
4
4
4
4
4
Finalement,
V(X) = E(X 2 )
E(X)2 =
39
4
121
35
= .
16
16
Exercice 4. On utilise la bilinéarité de la covariance :
Cov(X + Y, X
Y ) = Cov(X, X
Y ) + Cov(Y, X
= Cov(X, X)
= V(X)
Y)
Cov(X, Y ) + Cov(Y, X)
Cov(Y, Y )
V(Y )
= 0.
Exercice 5.
1. La variable U suit une loi de Poisson de paramètre a + b, et V suit
une loi de Poisson de paramètre b + c. Il y a deux méthodes pour le montrer : un
calcul direct de la loi ou bien l’utilisation des fonction génératrices (cf cours). On
présente la première pour U . Remarquons tout d’abord que U est à valeurs dans N.
Soit k 2 N. L’événement (U = k) s’écrit :
(U = k) =
k
[
l=0
((X = l) \ (Y = k
l)).
Ces événements étant disjoints, on a, par indépendance
P(U = k) =
k
X
P(X = l)P(Y = k
a l e a bk l e b
l!(k l)!
l=0
k ✓ ◆
e (a+b) X k l k
=
ab
k!
l
=
=
l)
l=0
k
X
(a +
l=0
k
b) e (a+b)
k!
d’où le résultat anoncé.
3
,
l
PSI : mathématiques
2016-2017
2. U suit une loi de Poisson de paramètre a + b, donc E(U ) = V(U ) = a + b et V suit
une loi de Poisson de paramètre b + c, donc E(V ) = V(V ) = b + c. Par bilinéarité,
Cov(U, V ) = Cov(X +Y, Y +Z) = Cov(X, Y )+Cov(Y, Y )+Cov(X, Z)+Cov(Y, Z).
Puisque les variables X, Y et Z sont indépendantes, on a Cov(X, Y ) = Cov(X, Z) =
Cov(Y, Z) = 0, et
Cov(U, V ) = V(Y ) = b.
D’autre part, par indépendance, V(U ) = V(X) + V(Y ) = a + b et de même V(V ) =
b + c. D’où
b
⇢(U, V ) = p
.
(a + b)(b + c)
Exercice 6. La variable Zn se réécrit sous la forme
Zn =
n ✓
Y
1
n
1
i=1
◆X i
.
On étudie dans
⇣ un premier
⌘ temps l’espérance de Z Les variables (Xk )k étant indépendantes,
1 Xk
les variables 1 n
le sont également et, sous réserve de convergence,
k
E(Zn ) =
n
Y
✓
E
k=1
1
n
1
◆X k !
.
X
k
1
D’après la formule de transfert, pour tout k 2 J1, nK, la variable
⇣ aléatoire 1 n ⌘
k
est d’espérance finie si et seulement si la série de terme général 1 n1 P(Xk = k)
k
converge absolument. Ce terme général s’écrit
✓
1
n
1
◆k
k
k!
e
et est bien le terme général d’une série (exponentielle) absolument convergente, de somme
1
e + (1 n ) = e n . D’où
⇣
⌘n
E(Zn ) = e n
=e .
Pour calculer la variance de Zn , il faut étudier l’espérance de Zn2 . Pour les mêmes raisons,
sous réserve de convergence
✓
◆ !
n
Y
1 2Xk
2
E(Zn ) =
E
1
.
n
k=1
De même, on a
E
D’où
et
✓
1
1
n
◆2Xk !
=
+1 ✓
X
1
i=0
⇣
E(Zn2 ) = e
V(Zn ) = E(Zn2 )
1
n
◆2k
2
n
+
k
k!
n2
⌘n
E(Zn )2 = e
4
e
2
=e
=e
(e n
+ (1
1 2
)
n
=e
2 +n
1) ⇠ e
+1
2
n
.
2
n
+
n2
.
PSI : mathématiques
2016-2017
D’après l’inégalité de Bienaymé-Tchébychev, pour ✏ > 0,
P(|Zn
E(Zn )| > ✏) 6
V(Zn )
.
✏2
Comme V(Zn ) ⇠ e 2 n , la limite de V(Zn ) lorsque n tend vers +1 est nulle et par
comparaison, celle de P(|Zn e )| > ✏) l’est également.
Exercice 7 (Loi hypergeométrique).
1. On a Xi (⌦) = J0, min(a, n)K ⇢ J0, nK. Soit k 2 J0, nK, calculons P(Xi = k). Le
nombre de tirages possibles dans l’urne est aN
n .
Un tirage réalise l’événement (Xi = k) s’il est formé de k boules de la couleur i
et de n k boules d’autres couleurs. Il y a ka (qui est bien nul si k > a) façons
de choisir les boules de couleur i et (Nn 1)a
façons de choisir les boules de couleur
k
différentes. D’où
P(Xi = k) =
a
k
(N 1)a
n k
aN
n
.
Une telle loi s’appelle une loi hypergéométrique.
La variable Xi prend un nombre fini de valeurs, elle est donc d’espérance finie et
E(Xi ) =
n
X
k=0
✓
kP(Xi = k) =
k=0
k
a
k
(N 1)a
n k
aN
n
✓ ◆✓
◆
aN
a (N 1)a
=
k
n
k
n k
k=1
✓ ◆ 1X
✓
◆✓
◆
n
aN
a 1 (N 1)a
=
a
n
k 1
n k
k=1
✓ ◆ 1 nX1 ✓
◆✓
◆
aN
a 1
(N 1)a
=
a
n
k
n 1 k
k=
✓ ◆ 1 ✓
◆
aN
aN 1
=
a
par la formule de Vandermonde
n 1
n

✓
◆ 1 ✓
◆
aN aN 1
aN 1
=
a
n
n 1
n 1
n
= .
N
2. Pour calculer la variance de X, on commence, d’après la suggestion de l’énoncé, par
calculer E(Xi (Xi 1)) d’une façon similaire. Le théorème de transfert donne :
E(Xi ) =
n
X
k(k
k=0
✓
n
1X
1)P(Xi = k)
✓ ◆✓
◆
a (N 1)a
=
k(k 1)
k
n k
k=2
✓ ◆ 1X
✓
◆✓
◆
n
aN
a 2 (N 1)a
=
a(a 1)
n
k 2
n k
k=2
✓ ◆ 1
n
X2 ✓a 2◆✓ (N 1)a ◆
aN
=
a(a 1)
n
k
n 2 k
k=0
✓ ◆ 1
✓
◆
aN
aN 2
=
a(a 1)
par la formule de Vandermonde
n
n 2
aN
n
◆
◆
n
X
n
1X
5
PSI : mathématiques
2016-2017

✓
◆
aN (aN 1) aN 2
E(Xi ) =
n(n 1)
n 2
n(n 1)(a 1)
=
.
N (aN 1)
1
a(a
✓
aN 2
1)
n 2
◆
On peut alors calculer la variance :
V(Xi ) = E(Xi (Xi
1)) + E(Xi )
n(n 1)(a 1)
n
+
N (aN 1)
N
n)(aN 1)
E(Xi )2 =
n N (n 1)(a 1) + (N
N
N (aN 1)
2
n N a Na Nn + n
n (N 1)(aN
=
= 2
N
N (aN 1)
N
aN 1
✓
◆
n
1 aN n
=
1
.
N
N aN 1
=
n2
N2
n)
3. L’égalité
X1 + · · · + XN = n,
est vraie puisque X1 + · · · + Xn est bien le nombre total de boules tirées. Pour tout
i 2 J1, nK, on a
X
Cov(X1 + · · · + Xn , Xi ) = V(Xi ) +
Cov(Xi , Xj )
j6=i
et puisque la variable aléatoire X1 +· · ·+Xn est constante, Cov(X1 +· · ·+Xn , Xi ) =
0. D’autre part, puisque toutes les couleurs jouent des rôles symétriques, les covariances Cov(Xi , Xj ), pour i 6= j sont toutes égales. Finalement, on obtient, pour
i 6= j
(N 1) Cov(Xi , Xj ) = V(Xi )
puis
Cov(Xi , Xj ) =
n (n aN )
.
N 2 aN 1
Le coefficient de corrélation ⇢(Xi , Xj ), vaut alors, pour i 6= j,
Cov(Xi , Xj )
Cov(Xi , Xj )
⇢(Xi , Xj ) = p
=
=
V(Xi )
V(Xi )V(Xj )
1
N
1
.
Interprétation : les variables aléatoires Xi et Xj ont tendance à varier en sens
contraire. Cela est normal puisque la somme des Xi est constante égale à n.
Exercice 8 (Loi binomiale négative ou de Pascal). On dit qu’une variable aléatoire X suit
une loi binomiale négative de paramètres n et p si X(⌦) = {n, n + 1, . . .} et P(X = k) =
k 1 n
p)k n .
n 1 p (1
1. On raisonne par récurrence sur n 2 N⇤ .
Si n = 1, la variable X1 suit une loi géométrique de paramètre p : c’est la même
chose qu’une loi binomiale négative de paramètre 1 et p.
Si la propriété est vraie au rang n 1, soient X1 , . . . , Xn des variables aléatoires indépendantes suivant toutes une loi géométrique de paramètre p. Alors, par hypothèse
de récurrence, Y = X1 + · · · + Xn 1 suit une loi binomiale négative de paramètres
6
PSI : mathématiques
2016-2017
n 1 et p. Déterminons la loi de Z = Y + Xn . Puisque Y (⌦) = {n 1, n, n + 1, . . .}
et Xn (⌦) = N⇤ , on a Z(⌦) = {n, n + 1, . . .}. Soit donc un entier k > n
!
k[1
P(Z = k) = P
(Y = l) \ (Xn = k l)
l=n 1
k 1
X
=
l) car ces événements sont disjoints
P(Y = l, Xn = k
l=n 1
k 1
X
=
l) par indépendance
P(Y = l)P(Xn = k
l=n 1
k 1 ✓
X
l
=
n
l=n 1
n
= p (1
p)
◆
1 n
p
2
k n
1
(1
k 1 ✓
X
l
n
l=n 1
p)l
n+1
⇥ p(1
p)k
l 1
◆
1
.
2
Reste à montrer que cette somme est bien égale à nk 11 . On rappelle la formule du
p
p
⇤
triangle de Pascal : p+1
1K.
q+1 = q+1 + q , pour p 2 N et q 2 J0, p
On a
✓
◆ ✓
◆ ✓
◆
k 1
k 2
k 2
=
+
n 1
n 1
n 2
✓
◆ ✓
◆ ✓
◆
k 3
k 3
k 2
=
+
+
n 1
n 2
n 2
✓
◆ ✓
◆
✓
◆ ✓
◆
j
j
k 3
k 2
=
+
+ ··· +
+
, (n 1 6 j 6 k 2)
n 1
n 2
n 2
n 2
✓
◆ ✓
◆ ✓
◆
✓
◆ ✓
◆
n 1
n 1
n
k 3
k 2
=
+
+
+ ··· +
+
n 1
n 2
n 2
n 2
n 2
✓
◆
k
2
X
k
=
.
n 2
k=n 2
C’est bien la somme ci-dessus.
Par principe de récurrence, on a montré que la somme de n variables aléatoires
indépendantes de même loi G(p) suit une loi binomiale négative de paramètres n et
p.
2. Par linéarité, l’espérance d’une variable aléatoire de loi binomiale négative de paramètres n et p est
n
E(X1 + · · · + Xn ) = nE(X1 ) = .
p
La variance est, par indépendance,
V(X1 + . . . Xn ) = nV(X1 ) =
n(1 p)
.
p2
Exercice 9. Les tirages considérés sont avec remise, on peut donc modéliser Sn par une
somme de n variables aléatoires X1 , . . . , Xn indépendantes et de même loi. La fonction
génératrice de X1 est
✓
◆
t
t2
1
t+1 2
GX1 = P(S1 = 0) + P(S1 = 1)t + P(S1 = 2)t2 = + +
=
.
4 2
4
2
7
PSI : mathématiques
2016-2017
Par indépendance et puisque les variables ont même loi, pour tout réel t
n
GSn (t) = [GX1 (t)] =
✓
t+1
2
◆2n
.
En développant cette expression avec la formule du binôme, on obtient que Sn est à valeurs
dans J0, 2nK et pour tout k 2 J0, 2nK,
✓ ◆
1 2n
P(Sn = k) = 2n
.
2
k
Pour l’espérance, remarquons que GSn est dérivable sur R et pour tout réel t, G0Sn (t) =
n
t+1 2n 1
.
2
D’où E(Sn ) = G0Sn (1) = n.
Exercice 10 (Loi binomiale négative ou de Pascal).
1. On peut le montrer par récurrence sur p, ou par dérivation de la fonction f : x 7!
1
1 tx , pour |x| < 1.
2. Une fois obtenu le (n 1) ième pile, Yn représente le nombre de lancers nécessaires
pour obtenir pile à nouveau pour la première fois, donc : Yn ⇠ G(p).
3. On a Xn = Y1 + · · · + Yn et puisque les lancers sont indépendants, les variables
Yi sont indépendantes. La fonction génératrice de leur somme est donc égale au
produit de leur fonction génératrice commune, donc à GnY1 .
D’après le cours, GY1 est une série entière de rayon de convergence
GYn (t) =
pt
, pour tout t 2
(1 p)t
1
1
,
p 1

p
i
La fonction génératrice de Xn est donc donnée par, pour tout t 2
GX n =
✓
pt
(1 p)t
1
◆n
=
1
1
1
1 p
D’après la première question : pour tout t tel que |(1
1
1
puis, pour tout t 2
i
(1
p)t)n
1
1
1 p, 1 p
h
GXn (t) = p
n
= pn
+1 ✓
X
k+n
=
n
k=0
+1 ✓
X
k+n
k=0
+1 ✓
X
k=n
n
k
n
1
◆
1
1
◆
1
(1
1
.
pn tn
.
(1 p)t)n
(1
◆
1
et de somme
1
1
1
p, 1 p
h
p)t| < 1, on a
p)k tk
(1
(1
p)k
p)k tn+k
n k
t .
On a donc Xn (⌦) = Jn, +1J (logique : pour obtenir n piles, il faut au moins n
lancers) et pour tout entier k > n, et
✓
◆
k 1 n
P(Xn = k) =
p (1 p)k n .
n 1
On dit que Xn suit une loi de Pascal de paramètres (n, p).
8
PSI : mathématiques
2016-2017
Exercice 11. Notons pi = P(X1 = i) et qi = P(X2 = i) pour i 2 J1, 6K. Puisque les
variables X1 et X2 sont finies, leur fonction génératrice est polynomiale et définie sur R.
La fonction génératrice de X1 est
G1 (t) = p1 t + p2 t2 + · · · + p6 t6 ,
et la fonction génératrice de G2 est
G2 (t) = q1 t + q2 t2 + · · · + q6 t6 .
Par indépendance, la fonction génératrice G de X1 + X2 est égale au produit de G1 et G2 .
D’autre part, s’il est possible de choisir les (pi )i et (qj )j de sorte que X1 + X2 suivent une
loi uniforme sur J2, 12K, alors on a
1 2
t2 1 t11
(t + · · · + t1 2) =
.
11
11 1 t
G(t) =
Ainsi, en simplifiant par t2 , pour t 6= 0, on devrait donc avoir
(p1 + p2 t + · · · + p6 t5 )(q1 + q2 t + · · · + q6 t5 ) =
1 1 t11
.
11 1 t
Mais chaque polynôme du membre de gauche de cette égalité étant de degré impair admet
au moins une racine réelle alors que le polynôme du second membre n’admet que des racines
complexes non réelles, d’où la contradiction.
Exercice 12. Désignons par Ci , pour i 2 N l’événement “le i ème champignon cueilli
est comestible”. Par la formule des probabilités totales appliquée avec le système complet
d’événements {(N = n); n 2 N}, la probabilité de l’événement C =“tous les champignons
sont comestibles” est
P(C) =
=
=
+1
X
n=1
+1
X
n=1
+1
X
n=1
P(C, N = n)
P(C1 \ C2 \ · · · \ Cn , N = n)
P(N =n) (C1 \ C2 \ · · · \ Cn )P(N = n)
On peut logiquement supposer les événements Ci mutuellement indépendants et indépendants de N , de sorte que
P(N =n) (C1 \ C2 \ · · · \ Cn ) = P(C1 \ C2 \ · · · \ Cn ) =
On obtient donc
P(C) =
+1
X
n
Y
P(Ci ) = pn .
i=1
P(N = n)pn = GN (p).
n=1
Exercice 13. D’après l’énoncé, X suit une loi de Poisson de paramètre a donc sa fonction
génératrice GX est définie sur R et pour tout réel x, GX (x) = ea(t 1) . De même, Y ayant
la même loi que X, a la même fonction génératrice. Calculons la fonction génératrice de
3Y : 3Y (⌦) = 3N et G3Y est définie comme la fonction admettant le développement en
série entière suivant :
G3Y (t) =
+1
X
n=0
P(3Y = n)tn =
+1
X
P(3Y = 3k)t3k =
k=0
+1
X
k=0
9
P(Y = k)(t3 )k = GY (t3 ) = ea(t
3
1)
.
PSI : mathématiques
2016-2017
Remarquons que le rayon de convergence de cette série entière est égal à +1. Puisque X
et Y sont indépendantes, X et 3Y le sont aussi et la fonction génératrice de Z est définie
sur R, avec
3
GZ (t) = GX (t)G3Y (t) = ea(t +t 2)
1. 1ère méthode :
E(Z) = E(X) + 3E(Y ) = 4a et, par indépendance V(Z) = V(X) + 9V(Y ) = 10a.
2. 2 ème méthode : GZ est de classe C 1 sur R
E(Z) = G0Z (1) = 4a et V(Z) = G00Z (1)+G0Z (1) G0Z (1)2 = 6a+16a2 +4a 16a2 = 10a.
(
Rd ! R
. Par hypothèse, les vecteurs Z = (X1 , X2 , . . . , Xd )
(x1 , . . . , xd ) 7! x1
et Z 0 = (X2 , X1 , . . . , Xd ) suivent la même loi donc ⇡(Z), ⇡(Z 0 ) suivent la même loi (Rapel :
la loi d’une variable composée f (Y ) ne dépend que de la loi de Y ), ce qui veut dire que X1
et X2 ont même loi. On montre similairement que X1 , . . . , Xd suivent la même loi.
En conséquence, E(Xi ) = E(Xj ), pour tous i, j 2 J1, dK et puisque X1 + · · · + Xd = 1,
on a
1 = E(X1 + · · · + Xd ) = dE(Xi ),
Exercice 14. Soit ⇡ :
d’où E(Xi ) = d1 .
Suivant l’indication, on étudie E(X1 (X1 +· · ·+Xd )). D’une part, E(X1 (X1 +· · ·+Xd )) =
E(X1 ) = d1 en utilisant l’hypothèse et d’autre part
E(X1 (X1 + · · · + Xd )) = E(X12 ) + E(X1 X2 ) + · · · + E(X1 Xd ) = E(X12 ) + (d
1)E(Xi Xj ),
pour i 6= j, la dernière égalité se justifiant par le fait que X1 X2 suit la même loi que Xi Xj
pour i 6= j (il suffit de considérer ⇡ 0 (x1 , . . . , xd ) = x1 x2 et de raisonner comme au début).
On obtient alors
E(X12 )
d(d 1)
d 1
2
2
2
2
d d E(X1 ) (d 1)
1 d E(X1 )
=
=
d2 (d 1)
d2 (d 1)
1
1
V(X1 )
=
( 2 E(X12 )) =
.
d 1 d
d 1
Cov(Xi , Xj ) = E(Xi Xj )
E(Xi )E(Xj ) =
1
1
d2
Exercice 15 (Entropie).
1. Puisque pour tout x 2 E, 0 6 p(x) 6 1, H(X) est une somme de termes positifs,
donc H(x) > 0.
L’entropie est nulle si tous ces termes sont nuls, c’est-à-dire
si p(x) ln(p(x)) = 0
P
pour tout x 2 E, donc p(x) = 1 ou p(x) = 0. Puisque x2E p(x) = 1, il existe x0
tel que p(x0 ) = 1 et X est quasi-constante égale à x0 .
Si X suit une loi uniforme sur J1, nK, alors p(k) = n1 pour k 2 J1, nK et on a
n
H(X) =
1X
1
ln( ) =
n
n
k=1
10
1
1
1
ln( n ) = ln(nn ) = ln(n).
n
n
n
PSI : mathématiques
2016-2017
2. En notant p(x, y) = P(X = x, Y = y), remarquons que par indépendance, p(x, y) =
p(x)p(y) et on a
X
H(X, Y ) =
p(x, y) ln(p(x, y))
(x,y)2E⇥F
X
=
p(x)p(y)(ln(p(x)) + ln(p(y)))
(x,y)2E⇥F
X
=
(x,y)2E⇥F
=
X
p(x) ln(p(x)) +
x2E
X
en utilisant dans la quatrième égalité que
3. On part du membre de droite :
y2F
p(x)p(y) ln(p(y))
(x,y)2E⇥F
p(y) ln(p(y))
y2F
= H(X) + H(Y ),
X
X
p(x)p(y) ln(p(x)) +
X
P(Y = y)H(X | Y = y) =
P
X
p(y)
y2F
=
y2F x2E
XX
=
p(x, y)
p(y)
ln
p(y)
✓
p(x, y)
p(y)
p(x, y) (ln(p(x, y))
y2F x2E
XX
=
p(x).
P(Y =y) (X = x) ln(P(Y
x2E
XX
P
p(y) = 1 =
p(x, y) ln(p(x, y))
y2F x2E
= H(X, Y )
y) (X
= x))
◆
!
ln(p(y)))
X
p(y) ln(p(y))
y2F
H(Y ) = H(X | Y ).
4. L’entropie est maintenant la somme d’une série à termes positifs, donc à valeurs
dans R+ [ {+1}. Comme précédemment, elle s’annule si X est constante presque
sûrement.
5. Si X suit une loi géométrique de paramètre p, 0 < p < 1, on a
H(X) =
+1
X
p)n
p(1
1
p)n
ln(p(1
1
)
n=1
=
p ln(p)
+1
X
(1
p)n
1
+ ln(1
p)
n=1
=
ln(p)
p(1
ln(p)
=
ln(p)
p(1
(1
(n
n=1
p) ln(1
p)
+1
X
n=0
=
+1
X
p) ln(1
p) ln(1
p
11
p)
p)
.
1
p2
n(1
p)n
1)(1
p)n
1
!
Téléchargement