ECS 2 Variables aléatoires discrètes ( éléments de correction )
I Les incontournables
1- n joueurs lancent chacun une pièce. Si tous obtiennent le même résultat, sauf l’un d’eux, ce dernier est déclaré gagnant ;
sinon ils recommencent. Quelle est la loi du nombre de parties nécessaires ?
Il faut supposer n 3 pour qu’il n’y ait qu’un gagnant.
Soit X le nombre de parties. X G(
 )
2- Un tireur à l’arc doit tirer successivement sur n cibles de plus en plus éloignées : lorsqu’il vise la cible n° k, la probabilité
qu’il l’atteigne est
k
1
, et il a alors le droit de passer à la suivante. Donner la loi et l’espérance du numéro de la dernière
cible atteinte.
Soit X le n° de dernière cible atteinte. X() = 1 , n
Soit Ek : « le joueur échoue à la cible k »
k 1 , n-1 , [X=k]= E1 ... Ek 
et on utilise la formule des probabilités composées après avoir vérifié que E1 ... Ek
est possible : P[X=k]=

[X=n] = E1 ... En ; on utilise la formule des probabilités composées : P[X=n] =

On vérifie : 
 = 1 en se ramenant à une somme télescopique puisque :



X() est fini donc X admet une espérance et : E(X) = 

Il faut isoler le terme pour k = n qui n’a pas la forme des autres et vaut :

Il faut se ramener à des sommes télescopiques pour les autres : k P[X=k] =


 ( k variant de 1 à (n-1) ).
On trouve : E(X) =


3- Soit n IN, n 2. Soit X une variable de valeurs les entiers de 1 à n, telle que : k 1,n , P[X=k] = ak(n-k) Que vaut a ?
Quelle est l’espérance de X ?
a doit vérifier : P[X=k] 0 et 
 = 1 donc a =

X() est fini donc X admet une espérance et E(X) =
4- Trois personnes A, B, C jouent à pile ou face avec une pièce équilibrée. A et B commencent ; C prend la place du perdant
; ainsi de suite... le gagnant étant le premier qui remporte 2 victoires consécutives.
- Déterminer les probabilités que A gagne, que B gagne, que C gagne.
- Si X est le nombre de lancers de la pièce, que vaut son espérance ?
On s’aperçoit à partir d’un arbre que le problème sera cyclique.
Notons Ak , Bk , Ck les événements « A,B,C respectivement gagne la k-ième partie »
VAk , VBk , VCk les événements « A,B,C respectivement remporte le jeu à l’issue de la k-ième partie »
A , B , C les événements « A,B,C respectivement gagne le jeu »
P(VA1) = P(VB1) = P(VC1) = 0
P(VA2) = P(A1 A2) =
= P(VB2) et P(VC2) = 0
P(VA3) = 0 = P(VB3) et P(VC3) =
P(VA4) = P(VB4) =
 et P(VC4) = 0
Pour n 5 , (A1 , B1) forme un système complet d’événements de probabilité
donc la formule des probabilités totales
s’applique et : P( VAn ) = P(A1) PA1(VAn) + P(B1) PB1(VAn) .
Or PA1 ( VAn) = PA1(C2 B3 A4 VAn) et PA1(C2 B3 A4) 0 ( selon la règle du jeu, la pièce étant équilibrée )
La formule des probabilités composées s’applique : PA1 ( VAn) = PA1(C2) PA1C2(B3) PA1C2B3 (A4) PA1C2B3A4(VAn)
De plus si A1 C2 B3 A4 est réalisé, on se retrouve comme après le gain de la première partie par A mais avec 3 coups en
plus. donc : PA1C2B3A4(VAn) = PA1(VAn-3) et PA1(VAn) =
PA1(VAn-3)
Les suites xn = PA1(VA3n) , yn = PA1(VA3n+1) et zn = PA1(VA3n+2) sont donc géométriques de raison
xn = PA1(VA3n) =
 x1 =
 PA1 (VA1) = 0 , yn = PA1 ( VA3n+1) =
 y1 =
 , zn = PA1 ( VA3n+2 ) =
z0 =

Les événements ( VAn)n 1 sont deux à deux incompatibles et A = 
 donc par -additivité d’une probabilité,
P(A) = 
 et par convergence absolue de la série 
à termes positifs, on peut sommer par paquets.
P(A) = 
 



A et B jouent le même rôle donc P(B) = P(A)
Pour C, on raisonne de la même façon :
P(VC3n) = 2
, P(VC3n+1) = 0 = P(VC3n+2 ) donc P(C) = 2
 =
 =
On remarque alors que P(A) + P(B) + P(C) = 1 , il est presque sûr qu’il y aura un gagnant à ce jeu.
Soit X le nombre de lancers.
X() = 2 , +
[X= 3n ] = P(VC3n ) donc P[X=3n] = 2.
=
 ;
P(X=3n+1] = P(VA3n+1) + P(VB3n+1) =
=
;
P(X=3n+2) = P(VA3n+2) + P(VB3n+2) =
 =

Donc : k 2 , + , P(X=k] =

La série

à termes positifs converge absolument ( série dérivée de série géométrique convergente car |
| < 1
donc X a une espérance et E(X) =

 = 3
5-
autres, une probabilité p
]0, 1[ d’éclore, et q = 1-p de mourir.
Quelle est la loi du nombre d’insectes issus de l’insecte initial ?
Soit X le nombre d’œufs pondus. X P()
Soit N le nombre de naissances. La loi de N sachant [X=i] est B(i , p )
N() = IN. D’après la formule des probabilités totales appliquée au sce [X=i]iIN de probabilités non nulles :
k IN, P[N=k] = 
 

  = e-p
 : N P(p)
6- Soit X une VAR discrète avec X() = IN. On suppose que X admet une espérance. Montrer que
E[X] = 


X () = IN et X admet une espérance donc :
E(X) = 
 = 
   


Or la série double à termes positifs 
 converge absolument donc la propriété de Fubini s’applique :
E(X) =   

 = 


7- On lance une pièce truquée jusqu’à obtenir pour la première fois « face ». Quelle est la probabilité que le nombre de
lancers soit pair ? impair ?
Soit X le nombre de jets. X G(
Soit A : « le nombre de lancers est pair »
A = 
 Les événements ( X=2k )k 1 sont deux à deux incompatibles donc par -additivité d’une probabilité :
P(A) = 

donc la probabilité que le nombre de jets soit impair est 1 P(A) =
.
8- Soit X une variable aléatoire telle que X + 1 suive la loi G(p). Soit m IN et Y = min(X;m).
Définir la loi de Y, son espérance et sa variance.
Y() = 0,m
k 0,m-1, P[Y=k] = P[X = k] = P[X+1=k+1] = p (1-p)k
P[Y=m] = P[ X m ] = P[X+1 m+1] = 
 = 
 = p = (1-p)m
Y() est fini donc Y admet des moments à tout ordre.
Notons q= 1-p
E(Y) = mqm + 

 la somme est la dérivée de q f(q) =

 =

donc E(Y) = m qm + pq 
 = m (1-p)m + (1-p) 
On raisonne de même pour la variance de Y en passant par la dérivée seconde de f et il y a des calculs !
D’après la formule de transfert : E(Y(Y-1)) = m (m-1) qm + p² q f’’(q)
D’après la formule de Koenig-Huygens, V(Y) = E(Y (Y-1) ) + E(Y) E(Y)²
9- Un rat de laboratoire est dans une cage comportant quatre portes. Trois des quatre portes sont munies d’un dispositif
envoyant à l’animal une décharge électrique. La quatrième laisse le passage libre et l’animal peut sortir par celle-là...
Soit X la variable aléatoire égale au nombre d’essais effectués par le rat jusqu’à ce qu’il trouve la bonne porte. Déterminer la loi
de X et son espérance dans chacun des cas suivants :
(i) Le rat n’a aucune mémoire : il recommence ses tentatives sans tenir compte des échecs passés.
(ii) Le rat a une mémoire immédiate : il ne tient compte que de l’échec précédant sa nouvelle tentative.
(iii) Le rat a une bonne mémoire : il élimine les portes où il a échoué.
(i) X G(
 et E(X) = 4
(ii) X() = IN*, P[X=1] =
, k 2, P[X=k] =


k 2, k P[X=k] =
k
 est le terme général positif d’une série dérivée de série géométrique ( absolument ) convergente car |
|
< 1 donc x a une espérance et E(X) =
+ 3 = 
(iii) X() = 1,4 et X U 1,4 donc E(X) =

10- Soit (un)n0 une suite vérifiant la relation de récurrence un+2 = 4un+1 +4un pour tout n IN avec
u0 = 0 et u1 = 1. Soit X une VAR discrète telle que X() = {un | n IN} et n IN, P(X = un) =
 > 0
Calculer et E(X).
On veut : n IN, P[X=un] 0 et 
 = 1 donc = e-.
La suite u vérifie une relation de récurrence linéaire dont les racines de l’équation caractéristique sont :
a = (2+2 et b = (2 - 2) et vu que u0 = 0, u1 = 1, on obtient : n IN, un =
 ]
N.B : on remarquera que la loi de X est bien définie car la suite u est strictement croissante donc si n
m alors un
um
un P[X = un] =

 combinaison linéaire de séries exponentielles donc absolument convergentes donc X admet une
espérance et E(X) =

.
11- a. Soit A =  
  . Trouver une condition nécessaire et suffisante sur a et b pour que A soit diagonalisable.
b. Soient X et Y deux variables aléatoires réelles indépendantes suivante une loi binomiale B(n;
)
Soit M la matrice aléatoire M = 
  . Calculer la probabilité pour que M soit diagonalisable.
A chercher après le cours d’algèbre sur la réduction des endomorphismes.
a. A est triangulaire supérieure donc ses valeurs propres sont ses termes diagonaux : a et b.
Si a b alors A est d’ordre 2 égal au nombre de valeurs propres donc A est diagonalisable.
Si a = b alors A n’a qu’une valeur propre mais A a I2 donc A n’est pas diagonalisable .
b. P(M diagonalisable ) = 1 - P(X=Y) = 
 car X et Y sont indépendantes.
P[M diagonalisable ) = 1 - 
( en utilisant la formule de Vandermonde )
12- Soit X une variable aléatoire de loi de Poisson de paramètre et F sa fonction de répartition.
Montrer que : n IN, F(n) =


= 

On intègre par parties : 
= n e- - xn e- x + n 
On fait tendre x vers + : 
= n e- + n 
On divise par n ! :

= e-
 +

Il suffit alors de raisonner par récurrence :
Pour n = 0 : F(0) = P[X=0] = e- = 
Si F(n) =

alors F(n+1) = F(n) + P[X=n+1) = F(n) + e-

 =

+ e-

 =

13- Soient et deux réels, et, pour tout k IN, pk = a 
a. Suivant les signes de et , discuter l’existence de a pour que (pk)kIN soit une loi de probabilité.
Le cas échéant, déterminer a.
b. Dans les cas où on a défini une loi, soit X une variable aléatoire réelle suivant cette loi.
Déterminer l’espérance et la variance de X.
c. Peut-il arriver que X suive une loi de Poisson ?
a. pk définit une loi de probabilité si et seulement si pk 0 et

Cherchons a : à l’aide des séries exponentielles, on obtient : a =

> 0
k IN, pk 0 k IN, k - k toujours vrai si k est pair
k IN, 2k+1 (-)2k+1 et puisque x x2k+1 est croissante sur
-
+ 0
b. k IN, k pk 0 , k² pk donc convergence absolue des séries correspondantes équivaut à leur convergence.
k pk et k (k-1) pk sont des termes qui se ramènent à des séries exponentielles donc convergentes.
X admet une espérance et une variance.
E(X) = a ( e + e ) et E(X(X-1)) = a ( ² e + ² e ) donc d’après la formule de Koenig-Huygens et la linéarité de l’espérance :
V(X) = E(X(X-1)) + E(X) E(X)² = a ( (+1) e + (+1) e ) a² ( e + e
c. Si X P() alors E(X) = V(X) = donc E(X(X-1)) = E(X)² ce qui donne =
Réciproquement, si = alors pk = e-
qui est bien la loi P()
X suit une loi de Poisson si et seulement si =
14- Soit f la fonction numérique définie sur IR+ par f(0) = 0 et si x > 0, f(x) = - x ln(x).
est un ensemble fini de cardinal N, (;A; P) un espace probabilisé et X une variable aléatoire sur (;A; P).
Si E = X(), on appelle entropie de X, le réel H(X) = 


a. Calculer H(X) lorsque X suit une loi uniforme sur E, puis si X suit une loi quasi certaine.
b. Dans le cas général, démontrer que H(X) 0.
c. Démontrer que : x 0, f(x) 1 x . En déduire le signe de 

 et une majoration de H(X)
d. Pour quelle(s) variable(s) aléatoire(s) à valeurs dans E l'entropie est-elle minimale ? maximale ?
a. Si X U(E) alors k E, P[X=k] =
 donc H(X) = ln ( Card E )
Si X est presque sûrement constante égale à c alors P[X=c] = 1 et H(X) = 0
b. x [ 0 , 1 ] f(x) 0 et P[X=k] [ 0 , 1 ] donc H(X) 0
c. 
 ( croissances comparées) donc f est continue en 0 et f est de classe C² sur +* ( théorèmes généraux )
x > 0, f’(x) = - ln (x) 1 et f’’(x) = -
< 0 donc f est concave sur + et au-dessous de ses tangentes.
Une équation de la tangente en 1 est y = f’(1) (x-1) + f(1) = 1 x
Donc : x 0, f(x) ≤ 1 - x
On applique l’inégalité à N P[X=x] 0 et on obtient : f(N P[ X = x ] ) ≤ 1 – N P[ X = x ] et par sommation


 ≤ Card (E) – N ≤ 0
Or f(N P[X=x] ) = - N P[X=x] f(P[X=x]) N ln(N) P[X=x] et par sommation :

 = N H(X) N ln(N) ≤ 0 donc H(X) ≤ ln(N)
d. On s’aperçoit que l’entropie est nulle donc minimale pour les variable constantes ( presque sûrement ).
On s’aperçoit aussi que l’entropie vaut ln(N) et est donc maximale pour les variables uniformes telles que Card X() = Card
Remarque 
H(X) soit nul pour les variables constantes.
15- Soit ( ,A,P) un espace probabilisé et X une variable aléatoire réelle prenant ses valeurs dans IN. On appelle fonction
génératrice de X la fonction GX telle que GX(t) =
 .
a. Montrer que la série de terme général P[X=n] tn est absolument convergente pour tout t [-1 , 1].
b. Exprimer GX(t) comme étant l’espérance d’une variable aléatoire.
c. Montrer que si X et Y sont deux variables aléatoires indépendantes prenant leurs valeurs dans IN, GX+Y = GX GY
d. Montrer que : t [ 0 , 1 [ , T(t) = 
 = 

En déduire que la fonction T est croissante sur [ 0 , 1 [.
e. On suppose que X admet une espérance. Prouver que : t [ 0 , 1 [ , T(t) E(X)
En déduire que GX est dérivable à gauche en 1 et que : (Gx’)g (1) = E(X).
f. On suppose que X admet une variance et que GX est deux fois dérivable sur [ 0 , 1 ] et que pour t [ 0 , 1 ]:
GXg’’(t) = 
 . Exprimer la variance de X en fonction de (GX’)g (1) et (Gx’’)g (1).
g. Dans chacun des cas suivants, déterminer la fonction génératrice de X puis retrouver E(X) et V(X) :
(i) X B(n,p) (ii) X U1,n (iii) X G(p) (iv) X P()
X() IN
a. t [ -1 , 1 ] , k IN, 0 ≤ P[X=k] |t|k ≤ P[ X = k ] et la série de terme général P[X=k] converge par définition d’une
probabilité donc par comparaison des séries à termes positifs, la série de terme général P[X=n] tn est absolument convergente
pour tout t [ -1 , 1 ].
b. GX(t) = E(tX) d’après la formule de transfert.
c. Si X et Y sont indépendantes alors tX et tY sont indépendantes et GX+Y(t) = E(tX tY) = E(tX) E(tT) = GX(t) GY(t)
d. t [ 0 , 1 [ , 
 

 
 = T(t)
t, t’ [ 0 , 1 [ , t ≤ t’ 1 + t + ... + tk-1 ≤ 1 + t’ + t’² + ... + t’k-1 et après sommation et passage à la limite :
T(t) ≤ T(t’) donc T est croissante sur [ 0 , 1 [.
e. k IN, t 0 , 1 [ , P[X=k] ( 1 + t + ... + tk-1) ≤ k P[X=k] donc T(t) ≤ E(X)
T est croissante sur [ 0 , 1 [ , majorée par E(X) donc T admet une limite finie à gauche en 1 et 

Donc GX est dérivable à gauche en 1 et GXg(1) ≤ E(X).
D’autre part : t [ 0 , 1 [ , n IN, k IN, 
 ≤ T(t)
Au passage à la limite quand t tend vers 1 à gauche : 
 ≤ GXg(1)
Au passage à la limite quand n tend vers + : E(X) ≤ GXg(1)
Donc E(X) = GXg(1)
f. D’après la formule de transfert, GX’’g(1) = E(X(X-1)) et par linéarité de l’espérance et la formule de Huygens :
V(X) = GX’’g(1) + GXg(1) GXg(1)²
g. Si X B(n,p) alors GX(t) = (pt+q)n avec q = 1-p et on retrouve E(X) = np, V(X) = npq
Si X U1,n alors GX(t) =
 


 , GX’(1) =

 = 
= E(X)
de même GX’’g(1) = 
donc GX’’g(1) + GXg(1) GXg(1)² = 
 = V(X)
Si X G(p) alors GX(t) = 
 avec q = 1-p et GX’(1) =
= E(X) , GX’’g(1) = 
 on retrouve V(X) =

Si X P() alors GX(t) = e(t-1) et on retrouve E(X) = V(X) =
16- Des urnes de Polya
Une urne contient au départ a boules noires et b boules blanches.
On effectue une suite de tirages qui consiste à tirer une boule de l’urne, à regarder sa couleur, et à la remettre dans
l’urne en ajoutant une boule de la même couleur avant le tirage suivant. On cherche à déterminer l’évolution de la
proportion de boules noires dans l’urne. On note Xn le nombre de noires à l’issue du nème tirage. On pose X0 = a.
a. On suppose a = b = 1.
- Quelle est la loi de X1 ? Démontrer que X2 et X3 suivent des lois uniformes sur {1, 2, 3} et {1, 2, 3, 4} .
- Démontrer par récurrence que Xn suit une loi uniforme sur {1, 2, ..., n + 1} .
- On note An l’événement « tirer une boule noire lors du nème tirage »
A l’aide de la loi de Xn, déterminer la probabilité de l’événement An+1. Quelles sont vos remarques ?
b. On suppose a et b quelconques. On note Bn l’événement « tirer une boule blanche lors du nème tirage ».
- Démonter que P (A1 ... Ak Bk+1 ... Bn) =





- En déduire que : P[ Xn = a + k ] =




c. A l’aide de la formule des probabilités totales, on démontrerait que P (Bn+1) =

Notons Bk : « tirer une blanche au kème tirage » et Nk : « tirer une noire au kème tirage »
a. a=b=1
X1() = { 1,2} et [X1 = 1] = B1 et [X1=2] = N1 donc X1 U1,2
X2() = {1,2,3} , [X2=1] = B1 B2 et P[X2=1] = P(B1) PB1(B2) =
, P[X2=2] =P(B1)PB1(N2) + P(N1) PN1(B2) =
, P[X2=3] = P(N1N2) =
X3() = { 1,2,3,4} et [X3=1] = B1 B2B3 et par la formule des probabilités composées : P[X3=1] =
De même on trouve X3 U1,4.
Soit n IN*. Supposons que Xn 1 , n+1 . Entre le nème tirage et le (n+1)ème tirage, le nombre de noires dans l’urne peut rester le
même ou augmenter d’une unité.
Donc P[Xn+1=k] = P[Xn=k] P[Xn=k][Xn+1=k ] + P[Xn=k-1] P[Xn=k-1][Xn+1=k] = P[Xn=k] P[Xn=k][Bn+1] + P[Xn=k-1] P[Xn=k-1][N,n+1)
Avant le (n+1)ème tirage , le nombre de boules dans l’urne est (n+2) et Xn est le nombre de noires, donc :
P[Xn+1=k] = 
 
 =
 car Xn 1,n+1 donc Xn+1 U 1,n+2
D’après la formule des probabilités totales : P(Nn+1) = P(An+1) = 





A chaque tirage, on a autant de chance de tirer une blanche qu’une noire. Ce résultat est logique car les boules blanches et noires
jouent le même rôle lorsque a = b .
b. a,b IN. On applique la formule des probabilités composées et on obtient l’égalité cherchée.
[Xn = a+k] est la réunion de
événements 2 à 2 incompatibles de même probabilité que P(A1 ... Ak Bk+1 ... Bn)
Il s’agit en effet de choisir les k rangs d’obtention d’une boule noire parmi les n tirages.
D’où l’égalité cherchée.
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !