Variables aléatoires discrètes cor

publicité
ECS 2
Variables aléatoires discrètes ( éléments de correction )
I Les incontournables
1-
n joueurs lancent chacun une pièce. Si tous obtiennent le même résultat, sauf l’un d’eux, ce dernier est déclaré gagnant ;
sinon ils recommencent. Quelle est la loi du nombre de parties nécessaires ?
Il faut supposer n  3 pour qu’il n’y ait qu’un gagnant.
Soit X le nombre de parties. X ↪ G(
2-
)
Un tireur à l’arc doit tirer successivement sur n cibles de plus en plus éloignées : lorsqu’il vise la cible n° k, la probabilité
qu’il l’atteigne est
1
, et il a alors le droit de passer à la suivante. Donner la loi et l’espérance du numéro de la dernière
k
cible atteinte.
Soit X le n° de dernière cible atteinte. X() = ⟦ 1 , n ⟧
Soit Ek : « le joueur échoue à la cible k »
 k  ⟦ 1 , n-1 ⟧, [X=k]= E1  ... Ek 
et on utilise la formule des probabilités composées après avoir vérifié que E1 ... Ek
est possible : P[X=k]=
[X=n] = E1  ... En ; on utilise la formule des probabilités composées : P[X=n] =
On vérifie :
= 1 en se ramenant à une somme télescopique puisque :
X() est fini donc X admet une espérance et : E(X) =
Il faut isoler le terme pour k = n qui n’a pas la forme des autres et vaut :
Il faut se ramener à des sommes télescopiques pour les autres : k P[X=k] =
( k variant de 1 à (n-1) ).
On trouve : E(X) =
3-
Soit n  IN, n 2. Soit X une variable de valeurs les entiers de 1 à n, telle que :  k  ⟦1,n⟧ , P[X=k] = ak(n-k) Que vaut a ?
Quelle est l’espérance de X ?
a doit vérifier : P[X=k]  0 et
= 1 donc a =
X() est fini donc X admet une espérance et E(X) =
4-
Trois personnes A, B, C jouent à pile ou face avec une pièce équilibrée. A et B commencent ; C prend la place du perdant
; ainsi de suite... le gagnant étant le premier qui remporte 2 victoires consécutives.
- Déterminer les probabilités que A gagne, que B gagne, que C gagne.
- Si X est le nombre de lancers de la pièce, que vaut son espérance ?
On s’aperçoit à partir d’un arbre que le problème sera cyclique.
Notons Ak , Bk , Ck les événements « A,B,C respectivement gagne la k-ième partie »
VAk , VBk , VCk les événements « A,B,C respectivement remporte le jeu à l’issue de la k-ième partie »
A , B , C les événements « A,B,C respectivement gagne le jeu »
P(VA1) = P(VB1) = P(VC1) = 0
P(VA2) = P(A1  A2) = = P(VB2) et P(VC2) = 0
P(VA3) = 0 = P(VB3) et P(VC3) =
P(VA4) = P(VB4) =
et P(VC4) = 0
Pour n  5 , (A1 , B1) forme un système complet d’événements de probabilité donc la formule des probabilités totales
s’applique et : P( VAn ) = P(A1) PA1(VAn) + P(B1) PB1(VAn) .
Or PA1 ( VAn) = PA1(C2  B3  A4  VAn) et PA1(C2  B3  A4)  0 ( selon la règle du jeu, la pièce étant équilibrée )
La formule des probabilités composées s’applique : PA1 ( VAn) = PA1(C2) PA1C2(B3) PA1C2B3 (A4) PA1C2B3A4(VAn)
De plus si A1  C2  B3  A4 est réalisé, on se retrouve comme après le gain de la première partie par A mais avec 3 coups en
plus. donc : PA1C2B3A4(VAn) = PA1(VAn-3) et PA1(VAn) = PA1(VAn-3)
Les suites xn = PA1(VA3n) , yn = PA1(VA3n+1) et zn = PA1(VA3n+2) sont donc géométriques de raison
xn = PA1(VA3n) =
x1 =
PA1 (VA1) = 0 , yn = PA1 ( VA3n+1) =
Les événements ( VAn)n  1 sont deux à deux incompatibles et A =
P(A) =
et par convergence absolue de la série
y1 =
, zn = PA1 ( VA3n+2 ) =
z0 =
donc par -additivité d’une probabilité,
à termes positifs, on peut sommer par paquets.
P(A) =
A et B jouent le même rôle donc P(B) = P(A)
Pour C, on raisonne de la même façon :
P(VC3n) = 2
, P(VC3n+1) = 0 = P(VC3n+2 ) donc P(C) = 2
= =
On remarque alors que P(A) + P(B) + P(C) = 1 , il est presque sûr qu’il y aura un gagnant à ce jeu.
Soit X le nombre de lancers.
X() = ⟦ 2 , + ⟦
[X= 3n ] = P(VC3n ) donc P[X=3n] = 2.
P(X=3n+1] = P(VA3n+1) + P(VB3n+1) =
P(X=3n+2) = P(VA3n+2) + P(VB3n+2) =
=
=
;
;
=
Donc :  k  ⟦ 2 , + ⟦ , P(X=k] =
La série
à termes positifs converge absolument ( série dérivée de série géométrique convergente car | | < 1
donc X a une espérance et E(X) =
5-
=3
autres, une probabilité p  ]0, 1[ d’éclore, et q = 1-p de mourir.
Quelle est la loi du nombre d’insectes issus de l’insecte initial ?
Soit X le nombre d’œufs pondus. X ↪ P()
Soit N le nombre de naissances. La loi de N sachant [X=i] est B(i , p )
N() = IN. D’après la formule des probabilités totales appliquée au sce [X=i]iIN de probabilités non nulles :
 
 k  IN, P[N=k] =
6-
: N ↪ P(p)
Soit X une VAR discrète avec X() = IN. On suppose que X admet une espérance. Montrer que
E[X] =

X () = IN et X admet une espérance donc :
E(X) =
=
Or la série double à termes positifs
E(X) =
=

7-
- p 
= e
converge absolument donc la propriété de Fubini s’applique :
On lance une pièce truquée jusqu’à obtenir pour la première fois « face ». Quelle est la probabilité que le nombre de
lancers soit pair ? impair ?
Soit X le nombre de jets. X ↪ G(
Soit A : « le nombre de lancers est pair »
A=
Les événements ( X=2k )k  1 sont deux à deux incompatibles donc par -additivité d’une probabilité :
P(A) =
donc la probabilité que le nombre de jets soit impair est 1 – P(A) = .
8-
Soit X une variable aléatoire telle que X + 1 suive la loi G(p). Soit m  IN et Y = min(X;m).
Définir la loi de Y, son espérance et sa variance.
Y() = ⟦0,m⟧
k
 k  ⟦0,m-1⟧, P[Y=k] = P[X = k] = P[X+1=k+1] = p (1-p)
P[Y=m] = P[ X  m ] = P[X+1  m+1] =
Y() est fini donc Y admet des moments à tout ordre.
Notons q= 1-p
m
la somme est la dérivée de q  f(q) =
E(Y) = mq +
m
donc E(Y) = m q + pq
=
= p = (1-p)
=
m
= m (1-p) + (1-p)
On raisonne de même pour la variance de Y en passant par la dérivée seconde de f et il y a des calculs !
m
D’après la formule de transfert : E(Y(Y-1)) = m (m-1) q + p² q f’’(q)
D’après la formule de Koenig-Huygens, V(Y) = E(Y (Y-1) ) + E(Y) – E(Y)²
m
9-
Un rat de laboratoire est dans une cage comportant quatre portes. Trois des quatre portes sont munies d’un dispositif
envoyant à l’animal une décharge électrique. La quatrième laisse le passage libre et l’animal peut sortir par celle-là...
Soit X la variable aléatoire égale au nombre d’essais effectués par le rat jusqu’à ce qu’il trouve la bonne porte. Déterminer la loi
de X et son espérance dans chacun des cas suivants :
(i)
Le rat n’a aucune mémoire : il recommence ses tentatives sans tenir compte des échecs passés.
(ii)
Le rat a une mémoire immédiate : il ne tient compte que de l’échec précédant sa nouvelle tentative.
(iii)
Le rat a une bonne mémoire : il élimine les portes où il a échoué.
(i) X ↪ G(
et E(X) = 4
,  k  2, P[X=k] =
(ii) X() = IN*, P[X=1] =
 k  2, k P[X=k] =
k
est le terme général positif d’une série dérivée de série géométrique ( absolument ) convergente car | |
< 1 donc x a une espérance et E(X) = + 3 =
(iii) X() = ⟦1,4⟧ et X ↪ U ⟦1,4⟧ donc E(X) =
II Pour s’entraîner
Soit (un)n0 une suite vérifiant la relation de récurrence un+2 = 4un+1 +4un pour tout n  IN avec
10-
u0 = 0 et u1 = 1. Soit X une VAR discrète telle que X() = {un | n  IN} et n  IN, P(X = un) = 

où  > 0
Calculer  et E(X).
On veut :  n  IN, P[X=un]  0 et
= 1 donc  = e 
La suite u vérifie une relation de récurrence linéaire dont les racines de l’équation caractéristique sont :
- .
a = (2+2
et b = (2 - 2
) et vu que u0 = 0, u1 = 1, on obtient :  n IN, un =
]
N.B : on remarquera que la loi de X est bien définie car la suite u est strictement croissante donc si n  m alors un  um

un P[X = un] = 
espérance et E(X) = 
11-
a. Soit A =
combinaison linéaire de séries exponentielles donc absolument convergentes donc X admet une


.
. Trouver une condition nécessaire et suffisante sur a et b pour que A soit diagonalisable.
b. Soient X et Y deux variables aléatoires réelles indépendantes suivante une loi binomiale B(n; )
Soit M la matrice aléatoire M =
. Calculer la probabilité pour que M soit diagonalisable.
A chercher après le cours d’algèbre sur la réduction des endomorphismes.
a. A est triangulaire supérieure donc ses valeurs propres sont ses termes diagonaux : a et b.
Si a  b alors A est d’ordre 2 égal au nombre de valeurs propres donc A est diagonalisable.
Si a = b alors A n’a qu’une valeur propre mais A  a I2 donc A n’est pas diagonalisable .
b. P(M diagonalisable ) = 1 - P(X=Y) =
car X et Y sont indépendantes.
P[M diagonalisable ) = 1 -
( en utilisant la formule de Vandermonde )
12Soit X une variable aléatoire de loi de Poisson de paramètre  et F sa fonction de répartition.
Montrer que :  n  IN, F(n) =
où 
=


On intègre par parties :
On fait tendre x vers + :
On divise par n ! :
=  e -x e +n
n -

=  e +n
n

- 

n -x
= e

-
+


Il suffit alors de raisonner par récurrence :
-
Pour n = 0 : F(0) = P[X=0] = e = 
Si F(n) =

alors F(n+1) = F(n) + P[X=n+1) = F(n) + e
- 
=
- 

+e
=

13-
Soient  et  deux réels, et, pour tout k  IN, pk = a
a.
Suivant les signes de  et , discuter l’existence de a pour que (pk)kIN soit une loi de probabilité.
Le cas échéant, déterminer a.
Dans les cas où on a défini une loi, soit X une variable aléatoire réelle suivant cette loi.
Déterminer l’espérance et la variance de X.
Peut-il arriver que X suive une loi de Poisson ?
b.
c.
a. pk définit une loi de probabilité si et seulement si pk  0 et
Cherchons a : à l’aide des séries exponentielles, on obtient : a =
k


>0
k
 k  IN, pk  0   k  IN,   -  toujours vrai si k est pair
2k+1
2k+1
2k+1
  k  IN, 
 (-)
et puisque x  x
est croissante sur ℝ
   -
 + 0
b.  k  IN, k pk  0 , k² pk donc convergence absolue des séries correspondantes équivaut à leur convergence.
k pk et k (k-1) pk sont des termes qui se ramènent à des séries exponentielles donc convergentes.
X admet une espérance et une variance.
E(X) = a (  e +  e ) et E(X(X-1)) = a ( ² e + ² e ) donc d’après la formule de Koenig-Huygens et la linéarité de l’espérance :
V(X) = E(X(X-1)) + E(X) – E(X)² = a (  (+1) e +  (+1) e ) – a² ( e +  e)²
c. Si X ↪ P() alors E(X) = V(X) =  donc E(X(X-1)) = E(X)² ce qui donne  = 
- 
Réciproquement, si  =  alors pk = e 
qui est bien la loi P()
X suit une loi de Poisson si et seulement si  = 
14-
a.
b.
c.
d.
Soit f la fonction numérique définie sur IR+ par f(0) = 0 et si x > 0, f(x) = - x ln(x).
 est un ensemble fini de cardinal N, (;A; P) un espace probabilisé et X une variable aléatoire sur (;A; P).
Si E = X(), on appelle entropie de X, le réel H(X) =

Calculer H(X) lorsque X suit une loi uniforme sur E, puis si X suit une loi quasi certaine.
Dans le cas général, démontrer que H(X)  0.
Démontrer que : x  0, f(x)  1 – x . En déduire le signe de
et une majoration de H(X)

Pour quelle(s) variable(s) aléatoire(s) à valeurs dans E l'entropie est-elle minimale ? maximale ?
a. Si X ↪ U(E) alors  k  E, P[X=k] =
donc H(X) = ln ( Card E )
Si X est presque sûrement constante égale à c alors P[X=c] = 1 et H(X) = 0
b.  x  [ 0 , 1 ] f(x)  0 et P[X=k]  [ 0 , 1 ] donc H(X)  0
c.
( croissances comparées) donc f est continue en 0 et f est de classe C² sur ℝ+* ( théorèmes généraux )
 x > 0, f’(x) = - ln (x) – 1 et f’’(x) = - < 0 donc f est concave sur ℝ+ et au-dessous de ses tangentes.
Une équation de la tangente en 1 est y = f’(1) (x-1) + f(1) = 1 – x
Donc :  x  0, f(x) ≤ 1 - x
On applique l’inégalité à N P[X=x]  0 et on obtient : f(N P[ X = x ] ) ≤ 1 – N P[ X = x ] et par sommation
≤ Card (E) – N ≤ 0

Or f(N P[X=x] ) = - N P[X=x] f(P[X=x]) – N ln(N) P[X=x] et par sommation :
= N H(X) – N ln(N) ≤ 0 donc H(X) ≤ ln(N)

d. On s’aperçoit que l’entropie est nulle donc minimale pour les variable constantes ( presque sûrement ).
On s’aperçoit aussi que l’entropie vaut ln(N) et est donc maximale pour les variables uniformes telles que Card X() = Card 
Remarque : l’entropie d’une variable aléatoire X est un paramètre qui mesure le degré de transformation de X. Il est donc normal que
H(X) soit nul pour les variables constantes.
15a.
b.
c.
d.
e.
f.
g.
Soit ( ,A,P) un espace probabilisé et X une variable aléatoire réelle prenant ses valeurs dans IN. On appelle fonction
génératrice de X la fonction GX telle que GX(t) =
.
n
Montrer que la série de terme général P[X=n] t est absolument convergente pour tout t  [-1 , 1].
Exprimer GX(t) comme étant l’espérance d’une variable aléatoire.
Montrer que si X et Y sont deux variables aléatoires indépendantes prenant leurs valeurs dans IN, G X+Y = GX GY
Montrer que :  t  [ 0 , 1 [ , T(t) =
=
En déduire que la fonction T est croissante sur [ 0 , 1 [.
On suppose que X admet une espérance. Prouver que :  t [ 0 , 1 [ , T(t)  E(X)
En déduire que GX est dérivable à gauche en 1 et que : (Gx’)g (1) = E(X).
On suppose que X admet une variance et que GX est deux fois dérivable sur [ 0 , 1 ] et que pour t  [ 0 , 1 ]:
GXg’’(t) =
. Exprimer la variance de X en fonction de (GX’)g (1) et (Gx’’)g (1).
Dans chacun des cas suivants, déterminer la fonction génératrice de X puis retrouver E(X) et V(X) :
(i) X ↪ B(n,p)
(ii) X ↪ U⟦1,n⟧ (iii) X ↪ G(p)
(iv) X ↪ P()
X()  IN
k
a.  t  [ -1 , 1 ] ,  k  IN, 0 ≤ P[X=k] |t| ≤ P[ X = k ] et la série de terme général P[X=k] converge par définition d’une
n
probabilité donc par comparaison des séries à termes positifs, la série de terme général P[X=n] t est absolument convergente
pour tout t  [ -1 , 1 ].
X
b. GX(t) = E(t ) d’après la formule de transfert.
X
Y
X Y
X
T
c. Si X et Y sont indépendantes alors t et t sont indépendantes et GX+Y(t) = E(t t ) = E(t ) E(t ) = GX(t) GY(t)
d.  t  [ 0 , 1 [ ,
= T(t)
 t, t’  [ 0 , 1 [ , t ≤ t’  1 + t + ... + t ≤ 1 + t’ + t’² + ... + t’ et après sommation et passage à la limite :
T(t) ≤ T(t’) donc T est croissante sur [ 0 , 1 [.
k-1
e.  k  IN,  t  ⟦ 0 , 1 [ , P[X=k] ( 1 + t + ... + t ) ≤ k P[X=k] donc T(t) ≤ E(X)
T est croissante sur [ 0 , 1 [ , majorée par E(X) donc T admet une limite finie à gauche en 1 et
Donc GX est dérivable à gauche en 1 et GX’g(1) ≤ E(X).
D’autre part :  t  [ 0 , 1 [ ,  n  IN,  k  IN,
≤ T(t)
Au passage à la limite quand t tend vers 1 à gauche :
≤ GX’g(1)
Au passage à la limite quand n tend vers + : E(X) ≤ GX’g(1)
Donc E(X) = GX’g(1)
f. D’après la formule de transfert, GX’’g(1) = E(X(X-1)) et par linéarité de l’espérance et la formule de Huygens :
V(X) = GX’’g(1) + GX’g(1) – GX’g(1)²
k-1
g.
n
Si X ↪ B(n,p) alors GX(t) = (pt+q) avec q = 1-p et on retrouve E(X) = np, V(X) = npq

Si X ↪ U⟦1,n⟧ alors GX(t) =
de même GX’’g(1) =
Si X ↪ P() alors GX(t) = e
b.
=
= E(X)
= V(X)
avec q = 1-p et GX’(1) = = E(X) , GX’’g(1) =
(t-1)
a.
, GX’(1) =
donc GX’’g(1) + GX’g(1) – GX’g(1)² =
Si X ↪ G(p) alors GX(t) =
16-
k-1
on retrouve V(X) =
et on retrouve E(X) = V(X) = 
Des urnes de Polya
Une urne contient au départ a boules noires et b boules blanches.
On effectue une suite de tirages qui consiste à tirer une boule de l’urne, à regarder sa couleur, et à la remettre dans
l’urne en ajoutant une boule de la même couleur avant le tirage suivant. On cherche à déterminer l’évolution de la
ème
proportion de boules noires dans l’urne. On note Xn le nombre de noires à l’issue du n tirage. On pose X0 = a.
On suppose a = b = 1.
- Quelle est la loi de X1 ? Démontrer que X2 et X3 suivent des lois uniformes sur {1, 2, 3} et {1, 2, 3, 4} .
- Démontrer par récurrence que Xn suit une loi uniforme sur {1, 2, ..., n + 1} .
ème
- On note An l’événement « tirer une boule noire lors du n tirage »
A l’aide de la loi de Xn, déterminer la probabilité de l’événement An+1. Quelles sont vos remarques ?
ème
On suppose a et b quelconques. On note Bn l’événement « tirer une boule blanche lors du n tirage ».
- Démonter que P (A1  ...  Ak  Bk+1  ...  Bn) =
- En déduire que : P[ Xn = a + k ] =
c.
A l’aide de la formule des probabilités totales, on démontrerait que P (Bn+1) =
ème
ème
Notons Bk : « tirer une blanche au k tirage » et Nk : « tirer une noire au k tirage »
a. a=b=1
X1() = { 1,2} et [X1 = 1] = B1 et [X1=2] = N1 donc X1 ↪ U⟦1,2⟧
X2() = {1,2,3} , [X2=1] = B1  B2 et P[X2=1] = P(B1) PB1(B2) = , P[X2=2] =P(B1)PB1(N2) + P(N1) PN1(B2) =
, P[X2=3] = P(N1N2) =
X3() = { 1,2,3,4} et [X3=1] = B1 B2B3 et par la formule des probabilités composées : P[X3=1] =
De même on trouve X3 ↪ U⟦1,4⟧.
ème
ème
Soit n  IN*. Supposons que Xn ↪ ⟦ 1 , n+1⟧ . Entre le n tirage et le (n+1) tirage, le nombre de noires dans l’urne peut rester le
même ou augmenter d’une unité.
Donc P[Xn+1=k] = P[Xn=k] P[Xn=k][Xn+1=k ] + P[Xn=k-1] P[Xn=k-1][Xn+1=k] = P[Xn=k] P[Xn=k][Bn+1] + P[Xn=k-1] P[Xn=k-1][N,n+1)
ème
Avant le (n+1) tirage , le nombre de boules dans l’urne est (n+2) et Xn est le nombre de noires, donc :
P[Xn+1=k] =
=
car Xn ↪ ⟦1,n+1⟧ donc Xn+1 ↪ U ⟦1,n+2⟧
D’après la formule des probabilités totales : P(Nn+1) = P(An+1) =
A chaque tirage, on a autant de chance de tirer une blanche qu’une noire. Ce résultat est logique car les boules blanches et noires
jouent le même rôle lorsque a = b .
b. a,b  IN. On applique la formule des probabilités composées et on obtient l’égalité cherchée.
[Xn = a+k] est la réunion de
événements 2 à 2 incompatibles de même probabilité que P(A1  ... Ak  Bk+1  ...  Bn)
Il s’agit en effet de choisir les k rangs d’obtention d’une boule noire parmi les n tirages.
D’où l’égalité cherchée.
17-
Vous êtes avide, et vos parents sont radins. Pour éviter des
Vous
querelles, il est conseillé d’apprendre le théorème du minimax
pair
impair
Parents
(hors programme) illustré ci-dessous : l’argent que vos parents
vous donnent chaque semaine est tiré au sort ; vous choisissez un
entier, indépendamment vos parents font de même, et votre gain
pair
50
10
est donné par le tableau ci-contre.
Par exemple, vous gagnez 10 Euros si votre choix est un entier
impair et celui de vos parents un entier pair.
impair
0
30
Vous décidez de choisir pair avec une probabilité p (et vos parents
avec une probabilité q inconnue de vous).
- Déterminer votre espérance de gain E(G) en fonction de p et q.q étant fixé, montrer que les points (p, E(G)) décrivent
une droite, et que ces droites dépendent de q mais ont toutes un point en commun.
q décrivant 0,1 , hachurer la partie du plan que décrivent les points (p, E(G)).
Montrer qu’il existe un et un seul choix de p réalisant
- L’intérêt de vos parents est de choisir q réalisant


p  q

max min E (G) .


min max E (G) . Que doit valoir q ?
q  p

- Vos frères et sœurs sont des espions sans cœur ; ils révèlent à vos parents la valeur de p que vous avez choisie ; cette
traîtrise peut-elle vous nuire ?
C’est le théorème du minimax.
G() = { 0,10,30,50 }
P(G=0) = p (1-q) , p(G=10) = q (1-p) , P(G=30) = (1-p) (1-q) et P(G=50) = pq
G() est fini donc G a une espérance et E(G) = 30 + 70 pq – 20 q – 30 p
On fixe q , la fonction fq : p  E(G) = ( 70 q – 30 ) p + (30 – 20 q ) est affine et est représentée par une droite qui passe par le point de
coordonnées (
)
On fixe p, la fonction gp : q  E(G) = 10 q (7p-2) + 30 (1-p) passe aussi par le point de coordonnées (
Si p <
alors gp est décroissante et 40p + 10 ≤ E(G) ≤ 30(1-p)
si p >
alors gp est croissante et 30(1-p) ≤ E(G) ≤ 40p + 10
Donc
)

et
=
De même,
=
=

atteint uniquement pour p =
atteint uniquement pour q =
Si les parents connaissent la valeur de p :
Si p = , E(G) =
pour tout q
Si p <
, q  E(G) décroît donc les parents prendront q = 1 et E(G) = 40p+10 ≤
Si p >
, q  E(G) croît donc les parents prendront q = 0 et E(G) = 30 (1-p) ≤
Donc cette traitrise ne vous nuira pas si vous choisissez p =
Pour en savoir plus ( théorème du minimax) :
E(G) = (p,q) correspond à une fonction g de deux variables (p,q).
Si  admet un point critique ( ici pour p = et q = ) qui annule les dérivées partielles alors mini-max = maxi-min
S’il n’y a pas de point critique, maxi-min < mini-max
Téléchargement