Oral 2015 Probabilités 1 1. On lance un dé non pipé

publicité
Oral 2015 Probabilités 1
1. On lance un dé non pipé autant de fois que nécessaire pour obtenir un 6.
Quelle est la loi du nombre N de lancers nécessaires ? Quel est le nombre
moyen de lancers nécessaires (c’est-à-dire l’espérance de N ) ?
2. On lance un dé non pipé autant de fois que nécessaire pour obtenir successivement un 1 au 2n + 1-ième lancer puis un 6 au 2n + 2-ième lancer
(pour un certain n ∈ N∗ ). Quel est le nombre moyen de lancers nécessaires ?
3. Soit Y une variable aléatoire à valeurs dans N. Montrer :
E(Y ) =
+∞
X
P(Y ≥ n)
n=1
4. On lance un dé non pipé autant de fois que nécessaire pour obtenir successivement un 1 puis un 6, puis on s’arrête. On note X 1 , X 2 , . . . les variables aléatoires modélisant les résultats des lancers. On note T le nombre
de lancers effectués.
(a) Montrer que T est d’espérance finie.
(b) On note, si t ∈ N∗ , x(t ) = P(T ≥ t ) et y(t ) = P X 1 =1 (T ≥ t ). Trouver des
réels a, b, c, d tels que
(
x(t ) = ax(t − 1) + b y(t )
∀t ≥ 3
y(t ) = c x(t − 2) + d y(t − 1)
En déduire E(T ).
5. Quel est le nombre moyen de lancers nécessaires pour obtenir successivement deux 3 ?
1. On sait (cours, savoir le redémontrer) que N suit une loi géométrique G (1/6).
Donc son espérance est (cours, savoir le redémontrer. . .) 6.
2. On regroupe les lancers par deux : la probabilité d’obtenir (6, 6) aux lancers
(2k + 1, 2k + 2) (k ≥ 0) est 1/36. On a donc encore affaire à une variable géométrique de paramètre 1/36. Il faudra en moyenne 36 ”couples de lancers” pour
obtenir un (1, 6). Donc 72 lancers.
3. Un grand classique. . .Partons de la sigma-additivité :
P(Y ≥ n) =
+∞
X
k=n
P(Y = k) =
+∞
X
k=1
u n,k
où l’on note u n,k = 0 si k < n, u n,k = P(Y = k) si k ≥ n (on restreint (k, n) à
N∗ × N∗ ). Alors X
(i) pour tout n, u n,k converge, et sa somme vaut P(Y ≥ n).
k
X
(ii) pour tout k, u n,k converge, et sa somme vaut kP(Y = k).
n
La caractérisation de la sommabilité par paquets (familles positives) montre
alors le résultat.
4. Le calcul du 2. montre que T est presque sûrement finie, et que son espérance est finie (inférieure à 72). De plus, si t ≥ 3,
P(T ≥ t ) = P(X 1 = 1)P X 1 =1 (T ≥ t ) + P(X 1 6= 1)P X 1 6=1 (T ≥ t ) relation qui s’interprète comme
1
5
x(t ) = x(t − 1) + y(t )
6
6
et de même
P X 1 =1 (T ≥ t ) = P(X 2 = 1)P(X 1 =1,X 2 =1) (T ≥ t ) + P(X 2 6∈ {1, 6})P(X 1 =1,X 2 6∈{1,6}) (T ≥ t )
s’interprète comme
1
2
y(t ) = y(t − 1) + x(t − 2)
6
3
Les familles x et y sont sommables ; on somme donc, on obtient
E(T ) − 1 − 1 =
et
+∞
X
t =3
y(t ) =
X
5
1 +∞
y(t )
(E (T ) − 1) +
6
6 t =3
X
1
2
1 +∞
y(t ) + y(2) + E(T )
6 t =3
6
3
Mais y(2) = 1, on obtient donc l’équation
¶
µ
5
5 1 1 2
E(T ) − 2 = E(T ) − +
+ E(T )
6
6 5 6 3
et finalement E(T ) = 36.
5. On reprend les calculs précédents, en changeant les notations : on note, si
t ∈ N∗ , x(t ) = P(T ≥ t ) et y(t ) = P X 1 =3 (T ≥ t ). La relation
5
1
x(t ) = x(t − 1) + y(t )
6
6
reste vraie, mais on a cette fois
5
y(t ) = x(t − 2)
6
(avec toujours t ≥ 3). Les calculs, analogues mais plus faciles, donnent E(T ) =
42.
2
Oral 2015 Probabilités 2
1. On effectue des lancers successifs d’un dé (non pipé). On note b n la probabilité pour que les lancers n −1 et n donnent successivement un 1 puis
un 6. On note a n la probabilité pour que les lancers n − 1 et n soient les
premiers lancers où l’on obtient successivement un 1 puis un 6. Définir
b 0 , a 1 , b 1 pour que
n
X
bn =
a k b n−k
k=1
En utilisant les séries a n x et b n x n , en déduire l’espérance du nombre
de lancers nécessaires pour obtenir successivement un 1 puis un 6.
P
n
P
2. Quelle est l’espérance nombre de lancers nécessaires pour obtenir successivement deux 3 ?
Soit n = 2 ; on a alors a n = b n (la valeur commune étant 1/36), on prendra donc
b 0 = 1. Si n = 3, on a aussi a n = b n , donc pour avoir
b3 = a1 b2 + a2 b1 + a3 b0
avec b 0 = 1, on prendra a 1 = b 1 = 0. On note alors B n l’événement « les lancers
n−1 et n donnent successivement 1 puis 6 » et A n l’événement « les lancers n−1
et n sont les premiers qui donnent successivement 1 puis 6 ». Alors, par formule
des probabilités totales (on a clairement B n ⊂ A 2 ∪ A 3 . . . ∪ A n et la réunion est
disjointe),
n
X
P(A k )P A k (B n )
P(B n ) =
k=2
or, par indépendance (implicitement supposée) des lancers, P A k (B n ) = b n−k
(k ≤ n), d’où
n
n
X
X
bn =
a k b n−k =
a k b n−k
k=2
k=0
en posant de plus a 0 = 0.
Mais attention, la formule est fausse pour n = 0 : b 0 6= a 0 b 0 ; elle est en revanche
vraie pour n = 1 (0 = 0). Par produit de Cauchy, on a donc
Ã
! Ã
!Ã
!
+∞
+∞
+∞
X
X
X
k
k
k
bk x − 1 =
bk x
ak x
k=0
k=0
Mais dès lors que n ≥ 2, b n =
+∞
X
k=0
k=0
1
. Donc
36
ak x k =
x2
x 2 + 36 × (1 − x)
L’espérance cherchée est la dérivée de cette expression en 1. La dérivée vaut
2x(x 2 + 36(1 − x)) − x 2 (2x − 36)
(x 2 + 36(1 − x))2
ce qui, pour x = 1, donne la valeur 36.
Pour deux 3 consécutifs, le même genre de considérations fonctionne, mais on
prend b 0 = 1 et b 1 = 1/6, a 0 = a 1 = 0 (on commence par explorer : b 2 = a 2 , b 3 =
a 2 × 1/6 + a 3 , b 4 = a 4 + a 3 /6 + a 2 b 2 . . . ). On obtient
1 x2
+∞
X
36 1 − x
an x n =
1 x2
x
n=0
+1+
36 1 − x
6
Et la dérivée en 1 vaut 42.
4
Oral 2015 Probabilités 3
Soit n ≥ 2 et (Uk )k≥1 une suite de variables aléatoires indépendantes et de loi
uniforme sur l’ensemble {1, . . . , n}. Ces variables modélisent, par exemple, les
résultats successifs d’un tirage au hasard et avec remise d’une boule parmi n
boules numérotées de 1 à n. Pour tout m ≥ 1 et i ∈ {1, . . . , n} on note
X i(m) = Card ({k ∈ {1, . . . , m} ; Uk = i }) =
m
X
1{Uk =i }
k=1
le nombre d’occurrences de la boule i obtenues dans les m premiers tirages.
1. Quelle est la loi de X i(m) pour i ∈ {1, . . . , n} et m ≥ 1 fixés ?
2. Soit m ≥ 1 et i , j ∈ {1, . . . , n} fixés, i 6= j . Calculer la covariance des variables aléatoires X i(m) et X j(m) . Sont-elles indépendantes ?
3. On suppose désormais qu’on effectue au total un nombre aléatoire N de
tirages successifs avec remise, où N suit une loi de Poisson de paramètre
λ > 0 et est indépendante de (Uk )k≥1 . On pose
Yi = X i(N )
∀i ∈ {1, . . . , n}
avec par convention X i(0) = 0. Déterminer, en fonction de λ et de n, la loi
de Yi pour tout i ∈ {1, . . . , n}.
4. Déterminer la loi conjointe de (Y1 , . . . , Yn )
La loi de X i(m) est une loi B(m, 1/n).
Calculons
³
Ã
´
E X i(m) X j(m) = E
=
!
X
(k,`)∈‚1,mƒ2
X
(k,`)∈‚1,mƒ2
=
X
1{Uk =i } 1{U` = j }
¡
¢
E 1{Uk =i }∩{U` = j }
¡
¢
P {Uk = i } ∩ {U` = j }
(k,`)∈‚1,mƒ2
=
X
(k,`)∈‚1,mƒ2 ,k6=`
= (m 2 − m) ×
Mais E(X i(m) )E(X j(m) ) =
³ m ´2
n
P(Uk = i )P(U` = j )
1
n2
. On en déduit
Cov(X i(m) , X j(n) ) = −
m
n2
et les variables aléatoires X i(m) et X j(m) ne sont pas indépendantes, ce dont on
pouvait se douter.
Question classique : on commence par dire que les Yi sont à valeurs dans N.
Puis on calcule, pour tout k,
P(Yi = k) =
=
+∞
X
n=0
+∞
X
P(N = n)P(N =n) (Yi = k)
P(N = n)P(N =n) (Yi = k)
n=k
et on aboutit avec une sommation assez simple. On peut aussi calculer la fonction génératrice de Yi : si |x| ≤ 1,
Ã
!
+∞
X +∞
X
g Yi (t ) =
P(N = j )P(N = j ) (Yi = p) x p
p=0 j =0
la validité de cette écriture assure la sommabilité de la famille (car il s’agit de
réels positifs), ce qui permet d’obtenir
Ã
!
+∞
+∞
X
X
(j)
g Yi (t ) =
P(N = j )
P(X i = p)x p
p=0
j =0
et, comme on connaît la fonction génératrice d’une loi binomiale, on obtient
¶
µ
λ
g Yi (x) = exp (x − 1)
n
donc Yi suit une loi de Poisson de paramètre λ/n.
Le nombre de réunions disjointes
‚1, k 1 + . . . + k n ƒ = A 1 ∪ · · · ∪ A n
où chaque A i est de cardinal k i est
(k 1 + . . . + k n )!
k1 ! . . . kn !
6
(récurrence sur n) ; on en déduit
P(Y1 = k 1 , . . . , Yn = k n ) = P(Y1 = k 1 , . . . , Yn = k n , N = k 1 + . . . + k n )
= P(N = n)P(N =n) (Y1 = k 1 , . . . , Yn = k n )
µ ¶
e −λ
(k 1 + . . . + k n )! 1 k1 +...+kn
λk1 +...+kn ×
(k 1 + . . . + k n )!
k1 ! . . . kn !
n
µ
¶
λ
µ ¶k
n exp −
Y
n λ j
=
kj!
n
j =1
=
Il se trouve donc que les Y j sont indépendantes.
7
Oral 2015 Probabilités 4
Soit X 1 , X 2 deux variables aléatoires discrètes centrées admettant des moments
d’ordre 2.
1. Montrer que
|Cov(X 1 , X 2 )| ≤
1
(Var(X 1 ) + Var(X 2 ))
2
2. Déterminer les cas d’égalité dans l’inégalité précédente.
3. On note
µ
Var(X 1 )
Cov(X 1 , X 2 )
Σ=
Cov(X 1 , X 2 )
Var(X 2 )
¶
Montrer qu’il existe θ ∈ R et α ≥ β ≥ 0 tels que
α 0
R(−θ) Σ R(θ) =
0 β
µ
où
cos θ − sin θ
R(θ) =
sin θ cos θ
µ
¶
¶
Donner une condition nécessaire et suffisante sur X 1 et X 2 pour que
β > 0.
4. On suppose la condition précédente réalisée. Exprimer Cov(X 1 , X 2 ) en
fonction de α, β, θ puis montrer que
|Cov(X 1 , X 2 )| ≤
avec c =
1−c
(Var(X 1 ) + Var(X 2 ))
2
2β
∈]0, 1].
α+β
1. On peut partir de (X 1 − X 2 )2 ≥ 0, puis utiliser linéarité et positivité de l’espérance pour conclure que
|Cov(X 1 , X 2 )| ≤
1
(Var(X 1 ) + Var(X 2 ))
2
(ne pas oublier que les variables sont centrées). Ensuite, on remplace X 1 par
−X 1 , on obtient ce qu’on veut.
2. D’après le calcul précédent, sachant qu’une variable a une espérance nulle
si et seulement si elle est nulle presque sûrement, les cas d’égalité sont X 1 = X 2
p.s. et X 1 = −X 2 p.s.
3. Une matrice symétrique est diagonalisable en base orthonormale. Quitte à
changer le premier vecteur d’une telle base en son opposé, on peut supposer
que cette base est orthonormale directe, i.e. que la matrice de passage est une
matrice de rotation. De plus ici les valeurs propres sont positives, car on est en
dimension 2 et le déterminant et la trace de la matrice de départ sont positives.
β est nul si et seulement si le déterminant est nul, i.e.
(Cov(X 1 , X 2 ))2 = Var(X 1 )Var(X 2 )
cas d’égalité dans l’inégalité de Cauchy-Schwarz : cette égalité est vérifiée si et
seulement si X 2 = 0 ou il existe λ tel que X 1 = λX 2 presque sûrement. Donc la
cns demandée peut s’exprimer sous la forme « (X 1 , X 2 ) libre ».
4. Du calcul. . .
Cov(X 1 , X 2 ) = (α − β) cos θ sin θ
Et, par la trace :
α−β
1−c
=
. On doit donc montrer
Var(X 1 ) + Var(X 2 ) = α + β. Or
2
2(α + β)
α−β
1
|α − β|| sin(2θ)| ≤
2
2
9
Oral 2015 Probabilités 5
Soit n ≥ 2. On considère une file d’attente avec un guichet et n clients qui attendent. Chaque minute, le guichet se libère. Le guichetier choisit alors le client
qu’il appelle selon le processus suivant :
– Avec probabilité 1/2, il appelle le client en première position dans la file.
– Sinon, il choisit de manière équiprobable parmi les clients aux positions 2, . . . , n.
Enfin, un nouveau client arrive dans la file et se place en dernière position (de
telle sorte qu’il y a toujours exactement n clients qui attendent).
1. Quelle est la loi du temps d’attente pour un client qui se trouve en première position ? (on conviendra que si ce client est appelé en premier, son
temps d’attente est 1 minute). Donner son espérance et sa variance.
2. Pour tout k ∈ ‚1, nƒ, on note Tk,n le temps d’attente d’un client qui se
trouve initialement en position k dans la file. Montrer que Tk,n a une espérance et une variance finies.
3. Trouver une relation entre E(Tk,n ) et E(Tk−1,n ) pour tout k ≥ 2. En déduire
la valeur de E(Tk,n ) en fonction de n et k.
4. Peut-on procéder de même pour calculer V(Tk,n ) en fonction de n et k ?
Oral 2015 Probabilités 6 - v1
Soit n, K des entiers ≥ 1 et X 0 , . . . , X n des variables aléatoires indépendantes et
de même loi uniforme sur {1, 2, . . . , K }.
1. Soit S ⊂ {1, . . . , K }. Donner la valeur de P(X 0 ∈ S) en fonction de Card(S).
2. Soit z ∈ {1, . . . , K }. Calculer P(X 1 6= z, . . . , X n 6= z).
3. Calculer P(X 0 6∈ {X 1 , . . . , X n }) de deux manières différentes et en déduire
une expression de E [Card{X 1 , . . . , X n }]
4. Donner un équivalent de E [Card{X 1 , . . . , X n }] lorsque
(i) K est fixe et n → +∞,
(ii) n est fixe et K → +∞,
(iii) n = K → +∞
Oral 2015 Probabilités 6 - v2
Soit n, K des entiers ≥ 1 et X 0 , . . . , X n des variables aléatoires indépendantes et
de même loi uniforme sur {1, 2, . . . , K }.
1. En calculant P(X 0 6∈ {X 1 , . . . , X n }) de deux manières différentes, trouver
une expression de E [Card{X 1 , . . . , X n }]
2. Donner un équivalent de E [Card{X 1 , . . . , X n }] lorsque
(i) K est fixe et n → +∞,
(ii) n est fixe et K → +∞,
(iii) n = K → +∞
Première manière, en utilisant les probabilités totales et un conditionnement
par la valeur de X 0 :
K
X
P(X 0 6∈ {X 1 , . . . , X n }) =
P(X 0 = k)P (X 1 6= k, . . . , X n 6= k)
k=1
= (1 −
1 n
)
K
Deuxième manière, en conditionnant par les valeurs prises par X 1 , . . . , X n :
X
P (X 0 6∈ {X 1 , . . . , X n }) =
P ({X 1 , . . . , X n } = A) P(X 0 6∈ A)
A⊂‚1,K ƒ
=
min(n,K
X )
k=1
=
min(n,K
X )
!
Ã
X
õ
k=1
=
µµ
min(n,K
X )
k=1
P ({X 1 , . . . , X n } = A) P(X 0 6∈ A)
A⊂‚1,K ƒ,Card(A)=k
k
1−
K
!
¶
X
P ({X 1 , . . . , X n } = A)
A⊂‚1,K ƒ,Card(A)=k
¶
¶
k
1−
P(Card(X 1 , . . . , X n } = k)
K
En égalant ces deux expressions, on obtient
(1 −
1
1 n
) = 1 − E[Card({X 1 , . . . , X n })]
K
K
et donc le résultat :
µ
1
E[Card({X 1 , . . . , X n })] = K 1 − (1 − )n
K
¶
Quand K est fixe et n → +∞, un équivalent est K .
Quand n est fixe et K tend vers +∞, un équivalent est n.
Quand n = K tend vers +∞, un équivalent est n(1 − 1/e).
Les deux premiers résultats sont assez naturels.
13
Oral 2015 Probabilités 7
1. Soit (X , Y ) un couple de variables aléatoires à valeurs dans N2 , et A ⊂ N.
Montrer que
|P(X ∈ A) − P(Y ∈ A)| ≤ P(X 6= Y )
2. Si p est un réel dans [0, 1], construire un couple (X , Y ) de variables aléatoires, à valeurs dans N×{0, 1}, tel que les lois marginales de X et Y soient
respectivement une loi de Poisson P (p) et une loi de Bernoulli B(p), et
tel que
P ((X , Y ) = (1, 0)) = 0
et ∀k ≥ 2
P ((X , Y ) = (k, 1)) = 0
Montrer qu’on a alors P(X 6= Y ) ≤ 2p 2 .
3. On considère une famille finie de variables aléatoires mutuellement indépendantes, suivant chacune une loi de Poisson. Que peut-on dire de la
somme de ces variables ?
4. En utilisant tout ce qui précède,
¶ montrer que si une variable aléatoire X
µ
λ
et si une variable aléatoire Y suit une loi
suit une loi binomiale B n,
n
de Poisson P (λ) (λ > 0), alors, pour toute partie A ⊂ N,
2λ2
|P(X ∈ A) − P(Y ∈ A)| ≤
n
Puis que
+∞
X
k=0
|P(X = k) − P(Y = k)| ≤
4λ2
n
Oral 2015 Probabilités 8
On dit qu’une loi de probabilité L sur N est infiniment divisible lorsque, pour
toute variable aléatoire X de loi L , pour tout n ≥ 1, il existe des variables aléatoires Y1 , . . . , Yn , indépendantes et équidistribuées (i.e. de même loi), à valeurs
dans N, telles que X ait même loi que Y1 + . . . + Yn .
1. Soit λ > 0 ; la loi de Poisson P (λ) est-elle infiniment divisible ?
2. Soit p ∈]0, 1[, m ≥ 1 ; la loi binomiale B(m, p) est-elle infiniment divisible ?
3. Soit X est une variable aléatoire à valeurs dans N. On suppose que X + 1
suit une loi géométrique G (p) (0 < p < 1). Montrer que la loi de X est
infiniment divisible.
4. La loi G (p) (0 < p < 1) est-elle infiniment divisible ?
5. On dit qu’une loi L sur N est infiniment divisible au sens large lorsque,
pour toute variable aléatoire X de loi L , pour tout n ≥ 1, il existe des
variables aléatoires discrètes Y1 , . . . , Yn , indépendantes et équidistribuées
(i.e. de même loi), pas nécessairement à valeurs dans N, telles que
X = Y1 + . . . + Yn .
Les lois G (p) et B(m, p) sont-elles infiniment divisibles au sens large ?
1.Soit X suivant une loi de Poisson P (λ). Il est classique (avec les fonctions
génératrices par exemple) de montrer que si X et Y suivent des lois de Poisson
de paramètres respectifs α et β, et sont indépendantes, X + Y suit une loi de
Poisson de paramètre α + β. Par récurrence sur n, si les Yi sont mutuellement
indépendantes et suivent chacune une loi de Poisson P (λ/n), Y1 + . . . + Yn suit
une loi de Poisson de paramètre λ. La loi de Poisson P (λ) est donc infiniment
divisible.
2. Si n > m, si les Yi sont indépendantes et équidistribuées à valeurs dans N,
de deux choses l’une : ou presque sûrement Y1 = 0, donc presque sûrement
Y1 + . . . + Yn = 0. Ou il existe n 0 ≥ 1 tel que P(Y1 = n 0 ) > 0. Mais alors P(Y1 + . . . +
Yn = nn 0 ) > 0. Or nn 0 > m, la loi de Y1 + . . . + Yn ne peut donc pas être une loi
binomiale B(n, p).
3. Calculons la fonction génératrice de X : si |z| ≤ 1,
g X (z) =
+∞
X
k=0
(1 − p)k pz k =
p
1 − (1 − p)z
Si la fonction définie sur [−1, 1] par
¡
¢−1/n
h : t 7→ p 1/n 1 − (1 − p)t
est loi fonction génératrice d’une loi de probabilité sur N, on conclut. Or, sur
] − 1, 1[,
¶ µ
¶
µ ¶µ
1
1 1
+
1
.
.
.
+
k
−
1
+∞
X n n
n
(1 − x)−1/n = 1 +
xk
k!
k=1
On parvient donc à écrire
h(t ) =
+∞
X
ak t k
k=0
où les a k sont positifs de somme 1 (car h(1) = 1). Donc h est la fonction génératrice d’une loi de probabilité, si les Yi (1 ≤ i ≤ n) sont indépendantes et
suivent cette loi, alors leur somme suit une loi qui est celle de X . D’où l’infinie
divisibilité.
Supposons que X suive une loi G (p). Soit Y1 , Y2 deux variables aléatoires à valeurs dans N. Si P(Y1 = 0) > 0, alors P(Y1 +Y2 = 0) > 0, et Y1 +Y2 ne peut pas suivre
une loi géométrique. Si P(Y1 = 0) = 0, alors Y1 + Y2 ≥ 2 p.s., et Y1 + Y2 ne suit pas
une loi géométrique. . .La loi G (p) n’est donc même pas 2 fois divisible. . .
La loi G (p) est infiniment divisible au sens large ; en effet, si X suit une loi G (p),
pour tout n ≥ 1 il existe Y1 , . . . , Yn indépendantes équidistribuées telles que Y1 +
. . . + Yn ait même loi que X + 1. Mais alors X a même loi que (Y1 − 1/n) + . . . +
(Yn − 1/n), et ces Yi − 1/n ont même loi et sont indépendantes.
En revanche, élargir le sens ne rend pas la loi binomiale infiniment divisible : si
Y1 n’est pas presque sûrement constante, elle prend au moins deux valeurs a et
b avec une probabilité non nulle. Les valeurs distinctes na, (n − 1)a + b,. . .,nb
sont prises chacune avec une probabilité non nulle par Y1 + . . . + Yn , cela fait
trop de valeurs pour une loi binomiale si n est grand.
16
Oral 2015 Probabilités 9 Version 1
Soit (X n )n≥1 une suite de variables aléatoires mutuellement indépendantes, à
valeurs dans N, de même loi. On suppose qu’il existe n 0 tel que P(X 1 > n 0 ) = 0.
Soit N une variable aléatoire indépendante des X n (n ∈ N), suivant une loi de
Poisson P (λ). On définit enfin, pour tout i ∈ ‚0, n 0 ƒ, la variable aléatoire
Ni = Card ({k ∈ ‚1, N ƒ ; X k = i })
On note enfin
SN = X1 + . . . + XN
1. Déterminer la loi de Ni .
n0
X
2. Que vaut
Ni ?
i =0
3. Montrer que les Ni (0 ≤ i ≤ n 0 ) sont indépendantes.
n0
X
4. Montrer que S N =
i Ni .
i =0
Oral 2015 Probabilités 9 Version 2
Soit (X n )n≥1 une suite de variables aléatoires mutuellement indépendantes, à
valeurs dans N, de même loi. Soit N une variable aléatoire indépendante des
X n (n ∈ N), suivant une loi de Poisson P (λ) (λ ≥ 0). On note enfin
SN = X1 + . . . + XN
Déterminer une suite (Ni )i ∈N de variables aléatoires mutuellement indépendantes, vérifiant
(i) pour tout i , il existe λi ≥ 0 tel que Ni ∼ P (λi ).
+∞
X
(ii)
Ni = N
i =0
+∞
X
(iii)
i =0
i Ni = S N
Vérifier la conformité avec les différents programmes. Posable en mp.
Oral 2015 Probabilités 1*
On considère deux variables aléatoires indépendantes X 1 et X 2 , suivant chacune une loi de Poisson de paramètre λ1 et λ2 respectivement.
1. Déterminer la loi de X 1 + X 2 .
2. Pour n ∈ N, déterminer la loi conditionnelle de X 1 sachant X 1 + X 2 = n
19
Oral 2015 Probabilités 10
Deux chaînes de production A et B sont à l’œuvre dans une usine : A produit
60% de la production, B le reste. La probabilité qu’un objet provenant de A soit
défectueux est de 0, 1 et de 0, 2 pour B .
1. On choisit au hasard un objet à la sortie de l’entreprise, on constate qu’il est
défectueux. Calculer la probabilité de « l’objet vient de la chaîne A »
2. Pourquoi peut-on interpréter la loi de Poisson comme « la loi des événements
rares » ?
On suppose de plus que A produit une quantité aléatoire Y A d’objets par heure,
suivant une loi de Poisson de paramètre λ = 20. Déterminer la loi de X A , nombre
d’objets défectueux produits en une heure par la chaîne A.
4. On prend maintenant en compte les deux chaînes, donner la loi du nombre
d’objets défectueux produits en une heure.
1. C’est typiquement une application de la formule de Bayes, ou probabilité
des causes. En effet, on tire au hasard un objet à la sortie de l’usine, on note E
l’événement « l’objet vient de la chaîne A », et on note F l’événement « l’objet
est défectueux ». On connaît P(E ), P(E ), PE (F ), PE (F ). On cherche PF (E ). On
retrouve la formule de Bayes à partir de la double formule :
P(E ∩ F ) = P(E )PE (F )
P(E ∩ F ) = P(F )PF (E )
d’où (toutes les probabilités étant non nulles)
PF (E ) =
P(E )PE (F )
P(E )PE (F )
=
P(F )
P(E )PE (F ) + P(E )PE (F )
Et donc
PF (E ) =
3
0, 6 × 0, 1
= ≈ 0, 428
0, 6 × 0, 1 + 0, 4 × 0, 2 7
2. D’après le cours, si, pour tout n, X n suit une loi B(n, p n ), si np n −−−−−→ λ,
n→+∞
alors, pour tout k ∈ N,
λk
n→+∞
k!
Dans une modélisation classique, X n est somme de n variables aléatoires indépendantes de même loi B(1, p n ). Pour que l’approximation de la loi de X n
par une loi de Poisson soit valable, il faut que n soit « grand », donc que p n soit
« petit » (λ est fixé), ce qui justifie le terme d’événement « rare ».
P(X n = k) −−−−−→ e −λ
20
3. Soit n un entier naturel. Comme d’habitude, le calcul commence par les probabilités totales :
P(X A = n) =
+∞
X
P(Y A = k)P(Y A =k) (X A = n)
k=0
Or, sachant Y A = k, le nombre d’objets défectueux produits par la chaîne A suit
une loi B(0, 1, k). Donc
à !
+∞
X −λ λk k
(0, 1)n (0, 9)k−n
P(X A = n) =
e
k! n
k=n
et on trouve en calculant la somme que X A suit une loi de Poisson de paramètre
(0, 1) × λ.
4. On prend maintenant en compte les deux chaînes, donner la loi du nombre
d’objets défectueux produits en une heure.
Le nombre d’objets moyens produits par heure dans la chaîne A est λ = 20.
Donc le nombre moyen d’objets produits par la chaîne B (toujours par heure)
est µ = 40/3. Il est cohérent avec la question précédente de faire l’hypothèse
que le nombre d’objets produits en une heure par la chaîne B suit une loi de
Poisson de paramètre µ (le paramètre d’une loi de Poisson est égal à son espérance). Le nombre d’objets défectueux produits en une heure par la chaîne B
suit alors une loi de Poisson de paramètre 0, 2 × µ. On fait l’hypothèse que les
deux chaînes fonctionnent indépendamment l’une de l’autre. Une somme de
deux variables indépendantes suivant des lois de Poisson suit elle-même une
loi de Poisson (classique, se fait par exemple très agréablement avec les fonctions génératrices). Donc le nombre total d’objets défectueux produits en une
heure suit une loi de Poisson de paramètre 0, 1 × λ + 0, 2 × µ = 14/3.
21
Téléchargement