t - Probas IUT BTS Cours et exercices corrigés

publicité
Probabilités. Chapitre 13.
Les lois bêta et gamma.
I La fonction gamma.
1 Les factorielles.
La suite des factorielles est ainsi définie par récurrence :
0! = 1 ; (∀n∈IN) (n + 1)! = n!(n + 1).
2 La fonction gamma d’Euler. (Leonhard Euler, 1727-1783, Bâle, Suisse)
Définition :
(∀x > 0) Γ(x) =
∫
+∞
0
e −t .t x −1.dt .
Convergence :
a) Au voisinage de 0.
Puisque lim e − t = 1, l’intégrale
t→0
∫
a
0
e −t .t x −1.dt (a > 0) converge si, et seulement si, l’intégrale
∫
a
0
t x −1.dt
a
 tx 
ax
converge. Or ∫ t .dt =   = .
0
x
 x 0
b) Au voisinage de +∞.
a
x −1
−t
Puisque lim e 2 . t x −1 = 0, il existe un réel b strictement positif tel que :
t →+∞
−t
2
(∀t > b) 0 < e . t x −1 < 1.
+∞
−t
Ce réel b est tel que 0 < ∫ e .t
b
x −1
.dt <
∫
+∞
b
+∞
−b
 −2t 
e .dt = -2 e  = 2e 2 .
 b
−t
2
3 Le lien entre la fonction gamma et les factorielles.
Γ(1) = 1 = 0! ; Γ(x + 1) = x.Γ(x).
On obtient la deuxième égalité en intégrant par parties. On déduit :
(∀n∈N) Γ(n + 1) = n!.
4 Un cas particulier.
Γ(1/2) =
On le vérifie par le changement de variable u =
π.
t.
___________________________
Probabilités Chapitre 13 Page 1
5 La courbe représentative.
Echelle : pour une graduation, 1 unité en abscisse, 10 unités en ordonnée.
Echelle : pour une graduation, 0,5 unité en abscisse, 0,5 unité en ordonnée.
___________________________
Probabilités Chapitre 13 Page 2
II Les lois gamma.
1 La densité de probabilité.
On a besoin de deux paramètres strictement positifs pour définir une loi gamma :
un paramètre de forme α et un paramètre d’échelle λ.
La densité de probabilité est ainsi définie :
f(x) = 0 si x ≤ 0 ; f(x) =
1
λα.e-λx.xα-1 si x > 0.
Γ(α )
α=0,5
λ=1
α=1
α=2
α=3
α=4
Echelle :
une graduation pour une unité en abscisse ; une graduation pour 0,2 unité en ordonnée.
Le changement de variable y = λx permet de vérifier que l’intégrale sur R+ de cette densité de probabilité
est égale à 1.
2 La fonction génératrice des moments.
Une variable aléatoire X obéit à la loi gamma de paramètres α et λ si, et seulement si, sa fonction
génératrice des moments est ainsi définie :
α
 λ 
MX(t) = 
.
 λ − t 
La démonstration est directe. On déduit l’espérance mathématique et la variance :
E(X) = α/λ ; V(X) = α/λ2.
___________________________
Probabilités Chapitre 13 Page 3
On déduit aussi le résultat suivant :
Si X1, X2, ..., Xn sont n variables aléatoires indépendantes obéissant à des lois gamma de même paramètre
d’échelle λ et de paramètres de forme respectifs α1, α2, ..., αn, alors leur somme obéit à la loi gamma de
paramètre d’échelle λ et de paramètre de forme α1 + α2 + ... + αn.
3 Quelques cas particuliers.
a) Les distributions exponentielles.
La distribution gamma de paramètre de forme α = 1 et de paramètre d’échelle λ est
la distribution exponentielle E (λ).
b) Les distributions d’Erlang.
Si X1, X2, ..., Xn sont n variables aléatoires, indépendantes, de même distribution exponentielle E (λ),
alors, par définition, leur somme obéit à la distribution d’Erlang de paramètres n et λ. La densité de
probabilité est :
f(x) = 0 si x ≤ 0 ; f(x) = λn
x n−1 -λx
e si x > 0.
( n − 1)!
c) Les distributions du Khi2.
Si X est une variable normale centrée réduite, alors la densité de probabilité de son carré est la fonction
nulle sur R- et ainsi définie sur R+* :
dx
1
f(x).dx = p[x ≤ X2 ≤ x+dx] = 2p[ x ≤ X ≤ x +
]=
e–x/2 dx.
2 x
2πx
Si X est normale centrée réduite alors X2 obéit à la loi gamma de paramètres α = 1/2 et λ = 1/2.
Si X1, X2, ..., Xn sont n variables aléatoires, indépendantes, de même distribution normale, centrée,
réduite, alors, par définition, la somme de leurs carrés obéit à la distribution du Khi2 à n degrés de liberté.
On déduit :
La distribution du Khi2 à n degrés de liberté est
la distribution gamma de paramètres α = n/2 et λ = 1/2.
L’espérance mathématique est n. La variance est 2n.
___________________________
Probabilités Chapitre 13 Page 4
III La fonction bêta.
Dans ce paragraphe, α et β désignent deux réels strictement positifs.
1. Définition.
B (α, β) =
1
∫x
( α−1)
0
(1 − x )(β−1) dx .
2. Propriétés.
B (α, β) = B (β, α) =
Γ( α)Γ(β)
.
Γ ( α + β)
Démonstration.
Γ(α)Γ(β) =
∫
+∞
0
e −x x ( α−1)dx
∫
+∞
0
e − y y(β−1)dy =
∫∫
 x >0
 y>0

e − ( x + y ) x ( α−1) y (β−1)dxdy
x

z =
x + y , c’est à dire
On effectue le changement de variables : 
t = x + y

∂x
Le jacobien de (x, y) en fonction de (z, t) est : ∂z
∂y
∂z
x = zt
.

 y = (1 − z) t
∂x
z
∂t = t
= t. D’où le calcul :
∂y
− t 1− z
∂t
+∞
1
0
0
Γ(α)Γ(β) = ∫∫0<z ≤1 e − t (zt ) ( α −1) ((1 − z) t ) (β−1) t.dz.dt = ∫ t ( α +β−1) e − t dt × ∫ z ( α −1) (1 − z) (β−1) dz = Γ(α+β).B(α, β).
 t >0

IV La loi de probabilité bêta.
Dans ce paragraphe, α et β désignent deux réels strictement positifs.
1. La densité de probabilité.
a) La densité de probabilité bêta de paramètres α et β .
Elle est ainsi définie :
1
f(x) =
x(α-1).(1 – x)(β – 1) si 0 < x < 1 ; f(x) = 0 sinon.
B(α, β)
Remarque.
Si X obéit à la loi bêta de paramètres α et β alors 1 – X obéit à la loi bêta de paramètres β et α.
b) L’espérance mathématique.
Si X est une variable aléatoire distribuée selon la loi de probabilité bêta de paramètres α et β alors :
E(X) =
En effet E(X) =
1
∫
0
α
.
α+β
α
1
B(α + 1, β)
Γ( α + 1)Γ(β) Γ(α + β)
x α (1 − x )(β−1) dx =
=
=
.
B(α, β)
Γ(α + β + 1) Γ( α)Γ(β)
α+β
B(α, β)
___________________________
Probabilités Chapitre 13 Page 5
c) La variance.
Si X est une variable aléatoire distribuée selon la loi de probabilité bêta de paramètres α et β alors :
V(X) =
En effet,
E(X2) =
1
∫
0
αβ
.
( α + β) ( α + β + 1)
2
1
Γ( α + 2)Γ(β) Γ(α + β)
α(α + 1)
B( α + 2, β)
x ( α+1) (1 − x )(β−1) dx =
=
=
.
B(α, β)
B(α, β)
Γ( α + β + 2) Γ( α)Γ(β)
( α + β)( α + β + 1)
2. L’exemple de référence.
On suppose que X et Y sont deux variables aléatoires indépendantes obéissant à des lois gamma de même
paramètre d’échelle λ. On désigne par α le paramètre de forme de X et par β celui de Y.
X
On désigne par Z la variable aléatoire
et par T la variable aléatoire X + Y.
X+Y
En effectuant le changement de variables (voir le chapitre 9 et aussi le calcul mené plus haut en III 2.) qui
consiste à passer du couple (X, Y) au couple (Z, T) on constate le résultat suivant :
X
sont indépendantes ;
X+Y
X + Y obéit à la loi gamma de paramètre de forme α + β et de paramètre d’échelle λ (on le savait) ;
X
obéit à la loi bêta de paramètres α et β.
X+Y
X + Y et
3. Un autre exemple.
On s’intéresse à une succession d’épreuves de Bernoulli, identiques, indépendantes. On ignore leur
probabilité commune de succès X. On la considère donc comme une variable aléatoire uniforme sur
[0 ; 1]. On s’efforce d’obtenir n succès (n > 0). On y parvient après n + m épreuves exactement (m > 0).
On se demande quelle est la densité de probabilité conditionnelle f de X, sachant que le nombre N de
succès après n + m épreuves a été de n. La réponse est fournie par les égalités suivantes ( 0 < x < 1 ) :
P ( x < X < x + dx / N = n) =
=
P( x < X < x + dx ∧ N = n )
P( N = n )
P( N = n / x < X < x + dx ) P( x < X < x + dx )
C n x n (1 − x ) m dx
= n+m
= f(x) dx
P( N = n )
P( N = n )
1
La contrainte ∫ f ( x )dx = 1 impose P (N = n) = C nn + m B (n+1, m+1) ( =
0
f(x) =
1
) . D’où :
n + m +1
1
xn (1 – x)m si 0 < x < 1 ; f(x) = 0 sinon.
B( n + 1, m + 1)
Conclusion : L (X / N = n + m) = Bêta (n + 1 ; m + 1)
___________________________
Probabilités Chapitre 13 Page 6
V Les lois de probabilités de Fisher-Snedecor et de Student.
1. Les lois de Fisher-Snedecor.
Par définition, un quotient de moyennes de carrés de variables aléatoires normales, centrées, réduites,
indépendantes obéit à une loi de Fisher-Snedecor.
Hypothèses.
X ∼ χ 2 (n) ; Y ∼ χ 2 (k) ; X, Y indépendantes ; Z =
X/n
.
Y/k
Définition.
Z obéit à la loi de Fisher-Snedecor de paramètres n et k.
Notation.
Z ∼ F (n, k).
Densité de probabilité.
n
n
n
−1
( )2
z2
k
fZ(z) =
si z > 0 ; fZ(z) = 0 sinon.
n+k
n k
B( , ) (1 + n z ) 2
2 2
k
Démonstration.
X
X+Y
X
X
k
T
U
On pose T =
et U = . Alors Z = U, U =
=
et T =
.
X+Y
Y
n
Y
1–T
1+U
X+Y
Pour z > 0, u > 0 et t ∈]0, 1[, les formules de changements de variables (voir le chapitre 9) conduisent aux
égalités :
n
n 2
n
n
−1
−1
( )
2
u2
z
1
1
n
k
f (t) =
et fZ(z) = fU(u) =
.
fU(u) =
n+k
n+k
(1 + u)2 T
n k
k
n
k
n
B( ; ) (1 + u ) 2
B( , ) (1 + z ) 2
2 2
2 2
k
Espérance mathématique, variance.
Si k > 2 alors E(Z) =
k
k2
n+k−2
; si k > 4 alors V(Z) = 2
.
k−2
n ( k − 2) 2 ( k − 4)
Démonstration.
Pour se ramener à une densité bêta, on pose t =
Alors z =
nz
x
=
.
x+ y
k + nz
k t
k dt
; dz =
2.
n1-t
n (1 – t)
___________________________
Probabilités Chapitre 13 Page 7
n/ 2
 t 


+∞
1
1
1
k
k dt
1− t 

E(Z) = ∫ zf Z ( z )dz =
=
(n + k)/2
2
∫
0
0
B(n/2, k/2)  1 
B(n/2, k/2) n
n (1 − t )


 1− t 
k B(n/2 + 1, k/2 − 1)
k Γ(n / 2 + 1).Γ(k / 2 − 1)
k
E(Z) =
=
=
.
n
B(n/2, k/2)
n
Γ(n / 2).Γ(k / 2)
k−2
1
∫t
0
n/2
(1 − t ) k/2-2 dt ;
k2
n+2
 k  Γ(n / 2 + 2).Γ(k / 2 − 2)
De même, E(Z ) =  
=
.
Γ(n / 2).Γ(k / 2)
n (k − 2)(k − 4)
n
2
2
2. Les lois de Student.
Hypothèses.
X ∼ N (0, 1) ; Y ∼ χ 2 (n) ; X, Y indépendantes ; T =
X
.
(Y/n )
Définition.
T obéit à la loi de Student à n degrés de liberté.
Notation.
T ∼ T (n).
Densité de probabilité.
fT(t) =
1
.
n B(1 / 2, n / 2)(1 + t 2 / n ) ( n +1) / 2
Démonstration.
fT est paire puisque T et –T sont identiquement distribuées.
Soit U = T2. U ∼ F (1, n). Soit t > 0 et u = t2.
FT(t) = P(T ≤ t) = 1/2 + P(0 ≤ T ≤ t) = 1/2 (1 + P(-t < T < t)) = 1/2 (1 + P(U ≤ u)) = 1/2 (1 + FU(u)).
1
D’où : fT(t) = 1/2 fU(u) × 2t = t ×fU(u) =
.
n B(1 / 2, n / 2)(1 + t 2 / n ) ( n +1) / 2
Remarque 1.
1
Pour n = 1, fT(t) =
. On retrouve la loi de Cauchy (voir Chap. 9 exercice 13).
π(1 + t 2 )
Cette loi de Cauchy est encore la loi du quotient de deux variables normales centrées réduites
indépendantes.
Pour n = 1, T ne possède pas d’espérance mathématique (et donc pas de variance).
Remarque 2.
2
On peut vérifier, en prenant le logarithme, que : lim (1 + t2/n)(n+1)/2 = et / 2 .
n → +∞
Il en résulte la convergence en loi, pour n tendant vers plus l’infini, de la loi de Student à n degrés de
liberté vers la loi normale centrée réduite.
Espérance mathématique.
Si n ≥ 2 alors E(T) = 0
Démonstration.
fT est paire et l’intégrale donnant l’espérance mathématique converge.
___________________________
Probabilités Chapitre 13 Page 8
Variance.
Si n ≥ 3 alors V(T) =
n
.
n−2
Démonstration.
T2 ∼ F (1, n).
_________________________________
Exercices.
1. Donner la valeur exacte de Γ(5/2).
Donner la densité de probabilité pour une loi de Khi2 à 5 degrés de liberté.
Donner la fonction génératrice des moments relative à cette même loi.
2. Calculer le rapport
Γ (6) − Γ (5, 5)
Γ (5, 5) − Γ (5)
.
3. x est un réel. X est une variable aléatoire absolument continue de densité de probabilité f, d’espérance mathématique E(X) et
de variance Var(X).MX est la fonction génératrice des moments de X.
3.1. Déterminer Γ(x), Γ(6) et Γ(7/2).
3.2. Déterminer f(x), E(X), Var(X) et MX(t) dans chacun des cas suivants :
a) X obéit à la loi gamma de paramètres α (α > 0) et λ (λ > 0).
b) X obéit à la loi d’Erlang de paramètres 5 et 3.
c) X obéit à la loi Khi2(7).
4. X est une variable aléatoire absolument continue de densité de probabilité f, d’espérance mathématique E(X), de variance
V(X) et de fonction génératrice des moments M. Sa loi de probabilité est χ2(6).
4.1. Donner Γ(3), E(X), V(X), M(t) et f(x).
4.2. Donner les paramètres de l’unique loi d’Erlang identique à la loi χ2(6).
5. X est une variable aléatoire obéissant à la loi gamma de paramètre de forme 1 et de paramètre d’échelle 1. Calculer la
probabilité P(X ≤ 1).
6. X est une variable aléatoire obéissant à une loi gamma de paramètre de forme α (α>0)
et de paramètre d’échelle 1/2.
6.1. On suppose dans cette question seulement : α = 4.
a) Calculer Γ(α).
b) Donner la densité de probabilité de X.
c) Donner un autre nom de la loi de probabilité de X.
Décomposer X à l’aide de variables exponentielles de paramètre 1/2.
6.2. On suppose dans cette question seulement : α = 4,5.
a) Calculer Γ(α).
b) Donner la densité de probabilité de X.
c) Donner un autre nom de la loi de probabilité de X.
Décomposer X à l’aide de variables normales centrées réduites.
7. 1. Calculer chacun des nombres suivants : Γ(1) ; Γ(6) ; Γ(1/2) ; Γ(3/2) ; Γ(5/2) ; Γ(7/2).
7.2. Donner une fonction densité de probabilité convenable pour chacune des distributions suivantes :
E (1/4) ; Erlang (6 ; 1/4) ; χ2(1) ; χ2(7) ; gamma (5/2 ; 1/4).
7.3. Pour chacune des distributions précédentes, donner l’espérance mathématique et la variance.
8. X et Y sont deux variables aléatoires normales, centrées, réduites, indépendantes.
Calculer la probabilité suivante : P(X2 + Y2 ≤ 2).
9. U et V sont deux variables aléatoires normales centrées réduites indépendantes.
X = U2, Y = V2, Z = X + Y.
X, Y, Z ont pour densités de probabilités respectives fX, fY, fZ.
X, Y, Z ont pour fonctions génératrices des moments respectives MX, MY, MZ.
1
f est la fonction ainsi définie : f(t) =
.
1 − 2t
9.1. Calculer f ′(0), f ″(0), f ″(0) - [f ′(0)]2.
9.2. Donner fX(x), fY(y), fZ(z) (x, y, z réels).
___________________________
Probabilités Chapitre 13 Page 9
9.3. Donner MX (t), MY (t), MZ (t) (t réel).
9.4. Donner l’espérance mathématique et la variance de chacune des variables aléatoires X, Y, Z.
z
9.5. z est un réel strictement positif. Sachant que fZ(z)= ∫0 fX(x).fY(z-x).dx, trouver l’intégrale
z
∫0
dx
x (z − x )
.
10. Hypothèses.
X, Y, Z, T sont des variables aléatoires normales, centrées, réduites, indépendantes.
U = X2 + Y2 + Z2 + T2.
R et S sont deux variables aléatoires exponentielles, de même paramètre 1, indépendantes.
2
V = R + S.
Questions.
10.1 Donner la densité de probabilité de U, sa fonction génératrice des moments, son espérance mathématique et sa variance.
10.2 Donner la densité de probabilité de V, sa fonction génératrice des moments, son espérance mathématique et sa variance.
11. T est une variable aléatoire exponentielle de paramètre 1.
2
U est une variable aléatoire normale, centrée, réduite, indépendante de T. X = T + U2.
Donner la densité de probabilité de X, sa fonction génératrice des moments, son espérance mathématique et sa variance.
12. T est une variable aléatoire absolument continue de fonction de répartition F ainsi définie :
t t2 t3
F(t) = 1 – (1 + + + ) e-t/2 si t > 0 ; F(t) = 0 sinon.
2 8 48
12.1. Déterminer une densité de probabilité f de T.
12.2. Reconnaître la loi de probabilité de T (nom et paramètre(s)).
12.3. X1, X2, ..., X8 sont huit variables aléatoires normales, centrées, réduites, indépendantes.
Calculer la probabilité que la somme de leurs carrés soit inférieure à 6.
∫
1
x
2
∫
1
dx .
1− x
14. Trouver la valeur de chacune des intégrales suivantes.
13. Calculer l’intégrale
∫
+∞
0
−t 5
e t dt ;
∫
+∞
0
−t 3
e t
0
tdt ;
15. Calculer l’intégrale :
0
t(1 − t)dt ;
4 ( x + 2) 3
∫
−2
dx
∫
1
0
t(1 − t) tdt ;
∫
1
0
x (1 − x) (1 − x)dx .
3
. On pourra effectuer le changement de variable y =
4− x
1
(x + 2).
6
16. X est une variable aléatoire réelle obéissant à la loi de probabilité bêta de paramètres α et β.
16.1 On suppose dans cette question seulement : α = 1 et β = 1.
Reconnaître (parmi les lois de probabilités étudiées en première année) la loi de probabilité de X.
Tracer l’histogramme de X, c’est à dire la courbe représentative de sa densité de probabilité.
Donner l’espérance mathématique et la variance de X.
16.2 On suppose dans cette question seulement : α = 2 et β = 1.
Donner la densité de probabilité de X. Tracer l’histogramme de X. Donner l’espérance mathématique et la variance de X.
16.3 On suppose dans cette question seulement : α = 1,5 et β = 2.
Donner la densité de probabilité de X, son espérance mathématique et sa variance.
17. X et Y sont deux variables aléatoires exponentielles indépendantes de même paramètre 1. U =
X
X+Y
.
17.1. Déterminer la loi de probabilité de U. Tracer son histogramme.
17.2. Déterminer la probabilité P (X < 2Y).
18. Crapi et Crapo gobent les mouches. La première sera pour Crapi, la deuxième pour Crapo.
Comme chacun sait, l’arrivée des mouches est conforme au modèle aléatoire de Poisson.
Evaluer la probabilité qu’à partir de maintenant la deuxième mouche vive au moins trois fois plus longtemps que la première
mouche.
19. Une entreprise de maçonnerie construit des maisons individuelles selon un modèle de Poisson, à la cadence moyenne d’une
maison par an.
Une maison vient d’être terminée. Les deux prochaines seront construites à Carihaut et les trois suivantes à Caribas.
On désigne par T la variable aléatoire égale à la durée, en années, que prendra la construction des deux maisons de Carihaut.
On désigne par U la variable aléatoire égale à la durée, en années, que prendra la construction des trois maisons de Caribas.
T
T
et Y = .
On pose X =
U
T+U
___________________________
Probabilités Chapitre 13 Page 10
19.1. Prouver que la densité de probabilité f de X est ainsi définie : si 0 < x < 1 alors f(x) = 12x(1 – x)2 ; sinon, f(x) = 0.
19.2. Exprimer la variable aléatoire X en fonction de la variable aléatoire Y.
19.3. Calculer la probabilité que le chantier de Caribas soit plus long que celui de Carihaut
20. Manon et Maxime s’éclairent à la bougie, indépendamment l’un de l’autre.
Ils usent leurs bougies à la même cadence moyenne d’une bougie par mois, selon un même modèle aléatoire de Poisson.
Manon dispose de quatre bougies. Maxime dispose seulement de trois bougies.
On désigne par T la variable aléatoire égale à la durée, en mois, pendant laquelle Manon pourra s’éclairer, grâce à ses quatre
bougies.
On désigne par U la variable aléatoire égale à la durée, en mois, pendant laquelle Maxime pourra s’éclairer, grâce à ses trois
bougies.
T
.
On pose X =
T+U
20.1. Prouver que la densité de probabilité f de X est ainsi définie :
si 0 < x < 1 alors f(x) = 60x3(1 – x)2 ; sinon, f(x) = 0.
20.2. Calculer la probabilité que Manon épuise ses bougies avant Maxime.
21. Dans un phénomène de Poisson, on désigne par Tn le temps d’attente de l’occurrence n° n (n ≥ 1).
On rappelle que Tn obéit à la loi gamma de paramètre de forme n et de paramètre d’échelle égal à la cadence moyenne du
phénomène.
On rappelle aussi que la différence Tn + k – Tn est indépendante de Tn (le futur étant indépendant du passé) et distribuée comme
Tk (le temps étant homogène).
3
Calculer la probabilité P(T3 ≤ T2).
2
22. Hypothèses.
On considère un processus de Poisson.
On numérote selon l’ordre chronologique les occurrences qui vont se produire à partir de maintenant.
On désigne par X le temps d’attente, à partir de maintenant, de l’occurrence N° 1.
On désigne par Y la durée séparant les occurrences N° 1 et N° 2.
On désigne par Z la durée séparant les occurrences N° 2 et N° 3.
On désigne par T le rapport
X
X+Y
et par U le rapport
X+Y
X+Y+Z
.
Questions.
22.1. X, Y, Z sont des variables aléatoires obéissant à une même loi gamma.
a) Expliquer pourquoi X, Y, Z sont indépendantes.
b) Donner leur paramètre de forme commun.
22.2. T et U sont des variables aléatoires obéissant à des lois bêta.
a) Préciser la densité de probabilité de T. Tracer l’histogramme de T.
b) Préciser la densité de probabilité de U. Tracer l’histogramme de U.
22.3. Calculer la probabilité P (X + Y > Z).
23. X et Y sont deux variables aléatoires indépendantes, identiquement distribuées, obéissant à la loi χ2 (2).
X
X
Z= ;T=
; p = P(4X < 3Y).
Y
X+Y
23.1. Donner la densité de probabilité de Z. Déduire p.
23.2. Donner la densité de probabilité de T. Retrouver p.
24. Les occurrences à venir d’un phénomène régi par le modèle de Poisson sont numérotées à partir de 1 selon leur ordre
d’apparition.
On désigne par Tn le temps d’attente de l’occurrence N°n (n ∈ N*). On pose p = P(3T2 < T6).
On rappelle que la densité de probabilité fZ d’une variable aléatoire Z obéissant à la loi de Fisher-Snedecor de paramètres n et k
est ainsi définie :
n
n
n
−1
( )2
2
z
k
fZ(z) =
si z > 0 ; fZ(z) = 0 sinon.
n+k
n k
n
B ( , ) (1 + z ) 2
2 2
k
24.1. Rappeler le nom et les paramètres (en fonction de la cadence moyenne λ) de la loi de probabilité de Tn
(n∈IN*) ; faire de même pour Tn + k – Tn (n ∈ IN*, k ∈ IN*) ; rappeler pourquoi Tn et Tn + k – Tn sont indépendantes.
___________________________
Probabilités Chapitre 13 Page 11
T2
.
T6
a) Donner la densité de probabilité et la fonction de répartition de X.
b) Calculer p.
c) Donner l’espérance mathématique et la variance de X.
2T2
24.3. Soit Y le rapport
.
T6 – T2
a) Donner la densité de probabilité et la fonction de répartition de Y. (Pour déduire la fonction de répartition de la densité de
probabilité, on pourra effectuer le changement de variable t = y + 2.)
b) Retrouver p.
24.2. Soit X le rapport
25. Dans un processus de Poisson, on numérote à partir de 1 les prochaines occurrences.
On désigne par T le temps d’attente de l’occurrence N° 3 et par U la durée séparant les occurrences N°s 3 et 5.
T + U désigne donc le temps d’attente de l’occurrence N° 5.
On désigne par p la probabilité P(T < U).
25.1. Soit X une variable aléatoire obéissant à la loi de probabilité bêta de paramètres 3 et 2.
a) Donner la densité de probabilité de X, son espérance mathématique et sa variance.
b) Donner la fonction de répartition de X et tracer sa courbe représentative (unité : 10 cm sur chaque axe).
c) Calculer la probabilité p et la représenter sur le graphique tracé en b).
25.2. On rappelle que la densité de probabilité fZ d’une variable aléatoire Z obéissant à la loi de Fisher-Snedecor de paramètres
n et k est ainsi définie :
n
n
n
−1
( )2
2
z
k
si z > 0 ; fZ(z) = 0 sinon.
fZ(z) =
n+k
n k
n
B ( , ) (1 + z ) 2
2 2
k
Soit Y une variable aléatoire obéissant à la loi de probabilité de Fisher-Snedecor de paramètres 6 et 4.
a) Donner la densité de probabilité de Y.
b) Exprimer la probabilité p en fonction de Y.
c) Déduire la valeur de l’intégrale
∫
y2
2/3
0
(2 + 3y)5
dy .
26. La file d’attente devant un guichet administratif s’écoule selon un modèle de Poisson.
Aline, Brice et Coralie sont les trois seules personnes à patienter encore. Elles passeront dans cet ordre.
L’objet de l’exercice est le calcul (à ne pas effectuer tout de suite) de la probabilité p qu’à partir de maintenant Coralie
attende au moins deux fois plus longtemps qu’Aline.
On considère que l’unité de temps du modèle de Poisson est choisie de telle sorte que la cadence moyenne soit 1/2.
On désigne par T la variable aléatoire égale au temps d’attente d’Aline à partir de maintenant.
On désigne par U la variable aléatoire égale à la durée qui séparera les passages d’Aline et de Coralie.
26.1. (Lois Gamma)
a) T et U obéissent à des lois gamma. Donner leurs paramètres de formes respectifs.
b) T et U sont-elles indépendantes ? Justifier la réponse.
T
.
T+U
a) Donner la densité de probabilité de X.
c) Calculer p.
26.2. (Loi Bêta) Soit X =
b) Tracer l’histogramme de X.
d) Matérialiser p sur la figure tracée en b).
2T
.
U
On rappelle que si une variable aléatoire Z obéit à la loi de probabilité de Fisher-Snedecor de paramètres n et k alors elle admet
pour densité de probabilité la fonction fZ ainsi définie :
26.3. (Loi de Fisher-Snedecor) Soit Z =
n
n
n
−1
( )2
2
z
k
fZ(z) =
si z > 0 ; fZ(z) = 0 sinon.
n+k
n k
n
2
B( , ) (1 + z )
2 2
k
a) Donner la densité de probabilité de Z.
b) Retrouver p.
___________________________
Probabilités Chapitre 13 Page 12
Réponses.
2.
x x -x/2
e si x > 0 ; 0 sinon
3 2π
π /4
1. Γ(5/2) = 3
Γ (6) − Γ (5, 5)
Γ (5, 5) − Γ (5)
120 −
=
945 π
32
945 π
32
3.1 Γ(x) =
∫
+∞
0
=
− 24
e −t .t x −1.dt
3.2 a) f(x) = 0 si x ≤ 0 ; f(x) =
3840 − 945 π
(1 – 2t)-5/2
≈ 2,3871
945 π − 768
Γ(6) = 5! = 120
1
Γ(7/2) = 15
π /8
λα.e-λx.xα-1 si x > 0 ; E(X) = α/λ ; V(X) = α/λ2 ; MX(t) =
 λ 
 λ − t 
α
Γ(α )
b) f(x) = 0 si x ≤ 0 ; f(x) = (81/8)x4e-3x si x > 0 ; E(X) = 5/3 ; V(X) = 5/9 ; MX(t) = 243/(3 – t)5
c) f(x) = 0 si x ≤ 0 ; f(x) = (1/15
2π )x2 x e-x/2 si x > 0 ; E(X) = 7 ; V(X) = 14 ; MX(t) = (1 – 2t)-7/2
4. χ2(6) = gamma(3, 1/2) = Erlang (3, 1/2). E(X) = 6 ; V(X) = 12. M(t) =
1
(t <1/2).
(1 – 2t)3
e– x/2 x2
si x > 0 ; f(x) = 0 sinon.
16
5. P(X ≤ 1) = 1 – e-1 ≈ 0,6321
Γ(3) = 2 ; f(x) =
−x
x3 2
e ; si x ≤ 0 alors f(x) = 0.
96
c) Distribution d’Erlang de paramètres 4 et 1/2. X est distribuée comme la somme de 4 variables exponentielles indépendantes
de même paramètre 1/2.
2
Autre réponse : χ (8). X est distribuée comme la somme des carrés de 8 variables normales centrées réduites indépendantes.
6.1. a) Γ(4) = 6. b) Si x > 0 alors f(x) =
6.2. a) Γ(9/2) =
c)
105 π
x
. b) Si x > 0 alors f(x) =
16
3
x
−x
e 2 ; si x ≤ 0 alors f(x) = 0.
105 2π
χ (9). X est distribuée comme la somme des carrés de 9 variables normales centrées réduites indépendantes.
2
7.1. Γ(1) = 1 ; Γ(6) = 120 ; Γ(1/2) =
3 π
15 π
π
; Γ(5/2) =
; Γ(7/2) =
.
2
4
8
π ; Γ(3/2) =
7.2. 7.3.
Distribution
Densité de probabilité (t>0)
Espérance
Variance
4
16
24
96
1
2
7
14
10
40
−t
e4
E (1/4)
4
−t
Erlang (6 ; 1/4)
e4t
5
491520
−t
e2
χ (1)
2
2πt
−t
e2t
χ2(7)
2
t
15 2π
−t
gamma (5/2 ; 1/4)
e4t t
24 π
8. X2 + Y2 obéit à la loi χ2 (2) ou gamma (1 ; 1/2) ou E (1/2).
2
1 2 −t / 2
P(X2 + Y2 ≤ 2) =
e dt =  −e− t / 2  = 1 – 1/e ≈ 0,6321
2 0
0
∫
___________________________
Probabilités Chapitre 13 Page 13
9.1. f ′(t) =
2
(1 − 2t)
e
9.2. fX(x) =
; f ″(t) =
2
8
(1 − 2t)
; f ′(0) = 2 ; f ″(0) = 8 ; f ″(0) – [f ′(0)]2 = 4.
3
−x
−y
2
2
2πx
si x > 0 ; fY(y) =
1
9.3. MX (t) =
; MY (t) =
e
−z
2πy
1
si y > 0 ; fZ(z) =
e2
si z > 0.
2
1
; MZ (t) =
.
1 − 2t
1 − 2t
1 − 2t
9.4. E(X) = E(Y) = 1 ; E(Z) = 2 ; Var (X) = Var (Y) = 2 ; Var (Z) = 4.
z
dx
9.5.
= π.
0
x(z − x)
∫
10.U et V obéissent à la même loi gamma (2 ; ½).
Elles ont la même densité de probabilité f ainsi définie : f(u) = (1/4)u.e(-u/2) si u>0 ; f(u) = 0 sinon.
Elles ont la même fonction génératrice des moments (1 – 2t)-2 (t < ½).
Elles ont la même espérance mathématique 4 et la même variance 8.
11. X obéit à la loi gamma de paramètre de forme 3/2 et de paramètre d’échelle ½.
Cette loi est aussi la loi de χ2 ( 3).
−x
Si x > 0, fX(x) =
xe 2
2π
; sinon fX(x) = 0 ; X(t) = (1 – 2t)-3/2 (t < ½) ; E(X) = 3 ; Var(X) = 6.
12.1. f = F′. Si t > 0 alors f(t) = e-t/2 (1/2 + t/4 + t2/16 + t3/96 – 1/2 – t/4 – t2/16) = e-t/2
t3
; sinon f(t) = 0.
96
12.2. T obéit à la loi gamma de paramètre de forme 4 et de paramètre d’échelle 1/2.
La loi de T est aussi la loi de Khy2 à 8 degrés de liberté.
12.3. La somme X12 + X22 + ... + X82 est distribuée comme T.
La probabilité que cette somme soit inférieure à 6 est F(6) = 1 – (1 + 3 + 9/2 + 9/2) e-3 = 1 – 13e-3 ≈ 0,3528.
13. B(3 ; ½) = 16/15.
14.
∫
1
∫
1
+∞
0
e− t t 5dt = Γ(6) = 5 ! = 120 ;
∫
+∞
0
e − t t 3 tdt = Γ(9/2) =
Γ( 3 ) × Γ( 3 ) π
3 3
2
2 = ;
t(1 − t)dt = B( ; ) =
2 2
8
Γ (3)
0
0
∫
x (1 − x) (1 − x)dx = B(4 ; 5/2) =
3
4
15.
∫
−2
(x + 2)
3
4−x
1
dx =
∫
0
(6y)
3
6 − 6y
1
6dy = 216 6
∫
0
;
16
Γ ( 5 ) × Γ (2)
4
2
t(1 − t) tdt = B(5/2 ; 2) =
=
;
0
35
Γ( 9 )
2
∫
Γ (4).Γ (5 / 2)
Γ (13 / 2)
105 π
1
=
y
32
.
1155
3
1− y
dy = 216
6 B(4, 1/2) = 216
1
Γ(4) Γ( )
2
6
9
Γ( )
2
6912 6
3!
=
≈ 483,74.
105
35
.
16
16.1. X est uniforme sur [0 ; 1] ; E(X) = 0,5 ; Var (X) = 1/12.
16.2. fX(x) = 2x si 0 < x < 1 ; fX(x) = 0 sinon ; E(X) = 2/3 ; Var (X) = 1/18.
15
16.3. fX(x) =
x (1 – x) si 0 < x < 1 ; fX(x) = 0 sinon ; E(X) = 3/7 ; Var (X) = 8/147.
4
17. U obéit à la loi uniforme sur [0 ; 1]. P (X < 2Y) = P (3X < 2(X + Y)) = P (U < 2/3) = 2/3.
= 216
6
18. Soit T le temps d’attente de l’arrivée de la première mouche et soit U le temps d’attente entre l’arrivée de la première
mouche et l’arrivée de la deuxième mouche. T et U sont deux variables aléatoires indépendantes qui obéissent à une même loi
gamma de paramètre de forme 1.
T
Soit X =
. X obéit à la loi bêta (1, 1), c’est à dire à la loi uniforme sur [0, 1].
T+U
P (3T ≤ T + U) = P (X ≤ 1/3) = 1/3.
___________________________
Probabilités Chapitre 13 Page 14
19.1. L (T) = Erlang (2 ; 1) = gamma (2 ;1) ; L (U) = Erlang (3 ; 1) = gamma (3 ;1) ;
T et U sont indépendantes ; L (X) = bêta (2 ; 3) ;
Γ(5)
x(1 – x)2 = 12x(1 – x)2 ; sinon fX(x) = 0.
si 0 < x < 1 alors fX(x) =
Γ(2).Γ(3)
Y
19.2. X =
.
Y+1
19.3. P(Y < 1) = P(X < 0,5) =
∫
1/ 2
0
12x(1 − x) 2 dx =
∫
1/ 2
0
1/ 2
12(x 3 − 2x 2 + x)dx = 3x 4 − 8x 3 + 6x 2 
0
P(Y < 1) = 3/16 – 1 + 3/2 = 11/16 = 0,6875.
20.1. L (T) = Erlang (4 ; 1) = gamma (4 ;1) ; L (U) = Erlang (3 ; 1) = gamma (3 ;1) ;
T et U sont indépendantes ; L (X) = bêta (4 ; 3) ;
Γ(7)
si 0 < x < 1 alors fX(x) =
x3(1 – x)2 = 60x3(1 – x)2 ; sinon fX(x) = 0.
Γ(4).Γ(3)
20.2. P(T < U) = P(2T < T + U) = P(X < 1/2) ;
P(T < U) =
∫
1/ 2
0
60x 3 (1 − x) 2 dx = ∫
1/ 2
0
60(x 5 − 2x 3 + x 2 )dx = 10x 6 − 24x 5 + 15x 4 
1/ 2
0
= 11/32 = 0,34375.
3
3
T2
2
T ) = P(T2 + (T3 – T2) ≤ T2) = P(
≥ ).
2 2
2
T2 + (T3 – T2) 3
T2
Soit T =
. T obéit à la loi bêta (2 ; 1). Sa densité de probabilité est ainsi définie :
T2 + (T3 – T2)
1
t
2
4 5
fT(t) =
= 2t (0 < t < 1). P(T ≥ ) =
2tdt = 1 – = .
2/3
B(2; 1)
3
9 9
21. P(T3 ≤
∫
22.1. a) X, Y, Z sont indépendantes parce que, dans un processus de Poisson, les temps d’attente successifs sont indépendants.
b) X, Y, Z sont des variables exponentielles donc des variables gamma de paramètre de forme 1.
22.2. a) T obéit à la loi bêta de paramètres 1 et 1. Sa densité de probabilité fT est ainsi définie :
fT(t) =
0!0!
1
Γ(1)Γ(1)
t1-1(1 – t)1-1 si 0 < t < 1 ; fT(t) = 0 sinon ; B(1, 1) =
=
=1;
B(1,1)
Γ ( 2)
1!
donc : fT(t) = 1 si 0 < t < 1 ; fT(t) = 0 sinon ; T est uniforme sur [0 ; 1].
1
0 Sa densité
1 de probabilité fU est ainsi définie :
b) U obéit à la loi bêta de paramètres 2 et 1.
fU(u) =
Γ (2)Γ(1) 1!0! 1
1
u2-1(1 – u)1-1 si 0 < u < 1 ; fU(u) = 0 sinon ; B(2, 1) =
=
=
;
Γ (3)
B(2,1)
2!
2
donc : fU(u) = 2u si 0 < u < 1 ; fU(u) = 0 sinon.
2
22.3. P (X + Y > Z) = P (2(X + Y) > X + Y + Z) = P (U >
∫
3/ 4
∫
1
1/ 2
1 3
=
4
.
1
si z > 0 ; fZ(z) = 0 sinon ;
(1 + z)2
23.1. Z ∼ F (2, 2) ; fZ(z) =
3
p = P(Z < ) =
4
[ ]
1
0
1
) = 2u.du = u 2
1/ 2
2
dz
=1-
1
3
= .
1+3/4 7
(1 + z)
23.2. T ∼ bêta (1, 1) ; fT(t) = 1 si 0 < t <1 ; fTt) = 0 sinon ;
3
p = P(7X < 3(X + Y)) = P(T < 3/7) = .
7
0
2
___________________________
Probabilités Chapitre 13 Page 15
24.1. Tn obéit à la loi d’Erlang de paramètres n et λ, qui est aussi la loi gamma de paramètre de forme n et de paramètre
d’échelle λ. Si λ = 1/2, c’est aussi la loi de χ2 (2n).
Tn + k – Tn est distribuée comme Tk. Elle obéit à la loi d’Erlang de paramètres k et λ, qui est aussi la loi gamma de paramètre de
forme k et de paramètre d’échelle λ. Si λ = 1/2, c’est aussi la loi de χ2 (2k).
Le futur de l’occurrence N°n étant indépendant de son passé, Tn et Tn + k – Tn sont indépendantes.
24.2. a) X obéit à la loi bêta de paramètres 2 et 4. fX(x) = 20x(1 – x)3 si 0 < x < 1 ; fX(x) = 0 sinon.
FX(x) = 0 si x ≤ 0 ; FX(x) = 10 x2 – 20 x3 + 15x4 – 4 x5 si 0 < x < 1 ; FX(x) = 1 si x ≥ 1.
1 131
b) p = FX( ) =
≈ 0,5391.
3 243
c) E(X) = 1/3 ; V(X) = 2/63.
24.3. a) Le rapport étant indépendant de l’échelle, Y obéit à la loi de Fisher-Snedecor de paramètres 4 et 8.
320y
si y > 0 ; fY(y) = 0 sinon.
fY(y) =
(y + 2)6
80
128
FY(y) = 1 –
+
si y > 0 ; FY(y) = 0 sinon.
(y + 2)4 (y + 2)5
b) p = FY(1) = 131/243.
25.1. a) fX(x) = 12 (x2 – x3) si 0 < x < 1 ; fX(x) = 0 sinon ; E(X) = 3/5 ; V(X) = 1/25.
b) FX(x) = 0 si x ≤ 0 ; FX(x) = 4x3 – 3x4 si 0 < x < 1 ; FX(x) = 1 si x ≥ 1.
c) p = P(T < U) = P(2T < T + U) = P(
25.2. a) fY(y) =
1
5
T
< 1) = FX( ) =
= 0,3125.
T+U 2
2 16
1296 y2
si y > 0 ; fY(y) = 0 sinon.
(2 + 3y)5
T
2T 2
2
b) p = P(T < U) = P( < 1) = P( < ) = P(Y < ) = 1296
U
3U 3
3
c)
∫
2/3
0
y2
(2 + 3y)5
dy =
∫
2/3
0
y
2
(2 + 3y)
5
dy .
5
5
=
≈ 0,000241.
16 ×1296 20736
26.1. a) T a pour paramètre de forme 1 ; U a pour paramètre de forme 2.
b) T et U sont indépendantes parce que le futur du passage d’Aline et le passé du passage d’Aline sont indépendants.
1
26.2. a) X obéit à la loi bêta de paramètres 1 et 2. Si 0 < x < 1 alors fX(x) =
(1 – x) = 2 (1 – x) ;
B(1,2)
sinon fX(x) = 0.
___________________________
Probabilités Chapitre 13 Page 16
b) d) Histogramme de X et matérialisation de p :
y
2
x
O
c) p = P (T + U ≥ 2T) = P (X ≤ 1/2) =
∫
1/ 2
0
2(1 − x)dx =  −(1 − x) 2 
1
1/ 2
0
=1 – 1/4 = 3/4 .
2
26.3. a) T obéit à une loi de Khy à 2 degrés de liberté ; U obéit à une loi de Khy2 à 4 degrés de liberté ;
T et U sont indépendantes ; Z = (T/2) / (U/4) ;
Z obéit donc à une loi de Fisher-Snedecor de paramètres 2 et 4.
1
2
8
1
Si z > 0 alors fZ(z) =
×
=
; sinon fZ(z) = 0.
B(1,2)
z3
(2 + z)3
(1 + )
2
b) p = P (T + U ≥ 2T) = P(U ≥ T) = P (2U ≥ 2T) = P(Z ≤ 2) =
∫
2
0
2
 −4 
dz = 
= -1/4 + 1 = 3/4 .
2 
3
(2 + z)
 (2 + z)  0
8
___________________________
Probabilités Chapitre 13 Page 17
Dérivation de la fonction Γ.
Soit γ(x, t) = e-ttx – 1 (x > 0 ; t > 0). γ est indéfiniment dérivable par rapport à x.
∂γ
∂ 2γ
∂3γ
2
(x, t) = (ln t)3γ(x, t) ; etc.
(x, t) = ln t.γ(x, t) ;
(x,
t)
=
(ln
t)
γ(x,
t)
;
∂x
∂x 2
∂x 3
x
Soit h un réel non nul de [- , 1].
2
∂γ
h 2 ∂ 2γ
(x, t) +
(x + k(x, t)h, t) avec k(x, t) réel de ]0 , 1[.
γ(x + h, t) = γ(x, t) + h
∂x
2 ∂x 2
+∞
+∞
+ ∞ ∂γ
Puisque chacune des intégrales ∫ γ ( x + h, t )dt , ∫ γ ( x, t )dt et ∫
( x , t )dt converge, l’intégrale
0
0
0 ∂x
2
+∞ ∂ γ
∫0 ∂x 2 (x + k (x, t )h, t )dt converge également.
∂ 2γ
est positive. Elle est décroissante en x si t < 1 ; elle est croissante en x si t > 1.
∂x 2
Γ( x + h ) − Γ( x ) +∞ ∂γ
( x , t )dt
−∫
0 ∂x
h
h +∞ ∂ 2 γ
=
( x + k ( x , t )h , t )dt
2 ∫0 ∂x 2
h 1 ∂2γ
h +∞ ∂ 2 γ
=
(
x
+
k
(
x
,
t
)
h
,
t
)
dt
+
( x + k ( x , t )h , t )dt
2 ∫0 ∂x 2
2 ∫1 ∂x 2
h 1 ∂ 2γ x
h +∞ ∂ 2 γ
≤
(
,
t
)
dt
+
( x + 1, t )dt .
2 ∫0 ∂x 2 2
2 ∫1 ∂x 2
On fait tendre h vers 0 :
∫
Γ′(x) =
+∞
0
∂γ
( x , t )dt =
∂x
∫
+∞
0
lnt.e-t t x −1dt .
On montre de même que, plus généralement :
Γ(n)(x) =
∫
+∞
0
∂n γ
( x , t )dt =
∂x n
∫
+∞
0
(lnt)n .e-t t x −1dt .
Remarque.
Γ′′ étant strictement positive, Γ′ est strictement croissante. Elle s’annule entre 1 et 2 puisque Γ(1) = Γ(2).
On peut vérifier que Γ prend son minimum au voisinage de 1,46 163 et que ce minimum est voisin de 0,8
856 031 944.
___________________________
Probabilités Chapitre 13 Page 18
lim
x → +∞
Γ( x + 1 / 2)
= 1.
x Γ( x )
Démonstration.
Γ ( x + 1 / 2)
Soit f(x) =
. Montrons :
x Γ( x )
f(x) ≤ 1.
x Γ(x) - Γ(x + 1/2) =
∫
+∞
0
( x − t ).t x −1.e − t dt ;
x−t
( x + t )2
x−t
=
; donc x - t ≥
;
2 x
2 x
2 x
+∞ x − t
1
(xΓ(x) - Γ(x + 1)) = 0.
x Γ(x) - Γ(x + 1/2) ≥ ∫
.t x −1.e −t dt =
0 2 x
2 x
x -
t -
x +1/ 2
Γ( x + 1)
Γ ( x + 1 / 2)
×
×
= f(x) × f(x + 1/2) ×
x
( x + 1 / 2)Γ( x + 1 / 2)
x Γ( x )
1
1
f(x) × f(x + 1/2) =
;
≤ f(x) ≤ 1. On fait tendre vers + ∞.
1 + 1 / 2x
1 + 1 / 2x
Remarque.
La convergence, pour n tendant vers + ∞, de la loi F (n) vers la loi N (0, 1) suppose :
1
1
lim
=
.
n → +∞
n B(1 / 2; n / 2)
2π
1
Γ ( n / 2 + 1 / 2)
f ( n / 2)
C’est bien le cas :
=
=
.
n B(1 / 2; n / 2)
n Γ(n / 2)Γ(1 / 2)
2π
1=
Γ( x + 1)
=
xΓ ( x )
x +1/ 2
;
x
___________________________
Probabilités Chapitre 13 Page 19
Téléchargement