Corrigé Séance 8 : Variables aléatoires continues

publicité
Math-F-105
Séance 8
Corrigé Séance 8 : Variables aléatoires continues
Exercice 8.1
Considérons la figure suivante
11
12
3
4
1
2
1
4
1
2
3
On remarque que cette fonction est continue partout sauf aux points {1, 2, 3} où elle est continue à droite
mais pas à gauche. Rappelons la notation
f (a− ) =
lim
x→a,x<a
f (x).
1. De façon générale, P (X = i) = P (X ≤ i) − P (X < i) = F (i) − F (i− ) pour i =1, 2 et 3. Ceci nous
donne donc
1 1
1
11 3
1
11
1
− = , P (X = 2) =
− = , P (X = 3) = 1 −
= .
2 4
4
12 4
6
12
12
On remarque que les trois points 1, 2 et 3 possèdent des probabilités positives ; on en déduit donc
que la loi décrite par la fonction de répartition F (·) n’est pas une loi absolument continue, car
sinon tout point aurait à lui-même une probabilité nulle. Or, on n’a visiblement pas non plus une
loi discrète (pourquoi ?) ; il s’ensuit que la loi donnée par F (·) est une loi mixte, c’est-à-dire une loi
continue presque partout, sauf en un nombre fini de points qu’on appelle alors “atomes”.
P (X = 1) =
2. Pour calculer cette quantité il suffit de remarquer que
−
1
3
3
1
3
1
5 1
1
P
<X<
=P X<
−P X ≤
=F
= − = .
−F
2
2
2
2
2
2
8 8
2
De manière générale, on vous demande de prouver (exercice facile) que pour toute variable aléatoire X
de fonction de répartition F X (·) et pour tout a ≤ b, on a
P (a ≤ X ≤ b) = F X (b) − F X (a− ).
Exercice 8.2
Notons d la distance entre le point d’impact de la fléchette et le centre de la cible, et X la variable
aléatoire représentant le gain du joueur. Il est clair que X prend ses valeurs dans {0} ∪ [20, 50]. Comme
à l’exercice précédent, X suit donc une loi mixte, qui est continue partout sauf en son unique atome (≡
point ayant une probabilité non nulle) qui est 0. On obtient comme fonction de répartition :

0
x<0




0
≤ x < 20
 1−p
X
2
2
F (x) =
1 − p + p 30 −(50−x)
20 ≤ x < 50


302



1
50 ≤ x.
Titulaire: F.T. Bruss
Assistant: G. Van Bever
Math-F-105
Séance 8
L’espérance est donnée par (pour rappel, on intègre xfX (x), où fX (x) est la fonction de densité de X,
c’est-à-dire la dérivée de FX (x))
Z 50
(100 − 2x)
p
2 3 50
2
xp
E(X) = 0 × (1 − p) +
dx =
(50x − x ) = 30p,
900
900
3
20
20
et la variance par
Var(X) = E(X 2 ) − ((E(X))2 = 950p − 900p2 = 50p(19 − 18p).
Exercice 8.3
La densité de probabilité d’une loi uniforme doit être nulle en dehors de l’intervalle [a, b] et constante sur
cet intervalle ; elle s’écrit donc f (x) = c 1{x∈[a,b]} . Pour trouver la constante c, il suffit de remarquer que
l’intégrale de toute densité de probabilité doit valoir 1. En effet, l’intégrale de la fonction de densité n’est
1
rien d’autre que la limx→∞ FX (x) = P [X < ∞] = 1. Dès lors, il est clair que c = b−a
, ce qui donne donc
f (x) =
1
1
.
b − a {x∈[a,b]}
La fonction de répartition en un point x s’obtient simplement en intégrant la densité de probabilité entre
−∞ et x. Il s’ensuit que

x<a
 0
x−a
a≤x<b
F (x) =
 b−a
1
b ≤ x.
Des calculs faciles livrent
E(X) =
b+a
(b − a)2
, Var(X) =
,
2
12
et
M (t) =
etb − eta
.
t(b − a)
Exercice 8.4
Cet exercice peut se résoudre de deux manières, l’une compliquée et l’autre intuitive. La manière compliquée sera esquissée lors des séances, nous n’expliquerons ici que la version simple. Pour ce faire,
considérons l’illustration graphique suivante.
100km
!"#$
25km
!"#$
A
C
B
Etant donné que l’endroit de panne du bus est distribué uniformément sur l’intervalle [0, 100], on remarque
que notre bus subira une panne dans chacune des sous-régions colorées du graphe ci-dessus avec la même
probabilité, i.e. 1/4. De par la définition du problème, on sait également que lorsqu’il tombera en panne
dans la région verte, il ira se faire secourir en A, lorsqu’il tombera en panne dans la région rouge il se fera
aider en B et lorsqu’il aura un problème dans la région bleue, ses sauveteurs se trouveront en C. Chacun
Titulaire: F.T. Bruss
Assistant: G. Van Bever
Math-F-105
Séance 8
de ces rectangles est de largeur 25, et la distance moyenne qu’il faudra parcourir pour atteindre le point
de ravitaillement depuis chacun de ces intervalles est de 0+25
2 . Ainsi donc la distance moyenne parcourue
par le bus dans cette configuration est donnée par
1
1
1
1
E(X) = 12.5 + 12.5 + 12.5 + 12.5 = 12.5.
4
4
4
4
Maintenant considérons la seconde configuration proposée dans l’énoncé.
100km
!"#$
12.5km
!"#$
A
C
B
Par un raisonnement similaire à celui que nous avons (brillamment) décrit ci-dessus, nous obtenons
1
1
E(X) = 6 × (6.25 ) + 2 × (18.75 ) = 9.375.
8
8
Ainsi on voit que la seconde configuration est meilleure que la première. Toutefois, il est encore possible
de l’améliorer. A vous de trouver comment...
Exercice 8.5
1. La constante c s’obtient par le calcul suivant.
Z 1
c (1 − x2 )dx =
−1
3 1
⇔ c (x − x3 )
=
−1
⇔
c
=
1
1
3
4.
2. La fonction de répartition s’obtient en intégrant la densité sur (−∞, x) :
F (x) =

 0
3
4 (x

−
x3
3 )
+
1
2
1
si x < −1
si − 1 ≤ x < 1
si 1 ≤ x.
Exercice 8.6
a) Grâce à la fonction génératrice des moments MX (t), on obtient l’espérance et la variance de X, et à
partir de ces valeurs-là on déduit l’espérance et la variance de Y . Ainsi, l’espérance de X correspond
au premier moment de X qui s’obtient en dérivant MX (t) par rapport à t et en posant t = 0. Ceci
livre que
0
E(X) = MX
(0) = 0.
Pour ce qui est de la variance, on a
00
Var(X) = E(X 2 ) − (E(X))2 = MX
(0) − 0 = 1.
Titulaire: F.T. Bruss
Assistant: G. Van Bever
Math-F-105
Séance 8
Grâce à la linéarité de l’espérance, il s’ensuit directement que
E(Y ) = E(σX + µ) = σE(X) + µ = µ.
De même les propriétés de la variance nous donnent
Var(Y ) = Var(σX + µ) = σ 2 Var(X) = σ 2 .
Finalement, en revenant à la caractérisation de Y en termes de X, la fonction génératrice de Y
s’obtient aisément sans devoir avoir recours à des calculs d’intégrales compliqués :
MY (t) = E(etY ) = E(etσX+tµ ) = etµ E(etσX ) = etµ MX (σt) = etµ+
t2 σ 2
2
.
Un bon exercice (pas forcément simple) est de retrouver ces résultats en appliquant les définitions de
ces quantités et en intégrant directement la densité d’une loi normale de paramètres µ et σ.
b) Comme énoncé dans le rappel, si deux variables aléatoires ont la même fonction génératrice des
moments, alors elles suivent la même distribution. Il suffit donc de montrer que
MaZ1 +bZ2 (t) = et(aµ1 +bµ2 )+
2 +b2 σ 2 )
t2 (a2 σ1
2
2
.
Pour ce faire, remarquons tout d’abord que si Z1 et Z2 sont indépendants, il en va évidemment de
même pour eaZ1 et ebZ2 (pourquoi ?). Il s’ensuit que
MaZ1 +bZ2 (t) = E(etaZ1 +tbZ2 )
= E(etaZ1 etbZ2 )
= E(etaZ1 )E(etbZ2 )
= et(aµ1 +bµ2 ) e
2 +b2 σ 2 )
t2 (a2 σ1
2
2
,
ce qui établit le résultat.
c) Comme Y = σX + µ, on a
Y 4 = σ 4 X 4 + 4 µ σ 3 X 3 + 6 µ2 σ 2 X 2 + 4 µ3 σX + µ4 .
Dès lors,
E(Y 4 ) = σ 4 E(X 4 ) + 4 µ σ 3 E(X 3 ) + 6 µ2 σ 2 E(X 2 ) + 4 µ3 σE(X) + µ4 .
A l’aide de la fonction génératrice des moments, on retrouve facilement que E(X i ) = 0 pour tout i
impair. Par ailleurs, E(X 2 ) = 1 et E(X 4 ) = 3. Il en découle que
E(Y 4 ) = 3σ 4 + 6 µ2 σ 2 + µ4 .
Exercice 8.7
a) Cette première affirmation est correcte car
P V − µ < a = P (µ − a < V < µ + a)
= P (V < µ + a) − P (V ≤ µ − a)
= F (µ + a) − F (µ − a)
= F (µ + a) − (1 − F (µ + a))
= 2F (µ + a) − 1.
Pourquoi ce résultat n’est-il pas valable de manière générale ?
Titulaire: F.T. Bruss
Assistant: G. Van Bever
Math-F-105
Séance 8
b) Cette affirmation est fausse car la loi normale ne possède pas d’atomes.
c) Cette affirmation est correcte étant donné que si V est de loi normale de paramètres µ et σ, on a que
V −µ
σ suit une loi normale centrée réduite qui elle est symétrique par rapport à 0.
d) Cette dernière égalité n’est vraie que si µ = 0, c’est-à-dire seulement dans le cas d’une loi normale
centrée.
Exercice 8.8
Considérons le graphique suivant dans lequel est illustrée la situation où un axe (en noir) s’insère dans
un coussinet (en rouge).
Y
X
Soit X le diamètre extérieur des axes, et Y le diamètre intérieur des coussinets. On nous dit que
X ∼ N (20, 0.052 ), Y ∼ N (20, 0.072 ),
et que X et Y sont indépendants. Nous cherchons à calculer P (X − Y > 0). Etant donné que la somme
de deux variables aléatoires indépendantes de loi normale est encore une variable aléatoire de loi normale,
nous cherchons donc
P (Z > 0) où Z ∼ N (0, 0.052 + 0.072 ),
On obtient alors
P (Z > 0) = 1/2
vu que Z est de loi normale centrée (et donc de loi symétrique autour de 0). Il y a donc une chance sur
deux que le mécanisme ait un problème, et ce n’est pas en variant les variances que nous parviendrons à
améliorer cette situation (pourquoi ?). C’est la raison pour laquelle dans la deuxième partie de l’exercice,
on nous propose de changer les moyennes des variables aléatoires initiales. Prenons donc
X ∼ N (19.95, 0.052 ), et Y ∼ N (20.05, 0.072 ),
et calculons
P (X > Y ) = P (Z > 0) où Z ∼ N (−0.1, 0.0862 ).
Comme précédemment, cette dernière quantité s’obtient grâce aux identités
Z + 0.1
0.1
P (Z > 0) = P
>
= 1 − 0.877 = 0.123.
0.086
0.086
Petite question : que se passe-t-il si on change d’unités (par exemple on calcule la même probabilité avec
le diamètre exprimé en cm au lieu de mm) ?
Exercice 8.9
Titulaire: F.T. Bruss
Assistant: G. Van Bever
Math-F-105
Séance 8
A l’aide de la dérivation effectuée pour l’exercice 6, il est aisé de montrer (par exemple par induction)
que la somme de 4 variables aléatoires indépendantes de loi normale de paramètres (µ, σ), suivra une
loi normale de paramètres (4µ, 2σ). Ainsi donc, dès lors que les demandes mensuelles sont supposées
être indépendantes les unes des autres, la demande totale sur 4 mois suivra une loi normale de moyenne
40.000 et d’écart-type 4000. Soit Y la demande de marchandises pour 4 mois, et y la quantité minimale
à commander. On a
y−40000
P (Y > y) < 0.01 ⇔ 1 − P Y −40000
≤
< 0.01
4000
4000
⇔ P
⇔
Y −40000
4000
y−40000
4000
≤
y−40000
4000
> 0.99
> 2.33
⇔ y > 49.320.
Exercice 8.10
a) Pour calculer la quantité demandée, il suffit de revenir à la définition des probabilités conditionnelles
vue à la séance 6. Ensuite il faut se souvenir que la densité d’une variable aléatoire de loi exponentielle
est donnée par
f X (x) = λe−λx
pour x > 0. Etant donné que pour tout s > 0,
Z
∞
P (X > s) =
λ e−λx dx = e−λs ,
s
on obtient
P (X > t + s|X > s) =
=
P (X > t + s ∩ X > s)
P (X > s)
P (X > t + s)
P (X > s)
= e−λ(t+s) eλs
= e−λt .
Ainsi donc nous avons prouvé que la loi exponentielle jouit d’une propriété plutôt remarquable : pour
tout choix de t, s > 0, on a
P (X > t + s X > s) = P (X > t).
On dit alors que la loi de X est sans mémoire.
b) Comme bXc ne prend que des valeurs entières, il est clair que sa loi peut seulement être discrète. Dès
lors, on a que
Z n+1
P (bXc = n) = P (n ≤ X < n + 1) =
λ e−λx dx = e−λn (1 − e−λ ).
n
En posant e−λ := 1 − p, on a que
P (bXc = n) = (1 − p)n p,
avec 0 < p < 1.
Titulaire: F.T. Bruss
Assistant: G. Van Bever
Math-F-105
Séance 8
c) Considérons une expérience qui a une probabilité p d’être un succès (et 1−p d’être un échec). Supposons
que l’on répète cette expérience un nombre infini de fois et que les résultats de ces différentes répétitions
soient indépendants les uns des autres. Intéressons nous maintenant à l’événement
En = {le premier succès arrive après n échecs}.
On a
P (En ) = (1 − p)n p.
Ainsi, en notant X le moment d’arrivée du premier succès, l’égalité précédente nous donne
P (X = n) = (1 − p)n−1 p,
pour n ≥ 1. Cette loi est connue sous le nom de loi géométrique, et l’on note
X ∼ Geom(p).
1
p.
En ce qui concerne le moment
d P∞
k
d’ordre 2, le même genre de calculs conduit à
; la seule difficulté, à savoir la ligne p dq
k=1 kq , se
disperse si l’on pense à remettre un q en évidence dans la somme (et qu’on n’oublie pas de le dériver
par après ! ! !).
Nous avons montré en classe que le premier moment équivaut à
1+q
p2
Exercice 8.11
1. D vaut k si k divise X et Y , et que de plus X/k et Y /k n’ont pas de diviseur commun. L’argument
heuristique intervient ici. Si N est grand et que tous les nombres avant 10N sont équiprobables, la
probabilité que k divise X (ou Y ) vaut approximativement 1/k. En effet, il y a à peu près 10N /k
multiples de k avant 10N (si N est grand, le “reste” est négligeable). Tous sont de probabilité 1/10N
par hypothèse. Donc la probabilité d’obtenir l’un d’eux est bien 10N /k × 1/10N = 1/k. Ainsi, par
indépendance de X et Y , la probabilité que tous deux soient divisibles par k est donc (1/k)2 . La
probabilité que X/k et Y /k n’aient pas de diviseur commun est égale à la probabilité que deux
nombres aléatoires indépendants uniformément distribués sur les entiers soient premiers entre eux
(car comme N est grand, 10N /k est grand aussi. Souvenez-vous que N a vocation à tendre vers
l’infini...). Ce nombre est par définition P (D = 1) = Q1 . De ce fait
P (D = k) =
1
P (D = 1),
k2
et donc
1
Q1 .
k2
2. Par définition d’une loi de probabilité, on doit avoir
Qk =
N
10
X
P (D = k) = 1
k=1
On en tire l’égalité suivante impliquant Q1 en fonction du résultat précédent
N
10
X
1
Q1 = 1,
k2
k=1
c’est-à-dire
1
Q1 = P10N
1
k=1 k2
Titulaire: F.T. Bruss
1
−→ P∞
1
k=1 k2
=
6
.
π2
Assistant: G. Van Bever
Math-F-105
Séance 8
3. Le théorème fondamental de l’arithmétique nous permet de dire que X et Y sont premiers entre
eux si et seulement si ils n’ont pas de diviseur premier commun. Notons pk la suite des nombres
premiers. La probabilité qu’aucun premier ne divise à la fois X et Y peut s’écrire
Q1 =
∞
Y
(1 − P (pk |X et pk |Y )) =
k=1
∞ Y
k=1
1
1− 2
pk
Il convient bien entendu de remarquer que les événements Ak ≡ “le nombre premier pk ne divise
pas simultanément X et Y ” sont indépendants. En effet,
P (Ak1 )P (Ak2 ) = (1 −
1
1
1
1
1
)(1 − 2 ) = 1 − 2 − 2 + 2 2 = P (Ak1 ∪ Ak2 )
2
pk1
pk2
pk1
pk2
pk1 pk2
La dernière égalité provient du fait que l’événement Ak1 ∪ Ak2 est le complémentaire de ”pk1 divise
simultanément X et Y OU pk2 divise simultanément X et Y ” et en utilisant alors la formule
d’inclusion-exclusion.
Exercice 8.12
Choisir un point au hasard sur un segment de longueur L revient à tirer la coordonnée de ce point selon
une distribution uniforme sur le segment [0, L] (ainsi, tous les “petits intervalles” ont même probabilité.
Notez que pour n’importe quelle loi continue, tous les points ont même probabilité... égale à 0 !).
Notons X cette coordonnée. On a donc la fonction de densité de X
1/L x ∈ [0, L]
fX (x) =
0
ailleurs
Il est relativement intuitif de voir que la probabilité demandée est 2/5. Pour cela, considérer un
segment et voir que l’exigeance est vérifiée si et seulement si le point tombe dans le premier ou le dernier
cinquième du segment. Une manière plus rigoureuse de traiter la chose (et plus lourde également) est la
suivante : Le plus petit segment est celui à gauche de X si X est à gauche de L2 , et à droite de X sinon.
Comme la loi uniforme est symétrique par rapport à L2 , traitons le premier cas conditionnellement à sa
réalisation, l’autre cas étant identique.
Le petit segment a alors longueur X et le grand longueur L − X. On s’intéresse à l’événement
X
{ L−X
< 14 }. Comme L − X > 0, on peut réécrire cet événement {X < L5 }. On détermine cette probabilité
en intégrant la densité sur ce domaine
P
P (X <
X
1 L
< X<
=
L−X
4
2
P (X <
L
5)
L
2)
R
L
5
= R0L
2
0
f (x)dx
f (x)dx
2
= .
5
Notez que la condition est en fait redondante dans la probabilité conditionelle. L’autre cas étant identique
et les événements {X < L2 } et {X ≥ L2 } étant disjoints et de même probabilité (à savoir 21 ), on obtient
la probabilité totale en disant que
P (le rapport entre le plus petit et le plus grand demi segment définis par ce point soit inférieur à 14 )
X
1
L
= P L−X
< 14 X < L2 × 12 + P L−X
<
|X
≥
× 12
X
4
2
= 25 .
Titulaire: F.T. Bruss
Assistant: G. Van Bever
Téléchargement