Variables à densité

publicité
ECS 922.
Variables aléatoires à densité.
I Définition et caractérisation
Définition :
On dit qu’une variable aléatoire réelle X est à densité si sa fonction de répartition est continue
sur R et de classe C 1 sur R privé d’un nombre fini de points.
Notons FX la fonction de répartition de X.
Définition :
Soit X une variable aléatoire à densité. On dit qu’une application f de R vers R+ est une
0
qu’en un nombre fini de points.
densité de probabilité de X si f ne diffère que FX
Remarque : Si l’on modifie la valeur de f en un nombre fini de points, la fonction obtenue est elle
aussi une densité de X.
Proposition : Soit X une variable aléatoire à densité et f une densité de probabilité de X. On a :
Z x
∀x ∈ R, FX (x) =
f (t) dt
−∞
Démonstration : Notons F la fonction de répartition de X, et E l’ensemble des réels x tels que :
F n’est pas dérivable en x, ou F 0 n’est pas continue en x, ou F 0 (x) 6= f (x). E étant fini, écrivons
E = {a1 , . . . , an }, où a1 < a2 < . . . < an , et notons a0 = −∞
Z et an+1 = +∞.
x
Montrons par récurrence l’assertion Hi : hh ∀x ∈] − ∞, ai [,
f (t) dt = F (x) ii (ce qui implique
−∞
que cette intégrale soit convergente).
- Si x < a1 , F étant uneZprimitive de f sur ] − ∞,
Z a1 [, on a :
x
x
∀y < x, F (x) − F (y) =
f (t) dt, donc lim
f (t) dt = F (x) − lim F = F (x),
y→−∞ y
−∞
y
Z x
Z x
donc
f (t) dt est convergente et F (x) =
f (t) dt. Ceci montre que H1 est vraie.
−∞
−∞
- Soit i ∈ [[1, n]] tel que Hi soit vraie.
Z ai
Z x
f (t) dt est
D’une part, lim−
f (t) dt = lim− F (x) = F (ai ) car F est continue, donc
x→ai −∞
x→ai
−∞
Z ai
convergente et
f (t) dt = F (ai ).
−∞
Z x
D’autre part, si x ∈]ai , ai+1 [, on a : ∀y ∈]ai , x[,
f (t) dt = F (x) − F (y),
Z x
Z xy
Z x
donc : lim+
f (t) dt = F (x) − F (ai ), donc
f (t) dt existe et
f (t) dt = F (x) − F (ai ), d’où
y→ai y
ai
Z x
Z x
Z ai
Z axi
f (t) dt =
f (t) dt =
f (t) dt +
f (t) dt = F (ai ) + F (x) − F (ai ) = F (x), ce qui
−∞
−∞
−∞
ai
achève la démonstration de Hi+1
Le principe de récurrence finie permet de conclure que Hi est vraie pour tout i de [[1, n]], ce qui
établit le théorème.
Corollaire : Si X est une variable à densité, en tout point x où f est continue, F 0 (x) = f (x).
Idée de la démonstration : f est continue sauf en un nombre fini de points, donc si f est continue
en x0 , il existe un intervalle ]a, b[ contenant x0 et sur
Z lequel f est continue. On sait (cous
x
d’intégration) que dans ce cas, la fonction G : x 7→
f (t) dt est dérivable sur ]a, b[ et que
x0
G0 = f . Comme F − G est une constante, on a aussi F 0 = f sur ]a, b[.
Théorème :
Une fonction f définie sur R est une densité de probabilité d’une variable aléatoire si et
seulement
si f est positive sur R, continue sur R sauf en un nombre fini de points et vérifie
Z
+∞
f (t) dt = 1.
−∞
Idée de la démonstration : ⇒ Si f est une densité de X, f est positive, continue sauf en un
0
nombre fini de points (les points où FX
n’est pas définie ou pas continue ou diffère de f ), et
Z x
Z +∞
lim
f (t) dt = lim F (x) = 1 donc
f (t) dt = 1.
x→+∞
−∞
x→+∞
−∞
⇐ On admet la réciproque. Dans le cas où f > 0, on pourra la faire en exercice après
R x l’étude des
fonctions de variables à densité et de la loi uniforme. Pour cela, on posera F (x) = −∞ f (t) dt et
X = F −1 ◦ U où U ,→ U ([0, 1]).
Corollaire : Si f et g sont deux densités de probabilités de variables aléatoires et si elles sont
proportionnelles (c’est-à-dire g = αf ), alors, elles sont égales.
Remarque : Donner la loi de probabilité d’une variable à densité, c’est donner, soit sa fonction de
répartition, soit l’une de ses densités de probabilité.
II Propriétés des variables à densité.
Dans tout ce paragraphe, X désigne une variable à densité, f une densité de X, et F sa fonction
de répartition.
La proposition suivante montre une différence fondamentale entre variables discrètes et variables
à densité :
Proposition :
∀a ∈ R,
P (X = a) = 0
Idée de la démonstration :
∞
\
1
P (X = a) = P (
(a − < X 6 a)) (intersection d’une suite décroissante d’événements)
n
n=1
1
1
P (X = a) = lim P (a − < X 6 a) = lim (F (a) − F (a − )) = 0 car F est continue.
n→∞
n→∞
n
n
Proposition : Pour tous réels a et b tels que a < b,
Z b
P (a < X 6 b) = P (a 6 X 6 b) = P (a 6 X < b) = P (a < X < b) = F (b) − F (a) =
f (t) dt
a
Idée de la démonstration : On sait que, pour toute variable aléatoire,
P (a < X 6 b) = F (b) − F (a)
Les égalités entre probabilités se déduisent de la proposition précédente. La dernière égalité
découle de la relation de Chasles.
III Fonctions de variables à densité.
X désigne une variable aléatoire à densité sur (Ω, B, P ).
1. Etude de ϕ ◦ X si ϕ est une fonction en escalier sur tout segment
Cela signifie que, sur tout segment, ϕ n’a qu’un nombre fini de points de discontinuité et est
constante sur chacun des intervalles ouverts délimités par ces points.
L’ensemble des valeurs prises par ϕ est alors de la forme: ϕ(R) = {xi /i ∈ I}, où I est un intervalle
de N (parfois Z) et (xn ) est une suite monotone.
Dans ce cas, quelle que soit la variable aléatoire à densité X, ϕ ◦ X ( ou par abus ϕ(X)) est une
variable aléatoire discrète.
Par exemple, si X est une variable aléatoire admettant une densité f , et ϕ la fonction “partie
entière”, bXc est une variable aléatoire à valeurs dans Z, dont la loi de probabilité est déterminée
Z k+1
par: ∀k ∈ Z, P (bXc = k) =
f (t) dt.
k
2
2. Etude de ϕ ◦ X si ϕ est continue sur X(Ω).
La méthode est de rechercher la fonction de répartition de Y = ϕ(X), puis d’examiner si Y est
une variable à densité et en donner éventuellement une densité.
Dans les exemples classiques suivants, nous noterons f et F (resp. g et G) une fonction de densité
et la fonction de répartition de X (resp. Y ).
Exemple: ϕ(x) = ax + b où a > 0.
x−b
G(x) = P (Y 6 x) = P (aX + b 6 x) = P (X 6 x−b
a ) = F( a )
F étant continue et, sauf peut-être en un nombre fini de points, dérivable avec une dérivée
continue, G vérifie la même propriété: Y est une variable a densité, une densité étant donnée en
x−b
1 ¡x − b¢
tout point x tel que F soit dérivable en
par: g(x) = G0 (x) = f
.
a
a
a
Remarque : On peut faire un raisonnement analogue si Y = aX + b où a < 0 ; on trouve dans les
1 ¡x − b¢
deux cas: g(x) =
f
.
|a|
a
Remarque : Ceci montre au passage que la somme d’une variable aléatoire à densité et d’une
variable certaine est une variable à densité.
Exemple: ϕ(x) = x2 . Ici Y = X 2 .
½
2
G(x) = P (Y 6 x) = P (X 6 x) =
0 √
si x 6 0
√
√
√
P (− x 6 X 6 x) = F ( x) − F (− x) si x > 0
Comme dans l’exemple précédent, X étant une variable
Y l’est aussi, une densité étant
√ à densité,
√
donnée en tout point x tel que F soit dérivable en x et − x par:
½
0 ¡ √
√ ¢ si x 6 0
g(x) =
1
√
f ( x) + f (− x) si x > 0
2 x
Exemple: ϕ(x) = exp(x). Ici Y = eX .
G(x) = P (e
X
6 x) =
½
0
si x 6 0
P (X 6 ln x) = F (ln(x)) si x > 0
Comme dans les exemples précédents, X étant une variable à densité, Y l’est aussi, une densité
étant donnée en tout point x tel que F soit dérivable en ln x par:
½
0
si x 6 0
g(x) = 1
x f (ln(x)) si x > 0
Exemple: d’utilisation courante : ϕ est une bijection de classe C 1 de R vers R et ϕ0 > 0 (on traite
de même le cas ϕ0 < 0.
¡
¢
¡
¢
G(x) = P ϕ(X) 6 x = P X 6 ϕ−1 (x) = F ◦ ϕ−1 (x), donc G est continue sur R et de classe
C 1 sauf en un nombre fini de points (images par ϕ des points en lesquels F n’est pas dérivable ou
F 0 n’est pas continue). Y est donc une variable à densité ; une
¡ −1densité
¢ est, sauf éventuellement
f
ϕ
(x)
en un nombre fini de points, donnée par : g(x) = G0 (x) = 0 ¡ −1 ¢
ϕ ϕ (x)
IV Moments d’une variable à densité.
1. Moment d’ordre k.
Définition :
Soit k un entier naturel.Z On dit que la variable aléatoire X, de densité f , admet un moment
+∞
d’ordre k si l’intégrale
tk f (t) dt est convergente. Si tel est le cas, le moment d’ordre k
de X est:
−∞
Z
+∞
mk (X) =
−∞
3
tk f (t) dt
Remarque 1 : Si mk (X) existe, l’intégrale qui le définit est absolument convergente car les
intégrales de −∞ à 0 et de 0 à +∞ sont convergentes et la fonction que l’on intègre est de signe
constant sur chacun des intervalles ] − ∞, 0] et [0, +∞[.
Z +∞
Remarque 2 : Le moment d’ordre 0 existe toujours: m0 (X) =
f (t) dt = 1.
−∞
2. Espérance.
Définition :
L’espérance d’une variable à densité X est, s’il existe, son moment d’ordre 1. C’est donc:
Z +∞
E(X) =
tf (t) dt
−∞
si cette intégrale est convergente.
Remarque : Certaines variables aléatoires n’ont pas d’espérance. On peut vérifier, par exemple,
que si
(
0
si t < 0
1
1
f (t) =
et g(t) =
si
t
>
0
(1 + |t|)3
(1 + t)2
une variable aléatoire X ayant pour densité f n’a pas d’espérance tandis qu’une variable aléatoire
de densité g a une espérance nulle.
Théorème : (Linéarité de l’espérance)
Si X et Y sont deux variables aléatoires à densité sur (Ω, B, P ), admettant chacune une
espérance, et si λ est un réel, alors λX et X + Y admettent aussi des espérances données par
E(λX) = λE(X) et E(X + Y ) = E(X) + E(Y )
Définition :
Si la variable aléatoire X admet une espérance m = E(X), la variable aléatoire centrée
associée à X est X − m.
Remarque : E(X − m) = 0.
Théorème : ( Théorème de transfert)
Si X est une variable admettant la fonction f pour densité, et ϕ une fonction continue sauf en
un nombre fini de points sur un intervalle contenant X(Ω), la variable aléatoire ϕ(X) admet
une espérance
Z +∞
¡
¢
E ϕ(X) =
ϕ(t)f (t) dt
−∞
si et seulement si cette intégrale est absolument convergente.
Idée de la démonstration : dans le cas particulier où ϕ est de classe C 1 sur R et ϕ0 > 0.
ϕ(R) =]a, b[, où a est −∞ ou un réel, b est +∞ ou un réel > a.
En notant encore G la fonction de répartition de Y = ϕ(X),

si x 6 a (cas exclu si a = −∞)
0
G(x) = P (ϕ(X) 6 x) = P (X 6 ϕ−1 (x)) = F (ϕ−1 (x)) si a < x < b

1
si x > b (cas exclu si b = +∞)
Donc G est continue, dérivable avec une dérivée continue sauf aux points images par ϕ des points
de discontinuité de f , et admet pour densité la fonction g définie par
(0
si x 6 a
1
si
a<x<b
g(x) = f (ϕ−1 (x)) ϕ0 (ϕ−1
(x))
0
si x > b
4
Z
b
E(Y ) =
xf (ϕ−1 (x))
a
1
ϕ0 (ϕ−1 (x))
dx
Le changement de variable défini par x = ϕ(t) donne le résultat.
3. Variance
Définition :
¡
¢2
Si X admet une espérance et si X − E(X) admet une espérance,
on dit ´
que X admet une
³¡
¢2
variance, et la variance de X est alors définie par: V (X) = E X − E(X)
. Autrement dit,
en notant f une densité de X et m = E(X),
Z +∞
V (X) =
(t − m)2 f (t) dt
−∞
si cette intégrale est convergente.
Théorème : (méthode de calcul de la variance)
X admet une variance si et seulement si elle admet des moments d’ordre 1 et 2.
On a alors: V (X) = m2 (X) − m1 (X)2 = E(X 2 ) − E(X)2 .
Idée de la démonstration :
Z
• Si m1 (X) et m2 (X) existent,
convergente et égale à
Z +∞
Z
2
t f (t) dt − 2m
−∞
Z
+∞
2
+∞
(t − m) f (t) dt =
−∞
−∞
Z
+∞
tf (t) dt + m
−∞
[t2 f (t) − 2mtf (t) + m2 f (t)] dt est
2
+∞
f (t) dt = E(X 2 ) − 2m.m + m2 = E(X 2 ) − E(X)2
−∞
• Réciproquement, si V (X) existe, la fonction
t 7→ t2 f (t) = (t − m)2 f (t) + 2mf (t) − m2 f (t)
a une intégrale impropre sur ] − ∞, +∞[ convergente car elle est combinaison linéaire de fonctions
dont l’intégrale impropre est convergente.
Remarque : Il se peut qu’une variable aléatoire admette une espérance, mais pas de variance: c’est
1
le cas, par exemple si X admet pour densité g : t 7→ (1+|t|)
3.
Théorème :
Si X admet une variance, aX + b aussi et V (aX + b) = a2 V (X).
Idée de la démonstration : utiliser V (Y ) = E(Y 2 ) − E(Y )2 et la linéarité de l’espérance.
Définition :
Si X admet une variance, l’écart-type de f est σX =
p
V (X).
La variable aléatoire centrée réduite (en résumé : réduite) associée à X est X ∗ =
X − E(X)
.
σX
Remarque : E(X ∗ ) = 0 et V (X ∗ ) = 1.
V Somme de deux variables à densité indépendantes
Rappel : Deux variables aléatoires sur (Ω, B, P ), X et Y sont indépendantes si pour tout couple
(a, b) de réels, les événements¡(X 6 a) et (Y 6 b)¢ sont indépendants. On a alors, quels que soient
les intervalles I et J de R, P (X ∈ I) ∩ (Y ∈ J) = P (X ∈ I).P (Y ∈ J).
5
Théorème :
Si X et Y sont deux variables aléatoires indépendantes sur (Ω, B, P ), admettant pour densités
respectives les fonctions f et g, et si la fonction h définie par:
Z +∞
Z +∞
∀x ∈ R, h(x) =
f (t)g(x − t) dt =
f (x − t)g(t) dt
−∞
−∞
et définie et continue sur R sauf éventuellement en un nombre fini de points, alors X + Y est
elle aussi une variable à densité, l’une de ses densités étant h.
Ce théorème est admis ; on ne demande pas aux candidats de vérifier la condition sur h ; celle-ci
est d’ailleurs toujours vérifiée si f ou g est bornée.
VI Somme de deux variables aléatoires quelconques.
Les résultats de ce paragraphe sont tous admis ; ils concernent une variable aléatoire X, discrète
ou à densité, sur (Ω, B, P ) et une variable aléatoire Y , discrète ou à densité, sur (Ω, B, P ).
Proposition : (linéarité de l’espérance)
Si X et Y ont une espérance, alors λX + Y admet une espérance et E(λX + Y ) = λE(X) + E(Y ).
Proposition : (positivité de l’espérance)
Si X admet une espérance et si X > 0 (ps) (c’est-à-dire si P (X > 0) = 1) alors E(X) > 0.
((ps) est l’abréviation de hh presque sûrement ii .)
Corollaire : (Croissance de l’espérance)
Si X et Y ont une espérance et si X 6 Y (ps) (c’est-à-dire si P (X 6 Y ) = 1), alors E(X) 6 E(Y ).
Proposition : (variance d’une somme) Si X et Y sont indépendantes et admettent une variance,
alors X + Y admet une variance et V (X + Y ) = V (X) + V (Y ).
VII Lois usuelles
1. Loi uniforme
a)Densité a < b. X suit la loi uniforme sur [a, b] (X
f définie par:
(
0
1
f (t) = b−a
0
,→ U ([a, b]) si X admet pour densité la fonction
si t < a
si a 6 t 6 b
si t > b
(Il est facile de vérifier qu’il s’agit d’une fonction de densité de probabilité.)
b)Fonction de répartition
Z
(
x
F (x) =
f (t) dt =
−∞
c)Espérance
Z +∞
Z
tf (t) dt =
−∞
b
a
d)Variance
Z +∞
Z
2
t f (t) dt =
−∞
x−a
b−a
1
si x < a
si a 6 x 6 b
si x > b
a+b
a+b
t
dt =
est convergente. E(X) =
.
b−a
2
2
b
a
0
t2
b2 + ab + a2
b2 + ab + a2
dt =
est convergente. E(X 2 ) =
.
b−a
3
3
la formule V (X) = E(X 2 ) − E(X)2 donne V (X) =
6
(a − b)2
.
12
e)La loi uniforme sur [0, 1]
n
Si X ,→ U([0, 1]), X admet pour densité la fonction f définie par f (t) =
1 si t ∈ [0, 1] ;
0 sinon
1
.
E(X) = 12 et V (X) = 12
Il est facile de vérifier que si a < b :
X ,→ U ([0, 1]) ⇐⇒ a + (b − a)X ,→ U ([a, b])
Cela est utile pour créer une fonction Pascal qui simule une variable uniforme sur [a, b]. En
supposant que a et b sont des constantes déjà définies :
function Y:real ;
begin Y:=a+(b-a)*random end ;
2. Loi exponentielle
a)Densité
Soit λ > 0. X suit la loi exponentielle de paramètre λ (X ,→ E(λ)) si X admet pour densité la
fonction f définie par:
½
0
si t < 0
f (t) =
−λt
λe
si t > 0
b)Fonction de répartition
Z
½
x
F (x) =
f (t) dt =
−∞
0
1 − e−λx
si x < 0
si x > 0
c)Caractérisation par l’absence de mémoire.
Proposition : Si X ,→ E(λ), on a, pour tous réels strictement positifs a et b:
P (X > a + b/X > a) = P (X > b)
Idée de la démonstration¡ :
¢
P (X > a + b) ∩ (X > a)
P (X > a + b)
e−λ(a+b)
P (X > a + b/X > a) =
=
=
= e−λb = P (X > b)
P (X > a)
(X > a)
e−λa
Théorème :
Soit X une variable aléatoire à densité vérifiant:
P (X < 0) = 0 et ∀(a, b) ∈ R∗+ , P (X > a + b/X > a) = P (X > b)
Alors X suit une loi exponentielle.
Idée de la démonstration : Remarquons tout d’abord que la deuxième condition implique :
∀a > 0, P (X > a) 6= 0.
Soit F la fonction de répartition de X, soit g = 1 − F et h = ln ◦g.
P (X > a + b)
Pour tout a et b strictement positifs,
= P (X > b) donc g(a + b) = g(a)g(b) et donc
P (X > a)
h(a + b) = h(a) + h(b).
h(0) = ln(1 − P (X < 0)) = 0.
h(2a) = h(a + a) = 2h(a) et par récurrence, ∀n ∈ N, h(na) = nh(a).
donc ∀q ∈ N∗ qh( 1q ) = h(1), d’où h( 1q ) = 1q h(1) puis ∀(p, q) ∈ N∗ 2 , h( pq ) = pq h(1).
En posant λ = −h(1), comme h est continue (car F l’est), on en déduit: ∀x ∈ R∗+ , h(x) = −λx
d’où g(x) = −λx puis F (x) = 1 − e−λx , ce qui établit le théorème.
d)Espérance
Z +∞
Z +∞
1
tf (t) dt =
λte−λt dt converge et se calcule en intégrant par parties: E(X) =
λ
−∞
0
e)Variance
Z +∞
Z +∞
2
t f (t) dt =
λt2 e−λt dt se ramène au calcul précédent par une intégration par parties.
−∞
0
Cette intégrale converge et vaut E(X 2 ) =
2
λ2 ,
d’où V (X) =
7
1
λ2
f )Loi exponentielle de paramètre 1
n
e−t si t > 0 ; E(X) = V (X) = 1
0
sinon
1
Il est facile de vérifier que, si λ > 0 : X ,→ E(1) ⇐⇒ X ,→ E(λ)
λ
Il est facile de vérifier que si X ,→ U([0, 1]), alors ln X est définie presque sûrement et
− ln(X) ,→ E(1) ce qui permet de créer en Pascal une fonction Y qui simule une variable aléatoire
exponentielle de paramètre lambda :
Si X ,→ E(1), X a pour densité la fonction f : t 7→
function Y:real ;
begin
Y:=-ln(random)/lambda
end ;
3. Lois γ et Γ
a)Densité
Définition : Une variable aléatoire suit la loi Gamma de paramètres b et ν strictement positifs
(on note X ,→ Γ(b, ν)) si elle admet pour densité la fonction f définie par:
( − t ν−1
e bt
si t > 0
f (t) =
Γ(ν)bν
0
sinon
(Il est facile de vérifier qu’il s’agit d’une fonction de densité de probabilité en utilisant le
changement de variable t = bx.)
Définition : La loi petit gamma de paramètre ν, notée γ(ν) est la loi Γ(1, ν). Une densité d’une
variable suivant cette loi est :
½ −t ν−1
e t
si t > 0
t 7−→
Γ(ν)
0
sinon
Lemme : Si X ,→ Γ(b, ν) et α ∈ R∗+ , alors αX ,→ Γ(αb, ν)
t
t
Idée de la démonstration : komdab, FαX (t) = P (αX 6 t) = P (X 6 ) = FX ( ). FαX est donc
α
α

t
1
t
e− αb tν−1
0
1
∗
f
(
)
=
si t > 0
continue sur R, de classe C sur R et FαX (t) = α X α
Γ(ν)bν αν

0
si t < 0
donc αX ,→ Γ(αb, ν)
Proposition : Si b > 0 :
X ,→ γ(ν) ⇐⇒ bX ,→ Γ(b, ν)
Idée de la démonstration : Pour chacun des deux sens de l’implication, on applique le lemme
précédent.
Remarque : La loi Γ(b, 1), est la loi exponentielle de paramètre 1b .
La loi γ(1) est la loi E(1).
b)Stabilité par la somme
Lemme : Si X et Y sont indépendantes et suivent respectivement les lois γ(ν) et γ(ν 0 ), alors
X + Y ,→ γ(ν + ν 0 )
Idée de la démonstration : f et g étant des densités de X et Y , une densité de X + Y est la
fonction h définie par
Z +∞
h(x) =
f (x − t)g(t) dt
(0
h(x) =
1
Γ(ν)Γ(ν 0 )
−∞
Z
si x 6 0
x
e
−(x−t)
(x − t)
0
8
ν−1 −t ν 0 −1
e t
dt si x > 0
µ
¶ν−1 µ ¶ν 0 −1
t
t
dt
∀x > 0, h(x) = Ke
(x − t)
t
dt = Ke x
1−
x
x
x
0
0
Le changement de variable t = xu montre que cette intégrale est une constante (c’est-à-dire ne
dépend pas de x) donc que h est proportionnelle, donc égale, à une densité de la loi γ(ν + ν 0 ).
Z
−x
Z
x
ν−1 ν 0 −1
−x ν+ν 0 −1
x
Théorème :
Si X et Y sont indépendantes et suivent respectivement les lois Γ(b, ν) et Γ(b, ν 0 ), alors
X + Y ,→ Γ(b, ν + ν 0 )
Idée de la démonstration : Les variables 1b X et 1b Y sont indépendantes et suivent respectivement
les lois γ(ν) et γ(ν 0 ) donc, d’après le lemme, leur somme 1b (X + Y ) suit la loi γ(ν + ν 0 ) donc
X + Y ,→ Γ(b, ν + ν 0 ).
Généralisation :
Si X1 , . . . , Xn sont indépendantes et suivent respectivement les lois Γ(b, ν1 ), . . . , Γ(b, νn ), alors
X1 + · · · + Xn ,→ Γ(b, ν1 + · · · + νn ).
La démonstration se fait sans difficulté par récurrence.
Corollaire : Si X1 , . . . , Xn suivent toutes la loi exponentielle de paramètre λ et sont mutuellement
indépendantes, X1 + · · · + Xn suit la loi Γ( λ1 , n).
c)Espérance et variance
Z +∞
1
• Si X ,→ γ(ν), de densité f , on a pour t > 0 : tf (t) = Γ(ν)
e−t tν donc
tf (t) dt est
convergente (fonction Γ).
−∞
Z
Z +∞
1
1
Ainsi E(X) existe et E(X) =
tf (t) dt =
e−t tν dt =
Γ(ν + 1) = ν.
Γ(ν) 0
Γ(ν)
−∞
Z +∞
1
Γ(ν + 2)
De même, E(X 2 ) existe et E(X 2 ) =
e−t tν+1 dt =
= (ν + 1)ν
Γ(ν) 0
Γ(ν)
donc V (X) existe et V (X) = E(X 2 ) − E(X)2 = (ν + 1)ν − ν 2 = ν.
• Si X ,→ Γ(b, ν), alors 1b X ,→ γ(ν), donc X admet une espérance et une variance, respectivement
égales à bE( 1b X) et b2 V ( 1b X),
donc Si X ,→ Γ(b, ν), alors E(X) = bν et V (X) = b2 ν
+∞
4. Loi normale (ou de Laplace-Gauss)
Z +∞
√
t2
On admet que :
e− 2 dt = 2π.
−∞
a)Densité
Une variable aléatoire suit la loi normale de paramètres m réel et σ 2 (où σ est strictement positif)
(on note X ,→ N (m, σ 2 )) si elle admet pour densité la fonction f définie par:
(t−m)2
1
f (t) = √ e− 2σ2
σ 2π
(Il est facile de vérifier qu’il s’agit d’une fonction de densité de probabilité en utilisant le
t−m
.)
changement de variable x =
σ
La fonction f est continue, de limites 0 en −∞ et en +∞, elle est croissante sur ] − ∞, m] et
décroissante sur [m, +∞[. Sa courbe représentative, dite “courbe en cloche de Gauss” admet la
droite d’équation x = m pour axe de symétrie ; elle a deux points d’inflexion, aux abscisses m ± σ.
b)Fonction affine d’une variable normale
Théorème :
Soit (a, b) ∈ R∗ × R, et Y = aX + b. Si X ,→ N (m, σ 2 ), alors Y ,→ N (am + b, a2 σ 2 ).
Idée de la démonstration : Traiter séparément les cas a > 0 et a < 0 par la méthode classique de
détermination de la fonction de répartition puis d’une densité de Y .
9
c)Loi normale centrée réduite Il s’agit de la loi N (0, 1).
t2
1
Sa fonction de densité est t 7→ ϕ(t) = √ e− 2 .
2π
Sa fonction de répartition
est traditionnellement notée Φ ; il n’en existe pas d’autre expression
Z x
t2
1
que Φ(x) = √
e− 2 dt.
2π −∞
Proposition : ∀x ∈ R, Φ(−x) = 1 − Φ(x).
Idée de la démonstration : La fonction c : x 7→ Φ(−x) + Φ(x) est dérivable sur R, c0 (x) =
−ϕ(−x) + ϕ(x) = 0 car ϕ est paire ; donc c est constante, égale à lim c(x) = 1 − 0 = 1
x→+∞
(propriétés de la fonction de répartition Φ), d’où le résultat.
Table de la fonction de répartition de la loi normale réduite : Il découle de cette formule qu’il
suffit de connaı̂tre les valeurs de Φ(x) pour x > 0.
© k
ª
Pour cela, on dispose d’une table donnant, pour x ∈ 100
/0 6 k 6 400 , une valeur approchée
de Φ(x), ce qui suffit, car, pour x > 4, Φ(x) ' 1 à 10−4 près.
Cette table permet, si X ,→ N (m, σ 2 ), d’obtenir une valeur approchée de P (a 6 X 6 b), car
X −m
suit la loi normale centrée réduite, donc :
T =
σ
µ
¶
a−m
X −m
b−m
a−m
b−m
P a 6 X 6 b) = P (
6
6
= Φ(
) − Φ(
)
σ
σ
σ
σ
σ
et ce calcul s’adapte facilement si a = −∞ ou b = +∞.
d)Espérance
t2
1
t2
Si T ,→ N (0, 1), la fonction t 7→ ϕ(t) = √ te− 2 admet une primitive t 7→ − √12π e− 2 ayant des
2π
Z +∞
limites finies (nulles) en −∞ et +∞. Donc l’intégrale
tϕ(t) dt est convergente. E(T ) existe
−∞
Z +∞
t2
1 h − t2 i+∞
1
donc E(T ) = 0.
donc et E(T ) = √
te− 2 dt = √
−e 2
−∞
2π −∞
2π
X −m
Si X ,→ N (m, σ 2 ), on sait que T =
,→ N (0, 1) et que E(X) = σE(T ) + m donc:
σ
E(X) = m
e)Variance
1
Si T ,→ N (0, 1), E(T ) = √
Z2π
Z
2
x
Pour x > 0, pratiquons sur
+∞
t2
t2 e− 2 dt si cette intégrale est convergente.
−∞
2
2 − t2
t e
dt une intégration par parties, avec u(t) = t et v 0 (t) = te
−t2
2
0
(u et v sont de classe C 1 sur [0, x].
Z x
Z x
Z +∞
2
2
2
t2
2 − t2
− x2
− t2
t e
dt = −xe
+
e
dt donc
t2 e− 2 dt est convergente et vaut 0 +
0
0
Z0 +∞
t2
e− 2 dt.
0
Z +∞
2
t2
2 − t2
t2 e− 2 dt est également convergente, donc E(T 2 ) existe et
étant paire,
t 7→ t e
−∞
Z +∞
Z +∞
Z +∞
2
t2
t2
1
1
1
2 − 2
− t2
2
t e
e
e− 2 dt = 1 d’où V (T ) = 1.
E(T ) = √ 2
dt = √ 2
dt = √
2π 0
2π 0
2π −∞
X−m
2
Si X ,→ N (m, σ ), on sait que T = σ ,→ N (0, 1) et que V (X) = σ 2 V (T ) donc : V (X) = σ 2
f )Stabilité par la somme
Théorème :
Si X et Y sont indépendantes et suivent respectivement les lois N (m1 , σ12 ) et N (m2 , σ22 ), alors
X + Y ,→ N (m1 + m2 , σ12 + σ22 )
10
Remarque :
il suffit de retenir que X + Y suit une loi normale, puis d’utiliser E(X + Y ) = E(X) + E(Y ) et
V (X + Y ) = V (X) + V (Y ) pour retrouver les paramètres de cette loi.
Idée de la démonstration :
• Pour alléger le calcul, on fait d’abord la démonstration pour les variables centrées X 0 et Y 0
associées à X et Y .
Soient donc X 0 = X − m1 et Y 0 = Y − m2 . X 0 ,→ N (0, σ12 ) et Y 0 ,→ N (0, σ22 ).
X 0 et Y 0 sont indépendantes, donc X 0 + Y 0 admet pour densité h définie par :
Z
+∞
h(x) =
1
√
−
e
t2
2σ 2
1
×
1
√
e
−
(x−t)2
2σ 2
2
1
dt =
2πσ1 σ2
Z
+∞
1
e− 2 H(x,t) dt
σ1 2π
σ2 2π
−∞
2
2
p
(x − t)
t
.
Il
est
temps
de
poser
σ
=
Où l’on a posé : H(x, t) = 2 +
σ12 + σ22
2
σ
σ
1
2
¶
µ
¶
µ
1
x2
σ2
σ12 x2
xt
σ12
1
2
2
+ 2 t − 2 2 + 2 = 2 2 t − 2x 2 t + 2
H(x, t) =
σ12
σ2
σ2
σ2
σ1 σ2
σ
σ
On va mettre ce trinôme sous forme canonique, pour faire apparaı̂tre une densité de probabilité
de loi normale :
σ22
³
´2
³
´2
2
z
}|
{
σ1
σ12
µ
¶
2
2
2
2
2
2
4
2
t
−
x
2
t
−
x
2
2
¡
σ
σ
σ ¢2 σ x
σ x
x (σ − σ1 )
x2
σ
H(x, t) = 2 2
t − x 12 + 1 2 − 1 4
=
+
=
+
2
2
2
2
σ1 σ2
σ1 σ2
σ1 σ2
σ
σ
σ
σ 2 σ22
σ2
σ2
σ2
donc
−∞
−
h(x) =
x2
2σ 2
e
2πσ1 σ2
Z
 ³
+∞
−∞
σ2
x σ12
 t−
exp −
σ2 σ2
2 σ1 2 2
´2 
−
x2
2σ 2
e

 dt = √
σ 2π
Z
 ³
+∞
−∞
1
√
σ
σ1
σ
2
σ2
x σ12
 t−
exp −
σ2 σ2
2π
2 σ1 2 2
´2 

 dt
x2
e− 2σ2
La dernière intégrale est celle d’une fonction de densité d’une variable normale, donc h(x) = √
σ 2π
et X 0 + Y 0 ,→ N (0, σ 2 ), ce qui établit le théorème dans ce cas particulier.
• Deuxième étape : On revient à la somme X + Y .
X + Y = (X 0 + Y 0 ) + (m1 + m2 )
est une fonction affine d’une variable normale, donc :
X + Y ,→ N (m1 + m2 , σ 2 ) = N (m1 + m2 , σ12 + σ22 ), ce qui achève la preuve du théorème.
Généralisation : Il est facile de démontrer par récurrence que :
Si X1 , . . . , Xn sont des variables aléatoires sur (Ω, B, P ), indépendantes, suivant respectivement
les lois N (m1 , σ12 ), . . . , N (mn , σn2 ), alors X1 + · · · + Xn ,→ N (m1 + · · · + mn , σ12 + · · · + σn2 ).
11
Téléchargement