Chapitre IV : Les lois de probabilité usuelles

publicité
Chapitre IV : Les lois de probabilité usuelles ___________________________________________________ 2
IV.1 : Les lois discrètes __________________________________________________________________
IV.1.1 : Loi de Dirac ___________________________________________________________________
IV.1.2 : Loi indicatrice (ou loi de Bernoulli) ________________________________________________
IV.1.3 : Loi de Poisson _________________________________________________________________
IV.1.4 : Loi Binomiale _________________________________________________________________
IV.1.5 : Loi multinomiale _______________________________________________________________
IV.1.6 : Loi hypergéométrique ___________________________________________________________
2
2
2
2
3
3
3
IV.2 : Lois continues ____________________________________________________________________
IV.2.1 : Loi uniforme __________________________________________________________________
IV.2.2 : Loi gamma ____________________________________________________________________
IV.2.3 : Loi normale unidimensionnelle ____________________________________________________
IV.2.4 : Loi normale multidimensionnelle __________________________________________________
IV.2.5 : Loi Log-normale _______________________________________________________________
IV.2.6 : Loi de Khi-deux (Χ²) ____________________________________________________________
IV.2.7 : Loi de student__________________________________________________________________
IV.2.8 : Loi de Fisher-Snedecor : _________________________________________________________
4
4
4
5
5
5
6
6
6
1
Chapitre IV : Les lois de probabilité usuelles
IV.1 : Les lois discrètes
IV.1.1 : Loi de Dirac
Définition :
Soit a ∈—, un point fixé. On appelle loi de Dirac au point a la probabilité δa définie sur — par :
δa(x) = 1 si x = a
δa(x) = 0 si x ≠ a
Moments :
Si X O δa (X est une variable aléatoire qui suit la loi de δa).
Soit X une variable aléatoire tel que ∀w∈Ω X(w) = a
Si X est discret : Ω⊂Õ E[X] = P(X=a).a = δa(a).a = a
Si X est continue : Ω⊂— E[X] = P(X=a).a = a
E(X) = a
IV.1.2 : Loi indicatrice (ou loi de Bernoulli)
Définition :
On appelle variable indicatrice X la variable à valeurs dans {0, 1} telle que
PX{1} = p et PX{0} = q avec
p∈[0, 1] et q = 1-p
et on la note par B(p).
XOB(p)
E[X] = 0*P(X=0) + 1*P(X=1) = p
V(X) = E[X²] – E²[x] = 0*P(X=0) + 1*P(X=1) – p² = p – p² = p(1-p) = pq.
IV.1.3 : Loi de Poisson
La variable aléatoire X suit la loi de Poisson de paramètre λ (λ>0) si X = Õ et ∀x∈Õ PX{x} = e
−λ
λx
x!
On note XOP(λ).
Les moments :
+∞
E[ X ] = ∑ xe
−λ
x =0
+∞
+∞
λx
λ x −1
λy
−λ
−λ
= λe ∑
= λe ∑
= λe −λ e λ = λ .
x!
x = 0 ( x − 1)!
y = 0 y!
1
23
eλ
V ( X ) = E[ X ] − E [ X ]
2
2
E[ X 2 ] = ?
(E[ϕ ( X )] = ∫ ϕ ( x) f ( x)dx )
E[ϕ ( X )] = ∑ ϕ ( x) P( X = x)
x
+∞
+∞
E[ X 2 ] = ∑ x ² P( X = x) = ∑ x ² e −λ
x =0
+∞
= e −λ λ ∑ ( x + 1)
x =0
x =1
+∞
λx
λx
= e −λ ∑ x
=
x!
( x − 1)!
x =1
+∞
+∞
+∞
+∞
λ
λx
λx
λ x −1
λx
= e −λ λ ∑ x
+ e −λ λ ∑
= e −λ λ2 ∑
+ λ == e −λ λ2 ∑ + λ
x!
x!
x =0
x = 0 x!
x =1 ( x − 1)!
x = 0 x!
x
E[ X ] = λ2 + λ
2
V ( X ) = λ2 + λ − λ2 = λ
2
IV.1.4 : Loi Binomiale
On considère n tirages équiprobables indépendants dans une population composée de deux types d’éléments.
Le premier (I) en proportion p.
Le second (II) en proportion q = 1-p.
Soit X le nombre d’éléments du type (I) présent dans l’échantillon de taille n.
X est une variable aléatoire à valeur dans {0, 1, …, n}.
La loi de X est appelée loi binomiale de paramètre (n, p) et est notée B(n, p).
Supposons qu’à l’individu n)i de l’échantillon (i=1 à n) on associe la variable aléatoire Yi tel que
P(Yi=1) = p si i∈(I)
P(Yi=0) = 1-p si i∈(II)
Alors X =
n
∑Y
i =1
i
.
Comme YiOB(p), on peut écrire que la loi binomiale B(n, p) est la somme de n lois de Bernoulli indépendantes.
n
n
i =1
i =1
E[ X ] = ∑ E[Yi ] = ∑ p = np
n
n
i =1
i =1
V [ X ] = ∑ V [Yi ] = ∑ pq = npq
Définition :
Une variable aléatoire X suit une loi binomiale de paramètre (n , p) si :
P X ({x}) = C nx p x q n − x pour x∈{0, 1, …, n}.
IV.1.5 : Loi multinomiale
C’est la généralisation de la loi binomiale. On considère m types dont chaque type j est en proportion pj avec
m
∑p
j =1
j
= 1.
On tire de façon équiprobable et indépendante, un échantillon de taille n, et on définit la variable aléatoire Nj
(1≤j≤m) à valeur dans {0, 1, …, n}, représentant le nombre d’éléments de type j.
On dit que le vecteur (N1, …, Nm) suit une loi multinomiale de paramètre (n, p1, …, pm), notée M(n, p1, …, pm).
Définition :
m
Le vecteur aléatoire X = (N1,…, Nm) suit une loi multinomiale de paramètres (n, p1, …, pm) ; pj>0 et
∑p
j =1
Si PX{(n1, …, nm)}=
j
=1
n!
P1n1 ...Pmnm
n1!...n m !
IV.1.6 : Loi hypergéométrique
On considère un tirage équiprobable sans remise de n éléments dans une population de taille N (n≤N), on
s’intéresse à un type donné (I), d’éléments de la population, que l’on supposera être de proportion p.
Soit X le nombre d’éléments de type (I). La loi de X est appelée : loi hypergéométrique de paramètre N, n, p et
est notée H(N, n, p).
Définition :
X suit une loi hypergéométrique de paramètres N, n, p si :
P
X
{x} =
x
n− x
C Np
C NQ
C Nn
avec q=1-p et Max(0, n-Nq) ≤x≤Min(n, Np)
Remarque :
Np est un entier.
Moments :
E[X] = np
V (X ) =
N −n
npq
N −1
3
IV.2 : Lois continues
IV.2.1 : Loi uniforme
Définition :
X suit une loi uniforme sur [a, b], si sa densité est donnée par : f ( x) =
On note par XOU[a, b].
1
.1[ a ,b ] ( x)
b−a
x−a
pour x∈[a, b]
b−a
x
a
a
1
1
x−a
.1[ a ,b ] ( x)dx = ∫ 0dx + ∫
f ( x)dx = ∫
dx =
−∞ b − a
−∞
−∞ b − a
b−a
La fonction de répartition est F ( x ) =
F ( x) = P( X ≤ x) = ∫
x
−∞
Moments :
XOU[a, b]
2
(
b − a)
V ( x) =
a+b
E[ X ] =
2
2
IV.2.2 : Loi gamma
Définition :
X suit la loi gamma de paramètre p et ϑ ; p>0 ; ϑ>0, notée γ(p, ϑ) si sa densité est :
+∞
ϑ p −ϑx p −1
f ( x) =
e x .1R ( x) où Γ( p ) = ∫ e − x x p −1 dx
0
Γ( p )
+
Remarques :
a) Si le paramètre d’échelle ϑ est égale à 1 on écrira γ(p, 1) ou γ(p).
Si ϑ≠1 la variable aléatoire Y = ϑX suit γ(p).
b) Si p = 1, la loi gamma γ(1, ϑ) porte le nom de loi exponentielle de paramètre ϑ et sa fonction de
répartition est F(x) = 1-e -ϑx.
Propriétés de Γ :
Γ(p) = (p-1) Γ(p-1) ; ∀p>0
Γ(p) = (p-1)! ∀p∈Õ*
1
Γ( ) = π .
2
Moments :
Si X suit une loi γ(p, ϑ) on a : E[ X ] =
r
Γ( p + r )
ϑ r Γ( p )
E[ X ] =
p
ϑ
;V ( X ) =
p
ϑ²
4
IV.2.3 : Loi normale unidimensionnelle
Définition :
X suit une loi normale de paramètres m, Γ (Γ>0) si la densité est donnée par f ( x ) =
1
Γ 2π
e
−
( x − m )²
2Γ ²
x∈—.
On note par XON(m, Γ).
Moments : E[X] = m ; V(X) = Γ²
Loi normale centrée réduite :
La variable aléatoire u =
et f u (u ) =
1
2π
e
−
X −m
suit une loi normale de moyenne nulle et de variance égale à 1 notée N(0, 1)
Γ
u²
2
X centrée ⇔ E[X] = 0
X réduite ⇔ V(X) = 1
IV.2.4 : Loi normale multidimensionnelle
Soit X un vecteur aléatoire de —p de coordonnées Xi.
Définition :
 u1 
 
Soit u =  ..  un vecteur quelconque de —p.
u 
 n
X est un vecteur normal ( au gaussien) si ∀u ; tuX est une variable aléatoire normale.
Définition :
Soit m∈ —p et Σ une matrice (p, p) réelle symétrique positive.
X est un vecteur normal de dimension p si sa densité est donnée par :
f ( x) =
(2π )
1
p/2
t
det Σ
e −1 / 2 ( x − m ) Σ
−1
( x−m)
Propriété :
E[X] est le vecteur espérance m et Σ est la matrice de variance-covariance et on note la loi X par N(m, Σ).
Définition :
p
La loi N(0, Ip) est appelée loi normale centrée et réduite de densité f ( x1 ,.., x p ) =
1
(2π )
p/2
e
−1 / 2
∑ xi2
i =1
IV.2.5 : Loi Log-normale
Soit Y une variable aléatoire ON(m, Γ).
La variable aléatoire X définie par X = exp Y suit une loi Log-normale.
La densité de X est : f ( x ) =
 (log x − m )2
exp −
2Γ ²
Γ 2π

1

.1 + ( x)
 R

5
IV.2.6 : Loi de Khi-deux (Χ²)
On considère n variables aléatoires (X1, …, Xn) indépendantes suivant la normale N(0, 1).
Définition :
La variable aléatoire u =
n
∑X
i =1
f u ( x) =
1
−
n
2 n / 2 Γ( )
2
x
2
e x
n
−1
2
2
i
suit une loi dite de Khi-deux à n degrés de i-1 libertés. Notée Χ²(n) de densité
.1R + ( x)
Moments :
E[u] = n et V(u) = 2n
IV.2.7 : Loi de student
Définition :
Soient X et Y deux variables aléatoires indépendantes suivant respectivement N(0, 1) et Χ²(n).
On appelle loi du student à n degrés de libertés la loi définie par : Tn =
f Tn ( x) =
1
x²
(1 + )
1 n
n
n Β( , )
2 2
n +1
2
où Β( p, q) =
X
Y
n
sa densité :
Γ ( p )Γ ( q )
Γ( p + q )
Moments :
V (Tn ) =
E[Tn] = 0 si n>1
n
si n > 2
n−2
Cas particulier : Loi de Cauchy
X
Pour n = 1, T1 =
Y
f T1 ( x) =
1
π (1 + x ²)
Si f est la densité de X.
F(x) = P(X≤x) =
∫
x
−∞
f (t )dt
IV.2.8 : Loi de Fisher-Snedecor :
Définition : Soient X et Y deux variables aléatoires indépendantes suivant respectivement les lois Χ²(n) et Χ²(m).
X /n
suit une loi de Fisher-Snedecor à n et m degrés de liberté notée Fn, m.
Y /m
−1
1
xn/2
n/2
m/2
La densité est : f F ( x ) =
n m
.1R + ( x)
n+ m
n m
2
Β( , )
( m + n)
2 2
La variable F =
Moments :
1
(m > 2)
m−2
2m²(n + m − 2)
V ( Fn ,m ) =
n(m − 4)(m − 2)²
E[ Fn ,m ] =
(m > 4)
6
Téléchargement