THEORIE DES PROBABILITES LES « INCONTOURNABLES » Marc CHRISTINE

publicité
THEORIE DES PROBABILITES
LES « INCONTOURNABLES »
Marc CHRISTINE
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
1
Ou ce qu’il est incontournable de connaître en théorie des
probabilités…
Ce document n’est pas un glossaire de TOUTES les définitions, propriétés, théorèmes ou formules du
cours, car il y en a bien d’autres, mais un condensé de ce qu’il paraît indispendable de savoir.
Le cadre général ou les hypothèses de chaque résultat rappelé n’étant pas toujours énoncés
explicitement, on se reportera au cours complet pour avoir la formulation la plus précise.
SOMMAIRE
Ou ce qu’il est incontournable de connaître en théorie des probabilités…............................................. 2
Chapitre 0 : éléments pour une approche épistémologique.................................................................... 3
Chapitre 1-1 : variables aléatoires, moments.......................................................................................... 6
Chapitre 1-2 : variables aléatoires, lois. ................................................................................................ 10
Chapitre 1-3 : variables aléatoires, changement de variables. ............................................................. 17
Chapitre 2 : produit de convolution........................................................................................................ 19
Chapitre 3 : fonctions caractéristiques. ................................................................................................. 21
Chapitre 4 : lois normales...................................................................................................................... 24
Chapitre 5 : convergences ponctuelles et fonctionnelles. ..................................................................... 29
Chapitre 6 : convergence en loi (et lien entre tous les modes de convergence). ................................. 31
Chapitre 7 : théorie asymptotique. ........................................................................................................ 36
Chapitre 8 : conditionnement, espérance conditionnelle. ..................................................................... 38
GLOSSAIRE SUR LES PRINCIPALES LOIS DE PROBABILITE USUELLES. ................................... 43
1ère PARTIE : Principales lois discrètes. ............................................................................................ 43
2ème PARTIE : Principales lois usuelles admettant une densité par rapport à la mesure de
LEBESGUE (cas réel)........................................................................................................................ 49
La galaxie des lois de probabilité. ......................................................................................................... 60
ELEMENTS DE BIBLIOGRAPHIE. ....................................................................................................... 61
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
2
Chapitre 0 : éléments pour une approche épistémologique.
Définition et axiomatique élémentaire des probabilités.
Une probabilité sur un espace mesurable (Ω, A) est une application P de A dans [0, 1] vérifiant les
deux propriétés :
•
•
P {Ω} = 1
Pour toute famille dénombrable {A n } n∈ N d’évènements deux à deux disjoints, alors :
P{
∑A
n
n∈ N
∑ P {An }, en notant ∑ An
}=
n ∈N
n∈ N
la réunion des A n dans le cas où ils s’excluent
mutuellement. [Propriété dite de σ-additivité]
Propriétés élémentaires.
A et B étant deux parties de Ω, alors :
•
•
•
•
•
Si A et B sont disjointes, dont la réunion sera notée A + B, alors :
P {A + B} = P {A} + P {B}.
P {C A} = 1 - P {A}, d’où : P { ∅ } = 0.
Si : A ⊂ B , alors : P {A} ≤ P {B}.
P {A ∪ B} = P {A} + P {B} - P {A ∩ B}
Formule de POINCARE : elle généralise l’égalité précédente pour une réunion finie de n
évènements :
n
P{
UA
k
k =1
•
n
}=
∑ (−1)
k −1
k =1
∑
S k , où : S k =
{
P A j1 ∩ A j2 ∩ ... ∩ A jk
j1 < j2 < ... < jk
}
P {A ∪ B} ≤ P {A} + P {B}.
Plus généralement : pour un nombre fini k (non nul) d’évènements A 1 , A 2 , ..., A k :
k
k
P{
U A } ≤ ∑ P {Ai }
i
i =1
i =1
avec égalité si et seulement si les A i sont deux à deux disjoints.
Stabilité par limite croissante ou décroissante (ou « continuité monotone »).
•
Pour une suite {A n } d‘évènements croissante pour l’inclusion : lim ↑ A n =
UA
n
(limite
n∈ N
croissante). Pour une suite {A n } décroissante : lim ↓ A n =
IA
n
(limite décroissante).
n∈ N
On a alors les relations :
P {lim ↑ A n } = lim ↑ P {A n }
P {lim ↓ A n } = lim ↓ P {A n }.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
3
•
Pour toute suite d’évènements D n (non nécessairement monotone) :
P{
UD
n
∑
} ≤
n∈ N
n∈ N
•
P {D n }.
Pour une suite quelconque d‘évènements {A n } :
P {lim inf A n } ≤ lim inf P {A n } ≤ lim sup P {A n } ≤ P {lim sup A n }
avec : lim sup A n =
I UA
p
et lim inf A n =
n∈ N p > n
U IA
p
.
n∈ N p > n
Indépendance d’évènements.
Des évènements {A n } n ∈ N sont mutuellement indépendants ou indépendants dans leur ensemble ou,
par ellipse, indépendants si et seulement si :
∀ K ∈ N*, ∀ (i 1 , i 2 ,..., i K ) ∈ N K , i 1 < i 2 < ... < i K ⇒ P {A i1 ∩ A i2 ∩ ... ∩ A iK } =
Dans ce cas : P {
I
An } =
n∈ N
∏
K
∏
j =1
P {A i j }.
P {A n }.
n∈ N
Théorème de BOREL-CANTELLI.
•
Si la série
∑ P {An } est convergente, alors : P { I U Ap } = 0.
n ∈N
•
Si la série
n∈ N p > n
∑ P {An } est divergente (de valeur + ∞ ) alors, sous l’hypothèse additionnelle
n ∈N
d’indépendance mutuelle des A n : P {
I UA
p
} = 1.
n∈ N p > n
Théorème de convergence monotone (ou de Beppo LEVI).
Si {f n } n ∈ N une suite croissante de fonctions mesurables positives ou nulles définies sur (Ω, A, µ),
alors : lim ↑ (
∫
f n dµ ) = ∫ ( lim ↑ f n ) dµ .
Lemme de FATOU.
Si {f n } n ∈ N une suite de fonctions mesurables positives ou nulles définies sur (Ω, A, µ), alors :
∫ (lim inf
f n ) dµ ≤ lim inf ( ∫ f n dµ ).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
4
Théorème de convergence dominée.
Si {f n } n ∈ N est une suite de fonctions mesurables définies sur (Ω, A, µ), convergeant simplement,
quand n tend vers + ∞ , vers une fonction f et s’il existe une fonction mesurable g, positive ou nulle,
intégrable par rapport à µ, telle que : ∀ n ∈ N :│f n │ ≤ g, alors : lim (
n→+∞
∫f
n
dµ ) = ∫ ( lim f n ) dµ .
n→+∞
Mesure admettant une densité par rapport à une autre.
+
La mesure ν admettant la densité f (à valeurs dans IR ) par rapport à la mesure µ est définie par :
∫
∀ A ∈ A : ν {A} =
Notations : ν = f . µ, ou : f =
A
f dµ .
dν
, ou : dν = f . dµ.
dµ
Intégration par rapport à une mesure admettant une densité par rapport à une autre.
Si ν = f . µ, alors, pour toute fonction g intégrable par rapport à ν :
∫ g dν = ∫ g f
dµ .
Mesure-image.
Soient un espace mesuré (Ω, A, µ), un espace mesurable (E, E) et T une application mesurable de Ω
T
dans E. La mesure-image de µ par T, notée µ , est la mesure définie sur la tribu E de l’espace
d’arrivée de T, par la relation : ∀ A’ ∈ E : µ {A’} = µ {T
T
−1
<A’>}.
Théorème de transfert.
On munit (E, E) de la mesure-image
R) :
µT
f est intégrable par rapport à
l’égalité :
∫
E
f ( x) dµ T ( x) =
∫
Ω
µ T . Alors, si f est une application mesurable de (E, E) dans (R,
si et seulement si f o T est intégrable par rapport à
( f o T )(ω ) dµ (ω ) =
∫
Ω
µ
et l’on a
f [T (ω )] dµ (ω ) .
Théorème de FUBINI.
Si les deux mesures µ 1 et µ 2 sont σ-finies et si f est intégrable par rapport à la mesure µ 1 ⊗ µ 2 ,
alors :
∫
Ω1 × Ω 2
f (ω1 , ω 2 ) d ( µ1 ⊗ µ 2 ) (ω1 , ω 2 ) =
∫
Ω1
⎡
f (ω1 , ω 2 ) dµ 2 (ω 2 )⎤ dµ 1 (ω1 ) .
⎢⎣ ∫Ω 2
⎥⎦
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
5
Chapitre 1-1 : variables aléatoires, moments.
Espérance (cas réel).
•
Si X est une variable aléatoire intégrable par rapport à P, l’espérance de X est le réel :
EX=
•
∫
∫
X dP =
Ω
Ω
X (ω ) dP (ω ) =
∫ R x dP
X
( x) .
Si X et Y sont deux variables aléatoires réelles indépendantes, telles que la variable aléatoire
produit X Y soit intégrable, alors : E (X Y) = (E X) (E Y).
Variance (cas réel).
•
Si X est une variable aléatoire de carré intégrable, la variance de X (moment centré d’ordre 2)
est le réel : V X = E (X - E X)
2
2
2
= E (X ) - (E X) .
VX .
•
L’écart-type de X est défini par
•
Pour deux variables X et Y appartenant à L 2 :
Cov (X, Y) = E [(X - E X) (Y - E Y)] = E (X Y) - (E X) (E Y).
On notera qu’on peut aussi écrire la covariance sous la forme :
Cov (X, Y) = E [(X - a) (Y - E Y)], pour tout réel a.
•
Si X et Y sont deux variables aléatoires réelles de carré intégrable :
V (X + Y) = V X + V Y + 2 Cov (X, Y).
Plus généralement, avec n variables aléatoires X 1 , X 2 , ..., X n de carré intégrable :
n
V(
∑X
i =1
•
n
i
)=
∑ V (X
i =1
i
) +
∑∑ Cov ( X , X
i
i
j ≠i
Inégalité de SCHWARZ :[Cov (X, Y)]
2
n
j
)=
∑ V (X
i =1
i
) + 2 ∑ ∑ Cov ( X i , X j ) .
i
j> i
≤ V (X) V (Y).
Erreur quadratique moyenne.
E (X - a )
2
= V X + (E X - a ) .
2
Erreur quadratique moyenne = variance + carré du biais (biais = E X - a ).
Variable aléatoire centrée, centrée réduite.
Une variable aléatoire réelle appartenant à L 2 est dite centrée si et seulement si : E X = 0, centrée
réduite si et seulement si : E X = 0 et V X = 1.
2
Si une variable aléatoire réelle X appartenant à L 2 a pour espérance m et pour variance σ , la
variable Y =
X −m
σ
sera centrée réduite.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
6
Coefficient de corrélation entre X et Y.
ρ = corr (X, Y) =
Cov ( X , Y )
.
(VX )( VY )
•
•
X et Y non corrélées ⇔ Cov (X, Y) = 0 ⇔ Corr (X, Y) = 0.
X et Y indépendantes ⇒ X et Y non corrélées.
•
▲ Attention : la non-corrélation n’entraîne pas l’indépendance. Cette propriété est vraie
néanmoins lorsque le couple (X, Y) suit une loi normale.
Si X 1 , X 2 , ..., X n sont de carré intégrable et non corrélées deux à deux, on aura :
n
V(
∑ Xi ) =
i =1
n
∑ V (X
i =1
i
).
Ceci sera en particulier vrai lorsque les variables sont mutuellement indépendantes.
Espérance (cas vectoriel).
•
p
Si X est un vecteur aléatoire à valeurs dans R , de composantes X 1 , X 2 , …,X p , chaque
⎛ EX 1 ⎞
⎜
⎟
⎜ EX 2 ⎟
variable X i étant intégrable par rapport à P, l’espérance de X est le vecteur : E X = ⎜
.
. ⎟
⎜
⎟
⎜ EX ⎟
p
⎝
⎠
•
q
Soient A une matrice appartenant à M q , p (R) et B un vecteur de R .
Si Y = AX + B, alors : EY = A EX + B.
Matrice de variance-covariance.
•
p
Si X est un vecteur aléatoire à valeurs dans R , la matrice de variance-covariance est
(sous réserve d’existence) : Σ = E (X - E X) (X - E X )‘ = E (X X’) - (E X) (E X’).
X’ désigne la transposée de X.
CNS d’existence : X i ∈ L 2 , pour tout i dans {1, 2, …, p}.
•
Plus généralement, si X et Y sont deux vecteurs aléatoires, respectivement à valeurs dans
R
p
q
et R , la matrice de covariance entre X et Y est (sous réserve d’existence) :
Cov (X, Y) = E (X - E X) (Y - E Y)’
•
Propriétés :
o
q
Soient A une matrice appartenant à M q , p (R) et B un vecteur de R .
Si Y = AX + B, alors : VY = A (VX ) A′ .
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
7
o
De même : Cov (CX , DY ) = C Cov ( X , Y ) D ' .
o
Il y a équivalence entre les trois propriétés suivantes :
Σ est non inversible.
p
il existe un vecteur u de R , non nul, tel que : u’ Σ u = 0.
il existe presque sûrement une liaison affine entre les composantes de X.
o
Σ est diagonalisable dans le groupe orthogonal, à valeurs propres ≥ 0 (> 0 si et
seulement si elle est inversible).
o
Si : Σ = T ∆ T’, avec T orthogonale (T’ = T
1
Σ2
1
Σ2
−1
) et ∆ diagonale, on peut définir une
1
Σ2
1
Σ2
1
2
1
2
telle que : Σ =
, en posant :
=T∆
T’, où ∆
matrice symétrique
est la matrice diagonale dont les éléments diagonaux sont les racines carrées des
valeurs propres de Σ.
Vecteur centré réduit.
Si E Y = m et V Y = Σ et si Σ est inversible, le vecteur centré réduit construit à partir de Y est :
X0 = Σ
−
1
2
(Y - m).
Espérance d’une forme quadratique Q (Y).
Si E Y = m et V Y = Σ : E Q(Y) = Tr ΣQ + Q (m).
•
Application : moments « vrais » des moments empiriques.
Soient n variables aléatoires réelles X1, X 2 , ..., X n , admettant les mêmes moments d'ordre 1
et 2, soit :
EX i = m
VX i = σ 2
∀i ∈ {1, 2, ..., n}
On définit les moments empiriques :
X=
1 n
∑ Xi (moyenne empirique)
n i =1
S2 =
1 n
(X i − X )2 (variance empirique).
∑
n − 1 i =1
Alors :
EX = m
Sous l’hypothèse d’indépendance des X i : VX =
σ2
n
et E S
2
2
=σ .
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
8
Inégalité de HÖLDER.
1
1
+
= 1, alors, pour tout couple de
p q
Si p et q sont deux réels strictement supérieurs à 1 tels que :
p
variables aléatoires réelles (X, Y), on a : E ( X Y ) ≤ [E ( X
XY
1
≤ X
p
1
p
q
1
q
)] [E ( Y )] , soit :
Y q.
Le cas p = q = 2 redonne l’inégalité de SCHWARZ : E ( X Y ) ≤
( EX 2 ) ( EY 2 ) .
Inégalité de JENSEN.
Soient X une variable aléatoire réelle, à valeurs dans un intervalle I, et φ une fonction convexe de I
dans R. Alors, si X et φ (X) sont intégrables, on a l’inégalité :
φ (EX) ≤ E [φ (X)].
Moyen mnémotechnique : l’inégalité est dans le même sens que dans la définition de la convexité :
φ [λ x + (1 - λ) y] ≤ λ φ (x) + (1 - λ) φ (y), pour λ ∈ [0, 1].
Si φ est strictement convexe, égalité si et seulement si X est une variable aléatoire presque sûrement
constante.
Inégalité de MARKOV.
Si Y est une variable aléatoire réelle intégrable, alors, pour tout réel α > 0 :
P {│Y│ ≥ α} ≤
1
α
E │Y│.
Si Y est de puissance k-ième intégrable : P {│Y│ ≥ α} ≤
1
α
k
k
E │Y│ .
Inégalité de BIENAYME-TCHEBYCHEV
2
Si X est une variable aléatoire réelle de carré intégrable, d’espérance m et de variance σ , alors :
P {│X - m│ ≥ ε} ≤
1
ε
2
σ , ∀ ε > 0 ou : P {│
2
X −m
σ
│ ≥ t} ≤
1
, ∀ t > 0.
t2
Inégalité de CERNOV.
P {X ≥ a} ≤ inf [e
−sa
s>0
avec : L X (s) = E (e
sX
L X (s)],
) (transformée de LAPLACE de X).
(Savoir le redémontrer à partir de l’inégalité de MARKOV).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
9
Chapitre 1-2 : variables aléatoires, lois.
Premières définitions.
•
La loi d’une variable aléatoire X est la probabilité-image par X de la probabilité P définie sur
X
l’espace fondamental, notée P .
Caractérisation : pour tout évènement B de la tribu de l’espace d’arrivée de X :
P
•
X
{B} = P {X
−1
<B>} = P {ω ∈ Ω / X(ω) ∈ B} = P {X ∈ B}.
Loi d’un couple de variables aléatoires.
Pour deux variables aléatoires X et Y, la loi du couple (X, Y) est définie par :
{A × B} = P {X ∈ A et Y ∈ B}, pour tous évènements A et B des tribus des espaces
P
d’arrivée de X et Y respectivement.
( X ,Y )
•
Un exemple important : le cas des variables aléatoires indépendantes.
Deux variables aléatoires (réelles ou vectorielles) X et Y à valeurs dans R
respectivement sont dites indépendantes si et seulement si :
p
et R
q
∀ A ∈ R p , ∀ B ∈ R q : P {X ∈ A et Y ∈ B} = P {X ∈ A} P {Y ∈ B}.
Caractérisation : P
•
( X ,Y )
=P
X
⊗ PY .
Propriétés de l’indépendance :
o
X et Y sont indépendantes si et seulement si, quelles que soient les applications
mesurables f et g :
f (X) et g (Y) sont indépendantes
ou : E [f (X) g (Y)] = E [f (X)] E [g (Y)], dès que f (X) et g (Y) sont intégrables.
o
Cas particulier : une fonction (mesurable) d’une variable aléatoire X est indépendante
de X si et seulement si la loi de f (X) est dégénérée (i.e., elle n’attribue que les valeurs
0 ou 1 aux évènements).
Ceci équivaut au fait que la loi de f (X) est une masse de DIRAC, c’est-à-dire que
f (X) est presque sûrement constante.
•
Loi symétrique.
p
Si X est une variable aléatoire à valeurs dans R ou R , X possède une loi symétrique si et
seulement si : P X = P − X .
Caractérisation des lois discrètes.
La loi d’une variable aléatoire X à valeurs dans un espace mesurable E est discrète si et seulement s’il
existe une famille dénombrable {x n } n ∈ N d’éléments de E et une famille {p n } n ∈ N d’éléments de [0, 1]
vérifiant la condition :
∑p
n∈ N
n
= 1, telles que X prenne presque sûrement ses valeurs dans {x n } n ∈ N ,
avec les conditions : ∀ n ∈ N : P {X = x n } = p n .
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
10
La loi de X est entièrement déterminée par les p n .
Dans le cas des variables aléatoires entières, à valeurs dans N ou Z : ∀ n ∈ Z : P {X = n} = p n .
Caractérisation des lois : cas à densité.
•
Une variable aléatoire X, réelle ou vectorielle, admet une densité par rapport à une mesure de
référence µ si et seulement si sa loi s‘écrit sous la forme : ∀ A ∈ R
+
p
La fonction f, définie sur R , à valeurs dans IR , est notée : f =
par rapport à µ et vérifie la relation :
∫ IR
p
p
:P
X
{A} =
∫
A
f dµ .
dP X
. Elle est intégrable
dµ
f dµ = 1.
Une telle fonction est appelée densité de probabilité (par rapport à la mesure µ).
•
CNS d’indépendance :
Si X et Y sont deux variables aléatoires, dont les lois admettent des densités f X et f Y ,
respectivement, par rapport à des mesures µ X et µ Y (σ - finies), X et Y sont indépendantes si
et seulement si la densité de la loi du couple (X, Y), par rapport à la mesure-produit µ X ⊗
µ Y , est égale au produit des deux densités f X et f Y , soit :
dP ( X , Y )
dP X
dP Y
( x, y ) =
( x)
( y) , ∀ x ∈ R p , ∀ y ∈ R q .
d (µ X ⊗ µY )
dµ X
dµ Y
•
Application :
Si l’on a n variables aléatoires indépendantes et de même loi de densité f par rapport à une
mesure de référence µ, on appellera vraisemblance l’application :
(x 1 , x 2 , …, x n ) ∈ R
n
→ L (x 1 , x 2 , …, x n ) =
n
∏ f (x ) .
i
i =1
Cette fonction est la densité du n-uplet (X 1 , X 2 , …, X n ) par rapport à la mesure-produit µ ⊗
µ ⊗ … ⊗ µ (produit n fois).
•
Cas d’une loi symétrique.
Si la loi de X admet une densité par rapport à la mesure de LEBESGUE, elle est symétrique si
et seulement si cette densité est paire (λ p -presque partout).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
11
Caractérisation des lois : cas réel.
•
Pour X variable aléatoire réelle, on appelle fonction de répartition de X la fonction notée F X
définie par : ∀ x ∈ R : F X (x) = P {X < x}.
Corollaires :
∀ x ∈ R : P {X ≥ x} = 1 - F X (x).
pour tous réels a et b tels que : a < b : P {a ≤ X < b} = F X (b) - F X (a).
•
Propriétés basiques :
o
o
o
Croissance (large).
Continuité à gauche en tout point.
Discontinuité éventuelle à droite : si F X est discontinue à droite en x 0 , alors :
+
F X (x 0 ) - F X (x 0 ) = P {X = x 0 }. (masse ponctuelle en x 0 )
Si F X est continue en tout point, la loi de X est dite continue : X ne possède alors
aucune masse ponctuelle.
o
•
lim F X (x) = 1 ; lim F X (x) = 0, si X est p.s. finie.
x → +∞
x → −∞
Exemples :
o
Masse de DIRAC.
Si X est une variable aléatoire dont la loi est la masse de DIRAC en un point a, sa
fonction de répartition est définie, pour tout réel x, par :
F X (x) =
o
1 si x > a
.
0 si x ≤ a
Variable aléatoire à valeurs entières.
La fonction F X est une fonction en escalier, constante sur chacun des intervalles
]k, k+1], continue à gauche en k+1, discontinue à droite en k. Le saut en chaque
valeur entière k a une amplitude égale à la masse ponctuelle affectée au point k.
•
Cas d’une loi symétrique.
Si la fonction de répartition FX est continue en tout point, la loi de X est symétrique si et
seulement si : ∀ x ∈ R : FX (x ) = 1 − FX (− x ) .
•
Lien avec la densité par rapport à la mesure de LEBESGUE :
o
Si la loi de la variable aléatoire X possède une densité f par rapport à la mesure de
LEBESGUE, alors la dérivée de la fonction de répartition est λ-presque partout égale
à cette densité.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
12
On peut donc écrire, pour λ-presque tout x :
lim
h→0
FX ( x + h) − FX ( x )
= f (x).
h
Interprétation intuitive de la densité (par rapport à la mesure de LEBESGUE) :
lim
h→0
o
P {x ≤ X < x + h}
= f (x), ou, de manière approximative :
h
P {x ≤ X < x + dx} ≈ f (x) dx, pour dx « petit ».
Réciproquement, si la fonction de répartition FX est de classe C
1
sur R (ou
1
seulement continue et de classe C par morceaux, c’est-à-dire qu’il existe une famille
au plus dénombrable d’intervalles I k formant une partition de R, tels que FX soit de
1
o
classe C sur I k et que la dérivée F ' X admette une limite en chacune des bornes
finies de I k ), alors la loi de X possède une densité par rapport à la mesure de
LEBESGUE, égale λ-presque partout à la dérivée F ' X (laquelle peut ne pas exister
en les bornes de I k ).
o
▲ Si la fonction de répartition FX présente des discontinuités, même si elle est
dérivable en tout autre point, sa dérivée n’est pas la densité de la loi de X par rapport
à la mesure de LEBESGUE : cette densité ne peut exister du fait des masses
ponctuelles présentées par cette loi.
Il se peut même que la fonction FX soit continue partout mais que la loi de X
n’admette pas de densité par rapport à la mesure de LEBESGUE.
•
Relation avec l’espérance :
Soit X une variable aléatoire réelle intégrable, de fonction de répartition F X .
⎧ + x dP X ( x ) = + [1 − FX (t )]dλ(t )
∫IR
⎪∫IR
Alors : ⎨
.
X
(
)
(
)
−
=
x
dP
x
F
(t)
dλ
t
⎪⎩ ∫IR −
∫IR − X
Corollaire :
EX = ∫
IR +
[1 − FX (t ) − FX (− t )]dλ (t ) .
→ Si X est une variable aléatoire positive ou nulle, cette dernière égalité s’écrit sous la
forme :
EX =
•
∫ [1 − F (t )]dλ(t ) .
IR +
Quantiles :
Soit α ∈ ]0, 1[. On appelle quantile d’ordre α de la loi d’une variable aléatoire réelle X, de fonction de
répartition F, tout réel qα vérifiant la double inégalité :
F(qα ) ≤ α ≤ F + (qα ) ,
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
13
soit encore :
ou :
P {X < qα } ≤ α ≤ P {X ≤ qα }
⎧ P {X < qα } ≤ α
⎪
et
.
⎨
⎪P {X > q } ≤ 1 − α
α
⎩
Si F est continue en tout point, un quantile d’ordre α sera alors défini par l’égalité : F (q α ) = α.
Si F est strictement croissante, il y a unicité du quantile d’ordre α.
Si F est bijective, alors : q α = F
-
−1
(α).
Terminologie :
o
médiane si
α=
P {X < q1 / 2 } ≤
1
2
1
2
. On notera que celle-ci est définie par les inégalités :
et P {X > q1 / 2 } ≤
1
2
.
Lorsque F est bijective, la médiane est éfinie par la condition : F (q 1 / 2 ) =
o
o
o
1
.
2
α = 14 , 24 ,
3
4
9
1
déciles pour α = 10 , K , 10
99
1
, K , 100
centiles pour α = 100
quartiles pour
.
Lois usuelles.
Il est indispensable de connaître les lois usuelles suivantes (les cases non colorées sont de
connaissance facultative) (cf. aussi glossaire p.42) :
LOIS A VALEURS ENTIERES
Moments d’une
Détermination p k
variable X suivant la
loi considérée
E X = p,
BERNOULLI B (1, p) p = p, p = 1 - p,
1
0
V X = p (1 -p)
(p ∈ ]0, 1[)
0 sinon
BINOMIALE B (n, p) C k p k (1 - p) n− k , pour E X = n p,
n
V X = n p (1 -p)
∗
(n ∈ N , p ∈ ]0, 1[) k ∈ {0, 1, ..., n},
0 sinon
k
E X = λ,
POISSON P (λ), λ > 0
−λ λ
e
, pour k ∈ N V X = λ
Nom de la loi
Fonction
caractéristique
φ (t)
1-p+pe
it
it
(1 - p + p e )
e
n
− λ (1 − ei t )
k!
0, sinon
Géométrique (ou de
PASCAL) G p
(p ∈ ]0, 1[)
(1 - p)
∗
k −1
N ,
0, sinon
p, pour k ∈
1
,
p
1− p
VX=
p2
EX=
p ei t
1 − (1 − p ) e i t
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
14
Nom de la
loi
β 1 ( p, q )
LOIS CONTINUES
Fonction de
répartition
F (x)
Densité
f (x)
Γ( p + q )
Γ ( p )Γ ( q )
p −1
x
(1
-
x)
k
Γ( p + q) Γ( p + k )
Γ( p) Γ( p + q + k )
γ ( p, θ )
(p > 0,
θ > 0)
γ
pour k > - p.
x p −1
Γ( p + q )
1 + (x)
Γ( p)Γ(q) (1 + x) p + q R
CAUCHY
1
1
π 1+ x2
θ p e −θ x x p −1
1 R + (x)
Γ( p )
1
π
k
E (X ) =
Γ( k + p ) Γ( q − k )
,
Γ ( p )Γ ( q )
pour k ∈ ]- p, q[.
Arctg x +
e
−θ x
∑
θ x
Relation utile : Si X ~>
θ e −θ x 1 R
+
(x)
1-e
k
,
γ ( p, θ )
−θ x
pour x >
0,
0 sinon.
Γ(k + p )
,
Γ( p) θ k
LAPLACE
θ
2
Logistique
− x −θ e − x
e
−θ x
AB e − B x
(1 + Ae − B x ) 2
e
p
pour k > - p.
EX=
p
θ
,VX=
θ
γ ( p, )
p
θ2
(a ≠ 0).
a
Γ(k + 1)
k
θ
E (X ) =
,
θk
θ − it
: a X ~>
pour k > - 1.
EX=
θe
− t
⎛ θ ⎞
⎜⎜
⎟⎟
⎝ θ − it ⎠
E (X ) =
k
k!
γ (1,θ )
GUMBEL
e
AUCUN
k
p −1
pour p entier et
x > 0,
0 sinon.
=1
Exponen
tielle ε (θ)
Définie
comme loi
1
2
1-
k =1
Notée
( p) pour
θ
Fonction
caractéris
tique
φ (t)
E (X ) =
q −1
1 [ 0 ,1] (x)
β 2 ( p, q )
Moments d’une
variable X suivant
la loi considérée
1
θ
,VX=
1
θ2
−θ e − x
D’ordre impair : nuls
1 θx
e , pour x ≤ 0 (par symétrie de la
2
loi)
1 −θ x
D’ordre pair :
1- e
,
2q
E (X ) =
2
pour x > 0
Γ(2q + 1)
,
θ 2q
1
pour q réel > - .
2
1
1
Ln A
EX=
−B x
B
1 + Ae
1 π2
VX= 2
3
B
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
θ2
θ 2 + t2
15
NORMALE
N (0, 1)
D’ordre impair = 0
D’ordre pair :
x2
exp ()
2
2π
1
E (X
2q
)=
t2
exp ()
2
( 2q )!
2 q q!
pour tout entier
naturel q.
E X = 0, V X = 1
NORMALE
2
N (m, σ )
(σ > 0)
1
σ 2π
p
dans R )
E X = m, V X = σ
p
2
(2π )
it m−
t2 σ 2
2
Dét Σ
1
−1
exp [(x - m)’ Σ (x 2
e
E X = m, V X = Σ
it'm−
t'Σt
2
m)]
β x0
x β +1
Uniforme
sur [a, b]
e
Si Σ inversible :
1
β
PARETO
2
( x − m) 2
]
2σ 2
NORMALE
N (m, Σ)
(à valeurs
exp [-
1 [ x0 , + ∞[ (x)
1
1 [ a , b ] (x)
b−a
⎛ x0 ⎞
⎟
⎝ x ⎠
β
k
1- ⎜
E (X ) =
pour x > x 0 , 0
pour k <
sinon
0 pour x ≤ a
x−a
b−a
pour x ∈ [a, b]
1 pour x > b
β x0k
β −k
β.
,
k
E (X ) =
1 b k +1 − a k +1
,
k +1
b−a
dès que cela a un
sens.
e
it
a +b
2
b−a
)
2
t (b − a )
2
sin(t
a+b
2
(b − a) 2
VX=
12
EX=
WEIBULL
αθe
−θ xα
x
α −1
1 R + (x)
−θ xα
1-e
pour x > 0,
0 sinon.
k
E (X ) =
k⎞
⎛
Γ⎜1 + ⎟
⎝ α⎠
θ
k
α
pour k > - α.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
16
Chapitre 1-3
variables.
:
variables
aléatoires,
changement
de
Résultat théorique général.
Considérons le schéma général suivant :
X
T
(Ω, A, P) → (R , R ) → (R , R ), où T est une application mesurable de R
p
p
q
q
p
q
dans R .
La loi de la variable aléatoire Y = T(X) = T o X est définie par :
∀ A ∈ R q : P T o X {A} = P X {T −1 <A>}] = (P X ) T {A} .
Cas réel : T bijection (strictement croissante par exemple) de R dans R.
•
La variable aléatoire Y = T (X) a pour fonction de répartition F Y définie par : F Y = F X o T
•
Corollaire : génération de variables aléatoires ayant une loi donnée.
−1
.
Si X est une variable aléatoire de fonction de répartition bijective F X , on peut construire une
variable aléatoire Y fonction de X admettant une loi de fonction de répartition donnée G
bijective, en posant : Y = T (X), avec : T = G
•
−1
o FX .
Application : loi de F X (X).
Si une variable aléatoire réelle X a une fonction de répartition F X continue strictement
croissante (de R dans ]0, 1[), alors : F X (X) ~> U [ 0,1] (loi uniforme sur [0,1]).
•
Réciproque :
Si U est une variable aléatoire réelle suivant la loi uniforme sur [0, 1] et si F est une fonction
de répartition continue strictement croissante (donc bijective), alors la variable aléatoire
F
−1
(U) suit la loi de fonction de répartition F.
Cas des lois à densité : transformation bijective.
•
Formule du jacobien :
p
Si X est une variable aléatoire à valeurs dans un ouvert U de R , admet une loi possédant une
p
densité par rapport à la mesure de LEBESGUE sur R de la forme : f X .1 U , et si T est un
1
C - difféomorphisme (application bijective bi-continuement différentiable) de U dans un ouvert V de
p
R , alors la loi de Y admet une densité par rapport à la mesure de LEBESGUE sur R
p
donnée par :
dP Y
−1
−1
∀ y ∈ R : f Y (y) =
(y) = f X [T (y)] │J T │ 1 V (y).
dλ p
p
│J T
−1
│ : valeur absolue du jacobien de T
−1
.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
17
•
Moyen mnémotechnique :
On écrit : f X (x) dx ≡ f Y (y) dy, ce qui donne formellement : f Y (y) = f X (x)
formel
dx
, où le rapport
dy
dx
s’interprète comme la valeur absolue du jacobien de la transformation qui exprime
dy
x en fonction de y.
Pour obtenir la densité de Y = T(X), on part de la densité de X, on l’exprime en remplaçant x
−1
par son expression en fonction de y (soit : x = T (y)) et l’on n’omet pas de multiplier par la
valeur absolue du jacobien de la transformation qui exprime x en fonction de y. On
rajoute, s’il y a lieu, des indicatrices relatives aux domaines décrits respectivement par x et y.
Loi marginale.
p
St X une variable aléatoire vectorielle, à valeurs dans R , de composantes X 1 , X 2 , …, X p et dont la
loi admet une densité f X par rapport à la mesure de LEBESGUE, si l’on définit le vecteur aléatoire Y
obtenu à partir de X en ne retenant que q composantes de X (par exemple, les q premières)
q
(0 < q < p), alors la loi de Y admet pour densité par rapport à la mesure de LEBESGUE sur R la
fonction f Y :
∀ (y 1 , y 2 , …, y q ) ∈ R q :
dP Y
f Y (y 1 , y 2 , …, y q ) =
(y 1 , y 2 , …, y q ) =
dλ q
∫ IR
p−q
f X ( x1 , x 2 , ..., x p ) dλ
p−q
( x q +1 , ..., x p ) .
On intègre la densité de X par rapport aux p - q dernières variables.
La loi de Y est la loi marginale de X correspondant à l’extraction des q premières composantes.
Méthode de la fonction « muette » ou « test ».
Pour trouver la loi de la variable aléatoire Y = T (X) :
Transformer l’intégrale E [ g (Y )] = E [ g (T ( X ) )] =
∫ g [T ( x)] dP
X
( x) en une intégrale de la forme
∫ g ( y) dP0 ( y) , pour n’importe quelle fonction g mesurable positive ou nulle ou telle que
intégrable par rapport à P
X
goT soit
.
Par identification (en prenant par exemple : g = 1B , où B est un élement de la tribu de l’espace
Y
d’arrivée de Y), on a alors : P0 = P .
Résolution de problèmes concrets.
Savoir trouver la loi d’une variable aléatoire Z = T (X, Y), lorsque la loi de (X, Y) admet une densité par
rapport à la mesure de LEBESGUE, en introduisant une transformation bijective auxiliaire :
(X, Y) → (Z, U), justiciable de la formule du jacobien, à partir de laquelle l’utilisation de la notion de loi
marginale permettra de déterminer la loi de Z, une fois calculée celle de (Z, U).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
18
Chapitre 2 : produit de convolution.
Loi de la somme de deux variables aléatoires X et Y indépendantes.
Soit : S = X + Y. La loi de S est notée : P
(produit de convolution des deux lois P
•
S
X
=P
X
∗ PY
Y
et P ).
Si X et Y sont à valeurs entières :
∀ k ∈ Z : P S {k} =
∑
P
X
Y
{k - j} P {j} =
j∈Z
•
∑
Y
P {k - j} P
X
{j}.
j∈Z
Si X est à valeurs entières, Y réelle :
∀ s ∈ R : F S (s) =
∑
j∈Z
F Y (s - j) P
X
{j}.
F S et F Y : fonctions de répartition de S et de Y.
•
Si X est quelconque (réelle), Y réelle :
∀ s ∈ R : F S (s) =
Notation : F S = F Y ∗ P
•
X
∫ IR
F Y (s - x) dP
X
(x).
.
Si la loi de X admet une densité par rapport à la mesure de LEBESGUE, Y réelle :
∀ s ∈ R : F S (s) =
∫ IR
F Y (s - x) f X (x) dλ (x).
f X : densité de la loi de X.
Notation : F S = F Y ∗ f X .
•
Si les lois de X et Y admettent des densités par rapport à la mesure de LEBESGUE :
∀ s ∈ R : f S (s) =
∫ IR
f Y (s - x) f X (x) dλ (x) =
∫ IR
f X (s - y) f Y (y) dλ (y).
f S , f X et f Y : densités des lois de S, X et Y.
Notation : f S = f Y ∗ f X .
p
Formule généralisable au cas où X et Y sont à valeurs dans R .
Moyen mnémotechnique de toutes ces formules : « contiguïté » des variables. Exemple dans la
dernière formule : si la lettre de gauche est s comme argument de f S , c’est s qu’on retrouve en
premier dans l’intégrale (terme s - x dans l’argument de f Y ), puis x, qui figure comme argument de f X
et dans l’élément différentiel.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
19
Exemples :
γ
(p, θ) ∗ γ (q, θ) =
•
ε
(θ) ∗ ε (θ) ∗ … ∗
•
N (m 1 , σ 1 ) ∗ N (m 2 , σ 2 ) = N (m 1 + m 2 , σ 1 +σ 2 ) (m i ∈ R, σ i > 0).
•
B (n, p) ∗ B (m, p) = B (n + m, p) (n, m ∈ N , p ∈ ]0, 1[).
•
P (λ) ∗ P (µ) = P (λ + µ) (λ, µ > 0).
•
χ 2p ∗ χ q2
2
γ
∗
•
(p + q, θ) (p, q ∈ N , θ > 0).
ε
(θ) (n fois) =
2
γ
∗
(n, θ) (n ∈ N , θ > 0).
2
2
∗
=
χ 2p + q
∗
(p, q ∈ N ).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
20
Chapitre 3 : fonctions caractéristiques.
Définition : pour X v.a. réelle : φ (t) = E e
it X
=
∫R e
it x
dP X (x) .
Propriétés :
•
φ (0) = 1 ; │φ (t)│ ≤ 1, pour tout réel t.
•
φ aX +b (t) = e
•
•
si X et Y sont indépendantes : φ X +Y (t) = φ X (t) φ Y (t). Réciproque fausse.
Corollaires :
o Si les X i sont indépendantes et de même loi, de fonction caractéristique φ :
itb
ϕ X (t).
φ X (a t), pour tout réel t. φ − X (t) = φ X (- t) =
φ
n
∑ Xi
(t) = [φ (t)]
n
i =1
φ X (t) = [φ (
n
o
t n
1 n
)] avec : X n = ∑ X i .
n i =1
n
si X et Y sont indépendantes : φ X −Y (t) = φ X (t) φ Y (- t) = φ X (t)
ϕ Y (t).
2
En particulier, si X et Y ont, en outre, même loi : φ X −Y (t) =│φ (t)│ .
Continuité.
•
•
Une fonction caractéristique est continue en tout point.
Si X est intégrable, sa fonction caractéristique est lipschitzienne, de rapport E │X│.
Dérivabilité : si X est de puissance p-ième intégrable ( ∈ L p ), sa fonction caractéristique φ est p fois
dérivable sous le signe
∫
De plus : ∀ t ∈ R : │φ
(k )
et : ∀ k ∈ {1, 2, …, p} : φ
(k )
(0) = i
k
k
EX .
k
(t)│ ≤ E │X│ .
Théorème d’injectivité (fondamental).
Les fonctions caractéristiques caractérisent les lois des variables aléatoires.
Autrement dit : si X 1 et X 2 sont deux variables aléatoires : φ X = φ X
1
[Injectivité de l’application : P
X
2
⇔ P X1 = P X 2 .
→ φ X ].
Formules d’inversion :
•
Si φ est intégrable sur R, alors la loi de X admet une densité continue bornée par rapport à la
mesure de LEBESGUE donnée par : f (x) =
1
2π
∫ IR e
−it x
ϕ (t ) dλ (t ) .
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
21
•
φ est périodique de période 2 π si et seulement si X est à valeurs entières et les probabilités
ponctuelles p k = P {X = k} sont alors données, pour tout k ∈ Z, par :
pk =
•
1
2π
2π
∫0
e − i t k ϕ (t ) dt .
Cas réel quelconque (connaissance facultative) :
En posant : F* =
F + F+
+
(F : fonction de répartition de la variable X considérée, F : limite à
2
droite de F) :
1
2π
∀x ∈ R :
∫
+∞
−∞
ϕ (t )
1 − e − itx
dt = F* (x) - F* (0)
it
Cette formule générale ne nécessite aucune hypothèse sur la loi de X ni sur sa fonction
caractéristique. Dans la pratique, la constante F*(0) sera déterminée en utilisant le fait que
F*(x) tend vers 1 en + ∞ ou vers 0 en - ∞ .
On peut reconstituer la fonction de répartition de X à partir de la fonction « normalisée » F*, en
+
remarquant que : (F )
+
+
= F , ce qui entraîne : (F*)
+
+
+
= F , d’où : F = 2 F* - (F*) .
Nota : il est difficile d’identifier si une fonction donnée de R dans C est une fonction caractéristique. On
se contentera de rechercher des conditions nécessaires : si elle ne prend pas la valeur 1 en 0 ou n’est
pas continue, ce n’est pas une fonction caractéristique. En fonction des circonstances, on essaiera de
mettre en œuvre l’une ou l’autre des formules d’inversion et l’on vérifiera empiriquement si le calcul
conduit effectivement à une probabilité (densité positive d’intégrale égale à 1, valeurs p k positives de
somme 1…). Si oui, c’est que la fonction considérée est la fonction caractéristique de la loi obtenue.
Cas vectoriel.
Pour X à valeurs dans R
•
:
Définition :
φ (t) = E e
•
p
it' X
=
∫ IR
p
e i t ' x dP X ( x) , pour t ∈ R p , assimilé à une matrice colonne.
Lien avec les fonctions caractéristiques de variables réelles :
p
φ X (t) = φ t ' X (1), pour tout t ∈ R .
•
Propriétés spécifiques
o
Transformation affine : φ AX + B (t) = e
où B est un vecteur de R
o
q
it'B
φ X (A’ t), pour tout t,
(matrice colonne) et A une matrice de taille [q, p].
p
Inversion : si φ est intégrable sur R , alors la loi de X admet une densité continue
bornée par rapport à la mesure de LEBESGUE, donnée par :
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
22
f (x) =
•
1
(2π )
p
∫ IR
p
e − i t ' x ϕ (t ) dλ p (t ) .
Caractérisation de l’indépendance :
⎛ X1 ⎞
⎟⎟ , alors :
⎝ X2 ⎠
Si X se partitionne sous la forme : X = ⎜⎜
X 1 et X 2 indépendantes ⇔ φ ( X
1,
X 2 ) (t 1 , t 2 )
= φ X (t 1 ) φ X (t 2 )
1
= φ (X
2
1,
X 2 ) (t 1 ,
0) φ ( X
1,
X 2 ) (0, t 2 ),
pour tout couple (t 1 , t 2 ).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
23
Chapitre 4 : lois normales.
Loi N (0, 1).
•
Densité par rapport à la mesure de LEBESGUE sur R : ∀x ∈ R : h( x) =
•
Comportement en + ∞ de la fonction de répartition : 1 − H (x )
•
2π
exp(−
x2
).
2
h( x )
.
x
~
x → +∞
2
Moments : E X = 0, E (X ) = 1, d’où : V X = 1.
4
2
4
2
E (X ) = 3, V (X ) = E (X ) - [E (X )]
2
= 2.
Il en résulte que le coefficient d’aplatissement (
•
1
Fonction caractéristique :
ϕ X (t) = exp (-
µ4
σ4
- 3) vaut 0.
t2
), ∀ t ∈ R.
2
2
Loi N (m, σ 2 ) (σ > 0).
Y −m
•
Y ~> N (m, σ 2 ) ⇔ X =
•
N (m, 0) = δ 0 par convention (masse de DIRAC).
•
Densité par rapport à la mesure de LEBESGUE sur R :
σ
~> N (0, 1).
∀ y ∈ R : f Y (y) =
•
Moments : E Y = m, V Y = σ 2 .
•
Fonction caractéristique :
ϕY
(t) = exp (i t m -
−
1
( y −m)2
2σ 2
e
σ 2π
.
t 2σ 2
), ∀ t ∈ R.
2
Propriétés des lois normales sur R.
•
2
si Y suit la loi N (m, σ ), alors, pour tous réels a (non nul) et b :
a Y + b suit la loi N (a m + b, a
•
2
2
σ ).
2
si Y 1 et Y 2 sont indépendantes, suivant les lois N (m i , σ i ) pour i = 1 ou 2, alors :
2
2
Y 1 + Y 2 suit la loi N (m 1 + m 2 , σ 1 + σ 2 ).
▲ Attention : il est FAUX de dire en général que la somme de deux variables aléatoires
normales est normale si l’on n’a pas l’hypothèse d’indépendance sur les deux variables ni
d’information sur leur loi conjointe.
p
Lois normales sur R .
•
p
p
X suit une loi normale sur R si et seulement si, pour tout vecteur u de R , le produit scalaire
(identifié au produit matriciel) u’ X suit une loi normale (sur R).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
24
•
p
Loi N (0, I p ) : densité par rapport à la mesure de LEBESGUE sur R :
p
f (x) =
C
i =1
1
e
2π
−
xi2
2
p
1 2
− ∑ xi2
− x
1
1
2i =1
= f (x) =
e
=
e 2
(2π ) p / 2
(2π ) p / 2
1
où x représente le p-uplet (x 1 , x 2 , ..., x p ) et . désigne la norme euclidienne canonique dans
p
R .
p
Moments : E X = 0, V X = I p , matrice identité dans R .
Fonction caractéristique : φ X (t) = e
•
−
2
t
.
2
Loi normale N (m, Σ). Si Σ est inversible : Y ~> N (m, Σ) ⇔ X = Σ
Densité par rapport à la mesure de LEBESGUE sur R
f (y) =
1
(2π ) p / 2
Dét Σ
e
−
p
−1 / 2
(Y - m) ~> N (0, I p ).
:
1
( y − m ) ' Σ −1 ( y − m )
2
Moments : E Y =m, V Y = Σ.
Fonction caractéristique : φ Y (t) = e
•
it 'm −
t'
∑t
2
.
2
Cas des lois normales sur R .
⎛ σ 12
⎜ ρ σ1σ 2
⎝
Σ = ⎜
ρ σ1σ 2 ⎞
⎟,
σ 22 ⎟⎠
où ρ est le coefficient de corrélation entre les deux variables
composantes.
Si : ρ
f (x) =
2
≠ 1 et σ i ≠ 0, la densité s’écrit :
1
2π σ 1 σ 2 1 − ρ 2
exp -
( x1 − m1 ) ( x 2 − m2 )
x − m2 2
x − m1 2
1
[( 1
) - 2ρ
+( 2
) ]
2
σ1
σ1 σ 2
σ2
2 (1 − ρ )
Propriétés basiques.
•
Si Y est un vecteur normal, alors toute transformation affine de la forme A Y + B, où A est une
matrice [q, p] et B un vecteur colonne de taille q, est encore un vecteur normal.
•
Par corollaire, toute forme linéaire d’un vecteur normal est une variable aléatoire réelle
normale. Il en va en particulier ainsi des composantes du vecteur Y : si Y est normal, chacune
des composantes suit une loi normale sur R.
▲ Attention : la réciproque de cette propriété est fausse !
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
25
Critère d’indépendance dans le cas gaussien (= normal).
⎛ Y1 ⎞
Si Y est un vecteur aléatoire normal, partitionné en deux sous vecteurs Y 1 et Y 2 : ⎜⎜ ⎟⎟ , avec :
⎝ Y2 ⎠
⎛ Σ11
⎝ Σ 21
V Y = Σ = ⎜⎜
Σ12 ⎞
⎟ [où : Σ 21 = (Σ 12 )’], alors :
Σ 22 ⎟⎠
Y 1 et Y 2 sont indépendants ⇔ Σ 12 = 0 ⇔ Cov (Y 1 , Y 2 ) = 0.
▲ Ce résultat est faux si Y 1 et Y 2 sont normales sans qu’on précise si le vecteur Y est luimême normal.
Lois usuelles dérivées des lois normales.
•
Loi lognormale :
Une variable aléatoire réelle Z suit une loi lognormale si et seulement si Ln Z suit une loi
normale : une loi lognormale est donc l’exponentielle d’une loi normale (à valeurs dans R
•
+∗
).
Loi du KHI - 2 :
Une variable aléatoire réelle Z suit une loi du KHI - 2 à p degrés de liberté (notée
χ p2 ) si et
p
seulement si elle s’écrit sous la forme Z =
∑X
i =1
2
i
, où les X i sont des V.a. indépendantes de
loi N (0, 1) et p est un entier naturel non nul (à valeurs dans R
+∗
).
Z
p
p 1
p 1
2
suit alors la loi γ ( ) et Z suit la loi γ ( , ) : γ ( , ) = χ p .
2
2
2 2
2 2
En particulier, la loi
•
χ 22
n’est autre que la loi exponentielle de paramètre 1/2.
Loi de STUDENT :
Soient X une variable aléatoire de loi N (0, 1) et Y une autre variable aléatoire de loi
toutes deux indépendantes. Alors, la variable aléatoire T =
X
Y/p
χ p2 ,
suit, par définition, la loi
de STUDENT à p degrés de liberté, notée T (p).
C’est une loi symétrique, à support sur tout R.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
26
→ Pour p = 1, on obtient la loi de CAUCHY, de densité, par rapport à la mesure de
LEBESGUE :
f (t) =
1
1
, pour tout réel t.
π 1+ t2
Cette loi est identique à la loi du rapport de deux variables aléatoires normales centrées
réduites indépendantes. Elle n’admet pas de moments.
Fonction caractéristique : e
•
−t
, pour tout réel t.
Loi de FISHER (ou FISHER-SNEDECOR) :
Soient deux variables aléatoires X et Y indépendantes, suivant respectivement les lois
χ q2 . Alors la variable aléatoire F =
χ p2
et
X/p
suit, par définition, la loi de FISHER à p et q degrés
Y /q
de liberté, notée F (p, q) (à valeurs dans R
+∗
).
Propriétés :
o
F (q, p) = 1 / F (p, q).
o
T (p) = F (1, p).
2
Propriétés algébriques des lois normales.
•
Génération des lois du χ p :
2
La loi
o
χ p2
est, par définition, la loi de la variable aléatoire réelle X
2
, où X est un
vecteur aléatoire de loi N (0, I p ).
p
Soit Y un vecteur aléatoire à valeurs dans R , de loi N (m, Σ). Si Σ est inversible,
o
alors la variable aléatoire (Y - m)’ Σ
•
−1
(Y - m) suit la loi
χ p2 .
Théorème de COCHRAN :
p
On suppose que l’espace R se décompose sous la forme d’une somme directe de K sous-espaces
vectoriels E 1 , E 2 , ..., E K , orthogonaux entre eux. Soit P i le projecteur orthogonal sur le sous-espace
E i (pour i variant de 1 à K).
Alors, si X est un vecteur aléatoire de loi N (0, I p ), pour tout i dans {1, 2, ..., K} :
•
•
les P i X sont indépendants entre eux.
Pi X
2
suit la loi
χ rg2 P .
i
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
27
•
Théorème de FISHER :
Considérons n variables aléatoires réelles indépendantes Y 1 , Y 2 , ..., Y n , de même loi
N (m, σ ). Posons : Y =
2
Alors : Y et S
2
1
n
n
∑ Yi et S 2 =
i =1
sont indépendants et (n - 1)
1
n −1
S2
σ
2
n
∑ (Y − Y )
i =1
2
i
suit la loi
(moments empiriques).
χ n2−1 .
Corollaires :
n
o
T=
(n − 1)
Y −m
σ
S2
σ2
=
/(n − 1)
n (Y − m)
~> T (n - 1)
S
(loi de STUDENT à n - 1 degrés de liberté).
o
Intervalle de confiance de niveau 1 - α pour le paramètre m :
P {m ∈ [ Y - C
S
n
, Y +C
S
n
] } = 1 - α.
C est déterminé par : P {│T (n - 1)│ > C} = α (du fait de la symétrie de la loi de
STUDENT, C est le quantile d’ordre 1 - α/2 de cette loi).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
28
Chapitre 5 : convergences ponctuelles et fonctionnelles.
Convergence p.s. :
p. s .
Xn
→ X ⇔ l’ensemble des ω ∈ Ω tels que la suite numérique {X n (ω)} converge vers X (ω) est
n → +∞
de probabilité égale à 1.
Condition nécessaire et suffisante la plus simple (connaissance facultative) :
p. s .
→ X ⇔ ∀ ε > 0 : P {[ sup │X n - X│] > ε} → ↓ 0.
CNS 3 : X n
n → +∞
p → +∞
n ∈ IN
n> p
Conditions suffisantes usuelles :
•
CS 1 : Si, pour tout ε > 0, la série
p. s .
∑
P {│X n - X│ > ε} est convergente, alors : X n
→ X.
n → +∞
Cette condition est aussi nécessaire lorsque les variables X n - X sont indépendantes
ou lorsque les X n sont indépendantes et X est constante.
•
∑
CS 4 : S’il existe p > 0 tel que la série
E │X n - X│
p
soit convergente, alors :
p. s .
Xn
→ X.
n → +∞
Cas des suites monotones :
CNS 5 : Si la suite {X n } est monotone :
p. s .
Xn
→ X ⇔ ∀ ε > 0 : P {│X n - X│ ≥ ε} → ↓ 0,
n → +∞
n → +∞
les variables X n - X restant de signe constant.
Convergence dans L p :
Pour p ≥ 1 : X n
Lp
→ X ⇔ ||X n - X|| p
n → +∞
→ 0
n → +∞
⇔ [E │X n - X│ p ] → 0.
n → +∞
Cas L 2 :
•
Xn
L2
→ X ⇔ V (X n - X) → 0 et : E X n
n → +∞
n → +∞
→ EX.
n → +∞
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
29
•
Convergence vers une constante :
Xn
L2
→ a ⇔ E Xn
n → +∞
→ a et V X n
n → +∞
→ 0.
n → +∞
Convergence en probabilité :
P
Xn
→ X ⇔ ∀ ε > 0 : P {│X n - X│ > ε} → 0.
n → +∞
n → +∞
Réinterprétation de la convergence p.s. :
p. s .
Xn
P
→ X ⇔ [ sup │X n - X│] →
n → +∞
n ∈ IN
n> p
p → +∞
0.
Convergence uniforme presque sûre.
U . p.s.
Xn
→ X ⇔ Il existe une partie négligeable ∆ de A telle que :
n → +∞
lim ( sup
n → +∞
ω ∈ Ω −∆
│X n (ω) - X (ω)│) = 0 (convergence uniforme sur Ω - ∆).
.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
30
Chapitre 6 : convergence en loi (et lien entre tous les
modes de convergence).
Définition :
p
p
{X n } : suite de variables aléatoires à valeurs dans R , P 0 : loi sur R .
Loi
→ P0 ⇔
Xn
n → +∞
∫ IR
p
f ( x) dP X n ( x)
⇔ E [f (X n )] →
n → +∞
∫ IR
→
n → +∞
p
∫ IR
p
f ( x) dP0 ( x)
f ( x) dP0 ( x) ,
pour toute fonction f continue bornée de R
p
dans R.
Critères usuels :
•
Loi
Cas réel : X n
→ P 0 ⇔ F n (x) → F 0 (x), en tout point x où F 0 est continue.
n → +∞
n → +∞
F n : fonction de répartition de X n , F 0 : fonction de répartition de P 0 .
•
Cas à densité (suites de variables réelles ou vectorielles) : théorème de SCHEFFE :
Si : ∀ n ∈ N :
dP0
dP X n
= f n et :
= f 0 , alors : f n
dµ
dµ
→
n → +∞
f 0 µ-p.p. ⇒ X n
Loi
→ P0.
n → +∞
µ : mesure de référence quelconque.
▲ Réciproque fausse.
•
Cas valeurs entières :
Si : ∀ n ∈ N, ∀ k ∈ Z : P {X n = k} = p n , k et P 0 : loi sur Z définie par les probabilités p 0, k ,
Loi
alors : X n
→ P 0 ⇔ ∀ k ∈ Z : p n, k
n → +∞
→ p 0, k .
n → +∞
Théorème de Paul LEVY :
Une suite {X n } de variables aléatoires réelles converge en loi vers une loi P 0 , quand n tend vers + ∞ ,
si et seulement si la suite des fonctions caractéristiques de ces variables, soit {φ X n }, converge
simplement (en tout point) vers la transformée de FOURIER de la loi P 0 , définie par :
P̂0 (t) =
∫ IR e
itx
dP0 ( x) .
Ce résultat se transpose sans difficulté pour des suites de variables aléatoires vectorielles.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
31
Lien entre toutes les formes de convergence :
U ⇒ S ⇒ p.s. ⇒ P ⇒ Loi
⇓
⇑
U.p.s. ⇒ L q ⇒ L p (p < q)
Réciproques partielles :
•
P ⇒ p.s. :
P
→ X, alors il existe une sous-suite convergeant presque sûrement.
o
Si : X n
o
Si la suite {X n } est monotone : X n
n → +∞
p. s .
P
•
→ X ⇔ Xn
n → +∞
→ X.
n → +∞
p.s. ⇒ L p :
S’il existe Y ∈ L p telle que : ∀ n ∈ N : │X n │ ≤ Y, alors : X n
p. s .
→ X ⇒ Xn
n → +∞
Lp
→ X
n → +∞
(théorème de convergence dominée).
•
L p ⇒ p.s. :
Lp
Si : X n
•
→ X, alors il existe une sous-suite convergeant presque sûrement.
n → +∞
Loi ⇒ P :
Loi
Xn
→ δ a (masse de DIRAC en a) ⇒ X n
n → +∞
P
→ a.
n → +∞
Propriétés comparatives des différents modes de convergence :
Mode de
convergence
P.s.
Dans L p
En probabilité
En loi
Possibilité de
raisonner composante
par composante pour
une suite de vecteurs
Critère de CAUCHY
Conservation par
continuité
OUI
SANS OBJET
OUI
NON
OUI
OUI
(théorème de
SLUTSKY)
OUI
OUI (passage à la
loi image)
OUI
OUI
OUI
NON en général,
sauf si :
- fonction
lipschitzienne
- fonction continue
bornée et limite
presque sûrement
finie.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
32
Autres propriétés de la convergence en loi.
•
Loi
Si : X n
Loi
→
→
P X et : Y n
n → +∞
n → +∞
P Y et si X n et Y n sont indépendantes pour tout n,
Loi
alors : (X n , Y n )
•
→ P X ⊗ PY .
n → +∞
Loi
Si : X n
→ P X et : Y n
n → +∞
Loi
→ δ a (masse de DIRAC en a), alors :
n → +∞
Loi
(X n , Y n )
→ P X ⊗ δa.
n → +∞
Corollaire :
En transformant ce dernier résultat par une application continue f, on obtient :
Loi
f (X n , Y n )
→ (P X ⊗ δ a ) f . Cette loi limite s’interprète comme la loi d’une variable
n → +∞
aléatoire f (Z, a), où Z est une variable aléatoire fictive suivant la loi P X . On pourrait
Loi
écrire, intuitivement : f (X n , Y n )
→ f (P X , a).
n → +∞
En particulier :
Loi
Xn + Yn
→ « image de P X par la translation de a »,
n → +∞
c’est-à-dire la loi de Z + a, où Z est une variable aléatoire fictive suivant la loi P X .
→ Si a = 0, cette loi est la loi P X .
Loi
Xn Yn
→ « image de P X par l’homothétie de rapport a »,
n → +∞
c’est-à-dire la loi de a Z, où Z est une variable aléatoire fictive suivant la loi P X .
→ Si a = 0, cette loi est la loi δ 0 .
Utilisation de développements limités.
•
Si f est une fonction numérique définie sur un voisinage de x 0
et telle que :
f (x) = f (x 0 ) + (x - x 0 ) f’ (x 0 ) + (x - x 0 ) ε (x), avec : lim ε (x) = 0,
x → x0
P
et si {X n } est une suite de variables aléatoires réelles telle que : X n
→ x 0 , alors :
n → +∞
P
f (X n ) = f (x 0 ) + (X n - x 0 ) f’ (x 0 ) + (X n - x 0 ) ε (X n ), avec : ε (X n )
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
→ 0.
n → +∞
33
•
Sous les mêmes hypothèses et si, de surcroît, il existe une suite numérique {u n } telle que :
Loi
u n (X n - x 0 )
→ P 0 , alors :
n → +∞
Loi
u n [f (X n ) - f (x 0 )]
→ « image de P 0 par l’homothétie de rapport f ‘(x 0 ) »,
n → +∞
La loi limite obtenue est la loi de f ‘(x 0 ) Z, où Z est une variable aléatoire fictive suivant la loi
P0 .
▲ Eviter la grave confusion suivante :
X n ~> P 0 (la variable X n suit la loi P 0 ).
Loi
Xn
→ P 0 (la suite {X n } converge en loi vers la loi P 0 ).
n → +∞
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
34
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
35
Chapitre 7 : théorie asymptotique.
Lois des grands nombres (LGN).
•
Si {X n } est une suite de variables aléatoires réelles indépendantes, de même loi,
1
n
appartenant à L 1 et d’espérance commune m, alors, si l’on pose : X n =
Xn
∑ Xi
:
i =1
P
→ m (loi faible)
n → +∞
p. s .
→ m (loi forte).
Xn
•
n
n → +∞
Si {X n } est une suite de variables aléatoires réelles non corrélées deux à deux,
2
appartenant à L 2 , d’espérance commune m et de variance commune σ , alors :
L2
→ m (LGN dans L 2 ).
Xn
n → +∞
Théorème central limite (TCL), cas réel.
•
Si {X n } est une suite de variables aléatoires réelles indépendantes, de même loi,
2
appartenant à L 2 , d’espérance commune m et de variance commune σ , alors :
Loi
n ( X n - m) → N (0, σ 2 ) ou
n → +∞
n
Xn − m
σ
Loi
→ N (0, 1) ou n
X n2 − m
n → +∞
σ
Interprétation empirique : on dit que X n suit asymptotiquement la loi N (m,
•
Corollaire : n
( X n − m) 2
σ
2
Loi
→
n → +∞
Loi
→ N (0, 1).
n → +∞
σ2
n
).
χ12 .
n
∑ Xi
i =1
Loi
→ N (0, 1).
•
Si : m = 0 :
•
Extension : transformation par une application dérivable en m.
σ n
n → +∞
Si g est une application continue, dérivable en m :
Loi
n [g ( X n ) - g (m)] → N [0, σ 2 g’ 2 (m)].
n → +∞
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
36
Interprétation
N [g (m),
empirique :
σ 2 g ' 2 ( m)
n
on
dit
que
( Xn)
g
suit
asymptotiquement
la
loi
].
Théorème central limite (TCL), cas vectoriel.
•
p
Si {X n } est une suite de variables aléatoires à valeurs dans R , indépendantes, de même
loi, possédant une espérance commune m et une matrice de variance-covariance Σ,
alors :
Loi
n ( X n - m) → N (0, Σ) .
n → +∞
•
•
Corollaires :
n Σ
−
1
2
( X n - m)
o
Si Σ est inversible :
o
Même hypothèse : n ( X n - m)’ Σ
−1
Loi
→ N (0, I p ).
n → +∞
( X n - m)
Loi
→
n → +∞
χ 2p .
Extension : transformation par une application différentiable en m.
q
Si g est une application continue, à valeurs dans R , différentiable en m :
Loi
n [g ( X n ) - g (m)] → N (0, ∆ Σ ∆’ ), où ∆ est la matrice jacobienne de g en m.
n → +∞
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
37
Chapitre 8 : conditionnement, espérance conditionnelle.
Conditionnement élémentaire.
•
Si l’on a deux évènements A et B, tels que : P {B} ≠ 0, la probabilité conditionnelle de A
sachant B est la quantité : P {A / B } =
•
P{A ∩ B}
, à valeurs dans [0, 1].
P{B}
Formule de BAYES : si A est un évènement et {B j }
j∈N
une famille d’évènements formant
une partition de Ω, alors :
P {A} =
∑ P{A / B }P{B } .
j
j∈N
P {B i / A} =
j
P{A / Bi }P{Bi }
.
∑ P{A / B j }P{B j }
j∈N
En particulier, si B est un évènement donné, on aura :
P {B / A} =
•
P{A / B}P{B}
.
P{A / B}P{B} + P{A / CB}P{CB}
Calcul d’une probabilité à partir de la connaissance de probabilités conditionnelles : si A est
un évènement et {B j } j ∈ N une famille d’évènements formant une partition de Ω, alors :
1
.
P Bj / A
{
P {A} =
}
∑
j ∈N P{A / B j }
•
Décomposition par des conditionnements successifs : si l’on a n évènements A 1 , A 2 , …, A n ,
alors : P {A 1 ∩ A 2 ∩ … ∩ A n } = P {A 1 }
n
C P{A
k
/( A1 ∩ A2 ∩ ... ∩ Ak −1 } .
k =2
Loi et espérance conditionnelles dans le cas du conditionnement par un évènement.
•
•
•
P {X ∈ C et Y ∈ B}
si P {X ∈ C} ≠ 0.
P {X ∈ C}
1
Si Y est intégrable : E (Y / X ∈ C) =
y dP Y / X ∈C ( y ) .
P {X ∈C} ∫ IR
P
Y / X ∈C
{B} =
Cas particuliers :
o
Si X et Y sont indépendantes : P
o
Si X est discrète : P
Y / X ∈C
Y
=P .
P {X = x k et Y ∈ B}
P {X = x k }
1
E (Y / X = x k ) =
y dP Y / X = xk ( y ) .
∫
IR
P {X = x k }
Y / X = xk
{B} =
▲ Ces formules sont rigoureusement interdites si la loi de X est continue.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
38
o
Si la loi du couple (X, Y) admet une densité h par rapport à une mesure-produit
µ X ⊗ µ Y , où µ X et µ Y sont σ - finies, alors :
1
dP Y / X ∈C
(y) =
dµY
P {X ∈C}
o
∫C
h ( x , y ) dµ X ( x ) .
Si X = Y et si la loi de Y admet une densité h par rapport à une mesure µ Y , alors :
1
dP Y / Y ∈C
(y) =
1 C (y) h (y).
dµ Y
P {X ∈C}
Si Y intégrable : E (Y / Y ∈ C) =
1
P {Y ∈C}
∫C
y h ( y ) dµ Y ( y ) .
Régression affine de Y sur X :
Pour Y et X ∈ L 2 :
Ê Y / X = E Y +
Cov ( X , Y )
(X - E X) (cas X réel). Si : V X ≠ 0.
VX
. Ê Y / X = E Y + Cov (Y, X) (V X )
−1
(X - E X) (cas X vectoriel). Si V X inversible.
⊥
Dans les deux cas : Ê Y / X = P Laff ( X ) (Y), où : L aff (X) est le sous-espace vectoriel de L 2 formé des
combinaisons affines de X.
Définition et caractérisation de l’espérance conditionnelle dans L 2 .
∗
Min ||Y - f (X)|| 2 .
•
E Y / X est la solution du problème
•
Cette solution s’exprime sous la forme : E Y / X = P L
f ( X )∈ L2
∗
⊥
2(X
)
(Y), où : L 2 (X) est le sous-espace
vectoriel de L 2 formé des variables aléatoires fonctions de X, f (X), appartenant à L 2 .
•
⊥
⊥
Elle est caractérisée par le fait que : Y - P L
2(X
)
(Y) ∈ [L 2 (X)] , soit :
∀ g (X) ∈ [L 2 (X)] : E [Y g (X)] = E [(E ∗ Y / X) g (X)].
•
∗
E Y / X est une variable aléatoire (définie sur l’espace fondamental Ω habituel) fonction de X
∗
(et de X seul). On a donc : E Y / X = fˆ (X), la fonction fˆ est notée : fˆ (x) = E (Y / X =x).
∗
On a donc : (E Y / X) (ω) = E [Y / X = X (ω)] pour tout ω dans Ω.
•
La définition de l’espérance conditionnelle permet de décomposer Y sous la forme :
Y = fˆ (X) + U, où : E U = 0 et Cov [U, fˆ (X)] = 0.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
39
Principales propriétés de l’espérance conditionnelle dans L 2 .
•
Linéarité en Y.
•
Si : Y = g (X), alors : E [g (X) / X)] = g (X).
•
E (E Y / X) = E Y.
•
Equation d’analyse de la variance : V Y = V (E Y / X) + E (V Y / X)
[variance totale = variance expliquée + variance résiduelle].
•
E [g (X) Y / X] = g (X) (E Y / X), toutes les fois que les différents termes ont un sens.
∗
∗
∗
∗
∗
∗
Interprétation intuitive : tout se passe comme si l’on pouvait « bloquer » X à l’intérieur de
l’espérance conditionnelle, donc sortir g (X) par linéarité.
∗
∗
•
Si E Y / X est une fonction affine de X, alors : E Y / X = Ê Y / X.
•
Si X et Y sont indépendantes : E Y / X = E Y.
•
Sous-espaces emboîtés : si X 1 = h (X), alors : E Y / X 1 = E [(E Y / X) / X 1 ].
∗
∗
∗
∗
Savoir retrouver le résultat en termes de composition de projections orthogonales.
∗
∗
∗
En particulier, si X = (X 1 , X 2 ) : E Y / X 1 = E {[E Y / (X 1 , X 2 )] / X 1 }.
•
Cas d’une transformation bijective :
Si X 1 = h (X), où h est bijective, alors :
∗
∗
E Y / X 1 = (E Y / X), où l’on exprime X sous la forme : h
−1
(X 1 ).
∗
∗
−1
Concrètement : si E Y / X = fˆ (X), alors : E Y / X 1 = fˆ [h (X 1 )].
Cas usuels de calcul explicite.
•
Si X est discrète, de valeurs {a k } :
1
P {X = a k }
E (Y / X = a k ) =
∗
E Y/X=
∑
k
∫{X =a }Y dP
et :
k
[E (Y / X = a k ) 1 X = ak ].
▲ Il est rigoureusement interdit d’utiliser ce genre de formule si la loi de X est continue.
∗
En particulier : si X ~> B (1, p) : E Y / X = [E (Y / X = 1)] X + [E (Y / X = 0)] (1 - X) = Ê Y / X.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
40
•
Si la loi du couple (X, Y) admet une densité h par rapport à une mesure-produit µ X ⊗ µ Y ,
∫ IR
où µ X et µ Y sont σ - finies, alors : E (Y / X = x) =
•
y
h ( x, y )
dµY ( y ) .
h X ( x)
Interprétation : E (Y / X = x) est l’espérance vis-à-vis de la loi admettant pour densité par
rapport à µ Y :
h ( x, y )
, définie comme loi conditionnelle de Y sachant X = x
h X ( x)
(h X : densité marginale de X).
•
Densité conditionnelle de (Y sachant X = x) =
•
Application fondamentale :
⎡⎛ m
⎛X⎞
⎟⎟ ~> N ⎢⎜⎜ X
⎝Y ⎠
⎢⎣⎝ mY
⎞ ⎛ σ X2
⎟⎟, ⎜
⎜
⎠ ⎝ ρσ X σ Y
Si ⎜⎜
X = x est : N [m Y + ρ
σY
σX
densité du couple( X , Y )
.
densité m arg inale de X
ρσ X σ Y ⎞⎟⎤
⎥,
σ Y2 ⎟⎠⎦⎥
2
alors la loi conditionnelle de Y sachant
2
(x - m X ), σ Y (1 - ρ )].
Dans ce cas :
E (Y / X = x) = m Y + ρ
σY
σX
(x - m X ).
Cov ( X , Y )
(X - E X) = Ê Y / X .
VX
∗
E Y/X=EY+
∗
V Y / X ne dépend pas de X.
Généralisation :
⎛X⎞
⎟⎟ ~> N
⎝Y ⎠
Si ⎜⎜
⎡⎛ m X
⎢⎜⎜
⎣⎝ mY
⎞ ⎛ Σ XX
⎟⎟, ⎜⎜
⎠ ⎝ Σ YX
Σ XY
Σ YY
⎞⎤
⎟⎟⎥ , avec Σ XX inversible, alors la loi conditionnelle de
⎠⎦
−1
−1
Y sachant X = x est : N [m Y + Σ YX Σ XX (x - m X ), Σ YY - Σ YX Σ XX Σ XY ].
∗
∗
On a encore : E Y / X = Ê Y / X et V Y / X qui ne dépend pas de X.
Extension de l’espérance conditionnelle.
∗
On admet qu’on peut définir une variable aléatoire E Y / X dès que : Y ≥ 0 ou : Y ∈ L 1 , s’identifiant
à celle définie dans le cas : Y ∈ L 2 , et vérifiant toutes les propriétés énoncées plus haut pour cette
dernière, sauf celles qui n’ont plus de sens (interprétation en termes de projection orthogonale,
équation d’analyse de la variance…, qui sont spécifiques du cas L 2 ).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
41
Théorie générale des probabilités conditionnelles.
Y / X =x
•
(B) = E [1 B (Y) / X =x], pour tout B évènement de la tribu
Définition « explicite » : P
d’arrivée de Y et tout x de l’espace d’arrivée de X.
•
Définition « implicite » :
∫A P
P {X ∈ A et Y ∈ B} =
Y / X =x
( B ) dP X ( x) , pour tous
évènements A et B.
[Généralise la formule du cas X discret : P {X ∈ A et Y ∈ B} =
∑
P
Y / X = xk
(B) P
xk ∈ A
•
{x k }].
On retrouve les deux résultats usuels de calcul vus précédemment :
o
o
o
•
X
Cas X discret
Cas où la loi du couple (X, Y) admet une densité par rapport à un produit de
mesures σ- finies donné : définition de la densité conditionnelle.
Quand on n’est pas dans l’un de ces deux cas usuels, il faut revenir à l’une des deux
définitions générales ci-dessus.
Règles de transformation des probabilités conditionnelles :
Y / X =x
o
Si X et Y sont indépendantes : P
o
Si Y est fonction de X : Y = f (X) : P
o
Pour h mesurable : P
o
Pour h mesurable : P
h (Y ) / X = x
f (X )/ X =x
= (P
h ( X ,Y ) / X = x
Y
=P .
Y / X =x h
=P
)
=δ
f ( x)
(masse de DIRAC).
(au sens de mesure-image).
h ( x,Y ) / X = x
.
Interprétation intuitive : tout se passe comme si l’on pouvait « bloquer » X à la valeur
x à l’intérieur de la fonction h (X, Y) dont on cherche la loi conditionnelle sachant
X = x, mais on n’a pas le droit d’enlever le conditionnement.
•
On admet que, pour Y ≥ 0 ou : Y ∈ L 1 , la définition par extension de l’espérance
conditionnelle permet de réinterpréter celle-ci comme espérance vis-à-vis de la loi
conditionnelle : E (Y / X = x) =
∫ IR y dP
Y / X =x
( y) .
Corollaire : si f (Y ) est positive ou nulle ou intégrable :
E [f (Y) / X = x] =
∫ IR f ( y) dP
Y / X =x
( y) .
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
42
GLOSSAIRE
SUR
LES
PROBABILITE USUELLES.
PRINCIPALES
LOIS
DE
1ère PARTIE : Principales lois discrètes.
1. Masse de DIRAC.
La masse de DIRAC en un point a s’interprète comme la loi d’une variable aléatoire presque sûrement
constante et égale à a : P {X = a} = 1.
Moments :
E X = a et V X = 0.
Fonction caractéristique : ϕ X (t) = e
iat
.
2. Loi uniforme sur un ensemble fini.
X variable aléatoire entière suit la loi uniforme sur l’ensemble {1, 2, ..., n} si et seulement si, pour tout
1
.
n
entier naturel k dans {1, 2, ..., n} : P {X = k} =
Moments :
EX=
n 2 −1
(n + 1) (2n + 1)
n +1
2
, E (X ) =
, d’où : V X =
.
2
6
12
Fonction caractéristique : ϕ X (t) =
1
e
n
i ( n +1)
nt
2 .
t
sin
2
sin
t
2
3. Loi de BERNOULLI.
X variable aléatoire entière suit la loi de BERNOULLI de paramètre p (p ∈ ]0, 1[), notée B (1, p), si et
seulement si elle prend les seules deux valeurs 1 avec la probabilité p et 0 avec la probabilité 1 - p.
On peut écrire de manière synthétique :
∀ k ∈ {0, 1} : P {X = k} = p k (1 - p) (1− k ) .
Moments :
E X = p et V X = p (1 - p).
On note que : X
q
= X pour tout entier q, ce qui permet d’obtenir tous les moments.
it
Fonction caractéristique : ϕ X (t) = 1 - p + p e .
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
43
4. Loi binômiale.
Soit une urne contenant des boules noires et blanches. On réalise n tirages successifs avec remise
d’une seule boule (n entier naturel non nul donné) ; la probabilité de tirer une boule blanche au cours
de l’un des tirages élémentaires vaut p (p ∈ ]0, 1[). On note X la variable aléatoire représentant le
nombre de boules blanches obtenues.
Par définition, la loi de X s’appelle la loi binômiale de paramètres n et p (n ∈ N* et p ∈ ]0, 1[), notée
B (n, p). X prend ses valeurs dans {0, 1, 2, ..., n} et, pour tout entier naturel k appartenant à cet
k
ensemble : P {X = k} = C n p
k
(1 - p)
n−k
.
Mode :
-
1
n
: la valeur maximale de P {X = k} est atteinte en k = 0 et vaut (1 - p) .
n +1
n
n
si p >
: la valeur maximale de P {X = k} est atteinte en k = n et vaut p .
n +1
si p ≤
sinon : P {X = k} augmente strictement jusqu’à la plus petite valeur de k supérieure ou égale à
p (n+1) - 1, puis décroît.
Moments :
E X = n p et V X = n p (1 - p).
it
n
Fonction caractéristique : ϕ X (t) = (1 - p + p e ) .
Propriétés :
-
X s’interprète comme la somme de n variables aléatoires indépendantes X i suivant toutes la
loi de BERNOULLI B (1, p) : en l’occurrence, X i est la variable qui vaut 1 si la boule obtenue
au i-ème tirage est blanche, 0 sinon.
-
Inversement, la loi de BERNOULLI est un cas particulier trivial de la loi binômiale,
correspondant à n = 1.
-
Si X 1 et X 2 sont indépendantes, suivant les lois B (n i , p), pour i = 1 ou 2, alors :
X 1 + X 2 suit la loi B (n 1 + n 2 , p).
5. Loi multinomiale.
Cette loi généralise la loi binômiale. Supposons que l’on ait une urne contenant des boules de K types
différents. On réalise n tirages successifs avec remise d’une seule boule (n entier naturel non nul
donné) ; la probabilité de tirer une boule de type k au cours de l’un des tirages élémentaires vaut p k
(p k ∈ ]0, 1[, avec :
K
∑ pk
= 1).
k =1
On note X = (X 1 , X 2 , …, X K ) le vecteur aléatoire représentant le nombre de boules de chaque type
obtenu.
Par définition, la loi de X s’appelle la loi multinomiale de paramètres n, p 1 , p 2 , …, p K , notée :
M (n, p 1 , p 2 , …, p K ), où : n ∈ N* et p k ∈ ]0, 1[, ∀ k ∈ {1, 2, …, K}.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
44
X prend ses valeurs dans {0, 1, 2, ..., n}
K
et, pour tout K-uplet (n 1 , n 2 , …, n K ) d’éléments de cet
K
ensemble tel que :
∑ nk
= n, on a :
k =1
P {(X 1 , X 2 , …, X K ) = (n 1 , n 2 , …, n K )} =
n!
n
n
n
p 1 1 p 22 … p KK .
n1 !n2 !... n K !
Cette expression s’obtient en dénombrant toutes les configurations de séquences de tirages
élémentaires conduisant à obtenir n 1 boules de type 1, …, n K boules de type K : pour cela, on peut
n
fixer les rangs de tirage où l’on a obtenu des boules de type 1, soit n 1 possibilités parmi n ou C n1 ;
puis, une fois choisis ces derniers, les rangs de tirage où l’on a obtenu des boules de type 2, soit n 2
n
possibilités parmi n - n 1 rangs restants ou C n2− n ; on continue ainsi jusqu’au dénombrement des
1
rangs de tirage où l’on a obtenu des boules de type K - 1, soit n K −1 possibilités parmi n - n 1 - … n
n K − 2 rangs restants ou C nK−−n1 −...− n
1
K −2
. Les rangs de tirage des boules de type K se déduisent alors
automatiquement sans qu’il y ait de choix résiduel et, pour chaque configuration obtenue, on écrit la
probabilité correspondante d’avoir une unité de type j au cours du i-ième tirage élementaire.
On remarque alors que :
n
n
n
C n1 C n2− n … C nK−−n1 −...− n
1
1
K −2
(n − n1 )!
(n − n1 − ... − n K −2 )!
n!
…
n1 !(n − n1 )! n2 !(n − n1 − n2 )!
n K −1 !(n − n1 − ... − n K −2 − n K −1 )!
n!
n!
=
=
.
n1 !n2 !... n K −1 !(n − n1 − n2 − ... − n K −1 ) ! n1 !n2 !... n K !
=
Moments :
E X k = n p k , V X k = n p k (1 - p k ),
Cov (X k , X l ) = - n p k p l pour k et l distincts dans {1, 2, …,K}.
Fonction caractéristique :
K
ϕ (X
1 , X 2 , ..., X K )
(t 1 , t 2 , …, t K ) = (
∑ pk e i t
k
n
) .
k =1
6. Loi géométrique (ou de PASCAL).
Soit une urne contenant des boules noires et blanches. On réalise une succession de tirages avec
remise d’une seule boule ; la probabilité de tirer une boule blanche au cours de l’un des tirages
élémentaires vaut p (p ∈ ]0, 1[). On note X la variable aléatoire représentant le nombre de tirages
nécessaires pour obtenir exactement une boule blanche (on s’arrête dès que l’on en a obtenu une).
Par définition, la loi de X s’appelle la loi géométrique (ou de PASCAL) de paramètre p. X prend ses
valeurs dans N* et, pour tout entier naturel non nul k : P {X = k} = (1 - p)
k −1
p.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
45
Mode : P {X = k} décroît depuis la valeur k = 1, maximum égal à p.
Moments :
EX=
Fonction caractéristique : ϕ X ( t ) =
1− p
1
et V X =
.
p
p2
p e it
.
1 − (1 − p) e it
Remarque :
On donne aussi une autre détermination de la loi géométrique en la définissant comme la loi du
nombre de tirages nécessaires avant d’obtenir la 1ère boule blanche. Cela revient à définir la variable
k
aléatoire Y = X - 1. On a alors, pour tout entier naturel k : P {Y = k} = (1 - p) p. Il en résulte que :
EY =
1− p
1− p
et V Y =
.
p
p2
7. Loi binômiale négative.
Soit une urne contenant des boules noires et blanches. On réalise une succession de tirages avec
remise d’une seule boule ; la probabilité de tirer une boule blanche au cours de l’un des tirages
élémentaires vaut p (p ∈ ]0, 1[). On note X la variable aléatoire représentant le nombre de tirages
nécessaires pour obtenir exactement n boules blanches (n entier non nul fixé ; on s’arrête dès que l’on
a obtenu n boules blanches).
Par définition, la loi de X s’appelle la loi binômiale négative de paramètres n et p, notée B n (p).
X prend ses valeurs dans {n, n+1, ..., }. Pour tout entier naturel k supérieur ou égal à n :
n −1
P {X = k} = C k − 1 (1 - p)
k −n
n
p .
[S’obtient en remarquant que le k-ème tirage doit fournir obligatoirement la dernière boule blanche et
que, au cours des k - 1 tirages précédents, on doit obtenir n - 1 boules blanches et k - n boules noires,
les rangs d’apparition respectifs de ces boules étant indifférents].
La loi géométrique correspond évidemment au cas particulier où n = 1.
Moments :
EX=
1− p
n
et V X = n
.
p
p2
Propriétés :
La loi binômiale négative de paramètres n et p s‘interprète comme la loi de la somme de n variables
aléatoires indépendantes suivant des lois géométriques de paramètre p.
En effet, pour tirer n boules blanches, il faut d’abord en tirer une première, ce qui nécessite X 1 tirages.
A partir de là, comme tous les tirages successifs sont indépendants, le nombre de tirages
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
46
supplémentaires nécessaires pour obtenir la 2ème boule blanche est une variable aléatoire X 2
indépendante de X 1 et suivant la même loi géométrique : pour obtenir deux boules blanches, on a
alors fait un nombre de tirages égal à X 1 + X 2 et ainsi de suite.
n
⎡
⎤
p e it
.
Fonction caractéristique : ϕ X ( t ) = ⎢
it ⎥
⎣1 − (1 − p) e ⎦
8. Loi hypergéométrique.
Soient P une population d’effectif (non nul) N et P 0 une sous-population d‘effectif N 0 (non nul et
différent de N). On réalise, au sein de la population P, un tirage d’un échantillon de taille n (entier fixé
non nul, inférieur ou égal à N), équiprobable sans remise. On note X la variable aléatoire représentant
le nombre d’unités de l’échantillon qui appartiennent à la sous-population P 0 .
Par définition, la loi de X s’appelle la loi hypergéométrique.
X prend ses valeurs dans {0, 1, 2, ..., Min (N 0 , n)} et doit être supérieur ou égal à n - N + N 0 .
Pour tout entier naturel k vérifiant ces conditions : P {X = k} =
C Nk 0 C Nn −−kN 0
C Nn
.
Moments :
EX=n
N0
N − n N0 N − N0
et V X =
n
.
N
N −1
N
N
Propriétés :
Lorsque la taille de la population est grande, un tirage sans remise est proche d’un tirage avec remise.
La loi hypergéométrique se « rapproche » effectivement de la loi binômiale, au sens de la
convergence en loi : lorsque N et N 0 tendent vers + ∞ , avec :
P {X = k} → C n α
k
k
(1 - α)
n−k
N0
→ α, alors :
N
, pour tout entier naturel k fixé.
9. Loi hypergéométrique négative.
Soient P une population d’effectif (non nul) N et P 0 une sous-population d‘effectif N 0 (non nul et
différent de N). On réalise une succession de tirages sans remise d’une seule unité de la population P,
équiprobables à chaque étape. On note X la variable aléatoire représentant le nombre de tirages
nécessaires pour obtenir exactement n (entier fixé non nul et inférieur ou égal à N 0 ) unités
appartenant à la sous-population P 0 .
Par définition, la loi de X s’appelle la loi hypergéométrique négative.
X prend ses valeurs dans {n, N - N 0 + n} et, pour tout entier naturel k vérifiant ces conditions :
P {X = k} =
C kn−−11 C NN 0−−k n
C NN 0
.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
47
Moments :
EX=n
N +1
.
N0 +1
Cette loi, ainsi que la précédente, sont très souvent utilisées en théorie des sondages.
10. Loi de POISSON.
X variable aléatoire entière suit la loi de POISSON de paramètre λ (> 0), notée P (λ), si et seulement
si, pour tout entier naturel k : P {X = k} =
e − λ λk
.
k!
Mode :
-
−λ
si λ ≤ 1, la valeur maximale de P {X = k} est atteinte en k = 0 et vaut : e .
si λ > 1, P {X = k} augmente strictement jusqu’à la plus petite valeur de k supérieure ou égale
à λ - 1, puis décroît.
Moments :
E X = V X = λ.
Fonction caractéristique : ϕ X ( t ) = e
λ ( e it − 1)
.
Propriétés :
-
Si X 1 et X 2 sont indépendantes, suivant les lois P (λ i ), pour i = 1 ou 2, alors :
X 1 + X 2 suit la loi P (λ 1 + λ 2 ).
-
Si {X n } est une suite de variables aléatoires de lois B (n, p n ), où {p n } est une suite de réels
appartenant à ]0, 1[, telle que : n p n
→ λ, alors : X n
n → +∞
Loi
→ P (λ).
n → +∞
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
48
2ème PARTIE : Principales lois usuelles admettant une densité par
rapport à la mesure de LEBESGUE (cas réel).
1. Loi gamma : γ (p, θ), p et θ > 0.
X variable aléatoire réelle suit la loi γ (p, θ) si et seulement si elle admet, par rapport à la mesure de
LEBESGUE, la densité : f (x) =
θ p e −θ x x p −1
Γ( p )
1 R + (x).
Pour p entier naturel : Γ (p) = (p - 1) !
Forme de la densité : tend vers + ∞ en 0 si p < 1, vers θ si p = 1 (avec tangente de pente vers 0 si p > 1 (avec une tangente verticale si p < 2, de pente
Admet, quand p > 1, un maximum (mode) en
p −1
θ 2 ) et
θ 2 si p = 2 et 0 si p > 2).
.
θ
Cas particuliers :
•
si p = 1, la densité s’écrit : f (x) =
θ e −θ x 1 R
+
(x).
On obtient la loi exponentielle de paramètre θ, notée ε (θ). Sa fonction de répartition est :
F (x) = 1 - e
−θ x
pour x > 0, 0 sinon.
e − x x p −1
• si θ = 1, la densité s’écrit : f (x) =
1 R + (x).
Γ( p )
On obtient la loi gamma de paramètre p, notée γ ( p ) .
Fonction de répartition (cas général, dans le cas où p est entier) :
Pour tout réel x strictement positif : F (x) = 1 - e
−θ x
p −1
∑
k =1
θ k xk
k!
.
Moments :
k
E (X ) =
Γ(k + p )
, pour k > - p.
Γ( p)θ k
p
2
En particulier : E X =
θ
, E (X ) =
p ( p + 1)
θ
2
et V X =
p
θ2
.
p
⎛ θ ⎞
⎟⎟ .
Fonction caractéristique : ϕ X ( t ) = ⎜⎜
⎝ θ − it ⎠
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
49
Propriétés :
•
si X suit la loi γ (p, θ), alors, pour tout réel a > 0, a X suit la loi γ (p,
θ
En particulier : θ X suit la loi γ (p).
a
).
•
X2
1
suit la loi γ ( ) .
si X suit la loi N (0, 1), alors
2
2
•
si X 1 et X 2 sont indépendantes, suivant les lois γ (p i , θ), pour i = 1 ou 2 (même paramètre θ),
alors X 1 + X 2 suit la loi γ (p 1 + p 2 , θ).
2. Loi Bêta de 2ème espèce.
Z variable aléatoire réelle suit la loi Bêta de 2ème espèce de paramètres p et q, notée B 2 (p, q), si et
seulement si elle s’écrit sous la forme : Z =
X
, où X et Y sont deux variables aléatoires
Y
indépendantes de lois respectives γ (p) et γ (q), avec p et q > 0.
Densité : s’obtient à partir de la formule du jacobien et de la loi du couple (X, Y) en utilisant la
transformation auxiliaire : (X, Y) → (Z, U) avec U = Y :
f (z) =
z p −1
Γ( p + q )
1 + (z).
Γ( p)Γ(q) (1 + z ) p + q R
+
C’est une loi à support sur R .
Forme de la densité : cette densité tend vers + ∞ en 0, si p < 1, vers q si p = 1 (avec une tangente
horizontale) et vers 0 si p > 1 (avec une tangente verticale si p < 2, de pente q (q+1) si p = 2 et
horizontale si p > 2). Elle présente un maximum en le point
p −1
, si p > 1.
q +1
Moments :
Γ( k + p ) Γ ( q − k )
, pour k ∈ ]- p, q[.
Γ ( p )Γ ( q )
p
En particulier : E Z =
, si q > 1.
q −1
k
E (Z ) =
3. Loi Bêta de 1ère espèce.
T variable aléatoire réelle suit la loi Bêta de 1ère espèce de paramètres p et q, notée B 1 (p, q), si et
Z
, où Z est une variable aléatoire suivant la loi Bêta
1+ Z
X
espèce B 2 (p, q), ou encore si et seulement si elle s’écrit sous la forme
, où X et Y
X +Y
seulement si elle s’écrit sous la forme : T =
de 2ème
sont deux variables aléatoires indépendantes de lois respectives γ (p) et γ (q), avec p et q > 0.
C’est une loi à support sur [0, 1].
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
50
Densité : s’obtient par la formule du jacobien, à partir de celle de la loi B 2 (p, q) :
f (t) =
Γ( p + q) p −1
q −1
t
(1 - t)
1 [ 0 ,1] (t).
Γ ( p )Γ ( q )
Forme de la densité : cette densité tend vers + ∞ en 0 si p < 1, vers q si p = 1 et vers 0 si p > 1.
Résultats analogues en 1, en remplaçant p par q.
Pour p = q = 1, on obtient la loi uniforme sur [0, 1], de densité constante égale à 1 sur cet intervalle.
Plus généralement, on appelle loi uniforme sur l’intervalle [a, b] la loi admettant pour densité :
1
1 [a, b] .
b−a
Dans les autres cas, la densité de la loi B 1 (p, q) est croissante (resp. décroissante ) si p ≥ 1 ≥ q
(resp. si p ≤ 1 ≤ q). Si p et q sont ≥ 1 (resp. ≤ 1), elle présente un maximum (resp. un minimum) en
le point
p −1
.
p+q−2
Si p = q, elle est symétrique par rapport à la droite d’abscisse 1/2.
Moments :
Γ( p + q) Γ( p + k )
, si k > - p.
Γ( p) Γ( p + q + k )
p
En particulier : E T =
.
p+q
1
Pour p = q, cette espérance vaut .
2
k
E (T ) =
Cas particulier : pour p = q = 3, la densité vaut : f (t) = 30 t
2
(1 - t)
La variable aléatoire centrée réduite associée (translatée de -
t2 2
15 7
(1 ) 1 [−
densité :
7
112
7 , 7]
2
1 [ 0 ,1] ( t ). Sa variance vaut
1
.
28
1
1
et divisée par
) a pour
2
2 7
( t ). L’intérêt de cette dernière loi est qu’elle approche bien la loi
N (0, 1), tout en ayant un support compact et une forme analytique simple : tangentes horizontales
aux bornes, maximum égal à 0,354 [à comparer à la valeur 0,4 pour la loi N (0, 1)], points d’inflexion
en + ou -
7
(# 1,528).
3
4. Loi de PARETO.
X variable aléatoire réelle suit la loi de PARETO de paramètres x 0 (qui s’interprète comme un seuil) et
β (tous deux > 0) si et seulement si elle admet, par rapport à la mesure de LEBESGUE, la densité :
f (x) =
β x0β
x β +1
1 [ x0 , + ∞[ (x).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
51
C’est une loi à support sur [x 0 , + ∞ [.
Cette densité tend vers
β
x0
quand x tend vers x 0 , avec une tangente de pente -
β ( β + 1)
x02
et est
décroissante.
β
⎛x ⎞
Fonction de répartition : F (x) = 1 - ⎜ 0 ⎟ pour x > x 0 , 0 sinon.
⎝ x ⎠
p
Moments : E (X ) =
β x0β
, si p < β
β−p
.
Propriétés :
•
si T est une variable aléatoire réelle suivant la loi Bêta de 1ère espèce B 1 (p, 1), alors
la loi de PARETO de paramètres 1 et p, à support sur [1, + ∞ [.
•
1
suit
T
si X est une variable aléatoire suivant la loi de PARETO de paramètres 1 et β, alors Ln X suit
la loi exponentielle de paramètre β.
5. Loi de LAPLACE.
Z variable aléatoire réelle suit la loi de LAPLACE (ou double exponentielle) si et seulement elle s’écrit
sous la forme : Z = X 1 - X 2 , où X 1 et X 2 sont deux variables aléatoires indépendantes de même loi
exponentielle de paramètre θ .
Densité : s’obtient à partir de la convolution des lois de X 1 et de - X 2 , soit pour tout réel z :
f (z) =
θ
2
e
−θ z
.
Elle est paire (loi symétrique) et présente un maximum (mode) et un point anguleux en 0.
Moments :
-
d’ordre impair : nuls (par symétrie de la loi)
-
d’ordre pair : E (Z
2q
)=
Γ( 2q + 1)
θ 2q
(ou, par extension, pour q réel > -
Fonction caractéristique : φ Z ( t ) =
θ2
θ 2 + t2
, pour q entier naturel
1
).
2
.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
52
6. Loi de GUMBEL.
Z variable aléatoire réelle suit une loi de GUMBEL de paramètre θ si et seulement si elle s’écrit sous
la forme : Z = - Ln X, où X suit la loi exponentielle de paramètre θ.
Densité : s’obtient par la formule du jacobien :
f (z) = θ e
− z −θ e − z
, pour tout réel z.
Elle présente un maximum (mode) en le point Ln θ, de valeur 1/e. Pour θ = 1, le maximum est atteint
en 0 ; la densité est plus « écrasée » sur la partie négative que sur la partie positive
[i.e. : f (y) > f (- y), pour y > 0].
Sa fonction de répartition peut aussi s’obtenir directement à partir de celle de X :
F (z) = e
−θ e− z
, pour tout réel z.
On notera que Z peut s’engendrer à partir d’une variable Y suivant la loi exponentielle de paramètre 1,
sous la forme : Z = - Ln Y + Ln θ. Le paramètre Ln θ apparaît donc comme un paramètre de position. Il
en résulte que la variance de Z ne dépend pas de θ (cf. § 7).
s
Transformée de LAPLACE : L Z (s) = θ Γ (1 - s) pour s < 1.
7. Loi logistique.
X variable aléatoire réelle suit une loi logistique si et seulement si elle admet pour fonction de
répartition une fonction du type : F (x) =
1
, pour tout réel x, où A et B sont > 0.
1 + Ae − Bx
La loi normalisée, correspondant à A = B = 1 s’interprète aussi comme la loi de Ln (e
une variable aléatoire suivant une loi exponentielle de paramètre 1.
Y
- 1), où Y est
La loi est symétrique [F (-x) = 1 - F (x), pour tout réel x] si et seulement si A = 1, auquel cas la loi est
d‘espérance nulle. Le paramètre A est un paramètre de position, tandis que B est un paramètre
d’échelle : si X suit la loi logistique précédente, la variable Y = B X - Ln A suivra la loi logistique de
fonction de répartition : G (y) =
1
.
1+ e − y
Moments :
1
Ln A
B
1 π2
VX= 2
(s’obtient au moyen d’un développement en série sous le signe intégrale).
3
B
EX=
La loi logistique « centrée réduite » correspond donc aux paramètres : A = 1, B =
π
.
3
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
53
Propriétés :
•
Si X 1 et X 2 sont deux variables aléatoires indépendantes suivant respectivement les lois de
GUMBEL de paramètres α 1 et α 2 , alors X 1 - X 2 suit la loi logistique, de fonction de
répartition :
F (x) =
1
α
1 + 1 e−x
α2
.
Il est équivalent de dire que, si Z 1 et Z 2 sont deux variables aléatoires indépendantes,
suivant respectivement les lois exponentielles ε (θ 1 ) et ε (θ 2 ), alors Ln
Z2
suit la loi
Z1
logistique précédente.
Corollaire : ceci permet de calculer la variance d’une variable aléatoire suivant une loi de
GUMBEL. Celle-ci ne dépendant pas du paramètre de la loi de GUMBEL, on a en effet :
V (X 1 - X 2 ) = V X 1 + V X 2 = 2 V X 1 et, par ailleurs, cette variance vaut
V X1 =
•
π2
6
π2
3
, d’où :
.
La densité f de la loi logistique vérifie l’identité fonctionnelle :
∀ x ∈ R : f (x) = B F(x) [1 - F (x)].
•
Transformée de LAPLACE : toujours à partir du lien entre lois de GUMBEL et loi logistique, on
obtient :
s
L X (s) = A B Γ (1 -
s
s
) Γ (1 +
) pour - B < s < B.
B
B
8. Loi de WEIBULL.
X variable aléatoire réelle strictement positive suit une loi de WEIBULL de paramètres α et θ (tous
α
deux paramètres > 0), notée W (α, θ), si et seulement si X suit la loi exponentielle de paramètre θ.
Densité : s’obtient à partir de la formule du jacobien, soit :
f (x) = α θ e
−θ xα
x
α −1
1 R + (x).
⎛ α − 1⎞
Cette densité tend vers 0 en 0 si α > 1 (auquel cas elle présente un maximum (mode) en ⎜
⎟
⎝ αθ ⎠
et vers + ∞ si α < 1. Pour α = 1, on retrouve la loi exponentielle habituelle.
Fonction de répartition : F (x) = 1 - e
−θ xα
1
α
),
pour x > 0, 0 sinon.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
54
Moments :
p⎞
⎛
Γ⎜ 1 + ⎟
⎝ α ⎠ pour p > - α.
p
E (X ) =
p
θα
9. Lois normales sur R.
9.1 Loi N (0, 1).
X variable aléatoire réelle suit la loi N (0, 1) (loi normale centrée réduite) ou est une variable
gaussienne (ou normale) centrée réduite si et seulement si elle admet, par rapport à la mesure de
LEBESGUE, la densité : f (x) =
1
2π
exp (-
x2
), pour tout réel x.
2
Forme de la densité :
Courbe « en cloche », symétrique par rapport à l’axe des ordonnées (traduisant la symétrie de la loi,
c’est-à-dire que X et - X ont même loi ), points d’inflexion en + 1 et - 1.
La densité vérifie l’équation différentielle : f ’(x) + x f (x) = 0, pour tout réel x.
Propriété de la fonction de répartition :
Celle-ci ne peut s’exprimer que sous forme intégrale.
Au voisinage de + ∞ , on a : 1 - F (x) ~
f ( x)
.
x
Moments :
-
-
d’ordre impair = nuls, en raison de l’imparité de la fonction à intégrer. Notamment : E X = 0.
1
2 q Γ(q + )
2q
2 = ( 2q )! pour tout entier naturel q.
d’ordre pair : E (X ) =
2 q q!
π
→ En particulier : E (X 2 ) = 1, E (X 4 ) = 3, d’où : V X = 1.
µ
Il en résulte que le coefficient d’aplatissement ( 44 - 3) vaut 0.
σ
Fonction caractéristique :
ϕ X (t) = exp (-
t2
), ∀t ∈ R.
2
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
55
9.2 Loi N (m,
Y suit la loi N (m,
Densité : f (y) =
σ
σ 2 ) ( σ > 0).
σ 2 ) si et seulement si
1
σ 2π
exp [-
Y −m
σ
suit la loi N (0, 1).
( y − m) 2
], pour tout réel y, avec un pic d’autant plus « pointu » que
2σ 2
est plus petit. Points d’inflexion en m +
σ
et m -
σ.
Deux densités de deux lois normales quelconques se coupent en deux points.
Moments :
Seuls les moments centrés ont une expression simple : les moments impairs sont nuls et les moments
pairs valent :
µ 2q
=
σ 2 q E (X 2 q ), pour tout entier naturel q, où X est la variable aléatoire centrée
réduite associée à Y. Même remarque que ci-dessus sur le coefficient d’aplatissement.
Le 1er paramètre (m) représente l’espérance de la V.a. et le 2ème ( σ ), la variance.
2
▲ Attention : dans certains ouvrages, le 2ème paramètre est l’écart-type ; ce n’est pas la convention
que nous suivrons ici.
Fonction caractéristique :
ϕ Y (t) = exp (i t m -
t 2σ 2
), ∀t ∈ R.
2
9.3 Premières propriétés des lois normales.
σ 2 ), alors, pour tous réels a (non nul) et b :
2
2
a Y + b suit la loi N (a m + b, a σ ).
•
si Y suit la loi N (m,
•
si Y 1 et Y 2 sont indépendantes, suivant les lois N (m i ,
Y 1 + Y 2 suit la loi N (m 1 + m 2 ,
σ i2 ) pour i = 1 ou 2, alors :
σ 12
+
σ 22 ).
▲ Attention : il est FAUX de dire que la somme de deux variables aléatoires normales est normale.
L’hypothèse d’indépendance est cruciale ici, pour que cela soit vrai. Plus généralement, il faudrait
supposer la normalité du vecteur (Y 1 , Y 2 ) pour être assuré du résultat.
→ Pour assurer une cohérence en termes de moments, de fonction caractéristique et de
transformation affine d’une loi normale, on convient que la masse de DIRAC en un point m est
assimilée à une loi N (m, 0).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
56
10. Lois usuelles dérivées des lois normales.
10.1 Loi lognormale.
Z variable aléatoire réelle suit une loi lognormale si et seulement si Ln Z suit une loi normale : une loi
lognormale est donc l’exponentielle d’une loi normale.
Notations : Y ~> N (m,
Z=e
m
e
σX
σ 2 ), Z = e Y . On peut poser : Y = m + σ X, où X ~> N (0, 1), d’où :
.
Densité : s’obtient par la formule du jacobien : f (z) =
Elle présente un maximum (mode) en le point e
k
Moments : pour tout réel k, E (Z ) = e
LAPLACE de X, avec L X (t) = exp (
k
D’où : E (Z ) = exp (k m +
km
m −σ 2
E (e
1
σ 2π
exp [-
( Ln z − m) 2 1
] 1 IR + (z).
z
2σ 2
.
kσ X
) = e
km
L X (k σ ), où L X est la transformée de
t2
) pour tout réel t.
2
k 2σ 2
).
2
En particulier : E Z = exp (m +
σ2
2
).
▲ Attention : l’espérance de l’exponentielle d’une loi normale n’est pas l’exponentielle de
l’espérance.
On a aussi : E (Z ) = exp (2m + 2 σ ) et : V Z = e
2
2
2m
(e
2σ 2
-e
σ2
).
10.2 Loi du KHI-2
Z variable aléatoire réelle suit une loi du KHI-2 à p degrés de liberté (notée
χ p2 ) si et seulement si elle
p
s’écrit sous la forme Z =
∑X
i =1
2
i
, où les X i sont des V.a. indépendantes de loi N (0, 1) et p est un
entier naturel non nul.
Densité : s’obtient à partir de la convolution des lois Gamma, en remarquant que
X i2
suit la loi
2
1
Z
p
p 1
γ ( ), pour tout i, donc suit la loi γ ( ) et Z suit la loi γ ( , ) (à laquelle s’identifie donc la
2
2
2
2 2
2
2
loi χ p ). En particulier, la loi χ 2 n’est autre que la loi exponentielle de paramètre 1/2. D’où :
−
f (z) =
z
2
e z
p
2
p
−1
2
p
2 Γ( )
2
1 R + (z).
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
57
Par extension, cette formule définit encore une densité de probabilité, pour p réel positif, même non
entier. Cette densité tend vers + ∞ en 0 si p < 2, vers
1
si p = 2 et vers 0 si p > 2. Dans ce dernier
2
cas, elle admet un maximum en p - 2.
Moments : E Z = p, V Z = 2 p.
10.3 Loi de STUDENT (ou STUDENT-FISHER).
Soient X une variable aléatoire de loi N (0, 1) et Y une autre variable aléatoire de loi
indépendantes. Alors, la variable aléatoire T =
X
Y
p
χ p2 , toutes deux
suit, par définition, la loi de STUDENT à p degrés
de liberté, notée T (p). C’est une loi symétrique, à support sur tout R.
2
Densité : s’obtient en utilisant la symétrie de la loi et en remarquant que T = p
X2
X 2 /2
=p
, soit
Y
Y /2
p fois le rapport de deux lois GAMMA indépendantes, ou encore p fois une variable aléatoire de loi
BETA de 2ème espèce, de paramètres
1
p
et
. Elle vaut donc :
2
2
⎛ p + 1⎞
Γ⎜
⎟
1
1
2 ⎠
⎛1⎞
⎝
, pour tout réel t, avec : Γ⎜ ⎟ = π .
f (t) =
p +1
p ⎛1⎞ ⎛ p⎞
⎝ 2⎠
Γ⎜ ⎟ Γ⎜ ⎟ ⎛ t 2 ⎞ 2
⎝ 2 ⎠ ⎝ 2 ⎠ ⎜⎜1 + ⎟⎟
p⎠
⎝
→ Pour p = 1, on obtient la loi de CAUCHY, de densité, par rapport à la mesure de LEBESGUE :
f (t) =
1
1
, pour tout réel t.
π 1+ t2
Cette loi est identique à la loi du rapport de deux variables aléatoires normales centrées réduites
indépendantes (utile pour de nombreux contre-exemples, du fait qu’elle n’admet pas de moments). Sa
fonction caractéristique vaut : e
−t
, pour tout réel t.
Moments :
-
-
d’ordre impair : nuls (par symétrie de la loi)
1⎞ ⎛ p
⎞
⎛
Γ⎜ q + ⎟ Γ⎜ − q ⎟
2⎠ ⎝ 2
⎠ , pour q entier naturel (ou, par
⎝
2q
q
d’ordre pair : E (T ) = p
⎛1⎞ ⎛ p⎞
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2⎠ ⎝ 2 ⎠
1 p
extension, pour q réel) appartenant à l’intervalle ]- ,
[.
2 2
[Se calculent à partir de ceux de la loi Bêta de 2ème espèce].
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
58
2
En particulier : E (T ) = V T =
p
, pour p > 2.
p−2
10.4 Loi de FISHER (ou FISHER-SNEDECOR).
Soient deux variables aléatoires X et Y indépendantes, suivant respectivement les lois
χ p2
et
χ q2 .
X/p
suit, par définition, la loi de FISHER à p et q degrés de liberté,
Y /q
Alors la variable aléatoire F =
notée F (p, q).
+
C’est une loi à support sur R .
q X /2
q
, donc vaut
fois une variable aléatoire de loi
p Y /2
p
p
q
et . Elle vaut donc :
BETA de 2ème espèce de paramètres
2
2
⎛ p+q⎞
⎛ p+q⎞
p
p
p
−1
−1
Γ⎜
Γ⎜
⎟
⎟
p
q
2
2
2
⎛ p⎞
z
z
2 ⎠
2 ⎠
⎝
⎝
2
2
1 R + (z) = p q
1 R + (z).
f (z) = ⎜⎜ ⎟⎟
p+q
⎛ p ⎞ ⎛ q ⎞ (q + pz ) p2+ q
⎝ q ⎠ Γ⎛⎜ p ⎞⎟ Γ⎛⎜ q ⎞⎟ ⎛
2
Γ⎜ ⎟ Γ⎜ ⎟
p ⎞
⎝ 2 ⎠ ⎝ 2 ⎠ ⎜⎜1 + z ⎟⎟
⎝ 2 ⎠ ⎝2⎠
q ⎠
⎝
Densité : s’obtient en remarquant que F =
Moments : se calculent à partir de ceux de la loi Bêta de 2ème espèce.
p⎞ ⎛q
⎞
⎛
Γ⎜ k + ⎟ Γ ⎜ − k ⎟
q
2⎠ ⎝2
⎠ , pour tout k ∈ ]- p , q [.
⎝
k
E (F ) = k
2 2
p
⎛ p⎞ ⎛q⎞
Γ⎜ ⎟ Γ⎜ ⎟
⎝ 2 ⎠ ⎝ 2⎠
q
En particulier : E F =
, pour q > 2.
q−2
k
Propriétés :
•
F (q, p) = 1 / F (p, q).
•
T (p) = F (1, p).
2
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
59
La galaxie des lois de probabilité.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
60
ELEMENTS DE BIBLIOGRAPHIE.
1. Ouvrages mathématiques.
R. JEAN : mesure et intégration ; Presses de l’Université du Québec, 1982.
C-M. MARLE : Mesures et probabilités ; HERMANN, 1974.
M. METIVIER : Notions fondamentales de la théorie des probabilités ; DUNOD, 1972.
J. NEVEU : Bases mathématiques du Calcul des Probabilités ; MASSON, 1980.
W. RUDIN : Analyse réelle et complexe ; MASSON, 1995.
2. Ouvrages de théorie des probabilités ou d’application à la statistique.
Ph. BARBE, M. LEDOUX : Probabilité ; BELIN, 1999.
J. JACOD, Ph. PROTTER : L’essentiel en théorie des probabilités ; CASSINI.
A. MONFORT : Cours de probabilités ; ECONOMICA, 1996.
E. MALINVAUD : Méthodes statistiques de l’économétrie ; DUNOD, 1981.
J-Y. OUVRARD : Probabilités, tomes I (CAPES, Agrégation) et II (Master, Agrégation) ; CASSINI,
2004.
G. SAPORTA : Probabilités, Analyse des données et Statistique ; TECHNIP, 1990.
P. TASSI, S. LEGAIT : Théorie des Probabilités en vue des applications à la statistique ; TECHNIP,
1990.
P.S. TOULOUSE : Thèmes de probabilités et statistique ; DUNOD, 1999.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
61
3. Ouvrages d’approfondissement.
R.B. ASH, C. DOLEANS-DADE : Probability and measure theory ; HARCOURT, 2000.
P. BILLINGSLEY : Probability and measure ; John WILEY & Sons, 1995.
K.L. CHUNG : A course in probability theory ; HARCOURT, 1968.
W. FELLER : An introduction to Probability theory and its applications ; John WILEY & Sons, 1966.
A.N. SHYRIAEV : Probability ; SPRINGER-VERLAG, 1996.
J. STOYANOV : Counter-examples in Probability ; John WILEY & Sons, 1987.
[Ouvrage très utile pour se préserver d’idées fausses sur certains résultats de la théorie des
probabilités.]
4. Ouvrages d’exercices.
J.P. ANSEL, Y. DUCEL : Exercices corrigés en théorie des probabilités ; ELLIPSES, 1996.
M. COTTRELL, C. DUHAMEL, V. GENON-CATALOT : Exercices de probabilités avec rappels de
cours ; BELIN, 1980.
M. COTTRELL, C. DUHAMEL, V. GENON-CATALOT, T. MEYRE : Exercices de probabilités ;
CASSINI, 1999.
[Constitue une réédition enrichie du précédent ouvrage.]
L. MAZLIAK : Calcul de probabilités ; HERMANN, 1998.
5. Ouvrage de vulgarisation.
G. PAGES, C. BOUZITAT : En passant par hasard ; VUIBERT, 2003.
[Pour ceux qui s’intéressent à des exemples concrets d’utilisation des probabilités, mais avec
quelques développements mathématiques non triviaux.]
6. Polycopiés ENSAE.
M. CHRISTINE :
-
Fondements axiomatiques, variables aléatoires, lois (tomes I à III) ; 2007.
Convolution, conditionnement, espérance conditionnelle (tome IV) ; 2000.
Fonctions caractéristiques, convergence en loi, théorie générale de la convergence et théorie
asymptotique (tome V) ; 2000.
Compléments sur les fonctions caractéristiques, convergences ponctuelles et fonctionnelles
(tome VI) ; 2007.
Marc CHRISTINE - Théorie des probabilités - Les « Incontournables »
62
Téléchargement