Cours Intégrations Probabilités

publicité
Institut Galilée
Macs 1
'
∗
PROBABILITES
$
Notes de cours
de Première Année de Macs
Librement inspirées des cours de F. Klopp
&
∗
2005
BIBLIOGRAPHIE
• Introduction aux Probabilités, J.-P. Delmas, Ellipses.
• Initiation aux méthodes de la statistique et du calcul des probabilités, P. Jaffard, Masson.
%
Table des matières
1 Théorie de la mesure
1.1 σ-algèbre . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Définitions . . . . . . . . . . . . . . . . . .
1.1.2 Mesures sur une σ-algèbre . . . . . . . . .
1.1.3 Mesure de Lebesgue . . . . . . . . . . . . .
1.1.4 Fonctions mesurables . . . . . . . . . . . . .
1.2 Intégrale de Lebesgue . . . . . . . . . . . . . . . .
1.2.1 Définitions . . . . . . . . . . . . . . . . . .
1.2.2 Théorèmes fondamentaux . . . . . . . . . .
1.2.3 Relation avec l’intégrale de Riemann . . . .
1.2.4 IDP : intégrales dépendant d’un paramètre
1.3 Théorèmes de Fubini . . . . . . . . . . . . . . . . .
1.3.1 Espaces produits . . . . . . . . . . . . . . .
1.3.2 Théorèmes . . . . . . . . . . . . . . . . . .
1.4 Changements de variables . . . . . . . . . . . . . .
1.4.1 Mesure image . . . . . . . . . . . . . . . . .
1.4.2 Changements de variables dans Rn . . . . .
1.5 Espaces L1 et L2 . . . . . . . . . . . . . . . . . . .
1.5.1 Espace L1 . . . . . . . . . . . . . . . . . . .
1.5.2 Espace L2 . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
4
5
5
5
6
6
7
8
8
8
9
9
9
9
10
10
10
2 Variables aléatoires réelles
2.1 Préliminaires : probabilités . . . . . . . . .
2.2 Généralités sur les variables aléatoires . . .
2.2.1 Loi et fonction de répartition . . . .
2.2.2 Indépendance . . . . . . . . . . . . .
2.2.3 Espérance . . . . . . . . . . . . . . .
2.2.4 Variance . . . . . . . . . . . . . . . .
2.2.5 Lois réduites, centrées, constantes .
2.2.6 Inégalités fondamentales . . . . . . .
2.3 Fonctions associées à une variable aléatoire
2.3.1 Fonction caractéristique . . . . . . .
2.3.2 Fonctions génératrices . . . . . . . .
2.4 Variables aléatoires discrètes . . . . . . . . .
2.4.1 Définitions . . . . . . . . . . . . . .
2.4.2 Exemples fondamentaux de lois . . .
2.5 Variables aléatoires continues . . . . . . . .
2.5.1 Définitions . . . . . . . . . . . . . .
2.5.2 Exemples fondamentaux de lois . . .
2.5.3 Théorème de Cochran . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
12
12
12
13
13
14
14
14
14
14
14
16
17
17
17
19
3 Convergences
3.1 Lemme de Borel-Cantelli . . . . . . . . . . . . .
3.2 Convergences presque sûre et en probabilité . .
3.2.1 Définitions . . . . . . . . . . . . . . . .
3.2.2 Lois des grands nombres . . . . . . . . .
3.3 Convergence en loi et théorème centrale limite .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
22
22
22
23
23
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
4 Vecteurs aléatoires
4.1 Généralités . . . . . . . . . . . . . . . . . . .
4.1.1 Loi d’un vecteur aléatoire, marginales
4.1.2 Indépendance de vecteurs aléatoires .
4.1.3 Espérance et matrice de covariances .
4.2 Vecteurs gaussiens . . . . . . . . . . . . . . .
4.2.1 Définition . . . . . . . . . . . . . . . .
4.2.2 Théorème centrale limite . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
24
24
24
24
25
25
25
25
Chapitre 1
Théorie de la mesure
σ-algèbre
1.1
1.1.1
Définitions
Soit Ω un ensemble.
Définition 1.1.1.1 A ∈ P(Ω) est une σ-algèbre sur Ω si :
• Ω ∈ A.
• Pour tout A ∈ A, Ā ∈ A a .
[
• A est stable par union dénombrable : si (An )n∈N est une suite d’éléments de A, alors
An ∈ A.
n∈N
a
Ā désigne ici le complémentaire de A
Remarque 1 Les deux derniers points montrent que toute σ-algèbre est stable par intersection dénombrable.
\
Propriété 1.1.1.1 Si (Ai )i∈I est une famille de σ-algèbre , alors
Ai est une σ-algèbre .
i∈I
Théorème 1.1.1.1 Soit B ⊂ P(Ω). Il existe une unique σ-algèbre AB sur Ω telle que :
• B ⊂ AB .
• pour toute sous-algèbre A contenant B, on a : AB ⊂ A.
AB est donc la plus petite σ-algèbre contenant B, appelée σ-algèbre engendrée par B.
Définition 1.1.1.2 Sur Rn , on note B(Rn ) la σ-algèbre engendrée par les ouverts de Rn , nommée tribu de Borel de Rn .
Ses éléments sont appelés boréliens de Rn .
Propriété 1.1.1.2 Soient A une σ-algèbre sur Ω et Ω0 un ensemble. Soit f : Ω0 7−→ Ω. Alors f −1 (A) = {f −1 (A) | A ∈ A}
est une σ-algèbre sur Ω0 .
1.1.2
Mesures sur une σ-algèbre
Dans tout le paragraphe, Ω est un ensemble et A une σ-algèbre sur cet ensemble.
Définition 1.1.2.1 L’application µ : A −→ R+ est une mesure si pour toute suite d’éléments (An )n∈N de A tels que
An ∩ Am = ∅ pour n 6= m, on a :
!
[
X
µ
An =
µ(An )
n∈N
n∈N
Propriété 1.1.2.1 Soit µ une mesure sur A. Alors :
1. µ(∅) = 0, puis, pour (A, B) ∈ A2 :
A ⊂ B =⇒ µ(A) 6 µ(B) et µ(B\A) = µ(B) − µ(A)
2. Pour (An )n∈N suite d’éléments de A,
!
µ
[
An
n∈N
6
X
n∈N
4
µ(An )
Propriété 1.1.2.2 (Convergence monotone) Soit (An )n∈N une suite croissante pour l’inclusion d’éléments de A.
Alors :
!
[
lim µ(An ) = µ
An
n→+∞
n∈N
De même, pour (An )n∈N suite décroissante de A telle qu’il existe n0 ∈ N pour lequel µ(An0 ) est fini, on a :
!
\
lim µ(An ) = µ
An
n→+∞
n∈N
Définition 1.1.2.2 (Ω, A) est appelé espace mesurable. (Ω, A, µ) est appelé espace mesuré.
Si, de plus, µ(Ω) = 1, (Ω, A, µ) est appelé espace probabilisé.
1.1.3
Mesure de Lebesgue
Théorème 1.1.3.1 Il existe une unique mesure borélienne λ sur Rn telle que pour toutes familles de réels (ai )16i6n
et (bi )16i6n (avec ai < bi pour tout 1 6 i 6 n), on a :
λ
n
O
!
|ai , bi |
i=1
=
n
Y
(bi − ai )
i=1
où | désigne ] ou [.
Ceci traduit l’unicité d’une mesure sur B(Rn ) telle que la mesure de tout pavé de Rn soit la mesure naturelle géométrique, i.e. la longueur (n = 1), l’aire (n = 2), le volume (n = 3), . . .
λ est appelée mesure de Lebesgue de Rn .
Propriété 1.1.3.1 La mesure de Lebesgue vérifie les propriétés suivantes :
• Invariance par translation : ∀ x ∈ Rn , ∀ A ∈ B(Rn ), λ(x + A) = λ(A).
• Homogénéité : ∀ t > 0, ∀ A ∈ B(Rn ), λ(tA) = tn λ(A).
1.1.4
Fonctions mesurables
Dans tout le paragraphe, A et A0 sont des σ-algèbres respectivement sur des ensembles Ω et Ω0 .
Définition 1.1.4.1 f : Ω −→ Ω0 est dite (A, A0 )-mesurable si :
∀ A ∈ A0 , f −1 (A) ∈ A
Remarque 2 A noter l’analogie avec les fonctions continues : f : R −→ R est continue si pour tout ouvert O de R, f −1 (O)
est un ouvert de R.
Propriété 1.1.4.1 Toute fonction continue est mesurable.
Propriété 1.1.4.2 L’espace des fonctions mesurables de Ω dans R est stable par addition (et même par combinaison linéaire),
par multiplication, par passage aux bornes sup et inf. En particulier, si f est mesurable, |f | est mesurable.
Propriété 1.1.4.3 Soit (fn ) une suite de fonctions de Ω dans R mesurables et convergeant simplement vers une
fonction réelle f . Alors f est mesurable.
Définition 1.1.4.2 L’application f : Ω −→ R est dite simple si f est mesurable et ne prend qu’un nombre dénombrable
de valeurs. f peut donc se mettre sous la forme :
X
f=
αi 1Ai
i∈N
où les ensembles Ai sont mesurables et deux à deux disjoints.
Théorème 1.1.4.1 Toute fonction f mesurable et à valeurs positives est limite simple d’une suite croissante de
fonctions simples. Si, de plus, f est bornée, la convergence est uniforme.
1.2
Intégrale de Lebesgue
Dans tout le paragraphe, (Ω, A, µ) est un espace mesuré.
5
1.2.1
Définitions
Définition 1.2.1.1 Soit f =
X
αi 1Ai une fonction simple positive (i.e. (Ai ) disjoints deux à deux et (αi ) les valeurs
i∈N
prises par f donc positives). On définit l’intégrale de f pour la mesure µ par :
Z
X
f dµ =
αi µ(Ai )
i∈N
Remarque 3 L’objet
intégrale d’une fonction simple positive est un réel de la demi-droite [0, +∞[ complétée par +∞. On
Z
peut donc écrire f dµ, même si cette intégrale vaut +∞.
Définition 1.2.1.2 Pour f : Ω −→ R+ , on définit :
Z
Z
f dµ =
sup
s dµ
s simple
06s6f
Z
Définition 1.2.1.3 f est dite intégrable au sens de Lebesgue si
f dµ est finie.
Propriété 1.2.1.1 Soient f et g deux fonctions mesurables positives. Alors :
Z
Z
Z
1. (f + g) dµ = f dµ + g dµ.
Z
Z
2. f 6 g =⇒ f dµ 6 g dµ.
Propriété 1.2.1.2 Soient f : Ω −→ R+ mesurable et (Ai ) une suite d’éléments de A tels que :
• ∀[n ∈ N, An ⊂ An+1 .
•
An = Ω.
n∈N
Alors :
Z
Z
f dµ =
Z
f 1An dµ −−−−−→
n→+∞
An
f dµ
Définition 1.2.1.4 Soit f : Rd −→ C mesurable. f est intégrable si |f | l’est. On note alors :
Z
L1 (Rd ) = f : Rd −→ C |f | dµ < +∞
Théorème 1.2.1.1 L’application de L1 dans C qui à f associe
Z
f dµ est linéaire et vérifie :
Z
Z
f dµ 6 |f | dµ
Définition 1.2.1.5 Soit P (x) une propriété dépendant de x. P est dite vraie presque partout si :
µ({x | P (x) n’est pas vraie}) = 0
Exemple 1 Si f = g presque partout, avec f et g mesurables et positives sur R ou intégrables sur R, alors :
Z
Z
f dµ = g dµ
1.2.2
Théorèmes fondamentaux
Z
Propriété 1.2.2.1 Si h est mesurable, positive telle que
h dµ = 0, alors h = 0 presque partout.
Propriété 1.2.2.2 (Tchebyshev) Soit h positive et mesurable. Pour t > 0, on a :
Z
1
µ({x | h(x) > t}) 6
h dµ
t
6
Théorème 1.2.2.1 (Convergence monotone ; Beppo-Levi) Soit (fn ) une suite de fonctions mesurables sur Ω et
positives telles que :
1. ∀ n ∈ N, ∀ x ∈ Ω, fn (x) 6 fn+1 (x).
2. ∀ x ∈ Ω, fn (x) −−−−−→ f (x).
n→+∞
Z
Z
Alors
fn dµ croît vers
f dµ.
Théorème
Z 1.2.2.2 Soit (fn )Z une suite de fonctions
Z mesurables et positives telles que fn décroît vers f presque partout. On
suppose
f0 dµ finie. Alors fn dµ décroît vers
f dµ.
Théorème 1.2.2.3 Soit (un ) une suite de fonctions mesurables et positives. Alors :
Z X !
X Z
un dµ =
un dµ
n∈N
n∈N
X Z
Théorème 1.2.2.4 Soit (un ) une suite de fonctions intégrables telle que
|un | dµ soit finie. Alors la série de fonctions
n∈N
P
un converge vers une fonction f presque partout et :
Z
X Z
un dµ
f dµ =
n∈N
Théorème 1.2.2.5 (Convergence dominée) Soit (fn ) une suite de fonctions mesurables telle que :
1. fn converge vers f presque partout.
2. il existe g intégrable et positive telle que :
∀ n ∈ N, |fn | 6 g
presque partout
Alors f est intégrable et :
Z
1.
|fn − f | dµ −−−−−→ 0.
n→+∞
Z
Z
2.
fn dµ −−−−−→ f dµ.
n→+∞
1.2.3
Relation avec l’intégrale de Riemann
Dans ce paragraphe, K est un cube de Rn .
Rappels
Définition 1.2.3.1 Une fonction ψ : K −→ R est dite en escalier si ψ peut s’écrire sous la forme ψ(x) =
p
X
αi 1Ai (x),
i=1
où :
• (αi ) estO
une famille de réels.
• Ai =
|aij , bij | (cubes de Rn ).
16j6n
En particulier, une fonction en escalier est simple.
On définit alors l’intégrale de Riemann d’une fonction en escalier par :
Z
p
n
X
Y
ψ(x) dx =
αi
(bij − aij )
K
i=1
j=1
Définition 1.2.3.2 Une fonction f : K −→ R est dite intégrable au sens de Riemann s’il existe deux suites de fonctions
en escalier (ϕn ) et (ψn ) telles que :
• ∀ n ∈ N, ϕn 6 f 6 ψn .
• Z
(ϕn ) croît et (ψn ) décroît.
•
(ϕn − ψn )(x) dx −−−−−→ 0.
n→+∞
Z
Z
On note alors :
f (x) dx = lim
ϕn (x) dx.
K
K
n→+∞
K
7
Critères d’intégrabilité
Théorème 1.2.3.1 Si f : K −→ R est Riemann-intégrable sur K, alors f est Lebesgue-intégrable sur K, et :
Z
Z
f dµ =
f (x) dx
K
K
n
Théorème 1.2.3.2 Si f : R −→ R est Riemann-intégrable sur Rn et positive, alors f est Lebesgue-intégrable sur
Rn .
Théorème 1.2.3.3 Si f : Rn −→ R est Lebesgue-intégrable sur tout pavé de Rn , alors f est intégrable sur Rn si et
seulement si |f | est majorée par une fonction intégrable.
1.2.4
IDP : intégrales dépendant d’un paramètre
Théorème 1.2.4.1 Soit f : Rn ×]a, b[ −→ C. Soit t0 ∈ ]a, b[. On suppose que :
1. ∀ t ∈ ]a, b[, x 7−→ f (x, t) est mesurable.
2. ∀ x ∈ Rn , t 7−→ f (x, t) est continue en t0 .
3. Il existe ϕ : Rn −→ R positive et intégrable, telle que, pour presque tout x ∈ Rn :
∀ t ∈ ]a, b[, |f (x, t)| 6 ϕ(x)
Z
Alors, F : t ∈ ]a, b[ 7−→
f (x, t) dµ(x) est définie et continue en t0 .
Rn
Théorème 1.2.4.2 (dérivation d’une intégrale à paramètres) Soit f : Rn ×]a, b[ −→ C. On suppose que :
1. ∀ t ∈ ]a, b[, x 7−→ f (x, t) est intégrable.
2. Pour presque tout x ∈ Rn , t 7−→ f (x, t) est dérivable sur ]a, b[.
3. Il existe ϕ : Rn −→ R positive et intégrable telle que, pour presque tout x ∈ Rn :
∂f
∀ t ∈ ]a, b[, (x, t) 6 ϕ(x)
∂t
Z
Alors F : t ∈ ]a, b[7−→
f (x, t) dµ(x) est définie et dérivable sur ]a, b[, de dérivée :
Rn
F 0 (t) =
Z
Rn
1.3
∂f
(x, t) dµ(x)
∂t
Théorèmes de Fubini
On considère dans ce paragraphe deux espaces mesurés (Ω, A, µ) et (Ω0 , A0 , µ0 ).
1.3.1
Espaces produits
Définition 1.3.1.1 On note A ⊗ A0 la σ-algèbre sur Ω × Ω0 engendrée par les A × A0 pour tous A ∈ A et A0 ∈ A0 .
Propriété 1.3.1.1 On a : B(Rd ) ⊗ B(Rp ) = B(Rd+p ). Plus généralement :
B(Ω) ⊗ B(Ω0 ) ⊂ B(Ω × Ω0 )
Théorème 1.3.1.1 Il existe une unique mesure ω sur (Ω × Ω0 , A ⊗ A0 ) telle que :
∀ (A, A0 ) ∈ A × A0 , ω(A × A0 ) = µ(A)µ0 (A0 )
On note ω = µ ⊗ µ0 .
Propriété 1.3.1.2 Soit f : Ω × Ω0 −→ C. On pose :
• Pour x ∈ Ω, fx : y ∈ Ω0 7−→ f (x, y).
• Pour y ∈ Ω0 , f y : x ∈ Ω 7−→ f (x, y).
Si f est (A, A0 )-mesurable, alors fx est A0 -mesurable et f y est A-mesurable.
8
1.3.2
Théorèmes
Théorème 1.3.2.1 (Fubini-Tonelli) Soit f : Ω × Ω0 −→ R+ . Si f est (A, A0 )-mesurable, alors :
Z
Z
0
1. x 7−→ fx dµ =
f (x, y) dµ0 (y) est A-mesurable.
Ω0
Z
Z
y
2. y 7−→ f dµ =
f (x, y) dµ(x) est A0 -mesurable.
Ω
3. On a :
Z
0
Z Z
Z
f (x, y) dµ (y) dµ(x) =
0
f (x, y) d(µ ⊗ µ ) =
Ω×Ω0
Ω
Ω0
Ω0
Z
f (x, y) dµ(x) dµ0 (y)
Ω
Théorème 1.3.2.2 (Fubini) Soit f : Ω × Ω0 −→ C, intégrable. Alors :
1. y 7−→ f (x, y) est µ0 -intégrable pour µ-presque tout x ∈ Ω.
2. x 7−→ f (x, y) est µ-intégrable pour µ0 -presque tout y ∈ Ω0 .
Z
Z
3. x 7−→ fx dµ0 =
f (x, y) dµ0 (y) est µ-intégrable.
Ω0
Z
Z
y
4. y 7−→ f dµ =
f (x, y) dµ(x) est µ0 -intégrable.
Ω
5. On a :
Z
0
Z Z
Z
f (x, y) dµ (y) dµ(x) =
0
f (x, y) d(µ ⊗ µ ) =
Ω×Ω0
1.4
Ω
Ω0
Ω0
Z
f (x, y) dµ(x) dµ0 (y)
Ω
Changements de variables
Soient (Ω, A, µ) un espace mesuré et (Ω0 , A0 ) un espace mesurable.
1.4.1
Mesure image
Soit θ : Ω −→ Ω0 (A, A0 )-mesurable.
Définition 1.4.1.1 Pour tout A0 ∈ A0 , on définit : (θµ)(A0 ) = µ θ−1 (A0 ) .
θµ est appelée mesure-image de µ par θ.
Théorème 1.4.1.1 Soit f : Ω0 −→ C, A0 -mesurable.
1. Si f est à valeurs positives, on a :
Z
Z
f ◦ θ dµ
f d(θµ) =
Ω0
Ω
2. f est θµ-intégrable si et seulement si f ◦ θ est µ-intégrable. Dans ce cas, on a la relation précédente.
1.4.2
Changements de variables dans Rn
Propriété 1.4.2.1 Soit u ∈ L(Rn ). Pour tout borélien B de Rn , on a :
µRn u(B) = | det(u)| µRn (B)
Définition 1.4.2.1 Soient D et ∆ deux ouverts de Rn . Soit ϕ : ∆ −→ D C 1 -difféomorphisme, i.e. C 1 , bijective et de
réciproque C 1 .
Avec ϕ = (ϕ1 , . . . , ϕn ) où ϕi : ∆ −→ R, on définit la matrice jacobienne :
∂ϕi
Jϕ =
∂xj 16i6n
16j6n
Théorème 1.4.2.1
1. Si f est positive et mesurable sur Rn , on a :
Z
Z
f ◦ ϕ(y) |Jϕ (y)| dy
f (x) dx =
D
∆
2. µD = ϕ(|Jϕ |µ∆ ).
9
3. Si A ∈ B(∆), µ ϕ(A) =
Z
|Jϕ (y)| dy.
A
Théorème 1.4.2.2 Si f : Rn −→ C est intégrable sur D, alors f ◦ ϕ est intégrable sur ∆ et :
Z
Z
f (x) dx =
f ◦ ϕ(y) |Jϕ (y)| dy
D
∆
Espaces L1 et L2
1.5
Soit Ω un ensemble. On note :
L1 (Ω) = f : Ω −→ C
1.5.1
Z
|f | dµ < +∞
L2 (Ω) = f : Ω −→ C
Z
|f |2 dµ < +∞
Espace L1
On définit sur L1 (Ω) la relation d’équivalence :
Z
f ∼ g ⇐⇒ f ≡ g presque partout ⇐⇒
|f − g| dµ = 0
On note L1 (Ω) le quotient L1 (Ω)/ Z∼.
Pour f ∈ L1 (Ω), on pose : kf k1 =
|f | dµ.
Théorème 1.5.1.1 L1 (Ω), k k1 est un espace de Banach.
Théorème 1.5.1.2 Si la suite (fn )n de L1 (Ω) converge vers f au sens L1 1 , alors il existe une sous-suite (fnk )k convergeant
vers f presque partout.
1.5.2
Espace L2
On définit sur L2 (Ω) la relation d’équivalence :
Z
f ∼ g ⇐⇒ f ≡ g presque partout ⇐⇒
|f − g|2 dµ = 0
On note L2 (Ω) le quotient L2 (Ω)/ ∼.
Z
Pour (f, g) ∈ L2 (Ω), on définit le produit scalaire : hf, gi =
Z
f ḡ dµ et la norme : kf k2 =
|f |2 dµ.
Théorème 1.5.2.1 L2 (Ω), k k2 est un espace de Hilbert.
Théorème 1.5.2.2 Si la suite (fn )n de L2 (Ω) converge vers f en moyenne quadratique 2 , alors il existe une sous-suite (fnk )k
convergeant vers f simplement.
Théorème 1.5.2.3 (Cauchy-Schwarz) Si (f, g) ∈ L2 (Ω)2 , on a :
|hf, gi| 6 kf k2 kgk2
avec égalité si et seulement s’il existe (λ, µ) ∈ C2 tel que λf + µg = 0.
Remarque 4 Si µ(Ω) < +∞, alors L2 (Ω) ⊂ L1 (Ω).
Théorème 1.5.2.4 L’espace C0∞ (Ω) des fonctions de classe C ∞ sur Ω à support compact est dense dans L2 (Ω).
1
Z
|fn − f | dµ −−−−−→ 0.
n→+∞
2
Z
|fn − f |2 dµ −−−−−→ 0.
n→+∞
10
Chapitre 2
Variables aléatoires réelles
On se place dans tout le chapitre sur un espace probabilisé (Ω, A, P ).
2.1
Préliminaires : probabilités
Définition 2.1.0.1 Ω est appelé univers, les éléments de A événements et P mesure de probabilité.
Remarque 5 On rappelle que la définition d’espace probabilisé impose que P (Ω) = 1.
Définition 2.1.0.2 Un événement A est dit presque sûr
1
lorsque P (Ā) = 0, presque impossible si P (A) = 0.
Propriété 2.1.0.1 Par définition de σ-algèbre et de mesure de probabilité, on a :
• Si (Ei ) est une famille d’événements, alors ∪Ei , ∩Ei et (Ei )2 sont également des événements. De plus,
X
P ∪ Ei ) 6
P (Ei )
avec égalité si et seulement si les événements (Ei ) sont disjoints deux à deux3 .
• Pour tous événements A et B,
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
• Pour tout événement A, on a : P (A) = 1 − P (A).
Définition 2.1.0.3 Soit A un événement de probabilité non nulle. On définit alors la probabilité conditionnelle de B
sachant que A est réalisé :
P (A ∩ B)
P (B/A) =
P (A)
Propriété 2.1.0.2 (Formule des probabilités totales) Si la famille (Ai )i∈I forme une partition4 de Ω, on a, pour tout
événement B :
X
X
P (B) =
P (Ai ∩ B) =
P (B/Ai ) P (Ai )
i∈I
i∈I
Propriété 2.1.0.3 (Formule de Bayes) Si (Ai )i∈I forme une partition de Ω, on a, pour tout événement B et tout k ∈ I :
P (Ak ) P (B/Ak )
P (Ak /B) = X
P (Ai ) P (B/Ai )
i∈I
Propriété 2.1.0.4 Soient A1 , . . . , An des événements de A tels que P (A1 ∩ . . . ∩ An−1 ) 6= 0. Alors :
P (A1 ∩ . . . ∩ An ) = P (A1 ) · P (A2 /A1 ) . . . P (An /A1 ∩ . . . ∩ An−1 )
2.2
Généralités sur les variables aléatoires
Toutes les notions de ce paragraphe sont reprises dans les deux paragraphes suivants, appliquées aux variables aléatoires
discrètes et continues.
1
2
3
4
Correspond au terme "presque partout" pour la mesure de probabilité.
Notation du complémentaire.
i.e. d’intersections deux à deux vides.
∪i∈I Ai = Ω et Ai ∩ Aj = ∅ pour tous i 6= j.
11
2.2.1
Loi et fonction de répartition
Définition 2.2.1.1 X : Ω −→ R est une variable aléatoire réelle si X est mesurable.
Définition 2.2.1.2 La loi de la variable aléatoire X est la mesure image de P par X :
∀ B ∈ B(R), PX (B) = P X −1 (B) = P (X ∈ B)
PX est une mesure de probabilité sur R.
Définition 2.2.1.3 On définit la fonction de répartition de la variable aléatoire réelle X par :
R −→ [0, 1]
FX
t 7−→ P (X 6 t)
Théorème 2.2.1.1 La fonction de répartition est déterminée par la loi de la variable et réciproquement.
Propriété 2.2.1.1 Soit FX la fonction de répartition de la variable aléatoire réelle X. Alors :
1. FX est croissante, tend vers 0 en −∞ et vers 1 en +∞.
2. FX est continue à droite en tout point.
3. FX admet une limite à gauche en tout point.
Théorème 2.2.1.2 (Stieltjes-Lebesgue) Si F : R −→ [0, 1] est une application satisfaisant les trois propriétés précédentes,
alors il existe une mesure de probabilité sur R dont F est la fonction de répartition.
2.2.2
Indépendance
Définition 2.2.2.1 Deux variables aléatoires réelles X et Y sont dites indépendantes si :
∀ (A, B) ∈ B(R)2 , P (X ∈ A et Y ∈ B) = P (X ∈ A) · P (Y ∈ B)
Théorème 2.2.2.1 Les variables aléatoires réelles X et Y sont indépendantes si et seulement si les fonctions de répartition
vérifient l’égalité :
∀ (x, y) ∈ R2 , F(X,Y ) (x, y) = FX (x) FY (y)
2.2.3
Espérance
Pour la définition de l’espérance mathématique 5 , se référer aux définitions 2.4.1.5 et 2.5.1.3 respectivement aux pages
15 et 17. Dans la généralité, on définit l’espérance d’une variable aléatoire X pour la probabilité P par :
Z
E(X) = X dP
Remarque 6 L’espérance mathématique est un paramètre de localisation : c’est autour de ce nombre que doivent se répartir
les valeurs possibles de la variable X. Par analogie avec les masses, c’est l’abscisse du centre de gravité.
Propriété 2.2.3.1 Si X et Y sont des variables aléatoires réelles telles que E(|X|) et E(|Y |) existent, alors :
1. E(X + Y ) = E(X) + E(Y ).
2. X > 0 =⇒ E(X) > 0.
3. ∀ α ∈ R, E(αX) = αE(X).
4. Si, de plus, X et Y sont indépendantes, E(XY ) = E(X)E(Y ).
5. Plus généralement, pour toutes fonctions numériques ϕ et ψ telles que E(|ϕ(X)|) + E(|ψ(Y )|) < +∞, on a, sous
l’hypothèse d’indépendance :
E ϕ(X)ψ(Y ) = E ϕ(X) E ψ(Y )
5
On dit aussi moyenne.
12
2.2.4
Variance
Définition 2.2.4.1 Soit X une variable aléatoire réelle telle qu’il existe n ∈ N∗ pour lequel E |X|n < +∞. On définit alors
les moments d’ordre k 6 n par :
mk = E(X k )
Définition 2.2.4.2 La variance de la variable aléatoire réelle X est donnée par, sous l’hypothèse que m2 existe :
V (X) = E(X 2 ) − [E(X)]2 = m2 − m21
Remarque 7 La variance est un paramètre de dispersion : plus la variance est petite, plus X prend des valeurs regroupées
autour de sa moyenne 6 .
Propriété 2.2.4.1 On a également :
2 V (X) = E X − E(X)
Définition 2.2.4.3 La propriété précédente montre que la variance est positive. On définit donc l’écart-type de la variable
aléatoire X par :
p
σ(X) = V (X)
Définition 2.2.4.4 La covariance des variables aléatoires réelles X et Y est définie par :
Cov(X, Y ) = E X − E(X) Y − E(Y )
La covariance est une opération bilinéaire symétrique et permet de mesurer le degré de liaison linéaire entre les variables X
et Y .
Propriété 2.2.4.2 On a aussi les propriétés :
1. Cov(X, Y ) = E(XY ) − E(X)E(Y ). En particulier, Cov(X, X) = V (X).
2. V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ).
Propriété 2.2.4.3 Pour X et Y variables aléatoires réelles, on a :
[Cov(X, Y )]2 6 V (X)V (Y )
avec égalité si et seulement s’il existe un couple (a, b) ∈ R2 tel que Y = aX + b.
Définition 2.2.4.5 Les variables aléatoires réelles X et Y sont dites non corrélées si :
Cov(X, Y ) = 0
Propriété 2.2.4.4 Deux variables aléatoires indépendantes sont non corrélées.
Propriété 2.2.4.5 Si X et Y sont des variables aléatoires réelles telles que E(X 2 ) et E(Y 2 ) existent, alors :
1. ∀ α ∈ R, V (αX) = α2 V (X).
2. Si, de plus, X et Y sont non corrélées, V (X + Y ) = V (X) + V (Y ).
3. Pour m constante, V (X + m) = V (X).
Définition 2.2.4.6 Pour X et Y variables aléatoires non constantes et telles que leurs moments d’ordres 1 et 2 existent, on
définit le coefficient de corrélation linéaire de X et de Y par :
Cov(X, Y )
ρ(X, Y ) = p
V (X)V (Y )
2.2.5
Lois réduites, centrées, constantes
Définition 2.2.5.1 Une variable aléatoire est dite centrée lorsque son espérance mathématique est nulle, réduite si son
écart-type est égal à 1.
Propriété 2.2.5.1 Soit X une variable aléatoire d’espérance m et de variance σ 2 . Alors Y = X −m est une variable aléatoire
X
centrée et Z =
une variable aléatoire réduite.
σ
Propriété 2.2.5.2 L’espérance d’une variable aléatoire constante à γ vaut γ et sa variance est nulle.
Propriété 2.2.5.3 La variance de X est nulle si et seulement si X est constante et égale à E(X) .
6
On pourra consulter l’inégalité de Bienaymé-Tchebyshev pour visualiser cette remarque.
13
2.2.6
Inégalités fondamentales
Théorème 2.2.6.1 (Bienaymé-Tchebyshev) Soit X une variable aléatoire telle que E(X 2 ) < +∞. Alors :
V (X)
∀ ε > 0, P |X − E(X)| > ε 6
ε2
Théorème 2.2.6.2 (Markov) Soient X une variable aléatoire et ϕ : R −→ R+ telles que E ϕ(X) < +∞. Alors :
E ϕ(X)
∀ ε > 0, P ϕ(X) > ε 6
ε
2.3
Fonctions associées à une variable aléatoire
Soit X une variable aléatoire réelle sur (Ω, A, P ).
2.3.1
Fonction caractéristique
Définition 2.3.1.1 On définit la fonction caractéristique de X par :
ΦX (t) = E(eitX )
Propriété 2.3.1.1
1. ∀ t ∈ R, |ΦX (t)| 6 1 = ΦX (0).
2. ∀ t ∈ R, ΦX (−t) = ΦX (t).
3. ΦX est uniformément continue sur R.
Théorème 2.3.1.1 Soient X et Y deux variables aléatoires réelles. Alors X et Y suivent la même loi si et seulement si
ΦX = ΦY .
Théorème 2.3.1.2 Soit X une variable aléatoire telle que E(|X|n ) < +∞. Alors ΦX admet un développement limité d’ordre
n au voisinage de 0 :
n
X
mk (it)k
ΦX (t) = 1 +
+ o(tn )
k!
k=1
2.3.2
Fonctions génératrices
Définition 2.3.2.1 On définit la fonction génératrice de X par :
ΨX (z) = E(z X )
pour |z| 6 1
Remarque 8 La fonction caractéristique est un cas particulier des fonctions génératrices pour z = eit .
Propriété 2.3.2.1 La fonction génératrice détermine entièrement la loi de la variable aléatoire.
Définition 2.3.2.2 On définit la fonction génératrice des moments de X par :
φX (t) = E(etX )
Propriété 2.3.2.2 Les dérivées n-ièmes de φX en 0 donnent les moments d’ordre n de X.
2.4
2.4.1
Variables aléatoires discrètes
Définitions
Dans tout le paragraphe, X est une variable aléatoire discrète prenant les valeurs (xk )k∈N .
Définition 2.4.1.1 Un ensemble A ⊂ R est dit dénombrable lorsqu’il existe une bijection entre A et N.
Propriété 2.4.1.1 N, Z et Q sont dénombrables alors que R ne l’est pas.
Définition 2.4.1.2 Une variable aléatoire X : Ω −→ R est dite :
14
• discrète si elle ne prend qu’un nombre fini ou dénombrable de valeurs (on peut alors indexer par N les valeurs prises
par X).
• simple si elle ne prend qu’un nombre fini de valeurs.
• entière si elle ne prend que des valeurs entières.
Remarque 9 X est simple si X se met sous la forme X =
n
X
xi 1Ai où les xi sont réels et les Ai des événements.
i=1
La décomposition n’est pas unique.
Si les Ai sont disjoints et non vides, les xi sont les valeurs prises par X.
Définition 2.4.1.3 Déterminer la loi d’une variable aléatoire revient à déterminer la probabilité que X prenne chacune de
ses valeurs :
P (X = xk ) = P {w ∈ Ω | X(ω) = xk }
En particulier, déterminer la loi d’une variable aléatoire entière revient à déterminer :
pour tout k ∈ N
P (X = k)
Exemple 2 Soit Y une variable aléatoire entière prenant ses valeurs dans {1, . . . , n}. Alors, pour p ∈ N :

0
si p = 0



p

X



P (Y = k)
si 1 6 p 6 n
P (Y 6 p) =
k=0

n

X



P (Y = k) = 1 si p > n


k=0
Propriété 2.4.1.2 La fonction de répartition d’une variable aléatoire discrète est une fonction en escalier, dont les points
de discontinuité sont les valeurs prises par la variable aléatoire.
Définition 2.4.1.4 Pour une variable aléatoire simple X prenant les valeurs x1 , . . . , xn , on définit l’espérance de X par :
!
n
n
X
X
xi P (Ai )
E(X) = E
xi 1Ai =
i=1
i=1
Propriété 2.4.1.3 Si A est un événement, E(1A ) = P (A).
Propriété 2.4.1.4 L’espérance est indépendante de la décomposition. L’expression la plus commode est donc :
n
X
E(X) =
xi P (X = xi )
i=1
Définition 2.4.1.5 Plus généralement, on définit l’espérance de la variable aléatoire discrète X par :
E(X) =
+∞
X
xk P (X = xk )
k=0
Théorème 2.4.1.1 Soit g une application mesurable. Alors Y = g ◦ X est une variable aléatoire discrète et :
E(Y ) =
+∞
X
g(xk )P (X = xk )
k=0
Remarque 10 On en déduit en particulier que, pour tout p ∈ N∗ :
mp = E(X p ) =
+∞
X
xpk P (X = xk )
k=0
Propriété 2.4.1.5 Soient X et Y deux variables aléatoires indépendantes à valeurs dans Z. On note Z = X + Y . Alors la
loi de Z est donnée par le produit de convolution des séries :
X
P (Z = k) =
P (X = n)P (Y = k − n)
n∈Z
15
2.4.2
Exemples fondamentaux de lois
Les espérances et variances des lois suivantes sont regroupées dans le tableau 2.1 page 21.
Loi de Bernoulli
Définition 2.4.2.1 On dit qu’une variable aléatoire suit une loi de Bernoulli de paramètre p ∈ ]0, 1[ si X ne peut prendre
que les valeurs 0 et 1, avec les probabilités respectives p et 1 − p. On note : X ∼ B(p).
Remarque 11 Cette loi permet de modéliser une expérience à deux alternatives.
Loi binomiale
Définition 2.4.2.2 On appelle loi binomiale de paramètres n ∈ N∗ et p ∈ ]0, 1[ la loi de probabilité d’une variable aléatoire
entière X prenant toutes les valeurs entre 0 et n, définie par :
n k
P (X = k) =
p (1 − p)n−k
k
On note : X ∼ Bin(n, p).
Remarque 12 Cette loi permet de modéliser une expérience à deux alternatives répétées n fois de manière indépendante.
Remarque 13 La formule du binôme de Newton permet de valider la condition de mesure de probabilité :
n
n X
X
n k
P (X = k) =
p (1 − p)n−k = 1
k
k=0
k=0
Propriété 2.4.2.1 Si X1 , . . . , Xn sont des variables de Bernoulli indépendantes et de même paramètre p, alors la variable
n
X
Sn =
Xi , à valeurs dans {0, . . . , n}, permet de comptabiliser le nombre de succès sur les n expériences et suit une loi
i=1
binomiale :
Sn ∼ Bin(n, p)
Loi géométrique
Définition 2.4.2.3 On dit que la variable aléatoire entière X suit une loi géométrique de paramètre p ∈ ]0, 1[ si :
∀ k ∈ N∗ , P (X = k) = (1 − p)k−1 p
On note : X ∼ G(p).
Remarque 14 Cette loi correspond à l’indice de la première apparition de l’événement "succès" lors de la suite d’expériences
aléatoires indépendantes de Bernoulli.
Loi de Poisson
Définition 2.4.2.4 On appelle loi de Poisson de paramètre λ > 0 la loi de probabilité de la variable aléatoire entière X,
définie par :
e−λ λk
∀ k ∈ N, P (X = k) =
k!
On note : X ∼ P(λ).
Remarque 15 Le développement en série entière de la fonction exponentielle permet de valider la condition de mesure de
probabilité :
+∞
+∞ k
X
X
λ
−λ
P (X = k) = e
= e−λ eλ = 1
k!
k=0
k=0
Exemple 3 Soient X ∼ P(α) et Y ∼ P(β) deux variables aléatoires indépendantes. On considère la variable aléatoire
Z =X +Y.
1. Z suit une loi de Poisson de paramètre α + β.
2. Pour tout n ∈ N, la loi de probabilité conditionnelle de X sachant que Z = n suit une loi binomiale de paramètres n
α
et
.
α+β
Propriété 2.4.2.2 Une loi de Poisson de paramètre λ > 0 peut être obtenue comme une limite de loi binomiales B(n, pn ),
où la suite (pn ) est supposée positive, décroissante et telle que : lim npn = λ. En effet :
h
inpn
1
n k
(npn )k
n!
λk −λ
−k
pn
P (Xn = k) =
pn (1 − pn )1−k =
(1
−
p
)
(1
−
p
)
−
−
−
−
−
→
e
n
n
n→+∞ k!
k
k! nk (n − k)!
16
2.5
Variables aléatoires continues
2.5.1
Définitions
Dans tout le paragraphe, X : Ω −→ R est une variable aléatoire réelle continue.
Définition 2.5.1.1 La variable aléatoire X est dite continue si :
∀ a ∈ R, P (X = a) = 0
Propriété 2.5.1.1 Si FX est la fonction de répartition de X, alors :
X est continue si et seulement si FX est continue
Définition 2.5.1.2 On dit que X admet fX : R −→ R pour densité si :
1. fX est positive.
2. fX est intégrable.
3. La fonction de répartition FX de X vérifie
7
:
Z
t
∀ t ∈ R, FX (t) =
fX (u) du
−∞
Propriété 2.5.1.2 Si une variable aléatoire admet une densité, alors elle est continue.
Propriété 2.5.1.3 Si la fonction de répartition FX est continue et de classe C 1 par morceaux, alors X admet une densité :
0
FX
.
Propriété 2.5.1.4 Pour tout borélien B de R, on a :
Z
Z
P (X ∈ B) =
fX (t)1B (t) dt =
fX (t) dt
B
R
Définition 2.5.1.3 L’espérance de la variable aléatoire continue X de densité fX est donnée par :
Z
E(X) =
xfX (x) dx
R
Théorème 2.5.1.1 Soient X une variable aléatoire continue de densité fX et g une application mesurable. Alors Y = g ◦ X
est une variable aléatoire 8 et :
Z
E(Y ) =
g(t)fX (t) dt
R
Propriété 2.5.1.5 Soient X et Y deux variables aléatoires indépendantes continues de densités fX et fY . On note Z =
X + Y . Alors Z admet une densité donnée par le produit de convolution fonctionnel :
Z
fZ (x) =
fX (t)fY (x − t) dt
R
2.5.2
Exemples fondamentaux de lois
Les espérances et variances des lois suivantes sont regroupées dans le tableau 2.2 page 21.
Loi uniforme
Définition 2.5.2.1 On dit qu’une variable aléatoire continue X suit une loi de probabilité uniforme sur le segment [a, b]
si X admet pour densité :
1[a,b] (t)
fX (t) =
b−a
On note : X ∼ U(a, b).
7
8
Z
+∞
fX (t) dt = 1.
Ceci impose à la densité la condition :
−∞
Y est de nature quelconque, continue ou discrète. L’intégrale de Lebesgue est donc à prendre dans son sens général (somme).
17
Exemple 4 Soient X1 , . . . , Xn des variables aléatoires indépendantes identiquement distribuées de loi uniforme sur [0, 1].
Soit Zn = max{X1 , . . . , Xn }. Déterminons la loi de Zn par sa fonction de répartition.
n
n
o \
De max{X1 , . . . , Xn } 6 t =
{Xi 6 t}, on déduit que, par indépendance :
i
i=1
FZn (t)
= P (Zn 6 t)
n
X
=
P (Xi 6 t)
i=1
=
n−1
D’où : fZn (t) = n [FX1 (t)]
n
n
[P (X1 6 t)] = [FX1 (t)]
fX1 (t) = ntn−1 1[0,1] (t).
Loi exponentielle
Définition 2.5.2.2 On dit qu’une variable aléatoire continue X suit une loi de probabilité exponentielle de paramètre
λ ∈ R si X admet pour densité :
fX (t) = λe−λt 1[0,+∞[ (t)
On note : X ∼ E(λ).
Remarque 16 Si X suit une loi exponentielle, X est dite variable sans mémoire, i.e. :
∀ t > 0, ∀ s > 0, P (X > t + s/X > t) = P (X > s)
En effet, comme {X > t + s} ⊂ {X > t} :
P (X > t + s/X > t) =
P (X > t + s)
e−λ(t+s)
P ({X > t + s} ∩ {X > t})
=
=
= e−λs = P (X > s)
P (X > t)
P (X > t)
e−λt
Loi de Cauchy
Définition 2.5.2.3 On dit qu’une variable aléatoire continue X suit une loi de probabilité de Cauchy si X admet pour
densité :
1
fX (t) =
π(1 + t2 )
Remarque 17 Une variable suivant une loi de Cauchy n’a ni espérance, ni variance.
Loi gaussienne
Définition 2.5.2.4 On dit qu’une variable aléatoire continue X suit une loi de probabilité gaussienne de paramètres
σ > 0 et m ∈ R si X admet pour densité :
1
(x − m)2
fX (t) = √ exp −
2σ 2
σ 2π
La loi gaussienne est également appelée loi normale et notée : X ∼ N (m, σ 2 ).
Propriété 2.5.2.1 Notons Π la fonction de répartition d’une variable de loi normale centrée réduite. Alors :
∀ x ∈ R, Π(−x) = 1 − Π(x)
Les lois suivantes sont basées sur la loi gaussienne. Leurs espérances et variances sont regroupées dans le tableau 2.3 page
21. La loi β est étudiée dans l’exercice sur la fonction B.
Loi χ2
Définition 2.5.2.5 Soit (X1 , . . . , Xn ) une famille de variables aléatoires indépendantes et identiquement distribuées de loi
n
X
normale centrée réduite. Alors la loi de la variable
Xi2 est appelée loi χ2 à n degrés de liberté et notée χ2n .
i=1
18
Propriété 2.5.2.2 La densité d’une variable X de loi χ2n s’exprime par :
n
t
t 2 −1
exp −
fX (t) = n
1]0,+∞[ (t)
2
2 2 Γ n2
Z
+∞
tx−1 e−t dt.
où la fonction Γ est définie, pour x > 0, par : Γ(x) =
0
Propriété 2.5.2.3 Si X ∼ χ2n et Y ∼ χ2m sont indépendantes, alors X + Y ∼ χ2m+n .
Définition 2.5.2.6 Soient X ∼ χ2n et Y ∼ χ2m indépendantes. La loi de Q =
et m degrés de liberté et notée F(n, m).
X
n
Y
m
est appelée loi de Fisher-Snedecor à n
Propriété 2.5.2.4 Si Q ∼ F(n, m), alors (m > 2 pour l’espérance, m > 4 pour la variance) :
2
m
m
2(n + m − 2)
E(Q) =
V (Q) =
m−2
m−2
n(m − 4)
Loi de Student
X
Définition 2.5.2.7 Soient X ∼ N (0, 1) et Y ∼ χ2n indépendantes. La loi de la variable T = q est appelée loi de Student
Y
n
à n degrés de liberté et notée tn .
Propriété 2.5.2.5 La densité d’une variable X de loi tn s’exprime par :
cn
fX (t) =
1+
t2
n
n+1
2
où cn est une constante de normalisation.
Remarque 18 Le cas n = 1 correspond à une loi de Cauchy, cas que l’on exclut de la loi de Student. On considèrera donc
toujours n > 2.
Loi gamma
Définition 2.5.2.8 On dit qu’une variable aléatoire continue X suit une loi de probabilité gamma de paramètres α > 0
et β > 0 si X admet pour densité :
β α tα−1 −βt
fX (t) =
e 1]0,+∞[ (t)
Γ(α)
On note X ∼ γ(α, β).
Remarque 19 La loi γ
n 1
2, 2
s’identifie à la loi χ2n .
Propriété 2.5.2.6 Soit (X1 , . . . , Xn ) une famille de variables aléatoires indépendantes et identiquement distribuées de loi
n
X
exponentielle de paramètre λ. Alors la variable
Xi suit une loi γ(n, λ).
i=1
2.5.3
Théorème de Cochran
n
On note X̄n =
On a :
n
X
i=1
1X
Xi la moyenne empirique de la famille (X1 , . . . , Xn ).
n i=1
(Xi − X̄n )2 =
n
X
i=1
Xi2 − 2X̄n
n
X
i=1
Xi +
n
X
X̄n2 =
i=1
n
X
i=1
Xi2 − 2nX̄n2 +
n
X
i=1
X̄n2 =
n
X
(Xi2 − X̄n2 )
i=1
Théorème 2.5.3.1 (Cochran) Soit (X1 , . . . , Xn ) une famille de variables aléatoires indépendantes et identiquement distribuées de loi N (m, σ 2 ). Alors :
n
1 X
1. 2
(Xi − X̄n )2 ∼ χ2n−1 .
σ i=1
2. X̄n et
n
X
(Xi − X̄n )2 sont indépendantes.
i=1
19
L’application directe du théorème de Cochran concerne l’approximation de la moyenne d’une loi normale. Soit un échantillon (X1 , . . . , Xn ) de loi N (m, σ 2 ), où m et σ 2 sont inconnues.
n
1 X (Xi − X̄n )2
X̄n − m
.
∼ N (0, 1) et Z =
On pose Y = q
n − 1 i=1
σ2
σ2
n
Y
Le théorème précédent assure l’indépendance de Y et de Z, ainsi que la loi de √ (loi de Student à n de degrés de
Z
liberté).
√
n(X̄n − m)
On a : T = v
indépendant de σ 2 .
u
n
u 1 X
t
(Xi − X̄n )2
n − 1 i=1
20
Lois
Bernoulli
p ∈ ]0, 1[
P (X = 1) = 1 − p
Binomiale
n∈N
p ∈ ]0, 1[
n k
p (1 − p)n−k
k
06k6n
Espérances
p
np
Variances
p(1 − p)
np(1 − p)
ΦX (u)
p + eiu (1 − p)
[peiu + (1 − p)]n
Paramètres
P (X = k)
P (X = 0) = p
Géométrique
p ∈ ]0, 1[
Poisson
λ>0
e−λ λk
k!
k∈N
(1 − p)k−1 p
k ∈ N∗
1
p
1−p
p2
peiu
1 − eiu (1 − p)
λ
λ
exp[λ(eiu − 1)]
Fig. 2.1 – Principales lois entières
Lois
Paramètres
Densités
Espérances
Variances
ΦX (u)
Uniforme
a<b
1[a,b] (t)
b−a
a+b
2
(b − a)2
12
eiub − eiua
iub − iua
Cauchy
Exponentielle
λ>0
1
π(1 + t2 )
λe−λt 1[0,+∞[ (t)
1
λ
1
λ2
1
1 − iλu
Gaussienne
σ > 0, m ∈ R
1
(x − m)2
√ exp −
2σ 2
σ 2π
m
σ2
eium e−
u2 σ 2
2
Fig. 2.2 – Principales lois continues
Lois
Paramètres
χ2
n>1
Densités
t 2 −1 e− 2
1]0,+∞[ (t)
n
2 2 Γ n2
Espérances
n
Variances
2n
n
t
Student
n>2
cn
n+1
2
1 + tn 2
0
n
n−2
Gamma
α > 0, β > 0
β α tα−1 −βt
e 1]0,+∞[ (t)
Γ(α)
α
β
α
β2
Fig. 2.3 – Autres lois
Densité χ2
Densité normale
Fig. 2.4 – Graphes des principales densités
21
Chapitre 3
Convergences
On se place ici sur un espace probabilisé (Ω, A, P ).
3.1
Lemme de Borel-Cantelli
Définition 3.1.0.1 Pour (An ) suite d’événements de A, on définit :
• la limite supérieure 1 de la suite par :
!
+∞
\ +∞
[
lim sup An =
Ap
n=1
p=n
+∞
[
+∞
\
n=1
p=n
• la limite inférieure de la suite par :
lim inf An =
!
Ap
Remarque 20 On a :
• lim sup An = {ω ∈ Ω | il existe une infinité d’événements An pour lesquels ω ∈ An }.
• lim inf An = {ω ∈ Ω | il existe n0 ∈ N tel que pour tout n > n0 , ω ∈ An }.
Théorème 3.1.0.2 (Borel-Cantelli) Soit (An ) une suite d’événements de A. Alors :
1. Si
+∞
X
P (An ) < +∞, alors P (lim sup An ) = 0.
n=1
2. Si les événements sont indépendants et si
+∞
X
P (An ) = +∞, alors P (lim sup An ) = 1.
n=1
3.2
Convergences presque sûre et en probabilité
3.2.1
Définitions
Définition 3.2.1.1 Soit (Xn ) une suite de variables aléatoires. On dit que :
1. (Xn ) converge presque sûrement vers la variable aléatoire X si Xn (ω) −−−−−→ X(ω) pour tout ω ∈ Ω, sauf pour un
n→+∞
événement de probabilité nulle.
2. (Xn ) converge en probabilité vers la variable aléatoire X si :
∀ ε > 0, P |Xn − X| > ε −−−−−→ 0
n→+∞
Remarque 21 On a noté : |Xn − X| > ε = {ω ∈ Ω |Xn (ω) − X(ω)| > ε}.
Théorème 3.2.1.1 Soit (Xn ) une suite de variables aléatoires. Alors (Xn ) converge presque sûrement vers X si et seulement
si :
∀ ε > 0, P lim sup |Xn − X| > ε = 0
Théorème 3.2.1.2 (Kolmogorov) Soit (Xn ) une suite de variables aléatoires et X une variable aléatoire. Si, pour tout
ε > 0, la série de terme général P |Xn − X| > ε converge, alors (Xn ) converge vers X presque sûrement.
Propriété 3.2.1.1 Si (Xn ) converge vers X au sens L1 ou L2 , alors (Xn ) converge vers X en probabilité.
1
On note aussi limAn .
22
3.2.2
Lois des grands nombres
Définition 3.2.2.1 On dit qu’une suite (Xn ) de variables aléatoires suit une loi des grands nombres s’il existe deux
suites réelles (an ) et (bn ) telles que :
!
n
1 X
Xi − bn −−−−−→ 0
n→+∞
an i=1
La loi est dite forte si la convergence est presque sûre, faible si la convergence est en probabilité.
Théorème 3.2.2.1 (Loi des Grands Nombres) Soit (Xn ) une suite de variables aléatoires non corrélées et identiquement
distribuées, de moyenne m et de variance σ 2 finie. Alors :
n
1X
Xi −−−−−→ m
n→+∞
n i=1
3.3
presque sûrement
Convergence en loi et théorème centrale limite
Définition 3.3.0.2 Soit (Xn ) une suite de variables aléatoires. On dit que (Xn ) converge en loi vers la variable aléatoire
X si FXn (x) tend vers FX (x) en tout point de continuité de FX .
Théorème 3.3.0.2 (Xn ), suite de variables aléatoires à valeurs dans Rd , converge en loi vers X si et seulement si pour
toute fonction f continue et bornée de Rd , E(Xn ) tend vers E(X).
Théorème 3.3.0.3 Soit (Xn ) une suite de variables aléatoires. Alors (Xn ) converge en loi vers X si et seulement si :
∀ u ∈ R, ΦXn (u) −−−−−→ ΦX (u)
n→+∞
Théorème 3.3.0.4 Si (Xn ) converge vers X en probabilité, alors (Xn ) converge vers X en loi.
Théorème 3.3.0.5 (Centrale Limite) Soit (Xn ) une suite de variables aléatoires réelles indépendantes et identiquement
distribuées de moyenne m et de variance σ 2 . Alors la suite de variables aléatoires
n
1 X Xi − m √
= n
Yn = √
σ
n i=1
converge en loi vers une variable aléatoire gaussienne centrée réduite.
23
X̄n − m
σ
Chapitre 4
Vecteurs aléatoires
4.1
4.1.1
Généralités
Loi d’un vecteur aléatoire, marginales
Définition 4.1.1.1 X : Ω −→ Rn est un vecteur aléatoire si X est mesurable dans Rn muni de la σ-algèbre des boréliens.
Propriété 4.1.1.1 Si X = (X1 , . . . , Xn ) avec, pour tout i ∈ {1, . . . , n}, Xi : Ω −→ R, alors X est un vecteur aléatoire si et
seulement si, pour tout i ∈ {1, . . . , n}, Xi est une variable aléatoire.
Définition 4.1.1.2 La loi du vecteur aléatoire X est la mesure image de P par X :
∀ B ∈ B(Rn ), PX (B) = P X −1 (B) = P (X1 , . . . , Xn ) ∈ B
Définition 4.1.1.3 On définit la fonction de répartition du vecteur aléatoire X par :
Rn −→ [0, 1]
FX
(t1 , . . . , tn ) 7−→ P (X1 6 t1 , . . . , Xn 6 tn )
Définition 4.1.1.4 On dit que X admet fX : Rn −→ R pour densité si :
1. fX est positive.
2. fX est intégrable sur Rn d’intégrale unité.
3. La fonction de répartition FX de X vérifie :
∀ (t1 , . . . , tn ) ∈ Rn , FX (t1 , . . . , tn ) =
Z
fX (u1 , . . . , un ) du1 . . . dun
]−∞,t1 ]×...×]−∞,tn ]
Définition 4.1.1.5 On appelle marginale de X relativement à la coordonnée Xk la loi de Xk :
∀ Bk ∈ B(R), PXk (Bk ) = P (Xk ∈ Bk ) = PX (R × . . . × Bk × . . . × R)
Propriété 4.1.1.2 Si X admet pour densité fX , alors pour tout i ∈ {1, . . . , n}, Xi admet pour densité fXi définie par :
Z
fXi (t) =
fX (u1 , . . . , ui−1 , t, ui+1 , . . . , un ) du1 . . . dui−1 dui+1 . . . dun
Rn−1
4.1.2
Indépendance de vecteurs aléatoires
Propriété 4.1.2.1 Soit X = (X1 , X2 ) un vecteur aléatoire de R2 . Alors X1 et X2 sont indépendantes si et seulement si :
∀ (x, y) ∈ R2 , FX (x, y) = FX1 (x)FX2 (y)
Si X admet fX pour densité, alors X1 et X2 sont indépendantes si et seulement si :
∀ (x, y) ∈ R2 , fX (x, y) = fX1 (x)fX2 (y)
Théorème 4.1.2.1 Soient X et Y deux vecteurs aléatoires. Alors X et Y sont indépendants si et seulement si : Φ(X,Y ) =
ΦX ΦY .
24
4.1.3
Espérance et matrice de covariances
Définition 4.1.3.1 Soit X = (X1 , . . . , Xn ) : R −→ Rn un vecteur aléatoire. L’espérance de X est le vecteur E(X) =
E(X1 ), . . . , E(Xn ) .
Définition 4.1.3.2 Soit X = (X1 , . . . , Xn ) : R −→ Rn un vecteur aléatoire. La matrice de variances-covariances de X
est la matrice Γ(X) ∈ Mn (R) de coefficients :
Γi,j (X) = Cov(Xi , Xj )
Plus généralement, pour Y = (Y1 , . . . , Ym ) : R −→ Rm , on définit la matrice Γ(X, Y ) ∈ Mn,m (R) de covariances de X et
de Y par :
Γi,j (X, Y ) = Cov(Xi , Yj )
Propriété 4.1.3.1 Soient X et Y deux vecteurs aléatoires de Rn et Rm respectivement. Alors :
1. ∀ u ∈ Rn , t u · Γ(X) · u = Cov( t u · X, t u · X) = V ( t u · X) > 0.
1
2. ∀ A ∈ Mp,n (R), ∀ B ∈ Mm,q (R), Γ(AX, BY ) = A · Γ(X, Y ) · t B.
4.2
Vecteurs gaussiens
4.2.1
Définition
Définition 4.2.1.1 On dit que le vecteur aléatoire X = (X1 , . . . , Xn ) de Rn est un vecteur gaussien si toute combinaison
affine 2 de ses coordonnées suit une loi gaussienne.
Remarque 22 La loi d’un vecteur gaussien de moyenne µ et de matrice de variances-covariances Γ est notée N (µ, Γ).
Remarque 23 Les coordonnées d’un vecteur gaussien sont en particulier gaussiennes (on prend comme combinaison les
vecteurs de la base canonique de Rn+1 ).
Théorème 4.2.1.1 Soit X = (X1 , . . . , Xn ) un vecteur gaussien. Alors X1 , . . . , Xn sont indépendantes si et seulement si elles
sont non corrélées.
Propriété 4.2.1.1 Soit X = (X1 , . . . , Xn ) un vecteur gaussien. Alors X1 , . . . , Xn sont indépendantes si et seulement si la
matrice de variances-covariances de X est diagonale.
Propriété 4.2.1.2 Soit X = (X1 , . . . , Xn ) un vecteur gaussien. La fonction caractéristique de X est donnée par :
1t
n
t
∀ u ∈ R , ΦX (u) = exp i u · E(X) − u · Γ(X) · u
2
Théorème 4.2.1.2 Soit X = (X1 , . . . , Xn ) un vecteur gaussien. Si Γ(X) est inversible, alors X admet une densité :
1
1
p
∀ x ∈ Rn , fX (x) = √
exp − t x − E(X) · Γ(X)−1 · x − E(X)
2
( 2π)n det Γ(X)
4.2.2
Théorème centrale limite
Propriété 4.2.2.1 Soient X et Y deux vecteurs aléatoires de Rn de composantes aléatoires indépendantes et identiquement
distribuées de loi N (0, 1). Pour u et v dans Rn , t u · X et t v · Y sont indépendants si et seulement si t u · v = 0.
Remarque 24 Soit (e1 , . . . , en ) une base orthonormée de Rn . Si X ∼ N (0, In ), alors :
(t e1 · X, . . . , t en · X) ∼ N (0, In ).
Théorème 4.2.2.1 (Centrale Limite) Soit (Xn ) une suite de variables aléatoires à valeurs dans Rd indépendantes et
identiquement distribuées de moyenne m et de matrice de variances-covariances Γ. Alors la suite de variables aléatoires
√
X̄n − m
Yn = n
σ
converge en loi vers un vecteur aléatoire de loi N (0, Γ).
1
2
Toute matrice de variances-covariances est symétrique positive.
n
X
a0 +
ai Xi gaussien pour toute famille (a0 , . . . , an ) de Rn+1 .
i=1
25
Index
σ-algèbre, 1
Applications
Lebesgue-intégrables, 3
Mesurables, 2
Simples, 2
Coefficient de corrélation, 10
Covariance, 10
Dénombrabilité, 11
Densité, 14
Vecteur aléatoire, 21
Ecart-type, 10
Espérance
Continue, 14
Discrète, 12
Vectorielle, 22
Centrale Limite, 20, 22
Cochran, 17
Convergence dominée, 4
Convergence monotone, 4
Fubini, 6
Fubini-Tonelli, 6
Tribu de Borel, 1
Variable aléatoire
Continue, 14
Discrète, 12
Généralités, 9
Simple, 12
Vecteur aléatoire, 21
Vecteur gaussien, 22
Variance, 10
Matrice de variances-covariances, 22
Fonction caractéristique, 11
Fonction de répartition, 9
Vecteur aléatoire, 21
Fonction génératrice, 11
des moments, 11
Inégalités
Bienaymé-Tchebyshev, 11
Markov, 11
Tchebyshev, 4
Indépendance, 9
Intégrale
Lebesgue, 3
Riemann, 4
Dépendant d’un paramètre, 5
Jacobienne, 6
Loi
Définition, 9
Discrète, 12
Réduite, centrée, 10
Vecteur aléatoire, 21
Marginale, 21
Mesure
Lebesgue, 2
Définition, 1
Image, 6
Produit, 5
Moments d’ordre k, 10
Non corrélation, 10
Probabilité conditionnelle, 8
Théorèmes
26
Téléchargement