Probabilités et Statistiques: Eléments de cours et exercices

publicité
1
Université Paris Villetaneuse
Année 2013/2014
Clément Foucart
Probabilités
Prépa Capes
Probabilités et Statistiques:
Eléments de cours et exercices
Les programmes de mathématiques dans l'enseignement secondaire ainsi qu'en classes préparatoires et BTS mettent de plus en plus en avant la théorie des probabilités. S'il est rare que les
exercices de probabilités donnés au lycée et dans les premières années universitaires nécessitent
des raisonnements diciles en analyse réelle, plusieurs types de dicultés apparaissent lorsque
l'on enseigne ou que l'on étudie les probabilités. D'une part, des énoncés mal construits (trop
succincts ou au contraire trop longs) peuvent rapidement bloquer le lecteur
1
. D'autre part,
on peut être amené à mobiliser des connaissances en analyse ou en algèbre (calculs de séries,
d'intégrales, algèbre linéaire, matrice à inverser).
La théorie de la mesure n'est pas au programme du CAPES. Nous nous bornerons donc à
l'usage de notions probabilistes sans donner plus de détails quant à leurs dénitions en théorie de la mesure. Il faut néanmoins bien comprendre que probabilités et intégration partagent
beaucoup de choses, comme nous le verrons dans les chapitres suivants, probabilités discrètes
(respectivement continues) amènent à l'étude de séries (respectivement d'intégrales). An de
donner un cadre clair, nous introduirons rapidement les tribus (c'est d'ailleurs au programme
en classes préparatoires économiques et sociales, voie scientique). D'un point de vue pédagogique, introduire les tribus permet de s'entraîner à manipuler les sous-ensembles.
Les exercices accompagnés du signe # sont corrigés. Ils ont été dans leur grande majorité
rédigés par Alexandre Genadot et Pierre Veuillez (http ://mathsece.free.fr/)
2
. An de vous
entraîner, vous pouvez consulter les références suivantes :
Ouvrages utilisés pour la rédaction de ce polycopié
1) Intégration et Probabilités, Auliac, Cocozza-Thivent, Mercier, Roussignol, EdiScience.
2) Probabilités, analyse de données et Statistiques, Saporta, Technip.
3) Polycopié du cours de préparation au capes de Paris 6. Frédérique Petit et Béatrice de Tilière
(disponible en ligne sur la page de B. de Tilière)
4) Probabilités et statistiques pour le CAPES externe et l'Agrégation interne de Mathématiques (Jérôme Escoer)
5) Annales des ECRICOMES (pour les problèmes et exercices de probabilités : http ://mathsece.free.fr/sujetsent
6) Analyse pour l'agrégation, Zuily et Queélec. Dunod,
Références pouvant être consultées
1) Probabilités Tome 1, licence- capes Jean-Yves Ouvrard, chez Cassini
2) Introduction au calcul des probabilités et à la statistique, Jean-François Delmas, disponible en ligne
3) Probability and random processes Grimmett and Stirzaker third edition, Oxford
1. et ceci est vrai à tout niveau.
2. J'en prote pour les remercier ici.
2
Table des matières
1 Rappels fondamentaux
1.1
1.2
1.3
5
Rudiments sur les ensembles et les fonctions
1.1.1
Notions de base sur les ensembles
1.1.2
Ensembles et fonctions
Ensembles dénombrables
. . . . . . . . . . . . . . . . . . . .
5
. . . . . . . . . . . . . . . . . . . . . .
5
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.2.1
Ensembles au plus dénombrables
1.2.2
Ensembles nis
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2 Espaces probabilisés
15
2.1
Terminologie probabiliste et notion de probabilité
2.2
Probabilité conditionnelle
2.3
2.4
. . . . . . . . . . . . . . . . .
15
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.2.1
Formule des probabilités totales et formule de Bayes . . . . . . . . . . . .
23
2.2.2
Indépendance
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Variables aléatoires : notion de loi et de moments
25
. . . . . . . . . . . . . . . . .
26
2.3.1
Loi d'une variable aléatoire
. . . . . . . . . . . . . . . . . . . . . . . . .
27
2.3.2
Fonctions de répartition et indépendance . . . . . . . . . . . . . . . . . .
27
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
3 Variables aléatoires discrètes
3.1
8
Généralités
37
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1
Loi et fonction de répartition
3.1.2
Espérance
3.1.3
Composition d'une variable aléatoire et d'une fonction et indépendance
3.1.4
37
. . . . . . . . . . . . . . . . . . . . . . . .
37
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
.
40
Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . .
41
3.2
Lois discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
3.3
Vecteurs aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
3.4
3.3.1
Vecteurs aléatoires discrets : lois marginales, indépendance
3.3.2
Structure algébrique, covariance et corrélation
. . . . . . . .
44
. . . . . . . . . . . . . . .
45
3.3.3
Loi multinomiale
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
3.3.4
Somme de variables aléatoires indépendantes . . . . . . . . . . . . . . . .
48
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
4 Variables aléatoires à densité
4.1
Généralités
73
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1
Loi et fonction de répartition
4.1.2
Espérance
74
. . . . . . . . . . . . . . . . . . . . . . . .
75
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
3
4
TABLE DES MATIÈRES
4.2
4.3
4.4
4.1.3
Composition d'une variable aléatoire et d'une fonction et indépendance
4.1.4
Moments, variance et écart-type . . . . . . . . . . . . . . . . . . . . . . .
Lois à densité usuelles
.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vecteurs aléatoires à densité
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2
77
77
80
4.3.1
Vecteurs aléatoires à densité : lois marginales, indépendance
. . . . . . .
81
4.3.2
Loi normale multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . .
81
4.3.3
Sommes de deux variables aléatoires indépendantes : convolution . . . . .
82
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
83
5 Théorèmes limites
5.1
76
99
Notions de convergence de suites aléatoires . . . . . . . . . . . . . . . . . . . . .
99
5.1.1
Convergence en probabilité et loi faible des grands nombres.
99
5.1.2
Convergence en loi
5.1.3
Approximations de certaines lois et théorème central limite . . . . . . . . 102
5.1.4
Convergence presque-sûre et loi forte des grands nombres . . . . . . . . . 104
Exercices.
. . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6 Eléments de statistiques
109
6.1
Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7 Sujets des examens passés et problèmes
121
7.1
Fonctions additives et loi exponentielle
. . . . . . . . . . . . . . . . . . . . . . . 126
7.2
Théorème de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
7.3
Marche aléatoire
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8 Problèmes d'analyse pour les probabilités
135
Chapitre 1
Rappels fondamentaux
Ce chapitre est du niveau de première et deuxième année. Il est conseillé d'y revenir si vous avez des lacunes.
Nous commençons par des rappels de base sur les ensembles et les opérations sur les ensembles.
Nous terminons par des rappels sur les ensembles dénombrables. Ces ensembles jouent un rôle
primordial lors de l'étude des probabilités discrètes. Les notions présentées ici font parties des
cours de première et deuxième année de mathématiques. Nous renvoyons le lecteur aux ouvrages
consacrés.
1.1
Rudiments sur les ensembles et les fonctions
1.1.1 Notions de base sur les ensembles
Ω sera inclus dans N, R ou Rd pour d ≥ 2). A est un sousensemble (on dit aussi partie) de Ω, si A est une collection d'éléments de Ω : au sens où tous
les éléments de A sont éléments de Ω. On note alors
Soit
Ω
un ensemble (typiquement
la relation
⊂
est la relation d'
A ⊂ Ω,
inclusion.
Rappel : On raisonne souvent par double inclusion pour montrer que deux ensembles sont égaux :
A = B ⇐⇒ A ⊂ B et B ⊂ A.
On note
P(Ω)
l'ensemble des parties de
Ω.
P(Ω) = {A; A
C'est à dire :
sous-ensemble de
Ω}.
Opérations sur les ensembles :
A ∈ P(Ω).
n'appartiennent pas à A :
Ensemble complémentaire. Soit
ments de
Ω
qui
Le complémentaire de
A
est l'ensemble des élé-
Ac = {x ∈ Ω; x ∈
/ A}.
On note
∅
le complémentaire de
Ω.
Cet ensemble s'appelle l'ensemble vide.
5
6
CHAPITRE 1.
Réunion : La réunion de deux ensembles
A
et
B
est notée
x ∈ A ∪ B ⇐⇒ x ∈ A
ou
RAPPELS FONDAMENTAUX
A∪B
et est dénie par :
x∈B
Attention, le "ou" n'est pas exclusif, c'est à dire que x peut appartenir à la fois à A et à B .
Intersection : l'intersection de deux ensembles
A
et
B
x ∈ A ∩ B ⇐⇒ x ∈ A
L'ensemble des éléments de
A qui ne sont pas dans B
est notée
et
x∈B
est noté
On le dénit par :
réunion est notée
x∈
[
x∈
\
i∈I
i∈I
S
i∈I
Ai ,
familles
T
leur intersection
Ai ⇐⇒ ∃i ∈ I
tel que
d'ensembles : soit
i∈I
x ∈ Ai ,
Ai ⇐⇒ ∀i ∈ I, x ∈ Ai ,
donc
Ai
donc
x∈
/
\
i∈I
x∈
/
[
i∈I
et est denie par :
A \ B . On dit "A privé de B ".
A \ B = A ∩ Bc.
Ces opérations se généralisent à des
A∩B
I ⊂ N
et
(Ai , i ∈ I).
Leur
Ai ⇐⇒ ∀i ∈ I, x ∈
/ Ai
Ai ⇐⇒ ∃i ∈ I
tel que
x∈
/ Ai .
Remarque 1.1.1 Toutes ces opérations sont stables dans P(Ω).
On rappelle les règles de calculs :
ˆ (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
ˆ (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
ˆ (A ∪ B)c = Ac ∩ B c
ˆ (A ∩ B)c = Ac ∪ B c
Plus généralement :
(∪i∈I Ai )c = ∩i∈I Aci
et
(∩i∈I Ai )c = ∪i∈I Aci .
Dénition 1.1.1 (Partition) Une famille de parties de Ω, (Ai , i ∈ I) est une partition de Ω
si ;
i) ∪i∈I Ai = Ω
ii) ∀i ∈ I, j ∈ I : i 6= j =⇒ Ai ∩ Aj = ∅.
Dénition 1.1.2 (Produit cartésien) Le produit cartésien de deux ensembles E et F est
notè, E × F et est déni par :
E × F = {(x, y); x ∈ E et y ∈ F }.
Plus généralement, le produit cartésien de
E1 × E2 × E3 × ... × En =
n
Y
i=1
n
ensembles est :
Ei = {(x1 , x2 , ..., xn ); ∀i ∈ [|1, n|], xi ∈ Ei }.
1.2.
ENSEMBLES DÉNOMBRABLES
7
1.1.2 Ensembles et fonctions
On donne ici quelques rudiments sur les applications : les dénitions d'injectivité, surjectivité,
de l'image et de l'image réciproque d'un ensemble par une application.
Soient
E
et
F
deux ensembles, soit
f
une application qui va de
E
dans
F
:
Dénition 1.1.3 La fonction f est dite
ˆ injective si :
∀x, y ∈ E, f (x) = f (y) =⇒ x = y.
Dans ce cas, un élément de F
a au plus
un antécédent par f dans E .
ˆ surjective si :
∀z ∈ F, ∃x ∈ E; f (x) = z.
Dans ce cas, tout élément de F
a au moins
un antécédent par f .
ˆ bijective si : injective et surjective. Dans ce cas, pour tout z dans F , il existe un et un seul
x ∈ E tel que f (x) = z .
Dénition 1.1.4 Soit f une application de E dans F , A une partie de E et B une partie de
F.
On appelle image de A par f l'ensemble noté f (A) déni par
f (A) = {y ∈ F ; ∃x ∈ A tel que y = f (x)}.
On appelle image réciproque de B par f l'ensemble noté f −1 (B) déni par
f −1 (B) = {x ∈ E; f (x) ∈ B}.
Remarque 1.1.2 La notation f −1 est abusive car f n'est pas toujours bijective et n'a donc pas
toujours de réciproque, l'ensemble f −1 (B) existe même si f n'est pas bijective.
Proposition 1.1.1 (Image réciproque et union) Soient A, B ∈ P(F )
ˆ f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B)
ˆ f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B)
ˆ f −1 (Ac ) = f −1 (A)c
Preuve
1.2
laissée en exercice.
Ensembles dénombrables
Pour clôturer ces généralités, et avant de passer aux probabilités, nous rappelons la notion
d'ensemble dénombrable, ainsi que des éléments de dénombrement. Le dénombrement est fondamental dans les probabilités discrétes. Nous traitons ces questions à part an de se concentrer
dans la suite sur les probabilités.
8
CHAPITRE 1.
RAPPELS FONDAMENTAUX
1.2.1 Ensembles au plus dénombrables
Dénition 1.2.1 Un ensemble E est dit au plus dénombrable s'il existe une injection de E
dans N
Deux cas sont possibles :
l'ensemble
N.
E
est inni et dans ce cas, on peut démontrer qu'il existe une bijection de
E
dans
L'ensemble est dit dénombrable.
L'ensemble
E
est ni et dans ce cas, on peut dénombrer combien il possède d'éléments.
Remarque 1.2.1 (Exemples) Ces propriétés sortent du cadre du cours, mais sont à savoir
démontrer.
L'ensemble des rationnels Q est dénombrable.
L'ensemble des réels R est non dénombrable.
1.2.2 Ensembles nis
On dit qu'un ensemble est ni s'il est vide, ou s'il existe un entier naturel
n
et une bijection
[|1, n|] := {1, 2, ..., n} dans E . Si E 6= ∅, l'entier n est appelé cardinal de E . On note
Card E = n.
Par convention Card ∅ = 0. On a Card E = n si et seulement si les éléments de E peuvent être
notés e1 , ..., en où les ek sont distincts. Dénombrer un ensemble ni E correspond à déterminer
de
le nombre déléments de E, c'est à dire son cardinal. Plusieurs méthodes sont possibles. Néanmoins, rappelons les trois conditions qui doivent être remplies pour que le dénombrement soit
correct :
1) S'assurer que seuls des éléments de
E
sont comptés
2) S'assurer que l'on en oublie pas
3) S'assurer que l'on ne compte pas plusieurs fois le même élément.
Propriétes des cardinaux
Proposition 1.2.1 Soit E un ensemble ni. Si F est un ensemble en bijection avec E , alors
F est ni et Card E = Card F .
Démonstration
dans
E.
Soit
f
Si
E
est un ensemble ni de cardinal
une bijection de
donc l'application
φ◦f
E
dans
F,
n
alors il existe
φ
une bijection de
[|1, n|]
la composée de deux bijections est une bijection,
est une bijection. De plus le cardinal de
F
est
n. Proposition 1.2.2 Soit E un ensemble ni. Toute partie A de E est nie et Card A ≤ Card E .
Si A est une partie de E et Card A = CardE alors A = E .
Proposition 1.2.3 Soit A et B deux parties de E , ensemble ni.
1)
2)
3)
4)
Si A et B sont disjointes, Card (A ∪ B) = Card (A) + Card (B)
Card (A \ B) = Card A − Card B
Card Ac = Card E − Card A
Card (A ∪ B) = Card A + Card B − Card (A ∩ B)
1.2.
ENSEMBLES DÉNOMBRABLES
9
Proposition 1.2.4 (Formule du Crible) Soit (Ai , i ∈ I) une famille de parties de l'ensemble ni E alors pour tout entier n ≥ 1 ;
Card
(∪ni=1 Ai )
n
X
=
(−1)k+1
k=1
Card (∩kl=1 Ail )
X
1≤i1 <i2 <i3 <...<ik ≤n
Si (Ai , i ∈ I) est une partition de E alors
Card (∪ni=1 Ai ) = Card (E)
Preuve. Par récurrence.
Cette formule correspond à la formule du crible dans le cadre des probabilités sur des en-
équiprobabilité.
sembles nis avec l'hypothèse d'
Nous verrons qu'elle se généralise à toutes les
probabilités (pas seulement pour la probabilité uniforme).
Proposition 1.2.5 (Cardinal d'un produit d'ensembles nis) Soit (Ei , i ∈ [|1, n|]) une
famille d'ensembles nis. On a :
Card (E1 × E2 × ... × En ) = (Card E1 )(Card E2 )...(Card En ).
Remarque 1.2.2 Cette formule est fondamentale en dénombrement. Une bonne compréhen-
sion de sa signication et de sa preuve est le meilleur départ possible en probabilités discrètes.
Démonstration.
n = 2, une fois le résultat établi pour n = 2, on peut
raisonner par récurrence. Soient A et B , deux ensembles de cardinal respectif n et p. On va
procéder par récurrence sur p. Initialisons, la récurrence : supposons p = 1, par dénition
puisque Card A = n, il existe une bijection φ : A 7→ {1, ..., n}. L'application :
On se concentre sur
φ : (a, b) ∈ A × B 7→ φ(a) ∈ {1, ..., n}
est une bijection, donc Card
(A × B) = n.
p.
A et B deux ensembles avec B de cardinal p+1. On note A = {a1 , ..., an }, B =
Hypothèse de récurrence : Supposons que la propriété est vraie au rang
Hérédité : On note
{b1 , ..., bp , bp+1 }
A × B = {(a, b); a ∈ A, b ∈ B} = A × ({b1 , ..., bp }) ∪ A × {bp+1 }.
Par hypothèse de récurrence Card
Card
(A × {b1 , ..., bp }) = np,
donc
(A × B) = np + n = n(p + 1).
La propriété étant héréditaire, initialisée, on conclut qu'elle est vraie pour tout entier
récurrence.
p
par
10
CHAPITRE 1.
RAPPELS FONDAMENTAUX
Arrangements et combinaisons
Dénition 1.2.2 On appelle p-liste d'un ensemble E à n éléments, toute suite de p éléments
de E . C'est à dire un élément de E p .
Remarque 1.2.3 L'ordre des p-éléments est important.
Une p-liste peut contenir plusieurs fois le même élément.
On parle aussi de p-uplet, ou p-uple.
Théorème 1.2.6 Il y a np p-listes d'un ensemble à n éléments.
Démonstration.
E
| × E...
{z × E}.
p
On choisit
éléments dans
E
: on a donc à compter le nombre d'éléments de
D'après la proposition 1.2.5, il y a
(Card E)p
éléments.
p fois
On peut également raisonner de la façon suivante (c'est en fait tout à fait équivalent, mais
la rédaction est diérente) : On choisit d'abord le premier élément de la liste : on a
tés. On choisit ensuite le second élément, on a également
Le nombre de
p-listes
possibili-
p fois.
np . {1, ..., n} dans
possibilités, et ainsi de suite
possibles est alors le produit de toutes ces possibilités : c'est à dire
En fait, on peut identier
{1, ..., p}.
n
n
p-liste
d'un ensemble à
n
éléments et application de
On a donc le théorème suivant :
Théorème 1.2.7 Soient A et B de cardinal respectif n et p. Le nombre d'applications de A
dans B est (Card A)Card B .
Dénition 1.2.3 Un
de p éléments parmi n est une liste de p éléments distincts d'un ensemble E à n éléments. Si Card E = n, un arrangement de n éléments est une
permutation de E .
arrangement
Théorème 1.2.8 On note Apn le nombre d'arrangements de p parmi n. On a :
Apn = n(n − 1)...(n − p + 1) =
n!
.
(n − p)!
Remarque 1.2.4 On note souvent (n)p (symbole de Pochhammer) Apn (néanmoins cette notation n'est pas utilisée en secondaire).
Démonstration. Notons Apn
l'ensemble des arrangements de
p
parmi
n.
On souhaite démontrer
que
Card
On procède par récurrence sur
que la propriété est vraie au
par le Théorème 1.2.5
Apn =
n!
.
(n − p)!
p. Si p = 1 alors A1n = n (et ce pour tout n). Soit p ≥ 1, supposons
p+1
p
1
rang p. Clairement An
est en bijection avec An × An−p . Donc
Ap+1
= Apn A1n−p .
n
Par hypothèse de récurrence, et car
Ap+1
=
n
A1n−p = n − p,
on a
n!
n!
× (n − p) =
.
(n − p)!
(n − p − 1)!
1.2.
ENSEMBLES DÉNOMBRABLES
11
Dénition 1.2.4 (Combinaison) Soit E un ensemble ni de cardinal
n. On appelle combinaison de k éléments de E toute partie de E decardinal k . On note nk le nombre de combinaisons de k éléments parmi n. Autrement dit nk est le nombre de façons de choisir k éléments
parmi n sans tenir compte de leur ordre. Il faut bien faire la diérence entre partie et liste !
Théorème 1.2.9 Pour tout k ≤ n
n
n!
=
k!(n − k)!
k
Démonstration. On va faire une récurrence sur n. On note la propriété au rang n, Pn
n
k
=
n = 0, on
compte
0
même :
= 1.
0
On initialise la propriété :
partie l'ensemble vide lui
:
n!
.
k!(n−k)!
les parties de l'ensemble vide ; il n'y a qu'une
Pn =⇒ Pn+1 . Soit E = {a1 , ..., an+1 }.
Soit k = 0,
= 1 : la seule partie de E avec 0 élément est l'ensemble vide.
Soit k ≥ 1, une partie de E contient l'élément an+1 ou non. On écrit donc l'ensemble des parties
à k éléments de E comme l'union disjointe des parties à k éléments sans an+1 et des parties
n
à k éléments avec an+1 . Comptons le nombre de parties. On a
parties de E contenant k
k
éléments sans an+1 . Il reste à compter les parties de E à k éléments contenant an+1 . Ces parties
s'écrivent de la forme B ∪ {an+1 } avec B une partie de {a1 , ..., an } à k − 1 éléments. On en
n
déduit qu'il y a
parties de E à k éléments contenant an+1 . Par hypothèse de récurrence
k−1
n
n!
= (k−1)!(n−k+1)! , donc
k−1
On montre maintenant l'hérédité, c'est à dire :
n+1
k
n+1
k
n
n
(n + 1)!
.
=
+
=
k!(n + 1 − k)!
k
k−1
Remarque 1.2.5 Au long de la preuve, on a démontré un résultat intéressant, à savoir
n+1
n
n
=
+
.
k
k
k−1
Cette relation permet de calculer les premières valeurs de
n
k
. Construire le triangle de Pascal.
Proposition 1.2.10 (Formule de Vandermonde) ∀0 ≤ p ≤ n + m
X
p n+m
n
m
=
.
p
k
p
−
k
k=0
Démonstration.
Soient
Dénombrer les parties
E un ensemble de cardinal n, F
à p éléments de E ∪ F .
un ensemble disjoint de cardinal
m.
12
CHAPITRE 1.
1.3
RAPPELS FONDAMENTAUX
Exercices
Exercice 1.3.1 Une classe comporte 20 étudiants. Douze lles et huit garçons. Le professeur
décide de désigner un groupe de travail de trois élèves chargé de préparer un devoir maison.
1) Combien de groupes de travail de trois élèves est il possible de former ?
2) Combien y a-t-il de groupes constitués de trois lles ?
3) Combien y a-t-il de groupe avec deux lles et un garçon ?
Exercice 1.3.2 On organise un championnat de Curling. Sept équipes sont qualiées.
Si chaque équipe rencontre une seule fois chacune des autres équipes, quel nombre de matchs
doit-on prévoir ?
Si chaque équipe rencontre deux fois chacune des autres équipes (match aller, match retour)
quel nombre de matchs doit-on prévoir ?
Exercice 1.3.3 On considère n points distincts d'un cercle avec n ≥ 3. En joignant ces points
deux à deux, combien détermine-t-on de droites ? Combien existe-t-il de triangles ayant leurs
sommets en ces points ?
Exercice 1.3.4 Un restaurant propose trois entrées, deux plats et quatre desserts. Un menu se
compose d'une entrée, un plat, un dessert. Quel est le nombre de menus ?
Exercice 1.3.5 On étudie le lectorat de trois revues (a=Libération, b=Le Monde, c=Le Figaro). Sur 100 personnes interrogées dans la rue, 57 lisent a, 42 lisent b, 38 lisent c, 22 lisent
a et b, 14 lisent b et c, 16 lisent a et c, 8 lisent a,b et c.
Calculer le nombre de personnes
1) qui ne lisent que a et b, que b et c, que a et c
2) qui ne lisent que a, que b, que c
3) qui ne lisent aucune des trois revues.
Exercice 1.3.6 (#) Soit n ∈ N∗ . On pose :
f (x) = (1 + x)n
1. Développer (1 + x)n .
2. En déduire la valeur des sommes suivantes :
n X
n
A=
,
k
k=0
n X
n k
B=
2 ,
k
k=0
n X
n
C=
(−1)k
k
k=0
3. Calculer la dérivée f 0 (x) de deux façons.
4. En déduire la somme :
n
n
n
n
D=
+2
+3
+ ··· + n
1
2
3
n
Correction.
1.3.
EXERCICES
13
1. D'après la formule du binôme :
n n X
n p n−p X n p
n
n
n 2
n n
f (x) = (x + 1) =
x1
=
x =
+
x+
x +···+
x
p
p
0
1
2
n
p=0
p=0
n
2. On remarque, grâce à la question précédente, que :
A = f (1) = (1 + 1)n = 2n
B = f (2) = (1 + 2)n = 3n
C = f (−1) = (1 − 1)n = 0
3. Calculons
f 0 (x)
car
n≥1
de deux façons. D'une part
par hypothèse (rappelons que
f (x) = (1 + x)n
00 = 1)
donc :
f 0 (x) = n(1 + x)n−1
(un )0 = nu0 un−1 . D'autre part :
n
n
n 2
n n
f (x) =
+
x+
x + ··· +
x
0
1
2
n
On a utilisé la formule :
Donc :
n
n
n n−1
f (x) =
x+2
x + ··· + n
x
1
2
n
0
4. Avec la question précédente, on voit que :
D = f 0 (1) = n(1 + 1)n−1 = n2n−1
Exercice 1.3.7 (#) Un étudiant va acheter trois livres de math et deux bandes dessinées.
Dans le magasin, il y a dix livres de math et vingt bandes dessinées.
1. De combien de façons l'étudiant peut-il faire ses achats ?
2. De retour chez lui, il forme une pile avec ses nouveaux livres. De combien de façons peut-il
le faire ?
3. Même question si l'étudiant souhaite que ses livres de math se trouvent en bas de la pile,
et ses bandes dessinées en haut.
4. Même question si l'étudiant souhaite que ses livres de math se suivent dans la pile (mais
pas nécessairement les bandes dessinées).
Correction.
1. Pour l'achat des livres, l'ordre n'a pas d'importance. L'étudiant choisit 3 livres de math
parmi 10 et 2 bandes dessinées parmi 20. Donc le nombre de façons de faire ces achats
est :
10
3
20
2
=
10×9×8
3×2
×
20×19
2
= 10 × 3 × 4 × 10 × 19 = 22800.
2. Ici l'ordre compte. L'étudiant choisit un de ses 5 livres pour être le premier de la pile,
puis un des 4 autres pour être le deuxième, etc. Il a donc
5 × 4 × 3 × 2 = 5! = 120
de constituer la pile. (Nombre de permutations d'un ensemble de cardinal 5)
façons
14
CHAPITRE 1.
RAPPELS FONDAMENTAUX
3. Dans cette question, l'étudiant forme une pile avec ses 3 livres de math : il a
façons de le faire. Puis une pile avec ses bandes dessinées : il a
2
3×2 = 6
façons de le faire. Enn,
il place la pile de livres de math sous la pile de bande dessinées, mais il n'y a qu'une seule
façon de faire cela. Il a donc
6 × 2 = 12
façons de constituer la pile de 5 livres.
4. Ici, l'étudiant forme une pile avec ses 3 livres de math (donc 6 façons de le faire, on l'a
vu), une pile avec ses bandes dessinées (2 façons de le faire), puis il insère la pile de livre
de math :
sous les bandes dessinées
ou bien entre les deux bandes dessinées
ou bien au dessus des bandes dessinées
Finalement, il a donc
6 × 2 × 3 = 36
façons de constituer la pile.
Exercice 1.3.8 10 livres doivent être rangés dans une bibliothèque, dont 4 livres de maths, 3
livres de chimie, 2 livres de littérature, et 1 d'histoire. On souhaite ranger les livres de manière que les livres du même sujet soient regroupés sur l'étagère. Combien d'arrangements sont
possibles ?
Exercice 1.3.9
1. On appelle partage par paire d'un ensemble toute partition dont les parties contiennent chacune deux éléments. Quel est le nombre de partages par paires d'un
ensemble de 2n éléments ?
2. On considère 32 joueurs de tennis, de combien de façons peut-on organiser le premier
tour d'un tournoi de tennis en simple ? En double ?
Exercice 1.3.10
4
2
Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(P(Ω)) =
n
card (Ω) = n alors card(P(Ω)) = 2
Soit
. Démontrer que si
Exercice 1.3.11
Montrer que pour tous
Exercice 1.3.12
Soient
n, p ∈ N,
n
n
n
n+1
n
=
et
=
+
.
p
n−p
p+1
p
p+1
A,B
et
C
trois parties d'un même ensemble
E.
1. A l'aide de dessins, justier les lois de Morgan :
(A ∪ B)c = Ac ∩ B c
et
(A ∩ B)c = Ac ∪ B c .
2. A l'aide de dessins, Justier les relations ensemblistes suivantes :
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
et
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
3. Donner une forme simpliée des expressions :
(A ∪ B) ∩ (A ∪ B c )
et
(A ∪ B) ∩ (Ac ∪ B) ∩ (Ac ∪ B c ).
Chapitre 2
Espaces probabilisés
An de motiver les dénitions qui suivent, voici deux exemples types de problèmes où les
probabilités se révèlent nécessaires. Il est courant que des exercices soient énoncés de cette
manière en secondaire ou dans les premières années d'université.
Exemple 2.0.1 (Contrôle de production) Une usine produit à grande échelle une pièce
mécanique. Le processus de fabrication est complexe et ne permet pas de détecter à tout moment
si une pièce est défectueuse. Néanmoins, le fabricant a des engagements envers ses clients et
souhaite vérier que son stock ne contient pas trop de pièces défectueuses. Pour en estimer le
nombre, on peut par exemple prendre 100 pièces et compter combien sont défectueuses. Si on en
trouve 3, on a envie de conclure que 3% de la production sera défectueuse. Ce n'est évidemment
pas précis, et le calcul des probabilités est nécessaire pour répondre à la question.
Exemple 2.0.2 (Fiabilité) Imaginons qu'un système embarque plusieurs composants électro-
niques qui tombent en panne à des temps aléatoires. An d'assurer la abilité du système, on
a besoin d'informations précises sur ces temps aléatoires. Cela nous conduira à considérer des
lois de probabilités.
Dans cette section, nous présentons les fondements de la théorie. Les exercices associés sont un
peu abstraits mais permettent une compréhension plus globale de la théorie.
2.1
Terminologie probabiliste et notion de probabilité
La première étape pour étudier un phénomène aléatoire est d'identier les résultats possibles
d'une expérience impliquant ce phénomène.
Dénition 2.1.1 On note Ω l'ensemble de tous les résultats possibles. On appelle cet ensemble
l'
univers
(on parle également d'ensemble fondamental ou d'espace d'états).
N = 10000 pièces, un nombre m de pièces sont
n = 100. Comment décrire Ω ?
On peut prendre pour univers Ω l'ensemble des tirages de n pièces sans tenir compte de
l'ordre : c'est à dire l'ensemble des combinaisons de n éléments parmi N . Le cardinal de Ω
N
!
.
est donc le nombre de combinaisons de n éléments parmi N :
= n!(NN−n)!
n
Reprenons l'exemple 2.0.1. Supposons que sur
défectueuses. On tire maintenant au sort
On peut prendre pour univers l'ensemble des tirages tenant compte de l'ordre : dans ce cas,
il s'agit de l'ensemble des arrangements de
n
AN
n.
15
éléments parmi
N.
Le cardinal de
Ω
est donc
16
CHAPITRE 2.
ESPACES PROBABILISÉS
On peut également prendre pour univers l'ensemble décrit par le nombre de pièces défectueuses tirées :
Ω = {0, 1, ..., n}.
Il n'y a donc pas unicité de l'espace
Ω.
Plusieurs choix sont possibles, le meilleur est toujours
celui qui mène aux calculs les plus simples... Dans l'exemple de durée de fonctionnement, s'il
y a un seul composant, l'espace de probabilité naturel pour modéliser le temps de panne est
Ω = R+ .
S'il y a
N
Ω = RN
+.
composants, on peut prendre
Une fois le choix de l'univers clair, on peut s'intéresser à certains
événements. Par exemple
le nombre de pièces défectueuses est inférieur à 5 (dans l'exemple 2.0.1) ou le composant
ne tombe pas en panne dans les 10 prochaines années . Si l'on peut décrire un événement
à l'aide d'une phrase, il faut bien comprendre que c'est un sous-ensemble de l'univers
Ω1
Le
tableau suivant donne les correspondances entre ensembles et événements.
Notations
ω
vocabulaire ensembliste
élément de
vocabulaire probabiliste
Ω
tirage, résultat possible ou
expérience
ω∈A
A⊂B
ω appartient à A
A contenu dans B
l'expérience
ω
l'événement
A
B
l'événement
A∪B
A∩B
Ac
∅
Ω
A∩B =∅
réunion de
A
B
A et B
A
A
et
intersection de
ensemble complémentaire de
A
ou B
et B
réalise
événement "non
entraîne
A"
ensemble vide
événement impossible
ensemble plein
événement certain
A
A
et
B
disjoints
et
B
A
événements incom-
patibles.
L'objectif est donc d'étudier les occurrences de ces événements. On entend par occurrence,
[0, 1],
Ω est non-dénombrable,
la probabilité d'apparition de l'événement : c'est à dire un réel appartenant au segment
vériant certaines propriétés naturelles (voir Dénition 2.1.5). Lorsque
il est impossible d'attribuer à chaque élément de
et on ne peut dénir
notion de
tribu
P
P(Ω),
une probabilité vériant ces propriétés
que sur un sous-ensemble strict de
qui peut être passée en première lecture.
P(Ω).
Ces dicultés mènent à la
Dénition 2.1.2 Une tribu (aussi appelée σ-algèbre) sur un ensemble Ω est une famille F de
parties de Ω, vériant les trois propriétés suivantes :
Ω∈F
Pour tout élément A de F , Ac appartient à F (on parle de stabilité par passage au complémentaire)
S
Pour toute suite (An )n∈N d'éléments de F , n∈N An ∈ F .
Proposition 2.1.1 L'intersection dénombrable de tribus est une tribu (voir Exercice).
En général, la réunion de deux tribus n'est pas une tribu !
Dénition 2.1.3 La tribu engendrée par un ensemble de parties G de Ω est la plus petite tribu,
1. c'est une diculté lorsque l'on débute en probabilité.
2.1.
TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILITÉ
17
au sens de l'inclusion, contenant G . On a donc
\
σ(G) :=
A
tribu ;G∈A
A.
Dénition 2.1.4 Une tribu importante, à laquelle nous ferons implicitement référence dans le
chapitre 4, est la tribu des boréliens. La tribu des boréliens est la tribu sur Rd engendrée par
l'ensemble G des pavés ouverts (des intervalles ouverts si d = 1). On la notera B(Rd ).
Introduisons maintenant la notion de probabilité. La première notion de probabilité étudiée en
secondaire est celle d'équiprobabilité dans un univers
tous les éléments de
Ω
Ω ni. Supposons que de par l'expérience
équiprobabilité )
ont la même chance d'être obtenu (c'est la notion d'
dénit une notion de probabilité de la façon suivante. Soit
A
est la proportion d'éléments de
A
dans
Ω.
A
on
un événement. La probabilité de
On dénit
P(A) =
Card
Card
A
.
Ω
Les propriétés du cardinal d'un ensemble conduisent immédiatement à la célèbre formule
P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
En eet Card
(A ∪ B) =
A + Card B − Card (A ∩ B).
Card
Cette notion de probabilité est
d'un certain point de vue la plus simple et ramène le calcul à des questions de dénombrement
(parfois loin d'être faciles).
Remarque 2.1.1 Ces dernières années, les programmes ne mettent pas l'accent sur le dénombrement, néanmoins vous devez en connaître les rudiments.
La situation d'équiprobabilité est un cas particulier (on parlera dans la suite de loi uniforme).
Pour avoir une dénition tout à fait générale et pouvoir par exemple étudier les probabilités
approche fréquentiste. Lorsque l'on peut
expérience aléatoire, on constate que la fréquence
pour des expériences liées à des univers innis, suivons l'
répéter un grand nombre de fois une même
d'apparition
d'un événement
A,
c'est à dire le quotient
nombre de fois que A se réalise
nombre de fois que l'on fait l'expérience
uctue de moins en moins et semble converger vers une limite au fur et à mesure que le nombre
d'expériences grandit. On note cette quantité
P(A).
P(A) est proche de 1, A s'est produit très souvent et donc lors d'une
expérience, l'événement A a beaucoup de chances de se réaliser. Au contraire si P(A) est proche
de 0, alors A s'est peu produit et la chance qu'il se réalise est petite.
Si A et B sont des événements incompatibles, alors le nombre de fois ou l'événement A ∪ B se
réalise est simplement la somme du nombre de fois où A s'est réalisé et du nombre de fois ou
B s'est réalisé. En "passant à la limite", on a si A ∩ B = ∅
De façon heuristique, si
P(A ∪ B) = P(A) + P(B).
18
CHAPITRE 2.
ESPACES PROBABILISÉS
Présentée telle quelle la notion de probabilité n'est pas du tout rigoureuse. En eet, nous
ne pouvons pas a priori manipuler des limites sans savoir si elles existent. Cependant, cette
heuristique nous indique déjà qu'une probabilité est une application qui va de l'ensemble des
événements à l'intervalle
[0, 1]
et qui de plus vérient certaines propriétés d'additivité. Nous
allons poser comme axiome qu'une probabilité vérie la
σ -additivité, qui est une généralisation
de l'additivité vue ci-dessus.
Dénition 2.1.5 Si F est une tribu sur l'ensemble Ω, une probabilité sur la tribu F est une
application notée P de F dans [0, 1] telle que :
P(Ω) = 1
Pour toute suite (nie ou innie) (An , n ≥ 1) d'événements deux à deux disjoints de F ,
P(
[
An ) =
n≥1
X
P(An ).
n≥1
Le triplet (Ω, F, P) est appelé espace probabilisé.
Avec cette dénition, c'est un
théorème qui établira la convergence des fréquences d'apparition
de cet événement vers sa probabilité (Loi des grands nombres, voir Chapitre 5).
Remarque 2.1.2 Il est légitime de se poser la question de l'intérêt de la notion de tribu.
Lorsque Ω est au plus dénombrable, cela ne pose en général pas de problème, on prendra F =
P(Ω). Lorsque Ω est inni non dénombrable, typiquement Ω = R, on ne peut pas dénir une
probabilité sur la tribu P(Ω). Il existe des parties de R qui n'appartiennent pas aux boréliens.
Nous n'irons pas plus loin sur ces questions qui sortent du programme. Mais il est bon de savoir
qu'il existe des ensembles non boréliens.
Dans la proposition suivante sont rassemblées des propriétés élémentaires
mais fondamentales
liées à la dénition :
Proposition 2.1.2 Pour tout événement A, P(Ac ) = 1 − P(A)
c
Pour tous événements A et B , P(B) =
PP(B ∩ A)+ P(B ∩ A ). Plus généralement si (Ai , i ∈ I)
est une partition de Ω alors P(A) = i∈I P(B ∩ Ai ).
Si A ⊂ B alors P(A) ≤ P(B) et P(B \ A) = P(B) − P(A).
Pour tous événements A, B : P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Si A1 , A2 , ..., An , ... est une suite d'événements : on a
!
P
\
n
An
!
=1−P
[
!
et P
Acn
n
[
=1−P
An
n
Soient n événements A1 , A2 , ..., An alors P (
Sn
i=1
Ai ) ≤
!
P
i=1n
\
Acn
n
P(Ai )
Proposition 2.1.3 (Propriété de la limite monotone) 1) Si A
S1 , A2 , ..., An , ... est une suite
croissante (pour l'inclusion) d'événements et que l'on note A =
P(A) = lim ↑ P(An ).
n→∞
An alors
2.1.
TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILITÉ
19
2) Si A1 , A2T
, ..., An , ... est une suite décroissante (pour l'inclusion) d'événements et que l'on
note A = An alors
P(A) = lim ↓ P(An ).
n→∞
Démonstration. On démontre seulement 1). La preuve de 2) est similaire, il sut de passer au
complémentaire. Si
1)
(An , n ≥ 1)
est une suite croissante au sens de l'inclusion alors
1.
est une suite réelle croissante majorée par
événements suivants
(P(An ), n ≥
La suite est donc convergente. On dénit les
B1 = A1 , B2 = A2 \ A1 ,
Bi = Ai \ Ai−1 .
Sn
S
S
Bi ⊂ ni=1 Ai . Vérions l'inclusion réciproque. Soit ω ∈ ni=1 Ai . On pose
k = min{i ∈ [|1, n|]; ωS∈ Ai }. DeSdeux choses l'une, si k = 1, ω ∈ A1 = B1 , si k > 1, ω ∈
Ak \ Ak−1 = Bk . Donc ni=1 Ai ⊂ ni=1 Bi . Par σ -additivité :
!
∞
∞
[
X
P
Bi =
P(Bi )
Clairement
i=1
i=1
Or
i=1
Sn
k=1 P(Bk ) = P ( k=1 Bk ) = P ( k=1 Ak ) = P(An ),
Sn
Pn
(P(An ), n ≥ 1)
donc
converge.
Proposition 2.1.4 (Formule du Crible) Soit (Ai , i ∈ I) une famille d'événements alors
pour tout entier n ≥ 1 ;
P (∪ni=1 Ai )
=
n
X
X
(−1)k+1
P(∩kl=1 Ail ).
1≤i1 <i2 <i3 <...<ik ≤n
k=1
Démonstration. A vous !
Trois cas fondamentaux sont à distinguer concernant l'univers
Ω.
Univers ni
p résultats possibles Ω = {a1 , ..., ap }. On note la probabilité
a
,
P[{a
i }] = pi . Les événements {ai } sont disjoints et quelque soit
S i
A = i;ai ∈A {ai } et donc
X
P(A) =
pi .
Supposons que l'expérience donne
de l'événement élémentaire
l'événement
A,
on a
i∈[|1,p|],ai ∈A
Lorsque
Ω
est ni le calcul d'une probabilité revient au calcul d'une
Lorsque de plus, l'expérience a des réalisations équiprobables,
dant de
i
pi = p
et
P(A) =
X
i;ai ∈A
pi =
X
i;ai ∈A
p = pCard A.
somme nie.
élement de
[0, 1]
indépen-
20
CHAPITRE 2.
On obtient ainsi avec
A = Ω, p =
1
Card Ω .
ESPACES PROBABILISÉS
Dans ce cas, le calcul se ramène à un problème de
dénombrement. Nous retiendrons la formule
p=
nombre de cas favorables
nombre de cas possibles
.
Exemple 2.1.1 (Les anniversaires) On cherche à calculer la probabilité qu'au moins deux
personnes parmi n soient nées le même jour. On formalise le problème en prenant Ω =
[|1, 365|]n , c'est à dire l'ensemble des anniversaires possibles parmi les n. On suppose que tous
les jours sont équiprobables. Soit A l'événement Au moins, deux personnes ont leur anniversaire le même jour Calculer P[A] peut sembler dicile, il faut penser à regarder ce que signie
l'événement contraire :
Ac : chaque personne parmi les n est née un jour diérent. Puisqu'on a supposé que tout était équiprobable,
P[Ac ] =
nombres de cas favorables An365
=
nombres de cas possibles
365n
On a nalement
P[A] = 1 − P[Ac ] = 1 −
An365
≈ 0.5 pour n = 23.
365n
Nous avons vu précédemment que plusieurs choix d'univers sont parfois possibles pour une
même expérience aléatoire (néanmoins nous parlerons de
l'univers). Certains choix aident les
calculs. On reprend l'exemple 2.0.1 du contrôle de production où nous allons voir apparaître
une première loi usuelle importante : la loi hypergéométrique.
Exercice 2.1.1 (#) On tire n pièces sans remise dans une production de N pièces parmi
lesquelles m sont défectueuses. Quelle est la probabilité de l'événement : le nombre de pièces
tirées défectueuses est égal à k ?
Solution :
N
Si on choisit de prendre comme univers
Ω,
l'ensemble des tirages de
sans tenir compte de l'ordre. C'est à dire l'ensemble des combinaisons de
élément de
Ω a donc pour probabilité
(il y a autant de raison de tirer un
pièces parmi
n parmi N . Chaque
N
, et nous sommes dans une situation d'équiprobabilité :
n
n-uplet
non ordonné qu'un autre). l'événement
nombre de pièces tirées qui sont défectueuses est égal à
n-uplets
n
non ordonnés qui contiennent exactement
P(Ak ) =
k
Ak
=
Card Ω
Card
k
Ak
correspond à la partie de
: le
Ω
des
objets défectueux. On a donc
Card
N
n
Ak
.
Ak . Si k ≥ n + 1 alors clairement Card Ak = 0. Si k > m
ou n − k > N − m alors Card Ak = 0 (on ne peut pas tirer plus de pièces défectueuses que
m, ni avoir plus
de pièces non-défectueuses que N − m). Dans les autres cas : on compte
n−k
k
Card Ak =
. Donc nalement :
m N −m
On cherche donc à calculer Card
k
m
P(Ak ) =
n−k
N −m
N
n
.
2.1.
TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILITÉ
21
C'est la loi hypergéométrique. L'exercice est résolu.
Prenons maintenant l'univers des tirages où l'ordre compte, c'est à dire que
des arrangements de
n
parmi
N.
Ω
est l'ensemble
Le fait de prendre l'ordre des pièces que l'on tire en compte,
ne change rien quant au fait de tirer une pièce défectueuse ou non. Il n'y a pas plus de chance
de tirer tel ou tel arrangement. Nous sommes à nouveau dans un cadre équiprobable. On a
Ω = AnN . De la même façon que précédemment, on identie l'événement à
Bk = {arrangements de n objets parmi N avec k défectueux}. Il faut calculer Card Bk :
Pour réaliser un n-uplet ordonné avec k éléments défectueux, on commence par choisir la place
n
des éléments défectueux : on a
possibilités. On choisit un k -uplet ordonné parmi les m
k
k
défectueux : on a Am possibilités. Il faut aussi choisir un (n − k)-uplet ordonné parmi les N − m
n−k
objets non défectueux : on en a AN −m . Finalement
cette fois Card
Card
n k n−k
Bk =
Am AN −m
k
n!
m!
(N − m)!
=
k!(n − k)! (m − k)! (N − m − n + k)!
m!
(N − m)!
= n!
k!(m − k)! (n − k)!(N − m − n + k)!
m
n−k
= n!
k
N −m
On a donc
P(Bk ) =
n!
m
k
n−k
N −m
AnN
k
m
=
n−k
N −m
N
n
.
Ce qui correspond à la probabilité calculée précédemment. Il faut noter que du fait de l'expérience, il n'est pas naturel de prendre en compte l'ordre des pièces que l'on tire et que le calcul
est plus dangereux.
Univers inni dénombrable
Si Ω = {a1 , a2 , ..., ai , ...}, on note pi = P({ai }). Comme précédemment Ω =
P
S
i≥1 pi = 1. De plus tout événement A peut s'écrire A =
i:ai ∈A {ai }, d'où
P(A) =
X
S
i≥1 {ai }, et
pi .
i;ai ∈A
Donc lorsque
Ω
est dénombrable, le calcul d'une probabilité sera lié à celui de la somme d'une
certaine série. Il est important de noter que dans le cas d'un univers inni dénombrable il n'y
a plus de notion
P
i≥1 pi = 1 n'est
d'équiprobabilité ! En eet supposons que
pi
est une constante
p,
l'égalité
plus vériée.
Remarque 2.1.3 A ce propos, tout texte commençant par une phrase du type On choisit un
nombre au hasard n'a pas de sens mathématique. L'ensemble des entiers est inni dénombrable,
et vous ne pouvez pas choisir de façon équiprobable un entier.
22
CHAPITRE 2.
ESPACES PROBABILISÉS
Univers inni non-dénombrable
Le dernier cas à distinguer est celui où
une expérience où l'univers est
R
Ω est non-dénombrable. Vous pouvez facilement imaginer
(exemple ?).
Exemple 2.1.2 (Fléchettes) On considère l'expèrience suivante : on lance une échette sur
une cible. On s'intéresse à la position de la échette. Un choix d'univers Ω est clairement P(D)
où D est le disque représentant la cible. Soit A ∈ P(Ω), on a envie de dénir la probabilité que
A se réalise par
aire de A
.
P(A) =
aire de D
Cependant la théorie de la mesure nous dit qu'il existe des sous-ensembles A pour lesquels on
ne peut pas dénir d'aire. Il faut se restreindre aux parties de Ω qui ont une aire bien dénie.
Un univers associé à l'étude de la distance entre la échette et le centre du disque est Ω = R2
et on peut prendre la tribu des boréliens.
Pour étudier la trajectoire de la échette, on peut prendre Ω = C(R+ , D) : l'ensemble des
fonctions continues. Le choix de la tribu est plus dicile et sort du cadre du cours.
2.2
Probabilité conditionnelle
On dénit dans ce paragraphe la notion de probabilité conditionnelle.
Dénition 2.2.1 Soient A et B deux événements avec P(B) > 0. On appelle probabilité conditionnelle de A sachant B et on note
PB (A) =
La quantité
on sait que
P(A ∩ B)
P(B)
PB (A) est la probabilité que l'événement A se réalise
B est arrivé, on peut restreindre l'univers à Ω ∩ B .
sachant que
B
est arrivé. Si
Remarque 2.2.1 Pour comprendre pourquoi on pose cette dénition, on peut reprendre l'ap-
proche fréquentiste. De façon heuristique, si on note NA∩B et NB respectivement le nombre
de fois que A et B se réalisent et le nombre de fois que B se réalise, parmi N expériences.
On a
NA∩B
N
NA∩B
N
P(A ∩ B)
NA∩B
= lim
×
= lim
× lim
=
.
N →∞ NB
N →∞ N
N →∞ NB
NB N →∞ N
P(B)
PB (A) = lim
Il existe une autre notation couramment utilisée pour les probabilités conditionnelles : P(A|B).
Cette notation n'est pas celle au programme du secondaire. D'autre part, il faut bien comprendre que A|B n'est pas un événement ! A|B seul n'étant pas déni ne doit pas apparaître
dans vos copies !
Proposition 2.2.1 Soient (Ω, F, P) un espace probabilisé et B élément de F tel que P(B) > 0.
Alors l'application PB de F dans [0, 1] est une probabilité.
Démonstration. Laissée en exercice.
2.2.
PROBABILITÉ CONDITIONNELLE
23
Exercice 2.2.1 On reprend l'exemple du contrôle de production : N objets, m défectueux. On
suppose que l'on tire les éléments de l'échantillon les uns après les autres. La probabilité que le
m
. Quelle est la probabilité de tirer un objet défectueux au
premier objet tiré soit défectueux est N
deuxième tirage sachant que l'on a tiré un objet défectueux au premier tirage ?
Exercice 2.2.2 [Test de maladie] Un laboratoire pharmaceutique met au point un test pour
détecter une maladie. On sait que la maladie touche 1% de la population. On eectue le test
sur un échantillon de malades et voit que 95% sont positifs. On eectue ensuite le test sur une
population de non malades et 5% sont déclarés positifs par le test. Formaliser l'énoncé (donner
un univers). Est-ce un bon test ?
Les événements à considérer sont : Malade , Non malade , Test positif , Test négatif . Les données du problèmes sont alors :
P(Test
P(Malade) = 0.01, PMalade (Test
) = 0.95
positif
et
) = 0.05. Une façon de juger la qualité du test est de calculer la probabilité d'être
PTest positif (Malade). Pour faire ce calcul, on
négatif
malade sachant que le test est positif. C'est à dire
a besoin de la formule de Bayes.
2.2.1 Formule des probabilités totales et formule de Bayes
Proposition 2.2.2 (formule des probabilités composées) Soient n événements A1 , ...., An
tel que P(A1 ∩ A2 ∩ ... ∩ An−1 ) > 0, on a :
P(A1 ∩ A2 ∩ ... ∩ An ) = P(A1 )P(A2 |A1 )P(A3 |A1 ∩ A2 )...P(An |A1 ∩ A2 ∩ ... ∩ An−1 ).
Démonstration. Si P(A1 ∩A2 ∩...∩An−1 ) > 0 alors pour tout 1 ≤ i ≤ n−1 P(A1 ∩A2 ∩...∩Ai ) > 0.
Faire une récurrence.
Proposition 2.2.3 Soit B un événement tel que P(B) > 0 et P(B c ) > 0 alors pour tout
événement A :
P(A) = PB (A)P(B) + PB c (A)P(B c ).
Démonstration. On a A = (A ∩ B) ∪ (A ∩ B c ) et les événements A ∩ B
donc
et
A ∩ Bc
sont disjoints
P(A) = P(A ∩ B) + P(A ∩ B c ),
on conclut par dénition des probabilités conditionnelles.
On généralise cette proposition :
Proposition 2.2.4 (Formule des probabilités totales) Si (Bi , i ≥ 1) est une famille au
plus dénombrable d'événements formant une partition de Ω et P(Bi ) > 0 pour tout i ∈ I , alors
pour tout événement A, on a :
P(A) =
X
PBi (A)P(Bi ).
i∈I
Démonstration. Laissée en exercice.
Remarque 2.2.2 (Lien avec les arbres pondérés) Les formules des probabilités composées
et des probabilités totales sont à rapprocher de la représentation en arbre pondéré utilisée au
lycée pour représenter une expérience aléatoire. On rappelle qu'un arbre pondéré est un arbre
tel que :
24
CHAPITRE 2.
ESPACES PROBABILISÉS
La somme des pondérations (ou probabilités) des noeuds issus d'un même sommet donne 1.
La probabilité d'un chemin est le produit des probabilités des branches qui le composent.
La pondération de la branche allant du sommet A vers le sommet B est la probabilité conditionnelle de B sachant A, PA (B).
La construction d'un arbre pondéré obéit au principe suivant : le noeud racine réprésente l'événement certain ω , et si un noeud représente un événement A, on construit autant de ls qu'il
y a d'événements A ∩ En , où (En ) est une partition de Ω. La formule des probabilités composées est la traduction exacte de l'item 2. ci-dessus : la probabilité d'un noeud de l'arbre est la
probabilité de l'intersection des événements qui composent le chemin qui le relie au sommet.
La formule des probabilités totales dans ce contexte dit que la probabilité d'un événement est la
somme des probabilités des feuilles de l'arbre qui concernent cet événement.
Exemple 2.2.1 On dispose de deux urnes, l'une contenant 1 boule blanche et 3 noires, l'autre
2 blanches et 2 noires. On choisit uniformément au hasard parmi les deux urnes, puis on tire au
hasard une boule dans l'urne choisie. On considére la probabilité de l'événement A = on tire
une boule noire . L'univers Ω est {(i, j), i = 1, 2, j = 1, 2, 3, 4}, où i est le numéro de l'urne
et j celui de la boule. On considére la partition Ω = E1 ∪ E2 , où Ei = {(i, j), j = 1, 2, 3, 4}
qui est l'événement consistant à choisir l'urne i. Si on numérote en premier les boules noires,
l'événement A s'écrit {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2)}. Pour tout i, la probabilité conditionnelle
PEi est la probabilité uniforme sur Ei . Donc PE1 (A) = 3/4 et PE2 (A) = 1/2. D'après la formule
des probabilités totales, P(A) = PE1 (A)P(E1 ) + PE2 (A)P(E2 ) = 34 × 21 + 12 × 12 = 58 .
Proposition 2.2.5 (Formule de Bayes simple) Soient A et B deux événements tels que
P(A), P(B) et P(B c ) sont strictement positifs. On a :
PA (B) =
Démonstration.
On a
PA (B) =
PB (A)P(B)
.
PB (A)P(B) + PB c (A)P(B c )
P(B∩A)
P(A)
par la formule des probabilités totales
= P(A∩B)P(B)
. On décompose ensuite le
P(A)
c
: P(A) = PB (A)P(B) + PB c (A)P(B ). dénominateur
A nouveau, cette proposition se généralise, à une famille formant une partition de
Ω.
Proposition 2.2.6 (Formule de Bayes) Si (Bi , i ∈ I) est une famille qui forme une partition de Ω telle que pour tout i ∈ I , P(Bi ) > 0 alors, quelque soit l'événement A, si P(A) > 0
PBi (A)P(Bi )
.
i∈I PBi (A)P(Bi )
PA (Bi ) = P
Démonstration. Même argument que précédemment.
Les deux dernières formules permettent de calculer des probabilités conditionnelles
PA (B)
PB (A).
connaissant les probabilités inverses Exercice 2.2.3
Calculer la probabilité d'avoir tiré une boule dans la première urne sachant
que c'est une noire.
Sous son apparente simplicité, la formule de Bayes est le départ d'une théorie entière appelée
la statistique bayésienne.
2.2.
PROBABILITÉ CONDITIONNELLE
25
Nous reprenons maintenant la question de l'exercice 2.2.2 concernant le test de maladie. La
formule de Bayes va nous permettre de calculer la probabilité qu'un individu soit malade sachant qu'il a été testé positif. On note
On a
PT (M ) =
M
l'événement malade ,
T
l'événement test positif .
PM (T )P(M )
= 0.16.
PM (T )P(M ) + PM c (T )P(M c )
Résultat, le test n'est pas bon.
2.2.2 Indépendance
Nous passons maintenant à une notion fondamentale en probabilités : la notion d'indépendance.
Si la connaissance d'un événement n'inue en rien sur la probabilité d'un autre, on dit que les
événements sont indépendants. La notion de probabilité conditionnelle formalise cela. Si B
est un événement avec probabilité strictement positive et
dit
indépendants.
P(A|B) = P(A)
alors
A
et
B
sont
Par dénition des probabilités conditionnelles cela équivaut à la dénition
suivante :
Dénition 2.2.2 Deux événements A et B sont indépendants si
P(A ∩ B) = P(A)P(B).
Pour illustrer cette notion, on reprend l'exemple de contrôle de production.
Exemple 2.2.2 (Contrôle de production non destructif) On a N objets, m défectueux.
On tire au hasard n objets parmi les N en remettant chaque objet après l'avoir tiré. (on parle de
tirage avec remise). Soit l' événement Ai : l'objet tiré au ième tirage est défectueux . Montrer
que Ai et Aj sont indépendants pour tout i 6= j .
Exemple 2.2.3 Cette fois on ne remet pas l'objet tiré. (tirage sans remise). Calculer P(A1 ∩A2 )
et conclure que ce ne sont pas des événements indépendants
Proposition 2.2.7 Soient A et B deux événements indépendants alors Ac et B sont indépendants, ainsi que A et B c et Ac et B c .
Démonstration. Laissée en exercice.
On généralise maintenant la notion d'indépendance à une famille d'événements :
Dénition 2.2.3 (Indépendance mutuelle) Soit une famille (Ai , i ∈ I) d'événements. On
dit qu'elle est formée d'événements (mutuellement) indépendants si pour toute sous famille nie
i1 , i2 , ..., ip de I on a :
!
P
p
\
Aik
k=1
P(Aik ).
k=1
Ai et Aj pour tout i 6= j n'implique pas l'indé(Ai , i ∈ I). Donnons un contre-exemple : Ω = {1, 2, 3, 4}, muni de la
Considérer A = {1, 2}, B = {1, 3}, C = {2, 3}.
Attention à bien noter que l'indépendance de
pendance de la famille
probabilité uniforme.
=
p
Y
26
2.3
CHAPITRE 2.
ESPACES PROBABILISÉS
Variables aléatoires : notion de loi et de moments
On a vu dans la section précédente, les dicultés que le choix de l'univers pouvait impliquer.
Dans la plupart des cas, on se concentre sur les événements que l'on souhaite étudier. Plus
généralement, on dénit la notion de variables aléatoires dénies sur un espace
Une variable aléatoire est une
aléatoire. On rappelle que
les pavés
Qn
i=1 ]ai , bi [.
Ω
abstrait.
application dont la valeur dépend du résultat de l'expérience
B(Rd )
est la tribu des boréliens, c'est à dire la tribu engendrée par
Dénition 2.3.1 Une variable aléatoire X est une application
X : ω ∈ Ω 7→ X(ω) ∈ Rd
telle que pour tout A ∈ B(Rd )
X −1 (A) = {ω ∈ Ω; X(ω) ∈ A} ∈ F.
Cela correspond à la notion de mesurabilité :
X
est une fonction
(2.1)
F -mesurable
à valeurs dans
X tombe
X ∈ B .
l'espace euclidien. En probabilité, cela signie que l'on peut étudier l'événement dans
Qn
i=1 [ai , bi ] . Pour tout
d
B ∈ B(R ),
on identiera l'événement
X
−1
(B)
avec
On admet la proposition suivante issue de la théorie de la mesure.
Proposition 2.3.1 L0 (Ω, F) l'ensemble des variables aléatoires à valeurs dans l'espace euclidien Rd est un espace vectoriel.
Exemple 2.3.1 (Fonction indicatrice) Soit A un événement. On dénit
1A : ω 7→

 1 si ω ∈ A

0 sinon.
Exemple 2.3.2 On lance une échette sur une cible et cherche à connaître la distance entre
la échette et le centre de la cible. On pose Ω = R2 et
X : w = (x, y) 7→
p
x2 + y 2 .
X est une fonction continue (donc mesurable) et vérie la condition 2.1.
Remarque 2.3.1 Lorsque l'on peut prendre F = P(Ω) (par exemple, lorsque Ω est ni, et que
l'on souhaite que tous les événements élémentaires soient dans la tribu) alors la condition 2.1
est toujours vraie.
Proposition 2.3.2 L'ensemble des variables aléatoires dénies sur un même espace (Ω, F)
forme une algèbre : en particulier la somme et le produit de deux variables aléatoires sont des
variables aléatoires.
2.3.
VARIABLES ALÉATOIRES : NOTION DE LOI ET DE MOMENTS
27
2.3.1 Loi d'une variable aléatoire
Le plus souvent, (typiquement lorsque la variable aléatoire prend un nombre inni de valeurs),
lorsque l'on étudie la variable aléatoire
bilité avec laquelle
caractérisée par sa
X,
X se répartit dans les
fonction de répartition
on n'étudie pas
X(ω)
en chaque
boréliens. La variable aléatoire
ou par sa
loi.
X
ω,
mais la proba-
est ainsi souvent
Dénition 2.3.2 On appelle loi ou distribution d'une variable aléatoire X dénie sur un espace
probabilisé (Ω, F, P), l'application
PX : B ∈ B(Rd ) 7→ P(X −1 (B)).
On a le résultat fondamental suivant :
Proposition 2.3.3 L'application PX est une probabilité sur (Rd , B(Rd )).
Démonstration. A faire en cours.
Exemple 2.3.3 (jeu de dé) On joue au jeu suivant : on lance un dé équilibré. On réalise un
gain nul si on obtient 1, 1 euro si on obtient 2, 3 ou 4 et 2 euros si le résultat est 5 et 4 euros
si le résultat est 6. On dénit la variable aléatoire X donnant le montant du gain. Déterminer
sa loi.
Proposition 2.3.4 Si X est une variable aléatoire sur (Ω, F). Soit g une fonction continue
par morceaux sur X(Ω) alors l'application g ◦ X est une variable aléatoire. On la note souvent
g(X).
2.3.2 Fonctions de répartition et indépendance
On se place dans le cas des variables aléatoires réelles : c'est à dire à valeurs dans
R.
souvent v.a.r pour variable aléatoire réelle.
Dénition 2.3.3 On appelle fonction de répartition de X , l'application :
F : x ∈ R 7→ P(X ≤ x).
Comme mentionné précédemment l'événement X ≤x
s'identie à
X −1 (] − ∞, x]).
Proposition 2.3.5 Toute fonction de répartition vérie les propriétés suivantes :
1.
2.
3.
4.
F est croissante
lim F (x) = 0 et lim F (x) = 1
x→−∞
x→+∞
F est continue à droite en tout point de R
F a une limite à gauche en tout point x de R, et
∀x ∈ R, F (x) − F (x−) = P[X = x]
où F (x−) = lim F (t).
t→x;t<x
5. L'ensemble des points de discontinuité de F est au plus dénombrable.
On note
28
CHAPITRE 2.
ESPACES PROBABILISÉS
La fonction de répartition peut être dénie pour des vecteurs aléatoires, en
prenant la relation d'ordre (x1 , ..., xp ) ≤ (x01 , ..., x0p ) si xi ≤ x0i pour i ∈ [|1, n|]
Remarque 2.3.2
Démonstration.
1. Soit
2.
y ≥ x, F (y) − F (x) = P[x < X ≤ y] ≥ 0
An = X −1 (] − ∞, n])T
, (An , n ≥ 1) est une suite décroissante
T∞
∞
monotone : lim P(An ) = P(
k=1 Ak ), or
k=1 Ak = ∅ donc
F (−n) = P(X ∈] − ∞, n]).
d'événements. Par limite
Soit
n→∞
lim P(An ) = lim F (−n) = 0.
F
étant une fonction monotone, on a
3. Comme
F
limx→−∞ F (x) = limn→−∞ F (n).
est monotone (croissante), pour montrer que
de montrer que
1
) −→
n n→∞
F (x +
décroissante, donc la suite
F (x).
La suite d'événements
(P(An ), n ≥ 1)
lim P(An ) = P
n→∞
F
∞
\
est continue à droite, il sut
An := X −1 ] − ∞, x + n1 ]
est
converge et
!
= P(X −1 (] − ∞, x]) = F (x).
An
n=1
F x − n1 , on cherche à montrer
que cette suite a une limite quand n
−1
] − ∞, x − n1 ] . La suite (An , n ≥ 1) est croissante donc
note An = X
4. A nouveau, on étudie
+∞. On
P(An , n ≥ 1) converge
tend vers
et sa limite est
P
∞
[
!
An .
n=1
On a
S∞
n=1
An = X −1 (] − ∞, x[),
par suite
lim F (x −
n→∞
La fonction
F
1
) = P(X < x).
n
a donc une limite à gauche en
x,
elle vaut
P(X < x).
De plus on a
F (x) − lim− F (t) = P(X ≤ x) − P(X < x) = P(X = x).
t→x
5. On note
Dn := {x0
tel que
lim F (x) − F (x0 ) ≥
x→x+
0
1
}. Comme
n
F
est croissante et comprise
S0∞et 1, Dn contient au plus n éléments. Soit D l'ensemble des points
D = n=1 Dn , donc D est une union dénombrable d'ensembles nis. entre
de discontinuité,
Le théorème suivant nous dit que si les propriétés 1, 2, 3 sont vériées alors la fonction
la fonction de répartition d'une variable aléatoire réelle.
Théorème 2.3.6 Toute fonction F : R 7→ [0, 1] telle que
1. F est croissante
F
est
2.3.
VARIABLES ALÉATOIRES : NOTION DE LOI ET DE MOMENTS
29
2. lim F (x) = 0 et lim F (x) = 1
x→−∞
x→+∞
3. F est continue à droite en tout point de R
est la fonction de répartition d'une variable aléatoire réelle.
Proposition 2.3.7 La fonction de répartition de X caractérise sa loi.
Démonstration. Pour tout x < y , PX (]x, y]) = F (y) − F (x), donc F
types
donne PX sur les parties du
]x, y], comme ces parties engendrent la tribu borélienne, cela caractérise PX sur tout B(R).
Le terme variable aléatoire est particulièrement utilisé pour des variables réelles. Lorsque
à valeurs dans
Lorsque
d ≥ 2,
d
R
X
est
, on parle plus couramment de vecteurs aléatoires.
la dénition générale (Dénition 2.3.1) correspond à la dénition d'un vecteur
aléatoire. De façon équivalente, un vecteur aléatoire est une application


X1 (ω)
 X2 (ω) 


 . 

X : ω ∈ Ω 7→ 
 . 


 . 
Xn (ω)
où chaque
Xi
est une v.a.r.
On introduit maintenant
l'indépendance des variables aléatoires.
Dénition 2.3.4 Deux variables aléatoires X et Y sont indépendantes si P(X ∈ A et Y ∈
B) = P(X ∈ A)P(Y ∈ B) pour tous A, B boréliens.
Dénition 2.3.5 (indépendance mutuelle) (Xi , i ∈ I) est une famille de variables aléa-
toires indépendantes si pour toute sous-famille {i1 , ..., ip } nie de I , on a, pour toute famille de
boréliens (Bk )1≤k≤p
!
P
p
\
(Xik ∈ Bk )
k=1
Exemple fondamental : si
A et B
=
p
Y
k=1
P(Xik ∈ Bk ).
sont deux événements indépendants alors
1A
et
1B
sont deux
variables aléatoires indépendantes.
L'indépendance correspond à une structure produit cachée . Pour construire deux variables
indépendantes sur un même espace probabilisé. On peut munir le produit cartésien
de la probabilité produit
PX ⊗ PY
dénie par
PX ⊗ PY (]a, b]×]c, d]) = PX (]a, b])PY (]c, d])
pour tout
Critère d'indépendance : Si


X1 (ω)
 X2 (ω) 


 . 

X : ω ∈ Ω 7→ 
 . 


 . 
Xn (ω)
a < b, c < d.
X(Ω)×Y (Ω)
30
CHAPITRE 2.
alors
X1 , ..., Xn
2.4
sont indépendantes si et seulement si
ESPACES PROBABILISÉS
P(X1 ,...,Xn ) = PX1 ⊗ PX2 ⊗ ... ⊗ PXn .
Exercices
Exercice 2.4.1 (Univers) Proposer un univers Ω pour chacune des expériences suivantes :
1) On lance deux dés. Etant donné que le premier dé donne 3, quelle est la probabilité que le
total des deux dés dépasse 6 ?
2) On lance un dé rouge et un dé bleu et on observe les points donnés par chacun d'eux
3) On tire une pièce plusieurs fois jusqu'à obtenir face pour la première fois. On observe combien de lancers on doit faire. Soit A : on obtient face après un nombre pair de lancers . A
est il un événement ?
Exercice 2.4.2
Exprimer chacun des événements suivants à l'aide des opérations de complé-
mentation, union et intersection :
A
et
B
se réalisent, mais pas
C
;
A , B , C se réalise ;
au plus un des trois événements A , B , C se réalise ;
aucun des trois événements A , B , C ne se réalise ;
les trois événements A , B , C se réalisent .
au moins un des trois événements
Exercice 2.4.3 (#) Trois usines pharmaceutiques A, B, et C produisent respectivement 40%,
35% et 25% du nombre total de comprimés achetés par un grossiste. Chacune de ces usines
produit respectivement 5, 6, et 3% de comprimés défectueux. Le qualiticien de l'entreprise reçoit
une nouvelle livraison.
1. Déterminer les probabilités des diérentes possibilités suivantes : provenir de A et être
défectueux, provenir de A et être conforme, provenir de B et être défectueux, provenir de
B et être conforme, provenir de C et être défectueux, provenir de C et être conforme.
2. Dans cette livraison, on prend un comprimé au hasard. Quelle est la probabilité p1 pour
qu'il soit défectueux ? Quelle est la probabilité p2 pour qu'il soit conforme ?
3. Dans cette livraison, on prend un comprimé au hasard, on constate qu'il est défectueux.
Quelle est la probabilité qu'il ait été fabriqué dans l'usine A ?
Solution. Réécrivons l'énoncé "mathématiquement". Notons D (resp. Dc ) l'événement "le comP(A) = 40/100, P(B) = 35/100
P(D|A) = 5/100, P(D|B) = 6/100 et P(D|C) = 3/100.
primé est défectueux (resp. non défectueux)". On a
25/100.
1.
2.
3.
De plus,
et
P(C) =
P(A ∩ D) = P(D|A)P(A) = 2/100 ; P(A ∩ Dc ) = P(A) − P(A ∩ D) = 38/100.
P(B ∩ D) = 2, 1% ; P(B ∩ Dc ) = 32, 9%.
P(C ∩ D) = 0.75% ; P(C ∩ Dc ) = 24, 25%.
p1 = P(D) = P(A ∩ D) + P(B ∩ D) + P(C ∩ D) = 4, 85% ; P(Dc ) = 95, 15%.
p2 = P(A|D) = P(A ∩ D)/P(D) ' 41%.
Exercice 2.4.4 Une urne contient cinq boules roules et trois boules noires. On tire au hasard
une boule.
Si cette boule est noire, on arrête le jeu. Si cette boule est rouge, on replace la boule dans le
sac, on ajoute deux boules rouges et on procède à un deuxième tirage.
2.4.
EXERCICES
31
1) Représenter l'expérience à l'aide d'un arbre pondéré.
2) Quelle est la probabilité de tirer deux boules rouges ?
Exercice 2.4.5 (Allèle) On suppose qu'un gène est formé de deux allèles A et a. Un individu
peut avoir l'un des trois génotypes AA, Aa, aa.
Un enfant hérite d'un allèle de chacun de ses parents, chacun d'eux étant choisi au hasard. Par
exemple si le père est de type Aa, et la mère AA, alors les enfants peuvent être du types AA ou
Aa.
On considère une population dont les proportions des génotypes pour les hommes comme pour
les femmes sont de p0 pour AA, q0 pour Aa, r0 pour aa.
1) On suppose que le génotype de l'enfant est formé au hasard, on le note (x, y) avec x le
génotype de son père et y celui de sa mère.
a) Quelle est la probabilité qu'un enfant ait deux parents de type AA ?
b) un parent de type AA et un parent de type Aa ?
c) deux parents de type Aa ?
2) quelle est la probabilité que l'enfant soit de type AA sachant que :
a) les deux parents sont de type AA ?
b) un des deux parents est de type AA et l'autre de type Aa ?
c) les deux parents sont de types Aa ?
3)-a Calculer la probabilité p1 pour que l'enfant soit de type AA
b) calculer la probabilité r1 pour que l'enfant soit de type aa
c) calculer la probabilité q1 que l'enfant soit de type Aa
Exercice 2.4.6 (Rats) On fait une expérience sur le comportement des rats. Ils doivent choi-
sir entre 4 portes d'apparence identique. En réalité une seule porte est la bonne (et permet au
rat de sortir), les deux autres portes ramènent le rat a son point de départ. L'expérience a lieu
jusqu'à ce que le rat sorte. On suppose qu'il évite les portes choisies auparavant et qu'il choisit
de façon équiprobable entre celles qu'il n'a pas encore ouvertes.
Soient les événements :
S1 = le rat sort la première fois. S2 = le rat sort la deuxième fois. S3 = le rat sort la troisième fois. S4 = le rat sort la quatrième fois. Construire un arbre pondéré et donner la probabilité de chacun des événements.
Exercice 2.4.7 (Kids) Une famille a deux enfants. On cherche la probabilité que les deux
enfants soient des garçons, sachant qu'au moins est un garçon ?
1) Prenons en compte l'âge des enfants : le plus jeune et le plus âgé peuvent être chacun des
garçons. Donner l'univers. On suppose que chaque conguration a la même probabilité.
2) Calculer la probabilité.
3) Sachant maintenant que le plus jeune enfant est un garçon, quelle est la probabilité que les
deux soient des garçons ?
32
CHAPITRE 2.
ESPACES PROBABILISÉS
Exercice 2.4.8 (Urnes #) On considère deux urnes. Chaque urne contient des boules colo-
rées. La première urne contient 2 boules blanches et 3 boules noires. La deuxième urne contient
3 blanches et 4 noires. On tire une boule au hasard dans la première urne et on la place dans
la deuxième. On suppose que toutes les boules ont la même chance d'être tirée (rappeler le nom
de cette hypothèse). On tire alors au hasard une boule dans la deuxième urne et on l'examine.
Quelle est la probabilité que la boule soit noire ?
Correction. On note les urnes I et II. L'événement qui nous intéresse est
A=
la boule tirée dans II est noire On va utiliser la formule des probabilités totales. Soit
B
.
l'événement, on a tiré une boule
noire dans l'urne I D'après
la formule des probabilités totales, on a :
P[A] = P[A|B]P[B] + P[A|B c ]P[B c ].
Sachant qu'on a tiré une boule noire dans la première urne (notée I) ; la probabilité que l'on
tire une noire dans la deuxième (notée II) est
P[A|B c ] =
4
8
=
1
et
2
P[B] = 53 .
P[A|B] =
P[A∩B]
P[B]
=
5
8
Donc,
23
5 3 12
= .
P[A] = . +
8 5 25
40
Exercice 2.4.9
Un domino est un rectangle comportant deux parties
parties gurent entre
0
et
6
points. Les dominos
[i|j]
et
[j|i]
[i|j]. Sur chacune de ces
ne sont pas distingués.
1. Combien de dominos diérents peut-on ainsi obtenir ?
2. On suppose que l'on a un jeu complet de dominos. On prend l'un de ces dominos au
hasard.
(a) Quelle est la probabilité que ce soit un double ?
(b) Quelle est la probabilité que la somme des points soit 6 ?
(c) Quelle est la probabilité que ce soit un double si l'on sait que la somme des points
vaut 6 ?
3. On retire du jeu les dominos dont la somme des points est 6, et on en tire un parmi les
dominos restants. Quelle est la probabilité que ce soit un double ?
4. On dit que des dominos sont amis si l'une de leurs parties a le même nombre de points. A
partir du jeu complet, on tire deux dominos. Quelle est la probabilité qu'ils soient amis ?
Exercice 2.4.10 (Poker #) On joue au poker avec un jeu de 32 cartes. Il y a donc
4 couleurs : carreau, trèe, pique et coeur.
8 hauteurs : 7, 8, 9, 10, valet, dame, roi, as.
Chaque joueur reçoit 5 cartes. Quelle est la probabilité qu'un joueur ait :
1)
2)
3)
4)
un carré : quatre cartes de même hauteur
un brelan : trois cartes de même hauteur
une paire : deux cartes de même hauteur
deux paires
2.4.
EXERCICES
33
5) un full (brelan+ paire) ?
Solution.
sons de
5
L'univers
Ω
est l'ensemble des mains possibles, c'est-à-dire l'ensemble des combinai-
éléments parmi
dit on munit
Ω
32.
On suppose que toutes les mains sont équiprobables, autrement
de la probabilité uniforme
P(A) =
card (A)
card (Ω) .
1) Déterminons le cardinal de l'ensemble correspondant à l'événement
A = le
joueur possède
un carré. Choix de la hauteur :
Choix de la couleur :
8
1
4
4
= 8 (on choisit un élément parmi 8)
= 1 (on choisit une couleur diérente
pour chaque carte : deux
cartes de même hauteur et de même couleur sont identiques !)
7
1
Choix de la hauteur de la 5ème carte :
=7
: il n'y a que 4 cartes de chaque hauteur,
une fois choisie la hauteur du carré, il reste seulement 7 hauteurs potentielles
4
= 4.
1
8×1×7×4
Choix de la couleur de l a 5ème carte :
On a donc
2) Soit l'événement
A = le
P(A) =
Choix de la couleur :
3
=
224
201376
≈ 0, 00111.
joueur possède un brelan. 8
1
Choix de la hauteur des trois cartes :
4
(325)
=8
(on choisit un élément parmi 8)
= 4 (on choisit trois couleurs diérentes pour chaque carte : deux
cartes de même hauteur et de même couleur sont identiques !)
Choix de la hauteur des cartes restantes :
7
2
: (les deux cartes restantes sont d'une hauteur
diérente, sinon nous aurions un full).
42 .
P(A) =
Choix de la couleur des cartes restantes :
On a donc
3) Soit l'événement
A = lejoueur
8×4×(72)×42
(325)
.
possède une paire. 8
Choix des hauteurs :
(on choisit 1 élément parmi 8)
1
4
Choix des couleurs :
(on choisit deux couleurs diérentes pour chaque carte)
2
7
Choix des hauteurs des cartes restantes :
: (les cartes restantes sont d'une hauteur
3
diérente, sinon nous aurions au moins un brelan).
43 . 8 4 7
( )×( )×( )×43
.
P(A) = 1 2 32 3
(5)
Choix de la couleur des cartes restantes :
On a donc
4) Soit l'événement
A = lejoueur
possède deux paires. 8
Choix des hauteurs :
(on choisit deux éléments parmi 8)
2
4 2
Choix des couleurs :
(on choisit deux couleurs diérentes pour chaque paire)
2
6
Choix de la hauteur de la carte restante :
: (la carte restante est d'une hauteur diérente,
1
sinon nous aurions un full).
Choix de la couleur de la carte restante :
On a donc
5) Soit l'événement
A = lejoueur
4.
P(A) =
2
(82)×(42) ×(61)×4
.
(325)
possède un full. 8
(on choisit un élément parmi 8)
1
4
Choix des couleurs :
3
7
Choix de la hauteur des cartes restantes :
: (les cartes restantes sont d'une hauteur
1
Choix des hauteurs :
diérente, sinon nous aurions un carré).
Choix des couleurs de la paire
4
.
2
On a donc
P(A) =
(81)×(43)×(71)×(42)
.
(325)
34
CHAPITRE 2.
ESPACES PROBABILISÉS
Exercice 2.4.11 Les coecients a, b, c de l'équation quadratique ax2 + bx + c = 0 sont détermines en lançant trois fois un de équilibré. Quelle est la probabilité que les racines soient
réelles ? Complexes non réelles ?
Exercice 2.4.12
Un antivirus assure avec une abilité de
a = 95%
la détection d'un malware
M lorsqu'il est eectivement présent. Cependant, le test indique aussi un résultat faussement
b = 1% des systèmes réellement sains à qui on l'applique. On suppose qu 'une
proportion p = 0.5% des systèmes ont le malware M.
1) En considérant que les paramètres a, b et p sont des probabilités, déterminer la probabilité
"positif" pour
qu'un système soit vraiment atteint sachant qu'il a un test positif ?
2) On suppose maintenant que
a, b
et
p
sont dénis comme ci dessus mais qu'on ne connait
plus leur valeur numérique. A quelles conditions sur ces valeurs le test est-il utile ?
Exercice 2.4.13
Pour lutter contre les spams, les messageries ont mis en place des techniques
en repérant certains mots ou expressions
{merveilleux ;
On dit qu'il y a
détection
2
pouvant gurer dans les emails : par exemple
gratuit ; argent ; vous avez gagné ; cadeau
}.
si cette famille de mots est présente dans le mail. Le ltre fonctionne
alors de la façon suivante :
Si
sachant qu'il y a détection, la probabilité d'être un spam dépasse le seuil de 90%, l'email
est déplacé dans les courriers indésirables. Sinon il n'est pas déplacé.
1) On suppose qu'il n'y a qu'un seul mot dans la famille. Soient les événements
et
S = spam .
D= détection Redémontrer la formule de Bayes
PD [S] =
PS (D)P(S)
.
PS (D)P(S) + PS̄ (D)P(S̄)
2) Lors de la phase d'apprentissage (lorsque vous indiquez à votre messagerie qu'un email est
indésirable) ; l'anti-spam compte le nombre de spams contenant le mot. On suppose qu'il
y a 70% des spams qui contiennent le mot, et 15% des non-spams qui le contiennent. En
approchant les probabilités par ces quantités que valent
On suppose
P(S) = 0.7.
PS (D)
et
PS̄ (D) ?
Dans ces conditions si vous recevez un email contenant ce mot sera-
t-il déplacé dans les courriers indésirables ? L'est-il si
P(S) = 0.5 ?
i ∈ {1, .., n}, on appelle Mi
(S ∩ Mi )i≥1 sont
indépendants, ainsi que les événements (S̄ ∩ Mi )i≥1 . L'événement de détection D correspond
à avoir tous les mots dans le mail : M1 ∩ M2 ∩ ... ∩ Mn . On note pi = PS (Mi ) , qi = PS̄ (Mi )
et s = P(S), démontrer que :
3) On considère maintenant une famille de
n
mots. Pour tout
l'événement le i-ème mot est présent . On suppose que les événements
PD [S] =
sn p1 p2 ...pn
.
sn p1 p2 ...pn + (1 − s)n q1 q2 ...qn
Indication : remarquer que M1 ∩ M2 ∩ S = M1 ∩ S ∩ M2 ∩ S .
2. A plan for spam http ://www.paulgraham.com/spam.html, voir aussi ltrage bayésien anti-spam dans
wikipedia (qui contient des erreurs de maths !)
2.4.
EXERCICES
35
4) On suppose qu'il y a les 5 mots et expressions suivants dans notre ltre.
Si
Mot :
merveilleux
argent
gratuit
cadeau
vous avez gagné
parmi les spams :
70%
75%
40%
60%
85%
parmi les non-spams :
30%
15%
10%
60%
2%
s = 0.5,
un mail contenant ces 5 mots sera-t'il déplacé en indésirable ? Qu'en est-il s'il
contient seulement les mots argent et gratuit ?
Exercice 2.4.14 Montrer que la probabilité qu'exactement un des événements A et B se réalise
est
P[A] + P[B] − 2P[A ∩ B]
Exercice 2.4.15 Montrer que
P
n
[
i=1
!
Ai
≥
n
X
i=1
P(Ai ) −
X
1≤i<k≤n
P(Ai ∩ Ak )
Exercice 2.4.16 Calculer la probabilité qu'une main de 13 cartes tirée à partir d'un paquet de
52 cartes contienne exactement deux rois et un as. Quelle est la probabilité qu'elle contienne
exactement un as sachant qu'elle contient un roi ?
On rappelle qu'il y a 4 rois et 4 as dans un paquet.
Exercice 2.4.17 On tire un dé deux fois. Calculer les probabilités des événements suivants
a)
b)
c)
d)
Un 6 est réalisé exactement une fois.
Les deux numéros sont impairs
la somme des numéros est 4
la somme des numéros est divisible par 3 ?
Exercice 2.4.18 On dispose de deux pièces A et B .
La pièce A est équilibrée, au sens où elle donne face et pile avec probabilité 21 .
La pièce B donne face avec probabilité p et pile avec probabilité 1 − p
On eectue une succession de lancers selon le procédé suivant :
On choisit une des deux pièces A, B au hasard, on la lance
A chaque lancer, si on obtient face, on garde la pièce pour le lancer suivant, sinon on change
de pièce.
Pour tout entier naturel, on note An l'événement
le n-ième lancer se fait avec la pièce A Soit an = P[An ], étudier la suite (an , n ≥ 1) et commenter vos résultats.
Exercice 2.4.19
bilité d'obtenir
6
On dispose de deux dés, l'un honnête , et l'autre pipé pour lequel la probaest
1/3
tandis que les autres faces ont toutes la même probabilité.
1) On choisit un dé au hasard et on le lance. Quelle est la probabilité de faire
2) On choisit un dé au hasard et on le lance
une fois
4
6?
fois. Quelle est la probabilité d'obtenir au moins
6?
3) On joue
4
fois en choisissant chaque fois au hasard l'un des dés. Quelle est la probabilité
d'obtenir au moins une fois
6?
36
CHAPITRE 2.
Exercice 2.4.20
On note
Ω
l'ensemble des huit résultats de trois lancers successifs d'une
pièce de monnaie et on considère les deux événements suivants :
pile",
B ="pile
équibrobables,
ESPACES PROBABILISÉS
A="le
premier jet donne un
est amené au moins deux fois. Si on suppose que tous les éléments de
A
et
B
Ω
sont
sont-ils indépendants ?
Exercice 2.4.21 Montrer que si F et G sont des fonctions de répartition alors pour tout
λ ∈ (0, 1), λF + (1 − λ)G est une fonction de répartition.
Exercice 2.4.22 Soit X une variable aléatoire réelle. Donner les fonctions de répartitions des
valeurs aléatoires suivantes :
X + = max{0, X}, X − = − min{0, X}, |X| = X + + X − , −X
Exercice 2.4.23 On appelle médiane, un réel m tel que
limF (y) ≤
y↑m
1
≤ F (m).
2
Montrer que toute fonction de répartition a au moins une médiane. Montrer que l'ensemble des
médianes est un intervalle fermé de R
Exercice 2.4.24 Soient Xet Y deux variables aléatoires 
réelles de fonctions de répartition F
et G dénies par : F (x) =
 0 si x < −1
 0 si x ≤ 0
1
x2 si 0 ≤ x ≤ 21 .
si
−
1
≤
x
<
2.
G(x)
=
 3

1 si x ≥ 2
1 − 34 e1/2−x si x ≥
1
2
1) Déterminer les réels x et y tels que P[X = x] > 0, et P[Y = y] > 0.
2) Déterminer la fonction de répartition de aX + b où a > 0.
3) On suppose que X et Y sont indépendantes. Déterminer les fonctions de répartitions de
max(X, Y ) et min(X, Y ).
Exercice 2.4.25 Soient F et G deux tribus.
1)
2)
3)
4)
Soit A ∈ P(Ω), montrer que {∅, Ω, A, Ac } est une tribu.
Soient A et B des éléments de F , montrer que A ∩ B , A \ B appartiennent à F .
Montrer que F ∩ G est une tribu.
Montrer que F ∪ G n'est pas forcément une tribu.
Chapitre 3
Variables aléatoires discrètes
Dans ce chapitre, nous étudions les probabilités
discrètes. Les exemples étudiés précédemment
sont pour la ma jorité des exemples discrets. Nous avons déjà vu que le dénombrement joue une
rôle important.
3.1
Généralités
Dénition 3.1.1 Une v.a.r X est discrète si X(Ω) est au plus dénombrable.
Remarque 3.1.1 Cela ne signie pas forcément que X est à valeurs dans les entiers. La variable peut prendre ses valeurs dans un sous-ensemble dénombrable de R tel que Q.
3.1.1 Loi et fonction de répartition
Soit
X
une variable discrète,
X(Ω) = {xi , i ∈ I}.
PX (B) = P(X ∈ B) = P
[
i;xi ∈B
La loi de
X , PX
est déterminée par
!
{X = xi }
=
X
P(X = xi )
avec
i;xi ∈B
B ⊂ X(Ω)
. Finalement la loi d'une variable discrète est déterminée par l'ensemble des valeurs prises
et par les valeurs
P(X = xi ).
X(Ω)
Il est important de noter que l'on a toujours
X
P(X = xi ) = 1.
i∈I
Inversement, on a la propriété suivante :
Proposition 3.1.1 Soit I une partie non videPde N. Soient (xi , i ∈ I) une famille de réels et
(pi , i ∈ I) une famille de réels positifs vériant
X(Ω) = {xi , i ∈ I}
∀i ∈ I , P(X = xi ) = pi .
i∈I
pi = 1. On peut dénir la variable X avec :
Exemple 3.1.1 Soit X une variable aléatoire à valeurs dans N telle que
∀n ∈ N, P(X = n) = e−1 n!1
Montrer que cela dénit bien une loi.
X est discrète, la fonction de répartition est une fonction
intervalle ]xi , xi+1 [ la fonction F : x 7→ P(X ≤ x) est constante.
Lorsque
37
en escalier : sur chaque
38
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
3.1.2 Espérance
La notion d'espérance correspond à celle de moyenne.
Dénition
3.1.2 Soit X une v.a.r discrète. Si X(Ω) = {xi , i ∈ I} avec I dénombrable, et si
P
i∈I
|xi |P[X = xi ] < ∞ alors l'espérance de X est dénie par
E(X) :=
X
xi P[X = xi ].
i∈I
Dans le cas où
I
est ni, l'hypothèse de convergence de la série est toujours vériée. Dans le
xi P[X = xi ] est absolument
l'espérance de X ne dépend pas de
cas inni dénombrable, on suppose que la série de terme général
convergente. L'absolue convergence de la série garantie que
l'ordre des
xi .
On rappelle qu'il existe des séries convergentes, non absolument convergentes,
dont la somme dépend de l'ordre pris sur ses termes. Penser à
P
1
n∈Z n ou
P
n≥1
(−1)n
qui sont
n
non absolument convergentes. Il faut bien comprendre que l'espérance n'existe pas toujours,
même dans le cas discret ! Si la variable aléatoire discrète est à valeurs positives alors son
espérance existe ou est innie.
Exemple 3.1.2 (Paradoxe de Saint Petersbourg) On tire une pièce, si elle tombe sur face
le jeu s'arrête, si elle tombe sur pile le joueur gagne deux fois sa mise et rejoue. On continue
ainsi de suite en doublant le gain du joueur à chaque fois qu'il rejoue. Imaginons qu'il ait misé
1 euro. Quelle est la loi de son gain ? Quelle mise maximale le joueur doit il accepter pour
jouer ?
On note X son gain. On a P(X = 2n ) = 21n pour n ∈ N? . On a bien
∞
X
P(X = 2n ) = 1.
n=1
On remarque
tout d'abord que la loi ne dépend pas de la mise de départ. De plus on a n≥1 2n P(X =
P
2n ] = n≥1 1 = ∞. Finalement, la moyenne du gain étant innie, le joueur devrait a priori
toujours jouer.
P
Proposition 3.1.2 Si X(Ω) possède un maximum et un minimum, alors E(X) existe et
xmin ≤ E[X] ≤ xmax
Démonstration. A faire.
Théorème 3.1.3 Soit Ω ni ou dénombrable, si la série est absolument convergente, on a
E[X] =
X
X(ω)P({ω}).
ω∈Ω
Démonstration. On note Ai = {ω ∈ Ω; X(ω)xi }. On a
P(X = xi ) = P(X −1 ({xi }) = P(Ai ) =
X
ω∈Ai
P({ω})
3.1.
GÉNÉRALITÉS
39
On a donc
X
xi P(X = xi ) =
XX
=
XX
i
i∈I
i
=
=
ω∈Ai
X
xi P({ω})
ω∈Ai
XX
i
P({ω})
X(ω)P({ω})
ω∈Ai
X(ω)P({ω})
ω∈Ω
Ce théorème est essentiel du point de vue théorique. Jusqu'à maintenant le rôle de l'univers était quelque peu caché puisque nous travaillions directement sur l'espace probabilisé
(X(Ω), B(R), PX ).
Dans la plupart des cas, les calculs sont plus simples sur ce triplet que sur
celui de l'univers. Néanmoins le théorème 3.1.3 permet de travailler avec diérentes variables
aléatoires simultanément.
Proposition 3.1.4 (linéarité) Soient X et Y deux variables aléatoires discrètes sur Ω. On
suppose qu'elles possèdent une espérance. Soit λ ∈ R. Alors, la variable aléatoire X + λY est
discrète et a pour espérance :
E[X + λY ] = E[X] + λE[Y ].
Démonstration. La série
P
ω∈Ω (X(ω) + λY
(ω))P({ω}) est absolument convergente car c'est une
somme de deux séries absolument convergentes (utiliser l'inégalité triangulaire). On a donc :
X
(X(ω) + λY (ω))P({ω}) =
ω∈Ω
X
X(ω)P({ω}) + λ
ω∈Ω
X
Y (ω)P({ω}) = E[X] + λE[Y ].
ω∈Ω
Le théorème 3.1.3 et la propriété 3.1.4 restent vrais pour toute variable aléatoire, pas forcément discrète, dénie sur n'importe quel univers
Ω.
Du point de vue de
mesure, l'espérance n'est rien d'autre que l'intégrale de X
contre la mesure
P
la théorie de la
:
Z
”E[X] =
X(ω)P(dω).”
Ω
Proposition 3.1.5 Soient X et Y deux variables aléatoires. Supposons que 0 ≤ X ≤ Y et que
Y admet un moment d'ordre 1. Alors X admet un moment d'ordre 1 et
E[X] ≤ E[Y ].
Démonstration. Laissée en exercice.
40
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
3.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance
Soit
X
g
une variable aléatoire discrète. Soit
une fonction continue par morceaux dénie sur
X(Ω), clairement la variable g ◦ X est une
(g ◦ X)(Ω) = {g(xi ), i ∈ I}. Le théorème suivant est très important.
un ensemble J contenant
variable discrète : on a
Théorème 3.1.6 (théorème de transfert)
E[g(X)] =
X
g(xi )P(X = xi )
i∈I
Démonstration. On note Ai = {ω ∈ Ω; X(ω) = xi }.
E[g(X)] =
X
g(X(ω))P({ω}) =
ω∈Ω
=
X
XX
g(xi )P({ω})
i∈I ω∈Ai
g(xi )
i∈I
X
P({ω}) =
ω∈Ai
X
g(xi )P(Ai ).
i∈I
Proposition 3.1.7 Soit g une fonction positive. Si E[g(X)] = 0 alors
P[g(X) = 0] = 1.
On dit que la variable g(X) est nulle presque-sûrement.
Démonstration.
P
E[g(X)] = i∈I g(xi )P[X = xi ] = 0. Comme g(xi )P[X = xi ] est positif,
tous les termes sont nuls et si P[X = xi ] > 0 alors g(xi ) = 0. Autrement dit g(x) = 0 si
S
S
{x
}
= 0, donc
x ∈ i∈I,P[X=xi ]>0 {xi }. On a de plus PX
i
i∈I,P[X=xi ]=0
On a


[
P
{xi } = 1
i∈I,P[X=xi ]>0
L'indépendance entre deux variables aléatoires
X, Y
peut s'exprimer avec l'opérateur d'es-
pérance.
Proposition 3.1.8 X et Y sont deux variables indépendantes si pour toutes fonctions f et g
continues bornées,
E[f (X)g(Y )] = E[f (X)]E[g(Y )]
Démonstration
Si
f
et
des fonctions
X et Y sont indépendantes alors la propriété est vraie par dénition pour
g simples. Toute fonction continue bornée est limite de fonctions simples.
Critère d'indépendance. Soient X et Y
et
Y (Ω) = {y1 , y2 , ...}. X
et
Y
deux variables discrètes telles que
sont indépendantes si
P(X = xi , Y = yj ) = P(X = xi )P(Y = yi ).
X(Ω) = {x1 , x2 , ...}
3.2.
LOIS DISCRÈTES USUELLES
41
3.1.4 Moments, variance et écart-type
Dénition 3.1.3 On appelle moment d'ordre k de X l'espérance si elle existe de la variable
X k avec k ≥ 2
On a d'après le théorème de transfert :
E[X k ] =
X
xki P(X = xi )
i∈I
Dénition 3.1.4 On appelle variance de X , l'espérance de (X − E[X])2 :
On a immédiatement
V(X) = E[(X − E[X])2 ].
P
2
V(X) =
i (xi − E[X]) P[X = xi ].
On mesure l'écart de la variable
aléatoire par rapport à sa moyenne. C'est une mesure de dispersion autour de
E(X).
Proposition 3.1.9 Si X admet une variance et V(X) = 0 alors X = 0 avec probabilité 1
Théorème 3.1.10 Si X possède un moment d'ordre 2 alors
V(X) = E(X 2 ) − E(X)2 .
3.2
Lois discrètes usuelles
On présente les lois classiques au programme.
Loi de Bernoulli
Dénition 3.2.1 Soit p ∈ [0, 1], X suit la loi de Bernoulli de paramètre p si
1. X(Ω) = {0, 1}
2. P(X = 1) = p et P(X = 0) = 1 − p
La fonction indicatrice d'un événement est une variable aléatoire qui suit une loi de Bernoulli.
Soit
A ∈ F , X = 1A
a pour loi, la loi de Bernoulli avec paramètre
Proposition 3.2.1 E(X) = p et V(X) = p(1 − p)
Loi uniforme sur [|1, n|]
Dénition 3.2.2 X a pour loi, la loi uniforme sur [|1, n|] si
1 X(Ω) = [|1, n|]
2 P(X = k) = n1 .
Proposition 3.2.2 On a E[X] =
n+1
2
et V(X) =
n2 −1
12
Démonstration. Utiliser les formules
n
X
k=
k=1
n
X
k=1
k2 =
n(n + 1)
2
n(n + 1)(2n + 1)
6
p = P(A).
42
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
Loi de Poisson
La variable aléatoire
X
suit une loi de Poisson de paramètre
λ
(loi sur
N)
si :
λk −λ
e .
k!
P[X = k] =
Il faut savoir calculer les moments !
E[X] =
∞
X
ke−λ
k=0
∞
X
λk
λk−1
=λ
= λe−λ eλ = λ.
e−λ
k!
(k
−
1)!
k=1
Plus généralement
E[X(X − 1)...(X − j + 1)] =
∞
X
k=0
=λ
k
k(k − 1)...(k − j + 1)e−λ
∞
X
∞
−λ
e
j=k
E[X 2 − X] = λ2 ,
On en déduit que
λk
k!
X
λj−k
λk
e−λ
= λk
= λk
(j − k)!
k!
j=0
d'où
E[X 2 ] = λ2 + λ
et
V(X) = λ.
Loi binomiale
On considère
n
tirages équiprobables indépendants dans un ensemble composé de deux types
d'éléments, le premier (I) en proportion
p,
le deuxième en proportion
nombre d'éléments du premier type tirés parmi l'échantillon de taille
X
n.
suit une loi binomiale. Supposons qu'à chaque élément échantillonné
la variable aléatoire
Yi
qui vaut
1
si
variables de Bernoulli de paramètre
q = 1 − p.
Soit
X
La variable aléatoire
i ∈ [|1, n|],
on associe
i est de type I, 0 sinon. Les variables aléatoires Yi sont des
p indépendantes. Il est évident que le nombre X d'éléments
de type (I) dans l'échantillon vérie :
X=
n
X
Yi
i=1
Dénition 3.2.3 Soient n ∈ N? et p ∈ [0, 1]. X suit la loi binomiale de paramètre n et p si
1. X(Ω) = [|0, n|]
2. P(X = k) =
On a
E[X] = np
n
k
pk (1 − p)n−k
et
le
V(X) = np(1 − p).
3.2.
LOIS DISCRÈTES USUELLES
43
Loi hypergéométrique
On a déjà rencontré cette loi dans le problème de contrôle de production 2.0.1. On redonne ici
l'expérience type menant à une loi hypergéométrique. On considère un tirage équiprobable
sans
remise de n éléments dans une population de taille N ≥ n. On s'intéresse à un type donné (I)
(par exemple
Np
(
défectueux ) d'éléments de la population, que l'on supposera être en proportion p
est donc un entier). Soit
taille
X
le nombre d'éléments de type I présents dans l'échantillon de
n.
Dénition 3.2.4 X suit une loi hypergéométrique de paramètres N, n, p si
N (1−p)
n−k
N
n
Np
k
P[X = k] =
avec max{0; n − N (1 − p)} ≤ k ≤ min{n, N p}.
Proposition 3.2.3 E[X] = np, V(X) =
N −n
np(1
N −1
Démonstration. Pour tout i ∈ [|1, N |], soit
0
1
i =
Il y a
i.
N
n
échantillons de taille
si
i
,
− p).
n'appartient pas à l'échantillon
sinon
n possibles
N −1
n−1
et
On a donc
échantillons possibles de taille
N −1
n−1
N
n
P[i = 1] =
=
n contenant
n
.
N
On peut écrire
X=
N
X
Yi i
i=1
où
Yi
prend la valeur
1
si
i
est de type I,
E[X] =
N
X
0
E[Yi i ] =
i=1
sinon. On en déduit :
N
X
E[Yi ]E[i ] =
i=1
De même, on calcule
V(X) =
(exercice)
N
X
n
p = np
N
i=1
N −n
np(1 − p).
N −1
Loi géométrique
On considère une population dont une proportion
p
est composée d'éléments de type I donné.
1 élément de ce type en procédant à une suite de tirage équiprobables et
Y le nombre de tirage nécessaires pour obtenir un élément de type I. La loi
?
géométrique de paramètre p sur N : c'est à dire :
On désire obtenir
indépendants : Soit
de
Y
est la loi
P[Y = k] = (1 − p)k−1 p
On a tiré
k−1
éléments de type II, le
k -ième
E[Y ] =
1
et
p
est de type I. Les moments sont
V(Y ) =
1−p
.
p2
44
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
Loi binomiale négative
n éléments de
type I. On note Y le nombre de tirages nécessaires pour avoir n éléments. L'événement {Y = k}
signie que k tirages ont donné un élément de type II, et n tirages ont donné un élément de
Il s'agit d'une généralisation de la loi géométrique. Cette fois ci on désire obtenir
n−1
, on en déduit :
n−1+k
type I (dont le dernier). Le nombre de choix possibles est
n−1
pn (1 − p)k .
n−1+k
P[Y = k] =
Moments :
E[X] = n 1−p
p
3.3
et
V(X) = n 1−p
.
p2
Vecteurs aléatoires discrets
3.3.1 Vecteurs aléatoires discrets : lois marginales, indépendance
Soit
X
X1 , X2 , ..., Xn ses


X1 (ω)
 X2 (ω) 


 . 

X : ω ∈ Ω 7→ 
 . .


 . 
Xn (ω)
un vecteur aléatoire discret. Soient
composantes, c'est à dire
Exemple 3.3.1 On lance deux fois un dé équilibré. On pose Ω = [|1, 6|]2 , F = P(Ω) et P la
probabilité uniforme. Soit X le vecteur aléatoire bi-dimensionnel :
X : ω ∈ Ω 7→
U (ω) = ω1 + ω2
.
V (ω) = max(ω1 , ω2 )
Exercice 3.3.1 Les variables U et V sont elles indépendantes ? Déterminer la loi de X .
Dénition 3.3.1 (Lois marginales) On appelle lois marginales de X , les lois de X1 , ..., Xn .
La loi de
X
est aussi appelée loi conjointe des
Xi , 1 ≤ i ≤ n.
Les propriétés suivantes se
généralisent au cas multidimensionnel, pour alléger les notations, on considère un vecteur bidimensionnel (
n = 2).
Soit
X = (U, V ).
La loi de
P(U = ui ) =
X
U
se déduit de la loi de
(U, V )
:
P(U = ui , V = vj ).
j∈I
Exercice 3.3.2 Reprenons le vecteur aléatoire de l'exemple précédent. Déterminer ses lois marginales.
La loi conditionnelle de
V
sachant
U = ui
est la donnée de
P(V = vj et U = ui )
vj ;
P(U = ui )
.
3.3.
VECTEURS ALÉATOIRES DISCRETS
45
Exercice 3.3.3 Déterminer la loi de U sachant V = 3.
Proposition 3.3.1 Soient X et Y deux v.a.r discrètes indépendantes possédant une espérance
E[XY ] = E[X]E[Y ].
Démonstration.
Proposition 3.3.2 (Admis) Si X1 , ...., Xn sont indépendantes, alors toute fonction de X1 , ..., Xp
est indépendantes de toute fonction de Xp+1 , ..., Xn .
3.3.2 Structure algébrique, covariance et corrélation
`0 (Ω, F, P) l'ensemble des variables aléatoires discrètes dénies sur un même espace
0
probabilisé (Ω, F, P). L'espace ` est un espace vectoriel pour la loi de composition interne + :
On note
(X + Y )
est l'élément de
`0
qui à
ω∈Ω
associe
X(ω) + Y (ω)
et la loi de composition externe scalaire :
∀λ ∈ R, (λ.X)(ω) = λX(ω).
Proposition 3.3.3 Soit `1 l'ensemble des variables aléatoires discrètes possédant une espérance, i.e
`1 = {X ∈ `0 ; E[|X|] < ∞}.
1) `1 est un sous-espace vectoriel de `0
2) E est une forme linéaire sur `1
Proposition 3.3.4 Soit `2P l'ensemble des éléments de `0P possédant un moment d'ordre 2, i.e
`2P = {X ∈ `0 ; E[X 2 ] < ∞}
`2P est un sous-espace vectoriel de `0P inclus dans `1P .
Démonstration. Utiliser ab ≤ 21 (a2 + b2 )
Dénition 3.3.2 (Covariance) On appelle covariance l'application
Cov : (X, Y ) ∈ `2 × `2 7→ E[XY ] − E[X]E[Y ].
Par dénition
Cov(X, X) = V(X).
On a également la propriété importante suivante :
Proposition 3.3.5
V
n
X
i=1
!
Xi
=
n
X
i=1
V(Xi ) + 2
X
Cov(Xi , Xj ).
1≤i<j≤n
Remarque 3.3.1 Cette formule est importante et se simplie lorsque Cov(Xi , Xj ) = 0 pour
tout i 6= j . On dit que les variables ne sont pas corrélées .
Proposition 3.3.6 Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))] .
46
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
On donne ici quelques propriétés d'algèbre bilinéaire associées à la covariance.
Théorème 3.3.7 L'application Cov est une forme bilinéaire symétrique positive sur `2P .
1) Symétrie :
Cov(X, Y ) = Cov(Y, X).
2) Bilinéarité : immédiat par linéarité de
3) Positivité :
E.
Cov(X, X) = E ((X − E(X))2 ) ≥ 0.
La covariance n'est
pas dénie-positive.
On a seulement que
Cov(X, X) = 0 =⇒ X
est
constante presque sûrement.
Remarque 3.3.2 Cov est un produit scalaire sur le sous-espace vectoriel des variables aléa-
toires centrées (c'est à dire d'espérance nulle), quotienté par la relation d'équivalence notée
"=" : X = Y ⇐⇒ X − Y = 0 avec probabilté 1. Nous ne rentrons pas dans les détails ici, mais
il faut reconnaître dans la notation `1P , `2P les espaces `p de la théorie des séries. En eet
dans le cadre des séries, on a
`p := {(xi , i ∈ N) ∈ RN :
Dans notre cadre,
est isomorphe à
`pP
X
i≥0
|xi |p < ∞}
correspond à l'espace `p où xi est muni du poids P[xi ]. Autrement dit : `pP
{(xi , i ∈ N? ) :
X
i≥1
|xi |p P(xi ) < ∞}.
Dénition 3.3.3 (Coecient de corrélation) Soient X et Y deux éléments de L2 de va-
riance strictement positives. On appelle coecient de corrélation linéaire le réel :
ρ(X, Y ) :=
Cov(X, Y )
.
σ(X)σ(Y )
On
p rappelle que σ(X) est l'écart-type de la variable aléatoire X , c'est à dire σ(X) =
Cov(X, X).
p
V(X) =
Remarque 3.3.3 On met en garde le lecteur quant à la non-transitivité de la corrélation :
ρ(X, Y ) > 0 et ρ(X, Z) > 0
n'implique pas
d'erreurs potentielles lors d'interprétation.
ρ(Y, Z) > 0. C'est assez contre-intuitif et source
Proposition 3.3.8 Quelque soit le couple (X, Y ) de variables aléatoires de L2 , on a :
Démonstration. Il faut démontrer
|ρ(X, Y )| ≤ 1
|Cov(X, Y )| ≤ σ(X)σ(Y ).
Soit
λ ∈ R,
on a
Le trinôme en
V(X + λY ) = V(X) + λ2 V(Y ) + 2λCov(X, Y ).
λ
à droite dans l'égalité ci-dessus est toujours positif puisque
On en déduit que son discriminant est négatif ou nul :
V(X + λY ) ≥ 0.
∆ = 4(Cov(X, Y ))2 − 4V(X)V(Y ) ≤ 0.
On en déduit donc le résultat.
Remarque 3.3.4 C'est la même preuve que celle de l'inégalité de Cauchy-Schwarz. Il faut
impérativement la connaître.
3.3.
VECTEURS ALÉATOIRES DISCRETS
47
3.3.3 Loi multinomiale
On commence par une généralisation du théorème binomiale : Soient
un entier. On a
X
(x1 + ... + xk )n =
n1 ,...,nk ;n1 +...nk
x1 , ..., xk k
réels, soit
n
n!
xn1 1 ...xnk k .
n
!n
!...n
!
k
=n 1 2
On note parfois
n
n1 , n2 , ..., nk
=
n!
n1 !n2 !...nk !
Ce nombre est le coecient multinomial. On passe maintenant à la loi multinomiale. Il s'agit
d'une généralisation de la loi binomiale. On considère
dans une population composée d'éléments de
m
X
m
n
tirages équiprobables, indépendants
types, chaque type
j
étant en proportion
pj
:
pj = 1.
j=1
j = 1, .., m, comme étant le nombre d'éléments de type
(N1 , ..., Nm ) suit une loi multinomiale de paramètre
M(n, n1 , ..., nm ).
On dénit la variable aléatoire
j gurant dans
n, p1 , ..., pm . On
Nj
pour
l'échantillon. Le vecteur
la notera
Dénition 3.3.4 Le vecteur aléatoire X = (N1 , ..., Nm ) suit une loi multinomiale de paramètres n, p1 , ..., pm si
P(X = (n1 , ..., nm )) =
où
Pm
i=1
ni = n,
n!
pn1 1 ...pnmm
n1 !...nm !
n!
n1 !...nm !
est le nombre de partitions de {1, ..., n} avec des sous-ensembles de cardinaux n1 , ..., nm .
Proposition 3.3.9 La j -ème loi marginale de X est une loi binomiale de paramètre n, pj
Un élément tiré au hasard est soit du type
probabilité
(1 − pj )
Aj
avec probabilité
: le nombre total d'éléments du type
loi binomiale de paramètre
l'événement
j
n, pj .
j
pj
soit d'un autre type avec
dans l'échantillon suit donc une
On va retrouver cela par le calcul. Soit
nj
xé. On dénit
déni par
Aj := {(n1 , ..., nj−1 , nj , nj+1 , ..., nm );
P[Nj = nj ] = P[X ∈ Aj ] =
X
Aj
X
i6=j
ni = n − nj }
n!
pn1 1 ...pnmm
n1 !...nm !
X
n!
(n − nj )!
n
pj j (1 − pj )n−nj
nj !(n − nj )!
n1 !...nj−1 !nj+1 !...nm !
Aj
n nj
=
pj (1 − pj )n−nj
=
nj
48
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
Nl , Nj , soient non corrélées, et a fortiori
indépendantes. On calcule la covariance de deux marginales Nj , Nl . Le couple (Nj , Nl ) suit une
loi multinomiale de paramètres : n, pj , pl , 1−(pj +pl ). En eet, lorsque l'on tire un échantillon de
taille n, chaque élément tiré est soit de type j avec probabilité pj , soit de type l avec probabilité
pl , soit d'un autre type avec probabilité 1 − (pj + pl ). On en déduit
Il n'y a aucune raison pour que les variables aléatoires
X
E[Nj Nl ] =
nj nl
(nj ,nl );nj +nl ≤n
X
=
(nj ,nl );nj +nl ≤n
n!
n
p j pnl (1 − pl − pj )n−nj −nl
nj !nl !(n − nj − nl )! j l
(n − 2)!
n −1
p j plnl −1 (1 − pl − pj )n−2−(nj −1)−(nl −1)
(nj − 1)!(nl − 1)!(n − 2 − (nj − 1) − (nl − 1))! j
× n(n − 1)pj pi
= n(n − 1)pj pl
ce qui n'est pas égal à
E[Nj ]E[Nl ] = n2 pj pl .
3.3.4 Somme de variables aléatoires indépendantes
Somme de variables de Bernoulli
Proposition 3.3.10 Soient X1 , ..., Xn n variables indépendantes de loi de Bernoulli de paramètre p. La variable aléatoire
Y =
n
X
Xi
i=1
suit une loi binomiale de paramètre (n, p).
Remarque 3.3.5 C'est de cette façon que nous avons introduit la loi binomiale au Chapitre
3. En fait nous allons voir que nous pouvons toujours construire une variable aléatoire de loi
binomiale comme somme de Bernoulli indépendantes.
Ce qui suit n'est pas clairement au programme, mais permet de comprendre l'indépendance. On
considère une variable de Bernoulli de paramètre
et note
S,
p
1. An de
n copies indépendantes :
l'événement la variable de Bernoulli réalise
façon indépendante, on va construire
On se place sur l'espace
(Ωn , F ⊗n , P⊗n )
la probabilité produit. On dénit
où
F ⊗n
et
(Ω, F, P). On appelle succès,
répéter n fois l'expérience, de
sur un espace
P⊗n
sont respectivement la tribu produit et
Xi : ω ∈ Ωn 7→ ωi .
Par dénition de la tribu produit
P⊗n ,
on a
P⊗n (Xi = 1) = P⊗n (Ω × Ω × ..., ×{S}, ×... × Ω)
= P(Ω) × P({S})... × P(Ω)
= P[{S}] = p.
Soit
(x1 , ..., xn ) ∈ {0, 1}n .
On a
P⊗n [X1 = x1 , ..., Xn = xn ] = P⊗n [X1 = x1 ]...P⊗n [Xn = xn ] = pk (1 − p)n−k
3.3.
VECTEURS ALÉATOIRES DISCRETS
kP
est le nombre
Y = ni=1 Xi suit la
où
P[Y = k] = (
de
xi , i ∈ [|1, |n]
valant
49
1.
On conclut immédiatement que la variable
loi suivante :
le nombre de façon de choisir
k
éléments parmi
k
n−k
n)×p (1−p)
n k
=
p (1−p)n−k .
k
Somme de variables binomiales
Proposition 3.3.11 Soient X1 , ..., Xk des variables aléatoires binomiales de paramètres respectifs (n1 , p), ..., (nk , p). La variable aléatoire
Y =
k
X
Xi
i=1
est une de loi binomiale de paramètre (
Pk
i=1
ni , p).
D'après la proposition précédente, chaque variable
Xi
est somme de
ni
variables de Bernoulli
indépendantes. On les numérote de la façon suivante :
X1 =
n1
X
Bi , X2 =
n2
X
Bi , ..., Xk =
i=n1 +1
i=1
nk
X
On a donc
Y =
k
X
Xi =
i=1
ni
X
k
X
Bi
i=n1 +...+nk−1 +1
Bj =
i=1 j=n1 +...+ni−1 +1
D'après la proposition précédente, on a donc que
Y
n1 +...+n
X k
Bl .
l=1
suit une loi binomiale de paramètre
(n1 +
... + nk , p).
Somme de variables de Poisson
Proposition 3.3.12 Soient X1 , ..., Xk des variables aléatoires dénies sur un même espace,
indépendantes de loi de Poisson de paramètre respectif λi . La variable aléatoire
Y =
k
X
Xi
i=1
suit une loi de Poisson de paramètre
On le fait dans le cas
donne donc
X1
et
X2
k = 2,
Pk
i=1
λi
et le soin de faire une récurrence sur
variables telles que
λj1 −λ1
P[X1 = j] = e
j!
P[X2 = l] =
λl2 −λ2
e
l!
k
est laissé au lecteur. On se
50
CHAPITRE 3.
On cherche à calculer
P[X1 + X2 = n].
P[X1 + X2 = n] = P
n
[
VARIABLES ALÉATOIRES DISCRÈTES
On a :
!
{X1 = i} ∩ {X2 = n − i}
i=0
=
=
n
X
i=0
n
X
i=0
n
X
P(X1 = i, X2 = n − i)
P(X1 = i)P(X2 = n − i)
λi1 −λ1 λn−i
2
e
e−λ2
i!
(n
−
i)!
i=0
n
n X
1 X n i n−i
(λ1 + λ2 )i
−(λ1 +λ2 )
=e
λ1 λ2 = e−(λ1 +λ2 )
.
i! i=0 i
i!
i=0
=
Un outil très important pour étudier plus généralement les sommes de variables aléatoires est
la notion de fonction génératrice. Cette notion n'est pas exigible mais apparaît implicitement
dans de nombreux exercices. Nous soulignons également qu'une fonction génératrice n'est rien
d'autre qu'une série entière (totalement au programme.) Soit
dans
N.
La fonction génératrice associée à
X
X
une variable aléatoire à valeurs
est dénie de la façon suivante :
X
GX : s ∈] − 1, 1[7→ E[s ] =
∞
X
sk P[X = k].
k=0
La fonction génératrice caractérise entièrement la loi.
Proposition 3.3.13 Soient X et Y deux variables aléatoires. X et Y ont même loi si et
seulement si GX = GY .
Démonstration. Que peut-on dire des coecients de deux séries entières égales ?
3.4
Exercices
Exercice 3.4.1 Soit n un entier ≥ 1. On considère l'expérience aléatoire qui consiste à lancer
successivement n fois un dé (équilibré) et à noter les n résultats obtenus (dans l'ordre).
1. Décrire l'univers Ω associé à cette expérience aléatoire. Déterminer le cardinal de Ω.
2. Calculer la probabilité de l'évènement A = on obtient au moins un 6 .
3. Démontrer que pour avoir une probabilité supérieure ou égale à 0, 9 d'obtenir au moins
un 6, il faut et il sut que :
n≥
ln(10)
ln(6) − ln(5)
Exercice 3.4.2 Une urne contient trois boules blanches et trois boules noires. On tire simultanément quatre boules de l'urne au hasard. Quelle est la probabilité qu'il y ait autant de blanches
que de noires ?
3.4.
EXERCICES
51
Exercice 3.4.3 On considère un jeu de échettes. La cible est un disque de rayon 3. Par
simplicité, nous supposons que le joueur atteint toujours la cible. Supposons que le centre de la
cible est situé à l'origine du plan R2 . Nous souhaitons étudier les emplacements des échettes
sur la cible. Nous supposons que la cible est divisée en trois cercles centrés à l'origine C1 , C2 , C3
de rayons respectifs 1, 2, 3. Ces cercles divisent la cible en trois anneaux A1 , A2 , A3 avec
Ak = {(x, y) ∈ R2 ; k − 1 ≤
p
x2 + y 2 < k}.
1) Donner un univers Ω.
2) On suppose que la probabilité de tomber dans un anneau est proportionnelle à son aire.
Calculer
P(A1 ), P(A2 ), P(A3 )
3) Soit maintenant X la variable aléatoire qui donne le nombre de points selon l'emplacement
de la échette. On suppose que la règle du jeu est la suivante : Si la échette tombe dans Ak
alors le joueur remporte 3 − k + 1 points. Calculer l'espérance de X
4) Donner la fonction de répartition de X et tracer la.
5) On suppose maintenant que le joueur n'atteint pas la cible avec une probabilité donnée p > 0.
On suppose que si le joueur atteint la cible alors il marque des points selon les mêmes règles
que précédemment. Sinon, il marque 0 point. Mêmes questions que précédemment.
Exercice 3.4.4 (Minimum de deux variables aléatoires géométriques) Dans cet exer-
cice, p désigne un réel de ]0; 1[ et q = 1 − p. On considère deux variables aléatoires X et Y ,
indépendantes, et suivant toutes deux la même loi géométrique de paramètre p.
1. Soit i ∈ N . En remarquant que (X ≤ i) =
?
i
[
(X = k), montrer que P(X > i) = q i .
k=1
2. Vérier que l'égalité précédente est encore vraie lorsque i = 0.
3. On dénit une variable aléatoire Z en posant Z = min(X, Y ), c'est-à-dire :
(
X
Z=
Y
si X ≤ Y
si Y < X
Expliquer pourquoi, pour tout i ∈ N :
(Z > i) = (X > i) ∩ (Y > i)
4. En déduire P (Z > i), pour i ∈ N.
5. Soit i ∈ N∗ . En utilisant le fait que (Z > i − 1) = (Z > i) ∪ (Z = i), calculer P (Z = i),
pour i ∈ N∗ .
6. Démontrer que Z suit la loi géométrique de paramètre 1 − q 2 .
Exercice 3.4.5
Le trousseau de clefs d'un gardien de nuit comporte dix clefs, dont une seule
ouvre la porte du poste de garde. Pour qu'il y pénètre, il y a deux scenarios possibles :
•
Cas
A
: il prend une clef au hasard, l'essaie, la met de côté si elle n'ouvre pas, et ainsi de
suite.
• Cas B
: il prend une clef au hasard, l'essaie, mais la laisse sur le trousseau si elle n'ouvre pas,
et ainsi de suite.
52
CHAPITRE 3.
On désigne respectivement par
XA
et
XB
VARIABLES ALÉATOIRES DISCRÈTES
les variables aléatoires égales aux nombres d'essais
(y compris le bon) avant succès, dans le premier et le second scenario. Déterminer la loi de
probabilité et la fonction de répartition de
E[XA ]
Calculer
et
XA
et de
XB .
E[XB ].
Le gardien utilise la méthode
B
un jour sur trois. Un jour, après avoir essayé
8
clefs, il n'a
toujours pas ouvert la porte. Quelle est la probabilité pour qu'il ait utilisé la méthode
Exercice 3.4.6
B?
n un entier naturel non nul. Une personne eectue n lancers indépendants
Xn le nombre de "piles" obtenus.
Quelle est la loi de Xn ? quelle est son espérance ? sa variance ?
Calculer la probabilité pour qu'à l'issue des n lancers, le nombre de piles soit strictement
Soit
d'une pièce parfaitement équilibrée. Soit
1)
2)
supérieur au nombre de faces.
Exercice 3.4.7 (#)
montage
A
et
B
Une entreprise de construction produit des objets sur deux chaînes de
qui fonctionnent indépendemment l'une de l'autre. Pour une chaîne donnée,
les fabrications des pièces sont indépendantes. On suppose que
produit
est
0.1
40%
A
60% des ob jets et B
A soit défectueux
B soit défectueux est
produit
des objets. La probabilité qu'un ob jet construit par la chaine
alors que la probabilité pour qu'un objet construit par la chaine
0.2.
1. On choisit au hasard un objet à la sortie de l'entreprise. On constate que cet objet est
défectueux. Calculer la probabilité de l'événement l'ob jet provient de la chaîne A .
2. On suppose de plus que le nombre d'objets produits en une heure par
aléatoire
Y
qui suit une loi de Poisson de paramètre
On considère la variable aléatoire
par la chaîne
A
X
A
est une variable
λ = 20.
représentant le nombre d'objets défectueux produits
en une heure.
(a) Rappeler la loi de
Y
ainsi que la valeur de l'espérance et de la variance de
Y.
k et n deux entiers naturels, déterminer la probabilité conditionnelle P(Y =n) [X =
k]. (On distinguera les cas k ≤ n et k > n ).
En déduire, en utilisant le système complet d'événements (Y = i)
i∈N , que X suit
(b) Soient
(c)
une loi de Poisson de paramètre 2 .
Solution.
1. Pour un objet pris à la sortie,
P (A) = 0.6
D =l'objet est défectueux.
a P (D/A) = 0.1 et P (D/B) = 0.2
et
P (B) = 0.4
Soit
On
et comme
(A, B)
est un système complet d'évé-
nements,
P (D) = P (D/A) P (A) + P (D/B) P (B)
= 0.1 · 0.6 + 0.2 · 0.4
= 0.14
Si l'ob jet est défectueux, la probabilité de l'événement l'objet provient de la chaîne A
est
P (A/D)
que l'on calcule par la formule de Bayes :
P (D/A) P (A)
P (A ∩ D)
=
P (D)
P (D)
0.1 · 0.6
0.06
6
3
=
=
=
=
0.14
0.14
14
7
P (A/D) =
3.4.
EXERCICES
53
2. On suppose de plus que le nombre d'objets produits en une heure par
aléatoire
Y
qui suit une loi de Poisson de paramètre
On considère la variable aléatoire
par la chaîne
A
est une variable
λ = 20.
représentant le nombre d'objets défectueux produits
en une heure.
Y (Ω) = N
V (Y ) = λ = 20
(a) On a
X
A
et pour tout entier
n : P (Y = n) =
λn e−λ
.
n!
E (Y ) = λ = 20
et
Y = n, X est le nombre d'objet défectueux parmi n, qui sont défectueux
indépendemment les un des autres avec une même probabilité 0.1. Donc sachant
(b) Quand
Y = n, X ,→ B (n, 0.1) et
P [X = k/Y = n] = 0 si k > n
(c) Comme
(Y = n)n∈N ,
et
P [X = k/Y = n] = Cnk 0.1k 0.9n−k
si
k≤n
est un système complet d'événements on a pour tout entier
P (X = k) =
+∞
X
k:
P [X = k/Y = n] P (Y = n)
n=0
série convergente dont on calcule la somme partielle en distinguant suivant que
ou
n<k
M
X
:
P [X = k/Y = n] P (Y = n) =
k−1
X
n≥k
P [X = k/Y = n] P (Y = n)
n=0
k=0
+
M
X
P [X = k/Y = n] P (Y = n)
n=k
M
X
= 0+
Cnk 0.1k 0.9n−k
n=k
20n e−20
n!
k
M
X
0.1
n!
−20
(0.9 · 20)n
e
0.9
k! (n − k)!n!
n=k
k
M
X
1
1
−20 1
e
18n
9
k! n=k (n − k)!
k
M
−k
X
1
1 m+k
−20 1
e
18
9
k! m=0 m!
k
1
1
2k e−2
e−20 18k e18 =
9
k!
k!
=
=
=
→
donc
Exercice 3.4.8
à
N
avec
X
suit une loi de Poisson de paramètre
On lance successivement
N ≥ 2.
n
2
boules au hasard dans
N
cases numérotées de
1
On suppose que les diérents lancers de boules sont indépendants et que la
probabilité pour qu'une boule quelconque tombe dans une case donnée est
1
.
N
Une case peut
contenir plusieurs boules. Le gain étant fonction du nombre de cases atteintes, on étudie la
variable aléatoire
Tn
égale au nombre de cases non vides à l'issue des
n
lancers.
54
CHAPITRE 3.
n
1. Déterminer en fonction de
n≤N
et
et
N
VARIABLES ALÉATOIRES DISCRÈTES
les valeurs prises par
Tn
(on distinguera deux cas :
n > N ).
2. Donner les lois de
T1
3. Déterminer, lorsque
et
T2 .
n ≥ 2,
(Tn = 1), (Tn = 2), (Tn = n)
n > N et n ≤ N ).
la probabilité des événements
(pour la dernière probabilité, on distinguera deux cas :
4. À l'aide de la formule des probabilités totales, justier l'égalité
entier
k
tel que
(I)
suivante, pour tout
k
N −k+1
P (Tn = k) +
P (Tn = k − 1)
N
N
E(Tn ) de la variable Tn , on considère la fonction polynomiale
P (Tn+1 = k) =
5. An de calculer l'espérance
Gn
(I)
1 ≤ k ≤ n.
dénie par :
∀x ∈ R, Gn (x) =
(a) Quelle est la valeur de
(b) Exprimer
E(Tn )
P (Tn = k)xk
k=1
Gn (1) ?
en fonction de
(c) En utilisant la relation
n
X
(I),
G0n (1).
montrer que :
∀x ∈ R, Gn+1 (x) =
1
(x − x2 )G0n (x) + xGn (x)
N
(d) En dérivant l'expression précédente, en déduire que :
1
E(Tn+1 ) = 1 −
E(Tn ) + 1
N
(e) Prouver enn que l'espérance de
Tn
est donnée par :
E(Tn ) = N
(f ) L'entier
N
1
1− 1−
N
étant xé, calculer la limite de
n E(Tn ) lorsque n tend vers +∞. Interpréter
le résultat.
Exercice 3.4.9 On lance n fois (n ≥ 3) une pièce de monnaie parfaitement équilibrée. Pour
tout i ∈ [|1, n|], on pose Ai = on a obtenu pile au i-ème lancer .
1. Soit X le nombre total de piles obtenu. Donner sa loi, son espérance et sa variance.
2. Si, à l'issue des n lancers, on obtient par exemple pile-pile-face-face-face-pile-. . . , on dit
que l'on a une première série de longueur 2, parce qu'on a obtenu 2 piles au début (et pas
plus), et une deuxième série de longueur 3, parce qu'on a obtenu ensuite 3 faces (et pas
plus). Autre exemple : si l'on obtient face-face-pile-face-. . . , on a une première série de
longueur 2 et une deuxième série de longueur 1. On note S1 la longueur de la première
série et S2 la longueur de la deuxième série si elle existe. On convient de poser S2 = 0
s'il n'y a pas de deuxième série, c'est-à-dire si S1 = n. Déterminer S1 (Ω).
3. Justier l'égalité (S1 = 1) = (A1 ∩A2 )∪(A1 ∩A2 ). En déduire, en justiant soigneusement,
1
2
que P(S1 = 1) = .
3.4.
EXERCICES
55
4. En étudiant l'événement (S1 = k) à la manière de la question précédente, démontrer que :
k
1
∀k ∈ [|1, n − 1|], P(S1 = k) =
2
n−1
1
.
5. Démontrer que P(S1 = n) =
2
6. Vérier, en utilisant les formules obtenues dans les deux questions précédentes, que :
n
X
P(S1 = k) = 1
k=1
7. Soit x ∈ R \ {1}. Démontrer que pour tout n ∈ N∗ :
n
X
ixi−1 =
i=1
nxn+1 − (n + 1)xn + 1
.
(1 − x)2
Calculer l'espérance de S1 .
8. Justier l'égalité S2 (Ω) = [|0, n − 1|].
9. Calculer P(S2 = 0).
10. Soit k ∈ [|1, n|]. Montrer que :

 0 si k = n
1 si k = n − 1
P(S2 = 1|S1 = k) =
 1
si k ≤ n − 2
2
11. En déduire que :
P(S2 = 1) =
Exercice 3.4.10
Une urne contient
Exercice 3.4.11
Soit
N
1
2
boules numérotées de
1
à
N.
(n ≤ N ). On étudiera d'abord le cas avec remise, puis sans remise.
Soit X et Y le plus petit et le plus grand des nombres obtenus
a) Calculer P(X ≥ x) pour tout x ∈ [|1, n|]. En déduire la loi de X .
b) Calculer P(Y ≤ y) pour tout y ∈ [|1, n|]. En déduire la loi de Y .
que : pour tout
a) Déterminer
a
un nombre réel, et
k ∈ N,
X
On en tire
c) La variable aléatoire
Exercice 3.4.12
P[X = k] =
a
2k k!
X admet elle une espérance ? Si oui, la déterminer.
X admet elle une variance ? Si oui, la déterminer.
Calculer la fonction de répartition de :
la loi uniforme sur
{1, ..., n}
la loi de Bernoulli de paramètre
la loi Binomiale de paramètres
4
p
et
1
2
une à une
une variable aléatoire à valeurs dans
a.
b) La variable aléatoire
n
N,
telle
56
CHAPITRE 3.
la loi géométrique de paramètre
p.
Exercice 3.4.13
On admet que si
0≤x<1
et
VARIABLES ALÉATOIRES DISCRÈTES
r ∈ N? ,
∞ X
1
k+r−1 k
=
x
(1 − x)r
r−1
k=0
Considérons une urne contenant des boules blanches en proportion
proportion
p,
des boules noires en
1 − p.
On eectue des tirages avec remise dans cette urne jusqu'à l'obtention de
Soit
X
le nombre de boules noires obtenues (avant la
1) Calculer
P[X = k]
pour tout
k ∈ N.
r
2) Montrer que l'on obtient presque-sûrement
3) Calculer
rème
r
boules blanches.
boule blanche).
boules blanches
E[X].
Exercice 3.4.14
Une urne contient
Exercice 3.4.15
Un garagiste dispose de
N
boules numérotées de
1
à
N.
(n ≤ N ). On étudiera d'abord le cas avec remise, puis sans remise.
Soit X et Y le plus petit et le plus grand des nombres obtenus
a) Calculer P(X ≥ x) pour tout x ∈ [|1, n|]. En déduire la loi de X .
b) Calculer P(Y ≤ y) pour tout y ∈ [|1, n|]. En déduire la loi de Y .
2
On en tire
n
une à une
voitures de location. Chacune est utilisable en
moyenne 4 jours sur 5. Il loue les voitures avec une marge de 50 euros par jour et par voiture.
On considère
X
la variable aléatoire égale au nombre de clients se présentant chaque jour pour
louer une voiture. On suppose
X(Ω) = {0, 1, 2, 3}
avec
P[X = 0] = 0.1 P[X = 1] = 0.3 P[X = 2] = 0.4 P[X = 3] = 0.2.
a) Déterminer la loi de la variable aléatoire
Y
représentant le nombre de clients satisfaits par
jour
b) Calculer la marge moyenne par jour.
Exercice 3.4.16
Une urne contient initialement une boule blanche et une boule rouge.
On eectue des tirages successifs d'une boule dans l'urne selon le protocole suivant : après
chaque tirage, la boule tirée est remise dans l'urne et on rajoute dans l'urne une boule de
la même couleur, avant le tirage suivant. Pour tout entier non nul
aléatoire égale au nombre de boules blanches obtenues au cours des
X1 .
Déterminer la loi de X2 .
Montrer que la loi de Xn
n, on note Xn la variable
n premiers tirages.
Déterminer la loi de
Exercice 3.4.17 (#)
Soit
est donnée par
N
P(Xn = k) =
1
.
n+1
λ et (Xi )i≥0 une
de N . Montrer que
une variable aléatoire de Poisson de paramètre
suite de variables de Bernoulli de paramètre
p,
S=
indépendantes entre elles et
N
X
i=1
est une variable de Poisson de paramètre
pλ.
Xi
3.4.
EXERCICES
57
Solution. Pour n ≥ 0,
N
X
P(S = n) = P
!
Xi = n
=
i=1
Comme
N
X
N
X
P
Xi = n, N = k
k
X
=P
Xi
i=1
P
!
Xi = n
k
variables de Bernoulli de paramètre
k
et
n 0
p (1 − p)k−n
=
p
p
et indé-
:
n>k
sinon.
si
k
n
i=1
Comme
· P (N = k) .
Xi = n
est une v.a. binomiale de paramètres
k
X
Xi = n, N = k .
i=1
!
i=1
De plus, comme on considère une somme de
pendantes,
P
!
a
i=1
Pk
=
k
X
k≥0
X1 , . . . , Xk , on
!
est indépendant de
P
Xi = n, N = k
X
i=1
k≥0
k
X
!
k
N
P(λ), P(N = k) = e−λ λk! .
est une v.a.
Finalement, on a
X k λk
pn e−λ X
k!
pn (1 − p)k−n e−λ
P(S = n) =
=
(1 − p)k−n λk
n
k!
n!
k!(k
−
n)!
k≥n
k≥n
et par un changement de variables dans la somme :
P(S = n) =
pn e−λ X 1
λn pn e−λ λ(1−p) (λp)n −λp
(1 − p)k λk+n =
e
=
e .
n! k≥0 k!
n!
n!
Exercice 3.4.18 (Loi multinomiale #)
Une boîte contient
n jetons numérotés de 1 à n. On
tire un jeton au hasard, on note son numéro et on le remet dans la boîte. Si le numéro de ce
jeton est
i,
alors on tire au hasard et sans remise
hasard dans trois urnes
U1 , U2
et
U3
X
Uk
k = 1, 2, 3,
on note
Xk
la variable
après cette opération.
la variable aléatoire donnant le numéro du jeton que l'on a tiré au départ dans la
boîte. Quelle est la loi de
2. Calculer pour
3.
jetons de la boîte que l'on distribue au
(vides au départ). Pour
aléatoire désignant le nombre de jetons de l'urne
1. Soit
i
X ? Déterminer la loi conjointe du couple (Xk , X), où k = 1, 2, 3.
k = 1, 2, 3,
l'espérance de
(a) Trouver la loi du vecteur aléatoire
Xk
(On pourra utiliser
X = X1 + X2 + X3 ).
(X1 , X2 , X).
(b) En déduire la loi du vecteur aléatoire
(X1 , X2 , X3 ).
solution
1. La loi de
X
est la loi uniforme sur
{1, .., n}.
Pour
1≤i≤n
et
0 ≤ j ≤ n,
P(Xk = j, X = i) = P(Xk = j|X = i)P(X = i) = P(Xk = j|X = i) ·
et sachant
{X = i},
la v.a.
Xk
est une binomiale de paramètres 1/3 et
0
P(Xk = j, X = i) =
1 j
n i
1 j
3
si
2 i−j
3
si
j>i
j ≤ i ≤ n.
i.
1
n
On a donc
58
CHAPITRE 3.
2. Comme
X = X1 + X2 + X 3
VARIABLES ALÉATOIRES DISCRÈTES
et que les trois v.a.
3E[X1 ] = E[X] =
et donc
3.
X1 , X 2
et
X3
ont même loi,
1 n(n + 1)
n
2
n+1
.
6
1 ≤ i ≤ n et 0 ≤ j, k ≤ n,
E[X1 ] =
(a) Pour
P(X1 = j, X2 = k, X = i) = P(X=i) (X1 = j, X2 = k)P(X = i) =
Conditionnellement à
{X = i},
l'expérience revient à placer
L'espace des congurations possibles, qui est de cardinal
uniforme. De plus, le nombre de congurations avec
boules dans la seconde est
si
j+k ≤i
j
i
1
P(X=i) (X1 = j, X2 = k).
n
boules dans 3 urnes.
i
3 , est muni de la probabilité
k
boules dans la 1ère urne et
i!
j!k!(i − j − k)!
et 0 sinon.
On a donc
P(X1 = j, X2 = k, X = i) =
11
i!
i
n 3 j!k!(i − j − k)!
si
j + k ≤ i ≤ n.
(b) Par la question précédente, on a directement
P(X1 = j, X2 = k, X3 = l) =
Exercice 3.4.19 (#)
si
j + k + l ≤ n.
On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la
probabilité d'obtenir pile est
X
1 1 (j + k + l)!
n 3j+k+l
j!k!l!
2/3, et face 1/3. Les lancers sont supposés indépendants. On note
la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la
première fois de deux piles consécutifs.
Soit
n
pn la probabilité de l'événement (X = n).
(X = 2), (X = 3), (X = 4), (X = 5). Déterminer la
un entier naturel non nul. On note
1) Expliciter les événements
p1 , p2 , p3 , p4
et
valeur de
p5
2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du
premier lancer, montrer que
1
2
∀n ≥ 3, pn = pn−2 + pn−1 .
9
3
3) En déduire l'expression de
4) Calculer
pn
en fonction de
E[X].
Exercice 3.4.20
1) Déterminer
α, β, γ
n
pour
n ≥ 1.
tels que pour tout
k ∈ N? ,
1
α
β
γ
= +
+
k(k + 1)(k + 2)
k k+1 k+2
3.4.
EXERCICES
2) Soit
a ∈ R.
59
Déterminer
a
pour que
pk =
a
k(k + 1)(k + 2)
soit une loi de probabilité.
3) Cette loi de probabilité admet elle une espérance ? une variance ?
Exercice 3.4.21
Soit
X
une variable aléatoire à valeurs dans
1) Montrer que pour tout
n ∈ N? ,
n
X
kP[X = k] =
converge. Montrer
n−1
X
!
− nP(X > n).
P[X > k]
i=1
k=1
2) On suppose que
N? .
lim nP(X > n) = 0 et que la série
que X admet une espérance et que
de terme général
n→∞
E(X) =
∞
X
uk = P(X > k)
P(X > k).
k=1
3) Réciproquement, on suppose que
X
admet une espérance. Montrer que
lim nP(X > n) = 0
n→∞
et en déduire
E[X] =
∞
X
P[X > k].
k=0
Exercice 3.4.22
1) Si
2) Si
Soit X une v.a.r discrète telle
P
E(X) existe, E(X) = ∞
k=1 P[X ≥ k].
E[X(X − 1)] existe,
E[X(X − 1)] = 2
Exercice 3.4.23
N
que
∞ X
∞
X
p=2 n=p
On considère un entier naturel
boules numérotées de
1
à
N.
X(Ω) = N.
N
Montrer que
P[X ≥ n].
supérieur ou égal à
3.
Une urne contient
On y eectue des tirages successifs d'une boule avec remise de
la boule tirée après chaque tirage, jusqu'à obtenir pour la première fois un numéro déjà tiré.
TN
On note alors
le rang aléatoire de ce dernier tirage.
Par exemple, si on a obtenu successivement les numéros 1-5-4-7-3-5, la variable
valeur 6. Alors que si on a obtenu 5-4-2-2 la variable
1) Déterminer la loi, l'espérance et la variance de
2) Soit
TN
prend la valeur 4.
T3 .
N ≥3
a) Déterminer l'ensemble des valeurs que peut prendre
b) Calculer
c) Prouver
TN .
P[TN = 2], P[TN = 3] et P[TN = N + 1]
pour tout entier k de {1, ..., N }, les égalités
k−1
Y
N!
i
P[TN > k] =
=
1−
.
(N − k)!N k
N
i=0
En déduire la loi de la variable aléatoire
TN
TN
prend la
60
CHAPITRE 3.
Exercice 3.4.24
On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la
probabilité d'obtenir pile est
X
VARIABLES ALÉATOIRES DISCRÈTES
2/3, et face 1/3. Les lancers sont supposés indépendants. On note
la variable aléatoire réelle égale au nombre de lancers nécessaires pour l'obtention, pour la
première fois de deux piles consécutifs.
Soit
n
pn la probabilité de l'événement (X = n).
(X = 2), (X = 3), (X = 4), (X = 5). Déterminer la
un entier naturel non nul. On note
1) Expliciter les événements
p1 , p2 , p3 , p4
et
valeur de
p5
2) A l'aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du
premier lancer, montrer que
1
2
∀n ≥ 3, pn = pn−2 + pn−1 .
9
3
3) En déduire l'expression de
4) Calculer
pn
en fonction de
n
E[X].
Exercice 3.4.25
1) Déterminer
α, β, γ
pour
n ≥ 1.
tels que pour tout
k ∈ N? ,
1
α
β
γ
= +
+
k(k + 1)(k + 2)
k k+1 k+2
2) Soit
a ∈ R.
Déterminer
a
pour que
pk =
a
k(k + 1)(k + 2)
soit une loi de probabilité.
3) Cette loi de probabilité admet elle une espérance ? une variance ?
Exercice 3.4.26 (A faire !)
?
N
Soit
P une probabilité et X
une variable aléatoire à valeurs dans
.
1) Montrer que pour tout
n ∈ N? ,
n
X
kP[X = k] =
converge. Montrer
!
P[X > k]
i=1
k=1
2) On suppose que
n−1
X
− nP(X > n).
lim nP(X > n) = 0 et que la série
que X admet une espérance et que
n→∞
E(X) =
∞
X
de terme général
P(X > k).
k=1
3) Réciproquement, on suppose que
X
admet une espérance. Montrer que
lim nP(X > n) = 0
n→∞
et en déduire
E[X] =
∞
X
k=0
P[X > k].
uk = P(X > k)
3.4.
EXERCICES
Exercice 3.4.27
1) Si
2) Si
61
X une
v.a.r discrète telle
P∞
E(X) = k=1 P[X ≥ k].
Soit
E(X) existe,
E[X(X − 1)]
Soient
X
et
Y
Déterminer la loi de
Montrer que
∞ X
∞
X
p=2 n=p
P[X ≥ n].
deux variables aléatoires indépendantes, à valeurs dans
X
T = min(X, Y ).
Déterminer en fonction de la loi de
Exercice 3.4.29
X(Ω) = N.
existe,
E[X(X − 1)] = 2
Exercice 3.4.28
que
Y,
et de la loi de
la loi de
N.
Z =X +Y.
n variables aléatoires indépendantes de Bernoulli
de paramètre p est une loi binomiale de paramètres n, p.
Montrer que la somme de n variables aléatoires de Poisson de paramètres λ1 , ..., λn respectiPn
vement est une loi de Poisson de paramètre
i=1 λi
Exercice 3.4.30
Montrer que la somme de
Une urne contient une boule blanche et une boule noire, les boules étant
indiscernables au toucher. On y prélève une boule, chaque boule ayant la même probabilité
d'être tirée, on note sa couleur, et on la remet dans l'urne avec
c
boules de la couleur de la
boule tirée. On répète cette épreuve, on réalise ainsi une succession de tirages
On considère les variables aléatoires
Xi = 1
Xi = 0
On dénit, pour
(Xi )1≤i≤n
dénies par :
(n ≥ 2).
si on obtient une boule blanche au i-ème tirage.
.
sinon
2 ≤ p ≤ n,
la variable aléatoire
Zp =
Zp
p
X
par
Xi
i=1
1) Déterminer la loi du couple
(X1 , X2 ).
En déduire la loi de
Z2
3) a) Déterminer Zp (Ω). Soit p ≤ n − 1
b) Déterminer P(Xp+1 = 1|Zp = k) pour k ∈ Zp (Ω).
X2 .
2) Déterminer la loi de
En utilisant la formule des probabilités
totales, montrer que
P[Xp+1 = 1] =
c) Montrer par récurrence que pour tout
1 + cE[Zp ]
2 + pc
p ∈ [|1, n|],
P[Xp = 1] = P[Xp = 0] =
1
2
Exercice 3.4.31 Soit une pièce avec probabilité d'avoir face p.
On lance la pièce n fois, soit X la variable aléatoire représentant le nombre de faces obtenues,
et Y le nombre de piles. Quelle est la loi de X , la loi de Y ? montrer que les variables aléatoires
X et Y ne sont pas indépendantes.
On lance maintenant la pièce N fois où N est un nombre aléatoire qui suit une loi de Poisson.
On note encore X et Y le nombre de faces et le nombre de piles. Déterminer la loi du couple
(X, Y ), en déduire que X et Y sont indépendantes, et donner leurs lois respectives.
62
CHAPITRE 3.
Exercice 3.4.32
n
On considère
VARIABLES ALÉATOIRES DISCRÈTES
urnes numérotées de
1
n.
à
La première urne contient des
boules blanches et des boules noires ; la proportion de boules blanches est
vantes contiennent chacune
On eectue
n
a
boules blanches et
a
p1 .
Les urnes sui-
boules noires.
tirages de la manière suivante : on tire une boule de la premiere urne que l'on
place dans la deuxième urne, puis on tire une boule de la deuxième urne que l'on place dans la
troisième, et ainsi de suite jusqu'au tirage dans la dernière urne.
Pour
1 ≤ k ≤ n,
on désigne par
kème urne est blanche, égale à
0
Xj
la variable aléatoire égale à
fonction de
p1
et de
k ème
si la boule tirée de la
1) Déterminer les lois de probabilités de
X1
et
X2 ,
1
si la boule tirée dans la
urne est noire.
puis leurs espérances et leurs variances en
a.
2) Démontrer qu'il existe une valeur de
p1
pour laquelle
X1
et
X2
suivent la même loi de
probabilité.
p1 étudier l'indépendance de X1 et X2 . Pour 1 ≤ k ≤ n, on
qk = P[Xk = 0].
existe une matrice M dépendant de a telle que pour k ∈ [|1, n − 1|]
pk+1
pk
=M
qk+1
qk
3) Pour cette valeur de
pk = P[Xk = 1]
4) Démontrer qu'il
5) Déterminer
6) Déterminer
M n pour n ∈ N, puis
lim pn et lim qn .
n→∞
Exercice 3.4.33
Soit
déterminer la loi de
(X, Y )
un couple de variables aléatoires à valeurs dans
P({X = j} ∩ {Y = k}) =
λ.
X
et de
Exercice 3.4.34
et
Y
Soit
X
N×N
tel que :
(j + k)λj+k
ej!k!
f : x 7→ 2xe2x−1 − 1)
Y . Les variables X et Y
(On pourra étudier
b) Déterminer les lois de
sur
R+ .
sont elles indépendantes ?
deux variables indépendantes vériant :
1
P[X = n] = P[Y = n] =
4
n ∈ N.
Déterminer a.
Calculer E[X]
Xn .
n→∞
∀(j, k) ∈ N2 ,
a) Déterminer
pose
et
1 + an
n!
pour tout
1)
2)
et
3) Déterminer la
V(X)
loi de S = X + Y .
Exercice 3.4.35
On admet que si
r ∈ N? ,
∞ X
1
k+r−1 k
=
x
(1 − x)r
r
−
1
k=0
0≤x<1
et
Considérons une urne contenant des boules blanches en proportion
proportion
p,
des boules noires en
1 − p.
On eectue des tirages avec remise dans cette urne jusqu'à l'obtention de
Soit
X
le nombre de boules noires obtenues (avant la
rème
boule blanche).
r
boules blanches.
3.4.
EXERCICES
1) Calculer
63
P[X = k]
pour tout
k ∈ N.
2) Montrer que l'on obtient presque-sûrement
3) Calculer
r
boules blanches
E[X].
Exercice 3.4.36 (#)
a ∈ N. A chaque partie, il peut
gagner 1 euro avec une probabilité p et perdre 1 euro avec une probabilité q = 1 − p. Le but
du joueur est alors de jouer jusqu'à l'obtention de la fortune c ≥ a, c ∈ N mais il doit s'arrêter
s'il est ruiné. On note sc (a) sa probabilité de succès (atteindre c avant la ruine).
1. Calculer
sc (0)
2. Montrer, pour
et
Un joueur va au casino avec une fortune
sc (c)
a > 0,
en raisonnant sur ce qui s'est passé au premier coup, la relation
sc (a) = psc (a + 1) + qsc (a − 1)
3. Déduire la valeur de
sc (a)
suivant que
p = 0, 5
ou
p 6= 0, 5.
4. Application numérique : Calculer la valeur précédente avec
c = 20000
dans les cas
p = 0;
5 et
p = 18/38
a = 900 ; c = 1000 ; a = 100 ;
.
Solution
1. Si on démarre avec une fortune nulle, on ne peut atteindre la somme
on démarre avec
c,
on a atteint la somme
c
et donc
sc (c) = 1
2. Au premier coup, on peut soit gagner 1 euro (avec proba
q ).
Si on part d'une fortune
fortune de
a+1
a
p),
c
:
sc (0) = 0
. Si
.
soit en perdre 1 (avec proba
et que l'on gagne au premier coup, on se retrouve avec une
et la probabilité d'atteindre
c
vaut alors
sc (a + 1).
On a la même chose
si on perd au premier coup et on a bien la formule de récurrence pour
1≤a≤c−1
:
sc (a) = psc (a + 1) + qsc (a − 1)
3. Si
si
p = 0 (et donc q = 1),
a < c et sc (c) = 1.
on a
sc (a) = sc (a − 1)
Le cas le plus intéressant est bien sûr
pour
1 ≤ a ≤ c − 1.
On a donc
sc (a) = 0
p > 0. On a alors une suite récurrente d'ordre 2 qui
vérie
psc (a + 1) = sc (a) − qsc (a − 1)
et
sc (0) = 0, sc (c) = 1.
Pour trouver son expression générale, on doit trouver les racines
pr2 − r + q = 0.
q/p.
de son équation caractéristique
équation a deux racines : 1 et
Si
Après résolution, on trouve que cette
q = p, c'est-à-dire si p=1/2, 1 est la racine double de l'équation caractéristique et alors
on a
sc (a) = (αa + β)1a = αa + β
avec
α
et
β
0 = sc (0) = β et 1 = sc (c) = αc + β . On
nal sc (a) = a/c .
à déterminer. D'après la question a),
β=0
et
α = 1/c.
Cela donne au
q 6= p, c'est-à-dire
q/p) et alors
si
p 6= 1/2,
l'équation caractéristique a deux racines distinctes (1 et
en déduit que
Si
a
a
q
q
a
sc (a) = α
+ β1 = α
+β
p
p
64
CHAPITRE 3.
αc
avec
α
q
p
β
et
+β
à déterminer. D'après la question a),
et alors
c −1
α = −β = (1 − (q/p) )
sc (a) =
4. Application numérique : si
−5
2, 66 · 10
VARIABLES ALÉATOIRES DISCRÈTES
0 = sc (0) = α + β
et
1 = sc (c) =
ce qui entraîne
1 − (q/p)a
.
1 − (q/p)c
p = 1/2, s1000 (900) = 9/10.
si
p = 18/38, s1000 (900) =
.
Exercice 3.4.37 (Une marche aléatoire)
On étudie le cours en bourse d'une action. On
suppose que les variations journalières sont indépendantes les unes des autres. On convient de
noter
0
le cours au début de l'observation. On suppose que chaque jour, l'action monte d'une
unité (+1) avec probabilité
le cours constaté le
2n-ème
p
ou descend d'une unité (-1) avec probabilité
jour.
1 − p.
On note
X2n ,
Par exemple si n=2, et que le cours à baisser les trois premiers jours et monté le quatrième
jour, on a
X4 = −1 − 1 − 1 + 1 = −2
1) Quelles sont les valeurs prises par
2) On note
Y2n
le nombre de jours parmi les
le nombre de jours parmi les
de
Y2n
et
X2n ?
Z2n ?
2n jours d'observation où l'action a monté ; et Z2n
2n jours, où l'action a baissé. Quelles sont les lois de probabilité
Donner leur espérance.
n et Y2n Z2n , et d'autre part X2n , Y2n et Z2n ?
X2n ? Montrer que pour tout k ∈ [| − n, n−]
2n
P[X2n = 2k] =
pn+k q n−k
n+k
3) Quelles relations lient d'une part
En déduire une expression de
Exercice 3.4.38
On dispose d'un dé équilibré à
p. Soit
6 obtenus, on
X, Y, Z de la manière
probabilité d'apparition de pile soit égale à
lancers du dé ; si
n
est le nombre de
On dénit trois variables aléatoires
6 faces et d'une pièce truquée telle que la
N un entier naturel non nul. On eectue N
lance alors n fois la pièce.
suivante :
Z indique le nombre de 6 tirés parmi les N lancers de dé.
X indique le nombre de piles obtenus parmi les lancers de la pièce.
Y indique le nombre de faces obtenues au lancers de la pièce.
Z , son espérance, sa variance.
k ∈ N, n ∈ N, déterminer la probabilité conditionnelle P[X = k|Z = n].
Montrer que pour tout couple d'entiers naturels (k, n) :
1) Préciser la loi de
2) Pour
3)
P[X = k
et
N −n n
1
n N k
5
n−k
Z = n] =
p (1 − p)
6
6
k
n
= 0 sinon.
4) Calculer la probabilité
P(X = 0).
si
0≤k≤n≤N
3.4.
EXERCICES
65
(k, n) tels que 0 ≤ k ≤ n ≤ N
n N
N
N −k
=
.
k
n
k
n−k
5) Montrer que pour tout couple d'entiers naturels
En déduire la probabilité
6) Montrer que la variable
la loi de
Y
P(X = k).
aléatoire X
suit une loi binomiale de paramètre
8) Déterminer la loi du
Exercice 3.4.39
(X, Y ). X
couple (X, Y ).
Soit
X
et
Y
Y
et
a
et
Y
2i+j
,
pour tout
N? ,
telles que
(i, i) ∈ N? × N?
a
b) Déterminer les lois marginales de
X
sont-elles indépendantes ?
deux variables aléatoires dans
P[{X = i} ∩ {Y = j}] =
c)
Quelle est
?
7) Calculer la covariance de
a) Calculer
(N, p6 ).
X
et
Y.
sont elles indépendantes ?
Exercice 3.4.40
uniforme sur
Soit
[|1, X|],
Exercice 3.4.41
X
une variable aléatoire uniforme sur
déterminer la loi de
Soit
n
Y
et calculer
P(X = Y )
et
2. Déterminer la loi de
Exercice 3.4.42
nant les valeurs
0
Soit
ou
1
P(X ≥ Y ).
X1 , X2 , X3
2. Les variables aléatoires
1/2.
X
On considère les variables
Z = X2 X3
et
(Y, Z).
et
Y
sont-elles indépendantes ?
3. Calculer l'esperance et la variance de
n
variables aléatoires indé-
des variables de Bernoulli, deux à deux indépendantes, pre-
avec probabilité
1. Déterminer la loi jointe de
Soit
X et Y deux
sur {1, ..., n}.
D = Y − X.
Y = X1 X2
Exercice 3.4.43
une variable aléatoire
E[Y ].
un entier naturel non nul, et
pendantes suivant toutes les deux des lois uniformes
1. Calculer
[|1, n|] et Y
Y +Z
et
YZ
un entier naturel non nul, et
X et Y deux
{1, ..., n}.
variables aléatoires indé-
pendantes suivant toutes les deux des lois uniformes sur
1. Calculer
P(X = Y )
et
2. Déterminer la loi de
Exercice 3.4.44
nant les valeurs
0
Soit
ou
1
P(X ≥ Y ).
D = Y − X.
X1 , X2 , X3
des variables de Bernoulli, deux à deux indépendantes, pre-
1/2.
avec probabilité
Y = X1 X2
1. Déterminer la loi jointe de
On considère les variables
et
(Y, Z).
2. En déduire les lois marginales de
Y
et
Z.
Z = X2 X3
66
CHAPITRE 3.
(Y, Z)
3. Calculer Cov
Les variables aléatoires
4. Calculer l'espérance et la variance de
VARIABLES ALÉATOIRES DISCRÈTES
X
Y +Z
et
et
Y
sont-elles indépendantes ?
YZ
Exercice 3.4.45 (Processus d'assainissement informatique) Soit p ∈]0, 1[, une entre-
prise dispose de N copies d'un même logiciel. Une proportion p est infectée par un virus, et il
est impossible de discerner un logiciel sain d'un contaminé. On suppose que N = nm avec n et
m deux entiers strictement plus grand que 1. Un des responsables propose la méthode suivante
pour assainir le lot :
Les N copies forment la génération 0.
On prélève n logiciels au hasard et avec remise dans la génération 0. On les copie chacun m
fois. Les N = nm logiciels obtenus constituent la génération 1.
On itère le procédé. Durant tout le processus, la copie d'un logiciel sain est saine, d'un logiciel
contaminé, contaminée.
Le statisticien pense que si la proportion p est faible, on a de bonnes chances d'obtenir un lot
sain après un assez grand nombre d'opérations.
On souhaite vérier si eectivement ce procédé fonctionne.
Préliminaire.
On considère un couple de variables aléatoires (X, Y ) dénies sur (Ω, F, P). Soit k et l deux
entiers strictement positifs. On suppose que X prend q valeurs réelles : x1 , ..., xq , et Y , r valeurs
réelles : y1 , ..., yr . Soit g une fonction réelle. Pour tout 1 ≤ j ≤ q , soit
Ej =
r
X
i=1
g(yi )P[Y = yi |X = xj ].
Démontrer que
E[g(Y )] =
q
X
Ej P[X = xj ].
(3.1)
j=1
On passe maintenant au problème en question. Soit k ∈ N, on note Tk le nombre de copies
infectées obtenues parmi les n tirées dans la génération k , pour constituer la génération k + 1
1) Quelles sont les valeurs prises par Tk ? Pour j décrivant l'ensemble de ces valeurs, déterminer
la loi conditionnelle de Tk+1 sachant Tk = j.
2) En déduire, à l'aide de (3.1), une relation entre E[Tk+1 ] et E[Tk ] et montrer que pour tout
k , E[Tk ] = np.
3) On considère maintenant la variable Zk = Tk (n − Tk ).
a) En utilisant le préliminaire avec (Tk , Tk+1 ) et une fonction g convenablement choisie.
Montrer que la suite de terme général E[Zk ] est géométrique.
b) Donner l'expression de E[Zk ] en fonction de p, n et k .
c) Montrer que la suite (E[Zk ], k ≥ 0) tend vers 0.
4 a) Que signie concrètement l'événement Zk = 0 ?
b) Quelle est la plus petite valeur de j(n − j) lorsque j parcourt {1, 2, ..., n − 1}. ?
c) En déduire, à l'aide de 3-c), que
P(0 < Tk < n) −→ 0.
k→∞
d) Calculer la limite de P[Zk = 0] et interpréter le résultat.
3.4.
EXERCICES
67
e) Déterminer en fonction de n uniquement, une valeur de k telle que P[Zk = 0] > 0, 99
5) On cherche maintenant à calculer la probabilité de l'événement F= A partir d'un certain
rang ; les générations ne sont constituées que de logiciels infectées .
a) Montrer que la suite d'événements ({Tk = n})k≥1 est croissante pour l'inclusion.
b) Que représente alors P[F ] pour la suite, (P[Tk = n])k≥1 ?
6) Soit j ∈ [|1, n − 1|], déterminer la limite de P[Tk = j] quand k tend vers l'inni.
7) En utilisant le résultat de la question 2), donner la valeur de P[F ].
8) On cherche maintenant à calculer la probabilité de l'événement G= A partir d'un certain
rang, les générations ne sont constituées que de copies saines. Calculer P[G], que pensez
vous de la méthode du statisticien ?
Séries génératrices
Révision : séries
Exercice 3.4.46 (#) Déterminer le rayon de convergence des séries entières suivantes :
1.
2.
3.
4.
n!
n
n (2n)! x
P √n 2n
n 2n +1 x
P (1+i)n z3n
n
Pn lnn2
n n
z
nn
P
Solution. On utilise le résultat suivant : pour une série
P
n
an X n ,
si la limite
an+1 =L
lim n→+∞ an existe (limite éventuellement innie), alors son rayon de convergence est égal à
1. Posons
an =
1/L.
n!
. Alors
(2n)!
an+1 n+1
−→ 0.
an = (2n + 1)(2n + 2) n→+∞
Le rayon de convergence est donc
R = +∞
.
√
2. Posons
3.
an =
n
. Alors
2n +1
√
n
an+1 = √n + 1(2 + 1) −→ 1/2.
an n(2n+1 + 1) n→+∞
P
n
Le rayon de convergence de la série
n an X est donc R = 2 et celui de la série considérée
√
ici est R =
2 (prendre X = x2 ).
√
Comme |1 + i| =
2, on a
√
√
an+1 n
2
=
−→
1/
2.
an n + 1 2 n→+∞
√
P
n
Le rayon de convergence de la série
2 et celui de la série
est donc R =
n an X
√ 1/3
considérée ici est R = (
2) = 21/6 .
68
CHAPITRE 3.
4.
VARIABLES ALÉATOIRES DISCRÈTES
an+1 (n + 1)ln(n+1)
2
2
=
=
exp
(ln(n
+
1))
−
(ln
n)
.
an nln n
Or,
(ln(n+1))2 −(ln n)2 = (ln(n+1)−ln n)(ln(n+1)+ln n) = ln(1+1/n) ln(n+n2 )
donc
1
ln(n+n2 )
n
an+1 −→ e0 = 1
an n→+∞
R=1
et
∼
n→+∞
.
Exercice 3.4.47 (#) Pour n ∈ N on dénit sur [0; 1], un = X n (1 − X).
1. Montrer que n un converge simplement sur [0; 1] et calculer n un (x) pour tout x ∈
[0; 1].
P
2. Montrer que n un ne converge pas normalement sur [0; 1]
(a) en utilisant la dénition,
(b) en utilisant le Théorème de continuité des séries.
P
3. Vérier que n un converge normalement sur [0; a] pour tout a ∈]0; 1[.
P
P
Solution.
1. La série que l'on étudie est à termes positifs ou nuls. Pour montrer que
[0; 1],
simplement sur
montrons que pour
lim
N →+∞
existe. Si
x = 1,
N
X
PN
n=0
un (x) =
La série
et
2.
n
S(x) = 1
un
si
N
X
n=0
n=0
P
un (1) = 0
x ∈ [0, 1],
N
X
n=0
P
n
un
converge
la limite
xn (1 − x)
et on a donc la convergence voulue. Si
xn (1 − x) = (1 − x)
converge donc simplement sur
0 ≤ x < 1,
1 − xN +1
= 1 − xN +1 −→ 1.
N →+∞
1−x
[0; 1] et sa somme S
est dénie par
S(1) = 0
x ∈ [0, 1[.
(a) Une série converge uniformément si
N
X
un (x) − S(x) −→ 0.
sup N →+∞
x∈[0,1] n=0
Cherchons la borne supérieure de la fonction
|
PN
n=0
un − S|
N
X
|1 − xN +1 − 1| = xN +1
un (x) − S(x) =
0
n=0
sur
si
si
[0, 1]
: on a
x<1
.
x=1
La borne supérieure qui vaut donc 1 ne converge pas vers 0 : la convergence n'est
pas uniforme.
3.4.
EXERCICES
69
(b) On peut aussi le montrer en utilisant la propriété suivante : si une série de fonctions
continues converge uniformément, alors sa somme est également continue.
Ici, toutes les fonctions
un
n ≥ 0
pour
sont continues sur
[0, 1]
mais
S
n'est pas
continue en 1 : la convergence ne peut donc pas être uniforme.
3. Soit
0 < a < 1.
Dire que la convergence est normale sur
X
n
[0, a]
revient à dire que la série
sup |un (x)|
x∈[0,a]
supx∈[0,a] |un (x)| quand n → +∞. En
n
un , on voit qu'elle est croissante sur [0, n+1
] puis
n
, 1]. Comme n/(n + 1) tend vers 1 et comme a < 1, pour n assez
décroissante sur [
n+1
grand on a n/(n + 1) > a. La fonction un est alors croissante sur [0, a] et atteint donc son
maximum en a :
sup |un (x)| = an (1 − a) pour a assez grand
converge. Pour cela, cherchons un équivalent de
étudiant les variations de la fonction
x∈[0,a]
et la série de terme général
) et la série
P
n un
(an (1 − a))n
est convergente puisque
a<1
(voir question a)
[0, a].
converge normalement sur
Séries génératrices
Exercice 3.4.48 (#) Calculer à l'aide de la fonction génératrice l'espérance et la variance de
la loi géométrique de paramètre p et de la loi de Poisson de paramètre λ.
Solution. On traite d'abord le cas où X
est une v.a. de Poisson de paramètre
P(X = k) = e−λ
Pour
s ∈] − 1, 1[,
λk
,
k!
λ
:
k ≥ 0.
on a
k
X (sλk )
X
X X k
−λ
k −λ λ
=e
= e−λ esλ = eλ(s−1) .
GX (s) = E s =
s P(X = k) =
s e
k!
k!
k≥0
k≥0
k≥0
Comme l'espérance de
X
existe (puisque la série de terme général
(kP(X = k))k
converge
absolument), on a
E[X] =
Or,
G0X (s) = λeλ(s−1)
et donc
E[X] = λ
E[X(X − 1)] =
lim
lim
s→1, s<1
G0X (s).
. De même,
s→1, s<1
G00X (s) =
E[X 2 ]
lim
s→1, s<1
existe et alors
λ2 eλ(s−1) = λ2 .
V(X) = E[X(X − 1)] + E[X] − E[X]2 = λ2 + λ − λ2 = λ .
procède de la même manière si X est une v.a. géométrique : si −1 < s < 1,
X
X
X
sp
GX (s) =
sk P(X = k) =
sk p(1 − p)k−1 = ps
(s(1 − p))k−1 =
1 − s(1 − p)
k≥0
k≥1
k≥1
On a donc
On
(1 − p)s < 1).
avant E[X] = 1/p
(la dernière égalité est valide car
En dérivant, on obtient comme
et
V(X) = (1 − p)/p2
.
70
CHAPITRE 3.
VARIABLES ALÉATOIRES DISCRÈTES
Exercice 3.4.49 (#) Soit X et Y deux variables aléatoires indépendantes de lois de Poisson
de paramètres respectifs λ > 0 et γ > 0. Déterminer, en calculant sa fonction génératrice, la
loi de X + Y .
Solution. Pour s ∈] − 1, 1[, on a
GX+Y (s) = E[sX+Y ] = E[sX sY ] = E[sX ]E[sY ] = GX (s)GY (s)
car les 2 v.a. sont indépendanntes. Or,
GX (s) = eλ(s−1)
et
GY (s) = eγ(s−1)
donc
GX+Y (s) = e(λ+γ)(s−1) .
La série génératrice caractérisant la loi d'une v.a., on en déduit que
X+Y
est une v.a. de
λ + γ.
Poisson de paramètre
Exercice 3.4.50 (#) Soit (Xk )1≤k≤n une suite de v.a. indépendantes telles que pour 1 ≤ k ≤
n, Xk suit une loi uniforme discrète sur {1, . . . k}, c'est-à-dire que pour i ∈ {1, . . . k},
P (Xk = i) =
1
.
k
Déterminer la fonction génératrice de Xk et celle de Yn = n1 (X1 + X2 + · · · + Xn ).
Solution. Commençons par la série génératrice de Xk
P(Xk = i) =
Pour
s ∈] − 1, 1[,
1
,
k
qui est une v.a. uniforme sur
{1, . . . , k}
:
1 ≤ i ≤ k.
on a
GXk (s) =
n
X
n
si P(Xn = i) =
i=1
Calculons maintenant la série génératrice de
s 1 − sk
1X i
.
s =
k i=1
k 1−s
Yn = n1 (X1 + X2 + · · · + Xn ).
On a
n
h
i Y
h
Yn Xk i
1/n X1 +···+Xn
GYn (s) = E s
=E s
=
E s1/n
k=1
car les v.a.
(Xk )k
sont indépendantes. On a donc
GYn (s) =
n
Y
k=1
GXk (s
1/n
)=
n
Y
s1/n 1 − sk/n
k=1
k 1 − s1/n
=
s
(1 −
n
s1/n )
n
Y
n! k=1
1 − sk/n
Exercice 3.4.51 Soit n xé, et (Xi )i=1,...,n une suite de v.a. de Bernoulli indépendantes de
paramètre pn = λ/n ; Xi = 1 modélise que le i-ème assuré subit un sinistre. Le nombre d'assurés
subissant un sinistre est donc Yn = X1 + . . . + Xn . On suppose que les Xi sont indépendants ; le
fait que pn est petit avec n modélise que le risque de sinistre pour chaque assuré est petit devant
le nombre d'assurés, λ représentant le "nombre d'assurés sinistrés espéré".
1. Soit Z ∼ P (λ). Calculer la série génératrice GZ de Z .
3.4.
EXERCICES
71
2. Calculer la série génératrice GXi de Xi .
3. Calculer la série génératrice GYn de Yn .
4. Calculer limn→+∞ GY n . On rappelle que ln(1 + u) = u(1 + (u)), où limu→0 (u) = 0.
Conclusion ?
Exercice 3.4.52 (#) (Somme aléatoire) Soit (Xn )n∈N une suite de v.a. iid à valeurs dans N
et T une variable aléatoire,
P à valeurs dans N, et indépendantes des (Xn )n∈N . On pose S0 = 0
et pour tout n ≥ 1, Sn = nk=1 Xk et S(w) = ST (w) (w).
1. Montrer que GS = GT ◦ GX1 .
2. Montrer que si X1 et T ont une espérance, alors l'espérance de S existe et E[S] =
E[T ]E[X].
3. On prend pour les (Xn )n∈N des v.a. iid de loi de Bernoulli de paramètre p, et pour T une
loi de Poisson de paramètre λ. Quelle est la loi de S ?
Solution.
1. On a
GS (s) =
X
sk P(S = k) =
k≥0
De plus, comme
on a
X
sk
X
P(S = k, T = n) =
n≥0
k≥0
X
sk
sk
k≥0
S n = X 1 + X2 + · · · + Xn
GS (s) =
X
et que
X
T
X
P(Sn = k, T = n).
n≥0
est indépendant des v.a.
X1 , . . . , X n ,
P(Sn = k)P(T = n).
n≥0
k≥0
On veut intervertir les deux signes de sommation. Pour cela, il faut montrer que la série
|s| < 1,
X
XX
XX
sk P(Sn = k)P(T = n) ≤
P(Sn = k)P(T = n) =
P(S = k) = 1 < +∞
double converge absolument. Puisque
k≥0 n≥0
k≥0 n≥0
k≥0
(on a refait les mêmes calculs que précédemment mais dans l'autre sens). On peut intervertir les deux sommes, on a alors
GS (s) =
X
P(T = n)
n≥0
Or,
Sn
est la somme de
n
X
sk P(Sn = k) =
k≥0
X
P(T = n)GSn (s).
n≥0
variables indépendantes et de même loi, on a donc
GSn (s) =
n
Y
GXi (s) = (GX1 (s))n
i=1
et
GS (s) =
X
n≥0
ce qui est la relation à trouver.
P(T = n) (GX1 (s))n = GT (GX1 (s)),
72
CHAPITRE 3.
2. On justie l'existence de
E[S]
VARIABLES ALÉATOIRES DISCRÈTES
en montrant que la suite
K
X
!
kP(S = k)
k=0
et alors la série
Comme
E[S]
P
k≥0 kP(S = k)
existe, on sait que
est bornée
K≥0
est absolument convergente.
E[S] = G0S (1).
En utilisant a), on a
E[S] = G0X1 (1)G0T (GX1 (1)) = E[X1 ]G0T (1) = E[X1 ]E[T ]
On a utilisé que pour toute série génératrice,
G(1) = 1.
GT (s) = eλ(s−1) et GX1 (s) = ps + 1 − p.
λ(ps+1−p−1)
relation trouvée à la question a), on a GS (s) = e
= epλ(s−1) et
v.a. de Poisson de paramètre pλ.
3. On a dans ce cas particulier
En utilisant la
donc
S
est une
Chapitre 4
Variables aléatoires à densité
Ebauche de motivation : la planche de Galton.
On répète plusieurs fois l'expérience suivante : on laisse tomber une bille sur une planche
1
2
1
2
2
x
√1 e− 2
2π
Figure
4.1 Planche de Galton
inclinée munie de clous. Lorsque la bille rebondit sur le clou, elle a une chance sur deux de
tomber à droite ou à gauche. On récolte les billes et observe leurs répartitions. Ce que Galton
observe avec son expérience est la tendance des billes à se répartir d'une façon particulière.
De façon heuristique, lorsque l'on augmente le nombre de billes, l'histogramme se rapproche
d'une courbe. Il s'agit de la courbe de Gauss, et cette convergence est appelée le théorème de
de Moivre-Laplace.
Il apparait ainsi qu'à partir d'expériences simples, on passe d'un monde
discret à un monde continu Mathématiquement, le phénomène observé par Galton s'exprime ainsi :
√
P 2 n
Sn 1
−
n
2
1
≤ z −→ √
2π
73
Z
z
−∞
u2
e− 2 du.
74
CHAPITRE 4.
Où
Sn
suit une loi binomiale de paramètres
VARIABLES ALÉATOIRES À DENSITÉ
(n, 12 ). Ces résultats de convergence seront étudiées
dans le chapitre 5. Nous établissons dans un premier temps la notion de densité.
4.1
Généralités
Dénition 4.1.1 Soit X une variable aléatoire réelle, on dit que X admet une densité f si sa
fonction de répartition F est
continue
de la forme :
Z
x
F (x) =
−∞
f (t)dt, pour tout x ∈ R
avec
1. f est positive
2. fR possède un nombre ni de points de discontinuité
∞
3. −∞
f (x)dx = 1.
Remarque 4.1.1 La fonction f n'est pas unique, puisque l'on peut changer sa valeur en un
point sans changer la valeur de l'intégrale. Néanmoins nous parlerons de la densité.
Proposition 4.1.1 En tout point x0 où f est continue, F est dérivable et
F 0 (x0 ) = f (x0 ).
Savoir faire la démonstration de cette propriété est très important. La propriété correspond en
fait au théorème fondamental de l'analyse reliant intégrale et dérivée.
Démonstration. On écrit le taux d'accroissement en x0
F (x0 + h) − F (x0 )
1
=
h
h
Soit
> 0,
par continuité de
f
en
x0 ,
il existe
h
Z
de la fonction
F
:
x0 +h
f (t)dt
x0
tel que si
On écrit donc
|x − x0 | ≤ h
alors
|f (x) − f (x0 )| ≤ .
Z x0 +h
F (x0 + h) − F (x0 )
1
=
−
f
(x
)
(f
(x)
−
f
(x
))
dx
0
0
h
h
x0
Z x0 +h
1
|f (x) − f (x0 )|dx
≤
h x0
1
≤ h ≤ h
Si
h
tend vers
0,
le taux d'accroissement de
F
en
x0
admet une limite et sa limite vaut
f (x0 ).
Par dénition de la dérivée (en tant que limite du taux d'accroissement) :
F 0 (x0 ) = f (x0 ).
La notion d'intégrale généralisée est sous-jacente à l'étude des probabilités continues. Une
piqûre de rappel concernant les intégrales généralisées peut être utile...
4.1.
GÉNÉRALITÉS
75
4.1.1 Loi et fonction de répartition
Proposition 4.1.2 Soit X une variable aléatoire réelle admettant une densité f . Pour tout
(a, b) ∈ R2 avec a ≤ b
P[a < X ≤ b] =
b
Z
f (t)dt
a
Démonstration. On a F (b) = P[X ≤ b]. l'événement {a < X ≤ b} correspond à {X ≤ b} \ {X ≤
a}.
Donc
P[a < X ≤ b] = F (b) − F (a)
Z
Z b
f (t)dt −
=
f (t)dt
−∞
−∞
Z b
f (t)dt
=
a
par la relation de Chasles
a
Proposition 4.1.3 Pour une variable à densité, P[X = a] = 0 pour tout a ∈ R.
Démonstration.
{X = a} est la limite à
F , F (a) − F (x) −→ 0. La probabilité de l'événement
lorsque x tend vers
a.
Par continuité de
gauche de
F (a) − F (x)
x→a;x<a
4.1.2 Espérance
Dénition 4.1.2 Soit X une v.a.r de densité f . On appelle espérance de X , le réel
Z
+∞
E[X] :=
tf (t)dt
−∞
dénie uniquement si cette intégrale converge absolument.
Il faut voir l'
analogie entre cette dénition et la dénition de l'espérance d'une variable discrète :
E[X] =
X
xi P[X = xi ].
i∈I
La série est remplacée par l'intégrale. Dans le cas discret, c'est
de probabilité de l'événement élémentaire
{X = xi }.
P[X = xi ]
qui donne le poids
Dans le cas continu, ces éléments élémen-
taires sont donnés par la dérivée de la fonction de répartition
F 0 (x) c'est à dire f (x) (en dehors
d'une famille nie de points).
Contrairement au cadre discret, les variables aléatoires à densité ne forment pas un espace
vectoriel : Soient
X
et
Y
à densité, il n'y a aucune raison a priori que
Un exemple trivial est donnée par
pour
est
Y
X
(le démontrer). Dans ce cas :
dégénérée, P[X + Y = 0] = 1.
X +Y
ait une densité.
et Y = −X : si X a une densité alors il en est de même
X + Y = 0 presque sûrement. On dit que la loi de X + Y
Remarque 4.1.2 (Où est l'univers ?) D'aucun aura remarqué, que l'univers Ω n'apparait
que rarement dans cette partie où l'on traite des variables à densité. Nous avons déjà vu
76
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
qu'une fois les variables aléatoires discrètes dénies sur un espace abstrait Ω, on peut en pratique tout calculer en considérant sa loi : c'est à dire en travaillant sur l'espace probabilisé
(X(Ω), B(R), PX ). Le théorème 3.1.3 nous dit que
E[X] =
X
X(ω)P({ω}).
ω∈Ω
La théorie de la mesure permet de dénir une notion d'intégrale sur un espace Ω général contre
toute probabilité P, et montre que pour toute variable aléatoire réelle dénie sur un triplet
(Ω, F, P),
Z
X(ω)dP(ω)
E[X] =
(4.1)
Ω
On énonce les théorèmes fondamentaux suivants sans donner de démonstration.
Théorème 4.1.4 Soient X et Y deux variables à densité admettant une espérance, soit λ un
réel. La variable aléatoire X + λY admet une espérance (mais pas forcément une densité !) et
E[X + λY ] = E[X] + λE[Y ]
Une façon de démontrer ce résultat est de travailler avec un couple de variables aléatoires dont
X
les lois marginales correspondent à la loi de
et la loi de
Y.
Cela nécessiterait de travailler
avec des intégrales multiples, nous ferons ce genre de calculs lorsque l'on étudiera les vecteurs
aléatoires.
4.1.3 Composition d'une variable aléatoire et d'une fonction et indépendance
Théorème 4.1.5 (Théorème de transfert) Soient X une variable aléatoire réelle de densité
f et g une fonction continue par morceaux réelle telle que |g|f soit intégrable sur R. Alors g(X)
est une variable aléatoire réelle et possède une espérance :
Z
+∞
g(x)f (x)dx.
E[g(X)] =
−∞
Corollaire 4.1.6 Pour tout A borélien,
Z
E[1A (X)] =
f (x)dx
A
En fait, la variable aléatoire 1A (X) est une variable de Bernoulli de paramètre
A priori, le calcul de la loi de la v.a.r
g(X)
R
A
f (x)dx.
n'est pas dans le programme ; mais il faut com-
prendre que cela correspond à un changement de variable "dans
f ".
Il peut arriver lors d'une
épreuve mélangeant analyse et probabilité, que vous soyez amenés à faire ce genre de calcul.
C 1 strictement croissante et d'inverse C 1 (en fait il sut que g
diéomorphisme) alors g(X) est à densité. En eet, soit Fg sa fonction de répartition,
Z g−1 (x)
−1
Fg (x) := P[g(X) ≤ x] = P[X ≤ g (x)] =
f (t)dt.
On mentionne donc que si
soit un
g
est
−∞
Finalement,
Fg0 (x) = f (g −1 (x))(g −1 )0 (x) = f (g −1 (x))(g 0 ◦ g −1 (x))−1 .
4.2.
LOIS À DENSITÉ USUELLES
77
4.1.4 Moments, variance et écart-type
Dénition 4.1.3 (moment) Soit k ∈ N? . On appelle moment d'ordre k l'espérance si elle
existe de la variable X k . D'après le théorème de transfert, c'est donc
Z
k
∞
xk f (x)dx.
E[X ] =
−∞
Remarque 4.1.3 L'ensemble des variables aléatoires à densité ne forme pas un sous-espace
vectoriel de L0 , contrairement aux variables discrètes ! L'ensemble des variables aléatoires dénies sur un même espace Ω muni d'une tribu F , L0 contient les deux cas : discret et à densité.
Il faut savoir qu'il contient beaucoup plus ; il y a par exemple des variables non discrètes sans
densité...
Dénition 4.1.4 (Variance) On appelle variance de X l'espérance de la variable (X−E[X])2 :
V(X) := E[(X − E[X])2 ].
Par le théorème de transfert :
Z
+∞
V(X) =
−∞
Pour calculer
V,
(x − E[X])2 f (x)dx
on utilise souvent la formule :
V(X) = E[X 2 ] − E[X]2 .
4.2
Lois à densité usuelles
Loi uniforme
X
suit une loi uniforme sur le segment
[a, b]
f (x) =
On a
F (x) =
x−a
pour
b−a
x ∈ [a, b].
si sa densité est donnée par :
1
1[a,b] (x).
b−a
Les moments sont :
E[X] =
a+b
2
et
V(X) =
(b − a)2
.
12
Loi exponentielle
Une variable aléatoire
X
suit une loi exponentielle de paramètre
f (x) = θe−θx 1R+ (x).
On a
E[X] =
1
θ
et
V(X) =
1
.
θ2
La loi exponentielle est un cas particulier de la loi suivante.
θ
si sa densité est
78
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Loi Gamma
On rappelle la dénition de la fonction
Γ
pour tout réel
Z
p>0
:
∞
e−x xp−1 dx
Γ(p) =
0
Une variable aléatoire suit une loi Gamma de paramètre
densité est :
f (x) =
θ>0
et
p>0
(notée
Γ(p, θ))
si sa
θp −θx p−1
e x 1R+ (x).
Γ(p)
Proposition 4.2.1
E[X r ] =
Γ(p + r)
θr Γ(p)
Démonstration.
Z
r
E[X ] =
0
∞
θp −θx r+p−1
e x
dx =
Γ(p)
On obtient donc
E[X r ] =
Z
0
∞
θp −u u r+p−1 1
e
du
Γ(p)
θ
θ
1 Γ(p + r)
.
θr Γ(p)
Les propriétés de la fonction Gamma sont très importantes. On en rappelle quelques unes,
sans donner de démonstration.
Γ(p) = (p − 1)Γ(p − 1)
Γ(p) = (p − 1)!
Γ(1/2) =
Γ(p + 1) ∼
si
p
Néanmoins, vous devez savoir étudier la fonction Γ.
est entier
√
π
p p
e
p→∞
√
2πp(1 +
1
)
12p
Loi normale
2
X suit la loi
gaussienne N (m, σ ), où m ∈ R, σ ≥ 0,
2
(x−m)
√1 exp −
quand σ > 0, et si X = m quand σ = 0.
2σ 2
σ 2π
Une variable aléatoire
densité sur
R
:
si sa loi a pour
Remarque 4.2.1 Il faut impérativement savoir démontrer que
2
√
x
exp −
dx = 2π.
2
−∞
Z
∞
Il n'existe pas de forme explicite à l'aide de fonctions usuelles de x 7→
Calculons les moments :
Rx
0
u2
e− 2 du.
4.2.
1)
LOIS À DENSITÉ USUELLES
E[X] =
√1
σ 2π
R∞
xe−
−∞
(x−m)2
2σ 2
1
E[X] = √
σ 2π
Z
dx.
79
On pose
∞
(σu + m)e
u=
−u2 /2
−∞
x−m
, on obtient
σ
1
σdu = m + √
σ 2π
Z
∞
2 /2
ue−u
σdu = m
−∞
car la fonction à intégrer dans la partie droite est impaire.
2)
Z ∞
(x−m)2
1
x2 e− 2σ2 dx
E[X ] = √
σ 2π −∞
Z ∞
1
2
(σu + m)2 e−u /2 σdu
= √
σ 2π −∞
2σ 2
= m2 + √ Γ(3/2).
π
2
On a
Γ(3/2) = 21 Γ(1/2) =
√
π
, et donc
2
E[X 2 ] = m2 + σ 2 .
Si
X
est centrée réduite , c'est-à-dire lorsque
sienne standard.
m=0
et
σ 2 = 1,
la loi normale s'appelle
On a les propriétés intéressantes (mais non-exigibles) suivantes.
Exercice 4.2.1 (#)
Montrer les assertions suivantes :
2 /2
1)
P(X > t) ≤ 12 e−t
2)
P(X > t) ∼
3)
E[ezX ] = ez
.
2
√ 1 e−t /2 .
2πt
t→∞
2 /2
pour tout
z ∈ R.
Solution. Preuve de 1)
P[X > t] = (2π)
−1/2
Z
t
Z
∞
e−x
2 /2
∞
dx
2
e−(x+t) /2 dx
0
Z ∞
1 2
2
−1/2 −t2 /2
≤ (2π)
e
e−x /2 dx = e−t /2 .
2
0
= (2π)
−1/2
Preuve de 2)
2 /2
et cette intégrale tend
(2π)−1/2 e−t
P[X > t] =
t
R ∞ −y
vers
e dy = 1.
0
Z
0
∞
e−y e−y
2 /2t2
dy
gaus-
80
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Preuve de 3)
zX
E[e
∞
Z
−1/2
2
ezx−x /2 dx
−∞
Z ∞
1
2
−1/2 z 2 /2
= (2π)
e
e− 2 (x−z) dx
Z−∞
∞
1
2
2
2
e− 2 (x−z) dx = ez /2 .
= (2π)−1/2 ez /2
] = (2π)
−∞
Loi Bêta
Une variable aléatoire suit une loi Bêta de paramètre
f (x) =
et
β>0
si sa densité est :
1
xα−1 (1 − x)β−1 1[0,1] (x),
B(α, β)
où
Z
1
B(α, β) =
Exercice 4.2.2
α>0
0
xα−1 (1 − x)β−1 dx.
Démontrer que
B(α, β) =
Γ(α)Γ(β)
.
Γ(α + β)
Nous terminons ce catalogue avec une dernière loi un peu moins classique.
Loi de Weibull
λ > 0 et k > 0
k x k−1 −(x/λ)k
f (x) =
e
1R+ (x).
λ λ
Une variable aléatoire suit une loi Weibull de paramètre
si sa densité est :
Cette loi est utilisée dans de nombreux domaines (par exemple en abilité, en logistique et en
météo).
Proposition 4.2.2 La fonction de répartition de la loi de Weibull est
F (x) = 1 − e−(x/λ) pourx ≥ 0 et 0 si x < 0.
k
E[X] = λΓ(1
h + 1/k)
2 i
1
2
2
V[X] = λ Γ 1 + k − Γ 1 + k
Démonstration. Exercice.
Remarque 4.2.2 Il est intéressant de voir le rôle des paramètres dans la forme de la densité.
4.3
Vecteurs aléatoires à densité
Dénition 4.3.1 Un vecteur aléatoire X de Ω dans Rp admet une densité s'il existe une fonction f : Rp → R positive, intégrable et d'intégrale valant 1, telle que : ∀ (x1 , ..., xp ) ∈ Rp
P[X1 ≤ x1 , X2 ≤ x2 , ..., Xp ≤ xp ] =
Z
x1
Z
x2
Z
xp
...
−∞
−∞
f (u1 , u2 , ..., up )du1 ...dup
−∞
4.3.
VECTEURS ALÉATOIRES À DENSITÉ
81
4.3.1 Vecteurs aléatoires à densité : lois marginales, indépendance
Proposition 4.3.1 Soit X un vecteur aléatoire à densité. Les variables aléatoires X1 , ..., Xp
sont alors également à densité. Une densité pour Xi est
fXi : x 7→
Z
∞
f (u1 , ..., ui−1 , x, ui+1 , ..., up )du1 ...dui−1 dui+1 ...dup
−∞
Dénition 4.3.2 Les fonctions fXi , pour i = 1, ..., p sont appelées densités marginales du
vecteur X .
Théorème 4.3.2 (Théorème de factorisation) Soit X = (X1 , ..., Xp ) un vecteur aléatoire.
Les variables aléatoires X1 , ...Xp sont indépendantes si et seulement si le vecteur X a une
densité f à variables séparées : c'est à dire :
Dans ce cas, on a : fi = λi fXi
Démonstration.
f (x1 , ..., xp ) = f1 (x1 )...fp (xp ).
Q
avec λi = 1.
On démontre que si la densité s'écrit sous forme de produit alors les variables
sont indépendantes :
P[X1 ≤ x1 , ...., Xp ≤ xp ] =
Z
x1
Z
xp
f (u1 , ..., up )du1 ...dup
...
Z−∞
xp
Z−∞
x1
f1 (u1 )...fp (up )du1 ...dup
Z x1
Z xp
1
1
=
fp (up )dup
f1 (u1 )du1 ..
λ1 −∞
λp −∞
Z x1
Z xp
fXp (up )dup
=
fX1 (u1 )du1 ...
=
...
−∞
−∞
−∞
−∞
= P[X1 ≤ x1 ]...P[Xp ≤ xp ]
4.3.2 Loi normale multidimensionnelle
Dénition 4.3.3 (Vecteur gaussien) Un vecteur aléatoire X = (X1 , ..., Xp ) est un vecteur
gaussien si pour tous réels λ1 , ..., λp ,
λ1 X1 + ...λp Xp suit une loi normale.
Remarque 4.3.1 On en déduit que si A est une application linéaire de Rp dans Rd , et si X
est gaussien dans Rp alors AX est gaussien dans Rd
De façon plus explicite, on a la dénition suivante en terme de densité :
Dénition 4.3.4 Soit m ∈ Rp , et Σ une matrice (p, p) réelle symétrique positive, X est un
vecteur normal de dimension p si sa densité est donnée par
1
1
−1
f (x) =
exp − h(x − m), Σ (x − m)i
p
2
(2π)p/2 Det(Σ)
82
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Σ est appelée matrice de variance-covariance. En eet, la matrice Σ est donnée
= V(Xi ) et Σi,j = cov(Xi , Xj ). Si la matrice est diagonale, alors les variables ne sont
La matrice
par
Σi,i
pas
corrélés. En fait, dans le monde gaussien une matrice diagonale correspond à un vecteur à
composantes indépendantes.
Théorème 4.3.3 Les composantes d'un vecteur gaussien sont indépendantes si et seulement
si elles ne sont pas corrélées.
Remarque 4.3.2 Il faut bien faire attention à ce que dit ce théorème. En général l'indépen-
dance n'est pas équivalente à la corrélation nulle. Ce n'est vrai que si on a démontré au préalable
que le vecteur est gaussien. En particulier, on peut construire des exemples de variables aléatoires X, Y de loi normale, telles que X et Y ne soient pas indépendantes et cov(X, Y ) = 0,
bien sûr dans ce cas, le vecteur (X, Y ) n'est pas gaussien.
Exercice 4.3.1 Montrer que si X et Y sont deux variables aléatoires réelles indépendantes de
loi normale de paramètre m et σ 2 , alors X + Y et X − Y sont indépendantes. Indication :
montrer que (X + Y, X − Y ) est un vecteur gaussien.
4.3.3 Sommes de deux variables aléatoires indépendantes : convolution
On ne rentrera pas dans les détails. Le produit de convolution n'est pas au programme (mais
est tombé en problème en 2001). On démontre que si
densité
indépendantes,
alors
X+Y
X
et
Y
sont deux variables aléatoires à
est également à densité. On donne de plus une forme
intégrale de sa densité.
Théorème 4.3.4 (produit de convolution) Soit X une v.a.r de densité f et Y une v.a.r
indépendante de densité g . La variable aléatoire Z = X + Y a pour densité :
h : z 7→
Z
∞
−∞
f (z − y)g(y)dy.
la fonction h est appelée convolée de f et g , et notée f ? g .
Remarque 4.3.3 L'opération ? est l'opération de convolution, c'est une opération commu-
tative, non inversible. Ce dernier point n'est pas trivial et peut faire l'objet d'un problème
d'analyse.
Démonstration.
Soit z ∈ R, on cherche à exprimer la fonction de répartition de Z = X + Y .
f et g les densités de X et Y . Ces variables étant indépendantes, la densité de (X, Y )
φ(x, y) = f (x)g(y). On intègre cette fonction de R2 sur le domaine {(x, y), x + y ≤ z} :
Z
P[X + Y ≤ z] =
1{(x,y),x+y≤z} g(x)f (y)dxdy
R2
Z ∞ Z z−y
=
f (x)dx g(y)dy
−∞
−∞
Z ∞ Z z
=
f (u − y)du g(y)dy
−∞
−∞
Z z Z ∞
=
f (u − y)g(y)dudy
On note
est
−∞
avec le changement de variable
u = x + y.
−∞
4.4.
EXERCICES
83
Théorème 4.3.5 Soient X1 , ..., Xn des variables aléatoires indépendantes
P de loi gaussienne
2
2
de paramètres respectifs (m
n , σn ). La variable aléatoire Y =
P1 n, σ1 ), ...,P(m
gaussienne de paramètres i=1 mi , ni=1 σi2 .
4.4
n
i=1
Xi suit une loi
Exercices
Exercice 4.4.1 (#) Déterminer c (si c'est possible) pour que les fonctions suivantes soient
des densités de probabilité sur R :
1. f (x) = c1[a,b] (x) où a et b sont deux réels tels que a < b
2. f (x) = ce−αx 1[0,+∞[ (x), où α ∈ R
c
3. f (x) = 1+x
2
α+1
1[a,+∞[ (x) pour a > 0 et α ∈ R.
4. f (x) = c xa
5. f (x) = c sin(2x + π4 )1[− π8 , π8 ] (x)
Solution.
1.
c = 1/(b − a)
R∞
α ≤ 0, l'intégrale −∞ f (x)dx n'est pas convergente : il n'existe donc pas de c répondant
−αx
à la question. Si α > 0, x 7→ ce
est intégrable sur ]0, +∞[ et l'intégrale vaut α. On a
donc c = α.
2. Si
3.
c = 1/π
4. Si
5.
α ≤ 0,
impossible. Si
α > 0, c = α/a
c=2
Exercice 4.4.2 (#) Soit X une variable aléatoire suivant une loi dont la densité de probabilité
est donnée par
fX : R −→
R+
−x2 /2
x 7−→ xe
1R?+ (x).
Après avoir démontré leurs existences, déterminer l'espérance et la variance de la variable
aléatoire X 2 .
Solution. On pose Y = X 2 . On a alors E[Y ] = E[X 2 ] et V[Y ] = E[Y 2 ]−E[Y ]2 = E[X 4 ]−E[X 2 ]2 .
L'existence de l'espérance et de la variance découle de la comparaison avec les intégrales de
Riemann.
Calcul de l'espérance. Par dénition,
Z
E[Y ] =
+∞
x2 xe−x
2 /2
dx.
0
On introduit alors les fonctions suivantes
u : R+ →
R+
2
x 7−→ −e−x /2 ,
v : R+ → R+
x 7−→ x2 ,
84
CHAPITRE 4.
On a alors
VARIABLES ALÉATOIRES À DENSITÉ
+∞
Z
u0 (x)v(x)dx.
E[Y ] =
0
Puisque
u
et
E[Y ] =
v
sont de classe
2
[−x2 e−x /2 ]+∞
0
C1
sur
R+ ,
+∞
Z
+2
la formule d'intégration par parties donne
−x2 /2
xe
Z
+∞
xe−x
dx = 2
0
2 /2
dx = 2[−e−x
0
2 /2
]+∞
= 2.
0
Calcul de la variance. Nous avons ensuite
+∞
Z
2
x4 xe−x
E[Y ] =
2 /2
dx.
0
On introduit alors les fonctions suivantes
u : R+ →
R+
2
x 7−→ −e−x /2 ,
v : R+ → R+
x 7−→ x4 ,
On a alors
+∞
Z
2
u0 (x)v(x)dx.
E[Y ] =
0
Puisque
u
et
v
sont de classe
2
E[Y ] =
C
1
sur
R+ ,
2
[−x4 e−x /2 ]+∞
0
la formule d'intégration par parties donne
Z
+∞
+4
3 −x2 /2
xe
Z
+∞
x2 xe−x
dx = 4
0
2 /2
dx.
0
On eectue alors une nouvelle intégration par parties (ou alors on remarque que l'on a déjà fait
le calcul plus haut) pour obtenir
2
Z
E[Y ] = 8
+∞
xe−x
2 /2
dx = 8[−e−x
2 /2
0
]+∞
= 8.
0
On en déduit que
V[Y ] = E[Y 2 ] − E[Y ]2 = 4.
Exercice 4.4.3 Pour quelles valeurs de α ≥ 0, l'espérance E(X α ) est-elle nie, si la densité
de la loi de X est
fX : R −→
R+
x 7−→ C(1 + x2 )−m
où C ∈ R et m ∈ R.
Réponse : α < 2m − 1.
Exercice 4.4.4 Soient a < b deux réels. Calculer E e−X si X suit une loi uniforme sur
l'intervalle [a, b], c'est-à-dire si la densité de X est fX =
Réponse. E e−X =
e−b −e−a
.
b−a
1
1
b−a [a,b]
.
4.4.
EXERCICES
85
Exercice 4.4.5 (#)
1. Soit F la fonction de répartition d'une variable aléatoire X . On
suppose que F est bijective. Soit U une variable aléatoire uniforme sur [0, 1]. Montrer que
F −1 (U ) a même loi que X .
2. On suppose que X est une v.a. à valeurs dans R et ayant pour densité :
f : y 7−→
1
π(1 + y 2 )
(on dit que X est une v.a. de Cauchy de paramètre 1).
3. Calculer la fonction de répartition de X .
4. Montrer que si U est une v.a. uniforme sur [0, 1], alors
1
Y = tan π U −
2
a même loi que X .
Solution.
1. Déterminons la fonction de répartition de
F −1 (U )
:
P(F −1 (U ) ≤ x) = P(U ≤ F (x)) = F (x).
2.
Z
x
F (x) =
−∞
3.
F est strictement croissante
F −1 . Soit y ∈ [0, 1],
1
π
dy
=
Arctan(x) +
.
π(1 + y 2 )
π
2
et continue :
F
est donc inversible. Calculons son inverse
1
π
1
π y=
Arctan(x) −
⇐⇒ π y −
= Arctan(x) ⇐⇒ x = tan π y −
π
2
2
2
−1
et donc F
(y) = tan π y − π2 . On conclut que F −1 (U ) a même loi que X par
question 1.
la
Exercice 4.4.6 (#) Soit X une variable aléatoire positive ayant une densité continue f et
telle que E[X r ] est nie pour r ≥ 1.
1. Montrer que
lim xr P(X > x) = 0.
x→+∞
Indication : trouver une expression de P(X > x) en fonction de f .
2. En déduire que
Z ∞
E[X r ] =
rxr−1 P(X > x)dx.
0
Indication : Que vaut la dérivée de x 7−→ P(X > x) ?
Solution.
86
CHAPITRE 4.
1. On a
P(X > x) =
R +∞
x
f (t)dt
VARIABLES ALÉATOIRES À DENSITÉ
et donc
r
x P(X > x) = x
r
+∞
Z
f (t)dt ≤
x
et ce dernier terme tend vers 0 quand
x → +∞
Z
+∞
tr f (t)dt
x
puisque
E[X r ] =
R +∞
0
tr f (t)dt
est nie.
2. On fait une intégration par parties.
Puisque
f
x > 0, (P(X > x))0 = −f (x). On a alors
Z A
h
iA Z A
r−1
r
rt P(X > x)dt = t P(X > t) +
tr f (t)dt
est continue, on a pour
0
x
Le premier terme tend vers 0 d'après a) et le second vers
pour
A > 0,
0
E[X r ]
qui est nie.
Exercice 4.4.7 (#) Soit X une variable aléatoire telle que X et 2X ont même fonction de
répartition. Donner une équation vériée par la fonction de répartition de X et en déduire sa
loi.
Solution. On note F
x ∈ R. On a
x
x
F (x) = P(X ≤ x) = P(2X ≤ x) = P X ≤
=F
.
2
2
x
et en faisant tendre n
En réitérant, on a alors que pour tous x ∈ R et n ∈ N, F (x) = F
n
2
+
−
vers +∞, on a donc F (x) = F (0 ) si x > 0 et F (x) = F (0 ) si x < 0. Or, F est continue à
+
droite donc F (0 ) = F (0). La fonction F est donc constante sur ] − ∞, 0[ et sur [0, +∞[. Mais,
par propriété des fonctions de répartition, F (−∞) = 0 et F (+∞) = 1.
On en déduit que F (x) = 0 si x < 0 et F (x) = 1 si x ≥ 0, ce qui signie que P(X = 0) = 1 et
donc X est nulle.
la fonction de répartition de
X.
Soit
Exercice 4.4.8 Soit X une variable aléatoire de loi exponentielle de paramètre λ. On désigne
par [.] la fonction partie entière.
1) On pose Y = [X]. Donner la loi de Y , son espérance et sa variance.
2) Soit Z l'entier le plus proche de Y , donner la loi de Z .
Exercice 4.4.9 Soit X une variable aléatoire de loi normale centrée réduite. On note Y =
Déterminer la fonction de répartition de Y et sa densité.
X2
2
.
Exercice 4.4.10 Soient X et Y deux variables aléatoires réelles indépendantes de densités
respectives f et g et de fonctions de répartition respectives F et G. Donner les densités de
U = max(X, Y ) et V = min(X, Y ).
Exercice 4.4.11 Soit X une variable aléatoire à densité. Soit g une fonction C 1 croissante.
Montrer que
Z
E[g(X)] = g(0) +
∞
g 0 (t)P[X > t]dt
0
Exercice 4.4.12 Soit (X1 , ..., Xn ), n variables indépendantes identiquement distribuées. Dé-
terminer la fonction de répartition de min(X1 , ..., Xn ). En supposant que la loi de X1 est une
densité, exprimer la densité de min(X1 , ..., Xn ).
4.4.
EXERCICES
87
Exercice 4.4.13 (Exercice fondamental) Soient X et Y deux variables aléatoires (à densité
ou discrètes) avec un moment d'ordre 2. En pensant à l'inégalité de Cauchy-Schwarz, démontrer
que
p
p
E[Y 2 ] E[X 2 ].
E[XY ] ≤
Exercice 4.4.14
La durée en heures de fonctionnement d'un ordinateur est une variable aléa-
toire continue de densité :
x
f : x 7→ λe− 36
1) Calculer
si
x ≥ 0; 0
sinon.
λ.
2) Quelle est la probabilité que l'ordinateur fonctionne entre 10 et 36 heures ?
3) Quelle est la probabilité qu'il fonctionne moins de 36 heures ?
Exercice 4.4.15 La RATP estime que le retard en minutes du bus 156 est une variable aléatoire X de densité de probabilité f avec
f (x) = ax(10 − x) si x ∈ [0, 10] et 0 sinon.
1) Trouver a tel que f soit bien une densité de probabilité.
2) Calculer le retard moyen d'un bus et sa variance
3) Déterminer la fonction de répartition de X et calculer la probabilité qu'un bus ait un retard
supérieur à 8 minutes.
4) Soit Y = X 2 , déterminer la fonction de répartition de Y puis sa densité de probabilité.
Exercice 4.4.16 (#) Soit f la fonction dénie sur R par :

2
 f (t) =
(1 + t)3

f (t) = 0
si t ≥ 0
si t < 0
1. Montrer que f est une densité d'une variable aléatoire Z
2. Déterminer la fonction de répartition FZ de Z .
3. Justier la convergence de l'intégrale :
Z
0
+∞
2t
dt
(1 + t)3
La calculer en eectuant le changement de variable u = t + 1.
4. Prouver que Z admet une espérance et la déterminer.
5. Z admet-elle une variance ?
Solution.
1. On vérie les caractéristiques d'une densité :
f
est positive sur
continue sur
∗
R
R
88
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Z
0
0
si
x ≥ 0 : FZ (x) =
Z
+∞
3. l'intégrale
0
En
+∞
en
±∞.
−∞
f est bien une densité de variable
Rx
On a FZ (x) =
f (t) dt donc
−∞
si x < 0 : FZ (x) = 0
Z
Z
Donc
2.
+∞
f est impropre
f est prolongeable à gauche et à droite en 0 donc
−∞
R0
R0
f = −∞ 0 = 0 (converge)
−∞
K
Z X
Z K
2
1
1
f=
=1−
→1
3 dt = −
2
(1 + t)
(1 + t) 0
(1 + K)2
0
0
Z +∞
Z +∞
f converge et vaut 1 et
f converge et vaut 1.
donc
x
0+
−∞
0
2t
dt
(1 + t)3
f =1−
Z
+∞
Or l'intégrale de Riemann
1Z
d'intégrale à termes positifs,
On eectue le changement de
0
1
(1 + x)2
n'est impropre qu'en
on a un équivalent simple :
dt : t = 0 ↔ r = 1
Z K
aléatoire.
+∞
2t
2t
2
3 = 3
3 ∼ 2 > 0.
t
(1 + t)
t (1 + 1/t)
1
dt
t2
est convergente car
2 > 1.
Donc par comparaison
+∞
2t
dt converge.
(1 + t)3
0
1
variable (u est de classe C sur [1, K + 1]) u = t + 1 : du ↔
Z K+1
Z K+1
2
2
2t
2 (u − 1)
du
=
−
du
3 dt =
u3
u2 u3
(1 + t)
1
1
K+1
−2
−2
1
1
=
+1
=
+ 2
+
u
u 1
K + 1 (K + 1)2
−→ 1
K→∞
Z
donc
0
+∞
2t
dt = 1
(1 + t)3
4. Espérance ?
On étudie la convergence
Z
R +∞
−∞
tf (t) dt
impropre en
0
±∞.
tf (t) dt = 0
Z +∞
2t
tf (t) dt =
3 dt = 1 (d'après la question précédente)
(1
+
t)
0
0
R +∞
donc
tf (t) dt converge et Z admet une espérance E (Z) = 1
−∞
Z−∞
+∞
5. Comme
2t2
2
3 ∼
t
(1 + t)
dont l'intégrale diverge en
+∞,
alors
Z2
n'a pas d'espérance et
Z
n'a pas de variance.
Exercice 4.4.17 (#) On considère trois variables aléatoires X , Y et Z indépendantes et suivant la loi exponentielle de paramètre λ.
4.4.
EXERCICES
89
1. Déterminer la loi de Y + Z (on pourra calculer sa densité).
2. (a) Déterminer la densité de la variable aléatoire D = Y + Z − X sur R+ .
(b) Calculer P(X ≤ Y + Z).
3. Déterminer l'événement complémentaire de l'événement
{X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y }
et calculer sa probabilité.
4. Quelle est la probabilité pour qu'on puisse construire un triangle (éventuellement aplati)
dont les côtés aient pour longueurs X , Y et Z ?
solution
1.
Y +Z
est encore une variable aléatoire à valeurs dans
dantes, une densité
fY +Z
x>0
Z
de
−∞
2.
fY +Z (x) = 0
pour
(a) La variable aléatoire
x > 0,
pour
fY (t)fZ (x − t)dt =
0
Y +Z
−X . On
R dans R.
On a donc besoin de calculer la densité de
une fonction continue bornée de
+∞
−λy
E[Φ(−X)] =
Φ(−y)λe
u=−y
x > 0,
Z
−X
est donc
(4.2)
utilise la méthode vue en TD.
Z
0
Φ(u)λeλu du.
dy =
0
La densité de
et, à nouveau par convolution,
fY +Z (t)f−X (x − t)dt.
−∞
Z
−∞
u 7−→ λeλu 1]−∞,0] (u)
et en revenant à (4.2), on a pour
+∞
fD (x) =
2
λ te
−λt
sont indépen-
+∞
fD (x) =
Φ
Z
et
λe−λt λe−λ(x−t) = λ2 xe−λx .
est indépendante de
Z
Soit
Y
x
Z
x ≤ 0.
−X
et comme
peut être dénie par convolution, ce qui donne pour
+∞
fY +Z (x) =
De plus,
Y +Z
R+
λ(x−t)
1[0,+∞[ (t)λe
−∞
3 λx
1]−∞,0] (x − t)dx = λ e
Z
+∞
te−2λt dt.
x
Le calcul de cette intégrale se fait à l'aide d'une intégration par parties, ce qui donne
pour
x>0
λ
(2λx + 1)e−λx .
4
fD (x) =
(b) On a
P(X ≤ Y + Z) = P(D ≥ 0) =
Z
0
+∞
λ
fD (x)dx =
4
En intégrant à nouveau par parties, on obtient :
Z
+∞
(2λx + 1)e−λx dx.
0
P(D ≥ 0) = 3/4.
90
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
C = {X ≤ Y + Z} ∩ {Y ≤ Z + X} ∩ {Z ≤ X + Y }. L'événement complémentaire
est C = {X > Y + Z} ∪ {Y > Z + X} ∪ {Z > X + Y }. Les trois événements constituant
la réunion précédente sont deux à deux disjoints (si on avait par exemple {X > Y + Z}
et {Y > Z + X}, on aurait {X > 2Z + X}, ce qui est clairement impossible puisque Z
+
est à valeurs dans R ). De plus, d'après la question b), chacun de ces événements a pour
probabilité 1/4.
c
On en déduit que P(C ) = 3/4.
3. Posons
c
4. On peut construire un triangle de côtés donnés si et seulement si chacun de ces nombres
est inférieur ou égal à la somme des deux autres, ce qui correspond à la réalisation de
l'événement
C
de probabilité 1/4 .
Exercice 4.4.18 Dans cet exercice, n désigne un entier naturel non nul.
nxn−1 si x ∈ [0; 1]
0
sinon
1. Soit fn la fonction dénie par : fn (x) =
Montrer que fn est une densité de probabilité.
2. On considère une variable aléatoire Xn réelle dont une densité de probabilité est fn . On
dit alors que Xn suit une loi monôme d'ordre n.
(a) Reconnaître la loi de X1 .
(b) Dans le cas où n est supérieur ou égal à 2, déterminer la fonction de répartition Fn
de Xn , ainsi que son espérance E (Xn ) et sa variance V (Xn ).
3. On considère deux variables aléatoires Un et Vn dénies sur le même espace probabilisé
(Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles
vérient en particulier l'égalité suivante :
∀x ∈ R,
P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x)
On pose Mn = sup (Un , Vn ) et on admet que Mn est une variable aléatoire dénie, elle
aussi, sur (Ω, A, P ).
(a) Pour tout réel x, écrire, en justiant la réponse, l'événement (Mn 6 x) à l'aide des
événements (Un 6 x) et (Vn 6 x).
(b) En déduire une densité de Mn . Vérier que Mn suit une loi monôme dont on donnera
l'ordre, puis déterminer sans calcul E (Mn ).
(c) On pose Tn = inf (Un , Vn ). Exprimer Mn + Tn en fonction de Un et Vn , puis en
déduire, sans calcul d'intégrale, la valeur de E (Tn ).
Dans cet exercice,
n
désigne un entier naturel non nul.
1. Soit
fn
la fonction dénie par :
nxn−1 si x ∈ [0; 1]
0
sinon
R− {0, 1} (en fait, en 0 elle
fn (x) =
fn est positive sur R et continue sur
R +∞
f n est impropre en ±∞ car fn est continue par morceaux
R−∞
R0
0
f = −∞ 0 converge et est nulle.
−∞ n
R +∞
R +∞
fn = 1 0 = 0
1
R1
R 1 n−1
f
=
nx dx = [xn ]1x=0 = 1 car 0n = 0 pour n ∈ N∗
n
0
0
R +∞
Donc
f converge et vaut 1.
−∞ n
Donc fn est bien une densité de probabilité.
est continue)
sur
R
4.4.
EXERCICES
91
2. On considère une variable aléatoire
dit alors que
Xn
Xn
réelle dont une densité de probabilité est
suit une loi monôme d'ordre
(a) Pour
sur
n = 1 la densité est : f1 (x) =
1
0
fn .
On
n.
si
x ∈ [0; 1]
sinon
donc
X1
suit une loi uniforme
[0, 1]
(b) La fonction de réparition de
Xn
est donnée par :
Rx
Fn (x) = −∞ f où il faut distinguer suivant que x < 0 : 0 ≤ x ≤ 1 et x > 1 :
Rx
si x < 1 alors Fn (x) =
0=0
−∞ R
Rx
0
si 0 ≤ x ≤ 1 alors Fn (x) =
0 + 0 ntn−1 dt = 0 + [tn ]x0 = xn
−∞
Rx
R 1 n−1
R0
0 = 0 + [tn ]10 + 0 = 1
nt
dt
+
0
+
si 1 < x alors Fn (x) =
1
0
−∞
R +∞
Pour calculer E (Xn ) on étudie la convergence et on calcule
tfn (t) dt qui
−∞
impropre en ±∞
R0
R0
t fn (t) dt = −∞ 0 = .0
−∞
R +∞
R +∞
0=0
t
f
(t)
dt
=
n
1
Z1 1
Z 11
Z 1
n n+1
n
n−1
n
t fn (t) dt =
t nt dt =
nt dt =
t
=
n+1
n+1
0
0
0
t=0
n
Donc Xn a une espérance et E (Xn ) =
n+1
1
Z 1
Z 1
n n+2
n
n+1
2
2
nt dt =
t fn (t) dt =
=
De même pour E Xn =
t
n+2
n+2
0
0
0
Donc X a une variance et
2
n
n
2
2
V (Xn ) = E Xn − E Xn =
−
n+2
n+1
2
n + 2n + 1 − n (n + 2)
= n
(n + 2) (n + 1)2
n
=
(n + 2) (n + 1)2
est
Un et Vn dénies sur le même espace probabilisé
(Ω, A, P ), suivant la loi monôme d'ordre n (n > 2) et indépendantes, c'est-à-dire qu'elles
3. On considère deux variables aléatoires
vérient en particulier l'égalité suivante :
∀x ∈ R,
Mn = sup (Un , Vn )
sur (Ω, A, P ).
On pose
aussi,
(a)
P (Un 6 x ∩ Vn 6 x) = P (Un 6 x) P (Vn 6 x)
(Mn 6 x)
et on admet que
Mn
est une variable aléatoire dénie, elle
x c'est à dire tous sont
x
et (Mn 6 x) = (Un 6 x) ∩ (Vn 6 x)
Comme Un et Vn sont indépendantes, on a alors : p (Mn 6 x) = p (Un 6 x)·p (Vn 6 x)
En notant F la fonction de répartition d'une loi monôme et G celle de Mn on a
est l'événement le plus grand es tplus petit que
plus petit que
(b)
alors :
G (x) = F (x) · F (x) = F (x)2 pour tout x réel.
Comme F est la fonctio de répartition d'une variable
à densité, on sait
92
CHAPITRE 4.
que
F
VARIABLES ALÉATOIRES À DENSITÉ
est continue sur
1
C sur
F 0 = fn
de classe
et que
R
R− {0, 1}
(là où
fn
est continue)
Donc
que
G
G
est continue sur
de classe
R comme
R− {0, 1}
composée de fonctions continues.
0
est une variable à densité et suit une
E (Mn ) =
2xn nxn−1 = 2nx2n−1 si x ∈ [0; 1]
0
sinon
loi monôme d'ordre 2n
G = 2F (x) F (x) = 2F (x) fn (x) =
Mn
et donc
sur
0
et que
Donc
C
1
2n
2n + 1
Tn = inf (Un , Vn ).
On a Mn + Tn = Un + Vn (car l'un est le plus petit et l'auter le plus grand)
n
2n
De plus E (Un ) = E (Vn ) =
alors E (Un + Vn ) = E (Un ) + E (Vn ) =
n+1
n+1
Et comme Tn = Mn + Tn − Mn = Un + Vn − Mn on a nalement
(c) On pose
E (Tn ) = E (Un + Vn ) − E (Mn )
2n
2n
−
=
n + 1 2n + 1
2n2
=
(n + 1) (2n + 1)
Exercice 4.4.19 (Inégalité de Paley-Zigmund) Soit X une variable positive, non nulle,
ayant un moment d'ordre 2. Montrer
P (X ≥ αE[X]) ≥ (1 − α)2
(E[X])2
E[X 2 ]
pour tout α ∈]0, 1[.
Exercice 4.4.20 (#) Soit X une variable aleatoire normale de moyenne µ = 2 de variance
σ 2 = 4.
1. Soit la variable T = (X − µ)/σ . Quelle loi de probabilité suit T ?
2. On considère l'événement {X < 1, 5}. Quel est l'événement équivalent pour T ? Quelle
est la probabilité correspondante ?
3. Même question pour l'évenement {X > −2}.
4. Soit l'évenement {−1 ≤ T < 1}. Quel est l'événement équivalent pour X ? Quelle est sa
probabilité ?
5. Déterminer les valeurs x telles que P(X < x) = 0, 76 ; P(X ≥ x) = 0, 6 et P(0 ≤ X <
x) = 0, 40.
Solution.
2.
P(X < 1, 5) = P(T < −0, 25) = 1 − P(T ≤ 0, 25) = 0, 401
3.
P(X > −2) = P(T > −2)P(T ≤ 2) = 0, 977
4.4.
4.
EXERCICES
93
P(−1 ≤ T < 1) = P(T < 1)−P(T < −1) = P(T < 1)−P(T > 1) = P(T < 1)−(1−P(T ≤
1)) et donc P(−1 ≤ T < 1) = 2P(T < 1) − 1 = 0, 682 .
5. x−2
). Donc x−2
2
2
P(X < x) = P(T <
P(X ≥ x) = P T ≥
x−2
2
= 0, 71
=P T ≤
2−x
2
et
x = 3, 42
et donc
.
x = 1, 5
.
= P T < x−2
− P (T < −1) . On a alors
P(0 ≤ X < x) = P −1 ≤ T < x−2
2
2
x−2
x−2
P(0 ≤ X < x) = P T <
− 1 + P(T ≤ 1) = P T <
− 0, 16
2
2
P(T ≤ 1) = 0, 84).
= 0, 56. On a alors-+ x = 2, 3
(car d'après la table de la loi normale,
x
On cherche donc
tel que
P T <
x−2
2
.
Exercice 4.4.21 (#) Le taux de glycémie d'une population est répartie suivant une loi nor-
male. Une enquête auprès de l'ensemble de cette population montre que 84,1% des individus ont
un taux inférieur à 1,40 g/l et 2,3% ont un taux supérieur à 1,60 g/l.
1. A l'aide de la table de la loi normale, déterminer la moyenne et la variance du modèle.
2. En admettant qu'un taux de glycémie supérieur à 1,30 g/l nécessite un traitement, quel
pourcentage de cette population devra t'on traiter ?
Solution.
1. Notons respectivement
note
X.
m
et
σ2
la moyenne et la variance du taux de glycémie que l'on
On a
0, 841 = P(X < 1, 4) = P
X −m
1, 4 − m
<
σ
σ
.
N (m, σ 2 ), N =
X−m
est une v.a. normale
σ
1,4−m
utilisant la table de la loi normale, on a donc
= 1. De même,
σ
Comme
X
est une v.a. normale
N (0, 1).
En
1, 6 − m
0, 977 = P(X < 1, 6) = P N <
σ
et
1,6−m
σ
= 2.
Pour trouver
m
et
σ,
il sut donc de résoudre le système
σ + m = 1, 4 2σ + m = 1, 6
qui a pour solution
2. Il sut de calculer
m = 1, 2 σ = 0, 2
.
X
est donc une v.a.
N (1, 2; 0, 04).
P(X > 1, 3) = P(N > 0, 5) = 1 − P(N ≤ 0, 5) = 0, 31
.
Exercice 4.4.22 (#) Soit X une variable aléatoire gaussienne centrée et réduite (on note
X ∼ N (0, 1)). Trouver la densité de la variable aléatoire Y = X 2 .
Solution. La densité de X 2
est
e−y/2
f (y) = √
1[0,+∞[ (y).
2πy
94
CHAPITRE 4.
Exercice 4.4.23
On considère
N
de loi normale
P(ε = −1) = P(ε = 1) = 1/2.
0
1. Montrer que N := εN a même loi que N
loi que N ).
0
2. Est-ce que N + N est une v.a. normale ?
VARIABLES ALÉATOIRES À DENSITÉ
N (0, 1)
et
ε,
indépendante de
(on pourra d'abord montrer que
N,
−N
telle que
a même
Solution.
1. Calculons la fonction de répartition de
N 0.
Pour
x ∈ R,
P(N 0 ≤ x) = P(εN ≤ x) = P(ε = 1, εN ≤ x) + P(ε = −1, εN ≤ x)
= P(ε = 1, N ≤ x) + P(ε = −1, N ≥ −x)
= P(ε = 1)P(N ≤ x) + P(ε = −1)P(N ≥ −x)
puisque les variables
ε
et
N
sont indépendantes. De plus, en utilisant la dénition de
ε
et la propriété de symétrie de la loi normale centrée réduite,
1
1
P(N 0 ≤ x) = P(N ≤ x) + P(N ≤ x) = P(N ≤ x).
2
2
Les 2 v.a.
N
et
N0
ont donc même fonction de répartition : elles ont donc même loi.
2. En utilisant l'indépendance de
N
et
ε,
on remarque que
1
1
·1=
2
2
(on rappelle que comme N est une variable à densité, on a P(N 6= 0) = 1−P(N = 0) = 1).
0
0
On a donc montré que P(N + N = 0) = 1/2. Cette probabilité étant non nulle, N + N
P(N + N 0 6= 0) = P((ε + 1)N 6= 0) = P(ε + 1 6= 0)P(N 6= 0) =
ne peut pas être une variable à densité et a fortiori pas une v.a. normale.
N et N 0 sont
N + N 0 est une
Rappel de cours : Si
pendantes, alors
N (µ1 , σ12 )
N (µ1 + µ2 , σ12 + σ22 ).
deux variables normales
v.a. normale
et
N (µ2 , σ22 )
indé-
Cet exercice fournit donc un contre-exemple à cette propriété quand les 2 v.a. sont dépendantes.
Exercice 4.4.24 (dicile) Soient a et b deux
réels strictement positifs et s ∈]0, 1[.
R
1) Etablir la convergence de l'intégrale J =
aJ ).
. Calculer sa valeur (indication calculer
+∞ 1
du
eu +a
0
On considère une suite de variables aléatoires (Yk )k≥1 dénies sur (Ω, F, P), indépendantes et
suivant la même loi exponentielle de paramètre b. On considère également sur le même espace
probabilisé Ω, une variable aléatoire N indépendantes des Yk , suivant une loi géométrique de
paramètre s.
On va étudier Z := max{Y1 , ..., YN }.
?
2) Soit j ∈ N et t > 0. Calculer la probabilité conditionnelle P[Z ≤ t|N = j]
3) En déduire la fonction de répartition de Z et déterminer une densité.
4) Montrer que Z a une espérance et que l'on a
E[Z] =
− ln(s)
.
b(1 − s)
Seul le résultat de la question 4 est nécessaire pour traiter les questions suivantes :
4.4.
EXERCICES
95
5) Soit g la fonction dénie sur [0, ∞[ par g(0) = 1 et g(t) =
Montrer que g est continue et bornée sur [0, +∞[.
Etablir que pour tout t > 0 et n ∈ N, on a l'égalité
g(t) = g(t)e
−(n+1)t
+
n
X
te−t
1−e−t
pour t > 0.
te−(k+1)t .
k=0
+∞
−(k+1)t
dt etP
la calculer.
6) Justier la convergence
R ∞ de l'intégrale 0 te
1
7) Montrer alors que 0 g(t)dt est convergence et égale à ∞
k=1 k2
P∞ 1
2
8) On rappelle que k=1 k2 = π6 . Montrer que la valeur moyenne de la quantité E[Z] sur ]0, 1[,
R 1 − ln(s)
2
c'est à dire 0 b(1−s) ds, est égale à π6b .
R
Exercice 4.4.25
On considère une fonction
F
F (x) = a
1) Déterminer les valeurs de
dénie par
x ≤ −1 ,
si
F (x) = bx + c
si
x ∈] − 1, 1[ ,
F (x) = d
si
x≥1.
a, b , c
d
et
pour que
F
soit une fonction de répartition d'une
variable aléatoire à densité.
2) Représenter graphiquement
F.
3) Déterminer la densité de probabilité associée à
Exercice 4.4.26
Soit
f
la fonction de
R
∀x ∈ [2, 4[ f (x) = λ
1) Déterminer
3)
pour que
f
R+
1
;
(1 − x)2
dénie par
f (x) = 0 x ∈
/ [2, 4[ .
soit une densité de probabilité.
f . Déterminer sa fonction de répartition F .
Calculer l'espérance E(X) et la variance V (X) de la variable aléatoire X . On pourra utiliser
2) Soit
X
λ∈R
dans
F.
une variable aléatoire de densité
les égalités
x = (x − 1) + 1 ,
Exercice 4.4.27
Soit
X
x2 = (x − 1)2 + 2(x − 1) + 1 .
une variable aléatoire réelle de densité
pX .
Déterminer la densité de
Y dans les cas suivants :
Y = aX + b où a, b sont des nombres réels et a 6= 0 ;
Y = X2 ;
Y = exp(X).
la variable aléatoire
Résoudre cet exercice en utilisant les deux méthodes suivantes : le calcul de la fonction de
répartition, l'utilisation du théorème de transfert.
Exercice 4.4.28
Soit
X
une variable aléatoire de loi normale centrée réduite.
Démontrer que pour tout
variable aléatoire
X
k ∈ N,
X
R∞
0
x2
xk e− 2 dx
est convergente. En déduire que la
admet des moments de tout ordre.
admet
x2
x ∈ R 7→ px (x) = √12π e− 2
0 comme espérance et 1 comme
Démontrer que l'application
Montrer que
l'intégrale
est bien une densité de probabilité.
variance.
96
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Y = σX + m avec σ, m deux réels non-nuls suit une loi
que Y admet des moments de tout ordre et a pour espérance
Montrer que la variable aléatoire
normale
m
N (m, σ).
σ2.
En déduire
et variance
Exercice 4.4.29
FX (x)
On considère une variable aléatoire réelle
si
x<0
x
x
FX (x) = 1 − (1 + )e− 2
2
1) FX (x) est-elle continue sur R ?
2) Déterminer limx→+∞ FX (x). Interprétation ?
3) Calculer la densité de probabilité fX (x). Quel est le
4) Calculer l'espérance et l'écart-type de X .
représentative de FX (x).
5) Calculer P (1 ≤ X < 2).
Exercice 4.4.30
Soit
T
si
fT (t) = λ(1 − t2 )
x≥0
mode de
X?
t∈
/ [−1, +1]
si
t ∈ [−1, +1]
fT (t).
Déterminer la fonction de répartition FT (t) et tracer sa courbe représentative.
1
. Représenter cette probabilité sur
Calculer la probabilité de l'événement |T | ≥
2
1) Calculer
λ
si
une variable aléatoire réelle, de densité de probabilité :
fT (t) = 0
3)
dont la fonction de répartition
est donnée par :
FX (x) = 0
2)
X
et représenter graphiquement
chacun des
deux graphiques précédents.
4) Calculer l'espérance et la variance de
Exercice 4.4.31
bilité,
fU
Soit
U
est dénie par
T.
Quelle est sa médiane ?
une variable aléatoire de loi uniforme sur
fU (x) = 1[0,1] (x)).
[0, 1]
( sa densité de proba-
On pose
1
X = − ln(U ) ;
λ
FX
est la fonction de répartition de
X
et
fX
sa densité de probabilité.
1. Rappeler la fonction de répartition FU (x) = P (U ≤ x), x ∈ R, de la variable aléatoire U .
2. Déterminer la fonction de répartition FX et la densité de probabilité de la variable aléatoire
X.
3. Quelle est la loi de X ? Donner les valeurs de E(X) et V (X). On rappelle que
Z
+∞
xn e−x dx = n! .
0
Exercice 4.4.32
La durée en heures de fonctionnement d'un ordinateur est une variable aléa-
toire continue de densité :
x
f : x 7→ λe− 100
1) Calculer
si
x ≥ 0; 0
sinon.
λ.
2) Quelle est la probabilité que l'ordinateur fonctionne entre 50 et 100 heures ?
4.4.
EXERCICES
97
3) Quelle est la probabilité qu'il fonctionne moins de 100 heures ?
Exercice 4.4.33 (Inégalité de Paley-Zigmund)
ayant un moment d'ordre
2.
P (X ≥ αE[X]) ≥ (1 −
pour tout
α ∈]0, 1[.
Soit
X
une variable positive, non nulle,
Montrer
2
2 (E[X])
α)
E[X 2 ]
98
CHAPITRE 4.
VARIABLES ALÉATOIRES À DENSITÉ
Chapitre 5
Théorèmes limites
Dans ce chapitre, on s'intéresse au comportement asymptotique de suites de variables aléatoires.
Deux théorèmes majeurs en probabilité sont au programme.
La loi des grands nombres.
Le théorème de la limite centrale (ou théorème central limite)
Il y a plusieurs versions du premier théorème et nous nous bornerons à la version
faible.
Le
premier théorème est qualié de "loi". Ce théorème fait la jonction entre la dénition axiomatique que l'on a donnée et l'approche
démontrer
que si
A
fréquentiste, qui nous a servi de motivation : nous allons
est un événement associé à une expérience, alors :
nombre de fois que A se réalise
nombre de fois que l'on fait l'expérience
−→ P(A)
Le deuxième théorème permet d'étudier les uctuations de ces quantités autour de la limite.
C'est un théorème central en statistiques. Nous considérons des variables aléatoires soit discrètes, soit à densité.
5.1
Notions de convergence de suites aléatoires
5.1.1 Convergence en probabilité et loi faible des grands nombres.
Dénition 5.1.1 Soit (Xn , n ≥ 1) une suite de v.a.r. et X une v.a.r. dénies sur le même
espace probabilisé. La suite (Xn , n ≥ 1) converge en probabilité si :
∀a > 0, P[|Xn − X| > a] −→ 0.
n→∞
Cela signie donc que la probabilité que l'écart entre
Xn
et
convergence correspond à une certaine distance sur l'espace
X
L0
dépasse
a
tend vers
0.
Cette
des variables aléatoires, c'est
hors programme (voir par exemple Zuily-Quéelec : Analyse pour l'agrégation p515)
Inégalités de Markov et de Tchebychev
Proposition 5.1.1 (Inégalité de Markov) Soit X une variable possédant un moment d'ordre
1 alors :
∀a > 0, P[|X| > a] ≤
99
E[|X|]
a
100
CHAPITRE 5.
THÉORÈMES LIMITES
Démonstration. Soit A = {|X| > a}, on a E[1A ] = P(A). De plus
|X| = |X|1|X|≤a + |X|1|X|>a ≥ a1|X|>a
d'où
P[|X| > a] ≤
E[|X|]
.
a
Proposition 5.1.2 (Inégalité de Tchebychev) Soit X une variable possédant un moment
d'ordre 2, alors
∀a > 0, P[|X − E(X)| > a] ≤
Démonstration.
V(X)
.
a2
C'est immédiat par l'inégalité de Markov appliquée à
Y = |X − E(X)|2 .
Vous
pouvez également suivre le même argument que précédemment (à savoir faire).
Théorème 5.1.3 (Loi faible des grands nombres I) Soit (Xn , n ≥ 1) une suite de va-
riables aléatoires réelles dénies sur un même espace (Ω, F, P) indépendantes, de même
Pn es1
pérance et variance. On dénit la moyenne empirique des variables (Xn ) par Zn = n
i=1 Xi .
Alors,
Zn −→ E[X1 ] en probabilité.
n→∞
Démonstration. L'inégalité de Tchebyche nous donne
V Snn
Sn
Sn
Sn
P | −E
|> t = P | − E[X]|> t ≤
.
n
n
n
t2
D'autre part
V
Sn
n
2
t
1
V(Sn ).
n2 t2
=
Par indépendance, cette dernière quantité est égale à
n
1 X
V(X)
V(Xi ) =
.
2
2
n t i=1
nt2
On conclut que
Sn
converge en probabilité vers la constante
n
E[X]. Dénition 5.1.2 Sous réserve d'existence des quantités manipulées, on dit que la suite (Xn , n ≥
1)
converge en moyenne vers X si lim E (|Xn − X|) = 0
n→∞
converge en moyenne quadratique vers X si lim E (|Xn − X|2 ) = 0
n→∞
Proposition 5.1.4 Si (Xn , n ≥ 1) converge en moyenne vers X , alors
E[Xn ] −→ E[X]
n→∞
Démonstration. Par la seconde inégalité triangulaire
||E[Xn ]| − |E[X]|≤ E[|Xn − X|]
La quantité à droite tend vers
0
par dénition.
On énonce alors le théorème suivant :
5.1.
NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES
101
Théorème 5.1.5 (Convergence en moyenne quadratique) Soit (Xn , n ≥ 1) une suite de
variables aléatoires réelles indépendantes de même loi etPde carré intégrable (i.e possédant un
moment d'ordre 2). La suite des moyennes empiriques n1 ni=1 Xi converge en moyenne quadratique vers E[X1 ].
Démonstration. On a :
n
1X
E ||
Xi − E[X1 ]|2
n i=1
!
n
=V
1X
Xi
n i=1
!
.
Or par indépendance, et car les variables on même loi, on a :
n
V
1X
Xi
n i=1
On obtient la convergence souhaitée.
!
=
n
1 X
1
V(Xi ) = V(X1 ).
2
n i=1
n
Proposition 5.1.6 La convergence en moyenne quadratique implique la convergence en moyenne,
qui implique la convergence en probabilité.
Démonstration...
5.1.2 Convergence en loi
Dénition 5.1.3 Soit (Xn , n ≥ 1) une suite de variables aléatoires. On note leur fonction
de répartition Fn . Soit X une variable aléatoire. de fonction de répartition F . On dit que
(Xn , n ≥ 1) converge en loi vers X et on note
L
Xn −→ X
n→∞
Si pour tout x point de continuité de F on a
Fn (x) −→ F (x).
n−→∞
Comme son nom l'indique, cette convergence est relative aux lois des variables et pas aux
variables elles-mêmes contrairement à la convergence en probabilité, on ne peut pas munir
L0
d'une distance pour cette convergence (on peut le faire pour les mesures de probabilités
associées). On admet la proposition suivante :
Proposition 5.1.7 (Convergence en loi et fonctions tests)
L
Xn −→ X
n→∞
si et seulement si, pour toute fonction continue bornée φ de Rd dans R, on a
E[φ(Xn )] −→ E[φ(X)].
n→∞
La proposition nous permet de prendre des fonctions continues bornées à la place d'indicatrice
de fermés. Sa démonstration (que nous ne faisons pas) est basée sur une approximation de
l'indicatrice par des fonctions régulières. La démonstration n'est pas triviale et n'est pas au
programme.
102
CHAPITRE 5.
THÉORÈMES LIMITES
Proposition 5.1.8 On a l'implication suivante
Xn −→ X en probabilité =⇒ Xn −→ X en loi.
n→∞
n→∞
La réciproque est fausse.
Démonstration.
On va utiliser la proposition précédente. Soit
qui converge en probabilité vers
X.
Si
φ
elle est uniformément continue. Pour tout
|φ(x) − φ(y)| ≤ .
(Xn , n ≥ 1)
une suite de v.a
est une fonction continue à support compact, alors
> 0,
il existe
η > 0
On a donc
tel que si
|x − y| ≤ η
on a
|E[φ(Xn ) − φ(X)]| ≤ E[|φ(Xn ) − φ(X)|]
= E[|φ(Xn ) − φ(X)|1{|Xn −X|≤η} ] + E[|φ(Xn ) − φ(X)|1{|Xn −X|>η} ]
≤ + 2||φ||∞ P[|Xn − X| > η].
On a donc
lim sup|E[φ(Xn ) − φ(X)]| ≤ .
n→∞
Ceci est vrai pour tout
>0
donc
lim |E[φ(Xn ) − φ(X)]| = 0,
n→∞
on conclut par la proposition précédente.
5.1.3 Approximations de certaines lois et théorème central limite
Théorème 5.1.9 (Approximation loi hypergéométrique-loi binomiale) Soit (Xk , k ≥
1) une suite de variables aléatoires de loi hypergéométrique de paramètres (k, n, p). La suite
(Xk , k ≥ 1) converge en loi vers une variable X binomiale de paramètre (n, p)
Remarque 5.1.1 La loi hypergéométrique résulte d'un tirage sans remise alors que la loi binomiale d'un tirage avec remise. A la limite, que l'on "remette les boules" dans l'urne ou pas,
on obtient la loi binomiale.
Démonstration. Tout d'abord, la variable Xk prend ses valeurs dans [| max{0; n−k(1−p)}, min{n, kp}|].
On a de plus
kp
j
P[Xk = j] =
k(1−p)
n−j
k
n
(kp)!
k(1 − p)
n!(k − n)!
×
×
j!(kp − j)! (n − j)!(k(1 − p) − n + j)!
n!
n
(kp)!
k(1 − p)
(k − n)!
=
×
×
.
j (kp − j)! (k(1 − p) − n + j)!
n!
=
En remarquant que
q!
(q−l)!
= Alq ∼ q l ,
q→∞
on obtient
n (N p)k (N (1 − p))n−k
n k
P[Xk = j] ∼
=
p (1 − p)n−k .
n
k→∞
k
N
k
5.1.
NOTIONS DE CONVERGENCE DE SUITES ALÉATOIRES
103
k , n − k(1 − p) ≤ 0 et kp ≥ n, Xk prend donc ses valeurs dans [|0, n|].
obtenue, pour tout j ∈ [|0; n|], P[Xk = j] −→ P[X = j], où X suit une
A partir d'un certain rang
D'après l'équivalence
loi binomiale. On en déduit la convergence simple des
continuité de
F.
En eet, si
x ∈ [0, n] \ [|0, n|],
Fk (x) = P[Xk ≤ x] =
Pour conclure, il reste à remarquer
[x]
X
j=0
x
alors
Fk
k→∞
vers
F
sur l'ensemble des points de
est un point de continuité de
P[Xk = j] −→
k→∞
[x]
X
F
et
P[X = j] = F (x).
j=0
Fk (x) = F (x) = 0 si x < 0 et Fk (x) = F (x) = 1 si x > n. Théorème 5.1.10 (Approximation de la loi binomiale par la loi de Poisson) Soit (Xk , k ≥
1) une suite de variables aléatoires réelles. Chaque Xk suit une loi binomiale de paramètres k, λk .
Le réel λ est xé. Alors la suite (Xk , k ≥ 1) converge en loi vers X une variable aléatoire de
Poisson de paramètre λ.
démonstration. Dans la preuve du théorème précédent, on a vu qu'il était en fait susant pour
les variables discrètes de montrer les convergences des probabilités
On a pour tout
P[Xk = j]
vers
P[X = j].
k ≥ j,
k j
P[Xk = j] =
p (1 − p)k−j
j
k−j
j λ
k
λ
1−
=
k
k
j
−j k
λ
1− k
λj
k!
λ
λj −λ
=
e .
1
−
−→
k→∞ j!
j! (k − j)!
kj
k
La dernière ligne vient du fait que
λ
1−
k
k
−→ e−λ
k→∞
(à savoir démontrer) et de
1 − λk
k!
(k − j)!
kj
−j
−→ 1.
k→∞
Théorème 5.1.11 (Théorème central limite) Soit (Xn , n ≥ 1) une suite de variables aléa-
toires réelles indépendantes et de même loi, admettant une espérance (notée m) et une variance
(notée σ 2 ). Soit
Sn =
n
X
Xi .
i=1
On a E[Sn ] = nm et V (Sn ) = nσ 2 . La suite des variables aléatoires centrées réduites :
Sn − nm
√
;n ≥ 1
nσ
converge en loi vers une loi gaussienne N (0, 1). Autrement dit :
Sn − nm
P a≤ √
≤b
nσ
1
−→ √
n→∞
2π
Z
a
b
2 /2
e−t
dt
104
Démonstration.
CHAPITRE 5.
THÉORÈMES LIMITES
La preuve la plus ecace repose sur les fonctions caractéristiques, outils que
élémentaires.
nous ne développons pas dans ce cours. Il existe des preuves
Nous verrons en
problème, un cas particulier. Pour le cas général, voir par exemple l'article de Jérôme Depauw
1
Le théorème central limite met en avant le caractère universel de la loi gaussienne, il justie
la modélisation d'une erreur aléatoire par une loi normale. Souvent, une erreur aléatoire est
modélisée par l'addition d'un grands nombres d'événements indépendants.
Proposition 5.1.12 (intervalle de conance) Supposons que V(X1 ) = 1, on déduit du théorème précédent le résultat suivant : la probabilité que E[X1 ] se trouve dans l'intervalle aléatoire
"
n
n
1X
b 1X
a
Xi − √ ,
Xi − √
n i=1
n n i=1
n
#
est égale à
1
P(a ≤ Z ≤ b) = √
2π
Z
b
x2
e− 2 dx.
a
Cette dernière vaut environ 0.95 pour b = −a = 1.96. On dit alors que l'intervalle
"
n
n
1X
1.96 1 X
1.96
Xi − √ ,
Xi + √
n i=1
n n i=1
n
#
est un intervalle de probabilité (on dit aussi intervalle de conance) pour le paramètre de la
moyenne θ = E[X1 ] à 95%
On termine ce chapitre en mentionnant la loi forte des grands nombres. Ce théorème dépasse
le cadre du cours mais est fondamental en théorie des probabilités.
5.1.4 Convergence presque-sûre et loi forte des grands nombres
Dénition 5.1.4 On dit que la suite (Xn , n ≥ 1) converge presque-sûrement vers X , si
P {ω ∈ Ω; Xn (ω) −→ X(ω)} = 1.
n→∞
Cette notion de convergence est très forte. Elle implique la convergence en probabilité (mais
n'est pas équivalente). Pour établir la convergence presque-sûre d'une suite de variables aléatoires des informations précises sur la tra jectoire de la suite sont nécessaires (et rarement
accessibles). On peut maintenant énoncer la loi forte des grands nombres.
Théorème 5.1.13 (Loi forte des grands nombres) Soit (Xn , n ≥ 1) une suite de variables
indépendantes avec un moment d'ordre 1, alors
lim n1
Pn
i=1
Xi = E[X1 ] presque sûrement.
1. disponible ici : www.lmpt.univ-tours.fr/∼depauw/TCLRMS_WEB.pdf.
5.2.
EXERCICES.
105
La démonstration de ce théorème requiert au minimum le
ment issu des axiomes posés sur la probabilité
d'événements
(Ai , i ≥ 1)
P
lemme de Borel-Cantelli,
directe-
dans la dénition. Si on considère une suite
indépendants de même probabilité
p.
La variable aléatoire
n
1X
1A
n i=1 i
E[X1 ] = p. La
loi faible des grands nombres nous dit que cette fréquence converge en probabilité vers p. La loi
correspond à la fréquence d'apparition des événements
Ai
pour
i
entre
1
et
n,
et
forte nous dit que cette convergence est presque-sûre et nous permet de revenir à la dénition
heuristique d'une probabilité en tant que limite d'une fréquence d'apparition...
5.2
Exercices.
?
Exercice 5.2.1 Soit (Xn , n ≥ 1) une suite de variables
aléatoires de loi géométrique sur N de
paramètre nθ avec θ ∈ R?+ . Montrer que la suite
la loi exponentielle de paramètre θ.
Xn
n n≥1
converge en loi vers une v.a.r suivant
Exercice 5.2.2 Soit (Xn , n ≥ 1) une suite de v.a.r indépendantes identiquement distribuées
de loi uniforme sur [0, 1]. On note mn = min{X1 , ..., Xn } et Mn = max{X1 , ..., Xn }, montrer
que (mn , n ≥ 1) converge en probabilité vers 0 et (Mn , n ≥ 1) vers 1.
Exercice 5.2.3 Soit (Xn , n ≥ 1) une suite de v.a.r telle que E[Xn ] n→∞
−→ a et V(Xn ) −→ 0,
montrer que Xn −→ a en probabilité.
n→
Exercice 5.2.4 Soit f une fonction continue bornée de R dans R. Montrer que
lim
n→∞
∞
X
k=0
e
k
k
f
= f (λ).
k!
n
−nλ (nλ)
Indication : utiliser une suite de variables de Poisson de paramètre λ, et utiliser la loi faible
des grands nombres. La loi forte est hors programme.
Exercice 5.2.5 Soit (Xn )n≥1 une suite de v.a. i.i.d. suivant la loi normale N (1, 3). Montrer
que la suite de terme général
n
1X
Xi eXi
n i=1
converge en probabilités et déterminer sa limite.
Exercice 5.2.6 1) Soit f une fonction uniformément continue de Rd dans R et (Xn , n ∈ N)
une suite qui converge en probabilité vers X , alors (f (Xn ), n ≥ 0) converge en probabilité
vers f (X).
2) Montrer que si (Xn , n ≥ 0) et (Yn , n ≥ 0) convergent respectivement vers X et Y en probabilité alors (Xn + Yn , n ≥ 1) converge vers X + Y en probabilité.
106
CHAPITRE 5.
THÉORÈMES LIMITES
3) Soit (Xn , n ≥ 1) une suite de v.a.r. indépendantes de même loi telle que E[|X1 |] < ∞.
Vérier que
P
P
n
i=1
Xn
=
n
Xi
n
en déduire à l'aide de la question 2), que
−
n−1
Xi
n − 1 i=1
,
n
n−1
converge en probabilité vers 0.
Xn
n
Exercice 5.2.7 Soient {Xn }n≥1 une suite de variables
aléatoires i.i.d telles que X1 ∼ P(1).
P
Pour tout entier naturel non nul n on pose Sn =
1. Déterminer la limite en loi de
n
S√
n −n
n
o
n≥1
2. Montrer que
e−n
n
k=1
.
n
X
nk
k=0
Xk .
k!
−→
n→+∞
1
.
2
Exercice 5.2.8 (Une loi faible des grands nombres pour des variables non indépendantes)
Soit (Xn , n ≥ 1) une suite de v.a.r.Pindépendantes de même loi admettant un moment d'ordre
2. On pose Yn = Xn Xn+1 et Sn = nk=1 Yk .
1) Les variables Yn sont-elles indépendantes ?
2) Montrer que pour tout > 0,
1
Sn
P | − E[Y1 ]|> ≤ 2 2 V (Sn )
n
n
3) En déduire que
Sn
n
converge en probabilité vers E[X1 ]2 .
Exercice 5.2.9 (Inégalité de Hölder)
Soient
X
et
Y
Soient
p
et
q
deux variables aléatoires possédant respectivement un moment
moment d'ordre
q.
+ 1q = 1.
d'ordre p et un
deux réels positifs tels que
1
p
L'inégalité d'Hölder que l'on va démontrer est
1
1
E[|XY |] ≤ (E[|X|p ]) p (E[|Y |q ]) q
1) Soient
x, y
deux réels positifs. En utilisant la concavité de
ln, c'est-à-dire pour tout λ ∈]0, 1[
ln(λx + (1 − λ)y) ≥ λ ln(x) + (1 − λ) ln(y),
montrer l'inégalité (appelée inégalité de Young)
xy ≤
2) En posant
X̃ =
X
et
E[|X|p ]1/p
Ỹ =
xp y q
+ .
p
q
Y
, montrer l'inégalité d'Hölder.
E[|Y |q ]1/q
X a un moment d'ordre s. Soit 0 ≤ r ≤ s. En appliquant l'inégalité d'Hölder
p
|X|r et 1 avec p = rs , et q = p−1
son conjugué, montrer
3) On suppose que
aux variables
E[|X|r ] ≤ E[|X|s ]1/p .
En déduire que
X
a un moment d'ordre
r
pour tout
r ≤ s.
5.2.
EXERCICES.
Exercice 5.2.10
107
(Xn , n ≥ 1) une suite
4
toires indépendantes telles que pour tout k ≥ 1, E[Xk ] = 0 et E[Xk ] ≤ K
Pn
positif indépendant de k . On pose Sn =
k=1 Xk , on va montrer que
[Loi forte des grands nombres] Soit
Sn
−→ 0
n n→∞
et
"
Sn
n
E
de variables aléaoù
K
est un réel
p.s.
4 #
−→ 0.
n→∞
1) En utilisant le résultat de la dernière question de l'exercice précédent. Justier que
E[Xi3 ]
E[Xi2 ],
ont un sens. Montrer que
"
#
X
E[Sn4 ] = E
Xk4 + 6
E[Xi2 ]2 ≤ E[Xi4 ],
Xi2 Xj2 .
i<j
k≥1
2) Montrer que
X
en déduire
E[Sn4 ] ≤ nK + 3n(n − 1)K ≤ 3Kn2 .
3) Montrer que
"
E
#
X
n≥1
(Sn /n)4 ≤ 3K
X 1
.
n2
n≥1
En déduire que
"
E
4) Montrer que
E
P
n≥1 (Sn /n)
4
<∞
Sn
n
4 #
−→ 0.
n→∞
implique que
P[Sn /n −→ 0] = 1.
n→∞
Exercice 5.2.11
Soient
(Xi )
une suite de variables aléatoires indépendantes de même loi de
Poisson de paramètre 1.
1) Quelle est la loi de
?
2) On pose Sn
Sn =
Sn −E[Sn ]
=√
V ar(Sn )
Pn
i=1
Xi ?
. En utilisant le théorème central limite, déterminer
lim P(Sn? ≤ 0).
3) En déduire un équivalent de
Exercice 5.2.12
nk
k=0 k! .
Pn
On dispose d'un dé. On cherche à savoir s'il est truqué ou non. Pour cela on
n lancers de dé et 1/6.
Nn . On dénit fn par :
va étudier la diérence entre la fréquence d'apparition de 6 lors de
Nn
le nombre de 6 obtenus parmi n lancers. Déterminer la loi de
fn =
Déterminer l'espérance et la variance de
fn
Nn
.
n
Soit
108
CHAPITRE 5.
THÉORÈMES LIMITES
1 En utilisant l'inégalité de Bienaymé-Tchebychev, montrer que
1
5
P |Fn − |≥ 0.01 ≤
6
36n × 0.012
2) Estimer avec l'inégalité précédente, le nombre de lancers que l'on doit eectuer pour qu'au
cours de ces lancers la fréquence d'apparition de 6 dière de 1/6 d'au plus 1/100 avec un
risque d'erreur inférieur à 5/100 ?
3) Estimer ce nombre avec le théorème central limite.
Chapitre 6
Eléments de statistiques
Nous nous concentrons sur la statistique inférentielle. La statistique descriptive est également
au programme et fait régulièrement l'objet de questions à l'oral. Le lecteur pourra par exemple
consulter le chapitre 5 du livre de Saporta Probabilités, analyse des données et Statistique.
6.1
Estimation
L'objectif de la statistique inférentielle est d'estimer les paramètres d'une loi de probabilité
régissant une expérience aléatoire. Il s'agit de mettre en place les outils pour estimer des paramètres à partir des réalisations d'une expérience. Les théorèmes limites vus précédemment sont
fondamentaux dans la théorie de l'estimation. Il y a deux types d'estimation, l'estimation ponctuelle : on approche directement le paramètre en donnant une valeur numérique et l'estimation
par intervalle : la valeur recherchée est encadrée par des bornes aléatoires avec une probabilité
donnée (par exemple 95%). Soit
de même loi que
X.
1) la variable aléatoire
n
X.
Si par exemple :
suit une loi de Poisson, comment peut on estimer son paramètre
à partir des
n
X
suit une loi normale, comment peut on estimer ses paramètres
à
Θ l'ensemble
Θ = [0, 1] pour la
m
et
observations ?
3) la variable aléatoire est inconnue mais possède une espérance, peut on estimer
Soit
λ
observations ?
2) la variable aléatoire
σ
X
X1 , X2 , ..., Xn n variables aléatoires
par ces n variables aléatoires à avoir
une variable aléatoire et
On cherche à partir des valeurs prises
des renseignements sur la loi de
partir des
X
des paramètres d'une loi. Par exemple,
Θ = R+
E[X] ?
pour la loi exponentielle, ou
loi de Bernoulli.
Dénition 6.1.1 Soit X une variable aléatoire de loi à paramètres dans Θ. Un échantillon de
taille n de X est un vecteur aléatoire (X1 , ..., Xn ) dont les composantes ont même loi que X .
Etant donné un échantillon de taille n, on appelle estimateur de θ, une variable aléatoire de la
forme
Tn = f (X1 , ..., Xn )
La variable aléatoire Tn est un estimateur
convergent
de θ si
∀θ ∈ Θ, ∀α > 0, P (|Tn − θ| > α) −→ 0.
n→∞
On dénit maintenant la notion de biais d'un estimateur (au programme en BTS).
Dénition 6.1.2 (Biais d'un estimateur) Soit Tn un estimateur du paramètre θ,
109
110
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
Si pour tout θ ∈ Θ, E[Tn ] = θ, l'estimateur est dit sans biais.
Si pour tout θ ∈ Θ, E[Tn ] −→ θ, l'estimateur est dit asymptotiquement sans biais.
n→∞
Remarque 6.1.1 Il faut noter que la propriété d'être non biaisé n'est pas indispensable. Il
arrive même que certains estimateurs biaisés donnent de meilleurs résultats !
Proposition 6.1.1 Tout estimateur asymptotiquement sans biais dont la variance tend vers 0
est convergent.
Démonstration. Utiliser l'inégalité de Markov.
Dénition 6.1.3 Supposons que Tn a un moment d'ordre 2. Le risque quadratique de l'estimateur Tn est la quantité
RTn (θ) := E[(Tn − θ)2 ]
θ et Tn . La notion de risque quadratique permet
Sn est meilleur que Tn si
Il mesure l'écart en moyenne quadratique entre
de comparer deux estimateurs : l'estimateur
∀θ ∈ Θ, RSn (θ) ≤ RTn (θ).
Dénition 6.1.4 Soit (X1 , ..., Xn ) un échantillon de taille n de X .
La moyenne
empirique
est
n
1X
X n :=
Xi .
n i=1
La variance
empirique
est
n
Sn2
La variance
empirique corrigée
1X
:=
(Xi − X n )2 .
n i=1
est
n
Σ2n :=
1 X
(Xi − X n )2 .
n − 1 i=1
Proposition 6.1.2 Soit X une variable aléatoire de moyenne m et d'écart-type σ, alors
E[X n ] = m,
E[Sn2 ] =
V(X n ) =
n−1 2
σ ,
n
σ2
n
E[Σ2n ] = σ 2 .
Démonstration. Exercice.
Proposition 6.1.3 Soit X une variable aléatoire de moyenne m et de variance σ2 .
6.1.
ESTIMATION
111
1) La moyenne empirique X n est un estimateur sans biais et convergent de m. Si on se donne
une réalisation ω , une estimation ponctuelle de la moyenne est donnée par
n
1X
xi
x̄ =
n i=1
où xi = Xi (ω) sont les données.
2) La variance empirique σn est un estimateur sans biais de la variance. Si on se donne une
réalisation ω , une estimation ponctuelle de la variance est donnée par
n
1X
(xi − x̄)2
n i=1
où xi = Xi (ω) sont les données.
3) La variance empirique corrigée Σn est un estimateur sans biais de la variance. Si on se
donne une réalisation ω , une estimation ponctuelle de la variance est donnée par
n
1 X
(xi − x̄)2
n − 1 i=1
où xi = Xi (ω) sont les données.
4) A ces trois estimateurs classiques, on peut rajouter celui du moment d'ordre r :
n
m̂r :=
1X r
x.
n i=1 i
Démonstration.
1) Laissée au lecteur (appliquée la loi faible des grands nombres).
2) Laissée au lecteur.
3) Les variables
Xi
étant indépendantes de même loi, nous avons
#
n
n
1 X
(Xk − X̄n )2 =
E[(X1 − X̄n )2 ].
E[Σn ] = E
n − 1 k=1
n−1
"
Nous avons
E[(X1 − X̄n )2 ] = E[X12 ] −
= E[X12 ] −
Les variables aléatoires
(Xi )
2
n
n
X
2
n
n
X

E[X1 Xi ] +
i=1
i=1
E[X1 Xi ] +
1 
E
n2
1
n2
n
X
!2 
Xi

i=1
n X
n
X
E[Xi Xj ].
i=1 j=1
étant indépendantes et identiquement distribuées nous avons :
E[Xi Xj ] = E[X12 ] si i = j
E[Xi Xj ] = E[X1 ]2 si i 6= j.
112
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
On a donc
−
n
n X
n
1 X
2X
2
E[X1 Xi ] = − E[X12 ] + (n − 1)E[X1 ]2 2
E[Xi Xj ]
n i=1
n
n i=1 j=1
n
1 X
2
2
]
+
(n
−
1)E[X
]
E[X
1
1
n2 i=1
1
=
E[X12 ] + (n − 1)E[X1 ]2 .
n
=
On en déduit :
E[(X1 − X̄n )2 ] = E[X12 ] −
Finalement
n−1
1
E[X12 ] + (n − 1)E[X1 ]2 =
(E[X12 ] − E[X1 ]2 ).
n
n
E[Σ2n ] = EX12 ] − E[X1 ]2 = σ 2 . Une méthode classique pour construire un estimateur est
la méthode des moments
basée sur
une application directe de la loi des grands nombres. La méthode des moments consiste à exprimer
θ
E[X], E[X 2 ], ... puis de remplacer chaque moment par le moment
lui correspondant. Cela fournit un estimateur convergent de θ . L'expression peut
2
2
2
intervenir σ que l'on remplace alors par Sn ou Σn .
en termes des moments
empirique
aussi faire
E[X], E[X 2 ] etc jusqu'à obtenir à l'aide des moments une expression
2
inversible de θ . On inverse alors cette expression, ce qui donne θ en fonction de E[X], E[X ], ...
2
2
2
et on remplace E[X] par X̄n , E[X ] par m̂2 (ou par Σn + X̄n ) etc.
En pratique, on calcule
Exemple 6.1.1 Soit X une variable aléatoire prenant les valeurs {0, 1, 2} avec les probabilités
P[X = 0] = 1 − p1 − p2 , P[X = 1] = p1 , P[X = 2] = p2 ;
alors
1 2
2
pˆ2 =
S + Xn − Xn
2 n
est un estimateur sans biais du paramètre p2 .
Un estimateur classique est l
'estimateur du maximum de vraisemblance (E.M.V). On sup-
θ ∈ R. Soit (X1 , ..., Xn ) un échantillon. Notons L(x1 , ..., xn ; θ)
(X1 , ...Xn ). Lorsque (x1 , ..., xn ) est xé, θ 7→ L(x1 , ..., xn , θ) est appelée vraisem-
pose que la loi a pour paramètre
la densité de
blance de
θ.
Dénition 6.1.5 On appelle estimateur du maximum de vraisemblance la valeur de θ qui rend
maximale L(x1 , ..., xn , θ).
Puisque le logarithme est une fonction strictement croissante, on peut chercher à maximiser la
fonction θ 7→ − ln L(x1 , ..., xn , θ). En pratique, un E.M.V est une solution de l'équation de la
vraisemblance :
∂
ln L(X, θ) = 0.
∂θ
6.1.
ESTIMATION
113
Intervalles de conance et lois usuelles en statistiques
Nous avons déjà brièvement introduit la notion d'intervalle de conance dans la proposition
5.1.12. Au lieu de donner une valeur (estimation ponctuelle) du paramètre
bornes
B1
et
B2
θ
on cherche deux
entre lesquelles on espère que se trouve la vraie valeur du paramètre. Les
bornes sont des fonctions des variables aléatoires
X1 , ..., Xn .
Dénition 6.1.6 Soit B1 = f1 (X1 , ..., Xn ) et B2 = f2 (X1 , ..., Xn ). On appelle intervalle de
probabilité pour le paramètre θ le couple (B1 , B2 ) et P(B1 ≤ θ ≤ B2 ) est la probabilité de
recouvrement (appelée plus souvent niveau de conance).
Si cette probabilité est égale à α, [B1 , B2 ] est appelé intervalle de probabilité 1 − α. En général
on choisit une valeur faible pour α et on construit l'intervalle de sorte que la probabilité de
recouvrement soit égale à 1 − α.
On appelle intervalle de conance 1 − α (noté souvent IC1−α (θ) pour θ toute réalisation
[b1 , b2 ] d'un intervalle de probabilité de recouvrement égale à 1 − α [B1 , B2 ].
Pour comprendre le principe de construction d'un intervalle de conance nous allons nous
concentrer dans un premier temps sur le cas d'un intervalle de conance pour la moyenne dans
le cas gaussien.
(X1 , ..., Xn ) un échantillon de loi normale N (µ, σ 2 ). On suppose σ connu le paramètre
à estimer est µ. Comme l'échantillon est gaussien, X̄n suit une loi normale de paramètres
(µ, σ 2 /n). Pour pouvoir utiliser les tables gaussiennes, on dénit T = X̄s/n√−µ
qui suit une loi
n
gaussienne standard. La variable T est appelée statistique pivotale, elle dépend de X1 , ..., Xn
et θ = µ mais sa loi est indépendante de µ. Cette statistique est utile car elle va permettre
d'encadrer le paramètre µ. Dans un premier temps, on observe que
Soit
P[qα/2 < T < q1−α/2 ] = 1 − α,
où
qp
on a
désigne le quantile d'ordre
qp = −q1−p
p pour la loi normale N (0, 1). Comme cette loi est symétrique,
et on peut donc écrire que
√ X̄n − µ
P −q1−α/2 ≤ n
≤ q1−α/2 = 1 − α.
σ
En isolant
µ
pour l'encadrer, on obtient
σ
σ
= 1 − α.
P X̄n − q1−α/2 √ ≤ µ ≤ X̄n + q1−α/2 √
n
n
On pose
σ
B1 = X̄n − q1−α/2 √
n
σ
B2 = X̄n + q1−α/2 √
n
l'intervalle [B1 , B2 ] est un intervalle de probabilité 1 − α pour la moyenne µ. Il est important
de comprendre que ce sont B1 et B2 qui sont aléatoires et non pas µ. En pratique on utilise les
réalisations des variables aléatoires, un intervalle de conance est une réalisation [b1 , b2 ].
et
Remarque 6.1.2 La largeur de l'intervalle de conance est une fonction décroissante de α et
de n.
114
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
Deux lois utiles : la loi du khi-deux et la loi de Student
Dénition 6.1.7 Soit d ≥ 1. Par
P dénition, la loi du Khi-deux à d degrés de liberté est la
loi de la variable aléatoire Yd = di=1 Ni2 où N1 , ..., Nd sont d variables gaussiennes centrées
réduites.
Proposition 6.1.4 Soit Yd une variable aléatoire qui suit une loi du khi-deux à d degrés de
liberté, alors
1
sa densité est donnée par fYd (x) = kd xd/2−1 e−x/2 1[0,∞[ (x) avec kd = 2d/2 Γ(d/2)
Yd est intégrable
√ d] = d
√ et E[Y
Si d ≥ 30, P[ Yd − 2d − 1 ∈ I] ≈ P[N ∈ I] où N est une Gaussienne standard.
Dénitionq6.1.8 On dit que la variable aléatoire Td suit la loi de Student à d degrés de liberté
si Td = N Ydd où N et Yd sont deux variables indépendantes de loi respective la loi normale
centrée réduite, et la loi du khi-deux à d degrés de liberté.
Proposition 6.1.5 Soit Td une variable aléatoire suivant la loi de Student. Sa densité est
fTd (x) = cd (1 + x2 /d)−
où
d+1
2
,
Γ( d+1 )
cd = √ 2
Πd
2
e−x /2
pTd (x) −→ √ .
d→∞
2π
Dans les applications, si d ≥ 30 alors P[Td ∈ I] ≈ P[N ∈ I].
Intervalle de conance pour une moyenne et une variance.
N (µ, σ 2 ).
Deux cas sont à envisager pour la détermination d'un intervalle de conance : selon que σ soit
σ
connu ou non. Dans le premier cas, on a montré précédemment que B1 = X̄n − q1−α/2
et
n
σ
B2 = X̄n + u1−α/2 √n forment les bornes d'un intervalle de probabilité 1 − α. Dans le seoond
cas, où σ est inconnu. On a que
Soient
X1 , ..., Xn n
variables aléatoires gaussiennes, indépendantes et de même loi
n
1 X
(n − 1)Σ2n
= 2
(Xi − X̄n )2
σ2
σ i=1
suit une loi du khi-deux à
avec
N
de loi
N (0, 1) et K
n−1
degrés de liberté. On dénit
T =
√
n (X̄Σnn−µ .
On a
√
n(X̄n − µ)/σ
N
T =q
=
S2
K
(n − 1) σ2 (n−1)
indépendante de loi du khi-deux à
n − 1 degrés de liberté. T
est une
statistique pivotale puisque sa loi est indépendante des paramètres. On en déduit un intervalle
6.2.
EXERCICES
115
pour µ car on a P[tn−1;α/2 < T < tn−1;1−α/2 ] = 1 − α, où
α
pour la loi de Student à n − 1 degrés de liberté. On a donc
quantile d'ordre
2
de probabilité
1−α
P[tn−1:α/2 <
en isolant
µ
et en remarquant que
par rapport à
0,
on obtient
tn−1;α/2
est le
√ X̄n − µ
n
< tn−1,1−α/2 ] = 1 − α,
Σn
tn−1;α/2 = −tn−1;1−α/2
car la loi de Student est symétrique
Σn
Σn
P X̄n − tn−1;1−α/2 √ < µ < X̄n + tn−1;1−α/2 √
n
n
= 1 − α;
ce qui permet de conclure.
Nous terminons par la construction d'un intervalle de conance pour une variance. La statistique
pivotale utilisée est
T =
Elle suit une loi du Khi-deux à
rn−1,α/2 et rn−1,1−α/2
1 − α pour σ 2 :
(n − 1)S 2
.
σ2
n − 1 degrés de liberté. Elle est comprise entre les quantiles
1 − α, ce qui permet d'obtenir un intervalle de conance
avec probabilité
(n − 1)Σ2n (n − 1)Σ2n
IC1−α (σ ) =
;
.
rn−1,1−α/2 rn−1,α/2
2
Nous nous sommes limités aux variables aléatoires gaussiennes. Cependant en utilisant le théorème central limite, si nos variables possèdent une variance, on peut approcher des intervalles
de conance par ceux déterminés précédemment. Evidemment il s'agira d'approximation et le
niveau de conance ne sera pas exactement respecté mais ces approximation sont en général
très bonnes pour
6.2
n ≥ 30.
Exercices
Exercice 6.2.1 (#)
On a relevé le nombre de dents cariées chez 100 enfants âgés de 7 ans
dans une région de France. Les résultats obtenus sont les suivants :
Nb de dents cariées
Nb d'enfants
0 1 2 3 4 5 6 7
30 34 14 10 4 5 1 2
Calculer la moyenne empirique et la variance empirique du nombre de dents cariées.
Solution. La moyenne empirique est
X=
30 × 0 + 34 × 1 + · · · + 2 × 7
= 1, 53.
100
et la variance empirique est
n
1 X
1 S =
30 × (0 − X)2 + 34 × (1 − X)2 + · · · + 2 × (7 − X)2 = 2, 36.
(Xk − X)2 =
n − 1 k=1
99
2
116
CHAPITRE 6.
Exercice 6.2.2 (#)
Un statisticien observe le nombre d'ampoules défaillantes à la sortie d'une
chaîne de production. Il veut estimer la probabilité
il compte le nombre de
1. Montrer que
pn
ELÉMENTS DE STATISTIQUES
Nn
p qu'une ampoule soit défaillante. Pour cela,
pn = Nn /n
, égaux à zero. Il propose d'estimer par :
est un estimateur sans biais de
p.
2. Calculer son risque quadratique.
Solution.
Nn = X1 + · · · + Xn
On a
où
Xi = 1
si l'ampoule
v.a. sont donc toutes de loi de Bernoulli de paramètre
p.
i
est défaillante et
0
sinon. Les
On suppose de plus qu'elles sont
indépendantes.
1. Si les
Xi
sont i.i.d.,
Nn
est une variable binomiale de paramètres
p
et
n.
On a alors
1
np
Nn
= E[Nn ] =
= p
E
n
n
n
et l'estimateur est bien sans biais.
2. Le risque quadratique est par dénition
E (pn − p)2 = E
Exercice 6.2.3 (#)
"
Nn
−p
n
X
avec
=
1 1
np(1 − p)
p(1 − p)
2
E
(N
−
np)
= 2 V(Nn ) =
=
.
n
2
2
n
n
n
n
Considérons un échantillon de taille
λ > 0
loi de Poisson de paramètre
aléatoire
2 #
X ∼ P(λ)).
1. Montrer que l'estimateur
1
issu d'une population suivant une
(ceci revient donc simplement à considérer une variable
δ(X) = 1[X=0]
2. On cherche à présent à estimer
e−3λ .
est non biaisé pour
e−λ .
Que pouvez-vous dire sur la statistique
3. Proposer en toute généralité un estimateur sans biais pour
(−2)X ?
e−nλ .
Solution.
0
1. On a
E[δ(X)] = E[1{X=0} ] = P(X = 0) = e−λ λ0! = e−λ .
2. De même,
X
λk
= e−λ e−2λ = e−3λ .
E (−2)X =
(−2)k e−λ
k!
k≥0
3. On vérie que
(1 − n)X
Exercice 6.2.4 (#)
est un estimateur sans biais de
(Xi )1≤i≤n avec n ≥ 2 le modèle avec PK et
{1, . . . , K}. Le but de cet exercice est de proposer
On considère un échantillon
tel que les v.a. sont i.i.d. de loi uniforme sur
deux estimateurs du paramètre
K > 0.
X ∼ PK ,
RK (K̂, K).
1. A l'aide de l'espérance de
risque quadratique
2.
e−nλ .
(a) Montrer que l'E.M.V. est
(b) Montrer que sous
PK , K̃
proposer un estimateur
K̃ = max(X1 , . . . , Xn ).
vérie
P (K̃ ≤ k) =
kn
Kn
K̂
de
K.
Déterminer son
6.2.
EXERCICES
(c) Soit
X
117
une variable aléatoire à valeurs dans
E[X] =
K−1
X
{1, . . . , K}.
Montrer que
P (X > k).
k=0
(d) En deduire le biais de
K̃ .
Solution.
(Xi )1≤i≤n qui sont
E[X1 ] = (K + 1)/2. On propose donc
1. La moyenne empirique est un estimateur sans biais de l'espérance des
{1, . . . , K}.
estimateur de K :
uniformes sur
comme
Or, cette espérance vaut
n
K̂ = 2X − 1 =
2X
Xi − 1 .
n i=1
Cet estimateur est sans biais (puisque la moyenne empirique l'est) donc le risque quadratique de
K̂
est sa variance :
RK (K̂, K) = V
car les
Xi
!
!
n
n
X
4
4
2X
Xi − 1 = 2 V
Xi = V (X1 )
n i=1
n
n
i=1
sont indépendantes et de même loi. De plus,
K
1 K(K + 1)(2K + 1)
(K + 1)(2K + 1)
1 X 2
k =
=
E[X ] =
K k=1
K
6
6
2
et donc
(K + 1)(2K + 1)
V(X) =
−
6
K +1
2
2
=
K2 − 1
12
et le risque quadratique est
RK (K̂, K) =
2.
K2 − 1
.
3n
(a) On a
L(K, k1 , . . . , kn ) = P(X1 = k1 )P(X2 = k2 ) · · · P(Xn = kn ) =
Or, l'assertion
La fonction
L
∀i, ki ≤ K
1/K n
0
si
∀i, ki ≤ K
sinon.
max(k1 , k2 , . . . , kn ) ≤ K .
max(k1 , . . . , kn ) puis est décroissante et
est équivalente à
est donc nulle jusqu'à
stricte-
ment positive.
Son maximum est donc atteint en
max(k1 , . . . , kn ) et l'E.M.V. est K̃ = max(X1 , . . . , Xn ) .
(b)
P(K̃ ≤ k) = P(max(X1 , . . . , Xn ) ≤ k) = P(X1 ≤ k, . . . , Xn ≤ k) = P(X1 ≤ k)n =
car les variables sont indépendantes et de loi uniforme.
kn
Kn
118
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
3. On a
K−1
X
P(X > k) =
k=0
K−1
X
K
X
P(X = j) =
k=0 j=k+1
K−1
X K−1
X
P(X = j + 1)
k=0 j=k
En inversant les 2 signes de sommation, on a
K−1
X
P(X > k) =
j
K−1
XX
P(X = j+1) =
K−1
X
j=0 k=0
k=0
P(X = j+1)
j=0
4. En utilisant iii) et ii), le biais de
K̃
j
X
1=
K−1
X
P(X = j+1)(j+1) = E[X].
j=0
k=0
est
K−1
1 X n
k .
E[K̃] − K =
P(K̃ > k) − K =
(1 − P(K̃ ≤ k)) − K =
K n k=0
k=0
k=0
K−1
X
K−1
X
Le biais est donc strictement positif :
Exercice 6.2.5 (#)
Pour
X = {0, . . . , m}, m ∈ N
n = 1,
K̃
n'est pas sans biais.
on considère le modèle des lois binomiales sur l'espace
et
m x
f (x, θ) =
θ (1 − θ)m−x , x ∈ X ,
x
avec le paramètre
θ ∈ [0, 1].
g(θ)
1. Montrer qu'une fonction
polynôme de degré
2. Soit
Solution
g(θ) = θ2 .
< m,
Montrer que l'estimateur sans biais associé s'annule en
g(θ) admet un
{0, . . . , m} → R telle que
Or, comme
X1
g
est un
et dans ce cas un tel estimateur est unique.
On considère une variable
1. Dire que
admet un estimateur sans biais si et seulement si
X1
de loi binomiale de paramètres
m
et
x=0
θ
avec
et
θ
x = 1.
à estimer.
estimateur sans biais signie qu'il existe une fonction
Φ :
E [Φ(X1 )] = g(θ).
est une v.a. binomiale de paramètres
m
et
θ,
on a
m
X
m k
E [Φ(X1 )] =
Φ(k)
θ (1 − θ)m−k
k
k=0
m
X
m k
et donc s'il existe Φ telle qu'on ait l'égalité
Φ(k)
θ (1 − θ)m−k = g(θ), g est
k
k=0
nécessairement un polynôme de degré strictement inférieur à m. La réciproque et l'unicité
k
m−k
découlent du fait que la famille de polynômes (X (1 − X)
)0≤k≤m est une base de
l'espace vectoriel des polynômes de degrés inférieurs ou égaux à m (c'est une famille libre
et elle a m + 1 éléments).
6.2.
EXERCICES
119
2. D'après ce qui précède, on doit avoir
on a
Φ(0) = 0.
m
X
m k
Φ(k)
θ (1 − θ)m−k = θ2 .
k
k=0
En prenant
θ = 0,
On a alors l'égalité :
m
X
m
X
m k
m k−1
m−k
θ =
Φ(k)
θ (1 − θ)
=θ
Φ(k)
θ (1 − θ)m−k .
k
k
k=1
k=1
2
Comme 0 est racine double du polynôme
m
X
θ
Pm
k=1
Φ(k)
m
k
k−1
θ (1 − θ)m−k ,
m k−1
0=
Φ(k)
0 (1 − 0)m−k = Φ(1).
k
k=1
on doit avoir
120
CHAPITRE 6.
ELÉMENTS DE STATISTIQUES
Chapitre 7
Sujets des examens passés et problèmes
Epreuve de probabilités
Calculs d'intégrales et notion d'entropie
Exercice 7.0.6
1) Supposons
Soit
(Ω, F, P)
Ω = {1, ..., n}.
un espace probabilisé.
On dénit l'entropie de la probabilité
H(P) = −
où
pk = P({k}).
Avec pour convention
n
X
P
par
pk ln(pk )
k=1
0 ln(0) = 0.
H est à valeurs dans R+ et trouver P telle que H(P) = 0.
H(P) lorsque P est la loi uniforme sur {1, ..., n}.
a) Montrer que
b) Calculer
c) On va montrer que la probabilité uniforme réalise le maximum de l'entropie sur
Ω =
{1, ..., n}.
On rappelle que la fonction
tels que
Pn
k=1 λk = 1
et tous
n
X
k=1
Soit
(qk , k ∈ [|1, n|])
et
admet
ln est concave. On
x1 , ..., xk positifs :
λk ln(xk ) ≤ ln
(pk , k ∈ [|1, n|])
n
X
que pour tous
λ k xk
k=1
Conclure avec
pk = 1/n
pour tout
k=1
n
X
qk ln(qk ).
k=1
k ∈ {1, ...n}.
2) a) Rappeler la dénition d'une densité de probabilité sur
Soit
f
.
deux probabilités sur
qk ln(pk ) ≤
une densité de probabilité sur
R.
R. On note
Z
Hf = − f (x) ln(f (x))dx,
R
121
réels positifs
!
de l'inégalité ci-dessus que
n
X
λk
{1, ..., n}.
Démontrer à l'aide
122
CHAPITRE 7.
lorsque cette intégrale a un sens et
la loi de densité
f.
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
Hf = ∞
b) Calculer l'entropie de la loi normale
centrée réduite est
c) Soient
f
et
g
x 7→
2
√1 e−x /2 ,
2π
x
sinon. La quantité
N (0, 1).
Hf
est appelée entropie de
On rappelle que la densité de la loi normale
variant dans
R.
deux fonctions strictement positives. Ecrire (et justier) l'égalité
g(x)
g(x) − f (x)
=1+
.
f (x)
f (x)
En utilisant l'inégalité
ln(1 + z) ≤ z pour tout z > −1, établir
Z
ln(g(x)/f (x))f (x)dx ≤ 0.
que si
f, g
sont des densités
R
d) En prenant dans l'inégalité ci-dessus
g
la densité de la loi normale, démontrer que la
loi normale réalise le maximum d'entropie sur les densités vériant
2
R
R
x f (x)dx = 1.
R
R
xf (x)dx = 0
et
En thermodynamique, l'entropie mesure l'état de désorganisation interne d'un système. Boltzmann (1870) a montré qu'un système isolé évolue spontanément vers l'état le plus désordonné.
La théorie de l'information a été introduite par Shannon (1948) qui associe entropie et information manquante sur le système : toute évolution spontanée d'un système isolé se fait
avec perte d'information sur le système. De façon intuitive, les lois gaussiennes reètent
un manque d'information. Dans une certaine mesure, cela justie le choix de cette fonction
comme "fonction d'erreur".
Calculs binomiaux
On considère un serveur informatique consommant 500 watts. Pour améliorer la sûreté de
fonctionnement d'un serveur informatique, on envisage d'introduire de la
redondance
(*), c'est-
à-dire d'équiper le serveur de plusieurs exemplaires d'un même composant. On étudie deux
congurations :
(I)
(II)
Redondance des alimentations : On met 3 alimentations de 300 watts chacune.
Redondance des disques durs : Le serveur est conguré en RAID5 (**), c'est-à-dire
qu'il dispose de 4 disques durs et continue à fonctionner avec un disque dur en panne.
On suppose que la probabilité qu'une alimentation tombe en panne est
dur est
q.
p
et celle d'un disque
On suppose que tous les composants sont indépendants.
1) Soit un serveur avec la conguration (I)
a) Combien d'alimentations peuvent tomber en panne sans que le serveur ne tombe en
panne ?
i ∈ {1, 2, 3}, on dénit Ai la variable aléatoire qui vaut 1 si la i-ème alimentation
panne, 0 sinon. Quelle est la loi de Ai ?
b) Pour tout
tombe en
123
c) On note
NA
le nombre d'alimentations en panne. Exprimer
NA
en fonction de
A1 , A2 , A3 .
Na ?
Quelle est la loi de
d) On suppose qu'aucun composant diérent des alimentations ne peut tomber en panne.
Justier que la probabilité de panne (notée
Pa (p))
est donnée par
que
P(Na ≥ 2)
et montrer
Pa (p) = p2 (3 − 2p).
2) Soit un serveur en conguration (II).
ND
a) Soit
le nombre de disques durs en panne. Déterminer la loi de
ND
(vous pourrez
q ).
introduire des variables aléatoires de Bernoulli indépendantes de paramètre
b) On suppose qu'aucun composant diérent des disques durs ne peut tomber en panne.
Montrer que la probabilité que le serveur tombe en panne (notée
PD (q))
vérie
PD (q) = q 2 (3q 2 − 8q + 6).
3) On suppose
p = q.
En étudiant le signe de la fonction
conguration parmi (I) et (II) est la plus able.
p 7→ PA (p) − PD (p),
décider quelle
Tranport d'information : loi binomiale/loi de Poisson
Soit
n ∈ N? .
On considère un système comportant
transmetteurs
indépendants : I1 , ..., In .
0. Il communique avec I2 et lui donne l'information qu'il
porte (c'est-à-dire 0) avec probabilité p ∈]0, 1[ ou l'information contraire (c'est-à-dire 1) avec
probabilité 1 − p. Soit 2 ≤ k ≤ n, chaque Ik reçoit ainsi une information de Ik−1 et :
On suppose que
I1
n
porte l'information
I1
(avec proba p)
I2
In−1
In
0
0
1
1
0
(avec proba 1 − p)
Figure
transmet cette information à
Ik+1 ,
7.1 Modèle de transmission
avec probabilité
p
ou
transmet l'information contraire à
Ik+1 ,
On récupère l'information à la sortie de
avec probabilité
1−p
(on dira qu'il
ment ).
In .
1) On pose
Tn := min{k ∈ {1, ..., n}; Ik
Quelles sont les valeurs prises par
}
ment
Tn ?
et
Tn = 0
si aucun transmetteur ne ment.
Déterminer la loi de
Tn .
124
CHAPITRE 7.
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
Les questions qui suivent sont indépendantes de la question 1. On s'intéresse maintenant à la
probabilité que l'information reçue coïncide avec l'information de départ (c'est-à-dire
0).
Première méthode
2) Soit
un la probabilité que In délivre la bonne information. Enoncer la formule des probabilités
totales et prouver la relation de récurrence suivante
un = pun−1 + (1 − p)(1 − un−1 ).
n ≥ 1, un =
3) Démontrer par récurrence que pour tout
suite lorsque
n → ∞.
1+(2p−1)n
et étudier la limite de cette
2
Deuxième méthode
4) Soit
x, y ∈ R+ . Rappeler la formule du binôme de Newton et à l'aide de celle-ci montrer que
[n/2] X n
1
n
n
((x + y) + (y − x) ) =
x2k y n−2k
2
2k
k=0
[n/2]
désigne la partie entière du réel
5) Pour tout
i ≥ 1,
on note
Xi
n/2.
la variable aléatoire dénie de la façon suivante.
Xi = 1
si
Ii
ment,
Xi = 0
sinon.
En justiant soigneusement, donner la loi (avec ses paramètres) de la variable aléatoire
Sn =
Pn
i=1
Xi .
Sn est le nombre de transmetteurs menteurs et justier
In donne 0 = Sn a une valeur paire .
6) Justier que la variable aléatoire
l'égalité des événements
7) A l'aide de la question 4, calculer la probabilité qu'une variable aléatoire binomiale de paramètres
n, p ait une valeur paire. En déduire la probabilité que In délivre la bonne information.
Approximation par une loi de Poisson
On suppose maintenant que la probabilité qu'un transmetteur ne mente pas est
pn = λ/n, avec
λ > 0.
8) Soit
(Sn )n≥1
(n, pn ). Démontrer la propriété
P
λk
−λ λk
−→ e k! . On rappelle que ∞
= eλ .
k=0
k!
n→∞
une suite de variables aléatoires de loi binomiale
du cours suivante : pour tout
k ∈ N, P(Sn = k)
9) Démontrer que
∞
e−λ + eλ X λ2k
=
.
2
(2k)!
k=0
Z une variable aléatoire de loi de Poisson de paramètre λ. On rappelle que cela signie
k
−2λ
P(Z = k) = e−λ λk! . A l'aide de la question précédente, montrer que P(Z est paire) = e 2 +1 .
10) Soit
11) Soit
(an )n≥1
la suite dénie par
an = P(In
donne
0).
Déterminer sa limite lorsque
vers l'inni. Entre le modèle où la probabilité de transmission est
p
n
et ne dépend pas de
tend
n
et
ce modèle, quel est celui qui transmet le bon message avec la plus grande probabilité lorsque
n
tend vers l'inni ?
125
QCM et loi hypergéométrique
Y deux variables aléatoires discrètes à valeurs dans {0, ..., m}.
dénition de E[Y ]. Soit x ∈ {0, ..., m}, on note E(X=x) [Y ] l'espérance de Y par
probabilité conditionnelle P(X=x) : c'est-à-dire
0) Soient
X
et
E(X=x) [Y ] =
m
X
yP(X=x) (Y = y),
montrer que
E[Y ] =
y=0
m
X
Rappeler la
rapport à la
E(X=x) [Y ]P(X = x).
x=0
On fait passer un examen sous forme d'un QCM (questions à choix multiples). L'examen
se compose de 20 questions tirées au hasard et
sans remise
parmi 100 questions possibles
seule une
réponse est correcte. Si le candidat choisit la bonne réponse il a un point, sinon 0 point.
recouvrant le programme. A chaque question est proposée 4 réponses possibles,
On considère un candidat ayant appris une proportion
1) On note
X
p
100p ∈ N).
du programme (
le nombre de questions gurant parmi les 20 que le candidat a révisées. Justier
brièvement que
X
suit une loi hypergéométrique de paramètres
100p
x
P[X = x] =
Rappeler la signication du coecient binomial
(100, 20, p)
100(1−p)
20−x
100
20
n
k
.
et justier brièvement la formule ci-
dessus.
X questions
{0, ..., 20}.
Ces
rapportent
X
points au candidat. On suppose dans la suite que
X(Ω) =
2) Etant donnée une question non révisée, le candidat choisit uniformément au hasard une
réponse parmi les 4 possibles. Quelle est la probabilité que le candidat choisisse la bonne
réponse ?
3) Le nombre de questions non révisées par le candidat est
20 − X .
On les numérote par
{1, 2, ..., 20 − X}. A toute question i ∈ {1, 2, ..., 20 − X}, on associe une variable aléatoire
Xi suivant une loi de Bernoulli de paramètre 1/4 : Xi = 1 si le candidat répond bien à la
question i, Xi = 0 sinon. Les variables (Xi , i ≥ 1) sont indépendantes.
On note
Y
la somme des points obtenus en répondant aux questions
non révisées.
Y , à l'aide d'une somme, en fonction des Xi et de X .
x ∈ {0, ..., 20}, sachant X = x, justier que Y suit une loi binomiale de paramètre
(20 − x, 1/4).
c) Que vaut E(X=x) [Y ] ? (on rappelle que l'espérance d'une loi binomiale de paramètre (m, q)
est mq ).
P20
d) En utilisant la formule E[Y ] =
x=0 E(X=x) [Y ]P(X = x), montrer que E[Y ] = 5 − 5p.
Indication : On rappelle que E[X] = 20p (vu en cours).
a) Exprimer
b) Soit
4) On note
de
N
N
la note du candidat. Exprimer
en fonction de
p.
N
Pour quelle valeur de
X et Y
E[N ] = 10 ?
en fonction de
p
a-t-on
et déterminer l'espérance
126
CHAPITRE 7.
5) On détermine maintenant la loi de
P[N = n] =
n
X
x=0
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
N =X +Y.
P[X = x, Y = n − x] =
=
n
X
x=0
n
X
Montrer les trois égalités
P[X = x]P(X=x) [Y = n − x]
100p
x
x=0
100(1−p)
20−x
100
20
6) (Question bonus) On suppose maintenant que l'on enlève
réponse et on note
N
0
3/4
et
1
1/3
de point à chaque mauvaise
la note obtenue. Sans chercher la loi explicite de la note, mais en
introduisant à la place des
probabilité
n−x 20−n
20 − x
1
3
.
n−x
4
4
Xi ,
la variable aléatoire
avec probabilité
1/4
Xi0
prenant comme valeur
démontrer que
−1/3
avec
E[N 0 ] = 20p.
* la redondance consiste à disposer plusieurs exemplaires d'un même équipement ou d'un même
processus ou de tout autre élément participant à une solution électronique, mécanique ou industrielle. Selon les circonstances elle est utile :
1. pour augmenter la capacité totale ou les performances d'un système,
2. pour réduire le risque de panne,
3. pour combiner ces deux eets.
** En informatique, le mot RAID désigne les techniques permettant de répartir des données
sur plusieurs disques durs an d'améliorer soit la tolérance aux pannes, soit la sécurité, soit les
performances de l'ensemble, ou une répartition de tout cela. La technologie RAID a été élaborée
par un groupe de chercheurs de l'université de Californie à Berkeley en 1987. Ils étudièrent la
possibilité de faire reconnaître deux disques durs ou plus comme une seule entité par le système. Ils obtinrent pour résultat un système de stockage aux performances bien meilleures que
celles des systèmes à disque dur unique, mais doté d'une très mauvaise abilité. Les chercheurs
s'orientèrent alors vers des architectures redondantes, an d'améliorer la tolérance aux pannes
du système de stockage.
(Source Wikipedia)
7.1
Fonctions additives et loi exponentielle
Préliminaire sur les fonctions additives
Considérons
Φ
une fonction
x, y ∈ R.
monotone
additive de
R
i.e.
Φ(x + y) = Φ(x) + Φ(y)
pour tous
Φ(q) = qΦ(1) pour tout q ∈ Q.
Φ(1) = 0 alors Φ est identiquement nulle.
c) Montrer que si Φ(1) 6= 0 alors Φ(x) = Φ(1)x
d) Soit Ψ une fonction monotone vériant Ψ(x + y) = Ψ(x)Ψ(y) pour tous x, y ∈ R. Démontrer
ax
qu'il existe a tel que Ψ(x) = e
.
a) Montrer que
b) Montrer que si
7.2.
THÉORÈME DE WEIERSTRASS
127
l'objectif de cette partie est de caractériser la loi exponentielle par son
Soit
X
absence de mémoire.
une variable aléatoire telle que :
PX>s [X > t + s] = P[X > t]
(7.1)
e) Montrer que la loi exponentielle vérie (7.1).
f ) Montrer inversement que si
7.2
X
vérie (7.1) alors
X
a une loi exponentielle.
Théorème de Weierstrass
Weierstrass a démontré que toute fonction continue sur le segment
[0, 1] est limite uniforme sur
ce segment d'une suite de polynômes. Bernstein a découvert une nouvelle démonstration qui
utilise les probabilités. On commence par des résultats basiques d'analyse. Pour toute fonction
continue
f
sur
[0, 1],
||f ||∞ := sup |f (x)|.
x∈[0,1]
Soit
f
une fonction continue sur
[0, 1],
on dénit son module de continuité par
m : δ 7→ sup{|f (u) − f (v)|; |u − v| ≤ δ}.
1) Montrer que
|f (x) − f (y)| ≤ 2||f ||∞
2) Montrer que si
|x − y| ≤ δ
alors
pour tout
|f (x) − f (y)| ≤ m(δ).
(bn )n≥0 une suite réelle, rappeler
n ≥ 1, on considère le polynôme
3) Soit
Soit
Bn (x) =
X1 , ..., Xn
Montrer que
m(δ) −→ 0.
δ→0
la dénition avec les quanticateurs de
n X
n
k=0
4) Soient
x, y ∈ [0, 1].
k
k
n−k
x (1 − x)
bn −→ 0.
n→∞
k
.
f
n
des variables aléatoires indépendantes de carré intégrable et
Sn =
n
X
Xi .
i=1
Montrer que
V(X)
Sn
.
P | − E[X]|> t ≤
n
nt2
En déduire la loi faible des grands nombres.
Xi de Bernoulli de paramètre x.
Sn
1
P | − x|> t ≤
.
n
4nt2
5) On prend maintenant des variables
6) Montrer que
Sn
E f
= Bn (x).
n
Montrer que
128
CHAPITRE 7.
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
7) Montrer que
Sn
,
f (x) − Bn (x) = E f (x) − f
n
en déduire l'inégalité
|f (x) − Bn (x)| ≤ E |f (x) − f
8) Soit
δ > 0,
en considérant l'événement
Sn
n
| .
Sn
|≤
n
A = {x ∈ [0, 1]; |x −
δ},
montrer que
Sn
E |f (x) − f
| ≤ m(δ) + 2||f ||∞ E[1|x− Sn |>δ| ].
n
n
9 En utilisant la question (4), déduire que
E |f (x) − f
Sn
n
||f ||∞
| ≤ m(δ) +
.
2nδ 2
10) Montrer que
||f − Bn ||∞ ≤ m(δ) +
Soit
> 0.
11) Montrer qu'il existe
12) Déterminer
7.3
||f ||∞
.
2nδ 2
n0
δ
m(δ ) ≤ /2.
tout n ≥ n0 , ||f − Bn ||∞ ≤ .
tel que
tel que pour
Conclure.
Marche aléatoire
On se donne un espace probabilisé
(Ω, F, P)
sur lequel est dénie une suite
variables aléatoires indépendantes identiquement distribuées. La loi de
X1
(Xn , n ∈ N? )
est donnée par
1
P(X1 = 1) = P(X1 = −1) = .
2
On dénit
S0 = 0
La suite de variables aléatoires
et
(Sn , n ≥ 1)
2
+1
1
S1
S2
Sn =
Pn
k=1
est appelée
−1 +1
Xk .
marche aléatoire symétrique.
S4
S3
−1
S5
0
1
2
3
4
5
de
7.3.
MARCHE ALÉATOIRE
129
Plusieurs questions naturelles se posent, la marche aléatoire, retourne-t-elle à l'origine ? Si oui,
combien de temps met-on en moyenne pour y revenir ?
L'objectif du problème est de répondre à ces deux questions. On dénit
T =

 min{n ≥ 1; Sn = 0}

La variable aléatoire
T
+∞
si
{n ≥ 1; Sn = 0} =
6 ∅
sinon.
est le premier temps de retour à
0
de la marche aléatoire.
Le problème contient trois parties. La troisième partie est purement analytique. N'hésitez pas
à admettre des questions d'analyse pour avancer.
130
CHAPITRE 7.
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
Etude du temps de retour à l'origine :
En = la
1) On considère les événement
marche aléatoire n'a pas touché
n et Ak = La marche aléatoire visite 0
k . Justier brièvement les égalités
0
entre les temps
pour la dernière fois avant l'instant
n,
1
et
à l'instant
En = (T > n) ∪ (T = +∞)
Ak = (Sk = 0) ∩
!
n
\
(Si 6= 0)
i=k+1
2) Montrer que
n
\
P(Ak ) = P(Sk = 0)P(Sk =0)
!
(Si 6= 0) .
i=k+1
On rappelle que la notation
P(Sk =0) (.)
correspond à la probabilité conditionnelle sachant
Sk = 0.
3) Soit
k
Sn0 = Sn+k pour tout n ≥ 0.
(Sn , n ≥ 0), montrer que
un entier xé, on dénit
0
sachant S0
=0
a même loi que
En remarquant que
(Sn0 , n ≥ 0)
P(Ak ) = P(Sk = 0)P (En−k ) .
4) Justier que
S
P( nk=0 Ak ) = 1
et montrer que
n
X
P(Sk = 0)P (En−k ) = 1.
k=0
5) Soit
x ∈ [0, 1[.
On considère les suites
(an , n ≥ 0)
an = P[Sn = 0]xn
Justier que les séries de terme général
et
(bn , n ≥ 0)
et
dénies par
bn = P[En ]xn .
(an , n ≥ 0)
et
(bn , n ≥ 0)
sont convergentes. En
utilisant le produit de Cauchy (voir l'encadré à la n du sujet) montrer que
1
=
1−x
+∞
X
!
∞
X
P[Sn = 0]xn
n=0
!
P[En ]xn .
n=0
P[S2n+1 = 0] = 0 pour tout n. On dénit une suite de variables aléatoires
(Yi , i ≥ 1) de la façon suivante : Yi = 1 si Xi = 1 et 0 sinon. Justier l'identité
événements
!
2n
X
(S2n = 0) =
Yi = n .
6) Justier que
indépendantes
des
i=1
Quelles sont les lois respectives de
Yi
et
P2n
i=1
Yi ?
En déduire que
2n
n
4n
P[S2n = 0] =
.
7.3.
MARCHE ALÉATOIRE
7) En admettant
131
1
∞
X
n=0
montrer que
∞
X
2n
n
4n
1
,
x2n = √
1 − x2
r
P[En ]xn =
n=0
8) En remarquant que l'événement
pour tout
(T = +∞)
1+x
.
1−x
est inclus dans
En
pour tout
n,
montrer que
x ∈ [0, 1[,
n
P[T = +∞]x ≤ P[En ]x
Montrer que pour tout
n
et en déduire que
n=0
x ∈ [0, 1[
P[T = +∞] ≤
En faisant tendre
x
1,
vers
∞
X
n
P[T = +∞]x ≤
∞
X
P[En ]xn .
n=0
√
1 − x2 .
montrer par encadrement que
P[T = +∞] = 0.
Qu'en déduisez vous pour la marche aléatoire, avec quelle probabilité retourne-t-elle à l'origine ?
Etude de l'espérance du temps de retour à l'origine :
9) Justier que
P[T > n] = P[En ]
et en déduire que pour tout
∞
X
r
n
P[T > n]x =
n=0
x ∈ [0, 1[,
1+x
.
1−x
Montrer que
X
n≥0
On rappelle que si
P
n≥1
an x
n
lim−
x→R
10) Justier que pour tout
P[T > n] = ∞.
est une série entière de rayon de convergence
∞
X
an x n =
n=1
∞
X
n=1
an Rn ∈ R+ ∪ {+∞}.
k ∈ N,
P[T = k] = P[T > k − 1] − P[T > k].
En utilisant cette relation, établir que pour tout entier naturel
n
X
k=0
kP[T = k] =
n−1
X
k=0
1. On le démontre dans la dernière partie du sujet
n ≥ 2,
P[T > k] − nP[T > n].
R
alors
132
CHAPITRE 7.
11) On suppose que
E[T ] < +∞.
Montrer que
∞
X
nP[T > n] = n
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
P[T = k]
et
∞
X
n
k=n+1
nP[T > n]
En déduire que
k=n+1
tend vers
0
n
lorsque
E[T ] =
∞
X
P[T = k] ≤
∞
X
kP[T = k].
k=n+1
tend vers l'inni, et que
P[T > k].
k=0
En particulier, si
E[T ] < +∞
alors
P∞
k=0
P[T > k] < ∞.
12) Montrer à l'aide de la question précédente et de la question 9 que
E[T ] = +∞.
La moyenne du temps de retour à l'origine est donc innie. Cette propriété remarquable est
liée au faite que si la marche aléatoire s'éloigne beaucoup de 0, il lui faut beaucoup de temps
pour y revenir.
1
.
Développement en série entière de φ : x → √1−x
La fonction
n,
à l'ordre
φ:x→
√1
est de classe
1−x
on a au point
x ∈ [0, 1[
φ(x) =
φ(n)
sur
n
X
xk
k!
la dérivée n-ième de
(k)
t ∈ [0, x],
15) On a
2
0
φ,
x
(x − t)n (n+1)
φ
(t)dt.
n!
montrer par récurrence que
2n+1
(2n)!
(1 − x)− 2 .
n
4 n!
démontrer que
n
2n+2 (x − t)n (n+1)
x−t
1
n+1
φ
(t) = (n + 1) n+1
×
n!
4
1−t
(1 − t)3/2
l'inégalité suivante :
pour tout
Z
φ (0) +
φ(n) (x) =
14) Soit
[0, 1[. Par la formule de Taylor avec reste intégral
:
k=0
13) On note
C∞
t ∈ [0, x], 0 ≤
x−t
1−t
(2n+2
n+1 )
4n+1
≤ x.
0≤
en déduire
Z
0
≤ 1.
En étudiant la fonction
Montrer à partir de ces inégalités que
(x − t)n (n+1)
(n + 1)xn
φ
(t) ≤
,
n!
(1 − x)3/2
x
(x − t)n (n+1)
φ
(t)dt −→ 0.
n→+∞
n!
16) Etablir l'égalité préalablement admise
∞
2n
X
1
n
√
=
x2n .
n
2
4
1−x
n=1
2.
(2n+2
n+1 )
4n+1
= P[S2n+2 = 0] ≤ 1
t 7→ x −
x−t
, montrer que
1−t
7.3.
MARCHE ALÉATOIRE
133
Rappel sur le produit de Cauchy :
si
(an , n ≥ 1)
et
(bn , n ≥ 1)
sont deux suites positives et forment les termes généraux
de séries convergentes, alors la série de terme général
cn =
n
X
ak bn−k
k=0
converge et sa somme vaut
∞
X
n=0
Figure
cn =
∞
X
n=0
!
an
∞
X
!
bn
.
n=0
7.2 Réalisation d'une marche aléatoire symétrique, n=100 et n=1000
Les marches aléatoires jouent un rôle important en théorie des probabilités. L'échelle de temps
dans la simulation à droite est dix fois plus petite que celle de gauche. Cette courbe approche une
fonction aléatoire célèbre : le mouvement Brownien. Cette fonction aléatoire est avec probabilité
1, continue, non-dérivable, non monotone par morceaux. Ces fonctions très irrégulières sont
typiques en théorie des probabilités (plus précisément en théorie des processus stochastiques.) Il
n'est pas facile de construire des fonctions déterministes avec de telles propriétés. Le mouvement
Brownien est enseigné en M2. Il est impliqué dans de nombreux modèles probabilistes pour la
physique, la biologie ou la nance.
134
CHAPITRE 7.
SUJETS DES EXAMENS PASSÉS ET PROBLÈMES
Chapitre 8
Problèmes d'analyse pour les probabilités
Intégrale de Gauss
Soit
f : x ∈ R 7→ e−x
1) Montrer que
f
est intégrable sur
2 /2
.
R.
2) Soit
Z
∞
f (x)dx.
G :=
0
Montrer que
Z
∞
f (x)dx = 2G.
−∞
3) Soit
Z
e−(x
H :=
2 +y 2 )
dxdy.
R+ ×R+
Montrer que
H = G2 .
4) Rappeler brièvement la dénition des coordonnées polaires. En passant aux coordonnées
polaires, montrer que
Z
2
e−r rdrdθ.
H=
R+ ×[0, π2 ]
En déduire la valeur de
H
puis de
G.
Intégrales de Wallis et la formule de Stirling
La formule de Stirling est l'équivalent suivant :
n n
√
2πn
.
n→∞
e
n! ∼
An de l'établir, on introduit les intégrales de Wallis : pour
Z
In =
π/2
sinn (t)dt.
0
135
n ∈ N,
136
CHAPITRE 8.
1) Montrer que
(In )n∈N
PROBLÈMES D'ANALYSE POUR LES PROBABILITÉS
est décroissante et convergente.
n∈N
2) Montrer que pour tout
n ≥ 2,
tel que
In =
3) Calculer
I2n
et
4) Démontrer que
n−1
In−2 .
n−2
I2n+1 .
I2n
−→
I2n+1 n→∞
1.
5) En déduire que
6) En remarquant que
1.3.5...(2n − 1)
2.4.6...2n
2.4.6...2n = 2n n!,
√
2
n −→
n→∞
1
.
π
montrer que
n(2n)!
1
−→ √ ,
π
22n (n!)2 n→∞
7) Soit
f
une fonction
C 2 ([0, 1], R).
Z
Montrer qu'il existe
1
f (x)dx =
0
Indication : introduire
ξ ∈ [0, 1]
1
1
(f (0) + f (1)) − f 00 (ξ).
2
12
φ(x) = 12 x(1−x), en particulier remarquer que
8) En appliquant la formule précédente, montrer que pour
k+1
Z
k
avec
tel que :
R1
0
f (x)dx = −
1≤k ≤n−1
R1
0
φ00 (x)f (x).
:
1
1
ln(x)dx = (ln(k) + ln(k + 1)) + ξk−2
2
12
k ≤ ξk ≤ k + 1.
9) Montrer que
Z
1
n
n
X
n
1
1 X 1
ln(x)dx =
ln(k) − ln(n) +
.
2
12 k=1 ξk2
k=1
10) En déduire que
11) On pose
n
1
1 X 1
ln(n!) = n +
ln(n) − n + 1 −
.
2
12 k=1 ξk2
Pn 1
1
γn = 1 − 12
k=1 ξ 2 , justier que γn est une suite convergente
et que
k
1
n! = nn+ 2 e−n eγn .
12) On pose
cn = eγn ,
on cherche la limite
c
de cette suite. Montrer en calculant
c2n
que
c2n
√ 22n (n!)2
2√
n→∞
n(2n)!
c = lim
13) En utilisant la question 6) montrer que
c=
√
2π ,
en déduire la formule de Stirling.
137
Pour
Z
de loi
N (0, 1),
Φ(t) = FZ (t) = P (Z ≤ t) =
t
0, 0
0, 1
0, 2
0, 3
0, 4
0, 5
0, 6
0, 7
0, 8
0, 9
1, 0
1, 1
1, 2
1, 3
1, 4
1, 5
1, 6
1, 7
1, 8
1, 9
2, 0
2, 1
2, 2
2, 3
2, 4
2, 5
2, 6
2, 7
2, 8
2, 9
3, 0
3, 1
3, 2
3, 3
3, 4
3, 5
3, 6
3, 7
3, 8
3, 9
0, 00
0, 5000
0, 5398
0, 5793
0, 6179
0, 6554
0, 6915
0, 7257
0, 7580
0, 7881
0, 8159
0, 8413
0, 8643
0, 8849
0, 9032
0, 9192
0, 9332
0, 9452
0, 9554
0, 9641
0, 9713
0, 9772
0, 9821
0, 9861
0, 9893
0, 9918
0, 9938
0, 9953
0, 9965
0, 9974
0, 9981
0, 9987
0, 9990
0, 9993
0, 9995
0, 9997
0, 9998
0, 9998
0, 9999
0, 9999
1, 0000
Exemples
:
0, 01
0, 5040
0, 5438
0, 5832
0, 6217
0, 6591
0, 6950
0, 7291
0, 7611
0, 7910
0, 8186
0, 8438
0, 8665
0, 8869
0, 9049
0, 9207
0, 9345
0, 9463
0, 9564
0, 9649
0, 9719
0, 9778
0, 9826
0, 9864
0, 9896
0, 9920
0, 9940
0, 9955
0, 9966
0, 9975
0, 9982
0, 9987
0, 9991
0, 9993
0, 9995
0, 9997
0, 9998
0, 9998
0, 9999
0, 9999
1, 0000
0, 02
0, 5080
0, 5478
0, 5871
0, 6255
0, 6628
0, 6985
0, 7324
0, 7642
0, 7939
0, 8212
0, 8461
0, 8686
0, 8888
0, 9066
0, 9222
0, 9357
0, 9474
0, 9573
0, 9656
0, 9726
0, 9783
0, 9830
0, 9868
0, 9898
0, 9922
0, 9941
0, 9956
0, 9967
0, 9976
0, 9982
0, 9987
0, 9991
0, 9994
0, 9995
0, 9997
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
0, 03
0, 5120
0, 5517
0, 5910
0, 6293
0, 6664
0, 7019
0, 7357
0, 7673
0, 7967
0, 8238
0, 8485
0, 8708
0, 8907
0, 9082
0, 9236
0, 9370
0, 9484
0, 9582
0, 9664
0, 9732
0, 9788
0, 9834
0, 9871
0, 9901
0, 9925
0, 9943
0, 9957
0, 9968
0, 9977
0, 9983
0, 9988
0, 9991
0, 9994
0, 9996
0, 9997
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
0, 04
0, 5160
0, 5557
0, 5948
0, 6331
0, 6700
0, 7054
0, 7389
0, 7704
0, 7995
0, 8264
0, 8508
0, 8729
0, 8925
0, 9099
0, 9251
0, 9382
0, 9495
0, 9591
0, 9671
0, 9738
0, 9793
0, 9838
0, 9875
0, 9904
0, 9927
0, 9945
0, 9959
0, 9969
0, 9977
0, 9984
0, 9988
0, 9992
0, 9994
0, 9996
0, 9997
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
t
x2 dx
e− 2 √
2π
−∞
Z
0, 05
0, 5199
0, 5596
0, 5987
0, 6368
0, 6736
0, 7088
0, 7422
0, 7734
0, 8023
0, 8289
0, 8531
0, 8749
0, 8944
0, 9115
0, 9265
0, 9394
0, 9505
0, 9599
0, 9678
0, 9744
0, 9798
0, 9842
0, 9878
0, 9906
0, 9929
0, 9946
0, 9960
0, 9970
0, 9978
0, 9984
0, 9989
0, 9992
0, 9994
0, 9996
0, 9997
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
0, 06
0, 5239
0, 5636
0, 6026
0, 6406
0, 6772
0, 7123
0, 7454
0, 7764
0, 8051
0, 8315
0, 8554
0, 8770
0, 8962
0, 9131
0, 9279
0, 9406
0, 9515
0, 9608
0, 9686
0, 9750
0, 9803
0, 9846
0, 9881
0, 9909
0, 9931
0, 9948
0, 9961
0, 9971
0, 9979
0, 9985
0, 9989
0, 9992
0, 9994
0, 9996
0, 9997
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
0, 07
0, 5279
0, 5675
0, 6064
0, 6443
0, 6808
0, 7157
0, 7486
0, 7794
0, 8078
0, 8340
0, 8577
0, 8790
0, 8980
0, 9147
0, 9292
0, 9418
0, 9525
0, 9616
0, 9693
0, 9756
0, 9808
0, 9850
0, 9884
0, 9911
0, 9932
0, 9949
0, 9962
0, 9972
0, 9979
0, 9985
0, 9989
0, 9992
0, 9995
0, 9996
0, 9997
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
0, 08
0, 5319
0, 5714
0, 6103
0, 6480
0, 6844
0, 7190
0, 7517
0, 7823
0, 8106
0, 8365
0, 8599
0, 8810
0, 8997
0, 9162
0, 9306
0, 9429
0, 9535
0, 9625
0, 9699
0, 9761
0, 9812
0, 9854
0, 9887
0, 9913
0, 9934
0, 9951
0, 9963
0, 9973
0, 9980
0, 9986
0, 9990
0, 9993
0, 9995
0, 9996
0, 9997
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
Φ(0, 25) ' 0, 5987, Φ(−0, 32) = 1 − Φ(0, 32) ' 1 − 0, 6255 = 0, 3745
0, 09
0, 5359
0, 5753
0, 6141
0, 6517
0, 6879
0, 7224
0, 7549
0, 7852
0, 8133
0, 8389
0, 8621
0, 8830
0, 9015
0, 9177
0, 9319
0, 9441
0, 9545
0, 9633
0, 9706
0, 9767
0, 9817
0, 9857
0, 9890
0, 9916
0, 9936
0, 9952
0, 9964
0, 9974
0, 9981
0, 9986
0, 9990
0, 9993
0, 9995
0, 9997
0, 9998
0, 9998
0, 9999
0, 9999
0, 9999
1, 0000
Téléchargement