Telechargé par fghg3

probabilités

publicité
Probabilités : partie I
Introduction
Remarque : en probabilités on notera le complémentaire de A par A.
1. Jeu de pile ou face. On peut choisir comme univers des possibles Ω = {P, N }
2. Jeu de pile ou face répété deux fois. On peut choisir comme univers des possibles
Ω = {(P ; P ); (F ; F ); (P ; F ); (F ; P )
L’événement « obtenir deux résultats différents » est {(P ; F ); (F ; P )}
3. Jeu de pile ou face avec deux pièces indifférenciées et lancées simultanément. Ω = {(2, 0); (1, 1); (0, 2); }
où (n P , n F ) représente (nombre de piles,nombre de faces) L’événement « obtenir deux résultats différents »
est .{(1, 1)}
4. On lance une pièce jusqu’à obtenir un pile : Ω = {F ; P F, P P F, P P P F, P P P P F, P P P P P F, . . .}cup{ le tirage qui ne comporte que des F} ;
ou on peut choisir Ω = N ∪ { le tirage qui ne comporte que des F}
5. On lance une pièce une infinité de fois Ω = {P, F }N
6. Évolution de prix jour par jour du baril de petrole arrondi au dollar :Ω = NN
7. Jeu du tir à l’arc Ω = [0; r [,
8. Mesure de la distance d’un électron au noyau : Ω = R+
Définition 1 (univers et événement).
Lors d’une expérience aléatoire l’univers des possibles est l’ensemble de toutes les issues possibles.
Un événement lié à une expérience aléatoire est une partie de son univers Ω
Soit A un événement on dit que ω est un possible si ω ∈ Ω.
On dit que ω est un possible de A ou que ω réalise A si ω ∈ A.
2010–2011
exercice important
Soient A, B,C trois événements liés à une expérience aléatoire d’univers Ω. Décrire à l’aide de A, B,C les événements
suivants 1 :
1. E 1 = « seul A se réalise ».
2. E 2 = « A ne se réalise pas ».
3. E 3 = « B se réalise ou C se réalise ».
4. E 4 = « Soit B se réalise, soit C se réalise ».
5. E 5 = « A et B se réalisent mais pas C ».
6. E 6 = « Deux événements au plus se réalisent ».
7. E 7 =« Deux événements ou plus se réalisent ».
Définition 2 (événement élémentaire).
Un événement élémentaire est un événement du type {x} où x ∈ Ω.
1. Cas fini.
On remarque que tout événement est réunion d’événements élémentaires.
Un ensemble dénombrable est un ensemble en bijection avec N cf DL15
2. Cas d’un univers dénombrable.
On suppose ici que Ω = {ω1 , . . . , ωi . . .} = {ωi , i ∈ N} est un univers dénombrable).
On admet que dans ce cas tout événement est réunion finie ou dénombrable d’événements élémentaires.
3. Cas d’un univers indénombrable.
Dans ce cas là certaines parties de Ω ne représentent pas des événements !
I Espaces probabilisés et probabilité.
I.1 Algèbre d’événements.
Définition 3 (Algèbre).
Soit Ω un univers et F un sous ensemble de P (Ω). On dit que F est une algèbre d’événements si et seulement si
1. Ω ∈ F
2. Pour tout A ∈ F on a A ∈ F
3. Pour tout A ∈ F et B ∈ F , A ∩ B ∈ F
Proposition 1 (Propriétés élémentaires d’une algèbre).
Soit F une algèbre d’événements sur Ω. Alors :
1. Réponse E 1 = A ∩ B ∩C , E 2 = A, E 3 = B ∪C , E 4 = (B \C ) ∪ (C \ B ) = B ∆C , E 5 = (A ∩ B ) \C , E 6 = Ω \ (A ∩ B ∩C ), E 7 = (A ∩ B ) ∪ (A ∩C ) ∪ (B ∩C )
Espaces probabilisés
2
ECS–1 Lycée Descartes
1. ; ∈ F
2. Pour tout A ∈ F et B ∈ F , A ∪ B ∈ F
3. Pour tout entier naturel non nul n, pour tout A 1 ∈ F , A 2 ∈ F ,. . . , A n ∈ F :
n
[
Ai ∈ F
i =1
n
\
Ai ∈ F
i =1
Démonstration :
Le point 3 se démontre par récurrence sur n.
I.2 σ-algèbre.
Remarque : On constate sur les exemples précédents que la notion d’algèbre d’événements est insuffisante (laner
infini d’une pièce).
Définition 4 (σ-algèbre ou tribu).
Soit Ω un univers. On appelle tribu ou σ−algèbre sur Ω tout ensemble T de parties de Ω vérifiant :
1. Ω ∈ T .
2. Si A ∈ T , alors A ∈ T .
3. Si (A n )n∈N est une suite d’éléments de T , alors
[
An ∈ T
n∈N
Proposition 2 (Propriétés élémentaires d’une σ-alg‘ebre).
Soit Ω un univers et T une σ-algèbre.
Alors :
1. T est une algèbre.
2. Si (A n )n∈N est une suite d’éléments de T , alors
\
An ∈ T
n∈N
Exemples élémentaires
1. T = P (Ω) est une tribu sur Ω.
2. {;, Ω} est une tribu sur Ω.
©
ª
3. Soit Ω = {a, b, c} alors C = ;, {a, b}, {c}, Ω est une tribu (vérification laissée en exercice).
3
2010–2011
4. On prend une cible de rayon r = 3m et divisée en
.
n trois secteurs
. −−→ concentriques
o
On note P le plan et O le centre de la cible Ω = M ∈ P kOM k < 3 et
n
n
. −−→
o n
.
o n
.
o
−−→
−−→
T = ;, Ω, M ∈ P kOM k < 1 , M ∈ P 1 6 kOM k < 2 , M ∈ P 2 6 kOM k < 3 ,
n
.
o n
.
o n
.
oo
−−→
−−→
−−→
−−→
M ∈ P 0 6 kOM k < 2 , M ∈ P 1 6 kOM k < 3 , M ∈ P 0 6 kOM k < 1 ou 2 6 kOM k < 1
Définition 5 (Espace probabilisable).
Un espace probabilisable est un couple (Ω, T ) où Ω est un univers associé à une expérience aléatoire et T est une
tribu sur Ω des événements liés à cette expérience aléatoire.
Si Ω est fini ou dénombrable on choisit presque toujours T = P (Ω).
Vocabulaire :
Soit (Ω, T ) un espace probabilisable
1. ; est appelé l’événement impossible et Ω l’événement certain.
2. On dit qu’un événement A implique un événement B lorsque A ⊂ B . (Tout possible ω de A réalise B (i.e.
∀ω ∈ A, ω ∈ B )).
3. Soit A un événement, alors A est appelé l’événement contraire de A.
4. Deux événements A et B sont dits incompatibles lorsque A ∩ B = ;.
Définition 6 (système complet d’événements).
On appelle système complet d’événements toute famille finie d’événements (A k )16k 6n (respectivement toute suite
d’événements (A n )n∈N ) qui vérifient
1. les A i sont deux à deux incompatibles,
2. Tous les A i sont distincts de ;
n
[
[
3.
A k = Ω (respectivement.
A n = Ω).
k=1
n∈N
Cette notion correspond à la notion ensembliste de partition d’un ensemble.
I.3 Probabilités
Soit (Ω, T ) un espace probabilisable. Une probabilité est intuitivement une fonction qui associe à chaque événement A de T un réel compris entre 0 et 1 mesurant à quel point la réalisation de l’événement A est probable. 0
doit être associé à un évèvenement qui semble ne pas pouvoir se réaliser et 1 a un événement qui semble certain.
P doit vérifier au moins les propriétés suivantes
1. P (Ω) = 1
2. P (;) = 0
Espaces probabilisés
4
ECS–1 Lycée Descartes
3. Si A et B sont incompatibles alors P (A ∪ B ) = P (A) + P (B )
Comme une tribu est stable par union dénombrable, ceci nous conduit a proposer la définition suivante :
Définition 7 (Probabilité).
Soit (Ω, T ) un espace probabilisable. Une probabilité est une application
P : T
→
[0, 1]
A
7→
P (A)
telle que :
1. P (Ω) = 1
2. (σ−additivité de P ) (A n )n∈N ) est une famille dénombrable d’événements 2 à 2 incompatibles, alors
P(
[
Ak ) =
+∞
X
P (A n )
n=0
k∈N
C’est la somme totale d’une série
convergent (absolument).
Définition 8 (espace probabilisé).
Un espace probabilisé est un triplet (Ω, T , P ) tel que (Ω, T ) est un espace probabilisable et P est une probabilité sur
cet espace.
Définition 9 (ensembles négligeables).
(Ω, T , P ) un espace probabilisé.
• On dit que A ∈ T est négligeable si et seulement si
P (A) = 0
• On dit qu’une propriété P est vraie presque surement si et seulement si l’événement
©
ª
ω ∈ Ω / ω vérifie P
est de probabilité 1. On note alors « P est vraie p.s. ».
Notation au programme
Une propriété est vraie p.s. si et seulement si les éléments ω qui ne vérifient pas P forment un évènement
négligeable.
Proposition 3 (propriétés de base d’une probablité).
Soit (Ω, T , P ) un espace probabilisé. On a alors
1. P (;) = 0.
2. Si A 1 , A 2 ,. . .,A n sont des événements incompatibles deux à deux alors :
Ã
!
n
n
X
[
P
Ai =
P (A k )
k=1
k=1
5
2010–2011
3. Si A et B sont des événements incompatibles alors :
P (A ∪ B ) = P (A) + P (B )
4. Soit A un événement. Alors P (A) = 1 − P (A)
5. Soient A et B deux événements tels que A implique B (i.e. A ⊂ B ). Alors on a P (B \A) = P (B )−P (A) et P (A) 6 P (B ).
Démonstration :
Soit (Ω, T , P ) un espace probabilisé.
1. Pour i ∈ N on pose
Ai = ;
Les événements (A i )i ∈N sont bien incompatibles deux à deux donc
+∞
X
P (;) = P (;)
k=0
La série
P
P (;) est convergente donc la suite constante (P (;))i ∈N converge vers 0 (cf cours sur les séries).Donc :
P (;) = 0
2. Soit n ∈ N∗ et soit A 1 , A 2 ,. . .,A n sont des événements incompatibles deux à deux, alors on pose pour p > n
Ap = ;
La famille (A i )i ∈N est formée d’événements incompatibles deux à deux (à vérifier), donc par définition d’une
probabilité :
!
Ã
+∞
X
[
P (A k )
P
Ak =
k∈N∗
k=1
Or on constate que :
Ã
[
Ak =
k∈N∗
n
[
!
Ã
Ak ∪ ; =
k=1
n
[
!
Ak
k=1
et que :
+∞
X
k=1
P (A k ) =
n
X
P (A k ) +
k=1
+∞
X
k=n+1
P (A k ) =
n
X
P (A k ) + 0
k=1
3. C’est un cas particulier (et utile) du point précédent.
4. Soit A ∈ T alors par définition d’une tribu A ∈ T . De plus A ∪ A = Ω et A ∩ A = ;, donc d’aprés le point
précédent :
P (A) + P (A) = P (Ω) = 1
ce qui démontre le résultat.
Espaces probabilisés
6
ECS–1 Lycée Descartes
I.4 Cas d’une probabilité sur un univers fini
Soit P une probabilité sur Ω = {x 1 , x 2 , . . . , x n }. Définissons les réels p i = P ({ωi }) pour i ∈ J1, n K. Ces réels on alors
les propriétés suivantes :
1. Pour tout i de J1, n K on a p i > 0
n
X
2.
pi = 1
i =1
Réciproquement, soient (p i )16i 6n une famille de réels ayant les propriétés 1 et 2 précédentes. Alors il existe une
unique probabilité P sur Ω telle que
∀i ∈ J1, n K
P ({ωi }) = p i
Un cas particulier important : l’équiprobabilité
Définition 10 (équiprobabilité).
Considérons toujours un univers fini Ω. On dit qu’il y a équiprobabilité lorsque
∀(ω, η) ∈ Ω2
P ({ω}) = P ({η}).
Dans ce cas, on a alors
∀i ∈ J1, n K ,
P ({w i }) =
1
1
=
n Card (Ω)
La probabilité ainsi obtenue est appelée probabilité uniforme sur Ω.
De plus, si A = {ωi 1 , ωi 2 , . . . , ωi k } est un événement, alors
P (A) = P ({ωi 1 }) + P ({ωi 2 }) + · · · + P ({ωi k }) =
k Card (A)
=
.
n Card (Ω)
Lorsque la probabilité P sur l’univers Ω est uniforme (c’est à dire que les événements élémentaires ω ont tous la
même chance d’apparaître P ({ω}) = Card1 (Ω) ) alors la probabilité d’un événement A est :
P (A) =
Nombre de possibles favorables à A
.
Nombre total de possibles
Quand sait- on qu’il y a équiprobabilié ?
• L’énoncé le précise de façon claire.
• On trouve dans l’ énoncé les adjectifs : « honnête », « non truqué », « non pipé ». . .ou la locution « au hasard »
• L’ énoncé ne dit rien.
Exemple : dès honnête : il y a équiprobabilité, pièce truquée : il n’y a pas équibrobabilité.
Nombre de possibles favorables à A
Attention : Ne pas utiliser P (A) =
. lorsqu’il n’y a pas équiprobabilité !
Nombre total de possibles
B
7
2010–2011
I.5 Cas d’une probabilité sur univers dénombrable
On dit qu’un ensemble est dénombrable si et seulement si on pet le mettre en bijection avec N
Exemple : On lance une pièce jusqu’à obtenir un résultat "Face". on pose alors
Ω = {F, P F, P P F, P P P F, P P P P F, . . .}
Si Ω± est un univers dénombrable, on montre comme dans le cas d’un univers fini qu’une probabilité P sur Ω =
{ωn n ∈ N} est caractérisée par la donnée des probabilités des événements élémentaires {ωn }
Plus précisément, les réels p n = P ({ωn }) vérifient les deux propriétés suivantes :
1. ∀i ∈ N p i > 0
+∞
X
2.
pn = 1
n=1
Réciproquement on admet que si (p n )n∈N une famille de réels ayant les propriétés 1 et 2 précédentes. Alors il existe
une unique probabilité P sur Ω telle que
∀n ∈ N
P ({ωn }) = p n
B
Attention : On ne peut pas avoir avoir équiprobabilité sur un univers dénombrable !
Exemple : On lance une pièce jusqu’a obtenir un F. On choisit Ω = {ω0 , ω1 ; . . .} ω0 = F , ω1 = P F , . . .
On choisit la probabilités suivante :
1
1
p 0 = P (ω0 ) = p 1 = P (ω1 ) = et de fao̧n générale
2
4
µ ¶n+1
1
∀n ∈ N
pn =
2
P+∞
On a bien k=0 p k = 1
Dans ce cas calculer de la probabilité d’avoir un nombre pair de pile.
I.6 Théorèmes
Théorème 1 (limite monotone). ˜
1. Soit (A n )n∈N une suite croissante d’événements (i.e. telle que pour tout n entier naturel A n ⊂ A n+1 )
Alors la suite (P (A n ))n∈N est croissante et
µ +∞ ¶
[
P (A n ) −→ P
An
n→+∞
n=0
2. Soit (A n )n∈N une suite décroissante d’événements (i.e. telle que pour tout n entier naturel A n+1 ⊂ A n ),
Alors la suite (P (A n ))n∈N est décroissante et
µ +∞ ¶
\
P (A n ) −→ P
An
n→+∞
Espaces probabilisés
n=0
8
ECS–1 Lycée Descartes
Démonstration :
On se donne (Ω, T , P ) un espace probabilisé.
1. idée : On pose pour n ∈ N∗ , X n = A n \ A n−1 et X 0 = A 0 .
Puis on démontre que ces événements sont incompatibles deux à deux.
2. Soit (A n )n∈N une suite d’événements telle que ∀n ∈ N, A n+1 ⊂ A n .
On constate que
∀n ∈ N
A n ⊂ A n+1
³et que
´ tous les A n sont des éléments de T . Il est donc possible d’appliquer le point précédent à la suite
An
.
n∈N
Exemple classique .
On lance une infinité de fois un dé à six faces non truqué.
On pose
N∗
Ω = J1, 6K
On suppose que Ω est munit d’une tribu idoine.
Pour n ∈ N∗ on
A n « il n’ y a aucun 6 jusqu’au n-ième lancer ».
¶
µ pose
5 n
(cela découle de l’indépendance cf ci dessous)
On a P (A n ) =
6
Et pour tout entier naturel n on a A n+1 ⊂ A n
Donc
µ +∞ ¶
\
P
A n = lim P (A n ) = 0
n=0
n→+∞
Corollaire 1 (du théorème de la limite monotone).
Soit (B n )n∈N une suite d’événements
¡T
¢
¡T
¢
1. P nk=0 B k −→ P +∞
Bk
k=0
n→+∞
¡S
¢
¡S
¢
2. P nk=0 B k −→ P +∞
B
k=0 k
n→+∞
Exemple : Reprenons l’exemple précédent
Pour k ∈ N, on pose B k « le tirage k est un nombre pair »
Quel résultat obtient on en appliquant le corollaire 1 ? Exercice : Calculer la probabilité de n’avoir que des tirages
pairs
Proposition 4 (Formule du crible ou de Poincaré).
9
2010–2011
• Soit A et B deux événements
P (A ∪ B ) = P (A) + P (B ) − P (A∩)
• Soit A, B et C trois événements
P (A ∪ B ∪) = P A) + P (B ) − P (A ∩ B ) − P (A ∩C ) − P (B ∩C ) + P (A ∩ B ∩C )
• Soient A 1 , . . . , A n , n événements, alors P (A 1 ∪ A 2 ∪ · · · ∪ A n ) est égale à
Ã
!
n
X
X
k−1
(−1)
P (A i 1 ∩ A i 2 ∩ · · · ∩ A i k )
16i 1 <i 2 <···<i k 6n
k=1
ce qui peut s’écrire sous la forme
Ã
n
¡ n
¢ X
P ∪i =1 A i =
(−1)k−1
k=1
X
16i 1 <i 2 <···<i k 6n
´
³
P ∩kj=1 A i j
!
Démonstration :
1. Soit A et B deux événements alors
A ∪ B = A ∪ (B \ (A ∩ B ))
et
A ∩ (B \ (A ∩ B )) = ;
Donc
P (A ∪ (B \ (A ∩ B ))) = P (A) + P (B \ (A ∩ B ))
Or
A ∩B ⊂ B
donc
P (B \ (A ∩ B )) = P (B ) − P (A ∩ B )
Ce qui finit de démontrer la formule
2. Laissé en exercice
3. cf la démonstration de la formule de Poincaré sur le cardinal
Espaces probabilisés
10
ECS–1 Lycée Descartes
II Variables aléatoires discrètes
II.1 Premières définitions.
Exemples :
• On joue à pile ou face. Si on obtient un pile on gagne 0 point sinon on gagne 1 point. On vient de créer une
fonction
Ω → {0; 1} ⊂ R
Où Ω est l’espace probabilisé associé à cette expérience
• On lance un dé si le résultat est pair on obtient 0 point sinon on obtient 1 point. On vient de créer une fonction
Ω0 → {0; 1} ⊂ R
Ces deux jeux sont différents, mais du point de vue du joueur, les gains et les résultats sont identiques.
Définition 11 (variable aléatoires).
Soit (Ω, T ) un espace probabilisable. Une variable aléatoire réelle est une application
X : Ω
→
R
ω
7→
X (ω)
Il est déjà arrivé que l’on demande
cette définition aux épreuves d’oral.
qui vérifie la la propriété suivante : pour tout réel a, l’ensemble
©
ª
X −1 (]−∞; a]) = ω ∈ Ω tels que X (ω) 6 a
est un événement de l’expérience aléatoire, noté
[X 6 a]
.
Notations
±
• [X = a] = X −1 ({a}) = {ω ∈ Ω X (ω)
± = x1 }
• [X > a] = X −1 ([a; +∞[) = {ω ∈ Ω ± X (ω) > a}
• [X 6 b] = X −1 (]−∞; b]) = {ω ∈ Ω± X (ω) 6 b}
• [X < b] = X −1 (]−∞; b[) = {ω ∈ Ω X± (ω) < b}
• [a 6 X 6 b] = X −1 ([a; b]) = {ω ∈ Ω a 6 X (ω) 6 b}
Proposition 5 (événements liés à une vad).
Tous ces sous ensembles de Ω précédemment définis sont des événements.
Démonstration :
Soit X une variable aléatoire et a, b des réels.
On rappelle qu’une tribu est stable par passage au complémentaire et par union ou intersection dénombrable.
[X > b] = [X 6 b]
11
2010–2011
comme
[X 6 b] ∈ T
on obtient
[X 6 b] ∈ T
On a
[X < a] =
[
·
X 6a−
k∈N∗
·
Donc, comme pour n ∈ N∗ , X 6 a −
1
b
¸
¸
1
∈ T , on obtient
b
[X < a] ∈ T
Pour les autres formes, on constate que :
[X = a] = [X 6 a] ∩ [X > a]
[a < X 6 b] = [a < X ] ∩ [X 6 b]
et ainsi de suite
Définition 12 (variable aléatoire discrète).
Soit X une variable aléatoire alors on dit que X est une variable aléatoire discrète dans le cas où X (Ω) est un sous
ensemble de R fini ou dénombrable :
En pratique une variable aléatoire X discrète vérifie l’une des conditions suivantes :
1. X (Ω) = {x 1 , . . . , x n } est fini.
±
2. X (Ω) = {x n n ∈ N} infini
±
3. X (Ω) = {x n n ∈ Z} infini
4. Plus généralement il existe une partie A ⊂ Z telle que
X (Ω) = {x i / i ∈ A}
On classe souvent les différentes issues par ordre croissant i.e. dans le cas fini :
X (Ω) = {x 1 < x 2 < x 3 < . . . x n }
ou dans le cas infini
X (Ω) = {x 1 < x 2 < x 3 < · · · < x n < · · · }
Espaces probabilisés
12
ECS–1 Lycée Descartes
Remarques
1. Si T = P (Ω), toute application de Ω dans R est une var.
2. Soit (Ω, T ) un espace probabilisable. Toute application constante de Ω dans R est une variable aléatoire (et ce
quelle que soit la tribu utilisé).
En effet, soit X une application constante de valeur a quelconque. Soit alors un réel α on a


; si a > α
−1
X (] − ∞, α]) =

Ω si a 6 α
3. Il existe des applications de Ω dans R qui ne sont pas des vad. Par
exemple :


Ω → R







 1 7→ 0
On pose Ω = {1, 2, 3, 4} muni de la tribu T = {Ω, ;, {1}, {2, 3, 4}}, X :
2





3





4
7→
0
7→
1
7→
1
X −1 (]−∞, 1]) = {1, 4, 2} 6∈ T donc X n’est pas une v.a.d.
4. Le fait qu’une fonction soit une variable aléatoire dépend donc du choix de la tribu et non pas seulement de
Ω.
Dans l’exemple précédent si on munit Ω de la tribu P (Ω) X devient une variable aléatoire
Exemples
1. Considérons l’expérience qui consiste à jeter trois pièces équilibrées. Si l’on désigne par X le nombre de piles
obtenus, X est une variable aléatoire et X (Ω) = {0, 1, 2, 3}.
2. D’une urne contenant 20 boules numérotées de 1 à 20, on tire sans remise 3 boules. Appelons X le plus grand
des numéros tirés. X est une variable aléatoire pouvant prendre toutes les valeurs de 3 à 20.
3. On fixe n ∈ N∗ . On répète le jet d’une pièce jusqu’à ce que pile apparaisse, mais au plus n fois. On désigne par
X le nombre de jets réalisés jusqu’à l’arrêt de l’expérience. X est une var pouvant prendre n’importe laquelle
des valeurs de 1 à n.
4. D’une urne contenant 3 boules rouges, 3 blanches et 5 noires, on tire 3 boules. Supposons que l’on reçoive
1 Dh pour toute boule blanche tirée et que l’on doive au contraire payer 1 Dh pour toute boule rouge. On
désigne par X le bénéfice net laissé par le tirage. X est une variable aléatoire pouvant prendre les valeurs
−3, −2, −1, 0, 1, 2 ou 3.
II.2 Opérations sur les variables aléatoires discrètes
Proposition 6.
Soit (Ω, T ) un espace probabilisé, et X , Y deux variables aléatoires discrètes et λ un réel. Alors les applications suivantes sont des variables aléatoires discrètes :
13
2010–2011
1. (X + Y ) : ω → X (ω) + Y (ω)
2. (X .Y ) : ω → X (ω) × Y (ω)
3. (λX ) : ω → λ.X (ω)
Démonstration :
Admis
II.3 Loi d’une variable aléatoire
Dans toute la suite, on indexe X (Ω) par I ⊂ Z
Définition 13 (Loi d’une variable aléatoire discrète).
Soit X une variable aléatoire discrète de (Ω, T , P ) alors la loi de X est l’application
L X : X (Ω)
x
→
R
7→
P (X = x)
On devrait noter P ([X = x])
Exemple : on lance un dé une infinité de fois et on choisit comme variable aléatoire le numéro du premier lancer
qui donne 6.
Proposition 7 (Propriété caractéristique de la loi d’une variable aléatoire discrète).
Soit X un variable aléatoire discrète alors :
1. ∀x ∈ X (Ω)
0 6 L X (x) 6 1.
X
X
2.
P (X = x) =
L X (x) = 1
x∈X (Ω)
B
x∈X (Ω)
La dernière somme est la somme d’une série absolument convergente.
Attention : On admet que pour une série absolument convergente l’ordre de sommation n’a pas d’importance.
La façon dont on énumère l’ensemble X (Ω) n’a donc pas d’importance pour les calculs, néanmmoins pour faciliter
les notations, il est d’usage de choisir une énuération croissante.
Réciproquement : Si (Ω, T ) est un espace probabilisable infini et dénombrable et (p i )i ∈I (avec I ⊂ Z) est une
suite de réels vérifiant
∀k ∈ I
X
pi
>0
(i)
pi
=1
(ii)
i ∈I
Espaces probabilisés
14
ECS–1 Lycée Descartes
et soit (x i ) une suite de réels strictement croissante et tendant vers +∞.
Alors il existe une probabilité P sur (Ω, T ) et une variable aléatoire discrète X sur Ω, telles que
X (Ω) ⊂ {x 1 , x 2 , . . . , x n , . . .}
∀i ∈ I
et
P (X = x i ) = p i .
De même, si (Ω, T ) est un espace probabilisable fini de cardinal m et (p i )16k 6m est une suite finie de réels
vérifiant les conditions (i ) et (i i ) ci-dessus. Soit (x i )16i 6m une suite finie de réels.
Alors il existe une probabilité P sur (Ω, T ) et une variable aléatoire discrète X sur Ω, telles que
X (Ω) ⊂ {x 1 , x 2 , . . . , x m }
∀i ∈ J1, n K
et
P (X = x i ) = p i .
II.4 Fonction de répartition
Définition 14 (fonction de répartition).
Soit X une variable aléatoire discrète définie sur Ω. On appelle fonction de répartition de X l’application
F X (a) : R
→
[0; 1]
a
7→
P (X 6 a)
y
~
x1 O x2
~ı x 3
x
Une loi et la fonction de répartition associée
Proposition 8 (Lien entre loi et fonction de répartition).
Si a ∈ R, alors
X
F X (a) =
P (X = x k ).
x k ∈X (Ω)
x k 6a
15
2010–2011
Proposition 9 (Propriétés d’une fonction de répartition).
Soit X une variable aléatoire discrète définie siur (Ω, T , P )
1. F X est croissante sur R.
2. lim F X (x) = 1.
+∞
3. lim F X (x) = 0.
−∞
4. F X est continue en tout point de R sauf au points a ∈ X (Ω).
5. En une telle valeur a ∈ X (Ω), F X est continue à droite et discontinue à gauche. De plus, la valeur du « saut à
gauche de a » est P (X = a). plus précisement
P (X = a) = F X (a) − lim− F X (x)
x→a
Il est parfois plus facile de calculer la fonction de répartition d’une variable aléatoire discrète puis d’en déduire
sa loi grace au théorème précédent.
Exemple : Une urne contient n boules numérotées de 1 à n. On en tire k (k ∈ N∗ ). Soit X la variable aléatoire égale
au plus grand numéro tiré. Déterminer la loi de probabilité de X dans les deux cas
1. le tirage se fait avec remise.
2. le tirage se fait sans remise.
II.5 Lois usuelles à connaitre
Dans toute la suite on considère (Ω, T , P ) un espace probabilisable et X une variable aléatoire discrète.
II.5.a Loi de Bernouilli 2
Exemple
On lance une pièce telle que la probabilité d’obtenir « Pile » est p ∈ ]0; 1[ on note Ω = {P i l e, F ace} et P l’unique
probabilité telle que
P ({P i l e}) = p
P ({F ace}) = 1 − p
On pose X : Ω → {0, 1} la variable aléatoire discrète telle que X ({P i l e}) = 1 et X ({F ace}) = 0 alors la loi de X est
définie par
P (X = 1) = p P (X = 0) = 1 − p
Définition 15.
On dit qu’une variable aléatoire suit une loi de Bernoulli de paramétre p ∈]0, 1[ si l’on a
X (Ω) = {0, 1}
et
P (X = 0) = 1 − p
et P (X = 1) = p
On écrira alors X ,→ B(1, p).
2. Jacques Bernoulli 1759–1789
Espaces probabilisés
16
ECS–1 Lycée Descartes
Proposition 10 (Fonction de répartition).
Soit X une variable aléatoire discrète qui suit une loi de Benouilli de paramètre p, alors F X , la fonction de repartition
est définie pour x ∈ R




0
si x < 0



F X (x) = 1 − p si 0 6 x < 1





1
si x > 1
II.5.b Loi uniforme
exemple
On lance un dé à n faces, non pipé et on considère la variable aléatoire qui au tirage associe le numéro de la face
inférieure.
Définition 16.
On dit qu’une variable aléatoire X suit une loi uniforme sur J1, n K si
X (Ω) = J1, n K
et
∀k ∈ J1, n K , P (X = k) =
1
n
On écrira alors X ,→ U (J1, n K)
Proposition 11 (Fonction de répartition d’une loi uniforme).
Soit X une variable aléatoire discrète qui suit une loi uniforme et telle que X (Ω) = J1, n K
F X (x) =




0






1


n




2
n

..


.






n−1



n




1
si x < 1
si 1 6 x < 2
si 2 6 x < 3
..
.
si n − 1 6 x < n
si n 6 x
17
2010–2011
II.5.c Loi binomiale
Exemple On considère une expérience aléatoire et un événement A, lié à cette expérience, de probabilité de réalisation p. On répète n fois l’expérience et on considére que les épreuves sont indépendantes entre elles. On appelle X la variable aléatoire égaleµ au¶nombre de fois où A est réalisé au cours des n épreuves. On trouve X (Ω) =
n k
J0, n K et ∀k ∈ J0, n K , P (X = k) =
p (1 − p)n−k .
k
Définition 17.
On dit qu’une variable aléatoire X suit une loi binômiale de paramètres n et p si
X (Ω) = J0, n K
et
µ
∀k ∈ J0, n K , P (X = k) =
¶
n k
p (1 − p)n−k
k
On note alors X ,→ B(n, p).
Exemples
1. Tirages avec remise dans une urne avec des billes de 2 couleurs. Par exemples des boules blanches en proportion p, des boules noires en proportion 1 − p.
2. Lancers répétés d’une pièce.
Remarque Si X ,→ B(n, p) alors (n − X ) ,→ B(n, 1 − p). Il suffit en effet d’intervertir les notions de succès et
d’echecs.
II.5.d Loi hypergéométrique.
Exemple une urne contient 20 boules dont trois quarts de rouges et le reste de noires. On choisit au hasard et
simultanément 4 boules et on considère comme variable aléatoire le nombre de boules rouges parmi les boules
tirées
Modèle On considère un ensemble à N éléments dont une proportion p de type 1 et une proportion q = 1 − p
de type 2. On effectue n tirages sans remise dans cet ensemble, et on désigne par X la variable aléatoire égale au
nombre d’éléments de type 1 obtenus lors de ces n tirages. On a alors
µ
X (Ω) ⊂ J0, n K et ∀k ∈ J0, n K , P (X = k) =
Espaces probabilisés
pN
k
¶µ
qN
n −k
µ ¶
N
n
¶
18
ECS–1 Lycée Descartes
Définition 18.
Soient N ∈ N∗ , n ∈ J1, N K et p ∈ Q tel que N p soit un entier. On dit qu’une variable aléatoire X suit une loi hypergéométrique de paramètres N , n et p si
X (Ω) ⊂ J0, n K
et
µ
∀k ∈ J0, n K , P (X = k) =
pN
k
¶µ
¶
qN
n −k
.
µ ¶
N
n
On écrira alors X ,→ H (N , n, p).
Remarques
µ
¶
n
= 0, on remarque donc que l’ensemble des entiers k tels que
k
[X = k] est de probabilité non nulle est i nenmax(0, n − q N )min(n, pN )
µ
¶
qN
2. Dans la définition on utilise
, mais il n’est pas nécessaire de vérifier que q N ∈ N car c’est une consén
quence directe des hypothèses.
1. On rappelle que si n < k ou que si k < 0,
3. Si X ,→ H (N , n, p) alors (n − X ) ,→ H (N , n, 1 − p). Il suffit en effet d’intervertir les notions de succès et
d’échecs.
II.5.e Loi géométrique
Modèle On fait une expérience aléatoire dont les seules issues possibles sont les événements A et A avec les probabilités respectives de réalisation p et q = 1 − p. On répète l’expérience jusqu’à ce que A soit réalisé pour la première
fois. On définit la variable aléatoire X égale au nombre d’épreuves qu’il a fallu effectuer. X est donc le temps d’attente
de la première réalisation de A. On a
X (Ω) = N∗
et
∀k ∈ N∗
P (X = k) = pq k−1 .
Définition 19.
On dira qu’une variable aléatoire X suit une loi géométrique de paramètre p ∈]0, 1[ si
X (Ω) = N∗
et
∀k ∈ N∗ , P (X = k) = pq k−1 .
On écrira alors X ,→ G (p).
19
2010–2011
Exemple Une urne contient N boules blanches et M noires. On tire des boules une à une avec remise jusqu’à
l’apparition d’une noire. Quelle est la probabilité qu’il faille exactement n tirages ? Quelle est la probabilité qu’il
faille au moins k tirages ?
II.5.f Loi de Poisson 3
Modèle Il n’y a pas de modèle type, en pratique on admet par hypothèse qu’un phénomène peut être modélisé à
l’aide d’une loi de Poisson.
Définition 20.
On dira qu’une variable aléatoire X suit une loi de Poisson de paramètre λ > 0 si
X (Ω) = N
et
P (X = k) = e−λ
∀k ∈ N,
λk
.
k!
On écrira alors X ,→ P (λ).
On vérifie aisément que
k=0
λk
=1
k!
6
7
+∞
X
e−λ
et que ces termes sont positif.
y
λ = 0.4
λ=2
λ=4
O0
1
2
3
4
5
8
9
10
11
12
13
14
x
15
Loi de Poisson pour différents paramêtres.
3. Siméon Denis Poisson 1781–1840
Espaces probabilisés
20
ECS–1 Lycée Descartes
Exemple Admettons que le nombre d’erreurs par page dans un livre donné suive une loi de Poisson de paramètre
1
2 . Calculer la probabilité qu’il y ait au moins une erreur sur une page donnée.
III Probabilité conditionnelle et indépendance
Exemples :
On lance deux fois (avec ordre) une pièce, la probabilité est supposée uniforme.
1
1. La probabilité que le deuxème tirage soit un pile est
2
On nous annonce que le premier tirage est un pile. La probabilité que le deuxième tirage soit un pile est alors
1
2
On dira que les deux événements sont indépendants.
On constate
P(« le 1er tirage est un pile et le 2ème tirage est un pile »)= P(« 1er tirage pileé »)× P(« 2ème tirage est un
pile »).
1
.
2
On nous annonce que l’un des deux est un pile. La probabilité que les deux tirages soient differents est alors
2
.
3
Ajouter la condition « on sait que l’un des deux tirages est un pile » change la probabilité, les deux événements
ne sont pas indépendants
On constate que la probabilité de l’intersection n’est plus le produit des probabilités. 14 6= 43 × 12 par contre
2
3
1
3×4 = 2
2. La probabilité d’avoir deux résultats différents est
III.1 Probabilité conditionnelle et indépendance
Définition 21 (Probabilité conditionnelle).
Soit (Ω, T , P ) un espace probabilisé et B un événement de probabilité non nulle alors on note
P B (A) =
P (A ∩ B )
P (B )
C’est la probabilité conditionnelle de A sachant B.
Notation et vocabulaire :
On trouve aussi la notation (hors programme) :
P B (A) = P (A|B )
21
2010–2011
Théorème 2.
Soit (Ω, T , P ) un espace probabilisé et B ∈ T tel que P (B ) 6= 0.
Alors
P B est une probabilité sur (Ω, T )
Exercices :
1. Une Urne U1 contient 3 boules blanches et 5 boules noires. Une urne U2 contient 4 boules blanches et 4 boules
noires. On choisit une urne au hasard puis on tire simultanément 2 boules ans l’urne choisie.
Calculer la probabilité d’avoir deux billes de la même couleur
2. Soit un jeu de 32 cartes. on donne 5 cartes (simultanément) à X et à Y
Ã
!
28
5
(a) Probabilité pour que X ait au moins un as (1 − Ã ! ' 0, 512)
32
5
(b) Y a exactement un as dans son jeu, quelle est pour lui la probabilité pour que X ait au moins un as (On
utilise le fait que P B est une probabilité pour calculer la probabilité de l’événement contraire de "X a au
Ã
!
24
5
moins un as" 1 − Ã ! ' 0, 473)
27
5
III.2 Indépendance
Définition 22 (Indépendance de deux événements).
Soit (Ω, T , P ) un espace probabilisé. On dit que A est B sont indépendants si et seulement si
P (A ∩ B ) = P (A)P (B )
On dit que les lancers sont indépendants
Exemple : On lance successivement 2 dés ; on considère que la probabilité est uniforme.
Içi Ω = J1, n K et T = P (Ω)) Alors les événements A i : « le premier résultat est i » et B j : « le deuxième résultat est
j » sont indépendants.
Récipoquement si on suppose que A i et B j sont indépendants et que le dé est non truqué, alors la probabilité sur Ω
est uniforme.
Proposition 12 (Lien entre indépendance et probabilité conditionelle).
Soit (Ω, T , P ) un espace probabilisé.
• Soit B un événement de probabilité non nulle alors A et B son indépendants si et seulement si P B (A) = P (A)
• Si A et B sont deux événements indépendants alors A et B le sont aussi.
B
Espaces probabilisés
Attention : l’indépendance dépend de l’espace probabilisé choisi.
22
ECS–1 Lycée Descartes
Définition 23 (Indépendance 2 à 2 de n événements).
Soit (Ω, T , P ) un espace probabilisé. On dit que n événements A 1 , A 2 , . . . , A n . sont 2 à 2 indépendants lorsque
∀(i , j ) ∈ J1, n K
2
i 6= j ⇒ P (A i ∩ A j ) = P (A i ).P (A j ).
Définition 24 (Indépendance mutuelle d’une famille d’événements).
Soit (Ω, T , P ) un espace probabilisé. On dit que A 1 , A 2 , . . . , A n sont mutuellement indépendants lorsque pour tout
entier k ∈ J2, n K et pour toute famille d’indices (i 1 , . . . , i k ) tels que 1 6 i 1 < i 2 < · · · < i k 6 n
P (A i 1 ∩ A i 2 ∩ · · · ∩ A i k ) = P (A i 1 ).P (A i 2 ). · · · .P (A i k )
Si (A n )n∈N est une suite (infinie) d’événements, On dit que ces événements sont mutuellement indépendants lorsque
pour tout n ∈ N, A 0 , A 1 , . . . , A n sont mutuellement indépendants.
Exemple : On lance une pièce de monnaie une infinité de fois. On appelle A i l’événement « pile apparaît au
i-ème lancer » . Montrons que la famille (A i )i ∈N∗ sont indépendants.
Soit n ∈ N, montrons que A 1 , . . . , A
³ n sont mutuellement´ indépendants. Soient 1 6 i 1 < · · · < i k 6 n, k indices.
∗
On pose Ω = {P, F }N Calculons P A i 1 ∩ · · · ∩ A i k (=
2n−k
2n
=
1
2k
).
1
2k
D’autre part P (A i 1 )P (A i 2 ). . . . .P (A i k ) = . Ce qui démontre l’indépendance mutuelle.
Attention : Si des événements sont mutuellement indépendants, ils sont, de façon immédiate, indépendants deux à
deux. Mais la réciproque est fausse.
Exercice : On lance une pièce non truquée, et on note
• A : « On obtient un pile au premier lancer ».
• B : « On obtient un pile au deuxième lancer ».
• C : « On obtient deux résultat différents ».
Montrer que A, B et C sont indépendants deux à deux mais pas mutuellements indépendants.
B
Proposition 13 (Passage au complémentaire).
Soit (Ω, T , P ) un espace probabilisé.
1. Si les événements A 1 , A 2 , . . . , A n sont mutuellement indépendants alors les événements B 1 , B 2 , . . . , B n où B k = A k
ou A k sont aussi mutuellement indépendants.
2. Si la suite (A n )n∈N est formée d’événements mutuellement indépendants, on posant pour chaque entier B n = A n
ou B n = A n alors la suite (B n )n∈N est formée d’événements mutuellement indépendants
Démonstration :
1. On effectue une démonstration par récurrence sur le nombre de complémentaires.
2. On utilise le point précédent.
23
2010–2011
Définition 25 (Indépendance de deux σ-algèbre.).
Soit (Ω, T , P ) un espace probabilisé et soit T1 et T1 deux tribus telles que
T1 ⊂ T
T2 ⊂ T
On dit que T1 et T2 sont indépendantes si et seulement si
∀A ∈ T1 , ∀B ∈ T2
P (A ∩ B ) = P (A)P (B )
III.3 Formule des probabilités totales
III.3.a Un premier exemple
On dispose de deux urnes. La première contient deux boules noires et trois boules rouges, la deuxième contient
1 boule noire et deux boules rouges.
On lance un dé à six faces. Si on obtient 1 on choisit la première urne et on retire une boule. Sinon on choisit la
deuxième urne et on retire une boule
Question : Quelle est la probabilité d’obtenir une boule noire ?
III.3.b Le théorème
Théorème 3 (Formule des probabilités totales).
Soit (Ω, T , P ) un espace probabilisé.
• Soit (A k )k∈N un système complet d’événements tel que
∀k ∈ N,
Alors, pour tout événement E ∈ T
P (E ) =
+∞
X
P (A k ) 6= 0
P A k (E ).P (A k )
k=0
• Soit (A 1 ; . . . ; A n ) un système complet dévénements tel que
∀k ∈ J1, n K ,
Alors pour tout événement E ∈ T
P (E ) =
n
X
P (A k ) 6= 0
P A k (E ).P (A k )
k=1
Démonstration :
Soit (A k )k∈N un système complet dévénements. Alors pour tout événement E ∈ T
E = E ∩ Ω = E ∩ (∪n∈N ∩A n ) = ∪n∈N (E ∩ A n )
Espaces probabilisés
24
ECS–1 Lycée Descartes
De plus si i et j sont des entiers différents alors :
¢
¡
(E ∩ A j ) ∩ (E ∩ A i ) = E ∩ A i ∩ A j = ;
La dernière égalité provenant du fait que la famille (A n )n∈N est un système complet d’événements, donc incompatibles deux à deux. Donc :
n
n
X
X
P (E ) =
P (E ∩ A k ) =
P A k (E )P (A k )
k=0
k=0
III.3.c Une application
On dispose d’une infinité d’urnes numérotées 0,1,2,. . .,n. Dans l’urne n il y a n+1 boules dont une seule est noire.
1
On choisit une urne selon la règle : « l’urne n à la probabilité n+1 d’être choisie » . Puis on choisit au hasard une
2
boule dans l’urne n.
Question : Quelle est la probabilité d’avoir une boule noire ?
Question subsidiaire : Comment réaliser « physiquement »cette expérience ?
III.4 Formule des probabilités composées
III.4.a Un premier exemple
On dispose de trois urnes contenant chacune une boule noire et une boule blanche. On retire une bille de la
première urne, on note sa couleur et on la met dans l’urne deux ; puis on choisit une boule dans l’urne deux on note
sa couleur et on la met dans l’urne 3, puis on choisit une bille dans la dernière urne.
Question : quelle est la probabilité de tirer trois boules noires ?
III.4.b Le théorème
Théorème 4 (Formule des probabilités composées).
Soit n un entier plus grand que 2.
Soit (Ω, T , P ) un espace probabilisé, et A 1 , A 2 , . . . , A n des événements tels que
P (A 1 ∩ A 2 ∩ · · · ∩ A n−1 ) 6= 0
Alors
P (A 1 ∩ A 2 ∩ · · · ∩ A n ) = P (A 1 )P A 1 (A 2 )P A 2 ∩A 1 (A 3 ) · · · P A n−1 ∩···∩A 2 ∩A 1 (A n )
Démonstration :
Soit (A 1 , A 2 , . . . , A n , . . . ) des événements.
On va effectuer une démonstration par récurrence sur le nombre n d’événements.
25
2010–2011
Initialisation Pour n = 2, On suppose que P (A 1 ) 6= 0, on sait que
P (A 1 ∩ A 2 ) = P (A 1 )P A 1 (A 2 )
Ce qui démontre que la propriété est vraie au rang 2
Hérédité Soit n un entier supérieur à deux, on suppose que la formule est vraie pour n événements. Alors on
suppose que A 1 , . . . A n+1 sont tels que
P (A 1 ∩ A 2 ∩ · · · ∩ A n ) 6= 0
En appliquant la définition de la probabilité conditionelle
P (A 1 ∩ A 2 ∩ · · · ∩ A n+1 ) = P A 1 ∩A 2 ∩···∩A n (A n+1 )P (A 1 ∩ A 2 ∩ · · · ∩ A n )
Comme A 1 ∩ A 2 ∩ · · · ∩ A n ⊂ A 1 ∩ A 2 ∩ · · · ∩ A n−1 , on obtient :
0 < P (A 1 ∩ A 2 ∩ · · · ∩ A n ) 6 P (A 1 ∩ A 2 ∩ · · · ∩ A n−1 )
On peut donc appliquer l’hypothèse de récurrence et :
P (A 1 ∩ A 2 ∩ · · · ∩ A n ) = P (A 1 )P A 1 (A 2 )P A 2 ∩A 1 (A 3 ) · · · P A n−1 ∩···∩A 2 ∩A 1 (A n )
Et finalement on obtient :
P (A 1 ∩ A 2 ∩ · · · ∩ A n+1 ) = P (A 1 )P A 1 (A 2 )P A 2 ∩A 1 (A 3 ) · · · P A n−1 ∩···∩A 2 ∩A 1 (A n )P A 1 ∩A 2 ∩···∩A n (A n+1 )
La propriéte est vraie au rang n + 1.
Conclusion D’après le principe de récurrence ; la propriété est vraie pour tout entier n.
.
III.4.c Application
On dispose d’une urne qui contient à l’origine trois billes rouges et une bille noire.On retire une bille et on note
sa couleur, puis si la bille est noire on la remet dans l’urne sinon on l’écarte. On recommence cette opération, jusqu’a
avoir tiré trois billes. Calculer la probabilité d’obtenir trois billes noires.
III.5 Théorème de Bayes
III.5.a Un premier exemple
On dispose d’un test qui permet de décéler une maladie. Ce test fonctionne de la manière suivante :
• Si le patient testé est malade, la probabilité que le test soit positif est de 99%.
• Si le patient est sain la probabilité que le test soit positif (faux positif ) est de 5%
On sait de plus qu’une personne sur 10 000 est malade.
On choisit une personne au hasard, on la teste et le test se révèle négatif. Calculer la probabilité que cette personne
soit malade.
Espaces probabilisés
26
ECS–1 Lycée Descartes
III.5.b Le théorème
Théorème 5 (Formule de Bayes).
Soit (Ω, T , P ) un espace probabilisé.
• Soit (A k )k∈N un système complet d’événements tel que
∀k ∈ N,
P (A k ) 6= 0
Alors pour tout événement E ∈ T et pour tout i 0 ∈ N
P A i (E )P (A i 0 )
P A i 0 (E )P (A i 0 )
P E (A i 0 ) = P+∞ 0
=
P (E )
P (E )P (A k )
k=0 A k
• Soit (A 1 ; . . . ; A n ) un système complet d’événements tel que
∀k ∈ J1, n K ,
P (A k ) 6= 0
Alors pour tout événement E ∈ T et pour tout i ∈ J1, n K
P A i 0 (E )P (A i 0 )
P A i (E ))P (A i 0 )
=
P E (A i 0 ) = Pn 0
P (E )P (A k )
P (E )
k=1 A k
Démonstration :
On rappelle que si B et C sont deux événements :
P (C ∩ D) = P D (C )P (D) = PC (D)P (C )
Soit (A k )k∈N un sysème complet d’événements et E un événement. Soit i 0 ∈ N.
P E (A i 0 ) =
P (E ∩ A i 0 )
P (E )
=
P A i 0 (E )P (A i 0 )
P (E )
P A i (E )P (A i 0 )
= P+∞ 0
P (E )P (A k )
k=0 A k
La dernière égalité est obtenue en utilisant la formule des probabilités totales.
III.6 Chaîne de Markov : un exemple
Énoncé
Un mobile se déplace successivemnt, entre le point N et le point M . Il effectue ces déplacements de la manière
suivantes.
• À l’étape 0 ; il se trouve en N
• À chaque étape il se trouve soit en N soit en M
27
2010–2011
• À chaque étape il a une chance sur trois de changer de position.
Calculer la probabilité que le mobile soit en N à l’étape n
réponse
Pour n un entier naturel on note ; A n l’événement « le mobile est à la position N ’à létape n » . Lénoncé nous permet
d’affirmer.
• P (A 0 ) = 1
2
• P A n−1 (A n ) =
3
1
• P A n−1 (A n ) =
3
D’après la formule des probabilités totales avec le système complet d’événements (A n−1 , A n−1 )
∀n ∈ N
P (A n ) = P A n−1 (A n )P (A n−1 ) + P A n−1 (A n )P (A n−1 )
On pose p n = P (A n ), d’après les propriété de la probabilité P :
P (A n ) = 1 − P (A n ) = 1 − p n
Donc
1
2
p 2 = p n−1 + (1 − p n−1 )
3
3
∀n ∈ N
On sait donc calculer le terme général de (p n )n∈N
∀n ∈ N
pn =
µ ¶
1 1 n 1
+
(
2 3
2
Question Soit n un entier quelle est la probabilité que l’étape n soit la première pour laquelle le mobile se retrouve
en M ? Réponse
Soit B n « l’étape n est la première pour la quelle se mobile se trouve en M »
B n = A 0 ∩ A 1 ∩ · · · ∩ A n−1 ∩ A n
D’après la formule des probabilités composées :
P (B n ) = P (A 0 )P A 0 (A 1 )P A 1 ∩A 0 (A 2 ) · · · P A n−2 ∩···∩A 0 (A n−1 )P A n−1 ∩···∩A 0 (A n )
Donc :
P (B n ) = 1 ×
µ ¶
2 2
2 1 1 2 n−1
× ×···× × =
3} 3 3 3
|3 3 {z
n−1 fois×
Espaces probabilisés
28
ECS–1 Lycée Descartes
IV Espérance
IV.1 Définitions
Définition 26 (Espérance d’une variable aléatoire discrète).
SoitX une variable aléatoire discrète définie sur un espace probabilisé (Ω, T , P ).
1. Si X (Ω) = {x 1 , . . . , x n } est fini, alors on appelle espérance de X le nombre
E (X ) =
n
X
x k .P (X = x k )
k=1
±
2. Si X (Ω) = {x n n ∈ I } est infini et où I ⊂ Z,
X
On dit que X admet une espérance lorsque la série
x n .P (X = x n ) est absolument convergente. L’ espérance
n >1
de X est alors
E (X ) =
X
x n .P (X = x n )
n∈I
Remarque : si X est une variable aléatoire finie (i.e. X (Ω) est finie) alors X admet forcément une espérance, dans
le cas ou X est une variable aléatoire discrète infinie il faut commencer par vérifier la convergence absolue de la
P
série x k P ([X = x k ]), ce que l’on désigne dans le cas où c’est vrai par « X admet une espérance » , avant de calculer
l’espérance.
Attention : Une variable aléatoire discrète
© ±infinieª n’admet pas forcément une espérance en effet, soit X une
variable aléatoire discrète telle que X (Ω) = 2n n ∈ N et telle que
∀n ∈ N
P ([X = 2n ]) =
B
1
2n+1
alors X n’admet pas d’espérance.
La convergence absolue nous permet de permuter les termes lors du calcul de l’espérance et ce sans changer la
valeur de l’espérance.
IV.2 Espérance des lois usuelles
Proposition 14.
• Loi de Bernouilli
Soit X ,→ B(1, p), alors :
E (X ) = p
29
2010–2011
• Loi uniforme
Soit X ,→ U (J1, n K) alors :
E (X ) =
n +1
2
• Loi binomiale
Soit X ,→ B(n, p) alors :
E (X ) = np
• Loi hypergéométrique
Soit X ,→ H (N , n, p) alors :
E (X ) = np
• Loi géométrique
Soit X ,→ G (p) alors X admet une espérance et :
E (X ) =
1
p
• Loi de poisson
Soit X ,→ P (λ). alors X admet une espérance et :
E (X ) = λ
Démonstration :
Calculs à savoir faire sans hésiter.
IV.3 Propriétés de l’espérance
Théorème 6 (linéarité).
• Soit X et Y deux variables aléatoires discrètes définies sur (Ω, T ) et qui admettent une espérance alors X + Y
admet une espérance et :
E (X + Y ) = E (X ) + E (Y )
• Soit α un réel et X la variable aléatoire discrète définie sur (Ω, T ) qui admet une espérance. Alors αX admet une
espérance et
E (αX ) = αE (X )
• Soit X la variable aléatoire discrète définie sur (Ω, T ) et constante égale au réel a, alors X admet une espérance
et :
E (X ) = a
Espaces probabilisés
30
ECS–1 Lycée Descartes
Proposition 15 (Croissance : cas simple).
Soit X une variable aléatoire définie sur (Ω, T , P ), on suppose de plus qu’il existe deux réels a et b tels que :
∀ω ∈ Ω
a 6 X (ω) 6 b
Alors X admet une espérance et :
a 6 E (X ) 6 b
V Moments, variance et écart type
±
Dans cette partie on considère une variable aléatoire définie sur (Ω, T ) telle que X (Ω) = {x i , i ∈ I } où I ⊂ Z
V.1 Moments d’une variable aléatoire discrète.
Définition 27 (Moment d’ordre s d’une variable aléatoire discrète).
Soit s ∈ N.
P s
On dit que X admet un moment d’ordre s lorsque la série
x n .P [X = x n ] est absolument convergente.
n∈I
Le moment d’ordre s de X est dans ce cas
m s (X ) =
X
x ns .P (X = x n )
n∈I
Proposition 16 (propriétés).
Soit X une variable aléatoire discrète admettant un moment d’ordre s ∈ R et r ∈ N tel que r 6 s.
Alors X admet un moment d’ordre r .
V.2 Moments centrés
Définition 28 (Moments centrés d’une variable aléatoire discrète).
SoitX une variable aléatoire discrète admettant une espérance et soit
X s ∈ N.
On dit que X admet un moment centré d’ordre s lorsque la série
(x n − E (X ))s .P (X = x n ) est absolument convern∈I
gente.
Le moment centré d’ordre s de X est alors
µs (X ) =
X
(x n − E (X ))s .P (X = x n )
n∈I
Proposition 17.
X admet un moment d’ordre s si et seulement si X admet un moment centré d’ordre s.
31
2010–2011
V.3 Variance et écart type.
Définition 29 (Variance et écart-type d’une variable aléatoire discrète).
Soit X une variable aléatoire discrète admettant une espérance. La variance de X est si elle existe le moment centré
d’ordre deux.
V (X ) = µ2 (X )
Dans ce cas là, on appelle alors écart-type de X la racine de V (X )
σ(X ) =
p
V (X )
Définition 30. On dit que X est une variable aléatoire discrète presque certaine si il existe a ∈ R tel que
P (X = a) = 1
C’est à dire
P (X 6= a) = 0
Proposition 18 (Caractérisation d’une variable presque certaine).
• Soit X une variable aléatoire certaine telle que X (Ω) = {a} alors
E (X ) = a
V (X ) = 0
• Réciproquement si X est un variable aléatoire discrète telle que V (X ) = 0 alors X esrt une variable aléatoire
discrète presque certaine
X
Remarque : X admet une variance lorsque la série
(x n − E (X ))2 .P (X = x n ) est absolument convergente.
n∈I
La variance de X est alors
V (X ) =
X
(x n − E (X ))2 .P (X = x n )
n∈I
V.4 Variables centrées et variables centrées réduites
Définition 31.
• Soit X une variable aléatoire discrète qui admet une espérance. Alors on dit que X est centré si et seulement si
E (X ) = 0
• Soit X un variable aléatoire discrète qui admet une espérance. Alors on dit que X est réduite si et seulement si
V (X ) = 1
Espaces probabilisés
32
ECS–1 Lycée Descartes
VI Théorèmes de transfert et conséquences
VI.1 problématique
On lance une pièce qui donne « Pile » avec la probabilité 1 si on obtient « Face » on perd 1 point si on obtient
« Pile » on 1 point. On pourrait recommencer les calculs précédents, pour en déduire la loi de cette variable aléatoire,
mais nous allons plutôt remarquer que la variable aléatoire discrète Y définie dans cet énoncé est de la forme
Y = 2X − 1
où X ,→ B(1, p)
Plus généralement, on connait un certain nombre de loi, on aimerait pouvoir utiliser ces résultats pour calculer les
caractéristiques d’autres lois.
±
Soit X un variable aléatoire discrète telle que X (Ω) = {x i i ∈ I }. et
f : X (Ω)
xi
→
R
7→
f (x i )
La plupart du temps en considère en fait
f : R
→
R
x
7→
f (x)
Proposition 19 (image d’une v.a.d.).
La fonction f ◦ X : Ω → R est une variable aléatoirediscrète.
Ce théorème n’est vrai que parce que X est une variable aléatoire discrète, si ce n’est pas le cas il faut imposer
des conditions sur f pour conserver ce résultat.
VI.2 Espérance et variance
Théorème 7 (théorème de transfert).
On reprennant les notations précédentes. La variable aléatoire discrète f ◦ X admet une espérance si et seulement si
P
la série
f (x i )P (X = x i ) est absolument convergente, et dans ce cas
i ∈I
E [ f (X )] =
X
f (x i )P (X = x i )
i ∈I
Attention : On ne calcule pas la loi de Y = f ◦ X pour faire ce calcul, et c’est tout l’intéret de ce résultat.
B
33
2010–2011
Cas particulier d’une transformation affine
Proposition 20.
Soit X une variable aléatoire discrète admettant une espérance, alors :
E (a X + b) = aE (X ) + b
Soit X une variable aléatoire discrète admettant une variance, alors :
V (a X + b) = a 2 V (X )
Le deuxième point à déjà été vu en IV.3
Définition 32 (variable aléatoire centrée réduite).
Soit X une variable aléatoire discrète qui admet une espérance et une variance non nulle alors :
Y =
X − E [X ]
σ(X )
est la variable aléatoire discrète réduite et centrée associée à X
Proposition 21 (variable aléatoire centrée réduite).
en reprenant les notations précédente Y est une variable aléatoire discrète réduite et centrée
Remarque : que se passe t il si V (X ) = 0 (commencer par une variable aléatoire discrète finie)
VI.3 Retour sur les moments
Proposition 22 (calculs pratique des moments).
Soit X une variable aléatoire discrète et s ∈ N , alors :
• X admet un moment centré d’ordre s si et seulement si X s admet une espérance et dans ce cas là
m s (X ) = E [X s ]
• X admet un moment centré d’ordre s si et seulement si X s admet une espérance et dans ce cas là
µs (X ) = E [(X − E [X ])s ]
Théorème 8 (Formule de König-Huyghens).
Soit X une variable aléatoire discrète admettant une espérance et une variance.
Alors
V (X ) = E (X 2 ) − [E (X )]2 = µ2 (X ) − µ1 (X )2
Proposition 23 (écart type et variance des lois usuelles).
Espaces probabilisés
34
ECS–1 Lycée Descartes
• Loi de Bernouilli
Soit X ,→ B(1, p), et q = 1 − p alors :
V (X ) = q p = p(1 − p)
• Loi uniforme
Soit X ,→ U (J1, n K) alors :
V (X ) =
n2 − 1
12
• Loi binomiale
Soit X ,→ B(n, p) alors en posant q = 1 − p :
V (X ) = npq = np(1 − p)
• Loi hypergéométrique
Soit X ,→ H (N , n, p) alors :
V (X ) = npq
N −n
N −1
• Loi géométrique
Soit X ,→ G (p) alors X admet une espérance et en posant q = 1 − p
V (X ) =
q
q
= 2
2
p
p
• Loi de poisson
Soit X ,→ P (λ). alors X admet une espérance et
V (X ) = λ
Démonstration :
Attention : À savoir faire, on utilise très souvent le théorème 8 et la remarque k 2 = k(k − 1) + k, ou
2
B
2
E (X ) − E (X ) = E (X (X − 1) + E (X ) (E (X ) − 1)
VI.4 Inégalités de Bienaymé-Tchebychev
lemme 1 (Inégalité de Markov 4 ).
Soit X une variable aléatoire discrète admettant une espérance et a un réel strictement positif .
Alors :
E (|X |)
P (|X | > a) 6
a
4. (Àíäðåé Àíäðååâè÷) Ìàðêîâ 18561922
35
2010–2011
Démonstration :
On note X (Ω) = {x k , k ∈ I }.
D’après le théorème 19, |X | est une variable aléatoire discrète. X admet une espérance donc :
X
x k P (X = x k )
E (X ) =
k∈I
et cette série est absolument convergente. Donc |X | admet une espérance.
On note :
A = {ω / |X (ω)| > a
}
et
χA : Ω
→
ω
7→
R



1


0 sinon
si ω ∈ A
la fonction indicatrice de A. (On admet que χ A est une variable aléatoire discrète) On à alors
E (χ A ) = 0P (χ A = 0) + 1P (χ A = 1) = 1P (χ A = 1) = P ({ω ∈ Ω / χ A (ω) = 1}) = P (A) = P (|X | > a)
(ce qui démontre l’existence de l’espérance de χ A ).
En traitant deux cas on trouve :
∀ω ∈ Ω
|X (ω)| > aχ A (ω)
et donc (en utilisant une extension évidente de la croissance de l’espérance cf théorème 15)
E (|X |) > E (aχ A )
Comme d’après le théorème 6 (linéarité de l’espérance)
E (aχ A ) = aE (χ A ) = aP (|X | > a)
Ce qui permet de conclure :
P (|X | > a) 6
E (|X |)
a
Théorème 9 (Inégalité de Bienaymé 5 -Tchebychev 6 ).
Soit X une variable aléatoire admettant une moment d’ordre deux et 0 < a alors :
5. Irénée-Jules Bienaymé 1796–1878
6. Ïàôíóòèé Ëüâîâè÷ ×åáûø¼â 18211894
Espaces probabilisés
36
ECS–1 Lycée Descartes
•
P (|X | > a) 6
E (X 2 )
a2
•
P (|X − E (X )| > a) 6
V (X )
a2
Démonstration :
On commence par remarquer que d’après le théorème 17 et la proposition 16, la variable aléatoire discrète X
admet une espérance et une variance.
• On applique le lemme précédent à fonction X 2 . et au réel a 2 .
En effet X 2 est une variable aléatoire discrète d’après le théorème 19. et a 2 > 0. On obtient :
P (|X 2 | > a 2 ) 6
E (|X 2 |)
a2
et
E (|X 2 |) = E (X 2 )
P (|X 2 | > a 2 ) = P (|X | > a)
• On applique le point précédent à la fonction [X − E (X )|. Cette fonction est bien une variable aléatoire discrète
d’après la proposition 19.
De plus cette variable aléatoire discrète admet un moment d’ordre deux d’après le théorème 17.
On a plus précisément :
E (|X − E (X )|2 ) = µ1 (X − E (x)) = V (X )
Donc le résultat précédent devient :
P (|X − E (X )| > a) 6
E ((X − E (X ))2 )
a2
Ce qui prouve le deuxième point.
Exemple d’utilisation On étudie une population. On a remarque que 40% de cette population possède des yeux
bleus. On réuni un échantillon de 200 individus et on considère l’événement :
A « Le pourcentage des personnes qui ont des yeux bleus dans l’échantillon étudié est strictement compris entre
35% et 45% » .
37
2010–2011
Étudions la probabilité que cet évènement se réalise.
Formalisation et premiers calculs.
On choisit pour Ω, l’ensemble des échantillons de 200 personnes à étudier (et non pas la population totale) et pour
variable aléatoire
Ω
→
R
échantillon
7→
nombre de personne qui ont les yeux bleus dans l’échantillon
X :
Comme le choix des personnes se fait indépendamment et « au hasard » , et chaque personne à une probabilité
d’avoir les yeux bleus égale à 0.4
X ,→ B(200, 0.4)
Donc :
E (X ) = 0.4 × 200 = 80
et
V (X ) = 200 × 0.4 × (1 − 0.4) = 48
Réponse
On constate que
A : « le nombre de personnes qui ont les yeux bleux est strictement compris entre 70 et 90 »
On cherche donc à étudier
P (|X − E (X )| < 10) = 1 − P (|X | > 10)
D’après l’inǵalité de Bienaymé-Tchebichev :
P (|X − E (X )| > 10) 6
V (X )
102
Donc :
P (|X − E (X )| > 10) 6
Donc :
P (A) >
Espaces probabilisés
48
100
52
100
38
ECS–1 Lycée Descartes
39
2010–2011
A Récapitulatifs sur les lois usuelles : résultats à connaitre
• Loi de Bernouilli
• X ,→ B(1, p) avec p ∈ ]0; 1[.
• X (Ω) = {0, 1}
P (X = 1) = p et P (X = 0) = 1 − p
• E (X ) = p
• V (X ) = p(1 − p) = pq
• Loi uniforme
• X ,→ U (n) avec n ∈ N∗ .
1
• X (Ω) = J1, n K
Pour i ∈ J1, n K P (X = i ) =
n
n +1
• E (X ) =
2
n2 − 1
• V (X ) =
12
• Loi binomiale
• X ,→ B(n, p) avec p ∈ ]0; 1[ et n ∈ N∗ .
µ ¶
0 k n−k
• X (Ω) = J0, n K
Pour i ∈ J0, n K P (X = i ) =
p q
n
• E (X ) = np
• V (X ) = np(1 − p) = npq
• Loi Hypergéométrique
• X ,→ H (N , n, p) avec p ∈ ]0; 1[ et n ∈ N∗ et pN ∈ N.
µ
• X (Ω) = Jmax(0, n − N q), mi n(n, N p)K
¶µ
¶
Np
Nq
i
n −i
Pour i ∈ X (Ω) P (X = i ) =
µ ¶
N
n
• E (X ) = np
N −n
N −1
• Loi géométrique
• X ,→ G (p) avec p ∈ ]0; 1[.
Pour i ∈ N∗ P (X = i ) = q i −1 p = (1 − p)i −1 p
• X (Ω) = N∗
1
• E (X ) =
p
q
• V (X ) = 2
p
• Loi de Poisson
• X ,→ P (λ) avec λ ∈ R∗+ .
λk
• X (Ω) = N
Pour i ∈ N P (X = i ) = e−λ
k!
• E (X ) = λ
• V (X ) = λ
• V (X ) = npq
Espaces probabilisés
40
ECS–1 Lycée Descartes
B Algorithmes 7 pour simuler les lois usuelles
Dans toute la suite, on ne donne qu’une fonction dont les paramêtres sont les paramêtres de la loi simulée sauf
pour la loi hypergéomètrique pour laquelle on revient à l’expéreience concrêtre des bolies noires et des billes rouges.
Il ne faut pas oublier d’inclure randomize dans le corps du programme.
Ces fonctions ne sont pas munies de mécanises de contrôle de la validitée des paramêtres.
B.1 Loi de Bernouilli
function bernouilli (p : real ): integer ;
begin
if random < p then bernouilli :=1
else bernouilli :=0;
end ;
B.2 Loi uniforme
function uniforme (n : integer ): integer ;
begin
uniforme := random (n )+1
end ;
B.3 Loi binomiale
function binomiale ( p: real ;n : integer ): integer ;
var i , nb_succes : integer ;
begin
nb_succes :=0;
for i :=1 to n do
if random < p then nb_succes := nb_succes +1
;
binomiale := nb_succes ;
end ;
B.4 Loi hypergéométrique
function hypergeometrique ( n_rouge , n_noire : integer ; n : integer ): integer ;
var i , nb_succes ,d : integer ;
begin
nb_succes :=0;
for i :=1 to n do
begin
7. Versions naives, parfois peu efficaces mais correspondent bien à la description.
41
2010–2011
d := random ( n_rouge + n_noire )+1;
if d <= n_rouge then
begin
n_rouge := n_rouge -1;
nb_succes := nb_succes +1;
end
else
n_noire := n_noire -1
;
end ;
;
hypergeometrique := nb_succes ;
end ;
B.5 Loi géométrique
function geometrique (p : real ): integer ;
var i : integer ;
begin
i :=0;
repeat
i := i +1
until random < p ;
geometrique := i ;
end ;
B.6 Loi de Poisson 8
function poisson ( lambda : real ): integer ;
var k: integer ;
var p , L: real ;
begin
L := exp (( -1)* lambda );
k :=0;
p :=1;
repeat
k := k + 1;
p := p * random ;
until L >= p ;
poisson := k - 1;
end ;
8. D’après D. Knuth
Espaces probabilisés
42
ECS–1 Lycée Descartes
Table des matières
Introduction
I
1
Espaces probabilisés et probabilité.
I.1 Algèbre d’événements. . . . . . . . . . . . . . . . . . . .
I.2 σ-algèbre. . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemples élémentaires . . . . . . . . . . . . . .
Vocabulaire . . . . . . . . . . . . . . . . . . . . .
I.3 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . .
I.4 Cas d’une probabilité sur un univers fini . . . . . . . .
Un cas particulier important : l’équiprobabilité
I.5 Cas d’une probabilité sur univers dénombrable . . . .
I.6 Théorèmes . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemple classique . . . . . . . . . . . . . . . . .
II Variables aléatoires discrètes
II.1 Premières définitions. . . . . . . . . . . . . . . .
Exemples . . . . . . . . . . . . . . . . . . .
Notations . . . . . . . . . . . . . . . . . .
Remarques . . . . . . . . . . . . . . . . . .
Exemples . . . . . . . . . . . . . . . . . . .
II.2 Opérations sur les variables aléatoires discrètes
II.3 Loi d’une variable aléatoire . . . . . . . . . . . .
II.4 Fonction de répartition . . . . . . . . . . . . . .
II.5 Lois usuelles à connaitre . . . . . . . . . . . . . .
II.5.a Loi de Bernouilli . . . . . . . . . . . . . .
Exemple . . . . . . . . . . . . . . . . . . .
II.5.b Loi uniforme . . . . . . . . . . . . . . . . .
exemple . . . . . . . . . . . . . . . . . . .
II.5.c Loi binomiale . . . . . . . . . . . . . . . .
Exemple . . . . . . . . . . . . . . . . . . .
Exemples . . . . . . . . . . . . . . . . . . .
Remarque . . . . . . . . . . . . . . . . . .
II.5.d Loi hypergéométrique. . . . . . . . . . . .
Exemple . . . . . . . . . . . . . . . . . . .
Modèle . . . . . . . . . . . . . . . . . . . .
Remarques . . . . . . . . . . . . . . . . . .
II.5.e Loi géométrique . . . . . . . . . . . . . .
Modèle . . . . . . . . . . . . . . . . . . . .
Exemple . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
2
3
3
4
4
7
7
8
8
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
11
13
13
13
14
15
16
16
16
17
17
18
18
18
18
18
18
18
19
19
19
20
43
2010–2011
II.5.f Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
III Probabilité conditionnelle et indépendance
Exemples . . . . . . . . . . . . . . . . .
III.1 Probabilité conditionnelle et indépendance
Notation et vocabulaire . . . . . . . .
Exercices : . . . . . . . . . . . . . . . .
III.2 Indépendance . . . . . . . . . . . . . . . . .
III.3 Formule des probabilités totales . . . . . . .
III.3.a Un premier exemple . . . . . . . . . .
III.3.b Le théorème . . . . . . . . . . . . . . .
III.3.c Une application . . . . . . . . . . . . .
III.4 Formule des probabilités composées . . . .
III.4.a Un premier exemple . . . . . . . . . .
III.4.b Le théorème . . . . . . . . . . . . . . .
III.4.c Application . . . . . . . . . . . . . . .
III.5 Théorème de Bayes . . . . . . . . . . . . . . .
III.5.a Un premier exemple . . . . . . . . . .
III.5.b Le théorème . . . . . . . . . . . . . . .
III.6 Chaîne de Markov : un exemple . . . . . . .
Espaces probabilisés
20
20
21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
21
22
22
24
24
24
25
25
25
25
26
26
26
27
27
IV Espérance
IV.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
IV.2 Espérance des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
IV.3 Propriétés de l’espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
29
29
30
V Moments, variance et écart type
V.1 Moments d’une variable aléatoire discrète. . . .
V.2 Moments centrés . . . . . . . . . . . . . . . . . .
V.3 Variance et écart type. . . . . . . . . . . . . . . .
V.4 Variables centrées et variables centrées réduites
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
31
32
32
VI Théorèmes de transfert et conséquences
VI.1 problématique . . . . . . . . . . . . . . . . . . . . . .
VI.2 Espérance et variance . . . . . . . . . . . . . . . . .
Cas particulier d’une transformation affine .
VI.3 Retour sur les moments . . . . . . . . . . . . . . . .
VI.4 Inégalités de Bienaymé-Tchebychev . . . . . . . . .
Exemple d’utilisation . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
33
34
34
35
37
.
.
.
.
44
ECS–1 Lycée Descartes
A Récapitulatifs sur les lois usuelles : résultats à connaitre
B Algorithmes pour simuler les lois usuelles
B.1 Loi de Bernouilli . . . . . . . . . . . . . .
B.2 Loi uniforme . . . . . . . . . . . . . . . .
B.3 Loi binomiale . . . . . . . . . . . . . . .
B.4 Loi hypergéométrique . . . . . . . . . .
B.5 Loi géométrique . . . . . . . . . . . . . .
B.6 Loi de Poisson . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
40
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
41
41
41
41
41
42
42
45
Téléchargement