Chapitre 1. Evènement aléatoire et Probabilité.

publicité
Chapitre 1.
Evènement aléatoire et Probabilité.
1. Hasard et déterminisme. Evènement aléatoire.
On se demande souvent si le hasard existe ou non : peut-être pas si on se réfère
à l’exemple d’Alexandre Flemming.Tout phénomène de la nature est bien réglé
(déterministe) . S’il se produit, c’est forcément sous l’environnement, les
conditions ou facteurs (qui peuvent être très nombreux et qu’on ne peut pas tous
connaître) qui ont conduit à sa réalisation.
En revanche du point de vue de l’individu qui ne connaît pas cet environnement (les
conditions), le phénomène est inconnu. L’exemple le plus simple est le jet d’une
pièce de monnaie, dont le résultat (Pile ou Face ?) est (en apparence) hasardeux,
imprévisible, aléatoire. Nous disons « en apparence », car si nous avions un
ensemble de données physiques (résistance de l’air, force de lancer, inclinaison de la
trajectoire….), on pourrait peut-être trouver un modèle mathématique ou
expérimental qui permette de prédire le résultat. Ce n’est visiblement pas le cas, car
aucune expérience connue, ni aucune équation mathématique ne donne une méthode
pour trouver le résultat.
La littérature relate par contre, et de manière abondante des expériences qui tente
d’évaluer le nombre de chances pour Pile ou Face de sortir au cours d’un lancer. On
y observe une certaine « stabilité » de chaque issue , et que l’intuition suggère
effectivement : il y a pratiquement autant de chances pour « Pile » que pour
« Face ». Est-ce raisonnable ? La théorie des probabilités fournit le cadre formel qui
permet de justifier ces résultats expérimentaux.
Par événement aléatoire, on entendra donc un fait dont on ne sait pas a priori s’il
se réalisera ou non à l’issue d’une expérience aléatoire. Par exemple :
1
2
3
4
Tir sur une cible
Virus dans votre boîte e-mail ou sur un site Web http.www.site.dz.
Résultat du lancer d’une pièce de monnaie ou d’un dé
Temps de téléchargement d’une page Web
7
5
6
7
8
9
10
11
12
Occurrence d’un défaut au cours du contrôle de qualité d’un lot d’articles
Existence d’un gisement pétrolifère dans une région du grand Sud.
Niveau de pénétration d’un produit innovant (NTIC, Mobile, Informatique …
Résistance d’un matériau à des contraintes
Occurrence d’un séisme (lieu, date,…
Niveau de qualité de l’air
Qualité d’une image transmise par satellite
Panne d’une machine
2. Fréquence et notion intuitive de la probabilité.
La définition classique (ou intuitive) de la probabilité est basée sur la notion
fréquentielle (ou statistique): c’est la fréquence d’occurrence d’un événement (Par
exemple Face) observée au cours d'un grand nombre d'expériences aléatoires (par
exemple des lancers de pièces de monnaie). Cette définition trouve l’une des ses
justifications dans la fameuse loi des grands nombres énoncée plus loin. Si on lance
notre pièce un grand nombre de fois, on peut s’attendre à obtenir autant de Pile que de
Face, soit une fréquence de ½ . Voici, à titre d’exemples relatés dans la littérature, les
fréquences de Face observées par des scientifiques du XVIIème siècle au cours de séries
de lancers réels de pièces de monnaie.
Expérience
Buffon
Pearson (1ère expérience)
Pearson (2ère expérience)
fréquence
0.5069
0.5016
0.5005
Erreur
0.0069
0.0016
0.0005
Nombre de lancers
4040
12000
24000
Exemple 1: Le tableau ci-dessous résume des séries de jet d’une pièce de monnaie.
Chaque expérience est répétée 100 fois, et on observe le nombre de fois où l’événement
« Face » se réalise. On constate que la fréquence de réalisation est voisine de 0.5.
Nombre de faces dans des séries de n=100 expériences
54
48
43
46
46
52
53
40
58
55
53
51
46
49
51
54
49
50
41
48
52
48
54
50
51
53
53
53
45
49
Nombre total de « face »
dans une série de
1000 expériences
504
485
509
8
58
48
49
45
53
45
47
60
51
50
47
52
47
41
54
51
45
41
46
46
51
55
49
52
51
52
52
59
50
44
52
49
44
47
51
48
52
48
59
51
48
52
47
50
47
60
48
59
55
57
46
47
55
51
57
39
52
53
47
53
46
45
41
55
41
51
50
54
48
48
536
485
488
500
497
494
484
On peut émettre la conjecture que cette stabilité (« limite ») observée peut faire usage
de loi.
Pour formaliser cette intuition, on considère une série de n observations, où intervient
le hasard (appelées expériences aléatoires). On note pour chaque expérience si un
événement donné A se réalise ou non. Soit N n ( A) le nombre d’occurrences de
l’événement A au cours des n expériences. Par probabilité de l’événement A , on
comprend la « limite »
N n ( A)
n
n ®¥
P ( A) = lim
N n ( A)
, s’appelle fréquence relative de l’événement A : c’est
n
la proportion de fois où l’événement A s’est réalisé au cours des n expériences. Le
si elle existe. La quantité
numérateur de cette expression N n ( A) s’appelle fréquence absolue de l’événement A .
La probabilité de A , est donc définie ici comme la limite de la fréquence de réalisation
N n ( A)
,
n
pour peu que n soit suffisamment grand. Cette définition correspond tout à fait à notre
intuition. Cependant, elle ne peut être vérifiée expérimentalement de manière
traditionnelle, car il est pratiquement impossible d’observer une série réelle infinie
d’expériences et vérifier si la limite existe.
de A dans une série d’expériences. On utilise alors l’approximation P( A) »
Exemple 2: Aujourd’hui, la plupart des logiciels permettent de générer artificiellement
des suites de Face (ou Pile) (codées en binaires : 0 ou 1) avec des probabilités
équiprobables et de vérifier expérimentalement cette loi. Les graphiques ci-dessous
9
illustrent ces expériences sur ordinateur, et montrent bien la tendance (convergence) de
N n ( A)
à se « stabiliser » autour de la valeur ½ lorsque le nombre de
n
lancers n augmente. C’est cette valeur ½ qui sera prise en guise de valeur de la
probabilité d’occurrence de pile.
la fréquence
Nn•n
0.7
0.6
0.5
0.4
n
20 40 60 80100
0.575
0.55
0.525
0.475 2004006008001000
0.45
0.425
fré quence
1
0.8
0.6
0.4
0.2
20
40
60
80
100
Nombre
de lancers
Figure 1. Fréquence d’apparition de « Face » lors de n = 100 et 1000 lancers d’une
pièce parfaite
Exemple 3: La figure ci-dessous illustre une simulation de n = 100 tirs sur une cible
( 77 succès) et n = 1.000 ( 792 succès).
10
On peut noter quelques propriétés de la fréquence relative :
(i)
(ii)
N n ( A)
£1 ;
n
Si A est l’événement certain, il se réalisera dans toutes les n expériences et
0£
dans ce cas, P( A) =
N n ( A) n
= =1.
n
n
3. Axiomatique de Kolmogorov.
L’approche axiomatique de Kolmogorov, communément admise (même s’il en
existe d’autres) suppose que les phénomènes aléatoires étudiés peuvent être décrits à
l’aide d’un certain ensemble (non vide) d’évènements élémentaires W = {w } appelés
ensemble des éventualités, des issues, des épreuves (univers des issues possibles). Les
évènements élémentaires w sont interprétés comme des issues exhaustives du
phénomène aléatoire étudié. Tout événement A peut être décrit à l’aide d’évènements
élémentaires de W : A se réalise si l’un de ses évènements élémentaires se réalise.
Dans l’exemple du jeu de Pile ou Face, on peut prendre W = {Pile, Face} ; dans
l’exemple du jet d’un dé, ce peut être W = {1,2,3,4,5,6} … Cela dépend bien entendu du
type d’expérience menée : ici on s’intéresse au numéro sortant. Il est vrai que dans
11
l »’exemple du jet d’une pièce, on aurait pu penser à une autre « possibilité » pour la
pièce de tomber sur son troisième « côté circulaire », ce qui aurait donné
W = {Pile, Face, Biais} . Mais aucune expérience relatée jusqu’à présent ne relate
qu’une telle « possibilité » se soit réalisée. En ce sens la théorie des probabilités dans
cette phase de modélisation tient compte du sens commun. Si dans cet exemple, il est
relativement aisé de construire l’espace des issues possibles, cela peut devenir un jeu de
l’esprit assez délicat et qui peut conduire à des conclusions erronées. Le paradoxe du
Chevalier de Méré (cf. exercices), comme beaucoup d’autres paradoxes de la théorie des
probabilités, explique ces situations où le sens commun peut dicter des modélisations
conduisant à des conclusions erronées.
L’ensemble de tous les évènements possibles F (dont on sait calculer la probabilité) est
une famille de parties de W qui possède les propriétés suivantes :
(i)
(ii)
(iii)
La famille F contient l’ensemble F représentant l’évènement impossible
et l’ensemble W appelé événement certain.
Le complémentaire de tout événement A Î F est encore un événement de
F (qui se réalise lorsque A ne se réalise pas);
Si A et B sont des sous-ensembles de W appartenant à F, alors F contient
également l’intersection A I B (c’est l’événement qui se réalise si A et B
se réalisent simultanément) et la réunion A U B (qui se réalise si A ou
(inclusif) B se réalise).
Les éléments de F s’appellent évènements aléatoires ou tout simplement
évènements. La famille F algèbre des évènements.
Opération algébrique sur les évènements
F
W
AÌ B
A=B
Evènement impossible
Evènement certain
L’événement A entraîne l’événement B
A Ì B et B Ì A
AU B
AU B = W
AI B
Evènement qui se réalise si au moins A , B ou ( A et B ) se réalisent
Il est certain que A ou B (ou les deux) se réalisent
Se réalise si A et B se réalisent simultanément
12
AI B =F
A+ B
A et B sont exhaustifs ou incompatibles : ils ne peuvent se réaliser
simultanément
Evènement qui se réalise si A ou B se réalise (lorsque A I B = F )
A+ B = W
Il est certain que soit A, soit B se réalise
AB
A\B
Evènement A I B pour simplifier
Se réalise lorsque A se réalise et B ne se réalise pas
Se réalise lorsque A ne se réalise pas
__
A =W\ A
ADB
( A \ B )+( B \ A )
3. Représentation graphique: Diagramme de Venn.
Le langage de la théorie des ensembles permet de représenter les opérations sur les
évènements.
B
A
Figure 1:
Inclusion B Ì A
13
Ý
B
A B
A
Figure 2 : Intersection A I B
B
Ü
A B
A
Figure 3 : Réunion A U B
14
B\A
A\B
Figure 4 : Différence A \ B et B \ A .
B
AI B =F
A
Figure 5 : Evènements disjoints (mutuellement exhaustifs ou incompatibles).
Exemple 4 : Supposons que l’expérience consiste à observer l’état de votre boîte à email, alors W = {V , S } ( V =infectée par un virus, S =saine) et F ={ F, V , S , W }.
15
Exemple 5: Si l’expérience consiste à observer le résultat du lancer d’une pièce de
monnaie, alors W = {Pile, Face}. Si l’expérience consiste à lancer deux pièces, alors
W = {(P, P ), ( P, F ), ( F , P ), ( F , F ) )}. Dans les deux cas, F =P( W ), l’ensemble des
parties de W .
Exemple 6: Lancer d’un dé : W = {1,2,3,4,5,6} et F =P( W ) . On peut définir les
événements
A = «le résultat du lancer est pair »={2,4,6}.
B = « le résultat est impair »={1,3,5}.
C = « le résultat est pair et plus petit que 4}={2}.
Notons que A I B = F , et dans ce cas, on dit que les évènements A et B sont
incompatibles (ils ne peuvent se réaliser simultanément).
Lorsque C Ì A , on dit que l’événement C entraîne l’événement A (la réalisation de
C entraîne ou implique celle de A ).
Exemple 7: Le nombre de visites au site Web : http.www.université.dz est un entier
aléatoire et W = {0,1,2,...}.
Nous avons noté que la description de l’espace W n’est pas toujours unique et dépend
d’autre part de la modélisation..
Exemple 8 : Considérons le modèle d’expérience suivant qui consiste à jeter un
« objet » au hasard dans le plan x0 y . Par exemple, si on cherche à déterminer la
position du propriétaire d’un téléphone mobile par satellite, l’ensemble W représente
toutes les positions possibles du plan i.e. W = { ( x, y ) : - ¥ < x < +¥,-¥ < y < +¥ }. Il
aurait été possible au lieu du plan cartésien de considérer le système de coordonnées
polaires W = { ( r , q ) : 0 £ r < +¥,0 £ q £ 2p }.
Dans la plupart des problèmes de modélisation utilisant la théorie des probabilités, il est
nécessaire de considérer des familles d’évènements plus fines. Ainsi, dans l’exemple 6,
la famille F doit contenir également des évènements du type {T £ 5 sec ondes} ,
{T £ t }, { t
0
0
£ T £ t1
} , etc…
16
On impose à la famille F, une autre propriété:
(iv)
Si les sous-ensembles A1 , A2 ,..., Ai ,... de W sont des évènements (i.e.e F),
les réunions
¥
¥
i =1
i =1
U Ai et intersections I Ai sont également des évènements
e F. La famille F vérifiant (i)-(iv) s’appelle s-algèbre (ou tribu)
d’évènements de W .
5. Probabilité :
On appelle mesure de probabilité ou simplement probabilité une
fonction P : F ®[0,1] qui à chaque événement A e F associe un réel compris entre 0
et 1 appelé probabilité de l’événement A . Cette fonction est une "mesure" des
évènements aléatoires permettant de quantifier leur occurrence. Elle vérifie les
propriétés suivantes:
(i)
P(F ) = 0 et P(W) = 1 . Par conséquent, 0 £ P ( A) £ 1 , "A Î F.
(ii) Si A et B sont incompatibles ( A I B = F ), alors P( A U B) = P( A) + P( B)
i.e. P est une fonction additive.
Cette définition plus rigoureuse s’accorde avec la notion intuitive examinée au début de
ce chapitre.
Dans le cas d’espace infini (dénombrable ou non), on impose que la probabilité vérifie
la condition :
(iii)
Si A1 , A2 ,... sont des évènements de F incompatibles deux à deux
¥
¥
i =1
i =1
( Ai I A j = F pour i ¹ j ), alors P( U Ai ) = å P( Ai ) .
Le triplet ( W ,F, P ) est appelé espace probabilisé.
17
Exemple 9: Si W = {w1 , w 2 ,..., w n } est un ensemble fini à n éléments équiprobables (de
n
même probabilité), alors F =P( W ). Puisque å P{wi } = P(W) = 1 , alors P{wi } =
1
,
n
s’écrit
i =1
i = 1,2,..., n .
La
probabilité
de
tout
événement
A
nombre d ' éléments de A
P ( A) =
; ce qu’on exprime souvent de la manière
n
suivante :
P( A) =
nombre
de cas favorables à l ' évènement
nombre de cas possibles
A
(1)
Exemple 10: Supposons que les évènements élémentaires soient équiprobables :
P{i} = 1 / 6 pour i = 1 à
un nombre pair
6 . La probabilité d’avoir
cardA 3 1
1
1
P( A) =
= = . De la même manière: P( B) =
et P(C ) = .
n
6 2
2
6
6. Modèles d’expériences aléatoires à espace des épreuves fini.
Décrivons quelques modèles qui se rencontrent fréquemment dans la pratique du calcul
de probabilités. La nature des expériences proprement dite importe peu : seul compte le
nombre des épreuves qui est fini.
)
N = {1,2,..., N } l’ensemble des N premiers entiers. Chaque modèle considère une
)
urne contenant N boules identiques numérotées à l’aide des chiffres de N . On tire
Soit
successivement n boules de l’urne et on note leurs numéros : i1 , i2 ,..., i n .
A. Tirage au hasard avec remise. C’est un modèle d’expérience où chaque boule tirée
est remise ensuite dans l’urne. Le modèle probabiliste associé a pour espace des
épreuves :
)
W = w = (w = (i1, i2 ,...,i n ) : i k Î N , k = 1,2,..., n
{
}
et tous les évènements élémentaires w sont équiprobables.
18
B. Tirage au hasard sans remise. Dans ce cas, chaque boule tirée n’est pas remise
dans l’urne
W = {w = (w = (i1, i2 ,..., in ) : ik Î N , k = 1,2,..., n et i1, i2 ,..., in distincts}
et tous les évènements élémentaires w sont équiprobables.
Dans le cas de tirage sans remise, il est parfois commode de considérer que les boules
sont tirées d’un coup en une seule fois de telle manière que l’ordre dans lequel les
boules sont tirées n’est pas important (par exemple pour n = 3 , on ne distingue pas les
issues (1,2,3) et (3,2,1) . Un tel tirage est dit non ordonné. Pour un tirage ordonné, les
deux issues précédentes sont différentes. Nous noterons (i1 , i 2 ,.., in ) une collection
ordonnée de n éléments de N̂ , et [i1 , i2 ,..., i n ] une collection non ordonnée de ces
nombres. Nous avons ainsi 4 modèles principaux d’expériences.
A1.Tirage ordonné sans remise. L’espace des évènements élémentaires est
W = {w = (i1, i2 ,..., in ) : ik Î N , k = 1, 2,..., n; i1 ¹ i2 ¹ ... ¹ in }
N!
n
. Le symbole AN
s’appelle aussi en
( N - n)!
combinatoire, nombre d’arrangements (sans répétitions) de n objets dans N cases. Ici
N! = N ( N - 1)... ´ 2 ´ 1 est le nombre de toutes les permutations possibles de N
éléments.
et cardW = ANn = N ( N - 1)...(N - n + 1) =
B1.Tirage non ordonné sans remise.
W = {w = [i1, i2 ,..., in ] : ik Î N , k = 1,2,..., n; i1 ¹ i2 ¹ ... ¹ in }
n
A
N!
= N . C’est aussi le nombre de combinaisons (sans
n! ( N - n)! n!
répétitions) de n éléments pris parmi N éléments. Le coefficient binomial est souvent
æNö
noté C Nn = C Nn º çç ÷÷ , et possède les propriétés suivantes :
ènø
n
et cardW = C N
=
19
n
(i) C N
= C NN - n ;
n +1
n +1
n
(ii) C N
+1 = C N + C N ;
0
(iii) C N
+ C 1N + ... + C NN = 2 N .
N
i i N -i
(iv) (a + b) N = å C N
, "a, b, "N Î IN . (binôme de Newton)
a b
i =1
(v)
a
i
n -i
å CaCb
i =0
= Can+b
(formule de Vandermonde).
La relation (ii) permet de construire un triangle arithmétique (appelé triangle de Pascal)
qui permet de calculer de proche en proche les coefficients binomiaux : les éléments
non nuls du tableau (n, N ) forment un triangle.
1
1
1
1
1
1
1
1
1
1
2
3
4
5
6
7
8
1
3
6
10
15
21
28
1
4
10
20
35
56
1
5
15
35
70
1
6 1
21 7 1
56 28 8 1
Exemple : C 42 = C 32 + C 31 (6=3+3).
Autres relations utiles.
·
n
CN
= 0, si n > N .
·
0
n
Pour n £ N , C N
= C NN = 1, C 1N = N , C N
= C NN -n .
N n -1
n
CN
= CN
-1
n
n
AN
n
CN =
.
n!
·
·
20
a!
(a - b)! (b - c)! c!
·
C ab C bc = C ac C ab--cc =
·
n
Pour a = b = 1, (iv) donne 2 N = å C N
(i.e. le nombre de sous-ensembles
N
n =0
d’un ensemble de cardinal N est égal à 2 N .
·
N
n
Pour a = 1, b = -1 , 0 = å (- 1)n C N
.
n=0
B2. Tirage non ordonné avec remise.
W = {w = [i1, i2 ,..., in ] : ik Î N , k = 1, 2,..., n}
n
Ici, card W = C N
+ n -1 . C’est donc le nombre de combinaisons (avec répétition
éventuelle de certains éléments) de n éléments dans un ensemble de N éléments.
A2.Tirage ordonné avec remise.
W = {w = (i1 , i 2 ,..., i n ) : i k Î N , k = 1,2,..., n}
et cardW = N n . C’est le nombre d’arrangements (avec répétition) de n éléments choisis
parmi n éléments distincts
Formule de Stirling Dans les formules ci-dessus, on rencontre l’expression
n! = n(n - 1)(n - 2).....3 ´ 2 ´ 1 . Ce nombre croit très rapidement avec n . On connaît
cependant des formules très simples donnant une valeur approchée, pour les grandes
valeurs de n
n! » 2p n n n e - n
an
® 1 lorsque n ® ¥ . L’erreur relative de
bn
la formule de Stirling peut être estimée à l’aide des inégalités :
L’approximation a n » bn signifie ici que
21
0<
n!
n -n
2pn n e
- 1 < e1 /(12n) - 1.
Récapitulatif et application en physique statistique.
Le problème consiste à répartir n boules dans N cellules (urnes, boîtes,cases…). En
physique statistique, ce type de problème surgit par exemple lors de l’étude de la
distribution de n particules (ce peut être des protons, électrons…) selon N états (ce,
peut être des niveaux d’énergie). Le tirage ordonné (resp. non ordonné) correspond au
fait que les particules sont discernables (indiscernables) Le tirage avec remise
correspond au fait que dans une cellule (urne) on peut avoir un nombre quelconque de
particules, alors que le tirage sans remise indique que dans l’urne il ne peut y avoir
qu’une seule particule. En physique statistique, chaque cas correspond à une distribution
donnée. Ainsi, les particules discernables (indiscernables) ne satisfaisant pas au principe
de prohibition de Paul suivent une distribution de Maxwell-Boltzman (resp. de BoséEnstein). Les particules indiscernables satisfaisant au principe de Paul suivent une
distribution de Fermi-Dirac. La littérature de Physique considère souvent que les
électrons et les protons suivent la distribution de Fermi-Dirac. Les photons et pi-méson
suivent la distribution de Bosé-Einstein.
Type d’expérience (tirage)
De répartition de n
particules dans N cellules
ou n boules dans N urnes
Tirage ordonné
(particules discernables)
Avec remise
(sans prohibition)
Sans remise
(avec prohibition)
Nn
Maxwell-Boltzman
n
AN
Tirage non ordonné
(particules indiscernables)
C N +n -1
Bosé-Eisntein
C Nn
Fermi-Dirac
Taille cardW de l’espace des épreuves pour différents types d’expériences et
relation avec les distributions de Physique statistique
7. Cas non dénombrable.
22
Exemple 11: Probabilité géométrique (2D et 3D) : Supposons que l’expérience du jet
d’un objet au hasard dans le plan possède la propriété de symétrie (« équiprobabilité »
de tous les évènements élémentaires). On peut ainsi admettre que si S1 et S 2 sont deux
domaines de surfaces égales, et que p1 = P (l’objet tombe dans le domaine S i ), i = 1,2
alors p1 = p 2 . Si A est un événement de W , de mesure de surface S ( A) , alors
S ( A)
P( A) =
. Cette formule peut-être considérée comme une généralisation de la
S ( W)
formule précédente au cas d’ensemble non dénombrable d’évènements élémentaires. En
3D (espace à 3 dimensions), au lieu des surfaces, on considèrera les volumes
V ( A)
P( A) =
.
V (W )
8. Propriétés de la probabilité : De la définition, il découle que :
(i)
P( A ) = 1 - P( A) . En particulier, P(F ) = 1 - P(W) = 1 - 1 = 0. Notons
cependant que si P( A) = 0 , cela ne veut pas dire que A = F est l’événement
impossible. On dit dans ce cas que A est de probabilité nulle ou négligeable.
(ii)
Si A I B ¹ F , alors P( A U B) = P( A) + P( B ) - P( A I B).
(iii)
P( A + B) £ P( A) + P( B) .
(iv)
Si A Ì B , alors P( A) £ P( B) .
(v)
P( U Ai ) £ å P( Ai ) (inégalité de Boole).
(vi)
Si {Ai }est une suite d’évènements tels que å P( Ai ) < ¥ , alors avec une
¥
¥
i =1
i =1
¥
i =1
probabilité 1, il ne se réalise qu’un nombre fini de ces évènements.(lemme
de Borel-Cantelli).
(vii) Si {Ai } est une suite décroissante d’évènements : Ai +1 Ì Ai , i ³ 1 et
23
B = A1 I A2 I ... I An , alors lim P ( Ai ) = P ( B ) .
n ®¥
(viii) Si {Ai } est une suite croissante d’évènements : Ai Ì Ai +1 , i ³ 1 et
B = A1 U A2 U ... U An , alors lim P ( Ai ) = P ( B) .
n®¥
(ix)
Si {Ai , i = 1,..., n} est système exhaustif d’évènements (une famille
d’évènements incompatibles deux à deux et A un certain événement), alors
n
P( A) = å P( A I Ai ) (formule des probabilités totales)
i =1
(x)
Si {Ai , i = 1,..., n} est une famille d’évènements quelconque, alors
æ n
Pçç U Ai
è i =1
ö n
÷÷ = å P( Ai ) - å P( Ai I A j ) +
P( Ai I A j I Ak ) + ...
å
1£i < j £ n
1£i < j < k £ n
ø i =1
æ n
ö
... + (- 1)n +1 Pçç I Ai ÷÷
è i =1 ø
(formule de Poincaré)
9. Probabilité conditionnelle, Causalité et Indépendance.
Dans les problèmes de modélisation, la notion d’influence d’un événement par
rapport à un autre (par exemple, est-ce que l’événement A est la cause de l’événement
B) reste souvent une notion assez vague. La notion de probabilité conditionnelle
permet dans de nombreuses applications de réévaluer la probabilité d’un événement
lorsqu’on dispose d’une information supplémentaire.
La probabilité de l’événement A sachant B, s’écrit
P( A I B)
, si P(B) ¹ F
P( B)
Si B = W , alors P( A / W) = P ( A) . Pour P( B) = 0 , P( A / B) n’est pas définie.
P( A / B) =
(2)
Deux évènements A et B sont indépendants si P( A / B) = P( A) ou si P( B / A) = P( B) .
En d’autres termes, l’événement A est indépendant de l’évènement B, ou la non
réalisation de B n’influe pas sur la réalisation de A (et/ou vice-versa). Ces deux
24
dernières relations sont équivalentes et on peut réécrire (2) sous la forme :
P( A I B) = P ( A).P( B) .
Exemple 12: Une urne contient 4 boules blanches et 6 boules noires. On tire deux
boules successivement sans remise. (i) Si la première boule est blanche, quelle est la
probabilité pour que la seconde soit blanche ? (ii) la probabilité pour que les deux
boules soient blanches ?
Soient les évènements A= « la première boule tirée est blanche » ; B= « la deuxième
boule tirée est blanche ».
(i)
(ii)
3
(en effet si la 1ère boule tirée est blanche, alors il reste 9 boules
9
dont 3 blanches).
4 3
P( A I B) = P( A).P( B / A) = ´ .
10 9
P( B / A) =
Par induction, on obtient la formule générale :
P( A1 A2 ...An ) = P( A1 ).P( A2 / A1 )...P( An / A1 Aé ...An -1 )
Et si ces évènements sont indépendants, alors
P( A1 A2 ...An ) = P( A1 ).P( A2 )...P( An )
Les évènements
A1 , A2 ,..., An
sont mutuellement indépendants, si pour toute
permutation 1 < i1 < i 2 < ... < ik < n les évènements A , A ,..., A sont indépendants.
i1 i2
ik
Citons encore quelques propriétés des probabilités conditionnelles:
·
·
·
P( A / A) = 1 , P(F / A) = 0 et P(W / A) = 1.
Si A Ì B , alors P( B / A) = 1.
P( A / C ) £ P( B / C ) si A Ì B.
25
·
·
·
P( B + C / A) = P( B / A) + P(C / A) si B I C = F.
En général, P( B + C / A) = P( B / A) + P(C / A) - P( B I C / A).
P( B / A) + P( B / A) = 1 . Mais en général, P( B / A) + P( B / A ) ¹ 1 .
10. Formule des probabilités totales : Soient H 1 , H 2 ,..., H n des évènements
aléatoires (interprétés comme des hypothèses) formant un système exhaustif
d’évènements i.e. incompatibles deux à deux ( H i I H j = F pour i ¹ j ), et tels que
H 1 U H 2 U ... U H n = W (il est certain que l’un de ces n évènements doit se réaliser).
Une telle famille d’évènements est appelée système complet. Soit d’autre part A un
certain événement, alors
n
P( A) = å P( H i ) P( A / H i )
i =1
(3)
ou encore
n
P( A) = å P( A I H i )
i =1
(4)
Exemple 13: Contrôle de qualité. Une usine contient trois machines M1, M2, M3
assurant chacune 25%, 35% et 40% de la production d’un certain produit P. Les
statistiques du contrôle de qualité ont montré que les proportions de défectueux sont
respectivement 5%, 4% ? 2% pour chacune des machines. Quelle est la probabilité
pour qu’un article choisi au hasard s’avère défectueux ?
Notons Hi= « l’article a été fabriqué par la machine N°i », i=1,2,3. et A= « l’article
choisi est défectueux ». Alors, en vertu de la formule (3) :
P( A) = P( H1 ) P( A / H1 ) + P( H é ) P( A / H 2 ) + P( H 3 ) P( A / H 3 )
= 0.25´0.05+ 0.35´0.04+ 0.40´0.02= 0.0345
Exemple 14: Accès à une Base de données. Soient n utilisateurs d’une même base de
données qui souhaitent accéder à une même donnée. Le premier qui y accède met un
verrou pour la bloquer, les autres ne pouvant plus y accéder jusqu’à sa libération. On
s’intéresse à la probabilité de l’événement A={la donnée est verrouillée}. On connaît les
26
probabilités « a priori » P( H i ) = P {que la donnée soit sollicitée par le i-ème
utilisateur}, i = 1,2,..., n . D’autre part, pour chaque utilisateur N° i, on connaît
P( A / H i ) représentant la probabilité que la donnée soit verrouillée par le i-ème
utilisateur. La probabilité de l’événement A est donnée par la formule ci-dessus.
11. Arbre de probabilités. Il est parfois commode de représenter l’espace probabilisé
à l’aide d’un arbre de probabilités (on dit encore arbre des éventualités ou arbre
pondéré). Son utilisation permet de visualiser les différentes issues possibles et
constitue en quelque sorte un résumé de la situation probabiliste. Les sommets du
graphe représentent des évènements possibles. Un arc ou branche du graphe correspond
à une éventualité possible, et est pondérée par la probabilité de réalisation de
l’éventualité figurant à son extrémité, pondérée par celle figurant à son origine.
P( B / A)
P( A)
A
B
AI B
A B
AI B
P( B / A)
W
P( B / A )
P( A )
B
B
AIB
B
AIB
A
P( B / A )
Figure 6 : Arbre de probabilités.
L’arbre est toujours parcouru de la racine (sommet initial) vers l’extrémité des branches
en utilisant les règles suivantes :
¨chaque chemin correspond à l’intersection des évènements rencontrés ;
¨on affecte à un chemin donné une probabilité égale au produit des probabilités
rencontrées ; la probabilité d’un événement correspondant à la réunion de plusieurs
chemins est la somme des probabilités correspondant à ces chemins.
27
Exemple 15 Une urne contient 6 boules blanches et 4 boules noires. On tire au hasard
deux boules successivement et sans remise. L’espace des évènements élémentaires est
dans ce cas : W = {BB, BN , NB, NN }.
Notons Bi (resp. N i ) ={la i-ème boule tirée est blanche (resp.noire)}. Calculons les
probabilités nécessaires au graphe. On peut voir que B1 = {BB, BN } , N1 = {NB, NN },
B 2 = {BB, NB}, N 2 = {BN , NN }. Notons que les évènements de W ne sont pas
équiprobables.
6 3
4 2
P( B1 ) =
= , P ( N1 ) =
= ;
10 5
10 5
5
4
P( B2 / B1 ) = , P( N 2 / B1 ) =
9
9
6 2
3 1
P( B2 / N1 ) = = , P( N 2 / N1 ) = =
9 3
9 3
5
9
3
5
B1
BB
AI B
N2
BN
2
3
B2
NB
3
9
N2
4
9
W
2
5
B2
N1
NN
On peut vérifier que
6 5 1
P( B1 I B2 ) = P( BB ) = P( B1 ) P( B2 / B1 ) = ´ =
10 9 3
6 4 4
P( B1 I N 2 ) = P( BN ) = P( B1 ) P( N 2 / B1 ) = ´ =
10 9 15
28
4 6 4
P( N1 I B2 ) = P( NB) = P( N1 ) P( B2 / N1 ) = ´ =
10 9 15
4 3 2
P( N1 I N 2 ) = P( NN ) = P( N 1 ) P( N 2 / N1 ) = ´ =
10 9 15
12. Formule de Bayes (ou formules des causes). Dans les conditions précédentes
P( H i / A) =
P( H i ).P( A / H i )
n
å P( H i ).P( A / H i )
i =1
Ce résultat s’appelle parfois théorème des causes ou des hypothèses. En effet,
supposons que l’événement A peut avoir plusieurs causes H 1 , H 2 ,..., H n qui
s’excluent mutuellement. Si seule une de ces causes (hypothèses) se réalise, alors on
peut calculer la probabilité de chacune des causes sachant que A s’est réalisé. Les
probabilités P( H 1 ),..., P( H n ) s’appellent également probabilités a priori (initiales), et
P( H 1 / A), ..., P( H n / A) sont les probabilités a posteriori. Les probabilités a priori
correspondent en quelque sorte aux probabilités fournies par n expertises concernant A.
La formule de Bayes permet de reconsidérer la véracité des hypothèses compte tenu des
résultats des observations de l’expérience ou des différentes expertises.
Exemple 13 (suite) : La probabilité pour qu’un article défectueux soit produit par la
première machine
P( H1) P( A / H1) 0.25 ´ 0.05 25
P( H1 / A) =
=
=
P( A)
0.0345
69
P( H 2) P( A / H 2 ) 0.35 ´ 0.04 28
Par la deuxième machine: P( H 2 / A) =
=
=
P( A)
0.0345
69
Exemple 14 (suite) : Si l’on sait que la donnée est verrouillée, on peut calculer par cette
formule la probabilité que la donnée soit verrouillée pour cause d’utilisation par le ième utilisateur.
29
Téléchargement