Télécharger

publicité
ECOLE PREPARATOIRE EN SCIENCES ECONOMIQUES COMMERCIALES ET
DES SCIENCES DE GESTION DE CONSTANTINE
Initiation au Calcul de
Probabilité
DAKHMOUCHE Meghlaoui
Ecole Préparatoire en Sciences Economiques
Commerciales et des Sciences de Gestion
de Constantine
Initiation au Calcul de Probabilité
Dr. Meghlaoui Dakhmouche
Année Universitaire 2010/2011
Table des matières
1 Calcul de probabilité élémentaire
1.1 Notions intuitives et langage de la théorie des probabilités .
1.1.1 Opérations sur les évènements . . . . . . . . . . . . .
1.2 Premières dé…nitions d’une probabilité
. . . . . . . . . .
1.2.1 Dé…nition classique d’une probabilité . . . . . . . . .
1.2.2 Dé…nition géométrique d’une probabilité . . . . . . .
1.2.3 Dé…nition fréquentielle d’une probabilité . . . . . . .
1.3 Théorie élémentaire du calcul de probabilité . . . . . . . . .
1.3.1 Conséquences des axiomes de Kolmogorov . . . . . .
1.4 Calcul de probabilité sur les ensembles …nis . . . . . . . . . .
1.4.1 Extension de l’axiome K3 de Kolmogorov . . . . . . .
1.5 Rappels sur l’analyse combinatoire . . . . . . . . . . . . . .
1.5.1 Principe de multiplication . . . . . . . . . . . . . . .
1.5.2 Notation factorielle . . . . . . . . . . . . . . . . . . .
1.5.3 Permutations . . . . . . . . . . . . . . . . . . . . . .
1.5.4 Combinaisons . . . . . . . . . . . . . . . . . . . . . .
1.5.5 Propriétés des coe¢ cients combinatoires . . . . . . .
1.5.6 Partitions ordonnées . . . . . . . . . . . . . . . . . .
1.5.7 Exemples de probabilités combinatoires . . . . . . . .
1.6 Probabilités conditionnelles . . . . . . . . . . . . . . . . . .
1.6.1 Extension de l’axiome des probabilités conditionnelles
1.6.2 Indépendance des évènements . . . . . . . . . . . . .
1.7 Probabilité produit . . . . . . . . . . . . . . . . . . . . . . .
1.7.1 Produit …ni de probabilités . . . . . . . . . . . . . . .
1.7.2 Tirage de Bernoulli . . . . . . . . . . . . . . . . . . .
1.8 Comment appréhender la résolution d’un problème de calcul
de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
6
7
7
8
8
10
10
12
13
16
16
16
17
19
20
23
24
25
31
31
35
37
37
. 38
2 Variables aléatoires
2.1 Notion de variable aléatoire . . . . . . . . . . . . . . . . . .
2.2 Distribution d’une variable aléatoire . . . . . . . . . . . . . .
2.2.1 Fonction de répartition d’une variable aléatoire . . .
2.2.2 Fonction d’une variable aléatoire . . . . . . . . . . .
2.3 Moments d’une variable aléatoire . . . . . . . . . . . . . . .
2.3.1 Espérance mathématique ou moyenne d’une variable
aléatoire . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Propriété fondamentale de l’espérance mathématique
2.3.3 Moments centrés d’une variable aléatoire . . . . . . .
2.3.4 Variance d’une variable aléatoire . . . . . . . . . . .
2.3.5 Ecart-type d’une variable aléatoire . . . . . . . . . .
2.3.6 Fonction génératrice des moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Inégalité de Bienaymé-Tchébichev
. . . . . . . . . . . .
.
.
.
.
.
42
42
44
46
47
47
.
.
.
.
.
48
49
50
51
52
. 52
. 53
3 Couple de variables aléatoires
3.1 Distribution de probabilité d’un couple de variables aléatoires
3.1.1 Fonction de répartition d’un couple de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Loi de probabilité conjointe de k variables aléatoires . .
3.3 Indépendance des variables aléatoires . . . . . . . . . . . . . .
3.3.1 Variable aléatoire conditionnelle ou liée . . . . . . . . .
3.4 Moment d’une fonction de deux variables aléatoires . . . . . .
3.4.1 Moment d’un couple de variables aléatoires . . . . . . .
3.4.2 Moments centrés d’un couple de variables aléatoires . .
3.4.3 Covariance d’un couple de variables aléatoires . . . . .
3.4.4 Coe¢ cient de corrélation de deux variables aléatoires .
3.4.5 Droite de régression entre deux variables aléatoires . .
3.5 Somme de variables aléatoires
. . . . . . . . . . . . . . . .
3.5.1 Fonction génératrice des moments de la somme de deux
variables aléatoires . . . . . . . . . . . . . . . . . . . .
3.5.2 Fonction caractéristique d’une variable aléatoire . . . .
3.5.3 Relation entre les dérivées de 'X (t) et les moments de
la variable aléatoire X . . . . . . . . . . . . . . . . . .
3.5.4 Somme de n variables aléatoires . . . . . . . . . . . . .
2
55
55
58
58
59
59
61
62
63
63
64
66
68
70
71
71
72
73
4 Lois de probabilité usuelles
74
4.1 Loi de Bernoulli : B(p) . . . . . . . . . . . . . . . . . . . . . . 74
4.1.1 Calcul des moments de la loi de Bernoulli . . . . . . . 74
4.2 Loi uniforme sur f1; 2; :::; N g : Uf1;2;:::;N g . . . . . . . . . . . . 75
4.2.1 Calcul des moments de la loi uniforme . . . . . . . . . 75
4.3 Loi binomiale : B(n; p) . . . . . . . . . . . . . . . . . . . . . . 76
4.3.1 Moments particuliers de la loi binomiale . . . . . . . . 77
4.3.2 Mode d’une variable aléatoire binomiale . . . . . . . . 78
4.4 Loi hypergéométrique : H(N; n; p) . . . . . . . . . . . . . . . . 78
4.4.1 Moments particuliers d’une distribution hypergéométrique H(N; n; p) . . . . . . . . . . . . . . . . . . . . . 80
4.4.2 Calcul de la variance d’une loi hypergéométrique H(N; n; p) 81
4.5 Loi multinomiale : M(n; p1 ; p2 ; :::; pk ) . . . . . . . . . . . . . . 81
4.5.1 Fonction caractéristique du vecteur aléatoire multinomial 83
5 Probabilités sur les ensembles dénombrables
5.1 Notions sur les ensembles dénombrables . . . . . . . . . . . .
5.1.1 Propriétés des ensembles dénombrables . . . . . . . .
5.1.2 Tribu de parties d’un ensemble . . . . . . . . . . . .
5.1.3 Notions sur les familles sommables . . . . . . . . . .
5.2 Probabilités sur les ensembles dénombrables . . . . . . . . .
5.2.1 Probabilités conditionnelles . . . . . . . . . . . . . .
5.2.2 Probabilité produit . . . . . . . . . . . . . . . . . . .
5.3 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . .
5.3.1 Loi ou distribution d’une variable aléatoire . . . . . .
5.3.2 Fonction de répartition d’une variable aléatoire . . .
5.3.3 Moments d’une variable aléatoire . . . . . . . . . . .
5.3.4 Variable aléatoire ne possédant pas de moyenne . . .
5.3.5 Fonction caractéristique d’une variable aléatoire . . .
5.3.6 Variables aléatoires à valeurs dans R2 . . . . . . . . .
5.4 Lois de probabilité usuelles . . . . . . . . . . . . . . . . . . .
5.4.1 Loi géométrique ou loi de Pascal G(p) . . . . . . . . .
5.4.2 Loi binomiale négative . . . . . . . . . . . . . . . . .
5.4.3 Fonction génératrice des moments de la loi B (m; p)
5.4.4 Distribution de Poisson P ( ) . . . . . . . . . . . . .
5.5 Convergences stochastiques . . . . . . . . . . . . . . . . . . .
5.5.1 Convergence en moyenne quadratique . . . . . . . . .
5.5.2 Convergence en probabilité . . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
86
86
86
87
90
92
93
93
93
93
95
96
96
97
97
98
100
101
103
103
103
5.5.3
5.5.4
5.5.5
5.5.6
Loi faible des grands nombres . . . . . . . . . . . . .
Convergence en loi . . . . . . . . . . . . . . . . . . .
Convergence de la loi binomiale vers la loi de Poisson
Convergence de la loi hypergéométrique vers la loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . .
. 104
. 105
. 106
. 108
6 Probabilités sur les ensembles non dénombrables
110
6.1 Variables aléatoires absolument continues . . . . . . . . . . . . 111
6.1.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . 111
6.1.2 Variables aléatoires dé…nies sur R . . . . . . . . . . . . 112
6.1.3 Fonction de répartition d’une variable aléatoire continue112
6.2 Moments des variables aléatoires admettant une densité . . . . 114
6.3 Etude de quelques lois fondamentales . . . . . . . . . . . . . . 115
6.3.1 Transformation des variables aléatoires . . . . . . . . . 115
6.3.2 Loi uniforme sur un intervalle [a; b] de R : U[a;b] . . . . 118
6.3.3 Fonction de répartition d’une variable aléatoire uniforme119
6.3.4 Loi exponentielle de paramètre : E( ) . . . . . . . . 120
6.3.5 Distribution Gamma de paramètre : ( ) . . . . . . 122
6.3.6 Distribution Bêta : (a; b) . . . . . . . . . . . . . . . . 124
6.3.7 Distribution de Cauchy . . . . . . . . . . . . . . . . . . 126
6.4 Les distributions normales . . . . . . . . . . . . . . . . . . . . 127
6.4.1 Distribution normale centrée et réduite : N (0; 1) . . . . 127
6.4.2 Distribution normale de moyenne et de variance 2 :
N ( ; 2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.4.3 Calcul de probabilité dans un modèle gaussien . . . . . 133
6.4.4 Théorème de la limite centrale . . . . . . . . . . . . . . 135
4
Introduction
La notion de probabilité ou de chance a intrigué les hommes depuis la nuit
des temps. Déjà, l’homo-sapiens a inventé le jeu. En e¤et, les archéologues
ont mis à jour des ossements ayant la forme de dés (appelés "astragalis") sur
des sites préhistoriques datant de l’âge de la pierre taillée. Ces astragalis ont
dû sûrement servir à des jeux de hasard ou même à des …ns prophétiques.
Aristote a dé…ni une "probabilité" comme étant "ce que l’homme sait que
ça arrivera ou non, d’être ou de ne pas être, que ce soit en grande partie
ceci ou cela". Par ailleurs, il a consacré tout un chapitre de son œuvre "La
Métaphysique" à l’explication du concept "chance". Depuis lors, la notion de
probabilité n’a pas cessé d’évoluer.
Le calcul de probabilité est certainement l’une des branches les plus récentes des mathématiques, bien qu’il ait en fait plus de trois siècles d’existence. Après avoir servi à résoudre quelques problèmes de jeux de hasard, le
calcul de probabilité a été introduit dans presque toutes les branches de l’activité scienti…que, aussi bien dans l’économie, la génétique (loi de Mendel),
la physique corpusculaire, ainsi que la psychologie, la sociologie et l’informatique. Il est rare de trouver un tel exemple de "recouvrement" dans le
domaine scienti…que.
Cette branche des mathématiques est née de l’étude des jeux de hasard.
Le mot "hasard" est originaire d’Arabie et a été transmis à l’Europe par
l’Espagne. En e¤et, le mot arabe "az-zahr" (dé à jouer) s’est transformé en
"azar", ce qui veut dire hasard (et souvent "revers") en espagnol. La base
philologique du calcul des probabilités est donc le jeu pile ou face, jeu de
roulette, jeu de cartes, etc. Pascal et le Chevalier de Méré sont certainement
les premiers à avoir voulu introduire le quantitatif dans leurs études et à les
mathématiser. On essaie aujourd’hui de réduire l’importance de ce point de
départ en cherchant un fondement axiomatique et en enseignant le calcul
des probabilités sans parler de hasard. Il n’en est pas moins vrai que sans
l’activité des joueurs, le calcul des probabilités n’aurait sûrement pas vu le
jour.
Depuis le XV II eme siècle, de nombreux mathématiciens ont apporté une
très importante contribution au développement de cette science. Parmi les
plus marquants, citons Laplace dont un tome de ses œuvres complètes est
consacré au calcul des probabilités, Denis Poisson, Carl Friedrich Gauss,
Henri Poincaré, Emile Borel, Maurice Fréchet, Paul Levy, A.N. Kolmogorov
et A. Khintchine. Le premier traité systématique de la théorie des probabi-
5
lités est dû à Jacques Bernoulli (1654 1705).
Cette importante partie des mathématiques ne cesse de se développer de
nos jours et demeure un outil très important pour les sciences modernes. La
théorie des probabilités est une branche des mathématiques dont l’objet est
l’étude des phénomènes aléatoires.
Le calcul des probabilités est une base essentielle pour toute approche
de la théorie des probabilités et de l’inférence statistique. Le cours que nous
présentons est une suite naturelle du cours sur la statistique descriptive dans
lequel on a introduit de façon empirique les principales notions intuitives
du langage des probabilités. Ce cours est divisé en deux parties essentielles,
les probabilités discrètes et les probabilités admettant une densité. Dans la
première partie on introduit les di¤érents concepts intuitifs et les premières
dé…nitions de la probabilité, ainsi que les notions fondamentales de probabilité conditionnelle et d’indépendance. On y a inclus aussi une section sur
le dénombrement qui est un outil important pour le calcul des probabilités.
Par la suite, on élève le niveau du formalisme avec l’introduction de la notion
de variable aléatoire et toutes les notions qui s’y rattachent. A ce stade, l’introduction des lois de probabilités classiques s’avère judicieuse et simpli…e
signi…cativement la formulation de beaucoup de problèmes ainsi que leurs
résolutions. Les techniques de dénombrement ne sont plus utilisables dans le
cas où le cardinal de l’espace des réalisations est in…ni. La dé…nition et le
calcul des probabilités sur ce type d’ensembles se feront par extension des
techniques déjà utilisées. On notera qu’on peut toujours considérer que la
probabilité d’un évènement est la somme des probabilités des épreuves qui le
composent. Mais cette propriété n’est plus valable dans le cas où n’est plus
dénombrable. Le problème sera traité di¤éremment en élargissant la dé…nition de la probabilité et en introduisant la propriété de l’absolue continuité
des variables aléatoires. C’est dans ce cadre qu’on dé…nira la loi de LaplaceGauss qui est l’une des lois naturelles les plus remarquables. Au dernier
chapitre, on donne quelques dé…nitions de convergences stochastiques pour
énoncer le fameux théorème de la limite centrale qui est l’un des théorèmes
les plus importants en probabilité et en statistique.
6
Chapitre 1
Calcul de probabilité
élémentaire
1.1
Notions intuitives et langage de la théorie
des probabilités
De…nition 1 On désigne par expérience aléatoire une expérience dont le résultat n’est pas prévisible a priori.
Example 2 Il est facile de concevoir les expériences suivantes :
Jet d’une pièce de monnaie, lancer d’un dé, constat du sexe d’un nouveau-né
Remarque 3 L’expérience vise donc à véri…er une théorie, mais pas comme
dans le cas classique en véri…ant que la mesure d’une grandeur donne un
résultat prévu à l’avance. Le caractère aléatoire ou hasardeux de la grandeur
que l’on mesure est dû soit au fait que le nombre de paramètres est trop grand,
soit à l’impossibilité d’estimer certains paramètres nécessaires au calcul. On
ré‡échira au caractère aléatoire des exemples suivants : résultats des courses
de chevaux, densité de circulation des véhicules, durée de vie d’une lampe,
d’un individu, prix du sucre sur le marché mondial, cinétique des gaz, etc.
L’objet de la théorie des probabilités est la confection de modèles pour
l’étude des phénomènes aléatoires. Comme toute construction de modèle
théorique, celle des modèles de probabilité comporte une part d’arbitraire en
tant que représentation mathématique d’un phénomène concret. Un modèle
décrivant un phénomène aléatoire est d’abord la donnée de tous les résultats
possibles d’une expérience aléatoire visant à le véri…er.
7
Example 4 Le jet d’une pièce de monnaie est l’expérience aléatoire la plus
simple. Les résultats possibles de cette expérience sont codés par "pile" et
"face". Il est clair qu’il n’y a pas d’autres résultats possibles.
De…nition 5 Un résultat possible d’une expérience aléatoire est appelé épreuve.
Une épreuve est en général notée !. L’ensemble des résultats possibles de
l’expérience aléatoire est appelée espace des épreuves, espace fondamental ou
espace de probabilité. Il est en général noté .
Example 6 L’espace fondamental associé à l’expérience du jet d’une pièce
de monnaie est = fpile; f aceg, et celui associé à l’expérience du jet d’un
dé est = f1; 2; 3; 4; 5; 6g.
De…nition 7 La deuxième notion intuitive est la notion d’évènement lié à
une expérience aléatoire. Un évènement est réalisé ou non par une épreuve.
C’est donc un sous-ensemble de l’espace .
Example 8 L’évènement "le nombre obtenu est pair" relatif à l’expérience
du jet d’un dé, est réalisé par les épreuves 2, 4 ou 6. Donc, si on note l’évènement "le nombre obtenu est pair" par A, alors :
A = f2; 4; 6g
Remarque 9
est considéré comme un sous-ensemble de , donc c’est un
évènement. Il est appelé évènement certain, il est toujours réalisé.
? est un sous ensemble de , donc c’est un évènement. Il est appelé évènement impossible, il n’est jamais réalisé.
De…nition 10 L’ensemble des évènements est donc l’ensemble des parties
de , noté P ( ).
Remarque 11 On peut aussi dé…nir l’ensemble des évènements comme l’ensemble des parties de dont on sait calculer la probabilité.
Dans certaines littératures on introduit l’ensemble des évènements avec sa
structure algébrique. Ainsi, on parle de tribu ou -algèbre des évènements de
. Mais, à ce niveau de la théorie des probabilités il n’y a aucun problème à
travailler sur P ( ) ( -algèbre maximale de ).
8
1.1.1
Opérations sur les évènements
Soit
un espace de probabilité. Alors, 8A; B
on peut dé…nir les
évènements suivants :
– A [ B est l’évènement (A ou B) qui est réalisé si et seulement si l’évènement A ou l’évènement B le sont.
– A \ B est l’évènement (A et B) qui est réalisé si et seulement si l’évènement A et l’évènement B le sont.
– C A = Ac = A est l’évènement (non A) qui est réalisé si et seulement
si l’évènement A ne l’est pas.
Remarque 12 Les évènements étant des sous-ensembles de , désormais
on ne fera plus de distinction entre un évènement et sa représentation ensembliste. De plus, tous les axiomes et toutes les propriétés de la théories des
ensembles sont applicables.
De…nition 13 Un modèle de probabilité est la donnée de l’espace fondamental et d’une classe A de ces évènements. La classe A des évènements de
possède les propriétés suivantes :
a) A contient et ?
b) A est stable pour les opérations de réunion, d’intersection et de passage
au complémentaire, i.e. si A et B 2 A, alors A [ B 2 A, A \ B 2 A, A 2 A
et B 2 A
Remarque 14 On notera désormais un modèle de probabilité par le couple
( ; A). Dans le cas où l’espace fondamental
est un ensemble discret, la
classe A est généralement égale à P ( ), l’ensemble des parties de .
De…nition 15 On appelle di¤érence entre deux sous-ensembles A et B de
, notée A B, l’ensemble des éléments de qui appartiennent à A et n’appartiennent pas à B, i.e.
A B =A\B
Remarque 16 La di¤érence A B entre les ensembles A et B n’est pas
l’opération inverse de l’addition de ces ensembles. En e¤et
(A B) + B = A [ B et non pas A
De…nition 17 Soient A et B deux évènements de l’espace fondamental .
Si A \ B = ?, on dit que les évènements A et B sont incompatibles ou
exclusifs.
9
De…nition 18 On appelle partition de toute suite A1 ; A2 ; :::; An d’évènements de , deux à deux disjoints ou exclusifs (i:e:Ai \ Aj = ?; 8i 6= j) et
n
[
tels que
Ai = .
i=1
Remarque 19 Soit A1 ; A2 ; :::; An une partition de . Alors, 8B un sousensemble ou évènement de , la suite B \ A1 ; B \ A2 ; :::; B \ An constitue
une partition de B, i.e.
(B \ Ai ) \ (B \ Aj ) = ? 8i 6= j
et
n
[
i=1
(B \ Ai ) = B
Exemple fondamental :
Soit un espace de probabilité. Alors quelque soit A un évènement de , A
; B = (B \ A) [ B \ A .
et A forment une partition de . De plus, 8B
1.2
Premières dé…nitions d’une probabilité
Une probabilité est un nombre réel qu’on associe de façon unique à un
évènement. Le problème est comment associer ce nombre à un évènement ?
Il existe plusieurs tentatives pour dé…nir une probabilité. Chacune d’elles
dépend de l’expérience et de l’espace expérimental considérés. On rappellera
trois manières heuristiques de dé…nir une probabilité.
1.2.1
Dé…nition classique d’une probabilité
Considérons une expérience aléatoire dont l’espace fondamental est formé
exactement de n épreuves ayant la même chance d’apparition. Soit A un évènement réalisé par mA épreuves exactement. Alors la probabilité de l’évènement A est dé…nie par :
mA
P (A) =
n
Remarque 20 Les épreuves qui réalisent un évènement sont dites favorables
à cet évènement.
10
Example 21 On lance un dé équilibré. Soit A l’évènement "le résultat obtenu est un nombre pair". L’espace fondamental associé à cette expérience
aléatoire est formé de n = 6 résultats possibles, i.e. f1; 2; 3; 4; 5; 6g. Parmi
ces épreuves mA = 3 sont favorables à l’évènement A, i.e. A = f2; 4; 6g.
Alors :
1
3
P (A) = =
6
2
1.2.2
Dé…nition géométrique d’une probabilité
Soient R et r deux régions du plan telles que r
R. La probabilité P
qu’un objet quelconque dans la région R apparient à la région r est :
P =
Surf ace(r)
Surf ace(R)
Example 22 On lance une ‡échette sur une cible circulaire. Quelle est la
probabilité P de viser plus près du centre de la cible que de sa circonférence ?
Solution :
Soit x le rayon de la cible. Pour mettre la ‡échette plus près du centre que de
la circonférence, on doit évidemment viser l’intérieure de la surface du cercle
de rayon x2 . Donc, la probabilité P cherchée est :
p=
1.2.3
x 2
2
x2
=
1
4
Dé…nition fréquentielle d’une probabilité
Une autre idée pour dé…nir une probabilité est celle basée sur l’observation de suites d’expériences identiques. Supposons qu’on répète une même
expérience n fois dans les mêmes conditions et qu’on s’intéresse à la réalisation d’une modalité ou épreuve ! 0 associée à cette expérience. Supposons
que l’épreuve ! 0 se soit réalisée m!0 fois. Alors, la fréquence relative f!0 de
réalisation ou d’obtention du résultat ! 0 est donnée par :
m! 0
f!0 =
n
De…nition 23 On appelle probabilité d’un évènement A, que l’on note P (A),
la limite quand n ! 1 de fA = mnA , i.e.
mA
!1 n
P (A) = lim
n
11
où fA est la fréquence de l’évènement A et mA le nombre de fois que A est
réalisé.
Example 24 On cherche à évaluer la probabilité p du coté "face" d’une pièce
de monnaie équilibrée. Pour cela, on lance la pièce en question un grand
nombre de fois. Ainsi, on obtient les résultats suivants :
N ombre de jets de la piece
10
50
100
200
1000
10000
N ombre de "f ace" F requence relative
7
0; 7
28
0; 56
54
0; 54
106
0; 53
493
0; 493
4981
0; 498
D’après le tableau, il apparaît clairement que la fréquence relative de "face"
converge vers la valeur 0; 5. C’est à partir de cette constatation qu’en admet
souvent que la probabilité de "face" est p = 21 .
Remarque 25 Associer une "probabilité" aux évènements de l’espace fondamental pose un certain nombre de questions sur lesquelles E. Borel s’est
penché. Dans l’expérience sur le sexe d’un nouveau-né, par exemple, la probabilité résulte de la connaissance détaillée et précise d’un grand nombre de
phénomènes analogues. Selon le langage de Borel, c’est une probabilité statistique. Dans l’expérience du jet d’une pièce de monnaie, la symétrie parfaite
de la pièce donne autant de chances aux deux faces. On dira donc qu’il y a une
chance sur deux d’obtenir "face". "Toute probabilité concrète, écrit Borel, est
en dé…nitive une probabilité statistique dé…nie seulement avec une certaine
approximation. Bien entendu, il est loisible aux mathématiciens, pour la commodité de leurs raisonnements et de leurs calculs, d’introduire des probabilités
rigoureusement égales à des nombres simples, bien dé…nis : c’est la condition
même de l’application des mathématiques à toute question concrète. On remplace les données réelles, toujours inexactement, par des valeurs approchées
avec lesquelles on fait les calculs comme si elles étaient exactes.
Les problèmes que l’on éprouvait pour dé…nir une probabilité sur les évènement de ont conduit au calcul de probabilité moderne et à l’axiomatique de
Kolmogorov.
12
1.3
Théorie élémentaire du calcul de probabilité
De…nition 26 Considérons une expérience aléatoire E. Soit ( ; P ( )) l’espace de probabilité associé à cette expérience. On appelle probabilité toute
application P dé…nie sur P ( ) et à valeurs dans [0; 1] satisfaisant aux conditions suivantes :
K1 : 8A 2 P ( ) ; P (A) 0
K2 : P ( ) = 1
K3 ::8A; B 2 P ( ) tels que A \ B = ?, alors :
P (A [ B) = P (A) + P (B)
Remarque 27 La probabilité P est une application qui opère sur les évènements. Les conditions K1 ; K2 ; K3 sont appelées axiomes de Kolmogorov.
L’axiome K3 signi…e que la probabilité P est une fonction additive. Le triplet
( ; P ( ) ; P ) est appelé espace probabilisé.
1.3.1
Conséquences des axiomes de Kolmogorov
– 8A
, P (A) + P A = 1
Démonstration : On sait que A [ A = et A \ A = ?. Or, d’après
l’axiome K3 de Kolmogorov P (A) + P (A) = P A [ A = P ( ). De plus,
d’après l’axiome K2 de Kolmogorov P ( ) = 1, d’où P (A) + P (A) = 1.
– P (?) = 0
Démonstration : Il est évident que 8A
, A [ ? = A et
A \ ? = ?, alors P (A [ ?) = P (A) + P (?) = P (A) d’après l’axiome K3
de Kolmogorov, d’où P (?) = 0.
– Pour toute famille (Ai )i=1;2;:::;n d’évènements de deux à deux disjoints,
on a :
!
n
n
[
X
Ai =
P (Ai )
P
i=1
i=1
Démonstration : Nous allons utiliser la démonstration par récurrence.
Pour n = 2, on a A1 \ A2 = ? par hypothèse, alors d’après l’axiome K3 de
Kolmogorov :
P (A1 [ A2 ) = P (A1 ) + P (A2 )
13
Pour n = 3, on a A1 \ A2 = A1 \ A3 = A2 \ A3 = ? par hypothèse, d’où si
on pose B = A1 [ A2 , alors B \ A3 = (A1 \ A3 ) [ (A2 \ A3 ) = ? [ ? = ?.
Or, d’après l’axiome K3 de Kolmogorov :
P (B [ A3 ) = P (B) + P (A3 )
Mais P (B) = P (A1 [ A2 ) = P (A1 ) + P (A2 ), d’où
P (B [ A3 ) = P (A1 [ A2 [ A3 ) = P (A1 ) + P (A2 ) + P (A3 )
Supposons que cette assertion soit vraie au rang n, i.e.
!
n
n
[
X
P
Ai =
P (Ai )
i=1
i=1
Soit An+1
! un évènement tel que An+1 \ Ai = ? 8i = 1; 2; :::; n, alors
n
[
Ai \ An+1 = ?, d’où
i=1
P
n+1
[
i=1
Ai
!
= P
=
(
n
X
n
[
i=1
Ai
!
[ An+1
)
=P
P (Ai ) + P (An+1 ) =
i=1
n
[
Ai
i=1
n+1
X
!
+ P (An+1 )
P (Ai )
i=1
– 8A; B deux évènements de , P (A B) = P (A) P (A \ B):
Démonstration : Par dé…nition AnB = A \ B. D’autre part on sait
A = (A \ B)[ A \ B . Or, A\B et A\B sont deux sous-ensembles disjoints,
d’où
P (A) = P (A \ B) + P A \ B = P (A \ B) + P (AnB)
Par conséquent
P (A B) = P (A)
Remarque 28 Si B
P (B).
P (A \ B)
A, alors A \ B = B et donc P (A B) = P (A)
14
– La probabilité est une fonction d’ensemble non décroissante, i.e. 8A
, 8B
, si A B, alors P (A) P (B) :
Démonstration : Si A B, d’après la remarque ci-dessus et l’axiome
K1 , on a P (B A) = P (B) P (A) 0 d’où P (B) P (A) :
Cette axiomatique paraît assez abstraite, donc quelque peu décourageante
pour les non-initiés. Mais elle nous sera d’une grande utilité pour formaliser
les problèmes concrets.
1.4
Calcul de probabilité sur les ensembles
…nis
Soit E une expérience aléatoire et soit ( ; P ) l’espace probabilisé associé à
cette expérience. Supposons que Card ( ) = n, i.e. = f! 1 ; ! 2 ; :::; ! i ; :::; ! n g.
On dé…nit la probabilité P sur tous les singletons f! i g
, telle que :
P (f! i g) = pi , i = 1; 2; :::; n
Remarque 29 Les singletons de constituent une partition de , i.e. =
n
[
f! i g. Un singleton (sous-ensemble contenant un seul élément) de est
i=1
aussi appelé évènement élémentaire de
.
Propriétés
Puisque l’espace de probabilité est …ni, l’ensemble des parties de est …ni.
De plus, les probabilités pi , i = 1; 2; :::; n véri…ent les conditions suivantes :
- pP
0; i = 1; 2; :::; n
i
- ni=1 pi = 1
Proposition 30 La probabilité d’un évènement A de
est la somme des
probabilités des évènements élémentaires dont il est la réunion.
Démonstration : Dès que l’on dispose des nombres p1 ; p2 ; :::; pn on
peut calculer aisément la probabilité de tout évènement A
en utilisant
la troisième conséquence des axiomes de Kolmogorov. En e¤et, supposons que
A = f! i ; ! j ; ! k ; :::; ! m g
, où les évènements f! i g ; f! j g ; f! k g ; :::; f! m g
ont pour probabilité respectivement pi ; pj ; pk ; :::; pm . Par ailleurs, l’évènement
A peut s’écrire sous la forme :
A = f! i g [ f! j g [ f! k g [ ::: [ f! m g
15
Or, les singletons f! h g
, h = 1; 2; : : : ; n sont deux à deux disjoints, d’où :
P (A) = P f! i g + P f! j g + P f! k g + ::: + P f! m g = pi + pj + pk + ::: + pm
De…nition 31 Soit P une probabilité dé…nie sur l’ensemble des parties de
= f! 1 ; ! 2 ; :::; ! i ; :::; ! n g. Si 8i 6= j, P (f! i g) = P (f! j g) = p, i; j =
1; 2; :::; n alors la probabilité P est appelée équiprobabilité.
Proposition 32 Soit P une équiprobabilité dé…nie sur l’espace de probabilité
= f! 1 ; ! 2 ; :::; ! i ; :::; ! n g telle que P (f! i g) = pi = n1 , i; j = 1; 2; :::; n. Alors,
8A
tel que Card (A) = m, on a :
P (A) =
m
Card (A)
=
Card ( )
n
Démonstration : On sait que 0 pi
1, i = 1; 2; :::; n. P
Par ailleurs,
P est une équiprobabilité alors pi = pj , 8i; j = 1; 2; :::; n. Or ni=1 pi = 1,
d’où pi = n1 . Soit A un évènement de tel que Card (A) = m. Alors, P (A)
est égale à la somme des probabilités des singletons qui composent A. Mais
chacun de ces singletons est de probabilité n1 , donc :
P (A) =
m
X
i=1
1.4.1
m
X
1
m
Card (A)
pi =
=
=
n
n
Card ( )
i=1
Extension de l’axiome K3 de Kolmogorov
Théorème 33 8A
, 8B
, P (A [ B) = P (A) + P (B)
P (A \ B) :
Démonstration : Il est clair que A [ B = A [ (BnA). Par ailleurs, les
évènements A et BnA = B \ A sont disjoints, donc P (A [ B) = P (A) +
P (BnA) d’après l’axiome K3 de Kolmogorov. Mais, P (BnA) = P (B)
P (A \ B) d’après la dernière conséquence des axiomes de Kolmogorov. Donc,
P (A [ B) = P (A) + P (B) P (A \ B).
16
Example 34 Dans une classe composée de 10 garçons et 20 …lles, la moitié
des garçons et la moitié des …lles ont les yeux marrons. Calculer la probabilité
qu’une personne choisie au hasard, soit un garçon ou ait les yeux marrons.
Solution 35 Soit A l’évènement : "la personne choisie est un garçon" et
soit B l’évènement : "la personne choisie a les yeux marrons". L’évènement
A[B se traduit alors par "la personne choisie est un garçon ou elle a les yeux
marrons". Il est clair que l’on cherche à calculer P (A [ B). Par ailleurs, il
y a 30 élèves parmi lesquels 10 sont des garçons, donc
P (A) =
1
10
=
30
3
D’autre part, il y a aussi 15 élèves avec des yeux marrons, donc
P (B) =
1
15
=
30
2
Et il y a 5 garçons avec des yeux marrons, donc
P (A \ B) =
5
1
=
30
6
D’où
P (A [ B) = P (A) + P (B)
P (A \ B) =
2
3
Généralisation
Proposition 36 Pour toute famille (Ai )i=1;2;:::;n d’évènements quelconques
de , on a :
!
n
n
[
X
X
X
P
Ai =
P (Ai )
P (Ai \ Aj )+
P (Ai \ Aj \ Ak ) :::+( 1)n+1 P
i=1
i=1
i6=j
i6=j6=k
(1.1)
Démonstration : Nous allons utiliser la démonstration par récurrence.
Pour n = 2 la relation (1:1) est vraie. En e¤et, 8A; B deux évènements de
, d’après l’extension de l’axiome K3 de Kolmogorov on a :
P (A1 [ A2 ) = P (A1 ) + P (A2 )
17
P (A1 \ A2 )
n
\
i=1
Ai
!
On véri…e aussi que pour n = 3 la relation (1:1) est vraie. En e¤et, si on pose
B = A1 [ A2 alors A1 [ A2 [ A3 = B [ A3 . Or, d’après l’extension de l’axiome
K3 de Kolmogorov :
P (B [ A3 ) = P (B) + P (A3 )
P (B \ A3 )
Mais P (B) = P (A1 [ A2 ) = P (A1 ) + P (A2 ) P (A1 \ A2 ) et P (B \ A3 ) =
P f(A1 [ A2 ) \ A3 g = P f(A1 \ A3 ) [ (A2 \ A3 )g = P (A1 \ A3 )+P (A2 \ A3 )
P (A1 \ A2 \ A3 ), d’où P (A1 [ A2 [ A3 ) = P (A1 )+P (A2 )+P (A3 ) P (A1 \ A2 )
P (A1 \ A3 ) P (A2 \ A3 ) + P (A1 \ A2 \ A3 ).
Supposons que l’assertion (1:1) soit vraie au rang n, i.e.
!
n
n
n
n
[
X
X
X
P
Ai =
P (Ai )
P (Ai \ Aj )+
P (Ai \ Aj \ Ak ) :::+( 1)n+1 P
i=1
i=1
i6=j=1
i6=j6=k=1
n+1
[
Considérons un autre évènement An+1 de , alors
Ai =
i=1
alors
!
( n
!
)
n+1
[
[
P
Ai = P
Ai [ An+1 = P
i=1
et
P
(
n
[
i=1
Ai
i=1
!
\ An+1
)
= P
n
[
i=1
n
[
::: + ( 1)n+2 P
(
i=1
!
!
=
n
\
i=1
n
X
i=1
Ai
!
!
(
n
[
Ai
i=1
!
n
X
P (Ai \ An+1 )
\ An+1
i6=j=1
)
En utilisant l’hypothèse de récurrence et en remarquant
en regroupant cerPn
tains
entre eux, que i=1 P P
(Ai ) + P (An+1 ) =
Pn+1termes de
Pnla somme obtenue P
n
),
P (Ai \ Aj )+ i=1 P (Ai \ An+1 ) = n+1
i=1 P (A
=j=1 P)(Ai \ Aj ),
(i n i6=j=1
!
)
(n
)
(i6n+1
\
\
\
et que P
Ai \ An+1 = P
Ai \ An+1 = P
Ai , alors il
vient que :
P
n+1
[
i=1
Ai
i=1
!
=
i=1
n+1
X
i=1
P (Ai )
n+1
X
i6=j=1
i=1
P (Ai \ Aj ) + ::: + ( 1)n+2 P
En conclusion, la relation (1:1) est vraie pour tout n.
18
i=1
Ai
!
Ai [ An+1 ,
Ai +P (An+1 ) P
i=1
(Ai \ An+1 )
n
[
n
\
n+1
\
i=1
Ai
!
\ An+1
)
P (Ai \ Aj \ An+1 ) +
1.5
Rappels sur l’analyse combinatoire
Le dénombrement est un outil de base pour le calcul de probabilité. Les
méthodes de dénombrement n’appartiennent pas à la théorie des probabilités,
mais à l’analyse combinatoire. Historiquement, les notions de permutation et
de combinaison et leur développement sont l’œuvre de B. Pascal et de P. de
Fermat dans le courant du XV II eme siècle. Cependant certains problèmes
combinatoires ont été posés en Chine vers l’an 1100 avant J.C. Alors que
le perse Rabbi Ben Erza (vers 1140) paraît avoir déjà établi beaucoup de
formules attribuées à des chercheurs européens de la Renaissance. Les coe¢ cients du binôme ont été étudiés par un arithméticien indien Bhaska vers le
XII eme siècle, et le fameux "triangle de Pascal" a été établi par le philosophe
perse Nassir-Ad-Din en l’an 1265. Toutes les techniques combinatoires sont
basées sur le principe fondamental suivant :
1.5.1
Principe de multiplication
Si une première procédure peut être réalisée de n1 di¤érentes façons et
si une deuxième procédure peut être réalisée de n2 di¤érentes façons et ainsi
de suite une troisième, etc., alors le nombre total de façons en lesquelles les
procédures peuvent être réalisées simultanément est le produit n1 n2 n3 :::
Remarque 37 Toutes les méthodes combinatoires utilisées dans la suite de
ce cours sont basées sur ce principe.
Example 38 Considérons une première procédure ’le jet d’un dé’(avec n1 =
6 possibilités) et une deuxième procédure ’le lancer d’une pièce de monnaie’
(avec n2 = 2 possibilités). Alors le nombre total de façons de réaliser les deux
procédures simultanément est :
n1
1.5.2
n2 = 6
2 = 12
Notation factorielle
De…nition 39 Soit n un entier naturel non nul. Alors, le produit des entiers
successifs compris entre 1 et n est noté n! ( n factorielle), i.e.
n! = 1
2
3
:::
19
(n
1)
n
Remarque 40 Par dé…nition on pose : 0! = 1.
Example 41
3! = 1
2
3 = 6 ; 6! = 1
9!
=7
6!
8
9 ;
2
3
n!
(n
1)!
4
5
6 = 720
=n
Très souvent nous aurons à déterminer le nombre de manières de disposer
des objets d’une certaine façon. Il est essentiel de savoir si l’ordre dans lequel
ces objets sont disposés a une importance ou pas. Considérons la sélection
d’un comité de trois personnes qui choisirons entre elles le président (l’ordre
de sélection n’a pas d’importance). Par contre, la situation est très di¤érente
dans le cas où l’on stipule avant le vote que la personne classée première lors
de la sélection pour le comité sera désignée présidente du comité (l’ordre est
alors déterminant). Ainsi, si l’ordre est important on parle de permutations,
autrement on parle de combinaisons.
1.5.3
Permutations
De…nition 42 Soit un ensemble composé de n éléments. Un arrangement
de r
n de ses éléments dans un ordre donné sans répétitions, est appelé
permutation sans répétitions ou arrangement de n objets pris r à la fois (ou
bien de n objets pris r à r).
Example 43 Soit = fa; b; c; dg, donc Card ( ) = 4. Les permutations de
ces objets pris 2 à la fois (on dit aussi 2 à 2), sont : ab; ba; ac; ca; ad; da; bc; cb; bd; db; cd; dc.
Ces permutations sont au nombre de 12.
Proposition 44 Si on note le nombre des di¤érentes permutations sans répétitions ou arrangements de n objets pris r à la fois par Arn , alors :
Arn =
n!
(n
20
r)!
Démonstration : Parmi les n objets considérés, un premier objet peut
être sélectionné de n di¤érentes façons, un second objet peut être sélectionné
de (n 1) di¤érentes façons et ainsi de suite, le rieme objet peut être sélectionné de (n r + 1) di¤érentes façons. D’où, en appliquant le principe de
multiplication on obtient le nombre de permutations Arn :
Arn = n (n
1) (n
2) ::: (n
r + 1) =
n!
(n
r)!
Example 45 De combien de façons peut-on former des mots de 4 lettres à
partir du mot "gamble" ?
Solution 46 Le mot "gamble" est formé d’un ensemble de 6 lettres. Donc,
le nombre de mots de 4 lettres qu’on peut former est égal à :
A46 =
6!
(6
4)!
=
6!
=6
2!
5
4
3 = 360
Remarque 47 Il est clair que la plupart des mots obtenus n’ont pas de sens
commun.
De…nition 48 Soit
un ensemble composé de n éléments. Un arrangement
de r quelconques des n objets de dans un ordre donné, avec la possibilité
de répéter les objets du même type, est appelé permutation avec répétitions
de n objets pris r à la fois (ou bien de n objets r à r).
Remarque 49 Du fait que les répétitions d’objet sont permises alors le
nombre r peut être plus grand que n.
Example 50 On lance une pièce de monnaie trois fois. L’ensemble des résultats possibles de l’expérience est :
= fF F F; F F P; F P F; P F F; P P F; P F P; F P P; P P P g
Alors
est l’ensemble de toutes les permutations de deux objets distincts
(F et P ) pris 3 à la fois. Il est aisé de remarquer que pour n = 2 et r = 3,
le nombre des permutations de 2 objets 3 à 3 est donc 8.
21
Proposition 51 Il y a nr permutations distinctes avec répétitions de n objets
pris r à la fois.
Démonstration : Un premier objet peut être choisi de n di¤érentes
façons, le second objet a aussi n di¤érentes façons d’être choisi, et ainsi de
suite, le reme objet peut être choisi de n di¤érentes façons. Donc, d’après le
principe de multiplication, le nombre total de permutations de n objets pris
r à la fois avec possibilité de répétition du même objet, est :
r
Y
n = nr
i=1
Example 52 Une urne contient 9 boules numérotées de 1 à 9. On y choisit 5
boules l’une après l’autre et on inscrit les numéros ainsi obtenus dans l’ordre.
Combien de dispositions obtient-on si :
1. on ne remet pas la boule après chaque tirage ?
2. on remet la boule après chaque tirage ?
Solution 53 1. Le tirage des boules sans remise nous donne
tations sans répétition de 9 objets pris 5 à 5, d’où on obtient
9 8 7 6 5 = 15120 dispositions.
2. Le tirage des boules avec remise nous donne des permutations
tion de 9 objets pris 5 à 5, d’où le nombre de dispositions est 95
des permu=
A59 = 9!
4!
avec répéti= 59049.
Conséquence
Soit E un ensemble tel que Card (E) = n. Alors, le nombre de permutations
sans répétition des éléments de E est n!.
1.5.4
Combinaisons
De…nition 54 Soit E un ensemble de n éléments. Une combinaison sans
répétition des n objets pris r à la fois, est un sous-ensemble de r éléments de
E (l’ordre des r objets n’a pas d’importance).
Example 55 Les di¤érentes combinaisons de l’ensemble fa; b; c; dg pris 3 à
la fois sont représentées par les sous-ensembles fa; b; cg ; fa; b; dg ; fa; c; dg ; fb; c; dg.
Par ailleurs, les sous-ensembles fa; b; cg, fa; c; bg, fc; a; bg, fb; a; cg, fb; c; ag,
fc; b; ag représentent le même sous-ensemble fa; b; cg, i.e. la même combinaison (l’ordre n’intervient pas).
22
Proposition 56 Si on note par Cnr le nombre total des combinaisons distinctes sans répétition de n objets pris r à la fois, alors :
Cnr =
n!
r! (n r)!
Démonstration : Pour chaque combinaison sans répétition de r objets
on peut obtenir r! permutations sans répétition, donc Arn = r!Cnr , d’où
Cnr =
Arn
n!
=
r!
r! (n r)!
Remarque 57 Si r > n, on pose par dé…nition Cnr = 0.
Exercise 58 De combien de façons peut-on former un comité de trois hommes
et deux femmes choisis parmi 7 hommes et 5 femmes ?
Solution 59 On peut choisir 3 hommes parmi 7 de C73 di¤érentes façons
et 2 femmes parmi 5 de C52 di¤érentes façons, donc d’après le principe de
multiplication, le nombre total de choix du comité est :
C73
1.5.5
C52 = 350
Propriétés des coe¢ cients combinatoires
Proposition 60 Pour tout entier naturel 0
Cnk = Cnn
k
n on a :
k
Démonstration : En e¤et,
Cnn
k
=
(n
n!
k)! (n (n
23
k))!
=
n!
= Cnk
(n k)!k!
Proposition 61 Pour tout entier naturel 0
Cnk
1
n on :
k
k
+ Cnk = Cn+1
Démonstration : En efet,
Cnk
1
n!
n!
+
(n k + 1)! (k 1)! (n k)!k!
n+1
n!
=
(n k)! (k 1)! k (n + 1 k)
(n + 1)!
k
=
= Cn+1
(n + 1 k)!k!
+ Cnk =
Remarque 62 A l’aide des propositions 60 et 61, on construit le triangle de
Pascal.
Proposition 63 Pour tout couple de nombres réels a et b, et tout entier
naturel n, on a :
n
X
n
(a + b) =
Cnk ak bn k
(1.2)
k=0
La relation (1:2) est appelée binôme de Newton.
Démonstration : Nous allons utiliser une démonstration par récurrence.
En e¤et, pour n = 1 il es évident que
(a + b)1 = C10 a0 b1 + C11 a1 b0 = a + b
Pour n = 2, on a l’identité remarquable classique
(a + b)2 = C20 a0 b2 + C21 a1 b1 + C22 a2 b0 = b2 + 2ab + a2
Supposons que l’assertion (1:2) soit vraie au rang n, i.e.
(a + b)n =
n
X
k=0
24
Cnk ak bn
k
Alors, montrons que l’assertion (1:2) est vraie au rang (n + 1). En e¤et,
n+1
(a + b)
n
= (a + b) (a + b) = (a + b)
n
X
Cnk ak bn
k
k=0
Les termes de la somme ci-dessus contenant ak , 0
tels que :
a Cnk 1 ak 1 bn
k+1
+ b Cnk ak bn
k
= Cnk 1 ak bn
Cnk
=
Or, Cnk
1
k
1
n + 1, sont obtenus
k+1
+ Cnk ak bn
+ Cnk ak bn
k+1
k+1
k
d’après la proposition 53, par conséquent
+ Cnk = Cn+1
(a + b)n+1 =
n+1
X
k
Cn+1
ak bn+1
k
k=0
De…nition 64 Considérons un ensemble de n objets distincts. Un arrangement de r de ces objets sans considération de l’ordre et avec possibilité de
répétition des objets du même type, est appelé combinaison avec répétitions
de n objets pris r à la fois.
Remarque 65 Le nombre r peut être supérieur à n.
Proposition 66 Le nombre total des combinaisons avec répétitions de n objets pris r à la fois est égal à :
n 1
Cn+r
1
r
= Cn+r
1
Proposition 67 Le nombre de combinaisons avec répétitions de n objets
pris r à la fois et tel que chaque objet soit pris au moins une fois, est égal à :
Crn
1
1
;r
25
n
1.5.6
Partitions ordonnées
De…nition 68 Tout arrangement de n objets distincts en k groupes distincts
tel que le groupe A1 contient n1 éléments, le groupe A2 contient n2 éléments,
et ainsi de suite le groupe Ak contient nk éléments avec n1 + n2 + ::: + nk = n,
est appelé partition ordonnée.
Proposition 69 Le nombre total des partitions ordonnées d’un ensemble
E de cardinal n en k sous ensembles A1 ; A2 ; :::; Ak de tailles respectives
n1 ; n2 ; :::; nk telles que n1 + n2 + ::: + nk = n, est égal à :
n!
n1 !n2 !:::nk !
Cnn1 ;n2 ;:::;nk =
Démonstration : Le sous-ensemble A1 peut être formé de Cnn1 façons, le
sous-ensemble A2 peut être formé de Cnn2 n1 façons, le sous-ensemble A3 peut
être formé de Cnn3 n1 n2 façons, et ainsi de suite le sous-ensemble Ak peut être
formé de Cnn3 n1 n2 ::: nk 1 façons. D’après le principe de multiplication le
nombre total de façons de former les sous-ensembles A1 ; A2 ; :::; Ak est alors :
Cnn1 Cnn2 n1 Cnn3 n1
n3
n2 :::Cn n1 n2 ::: nk
1
(n n1 )!
n!
(n n1 )!n1 ! (n n1 n2 )!n2 !
(n n1 n2 )!
:::
(n n1 n2 n3 )!n3 !
(n n1 n2 ::: nk 1 )!
nk !0!
n!
=
n1 !n2 !:::nk !
=
Remarque 70 Les termes Cnn1 ;n2 ;:::;nk où n1 + n2 + ::: + nk = n, sont appelés
coe¢ cients multinomiaux.
Proposition 71 Soient a1 ; a2 ; :::; ak , k nombres réels et soit n un entier naturel non nul, alors :
X
(a1 + a2 + ::: + ak )n =
Cnn1 ;n2 ;:::;nk an1 1 an2 2 :::ank k
P
où la somme
est prise sur tous les entiers n1 ; n2 ; :::; nk tels que n1 + n2 +
::: + nk = n.
26
Démonstration : La démonstration est identique à cette du théorème
binomial.
1.5.7
Exemples de probabilités combinatoires
Example 72 Une urne contient 10 boules parmi lesquelles 3 sont rouges et
7 sont blanches. On tire au hasard une boule de l’urne ("au hasard" veut dire
que toutes les boules dans l’urne ont la même probabilité d’être tirées). Quelle
est la probabilité p1 de tirer une boule rouge ?
1
possibilités de tirer 1 boule dans l’urne (cas possibles)
Solution 73 Il y a C10
1
et il y a C3 possibilités de tirer 1 boule rouge de l’urne (cas favorables), donc :
p1 =
C31
3
=
1
C10
10
Example 74 Une urne contient 10 boules parmi lesquelles 3 sont rouges et
7 sont blanches. On tire au simultanément 2 boules de l’urne. Quelle est la
probabilité p2 d’obtenir une boule rouge et une boule blanche ?
2
possibilités de tirer 2 boules de l’urne (cas possibles)
Solution 75 Il y a C10
1
et il y a C3 possibilités de tirer 1 boule rouge et C71 possibilités de tirer 1 boule
blanche, donc il y a C31 C71 cas favorables, d’où :
p2 =
C31 C71
7
=
2
C10
15
Example 76 On tire au hasard 3 cartes d’un jeu contenant 52 cartes. Calculer la probabilité p3 d’obtenir un "as" parmi les cartes tirées.
3
Solution 77 Il y a C52
façons de tirer 3 cartes d’un jeu de 52 cartes. D’autre
1
2
part, il y a C4 façons de tirer un "as" parmi les 4 "as" du jeu et C48
façons
de tirer les 2 autres cartes parmi celles qui restent, d’où :
p3 =
2
C41 C48
3
C52
27
1.6
Probabilités conditionnelles
Example 78 (Exemple introductif 1)
On tire au hasard une carte d’un jeu de 52 cartes. Quelle est la probabilité
que ce soit une …gure rouge ?
Une carte rouge veut dire "cœur" ou "carreau" et une …gure veut dire "valet",
"dame" ou "roi". Il y a six …gures rouges dans le jeu de cartes. Notons A
l’évènement "la carte tirée est une …gure rouge". Alors :
3
6
=
52
26
Supposons que la carte tirée soit un "cœur" et notons cet évènement B. On
voudrait calculer la probabilité que l’évènement A soit réalisé sachant que
l’évènement B est réalisé, que l’on notera P (A B). En d’autre terme, on
cherche la probabilité que la carte tirée soit une …gure rouge sachant déjà que
c’est une carte "cœur". Cette information a priori sur la carte tirée a réduit
les possibilités. C’est comme si du paquet de jeu de cartes on a enlevé toutes
les cartes sauf les "coeurs". Ainsi, on tire une carte parmi les 13 "cœurs"
qui restent et on cherche la probabilité d’obtenir une "…gure". Alors, il y a 3
possibilités sur 13 d’obtenir une "…gure", donc :
P (A) =
6
3
=
13
26
Remarque 79 P (A B) est appelée probabilité conditionnelle de A sachant
B. On remarque que le calcul des probabilités conditionnelles s’e¤ectue de
manière similaire à celui des probabilités ordinaires. Cependant, l’espace des
possibilités est réduit à un sous-ensemble de l’espace de départ.
3
Par ailleurs, P (B) = 13
et P (A \ B) = 52
, et il est clair que :
52
P (A B) =
P (A B) =
3
=
13
3
52
13
52
=
P (A \ B)
P (B)
Example 80 (Exemple introductif 2)
On lance un dé équilibré. Quelle est la probabilité que le résultat soit un
nombre inférieur à 4 sachant que le résultat est un nombre pair ?
Soit A l’évènement "le nombre obtenu est inférieur à 4" et soit B l’évènement
"le nombre obtenu est pair". Il est clair que P (B) = 63 et P (A \ B) = 16 ,
d’où :
1
P (A \ B)
1
= 63 = = P (A B)
P (B)
3
6
28
Remarque 81 La probabilité conditionnelle d’un évènement A sachant un
évènement B réalisé est en réalité la probabilité "ordinaire de l’évènement A
en ramenant l’espace fondamental aux seules épreuves qui réalisent l’évènement B (B est supposé non vide).
De…nition 82 Soient A et B deux évènements de
tels que P (B) > 0.
Alors, la probabilité de l’évènement A sachant l’évènement B réalisé, notée
P (A B) ou bien PB (A), est dé…nie telle que :
P (A B) =
P (A \ B)
P (B)
(1.3)
Remarque 83 L’expression (1:3) est aussi appelée axiome des probabilités conditionnelles. On peut dé…nir naturellement et de façon symétrique
P (B A) telle que :
P (A \ B)
P (B A) =
P (A)
Ainsi, on peut déduire la relation suivante :
P (A \ B) = P (A B) P (B) = P (B A) P (A)
Example 84 Supposons qu’une main de bridge contient l’as de cœur. Quelle
est la probabilité que cette main contienne les 4 as ? (La main d’un joueur
de bridge contient 13 cartes)
Solution 85 Soit A l’évènement : "la main de bridge contient l’as de cœur".
Soit B l’évènement : "la main de bridge contient les 4 as". Alors ,
P (B A) =
Par contre
P (B) =
9
C48
12
C51
9
C48
13
C52
29
0; 010564
0; 0026
Example 86 On lance 2 dés symétriques. On sait que le maximum des résultats des deux dés est 6 (évènement B). Quelle est la probabilité que la
somme des résultats des deux dés soit au moins égale à 8 (évènement A) ?
Solution 87 L’espace fondamental
= (x; y) 2 f1; 2; 3; 4; 5; 6g
De plus, les singletons de
2
est dé…ni tel que :
x est le résultat du 1er dé et y celui du 2er dé
sont équiprobables. Remarquons d’abord que :
B = f(1; 6) ; (2; 6) ; (3; 6) ; (4; 6) ; (5; 6) ; (6; 6) ; (6; 5) ; (6; 4) ; (6; 3) ; (6; 2) ; (6; 1)g
et
A \ B = f(2; 6) ; (3; 6) ; (4; 6) ; (5; 6) ; (6; 6) ; (6; 5) ; (6; 4) ; (6; 3) ; (6; 2)g
Alors, d’après l’équiprobabilité dans
P (A) =
11
36
, on a :
P (A \ B) =
et
D’où
P (A \ B)
P (A B) =
=
P (B)
9
36
11
36
=
9
36
9
11
Proposition 88 Soit ( ; P ( ) ; P ) un espace probabilisé et soit B un évènement de tel que P (B) > 0. Alors, l’application PB (:) = P (: B) dé…nit
une probabilité sur le sous ensemble B de .
Démonstration : Véri…ons les axiomes de Kolmogorov pour l’application P (: B).
a) On sait que P (A \ B) 0 et P (B) > 0, d’où :
8A
; P (A B) =
P (A \ B)
P (B)
0
b)
P(
B) =
P ( \ B)
P (B)
=
=1
P (B)
P (B)
30
c) Soient A et C deux évènements de
P (A [ C B) =
tels que A \ C = ?, alors :
P f(A [ C) \ Bg
P f(A \ B) [ (C \ B)g
=
P (B)
P (B)
Or, les évènements A \ B et C \ B sont disjoints ((A \ B) \ (C \ B) =
(A \ C) \ B = ? \ B = ?), donc
P (A [ C B) =
P (A \ B) P (C \ B)
+
= P (A B) + P (C B)
P (B)
P (B)
Remarque 89 La probabilité PB (:) = P (: B) est dé…nie sur un nouvel
espace de probabilité (B; P (B)). Toutes les conséquences établies pour une
probabilité ordinaire sont valables pour les probabilités conditionnelles.
Example 90 Reprenons l’exemple précédent et calculons P (A B). Sachant
que P (A B) + P A B = 1, il est plus simple de calculer P A B et
puis déduire P (A B).
En e¤et ,
A \ B = f(1; 6) ; (6; 1)g
Alors
P A\B =
2
36
D’où
P A\B
=
P A B =
P (B)
2
36
11
36
=
2
11
Par conséquent
P (A B) = 1
P A B =1
2
9
=
11
11
Théorème 91 (T heoreme des probabilites totales)
Soit ( ; P ( ) ; P ) un espace de probabilité et soit B un évènement quelconque
de . Considérons une partition A1 ; A2 ; :::; An de i.e. la suite (Ai )i=1;2;:::;n
31
est une famille d’évènements de
alors :
P (B) =
tels que Ai \ Aj = ? 8i 6= j et
n
X
n
[
Ai = ,
i=1
P (B Ai ) P (Ai )
i=1
Démonstration : La suite (Ai )i=1;2;:::;n étant une partition de
n
[
=
Ai , d’où
, donc
i=1
B=B\
=B\
n
[
Ai
i=1
!
=
n
[
i=1
(B \ Ai )
Les sous-ensembles (B \ Ai )i=1;2;:::;n sont deux à deux disjoints, donc :
P (B) = P
(
n
[
i=1
)
(B \ Ai )
=
n
X
i=1
P (B \ Ai )
Or, d’après l’axiome des probabilités conditionnelles P (B \ Ai ) = P (B Ai ) P (Ai ),
d’où
n
X
P (B) =
P (B Ai ) P (Ai )
i=1
Théorème 92 (T heoreme de Bayes)
Soit ( ; P ( ) ; P ) un espace de probabilité et soit B un évènement quelconque
de . Soit A1 ; A2 ; :::; An une partition de . Alors, 8i = 1; 2; :::; n, on a :
P (B Ai ) P (Ai )
P (Ai B) = Pn
j=1 P (B Aj ) P (Aj )
Démonstration : D’après l’axiome des probabilités conditionnelles on
a:
P (Ai B) =
P (B Ai ) P (Ai )
P (B)
32
(1.4)
Par ailleurs, d’après le théorème des probabilités totales on a :
P (B) =
n
X
(1.5)
P (B Aj ) P (Aj )
j=1
En combinant les relations (1:4) et (1:5) on obtient le résultat.
Example 93 Trois machines M1 ; M2 ; M3 fabriquent respectivement 50%,
30% et 20% des pièces produites par une usine. Le pourcentage des pièces
défectueuses fabriquées par chaque machine est respectivement 3%, 4% et
5%.
1) On choisit une pièce au hasard parmi toutes les pièces produites par l’usine.
Calculer la probabilité que cette pièce soit défectueuse.
2) Supposons que la pièce choisie soit défectueuse, quelle est la probabilité
qu’elle ait été fabriquée par la machine M1 ?
Solution 94 Dé…nissons les évènements suivants :
D : "la pièce choisie est défectueuse"
Mi : "la pièce choisie est fabriquée par la machine Mi ", i = 1; 2; 3
1) Il est clair que M1 ; M2 ; M3 est une partition de
l’ensemble des pièces
produites par l’usine. Une pièce ne peut être fabriquée par deux machines à
la fois, i.e.
Mi \ Mj = ? 8i 6= j
D’autre part,
P (M1 ) = 0; 5 ;
P (D M1 ) = 0; 03 ;
P (M2 ) = 0; 3 ;
P (M3 ) = 0; 2
P (D M2 ) = 0; 04 ;
P (D M3 ) = 0; 05
Alors, d’après le théorème des probabilités totales :
P (D) =
3
X
i=1
P (D \ Mi ) =
3
X
P (D Mi ) P (Mi ) = 0; 037
i=1
2) D’après le théorème de Bayes, on a :
P (M1 D) =
15
P (D M1 ) P (M1 )
=
P (D)
37
33
0; 4
1.6.1
Extension de l’axiome des probabilités conditionnelles
Proposition 95 Soient E1 ; E2 ; :::; En des évènements de
tels que P
n
\
Ei
i=1
!
>
0. Alors :
!
n
\
P
Ei = P (E1 ) P (E2 E1 ) P (E3 E1 \ E2 ) :::P (En E1 \ E2 \ ::: \ En 1 )
i=1
(1.6)
Example 96 Une boite contient 6 appareils électriques, parmi lesquels 2 sont
défectueux. On prend au hasard 3 appareils dans la boite l’un après l’autre.
Calculer la probabilité que le premier et le troisième tirés soient en état de
fonctionnement et que le deuxième tiré soit défectueux.
Solution 97 Dé…nissons les évènements suivants :
Dk : "le k eme appareil tiré est défectueux", k = 1; 2; 3
Alors, on a à calculer la probabilité de l’évènement D1 \ D2 \ D3 . D’après
l’extension de l’axiome des probabilités conditionnelles, on a :
P D1 \ D2 \ D3 = P D1 P D2 D1 P D3 D1 \ D2
Or
P D1 =
4
;
6
P D2 D 1 =
2
;
5
D’où
P D1 \ D2 \ D3 =
1.6.2
P D3 D1 \ D2
3
4
1
5
Indépendance des évènements
De…nition 98 Soit ( ; P ( ) ; P ) un espace probabilisé et soient A et B deux
évènements de . On dit que A et B sont indépendants si :
P (A \ B) = P (A) P (B)
34
Example 99 On lance une pièce de monnaie 3 fois. On dé…nit les évènements A; B; C tels que :
A : "le 1er lancer a donné face"
B : "le 2eme lancer a donné face"
C : "on obtient 2 faces de suite"
Ainsi
1
A = fF F F; F F P; F P F; F P P g et P (A) =
2
1
B = fF F F; F F P; P F F; P F P g et P (B) =
2
1
C = fF F P; P F F g et P (C) =
4
Et
1
A \ B = fF F F; F F P g et P (A \ B) =
4
1
A \ C = fF F P g et P (A \ C) =
8
1
B \ C = fF F P; P F F g et P (B \ C) =
4
D’où
P (A) P (B) = 14 = P (A \ B), donc A et B sont indépendants
P (A) P (C) = 18 = P (A \ C), donc A et C sont indépendants
P (B) P (C) = 18 6= 14 = P (B \ C), donc B et C ne sont pas indépendants
Proposition 100 Soit ( ; P ( ) ; P ) un espace de probabilité et soit A et B
deux évènements de . Si A et B sont indépendants alors il en est de même
pour les évènements A et B, A et B, A et B.
Démonstration : Par hypothèse les évènements A et B sont indépendants, d’où P (A \ B) = P (A) P (B). Par ailleurs, A\B = B A = B A\B
et puisque A \ B B, alors :
P A\B
= P (B A \ B) = P (B)
= P (B)
P (A \ B)
P (A) P (B) = P (B) f1
P (A)g = P (B) P A
D’autre part
P A\B
= P A[B =1
= 1
P (A)
P (A [ B) = 1
fP (A) + P (B)
P (B) + P (A) P (B) = f1
35
P (A)g f1
P (A \ B)g
P (B)g = P A P B
De…nition 101 Soient A, B et C trois évènements de
évènements A, B, C sont :
1) deux à deux indépendants si :
. On dit que les
P (A \ B) = P (A) P (B) et P (A \ C) = P (A) P (C) et P (B \ C) = P (B) P (C)
2) mutuellement indépendants s’ils sont deux à deux indépendants et si de
plus :
P (A \ B \ C) = P (A) P (B) P (C)
Remarque 102 Supposons que les trois évènements A, B et C soient deux
à deux indépendants, i.e.
P (A \ B) = P (A) P (B) et P (A \ C) = P (A) P (C) et P (B \ C) = P (B) P (C)
Peut-on conclure que les évènements A, B et C sont mutuellement indépendants ? En général la réponse est négative.
Example 103 (Exemple de Bernstein)
On dispose d’un dé en forme de tétraèdre, i.e. ayant quatre faces coloriées
en rouge sur l’une des faces, en jaune sur une autre face, en vert sur la
troisième et avec les trois couleurs sur la quatrième face. On lance le dé une
fois. Soient les évènements suivants :
A : "la face apparue contient la couleur rouge"
B : "la face apparue contient la couleur jaune"
C : "la face apparue contient la couleur verte"
Etudions l’indépendance des évènements A, B et C. Dé…nissons alors les
évènements suivants :
R : "obtenir la face de couleur rouge"
J : "obtenir la face de couleur jaune"
V : "obtenir la face de couleur verte"
L’espace fondamental associé au dé est
= fR; J; V; RJV g. Alors :
A = fR; RJV g et P (A) =
36
1
2
B = fJ; RJV g et
C = fV; RJV g et
1
2
1
P (C) =
2
P (B) =
Il est clair que :
A\B =A\C =B\C
et P (A \ B) = P (A \ C) = P (B \ C) =
1
4
D’où
P (A \ B) = P (A) P (B) donc les évènements A et B sont indépendants
P (A \ C) = P (A) P (C) donc les évènements A et C sont indépendants
P (B \ C) = P (B) P (C) donc les évènements B et C sont indépendants
En d’autres termes, les évènements A, B et C sont deux à deux indépendants.
Cependant,
A \ B \ C = fRJV g et P (A \ B \ C) =
1
4
On remarque que
P (A B \ C) =
1
P (A \ B \ C)
= 1 6= = P (A)
P (B \ C)
2
Par conséquent, l’évènement A n’est pas indépendant des évènements B et
C réalisés en même temps.
Remarque 104 Il y a deux propriétés importantes caractérisant les évènements d’un espace de probabilité. On dit que deux évènements A et B sont
disjoints ou exclusifs si on a A \ B = ?, par contre on dit que deux évènements A et B sont indépendants si on a P (A \ B) = P (A) P (B).
Ces deux propriétés n’ont aucun rapport et ne doivent pas être confondues.
Cependant, elles sont la source de fréquentes confusions à cause des malencontreuses expressions "mutuellement exclusifs" et "mutuellement indépendants".
37
Example 105 On lance une pièce de monnaie 3 fois. Soient A; B; C et D
les évènements dé…nis tels que :
A : "le résultat du premier jet est ’face’"
B : "le résultat du deuxième jet est ’face’"
C : "le résultat du troisième jet est ’face’"
D : "le résultat du premier jet est ’pile’"
Discuter l’indépendance des évènements A; B; C et D. Sont-ils deux à deux
exclusifs ?
Solution 106 Il est clair que P (A) = P (B) = P (C) = P (D) = 12 .
D’autre part,
1
1
et P (A \ B \ C) =
4
8
Donc les évènements A; B et C sont mutuellement indépendants. Par ailleurs,
P (A \ D) = P (?) = 0 6= 41 = P (A) P (D), donc les évènements A et D ne
sont pas indépendants mais sont exclusifs.
P (A \ B) = P (A \ C) = P (B \ C) =
De…nition 107 Soit (Ai )i=1;2;:::;n une suite d’évènements de . On dit que
les évènements Ai , i = 1; 2; : : : ; n sont mutuellement indépendants si pour
toute combinaison des évènements Ai ; Aj ; :::; Ak , 1
i
j
k
n, les
conditions suivantes sont satisfaites :
i) P (Ai \ Aj ) = P (Ai ) P (Aj )
ii) P (Ai \ Aj!\ ::: \ Ak ) = P (Ai ) P (Aj ) :::P (Ak )
n
n
\
Y
iii) P
Ai =
P (Ai )
i=1
1.7
i=1
Probabilité produit
La dé…nition d’une probabilité sur un espace produit s’introduit de manière naturelle.
De…nition 108 Soient ( 1 ; P ( 1 ) ; P1 ) et ( 2 ; P ( 2 ) ; P2 ) deux espaces probabilisés. Alors, il existe une probabilité et une seule P = P1 P2 dé…nie sur
l’espace de probabilité ( = 1
P ( 2 )) telle que :
2; P ( 1)
P (A1
A2 ) = (P1
La probabilité P = P1
et P2 .
P2 ) (A1
A2 ) = P (A1 ) P (A2 )
8 (A1 ; A2 ) 2
P2 est appelée probabilité produit des probabilités P1
38
Example 109 Deux chasseurs A et B tirent simultanément sur une même
cible. Le chasseur A a une probabilité égale à 0; 25 de toucher la cible, alors
que le chasseur B a une probabilité égale à 0; 4 de faire mouche. Chacun
des deux chasseurs tire une fois. Quelle est la probabilité que la cible soit
touchée ?
Solution 110 Dé…nissons les évènements suivants :
T1 : "le chasseur A touche la cible"
T2 : "le chasseur B touche la cible"
Les deux chasseurs tirent simultanément sur la cible, donc on peut associer au
chasseur A l’espace fondamental 1 = T1 ; T 1 muni de la probabilité P1 telle
que P1 (T1 ) = 0; 25, et au chasseur B l’espace fondamental 2 = T2 ; T 2
muni de la probabilité P2 telle que P2 (T2 ) = 0; 4. Par dé…nition, l’espace de
probabilité associé aux deux chasseurs est tel que :
=
1
2
= T1 ; T 1
T2 ; T 2
On munit alors de la probabilité produit P = P1
Soit T l’évènement "la cible est touchée", alors :
P2 .
T = (T1 ; T2 ) ; T1 ; T 2 ; T 1 ; T2
Donc,
P (T ) = P (T1 ; T2 ) ; T1 ; T 2 ; T 1 ; T2
= P (T1 ; T2 ) + P T1 ; T 2 + P T 1 ; T2
= P1 (T1 ) P2 (T2 ) + P1 (T1 ) P2 T 2 + P1 T 1 P2 (T2 )
11
1 2 1 3 3 2
+
+
=
= 0; 55
=
4 5 4 5 4 5
20
On aurait pu procéder autrement, mais on se serait heurté à un problème
d’indépendance.
Pour tout évènement élémentaire (! 1 ; ! 2 ) de , la valeur de la probabilité
produit P est dé…nie par la formule suivante :
P f(! 1 ; ! 2 )g = P1 (! 1 ) P2 (! 2 )
Ainsi dé…nie P est alors une probabilité sur = 1
X
P f(! 1 ; ! 2 )g = 1
(! 1 ;! 2 )2
39
2,
i.e.
En e¤et, il su¢ t de remarquer que :
X
X
X
X X
P1 (! 1 ) P2 (! 2 ) =
P1 (! 1 )
P2 (! 2 ) = 1 1 = 1
P f(! 1 ; ! 2 )g =
(! 1 ;! 2 )2
!1 2
1
!2 2
!1 2
2
Remarque 111 Toute partie A de
A1 A2 , où A1 2 1 et A2 2 2 .
!2 2
1
2
n’est pas nécessairement de la forme
De…nition 112 La probabilité d’un évènement quelconque A de (non nécessairement de la forme A1 A2 ) est la somme des probabilités des évènements élémentaires dont il est la réunion.
Il est possible de généraliser la notion de produit de probabilités à n
espaces probabilisés.
1.7.1
Produit …ni de probabilités
Proposition 113 Soient ( 1 ; P ( 1 )) ; ( 2 ; P ( 2 )) ; : : : ; ( n ; P ( n )) n espaces de probabilité munis respectivement des probabilités P1 ; P2 ; :::; Pn . Il
existe une probabilité et une seule P dé…nie sur le modèle produit
( = 1
:::
P ( 2 ) ::: P ( n )) telle que :
2
n; P ( 1)
8 (A1 ; A2 ; :::; An ) 2 ,
1.7.2
P (A1
A2
:::
An ) =
n
Y
P (Ai )
i=1
Tirage de Bernoulli
De…nition 114 Si les espaces de probabilité ( i ; P ( i ))i=1;2;:::;n sont identiques et munis de la même probabilité P , alors le produit cartésien
=
n
:::
=
est
appelé
"ensemble
des
tirages
répétés
n
fois".
1
2
n
1
Remarque 115 Tirage dans une urne répété n fois avec remise.
Si i = 1 , i = 1; 2; :::; n est un ensemble ayant deux éléments, alors l’expérience des tirages répétés n fois est appelée "tirages de Bernoulli" (jeu de
pile ou face).
40
Example 116 Supposons que la probabilité de "pile" est p et que celle de
"face" est q = 1 p (mauvais équilibrage de la pièce) et cherchons la probabilité Pk d’obtenir une suite de n coups où "pile" apparaît k fois (k n). Il
est évident que Pk = Cnk pk (1 p)n k .
Considérons par exemple le cas n = 3.
Soit A l’ensemble des parties à trois coups où "face" est obtenue au plus 1
fois. Soit B l’ensemble des parties en trois coups où "pile" et "face" sont
obtenus au moins 1 fois chacun. Montrer que, si p 6= 21 , alors les évènements
A et B ne sont plus indépendants.
En e¤et, l’espace fondamental associé à cette expérience est :
= fP P P; P P F; P F P; F P P; P F F; F P F; F F P; F F F g
Les évènements A et B sont tels que :
A = fP P P; P P F; P F P; F P P g
B = fP P F; P F P; F P P; F F P; F P F; P F F g
Donc
A \ B = fP P F; P F P; F P P g
D’où
P (A) = p2 (3
2p)
;
P (B) = 3p (1
p) et P (A \ B) = 3p2 (1
p)
Par ailleurs, les évènements A et B sont indépendants si P (A \ B) = P (A) P (B),
i.e. 3p2 (1 p) = 3p2 (3 2p) p (1 p), d’où 2p2 3p + 1 = 0. Alors, on en
déduit deux solutions p1 = 1 et p2 = 12 . La première solution p1 étant triviale
(pièce ayant deux face identiques), par conséquent l’égalité a lieu uniquement
si p = p2 = 12 .
1.8
Comment appréhender la résolution d’un
problème de calcul de probabilité
Dans une famille où les deux parents sont du groupe sanguin A, avec
génotype AO, les enfants sont du groupe A avec une probabilité égale à 34 , ou
bien du groupe O avec une probabilité égale à 14 . Déterminer la probabilité
que dans une famille de 5 enfants :
41
1. tous les enfants aient le même groupe sanguin.
2. les deux premiers enfants soient du groupe A, les trois suivants du
groupe O.
3. deux des enfants soient du groupe O, les trois autres du groupe A.
4. il y ait au moins 2 enfants du groupe A.
5. il y ait plus d’enfants du groupe O que d’enfants du groupe A.
Pour établir la solution d’un exercice de probabilité on doit procéder
généralement suivant les étapes suivantes :
a. comprendre les énoncés en s’aidant de son imagination
b. formaliser les questions posées, i.e. identi…er l’évènement auquel la
question fait référence et transcrire la question en langage ensembliste.
c. utiliser des évènements simples, i.e. formaliser la question à l’aide de
la combinaison de plusieurs évènements simples en utilisant les opérations
d’union, d’intersection et de complémentation
d. veiller à la parcimonie dans l’utilisation des évènements
e. bien identi…er les formules du cours à utiliser
f. bien formaliser les données disponibles
Solution commentée
1. Pour la première question de l’exercice, l’évènement auquel on s’intéresse
est B : «tous les enfants ont le même groupe sanguin» . Il est clair que
la phrase qui dé…nit l’évènement B peut être transcrite telle que «tous les
enfants sont du groupe A ou bien tous les enfants sont du groupe O» . On
remarque que la deuxième dé…nition de l’évènement B est la combinaison
de deux évènements S et T qui ont pour dé…nitions respectives «tous les
enfants sont du groupe A» et «tous les enfants sont du groupe O» . Alors
l’évènement B peut être formalisé tel que :
B =S[T
Les évènements S et T peuvent encore être simpli…és. En e¤et, si on dé…nit
les évènements suivants :
Ak : «le k eme enfant de la famille est du groupe A» k = 1; 2; 3; 4; 5
Alors, puisque Ak c’est l’évènement "le k eme enfant n’est pas du groupe A"
cela veut dire que "le k eme enfant est du groupe O", on a :
S = A1 \ A2 \ A3 \ A4 \ A5 et T = A1 \ A2 \ A3 \ A4 \ A5
42
Par ailleurs, il est évident que le groupe sanguin d’un enfant de la famille
est indépendant du groupe sanguin des autres, i.e. les évènements Ak et Ak ,
k = 1; 2; 3; 4; 5 sont deux à deux indépendants. D’autre part, il est clair que
P (Ak ) = 43 et P Ak = 41 quelque soit k = 1; 2; 3; 4; 5. Donc
P (S) = P (A1 \ A2 \ A3 \ A4 \ A5 )
3
4
= P (A1 ) P (A2 ) P (A3 ) P (A4 ) P (A5 ) =
5
et
P (T ) = P A1 \ A2 \ A3 \ A4 \ A5
5
1
4
= P A1 P A2 P A3 P A 4 P A5 =
Les évènements S et T sont incompatibles, i.e. S \T = ? d’où
P (B) = P (S [ T ) = P (S) + P (T ) =
3
4
5
5
1
4
+
2. Essayons de formaliser la deuxième question. Soit l’évènement C : «les
deux premiers enfants sont du groupe A et les trois suivants sont du groupe
O» . D’après les notations de la première question l’évènement C peut être
formalisé tel que :
C = A1 \ A2 \ A3 \ A4 \ A5
D’après la proposition 97, on a :
P (C) = P A1 \ A2 \ A3 \ A4 \ A5
= P (A1 ) P (A2 ) P A3 P A4 P A5 =
3
4
2
1
4
3
3. La troisième question est apparemment semblable à la deuxième. Cependant, elles di¤èrent complètement car l’ordre de répartition des groupes sanguins des enfants n’est pas …xé dans la troisième question. On dé…nit l’évènement D : «deux des enfants sont du groupe O et les trois autres sont du
groupe A» . La dé…nition de D peut être reformulée telle que «il y a 3 enfants
du groupe A dans la famille» , car forcément les deux autres sont du groupe
O. Dé…nissons alors les évènements suivants :
Ek : «il y a k enfants du groupe A parmi les enfants» ; k = 0; 1; 2; 3; 4; 5:
43
Ainsi D n’est autre que l’évènement E3 . Par ailleurs, il y a C53 façons d’obtenir
3 enfants du groupe A, i.e.
E3 = A1 \ A2 \ A3 \ A4 \ A5 [ A1 \ A2 \ A3 \ A4 \ A5 [:::[ A1 \ A2 \ A3 \ A4 \ A5
L’expression de E3 est l’union disjointe de C53 intersections de même proba3 1 2
. D’où
bilité 34
4
3
2
3
1
P (E3 ) =
4
4
4. Soit F l’évènement : «il y a au moins 2 enfants du groupe A dans la
famille» . En utilisant les évènements dé…nis plus haut, F peut être écrit tel
que :
F = E2 [ E3 [ E4 [ E5
C53
Par ailleurs, les évènements Ek ; k = 0; 1; 2; 3; 4; 5 sont deux à deux disjoints,
alors
5
X
P (F ) =
P (Ek )
k=2
D’où le résultat :
P (F ) =
5
X
C5k
k=2
3
4
k
1
4
5 k
5. Finalement, considérons l’évènement G : «il y a plus d’enfants du groupe
O que d’enfants du groupe A dans la famille» . Il est clair que l’évènement G
peut être dé…ni da la manière suivante : «il y a au plus 2 enfants du groupe A
dans la famille» . Donc, comme il a été remarqué plus haut G peut s’exprimer
en fonction des évènements Ek tel que :
P (G) =
2
X
P (Ek )
k=0
D’après la question 4 le résultat est immédiat :
P (G) =
2
X
C5k
k=0
3
4
k
1
4
5 k
Il est clair que ce genre de développement de la solution pour un problème de
calcul de probabilité est un peut lourd et fastidieux, surtout quand l’espace
de probabilité est volumineux. Dans le but d’alléger et de simpli…er les solutions des problèmes de calcul de probabilité, nous allons introduire la notion
fondamentale de variable aléatoire.
44
Chapitre 2
Variables aléatoires
Introduction
Lors de l’évaluation des probabilités des évènements nous ne nous intéressons pas essentiellement aux éléments de l’espace de probabilité mais à
certaines de leurs propriétés caractéristiques. Par exemple, quand on a lancé
une pièce trois fois on s’est préoccupé uniquement du nombre de faces apparues. Quand une expérience est réalisée on ne s’intéresse pas toujours à
l’épreuve en tant que telle mais souvent on la caractérise par une valeur numérique en fonction de la "propriété" considérée. Quand on lance une pièce
trois fois on peut caractériser les éléments de par le nombre de "face" qu’ils
contiennent. Ainsi, l’épreuve obtenue peut être F P F , mais on ne retient de
cette épreuve que le nombre de "face" sans considération de l’ordre dans
lequel ces "face" sont apparues. De ce fait, l’espace fondamental peut être
subdivisé en évènements en fonction d’une ou plusieurs caractéristiques bien
dé…nies sur les éléments de . Ainsi, on obtient une partition de l’espace de
probabilité.
2.1
Notion de variable aléatoire
Considérons l’expérience aléatoire qui consiste à lancer trois fois une pièce
de monnaie équilibrée. Soit X l’application qui à tout épreuve ! i 2 associe le nombre de "face" qui y …gurent. Alors, on obtient la correspondance
suivante :
45
A tout élément ! i 2
on associe un nombre réel X (! i ). Par exemple,
X (F F P ) = 2, X (P F P ) = 1, etc. On remarque que X est une application
de dans R telle que X ( ) = f0; 1; 2; 3g. Plus généralement, considérons
une expérience aléatoire dichotomique, i.e. une expérience aléatoire ayant
deux résultats possibles un succès (S) ou une défaite (D). Soit p la probabilité d’obtenir un succès et q = 1 p la probabilité d’obtenir une défaite.
Répétons n fois cette expérience dans les mêmes conditions et considérons le
nombre d’apparitions du résultat (ou épreuve) S. Il est évident que l’ordre
dans lequel apparaissent les succès n’a pas d’importance. Alors, l’espace fondamental est l’ensemble des suites des caractères "S" et/ou "D" du type
fS; S; D; S; D; :::; D; S; Dg. Les éléments de peuvent être caractérisés par
le nombre de "S" qu’ils contiennent. Ainsi, cette propriété nous permet de
partitionner l’espace en (n + 1) sous-ensembles A0 ; A1 ; A2 ; :::; An 1 ; An , où
Ak est le sous-ensemble des suites de contenant exactement k caractères
"S".
46
A cette partition de on associe une fonction X dé…nie sur ( ; P ( )) et à
valeurs dans R telle que :
X (Ak ) = k
Il est clair que la fonction X est une fonction d’ensemble, appelée aussi
variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )) telle que :
8! 2 Ak ; X (!) = k; 0
k
n
De…nition 117 Soit ( ; P ( )) un espace de probabilité. On appelle variable
aléatoire toute application mesurable X dé…nie sur ( ; P ( )) et à valeurs
dans R.
Remarque 118 L’évènement Ak est l’image réciproque du singleton fkg de
R, i.e.
Ak = f! 2
X (!) = kg = X 1 (fkg)
On notera en général l’évènement Ak symboliquement par l’expression (X = k).
2.2
Distribution d’une variable aléatoire
Déterminons la probabilité de l’évènement Ak dé…ni plus haut. Pour
cela
particulier du sous-ensemble Ak , par exemple
0 considérons un élément
1
@S; S; :::; S ; D; D; :::; DA. Puisque les expériences sont répétées de façon in| {z } | {z }
k
n k
dépendante, alors on a :
P (Ak ) = P f(S; S; :::; S; D; D; :::; D)g = pk (1
p)n
k
Par ailleurs, on sait que tous les éléments de Ak sont équiprobables car ils
contiennent le même nombre de "S". De plus, on a Card (Ak ) = Cnk . Par
conséquent, sachant que la probabilité d’un évènement est la somme des
probabilités des évènements élémentaires qui le composent, on déduit que :
P (Ak ) = Cnk pk (1
47
p)n
k
De…nition 119 Soit ( ; P ( ) ; P ) un espace probabilisé et soit X une variable aléatoire dé…nie sur ( ; P ( )) telle que X ( ) = fx1 ; x2 ; :::; xn g. Alors,
la fonction numérique PX dé…nie sur X ( ) et à valeurs dans R+ , telle que :
PX (xi ) = pi = P X
1
(fxi g) ; i = 1; 2; :::; n
est appelée loi ou distribution de la variable aléatoire X.
Remarque 120 L’ensemble des évènements [X 1 (fxi g) = Ai ]i=1;2;:::;n forment
une partition de . L’idée de la distribution d’une variable aléatoire est schématisée par le diagramme suivant :
Proposition 121 La fonction PX véri…e les propriétés suivantes :
a) P
Pour tout élément xi 2 X ( ) ; PX (xi ) 0.
b) ni=1 PX (xi ) = 1
Démonstration : a) PX (xi ) = P (X = xi ) = P (f! 2
X (!) = xi g) =
P (Ai ) 0
P
P
P
b) D’après!la remarque (117), ni=1 PX (xi ) = ni=1 P fX 1 (fxi g)g = ni=1 P (Ai ) =
n
[
P
Ai = P ( ) = 1, car la famille (Ai )i=1;2;:::;n est un système de constii=1
tuants (partition) de
.
48
Remarque 122 La fonction PX est une probabilité dé…nie sur le nouvel espace de probabilité (X( ); P (X( ))). En général, on présente la distribution
d’une variable aléatoire X telle que fxi ; PX (xi )gi=1;2;:::;n ou bien sous forme
d’un tableau à simple entrée tel que :
X
x1
x2
::: xi
:::
xn
PX (xi )
p1
p2
:::
:::
pn
pi
n
X
pi = 1
i=1
Proposition 123 Toute fonction numérique dé…nie sur R et satisfaisant
aux conditions de la proposition (118), peut être considérée comme la loi
d’une variable aléatoire dé…nie sur un espace de probabilité ( ; P ( )).
2.2.1
Fonction de répartition d’une variable aléatoire
De…nition 124 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )) et à valeurs dans R. On appelle fonction de répartition de
la variable aléatoire X, la fonction numérique F dé…nie sur R telle que :
F (x) = P (X
Remarque 125 Pour tout x 2 R, F (x) =
Propriété
x)
P
xi x
PX (xi ).
– La fonction de répartition est une fonction positive, croissante, constante
sur tout intervalle [xi ; xi+1 [, i = 1; 2; :::; n. De plus, elle est nulle sur l’intervalle ] 1; x1 [ et est égale à 1 sur l’intervalle [xn ; +1[.
– F (x) est une fonction continue à droite sur tout intervalle [xi ; xi+1 [.
49
Représentation graphique d’une fonction de répartition
2.2.2
Fonction d’une variable aléatoire
De…nition 126 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )). Soit une fonction mesurable dé…nie sur une partie de
R contenant X( ). L’application composée oX est une nouvelle variable
aléatoire notée (X).
Remarque 127
toire X.
(X) est communément appelée fonction de la variable aléa-
Example 128 Soit
la fonction dé…nie sur R telle que : x ! ax + b.
Alors la variable aléatoire (X) est telle que (X) = aX + b.
Soit g une autre fonction dé…nie sur R, telle que : x ! x2 , alors g (X) =
X 2.
2.3
Moments d’une variable aléatoire
De…nition 129 Soit ( ; P ( ) ; P ) un espace probabilisé et soit X une variable aléatoire dé…nie sur ( ; P ( )). Soit (xi ; pi )i=1;2;:::;n la distribution de
la variable aléatoire X. Pour tout entier r 1, on appelle moment d’ordre r
de la variable aléatoire X, noté mr (X), la quantité :
n
X
mr (X) =
xri PX (xi )
(2.1)
i=1
50
Remarque 130 mr (X) est aussi appelé moment non centré d’ordre r de X
ou bien moment d’ordre r de X au voisinage de zéro.
2.3.1
Espérance mathématique ou moyenne d’une variable aléatoire
De…nition 131 Le moment d’ordre 1 de X, m1 (X), est appelé espérance
mathématique de la variable aléatoire X, notée E(X) et est dé…nie telle que :
E(X) = m1 (X) =
n
X
xi PX (xi )
i=1
Propriétés
– L’espérance mathématique de X peut aussi être dé…nie telle que :
X
E (X) =
X (!) P (f!g)
!2
Démonstration : On sait que X (!) = xi , or il a été déjà établi que :
X
PX (xi ) = P X 1 (fxi g) = P (! 2
X (!) = xi ) =
P (f!g)
!2X
1 (x )
i
D’où,
E (X) =
n
X
i=1
Or, fX
xi
X
!2X
1 (x
P (f!g) =
n
X
X
i=1 !2X
i)
1
1 (x
xi P (f!g) =
i)
n
X
X
i=1 !2X
(xi )g ; i = 1; 2; :::; n est une partition de , par conséquent
X
X
E (X) ==
X (!) P (f!g) =
X (!) P (f!g)
n
!2
[
!2
X
1 (x
i)
i=1
51
1 (x
X (!) P (f!g)
i)
– Soit
une fonction numérique dé…nie sur X( ), alors :
E f (X)g =
n
X
(xi ) PX (xi )
i=1
Démonstration : D’après la première propriété, on a :
X
E f (X)g =
(
X) (!) P (f!g)
!2
Par ailleurs, la suite fX
d’où
E f (X)g =
Or,
P
!2X
1 (x
n
X
i)
X
i=1 !2X
1
(xi )g ; i = 1; 2; :::; n constitue une partition de
(X) (!) P (f!g) =
1 (x )
i
n
X
i=1
(xi )
X
!2X
1 (x
,
P (f!g)
i)
P (f!g) = PX (xi ), par conséquent
E f (X)g =
n
X
(xi ) PX (xi )
i=1
Remarque 132 1) Si E(X) = 0, on dit que la variable aléatoire X est
centrée.
2) E (X r ) = mr (X)
2.3.2
Propriété fondamentale de l’espérance mathématique
Soit ( ; P ( ) ; P ) un espace probabilisé et soit X une variable aléatoire
dé…nie sur ( ; P ( )). Soient '; deux fonctions mesurables dé…nies sur
X( ) et ; deux nombres réels. Alors :
E f ' (X) +
(X)g = E f' (X)g + E f (X)g
52
Démonstration : En e¤et,
E f ' (X) +
(X)g =
=
=
n
X
i=1
n
X
f ' (xi ) +
i=1
n
X
(xi )g PX (xi )
' (xi ) PX (xi ) +
(xi ) PX (xi )
i=1
' (xi ) PX (xi ) +
i=1
=
n
X
n
X
(xi ) PX (xi )
i=1
E f' (X)g + E f (X)g
L’opérateur de l’espérance mathématique 0 E 0 est une forme linéaire sur l’espace vectoriel des variables aléatoires dé…nies sur ( ; P ( )).
Conséquences
– Soit
une constante réelle. Alors
E (X + ) = E (X) +
En e¤et,
E (X + ) =
n
X
(xi + ) PX (xi ) =
i=1
– Soit
n
X
xi PX (xi )+
i=1
n
X
PX (xi ) = E (X)+
i=1
une constante réelle. Alors
E ( X) = E (X)
En e¤et,
E ( X) =
n
X
xi PX (xi ) =
i=1
2.3.3
n
X
xi PX (xi ) = E (X)
i=1
Moments centrés d’une variable aléatoire
De…nition 133 Soit ( ; P ( ) ; P ) un espace probabilisé et soit X une variable aléatoire dé…nie sur ( ; P ( )). Pour tout entier naturel r
1, on
53
appelle moment centré d’ordre r de la variable aléatoire X, noté r (X), le
moment d’ordre r de la variable aléatoire fX E (X)g, dé…ni tel que :
r
r
(X) = E f[X
E (X)] g =
n
X
i=1
fxi
E (X)gr PX (xi )
Remarque 134 Quelque soit la variable aléatoire X son moment centré
d’ordre 1, 1 (X), est toujours nul. En e¤et,
1
(X) = E fX
2.3.4
m1 (X)g = E (X)
m1 (X) = m1 (X)
m1 (X) = 0
Variance d’une variable aléatoire
De…nition 135 On appelle variance d’une variable aléatoire X, notée V ar(X),
le moment centré d’ordre deux de la variable aléatoire X, i.e.
V ar (X) =
2
(X) = E [X
2
E (X)]
=
n
X
i=1
fxi
m1 (X)g2 PX (xi )
Propriétés
– Pour les calculs on utilise souvent la formule développée de la variance
dé…nie telle que :
V arX = E X 2
[E (X)]2
En e¤et,
V arX = E [X
= E X2
E (X)]2 = E X 2
2XE (X) + [E (X)]2
2 [E (X)]2 + [E (X)]2 = E X 2
[E (X)]2
– V ar(X) 0 8X, évident par dé…nition.
– V ar(X) = 0 () X variable certaine, i.e. X = constante.
Démonstration : Si la variable aléatoire X est constante, i.e. si X = a,
alors :
E (a)g2 = E (a
V ar (X) = V ar (a) = E fa
a)2 = 0
Réciproquement, si V ar(X) = 0, alors
V ar (X) =
n
X
i=1
fxi
m1 (X)g2 PX (xi ) = 0
54
Mais une somme de termes positifs nulle implique que chaque terme est nul,
d’où fxi m1 (X)g2 = 0 =) xi = m1 (X) 8i, par conséquent la variable
X = E (X) =constante.
– La variance est invariante par translation, i.e.
V ar (X + ) = V ar (X)
8
Démonstration : En e¤et,
E (X + )]2
V ar (X + ) = E [X +
]2
= E [X
E (X) +
= E [X
E (X)]2 = V ar (X)
– 8 , V ar ( X) = 2 V ar (X)
Démonstration : En e¤et,
V ar ( X) = E [ X
=
2
E [X
E ( X)]2 = E
E (X)]2 =
2
2
[X
E (X)]2
V ar (X)
– On peut énoncer les deux points précédents en un seul.
V ar ( X + ) =
2.3.5
2
V ar (X)
Ecart-type d’une variable aléatoire
De…nition 136 On appelle écart-type d’une variable aléatoire X, noté
la racine carrée de sa variance, i.e.
p
=
V ar (X)
X
2.3.6
X,
Fonction génératrice des moments d’une variable
aléatoire
De…nition 137 Soit ( ; P ( ) ; P ) un espace probabilisé. Soit X une variable aléatoire dé…nie sur ( ; P ( )) et prenant des valeurs entières. On
55
appelle fonction génératrice des moments de la variable aléatoire X, notée
GX (s), la fonction numérique dé…nie telle que :
GX (s) = E sX =
n
X
sxi PX (xi )
s 2 R+
i=1
Propriétés de la fonction génératrice des moments
0
dGX (s)
ds
– GX (1) =
0
En e¤et, GX (s) =
= E(X)
P
= ni=1 xi sxi 1 PX (xi ), d’où, pour s = 1, on a :
s=1
dGX (s)
ds
0
G (1) =
n
X
xi PX (xi ) = E (X)
i=1
00
0
0
– V ar(X) = GX (1) + GX (1) GX2 (1)
P
2
00
En e¤et, GX (s) = d GdsX2(s) = ni=1 xi (xi
1, on a :
00
GX (1) =
n
X
xi (xi
i=1
1) sxi 2 PX (xi ), d’où, pour s =
1)g = E X 2
1) PX (xi ) = E fX (X
00
E (X)
0
Donc, E (X 2 ) = GX (1) + GX (1), par conséquent
0
00
V ar(X) == GX (1) + GX (1)
0
GX2 (1)
Remarque 138 Si le moment d’ordre r de la variable aléatoire X, E (X r ),
(r)
existe alors la dérivée GX (s) de la fonction génératrice des moments GX (s)
de X véri…e :
(r)
GX (1) = E[X(X 1):::(X r + 1)]
2.4
Inégalité de Bienaymé-Tchébichev
Théorème 139 Soit ( ; P ( ) ; P ) un espace probabilisé. Soit X une variable aléatoire dé…nie sur ( ; P ( )) admettant pour ensemble de variation
X( ) = fx1 ; x2 ; :::; xn g et pour distribution PX = fPX (xi )gi=1;2;:::n . Soit
E(X) sa moyenne et X son écart-type. Alors :
8" > 0;
P fjX
E (X)j
56
"g
2
X
"2
Remarque 140 On peut formuler cette assertion par passage à l’évènement
contraire, i.e.
8" > 0;
P fjX
E (X)j < "g > 1
2
X
"2
Démonstration : Soit I = f1; 2; :::; ng. Par dé…nition on a :
X
fxi E (X)g2 PX (xi )
V ar (X) = 2X =
i2I
Posons : J = fi 2 I jX E (X)j "g, ainsi J
I et donc
X
X
X
2
2
2
2
=
fx
E
(X)g
P
(x
)
fx
E
(X)g
P
(x
)
"
PX (xi )
i
X
i
i
X
i
X
i2I
Or,
P
i2J
i2J
PX (xi ) = P (jX
"), d’où
E (X)j
2
X
i2J
"2 P (jX
E (X)j
")
D0 où le résultat.
Remarque 141 En particulier, si " = t
Tchébichev peut être écrite telle que :
X,
t 2 R, l’inégalité de Bienaymé-
1
t2
Sous cette forme, l’inégalité de Bienaymé-Tchébichev donne une signi…cation
plus précise à la notion d’écart-type. En e¤et,
Si t = 1, P fjX E (X)j
1, trivial
Xg
Si t = 2, P fjX E (X)j 2 X g 14 que l’on peut traduire par P (X 2 [A; B])
3
où A = E (X) 2 X et B = E (X) + 2 X . Cette inégalité signi…e que la
4
variable aléatoire X prend ses valeurs à l’intérieur de l’intervalle [A; B] est
supérieure à 0; 75.
1
Si t = 10, P fjX E (X)j 10 X g 100
que l’on écrit autrement P (X 2 [A0 ; B 0 ])
99
où A0 = E (X) 10 X et B 0 = E (X) + 10 X . Dans ce cas, la probabi100
lité que la variable aléatoire X prend ses valeurs à l’intérieur de l’intervalle
[A0 ; B 0 ] est supérieure à 0; 99.
Généralement, si la valeur de l’écart-type est faible on dit que la variable aléatoire X est peu dispersée et les valeurs éventuelles de X seront très voisines
de E(X): Ainsi, on peut considérer que l’écart-type mesure la dispersion de
la variable aléatoire X.
P fjX
E (X)j
57
t
Xg
Chapitre 3
Couple de variables aléatoires
Considérons deux variables aléatoires X et Y dé…nies sur le même espace
de probabilité ( ; P ( )) et étudions leur comportement simultané.
Example 142 On lance deux dés symétriques. Soit X la variable aléatoire"valeur
absolue de la di¤érence des points obtenus", et soit Y la variable aléatoire
"somme des points obtenus".
De…nition 143 Soient X ( ) = fx1 ; x2 ; :::; xn g l’ensemble de variation de la
variable aléatoire X et fA1 ; A2 ; :::; An g la partition de induite par X. De
même, soient Y ( ) = fy1 ; y2 ; :::; ym g l’ensemble de variation de la variable
aléatoire Y et fB1 ; B2 ; :::; Bm g la partition de
induite par Y . On appelle
variable aléatoire à valeurs dans R2 , toute application V = (X; Y ) de dans
telle que V ( ) = S T .
Remarque 144 V = (X; Y ) associe à chaque ! 2
(xi ; yj ) 2 S T .
3.1
un couple de valeurs
Distribution de probabilité d’un couple
de variables aléatoires
De…nition 145 Soient X et Y les deux variables aléatoires dé…nies ci-dessus.
La fonction numérique PXY dé…nie sur l’ensemble S T et à valeurs dans
l’intervalle [0; 1] telle que :
PXY (xi ; yj ) = pij = P (f! 2
X (!) = xi et Y (!) = yj g) i = 1; 2; :::; n et j = 1; 2; :::; m
58
est appelée loi de probabilité conjointe des variables aléatoires X et Y .
Remarque 146 Il est aisé de constater que :
1
PXY (xi ; yj ) = pij = P X
En remarquant que Ai = X
sous la forme :
(fxi g) \ Y
1
1
(fyi g)
i = 1; 2; :::; n et j = 1; 2; :::; m
1
(fxi g) et Bj = Y
(fyi g), on peut écrire pij
pij = P (Ai \ Bj )
Par ailleurs, (Ai )i=1;2;:::;n et (Bj )j=1;2;:::;m sont deux partitions de et a fortiori (Ai \ Bj )i=1;2;:::;n; j=1;2;:::;m . Par conséquent, il est clair que les pij véri…ent les propriétés suivantes :
0, 8i; j
pij
et
n X
m
X
pij = 1
i=1 j=1
De…nition 147 Les composantes X et Y de la variable aléatoire vectorielle
V sont des variables aléatoires à valeurs dans R, appelées variables aléatoires
marginales. Les distributions des variables aléatoires marginales sont appelées
lois marginales.
Tableau de contingence
On adoptera les notations suivantes :
m
X
pij = pi:
j=1
,
n
X
pij = p:j et
i=1
n X
m
X
pij = p::
i=1 j=1
On a pour habitude de présenter la loi conjointe de X et Y sous la forme
d’un tableau à double entrée, appelé tableau de contingence.
X Y
x1
x2
:::
xi
:::
xn
PY
y1
p11
p21
:::
pi1
:::
pn1
p:1
y2
p12
p22
:::
pi2
:::
pn2
p:2
::: yj
::: p1j
::: p2j
::: :::
::: pij
::: :::
::: pnj
::: p:j
59
::: ym
::: p1m
::: p2m
::: :::
::: pim
::: :::
::: pnm
::: p:m
PX
p1:
p2:
:::
pi:
:::
pn:
p:: = 1
La loi de probabilité de la variable aléatoire X est la loi marginale notée
PX . Elle est dé…nie telle que :
PX (xi ) = pi: i = 1; 2; :::; n
La loi de probabilité de la variable aléatoire Y est la loi marginale notée PY .
Elle est dé…nie telle que :
PY (yi ) = p:j j = 1; 2; :::; m
Remarque 148 On retrouve la loi marginale de X en sommant les éléments
du tableau ligne par ligne. De même, on retrouve la loi marginale de Y en
sommant les éléments du tableau colonne par colonne.
Example 149 Reprenons l’exemple précédent. Alors, = f(i; j)
et les variables aléatoires X et Y sont dé…nies telles que :
X = ji
jj
i; j = 1; 2; 3; 4; 5; 6 g,
et Y = i + j
D’où, X ( ) = f0; 1; 2; 3; 4; 5g et Y ( ) = f2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12g. La
distribution du couple (X; Y ) est donnée par le tableau de contingence suivant :
X Y
0
1
2
3
4
5
PY
2
1
36
3
0
4
1
36
5
0
1
36
0
0
0
0
0
2
36
0
0
0
0
2
36
0
0
0
2
36
0
0
2
36
1
36
2
36
3
36
4
36
5
36
0
2
36
6
0
0
2
36
0
0
7
0
2
36
0
2
36
0
2
36
6
36
8
1
36
0
2
36
0
2
36
9
0
2
36
0
2
36
0
0
0
5
36
4
36
10 11 12 PX
1
1
6
0 36
36
36
2
10
0 36
0
36
2
8
0
0
36
36
6
0 0 0
36
4
0 0 0
36
2
0 0 0
36
3
2
1
1
36
36
36
Proposition 150 Soit PXY (xi ; yj ) = pij , i = 1; 2; :::; n et j = 1; 2; :::; m la
loi de probabilité conjointe des variables aléatoires X et Y . Soit PX (xi ) = pi: ,
i = 1; 2; :::; n la loi marginale de X et PY (yj ) = p:j , j = 1; 2; :::; m la loi
marginale de Y . Alors :
a. P
PXY (xi ; yj ) = pij 0 8i; j
b. Pm
j=1 PXY (xi ; yj ) = PX (xi ) = pi: , i = 1; 2; :::; n
n
c. Pi=1 P
XY (xi ; yj ) = PY (yj ) = p:j , j = 1; 2; :::; m
n Pm
d. i=1 j=1 PXY (xi ; yj ) = p:: = 1
60
Démonstration : En e¤et,
a. PXY (xi ; yj ) = P (Ai \ Bj ) 0 8i; j
(m
)
(
[
Pm
Pm
b. j=1 PXY (xi ; yj ) = j=1 P (Ai \ Bj ) = P
(Ai \ Bj ) = P Ai \
j=1
P (Ai \ ) = P (Ai ) = PX (xi ) = pi:
(n
)
(
[
Pn
Pn
c. i=1 PXY (xi ; yj ) = i=1 P (Ai \ Bj ) = P
(Ai \ Bj ) = P Bj \
i=1
m
[
n
[
i=1
P (Bj \ ) = P (Bj ) = PY (yj ) = p:jn
o
Pm
P
P
P P
Pn
p
= ni=1 pi: = ni=1 P (Ai ) =
d. ni=1 m
P
(x
;
y
)
=
i j
j=1 ij
j=1 XY
i=1
!
n
[
P
Ai = P ( ) = 1
i=1
3.1.1
Fonction de répartition d’un couple de variables
aléatoires
De…nition 151 Soit (X; Y ) un couple de variables aléatoires à valeurs réelles.
On appelle fonction de répartition du couple (X; Y ) la fonction numérique
FXY dé…nie sur R2 telle que :
FXY (x; y) = P (X
x; Y
y)
Propriétés
1. FXY (x; y) P
0 8x; yP
2. FXY (x; y) = xi x yj y P (X = xi ; Y = yj )
3. lim FXY (x; y) = FY (y) et lim FXY (x; y) = FX (x)
x !1
3.2
y !1
Vecteur aléatoire
Il est aisé de généraliser la notion de couple de variables aléatoires à un
vecteur aléatoire de dimension k.
De…nition 152 Un vecteur aléatoire de dimension k dé…ni sur un espace de
probabilité ( ; P ( )), est une application vectorielle de dimension k dé…nie
sur l’espace ( ; P ( )) et à valeur dans Rk , dont chacune des composantes est
une variable aléatoire dé…nie sur le même espace de probabilité et à valeurs
dans R.
61
Bj
j=1
Ai
!)
!)
=
=
3.2.1
Loi de probabilité conjointe de k variables aléatoires
De…nition 153 Soient Xi , i = 1; 2; :::; k une suite de variables aléatoires
dé…nies sur le même espace de probabilité ( ; P ( )). Soient Xi ( ) = Si =
fxi1 ; xi2 ; :::; xini g, i = 1; 2; :::; k l’image directe par Xi . Alors l’application
PX1 ;X2 ;:::;Xk dé…nie sur le produit cartésien S1 S2 ::: Sk et à valeurs dans
Rk telle que :
PX1 ;X2 ;:::;Xk (x1i1 ; x2i21 ; :::; xkik ) = P f! 2
est appelée loi de probabilité conjointe du k
X1 (!) = x1i1 ; :::; Xk (!) = xkik g
uple X1 ; X2 ; :::; Xk .
Remarque 154 Les variables aléatoires X1 ; X2 ; :::; Xk sont dites mutuellement indépendantes si :
PX1 ;X2 ;:::;Xk (x1i1 ; x2i21 ; :::; xkik ) = PX1 (x1i1 ) PX2 (x2i2 ) :::PXk (xkik )
pour tout élément (x1i1 ; x2i21 ; :::; xkik ) 2 S1
3.3
S2
:::
Sk .
Indépendance des variables aléatoires
Nous allons introduire le concept d’indépendance pour un couple de variables aléatoires de la même manière qu’on a dé…ni la notion d’indépendance
entre deux évènements d’un espace de probabilité ( ; P ( )).
Example 155 On lance trois pièces de monnaie identiques. Soit X la variable aléatoire égale à 0 ou 1 selon que "face" ou "pile" apparaissent au
premier coup. Et soit Y une autre variable aléatoire égale à 1 ou 0 selon
que "pile" ou "face" apparaissent au second coup. Alors la variable aléatoire
V = (X; Y ) de
! R2 est telle que :
62
La probabilité de l’évènement (X = 0; Y = 0) est évidemment :
P (X = 0; Y = 0) = P (fP F F; P F P g) =
1
4
Par ailleurs,
P (X = 0) = P (fP F F; P F P; P P F; P P P g) =
1
2
et
1
2
L’évènement (X = 0; Y = 0) = f! 2
X (!) = 0 et Y (!) = 0g = f! 2
X (!) = 0g\
f! 2
Y (!) = 0g, or (X = 0) = f! 2
X (!) = 0get (Y = 0) = f! 2
Y (!) = 0g,
par conséquent (X = 0; Y = 0) = (X = 0) \ (Y = 0). D’autre part, on remarque que :
P (Y = 0) = P (fF F F; F F P; P F F; P F P g) =
P (X = 0; Y = 0) = P (X = 0) P (Y = 0)
Alors, on peut dire que les évènements (X = 0) et (Y = 0) sont indépendants.
De plus, il est aisé de véri…er cette propriété pour toutes les combinaisons
des valeurs de X et de Y dans le tableau de contingence suivant :
X Y
0
1
PY
0
1
PX
1
4
1
4
1
2
1
4
1
4
1
2
1
2
1
2
1
Remarque 156 Il est aisé de constater que le tableau ci-dessus présente la
particularité suivante :
8i; j pij = pi: p:j
De…nition 157 Soit (pij ), i = 1; 2; :::; n et j = 1; 2; :::; m la loi de probabilité
conjointe de X et Y . Soit (pi: ), i = 1; 2; :::; n et (p:j ), j = 1; 2; :::; m les
distributions marginales de X et de Y respectivement. Alors, on dit que les
variables aléatoires X et Y sont indépendantes si :
pij = pi: p:j
8i = 1; 2; :::; n; 8j = 1; 2; :::; m
63
Example 158 On lance deux dés symétriques. Chacun des deux comporte
une face coloriée en rouge et les cinq autres faces en blanc. Soit X la variable
aléatoire dé…nie telle que :
X = 1 si la couleur rouge apparaît sur le premier dé
X = 0 si la couleur blanche apparaît sur le premier dé
Soit Y une autre variable aléatoire associée au deuxième dé de la même façon que pour X. Montrer que X et Y sont deux variables aléatoires indépendantes.
Solution 159 Déterminons d’abord la loi conjointe de X et Y :
X Y
0
1
PY
0
1
PX
25
36
5
36
5
6
5
36
1
36
1
6
5
6
1
6
1
On véri…e à partir du tableau que :
8i; j
pij = pi: p:j
Donc X et Y sont deux variables aléatoires indépendantes.
3.3.1
Variable aléatoire conditionnelle ou liée
Considérons un couple (X; Y ) de variables aléatoires dé…ni sur l’espace de
probabilité ( ; P ( )). Soit (xi ; yj ; pij ), i = 1; 2; :::; n et j = 1; 2; :::; m la loi de
probabilité conjointe du couple (X; Y ). Supposons que P (X = xi ) 6= 0 pour
un indice particulier. La probabilité conditionnelle de l’évènement (Y = yj )
sachant que l’évènement (X = xi ) est réalisé, sera notée P (Y = yj X = xi ).
D’après l’axiome des probabilités conditionnelles, on peut écrire :
P (X = xi ; Y = yj ) = P (X = xi ) P (Y = yj X = xi )
D’où
P (Y = yj X = xi ) =
pij
P (X = xi ; Y = yj )
=
P (X = xi )
pi:
64
De…nition 160 On appelle variable aléatoire conditionnelle, notée YX=xi
(que l’on lit Y liée par X = xi ), la variable aléatoire de distribution de
probabilité telle que :
P (YX=xi = yj ) = P (Y = yj X = xi ) =
P (X = xi ; Y = yj )
pij
=
P (X = xi )
pi:
Remarque 161 Les variables X et Y jouent un rôle symétrique, donc on
peut déduire que :
P (XY =xi = xj ) = P (X = xj Y = yi ) =
3.4
P (X = xi ; Y = yj )
pij
=
P (Y = yi )
p:j
Moment d’une fonction de deux variables
aléatoires
Proposition 162 Soit X et Y deux variables aléatoires de distribution conjointe
(xi ; yj ; pij ), i = 1; 2; :::; n ; j = 1; 2; :::; m. Soit T une fonction de deux variables réelles à valeurs réelles. Alors l’espérance mathématique de la variable
aléatoire T (X; Y ) est donnée par :
E fT (X; Y )g =
n X
m
X
T (xi ; yj ) pij
i=1 j=1
Démonstration : On sait que :
X
E fT (X; Y )g =
T (X (!) ; Y (!)) P (f!g)
=
!2
n X
m
X
i=1 j=1 f!2
=
n X
m
X
Or,
f!2
T (X (!) ; Y (!)) P (f!g)
X(!)=xi et Y (!=yj )g
T (xi ; yj )
i=1 j=1
P
X
X(!)=xi et Y (!=yj )g
f!2
X
P (f!g)
X(!)=xi et Y (!=yj )g
P (f!g) = P (X = xi ; Y = yj ) = pij , d’où
E fT (X; Y )g =
n X
m
X
i=1 j=1
65
T (xi ; yj ) pij
Remarque 163 En particulier, si X et Y sont indépendantes et si T (X; Y ) =
T1 (X) T2 (Y ), alors :
E fT (X; Y )g = E fT1 (X)g E fT2 (Y )g
3.4.1
Moment d’un couple de variables aléatoires
De…nition 164 Soient X et Y deux variables aléatoires dé…nies sur le même
espace de probabilité ( ; P ( )) et soient a et b deux entiers naturels non
nuls. On appelle moment d’ordre (a; b) du couple (X; Y ) noté a;b , la quantité
dé…nie telle que :
a;b
a
=E X Y
b
=
n X
m
X
xai yjb pij
i=1 j=1
Remarque 165 1) Si les variables aléatoires X et Y sont indépendantes,
alors on a :
a;b
= E X a Y b = E (X a ) E Y b =
a;0
0;b
2) On peut voir aisément que :
a;0
= ma (X)
et
0;b
= mb (Y )
On utilisera souvent les quantités :
1;0
= E (X) ;
2;0
3.4.2
0;1
= E (Y ) ;
= E X2
;
0;2
1;1
= E (XY )
=E Y2
Moments centrés d’un couple de variables aléatoires
De…nition 166 Soient X et Y deux variables aléatoires dé…nies sur l’espace
de probabilité ( ; P ( )), et soient a et b deux entiers naturels non nuls. On
appelle moment centré d’ordre (a; b) du couple (X; Y ) noté a;b , le moment
66
d’ordre (a; b) du couple de variables centrées (X
que :
a;b
n
= E (X
n X
m
o X
b
)
=
(xi
0;1
a
1;0 ) (Y
1;0 ; Y
a
1;0 )
0;1 )
(yj
dé…ni tel
b
0;1 )
pij
i=1 j=1
Remarque 167 1) Il est clair que :
2;0
= E (X
2
1;0 )
= V ar (X) et
0;2
= E (Y
2
0;1 )
= V ar (Y )
2) Pour tout couple de variables aléatoires on a :
1;0
3.4.3
= 0 et
0;1
=0
Covariance d’un couple de variables aléatoires
De…nition 168 On appelle covariance de deux variables aléatoires X et Y ,
notée Cov (X; Y ), le moment centré 1;1 du couple (X; Y ), i.e.
Cov (X; Y ) =
=
1;1 = E
n
m
XX
f(X
(xi
1;0 ) (Y
1;0 ) (yj
0;1 )g
0;1 ) pij
i=1 j=1
Propriétés de la covariance
– Cov (X; Y ) = E (XY )
En e¤et :
Cov (X; Y ) =
=
=
=
E f(X
E (XY )
E (XY )
E (XY )
E (X) E (Y )
1;0 ) (Y
0;1 )g
= E (XY
0;1 X
1;0 Y +
0;1 E (X)
1;0 E (Y ) + 1;0 0;1
E (Y ) E (X) E (X) E (Y ) + E (X) E (Y )
E (Y ) E (X)
– Soit X une variable aléatoire constante, alors 8 Y une autre variable
aléatoire on a :
Cov (X; Y ) = 0
67
1;0
0;1 )
En e¤et, 8! 2 , X (!) = a, i.e. X
a, d’où :
Cov (X; Y ) = Cov (a; Y ) = E f(a
a) (Y
0;1 )g
=0
– 8a; b 2 R, alors Cov (X + a; Y + b) = Cov (X; Y )
En e¤et :
Cov (X + a; Y + b) = E f(X + a ( 1;0 + a)) (Y + b ( 0;1 + b))g
= E f(X + a
a) (Y + b
b)g
1;0
0;1
= E f(X
1;0 ) (Y
0;1 )g = Cov (X; Y )
– 8a; b 2 R, alors Cov (aX; bY ) = abCov (X; Y )
En e¤et :
Cov (aX; bY ) = E f(aX a
= abE f(X
1;0 ) (bY
b
0;1 )g
1;0 ) (Y
0;1 )g
= abCov (X; Y )
Remarque 169 L’opérateur " Cov" est une forme bilinéaire symétrique dé…nie sur l’espace vectoriel des variables aléatoires dé…nies sur un même espace
de probabilité ( ; P ( )).
– Cov (X; X) = V ar (X)
En e¤et :
Cov (X; X) = E f(X
1;0 ) (X
1;0 )g
= E (X
2
1;0 )
= V ar (X)
– Si les variables aléatoires X et Y sont indépendantes alors Cov (X; Y ) =
0.
En e¤et :
Cov (X; Y ) =
n X
m
X
(xi
1;0 ) (yj
0;1 ) pij
i=1 j=1
=
n
X
(xi
1;0 ) pi:
i=1
m
X
(yj
0;1 ) p:j
=0
j=1
Remarque 170 Si Cov (X; Y ) = 0 on ne peut pas a¢ rmer que X et Y sont
indépendantes. On dit seulement qu’elles sont non corrélées.
68
3.4.4
Coe¢ cient de corrélation de deux variables aléatoires
De…nition 171 Soient X et Y deux variables aléatoires dé…nies sur le même
espace de probabilité ( ; P ( )), telles que V ar (X) 6= 0 et V ar (Y ) 6= 0. Alors
le coe¢ cient de corrélation entre X et Y est dé…ni tel que :
Cov (X; Y )
= (X; Y ) = R (X; Y ) = Corr (X; Y ) = p
V ar (X) V ar (Y )
Remarque 172 Souvent on note le coe¢ cient de corrélation plus simplement tel que :
Cov (X; Y )
=
X
où
X
et
Y
Y
sont les écart-types respectifs de X et Y .
Théorème 173 Pour tout couple (X; Y ) de variables aléatoires on a :
1
= R (X; Y )
+1
Les égalités ont lieu si et seulement si il existe deux constantes réelles a 6= 0
et b telles que Y = aX + b.
Démonstration : D’après l’inégalité de Schwarz, on a :
fE (X
1;0 ) (Y
i.e. Cov 2 (X; Y )
2
0;1 )g
E f(X
1;0 )g
2
E f(Y
0;1 )g
2
V ar (X) V ar (Y ), d’où
Cov 2 (X; Y )
= R2 (X; Y ) =
V ar (X) V ar (Y )
2
1
Autre démonstration
Soit 2 R, un réel quelconque. Considérons la quantité ( ) dé…nie telle
que :
2
( ) = E [(Y
0
0;1 ) + (X
1;0 ) Cov (X; Y )]
En développant l’expression de
( )=
2
( ) on obtient :
Cov 2 (X; Y ) V ar (X) + 2 Cov 2 (X; Y ) + V ar (Y )
69
0
(3.1)
On constate que ( ) est un trinôme du second degré en qui ne doit pas
admettre de racines réelles, car il existerait un intervalle pour où ( )
serait négatif et la relation (3:1) ne serait plus véri…é. Donc, forcément le
discriminant du trinôme du second degré doit être négatif, d’où
4Cov 4 (X; Y )
4Cov 2 (X; Y ) V ar (X) V ar (Y )
0
Par conséquent :
Cov 2 (X; Y )
V ar (X) V ar (Y )
Par ailleurs, l’inégalité (3:1) est stricte tant que le discriminant du trinôme
est di¤érent de zéro. Donc R(X; Y ) = 1 si et seulement si le discriminant
est nul. Ceci équivaut à l’existence d’une racine double 0 pour l’équation
( ) = 0, alors :
E [(Y
0;1 )
+
0
(X
1;0 ) Cov
(X; Y )]2 = 0
D’où
Y (!)
0;1
+
0 Cov
(X; Y ) (X (!)
1;0 )
= 0 8! 2
Par conséquent
Y (!) =
0 Cov
(X; Y ) X (!) +
0 Cov
(X; Y )
1;0
+
0;1
8! 2
Remarque 174 Si X et Y sont indépendantes alors Cov (X; Y ) = 0 et par
conséquent (X; Y ) = 0. La réciproque n’est en général pas vraie. Mais si
(X; Y ) = 0, les variables aléatoires X et Y sont dites non corrélées. Elles
ne sont pas forcément indépendantes.
Example 175 Soit X une variable aléatoire de loi de probabilité paire, i.e.
m2k 1 (X) = 0, k = 1; 2; :::. Considérons la variable aléatoire Y = X 2 . Il est
évident que :
E (X) = m1 (X) = 0 et E (XY ) = E X 3 = m3 (X) = 0
Alors,
R (X; Y ) =
E (XY )
E (X) E (Y )
X
=0
Y
Mais, il est évident que les variables X et Y ne sont pas indépendantes.
70
3.4.5
Droite de régression entre deux variables aléatoires
Théorème 176 Soient X et Y deux variables aléatoires dé…nies sur le même
espace de probabilité ( ; P ( )). La fonction numérique dé…nie sur R2 par
l’équation f (a; b) = E (Y aX b)2 admet un minimum au point ( ; )
tel que :
Cov (X; Y )
Y
= R (X; Y )
=
V ar (X)
X
= E (Y )
E (X)
Démonstration : Remarquons que la fonction f (a; b) peut être exprimée
telle que :
n X
m
X
f (a; b) =
(yj axi b)2 pij
i=1 j=1
Par ailleurs, le minimum de la fonction f (a; b) est atteint au point ( ; )
solution du système d’équations :
@f (a; b)
@f (a; b)
=0 ;
=0
@a
@b
En e¤et,
@f (a; b)
=
@a
=
2
n X
m
X
xi (yj
axi
i=1 j=1
2
n X
m
X
xi yj pij + 2a
i=1 j=1
=
2
n X
m
X
n X
m
X
x2i pij + 2b
i=1 j=1
xi yj pij + 2a
i=1 j=1
=
(3.2)
b) pij
n
X
i=1
2E (XY ) + 2aE X
71
2
x2i pi: + 2b
n X
m
X
i=1 j=1
n
X
i=1
+ 2bE (X) = 0
xi pi:
xi pij
et
@f (a; b)
=
@b
=
2
n X
m
X
(yj
axi
i=1 j=1
2
n X
m
X
yj pij + 2a
i=1 j=1
=
2
m
X
n X
m
X
xi pij + 2b
i=1 j=1
yj p:j + 2a
j=1
=
(3.3)
b) pij
n
X
n X
m
X
pij
i=1 j=1
xi pi: + 2b
i=1
2E (Y ) + 2aE (X) + 2b = 0
Des équations (3:2) et (3:3) on déduit …nalement que :
=
E (XY ) E (X) E (Y )
Cov (X; Y )
=
= R (X; Y )
2
V ar (X)
E (X 2 ) (E (X))
= E (Y )
Y
X
E (X)
De…nition 177 La droite D d’équation Y = aX + b est appelée droite de
)
régression de Y en X avec a = Cov(X;Y
et b = E (Y ) aE (X)
V ar(X)
Remarque 178 L’équation de la droite D peut aussi être exprimée telle
que :
X E (X)
Y E (Y )
= R (X; Y )
Y
X
0
On peut aussi dé…nir la droite de régression D de X en Y d’équation X =
)
et b0 = E (X) a0 E (Y ).
a0 Y + b0 où a0 = Cov(X;Y
V ar(Y )
De…nition 179 La quantité R2 = aa0 est appelée coé¢ cient de détermination.
Remarque 180 Il est aisé de remarquer que l’on a R2 =
72
2
(X; Y ).
3.5
Somme de variables aléatoires
De…nition 181 Soient X et Y deux variables aléatoires dé…nies sur le même
espace de probabilité ( ; P ( )). La variable aléatoire Z = X + Y est appelée
variable aléatoire somme des variables aléatoires X et Y .
Remarque 182 La variable aléatoire Z prend les valeurs zk telles que :
zk = xi + yj i = 1; 2; :::; n et j = 1; 2; :::; m
De…nition 183 Soient X et Y deux variables aléatoires de loi de probabilité
conjointe dé…nie telle que :
P (X = xi ; Y = yj ) = p (xi ; yj ) = pij
Soit Z = X + Y la variable aléatoire somme des variables aléatoires X et Y .
Alors la loi de probabilité de Zest dé…nie telle que :
X
P (Z = zk ) =
pij = pk
f(i;j) xi +yj =zk g
Proposition 184 Soient X et Y deux variables aléatoires dé…nies sur le
même espace de probabilité ( ; P ( )) et soit Z la variable aléatoire somme
des variables aléatoires X et Y . Alors :
1. E (Z) = E (X) + E (Y )
2. V ar (Z) = V ar (X) + V ar (Y ) + 2Cov (X; y)
Problem 185 Pour le premier point il su¢ t de remarquer que :
X
X
X
X
X
(xi + yj ) pij
zk pij =
E (Z) =
zk pk =
k
X
=
k
=
X
i
Or,
P P
k
fj
X
k
f(i;j) xi +yj =zk g
xi pij +
k
f(i;j) xi +yj =zk g
xi
X
k
fj
xi +yj =zk g
X
xi +yj =zk g
pij = pi: et
E (Z) =
X
i
X
pij +
j
P P
xi pi: +
X
k
f(i;j) xi +yj =zk g
yj pij
f(i;j) xi +yj =zk g
X
k
X
yj
X
k
X
pij
fi xi +yj =zk g
fi xi +yj =zk g
pij = p:j , d’où
yj p:j = E (X) + E (Y )
j
73
2. Quant au second point nous avons :
V ar (Z) = E (Z
= E ([X
E(Z))2 = E (X + Y
E(X)
E(Y ))2
E(Y )])2
E(X)] + [Y
= E [X E(X)]2 + E [Y E(Y )]2 + 2E f[X
= V ar (X) + V ar (Y ) + 2Cov (X; Y )
E(X)] [Y
Remarque 186 Si les variables X et Y sont indépendantes, alors V ar (Z) =
V ar (X) + V ar (Y ).
3.5.1
Fonction génératrice des moments de la somme
de deux variables aléatoires
Soit Z = X + Y la variable aléatoire somme des variables aléatoires X et
Y . On sait que :
XX
X
GZ (s) = E sZ =
s zk p k =
sxi +yj pij
i
k
j
Si les variables aléatoires X et Y sont indépendantes, alors pij = pi: p:j et par
conséquent :
X
X
GZ (s) =
sxi pi:
syj p:j = GX (s) GY (s)
i
3.5.2
j
Fonction caractéristique d’une variable aléatoire
De…nition 187 On appelle fonction caractéristique de la variable aléatoire
X, la fonction 'X (t) dé…nie telle que :
'X (t) = E eitX
Existence
Dans le cas discret …ni 'X (t) s’écrit telle que :
'X (t) =
n
X
PX (xj ) eitxj
(3.4)
j=1
La fonction caractéristique 'X (t) est une somme …nie et donc elle existe
toujours.
74
E(Y )]g
3.5.3
Relation entre les dérivées de 'X (t) et les moments de la variable aléatoire X
Calculons la dérivée première de 'X (t) :
'0X
n
X
d'X (t)
(t) =
=i
xj PX (xj ) eitxj
dt
j=1
On constate que la dérivée au point t = 0, '0X (0) est prportionnelle au
moment d’ordre 1 de la variable aléatoire X, i.e.
'0X (0) = i
n
X
xj PX (xj ) = im1 (X) = iE (X)
j=1
Le calcul de la dérivée seconde de 'X (t) nous donne :
X
d2 'X (t)
2
=
i
x2j PX (xj ) eitxj
dt2
j=1
n
'00X (t) =
De plus on constate que :
'00X
(0) = i
2
n
X
x2j PX (xj ) = i2 E X 2 = i2 m2 (X)
j=1
Et ainsi de suite, de proche en proche on montre que :
(k)
'X (0) = ik
n
X
xkj PX (xj ) = ik E X k = ik mk (X)
j=1
Théorème 188 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )), de distribution (xj ; PX (xj )), j = 1; 2; :::; n. Alors X admet
des moments jusqu’à l’ordre k si et seulement si la dérivée d’ordre k de la
fonction caractéristique existe au point t = 0.
Démonstration : Il su¢ t d’écrire le développement de Taylor de 'X (t)
au voisinage de t = 0 jusqu’à l’ordre k, i.e.
t2
tk (k)
t 0
'X (0) + '00X (0) + ::: + 'X (0)
1!
2!
k!
2
it
(it)
(it)k
= 1 + m1 (X) +
m2 (X) + ::: +
mk (X)
1!
2!
k!
'X (t) = 'X (0) +
75
Le développement de Taylor de 'X (t) au voisinage de t = 0 est unique. D’où,
par identi…cation on a le résultat.
Conséquence
La connaissance de 'X (t) est su¢ sante pour déterminer la loi de probabilité
de X.
3.5.4
Somme de n variables aléatoires
Théorème 189 Soient X1 ; X2 ; :::; Xn , n variablesP
aléatoires dé…nies sur le
même espace de probabilité ( ; P ( )) et soit Y = ni= Xi . Alors :
E (Y ) =
n
X
E (Xi )
et
V ar (Y ) =
i=
n
X
V ar (Xi ) + 2
i=
X
Cov (Xi ; Yj )
i<j
Remarque 190 Si les variables aléatoires X1 ; X2 ; :::; Xn sont deux à deux
indépendantes, alors :
V ar (Y ) =
n
X
V ar (Xi )
i=
Example 191 Soit (Xi )i=1;2;:::;n une suite de variables aléatoires de Bernoulli deux à deux indépendantes dé…nies telles que :
P (Xi = 1) = p
i = 1; 2; :::; n
P (Xi = 0) = 1 p
P
Considérons la variable aléatoire Y = ni= Xi . Alors :
E (Y ) =
n
X
E (Xi ) = np
et
V ar (Y ) =
i=
n
X
V ar (Xi ) = np (1
p)
i=
Il est clair que la variable aléatoire Y est distribuée suivant une loi binomiale,
i.e. X B(n; p).
76
Chapitre 4
Lois de probabilité usuelles
4.1
Loi de Bernoulli : B(p)
De…nition 192 Un modèle de probabilité associé à une expérience aléatoire
dichotomique ayant pour réalisations A (succès) ou A (défaite), est appelé
modèle de Bernoulli. La distribution de la variable aléatoire X correspondante
est appelée loi de Bernoulli.
Remarque 193 Si X est une variable aléatoire de Bernoulli, elle prend ses
valeurs dans l’ensemble f0; 1g tel que :
X(A) = 1 et P (X = 1) = p
X(A) = 0 et P (X = 0) = 1 p = q
La loi de distribution de Bernoulli peut être présentée dans un tableau tel
que :
xi
0
1
P (X = xi ) 1 p p 1
En général, on dit que la variable aléatoire X suit une loi de Bernoulli de
paramètre p (probabilité du succès), et on note :
X
4.1.1
B (p)
Calcul des moments de la loi de Bernoulli
Proposition 194 L’espérance et la variance d’une variable aléatoire de Bernoulli X sont telles que :
E (X) = p et V ar (X) = p(1
77
p)
Démonstration : En e¤et,
E(X) = p
1 + (1
p)
0=p
E(X 2 ) = p
1 + (1
p)
0=p
De plus
D’où
V ar (X) = E X 2
4.2
fE (X)g2 = p
p2 = p (1
p)
Loi uniforme sur f1; 2; :::; N g : Uf1;2;:::;N g
De…nition 195 Soit X une variable aléatoire dont l’ensemble de variation
est X( ) = f1; 2; :::; N g. On dit que X est distribuée suivant une loi uniforme
sur l’ensemble f1; 2; :::; N g, et on la note Uf1;2;:::;N g , si PX (xi ) est constant
8xi 2 f1; 2; :::; N g.
Conséquence
Pour une loi uniforme dé…nie
g, on a PX (xi ) = p 8xi 2
PN
PN sur f1; 2; :::;
N
f1; 2; :::; N g, par ailleurs, i=1 PX (xi ) = i=1 p = 1 alors p = PX (xi ) = N1
8i.
La distribution de la loi uniforme sur f1; 2; :::; N g est résumée dans le tableau
suivant :
xi
1 2 ::: i ::: N
P (X = xi ) N1 N1 ::: N1 ::: N1 1
4.2.1
Calcul des moments de la loi uniforme
Proposition 196 L’espérance mathématique et la variance d’une variable
aléatoire X uniforme sur l’ensemble f1; 2; :::; N g sont telles que :
E (X) =
N +1
N2 1
et V ar (X) =
2
12
Démonstration : En e¤et,
E(X) =
N
X
i
1 N (N + 1)
N +1
=
=
N
N
2
2
i=1
78
Et
E X2 =
N
1 X 2
(N + 1) (2N + 1)
1 N (N + 1) (2N + 1)
=
i =
N i=1
N
6
6
Par conséquent
V ar (X) = E X
2
(N + 1) (2N + 1)
fE(X)g =
6
N +1
2
2
2
=
N2 1
12
D’où le résultat.
4.3
Loi binomiale : B(n; p)
Soit E une expérience aléatoire dichotomique, i.e. une expérience au cours
de laquelle ne peuvent se produire que deux évènements A (succès) ou B = A
(défaite), avec les probabilités p et 1 p respectivement. Répétons indépendamment et dans les mêmes conditions n fois l’expérience E. Soit ( ; P ( ))
l’espace de probabilité associé à cette expérience. Un évènement élémentaire ! 2
est une suite quelconque de n caractères A ou B. Soit X
une variable aléatoire dé…nie sur ( ; P ( )) telle que à toute suite de caractères ! 2 , elle fait correspondre le nombre de caractères "A" qui y
…gurent (nombre de succès obtenus). Donc, l’ensemble de variation de la
variable aléatoire X est X ( ) = f0; 1; 2; :::; ng. Considérons l’événement
(X = k) = f! 2
X (!) = kg = X 1 (fkg) qui correspond à la partie de
dé…nie telle que :
0
1 0
1
0
1
(X = k) = @A; :::A; B; :::; B A[@A; :::A; B; A; B; :::; B A[:::[@B; :::; B ; A; :::AA
| {z }
| {z } | {z }
| {z }
| {z } | {z }
k
n k
k 1
n k 1
n k
k
Alors
P (X = k) = pk (1
p)n
k
+ pk
1
(1
p) p (1
p)n
k 1
+ ::: + (1
De plus, on sait qu’il y a Cnk évènements élémentaires dans
exactement k caractères A. D’où
P (X = k) = Cnk pk (1
79
p)n
k
p)n
k
pk
comportant
De…nition 197 Un modèle de probabilité associé à une expérience aléatoire
ayant deux issues possibles (succès ou défaite) et répétée n fois de façon
indépendante, est appelé modèle binomial. La loi de la variable aléatoire X
"nombre de succès obtenus" est appelée loi ou distribution binomiale. Elle est
donnée par la formule suivante :
P (X = k) = Cnk pk (1
p)n
k
Remarque 198 Le modèle binomial peut aussi être assimilé au modèle d’une
urne contenant des boules de deux couleurs di¤érentes avec des proportions
déterminées et où l’on procède à une suite de n tirages avec remise après
chaque tirage. En général, pour dire qu’une variable aléatoire X est distribuée
suivant une loi binomiale de paramètres n et p, on note tout simplement :
X
4.3.1
B (n; p)
Moments particuliers de la loi binomiale
Pour calculer les moments d’une variable binimiale il est possible d’utiliser
la relation (2:1) de dé…nition 129. Cependant, dans la suite nous allons utiliser
la fonction génératrice des moments.
Proposition 199 La fonction génératrice des moments d’une variable aléatoire binomiale X est donnée par la relation suivante :
G (s) = (sp + 1
p)n
Démonstration : Par dé…nition d’une variable aléatoire binomiale,
P (X = k) = pk = Cnk pk (1 p)n k k = 0; 1; :::; n, alors
G (s) =
n
X
k
s pk =
k=0
n
X
Cnk (sp)k (1
p)n
k
= (sp + 1
p)n
i=0
en appliquant la formule du binôme de Newton.
Conséquence
0
– E (X) = f(sp + 1 p)n gs=1 = np (p + 1 p)n 1 s=1 = np
– E (X 2 ) = n (n 1) p2 (sp + 1 p)n 2 s=1 +np = n (n 1) p2 +np, d’où
V ar (X) = n (n 1) p2 + np n2 p2 = np (1 p)
80
4.3.2
Mode d’une variable aléatoire binomiale
De…nition 200 On dit de la distribution d’une variable aléatoire X qu’elle
possède un mode, noté xm , si :
P (X = xm )
P (X = xi ) 8i 6= m et i = 1; 2; :::; n
Example 201 Déterminons le mode de la loi binomiale B(n; p). Pour cela,
cherchons l’entier k tel que :
P (X = k + 1)
>1
P (X = k)
Alors
Cnk+1 pk+1 (1
Cnk pk (1
p)n
p)n
k 1
k
> 1 =)
(n k) p
=) (n
(k + 1) (1 p)
k) p > (k + 1) (1 p)
D’où
np
(1
(4.1)
p) > k
Tant que l’inégalité(4:1) est véri…ée, l’inégalité P (X = k + 1) > P (X = k)
est toujours vraie.
Soit k0 tel que k0 < np (1 p)
k0 + 1, le mode xm de la distribution
binomiale est :
xm = [np (1 p)] + 1
où [:] représente la fonction ’partie entère’
Véri…cation pour la loi binomiale B(20; 21 ). En e¤et :
xm = [np
(1
p)] + 1 = 10
1
+ 1 = 10
2
On remarque dans ce cas que le mode est égal à la moyenne np de la loi.
4.4
Loi hypergéométrique : H(N; n; p)
Considérons une urne contenant r boules noires et N r boules blanches.
On tire simultanément n
N boules de l’urne. En général, on imagine
cette expérience comme un tirage d’une boule de l’urne répétée n fois et
sans remettre la boule à chaque fois. Il est clair qu’on obtient une suite
81
d’expériences dépendantes en probabilité. En e¤et, la probabilité d’obtenir
une boule noire au second tirage, par exemple, dépend objectivement du
résultat du premier tirage. Le résultat des n tirages est évidemment une
suite, notée !, de n lettres B (succès) pour une boule noire et W (défaite)
pour une boule blanche. L’espace fondamental est l’ensemble de toutes les
suites possibles de ce type et donc son cardinal est CNn .
Soit X la variable aléatoire qui à tout élément ! 2
fait correspondre le
nombre de boules noires qu’elle contient. Alors X prend des valeurs k telles
que :
0 k r ; k n et k n + r N
Calculons alors P (X = k) = P f! 2
X (!) = kg.
Parmi les n boules tirées, on peut obtenir k boules noires de Crk di¤érentes
façons. Les (n k) boules blanches sont obtenues de CNn kr di¤érentes façons. Alors, d’après le principe de multiplication le cardinal de l’évènement
(X = k) est Crk CNn kr . Par conséquent :
P (X = k) =
Crk CNn
CNn
k
r
(4.2)
Par ailleurs, la probabilité de tirer une boule noire de l’urne est p = Nr et celle
de tirer une boule blance est 1 p = NN r . Alors, r = N p et N r = N (1 p).
Par conséquent, la relation (4:2) peut être exprimée telle que :
P (X = k) =
CNk p CNn (1k
p)
CNn
De…nition 202 Le modèle de probabilité associé à un nombre …ni de tirages
sans remise dans une urne contenant deux genres d’objets en nombre …ni, est
appelé modèle hypergéométrique. La loi de la variable aléatoire X "nombre
de succès" est appelée distribution ou loi hypergéométrique. Elle est donnée
par la formule suivante :
P (X = k) =
CNk p CNn (1k
p)
CNn
Remarque 203 En général, pour dire qu’une variable aléatoire X est distribuée suivant une loi hypergéométrique de paramètres N , n et p, on note
tout simplement :
X H (N; n; p)
82
Example 204 Quelle est la probabilité pour qu’une main de bridge contienne
5 cœurs ?
Solution 205 L’expérience est évidemment un tirage sans remise de n = 13
cartes parmi N = 52. Or, il y a 13 cœurs parmi les 52 cartes du jeu. Soit X
la variable aléatoire "nombre de cœurs obtenus". Alors, X
H 52; 13; 41 ,
d’où
C5 C8
P (X = 5) = 13 1339 0; 125
C52
4.4.1
Moments particuliers d’une distribution hypergéométrique H(N; n; p)
Il est possible de calculer les deux premiers moments de la loi hypergéométrique à partir de la dé…nition. Mais cette méthode d’évaluation est fastidieuse. Par contre, les calculs seront simpli…és si on formule autrement le
modèle hypergéométrique. En e¤et, considérons une urne contenant r boules
noires et N r boules blanches avec p = Nr et 1 p = NN r les probabilités respectives de tirer une boule noire et une boule blanche. L’expérience
consiste en un tirage d’une boule de l’urne répété n fois sans remettre la
boule à chaque fois. Cette expérience peut aussi être considérée comme la
réalisation de n expériences de Bernoulli dépendantes. Dé…nissons alors Yi ,
i = 1; 2; :::; n une suite de n variables aléatoires de Bernoulli telles que :
Yi =
1 si la ieme boule tirée est noire
0 sinon
Il est clair que les variables aléatoires Yi B (p), i = 1; 2; :::; n, ne sont pas
indépendantes. Considérons alors la variable aléatoireP
X : "nombre de boules
noires obtenues en n tirages". Il est évident que X = ni=1 Yi . Par ailleurs, Il
a été établi que E (Yi ) = p et V ar (Yi ) = p(1 p). D’où, d’après la propriété
fondamentale de l’espérance mathématique :
E (X) =
n
X
E (Yi ) = np
i=1
83
4.4.2
Calcul de la variance d’une loi hypergéométrique
H(N; n; p)
(Ce développement
Pn est facultatif)
Considérons X = i=1 Yi où Yi B (p). Alors
V ar (X) =
n
X
V ar (Yi ) + 2
i=1
n X
X
Cov (Yi ; Yj )
i=1 j<i
Par ailleurs, Cov (Yi ; Yj ) = E (Yi Yj ) E (Yi ) E (Yj ). Or, P (Yi Yj = 1) =
P (Yi = 1; Yj = 1) = P (Yj = 1 Yi = 1) P (Yi = 1) = Nr Nr 11 . D’où E (Yi Yj ) =
1)
1 P (Yi Yj = 1) + 0 P (Yi Yj = 0) = Nr(r
.
(N 1)
Par conséquent
Cov (Yi ; Yj ) =
r (r 1)
N (N 1)
r2
=
N2
r (N r)
=
N 2 (N 1)
p(1
N
p)
1
P P
De plus, ni=1 j<i est une somme double contenant Cn2 termes tous égaux
p)
à p(1
. ce qui donne
N 1
2
n X
X
Cov (Yi ; Yj ) = Cn2
i=1 j<i
p(1
N
p)
1
=
n(n
1)
D’où
V ar (X) = np (1
p)
Finalement
V ar (X) = np(1
4.5
p)
N
N
n(n
p(1
N
1)
p(1
N
p)
1
p)
1
n
1
Loi multinomiale : M(n; p1; p2; :::; pk )
Les modèles de probabilité précédemment étudiés étaient associés à des
expériences dichotomiques. Mais, dans beaucoup de situations pratiques l’expérience aléatoire peut avoir plus de deux résultats possibles. Considérons
alors une expérience aléatoire E ayant k résultats possibles ou modalités notées R1 ; R2 ; :::; Rk . Répétons cette expérience n fois de manière indépendante.
Alors, à chaque expérience Ei , i = 1; 2; :::; n on associe l’espace de probabilité
84
= fR1 ; R2 :::; Rk g, i = 1; 2; :::; n sur lequel on dé…nit la probabilité P telle
que :
P (Ri ) = pi i = 1; 2; :::; k
Pk
Il est évident que i=1 pi = 1.
Aux n expériences aléatoires Ei on associe l’espace de probabilité = 1
n
:::
qui est l’ensemble de toutes les suites de
2
n = fR1 ; R2 :::; Rk g
taille n constituées des symboles R1 ; R2 :::; Rk . La probabilité dé…nie sur
est alors la probabilité produit P n .
Considérons une suite de contenant n1 fois le symbole R1 , n2 fois le symbole
R2 ,..., et nk fois le symbole Rk , où n1 + n2 + ::: + nk = n. Alors, la probabilité
d’une telle suite est pn1 1 pn2 2 :::pnk k . Le cardinal du sous-ensemble de ce type de
suites est Cnn1 ;n2 ;:::;nk = n1 !n2n!!:::nk ! .
i
De…nition 206 Un modèle de probabilité associé à une expérience aléatoire
ayant k issues possibles et répétée n fois de façon indépendante est appelé
modèle multinomial.
Théorème 207 Soient (Xi )i=1;2;:::;k une suite de variables aléatoires où Xi
est le "nombre d’apparitions de la modalité Ri en n expériences indépendantes", i = 1; 2; :::; k. Chaque expérience possède k résultats possibles
P R1 ; R2 :::; Rk .
Soit pi la probabilité d’apparition de Ri , i = 1; 2; :::; k tels que ni=1 pi = 1.
P
Alors, pour k entiers naturels n1 ; n2 ; :::; nk tels que ki=1 ni = n, on a :
P (X1 = n1 ; X2 = n2 ; :::; Xk = nk ) = Cnn1 ;n2 ;:::;nk pn1 1 pn2 2 :::pnk k
Remarque 208 Le modèle multinomial peut être assimilé au modèle de n
tirages avec remise dans une urne contenant N objets de k types di¤érents.
Le vecteur (X1 ; X2 ; :::; Xk ) est appelé vecteur multinomial.
Example 209 On lance 8 fois un dé équilibré. Quelle est la probabilité que
la face "5" apparaît 2 fois, la face "6" apparaît 2 fois et les autres faces
apparaissent 1 fois chacune ?
Solution 210 La probabilité d’une face quelconque d’un dé équilibré est pi =
1
, i = 1; 2; :::; 6. L’expérience admet 6 possibilités de réalisation et elle est
6
répétée 8 fois de manière indépendante. On obtient ainsi un modèle multinomial. On dé…nit les variables aléatoires Xi : "nombre d’apparitions de la face
85
i", i = 1; 2; :::; 6. Il est demandé alors de déterminer la probabilité du vecteur
(X1 = 2; X2 = 2; X3 = 1; X4 = 1; X5 = 1; X6 = 1). Alors :
P (X1 = 2; X2 = 2; X3 = 1; X4 = 1; X5 = 1; X6 = 1) =
8!
2!2!
1
6
8
Example 211 Une équipe A va jouer une série de 5 matches contre une
équipe B. Les statistiques montrent que l’équipe A gagne ses matches contre
l’équipe B avec une probabilité 0; 5, elle les perd avec une probabilité 0; 3 et
le reste du temps c’est des matches nuls. Quelle est la probabilité que l’équipe
A gagne 2 matches et en perd 1 ? (On supposera que les matches sont joués
de manière indépendante)
Solution 212 Les résultats possibles d’un matche entre A et B sont notés
par :
G : "l’équipe A gagne le matche", P (G) = 0; 5
L : "l’équipe A perd le matche", P (L) = 0; 3
N : "les équipes A et B font matche nul", P (N ) = 0; 2
L’expérience aléatoire considérée admet 3 possibilités de réalisation. Elle est
répétée 5 fois de manière indépendante. Ainsi, on se trouve dans les conditions d’un modèle multinomial. Soit
X1 : "nombre de matches gagnés par A"
X2 : "nombre de matches perdus par A"
et X3 : "nombre de matches nuls"
Donc, il faut déterminer la probabilité du vecteur multinomial (X1 = 2; X2 = 1; X3 = 2),
i.e.
5!
(0; 5)2 (0; 3)1 (0; 2)2 0; 09
P (X1 = 2; X2 = 1; X3 = 2) =
2!2!
4.5.1
Fonction caractéristique du vecteur aléatoire multinomial
De…nition 213 La fonction caractéristique X (t), t = (t1 ; t2 ; :::; tk )0 2 Rk ,
d’un vecteur aléatoire X = (X1 ; X2 ; :::; Xk )0 est donnée par l’expression suivante :
0
X
(t) = E eit X =
X1 ;:::;Xk
(t1 ; t2 ; :::; tk ) = E ei(t1 X1 +t2 X2 +:::+tk Xk )
86
Propriété
Il est aisé de montrer que :
#
@ h X1 ;:::;Xk (t1 ; t2 ; :::; tk )
@thj
= iE Xjh
j = 1; 2; :::; k et h = 1; 2; :::
t=(0;0;:::;0)0
La fonction caractéristique d’un vecteur aléatoire multinomial X =
(X1 ; X2 ; :::; Xk )0 est alors dé…nie pour tout t = (t1 ; t2 ; :::; tk )0 2 Rk telle que :
X
(t
;
t
;
:::;
t
)
=
Cnn1 ;:::;nk pn1 1 :::pnk k ei(t1 n1 +:::+tk nk )
1
2
k
X1 ;:::;Xk
n1 ;:::;nk
=
n1 ;:::;nk
=
it1
p1 e
n1 +:::+nk =n
X
Cnn1 ;:::;nk p1 eit1
n1
::: pk eitk
nk
n1 +:::+nk =n
+ ::: + pk eitk
n
Conséquence
Pour la loi multinomiale on a :
n
@ (p1 eit1 + ::: + pk eitk )
@tj
= inpj p1 eit1 + ::: + pk eitk
t=(0;0;:::;0)0
n 1
i
t=(0;0;:::;0)
= inpj
Par conséquent
E (Xj ) = npj
j = 1; 2; :::; k
Ainsi, on peut obtenir tous les moments des composantes du vecteur aléatoire
X, de même que tous les moments mixtes, par des dérivations partielles
classiques.
87
Chapitre 5
Probabilités sur les ensembles
dénombrables
Dans la pratique on est souvent confronté à des expériences aléatoires
admettant un nombre in…ni dénombrable d’épreuves. A ce niveau de complexité de l’espace de probabilité, la dé…nition d’un modèle de probabilité
n’est, en général, pas a¤ectée. Mais le calcul numérique des probabilités requiert une certaine familiarité avec la notion de convergence et celle de famille
sommable.
5.1
Notions sur les ensembles dénombrables
De…nition 214 On dit qu’un ensemble est dénombrable s’il est …ni ou s’il
existe une bijection de l’ensemble N des entiers naturels sur (i.e. l’application qui à p 2 N fait correspondre ! p 2 , est une bijection).
Remarque 215 Supposons que A1 ; A2 ; A3 ; ::: soit une suite in…nie de parties de . On peut dé…nir une union dénombrable (resp. une intersection
dénombrable) des sous-ensembles de Ai de , comme l’ensemble de tous les
éléments de appartenant à !
l’un au moins (resp. à tous) les sous-ensembles
1
1
[
\
Ai , notée
Ai resp.
Ai . Toutes les propriétés de la réunion et de l’ini=1
i=1
tersection des ensembles demeurent valables. On dira que les sous-ensembles
A1 ; A2 ; A3 ; ::: de sont deux à deux disjoints si Ai \ Aj = ? 8i 6= j.
88
5.1.1
Propriétés des ensembles dénombrables
Nous admettront sans démonstration que :
– Toute partie d’un ensemble dénombrable est dénombrable.
– La réunion dénombrable d’ensembles dénombrables est dénombrable.
– Le produit cartésien d’un ensemble …ni d’ensembles dénombrables est
dénombrable.
– Soient E un ensemble dénombrable et F un ensemble quelconque. Si f
est une application de E ! F , alors f (E) est dénombrable.
5.1.2
Tribu de parties d’un ensemble
De…nition 216 Soit un ensemble dénombrable. Notons C ( ) une classe
de partie de . On dit que C ( ) est une tribu si :
1) 8A 2 C ( ), alors A 2 C ( )
1
[
2) Pour toute suite (Ai )i 1 d’éléments de C ( ),
Ai 2 C ( )
i=1
5.1.3
Notions sur les familles sommables
Soit (ui )i2J une famille de nombres réels où J est un ensemble d’indices.
On dit de la suite (ui )i2J qu’elle est dénombrable s’il existe au moins une
bijection entre N et J , i.e. si on peut ranger les ui en les a¤ectant d’un indice
entier k.
P
De…nition 217 Si la série i2J u (i) est convergente quelque soit la bijection considérée et si sa somme S est indépendante de , alors on dit que
la famille (ui )i2J est sommable et de somme S, et on note :
X
ui = S
i2J
Remarque 218 La condition nécessaire et su¢ sante pour que la famille
(ui )i2J soit sommable, est qu’il existe une bijection de N sur J telle que
la série de terme général u (i) soit absolument convergente.
89
5.2
Probabilités sur les ensembles dénombrables
De…nition 219 Soit ( ; P ( )) un espace de probabilité, où
est un ensemble dénombrable. On appelle probabilité toute fonction d’ensemble P dé…nie sur ( ; P ( )) et à valeurs dans R, satisfaisant aux axiomes suivants :
K1 : 8A 2 P ( ), P (A) 0
K2 : P ( ) = 1
K3 : Pour toute suite (Ai )1 i n d’évènements de deux à deux disjoints, on
a:
!
n
n
[
X
P
An =
P (Ai )
i=1
i=1
Remarque 220 1) A ce niveau de complexité de l’espace fondamental on
peut toujours se permettre de considérer P ( ) comme ensemble des évènements de .
2) L’axiome K3 peut être remplacé par l’axiome K30 tel que :
1
\
Pour toute suite décroissante (An )n 1 d’évènements de telle que
An =
n=1
?, on a :
lim P (An ) = 0
n!1
Conséquences
– Pour toute suite décroissante (An )n
d’évènements de
!
1
\
lim P (An ) = P
An
n!1
Démonstration :
1
, on a :
n=1
Posons A =
1
\
An et Cn = An A. Puisque la
n=1
suite (An )n
est décroissante, i.e. An+1
An , alors la suite (Cn )n 1 est
1
\
décroissante et
Cn = ? par conséquent lim P (Cn ) = 0 d’après l’axiome
0
1
n!1
n=1
K3 . D’autre part, P (Cn ) = P (An )
lim P (Cn ) = lim fP (An )
n!1
n!1
P (A) car A
An 8n, donc
P (A)g = 0 =) lim P (An ) = P
n!1
90
1
\
n=1
An
!
– Pour toute suite croissante (Bn )n
d’évènements de
1
1
[
lim P (Bn ) = P
n!1
Bn
n=1
, on a :
!
Démonstration : Posons An = B n , donc la suite (An )n 1 est une suite
1
1
1
\
[
\
Bn =
An .
décroissante d’évènements de . D’autre part,
Bn =
n=1
n=1
n=1
Ainsi, on peut appliquer la conséquence (1) à la suite (An )n 1 . Alors
1
\
lim P (An ) = lim P B n = P
n!1
n!1
An
n=1
!
1
\
=P
Bn
n=1
!
=P
1
[
Bn
n=1
!
Donc
lim P B n = 1
n!1
1
[
lim P (Bn ) = P
n!1
n=1
D’où
1
[
lim P (Bn ) = P
n!1
– Pour toute suite (An )n
a:
Bn
!
Bn
n=1
=1
1
[
P
n=1
Bn
!
!
d’évènements de , deux à deux disjoints, on
!
1
1
[
X
P
An =
P (An )
1
n=1
n=1
Démonstration : Posons Sk =
k
[
An . La suite (Sk )k
n=1
suite croissante d’évènements de
et
1
[
Sk =
lim P (Sk ) = P
k!1
1
[
Sk
k=1
91
!
=P
est alors une
An . Donc, d’après la consé-
n=1
k=1
quence (2) on a :
1
[
1
1
[
n=1
An
!
D’où
P
1
[
An
n=1
!
k
[
= lim P
k!1
An
n=1
!
= lim
k!1
k
X
P (An ) =
n=1
P (An )
n=1
– Pour une suite quelconque (An )n 1 d’évènements de
!
1
1
[
X
P
An
P (An )
n=1
1
X
, on a :
n=1
Démonstration : Posons Sk =
k
[
An . Il a déjà été établi que :
n=1
P (Sk ) = P
k
[
n=1
An
!
k
X
P (An )
n=1
8k
D’autre part
P (Sk )
k
X
P (An )
n=1
P1
1
X
P (An )
n=1
8k
Si la série n=1 P (An ) ne converge pas, le résultat est évident. Dans le cas
contraire, la suite de terme général P (Sk ) est alors une suite croissante,
majorée et donc elle est convergente. Par conséquent :
!
1
1
[
X
lim P (Sk ) = P
An
P (An )
k!1
n=1
n=1
Example 221 Dans une suite indéterminée de jets d’une pièce de monnaie
équilibrée, calculer la probabilité qu’on obtient pour la première fois 0 f ace0 en
un nombre impair de jets.
Solution 222 Supposons que la pièce de monnaie soit lancée jusqu’à ce que
’face’ apparaît. Notons F l’évènement ’obtenir face’. L’espace des épreuves
est alors l’ensemble des suites des lettres F et P = F contenant une seule
lettre F au bout de la suite. Dé…nissons alors les évènements suivants :
Ak : "la première ’face’est obtenue au k eme jet"
92
k2N
Le problème est de déterminer la probabilité de l’évènement O :"la première
’face’est obtenue en un nombre impair de jets". Il est clair que l’on a :
O = A1 [ A3 [ A5 [ :::: =
Par ailleurs, les évènements (Ak )k
P (O) = P
P (O) =
1
22k
1
X
1
k=1
sont deux à deux disjoints, alors
!
1
1
[
X
A2k 1 =
P (A2k 1 )
k=1
, par conséquent
P (A2k 1 ) =
k=1
5.2.1
Ak
1
k=1
De plus, P (A2k 1 ) =
1
[
1
X
k=1
1
22k 1
=2
1
X
k=1
1
4
k
=
2
3
Probabilités conditionnelles
La dé…nition et les propriétés des probabilités conditionnelles s’étendent
immédiatement à un modèle probabilisé dans lequel l’espace fondamental
est dénombrable. Ainsi l’axiome des probabilités conditionnelles, la formule
des probabilités totales et le théorème de Bayes sont toujours applicables.
Cependant, il convient de remplacer dans toutes les formules, les sommes
…nies par les séries absolument convergentes correspondantes.
Proposition 223 Soit An
, n = 1; 2; ::: une suite d’évènements de
1
[
An = . Soit B un évènement
deux à deux incompatibles et tels que
n=1
quelconque non vide de
. Alors :
a) P (B) =
1
X
P (B An ) P (An )
(5.1)
k=1
P (B Ak ) P (Ak )
b) P (Ak B) = P1
k=1 P (B An ) P (An )
(5.2)
Remarque 224 La relation (5:1) est appelée formule des probabilités totales.
La relation (5:2) est connue sous le nom de théorème de Bayes.
93
Démonstration : 1) Soit (An )n
1
une partition de , donc
1
[
An = ,
n=1
pour tout sous-ensemble B de
B=B\
on a :
=B\
1
[
An
n=1
!
=
1
[
n=1
(B \ An )
Les ensembles B \ An , n = 1; 2; ::: sont deux à deux disjoints, d’où d’&près
0
l’axiome K3
!
1
1
1
[
X
X
(B \ An ) =
P (B \ An ) =
P (B An ) P (An )
P (B) = P
n=1
n=1
n=1
(5.3)
2) D’après l’axiome des probabilités conditionnelles, pour tout évènement Ak
on a :
P (B \ Ak )
k = 1; 2; :::
(5.4)
P (Ak B) =
P (B)
Or
P (B \ Ak ) = P (B Ak ) P (Ak )
(5.5)
Par conséquent, en utilisant les relations (5:3) et (5:5) dans (5:4) on a le
résultat :
P (B Ak ) P (Ak )
P (Ak B) = P1
n=1 P (B An ) P (An )
Example 225 Un joueur A lance une pièce de monnaie équilibrée jusqu’à
ce qu’il obtienne ’pile’. Si ’pile’est obtenue au k eme jet, alors il met 3k boules
dans une urne parmi lesquelles 2k boules sont blanches et les autres sont
rouges. Un autre joueur B tire au hasard une boule de l’urne.
a) Quelle est la probabilité que la boule tirée soit blanche ?
b) Si la boule tirée est blanche, quelle est la probabilité que le joueur A ait
obtenu ’pile’au troisième jet ?
Solution 226 a) Soit Ek l’évènement :"le joueur A obtient le premier ’pile’
au k eme jet", k = 1; 2; 3; :::. Alors :
P (Ek )
1
2k
k = 1; 2; :::
94
Soit W l’évènement :"le joueur B tire une boule blanche". Calculons P (W ).
La famille (Ek )k 1 d’évènements est une suite in…nie d’évènements incompatibles, i.e.
1
[
Ei \ Ej = ? et
Ek =
k=1
Il est clair que :
W =W\
1
[
=W\
Ek
k=1
!
=
1
[
k=1
(W \ Ek )
En appliquant l’axiome des probabilités conditionnelles, on obtient :
!
1
1
1
X
X
[
P (W Ek ) P (Ek )
P (W \ Ek ) =
P (W ) = P
(W \ Ek ) =
k=1
k=1
k=1
On sait que si le joueur A obtient ’pile’ au jet, il y aura 2k boules blanches
parmi boules dans l’urne, et donc :
P (W
D’où
2k
3k
Ek ) =
k = 1; 2; :::
1
1
X
2k 1
1X k
12
P (W ) =
=
=
k
k
k
1
3 2
3 k=1 6
25
k=1
b) Calculons maintenant P (E3 W ).
D’après le théorème de Bayes on a :
P (E3 W ) =
Or, P (E3 ) =
1
23
et P (W
P (E3 W ) =
5.2.2
P (W
E3 ) P (E3 )
P (W )
E3 ) = 92 , d’où
P (W
E3 ) P (E3 )
=
P (W )
1 2
23 9
12
25
=
25
432
0; 058
Probabilité produit
La notion de probabilité produit s’étend sans changement au cas où
un ensemble dénombrable.
95
est
5.3
Variables aléatoires
Les notions de variable aléatoire et de loi de probabilité d’une variable
aléatoire, sont dé…nies de la même manière que dans le cas …ni.
5.3.1
Loi ou distribution d’une variable aléatoire
De…nition 227 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )), où est un ensemble dénombrable. Soit (xi )i 1 la famille
des éléments de l’image de par X. La fonction numérique PX dé…nie sur
( ; P ( )) par la formule :
PX (xi ) = pi = P X
1
(fxi g)
est appelée loi ou distribution de probabilité de la variable aléatoire X.
Remarque
228 1) 8xi 2 X ( ), PX (xi )
P
P
(x
2) 1
i) = 1
i=1 X
5.3.2
0
Fonction de répartition d’une variable aléatoire
De…nition 229 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )). On appelle fonction de répartition de X la fonction numérique
F dé…nie sur R telle que :
F (x) = P (X
x)
Remarque 230 La fonction de répartition conserve toutes ses propriétés.
Entre autre, F (x) est positive, croissante et de plus :
lim F (x) = 0 et
x! 1
5.3.3
lim F (x) = 1
x!+1
Moments d’une variable aléatoire
Toute les dé…nitions relatives aux moments d’une variable aléatoire, à l’espérance mathématique, aux moments centrés, à la variance d’une variable
aléatoire, s’étendent immédiatement au cas où
est un ensemble dénombrable. Il est cependant recommandé de s’assurer que les sommes in…nies
ainsi obtenues sont convergentes.
96
De…nition 231 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )). Soit fxi ; PX (xi )gi 1 la distribution de probabilité de X et r
un entier naturel. On
P1dit rque X admet un moment d’ordre r que l’on note
mr (X), si la série i=1 xi PX (xi ) est convergente, i.e.
mr (X) =
1
X
xri PX (xi )
i=1
De…nition 232 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; P ( )), où est un ensemble
P1 dénombrable. Soit fxi ; PX (xi )gi 1 la
loi de probabilité de X. Si la série i=1 xi PX (xi ) converge, alors l’espérance
mathématique E (X) existe et est donnée par la formule suivante :
E (X) =
1
X
xi PX (xi )
i=1
Proposition 233 Si le moment d’ordre r de X existe il en est de même de
tous les moments de X d’ordre strictement inférieur à r.
Démonstration : Il su¢ t de remarquer que :
Xr
1
jX r j + 1
8r 2 N
Proposition 234 Soit X une variable aléatoire possédant une espérance mathématique. Alors les moments centrés et non centrés de la variable aléatoire
X existent jusqu’au même ordre.
Démonstration : Montrons l’implication
mr (X) existe =)
r
(X) existe
Si mr (X) existe, alors mk (X) existe 8k < r. D’autre part :
)
( r
X
E(X))r g = E
( 1)k Crk (E(X))k X r k
r (X) = E f(X
k=0
=
r
X
( 1)k Crk (E(X))k mr
k=0
97
k
(X)
Montrons la réciproque :
r
Si
r
(X) existe, alors
mr (X) = E f(X
=
r
X
(X) existe =) mr (X) existe
(X) existe 8k < r. D’autre part :
( r
X
E(X) + E(X))r g = E
Crk (X E(X))r
k
k
E Xk
k=0
Crk E X k
r k
(X)
k=0
Remarque 235 Les propriétés de la moyenne et de la variance demeurent
valables. De même que l’on peut établir l’inégalité de Bienaymé-Tchébichev
et dé…nir la fonction génératrice des moments dans le cas où l’espace de
probabilité est dénombrable. Toutefois, il convient à chaque fois de remplacer
les sommes …nies par les séries convergentes correspondantes.
5.3.4
Variable aléatoire ne possédant pas de moyenne
Example 236 Soit X une variable aléatoire dé…nie telle que :
X( )=N
et P (X = k) =
6
2k2
k = 1; 2; 3; :::
Il est facile de véri…er que :
1
X
i=1
Mais
1
6 X 1
P (X = k) = 2
=1
k2
i=1
1
X
6k
E (X) =
2k2
i=1
V (1)
98
1
X
1
i=1
k
divergente
)
5.3.5
Fonction caractéristique d’une variable aléatoire
La dé…nition de la fonction caractéristique 'X (t) d’une variable aléatoire
X ne change pas. Cependant, il faut s’assurer de son existence.
Existence
Dans le cas discret 'X (t) s’écrit telle que :
itX
'X (t) = E e
=
1
X
PX (xj ) eitxj
j=1
Par ailleurs, il est facile de véri…er que :
'X (t) =
1
X
j=1
PX (xj ) eitxj
j'X (t)j
1
X
PX (xj ) eitxj
j=1
1
X
PX (xj ) eitxj = 1
j=1
2
car jeitxj j = cos
(txj ) + sin2 (txj ) = 1.
P1
Ainsi, la série j=1 PX (xj ) eitxj est à termes positifs et majorée donc convergente. Par conséquent, 'X (t) existe toujours.
5.3.6
Variables aléatoires à valeurs dans R2
La dé…nition établie dans le cas où l’espace est …ni s’étend immédiatement au cas où est dénombrable. On dé…nit de la même manière la distribution conjointe ou loi du couple, les distributions marginales, la fonction
de répartition, ainsi que l’indépendance des variables aléatoires.
Moment du produit de deux variables aléatoires indépendantes
Proposition 237 Soient X et Y deux variables aléatoires indépendantes dé…nies sur le même espace de probabilité ( ; P ( )) et possédant des moments
d’ordre r. Alors, le produit XY admet un moment d’ordre r tel que :
mr (XY ) = mr (X) mr (Y )
99
Démonstration : Par hypothèse PXY = PX PY et les séries
P
r
et 1
i=1 yj PY (yj ) sont convergentes. Alors
mr (XY ) =
=
1 X
1
X
i=1 i=1
1
X
xri yjr PXY
(xi ; yj ) =
i=1
xri PX (xi )
xri yjr PX (xi ) PY (yj )
i=1 i=1
!
1
X
xri PX (xi )
i=1
1 X
1
X
P1
!
yjr PY (yj )
i=1
< +1
Les propriétés des moments des couples de variables aléatoires, les dé…nitions de la covariance de deux variables aléatoires et leur coe¢ cient de
corrélation, des droites de régression et de la somme des variables aléatoires,
restent sans changement. Il en est de même pour la dé…nition de la fonction de répartition d’un couple de variables aléatoires et de la dé…nition des
variables aléatoires à valeurs dans R2 . Il convient toujours de remplacer les
sommes …nies par des séries convergentes, chaque fois que cela est nécessaire.
La fonction caractéristique d’un couple de variables aléatoires est dé…nie
de façon analogue à celle d’une seule variable aléatoire, i.e.
'XY (t1 ; t2 ) = E ei(t1 X+t2 Y )
Si X et Y sont indépendantes, alors :
'XY (t1 ; t2 ) = E ei(t1 X+t2 Y ) = E eit1 X eit2 Y = E eit1 X E eit2 Y = 'X (t1 ) 'Y (t2 )
L’extension de cette dé…nition à n variables aléatoires X1 ; X2 ; :::; Xn est immédiate.
5.4
5.4.1
Lois de probabilité usuelles
Loi géométrique ou loi de Pascal G(p)
Considérons une suite in…nie d’expériences de Bernoulli indépendantes.
Chaque expérience aléatoire admet deux résultats possibles, un succès (S)
ou une défaite (D) tels que :
P (S) = p et P (D) = 1
100
p
0
p
1
Soit X la variable aléatoire "nombre d’expériences nécessaires à l’obtention
du 1er succès". Il est évident que X peut prendre les valeurs 1; 2; 3; :::, i.e.
X ( ) = N . L’évènement (X = k) veut dire que le 1er succès est obtenu à la
k eme expérience. Il est clair que les (k 1) expériences précédentes ont donné
(k 1) défaites. La probabilité de cet évènement est alors :
P (X = k) = pk = p (1
p)k
1
k = 1; 2; :::
De…nition 238 Une variable aléatoire X dé…nie sur un espace de probabilité associé à l’expérience décrite plus haut, est distribuée suivant une loi
géométrique ou loi de Pascal, notée G(p), telle que :
p)k
P (X = k) = pk = p (1
Remarque
239P1) pk 0, 8k 2 N
P1
p)k 1 = p 1
2) k=1 pk = p 1
k=1 (1
1
(1 p)
1
k2N
=1
Calcul des moments de la loi géométrique G(p)
Soit X une variable aléatoire de loi G(p). Alors :
G (s) = E sX =
1
X
p)k
p (1
1
sk = sp
k=1
1
X
k=1
p)gk
fs (1
1
=
sp
s (1
1
p)
Donc
G0 (s) =
p
s (1
f1
2
p)g
et
G00 (s) =
2p (1 p)
f1 s (1 p)g3
D’où
E (X) = G0 (1) =
5.4.2
1
p
et
V ar(X) = G00 (1) + G0 (1)
2
(G0 (1)) =
1
p
p2
=
q
p2
Loi binomiale négative
Considérons une suite in…nie d’expériences aléatoires de Bernoulli indépendantes. Chacune de ces expériences aléatoires admet deux issues possibles,
un succès (S) ou une défaite (D = S), telles que :
P (S) = p et P (D) = q = 1
101
p
Considérons la variable aléatoire X : "nombre d’expériences nécessaires
à l’obtention de m succès ".
Remarque 240 Il est évident que pour m = 1 on retrouve la loi de Pascal.
La variable aléatoire X est aussi appelée temps d’attente pour la réalisation
de m succès.
Considérons l’évènement A : "La k eme expérience a donné un succès". Il
est évident que P (A) = p. Soit Sm 1 l’évènement «Obtenir (m 1) succès parmi les (k 1) précédentes expériences» . Alors, l’évènement A \ Sm 1
veut dire qu’on a obtenu m succès en k exériences et que la k eme expérience a donné un succès, i.e. A \ Sm 1 = (X = k). Par ailleurs, P (Sm 1 ) =
Ckm 11 pm 1 (1 p)k m et les évènements A et Sm 1 sont indépendants, d’où
P (X = k) = P (Sm
p)k
\ A) = P (Sm 1 ) P (A) = Ckm 11 pm (1
1
m
De…nition 241 Soit ( ; P ( )) l’espace de probabilité associé à une suite
in…nie d’expériences aléatoires de Bernoulli indépendantes ayant deux issues
possibles S et D telles que P (S) = p et P (D) = q = 1 p. Soit X la
variable aléatoire "nombre d’expériences nécessaires pour l’obtention de m
succès". Alors la distribution de probabilité de la variable aléatoire X est
appelée loi binomiale négative, notée B (m; p), de distribution de probabilité
dé…nie telle que :
pk =
k=m
1
X
p)k
Ckm 11 pm (1
P1
k=m
m
si k m
si k < m
pk = 1. En e¤et
= pm
k=m
1
X
(k
1) (k
k=m
m
1
X
m 1
k 1
d
q
p
=
(m 1)! k=m dq m 1
m
=
m
0
Remarque 242 Il est clair que
1
X
p)k
Ckm 11 pm (1
P (X = k) = pk =
m 1
p
d
(m 1)! dq m
1
m
1
1
pm
dm
=
(m 1)! dq m
q
=
102
1
1
2) ::: (k
(m 1)!
1
X
k=1
p
(m 1)!
=1
(m 1)! pm
qk
m + 1)
1
!
(1
p)k
m
Une autre manière de véri…er l’assertion est :
1
X
1
X
pk =
k=m
Ckm 11 pm
k m
(1
p)
=p
m
k=m
1
X
(k
1) (k
2) ::: (k
(m 1)!
k=m
m
(1
1!
= pm 1 +
p) +
m (m + 1)
(1
2!
p)2 + :::
= pm p
m + 1)
m
p)k
(1
m
=1
Fonction génératrice des moments de la loi B (m; p)
5.4.3
Par dé…nition, on a :
G (s) = E s
X
=
1
X
s
k
Ckm 11 pm
k m
(1
p)
m
= (sp)
k=m
m
1
X
Ckm 11 fs (1
k=m
1
X
(sp)
=
(k
(m 1)! k=m
1) (k
2) ::: (k
m + 1) fs (1
p)g
k m
=
p)gk
1
m
sp
s (1
Par ailleurs
dG(s)
=m
G (s) =
ds
0
1
sp
s (1
1
sp
s (1
m 1
(1
p
s (1
(1
p2
s (1
p)
p))2
et
G00 (s) =
d2 G(s)
= m (m
ds2
1)
m 2
p)
2
p))
1+
2s (1 p)
m 1
Par conséquent, on déduit les moments particuliers de la loi binomiale négative B (m; p) tels que :
E (X) =
d2 G(s)
V ar (X) =
ds2
s
dG(s)
ds
dG(s)
+
ds
1
s=1
=
s=1
m
p
dG(s)
ds
2
=
s=1
m (1 p)
p2
Example 243 Quel est le nombre moyen de fois qu’on doit lancer un dé
équilibré pour obtenir 5 fois la face "6" ? Calculer l’écart-type de la distribution.
103
m
p)
Solution 244 Le jet d’un dé équilibré est l’expérience aléatoire que l’on va
répéter jusqu’à obtenir 5 fois la face "6". Donc, cette expérience est dichotomique, i.e. l’expérience a deux résultats possibles S ="6" ou bien D = S,
telle que :
5
1
et P (D) =
P (S) = P ("6") =
6
6
Soit X la variable aléatoire : nombre de jets nécessaire pour l’obtention de
5 fois la face "6". Donc, X est distribuée suivant une loi binomiale négative
B 5; 16 . Alors :
m
5
E (X) =
= 1 = 30
p
6
et
V ar (X) =
5 1
m (1 p)
=5
= 150 et
2
p
6 1 2
X
= 12; 25
6
5.4.4
Distribution de Poisson P ( )
Le modèle de probabilité de Poisson est un modèle naturel souvent utilisé
dans le cas des évènements rares tels que, par exemple, la durée de vie d’un
individu, le nombre d’habitants sou¤rant d’une maladie rare, le nombre de
fautes typographiques par page d’impression, etc. Cependant, le modèle de
Poisson est aussi considéré comme modèle limite de certains modèles classiques de probabilité …nis. Ce modèle est aussi utilisé pour décrire des évènements tels que la durée de vie d’une lampe à incandescence, le nombre
de voitures s’arrêtant à un feu rouge en une certaine période de temps, le
nombre de pannes d’une machine, etc.
De…nition 245 Soit X une variable aléatoire dé…nie sur un espace de probabilité ( ; P ) telle que X ( ) = N. On dit que X est distribuée suivant une
loi de Poisson, notée P ( ), si :
k
P (X = k) = pk = e
Remarque 246 Il est clair que
1
X
k=0
pk =
1
X
k=0
P1
k=0
k!
;
k2N
pk = 1. En e¤et
k
e
k!
=e
1
X
k=0
104
k
k!
=e
e+ = 1
Fonction génératrice des moments de P ( )
Par dé…nition, on a :
G (s) = E s
X
=
1
X
k
k
s e
k=0
k!
=e
1
X
(s )k
=e
k!
k=0
(s 1)
Par ailleurs
G0 (s) =
dG(s)
= e
ds
(s 1)
et G00 (s) =
d2 G(s)
=
ds2
2
e
(s 1)
Par conséquent
E (X) =
et
V ar (X) =
d2 G(s)
ds2
+
s 1
dG(s)
ds
dG(s)
ds
=
s=1
s=1
dG(s)
ds
2
=
s=1
Example 247 Un compteur Geiger-Mûller exposé à une radiation stable
montre sur l’écran en moyenne quatre particules scintillantes radioactives
(spots). En supposant que le nombre de particules sur l’écran est une variable
aléatoire X distribuée suivant une loi de Poisson, calculer la probabilité qu’il
y ait :
1) exactement 3 spots
2) au moins 4 spots
3) un nombre pair de spots
Solution 248 Par hypothèse la variable aléatoire X "nombre de spots sur
l’écran" est distribuée suivant une loi de Poisson P ( ) de moyenne = 4.
Donc :
P (X = k) = e
k
44
k!
3
k = 0; 1; 2; :::
1) P (X = 3) = e 4 43! ' 0; 195
P1
P1
4 4k
2) P (X 4) =
= 1 P (X < 4) = 1
k=4 P (X = k) =
k=4 e
k!
fP (X = 0) + P (X = 1) + P (X = 2) + P (X = 3)g ' 05665
105
P
P1
4 42k
. Par ailleurs, on a e =
3) P (X pair) = 1
k=0 P (X = 2k) =
k=0 e
(2k)!
P1
P1 k
P1
2k
k k
1
=
et
e
=
(
1)
,
donc
e
+
e
, d’où
k=0 e
k=0 k!
k=0
k!
2
(2k)!
P (X pair) =
1
X
k=0
5.5
e
4
42k
1 4
=
e +e
(2k)!
2
4
=
1
1+e
2
8
= 0; 50017
Convergences stochastiques
Les distributions de probabilité les plus fréquemment rencontrées dans la
pratique correspondent en général à un nombre …ni d’expériences aléatoires.
Et de ce fait, quand le nombre d’expériences augmente signi…cativement, le
calcul de probabilité dans le cadre de ces modèles devient fastidieux. Cependant, en recadrant le problème dans des espaces fonctionnels adéquats, il nous
est possible d’introduire des notions de convergence de suites de fonctions.
Puisque les fonctions considérées sont aléatoires on parlera de convergence
stochastique.
5.5.1
Convergence en moyenne quadratique
De…nition 249 Soit (Xn )n 1 une suite de variables aléatoires dé…nies sur
un espace de probabilité ( ; P ( )), où Xn admet un moment d’ordre deux
8 n. Soit X une variable aléatoire dé…nie sur le même espace de probabilité
( ; P ( )) et admettant aussi un moment d’ordre deux. On dit que la suite
(Xn )n 1 converge vers X en moyenne quadratique (M:Q), on note en général
Xn
M:Q
! X, si :
n!1
lim E jXn
n!1
Xj2 = 0
Proposition 250 Pour qu’une suite (Xn )n 1 de variables aléatoires converge
en M:Q, il faut et il su¢ t que 8" > 0, 9N (") tel que dès que m > N (") et
n > N ("), on a :
E jXn Xm j2 < "
5.5.2
Convergence en probabilité
De…nition 251 Soit (Xn )n 1 une suite de variables aléatoires dé…nies sur
un espace de probabilité ( ; P ( )), où Xn admet un moment d’ordre deux
106
8 n. Soit X une variable aléatoire dé…nie sur le même espace de probabilité
( ; P ( )) et admettant aussi un moment d’ordre deux. On dit que la suite
Pr
(Xn )n 1 converge en probabilité vers X, que l’on note Xn ! X, si 8" >
n!1
0; 8 > 0; 9N (") tel que, dès que n > N ("), on a :
P (jXn
Xj > ") <
Proposition 252 Soit (Xn )n 1 une suite de variables aléatoires dé…nies sur
l’espace de probabilité ( ; P ( )), où Xn admet un moment d’ordre deux 8 n.
Soit X une autre variable aléatoire dé…nie sur le même espace de probabilité
( ; P ( )) et possédant un moment d’ordre deux. Pour que la suite (Xn )n 1
converge en probabilité vers X il su¢ t que l’espérance mathématique et la
variance de la variable aléatoire (Xn X) convergent vers 0 quand n ! 1.
Remarque 253 En particulier, pour que la suite de variables aléatoires (Xn )n
converge en probabilité vers une variable aléatoire certaine L, il su¢ t que :
E (Xn )
5.5.3
!L
n!1
et
V ar (Xn )
!0
n!1
Loi faible des grands nombres
Théorème 254 Soit (Xi )i 1 une suite de variables aléatoires dé…nies sur
l’espace de probabilité ( ; P ), deux à deux indépendantes et de même loi telle
que E (Xi ) = et V ar (Xi ) = 2 . Considérons la suite (Sn )n 1 dé…nie telle
que :
n
1X
Xi
n = 1; 2; :::
Sn =
n i=1
Alors la suite (Sn )n 1 converge en probabilité vers l’espérance mathématique
commune aux variables aléatoires Xi .
Démonstration : Soit (Xn )n 1 une suite de variables aléatoires deux à
deux indépendantes et telles queP
E (Xn ) = et V ar (Xn ) = 2 8n. Considé1
rons la suite (Sn )n 1 où Sn = n ni=1 Xi . Alors on a :
1X
E (Xi ) =
n i=1
n
E (Sn ) =
et V ar (Sn ) =
107
n
2
1 X
V
ar
(X
)
=
i
n2 i=1
n
1
Donc, d’après la proposition précédante la suite (Sn )n
bilité vers .
1
converge en proba-
Example 255 Déterminer le nombre n de jets d’un dé équilibré à partir
duquel la probabilité pour que la moyenne des points obtenus di¤ère de 3; 5
1
, soit supérieure à 0; 95.
d’au plus 100
Solution 256 Soit Xi la variable aléatoire "nombre obtenu au ieme jet du
dé". Alors :
35
E (Xi ) = 3; 5 et V ar (Xi ) =
12
Pn
1
Soit Sn = n i=1 Xi la moyenne des points obtenus en n jets. Donc, on
cherche n tel que :
P
jSn
1
100
3; 5j
0; 95
L’expression ci-dessus peut être exprimée de façon équivalente telle que :
P
jSn
3; 5j >
1
100
< 0; 95
En utilisant l’inégalité de Bienaymé-Tchébitchev, on a :
P (jSn
3; 5j > ") <
V ar (Sn )
"2
i)
Or V ar (Sn ) = V ar(X
, donc en posant " =
n
V ar(Sn )
35
4
= 12n 10 = 0; 05 d’où n = 583333.
"2
5.5.4
1
100
et V ar (Xi ) =
35
12
on aura
Convergence en loi
De…nition 257 Soit (Xn )n 1 une suite de variables aléatoires dé…nies sur
l’espace de probabilité ( ; P ( )). Soit X une variable aléatoire dé…nie sur le
même espace de probabilité ( ; P ( )). On dit que la suite (Xn )n 1 converge
Loi
en loi ver X, que l’on note Xn ! X, si pour tout couple (a; b) de nombres
n!1
réels entre lesquels la fonction de répartition de X est continue, on a :
lim P (a < Xn
n!1
b) = P (a < X
108
b)
Proposition 258 Soit (Xn )n 1 une suite de variables aléatoires dé…nies sur
l’espace de probabilité ( ; P ( )) où Xn admet pour fonction de répartition
Fn ,8n. Soit X une variable aléatoire dé…nie sur le même espace de probabilité ( ; P ( )) et admettant pour fonction de répartition F . Pour que la
suite (Xn )n 1 converge en loi vers X, il faut et il su¢ t que Fn (x) converge
simplement vers F (x) en tout point où F (x) est continue.
Remarque 259 1) Si les variables aléatoires Xn et X prennent leurs valeurs
dans N ou dans une partie de N, on dit que la suite (Xn )n 1 converge en loi
vers X si, pour tout entier naturel k :
lim P (Xn = k) = P (X = k)
n!1
2) Soit (Xn )n 1 une suite de variables aléatoires dé…nies sur l’espace de probabilité ( ; P ( )). Soit X une variable aléatoire dé…nie sur le même espace
de probabilité ( ; P ( )). Si la suite (Xn )n 1 converge en probabilité vers X,
alors (Xn )n 1 converge en loi vers X.
5.5.5
Convergence de la loi binomiale vers la loi de
Poisson
Soit (Xn )n 1 une suite de variables aléatoires binomiales B(n; p) de distribution de probabilité :
P (Xn = k) = Cnk pk (1
p)n
k
0
k
n
Supposons que la quantité np reste constante et égale à , quand n ! 1.
Proposition 260 La suite (Xn )n 1 de variables aléatoires binomiales de distribution B(n; p) converge en loi vers la distribution de Poisson P( = np)
quand n ! 1.
Démonstration : Pour calculer lim P (Xn = k), posons p = n . On a
n !1
alors
P (Xn = k) =
n (n
k
=
k!
1) ::: (n
k!
n
1
n
k
k + 1)
n
n
2
n
:::
109
n
n k
1
k+1
n
n
n
1
n
k
1
n
D’où
k
lim P (Xn = k) =
n !1
Or lim
e
n !1
n 1
n
k! n
lim
!1
= ::: = lim
, par conséquent
n
n !1
1
n
n k+1
n
::: lim
n
k+1
n
n !1
= 1, lim
n !1
k
1
n
n
lim
n !1
1
= 1 et lim
n !1
lim
n
1
k
n !1
n
n
=
k
lim P (Xn = k) = e
k!
Donc lim P (Xn = k) est distribuée suivant une loi de Poisson P( ).
n !1
n !1
Dispositions pratiques
Si n est assez grand, en général n > 50, et si p est assez petit, en général
p 0; 10 ou plus généralement si np est …ni quand n ! 1, il est possible
de remplacer la loi binomiale B(n; p) par la loi de Poisson P( = np).
2
1
), B(1000; 1000
)
Example 261 Comparons numériquement les distributions B(20; 10
et P(2).
1
2
k B(20; 10
) B(1000; 1000
) P(2)
0
0; 122
0; 133
0; 135
1
0; 274
0; 271
0; 271
2
0; 285
0; 273
0; 271
3
0; 190
0; 182
0; 182
4
0; 089
0; 090
0; 090
5
0; 032
0; 035
0; 036
6
0; 009
0; 011
0; 012
7
0; 002
0; 003
0; 003
Example 262 Considérons une suite indéterminée d’expériences indépen1
dantes de Bernoulli telles que la probabilité d’avoir un succès est 100
et celle
99
d’avoir une défaite est 100 . Déterminer le nombre minimum n d’épreuves
à partir duquel la probabilité d’obtenir au moins un succès est supérieure à
0; 95.
Solution 263 Soit Xk la variable aléatoire de Bernoulli dé…nie telle que :
Xk =
1 si la k eme expérience donne un succès
0 si la k eme expérience donne une défaite
110
1
n
avec
1
99
et P (Xk = 0) =
100
100
P
Considérons la variable aléatoire Sn dé…nie telle que Sn = nk=1 Xk . Alors
Sn représente le nombre de succès obtenus en n expériences. Ainsi, on doit
chercher n tel que :
P (Sn 1) 0; 95
P (Xk = 1) =
Par ailleurs, P (Sn 1) = 1 P (Sn = 0) 0; 05 =) P (Sn = 0) = (0; 99)n <
0; 05, d’où n = 298.
n
1
) donc on peut l’approcher par la loi P( = 100
)
D’autre part, Sn B(n; 100
n
n
et ainsi on a P (Sn = 0) = e 100 < 0; 05 =) 100
< ln (0; 05) =) n >
299; 57 300
5.5.6
Convergence de la loi hypergéométrique vers la
loi binomiale
Proposition 264 Soit (XN )N 1 une suite de variables aléatoires de distribution hypergéométrique H(N; n; p). Supposons n 2 N , p 2 [0; 1] \ Q et
N p 2 N 8N 2 N. Alors la suite (XN )N 1 converge en loi vers une variable
aléatoire binomiale X de distribution B(n; p), quand N ! 1.
Démonstration : On sait que la distribution de XN est telle que :
P (XN = k) =
CNk p CNn (1k
p)
CNn
En développant l’expression ci-dessus, on obtient :
(N p)!
N (1 p)!
n! (N n)!
k! (N p k)! (n k)! (N (1 p) (n k))!
N!
n! fN p::: (N p (k 1))g fN (1 p) ::: (N (1 p)
=
k! (n k)!N (N 1) ::: (N (n 1))
P (XN = k) =
(n
Le produit N p (N p 1) ::: (N p (k 1)) est un polynôme d’indéderminé N p et de degré k. Donc, au voisinage de l’in…ni ce polynôme est
équivalent au monôme (N p)k . De même, les expressions N (1 p) :::
111
k
1))g
(N (1 p) (n k 1)) et N (N 1) ::: (N (n 1)) sont équivalentes au voisinage de l’in…ni, respectivement à fN (1 p)gn k et à N n .
D’où
#
"
(N p)k fN (1 p)gn k
n!
lim P (XN = k) = lim
N !1
N !1 k! (n
k)!
Nn
=
n!
pk (1
k! (n k)!
p)n
k
Finalement
lim P (XN = k) = Cnk pk (1
N !1
112
p)n
k
= P (X = k)
Chapitre 6
Probabilités sur les ensembles
non dénombrables
Dans le cas discret on a toujours su dé…nir la probabilité P sur l’espace de
probabilité ( ; P ( )) où est un ensemble dénombrable. Mais, si l’espace
fondamental
est non dénombrable, il ne nous sera pas toujours possible
de munir ( ; P( )) d’une probabilité bien dé…nie sur tous les éléments de la
tribu maximale P( ). On considèrera alors comme espace de probabilité le
couple ( ; A) où A est une sous-tribu des éléments probabilisables de P( ).
De…nition 265 Soit
un ensemble non dénombrable et soit A une tribu
de parties de . On appelle probabilité dé…nie sur ( ; A) toute application P
dé…nie sur A et à valeurs dans [0; 1], et satisfaisant aux axiomes suivants :
K1 : P ( ) = 1
K2 : 8A; B deux évènement de tels que A \ B = ?, alors :
P (A [ B) = P (A) + P (B)
K3 : Pour toute suite (An )n
1
décroissante d’éléments de A tels que
?, alors :
\
An =
n 1
lim P (An ) = 0
n!1
Remarque 266 Le triplet ( ; A; P ) est appelé espace probabilisé. Toutes
les propriétés démontrées dans le cas discret restent valables à condition que
toutes les suites considérées soient dénombrables.
113
6.1
Variables aléatoires absolument continues
6.1.1
Exemple introductif
Considérons une répétition indéterminée d’une expérience aléatoire dichotomique E de réalisations A (succès) ou A (défaite), telles que P (A) = p
et P A = 1 p = q. Un élément ! de l’espace des épreuves associé à
cette répétition de l’expérience E est une suite in…nie composée des symboles A et A. On attribue aux épreuves A et A le code binaire à l’aide de la
correspondance :
A ! 1 et A ! 0
Ensuite, on dé…nit une application X de dans l’intervalle [0; 1] de R de la
façon suivante : à un élément ! de , par exemple AAAAA::: dont le codage
est 10110:::, on fait correspondre un nombre 2 [0; 1] \ R tel que :
=1
1
2
1
+0
1
2
2
3
1
2
+1
+1
1
2
4
+0
1
2
5
+ :::
Plud généralement, à tout élément ! de on fait correspondre un codage
du type 1 2 3 ::: n 1 n :::: où i = 1 ou bien i = 0, i = 1; 2; :::; n; :::. L’image
de ! par cette correspondance est alors :
=
1
X
n
n=1
1
2
n
Remarque 267 L’image de ! est un nombre réel
0
En e¤et,
tel que :
1
1
X
n=1
1
2
n
=1
Par ailleurs, 8! 2 , P (f!g) = 0. Ainsi, tous les singletons de sont
de probabilité nulle. Par conséquent, le principe qui stipule que la probabilité d’un évènement de
est la somme des probabilités des évènements
élémentaires dont il est la réunion, n’est plus valable. Cependant, il existe
des évènements de de probabilité non nulle. Par exemple, l’ensemble des
suites ! 2 commençant par le symbole A, est de probabilité p et l’ensemble
114
des suites ! 2 commençant par A, est de probabilité q = 1 p.
L’image par la variable aléatoire X de l’ensemble des suites ! 2 commençant par A, est l’intervalle 21 ; 1 de R et sa probabilité est p. Par contre,
l’image par X de l’ensemble des suites ! 2 commençant par A, est l’intervalle 0; 21 de R et sa probabilité est q = 1 p. On introduit alors la notion
de probabilité d’un intervalle de R. L’ensemble fondamental n’est plus un
ensemble discret. On dit alors qu’il a la puissance du continu.
6.1.2
Variables aléatoires dé…nies sur R
De…nition 268 Soit ( ; A; P ) un espace probabilisé. On appelle variable
aléatoire réelle, toute fonction numérique X dé…nie sur et à valeurs dans
R, telle que :
8x 2 R; X 1 (] 1; x]) 2 A
De…nition 269 La famille des intervalles de R de la forme ]a; b] est une
tribu. On l’appelle la tribu borélienne de R, notée BR .
De…nition 270 On dit qu’une variable aléatoire X est continue si l’ensemble X( ) est un intervalle ou une réunion d’intervalles de R.
De…nition 271 Soit X une variable aléatoire dé…nie sur l’espace de probabilité ( ; A) et à valeurs dans R. On dit que X est mesurable si :
8 ]a; b]
1
R; X
(]a; b]) 2 A
Conséquence
On peut dé…nir une probabilité sur (X ( ) ; BR ) l’espace image par X de
l’espace de probabilité ( ; A), telle que :
8 ]a; b]
6.1.3
R;
(]a; b]) = P X
1
(]a; b]) = P (a < X
b)
Fonction de répartition d’une variable aléatoire
continue
De…nition 272 On appelle fonction de répartition d’une variable aléatoire
X, la fonction numérique et positive F dé…nie telle que :
F (x) = P (X
x) = P X
1
115
(] 1; x]) =
(] 1; x])
Propriétés
– La fonction de répartition F est croissante et continue. De plus :
lim F (x) = 0 et
lim F (x) = 1
x! 1
x!+1
– 8 a; b deux nombres réels tel que a < b, on a :
(]a; b]) = P (a < X
b) = F (b)
F (a)
En e¤et, on a ] 1; a] [ ]a; b] = ] 1; b], alors puisque
babilité, on a :
(] 1; a]) +
(]a; b]) =
est une pro-
(] 1; b])
Par conséquent
(]a; b]) =
(] 1; b])
(] 1; a]) = F (b)
F (a)
De…nition 273 Soit X une variable aléatoire dé…nie sur l’espace probabilisé
( ; A; P ) et soit F sa fonction de répartition. On dit que la variable aléatoire
X est absolument continue si elle est continue et si de plus, il existe une
fonction f dé…nie sur R et possédant les propriétés suivantes :
1) f (x) 0, 8x 2 R. La fonction f est continue sauf peut-être en un nombre
de Rpoints au plus dénombrable.
+1
2) 1 f (x)dx = 1
3) La probabilité de tout évènement (a < X b) est dé…nie telle que :
Z b
P (a < X b) =
f (x)dx
a
La fonction f est alors appelée densité de probabilité de la variable aléatoire
X.
Conséquence
Il est clair qu’on a :
dF (x)
= f (x)
dx
ou bien
F (x) =
Z
x
f (t)dt
1
Une variable aléatoire dont la fonction de répartition F (x) est continue et
possède en tout point de R une dérivée à droite et une dérivée à gauche,
est absolument continue. La fonction de densité de probabilité f (x) de la
variable aléatoire X détermine entièrement la distribution de X.
116
Remarque 274 La fonction de répartition d’une variable aléatoire X peut
s’écrire telle que :
Z x
f (t)dt
F (x) = P ( 1 < X x) =
1
Ainsi, on peut redémontrer la deuxième propriété de la fonction de répartition. En e¤et
Z a
Z b
Z b
f (x)dx = F (b) F (a)
f (x)dx
f (x)dx =
P (a < X b) =
a
1
1
Example 275 Considérons la fonction f (x) dé…nie pour tout
que :
ke x si x 0
f (x) =
0
si x < 0
> 0 telle
Déterminons la constante k pour que la fonction ainsi dé…nie soit la densité
d’une variable aléatoire X. Pour que f (x) soit une densité de probabilité il
faut qu’elle satisfait aux deux conditions suivantes :
Z +1
f (x) 0 et
f (x)dx = 1
1
Alors f (x) 0 =) k 0, de plus
Z +1
Z +1
f (x)dx =
ke
1
x
dx = k
e
x
0
1
=
k
=1
0
d’où k = .
6.2
Moments des variables aléatoires admettant une densité
De…nition 276 Soit X une variable aléatoire de densité de probabilité f (x)
et soit r un entier naturel. On dit que la variable aléatoire X admet un
moment d’ordre r, noté mr (X), si la fonction xr f (x) est intégrable sur R,
i.e.
Z +1
mr (X) =
1
xr f (x)dx < 1
117
R +1
Remarque 277 1) mr (X) existe si 1 jxr j f (x)dx existe.
2) Soit X une variable aléatoire de densité f (x). Soit g(x) une application
mesurable de R dans R (i:e:8 ]a; b] R; g 1 (]a; b]) 2 BR ). Alors :
Z +1
E fg (X)g =
g (x) f (x) dx
1
R +1
L’intégrale ci-dessus existe si 1 jg (x)j f (x) dx existe.
3) Les dé…nitions des di¤érents moments, de la variance, des couples de variables aléatoires et de la covariance, s’étendent aussitôt au cas des variables
P
aléatoires admettant
une densité, à condition de remplacer le symbole
par
R
le symbole et de s’assurer que les intégrales correspondantes convergent.
Conséquences
R +1
– r (X) = E [(X E (X))r ] = 1 (x E(X))r f (x)dx
R +1
– V ar(X) = 2 (X) = E (X E(X))2 = 1 (x E(X))2 f (x)dx
R +1 R +1
– m;n (X; Y ) = E [(X E(X))m (Y E(Y ))n ] = 1 1 (x E(X))m (y E(Y ))n dxdy
R +1 R +1
– Cov (X; Y ) = E [(X E(X)) (Y E(Y ))] = 1 1 (x E(X)) (y E(Y )) dxdy
Les propriétés démontrées dans le cas des modèles de probabilité dénombrables et relatives à l’existence des moments d’ordre inférieur à r s’étendent
immédiatement au cas des variables aléatoires absolument continues.
6.3
6.3.1
Etude de quelques lois fondamentales
Transformation des variables aléatoires
Soit X une variable aléatoire absolument continue admettant pour densité
de probabilité la fonction f (x) dé…nie telle que :
Z x
FX (x) = P (X x) =
f (t)dt
1
Soit g une application de (R; BR ) dans (R; BR ), injective, continue et admettant une dérivée d’ordre 1. Dé…nissons la variable aléatoire Y = g(X) et
déterminons sa densité de probabilité h(y).
Alors, puisque X est une variable aléatoire absolument continue et g une
application continue donc mesurable, Y = g(X) est une variable aléatoire
118
absolument continue. Soit FY (y) la fonction de répartition de Y dé…nie telle
que :
FY (y) = P (Y
y) = P (f! 2
Y (!) = g(X) (!)
= P (f! 2
(g X) (!) yg) = P (f! 2
yg)
g [X (!)]
yg)
Par ailleurs, si l’application g est bijective, on peut considérer deux situations :
a) Si g est une application croissante, g 1 est alors une fonction croissante,
donc :
FY (y) = P
!2
X (!)
Par ailleurs, h(y) =
f fg 1 (y)g
1
g
dFY (y)
dy
=
(y)
=P X
dFX (g 1 (y)) dg 1 (y)
dy
dy
1
(y) = FX g
1
(y)
1
= f fg 1 (y)g dg dy(y) =
1
dg(y)
dy
, d’où
1
h(y) =
dg(y)
dy
f g 1 (y)
b) Si g est une application décroissante, g
croissante. Donc :
FY (y) = P
g
!2
X (!)
Par ailleurs, h(y) =
d’où
dFY (y)
dy
g
1
=
h(y) =
(y)
=P X
df1 FX (g
dy
1
dg(y)
dy
1
1 (y)
)g
est alors une fonction dég
=
1
(y) = 1 FX g
f fg 1 (y)g
dg(y)
dy
f g 1 (y)
Finalement,
h(y) =
1
dg(y)
dy
f g 1 (y)
Example 278 Soit g une application de R dans R dé…nie telle que :
8t 2 R; g(t) = at + b
119
a; b 2 R et a 6= 0
1
(y)
1
,
Déterminons la densité de probabilité h(y) de la variable aléatoire Y = g(X) =
aX + b. Considérons deux cas :
1) Cas où a > 0
FY (y) = P (Y
y) = P fg(X)
yg = P (aX + b
D’où
y
FY (y) = FX
y) = P
X
y
b
a
b
a
Par conséquent
1
h(y) = f
a
y
b
a
2) Cas où a < 0
FY (y) = P (Y
y) = P fg(X)
yg = P (aX + b
D’où
FY (y) = 1
y
FX
b
a
Par conséquent
h(y) =
1
f
a
120
y
b
a
y) = P
X
y
b
a
=1 P
X<
y
b
a
Finalement :
h(y) =
6.3.2
1
f
jaj
y
b
a
Loi uniforme sur un intervalle [a; b] de R : U[a;b]
De…nition 279 Soient a et b deux nombres réels tels que a < b. On appelle
distribution uniforme de paramètre a et b, notée U[a;b] , la loi d’une variable
aléatoire X admettant pour densité de probabilité la fonction réelle f (x) dé…nie telle que :
8
si x < a
< 0
1
si a x b
f (x) =
: b a
0
si x > b
Remarque 280 On appelle variable aléatoire uniforme, toute variable aléatoire distribuée suivant une loi uniforme. Le graphe de la fonction de densité
d’une variable aléatoire uniforme a l’allure suivante :
121
Conséquence
f (x)
En e¤et, b > a =) b
Z
6.3.3
+1
f (x)dx =
1
Z
Z
0 et
+1
f (x)dx = 1
1
a > 0, donc f (x)
a
0dx +
1
Z
a
b
1
b
a
0 8x 2 R. D’autre part
dx +
Z
b
+1
0dx =
1
b
a
[x]ba = 1
Fonction de répartition d’une variable aléatoire
uniforme
La fonction de répartition d’une variable aléatoire uniforme est dé…nie
telle que :
8
si x < a
< 0
x a
si a x < b
F (x) =
: b a
1
si x b
Le graphe de la fonction de répartition d’une variable aléatoire uniforme a
l’allure suivante :
122
Le calcul des moments de la loi uniforme est immédiat. En particulier, on a :
– E (X) =
Rb
– E (X 2 ) =
(b a)
12
6.3.4
2
x
a b a
Rb
dx =
x2
dx
a b a
1 x2
2b a
=
ib
=
a i
b
3
1 x
3b a
1 (a+b)(b a)
2
b a
=
1 b3 a3
3 b a
=
=
a
a+b
2
a2 +ab+b2
,
3
Loi exponentielle de paramètre
d’où V ar(X) =
: E( )
De…nition 281 Soit un nombre réel strictement positif. On dit d’une variable aléatoire X absolument continue qu’elle est distribuée suivant une loi
exponentielle de paramètre , notée X E( ), si elle admet pour densité de
probabilité la fonction f (x) dé…nie telle que :
f (x) =
e
0
x
si x 0
si x < 0
Remarque 282 Le graphe de la densité d’une loi exponentielle de paramètre
, est tel que :
123
Conséquence
f (x)
0 et
Z
+1
f (x)dx = 1
1
En e¤et, > 0 et e x > 0 8x 2 R, donc f (x) 0 8x 2 R. Par ailleurs,
Z +1
Z 0
Z +1
+1
e x dx = e x 0 = 1
0x +
f (x)dx =
1
1
0
Fonction de répartition de la loi E( )
La fonction de répartition d’une loi exponentielle de paramètre
dé…nie telle que :
1 e x si x 0
F (x) =
0
si x < 0
est
L’allure de la fonction de répartition d’une loi E( ) est représentée par le
graphe suivant :
124
Proposition 283 L’espérance mathématique et la variance d’une variable
aléatoire X de distribution exponentielle E( ) sont déterminées telles que :
E (X) =
Démonstration :
résultat.
6.3.5
1
et V ar (X) =
1
2
Une simple intégration par partie, nous donne le
Distribution Gamma de paramètre
De…nition 284 On appelle fonction Gamma, notée
telle que :
Z
:
( )
( ), l’intégrale dé…nie
+1
1
x
( )=
e x dx
0
Cette intégrale existe 8 > 0.
Remarque 285 Il est aisé d’établir la ralation de récurrence suivante :
( + 1) = a ( )
De…nition 286 Soit un nombre réel strictement positif. On dit d’une variable aléatoire X absolument continue qu’elle est distribuée suivant une loi
Gamma de paramètre , notée X
( ), si elle admet pour densité de
probabilité la fonction f (x) dé…nie telle que :
f (x) =
1
x
( )
0
1
e
x
x>0
x 0
Remarque 287 Les di¤érentes allures de la fonction de densité d’une distribution ( ) suivant les valeurs de
125
La distribution Gamma est unimodale, i.e. la fonction de densité de la loi
( ) admet un seul maximum au point x =
1.
Fonction de répartition d’une distribution
( )
Par dé…nition, la fonction de répartition d’une distribution ( ) s’exprime telle que :
Z x
1
t 1 e t dt
F (x) =
( ) 0
On ne peut pas expliciter la fonction de répartition F (x) car la densité de la
loi ( ) n’a pas de primitive connue. Cependant, les valeurs de la fonction
F (x), pour quelques pour quelques valeurs de x, sont données par des tables.
Moments particuliers de la loi
( )
Les moments d’ordre r d’une loi ( ) existent pour tout r, dès que
En e¤et,
Z +1
1
( + r)
r
mr (X) = E (X ) =
xr+ 1 e x dx =
( ) 0
( )
126
> 0.
En particulier
E (X) =
( + 1)
=
( )
; E X2 =
( + 2)
=
( )
( + 1)
et
V ar(X) =
6.3.6
Distribution Bêta : (a; b)
De…nition 288 On appelle fonction Bêta, notée (a; b), l’intégrale dé…nie
telle que :
Z 1
(a; b) =
xa 1 (1 x)b 1 dx
0
Cette intégrale existe 8 a > 0 et 8 b > 0.
De…nition 289 Soient a et b deux nombres réels strictement positifs. On dit
d’une variable aléatoire X absolument continue qu’elle est distribuée suivant
une loi Bêta de paramètres a et b, notée X
(a; b), si elle admet pour
densité de probabilité la fonction f (x) dé…nie telle que :
(
1
xa 1 (1 x)b 1 si 0 x 1
(a;b)
f (x) =
0
sinon
Graphe de la fonction de densité de la distribution de type1 : (3; 4)
Remarque 290 La distribution de densité f (x) est appelée distribution Bêta
de type 1.
127
Il existe une relation fonctionnelle entre la fonction Bêta et la fonction Gamma
telle que :
(a) (b)
(a; b) =
(a + b)
X
, alors Y sera distribuée suivant
Si on dé…nit la variable aléatoire Y = X+1
une loi Bêta de type 2, de densité de probabilité dé…nie telle que :
(
ya 1
1
si y 2 R+
a+b
(a;b)
(1+y)
f (y) =
0
sinon
Graphe de la fonction de densité d’une distribution Bêta de type 2 : (3; 4)
Fonction de répartition de la distribution (a; b)
Par dé…nition, la fonction de répartition d’une distribution (a; b) s’exprime telle que :
Z x
1
ta 1 (1 t)b 1 dt
F (x) =
(a; b) 0
On ne peut pas expliciter la fonction de répartition F (x), car la fonction de
densité de la loi Bêta n’a pas de primitive. Cependant, les valeurs de F (x),
pour quelques pour quelques valeurs de x, sont données par des tables.
Moments particuliers de la loi (a; b)
Les moments d’ordre r d’une loi (a; b) existent pour tout r dès que a > 0
et b > 0.
128
En e¤et,
r
mr (X) = E (X ) =
1
(a; b)
Z
1
xr+a
1
(1
x)b
1
0
dx =
(r + a; b)
(a; b)
Par ailleurs,
(r + a; b)
=
(a; b)
(a + r) (b) (a + b)
=
(a + b + r) (a) (b)
(a + r) (a + b)
(a + b + r) (a)
En particulier
E (X) =
a (a) (a + b)
a
(a + 1) (a + b)
=
=
(a + b + 1) (a)
(a + b) (a + b) (a)
a+b
et
V ar(X) =
6.3.7
ab
(a + b) (a + b + 1)
2
Distribution de Cauchy
De…nition 291 On dit d’une variable aléatoire X absolument continue qu’elle
est distribuée suivant la loi de Cauchy si elle admet pour densité de probabilité
la fonction f (x) dé…nie telle que :
f (x) =
1
1
1 + x2
x2R
Remarque 292 La loi de Cauchy n’admet aucun moment. En e¤et,
Z
Z +1
1 +1 x
1
E (X) =
dx
dx > +1
2
V (1)
1 1+x
1 x
R +1
L’intégrale 1 x1 dx étant divergente, donc E(X) n’existe pas. Par conséquent tous les moments d’ordre supérieur n’existent pas, en particulier la
variance.
Graphe de la densité de la distribution de Cauchy
129
Remarque 293 A partir de toute fonction réelle positive et intégrable, on
peut construire
0 8x 2 R,
R +1 une densité de probabilité. En e¤et, soit f (x)
1
telle que 1 f (x)dx = K < +1, alors la fonction g(x) = K f (x) peut être
considérée comme la densité de probabilité d’une éventuelle variable aléatoire
X.
6.4
Les distributions normales
Distribution normale centrée et réduite : N (0; 1)
6.4.1
De…nition 294 Soit X une variable aléatoire absolument continue. On dit
que X est distribuée suivant une loi normale centrée et réduite, notée X
N (0; 1), si elle admet pour densité de probabilité la fonction f (x) dé…nie telle
que :
x2
1
f (x) = p e 2
x2R
2
Remarque 295 Montrons que f (x) est bien une densité de probabilité. En
e¤et, il est clair que :
1
f (x) = p e
2
De plus, posons I =
Z
+1
1
Z
+1
1
R +1
1
e
x2
x2
2
> 0 8x 2 R
dx, par ailleurs on sait que :
2
2
e (x +y ) dxdy =
Z
+1
e
1
130
x2
dx
Z
+1
e
1
y2
dy
= I2
Considérons le changement en variables polaires (x; y)
que :
x = cos et y = sin
On sait que dxdy = d d , alors
Z
Z +1 Z +1
x2 +y 2 )
(
dxdy =
e
1
+1
0
1
D’où
I=
Z
+1
e
x2
Z
2
e
2
! ( ; ) dé…ni tel
d d =
= I2
0
dx =
p
1
R +1
x2
Calculons maintenant la valeur de l’intégrale 1 p12 e 2 dx en procédant
p
au changement de variable x ! t = px2 avec dx = 2dt. Alors
p
Z +1
Z +1
Z +1
1 2
1
1
1
2p
2
x
t
t
p e 2 dx =
p e
2dt = p
e dt = p = 1
2
2
1
1
1
Remarque 296 1) La loi de la variable aléatoire X est aussi appelée loi de
Gauss ou loi de Laplace-Gauss.
2) La fonction de densité f (x) est une fonction symétrique par rapport à l’axe
des ordonnées et admet l’axe des abscisses pour asymptote.
3) Le graphe de la densité d’une variable X N (0; 1) a l’allure d’une cloche,
et c’est pour cela qu’on l’appelle communément la courbe en cloche.
Fonction de répartition d’une variable aléatoire N (0; 1)
La fonction de répartition d’une variable aléatoire X N (0; 1) est dé…nie
telle que :
Z x
1 2
1
p e 2 t dt
F (x) = P (X x) =
2
1
Remarque 297 Du moment qu’on ne connaît pas explicitement la primitive
de la fonction de densité d’une loi normale centrée et réduite, il n’est pas
possible d’expliciter F (x). Mais, les valeurs de F (x) en certains points sont
données par les tables de la loi gaussienne N (0; 1). Par exemple, si X est
distribuée suivant une loi N (0; 1), alors :
P (X > 1; 96) = 0; 025
La loi normale N (0; 1) est aussi appelée loi normale standard.
131
Fig. 6.1 –Densité d’une variable aléatoire N(0,1)
Propriété de la fonction de répartition d’une variable aléatoire
N (0; 1)
Soit X une variable aléatoire de distribution N (0; 1) et de fonction de
répartition F (x). Alors
8x 2 R; F ( x) = 1
En e¤et
Z
F (x)
(6.1)
x
1 2
1
p e 2 t dt
(6.2)
2
1
On e¤ectue le changement de variable u = t de jacobien dt = du dans
l’intégrale (6:2), alors
Z +1
Z +x
Z +x
1 2
1 2
1 2
1
1
1
u
u
2
2
p e
p e
p e 2 u du = 1 F (x)
du =
du = 1
F ( x) =
2
2
2
+1
+x
1
F ( x) =
Remarque 298 La table de la loi normale ne donne que les valeurs de F (x)
pour x 0. A l’aide de la relation (6:1) on déduit les valeurs de F (x) pour
x 0.
132
Détermination des moments particuliers d’une variable aléatoire
N (0; 1)
Calculons l’espérance mathématique ou le moment d’ordre 1 d’une variable aléatoire X N (0; 1). Par dé…nition on a :
Z +1
Z +1
1 2
1 2
x
1
x
p e 2 dx = p
xe 2 x dx
E (X) =
2
2
1
1
Z +A
1 2
A2
A2
1
1
xe 2 x dx = p lim e 2
e 2 =0
= p lim
2 A!1 A
2 A!1
D’où
E (X) = 0
Calculons le moment d’ordre 2 d’une variable aléatoire X
N (0; 1). Par
dé…nition on a :
Z +1
Z +1 2
1 2
1 2
2
x
2
x
p e 2 dx = p
E X
=
x2 e 2 x dx
2
2 0
1
Z +1
Z +1
i
1 2
1 2 +1
2
2 h
1
x
x
2
2
p
p e
=
x
xe
dx = p
xe
+2
0
2 0
2
2
0
Par conséquent :
V ar (X) = E X 2
133
fE (X)g2 = 1
1 2
x
2
dx = 1
Détermination des moments d’une variable aléatoire N (0; 1)
Considérons deux situations :
Supposons que r soit impair, i.e. r = 2k + 1. Alors
Z +1
1 2
1
2k+1
x2k+1 e 2 x dx = 0 8k = 0; 1; 2; :::
E X
=p
2
1
Car l’intégrale d’une fonction impaire sur un intervalle symétrique est nulle,
donc tous les moments non centrés d’ordre impair d’une variable aléatoire
normale centrée et réduite sont nuls.
Supposons que r soit pair, i.e. r = 2k. Alors
Z +1
Z +1
1 2
1 2
2
1
2k
x
2k
2
x e
x2k e 2 x dx
dx = p
(6.3)
E X
=p
2
2 0
1
Posons t =
E X
x2
2
1
avec dx =
2
=p
2
2k
Z
tp 2
2
+1
k k
2 t
0
dt, alors l’intégrale (6:3) nous donne
1
2
2k
dt
e p =p
2
t
Z
+1
tk
1
2
0
2k
e t dt = p
k+
1
2
Il est possible de développer l’expression de E X 2k en utilisant la dé…nition
de la fonction (a) telle que :
2k
E X 2k = p
Or,
1
2
=
p
k
1
2
k
3
2
:::
1
2
1
2
, par conséquent :
E X 2k = (2k
1) (2k
3) :::3
1
En particulier
E X 2 = 1 et V ar(X) = 1
6.4.2
Distribution normale de moyenne
riance 2 : N ( ; 2 )
et de va-
Considérons une variable aléatoire X de distribution N (0; 1) et de densité
de probabilité fX (x).
134
Proposition 299 Soit
2 R et
> 0. Alors la variable aléatoire Y =
X + est distribuée suivant une loi normale de moyenne et de variance
2
. De plus, la densité de probabilité de Y est la fonction fY (y) dé…nie telle
que :
(y
)2
1
y 2 R et
>0
fY (y) = p e 2 2
2
Démonstration : En e¤et, par simple calcul on montre que :
E (Y ) = E ( X + ) = E (X) +
=
et
V ar (Y ) = V ar ( X + ) =
1
y
2
V ar (X) =
2
p1
2
e
Allures de la fonction de densité d’une distribution N ( ;
2
Par ailleurs, on sait que fY (y) =
j
f
j X
…xe et
d’où fY (y) =
variable
135
1
2
)
2
(y ) .
…xe et
variable
2
Fonction caractéristique d’une variable aléatoire N ( ;
)
Par dé…nition, la fonction caractéristique ' (t) d’une variable aléatoire X
de loi N ( ; 2 ) peut être exprimée telle que :
' (t) = E eitX =
En posant u =
x
Z
+1
itx
e
p
1
2
+it
it
' (t) = e
2
1
2
e
(
x
avec du =
2 t2
2
Z
+1
1
2
) dx =
dx
Z
+1
1
1
p e
2
1
2
(
x
(
+it 2
)
)2
dx
, ' (t) peut être écrite telle que :
1
p e
2
u2
2
du = eit e
2 t2
2
Remarque 300 Si X était distribuée suivant une loi N (0; 1), alors :
' (t) = e
6.4.3
t2
2
Calcul de probabilité dans un modèle gaussien
Pour le calcul de probabilité dans un modèle gaussien on n’utilise que la
fonction de répartition de la loi normale standard qui est tabulée. Le plus
souvent nous avons à calculer des probabilités du type P (a < X < b) où
X N ( ; 2 ). En général, on rencontre fréquemment deux situations dans
la pratique.
136
– Cas où a, b sont deux réels donnés et on cherche P (a < X < b).
Puisque seule la table de la fonction de répartition de la loi standard
est disponible, il est impératif de replacer le problème de calcul de
probabilité dans un modèle standard, i.e. il faut centrer et réduire la
variable aléatoire X à l’aide de la transformation X ! U = X . On
sait que la fonction de probabilité est invariante par translation et par
homothétie, alors
P (a < X < b) = P
a
<
X
D’où
P (a < X < b) = F
<
b
=P
b
a
a
F
<U <
b
(6.4)
Les valeurs de F b
et F a
sont lues dans la table de la loi
normale centrée et réduite. Les techniques de lecture sont expliquées
en TD.
– Cas où P (a < X < b) = 1
est donnée et on cherche a, b.
Cette situation correspond à la recherche d’un intervalle de valeurs où
la variable aléatoire X prendrait ses valeurs avec une probabilité 1
donnée, i.e. on cherche un intervalle [a; b] tel que :
(6.5)
P (a < X < b) = 1
La recherche en l’état d’un tel intervalle n’est pas possible, car on aboutit à une équation à deux inconnues. Cependant, pour rendre possible la
recherche d’un tel intervalle on suppose alors que l’intervalle est centré
sur la moyenne. Ainsi, les bornes a et b de l’intervalle sont symétriques
par rapport à la moyenne de X. Quand on centre et on réduit dans
l’équation (6:5) on obtient :
P (a < X < b) = P
et
P (a < X < b) = F
où b = u1 2 et a
rapport à l’origine.
=
a
<
b
u1
X
F
2
137
<
a
b
=1
=1
(6.6)
sont deux nombres symétriques par
En considérant la relation (6:1) alors de la relation (6:6) on déduit
que F u1 2
F
u1 2 = 2F u1 2
1=1
, par conséquent
F u1 2 = 1 2 , d’où
u1
2
=
b
=F
1
1
et
2
u1
2
=
a
Finalement l’intervalle [a; b] cherché est tel que :
h
; + F
[a; b] =
F 1 1
2
6.4.4
=F
1
1
2
1
1
2
i
Théorème de la limite centrale
Introduction
On lance 4 fois une pièce de monnaie. Quelle est la probabilité P1 d’obtenir exactement 2 fois ’face’? Cette expérience peut être représentée par
un modèle binomial. Alors, soit X la variable aléatoire "nombre de ’face’
obtenues". Donc, X B(4; 12 ) de distribution telle que :
P (X = k) =
C4k
1
2
k
4 k
1
2
k = 0; 1; 2; 3; 4
D’où
P1 = P (X = 2) =
C42
1
2
2
1
2
2
= 0; 375
On constate que la solution est simple et le calcul est aisé.
Supposons maintenant qu’on lance 200 fois la pièce de monnaie et que l’on
cherche la probabilité P2 d’obtenir 100 fois ’face’. Dans la forme le problème
est le même. On peut le solutionner en utilisant une loi binomiale B(200; 21 )
et en calculant :
100
P2 = P (X = 100) = C200
1
2
100
1
2
100
Il est évident que le calcul numérique est fastidieux !
De Moivre et Laplace ont démontré que la distribution binomiale B (n; p)
peut être approchée par une distribution normale N (np; np(1 p)) pour n
assez grand.
138
Théorème 301 (T heoreme local de De M oivre Laplace) Soit 0 < p <
np
où 0 K n,
1 et q = 1 p. Considérons la variable aléatoire X = Kpnpq
Alors
1 2
1
k np
p
npqCnk pk q n k ! p e 2 x où x = p
n!1
npq
2
np
Démonstration : En utilisant la formule de Stirling n! = ne
2 n,
on peut écrire :
p
n kr
n n
2 npk q n k
np k
nq
n
k k n k
e
=
Cn p q
=
p
p
k
n
k
k
k
n k
2 k (n
2 k ne k
2 (n k)
e
Par ailleurs, x étant dé…ni tel que x =
p
k = np + x npq
k np
p
npq
et n
avec 0
k)
n, alors on déduit
k
p
x npq
k = nq
Par conséquent
lim
n!1
k
np
= lim
n!1
Donc k
p
npq
1+x
np
V (1)
np et n
n
= 1 et lim
= lim
nq
n!1
k
k
n!1
1
x
p
npq
nq
=1
nq pour n su¢ samment grand. Par
V (1)
conséquent
np
k
1
p
2 npq
Cnk pk q n k
k
nq
Posons f (n; k) = np
k
n k
Taylor de la fonction f (n; k).
Considérons alors
n k
ln f (n; k) = k ln
n k
nq
k
n
k
et cherchons le développement en série de
np
+ (n
k
k) ln
nq
n
k
Il est clair que :
np
k ln
= k ln 1
k
p
npq
x
k
=k
x
p
npq
k
x2
npq
2k 2
o
1
k2
et que :
(n
k) ln
nq
n
k
= (n
p
npq
k) ln 1 + x
n k
139
= (n
k) x
p
npq
n k
x2
npq
+o
2 (n k)2
1
(n
k)2
D’où le développement de ln f (n; k)
x2
ln f (n; k) '
Mais,
np
k V (1)
f (n; k)
V (1)
e
1 et
x2
2
nq
n k V (1)
x2
x2
2
npq
=
2 (n k)
1, donc ln f (n; k)
V (1)
np
k
x2
2
nq
n
k
et par conséquent
. D’où
Cnk pk q n
Finalement
npq
2k
k
V (1)
p
p
1
1
p
f (n; k)
e
V (1)
2 npq
2 npq
npqCnk pk q n
k
V (1)
1
p e
2
x2
2
x2
2
Dispositions pratiques
En pratique, à partir de n > 50, il est raisonnable de considérer que la
variable aléatoire Xn de distribution binomiale B (n; p) peut être approchée
(pour des commodités de calcul) par la variable aléatoire de distribution
normale N (np; np (1 p)).
Théorème 302 (Théorème de la Limite Centrale) Soient X1 ; X2 ; :::; Xn n
variables aléatoires indépendantes, de même loi F (x) de moyenne et de
variance 2 . Considérons les variables aléatoires Sn et Yn telles que :
1X
Xi
Sn =
n i=1
n
Alors
Yn
et
Yn =
p Sn
n
Loi
! N (0; 1)
n!1
Remarque 303 Le T LC n’exige aucune hypothèse sur la forme de la distribution F (x). Ainsi, quelle que soit la distribution commune aux n variables
aléatoires X1 ; X2 ; :::; Xn de variance …nie, la moyenne empirique ou moyenne
de l’échantillon sera distribuée approximativement suivant une loi normale
pour n su¢ samment grand (en général n > 50).
140
Bibliographie
[1] CHUNG, K.L. A Course in Probability, Harcourt, Brace World, New
York.
[2] DACUNHA-CASTELLE, D., REVUZ D. and SCHREIBER M. Recueil
de Problèmes de Calcul de Probabilité, Masson, Paris.
[3] FELLER,W. An Introduction to Probability Theory and Its Applications. T.1, John Wiley, New York.
[4] FORTET, R. Eléments de la théorie des probabilités, Tome1, CNRS,
Paris.
[5] FREUND, J.E. Introduction to Probability, Dickenson Publishing Co.,
Inc. California.
[6] GNEDENKO, B.V. The Theory of Probability, Chelsea.
[7] HENNEQUIN, P.L. et FORTET,A. Théorie des probabilités et quelques
applications, Dunod, Paris.
[8] HERAULT, D. Éléments de la théorie moderne des probabilités, Dunod,
Paris.
[9] LOEVE, M. Probability Theory, Van Nostrand.
[10] MÉTIVIER, M. Notions fondamentales de la théorie des probabilités,
Dunod.
[11] NEVEU, J. Bases mathématiques du calcul des probabilités, Masson.
[12] NOSAL, M. Basic Probability and Applications, W.B. Saunders Company, London.
[13] PARZEN, E. Modern Probability Theory and Its Applications, John
Wiley.
[14] RENYI, A. Calcul des probabilités, Dunod.
[15] TUCKER, H. A Graduate Course in Probability, Academic Press.
141
Téléchargement