Probabilités

publicité
Probabilités
COLLECTION Les Cours
Dans la même Collection
Francis Maisonneuve
Mathématiques 1 Calcul différentiel,
équations différentielles ordinaires et
applications. Cours et exercices
Francis Maisonneuve
Mathématiques 2 Intégration,
transformations intégrales
et applications. Cours et exercices
Francis Maisonneuve
Mathématiques 3 Fonctions d'une variable
complexe. Cours et exercices
J. Adnot, D. Marchio, Ph. Rivière
Cycles de vie des systèmes énergétiques
Brigitte d'Andréa-Novel, Benoît Fabre,
Pierre Jouvelot
Acoustique-Informatique-MusiquE
Jean-Claude Moisdon, Michel Nakhla
Recherche opérationnelle
Anne-Françoise Gourgues-Lorenzen,
Jean-Marc Haudin, Jacques Besson
Matériaux pour l'ingénieur
Pierre Chauvet
Aide-mémoire de géostatistique linéaire
Dominique Marchio, Paul Reboux
Introduction aux transferts thermiques
François Engel, Frédéric Kletz
Cours de comptabilité analytique
François Engel, Frédéric Kletz
Cours de comptabilité générale
Jacques Bouchard, Jean-Paul Deffain,
Alain Gouchet
Introduction au génie atomique
Daniel Fargue
Abrégé de thermodynamique : principes
et applications
Georges Pierron
Introduction au traitement de l'énergie
électrique
Bernard Degrange
Introduction à la physique quantique
Renaud Gicquel
Systèmes énergétiques Tome 3
Michel Cohen de Lara,
Brigitte d'Andréa-Novel
Cours d'automatique
Renaud Gicquel
Systèmes énergétiques Tome 2
Fixari Daniel
Les Imperfections des marchés
Renaud Gicquel
Systèmes énergétiques Tome 1
Jacques Lévy
Introduction à la métallurgie générale
Thierry Weil
Stratégie d'entreprise
Hugues Molet
Comment maîtriser sa productivité
industrielle ?
François Cauneau
Mécanique des fluides
Margaret Armstrong, Jacques Carignan
Géostatistique linéaire
Francis Maisonneuve
Probabilités
Variables aléatoires réelles et vectorielles
Cours et exercices
Préface
Être titulaire pendant plus de quinze ans des quatre chaires d’enseignement
du tronc commun de mathématiques du cycle ingénieurs civils de l’Ecole des
Mines de Paris est une gageure que peu auraient accepté de relever.
Bénéficier, dans l’exercice de ce travail, du respect et du soutien constant de ses
élèves, qui, s’ils n’ont pas tous pu, su ou voulu apprécier la richesse du problème
de Cauchy, ont toujours en revanche loué la rigueur scientifique et la qualité
pédagogique des cours et supports de cours de mathématiques, bénéficier de
ce soutien et de ce respect donc est certainement ce qui restera quand viendra
le temps de saluer ce grand professeur qu’est Francis Maisonneuve.
Je sais que ces ouvrages resteront longtemps une référence, et espère que les
promotions futures et autres lecteurs sauront apprécier la finesse et la qualité
de ce qui leur est proposé ici.
Je souhaite à tous les établissements d’enseignement de disposer de tels cours.
Nicolas Cheimanoff
Directeur de l’Enseignement
MINES ParisTech
Remerciements
Je tiens à exprimer ma reconnaissance aux jeunes — et moins jeunes — mathématiciens professionnels et ingénieurs de recherche qui m’ont fait l’honneur
d’animer une ou plusieurs années les séances d’exercices illustrant les éléments
de cours, et qui m’ont suggéré à cette occasion de multiples améliorations touchant au fond comme à la forme. Je tiens aussi à remercier les nombreux
étudiants « utilisateurs » qui, par la qualité de leurs questions, la rigueur de
leurs critiques ou la logique apparente de certaines interprétations parfois fort
éloignées de celles escomptées, ont contribué à faire évoluer la rédaction des
documents vers plus de clarté.
De manière plus générale, je voudrais souligner la qualité des relations intellectuelles et humaines qui prévaut à tout niveau dans l’établissement où j’ai le
plaisir d’exercer mon métier d’enseignant mathématicien depuis de nombreuses
années, et où s’expriment des talents très divers. Que tous en soient remerciés !
Francis Maisonneuve
Introduction historique
Les idées de hasard et de probabilité semblent présentes dans toutes les sociétés
humaines, où elles s’insèrent plus ou moins aisément dans les systèmes religieux
et les interrogations philosophiques développés par ces diverses cultures.
L’idée de quantifier les probabilités et de chercher à les calculer, avérée en
Occident dès le xv e siècle, va concerner exclusivement les jeux de hasard à
nombre fini de cas possibles ; il faudra en fait attendre le xvii e siècle, avec
Pascal et Fermat (puis Huygens), pour que commencent à être clairement
distinguées les notions de probabilité et d’espérance dans le cadre naissant du
calcul combinatoire.
Au xviii e siècle Jacques Bernoulli et Abraham de Moivre dégagent et établissent les premières lois des grands nombres ; le recours à l’analyse mathématique, qui permet de se dégager du calcul combinatoire, s’affirme avec le
grand traité de Laplace, puis les travaux de Poisson, Markov . . . au xix e siècle.
Parallèlement la prise de conscience que le champ d’application du calcul des
probabilités déborde largement les jeux de hasard apparaît enfin avec Buffon
et Condorcet ; la naissance ultérieure de la statistique moderne en Angleterre
affirmera définitivement ce caractère de généralité.
Avec le mathématicien Emile Borel, qui démontre en 1908 la fondamentale
loi forte des grands nombres au moyen de la notion de mesure σ-additive, se
fait jour la perspective éclairante de fonder le calcul des probabilités sur la
théorie de la mesure et de l’intégrale de Lebesgue ; ce sera chose faite en 1933
avec l’axiomatique des probabilités développée par le mathématicien Kolmogorov, et à présent acceptée par l’ensemble des probabilistes. Elle détermine
la présentation retenue dans ce cours.
La théorie des probabilités et la modélisation probabiliste jouent un rôle croissant dans de nombreuses branches des mathématiques appliquées, de la physique et des sciences de l’ingénieur. Les processus stochastiques sont couramment utilisés pour modéliser des phénomènes mécaniques, économiques, . . . se
x
INTRODUCTION HISTORIQUE
déroulant dans le temps ou/et l’espace. La statistique mathématique (paramétrique) part de données d’observation qu’elle considère comme un échantillon
dans le cadre d’un modèle de lois probabilistes, en vue d’évaluer certains paramètres afin de les connaître ou pour tester certaines hypothèses. Enfin diverses
méthodes de simulation aléatoire permettent le calcul approché d’un paramètre
ou l’estimation aux moindres carrés d’une variable aléatoire partiellement inconnue, dans des situations où tout traitement analytique paraît exclu.
Chapitre 1
Probabilités des événements
1.1
Notion d’expérience aléatoire
La notion première de la théorie des probabilités est celle d’expérience aléatoire,
c’est-à-dire d’expérience sur un système dont le résultat (ou l’état résultant)
n’est pas connu d’avance et peut varier si on répète l’expérience dans des
conditions identiques.
Exemples 1.1.1
a) Jeux de hasard (loterie, jet de dés, jeux de pile ou face de durée finie ou
infinie)
b) Durée de fonctionnement d’un appareil
c) Point de chute d’un projectile
d) Trajectoire de ce projectile pendant un intervalle de temps [t1 , t2 ](t1 <
t2 ).
Une telle expérience produit par hypothèse un unique résultat – que l’on note
traditionnellement ω – parmi un ensemble de résultats possibles (éventualités), ensemble encore appelé univers et noté Ω.
Une expérience aléatoire peut donc être représentée mathématiquement comme
le simple tirage au hasard d’un élément ω dans un ensemble Ω.
Exemples 1.1.2, suite (énoncer la proposition correspondante)
a)
– Loterie : Ω = [[1, n]] ⊂ N, sous-ensemble des numéros émis.
2
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
– Jet de 2 dés : ω = (x, y) avec 1 ≤ x, y ≤ 6, d’où Ω = [[1, 6]]2 ⊂ N2 .
– Jeu de pile ou face de durée infinie : en codant par exemple 0 pour
pile et 1 pour face, les ω sont des suites dans {0,1}, d’où Ω = {0, 1}N .
b) Ω = N ou R+ selon le mode de mesure de la durée de vie.
c) ω = (x, y), couple de coordonnées du point dans un repère donné, d’où
Ω = R2 .
d) Ω = C 2 ([t1 , t2 ]), ensemble des applications de classe C 2 de [t1 , t2 ] dans
R3 .
Ces exemples illustrent la souplesse de cette formalisation, mais aussi la rapide
complexité de l’univers Ω.
Il est de plus souvent utile de pouvoir considérer une suite de répétitions
de la même expérience aléatoire, le résultat global étant formé de la suite
des résultats successifs. L’univers relatif à cette expérience globale est alors
simplement ΩN (cf. pile ou face).
Notons enfin que, contrairement à ce que semblent suggérer les exemples précédents, il peut y avoir des manières bien différentes de représenter les résultats
d’une même expérience aléatoire, ce qui conduit à des choix d’univers Ω plus
ou moins économiques ou judicieux (cf. exercices).
1.2
Evénements relatifs à une expérience aléatoire
On appelle événement relatif à une expérience aléatoire une proposition énonçant une propriété du système, qui est vérifiée (et on dit alors que l’événement est réalisé) ou non selon le résultat obtenu à l’issue de l’expérience.
On peut alors, adoptant le point de vue ensembliste, identifier un événement
au sous-ensemble (ou partie) de Ω constitué des résultats pour lesquels
il est réalisé :
proposition A ' {ω ∈ Ω : A est réalisé pour ω}.
Exemples 1.2.1, fin (énoncer la proposition correspondante)
a) 2 dés : A = {ω = (x, y) ∈ [[1, 6]]2 : x + y ≥ 10}
b) A = [t1 , t2 ] où 0 < t1 < t2
p
c) A = {ω = (x, y) ∈ R2 : x2 + y 2 ≤ r}
3
1.2. Evénements relatifs à une expérience aléatoire
d) A = {ω ∈ C 2 ([t1 , t2 ]) :
sup kω(t)k2 ≤ r} (k k2 désignant la norme
t∈[t1 ,t2 ]
euclidienne de R3 ).
Correspondance entre opérations logiques et ensemblistes
Terminologie probabiliste
Terminologie ensembliste
événement certain
ensemble entier
Ω
événement impossible
ensemble vide
∅
événement contraire
complémentaire
Ac
événement atomique
singleton
{ω}
implication
inclusion (au sens large)
⊂
et
intersection
∩
ou (non exclusif)
réunion
∪
événements incompatibles
parties disjointes
A1 ∩ A2 = ∅
ou exclusif (dans ce cas)
réunion disjointe
système exhaustif d’événts
partition
A1 ] A2
U
An = Ω
(un et un seul se réalise)
(finie ou dénombrable)
Notations
n
Etant donné un ensemble (ou classe) de propositions énonçables sur l’expérience aléatoire, on peut toujours lui rajouter les événements certain et impossible et en fabriquer d’autres par les opérations logiques les plus courantes
rappelées ci-dessus : contraire, ainsi que et et ou, pour toute suite finie ou
même infinie en vue de passages à la limite.
Du point de vue ensembliste, ceci revient d’après le tableau ci-dessus à considérer comme “complète” une classe d’événements A ⊂ P(Ω) vérifiant les trois
propriétés :
(1) Ω ∈ A et ∅ ∈ A
(2) A ∈ A ⇒ Ac ∈ A
(3) ∀ n ∈ N, An ∈ A ⇒
S
n
An ∈ A et
T
An ∈ A
n
qui sont les propriétés spécifiant une tribu de parties de Ω†1 .
1
Voir par exemple [1], définition 1.1.1
4
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
En pratique, on ne s’intéresse dans une expérience aléatoire qu’à la réalisation
ou non d’une classe très limitée d’événements prédéfinis. Si C ⊂ P(Ω) désigne la
classe de parties de Ω correspondante, C ne constitue pas en général une tribu,
mais on rappelle†2 qu’il existe une plus petite tribu au sens de l’inclusion
contenant C, dite tribu engendrée par C et notée T (C) (c’est l’intersection de
toutes les tribus contenant C) ; on pose alors A = T (C), et on l’appelle tribu
des événements.
Exemples 1.2.2
a) Le cas particulier où C est constitué d’un nombre fini ou dénombrable
d’événements incompatibles An , formant partition de Ω. On dit dans
ce cas que A = T (C) est une tribu explicite, car les éléments de A sont
explicitement les réunions quelconques de An .
En particulier si Ω lui-même est fini ou dénombrable (exemple a du paragraphe 1.1, sauf pile ou face de durée infinie), il est naturel de considérer
les événements atomiques {ω} ; d’où A = P(Ω) dans ce cas.
b) La situation générale où l’on ne peut pas expliciter les éléments de A
à partir de ceux de C , en “trop grand nombre” (exemples b, c et d du
paragraphe 1.1).
C’est notamment le cas de la tribu de Borel de Ω = R ou Rn , notée
B, qui est par définition la tribu engendrée par la classe des ouverts, ou
encore par la classe des pavés
n
Q
C = { [ai , bi ] : ∀ i ∈ [[1, n]], ai ≤ bi };
i=1
dans le cas de R, on peut aussi choisir C = { ] − ∞, x[ : x ∈ R}.
Les éléments de la tribu de Borel B = T (C) sont appelés les boréliens.
Le couple (Ω, A) constitué d’une part du “support matériel” — les résultats
possibles ω ∈ Ω — et d’autre part du discours autorisé les concernant — les
événements A ∈ A — est un espace mesurable appelé en l’occurrence espace
probabilisable ; et on va étudier comment il est possible de le “probabiliser”.
1.3
Elaboration de la définition des probabilités
Il s’agit d’affecter à tout événement A ∈ A un poids P (A), dit probabilité de A,
devant exprimer la plus ou moins grande chance a priori de sa réalisation,
notion dont l’existence est posée comme intuitivement évidente.
2
Voir par exemple [1], proposition 1.1.3
5
1.3. Elaboration de la définition des probabilités
A–
Point de vue “empirique” des fréquences statistiques
L’idée est qu’on doit parvenir à révéler et à évaluer la probabilité d’un événement A en répétant un grand nombre de fois sans interaction et dans des
conditions identiques l’expérience aléatoire correspondante, et en observant la
fréquence de réalisation de A.
De fait, si l’on note nA le nombre de fois où A se réalise au cours de n répétitions de l’expérience, on constate que la fréquence expérimentale nA /n
fluctue de moins en moins lorsque n augmente, autour d’une valeur limite
f (A) appelée fréquence (ou encore probabilité) statistique de A : ce phénomène
fondamental est appelé loi empirique des grands nombres (bien sûr, des fluctuations importantes de nA /n restent toujours possibles mais elle s’avèrent
de plus en plus rares lorsque n augmente).
On retient les propriétés évidentes de structure de la fréquence statistique f :
f (∅) = 0 , f (A) ≥ 0 , f (Ω) = 1 , f (A ∪ A0 ) = f (A) + f (A0 ) si A ∩ A0 = ∅.
B–
Axiomes des probabilités
On va poser les axiomes de définition des probabilités par analogie avec les
propriétés de la fréquence statistique ; cela fait, il sera possible de développer
mathématiquement la théorie des probabilités sans autre recours à l’observation des phénomènes physiques. Conformément à la démarche scientifique
habituelle, c’est en dernier ressort le seul contrôle expérimental des prévisions
issues de la théorie qui pourra déterminer si celle-ci rend compte correctement
des phénomènes aléatoires et ainsi valider cette dernière : de fait, on parviendra à établir que la vitesse de convergence de la fréquence de réalisation d’un
√
événement A vers sa limite doit être en 1/ n lorsque le nombre n de répétitions
de l’expérience tend vers l’infini, ce que corrobore l’expérience.
Définition 1.3.1 On appelle probabilité sur (Ω, A) une application P de A
dans R telle que :
(1) P (∅) = 0 et ∀ A ∈ A, P (A) ≥ 0
(2) P (Ω) = 1
(positivité)
(totalité)
(3) Pour toute suite (An )n∈N d’éléments 2 à 2 disjoints de A,
P(
]
n∈N
An ) =
∞
X
n=0
P (An )
(σ-additivité)
6
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
Sur le plan mathématique, une probabilité est donc simplement une mesure
positive finie de masse 1 sur A†3 .
En particulier, on a la propriété d’additivité simple : pour A0 , · · · , An éléments
2 à 2 disjoints de A,
P(
]
0≤i≤n
Ai ) =
n
X
P (Ai ) (poser ∀ i ≥ n + 1, Ai = ∅).
i=0
Si P (A) = 1, on dit que A est presque certain ou presque sûr, et si P (A) = 0,
on dit que A est presque impossible ; si f et g sont deux fonctions définies sur
ps
Ω telles que A = {ω ∈ Ω : f (ω) 6= g(ω)} est presque impossible, on note f = g
et on dit que f et g sont égales presque sûrement.
Le triplet (Ω, A, P ) est un espace mesuré appelé en l’occurrence espace probabilisé ; et tout ce chapitre se résume à ce stade à ceci :
Toute expérience aléatoire se modélise par
la donnée d’un espace probabilisé (Ω, A, P )
Il est instructif de réfléchir au véritable tour de passe-passe conceptuel que
constitue cette approche, par laquelle on prétend rendre compte de la notion
de hasard tout en l’évacuant totalement du formalisme, au bénéfice d’objets
purement déterministes (ensembles, applications).
En fait, on a substitué à l’expérience aléatoire réelle, singulière et imprévisible, la collection virtuelle de tous ses résultats possibles et des probabilités
de réalisation a priori des événements associés. Cette “mise à plat” suppose
idéalement connu le système sur lequel porte l’expérience et réduit ainsi le
phénomène aléatoire à une situation schématique et figée de tirage au sort d’un
élément ω dans une “urne” Ω parfaitement identifiée. Cette vision “mécaniste”
s’avère cependant d’une extraordinaire fécondité, car elle autorise le raisonnement déductif et l’emploi des méthodes de l’analyse mathématique dans le
domaine de l’incertain.
C–
Point de vue “logique” du principe de symétrie
On appelle modèle discret le cas où Ω est fini (ou dénombrable) et A = P(Ω) ;
toute probabilité P sur un tel espace probabilisable vérifie
3
Voir par exemple [1], paragraphe 2.1
7
1.4. Propriétés élémentaires de la probabilité
∀ A ⊂ Ω, P (A) =
P
p(ω), où p : Ω → R est un poids,
ω∈A
P
c’est-à-dire : (∗) ∀ ω ∈ Ω, p(ω) = P ({ω}) ≥ 0 et
p(ω) = 1.
ω∈Ω
P =
Ainsi
X
p(ω) δω ,
ω∈Ω
δω désignant la mesure de Dirac en ω, caractérisée par la relation
∀ A ∈ A, δω (A) = 1lA (ω),
valeur en ω de l’indicatrice de A, à savoir 1 si ω ∈ A et 0 sinon.
Inversement, pour toute famille finie ou dénombrable de coefficients (p(ω))ω∈Ω
vérifiant les conditions (∗) ci-dessus, la formule encadrée définit une probabilité
P comme somme pondérée des probabilités δω .
Dans le cas d’un système n’admettant qu’un nombre fini de configurations
possibles, des considérations de symétrie a priori du système, ou même simplement “d’égale ignorance” sur son évolution, peuvent conduire à définir Ω de
telle sorte qu’aucun résultat ω ne soit privilégié, c’est-à-dire que les événements
atomiques {ω} soient équiprobables (p constant).
Si on note card (A) le cardinal d’un ensemble A, on a alors nécessairement :
∀ ω ∈ Ω, p(ω) =
1
nb cas favorables
card (A)
et ∀ A ⊂ Ω, P (A) =
=
,
card (Ω)
card (Ω)
nb cas possibles
c’est-à-dire que la seule probabilité P vérifiant ce principe de symétrie est la
probabilité uniforme sur Ω : on peut alors, dans un tel contexte, faire l’économie
de toute référence à la loi empirique (telle était la définition “générale” de
la probabilité encore proposée en 1812 faute de mieux par le mathématicien
Laplace).
Ces calculs de cardinaux d’ensemble, qui historiquement représentaient l’essentiel du calcul des probabilités, sont en général de nature combinatoire :
dénombrements d’échantillons au moyen d’arrangements, et de sous populations au moyen de combinaisons (cf. exercices).
1.4
Propriétés élémentaires de la probabilité
On désigne ainsi des propriétés qui concernent seulement un nombre fini d’événements. Ce sont, sauf la dernière (exercice), des conséquences immédiates de
8
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
la définition axiomatique d’une probabilité comme mesure positive finie de
masse 1 :
1) ∀ A ∈ A, P (A) ∈ [0, 1] et P (Ac ) = 1 − P (A)
2) ∀ (A, B) ∈ A2 , (A ⊂ B) ⇒ (P (A) ≤ P (B))
3) ∀ (A, B) ∈ A2 , P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
S
P
4) Inégalité de Boole : ∀ (Ai )1≤i≤n ∈ An , P (
Ai ) ≤
P (Ai )
1≤i≤n
1≤i≤n
5) Formule de Poincaré : ∀ (Ai )1≤i≤n ∈ An ,
S
P(
Ai ) = S1 − S2 + · · · + (−1)n−1 Sn
1≤i≤n
où
P
S1 =
P (Ai ), S2 =
1≤i≤n
P
P (Ai ∩ Aj ), . . . , Sn = P (A1 ∩ A2 ∩ · · · ∩ An ).
1≤i<j≤n
1.5
Théorèmes de continuité
A–
Continuités croissante et décroissante
On rappelle qu’une suite (An )n∈N d’événements est dite croissante (respectivement décroissante) si ∀ n ∈ N, An ⊂ An+1 (respectivement An ⊃ An+1 ).
On définit alors sa limite par :
• cas croissant lim An =
n→∞
S
An ∈ A (réunion : borne sup pour ⊂)
n∈N
T
• cas décroissant lim An =
n→∞
An ∈ A (intersection : borne inf pour ⊂)
n∈N
Dans les deux cas, la suite (P (An ))n∈N est monotone bornée (dans [0, 1]), donc
convergente. Et il suffit d’exprimer les An comme des réunions convenables
d’événements incompatibles pour établir†4 :
Théorème 1.5.1 (de la continuité monotone)
Dans le cas d’une suite (An )n∈N croissante ou décroissante, on a
P ( lim An ) = lim P (An )
n→∞
4
Voir par exemple [1], théorème 2.1.3
n→∞
1.6. Probabilité conditionnelle – indépendance des événements
B–
9
Compléments
Etant donné une suite (An )n∈N dans A , on définit :
S T
lim inf An =
An+p = {ω ∈ Ω : ω appartient aux An sauf à un nb fini}
n→∞
n∈N p∈N
lim sup An =
n→∞
T S
An+p = {ω ∈ Ω : ω appartient à une infinité de An }
n∈N p∈N
qui vérifient
lim inf An ⊂ lim sup An .
n→∞
n→∞
En cas d’égalité, on dit que la suite converge dans A et on pose :
lim An = lim inf An = lim sup An .
n→∞
n→∞
n→∞
On a les résultats généraux :
Théorème 1.5.2 Si la suite (An )n∈N converge dans A, on a
P ( lim An ) = lim P (An ).
n→∞
n→∞
Proposition 1.5.3 (lemme de Borel – Cantelli ) Soit (An )n∈N une suite
dans A.
∞
P
• Si
P (An ) < +∞, alors P (lim sup An ) = 0.
n=0
• Si
∞
P
n→∞
P (An ) = +∞ et si les An sont mutuellement indépendants
n=0
(cf. le paragraphe 1.6.C –), alors P (lim sup An ) = 1.
n→∞
1.6
Probabilité conditionnelle – indépendance des événements
A–
Définition de la probabilité conditionnelle
But : modifier la probabilité affectée à un événement A lorsqu’on dispose
d’une information partielle sur le déroulement de l’expérience aléatoire, à savoir
qu’un autre événement B est réalisé.
Exemple 1.6.1 jet de 2 dés, A = {ω = (x, y) ∈ [[1, 6]]2 : x + y ≥ 10} sachant
qu’est réalisé
10
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
B = {ω = (x, y) ∈ [[1, 6]]2 : x = 6} ou B = {ω = (x, y) ∈ [[1, 6]]2 : x = 1} ( !)
Construction de la définition, par analogie avec les fréquences statistiques :
Etant donné (A, B) ∈ A2 , on considère la fréquence expérimentale nA∩B /nB
du nombre de réalisations de l’événement A parmi les nB répétitions de l’expérience aléatoire (Ω, A) (sur les n) qui ont réalisé B.
nA∩B
nA∩B /n
fA∩B
=
, cette fréquence expérimentale converge vers
nB
nB /n
fB
(si fB > 0) ; d’où :
Comme
Définition 1.6.2 (axiomatique) Soit (Ω, A, P ) un espace probabilisé et soit
B un événement fixé tel que P (B) > 0. On appelle probabilité conditionnelle à
B ou probabilité sachant B (associée à P ) l’application PB = P ( | B) définie
sur A par :
∀ A ∈ A,
PB (A) = P (A | B) =
P (A ∩ B)
.
P (B)
On observe que P ( | B) n’est autre que la mesure trace P ( ∩B) = 1lB P de
P sur B, au facteur de normalisation 1/P (B) près (pour que ce soit encore
une probabilité). On note
A ⊂ B ⇒ P (A | B) =
P (A)
et A ∩ B = ∅ ⇒ P (A | B) = 0 ;
P (B)
en particulier, comme escompté, P (B | B) = 1 et P (B c | B) = 0.
On utilise souvent la relation P (A ∩ B) = P (A | B) P (B) si P (B) > 0
qui s’étend ensuite par récurrence en :
P (A1 ∩ · · · ∩ An ) =
P (A1 | A2 ∩ · · · ∩ An ) P (A2 | A3 ∩ · · · ∩ An ) · · · P (An−1 | An ) P (An )
Permettant la prise en compte de connaissances supplémentaires sur le système
étudié, le conditionnement est une notion-clé du calcul des probabilités et de
la statistique mathématique. Elle sera reprise et étendue dans la suite (lois et
espérance conditionnelles).
B–
Probabilités totales et composées
Il s’agit d’une importante méthode de calcul des probabilités
par décomposition
U
selon un système exhaustif d’événements (partition) Bn = Ω :
n
1.6. Probabilité conditionnelle – indépendance des événements
∀ A ∈ A,
A=A∩(
U
Bn ) =
n
U
11
(A ∩ Bn )
n
d’où la formule des probabilités totales et composées
P (A) =
X
P (A∩Bn ) =
n
X
P (A | Bn ) P (Bn )
n
La première égalité donnant P (A) a une grande utilité pratique. La seconde
égalité a aussi une portée théorique, car elle fait apparaître la probabilité a
priori P comme une moyenne pondérée des probabilités conditionnelles,
notion qui sera reprise et étendue lors de l’étude des lois conditionnelles.
Conséquence : formule de Bayes ou de la “probabilité des causes”
U
Etant donné un système exhaustif d’événements n Bn = Ω, on se demande
quelle est la probabilité de réalisation P (Bn | A) de chacun des Bn sachant
qu’un autre événement A s’est réalisé ; ceci dans le but de déterminer lequel
d’entre eux a vraisemblablement joué pour produire A (problème “inverse”
d’attribution de cause).
Supposant connue la suite des probabilités conditionnelles P (A | Bn ) n , on
utilise la symétrie de l’écriture
P (Bn | A) P (A) = P (A ∩ Bn ) = P (A | Bn ) P (Bn )
pour obtenir la formule de Bayes :
pour P (A) > 0,
P (Bn | A) =
C–
P (A | Bn ) P (Bn )
P (A | Bn ) P (Bn )
=P
P (A)
i P (A | Bi ) P (Bi )
Evénements indépendants
L’indépendance de deux événements exprime l’idée que la réalisation de l’un
n’influe pas sur (la probabilité de) celle de l’autre. Il s’agit d’une hypothèse
profondément simplificatrice pour les calculs, qui peut être exacte de par
la nature même du problème ou du fait d’une certaine symétrie du système
considéré ; elle peut aussi n’être vérifiée qu’en première approximation.
Définition 1.6.3 (et proposition) Un événement A ∈ A est dit indépendant de B si
P (A | B) = P (A) ou (exclusif) P (B) = 0.
12
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
Une condition nécessaire et suffisante est alors, du fait de la définition de
P (A | B) :
P (A ∩ B) = P (A) P (B)
(car P (A ∩ B) = 0 si P (B) = 0) ; de sorte que, symétriquement, B est indépendant de A et l’on dit simplement que A et B sont indépendants.
Exemples 1.6.4
a) Jet de 2 dés (simultanément ou successivement), ou encore jet du même
dé deux fois de suite. On admet par principe l’absence d’interaction entre
ces lancers, de sorte que tout événement A concernant un seul des lancers
est indépendant de tout événement B concernant l’autre.
C’est le cas plus généralement d’événements A et B relatifs à deux expériences aléatoires élémentaires, ou à la même expérience répétée deux
fois, sans interaction.
b) Jet d’un seul dé non pipé (équiprobabilité des faces numérotées de 1 à
6), A = {2, 4, 6} et B = {5, 6} : A et B sont indépendants, puisque
P (A) =
3
1
2
1
1
= , P (B) = = et P (A ∩ B) = P ({6}) =
6
2
6
3
6
mais cela tient cette fois à une forme “d’orthogonalité” des deux événements considérés : l’information que le numéro obtenu soit pair ne rend
ni plus ni moins probable le fait qu’il vaille au moins 5.
Exercice Etant donné deux événements A et B, établir les équivalences :
A et B indépendants ⇔ Ac et B indépendants ⇔ Ac et B c indépendants.
Indépendance mutuelle de n événements
On généralise la condition nécessaire et suffisante d’indépendance de deux événements, que l’on érige en :
Définition 1.6.5 A1 , . . . , An ∈ A sont dits (mutuellement) indépendants si
∀ k ∈ [[2, n]] et ∀ i1 , . . . , ik k entiers 2 à 2 distincts de [[1,n]], on a
P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik )
1.6. Probabilité conditionnelle – indépendance des événements
13
Remarques 1.6.6
• Cette définition implique l’indépendance des événements 2 à 2 (choisir
k = 2), mais la réciproque n’est pas vraie, comme le montre l’exemple
d’un jeu consistant en 2 piles ou faces indépendants (Ω = {0, 1}2 , P
uniforme), avec
A1 = {(x, y) : x = 1} , A2 = {(x, y) : y = 1} et A3 = {(x, y) : x = y}
• Noter que la définition de l’indépendance de A1 , . . . , An ∈ A pour n ≥ 3
n’est pas P (A1 ∩ · · · ∩ An ) = P (A1 ) · · · P (An ) (dire pourquoi).
• La définition s’étend à une suite infinie d’événements, en considérant
toutes les sous suites finies.
La notion de conditionnement peut s’avérer fort subtile, même lorsque le
nombre de résultats possibles est fini ; c’est le cas dans l’exercice suivant,
où l’on devra déterminer dans les 3 contextes indiqués un triplet (Ω, A, P )
convenable pour modéliser l’expérience aléatoire décrite :
En admettant que les sexes F ou M des nouveaux nés sont équiprobables et
indépendants, et considérant une famille de deux enfants, déterminer quelle est
la probabilité conditionnelle que les deux enfants soient des filles dans chacun
des cas :
• je sais que l’aîné des enfants est une fille ; (réponse facile : 1/2)
• on m’a informé que l’un au moins des enfants est une fille ; (réponse : 1/3)
• je sais que l’un au moins des enfants est une fille, suite à sa rencontre,
mais j’ignore s’il s’agit de l’aînée ou de la cadette. (réponse plus délicate :
1/2)
14
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
1.7
Exercices annotés et corrigés
A–
Énoncés
1. Dans quelle circonstance particulière deux événements A et B tels que
l’événement A ∪ B soit presque sûr sont-ils indépendants ? (réponse : A
ou B presque sûr)
2. Soient A et B deux événements tels que P (A) = 3/8 , P (B) = 1/2 et
P (A ∩ B) = 1/4. Calculer P (Ac | B c ). (réponse : 3/4)
3. Soient A et B deux événements indépendants tels que P (A) = 1/2 et
P (A ∪ B) = 2/3. Calculer P (B c | A). (réponse : 2/3)
4. Etablir que deux événements A et B sont indépendants si et seulement
si :
P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B c ) P (Ac ∩ B).
(exprimer les deux membres de l’égalité en fonction de P (A) , P (B) et P (A∩B)
pour A et B quelconques)
5. Soient A, B et C trois événements indépendants 2 à 2, avec P (C) > 0.
Donner une condition nécessaire et suffisante sur A, B et C pour que
A et B soient indépendants relativement à la probabilité conditionnelle
P ( | C), à la place de P . (réponse : A, B et C mutuellement indépendants)
6. On jette une paire de dés non pipés. Calculer la probabilité p pour que la
somme obtenue soit supérieure ou égale à 10, sachant que l’un au moins
des deux dés a donné 5. (réponse : 3/11)
7. Soit un avion de type A, à 4 réacteurs, et un avion de type B, à 2 réacteurs. On suppose que chaque réacteur a, indépendamment des autres,
une probabilité p ∈ ]0, 1[ de tomber en panne.
Sachant que la panne d’un seul réacteur n’empêche pas l’avion de type A
d’arriver quand même à destination, choisissez votre moyen de transport
en fonction de p. (réponse : A pour p < 2/3 et B pour p > 2/3)
15
1.7. Exercices annotés et corrigés
8. Lors de naissances gémellaires, les vrais jumeaux (un même œuf divisé
après fécondation) sont de même sexe ; tandis que les faux jumeaux (deux
œufs fécondés) peuvent être de même sexe ou de sexes différents avec la
même probabilité 1/2.
On s’intéresse
( ici à la proportion de vrais jumeaux. On considère les événements :
A ' “ les nouveaux nés sont de vrais jumeaux ”
.
B ' “ les nouveaux nés sont des jumeaux de même sexe ”
a) Exprimer P (B) en fonction de P (A). (réponse : (1+P(A))/2)
b) Une étude statistique des naissances gémellaires a montré qu’il y avait
35% de jumeaux de sexes opposés. Calculer P (A) et P (A | B).
(réponses : 0, 3 et ≈ 0.46)
9. Démontrer le lemme de Borel – Cantelli (cf. le paragraphe 1.5.B –).
(pour le premier cas, généraliser d’abord l’inégalité de Boole à une suite infinie
T
d’événements ; pour le second cas, établir lim P (
Acn+p ) = 0 en utilisant
q→∞
0≤p≤q
l’inégalité e−u ≥ 1 − u pour u ≤ 1 et conclure)
10. Une seule des 3 portes de votre prison mène à la liberté, mais vous ignorez
totalement laquelle . . .
Vous désignez au hasard l’une d’entre elles au gardien, qui se garde de
vous informer si votre choix est le bon mais qui, histoire de parler, vous
désigne en retour comme mauvaise l’une des deux portes restantes. Avezvous intérêt à changer votre choix ? (réponse : oui, à méditer . . . )
11. On étudie le problème du tirage sans remise de n boules dans une urne
contenant a boules blanches et b boules rouges (cf. l’exercice 5 du paragraphe 1.8).
On considère l’événement : An+1 ' “ la (n + 1) e boule tirée est blanche ”
(en supposant n ≤ a + b − 1). Montrer que P (An+1 ) = a/(a + b)
(On suggère de conditionner selon les valeurs de K, nombre aléatoire de boules
blanches obtenues lors des n premiers tirages).
On notera que, comme le résultat précédent est encore valable en remplaçant n par n0 ≤ n, on a en fait établi (en posant i = n0 + 1) :
a
∀ i ∈ {1, . . . , n} , P (Ai ) =
a+b
avec Ai ' “ la i e boule tirée est blanche ”. Comment interpréter ce
résultat ?
16
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
B–
Corrigés
1. Dans quelle circonstance particulière deux événements A et B tels que
l’événement A ∪ B soit presque sûr sont-ils indépendants ?
Solution : On a 1 = P (A ∪ B) = P (A) + P (B) − P (A ∩ B), donc 1 =
P (A) + P (B) − P (A) P (B) si et seulement si (ssi) A et B sont indépendants.
Or l’égalité précédente se récrit 1 − P (A) 1 − P (B) = 0, qui est vérifiée ssi
A ou B est presque sûr.
2. Soient A et B deux événements tels que P (A) = 3/8 , P (B) = 1/2 et
P (A ∩ B) = 1/4. Calculer P (Ac | B c ).
Solution :
c
P (A ∪ B)
P (Ac ∩ B c )
1 − P (A) − P (B) + P (A ∩ B)
P (A | B ) =
=
=
;
P (B c )
P (B c )
1 − P (B)
1
1
3
1− 8 − 2 + 4
5
= 3/4.
donc ici P (Ac | B c ) =
=2 1−
1
8
1− 2
c
c
3. Soient A et B deux événements indépendants tels que P (A) = 1/2 et
P (A ∪ B) = 2/3. Calculer P (B c | A).
Solution : On a A et B indépendants =⇒ A et B c indépendants :
en effet P (A∩B c ) = P A\(A∩B) = P (A)−P (A∩B) = P (A)−P
(A) P (B) car
c
A et B sont indépendants, donc P (A ∩ B ) = P (A) 1 − P (B) = P (A) P (B c ).
Ainsi P (B c | A) = P (B c ) = 1 − P (B) ; or P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
avec A et B indépendants, donc P (B) − P (A) P (B) = P (A ∪ B) − P (A) et
P (A ∪ B) − P (A)
.
P (B) =
1 − P (A)
On conclut que P (B c | A) = 1 − P (B) =
1−
1−
2
3
1
2
=
1 − P (A ∪ B)
, soit ici P (B c | A) =
1 − P (A)
2
.
3
4. Etablir que deux événements A et B sont indépendants si et seulement
si :
P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B c ) P (Ac ∩ B).
Solution : On a P (Ac ∩ B c ) = P (A ∪ B)c = 1 − P (A) − P (B) + P (A ∩ B),
donc
1.7. Exercices annotés et corrigés
17
P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B) − P (A ∩ B) P (A) + P (B) − P (A ∩ B) .

 P (A ∩ B c ) = P A \ (A ∩ B) = P (A) − P (A ∩ B)
D’autre part
, donc
 P (Ac ∩ B) = P B \ (A ∩ B) = P (B) − P (A ∩ B)
P (A ∩ B c ) P (Ac ∩ B) = P (A) P (B) − P (A ∩ B) P (A) + P (B) − P (A ∩ B) .
On a donc bien
P (A ∩ B) P (Ac ∩ B c ) = P (A ∩ B c ) P (Ac ∩ B) ⇐⇒ P (A ∩ B) = P (A) P (B).
5. Soient A, B et C trois événements indépendants 2 à 2, avec P (C) > 0.
Donner une condition nécessaire et suffisante sur A, B et C pour que
A et B soient indépendants relativement à la probabilité conditionnelle
P ( | C), à la place de P .
Solution : Par définition, on a A et B indépendants relativement à P ( | C)
si et seulement si
P (A ∩ B ∩ C)
= P (A) P (B), car A
P (C)
et B sont indépendants de C ; et comme A, B et C sont indépendants 2 à 2,
cette condition P (A ∩ B ∩ C) = P (A) P (B) P (C) équivaut à
P (A ∩ B | C) = P (A | C) P (B | C), soit
A, B et C mutuellement indépendants.
6. On jette une paire de dés non pipés. Calculer la probabilité p pour que la
somme obtenue soit supérieure ou égale à 10, sachant que l’un au moins
des deux dés a donné 5.
Solution : On considère les événements de Ω = [[1, 6]]2 :
A = ‘‘ un des deux dés donne 5 ”
= {(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (1, 5), (2, 5), (3, 5), (4, 5), (6, 5)} ,
qui est tel que card A = 11, et
B=“ somme ≥ 10 ”= {(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)}.
On a ainsi A ∩ B = {(5, 5), (5, 6), (6, 5)} ; comme par hypothèse la probabilité
est uniforme sur Ω (dés non pipés), on a
p = P (B | A) =
P (A ∩ B)
card A ∩ B card Ω
card A ∩ B
3
.
=
=
=
P (A)
card Ω card A
card A
11
7. Soit un avion de type A, à 4 réacteurs, et un avion de type B, à 2 réacteurs. On suppose que chaque réacteur a, indépendamment des autres,
une probabilité p ∈ ]0, 1[ de tomber en panne.
18
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
Sachant que la panne d’un seul réacteur n’empêche pas l’avion de type A
d’arriver quand même à destination, choisissez votre moyen de transport
en fonction de p.
Solution : On considère les événements
Ai =“ i réacteur en panne sur avion A ” (0 ≤ i ≤ 1)
et B0 =“ 0 réacteur en panne sur avion B ” ;
l’événement “ l’avion A arrive à destination ” est A0 ] A1 , de probabilité
4
3
3
P (A0 ) + P (A1 ) = (1 − p) + 4 p (1 − p) = (1 − p) (1 + 3 p),
2
et l’événement “ l’avion B arrive à destination ” est B0 , de probabilité (1 − p) .
On choisit l’avion A si la première probabilité est plus grande que la seconde,
soit si
(1 − p) (1 + 3 p) > 1 ⇐⇒ 2 p − 3 p2 > 0 ⇐⇒ 2 − 3 p > 0 ⇐⇒ p < 23 ,
et on choisit l’avion B si p >
2
3
(si p = 32 , pas de préférence).
8. Lors de naissances gémellaires, les vrais jumeaux (un même œuf divisé
après fécondation) sont de même sexe ; tandis que les faux jumeaux (deux
œufs fécondés) peuvent être de même sexe ou de sexes différents avec la
même probabilité 1/2.
On s’intéresse ici à la proportion de vrais jumeaux. On considère les
événements :

 A ' “ les nouveaux nés sont de vrais jumeaux ”
 B ' “ les nouveaux nés sont des jumeaux de même sexe ”
a) Exprimer P (B) en fonction de P (A).
b) Une étude statistique des naissances gémellaires a montré qu’il y avait
35% de jumeaux de sexes opposés. Calculer P (A) et P (A | B).
Solution :
a) On a d’après la formule des probabilités totales et composées
P (B) = P (B | A) P (A) + P (B | Ac ) P (Ac ),
avec d’après l’énoncé P (B | A) = 1 (car A ⊂ B) et P (B | Ac ) =
donc P (B) = P (A) + 21 1 − P (A) , soit P (B) = 12 1 + P (A) .
1
2
;
19
1.7. Exercices annotés et corrigés
b) On a ainsi P (A) = 2 P (B) − 1 = 1 − 2 P (B c ), et comme P (B c ) = 0, 35,
P (A ∩ B)
P (A)
P (A) = 1 − 0, 7 = 0, 3 ; d’autre part on a P (A | B) =
=
,
P (B)
1 − P (B c )
0, 3
≈ 0, 46.
donc P (A | B) =
0, 65
On note que P (A | B) > P (A), ce qui est conforme à l’intuition.
9. Démontrer le lemme de Borel – Cantelli (cf. le paragraphe 1.5.B –).
Solution :
• Généralisons d’abord l’inégalité de Boole à une suite infinie d’événements
(An )n∈N :
n
∞
P
P
Ai ≤
P (Ai ) ≤
P (Ai ), donc par continuité croissante
S
∀ n ∈ N, P
i=0
0≤i≤n
S
de la probabilité, P
i=0
Ai = lim P
n→∞
i∈N
S
∞
P
Ai ≤
P (Ai )
0≤i≤n
i=0
(pour plus de détails, se reporter au polycopié Calcul Intégral, théorème 2.1.3).
T S
Par définition de lim sup An =
n→∞
n→∞
∞
P
n∈N p∈N
S
tout n ∈ N, donc P lim sup An ≤ P
An+p ≤
n→∞
p=0
∞
P
p∈N
lim
n→∞ p=n
An+p pour
p∈N
P (An+p ) =
d’après l’inégalité de Boole généralisée ci-dessus. Si
∞
P
S
An+p , on a lim sup An ⊂
∞
P
P (Ap )
p=n
P (An ) < +∞, on a
n=0
P (Ap ) = 0 (reste d’une série convergente), d’où P lim sup An = 0.
n→∞
• Si les An sont mutuellement indépendants, il en est de même des complémentaires Acn , donc on a pour tout n ∈ N et pour tout q ∈ N :
T
P(
Acn+p ) =
0≤p≤q
q
Q
p=0
P (Acn+p ) =
n+q
Q
1 − P (Ap ) .
p=n
Or on a l’inégalité e−u ≥ 1 − u pour tout u ∈ R ; on déduit donc
P
h n+q
i
n+q
Q
P
Acn+p ≤
exp −P (Ap ) = exp −
P (Ap ) ;
T
p=n
0≤p≤q
si
∞
P
p=n
P (An ) = +∞, on a ∀ n ∈ N lim
q→∞ p=n
n=0
h n+q
i
P
lim exp −
P (Ap ) = 0 et donc lim P
q→∞
n+q
P
q→∞
p=n
On en déduit P
T
p∈N
Acn+p
P (Ap ) = +∞, de sorte que
T
Acn+p = 0.
0≤p≤q
= 0 par croissance de P .
20
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
Comme (lim sup An )c = lim inf Acn =
Acn+p , on conclut par continuité
croissante de P (ou inégalité de Boole généralisée) P (lim sup An )c = 0, c’estn→∞
à-dire P lim sup An = 1.
n→∞
n→∞
S T
n∈N p∈N
n→∞
10. Une seule des 3 portes de votre prison mène à la liberté, mais vous ignorez
totalement laquelle . . .
Vous désignez au hasard l’une d’entre elles au gardien, qui se garde de
vous informer si votre choix est le bon mais qui, histoire de parler, vous
désigne en retour comme mauvaise l’une des portes restantes. Avez-vous
intérêt à changer votre choix ?
Solution : On peut résoudre la question par simple logique : l’information
du gardien n’affecte pas la probabilité que votre premier choix de porte soit
le bon (1 chance sur trois), mais comme elle disqualifie l’une des deux autres
portes, la probabilité que la dernière porte soit la bonne passe de 1 chance sur
trois à 2 chances sur trois ! D’où l’intérêt de modifier son choix.
Autrement dit, avec le langage des probabilités en considérant les événements
A = “ la porte choisie est la bonne ” et B = “ la dernière porte est la bonne ”,
2
1
on a P (A) = et B = Ac , d’où P (B) = .
3
3
Le problème se généralise à n ≥ 3 portes (dont toujours une seule est bonne)
et peut être résolu à l’aide de probabilités conditionnelles :
On considère les événements A=“ la porte choisie en premier est la bonne ” et
B=“ la porte choisie en second est la bonne ”, ce dernier choix étant effectué au
hasard pur parmi les n − 2 portes restant en course après l’information donnée
par le gardien.
On a d’après la formule des probabilités totales et composées
P (B) = P (B | A) P (A) + P (B | Ac ) P (Ac ),
1
1
(car conditionnellement à
avec P (A) = , B ⊂ Ac et P (B | Ac ) =
n
n−2
Ac , l’une des portes parmi les n − 2 restantes est la bonne). En conséquence
1 1
1
1
n−1
P (B) = 0 +
>
= P (A) : on a toujours
1−
=
n
n−2
n
n (n − 2)
n
intérêt à modifier son choix.
11. On étudie le problème du tirage sans remise de n boules dans une urne
contenant a boules blanches et b boules rouges (cf. l’exercice 5 du paragraphe 1.8).
On considère l’événement : An+1 ' “ la (n + 1) e boule tirée est blanche ”
a
(en supposant n ≤ a + b − 1). Montrer que P (An+1 ) =
.
a+b
21
1.7. Exercices annotés et corrigés
On notera que, comme le résultat précédent est encore valable en remplaçant n par n0 ≤ n, on a en fait établi (en posant i = n0 + 1) :
a
∀ i ∈ {1, . . . , n} , P (Ai ) =
a+b
e
avec Ai ' “ la i boule tirée est blanche ”. Comment interpréter ce
résultat ?
Solution : Notons K le nombre aléatoire de boules blanches obtenues lors
des n premiers tirages. On a (loi hypergéométrique)
a
b
q
k
n−k
0 ≤ k ≤ n, P (K = k) =
(avec la convention
= 0 si r > q) ;
a+b
r
n
et comme conditionnellement à {K = k} il reste a − k boules rouges parmi
a−k
a + b − n boules, on a P (An+1 | K = k) =
(en supposant k ≤ a ;
a+b−n
mais on peut dans la suite conserver cette expression erronée pour k > a, car
pour ces valeurs de k on a P (K = k) = 0).
D’après la formule des probabilités totales et composées
a
b
a−k
k
n−k
P (An+1 | K = k) P (K = k) =
P (An+1 ) =
;
a+b
a+b−n
k=0
k=0
n
a
a−1
a+b
a−1+b
Or (a − k)
=a
et (a + b − n)
= (a + b)
; d’où
k
k
n
n
a−1
b
n
a X
a
k
n−k
P (An+1 ) =
=
,
a−1+b
a+b
a+b
k=0
n
n
X
n
X
la somme précédente valant 1 puisqu’elle énumère le système de probabilités
du nombre de boules blanches dans un tirage sans remise de n boules dans une
urne contenant a − 1 boules blanches et b boules rouges.
a
(et retrouver ce résultat
a+b
sans calcul), on peut considérer que le tirage des n boules dans l’urne est simultané, ce qui revient à dire que P (Ai ) ne dépend pas de l’ordre de tirage i ;
a
et il est clair que P (A1 ) =
, rapport du nombre de boules blanches sur le
a+b
nombre total de boules !
Pour comprendre que ∀ i ∈ {1, . . . , n}, P (Ai ) =
22
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
1.8
Exercices de synthèse
Exercice 1 : Propriétés élémentaires d’une probabilité
Montrer, en utilisant seulement les axiomes de la probabilité :
1) ∀ A ∈ A, P (A) ∈ [0, 1] et P (Ac ) = 1 − P (A)
2) ∀ (A, B) ∈ A2 , (A ⊂ B) ⇒ (P (A) ≤ P (B))
3) ∀ (A, B) ∈ A2 , P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
S
P
4) Inégalité de Boole : ∀ (Ai )1≤i≤n ∈ An , P (
Ai ) ≤
P (Ai )
1≤i≤n
1≤i≤n
5) Formule de Poincaré : ∀ (Ai )1≤i≤n ∈ An ,
P(
S
Ai ) = S1 − S2 + · · · + (−1)n−1 Sn
1≤i≤n
où
P
S1 =
P (Ai ), S2 =
1≤i≤n
P
P (Ai ∩ Aj ), . . . , Sn = P (A1 ∩ A2 ∩ · · · ∩ An ).
1≤i<j≤n
Exercice 2 : Tirages au sort successifs (formule de Poincaré)
On considère une urne contenant n boules (n ≥ 1), numérotées de 1 à n ; on
procède à k tirages successifs d’une boule avec remise (k ≥ 1).
On cherche la probabilité de l’événement :
E ' “toutes les boules ont été tirées au moins une fois” ;
à cette fin on calculera la probabilité P (E c ) au moyen de la formule de Poincaré.
En déduire deux identités remarquables en examinant les cas k < n et k = n.
Exercice 3 : Anniversaire le même jour (calcul combinatoire)
On cherche à calculer la probabilité pour que, dans un groupe de personnes,
deux au moins d’entre elles aient leur anniversaire le même jour.
On notera :
• r = l’effectif du groupe , n = le nombre de jours (365) (r ≤ n) ;
• A ' “deux personnes au moins ont leur anniversaire le même jour”.
23
1.8. Exercices de synthèse
1) Calculer P (Ac ).



 ln(1 − x) ≤ −x (x < 1)
m
2) A l’aide des relations usuelles : X
m(m + 1)

i=


2
i=1
trouver un majorant pour
ln P (Ac )
et de là un minorant pour P (A).
Application Combien de personnes suffit-il de rassembler (effectif r) pour que
P (A) soit supérieur à 0,95 (seuil habituel de la statistique) ?
Exercice 4 : Capture de particules (décomposition d’événements)
Un point M se déplace dans le plan ; à chaque instant, il a la probabilité :
. p d’aller de (x, y) en (x + 1, y)
. q = 1 − p d’aller de (x, y) en (x, y + 1).
y
A
q
b
M p
O
a
H
x
1) Calculer la probabilité pour que, partant de O, le point M atteigne le point
A(a, b).
2) Calculer la probabilité pour que, partant de O, le point M atteigne le
segment [H, A] d’extrémités H(a, 0) et A(a, b).
Exercice 5 : Tirage sans remise dans une urne (loi hypergéométrique et
ses lois limites)
On considère une urne contenant a boules blanches et b boules rouges.
On effectue un prélèvement à l’aveuglette de n boules sans remise (n ≤ a+b).
On appelle K le nombre aléatoire de boules blanches obtenues dans ce tirage.
24
chapitre 1. PROBABILITÉS DES ÉVÉNEMENTS
1) Par une méthode de résultats équiprobables, calculer p(k) = P (K = k).
2) Calculer la valeur moyenne m =
n
P
k p(k) de K.
k=1
On pensera à utiliser les relations usuelles suivantes sur les combinaisons :
a
a−1
a+b
a+b−1
k
=a
et n
= (a + b)
.
k
k−1
n
n−1
3) Chercher la limite des p(k) quand a et b tendent vers l’infini de façon que
a
→ p ∈ ]0, 1[ .
a+b
Le système des limites p0 (k) forme-t-il un système de probabilités ?
Donner sans calcul sa valeur moyenne m0 .
4) Chercher la limite du système de probabilités précédent quand n tend vers
l’infini et p tend vers 0 de façon que la valeur moyenne m0 tende vers une limite
θ > 0.
Vérifier que le système des limites p00 (k) est un système de probabilités et
donner sa valeur moyenne m00 .
5) Application Déterminer la loi du nombre K d’objets défectueux parmi 20
objets tirés dans un lot de 10 000 objets dont 500 sont défectueux.
Donner m et des valeurs approchées de P (K = 0) et P (K = 1).
N.B. Les lois obtenues s’appellent respectivement :
1. Hypergéométrique
2. Binomiale
3. de Poisson.
Exercice 6 : Pile ou face à Macao (théorème de continuité)
On considère un jeu de pile ou face de durée infinie, dans lequel la probabilité
d’avoir pile à chaque coup est p ∈ ]0, 1[ . On cherche la probabilité de tirer pile
une infinité de fois.
1) Calculer la probabilité de l’événement :
n ∈ N, m ∈ N∗ ,
En,m ' “ face aux coups (n + 1), . . . , (n + m) ”.
1.8. Exercices de synthèse
25
2) En déduire la probabilité de l’événement :
n ∈ N,
En ' “ toujours face à partir du coup (n + 1) ”,
puis celle de l’événement : F ' “ une infinité de fois pile ”.
Exercice 7 : Test épidémiologique (probabilités des causes)
Un test médical, devant détecter le plus tôt possible une maladie rare, a les
caractéristiques suivantes qui paraissent excellentes :
• toute personne atteinte a un test positif ;
• le taux d’erreur du test (test positif pour une personne saine) est de 2%.
On s’intéresse à la portée du test d’un point de vue individuel et non statistique.
On considère les événements :
A ' “ la personne est malade ”
B ' “ le test est positif ”.
1) Exprimer P (B) en fonction de P (A).
2) Une étude statistique dans la population française a montré qu’il y avait 1
personne malade pour 1000. Calculer la probabilité P (Ac | B) que l’indication
“positif” fournie par un test soit erronée ?
Chapitre 2
Variables aléatoires et lois
2.1
Définition d’une variable aléatoire (V.A.)
De manière très générale, il s’agit d’un caractère déterminé par l’état d’un
système résultant d’une expérience aléatoire, c’est-à-dire d’une propriété X du
système (ayant couramment la forme d’une grandeur) qui dépend du résultat
obtenu.
En langage mathématique, une V.A. X est donc une application définie sur
l’univers Ω et (couramment) à valeurs dans R (variable aléatoire réelle, en
abrégé V.A.R.) ou Rn (variable aléatoire vectorielle, en abrégé V.A.V.) :
X
ω 7→ X(ω),
dont on connaît la valeur x = X(ω) à l’issue de l’expérience aléatoire.
Par convention, une V.A. sera notée au moyen d’une lettre majuscule.
Exemples 2.1.1
N
a) Jet de 2 dés, Ω = [[1, 6]]2 : ω = (x, y) 7→ N (ω) = x + y, somme des points
obtenus.
p
D
b) Point de chute d’un projectile, Ω = R2 : ω = (x, y) 7→ D(ω) = x2 + y 2 ,
distance à l’origine.
c) Trajectoire d’un projectile sur l’intervalle de temps [t1 , t2 ], Ω = C 2 ([t1 , t2 ])
X
V
∀ t ∈ [t1 , t2 ], ω 7→t w(t), position dans R3 à l’instant t et ω 7→t ω 0 (t),
W
vitesse à l’instant t, sont des V.A.V. ; ω 7→ sup kω 0 (t)k, maximum de
t∈[t1 ,t2 ]
la vitesse, est une V.A.R..
28
chapitre 2. VARIABLES ALÉATOIRES ET LOIS
Restriction de la notion
La notion de variable aléatoire n’a d’intérêt que si des propriétés aussi simples
que “la valeur prise par X à l’issue de
Q l’expérience aléatoire tombe dans l’intervalle [a, b] (cas réel) ou dans le pavé ni=1 [ai , bi ] (cas vectoriel)” sont énonçables,
autrement dit sont des événements, auxquels on peut affecter des probabilités.
Or d’après la définition de la tribu de Borel B de R ou Rn et un lemme de la
théorie de la mesure†1 , cette condition équivaut exactement à la mesurabilité
de X ; d’où :
Définition 2.1.2 On appelle variable aléatoire sur (Ω, A) toute application X
de Ω dans R ou Rn qui est (A, B)-mesurable, c’est-à-dire telle que :
déf
∀ B ∈ B, X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} ∈ A.
On note de manière imagée {X ∈ B} pour X −1 (B) (X “tombe” dans B)
et on dit que ce sont les événements qui ne dépendent que de X ou déterminés
par X, puisque l’observation de la seule valeur x = X(ω) prise par la variable
X (et non la connaissance de ω lui-même) permet de savoir si ces événements
sont réalisés ou non (selon que x ∈ B ou non).
La sous tribu de A notée X −1 (B) = {{X ∈ B} : B ∈ B}, image réciproque de
la tribu B par X, est appelée tribu engendrée par X ; elle rassemble l’information qu’apporte la valeur que prend la V.A. X sur l’état du système.
Remarque 2.1.3 Dans le cas réel, un critère pratique pour savoir si X est une
V.A.R. consiste à vérifier que :
déf
∀ x ∈ R, {X < x} = {ω ∈ Ω : X(ω) ∈ ] − ∞, x[} ∈ A.
Propriétés élémentaires Celles des fonctions mesurables à valeurs dans R
ou Rn †2 .
x2
En particulier :
X(ω)
X2 (ω)
• X = (X1 , . . . , Xn ) est une
V.A. vectorielle si et seuleΩ
ment si ∀ i ∈ [[1, n]], Xi est
ω
une V.A.R..
0
X1 (ω) x1
• Etant donné une suite (Xn )n∈N de V.A.R sur (Ω, A), les applications
inf Xn , sup Xn , lim inf Xn et lim sup Xn
n∈N
1
2
n∈N
n→∞
Voir par exemple [1], définition 1.1.5 et théorème 1.2.4
Voir par exemple [1], paragraphe 1.4 et théorème 1.2.6
n→∞
29
2.1. Définition d’une variable aléatoire (V.A.)
sont aussi des V.A.R., du moins si elles sont à valeurs finies (c’est-à-dire
dans R, +∞ et −∞ exclus).
En particulier, si la suite (Xn )n∈N converge simplement dans R, lim Xn
n→∞
est une V.A.R..
• La somme, le produit de deux V.A.R., l’opposé d’une V.A.R., l’inverse
d’une V.A.R. qui ne s’annule pas, sont encore des V.A.R..
Variables aléatoires composées
Soit X : (Ω, A) → (Rn , B) une variable aléatoire.
0
Proposition 2.1.4 Etant donné une application Z de Ω dans Rn , on a les
relations d’implication suivantes :
0
(1) il existe une application g : Rn → Rn borélienne
(c’est-à-dire (B, B 0 ) mesurable) telle que Z = g ◦ X
m
(2) Z −1 (B 0 ) ⊂ X −1 (B)
⇓
(3) Z est une variable aléatoire
Preuve partielle
• (1) ⇒ (2) ⇒ (3) : g −1 (B 0 ) ⊂ B ⇒ Z −1 (B 0 ) = X −1 [g −1 (B 0 )] ⊂ X −1 (B) ; et comme
X est une V.A., on a X −1 (B) ⊂ A, de sorte que Z −1 (B 0 ) ⊂ A.
• (2) ⇒ (1) : d’après (2), ∀ z ∈ Z(Ω) (image de Ω par Z), ∃ Bz ∈ B vérifiant
{Z = z} = {XU∈ Bz } puisque {z} ∈ B 0 . Les Bz sont 2 à 2 disjoints et il suffit de
définir g sur
Bz par :
z∈Z(Ω)
∀ z ∈ Z(Ω), g | B = z.
z
Il resterait à montrer que l’on peut prolonger g sur Rn en une application borélienne.
u
t
Remarques 2.1.5
• (2) ⇒ (1) exprime que si l’information apportée par une V.A. Z sur
l’état résultant d’un système (cf. la page précédente) n’est qu’une partie
de celle apportée par une autre V.A. X, alors Z est nécessairement de la
forme composée g ◦ X, notée plus couramment g(X) ; on dit pour cette
raison que cette V.A. Z ne dépend que de X.
30
chapitre 2. VARIABLES ALÉATOIRES ET LOIS
0
• On rappelle que g : R → R monotone, g : R → Rn continue à gauche
0
ou à droite et g : Rn → Rn continue sont des applications boréliennes.
Il suffirait d’ailleurs de définir l’ application g sur un borélien contenant
l’image X(Ω) de X et qu’elle soit borélienne.
2.2
Loi de probabilité d’une variable aléatoire
Comme expliqué au chapitre 1, l’espace probabilisé de référence (Ω, A, P ) n’est
qu’un mode de représentation abstrait d’une expérience aléatoire, de sorte
qu’une variable aléatoire n’est réellement accessible que par l’observation des valeurs qu’elle prend. C’est pourquoi on s’intéresse principalement aux probabilités des événements ne dépendant que de X :
∀ B ∈ B,
P (X ∈ B) = P {ω ∈ Ω : X(ω) ∈ B} = P {X −1 (B)},
c’est-à-dire à l’image de la probabilité P par X †3 .
Définition 2.2.1 On appelle loi de probabilité (ou loi de distribution, en
abrégé loi) d’une variable aléatoire X : (Ω, A) → (Rn , B) la probabilité µ sur
Rn image de P par X :
µ
déf
B ∈ B 7→ µ(B) = P {X −1 (B)} = P (X ∈ B)
(Rn , B, µ) est un espace probabilisé (image de (Ω, A, P ) par X).
Lorsqu’on est en présence de plusieurs V.A., on pourra noter µX au lieu de µ
pour préciser qu’il s’agit de la loi de X.
La loi d’une V.A. X décrit la manière dont ses valeurs se distribuent sur Rn ,
c’est-à-dire son comportement aléatoire, et non la valeur qu’elle prend pour
un résultat donné (comportement “explicite” spécifié par l’application X ellemême). Comme le comportement aléatoire est souvent l’essentiel, on pose :
Définition 2.2.2 Deux variables aléatoires X1 et X2 sont dites équivalentes
en loi ou parentes si elles ont même loi µ, ce que l’on note :
L
X1 ≡ X2
Il s’agit d’une relation d’équivalence plus faible que l’égalité presque sûre.
3
Voir par exemple [1], proposition 2.4.1
Téléchargement