1 Expériences aléatoires

publicité
Lycée Roland Garros
BCPST 1ère année
Mathématiques
2013 - 2014
Chapitre no 17. Probabilités de base
1
Expériences aléatoires
1.1 Dénition
Une expérience aléatoire est une expérience dont l'issue ne peut être prédite
de manière certaine. Il y a alors un certain nombre d'issues à envisager.
Dénition 1. L'ensemble des résultats possibles d'une expérience aléatoire est
généralement noté Ω et appelé univers. Un élément de Ω est généralement noté
ω et appelé une éventualité ou issue.
Il faut donc retenir qu'on met dans l'ensemble Ω tout ce qui peut se produire,
tous les résultats possibles de l'expérience.
1.2 Des exemples
1. On lance une pièce (jeu de Pile ou Face). On choisira l'ensemble
Ω = {P, F }
C'est un ensemble à 2 éléments qui sont les deux issues de l'expérience.
2. On jette un dé. L'expérience est naturellement modélisée par l'ensemble
Ω = {1, 2, . . . , 6}
3. On jette deux dés (discernables). Une issue est un couple ω =
(ω1 , ω2 ), où ω1 est le score du premier dé, et ω2 le score du second dé.
On choisira donc
Ω = {1, 2, . . . , 6}2
4. On tire une main de 8 cartes dans un jeu de 32. On note C
l'ensemble des 32 cartes. L'issue est la donnée de l'ensemble des 8 cartes
de la main, pour lesquelles l'ordre ne compte pas. On prendra donc
Ω = {P ⊂ C : Card(P ) = 8}
c'est-à-dire l'ensemble des sous-parties de C qui contiennent 8 éléments.
1
5. Un enfant naît d'un père Aa et d'une mère Aa. L'enfant héritera
d'un des trois génotypes possibles AA, Aa ou aa. On prendra donc
Ω = {AA, Aa, aa}
6. L'entraîneur des Bleus choisit les cinq premiers tireurs pour la
séance de tir au but. Une issue est un 5-uplet (ω1 , . . . , ω5 ) de joueurs
distincts parmi les 11 joueurs de l'équipe (l'ordre compte). En notant J
l'ensemble des 11 joueurs,
Ω = {5 − listes sans répétition de J}
7. On tire au sort l'ordre de passage de Pierre(1) , Paul(2) , Jacques(3) et
Thierry(4) à un oral. Une issue est une façon d'ordonner les 4 candidats,
donc
Ω = {permutations de l'ensemble {1, 2, 3, 4}} = {(1, 2, 3, 4), (2, 1, 3, 4), . . .}
Au fait, combien y'a t-il de telles permutations (que vaut Card(Ω)) ?
8. Je décide de jeter une pièce jusqu'à ce qu'elle tombe sur la tranche.
Combien d'essais faudra-t-il avant que j'y arrive ? N'importe quel entier
naturel est envisageable donc
Ω = {1, 2, 3, . . .} = N∗
9. Je regarde par la fenêtre. Combien de temps dois-je attendre pour voir
un oiseau passer ? L'issue peut être n'importe quel nombre réel positif
donc
Ω = [0, +∞[= R∗
Pour les exemples 8 et 9, l'univers Ω est un ensemble inni. Dans le programme
de première année, on se limitera cependant au cas d'un univers Ω ni. Cette
restriction permet d'éviter bon nombre de problèmes techniques mais ne nous
permettra pas de traiter des problèmes comme celles de ces deux exemples.
2
Évènements
2.1 Dénitions
Un évènement E est une caractéristique de l'expérience, qui est réalisée ou
non. Dans l'ensemble Ω, il y a certaines issues ω pour lesquels l'évènement est
réalisé (ω ∈ E ), et d'autres issues ω pour lesquels l'évènement n'est pas réalisé
(ω ∈
/ E ). En clair :
2
Dénition 2. On appelle évènement toute sous-partie E de Ω, autrement dit
tout élément de P(Ω). L'évènement A est dit réalisé si l'issue eective ω de
l'expérience appartient à A.
L'ensemble des évènements est donc P(Ω), l'ensemble de toutes les sous-parties
de Ω.
Vocabulaire probabiliste.
1. L'évènement Ω est dit certain.
2. L'évènement ∅ est dit impossible.
3. Un évènement ne contenant qu'une issue, autrement dit de la forme
E = {ω}, est dit élementaire.
4. Lorsque A ⊂ B on dit parfois que A implique B .
.
(1) On jette un dé. L'évènenement E : le résultat est pair est
Exemples
E = {2, 4, 6}
(2) On jette deux dés. On pose Ω = {1, 2, . . . , 6}2 . L'évènement F : les
deux scores sont égaux est
F = {(1, 1), (2, 2), . . . , (6, 6)},
l'évènement G : la somme des deux scores fait 5 est
G = {(1, 4), (2, 3), (3, 2), (4, 1)},
L'évènement H : on obtient un double 6 est un évènement élémentaire
car
H = {(6, 6)}.
À vous :
1. Pouvez-vous écrire l'évènement obtenir au moins un 6 ?
2. Ecrire l'évènement M : les deux scores sont ≤ 4 . Vérier que G
implique M . Est-il vrai que M implique G ?
2.2 Opérations sur les évènements
Dénition 3. Soient A et B deux évènements.
• A est appelé évènement contraire de A ou encore non A .
• A ∪ B est appelé réunion de A et B ou encore A ou B .
• A ∩ B est appelé intersection de A et B ou encore A et B .
3
Dénition 4. Lorsque A ∩ B = ∅, on dit que A et B sont incompatibles.
Pour un lancer de dé (Ω = {1, 2, . . . , 6}), les évènements A : obtenir un multiple de 3 et B : obtenir un score ≤ 2 sont incompatibles.
Exemple.
Rappel : règles des opérations ∪ et ∩
(1) Lois de Morgan :
(A ∪ B) = A ∩ B,
(A ∩ B) = A ∪ B
(2) union et intersection sont commutatifs :
A ∪ B = B ∪ A,
A∩B =B∩A
(3) ∪ est distributive sur ∩ et vice versa :
A∪(B ∩C) = (A∪B)∩(A∪C),
A∩(B ∪C) = (A∩B)∪(A∩C)
(4) Opérations évidentes :
A ∪ ∅ = A,
A ∩ ∅ = ∅,
A ∪ Ω = Ω,
A∩Ω=A
Dénition 5. On appelle système complet toute famille (A1 , . . . , An ) d'évènements tels que
(1) ∀i, j ∈ {1, 2, . . . , n}, avec i 6= j , on a Ai ∩ Aj = ∅,
S
(2) ni=1 Ai = Ω.
Remarque.
La propriété 1 se lit : les Ai sont deux-à-deux disjoints .
Soit Ω = {1, 2, . . . , 100}, et les évènements A = {1, 2, . . . , 20},
B = {21, . . . , 50} et C = {51, . . . , 100}. La famille (A, B, C) forme un système
complet de Ω.
Exemple.
4
Soit Ω = {1, 2, . . . , 6}2 qui modélise le résultat d'un lancer de 2
dés. Soit A : deux scores pairs , B : deux scores impairs et C : un
score pair et l'autre impair . La famille (A, B, C) forme un système complet
de Ω.
Exemple.
Proposition 1. Pour tout évènement A, la famille (A, A) est un système
complet.
Démonstration. On vérie aisément que A ∩ A = ∅ et A ∪ A = Ω.
3
Probabilités
3.1 Avant-propos
La démarche probabiliste consiste à associer à chaque évènement un nombre
qui quantie son degré de vraisemblance, entre 0 (évènement impossible) et 1
(évènement certain).
Le calcul des probabilités est un concept purement théorique, il est le produit de la modélisation de problèmes concrets, c'est-à-dire leur transformation
en problèmes mathématiques abstraits. Sans cette étape de modélisation parler
de probabilités n'a pas réellement de sens rigoureux : par exemple une question
du genre la probabilité que je réussisse au concours n'est pas bien dénie :
quel sens pourrait-on lui donner ?
L'étape de modélisation nécessite souvent des hypothèses de simplication, nécessaires pour rendre le problème traitable mathématiquement. Par exemple on
peut être amené à supposer que le sexe des diérents enfants d'un même couple
sont indépendants, mais cette hypothèse est discutable. En fait il conviendra
de toujours s'interroger sur la délité d'un modèle : est-il une bonne représentation de la situation réelle ? Les hypothèses faites sont-elles raisonnables ?
Pourquoi ?
3.2 Dénitions et premières propriétés
Dénition 6. On appelle probabilité sur Ω toute application
P : P(Ω) → [0, 1]
A
7→ P(A)
vériant les axiomes suivants :
(1) pour tous évènements A et B incompatibles (A ∩ B = ∅), on a
P(A ∪ B) = P(A) + P(B)
5
(2) P(Ω) = 1.
La propriété 1 s'appelle axiome d'additivité. Les propriétés suivantes, qui
sont des conséquences de ces deux axiomes, servent constamment dans le calcul
des probabilités et doivent être comprises parfaitement.
Proposition 2. Pour tous évènements,
1.
2.
3.
4.
5.
6.
P(∅) = 0,
P(A) = 1 − P(A),
si A ⊂ B alors P(A) ≤ P(B),
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
P(A ∪ B) ≤ P(A) + P(B)
si A1 , . . . , An sont deux à deux incompatibles alors P(
Sn
i=1
Ai ) =
Pn
i=1
P(Ai )
Démonstration.
1. P(∅) = P(∅ ∪ ∅) = P(∅) + P(∅) donc P(∅) = 0.
2. P(Ω) = 1 = P(A) + P(A) car A et A sont disjoints.
3. si A ⊂ B alors B = A ∪ (B \ A) et cette union est disjointe donc
P(B) = P(B \ A),
4. A et B \ A étant incompatibles, on a P(A ∪ B) = P(A) + P(B \ A) =
P(A) + (P(B) − P(A ∩ B)).
5. Conséquence immédiate du point précédent.
6. Par récurrence : pour n = 2 c'est l'axiome d'additivité, et en supposant
la propriété vraie au rang n alors pour (n + 1) évènements incompatibles
P(
n+1
[
Ai ) = P
i=1
n
[
!
!
Ai
∪ An+1
i=1
=P
n
[
!
Ai
+ P (An+1 )
i=1
=
=
n
X
i=1
n+1
X
P(Ai ) + P (An+1 )
P(Ai )
i=1
6
(union disjointe)
ATTENTION !
A l'issue d'un calcul de probabilité, toujours se demander si le résultat
paraît cohérent au vu du problème posé. Par exemple, si je trouve une
probabilité très faible, est-ce bien ce à quoi on s'attendait ?
Avoir l'esprit critique sur ses résultats permet de détecter bien
des erreurs ! Sachez qu'en particulier un correcteur réagit très mal en
lisant comme résultat nal une probabilité < 0 ou > 1, surtout si ça ne
semble pas poser de problème au candidat.
3.3 Dénition d'une probabilité selon les évènements élémentaires
Théorème 1. Soit un univers Ω = {ω1 , . . . , ωn } et des réels p1 , . . . , pn vériant
1. ∀i ∈ {1, 2, . . . , n}, pi ≥ 0,
2. p1 + . . . pn = 1.
Il existe une unique probabilité P sur Ω telle que ∀i ∈ {1, 2, . . . , n}, pi ≥ 0,
P({ωi }) = pi . De plus, pour tout évènement A,
X
P(A) =
pi .
i tel que ωi ∈A
Démonstration.
Unicité.
Si P({ωi }) = pi pour tout i alors, pour A un évènement, on a A =
S
{ω}
donc nécessairement
ω∈A
P(A) =
X
(1)
P({ωi }).
i tel que ωi ∈A
Existence. L'application P dénie par (1) dénit bien une probabilité. En
eet si A et B sont incompatibles alors
P(A ∪ B) =
X
i tel que ωi ∈A∪B
pi =
X
i tel que ωi ∈A
pi +
X
pi = P(A) + P(B).
i tel que ωi ∈B
De plus P vérie bien sûr, pour tout i ∈ {1, 2, . . . , n}, P({ωi }) = pi .
. Dénir un modèle probabiliste pour une expérience, c'est simplement spécier les probabilités de chacune des issues possibles, c'est-à-dire
choisir les valeurs de p1 , p2 , . . . , pn . Bien sûr ces nombres doivent être positifs
et leur somme doit être égale à 1.
Moralité
Exemple.
vérie
Il existe une unique probabilité P sur l'ensemble {Y, M, C, A} qui
P({Y }) = 0.3, P({M }) = 0.1, P({C}) = 0.35, P({A}) = 0.25
7
3.4 Formule des probabilités totales : version 1
Théorème 2 (Probabilités totales, version 1). Soit (A1 , . . . , An ) un système
complet. Alors pour tout évènement B ,
P(B) =
Pn
i=1
P(B ∩ Ai )
Démonstration. B ∩A1 , . . . , ∩An sont deux-à-deux incompatibles puisque pour
i 6= j , on a (B ∩ Ai ) ∩ (B ∩ Aj )S= B ∩ (Ai ∩ Aj )P= B ∩ ∅ = ∅. Donc par
l'axiome d'additivité, P(B) = P ( ni=1 (B ∩ Ai )) = ni=1 P(B ∩ Ai ).
On tire une bille dans un grand panier de billes toutes diérentes.
Alors P(la bille est bleue) = P(la bille est bleu clair)+P(la bille est bleu foncé).
Exemple.
3.5 Probabilité uniforme
Dénition 7. Soit Ω un ensemble ni. Il existe en vertu du théorème 1 une
unique probabilité P sur Ω vériant :
∀ω ∈ Ω, P({ω}) =
1
Card(Ω)
P est appelée probabilité uniforme sur Ω.
. P est l'unique probabilité qui aecte à chaque issue ω la même
probabilité, qui doit alors nécessairement valoir 1/n pour que la somme fasse 1.
Quand on doit modéliser une situation probabiliste, on choisira la probabilité
uniforme si rien ne permet de penser que telle issue est plus probable qu'une
autre (c'est très fréquent !).
Remarque
ATTENTION. Ne pas confondre choisir au hasard avec choisir
au hasard uniformément . C'est un abus de langage trop fréquent ! Si
j'interroge un passant dans la rue, son âge sera certes un nombre aléatoire
entre 0 et 120, mais certainement pas selon la probabilité uniforme : il
y a par exemple plus de jeunes de 20 ans que de personnes de 116 ans !
Proposition 3. Si P est la probabilité uniforme sur Ω, alors pour tout évènement A,
P(A) =
Card(A)
Card(Ω)
En somme, lorsqu'on travaille sous la probabilité uniforme, calculer P(A) revient à calculer Card(A), c'est-à-dire compter les issues qui réalisent A. Les
problèmes de probabilités ne sont alors que des histoires de dénombrement !
Des exemples :
8
1. On distribue une main de Poker (5 cartes d'un jeu de 32 cartes). Calculer
la probabilité que la main contienne exactement 3 carreaux, que la donne
contienne au moins une paire.
2. Quelle est la probabilité pour que mon code de carte bleue contienne 4
chires rangés dans l'ordre strictement croissant ? Quelle est la probabilité pour qu'il contienne deux chires pairs et deux chires impairs ?
4
Conditionnement
4.1 Dénition
. Le petit Kevin va choisir une glace. Je dois deviner quel parfum
il va choisir. Me basant sur une étude statistique réalisée sur 1000 élèves,
j'estime que son choix va se faire selon les probabilités suivantes :
Motivation
P(vanille) = 0.2,
P(fraise) = 0.2,
P(chocolat) = 0.5,
P(pistache) = 0.1
Mais je me souviens soudainement que Kevin déteste le chocolat. Les chires
ci-dessus ne sont alors plus pertinents car ils ne tiennent pas compte de cette
information. Je vais naturellement considérer une nouvelle probabilité, dite
probabilité sachant que Kevin n'aime pas le chocolat , qui respectera les
rapports entre les probabilités des autres parfums. En l'occurrence je dois
toutes les multiplier par 2 :


P(vanille|pas chocolat) = 0.4
P(fraise|pas chocolat) = 0.4,


P(pistache|pas chocolat) = 0.2
Dénition 8. Soient A et B deux évènements de Ω avec P(B) 6= 0. On dénit
la probabilité conditionnelle de A sachant B par :
P(A|B) =
P(A ∩ B)
P(B)
P(A|B) peut aussi être notée PB (A).
Théorème 3. PB est une probabilité sur Ω.
Démonstration. On vérie que PB vérie les deux axiomes des probabilités :
P(B)
PB (Ω) = P(Ω∩B)
= P(B)
= 1.
P(B)
0 )∩B) P((A∩B)∪(A0 ∩B))
Si A ∩ A0 = ∅, on a PB (A ∪ A0 ) = P((A∪A
= PB (A) +
P(B)
P(B)
0
PB (A ).
9
: PB possède donc toutes les propriétés des probabilités énoncées
dans ce cours.
Moralité
ATTENTION. On parle de la probabilité de A sachant B mais
pour autant on n'a jamais dit que A|B était un évènement. D'ailleurs
ça n'a aucun sens de parler de A|B , seule la notation P(A|B) a du
sens. Mais elle doit être comprise comme la probabilité, sachant que B
est réalisé, de l'évènement A.
Proposition 4. Soient A et B deux évènements tels que P(B) 6= 0. Alors
P(A ∩ B) = P(B) × P(A|B)
Cette dernière formule traduit une idée toute bête : pour que A et B se réalisent, il faut que B se réalise puis que A se réalise (en sachant que B s'est
réalisé)
Remarque.
probabilité
P(A|B) est le poids associé à une branche dans un arbre de
[Dessin]
Dans une urne contenant 4 boules noires et 2 boules blanches, on
tire deux boules sans remise. Calculer la probabilité de piocher une boule noire
puis une boule blanche.
Exemple.
4.2 Formule des probabilités composées
La formule suivante n'est que la généralisation à n évènements de la formule
donnée dans la proposition 4.
Théorème 4 (Formule des probabilités composées). Soient A1 , . . . , An des
évènements tels que P(A1 ∩ · · · ∩ An−1 ) 6= 0. On a
P(A1 ∩ · · · ∩ An ) = P(A1 ) × P(A2 |A1 ) × P(A3 |A2 ∩ A1 ) × · · · × P(An |A1 ∩ · · · ∩ An−1 )
Démonstration. Par récurrence sur n.
On tire sans remise 4 boules dans une urne contenant six rouges
et 4 noires. Calculer la probabilité de ne tirer que des boules noires.
Exemple.
10
4.3 Formule des probabilités totales : version 2
Théorème 5 (Probabilités totales, version 2). Soit B un évènement et (A1 , . . . , An )
un système complet d'évènements tels que ∀i ∈ {1, 2, . . . , n}, P(Ai ) 6= 0. On a
P(B) =
n
X
P(Ai )P(B|Ai )
i=1
Démonstration. il sut de reprendre la version 1 de cette formule et d'utiliser
la dénition d'une probabilité conditionnelle.
On met deux boules blanches dans une urne. On tire ensuite un dé
et on met autant de boules noires que le score du dé. On pioche ensuite une
boule dans cette urne. Quelle est la probabilité pour que celle-ci soit noire ?
Exemple.
4.4 Formule de Bayes
Théorème 6 (Formule de Bayes). Soient A et B deux évènements tels que
P(A), P(B) 6= 0. On a
P(A|B) =
P(A)
× P(B|A)
P(B)
Démonstration. Laissée au lecteur car très facile !
Remarque.
La formule de Bayes s'écrit aussi
P(B) × P(A|B) = P(A) × P(B|A)
• Quand on écrit P(B) × P(A|B), B est vu comme la cause et A comme
la conséquence ;
• Quand on écrit P(A) × P(B|A), A est vu comme la cause et B comme la
conséquence.
Par conséquent, la formule de Bayes permet de basculer la relation de causalité
entre 2 évènements. La cause devient conséquence et vice-versa.
Un fabricant souhaite commercialiser un alcootest. En laboratoire,
les tests montrent que
? sur les personnes ivres, 95% des tests sont positifs.
? sur les personnes sobres, 4% des tests sont positifs.
Par ailleurs, on sait d'après des données gouvernementales que sur la route en
moyenne 2% des conducteurs sont ivres. Calculer la probabilité qu'un conducteur interpellé soit ivre sachant que le résultat de son test est positif. Interpréter.
Exemple.
11
5
Indépendance
5.1 Indépendance de 2 évènements
Dénition 9. Deux évènements A et B sont dits indépendants (et on note
parfois A ⊥ B ) si
P(A ∩ B) = P(A)P(B)
Proposition 5. On suppose que P(B) 6= 0. Les évènements A et B sont
indépendants si et seulement si
P(A|B) = P(A)
Démonstration. Laissée au lecteur car vraiment facile.
Cette proposition, parfois prise comme la dénition d'indépendance, correspond vraiment à la notion intuitive d'indépendance : l'égalité P(A|B) = P(A)
signie que le fait d'avoir l'information que B s'est réalisé n'a aucune inuence
sur la probabilité que A se réalise.
En pratique, l'indépendance de deux évènements est souvent une hypothèse
de modélisation. On supposera que deux évènements sont indépendants s'ils
ne paraissent avoir aucun lien potentiel, c'est-à-dire si rien ne laisse présumer
de l'existence d'une corrélation entre eux
Lancers de dé successifs, ou plus généralement des expériences
successives étant réalisées dans des conditions où aucune interférence n'est
possible.
Exemple.
Proposition 6. Le passage au contraire préserve la relation d'indépendance.
Plus clairement, si A et B sont indépendants alors
• A et B sont indépendants,
• A et B sont indépendants,
• A et B sont indépendants.
Démonstration.
P(A ∩ B) = P(B \ (A ∩ B))
= P(B) − P(A ∩ B)
= P(B) − P(A)P(B)
= P(B)(1 − P(A))
= P(A ∩ B)
De même pour les deux autres points.
12
Attention. L'indépendance n'est pas conservée par conditionnement. Nous
verrons notamment en TD qu'il n'y a pas d'implication entre
P(A ∩ B) = P(A)P(B)
et
P(A ∩ B|C) = P(A|C)P(B|C).
L'une peut avoir lieu sans que l'autre ait lieu et vice-versa.
5.2 Indépendance (mutuelle) de n évènements
On généralise maintenant la notion d'indépendance à un nombre quelconque,
disons n, d'évènements que nous noterons A1 , . . . , An .
Dénition 10. On dit que A1 , . . . , An sont dits mutuellement indépendants
si
!
∀J ⊂ {1, 2, . . . , n}, P
\
k∈J
Ak
=
Y
P(Ak )
k∈J
Attention, il ne sut pas que des évènements soient deux à deux
indépendants pour qu'ils soient mutuellement indépendants. Par exemple,
pour n = 3, des évènements A1 , A2 , A3 sont deux-à-deux indépendants si :
Remarque.


P(A1 ∩ A2 ) = P(A1 )P(A2 )
P(A1 ∩ A3 ) = P(A1 )P(A3 )


P(A2 ∩ A3 ) = P(A2 )P(A3 )
(2)
mais pour qu'ils soient mutuellement indépendants il faut avoir en plus :
P(A1 ∩ A2 ∩ A3 ) = P(A1 )P(A2 )P(A3 )
(3)
Il se trouve qu'en général il n'y a aucun lien d'implication entre (3) et (2).
Exemple.
On lance deux dés et on considère les évènements
A : 1er score pair, B : 2ème score pair,
C : Les deux scores ont la même parité .
Montrer que A, B et C sont deux-à-deux indépendants mais pas mutuellement
indépendants.
13
Téléchargement