1. Rappels. Soit E une expérience aléatoire. L`ensemble des issues

publicité
Lycée A.Maurois
PROBABILITES
...... avril 2011
T ES3
1. Rappels.
Soit E une expérience aléatoire. L’ensemble des issues possibles lors de cette expérience sera noté E et on se limite
au cas où E est fini ; on notera n le nombre de ses éléments.
E = {x1 ,x2 ,x3 .......xn−1 ,xn }
2. Lien entre loi de probabilité sur E et statistiques.
a. Lien avec les statistiques.
Quand on répète l’expérience E N fois de suite, en notant chaque résultat obtenu, on obtient un échantillon de
taille N et on peut calculer quelle est la fréquence d’apparition de chacun des résultats possibles : on obtient
ainsi la distribution des fréquences des résultats possibles.
Pour deux échantillons de taille N les distributions des fréquences sont différentes et on qualifie ce phénomène
de fluctuation d’échantillonnage.
Néanmoins, lorsque N devient de plus en plus grand, la fluctuation d’échantillonnage tend à devenir très faible,
ce qui signifie que la distribution des fréquences, pour des échantillons de très grandes tailles, tend, en quelque
sorte, vers une distribution “limite“ qu’on peut schématiser sous forme de tableau :
x∈E
P(x)
x1
p1
x2
p2
....
.....
xi
pi
...... xn
...... pn
où les nombres pi , pour i entier dans [1; n], sont des nombres de [0; 1] qui vérifient
n
X
pi = 1 ( pour “calquer”
i=1
les fréquences). Les nombres pi , pour i entier dans [1; n] sont les probabilités des issues xi respectivement.
b. Notion d’événement. Probabilité d’un événement. Loi de probabilité sur l’ensemble des parties de E.
On appelle “événement de E” toute partie de l’ensemble E. On note parfois P(E) l’ensemble des parties de E.
Si on considère P comme ci dessus, il devient possible d’attribuer une probabilité à tout événement de E de la
façon suivante :
X
Soit A une partie de E : la probabilité de A est P(A) =
pi .
i tel que xi ∈A
REGLES
• Soit la partie vide de E on a P(∅) = 0 (événement impossible)
• On a P(E) = 1 (événement certain)
• Pour A et B deux événements de E on a P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
• Pour A événement de E on note A l’événement contraire de A. Cet événement est constitué des éléments de
E qui ne sont pas dans A et on a P(A) = 1 − P(A).
La donnée de (E,P(E),P) est un espace probabilisé. On dit en abrégé que P est une loi de probabilité sur E ou
que E est muni de la loi de probabilité P.
Définition : Toute distribution P définie sur E comme dans 2.a et vérifiant les règles ci-dessus est dite loi de
probabilité sur E.
3. Espérance et variance d’une loi de probabilité sur E.
Lycée A.Maurois
PROBABILITES
...... avril 2011
a. Espérance de la loi P notée µ : µ =
n
X
T ES3
pi xi (moyenne pondérée par les probabilités)
i=1
b. Variance la loi P notée V : V =
n
X
pi (xi − µ)2
i=1
4. Probabilité conditionnelle.
Soit E un ensemble muni d’une loi de probabilité P et A un événement de probabilité non nulle.
Pour tout B un événement de E, on appelle probabilité de B sachant (que ) A (est réalisé) le nombre :
PA (B) =
P(A ∩ B)
P(A)
On a donc P(A ∩ B) = PA (B) × P(A) et ainsi écrite la formule prend le nom de “formule des probabilités
composées”.
5. Formule des probabilités totales et théorème de Bayes.
Soit E un ensemble muni d’une loi de probabilité P.
Si certaines parties de E, deux à deux disjointes (i.e. d’intersection vide) sont telles que leur réunion vaut E, elles
constituent unepartition de E ou encore un système complet d’événements de E.
Soit A1 ,A2 ,.....Ak une partition de E et supposons que pour tout entier j dans [1; k] on ait P(A j ) , 0. On peut monter
facilement que pour tout événement B de E on a la formule des probabilités totales :
P(B) =
k
X
PA j (B) × P(A j ).
j=1
De là on tire aussi la “probabilité des causes” (Théorème de BAYES) :
PB (Ai ) = Pk
PAi (B) × P(Ai )
j=1
PA j (B) × P(A j )
.
Exemples en exercices.
6. Notion d’événements indépendants et principe multiplicatif.
Soit E un ensemble muni d’une loi de probabilité P et A et B deux événements de probabilités non nulle.
On dira que A et B sont indépendants si la réalisation de l’un n’influe pas sur la réalisation de l’autre ce qui se
traduit par l’une des trois propriétés suivantes et équivalentes :
PA (B) = P(B) ⇐⇒ PB (A) = P(A) ⇐⇒ P(A ∩ B) = P(A) × P(B).
Exemple : On lance deux fois de suite un dé cubique équilibré et on considère que le résultat lors d’un lancer
n’a aucune influence sur le résultat suivant. L’ensemble des issues possibles est l’ensemble des suite de 2 résultats
obtenus. Si on note A1; 3 l’événement avoir 3 au premier jet et A2; 5 avoir 5 au deuxième lancer. Alors A1; 3 et
A2; 5 sont indépendants et de probabilité 1/6 on en déduit que P((3 ;5))=1/36
Principe multiplicatif : plus généralement, soit E une expérience aléatoire modélisée par un ensemble E muni
d’une probabilité P. Si on répète n fois de suite l’expérience de sorte que les résultats obtenus à chaque étape
puissent être considérés comme indépendants les uns des autres, la probabilité d’une liste de résultats est le produit
des probabilités de chacun des résultats de la liste.
Exemple : lancer de dé 7 fois de suite : P(PPPFFFF) = (1/2)7
Lycée A.Maurois
...... avril 2011
PROBABILITES
T ES3
7. Epreuve de Bernouilli. Loi binômiale.
On est souvent amené à considérer une expérience aléatoire dont l’un des aspects nous intéresse et qu’on appelle
“succès”.
On modélise alors l’ensemble des issues possibles par un ensemble E à deux éléments E = {S ; S }, S étant le succès
et S l’évènement contraire et on note p la probabilité de S .
Issue
S
S
La loi sur E est dite“ loi de Bernoulli de paramètre p” et est donnée par :
Probabilité
p
q=1− p
Et l’expérience aléatoire correspondante est dite épreuve de Bernoulli.
Admis. La répétition de n épreuves indépendantes de Bernouilli de paramètre p suit la loi binômiale de paramètre
n et p.
La probabilité d’UNE liste de n résultats où figurent exactement k succès (k entiers compris entre 0 et n) vaut
pk (1 − p)n−k .
Téléchargement