Le cours - Playmaths

publicité
Probabilités
I.
Vocabulaire
1) Exemple 1 :
Lançons un dé. A l’arrêt, sa face supérieure porte l’un des nombres 1, 2, 3, 4, 5 ou 6. Si le dé
est non truqué (on dit encore bien équilibré ou parfait), nous sommes incapables de prévoir
quelle face va apparaître. Nous sommes en présence d’une expérience aléatoire.
1, 2, 3, 4, 5 ou 6 sont les résultats ou les cas possibles ou les issues ou les éventualités.
L’ensemble des éventualités est l’univers  .
 = {1, 2, 3, 4, 5, 6}
Un événement est une partie de l’univers.
Par exemple, l’événement « obtenir un nombre entier strictement supérieur à 4 » est
l’événement {5, 6}.
Le nombre d'éléments d'un événement A s'appelle son cardinal. On le note card A.
Card  = 6.
L’événement {4} (« obtenir 4 ») ne contient qu’une seule éventualité : c’est l’événement
élémentaire.
L’événement « obtenir 7 » est l’événement impossible ( C’est l’ensemble vide ; ).
L’événement « obtenir l’un des nombres 1, 2, 3, 4, 5, 6 » est l’événement certain ( C’est
l’univers  tout entier ).
Deux événements A et B sont dits incompatibles (ou disjoints) lorsqu’ils n’ont aucun élément
en commun, c'est-à-dire A  B = 
A : « Obtenir un nombre pair » et B : « Obtenir 3 ou 5 » sont incompatibles.
L’événement contraire de A est le complémentaire de A dans  . ; on le note A .
Si A : « Obtenir un nombre pair », alors A :« Ne pas obtenir un nombre pair », c'est à dire
« Obtenir un nombre impair » et A = {1 ; 3 ; 5 }.
2) Exemples :
L’expérience aléatoire « lancer une pièce de monnaie » a deux issues : P et F ( Pile et Face).
L’univers est  = {P, F}.
Les événements élémentaires sont {P} et {F} ( « On obtient pile », « on obtient face »).
On lance deux pièces de monnaie :  = { PP ;PF ; FP ; FF }
On lance deux dés :  = {( i, j ) où 1 ≤ i ≤ 6 et 1 ≤ j ≤ 6 }
Ex
3) Loi des grands nombres
Lorsqu’on répète un grand nombre de fois une expérience aléatoire, la fréquence d’apparition
d’une éventualité tend vers une valeur « idéale » : on l’appelle probabilité de l’événement
élémentaire associé à l’éventualité considérée.
C’est un nombre compris entre 0 et 1. On le note P({a}), a étant l’éventualité observée.
Exemples :
 On lance une pièce de monnaie. La probabilité d’obtenir « face » est 0,5.
 On lance un dé. La probabilité d’obtenir le nombre 3 est égale à Error!. P({3}) = Error!.
II. Variable aléatoire et loi de probabilité
1) Variable aléatoire discrète
1
http://playmaths.free.fr
Définition :
Une variable aléatoire est une fonction X définie sur l’univers  et à valeurs dans Ë. On la
note X.
Exemple :
Une urne contient 10 boules indiscernables au toucher, l'une d'entre elles porte le numéro
10, deux portent le numéro 5, trois portent le numéro 2 et les autres portent le numéro 1.
On peut définir une variable aléatoire qui, à chaque tirage, associe le numéro obtenu.
Dans toutes les situations étudiées précédemment, la variable aléatoire X prend un nombre
fini de valeurs. On dit alors que X est une variable discrète.
2) Loi de probabilité d’une variable aléatoire
Définition :
Soit  l’univers d’une expérience aléatoire.
Définir une loi de probabilité P sur  = {x1 ; x2 ; ……. ; xn} , c’est associer, à chaque événement
élémentaire xi un nombre pi appartenant à l’intervalle [0 ; 1] tel que la somme des pi fasse 1.
Les nombres pi sont appelés probabilités. On note pi = P({xi})
On représente souvent la loi de probabilité sous forme d’un tableau de valeurs.
xi
x1
x2
…
xn
P(X = xi)
p1
p2
…
pn
Exemple:
Avec l’exemple précèdent, on a :
xi
10
5
2
1
P(X = xi)
1
10
2
10
3
10
4
10
Ex1-2-3… 9 p.302-304
2
http://playmaths.free.fr
III. Paramètres d’une loi de probabilité
1) Définitions :
On suppose que les issues x1, x2, … , xn sont des nombres réels et qu’une loi de probabilité
est définie sur E.
L’espérance mathématique de la loi de probabilité X est le nombre E(X) défini par
E(X) = p1x1 + p2x2 + …… + pnxn.=
n
 pixi
i1
Exemple :
Dans l’exemple précédent,
1
2
3
4
E(X) = 10 
=3
5
 2
1
10
10
10
10
Rque : le calcul de l’espérance est un calcul de moyenne.
L’espérance est la moyenne de la série des valeurs xi pondérées par les probabilités pi.
La variance est le nombre V(X) défini par
V(X) = p1 (x1 – E(X))²+p2 (x2 - E(X))²+…… +pn (xn - E(X))² =
n
 pi (xi  E(X))2 
i1
n
 xi2pi  (E(X))2
i1
L’écart-type est le nombre (X)  V(X)
Exemple:
Dans l’exemple précédent :
xi
10
5
2
1
P(X = xi)
1
10
2
10
3
10
4
10
xi2
100
25
4
1
pi xi2
100
10
50
10
12
10
4
10
Total
166
10
166
- 3²=7,6
10
(X) = 7,6  2,76
V(X) =
Ex 10-11… p.303
2) Propriétés de l’espérance et de la variance:
Propriété :
Soit X la variable aléatoire définie sur l’univers  d’une expérience aléatoire.
Soit a et b deux nombres réels.
On considère la variable aléatoire Y définie par Y = aX + b.
On a alors :
E(Y) = a E(X) + b
V(Y) = a² V(X)
(Y) = a (X)
3
http://playmaths.free.fr
Dem :
Soit X la variable aléatoire qui suit la loi de probabilité suivante :
xi
x1
x2
…
xn
P(X = xi)
p1
p2
…
pn
Alors la loi de probabilité de la variable aléatoire Y = aX+b est
yi
ax1+b
ax2+b
…
axn+b
P(Y = yi)
p1
p2
…
pn
n
E(Y) =  pi yi =
i1
V(Y) =
n
n
n
n
i1
i1
i1
i1
 pi (axi  b) =  a pixi  bpi = a  pixi +b  pi = a E(X) + b
n
n
 pi ( yi  E(Y))2 =  pi (axi  b  (a E(X)  b))2
i1
i1
n
n
i1
i1
=
n
 pi (axi  a E(X))2 =
i1
 pi a²(xi  E(X))2 = a² pi (xi  E(X))2 = a²V(X)
(Y)  V(Y)  ...
Ex 15-16 … p.304
IV. Répétition d’expériences identiques et
indépendantes. Loi binomiale
1) Répétition d’expériences indépendantes
Définition :
Deux expériences aléatoires sont considérées comme identiques et indépendantes si elles
ont les mêmes issues et les mêmes probabilités pour chaque issue et si la réalisation de l’une
ne modifie pas les probabilités des issues de l’autre.
Exemple :
Lancer plusieurs fois de suite un dé et noter les résultats.
Tirer plusieurs fois de suite une boule dans un sac avec remise.
On représente généralement les issues de l’expérience considérée à l’aide d’un arbre
pondéré.
Propriété :
La probabilité d’une issue s’obtient en faisant le produit des probabilités inscrites sur le
chemin représentant cette issue.
Exemple :
4
http://playmaths.free.fr
Ex 21-22-23 p.305
QCM p.307
2) Epreuve de Bernoulli :
Définition :
Lorsque dans une expérience aléatoire, on ne s’intéresse qu’à la réalisation d’un certain
événement S, on dit que cette expérience est une épreuve de Bernoulli.
Si la probabilité du succès est p, on parle d’épreuve de Bernoulli de paramètre p.
Exemples :
 Le jet d'une pièce de monnaie bien équilibrée constitue l'exemple le plus simple
d'épreuve de Bernoulli : la probabilité du succès («pile» par exemple) est 0,5 et celle de
l'échec («face» par conséquent) est également 0,5.
 Mais le jet d'un dé classique peut également constituer un exemple d'épreuve de
Bernoulli, si l'on décide par exemple qu'un succès consiste à obtenir le 6 et que par
1
conséquent un échec consiste à ne pas obtenir le 6. La probabilité du succès est
et
6
5
celle de l'échec est .
6
Remarque :
Si dans une épreuve de Bernoulli la probabilité du succès est p, la probabilité de l'échec est
1 - p.
Ex 1-2-4 p.332
3) Schéma de Bernoulli
Définition :
On appelle schéma de Bernoulli de paramètres n et p la répétition de n épreuves de
Bernoulli identiques et indépendantes de paramètre p.
Exemples :
 Si l'on jette trois fois la même pièce de monnaie, on est en présence d'un schéma de
Bernoulli à 3 épreuves.
 Une urne contient 3 boules noires et 5 blanches. Une expérience consiste à extraire
trois boules de cette urne et à noter leur couleur.
- Si le tirage des trois boules se fait avec remise, on est bien en présence d'un
schéma de Bernoulli à 3 épreuves, la probabilité d'un succès (obtenir une boule
5
3
blanche par exemple) étant
et celle de l'échec (obtenir une boule noire) étant .
8
8
- Si par contre le tirage se fait sans remise, nous ne sommes plus en présence d'un
schéma de Bernoulli puisque les épreuves ne sont plus indépendantes les unes des
autres.
Ex 5 p.332
5
http://playmaths.free.fr
4) Loi binomiale
Définition :
On considère un schéma de Bernoulli constitué par la répétition de n épreuves de Bernoulli
identiques. Pour chacune d’elles, on note p la probabilité d’obtenir un succès S.
La loi de probabilité de la variable aléatoire X comptant le nombre de succès est appelée loi
binomiale de paramètres n et p.
On note cette loi : B(n ; p)
Exemple
On lance trois fois de suite un dé à six faces bien équilibré. On s’intéresse à l’événement
« sortie du 6 »
Soit X la variable aléatoire, qui à chaque issue, associe le nombre de succès au terme des 3
lancers.
L’événement « X = 2 » est l’événement « obtenir deux six »
3
5
P(X = 0) =  
6
52
La probabilité d’obtenir exactement un 6 est :
P(X = 1) = 3 3
6
5
La probabilité d’obtenir exactement deux 6 est : P(X = 2) = 3  3
6
1
La probabilité d’obtenir trois 6 est :
P(X = 3) = 3
6
On peut présenter la loi de probabilité de X sous forme de tableau :
Nombre de
0
1
2
3
succès xi
La probabilité de n’obtenir aucun 6 est :
P(X = xi)
On peut ainsi vérifier que la somme des probabilités de la 2e ligne vaut 1.
5) Coefficients binomiaux
On considère l’arbre associé à un schéma de Bernoulli constitué pas la répétition de n
expériences.
k un entier tel que 0 ≤ k ≤ n
On note nk .(on lit « k parmi n ») le nombre de chemins de l’arbre réalisant k succès

Les nombres
  sont appelés coefficients binomiaux.
n
k
Propriétés :
1) n0  1 ( il n’y a qu’un seul chemin réalisant 0 succès)
2)
3)
4)

nn   1 ( il n’y a qu’un seul chemin réalisant n succès)
   n ( il y a n chemins réalisant 1 succès)
Pour tous naturels n et k tels que 0 ≤ k ≤ n,      .(s’il y a k succés, il y a n-k échecs ;
n
1
n
n k
n
k
compter les chemins qui mènent à k succès revient à compter les chemins qui mènent à nk échecs.)
5) Pour tous naturels n et k tels que 1 ≤ k ≤ n-1, nk   nk  1   nk 11 .
 
6
http://playmaths.free.fr
Dem :
On considère un schéma de Bernoulli à n+1 épreuves.
n 1
k  1 représente le nombre de chemins à k+1 succès parmi n+1 épreuves.
 
Ces chemins se décomposent en deux parties :
 Ceux qui commencent par un succès, il faut donc ensuite k succès parmi n
épreuves donc nk

Ceux qui commencent par un échec, il faut donc ensuite k+1 succès parmi n
épreuves donc nk  1

 
D’où l’égalité.
Triangle de pascal
Le tableau ci-dessous est appelé triangle de Pascal.
n\k
0
1
2
3
0
1
1
1
1
2
1
3
4
5
2
1
 
1
3
3
1
4
1
4
6
4
1
5
1
5
10
10
5
1
6
1
6
15
20
15
6
6
7
4
2
1
    
n
k
n
k 1
 
n 1
k 1
Ex 8-9 .. p.332
6) Loi binomiale
Théorème :
Si X est une variable aléatoire suivant une loi binomiale B(n ; p), alors, pour tout entier k tel
que 0 ≤ k ≤ n, P(X = k) = nk p k (1  p) n k .
On admet que :
Si une variable aléatoire X suit la loi binomiale de paramètres n et p,
son espérance est E(X) = n p et
sa variance est V(X) = n p(1 – p).= npq
ex 15-16 …p.333
7
http://playmaths.free.fr
V.
Echantillonnage Intervalle de fluctuation
1) Exemple
Une urne contient des boules blanches dont la proportion est p.
On suppose p connu, par exemple, p = 0,6.
Les fréquences de boules blanches obtenues, par simulation, à partir de 20 échantillons,
chacun de taille 100 sont :
0,51 – 0,62 – 0,68 – 0,55 – 0,47 – 0,6 – 0,69 – 0,58 – 0,61 – 0,67 – 0,55 – 0,63 – 0,53 – 0,54 –
0,52 – 0,68 – 0,69 – 0,54 – 0,55 – 0,59.
On constate que sur cet exemple les fréquences observées fluctuent.
Ce phénomène est appelé fluctuation d’échantillonnage.
Plus précisément, on peut constater que, pour la plupart des échantillons, la fréquence de
sortie d’une boule blanche se trouve dans l’intervalle [0,5 ; 0,7]. On dispose ainsi d’un ordre
de grandeur du nombre d’échantillons dont la fréquence appartient à l’intervalle [0,5 ; 0,7].
Dans l’exemple, on peut vérifier qu’il y en a 19 sur 20, c’est-à-dire 95%.
Ex.25-26 p.334
2)Intervalle proposé en seconde
1
1 

On a vu en seconde que pour un échantillon de taille n l’intervalle p 
;p 
 est un
n
n

intervalle de fluctuation de la fréquence au seuil de 95%.
Il faut pour cela que n ≥ 25 et 0,2 ≤ p ≤ 0,8.
3)Intervalle de fluctuation
Un échantillon de taille n correspond au tirage de n éléments dans les mêmes conditions de
manière indépendantes lorsque la population est très grande. Nous sommes donc en présence
d’une loi binomiale.
On construit le tableau P(X≤ k).
a b
L’intervalle de fluctuation au seuil de 95% est l’intervalle  ; 
n n 
si a est le plus petit entier tel que P(X ≤ a) > 2,5%
et b est le plus petit entier tel que P(X ≤ b) ≥ 97,5%
Il faut pour cela que n ≥ 30 ; np ≥ 5 et n(1-p) ≥ 5.
Ex. 28-29-30 .. p.335
8
http://playmaths.free.fr
4) Prise de décision
Dans ce paragraphe, la proportion du caractère étudié dans la population est supposée être
égale à p.
La prise de décision consiste, à partir d’un échantillon de taille n, à valider ou non l’hypothèse
faite sur la proportion p.
Il faut :
 Calculer la fréquence observée du caractère dans l’échantillon.
 Vérifier si les conditions sur les paramètres n et p sont vérifiées :
n ≥ 30 ; np ≥ 5 et n(1-p) ≥ 5
Alors on peut déterminer l’intervalle de fluctuation asymptotique au seuil de 0,95, sinon,
on prend les intervalles proposés en seconde ou première.
 On applique le règle de décision :
Règles de décision :
 Si la fréquence observée f appartient à l’intervalle de fluctuation asymptotique au seuil
de 0,95, on accepte l’hypothèse faite sur la proportion p.
 Si la fréquence observée f n’ appartient pas à l’intervalle de fluctuation asymptotique au
seuil de 0,95, on rejette l’hypothèse faite sur la proportion p avec un risque d’erreur de
5%.
Ex.33-34 … p.335-336
9
http://playmaths.free.fr
Téléchargement