Introduction aux Probabilités

publicité
Introduction aux Probabilités
U NIVERSITY F ERHAT A BBAS S ÉTIF
E L -B ACHIR YALLAOUI
© Draft date 24 août 2012
Table des matières
Préface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Analyse Combinatoire
1.1 Introduction . . . . . . . . . . .
1.2 Problèmes de dénombrement
1.3 Permutations . . . . . . . . . .
1.4 Arrangements . . . . . . . . . .
1.5 Combinaisons . . . . . . . . . .
1.6 Le triangle de Pascal . . . . . .
1.7 Partitions Ordonnées . . . . . .
1.8 Diagrammes en Arbre . . . . .
1.9 Exercices . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Axiomes de probabilités
2.1 expérience aléatoire . . . . . . . . . . . . . . . . . .
2.2 Ensemble Fondamental et Evénements . . . . . . .
2.3 Axiomes des probabilités . . . . . . . . . . . . . . .
2.4 Probabilité sur un ensemble fini . . . . . . . . . . .
2.5 Probabilité sur un ensemble infini (dénombrable)
2.6 Probabilités conditionnelles-Indépendance . . . .
2.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . .
3 Variables aléatoires discrètes
3.1 Variables aléatoires discrètes . . . . . . . .
3.2 Variables aléatoires indépendantes . . . .
3.3 Moments d ’une variable aléatoire discrète
Lois discrètes usuelles . . . . . . . . . . . . . . .
3.4 Loi de Bernoulli . . . . . . . . . . . . . . . .
3.5 Loi binomiale . . . . . . . . . . . . . . . . .
3.6 Loi géométrique . . . . . . . . . . . . . . . .
3.7 Loi hypergéométrique . . . . . . . . . . . .
3.8 Loi de Poisson . . . . . . . . . . . . . . . . .
3.9 Exercices . . . . . . . . . . . . . . . . . . . .
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iv
.
.
.
.
.
.
.
.
.
1
1
1
3
4
6
7
8
9
11
.
.
.
.
.
.
.
13
13
14
15
16
19
19
24
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
28
29
30
37
37
37
38
39
41
43
Variables aléatoires continues
4.1 Variables aléatoires continues . . . . . . . . .
4.2 Moments d’une variable aléatoire à densité
Lois continues usuelles . . . . . . . . . . . . . . .
4.3 La loi uniforme . . . . . . . . . . . . . . . . .
4.4 La loi exponentielle . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
46
46
46
49
49
50
ii
TABLE DES MATIÈRES
iii
4.5 La loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Approximation par la loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
56
59
Annexe A. Théorèmes Limites
64
A1 : Loi Faible des Grands Nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
A2 : Loi Faible des Grands Nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
A3 : Théorème Cental Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Annexe B. Résumé des Formules
67
Annexe C. Table de la loi normale centrée réduite
72
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
Preface
La théorie des probabilités a commencé au XVIIe siècle en France, lorsque les deux grands
mathématiciens, Blaise Pascal et Pierre de Fermat, correspondaient à propos de deux proproblèmes de jeux de hasard. Des problèmes comme ceux Pascal et Fermat résolu continué
d’influencer ces premiers chercheurs que Huygens, Bernoulli, et DeMoivre en étaétablissant
une théorie mathématique des probabilités.
Mais, malgré cette longue et passionnante histoire, c’est seulement vers les années 1920 et
1930 que l’on introduisit le calcul des probabilités sous sa forme axiomatique. Le calcul des
probabilités a pris une importance considérable, de nos jours sa connaissance, ainsi la statistique, est devenue fondamentale dans presque toutes les disciplines, qu’il s’agisse de la
physique, de la chimie, de la biologie, de la médecine, de la psychologie, de la sociologie, des
sciences politiques, de l’éducation, de l’économie, des affaires, de la recherche opérationnelle et de tous les domaines de la technique.
Ce polycopié constitue un résumé du cours d’initiation en probabilités et nécessite seulement la connaissance de l’algèbre élémentaire. Il a pour but de donner une introduction
dans ce domain important aux étudiants de mathématiques à l’université Ferhat Abbas à
Sétif. Cet ouvrage est louin d’être un livre complet, Il ne saurait se substituer à un exposé
complet et commenté et encore moins à la pratique d’exercices d’application. Il peut néanmoins servir de référence ou d’aide-mémoire en ce qui concerne les notions et outils de base
de ces disciplines. J’éspère qu’il aideras l’étudiant à avoir une bonne idée du sujet ainsi que
lui gagner du temps precieux d’écrire des notes durant le cours.
Ces notes de cours sont évidemment une version préliminaire et nous serions reconnaissant
à tout lecteur de nous faire part des fautes qu’il y aura détectées.
El-Bachir Yallaoui, Sétif 2012
iv
1
Analyse Combinatoire
SECTION 1.1
Introduction
Compter des objets et faire des additions, voilà bien les deux activités les plus élémentaires
à la base des mathématiques. Et pourtant à y regarder de plus près, ce n’est pas si facile. Déjà
pour un ensemble fini, la méthode qui consiste à regarder ses éléments l’un après l’autre et
à les compter (donc à les numéroter) n’est applicable que pour de « petits » ensembles. Le
plus souvent on s’en sort en faisant une représentation de l’ensemble à dénombrer à l’aide
d’un autre ensemble plus familier.
Dans ce chapitre, on développe quelques techniques permettant de déterminer le nombre
de résultats possibles d’une expérience particulière, ou encore le nombre d’éléments d’un
ensemble particulier. De telles techniques reçoivent souvent le nom d’analyse combinatoire. Beaucoup de problèmes dans la théorie des probabilités exigent que nous comptons
le nombre de façons qu’un événement particulier peut se produire.
Pour cela, nous étudions les sujets de permutations et de combinaisons.
Avant de discuter les permutations, il est utile d’introduire un général de comptage technique qui nous permettra de résoudre une variété de problèmes de comptage, y compris le
problème de comptage du nombre de permutations possibles de n objets.
SECTION 1.2
Problèmes de dénombrement
Considérons une expérience qui se déroule en plusieurs étapes e 1 , e 2 , . . . , e p et est telle que
le nombre de n k résultats à l’étape e k sont indépendanta des résultats des autres étapes.
Nous voulons compter le nombre de façons que toute l’expérience peuvent être effectuées.
Considérons l’exemple suivat.
Exemple 1.1. Vous mangez dans un restaurant et le serveur vous informe que vous avez
(a) 2 choix pour les entrées : la soupe ou de jus,
1
2
1.2. PROBLÈMES DE DÉNOMBREMENT
(b) 3 pour la principale : une viande, du poisson, ou un plat de légumes, et
(c) 2 pour le dessert : la crème glacée ou un gâteau.
Combien de choix possibles que vous avez pour votre repas complet ?
Nous illustrons la repas possibles par un diagramme en arbre illustré à la figure 3.1. Votre
menu est décidé dans trois les étapes-à chaque étape le nombre de choix possibles ne dépend pas de ce qui est choisis dans les étapes précédentes : deux choix à la première étape,
trois à la seconde, et deux à la troisième. De le diagramme en arbre, nous voyons que le
nombre total de choix est le produit du nombre de choix à chaque étape. Dans ces exemples
que nous avons 2 · 3 · 2 = 12 menus possibles. Notre exemple de menu est un exemple de ce
qui suit générale technique de comptage.
Principe Fondamental de l’Analyse Combinatoire
Si une situation comporte p étapes offrant respectivement n 1 , n 2 , n 3 , · · · , n p possibilités alors
le nombre total d’issues est :
n1 × n2 × n3 × · · · × n p
Exemple 1.2. Si un numéro de téléphone est une séquence de 7 chiffres, mais le premier
chiffre doit être différent de 0 ou 1. Combien numéros de téléphone distincts sont-ils ?
Solution. Nous pouvons visualiser le choix d’une séquence comme un processus séquentiel, où nous choisissons un chiffre à la fois. Nous avons un total de 7 stades, et un choix de
l’un des éléments de 10 à chaque étape, sauf pour le premier stade où nous avons seulement
8 choix. Par conséquent, la réponse est
6
8 · 10
{z· · · 10} = 8 · 10
| · 10
6 foix
Notation Factorielle
Le produit des entiers positifs de 1 à n inclus intervient très souvent en mathématiques. On
le note par le symbole spécial n! (lire "factorielle n") :
n! = n (n − 1) (n − 2) · · · 3 · 2 · 1
= n (n − 1)!
= n (n − 1) (n − 2)!
= n (n − 1) (n − 2) (n − 3)!
..
.
= n (n − 1) (n − 2) · · · 3 · 2 · 1
Pour des raisons de commodité, on définit aussi 0! = 1 .
Exemple 1.3. Dans cet example on utilise la définition de factorielle pour l’évaluation des
quantitées :
(a) 1! = 1
(b) 2! = 1 · 2 = 2
(c) 3! = 1 · 2 · 3 = 6
(d) 4! = 4 · 3! = 4 × 6 = 24
(e) 5! = 5 · 4! = 5 × 24 = 120
(f ) 6! = 6 · 5! = 6 × 120 = 720
8! 8 · 7 · 6!
13 · 12 · 11 · 10! 13!
=
(j) =
= 8 · 7 = 56
(i) 13 · 12 · 11 =
10!
10!
6!
6!
La Formule de Stirling donne une approximation de la factorielle.
p
n! ≈ n n e −n 2πn
R∞
On peut aussi définir la factorielle grâce à la fonction Gamma : Γ (x) = 0 u x−1 e u d u
qui a les propiétés suivantes : Γ (n + 1) = n! pour n entier et Γ (x + 1) = xΓ (x) .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
1.3. PERMUTATIONS
3
n
1
2
3
4
5
6
n!
1
2
6
24
120
720
Approximation
0.922
1.919
5.836
23.506
118.019
710.078
TABLE 1.1 – Approximation du factorielle par la formule de Stirling
SECTION 1.3
Permutations
1.3.1 Permutations sans répititions
Modèle : Une urne contient n boules numérotées 1, 2, 3, . . . , n. On tire les n boules sans remise. De combien de façons différfentes peut on le faire ?
Définition 1.4. Soit E un ensemble à n éléments. Une permutation de E est une bijection de
E sur lui-même. Le nombre de permutations de E est :
P n = n (n − 1) (n − 2) · · · 2 × 1 = n!
Exemple 1.5. Quelles sont toutes les permutations possibles des numéros de A = {1, 2, 3}.
Solution. Les permutations sont les suivants :
123, 132, 213, 231, 312, 321.
Il y a donc 3! = 6 permutations possible.
Exemple 1.6. De combien de façons peut on arranger 5 livres différents dans une bibliotheque ?
Solution. Il y a 5! = 5 × 4 × 3 × 2 × 1 = 120 permutations.
Exemple 1.7. Un cours de théorie des probabilités est suivi par 6 hommes et 4 femmes. Un
examen a lieu, puis les étudiants sont classés selon leur note. On suppose exclu que deux
étudiants obtiennent la même note.
• Combien de classements peut-on avoir ?
• Si les hommes sont classés entre eux uniquement et les femmes entre elles, combien de
classements globaux peut-on avoir ?
Solution. • Comme chaque classement correspond à un certain arrangement ordonné de
10 personnes, on voit que la réponse à cette partie du problème est 10! = 3628800.
• Comme il y a 6! classements des hommes entre eux et 4! classements des femmes entre
elles, il résulte par application du principe fondamental qu’il y aura dans ce cas 6!4! = 17280
classements possibles.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4
1.4. ARRANGEMENTS
1.3.2 Permutations avec Répétitions
On désire très souvent connaître le nombre de permutations qu’il y a parmi des objets dont
certains sont semblables.
Supposons que l’on veuille former tous les mots de 6 lettres possibles à partir du mot HAMMAM. Il y a 6! = 720 permutations possibles des objets H , A1 , M1 , M2 , A2 , M3 quand les 3 M
sont distincts. On remarque que les six permutations
HAM1 M2 AM3 , HAM1 M3 AM2 , HAM2 M1 AM3 , HAM2 M3 AM1 , HAM3 M1 AM2 , HAM3 M2 AM1
forment le même mot quand on supprime les indices. Il y a 6 permutations de cette forme,
puisqu’il y a 3! = 3 · 2 · 1 = 6 façons différentes de placer les trois M en tête de la permutation.
Cela est vrai pour chacun des autres emplacements de la lettre M. Pour la letter A il y a 2! = 2
permutations. Par conséquent, il y a
720
6!
=
= 60
2! · 3!
12
mots différents de 5 lettres qui peuvent être formés à partir des lettres du mot HAMMAM.
Theoreme 1.8. Le nombre de permutations de n objets dont n 1 sont semblables, n 2 sont semblables, . . . , n k sont semblables est
n!
.
n 1 !n 2 ! . . . n k !
Exemple 1.9. Combien de mots différents peut-on former à partir des lettres {A, B, B, C, A,
D, B} ?
7!
= 420 mots possibles.
Solution : Il y a
2!3!
Exemple 1.10. Parmi les 10 participants à un tournoi d’échec, on compte 4 russes, 3 américains, 2 anglais et un brésilien. Si dans le classement du tournoi on ne peut lire que la liste
des nationalités des joueurs mais pas leur identité, à combien de classements individuels
différents une telle liste correspond-elle ?
10!
= 12600 classements possibles.
Solution : Il y a
4!3!2!1!
SECTION 1.4
Arrangements
1.4.1 Arrangements sans répétitions
Modèle : Une urne contient n boules numérotées 1, 2, 3, . . . , n. On tire k (k ≤ n) boules sans
remise. De combien de façons différfentes peut on le faire ?
Définition 1.11. Soit E un ensemble à n éléments et soit k ≤ n. Un arrangement de k éléments choisis parmi n est un sous-ensemble ordonné de E ayant k éléments.
Exemple 1.12. On tire k boules numérotées prises parmi n, sans remise.
Exemple 1.13. Considérons l’ensemble des lettres a, b, c et d. Alors :
(i) bdca, dcba et acdb sont des permutations des 4 lettres (considérées ensemble) ;
(ii) bad, adb, cbd et bca sont des arrangements de 3 lettres parmis 4 lettres ;
(iii) ad, cb, da et bd sont des arrangements de 3 lettres parmis 4 lettres.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
1.4. ARRANGEMENTS
5
Notation On note par A kn le nombre d’arrangements de k objets pris parmi n . Avant de calculer la formule générale de A kn , considérons un exemple particulier.
Exemple 1.14. Calculer le nombre d’arrangements de 6 objets, a, b, c, d, e, f pris trois à trois.
En d’autres termes, calculer le nombre de "mots de trois lettres" avec des lettres distinctes
que l’on peut former à partir des six lettres précédentes. Représentons par trois cases n’importe quel mot de trois lettres :
On peut choisir la première lettre de 6 façons différentes, puis la seconde lettre de 5 façons
différentes et la dernière lettre de 4 façons différentes. Ecrivons chacun de ces résultats dans
sa case appropriée : 6 5 4
Ainsi d’après le principe fondamental de l’analyse combinatoire, il y a 6 · 5 · 4 = 120 mots de
trois lettres possibles sans, répétition, à partir des six lettres, ou encore 120 arrangements de
6 objets pris 3 à 3. On en déduit A 36 = 120.
Theoreme 1.15. Le nombre d’arrangements de k objets pris parmi n sans remise est :
A kn = n (n − 1) (n − 2) · · · (n − k + 1) =
n!
.
(n − k)!
Remarque. Dans le cas particulier où n = k nous avons : A nn = n (n − 1) (n − 2) · · · 3·2·1 = n! =
Pn .
Exemple 1.16. Quel est le nombre de podiums possibles dans une course opposant 8 athlètes ?
Solution. A 38 = 8 × 7 × 6 = 336.
Exemple 1.17. Le nombre de mots de 5 lettres, ayant un sens ou non, de l’alphabet arabe (28
lettres) .
Solution. A 528 = 28 × 27 × 26 × 25 × 24 = 11793600.
Exemple 1.18. Une urne contient 10 boules numérotées 0,1,....,10. On en tire successivement
trois sans remise.
Solution. Le nombre de tirages diffiérents est A 311 = 11 × 10 × 9 = 990.
1.4.2 Arrangements avec répétitions
Modèle : Une urne contient n boules numérotées 1, 2, 3, . . . , n. On tire k (k ≤ n) boules avec
remise. De combien de façons différfentes peut on le faire ?
Définition 1.19. Le nombre d’arrangements avec répétitions de p objets pris parmi n est n p
(tirages avec remise).
Exemple 1.20. On lance 3 fois une pièce de monnaie. Combien y a-t-il de suites différentes
de pile ou face ?
Solution. Il y en a :2 × 2 × 2 = 8.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
6
1.5. COMBINAISONS
SECTION 1.5
Combinaisons
Modèle : Une urne contient n boules identiques. On tire k (k ≤ n) boules sans remise. De
combien de façons différfentes peut on le faire ?
Définition 1.21. Une combinaison de k éléments choisis parmi n est un sous-ensemble
quelconque de k éléments. En d’autres termes, une combinaison de k objets est un choix
quelconque de k objets parmi les n donnés, en ne tenant pas compte de l’ordre.
Exemple 1.22. Combien y a-t-il de combinaisons de 3 lettres parmi les 4 a, b, c, d, sont abc,
abd, acd, bcd ?
Solution. Remarquons que les combinaisons suivantes sont identiques : abc, acb, bac, bca,
cab, cba, car chacune désigne le même ensemble a, b, c. Il y a 4 façons pour choisir la première lettre, 3 pour la seconde et 2 pour la troisième. Ces façons sont ordoneés. Donc on di= 4.
vise par 3! si en ne tiens pas compte de l’ordre. Le nombre de combinations est donc 4.3.2
3!
Pour n et k des entiers naturels tel que 0 ≤ k ≤ n,
• On désigne par C nk le nombre
de combinaisons de k objets parmis n.
¡n ¢
k
• C n sont parfois notés k .
• Les coefficients C nk sont aussi appelés coefficients binômiaux.
• Si k est strictement supérieur à n, on convient que dans ce cas C nk = 0.
• Bien que les coefficients C nk soient définis sous la forme d’une fraction, ils sont bien entiers.
Theoreme 1.23. Soit Ω un ensemble fini de cardinal n et k un entier naturel tel que 0 ≤ k ≤ n.
Le nombre de combinaisons de k éléments de Ω est :
C nk =
¡n ¢
k
=
A kn
k!
=
n (n − 1) (n − 2) · · · (n − k + 1)
n!
=
k!
(n − k)!k!
Exemple 1.24. Combien de comités de 3 personnes peut-on former à partir de 8 personnes ?
Solution. Chaque comité est une combinaison de 3 personnes parmi 8. Donc il y a
C 83 =
¡8 ¢
3
=
8.7.6
= 56
1.2.3
comités différents.
Exemple 1.25. La section de probabilité a UFAS consiste de 44 garçons et 53 filles. Combien
de comités de 3 garçons et 5 filles peut-on former ?
Solution. Le nombre est :
¡44¢ ¡53¢
· 4 = 3878174 300 comités différents.
3
Exemple 1.26. A partir d’un groupe de 5 hommes et de 7 femmes, combien de comités différents composés de 2 hommes et de 3 femmes peut-on former ? Qu’en est-il si 2 des femmes
s’entendent mal et refusent de siéger simultanément au comité ?
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
1.6. LE TRIANGLE DE PASCAL
7
¡¢
¡¢
Solution. Comme il y a 52 groupes possibles de 2 hommes et 73 groupes possibles de 3
¡ ¢¡ ¢
femmes, il y a selon le principe fondamental 52 73 = 350 comités de 2 hommes et 3 femmes.
Considérons maintenant
le cas où deux des femmes refusent de siéger ensemble au comité.
¡ ¢¡ ¢
Comme il y aura 20 53 = 10 groupes possibles de trois femmes ne contenant aucune des deux
¡ ¢¡ ¢
ennemies en question et 21 52 = 20 groupes contenant exactement l’une des deux, il y aura
par conséquent 10¡ +¢ 20 = 30 groupes de 3 femmes ne contenant pas les deux ennemies à la
fois. Puisqu’il y a 52 façons de choisir les 2 hommes, il sera possible au total de composer
¡¢
30 × 52 = 300 comités différents.
Theoreme
Propriétées des coefficients de binôme.
¡n ¢ ¡ n1.27.
¢
(1) ¡k ¢ = ¡n−k
.
¡ ¢ ¡ n ¢
n
n¢
(2) 0 = n = 1, and n1 = n−1
= n.
¡n ¢ ¡n−1¢ ¡n−1¢
(3) k = k−1 + k for 1 ≤ k ≤ n − 1.
Démonstration. Utilisons la définition.
¡ ¢
¡ n ¢
n!
n!
=
= nk .
(1) n−k
=
(n − k)![n − (n − k)]! (n − k)!(k)!
(2) Utuliser (1) et la définition.
(3)
¡n−1¢ ¡n−1¢
(n − 1)!
(n − 1)!
+
=
+
k−1
k
(k − 1)! (n − k)! (k)! (n − 1 − k)!
(n − 1)! (n − k) + (n − 1)!k
=
(k − 1)! (n − k)!
¡ ¢
n (n − 1)!
n!
=
=
= nk
(k)! (n − k)! (k)! (n − k)!
¡ ¢
Remarque. Pour a ∈ R et k ∈ Z on defini ka comme suit :


 a (a − 1) · · · (a − k + 1) si k > 0
¡a ¢ 
k!
k = 1
si k = 0


0
si k < 0 ou k > a
SECTION 1.6
Le triangle de Pascal
La relation de Pascal permet de calculer les coefficients binômiaux de la façon suivante : pour
trouver un certain coe cient, on additionne dans le tableau suivant les coefficients situés
“juste au dessus” et “ juste au dessus à gauche” entre eux :
k =0 1 2
3
4
5
6
7 8
n=0 1
1
1
1
2
1
2 1
3
1
3 3
1
4
1
4 6
4
1
5
1
5 10 10 5
1
6
1
6 15 20 15 6
1
7
1
7 21 35 35 21 7
1
8
1
8 28 56 70 56 28 8 1
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
8
1.7. PARTITIONS ORDONNÉES
Le tableau est appelé triangle de Pascal en hommage à ce dernier qui écrivit en 1654 son
“traité du triangle arithmétique” dans lequel il expose d’innombrables applications du triangle déjà connu de Tataglia (1556), Stiefel (1543) et des savants Chinois (1303).
Le triangle de Pascal a les propriétés intéressantes suivantes .
(a) Le premier et le dernier nombre de chaque ligne est 1.
(b) Chacun des autres nombres du tableau peut s’obtenir en ajoutant les deux nombres
situés directement au-dessus de lui. Par exemple : 10 = 4 + 6, 15 = 5 + 10, 20 = 10 + 10
. Notons que la propriété (b) est équivalente au théorème 1.27 relatif aux coefficients
du binôme.
Pour finir, on rappelle un résultat majeur :
Theoreme 1.28. (Formule du binôme de Newton) Pour tous nombres complexes a et b et tout
entier naturel n non nul :
(a + b)n =
n
X
k=0
C nk a k b n−k =
n ¡ ¢
X
n
k=0
k
a k b n−k
n (n − 1) n−2 2
a
b + . . . + nab n−1 + b n
= a n + na n−1 b +
2
Exemple 1.29. On utilisant la formule précédente on a :
1. (a + b)5 = a 5 + 5a 4 b + 10a 3 b 2 + 10a 2 b 3 + 5ab 4 + b 5 .
P
P
2. 2n = (1 + 1)n = nk=0 C nk 1k 1n−k = nk=0 C nk
SECTION 1.7
Partitions Ordonnées
On suppose qu’une urne contient sept billes numérotées de 1 à 7. On calcule le nombre de
possibilités qu’il y a de tirer d’abord 2 billes, puis 3 billes et enfin 2 billes de l’urne. En d’autres
termes, on désire calculer le nombre de partitions ordonnées (A l , A 2 , A 3 ) de l’ensemble de
7 billes, l’ensemble A l contenant 2 billes, l’ensemble A 2 contenant 3 billes et l’ensemble A 3
contenant 2 billes. On dit que ces partitions sont ordonnées car l’on fait une distinction entre
(1, 2, 3, 4, 5, 6, 7) et (6, 7, 3, 4 ; 5, 1, 2) chacune d’elle donnant la même décomposition de A .
Puisque l’on commence avec 7 billes dans l’urne, il y a C 72 possibilités de tirer les 2 premières
billes ou de déterminer le premier ensemble A 1 ; il reste ensuite 5 billes dans l’urne et il y a
donc C 53 possibilités de tirer les 3 billes ou de définir A 2 ; enfin il reste 2 billes dans l’urne et il
y a C 22 = 1 possibilités de définir le dernier ensemble A 3 . Par suite, il y a
C 72 ×C 53 ×C 22 = 210
partitions ordonnées différentes de A en des ensembles A1 de 2 billes, A2 de 3 billes et A3 de
2 billes. On peut maintenant remarquer que
C 72 ×C 53 ×C 22 =
7!
2!3!2!
puisque de nombreuses simplifications sont possibles.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
1.8. DIAGRAMMES EN ARBRE
9
Theoreme 1.30. Si A contient n éléments et si n 1 , n 2 , . . . , n k sont des entiers positifs tels que
n 1 + n 2 + . . . + n k = n, alors il existe
¡
¢
n
=
n 1 ,n 2 ,...,n k
n!
n 1 !n 2 ! . . . n k !
partitions ordonnées différentes de A , de la forme (A 1 , A 2 , ..., A k ) où A 1 , A 2 , . . . A k contiennent
respectivement n 1 , n 2 , . . . , n k éléments.
Exemple 1.31. De combien de manières peut-on partager 9 jouets entre 4 enfants, sachant
que le plus jeune enfant doit recevoir 3 jouets et les autres enfants 2 jouets ?
On désire calculer le nombre de partitions des 9 jouets en 4 ensembles contenant respectivement 3, 2, 2 et 2 jouets.
Solution. D’après le théorème précédent, il y a
9 ¢
3,2,2,2 =
¡
9!
= 7560
3!2!2!2!
partitions ordonnées de cette espèce.
SECTION 1.8
Diagrammes en Arbre
Un diagramme en arbre est un moyen commode de dénombrer tous les résultats possibles
d’une suite d’expériences dont chacune peut avoir lieu un nombre fini de fois. Les exemples
suivants illustrent la construction des diagrammes arborescents.
Exemple 1.32. Calculer l’ensemble produit A × B ×C où A = {1, 2}, B = {a, b, c} et C = {3, 4}.
Solution. On a le diagramme arborescent suivant
Remarquons que l’arbre est construit en allant de la gauche vers la droite, et que le nombre
de branches en chaque point correspond au nombre de résultats possibles de l’expérience
suivante.
Exemple 1.33. Morad et Emad disputent un tournoi de tennis. Le premier à gagner deux
parties de suite ou un total de trois parties, gagne le tournoi.
Solution. Le diagramme suivant donne les résultats possibles du tournoi.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
10
1.8. DIAGRAMMES EN ARBRE
Remarquons qu’il y a 10 résultats possibles du tournoi :
MM, MEMM, MEMEM, MEMEE, MEE, EMM, EMEMM, EMEME, EMEE, EE
Le chemin allant du début de l’arbre au point final indique qui a gagné chaque partie pour
chaque tournoi particulier.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
1.9. EXERCICES
11
SECTION 1.9
Exercices
Exercice 1.1. On dispose des six premières lettres de lettres de l’alphabet.
1. Combien de sigles de 6 lettres distinctes peut-on former ?
2. Combien de sigles de 4 lettres distinctes peut-on former ?
3. Combien de sigles de 4 lettres peut-on former ?
Exercice 1.2. Huit personnes se répartissent dans deux voitures de quatre places. Combien
de possibilités peut-on dénombrer ?
Exercice 1.3. Une entreprise fabrique 4 types de pièces numérotées. On dispose d’un stock
de :
• 8 pièces de type A,
• 7 pièces de type B,
• 6 pièces de type C,
• 5 pièces de type D.
De combien de manières distinctes peut-on constituer :
1. un lot de 4 pièces ayant au moins une pièce A ?
2. un lot de 4 pièces ayant au moins une pièce A et au moins une pièce B ?
Exercice 1.4. De conbien de manières peut on arranger les nombres 1,. . . ,5 comme, 13524,
25134, etc ?
Exercice 1.5. Combien d’arrangements différents y at-il des nombres 1,2,. . . , 7, telle que les
3 premiers chiffres sont 1,2,3 (dans n’importe quel ordre) et les 4 derniers chiffres sont 4,5,6,7
(dans n’importe quel ordre) ?
Exercice 1.6. Une urne a 1000 balles, marqués 000, 001,. . . , 999. Combien de balles y a t’il
qui ont tous les numéros dans l’ordre croissant (par exemple 047 et 489, mais pas 033 ou
321) ?
Exercice 1.7. Dans un groupe de 20 personnes chaque personne a une date de naissance
différente. Combien d’arrangements différents de ces anniversaires y a t’il (en supposant
que dans chaque année il y a 365 jours) ?
Exercice 1.8. On dispose des six premières lettres de lettres de l’alphabet.
1. Combien de sigles de 6 lettres distinctes peut-on former ?
2. Combien de sigles de 4 lettres distinctes peut-on former ?
3. Combien de sigles de 4 lettres peut-on former ?
Exercice 1.9. Huit personnes se répartissent dans deux voitures de quatre places. Combien
de possibilités peut-on dénombrer ?
Exercice 1.10. Lors d’un recrutement pour 4 postes identiques, 6 femmes et 8 hommes se
présentent.
1. Combien de recrutements distincts sont possibles ?
2. Sachant que l’on embauche 2 hommes et 2 femmes, combien de recrutements distincts
sont possibles ?
Exercice 1.11. Combien existe-t-il de plaques minéralogiques à 7 caractères
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
12
1.9. EXERCICES
• si les deux premiers sont des lettres et les 5 autres des chiffres ?
• même question en supposant que les répétitions de lettres ou de chiffres sur la même
plaque sont exclues.
Exercice 1.12. John, Jim, Jay et Jack ont formé un orchestre à 4 instruments. Si chacun des
garçons peut jouer des 4 instruments, combien d’arrangements peut-on concevoir ? Que se
passe-t-il si John et Jim peuvent jouer des 4 instruments mais si Jay et Jack ne savent jouer
qu’au piano ou à la batterie ?
Exercice 1.13. On doit asseoir sur un rang 4 Américains, 3 Français et 3 Anglais. Les gens de
même nationalité doivent rester ensemble. Combien de dispositions peut-on imaginer ?
Exercice 1.14. De combien de manières peut-on asseoir en rang 3 garçons et 3 filles ? si les
garçons doivent rester ensemble et les filles aussi ;
• même question si seuls les garçons doivent rester ensemble ;
• même question si deux personnes du même sexe ne doivent jamais voisiner.
Exercice 1.15. Combien d’arrangements différents peut-on faire avec les lettres des mots
suivants :
• PINTE
• PROPOSE
• MISSISSIPPI
• ARRANGE
Exercice 1.16. Un enfant possède 12 cahiers : 6 noirs, 4 rouges, 1 blanc et 1 bleu. S’il tient à
placer les noirs les uns derrière les autres, de combien de manières peut-il les ranger ?
Exercice 1.17. De combien de manières peut-on asseoir 8 personnes en rang si :
• aucune restriction n’est mise ;• les personnes A et B veulent être ensemble ;
• les hommes ne doivent avoir que des voisines et inversement, en supposant qu’il y a 4
hommes et 4 femmes ;
• les hommes, qui sont 5, doivent rester ensemble ;
• les personnes forment 4 couples de gens mariés et si chaque couple doit rester réuni.
Exercice 1.18. Une femme a 8 amies et décide d’en inviter 5 à prendre le thé.
• De combien de manières peut-elle s’y prendre si deux d’entre elles ne viendront en aucun
cas ensemble ?
• Et si au contraire deux d’entre elles ne viendront que si l’autre est aussi invitée ?
¡
¢5
Exercice 1.19. Développer 3x 2 + y .
Exercice 1.20. Si 12 personnes doivent être réparties en 3 comités comptant respectivement
3, 4 et 5 individus, de combien de manières peut-on s’y prendre ?
Exercice 1.21. Huit nouveaux professeurs vont être envoyés dans 4 écoles.
• Combien y a-t-il d’affectations possibles ?
• Qu’en est-il si l’on impose que chaque école recevra deux professeurs ?
Exercice 1.22. Lors d’une vente aux enchères, une collection de 4 Dali, 5 Van Gogh et 6 Picasso fait face à 5 collectionneurs. Toutes les oeuvres partent. La journaliste en charge de
couvrir l’événement n’a à noter que le nombre des Dali, Van Gogh et Picasso acquis par
chaque collectionneur. Combien de résultats sont-ils possibles dans ces conditions ?
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
2
Axiomes de probabilités
SECTION 2.1
expérience aléatoire
Définition 2.1. On appelle expérience aléatoire une expérience dont on ne peut prévoir le
résultat.
Les résultats éventuels d’une expérience aléatoire font généralement appel au hasard. L’ensemble des résultats éventuels (les résultats possibles, les éventualités) s’appelle ensemble
fondamental (référentiel, ensemble de référence, population mère). A chaque élément de
l’ensemble des éventualités, on peut associer un nombre, la probabilité d’obtenir l’éventualité.
Exemple 2.2. Une pièce de monnaie possède deux figures (éventualités) : pile et face. Si la
pièce n’est pas trafiquée et lancée loyalement, pile a autant de chances d’apparaître que face.
On dit alors que les deux éventualités sont équiprobables. Donc la probabilité d’avoir pile ou
face est 1/2.
Il existe plusieurs manières de définir une probabilité. Principalement, on parle de probabilités inductives ou expérimentales et de probabilités déductives ou théoriques. On peut les
définir comme suit :
Probabilité expérimentale ou inductive : la probabilité est déduite de toute la population
concernée. Par exemple, si sur une population d’un million de naissances, on constate
530000 garçons et 470000 filles, on dit que P [ garçon ] = 0.53.
Probabilité théorique ou déductive : cette probabilité est connue grâce à l’étude du phénomène sans expérimentation. Il s’agit donc d’une connaissance a priori par opposition à la
définition précédente qui faisait plutôt référence à une notion de probabilité a posteriori.
Par exemple, dans le cas classique du dé parfait, on peut dire, sans avoir à jeter un dé, que
P [ obtenir un 4] = 1/6. Comme il n’est pas toujours possible de déterminer des probabilités
a priori, on est souvent amené à réaliser des expériences. Il faut donc pouvoir passer de la
première à la deuxième solution. Ce passage est supposé possible en terme de limite (i.e.
avec une population dont la taille tend vers la taille de la population réelle).
13
14
2.2. ENSEMBLE FONDAMENTAL ET EVÉNEMENTS
L’historique du calcul des probabilités commence avec l’étude des jeux du hasard, comme la
roulette et les cartes. On définit la probabilité p d’un événement A de la façon suivante : si A
peut se réaliser s fois sur un total de n épreuves équiprobables, alors p = P (A) = ns . Ainsi, en
jetant un dé on peut obtenir un nombre pair de 3 façons, à partir de 6 cas "équiprobables" ;
c’est-à-dire p = 36 = 12 . Cette définition classique de la notion de probabilité est tout d’abord
cyclique puisque le sens du mot "équiprobable" est le même que celui de l’expression "avec
des probabilités égales", que l’on n’a pas encore définie. Le traitement moderne de la théorie des probabilités est avant tout axiomatique. Cela signifie que les probabilités des événements considérés peuvent être parfaitement arbitraires, mais doivent satisfaire certains
axiomes que l’on examine ci-dessous. La théorie classique correspond alors au cas spécial
que l’on appelle "espaces équiprobables".
SECTION 2.2
Ensemble Fondamental et Evénements
Définition 2.3. L’ensemble Ω de tous les résultats possibles d’une expérience donnée est
appelé ensemble fondamental (l’espace des observables). Chaque résultat ω est un element
de Ω.
Définition 2.4. Un événement A est un ensemble de résultats, ou en d’autres termes, un
sous-ensemble de l’ensemble fondamental Ω.
L’événement consistant d’un seul point de Ω est appelé événement élémentaire. L’ensemble
vide ∅ et Ω lui-même sont des événements ; on appelle parfois ∅ l’événement impossible,
et Ω l’événement sûr ou certain.
On peut aussi combiner des événements pour former de nouveaux événements, à l’aide des
différentes opérations sur les ensembles :
A ∪ B = {ω ∈ Ω : x ∈ A ou x ∈ B } la réunion de deux événements A et B
A ∩ B = {ω ∈ Ω : ω ∈ A et x ∈ B } l’intersection de deux événements A et B
le complémentaire de l’événement A
A c = {ω ∈ Ω : ω ∉ A } = A
A\B = {ω ∈ A : ω ∉ B } = A ∩ B la différence entre de deux événements A et B
Quand deux événements A et B sont disjoints, c.à.d. quand A ∩ B = ∅, on dit qu’ils sont
incompatibles. En d’autres termes, A et B sont incompatibles quand ils ne peuvent pas se
réaliser simultanément.
Remarque. On denotera par Ω l ’ensemble fondamental et par ω ses éléments.
Exemple 2.5. On jette un dé et l’on observe le résultat obtenu. L’ensemble fondamental
consiste des six nombres possibles : Ω = {1, 2, 3, 4, 5, 6}. Soient A, B,C , les événements correspondant respectivement à l’apparition d’un nombre pair, d’un nombre impair et d’un
nombre premier :
A = {2, 4, 6}, B = {1, 3, 5},C = {2, 3, 5}
Alors :
AUC = {2, 3, 4, 5, 6} est l’événement correspondant à l’apparition d’un nombre pair ou d’un
nombre premier ;
B ∩C = {3, 5} est l’événement correspondant à l’apparition d’un nombre premier impair ;
C c = {1, 4, 6} est l’événement correspondant à l’apparition d’un nombre qui n’est pas premier.
On remarquera que A et B s’excluent mutuellement : A ∩ B = ∅ ; en d’autres termes, il est
impossible qu’un nombre pair et un nombre impair apparaissent simultanément.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
2.3. AXIOMES DES PROBABILITÉS
15
Exemple 2.6. On jette une pièce de monnaie trois fois, et l’on observe la suite de piles (P) et
de faces (F) obtenues. L’ensemble fondamental est formé de huit éléments :
Ω = {F F F, F F P, F P F, F P P, P F F, P F P, P P F, P P P }
Soient A l’événement correspondant à l’apparition consécutive de deux faces ou plus, et B
l’événement correspondant à l’apparition consécutive de trois faces ou trois piles :
A = {F F F, F F P, P F F } et B = {F F F, P P P }
Alors A ∩ B = F F F est l’événement élémentaire pour lequel on a seulement des faces.
Exemple 2.7. On laisse tomber un crayon la pointe la première dans une boîte rectangulaire
et l’on observe le point du fond de la boîte que le crayon touche en premier. Ω est formé de
tous les points du fond de la boîte. On a ici un exemple d’ensemble fondamental qui n’est
pas fini, et même pas infiniment dénombrable, et qui est donc non dénombrable.
Remarque. Si l’ensemble fondamental Ω est fini ou infiniment dénombrable, alors chaque
sous-ensemble de Ω est un événement. Par contre, si Ω n’est pas dénombrable, comme dans
l’exemple 2.7, alors pour des raisons techniques (qui dépassent le cadre de ces notes) certains sous-ensembles de Ω ne peuvent être des événements. Cependant, dans tous les cas
les événements forment une σ-algèbre E de sous-ensembles de Ω.
Définition 2.8. Soit E un ensemble fini, on appelle cardinale E , noté c ar d (E ), le nombre
d’éléments de E .
Propriétés 2.9. Pour deux ensembles finis E et F , on a la formule :
c ar d (A ∪ B ) = c ar d (A) + c ar d (B ) − c ar d (A ∩ B )
SECTION 2.3
Axiomes des probabilités
Le passage d’une description sur des ensembles à une quantification des phénomènes aléatoires se fait grâce à une mesure de probabilité, notée P . On appelle probabilité sur l’espace
fondamental Ω une application à valeurs positives vérifiant les axiomes :
Axiomes des Probabilités.
1. Si A est un événement alors 0 ≤ P (A) ≤ 1.
2. P (Ω) = 1, Ω a la probabilité maximale de réalisation .
3. P (A ∪ B ) = P (A) + P (B ), pour deux événements disjoints A et B , ( A ∩ B = ∅).
Propriétés
³ ´2.10. Pour tous les événements A et B ,
(1) P A = 1 − P (A)
(2)
(3)
(4)
P (∅) = 0
si A ⊂ B, alors P (A) ≤ P (B )
P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B )
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
16
2.4. PROBABILITÉ SUR UN ENSEMBLE FINI
Démonstration. On utilise les propriétés des ensemble.
(1) On sait que Ω = A ∪³ A, où ´les événements
Par définition d’une
³ ´ A et A sont
³ incompatibles.
´
probabilité : P (Ω) = P A ∪ A = P (A) + P A = 1 soit P A = 1 − P (A) .
(2) On utilise la propriété (1) avec A = Ω.
(3) Etant donné que B = A ∪ (B \A) , où les événements A et B \A sont disjoints.
P (B ) = P (A) + P (B \A) ≥ P (A)
(4) On a
P (A) = P (A ∩ B ) + P (A\B )
P (B ) = P (A ∩ B ) + P (B \A)
P (A ∪ B ) = P (A\B ) + P (B \A) + P (A ∩ B )
= P (A) + P (B ) − P (A ∩ B )
SECTION 2.4
Probabilité sur un ensemble fini
On suppose que Ω est l’ensemble fini {ω1 , ω2 , ..., ωn }. On peut construire une probabilité en
se donnant des nombres p i = P (ωi ) ≥ 0 pour tout i = 1, 2, . . . n and
n
X
P (ωi ) =
n
X
pi = 1
i =1
i =1
Cas particulier : lorsque tous les événements élémentaires ont la même probailité on dit qu’il
1
et dans ce cas la probabilité de l’événey a équiprobabilité. Cette probabilité vaut alors
n
k
ment A contenant k événements élémentaires vaut . Plus généralement, on écrit :
n
c ar d (A) nombre de cas favorables
P (A) =
=
c ar d (Ω)
nombre de cas possibles
On retrouve alors la définition d’une probabilité comme on l’a appris au lycée.
Exemple 2.11. Si deux dés sont jetés, quelle est la probabilité que la somme des faces soit 7 ?
Solution. Nous résoudrons ce problème en faisant l’hypothèse que les 36 issues possibles
sont équiprobables. Puisqu’il y a 6 issues, à savoir (1, 6), (2, 5), (3, 4), (4, 3), (5, 2) et (6, 1), qui
6
1
donnent une somme de 7 pour les deux dés, la probabilité est
= .
36 6
Exemple 2.12. Si deux boules sont tirées au hasard d’un bol en contenant 6 blanches et 5
noires, quelle est la probabilité qu’une des boules tirées soit blanche et l’autre noire ?
Solution. La probabilité est
¡6¢¡5¢
1 1
¡11¢
2
=
6
.
11
On peut aussi utiliser la probabilité conditionelle
P (B N ) + P (N B ) = P (B ) P (N |B ) + P (N ) P (B |N )
6 5
5 6
6
=
+
=
11 10 11 10 11
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
2.4. PROBABILITÉ SUR UN ENSEMBLE FINI
17
Exemple 2.13. On lance 2 dés et on appelle A l’événement ou le premier nombre is pair et B
l’événement ou les deux nombres sont différents. Trouver Ω, A, B, P (A) et P (B ) .
Solution. On a
©¡ ¢
ª
Ω = ©¡ i , j ¢ : i , j = 1, 2, . . . , 6
ª
A = ©¡i , j ¢ : i = 2, 4, 6 et j = 1, 2, . . . , 6ª
B = i , j : i , j = 1, 2, . . . , 6 and i 6= j
Exemple 2.14.
c ar d (A) 18 1
=
=
P (A) =
c ar d (Ω) 36 2
c ar d (B ) 6 × 5 5
=
=
P (B ) =
c ar d (Ω)
36
6
Exemple 2.15. Tirons une carte au hasard d’un jeu classique de 52 cartes. Soit
A = {la carte est un pique}
B = { la carte représente une tête, c.à.d. un valet, une reine, un roi}
Calculer P (A) , P (B ) and P (A ∩ B ).
Solution. Comme l’on a un espace équiprobable,
nombre de piques 13 1
=
=
nombre de cartes
52 4
12
3
nombre de têtes
=
=
P (B ) =
nombre de cartes
52 13
nombre de piques représentant des têtes
3
P (A ∩ B ) =
=
nombre de cartes
52
P (A) =
Exemple 2.16. On choisit au hasard 2 articles d’un lot de 12 articles dont 4 sont défectueux.
Soient
A = {les deux articles sont défectueux} et
B = {aucun des deux articles n’est défectueux}
C= {un article au moins est défectueux}
Calculer P (A), P (B ) et P (C ) .
¡ ¢
¡4¢
¡8¢
Solution. car d (Ω) = 12
=
66,
c
ar
d
=
=
6,
et
c
ar
d
=
(A)
(B
)
2
2
2 = 28 alors,
6
1
c ar d (A)
=
=
c ar d (Ω) 66 11
car d (B ) 28 14
P (B ) =
=
=
car
³ d´ (Ω) 66 3319
P (C ) = P B = 1 − P (B ) =
33
Exemple 2.17. P (A) =
Exemple 2.18. Une équipe de football est composée de 20 joueurs noirs et 20 joueurs blancs.
Les joueurs doivent être regroupés par paires pour qu’on puisse composer des chambrées
de deux. Si le regroupement est fait au hasard, quelle est la probabilité qu’il n’y ait pas de
paires mixtes de camarades de chambre ? Quelle est la probabilité qu’il y ait 2i paires mixtes,
i = 1, 2, ..., 10 ?
Solution. Il y a
¡
40 ¢
=
2,2,··· ,2
40!
(2!)10
=
40!
210
40!
ma210
nières de répartir les joueurs en une paire numéro 1, une paire numéro 2 et ainsi de suite. De
manières de répartir les 40 joueurs en 20 paires ordonnées. Cela veut dire qu’il y a
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
18
ce fait, il y a
2.4. PROBABILITÉ SUR UN ENSEMBLE FINI
40!
210 20!
manières de répartir les joueurs en paires non ordonnées. De plus, puis-
qu’une répartition ne livrera pas de paire mixte si les noirs (resp. les blancs) sont appariés
µ
¶2
20!
répartitions de ce genre. De ce fait, la probabilité
entre eux, il s’ensuit qu’il y a 10
2 × 10!
p 0 de n’avoir aucune paire mixte de camarades de chambre est donnée par
µ
¶2
20!
(20!)3
210 × 10!
p0 =
=
= 1.3403 × 10−6
40!
40! (10!)2
210 20!
Pour déterminer p 2i , la probabilité qu’il y ait 2i paires mixtes, remarquons d’abord qu’il y
¡ ¢2
a 20
manières de choisir les 2i blancs et les 2i noirs qui composeront les paires mixtes.
2i
Les 4i joueurs peuvent être appariés en (2i )! paires mixtes. Ceci du fait que le premier noir
peut être apparié avec n’importe lequel des (2i ) blancs, le second noir avec n’importe lequel
des (2i − 1) blancs restants, et ainsi de suite. Comme les (20 − 2i ) blancs (resp. noirs) restants
doivent être appariés entre eux, il s’ensuit qu’il y a
¸
·
¡20¢2
(20 − 2i )!
2i (2i )!
210−i (10 − i )!
répartitions qui mènent à 2i paires mixtes.
·
¸
¡20¢2
(20 − 2i )!
2i (2i )!
210−i (10 − i )!
p 2i =
pour i = 1, 2, · · · , 10
40!
210 20!
Les p 2i peuvent maintenant être calculées en utilisant soit un calculateur de poche soit une
table des factorielles (ou encore à force de calculs). On trouve
p 0 = 1.3403 × 10−6
p 10 = 0.345861
p 20 = 7.6068 × 10−6
Exemple 2.19. Une main de poker de 5 cartes est appelée main pleine si elle comprend 3
cartes de la même valeur et 2 autres, mais de même valeur entre elles également. Une main
pleine comprend donc trois cartes d’une sorte plus une paire. Quelle est la probabilité de se
voir distribuer une main pleine ?
¡ ¢
Solution. Nous admettons que chacune des 52
5 mains possibles est de même probabilité.
¡ ¢¡ ¢
Pour déterminer le nombre de mains pleines possibles, nous noterons d’abord qu’il y a 42 43
combinaisons différentes de, disons, deux 10et trois valets. Comme il y a 13 choix différents
pour le choix de la paire et après ce choix 12 autres possibilités pour la valeur des 3 cartes
restantes, il résulte que la probabilité d’une main pleine est
¡ ¢¡ ¢
13 × 12 × 42 43
≈ 0.0014.
¡52¢
5
Exemple 2.20. Problème classique de la Date de Naissance
En admettant que les naissances sont réparties uniformément dans l’année, déterminer la
probabilité que parmi n individus aucun d’entre eux aient le même jour d’anniversaire. On
négligera le problème des années bissextiles.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
2.5. PROBABILITÉ SUR UN ENSEMBLE INFINI (DÉNOMBRABLE)
19
Solution. Comme il y a n individus et 365 jours différents, il y a 365n résultats possibles
donnant les dates de naissance des n individus. Mais si les n personnes doivent avoir des
dates de naissance distinctes, la première d’entre elles peut être née un jour quelconque des
365 jours de l’année, la seconde peut être née l’un des 364 jours restant, la troisième peut
être née l’un des 363 autres jours, etc. De sorte qu’il y a 365 · 364 · 363 · ... · (365 − n + 1) cas
différents pour que les n individus aient des dates de naissance distinctes. Par conséquent,
365 · 364 · 363 · ... · (365 − n + 1) 365 364 363 (365 − n + 1)
=
×
×
···
365n
365 365 365
365
si n > 23 on a p < 0.5 donc, pour 23 personnes ou plus, il est beaucoup plus probable que
deux d’entre elles au moins aient la même date de naissance, que de constater que toutes
ont des dates de naissance distinctes.
p=
SECTION 2.5
Probabilité sur un ensemble infini (dénombrable)
On suppose maintenant que S est un ensemble fondamental infiniment dénombrable ; c’està-dire Ω = {ω1 , ω2 , ω3 , · · · } . Comme dans le cas fini, on obtient un espace probabilisé en attribuant p i = P (ωi ) ≥ 0 pour tout i = 1, 2, . . . and
∞
X
P (ωi ) =
i =1
∞
X
pi = 1
i =1
Pour un évenment A on défini
P (A) =
X
ωi ∈A
P (ωi )
Exemple 2.21. Considérons l’ensemble fondamental Ω = {1, 2, 3, · · · } de l’expérience consistant à jeter une pièce de monnaie jusqu’à ce que face apparaisse ; n désigne ici le nombre de
fois où l’on jette la pièce. Pour engendrer un espace probabilisé, il suffit de poser
p 1 = 1/2, p 2 = 1/4, . . . , p n = 1/2n , . . .
Noter que
∞
X
i =1
P (ωi ) =
∞
X
pi =
i =1
∞ 1
X
i =1
2i
=
1/2
= 1.
1 − 1/2
SECTION 2.6
Probabilités conditionnelles-Indépendance
2.6.1 probabilités conditionnelles
Définition 2.22. Soit P une probabilité définie sur un espace fondamental Ω et B un événement tel que P (B ) > 0. Pour un événement quelconque A, on appelle probabilité conditionnelle deA sachant que B est réalisé, le nombre
P (A|B ) =
P (A ∩ B )
P (B )
Il est courant de connaître directement P (A|B ), ce qui permet de calculer la probabilité
conjointe par la formule des probabilités composées :
P (A ∩ B ) = P (A|B ) × P (B ) = P (B |A) × P (A)
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
20
2.6. PROBABILITÉS CONDITIONNELLES-INDÉPENDANCE
Exemple 2.23. Dans le cas du lancer de dé, considérant les événements A = {6} et B = {2, 4, 6}.
La probabilité de A sachant B vaut :
P (A|B ) =
P (A ∩ B ) P (A) 1/6 1
=
=
=
P (B )
P (B ) 3/6 3
En effet, il s’agit bien de la probabilité d’obtenir un 6 sachant qu’on a un nombre pair.
Exemple 2.24. Une urne contient 10 billes blanches, 5 jaunes et 10 noires. Une bille est tirée
au hasard de l’urne et l’on constate qu’elle n’est pas noire. Quelle est la probabilité qu’elle
soit jaune ?
Solution. Soit A l’événement "la bille tirée est jaune" et soit B ’l’événement "elle n’est pas
noire ".
P (A ∩ B )
5
1
5/25
P (A|B ) =
=
=
=
P (B )
15/25 15 3
II faut noter qu’on aurait aussi pu déduire cette probabilité en travaillant directement avec
l’ensemble fondamental réduit. Comme nous savons en effet que la bille choisie n’est pas
noire, le problème se réduit à calculer la probabilité qu’une bille soit jaune lorsqu’elle est
choisie au hasard dans une urne en contenant 10 blanches et 5 jaunes. Cette probabilité est
1
5
= .
évidemment
15 3
Exemple 2.25. Une urne contient 8 boules rouges et 4 blanches. On tire sans remise deux
boules de l’urne et admet qu’à chaque étape tous les tirages possibles sont équiprobables.
Quelle est la probabilité que les deux boules tirées soient rouges ?
Solution. Appelons R 1 , et R 2 respectivement les événements «la première boule tirée est
rouge» et «la seconde est rouge». Si la première boule sélectionnée est rouge, il reste dès lors
7 boules rouges et 4 boules blanches. Donc
µ ¶µ ¶
8
7
14
P (R 1 ∩ R 2 ) = P (R 1 ) P (R 2 |R 1 ) =
= .
12 11
33
Exemple 2.26. On peut aussi trouver le resultat comme suit
¡8 ¢
2
P (R 1 ∩ R 2 ) = ¡12
¢=
2
14
.
33
Remarque. Si on sait les événements équiprobables, il est souvent plus facile de calculer une
probabilité conditionnelle en considérant l’ensemble fondamental réduit .
Theoreme 2.27. (Formule de Bayes)
Soient A et B deux événements tels que P (B ) > 0, alors
P (A|B ) =
P (B |A) × P (A)
P (B )
Cette formule permet de lier les probabilités conditionnelles P (A|B ) et P (B |A).
Démonstration. Par définition on a
P (A|B ) =
Introduction aux Probabilités
P (A ∩ B )
.
P (B )
El-Bachir Yallaoui–UFAS
2.6. PROBABILITÉS CONDITIONNELLES-INDÉPENDANCE
21
Remplacer dans la formule précedente P (A ∩ B ) par la formule :
P (A ∩ B ) = P (B |A) × P (A)
On a donc on a
P (A|B ) =
P (B |A) × P (A)
.
P (B )
Theoreme 2.28. (Formule des Produits) Supposons que A i pour i = 1, 2, . . . , n sont des évenemts alors
P (A 1 A 2 . . . A n ) = P (A 1 ) P (A 2 |A 1 ) P (A 3 |A 1 A 2 ) . . . P (A n |A 1 A 2 . . . A n−1 )
Démonstration. On remarque
T = P (A 1 ) × P (A 2 |A 1 ) × P (A 3 |A 1 A 2 ) × . . . × P (A n |A 1 A 2 . . . A n−1 )
P (A 2 A 1 ) P (A 3 A 1 A 2 )
P (A 1 A 2 . . . A n−1 A n )
= P (A 1 ) ×
×
×...×
P (A 1 )
P (A 2 A 1 )
P (A 1 A 2 . . . A n−1 )
= P (A 1 A 2 . . . A n−1 A n )
Exemple 2.29. Trois cartes sont tirées à partir d’un jeu de 52 cartes, sans remplacement
(cartes tirées ne sont pas replacés dans le pont). Nous tenons à trouver la probabilité qu’aucun des trois cartes est un cœur.
Solution. Nous utilisons une description séquentielle de ©l’espace échantillon en collaboraª
tion avec le règle de multiplication. Nous définissons A i = la i-eme carte nést pas un cœur ,
i = 1, 2, 3. Donc A = A 1 ∩ A 2 ∩ A 3 est l ’évenement aucune des cartes est un cœur.
P (A) = P (A 1 ∩ A 2 ∩ A 3 )
= P (A 1 ) P (A 2 |A 1 ) P (A 3 |A 1 A 2 )
703
39 38 37
×
×
=
≈ 0.41353
=
52 51 50 1700
Une solution alternative est de compter le nombre de tous les triplets de cartes qui ne comprennent pas un cœur, et le partager avec le nombre de tous les triplets de cartes possibles.
¡39¢
9139
703
3
=
≈ 0.41353
¡52¢ =
22 100 1700
3
Exemple 2.30. Trois cartes sont tirées à partir d’un jeu de 52 cartes, sans remplacement.
Quelle est la probabilité que seullemet la 3eme carte est un cœur.
Solution. On pose A 1 = { la 1ere carte nést pas un cœur }, A 2 = { la 2eme carte nést pas un
cœur } et A 3 = { la 3eme carte est un cœur }.
P (A) = P (A 1 ∩ A 2 ∩ A 3 )
= P (A 1 ) P (A 2 |A 1 ) P (A 3 |A 1 A 2 )
39 38 13
247
=
×
×
=
52 51 50 1700
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
22
2.6. PROBABILITÉS CONDITIONNELLES-INDÉPENDANCE
2.6.2 Partitions - probabilités totales
Définition 2.31. Les événements B 1 , B 2 , B 3 , . . . , B n , forment une partition de Ω signifie qu’ils
sont deux à deux incompatibles et que leur réunion est Ω.
Theoreme 2.32. (Formule des probabilités totales) Si les événements B 1 , B 2 , B 3 , . . . , B n ,
forment une partition de Ω , alors pour tout évenement A :
P (A) =
n
X
i =1
P (A ∩ B i ) =
n
X
P (A|B i ) × P (B i )
i =1
Démonstration. Les événements A ∩B 1 , A ∩B 2 , . . . , A ∩B n ,sont deux à deux incompatibles et
leur réunion est A, d’où le résultat.
Theoreme 2.33. (Formule de Bayes pour Partitions) Si les événements B 1 , B 2 , B 3 , . . . , B n ,
forment une partition de Ω , alors pour tout évenement A :
P (A|B i ) × P (Bi )
P (B i |A) = Pn
i =1 P (A|B i ) × P (B i )
Démonstration. P (B i |A) =
P (A|B i ) × P (B i )
P
et P (A) = ni=1 P (A|B i ) × P (B i ) .
P (A)
Exemple 2.34. Une compagnie d’assurance estime que les gens peuvent être répartis en
deux classes : ceux qui sont enclins aux accidents et ceux qui ne le sont pas. Ses statistiques
montrent qu’un individu enclin aux accidents a une probabilité de 0.4 d’en avoir un dans
l’espace d’un an ; cette probabilité tombe à 0.2 pour les gens à risque modéré. On suppose
que 30% de la population appartient à la classe à haut risque. Quelle est alors la probabilité
qu’un nouvel assuré soit victime d’un accident durant l’année qui suit la signature de son
contrat ?
Solution. Nous obtiendrons la probabilité de l’événement cité en le conditionnant selon que
le signataire de la police est ou n’est pas enclin aux accidents. On note par A l’événement «le
signataire aura un accident dans l’année qui suit l’établissement du contrat» et par B «le
signataire est enclin aux accidents». La probabilité P (A) voulue est alors donnée par
¢
¡
P (A) = P (A ∩ B ) + P A ∩ B c
¡
¢ ¡ ¢
= P (A/B ) P (B ) + P A/B c P B c
= (0.4) (0.3) + (0.2) (0.7) = 0.26
Exemple 2.35. Un nouveau signataire a un accident dans l’année qui suit la signature de son
contrat. Quelle est la probabilité qu’il fasse partie de la classe à haut risque ?
Solution.
P (B /A) =
P (B ∩ A) P (B ) P (B /A) (0.3) (0.4)
6
=
=
=
P (A)
P (A)
13
(0.26)
Exemple 2.36. La détection radar.
Si un avion est présent dans un certain domaine, un radar enregistre correctement sa présence avec une probabilité de 0.99. Si l’avion n’est pas présente, le radar enregistre à tort une
présence avions avec une probabilité de 0.10. Nous supposons que l’avion est présent avec
de probabilité de 0.05. Quelle est la probabilité de fausse alarme (une fausse indication de la
présence de l’avion), et la probabilité de détection manquée (rien de registres, même si un
avion est présent) ?
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
2.6. PROBABILITÉS CONDITIONNELLES-INDÉPENDANCE
23
Solution. Une représentation séquentielle de l’espace d’échantillon est approprié ici, tels
quels à la Fig. 1,8. Soit A et B les événements
A = un avion est présent,
B = le radar enregistre une présence avions,
et examiner également leurs compléments
A c = Un avion n’est pas présente,
B c = Le radar ne pas enregistrer une présence avions.
Les probabilités données sont enregistrées le long des branches correspondantes de l’arbre
décrivant l’espace d’échantillon.
¡
¢
¡ ¢ ¡
¢
P ( fausse alarme ) = P A c ∩ B = P A c P B |A c = 0.95 × 0.10 = 0.095
¡
¢
¡
¢
P ( fausse détection ) = P A ∩ B c = P (A) P B c |A = 0.05 × 0.01 = 0.0005
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
24
2.7. EXERCICES
SECTION 2.7
Exercices
Exercice 2.1. Dans un restaurant universitaire, on propose deux desserts à chaque repas. La
probabilité que l’un d’eux soit un yaourt est 0,4 , une orange 0,8. La probabilité que les deux
desserts soient un yaourt et une orange est0 ;3. Calculer la probabilité que l’on propose :
1. un yaourt et pas d’orange ?
2. une orange et pas de yaourt ?
3. ni yaourt, ni orange ?
Exercice 2.2. Que vaut P (A ∩ B ), lorsque A et B sont :
1. incompatibles,
2. indépendants.
Exercice 2.3. On jette deux dés. Soit A l’événement "la somme des chiffres indiqués est impaire" et soit B l’événement "l’un des dés indique le chiffre 1". Les événements A et B sont-ils
indépendants ?
Exercice 2.4. Dans un élevage de bovins, trois bêtes A, B, C doivent vêler au cours d’une semaine donnée. On admet que la probabilité pour que le vêlage de chacune de ces bêtes ait
lieu un certains jour, est le même quel que soit le jour de cette semaine, et qu’il y a indépendance entre les vêlages des trois bêtes.
1. Quelle est la probabilité pour que les trois vêlages aient lieu le même jour de la semaine ?
2. Quelle est la probabilité pour que deux (seulement), des vêlages aient lieu le même jour ?
3. Quelle est la probabilité d’avoir au moins un vêlage le dimanche ?
Exercice 2.5. On considère un espace fondamental Ω = {a, b, c, d }. On définit les événements
E = {a, d , } ; F = {a, b, c} et G = {b, d } : Peut-on trouver une (ou plusieurs) mesure(s) de probabilité sur Ω vérifiant l’une des trois séries de conditions :
1. P (E ) = 0.5
P (F ) = 0.9 P (G) = 0.4 ?
2. P (E ) = 0.6
P (F ) = 0.8 P (G) = 0.7 ?
3. P (E ) = P (F ) = P (G) ?
Déterminer le cas échéant ces mesures de probabilité.
Exercice 2.6. On considère une population composée de 48% d’hommes et de 52% de
femmes. La probabilité qu’un homme soit daltonien est 0,05, la probabilité qu’une femme
soit daltonienne est 0,0025. Quelle proportion de la population est-elle daltonienne ?
Exercice 2.7. Dans une entreprise, une machine A fabrique 40% des pièces et une machine
B en fabrique 60%. La proportion de pièces défectueuses fabriquées par A est de 3% et par B
de 2%. On choisit une pièce au hasard.
1. Calculer la probabilité qu’elle soit défectueuse.
2. Sachant qu’elle est défectueuse, calculer la probabilité qu’elle soit fabriquée par A.
Exercice 2.8. Un serveur de banque de données a calculé qu’un individu se trompe 1 fois sur
20 en saisissant son code de carte bancaire. Sachant que la machine accepte trois essais de
code, quelle est la probabilité de bloquer sa carte bancaire ?
Exercice 2.9. On estime qu’une personne a 6 chances sur 10 d’être atteinte d’un certaine
maladie. On effectue deux tests de dépistage. Le premier test est positif à 70% sur les malades
et à 20% sur les individus sains. Le second test est positif à 90% sur les malades et 30% sur les
individus sains. On suppose que les deux tests sont indépendants. Quelle est la probabilité
que le second test soit positif si le premier l’a été ?
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
2.7. EXERCICES
25
Exercice 2.10. Dans un lycée du Quartier Latin, 25% des élèves échouent en mathématiques,
15% échouent en chimie, et 10% échouent à la fois en mathématiques et en chimie. On choisit un élève au hasard.
1. Si l’élève a échoué en chimie, quelle est la probabilité pour qu’il ait aussi échoué en
mathématiques ?
2. Si l’élève a échoué en mathématiques, quelle est la probabilité pour qu’il ait aussi
échoué en chimie ?
3. Quelle est la probabilité pour qu’il ait échoué en mathématiques ou en chimie ?
Exercice 2.11. On considère deux événements A et B tels que P (A) = 1/2, P (B ) = 1/3 et P (A ∩
B ) = 1/4. Calculer (i) P (A|B ), (ii) P (B |A), (iii) P (A ∪ B ), (iv) P (A c |B c ), (v) P (B c |A c ).
Exercice 2.12. Evènements A et B sont des tels que P (A) = 0.6, P (B ) = 0.3 et P (A ∩ B ) = 0.1.
(1) Quelle est la probabilité que A ou B arrivent ?
(2) Quelle est la probabilité qu’exactement un des deux évènements arrive ?
(3) Quelle est la probabilité qu’au plus un des deux évènements arrive ?
(4) Quelle est la probabilité que ni A ni B n’arrivent ?
Exercice 2.13. Sur Ω = {0, 1, 2, ....., 10} déterminer la probabilité P telle que P (i ) soit proportionnel à i pour tout i dans Ω. Calculer la probabilité pour qu’un événement soit pair puis la
probabilité pour qu’il soit impair.
Exercice 2.14. Trois personnes vont au cinéma. Il passe trois films différents. Chaque personne choisit son film au hasard et indépendamment des autres. Quelle est la probabilité
que les trois personnes aient vu les trois films différents ?
Exercice 2.15. On tire 5 cartes d’un jeu de 52 cartes. (1) Quelle est la probabilité d’obtenir un
brelan (trois cartes d’une sorte et deux différentes) ?
(2) Quelle est la probabilité d’obtenir un full (trois mêmes cartes et une paire) ?
Exercice 2.16. On jette trois dés non pipés. Calculer :
(1) la probabilité d’obtenir au moins un as ;
(2) la probabilité d’obtenir au moins deux faces portant le même chiffre ;
(3) la probabilité que la somme des points marqués sur les trois faces soit paire.
Exercice 2.17. Dans une bibliothèque, 20 livres sont exposés sur une étagère rectiligne et
répartis au hasard. Parmi ces 20 livres, 5 sont d’un même auteur A, les autres étant d’auteurs
tous différents. Calculer la probabilité qu’au moins 2 livres de A se retrouvent côte à côte.
Exercice 2.18. Trouver une expression simple pour les événements suivants :
(a) (E ∪ F ) ∩ (E ∪ F c )
(b) (E ∪ F ) ∩ (E c ∪ F ) ∩ (E ∪ F c )
(c) (E ∪ F ) ∩ (F ∪G).
Exercice 2.19. Si P (E ) = 0, 9et P (F ) = 0, 8, montrer que P (E F ) ≥ 7.
De manière plus générale, démontrer l’inégalité de Bohferroni, à savoir P (E F ) > P (E ) +
P (F ) − 1.
Exercice 2.20. Montrer que la probabilité qu’un seul exactement des événements E et F se
réalise est
P (E ) + P (F ) − 2P (E F )
Exercice 2.21. Montrer que
(1) P (E F C ) = P (E ) − P (E F )
Introduction aux Probabilités
(2) P (E C F C ) = 1 − P (E ) − P (F ) + P (E F ).
El-Bachir Yallaoui–UFAS
26
2.7. EXERCICES
Exercice 2.22. Une boîte contient 3 jetons, un rouge, un vert et un bleu. On considère l’expérience consistant à tirer au hasard un jeton dans la boîte, à l’y remettre puis à en tirer
un second. Décrire l’ensemble fondamental. Même question si le second jeton est tiré sans
qu’on ait remis le premier.
Exercice 2.23. Un dé est jeté jusqu’à ce qu’un 6 sorte, ce qui marque la fin de l’expérience.
Quel est l’ensemble fondamental pour cette expérience ? Notons par E n l’événement « n
jets sont nécessaires pour obtenir
le
µ
¶c premier 6». Quels points de l’espace fondamental sont
∞
S
contenus dans E n ? Décrire
En .
n=1
Exercice 2.24. On jette deux dés. On note par E l’événement «la somme des dés est impaire»,
par F l’événement «au moins l’un des dés montre 1 », et par G «la somme des dés est 5».
Décrire E F, E ∪ F, F G, E F C et E F G.
Exercice 2.25. Une ville de 100 000 habitants compte trois journaux locaux : I, II et III. Les
proportions de lecteurs pour ces journaux sont :
I
: 10% I et II
:8% I et II et III :1%
II
: 30% I et III
:2%
III : 5%
II et III :4%
Ces proportions nous indiquent par exemple que 8 000 personnes lisent à la fois les journaux
I et II.
• Combien de personnes ne lisent qu’un journal ?
• Combien de personnes lisent au moins deux journaux ?
• II est un quotidien du soir, tandis que I et III sortent le matin. Combien de personnes
lisent-elles au moins un journal du matin plus celui du soir ?
• Combien de personnes lisent-elles un journal du matin seulement et le journal du soir ?
¡ ¢
Exercice 2.26. On admet que les 52
5 mains possibles au poker sont équiprobables. Quelle
est la probabilité de recevoir :
• une couleur ? (une main est appelée couleur lorsque les 5 cartes sont des piquesk seulement, ou des trèfles, ou des cœurs, ou des carreaux).
• une paire ? (c’est le cas lorsqu’on reçoit a, a, b, c, d où a, b,c et d sont de différentes valeurs).
• deux paires (correspondant à a, a, b, b, c).
• un brelan (a, a, a, b, c)
• un carré (a, a, a, a, b).
Exercice 2.27. Une urne A contient trois boules noires et trois rouges, alors que l’urne B
en contient six et quatre respectivement. On tire une boule dans chaque urne. Quelle est la
probabilité que les boules soient de la même couleur ?
Exercice 2.28. Un cabinet contient 10 paires de chaussures et on en tire 8 chaussures au
hasard. Quelle est la probabilité :
• qu’il n’y ait aucune paire ?
• qu’il y ait une paire exactement ?
Exercice 2.29. Une équipe de basket-ball compte 6 joueurs noirs et 4 blancs. Si les joueurs
sont répartis en chambrées de deux personnes, quelle est la probabilité qu’on trouve deux
chambrées mixtes ?
Exercice 2.30. Supposons que E et F sont deux événements avec des probabilités positives.
Montrer que si P (E |F ) = P (E ), alors P (F |E ) = P (F ).
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
2.7. EXERCICES
27
Exercice 2.31. Montrer que si A et B sont indépendants soit aussi :
(a) A et B c
(b) A c et B c
Exercice 2.32. Un dé est enroulée deux fois. Quelle est la probabilité que la somme des faces
est supérieur à 7, étant donné que
(a) le premier résultat était un 4 ?
(b) le premier résultat était supérieur à 3 ?
(c) le premier résultat était de 1 ?
(d) le premier résultat était inférieur à 5 ?
Exercice 2.33. Une pièce est lancée trois fois. Considérons les événements suivants
A : Pille sur le premier lancer.
B : Face sur la seconde.
C : Pille sur le troisième.
D : Tous les trois résultats de la même (PPP ou FFF).
E : Exactement une Pille.
(a) Quelles sont les paires indépendants ?
(1) A, B
(2) A, D
(3) A, E
(4) D, E
(b) Quelles sont les triplets suivants de ces événements sont indépendants ?
(1) A, B, C
(2) A, B, D
(3) C, D, E
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3
Variables aléatoires discrètes
SECTION 3.1
Variables aléatoires discrètes
Définition 3.1. Soit Ω un espace fondamental et P une probabilité sur Ω. On appelle variable
aléatoire discrète toute application X de Ω dans une partie de finie ou dénombrable de R :
X : Ω −→ R
ω 7−→ X (ω)
avec X (Ω) fini ou dénombrable.
Exemple 3.2. Si est l’ensemble des élèves d’une classe, on peut à chaque élève ω associer le
nombre X (ω) de ses frères et soeurs. X est alors une fonction à valeur dans un ensemble fini
(finitude imposée par la nature) : c’est une variable aléatoire discrète.
Définition 3.3. Soit X une variable aléatoire telle que X (Ω) = {x 1 , x 2 , . . . , x n }, on appelle loi
de probabilité ou distribution de probabilité de X une expression des probabilités :
f (x i ) = p i = P (X = x i ) pour i = 1, 2, · · · , n
que l’on donne habituellement sous la forme d’un tableau :
xi
pi
x1
f (x 1 )
x2
f (x 2 )
...
...
xn
f (x n )
La loi de probabilité f satisfait les conditions :
(i) f (x i ) ≥ 0
and
(ii)
P
x i ∈X (Ω)
f (x i ) = 1
Exemple 3.4. On lance deux pièces de monnaie. L’ensemble fondamental comprend 4 événements élémentaires notés PP,PF,FP,FF, de probabilité chacun 1/4 On note X la variable
aléatoire qui compte le nombre de piles obtenus.On a le tableau suivant
k
P (X = k)
0
1/4
28
1
1/2
2
1/4
3.2. VARIABLES ALÉATOIRES INDÉPENDANTES
29
Remarque. Les notions et propriétés étudiées ici s’étendent bien sûr au cas des variables
aléatoires discrètes à valeurs dans un ensemble dénombrable infini.
On utilise les notations abrégées P (X = a) et P (a ≤ X ≤ b) pour désigner les probabilités des
événements "X a pour valeur a" et "X prend sa valeur dans l’intervalle [a, b]". C’est-à-dire
P (X = a) = P ({ω ∈ Ω : X (ω) = a})
P (a ≤ X ≤ b) = P ({ω ∈ Ω : a < X (ω) < b})
X
P (A) = P ({ω ∈ Ω : X (ω) ∈ A}) =
pi
x i ∈A
Les symboles P (X < a), P (X = a, Y = b), P (a < X < b, c < Y < d ), etc. ont des significations
analogues.
Une autre représentation, qui trouve son équivalent en statistiques, consiste à regarder la
fonction cumul des probabilités, appelée fonction de répartition en probabilités.
Définition 3.5. Soit X une variable aléatoire discrète sur Ω tel que X (Ω) = {x 1 , x 2 , . . . , x n } avec
x 1 < x 2 < · · · < x n . On appelle fonction de répartition de X la fonction F définie par :
F : X −→ [0, 1]
x 7−→ F (x) = P (X ≤ x)
Propriétés 3.6. La fonction F possède les propriétés suivante :
1. F est une fonction en escalier croissante,
2. Si x < x 1 , alors F (x) = 0,
Pj
3. Si x j ≤ x < x j +1 , alors F (x) = i =1 f (x i ) ,
4. Si¡x ≥ x n , ¢alors¡F (x)
¢ = 1,
¡
¢
5. P X = x j = F x j − F x j −1 .
Theoreme 3.7. Si F est la fonction de répartition de v.a.d X on a :
1. P (X ≤ a) = F (a)
5. P (a < X ≤ b) = F (b) − F (a)
2. P (X > a) = 1 − F (a)
6. P (a < X < b) = F (b − ) − F (a)
−
3. P (X < a) = F (a )
7. P (a ≤ X ≤ b) = F (b) − F (a − )
4. P (X ≥ a) = 1 − F (a − )
8. P (a ≤ X < b) = F (b − ) − F (a − )
SECTION 3.2
Variables aléatoires indépendantes
On considère deux variables aléatoires discrètes (v.a.d.) X et Y définies sur l’univers Ω. On
note
X (Ω) = {x 1 , x 2 , . . . , x m } et Y (Ω) = {y 1 , y 2 , . . . , y n }
La loi de probabilité du couple (X , Y ) est définie par la donnée des nombres :
¡
¢
p i j = P (X ,Y ) X = x i , Y = y j pour i = 1, · · · , m et j = 1, · · · , n
On représentera la loi de probabilité d’un couple de variables aléatoires discrètes par un tableau avec m lignes et n colonnes. En sommant les éléments de chaque ligne (resp. colonne),
on trouve la loi de X (resp.Y ), à savoir les valeurs de
¡
¢
p i • = P X (X = x i ) et p • j = P Y Y = y i
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
30
3.3. MOMENTS D ’UNE VARIABLE ALÉATOIRE DISCRÈTE
On les appelle lois marginales de X et Y .
X \Y
X1
X2
X3
..
.
Y1
p 11
p 21
p 31
..
.
Y2
p 12
p 22
p 32
..
.
Y3
p 13
p 23
p 33
..
.
Xm
p
¡ m1 ¢
PY Y = y1
p
¡ m2 ¢
PY Y = y2
p
¡ m3 ¢
PY Y = y3
Yn
p 1n
p 2n
p mn
..
.
P X (X = x 1 )
P X (X = x 2 )
P X (X = x 3 )
p
¡ mn ¢
PY Y = yn
P X (X = x m )
1
...
...
...
...
Définition 3.8. Les deux variables aléatoires X et Y sont dites indépendantes si les événements (X = x i ) et (Y = y j ) sont indépendants pour toutes valeurs de i et j , en d’autres termes
si
¡
¢
¡
¢
P (X ,Y ) X = x i , Y = y j = P X (X = x i ) × P Y Y = y j
SECTION 3.3
Moments d ’une variable aléatoire discrète
3.3.1 Espérance mathématique
Lorsqu’on répète un grand nombre de fois une expérience, on peut estimer la moyenne
des valeurs obtenues. En réalité, cette quantité peut être calculée mathématiquement : elle
corres-pond à la moyenne des valeurs prises par la variable aléatoire X pondérées par la
probabilité d’obtenir cette valeur. Cette moyenne, appelée espérance mathématique joue
un rôle central en probabilités et statisques.
Définition 3.9. Soit X une variable aléatoire discrète (v.a.d.) sur Ω. On appelle expérance
mathématique de X le réel
X
E (X ) =
X
x i × P (X = x i ) =
x i ∈X (Ω)
xi × p i
x i ∈X (Ω)
Notation 1. Généralemet on dénote l’éspérance par µ = E (X ) .
Exemple 3.10. Dand la distributopn suivante :
x
P (X = x)
0
1/4
1
1/2
2
1/4
on a
E (X ) = 0 × 1/4 + 1 × 1/2 + 2 × 1/4 = 1
Propriétés 3.11. Soient X et Y deux variable aléatoires.
1. E (X ) est fini si et seulement si E (|X |) est fini.
2. |X | ≤ Y et E (Y ) fini =⇒ E (X ) fini.
3. a ≤ X ≤ b =⇒ a ≤ E (X ) ≤ b.
4. X = a p.s. =⇒ E (X ) = a.
5. E (X ) fini =⇒ |E (X )| ≤ E (|X |).
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.3. MOMENTS D ’UNE VARIABLE ALÉATOIRE DISCRÈTE
31
Le théorème suivant consigne les propriétés usuelles de l’espérance mathématique.
Propriétés 3.12. Soient X une variable aléatoires (discrètes, mais cette hypothèse n’est pas
nécessaire). Si E (X ) est fini alors,
1. E (b) = b pour tout b ∈ R.
2. E [E (X )] = E (X ) .
3. E (aX + b) = aE (X ) + b pour tout a, b ∈ R.
4. X ≥ 0 =⇒ E (X ) ≥ 0.
Propriétés 3.13. oient X et Y deux variable aléatoires sur le même espace fondamental (discrètes, mais cette hypothèse n’est pas nécessaire). Si E (X ) et E (Y )sont finis alors,
1. X ≥ Y =⇒ E (X ) ≥ E (Y ).
2. X = Y p.s =⇒ E (X ) = E (Y ) .
3. Si X et Y sont independants, alors E (X Y ) = E (X ) E (Y ) .
Définition 3.14. Plus généralement pour toute fonction g : R −→R, on peut définir :
X
£
¤
E g (X ) =
p i × g (x i )
x i ∈X (Ω)
Theoreme 3.15. Inégalité de Markov. Si a > 0 on a
P (X ≥ a) ≤
E (X )
a
Démonstration. Par definition on a
E (X ) =
X
xi × p i
x i ∈X (Ω)
≥
X
xi × p i
{x i ≥a}
≥
X
a × pi = a
{x i ≥a}
X
pi
{x i ≥a}
= a × P (X ≥ a)
L’espérance mathématique d’une variable aléatoire X ne dépend que de la loi de X et indique la valeur moyenne autour de laquelle X prend ses valeurs. On introduit d’autres caractéristiques de la loi de X qui rendent compte de la dispersion de cette loi, par exemple la
variance.
3.3.2 Variance
L ’espérance mathématique fournit une valeur moyenne des observations. On s’intéresse
souvent à la dispersion de la distribution de probabilité, en d’autres termes si les valeurs
observées seront plutôt voisines de la valeur moyenne ou si au contraire elle peuvent s’en
éloigner fortement.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
32
3.3. MOMENTS D ’UNE VARIABLE ALÉATOIRE DISCRÈTE
Exemple 3.16. Une classe obtient une note moyenne de 11/20 à un examen. Les notes obtenues peuvent cependant varier entre 10 et 13 comme elles peuvent varier entre 2 et 19.
Cette dispersion peut être mesurée mathématiquement par une quantité appelée variance.
Définition 3.17. Soit X une variable aléatoire discrète (v.a.d.) sur Ω. On appelle variance de
X le réel
X
£
¤
V ar (X ) = E (X − E (X ))2 =
p i (x i − E (X ))2
x i ∈X (Ω)
On appelle écart type de X le réel
σ (X ) =
p
V ar (X )
Propriétés 3.18. La variance possède les suivantes :
1. V ar (X ) ≥ 0.
¡
2. V ar (X ) = E X
2
¢
2
− E (X ) =
µ
P
xi
p i x i2
¶
− E 2 (X ) .
3. V ar (a X + b) = a 2V ar (X )
4. Si X et Y sont independants, alors V ar (X + Y ) = V ar (X ) + V ar (Y ) .
Démonstration. La définition de la variance étant
£
¤
V ar (X ) = E (X − E (X ))2 =
X
p i (x i − E (X ))2 .
x i ∈X (Ω)
1. On sait que si X ≥ 0, E (X ) ≥ 0 et puisque
(X −¤E (X ))2 ≥ 0 donc V ar (X ) ≥ 0. 2. On utilise les
£
V ar (X ) = E £(X − E (X ))2
¤
= E ¡ X 2¢− 2X E (X ) − E 2 (X )
= E ¡ X 2 ¢ − 2E (X ) E (X ) − E 2 (X )
propriétés de E (X )
3. On utilise les propriétés
2
2
2
= E ¡ X ¢ − 2E (X ) − E (X )
= E X 2 − E 2 (X )
£
¤
V ar (a X + b) = E (a¡X +¢ b)2 − E 2 (a X + b)
= a 2 E ¡ X 2 ¢ + 2abE (X ) + b 2 − [aE (X ) + b]2
2
= a 2 E£ X
de E (X ) et V (X )
(X¤ ) + b 2 − a 2 E 2 (X ) − 2abE (X ) − b 2
¡ 2+
¢ 2abE
2
2
= a E X − E (X )
= a 2V ar (X )
4.
On
sait
que
si £ X
et
Y
sont
indépemdamts
E (X Y )
=
¤
2
2
V ar (X + Y ) = E ¡(X ¢+ Y ) − E (X +¡ Y )¢
= E ¡ X 2 ¢ + 2E (X Y ) + E Y 2¡ − [E
(X ) + E (Y )]2
¢
2
= £E ¡X 2 ¢+ 2E (Y ) E¤ (Y£) +¡ E Y
− E 2 (X
) − 2E (Y ) E (Y ) − E 2 (Y )
E (X ) E (Y ) .
¢
¤
= E X 2 − E 2 (X ) + E Y 2 − E 2 (Y )
= V ar (X ) + V ar (Y )
Définition 3.19. Pour X une v.a., on appelle variable centrée réduite la v.a. Y defini par
Y =
X − E (X ) X − µ
=
σ (X )
σ
on a
E (Y ) = 0 et σ (Y ) = 1
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.3. MOMENTS D ’UNE VARIABLE ALÉATOIRE DISCRÈTE
33
Theoreme 3.20. Inégalité de Chebyshev. Si a > 0 on a
¯
¡¯
¢ V ar (X ) ³ σ ´2
¯
¯
P X −µ ≥ a ≤
=
a2
a
Démonstration. D’ápres l’inégalité de Markov on a
´ E
³¡
¯
¢2
¡¯
¢
P ¯ X − µ¯ ≥ a = P X − µ ≥ a 2 ≤
Mais
E
donc
h¡
h¡
¢2 i
X −µ
a
.
¢2 i
X − µ = V ar (X )
¯
¡¯
¢ V ar (X )
P ¯ X − µ¯ ≥ a ≤
a
Theoreme 3.21. (Loi des Grands Nombres) :
Soit X x , X 2 , ..., X n une suite de variables aléatoires indépendantes, ayant la même loi de probabilité, de moyenne µ et de variance σ2 . Soit
Sn =
n
(X 1 + X 2 + · · · + X n )
1X
Xi =
n i =1
n
(que l’on appelle la moyenne de l’échantillonnage). Alors pour tout ε > 0
¯
¯
³¯
´
³¯
´
¯
¯
¯
¯
lim P ¯S n − µ¯ ≥ ε = 0 ou bien lim P ¯S n − µ¯ < ε = 1
n→∞
n→∞
Démonstration. On remarque d’abord que
³ ´
³ ´ σ2
E S n = µ et V ar S n =
n
D’où, d’après l’inégalité de Tchebycheff,
³ ´
¯
³¯
´ V ar S n
σ2
¯
¯
=
P ¯S n − µ¯ ≥ ε ≤
ε2
nε2
Ce qui démontre le théorème puisque la limite du membre de droite tend vers 0, quand
n→∞.
Exemple 3.22. On jette une paire de dés bien équilibrés. On obtient l’espace équiprobable
fini Ω dont les éléments sont les 36 couples ordonnés des nombres allant de 1 à 6 :
Ω = {(1, 1), (1, 2), ..., (6, 6)}
On suppose qu’à chaque point (a, b) de Ω, l’on fasse correspondre le maximum X de ses
composantes, c.à.d. X (a, b) = max(a, b). X est alors une variable aléatoire sur Ω, ayant pour
espace image
X (Ω) = {1, 2, 3, 4, 5, 6}
• P (X = 1) = P ({(1, 1)}) = 1/36
• P (X = 2) = P ({(1, 2) , (2, 1) , (2, 2)}) = 3/36
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
34
3.3. MOMENTS D ’UNE VARIABLE ALÉATOIRE DISCRÈTE
• P (X = 3) = P ({(3, 1), (3, 2), (3, 3), (2, 3), (1, 3)}) = 5/36
• P (X = 4) = P ({(4, 1), (4, 2), (4, 3), (4, 4), (3, 4), (2, 4), (1, 4)}) = 7/36
• P (X = 5) = 9/36
• P (X = 6) = 11/36
Cette information peut se présenter sous la forme d’un tableau, de la manière suivante :
x
P (X = x)
1
2
3
4
5
6
1
36
3
36
5
36
7
36
9
36
11
36
1
3
5
7
9
11
E (X ) = 1 × 36
+ 2 × 36
+ 3 × 36
+ 4 × 36
+ 5 × 36
+ 6 × 36
= 161
' 4, 47
36
¡ 2¢
2
2
2
2
2
2
3
5
7
9
11
1
E X = 1 × 36 + 2 × 36 + 3 × 36 + 4 × 36 + 5 × 36 + 6 × 36 = 791
36 ' 21.972
¡ 2¢
¡
¢
161 2
V ar (X ) = E X − E 2 (X ) = 791
= 2555
36 − 36
1296 ' 1.972
q
p
σ2 (X ) = V ar (X ) = 2555
1296 ' 1.404
Exemple 3.23. On tire au hasard un échantillon de 3 articles dans une boîte contenant 12
articles dont 3 sont défectueux. Calculer l’espérance mathématique E du nombre auquel on
peut s’attendre.
Solution. Soit X le nomber d’articles défectueux
X (Ω) = {0, 1, 2, 3}
x
P (X = k)
Donc
E (X ) =
0
84
220
1
108
220
2
27
220
3
1
220
108
27
1
3
+2×
+3×
=
220
220
220 4
3.3.3 Covariance
Lorsqu’on étudie deux variables aléatoires simultanément, on souhaite connaître leur degré
d’indépendance. Pour cela on fait appel à deux indicateurs : la covariance et le coefficient de
corrélation.
Définition 3.24. Soient X et Y deux variables aléatoires. La covariance de X et Y est le
nombre réel
C ov (X , Y ) = E [(X − E (X )) (Y − E (Y ))]
= E (X Y ) − E (X ) E (Y )
et le coefficient de corrélation
C ov (X , Y )
C ov (X , Y )
ρ (X , Y ) = p
=
V ar (X )V ar (Y ) σ (X ) σ (Y )
Propriétés 3.25. La corrélation ρ est une quantité sans dimension et a les propriétés suivantes :
1. ρ (X , Y ) = ρ (Y , X ) .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.3. MOMENTS D ’UNE VARIABLE ALÉATOIRE DISCRÈTE
35
2. −1 ≤ ρ (X , Y ) ≤ +1.
3. ρ (X , X ) = +1 et ρ (X , −X ) = −1.
4. ρ (aX + b, c X + d ) = ρ (X , Y ) si a, c 6= 0.
Theoreme 3.26. Soient X et Y des variables aléatoires indépendantes. On a alors :
1. E (X Y ) = E (X ) E (Y )
2. V ar (X + Y ) = V ar (X ) + V ar (Y )
3. C ov (X , Y ) = 0
Theoreme 3.27. Soient X 1 , X 2 , ..., X n des variables aléatoires (discrètes, mais cette hypothèse
n’est pas nécessaire) indépendantes. On a alors :
V ar (X 1 + X 2 , ... + X n ) = V ar (X 1 ) + V ar (X 2 ) + · · · + V ar (X n )
3.3.4 Moments
¡
¢
Définition 3.28. Soit X une v.a.r. discrète, de loi P (X ) donnée par x i , p i . Soit a ∈ R et k ∈ N,
si E |X − a|k est fini, alors le moment d’ordre k de X centré en a est défini par :
m ka = E (X − a)k =
X
p i (x i − a)k
i
Le moment d’ordre k (centré en 0) est défini par :
³ ´ X
m k = E X k = p i × x ik
i
Le moment d’ordre k (centré en µ = E (X )) est défini par :
¡
¢k X ¡
¢k
µk = E X − µ = p i x i − µ
i
Si k = 1, alors m 1 = E (X ) et µ1 = 0.
¡ ¢
¡ ¢
Si k = 2, alors m 2 = E X 2 et µ2 = V ar (X ) = E X 2 − E 2 (X ) = m 2 − (m 1 )2 .
3.3.5 Fonction génératice des moments
¡
¢
Définition 3.29. Soit X une v.a.r. discrète, de loi P (X ) donnée par x i , p i . Pour t ∈ R la fonction génératice des moments défini par :
¡
¢
g (t ) = M X (t ) = E e t X
¡
¢
Propriétés 3.30. Soit X une v.a.r. discrète, de loi P (X ) donnée par x i , p i .
P
1. g (t ) = M X (t ) = xi p i e t xi .
2. g (t ) = M X (t ) =
¡ ¢
P mk t k
ou m k = E X k .
k
k!
3. m k = g (k) (0) la dérivée de g (t ) d’ordre k quand t = 0.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
36
3.3. MOMENTS D ’UNE VARIABLE ALÉATOIRE DISCRÈTE
Exemple 3.31. Distribition Uniforme
¡
¢
Soit X une variable aléatoire discrète (v.a.d.) de loi P (X ) donnée par x i , p i sur Ω telle que
1
X (Ω) = {1, 2, · · · , n} et p i = for 1 ≤ i ≤ n .
n
Calculer M X (t ) , E (X ) et V ar (X ) .
Solution. Alors,
¡
¢
g (t ) = M X (t ) = E e t X
X
= p i e t xi
xi
=
n ei t
X
n
¡
¢
1 t
=
e + e 2t + · · · + e nt
n ¡
¢
e t e nt − 1
¢
= ¡ t
n e −1
i
on a aussi
1
n +1
= E (X )
(1 + 2 + · · · + n) =
n
2
¢ (n + 1) (2n + 1)
¡ ¢
1¡ 2
m 2 = g 00 (0) =
1 + 22 + · · · + n 2 =
=E X2
n
6
2
n
−
1
σ2 = V ar (X ) = m 2 − m 12 =
12
m 1 = g 0 (0) =
Exemple 3.32. Distribition géometrique
¡
¢
Soit X une variable aléatoire discrète (v.a.d.) de loi P (X ) donnée par x i , p i sur Ω telle que
X (Ω) = {1, 2, 3, · · · } et p i = q i −1 p for i = 1, 2, 3, · · · ou p > 0 et q = 1 − p . Calculer M X (t ) , E (X )
et V ar (X ) .
Solution. Alors,
g (t ) =
∞
X
q i −1 pe i t =
i =1
∞ ¡
¢i
pX
qe t
q i =1
p qe t
=
q 1 − qe t
pe t
=
1 − qe t
on a aussi
¯
¯
¯
m 1 = g (0) = ¡
¢2 ¯¯
t
1 − qe
0
pe t
t
t =0
¯
2t ¯
=
1
p
1+q
pe + pqe ¯
m 2 = g 00 (0) = ¡
=
¢3 ¯¯
p
1 − qe t
t =0
q
σ2 = V ar (X ) = m 2 − m 12 = 2
p
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.4. LOI DE BERNOULLI
37
Lois discrètes usuelles
SECTION 3.4
Loi de Bernoulli
Modèle : On effectue un tirage d’une boule dans une urne contenant des boules blanches et
noires, les premières en proportion p, les secondes en proportion q = 1−p. Soit X le nombre
de boules blanches tirées.
¡
¢
Notation
X ∼ B 1, p
Paramètre
p
Valeurs Possibles
X (Ω) = {0, 1}
Probabiliés
P (X = k) = p k q 1−k , k = 0, 1
Espérance
E (X ) = p
Variance
V ar (X ) = pq
Fonction génératrice des moments M X (t ) = g (t ) = q + pe t
SECTION 3.5
Loi binomiale
Modèle : On effectue n tirages avec remise dans une urne contenant des boules blanches et
noires, les premières en proportion p, les secondes en proportion q = 1−p. Soit X le nombre
de boules blanches tirées.
¡
¢
Notation
X ∼ B n, p
Paramètres
p et n
Valeurs Possibles
X (Ω) = {0, 1, 2, 3, · · · , n}
Probabiliés
P (X = k) = C nk p k q n−k
Espérance
E (X ) = np
Variance
V ar (X ) = npq
¡
¢n
Fonction génératrice des moments M X (t ) = g (t ) = q + pe t
Le graph de la distribution Binomial B(10, 0.7)
Propriétés 3.33. On a les propriétés suivantes
¡
¢
1. Si¡X 1 et ¢X 2 sont des variables
aléatoires
indépendantes
telles
que
X
∼
B
n
,
p
et X 2 ∼
1
1
¡
¢
B n 2 , p alors X 1 + X 2 ∼ B n 1 + n 2 , p .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
38
3.6. LOI GÉOMÉTRIQUE
¡
¢
2. Si X 1 , . . . , X n sont¡ des ¢variables aléatoires indépendantes telles que X i ∼ B 1, p , alors
X 1 + . . . + X n ∼ B n, p .
Exemple 3.34. On jette 6 fois une pièce de monnaie bien équilibrée, ou ce qui revient au
même, on jette six pièces bien équilibrées. On suppose que face correspond à un succès. On
a X ∼ B (6, 1/2) .
1. La probabilité pour que l’on ait exactement deux faces (c.à.d. k = 2) est
¡¢
P (X = 2) = 62 /26 = 15/64
2. La probabilité d’obtenir au moins quatre faces est
6
X
P (X = k) =
k=4
£¡6¢ ¡6¢ ¡6¢ ¡6¢¤ 6
+ 2 + 2 + 2 /2 = 22/64 = 11/32
2
3. La probabilité de n’avoir aucune face (c.à.d. uniquement des échecs) est
¡¢
P (X = 0) = 60 /26 = 1/64
4. La probabilité d’avoir au moins une face est
6
X
P (X = k) = 1 − P (X = 0) = 1 − 1/64 = 63/64.
k=1
SECTION 3.6
Loi géométrique
Modèle : On effectue des tirages avec remise dans une urne contenant des boules blanches
et noires, les premières en proportion p, les secondes en proportion q = 1 − p . Soit X le
nombre de tirages nécessaires pour obtenir une
¡ ¢boule blanche.
Notation
X ∼G p
Paramètre
p
Valeurs Possibles
X (Ω) = {0, 1, 2, 3, · · · , n, · · · }
Probabiliés
P (X = k) = pq k−1
1
Espérance
E (X ) =
p
p
Variance
V ar (X ) = 2
q
¡
¢
pe t
Fonction génératrice des moments M X (t ) = g (t ) =
,
t
<
−
ln
1
−
p
1 − qe t
Le graph de la distribution Géometrique G (0.3)
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.7. LOI HYPERGÉOMÉTRIQUE
39
Exemple 3.35. On lance un dé équilibré Quelle est la probabilité pour avoir le 5 la première
fois au jet numèro 9.
Si X est l’indice de la première apparition du numéro 5,
X ∼ G (1/6)
c.a.d.
µ ¶
1 5 k−1
pour k ∈ {0, 1, 2, 3, · · · , n, · · · }
P (X = k) =
6 6
et donc on a
µ ¶
1 5 8
P (X = 9) =
.
6 6
Exemple 3.36. On tire une carte au hasard avec remise d’un jeu classique de 52 cartes. Quelle
est la probabilité qu’on tire au moins 10 cartes avant d’avoir le prmier ace.
Solution. Soit X le nombre de cates tirées jusqu’on a le premier ace.
µ
12
P (X = k) =
13
¶k−1 µ
¶
1
, k = 1, 2, 3, . . .
13
donc la probabilité qu’on tire au moins 10 cartes avant d’avoir le prmier ace est
¶
µ ¶
12 k−1 1
13
k=10 13
µ ¶k−1
∞
1 X 12
=
13 k=10 13
P (X ≥ 10) =
=
∞
X
µ
1 (12/13)9
≈ 0.49
13 1 − (12/13)
SECTION 3.7
Loi hypergéométrique
Modèle : On effectue n tirages sans remise dans une urne contenant des boules blanches
en proportion p et des boules noires en proportion q = 1 − p. Soit X le nombre de boules
blanches tirées.
¡
¢
Notation
X ∼ H N , n, p
©
©
ªª
Valeurs Possibles
X (Ω) = 0, 1, 2, 3, · · · , min n, N p
¡N p ¢¡ N q ¢
Probabiliés
P (X = k) =
Espérance
E (X ) = npµ
k
n−k
¡N ¢
n
Variance
Fonction génératrice des moments
¶
N −n
V ar (X ) =
npq
N −1
− − −−
Exemple 3.37. Un électricien achète des composants par paquets de 10. Sa technique de
contrôle est de n’examiner que 3 des composants, tirés au hasard dans le paquet, et de n’accepter le lot des 10 que si les 3 composants examinés sont sans défaut. Si 30% des paquets
contiennent 4 composants à malfaçon tandis que les 70% restants n’en contiennent qu’un,
quelle proportion des paquets notre électricien rejettera-t-il ?
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
40
3.7. LOI HYPERGÉOMÉTRIQUE
Solution. Désignons par
A = {l’électricien accepte un paquet}
B 1 = {le paquet contient 4 mauvais composants}
B 2 = {le paquet contient 1 mauvais composants }
P (A) = P (A|B 1 ) + P (A|B 2 )
¡1¢¡9¢
¡4¢¡6¢
3
7
54
+ 0¡103¢
=
= 0¡103¢
10
10 100
3
3
46% des paquets seront donc refusés.
Exemple 3.38. Soit un comité de 15 spécialistes qui ont une idée tranchée sur une question
d’importance : « doit-on enseigner la loi hypergéométrique ? ». 3 d’entre eux y sont favorables
mais le ministre des probabilités ignore lesquels. Il demande à quatre spécialistes de lui expliquer leurs positions et il se rangera à l’avis de la majorité.
Quelle est la probabilité que 3 votes sont favorables ?
Quelle est la probabilité que 2 votes sont favorables ?
Solution. Désignons par X le nombre de votes favorables. La probabilité d’être favorable est
de
p = 3/15 = 1/5 = 0.2
donc
X ∼ H (15, 4, 0.2)
¡15×0.2¢¡15×0.8¢
P (X = k) =
k
4−k
¡15¢
4
¡ 3 ¢¡
=
k
12 ¢
4−k
¡15¢
4
on trouve que
¡3¢¡12¢
P (X = 3) = 3¡151¢ =
4
¡3¢¡12¢
P (X = 2) = 2¡152¢ =
4
12
≈ 0.009.
1365
66
≈ 0.145.
455
¡a ¢
Remarque. Pour a ∈ R et r ∈ Z on defini r comme suit :


 a (a − 1) · · · (a − k + 1) si r > 0
¡a ¢ 
r!
r = 1
si r = 0


0
si r < 0 ou r > a
Approximation d’une loi hypergéométrique par une loi binomiale
On utilise alors le résultat d’approximation suivant :
Theoreme
¡
¢3.39. Si n est assez petit par raport a N on peut approcher la loi Hypergéométrique
¡
¢
H N , n, p par la loi Binomiale ayant la même espérance mathématique B n, p .
Dans la pratique, on admet que cette approximation est satisfaisante lorsque n < 0.05N .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.8. LOI DE POISSON
41
SECTION 3.8
Loi de Poisson
Modèle : Soit X le nombre d’apparitions d’un événement rare sur un intervalle de temps
donné.
Notation
X ∼ P (λ)
Paramètre
λ
Valeurs Possibles
X (Ω) = {0, 1, 2, 3, . . .}
λk
Probabiliés
P (X = k) = e −λ
k!
Espérance
E (X ) = λ
Variance
V ar (X ) = λ
t
Fonction génératrice des moments M X (t ) = g (t ) = e λ(e −1)
Le graph de la distribution Poisson P (10)
Exemple 3.40. Admettons que le nombre d’erreurs par page dans ce livre suive une distribution de Poisson avec paramètre λ = 1/2. Calculer la probabilité qu’il y ait au moins une
erreur sur cette page.
Solution. Désignons par X le nombre d’erreurs sur cette page.
On aura P {X ≥ 1} = 1 − P {X = 0} = 1 − e −1/2 ' 0.395.
Exemple 3.41. Chaque jour, à une sortie d’autoroute, on compte en moyenne 3 clients qui
ont perdu leur ticket de péage. Quelle est la probabilité
(a) qu’un jour, 4 clients aient perdu leur ticket de péage ?
(b) qu’un jour strictement moins de 3 clients aient perdu leur ticket de péage ?
Solution. Désignons par X le nombre clients qui ont perdu leur ticket de péage. On a
X ∼ P (3) et P (X = k) = e −3 × 3k /k! pour k = 1, 2, 3 . . .
(a) P (X = 4) = e −3 × 34 /4! ≈ 0.16803.
¡
¢
(b) P (X < 3) = P (X < 0) + P (X < 1) + (X < 2) = e −3 1 + 3 + 32 /2 ≈ 0.42319
Theoreme 3.42. Si X 1 et X 2 sont des variables aléatoires indépendantes telles que X 1 ∼ P (λ1 )
et X 2 ∼ P (λ2 ) alors X 1 + X 2 ∼ P (λ1 + λ2 ).
Approximation d’une loi binomiale par une loi de Poisson
Dans la loi binomiale, deux paramètres n et p interviennent ce qui peut compliquer le calcul
des probabilités notamment lorsque n devient grand et p petit. On utilise alors le résultat
d’approximation suivant :
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
42
3.8. LOI DE POISSON
Theoreme 3.43. Si n est assez grand et p est assez petit alors on peut approcher la loi binomiale B(n, p) par la loi de Poisson ayant la même espérance mathématique P (np).
Dans la pratique, on admet que cette approximation est satisfaisante lorsque n > 30, p < 0.1
et np < 10. Ces données ne sont pas figées, elles varient généralement d’un auteur à l’autre.
Exemple 3.44. On admet que la probabilité de défaut pour un objet fabriqué à la machine
est 0.1 . Trouver la probabilité qu’un lot de 10 objets comprenne au plus un élément affecté
d’un défaut.
Solution. La probabilité cherchée est exactement
¡10¢
0
(0.1)0 (0.9)10 +
¡10¢
1
(0.1)1 (0.9)9 = 0.7361
On peut approximer X ∼ P (1) Poisson avec parametre 1. Donc l’approximation par la loi de
Poisson donne
P (X = 0) + P (X = 1) = e −1 + e −1 ≈ 0.7358.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.9. EXERCICES
43
SECTION 3.9
Exercices
Exercice 3.1. Si X une variable aléatoire uniformément distribuée sur {−1, 0, 3} , calculer
E (X ) et V ar (X ) .
Exercice 3.2. Lors d’une enquête, on a interrogé 7 hommes et 5 femmes. On choisit au hasard et sans remise les personnes une à une jusqu’à obtention d’un homme. Soit X le nombre
de tirages nécessaires.
1. Déterminer les valeurs prises par X ainsi que sa loi de probabilité.
2. Calculer E (X ) et V ar (X ).
Exercice 3.3. On lance simultanément deux dés bien équilibrés. On note X la valeur absolue
de la différence des nombres portés sur les faces supérieures.
1. Quelle est la loi de probabilité de X ?
2. Calculer E (X ) et V ar (X ).
Exercice 3.4. On tire au hasard un échantillon de 3 articles dans une boîte contenant 12
articles dont 3 sont défectueux. Calculer l’espérance mathématique E du nombre d’articles
défectueux auquel on peut s’attendre.
Exercice 3.5. On jette un dé bien équilibré. Soit X la variable représentant le double du
nombre obtenu, et Y une variable prenant les valeurs 1 ou 3 suivant que l’on obtient soit
un nombre impair, soit un nombre pair. Calculer la distribution, l’espérance, la variance et
l’écart-type de (i) X , (ii) Y , (iii) X + Y , (iv) X Y .
Exercice 3.6. Un joueur lance deux pièces de monnaie bien équilibrées. Il gagne 1 point ou
2 points selon qu’il obtient 1 ou 2 faces. Par contre, il perd 5 points s’il n’obtient aucune face.
Calculer l’espérance mathématique E de la partie et dire si le jeu est favorable au joueur.
Exercice 3.7. Soit X la variable aléatoire admettant la loi de probabilité suivante :
xi
pi
1
0.2
3
0.2
4
0.1
6
0.2
9
0.3
1. Tracer la fonction de répartition de X ?
2. Calculer E (X ).
Exercice 3.8. Soit X la variable aléatoire admettant la loi de probabilité suivante :
xi
pi
−2
1/8
−1
1/4
0
1/5
1
1/8
2
3/10
Calculer E (X ) et V ar (X ).
Exercice 3.9. Soit X la variable aléatoire admettant la loi de probabilité
P (X = k) =
c
, k = 1, 2, 3, . . . .
k2
1. Trouver c tel que la loi soit une loi de probabilité. Rapel :
P∞
k=1
1/k 2 = π2 /6 .
2. Montrer que E (X ) n ’existe pas.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
44
3.9. EXERCICES
Exercice 3.10. On choisit deux boules au hasard d’une urne en contenant 8 blanches, 4
noires et 2 oranges. Supposons que l’on reçoive 2 point pour chaque boule noire tirée et que
l’on perde 1 point pour chaque boule blanche tirée. Désignons les gains nets par X . Quelles
sont les valeurs possibles pour X et quelles sont les probabilités associées à ces valeurs ?
Exercice 3.11. On jette 3 dés et on admet que les 63 = 216 résultats possibles sont tous équiprobables. X désigne la somme des 3 nombres obtenus. Donner les probabilités attachées
aux différentes valeurs que X peut prendre.
Exercice 3.12. On classe cinq hommes et cinq femmes selon leurs résultats lors d’un examen. On fait l’hypothèse que tous les scores sont différents et que les 10! classements possibles ont tous la même probabilité. On désigne le rang de la meilleure femme par X (par
exemple X vaudra 2 si le meilleur résultat a été obtenu par un homme et le t suivant par une
femme). Trouver P (X = i ) , i = 1, 2, ..., 10.
Exercice 3.13. Soit X la variable aléatoire comptant la différence entre les nombres de piles
et de faces lors d’une répétition de n jets d’une pièce.
1. Quelles sont les valeurs que peut prendre X ?
2. Quelles sont les probabilités associées aux valeurs de X lorsque n = 3 ?
Exercice 3.14. Un examen est administré sous forme d’un questionnaire de 5 questions à
3 choix multiples chacune. Quelle est la probabilité qu’un étudiant obtienne 4 bonnes réponses ou plus en devinant ?
Exercice 3.15. La fonction de répartition d’une variable X est la suivante :
x
x <0 0≤x <1 1≤x <2 2≤x <3 x ≥3
F (x)
0
x/4
11/12
1
(x + 1) /4
1. Trouver P {X
© = i }, i = ª1, 2, 3.
2. Trouver P 12 < X < 32 .
Exercice 3.16. On tire une boule d’une urne en contenant 3 blanches et 3 noires. On la
replace après tirage, pour recommencer indéfiniment cette séquence d’opérations. Quelle
est la probabilité de trouver exactement deux boules blanches parmi les quatre premières
boules tirées ?
Exercice 3.17. On admet que le nombre d’accidents survenant sur une autoroute quotidiennement est une variable aléatoire de Poisson de paramètre λ = 3.
• Quelle est la probabilité qu’il survienne 3 accidents ou plus lors d’un jour donné ?
• Même question si l’on sait qu’un accident au moins a eu lieu.
Exercice 3.18. A un concours se présentent deux fois plus d’hommes que de femmes. On
tire une personne au hasard, et on appelle X la variable aléatoire “nombre de femmes”.
1. Quelle loi suit la variable X ?
2. Calculer E (X ) et V ar (X ).
Exercice 3.19. La probabilité pour qu’un tireur atteigne une cible est 1/4.
1. En supposant qu’il tire 7 fois, quelle est la probabilité pour qu’il atteigne la cible au
moins deux fois ?
2. Combien de fois doit-il tirer pour que la probabilité qu’il atteigne la cible au moins une
fois soit plus grande que 2/3 ?
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
3.9. EXERCICES
45
¡
¢
Exercice 3.20. Soit X ∼ B n, p une variable aléatoire suivant la loi binômiale. Demontrer
que E (X ) = np et V ar (X ) = npq.
Exercice 3.21. Calculer le nombre moyen de garçons dans une famille de 8 enfants, en supposant que la distribution des sexes est équiprobable. Quelle est la probabilité pour que la
famille ait un nombre de garçons égal à ce nombre moyen ?
Exercice 3.22. Un homme prétend avoir des capacités de perception extrasensorielle. Lé
test qu’on lui administre consiste à lui faire deviner les 10 résultats des 10 jets d’une pièce
équilibrée. Il donne 7 bonnes réponses. Quelle est la probabilité qu’il obtienne un résultat
aussi bon ou meilleur s’il n’a aucune capacité de perception extrasensorielle ?
Exercice 3.23. Les gens entrent dans un bureau au rythme d’une personne toutes les deux
minutes.
• Quelle est la probabilité qu’il n’entre personne entre 12 h et 12 h 05 ?
• Quelle est la probabilité que 4 personnes au moins se présentent durant cette période ?
Exercice 3.24. La probabilité pour qu’une ampoule électrique ait une durée de vie supé3
. Sachant qu’un lustre possède cinq ampoules, calculer :
rieure à deux ans est égale à p = 10
1. la probabilité de ne pas changer d’ampoules en deux ans,
2. la probabilité de changer toutes les ampoules en deux ans.
3. le nombre moyen d’ampoules changées en deux ans.
¡ ¢
Exercice 3.25.¡ Soit X
¢n ∼ G p une variable aléatoire géométrique. Montrer que
1. P (X > n) = 1 − p . ¡
¢n
2. F (n) = P (X ≤ n) = 1 − 1 − p .
3. P (X > n + m|X > m) = P (X > n) .
On dit que la variable aléatoire X est san mémoire
Exercice 3.26. Soit X ∼ P (λ) poisson avec paramètre λ .
1. Montrer que la loi P (X = k) = e −λ
λk
, k = 0, 1, 2, 3, . . . est loi de probabilité.
k!
2. Montrer que E (X ) = V ar (X ) = λ.
Exercice 3.27. Soit X 1 , X 2 , . . . , X n des v.a. independantates et X i ∼ P (λi ) (poisson avec paran
P
mètre λi ) et X =
Xi .
i =1
(1) Touver la fonction génératrice de moment de X .
(2) De quelle loi de probabilité est X ?
Exercice 3.28. Soit X une variable aléatoire de Poisson avec paramètre λ. Quelle est la valeur
de λ qui maximise P {X = k}, k ≥ 0 ?
Exercice 3.29. Prouver l’identité de Vandermonde.
¡m+n ¢
r
=
r ¡ ¢¡
X
m
k=0
k
n ¢
r −k
Utiliser l’identité pour montrer que
n ¡
1 X
N p ¢¡ N q ¢
=1
¡N ¢
k
n−k
n k=0
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4
Variables aléatoires continues
SECTION 4.1
Variables aléatoires continues
Définition 4.1. Soit Ω un espace fondamental et P une probabilité sur Ω et X variable aléatoire sur Ω. On suppose qu’il existe une fonction f : R −→ R+ continue par morçeaux (sauf
peut être en un nombre fini de points où elle admet une limite à droite et une limite à gauche
finies) telle que
Z b
P (a ≤ X ≤ b) =
f (x) d x.
a
Dans ce cas, on dit que X est une variable aléatoire continue. On appelle la fonction f , la
densité de probabilité (ou la distribution ou la loi de probabilité ) de la variable aléatoire X .
Cette fonction satisfait les conditions suivantes :
Z ∞
(i ) f (x) ≥ 0
et
(i i )
f (x) d x = 1
−∞
Propriétés 4.2. Soit X une v.a. continue et f sa densité de probabilité.
Rx
1. F (x) = P (X ≤ x) = −∞ f (t ) d t est la fonction de répartion.
2. Si f est continue, alors F 0 (x) = f (x) .
3. P (X = a) = 0.
4. P (X ≤ a) = P (X < a) = F (a) .
5. P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b)
Rb
6. P (a ≤ X ≤ b) = a f (x) d x = F (b) − F (a) .
SECTION 4.2
Moments d’une variable aléatoire à densité
Soit X une variable aléatoire continue admettant pour densité la fonction f . Sous réserve de
convergence des intégrales, on définit :
46
4.2. MOMENTS D’UNE VARIABLE ALÉATOIRE À DENSITÉ
• Moment d’ordre k de X
h
E X
k
Z
i
=
R
47
x k f (x) d x = m k
• Espérance mathématique de X
Z
E (X ) =
R
x f (x) d x = µ = m 1
• Espérance mathématique de g (X )
£
¤
Z
E g (X ) =
R
g (x) f (x) d x
• Variance de X
£
¤
V ar (X ) = E (X − E (X ))2 =
¡
=E X
¢
2
Z
− (E (X ))2 =
¡
ZR
R
¢2
x − µ f (x) d x
x 2 f (x) d x − µ2
= m 2 − (m 1 )2
• Ecart-type de X
σ (X ) =
p
V ar (X )
• Fonction génératrice de moments
¡
g (t ) = M X (t ) = E e
tX
¢
Z
=
R
e t x f (x) d x
m k = g (k) (0)
Exemple 4.3. La densité d’une certaine v.a.c. X est donnée par :
½
ax si 0 ≤ x ≤ 2
f (x) =
0
ailleurs
¡ ¢
Calculer a, m k , E (X ) , E X 2 ,V ar (X ) , σ (X ) ,et F (x).
Solution. On a : ·
¸2
Z 2
ax 2
1
• 1=
axd x =
= 2a donc a = .
2 0
2
0
· k+2 ¸2
Z 2
k+2
1
1 x
12
2k+1
• mk =
x k xd x =
=
=
.
2 0
2 k +2 0 2 k +2 k +2
22 4
• E (X ) = m 1 =
= .
3
3
¡ 2¢
23
• E X = m2 =
= 2.
4
¡ ¢2 2
• V ar (X ) = m 2 − (m 1 )2 = 2 − 34 = .
9
p
r
2
2
• σ (X ) =
=
.
9
3
Z
1 x
• Si x ∈ [0, 2] , F (x) =
t d t = 14 x 2 donc
2 0

si x < 0
 0
1 2
x
si
0≤x ≤2
F (x) =
 4
1
si x > 2
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
48
4.2. MOMENTS D’UNE VARIABLE ALÉATOIRE À DENSITÉ
Exemple 4.4. Supposins que X soit une variable aléatoire continue dont la densité est
¢
½ ¡
si 0 ≤ x ≤ 2
C 4x − x 2
f (x) =
0
sinon
Quelle est la valeur de C ? Que vaut P {X > 1} ?
Solution. C = 3/8 et P {X > 1} = 1/2 .
Exemple 4.5. La durée de fonctionnement d’un ordinateur avant sa première panne est une
variable aléatoire continue de densité donnée par
½
f (x) =
λe −x/100
0
si x ≥ 0
si x < 0
(a) Quelle est la valeur de λ ?
(b) Quelle est la probabilité que cette durée de fonctionnement soit comprise entre 50 et 150
heures ?
(c) Quelle est la probabilité que l’ordinateur fonctionne moins de 100 heures ?
Solution. (a) λ = 1/100
(b) P {50 < X < 150} ≈ 0.384
(c) P {X > 100} ≈ 0.633 .
Exemple 4.6. La durée de vie d’un certain type de processeur d’ordinateur est une variable
aléatoire de densité donnée par
½
f (x) =
0
100/x 2
si
si
x ≤ 100
x > 100
Quelle est la probabilité qu’exactement 2 des 5 processeurs de ce type doivent être remplacées lors des 150 premières heures de service de d’ordinateur ? On admettra que les événements E i «le i-ème processeur doit être remplacée avant la 150-ième heure de service»,
i = 1, 2, 3, 4, 5, sont indépendants.
Solution.
on a
R 150
R 150
P (E i ) = 0 f (x) d x = 100 0 x −2 d x = 1/3.
L’indépendance des E i permet alors d’écrire la probabilité cherchée
¡5¢ ¡ 1 ¢2 ¡ 2 ¢3 80
= 243 .
2 3
3
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.3. LA LOI UNIFORME
49
Lois continues usuelles
SECTION 4.3
La loi uniforme
Densité : une variable aléatoire continue X sui la loi uniforme sur l’intervalle [a ;b] si elle
admet pour densité la fonctionf définie sur R par
Notation
X ∼ U (a, b)
Paramètre
a et b
Valeurs Possibles
(a, b)
1
I (a,b) (x)
Probabiliés
f (x) =
b−a
a +b
Espérance
E (X ) =
2
(b − a)2
Variance
V ar (X ) =
12
etb − eta
Fonction génératrice des moments M X (t ) = g (t ) =
t (b − a)
Exemple 4.7. Trouver la fonction de répartion de f (x) =
1
I [a,b] (x) .
b−a
Solution.


 0x − a
F (x) = P {X ≤ x} =

 b−a
1
si
x≤a
si
a <x <b
si
x ≥b
Densité et fonction de répartion de la loi uniforme U (a, b)
Exemple 4.8. Soit X ∼ U (0, 10) , calculer les probabilités suivantes : P {X < 3}, P {X > 6}, P {3 <
X < 8}.
3
6
4
1
Solution. P {X < 3} = 10
, P {X > 6} = 1 − P {X ≤ 6} = 1 − 10
= 10
, P {3 < X < 8} = 8−3
10 = 2 .
Exemple 4.9. A partir de 7 heures, les bus passent toutes les 15 minutes à un arrêt donné. Ils
passent donc à 7 h 00, 7 h 15, 7 h 30 et ainsi de suite. Un usager se présente entre 7 h 00 et 7
h 30 à cet arrêt, l’heure exacte de son arrivée étant une variable uniforme sur cette période.
Trouver la probabilité qu’il doive attendre moins de 5 minutes, puis plus de 10 minutes.
Solution. Désignons par A’le nombre de minutes s’ecoulant à partir de 7 h 00 jusqu’à l’arrivée de l’usager. X est une variable uniforme sur (0, 30), d’une part. D’autre part, l’attente
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
50
4.4. LA LOI EXPONENTIELLE
n’est inférieure à 5 minutes que si l’usager arrive entre 7 h l0 et 7 h l5 ou entre 7 h 25 et 7 h 30.
La probabilité d’attendre moins de 5 minutes est ainsi
Z
P {10 < X < 15} + P {25 < X < 30} =
15
10
1
dx +
30
Z
30
25
1
1
dx =
30
3
De même, il n’attendra plus de 10 minutes que s’il arrive entre 7 h 00 et 7 h 05 ou entre 7 h 15
et 7 h 20, ce qui livre la probabilité de cet événement
1
P {0 < X < 5} + P {15 < X < 20} = .
3
SECTION 4.4
La loi exponentielle
Modèle : on se place dans un phénomène d’attente et on s’intéresse à la variable aléatoire
qui représente le temps d’attente entre deux événements successifs ou encore une durée de
vie.
Notation
X ∼ E (λ) , λ > 0
Paramètre
λ, λ > 0
Valeurs Possibles
[0, ∞]
Probabiliés
f (x) = λe −λx I [0,+∞] (x)
1
Espérance
E (X ) =
λ
1
Variance
V ar (X ) = 2
λ
λ
Fonction génératrice des moments M X (t ) = g (t ) =
λ−t
Exemple 4.10. Au Japon le temps d’attente moyen entre deux trains est de 5 minutes. Quelle
est la probabilité que vous attendez plus de 7 minutes ?
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.5. LA LOI NORMALE
51
Solution. La variable aléatoire X qui représente le temps d’attente (en minutes) entre deux
trains peut être modélisée par une loi exponentielle d’espérance égale à 5, c’est à dire de
paramètre λ = 1/5 et donc X ∼ E (1/5).
Z ∞
£
¤∞
1 −x/5
P {X > 7} =
e
d x = −e −x/5 7 = e −7/5 ≈ 0.247
7 5
Exemple 4.11. On suppose que la durée d’une conversation téléphonique, mesurée en minutes, est une variable aléatoire exponentielle de paramètre λ = 1/10. Vous arrivez à une
cabine téléphonique et quelqu’un passe juste devant vous. Avec quelle probabilité devrezvous attendre
• plus de 10 minutes ?
• entre 10 et 20 minutes ?
Solution. X désignera la durée de la conversation de la personne qui vous a devancé. Les
probabilités cherchées seront respectivement :
Z ∞
£
¤∞
1 −x/10
e
d x = −e −x/10 10 = e −1 ≈ 0.368
P {X > 10} =
10 10
Z 20
£
¤20
1 −x/10
P {10 < X < 20} =
e
d x = −e −x/10 10 = e −1 − e −2 ≈ 0.233
10 10
Theoreme 4.12. Soit X une variable aléatoire suivant une loi exponentielle de paramètre λ.
Alors sa fonction de répartition est :
³
´
F (x) = 1 − e −λx I [0,∞) (x)
Theoreme 4.13. (Absence de mémoire) Soit X une variable aléatoire suivant une loi exponentielle de paramètre λ. Alors pour tout couple (x, t ) de réels positifs, nous avons
P (X > x + t |X > x) = P (X > t ).
Autrement dit , la loi exponentielle n’a pas de mémoire.
SECTION 4.5
La loi normale
La loi normale est une des principales distributions de probabilité. Elle a été introduite par le mathématicien Abraham de Moivre en 1733 et utilisée par lui afin
d’approcher des probabilités associées à des variables aléatoires binomiales possédant un paramètre n très grand. Cette loi a été mise en évidence par Gauss au
xixe siècle et permet de modéliser de nombreuses études biométriques. Sa densité de probabilité dessine une courbe dite
en cloche ou courbe de Gauss.
¡ courbe
¢
Notation
X ∼ N µ, σ2
Paramètre
µ, σ
Valeurs Possibles
R
³
´
1 x−µ 2
−2 σ
1
p e
σ 2π
Densité
f (x) =
Espérance
Variance
E (X ) = µ
V ar (X ) = σ2
Fonction génératrice des moments
σ2 t 2
M X (t ) = g (t ) = exp µt +
2
µ
Introduction aux Probabilités
¶
El-Bachir Yallaoui–UFAS
52
4.5. LA LOI NORMALE
Cette fonction est certainement l’un des exemples les plus importants de loi de probabilité
continue.
Les deux diagrammes ci-dessous montrent les variations de f en fonction de µ et de σ. On
observe en particulier, que ces courbes en forme de cloche sont symétriques par rapport à
x =µ.
Exemple 4.14. Si X ∼ N (6, 1) and Y = 3X 2 , calculer :
(a) E (Y )
(b) P {Y > 120}
Solution. On¡ a : ¢
¡ ¢
£
¤
(a) E (Y ) = E 3X 2 = 3E X 2 = 3 V ar (X ) + E 2 (X ) = 3 [1 + 36] = 111.
p ª
© 2
ª
© 2
ª
©
(b) P© {Y > 120}
p = P 3X
ª > 120 = P 3X > 120 = P X > 40
= P X − 6 > 40 − 6 = P {Z > 0.3246} = 0.3727
La loi normale centrée réduite
Z ∼ N (0, 1) est la loi normale centrée réduite sa densité est donc :
1
f (x) = p1 e − 2 x
2
2π
qui a pour moyenne µ = 0 et pour variance σ2 = 1.
On peut voir ci-dessous le graphique de cette loi de probabilité.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.5. LA LOI NORMALE
53
Remarque. On remarque que pour −1 < t < 1, on obtient 68, 2% de l’aire située en dessous
de la courbe, et que pour −2 < t < 2 on obtient 95, 4% de l’aire située en dessous de la courbe.
Remarque. Il n’existe pas d’expression analytique simple pour une primitive de la f onction
2
e −x . N ous admettrons le résultat suivant :
Z +∞
p
2
e −x /2 d x = 2π
−∞
ce q ui assure au moins que la densité de la loi normale centrée réduite est bien une densité.
Définition 4.15. Si Z ∼ N (0, 1) on dénote la fonction de répartition de Z par Φ (·) , donc on
a
Z x
Φ (x) = P (Z ≤ x) = p1
2π −∞
1
2
e− 2 t d t
Fonction de répartition Φ d’une loi normale N (0, 1)
Dans la pratique, pour calculer des probabilités, on dispose d’une table pour la loi normale
centrée réduite. Pour les autres lois normales, on se ramènera à la loi normale centrée réduite
X −µ
.
moyennant le changement de variable Z =
σ
¡
¢
2
Si X ∼ N µ, σ et Z ∼ N (0, 1) on utilise la formule suivante :
¶
µ
¶
µ
b −µ
b −µ
P (X ≤ b) = P Z ≤
=Φ
σ
σ
³a −µ´
P (X > a) = 1 − P (X ≤ a) = 1 − Φ
µ
¶ σ µ
¶
³a −µ´
a −µ
b −µ
b −µ
P (a ≤ X ≤ b) = P
≤Z ≤
=Φ
−Φ
σ
σ
σ
σ
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
54
4.5. LA LOI NORMALE
Propriétés 4.16. On a les propriétes suivantes :
1. P (Z ≤ x) = Φ (x).
2. Si x > 0, Φ (−x) = P (Z ≤ −x) = 1 − P (Z > x) = 1 − Φ (x).
¢
¡
3. Si Z ∼ N (0, 1) alors X = σZ + µ ∼ N µ, σ2 .
¢
¡
X −µ
4. Si X ∼ N µ, σ2 alors Z =
∼ N (0, 1).
σ
³a −µ´
¢
¡
5. Si X ∼ N µ, σ2 alors F X (a) = P (X ≤ a) = Φ
.
µ
¶σ ³
¢
¡
b −µ
a −µ´
−Φ
.
6. Si X ∼ N µ, σ2 alors P (a ≤ X ≤ b) = Φ
σ
σ
¢
¢
¡
¡
7. Si X ∼ N µ, σ2 alors Y = a X + b ∼ N aµ + b, a 2 σ2 .
µ
¶
n
n
n
¢
¡
P
P
P
2
2
8. Si X i ∼ N µi , σi sont indépendants alors, S n = X i ∼ N
µi , σi .
i =1
i =1
i =1
n
¢
¢
¡
P
9. Si X i ∼ N µ, σ2 , i = 1, 2, · · · , n sont i.i.d. alors, S n = X i ∼ N nµ, nσ2 .
¡
i =1
µ
¶
n
Sn 1 P
σ2
=
X i ∼ N µ,
.
10. Si X i ∼ N µ, σ , i = 1, 2, · · · , n sont i.i.d. alors,
n
n i =1
n
¡
2
¢
Exemple 4.17. If X ∼ N (3; 16) calculer :
(a) P (X > 11)
(b) P (X < −1)
Solution. On a :
(a)
(b)
(c)
(c) P (2 < X < 7)
¶
X − 3 11 − 3
P (X > 11) = P
<
= P (Z < 2) = 0.9772
4
µ 4
¶
X − 3 −1 − 3
P (X < −1) = P
<
= P (Z < −1) = 0.8413
4
µ4
¶
2−3 X −3 7−3
<
<
P (2 < X < 7) = P
= P (−0.25 < Z < 1) = 0.44
4
4
4
µ
Exemple 4.18. II est courant d’admettre qu’un examen est bien construit (dans le sens où
il permet de construire une fourchette serrée et fiable pour la note d’un candidat) si la répartition des scores obtenus par les participants se rapproche de la densité d’une variable
normale. En d’autres mots, cette répartition devrait affecter la forme en cloche des densités
normales. L’enseignant utilise alors les scores pour évaluer les paramètres µ et σ2 puis assigne souvent des notes selon le principe que voici : ceux dont le score est supérieur à µ + σ
reçoivent la note A ; ceux dont le score est compris entre µ et µ + σ reçoivent B ; ceux dont
le score est entre µ − σ et µ reçoivent C, tandis que ceux qui tombent entre µ − 2σ et µ − 2σ
reçoivent D. En dessous de µ − 2σ la note est F. Il s’agit d’une espèce d’évaluation «à échelle
mobile» basée sur des divisions fixes de la courbe de répartition. Quelle est la distribution
des notes ?
Solution. On aura :
¡
¢
P X > µ + σ = P (Z > 1) = 1 − Φ (1) = 0.1587
¡
¢
P µ < X < µ + σ = P (0 < Z < 1) = Φ (1) − Φ (0) = 0.3413
¡
¢
P µ − σ < X < µ = P (−1 < Z < 0) = Φ (0) − Φ (−1) = 0.3413
¡
¢
P µ − 2σ < X < µ − σ = P (−2 < Z < 1) = Φ (1) − Φ (−2) = 0.1359
¡
¢
P X < µ − 2σ = P (Z < −2) = Φ (−2) = 0.0228
II en résulte que 16% des candidats recevront la note A, 34% recevront B, autant auront C,
14% recevant D et 2% F.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.5. LA LOI NORMALE
55
P (Z ≤ x) = Φ(x), Z ∼ N (0, 1)
Deuxième décimale de x
0.03 0.04 0.05 0.06
x
0.00
0.01
0.02
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.5000
0.5040
0.5080
0.5120
0.5160
0.5199
0.5398
0.5438
0.5478
0.5517
0.5557
0.5793
0.5832
0.5871
0.5910
0.5948
0.6179
0.6217
0.6255
0.6293
0.6554
0.6591
0.6628
0.6915
0.6950
0.6985
0.7257
0.7291
0.7580
0.7611
0.7881
0.07
0.08
0.09
0.5239
0.5279
0.5319
0.5359
0.5596
0.5636
0.5675
0.5714
0.5753
0.5987
0.6026
0.6064
0.6103
0.6141
0.6331
0.6368
0.6406
0.6443
0.6480
0.6517
0.6664
0.6700
0.6736
0.6772
0.6808
0.6844
0.6879
0.7019
0.7054
0.7088
0.7123
0.7157
0.7190
0.7224
0.7324
0.7357
0.7389
0.7422
0.7454
0.7486
0.7517
0.7549
0.7642
0.7673
0.7704
0.7734
0.7764
0.7794
0.7823
0.7852
0.7910
0.7939
0.7967
0.7995
0.8023
0.8051
0.8078
0.8106
0.8133
0.8159
0.8186
0.8212
0.8238
0.8264
0.8289
0.8315
0.8340
0.8365
0.8389
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
0.8413
0.8438
0.8461
0.8485
0.8508
0.8531
0.8554
0.8577
0.8599
0.8621
0.8643
0.8665
0.8686
0.8708
0.8729
0.8749
0.8770
0.8790
0.8810
0.8830
0.8849
0.8869
0.8888
0.8907
0.8925
0.8944
0.8962
0.8980
0.8997
0.9015
0.9032
0.9049
0.9066
0.9082
0.9099
0.9115
0.9131
0.9147
0.9162
0.9177
0.9192
0.9207
0.9222
0.9236
0.9251
0.9265
0.9279
0.9292
0.9306
0.9319
0.9332
0.9345
0.9357
0.9370
0.9382
0.9394
0.9406
0.9418
0.9429
0.9441
0.9452
0.9463
0.9474
0.9484
0.9495
0.9505
0.9515
0.9525
0.9535
0.9545
0.9554
0.9564
0.9573
0.9582
0.9591
0.9599
0.9608
0.9616
0.9625
0.9633
0.9641
0.9649
0.9656
0.9664
0.9671
0.9678
0.9686
0.9693
0.9699
0.9706
0.9713
0.9719
0.9726
0.9732
0.9738
0.9744
0.9750
0.9756
0.9761
0.9767
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
0.9772
0.9778
0.9783
0.9788
0.9793
0.9798
0.9803
0.9808
0.9812
0.9817
0.9821
0.9826
0.9830
0.9834
0.9838
0.9842
0.9846
0.9850
0.9854
0.9857
0.9861
0.9864
0.9868
0.9871
0.9875
0.9878
0.9881
0.9884
0.9887
0.9890
0.9893
0.9896
0.9898
0.9901
0.9904
0.9906
0.9909
0.9911
0.9913
0.9916
0.9918
0.9920
0.9922
0.9925
0.9927
0.9929
0.9931
0.9932
0.9934
0.9936
0.9938
0.9940
0.9941
0.9943
0.9945
0.9946
0.9948
0.9949
0.9951
0.9952
0.9953
0.9955
0.9956
0.9957
0.9959
0.9960
0.9961
0.9962
0.9963
0.9964
0.9965
0.9966
0.9967
0.9968
0.9969
0.9970
0.9971
0.9972
0.9973
0.9974
0.9974
0.9975
0.9976
0.9977
0.9977
0.9978
0.9979
0.9979
0.9980
0.9981
0.9981
0.9982
0.9982
0.9983
0.9984
0.9984
0.9985
0.9985
0.9986
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9987
0.9987
0.9988
0.9988
0.9989
0.9989
0.9989
0.9990
0.9990
0.9990
0.9991
0.9991
0.9991
0.9992
0.9992
0.9992
0.9992
0.9993
0.9993
0.9993
0.9993
0.9994
0.9994
0.9994
0.9994
0.9994
0.9995
0.9995
0.9995
0.9995
0.9995
0.9995
0.9996
0.9996
0.9996
0.9996
0.9996
0.9996
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9998
∗
Pour x = 3.50, la probabilité est supérieure ou égale à 0.9998.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
56
4.6. APPROXIMATION PAR LA LOI NORMALE
Exemple 4.19. Lors d’un procès en attribution de paternité, un expert témoigne que la durée
de la grossesse, en jours, est de distribution approximativement normale avec paramètres
µ = 270 et σ2 = 100. L’un des pères putatifs est en mesure de prouver son absence du pays
pendant une période s’étendant entre le 290-ième et le 240-ième jour précédant l’accouchement. Quelle est la probabilité que la conception de l’enfant ait eu lieu plus de 290 jours
avant sa naissance ou moins de 240 jours avant ?
Solution. Soit X la durée de la grossesse et admettons que le père putatif soit bien le géniteur.
La probabilité cherchée est alors
P (X > 290 ou X < 240) = P (X > 290) + P (X < 240)
¶
µ
¶
µ
X − 270
X − 270
> 2 +P
< −3
=P
10
10
= 1 − Φ (2) + 1 − Φ (3)
= 0.0241
Exemple 4.20. On désire envoyer un signal binaire - c’est-à-dire valant 0 ou 1 - par câble
électrique d’un point A à un point B. Cependant, la transmission est affectée par des perturbations, dites bruit. Aussi émet-on un signal d’intensité 2 lorsqu’on veut communiquer 1 el
d’intensité −2 lorsqu’on veut indiquer 0. Si on désigne par x (où x = ±2) la valeur émise en
A et par R la valeur enregistrée en B , on aura R = x + N où N représente l’erreur due au bruit
du canal de transmission. Le décodage du signal en B obéit à la règle suivante :
R > 0.5 est interprété comme signifiant 1
R < 0.5 est interprété comme signifiant 0.
Solution. Le bruit N du canal est souvent de distribution normale. On supposera ici que sa
répartition est normale centrée réduite. Deux types d’erreurs peuvent survenir : un signal 1
peut être faussement compris comme un 0, ou l’inverse. Le premier type d’erreur sera observé si le signal est 1 et 2 + N < 0.5. Le second le sera lorsque le signal est 0 et −2 + N > 0, 5.
Ainsi,
P {erreur \ le message est 1} = P {N < −1.5} = 1 − Φ (1.5) = 0.0668
et
P {erreur \ le message est 0} = P {N > 2.5} = 1 − Φ (1.5) = 0.0062.
SECTION 4.6
Approximation par la loi normale
Approximation de la loi binomiale par¡une loi normale
:
¢
Pour n ≥ 30, npq ≥ 3, la loi normale N np, npq constitue une bonne approximation de la
loi binomiale B(n, p).
On peut constater cette propriété sur le diagramme suivant où l’on a choisi la distribution
binômiale B (8, 1/2) .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.6. APPROXIMATION PAR LA LOI NORMALE
57
Exemple 4.21. Soit X la variable aléatoire comptant le nombre d’occurrences de pile lors
d’une série de 40 jets. On veut calculer P {X = 20} par approximation normale puis comparer
le résultat à la valeur exacte.
Solution. Comme X est une variable discrète tandis qu’une variable normale est continue,
la meilleure approximation de la probabilité cherchée sera
P (X = 20) = P (19.5 < X < 20.5)
¶
µ
19.5 − 20 X − 20 20.5 − 20
< p
< p
=P
p
10
10
10
= P (−0.16 < Z < 0.16)
≈ Φ (0.16) − Φ (−0.16) = 0.1272
Le resultat exact est
µ ¶
¡40¢ 1 40
P (X = 20) = 20
≈ 0.1268
2
Exemple 4.22. La taille idéale pour une classe de première année dans un collège donné
est de 150 étudiants. La politique de ce collège est d’admettre 450 étudiants et est basée sur
la constatation expérimentale que 30% seulement des étudiants admis suivront vraiment le
cours. Quelle est la probabilité que le collège se retrouve avec une première classe de plus de
150 étudiants lors d’une année donnée ?
Solution. On désigne par X le nombre d’étudiants qui suivent effectivement le cours. X ∼
B (450, )et l’approximation normale nous donne
X − (450) (0.3)
151 − (450) (0.3)
P {X ≥ 151} = P p
≥p
(450) (0.3) (0.7)
(450) (0.3) (0.7)
= P {Z ≥ 1.59} ≈ 1 − Φ (1.59) = 0.0559
½
¾
Ainsi, dans moins de 6% des cas seulement la première année aura un effectif supérieur à
l’optimum.
Approximation de la loi de Poisson par une loi normale :
Pour λ ≥ 20 la loi normale N (λ, λ) constitue une bonne approximation de la loi de Poisson
P (λ).
Exemple 4.23. Si X ∼ P (36) comparer P (X ≥ 10) et son approximation par la normale.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
58
4.6. APPROXIMATION PAR LA LOI NORMALE
Solution. P (X ≥ 30) = 1 − P (X ≤ 29) = 1 −
29
P
k=0
e −36
L’approximation est X ≈ Y ∼ N (36, 36) et donc
(36)k
≈ 0.862
k!
P (X ≥ 30) ≈ P (Y ≥ 30)
¶
µ
Y − 36 30 − 36
=P
≥
6
6
= P (Z ≥ −1)
= 1 − Φ (1) ≈ 0.841
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.7. EXERCICES
59
SECTION 4.7
Exercices
Exercice 4.1. Soit X une v.a. ayant la densité f définie sur [0, 2] de la façon suivante :

si x ∈ [0, 1] ,
 x
2 − x si x ∈ [1, 2]
f (x) =

0
ailleurs
1. Vérifier que f est bien une densité et la représenter.
2. Calculer la fonction de répartition de X .
3. Calculer l’ésprance et la variance de X .
Exercice 4.2. Soit X une variable aléatoire de densité
f (t ) =
c
I [1,∞) (x) .
x4
1. Déterminer c pour que f soit bien une densité. Représenter f .
2. Calculer la fonction de répartition F et la représenter.
3. Déterminer la médiane de X , c’est-à-dire la valeur m telle que P (X > m) = 1/2.
4. Calculer l’espérance de X et sa variance.
5. Déterminer le moment d’ordre 3 de X .
Exercice 4.3. Soit f définie par :
½
f (x) =
ax (1 − x)
0
si x ∈ [0, 1] ,
sinon,
1. Pour quelle valeur de a, f est-elle une densité de probabilité ?
2. Calculer la fonction de répartition de X .
3. Calculer E (X ) et V ar (X ).
Exercice 4.4. Soit X une varibale aléatoire dont la densité f est définie par :
½
a + bx 2 si x ∈ [0, 1] ,
f (x) =
0
sinon,
Pour quelle valeur de a et b on a E (X ) = 3/5 ?
Exercice 4.5. Soit X une variable aléatoire de densité f (x) = 3x 2 I [0,1] (x).
1. Calculer E (X ) et V ar (X ).
¡
¢
2. Calculer M X (t ) = E e t X .
3. Verifer vos résultats de E (X ) et V ar (X ) en utilisant M X (t ) .
4. Si Y = 3X + 1, calculer E (Y ) et V ar (Y ).
Exercice 4.6. Soit X une variable aléatoire de densité f (x) = c(x 2 + x) sur l’intervalle [0, 1].
1. Déterminer c pour que f soit effectivement une densité.
2. Calculer la fonction de répartition F de X . Donner l’allure de F .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
60
4.7. EXERCICES
3. Calculer l’espérance et l’écart-type de X .
Exercice 4.7. (Loi de Cauchy) On dit que X suit une loi de Cauchy de paramètre 1 si X admet
pour densité f avec :
c
f (x) =
,x ∈ R
1 + x2
1. Déterminer c pour que f soit bien une densité.
2. Calculer et représenter la fonction de répartition F de X .
3. Montrer que X n’a pas d’espérance.
4. Soit Y ∼ U (−π, +π) , quelle est la loi de V = t anY .
¡ ¢
Exercice 4.8. Soit X une variable aléatoire telle que E X 2 < +∞. Montrer que pour tout réel
a, on a l’inégalité :
£
¤
E (X − a)2 ≥ V ar (X ) .
Exercice 4.9. Soit X ∼ U (0, 1) une variable aléatoire qui suit une loi uniforme sur le segment
[0, 1].
1. Calculer la fonction génératrice des moments FGM de X .
2. Calculer sa moyenne E [X ] et sa variance V ar (X ).
3. De façon générale, calculer m k = E [X k ], moment d’ordre k de X .
4. Soit a et b deux réels tels que a < b. Comment définiriez-vous la densité d’une variable
aléatoire X ∼ U (0, 1) ?
5. Donner alors E [X ],V ar (X ) et m k = E [X k ].
Exercice 4.10. (Loi exponentielle) Soit λ > 0 fixé et X ∼ E (λ) une variable aléatoire suivant
une loi exponentielle de paramètre λ. Montrer que :
1. Vérifier que f (x) = λe −λx I [0,∞) (x) est bien une densité.
¡
¢
2. La fonction de répartion est F (x) = 1 − e −λx I [0,∞) (x) .
¡
¢
λ
3. La fonction génératrice de moments est M X (t ) = E e t X =
.
λ−t
¡ k¢
4. Les moments m k = E X = k!/λk .
5. Calculer espérance et variance de X .
6. Montrer que P (X > x + t |X > x) = P (X > t ) .
7. La durée de vie T en années d’une télévision suit une loi de densité
f (t ) = 81 e −t /8 I [0,∞) (t ) .
(a) Quelle est la durée de vie moyenne d’une telle télévision ? Et l’écart-type de cette
durée de vie ?
(b) Calculer la probabilité que votre télévision ait une durée de vie supérieure à 8 ans.
Exercice 4.11. Un appareil comporte six composants de même modèle, tous nécessaires à
son fonctionnement. La densité de la durée de vie T d’un composant est donnée par
1
f (t ) = 16
t e −t /4 I [0,∞) (t )
l’unité de temps étant l’année.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.7. EXERCICES
61
1. Vérifier que f est bien une densité de probabilité.
2. Calculer E [T ] et V ar (T ).
3. Quelle est la probabilité qu’un composant fonctionne durant au moins six ans à partir
de sa mise en marche ?
4. En déduire la probabilité que l’appareil fonctionne durant au moins six ans à partir de
sa mise en marche.
Exercice 4.12. Soit T la variable aléatoire représentant le temps d’attente d’un bus. On suppose que T est de loi exponentielle de paramètre 3 (3 étant le taux par heure), de
f (t ) = 3e −3t I [0,∞) (t ) .
1. Quelle est la probabilité d’attendre le bus au moins 20 minutes ?
2. Sachant que nous avons déja attendu le bus 20 minutes, quelle est la probabilité d’attendre 20 minutes supplémentaires avant que le bus n’arrive ?
Exercice 4.13. Dans une forêt la durée de vie moyenne d’un chêne est estimée à 250 ans. Soit
X la durée de vie d’un chêne pris au hasard.
1. Quelle loi permet de modéliser X ? Pour quelle(s) valeur(s) de paramètre(s) ?
2. Un chêne grandit jusqu’à 200 ans. Quelle est la probabilité qu’un chêne pris au hasard
ait terminé sa croissance ?
3. Quelle est la probabilité qu’un chêne pris au hasard ait une durée de vie comprise entre
100 et 200 ans ?
Exercice 4.14. Une usine fabrique 9000 unités d’un certains produit en un temps . Pour cette
même période, la demande, en milliers d’unités, concernant ce produit peut être considérée
comme une variable aléatoire suivant une loi exponentielle de paramètre λ = 1/3.
1. Quelle est la probabilité que la demande dépasse la production ?
2. Quelle devrait être la production pour que cette demande ne dépasse pas 4% ?
Exercice 4.15. Soit Z ∼ N (0, 1).
1. Calculer : P (Z < 2.04) , P (Z < −1.95) , P (−1 < Z < −2) , P (−1 < Z < 2).
2. Déterminer z tels que : P (Z < t ) = 0.8283, P (Z < t ) = 0.1112, P (0 < Z < t ) = 0.4878.
Exercice 4.16. On considère une variable aléatoire X de loi normale N (0, 1).
1. Montrer que, pour tout n ∈ N , on a : E [X n + 2] = (n + 1)E [X n ] .
2. Que vaut E [X 2 ] ? Déduire de (1) la valeur de E [X 4 ].
3. Que vaut E [X 3 ] ? Que vaut E [X 2n+1 ] ?
4. Quelle est la loi de Y = 2X + 1 ? Déterminer E [Y 4 ]
5. A l’aide de la table de la loi normale, déterminer P (|X | ≥ 2).
6. Que donne l’inégalité de Tchebychev dans ce cas ? Comparer et commenter.
7. Si X ∼ N (7, 16), calculer P (X ≤ 8), P (5 ≤ X ≤ 9) et t tel que P (X > t ) = 0.9.
Exercice 4.17. On estime que la taille des étudiants
¡
¢qui prennent le cours de probabilité à
UFAS est distribuée selon une loi normale N µ, σ2 . On sait qu’un cinquième des élèves
mesurent moins de 1m60 et que 10% des élèves mesurent plus de 1m80.
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
62
4.7. EXERCICES
1. Déterminer µ et σ .
2. Quelle est la proportion de élèves mesurant plus de 1m70 ?
3. Quelle est la proportion de élèves mesurant entre 1m70 et 1m80 ?
Exercice 4.18. Les portes isoplanes ont une hauteur de 2.02m. Quelle est la proportion d’individus susceptibles de s’y cogner la tête dans une population dont la taille est normalement
distribuée avec une moyenne de 1.70m et un écart-type de 10cm.
Exercice 4.19. Une entreprise distribue un certain aliment dans une boîte métallique dont le
poids, après remplissage, est en moyenne de 340 grammes, avec un écart-type de 6 grammes.
1. Quelle est la probabilité qu’une boîte, choisie au hasard dans la production, ait un
poids compris entre 334 et 346 grammes ?
2. Sur une production de 10 000 boîtes, combien auront un poids inférieur à 330
grammes ?
Exercice 4.20. Le diamètre d’une bille est distribué suivant une loi normale de moyenne 1
cm. On sait de plus qu’une bille a une chance sur trois d’avoir un diamètre supérieur à 1.1
cm.
1. Déterminer l’écart-type de cette distribution.
2. Quelle est la probabilité qu’une bille ait un diamètre compris entre 0.2 et 1 cm ?
3. Quelle est la valeur telle que 3/4 des billes aient un diamètre supérieur à cette valeur ?
Exercice 4.21. Une usine fabrique des vis dont 3% ont des défauts.On prélève 1000 vis au
hasard.
1. Quelle est la probabilité d’avoir plus de 50 vis défectueuses ?
2. Quelle est la probabilité d’avoir entre 20 et 40 vis défectueuses ?
3. On veut 1950 vis sans défaut. Par prudence, on en prélève 2000 au hasard. Quelle est la
probabilité d’avoir sufisamment de vis en bon état ?
Exercice 4.22. Le nombre de pannes, par mois, sur une certaine machine, suit une loi de
Poisson de moyenne égale à 3. Un atelier fonctionne avec 12 machines de ce type, indépendantes. En un mois, quelle est la probabilité de constater dans cet atelier
1. plus de 42 pannes ?
2. entre 36 et 45 pannes ?
Exercice 4.23. On jette 180 fois un dé bien équilibré. Calculer la probabilité P pour que la
face 6 sorte
1. entre 29 et 32 fois, bornes incluses.
2. entre 31 et 35 fois, bornes incluses.
Exercice 4.24. On considère 10000 chiffres au hasard. Calculer la probabilité P pour que le
chiffre 3 figure au moins 950 fois.
Exercice 4.25. Soit X une variable aléatoire telle que E (X ) = µ et V ar (X ) = σ2 . Montrer que
¯
©¯
ª 1
P ¯ X − µ¯ ≥ kσ ≤ 2 .
k
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.7. EXERCICES
63
Exercice 4.26. Soient X 1 , X 2 , ..., X n des variables aléatoires indépendantes et identiquement
1 Pn
distribuées d’espérance µ et de variance σ2 . On pose X =
X i . Montrer que
n i =1
¸
·
³ ´
³
´
³ ´
2
Pn
= (n − 1) σ2 .
E X = µ , V ar X = σ2 /n et E
i =1 X i − X
Exercice 4.27. Soit X i ∼ U (0, 1) , i = 1, 2 . . . , 20 i.i.d. et soit X = X 1 + X 2 + · · · + X 20 . Quelle est
est l ’approximation de P (X ≥ 8).
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
64
4.7. EXERCICES
Annexe A. Théorèmes Limites
Dans cette section, nous aborderons brièvement les deux des principaux résultats de la probabilité : la Loi des grands nombres (LGN) et le théorème central limite (TCL). Les deux
sont sur les sommes de variables aléatoires. Soient X 1 , ..., X n ,une suite de variables aléatoires (i.i.d.) indépendantes et identiquement distribuées, d’espérance E (X i ) = µ < ∞ et de
variance V ar (X i ) = σ2 < ∞. Pour chaque n on défini,
Sn =
n
X
X i = X 1 + ... + X n
i =1
Par les règles pour espérance et la variance, nous savons que
E (S n ) = nµ et V ar (S n ) = nσ2
£
¤
Theoreme 5.1. En outre, si M X i (t ) = E e t X i = M (t ) est la FGM (fonction génératrice des
moments) de X i , alors la FGM de S n est simplement donnée par
M S n (t ) = [M (t )]n
Démonstration.
£
¤
£
¤
M S n (t ) = E e t S n = E e t (X 1 +...+X n )
£
¤
= E e t X1 · e t X2 · · · · · e t Xn
£
¤ £
¤
£
¤
= E e t X1 · E e t X2 · · · · · E e t Xn
= [M (t )]n
Theoreme 5.2. Nous énumérons ici quelques-unes des principales propriétés de la FGM.
£
¤ P
1. M X (t ) = E e t X = k e t k P (X = k) si X est une v.a. discrète.
Z
£ tX ¤
2. M X (t ) = E e
= e t x f (x) d x si X est une v.a. continue.
x
¡ k¢
(k)
3. m k = E X = M X (0).
4. X , Y indendant =⇒ M X +Y (t ) = M X (t ) M Y (t ) .
5. Si X i sont indépendants alors M X i +···+X n (t ) = M X 1 (t ) M X 2 (t ) · · · M X n (t ) .
£
¤n
6. Si X i sont i.i.d. alors M X i +···+X n (t ) = M X 1 (t ) .
A1 : Loi Faible des Grands Nombres
La lois des grands nombres indique à peu près ce que S n /n est proche de µ, quand n est
grand. Voici un énoncé plus précis.
Theoreme 5.3. (Loi Faible des Grands Nombres) Si X 1 , ..., X n sont indépendantes et identiquement distribuées d’ésperance µ, alors pout tout ε > 0
¯
µ¯
¶
¯
¯ Sn
lim P ¯¯ − µ¯¯ ≥ ε = 0
n→∞
n
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.7. EXERCICES
65
Démonstration. Inégalité de Chebyshev dit que si ε > 0 on a
¯
¡¯
¢ E (X )
P ¯ X − µ¯ ≥ ε ≤
ε
Si on remplace X par
Sn
on aura donc
n
¶
Sn
¯
µ¯
¶ V ar
−µ
¯ Sn
¯
n
¯
¯
P ¯ − µ¯ ≥ a ≤
n
ε2
V ar (S n )
=
n 2 ε2
σ2
nσ2
= 2 2= 2
n ε
nε
µ
Quand n → ∞, la quatité
σ2
→ 0 et donc
nε2
¯
¶
µ¯
¯
¯ Sn
¯
¯
lim P ¯ − µ¯ ≥ ε = 0.
n→∞
n
A2 : Loi Fote des Grands Nombres
Il ya aussi une loi forte des grands nombres, ce qui implique la loi faible, mais il est plus
difficile à prouver. Elle déclare ce qui suit :
Theoreme 5.4. (Loi Forte des Grands Nombres) Si X 1 , ..., X n sont indépendantes et identiquement distribuées d’ésperance µ,
µ
¶
Sn
P lim
= µ = 1.
n→∞ n
A3 : Théorème Cental Limite
Theoreme 5.5. Soit X 1 , ..., X n ,une suite de variables aléatoires indépendantes ayant la même
loi de distribution, d’espérance µ d’écart-type σ.
µ
¶
S n − nµ
lim P p
≤ x = Φ (x)
n→∞
nσ
Remarque. Grosso modo, le théorème central limite dit que dans toute suite d’épreuves répétées la moyenne d’échantillonnage centrée réduite Zn approche la courbe normale centrée réduite Z ∼ N (0, 1), quand le nombre d’épreuves augmente.
S n − nµ
'Z
p
nσ
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
66
4.7. EXERCICES
Remarque. Par consequent on a
¶
S n − nµ
lim P a ≤ p
≤ b = Φ (b) − Φ (a)
n→∞
nσ
µ
Exemple 5.6. On lance 10 dés équilibrés. On cherche la probabilité que la somme des dix
résultats soit comprise entre 30 et 40.
Solution. Soit X i le résultat montré par le i-ème dé, i = 1, 2, . . . , 10. On a E (X i ) =
V ar (X i ) = 35
on obtient par application du théorème central limite
12
7
2
et
)
P10
40 − 35
30 − 35
i =1 X i − 35
P 30 ≤
≤ p
≤p
X i ≤ 40 = P p
350/12
350/12
350/12
i =1
n p
o
p
= P − 6/7 ≤ Z ≤ 6/7
´
³p
≈ 2Φ 6/7 − 1
(
)
10
X
(
≈ 0.65
Exemple 5.7. Soient X i , i = 1, ..., 10 des variables
©P aléatoires
ª uniformes sur l’intervalle (0, 1).
On cherche à évaluer approximativement P 10
X
>
6
.
i =1 i
1
Solution. Comme E (X i ) = 21 et V ar (X i ) = 12
, le théorème central limite nous donne
(
P
10
X
i =1
( P10
)
Xi > 6 = P
i =1 X i
−5
p
10/12
6−5
>p
10/12
)
= P (Z > 1.2)
≈ 1 − Φ (1.2) ≈ 1.6
ce qui signifie que 16 fois sur 100 seulement, en moyenne, la somme
à 6.
Introduction aux Probabilités
P10
i =1 X i
sera supérieure
El-Bachir Yallaoui–UFAS
4.7. EXERCICES
67
Annexe B. Résumé
1. Principe Fondamental de l’Analyse Combinatoire : Si une situation comporte p
étapes offrant respectivement n 1 , n 2 , n 3 , · · · , n p possibilités alors le nombre total d’issues est :
n1 × n2 × n3 × · · · × n p
2. Permutations sans répititions : il y a n! permutations (sans répétition) de n éléments.
3. Permutations avec répétition d’objets discernables : le nombre de permutations de
n éléments avec n 1 , n 2 , . . . , n k répétitions, avec n 1 + n 2 + . . . + n k = n , est égal à :
n!
n 1 !n 2 ! . . . n k !
4. Arrangements sans répétition : Le nombre d’arrangements sans répétition de k éléments parmis n est égal à
A kn = n (n − 1) (n − k + 1) =
n!
.
(n − k)!
5. Arrangements avec répétition : Le nombre d’arrangements avec répétition de k éléments parmis n est égal à n k .
6. Combinaisons sans répétition : Le nombre de combinaisons de r (0 ≤ k ≤ n) éléments
parmis n est :
C nk =
¡n ¢
k
=
A kn
k!
=
n (n − 1) (n − 2) · · · (n − k + 1)
n!
=
k!
(n − k)!k!
7. Propriétées des coefficients de binôme.
¡ ¢ ¡ n ¢
• nk = n−k
.
¡n ¢ ¡n ¢
¡ ¢ ¡ n ¢
= n.
• 0 = n = 1, and n1 = n−1
¡n ¢ ¡n−1¢ ¡n−1¢
• k = k−1 + k for 1 ≤ k ≤ n − 1.
8. Formule du binôme de Newton : Pour tous nombres complexes a et b et tout entier
naturel n non nul :
(a + b)n =
n ¡ ¢
X
n
k=0
k
a k b n−k = a n + na n−1 b +
n (n − 1) n−2 2
a
b + . . . + nab n−1 + b n
2
9. P (∅) = 0, P (Ω) = 1 et 0 ≤ P (A) ≤ 1.
10. P (A ∪ B ) = P (A) + P (B ) is A ∩ B = ∅.
³ ´
11. P A = 1 − P (A) .
12. P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B ) .
13. Si A ⊂ B, alors P (A) ≤ P (B ) .
14. Si Ω est fini et equiprobable P (A) = c ar d (A) /c ar d (Ω) .
15. Evenements disjoints : P (A ∩ B ) = 0.
16. Evenements indépendants : P (A ∩ B ) = P (A) P (B ) .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
68
4.7. EXERCICES
17. Probabilité conditionelle : P (A|B ) = P (A ∩ B ) /P (B ) si P (B ) 6= 0.
18. Si A et B sont des evenements dépendants
P (A ∩ B ) = P (A|B ) × P (B ) = P (B |A) × P (A).
19. Formule des probabilités totales : si les événements B 1 , B 2 , B 3 , . . . , B n , forment une
partition de Ω , alors
n
X
P (A) =
P (A|B i ) × P (B i ) .
i =1
20. Formule de Bayes : si les événements B 1 , B 2 , B 3 , . . . , B n , forment une partition de Ω ,
alors
P (A|B i ) × P (Bi )
P (B i |A) = Pn
i =1 P (A|B i ) × P (B i )
21. Formule des Produits :
P (A 1 A 2 . . . A n ) = P (A 1 ) P (A 2 |A 1 ) P (A 3 |A 1 A 2 ) . . . P (A n |A 1 A 2 . . . A n−1 )
22. Fonction de répartition de la v.a. X : F (x) = P (X ≤ x) , x ∈ R.
23. Distribution de probabilité de v.a. discrète X : f (x) = P (X = x) .
24. Densité de probabilité de v.a. continue X : f (x) = F 0 (x) .
P
P
25. Si X est une v.a. discrete : P (A) = x∈A P (X = x) and F (x) = xi ≤x P (X = x i )
R
Rx
26. Si X est une v.a. continue : P (A) = x∈A f (x) d x and F (x) = −∞ f (t ) d t .
27. Espérance de probabilité de v.a.d. :
X
E (X ) =
x i P (X = x i ) ,
¤ X
£
E g (X ) =
g (x i ) P (X = x i ) .
x i ∈Ω
28. Espérance de probabilité de v.a.c. :
Z
E (X ) =
x f (x) d x,
x∈Ω
29. E (c) = c,
E (a X + b) = aE (X ) + b,
x i ∈Ω
£
¤
E g (X ) =
Z
g (x) f (x) d x.
x∈Ω
(a X + bY ) = aE (X ) + bE (Y ) .
30. Si X et sont indépendantes E (X Y ) = E (X ) E (Y ) .
£
¤
31. Variance d ’une v.a. : V ar (X ) = E (X − E (X ))2 .
32. Propriétés de la variance :
• V ar (X ) ≥ 0.
¡ ¢
• V ar (X ) = E X 2 − E 2 (X ) .
• V ar (a X + b) = a 2V ar (X ) .
• X et Y independants =⇒ V ar (X + Y ) = V ar (X ) + V ar (Y ) .
¡ ¢
33. Moment d ’ordre k : m k = E X k ,
E (X ) = m 1 ,
V ar (X ) = m 2 − (m 1 )2 .
34. Covariance : cov (X , Y ) = E [(X − E (X )) (Y − E (Y ))] .
• cov (X , Y ) = cov (Y , X ) .
• cov (X , Y ) = E (X Y ) − E (X ) E (Y ) .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.7. EXERCICES
69
• cov (X , X ) = v ar (X ) .
• V ar (X , Y ) = V ar (X ) + V ar (Y ) + 2cov (X , Y ) .
• X et Y independants =⇒ cov (X , Y ) = 0.
E (X )
.
a
¯
¡¯
¢ V ar (X ) ³ σ ´2
36. Inégalité de Chebyshev : si a > 0, P ¯ X − µ¯ ≥ a ≤
=
.
a2
a
37. Fonction Génératrice de Moments "FGM" : si tous les mements d ’une v.a. exist
½ P tk
¡ tX ¢
e P (X = k) si X est v.a.d.
= R k tx
M X (t ) = E e
e
f (x) d x
si X est v.a.c.
x
35. Inégalité de Markov : si a > 0, P (X ≥ a) ≤
38. m k = M X(k) (0) la derivéé d ’ordre k quand t = 0.
39. X et Y independants =⇒ M X +Y (t ) = M X (t ) M X (t ) .
¡ ¢
40. m k = E X k = M X(n) (0).
41. X , Y indendant =⇒ M X +Y (t ) = M X (t ) M Y (t ) .
42. Si X i sont indépendants alors M X i +···+X n (t ) = M X 1 (t ) M X 2 (t ) · · · M X n (t ) .
£
¤n
43. Si X i sont i.i.d. alors M X i +···+X n (t ) = M X 1 (t ) .
44. Lois Discretes Usuelles
Loi
¡
¢
Bernoulli B 1, p
p ∈ (0, 1)
¡
¢
Binomial B n, p
n ∈ N∗ , p ∈ (0, 1)
¡ ¢
Géometrique G p
p ∈ (0, 1)
Hypergéometrique
¡
¢
H N , n, p , p ∈ (0, 1)
Poisson P (λ)
λ>0
P (X = k)
p 0 = 1 − p, p 1 = p
k = 0, 1
C nk p k q n−k
k = 0, 1, .., n
E (X )
p
V ar (X )
pq
M X (t )
p + pe t
np
npq
¡
pq k−1
1/p
q/p 2
pe t
1 − qe t
np
N −n
npq
N −1
−−−−−
λ
λ
e λ(e
k = 1, 2, ...
¡N p ¢¡ N q ¢ ¡N ¢
/ k
k
n−k
©
ª
k = 0, 1, .., n, N p
λk
e −λ
k!
k = 0, 1, ...
45. Lois Continues Usuelles
Loi
f (x)
1
Uniforme U (a, b)
I [a,b] (x)
b−a
Exponentielle E (λ) λe −λx I [0,∞) (x)
³
´
1 x−µ 2
¡
¢
−2 σ
1
2
p e
Normal N µ, σ
σ 2π
E (X )
a +b
2
1/λ
V ar (X )
(b − a)2
12
1/λ2
µ
σ2
p + pe t
t
¢n
−1)
M X (t )
etb − eta
t (b − a)
λ/ (λ − t )
µ
¶
σ2 t 2
exp µt +
2
46. Propriétés utiles de la normal
• P (Z ≤ x) = Φ (x)
• Φ (−x) = P (Z ≤ −x) = 1 − P (Z > x) = 1 − Φ (x).
¡
¢
• Si Z ∼ N (0, 1) alors X = σZ + µ ∼ N µ, σ2 .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
70
4.7. EXERCICES
¢
¡
X −µ
• Si X ∼ N µ, σ2 alors Z =
∼ N (0, 1).
σ
³a −µ´
¢
¡
.
• Si X ∼ N µ, σ2 alors F X (a) = P (X ≤ a) = Φ
σ
¶
µ
³a −µ´
¢
¡
b −µ
+1−Φ
.
• Si X ∼ N µ, σ2 alors P (a ≤ X ≤ b) = Φ
σ
σ
¢
¢
¡
¡
• Si X ∼ N µ, σ2 alors Y = a X + b ∼ N aµ + b, a 2 σ2 .
µ
¶
n
n
n
¢
¡
P
P
P
2
2
µi , σi .
• Si X i ∼ N µi , σi , sont indépendants alors, S n = X i ∼ N
i =1
i =1
i =1
n
¢
¢
¡
P
• Si X i ∼ N µ, σ2 , i = 1, 2, · · · , n sont i.i.d. alors, S n = X i ∼ N nµ, nσ2 .
¡
i =1
¶
µ
n
Sn 1 P
σ2
• Si X i ∼ N µ, σ , i = 1, 2, · · · , n sont i.i.d. alors,
=
.
X i ∼ N µ,
n
n i =1
n
¡
2
¢
47. Loi Faible des Grands Nombres : si X 1 , ..., X n sont i.i.d. avec ésperance µ, alors pout
tout ε > 0
¯
µ¯
¶
¯ Sn
¯
¯
¯
lim P ¯ − µ¯ ≥ ε = 0
n→∞
n
48. Loi Forte des Grands Nombres : si X 1 , ..., X n sont i.i.d. avec ésperance µ,
¶
µ
Sn
= µ = 1.
P lim
n→∞ n
49. Théorème Limit Centrale : si X 1 , ..., X n sont i.i.d. avec espérance µ et variance σ2 .
µ
¶
S n − nµ
lim P p
≤ x = Φ (x)
n→∞
nσ
50. Approximation de la loi binomiale par¡une loi normale
:
¢
Pour n ≥ 30, npq ≥ 3, la loi normale N np, npq constitue une bonne approximation
de la loi binomiale B(n, p).
51. Approximation de la loi de Poisson par une loi normale :
Pour λ ≥ 20 la loi normale N (λ, λ) constitue une bonne approximation de la loi de
Poisson P (λ).
52. Approximation d’une loi binomiale par une loi de Poisson : si n est assez grand et p
est assez petit alors on peut approcher la loi binomiale B(n, p) par la loi de Poisson
ayant la même espérance mathématique P (np).
53. Approximation d’une loi hypergéométrique par une loi binomiale¡: si n est
¢ assez petit par raport a N on peut approcher la loi Hypergéométrique
H N , n, p par la loi
¡
¢
Binomiale ayant la même espérance mathématique B n, p . Dans la pratique, on admet que cette approximation est satisfaisante lorsque n < 0.05N .
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
4.7. EXERCICES
71
Annexe C. Table de la loi normale centrée réduite
P (Z ≤ x) = Φ(x), Z ∼ N (0, 1)
Deuxième décimale de x
0.03 0.04 0.05 0.06
x
0.00
0.01
0.02
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.5000
0.5040
0.5080
0.5120
0.5160
0.5199
0.5398
0.5438
0.5478
0.5517
0.5557
0.5793
0.5832
0.5871
0.5910
0.5948
0.6179
0.6217
0.6255
0.6293
0.6554
0.6591
0.6628
0.6915
0.6950
0.6985
0.7257
0.7291
0.7580
0.7611
0.7881
0.07
0.08
0.09
0.5239
0.5279
0.5319
0.5359
0.5596
0.5636
0.5675
0.5714
0.5753
0.5987
0.6026
0.6064
0.6103
0.6141
0.6331
0.6368
0.6406
0.6443
0.6480
0.6517
0.6664
0.6700
0.6736
0.6772
0.6808
0.6844
0.6879
0.7019
0.7054
0.7088
0.7123
0.7157
0.7190
0.7224
0.7324
0.7357
0.7389
0.7422
0.7454
0.7486
0.7517
0.7549
0.7642
0.7673
0.7704
0.7734
0.7764
0.7794
0.7823
0.7852
0.7910
0.7939
0.7967
0.7995
0.8023
0.8051
0.8078
0.8106
0.8133
0.8159
0.8186
0.8212
0.8238
0.8264
0.8289
0.8315
0.8340
0.8365
0.8389
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
0.8413
0.8438
0.8461
0.8485
0.8508
0.8531
0.8554
0.8577
0.8599
0.8621
0.8643
0.8665
0.8686
0.8708
0.8729
0.8749
0.8770
0.8790
0.8810
0.8830
0.8849
0.8869
0.8888
0.8907
0.8925
0.8944
0.8962
0.8980
0.8997
0.9015
0.9032
0.9049
0.9066
0.9082
0.9099
0.9115
0.9131
0.9147
0.9162
0.9177
0.9192
0.9207
0.9222
0.9236
0.9251
0.9265
0.9279
0.9292
0.9306
0.9319
0.9332
0.9345
0.9357
0.9370
0.9382
0.9394
0.9406
0.9418
0.9429
0.9441
0.9452
0.9463
0.9474
0.9484
0.9495
0.9505
0.9515
0.9525
0.9535
0.9545
0.9554
0.9564
0.9573
0.9582
0.9591
0.9599
0.9608
0.9616
0.9625
0.9633
0.9641
0.9649
0.9656
0.9664
0.9671
0.9678
0.9686
0.9693
0.9699
0.9706
0.9713
0.9719
0.9726
0.9732
0.9738
0.9744
0.9750
0.9756
0.9761
0.9767
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
0.9772
0.9778
0.9783
0.9788
0.9793
0.9798
0.9803
0.9808
0.9812
0.9817
0.9821
0.9826
0.9830
0.9834
0.9838
0.9842
0.9846
0.9850
0.9854
0.9857
0.9861
0.9864
0.9868
0.9871
0.9875
0.9878
0.9881
0.9884
0.9887
0.9890
0.9893
0.9896
0.9898
0.9901
0.9904
0.9906
0.9909
0.9911
0.9913
0.9916
0.9918
0.9920
0.9922
0.9925
0.9927
0.9929
0.9931
0.9932
0.9934
0.9936
0.9938
0.9940
0.9941
0.9943
0.9945
0.9946
0.9948
0.9949
0.9951
0.9952
0.9953
0.9955
0.9956
0.9957
0.9959
0.9960
0.9961
0.9962
0.9963
0.9964
0.9965
0.9966
0.9967
0.9968
0.9969
0.9970
0.9971
0.9972
0.9973
0.9974
0.9974
0.9975
0.9976
0.9977
0.9977
0.9978
0.9979
0.9979
0.9980
0.9981
0.9981
0.9982
0.9982
0.9983
0.9984
0.9984
0.9985
0.9985
0.9986
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9987
0.9987
0.9988
0.9988
0.9989
0.9989
0.9989
0.9990
0.9990
0.9990
0.9991
0.9991
0.9991
0.9992
0.9992
0.9992
0.9992
0.9993
0.9993
0.9993
0.9993
0.9994
0.9994
0.9994
0.9994
0.9994
0.9995
0.9995
0.9995
0.9995
0.9995
0.9995
0.9996
0.9996
0.9996
0.9996
0.9996
0.9996
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9997
0.9998
Introduction aux Probabilités
El-Bachir Yallaoui–UFAS
Bibliographie
[1] P. Barbeet M. Ledoux. Probabilité. Espaces 34, Belin, 1998.
[2] P. Billingsley. Probability and measure. Wiley, 1979.
[3] Rick Durrett. Elementary Probability for Applications. Cambridge University Press, 2009
[4] W. Feller. An Introduction to Probability Theory and Its Applications Volume 1. Wiley Text
Books, third edition 1968.
[5] D. Foata. A. Fuchs, Calcul des probabilités. Dunod, Paris 1998.
[6] Jacques Harthong. Calcul des probabilités. Format électronique, 2001.
[7] Jim Pitman, Probability. Springer, 1999
[8] S. M.Ross. Initiation aux probabilités. Presses polytechniques et universitaires romandes,
Lausanne.
[9] Charles Suquet. Introduction au Calcul des probabilités. Polycopié 2005.
72
Téléchargement