MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1

publicité
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
3
Généralités sur les ensembles
 On peut définir de manière intuitive un ensemble
comme toute collection d’objet (ou groupes
d’individus) liés entre eux par une ou plusieurs
propriétés.
 On appelle ces objets (ou individus) les
éléments de l’ensemble.
 Notation : E
4
Généralités sur les ensembles
Exemple 1
Ensembles usuels en mathématiques :
N : ensemble des entiers naturels.
N∗: ensemble des entiers naturels non nuls.
Z : ensemble des entiers relatifs.
Q : ensemble des nombres rationnels.
R : ensemble des nombres réels.
R+ : ensemble des nombres réels positifs.
5
Généralités sur les ensembles
Exemple 2
Lors d’un contrôle sanguin, l’ensemble des
résultats possibles si l’on s’intéresse au
groupe sanguin et au facteur rhésus d’un
individu est:
E = A+, A−, B+, B−, AB+, AB−, O+, O −
6
Généralités sur les ensembles
 Si X désigne l’un des éléments de l’ensemble E,
on dit que X appartient à E et on note: X ∈ E.
 Si X n’est pas l’un des éléments de l’ensemble
E, on dit que X n’appartient pas à E et on note:
X ∉ E.
7
Généralités sur les ensembles
Exemple 3
L’ensemble des individus de groupe sanguin
au facteur rhésus positif est:
E = A+, B+, AB+, O +
L’élément A − n’appartient pas à l’ensemble
E, donc A − ∉ E
8
Généralités sur les ensembles
Un ensemble peut être décrit de 2 manières :
 en extension : on dresse la liste de tous les éléments
de l’ensemble.
Exemple : E = { A+, B+, AB+, O+}.
L’ordre ainsi que la répétition des éléments est sans
importance.
 en compréhension : on énonce la propriété
caractéristique des éléments de l’ensemble.
Exemple : E = { X ∈ E | X=groupe sanguin positif }.
Attention, écrire E = {A+, . . . , 0+} est incorrect.
9
Généralités sur les ensembles
 On peut représenter graphiquement
ensemble à l’aide d’un diagramme de Venn.
Exemple:
L’ensemble E de groupes sanguins:
A+
B+
AABBO+
OAB+
un
E
10
Généralités sur les ensembles
Remarques:
1. Un ensemble ne contenant aucun élément est
appelé ensemble vide et est noté « ∅ ».
E
11
Généralités sur les ensembles
Remarques:
2. Un ensemble E est dit fini lorsque le nombre
d’éléments qui le composent est un entier naturel.
Dans ce cas, le nombre d’éléments est appelé
cardinal de l’ensemble et est noté Card(E) ou Ω (E)
Par convention, Card (∅) = 0.
12
Généralités sur les ensembles
Remarques:
3. Un ensemble fini est dit dénombrable.
E = { e1, e2, e3 }
4. Un ensemble infini est non dénombrable.
E = { 𝑥 ∈ 0, 1 }
13
Généralités sur les ensembles
Remarques:
5. Un ensemble qui n’est pas fini est dit infini.
6. On appelle singleton un ensemble composé
d’un seul élément.
14
Sous ensembles
Soient A et B deux ensembles:
 On dit que A est inclus dans B et on note A ⊂ B si
tout élément de A appartient à l’ensemble B.
 L’ensemble A est alors qualifié de partie ou de
sous-ensemble de l’ensemble B.
 Pour signifier que A n’est pas inclus dans B, on note
A ⊄ B.
15
Sous ensembles
Remarques:
1. Pour que l’ensemble A ne soit pas inclus dans
B, il faut et il suffit qu’il existe un élément de A qui
n’appartienne pas à B.
2. L’ensemble vide est inclus dans tout ensemble.
3. Un ensemble est inclus dans lui-même.
16
Sous ensembles
La relation d’inclusion est une relation transitive :
Si A,B, C désignent trois ensembles tels que A ⊂ B
et B ⊂ C, alors on a A ⊂ C.
Soient A et B deux ensembles.
On dit que les ensembles A et B sont égaux et on
note A = B si tout élément de l’un des ensembles
appartient à l’autre ensemble.
Autrement dit, A = B signifie que A ⊂ B et B ⊂ A.
17
Sous ensembles
Soient A et B deux ensembles finis.
1. Si A ⊂ B alors Card(A) ≤ Card(B).
2. Si A ⊂ B et si Card(A) = Card(B) alors A = B.
18
Opérations sur les ensembles
1. Complémentaire:
Le complémentaire de A est l’ensemble des
éléments de E qui n’appartiennent pas à A.
𝐶𝐴 = 𝐴 = 𝑥: 𝑥 ∉ 𝐴
19
Opérations sur les ensembles
1. Complémentaire:
CA
E
20
Opérations sur les ensembles
2. Réunion:
Soient E un ensemble et A, B deux sousensembles de E.
La réunion des 2 ensembles A et B notée A ∪ B est
l’ensemble constitué par les éléments de E
appartenant à A ou à B.
Autrement dit
A ∪ B = {x ∈ E | x ∈ A ou x ∈ B}.
21
Opérations sur les ensembles
2. Réunion:
A
A
𝐵
B
E
22
Opérations sur les ensembles
2. Réunion:
Si à l’ensemble :
A = {X ∈ E | X= individu de rhésus positif }.
On ajoute l’ensemble:
B = {X ∈ E | X= individu possède l’allèle B }.
La réunion de ces deux ensembles donne:
A
B = { A+, B+, B-, AB+, AB-, O+ }
23
Opérations sur les ensembles
2. Réunion:
On a les propriétés suivantes :
1. A ⊂ (A ∪ B) et B ⊂ (A ∪ B)
2. A ∪ A = A et A ∪ ∅ = A
3. A ∪ B = B ∪ A (commutativité).
4. A ∪ (B ∪ C) = (A ∪ B) ∪ C (associativité).
5. Si A ⊂ B alors A ∪ B = B.
6. A A = E
24
Opérations sur les ensembles
3. L’intersection:
Soient E un ensemble et A, B deux sousensembles de E.
L’intersection des 2 ensembles A et B notée A ∩ B
est l’ensemble constitué par les éléments de E
appartenant à A et à B.
Autrement dit: A ∩ B = {x ∈ E | x ∈ A et x ∈ B}.
Si A ∩ B = ∅, on dit que les ensembles A et B sont
disjoints.
25
Opérations sur les ensembles
3. L’intersection:
A⋂B
A
B
E
26
Opérations sur les ensembles
3. L’intersection:
Si à l’ensemble :
A = {X ∈ E | X= individu de rhésus positif }.
On ajoute l’ensemble:
B = {X ∈ E | X= individu possède l’allèle B }.
L’intersection de ces deux ensembles donne:
A ⋂ B = { B+, AB+}
27
Opérations sur les ensembles
3. L’intersection:
On a les propriétés suivantes :
1. (A ∩ B) ⊂ A et (A ∩ B) ⊂ B
2. A ∩ A = A et A ∩ ∅ = ∅
3. A ∩ B = B ∩ A (commutativité)
4. A ∩ (B ∩ C) = (A ∩ B) ∩ C (associativité)
5. Si A ⊂ B alors A ∩ B = A
6. A ⋂ A = ∅
28
Opérations sur les ensembles
3. L’intersection:
Remarque: Si A ⋂ B = ∅, on dit que A et B sont
disjoints.
A⋂B=∅
A
B
E
29
Opérations sur les ensembles
Soient A et B deux ensembles finis. On a:
Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B)
A = { A+, B+, AB+, O+ } => Card (A) = 4
B = { B+, B-, AB+, AB- } => Card (B) = 4
A B = { A+, B+, B-, AB+, AB-, O+ }
Card (A
B)=6
30
Opérations sur les ensembles
Si A et B sont deux ensembles disjoints, alors:
Card (A B) = Card (A) + Card (B)
Si A et B sont finis et A ⊂ B alors:
Card (A) ≤ Card (B)
Si A et B sont finis, alors:
Card (A – B) = Card (A) – Card (A ⋂ B)
31
Opérations sur les ensembles
Soient A, B et C trois ensembles.
 L’intersection est distributrice sur l’union :
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
 L’union est distributrice sur l’intersection :
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
32
Opérations sur les ensembles
Soient A, B deux sous-ensembles d’un ensemble
E.
On appelle différence des ensembles A et B, et on
note A \ B, l’ensemble constitué des éléments de A
qui n’appartiennent pas à B.
Autrement dit,
A \ B = {x ∈ E | x ∈ A et x ∉ B}.
33
Opérations sur les ensembles
Différence symétrique:
Soient A, B deux sous-ensembles d’un ensemble
E.
On appelle différence symétrique des ensembles A
et B, et on note A ∆ B, l’ensemble des éléments
qui appartiennent à A et pas à B ou qui
appartiennent à B et pas à A.
34
Opérations sur les ensembles
Différence symétrique:
C’est donc l’ensemble des éléments qui
appartiennent à l’union des deux ensembles mais
pas à leur intersection.
On a ainsi:
A ∆ B = (A – B)
(B – A) = (A
B) – (A ⋂ B)
35
Opérations sur les ensembles
Différence symétrique:
A∆B
A∆B
E
36
Applications
1. Nous avons:
A = {2, 4, 6} et B = {3, 6}
Déterminer A ∆ B.
A ∆ B = {2, 4, 3}
37
Applications
2. Dans un groupe d’étudiants, 12 ont la grippe, 8
sont hyper tendus et 5 ont les deux symptômes.
Si chaque étudiants a au moins un de ces deux
symptômes, quel est le nombre d’étudiants dans
ce groupe ??
38
Applications
En posant : A = { x, x fait une grippe }
Et B = { x, x est hyper tendu },
le nombre d’étudiants dans ce groupe est donné
par Card (A B).
Card (A) = 12, Card (B) = 8, Card (A ⋂ B) = 5
Donc:
Card (A B) = Card (A) + Card (B) – Card (A ⋂ B)
Card (A B) = 12 + 8 – 5 = 15
Donc ce groupe contient 15 étudiants.
39
Applications
3. Si dans un groupe de 25 malades, 17 prennent
le médicament A, 12 le médicament B et 5 ne
prennent aucun médicament.
Quel est le nombre de malades qui prennent les
deux médicaments à la fois ??
40
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
Synthèse cours antérieur
Identité
A⋃∅=A
A⋂E=A
A⋃E=E
A⋂∅=∅
A⋃A=A
A⋂A=A
Nom
Identité
Domination
Idempotence
A ⋃ (A ⋂ B) = A
A ⋂ (A ⋃ B) = A
Absorption
(𝐴) = 𝐴
Complémentarité
3
Synthèse cours antérieur
Identité
Nom
A⋃B=B⋃A
A⋂B=B⋂A
Commutativité
(A ⋃ B) ⋃ C = A ⋃ (B ⋃ C)
Associativité
(A ⋂ B) ⋂ C = A ⋂ (B ⋂ C)
A ⋃ (B ⋂ C) = (A ⋃ B) ⋂ (A ⋃ C)
Distributivité
A ⋂ (B ⋃ C) = (A ⋂ B) ⋃ (A ⋂ C)
A∩B=A∪B
Lois de De Morgan
A∪B=A∩B
A∪A=E
A∩A=∅
Loi du complément
4
Synthèse cours antérieur
Identité
Nom
A⋃B=B⋃A
A⋂B=B⋂A
Commutativité
(A ⋃ B) ⋃ C = A ⋃ (B ⋃ C)
Associativité
(A ⋂ B) ⋂ C = A ⋂ (B ⋂ C)
A ⋃ (B ⋂ C) = (A ⋃ B) ⋂ (A ⋃ C)
Distributivité
A ⋂ (B ⋃ C) = (A ⋂ B) ⋃ (A ⋂ C)
A∩B=A∪B
Lois de De Morgan
A∪B=A∩B
A∪A=E
A∩A=∅
Loi du complément
5
6
Introduction
L’analyse combinatoire a pour objet de dénombrer
les manières distinctes de grouper tout ou partie
des objets ou éléments d’un ensemble, suivant
des lois déterminées.
Elle fournit des méthodes de dénombrements
particulièrement utiles en théorie des probabilités.
7
Introduction
 Dans la suite, on appellera expérience toute
opération qui a une ou plusieurs issues.
 Ces issues
l’expérience.
sont
appelées
résultats
de
8
1. Principe multiplicatif (fondamental)
Si une expérience E peut se décomposer en k
expériences élémentaires de sorte que:




La 1ère expérience E1 peut se réaliser de n1 façons
La 2ème expérience E2 peut se réaliser de n2 façons
…
La kème expérience Ek peut se réaliser de nk façons
Alors, l’expérience globale E peut se réaliser de n façons,
avec : n = n1 x n2 x n3 x … x nk
9
1. Principe multiplicatif (fondamental)
Exemple :
Pour avoir un groupe sanguin, l’homme dispose de:
 4 catégories (ou sous groupe) dans le système
ABO, selon la présence ou l’absence des
différents antigènes;
 Et de 2 catégories dans le système Rhésus.
Donc, combien de groupes sanguin différent peut-on
avoirs ?
10
1. Principe multiplicatif (fondamental)
Exemple :
A
Rh+
Rh -
B
Rh+
Rh Rh+
Rh -
AB
O
4
A+ A- B+ B- AB+ AB- O+ O-
X
Rh+
Rh =
2
8
11
2. Arrangement
Etant donné un ensemble E de n éléments, on
appelle arrangements de p éléments toutes suites
ordonnées de p éléments pris parmi les n
éléments.
Le nombre d’arrangements de p éléments pris
parmi n est noté :
𝑝
𝐴𝑛
12
2. Arrangement
Remarque :
 On a nécessairement : 1≤ p ≤ n et n, p ϵ N*
 Deux arrangements de p éléments sont donc
distincts s’ils diffèrent par la nature des éléments
qui les composent ou par leur ordre dans la
suite.
13
2. Arrangement
Exemples:
1. Une séquence d’ADN est constituée d’un
enchaînement de 4 nucléotides [A, C, G et T]. Il
existe différents arrangements possibles de
deux nucléotides (dinucléotides) avec p = 2 et
n = 4.
2. Le nombre d’échantillons de 5 personnes (sans
remise) formés avec 20 personnes correspond
au nombre d’arrangements possibles avec
p = 5 et n = 20.
14
2. Arrangement
Dans les exemples précédents, l’ordre
éléments dans la suite est essentiel :
des
Ex : ATC ≠ ACT ou ATT ≠ TAT
Dans cet exemple, une base (ou élément) peut se
retrouver plusieurs fois, alors que dans le 2èm
exemple, les échantillons sont forcément
différents. Il faut donc distinguer le nombre
d’arrangements avec ou sans répétition.
15
2. Arrangement
Arrangement avec répétition :
Lorsqu’un élément peut être observé plusieurs fois
dans un arrangement, le nombre d’arrangement
avec répétition de p éléments pris parmi n, est
alors:
𝑝
𝐴𝑛
= 𝑛𝑝 avec 1 ≤ 𝑝 ≤ 𝑛
Pourquoi ?
16
2. Arrangement
Arrangement avec répétition :
 Pour le premier élément tiré, il existe n manière
de ranger l’élément parmi n.
 Pour le second élément tiré, il existe également
n possibilité d’arrangements car le premier
élément fait de nouveau parti des n éléments.
 Ainsi pour les p éléments tirés, il y aura :
𝑛 × 𝑛 × ⋯ × 𝑛 (𝑝 fois) arrangement possibles, soit :
𝑝
𝐴𝑛
= 𝑛 × 𝑛 × ⋯ × 𝑛 = 𝑛𝑝
17
2. Arrangement
Arrangement avec répétition :
Exemple:
Concernant l’exemple de la séquence d’ADN, le nombre de
dinucléotides attendus si l’on fait l’hypothèse qu’une base
peut être observée plusieurs fois dans la séquence (ce qui
correspond effectivement à la réalité) est donc :
𝐴24 = 42 = 16 dinucléotides possibles.
AA
GA
AC
GC
AG
GG
AT
GT
CA
TA
CC
TC
CG
TG
CT
TT
18
2. Arrangement
Arrangement sans répétition :
Lorsque chaque élément ne peut être observé
qu’une seule fois dans un arrangement, le nombre
d’arrangements sans répétition de p éléments pris
parmi n est alors :
𝑝
𝐴𝑛
=
𝑛!
avec 1 ≤ 𝑝 ≤ 𝑛
(𝑛−𝑝)!
Pourquoi ?
19
2. Arrangement
Arrangement sans répétition :
Par application direct du principe fondamental, on
obtient :





Le 1ier élément peut être choisi de n1 = n façons
Le 2ème élément peut être choisi de n2 = (n – 1) façons
Le 3ème élément peut être choisi de n3 = (n – 2) façons
……
Le (p – 1)ème élément peut être choisi de
np -1 = n – (p – 2) = n – p + 2 façons
 Le pème élément peut être choisi de
np = n – (p – 1) = n – p + 1 façons
20
2. Arrangement
Arrangement sans répétition :
Et donc les p éléments peuvent être choisis de :
𝑝
𝐴𝑛
= 𝑛 𝑛 − 1 𝑛 − 2 … (𝑛 − 𝑝 + 1) façons
On notera par la suite:
𝑛 𝑛 − 1 𝑛 − 2 … 𝑛 − 𝑝 + 1 … × 3 × 2 × 1 = 𝑛!
𝑛! : lire n factorielle.
21
2. Arrangement
Arrangement sans répétition :
En utilisant cette notation factorielle, afin d’éviter
𝑝
les points de suspension dans l’expression de 𝐴𝑛 ,
on obtient en multipliant et divisant par (𝑛 − 𝑝)! :
𝑝
𝐴𝑛
=
𝑛−𝑝 !
𝑛 𝑛−1 𝑛−2 … 𝑛−𝑝+2 𝑛−𝑝+1
𝑛−𝑝 !
𝑛!
=
(𝑛 − 𝑝)!
22
2. Arrangement
Arrangement sans répétition :
Donc :
𝑝
𝐴𝑛
𝑛!
=
(𝑛 − 𝑝)!
 Par convention : 0! = 1 car 0! n’est pas définie.
 Dès que 𝑛 dépasse la dizaine, 𝑛! Se compte en
millions. Il est bon de connaître la formule
d’approximation de Stirling :
𝑛 𝑛
𝑛! ≈ ( ) 2π𝑛
𝑒
23
2. Arrangement
Arrangement sans répétition :
Exemple :
Concernant l’exemple de la séquence d’ADN, le
nombre de dinucléotides attendus dans une
séquence si l’on fait l’hypothèse qu’une base n’est
observée qu’une seule fois est donc :
𝐴24
AA
GA
=
4!
(4−2)!
AC
GC
= 12 dinucléotides possibles
AG
GG
AT
GT
CA
TA
CC
TC
CG
TG
CT
TT
24
3. Permutation
Permutation sans répétition :
Etant donné un ensemble E de n éléments, on
appelle permutations de n éléments distincts
toutes suites ordonnées de n éléments ou tout
arrangement n à n de ces éléments.
Le nombre de permutations de n éléments est
noté :
𝑃𝑛 = 𝑛!
25
3. Permutation
Permutation sans répétition :
La permutation de n éléments constitue un cas
particulier d’arrangement sans répétition de p
éléments pris parmi n lorsque p = n.
𝐴𝑛𝑛 = 𝑛!
26
3. Permutation
Permutation sans répétition :
Exemple :
Le nombre de manières de ranger 3 personnes :
27
3. Permutation
Permutation avec répétition :
Dans le cas où il existerait plusieurs répétitions k
d’un même élément parmi les n éléments, le
nombre de permutations possibles des n éléments
doit être rapporté aux nombres de permutations
des k objets identiques.
Le nombre de permutations de n éléments est
alors :
𝑛!
𝑃𝑛 =
𝑘!
28
3. Permutation
Permutation avec répétition :
Exemple :
Considérant les nucléotides « A C T T G T C ». Le
nombre de séquences possibles que l’on peut
avoir en permutant ces 7 nucléotides est :
𝑃7 =
7!
2!3!
= 420 séquences possibles.
29
4. Combinaisons
Si l’on reprend l’exemple de la séquence d’ADN, à
la différence des arrangements où les
dinucléotides AC et CA formait deux arrangements
distincts, ces deux derniers ne formeront qu’une
seule combinaison.
Pour les combinaisons, on ne parle plus de suite ni
de série puisque la notion d’ordre des éléments
n’est plus prise en compte.
30
4. Combinaisons
Remarque :
Le nombre de combinaisons de p éléments pris
𝑝
parmi n est noté : 𝐶𝑛
On a nécessairement 1 ≤ 𝑝 ≤ 𝑛 et n, p ϵ N*
Si 𝑛 < 𝑝, alors
𝑝
𝐶𝑛
= 0.
31
4. Combinaisons
Pour calculer ce nombre, on utilise le principe de
la division.
𝑝
 Il y a 𝐴𝑛 manière de tirer p éléments parmi n en
𝑝
les ordonnant soit 𝐴𝑛
=
𝑛!
(𝑛−𝑝)!
 Une fois les p éléments tirés, il y a 𝑝! manières
de les ordonner
𝑝
 Il y a donc
𝐴𝑛
𝑝!
manières de tirer p éléments
parmi n sans les ordonner.
32
4. Combinaisons
Donc :
𝑝
𝐶𝑛
𝑝
𝐴𝑛
1
𝑛!
=
= ×
𝑝! 𝑝! (𝑛 − 𝑝)!
Exemple: dans le cadre de l’exemple de la
séquence d’ADN, le nombre de dinucléotides
attendus sans tenir compte de l’ordre des bases
dans la séquence (hypothèse justifiée dans le cas
de l’ADN non codant) est donc :
𝐶42
=
4!
2!(4−2)!
=
4×3
2×1
= 6 dinucléotides.
33
4. Combinaisons
Propriétés des combinaisons :
𝐶𝑛0 = 𝐶𝑛𝑛 = 1
Si 𝑛 ≥ 1
Si 𝑛 ≥ 2
𝐶𝑛1 = 𝐶𝑛𝑛−1 = 𝑛
𝐶𝑛2
=
𝐶𝑛𝑛−2
=
𝑛(𝑛−1)
2
34
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
Synthèse cours antérieur
Arrangement de p objets parmi n
𝑝
Avec répétition : 𝐴𝑛
𝑝
Sans répétition : 𝐴𝑛
= 𝑛𝑝
=
𝑛!
avec 1 ≤ 𝑝 ≤ 𝑛
(𝑛−𝑝)!
3
Synthèse cours antérieur
Permutation de n objets distincts
Sans répétition : 𝑃𝑛 = 𝑛!
Avec répétition : 𝑃𝑛 =
𝑛!
𝑘!
4
Synthèse cours antérieur
Tirage de p objets parmi n (combinaison)
𝑝
𝐶𝑛
𝑛!
=
𝑃! (𝑛 − 𝑝)!
Avec 1 ≤ 𝑝 ≤ 𝑛
𝑝
Si 𝑛 < 𝑝, alors 𝐶𝑛 = 0
5
Synthèse cours antérieur
Propriétés des combinaisons
𝐶𝑛0 = 𝐶𝑛𝑛 = 1
Si 𝑛 ≥ 1
𝑛−𝑝
𝐶𝑛
𝐶𝑛1 = 𝐶𝑛𝑛−1 = 𝑛
𝑛!
𝑝
=
= 𝐶𝑛
(𝑛 − 𝑝)! 𝑝!
6
7
Triangle de Pascal
Blaise Pascal
1623 - 1662
8
Triangle de Pascal
P
0
1
2
3
4
5
6
0
1
2
n
3
4
5
6
9
Triangle de Pascal
P
0
n
0
1
1
1
2
1
3
1
4
1
5
1
6
1
1
2
3
4
5
6
10
Triangle de Pascal
P
0
n
0
1
1
1
2
1
3
1
4
1
5
1
6
1
1
2
3
4
5
6
1
1
1
1
1
1
11
Triangle de Pascal
P
0
n
1
2
3
4
5
0
1
1
1
1
2
1
2
1
3
1
3
3
1
4
1
4
6
4
1
5
1
5
10 10
5
1
6
1
6
15 20 15
6
6
1
12
Triangle de Pascal
P
0
n
1
2
3
4
5
0
1
1
1
1
2
1
2
1
3
1
3
3
1
4
1
4
6
4
1
5
1
5
10 10
5
1
6
1
6
15 20 15
6
6
1
13
Formule de Pascal
𝑛−1
𝑛
𝑝−1
𝑝
𝑝−1
𝐶𝑛−1
𝑝
𝐶𝑛−1
𝑝
𝐶𝑛
14
Formule de Pascal
Si 0 ≤ 𝑝 ≤ 𝑛 − 1 alors:
𝑝−1
𝐶𝑛−1
+
𝑝
𝐶𝑛−1
=
𝑝
𝐶𝑛
C’est la combinaison composée
ou
formule de Pascal
15
Binôme de Newton
Isaac Newton
1643 – 1727
16
Binôme de Newton
La formule du binôme de Newton correspond à la
décomposition des différents termes de la
puissance 𝑛𝑖è𝑚𝑒 du binôme (𝑥 + 𝑎).
𝑛
∀ 𝑥, 𝑎 ∈ 𝑅, 𝑛 ∈ 𝑁, 𝑥 + 𝑎
𝑛
𝑝 𝑛−𝑝 𝑝
𝐶𝑛 𝑥
𝑎
=
𝑝=0
17
Binôme de Newton
(𝑥 + 𝑎)2 = 𝑥 2 + 2𝑎𝑥 + 𝑎2
2
𝑝 2−𝑝 𝑝
𝐶2 𝑥
𝑎
2
(𝑥 + 𝑎) =
𝑝=0
(𝑥 + 𝑎)2 = 𝐶20 𝑥 2−0 𝑎0 + 𝐶21 𝑥 2−1 𝑎1 + 𝐶22 𝑥 2−2 𝑎2
(𝑥 + 𝑎)2 = 𝑥 2 + 2𝑥𝑎 + 𝑎2
18
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
3
Introduction: théorie des probabilités
Les premiers personnes à s’être intéressées aux
problèmes
des
probabilités
furent
des
mathématiciens français:
Blaise pascal
(1623 – 1662)
Pierre de Fermat
décédé 1665
4
Introduction: théorie des probabilités
A cette époque, la théorie des probabilités se
développa uniquement en relation avec les jeux de
hasard. Mais après, les bases de la théorie furent
étendues à d’autres applications et phénomènes.
Le calcul des probabilités fournit une modélisation
efficace des situations non déterministes c’est-àdire des phénomènes aléatoire ou stochastiques.
5
Introduction: théorie des probabilités
On rencontre dans la nature de nombreux
phénomènes qui présentent des régularité d’ordre
statistique.
Ces régularités se traduisent par exemple par
l’existence d’analogie de forme entre les
distributions de divers populations.
6
Introduction: théorie des probabilités
Ces régularités statistiques peuvent aussi se
manifester par l’existence de certains rapports
stables.
Considérons par exemple le croisement de
Drosophyles aux yeux rouges avec des
Drosophyles aux yeux bruns.
La première génération est composée uniquement
de Drosophyles aux yeux rouges.
7
Introduction: théorie des probabilités
Ces régularités statistiques peuvent aussi se
manifester par l’existence de certains rapports
stables.
Considérons par exemple le croisement de
Drosophyles aux yeux rouges avec des
Drosophyles aux yeux bruns.
La seconde génération est composée de
Drosophyles aux yeux rouges et aux yeux bruns
dans des proportion toujours voisines de ¾ et ¼.
8
Epreuve aléatoire
 L’épreuve aléatoire c’est une épreuve (ou
expérience) dont l’issu n’est pas connu par
avance et si, répétée dans des conditions
identiques, elle peut donner des résultats
différents.
 Le résultat d’une expérience constitue une
éventualité ou un évènement élémentaire.
9
Epreuve aléatoire
 L’ensembles des évènements élémentaires
possibles pour une expérience aléatoire donnée
constitue l’espace fondamental appelé univers
ou univers des possibles noté Ω.
Exemple: lors d’un contrôle sanguin, l’ensemble
des résultats possibles si l’on s’intéresse au
groupe sanguin et au facteur rhésus d’un individu
est :
Ω = {A+, A-, B+, B- AB+, AB-, O+, O-}
10
Epreuve aléatoire
Un évènement quelconque A est un ensemble
d’évènements élémentaires et constitue une partie
de l’univers des possibles Ω dont on sait dire à
l’issue de l’épreuve s’il est réalisé ou non.
Exemple : A « l’individu est de rhésus positif »
A = {A+, B+, AB+, O+}
A est une partie de Ω (A ⊂ Ω)
11
Evènements remarquables
 L’évènement impossible, noté ∅ est l’évènement
qui ne peut être réalisé quelle que soit l’issue de
l’épreuve.
 L’évènement certain, noté Ω est toujours réalisé
quelle que soit l’issue de l’épreuve.
 L’évènement contraire ou complémentaire d’un
évènement A, noté A est l’évènement qui est
réalisé si et seulement si A ne l’est pas.
12
Evènements remarquables
Exemple :
Dans l’exemple concernant les groupes sanguins,
l’évènement contraire de A « l’individu est de
rhésus positif » est constitué des évènements
élémentaire suivant :
A = {A-, B-, AB-, O-}
Ω=∅
∅=Ω
13
Opérations sur les évènements
1. La réunion de deux évènement :
On appelle réunion de deux évènements A et B,
l’évènement qui est réalisé si et seulement si :
A ou B est réalisé.
Exemple: nous avons:
A « l’individu est de rhésus positif »
B « l’individu possède l’allèle B »
Alors A ⋃ B = {A+, B+, B-, AB+, AB-, O+}
14
Opérations sur les évènements
2. L’intersection de deux évènements :
On appelle intersection de deux évènements A et
B, l’évènement qui est réalisé si et seulement si:
A et B le sont.
Exemple : nous avons:
A « l’individu est de rhésus positif »
B « l’individu possède l’allèle B »
Alors A ⋂ B = {B+, AB+}
15
Opérations sur les évènements
2. L’intersection de deux évènements :
si nous avons:
A « l’individu est de rhésus positif »
C « l’individu est de rhésus négatif »
Alors A ⋂ C = ∅ on dit que l’évènement A et C sont
incompatibles (la réalisation de l’un et de l’autre
simultanément n’est pas possible)
16
Opérations sur les évènements
Exemple :
A
𝐀
B
𝐁
17
Opérations sur les évènements
Exemple : A ⋃ B
A
𝐀
B
𝐁
18
Opérations sur les évènements
Exemple : A ⋂ B
A
𝐀
B
𝐁
19
Opérations sur les évènements
Exemple : B ⋃ B
A
𝐀
B
𝐁
20
Opérations sur les évènements
Exemple : A ⋃ A
A
𝐀
B
𝐁
21
Opérations sur les évènements
Exemple :
A
𝐀
B
A⋂B
𝐀⋂B
𝐁
A⋂𝐁
𝐀⋂𝐁
22
Opérations sur les évènements
Exemple :
De la population entière, on prélève un individu et
on va traduire les situations suivantes:
E « l’individu présente les 2 symptômes »
F « l’individu présente au moins 1 symptôme »
G « l’individu présente seulement le symptôme A »
H « l’individu ne présente aucun symptôme »
23
Opérations sur les évènements
Exemple :
Donc :
E = A et B = A ⋂ B
F = A ou B = A ⋃ B
G = A et B = A ⋂ B
H = A et B = A ⋂ B
24
Définition de la probabilité
Considérons un groupe de 11 individus dont 3 sont
diabétiques.
Proposons-nous, on choisissons au hasard un
individu, d’amener un diabétique.
25
Définition de la probabilité
Nous nous trouvons en présence de 11 cas
également possibles puisque l’individu choisi peut
être l’un quelconque des 11 individus.
Parmi ces 11 cas, 3 sont favorables à la réalisation
de l’évènement « l’individu choisi est diabétique »
Nous dirons que la probabilité d’avoir un individu
3
diabétique est
11
26
Définition de la probabilité
Par définition, la probabilité de l’évènement E est
le rapport du nombre de cas favorables à la
réalisation de cet évènement au nombre de cas
possibles:
𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑛
𝑃𝑟𝑜𝑏 𝐸 =
=
𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠
𝑁
27
Définition de la probabilité
La probabilité d’un évènement est un nombre
entre 0 et 1.
En effet, le nombre de cas favorables n est au
moins égal à zéro et au plus égal au nombre de
cas possibles N. nous avons donc :
0 ≤ 𝑛 ≤ 𝑁 et par conséquent : 0 ≤
𝑛
𝑁
≤1
28
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
3
Calcul des probabilités
Soit Ω l’espace fondamental (ou l’univers) et soit
un évènement A (A ⊂ Ω).
Ω
Nous avons:
P(Ω) = 1 (évènement certain)
A⋃A = Ω
A
A
P(A ⋃ 𝐴) = P(Ω) = 1
P(A) + P(𝐴) = 1 ⇒ P(𝐴) = 1 – P(A)
4
Calcul des probabilités
Exemple:
Un groupe de Filles et Garçons;
Ω
G
On vous donne P(F) = 0,45
F
Donc, P(H) = 1 – 0,45 = 0,55
5
Calcul des probabilités
P(Ω) = 1
Ω
Si A ⋂ B = ∅
A
Alors
B
P (A ⋃ B ) = P (A) + P (B)
6
Calcul des probabilités
Exemple 1:
16
𝑃 Ω =
=1
16
7
Calcul des probabilités
Exemple 1:
16
𝑃 Ω =
=1
16
𝐶𝑎𝑟𝑑 𝐴
3
𝑃 𝐴 =
=
𝐶𝑎𝑟𝑑 Ω 16
A
A
A
8
Calcul des probabilités
Exemple 1:
16
𝑃 Ω =
=1
16
𝐶𝑎𝑟𝑑 𝐴
3
𝑃 𝐴 =
=
𝐶𝑎𝑟𝑑 Ω 16
𝐶𝑎𝑟𝑑 𝐵
2
𝑃 𝐵 =
=
𝐶𝑎𝑟𝑑 Ω 16
A
A
A
B
B
3
2
5
𝑃 𝐴∪𝐵 =
+
=
16 16 16
9
Calcul des probabilités
Exemple 2:
On choisi une personne d’un groupe où nous
avons 4 fois plus de chance d’avoir « H » que
d’avoir « F ».
Il nous demande de calculer P(H) et P(F) ?
Solution:
Nous avons: Ω = { H, F }
et P(H) = 4 x P(F)
P(Ω) = P({ H, F })
1 = P({H} ⋃ {F})
4 x P(F) + P(F) = 1
P(H) + P(F) = 1
5 x P(F) = 1
P(F) = 1/5 ⇒ P(H) = 4/5
10
Calcul des probabilités
Ω = {A+, A –, B+, B –, AB+, AB –, O+, O –}
Nous avons l’évènement A = {avoir Rh+}
Donc A = {A+, B+, AB+, O+}
4 1
𝑃 𝐴 = =
8 2
Ω = {A+} ⋃ {A –} ⋃ {B+} ⋃ ……. ⋃ {O –}
𝑃𝐴+ + 𝑃𝐴− + ⋯ + 𝑃𝑂− = 1
𝑃 + 𝑃 + ⋯ + 𝑃 = 1 ⇒ 8𝑃 = 1 ⇒ 𝑃 =
1
8
𝑃 𝐴 = 𝑃𝐴+ + 𝑃𝐵+ + 𝑃𝐴𝐵+ + 𝑃𝑂+
11
Calcul des probabilités
Ω = {A+, A –, B+, B –, AB+, AB –, O+, O –}
Nous avons l’évènement A = {avoir Rh+}
Donc A = {A+, B+, AB+, O+}
𝑃 𝐴 = 𝑃𝐴+ + 𝑃𝐵+ + 𝑃𝐴𝐵+ + 𝑃𝑂+
1
8
𝑃 𝐴 = +
1
1
1
+ +
8
8
8
=
4
8
12
Calcul des probabilités
Ω = {A+, A –, B+, B –, AB+, AB –, O+, O –}
Nous avons l’évènement A = {avoir Rh+}
Donc A = {A+, B+, AB+, O+}
Donc 𝑃 𝐴 =
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠
13
Calcul des probabilités
Exemple:
On choisi deux personnes au hasard d’un groupe
de 10 personnes dont 4 malades, quelle est la
probabilité d’avoir 2 personnes malades ?
2
Solution: le nombre de cas possibles est 𝐶10
=𝑁
le nombre de cas favorables est 𝐶42 = 𝑛
Donc, P(d’avoir 2 malades) =
𝑛
𝑁
=
𝐶42
2
𝐶10
=
6
45
= 0,13
14
Calcul des probabilités
La probabilité d’un évènement est un nombre
compris entre 0 et 1.
En effet, le nombre de cas favorables 𝑛 est au
moins égal à zéro et au plus égal au nombre de
cas possibles 𝑁.
Donc, 0 ≤ 𝑛 ≤ 𝑁 et par conséquent : 0 ≤
𝑛
𝑁
≤1
15
Calcul des probabilités
À l’impossibilité (aucun cas favorable) correspond
la probabilité zéro.
Lorsqu’un évènement 𝐴 ne se réalise pas, on dit
qu’il y a réalisation de l’évènement contraire 𝐴
𝑁−𝑛 𝑁 𝑛
𝑛
𝑃 𝐴 =
= − =1−
𝑁
𝑁 𝑁
𝑁
16
Les probabilités totales
On choisi au hasard 2 personnes d’un groupe
contenant 7 Hommes et 3 Femmes.
 Qu’elle est la probabilité que « les 2 personnes
soient de même sexe » ?
17
Les probabilités totales
Réponse:
L’évènement E «les 2 personnes soient de même
sexe» peut se réaliser de 2 façons distinctes:
1) Les 2 personnes sont masculins « H »
2) Les 2 personnes sont féminins « F »
Donc, les 2 évènements « H » et « F » ne peuvent
se produire simultanément. On dit qu’ils s’excluent
mutuellement.
18
Les probabilités totales
Réponse:
La probabilité de l’évènement « H » est:
𝐶72
𝑃 𝐻 = 2
𝐶10
De même, la probabilité de l’évènement « F » est:
𝐶32
𝑃 𝐹 = 2
𝐶10
19
Les probabilités totales
Réponse:
Donc, l’évènement E se réalise si l’évènement
« H » ou l’évènement « F » se réalise.
𝐶72 + 𝐶32
𝐶72
𝐶32
𝑃 𝐸 = 𝑃 𝐻 𝑜𝑢 𝐹 =
= 2 + 2
2
𝐶10
𝐶10 𝐶10
𝑃 𝐻 𝑜𝑢 𝐹 = 𝑃 𝐻 + 𝑃(𝐹)
C’est le théorème des probabilités totales.
20
Les probabilités totales
Probabilité d’un évènement ou d’un autre
La relation : 𝑃 𝐴 𝑜𝑢 𝐵 = 𝑃 𝐴 + 𝑃 𝐵 est valable
dans le cas où les évènements A et B s’excluent
mutuellement.
On peut établir une relation plus générale:
Soit 𝑛1: le nombre de cas favorables pour « A »
𝑛2: le nombre de cas favorables pour « B »
𝑛3: le nombre de cas favorables pour «A et B»
Donc: 𝑛3 ≤ 𝑛1 et 𝑛3 ≤ 𝑛2
21
Les probabilités totales
Probabilité d’un évènement ou d’un autre
Si l’on s’intéresse à la réalisation de « A ou B », le
nombre des cas favorables est:
𝑛1 + 𝑛2 − 𝑛3
𝑛1 + 𝑛2 − 𝑛3 𝑛1 𝑛2 𝑛3
𝑃 𝐴 𝑜𝑢 𝐵 =
=
+
−
𝑁
𝑁
𝑁
𝑁
𝑃 𝐴 𝑜𝑢 𝐵 = 𝑃 𝐴 + 𝑃 𝐵 − 𝑃(𝐴 𝑒𝑡 𝐵)
22
Les probabilités totales
Probabilité d’un évènement ou d’un autre
Exemple:
On choisi au hasard une personne d’un groupe de
10 comprenant : 3 Femmes et 3 Diabétiques dont
1 homme)
Qu’elle est la probabilité d’avoir un homme ou un
diabétique ?
23
Les probabilités totales
Probabilité d’un évènement ou d’un autre
Réponse:
𝑃 𝐻 =
7
10
= 0,7
𝑃 𝐷 =
3
10
= 0,3
1
𝑃 𝐻 𝑒𝑡 𝐷 =
= 0,1
10
Donc: 𝑃 𝐻 𝑜𝑢 𝐷 = 𝑃 𝐻 + 𝑃 𝐷 − 𝑃(𝐻 𝑒𝑡 𝐷)
= 0,7 + 0,3 − 0,1 = 0,9
24
Les probabilités composées
Considérons un groupe de 30 individus dont 4
Hypertendus (H) et 4 Diabétiques (D).
Supposons que l’on choisi au hasard 1 personne
puis une seconde sans remise de la première
personne choisie dans le groupe.
Désignons par A l’évènement « la 1ère personne
choisie est hypertendu »
Et par B l’évènement « la 2ème personne choisie
est diabétique ».
25
Les probabilités composées
4
𝑃 𝐴 =
30
Sachant que l’évènement A a été réalisé, la
probabilité de « B » est:
𝑃 𝐵 =
C’est la probabilité
conditionnelle et notée P(B/A)
4
29
P (B/A) =
4
29
= 0,13
26
Les probabilités composées
Maintenant : l’évènement « A et B »
Le nombre des cas favorables est:
𝐶41 × 𝐶41 = 4 × 4
Le nombre des cas possibles est:
1
1
𝐶30
× 𝐶29
= 30 × 29
Par conséquent, la probabilité de « A et B » est :
4×4
4
4
𝑃 𝐴 𝑒𝑡 𝐵 =
=
×
30 × 29 30 29
𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃(𝐴) × 𝑃(𝐵/𝐴)
27
Les probabilités composées
Exemple :
Nous avons 250 individus:
A
B
C
G
F
50
30
11
39
39
81
100
150
∑
80
50
120
250
28
Les probabilités composées
Exemple :
Nous avons 250 individus:
A
B
C
G
F
50
30
11
39
39
81
100
150
∑
80
50
120
250
𝑃 𝐺 =
𝑃 𝐵 =
100
250
50
250
= 0,4
= 0,2
𝑃 𝐹 =
150
250
𝑃 𝐴∩𝐹 =
= 0,6
30
250
= 0,12
29
Les probabilités composées
Exemple :
Nous avons 250 individus:
A
B
C
G
F
50
30
11
39
39
81
100
150
∑
80
50
120
250
𝑃 𝐺 =
𝑃 𝐵 =
100
250
50
250
= 0,4
= 0,2
𝑃 𝐹 =
150
250
𝑃 𝐴∩𝐹 =
= 0,6
30
250
= 0,12
30
Les probabilités composées
Exemple :
Nous avons 250 individus:
A
B
C
G
F
50
30
11
39
39
81
100
150
∑
80
50
120
250
𝑃 𝐺 =
𝑃 𝐵 =
100
250
50
250
= 0,4
= 0,2
𝑃 𝐹 =
150
250
𝑃 𝐴∩𝐹 =
= 0,6
30
250
= 0,12
31
Les probabilités composées
Exemple :
Nous avons 250 individus:
A
B
C
G
F
50
30
11
39
39
81
100
150
∑
80
50
120
250
𝑃 𝐺 =
𝑃 𝐵 =
100
250
50
250
= 0,4
= 0,2
𝑃 𝐹 =
150
250
𝑃 𝐴∩𝐹 =
= 0,6
30
250
= 0,12
32
Les probabilités composées
Exemple :
Qu’elle est la probabilité:
P(A / G) = ?
Et
𝑃(𝐴/𝐺) =
50
100
= 0,5
P(C / G) =?
𝑃(𝐶/𝐺) =
39
100
= 0,39
C’est la probabilité conditionnelle
33
Les probabilités composées
Exemple :
Qu’elle est la probabilité:
P(A / G) = ?
Et
𝑃(𝐴/𝐺) =
50
100
= 0,5
P(C / G) =?
𝑃(𝐶/𝐺) =
39
100
= 0,39
C’est la probabilité conditionnelle
34
Les probabilités composées
Exemple :
Qu’elle est la probabilité:
P(A / G) = ?
Et
𝑃(𝐴/𝐺) =
50
100
= 0,5
P(C / G) =?
𝑃(𝐶/𝐺) =
39
100
= 0,39
C’est la probabilité conditionnelle
35
Les probabilités composées
Exemple :
0,5
G
0,4
0,11
0,39
0,2
0,6
F
0,26
0,54
A P(G ⋂ A) = 0,2
B P(G ⋂ B) = 0,044
C P(G ⋂ C) = 0,156
A P(F ⋂ A) = 0,12
B P(F ⋂ B) = 0,156
C P(F ⋂ C) = 0,324
36
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
Synthèse cours antérieur
Ω
P(Ω) = 1 (évènement certain)
P(𝐴) = 1 – P(A)
A
A
Ω
Si A ⋂ B = ∅
P (A ⋃ B ) = P (A) + P (B)
A
B
3
Synthèse cours antérieur
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃 𝐴 =
𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠
𝑃 𝐴 𝑜𝑢 𝐵 = 𝑃 𝐴 + 𝑃 𝐵 − 𝑃(𝐴 𝑒𝑡 𝐵)
𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃(𝐴) × 𝑃(𝐵/𝐴)
4
5
Evènements indépendants
Reprenons le dernier exemple étudié lors du cours
précédent :
On choisi au hasard 1 personne d’un groupe de 30
individus dont 4 Hypertendus (H) et 4 Diabétiques
(D). puis on choisi au hasard une seconde
personne sans remise de la première personne
choisie dans le groupe (il s’agit d’un tirage sans
remise).
6
Evènements indépendants
Soit A l’évènement « la 1ère personne choisie est
hypertendu »
et soit B l’évènement « la 2ème personne choisie
est diabétique ».
Nous avons vu que la probabilité conditionnelle de
B sachant que A est réalisé a pour valeur :
P (B/A) =
4
29
7
Evènements indépendants
Que l’évènement A se réalise ou non, l’évènement
B a une certaine probabilité de se produire. Cette
probabilité P(B) est appelée probabilité à priori.
Calculons P(B) :
L’évènement B peut être réalisé de deux manières
différentes qui s’excluent mutuellement:
 La 1ère personne est diabétique, la 2ème est
diabétique,
 La 1ère personne n’est pas diabétique, la 2ème est
diabétique.
8
Evènements indépendants
Les nombres des cas favorables à ces deux
éventualités sont respectivement : 4 x 3 et 26 x 4.
Il en résulte que la probabilité de l’évènement B est:
4 × 3 + 26 × 4
4 × 29
4
𝑃 𝐵 =
=
=
30 × 29
30 × 29 30
La probabilité conditionnelle 𝑃(𝐵/𝐴) est différente de
la probabilité à priori 𝑃(𝐵).
Les évènements A et B sont dits dépendants.
9
Evènements indépendants
Reprenons la même expérience en supposant
maintenant que l’on remet la première personne
dans le groupe avant de tirer la seconde (on dit
qu’il s’agit d’un tirage avec remise).
Nous avons maintenant:
𝑃(𝐵/𝐴) =
4
30
10
Evènements indépendants
En effet, la première personne tirée (Diabétique) a
été remise dans le groupe qui comporte toujours 4
diabétiques.
L’évènement B peut être réalisé de deux manières
qui s’excluent mutuellement :
 La 1ère personne est diabétique, la 2ème est
diabétique,
 La 1ère personne n’est pas diabétique, la 2ème est
diabétique.
11
Evènements indépendants
Les nombres de cas favorables à ces deux
évènements sont respectivement : 4 x 4 et 26 x 4.
La probabilité de l’évènement B est alors :
4 × 4 + 26 × 4
4 × 30
4
𝑃 𝐵 =
=
=
30 × 30
30 × 30 30
Nous avons maintenant :
𝑃(𝐵/𝐴)= 𝑃(𝐵)
12
Evènements indépendants
La probabilité conditionnelle de B quand A est
réalisé est égale à la probabilité à priori de B.
On dit que les évènements A et B sont
indépendants.
Remarquant que nous avons toujours :
𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵/𝐴)
Si A et B sont deux évènements indépendants
𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵)
13
Evènements indépendants
Dans les deux exemples suivants, nous avons
deux ensembles de 20 individus dont la moitie
sont de sexe féminin, avec les caractéristiques
suivants:
Individu de sexe
féminin
Individu de sexe
masculin
Individus atteints
(malades)
14
Evènements indépendants
Exemple 1:
15
Evènements indépendants
Exemple 1:
½ Filles; ½ Garçons
16
Evènements indépendants
Exemple 1:
½ Filles; ½ Garçons
½ Malade; ½ Non malades
17
Evènements indépendants
Exemple 2:
18
Evènements indépendants
Exemple 2:
½ Filles
19
Evènements indépendants
Exemple 2:
½ Filles
½ Garçons
20
Evènements indépendants
Dans ces deux exemples, si les évènements sont
indépendants, un individu peut être de sexe
masculin et malade en même temps (Ex 1).
P(M+) = 1/2
P(G) = 1/2
Donc: P(M+ et G) = 1/2 X 1/2 = 1/4
21
Evènements indépendants
Par contre, si les évènements ne sont pas
indépendants (Ex 2), un individu ne peut pas être
malade et de sexe masculin en même temps.
P(M+) = 1/2
P(G) = 1/2
Donc: P(M+ et G) = 0
Mais pour chercher la probabilité d’avoir un
individu malade ou de sexe masculin :
𝑃 𝑀 + 𝑜𝑢 𝐺 = 1/2 + 1/2
22
Evènements indépendants
Considérons deux évènements A et B.
1. Si A ⊂ B (si A est réalisé, alors B aussi).
A
B
Alors 𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐴)
D’où 𝑃(𝐵/𝐴)=
𝑃(𝐴∩𝐵)
𝑃(𝐴)
= 1 𝑒𝑡 𝑃(𝐴/𝐵)=
𝑃(𝐴∩𝐵)
𝑃(𝐵)
=
𝑃(𝐴)
𝑃(𝐵)
A et B ne sont pas indépendants.
23
Evènements indépendants
Considérons deux évènements A et B.
2. Si A ⋂ B (A et B sont exclusifs).
B
A
Alors 𝑃 𝐴 ∩ 𝐵 = 𝑃 ∅ = 0
D’où 𝑃(𝐴/𝐵)=
𝑃(𝐴∩𝐵)
𝑃(𝐵)
=
0
𝑃(𝐵)
=0
De même A et B ne sont pas indépendants.
24
Théorème Bayes
Révérend Thomas Bayes
1702 - 1761
25
Théorème Bayes
Il permet de calculer la probabilité à posteriori d’un
évènement A, [après qu’un autre évènement B
s’est produit = P(A/B)] à partir de sa probabilité à
priori [P(A)].
A partir de la probabilité conditionnelle :
𝑃(𝐴/𝐵) =
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵)
Or, nous avons : 𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐴) × 𝑃(𝐵/𝐴)
𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐵) × 𝑃(𝐴/𝐵)
26
Théorème Bayes
Donc : 𝑃(𝐴/𝐵)
=
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵)
𝑃(𝐴/𝐵) =
=
𝑃(𝐴)×𝑃(𝐵/𝐴)
𝑃(𝐵)
𝑃(𝐴)×𝑃(𝐵/𝐴)
𝑃(𝐵)
27
Théorème Bayes
Considérons deux groupes (G1 et G2) d’individus dont
certains sont malades. On choisi un individu dans le
G1 ou dans le G2.
Soit C1 l’évènement "le choix est effectué dans G1"
Et C2 l’évènement "le choix est effectué dans G2"
Et M l’évènement "l’individu choisi est malade"
La probabilité de choisir un individu malade dans le G1
est égale à la proportion des malades dans ce groupe,
soit 𝑃(M/C1), de même 𝑃(M/C2)
28
Théorème Bayes
Sachant que l’individu choisi est malade,
 Quelle est la probabilité qu’il proviens du G1 ?
 Quelle est la probabilité qu’il proviens du G2 ?
Ces probabilités sont notées respectivement:
P(C1/M) et P(C2/M)
29
Théorème Bayes
Nous avons :
𝑃(𝐶1/𝑀) =
𝑃(𝐶1 ∩𝑀)
𝑃(𝑀)
=
𝑃(𝐶1)×𝑃(𝑀/𝐶1)
𝑃(𝑀)
Puisque les évènements C1
complémentaires, nous avons :
et
C2
sont
𝑃 𝑀 = 𝑃 𝑀 𝑒𝑡 𝐶1 + 𝑃(𝑀 𝑒𝑡 𝐶2)
= P(C1) P(M / C1) + P(C2) P(M / C2)
30
Théorème Bayes
Par conséquent :
𝑃(𝐶1/𝑀) =
𝑃 𝐶1 𝑃 𝑀/𝐶1
𝑃 𝐶1 𝑃 𝑀/𝐶1 +𝑃 𝐶2 𝑃 𝑀/𝐶2
De même :
𝑃(𝐶2/𝑀) =
𝑃 𝐶2 𝑃 𝑀/𝐶2
𝑃 𝐶1 𝑃 𝑀/𝐶1 +𝑃 𝐶2 𝑃 𝑀/𝐶2
31
Théorème Bayes
Généralisation :
𝑃(𝐶1/𝑀) =
𝑃 𝐶1 𝑃 𝑀/𝐶1
𝑛 𝑃 𝐶𝑖 𝑃 𝑀/𝐶𝑖
𝑖=1
32
Théorème Bayes
Exercice :
On considère une population composée de 45 %
d’hommes et 55 % de femmes.
On suppose que 4 % des hommes et 0,5 % des
femmes sont daltoniens.
On choisi au hasard une personne dans cette
population :
1) Quelle est la probabilité que cette personne soit
daltonienne ?
2) Sachant que cette personne est daltonienne,
quelle est la probabilité que ce soit un homme ?
33
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
Synthèse cours antérieur
𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵/𝐴)
𝑃(𝐵/𝐴)=
𝑃(𝐴 𝑒𝑡 𝐵)
𝑃(𝐴)
Si A et B sont deux évènements indépendants :
𝑃(𝐵/𝐴) = 𝑃(𝐵) donc :
𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵)
3
Synthèse cours antérieur
Le Théorème de Bayes permet de calculer la
probabilité à posteriori d’un évènement A, [après
qu’un autre évènement B s’est produit = P(A/B)] à
partir de sa probabilité à priori [P(A)].
𝑃(𝐴/𝐵) =
𝑃(𝐴/𝐵) =
𝑃(𝐴 ∩ 𝐵)
𝑃(𝐵)
𝑃(𝐴)×𝑃(𝐵/𝐴)
𝑃(𝐵)
Formule de Bayes
4
Synthèse cours antérieur
Si nous avons des évènements A1, A2,…, An tels
qu’ils forment une partition de l’ensemble
fondamental Ω.
𝑃(𝐴𝑖/𝐵) =
𝑃(𝐴𝑖)×𝑃(𝐵/𝐴𝑖)
𝑃(𝐵)
À partir de la probabilité totale P(B)
𝑃 𝐵 = 𝑃 𝐵 ∩ 𝐴1 + 𝑃 𝐵 ∩ 𝐴2 + ⋯ + 𝑃 𝐵 ∩ 𝐴𝑛
𝑃(𝐴𝑖/𝐵) =
𝑃(𝐴𝑖)×𝑃(𝐵/𝐴𝑖)
𝑃 𝐴1 𝑃 𝐵/𝐴1 +⋯+𝑃 𝐴𝑛 𝑃 𝐵/𝐴𝑛
5
Loi des grands nombres
Considérons l’accouchement d’une femme et
intéressons-nous à l’évènement :
E : «l’enfant est de sexe masculin».
La probabilité de cet évènement est 1/2 si on
admet que la naissance d’un garçon et aussi
probable que celle d’une fille.
Observons alors n femmes enceintes et soit k le
nombre de fois que l’évènement E se réalise.
6
Loi des grands nombres
k est la fréquence absolue de l’évènement E,
𝑓𝑛 =
𝑘
en est la fréquence relative.
𝑛
L’expérience montre que si n est grand la
fréquence relative 𝑓𝑛 est voisine de la probabilité
1/2 et que la différence 𝑓𝑛 − 1/2 a tendance à
diminuer lorsque n augmente.
7
Loi des grands nombres
Exemple:
Nombre de femmes
enceintes
10
50
100
200
500 1000 5000
Nombre de garçons
3
27
45
95
260
Fréquence relative
0,3
491 2540
0,54 0,45 0,47 0,52 0,49 0,50
D’où on peut dire que les fréquences relatives
tendent vers 0,5, c’est-à-dire elles tendent vers la
probabilité P quand le nombre de l’évènement
tend vers infini.
8
9
Variable aléatoire discrète
Un couple souhaitant avoir 2 enfants s’intéressent
au nombre de garçons qu’il pourrait avoir.
On admet que la naissance d’un garçon est aussi
probable que celle d’une fille :
P(G) = P(F) = 1/2
Et que les naissances sont indépendantes.
Le nombre de garçons dans cette fratrie ne peut
pas être choisi par les parents; il est régit par un
phénomène aléatoire.
10
Variable aléatoire discrète
Notons X = nombre de garçons. Les valeurs
possibles de X sont 0, 1 ou 2 avec des probabilités
différentes.
Evènement
F puis F
F puis G ou G puis F
G puis G
Valeur de X
0
1
2
Probabilité associée
1/2.1/2 = 1/4
1/2.1/2 + 1/2.1/2 = 1/2
1/2.1/2 = 1/4
L’ensemble des valeurs possibles et leurs
probabilités associées définissent la loi (ou
distribution) de X.
11
Variable aléatoire discrète
Il est possible de représenter graphiquement les
probabilités associées aux valeurs possibles de X
par un diagramme en bâton :
1
0,75
P(x) 0,5
0,25
0
1
2
X
12
Variable aléatoire discrète
On dit que X est une variable aléatoire et
l’ensemble des couples (𝑥𝑖, 𝑃𝑖) où 𝑖 = 1, 2, … , 𝑛
constitue, par définition, sa loi de probabilité.
Notons que nous avons :
𝑃𝑖 = 1
La distribution de X est définie par :
{(x1, P(X = x1)), …,(xk, P(X = xk))}
13
Variable aléatoire discrète
Espérance mathématique d’une V.a. discrète:
Soit X une variable aléatoire de distribution :
{ 𝑥𝑖, 𝑝𝑖 , 𝑖 = 1, 2, … , 𝑘}.
On appelle espérance mathématique de la
variable aléatoire X le nombre :
𝑛
𝑚=𝐸 𝑋 =
𝑃𝑖 𝑥𝑖
𝑖=1
Désigne la moyenne des valeurs prises par X, et
pondérées par leurs probabilités de réalisation.
14
Variable aléatoire discrète
Variance et écart-type d’une V.a. discrète:
Soit X une variable aléatoire de distribution :
{ 𝑥𝑖, 𝑝𝑖 , 𝑖 = 1, 2, … , 𝑘} et de moyenne m.
La variance de X, notée V(X) ou 𝜎 2 , est :
𝜎 2 = (𝑥1 − 𝑚)2 𝑃1 + ⋯ + (𝑥𝑘 − 𝑚)2 𝑃𝑘
2
2
=𝐸 𝑋−𝑚
= 𝐸 (𝑋 − 𝐸 𝑋 )
L’écart-type de X est égal à la racine carrée de la
variance de X, soit 𝜎.
15
Variable aléatoire discrète
Fonction de répartition:
On appelle fonction de répartition d’une variable
aléatoire X, la fonction 𝐹(𝑥) telle que :
𝐹 𝑥 = 𝑃(𝑋 < 𝑥) pour tout 𝑥 ∈ ℛ
𝐹 𝑥 =
𝑃 𝑋 = 𝑥𝑖 =
𝑥𝑖≤𝑥
𝑃𝑖
𝑥𝑖≤𝑥
16
Variable aléatoire discrète
Fonction de répartition:
Concrètement la fonction de répartition correspond
à la distribution des probabilités cumulées. Le
plateau atteint par la fonction de répartition
correspond à la valeur de probabilité 1 car :
𝑃𝑖 = 1
L’importance pratique de la fonction de répartition
est qu’elle permet de calculer la probabilité de tout
intervalle dans ℛ.
17
Variable aléatoire discrète
Fonction de répartition:
On prends l’exemple d’un couple souhaitant avoir
3 enfants et qui s’intéressent au nombre de
garçons qu’il pourrait avoir.
On introduit une variable aléatoire :
X = nombre de garçons.
Les valeurs possibles de X sont 0, 1, 2 ou 3 avec
des probabilités différentes.
18
Variable aléatoire discrète
Fonction de répartition:
La loi de probabilité de X est :
Nombre de
Garçons
𝑷(𝑿 = 𝒙𝒊)
𝑭(𝒙)
0
1/8
1/8
1
3/8
4/8
2
3/8
7/8
3
1/8
1
19
Variable aléatoire discrète
Fonction de répartition:
20
Variables aléatoires indépendantes
Soit X et Y deux variables aléatoires sur un même
espace fondamental E. X et Y sont indépendantes
si tous les évènements 𝑋 = 𝑥𝑖 et 𝑌 = 𝑦𝑖 sont
indépendants:
𝑃 𝑋 = 𝑥𝑖 ∩ 𝑌 = 𝑦𝑖
= 𝑃(𝑋 = 𝑥𝑖) × 𝑃(𝑌 = 𝑦𝑖)
1) 𝐸 𝑋𝑌 = 𝐸 𝑋 𝐸(𝑌)
2) 𝑉 𝑋 + 𝑌 = 𝑉 𝑋 + 𝑉(𝑌)
3) 𝐶𝑜𝑣 𝑋, 𝑌 = 0
21
Variable aléatoire continue
Au lieu de prendre seulement des valeurs
discrètes une variable aléatoire peut dans certains
cas prendre toutes les valeurs d’un intervalle fini
ou infini.
La généralisation du cas des variables aléatoires
discontinues au cas de variables aléatoires
continues peut être abordée de manière intuitive à
partir de l’histogramme du polygone des
fréquences. (Fig 1)
22
Variable aléatoire continue
Densité de probabilité
Taille de 200 individus
Figure 1 : Histogramme des fréquences
23
Variable aléatoire continue
Lorsque la taille de l’échantillon devient infinie et la
largeur des classes tend vers 0, alors la limite du
polygone des fréquences tend vers la densité de
probabilité d’une variable aléatoire continue. (Fig
2, 3 et 4)
24
Variable aléatoire continue
Densité de probabilité
Taille de 1000 individus
Figure 2 : L’augmentation de la taille de l’échantillon et la
réduction de la largeur des classes.
25
Variable aléatoire continue
Densité de probabilité
Taille de 100000 individus
Figure 3 : L’augmentation de la taille de l’échantillon et la
réduction de la largeur des classes.
26
Variable aléatoire continue
Densité de probabilité
Taille de 1000000 individus
Figure 4 : L’augmentation de la taille de l’échantillon et la
réduction de la largeur des classes.
27
Variable aléatoire continue
La probabilité pour qu’une réalisation au hasard de
la variable aléatoire soit comprise entre deux
valeur 𝑎 et 𝑏 correspond à la surface comprise
entre la courbe de densité et l’axe des x limité par
les 2 verticales passant par 𝑎 et 𝑏. (Fig 5)
28
Variable aléatoire continue
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏)
f(X)
𝑎
𝑏
Figure 5 : la densité de probabilité f(X) d’une
variable aléatoire continue.
29
Variable aléatoire continue
Une telle variable aléatoire est appelée variable
aléatoire continue. Sa loi de probabilité est
déterminée si l’on connaît, pour tout intervalle
(𝑎, 𝑏) la probabilité que X soit compris entre 𝑎 et 𝑏,
plus précisément :
𝑃(𝑎 ≤ 𝑋 < 𝑏)
Cette loi de probabilité est complètement
déterminée par la connaissance de la fonction :
𝐹 𝑥 = 𝑃(𝑋 < 𝑥)
30
Variable aléatoire continue
En effet, pour 𝑎 < 𝑏 le théorème des probabilités
totales permet d’écrire :
𝑃 𝑋 < 𝑏 = 𝑃 𝑋 < 𝑎 + 𝑃(𝑎 ≤ 𝑋 < 𝑏)
Ou
𝐹 𝑏 = 𝐹 𝑎 + 𝑃(𝑎 ≤ 𝑋 < 𝑏)
Ou encore 𝑃 𝑎 ≤ 𝑋 < 𝑏 = 𝐹 𝑏 − 𝐹(𝑎)
lim 𝐹(𝑥) = 0
𝑥→−∞
et
lim 𝐹(𝑥) = 1
𝑥→+∞
31
Variable aléatoire continue
Remarque :
Pour une variable aléatoire continue, la probabilité
associé à l’évènement (𝑋 = 𝑎) est nulle, car il est
impossible d’observer cette valeur exacte.
On considère alors la probabilité que la valeur X
prenne des valeurs comprises dans un intervalle
[𝑎, 𝑏] tel que 𝑃(𝑎 < 𝑋 < 𝑏)
32
Variable aléatoire continue
On définit alors la loi de probabilité de X, ou
distribution de X, à l’aide d’une fonction 𝑓(𝑥) ,
appelée densité de probabilité de X, telle que :
𝑏
𝑓 𝑥 𝑑𝑥 = 𝑃(𝑎 < 𝑋 < 𝑏)
𝑎
𝐹 +∞ = 1
𝐹 −∞ = 0
𝐹(𝑥) est une fonction croissante de 𝑥.
33
Variable aléatoire continue
34
Variable aléatoire continue
Soit X une variable aléatoire continue dans un
intervalle [𝑎, 𝑏] muni d’une fonction de densité 𝑓.
On définit la loi de probabilité de densité 𝑓 de X,
en associant à tout intervalle [𝑐, 𝑑 ] inclus dans
[𝑎, 𝑏], la probabilité de l’évènement X ∈ [𝑐, 𝑑], c’està-dire 𝑐 < 𝑋 < 𝑑.
35
Variable aléatoire continue
𝑑
𝑃 𝑎<𝑋<𝑏 =1
𝑒𝑡
𝑃 𝑐<𝑋<𝑑 =
𝑓 𝑥 𝑑𝑥
𝑐
36
Variable aléatoire continue
Le passage du cas discontinu au cas continu
revient à considérer la probabilité de trouver une
variable X dans un intervalle donné ce qui
transforme les sommes ∑ en intégrales ʃ et les Pi
en 𝑓(𝑥)dx.
L’espérance mathématique est donc :
+∞
𝑚=𝐸 𝑋 =
𝑥 . 𝑓 𝑥 𝑑𝑥
−∞
37
Variable aléatoire continue
La moyenne de X a la même signification que
dans le cas discontinu : c’est la limite de la
moyenne arithmétique d’un échantillon lorsque la
taille tend vers l’infini.
La variance est toujours définie par :
𝜎2
= 𝐸 (𝑋 − 𝐸 𝑋
2
)
38
Variable aléatoire continue
Exemple :
Soit X la variable aléatoire continue dans
l’intervalle [0, 1], muni de la fonction de densité 𝑓
définie par : 𝑓 𝑥 = 3𝑥 2
1) Déterminer 𝑃(𝑋 = 0,5)
2) Calculer 𝑃(𝑋 ≤ 0,5)
3) En déduire 𝑃(𝑋 > 0,5)
4) Calculer 𝑃(0,3 < 𝑋 < 0,5)
5) Calculer 𝑃[(0,3 < 𝑋 < 0,9)/(0,2 < 𝑋 < 0,5]
39
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
Evaluation de l’intérêt
diagnostique des informations
médicales
3
Introduction
En médecine, le diagnostic est la démarche par laquelle
le médecin, généraliste ou spécialiste, va déterminer
l'affection dont souffre le patient, et qui va permettre de
proposer un traitement.
Le diagnostic d’une maladie repose sur l’observation de
signes
cliniques,
et/ou
la
réalisation
d’examens
complémentaires (biologiques, radiologiques ou autres).
C’est de la valeur de ces signes ou de ces examens que
dépend la validité du diagnostic porté.
4
Introduction
Il n’est bien sûr pas question d’effectuer tous les
examens complémentaires sur tous les malades :
Il faut donc préciser les indication de ces
examens, ce qui repose sur l’évaluation de leur
intérêt diagnostique.
5
Le diagnostic
On peut définir un diagnostic comme un concept
résument l’état d’un individu.
D’un point de vue statistique, le diagnostic sera souvent
considéré comme une variable aléatoire binaire :
 Le patient souffre ou ne souffre pas de l’affection
considérée, ou, exprimé autrement, le diagnostic
est vrai ou faux chez ce patient.
Les valeurs possibles de la variable seront notées M+ et
M- (maladie présente ou absente).
6
Les informations médicales
On divise l’ensemble des informations médicales
en signes cliniques et signes complémentaires.
Les signes cliniques sont divisés en :
 Signes fonctionnels (symptômes), décrits
par le malade;
 Signes
physiques,
recherchés
par
le
médecin.
7
Les informations médicales
Les
signes
complémentaires
peuvent
être
biologiques ou radiologiques. Leur intérêt peut être :
 Diagnostique (caractère malin ou bénin
d’une tumeur)
 Thérapeutique (localisation précise d’une
tumeur)
 Pronostique (extension ganglionnaire)
8
Les informations médicales
D’un point de vue statistique, ces signes peuvent
être
représentés
par
des
variables
binaires
(présence ou absence d’un nodule sur une image)
ou continues (cholestérolémie).
On entendra par « test » un signe clinique au sens
large.
9
Performances d’un test
Le choix de retenir ou non un nouvel examen
diagnostic ne peut donc se faire qu’après une
évaluation rigoureuse de ses avantages et de ses
inconvénients par rapport à ceux des examens qui
existaient jusque là.
Les
performances
d’un
test
doivent
être
successivement mesurées de façon expérimentale,
et évaluées en situation réelle sur le terrain.
10
Performances d’un test
Les performances d’un test visant à faire le
diagnostic d’une maladie M sont établies à partir
de 2 groupes de sujets :
l’un est constitué de porteurs de la maladie M
(dont on a fait le diagnostic par une méthode de
référence),
l’autre de sujets indemnes de cette maladie.
11
Performances d’un test
La pratique du test chez l’ensemble des sujets va
permettre d’établir le tableau de contingence
suivant :
Malades
Non malades Total
Test positif
Vrais positifs
Faux positifs
VP + FP
Test négatif
Faux négatifs
Vrais négatifs
FN + VN
VP + FN
FP + VN
N
Total
12
Mesure expérimentale
Des performances
D’un test
Un test doit posséder deux qualités majeures :
La sensibilité et la spécificité. Il s’agit des qualités
« intrinsèques » du test.
13
Sensibilité (Se)
La sensibilité d’un test est ca capacité à détecter les
cas d’une maladie.
probabilité conditionnelle que le test soit positif
sachant que le sujet est malade : P (T+/M+)
estimée par la proportion de résultats positifs
quand on applique le test à un groupe de sujets
malades :
𝑉𝑃
𝑆𝑒 =
𝑉𝑃 + 𝐹𝑁
14
Sensibilité (Se)
M+
M–
Total
T+
VP
FP
VP + FP
T–
FN
VN
FN + VN
Total
VP + FN
FP + VN
N
𝑽𝑷
𝑺𝒆 =
𝑽𝑷 + 𝑭𝑵
15
Sensibilité (Se)
Exemple:
On veut tester la sensibilité d’un test de dépistage
de la toxoplasmose congénitale. On dispose d’un
groupe de 58 prélèvements, correspondant à des
enfants nés ultérieurement et atteints de façon
certaine de toxoplasmose congénitale. Parmi eux, le
test à été positif dans 54 cas.
La sensibilité est : 𝑆𝑒 =
54
58
= 93,1%
16
Spécificité (Sp)
La spécificité d’un test est ca capacité à identifier
correctement les individus qui ne sont pas atteints
par la maladie.
 probabilité conditionnelle que le test soit négatif
sachant que le sujet est sain : P (T-/M-)
 estimée par la proportion de résultats négatifs
quand on applique le test à un groupe de sujets
non malades :
𝑉𝑁
𝑆𝑝 =
𝑉𝑁 + 𝐹𝑃
17
Spécificité (Sp)
M+
M–
Total
T+
VP
FP
VP + FP
T–
FN
VN
FN + VN
Total
VP + FN
FP + VN
N
𝑽𝑵
𝑺𝒑 =
𝑽𝑵 + 𝑭𝑷
18
Spécificité (Sp)
Exemple :
On veut tester la spécificité d’un test de dépistage
de la toxoplasmose congénitale. On dispose d’un
groupe de 125 prélèvements, correspondant à des
enfants nés ultérieurement et indemnes de façon
certaine de toxoplasmose congénitale. Parmi eux, le
test à été négatif dans 114 cas.
La spécificité est : 𝑆𝑝 =
114
125
= 91,2%
19
Spécificité (Sp)
Pour un examen "parfait", c’est-à-dire n’effectuant aucune
erreur, les valeurs de la sensibilité et de la spécificité sont
égale à 1 :
M+
M–
Total
T+
VP
T–
Total
VP + FN
𝑽𝑷
𝑺𝒆 =
=𝟏
𝑽𝑷 + 𝟎
VP + FP
VN
FN + VN
FP + VN
N
𝑽𝑵
𝑺𝒑 =
=𝟏
𝑽𝑵 + 𝟎
20
Cas d’un test quantitatif
Le plus souvent le résultat d’un test n’est pas
binaire mais s’exprime par une grandeur continue
(résultats quantitatifs).
En raison de la variabilité biologique, ces valeurs
sont différentes d’un sujet à l’autre. Les résultats
vont s’afficher sous forme d’une distribution.
Le problème est donc de déterminer une valeur
seuil qui permettra de classer les malades et les
sujets sains.
21
Cas d’un test quantitatif
Si le test est parfaitement discriminant, la
distribution des valeurs dans le groupe des cas,
sera bien séparée de la distribution des valeurs
dans un groupe de sujets sains.
Il sera alors aisé de choisir une valeur seuil qui
permettra une sensibilité et une spécificité de
100%.
22
Introduction
Non Malades
VN
Malades
VP
23
Cas d’un test quantitatif
Le plus souvent, il y a chevauchement des deux
distribution. Certains sujets sains présentent des
valeurs qui peuvent être identiques à celle de
sujets malades et à l’inverse certains malades
présentent des valeurs qui peuvent être
identiques à celles de sujets sains.
Le choix d’un seuil devient une opération délicate,
car il divise les deux groupes de sujets en 4 sousgroupes, VP, FN, VN et FP.
24
Cas d’un test quantitatif
Non Malades
VN
Malades
VP
25
Cas d’un test quantitatif
VN
VP
FN FP
On conçoit que les qualités diagnostiques du test
vont varier selon le seuil choisi.
26
Cas d’un test quantitatif
VN
FN
VP
FP
27
Cas d’un test quantitatif
VN
VP
FN
FP
La sensibilité et la spécificité varient en sens
inverse.
28
Choix d’un seuil
On représente en général les résultats d’un tel
test au moyen d’une courbe dite courbe ROC
(Receiver Operating Characteristic), sur laquelle
chaque seuil possible est représenté par un point
ayant pour abscisse le taux de faux positifs (1 –
Sp) et pour ordonnée le taux de vrais positifs (Se).
29
Choix d’un seuil
Le choix de la valeur seuil est guidé par
l’importance accordée aux erreurs :
Le clinicien, en choisissant le seuil d’anormalité
détermine, dans une certaine mesure, les gravités
relatives des faux négatifs (ne pas diagnostiquer
la maladie chez un malade) et des faux positifs
(diagnostiquer à tort la maladie).
Aussi, ce seuil doit-il être fixé en tenant compte de
la gravité relative de chaque type d’erreur et du
contexte (dépistage, démarche diagnostique).
30
Choix d’un seuil
Exemple du dosage de l’hormone T3 dans le
diagnostic de l’hyperthyroïdie.
Seuil de positivité > 230 ng/dl
T+
T–
𝑆𝑒 = 𝑃(𝑇 +/𝑀 +)
𝑆𝑝 = 𝑃(𝑇 −/𝑀 −)
M+
32
M–
3
8
40
77
80
32
=
40
77
=
80
= 0,8 = 80%
= 0,96 = 96%
31
Choix d’un seuil
Exemple du dosage de l’hormone T3 dans le
diagnostic de l’hyperthyroïdie.
Seuil de positivité ⇒ 200 ng/dl
T+
T–
𝑆𝑒 = 𝑃(𝑇 +/𝑀 +)
𝑆𝑝 = 𝑃(𝑇 −/𝑀 −)
M+
36
M–
8
4
40
72
80
36
=
40
72
=
80
= 0,9 = 90%
= 0,9 = 90%
32
Choix d’un seuil
Exemple du dosage de l’hormone T3 dans le
diagnostic de l’hyperthyroïdie.
Seuil de positivité ⇒ 170 ng/dl
T+
T–
𝑆𝑒 = 𝑃(𝑇 +/𝑀 +)
𝑆𝑝 = 𝑃(𝑇 −/𝑀 −)
M+
37
M–
16
3
40
64
80
37
=
40
64
=
80
= 0,92 = 92%
= 0,8 = 80%
33
Choix d’un seuil
1.0
La courbe ROC :
>170
0.2
0.4
0.6
>230
0.0
sensibilité
0.8
>200
0.0
0.2
0.4
0.6
1-spécificité
0.8
1.0
34
Choix d’un seuil
0.6
0.4
0.2
0.0
sensibilité
0.8
1.0
La courbe ROC :
0.0
0.2
0.4
0.6
1-spécificité
0.8
1.0
35
Choix d’un seuil
0.6
0.4
0.2
0.0
sensibilité
Ligne
de tests nulles
Zone de
compromis
0.8
Test parfait
1.0
La courbe ROC :
0.0
0.2
0.4
0.6
1-spécificité
0.8
1.0
36
Mesures de performances
D’un test
en situation réelle
Il s’agit des qualités « extrinsèques » du test.
Sont appelées valeurs prédictives d’un test.
37
Valeur prédictive positive
Lorsqu’un test est positif il existe deux possibilités:
Soit le sujet est malade, soit le sujet n’est pas
malade malgré ce résultat contradictoire.
C’est la capacité d’un test positif à prévoir
l’existence de la maladie que l’on cherche à
diagnostiquer:
probabilité conditionnelle d'être malade si le test
est positif : P(M+/T+)
estimée par la proportion de malades chez les
sujets positif pour le test.
38
Valeur prédictive positive
Dans le cas d’un seul échantillon représentatif :
M+
M–
T+
VP
FP
T–
FN
VN
Total
VP + FN
FP + VN
𝑉𝑃
𝑉𝑃𝑃 =
𝑉𝑃 + 𝐹𝑃
39
Valeur prédictive négative
Lorsqu’un test est négatif il existe deux
possibilités: Soit le sujet est sain, soit le sujet est
malade malgré ce résultat contradictoire.
C’est la capacité d’un test positif à prévoir
l’absence de maladie
probabilité conditionnelle d'être indemne si le
test est négatif : P(M-/T-)
estimée par la proportion de sujets sains chez
les sujets négatifs pour le test.
40
Valeur prédictive négative
Dans le cas d’un seul échantillon représentatif :
M+
M–
T+
VP
FP
T–
FN
VN
Total
VP + FN
FP + VN
𝑉𝑁
𝑉𝑃𝑁 =
𝑉𝑁 + 𝐹𝑁
41
Valeur prédictive pour deux échantillon
Dans le cas des maladies rare, l’estimation des
valeurs prédictives se fait sur deux échantillons
(malades
et non malades)
à condition
de
connaître la prévalence de la maladie P(M), la
sensibilité Se et la spécificité Sp.
42
Valeur prédictive pour deux échantillon
VPP ET VPN sont dépendantes
- de la qualité intrinsèque du test (Se, Sp)
- de la prévalence de M (probabilité pré-test)
Test
diagnostique
Probabilité
pré-test
P(M)
Probabilité
post-test
P(M|test)
43
Valeur prédictive pour deux échantillon
𝑉𝑃𝑃 = 𝑃(𝑀 + 𝑇 +)
𝑃(𝑇 +/𝑀+) × 𝑃(𝑀+)
=
𝑃 𝑇 +/𝑀 + × 𝑃 𝑀 + + 𝑃(𝑇 +/𝑀−) × 𝑃(𝑀−)
𝑆𝑒 × 𝑃
𝑉𝑃𝑃 =
𝑆𝑒 × 𝑃 + (1 − 𝑆𝑝) × (1 − 𝑃)
44
Valeur prédictive pour deux échantillon
𝑉𝑃𝑁 = 𝑃(𝑀 −/𝑇 −)
𝑃(𝑇 −/𝑀−) × 𝑃(𝑀−)
=
𝑃 𝑇 −/𝑀 − × 𝑃 𝑀 − + 𝑃(𝑇 −/𝑀+) × 𝑃(𝑀+)
𝑆𝑝 × (1 − 𝑃)
𝑉𝑃𝑁 =
𝑆𝑝 × (1 − 𝑃) + (1 − 𝑆𝑒) × (𝑃)
45
Valeur prédictive
1,00
0,90
0,80
0,70
0,60
---VPPVPP
--- VPN
VPN
0,50
0,40
0,30
0,20
0,10
0,00
0,00
0,10
0,20
0,30
0,40
0,50
0,60
0,70
0,80
0,90
1,00
Prévalence
Prévalence
46
Rapport de vraisemblance
Les rapports de vraisemblance (RV ou LR=
likelihood ratio) décrivent l’apport d’un test au
diagnostic :
Le rapport de vraisemblance positif (RVP ou L)
d’un test est le rapport de la probabilité d’avoir un
test positif en présence de la maladie sur la
probabilité d’avoir un test positif en l’absence de
maladie :
L = Se/(1-Sp) = (VP/malades)/(FP/non malades)
47
Rapport de vraisemblance
L varie de 0 à l’infini. Plus il est élevé, plus le gain
diagnostique est important. Ainsi un L=1 n’apporte
rien au diagnostic (le test est positif mais la
probabilité d’être malade = celle de n’être pas
malade), un L compris entre 2 et 5 est considéré
comme d’apport mineur ; un L entre 5 et 10 d’un
apport modéré, alors qu’un L > 10 est d’un apport
important au diagnostic.
48
Rapport de vraisemblance
Le rapport de vraisemblance négatif (RVN ou λ)
d’un test est le rapport de la probabilité d’un test
négatif chez un malade sur celle d’un test négatif
chez un non-malade.
Plus il est proche de 0, plus il
permet d'exclure le diagnostic. Un RVN < 0,1 est
d’un apport important au diagnostic ; entre 0,1 et
0,2 : apport modéré ; entre 0,2 et 0,5 : apport
mineur ; > 0,5 : pas d’intérêt.
λ = (1-Se)/Sp = (FN/malades)/(VN/non malades)
49
Rapport de vraisemblance
Exercice :
Dans une population pour laquelle 1 habitant sur
100 est atteint d’une maladie génétique M, on a
mis au point un test de dépistage. Le résultat du
test est soit positif soit négatif.
On sais que : P(T+/M+) = 0,8 et p(T-/M-) = 0,9
On soumet un patient au test. Celui-ci est positif.
Quelle est la probabilité que ce patient soit atteint
de la maladie M soit P(M+/T+) ?
50
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
Distribution d’une variable aléatoire
Lorsque les valeurs d’une variable sont classées,
on examine leur distribution. Une première phase
d’une analyse consiste à décrire cette distribution.
3
Distribution d’une variable aléatoire
Les valeurs de la distribution se répartissent un peu
n’importe comment
4
Distribution d’une variable aléatoire
Les valeurs de la distribution se répartissent selon un
modèle fréquemment observé en biologie et médecine.
5
Distribution d’une variable aléatoire
La dispersion de la distribution est asymétrique. Elle est
plus importante pour les valeurs élevées. Dispersion
rencontrée en biologie et médecine.
6
Distribution d’une variable aléatoire
Les valeurs de la distribution sont réparties en deux souspopulations. Observée très souvent en médecine (sujets
sains et sujets malades).
7
Distribution d’une variable aléatoire
Si en ordonnées, on remplace les effectifs 𝑛𝑖 de
chaque classe par leurs rapports au total des
effectifs 𝑛𝑖/𝑁 , on obtient le diagramme des
fréquences relatives de chaque classe 𝑃(𝑋).
8
Distribution d’une variable aléatoire
Distribution des fréquences relatives d’une variable 𝑋.
9
Distribution d’une variable aléatoire
Distribution
continue 𝑋.
des
fréquences
relatives
d’une
variable
10
11
Epreuve de Bernoulli
Jacob Bernoulli
27 décembre 1654 - 16 août 1705
12
Epreuve de Bernoulli
Considérons une expérience dont le résultat est
aléatoire et soit 𝐴 un évènement défini sur cette
expérience. Tout résultat de l’expérience est une
réalisation de l’évènement 𝐴 ou de son contraire 𝐴.
Posons :
𝑃 𝐴 =𝑝
𝑃 𝐴 =𝑞
Nous avons :
𝑃 𝐴 +𝑃 𝐴 =1
Soit :
𝑝+𝑞 =1
13
Epreuve de Bernoulli
Exemple :
Dans le cas d’une femme enceinte, si l’évènement
𝐴 est l’arrivée d’un garçon, l’évènement contraire 𝐴
est l’arrivée d’une fille. On a :
1
𝑝=𝑞=
2
Lorsqu’on s’intéresse ainsi à un évènement 𝐴 ou à
son contraire 𝐴, la réalisation de l’expérience est
appelée épreuve de Bernoulli.
14
Epreuve de Bernoulli
On peut associer à une épreuve de Bernoulli une
variable aléatoire X prenant la valeur 1 quand
l’évènement 𝐴 est réalisé et la valeur 0 quand c’est
l’évènement contraire 𝐴 qui est réalisé.
La loi de probabilité de X est :
𝑃 𝑋=1 =𝑝
𝑃 𝑋=0 =𝑞
Avec :
𝑝+𝑞 =1
15
Epreuve de Bernoulli
Une telle variable aléatoire est appelée variable de
Bernoulli et sa loi de probabilité est appelée loi de
Bernoulli.
L’espérance mathématique de X est :
𝐸 𝑋 = 𝑝. 1 + 𝑞. 0
𝐸 𝑋 =𝑝
16
Epreuve de Bernoulli
L’espérance mathématique de X 2 est :
𝐸 𝑋 2 = 𝑝. 12 + 𝑞. 02
𝐸 𝑋2 = 𝑝
La variance de X est alors :
𝜎 2 = 𝐸 𝑋 2 − [𝐸 𝑋 ]2
𝜎 2 = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝)
𝜎 2 = 𝑝𝑞
17
Loi Binomiale
Décrite pour la première fois par Isaac Newton en
1676 et démontrée pour la première fois par le
mathématicien suisse Jacob Bernoulli en 1713
après sa mort, par son neveu Nicolas Bernoulli.
La loi binomiale est l’une des distributions de
probabilité les plus fréquemment rencontrées en
statistique appliquée.
18
Loi Binomiale
Considérons une suite de 𝑛 épreuves de Bernoulli
identiques. A chaque épreuve nous appellerons
succès la réalisation de l’évènement 𝐴 et échec la
réalisation de l’évènement contraire 𝐴.
Soit X le nombre de réalisation de l’évènement 𝐴
ou nombre de succès au cours des 𝑛 épreuves.
X est une variable aléatoire qui peut prendre les
valeurs 0, 1, 2, …, 𝑛. Sa loi de probabilité est :
𝑃 𝑋 = 𝑘 = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘
19
Loi Binomiale
k : Nombre de sujets porteurs de la caractéristique
dans l’échantillon (𝑘 = 0, 1, … 𝑛) ;
𝑛 : Taille de l’échantillon;
𝑃 : Proportion de sujets porteurs de la caractéristique dans la population.
On appelle X la variable qui peut prendre la
valeur k.
20
Loi Binomiale
On utilise la loi binomiale lorsqu’on désire connaître :
1) La probabilité de k succès au bout de 𝑛 tentative
sachant la probabilité P de gagner à chacune
des tentatives. C’est la situation de jeu de
hasard;
ou bien, de façon plus pratique,
2) La probabilité d’observer k individus possédant
une caractéristique donnée dans un échantillon
de 𝑛 individus tirés d’une population où la
proportion P de la caractéristique est connue.
21
Loi Binomiale
Exemple :
Voici deux questions faisant appel à la loi binomiale:
1) Quelle est la probabilité d’avoir 3 garçons chez
10 femmes enceintes ?
2) Quelle est la probabilité d’observer 3 malades
dans un échantillon de 10 sujets choisi au hasard
dans une population où la fréquence de la
maladie est de 17 % ?
22
Loi Binomiale
Solution :
1) Quelle est la probabilité d’avoir 3 garçons dans
un groupe de 10 femmes enceintes ?
K = nombre de garçons à avoir = 3
𝑛 = taille de l’échantillon = 10
P = probabilité d’avoir un garçon = ½ = 0,50
3
𝑃 𝑋 = 3 = 𝐶10
× 0,503 × 0,5010−3 = 0,117
La probabilité d’obtenir 3 garçons est de 11,7%
23
Loi Binomiale
Solution :
2) Quelle est la probabilité d’observer 3 malades dans
un échantillon de 10 sujets choisis au hasard dans
une population avec une prévalence de 17% de
maladie?
K = nombre de malades = 3
𝑛 = taille de l’échantillon = 10
P = fréquence de la maladie dans la population = 0,17
3
𝑃 𝑋 = 3 = 𝐶10
× 0,173 × 0,8310−3 = 0,16
La probabilité d’obtenir 3 garçons est de 16%
24
Loi Binomiale
On aurait pu poser la même question pour zéro
malade, 1 malade, …, 10 malades.
Il suffit de refaire les mêmes opérations en calculant
𝑝 𝑋 = 0 , 𝑝(𝑋 = 1), etc
𝑝 𝑋 = 0 = 0,155
𝑝 𝑋 = 1 = 0,318
…………………..
𝑝 𝑋 = 8 = 0,00002
𝑝 𝑋 = 9 = 0,000001
𝑝 𝑋 = 10 = 0,00000002
La somme des probabilités est égale à 1
25
Loi Binomiale
Distribution de probabilité
0,35
0,3
P(k)
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3 4 5 6 7 8
Nombre de malades: k
9
10
26
Loi Binomiale
Conditions d’application de la loi binomiale :
Pour utiliser la loi binomiale, il faut que :
 La variable étudiée soit de type binaire;
 Les évènements soient indépendants;
 L’échantillon soit tiré au sort;
 Chaque évènement (ou individu) ait la même
probabilité de succès (ou d’être tiré au sort);
 La taille 𝑛 de l’échantillon soit négligeable par
rapport à la taille 𝑁 de la population (𝑛/𝑁 <10%).
27
Loi Binomiale
28
Loi Binomiale
Fonctions de répartition de la loi :
𝑃 𝑋 < 𝑘 = 𝑃 𝑜 + 𝑃 1 + ⋯+ 𝑃 𝑘 − 1
= 1 − 𝑃(𝑋 ≥ 𝑘)
𝑃 𝑋 ≤ 𝑘 = 𝑃 0 + 𝑃 1 …………+ 𝑃 𝑘
= 1 − 𝑃(𝑋 > 𝑘)
𝑃 𝑋 > 𝑘 = 𝑃 𝑘 + 1 + … … … + 𝑃 𝑘𝑛
= 1 − 𝑃(𝑋 ≤ 𝑘)
𝑃 𝑋 ≥ 𝑘 = 𝑃 𝑘 + 𝑃 𝑘 + 1 + ⋯ + 𝑃 𝑘𝑛 = 1 − 𝑃(𝑋 < 𝑘)
29
Loi Binomiale
Exemple :
1) Quelle est la probabilité d’observer moins de 4
malades dans un échantillon de 10 sujets choisis
au hasard dans une population où la fréquence
de la maladie est de 17%.
𝑃 𝑋 < 4 = 𝑝 0 + 𝑃 1 + 𝑃 2 + 𝑃(3)
= 0,155 + 0,318 + 0,293 + 0,160 = 0,926
𝑃 𝑋 < 4 = 92,6%
30
Loi Binomiale
Exemple :
2) Quelle est la probabilité d’observer plus de 3
malades dans un échantillon de 10 sujets choisis
au hasard dans une population où la fréquence
de la maladie est de 17%.
𝑃 𝑋 > 3 = 1 − 𝑃(𝑋 < 4)
= 1 − 0,926 = 0,074
𝑃 𝑋 > 3 = 7,4%
31
Loi de Poisson
Découverte au début du XIXe siècle par le
magistrat français Siméon-Denis Poisson.
21 juin 1781 - 25 avril 1840
32
Loi de Poisson
Commençons par deux exemples :
1) Sachant que la fréquence annuelle de la
trichinellose (une maladie parasitaire) est de 10
cas pour 50 millions d’habitants, quelle est la
probabilité d’observer 3 cas pendant une année
dans une région qui compte 10 millions
d’habitants ?
33
Loi de Poisson
Avec ce que nous savons de la loi binomiale, nous
disposons des éléments pour résoudre la question.
Nous avons :
𝑃 = 0,0000002
𝑛 = 10 000 000 et 𝑘 = 3
Donc il est pratiquement impossible de calculer
𝑃 𝑋=𝑘
en raison des factorielles et des
puissances.
34
Loi de Poisson
2) Sachant que dans un service d’urgence, on
accueille en moyenne 5 entorses par week-end,
quelle est la probabilité d’observer 3 entorses
au cours du prochain week-end ?
35
Loi de Poisson
Cette question anodine nous paraît aisée à traiter
avec ce que nous savons de la loi binomiale.
Il existe une difficulté insurmontable.
 Nous ne connaissons pas la proportion 𝑃 de la
caractéristique
dans
la
population
des
consultants.
 Les sujets porteurs de la caractéristique inverse
« ne pas avoir d’entorse » ne sont pas
dénombrables.
36
Loi de Poisson
Il existe donc des situations dans lesquelles il n’est
pas possible d’utiliser la loi binomiale :
 Soit parce que la caractéristique de la variable
étudiée est très rare;
 Soit lorsque la caractéristique est un évènement
de type accidentel. Dénombrer les nonévènements serait absurde.
37
Loi de Poisson
La loi de Poisson s’applique, comme la loi
binomiale, à des variables qualitatives. Elle permet
de répondre à la question suivante :
« connaissant le nombre moyen μ d’évènement
attendus pendant une période donnée, quelle est la
probabilité d’observer 𝒌 individus ayant cet
évènement pendant une période équivalente ? »
38
Loi de Poisson
Soit 𝑋 une variable aléatoire pouvant prendre
toutes les valeurs entières 0, 1, 2, …., 𝑛 avec :
𝑒 −𝜇 𝜇𝑘
𝑃 𝑋=𝑘 =
𝑘!
𝝁 : nombre moyen d’évènements observés dans la
population pendant une période donnée;
𝒆 = 2,718
𝑿 : la variable représentant le nombre d’individus ayant subi
l’évènement observé pendant la période donnée;
𝒌 : une valeur de cette variable 𝑋
𝑷(𝑿 = 𝒌) : la probabilité d’observer la valeur 𝑘.
39
Loi de Poisson
Exemple :
Quelle est la probabilité d’observer 3 entorses au
cours d’un week-end ordinaire de garde aux
urgence, sachant qu’en moyenne 5 cas d’entorse
sont admis par week-end ?
On a : 𝜇 = 5 et 𝑘 = 3
Probabilité d’observer 3 entorses :
2,718−5 × 53
𝑝 𝑋=3 =
= 0,140
3!
40
Loi de Poisson
La probabilité d’observer 3 entorses est de 14%.
On peut évidement calculer l’ensembles de toutes les
probabilités possibles :
𝑃 0 = 0,007
𝑃 1 = 0,034
𝑃 2 = 0,084
𝑃 3 = 0,140
𝑃 4 = 0,175
𝑃 5 = 0,175
𝑃 6 = 0,146
𝑃 7 = 0,104
𝑃 8 = 0,065
……. etc
41
Loi de Poisson
Fonction de répartition de la loi de poisson :
𝑝 𝑋 < 𝑘 = 𝑃 0 + 𝑃 1 + … … … . +𝑃(𝑘 − 1)
𝑃 𝑋 ≤ 𝑘 = 𝑃 0 + 𝑃 1 + … … … + 𝑃 𝑘 − 1 + 𝑃(𝑘)
𝑃 𝑋 > 𝑘 = 1 − 𝑝(𝑋 ≤ 𝑘)
𝑃 𝑋 ≥ 𝑘 = 1 − 𝑝(𝑋 < 𝑘)
42
Loi de Poisson
La probabilité d’observer moins de 2 entorses si on
en observe 5 en moyenne est de :
𝑃 𝑋 < 2 = 𝑃 0 + 𝑃 1 = 0,04
Soit 4%
C’est-à-dire peu de chances de passer une garde
tranquille.
43
Loi de Poisson
La probabilité d’observer plus de 6 entorses est de :
𝑃 𝑋 >6 =1−𝑃 𝑋 ≤6
= 1 − [𝑃 0 + 𝑃 1 + ⋯ + 𝑃 6 ]
= 1 − 0,007 + 0,034 + ⋯ + 0,146 = 0,238
Soit 23,8%
Environ une chance sur quatre de passer une
soirée agitée.
44
Loi de Poisson
Conditions d’application de la loi poisson :
 Les évènements doivent être dénombrables;
 Les évènements doivent être indépendants;
 Elle s’applique aux évènements rares dont la
probabilité de survenue est inférieure à 0,05. si la
probabilité est supérieure, il faut appliquer la loi
binomiale.
45
Loi de Poisson
46
MAIZIA Abdelkader
Faculté de Médecine de l’université de Mostaganem
1
Partie II
2
Approximation de la loi binomiale
par une loi de poisson
Si une variable aléatoire 𝑋 est distribuée selon une loi
binomiale 𝐵 (𝑛, 𝑃), on montre que si 𝑃 est petite (en
pratique inférieur à 0,1) et 𝑛 assez grand (supérieur à
50), la loi binomiale peut être approximée par une loi
de poisson de paramètre 𝜇 = 𝑛𝑃.
Les calcules sont plus simples avec la loi de poisson
qu’avec la binomiale.
3
Approximation de la loi binomiale
par une loi de poisson
Exemple:
Soit 𝑋
une variable aléatoire dont la loi de
probabilité est de paramètres 𝑛 = 100 𝑒𝑡 𝑃 = 0,01:
𝑘
𝑃 𝑋 = 𝑘 = 𝐶100
× 0,01𝑘 × 0,99100−𝑘
Il est facile de voir que, la valeur de 𝑛 étant élevée
et celle de 𝑃 étant faible, l’expression binomiale
est d’un maniement difficile.
4
Approximation de la loi binomiale
par une loi de poisson
Exemple:
On montre qu’une très bonne approximation des
diverses probabilités peut être obtenue au moyen
de la loi de Poisson de paramètre 𝜇 = 𝑛𝑃 = 1, soit:
𝑘
1
𝑃(𝑋 = 𝑘) ≈ 𝑒 −1
𝑘!
5
6
La loi normale
Carl Friedrich Gauss (1777 – 1855)
7
La loi normale
La loi normale, ou de Gauss, est la plus importante
des lois utilisées en statistique. Elle est appliquée
aux variables quantitatives continues.
On sciences biomédicales, on constate souvent
que la distribution des valeurs d’une variable
s’agglutine autour d’une valeur moyenne. Ensuite
ces valeurs décroissent symétriquement de part et
d’autre de cette moyenne. C’est le cas de la taille
des individus dans une population.
8
La loi normale
La
distribution
normale,
appelée
aussi
Gaussienne, est une distribution continue qui
dépend de deux paramètres 𝜇 et 𝜎. On la note
𝑁(𝜇, 𝜎).
Nous avons vu que la loi de probabilité d’une
variable aléatoire continue est définie soit par sa
fonction de répartition soit par sa densité de
probabilité.
9
La loi normale
Si 𝑋 étant une variable aléatoire continue pouvant
prendre toutes les valeurs de −∞ à +∞, on dira
qu’elle suit une loi de Gauss, ou encore qu’elle est
Gaussienne, si sa densité de probabilité est définie
par :
𝑓 𝑥 =
1
𝜎 2𝜋
𝑒
− 𝑥−𝜇 2 /2𝜎 2
10
La loi normale
La loi normale 𝑁(𝜇, 𝜎) est symétrique par rapport à
la droite d’abscisse 𝜇.
𝜇 = −5
𝜇=0
𝜇=5
11
La loi normale
La loi normale 𝑁(𝜇, 𝜎) est symétrique par rapport à
la droite d’abscisse 𝜇.
𝜎 = 0,3
𝜎=1
𝜎=2
12
La loi normale
Caractéristiques :
Loi normale 𝑵(𝝁, 𝝈)
Espérance
𝜇
Variance
𝜎2
Ecart-type
𝜎
13
La loi normale
Caractéristiques :
+∞
−∞
1
𝜎 2𝜋
𝑒
− 𝑥−𝜇 2 /2𝜎 2
𝑑𝑥 = 1
𝑃 𝑋 ≤ 𝜇 = 0,5
𝑃 𝑋 ≥ 𝜇 = 0,5
14
La normalité d’une distribution
Il est possible de visualiser la forme de
la distribution des données à analyser en les
représentant sous forme d'histogramme puis de
comparer la forme de cet histogramme avec une
courbe représentant une loi normale
les paramètres de cette loi étant calculés à partir
des données à analyser.
15
La normalité d’une distribution
Distribution non normale
16
La normalité d’une distribution
Distribution normale
17
La normalité d’une distribution
Ceci ne permet pas de conclure à la normalité des
données mais peut donner une idée sur la nature
de la distribution.
Une boîte à moustaches permet de visualiser
rapidement la symétrie de la distribution des
données réelles.
18
La normalité d’une distribution
Distribution
normale
Distribution
Non normale
19
La normalité d’une distribution
On peut utiliser la déviation standard pour vérifier
la règle 68 – 95 – 99.7 . Dans une distribution
normale, 68% des points de données se trouvent à
l'intérieur de 1 écart-type de la moyenne, 95% se
situent dans 2 écart-type, et 99,7 % se situent à
moins de 3 écart-type.
20
La normalité d’une distribution
21
La loi normale centrée réduite
 On dit que la distribution est centrée si son
espérance 𝜇 est nulle
 Elle est dite réduite si sa variance est égale à 1.
La distribution normale centrée réduite, notée
𝑁(0, 1) est donc définie par la formule :
𝑓 𝑥 =
1
2𝜋
𝑒
−𝑥 2 /2
22
La loi normale centrée réduite
0,4
𝑓 𝑥 =
1
2𝜋
𝑒
−𝑥 2 /2
0,1
0
23
La loi normale centrée réduite
Transformation d’une loi normale en loi
normale centrée réduite :
Soit 𝑋 une variable distribuée selon une loi
normale d’espérance 𝜇 et d’écart-type 𝜎.
Alors la variable : 𝑍 =
𝑥−𝜇
est distribuée selon
𝜎
une loi normale centrée réduite.
𝑍 est appelée variable réduite.
24
La loi normale centrée réduite
Nous avons :
+∞
𝐸 𝑧 =
𝑧. 𝑓 𝑧 𝑑𝑧 =
−∞
=
1
2𝜋
−𝑒
−𝑧 2 /2
𝐸 𝑧2 − 𝐸 𝑧
+∞
1
𝑧𝑒
2𝜋
−𝑧 2 /2
𝑑𝑧
−∞
+∞
−∞
2
=0
=1
25
La loi normale centrée réduite
Nous avons :
+∞
𝑓(𝑧) 𝑑𝑧 =
−∞
1
2𝜋
+∞
𝑒
−𝑧 2 /2
𝑑𝑧 = 1
−∞
Donc il faut que :
+∞
𝑒
−𝑧 2 /2
𝑑𝑧 = 2𝜋
−∞
26
Propriété de la distribution de Gauss
-3
-2
-1
0
1
2
3
Z
m-3𝜎
m-2𝜎
m-𝜎
m
m+𝜎 m+2𝜎 m+3𝜎 X
68%
95%
99,7%
27
Propriété de la distribution de Gauss
Soit 𝜋(𝑎) la fonction de répartition de la loi de
Gauss. Par définition nous avons :
𝜋 𝑎 =𝑃 𝑧≤𝑎 =
1
2𝜋
𝑎
𝑒
−𝑧 2 /2
𝑑𝑧
−∞
Donc :
𝑃 𝑧 ≤ 𝑎 = 𝜋(𝑎)
28
Propriété de la distribution de Gauss
𝑃 𝑧 ≤ 𝑎 = 𝜋(𝑎)
𝑦=
1
2𝜋
2 /2
−𝑧
𝑒
𝑎
29
Propriété de la distribution de Gauss
Exemple : 𝑃 𝑧 ≤ 1,2 = 𝜋 1,2 = 0,8849
30
Propriété de la distribution de Gauss
Exemple : 𝑃 𝑧 ≤ 1,24 = 𝜋 1,24 = 0,8925
31
Propriété de la distribution de Gauss
𝑃 𝑧 ≥ 𝑎 = 1 − 𝜋(𝑎)
𝑎
32
Propriété de la distribution de Gauss
𝑃 𝑧 ≤ −𝑎 = 1 − 𝜋(𝑎)
−𝑎
33
Propriété de la distribution de Gauss
𝑃 𝑎 ≤ 𝑧 ≤ 𝑏 = 𝜋 𝑏 − 𝜋(𝑎)
𝑎
𝑏
34
Propriété de la distribution de Gauss
𝑃 −𝑎 ≤ 𝑧 ≤ 𝑎 = 2𝜋 𝑎 − 1
−𝑎
𝑎
35
Propriété de la distribution de Gauss
Exemple :
𝑋 → 𝑁(20; 2)
Calculer 𝑃(𝑋 ≤ 22,42)
Solution : 𝑧 =
𝑋−20
2
𝑋 − 20 22,42 − 20
𝑃 𝑋 ≤ 22,42 = 𝑃
≤
2
2
𝑃 𝑧 ≤ 1,21 = 𝜋 1,21 = 0,8868
36
Téléchargement