MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 3 Généralités sur les ensembles On peut définir de manière intuitive un ensemble comme toute collection d’objet (ou groupes d’individus) liés entre eux par une ou plusieurs propriétés. On appelle ces objets (ou individus) les éléments de l’ensemble. Notation : E 4 Généralités sur les ensembles Exemple 1 Ensembles usuels en mathématiques : N : ensemble des entiers naturels. N∗: ensemble des entiers naturels non nuls. Z : ensemble des entiers relatifs. Q : ensemble des nombres rationnels. R : ensemble des nombres réels. R+ : ensemble des nombres réels positifs. 5 Généralités sur les ensembles Exemple 2 Lors d’un contrôle sanguin, l’ensemble des résultats possibles si l’on s’intéresse au groupe sanguin et au facteur rhésus d’un individu est: E = A+, A−, B+, B−, AB+, AB−, O+, O − 6 Généralités sur les ensembles Si X désigne l’un des éléments de l’ensemble E, on dit que X appartient à E et on note: X ∈ E. Si X n’est pas l’un des éléments de l’ensemble E, on dit que X n’appartient pas à E et on note: X ∉ E. 7 Généralités sur les ensembles Exemple 3 L’ensemble des individus de groupe sanguin au facteur rhésus positif est: E = A+, B+, AB+, O + L’élément A − n’appartient pas à l’ensemble E, donc A − ∉ E 8 Généralités sur les ensembles Un ensemble peut être décrit de 2 manières : en extension : on dresse la liste de tous les éléments de l’ensemble. Exemple : E = { A+, B+, AB+, O+}. L’ordre ainsi que la répétition des éléments est sans importance. en compréhension : on énonce la propriété caractéristique des éléments de l’ensemble. Exemple : E = { X ∈ E | X=groupe sanguin positif }. Attention, écrire E = {A+, . . . , 0+} est incorrect. 9 Généralités sur les ensembles On peut représenter graphiquement ensemble à l’aide d’un diagramme de Venn. Exemple: L’ensemble E de groupes sanguins: A+ B+ AABBO+ OAB+ un E 10 Généralités sur les ensembles Remarques: 1. Un ensemble ne contenant aucun élément est appelé ensemble vide et est noté « ∅ ». E 11 Généralités sur les ensembles Remarques: 2. Un ensemble E est dit fini lorsque le nombre d’éléments qui le composent est un entier naturel. Dans ce cas, le nombre d’éléments est appelé cardinal de l’ensemble et est noté Card(E) ou Ω (E) Par convention, Card (∅) = 0. 12 Généralités sur les ensembles Remarques: 3. Un ensemble fini est dit dénombrable. E = { e1, e2, e3 } 4. Un ensemble infini est non dénombrable. E = { 𝑥 ∈ 0, 1 } 13 Généralités sur les ensembles Remarques: 5. Un ensemble qui n’est pas fini est dit infini. 6. On appelle singleton un ensemble composé d’un seul élément. 14 Sous ensembles Soient A et B deux ensembles: On dit que A est inclus dans B et on note A ⊂ B si tout élément de A appartient à l’ensemble B. L’ensemble A est alors qualifié de partie ou de sous-ensemble de l’ensemble B. Pour signifier que A n’est pas inclus dans B, on note A ⊄ B. 15 Sous ensembles Remarques: 1. Pour que l’ensemble A ne soit pas inclus dans B, il faut et il suffit qu’il existe un élément de A qui n’appartienne pas à B. 2. L’ensemble vide est inclus dans tout ensemble. 3. Un ensemble est inclus dans lui-même. 16 Sous ensembles La relation d’inclusion est une relation transitive : Si A,B, C désignent trois ensembles tels que A ⊂ B et B ⊂ C, alors on a A ⊂ C. Soient A et B deux ensembles. On dit que les ensembles A et B sont égaux et on note A = B si tout élément de l’un des ensembles appartient à l’autre ensemble. Autrement dit, A = B signifie que A ⊂ B et B ⊂ A. 17 Sous ensembles Soient A et B deux ensembles finis. 1. Si A ⊂ B alors Card(A) ≤ Card(B). 2. Si A ⊂ B et si Card(A) = Card(B) alors A = B. 18 Opérations sur les ensembles 1. Complémentaire: Le complémentaire de A est l’ensemble des éléments de E qui n’appartiennent pas à A. 𝐶𝐴 = 𝐴 = 𝑥: 𝑥 ∉ 𝐴 19 Opérations sur les ensembles 1. Complémentaire: CA E 20 Opérations sur les ensembles 2. Réunion: Soient E un ensemble et A, B deux sousensembles de E. La réunion des 2 ensembles A et B notée A ∪ B est l’ensemble constitué par les éléments de E appartenant à A ou à B. Autrement dit A ∪ B = {x ∈ E | x ∈ A ou x ∈ B}. 21 Opérations sur les ensembles 2. Réunion: A A 𝐵 B E 22 Opérations sur les ensembles 2. Réunion: Si à l’ensemble : A = {X ∈ E | X= individu de rhésus positif }. On ajoute l’ensemble: B = {X ∈ E | X= individu possède l’allèle B }. La réunion de ces deux ensembles donne: A B = { A+, B+, B-, AB+, AB-, O+ } 23 Opérations sur les ensembles 2. Réunion: On a les propriétés suivantes : 1. A ⊂ (A ∪ B) et B ⊂ (A ∪ B) 2. A ∪ A = A et A ∪ ∅ = A 3. A ∪ B = B ∪ A (commutativité). 4. A ∪ (B ∪ C) = (A ∪ B) ∪ C (associativité). 5. Si A ⊂ B alors A ∪ B = B. 6. A A = E 24 Opérations sur les ensembles 3. L’intersection: Soient E un ensemble et A, B deux sousensembles de E. L’intersection des 2 ensembles A et B notée A ∩ B est l’ensemble constitué par les éléments de E appartenant à A et à B. Autrement dit: A ∩ B = {x ∈ E | x ∈ A et x ∈ B}. Si A ∩ B = ∅, on dit que les ensembles A et B sont disjoints. 25 Opérations sur les ensembles 3. L’intersection: A⋂B A B E 26 Opérations sur les ensembles 3. L’intersection: Si à l’ensemble : A = {X ∈ E | X= individu de rhésus positif }. On ajoute l’ensemble: B = {X ∈ E | X= individu possède l’allèle B }. L’intersection de ces deux ensembles donne: A ⋂ B = { B+, AB+} 27 Opérations sur les ensembles 3. L’intersection: On a les propriétés suivantes : 1. (A ∩ B) ⊂ A et (A ∩ B) ⊂ B 2. A ∩ A = A et A ∩ ∅ = ∅ 3. A ∩ B = B ∩ A (commutativité) 4. A ∩ (B ∩ C) = (A ∩ B) ∩ C (associativité) 5. Si A ⊂ B alors A ∩ B = A 6. A ⋂ A = ∅ 28 Opérations sur les ensembles 3. L’intersection: Remarque: Si A ⋂ B = ∅, on dit que A et B sont disjoints. A⋂B=∅ A B E 29 Opérations sur les ensembles Soient A et B deux ensembles finis. On a: Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B) A = { A+, B+, AB+, O+ } => Card (A) = 4 B = { B+, B-, AB+, AB- } => Card (B) = 4 A B = { A+, B+, B-, AB+, AB-, O+ } Card (A B)=6 30 Opérations sur les ensembles Si A et B sont deux ensembles disjoints, alors: Card (A B) = Card (A) + Card (B) Si A et B sont finis et A ⊂ B alors: Card (A) ≤ Card (B) Si A et B sont finis, alors: Card (A – B) = Card (A) – Card (A ⋂ B) 31 Opérations sur les ensembles Soient A, B et C trois ensembles. L’intersection est distributrice sur l’union : A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) L’union est distributrice sur l’intersection : A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) 32 Opérations sur les ensembles Soient A, B deux sous-ensembles d’un ensemble E. On appelle différence des ensembles A et B, et on note A \ B, l’ensemble constitué des éléments de A qui n’appartiennent pas à B. Autrement dit, A \ B = {x ∈ E | x ∈ A et x ∉ B}. 33 Opérations sur les ensembles Différence symétrique: Soient A, B deux sous-ensembles d’un ensemble E. On appelle différence symétrique des ensembles A et B, et on note A ∆ B, l’ensemble des éléments qui appartiennent à A et pas à B ou qui appartiennent à B et pas à A. 34 Opérations sur les ensembles Différence symétrique: C’est donc l’ensemble des éléments qui appartiennent à l’union des deux ensembles mais pas à leur intersection. On a ainsi: A ∆ B = (A – B) (B – A) = (A B) – (A ⋂ B) 35 Opérations sur les ensembles Différence symétrique: A∆B A∆B E 36 Applications 1. Nous avons: A = {2, 4, 6} et B = {3, 6} Déterminer A ∆ B. A ∆ B = {2, 4, 3} 37 Applications 2. Dans un groupe d’étudiants, 12 ont la grippe, 8 sont hyper tendus et 5 ont les deux symptômes. Si chaque étudiants a au moins un de ces deux symptômes, quel est le nombre d’étudiants dans ce groupe ?? 38 Applications En posant : A = { x, x fait une grippe } Et B = { x, x est hyper tendu }, le nombre d’étudiants dans ce groupe est donné par Card (A B). Card (A) = 12, Card (B) = 8, Card (A ⋂ B) = 5 Donc: Card (A B) = Card (A) + Card (B) – Card (A ⋂ B) Card (A B) = 12 + 8 – 5 = 15 Donc ce groupe contient 15 étudiants. 39 Applications 3. Si dans un groupe de 25 malades, 17 prennent le médicament A, 12 le médicament B et 5 ne prennent aucun médicament. Quel est le nombre de malades qui prennent les deux médicaments à la fois ?? 40 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 Synthèse cours antérieur Identité A⋃∅=A A⋂E=A A⋃E=E A⋂∅=∅ A⋃A=A A⋂A=A Nom Identité Domination Idempotence A ⋃ (A ⋂ B) = A A ⋂ (A ⋃ B) = A Absorption (𝐴) = 𝐴 Complémentarité 3 Synthèse cours antérieur Identité Nom A⋃B=B⋃A A⋂B=B⋂A Commutativité (A ⋃ B) ⋃ C = A ⋃ (B ⋃ C) Associativité (A ⋂ B) ⋂ C = A ⋂ (B ⋂ C) A ⋃ (B ⋂ C) = (A ⋃ B) ⋂ (A ⋃ C) Distributivité A ⋂ (B ⋃ C) = (A ⋂ B) ⋃ (A ⋂ C) A∩B=A∪B Lois de De Morgan A∪B=A∩B A∪A=E A∩A=∅ Loi du complément 4 Synthèse cours antérieur Identité Nom A⋃B=B⋃A A⋂B=B⋂A Commutativité (A ⋃ B) ⋃ C = A ⋃ (B ⋃ C) Associativité (A ⋂ B) ⋂ C = A ⋂ (B ⋂ C) A ⋃ (B ⋂ C) = (A ⋃ B) ⋂ (A ⋃ C) Distributivité A ⋂ (B ⋃ C) = (A ⋂ B) ⋃ (A ⋂ C) A∩B=A∪B Lois de De Morgan A∪B=A∩B A∪A=E A∩A=∅ Loi du complément 5 6 Introduction L’analyse combinatoire a pour objet de dénombrer les manières distinctes de grouper tout ou partie des objets ou éléments d’un ensemble, suivant des lois déterminées. Elle fournit des méthodes de dénombrements particulièrement utiles en théorie des probabilités. 7 Introduction Dans la suite, on appellera expérience toute opération qui a une ou plusieurs issues. Ces issues l’expérience. sont appelées résultats de 8 1. Principe multiplicatif (fondamental) Si une expérience E peut se décomposer en k expériences élémentaires de sorte que: La 1ère expérience E1 peut se réaliser de n1 façons La 2ème expérience E2 peut se réaliser de n2 façons … La kème expérience Ek peut se réaliser de nk façons Alors, l’expérience globale E peut se réaliser de n façons, avec : n = n1 x n2 x n3 x … x nk 9 1. Principe multiplicatif (fondamental) Exemple : Pour avoir un groupe sanguin, l’homme dispose de: 4 catégories (ou sous groupe) dans le système ABO, selon la présence ou l’absence des différents antigènes; Et de 2 catégories dans le système Rhésus. Donc, combien de groupes sanguin différent peut-on avoirs ? 10 1. Principe multiplicatif (fondamental) Exemple : A Rh+ Rh - B Rh+ Rh Rh+ Rh - AB O 4 A+ A- B+ B- AB+ AB- O+ O- X Rh+ Rh = 2 8 11 2. Arrangement Etant donné un ensemble E de n éléments, on appelle arrangements de p éléments toutes suites ordonnées de p éléments pris parmi les n éléments. Le nombre d’arrangements de p éléments pris parmi n est noté : 𝑝 𝐴𝑛 12 2. Arrangement Remarque : On a nécessairement : 1≤ p ≤ n et n, p ϵ N* Deux arrangements de p éléments sont donc distincts s’ils diffèrent par la nature des éléments qui les composent ou par leur ordre dans la suite. 13 2. Arrangement Exemples: 1. Une séquence d’ADN est constituée d’un enchaînement de 4 nucléotides [A, C, G et T]. Il existe différents arrangements possibles de deux nucléotides (dinucléotides) avec p = 2 et n = 4. 2. Le nombre d’échantillons de 5 personnes (sans remise) formés avec 20 personnes correspond au nombre d’arrangements possibles avec p = 5 et n = 20. 14 2. Arrangement Dans les exemples précédents, l’ordre éléments dans la suite est essentiel : des Ex : ATC ≠ ACT ou ATT ≠ TAT Dans cet exemple, une base (ou élément) peut se retrouver plusieurs fois, alors que dans le 2èm exemple, les échantillons sont forcément différents. Il faut donc distinguer le nombre d’arrangements avec ou sans répétition. 15 2. Arrangement Arrangement avec répétition : Lorsqu’un élément peut être observé plusieurs fois dans un arrangement, le nombre d’arrangement avec répétition de p éléments pris parmi n, est alors: 𝑝 𝐴𝑛 = 𝑛𝑝 avec 1 ≤ 𝑝 ≤ 𝑛 Pourquoi ? 16 2. Arrangement Arrangement avec répétition : Pour le premier élément tiré, il existe n manière de ranger l’élément parmi n. Pour le second élément tiré, il existe également n possibilité d’arrangements car le premier élément fait de nouveau parti des n éléments. Ainsi pour les p éléments tirés, il y aura : 𝑛 × 𝑛 × ⋯ × 𝑛 (𝑝 fois) arrangement possibles, soit : 𝑝 𝐴𝑛 = 𝑛 × 𝑛 × ⋯ × 𝑛 = 𝑛𝑝 17 2. Arrangement Arrangement avec répétition : Exemple: Concernant l’exemple de la séquence d’ADN, le nombre de dinucléotides attendus si l’on fait l’hypothèse qu’une base peut être observée plusieurs fois dans la séquence (ce qui correspond effectivement à la réalité) est donc : 𝐴24 = 42 = 16 dinucléotides possibles. AA GA AC GC AG GG AT GT CA TA CC TC CG TG CT TT 18 2. Arrangement Arrangement sans répétition : Lorsque chaque élément ne peut être observé qu’une seule fois dans un arrangement, le nombre d’arrangements sans répétition de p éléments pris parmi n est alors : 𝑝 𝐴𝑛 = 𝑛! avec 1 ≤ 𝑝 ≤ 𝑛 (𝑛−𝑝)! Pourquoi ? 19 2. Arrangement Arrangement sans répétition : Par application direct du principe fondamental, on obtient : Le 1ier élément peut être choisi de n1 = n façons Le 2ème élément peut être choisi de n2 = (n – 1) façons Le 3ème élément peut être choisi de n3 = (n – 2) façons …… Le (p – 1)ème élément peut être choisi de np -1 = n – (p – 2) = n – p + 2 façons Le pème élément peut être choisi de np = n – (p – 1) = n – p + 1 façons 20 2. Arrangement Arrangement sans répétition : Et donc les p éléments peuvent être choisis de : 𝑝 𝐴𝑛 = 𝑛 𝑛 − 1 𝑛 − 2 … (𝑛 − 𝑝 + 1) façons On notera par la suite: 𝑛 𝑛 − 1 𝑛 − 2 … 𝑛 − 𝑝 + 1 … × 3 × 2 × 1 = 𝑛! 𝑛! : lire n factorielle. 21 2. Arrangement Arrangement sans répétition : En utilisant cette notation factorielle, afin d’éviter 𝑝 les points de suspension dans l’expression de 𝐴𝑛 , on obtient en multipliant et divisant par (𝑛 − 𝑝)! : 𝑝 𝐴𝑛 = 𝑛−𝑝 ! 𝑛 𝑛−1 𝑛−2 … 𝑛−𝑝+2 𝑛−𝑝+1 𝑛−𝑝 ! 𝑛! = (𝑛 − 𝑝)! 22 2. Arrangement Arrangement sans répétition : Donc : 𝑝 𝐴𝑛 𝑛! = (𝑛 − 𝑝)! Par convention : 0! = 1 car 0! n’est pas définie. Dès que 𝑛 dépasse la dizaine, 𝑛! Se compte en millions. Il est bon de connaître la formule d’approximation de Stirling : 𝑛 𝑛 𝑛! ≈ ( ) 2π𝑛 𝑒 23 2. Arrangement Arrangement sans répétition : Exemple : Concernant l’exemple de la séquence d’ADN, le nombre de dinucléotides attendus dans une séquence si l’on fait l’hypothèse qu’une base n’est observée qu’une seule fois est donc : 𝐴24 AA GA = 4! (4−2)! AC GC = 12 dinucléotides possibles AG GG AT GT CA TA CC TC CG TG CT TT 24 3. Permutation Permutation sans répétition : Etant donné un ensemble E de n éléments, on appelle permutations de n éléments distincts toutes suites ordonnées de n éléments ou tout arrangement n à n de ces éléments. Le nombre de permutations de n éléments est noté : 𝑃𝑛 = 𝑛! 25 3. Permutation Permutation sans répétition : La permutation de n éléments constitue un cas particulier d’arrangement sans répétition de p éléments pris parmi n lorsque p = n. 𝐴𝑛𝑛 = 𝑛! 26 3. Permutation Permutation sans répétition : Exemple : Le nombre de manières de ranger 3 personnes : 27 3. Permutation Permutation avec répétition : Dans le cas où il existerait plusieurs répétitions k d’un même élément parmi les n éléments, le nombre de permutations possibles des n éléments doit être rapporté aux nombres de permutations des k objets identiques. Le nombre de permutations de n éléments est alors : 𝑛! 𝑃𝑛 = 𝑘! 28 3. Permutation Permutation avec répétition : Exemple : Considérant les nucléotides « A C T T G T C ». Le nombre de séquences possibles que l’on peut avoir en permutant ces 7 nucléotides est : 𝑃7 = 7! 2!3! = 420 séquences possibles. 29 4. Combinaisons Si l’on reprend l’exemple de la séquence d’ADN, à la différence des arrangements où les dinucléotides AC et CA formait deux arrangements distincts, ces deux derniers ne formeront qu’une seule combinaison. Pour les combinaisons, on ne parle plus de suite ni de série puisque la notion d’ordre des éléments n’est plus prise en compte. 30 4. Combinaisons Remarque : Le nombre de combinaisons de p éléments pris 𝑝 parmi n est noté : 𝐶𝑛 On a nécessairement 1 ≤ 𝑝 ≤ 𝑛 et n, p ϵ N* Si 𝑛 < 𝑝, alors 𝑝 𝐶𝑛 = 0. 31 4. Combinaisons Pour calculer ce nombre, on utilise le principe de la division. 𝑝 Il y a 𝐴𝑛 manière de tirer p éléments parmi n en 𝑝 les ordonnant soit 𝐴𝑛 = 𝑛! (𝑛−𝑝)! Une fois les p éléments tirés, il y a 𝑝! manières de les ordonner 𝑝 Il y a donc 𝐴𝑛 𝑝! manières de tirer p éléments parmi n sans les ordonner. 32 4. Combinaisons Donc : 𝑝 𝐶𝑛 𝑝 𝐴𝑛 1 𝑛! = = × 𝑝! 𝑝! (𝑛 − 𝑝)! Exemple: dans le cadre de l’exemple de la séquence d’ADN, le nombre de dinucléotides attendus sans tenir compte de l’ordre des bases dans la séquence (hypothèse justifiée dans le cas de l’ADN non codant) est donc : 𝐶42 = 4! 2!(4−2)! = 4×3 2×1 = 6 dinucléotides. 33 4. Combinaisons Propriétés des combinaisons : 𝐶𝑛0 = 𝐶𝑛𝑛 = 1 Si 𝑛 ≥ 1 Si 𝑛 ≥ 2 𝐶𝑛1 = 𝐶𝑛𝑛−1 = 𝑛 𝐶𝑛2 = 𝐶𝑛𝑛−2 = 𝑛(𝑛−1) 2 34 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 Synthèse cours antérieur Arrangement de p objets parmi n 𝑝 Avec répétition : 𝐴𝑛 𝑝 Sans répétition : 𝐴𝑛 = 𝑛𝑝 = 𝑛! avec 1 ≤ 𝑝 ≤ 𝑛 (𝑛−𝑝)! 3 Synthèse cours antérieur Permutation de n objets distincts Sans répétition : 𝑃𝑛 = 𝑛! Avec répétition : 𝑃𝑛 = 𝑛! 𝑘! 4 Synthèse cours antérieur Tirage de p objets parmi n (combinaison) 𝑝 𝐶𝑛 𝑛! = 𝑃! (𝑛 − 𝑝)! Avec 1 ≤ 𝑝 ≤ 𝑛 𝑝 Si 𝑛 < 𝑝, alors 𝐶𝑛 = 0 5 Synthèse cours antérieur Propriétés des combinaisons 𝐶𝑛0 = 𝐶𝑛𝑛 = 1 Si 𝑛 ≥ 1 𝑛−𝑝 𝐶𝑛 𝐶𝑛1 = 𝐶𝑛𝑛−1 = 𝑛 𝑛! 𝑝 = = 𝐶𝑛 (𝑛 − 𝑝)! 𝑝! 6 7 Triangle de Pascal Blaise Pascal 1623 - 1662 8 Triangle de Pascal P 0 1 2 3 4 5 6 0 1 2 n 3 4 5 6 9 Triangle de Pascal P 0 n 0 1 1 1 2 1 3 1 4 1 5 1 6 1 1 2 3 4 5 6 10 Triangle de Pascal P 0 n 0 1 1 1 2 1 3 1 4 1 5 1 6 1 1 2 3 4 5 6 1 1 1 1 1 1 11 Triangle de Pascal P 0 n 1 2 3 4 5 0 1 1 1 1 2 1 2 1 3 1 3 3 1 4 1 4 6 4 1 5 1 5 10 10 5 1 6 1 6 15 20 15 6 6 1 12 Triangle de Pascal P 0 n 1 2 3 4 5 0 1 1 1 1 2 1 2 1 3 1 3 3 1 4 1 4 6 4 1 5 1 5 10 10 5 1 6 1 6 15 20 15 6 6 1 13 Formule de Pascal 𝑛−1 𝑛 𝑝−1 𝑝 𝑝−1 𝐶𝑛−1 𝑝 𝐶𝑛−1 𝑝 𝐶𝑛 14 Formule de Pascal Si 0 ≤ 𝑝 ≤ 𝑛 − 1 alors: 𝑝−1 𝐶𝑛−1 + 𝑝 𝐶𝑛−1 = 𝑝 𝐶𝑛 C’est la combinaison composée ou formule de Pascal 15 Binôme de Newton Isaac Newton 1643 – 1727 16 Binôme de Newton La formule du binôme de Newton correspond à la décomposition des différents termes de la puissance 𝑛𝑖è𝑚𝑒 du binôme (𝑥 + 𝑎). 𝑛 ∀ 𝑥, 𝑎 ∈ 𝑅, 𝑛 ∈ 𝑁, 𝑥 + 𝑎 𝑛 𝑝 𝑛−𝑝 𝑝 𝐶𝑛 𝑥 𝑎 = 𝑝=0 17 Binôme de Newton (𝑥 + 𝑎)2 = 𝑥 2 + 2𝑎𝑥 + 𝑎2 2 𝑝 2−𝑝 𝑝 𝐶2 𝑥 𝑎 2 (𝑥 + 𝑎) = 𝑝=0 (𝑥 + 𝑎)2 = 𝐶20 𝑥 2−0 𝑎0 + 𝐶21 𝑥 2−1 𝑎1 + 𝐶22 𝑥 2−2 𝑎2 (𝑥 + 𝑎)2 = 𝑥 2 + 2𝑥𝑎 + 𝑎2 18 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 3 Introduction: théorie des probabilités Les premiers personnes à s’être intéressées aux problèmes des probabilités furent des mathématiciens français: Blaise pascal (1623 – 1662) Pierre de Fermat décédé 1665 4 Introduction: théorie des probabilités A cette époque, la théorie des probabilités se développa uniquement en relation avec les jeux de hasard. Mais après, les bases de la théorie furent étendues à d’autres applications et phénomènes. Le calcul des probabilités fournit une modélisation efficace des situations non déterministes c’est-àdire des phénomènes aléatoire ou stochastiques. 5 Introduction: théorie des probabilités On rencontre dans la nature de nombreux phénomènes qui présentent des régularité d’ordre statistique. Ces régularités se traduisent par exemple par l’existence d’analogie de forme entre les distributions de divers populations. 6 Introduction: théorie des probabilités Ces régularités statistiques peuvent aussi se manifester par l’existence de certains rapports stables. Considérons par exemple le croisement de Drosophyles aux yeux rouges avec des Drosophyles aux yeux bruns. La première génération est composée uniquement de Drosophyles aux yeux rouges. 7 Introduction: théorie des probabilités Ces régularités statistiques peuvent aussi se manifester par l’existence de certains rapports stables. Considérons par exemple le croisement de Drosophyles aux yeux rouges avec des Drosophyles aux yeux bruns. La seconde génération est composée de Drosophyles aux yeux rouges et aux yeux bruns dans des proportion toujours voisines de ¾ et ¼. 8 Epreuve aléatoire L’épreuve aléatoire c’est une épreuve (ou expérience) dont l’issu n’est pas connu par avance et si, répétée dans des conditions identiques, elle peut donner des résultats différents. Le résultat d’une expérience constitue une éventualité ou un évènement élémentaire. 9 Epreuve aléatoire L’ensembles des évènements élémentaires possibles pour une expérience aléatoire donnée constitue l’espace fondamental appelé univers ou univers des possibles noté Ω. Exemple: lors d’un contrôle sanguin, l’ensemble des résultats possibles si l’on s’intéresse au groupe sanguin et au facteur rhésus d’un individu est : Ω = {A+, A-, B+, B- AB+, AB-, O+, O-} 10 Epreuve aléatoire Un évènement quelconque A est un ensemble d’évènements élémentaires et constitue une partie de l’univers des possibles Ω dont on sait dire à l’issue de l’épreuve s’il est réalisé ou non. Exemple : A « l’individu est de rhésus positif » A = {A+, B+, AB+, O+} A est une partie de Ω (A ⊂ Ω) 11 Evènements remarquables L’évènement impossible, noté ∅ est l’évènement qui ne peut être réalisé quelle que soit l’issue de l’épreuve. L’évènement certain, noté Ω est toujours réalisé quelle que soit l’issue de l’épreuve. L’évènement contraire ou complémentaire d’un évènement A, noté A est l’évènement qui est réalisé si et seulement si A ne l’est pas. 12 Evènements remarquables Exemple : Dans l’exemple concernant les groupes sanguins, l’évènement contraire de A « l’individu est de rhésus positif » est constitué des évènements élémentaire suivant : A = {A-, B-, AB-, O-} Ω=∅ ∅=Ω 13 Opérations sur les évènements 1. La réunion de deux évènement : On appelle réunion de deux évènements A et B, l’évènement qui est réalisé si et seulement si : A ou B est réalisé. Exemple: nous avons: A « l’individu est de rhésus positif » B « l’individu possède l’allèle B » Alors A ⋃ B = {A+, B+, B-, AB+, AB-, O+} 14 Opérations sur les évènements 2. L’intersection de deux évènements : On appelle intersection de deux évènements A et B, l’évènement qui est réalisé si et seulement si: A et B le sont. Exemple : nous avons: A « l’individu est de rhésus positif » B « l’individu possède l’allèle B » Alors A ⋂ B = {B+, AB+} 15 Opérations sur les évènements 2. L’intersection de deux évènements : si nous avons: A « l’individu est de rhésus positif » C « l’individu est de rhésus négatif » Alors A ⋂ C = ∅ on dit que l’évènement A et C sont incompatibles (la réalisation de l’un et de l’autre simultanément n’est pas possible) 16 Opérations sur les évènements Exemple : A 𝐀 B 𝐁 17 Opérations sur les évènements Exemple : A ⋃ B A 𝐀 B 𝐁 18 Opérations sur les évènements Exemple : A ⋂ B A 𝐀 B 𝐁 19 Opérations sur les évènements Exemple : B ⋃ B A 𝐀 B 𝐁 20 Opérations sur les évènements Exemple : A ⋃ A A 𝐀 B 𝐁 21 Opérations sur les évènements Exemple : A 𝐀 B A⋂B 𝐀⋂B 𝐁 A⋂𝐁 𝐀⋂𝐁 22 Opérations sur les évènements Exemple : De la population entière, on prélève un individu et on va traduire les situations suivantes: E « l’individu présente les 2 symptômes » F « l’individu présente au moins 1 symptôme » G « l’individu présente seulement le symptôme A » H « l’individu ne présente aucun symptôme » 23 Opérations sur les évènements Exemple : Donc : E = A et B = A ⋂ B F = A ou B = A ⋃ B G = A et B = A ⋂ B H = A et B = A ⋂ B 24 Définition de la probabilité Considérons un groupe de 11 individus dont 3 sont diabétiques. Proposons-nous, on choisissons au hasard un individu, d’amener un diabétique. 25 Définition de la probabilité Nous nous trouvons en présence de 11 cas également possibles puisque l’individu choisi peut être l’un quelconque des 11 individus. Parmi ces 11 cas, 3 sont favorables à la réalisation de l’évènement « l’individu choisi est diabétique » Nous dirons que la probabilité d’avoir un individu 3 diabétique est 11 26 Définition de la probabilité Par définition, la probabilité de l’évènement E est le rapport du nombre de cas favorables à la réalisation de cet évènement au nombre de cas possibles: 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑛 𝑃𝑟𝑜𝑏 𝐸 = = 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠 𝑁 27 Définition de la probabilité La probabilité d’un évènement est un nombre entre 0 et 1. En effet, le nombre de cas favorables n est au moins égal à zéro et au plus égal au nombre de cas possibles N. nous avons donc : 0 ≤ 𝑛 ≤ 𝑁 et par conséquent : 0 ≤ 𝑛 𝑁 ≤1 28 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 3 Calcul des probabilités Soit Ω l’espace fondamental (ou l’univers) et soit un évènement A (A ⊂ Ω). Ω Nous avons: P(Ω) = 1 (évènement certain) A⋃A = Ω A A P(A ⋃ 𝐴) = P(Ω) = 1 P(A) + P(𝐴) = 1 ⇒ P(𝐴) = 1 – P(A) 4 Calcul des probabilités Exemple: Un groupe de Filles et Garçons; Ω G On vous donne P(F) = 0,45 F Donc, P(H) = 1 – 0,45 = 0,55 5 Calcul des probabilités P(Ω) = 1 Ω Si A ⋂ B = ∅ A Alors B P (A ⋃ B ) = P (A) + P (B) 6 Calcul des probabilités Exemple 1: 16 𝑃 Ω = =1 16 7 Calcul des probabilités Exemple 1: 16 𝑃 Ω = =1 16 𝐶𝑎𝑟𝑑 𝐴 3 𝑃 𝐴 = = 𝐶𝑎𝑟𝑑 Ω 16 A A A 8 Calcul des probabilités Exemple 1: 16 𝑃 Ω = =1 16 𝐶𝑎𝑟𝑑 𝐴 3 𝑃 𝐴 = = 𝐶𝑎𝑟𝑑 Ω 16 𝐶𝑎𝑟𝑑 𝐵 2 𝑃 𝐵 = = 𝐶𝑎𝑟𝑑 Ω 16 A A A B B 3 2 5 𝑃 𝐴∪𝐵 = + = 16 16 16 9 Calcul des probabilités Exemple 2: On choisi une personne d’un groupe où nous avons 4 fois plus de chance d’avoir « H » que d’avoir « F ». Il nous demande de calculer P(H) et P(F) ? Solution: Nous avons: Ω = { H, F } et P(H) = 4 x P(F) P(Ω) = P({ H, F }) 1 = P({H} ⋃ {F}) 4 x P(F) + P(F) = 1 P(H) + P(F) = 1 5 x P(F) = 1 P(F) = 1/5 ⇒ P(H) = 4/5 10 Calcul des probabilités Ω = {A+, A –, B+, B –, AB+, AB –, O+, O –} Nous avons l’évènement A = {avoir Rh+} Donc A = {A+, B+, AB+, O+} 4 1 𝑃 𝐴 = = 8 2 Ω = {A+} ⋃ {A –} ⋃ {B+} ⋃ ……. ⋃ {O –} 𝑃𝐴+ + 𝑃𝐴− + ⋯ + 𝑃𝑂− = 1 𝑃 + 𝑃 + ⋯ + 𝑃 = 1 ⇒ 8𝑃 = 1 ⇒ 𝑃 = 1 8 𝑃 𝐴 = 𝑃𝐴+ + 𝑃𝐵+ + 𝑃𝐴𝐵+ + 𝑃𝑂+ 11 Calcul des probabilités Ω = {A+, A –, B+, B –, AB+, AB –, O+, O –} Nous avons l’évènement A = {avoir Rh+} Donc A = {A+, B+, AB+, O+} 𝑃 𝐴 = 𝑃𝐴+ + 𝑃𝐵+ + 𝑃𝐴𝐵+ + 𝑃𝑂+ 1 8 𝑃 𝐴 = + 1 1 1 + + 8 8 8 = 4 8 12 Calcul des probabilités Ω = {A+, A –, B+, B –, AB+, AB –, O+, O –} Nous avons l’évènement A = {avoir Rh+} Donc A = {A+, B+, AB+, O+} Donc 𝑃 𝐴 = 𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠 13 Calcul des probabilités Exemple: On choisi deux personnes au hasard d’un groupe de 10 personnes dont 4 malades, quelle est la probabilité d’avoir 2 personnes malades ? 2 Solution: le nombre de cas possibles est 𝐶10 =𝑁 le nombre de cas favorables est 𝐶42 = 𝑛 Donc, P(d’avoir 2 malades) = 𝑛 𝑁 = 𝐶42 2 𝐶10 = 6 45 = 0,13 14 Calcul des probabilités La probabilité d’un évènement est un nombre compris entre 0 et 1. En effet, le nombre de cas favorables 𝑛 est au moins égal à zéro et au plus égal au nombre de cas possibles 𝑁. Donc, 0 ≤ 𝑛 ≤ 𝑁 et par conséquent : 0 ≤ 𝑛 𝑁 ≤1 15 Calcul des probabilités À l’impossibilité (aucun cas favorable) correspond la probabilité zéro. Lorsqu’un évènement 𝐴 ne se réalise pas, on dit qu’il y a réalisation de l’évènement contraire 𝐴 𝑁−𝑛 𝑁 𝑛 𝑛 𝑃 𝐴 = = − =1− 𝑁 𝑁 𝑁 𝑁 16 Les probabilités totales On choisi au hasard 2 personnes d’un groupe contenant 7 Hommes et 3 Femmes. Qu’elle est la probabilité que « les 2 personnes soient de même sexe » ? 17 Les probabilités totales Réponse: L’évènement E «les 2 personnes soient de même sexe» peut se réaliser de 2 façons distinctes: 1) Les 2 personnes sont masculins « H » 2) Les 2 personnes sont féminins « F » Donc, les 2 évènements « H » et « F » ne peuvent se produire simultanément. On dit qu’ils s’excluent mutuellement. 18 Les probabilités totales Réponse: La probabilité de l’évènement « H » est: 𝐶72 𝑃 𝐻 = 2 𝐶10 De même, la probabilité de l’évènement « F » est: 𝐶32 𝑃 𝐹 = 2 𝐶10 19 Les probabilités totales Réponse: Donc, l’évènement E se réalise si l’évènement « H » ou l’évènement « F » se réalise. 𝐶72 + 𝐶32 𝐶72 𝐶32 𝑃 𝐸 = 𝑃 𝐻 𝑜𝑢 𝐹 = = 2 + 2 2 𝐶10 𝐶10 𝐶10 𝑃 𝐻 𝑜𝑢 𝐹 = 𝑃 𝐻 + 𝑃(𝐹) C’est le théorème des probabilités totales. 20 Les probabilités totales Probabilité d’un évènement ou d’un autre La relation : 𝑃 𝐴 𝑜𝑢 𝐵 = 𝑃 𝐴 + 𝑃 𝐵 est valable dans le cas où les évènements A et B s’excluent mutuellement. On peut établir une relation plus générale: Soit 𝑛1: le nombre de cas favorables pour « A » 𝑛2: le nombre de cas favorables pour « B » 𝑛3: le nombre de cas favorables pour «A et B» Donc: 𝑛3 ≤ 𝑛1 et 𝑛3 ≤ 𝑛2 21 Les probabilités totales Probabilité d’un évènement ou d’un autre Si l’on s’intéresse à la réalisation de « A ou B », le nombre des cas favorables est: 𝑛1 + 𝑛2 − 𝑛3 𝑛1 + 𝑛2 − 𝑛3 𝑛1 𝑛2 𝑛3 𝑃 𝐴 𝑜𝑢 𝐵 = = + − 𝑁 𝑁 𝑁 𝑁 𝑃 𝐴 𝑜𝑢 𝐵 = 𝑃 𝐴 + 𝑃 𝐵 − 𝑃(𝐴 𝑒𝑡 𝐵) 22 Les probabilités totales Probabilité d’un évènement ou d’un autre Exemple: On choisi au hasard une personne d’un groupe de 10 comprenant : 3 Femmes et 3 Diabétiques dont 1 homme) Qu’elle est la probabilité d’avoir un homme ou un diabétique ? 23 Les probabilités totales Probabilité d’un évènement ou d’un autre Réponse: 𝑃 𝐻 = 7 10 = 0,7 𝑃 𝐷 = 3 10 = 0,3 1 𝑃 𝐻 𝑒𝑡 𝐷 = = 0,1 10 Donc: 𝑃 𝐻 𝑜𝑢 𝐷 = 𝑃 𝐻 + 𝑃 𝐷 − 𝑃(𝐻 𝑒𝑡 𝐷) = 0,7 + 0,3 − 0,1 = 0,9 24 Les probabilités composées Considérons un groupe de 30 individus dont 4 Hypertendus (H) et 4 Diabétiques (D). Supposons que l’on choisi au hasard 1 personne puis une seconde sans remise de la première personne choisie dans le groupe. Désignons par A l’évènement « la 1ère personne choisie est hypertendu » Et par B l’évènement « la 2ème personne choisie est diabétique ». 25 Les probabilités composées 4 𝑃 𝐴 = 30 Sachant que l’évènement A a été réalisé, la probabilité de « B » est: 𝑃 𝐵 = C’est la probabilité conditionnelle et notée P(B/A) 4 29 P (B/A) = 4 29 = 0,13 26 Les probabilités composées Maintenant : l’évènement « A et B » Le nombre des cas favorables est: 𝐶41 × 𝐶41 = 4 × 4 Le nombre des cas possibles est: 1 1 𝐶30 × 𝐶29 = 30 × 29 Par conséquent, la probabilité de « A et B » est : 4×4 4 4 𝑃 𝐴 𝑒𝑡 𝐵 = = × 30 × 29 30 29 𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃(𝐴) × 𝑃(𝐵/𝐴) 27 Les probabilités composées Exemple : Nous avons 250 individus: A B C G F 50 30 11 39 39 81 100 150 ∑ 80 50 120 250 28 Les probabilités composées Exemple : Nous avons 250 individus: A B C G F 50 30 11 39 39 81 100 150 ∑ 80 50 120 250 𝑃 𝐺 = 𝑃 𝐵 = 100 250 50 250 = 0,4 = 0,2 𝑃 𝐹 = 150 250 𝑃 𝐴∩𝐹 = = 0,6 30 250 = 0,12 29 Les probabilités composées Exemple : Nous avons 250 individus: A B C G F 50 30 11 39 39 81 100 150 ∑ 80 50 120 250 𝑃 𝐺 = 𝑃 𝐵 = 100 250 50 250 = 0,4 = 0,2 𝑃 𝐹 = 150 250 𝑃 𝐴∩𝐹 = = 0,6 30 250 = 0,12 30 Les probabilités composées Exemple : Nous avons 250 individus: A B C G F 50 30 11 39 39 81 100 150 ∑ 80 50 120 250 𝑃 𝐺 = 𝑃 𝐵 = 100 250 50 250 = 0,4 = 0,2 𝑃 𝐹 = 150 250 𝑃 𝐴∩𝐹 = = 0,6 30 250 = 0,12 31 Les probabilités composées Exemple : Nous avons 250 individus: A B C G F 50 30 11 39 39 81 100 150 ∑ 80 50 120 250 𝑃 𝐺 = 𝑃 𝐵 = 100 250 50 250 = 0,4 = 0,2 𝑃 𝐹 = 150 250 𝑃 𝐴∩𝐹 = = 0,6 30 250 = 0,12 32 Les probabilités composées Exemple : Qu’elle est la probabilité: P(A / G) = ? Et 𝑃(𝐴/𝐺) = 50 100 = 0,5 P(C / G) =? 𝑃(𝐶/𝐺) = 39 100 = 0,39 C’est la probabilité conditionnelle 33 Les probabilités composées Exemple : Qu’elle est la probabilité: P(A / G) = ? Et 𝑃(𝐴/𝐺) = 50 100 = 0,5 P(C / G) =? 𝑃(𝐶/𝐺) = 39 100 = 0,39 C’est la probabilité conditionnelle 34 Les probabilités composées Exemple : Qu’elle est la probabilité: P(A / G) = ? Et 𝑃(𝐴/𝐺) = 50 100 = 0,5 P(C / G) =? 𝑃(𝐶/𝐺) = 39 100 = 0,39 C’est la probabilité conditionnelle 35 Les probabilités composées Exemple : 0,5 G 0,4 0,11 0,39 0,2 0,6 F 0,26 0,54 A P(G ⋂ A) = 0,2 B P(G ⋂ B) = 0,044 C P(G ⋂ C) = 0,156 A P(F ⋂ A) = 0,12 B P(F ⋂ B) = 0,156 C P(F ⋂ C) = 0,324 36 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 Synthèse cours antérieur Ω P(Ω) = 1 (évènement certain) P(𝐴) = 1 – P(A) A A Ω Si A ⋂ B = ∅ P (A ⋃ B ) = P (A) + P (B) A B 3 Synthèse cours antérieur 𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑃 𝐴 = 𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑐𝑎𝑠 𝑝𝑜𝑠𝑠𝑖𝑏𝑙𝑒𝑠 𝑃 𝐴 𝑜𝑢 𝐵 = 𝑃 𝐴 + 𝑃 𝐵 − 𝑃(𝐴 𝑒𝑡 𝐵) 𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃(𝐴) × 𝑃(𝐵/𝐴) 4 5 Evènements indépendants Reprenons le dernier exemple étudié lors du cours précédent : On choisi au hasard 1 personne d’un groupe de 30 individus dont 4 Hypertendus (H) et 4 Diabétiques (D). puis on choisi au hasard une seconde personne sans remise de la première personne choisie dans le groupe (il s’agit d’un tirage sans remise). 6 Evènements indépendants Soit A l’évènement « la 1ère personne choisie est hypertendu » et soit B l’évènement « la 2ème personne choisie est diabétique ». Nous avons vu que la probabilité conditionnelle de B sachant que A est réalisé a pour valeur : P (B/A) = 4 29 7 Evènements indépendants Que l’évènement A se réalise ou non, l’évènement B a une certaine probabilité de se produire. Cette probabilité P(B) est appelée probabilité à priori. Calculons P(B) : L’évènement B peut être réalisé de deux manières différentes qui s’excluent mutuellement: La 1ère personne est diabétique, la 2ème est diabétique, La 1ère personne n’est pas diabétique, la 2ème est diabétique. 8 Evènements indépendants Les nombres des cas favorables à ces deux éventualités sont respectivement : 4 x 3 et 26 x 4. Il en résulte que la probabilité de l’évènement B est: 4 × 3 + 26 × 4 4 × 29 4 𝑃 𝐵 = = = 30 × 29 30 × 29 30 La probabilité conditionnelle 𝑃(𝐵/𝐴) est différente de la probabilité à priori 𝑃(𝐵). Les évènements A et B sont dits dépendants. 9 Evènements indépendants Reprenons la même expérience en supposant maintenant que l’on remet la première personne dans le groupe avant de tirer la seconde (on dit qu’il s’agit d’un tirage avec remise). Nous avons maintenant: 𝑃(𝐵/𝐴) = 4 30 10 Evènements indépendants En effet, la première personne tirée (Diabétique) a été remise dans le groupe qui comporte toujours 4 diabétiques. L’évènement B peut être réalisé de deux manières qui s’excluent mutuellement : La 1ère personne est diabétique, la 2ème est diabétique, La 1ère personne n’est pas diabétique, la 2ème est diabétique. 11 Evènements indépendants Les nombres de cas favorables à ces deux évènements sont respectivement : 4 x 4 et 26 x 4. La probabilité de l’évènement B est alors : 4 × 4 + 26 × 4 4 × 30 4 𝑃 𝐵 = = = 30 × 30 30 × 30 30 Nous avons maintenant : 𝑃(𝐵/𝐴)= 𝑃(𝐵) 12 Evènements indépendants La probabilité conditionnelle de B quand A est réalisé est égale à la probabilité à priori de B. On dit que les évènements A et B sont indépendants. Remarquant que nous avons toujours : 𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵/𝐴) Si A et B sont deux évènements indépendants 𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵) 13 Evènements indépendants Dans les deux exemples suivants, nous avons deux ensembles de 20 individus dont la moitie sont de sexe féminin, avec les caractéristiques suivants: Individu de sexe féminin Individu de sexe masculin Individus atteints (malades) 14 Evènements indépendants Exemple 1: 15 Evènements indépendants Exemple 1: ½ Filles; ½ Garçons 16 Evènements indépendants Exemple 1: ½ Filles; ½ Garçons ½ Malade; ½ Non malades 17 Evènements indépendants Exemple 2: 18 Evènements indépendants Exemple 2: ½ Filles 19 Evènements indépendants Exemple 2: ½ Filles ½ Garçons 20 Evènements indépendants Dans ces deux exemples, si les évènements sont indépendants, un individu peut être de sexe masculin et malade en même temps (Ex 1). P(M+) = 1/2 P(G) = 1/2 Donc: P(M+ et G) = 1/2 X 1/2 = 1/4 21 Evènements indépendants Par contre, si les évènements ne sont pas indépendants (Ex 2), un individu ne peut pas être malade et de sexe masculin en même temps. P(M+) = 1/2 P(G) = 1/2 Donc: P(M+ et G) = 0 Mais pour chercher la probabilité d’avoir un individu malade ou de sexe masculin : 𝑃 𝑀 + 𝑜𝑢 𝐺 = 1/2 + 1/2 22 Evènements indépendants Considérons deux évènements A et B. 1. Si A ⊂ B (si A est réalisé, alors B aussi). A B Alors 𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐴) D’où 𝑃(𝐵/𝐴)= 𝑃(𝐴∩𝐵) 𝑃(𝐴) = 1 𝑒𝑡 𝑃(𝐴/𝐵)= 𝑃(𝐴∩𝐵) 𝑃(𝐵) = 𝑃(𝐴) 𝑃(𝐵) A et B ne sont pas indépendants. 23 Evènements indépendants Considérons deux évènements A et B. 2. Si A ⋂ B (A et B sont exclusifs). B A Alors 𝑃 𝐴 ∩ 𝐵 = 𝑃 ∅ = 0 D’où 𝑃(𝐴/𝐵)= 𝑃(𝐴∩𝐵) 𝑃(𝐵) = 0 𝑃(𝐵) =0 De même A et B ne sont pas indépendants. 24 Théorème Bayes Révérend Thomas Bayes 1702 - 1761 25 Théorème Bayes Il permet de calculer la probabilité à posteriori d’un évènement A, [après qu’un autre évènement B s’est produit = P(A/B)] à partir de sa probabilité à priori [P(A)]. A partir de la probabilité conditionnelle : 𝑃(𝐴/𝐵) = 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐵) Or, nous avons : 𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐴) × 𝑃(𝐵/𝐴) 𝑃 𝐴 ∩ 𝐵 = 𝑃(𝐵) × 𝑃(𝐴/𝐵) 26 Théorème Bayes Donc : 𝑃(𝐴/𝐵) = 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐵) 𝑃(𝐴/𝐵) = = 𝑃(𝐴)×𝑃(𝐵/𝐴) 𝑃(𝐵) 𝑃(𝐴)×𝑃(𝐵/𝐴) 𝑃(𝐵) 27 Théorème Bayes Considérons deux groupes (G1 et G2) d’individus dont certains sont malades. On choisi un individu dans le G1 ou dans le G2. Soit C1 l’évènement "le choix est effectué dans G1" Et C2 l’évènement "le choix est effectué dans G2" Et M l’évènement "l’individu choisi est malade" La probabilité de choisir un individu malade dans le G1 est égale à la proportion des malades dans ce groupe, soit 𝑃(M/C1), de même 𝑃(M/C2) 28 Théorème Bayes Sachant que l’individu choisi est malade, Quelle est la probabilité qu’il proviens du G1 ? Quelle est la probabilité qu’il proviens du G2 ? Ces probabilités sont notées respectivement: P(C1/M) et P(C2/M) 29 Théorème Bayes Nous avons : 𝑃(𝐶1/𝑀) = 𝑃(𝐶1 ∩𝑀) 𝑃(𝑀) = 𝑃(𝐶1)×𝑃(𝑀/𝐶1) 𝑃(𝑀) Puisque les évènements C1 complémentaires, nous avons : et C2 sont 𝑃 𝑀 = 𝑃 𝑀 𝑒𝑡 𝐶1 + 𝑃(𝑀 𝑒𝑡 𝐶2) = P(C1) P(M / C1) + P(C2) P(M / C2) 30 Théorème Bayes Par conséquent : 𝑃(𝐶1/𝑀) = 𝑃 𝐶1 𝑃 𝑀/𝐶1 𝑃 𝐶1 𝑃 𝑀/𝐶1 +𝑃 𝐶2 𝑃 𝑀/𝐶2 De même : 𝑃(𝐶2/𝑀) = 𝑃 𝐶2 𝑃 𝑀/𝐶2 𝑃 𝐶1 𝑃 𝑀/𝐶1 +𝑃 𝐶2 𝑃 𝑀/𝐶2 31 Théorème Bayes Généralisation : 𝑃(𝐶1/𝑀) = 𝑃 𝐶1 𝑃 𝑀/𝐶1 𝑛 𝑃 𝐶𝑖 𝑃 𝑀/𝐶𝑖 𝑖=1 32 Théorème Bayes Exercice : On considère une population composée de 45 % d’hommes et 55 % de femmes. On suppose que 4 % des hommes et 0,5 % des femmes sont daltoniens. On choisi au hasard une personne dans cette population : 1) Quelle est la probabilité que cette personne soit daltonienne ? 2) Sachant que cette personne est daltonienne, quelle est la probabilité que ce soit un homme ? 33 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 Synthèse cours antérieur 𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵/𝐴) 𝑃(𝐵/𝐴)= 𝑃(𝐴 𝑒𝑡 𝐵) 𝑃(𝐴) Si A et B sont deux évènements indépendants : 𝑃(𝐵/𝐴) = 𝑃(𝐵) donc : 𝑃 𝐴 𝑒𝑡 𝐵 = 𝑃 𝐴 . 𝑃(𝐵) 3 Synthèse cours antérieur Le Théorème de Bayes permet de calculer la probabilité à posteriori d’un évènement A, [après qu’un autre évènement B s’est produit = P(A/B)] à partir de sa probabilité à priori [P(A)]. 𝑃(𝐴/𝐵) = 𝑃(𝐴/𝐵) = 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐵) 𝑃(𝐴)×𝑃(𝐵/𝐴) 𝑃(𝐵) Formule de Bayes 4 Synthèse cours antérieur Si nous avons des évènements A1, A2,…, An tels qu’ils forment une partition de l’ensemble fondamental Ω. 𝑃(𝐴𝑖/𝐵) = 𝑃(𝐴𝑖)×𝑃(𝐵/𝐴𝑖) 𝑃(𝐵) À partir de la probabilité totale P(B) 𝑃 𝐵 = 𝑃 𝐵 ∩ 𝐴1 + 𝑃 𝐵 ∩ 𝐴2 + ⋯ + 𝑃 𝐵 ∩ 𝐴𝑛 𝑃(𝐴𝑖/𝐵) = 𝑃(𝐴𝑖)×𝑃(𝐵/𝐴𝑖) 𝑃 𝐴1 𝑃 𝐵/𝐴1 +⋯+𝑃 𝐴𝑛 𝑃 𝐵/𝐴𝑛 5 Loi des grands nombres Considérons l’accouchement d’une femme et intéressons-nous à l’évènement : E : «l’enfant est de sexe masculin». La probabilité de cet évènement est 1/2 si on admet que la naissance d’un garçon et aussi probable que celle d’une fille. Observons alors n femmes enceintes et soit k le nombre de fois que l’évènement E se réalise. 6 Loi des grands nombres k est la fréquence absolue de l’évènement E, 𝑓𝑛 = 𝑘 en est la fréquence relative. 𝑛 L’expérience montre que si n est grand la fréquence relative 𝑓𝑛 est voisine de la probabilité 1/2 et que la différence 𝑓𝑛 − 1/2 a tendance à diminuer lorsque n augmente. 7 Loi des grands nombres Exemple: Nombre de femmes enceintes 10 50 100 200 500 1000 5000 Nombre de garçons 3 27 45 95 260 Fréquence relative 0,3 491 2540 0,54 0,45 0,47 0,52 0,49 0,50 D’où on peut dire que les fréquences relatives tendent vers 0,5, c’est-à-dire elles tendent vers la probabilité P quand le nombre de l’évènement tend vers infini. 8 9 Variable aléatoire discrète Un couple souhaitant avoir 2 enfants s’intéressent au nombre de garçons qu’il pourrait avoir. On admet que la naissance d’un garçon est aussi probable que celle d’une fille : P(G) = P(F) = 1/2 Et que les naissances sont indépendantes. Le nombre de garçons dans cette fratrie ne peut pas être choisi par les parents; il est régit par un phénomène aléatoire. 10 Variable aléatoire discrète Notons X = nombre de garçons. Les valeurs possibles de X sont 0, 1 ou 2 avec des probabilités différentes. Evènement F puis F F puis G ou G puis F G puis G Valeur de X 0 1 2 Probabilité associée 1/2.1/2 = 1/4 1/2.1/2 + 1/2.1/2 = 1/2 1/2.1/2 = 1/4 L’ensemble des valeurs possibles et leurs probabilités associées définissent la loi (ou distribution) de X. 11 Variable aléatoire discrète Il est possible de représenter graphiquement les probabilités associées aux valeurs possibles de X par un diagramme en bâton : 1 0,75 P(x) 0,5 0,25 0 1 2 X 12 Variable aléatoire discrète On dit que X est une variable aléatoire et l’ensemble des couples (𝑥𝑖, 𝑃𝑖) où 𝑖 = 1, 2, … , 𝑛 constitue, par définition, sa loi de probabilité. Notons que nous avons : 𝑃𝑖 = 1 La distribution de X est définie par : {(x1, P(X = x1)), …,(xk, P(X = xk))} 13 Variable aléatoire discrète Espérance mathématique d’une V.a. discrète: Soit X une variable aléatoire de distribution : { 𝑥𝑖, 𝑝𝑖 , 𝑖 = 1, 2, … , 𝑘}. On appelle espérance mathématique de la variable aléatoire X le nombre : 𝑛 𝑚=𝐸 𝑋 = 𝑃𝑖 𝑥𝑖 𝑖=1 Désigne la moyenne des valeurs prises par X, et pondérées par leurs probabilités de réalisation. 14 Variable aléatoire discrète Variance et écart-type d’une V.a. discrète: Soit X une variable aléatoire de distribution : { 𝑥𝑖, 𝑝𝑖 , 𝑖 = 1, 2, … , 𝑘} et de moyenne m. La variance de X, notée V(X) ou 𝜎 2 , est : 𝜎 2 = (𝑥1 − 𝑚)2 𝑃1 + ⋯ + (𝑥𝑘 − 𝑚)2 𝑃𝑘 2 2 =𝐸 𝑋−𝑚 = 𝐸 (𝑋 − 𝐸 𝑋 ) L’écart-type de X est égal à la racine carrée de la variance de X, soit 𝜎. 15 Variable aléatoire discrète Fonction de répartition: On appelle fonction de répartition d’une variable aléatoire X, la fonction 𝐹(𝑥) telle que : 𝐹 𝑥 = 𝑃(𝑋 < 𝑥) pour tout 𝑥 ∈ ℛ 𝐹 𝑥 = 𝑃 𝑋 = 𝑥𝑖 = 𝑥𝑖≤𝑥 𝑃𝑖 𝑥𝑖≤𝑥 16 Variable aléatoire discrète Fonction de répartition: Concrètement la fonction de répartition correspond à la distribution des probabilités cumulées. Le plateau atteint par la fonction de répartition correspond à la valeur de probabilité 1 car : 𝑃𝑖 = 1 L’importance pratique de la fonction de répartition est qu’elle permet de calculer la probabilité de tout intervalle dans ℛ. 17 Variable aléatoire discrète Fonction de répartition: On prends l’exemple d’un couple souhaitant avoir 3 enfants et qui s’intéressent au nombre de garçons qu’il pourrait avoir. On introduit une variable aléatoire : X = nombre de garçons. Les valeurs possibles de X sont 0, 1, 2 ou 3 avec des probabilités différentes. 18 Variable aléatoire discrète Fonction de répartition: La loi de probabilité de X est : Nombre de Garçons 𝑷(𝑿 = 𝒙𝒊) 𝑭(𝒙) 0 1/8 1/8 1 3/8 4/8 2 3/8 7/8 3 1/8 1 19 Variable aléatoire discrète Fonction de répartition: 20 Variables aléatoires indépendantes Soit X et Y deux variables aléatoires sur un même espace fondamental E. X et Y sont indépendantes si tous les évènements 𝑋 = 𝑥𝑖 et 𝑌 = 𝑦𝑖 sont indépendants: 𝑃 𝑋 = 𝑥𝑖 ∩ 𝑌 = 𝑦𝑖 = 𝑃(𝑋 = 𝑥𝑖) × 𝑃(𝑌 = 𝑦𝑖) 1) 𝐸 𝑋𝑌 = 𝐸 𝑋 𝐸(𝑌) 2) 𝑉 𝑋 + 𝑌 = 𝑉 𝑋 + 𝑉(𝑌) 3) 𝐶𝑜𝑣 𝑋, 𝑌 = 0 21 Variable aléatoire continue Au lieu de prendre seulement des valeurs discrètes une variable aléatoire peut dans certains cas prendre toutes les valeurs d’un intervalle fini ou infini. La généralisation du cas des variables aléatoires discontinues au cas de variables aléatoires continues peut être abordée de manière intuitive à partir de l’histogramme du polygone des fréquences. (Fig 1) 22 Variable aléatoire continue Densité de probabilité Taille de 200 individus Figure 1 : Histogramme des fréquences 23 Variable aléatoire continue Lorsque la taille de l’échantillon devient infinie et la largeur des classes tend vers 0, alors la limite du polygone des fréquences tend vers la densité de probabilité d’une variable aléatoire continue. (Fig 2, 3 et 4) 24 Variable aléatoire continue Densité de probabilité Taille de 1000 individus Figure 2 : L’augmentation de la taille de l’échantillon et la réduction de la largeur des classes. 25 Variable aléatoire continue Densité de probabilité Taille de 100000 individus Figure 3 : L’augmentation de la taille de l’échantillon et la réduction de la largeur des classes. 26 Variable aléatoire continue Densité de probabilité Taille de 1000000 individus Figure 4 : L’augmentation de la taille de l’échantillon et la réduction de la largeur des classes. 27 Variable aléatoire continue La probabilité pour qu’une réalisation au hasard de la variable aléatoire soit comprise entre deux valeur 𝑎 et 𝑏 correspond à la surface comprise entre la courbe de densité et l’axe des x limité par les 2 verticales passant par 𝑎 et 𝑏. (Fig 5) 28 Variable aléatoire continue 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) f(X) 𝑎 𝑏 Figure 5 : la densité de probabilité f(X) d’une variable aléatoire continue. 29 Variable aléatoire continue Une telle variable aléatoire est appelée variable aléatoire continue. Sa loi de probabilité est déterminée si l’on connaît, pour tout intervalle (𝑎, 𝑏) la probabilité que X soit compris entre 𝑎 et 𝑏, plus précisément : 𝑃(𝑎 ≤ 𝑋 < 𝑏) Cette loi de probabilité est complètement déterminée par la connaissance de la fonction : 𝐹 𝑥 = 𝑃(𝑋 < 𝑥) 30 Variable aléatoire continue En effet, pour 𝑎 < 𝑏 le théorème des probabilités totales permet d’écrire : 𝑃 𝑋 < 𝑏 = 𝑃 𝑋 < 𝑎 + 𝑃(𝑎 ≤ 𝑋 < 𝑏) Ou 𝐹 𝑏 = 𝐹 𝑎 + 𝑃(𝑎 ≤ 𝑋 < 𝑏) Ou encore 𝑃 𝑎 ≤ 𝑋 < 𝑏 = 𝐹 𝑏 − 𝐹(𝑎) lim 𝐹(𝑥) = 0 𝑥→−∞ et lim 𝐹(𝑥) = 1 𝑥→+∞ 31 Variable aléatoire continue Remarque : Pour une variable aléatoire continue, la probabilité associé à l’évènement (𝑋 = 𝑎) est nulle, car il est impossible d’observer cette valeur exacte. On considère alors la probabilité que la valeur X prenne des valeurs comprises dans un intervalle [𝑎, 𝑏] tel que 𝑃(𝑎 < 𝑋 < 𝑏) 32 Variable aléatoire continue On définit alors la loi de probabilité de X, ou distribution de X, à l’aide d’une fonction 𝑓(𝑥) , appelée densité de probabilité de X, telle que : 𝑏 𝑓 𝑥 𝑑𝑥 = 𝑃(𝑎 < 𝑋 < 𝑏) 𝑎 𝐹 +∞ = 1 𝐹 −∞ = 0 𝐹(𝑥) est une fonction croissante de 𝑥. 33 Variable aléatoire continue 34 Variable aléatoire continue Soit X une variable aléatoire continue dans un intervalle [𝑎, 𝑏] muni d’une fonction de densité 𝑓. On définit la loi de probabilité de densité 𝑓 de X, en associant à tout intervalle [𝑐, 𝑑 ] inclus dans [𝑎, 𝑏], la probabilité de l’évènement X ∈ [𝑐, 𝑑], c’està-dire 𝑐 < 𝑋 < 𝑑. 35 Variable aléatoire continue 𝑑 𝑃 𝑎<𝑋<𝑏 =1 𝑒𝑡 𝑃 𝑐<𝑋<𝑑 = 𝑓 𝑥 𝑑𝑥 𝑐 36 Variable aléatoire continue Le passage du cas discontinu au cas continu revient à considérer la probabilité de trouver une variable X dans un intervalle donné ce qui transforme les sommes ∑ en intégrales ʃ et les Pi en 𝑓(𝑥)dx. L’espérance mathématique est donc : +∞ 𝑚=𝐸 𝑋 = 𝑥 . 𝑓 𝑥 𝑑𝑥 −∞ 37 Variable aléatoire continue La moyenne de X a la même signification que dans le cas discontinu : c’est la limite de la moyenne arithmétique d’un échantillon lorsque la taille tend vers l’infini. La variance est toujours définie par : 𝜎2 = 𝐸 (𝑋 − 𝐸 𝑋 2 ) 38 Variable aléatoire continue Exemple : Soit X la variable aléatoire continue dans l’intervalle [0, 1], muni de la fonction de densité 𝑓 définie par : 𝑓 𝑥 = 3𝑥 2 1) Déterminer 𝑃(𝑋 = 0,5) 2) Calculer 𝑃(𝑋 ≤ 0,5) 3) En déduire 𝑃(𝑋 > 0,5) 4) Calculer 𝑃(0,3 < 𝑋 < 0,5) 5) Calculer 𝑃[(0,3 < 𝑋 < 0,9)/(0,2 < 𝑋 < 0,5] 39 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 Evaluation de l’intérêt diagnostique des informations médicales 3 Introduction En médecine, le diagnostic est la démarche par laquelle le médecin, généraliste ou spécialiste, va déterminer l'affection dont souffre le patient, et qui va permettre de proposer un traitement. Le diagnostic d’une maladie repose sur l’observation de signes cliniques, et/ou la réalisation d’examens complémentaires (biologiques, radiologiques ou autres). C’est de la valeur de ces signes ou de ces examens que dépend la validité du diagnostic porté. 4 Introduction Il n’est bien sûr pas question d’effectuer tous les examens complémentaires sur tous les malades : Il faut donc préciser les indication de ces examens, ce qui repose sur l’évaluation de leur intérêt diagnostique. 5 Le diagnostic On peut définir un diagnostic comme un concept résument l’état d’un individu. D’un point de vue statistique, le diagnostic sera souvent considéré comme une variable aléatoire binaire : Le patient souffre ou ne souffre pas de l’affection considérée, ou, exprimé autrement, le diagnostic est vrai ou faux chez ce patient. Les valeurs possibles de la variable seront notées M+ et M- (maladie présente ou absente). 6 Les informations médicales On divise l’ensemble des informations médicales en signes cliniques et signes complémentaires. Les signes cliniques sont divisés en : Signes fonctionnels (symptômes), décrits par le malade; Signes physiques, recherchés par le médecin. 7 Les informations médicales Les signes complémentaires peuvent être biologiques ou radiologiques. Leur intérêt peut être : Diagnostique (caractère malin ou bénin d’une tumeur) Thérapeutique (localisation précise d’une tumeur) Pronostique (extension ganglionnaire) 8 Les informations médicales D’un point de vue statistique, ces signes peuvent être représentés par des variables binaires (présence ou absence d’un nodule sur une image) ou continues (cholestérolémie). On entendra par « test » un signe clinique au sens large. 9 Performances d’un test Le choix de retenir ou non un nouvel examen diagnostic ne peut donc se faire qu’après une évaluation rigoureuse de ses avantages et de ses inconvénients par rapport à ceux des examens qui existaient jusque là. Les performances d’un test doivent être successivement mesurées de façon expérimentale, et évaluées en situation réelle sur le terrain. 10 Performances d’un test Les performances d’un test visant à faire le diagnostic d’une maladie M sont établies à partir de 2 groupes de sujets : l’un est constitué de porteurs de la maladie M (dont on a fait le diagnostic par une méthode de référence), l’autre de sujets indemnes de cette maladie. 11 Performances d’un test La pratique du test chez l’ensemble des sujets va permettre d’établir le tableau de contingence suivant : Malades Non malades Total Test positif Vrais positifs Faux positifs VP + FP Test négatif Faux négatifs Vrais négatifs FN + VN VP + FN FP + VN N Total 12 Mesure expérimentale Des performances D’un test Un test doit posséder deux qualités majeures : La sensibilité et la spécificité. Il s’agit des qualités « intrinsèques » du test. 13 Sensibilité (Se) La sensibilité d’un test est ca capacité à détecter les cas d’une maladie. probabilité conditionnelle que le test soit positif sachant que le sujet est malade : P (T+/M+) estimée par la proportion de résultats positifs quand on applique le test à un groupe de sujets malades : 𝑉𝑃 𝑆𝑒 = 𝑉𝑃 + 𝐹𝑁 14 Sensibilité (Se) M+ M– Total T+ VP FP VP + FP T– FN VN FN + VN Total VP + FN FP + VN N 𝑽𝑷 𝑺𝒆 = 𝑽𝑷 + 𝑭𝑵 15 Sensibilité (Se) Exemple: On veut tester la sensibilité d’un test de dépistage de la toxoplasmose congénitale. On dispose d’un groupe de 58 prélèvements, correspondant à des enfants nés ultérieurement et atteints de façon certaine de toxoplasmose congénitale. Parmi eux, le test à été positif dans 54 cas. La sensibilité est : 𝑆𝑒 = 54 58 = 93,1% 16 Spécificité (Sp) La spécificité d’un test est ca capacité à identifier correctement les individus qui ne sont pas atteints par la maladie. probabilité conditionnelle que le test soit négatif sachant que le sujet est sain : P (T-/M-) estimée par la proportion de résultats négatifs quand on applique le test à un groupe de sujets non malades : 𝑉𝑁 𝑆𝑝 = 𝑉𝑁 + 𝐹𝑃 17 Spécificité (Sp) M+ M– Total T+ VP FP VP + FP T– FN VN FN + VN Total VP + FN FP + VN N 𝑽𝑵 𝑺𝒑 = 𝑽𝑵 + 𝑭𝑷 18 Spécificité (Sp) Exemple : On veut tester la spécificité d’un test de dépistage de la toxoplasmose congénitale. On dispose d’un groupe de 125 prélèvements, correspondant à des enfants nés ultérieurement et indemnes de façon certaine de toxoplasmose congénitale. Parmi eux, le test à été négatif dans 114 cas. La spécificité est : 𝑆𝑝 = 114 125 = 91,2% 19 Spécificité (Sp) Pour un examen "parfait", c’est-à-dire n’effectuant aucune erreur, les valeurs de la sensibilité et de la spécificité sont égale à 1 : M+ M– Total T+ VP T– Total VP + FN 𝑽𝑷 𝑺𝒆 = =𝟏 𝑽𝑷 + 𝟎 VP + FP VN FN + VN FP + VN N 𝑽𝑵 𝑺𝒑 = =𝟏 𝑽𝑵 + 𝟎 20 Cas d’un test quantitatif Le plus souvent le résultat d’un test n’est pas binaire mais s’exprime par une grandeur continue (résultats quantitatifs). En raison de la variabilité biologique, ces valeurs sont différentes d’un sujet à l’autre. Les résultats vont s’afficher sous forme d’une distribution. Le problème est donc de déterminer une valeur seuil qui permettra de classer les malades et les sujets sains. 21 Cas d’un test quantitatif Si le test est parfaitement discriminant, la distribution des valeurs dans le groupe des cas, sera bien séparée de la distribution des valeurs dans un groupe de sujets sains. Il sera alors aisé de choisir une valeur seuil qui permettra une sensibilité et une spécificité de 100%. 22 Introduction Non Malades VN Malades VP 23 Cas d’un test quantitatif Le plus souvent, il y a chevauchement des deux distribution. Certains sujets sains présentent des valeurs qui peuvent être identiques à celle de sujets malades et à l’inverse certains malades présentent des valeurs qui peuvent être identiques à celles de sujets sains. Le choix d’un seuil devient une opération délicate, car il divise les deux groupes de sujets en 4 sousgroupes, VP, FN, VN et FP. 24 Cas d’un test quantitatif Non Malades VN Malades VP 25 Cas d’un test quantitatif VN VP FN FP On conçoit que les qualités diagnostiques du test vont varier selon le seuil choisi. 26 Cas d’un test quantitatif VN FN VP FP 27 Cas d’un test quantitatif VN VP FN FP La sensibilité et la spécificité varient en sens inverse. 28 Choix d’un seuil On représente en général les résultats d’un tel test au moyen d’une courbe dite courbe ROC (Receiver Operating Characteristic), sur laquelle chaque seuil possible est représenté par un point ayant pour abscisse le taux de faux positifs (1 – Sp) et pour ordonnée le taux de vrais positifs (Se). 29 Choix d’un seuil Le choix de la valeur seuil est guidé par l’importance accordée aux erreurs : Le clinicien, en choisissant le seuil d’anormalité détermine, dans une certaine mesure, les gravités relatives des faux négatifs (ne pas diagnostiquer la maladie chez un malade) et des faux positifs (diagnostiquer à tort la maladie). Aussi, ce seuil doit-il être fixé en tenant compte de la gravité relative de chaque type d’erreur et du contexte (dépistage, démarche diagnostique). 30 Choix d’un seuil Exemple du dosage de l’hormone T3 dans le diagnostic de l’hyperthyroïdie. Seuil de positivité > 230 ng/dl T+ T– 𝑆𝑒 = 𝑃(𝑇 +/𝑀 +) 𝑆𝑝 = 𝑃(𝑇 −/𝑀 −) M+ 32 M– 3 8 40 77 80 32 = 40 77 = 80 = 0,8 = 80% = 0,96 = 96% 31 Choix d’un seuil Exemple du dosage de l’hormone T3 dans le diagnostic de l’hyperthyroïdie. Seuil de positivité ⇒ 200 ng/dl T+ T– 𝑆𝑒 = 𝑃(𝑇 +/𝑀 +) 𝑆𝑝 = 𝑃(𝑇 −/𝑀 −) M+ 36 M– 8 4 40 72 80 36 = 40 72 = 80 = 0,9 = 90% = 0,9 = 90% 32 Choix d’un seuil Exemple du dosage de l’hormone T3 dans le diagnostic de l’hyperthyroïdie. Seuil de positivité ⇒ 170 ng/dl T+ T– 𝑆𝑒 = 𝑃(𝑇 +/𝑀 +) 𝑆𝑝 = 𝑃(𝑇 −/𝑀 −) M+ 37 M– 16 3 40 64 80 37 = 40 64 = 80 = 0,92 = 92% = 0,8 = 80% 33 Choix d’un seuil 1.0 La courbe ROC : >170 0.2 0.4 0.6 >230 0.0 sensibilité 0.8 >200 0.0 0.2 0.4 0.6 1-spécificité 0.8 1.0 34 Choix d’un seuil 0.6 0.4 0.2 0.0 sensibilité 0.8 1.0 La courbe ROC : 0.0 0.2 0.4 0.6 1-spécificité 0.8 1.0 35 Choix d’un seuil 0.6 0.4 0.2 0.0 sensibilité Ligne de tests nulles Zone de compromis 0.8 Test parfait 1.0 La courbe ROC : 0.0 0.2 0.4 0.6 1-spécificité 0.8 1.0 36 Mesures de performances D’un test en situation réelle Il s’agit des qualités « extrinsèques » du test. Sont appelées valeurs prédictives d’un test. 37 Valeur prédictive positive Lorsqu’un test est positif il existe deux possibilités: Soit le sujet est malade, soit le sujet n’est pas malade malgré ce résultat contradictoire. C’est la capacité d’un test positif à prévoir l’existence de la maladie que l’on cherche à diagnostiquer: probabilité conditionnelle d'être malade si le test est positif : P(M+/T+) estimée par la proportion de malades chez les sujets positif pour le test. 38 Valeur prédictive positive Dans le cas d’un seul échantillon représentatif : M+ M– T+ VP FP T– FN VN Total VP + FN FP + VN 𝑉𝑃 𝑉𝑃𝑃 = 𝑉𝑃 + 𝐹𝑃 39 Valeur prédictive négative Lorsqu’un test est négatif il existe deux possibilités: Soit le sujet est sain, soit le sujet est malade malgré ce résultat contradictoire. C’est la capacité d’un test positif à prévoir l’absence de maladie probabilité conditionnelle d'être indemne si le test est négatif : P(M-/T-) estimée par la proportion de sujets sains chez les sujets négatifs pour le test. 40 Valeur prédictive négative Dans le cas d’un seul échantillon représentatif : M+ M– T+ VP FP T– FN VN Total VP + FN FP + VN 𝑉𝑁 𝑉𝑃𝑁 = 𝑉𝑁 + 𝐹𝑁 41 Valeur prédictive pour deux échantillon Dans le cas des maladies rare, l’estimation des valeurs prédictives se fait sur deux échantillons (malades et non malades) à condition de connaître la prévalence de la maladie P(M), la sensibilité Se et la spécificité Sp. 42 Valeur prédictive pour deux échantillon VPP ET VPN sont dépendantes - de la qualité intrinsèque du test (Se, Sp) - de la prévalence de M (probabilité pré-test) Test diagnostique Probabilité pré-test P(M) Probabilité post-test P(M|test) 43 Valeur prédictive pour deux échantillon 𝑉𝑃𝑃 = 𝑃(𝑀 + 𝑇 +) 𝑃(𝑇 +/𝑀+) × 𝑃(𝑀+) = 𝑃 𝑇 +/𝑀 + × 𝑃 𝑀 + + 𝑃(𝑇 +/𝑀−) × 𝑃(𝑀−) 𝑆𝑒 × 𝑃 𝑉𝑃𝑃 = 𝑆𝑒 × 𝑃 + (1 − 𝑆𝑝) × (1 − 𝑃) 44 Valeur prédictive pour deux échantillon 𝑉𝑃𝑁 = 𝑃(𝑀 −/𝑇 −) 𝑃(𝑇 −/𝑀−) × 𝑃(𝑀−) = 𝑃 𝑇 −/𝑀 − × 𝑃 𝑀 − + 𝑃(𝑇 −/𝑀+) × 𝑃(𝑀+) 𝑆𝑝 × (1 − 𝑃) 𝑉𝑃𝑁 = 𝑆𝑝 × (1 − 𝑃) + (1 − 𝑆𝑒) × (𝑃) 45 Valeur prédictive 1,00 0,90 0,80 0,70 0,60 ---VPPVPP --- VPN VPN 0,50 0,40 0,30 0,20 0,10 0,00 0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 1,00 Prévalence Prévalence 46 Rapport de vraisemblance Les rapports de vraisemblance (RV ou LR= likelihood ratio) décrivent l’apport d’un test au diagnostic : Le rapport de vraisemblance positif (RVP ou L) d’un test est le rapport de la probabilité d’avoir un test positif en présence de la maladie sur la probabilité d’avoir un test positif en l’absence de maladie : L = Se/(1-Sp) = (VP/malades)/(FP/non malades) 47 Rapport de vraisemblance L varie de 0 à l’infini. Plus il est élevé, plus le gain diagnostique est important. Ainsi un L=1 n’apporte rien au diagnostic (le test est positif mais la probabilité d’être malade = celle de n’être pas malade), un L compris entre 2 et 5 est considéré comme d’apport mineur ; un L entre 5 et 10 d’un apport modéré, alors qu’un L > 10 est d’un apport important au diagnostic. 48 Rapport de vraisemblance Le rapport de vraisemblance négatif (RVN ou λ) d’un test est le rapport de la probabilité d’un test négatif chez un malade sur celle d’un test négatif chez un non-malade. Plus il est proche de 0, plus il permet d'exclure le diagnostic. Un RVN < 0,1 est d’un apport important au diagnostic ; entre 0,1 et 0,2 : apport modéré ; entre 0,2 et 0,5 : apport mineur ; > 0,5 : pas d’intérêt. λ = (1-Se)/Sp = (FN/malades)/(VN/non malades) 49 Rapport de vraisemblance Exercice : Dans une population pour laquelle 1 habitant sur 100 est atteint d’une maladie génétique M, on a mis au point un test de dépistage. Le résultat du test est soit positif soit négatif. On sais que : P(T+/M+) = 0,8 et p(T-/M-) = 0,9 On soumet un patient au test. Celui-ci est positif. Quelle est la probabilité que ce patient soit atteint de la maladie M soit P(M+/T+) ? 50 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 Distribution d’une variable aléatoire Lorsque les valeurs d’une variable sont classées, on examine leur distribution. Une première phase d’une analyse consiste à décrire cette distribution. 3 Distribution d’une variable aléatoire Les valeurs de la distribution se répartissent un peu n’importe comment 4 Distribution d’une variable aléatoire Les valeurs de la distribution se répartissent selon un modèle fréquemment observé en biologie et médecine. 5 Distribution d’une variable aléatoire La dispersion de la distribution est asymétrique. Elle est plus importante pour les valeurs élevées. Dispersion rencontrée en biologie et médecine. 6 Distribution d’une variable aléatoire Les valeurs de la distribution sont réparties en deux souspopulations. Observée très souvent en médecine (sujets sains et sujets malades). 7 Distribution d’une variable aléatoire Si en ordonnées, on remplace les effectifs 𝑛𝑖 de chaque classe par leurs rapports au total des effectifs 𝑛𝑖/𝑁 , on obtient le diagramme des fréquences relatives de chaque classe 𝑃(𝑋). 8 Distribution d’une variable aléatoire Distribution des fréquences relatives d’une variable 𝑋. 9 Distribution d’une variable aléatoire Distribution continue 𝑋. des fréquences relatives d’une variable 10 11 Epreuve de Bernoulli Jacob Bernoulli 27 décembre 1654 - 16 août 1705 12 Epreuve de Bernoulli Considérons une expérience dont le résultat est aléatoire et soit 𝐴 un évènement défini sur cette expérience. Tout résultat de l’expérience est une réalisation de l’évènement 𝐴 ou de son contraire 𝐴. Posons : 𝑃 𝐴 =𝑝 𝑃 𝐴 =𝑞 Nous avons : 𝑃 𝐴 +𝑃 𝐴 =1 Soit : 𝑝+𝑞 =1 13 Epreuve de Bernoulli Exemple : Dans le cas d’une femme enceinte, si l’évènement 𝐴 est l’arrivée d’un garçon, l’évènement contraire 𝐴 est l’arrivée d’une fille. On a : 1 𝑝=𝑞= 2 Lorsqu’on s’intéresse ainsi à un évènement 𝐴 ou à son contraire 𝐴, la réalisation de l’expérience est appelée épreuve de Bernoulli. 14 Epreuve de Bernoulli On peut associer à une épreuve de Bernoulli une variable aléatoire X prenant la valeur 1 quand l’évènement 𝐴 est réalisé et la valeur 0 quand c’est l’évènement contraire 𝐴 qui est réalisé. La loi de probabilité de X est : 𝑃 𝑋=1 =𝑝 𝑃 𝑋=0 =𝑞 Avec : 𝑝+𝑞 =1 15 Epreuve de Bernoulli Une telle variable aléatoire est appelée variable de Bernoulli et sa loi de probabilité est appelée loi de Bernoulli. L’espérance mathématique de X est : 𝐸 𝑋 = 𝑝. 1 + 𝑞. 0 𝐸 𝑋 =𝑝 16 Epreuve de Bernoulli L’espérance mathématique de X 2 est : 𝐸 𝑋 2 = 𝑝. 12 + 𝑞. 02 𝐸 𝑋2 = 𝑝 La variance de X est alors : 𝜎 2 = 𝐸 𝑋 2 − [𝐸 𝑋 ]2 𝜎 2 = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝) 𝜎 2 = 𝑝𝑞 17 Loi Binomiale Décrite pour la première fois par Isaac Newton en 1676 et démontrée pour la première fois par le mathématicien suisse Jacob Bernoulli en 1713 après sa mort, par son neveu Nicolas Bernoulli. La loi binomiale est l’une des distributions de probabilité les plus fréquemment rencontrées en statistique appliquée. 18 Loi Binomiale Considérons une suite de 𝑛 épreuves de Bernoulli identiques. A chaque épreuve nous appellerons succès la réalisation de l’évènement 𝐴 et échec la réalisation de l’évènement contraire 𝐴. Soit X le nombre de réalisation de l’évènement 𝐴 ou nombre de succès au cours des 𝑛 épreuves. X est une variable aléatoire qui peut prendre les valeurs 0, 1, 2, …, 𝑛. Sa loi de probabilité est : 𝑃 𝑋 = 𝑘 = 𝐶𝑛𝑘 𝑝𝑘 𝑞 𝑛−𝑘 19 Loi Binomiale k : Nombre de sujets porteurs de la caractéristique dans l’échantillon (𝑘 = 0, 1, … 𝑛) ; 𝑛 : Taille de l’échantillon; 𝑃 : Proportion de sujets porteurs de la caractéristique dans la population. On appelle X la variable qui peut prendre la valeur k. 20 Loi Binomiale On utilise la loi binomiale lorsqu’on désire connaître : 1) La probabilité de k succès au bout de 𝑛 tentative sachant la probabilité P de gagner à chacune des tentatives. C’est la situation de jeu de hasard; ou bien, de façon plus pratique, 2) La probabilité d’observer k individus possédant une caractéristique donnée dans un échantillon de 𝑛 individus tirés d’une population où la proportion P de la caractéristique est connue. 21 Loi Binomiale Exemple : Voici deux questions faisant appel à la loi binomiale: 1) Quelle est la probabilité d’avoir 3 garçons chez 10 femmes enceintes ? 2) Quelle est la probabilité d’observer 3 malades dans un échantillon de 10 sujets choisi au hasard dans une population où la fréquence de la maladie est de 17 % ? 22 Loi Binomiale Solution : 1) Quelle est la probabilité d’avoir 3 garçons dans un groupe de 10 femmes enceintes ? K = nombre de garçons à avoir = 3 𝑛 = taille de l’échantillon = 10 P = probabilité d’avoir un garçon = ½ = 0,50 3 𝑃 𝑋 = 3 = 𝐶10 × 0,503 × 0,5010−3 = 0,117 La probabilité d’obtenir 3 garçons est de 11,7% 23 Loi Binomiale Solution : 2) Quelle est la probabilité d’observer 3 malades dans un échantillon de 10 sujets choisis au hasard dans une population avec une prévalence de 17% de maladie? K = nombre de malades = 3 𝑛 = taille de l’échantillon = 10 P = fréquence de la maladie dans la population = 0,17 3 𝑃 𝑋 = 3 = 𝐶10 × 0,173 × 0,8310−3 = 0,16 La probabilité d’obtenir 3 garçons est de 16% 24 Loi Binomiale On aurait pu poser la même question pour zéro malade, 1 malade, …, 10 malades. Il suffit de refaire les mêmes opérations en calculant 𝑝 𝑋 = 0 , 𝑝(𝑋 = 1), etc 𝑝 𝑋 = 0 = 0,155 𝑝 𝑋 = 1 = 0,318 ………………….. 𝑝 𝑋 = 8 = 0,00002 𝑝 𝑋 = 9 = 0,000001 𝑝 𝑋 = 10 = 0,00000002 La somme des probabilités est égale à 1 25 Loi Binomiale Distribution de probabilité 0,35 0,3 P(k) 0,25 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 6 7 8 Nombre de malades: k 9 10 26 Loi Binomiale Conditions d’application de la loi binomiale : Pour utiliser la loi binomiale, il faut que : La variable étudiée soit de type binaire; Les évènements soient indépendants; L’échantillon soit tiré au sort; Chaque évènement (ou individu) ait la même probabilité de succès (ou d’être tiré au sort); La taille 𝑛 de l’échantillon soit négligeable par rapport à la taille 𝑁 de la population (𝑛/𝑁 <10%). 27 Loi Binomiale 28 Loi Binomiale Fonctions de répartition de la loi : 𝑃 𝑋 < 𝑘 = 𝑃 𝑜 + 𝑃 1 + ⋯+ 𝑃 𝑘 − 1 = 1 − 𝑃(𝑋 ≥ 𝑘) 𝑃 𝑋 ≤ 𝑘 = 𝑃 0 + 𝑃 1 …………+ 𝑃 𝑘 = 1 − 𝑃(𝑋 > 𝑘) 𝑃 𝑋 > 𝑘 = 𝑃 𝑘 + 1 + … … … + 𝑃 𝑘𝑛 = 1 − 𝑃(𝑋 ≤ 𝑘) 𝑃 𝑋 ≥ 𝑘 = 𝑃 𝑘 + 𝑃 𝑘 + 1 + ⋯ + 𝑃 𝑘𝑛 = 1 − 𝑃(𝑋 < 𝑘) 29 Loi Binomiale Exemple : 1) Quelle est la probabilité d’observer moins de 4 malades dans un échantillon de 10 sujets choisis au hasard dans une population où la fréquence de la maladie est de 17%. 𝑃 𝑋 < 4 = 𝑝 0 + 𝑃 1 + 𝑃 2 + 𝑃(3) = 0,155 + 0,318 + 0,293 + 0,160 = 0,926 𝑃 𝑋 < 4 = 92,6% 30 Loi Binomiale Exemple : 2) Quelle est la probabilité d’observer plus de 3 malades dans un échantillon de 10 sujets choisis au hasard dans une population où la fréquence de la maladie est de 17%. 𝑃 𝑋 > 3 = 1 − 𝑃(𝑋 < 4) = 1 − 0,926 = 0,074 𝑃 𝑋 > 3 = 7,4% 31 Loi de Poisson Découverte au début du XIXe siècle par le magistrat français Siméon-Denis Poisson. 21 juin 1781 - 25 avril 1840 32 Loi de Poisson Commençons par deux exemples : 1) Sachant que la fréquence annuelle de la trichinellose (une maladie parasitaire) est de 10 cas pour 50 millions d’habitants, quelle est la probabilité d’observer 3 cas pendant une année dans une région qui compte 10 millions d’habitants ? 33 Loi de Poisson Avec ce que nous savons de la loi binomiale, nous disposons des éléments pour résoudre la question. Nous avons : 𝑃 = 0,0000002 𝑛 = 10 000 000 et 𝑘 = 3 Donc il est pratiquement impossible de calculer 𝑃 𝑋=𝑘 en raison des factorielles et des puissances. 34 Loi de Poisson 2) Sachant que dans un service d’urgence, on accueille en moyenne 5 entorses par week-end, quelle est la probabilité d’observer 3 entorses au cours du prochain week-end ? 35 Loi de Poisson Cette question anodine nous paraît aisée à traiter avec ce que nous savons de la loi binomiale. Il existe une difficulté insurmontable. Nous ne connaissons pas la proportion 𝑃 de la caractéristique dans la population des consultants. Les sujets porteurs de la caractéristique inverse « ne pas avoir d’entorse » ne sont pas dénombrables. 36 Loi de Poisson Il existe donc des situations dans lesquelles il n’est pas possible d’utiliser la loi binomiale : Soit parce que la caractéristique de la variable étudiée est très rare; Soit lorsque la caractéristique est un évènement de type accidentel. Dénombrer les nonévènements serait absurde. 37 Loi de Poisson La loi de Poisson s’applique, comme la loi binomiale, à des variables qualitatives. Elle permet de répondre à la question suivante : « connaissant le nombre moyen μ d’évènement attendus pendant une période donnée, quelle est la probabilité d’observer 𝒌 individus ayant cet évènement pendant une période équivalente ? » 38 Loi de Poisson Soit 𝑋 une variable aléatoire pouvant prendre toutes les valeurs entières 0, 1, 2, …., 𝑛 avec : 𝑒 −𝜇 𝜇𝑘 𝑃 𝑋=𝑘 = 𝑘! 𝝁 : nombre moyen d’évènements observés dans la population pendant une période donnée; 𝒆 = 2,718 𝑿 : la variable représentant le nombre d’individus ayant subi l’évènement observé pendant la période donnée; 𝒌 : une valeur de cette variable 𝑋 𝑷(𝑿 = 𝒌) : la probabilité d’observer la valeur 𝑘. 39 Loi de Poisson Exemple : Quelle est la probabilité d’observer 3 entorses au cours d’un week-end ordinaire de garde aux urgence, sachant qu’en moyenne 5 cas d’entorse sont admis par week-end ? On a : 𝜇 = 5 et 𝑘 = 3 Probabilité d’observer 3 entorses : 2,718−5 × 53 𝑝 𝑋=3 = = 0,140 3! 40 Loi de Poisson La probabilité d’observer 3 entorses est de 14%. On peut évidement calculer l’ensembles de toutes les probabilités possibles : 𝑃 0 = 0,007 𝑃 1 = 0,034 𝑃 2 = 0,084 𝑃 3 = 0,140 𝑃 4 = 0,175 𝑃 5 = 0,175 𝑃 6 = 0,146 𝑃 7 = 0,104 𝑃 8 = 0,065 ……. etc 41 Loi de Poisson Fonction de répartition de la loi de poisson : 𝑝 𝑋 < 𝑘 = 𝑃 0 + 𝑃 1 + … … … . +𝑃(𝑘 − 1) 𝑃 𝑋 ≤ 𝑘 = 𝑃 0 + 𝑃 1 + … … … + 𝑃 𝑘 − 1 + 𝑃(𝑘) 𝑃 𝑋 > 𝑘 = 1 − 𝑝(𝑋 ≤ 𝑘) 𝑃 𝑋 ≥ 𝑘 = 1 − 𝑝(𝑋 < 𝑘) 42 Loi de Poisson La probabilité d’observer moins de 2 entorses si on en observe 5 en moyenne est de : 𝑃 𝑋 < 2 = 𝑃 0 + 𝑃 1 = 0,04 Soit 4% C’est-à-dire peu de chances de passer une garde tranquille. 43 Loi de Poisson La probabilité d’observer plus de 6 entorses est de : 𝑃 𝑋 >6 =1−𝑃 𝑋 ≤6 = 1 − [𝑃 0 + 𝑃 1 + ⋯ + 𝑃 6 ] = 1 − 0,007 + 0,034 + ⋯ + 0,146 = 0,238 Soit 23,8% Environ une chance sur quatre de passer une soirée agitée. 44 Loi de Poisson Conditions d’application de la loi poisson : Les évènements doivent être dénombrables; Les évènements doivent être indépendants; Elle s’applique aux évènements rares dont la probabilité de survenue est inférieure à 0,05. si la probabilité est supérieure, il faut appliquer la loi binomiale. 45 Loi de Poisson 46 MAIZIA Abdelkader Faculté de Médecine de l’université de Mostaganem 1 Partie II 2 Approximation de la loi binomiale par une loi de poisson Si une variable aléatoire 𝑋 est distribuée selon une loi binomiale 𝐵 (𝑛, 𝑃), on montre que si 𝑃 est petite (en pratique inférieur à 0,1) et 𝑛 assez grand (supérieur à 50), la loi binomiale peut être approximée par une loi de poisson de paramètre 𝜇 = 𝑛𝑃. Les calcules sont plus simples avec la loi de poisson qu’avec la binomiale. 3 Approximation de la loi binomiale par une loi de poisson Exemple: Soit 𝑋 une variable aléatoire dont la loi de probabilité est de paramètres 𝑛 = 100 𝑒𝑡 𝑃 = 0,01: 𝑘 𝑃 𝑋 = 𝑘 = 𝐶100 × 0,01𝑘 × 0,99100−𝑘 Il est facile de voir que, la valeur de 𝑛 étant élevée et celle de 𝑃 étant faible, l’expression binomiale est d’un maniement difficile. 4 Approximation de la loi binomiale par une loi de poisson Exemple: On montre qu’une très bonne approximation des diverses probabilités peut être obtenue au moyen de la loi de Poisson de paramètre 𝜇 = 𝑛𝑃 = 1, soit: 𝑘 1 𝑃(𝑋 = 𝑘) ≈ 𝑒 −1 𝑘! 5 6 La loi normale Carl Friedrich Gauss (1777 – 1855) 7 La loi normale La loi normale, ou de Gauss, est la plus importante des lois utilisées en statistique. Elle est appliquée aux variables quantitatives continues. On sciences biomédicales, on constate souvent que la distribution des valeurs d’une variable s’agglutine autour d’une valeur moyenne. Ensuite ces valeurs décroissent symétriquement de part et d’autre de cette moyenne. C’est le cas de la taille des individus dans une population. 8 La loi normale La distribution normale, appelée aussi Gaussienne, est une distribution continue qui dépend de deux paramètres 𝜇 et 𝜎. On la note 𝑁(𝜇, 𝜎). Nous avons vu que la loi de probabilité d’une variable aléatoire continue est définie soit par sa fonction de répartition soit par sa densité de probabilité. 9 La loi normale Si 𝑋 étant une variable aléatoire continue pouvant prendre toutes les valeurs de −∞ à +∞, on dira qu’elle suit une loi de Gauss, ou encore qu’elle est Gaussienne, si sa densité de probabilité est définie par : 𝑓 𝑥 = 1 𝜎 2𝜋 𝑒 − 𝑥−𝜇 2 /2𝜎 2 10 La loi normale La loi normale 𝑁(𝜇, 𝜎) est symétrique par rapport à la droite d’abscisse 𝜇. 𝜇 = −5 𝜇=0 𝜇=5 11 La loi normale La loi normale 𝑁(𝜇, 𝜎) est symétrique par rapport à la droite d’abscisse 𝜇. 𝜎 = 0,3 𝜎=1 𝜎=2 12 La loi normale Caractéristiques : Loi normale 𝑵(𝝁, 𝝈) Espérance 𝜇 Variance 𝜎2 Ecart-type 𝜎 13 La loi normale Caractéristiques : +∞ −∞ 1 𝜎 2𝜋 𝑒 − 𝑥−𝜇 2 /2𝜎 2 𝑑𝑥 = 1 𝑃 𝑋 ≤ 𝜇 = 0,5 𝑃 𝑋 ≥ 𝜇 = 0,5 14 La normalité d’une distribution Il est possible de visualiser la forme de la distribution des données à analyser en les représentant sous forme d'histogramme puis de comparer la forme de cet histogramme avec une courbe représentant une loi normale les paramètres de cette loi étant calculés à partir des données à analyser. 15 La normalité d’une distribution Distribution non normale 16 La normalité d’une distribution Distribution normale 17 La normalité d’une distribution Ceci ne permet pas de conclure à la normalité des données mais peut donner une idée sur la nature de la distribution. Une boîte à moustaches permet de visualiser rapidement la symétrie de la distribution des données réelles. 18 La normalité d’une distribution Distribution normale Distribution Non normale 19 La normalité d’une distribution On peut utiliser la déviation standard pour vérifier la règle 68 – 95 – 99.7 . Dans une distribution normale, 68% des points de données se trouvent à l'intérieur de 1 écart-type de la moyenne, 95% se situent dans 2 écart-type, et 99,7 % se situent à moins de 3 écart-type. 20 La normalité d’une distribution 21 La loi normale centrée réduite On dit que la distribution est centrée si son espérance 𝜇 est nulle Elle est dite réduite si sa variance est égale à 1. La distribution normale centrée réduite, notée 𝑁(0, 1) est donc définie par la formule : 𝑓 𝑥 = 1 2𝜋 𝑒 −𝑥 2 /2 22 La loi normale centrée réduite 0,4 𝑓 𝑥 = 1 2𝜋 𝑒 −𝑥 2 /2 0,1 0 23 La loi normale centrée réduite Transformation d’une loi normale en loi normale centrée réduite : Soit 𝑋 une variable distribuée selon une loi normale d’espérance 𝜇 et d’écart-type 𝜎. Alors la variable : 𝑍 = 𝑥−𝜇 est distribuée selon 𝜎 une loi normale centrée réduite. 𝑍 est appelée variable réduite. 24 La loi normale centrée réduite Nous avons : +∞ 𝐸 𝑧 = 𝑧. 𝑓 𝑧 𝑑𝑧 = −∞ = 1 2𝜋 −𝑒 −𝑧 2 /2 𝐸 𝑧2 − 𝐸 𝑧 +∞ 1 𝑧𝑒 2𝜋 −𝑧 2 /2 𝑑𝑧 −∞ +∞ −∞ 2 =0 =1 25 La loi normale centrée réduite Nous avons : +∞ 𝑓(𝑧) 𝑑𝑧 = −∞ 1 2𝜋 +∞ 𝑒 −𝑧 2 /2 𝑑𝑧 = 1 −∞ Donc il faut que : +∞ 𝑒 −𝑧 2 /2 𝑑𝑧 = 2𝜋 −∞ 26 Propriété de la distribution de Gauss -3 -2 -1 0 1 2 3 Z m-3𝜎 m-2𝜎 m-𝜎 m m+𝜎 m+2𝜎 m+3𝜎 X 68% 95% 99,7% 27 Propriété de la distribution de Gauss Soit 𝜋(𝑎) la fonction de répartition de la loi de Gauss. Par définition nous avons : 𝜋 𝑎 =𝑃 𝑧≤𝑎 = 1 2𝜋 𝑎 𝑒 −𝑧 2 /2 𝑑𝑧 −∞ Donc : 𝑃 𝑧 ≤ 𝑎 = 𝜋(𝑎) 28 Propriété de la distribution de Gauss 𝑃 𝑧 ≤ 𝑎 = 𝜋(𝑎) 𝑦= 1 2𝜋 2 /2 −𝑧 𝑒 𝑎 29 Propriété de la distribution de Gauss Exemple : 𝑃 𝑧 ≤ 1,2 = 𝜋 1,2 = 0,8849 30 Propriété de la distribution de Gauss Exemple : 𝑃 𝑧 ≤ 1,24 = 𝜋 1,24 = 0,8925 31 Propriété de la distribution de Gauss 𝑃 𝑧 ≥ 𝑎 = 1 − 𝜋(𝑎) 𝑎 32 Propriété de la distribution de Gauss 𝑃 𝑧 ≤ −𝑎 = 1 − 𝜋(𝑎) −𝑎 33 Propriété de la distribution de Gauss 𝑃 𝑎 ≤ 𝑧 ≤ 𝑏 = 𝜋 𝑏 − 𝜋(𝑎) 𝑎 𝑏 34 Propriété de la distribution de Gauss 𝑃 −𝑎 ≤ 𝑧 ≤ 𝑎 = 2𝜋 𝑎 − 1 −𝑎 𝑎 35 Propriété de la distribution de Gauss Exemple : 𝑋 → 𝑁(20; 2) Calculer 𝑃(𝑋 ≤ 22,42) Solution : 𝑧 = 𝑋−20 2 𝑋 − 20 22,42 − 20 𝑃 𝑋 ≤ 22,42 = 𝑃 ≤ 2 2 𝑃 𝑧 ≤ 1,21 = 𝜋 1,21 = 0,8868 36