GIND5439 Systèmes Intelligents Chapitre 3: Incertitude dans les systèmes à base de règles Contenu du chapitre Sources d’incertitude Statistiques Théorème de Bayes Facteurs d’incertitude GIND5439 – Gabriel Cormier, Université de Moncton 2 Incertitude Pourquoi y a-t’il de l’incertitude dans les systèmes à base de règles? Raisonnement approximatif Raisonnement inexacte Information disponible de l’expert humain Incomplète Incertaine Inconsistante De l’information comme celle-ci n’est typiquement pas utilisable pour résoudre des problèmes. GIND5439 – Gabriel Cormier, Université de Moncton 3 Sources d’incertitudes dans des SE Implications faibles Associations vagues entre la partie IF et la partie THEN d’une règle On doit être en mesure d’inclure des facteurs de certitude pour indiquer un degré de corrélation Langage imprécis Le langage naturel est parfois ambiguë et imprécis; ex: parfois, souvent, jamais Difficile alors d’exprimer ceci comme des règles IF – THEN La quantification de ces termes rend les systèmes experts capables de comparer les antécédents aux faits dans la base de données. GIND5439 – Gabriel Cormier, Université de Moncton 4 Sources d’incertitudes dans des SE Données inconnues Si certaines données ne sont pas disponibles, on doit accepter la valeur « inconnue » et continuer le raisonnement. Opinions de différents experts Les experts n’ont pas toujours les mêmes conclusions Des conclusions contradictoires produiront des règles contradictoires Il n’y a pas de méthode systématique pour obtenir des poids aux décisions. GIND5439 – Gabriel Cormier, Université de Moncton 5 Incertitude dans les systèmes experts Un système expert doit être capable de fonctionner avec de l’incertitude, puisque les systèmes réels contiennent toujours des données incomplètes. Plusieurs méthodes existent pour travailler avec des incertitudes. On considère ici les deux méthodes les plus populaires: le raisonnement Bayésien et les facteurs de certitude. GIND5439 – Gabriel Cormier, Université de Moncton 6 Statistiques L’utilisation de la théorie de probabilité permet de déterminer la probabilité qu’un évènement se produise. Probabilité La chance qu’un évènement se produise Proportion de cas où un évènement se produit Situations où la probabilité est appropriée Domaine aléatoire; ex: cartes Monde réel; impossible de mesurer toutes les causes et effets Exceptions aux règles Bases de l’apprentissage GIND5439 – Gabriel Cormier, Université de Moncton 7 Théorie de probabilité On peut l’exprimer mathématiquement comme un intervalle: Zéro: impossibilité absolue Un: certitude absolue La plupart des évènement ont un indice de probabilité entre 1 et 0 Chaque évènement a au moins deux résultats : Succès ou échec GIND5439 – Gabriel Cormier, Université de Moncton 8 Théorie de probabilité p ( succès) = Nombre de succès Nombre total de résultats Nombre d' échecs p (échec) = Nombre total de résultats s p( s) = p = s+ f f p( f ) = q = s+ f p + q =1 GIND5439 – Gabriel Cormier, Université de Moncton 9 Théorie de probabilité: évènements dépendants Soit A et B deux évènements A & B se produisent conditionnellement à l’occurrence de l’autre La probabilité que A se produise si B se produit est appelée la probabilité conditionnelle p(A|B) : probabilité que A se produise étant donné que B s’est produit p( A | B) = Nombre de fois que A et B se produisent Nombre de fois que B se produit GIND5439 – Gabriel Cormier, Université de Moncton 10 Théorie de probabilité: évènements dépendants La probabilité que A et B se produisent est appelée la probabilité conjointe, p(A∩B) p( A I B) p( A | B) = p( B) p ( B I A) p ( B | A) = p ( A) p ( B I A) = p ( B | A) × p ( A) p ( A I B ) = p ( B | A) × p ( A) p ( B | A) × p ( A) p( A | B) = p( B) GIND5439 – Gabriel Cormier, Université de Moncton 11 Théorie de probabilité: évènements dépendants Règle de Bayes p ( B | A) × p ( A) p( A | B) = p( B) p( A I B) p( A | B) = p( B) n n ∑ p( A I B ) = ∑ p( A | B ) × p( B ) i i =1 i i =1 i n ∑ p( A I B ) = p( A) i =1 i GIND5439 – Gabriel Cormier, Université de Moncton 12 Théorie de probabilités Si la probabilité qu’un événement A se produise dépend seulement de deux événements exclusifs B et ¬B (le symbole ¬ veut dire not), alors on peut écrire: p ( A) = p ( A | B ) × p ( B) + p ( A | ¬B ) × p (¬B ) On utilise l’équation précédente dans la règle de Bayes: p( B | A) × p( A) p( A | B) = p ( B | A) × p ( A) + p ( B | ¬A) × p(¬A) GIND5439 – Gabriel Cormier, Université de Moncton 13 Raisonnement Bayésien Selon un échantillon aléatoire d’évènements, la théorie de Bayes supporte le calcul d’évènements plus complexes à partir de résultats connus. Exemple: dans une partie de cartes à 4 personnes, où les cartes sont réparties également, si je n’ai pas la Dame de Cœur, chaque personne a 1/3 chance de l’avoir, et aussi 1/9 chance d’avoir la dame et l’as de cœur, si les deux évènements sont indépendants. Probabilité (A & B) = probabilité (A) x probabilité (B), si A et B sont indépendants. GIND5439 – Gabriel Cormier, Université de Moncton 14 Raisonnement Bayésien Probabilité antérieure Probabilité postérieure Ou probabilité inconditionnée d’un évènement est la probabilité associée à un évènement en l’absence de données supportant son occurrence ou absence. C’est la probabilité d’un évènement dans l’absence d’évidence: p(évènement). Ou probabilité conditionnelle d’un évènement est la probabilité d’un évènement étant donné quelque preuve: p(évènement|preuve) La probabilité antérieure d’une personne ayant une maladie est le nombre de personnes ayant la maladie divisée par le nombre total de personnes dans le domaine de calcul. GIND5439 – Gabriel Cormier, Université de Moncton 15 Raisonnement Bayésien La probabilité postérieure d’une personne ayant une maladie avec des symptômes s est: p(d | s) = d Is s où | | indique le nombre d’éléments dans le domaine; i.e., le nombre de personnes ayant la maladie d et des symptômes s divisé par le nombre total de personnes ayant des symptômes. Selon Bayes, on calcule p(d|s) selon: p(d ) × p( s | d ) p(d | s ) = p( s) GIND5439 – Gabriel Cormier, Université de Moncton 16 Raisonnement Bayésien Les chiffres à droite de l’équation sont plus faciles à obtenir: Il est plus facile de déterminer le nombre de patients qui ont la méningite ayant des maux de têtes que de calculer le nombre de personnes ayant des maux de têtes qui ont aussi la méningite. Aussi, peu de chiffres sont nécessaires. On commence à avoir des problèmes lorsqu’il faut considérer des maladies multiples avec des symptômes multiples. p(d ) × p ( s1 & s2 & K & sn | d ) p(d | s1 & s2 & K & sn ) = p ( s1 & s2 & K & sn ) Plusieurs probabilités sont requises. GIND5439 – Gabriel Cormier, Université de Moncton 17 Raisonnement Bayésien Dans plusieurs situations il faut aussi travailler avec des informations négatives; ex: lorsqu’un patient n’a pas un symptôme. On a: p ( pas s ) = 1 − p ( s ) p ( pas d | s ) = 1 − p (d | s ) GIND5439 – Gabriel Cormier, Université de Moncton 18 Raisonnement Bayésien On suppose que toutes les règles dans une base de connaissances sont exprimées comme suit: Si E est VRAI alors H est VRAI {avec probabilité p} Qu’arrive-t’il si l’évènement E s’est produit mais on ne sait pas si H s’est produit? Peut-on calculer une probabilité de H quand même? GIND5439 – Gabriel Cormier, Université de Moncton 19 Raisonnement Bayésien Au lieu d’utiliser des évènements A et B, on utilise une hypothèse H et une preuve E: où p( E | H ) × p( H ) p( H | E ) = p ( E | H ) × p ( H ) + p ( E | ¬H ) × p ( ¬ H ) p(H|E) est la probabilité que H est vrai étant donné E p(H) est la probabilité globale que H est vrai p(E|H) est la probabilité d’observer E quand H est vrai p(¬H) est la probabilité globale que H est faux p(E|¬H) est la probabilité d’observer E quand H est faux GIND5439 – Gabriel Cormier, Université de Moncton 20 Théorème de Bayes p( H | E ) = p( E | H ) × p( H ) p ( E | H ) × p ( H ) + p ( E | ¬H ) × p ( ¬ H ) • p(H) est la probabilité antérieure que l’hypothèse H soit vraie • p(E|H) est la probabilité que l’hypothèse H soit vraie résulte en des preuves E • p(¬H) est la probabilité antérieure que l’hypothèse H soit fausse • p(E|¬H) est la probabilité d’obtenir des preuves E quand l’hypothèse H est fausse GIND5439 – Gabriel Cormier, Université de Moncton 21 Exemple 1 Supposez les probabilités suivantes pour le bris d’un produit selon le niveau de contamination: p(échec) Niveau de contamination 0.1 Élevé 0.01 Moyen 0.001 Faible Dans une passe, 20% des puces ont un niveau élevé de contamination, 30% un niveau moyen et 50% un niveau faible. Si une puce semiconducteur a un bris, quelle est la probabilité que la puce fut exposée à un niveau élevé de contamination? GIND5439 – Gabriel Cormier, Université de Moncton 22 Exemple 1 (2) p(H|F) = p(F|H)p(H)/p(F) = (0.1)(0.2)/p(F) p(F) = p(F|H)p(H) + p(F|M)p(M) + p(F|L)p(L) = (0.1)(0.2) + (0.01)(0.3) + (0.001)(0.5) = 0.0235 p(H|F) = (0.1)(0.2)/(0.0235) = 0.85 GIND5439 – Gabriel Cormier, Université de Moncton 23 Exemple 2 Une procédure médicale est très efficace quand à la détection de maladies. La probabilité qu’un test identifie correctement la maladie est 0.99. La probabilité qu’un test identifie correctement quelqu’un sans la maladie est 0.95. Le taux d’incidence de cette maladie dans la population est 0.0001. Tu prends le test et le résultat est positif. Quelle est la probabilité que tu aies la maladie? GIND5439 – Gabriel Cormier, Université de Moncton 24 Exemple 2 (2) Soit d l’évènement d’avoir la maladie Soit s l’évènement que le test soit positif. On cherche alors p(d|s). La probabilité que le test détecte correctement que quelqu’un n’a pas la maladie est 0.95; donc la probabilité d’avoir un test positif sans avoir la maladie est 0.05. p(s|¬d) = 0.05 Du théorème de Bayes: p(d|s) = p(s|d)p(d)/[p(s|d)p(d) + p(s|¬d)p(¬d)] = (0.99)(0.0001)/[(0.99)(0.0001)+(0.05)(1 – 0.0001) = 0.002 GIND5439 – Gabriel Cormier, Université de Moncton 25 Exemple 2 (3) Est-ce que ce résultat fait du sens? On reprend le problème sous une autre forme. Soit 1 000 000 personnes; de ce groupe, 100 personnes ont la maladie et 999 900 ne l’ont pas. Du groupe de 100 personnes qui ont la maladie, 99 ont eu un test positif. Du groupe de 999 900 qui n’ont pas la maladie, 49 995 personnes (5%) auront un test positif. Il y a donc 4 groupes distincts ici: Personnes ayant la maladie ayant un test positif Personnes ayant la maladie ayant un test négatif Personnes n’ayant pas la maladie ayant un test positif Personnes n’ayant pas la maladie ayant un test négatif GIND5439 – Gabriel Cormier, Université de Moncton 26 Exemple 2 (4) Test positif 99 Ayant la maladie 100 Test négatif 1 Population: 1 million Test positif 49995 N’ayant pas la maladie 999 900 Test négatif 949905 Avant le test Après le test GIND5439 – Gabriel Cormier, Université de Moncton 27 Exemple 2 (5) Ce qui nous intéresse, c’est le nombre total de personnes ayant un test positif. Il y a 49 995 + 99 = 50 094 ayant un test positif. De ce nombre, 99 ont la maladie. Alors, 99 = 0.002 50094 ce qui est la même solution. GIND5439 – Gabriel Cormier, Université de Moncton 28 Hypothèse multiples Qu’arrive-t’il si un expert, ayant une seule preuve E, ne peut pas choisir entre les hypothèses H1 – Hn? Ou, si l’expert a plusieurs preuves E1 – En qui peuvent produire plusieurs hypothèses? GIND5439 – Gabriel Cormier, Université de Moncton 29 Théorème de Bayes Le théorème de Bayes permet de calculer la probabilité d’une hypothèse Hi, étant donné une preuve particulière, étant donné seulement les probabilités dont cette preuve provient de causes actuelles. p( H i | E ) = p( E | H i ) × p( H i ) n ∑ p( E | H k =1 k ) × p( H k ) • p(Hi|E) est la probabilité que l’hypothèse H soit vraie étant donné E • p(Hi) est la probabilité globale que l’hypothèse H soit vraie • p(E|Hi) est la probabilité d’observer E quand l’hypothèse H est vraie • n est le nombre d’hypothèses GIND5439 – Gabriel Cormier, Université de Moncton 30 Hypothèse multiples p( H i | E1 E2 K En ) = p( E1 | H i ) × p( E2 | H i ) × L× p( H i ) n ∑ p( E | H k =1 i k ) × p ( E2 | H i ) × L × p ( H k ) On suppose une indépendance conditionnelle entre les différentes preuves. GIND5439 – Gabriel Cormier, Université de Moncton 31 Hypothèses multiples Comment un expert peut-il calculer et classifier toutes les hypothèses possiblement vraies? Étant donnée les probabilités précédentes Déterminer les probabilités conditionnelles Calculer les probabilités postérieures Classifier les probabilités postérieures GIND5439 – Gabriel Cormier, Université de Moncton 32 Raisonnement Bayésien Il y a deux conditions majeures pour le théorème de Bayes: Toutes les probabilités des relations entre les différentes preuves et hypothèses doivent être connues, ainsi que les relations probabilistes entres les différentes preuves. Toutes les relations entre les différentes hypothèses et preuves, p(E|Hk), doivent être indépendantes. Cette supposition d’indépendance doit être justifiée, ce qui est parfois difficile à faire. La plupart des systèmes experts utilisent des heuristiques pour augmenter le théorème de Bayes. GIND5439 – Gabriel Cormier, Université de Moncton 33 Méthode Bayésienne Nécessite des valeurs de probabilités comme entrée primaire. Ces valeurs ont typiquement une composante humaine (jugement d’une personne). Les humains ne peuvent pas expliciter des probabilités de façon consistante avec les règles Bayésiennes. Parfois, les humains sont très mauvais à expliciter des probabilités. Les experts dans des domaines ont du mal à exprimer des probabilités conditionnelles. Parfois, les experts nient l’existence de probabilités implicites cachées. GIND5439 – Gabriel Cormier, Université de Moncton 34 Raisonnement Bayésien s1 s2 cause1 s3 s4 cause2 … s5 … sn causem Vue des symptômes et causes d’un non-expert. GIND5439 – Gabriel Cormier, Université de Moncton 35 Raisonnement Bayésien s1 s2 s3 I1 cause1 s4 I2 cause2 s5 … … I3 … sn causem Vue d’un expert. Les symptômes sont groupés ensemble en états intermédiaires; rend l’inférence plus facile. GIND5439 – Gabriel Cormier, Université de Moncton 36 Préjugés dans le raisonnement Bayésien L’utilisation du raisonnement Bayésien nécessite des probabilités comme entrées primaires. Le calcul de ces probabilité nécessite souvent un jugement humain. Cependant, des recherches psychologiques ont démontré que les humains ne peuvent pas expliciter des probabilités de façon consistante ou le font très mal. Ceci veut dire que les probabilités conditionnelles calculées peuvent être inconsistantes avec les probabilités données par un expert. GIND5439 – Gabriel Cormier, Université de Moncton 37 Préjugés dans le raisonnement Bayésien Exemple: On considère une voiture qui ne démarre pas et qui fait des bruits étranges quand on essaie de la démarrer. Notre expert nous dit que la probabilité que la cause est le démarreur comme suit: IF « symptôme est un bruit étrange » THEN « démarreur est fautif » {pr 0.7} Donc, la probabilité que le démarreur n’est pas fautif si la voiture fait des bruits étranges est: p(démarreur pas fautif|bruits étranges) = p(démarreur est bon|bruits étranges) = 1 – 0.7 = 0.3 GIND5439 – Gabriel Cormier, Université de Moncton 38 Préjugés dans le raisonnement Bayésien On peut donc écrire une nouvelle règle: IF « symptôme est un bruit étrange » THEN « démarreur est bon » {pr 0.3} Les experts ont souvent de la difficulté avec les probabilités cachées implicites (le 0.3 dans notre cas). Dans notre cas, on utilise des données statistiques pour obtenir les règles. GIND5439 – Gabriel Cormier, Université de Moncton 39 Préjugés dans le raisonnement Bayésien Si les statistiques démontrent que: IF « démarreur est fautif » THEN « symptôme est bruits étranges » {pr 0.85} IF « démarreur est fautif » THEN « symptôme n’est pas bruits étranges » {pr 0.15} Pour utiliser le raisonnement Bayésien, il faut la probabilité antérieure, soit la probabilité que le démarreur est fautif si la voiture ne démarre pas. On a besoin ici du jugement d’un expert. Supposons que l’expert fournit une valeur de 5%. GIND5439 – Gabriel Cormier, Université de Moncton 40 Préjugés dans le raisonnement Bayésien Calculons maintenant: p (démarreur fautif | bruits étranges) = 0.85 × 0.05 = 0.23 0.85 × 0.05 + 0.15 × 0.95 ce qui est significativement plus faible que ce que l’expert avait donné au début. D’où vient la différence? La raison la plus logique est que l’expert a fait différentes suppositions quand il a évalué les probabilités conditionnelles et antérieures. GIND5439 – Gabriel Cormier, Université de Moncton 41 Préjugés dans le raisonnement Bayésien On peut essayer de trouver l’erreur de l’expert en faisant un raisonnement inverse. On commence de la probabilité postérieur p(démarreur fautif|bruits étranges) jusqu’à la probabilité antérieure, p(démarreur fautif). On peut dire p(démarreur ok) = 1 – p(démarreur fautif). GIND5439 – Gabriel Cormier, Université de Moncton 42 Préjugés dans le raisonnement Bayésien On peut réarranger pour obtenir: p( H ) = p ( H | E ) × p ( E | ¬H ) p( H | E ) × p ( E | ¬H ) + p ( E | H ) × (1 − p ( H | E )) Où p(H) = p(démarreur fautif) p(H|E) = p(démarreur fautif | bruits étranges) p(E|H) = p(bruits étranges | démarreur fautif) p(E|¬H) = p(bruits étranges | démarreur ok) GIND5439 – Gabriel Cormier, Université de Moncton 43 Préjugés dans le raisonnement Bayésien Avec les valeurs données, on trouve que p(H) = 0.2, ce qui est 4 fois plus élevé que ce que l’expert avait donné au début. Il faut donc faire attention quand on obtient des probabilités des experts; il faut utiliser des données statistiques autant que possible si elles sont disponibles. GIND5439 – Gabriel Cormier, Université de Moncton 44 Facteurs de certitude Facteurs de certitude C’est une alternative au raisonnement Bayésien. Ces facteurs furent introduits dans MYCIN Les experts n’expriment pas toujours leurs connaissances en termes mathématiquement consistants ou logiques. Aucune donnée statistique n’était disponible. C’est une mesure de la certitude d’un expert. Facteur de certitude cf. GIND5439 – Gabriel Cormier, Université de Moncton 46 Arguments contre les probabilités Nécessite beaucoup de données Nécessite l’énumération de toutes les possibilités Cache certains détails de l’incertitude Les humains estiment mal les probabilités Difficiles à utiliser GIND5439 – Gabriel Cormier, Université de Moncton 47 Facteur de certitude Les facteurs de certitude expriment une croyance à un évènement. Basé sur des preuves Fait ou hypothèse Évaluation d’un expert C’est un chiffre qui peut être utilisé pour: Guider un raisonnement Rendre un but inatrayant et enlevé de l’espace de recherche Classifier les hypothèses après que toutes les preuves soient considérées. GIND5439 – Gabriel Cormier, Université de Moncton 48 Facteur de certitude La valeur maximale de certitude est +1.0 La valeur minimale de certitude est -1.0 Définitivement vrai Définitivement faux Une valeur positive représente un degré de conviction. Une valeur négative représente un degré d’incrédulité. Un cf de 0 indique une croyance neutre. GIND5439 – Gabriel Cormier, Université de Moncton 49 Facteur de certitude Terme Terme (anglais) Facteur de certitude Définitivement pas Definately not -1.0 Presque jamais Almost certainly not -0.8 Probablement pas Probably not -0.6 Peut-être pas Maybe not -0.4 Inconnu Unknown -0.2 à +0.2 Peut-être Maybe +0.4 Probablement Probably +0.6 Presque certainement Almost certainly +0.8 Certainement +1.0 Definitely GIND5439 – Gabriel Cormier, Université de Moncton 50 Facteur de certitude La base de connaissances est constituée de règles ayant la syntaxe suivante: IF « preuve » THEN « hypothèse » {cf} Où cf représente le niveau de croyance en l’hypothèse H étant donné que la preuve E s’est produite. GIND5439 – Gabriel Cormier, Université de Moncton 51 Facteur de certitude La théorie des facteurs de certitude est basée sur deux fonctions: Mesure de croyance MB(H,E) Mesure d’incrédulité MD(H,E) 1 ⎧ ⎪ max[ p( H | E ), p ( H )] − p( H ) MB( H , E ) = ⎨ ⎪⎩ 1 − p( H ) si p( H ) = 1 1 ⎧ ⎪ min[ p( H | E ), p( H )] − p( H ) MD( H , E ) = ⎨ ⎪⎩ − p( H ) si p( H ) = 1 autrement autrement GIND5439 – Gabriel Cormier, Université de Moncton 52 Facteur de certitude Les facteurs de certitude combinent la croyance et l’incrédulité en un seul chiffre basé sur une preuve quelconque. L’amplitude de la croyance ou incrédulité en H dépend du type de preuve E observée: MB( H , E ) − MD( H , E ) cf = 1 − min[ MB( H , E ), MD( H , E )] GIND5439 – Gabriel Cormier, Université de Moncton 53 Croyance Un cf positif implique que les preuves supportent l’hypothèse puisque MB > MD. Un cf de 1 veut dire que les preuves supportent définitivement l’hypothèse. Un cf de 0 indique qu’il n’y a soit aucune preuve de disponible ou qu’on ne peut porter aucune conclusion. Un cf négatif implique que les preuves favorisent la négation de l’hypothèse puisque MB < MD. GIND5439 – Gabriel Cormier, Université de Moncton 54 Facteur de certitude On considère une règle simple: IF A est X THEN B est Y Un expert n’est pas toujours absolument certain qu’une règle sera vraie. Supposons qu’on a observé que dans certains cas, même si l’antécédent est vrai, A prend la valeur de X, la conséquence est fausse et B prend une différente valeur Z: IF A est X THEN B est Y {cf 0.7} B est Z {cf 0.2} La somme ne doit pas nécessairement être égale à 1; dans ce cas-ci, le 10% qui reste peut indiquer une valeur future qu’on ne connaît pas encore. GIND5439 – Gabriel Cormier, Université de Moncton 55 Facteur de certitude Un facteur assigné par cette règle se propage à travers la chaîne de raisonnement. Ceci permet d’établir la certitude globale de la conséquence quand les preuves pour l’antécédent sont incertaines. GIND5439 – Gabriel Cormier, Université de Moncton 56 Facteur de certitude Il existe plusieurs règles pour combiner les cf de plusieurs faits: (cf(x1) AND cf(x2)) = min[cf(x1), cf(x2)] (cf(x1) OR cf(x2)) = max[cf(x1), cf(x2)] Une règle peut aussi avoir un facteur de certitude, cf(règle): cf(action) = cf(condition)*cf(règle) GIND5439 – Gabriel Cormier, Université de Moncton 57 Facteurs de certitude Si une règle a plusieurs antécédents conjonctifs: IF « évidence1 » AND « évidence 2 » … AND « évidence n » THEN « hypothèse H » {cf} cf ( H , E1 I E2 I L I En ) = min[cf ( E1 ), cf ( E2 ),K , cf ( En )] GIND5439 – Gabriel Cormier, Université de Moncton 58 Facteur de certitude Exemple: IF le ciel est clair AND prévision est ensoleillé THEN porter des lunettes à soleil cf{0.8} cf(ciel est clair) = 0.9 cf(prévision est ensoleillé) = 0.7 Le cf total est: cf(action) = cf(condition)*cf(règle) = min[0.9,0.7]*0.8 = 0.56 On explique le résultat en disant : « Il faudrait probablement porter des lunettes à soleil. » Un cf de 0.6 veut dire probablement GIND5439 – Gabriel Cormier, Université de Moncton 59 Facteurs de certitude Si une règle a plusieurs antécédents disjonctifs: IF « évidence1 » OR « évidence 2 » … OR « évidence n » THEN « hypothèse H » {cf} cf ( H , E1 U E2 U L U En ) = max[cf ( E1 ), cf ( E2 ),K , cf ( En )] GIND5439 – Gabriel Cormier, Université de Moncton 60 Facteur de certitude Exemple: IF le ciel est ennuagé OR prévision est pluie THEN emporter un parapluie cf{0.9} cf(ciel est ennuagé) = 0.6 cf(prévision est pluie) = 0.8 Le cf total est: cf(action) = cf(condition)*cf(règle) = max[0.6,0.8]*0.9 = 0.72 On explique le résultat en disant : « Il faudrait presque certainement emporter un parapluie. » Un cf de 0.8 veut dire presque certainement GIND5439 – Gabriel Cormier, Université de Moncton 61 Conséquence de règles multiples Supposons qu’on a les règles suivantes: IF A est X THEN C est Z {cf 0.8} IF B est Y THEN C est Z {cf 0.6} Quelle certitude doit-on donner à C si les deux règles sont déclenchées? ⎧ cf1 + cf 2 (1 − cf1 ) si cf1 > 0 et cf 2 > 0 ⎪⎪ cf1 + cf 2 cf (cf1 , cf 2 ) = ⎨ si cf1 < 0 ou cf 2 < 0 ⎪1 − min[ cf1 , cf 2 ] ⎪⎩ cf1 + cf 2 (1 + cf1 ) si cf1 < 0 et cf 2 < 0 GIND5439 – Gabriel Cormier, Université de Moncton 62 Conséquence de règles multiples Exemple IF A est X THEN C est Z {cf 0.8} IF B est Y THEN C est Z {cf 0.6} cf(E1) = cf(E2) = 1.0 Quelle est la certitude de C si les 2 règles sont déclenchées? cf1(H,E1) = cf(E1)*cf = (1.0)*(0.8) = 0.8 cf2(H,E2) = cf(E2)*cf = (1.0)*(0.8) = 0.8 cf(cf1,cf2) = cf1(H,E1) + cf2(H,E2)*(1 – cf1(H,E1)) = 0.8 + 0.6*(1 – 0.8) = 0.92 GIND5439 – Gabriel Cormier, Université de Moncton 63 Facteurs de certitude C’est une alternative pratique au raisonnement Bayésien La méthode heuristique de combiner des facteurs de certitude diffère de la façon dont elles seraient combinées si elles étaient des probabilités. Sans preuve mathématique Permet d’imiter le processus mental humain GIND5439 – Gabriel Cormier, Université de Moncton 64 Facteurs de certitude: problèmes Dans certains cas, les résultats dépendent de l’ordre dans lequel les preuves sont considérées. Peut nécessiter un raisonnement intensif Ne permet pas de capter la crédibilité dans certains cas Qu’est-ce que ça veut dire en fait? Parfois interprété de façon probabiliste. GIND5439 – Gabriel Cormier, Université de Moncton 65 Comparaison Raisonnement Bayésien Supporté par la théorie des probabilités Fonctionne bien dans les domaines tels que la prévision et planification Fonctionne bien lorsque des données statistiques sont disponibles Plusieurs systèmes experts n’ont pas des données statistiques fiables La supposition d’indépendance conditionnelle ne peut pas être faite Donc, un certain mécontentement avec la méthode GIND5439 – Gabriel Cormier, Université de Moncton 66 Comparaison Facteurs de certitude N’ont pas de fondation mathématique solide Fonctionnent mieux que le raisonnement Bayésien dans des domaines de diagnostique, surtout en médecine Utilisé dans des cas où les probabilités ne sont pas connues ou trop difficiles / coûteuses à obtenir Raisonnement basé sur les preuves Peut fonctionner avec des preuves acquises par étapes Conjonction et disjonction d’hypothèses Preuves avec différents degrés de croyance Donne une meilleure explication du contrôle GIND5439 – Gabriel Cormier, Université de Moncton 67