Université Paris 7 - M1 Ingénierie Informatique Année 2016-2017
TD de Introduction à l’Intelligence Artificielle n9
Réseaux Bayésiens
Soient X1, ..., Xndes variables aléatoires discrètes, et soit Vi={vi
1,...,vi
li}, pour 1 in, l’ensemble
des valeurs possibles de la variables Xi. La lois jointe de X1, ..., Xnest donnée par une table de Πn
i=1li
lignes, spécifiant pour chaque vecteur v1
k1V1,...,vn
knVnla probabilité de l’événement Tn
i=1Xi=vi
ki
(remarque: pour calculer P(Tn
i=1Xi=vi
ki)il sera utile de vérifier l’indépendance des variables, et dans
les cas de dépendance, d’utiliser les probabilités conditionnelles).
Exercice 1 Calcul d’une lois jointe
En sortant par temps nuageux, je prend mon parapluie une fois sur deux (PP).
Si je le prend, il pleut (PL) une fois sur dix, sinon neuf fois sur dix.
Par ailleurs, si j’ai pris mon parapluie j’ai deux chances sur trois de l’oublier quelques parts (PO).
Donner la lois jointe des variables booléennes PP,PL,PO.
A partir de la lois jointe de X1, ..., Xn, on peut calculer facilement P(E)pour n’importe quel événe-
ment Econcernant X1, ..., Xn: il suffit de calculer la somme des probabilités des lignes de la table de la
lois jointe de X1, ..., Xnoù l’événement en question se produit. La probabilité d’un événement condi-
tionnel E|Vest donnée par la somme des probabilités des lignes où Eet Vse produisent, divisée par la
somme des probabilités des lignes où Vse produit.
Exercice 2 Utilisation d’une lois jointe
A partir de la lois jointe de l’exercice 1, calculer:
1)P(PL); 2) P(PL,PO); 3) P(PP|PL)...
Il est clair que le calcul de la lois jointe est simplifié par des hypothèse d’indépendance entre les Xi:
Définition: Xiest indépendante de Xjsi P(Xi=vi
k|Xj=vj
m) = P(Xi=vi
k), pour tout vi
kVi,vj
mVj.
Si, par exemple, les variables X1,...,Xnsont toutes indépendantes entre elles1, on a P(Tn
i=1Xi=
vi
ki) = Πn
i=1P(Xi=vi
ki)
Exercice 3 Un exemple de lois jointe avec peu de dépendance
On lance quatre fois une pièce. Si le résultat est Pile à chaque fois, on gagne 15 euros, sinon on perd 1
euro. Donner la lois jointe de L1,L2,L3,L4,G, où Liest la variable aléatoire associée au i-ème lancer, et
Gle gain.
Les réseaux bayésiens permettent de représenter de manière intuitive et compacte les relations
de dépendance existantes entre les variables aléatoires pertinentes à l’étude d’un problème/phénomène
donné2. La donnée des probabilités conditionnelles réliant chaque variable du réseau à ses parents, per-
met de calculer la lois jointe de l’ensemble des variables du réseau, et donc aussi toutes les probabilités
conditionnelles intéressantes pour l’étude du problème/phénomène en question3.
1Bien évidemment, il s’agit là d’un cas limite: la modélisation via les réseaux bayésiens concerne des
phénomènes/événements corrélés.
2On peut penser à de problèmes de décision/diagnostique/planification/...
3Toutefois, le calcul de la probabilité jointe à partir d’un réseau bayésian est complexe: il a été montré par G. F. Cooper en
1987 que dans le cas général, il s’agit d’un problème NP-difficile.
1
Définition: Un réseau bayésien est un graphe orienté acyclique G= (V,E), Vest l’ensemble des
noeuds du réseaux et El’ensemble de ses arcs. Chaque noeud représente une variable aléatoire discrète.
À chaque noeud xest associé la distribution de probabilité conditionnelle P(x|pa(x)), oà pa(x)désigne
l’ensemble des prédécesseurs immédiat de xdans G.
Par exemple, voici le réseau bayésien relatif au jeu de l’exercice 3:
L1
G
L2 L3 L4
P(G=15|L1=L2=L3=L4=Pile) = 1
P(G=1|L1=b1,L2=b2,L3=b3,L4=b4) = 1 si i:bi6=Pile
Exercice 4 Deux réseaux bayésiens
Dessiner le réseau bayésien modélisant la situation décrite dans l’exercice 1, puis celui modélisant la
situation décrite dans l’exercice 9.
Dans un réseau bayésien, pour détecter l’indépendence de deux variables, on considère les chemins non
orientés qui les relient. Il existe trois forme possibles pour un chemin de longueur deux: HT (Head to
Tail), TT (Tail to Tail) et HH (Head to Head):
HT
X
Y
Z
TT
Y
X Z
HH
X
Y
Z
Exercice 5 Calcul de lois jointes sur des petits réseaux bayésiens
Pour chacun des réseaux ci-dessus, supposons que X,Y,Zsoient des variables aléatoires booléennes, que
P(W) = 0.5 pour chaque variable Wn’ayant aucun parent dans le graphe, que la probabilité condition-
nelle associée à chaque arc WVsoit P(V|W) = 0.5, P(VW) = 0.2 dans les cas HT et TT, et finale-
ment que, dans le cas HH, on ait P(Y|X,Z) = P(YX,¬Z) = 0.5 et P(Y|X,¬Z) = P(YX,Z) = 0.2.
Donner la lois jointe de X,Y,Zdans les trois cas.
Deux variables sont inter-dépendentes s’il existe un chemin qui les relie et qui ne contient aucun sous-
chemin de la forme HH; deux variable non inter-dépendantes sont séparées.
Exercice 6 Séparation dans un réseau bayésien
On considère le réseaux (sans probabilités conditionnelles, pour le moment):
2
S
L
T
M
R
Pour chaque paire de variables, dire si elles sont inter-dépendentes ou séparées.
Si deux variables X,Ysont séparées, alors P(X=v|Y=w) = P(X=v)et donc P(X=v,Y=w) = P(X=
v)P(Y=w).
Dans certains cas, deux variables dépendantes deviennent séparées si on augmente notre connais-
sance (par instanciation d’autre variables). Par exemple, dans les réseaux HT et TT ci-dessus, Xet
Zdeviennent indépendantes si on instancie Y:P(X|Y,Z) = P(X|Y)et P(Z|Y,X) = P(Z|Y). Donc
P(X,Z|Y) = P(X|Y)P(Z|Y).
Il est possible, par ailleurs, que l’instanciacion d’une variable rende inter-dépendantes deux variables
qui ne l’étaient pas: par exemples dans HH, si on instancie Y,Xet Zdeviennent dépendantes.
Ceci motive la définition suivante:
d-séparation: Soient Vet Wdeux noeuds d’un réseau bayésien et soit dun ensemble de noeuds du
réseau. On dit que Vet Wsont d-dépendantes s’il existe un chemin qui les relie et qui est tel que:
pour tout sous-chemin XYZ,Y6∈ d.
pour tout sous-chemin XYZ,Y6∈ d.
pour tout sous-chemin XYZil existe un descendant de Yqui appartient à d,
l’ensemble des descendants de Yétant l’ensemble de sommets reliés à Ypar un chemin orienté de
longueur 0 (donc Yest un descendant de Y).
Vet Wsont d-séparés si un tel chemin n’existe pas. Deux ensemble de sommets v,wsont d-séparés si
pour tout Vvet pour tout Ww,Vet Wsont d-séparés.
Remarque: deux variables sont inter-dépendentes si et seulement si elles sont /0-dépendantes. Elles
sont séparées si et seulement si elles sont /0-séparées.
Exercice 7 d-séparation dans un réseau bayésien
Dans le réseau de l’exercice 6, pour chaque paire de variables différentes de L, dire si elles sont {L}-
dépendantes ou {L}-séparées.
Si deux variables X,Ysont {Z}-séparées, alors P(X=v|Y=w,Z=u) = P(X=v|Z=u)et donc P(X=
v,Y=w,Z=u) = P(X=v|Z=u)P(Y=w|Z=u)P(Z=u).
Inférence de probabilités dans un réseau bayésien: L’inférence dans un réseau bayésien est le
calcul des probabilités a posteriori dans le réseau, étant donné des nouvelles informations observées.
Ainsi, étant donné un ensemble d’évidences (de variables instanciées) Y, le problème de l’inférence
dans G= (V,E)est de calculer P(X|Y)avec XV,YV. Si Yest vide (aucune évidence), cela revient
à calculer P(X).
Les informations de dépendance/séparation sont essentielles pour calculer la lois jointe d’un réseau
bayésien: considérons par exemple le réseau:
3
XnXn1. . . X1
comportant nvariables booléennes X1,...,Xndisposées dans une chaîne, et supposons de vouloir cal-
culer P(X1, ..., Xn)(c.à.d la probabilité que les nvariables valent toutes 1).
Si on sélectionne X1, on a
P(X1, ..., Xn) = P(X1|X2, ..., Xn)P(X2, ..., Xn).
Or, vu que X1est {X2}-séparée de toute autre variable du réseau, on a P(X1|X2, ..., Xn) = P(X1|X2).
Il nous reste à calculer
P(X2, ..., Xn) = P(X2|X3, ..., Xn)P(X3, ..., Xn).
Vu que X2est {X3}-séparée de toute autre variable du réseau, on a P(X2|X3, ..., Xn) = P(X2|X3).
En itérant ce processus, on obtient
P(X1, ..., Xn) = P(X1|X2)P(X2|X3). . . P(Xn1|Xn)P(Xn)
Remarquer que toutes les probabilités conditionnelles de la dernière équation sont données explicite-
ment dans le réseau.
Exercice 8 Inférence de probabilités à partir d’un réseau bayésien (I)
Les données suivantes complètent le réseau de l’exercice 6 (toutes les variables sont booléennes4:
P(S) = 0.3,P(M) = 0.7,
P(L|S,M) = 0.1,P(L|S,¬M) = 0.2,P(LS,M) = 0.3,P(LS,¬M) = 0.6,
P(R|M) = 0.2,P(RM) = 0.5,
P(T|L) = 0.3,P(TL) = 0.8.
Remarque: les 10 probabilités données ci-dessus suffisent à calculer la lois jointe des 5 variables du
réseau, là où 251=31 probabilités jointes sont nécessaires pour donner explicitement la lois jointe.
1. Calculer P(S,¬M,L,¬R,T)
Exercice 9 Inférence de probabilités à partir d’un réseau bayésien (II)
Chacun a des bonnes chances5de réussir ses études (RE).
Si on réussit ses études on a huit chances sur dix de trouver un travail intéressant (T I), sinon une chance
sur trois.
On a par ailleurs une chance sur un million de gagner au loto (GL).
Si on trouve un travail intéressant ET on gagne au loto on a neuf chances sur dix d’être heureux (EH),
Si on trouve un travail intéressant OU on gagne au loto on a deux chances sur trois d’être heureux, sinon
on a une chance sur deux d’être heureux.
1. en analysant la dépendance/séparation dans le réseau bayésien de la deuxième partie de l’exercice
4, calculer:
la lois jointe de RE,GM pour une personne donnée.
la lois jointe de RE,GM pour une personne donnée, dont on sait qu’elle est heureuse.
la lois jointe de RE,GM pour une personne donnée, dont on sait qu’elle est heureuse et
qu’elle a un travail intéressant.
2. Donner la lois jointe des variables booléennes RE,T I,EH,GL, par inférence à partir du réseau
bayésien de la deuxième partie de l’exercicie 4.
4les variables peuvent être interprétées comme suit:
T: Le cours commence à 10:35.
L: L’enseignant arrive en retard (Late).
R: Le sujet de l’enseignement est la Robotique.
M: Manuela enseigne.
S: il fait beau (Sunny).
5A vous de choisir P(RE).
4
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !