IFT615 – Examen périodique (Été 2010) Page 1 de 6
Université de Sherbrooke
Département d’informatique
IFT615 – Intelligence artificielle
Examen périodique
Été 2010
Le samedi 12 juin 2010, 9 h à 10 h 50, au D3-2032
Chargé de cours
Éric Beaudry
Instructions
L’examen dure une heure et cinquante minutes. L’examen comporte 5 questions pour un total de 20 points.
Le questionnaire contient 6 pages incluant celle-ci. Vous devez répondre directement sur le questionnaire
aux endroits indiqués. Des feuilles de brouillon sont incluses à la fin du questionnaire. Ne détachez aucune
feuille du questionnaire.
Matériel permis
Livre de référence du cours (Artificial Intelligence: A Modern Approach).
Deux feuilles recto-verso de notes personnelles.
Calculatrice non programmable.
Tout autre appareil électronique est strictement interdit.
Solutions
Q1 /3 Q2 /5 Q3 /5 Q4 /4 Q5 /3 TOTAL /20
IFT615 – Examen périodique (Été 2010) Page 2 de 6
Question 1 – Recherche heuristique (3 points)
Le graphe suivant illustre un espace d’états S={s
0
, , s
6
} et une fonction de transition. Un arc orienté d’un
état s
i
à s
j
indique que s
j
est un état successeur de s
i
. Les arcs sont étiquetés de leur coût.
La fonction but(x) retourne vrai si et seulement si x=s
6
. La fonction heuristique h(x) est définie à l’aide du
tableau suivant.
État
x
s
0
s
1
s
2
s
3
s
4
s
5
s
6
h
(
x
)
3
3
2
7
1
4
0
a) Donnez une trace d’exécution de l’algorithme A* en utilisant l’espace d’états et les fonctions but et h
définis précédemment. Pour chaque état dans les listes open et closed, donnez ses valeurs f et g. (2 points)
Itér.
open
(état,
f
,
g
), …
closed
(état,
f
,
g
)
, ...
0
(s
0
, 3, 0)
1 (s
2
, 4, 2) (s
1
, 6, 3) (s
3
, 11, 4) (s
0
, 3, 0)
2 (s
4
, 4, 3) (s
1
, 6, 3) (s
3
, 11, 4) (s
0
, 3, 0) (s
2
, 4, 2)
3 (s
6
, 4, 4) (s
1
, 6, 3) (s
3
, 11, 4) (s
0
, 3, 0) (s
2
, 4, 2) (s
3
, 4, 3)
4 (s
1
, 6, 3) (s
3
, 11, 4)
Solution trouvée.
(s
0
, 3, 0) (s
2
, 4, 2) (s
3
, 4, 3) (s
6
, 4, 4)
b) La fonction heuristique h est-elle admissible? Justifiez. (1 point)
Non. L’heuristique h surestime le coût restant pour les états s
3
et s
5
. Par exemple f*(s
3
)=6 (le coût optimal
de s3 à s6) alors que h(s
3
)=7. Pour être admissible, h(s) f*(s) pour tous les états s. Remarque : l’heuristique
demeure inadmissible même si le chemin trouvé en a) n’emprunte aucun état s avec une valeur h(s)
surestimée. En d’autres mots, il peut arriver que A* retourne une solution optimale, mais ce n’est jamais
garantie et ce n’est généralement pas le cas.
IFT615 – Examen périodique (Été 2010) Page 3 de 6
Question 2 – Élagage alpha-beta (5 points)
L’arbre suivant modélise les actions de deux joueurs adverses Min et Max. Chaque nœud représente un état
du jeu. Les feuilles correspondent aux états terminaux. La valeur de ces états est indiquée à l’intérieur.
a) Simulez l’algorithme d’élagage alpha-beta en utilisant un ordre de visite de gauche à droite. (3 points)
Rayez le(s) arc(s) élagué(s) à l’aide d’un trait;
Indiquez la valeur retournée par l’algorithme à l’intérieur de chaque nœud visité;
Encerclez l’action retournée par l’algorithme.
b) Serait-il plus efficace de visiter les nœuds successeurs de droite à gauche? Justifiez. (2 points)
Non. Deux nœuds seront élagués au lieu de cinq précédemment.
IFT615 – Examen périodique (Été 2010) Page 4 de 6
Question 3 – Réseaux bayésiens (5 points)
Pour détecter la présence d’une certaine ressource naturelle dans le sous-sol, une compagnie minière
effectue des tests à l’aide de deux instruments de détection A et B. L’instrument B est sensible à la présence
d’humidité dans le sol. Le réseau bayésien suivant a été élaboré par la compagnie.
a) Une erreur s’est glissée lors de la conception de ce réseau bayésien. Laquelle? Justifiez. (1 point)
Il ne devrait pas y avoir de lien de dépendance entre Ressource et Humidité. R et H sont indépendants
puisque P(H)=P(H|R). Cela se voit dans les tables de probabilités où les deux rangés sont identiques. Le lien
de dépendance est donc inutile.
La table P(H) = [0.1 0.5 0.4]
b) Calculez P(R=V | A=V, B=V). (1 point)
P(R|A=V,B=V)=
α
P(R)P(A=V|R)P(h)
h
P(B=V|R,h)
=
α
0.00693 0.03465
[ ]
=0.1667 0.8333
[ ]
P(R=V|A=V,B=V)=16.7%
c) Calculez P(R=V | A=V, B=V, H=Faible). (1 point)
P(R|A=V,B=V,H=faible)=
α
P(R)P(A=V|R)P(B=V|R,H=faible)
h
=
α
0.0081 0.0099
[ ]=0.45 0.55
[ ]
P(R=V|A=V,B=V,H=faible)=45%
Observation : la probabilité doit augmenter par rapport à b puisque le test B est plus fiable lorsque H=faible.
d) En supposant que la compagnie décide de creuser lorsque le taux d’humidité est faible et que les tests A
et B soient positifs, comment calculeriez-vous la probabilité qu’une mauvaise décision soit prise? Il n’est pas
requis de faire le calcul. (2 points)
Il y a deux cas à calculer :
Cas 1 : La compagnie creuse et ne trouve pas la ressource espérée.
Cas2 : La ressource est présente mais la compagnie ne creuse pas, c-à-d : 1 - P(A=V, B=V, H=Faible | R=V).
Bref, il faut additionner les deux cas:
Cas1 : P(R=F|A=V, B=V, H=faible)
Cas2 : P(R=V) * (1 - P(A=V,B=V,H=Faible | R=V))
IFT615 – Examen périodique (Été 2010) Page 5 de 6
Question 4 – Processus décisionnels markoviens (MDP) (4 points)
Soit un processus décisionnel markovien M=(S, T, R, A) S={s
0
, …, s
5
} est un espace d’états, T : S × A S
2
×
[0,1] est une fonction de transition, R : S est une fonction de récompense et A={a
0
, a
1
, a
2
} est
l’ensemble des actions du domaine. Les fonctions T et R sont définies à l’aide de la table suivante.
État s
T(s, a
0
)
T(s, a
1
)
T(s, a
2
)
R(s)
s
0
{(s
0
,0.3), (s
1
,0.7) }
{(s
0
,0.5), (s
1
,0.5) }
{(s
0
,1.0)}
-
5
s
1
{(s
0
,0.6), (s
1
,0.3), (s
4
,0.1)}
{(s
1
,0.5), (s
2
,0.5) }
{(s
1
,1.0)}
+1
s
2
(s
2
,0.3), (s
4
,0.7)}
{(s
0
,0.6), (s
2
,0.4) }
{(s
0
,0.1), (s
2
,0.9)}
+8
s
3
{(s
2
,0.3), (s
4
,0.5), (s
5
,0.2
)}
{(s
3
,1.0)}
{(s
3
,1.0)}
-
10
s
4
{(s
4
,0.5
), (s
5
,0.5
)}
{(s
0
,1.0)}
{(s
4
,0.9), (s
5
,
0.1)}
-
1
s
5
{(s
3
,0.9), (s
4
,0.1)}
{(s
0
,1.0)}
{(s
3
,0.1), (s
5
,0.9)}
+20
a) Simulez l’algorithme d’itération par valeurs. À l’itération #0, les valeurs sont initialisées à 0. Utilisez
un facteur d’atténuation (
discount factor
) de 0.5. Donnez la politique extraite à partir de la valeur des
états obtenue suite à l’itération #3. (3 points) Remarque : lors de l’examen, afin de réduire le temps de
calcul, une directive a été donnée afin de ne pas faire l’étape #3. Les calculs peuvent être accélérés à
l’aide de certaines observations : certaines actions peuvent ne pas être considérées à certaines étapes.
État
Valeur des états après l’itération
Politique
#0
#1
#2
#3
s
0
0
-
5
-
5
.4
-
4.67
a0
s
1
0
1
3.25
4.6
5
a1
s
2
0
8
11.35
12.8
4
a2
s
3
0
-
10
-
7.05
-
4
.5
1
a0
s
4
0
-
1
3.75
7
.
0
6
a0
s
5
0
20
28.5
32
.
47
a2
b) L’algorithme d’itération par valeurs convergerait-il sur ce problème si le facteur d’atténuation (
discount
factor
) était égal à 1? Justifiez. (1 point)
Non. Généralement, si l’horizon est infini, un facteur égal à 1 risque de provoquer une accumulation infinie
de récompenses. Ici, l’horizon est infini car il y a des actions applicables dans tous les états (aucun état
final). Dans le problème ici, un facteur égal à 1 provoquera une accumulation infinie dans l’état s5 et cela se
propagera dans les autres états. Donc, l’algorithme ne peut converger à des valeurs finies. Attention, cela
n’implique pas qu’une solution n’existe pas. Voir pages 649-650 du livre « Artificial Inllelligence : A Modern
Approach » 3
e
édition pour une discussion à ce sujet.
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !