Un robot peut-il être intelligent

publicité
Un robot peut-il être intelligent ?
Extrait du PoBot
http://www.pobot.org
Un robot peut-il être intelligent
?
- Robopedia - Programmation - Explorer - Intelligence Artificielle -
Date de mise en ligne : dimanche 5 août 2012
PoBot
Copyright © PoBot
Page 1/4
Un robot peut-il être intelligent ?
Sommaire
• L'homme comme référence (...)
• La stupidité comme test (...)
• Les comportements déterministe
• La conscience de ses erreurs
• Des tests pour l'intelligence
Avant de savoir si une machine est intelligente, il faut définir ce qu'est l'intelligence. En effet, les définitions et les
formes possibles de l'intelligence (voire des intelligences) sont multiples et dépendent de l'environnement, du
contexte, du domaine observé, voire même, du point de vue de l'observateur.
Le terme d'intelligence artificielle reste ambigu. Il a donné beaucoup de promesses, et provoqué autant de
déceptions.
L'homme comme référence ?
Aux origines des travaux en intelligence artificielle, deux conceptions s'opposent :
Pour certains, il s'agissait de rendre les machines aussi intelligentes que l'homme. Dans ce
Pour d'autres, il s'agissait de rendre les machines aussi fiables qu'on le voudrait : c'est une
cas, notre question va rester posée encore longtemps car le résultat est loin d'être satisfaisant à
intelligence minimale, dans un périmètre confiné à leur usage.
l'heure d'aujourd'hui.
Dans les deux camps, on trouvera des partisans mais pas forcément unanimes : on peut partager la même définition
comme objectif mais ne pas être d'accord pour considérer qu'il est atteint ou pas.
Pour nous, il est plus aisé de rejoindre ceux qui pensent que l'objectif reste non-atteint, ce qui améliore la définition de
l'intelligence artificielle, plutôt que de convaincre l'autre partie de l'opinion que les machines ne sont pas encore
intelligentes, même dans l'acception la plus réductrice.
La seconde définition est la moins raisonnable : quasiment tout peut être "intelligent", ce qui n'est pas du tout
satisfaisant. IA devient le contraire de "télécommandé" et le synonyme d'autonome.
La stupidité comme test d'intelligence
On pourrait aussi tenter de trouver la définition de l'intelligence par l'étude de son contraire, et de quantifier la
stupidité. C'est faisable, mais ce n'est pas plus simple.
Quel serait le niveau le plus bas de stupidité ? La compréhension de son concepteur ou de ses utilisateurs ?
Copyright © PoBot
Page 2/4
Un robot peut-il être intelligent ?
Cette définition de l'IA est tentante, et ravira les vendeurs de bidules qui font pouet pouet : une machine est
intelligente quand ses utilisateurs sont surpris de son comportement, qu'ils considèrent plus astucieux ou tout
simplement plus réussi que ce qu'ils auraient fait.
Ainsi un robot qui tient en équilibre sur une jambe, en faisant tourner sa main droite sur son ventre et en tapant sur sa
tête avec l'autre main serait "intelligent"... Rajoutez-y de la vitesse, de la force et des explosions et le prochain char
d'assaut qui rasera une ville sera "intelligent".
C'est déjà le cas avec les drones présentés par Ray Kurzweil
[http://www.kurzweilai.net/smarms-of-tiny-intelligent-drones-with-cameras-what-could-go-wrong]. Il existe même des
mines "intelligentes", avec le système IMS
[http://www.textrondefense.com/products/smart-weapons-ground/scorpion/index.php].
Les comportements déterministes
Puisqu'on parle de Kurzweil, une citation de Bertolt Brecht [1] :
L'intelligence n'est pas de ne pas faire d'erreur, mais de voir au plus vite comment les corriger.
Et c'est bien là le problème : la plupart des robots sont déterministes. Ils exécutent ce qui a été prévu, et même si
leur mémoire devient gigantesque et que l'ensemble des prédictions et des réactions à émettre en réponse va devenir
plus grand que ce que des milliers d'hommes pourraient enregistrer, il n'en restera pas moins que l'action N+1 sera la
déduction des états 1 à N dans le meilleur des cas, et pour la plupart des machines, l'état N seulement.
Dans ces conditions, l'intelligence flirte avec les notions d'instinct et d'inné, qui font qu'un homme avec beaucoup
moins d'informations et beaucoup moins de mémoire ou de connaissance des expériences passées va savoir trouver
la solution pour corriger ses erreurs.
La conscience de ses erreurs
La phrase de Bertolt Brecht a une conséquence : si on veut corriger ses erreurs, il faut s'en rendre compte. Donc il
faut associer la nouvelle situation problématique aux actions qu'on vient d'effectuer, et y trouver un lien de cause à
effet. Si l'effet est négatif (la situation n'est pas celle qu'on attendait), alors c'est que la cause était erronée.
Il faut donc que la machine puisse avoir conscience de ce qu'elle fait.
Mais les détracteurs de cette philosophie de la robotique diront qu'il faut surtout anticiper les erreurs et prévoir toutes
les alternatives (soit encore de manière déterministe).
Une bonne partie des études en algorithmes d'intelligence artificielle consiste donc à faire des simulations de ce qui va
arriver, pour détricoter ensuite toutes les actions mauvaises pour construire une séquence probable contenant un
Copyright © PoBot
Page 3/4
Un robot peut-il être intelligent ?
maximum de chances de réussite. C'est le retour sur trace ou backtracking qui est utilisé par exemple dans les
logiciels de jeu d'échecs. Rappelons que l'une des machines star de l'intelligence artificielle était Deep Thought ou
Deep Blue puis Deeper Blue, un joueur d'échecs (bien qu'il n'ait pas vraiment battu le champion Kasparov, mais l'a
plutôt épuisé, puisqu'un robot ne dort pas, ne mange pas). On précise ici le nom original "Deep Thought" qui veut dire
"pensée profonde", preuve que les initiateurs du projet ne voulait pas seulement faire un système de calcul
performant, mais bien donner une pensée à leur machine (ou bien faire un jeu de mot, ce qui est aussi possible).
Des tests pour l'intelligence artificielle
En attendant de trouver un robot intelligent, peut-être pourrait-on imaginer un test pour tester l'intelligence d'un
robot ? . Continuez la réflexion avec cet article sur le test de Turing. On peut déjà dire que de même que les tests de
QI pour humains sont controversés, alors il en sera de même pour les tests de machines.
Post-scriptum :Merci à Joël pour les éléments de réflexion fournis et qu'on retrouve dans ce texte. Julien.
[1] en fait, l'acolyte musicien de Brecht était Kurt Weill, j'ai pas résisté à l'homonymie imparfaite
Copyright © PoBot
Page 4/4
Téléchargement