Un robot peut-il être intelligent ?
Cette définition de l'IA est tentante, et ravira les vendeurs de bidules qui font pouet pouet : une machine est
intelligente quand ses utilisateurs sont surpris de son comportement, qu'ils considèrent plus astucieux ou tout
simplement plus réussi que ce qu'ils auraient fait.
Ainsi un robot qui tient en équilibre sur une jambe, en faisant tourner sa main droite sur son ventre et en tapant sur sa
tête avec l'autre main serait "intelligent"... Rajoutez-y de la vitesse, de la force et des explosions et le prochain char
d'assaut qui rasera une ville sera "intelligent".
C'est déjà le cas avec les drones présentés par Ray Kurzweil
[http://www.kurzweilai.net/smarms-of-tiny-intelligent-drones-with-cameras-what-could-go-wrong]. Il existe même des
mines "intelligentes", avec le système IMS
[http://www.textrondefense.com/products/smart-weapons-ground/scorpion/index.php].
Les comportements déterministes
Puisqu'on parle de Kurzweil, une citation de Bertolt Brecht [1] :
L'intelligence n'est pas de ne pas faire d'erreur, mais de voir au plus vite comment les corriger.
Et c'est bien là le problème : la plupart des robots sont déterministes. Ils exécutent ce qui a été prévu, et même si
leur mémoire devient gigantesque et que l'ensemble des prédictions et des réactions à émettre en réponse va devenir
plus grand que ce que des milliers d'hommes pourraient enregistrer, il n'en restera pas moins que l'action N+1 sera la
déduction des états 1 à N dans le meilleur des cas, et pour la plupart des machines, l'état N seulement.
Dans ces conditions, l'intelligence flirte avec les notions d'instinct et d'inné, qui font qu'un homme avec beaucoup
moins d'informations et beaucoup moins de mémoire ou de connaissance des expériences passées va savoir trouver
la solution pour corriger ses erreurs.
La conscience de ses erreurs
La phrase de Bertolt Brecht a une conséquence : si on veut corriger ses erreurs, il faut s'en rendre compte. Donc il
faut associer la nouvelle situation problématique aux actions qu'on vient d'effectuer, et y trouver un lien de cause à
effet. Si l'effet est négatif (la situation n'est pas celle qu'on attendait), alors c'est que la cause était erronée.
Il faut donc que la machine puisse avoir conscience de ce qu'elle fait.
Mais les détracteurs de cette philosophie de la robotique diront qu'il faut surtout anticiper les erreurs et prévoir toutes
les alternatives (soit encore de manière déterministe).
Une bonne partie des études en algorithmes d'intelligence artificielle consiste donc à faire des simulations de ce qui va
arriver, pour détricoter ensuite toutes les actions mauvaises pour construire une séquence probable contenant un
Copyright © PoBot Page 3/4