Conférence : « Éthique, défense, sécurité et agents artificiels autonomes », Jean-Gabriel Ganascia (Paris 6), Jeudi 24 Avril 2014 Remplacer les soldats par des robots « éthiques » Rationnellement moins de morts (point de vue utilitariste) Effrayant (machines de mort), mais que le début Organismes non gouvernementaux : veulent un moratoire sur les drones Développement : Les états : ne savent pas de quoi la guerre sera faite Ils ne veulent pas ce moratoire parce qu’ils ne veulent pas être empêchés d’utiliser des armes dans le futur. Une machine intelligence ? On peut fabriquer des machines qui vont interpréter des ensembles de normes (p.q. les normes sont faciles à appliquer) Théorie de la guerre + principe de distinction Possible avec une machine ? - Capteurs - Représentation - Décision => Problème : construire la représentation DGA : gens qui sont sur un théâtre d’opérations. Le pilote qui voit des gens, est-ce qu’il voit des armes ? Par exemple la kalachnikov peut ne pas être une arme par son principe même, la théorie pêche. Notamment : application des systèmes de normes de la guerre juste + principe de proportionnalité Au niveau de la technique informatique de la décision : se demander jusqu’à quel point on peut formaliser la décision Argumenter la décision pour voir si l’ensemble des procédures a été respecté. Questions : origine et application des normes éthiques => conflit. L’application n’est pas indépendante des normes elles-mêmes Origine des normes : Comment formaliser les choses ? Conflits -> mensonge Il y a une opposition entre les philosophes sur le mensonge. St Augustin, Kant VS Constant On peut aussi avoir d’autres types de questions éthiques : Le suicide : est-ce moral ? Jean Moulin s’est suicidé par exemple, mais on ne lui a pas reproché, alors qu’on le reproche à d’autres… Il faut des acteurs qui doivent arbitrer On ne peut pas avoir une norme éthique qui dit qu’il est possible de mentir… John McCarthy 1955 : intelligence artificielle, théorie des jeux. A écrit une nouvelle de science-fiction. Montre que des règles générales à un moment donnée peuvent être confrontées à une réalité qui peut les mettre en échec. Utilisation domestiques Robots peuvent être un traumatisme psychologique pour les enfants -> ils ne doivent pas s’attacher aux robots. Pourtant : si l’enfant va mourir, il y a un dilemme entre s’approcher de l’enfant et le sauver, ou bien le laisser mourir. A ce moment là, le robot surpasse la règle et nourrit l’enfant. Lois d’Asimov Questions sur la morale des robots Conflit de règles. Logiques modales = on ne considère pas que les règles, mais aussi une modalité Déontique => modalité = obligation Définition de fonction monotone Axiome => théorème Systèmes non monotones : il faut plus d’axiomes, et moins de théorèmes Benjamin Constant : point de départ. P.q. des règles générales ne sont pas applicables à des drones => on n’a pas découvert le principe interne. Il faut formaliser les différents types de systèmes éthiques - Ensemble de réponses - Interprétations de Bertrand Modélisation des agents artificiels : (p (père), s (situation) , b (budget), a (action) ) 1. Volonté 2. Contrainte Volonté = autonomie Bonne : si c’est une action dont les conséquences ne sont moins pires que celles sans Mauvais : Inverse Mensonge : On pose une question et on peut répondre par la vérité ou le mensonge si on cache qqn chez nous et que des meurtriers viennent le chercher, on peut leur cacher la vérité Toute action est meilleure que tuer quelqu’un – si on ajoute une relation on obtient un ensemble de normes Développer les critères : il faudrait formaliser les notions d’altruisme, d’hédonisme en matière d’information Logiques déontiques -> machine Kantienne ? Pour Kant, on choisit les maximes de sa volonté. C’est une caractérisation éthique de la maxime universalisable. « Agis de telle sorte que la maxime de ta volonté puisse être érigée en loi universelle. » Pourquoi ça pose problème ? Critère méta éthique pas de société dans laquelle tout le monde puisse mentir. Il faut développer cette idée sur différents critères Principes de Constant : je ne dois pas dire la vérité à quelqu’un qui ne la mérite pas (rythme ternaire) Rythme de Kant : binaire Systèmes qui soient capables de représenter des ensembles de normes et de les construire Projet ETICAA (Ethique des agents autonomes) - recherche l’existence de normes et de procédures Il y a une certaine multiplicité des acteurs pour prendre une décision chez les militaires Il ne s’agit pas d’automatiser la décision, mais de trouver la place de l’agent artificiel à l’intérieur d’une décision. Applications militaires / autonomie morale - Comment un robot peut-il agir sur un champ de bataille ? - Problèmes en termes de Jus in Bello Questions des doctorantes : Un robot (ou agent autonome) se définit par : - Une capacité d’action - Une perception du monde - Un but / des désirs Si on parle du drone, est-il un robot ? Et le robot, est-il différent d’un AAA ? Pour le drone, les deux premières caractéristiques sont présentes. LE problème c’est : quels sont les buts d’un drone qui est autonome ? Eliminer ? Traiter des informations ? Obéir aux ordres ? Et si il n’y a pas d’opérateurs ? intentionnalité = pierre angulaire de la responsabilité. Comment penser la responsabilité du drone en zone d’action ? Jus in Bello -> l’utilisation de drones renforce l’esprit asymétrique de la guerre problème d’égalité morale entre les combattants (droit de tuer p.q. moi aussi je prends le risque de mourir) Autonomie demande de travailler : la notion de responsabilité, et le droit appliqué pour les robots. Travail sur l’éthique de la guerre : il y a ceux qui l’élaborent et ceux qui sont contre débat entre le drone Terminator et la vision idyllique du robot Question : pour avoir une guerre juste, faut-il éradiquer l’humain ? - L’homme est irrationnel, sujet à la fatigue => peut faire des entorses au droit de la guerre - Avocats : pas assez d’informations pour décider quoi faire (législation, responsabilité) - Les robots sont-ils utilisés pour des questions d’intelligence ? Le développement des robots se fait-il pour la surveillance ? Si on avait un robot avec une éthique parfaite, aurait-on une guerre juste ? Question du sacrifice : l’homme fait des actes héroïques, pas possible pour un robot. Robots tueurs / Robots qui aident : problématiques parce qu’ils permettent aux conflits de se prolonger (ceux-ci s’arrêtent quand il y a eu trop de pertes humaines, mais si on envoie des robots, ils ne s’arrêteront plus… Il suffit de fabriquer plus de robots…) Comment arrêter la guerre ? Penser au Jus post bellum -> c’est à ce moment qu’on juge si une guerre a été juste ou pas… La guerre devient scindée en deux. Il faudrait un droit de la guerre plus exigeant. Problématique : Machette contre drone -> est-ce-que ça va faire s’effondrer le droit de la guerre ? Réponse de Ganascia : Responsabilité : Question centrale Personne morale associée à cette hypothèse ? Si la responsabilité est pénale, il y a une sanction, mais quelle sanction ? Quel est le devenir de la responsabilité quand on a à faire à des robots ? Complexe : ni le possesseur ni le constructeur ne peuvent tout maîtriser il y a une part d’imprévisibilité On est tous, techniciens ou citoyens, désemparés devant les évolutions actuelles. LA science fiction est devenue actuelle !!! Autres questions posées : que dire du rapport entre guerre juste et robots éthiques ? Cela n’a pas de sens, il faut penser aux dissymétries. Il y a des parties qui se sentent tous les droits parce qu’elles sont écrasées par la technologie. Il faut penser aussi que le drone est très bon marché Il y a plusieurs gammes de drones (surveillance, localisation, action à distance…) Les guerres dans le cyber espace sont de nouvelles formes de guerre qui se mettent en œuvre. Notion de sacrifice : on a une guerre démocratique, plus chevaleresque (reconduction d’une question plus ancienne datant de 1914) on a voulu créer une nouvelle décoration militaire pour les manipulateurs de drone Réaction : contre p.q. insulte à tous les morts de guerre Question de la frontière : - Equiper sensoriellement les robots pour qu’ils soient capables de distinguer les migrants/trafiquants ? - Consortium ? Postulat d’universalité : militaires différents des civils Automatisation de la décision dans un processus collectif ? Ou est-ce-que c’est pas précisément pour éliminer ça qu’on automatise ? Automatisation du champ de bataille ? (plus de questions morales que d’éthique…) Il faut savoir choisir => systèmes de recommandations multiples Sur la vie privée : questions d’images centrales : certifier des logiciels d’automatisme Notion de vie privée en train de changer Trilemne : transparence, sécurité, vie privée ? Autre question sur l’automatisme : il y a un moment où l’automate doit être capable d’arrêter l’homme (accidents de bateaux provenant de mauvaises décisions humaines) La discrimination entre civils et militaires n’est pas facile, et les lois de la guerre sont inapplicables car la reconnaissance des formes est très difficile L’arme atomique a mis fin à la 2e GM La robotique n’a pas cet objectif Il y a aggravation de la dérégulation -> bombe dans l’édifice ? Conflits morale / éthique : réfléchir à l’éthique avec des outils moraux Danger : créer des frustrations dans les populations Afghanistan drones de surveillance très mal perçus Tradition de la guerre juste illusoire en ce moment : temps qui manque ne pas remettre en question le système traditionnel, car ce serait une remise en question de l’armée Le droit de la guerre n’est pas de l’éthique Responsabilité collective