Ecole doctorale V Concepts et langage Unité de Recherche Rationalités Contemporaines Membre de l’Académie Louvain Ecole doctorale de philosophie (ED1) près le FNRS Cotutelle Internationale de Thèse En vue de l’obtention du grade de Docteur en Philosophie Intitulée Problèmes éthiques posés par le remplacement de l'humain par des robots. Le cas des systèmes d'armes autonomes. Présentée par : Marie-des-Neiges RUFFO de BONNEVAL de la FARE des COMTES de SINOPOLI de CALABRE Sous la direction des: Professeur Jean-Michel BESNIER, Université Paris-Sorbonne, Paris IV, France et Professeur Dominique LAMBERT, Université de Namur, Belgique Membres du jury : Professeur Jean-Michel BESNIER, Université Paris-Sorbonne, Paris IV, France Professeur Nathalie COLETTE-BASECQZ, Université de Namur, Belgique Professeur Jean-Gabriel GANASCIA, Université Pierre et Marie Curie, Paris VI France Professeur Dominique LAMBERT, Université de Namur, Belgique Professeur Alain RENAUT, Université Paris-Sorbonne, Paris IV, France Professeur Renaud RONSSE, Université Catholique de Louvain, Belgique Paris, Université Paris-Sorbonne, 19 janvier 2016. 1 Fin 2014, les journaux s’alarment. D’après une étude de Roland Berger, 3 millions d’emploi devraient disparaître en France d’ici 2025. En cause : l’usage des robots. La progression écrasante de leur usage tend à rendre l’humain obsolète sur le marché du travail. Tant la rapidité de l’évolution technologique que les craintes de ses effets sur l’humain nécessitent que l’on s’interroge sur les rapports entre l’homme et la machine : sont-ils adversaires, concurrents, complémentaires, subordonnés l’un à l’autre, indifféremment substituables, ou nécessairement interdépendants? Face aux affirmations des prédicateurs de la Singularité et du transhumanisme, l’homme et la machine semblent avant toute chose en compétition : qui, de la créature ou de son créateur, dépassera l’autre ? Pour certains la question n’est guère « qui » mais bien plutôt « quand ». Depuis Deep Blue battant Kasparov aux échecs jusqu’à Watson remportant le Jéopardy, la machine joue sur le terrain des humains et l’emporte. Est-ce à l’homme de s’incliner à son tour, non plus devant la force physique de la machine mais devant ce qu’il considéra pendant des millénaires comme son exclusive singularité, l’intelligence de celle-ci ? Plutôt que d’envisager une reddition immédiate de la race humaine, nous pouvons pointer la représentation du champ dans lequel s’inscrit la relation entre l’homme et la machine afin de déterminer quel type de rapport serait préférable, puisque les robots font déjà partie de notre monde. Le remplacement de l’humain par une machine pourrait s’avérer être une bonne chose. Par exemple, si l’on considère la conquête spatiale, il est plus indiqué de remplacer l’homme par le robot s’il s’agit d’explorer Mars sans oxygène. En l’an 2000, le Congrès américain prenait la décision qu’un tiers des véhicules terrestres de l’armée américaine devaient être inhabités en 2015. Alors que cette échéance est là, quels types de robots existent-ils, quelles conséquences cette robotisation du champ de bataille a-t-elle sur la manière de mener la guerre et plus encore de la gagner ? Est-ce pour un mieux ? On espère beaucoup des capacités robotisées aujourd’hui, mais les robots sont-ils déjà prêts à être autonomes ? Entre science-fiction et réalité, quel est l’état de l’art aujourd’hui ? Dotés de capacités de visées supérieures par exemple, on attend des robots qu’ils soient plus efficaces qu’un sniper. Privée d’affects, leur programmation devrait les rendre plus respectueux des règles d’engagements et du droit de la guerre que ne le seraient des humains soumis au stress. Les automates ou « robots » ont progressivement soulagé les hommes de la pénibilité du travail ; aujourd’hui c’est du danger de mourir à la guerre en montant en première ligne qu’ils le préservent, garantissant au soldat qu’il sera hors de portée de l’ennemi. Dès lors que nous armons des robots, que l’on redoute que les machines ne soient un jour capables de nous dépasser jusqu’à provoquer notre extinction, penser dès maintenant comme Nick Bostrom à les programmer à être « amicales » envers nous semble en effet une sage précaution. Dans cette optique, doter les machines de programmes leur permettant d’agir moralement est un projet urgent. Cette urgence procède pourtant d’une révolution. S’il est manifeste que les objets techniques possèdent un degré d’habileté supérieur à l’humain sur bien des plans, c’est aujourd’hui d’un nouveau champ de compétences que l’on tente de doter les systèmes autonomes en adjoignant à leurs effecteurs des programmes d’aide à la décision. Il s’agit non plus d’une habileté « physique » supérieure, mais bien de la question de la qualité d’une action. Qualité qui dépend non seulement de la bonne réalisation, mais aussi de l’adéquation de l’action choisie à la situation donnée. S’il est ici toujours question d’efficacité et de sécurité selon le contexte, la science reine en ce qui concerne la qualité d’une action reste l’éthique. C’est donc notamment sur l’aspect de l’efficacité et en particulier de l’efficacité éthique, que se porte notre attention. Quelles conséquences le remplacement de l’humain par un robot peut-il avoir sur la morale et son respect ? Le robot sera-t-il un soldat plus vertueux que sa version biologique ? Ceci implique que nous justifiions la pertinence du lien entre 2 conduite éthique et action militaire, la simple existence de « l’éthique militaire » semblant à certains n’être qu’un oxymore. Mais d’une machine ou d’un humain, lequel est effectivement le plus moral, d’une part dans son comportement, d’autre part dans l’évaluation qui peut être faite de sa présence sur le terrain ? La question du jugement et de la prise de décision dans le cadre spécifique de la guerre constitue un « cas limite » d’application de la toute-puissance des machines. Le choix du militaire est aussi celui d’un agent pour qui la prise de décision implique parfois la vie ou la mort. Pas simplement la mort qu’il donne ou la vie qu’il laisse, mais bien la vie ou la mort de ses hommes qui dépendent de la pertinence de sa décision. Pour cet agent, la question du choix, de la décision qu’il faut bien prendre au risque sinon de mourir certainement, et surtout de la responsabilité qui en découle, n’est pas cruciale, elle est vitale. Nous opérerons un rapprochement entre l’agissement de cet agent et le jugement prudent chez Aristote. Au demeurant, si les systèmes d’armes létaux autonomes (ou SALA) sont capables de décider de tirer, et par conséquent de remplacer le soldat sur le champ de bataille pour certains, il reste à prouver que l’humain doive en être évacué. Il s’agit justement du jugement moral, de l’application de l’éthique. Nous entendons par « éthique » la conduite d’une action qui ne se limite pas au seul respect des règles de droits qui s’y appliquent, à savoir ici le droit de la guerre international et les règles d’engagements qui diffèrent suivant les juridictions nationales. Ce respect du droit, même scrupuleux, ne constitue pas une éthique mais un simple légalisme. La position du Professeur Ronald Arkin, « roboéthicien » américain, soutient pourtant que les robots militaires peuvent être plus éthiques que les humains en vertu de leur application inconditionnelle du droit. Puisque l’éthique n’est pas le droit, comment un homme, ici, le soldat, et particulièrement l’officier, peut-il prendre des décisions, éventuellement différemment d’une machine, si tant est qu’elle en soit capable ? En guise de « champ clos » où nous arbitrerons s’il existe une différence entre décision humaine ou robotique, nous avons opté pour le champ d’honneur, terme exact à la fois moral et guerrier puisque les deux doivent être associés, et comme champions en lice les officiers d’une part contre les SALA. L’enjeu du duel concernait leur droit à décider et à agir, mais toujours moralement. Ayant déterminé un contexte, un objet technologique et un type d’homme dans l’arène, nous avons pu analyser les problèmes éthiques posés par le remplacement de l’humain par des robots. En un mot comme en cent, peut-il être moral de remplacer l’humain par des robots, particulièrement à la guerre ? Une telle joute ne pouvait se faire en une seule manche, la thématique du remplacement de l’humain par des robots, même plus particulièrement en contexte militaire, ne saurait être envisagée dans tous ses aspects moraux sans croiser différents angles d’attaque. Cette diversité s’avérait nécessaire car la dimension saisissante des « robots tueurs », comme les journalistes les présentent, si elle n’était traitée engendrerait une frustration compréhensible au lecteur qui chercherait une réflexion d’éthique appliquée. Tandis qu’à celui qui souhaiterait une réflexion méta-éthique sur les robots moraux, la dimension appliquée ne suffirait guère. C’est pourquoi d’une part il nous fallait établir un état des lieux de la robotique militaire récente et préciser les difficultés langagières et conceptuelles qu’induisent ces technologies. D’autre part, l’aspect moral et éthique de ces robots présuppose une réflexion ontologique sur les qualités requises pour bénéficier d’un statut moral et pour être reconnu tel un agent moral. Pour le dire autrement, nous avons déployé notre problématique en nous attachant aux liens existants entre robotique et éthique. La première étape visait à répondre à la question si « le robot pouvait-il être moral ? », c'est-à-dire dans un premier temps s’il pouvait être un agent moral. Une fois les capacités robotiques comparées à ces exigences, nous pouvions considérer de clore notre recherche, mais c’eût été oublier la question pratique à laquelle certains auteurs tels qu’Allen et Wallach tentent de répondre indépendamment de l’analyse ontologique, à savoir : « pouvons-nous construire un robot 3 moral ? », sous-entendu indépendamment de sa nature, peut-on reproduire le jugement moral dans un robot ? Ces deux questions, ontologiques et pratiques, une fois traitées nous disent encore fort peu du contexte d’application particulier qui nous intéresse : le cadre militaire. Ce dernier est régi juridiquement par un ensemble de lois et une longue tradition éthique issue de la théorie de la guerre juste et de l’enseignement des officiers en France notamment, que nous avons dû présenter dans leurs grandes lignes. Ceci permettait de répondre en substance au troisième temps de notre analyse, à savoir « comment un soldat peut-il être moral à la guerre ? ». Il était enfin temps d’envisager les effets de l’irruption de ces technologies à la guerre, autrement dit ce qui advient au point de vue éthique lorsque le robot remplace l’humain, et ce qui pourrait en résulter à l’avenir. Aucune technologie n’est neutre, et nous avons analysé la mutation politique qui en est issue en suivant l’herméneutique donnée par Grégoire Chamayou à ce propos. L’analyse éthique et pratique des robots actuels, avec les drones en particulier et à venir avec les SALA, nous a permis de juger s’il était permis d’utiliser des robots à la guerre. Toutes ces voies ayant été explorées, nous avons finalement pu analyser comparativement les actions des hommes ou des robots à la guerre, et ce qui peut être dit du projet de création de « robot moral » dans son ensemble. S’il était nécessaire de se garder des clichés de la science-fiction, la question de la bonne ou mauvaise action poursuivie par un robot dépourvu d’une supervision humaine et doté d’une prétendue « autonomie » se posera toujours. Si les robots acquièrent une « autonomie » ce sera d’abord grâce aux programmeurs humains plutôt que par l’émergence d’une volonté propre, comme le pensent les partisans de la Singularité, même si rien n’indique que la Singularité aura, ou n’aura pas, lieu. La programmation du robot constitue un enjeu moral et éthique dès l’instant où nous ne pouvons plus intervenir directement sur son fonctionnement. Implicitement, la démarche de Ronald Arkin de programmer les règles d’engagement et le droit international relatif aux conflits laissait supposer que cette voie était la seule possible pour éviter deux maux sur les champs de bataille. Sa proposition devait constituer une solution au dilemme entre devoir utiliser soit un robot sans supervision « éthiquement aveugle », soit un humain sanguinaire et fragile. Cependant, la manière dont Arkin présentait son projet ne nous semblait pas neutre dans ses prémisses. Nous nous sommes donc attachés à reprendre les éléments techniques, éthiques, moraux, mathématiques, légaux, politiques, psychologiques et méta-éthiques impliqués dans le projet de créer des robots « moraux » afin d’en mesurer les effets avant de suggérer de faire un choix radical entre « le robot ou le roseau »1 à la guerre. Nous avons vu l’importance du phénomène de la robotisation, brièvement au point de vue civil et plus particulièrement au point de vue militaire. Nous avons vu les modèles robotiques existants, en quoi consistait leur autonomie, et pourquoi cette dernière devrait continuer de s’accroître. Nous avons exposé que l’autonomie robotique recouvre des tâches différentes, qu’elle est à situer graduellement - la pleine autonomie n’étant pas encore réalisée voire réalisable - et qu’elle présuppose du robot des senseurs, des capteurs, des actionneurs et donc une certaine mobilité, ce qui ne disait encore rien de la supervision humaine des systèmes. L’importance de la supervision humaine efficace dans le débat laisse entendre que, plus que l’autonomie prétendue des robots, l’enjeu sous-jacent à toute l’évolution technique et robotique à venir concernera l’attribution du pouvoir de décision. Si jusqu’ici les machines pouvaient produire mieux, plus vite, et moins cher, désormais, remplacer l’humain dans sa capacité de décision entraînera des enjeux éthiques importants, notamment l’attribution de la 1 Expression de Mireille Delmas-Marty extrait du titre d’une de ses conférences au Collège de France. 4 responsabilité. C’est pourquoi, une fois les aspects techniques évoqués, nous avons pu nous consacrer à la moralité des robots. Nous sommes confrontés à une difficulté majeure dans l’analyse actuelle des robots moraux. En effet, l’objet que nous cherchons à étudier est absent, ou, du moins, seuls les fragments qui, mis ensemble, permettront peut-être de le construire, s’offrent à nos yeux. Opposants et adversaires à cette réalisation en sont réduits à des hypothèses sur les capacités réelles et les effets qui seront produits par un robot qui « déciderait à notre place ». Il nous a fallu contourner ce « lieu vide » -ou du moins flou-, source de tous les fantasmes, en adoptant une interrogation ontologique sur ce qui serait nécessaire à un robot pour avoir d’une part un statut moral, c’est-à-dire des droits, et d’autre part les qualités requises pour être un agent moral. Nous avons dû nous rendre à l’évidence : le robot a irréductiblement une valeur d’usage pour nous. Son « existence » n’est qu’une durée d’exploitation. Ce dernier terme luimême détermine encore à quel point le robot demeure servile et asservi à nos propres fins. Quant à sa capacité à être un agent moral « comme nous », l’objection de Searle demeure un horizon indépassable, le robot échoue à comprendre le sens de son action, élément indispensable pour l’attribution de la responsabilité. Pour la même raison, il serait difficile à un robot d’opérer un jugement qui tiendrait pleinement compte du contexte. Un contexte non pas entendu comme la simple variation de données empiriques mesurables par la machine, mais une situation porteuse d’une signification particulière qui modifie par exemple le blâme encouru pour une mauvaise action. Le robot n’a accès à aucun sentiment, indépendamment des tentatives pour lui faire simuler des comportements « empathiques ». Sa programmation rend stérile tout espoir de liberté, en dépit de la confusion langagière que nous avons décriée sur sa prétendue autonomie. L’imagination et la créativité, éléments nécessaires à l’homme prudent pour répondre aux situations imprévues et aux défis éthiques découlant de facto de la confrontation des règles avec la réalité, fait cruellement défaut au robot. Comme Ada Lovelace l’avait déjà montré, le robot ne peut rien produire de radicalement neuf qui ne lui soit pas donné par sa programmation. Contrairement à l’esclave antique, le robot ne peut « s’affranchir » de sa servitude. La qualité de « full moral agent » demeurera ainsi inaccessible au robot tant que la quasi mythique Singularité qui le dotera d’une conscience ne se sera pas produite. La possibilité de lui faire endosser une protomorale comme les animaux ne s’est pas avérée plus concluante, le robot n’étant pas - jusqu’ici - un être vivant dont la survie lui imposerait de suivre cet ensemble de règles pour résister à la pression de la sélection naturelle. En résumé, pour qu’un robot soit un agent moral, il aurait dû être. Puisqu’en dépit de la simulation perfectionnée de nos comportements le robot ne peut pas nous imiter au niveau de notre être, il s’ensuivrait qu’il ne peut pas agir moralement et donc nous remplacer. Mais Colin Allen et Wendell Wallach proposaient de prendre acte de cette impossibilité ontologique. Tout comme les ordinateurs sont dotés d’une intelligence artificielle, autrement dit simulée, le robot devait seulement être considéré comme un « agent moral artificiel » selon eux. Si le but de la machine est d’imiter, peu importe ce qu’elle est, il lui suffit de savoir faire. La mesure de ce savoir-faire serait le Moral Turing Test, ou sa version plus complète, le comparative Moral Turing Test. Ce point de vue induisait un questionnement pratique sur la programmation de la morale et du raisonnement éthique. Nous avons dès lors évoqué différentes possibilités de programmation morale, le kantisme, l’aristotélisme, l’utilitarisme, la programmation du droit et des règles d’engagement dans l’architecture proposée par Arkin, les principes de Constant, et enfin les trois lois de la robotique d’Asimov. Chacune de ces propositions se heurtait au constat que tout comme « traduire, c’est trahir », programmer, c’est réduire. En l’absence de robots agissant d’après ces principes, nous n’avons pas même pu leur faire passer le cMTT. Nous nous sommes donc attachés à décrire les difficultés qui continueront à peser sur leur réalisation. 5 Tout d’abord, le projet de programmer des robots moraux suppose une attente de fiabilité totale de ces systèmes. L’affirmation préalable qu’ils feront « mieux » que les humains ne s’avère pas cohérente avec la nécessité de demeurer réaliste sur les bugs probables de la machine. Or, si ces systèmes ne sont pas fiables, quelle justification morale peut-il y avoir en faveur de leur remplacement de l’humain ? Ensuite, le projet de formaliser logiquement la morale se heure aux mêmes difficultés que celles rencontrées par l’individu qui doit appliquer des règles préétablies dans un contexte où elles s’avèrent incomplètes, contradictoires ou contre-productives à plus long terme. Outre qu’une programmation ne saurait relever que de la syntaxe, d’où nous extrayons nous-mêmes une signification, elle ne saurait que marginalement tenir compte de son contexte d’application. Le robot peut établir des mesures environnementales, mais nous ne pouvons le doter d’une compréhension du contexte moral dans lequel il évolue. Ceci rejoint l’argument de Searle. Un robot pourrait peut-être mettre à jour son modèle-monde et ses règles de comportement pour intégrer quelques exceptions dans le cadre d’une programmation logique non-monotone, mais cette mise à jour ne saurait être le fait que de son programmateur. Il semble douteux que, sans humain pour guider son action, un robot sans supervision puisse saisir l’essence d’une situation et choisir la meilleure action à adopter. Nous disions choisir, ce qui est déjà une réduction de ce qui serait demandé à un agent moral traditionnel qui doit mémoriser, créer, lister, imaginer ou exclure lui-même les options d’action qu’il pourrait adopter ou non, bref faire usage d’un jugement prudent en restant conscient de la finalité recherchée. Enfin, une programmation morale se heurterait à une limite mathématique : n’importe quel processus d’optimisation et de choix de décision en conséquence ne peut être traduisible en une règle fixe qui consisterait en un algorithme calculable en un temps raisonnable. Les derniers obstacles au projet de programmer la morale relevaient d’une réflexion méta-éthique que nous avons laissée pour la fin. Si les robots moraux n’existent pas encore, nous n’avons cependant pas omis les questions d’éthique appliquée qui s’adressent à la robotique militaire déjà existante. Nous avons exposé les problèmes éthiques actuels posés par les drones téléopérés et la possibilité que les systèmes autonomes militaires sans supervision soient contre-productifs à terme, particulièrement s’ils sont dotés d’armes létales. Préalablement nous avions abordé l’éthique militaire traditionnelle à travers la triple approche de la guerre juste et son cadre juridique, des apports de la pratique militaire (Clausewitz, Krulak, Desportes, Royal, etc.) et enfin de la phronèsis aristotélicienne. Cette connaissance nous a permis d’analyser comment les robots militaires contribuent et témoignent d’une mutation profonde de la guerre, depuis la manière de la définir, jusqu’à la manière de la gagner, en passant par la façon de la mener en suivant en cela l’approche de Chamayou. Le zéro mort apparaissait tel une nouvelle norme à intégrer. L’avènement du robot transforme le soldat sur le terrain en une fragilité politique, sans compter le risque -toujours encouru jusqu’ici- qu’il transgresse l’éthique militaire traditionnelle, malgré tous les meilleurs garde-fous. Faut-il alors laisser les robots faire la guerre à notre place ? Plutôt que d’arriver à faire du soldat un robot n’obéissant qu'aux ordres, donner au robot les normes et l’éthique du soldat semblait théoriquement plus approprié. La perspective d’implémenter des règles de comportements fixes, en conformité avec l’éthique, dans les robots et systèmes autonomes militaires semblait prometteuse. La nouvelle norme du « zéro mort de notre côté » devenait envisageable, et l’éthique traditionnelle y gagnait une assurance jamais atteinte. L’enjeu eut été d’élaborer des systèmes robotisés qui intégreraient le cadre juridico-éthique existant de la guerre, tout en répondant à cette nouvelle norme du « zéro mort », un projet qui correspondait en tout point à celui d’Arkin. Cependant nous avons vu que confier le respect de la morale au robot n’était pas satisfaisant. En outre, cela provoquerait des questions légales sur l’attribution de la responsabilité en cas de dommages collatéraux ou d’erreurs. Enfin, la « robolution » comme 6 certains l’appellent ne suffisait pas à modifier certaines données empiriques de la guerre, telle que l’existence du brouillard de la guerre. Les robots ne sont pas infaillibles et les hommes non plus. Alors qui, de l’homme ou de la machine habilement programmée est encore le plus adapté à la guerre ? Il ne suffit pas de robotiser le champ de bataille en en excluant tous les combattants de chair et d’os portant nos uniformes pour satisfaire aux critères de l’éthique militaire. Si le « zéro mort » apparaissait telle une nouvelle norme éthico-politique, autrement dit imposée par le politique dans la pratique des militaires, les mutations qu’elle provoque notamment sur l’impératif du sacrifice suprême, ne rendent pas caduques les leçons de l’éthique militaire traditionnelle, et encore moins les codes juridiques se rapportant à la guerre. En particulier les exigences de la proportionnalité, de la protection des civils, et de l’action militaire comme ultime recours demeurent. Les défenseurs de la programmation éthique se présentent comme des réalistes : les drones et les robots existent. En dépit des demandes de moratoires ils représentent un marché croissant pour l’industrie et constituent une manière de mener la guerre à moindre coûts en période de restriction budgétaire. Dès lors que la suppression de la supervision humaine est techniquement possible, le « gouverneur éthique » d’Arkin lui semble l’ultime rempart contre l’absence totale d’éthique, même si sa solution est mince. Quelle position fallait-il adopter ? Fallait-il, sous couvert de « réalisme », préconiser le moindre mal vis-à-vis de la poussée des va-t-en guerre technologiques ? Ceci revient à poser la question du rôle de la réflexion philosophique ; doit-elle être un « garrot éthique » contre l’hémorragie du sens moral ou mettre le doigt sur le problème et identifier son remède profond ? C’est au philosophe qu’il revient de prendre le temps de l’analyse éthique, et aux décideurs politiques et militaires d’adopter la conduite de leur choix en conséquence, en souhaitant qu’elle soit vertueuse. Les décideurs ont besoin pour être phronimos d’informations, de réflexions, pour poser le meilleur acte possible. Si le philosophe peut aider cette démarche, c’est en livrant le fruit de ses réflexions objectives, afin que le décideur politique et militaire puisse faire un choix éclairé, en toute conscience. Nous ne pouvons dégager qu’un fait unique de notre analyse du robot et du militaire, tant au point de vue moral qu’au point de vue pragmatique : aucun des deux n’est exempt de défauts ni de problèmes éthiques potentiels. Ainsi, il est devenu clair que nous n’étions pas en présence d’un « match » entre les performances présumées mirobolantes des uns ou celles des autres comme le présentaient les tenants de la Singularité. En fait, ce qui constituait un préjugé de départ, d’après lequel soit l’homme, soit le robot devait être supérieur à l’autre, et qui aurait justifié le remplacement de l’un par l’autre, s’effondre. Ce qui est premier n’est pas tant de démontrer sa supériorité que de faire aveu de faiblesse. Pour une réflexion dont le cadre est l’action militaire, cela confine à l’ironie. Faut-il placer sur le champ de bataille des soldats risquant leur vie, leur intégrité physique, leur santé psychique, avec tous les risques qu’ils « craquent » et cèdent alors à la vengeance et à des actes de folie passagère ? L’alternative du robot létal soumis aux aléas des bugs et au piratage n’est guère meilleure, car ce qui s’offre à nous dans l’état actuel des réalisations robotiques est de placer soit un robot « éthiquement aveugle », soit un robot qui intégrerait certains « fusibles éthiques » sur le terrain, mais qui serait encore bien loin de satisfaire à toutes les attentes morales. On le voit, ni l’officier ni la machine ne sont infaillibles. Mais au fond, si l’homme est un être dont la spécificité est d’être faillible avant tout, est-ce si surprenant que sa créature, la machine, toujours produite par son créateur, conserve cette caractéristique ? La question qui se posait à nous, à savoir s’il faut remplacer l’humain par le robot dans la conduite de la guerre, est ainsi à envisager d’une manière différente de ce que nous avions anticipé. La réflexion de Ronald Arkin partait du constat que, tôt ou tard, des systèmes robotisés seront dotés d’une décision de tir autonome, que l’homme sera in fine « éjecté de la 7 boucle » (Out-of-the-loop). Dès lors, le « gouverneur éthique » lui semble, à défaut d’une solution idéale, un moindre mal. Cependant, qu’une situation puisse être vue comme inéluctable ne suffit pas à en faire quelque chose de bon, ou plus exactement une chose à l’encontre de laquelle il ne serait plus justifié de signaler son inadéquation morale. Cesseraiton de lutter contre la criminalité parce que ses chiffres sont en hausse constante ? Cette réponse-là ne nous semble donc pas moralement suffisante. Une partie de la réponse possible à notre question se trouve dans l’analyse de Chamayou et de Walzer entre autres ; conduire une guerre cynégétique à l’aide de robots (indépendamment de leur programmation éthique ou non) lourdement armés avec la logique exclusive « que l’autre meure » est foncièrement inéthique. Mais il est une réponse récurrente dans le domaine de l’éthique de la technique : ce n’est que rarement l’objet technologique luimême qui est problématique mais bien plus souvent l’usage qui en est fait. Partant de ce constat, il est possible d’avoir une bonne utilisation de la robotique militaire autonome ainsi que de la programmation « morale ». Prenant acte d’un double aveu de faiblesse, nous avons évoqué les prouesses et les échecs de la robotique militaire et des programmes d’aide à la décision. Nous avons exposé les exigences de l’éthique militaire, les quatre axes de danger selon Royal et surtout certaines atrocités perpétrées en temps de guerre par des soldats, pour nous garder de tout angélisme. Nous avons vu que, même au sein de ces horreurs, pouvaient briller quelques actes de bravoure. Hélas le robot, lui, ne peut s’affranchir de sa programmation pour devenir héroïque, ni dépasser le droit, le juste, pour faire preuve de miséricorde et épargner une vie. Autant d’éléments qui lui auraient permis de faire barrage à l’escalade de la violence. Que retenir de l’ambivalence du comportement humain ? La violence des uns côtoyant le meilleur des autres, il est possible de trouver en l’homme des résistances fortes aux comportements in-éthiques pourvu que les conditions soient remplies (notamment éviter les conditions qui mènent au désinvestissement moral). Il est donc possible d’influencer le comportement moral à la guerre en portant attention à ces conditions extérieures au soldat luimême. Le pire et le meilleur de l’homme se côtoient. On affirmera sans doute que l’on connaît davantage de massacres et qu’ils marquent davantage les esprits que les comportements moralement héroïques. Ce ne serait plus une objection tenable si les comportements héroïques pouvaient être rapportés aussi aisément que les comportements inéthiques. En dehors des faits de cruauté, que restait-il pour évaluer « le pire » de l’humain ? Les erreurs et les morts de civils non-combattants. On se souviendra de ce soldat français qui tira par erreur à balles réelles sur la foule à Carcassonne lors d’une démonstration, croyant tirer à blanc. Cependant les erreurs humaines possèdent leur équivalent robotique et portent alors le nom de « bugs ». En ce qui concerne les morts de civils non-combattants découlant pudiquement des « dégâts collatéraux », nous avons vu qu’ils peuvent être le fait aussi bien des robots que des humains. L’analyse de Chamayou sur les conséquences du « remote killing » par rapport à la conduite d’une guerre traditionnelle tend à démontrer en outre que le type d’armes dont sont dotés les drones conduisent inévitablement à des dégâts disproportionnés par rapport au résultat qu’auraient pu obtenir des hommes seuls sur le terrain, même si cela aurait représenté plus de risques pour eux. S’il fallait choisir entre l’humain et le robot, l’humain semble ainsi mieux équipé pour correspondre au critère de Foerster - que nous avons complété - d’augmenter les choix possibles pour diminuer la violence. Etant donné que l’homme et le robot ont tous deux des faiblesses, quoique différentes, nous avons envisagé un type de rapport homme-machine qui ne serait plus de domination de l’un sur l’autre pour concilier le meilleur des robots et des humains. 8 Il s’avère qu’en faisant le choix d’étudier le projet de remplacer l’humain par le robot nous sommes passés un peu rapidement sur la collaboration possible entre l’homme et la machine. Dans l’état de l’art nous avions vu que les capacités de contrôle des machines par des humains demandaient une charge cognitive importante, ce qui tendait à plaider pour une autonomie d’action accrue pour les robots. En nous focalisant sur le remplacement de l’humain par un robot, nous avons négligé toutes les tentatives de faire du soldat lui-même un robot, ou plus exactement un cyborg. Ce type d’option appartient au courant transhumaniste que nous avons évoqué comme partisan de l’émergence de la Singularité. Son argument principal est que lorsque les robots nous auront remplacés il nous faudra devenir « augmentés » pour survivre. Cette fusion de l’homme et de la machine peut être une manière de ne pas opérer un choix entre les deux et d’y voir une collaboration. Cependant cette fusion elle-même produit une masse considérable de difficultés éthiques que nous ne pouvions aborder. Compte tenu de ces difficultés, la question reste posée s’il est préférable d’envoyer un humain, un cyborg ou un robot à la guerre. Quelle collaboration pouvait encore exister sans fusion ? Pouvions-nous encore espérer bénéficier des atouts de la robotique militaire sans subir ses effets néfastes, tout en respectant l’éthique jusqu’à l’héroïsme propre à l’humain, mais sans dénaturer ce dernier ? En ce qui concerne l’humain, nous avons vu que les conditions qui mènent au désinvestissement éthique doivent être combattues en amont pour éviter l’apparition de comportements immoraux. Envoyer sur le terrain un soldat dont le caractère n’a pas intégré le respect de l’éthique et du droit n’est pas digne d’une nation démocratique. En ce qui concerne les robots, il semble manifeste que pour les tâches relevant pleinement des 3D, leur collaboration soit une bonne chose. Nul ne nierait qu’autonomiser davantage les tâches de reconnaissance en milieu hostile ou même la recherche et la destruction d’IED par des Packbots avec les précautions d’usage pour éviter les dégâts collatéraux (pas de présence humaine à une distance de sécurité) soient d’excellentes choses. Le contexte d’emploi est significatif au niveau moral. L’usage de robots sans supervision dotés exclusivement de contre-mesures non létales (tel que le lâcher de leurres) dans des contextes où l’homme est préalablement exclu ne nous semble pas moralement condamnable. Nous désignons par là des cyber-guerres, des guerres sous-marines entre systèmes robotiques ennemis, etc. En revanche, doter les robots, même télé-opérés, de capacités létales pour un usage dans des guerres asymétriques et potentiellement en contexte urbain encourage la violence et empêche d’obtenir une paix durable, nous l’avons vu. Nous voyons mal comment la libération de ces mêmes systèmes d’armes létaux de leur supervision humaine en les dotant de quelques « fusibles éthiques » pourrait inverser cette tendance. Le critère complété de Foerster nous a permis d’envisager que les drones et autres robots soient dotés d’armes non létales pour augmenter la gamme de réponses possibles. Il est évident qu’un drone, même autonome, qui ne serait doté que de capacités strictement non létales telles que l’émission de gaz lacrymogènes, haut-parleurs émettant des sons désagréables, etc. ne provoqueraient pas les mêmes effets désastreux que les drones de combat et constituerait un progrès. La meilleure solution est sans doute celle rêvée par John S. Canning d’un robot capable de désarmer physiquement un adversaire en neutralisant son arme. Une telle réalisation ferait progresser le respect de l’éthique militaire sur le champ de bataille tout en assurant la sécurité de nos soldats et des populations civiles, mais elle demeure malheureusement un rêve à ce jour. La programmation éthique de la robotique de son côté pourrait être poursuivie avec fruit pour le respect de la morale, même si une telle programmation n’aurait pas vocation à être utilisée sur le terrain, à cause de son incomplétude par nature. Elle pourrait directement contribuer à la formation éthique des soldats si elle était utilisée à la manière des simulateurs de vols pour les pilotes. En présentant un ensemble de situations qui se sont déjà produites, 9 une simulation virtuelle placerait le soldat dans la situation de devoir choisir les meilleures options au cours de séances d’entraînement du jugement éthique. De cette manière, au lieu de déléguer à la machine le soin de penser et d’agir à sa place, ce qui appauvrirait encore la capacité de délibération éthique de l’individu et ferait croître le désengagement moral, elle le formerait à faire usage de cette capacité. La programmation éthique utilisée comme simulateur pourrait donc entraîner les bons habitus chez le soldat, l’entraîner à pratiquer sa vertu de phronèsis. Ce faisant, on pourrait voir surgir des comportements humains inédits pour répondre à des situations éthiques complexes. La créativité humaine dans la prise de décisions innovantes face à des situations complexes pourrait s’appliquer sans risquer sa propre vie. Nous pourrions apprendre davantage sur les mécanismes de prise de décision morale puisque ces « entrainements éthiques » auraient lieu dans des conditions qui sont tout autant des exercices que des expériences. Nous savons que nous apprenons par renforcement, l’éthique n’échappe pas à cette règle, un « simulateur d’éthique » à l’image du « simulateur de vol » ne remplacera pas le soldat sur le terrain comme il n’a pas supprimé le pilote sur les avions de ligne. Certaines fonctions simples et répétitives dans les situations qui ne sont pas des « crises » ont été automatisées. De même les fonctions « techniques », « sales, répétitives et dangereuses » en dehors des situations de crises doivent pouvoir bénéficier des bienfaits de la technologie, mais en conservant toujours une supervision humaine au cas où justement une crise se présenterait. Si l’humain peut légitimement être « au dessus » de la boucle en temps normal pour ces tâches « 3D », il devrait tout autant légitimement pouvoir rentrer dans la boucle en cas d’incident. L’automatisation de l’éthique ne permettra pas à une machine d’être un agent moral autonome qui satisfera toutes nos attentes morales, mais nous pouvons programmer un simulateur éthique pour entraîner l’individu à acquérir une virtuosité éthique avec un minimum de risque pour sa propre vie. Voilà comment la robotique militaire éthique permettrait de manière optimale de protéger les populations des dommages collatéraux et à nos Etats de gagner une guerre asymétrique. C’est là où l’informatique pourra déployer toute sa puissance, pour reproduire des situations déjà présentées et mémoriser quelle aurait été l’attitude optimale à adopter, et à quel moment. Créons des robots enseignant aux humains les meilleurs comportements éthiques qu’ont pu présenter leurs semblables. Enfin, il est un élément qui résume peut-être notre recherche de la moralité à la guerre, pour déterminer qui doit prendre la décision du tir létal, qui est en mesure de contrôler sa force pour ne pas tomber dans la violence. Un officier devrait être capable de raconter les souvenirs de ses actions à ses petits-enfants sans en avoir honte. Cette ligne de conduite regroupe la responsabilité, la capacité de dire « je », l’accès au sens, la dimension sociale de la morale et la difficulté du jugement éthique. Pour qu’il y ait morale, l’individu en fait un récit, nous l’avons vu notamment avec Whitby et Parthemore. Or, le récit de l’action s’inscrit dans un contexte global, il nécessite un auteur de l’action, un narrateur, un message doté de sens, un auditoire pour l’interpréter, et surtout une motivation qui donne sens à la volonté de conserver une conduite droite en toute circonstance. Nous retrouvions tout cela dans ce bon sens issu du témoignage d’un officier à Benoit Royal. Plutôt que de s’en remettre à des processus algorithmiques restreints, peut-être est-ce à ce genre d’homme doté d’une conscience bien formée à qui il convient de confier le droit d’user de la force létale en conformité avec les valeurs démocratiques qui l’envoient. 10