3
conduite éthique et action militaire, la simple existence de « l’éthique militaire » semblant à
certains n’être qu’un oxymore. Mais d’une machine ou d’un humain, lequel est effectivement
le plus moral, d’une part dans son comportement, d’autre part dans l’évaluation qui peut être
faite de sa présence sur le terrain ?
La question du jugement et de la prise de décision dans le cadre spécifique de la
guerre constitue un « cas limite » d’application de la toute-puissance des machines. Le choix
du militaire est aussi celui d’un agent pour qui la prise de décision implique parfois la vie ou
la mort. Pas simplement la mort qu’il donne ou la vie qu’il laisse, mais bien la vie ou la mort
de ses hommes qui dépendent de la pertinence de sa décision. Pour cet agent, la question du
choix, de la décision qu’il faut bien prendre au risque sinon de mourir certainement, et surtout
de la responsabilité qui en découle, n’est pas cruciale, elle est vitale. Nous opérerons un
rapprochement entre l’agissement de cet agent et le jugement prudent chez Aristote.
Au demeurant, si les systèmes d’armes létaux autonomes (ou SALA) sont capables
de décider de tirer, et par conséquent de remplacer le soldat sur le champ de bataille pour
certains, il reste à prouver que l’humain doive en être évacué. Il s’agit justement du jugement
moral, de l’application de l’éthique. Nous entendons par « éthique » la conduite d’une action
qui ne se limite pas au seul respect des règles de droits qui s’y appliquent, à savoir ici le droit
de la guerre international et les règles d’engagements qui diffèrent suivant les juridictions
nationales. Ce respect du droit, même scrupuleux, ne constitue pas une éthique mais un simple
légalisme. La position du Professeur Ronald Arkin, « roboéthicien » américain, soutient
pourtant que les robots militaires peuvent être plus éthiques que les humains en vertu de leur
application inconditionnelle du droit. Puisque l’éthique n’est pas le droit, comment un
homme, ici, le soldat, et particulièrement l’officier, peut-il prendre des décisions,
éventuellement différemment d’une machine, si tant est qu’elle en soit capable ?
En guise de « champ clos » où nous arbitrerons s’il existe une différence entre
décision humaine ou robotique, nous avons opté pour le champ d’honneur, terme exact à la
fois moral et guerrier puisque les deux doivent être associés, et comme champions en lice les
officiers d’une part contre les SALA. L’enjeu du duel concernait leur droit à décider et à agir,
mais toujours moralement. Ayant déterminé un contexte, un objet technologique et un type
d’homme dans l’arène, nous avons pu analyser les problèmes éthiques posés par le
remplacement de l’humain par des robots. En un mot comme en cent, peut-il être moral de
remplacer l’humain par des robots, particulièrement à la guerre ?
Une telle joute ne pouvait se faire en une seule manche, la thématique du
remplacement de l’humain par des robots, même plus particulièrement en contexte militaire,
ne saurait être envisagée dans tous ses aspects moraux sans croiser différents angles d’attaque.
Cette diversité s’avérait nécessaire car la dimension saisissante des « robots tueurs », comme
les journalistes les présentent, si elle n’était traitée engendrerait une frustration
compréhensible au lecteur qui chercherait une réflexion d’éthique appliquée. Tandis qu’à
celui qui souhaiterait une réflexion méta-éthique sur les robots moraux, la dimension
appliquée ne suffirait guère. C’est pourquoi d’une part il nous fallait établir un état des lieux
de la robotique militaire récente et préciser les difficultés langagières et conceptuelles
qu’induisent ces technologies. D’autre part, l’aspect moral et éthique de ces robots présuppose
une réflexion ontologique sur les qualités requises pour bénéficier d’un statut moral et pour
être reconnu tel un agent moral. Pour le dire autrement, nous avons déployé notre
problématique en nous attachant aux liens existants entre robotique et éthique. La première
étape visait à répondre à la question si « le robot pouvait-il être moral ? », c'est-à-dire dans un
premier temps s’il pouvait être un agent moral. Une fois les capacités robotiques comparées à
ces exigences, nous pouvions considérer de clore notre recherche, mais c’eût été oublier la
question pratique à laquelle certains auteurs tels qu’Allen et Wallach tentent de répondre
indépendamment de l’analyse ontologique, à savoir : « pouvons-nous construire un robot