5
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres
sont en contradiction avec la première loi.
- Un robot doit protéger son existence dans la mesure où cette protection n'est pas
en contradiction avec la première ou la deuxième loi.
Conscient que ces lois ne soient pas suffisantes à une définition précise de cette philosophie,
elles sont cependant précieuses dans l’application de l’intelligence artificielle aux bénéfices de
l’humanité.
II. Quand la machine rencontre la morale
L’IA face à des décisions morales
Le propre de l’IA est d’exercer un apprentissage, à la manière de l’Homme, afin de
pouvoir prendre les meilleures décisions concernant son domaine d’activité. Or en lui attribuant
des responsabilités jusqu’ici humaines, l’IA s’expose à prendre des décisions morales. La
« Google Car », par exemple, se donne pour objectif de transporter, en toute sécurité et sans
chauffeur, des passagers à l’intérieur d’une voiture munis d’une intelligence artificielle.
Imaginons qu’un jour, dans des conditions particulières, un enfant traverse soudainement la
route, la distance est trop courte pour s’arrêter. Le système se retrouve donc en face d’un
dilemme éthique : percuter l’enfant à pleine vitesse ou l’éviter et foncer dans un mur. Quelle
décision fera le moins de dégâts humains ? La vie des passagers est-elle plus importante que
celle de l’enfant ? Cet exemple illustre parfaitement toute l’importance de l’existence d’une
moralité algorithmique dans ces machines.
Mais alors, quel statut moral doit-on attribuer à l’IA ? Définir à qui ou quoi s’adresse le
statut moral semble être la première étape de cette réflexion. D’après la Stanford Encyclopedia
of Philosophy, une entité à un statut moral si et seulement si son propres intérêt moral a une
certaine importance pour le bien-être de l'entité, de sorte qu’il puisse être lésé. Par exemple,
une pierre peut être lancée, cassée, sans que cela puisse avoir de l’importance pour elle. A
l’inverse l’Homme possède un statut moral et ne peut être traité de la sorte à partir du moment
où il va ressentir de la douleur. En revanche les machines ne bénéficient pas de morale depuis
que l’on peut modifier, copier, supprimer son programme sans que celui-ci éprouve de
l’importance dans ces faits. Bien que cette idée soit largement répandue dans notre société,
l’évolution de l’intelligence artificielle vient remettre en question cette conjecture. Philosophes
et scientifiques sont d’accord sur deux critères fortement liés au statut moral :
Sentience : désigne la capacité d'éprouver des choses subjectivement, d'avoir des
expériences vécues, des qualias.
Sapience : désigne la capacité liée à la haute intelligence, tel que la conscience de soi,
la tempérance ou la sincérité.
Or l’Homme attribue un statut moral aux animaux capables d’éprouver de la souffrance et donc
de la sentience. Les jeunes enfants, ou encore les adultes atteint de retard mental sévère, ne
satisfont pas les critères de la sapience, pour autant, ils sont de toute évidence, considérés
comme des personnes morales. Une machine sentiente capable de qualia serait donc
considérée comme une entité possédant un statut moral au même titre que les animaux. Or
l’intelligence artificielle aura bien vocation à se doter de ces deux critères de la morale. Cette
nouvelle ère hisserait l’IA à devenir une entité ayant le même statut moral que l’être humain
adulte. Une telle évaluation morale est appuyée par le Principe du Substrat de Non-