Éthique de l'IA : Quatre cadres éthiques en anthropologie

Telechargé par schoolrracademic
20/03/2025 5:41AMLes quatre éthiques de l’intelligence artificielle
Page 1 sur 25https://journals.openedition.org/rac/29961
Accueil Numéros 17-2 Varia Les quatre éthiques de l’intellig...
Revue d’anthropologie des
connaissances
17-2!|!2023
Les nouveaux vecteurs de la crédibilité scientifique à l’interface entre mondes
sociaux
Varia
Les quatre éthiques de
l’intelligence artificielle
The four ethics of artificial intelligence
Las cuatro éticas de la inteligencia artificial
THIERRY MÉNISSIER
https://doi.org/10.4000/rac.29961
Résumés
Français English Español
L'objectif de cet article est de contribuer à clarifier la notion d’éthique de l’intelligence
artificielle (IA). Pour réaliser cette tâche, il examine l’hypothèse que quatre formes de discours
sont à l’œuvre, si bien qu’il existe quatre éthiques de l’IA!: éthique informatique!; éthique
algorithmique, robotique ou artificielle!; éthique digitale!; et éthique des usages de l’IA (ou UX
AI ethics). Ces formes sont mises en œuvre par des spécialistes de domaines académiques
variés, et elles diffèrent pour plusieurs raisons analysées dans l’article. En clarifiant la nature
de chaque discours, en définissant leur régime méthodologique, en délimitant leur portée
respective, il est possible de leur adresser un questionnement en regard des finalités
généralement assignées à l’éthique.
The aim of this article is to contribute to the clarification of the notion of ethics of artificial
intelligence (AI). To achieve this task, it examines the hypothesis that four forms of discourse
are at work, so that there are four AI ethics: computer ethics; algorithmic ethics; robotic or
artificial ethics; digital ethics; and ethics of AI uses (or UX AI ethics). These forms are
implemented by specialists from various academic fields, and they differ for several reasons
analyzed in the article. By clarifying the nature of each discourse, by defining their
methodological regime, by delimiting their respective scope, it is possible to question them
with regard to the aims generally assigned to ethics.
El objetivo de este artículo es contribuir a aclarar la noción de ética de la inteligencia artificial
Français
Portail de ressources électroniques
en sciences humaines et sociales
OPENEDITION
Nos plateformes
OPENEDITION BOOKS
OPENEDITION JOURNALS
HYPOTHESES
CALENDA
Bibliothèques et institutions
OpenEdition Freemium
Nos services
20/03/2025 5:41AMLes quatre éthiques de l’intelligence artificielle
Page 2 sur 25https://journals.openedition.org/rac/29961
(IA). Para llevar a cabo esta tarea, se examina la hipótesis de que existen cuatro formas de
discurso, de modo que hay cuatro éticas de la IA: la ética informática; la ética algorítmica,
robótica o artificial; la ética digital; y la ética de los usos de la IA (o UX AI ethics). Estas formas
son aplicadas por especialistas de diversos ámbitos académicos, y difieren por varias razones
que se analizan en el artículo. Aclarando la naturaleza de cada discurso, definiendo su régimen
metodológico y delimitando sus respectivos ámbitos de aplicación, es posible cuestionarlos en
relación con los fines que generalmente se asignan a la ética.
Entrées d’index
Mots-clés : intelligence artificielle, éthique, algorithme, robotique, codesign, expérience
usager
Keywords: artificial intelligence, ethics, algorithm, robotics, codesign, user experience
Palabras claves: inteligencia artificial, ética, algoritmo, robótica, codiseño, experiencia de
usuario
Texte intégral
Introduction
Nous souhaitons dans cet article examiner l’hypothèse selon laquelle ce qu’on
entend par «!éthique de l’intelligence artificielle!» constitue un domaine dominé, sur
le plan académique de la recherche scientifique, par plusieurs types de discours,
irréductibles les uns aux autres. Or, si l’on peut aisément dresser le constat qu’il
existe aujourd’hui un phénomène social lié à l’éthique de l’IA, et si l’emploi de cette
expression paraît devenu généralisé1, ce qu’on entend par cette expression demeure
relativement imprécis et insuffisamment qualifié. Nous voulons dans cette
contribution caractériser les discours qui œuvrent actuellement à donner corps à
cette expression. L’examen de ces discours interroge leur raison d’être et conduit à
leur adresser des «!critiques constructives!» en fonction de ce qui est généralement
attendu de l’éthique (Heilinger, 2022).
1
Génériquement entendue, la notion d’éthique renvoie à une entreprise de type
évaluatif, qui souvent coordonne trois dimensions!: (1)!la définition d’un sens qui
apparaît éclairant pour l’action!; (2)!le choix de valeurs considérées comme bonnes!;
(3)!la formulation de principes et de règles. La relation entre ces éléments permet de
produire l’évaluation justifiée d’une décision ou d’une action. La forme de
raisonnement conduisant à une telle évaluation peut différer entre des
argumentations de type conséquentialiste (privilégiant l’examen de la relation entre
les causes et les conséquences de l’action), déontologiste (mettant l’accent sur le
respect de certaines règles), axiologique ou arétaïque (selon qu’elles privilégient la
justification à partir de valeurs ou bien de la recherche de vertus) (Ogien & Tappolet,
2008). L’ambition de l’évaluation éthique peut également varier, selon qu’elle se
borne à souligner ce qui apparaît risqué, nocif ou dangereux (limitation volontaire
nommée «!minimalisme moral!») ou qu’elle envisage d’améliorer la situation en
fonction d’une valeur, par exemple le bien ou le juste («!maximalisme moral!»)
(Ogien, 2007).
2
L’éthique de l’IA est l’éthique appliquée qui concerne l’évaluation des systèmes
scientifiques, techniques et sociaux qui sont concernés par les algorithmes. Les
auteurs et autrices qui œuvrent à cette tâche se distinguent tant par leurs angles
3
ACCUEIL
CATALOGUE
DES 655
REVUES
OPENEDITION SEARCH
Tout
OpenEdition
20/03/2025 5:41AMLes quatre éthiques de l’intelligence artificielle
Page 3 sur 25https://journals.openedition.org/rac/29961
d’approche de ce système que par leurs méthodologies variées, à tel point que les
finalités de l’évaluation éthique de l’IA apparaissent également variées. L’impression
diffuse face à l’abondante littérature académique consacrée à ces thématiques est
même parfois celle d’une profusion peu organisée. Cet état de fait peut certes être
provoqué par la nouveauté des inventions techniques dont traite cette littérature. Il
est cependant permis de soutenir que cela est à l’objet que l’on cherche à évaluer,
l’intelligence artificielle, terme qui de lui-même se présente de manière complexe et
difficile à appréhender de manière univoque, voire unique. En effet, la notion
d’intelligence artificielle comprend certes l’écriture du code informatique et la
conception des algorithmes, mais également leur mise en œuvre à partir de capteurs
de différentes sortes, cette association produisant des données mises en réseau par le
biais du numérique (réseaux et plateformes). Doivent encore être ajoutées toutes les
expressions robotiques qui en sont possibles, ce qui peut prendre des formes variées,
qu’elles soient anthropomorphes ou non. L’expression «!éthique de l’IA!», si on veut
l’entendre de manière complète, doit donc être entendue comme «!éthique de l’IA, de
la robotique, du numérique & de la donnée!». Il est possible, au vu de l’extension d’un
tel domaine, que l’imprécision relative ou la sous-qualification actuelles de l’éthique
de l’IA proviennent de la variété des phénomènes compris sous le terme
d’intelligence artificielle.
Si elles apparaissent variées, les recherches en éthique de l’IA ont comme finalité
commune d’être menées par des instances savantes qui énoncent les conditions de
l’évaluation éthique. Compte tenu de cette caractérisation, elles peuvent être
appréhendées comme des «!formations discursives!» ou des «!discursivités!», par
référence à la signification donnée par Michel Foucault à ces termes alors qu’il posait
les bases de la relation qu’entretiennent savoir et pouvoir (Foucault, 1969,
chapitre!2). Lorsqu’il l’a employée, Foucault semble avoir librement interprété une
notion héritée de la linguistique (Maingeneau, 2011). Dans une perspective post-
marxiste, il l’a orientée vers une nouvelle phénoménologie du pouvoir, susceptible de
dépasser le point de vue individuel au profit de formes sociales, appelées
«!discours!», qui dans tel ou tel domaine (par exemple le domaine académique),
expriment l’autorité légitime, entrent en compétition en installant des formes de
contrôle sur la réalité et tendent à revendiquer l’hégémonie sur les autres formes
(Sommerer, 2005). Les formations discursives rassemblent des thèmes cohérents
mais ne sont pas nécessairement homogènes, elles incluent même des «!dispersions!»
et des «!transformations liées et hiérarchisées!» (Foucault, 1969, p.!52).
4
Une telle approche fournit l’opportunité de concevoir les productions académiques
en éthique de l’IA dans une perspective à la fois épistémologique, sociale et politique,
et présente les discussions académiques comme autant d’expressions d’une volonté à
la fois évaluative et prescriptive adressée à l’intelligence artificielle à partir de
l’autorité de la science qui la produit, ou plus exactement à partir de celle des divers
discours scientifiques accompagnant son développement. Se produit par ce processus
la «!fabrique conjointe des sciences et de la société!» (Bonneuil & Joly, 2013).
5
Nous soutenons plus exactement l’hypothèse que quatre types de formations
discursives, irréductibles les unes aux autres, se partagent actuellement le champ de
l’évaluation éthique de l’IA. Dans le développement de cet article, nous entreprenons
de caractériser ces quatre formes de discours, avant d’examiner leurs relations. Il
convient auparavant d’examiner la situation plus générale de ce qu’on nomme
l’éthique de l’IA et d’identifier certains éléments de contexte dans lequel elle se
déploie. Elle représente en effet un domaine encore mal qualifié en regard d’une
attente sociale considérable, ce qui place cette entreprise dans une situation
6
20/03/2025 5:41AMLes quatre éthiques de l’intelligence artificielle
Page 4 sur 25https://journals.openedition.org/rac/29961
Éthique informatique
particulière. L’horizon social d’attente vis-à-vis des algorithmes, de la robotique, du
numérique et des données peut en effet être qualifié de large et de profond. D’une
part, il n’existe apparemment pas de domaines de l’activité ou de sphères de
l’existence humaine qui puissent être préservées du développement de ces nouvelles
technologies. De l’autre, ces dernières sont susceptibles de transformer
profondément aussi bien ces domaines d’activité que certaines de ces sphères!: le
social comme l’intime peuvent en être bouleversés. La mobilité, la production et la
distribution de l’énergie, la santé, la défense et la sécurité, la médecine et l’assistance
aux personnes, les communications publiques et privées sont aujourd’hui déjà sous-
tendues par ces technologies. En regard d’une telle ampleur, l’éthique appliquée à
l’IA se donne pour tâche d’en garantir les usages non nocifs ou bons. On a récemment
pu écrire qu’elle se trouve actuellement dans une situation comparable à la
bioéthique à ses commencements, selon une analogie qui, aux yeux des experts,
apparaît tentante et légitime mais rencontre certaines limites (Chatila, 2022!;
Froidevaux & Adda, 2022).
En formulant l’hypothèse que la réflexion éthique relative à l’intelligence artificielle
prend aujourd’hui quatre formes distinctes, nous entendons souligner que ces
discursivités peuvent être identifiées comme les éthiques particulières qui s’en
préoccupent. Ce sont les quatre discours suivants!: la Computer ethics s’attache aux
concepts et aux valeurs éthiques destinés à régir l’écriture informatique!; il s’agit de
l’éthique du code ou dans le code. La Robot ethics ou Artificial ethics, également
nommée «!éthique algorithmique!», vise la programmation des artefacts intelligents
destinés à agir entre eux et en société. La Digital ethics entend réguler le numérique,
qu’il s’agisse de la conception ou de l’usage des réseaux, des plateformes et des
interactions permises par ces outils. Enfin l’éthique des usages de l’IA (que nous
proposons de nommer UX AI ethics) est destinée à évaluer les expériences
d’implémentation et de déploiement de l’IA dans les secteurs très variés de l’activité
sociale où cette tendance se fait jour.
7
Les quatre éthiques de l’IA correspondent à des types d’opérateurs différents,
véritables parties prenantes (stakeholders) du «!monde de l’IA!», cette expression
recouvrant une réalité sociale complexe, organisée, notamment, par la classification
des savoirs académiques. La différence entre les formations discursives tient en effet
pour partie à la division sociale du travail scientifique. L’éthique informatique
concerne en effet les concepteurs du code, mathématiciens-informaticiens!; l’éthique
artificielle, les roboticiens!; l’éthique numérique, les concepteurs des réseaux et des
plateformes!; l’éthique des usages de l’IA voit les social scientists (sociologues,
psychologues sociaux, philosophes de l’éthique, des techniques et de la politique,
spécialistes des sciences de l’information et de la communication, du marketing,
juristes) proposer des éléments de réflexion et de régulation à partir des productions
(algorithmes, robots, réseaux et plateformes) conçues par les trois premières
catégories d’acteurs. Du fait de cette sectorisation professionnelle, ces formations
discursives peuvent être qualifiées de particulières. En entreprenant de les
caractériser, on peut établir que les objets qu’elles se donnent, ainsi que les méthodes
qui sont les leur, les rendent non seulement différentes, mais aussi
fondamentalement irréductibles les uns aux autres.
8
L’expression «!éthique informatique!» (Computer ethics) désigne le travail des
9
20/03/2025 5:41AMLes quatre éthiques de l’intelligence artificielle
Page 5 sur 25https://journals.openedition.org/rac/29961
mathématiciens-informaticiens, elle concerne l’écriture du code et se confond avec
une double volonté exprimée par cette classe de savants et d’ingénieurs!: d’une part,
celle de comprendre et de maîtriser le fonctionnement leurs propres inventions!; de
l’autre, celle de s’assurer de la non-dangerosité de ces dernières, de fournir une
garantie de leur qualité pour un usage fiable.
L’approche éthique repose ici sur la détermination de concepts qui sont également
des valeurs dont on attend qu’elles guident l’écriture du code, et par suite permettent,
si l’on peut risquer cette expression, de rendre les algorithmes plus éthiques. Il
convient afin de qualifier cette démarche de préciser la signification des notions
opératoires que sont «!concept!», «!valeur!» et «!vertu!». Entendu en rigueur de
termes, un concept désigne une idée présentant un caractère descriptif satisfaisant et
permettant de ce fait la connaissance. Une valeur, une idée ayant un caractère
pratique2 et par suite permettant l’évaluation éthique de la décision et de l’action
(Orsi, 2015). Une vertu peut être définie comme une disposition individuelle attachée
à un être, qui se trouve socialement encouragée car reconnue comme favorisant ce
qui est considéré comme juste, bon et conforme au bien (Hursthouse, 1999).
10
Les concepts les plus fréquemment employés dans la littérature informatique
consacrée à l’IA sont utilisés non seulement comme tels, c’est-à-dire comme des idées
caractérisées par une capacité de description des systèmes algorithmiques, mais
également comme des valeurs (et dans le cas de la Fairness comme une vertu) qui
permettent de les coder dans un sens éthiquement satisfaisant. Voici la liste des
concepts très fréquemment employés!:
11
explicabilité (Explainability),
interprétabilité (Interpretability),
redevabilité ou capacité d’un système algorithmique à rendre des comptes
(Accountability),
transparence (Transparency),
fiabilité (Trustworthiness),
confiance (Trust),
responsabilité, notamment dans l’expression Responsible Artificial
Intelligence,
équité (Fairness), souvent considérée comme une propriété attachée à
l’algorithme.
Une telle énumération peut déjà passer pour quelque chose de classique!: elle
constitue en effet la base notionnelle de l’abondante littérature aujourd’hui nommée
Explainable AI (XAI) (voir par exemple Gunning et al., 2019!; Vilone & Longo, 2021)
qui vise à clarifier les notions déployées en éthique informatique dans le but de
rendre compte et de comprendre de la démarche suivie lors de la conception des
algorithmes. Or, en dépit de cet aspect de familiarité, elle appelle plusieurs
commentaires. S’ils font aujourd’hui partie intégrante des éléments techniques du
discours de l’éthique informatique, dans leur très grande majorité, ces concepts
techniques possèdent également une acception courante. Comme celle-ci est
intuitivement parlante, l’usage de telles notions est susceptible de produire deux
effets. Le premier effet revient à créer de la confusion à partir des ambiguïtés qui
existent entre la signification courante et la signification technique!; le second, pour
les non-spécialistes de l’IA, est de faire perdre de vue leur signification technique,
laquelle conditionne pourtant l’accès au sens que leur donnent les concepteurs de
l’IA. Ce risque de confusion entre les acceptions courantes et techniques apparaît
toutefois susceptible de provoquer en faveur des concepteurs de l’IA certains effets en
12
1 / 25 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans l'interface ou les textes ? Ou savez-vous comment améliorer l'interface utilisateur de StudyLib ? N'hésitez pas à envoyer vos suggestions. C'est très important pour nous!