d’approche de ce système que par leurs méthodologies variées, à tel point que les
finalités de l’évaluation éthique de l’IA apparaissent également variées. L’impression
diffuse face à l’abondante littérature académique consacrée à ces thématiques est
même parfois celle d’une profusion peu organisée. Cet état de fait peut certes être
provoqué par la nouveauté des inventions techniques dont traite cette littérature. Il
est cependant permis de soutenir que cela est dû à l’objet que l’on cherche à évaluer,
l’intelligence artificielle, terme qui de lui-même se présente de manière complexe et
difficile à appréhender de manière univoque, voire unique. En effet, la notion
d’intelligence artificielle comprend certes l’écriture du code informatique et la
conception des algorithmes, mais également leur mise en œuvre à partir de capteurs
de différentes sortes, cette association produisant des données mises en réseau par le
biais du numérique (réseaux et plateformes). Doivent encore être ajoutées toutes les
expressions robotiques qui en sont possibles, ce qui peut prendre des formes variées,
qu’elles soient anthropomorphes ou non. L’expression «!éthique de l’IA!», si on veut
l’entendre de manière complète, doit donc être entendue comme «!éthique de l’IA, de
la robotique, du numérique & de la donnée!». Il est possible, au vu de l’extension d’un
tel domaine, que l’imprécision relative ou la sous-qualification actuelles de l’éthique
de l’IA proviennent de la variété des phénomènes compris sous le terme
d’intelligence artificielle.
Si elles apparaissent variées, les recherches en éthique de l’IA ont comme finalité
commune d’être menées par des instances savantes qui énoncent les conditions de
l’évaluation éthique. Compte tenu de cette caractérisation, elles peuvent être
appréhendées comme des «!formations discursives!» ou des «!discursivités!», par
référence à la signification donnée par Michel Foucault à ces termes alors qu’il posait
les bases de la relation qu’entretiennent savoir et pouvoir (Foucault, 1969,
chapitre!2). Lorsqu’il l’a employée, Foucault semble avoir librement interprété une
notion héritée de la linguistique (Maingeneau, 2011). Dans une perspective post-
marxiste, il l’a orientée vers une nouvelle phénoménologie du pouvoir, susceptible de
dépasser le point de vue individuel au profit de formes sociales, appelées
«!discours!», qui dans tel ou tel domaine (par exemple le domaine académique),
expriment l’autorité légitime, entrent en compétition en installant des formes de
contrôle sur la réalité et tendent à revendiquer l’hégémonie sur les autres formes
(Sommerer, 2005). Les formations discursives rassemblent des thèmes cohérents
mais ne sont pas nécessairement homogènes, elles incluent même des «!dispersions!»
et des «!transformations liées et hiérarchisées!» (Foucault, 1969, p.!52).
4
Une telle approche fournit l’opportunité de concevoir les productions académiques
en éthique de l’IA dans une perspective à la fois épistémologique, sociale et politique,
et présente les discussions académiques comme autant d’expressions d’une volonté à
la fois évaluative et prescriptive adressée à l’intelligence artificielle à partir de
l’autorité de la science qui la produit, ou plus exactement à partir de celle des divers
discours scientifiques accompagnant son développement. Se produit par ce processus
la «!fabrique conjointe des sciences et de la société!» (Bonneuil & Joly, 2013).
5
Nous soutenons plus exactement l’hypothèse que quatre types de formations
discursives, irréductibles les unes aux autres, se partagent actuellement le champ de
l’évaluation éthique de l’IA. Dans le développement de cet article, nous entreprenons
de caractériser ces quatre formes de discours, avant d’examiner leurs relations. Il
convient auparavant d’examiner la situation plus générale de ce qu’on nomme
l’éthique de l’IA et d’identifier certains éléments de contexte dans lequel elle se
déploie. Elle représente en effet un domaine encore mal qualifié en regard d’une
attente sociale considérable, ce qui place cette entreprise dans une situation
6