Éthique et réglementation de l'IA : défis et biais présentés

Telechargé par Hafedh Gaha
Par Dr. Hafedh GAHA
Hafedh.g[email protected]com.tn
1. Big Data, Intelligence Artificielle (IA), transformation
numérique, nouvelles technologies.
2. Créer des technologies et des algorithmes sur mesure pour
analyser et valoriser les données de votre commune.
3. Crée des solutions innovantes en valorisation de données et
en gestion intégrée de documents (GID), adaptées aux
besoins de nos cytoyens.
COHABITER AVEC L’INTELLIGENCE ARTIFICIELLE :
GLEMENTATION ET ÉTHIQUE
Dans le débat public contemporain, l’Intelligence Artificielle (IA) désigne une nouvelle catégorie
d’algorithmes utilisant des techniques « d’apprentissage ». Les instructions ne sont plus celles
programmées par l’humain, mais générées par la machine capable « d’apprendre ». Si ces
algorithmes sont capables de réussir de grandes tâches et même dépasser l’intelligence humaine,
leur logique sous-jacente reste opaque. La révolution de l’intelligence artificielle nous force à
repenser la façon dont nos sociétés sont organisées. Éducation, justice, santé, culture, tous les
domaines vont évoluer et se transformer. Plus de détections de nos maladies, des tâches pénibles
en moins, des voitures autonomes, notre quotidien semble s’améliorer malgré une certaine
méfiance des citoyens.
Comment cohabiter avec l’arrivée de ces algorithmes dans notre quotidien ?
Le rapport du CNIL ( Conseil National de l’Informatique et des Libertés) sur les risques et les enjeux
de l’IA présenté il y a quelques mois donne des pistes de réponse. Ce sont 60 entreprises qui se
sont rassemblées entre janvier et octobre 2017 pour discuter des préoccupations éthiques et des
recommandations.
En interrogeant la société sur l’intelligence artificielle, on constate deux réactions normales face à
l’inconnu : peur et incompréhension. En priorité, les citoyens craignent la perte de prise de décision
de l’humain, mais également l’appréhension face à la collecte d’informations personnelles.
Beaucoup accusent le fait de ne pas comprendre comment cela fonctionne et y voit un argument
vers la déresponsabilisation.
Quelles sont les grandes questions éthiques ?
L’éthique est une réflexion sur les valeurs qui orientent et motivent nos actions dans nos
rapports à autrui. Mais qu’en est-il lorsqu’on parle de machines, d’algorithme et
d’intelligence artificielle ? La machine est-elle capable de gérer les exceptions et
incertitudes, comme l’humain ? Peut-elle avoir un sentiment d’humanité comme ceux qui
influencent nos choix en tant d’être humain ?
Nous allons nous interroger à 5 enjeux éthiques soulevés par l’Intelligence Artificielle.
Enjeu 1 : Déléguer, mais jusqu’où ?
L’intelligence artificielle peut accomplir automatiquement une tâche ou une opération impliquant une forme d’intelligence qui serait
autrement effectuée directement par l’homme. Cela revient donc à déléguer des tâches à des systèmes automatiques. À priori,
éliminer des tâches pénibles, c’est plutôt une bonne nouvelle. Mais qu’en est-il d’un diagnostic vital automatisé ? Il apparaît
évident que l’implication éthique va dépendre de l’ampleur et des modalités de la tâche. Peut-on tout déléguer ?
D’abord l’ampleur rentre en ligne de compte. S’il s’agit de classer par ordre alphabétique des fichiers ou éliminer des doublons, il
est facile d’y trouver uniquement des avantages. Nous supprimerons ainsi des tâches rébarbatives et anodines au profit d’un gain
de temps. À l’opposé, si on parle de diagnostic vital, la prise de décision devient décisive et cette tâche s’avère complexe à
déléguer à un algorithme. Entre ces deux extrêmes se déploie un large spectre de situations contrastées, il faut donc définir des
limites et encadrer selon le cas. Ce qui nous amène au second point : les modalités. Quel degré d’autonomie possède le système
automatisé, en particulier sa capacité ou non d’élaborer ses propres critères de fonctionnement ? Dans cette perspective, ce type
de système doit s’envisager dans certains domaines (santé, juridique, conflit armé) comme une aide et un accompagnement à la
prise de décision. Il est essentiel que les étapes de conception (paramétrage, développement, codage) ne s’autonomisent pas
abusivement au point de devenir le lieu de la prise de décision.
Enjeu 2 : Qui est responsable ?
Certaines études ont montré que l’intelligence artificielle serait supérieure à l’homme pour le diagnostic de certains
cancers et l’analyse de radiographies. Le rapport du CNIL déclare qu' »il pourrait donc devenir hasardeux pour un
médecin d’établir un diagnostic ou de faire un choix thérapeutique autre que celui recommandé par la machine, laquelle
deviendrait dès lors le décideur effectif. Dans ce cas, se pose alors la question de la responsabilité. Celle-ci doit-elle
être reportée sur la machine elle-même, qu’il s’agirait alors de doter d’une personnalité juridique ? Sur ses concepteurs
? Doit-elle être encore assumée par le médecin ? ».
La question se pose dans le cas de l’algorithme déterministe qui implique forcément un parti pris. Comment choisit-il
entre deux vies par exemple ? Sacrifier le passager ou bien un piéton sur la route ? Un dilemme que l’humain règlerait
en temps réel doit maintenant se décider avant et par d’autres. Et même si une « réglementation algorithmique »
encadrait la prise de décisions, ne serait-elle pas justement un attrait pour les décideurs eux-mêmes qui seraient ainsi
déresponsabilisés ? Déléguer des décisions à une machine induit rapidement une exemption de la nécessité de rendre
compte de ses choix. L’utilisation d’armes létales autonomes dans un conflit armé ne finira-t-elle pas par engendrer
notre extinction ? « L’homme est un loup pour l’homme » écrivait Hobbes. Créer des machines capables de tuer, c’est
aussi menacer notre humanité. L’acte de tuer, légitime dans une situation de conflit armé international mais traumatique
ne doit-il pas rester sous le contrôle de l’homme évitant ainsi toute dérive ?
Rand Hindi, fondateur de Snips et passionné de Big Data explique ainsi que « les IA font moins d’erreurs que les
humains mais elles font des erreurs là où des humains n’en auraient pas fait. C’est ce qui est arrivé avec l’accident de
la voiture autonome de Tesla, qui ne serait jamais arrivé avec un humain ». Doit-on attribuer une personnalité juridique
à ces systèmes ou faire endosser la responsabilité à l’utilisateur ?
Lorsqu’il s’agit de machine learning spécifiquement, les enjeux de responsabilité et de décision sont différents. Le
rapport considère qu’il faut employer le terme de « chaîne de responsabilités, depuis le concepteur du système jusqu’à
son utilisateur, en passant par celui qui va entraîner ce système apprenant ». En fonction des données qui lui auront
été fournies, ce dernier se comportera différemment, c’est donc bien sur ce point que l’homme doit agir et garder la
main.
1 / 16 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans l'interface ou les textes ? Ou savez-vous comment améliorer l'interface utilisateur de StudyLib ? N'hésitez pas à envoyer vos suggestions. C'est très important pour nous!