Enjeu 2 : Qui est responsable ?
•Certaines études ont montré que l’intelligence artificielle serait supérieure à l’homme pour le diagnostic de certains
cancers et l’analyse de radiographies. Le rapport du CNIL déclare qu' »il pourrait donc devenir hasardeux pour un
médecin d’établir un diagnostic ou de faire un choix thérapeutique autre que celui recommandé par la machine, laquelle
deviendrait dès lors le décideur effectif. Dans ce cas, se pose alors la question de la responsabilité. Celle-ci doit-elle
être reportée sur la machine elle-même, qu’il s’agirait alors de doter d’une personnalité juridique ? Sur ses concepteurs
? Doit-elle être encore assumée par le médecin ? ».
• La question se pose dans le cas de l’algorithme déterministe qui implique forcément un parti pris. Comment choisit-il
entre deux vies par exemple ? Sacrifier le passager ou bien un piéton sur la route ? Un dilemme que l’humain règlerait
en temps réel doit maintenant se décider avant et par d’autres. Et même si une « réglementation algorithmique »
encadrait la prise de décisions, ne serait-elle pas justement un attrait pour les décideurs eux-mêmes qui seraient ainsi
déresponsabilisés ? Déléguer des décisions à une machine induit rapidement une exemption de la nécessité de rendre
compte de ses choix. L’utilisation d’armes létales autonomes dans un conflit armé ne finira-t-elle pas par engendrer
notre extinction ? « L’homme est un loup pour l’homme » écrivait Hobbes. Créer des machines capables de tuer, c’est
aussi menacer notre humanité. L’acte de tuer, légitime dans une situation de conflit armé international mais traumatique
ne doit-il pas rester sous le contrôle de l’homme évitant ainsi toute dérive ?
•Rand Hindi, fondateur de Snips et passionné de Big Data explique ainsi que « les IA font moins d’erreurs que les
humains mais elles font des erreurs là où des humains n’en auraient pas fait. C’est ce qui est arrivé avec l’accident de
la voiture autonome de Tesla, qui ne serait jamais arrivé avec un humain ». Doit-on attribuer une personnalité juridique
à ces systèmes ou faire endosser la responsabilité à l’utilisateur ?
• Lorsqu’il s’agit de machine learning spécifiquement, les enjeux de responsabilité et de décision sont différents. Le
rapport considère qu’il faut employer le terme de « chaîne de responsabilités, depuis le concepteur du système jusqu’à
son utilisateur, en passant par celui qui va entraîner ce système apprenant ». En fonction des données qui lui auront
été fournies, ce dernier se comportera différemment, c’est donc bien sur ce point que l’homme doit agir et garder la
main.