Telechargé par Hafedh Gaha

municipalités et collectivités publiques

publicité
Par Dr. Hafedh GAHA
[email protected]
1. Big Data, Intelligence Artificielle (IA), transformation
numérique, nouvelles technologies.
2. Créer des technologies et des algorithmes sur mesure pour
analyser et valoriser les données de votre commune.
3. Crée des solutions innovantes en valorisation de données et
en gestion intégrée de documents (GID), adaptées aux
besoins de nos cytoyens.
COHABITER AVEC L’INTELLIGENCE ARTIFICIELLE :
RÉGLEMENTATION ET ÉTHIQUE
• Dans le débat public contemporain, l’Intelligence Artificielle (IA) désigne une nouvelle catégorie
d’algorithmes utilisant des techniques « d’apprentissage ». Les instructions ne sont plus celles
programmées par l’humain, mais générées par la machine capable « d’apprendre ». Si ces
algorithmes sont capables de réussir de grandes tâches et même dépasser l’intelligence humaine,
leur logique sous-jacente reste opaque. La révolution de l’intelligence artificielle nous force à
repenser la façon dont nos sociétés sont organisées. Éducation, justice, santé, culture, tous les
domaines vont évoluer et se transformer. Plus de détections de nos maladies, des tâches pénibles
en moins, des voitures autonomes, notre quotidien semble s’améliorer malgré une certaine
méfiance des citoyens.
• Comment cohabiter avec l’arrivée de ces algorithmes dans notre quotidien ?
• Le rapport du CNIL ( Conseil National de l’Informatique et des Libertés) sur les risques et les enjeux
de l’IA présenté il y a quelques mois donne des pistes de réponse. Ce sont 60 entreprises qui se
sont rassemblées entre janvier et octobre 2017 pour discuter des préoccupations éthiques et des
recommandations.
• En interrogeant la société sur l’intelligence artificielle, on constate deux réactions normales face à
l’inconnu : peur et incompréhension. En priorité, les citoyens craignent la perte de prise de décision
de l’humain, mais également l’appréhension face à la collecte d’informations personnelles.
Beaucoup accusent le fait de ne pas comprendre comment cela fonctionne et y voit un argument
vers la déresponsabilisation.
Quelles sont les grandes questions éthiques ?
• L’éthique est une réflexion sur les valeurs qui orientent et motivent nos actions dans nos
rapports à autrui. Mais qu’en est-il lorsqu’on parle de machines, d’algorithme et
d’intelligence artificielle ? La machine est-elle capable de gérer les exceptions et
incertitudes, comme l’humain ? Peut-elle avoir un sentiment d’humanité comme ceux qui
influencent nos choix en tant d’être humain ?
• Nous allons nous interroger à 5 enjeux éthiques soulevés par l’Intelligence Artificielle.
Enjeu 1 : Déléguer, mais jusqu’où ?
L’intelligence artificielle peut accomplir automatiquement une tâche ou une opération impliquant une forme d’intelligence qui serait
autrement effectuée directement par l’homme. Cela revient donc à déléguer des tâches à des systèmes automatiques. À priori,
éliminer des tâches pénibles, c’est plutôt une bonne nouvelle. Mais qu’en est-il d’un diagnostic vital automatisé ? Il apparaît
évident que l’implication éthique va dépendre de l’ampleur et des modalités de la tâche. Peut-on tout déléguer ?
D’abord l’ampleur rentre en ligne de compte. S’il s’agit de classer par ordre alphabétique des fichiers ou éliminer des doublons, il
est facile d’y trouver uniquement des avantages. Nous supprimerons ainsi des tâches rébarbatives et anodines au profit d’un gain
de temps. À l’opposé, si on parle de diagnostic vital, la prise de décision devient décisive et cette tâche s’avère complexe à
déléguer à un algorithme. Entre ces deux extrêmes se déploie un large spectre de situations contrastées, il faut donc définir des
limites et encadrer selon le cas. Ce qui nous amène au second point : les modalités. Quel degré d’autonomie possède le système
automatisé, en particulier sa capacité ou non d’élaborer ses propres critères de fonctionnement ? Dans cette perspective, ce type
de système doit s’envisager dans certains domaines (santé, juridique, conflit armé) comme une aide et un accompagnement à la
prise de décision. Il est essentiel que les étapes de conception (paramétrage, développement, codage) ne s’autonomisent pas
abusivement au point de devenir le lieu de la prise de décision.
Enjeu 2 : Qui est responsable ?
• Certaines études ont montré que l’intelligence artificielle serait supérieure à l’homme pour le diagnostic de certains
cancers et l’analyse de radiographies. Le rapport du CNIL déclare qu' »il pourrait donc devenir hasardeux pour un
médecin d’établir un diagnostic ou de faire un choix thérapeutique autre que celui recommandé par la machine, laquelle
deviendrait dès lors le décideur effectif. Dans ce cas, se pose alors la question de la responsabilité. Celle-ci doit-elle
être reportée sur la machine elle-même, qu’il s’agirait alors de doter d’une personnalité juridique ? Sur ses concepteurs
? Doit-elle être encore assumée par le médecin ? ».
• La question se pose dans le cas de l’algorithme déterministe qui implique forcément un parti pris. Comment choisit-il
entre deux vies par exemple ? Sacrifier le passager ou bien un piéton sur la route ? Un dilemme que l’humain règlerait
en temps réel doit maintenant se décider avant et par d’autres. Et même si une « réglementation algorithmique »
encadrait la prise de décisions, ne serait-elle pas justement un attrait pour les décideurs eux-mêmes qui seraient ainsi
déresponsabilisés ? Déléguer des décisions à une machine induit rapidement une exemption de la nécessité de rendre
compte de ses choix. L’utilisation d’armes létales autonomes dans un conflit armé ne finira-t-elle pas par engendrer
notre extinction ? « L’homme est un loup pour l’homme » écrivait Hobbes. Créer des machines capables de tuer, c’est
aussi menacer notre humanité. L’acte de tuer, légitime dans une situation de conflit armé international mais traumatique
ne doit-il pas rester sous le contrôle de l’homme évitant ainsi toute dérive ?
• Rand Hindi, fondateur de Snips et passionné de Big Data explique ainsi que « les IA font moins d’erreurs que les
humains mais elles font des erreurs là où des humains n’en auraient pas fait. C’est ce qui est arrivé avec l’accident de
la voiture autonome de Tesla, qui ne serait jamais arrivé avec un humain ». Doit-on attribuer une personnalité juridique
à ces systèmes ou faire endosser la responsabilité à l’utilisateur ?
• Lorsqu’il s’agit de machine learning spécifiquement, les enjeux de responsabilité et de décision sont différents. Le
rapport considère qu’il faut employer le terme de « chaîne de responsabilités, depuis le concepteur du système jusqu’à
son utilisateur, en passant par celui qui va entraîner ce système apprenant ». En fonction des données qui lui auront
été fournies, ce dernier se comportera différemment, c’est donc bien sur ce point que l’homme doit agir et garder la
main.
Enjeu 3 : Quel est l’impact à grande
échelle de ces algorithmes ?
• Les algorithmes à qui on délègue progressivement de plus en plus de tâches et de
décisions apparemment anodines constituent additionnées les unes aux autres l’étoffe de
notre quotidien. Le choix d’un trajet ou d’un restaurant en fonction de nos préférences se
fait grâce à un algorithme. Et si une décision prise par un individu influencé par
l’algorithme ne représente pas grand-chose, qu’en est-il lorsqu’on parle de milliers ou de
millions d’individus. Par exemple le choix d’un itinéraire en voiture, plus on est nombreux,
plus cela aura un impact sur le trafic urbain, donc sur les nuisances sonores, la pollution
et notre vie de facto. La somme des intérêts individuels peut rentrer ainsi en conflit avec
un intérêt commun défendu par les politiques publiques.
• De même une application qui proposerait des repas sains et équilibrés aura un impact
puissant dès lors qu’elle est utilisée par des millions d’utilisateurs sur les équilibres
économiques. Les prix de certains produits augmenteront, la production des produits
délaissés diminuera, on aurait une uniformité de la production agro-industrielle. Aussi un
point important est à prendre en compte : l’échelle de déploiement des algorithmes
informatiques. Anticiper les conséquences à grande échelle de la somme de choix
individuels doit constituer une préoccupation.
Enjeu 4 : Les algorithmes, une source de
biais et de discrimination ?
• Le cas du robot conversationnel Tay mis en place par Microsoft et suspendu au bout de 24 heures
parce qu’il avait tenu des propos racistes et sexistes avait créé la polémique. La propension des
algorithmes à générer des biais ou renforcer des discriminations s’est vite imposée comme un sujet
d’inquiétude.
• Un exemple choquant fut la photographie d’une Afro-américaine qui fut étiquetée sous le tag
« gorille ». Le dysfonctionnement de la reconnaissance faciale de Google réside dans le type de
données avec lesquelles l’algorithme a été entraîné, peut être essentiellement des photographies
de personnes blanches. Quant au biais, il a été mis en avant qu’Adsense qui génère de la publicité
en fonction du genre (un critère parmi d’autres) avait créé un biais au détriment des femmes qui se
sont vu proposer des offres d’emploi moins rémunérées que celles montrées aux hommes. Ce
résultat est probablement lié aux données que l’algorithme a reçues : les hommes auraient
tendance à cliquer sur les publicités annonçant les emplois les mieux rémunérés tandis que les
femmes n’oseraient pas. En réalité, ce biais sexiste de l’algorithme serait simplement la
reproduction d’un biais préexistant dans notre société.
• Le paramétrage des algorithmes peut donc être la source de biais et de discrimination et constitue
un défi majeur. Doit-on comprendre que l’intelligence artificielle est un effet miroir de notre société ?
Comment créer un algorithme respectueux de nos valeurs démocratiques ? Cela interroge sur la
qualité, la quantité et la pertinence des données que nous transmettons à l’algorithme.
Enjeu 5 : La personnalisation, est-ce
uniquement l’amélioration de l’expérience
citoyen ?
• La personnalisation vise à l’amélioration de l’expérience de navigation des internautes
grâce aux cookies. C’est grâce à eux qu’Airbnb par exemple cible vos attentes et
recommande un appartement à louer à Montréal car vous venez d’acheter un billet
d’avion vers cette destination.
• Alors, effectivement les algorithmes agiraient comme une bulle filtrante en fonction de nos
profils, nos recherches, nos « likes »… Cette action augmente ainsi la propension à rester
enfermé dans une bulle où on n’accède qu’à ce qui correspond à ses propres goûts. En
conséquence, nous tendons à devenir notre « alter égo numérique » ce qui nuit en fait au
pluralisme et à la diversité culturelle. « L’algorithme ne serait pas un facteur
d’enrichissement et de découverte, mais plutôt de reconduction du monde » d’après le
rapport du CNIL.
• À l’échelle d’une société, la privation d’exposition des individus à des opinions différentes
pourrait devenir un problème pour la qualité du débat public et la diversité de nos
échanges, ce que notre démocratie entend défendre. C’est d’autre part « l’absence de
compréhension claire du fonctionnement des plateformes » qui est pointée du doigt dans
le rapport. Surtout qu’à l’ère du numérique, les informations se diffusent très vite avec les
algorithmes. Comment empêcher que des « fake news » comme lors de la campagne
présidentielle de Trump se répandent ?
Alors, comment garder la main ?
• Face à ces questionnements éthiques, notre société va se transformer durablement et
nous devons penser à la relation que nous construisons avec nos machines. Ces
interrogations doivent engager l’homme à établir des repères en accord avec ses valeurs
morales. Comment maîtriser cette relation complexe ?
• En respectant les principes de loyauté et vigilance de l’IA
• En renforçant les droits de protection des informations personnelles et la transparence
• En protégeant la liberté humaine et la prise de décisions éclairée
• Outre la CNIL, des villes s’interrogent sur les enjeux éthiques de l’IA. Montréal est ainsi
devenu un chef de file mondial puisque des géants du numérique (Google, Microsoft,
Facebook) ont annoncé des investissements colossaux dans des laboratoires
d’intelligence artificielle. Montréal promeut le développement responsable de l’intelligence
artificielle et comme elle fait partie d’un des pays les plus soucieux du bien-être,
l’intelligence artificielle est entre de bonnes mains. La ville a d’ailleurs pris les devants en
novembre dernier au Palais des Congrès de Montréal en lançant la « déclaration de
Montréal pour un développement responsable de l’intelligence artificielle » visant à
proposer une orientation progressiste.
Sujets à appréhender
• Gérer efficacement votre stress à travers une gestion de temps efficace • Habiletés politiques: exercez votre pouvoir de façon stratégique • Évaluation du rendement : appréciation de la contribution de vos
collaborateurs -
Municipalités et régions intelligentes
• Contribuer à la vitalité des communautés et à leur transition vers des
territoires intelligents.
• https://cefrio.qc.ca/fr/realisations-et-publications/municipalites-etregions-intelligentes/
Moi ou la machine ?
• https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garde
r_la_main_web.pdf
• https://www.irosoft.com/nouvelle/lintelligence-artificielle-au-servicede-linformation-municipale/
Expérience SidiBouzid
• https://jamaity.org/2018/07/govtunovation-pour-une-municipaliteintelligente-a-sidi-bouzid/
Votre municipalité est-elle intelligente?
• https://umq.qc.ca/publication/votre-municipalite-est-elleintelligente/
2018 pas loin !
• https://lac-aux-sables.qc.ca/municipalite-vers-communauteintelligente-voila/
Portail intelligent
• https://www.appvoila.com/fr/
Téléchargement