En santé aussi, le « code est la loi »

publicité
REVUE MÉDICALE SUISSE
bloc-notes
En santé aussi,
le « code
est la loi »
a a l’air bête à rappeler, l’affirmer est un
truisme, mais voici : la révolution digitale
s’accélère. Particulièrement dans le domaine de la santé.
Certes, les hôpitaux informatisent leurs
dos­siers médicaux depuis belle lurette, l’informatique a vécu des décennies de progrès, et
dès les années 90, internet a changé le rapport
à l’information. Il y a une dizaine d’années,
cepen­dant, le tempo s’accroît. L’avènement du
moteur de recherche de Google aiguise l’intérêt
du public pour la santé. Microsoft et Google
lancent des plateformes pour récolter des données médicales personnelles. Vers 2008, avec
la généralisation des smartphones, commence
le boom de l’e-santé. Surfant sur le narcissisme
ambiant, le « quantified self » devient un mode
de vie. Les données sont captées par des senseurs, collectées sur les smartphones, analysées via des App. Dans les mêmes années, apparaissent les réseaux sociaux, qui entraînent
un foisonnement des manières de communiquer
et de se comparer. Sur un autre registre, 23andme
lance le séquençage de tout ou partie du génome et de sa mise à disposition des consommateurs, tout en utilisant les données pour affiner son savoir prédictif. Chaque entreprise de
ce nouvel « écosystème » du e-health partage au
grand jour les informations avec les utilisateurs,
et les stocke à l’abri des regards, les croise discrètement pour en tirer et commercialiser des
savoirs nouveaux. Si leur utili­sation finale reste
inconnue, une certitude s’im­pose : ces données
seront la matière première (et précieuse) des
prochaines révolutions.
En même temps, les médecins informatisent
leurs cabinets à marche forcée. Et prolifèrent,
avec une vitalité de végétation tropicale, des sys­
tè­mes de collecte et de contrôle de leurs données, plus ou moins amicaux, plus ou moins (de
moins en moins, en fait), utiles à la pratique
(logiciels des caisses maladie, DRG, MARS, etc.).
Le dossier électronique du patient entre en scène,
timidement. Au plan clinique, les progrès du
séquençage génétique et de la biologique moléculaire font apparaître un nouveau domaine :
la médecine personnalisée. La promesse est
d’adapter les traitements aux individus, à leurs
génomes, aux mutations de leurs tumeurs, à
l’ensemble de leurs caractéristiques. Et aussi
de sortir des défauts de la recherche clinique,
en incluant enfin chaque individu. Des biobanques s’ouvrent, accumulent des tissus humains, des données, les partagent et parfois
ç
les vendent. L’oncologie d’abord, bientôt toute
la médecine se refaçonne.
Et puis, de l’ombre où il restait tapi depuis
quelques décennies, apparaît le spectre de l’intel­
ligence artificielle au sens fort. Non pas, donc,
la digitalisation et l’informatisation généralisées.
Mais une tout autre forme de computérisation :
humanisée, troublante, affranchie, conquérante
même. Grâce au deep learning, nouveau développement de machine learning, non seulement,
d’un coup, les voitures autonomes ne sont plus
un rêve, mais les ambitions des grandes entreprises de la Silicon Valley peuvent enfin décoller.
Les machines sont apprenantes, peuvent se
charger d’une part croissante de ce que fait
l’homme, sans se fatiguer, voire « mieux ». Une
course à l’intelligence est engagée.
Dans cette course, qui fait rage en médecine
autant sinon plus qu’ailleurs, tous les coups
sont permis. Exemple le plus récent : le 29 avril,
le New Scientist annonçait que Google a conclu
avec le NHS britannique un accord pour accéder
aux données médicales de 1,6 million de patients de trois grands hôpitaux.1 Officiellement,
il s’agissait d’apprendre à son logiciel de deep
learning (appelé DeepMind) à aider les médecins au diagnostic de problèmes rénaux. Mais
comme le montrent les documents en possession du New Scientist, c’est toutes les données
des personnes hospitalisées – y compris celles
révélant leur statut VIH, leurs toxicomanies ou
leurs avortements – qui ont été mises à disposition de DeepMind. Plus ennuyeux encore :
ces données sont utilisées pour faire des prédictions sur n’importe quelle maladie, sans se
limiter aux pathologies rénales. En réalité, avec
DeepMind, Google cherche à créer un algorithme générique ultrapuissant de prédiction.
« Il ne s’agit pas de remplacer les médecins et
les soignants, rassure un expert. Mais plutôt de
porter leur attention au bon endroit ». Cette
vision est bien sûr naïve. Google veut tout. Y
compris reprioriser l’ensemble de la médecine
en l’amenant, grâce à son algorithme, à « traiter les gens avant qu’ils ne tombent malades ».
Pour le moment, les algorithmes ont un
point faible : sans l’accès aux données de la
population, ils ne peuvent ni apprendre ni progresser. Donc, rappelle le New Scientist, avant
de consentir à un partage des données, la société doit exiger « que les bénéfices profitent
aussi à ceux qui les transmettent ». Et surtout,
« insister pour qu’ils (Google et les autres)
nous disent ce qu’ils veulent en faire et nous
demandent notre accord ».
Nous vivons le moment où surgit un choix
crucial pour la société : « Ce n’est pas entre régulation et absence de régulation que nous avons
à choisir, écrit encore Lessig… La question n’est
pas de savoir qui décidera de la manière dont le
cyberespace est régulé : ce seront les codeurs.
La seule question est de savoir si nous aurons
collectivement un rôle dans leur choix – et
donc dans la manière dont ces valeurs sont
garanties – ou si nous laisserons aux codeurs le
soin de choisir nos valeurs à notre place ».
Il est temps de saisir cette révolution silencieuse à sa véritable échelle. Les médecins
­aiment bien insister sur la nécessité d’éduquer
les patients, parlent de health literacy. Mais
tout aussi importante est la promotion d’une
digital literacy, tant dans la société que dans le
corps médical. Elle est la condition pour que le
débat qui s’impose ait lieu.
Mais l’interrogation doit porter au-delà. La
question centrale est celle de la responsabilité
algorithmique. Désormais, en effet, ce sont les
algorithmes qui fournissent les réponses à nos
1 Hodson H. Google knows your ills. New Scientist, 7
mai 2016, 22-3.
2 Lessig L. Code is Law – On Liberty in Cyberspace.
Harvard Magazine, janvier 2000. Traduction française :
http://framablog.org/2010/05/22/code-is-law-lessig/
1160
40.indd 1160
questions sur internet, eux qui nous suggèrent
des amis ou des achats, qui sont aux commandes de la spéculation financière, qui commencent à piloter nos voitures, à individualiser
nos traitements et prédire notre survie. Sans
avoir été sollicités, sans contrôle, ils créent des
normes sociales et individuelles, reconfigurent
l’architecture du vivre ensemble.
Dans son célèbre article « Code is Law »,
écrit en 2000, Lawrence Lessig avait d’emblée
vu l’immensité de l’enjeu :2 « Le code régule. Il
implémente – ou non – un certain nombre de
valeurs. Il garantit certaines libertés, ou les
empêche. Il protège la vie privée, ou promeut
la surveillance ». Le code est donc l’équivalent
de la loi, mais il agit caché. Son application se
fait sans accès public aux règles. Seul un tout
petit nombre de codeurs les décide et les gère.
Les algorithmes déploient un pouvoir tentaculaire et troublant. Qu’ils soient recherchés
pour eux-mêmes ou qu’ils résultent de l’imprévisible, leurs immenses effets demandent des
comptes. Il est temps que les Google, Facebook,
Apple et autres acteurs du deep learning ces­sent
de se cacher derrière le voile faussement pudique
du secret commercial. Toute entreprise utilisant
des algorithmes devrait expliciter ses méthodes,
décrire ses intentions, évoquer les effets attendus sur la société et proposer des choix.
Mais pourquoi le ferait-elle ? Notre système
politique somnole. L’obsession collective est de
creuser des tunnels et de fermer le pays. Qui
organisera une intelligence politique à la hauteur de l’artificielle et des intérêts qui la manœuvrent ?
Bertrand Kiefer
WWW.REVMED.CH
8 juin 2016
06.06.16 12:27
Téléchargement