REVUE MÉDICALE SUISSE
WWW.REVMED.CH
8 juin 2016
1160
En santé aussi,
le « code
est la loi »
a a l’air bête à rappeler, l’affirmer est un
truisme, mais voici : la révolution digitale
s’accélère. Particulièrement dans le do-
maine de la santé.
Certes, les hôpitaux informatisent leurs
dos siers médicaux depuis belle lurette, l’infor-
matique a vécu des décennies de progrès, et
dès les années 90, internet a changé le rapport
à l’information. Il y a une dizaine d’années,
cepen dant, le tempo s’accroît. L’avènement du
moteur de recherche de Google aiguise l’intérêt
du public pour la santé. Microsoft et Google
lancent des plateformes pour récolter des don-
nées médicales personnelles. Vers 2008, avec
la généralisation des smartphones, commence
le boom de l’e-santé. Surfant sur le narcissisme
ambiant, le « quantified self » devient un mode
de vie. Les données sont captées par des sen-
seurs, collectées sur les smartphones, analy-
sées via des App. Dans les mêmes années, ap-
paraissent les réseaux sociaux, qui entraînent
un foisonnement des manières de communiquer
et de se comparer. Sur un autre registre, 23andme
lance le séquençage de tout ou partie du gé-
nome et de sa mise à disposition des consom-
mateurs, tout en utilisant les données pour af-
finer son savoir prédictif. Chaque entreprise de
ce nouvel « écosystème » du e-health partage au
grand jour les informations avec les utilisateurs,
et les stocke à l’abri des regards, les croise dis-
crètement pour en tirer et commercialiser des
savoirs nouveaux. Si leur utili sation finale reste
inconnue, une certitude s’im pose : ces données
seront la matière première (et précieuse) des
prochaines révolutions.
En même temps, les médecins informatisent
leurs cabinets à marche forcée. Et prolifèrent,
avec une vitalité de végétation tropicale, des sys-
tè mes de collecte et de contrôle de leurs don-
nées, plus ou moins amicaux, plus ou moins (de
moins en moins, en fait), utiles à la pratique
(logiciels des caisses maladie, DRG, MARS, etc.).
Le dossier électronique du patient entre en scène,
timidement. Au plan clinique, les progrès du
séquençage génétique et de la biologique mo-
léculaire font apparaître un nouveau domaine :
la médecine personnalisée. La promesse est
d’adapter les traitements aux individus, à leurs
génomes, aux mutations de leurs tumeurs, à
l’ensemble de leurs caractéristiques. Et aussi
de sortir des défauts de la recherche clinique,
en incluant enfin chaque individu. Des bio-
banques s’ouvrent, accumulent des tissus hu-
mains, des données, les partagent et parfois
les vendent. L’oncologie d’abord, bientôt toute
la médecine se refaçonne.
Et puis, de l’ombre où il restait tapi depuis
quelques décennies, apparaît le spectre de l’intel-
ligence artificielle au sens fort. Non pas, donc,
la digitalisation et l’informatisation généralisées.
Mais une tout autre forme de computérisation :
humanisée, troublante, affranchie, conquérante
même. Grâce au deep learning, nouveau déve-
loppement de machine learning, non seulement,
d’un coup, les voitures autonomes ne sont plus
un rêve, mais les ambitions des grandes entre-
prises de la Silicon Valley peuvent enfin décoller.
Les machines sont apprenantes, peuvent se
charger d’une part croissante de ce que fait
l’homme, sans se fatiguer, voire « mieux ». Une
course à l’intelligence est engagée.
Dans cette course, qui fait rage en médecine
autant sinon plus qu’ailleurs, tous les coups
sont permis. Exemple le plus récent : le 29 avril,
le New Scientist annonçait que Google a conclu
avec le NHS britannique un accord pour accéder
aux données médicales de 1,6 million de pa-
tients de trois grands hôpitaux.1 Officiellement,
il s’agissait d’apprendre à son logiciel de deep
learning (appelé DeepMind) à aider les méde-
cins au diagnostic de problèmes rénaux. Mais
comme le montrent les documents en posses-
sion du New Scientist, c’est toutes les données
des personnes hospitalisées – y compris celles
révélant leur statut VIH, leurs toxicomanies ou
leurs avortements – qui ont été mises à dispo-
sition de DeepMind. Plus ennuyeux encore :
ces données sont utilisées pour faire des pré-
dictions sur n’importe quelle maladie, sans se
limiter aux pathologies rénales. En réalité, avec
DeepMind, Google cherche à créer un algo-
rithme générique ultrapuissant de prédiction.
« Il ne s’agit pas de remplacer les médecins et
les soignants, rassure un expert. Mais plutôt de
porter leur attention au bon endroit ». Cette
vision est bien sûr naïve. Google veut tout. Y
compris reprioriser l’ensemble de la médecine
en l’amenant, grâce à son algorithme, à « trai-
ter les gens avant qu’ils ne tombent malades ».
Pour le moment, les algorithmes ont un
point faible : sans l’accès aux données de la
population, ils ne peuvent ni apprendre ni pro-
gresser. Donc, rappelle le New Scientist, avant
de consentir à un partage des données, la so-
ciété doit exiger « que les bénéfices profitent
aussi à ceux qui les transmettent ». Et surtout,
« insister pour qu’ils (Google et les autres)
nous disent ce qu’ils veulent en faire et nous
demandent notre accord ».
Mais l’interrogation doit porter au-delà. La
question centrale est celle de la responsabilité
algorithmique. Désormais, en effet, ce sont les
algorithmes qui fournissent les réponses à nos
questions sur internet, eux qui nous suggèrent
des amis ou des achats, qui sont aux com-
mandes de la spéculation financière, qui com-
mencent à piloter nos voitures, à individualiser
nos traitements et prédire notre survie. Sans
avoir été sollicités, sans contrôle, ils créent des
normes sociales et individuelles, reconfigurent
l’architecture du vivre ensemble.
Dans son célèbre article « Code is Law »,
écrit en 2000, Lawrence Lessig avait d’emblée
vu l’immensité de l’enjeu :2 « Le code régule. Il
implémente – ou non – un certain nombre de
valeurs. Il garantit certaines libertés, ou les
empêche. Il protège la vie privée, ou promeut
la surveillance ». Le code est donc l’équivalent
de la loi, mais il agit caché. Son application se
fait sans accès public aux règles. Seul un tout
petit nombre de codeurs les décide et les gère.
Nous vivons le moment où surgit un choix
crucial pour la société : « Ce n’est pas entre ré-
gulation et absence de régulation que nous avons
à choisir, écrit encore Lessig… La question n’est
pas de savoir qui décidera de la manière dont le
cyberespace est régulé : ce seront les codeurs.
La seule question est de savoir si nous aurons
collectivement un rôle dans leur choix – et
donc dans la manière dont ces valeurs sont
garanties – ou si nous laisserons aux codeurs le
soin de choisir nos valeurs à notre place ».
Il est temps de saisir cette révolution silen-
cieuse à sa véritable échelle. Les médecins
aiment bien insister sur la nécessité d’éduquer
les patients, parlent de health literacy. Mais
tout aussi importante est la promotion d’une
digital literacy, tant dans la société que dans le
corps médical. Elle est la condition pour que le
débat qui s’impose ait lieu.
Les algorithmes déploient un pouvoir ten-
taculaire et troublant. Qu’ils soient recherchés
pour eux-mêmes ou qu’ils résultent de l’impré-
visible, leurs immenses effets demandent des
comptes. Il est temps que les Google, Facebook,
Apple et autres acteurs du deep learning ces sent
de se cacher derrière le voile faussement pudique
du secret commercial. Toute entreprise utilisant
des algorithmes devrait expliciter ses méthodes,
décrire ses intentions, évoquer les effets atten-
dus sur la société et proposer des choix.
Mais pourquoi le ferait-elle ? Notre système
politique somnole. L’obsession collective est de
creuser des tunnels et de fermer le pays. Qui
organisera une intelligence politique à la hau-
teur de l’artificielle et des intérêts qui la ma-
nœuvrent ?
1 Hodson H. Google knows your ills. New Scientist, 7
mai 2016, 22-3.
2 Lessig L. Code is Law – On Liberty in Cyberspace.
Harvard Magazine, janvier 2000. Traduction française :
http://framablog.org/2010/05/22/code-is-law-lessig/
ç
Bertrand Kiefer
40.indd 1160 06.06.16 12:27