Apport des méthodes d`apprentissage automatique dans la

publicité
L’Information psychiatrique 2013 ; 89 : 811–7
NEUROSCIENCES
Apport des méthodes d’apprentissage
automatique dans la prédiction de la transition
vers la psychose : quels enjeux pour le patient
et le psychiatre ?
Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 88.99.165.207 le 24/05/2017.
Stéphane Mouchabac 1,a , Christian Guinchard 2,a
RÉSUMÉ
La médecine prédictive a bénéficié d’un intérêt important ces derniers années : cela a été rendu possible par des découvertes
importantes dans le champs de la génétique et de la recherche sur les biomarqueurs. Pourtant, de par sa complexité, la
psychiatrie ne peut actuellement assurer le niveau d’exactitude que réclame cette approche. En effet, prédire la transition vers
la schizophrénie permettrai de proposer des traitements ciblées en amont du premier épisode, or actuellement, l’expertise
du psychiatre ne permet pas de prédire plus de 50 % des transitions sur la base de la clinique chez les sujets à risque.
Nous discuterons dans cet article l’apport des méthodes informatisées dites d’apprentissage automatique et réfléchirons
sur l’impact qu’elles peuvent avoir sur nos pratiques futures.
Mots clés : schizophrénie, symptomatologie schizophrénique, médecine prédictive, indicateur de risque, recueil de données,
apprentissage, apprentissage automatique
ABSTRACT
Contribution of machine learning methods in the prediction of a transition to psychosis: Which challenges for the
patient and psychiatrist?. Predictive medicine has benefited, in recent years, by the significant interest it has received.
This advance has been made possible by major discoveries in the fields of genetics and biomarker research. However, due
to its complexity, psychiatry cannot currently provide the level of accuracy demanded by this approach. In fact, to predict
the transition to schizophrenia would permit to offer treatment targeted towards the first episode, whereas currently, the
expertise of the psychiatrist does not predict more than 50% of the transitions on a clinical basis in patients at risk. In this
article, we discuss the contribution of computerized methods referred to as machine learning and reflect on the impact they
may have on our future practices.
doi:10.1684/ipe.2013.1131
Key words: schizophrenia, schizophrenic symptoms, predictive medicine, risk indicators, data collection, learning,
machine learning
1 Département de psychiatrie et psychologie médicale, CHU Saint-Antoine, Paris, France
<[email protected]>
2 MCF HDR en sociologie, Directeur du département de sociologie ; Laboratoire de sociologie et d’anthropologie (LASA UFC) EA 3189 ; UFR SLHS
Université de Franche-Comté, France
a Les deux auteurs ont contribué de manière égale à la rédaction.
Tirés à part : S. Mouchabac
L’INFORMATION PSYCHIATRIQUE VOL. 89, N◦ 10 - DÉCEMBRE 2013
811
Pour citer cet article : Mouchabac S, Guinchard C. Apport des méthodes d’apprentissage automatique dans la prédiction de la transition vers la psychose : quels enjeux
pour le patient et le psychiatre ? L’Information psychiatrique 2013 ; 89 : 811-7 doi:10.1684/ipe.2013.1131
S. Mouchabac, C. Guinchard
RESUMEN
Aportación de los métodos de aprendizaje automático en la predicción de la transición hacia la psicosis : ¿ qué se
juega ahí para el paciente y el psiquiatra ?. La medicina predictiva se ha beneficiado de un interés importante en los
últimos años : ello se ha hecho posible con unos importantes hallazgos en el ámbito de la genética y de la investigación sobre
los biomarcadores. Sin embargo, por su complejidad, la psiquiatría no puede actualmente asegurar el nivel de exactitud
que exige este enfoque. Y es que predecir la transición hacia la esquizofrenia permitiría proponer tratamientos adecuados
previos al primer episodio; ahora bien, actualmente, la pericia del psiquiatra no permite predecir más del 50 % de las
transiciones sobre la base de la clínica en los sujetos de riesgo. Discutiremos en este artículo la aportación de los llamados
métodos informatizados de aprendizaje automático y reflexionaremos sobre el impacto que puedan tener sobre nos prácticas
futuras.
Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 88.99.165.207 le 24/05/2017.
Palabras claves : esquizofrenia, sintomatología esquizofrénica, medicina predictiva, indicador de riesgo, recolección de
datos, aprendizaje, aprendizaje automático
Enjeux de la médecine prédictive
dans la schizophrénie
Selon la définition du Larousse, « prédire » peut être
entendu comme l’action « d’annoncer d’avance ce qui doit
arriver, par intuition, raisonnement ou conjecture, par une
inspiration prétendument surnaturelle ». Si nous retenons
l’aspect scientifique de cette définition, la possibilité de
prévoir la survenue d’un événement morbide ouvre des
perspectives importantes, qu’elles soient préventives ou
curatives, mais aussi éthiques : c’est l’objectif de la médecine dite « prédictive ». Celle-ci a pris un essor important ces
dernières décennies du fait des progrès en génétique, mais
dès lors qu’on se représente la complexité des interactions
gènes-environnements, l’utilisation pour les diagnostics
psychiatriques s’avère complexe, voire hasardeuse.
La schizophrénie, pathologie multifactorielle avec une
hétérogénéité clinique importante traduit bien les enjeux
d’une médecine prédictive, car on peut définir des « fenêtres
d’opportunité thérapeutique » auxquelles correspondent
différentes modalités d’interventions pour chaque stade de
la maladie [16] :
– lors de la phase prémorbide, où l’expression clinique
n’est pas manifeste, c’est surtout une action sur les facteurs
étiologiques qui s’impose, mais encore faut-il les identifier
chez le patient et en reconnaître leur spécificité. Cette prévention dite « ciblée » de la maladie est à ce jour encore
limitée ;
– la phase prodromale, où l’on peut observer des symptômes atténués ou brefs de la maladie est une phase pour
laquelle une prévention ciblée de la maladie « manifeste »
est privilégiée (elle est en train de se déclarer) : les symptômes plus spécifiques vont être pris en compte et traités
pour tenter d’éviter la transition vers la maladie active ;
– lorsque le premier épisode se déclare, des interventions
les plus précoces possibles sont proposées pour corriger la
pathophysiologie et limiter l’impact du trouble. La prévention des rechutes s’inscrivant dans la continuité.
Il est évident que l’objectif sera d’empêcher la survenue
de la transition chez les sujets vulnérables, mais pour cela il
812
faut pouvoir définir quels sont les déterminants (cliniques,
paracliniques) de cette vulnérabilité. Bien évidemment, un
« screening » trop large risque de recruter des faux positifs
et par conséquent de traiter par excès des sujets : il faut donc
des outils plus discriminants pour que ce soit éthiquement
acceptable.
Les limites des études classiques
sur les états prémorbides
On a longtemps focalisé sur l’étude des signes prémorbides de la schizophrénie dans l’idée de trouver des
marqueurs cliniques plus fréquemment liés à une transition
ultérieure vers la psychose.
Les modalités d’évaluation sont classiques, puisqu’elles
reposent sur le recueil systématique d’informations lors
des consultations (psychiatriques, pédiatriques ou de médecine scolaire) ou à partir d’observations rapportées par les
parents, les enseignants ou autres personnes de l’entourage.
L’utilisation d’outils standardisés va permettre des comparaisons entre sujets ou bien d’obtenir des profils évolutifs
lorsque l’évaluation est prospective.
Au niveau méthodologique, la majeure partie de données publiées dans les années 1980-1990 a été obtenue
à partir d’études rétrospectives ou de suivi systématique
longitudinal (souvent limitées au niveau de leur validité).
De même, pour les études rétrospectives, la collecte des
données reste dépendante de la qualité des tiers et sont
par essence soumises à des biais de mémorisation et de
reconstruction anamnèstique : étant peu standardisées, ces
informations étaient dans l’absolu peu généralisables. Les
études de suivi longitudinal (follow-up) étaient fréquemment réalisées à partir de cohortes d’enfants consultant pour
des problèmes comportementaux non spécifiques : elles ont
complété les observations des études rétrospectives et ont
confirmé certains résultats.
Enfin, lorsque l’on analyse tous ces signes, on constate
que la plupart n’est pas spécifique surtout lorsqu’ils se manifestent plus précocement (anxiété et humeur dépressive,
L’INFORMATION PSYCHIATRIQUE VOL. 89, N◦ 10 - DÉCEMBRE 2013
Apport des méthodes d’apprentissage automatique dans la prédiction de la transition vers la psychose : quels enjeux
pour le patient et le psychiatre ?
Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 88.99.165.207 le 24/05/2017.
difficultés sur le plan cognitif et conatif, troubles du sommeil, retrait social apprentissages perturbés. . .), alors que
d’autres plus tardifs témoignent de la vulnérabilité et sont
parfois considérés comme des symptômes atténués de la
maladie (pensées anormales, pensée magique et croyances
bizarres, affects inappropriés, discours tangentiel, suicidalité et comportements agressifs).
La logique préventive était donc dans l’impasse puisqu’il
était impossible de repérer avec une bonne sensibilité et spécificité des sujets à risque sur la base d’éléments cliniques
dans la population générale : cette approche probabiliste
s’accompagne d’un taux de faux positif trop élevé pour
envisager un traitement préventif systématique.
Définir des sujets à haut risque
de transition : une solution ?
Les spécialistes de la question se sont donc tournés vers
l’étude des « états mentaux à risque » : plusieurs équipes
ont donc proposé dès la fin des années 1990 d’identifier des
sujets dits à « ultra haut risque » de psychose (UHR) [14].
Les critères utilisés ont de bonnes validité et sensibilité. Ces
sujets sont regroupés en trois catégories :
– le groupe « des symptômes atténués de psychose » (attenuated psychotic symptoms [APS]) : il s’agit de sujets ayant
déjà fait l’expérience de symptômes positifs atténués au
cours de l’année précédente (idées de référence, perturbations perceptuelles, pensée magique, idéation paranoïde,
pensées et comportements étranges) ;
– le groupe de sujets dits « des symptômes psychotiques
intermittents brefs » (brief limited intermittent psychotic
symptoms [BLIPS]). Ils ont présenté des épisodes brefs
avec des symptômes psychotiques de premier rang (idées
de référence, pensée magique, perturbations perceptuelles,
idéation paranoïde, langage et pensées étranges), la durée
n’ayant pas excédé une semaine et s’est accompagnée d’une
régression spontanée ;
– le groupe des sujets ayant des traits ou des facteurs
de risque, c’est-à-dire les sujets ayant un apparenté premier degré avec un trouble psychotique, les sujets ayant
une personnalité schizotypique associée à un déclin pendant l’année précédente sur le plan du fonctionnement
psychosocial (au moins 30 % sur l’échelle globale de
fonctionnement). Ce dernier groupe est associé à risque
génétique élevé.
Pour ces auteurs, c’est dans la tranche des 15-30 ans que
l’on est le plus susceptible de trouver des sujets à ultra haut
risque. Ces critères sont acceptés par la communauté médicale et ont été adaptés et complétés par d’autres équipes.
Au sein de ces groupes, entre 20 et 30 % feront une transition vers la psychose dans l’année en cours en l’absence de
traitement, mais on n’a pas pu mettre en évidence de critères
spécifiques (ou associations de critères) qui permettraient
de distinguer ceux qui feront cette transition, même si cer-
taines associations semblent plus pertinentes (présence de
facteurs de risque génétiques et symptômes psychotiques
atténués).
Place des apprentissages
automatiques dans le diagnostic
psychiatrique
Pour mieux comprendre le concepts que nous allons
aborder, il est intéressant d’imaginer quelles sont les modalités d’apprentissage chez l’homme. En effet, pour nous
adapter, il est fondamental que nous puissions reconnaître
des objets dans l’environnement (formes, visages, des
voix), ainsi que des concepts. Pour cela, nous apprenons
de différentes manières : soit en assimilant des données
« brutes » (stockage par cœur) ou alors en procédant par
généralisation (des exemples vont servir à élaborer un
modèle qui s’appliquera à de nouveaux exemples qui seront
alors reconnus). Notons que l’apprentissage de la médecine
recouvre ces deux modalités.
En informatique, les capacité de calcul et de stockage
sont compatibles avec la première méthode, alors que la
déduction de règles de généralisation reste plus complexe
à obtenir.
À la fin des années 1950, Arthur Samuel, chercheur en
informatique, va proposer une définition de l’apprentissage
automatique comme étant « un champ d’étude qui donne
aux ordinateurs la capacité d’apprendre sans avoir été
explicitement programmés ». En fait, il s’agit plutôt d’un
programme qui est élaboré pour apprendre de sa propre
expérience en fonction de classes de taches et d’une mesure.
L’apprentissage automatique est ainsi une des disciplines
de l’intelligence artificielle dont l’objectif est l’élaboration
de méthodes automatisables que la machine va utiliser pour
évoluer et qu’il est habituellement difficile d’élaborer à
partir des moyens de programmation habituels [4].
Ces méthodes, avant d’être appliquées à la médecine,
ont été exploitées dans des domaines très variés : reconnaissance d’objets divers (formes, visages, écriture), analyse de
comportements de consommateurs, détection de fraudes à
la carte de crédit, moteurs de recherche informatique, exploration de données dans des bases complexes (data mining),
analyse des marchés financiers.
L’apprentissage automatique est à la croisée des chemins de nombreuses disciplines : intelligence artificielle,
probabilités, statistiques, sciences cognitives, informatique.
L’apprentissage « supervisé »
Le premier type de classification est dit « supervisé »
(il porte parfois le nom de classement ou de classification inductive). On cherche à identifier automatiquement
des règles à partir de bases de données (celles-ci sont
constituées « d’exemples », classiquement, il s’agit de cas
L’INFORMATION PSYCHIATRIQUE VOL. 89, N◦ 10 - DÉCEMBRE 2013
813
Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 88.99.165.207 le 24/05/2017.
S. Mouchabac, C. Guinchard
déjà validés tels qu’un diagnostic). Elle repose donc sur
« l’apprentissage par l’exemple » puisqu’elle a pour objectif
l’explication ou l’appartenance d’éléments (objets, individus, critères) à une classe donnée, ces classes sont connues
a priori.
Tout processus supervisé comporte deux phases : la première est la phase dite « d’apprentissage » durant laquelle
on va déterminer le modèle « des données étiquetées »,
celle-ci permet d’élaborer la base des connaissances qui
sera utilisée dans la seconde phase. Cette seconde phase,
dite de « test », consiste à prédire la classe ou l’étiquette
d’une nouvelle donnée à partir du modèle qui a été appris
au préalable [7].
Cette méthode obéit à des étapes très strictes pour éviter de créer une base inexploitable à l’origine d’erreurs
importantes. Le principe est donc d’adapter le modèle à
la structure du problème :
– il faut déterminer avec précision quels seront les
« exemples » utilisés dans le modèle (quel type de données sera considéré) : mesure biologique, critère clinique,
imagerie, mesure neurocognitive ;
– rassembler un ensemble d’exemples d’apprentissage,
sachant qu’il doit être valide, c’est-à-dire être la représentation d’une réalité objective et que sa fonction soit utilisable
dans le « monde réel ». l’ensemble de ces données est
souvent élaboré par des experts ou repose sur des mesures ;
– le niveau d’exactitude de la fonction apprise va dépendre
de la manière dont l’objet est représente « à l’entrée » (dans
sa base) ;
– choisir une méthode mathématique adaptée au problème
(arbres de décision, séparateurs à vaste marges etc.) ;
– optimiser la performance de l’apprentissage (utilisation
de processus de validation sur des bases de données réduites
et évaluer l’exactitude du modèle (procédures de validation
externe).
Il existe des variantes de l’apprentissage supervisé :
– l’apprentissage semi-supervisé revêt une utilité lorsque
les données sont très nombreuses ou complexes puisqu’il
faudrait un grand nombre d’étiquettes (la construction de la
base réclamerait trop de temps pour un expert humain). On
utilise des données étiquetées (supervisées) et des données
non étiquetées (non supervisées), grâce à cette base hybride
on a montré que l’apprentissage était amélioré ;
– l’apprentissage actif permet à la machine de faire des
requêtes au programmateur de la base. L’idée est alors
d’annoter les données les plus pertinentes pour le modèle
lorsqu’elles sont extraites par le calculateur [8].
Apprentissage non supervisé
L’autre aspect de l’apprentissage automatique regroupe
les méthodes d’apprentissages non supervisés : ici les
données collectées « à l’entrée » ne sont pas étiquetées,
l’objectif du programme sera donc de classer ces données
en différents sous-groupes (« clustering ») afin que celles
814
qui sont les plus similaires ou les plus proches se trouvent
associées de manière homogène et celles qui sont les plus
éloignées appartiennent à des groupes distincts. Il n’y a
donc pas d’expert qui explicite les étiquettes, cette méthode
permet alors de trouver des structures qui ne nous sont pas
connues (il s’agit de variables dites « latentes »).
Comme pour la précédente méthode, des pré-requis
méthodologiques sont nécessaires [16] :
– il faut choisir une mesure de ressemblance entre les données ;
– il faut déterminer le type de structure que l’on veut obtenir (arbre, pyramide, hiérarchie. . .) ;
– il faut enfin choisir la méthode la plus adaptée à la
structure de classification attendue : algorithmes des Kmoyennes, regroupement hiérarchique, modèles de Markov
cachés, techniques de réduction dimensionnelles (analyse
en composante principale).
Certains considèrent classiquement que les apprentissages non supervisées sont moins efficients, mais pour
certains auteurs ils restent intéressants dans les cas où
il existe un grand nombre de données non annotées et
lorsque les données observées changent lentement dans le
temps [4].
Neuro-imagerie et apprentissage
automatique : quelles applications ?
Comme nous l’avons vu, les exemples qui constituent
la base de données se doivent d’être les plus valides
possibles afin de générer une capacité d’apprentissage
et de discrimination utile au clinicien. Certaines techniques d’imagerie cérébrale associées à des algorithmes
d’apprentissage semblent intéressantes pour l’évaluation de
la probabilité de transition vers la psychose.
Du fait de l’augmentation des capacités de calcul des
outils d’imagerie, on peut obtenir une « cartographie »
de différences significatives dans la composition des tissus cérébraux entre des groupes de sujets (patients vs sujets
témoins, patients entre eux), mais aussi établir des corrélations avec certaines caractéristiques (âge, sexe) ou des
mesures expérimentales et cliniques particulières. Parmi
ces techniques, l’analyse de voxel (dérivé de « volumetric
pixel ») s’est montrée très prometteuse.
Le voxel est un élément de volume représentant
une valeur dans un espace tridimensionnel qui reflète
une information colorimétrique associées à des coordonnées spatiales, voire temporelles, ou tout autre type
d’information pouvant caractériser un type de tissus. Dans
une première phase, les données sont pré-traitées pour améliorer la sensibilité des mesures des volumes des tissus
cérébraux (substance blanche et grise) : on effectue une
normalisation spatiale des images (utilisation d’un espace
stéréotaxique identique afin de diminuer les différences
anatomiques entre sujets), puis on sépare informatiquement
L’INFORMATION PSYCHIATRIQUE VOL. 89, N◦ 10 - DÉCEMBRE 2013
Apport des méthodes d’apprentissage automatique dans la prédiction de la transition vers la psychose : quels enjeux
pour le patient et le psychiatre ?
Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 88.99.165.207 le 24/05/2017.
la substance blanche de la grise, on procède ensuite à une
réduction du nombre de voxels (après acquisition, le volume
cérébral est représenté par un cube de 1012 points, cette
opération permet une simplification du traitement des données), la dernière étape comporte une analyse statistique
qui identifie les voxels impliqués dans les différences entre
sujets.
Dans le cadre de la schizophrénie, cette méthode permet une détection de différences neuroanatomiques très
complexes et très fines qui se situent dans des régions très
hétérogènes (et qui seraient impossibles à déterminer par
une analyse humaine des images) [2].
Prédire mieux que l’expert humain :
une réalité ?
Il suffit alors d’associer à l’imagerie une technique de
calcul reposant sur une procédure d’apprentissage : à partir de données connues a priori elle développe des règles
pour la classification de nouvelles données. On apprend
à la machine à reconnaître un diagnostic, ensuite elle
détermine les caractéristiques neuro-anatomiques liées à
ce diagnostic, et secondairement lorsqu’on lui présente un
nouveau sujet, elle va être capable en théorie de dire à quelle
catégorie de sujet appartient.
Plusieurs équipes ont exploré l’intérêt de ces techniques
dans la prédiction de la transition vers la psychose : des
sujets sains ont été comparés à des patients à haut risque
pour déterminer quelles associations d’anomalies morphologiques étaient prédictives de la transition vers la psychose
[2]. Le repérage de différences entre les différents sujets
à permis de constituer une base de donnée et après quatre
ans d’évolution, les diagnostics (transition/absence de transition) complétaient cette base : à l’aide d’une technique
d’apprentissage supervisé, on pouvait déterminer une règle
de prédiction de la transition reposant sur des critères neutroanatomiques (phase d’apprentissage) [10].
Dans la phase de test, on présentait des nouveaux sujets
à risque et on demandait à la machine de prédire qui allait
faire un premier épisode psychotique. La validité des tests
repose sur l’exactitude de la prédiction, mais aussi sur leur
sensibilité et spécificité : les sujets témoins ont été bien
classés dans 90 % des cas (ils ne sont pas schizophrènes, ni à
risque) ; les sujets à haut risque ayant fait une transition dans
88 % des cas et enfin les sujets à haut risque sans transition
étaient discriminés dans 86 % des cas (« ce sujet ne fera
pas de transition »). Ainsi, sans connaître le diagnostic, ni
les caractéristiques cliniques du sujet, l’ordinateur prédisait
dans plus de huit cas sur dix la survenue d’un épisode ou non
(pour comparaison, l’expert humain prédit cette transition
dans un cas sur deux) [9, 10].
Pour limiter les biais liés à « un effet de centre » et augmenter la puissance de leur base d’exemples, ces mêmes
auteurs ont complétés ces données à l’aide d’une étude mul-
ticentrique (82 sujets UHR et 167 témoins) qui a confirmé la
pertinence des données neuroanatomiques déjà identifiées
pour prédire la transition [12].
Les apprentissages automatiques permettent de discriminer des critères anatomiques qui informent sur le
risque de psychose chez les patients à risque et qui leur
sont spécifiques. L’utilisation moins probabiliste des antipsychotiques et des interventions non pharmacologiques
précoces sont alors envisageables.
Mais comme toute avancée, elle interpelle nos pratiques
et nous interroge au niveau éthique en cas d’utilisation
détournée de ces méthodes : en effet, certaines études
cherchent des marqueurs de prédiction de passage à l’acte
ou permettent de trouver la tendance politique d’un sujet.
Quelle conséquences sur notre
pratique : entre réflexe de rejet
et nécessité d’adaptation
On sait désormais qu’on ne peut pas penser les innovations techniques de manière pertinente sans intégrer une
réflexion sur les pratiques des différents usagers qui vont
accéder à ces nouveautés. Les chercheurs du Centre de
sociologie de l’innovation de l’école des mines ont bien
montré, depuis les années 1990, que les « scripts » élaborés
par les techniciens, lorsqu’ils élaborent les modes d’emploi
de leurs nouveaux produits, ne rejoignent pas aussi aisément qu’ils l’imaginent les attentes et les pratiques des
usagers [1, 11]. Ce genre de question est incontournable
lorsqu’on s’intéresse à la manière dont les avancées scientifiques sont traduites en innovations techniques aussi bien
dans le domaine de la médecine que dans celui des techniques de communication. On sait qu’il existe de nombreux
obstacles et qu’il faut conduire un travail social spécifique
pour parvenir à transformer un projet technoscientifique en
objet de pratiques quotidiennes.
Pour y réfléchir dans le cadre de l’évolution des pratiques de neuropsychiatrie, on peut partir des résultats de
deux enquêtes sociologiques. La première, menée pour le
Ministère des affaires sociales dans les années 1990, est un
long travail sur les pratiques de consommation des allocataires d’aides sociales et l’autre, réalisée au début des années
2000 pour un organisme professionnel d’encadrement des
professions de santé, visait à mieux comprendre les interactions entre les psychiatres hospitaliers et libéraux.
De la première enquête, on pourrait retenir une simple
expression assez typique d’un allocataire du RSA déclarant
lors d’un entretien. Alors qu’il venait de raconter au sociologue comment une série de ruptures s’étaient enchaînées
dans sa vie professionnelle et familiale en le menant à une
expulsion de son logement, il ajoute « . . .et pan, j’ai fait une
dépression ! ». C’est le statut logique de ce « et pan » qu’il
faut interroger. Alcoolisme, pertes successives d’emplois,
poursuites judiciaires pour violence, séparation et expulsion
L’INFORMATION PSYCHIATRIQUE VOL. 89, N◦ 10 - DÉCEMBRE 2013
815
Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 88.99.165.207 le 24/05/2017.
S. Mouchabac, C. Guinchard
aboutissent à ce surgissement brusque de la dépression, présentée à la foi comme inattendue et évidente. La question
que nous pourrions poser à partir de là n’est pas celle du
« sens commun » populaire qui s’opposerait à une conception scientifique ou savante de l’étiologie de la maladie. La
psychiatrie doit-elle faire mieux que cet allocataire du RSA,
et si oui, à quelle condition le peut-elle ?
On peut tenter de répondre en remuant un peu d’humus
historique et en s’appuyant sur l’évolution des pratiques
professionnelles des psychiatres depuis une quarantaine
d’années. Ne sommes-nous pas passés d’une pratique de
« prophétie inductive » à une approche scientifiquement
probabiliste fondée non seulement sur de nouvelles formes
de raisonnement mais aussi sur un nouvel ancrage social de
la pratique professionnelle de la psychiatrie ?
Il y a exactement 40 ans, D. Rosenhan publiait dans
Science un article intitulé « On being sane in insane
places » qui semblait mettre publiquement en cause les
compétences des psychiatres américains dans l’une des
plus prestigieuses revues scientifiques [15]. Il y racontait
comment huit faux patients (en fait chercheurs mandatés par
son laboratoire universitaire) s’étant présentés à des hôpitaux psychiatriques avaient été hospitalisés et diagnostiqués
schizophrènes. Il montrait comme le fait que ces personnes
prennent des notes en vue du compte rendu d’enquête
qu’elles préparaient renforçait l’idée que les soignants se
faisaient d’eux. . .
Les mobilisations sociales autour de la psychiatrie ont
un peu altéré la réception de ce texte et il importe de bien
préciser que la question initiale ne visait pas à décrédibiliser la psychiatrie américaine mais se formulait de manière
très simple : comment reconnaître la folie ? La réponse de
Rosenhan invitait à reposer la question ailleurs, dans un
autre contexte social que celui de l’hôpital car ce dernier
fonctionne toujours dans le sens d’une confirmation des
diagnostics initiaux. De ce point de vue, bien plus encore
que Goffman ne l’avait fait dix ans plus tôt [6], en se fondant
sur un très simple dispositif expérimental, il montrait que
cette institution produisait ce que nous pourrions appeler
des « prophéties auto-réalisatrices » [13]. Partant du constat
pragmatiste que toute caractérisation d’un interactant
émerge du système d’ajustements plus ou moins souples où
il se trouve, il préconisait donc de fonder la reconnaissance
et les soins des malades mentaux sur d’autres situations.
Par-delà la mobilisation de cet article dans les querelles
pleines de quiproquos qui ont secoué la psychiatrie des
années 1970 et 1980 aux États-Unis et en Europe, il reste
que ce sont bien les questions liées à la manière dont la
psychiatrie hospitalière se ferme et s’isole ou, au contraire,
s’ouvre sur son environnement social qui se trouvent au
fondement de l’élaboration des diagnostics et de la manière
d’anticiper les trajectoires des patients. Autrement dit, partant de ce qu’avait constaté Rosenhan, ne doit-on pas
penser que l’insertion de la psychiatrie dans la « société
englobante » serait ce qui permet de passer des prophé-
816
ties inductives à une approche probabiliste qu’appellent les
évolutions des neurosciences ?
Afin de répondre, dépassant les vieilles querelles, il faudrait revenir sur les avatars de la sectorisation qui, en ce qui
concerne la France, depuis 1972, ont largement modifié les
conditions d’exercice de la profession en la faisant passer,
parfois malgré elle, du confinement au plein air. Ces mouvements ont amené les psychiatres à se positionner face à
de nombreux « partenaires » tels que les magistrats, les travailleurs sociaux, les élus locaux et, plus récemment, les responsables d’associations et les parents des patients. Ne sontils pas passés d’une situation abritée derrière les « murs de
l’asile » à une position sociale très nettement exposée ?
Cette ouverture s’accompagne, en effet, d’une redéfinition des attentes sociales à l’égard de la profession qui se
formulent en termes de responsabilités éthiques mais aussi
juridiques et politiques. Aux risques qu’ils peuvent faire
courir à leurs patients, comme tous les autres médecins,
se sont ajoutés ceux que leurs patients font éventuellement
courir aux autres membres de la société. Cette forme de responsabilité, en quelque sorte « au carré », les vulnérabilise
d’une manière inédite.
Cette fragilité est renforcée par le fait que, le travail
de traduction nécessaire à la mise en œuvre de soins avec
les différents « partenaires » qui ont imposé la reconnaissance de leur place au fil des années, mobilise de nouvelles
compétences qu’il importe de reconnaître pour se faire une
idée juste de l’exercice de la profession en secteur libéral ou hospitalier. Ainsi, il faut faire preuve d’une véritable
« ingéniosité hétérogène » de Latour [11] afin de traduire un
diagnostic en risque de passage à l’acte dans la discussion
avec un magistrat et savoir construire un traitement comme
un « échangeur de buts » [11] grâce à un travail de suivi avec
la famille d’un patient bipolaire. Ces compétences sont difficiles à faire valoir (nous y reviendrons plus loin) dans
la mesure où elles sont mobilisées sur fond d’un abaissement du prix de la contestation de la décision médicale par
des patients, des avocats. . . que les nouvelles formes de
diffusion du savoir, la dévalorisation des formes de capital scolaire propres aux élites savantes. . . transforment en
« experts de plein air » dotés de nouvelles formes de légitimité [3].
Enfin, comme les urgentistes, les psychiatres ne payentils pas cette situation au carrefour d’interactions complexes
entre le juridique, le social et le médical, par une place
peu valorisée dans le champ des professions médicales ? Si
la profession est désormais en première ligne des rapports,
parfois tendus, de la médecine avec les injonctions sociales,
elle se trouve reléguée à une place subalterne qui ne facilite pas les transferts de compétences entre chercheurs et
praticiens.
C’est dans cette situation qu’il importe de savoir passer
des prophéties (auto-réalisatrices) liées à la fermeture sur
soi de cet exercice professionnel aux prédictions (probabilistes) rationnellement fondées. Or, le mode de pensée « pro-
L’INFORMATION PSYCHIATRIQUE VOL. 89, N◦ 10 - DÉCEMBRE 2013
Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 88.99.165.207 le 24/05/2017.
Apport des méthodes d’apprentissage automatique dans la prédiction de la transition vers la psychose : quels enjeux
pour le patient et le psychiatre ?
babiliste » n’est guère compatible avec la demande sociale
de certitudes et le genre de responsabilités « au carré » liées
aux situations concrètes qui s’imposent aux psychiatres [5].
Il serait naïf de croire que les formes de rationalité
scientifiques et techniques sont indépendantes des conditions sociales de leur exercice. Dans leur activité concrète
quotidienne, les professionnels mobilisent des éléments de
rationalité scientifique et les associent entre eux dans le
but de s’ajuster à des cas particuliers. Ainsi, par exemple,
les éducateurs spécialisés mobilisent des éléments de droit,
de sociologie et de psychologie dans la manière dont ils
se mettent d’accord pour construire un projet pédagogique
concernant un enfant, s’accorder avec leur hiérarchie, travailler avec le psychologue de leur établissement. . . C’est à
la foi une manière de faire face à la diversité des cas concrets
qu’il faut gérer et de se mettre d’accord avec d’autres professionnels. La « culture de métier » est ainsi un moyen
collectivement reconnu d’intégrer des savoirs divers. C’est
une façon de les mettre en œuvre qui prouve son appartenance à un collectif. On s’assure ainsi de parler à peu près
la même langue que les collègues, de se conduire comme
ils l’auraient fait. . .
Ce système de valeurs se transmet grâce à l’identification
à des figures fortement valorisées que les apprenants
cherchent à imiter dans leurs pratiques plus que par
l’apprentissage de savoir abstraits. Parmi ses traits de caractère essentiels, sans doute plus que les autres médecins, le
psychiatre doit se référer à l’homme prudent de la tradition
humaniste. Conscient de vivre dans un monde où sévit une
part irrémédiable d’incertitudes, ce dernier se fonde sur son
expérience afin de constituer une « bibliothèque de cas »
en vue d’être capable de parer aux aléas. Sachant attraper
l’occasion au moment opportun, il s’adapte ainsi aux variations des circonstances au fil de leur évolution. On dira qu’il
adopte une attitude tactique visant à être pleinement présent
au présent et non une pratique stratégique cherchant à préparer un avenir éloigné. Porteur vivant de la norme, son
savoir fondé sur une expérience éprouvée, est quasiment
intransmissible. Pour être capable d’agir comme lui, il faut
avoir vécu ce qu’il a vécu.
Si l’on part de cette situation, ce ne sont pas seulement
les psychiatres qu’il faut former aux nouvelles connaissances et informer des possibles avancées techniques que nous
évoquions plus haut, ce sont également ceux avec qui ils
pratiquent concrètement leur métier. Cependant, le savoir
probabiliste que nous avons présenté dans la première partie
de cet article n’est-il pas d’une autre nature que la prudence nécessaire aux ajustements pratiques dans lesquels
se trouvent pris les praticiens, bref, ne nécessite-t-il pas de
se développer ?
Liens d’intérêts : Les auteurs déclarent n’avoir aucun
conflit d’intérêt en rapport avec l’article.
Références
1.
Akrich M. « Les objets techniques et leurs utilisateurs. De la
conception à l’action ». In : Conein B, Dodier, Thévenot L.
Les Objets dans l’Action. De la maison au laboratoire. Paris :
Éditions de l’École des Hautes Études en sciences sociales,
Raisons Pratiques, no 4, 1993 p. 35-58.
2.
Borgwardt S, Koutsouleris N, Aston J, Studerus E, Smieskova
R, Riecher-Rössler A, Meisenzahl EM. Distinguishing
prodromal from first-episode psychosis using neuroanatomical single-subject pattern recognition. Schizophr Bull
2013 ; 39 : 1105-14.
3.
Callon M, Lascoumes et P, Barthes Y. Agir dans un monde
incertain. Paris : Seuil, 2001.
4.
Cornuéjols A, Miclet L, Kodratoff Y. Apprentissage artificiel:
concepts et algorithmes. Paris : Eyrolles, 2002 (638 pages).
5.
Conein B, Jacopin E. « Les objets techniques et leurs utilisateurs. De la conception à l’action ». In : Conein B, Dodier,
Thévenot L. Les Objets dans l’Action. De la maison au laboratoire. Paris : Éditions de l’École des Hautes Études en sciences
sociales, Raisons Pratiques, no 4, 1993 p. 35-58.
6.
Goffman E. Asylums: essays on the condition of the
social situation of mental patients and other inmates. New
York : Doubleday & Company, 1961.
7.
Grabmeier J, Rudolph A. Techniques of cluster algorithms in
data mining. Data Mining and Knowledge Discovery, 2002,
p. 303-360.
8.
Kecman V. Learning and soft computing, support vector
machines, neural networks and fuzzy logic models. Cambridge, MA : The Mit Press, 2001 (608 pages).
9.
Koutsouleris N, Gaser C, Bottlender R, et al. Use of neuroanatomical pattern regression to predict the structural brain
dynamics of vulnerability and transition to psychosis. Schizophr Res 2010 ; 123 : 175-87.
10. Koutsouleris N, Meisenzahl EM, Davatzikos C, et al. Use of
neuroanatomical pattern classification to identify subjects in
at-risk mental states of psychosis and predict disease transition. Arch Gen Psychiatry 2009 ; 66 : 700-12.
11. Latour B. Aramis ou l’amour des techniques. Paris : La
Découverte, 1992 (241 pages, « Textes à l’appui »).
12. Mechelli A, Riecher-Rössler A, Meisenzahl EM, et al.
Neuroanatomical abnormalities that predate the onset of
psychosis: a multicenter study. Arch Gen Psychiatry.
2011 ; 68 : 489-95.
13. Merton RK. Social theory and social structure. Glencoe : The
Free Press, 1949 (713 pages).
14. Nelson B, Yuen K, Yung AR. Ultra high risk (UHR) for psychosis criteria: are there different levels of risk for transition
to psychosis? Schizophr Res 2011 ; 125 : 62-8.
15. Rosenhan DL. On being sane in insane places. Science
1973 ; 179 : 250-8.
16. Yung AR, McGorry PD. Prediction of psychosis: setting the
stage. Br J Psychiatry 2007 ; 51 : s1-8.
L’INFORMATION PSYCHIATRIQUE VOL. 89, N◦ 10 - DÉCEMBRE 2013
817
Téléchargement