Du suivi trans-téléphonique au cloud computing: quelles sont les

publicité
Du suivi trans-téléphonique au cloud
computing: quelles sont les technologies de la
télécardiologie?
Université Libre de Bruxelles
Laura Zombek
5 Janvier 2015
Introduction
Les maladies cardio-vasculaires représentent aujourd’hui les causes mortelles les plus répandues dans les pays à hauts ou moyens revenus[7, p. 16452].
Le vieillissement de la population et le développement continu de la thérapie
moderne amènent à une prévalence croissante de ce type de maladies chroniques. Le besoin de créer un contact proche et permanent entre le patient
et les services de santé se fait de plus en plus urgent si l’on veut procurer un
traitement optimal au malade[22, p. 214]. Ce défi peut, en partie, être relevé
par la télémédecine et plus précisément la télécardiologie.
La télémédecine fait partie intégrante de la télésanté. Elle « recouvre toutes
les techniques et applications permettant d’intervenir à distance pour établir des
diagnostics, mettre en œuvre des thérapeutiques, surveiller des traitements, assurer et suivre des soins coordonnés. »[23, p. 438]. Elle comprend trois grandes
composantes : les données produites par le patient, la transmission électronique
des données du patient au professionnel de la santé et le feedback personnalisé
adapté au patient. De plus, elle peut être synchrone (basée sur le temps-réel)
et/ou asynchrone (basée sur le principe du stockage et de la retransmission) ou
les deux[22, p. 215]. La télémédecine comporte en tout quatre champs que sont
la télésurveillance, la téléconsultation, la télé-expertise et la téléassistance, auxquels on pourrait ajouter le télédiagnostic et le télésuivi. La télésurveillance,
qui est la sorte de télémédecine la plus répandue, consiste en la transmission
et l’interprétation à distance d’un indicateur par un médecin qui peut aboutir
à une décision d’intervention. Certaines données prédéfinies peuvent générer
automatiquement un message d’alerte.[23, pp. 445-446]
1
La télécardiologie est donc une sous-catégorie de la télémédecine, spécialisée
dans les maladies cardiaques chroniques. En général, elle se réalise, soit via une
prothèse cardiaque, soit via un électrocardiogramme (ECG) ou une échocardiographie (ECHO). Lorsque des dysfonctionnements électriques ou des troubles
rythmiques surviennent, le patient va nécessiter l’implantation d’un défibrillateur ou d’un stimulateur cardiaque[13, pp. 17-25]. Un ECG, par contre, est la
méthode la moins invasive pour diagnostiquer les maladies du cœur[20, p. 149].
Un signal ECG est un signal électrique généré par le battement du cœur qui
peut être utilisé comme un important outil de diagnostic pour examiner le
fonctionnement de cet organe[7, p. 16453]. Traditionnellement, un instrument
ECG stocke les données sur la forme de l’onde mesurée sous un format propre
au constructeur. Les données ECG sont alors compressées et encryptées à l’aide
d’algorithmes également spécifiques à l’industriel et une copie papier du rapport est ensuite générée[10, p. 1].
De nombreuses applications pratiques découlent de la télécardiologie : la
surveillance du bon fonctionnement de la prothèse (l’état de la pile, les variations des impédances des sondes, les seuils de stimulation ventriculaire, etc.) et
la surveillance de l’activité cardiaque (la présence de commutations de mode
ou la présence de tachycardies ventriculaires)[1, pp. 316-317]. Il devient ainsi
possible d’éliminer le contrôle à dates fixes et de personnaliser le jour de la
consultation par rapport à un événement détecté. Cela permettra donc de ne
pas devoir se rendre de manière très régulière chez son médecin et, ainsi, des
économies d’échelles par cette prise en charge extra-hospitalière peuvent être
réalisées[19, p. 93]. En outre, c’est un gain de temps pour le patient, notamment celui qui habite en zone rurale, pour le médecin car le diagnostic se fait
plus tôt, c’est un gain d’espace dans le centre hospitalier ainsi qu’une tâche
en moins pour un personnel médical déjà très surchargé[20, p. 147]. Enfin, le
patient obtient également une meilleure compréhension de sa maladie, ce qui
est essentiel pour la bonne conduite de son traitement[22, p. 215].
Comme nous allons le voir, la télécardiologie est utilisée en pré-hospitalisation (par exemple, dans les ambulances), pendant l’hospitalisation ainsi qu’en
post-hospitalisation.
1
Etat de l’art
La communication entre le médecin, le personnel médical et le patient peut
se réaliser à l’aide de multiples technologies, assurant ainsi les requêtes variées imposées par les différentes possibilités de scénarios. Au fil des années,
l’évolution des technologies et des algorithmes d’analyse pourrait permettre
d’optimiser l’utilisation de la télécardiologie.[22, p. 213]
Il est possible de catégoriser les systèmes de télémédecine, et donc de télécardiologie, en quatre générations[2, p. 733]. La première génération comprend
2
un système de collecte et d’analyse de données non réactives, avec une transmission des données asynchrone. La deuxième génération est un système qui
ne permettrait pas une analyse ou une décision immédiate, mais dont la transmission des données est synchrone, ce qui permet de récolter les données et de
voir les changements importants. Par contre, des retards peuvent être occasionnés si le système est uniquement actif le jour. La troisième génération est un
système de gestion du patient à distance avec décision et analyse constantes,
même s’il fonctionne en dehors des heures de travail. Enfin, la quatrième et
dernière génération est un système de gestion à distance dont les données
viennent d’appareils télémédicaux invasifs ou non invasifs, ceux-ci étant liés à
une plateforme télémédicale et accessibles par le prestataire de soins primaires
ainsi que par le centre télémédical. Certaines données peuvent être enregistrées
automatiquement, d’autres sont parfois encodées manuellement par le patient.
1.1
Les débuts de la télécardiologie
L’ancêtre de la télécardiologie s’appelle le « suivi trans-téléphonique ». Via
une ligne téléphonique classique, il était possible de recueillir à distance un lambeau d’ECG monopiste ainsi que des caractéristiques basiques de la fonction
de stimulation. Le patient se rendait dans un centre distant qui transmettait
les données à un centre de stimulation cardiaque, ce dernier prodiguant donc
une télé-expertise[15, p. 183]. Une autre technique qui passe également par la
ligne de téléphone « normale », mais qui permet au patient de rester chez lui
est l’enregistrement manuel du battement du cœur en tant que fichier audio.
Le patient pose contre son cœur une « carte », qui enregistre les pulsations.
Ensuite, le patient place la carte contre le combiné du téléphone, à l’autre bout
duquel se trouve le cardiologue.[11, p. 6133]
Le suivi trans-téléphonique a évidemment été laissé tombé avec l’évolution technologique. Les prothèses implantées sont de plus en plus complexes
et les diagnostiques peuvent dorénavant se faire de manière embarquée. Cela a
conduit à la possibilité d’une transmission des données stockées par la prothèse
via la ligne téléphonique, et non plus par le combiné. Cette transmission est
manuelle et réalisée par le patient à son domicile. Cependant, on reste dans un
suivi calendaire et non automatique.[15, p. 183] Cette transmission manuelle
des données apporte clairement certaines limites puisqu’il règne une réelle dépendance au patient.
1.2
L’arrivée d’Internet
A partir des années 2000, on va arriver à une télécardiologie automatique
et sans fil. La prothèse ou l’instrument d’ECG est muni d’une micro-antenne,
ce qui permet une transmission automatique de courte distance par radiofré-
3
quence entre le dispositif et un boîtier de transmission proche du patient, dans
son domicile.[23, p. 447] Cela mène donc à la diminution du besoin d’intervention du patient et à l’augmentation de la fréquence de transmissions. Ensuite,
via un réseau téléphonique filaire, les données sont acheminées vers le centre de
services géré par l’industriel du boîtier. Ce serveur est sécurisé et reçoit donc
des messages sous forme cryptée. Le rapport généré sera enfin accessible au
médecin et au personnel médical sur un site web via une connexion Internet
sécurisée. Un message d’alerte peut être engendré et envoyé au cardiologue par
e-mail, fax ou encore message téléphonique selon certaines données prédéfinies.[17, pp. 7-8] Ces notifications peuvent être différenciées selon leur gravité
potentielle, par exemple par couleur (jaune, orange, rouge), et peuvent également être personnalisées[15, p. 185]. La transmission automatique des données
est le plus souvent réglée pour se réaliser pendant la nuit, le boîtier étant posé
sur la table de chevet du patient[1, p. 136].
En 2002, le développement des ECG informatisés a été véritablement promu
par l’Open-ECG, une organisation académique internationale, en procurant
des formats de données ECG standards : SCP-ECG (Standard Communication
Protocol-ECD) approuvé par ISO (International Organization for Standardization), XML-ECG (Extensible Markup Language based ECG) proposé par la
FDA (Food and Drug Administration) et DICOM-ECG (Digital Imaging and
Communications in Medicine based ECG) recommandée par la NEMA (National Electrical Manufactures Association). Ce dernier format permet d’intégrer
les images médicales dans les PACS (Picture Archiving and Communication
Systems). Avec l’aide d’Open-ECG, les hôpitaux peuvent développer des «ediagnostics» plutôt que des rapports papier. Cependant, ces normes n’ont pas
été adoptées par tous les fabricants d’ECG, ceux-ci développant leurs propres
formats. Ce comportement a, par conséquent, abouti à une hétérogénéité des
formats de données, ce qui amène de grandes difficultés d’incompatibilité aux
cliniciens et techniciens lorsqu’un hôpital décide d’acheter des produits ECG
provenant de différents constructeurs.[10, pp. 1-3]
Malgré cette évolution dans le domaine de la télécardiologie, il est toujours
nécessaire de consulter son médecin afin de modifier la programmation de la
prothèse ou d’effectuer des vérifications complémentaires[15, p. 184]. En outre,
le fait que la télésurveillance cardiologique passe par des réseaux fixes limite
considérablement la liberté du patient, étant donné qu’il doit au minimum être
à côté du boîtier de transmission lorsque les données sont téléchargées. Il règne
donc toujours le problème de la flexibilité.[12, p. 6]
Cette difficilté reste la même pour les instruments ECG. En effet, ceux-ci
ne restent opérationnels qu’à l’intérieur de l’hôpital. Les rapports ne peuvent
être générés en dehors. Le centre hospitalier doit donc acheter une station de
télémédecine ECG supplémentaire pour, par exemple, recevoir les ECG trans4
mis à partir des ambulances. Toutefois, un cardiologue expérimenté n’est pas
toujours présent devant le poste et si l’équipe médicale ressent le besoin de
prendre avis auprès d’un cardiologue hors de l’hôpital, celui-ci ne pourra pas
avoir accès aux enregistrements, aux résultats des examens en laboratoire ou
encore aux dossiers de médication.[10, pp. 2-3]
Carlos Costa et José Luis Oliveira proposent, eux, d’utiliser une boîte mail
ordinaire, au lieu de complexes middlewares, pour soutenir le système principal
d’information de télécardiologie et les données associées (Figure 1). Dans la
pratique, le technicien responsable de l’acquisition des données ECG ou ECHO
télécharge les examens vers le centre d’e-mail. Les fichiers sont introduits dans
un conteneur compressé chiffré avec une clé de session. Le conteneur est joint à
un e-mail et envoyé vers l’adresse e-mail centrale via le protocole SMTP. L’utilisateur du logiciel d’examen, qui est une application standalone, sera soumis
à authentification. Cela fait, le logiciel vérifie la boîte de réception de l’utilisateur. S’il y a des nouveaux messages, ceux-ci seront déplacés vers le dossier
«en attente». Ce faisant, les fichiers joints sont téléchargés et décryptés. Les
données sont ensuite analysées. Un rapport au format PDF avec la signature
digitale du médecin sera généré pour ensuite être encrypté et déposé dans la
boîte d’envoi centrale. En résumé, toutes les informations opérationnelles du
système, dont les demandes, les images, les rapports et les réponses sont dans
cette boîte mail.[6, pp. 612-615]
Choisir un serveur mail pour la télémédecine revêt de nombreux avantages,
notamment la réduction des exigences opérationnelles et donc des coûts ainsi
que l’intégration naturelle des communications par messages électroniques[5,
p. 107]. De plus, pour explorer la collaboration inter-institutionnelle, il est
nécessaire d’adapter les communications des applications aux exigences du réseau concernant les « pare-feux ». En effet, ceux-ci inhibent généralement les
connexions directes venant de l’extérieur du centre de soins de santé, en raison
des politiques de gestion du réseau. En conséquence, l’approche proposée par
Costa et Oliveira est supportée par le protocole IMAP, protocole qui cohabite
plutôt bien avec les pare-feux. Enfin, il n’est pas nécessaire de créer de nouveaux protocoles et répertoires de données, et des ressources IT ne sont pas
requises pour installer le centre de télémédecine.[6, p. 614]
1.3
Les réseaux mobiles
Dans les années 2009 et 2010, une série d’études ont été menées afin d’améliorer la télémédecine, et donc la télécardiologie, par l’utilisation du mobile
computing[10, p. 2]. Ce perfectionnement va de paire avec la rapide progression
des technologies concernant les appareils médicaux, et plus particulièrement
les instruments d’ECG. En effet, ceux-ci acquièrent de nouvelles caractéristiques : les périodes d’enregistrement des données sont plus longues, le patient
ne doit plus porter de fils ou d’électrodes, la petit taille de l’appareil le rend
5
Figure 1 – Workflow central proposé par Costa et Oliveira[6, p. 614]
véritablement portable, une communication sans fil instantanée est possible,
la capacité du traitement du signal est élargie et l’appareil est capable de se
recharger sans fil et/ou par récupération d’énergie.[16, p. 210]
Avec l’émergence du Wi-Fi et surtout de la troisième génération des technologies de communication sans fil (3G), les patients peuvent simplement utiliser
des téléphones portables pour transmettre les données à l’hôpital ou au centre
médical. En pratique, les données sont envoyées au téléphone portable du patient via Blutetooth ou ZigBee. Le téléphone mobile basé sur la 3G va alors
envoyer les données via Internet au téléphone ou à l’ordinateur du soignant
en utilisant la suite de protocoles TCP/IP, qui garantit que les données soit
transmises et reçues sans erreur.[11, p. 6133] La transmission des données par
Bluetooth est la transmission la plus usitée étant donné qu’elle est disponible
sur la plupart des dispositifs intelligents comme les tablettes, les ordinateurs
portables, les ordinateurs personnels et même les smart TV.[7, p. 16457]
En plus de permettre une plus grande mobilité du patient et ainsi d’amélio-
6
Figure 2 – Applications de télémédecine dans la pratique clinique[10, p. 3]
rer son quotidien, la télécardiologie mobile rend possible l’établissement d’un
diagnostic précis à l’aide d’un ECG lorsque le cardiologue expérimenté n’est pas
là ou en période de pré-hospitalisation, c’est-à-dire dans l’ambulance. Pour ce
dernier cas, l’électrocardiogramme est enregistré directement dans l’ambulance
et est envoyé via un réseau sans fil (3G ou Wi-Fi) vers le centre d’intervention ou sur le téléphone portable du cardiologue (Figure 2). Dans le cas où
le cardiologue n’est pas présent dans l’hôpital et qu’un patient a besoin d’un
traitement immédiat, il pourra utilisé son mobile, préalablement implémenté
avec une base de données mobile, pour se connecter avec la base de données
de l’hôpital et ainsi avoir accès aux enregistrements stockés dans le système
d’information de l’hôpital ainsi que dans le PACS. [10, pp. 1-2]
D’autres technologies peuvent être transposées à la télécardiologie afin
d’améliorer son efficience. Par exemple, certains produits vont permettre la
localisation en temps réel du patient. Les services d’urgence peuvent ainsi
facilement localiser la victime lorsqu’une fréquence cardiaque anormale est détectée et fournir les soins nécessaires le plus rapidement possible.[12, p. 4]
Hsied et al. écrivent en 2013 que malgré les énormes avancées réalisées par
la cardiologie mobile, la plupart des services de télémédecine sont uniquement
offerts à l’intérieur ou entre des hôpitaux. En outre, la disponibilité de cardiologues expérimentés est limitée[11, p. 6139]. Selon eux,
« to overcome theses limitations, a common telecardiology platform with shared access nationwide or even worldwide is in great
demand. If different clinics, hospitals, medical centres around the
world can team up and establish a databank including ECG, ECHO,
and relevant images, and if there are sufficient senior cardiologists
from different countries who can take part in the telecardiology
consultation teamwork, it will be possible to carry out ubiquitous
7
national and international emergency teleconsultation among rural
clinics, hospitals, medical centres, professionals and at-home patients, or even moving ambulances. »[11, p. 6139]
Si cette idée paraît à première vue plutôt utopique, la solution pourrait se
trouver dans le concept de cloud computing.
1.4
1.4.1
La Cloud cardiologie
Cloud computing
Le cloud computing consiste en une infrastructure Internet à la demande,
en libre service qui permet à l’utilisateur d’accéder à des ressources à n’importe quel moment et de n’importe où. C’est un paradigme en évolution. Sa
définition, ses attributs et ses caractéristiques vont encore changer à travers le
temps. Du point de vue du service, le cloud computing inclut trois modèles[14,
pp. 1-3] :
1. Software-as-a-service (SaaS) : les applications sont hébergées par un
fournisseur de service cloud et sont disponibles via un réseau, en général
Internet.
2. Platform-as-a-service (PaaS) : les outils de développement sont hébergés dans le cloud et son accessibles via un navigateur. Grâce à cela,
les développeurs peuvent, par exemple, créer des applications web sans
installer aucun outil sur leur ordinateur. Les applications sont donc déployées sans aucune capacité administrative spécialisée.
3. Infrastructure-as-a-service (IaaS) : l’utilisateur externalise l’équipement
utilisé pour supporter des opérations telles que le stockage, le hardware,
les serveurs et les composants réseau. Le fournisseur cloud détient l’équipement et est responsable de l’hébergement, du fonctionnement et de la
maintenance. L’utilisateur paye uniquement sur base de ce qu’il utilise.
1.4.2
Application à la télécardiologie
Pour l’instant, la plupart des projets de « cloud cardiologie » se focalise
sur l’utilisation des ECG et des ECHO puisque ce sont les outils de diagnostic
les plus fréquemment utilisés[10, p. 1]. En pratique, le patient est équipé d’un
capteur ECG qui transfert les données via Bluetooth vers un appareil mobile capable de communiquer des données sur Internet. Le logiciel client situé
dans le dispositif mobile transmet les données par Wi-Fi ou 3G au service web
d’analyse d’ECG, qui est hébergé par un fournisseur de cloud computing.[20,
p. 149] Ce transfert se fait par le protocole Hypertext Transfer Protocol Secure
(HTTPS)[24, p. 256] ou HTTP POST sous le modèle client-serveur et, par
exemple, au format JSON (JavaScript Object Notation)[7, p. 16461].
8
Figure 3 – Composants du système de surveillance dans le cloud proposé par
Pandey et al.[20, p. 151]
On se trouve là dans la couche « Software-as-a-service », qui contient les outils pour analyser de manière personnalisée les données anciennes ou actuelles
de tous les patients. Ce logiciel est donc bien hébergé en tant que service web
de manière à ce que n’importe quelle implémentation côté client puisse appeler
les fonctions sous-jacentes (analyser, télécharger des données, etc.) sans avoir
à passer par les complexités de l’application inférieure.[20, p. 150]
Le logiciel d’analyse effectue alors un certain nombre de calcul sur les données reçues en prenant référence des données démographiques existantes et des
données historiques du patient. Le logiciel ajoute ensuite les derniers résultats
à l’historique du dossier du patient maintenu dans le stockage cloud privé et
sécurisé. Les médecins, qui doivent s’authentifier, vont interpréter les caractéristiques extraites de l’ECG. Les résultats sont ensuite envoyés à l’appareil
ou au moniteur mobile du patient, au docteur et/ou au service d’urgence, à
intervalles prédéfinis.[20, p. 149] Dans certains cas, le patient peut voir les enregistrements de ses ECG en ligne via un navigateur web et les soumettre à
un professionnel de la santé pour un diagnostic. Du côté du médecin, il peut
avoir accès à ces enregistrements, prendre une décision provisoire, demander
pour une seconde opinion à un de ses collègues et télécharger des ECG de
référence accessibles aux patients, à des collègues ou à des scientifiques dans
un but éducationnel et de recherche.[24, p. 257]
Dans le projet proposé par Pandey et al. (Figure 3), la couche «Platformas-a-service» contrôle l’exécution du logiciel grâce à trois composantes princi9
pales : un gestionnaire de mise à l’échelle du conteneur, un « workflow engine
» et un interlogiciel (middleware). Le workflow engine est hébergé dans un
conteneur et gère l’exécution des tâches du workflow de l’application ECG
ou ECHO. Quand le nombre de demandes des utilisateurs augmente, le gestionnaire de mise à l’échelle instancie davantage de conteneurs afin que les
demandes des utilisateurs soient distribuées aux workflows engines. Deux paramètres doivent être pris en compte : le nombre de demandes et le nombre
moyen de demandes qu’un conteneur peut gérer en un temps donné. Le workflow engine rassemble les tâches créées à partir des demandes des utilisateurs
et les soumet au middleware, sorte de plateforme de distribution et de gestion
de la charge de travail. Cette plateforme gère la communication entre la couche
PaaS et la couche «Infrastructure-as-a-service» en utilisant un cadre « maîtretravailleurs ». La partie « maître » du middleware est le service fonctionnant
dans la couche PaaS tandis que les parties « travailleurs » sont les applications
exécutantes installées dans chaque machine virtuelle instanciée au niveau de
l’infrastructure.[20, p. 150] Tout ce que nous venons de voir s’applique aussi
aux BSN (Body Sensor Networks), comme le montre le projet BodyCloud proposé par Fortino et al. en mai 2013[8].
1.4.3
Cloud-PACS
Le grand problème des PACS traditionnels est le poids et la quantité des
images médicales, mêmes compressées. Les déplacer d’une localisation à une
autre en un temps donné requière beaucoup de bande passante ainsi que du
temps, ce que les institutions n’ont, en général, pas. Un second défi est la sécurité des données. Les exigences de sécurité sont multiples, et parfois conflictuelles.[21, pp. 179-181]
L’arrivée du cloud computing a permis de mettre en place des « CloudPACS », accessibles au public via Internet par des navigateurs web en tant
que SaaS. Via le PaaS, la télécardiologie se verra plus collaborative avec les
Cloud-PACS des hôpitaux et des instituts universitaires, où les fournisseurs de
cloud computing offrent un environnement informatisé pour le développement,
la mise en réseau et le stockage d’applications sans achat de hardware et de
software. Ces Medical Imaging Clouds (MICloud) rendent possible le remplacement des PACS classiques, beaucoup plus chers, et permettent l’interopérabilité des ECG et des images au format unifié DICOM. Cette technologie
peut servir autant pour la recherche que pour l’éducation et peut facilement
être étendu du niveau local au niveau global avec n’importe quelle clinique,
n’importe quel hôpital ou centre médical à travers le monde qui pourra désormais partager des ECG, ECHO et images pour la collaboration de diagnostic
et consultation pré-hospitaliers, hospitaliers ou post-hospitaliers.[7, pp. 61416142]
10
Figure 4 – Exemple de Patch ECG Monitors[16, p. 212]
Cinq technologies rendent les « Cloud-Pacs » possibles : le cryptage de
sécurité, les réseaux de data center à haute vitesse, les technologies du web,
mais surtout le rendu à distance et les bureaux virtuels. Le rendu à distance
résout le problème du déplacement de grands ensembles de données du PACS à
un poste de travail clinique, car les images sont traitées sur un serveur dans un
data center qui diffuse ensuite uniquement les bits nécessaires pour représenter
l’image en 2D. Ensuite, grâce aux bureaux virtuels, le réseau peut se brancher
directement sur le moniteur, qui agit comme s’il était connecté à un poste local.
Cependant, ce « poste de travail » est une machine virtuelle qui fonctionne
dans un data center dans le cloud.[21, pp. 179-180]
1.4.4
PEM
Comme nous l’avons vu précédemment, les avancées récentes ont permis le
développement d’appareils de plus en plus petits, dont des appareils de surveillance par ECG complètement portables. Ceux-ci se présentent sous la forme
de patch adhésif sensible à la pression avec un circuit électronique embarqué et
permettent un enregistrement de signaux sur une période de 7 jours, 14 jours
ou plus.[16, p. 211] C’est ce que l’on appelle les PEM ou Patch ECG Monitors
(Figure 4).
Ces patchs offrent au patient un environnement d’enregistrement sans électrode, sans fil et non-intrusif car le PEM ne rentre pas sous la peau. Ils permettent un meilleur diagnostic puisque la période d’enregistrement des données
est plus longue qu’auparavant. L’encombrement est moindre et la demande
d’énergie est faible. Par contre, ce dispositif ne permet pas d’avoir une idée
tridimensionnelle de l’activité électrique du cœur et le remplacement des électrodes internes à l’appareil doit se faire périodiquement.[16, pp. 211-214]
1.5
Les apports du Cloud pour la télécardiologie
Tout d’abord, le cloud computing permet d’accéder aux données de n’importe où en utilisant n’importe quel dispositif, comme un navigateur web ou un
11
téléphone mobile. Il n’y a plus besoin d’installer de logiciel sur une machine locale. Deuxièmement, le coût est considérablement réduit puisque le cloud computing est basé sur le schéma «pay-per-usage».[24, p. 253] Le client va payer
pour l’utilisation de la bande passante, du stockage, du service du logiciel, de la
surveillance, de la maintenance ou encore de la livraison du contenu[20, p. 148]
Ensuite, le cloud computing permet de la souplesse, ou ce que l’on appelle en
langage informatique de la «scalabilité». Dans le cadre du cloud computing,
l’attention est particulièrement portée sur la scalabilité horizontale et la scalabilité géographique. La première est la capacité qu’a un système à facilement
s’étendre pour accueillir des ressources supplémentaires tandis que la seconde
réfère à la faculté du système à maintenir sa performance et son utilité quelque
soit sa répartition géographique (locale ou globale).[24, pp. 253-254] De plus,
la plupart des fournisseurs de cloud computing peut, de manière routinière,
sauvegarder les données et stocker celles qui sont dupliquées dans différents
data centers. Ainsi, les données peuvent être retrouvées en cas de dommages
ou de dysfonctionnements de la machine.[11, p. 6140] En ce qui concerne les
Cloud-PACS, James Philbin, co-directeur du Centre d’informatique biomédicale et d’imagerie à l’Université Jhons Hopkins de Baltimore, considère que
les données sont plus en sécurité car elles résident dans un data center et n’y
bougent plus. L’expérience de visionnage clinique et diagnostique serait également améliorée grâce à une connexion de 4Mb/s ou plus. La combinaison
du rendu à distance et des bureaux virtuels permet donc de diminuer l’exigence de bande passante.[21, pp. 179-180] Enfin, comme nous l’avons vu plus
haut, le cloud computing permet une interprétation inter-hospitalière.[10, p. 3]
1.6
Les limites du Cloud en télécardiologie
Le premier grand challenge de la Cloud cardiologie est la sécurité des données, et encore plus lorsque ce sont des données relatives aux antécédents médicaux d’un large nombre de personnes[20, p. 148]. Les fournisseurs de cloud
devraient s’assurer d’encrypter les données, de ne pas laisser d’accès à des utilisateurs non authentifiés et de régulièrement dupliquer les données afin d’éviter
de les perdre[24, p. 254]. Malheureusement, aucun algorithme de cryptographie
ne garantit à 100% la sécurité du transfert de données par Internet. Cependant,
cela peut réduire les risques d’attaques malveillantes.
Un deuxième problème amené par l’arrivée du cloud est une certaine latence
dans la transmission des données, surtout quand les services de cloud sont loin
de la localisation des utilisateurs des appareils mobiles. Pour Fred Prior, Directeur de l’Electronic Radiology Laboratory à Washington, ce n’est effectivement
pas si clair que le rendu à distance des Cloud-PACS, par exemple, permette
une si faible latence. Un réseau de la bande passante élevée dans un data center distant ne peut pas dépasser les limitations de bande passante relativement
faible du canal de communication entre une institution et le data center dis-
12
tant.[21, p. 182] Pour réduire cette lenteur, il est envisageable d’instaurer un
cadre de « cloudlets », des nouveaux éléments architecturaux qui résultent de
la convergence entre le mobile computing et le cloud computing.[11, p. 6143]
Enfin, le montant réel n’est pas si bas puisqu’il faut ajouter des coûts
supplémentaires pour cause de latence et de risques par rapport à la gestion
de la protection des informations de santé en dehors de l’entité qui a créé ces
informations.[21, p. 182]
2
Etude de cas : projet AKENATON
Le projet AKENATON, automated knowledge extraction from medical records in association with a telecardiology observation network, entrepris par
l’Université de Rennes en France et soutenu par le programme « technologies
pour la santé » de l’Agence nationale de la recherche, propose une approche
centrée patient qui traite les alertes envoyées par un défibrillateur cardiaque
pour en déterminer le degré de gravité et d’urgence en tenant compte des
caractéristiques du patient enregistrées dans son dossier médical[4, p. 1]. Le
projet aborde donc l’extraction des informations médicale des dossiers de patients écrits en français[9, p. 501].
Outre les alertes techniques, la plupart des alertes transmises par les défibrillateurs concernent des épisodes de fibrillation auriculaire (FA). Dans ce cas,
le risque thromboembolique doit être déterminé grâce à un score CHA2DS2VASc, recommandé par la European Society of Cardiology.[3, p. 192] Ce score
est une échelle de 10 points qui permet aux cardiologues de facilement identifier
les risques d’attaques pour les patients atteints de fibrillation non valvulaire.
Plus le score est haut, plus le risque de thromboembolie est élevé. Il se calcule
à l’aide de huit critères, chacun valant un ou deux points[9, p. 501] :
1. Insuffisance cardiaque congestive ou dysfonction du ventricule gauche
(1 point)
2. Hypertension (1 point)
3. Diabète (1 point)
4. Attaque cardiaque, accident ischémique transitoire ou thromboembolie
(2 points)
5. Maladie vasculaire (1 point)
6. Age supérieur ou égal à 65 ans et moins de 75 ans (1 point)
7. Femme (1 point)
2.1
Ontologie
Le système AKENATON repose sur une ontologie de domaine en logique
de description de haut niveau, DOLCE. Cette ontologie fut développée en
13
OWL2 après une étape d’explication des concepts sous OntoSpec. Elle comprend environ 250 classes formellement définies qui décrivent les maladies, les
médicaments et le matériel du champ de la télécardiologie et est organisée en
modules qui couvrent chacun un concept ciblé, avec les règles d’inférence et
les relations qui supportent le traitement de l’information.[3, p. 192]
2.2
Processus
Afin de déterminer la sévérité de l’alerte envoyée par le défibrillateur cardiaque, le prototype AKENATON procède en cinq étapes. Tout d’abord, il va
lire les alertes FA délivrées par la prothèse et calculer la durée de la FA. Ensuite, il va extraire les données pertinentes du dossier médical du patient par un
traitement du langage naturel.[18, p. 301] Pour ce faire, les documents textuels
du dossier, atteints via un système médiateur qui permet un accès transparent
aux données structurées (résultats de laboratoire, résumés des sorties standardisées. . . ) ou non structurées (documents textuels), vont être analysés de
manière à compléter les données structurées envoyée par le défibrillateur. Ainsi,
les informations nécessaires au calcul du score CHA2DS2-VASc et le statut du
patient en terme de traitement anticoagulant sont extraits et datés lorsque
cela concerne les médicaments.[3, p. 193] La troisième étape est l’intégration
des données d’alerte et du contexte clinique du patient[18, p. 301]. Un modèle
de données inspiré du modèle général PSIP (Program and System Information
Protocol ) a été adapté, enrichi pour la télécardiologie et aligné sur l’ontologie AKENATON[3, p. 193]. L’ontologie en OWL va ensuite « raisonner » par
inférence pour déterminer le score CHA2DS2-VASc du patient et le statut
d’antagoniste de la vitamine K (AVK), une classe d’anticoagulants[18, p. 301].
Par exemple, un patient sous insuline va être classé comme diabétique, même
si cette notion n’apparaît pas telle quelle dans son dossier. Mais ces capacités
de classification automatique de l’ontologie en OWL ont été complétées par des
règles qui supportent les autres types d’inférence.[3, p. 193] Enfin, le niveau
de sévérité de l’alerte va être calculé par rapport à la durée de la fibrillation
auriculaire, le score CHA2DS2-VASc et le statut AVK du patient[18, p. 301].
2.3
Résultats et perspectives
Les tests effectués ont montré une classification correcte des niveaux de
sévérité des alertes, mais les temps de réponses sont trop longs. L’équipe du
projet AKENATON a alors décidé de créer un prototype utilisant un langage
à base de règles pour une part plus conséquente du raisonnement. A la suite
de cette modification, le système AKENATON a véritablement pu prouver,
par des essais, sa plus-value à compléter par des règles le raisonnement basé
sur l’ontologie et son intérêt pour la télécardiologie. Dans le futur, il serait
intéressant d’intégrer les paramètres cliniques comme la pression artérielle et
14
Figure 5 – Vue d’ensemble du système AKENATON[3, p. 192]
le poids et de définir plus précisément les services associés à l’implantation
d’un défibrillateur cardiaque pour le suivi à distance du patient.[3, p. 193]
Conclusion
L’évolution des technologies a indubitablement permis à la télécardiologie
de s’améliorer. En effet, le très simple « suivi trans-téléphonique » a rapidement
laissé place au suivi à distance des patients atteints de maladies cardiaques par
le réseau filaire, puis par le réseau mobile. Le bon fonctionnement de la surveillance du malade ne dépend plus de ce dernier puisque les données sont,
aujourd’hui et dans la plupart des cas, transmises de manière automatique. De
plus, le patient est maintenant totalement libre de se mouvoir et ne dois plus
obligatoirement rester chez lui pour que les différentes informations arrivent
chez son médecin traitant, son cardiologue ou son centre médical. Les données médicales étant particulièrement délicates, elles doivent être traitées et
utilisées de manière très prudente. Les recherches se penchent de plus en plus
sur le problème de la sécurité que les nouvelles technologies peuvent en partie
régler. Enfin, l’amélioration des techniques de télécardiologie amène surtout à
l’augmentation de la qualité des diagnostics et des soins prodigués.
L’enjeu actuel dans le domaine de la télécardiologie est probablement celui
du cloud computing. Pour l’instant, toutes les applications de cette nouvelle
technologie à la télécardiologie ne sont que sous forme de projets. Mais malgré
15
les problèmes qu’il reste à résoudre, comme ceux de la latence, de la propriété
des données, du coût effectif ou encore de la sécurité, des recherches, expériences et tests continuent d’être menés afin de fournir aux malades cardiaques
les meilleurs services.
Références
[1] W Amara et J Sergent. « Stimulation cardiaque : que doit-on connaître
de la télécardiologie en pratique ? » In : Annales de cardiologie et d’angeiologie. T. 55. 6. Elsevier. 2006, pp. 315–320.
[2] Stefan D Anker, Friedrich Koehler et William T Abraham. « Telemedicine and remote management of patients with heart failure ». In :
The Lancet 378.9792 (2011), pp. 731–739.
[3] Anita Burgun et al. « Aide à la décision en télécardiologie par une
approche basée ontologie et centrée patient ». In : IRBM 32.3 (2011),
pp. 191–194.
[4] Anita Burgun et al. « Integrating clinical data with information transmitted by implantable cardiac defibrillators to support medical decision
in telecardiology : the application ontology of the Akenaton project ».
In : AMIA Annu Symp Proc. T. 992. 2010.
[5] Liam Caffery, Anthony C Smith et Paul A Scuffham. « An economic analysis of email-based telemedicine : a cost minimisation study
of two service models ». In : BMC health services research 8.1 (2008),
p. 107.
[6] Carlos Costa et José Luís Oliveira. « Telecardiology through ubiquitous Internet services ». In : International journal of medical informatics
81.9 (2012), pp. 612–621.
[7] Ee-May Fong et Wan-Young Chung. « Mobile Cloud-Computing-Based
Healthcare Service by Noncontact ECG Monitoring ». In : Sensors 13.12
(2013), pp. 16451–16473.
[8] Giancarlo Fortino et al. « Bodycloud : a saas approach for community
body sensor networks ». In : Future Generation Computer Systems 35
(2014), pp. 62–79.
[9] Cyril Grouin et al. « Automatic computation of CHA2DS2-VASc score :
information extraction from clinical texts for thromboembolism risk assessment ». In : AMIA Annual Symposium Proceedings. T. 2011. American Medical Informatics Association. 2011, p. 501.
[10] Jui-chien Hsieh et Meng-Wei Hsu. « A cloud computing based 12-lead
ECG telemedicine service ». In : BMC medical informatics and decision
making 12.1 (2012), pp. 1–12.
16
[11] Jui-Chien Hsieh, Ai-Hsien Li et Chung-Chi Yang. « Mobile, Cloud, and
Big Data Computing : Contributions, Challenges, and New Directions
in Telecardiology ». In : International journal of environmental research
and public health 10.11 (2013), pp. 6131–6153.
[12] Val Jones et al. Mobihealth : Mobile health services based on body area
networks. Springer, 2006.
[13] Salem Kacet et Denise Silber. Livre blanc de la télécardiologie dans
le suivi des patients porteurs de stimulateurs et défibrillateurs cardiaques
implantables. Biotronik, 2008.
[14] Alex Mu-Hsing Kuo. « Opportunities and challenges of cloud computing to improve health care services ». In : Journal of medical Internet
research 13.3 (2011).
[15] A Lazarus et al. « Dysfonctionnements des prothèses cardiaques et
télécardiologie ». In : Archives of Cardiovascular Diseases Supplements
2.3 (2010), pp. 182–187.
[16] S Suave Lobodzinski et Michael M Laks. « New devices for very longterm ECG monitoring ». In : Cardiology journal 19.2 (2012), pp. 210–
214.
[17] P Mabo et al. « La télécardiologie en France, état des lieux en 2012 et
perspectives de développement ». In : European Research in Telemedicine/La Recherche Européenne en Télémédecine 1.1 (2012), pp. 6–11.
[18] J Mantas et al. « Comparing Drools and ontology reasoning approaches
for telecardiology decision support ». In : Quality of Life Through Quality
of Information : Proceedings of MIE2012 180 (2012), p. 300.
[19] N Noury et al. « Capteurs pour la télésurveillance médicale. Capteurs,
algorithmes et réseaux ». In : IRBM 30.3 (2009), pp. 93–103.
[20] Suraj Pandey et al. « An autonomic cloud environment for hosting ECG
data analysis services ». In : Future Generation Computer Systems 28.1
(2012), pp. 147–154.
[21] James Philbin, Fred Prior et Paul Nagy. « Will the next generation
of PACS be sitting on a cloud ? » In : Journal of digital imaging 24.2
(2011), pp. 179–183.
[22] Jacob Thorsted Sørensen, Peter Clemmensen et Maria Sejersten.
« Telecardiología : pasado, presente y futuro ». In : Revista Española de
Cardiología 66.3 (2013), pp. 212–218.
[23] Alain Venot, Anita Burgun et Catherine Quantin. Informatique Médicale, e-Santé : Fondements et applications. Springer Science &amp ;
Business, 2013.
[24] Henian Xia, Irfan Asif et Xiaopeng Zhao. « Cloud-ECG for real time
ECG monitoring and analysis ». In : Computer methods and programs
in biomedicine 110.3 (2013), pp. 253–259.
17
Téléchargement