le clinical risk management - Secteur des sciences de la santé

publicité
LE CLINICAL RISK MANAGEMENT
A.Vleugels, directeur, Centrum voor Ziekenhuis- en Verplegingswetenschap K.U.Leuven
Ces dernières années, un certain nombre de termes utilisés dans le monde de l’organisation et
de la politique des soins tels que evidence based medicine, medical technology assessment,
medical audit, peer review, benchmarking, systematic review, … nous sont venus des pays
anglo-saxons et surtout d’Amérique du Nord. Il est difficile de traduire la richesse et les nuances
contenues de manière condensée dans ces termes anglais, à tel point que même en français,
ces termes ne sont souvent pas traduits. A cette liste de mots quasiment intraduisibles, s’ajoute
l’expression “clinical risk management”dont une alternative en français serait La “gestion des
risques cliniques”, même si le terme évoque plus de questions que l’image d’un concept clair.
Pour cette raison, le texte s’en tiendra à l'expression en anglais: clinical risk management.
Le risk management
Le risk management englobe un ensemble de concepts, notions et activités pour identifier,
quantifier, évaluer et analyser les risques et pour, après évaluation d'un ordre de priorité,
éliminer ces risques, réduire au maximum les chances que de tels risques se produisent et/ou,
au cas où ils se produisent, de limiter au maximum les dégâts. Les risques dont il est question
concernent surtout les risques dus aux activités d’entreprise.
Le risk management fait partie intégrante de la politique de toutes les entreprises, y compris les
hôpitaux et les institutions de soins de santé, travaillant suivant des principes de gestion
modernes. Les activités d’entreprise sont susceptibles de conduire à de nombreuses formes de
dégâts. C’est la raison pour laquelle, le risk management est par définition multidimensionnel et
très varié. Les activités d’entreprise peuvent causer des dégâts à l’infrastructure matérielle et
l’équipement technique de l’entreprise. Le risk management se traduit par exemple dans des
programmes d’entretien technique préventifs, de solides contrats d’entretien, l’implémentation
de solutions de secours, etc.
Comme des collaborateurs peuvent subir des dégâts, toute la législation du travail est
concernée: la désignation de conseillers en sécurité, la mission des services médicaux de
l’entreprise, l’assurance accidents du travail, les techniques et les campagnes de prévention
des accidents par piqûres, protection contre les risques de rayonnements...: le risk management
dans tous ses aspects est une notion bien connue dans le secteur des soins de santé.
Il y a des risques pour l’entreprise en tant qu’entreprise: risques au niveau de la gestion ou des
finances mettant en péril l’existence même de l’entreprise (cf. les scandales récents chez Enron,
Parmalat, Lernout & Hauspie...). Le risk management se manifeste sous la forme d’audits
internes et externes, la désignation de réviseurs d’entreprise, l’application des principes de
gouvernance d’entreprise (corporate governance), le contrôle méticuleux par les banquiers et
les actionnaires des comptes financiers....
Comme les activités d’entreprise peuvent nuire à l’environnement, l’intérêt du risk management
pour l’environnement ne cesse de croître. Cet intérêt se manifeste par la désignation de
conseillers en environnement, le choix de processus de production plus respectueux de
l’environnement, un choix délibéré pour certains matériaux, des plans de mobilité pour les
collaborateurs…: tout est lié à cette dimension récente du risk management.
L’activité d’entreprise peut également nuire au client et les entreprises en sont, pour des raisons
évidentes, pleinement conscientes. Le risk management se concrétisera par exemple par les
principes du HACCP dans le domaine alimentaire, le labelling, l’étiquetage, des notices
interminables pour les médicaments mais sera également d’application pour la fenêtre d’une
-1-
chambre d’hôtel au 25ème étage que le client n’arrivera pas à ouvrir ou les pictogrammes jauneorange «sol mouillé» dans les couloirs d’hôpitaux fraîchement nettoyés, pour ne citer que ces
deux exemples.
Le clinical risk management
Le clinical risk management concerne cette dernière catégorie: les risques de dégâts pour le
client. Le clinical risk management concerne les risques de dégâts qui sont propres à dus au
contact du client avec les soins de santé et le régime des soins de santé. Le clinical risk
management utilise les connaissances, les visions et les méthodes du risk management pour
éliminer, ou du moins limiter au maximum, les dégâts que le client/patient/habitant peut encourir
dans son contact avec les soins de santé. Le clinical risk management n’est pas nouveau.
Depuis des années, les spécialistes en hygiène hospitalière réussissent en effet à réduire de
manière considérable l’incidence des infections nosocomiales. Même si les spécialistes en
hygiène hospitalière ont rarement utilisé le terme clinical risk management, leur activité n’en est
pas un moins un bel exemple.
L’intérêt pour le clinical risk management a fortement augmenté ces dernières années. Cette
tendance se maintient, du moins à croire le nombre de publications scientifiques et autres sur le
sujet, les séminaires, les symposiums, les congrès, les projets de recherche, les rapports et
recommandations issues de différentes sources. Cet intérêt croissant est dû : premièrement aux
publications de la fin du siècle dernier de l’institut américain «Institute of Medicine», sur le
déficit inquiétant en matière de sécurité du patient dans les hôpitaux américains [16, 17] et
deuxièmement à la (re-)découverte de la théorie de l’erreur humaine de James Reason [19].
1. Le rapport “To err is human: building a safer health system” restera gravé dans les
mémoires grâce à cette seule phrase disant que chaque année, 44.000 à 98.000 personnes
meurent dans les hôpitaux américains à la suite des “preventable medical errors” ou erreurs
médicales évitables (comme le terme «medical errors» est trop associé à l’idée de
«culpabilité» et que cela ne va pas faire évoluer le clinical risk management, on a de plus en
plus tendance en anglais à utiliser le terme «adverse events» (évènements indésirables)).
La différence entre les 44.000 et les 98.000 s’explique par les différentes définitions et les
différentes manières de comptage. Même en tenant compte du nombre le plus bas, la
mortalité évitable dans les hôpitaux est toujours la 8ème cause de décès aux Etats-Unis, bien
avant les accidents de la route et le cancer du sein. Les résultats des études aux Etats-Unis
ont été confirmés dans d’autres pays, tels que l’Australie [27], le Royaume-Uni [24], le
Canada [3], le Danemark [21] et la Nouvelle Zélande [6].
Il ressort de l’ensemble de ces études qu’auprès de 5 à 10% des patients hospitalisés
«quelque chose tourne mal» et que dans 5 à 10% de ces cas, les suites sont graves: décès
ou lésion permanente ou handicap. Une récente enquête sur des sources de données
secondaires confirme des chiffres similaires [22] pour la Belgique. Des incommodités moins
importantes, telles que la douleur, l’angoisse, un séjour prolongé, etc., restent inaperçues,
ne sont jamais mesurées et n’apparaissent dans aucune statistique. Elles n’en sont pas
moins une réalité pour les patients.
Les chiffres publiés sont suffisamment convaincants, et suffisamment reconnaissables au
niveau international pour inciter les professionnels dans le secteur des soins de santé et le
secteur dans l’ensemble, à réfléchir de manière fondamentale à un certain nombre de
questions critiques:
- Pour quelle raison les hôpitaux/institutions de soins de santé/de soins en général (de plus
en plus de publications signalent que l’incidence d’événements indésirables dans les soins
-2-
résidentiels aux personnes âgées et dans les soins de première ligne par exemple, n’est
pas inférieure à l’incidence dans les hôpitaux [11, 12, 26, 34]) sont pour le
patient/l’habitant/le client un environnement si dangereux?
- Pour quelle raison le secteur des soins et les professionnels dans le secteur des soins de
santé n’accordent depuis des années quasiment aucune attention à ces risques?
- Et maintenant que nous commençons à prendre conscience de cette problématique,
comment peut-on y remédier efficacement?
Ces réflexions imposent une comparaison avec l’aviation civile, qui au départ était une
entreprise risquée, réservée aux aventuriers et qui est devenue un des secteurs
économiques les plus sûrs. Cette évolution n’est pas due au hasard mais est le fruit d’une
gestion ciblée et soutenue. Les similitudes sont frappantes et le clinical risk management
peut copier de nombreuses techniques de risk management issues de l’aviation civile.
Les résultats publiés sont en outre suffisamment convaincants pour sensibiliser un certain
nombre d’organisations internationales à cette problématique. Ainsi, l’Organisation Mondiale
de la Santé [33], l’OCDE [32] et le Conseil de l’Europe [5] ont lancé des initiatives dans ce
sens. La force de ces initiatives internationales est de faire monter la pression sur les
autorités nationales. Aucun pays ne peut se permettre de rester à la traîne et notre pays non
plus. Les autorités ont donc intensifié leurs efforts et l’intérêt pour le clinical risk
management a fort augmenté ces dernières années [15]. Et même si le clinical risk
management est avant tout une affaire des acteurs sur le terrain (“bottom up”), un soutien et
un encadrement des pouvoirs publics sont fort utiles. De même, l’hygiène hospitalière dans
notre pays ne serait pas ce qu’elle est si les pouvoirs publics n’avaient pas dès le départ
reconnu son importance et créé un cadre juridique approprié.
2. Nous avons cette habitude bien ancrée – et non seulement dans le domaine des soins de
santé mais aussi… ???..?? – de désigner des coupables et responsables dès que quelque
chose tourne mal. En analysant un incident, nous nous concentrons bien souvent sur les
événements qui se sont produits dans un périmètre restreint autour de l’incident, en
l’occurrence sur ce que les personnes ont fait ou omis de faire juste avant l’incident.
James Reason a développé dans les années nonante du siècle dernier un modèle suivant
lequel les erreurs sont bien plus souvent dues à la façon dont nous organisons le travail qu’à
des bavures dues à des individus [19, 20]. Il a développé son modèle dans et pour un
environnement de production industriel complexe. Le but était de mieux comprendre les
interactions entre les différents facteurs conduisant finalement aux incidents concrets et
d’identifier sur base de cela des méthodes pour mieux prévenir de tels incidents. Ses
motivations étaient dans ce cas-ci inspirées d’un contexte manifestement économique.
Ce sont surtout les groupes autour de Leape [18] et de Vincent [25] qui ont traduit avec
succès le modèle de James Reason vers le secteur des soins de santé où le modèle est
bien accepté et connu sous le nom de «modèle du fromage suisse». La présente publication
n’a pas l’ambition de développer ce modèle en détail mais je me limiterai aux concepts les
plus importants (pour plus de détails, je recommande les publications originales de Reason;
dans de nombreuses publications, le modèle est souvent réduit de manière simpliste à
quelques tranches de fromage suisse à trous sans structure ni cohérence).
- Latent failures – des erreurs latentes: qui sont les carences latentes et structurelles d’une
organisation.
- Active errors – des bavures: activité humaine n’ayant pas été effectuée, ou mal effectuée.
Reason distingue trois types de “bavures”:
- Slips and lapses – des écarts de conduite, des inattentions mineures conduisant ou
susceptibles de conduire à ce qu’une action s’écarte d’un plan qui était parfait au départ.
Personne n’échappe à ce genre de bavures involontaires. Bien souvent, nous les
-3-
remarquons d’une manière spontanée pour les corriger à temps. Une approche de
système peut réduire les chances que de telles bavures se produisent: le risque qu’une
infirmière se trompe de boîte à pilules et dépose le faux cachet chez le faux patient sera
sensiblement réduit si nous faisons en sorte que l’infirmière qui prépare les médicaments
pour la prochaine distribution ne doive pas en même temps répondre au téléphone,
chercher un vase pour des fleurs offertes à un patient, aller trouver des dossiers pour un
médecin ou appeler un taxi pour un patient qui s’apprête à sortir de l’hôpital.
- Mistakes – des erreurs: l’exécution de l’action s’écarte de manière substantielle de ce qui
était prévu au départ. Cela peut être dû au fait que l’intéressé ne dispose pas de
suffisamment de renseignements, ou de renseignement corrects pour prendre la décision
appropriée (un résultat d’examen essentiel à la décision thérapeutique est joint
tardivement au dossier); ou au fait que les personnes ne connaissent pas, ou ne
comprennent pas le cadre réglementaire dans lequel elles travaillent (un aide-soignant doit
effectuer une tâche qui demande les compétences d’une infirmière); ou lorsque les
personnes interprètent mal des informations correctes par manque d’expérience ou de
connaissances (un assistant de première année qui est seul à faire face au problème).
Reason fait une différence entre les “rule-based mistakes” – un individu applique dans un
cas de figure (relativement) courant et qui lui est donc familier, une fausse procédure, ou
applique la procédure correcte de manière erronée, et les “knowledge-based mistakes” –
un individu se retrouve face à une nouvelle situation pour laquelle il/elle n’a pas eu de
formation adéquate. L’individu se voit ainsi obligé de développer son propre plan d’action
sur base de la formation qu’il a suivie et de l’expérience qu’il a acquise. Un manque
d’expérience peut conduire à une fausse perception et représentation mentale du
problème qui se pose et donc à une solution non appropriée.
- Defenses – défenses: chaque organisation et chaque processus contient en général
différents mécanismes de défense qui empêchent dans des conditions normales qu’une
faiblesse dans l’organisation ou la bavure sur un individu ne mène finalement à un
événement indésirable. On pourrait très bien le comparer aux défaillances régulières dans
notre propre ADN, auxquelles les mécanismes cellulaires remédient efficacement de
manière à ce que notre fonctionnement n’en souffre pas. Il arrive que ces défenses
biologiques échouent mais tout homme doit bien mourir un jour.
Dans l’organisation des soins de santé se cachent également de nombreuses faiblesses
latentes, des situations qui mèneront tôt ou tard à des bavures: pression du travail trop élevée,
insuffisance de personnel qualifié, manque de protocoles, manque ou inexistence de
communication, concurrence au lieu de collaboration, médicaments aux effets contraires dans
des emballages quasiment identiques, ordonnances écrites à la main et donc souvent illisibles…
La liste est tellement longue que nous pourrions y dédier ce numéro, ainsi que les deux
numéros suivants de cette revue.
To err is human – l’erreur est humaine. Tôt ou tard – et le plus souvent tôt que tard – un individu
dans cet environnement avec toutes ses faiblesses cachées fera une gaffe à la suite d'une
fatigue, dans un moment d’inattention, par manque de connaissances, suite à un ordre mal
formulé ou mal compris… Là aussi, on pourrait remplir quelques numéros de notre revue. Dans
des conditions normales, les mécanismes de défense (naturelle) s’enclenchent: un double
contrôle, le collègue qui observe, le patient qui signale que la procédure n’est pas suivie, le
pharmacien qui vérifie l’ordonnance du médecin et la corrige, l’alarme de l’ordinateur qui avertit
que les valeurs de mesure sont dépassées…
Parfois, ces mécanismes de défenses échouent … Suite à un manque de personnel durant un
long week-end pour faire un double contrôle des médicaments préparés, parce que le
pharmacien n’a pas eu le temps de vérifier les ordonnances, parce que l’assistant étant de
garde depuis le début du week-end ne prend pas le temps de vérifier ce schéma de dosage
-4-
«qu’il connaît entre-temps par cœur», parce que l’infirmier vient juste d’éteindre l’écran qui
n’affichait que de fausses alarmes et que l’équipe technique ne revient qu’après le long weekend…
Suit ensuite la longue liste des événements indésirables.
Le modèle d’erreur de James Reason remplace petit à petit le modèle de la «pomme pourrie»
qui était dominant jusqu’il y a peu: si quelque chose ne fonctionne pas correctement, c’est la
faute de l’individu. Cet individu doit être identifié, il doit se justifier, quitte à l’évincer de
l’organisation afin qu’il ne provoque d’autres dégâts. Dans le secteur des soins de santé
également, et plus que dans d’autres, les individus doivent se justifier de leurs actes en cas de
mauvaise volonté répétée, négligence grave, comportement imprudent ou criminel. Mais dans la
plupart des événements indésirables, la faute n’incombe pas aux individus qui sont le dernier
maillon dans la chaîne d’événements. Leur présence à cet endroit et à ce moment est pour ainsi
dire due au hasard et à un enchaînement de circonstances et d’événements qui se sont produits
dans l’ensemble de l’organisation. Il est dès lors impossible de les montrer du doigt. L’erreur est
humaine et les soins de santé sont une affaire d’hommes. Il est inévitable que ces hommes
commettent des erreurs. L’important, c’est de protéger au maximum les professionnels des
soins de santé contre ces erreurs. En d’autres termes, organiser les soins de santé de telle
manière que le risque que les individus commettent des erreurs soit réduit au maximum et c’est
précisément ce que l’on entend par le clinical risk management.
Le clinical risk management dans la pratique
Le clinical risk management est sur de nombreux plans une implémentation dans le secteur des
soins de santé des notions, méthodes et techniques du modèle de James Reason.
1. Le développement d’une culture axée sur la sécurité du patient présente dans toute
l’organisation. Luc Desmet, flight safety officer chez SN Brussels Airlines l’a très bien
formulé: “Dans notre secteur de l’aviation civile, la préoccupation pour la sécurité du
passager est omniprésente dans chaque considération, chaque argument et chaque
décision que nous prenons, dans tout ce que nous entreprenons” [8].
Une culture axée sur la sécurité du patient est avant tout une culture d’organisation qui
reconnaît et accepte que les processus et les machines sont susceptibles de faillir et
failliront, mais surtout que les personnes sont susceptibles de commettre des erreurs et
commettront des erreurs. Bien trop souvent, les professionnels des soins de santé attendent
une tolérance zéro: un bon médecin et un bon infirmier ne commettent pas d’erreurs. Une
telle culture de culpabilisation implicite, et souvent explicite, conduit à des réactions de
défense, de protection, de dissimulation de la réalité et finalement à la loi du silence.
Une organisation axée sécurité suppose l’ouverture, la transparence et une communication
ouverte. Bien souvent, les événements indésirables ou les "presqu’incidents" sont
dissimulés. Une culture de culpabilisation et de reproches en est la cause, on a peur des
conséquences pour la suite de sa carrière. La position des assureurs y contribue également
largement. Dans l’état actuel des choses, ils ne trouvent pas vraiment leur compte à ce qu’il
y ait plus d’ouverture. L’instauration d’un système de responsabilité sans faute doit en
principe permettre davantage de transparence. Les avocats quant à eux, qui vivent de
drames qui se déroulent de préférence dans la pénombre, ont également leur part de
responsabilité.
Dans une culture d’organisation axée sécurité, l’ouverture et la transparence sont
essentielles. Elles sont en effet une condition indispensable pour tirer de manière proactive
-5-
les leçons des événements indésirables et des "presqu’incidents", afin d’éviter des incidents
similaires dans le futur.
La transparence n’a donc rien à voir – il faut le répéter – avec l’identification d’individus
«coupables». Elle est cependant essentielle pour détecter les erreurs latentes et les
défenses défaillantes dans l’organisation et pour identifier les circonstances ayant conduit à
ce qu’un/des individu(s) ait/aient pu commettre une erreur active dans ce cas de figure bien
précis.
Une culture d’organisation axée sur la sécurité du patient ne pourra se développer que dans
une organisation qui apprend: une institution qui accepte qu’elle commet des erreurs et qui
est prête à tirer les leçons de ces erreurs, non seulement en théorie mais également dans la
pratique. C’est une organisation qui est ouverte à un changement continu et dans laquelle
l’ouverture, la confiance et la crédibilité caractérisent les relations entre l’organisation et ses
collaborateurs.
Plusieurs instruments ont été développés pour mesurer à quel niveau la culture
d’organisation des hôpitaux est adaptée à la sécurité du patient [4, 10]. La fiabilité d’un de
ces instruments a déjà été testée dans des hôpitaux en Flandre avec un résultat positif. [13].
Pour les hôpitaux qui veulent se lancer de manière structurée dans le clinical risk
management, il est recommandé de démarrer avec une mesure zéro et de suivre d’année
en année et de manière systématique, l’évolution de la culture de sécurité.
2. Systèmes de rapportage. Une organisation qui apprend a besoin d’information pour savoir
ce qui se passe au sein de l’organisation et pour en tirer des leçons. Des systèmes de
rapportage pour des événements indésirables, des incidents et des "presqu’incidents" sont
partout dans le monde d’une grande importance lorsqu’il s’agit de sécurité des patients.
C’est une autre leçon importante qui nous vient du monde de l’aviation. Depuis des années,
le moindre problème, ou le moindre soupçon ou éventualité de problème d’ordre technique,
organisationnel, communicatif, ou un problème qui concerne le comportement humain ou les
relations entre personnes, est systématiquement signalé à un point de contact international.
Les rapports détaillés de ces avis peuvent être consultés sur Internet [14, 29]. Ces
procédures sont tellement imprégnées dans la culture de ces organisations que le nonsignalement d’un incident, d’un "presqu’incident" ou d’un risque potentiel, est considéré
comme une faute professionnelle. Les systèmes de rapportage dans l’aviation civile datent
des années 70 du siècle passé, lorsqu’il s’est avéré que plusieurs crashs d’avion auraient pu
être évités si on avait été informé de problèmes observés auparavant (des problèmes
spécifiques rencontrés par exemple à l’approche d’un certain aéroport dans certaines
conditions climatologiques).
Pour être efficace, un système de rapportage d’incident ou de "presqu’incident" doit
répondre à un certain nombre de critères. Il ne peut être sanctionnant: la personne qui
signale le problème doit être certaine que le signalement du problème n’aboutira à aucune
punition, ni à toute autre suite négative. Le système doit être confidentiel: les coordonnées
personnelles (personne concernée, patient, institution, …) ne peuvent être transmises à des
tiers. Cela pose problème dans des questions de responsabilité dans le cadre d’une
instruction pénale. En Europe, seul le Danemark dispose d’une législation protégeant la
personne qui signale le problème dans ce contexte bien spécifique [1]. Aux Etats-Unis, cette
protection existe depuis plus longtemps. Un système de rapportage doit être indépendant de
toute autorité pouvant intervenir (aux moyens de sanctions) contre l’individu, ou dans le cas
d’un système de rapportage national par exemple, contre l’hôpital. Les événements
rapportés doivent faire l’objet d’une analyse par des experts, ayant une connaissance du
contexte clinique et ayant reçu une formation en techniques d’analyse appropriées afin de
pouvoir identifier les facteurs de système sous-jacents. (cf. infra). Le rapportage de
"presqu’incidents", ainsi que l’envoi des réponses, doivent se faire à temps. Non seulement
-6-
pour limiter les dégâts supplémentaires en cas de risques graves, mais surtout pour stimuler
l’implication des collaborateurs. Un système de rapportage doit être clair, explicitement
orienté système et insister sur les changements potentiels dans les systèmes, les processus
ou les produits, et moins sur les prestations d’individus.
Il s’avère que même les meilleurs systèmes de rapportage, intégrés dans une culture
d’entreprise optimale, ne détectent que 10 à 15% des incidents (potentiels). Ceci n’est pas
forcément un problème. Ce nombre limité de cas de "presqu’incidents" rapportés permet en
général de déceler un nombre plus important de faiblesses (latent failures) dans
l’organisation. Ces systèmes de rapportage présentent quelques avantages indirects. Ils
obligent les hôpitaux et ses collaborateurs à réfléchir aux événements indésirables, aux
erreurs, aux incidents et "presqu’incidents"… Ils encouragent ainsi la culture de sécurité au
sein de l’organisation, et surtout, l’intérêt et la sensibilité pour la problématique de sécurité
du patient restent.
Les collaborateurs doivent être récompensés pour leur contribution au système de
rapportage, ne serait-ce que par un feedback rapide, éventuellement anonyme et généralisé.
Il est également important que les collaborateurs soient certains que les renseignements
fournis soient analysés par des experts et qu’ils apportent à court terme des améliorations là
où il faut. C’est la raison pour laquelle un hôpital qui souhaite implémenter le clinical risk
management d’une manière structurée, doit faire en sorte qu’un certain nombre de
personnes au sein de l’organisation se familiarise avec la méthodologie de la Root Cause
Analysis (RCA) – qui nous vient également de l’aviation civile [2, 9]. RCA est une méthode
structurée et systématique d’analyse d’incidents. Elle s’oriente sur l’analyse du système
sous-jacent et non pas en premier lieu sur la performance de l’individu dans ce système.
Une bonne RCA mène en principe également à l’identification de solutions effectives aux
problèmes constatés. Une RCA prête beaucoup d’attention d’une part à une collection
méticuleuse de données, au classement de ces informations et à l’identification des
problèmes concrets, et d’autre part à l’identification des circonstances et des facteurs qui ont
menés à l’incident. Ceux-ci peuvent avoir trait aux caractéristiques spécifiques d’un patient
ou d’un groupe de patients, ou à des facteurs individuels propres au(x) collaborateur(s)
concerné(s), (facteurs psychologiques ou familiaux, circonstances, relations au travail…).
Des facteurs liés aux tâches peuvent également jouer et sont parfois liés à la façon dont les
tâches sont effectuées. La communication sous toutes ses facettes peut jouer un rôle, ainsi
que des facteurs d’équipe et des facteurs sociaux (ces derniers peuvent avoir un rapport
avec la communication, mais souvent aussi avec un style de management, des structures et
des relations hiérarchiques, un manque de respect pour les professionnels des soins de
santé plus jeunes ou plus âgés, etc.). Des facteurs liés à la formation – ou le manque
d’intérêt pour ces formations – peuvent intervenir, ainsi que des facteurs liés à l’équipement
matériel et à l’infrastructure (insuffisante, obsolète, inappropriée, mal entretenue…) ou à un
manque de suffisamment de ressources humaines ou d’expertise. L’aviation civile applique
une règle intéressante: à choisir entre l’intérêt commercial et la sécurité des passagers, ce
dernier élément est toujours prépondérant. D’autres facteurs qui peuvent conduire à des
incidents sont bien évidemment les conditions de travail – les entreprises connaissent
suffisamment les circonstances dans lesquelles l’individu travaille avec moins de précision et
dans des conditions moins sûres (aussi pour lui-même) – et les facteurs d’ordre
organisationnel et stratégique. Ainsi, il s’est avéré lors d'une enquête sur le taux élevé de
mortalité et de complications au sein de l’unité cardiologie de l’hôpital St.Radboudziekenhuis à Nimègue, que la formation et la recherche étaient pour la Direction
des axes politiques plus importants que les soins du patient [30].
En règle générale, ce sont ces facteurs et ces conditions qui font l’objet de la plupart des
recommandations de chaque rapport RCA. Le clinical risk management est ainsi très loin de
-7-
cette culture de reproche / culpabilisation qui règne encore trop souvent à l’intérieur des
institutions de soins de santé.
Les données qui sont disponibles via un système de rapportage de "(presqu’)incidents",
peuvent être complétées avec d’autres informations telles que les plaintes ou les réactions
(positives ou négatives) des patients et/ou des membres de la famille, les réclamations en
dommages et intérêts et les dossiers de responsabilité. L’utilité du dossier patient
traditionnel en papier, souvent très fragmenté, en tant que source de données, est fort
limitée. Il en va de même pour les données stockées dans des bases de données classiques
(RCM, RIM…) où la granularité ?? est souvent trop forte et le contexte clinique concret
difficile à reconstituer.
3. Indicateurs pour la sécurité du patient. Lorsque après l’atterrissage, un avion s’immobilise
devant la porte de débarquement, l’ordinateur de bord imprime tous les chiffres et
graphiques contenant les données de vol élémentaires telles que le comportement des
moteurs, les systèmes de pilotage, les parties mécaniques ou l’électronique de bord mais
également des données sur la façon dont l’équipement a géré l’appareil et le vol et sur les
décisions qui ont été prises. Pour l’aviation, c’est la base essentielle de tout le système de
sécurité: le suivi et la surveillance permanents des paramètres qui fournissent de manière
continue, structurée et systématique, des renseignements sur la sécurité et les opérations.
C’est notamment ce que font les indicateurs de la sécurité du patient dans le secteur des
soins de santé: une mesure permanente et continue du niveau de sécurité du patient au sein
de l’institution. Un peu comme les aiguilles sur le tableau de bord d’un avion. Elles
paraissent superflues mais lorsqu’elles commencent à bouger, elles ont bel et bien leur
importance. Ce sont ces voyants qui sont si importants, une fois qu’ils s’allument.
Les systèmes de rapportage des "(presqu’)incidents" attirent l’attention sur des événements
spécifiques, les indicateurs mesurent le niveau (de base) de la sécurité du patient dans
l’hôpital et l’un ne va pas sans l’autre. L’utilisation d’indicateurs doit être complétée par un
système de rapportage qui fait l’inventaire des événements moins attendus, moins
prévisibles et moins systématiques. Le système de rapportage, quant à lui, n’a qu’un sens
lorsqu’il est ancré sur un système de monitoring continu. Les indicateurs ont un avantage
opérationnel/stratégique supplémentaire en fixant la barre des valeurs cibles toujours un peu
plus haut, ce qui entraîne une augmentation systématique du niveau de sécurité des soins
dans l’hôpital. C’est d’ailleurs la seule approche permettant une comparaison des différents
hôpitaux.
Au niveau international, les indicateurs de sécurité du patient sont repris dans la plupart des
systèmes d’indicateurs de qualité cliniques. Navigator® également, le système d’indicateurs
du Centrum voor Ziekenhuis- en Verplegingswetenschap de la K.U.Leuven, contient une
liste importante d’indicateurs de qualité pour la mesure de la performance clinique. Ces
indicateurs sont utilisables au niveau de l’hôpital ou au niveau de l’unité ou du service
(Nagivator-plus) [31].
4. Le patient en tant que partenaire. Le patient est un partenaire important, mais trop souvent
négligé, dans toutes les activités qui concernent le clinical risk management. La règle d’or en
matière de sécurité des soins et de prévention des risques et des complications cliniques,
est la suivante: le patient a toujours raison, jusqu’à preuve du contraire. Cette règle d’or va
évidemment de pair avec une autre: les professionnels des soins de santé doivent
apprendre à être à l’écoute du patient. Les patients sont une paire d’yeux, une paire
d’oreilles et un cerveau supplémentaire au sein de l’équipe soignante. Il serait bien bête de
ne pas se servir de ces moyens supplémentaires. Abstraction faite de toutes les
considérations sur les droits du patient, c’est déjà une raison importante pour informer
-8-
minutieusement le patient sur le déroulement du processus de soins (que fera-t-on, pourquoi
et de quelle manière procédera-t-on, à quoi dois-je faire attention…). Les patients doivent
donc être stimulés à être curieux, à poser des questions et à avoir l’esprit critique. Il arrive
souvent qu’un père ou une mère signale que la perfusion de cytostatique chez son enfant a
un aspect différent par rapport à la fois précédente. Cette différence est parfois justifiée mais
ce ne serait pas la première fois qu’un parent bien informé et attentif évite ainsi une erreur
fatale.
5. Les facteurs humains. L’erreur est humaine. Les soins de santé sont une affaire d’hommes.
Reason a souligné la tâche importante pour une organisation et pour les responsables au
sein de cette organisation, qui consiste à prendre en compte la complexité de la pensée et
de l’action humaine, le comportement des groupes et les relations entre les groupes. Il est
essentiel de bien comprendre la manière avec laquelle l’homme fonctionne et ce qui le
pousse, ou empêche, d’agir de la sorte afin de mettre au point une organisation, dans
laquelle l’individu travaille, de telle manière que le risque que l’individu commette une erreur
soit réduit au minimum. L’aviation civile, par exemple, a appris ces dernières années que le
risque d’incidents diminue si l’équipage est structuré de manière moins hiérarchisée
qu’avant – ce qui ne signifie pas que les responsabilités ne doivent pas être clairement
définies -, si les différents professionnels qui composent l’équipe suivent ensemble les
formations, quand toutes les informations de vol sont accessibles pour chaque membre de
l’équipage et lorsque la composition de l’équipage est régulièrement modifiée. Ce dernier
point est par exemple important pour éviter tout aveuglement d’équipe qui finit par devenir
inévitable.
Bien d’autres approches de système, issues de l’aviation, peuvent être implémentées, telles
que l’utilisation des doubles contrôles (lors de la préparation et de l’administration des
médicaments, ou lors du questionnement sur d’éventuelles allergies) ou l’instauration d’un
time-out de 30 à 60 secondes avant le début (!) de toute intervention chirurgicale (le bon
patient? L’intervention correcte? Le bon côte du corps?). Cet acte peut paraître simple mais
s’est révélé tellement efficace dans la prévention de bon nombre de drames.
La liste des interventions potentielles via le système, l’entourage, l’organisation
professionnelle et les conditions de travail est longue. Beaucoup d’entre elles concernent les
conditions de travail correctes – la durée de travail par exemple -, les relations entre les
différents professionnels des soins de santé, le respect mutuel et la relation avec
l’administration et les supérieurs.
D’autres interventions sont plutôt ou purement techniques. La standardisation, l’application
de protocoles ou mieux encore, des itinéraires cliniques [23]. Lorsqu’un médecin en salle a
pour un type de patient sa propre stratégie de diagnostic et sa propre approche
thérapeutique, la probabilité qu’un infirmier ou une infirmière se trompe sera beaucoup plus
importante que si cet infirmier ou cette infirmière a été impliqué(e) dans le développement de
l’itinéraire clinique utilisé par l’équipe pour tel type de patient. L’informatisation et
l’automatisation sont des outils fort pratiques. Suite à la publication des rapports de l’Institute
of Medicine, les autorités aux Etats-Unis ont octroyé d’importants moyens (financiers) aux
hôpitaux américains pour investir dans des systèmes d’information intelligents et
d’informatique hospitaliers. Les avantages sont évidents: la standardisation, la prévention
d’erreurs de communication, l’accélération de la communication et la mise à disposition
simultanée des informations cliniques pour tous les intervenants (éventuellement à différents
endroits), des systèmes d’identification de patient plus fiables… Les erreurs de médication
représentent jusqu’à 20% des incidents dans un hôpital. Il n’est donc pas étonnant que
l’intérêt pour les systèmes électroniques d’ordonnance et les systèmes automatisés et
sécurisés de distribution et d’administration augmente.
-9-
Les interventions ne sont pas forcément spectaculaires et coûteuses. L’élimination
systématique de tous les stocks de KCI concentré des unités de soins évite des erreurs
fatales; lors de la rédaction du formulaire, éviter des noms à consonance similaire ou des
emballages qui se ressemblent; les machines pousse-seringue et les pompes peuvent être
bloquées à un débit maximal… Les seules limites de cette liste sont les limites de
l’imagination de l’homme. L’exemple par excellence d’une approche système et de risk
management créatif est l’image d’une mouche que nous retrouvons dans de plus en plus de
toilettes pour hommes. Vous avez beau afficher des «Interdit d’uriner à côte du récipient...»,
ou plus poli «Merci de ne pas…», essayer toujours de mettre à la disposition des messieurs
un torchon ou d’engager du personnel supplémentaire armé d’une raclette, aucun remède
n’est efficace. Il suffit cependant de prêter attention aux facteurs humains. Celui qui arrive à
percer le psyché de l’homme et le pourquoi de ses comportements, sait qu’une mouche
peinte avec réalisme à l’intérieur de l’urinoir fera l’affaire et évitera à coup sûr 95% des
problèmes. Et ça marche! Ce serait un beau défi lancé à la créativité humaine, et qui ferait le
bonheur des spécialistes en hygiène hospitalière, que d’inventer une solution tout aussi
simple qui inciterait les professionnels des soins de santé à réaliser une hygiène des mains
après chaque nouveau contact avec un patient!
L’avenir
Le concept du clinical risk management est tout récent, il n’est néanmoins pas inutile
d’envisager l’avenir. Le clinical risk management et un certain nombre d’instruments concrets
qui ont été abordés dans cette publication, sont fort tournés vers le passé, même si c’est dans le
but d’en tirer des leçons pour l’avenir. Des indicateurs tels que Navigator® mesurent des
événements qui ont eu lieu, les systèmes de rapportage signalent des "(presqu’)incidents" qui
se sont passés; la root cause analysis essaie de comprendre ce qui est allé de travers dans le
passé.
On peut s’attendre à ce que le clinical risk management développe dans les années à venir des
instruments moins tournés vers le passé et davantage proactifs. Le secteur des soins de santé
s’inspire par exemple du secteur de l’alimentation où beaucoup d’expérience a été acquise avec
les principes du HACCP (Hazard Analysis and Critical Control Points) [28]. HACCP n’est pas
tourné vers le passé mais évolue en temps réel (“concurrently”) et se déroule à travers et
simultanément avec le processus de production.
Une approche différente est le principe du FMEA (“Failure Mode and Effect Analysis), qui a été
développé dans les années 50 du siècle dernier par l’armée américaine et qui est très proactif.
Suivant les principes du FMEA, on essaiera avant la mise en service de tout nouveau matériel,
d’un nouveau produit, d’une nouvelle procédure ou avant l’introduction d’un nouveau processus,
d’identifier et de quantifier les risques potentiels et de déterminer proactivement les
conséquences. Cette méthode aide à faire un choix des produits ou des matériaux mais
également à introduire dans l’organisation [7] de nouvelles/nouveaux procédures/processus, ou
des procédures/processus renouvelé(e)s avec un minimum de risques.
Une application limitée des principes FMEA est déjà présente dans certain
formulariumcommissies comités médico-pharmaceutiques où le choix des médicaments (ou
matériaux) est non seulement déterminé par des considérations d’effectivité et de prix mais
également par les risques potentiels que ces produits peuvent entraîner (dosage facile, aussi
pour les enfants et les personnes âgées, emballages et étiquettes univoques, intitulés clairs,
ressemblances limitées avec d’autres produits, modalités d’emballage…) et par la mesure de
contrôlabilité de ces risques.
- 10 -
Lorsque nous devons constater et admettre en toute honnêteté que même dans nos hôpitaux et
probablement aussi dans le secteur des soins en général, plusieurs milliers de personnes
meurent chaque année, alors que ces personnes n’auraient jamais dû mourir, une approche
plus proactive de la problématique de la sécurité du patient s’impose d’urgence. Il n’y a donc
plus aucune excuse pour ne pas utiliser au maximum les instruments du clinical risk
management que nous avons à notre disposition.
Références
1. Act on patient safety in the Danish health care system. ACT N° 429 of 10/06/2003.
2. Amo MF. Root Cause Analysis. A tool for understanding why accidents occur. Balance 1998; 2: 1225.
3. Baker GR, Norton PG, Flintoft V et al. The Canadian Adverse Outcomes Study: the incidence of
adverse outcomes among hospital patients in Canada. CMAJ 2004; 170: 1678-1686.
4. Colla JB, Bracken AC, Kinney LM, Weeks WB. Measuring patient safety climate: a review of
surveys. Qual Saf Health Care 2005; 14: 364-366.
5. Council of Europe. Committee of Ministers. Recommendation Rec (2006)7 of the Committee of
Ministers to member states on management of patient safety and prevention of adverse events in
health care (adopted by the Committee of Ministers on 24 May 2006).
6. Davis P, Lay-Yee R, Briant R et al. Adverse outcomes in New Zealand public hospitals I: occurrence
and impact. N Z Med J 2002; 115: U271.
7. De Rosier J et al. Using health care failure mode and effect analysis. The VA National
Center for Patient Safety Propective Risk Analysis System. Joint Commission Journal Qual
Improvement 2002; 28: 248-267.
8. De Smet L. Principes en praktijk van veiligheidsbeleid in de luchtvaart. In de cursus:
“Missen is menselijk: bouwen aan veilige zorg; deel 3”, Centrum voor Ziekenhuis- en
Verplegingswetenschap KULeuven, Brugge, 10 en 11 maart 2006.
9. Dineen M. (ed). Six steps to Root Cause Analysis. Consequence, Oxford, 2002.
10. Flin R, Burns C, Mearns K, Yule S, Robertson EM. Measuring safety climate in health care.
Qual Saf Health Care 2006; 15: 109-115.
11. Gurwitz JH, Field TS, Judge J. et al. The incidence of adverse drug events in two large
academic long-term care facilities. Am J Med 2005; 118: 251-258.
12. Hansen RA, Greene SB, Williams CE et al. Types of medication errors in North Carolina
nursing homes: a target for quality improvement. Am J Geriatr Pharmacother 2006; 4: 5261.
13. Hellings J, Schrooten W, Vandeput H. et al. Patient safety culture in Belgian hospitals:
results of a survey. Voor publicatie aangeboden.
14. http://asrs.arc.nasa.gov/
- 11 -
15. http://portal.health.fgov.be/portal/page?_pageid=56,512837&_dad=portal&_schema=PORT
AL
16. Institute of Medicine. To err is human: building a safer health system. Report of the
Committee on Quality of Health Care in America, Washington, 2000.
17. Institute of Medicine. Crossing the Quality Chasm: a new health system for the 21st century.
Report of the Committee on Quality of Health Care in America, Washington, 2001.
18. Leape LL. Error in Medicine. JAMA 1994; 272: 1851-1857.
19. Reason J. Human Error. Cambridge University Press, 1990.
20. Reason J. Managing the Risks of Organizational Accidents. Hampshire, England, Ashgate
Publishing Limited, 1997.
21. Schiøler T, Lipczak H, Pedersen BL et al. Incidence of adverse outcomes in hospitalized
patients: the Danish Adverse Outcome Study (DAES), Ugeskr Læger 2001; 163: 53705378.
22. Van den Heede K, Sermeus W, Diya L, Lesaffre E, Vleugels A. Adverse outcomes in
Belgian acute hospitals: retrospective analysis of the national hospital discharge dataset.
Int J Qual Health Care 2006; 18: 211-219.
23. Vanhaecht K, Sermeus W, Vleugels A, Peeters G. Ontwikkeling en gebruik van klinische
paden in de gezondheidszorg. Tijdschrift voor Geneeskunde 2002; 58: 1542-1551.
24. Vincent C, Neale G, Woloshynowych M. Adverse outcomes in British hospitals: preliminary
retrospective record review. Br Med J 2001; 322: 517-519.
25. Vincent C. Understanding and Responding to Adverse Events. N Engl J Med 2003; 348:
1051-1056.
26. Wagner LM, Capezuti E, Ouslander JG. Reporting near-miss events in nursing homes.
Nurs Outlook 2006; 54: 85-93.
27. Wilson RM, Runciman WB, Gibberd RW et al. The quality in Australian health care study.
Med J Aust 1995; 163: 458-471.
27. www.belgium.be/eportal/application?languageParameter=nl&pageid=contentPage&docId=4
566
28. www.faa.gov/safety/data_statistics/nasdac
29. www.igz.nl/publicaties/rapporten/rapporten2006/182624
30. www.navigator.czv.be
31. www.oecd.org/dataoecd/53/26/33878001.pdf
32. www.who.int/patientsafety
- 12 -
34. Zuckermann JH, Langenberg P, Baumgarten M et al. Appropriate drug use and risk of
transition to nursing homes among community-dwelling older adults. Med Care 2006; 44:
722-730.
- 13 -
Téléchargement