LE CLINICAL RISK MANAGEMENT A.Vleugels, directeur, Centrum voor Ziekenhuis- en Verplegingswetenschap K.U.Leuven Ces dernières années, un certain nombre de termes utilisés dans le monde de l’organisation et de la politique des soins tels que evidence based medicine, medical technology assessment, medical audit, peer review, benchmarking, systematic review, … nous sont venus des pays anglo-saxons et surtout d’Amérique du Nord. Il est difficile de traduire la richesse et les nuances contenues de manière condensée dans ces termes anglais, à tel point que même en français, ces termes ne sont souvent pas traduits. A cette liste de mots quasiment intraduisibles, s’ajoute l’expression “clinical risk management”dont une alternative en français serait La “gestion des risques cliniques”, même si le terme évoque plus de questions que l’image d’un concept clair. Pour cette raison, le texte s’en tiendra à l'expression en anglais: clinical risk management. Le risk management Le risk management englobe un ensemble de concepts, notions et activités pour identifier, quantifier, évaluer et analyser les risques et pour, après évaluation d'un ordre de priorité, éliminer ces risques, réduire au maximum les chances que de tels risques se produisent et/ou, au cas où ils se produisent, de limiter au maximum les dégâts. Les risques dont il est question concernent surtout les risques dus aux activités d’entreprise. Le risk management fait partie intégrante de la politique de toutes les entreprises, y compris les hôpitaux et les institutions de soins de santé, travaillant suivant des principes de gestion modernes. Les activités d’entreprise sont susceptibles de conduire à de nombreuses formes de dégâts. C’est la raison pour laquelle, le risk management est par définition multidimensionnel et très varié. Les activités d’entreprise peuvent causer des dégâts à l’infrastructure matérielle et l’équipement technique de l’entreprise. Le risk management se traduit par exemple dans des programmes d’entretien technique préventifs, de solides contrats d’entretien, l’implémentation de solutions de secours, etc. Comme des collaborateurs peuvent subir des dégâts, toute la législation du travail est concernée: la désignation de conseillers en sécurité, la mission des services médicaux de l’entreprise, l’assurance accidents du travail, les techniques et les campagnes de prévention des accidents par piqûres, protection contre les risques de rayonnements...: le risk management dans tous ses aspects est une notion bien connue dans le secteur des soins de santé. Il y a des risques pour l’entreprise en tant qu’entreprise: risques au niveau de la gestion ou des finances mettant en péril l’existence même de l’entreprise (cf. les scandales récents chez Enron, Parmalat, Lernout & Hauspie...). Le risk management se manifeste sous la forme d’audits internes et externes, la désignation de réviseurs d’entreprise, l’application des principes de gouvernance d’entreprise (corporate governance), le contrôle méticuleux par les banquiers et les actionnaires des comptes financiers.... Comme les activités d’entreprise peuvent nuire à l’environnement, l’intérêt du risk management pour l’environnement ne cesse de croître. Cet intérêt se manifeste par la désignation de conseillers en environnement, le choix de processus de production plus respectueux de l’environnement, un choix délibéré pour certains matériaux, des plans de mobilité pour les collaborateurs…: tout est lié à cette dimension récente du risk management. L’activité d’entreprise peut également nuire au client et les entreprises en sont, pour des raisons évidentes, pleinement conscientes. Le risk management se concrétisera par exemple par les principes du HACCP dans le domaine alimentaire, le labelling, l’étiquetage, des notices interminables pour les médicaments mais sera également d’application pour la fenêtre d’une -1- chambre d’hôtel au 25ème étage que le client n’arrivera pas à ouvrir ou les pictogrammes jauneorange «sol mouillé» dans les couloirs d’hôpitaux fraîchement nettoyés, pour ne citer que ces deux exemples. Le clinical risk management Le clinical risk management concerne cette dernière catégorie: les risques de dégâts pour le client. Le clinical risk management concerne les risques de dégâts qui sont propres à dus au contact du client avec les soins de santé et le régime des soins de santé. Le clinical risk management utilise les connaissances, les visions et les méthodes du risk management pour éliminer, ou du moins limiter au maximum, les dégâts que le client/patient/habitant peut encourir dans son contact avec les soins de santé. Le clinical risk management n’est pas nouveau. Depuis des années, les spécialistes en hygiène hospitalière réussissent en effet à réduire de manière considérable l’incidence des infections nosocomiales. Même si les spécialistes en hygiène hospitalière ont rarement utilisé le terme clinical risk management, leur activité n’en est pas un moins un bel exemple. L’intérêt pour le clinical risk management a fortement augmenté ces dernières années. Cette tendance se maintient, du moins à croire le nombre de publications scientifiques et autres sur le sujet, les séminaires, les symposiums, les congrès, les projets de recherche, les rapports et recommandations issues de différentes sources. Cet intérêt croissant est dû : premièrement aux publications de la fin du siècle dernier de l’institut américain «Institute of Medicine», sur le déficit inquiétant en matière de sécurité du patient dans les hôpitaux américains [16, 17] et deuxièmement à la (re-)découverte de la théorie de l’erreur humaine de James Reason [19]. 1. Le rapport “To err is human: building a safer health system” restera gravé dans les mémoires grâce à cette seule phrase disant que chaque année, 44.000 à 98.000 personnes meurent dans les hôpitaux américains à la suite des “preventable medical errors” ou erreurs médicales évitables (comme le terme «medical errors» est trop associé à l’idée de «culpabilité» et que cela ne va pas faire évoluer le clinical risk management, on a de plus en plus tendance en anglais à utiliser le terme «adverse events» (évènements indésirables)). La différence entre les 44.000 et les 98.000 s’explique par les différentes définitions et les différentes manières de comptage. Même en tenant compte du nombre le plus bas, la mortalité évitable dans les hôpitaux est toujours la 8ème cause de décès aux Etats-Unis, bien avant les accidents de la route et le cancer du sein. Les résultats des études aux Etats-Unis ont été confirmés dans d’autres pays, tels que l’Australie [27], le Royaume-Uni [24], le Canada [3], le Danemark [21] et la Nouvelle Zélande [6]. Il ressort de l’ensemble de ces études qu’auprès de 5 à 10% des patients hospitalisés «quelque chose tourne mal» et que dans 5 à 10% de ces cas, les suites sont graves: décès ou lésion permanente ou handicap. Une récente enquête sur des sources de données secondaires confirme des chiffres similaires [22] pour la Belgique. Des incommodités moins importantes, telles que la douleur, l’angoisse, un séjour prolongé, etc., restent inaperçues, ne sont jamais mesurées et n’apparaissent dans aucune statistique. Elles n’en sont pas moins une réalité pour les patients. Les chiffres publiés sont suffisamment convaincants, et suffisamment reconnaissables au niveau international pour inciter les professionnels dans le secteur des soins de santé et le secteur dans l’ensemble, à réfléchir de manière fondamentale à un certain nombre de questions critiques: - Pour quelle raison les hôpitaux/institutions de soins de santé/de soins en général (de plus en plus de publications signalent que l’incidence d’événements indésirables dans les soins -2- résidentiels aux personnes âgées et dans les soins de première ligne par exemple, n’est pas inférieure à l’incidence dans les hôpitaux [11, 12, 26, 34]) sont pour le patient/l’habitant/le client un environnement si dangereux? - Pour quelle raison le secteur des soins et les professionnels dans le secteur des soins de santé n’accordent depuis des années quasiment aucune attention à ces risques? - Et maintenant que nous commençons à prendre conscience de cette problématique, comment peut-on y remédier efficacement? Ces réflexions imposent une comparaison avec l’aviation civile, qui au départ était une entreprise risquée, réservée aux aventuriers et qui est devenue un des secteurs économiques les plus sûrs. Cette évolution n’est pas due au hasard mais est le fruit d’une gestion ciblée et soutenue. Les similitudes sont frappantes et le clinical risk management peut copier de nombreuses techniques de risk management issues de l’aviation civile. Les résultats publiés sont en outre suffisamment convaincants pour sensibiliser un certain nombre d’organisations internationales à cette problématique. Ainsi, l’Organisation Mondiale de la Santé [33], l’OCDE [32] et le Conseil de l’Europe [5] ont lancé des initiatives dans ce sens. La force de ces initiatives internationales est de faire monter la pression sur les autorités nationales. Aucun pays ne peut se permettre de rester à la traîne et notre pays non plus. Les autorités ont donc intensifié leurs efforts et l’intérêt pour le clinical risk management a fort augmenté ces dernières années [15]. Et même si le clinical risk management est avant tout une affaire des acteurs sur le terrain (“bottom up”), un soutien et un encadrement des pouvoirs publics sont fort utiles. De même, l’hygiène hospitalière dans notre pays ne serait pas ce qu’elle est si les pouvoirs publics n’avaient pas dès le départ reconnu son importance et créé un cadre juridique approprié. 2. Nous avons cette habitude bien ancrée – et non seulement dans le domaine des soins de santé mais aussi… ???..?? – de désigner des coupables et responsables dès que quelque chose tourne mal. En analysant un incident, nous nous concentrons bien souvent sur les événements qui se sont produits dans un périmètre restreint autour de l’incident, en l’occurrence sur ce que les personnes ont fait ou omis de faire juste avant l’incident. James Reason a développé dans les années nonante du siècle dernier un modèle suivant lequel les erreurs sont bien plus souvent dues à la façon dont nous organisons le travail qu’à des bavures dues à des individus [19, 20]. Il a développé son modèle dans et pour un environnement de production industriel complexe. Le but était de mieux comprendre les interactions entre les différents facteurs conduisant finalement aux incidents concrets et d’identifier sur base de cela des méthodes pour mieux prévenir de tels incidents. Ses motivations étaient dans ce cas-ci inspirées d’un contexte manifestement économique. Ce sont surtout les groupes autour de Leape [18] et de Vincent [25] qui ont traduit avec succès le modèle de James Reason vers le secteur des soins de santé où le modèle est bien accepté et connu sous le nom de «modèle du fromage suisse». La présente publication n’a pas l’ambition de développer ce modèle en détail mais je me limiterai aux concepts les plus importants (pour plus de détails, je recommande les publications originales de Reason; dans de nombreuses publications, le modèle est souvent réduit de manière simpliste à quelques tranches de fromage suisse à trous sans structure ni cohérence). - Latent failures – des erreurs latentes: qui sont les carences latentes et structurelles d’une organisation. - Active errors – des bavures: activité humaine n’ayant pas été effectuée, ou mal effectuée. Reason distingue trois types de “bavures”: - Slips and lapses – des écarts de conduite, des inattentions mineures conduisant ou susceptibles de conduire à ce qu’une action s’écarte d’un plan qui était parfait au départ. Personne n’échappe à ce genre de bavures involontaires. Bien souvent, nous les -3- remarquons d’une manière spontanée pour les corriger à temps. Une approche de système peut réduire les chances que de telles bavures se produisent: le risque qu’une infirmière se trompe de boîte à pilules et dépose le faux cachet chez le faux patient sera sensiblement réduit si nous faisons en sorte que l’infirmière qui prépare les médicaments pour la prochaine distribution ne doive pas en même temps répondre au téléphone, chercher un vase pour des fleurs offertes à un patient, aller trouver des dossiers pour un médecin ou appeler un taxi pour un patient qui s’apprête à sortir de l’hôpital. - Mistakes – des erreurs: l’exécution de l’action s’écarte de manière substantielle de ce qui était prévu au départ. Cela peut être dû au fait que l’intéressé ne dispose pas de suffisamment de renseignements, ou de renseignement corrects pour prendre la décision appropriée (un résultat d’examen essentiel à la décision thérapeutique est joint tardivement au dossier); ou au fait que les personnes ne connaissent pas, ou ne comprennent pas le cadre réglementaire dans lequel elles travaillent (un aide-soignant doit effectuer une tâche qui demande les compétences d’une infirmière); ou lorsque les personnes interprètent mal des informations correctes par manque d’expérience ou de connaissances (un assistant de première année qui est seul à faire face au problème). Reason fait une différence entre les “rule-based mistakes” – un individu applique dans un cas de figure (relativement) courant et qui lui est donc familier, une fausse procédure, ou applique la procédure correcte de manière erronée, et les “knowledge-based mistakes” – un individu se retrouve face à une nouvelle situation pour laquelle il/elle n’a pas eu de formation adéquate. L’individu se voit ainsi obligé de développer son propre plan d’action sur base de la formation qu’il a suivie et de l’expérience qu’il a acquise. Un manque d’expérience peut conduire à une fausse perception et représentation mentale du problème qui se pose et donc à une solution non appropriée. - Defenses – défenses: chaque organisation et chaque processus contient en général différents mécanismes de défense qui empêchent dans des conditions normales qu’une faiblesse dans l’organisation ou la bavure sur un individu ne mène finalement à un événement indésirable. On pourrait très bien le comparer aux défaillances régulières dans notre propre ADN, auxquelles les mécanismes cellulaires remédient efficacement de manière à ce que notre fonctionnement n’en souffre pas. Il arrive que ces défenses biologiques échouent mais tout homme doit bien mourir un jour. Dans l’organisation des soins de santé se cachent également de nombreuses faiblesses latentes, des situations qui mèneront tôt ou tard à des bavures: pression du travail trop élevée, insuffisance de personnel qualifié, manque de protocoles, manque ou inexistence de communication, concurrence au lieu de collaboration, médicaments aux effets contraires dans des emballages quasiment identiques, ordonnances écrites à la main et donc souvent illisibles… La liste est tellement longue que nous pourrions y dédier ce numéro, ainsi que les deux numéros suivants de cette revue. To err is human – l’erreur est humaine. Tôt ou tard – et le plus souvent tôt que tard – un individu dans cet environnement avec toutes ses faiblesses cachées fera une gaffe à la suite d'une fatigue, dans un moment d’inattention, par manque de connaissances, suite à un ordre mal formulé ou mal compris… Là aussi, on pourrait remplir quelques numéros de notre revue. Dans des conditions normales, les mécanismes de défense (naturelle) s’enclenchent: un double contrôle, le collègue qui observe, le patient qui signale que la procédure n’est pas suivie, le pharmacien qui vérifie l’ordonnance du médecin et la corrige, l’alarme de l’ordinateur qui avertit que les valeurs de mesure sont dépassées… Parfois, ces mécanismes de défenses échouent … Suite à un manque de personnel durant un long week-end pour faire un double contrôle des médicaments préparés, parce que le pharmacien n’a pas eu le temps de vérifier les ordonnances, parce que l’assistant étant de garde depuis le début du week-end ne prend pas le temps de vérifier ce schéma de dosage -4- «qu’il connaît entre-temps par cœur», parce que l’infirmier vient juste d’éteindre l’écran qui n’affichait que de fausses alarmes et que l’équipe technique ne revient qu’après le long weekend… Suit ensuite la longue liste des événements indésirables. Le modèle d’erreur de James Reason remplace petit à petit le modèle de la «pomme pourrie» qui était dominant jusqu’il y a peu: si quelque chose ne fonctionne pas correctement, c’est la faute de l’individu. Cet individu doit être identifié, il doit se justifier, quitte à l’évincer de l’organisation afin qu’il ne provoque d’autres dégâts. Dans le secteur des soins de santé également, et plus que dans d’autres, les individus doivent se justifier de leurs actes en cas de mauvaise volonté répétée, négligence grave, comportement imprudent ou criminel. Mais dans la plupart des événements indésirables, la faute n’incombe pas aux individus qui sont le dernier maillon dans la chaîne d’événements. Leur présence à cet endroit et à ce moment est pour ainsi dire due au hasard et à un enchaînement de circonstances et d’événements qui se sont produits dans l’ensemble de l’organisation. Il est dès lors impossible de les montrer du doigt. L’erreur est humaine et les soins de santé sont une affaire d’hommes. Il est inévitable que ces hommes commettent des erreurs. L’important, c’est de protéger au maximum les professionnels des soins de santé contre ces erreurs. En d’autres termes, organiser les soins de santé de telle manière que le risque que les individus commettent des erreurs soit réduit au maximum et c’est précisément ce que l’on entend par le clinical risk management. Le clinical risk management dans la pratique Le clinical risk management est sur de nombreux plans une implémentation dans le secteur des soins de santé des notions, méthodes et techniques du modèle de James Reason. 1. Le développement d’une culture axée sur la sécurité du patient présente dans toute l’organisation. Luc Desmet, flight safety officer chez SN Brussels Airlines l’a très bien formulé: “Dans notre secteur de l’aviation civile, la préoccupation pour la sécurité du passager est omniprésente dans chaque considération, chaque argument et chaque décision que nous prenons, dans tout ce que nous entreprenons” [8]. Une culture axée sur la sécurité du patient est avant tout une culture d’organisation qui reconnaît et accepte que les processus et les machines sont susceptibles de faillir et failliront, mais surtout que les personnes sont susceptibles de commettre des erreurs et commettront des erreurs. Bien trop souvent, les professionnels des soins de santé attendent une tolérance zéro: un bon médecin et un bon infirmier ne commettent pas d’erreurs. Une telle culture de culpabilisation implicite, et souvent explicite, conduit à des réactions de défense, de protection, de dissimulation de la réalité et finalement à la loi du silence. Une organisation axée sécurité suppose l’ouverture, la transparence et une communication ouverte. Bien souvent, les événements indésirables ou les "presqu’incidents" sont dissimulés. Une culture de culpabilisation et de reproches en est la cause, on a peur des conséquences pour la suite de sa carrière. La position des assureurs y contribue également largement. Dans l’état actuel des choses, ils ne trouvent pas vraiment leur compte à ce qu’il y ait plus d’ouverture. L’instauration d’un système de responsabilité sans faute doit en principe permettre davantage de transparence. Les avocats quant à eux, qui vivent de drames qui se déroulent de préférence dans la pénombre, ont également leur part de responsabilité. Dans une culture d’organisation axée sécurité, l’ouverture et la transparence sont essentielles. Elles sont en effet une condition indispensable pour tirer de manière proactive -5- les leçons des événements indésirables et des "presqu’incidents", afin d’éviter des incidents similaires dans le futur. La transparence n’a donc rien à voir – il faut le répéter – avec l’identification d’individus «coupables». Elle est cependant essentielle pour détecter les erreurs latentes et les défenses défaillantes dans l’organisation et pour identifier les circonstances ayant conduit à ce qu’un/des individu(s) ait/aient pu commettre une erreur active dans ce cas de figure bien précis. Une culture d’organisation axée sur la sécurité du patient ne pourra se développer que dans une organisation qui apprend: une institution qui accepte qu’elle commet des erreurs et qui est prête à tirer les leçons de ces erreurs, non seulement en théorie mais également dans la pratique. C’est une organisation qui est ouverte à un changement continu et dans laquelle l’ouverture, la confiance et la crédibilité caractérisent les relations entre l’organisation et ses collaborateurs. Plusieurs instruments ont été développés pour mesurer à quel niveau la culture d’organisation des hôpitaux est adaptée à la sécurité du patient [4, 10]. La fiabilité d’un de ces instruments a déjà été testée dans des hôpitaux en Flandre avec un résultat positif. [13]. Pour les hôpitaux qui veulent se lancer de manière structurée dans le clinical risk management, il est recommandé de démarrer avec une mesure zéro et de suivre d’année en année et de manière systématique, l’évolution de la culture de sécurité. 2. Systèmes de rapportage. Une organisation qui apprend a besoin d’information pour savoir ce qui se passe au sein de l’organisation et pour en tirer des leçons. Des systèmes de rapportage pour des événements indésirables, des incidents et des "presqu’incidents" sont partout dans le monde d’une grande importance lorsqu’il s’agit de sécurité des patients. C’est une autre leçon importante qui nous vient du monde de l’aviation. Depuis des années, le moindre problème, ou le moindre soupçon ou éventualité de problème d’ordre technique, organisationnel, communicatif, ou un problème qui concerne le comportement humain ou les relations entre personnes, est systématiquement signalé à un point de contact international. Les rapports détaillés de ces avis peuvent être consultés sur Internet [14, 29]. Ces procédures sont tellement imprégnées dans la culture de ces organisations que le nonsignalement d’un incident, d’un "presqu’incident" ou d’un risque potentiel, est considéré comme une faute professionnelle. Les systèmes de rapportage dans l’aviation civile datent des années 70 du siècle passé, lorsqu’il s’est avéré que plusieurs crashs d’avion auraient pu être évités si on avait été informé de problèmes observés auparavant (des problèmes spécifiques rencontrés par exemple à l’approche d’un certain aéroport dans certaines conditions climatologiques). Pour être efficace, un système de rapportage d’incident ou de "presqu’incident" doit répondre à un certain nombre de critères. Il ne peut être sanctionnant: la personne qui signale le problème doit être certaine que le signalement du problème n’aboutira à aucune punition, ni à toute autre suite négative. Le système doit être confidentiel: les coordonnées personnelles (personne concernée, patient, institution, …) ne peuvent être transmises à des tiers. Cela pose problème dans des questions de responsabilité dans le cadre d’une instruction pénale. En Europe, seul le Danemark dispose d’une législation protégeant la personne qui signale le problème dans ce contexte bien spécifique [1]. Aux Etats-Unis, cette protection existe depuis plus longtemps. Un système de rapportage doit être indépendant de toute autorité pouvant intervenir (aux moyens de sanctions) contre l’individu, ou dans le cas d’un système de rapportage national par exemple, contre l’hôpital. Les événements rapportés doivent faire l’objet d’une analyse par des experts, ayant une connaissance du contexte clinique et ayant reçu une formation en techniques d’analyse appropriées afin de pouvoir identifier les facteurs de système sous-jacents. (cf. infra). Le rapportage de "presqu’incidents", ainsi que l’envoi des réponses, doivent se faire à temps. Non seulement -6- pour limiter les dégâts supplémentaires en cas de risques graves, mais surtout pour stimuler l’implication des collaborateurs. Un système de rapportage doit être clair, explicitement orienté système et insister sur les changements potentiels dans les systèmes, les processus ou les produits, et moins sur les prestations d’individus. Il s’avère que même les meilleurs systèmes de rapportage, intégrés dans une culture d’entreprise optimale, ne détectent que 10 à 15% des incidents (potentiels). Ceci n’est pas forcément un problème. Ce nombre limité de cas de "presqu’incidents" rapportés permet en général de déceler un nombre plus important de faiblesses (latent failures) dans l’organisation. Ces systèmes de rapportage présentent quelques avantages indirects. Ils obligent les hôpitaux et ses collaborateurs à réfléchir aux événements indésirables, aux erreurs, aux incidents et "presqu’incidents"… Ils encouragent ainsi la culture de sécurité au sein de l’organisation, et surtout, l’intérêt et la sensibilité pour la problématique de sécurité du patient restent. Les collaborateurs doivent être récompensés pour leur contribution au système de rapportage, ne serait-ce que par un feedback rapide, éventuellement anonyme et généralisé. Il est également important que les collaborateurs soient certains que les renseignements fournis soient analysés par des experts et qu’ils apportent à court terme des améliorations là où il faut. C’est la raison pour laquelle un hôpital qui souhaite implémenter le clinical risk management d’une manière structurée, doit faire en sorte qu’un certain nombre de personnes au sein de l’organisation se familiarise avec la méthodologie de la Root Cause Analysis (RCA) – qui nous vient également de l’aviation civile [2, 9]. RCA est une méthode structurée et systématique d’analyse d’incidents. Elle s’oriente sur l’analyse du système sous-jacent et non pas en premier lieu sur la performance de l’individu dans ce système. Une bonne RCA mène en principe également à l’identification de solutions effectives aux problèmes constatés. Une RCA prête beaucoup d’attention d’une part à une collection méticuleuse de données, au classement de ces informations et à l’identification des problèmes concrets, et d’autre part à l’identification des circonstances et des facteurs qui ont menés à l’incident. Ceux-ci peuvent avoir trait aux caractéristiques spécifiques d’un patient ou d’un groupe de patients, ou à des facteurs individuels propres au(x) collaborateur(s) concerné(s), (facteurs psychologiques ou familiaux, circonstances, relations au travail…). Des facteurs liés aux tâches peuvent également jouer et sont parfois liés à la façon dont les tâches sont effectuées. La communication sous toutes ses facettes peut jouer un rôle, ainsi que des facteurs d’équipe et des facteurs sociaux (ces derniers peuvent avoir un rapport avec la communication, mais souvent aussi avec un style de management, des structures et des relations hiérarchiques, un manque de respect pour les professionnels des soins de santé plus jeunes ou plus âgés, etc.). Des facteurs liés à la formation – ou le manque d’intérêt pour ces formations – peuvent intervenir, ainsi que des facteurs liés à l’équipement matériel et à l’infrastructure (insuffisante, obsolète, inappropriée, mal entretenue…) ou à un manque de suffisamment de ressources humaines ou d’expertise. L’aviation civile applique une règle intéressante: à choisir entre l’intérêt commercial et la sécurité des passagers, ce dernier élément est toujours prépondérant. D’autres facteurs qui peuvent conduire à des incidents sont bien évidemment les conditions de travail – les entreprises connaissent suffisamment les circonstances dans lesquelles l’individu travaille avec moins de précision et dans des conditions moins sûres (aussi pour lui-même) – et les facteurs d’ordre organisationnel et stratégique. Ainsi, il s’est avéré lors d'une enquête sur le taux élevé de mortalité et de complications au sein de l’unité cardiologie de l’hôpital St.Radboudziekenhuis à Nimègue, que la formation et la recherche étaient pour la Direction des axes politiques plus importants que les soins du patient [30]. En règle générale, ce sont ces facteurs et ces conditions qui font l’objet de la plupart des recommandations de chaque rapport RCA. Le clinical risk management est ainsi très loin de -7- cette culture de reproche / culpabilisation qui règne encore trop souvent à l’intérieur des institutions de soins de santé. Les données qui sont disponibles via un système de rapportage de "(presqu’)incidents", peuvent être complétées avec d’autres informations telles que les plaintes ou les réactions (positives ou négatives) des patients et/ou des membres de la famille, les réclamations en dommages et intérêts et les dossiers de responsabilité. L’utilité du dossier patient traditionnel en papier, souvent très fragmenté, en tant que source de données, est fort limitée. Il en va de même pour les données stockées dans des bases de données classiques (RCM, RIM…) où la granularité ?? est souvent trop forte et le contexte clinique concret difficile à reconstituer. 3. Indicateurs pour la sécurité du patient. Lorsque après l’atterrissage, un avion s’immobilise devant la porte de débarquement, l’ordinateur de bord imprime tous les chiffres et graphiques contenant les données de vol élémentaires telles que le comportement des moteurs, les systèmes de pilotage, les parties mécaniques ou l’électronique de bord mais également des données sur la façon dont l’équipement a géré l’appareil et le vol et sur les décisions qui ont été prises. Pour l’aviation, c’est la base essentielle de tout le système de sécurité: le suivi et la surveillance permanents des paramètres qui fournissent de manière continue, structurée et systématique, des renseignements sur la sécurité et les opérations. C’est notamment ce que font les indicateurs de la sécurité du patient dans le secteur des soins de santé: une mesure permanente et continue du niveau de sécurité du patient au sein de l’institution. Un peu comme les aiguilles sur le tableau de bord d’un avion. Elles paraissent superflues mais lorsqu’elles commencent à bouger, elles ont bel et bien leur importance. Ce sont ces voyants qui sont si importants, une fois qu’ils s’allument. Les systèmes de rapportage des "(presqu’)incidents" attirent l’attention sur des événements spécifiques, les indicateurs mesurent le niveau (de base) de la sécurité du patient dans l’hôpital et l’un ne va pas sans l’autre. L’utilisation d’indicateurs doit être complétée par un système de rapportage qui fait l’inventaire des événements moins attendus, moins prévisibles et moins systématiques. Le système de rapportage, quant à lui, n’a qu’un sens lorsqu’il est ancré sur un système de monitoring continu. Les indicateurs ont un avantage opérationnel/stratégique supplémentaire en fixant la barre des valeurs cibles toujours un peu plus haut, ce qui entraîne une augmentation systématique du niveau de sécurité des soins dans l’hôpital. C’est d’ailleurs la seule approche permettant une comparaison des différents hôpitaux. Au niveau international, les indicateurs de sécurité du patient sont repris dans la plupart des systèmes d’indicateurs de qualité cliniques. Navigator® également, le système d’indicateurs du Centrum voor Ziekenhuis- en Verplegingswetenschap de la K.U.Leuven, contient une liste importante d’indicateurs de qualité pour la mesure de la performance clinique. Ces indicateurs sont utilisables au niveau de l’hôpital ou au niveau de l’unité ou du service (Nagivator-plus) [31]. 4. Le patient en tant que partenaire. Le patient est un partenaire important, mais trop souvent négligé, dans toutes les activités qui concernent le clinical risk management. La règle d’or en matière de sécurité des soins et de prévention des risques et des complications cliniques, est la suivante: le patient a toujours raison, jusqu’à preuve du contraire. Cette règle d’or va évidemment de pair avec une autre: les professionnels des soins de santé doivent apprendre à être à l’écoute du patient. Les patients sont une paire d’yeux, une paire d’oreilles et un cerveau supplémentaire au sein de l’équipe soignante. Il serait bien bête de ne pas se servir de ces moyens supplémentaires. Abstraction faite de toutes les considérations sur les droits du patient, c’est déjà une raison importante pour informer -8- minutieusement le patient sur le déroulement du processus de soins (que fera-t-on, pourquoi et de quelle manière procédera-t-on, à quoi dois-je faire attention…). Les patients doivent donc être stimulés à être curieux, à poser des questions et à avoir l’esprit critique. Il arrive souvent qu’un père ou une mère signale que la perfusion de cytostatique chez son enfant a un aspect différent par rapport à la fois précédente. Cette différence est parfois justifiée mais ce ne serait pas la première fois qu’un parent bien informé et attentif évite ainsi une erreur fatale. 5. Les facteurs humains. L’erreur est humaine. Les soins de santé sont une affaire d’hommes. Reason a souligné la tâche importante pour une organisation et pour les responsables au sein de cette organisation, qui consiste à prendre en compte la complexité de la pensée et de l’action humaine, le comportement des groupes et les relations entre les groupes. Il est essentiel de bien comprendre la manière avec laquelle l’homme fonctionne et ce qui le pousse, ou empêche, d’agir de la sorte afin de mettre au point une organisation, dans laquelle l’individu travaille, de telle manière que le risque que l’individu commette une erreur soit réduit au minimum. L’aviation civile, par exemple, a appris ces dernières années que le risque d’incidents diminue si l’équipage est structuré de manière moins hiérarchisée qu’avant – ce qui ne signifie pas que les responsabilités ne doivent pas être clairement définies -, si les différents professionnels qui composent l’équipe suivent ensemble les formations, quand toutes les informations de vol sont accessibles pour chaque membre de l’équipage et lorsque la composition de l’équipage est régulièrement modifiée. Ce dernier point est par exemple important pour éviter tout aveuglement d’équipe qui finit par devenir inévitable. Bien d’autres approches de système, issues de l’aviation, peuvent être implémentées, telles que l’utilisation des doubles contrôles (lors de la préparation et de l’administration des médicaments, ou lors du questionnement sur d’éventuelles allergies) ou l’instauration d’un time-out de 30 à 60 secondes avant le début (!) de toute intervention chirurgicale (le bon patient? L’intervention correcte? Le bon côte du corps?). Cet acte peut paraître simple mais s’est révélé tellement efficace dans la prévention de bon nombre de drames. La liste des interventions potentielles via le système, l’entourage, l’organisation professionnelle et les conditions de travail est longue. Beaucoup d’entre elles concernent les conditions de travail correctes – la durée de travail par exemple -, les relations entre les différents professionnels des soins de santé, le respect mutuel et la relation avec l’administration et les supérieurs. D’autres interventions sont plutôt ou purement techniques. La standardisation, l’application de protocoles ou mieux encore, des itinéraires cliniques [23]. Lorsqu’un médecin en salle a pour un type de patient sa propre stratégie de diagnostic et sa propre approche thérapeutique, la probabilité qu’un infirmier ou une infirmière se trompe sera beaucoup plus importante que si cet infirmier ou cette infirmière a été impliqué(e) dans le développement de l’itinéraire clinique utilisé par l’équipe pour tel type de patient. L’informatisation et l’automatisation sont des outils fort pratiques. Suite à la publication des rapports de l’Institute of Medicine, les autorités aux Etats-Unis ont octroyé d’importants moyens (financiers) aux hôpitaux américains pour investir dans des systèmes d’information intelligents et d’informatique hospitaliers. Les avantages sont évidents: la standardisation, la prévention d’erreurs de communication, l’accélération de la communication et la mise à disposition simultanée des informations cliniques pour tous les intervenants (éventuellement à différents endroits), des systèmes d’identification de patient plus fiables… Les erreurs de médication représentent jusqu’à 20% des incidents dans un hôpital. Il n’est donc pas étonnant que l’intérêt pour les systèmes électroniques d’ordonnance et les systèmes automatisés et sécurisés de distribution et d’administration augmente. -9- Les interventions ne sont pas forcément spectaculaires et coûteuses. L’élimination systématique de tous les stocks de KCI concentré des unités de soins évite des erreurs fatales; lors de la rédaction du formulaire, éviter des noms à consonance similaire ou des emballages qui se ressemblent; les machines pousse-seringue et les pompes peuvent être bloquées à un débit maximal… Les seules limites de cette liste sont les limites de l’imagination de l’homme. L’exemple par excellence d’une approche système et de risk management créatif est l’image d’une mouche que nous retrouvons dans de plus en plus de toilettes pour hommes. Vous avez beau afficher des «Interdit d’uriner à côte du récipient...», ou plus poli «Merci de ne pas…», essayer toujours de mettre à la disposition des messieurs un torchon ou d’engager du personnel supplémentaire armé d’une raclette, aucun remède n’est efficace. Il suffit cependant de prêter attention aux facteurs humains. Celui qui arrive à percer le psyché de l’homme et le pourquoi de ses comportements, sait qu’une mouche peinte avec réalisme à l’intérieur de l’urinoir fera l’affaire et évitera à coup sûr 95% des problèmes. Et ça marche! Ce serait un beau défi lancé à la créativité humaine, et qui ferait le bonheur des spécialistes en hygiène hospitalière, que d’inventer une solution tout aussi simple qui inciterait les professionnels des soins de santé à réaliser une hygiène des mains après chaque nouveau contact avec un patient! L’avenir Le concept du clinical risk management est tout récent, il n’est néanmoins pas inutile d’envisager l’avenir. Le clinical risk management et un certain nombre d’instruments concrets qui ont été abordés dans cette publication, sont fort tournés vers le passé, même si c’est dans le but d’en tirer des leçons pour l’avenir. Des indicateurs tels que Navigator® mesurent des événements qui ont eu lieu, les systèmes de rapportage signalent des "(presqu’)incidents" qui se sont passés; la root cause analysis essaie de comprendre ce qui est allé de travers dans le passé. On peut s’attendre à ce que le clinical risk management développe dans les années à venir des instruments moins tournés vers le passé et davantage proactifs. Le secteur des soins de santé s’inspire par exemple du secteur de l’alimentation où beaucoup d’expérience a été acquise avec les principes du HACCP (Hazard Analysis and Critical Control Points) [28]. HACCP n’est pas tourné vers le passé mais évolue en temps réel (“concurrently”) et se déroule à travers et simultanément avec le processus de production. Une approche différente est le principe du FMEA (“Failure Mode and Effect Analysis), qui a été développé dans les années 50 du siècle dernier par l’armée américaine et qui est très proactif. Suivant les principes du FMEA, on essaiera avant la mise en service de tout nouveau matériel, d’un nouveau produit, d’une nouvelle procédure ou avant l’introduction d’un nouveau processus, d’identifier et de quantifier les risques potentiels et de déterminer proactivement les conséquences. Cette méthode aide à faire un choix des produits ou des matériaux mais également à introduire dans l’organisation [7] de nouvelles/nouveaux procédures/processus, ou des procédures/processus renouvelé(e)s avec un minimum de risques. Une application limitée des principes FMEA est déjà présente dans certain formulariumcommissies comités médico-pharmaceutiques où le choix des médicaments (ou matériaux) est non seulement déterminé par des considérations d’effectivité et de prix mais également par les risques potentiels que ces produits peuvent entraîner (dosage facile, aussi pour les enfants et les personnes âgées, emballages et étiquettes univoques, intitulés clairs, ressemblances limitées avec d’autres produits, modalités d’emballage…) et par la mesure de contrôlabilité de ces risques. - 10 - Lorsque nous devons constater et admettre en toute honnêteté que même dans nos hôpitaux et probablement aussi dans le secteur des soins en général, plusieurs milliers de personnes meurent chaque année, alors que ces personnes n’auraient jamais dû mourir, une approche plus proactive de la problématique de la sécurité du patient s’impose d’urgence. Il n’y a donc plus aucune excuse pour ne pas utiliser au maximum les instruments du clinical risk management que nous avons à notre disposition. Références 1. Act on patient safety in the Danish health care system. ACT N° 429 of 10/06/2003. 2. Amo MF. Root Cause Analysis. A tool for understanding why accidents occur. Balance 1998; 2: 1225. 3. Baker GR, Norton PG, Flintoft V et al. The Canadian Adverse Outcomes Study: the incidence of adverse outcomes among hospital patients in Canada. CMAJ 2004; 170: 1678-1686. 4. Colla JB, Bracken AC, Kinney LM, Weeks WB. Measuring patient safety climate: a review of surveys. Qual Saf Health Care 2005; 14: 364-366. 5. Council of Europe. Committee of Ministers. Recommendation Rec (2006)7 of the Committee of Ministers to member states on management of patient safety and prevention of adverse events in health care (adopted by the Committee of Ministers on 24 May 2006). 6. Davis P, Lay-Yee R, Briant R et al. Adverse outcomes in New Zealand public hospitals I: occurrence and impact. N Z Med J 2002; 115: U271. 7. De Rosier J et al. Using health care failure mode and effect analysis. The VA National Center for Patient Safety Propective Risk Analysis System. Joint Commission Journal Qual Improvement 2002; 28: 248-267. 8. De Smet L. Principes en praktijk van veiligheidsbeleid in de luchtvaart. In de cursus: “Missen is menselijk: bouwen aan veilige zorg; deel 3”, Centrum voor Ziekenhuis- en Verplegingswetenschap KULeuven, Brugge, 10 en 11 maart 2006. 9. Dineen M. (ed). Six steps to Root Cause Analysis. Consequence, Oxford, 2002. 10. Flin R, Burns C, Mearns K, Yule S, Robertson EM. Measuring safety climate in health care. Qual Saf Health Care 2006; 15: 109-115. 11. Gurwitz JH, Field TS, Judge J. et al. The incidence of adverse drug events in two large academic long-term care facilities. Am J Med 2005; 118: 251-258. 12. Hansen RA, Greene SB, Williams CE et al. Types of medication errors in North Carolina nursing homes: a target for quality improvement. Am J Geriatr Pharmacother 2006; 4: 5261. 13. Hellings J, Schrooten W, Vandeput H. et al. Patient safety culture in Belgian hospitals: results of a survey. Voor publicatie aangeboden. 14. http://asrs.arc.nasa.gov/ - 11 - 15. http://portal.health.fgov.be/portal/page?_pageid=56,512837&_dad=portal&_schema=PORT AL 16. Institute of Medicine. To err is human: building a safer health system. Report of the Committee on Quality of Health Care in America, Washington, 2000. 17. Institute of Medicine. Crossing the Quality Chasm: a new health system for the 21st century. Report of the Committee on Quality of Health Care in America, Washington, 2001. 18. Leape LL. Error in Medicine. JAMA 1994; 272: 1851-1857. 19. Reason J. Human Error. Cambridge University Press, 1990. 20. Reason J. Managing the Risks of Organizational Accidents. Hampshire, England, Ashgate Publishing Limited, 1997. 21. Schiøler T, Lipczak H, Pedersen BL et al. Incidence of adverse outcomes in hospitalized patients: the Danish Adverse Outcome Study (DAES), Ugeskr Læger 2001; 163: 53705378. 22. Van den Heede K, Sermeus W, Diya L, Lesaffre E, Vleugels A. Adverse outcomes in Belgian acute hospitals: retrospective analysis of the national hospital discharge dataset. Int J Qual Health Care 2006; 18: 211-219. 23. Vanhaecht K, Sermeus W, Vleugels A, Peeters G. Ontwikkeling en gebruik van klinische paden in de gezondheidszorg. Tijdschrift voor Geneeskunde 2002; 58: 1542-1551. 24. Vincent C, Neale G, Woloshynowych M. Adverse outcomes in British hospitals: preliminary retrospective record review. Br Med J 2001; 322: 517-519. 25. Vincent C. Understanding and Responding to Adverse Events. N Engl J Med 2003; 348: 1051-1056. 26. Wagner LM, Capezuti E, Ouslander JG. Reporting near-miss events in nursing homes. Nurs Outlook 2006; 54: 85-93. 27. Wilson RM, Runciman WB, Gibberd RW et al. The quality in Australian health care study. Med J Aust 1995; 163: 458-471. 27. www.belgium.be/eportal/application?languageParameter=nl&pageid=contentPage&docId=4 566 28. www.faa.gov/safety/data_statistics/nasdac 29. www.igz.nl/publicaties/rapporten/rapporten2006/182624 30. www.navigator.czv.be 31. www.oecd.org/dataoecd/53/26/33878001.pdf 32. www.who.int/patientsafety - 12 - 34. Zuckermann JH, Langenberg P, Baumgarten M et al. Appropriate drug use and risk of transition to nursing homes among community-dwelling older adults. Med Care 2006; 44: 722-730. - 13 -