Le management par la qualité et I'accréditation
Débat
Jean-Michel BUDET Directeur général adjoint du CHU de Rouen
Hervé LETEURTRE Directeur de la qualité et de l'accréditation au CHU de Nice
Patrick MARTIN Médecin au CHR d'Orléans
Eve DREVON Directeur de la qualité au CHI de Meulan les Mureaux
Philippe RENAULD Directeur de la prévention de Dexia Sofcah
Gestions Hospitalières, août septembre 2002, supplément au n° 418
HERVÉ LETEURTRE
C'est en tant que conseiller du délégué général à la FHF que je vais vous parler de l'accréditation.
Constatons au préalable que vous, décideurs financiers hospitaliers, êtes bien sûr intéressés par
le sujet, comme le sont tous les directeurs d'hôpital, mais vous l'êtes, en quelque sorte,
indirectement. En effet, il n'est que de regarder le nombre de recommandations en réserve qui
touche votre secteur. Sur les 600 à 700 recommandations qui ont déjà été émises, seules deux
vous concernent. 2 sur 600 ou 700, c'est peu. L'une de ces recommandations est relative à la
prise en compte des contraintes financières dans les projets d'établissement, et l'autre porte sur
l'existence d'un plan pluriannuel d'investissement. Le sujet, donc, vous concerne incontes-
tablement, mais de manière indirecte. On expliquera pourquoi, et également en quoi un directeur
financier est tout de même très intéressé par l'accréditation.
Définition de I1accréditation
Je crois en premier lieu que l'on peut dire trois choses sur l'accréditation: c'est une réforme qui
est indispensable, remarquable, et enfin consensuelle.
Une réforme indispensable
La première idée est qu'il s'agit d'une réforme indispensable. Avant la mise en place de cette
réforme, nous disposions d'un outil imparfait mais néanmoins utile: le PMSI. Toutefois, il ne
saisissait que l'activité quantitative de l'hôpital. Or depuis des années déjà, depuis la loi du 31
juillet 1991 qui évoquait pour la première fois l'évaluation, nous avions cette obsession, utile
dans les hôpitaux, de dire qu'il fallait joindre à cet outil quantitatif un outil qualitatif:
l'accréditation. C'est donc un outil qui était indispensable.
Un outil remarquable
C'est également un outil remarquable. Après, l'ordonnance de 1996 et le décret du 7 avril 1997,
nous redoutions beaucoup de voir la France s'inspirer d'un des multiples modèles étrangers dé
existants. Nous sommes en effet un des mauvais élèves de la classe - ce qui peut présenter
également des avantages. Nous sommes ainsi passés à l'accréditation après l'Angleterre, les
Etats-Unis, le Canada, l'Australie, après même la Catalogne et l'Emilie-Romagne, deux
provinces espagnole et italienne. Nous n'étions donc, pour le moins, pas en avance.
La crainte était alors de voir la France adopter un des modèles existants. La plupart d'entre nous
pensions que ce serait le modèle canadien, à la fois pour des problèmes de langue mais aussi de
culture.
Cela n'a pas été le cas, et il faut saluer de ce point de vue l'énorme travail réalisé par l'ANAES,
travail considérable qui a débouché sur un référentiel véritablement original, avec une démarche
de prise en charge globale des patients qui est une marche extrêmement transversale, même si,
au travers des dix référentiels, certains référentiels peuvent être très ciblés - dans mon établis-
sement par exemple: la gestion des ressources humaines. Il n'en reste pas moins que pour sa
première partie, soit les trois premiers référentiels - DIP, DPA et OPC -, il y a une vision
véritablement transversale de la prise en charge du patient, et je crois que ceci constitue une
vraie réussite. Donc c'est un outil remarquable.
Un outil consensuel
Enfin, son ultime qualité, qui n'est pas la moindre, est d'être un outil consensuel. En effet,
l'ANAES a également eu l'intelligence de s'entourer de très nombreux professionnels à
l'occasion de la création de cet outil. Et l'ANAES a pris le temps - même si on verra qu'aujour-
d'hui cela se révèle être plutôt un défaut, mais à l'époque c'était une qualité,de mettre en place un
référentiel expérimenté. 40 établissements ont été expérimentateurs, et à l'issue de cette
expérimentation, il y a eu une véritable valeur ajoutée en termes de création de produit. On
dispose donc actuellement d'un produit qui a été non seulement construit intelligemment,
expérimenté scientifiquement et bien expérimenté et contre lequel, lorsque le dossier est enfin
apparu prêt à fonctionner dans les établissements hospitaliers, très peu de voix se sont élevées
pour dire qu'il s'agissait d'une mauvaise réforme et qu'ils ne voulaient pas la faire. Ce n'est pas
la moindre réussite de l'accréditation française. C'est donc une démarche qui présente de
nombreux points forts.
Les difficultés
Néanmoins, l'accumulation de petits signes, en définitive assez nombreux, amène tout de même
à s'interroger sur la réforme; et à essayer de faire des propositions tendant à son amélioration,
mais toujours en restant dans un esprit positif, c'est-à-dire qu'on ne pose pas la question politique
- la FHF ne le fait jamais. Il s'agira d'une critique destinée à faire évoluer positivement le produit
pour les hôpitaux.
Le non-engagement de certains établissements
Premier signe: l'ordonnance de 1996 et le décret de 1997 prévoyaient que tous les hôpitaux
devaient s'être engagés dans la-démarche d'accréditation au 21 avril 2001, soit cinq ans après
l'ordonnance. Or on constatait à fin 2000 qu'il y avait un fort déficit d'engagements. Devant ce
danger potentiel, un décret a simplifié, en janvier 2001, la procédure d'engagement. À partir de
cette démarche simplifiée, un grand nombre d'établissements se sont engagés massivement dans
le processus. Néanmoins, les chiffres dont on dispose, en septembreoctobre 2001, montrent qu'il
n'y a encore qu'un peu plus de 3000 établissements qui se sont engagés dans la démarche. Or
c'est tout de même un problème. Il y a environ 3500 établissements en France: environ 500 ne se
sont donc pas engagés, alors même qu'il y a une obligation légale et que l'AR H est derrière qui
peut se substituer.
Certaines analyses, qui valent ce qu'elles valent, tentent d'expliquer ce phénomène. Certaines
mettent en avant les 35 heures, les démarches stratégiques - le fait de mettre en place un projet
stratégique, avant de se rendre compte que, tiens, le moment de l'évaluation approche ou encore
il y a des gens qui se pensaient prêts pour l'auto évaluation, et qui se rendent compte que cela ne
marche pas. Mais 25% c'est énorme, et personnellement, je fais l'hypothèse, qui
malheureusement est vérifiable, que la sévérité des premiers rapports d'accréditation a eu
également pour effet de faire réfléchir les établissements. Il n'est que de voir le cas du CHU de
Nice, dont le rapport d'accréditation a été un des premiers à être édités, dont j'ai dirigé
l'accréditation, et qui a été très sévèrement jugé, alors que c'est un établissement qui, grâce à son
ancien directeur général, et à son directeur général actuel, qui sont tous les deux de fervents
adeptes de la qualité, a beaucoup travaillé la question
- certes, c'est un hôpital qui n'est pas exemplaire, mais aucun hôpital n'est exemplaire. il y a donc
une attitude de recul de la part de certains établissements. Il faut être vigilant, car cela pose un
problème.
On pourrait encore consulter les statistiques publiées à l'issue des enquêtes menées auprès des
hôpitaux accrédités, sur le point de savoir comment s'est passée l'accréditation. Et dans ces
enquêtes, on vous explique que l'accréditation ne s'est pas toujours très bien passée.
On en arrive ainsi à la question de savoir comment améliorer l'accréditation. Je pense que la
réforme pâtit de trois carences. La première est que, quoi qu'on en dise, elle est transformable.
Le deuxième thème, c'est que l'ensemble du processus n'est pas toujours maîtrisé. Enfin, il y a
une certaine iniquité dans l'évaluation, et cette iniquité pose véritablement problème.
La question du contrôle
L'ANAES affirme aujourd'hui: « nous ne sommes pas un organe de contrôle» Mais ce ne serait
pas gênant si elle l'était, de toute manière. En effet que fait-elle réellement? Elle ne fait que du
contrôle. Elle tient un mini-référentiel, au regard duquel elle va vérifier - donc contrôler -la
conformité des principes de l'hôpital. C'est bien du contrôle. Bien plus - et c'est important: la
forme prochaine de l'ANAES va reculer sur ce point - que fait l'ANAES lorsqu'elle fait en
sorte, au préalable que les conditions de sécurité soient respectées? Bien sûr, il est essentiel que
les conditions de sécurité soient respectées. Mais y a d'autres organes de contrôle qui peuvent
tout à fait le dire. Est-ce vraiment à l'ANAES de venir faire du contrôle de conformité en matière
de sécurité? Sans doute pas. L'objectif de l'ANAES est de s'assurer que l'établissement est bien
engagé dans un processus d'amélioration continue de te qualité, et pas vraiment de faire ce type
de contrôle. Et cela, c'est un réel problème. Donc l'ANAES ne peut pas être un organe de
contrôle, et nous souhaitons qu'elle ne le soit pas.
Un processus pas toujours maîtrisé
Il est vrai que lorsqu'on s'engage dans un processus nouveau, on est face à l'inconnu et on n'est
pas à l'abri des couacs. Mais les couacs en l'occurrence se sont quelque peu multipliés. On peut
prendre l'exemple de la procédure. Ainsi, au tout début de l'expérience, au CHU de Nice - qui a
été un des premiers hôpitaux à s'engager dans la démarche - nous n'avions pas les documents qui
nous avaient été promis. Nous avons donc tout ressaisi chez nous, en attendant que le masque
vienne enfin de l'ANAES et quand il est venu, bien sûr, nous avons dû le retraiter. Cet incident,
qui ne s'est certes pas prolongé, a surtout touché les premiers établissements engagés dans
l'accréditation.
Les difficultés de l'auto évaluation
Un autre exemple est fourni par la procédure en matière d'auto évaluation. L'auto évaluation doit
permettre à l'établissement de regrouper ses forces, afin que celles-ci fassent un diagnostic qui
soit le plus fidèle et précis possible, de la réalité sur le terrain. Un chef de projet, qui relève de
l'ANAES, suit la démarche. Au CHU de Nice, avec 6000 salariés et 6 sites, cela a été un
véritable casse-tête que de constituer des groupes d'auto évaluation qui soient multi-
décisionnaires, multi-sites, et qui ne soient pas trop nombreux. Parce que si on travaille avec des
groupes trop nombreux, il est évident qu'on ne peut pas tenir. Nous avons demandé au chef de
projet de valider le découpage auquel nous étions parvenus. Mais le chef de projet a refusé de se
prononcer sur la validation. Je lui ai demandé la raison de son refus de valider, et s'il avait
l'intention d'attendre la visite pour nous dire qu'on s'était trompé, J'ai insisté pour qu'on aborde le
sujet dès ce moment, sur la base d'un référentiel approprié, mais il n'avait pas de référentiel
concernant notre découpage réalisé en auto-évaluation. Comme nous étions bien néanmoins
dans une démarche qualité nous avons fait de la traçabilité, c'est-à-dire que nous avons noté tout
ce qu'il nous disait au fur et à mesure...
Ce que l'on remarque en premier lieu, c'est que ces nouveaux rôles ne sont pas représentatifs. On
essaie de progresser à tons. Nous y sommes obligés. En effet, nous avons dît à l'ANAES:
« nous vous avons montré la constitution de nos groupes, c'est donc maintenant à vous de nous
dire au regard de quel référentiel nous pourrions ne pas être conformes ». Bien évidemment il
n'y avait pas de référentiel. Ils ont donc fini par reculer, mais vous voyez qu'il y a là un danger
important. L'ANAES n'a de légitimité à faire du contrôle de conformité que si un référentiel
existe bel et bien. Le cas échéant, nous n'avons pas à recevoir de leçons d'un organe extérieur qui
ne s'appuie pas sur un référentiel, alors que c'est leur mission. Il y a donc eu sur ce point un
petit «clash ».
Les experts-visiteurs
Nous avons essayé d'élargir l'étude en interrogeant d'autres hôpitaux. L'auto évaluation une fois
effectuée et envoyée à l'ANAES, les experts-visiteurs se rendent dans l'hôpital. Or, dans les trois
établissements objets de notre enquête, les professionnels se sont rendu compte qu'ils n'avalent
pas lu l'auto-évaluation. Et alors que j'interrogeais mes «camarades » - j'ai omis de vous préciser
que je suis moi-même expert visiteur, mais je ne suis jamais intervenu, parce que mes fonctions
au sein de la FHF ne me le permettaient pas -, ils avaient peine à croire que cela avait bien pu se
produire. De tels dysfonctionnements doivent être rappelés, même si on ne peut pas les
généraliser: quels professionnels viennent sans lire l'autoévaluation?
Sans doute pourrait-on multiplier les exemples de tels problèmes, qui sont des problèmes de
processus. Vous pouvez également rencontrer le cas de l'expert-visiteur qui se révèle un vrai
donneur de leçons, c'est-à-dire qui va prétendre apprendre leur travail aux professionnels en
place. Ceci n'est pas supportable.
Il est vrai que l'ANAES dispose d'un système de régulation, qui doit permettre d'évaluer ces
experts-visiteurs qui n'ont pas compris le sens de leur mission. Sur les huit experts-visiteurs dont
nous avons reçu la visite, au CHU de Nice il yen a un dont nous avons fait une mauvaise
évaluation. C'est-à-dire qu'à la fin de sa mission, nous avons dit à l'ANAES: « ne reprenez pas
cet expert-visiteur, parce qu'il n'est pas bon ». L'ANAES nous a expliqué qu'ils l'avalent
néanmoins gardé, parce qu'il faut deux mauvaises évaluations pour qu'un expert-visiteur soit
démis de ses fonctions. Cela signifie donc que cet expert-visiteur va aller refaire des dégâts au
moins dans un autre hôpital. Voilà donc ce que l'on peut dire sur le processus.
L'iniquité en matière d'évaluation
On doit encore ajouter que le système actuel n'est pas suffisamment transparent. Qu'est-ce qui
permet à l'ANAES de dire: on passe d'une recommandation à une réserve, d'une réserve à une
recommandation? En réalité, ils font un peu de l'AGF, c'est-à-dire de « l'analyse gravité de la
fréquence». Le problème est qu'ils ne nous ont jamais montré les outils sur lesquels ils
s'appuient, et lorsqu'on regarde vraiment les rapports, on constate qu'il y a une énorme
hétérogénéité entre les établissements. L'ANAES s'en est rendu compte, et je vais terminer mon
propos sur ce point - on ne peut pas non plus continuer sur ces critiques, qui sont des critiques
fondées, mais qui ne doivent pas dissimuler le caractère très intéressant de la réforme. Lors de
son dernier conseil d'administration du 8 mars de cette année, l'ANAES a lancé un plan de
simplification et d'amélioration de son processus d'évaluation. Cette capacité d'adaptation est un
bon point pour l'ANAES.
Les retards sur le planning
Dernière critique, qui introduit au problème de la différence des résultats: l'ANAES est en
retard. On pourra vous dire tout ce que l'on veut. L'ANAES avait pris un engagement de 400
établissements accrédités en 2002. Lors d'un conseil d'administration, -il y a eu une tentative de
retour à 300 établissements.- Sur ce point, une vraie bataille institutionnelle est en cours, y
compris avec le ministère, tout simplement parce que l'ANAES ne peut pas avoir de retard. Si
elle en prend un, elle ne pourra pas en avoir d'autre. Pourquoi? Tout simplement parce qu'il y a à
présent une attente dans les établissements hospitaliers. Les établissements doivent être
accrédités, sous peine d'être improductifs. On ne peut pas se permettre d'accréditer des
établissements de 2000 à 2012! Cela n'a pas de sens. Il y a bien là un vrai problème.
Les résultats des comptes-rendus d'accréditation
Les limites de l'analyse
Je ne vais pas traiter les résultats des 618 comptes-rendus d'accréditation que vous pouvez
consulter sur le site Internet de l'ANAES. Que peut-on dire au vu des premiers résultats? La
première idée, c'est qu'on ne peut réaliser aucun commentaire qui ait une validité scientifique.
Pourquoi? Parce que l'échantillon n-est pas représentatif: il compte 118 établissements, alors
que 3500 devront être accrédités. Il y a donc déjà un problème quantitatif. Sur une base de 3500,
Si l'on souhaite faire un échantillon stratifié, il faut réunir environ 400 établissements. On est
donc pour l'instant loin du compte. Et même lorsqu'on aura réuni les 400 établissements, on ne
pourra pas faire d'analyse scientifique, tout simplement parce que l'échantillon est biaisé car on
ne prend pas les établissements de manière aléatoire, mais dans l'ordre où le décompte parvient
à l'ANAES. Cela fausse les résultats, même si on ne sait pas dans quel sens, puisqu'on peut de
même poser comme hypothèse forte que les premiers à s'être engagés auront une évaluation plus
avancée. A mon avis, on ne pourra donc jamais vraiment parvenir à une analyse scientifique.
Néanmoins, cela ne nous empêche pas de regarder, même si on doit éviter de parler de
pourcentages - ce que je vais faire malgré tout -, les grandes tendances qui- se dégagent
Les grandes tendances
La première tendance, c'est que les hôpitaux publics, proportionnellement, se sont engagés plus
vite dans la démarche. C'est ce que l'on constate au vu du nombre des accrédités par rapport au
nombre des hôpitaux.
La deuxième observation, c'est que les hôpitaux privés reçoivent moins, proportionnellement
toujours, de recommandations et de réserves que les hôpitaux publics. L'hypothèse forte que je
fais, c'est qu'il y a un réceptacle; c'est à dire que plus l'établissement fait partie des gros, plus il
aura de recommandations. Mais cela va au-delà de la simple relation mécanique liée à la taille.
Ce qui risque de se produire, c'est que plus vous êtes gros, plus vous avez de salariés, de
services, d'établissements, de sites, qui sont en inter-relation, plus vous aurez probablement de
dysfonctionnements internes.
Ensuite, lorsqu'on étudie finement les 118 établissements, on se rend compte qu'il y a un
référentiel qui visiblement a été oublié. Mon hypothèse sur ce point est que les experts-visiteurs
ne sont pas compétents dans le domaine. Bien sûr, il n'est pas scandaleux de dire qu'on n'est pas
compétent dans un domaine, puisqu'il y a tellement de domaines qu'on ne peut être compétent
partout, mais si le référentiel de gestion de systèmes d'information fait l'objet de seulement 21
recommandations/réserves, ce qui est ridiculement bas alors même que cela touche des
établissements très précis, et que la relation est unique: mise en place d'un schéma directeur
informatique - cela montre qu'à l'évidence, les experts-visiteurs n'ont pas pris la mesure du dégât
dans le système d'information hospitalier français. Ce qui est particulièrement gênant ici, c'est
1 / 16 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !