De la qualité, mais pas sans respect !

Dr Lawrence Cuvelier

Un billet d’humeur du Dr Lawrence Cuvelier, vice-président du GBO
publié le 07/12/2021

Nous sommes en 2025. Le Dr Farge s’apprête à rédiger l’ordonnance de renouvellement des antihypertenseurs de Madame Duchemin. Quand il clique sur la fonction ‘prescription’ de son logiciel, un avertissement se met à clignoter frénétiquement à l’écran. « VOUS ÊTES EXCLU DU DROIT DE PRESCRIRE, NOTRE LOGICIEL A PRÉVU QUE VOUS ALLIEZ COMMETTRE DES ERREURS DE PRESCRIPTION DANS LES SEMAINES À VENIR. » Improbable, ce scénario… ? Eh bien, sachez qu’il entre pourtant dans une logique que nos autorités veulent faire triompher !

Nous avons récemment dû nous adapter à l’e-prescription, par le canal de Recip-e, une application mise en place par les acteurs de terrain – pharmaciens et médecins – avec l’aide d’universitaires. Ce système présente encore des défauts, c’est vrai. Il permet cependant une grande souplesse, sonne le glas des tracasseries liées à des pertes de prescription ou d’illisibilité de la dose, et gomme les risques de falsification. Il ne permet pas un contrôle immédiat pour déceler une erreur qui se serait glissée dans la prescription.
À présent, il est question à l’Inami, dans le cadre plus large du projet Vidis, de créer un dispositif qui prendrait en considération l’indication et la rigueur du traitement. Bien entendu, le petit drame que je présente en guise d’introduction à ce texte n’est encore que de la science-fiction, et d’ailleurs, le projet en gestation ne concernerait pas les ordonnances médicamenteuses mais bien les prescriptions de renvoi vers un autre professionnel de santé. Cela étant, il engendre un réel malaise.

Attention au défauts de conception
C’est grâce à la mise en place d’algorithmes (1) qu’une évaluation des prescriptions (pharmaceutiques ou autres) des médecins serait possible, algorithmes analysant les data et affinant les profils.
Il est totalement idiot de se révolter contre les algorithmes. Par contre, il y a lieu d’être très vigilants à propos de la manière dont ils sont créés et des erreurs explicites et/ou implicites qu’ils peuvent contenir ou engendrer. Les premières tiennent à des lacunes de conception, qu’on aurait pu éviter au vu de données connues. Par exemple ne pas tenir compte de la surreprésentation des consommateurs de tabac dans les couches les plus défavorisées de la population, et du fait qu’il est plus difficile, dans ces groupes cibles, d’identifier précocement une BPCO. Ou que les différences socio-économiques expliquent le recours plus fréquent aux psychotropes, car plus accessibles que la psychothérapie. Les médecins qui exercent dans des quartiers précarisés vont automatiquement se voir reprocher de prescrire trop de bronchodilatateurs et de psychotropes. Une erreur implicite est celle dont le biais se révèle par l’analyse des résultats et qui fait découvrir une anomalie dont on n’avait pas connaissance à la conception de l’algorithme.

La menace inhérente à toute évaluation de la qualité des soins, c’est qu’elle soit exclusivement fondée sur des données (plus facilement) quantifiables que la qualité de l’écoute et l’empathie, par exemple.

Garder le contrôle
Est-ce que l’utilisation des algorithmes doit être systématiquement rejetée ? Certainement pas. Ils peuvent aider le corps médical à progresser de manière individuelle et collective. Mais le recours à ces outils doit être prudent et maitrisé. Le danger, c’est que plus personne ne contrôle réellement ce qu’il se passe.
Le récent livre d’Aurélie Jean est très utile pour appréhender la problématique (2). Cette chercheuse française, une docteur en sciences numériques travaillant en partie pour le MIT (3) aux USA, y explique les avantages des techniques algorithmiques, mais aussi les dangers de traitements inéquitables auxquels elles peuvent conduire si elles sont mal utilisées.

Des normes à respecter
La meilleure protection que nous puissions avoir est le Règlement général sur la protection des données, le RGPD. C’est un outil de préservation de la vie privée nettement plus performant que son équivalent californien, le CCPA (4), qui se borne à défendre le consommateur. Malgré une loi bien faite, et que certains opérateurs belges ont du mal à respecter, il reste des vides juridiques, c’est-à-dire des situations que le législateur n’a pas prévues. Néanmoins, le RGPD, en vigueur depuis mai 2018, stipule que les données médicales doivent être particulièrement protégées.
Le récent incident concernant l’application Helena prouve cependant que les menaces demeurent si les normes ne sont pas respectées (d’après les révélations du Soir (5), cette plate-forme de liaison entre médecins et patients fait l’objet d’une plainte auprès de l’Autorité de protection des données pour failles de sécurité, ayant été homologuée par l’État bien qu’elle soit moins exigeante en termes d’authentification personnelle pour accéder à son dossier médical que l’eID ou d’Itsme®).

Le MG, fusible tout trouvé ?
Est-ce que le GBO s’oppose à l’amélioration de la qualité des soins ? Certes non, mille fois non, au contraire il la défend. Les ressources de la sécurité sociale ne sont pas illimitées. Nous savons que certaines ne sont pas employées à bon escient. Et ce constat concerne aussi bien la médecine générale que la médecine spécialisée, quoique dans des proportions certainement très différentes en raison notamment du prix d’une journée d’hospitalisation et du coût de la technologie.
Les mécanismes qui sous-tendent un usage suboptimal des moyens de la collectivité sont parfois simples à identifier (comme la sur-prescription d’actes techniques pour équilibrer les comptes des hôpitaux) mais parfois plus insidieux (comme le fait de ne pas procéder à un examen qui pourrait mettre en cause la responsabilité civile ou pénale du médecin). Dans d’autres cas, c’est un manque de formation dans un domaine de compétence précis qui est en cause. Le généraliste, supposé tout savoir, est une proie facile, si l’on se met à le juger sur ses aptitudes d’un certain point de vue.

Du quantifiable… et le reste
La menace inhérente à toute évaluation de la qualité, c’est qu’elle soit uniquement étayée par des données quantifiables – les statistiques de mortalité, de morbidité, le taux d’hémoglobine glycosylée, les chiffres tensionnels… On pourrait multiplier les exemples, mais une série de paramètres comme la qualité de l’écoute, la bienveillance ou l’empathie sont des critères plus difficilement mesurables. Pourtant, ils ont des valeurs démontrables dans des études scientifiques bien menées.
Au GBO (6), nous sommes convaincus qu’un bon généraliste est un médecin qui est conscient et soucieux de ses points (plus) faibles, et que la meilleure façon d’améliorer la qualité des soins dans la profession est une approche qui privilégie le dialogue. Les formations continues que les MG suivent constituent l’un des moyens – certes imparfait et réformable – de tirer la qualité vers le haut. Mais des analyses scientifiques et comparatives, impliquant les gens de terrain, sont à favoriser.
La méthode serait bien plus acceptable – et donc productive – que de débarquer avec un arsenal de mesures unilatérales de nature à faire fuir les derniers omnipraticiens qui veulent encore exercer ce beau métier.

 

Dr Lawrence Cuvelier

 

(1) algorithme est un nom commun dérivé du patronyme Al-kwarizmi, un mathématicien arabe du IXe siècle. Rien à voir avec logarithme !
(2) « Les algorithmes font-ils la loi ? », aux éditions de l’Observatoire, octobre 2021
(3) Massachusetts Institute of Technology
(4) California Consumer Privacy Act
(5) Le Soir 27/10/2021 : Vie privée: Helena devrait prévenir tous ses patients d’une potentielle violation de leurs données de santé & «Helena «ne représente pas une menace pour vos données de pension.» Vraiment ?
(6) « Science, conscience, bon sens » : l’EBM ne repose pas uniquement sur les 3 piliers bien connus, mais également l’expérience du médecin et la volonté/nolonté du patient.