Par Camila Cortés
Récemment, le Conseil fédéral de médecine (CFM) a annoncé son intention de lancer un robot d'intelligence artificielle (IA) pour suivre les réseaux sociaux et identifier les faux experts. Cette nouvelle relance des débats importants.
L’« épidémie » de fraude en santé, caractérisée par la prolifération de professionnels qui se présentent comme des experts sans formation adéquate ni reconnaissance officielle, met en danger non seulement la crédibilité du corps médical, mais surtout la sécurité des patients. Dans ce contexte, l’utilisation de la technologie et de l’IA comme instruments d’inspection apparaissent comme des outils nécessaires et innovants.
Cette mesure dialogue directement avec les principes de bienfaisance et de non-malfaisance. Autoriser des professionnels non qualifiés à travailler dans des spécialités médicales viole le devoir de diligence et peut causer des dommages irréversibles à la santé des personnes. L’utilisation de l’IA, lorsqu’elle est guidée par l’éthique et un engagement envers la vie, peut devenir un allié fondamental dans la préservation de ces principes.
De plus, il est important de rappeler que l'exercice professionnel doit respecter des normes claires, qui comprennent des qualifications appropriées, l'inscription auprès des conseils professionnels et le respect des limites de la pratique médicale. Les professionnels qui se présentent irrégulièrement sur les réseaux sociaux commettent des infractions éthiques et juridiques, s'exposant à des poursuites administratives, voire judiciaires. La traçabilité favorisée par les outils numériques, en ce sens, peut renforcer l’efficacité des normes existantes.
Le mouvement CFM va au-delà de l’inspection individuelle. Cela souligne la nécessité pour les cliniques, les hôpitaux et les entreprises de soins de santé de mettre en œuvre des mécanismes internes de vérification et de contrôle des qualifications professionnelles. La conformité réglementaire ne peut se limiter au respect formel de la loi ; elle doit être intégrée à la culture organisationnelle en tant que pratique continue d’atténuation des risques.
Il est indéniable que l’utilisation de l’IA dans les processus réglementaires soulève des dilemmes supplémentaires, tels que la transparence des algorithmes et les limites éthiques de la surveillance numérique. Cependant, s’il est équilibré avec des garanties juridiques et bioéthiques, le robot CFM pourrait devenir une étape importante dans la protection de la société contre les pratiques frauduleuses en médecine.
Dans un scénario où l'information circule rapidement et pas toujours avec la responsabilité qui lui revient, la combinaison de la technologie, de l'éthique et du droit est essentielle pour protéger le plus grand bien qui doit toujours guider la médecine : la santé et la dignité du patient.
*Camila Cortez est avocate, consultante, conférencière spécialisée en bioéthique, droit médical et conformité des soins de santé, fondatrice de KCortez Consultoria, directrice et professeur à l'Institut BIOMEDS.