La fin de l'IA informelle : pourquoi la nouvelle résolution du CFM nécessite une « IA d'entreprise »

Plus qu’autoriser l’utilisation de la technologie, la norme établit des critères clairs en matière de supervision, de responsabilité et de gouvernance institutionnelle. La discussion ne porte plus sur « si » l’IA peut être utilisée mais sur « comment » elle doit être intégrée de manière sûre et responsable.

Face à une technologie en évolution rapide, le défi est connu : comment stimuler l’innovation sans compromettre la sécurité des patients ? Dans le domaine de la santé, la sécurité est un principe non négociable. Dans le même temps, l’absence de directives claires peut conduire à une utilisation non structurée et à de graves risques. La nouvelle résolution cherche précisément à organiser ce scénario, en créant des paramètres pour une utilisation responsable et encadrée.

Comme établi dans le texte normatif du chapitre VII, art. 18, § 1 : « à aucun moment les modèles, systèmes et applications d’IA en médecine ne peuvent restreindre ou remplacer l’autorité finale du médecin ». La norme renforce le fait que la technologie a un caractère instrumental et complémentaire, et non un substitut, dans la pratique des soins.

  1. Résolution 2454/2026 : Diagnostic humain, support synthétique

Publiée le 27 février 2026, la norme établit que l’IA doit agir strictement comme un support, et jamais comme un substitut à la prise de décision clinique. Le médecin reste le « gardien contre les pannes de la machine », responsable en dernier ressort d'accepter ou non les suggestions du système.

Dans la pratique clinique quotidienne, cette collaboration se traduit par le retour de l'atout le plus précieux du professionnel : le temps et la concentration sur le patient. En agissant comme un véritable assistant qui accélère et qualifie les processus, l’IA s’attaque de front à la lassitude documentaire qui provoque le burn-out dans le corps médical. Lorsque le médecin se libère d’une saisie mécanique épuisante, la relation médecin-patient et l’écoute attentive sont préservées et renforcées. La machine traite, l’humain valide. Cela rétablit non seulement l’humanisation des soins, mais augmente également la prévisibilité et la sécurité des dossiers cliniques.

Principaux piliers et comparaison internationale :

  • Classification des risques : La résolution classe les outils en niveaux de risque : faible (administratif), moyen (aide au diagnostic avec supervision), élevé (décisions critiques pouvant générer des risques graves en cas d'erreur).
  • Transparence et consentement : le patient a le droit de savoir quand l'IA est utilisée dans ses soins et peut choisir de l'utiliser et comment, et le professionnel de la santé peut refuser le soutien de l'IA qu'il considère comme dangereux ou inapproprié.
  • Normes mondiales : les experts soulignent que le modèle brésilien reflète le plus avancé d'Europe, des États-Unis et de pays dotés de modèles de santé similaires, cherchant à équilibrer l'innovation, la sécurité des patients, la durabilité et le respect des normes juridiques.
  1. Le besoin d’une « IA d’entreprise » : pourquoi le comité interne est vital

La pratique du Shadow AI, l’utilisation massive et informelle d’outils d’IA personnels par les équipes soignantes, représente un risque catastrophique de fuites de données et de décisions basées sur des informations non validées et non testées.

La résolution du CFM oblige les hôpitaux et les institutions à créer une commission IA et télémédecine. Ce comité est chargé de :

  • Évaluation des risques : Définir au préalable la catégorie de chaque outil utilisé dans l'établissement.
  • Faisabilité : définir la viabilité de l'outil, s'il apporte des avantages et comment il apporte des avantages.
  • Audit continu : surveillez les algorithmes pour détecter les biais qui émergent au fil du temps et qui ont un impact sur les soins.
  • Gouvernance des données : garantir le strict respect de la LGPD et de la sécurité des informations de santé.

Sans une plateforme d'entreprise centralisée, il devient impossible d'effectuer l'audit des journaux (invites et réponses) nécessaire pour garantir qu'aucune donnée sensible n'est traitée de manière inappropriée.

  1. Evalmind : la réponse à la conformité médicale et à la gouvernance

Les produits evalmind chat et evalmind care ont été conçus précisément pour combler le fossé entre la commodité de l'IA et les exigences rigoureuses de la nouvelle résolution. Alors que les outils personnels offrent une sécurité générique, la plateforme evalmind se concentre sur l'IA d'entreprise médicale à travers trois piliers fondamentaux :

A. Confiance et audit (conformité à la résolution)

Contrairement aux IA « publiques », l'écosystème evalmind offre une isolation et un audit, garantissant que les données de votre institution ne sont pas utilisées dans d'autres environnements.

  1. Journaux détaillés : fournissent une traçabilité complète de chaque interaction pour les comités d'audit requis par CFM.
  2. RBAC (Access Control) : définit qui peut accéder à quelles bases de connaissances, en s'alignant sur l'informatique de l'hôpital.

B. Intelligence guérie (l'opération cerveau)

Pour éviter les « hallucinations » des modèles génériques, evalmind care utilise l’architecture d’entreprise RAG (Retrieval-Augmented Generation).

  • Mémoire d'entreprise : au lieu de préférences personnelles, AI consulte des bibliothèques validées de protocoles cliniques et de politiques de sécurité des patients de l'établissement.
  • Comportement prévisible : permet de tester rigoureusement les scénarios critiques avant la production, garantissant ainsi aux cliniciens un soutien fiable.

C. Efficience et intégration stratégique

Le chat evalmind n'est pas un outil isolé ; il s'intègre en toute sécurité au Dossier Médical Electronique (PEP) et aux systèmes de gestion (ERP).

  • SLA Mission Critical : contrairement aux outils gratuits, il offre une garantie de disponibilité et un support dédié, essentiels pour les infrastructures de santé.
  • Personnalisation via API : vous permet de créer des assistants spécifiques pour la facturation, le tri, la transcription ou l'assistance au diagnostic, le tout sous le même toit de gouvernance.

La résolution 2454/2026 est claire : le délai d’adaptation de 180 jours constitue un immense défi opérationnel. L’adoption d’une plateforme d’IA d’entreprise n’est plus seulement une décision technologique et commence à représenter une voie structurée pour faire évoluer l’innovation avec une sécurité réglementaire et une responsabilité institutionnelle.

  1. La prochaine étape : construire, pas seulement adopter

La réglementation ne met pas fin au débat ; nous n'en sommes qu'au début. Il n’existe pas de manuel définitif prêt sur le marché. Chaque hôpital a sa propre culture, des systèmes existants complexes, des protocoles cliniques spécifiques et différents niveaux de maturité numérique.

La mise en œuvre responsable de l’IA nécessitera :

  • Intégration profonde entre les services médicaux et informatiques, axée sur l'éthique et la sécurité des patients ;
  • Un alignement strict avec les domaines de conformité et juridique ;
  • Architecture technologique adéquate (avec isolation et traçabilité), atténuant les risques de fuite et d'utilisation abusive des données ;
  • Tests structurés dans des environnements contrôlés avant la mise à l’échelle clinique, validant l’efficacité clinique.

Plus que simplement acheter de la technologie, il faudra construire des modèles institutionnels d’usage. La nouvelle norme établit « ce qui » doit être fait. Le « comment » sera encore défini par les institutions qui dirigent ce mouvement dans le pays. En ce sens, il convient de souligner que, du point de vue de l’investissement, il ne faut pas seulement se demander quelle est la « meilleure IA », mais aussi quel est le « meilleur produit », en se concentrant sur les résultats mesurables que cette technologie peut offrir.

La redéfinition de la manière de travailler évoquée au début de cet article implique la construction d'agents d'IA capables d'effectuer des tâches avec plus de précision et de qualité, en optimisant le travail auparavant répétitif et effectué par des personnes, qui à leur tour pourront effectuer des activités plus spécifiques, comme ajuster et améliorer les performances de ces agents.

Pour cette raison, il ne s’agit pas seulement de brancher des outils. Il s’agit de concevoir ensemble la gouvernance qui soutiendra la médecine numérique brésilienne au cours de la prochaine décennie. C’est pourquoi nous entamons un cycle de dialogue avec les directeurs d’hôpitaux, les directeurs médicaux et les leaders technologiques intéressés par la structuration de modèles d’intelligence artificielle sûrs, auditables et évolutifs.

L’ère de l’IA informelle est révolue. L’ère de l’IA gouvernée a commencé et elle se bâtira de manière collaborative.

____________________

A propos des auteurs :

  • Rafael Shoji : PDG d'Eval.
  • Marcelo Giusti Tiziano : Directeur produit chez Eval.
  • Murilo Rivau Fernandes : Directeur des Nouvelles Affaires chez Eval.
  • Dr Léandro Miranda : Docteur spécialisé en informatique de santé à Eval.

(Note éditoriale : cet article a été rédigé et révisé en collaboration avec AI Gemini 3.1 Pro).

____________________

Contactez-nous afin que nous puissions structurer ensemble la feuille de route de votre nouvelle commission IA, en fonction des exigences de l'entreprise et du support de l'infrastructure evalmind.