La promesse que intelligence artificielle Il peut révolutionner la médecine est de plus en plus présente dans les cliniques, les hôpitaux et dans les coulisses de l'industrie de la santé. Des diagnostics rapides à l'analyse des examens complexes, l'utilisation de modèles de langue et d'algorithmes intelligents suscite l'optimisme. Mais la même vitesse à laquelle ces outils sont en cours d'adoption de lumières, y compris parmi les experts juridiques. L'une des principales questions: qui est responsable si je me trompais et que le patient est blessé?
L'Organisation mondiale de la santé (OMS) a publié une déclaration officielle demandant une «prudence» dans l'utilisation de l'intelligence artificielle dans le secteur. L'entité souligne la nécessité de protéger l'autonomie humaine, la sécurité et le bien-être des patients, ainsi que d'attirer l'attention sur des risques tels que la tendance des données, la génération d'informations incorrecte et la possibilité d'une désinformation généralisée. « L'adoption hâtive de systèmes non stressés peut entraîner des erreurs par les professionnels de la santé, endommager les patients et saper la confiance dans l'IA », souligne le document.
L'OMS note que des modèles de langue tels que le chatppt sont utilisés expérimentalement dans des environnements médicaux, souvent sans validation clinique appropriée. L'institution est préoccupée par le fait que ces systèmes sont traités avec une confiance disproportionnée à leur preuve scientifique.
D'un point de vue juridique, l'utilisation de l'IA en médecine impose des défis non réglementés. Après tout, si une intelligence artificielle indique un mauvais diagnostic ou recommande un traitement incorrect, qui devrait être tenu responsable? Le médecin qui a suivi la recommandation de l'IA? L'entreprise qui a développé le système? L'hôpital qui vous a embauché?
Selon l'avocat Thayan Fernando Ferreira, spécialiste du droit de la santé et du droit public, membre de la Commission du droit médical de l'OAB-MG et directeur du bureau de Ferreira Cruz Advogados, il est essentiel de comprendre que, légalement, l'IA est toujours un instrument, pas un sujet de droit. « La responsabilité, en cas d'erreur, continue de tomber sur les professionnels de la santé, car ils sont les détenteurs de fonctions techniques et d'autonomie de décision. L'intelligence artificielle peut être utilisée comme outil de soutien, mais jamais comme substitut de l'analyse humaine », explique-t-il.
Le code brésilien d'éthique médicale renforce cette idée en déclarant que le médecin ne peut pas transférer à des tiers, humains ou non, la responsabilité de ses décisions cliniques. Le code de protection des consommateurs (CDC) peut être appliqué par analogie dans les cas où la défaillance du service implique des défauts du logiciel, ce qui impliquerait également des fournisseurs de technologie. « L'article 14 du CDC traite de la responsabilité objective du fournisseur de services.
Cependant, alors que le secteur se déplace entre l'enchantement et la peur, le débat reste ouvert. «L'IA peut être un allié important, mais il doit être utilisé avec la rigueur scientifique, la responsabilité éthique et la certitude juridique. L'enthousiasme ne peut pas faire passer les soins», explique Thayan.