Intelligence artificielle dans les essais cliniques en oncologie

Mettre Gabriela Tannus

Au milieu des transformations technologiques rapides qui traversent la santé, l'intégration de l'intelligence artificielle (Ia) au essais cliniques Oncologique apparaît comme l'une des innovations les plus prometteuses – et plus difficiles – ces dernières années. La publication récente d'Azenkot et al. À ASCO Educational Book 2025 (de l'American Society of Clinical Oncology) nous invite à regarder au-delà de l'enthousiasme technique et à réfléchir sur les implications humaines, éthiques et structurelles de cette transition.

L'article souligne comment l'IA et l'apprentissage automatique (ML) sont utilisés pour améliorer la conception et la représentativité des essais cliniques, en particulier dans les phases II et III. Les outils intelligents aident déjà du recrutement des patients à l'analyse des résultats, grâce à l'automatisation des opérations et à la gestion des données en temps réel. Plus que l'efficacité, ces fonctionnalités offrent quelque chose de rare dans les temps de surcharge: le temps d'écouter.

Pour les médecins qui mènent des essais cliniques – en particulier ceux qui n'ont pas de nombreuses équipes – l'IA peut fonctionner comme un partenaire silencieux et infatigable, en supposant des tâches répétitives et en libérant un espace mental et émotionnel pour ce qui compte vraiment: les soins centrés sur le patient. Ce n'est pas un remplacement des papiers, mais une redistribution de l'attention.

À l'autre bout, pour les patients, ces outils peuvent signifier un accès plus rapide et plus équitable à des recherches innovantes. Des systèmes tels que TrialGPT et OnCollm sont capables de traverser les données cliniques, génomiques et géographiques pour trouver des tests compatibles avec le profil de chaque personne. C'est une réponse concrète à un ancien problème: la difficulté de trouver des patients éligibles et divers en temps opportun.

Mais avec l'enthousiasme viennent les alertes. L'article n'ignore pas les risques: biais algorithmique, manque de représentation des données, transparence limitée et défis éthiques. L'application de l'IA en oncologie nécessite un équilibre délicat entre l'innovation et la responsabilité. Un point particulièrement sensible est la capacité de ces systèmes à intégrer des expériences subjectives et des décisions cliniques complexes – nous rappelant que, malgré tout l'avance, ce sera toujours le look humain qui guidera les décisions les plus importantes.

En ce sens, ASCO propose un cadre éthique pour l'utilisation responsable de l'IA, résumé dans l'acronyme Faiith **: Équité, responsabilité, parties prenantes en panne, supervision institutionnelle, transparence, application entrée en humaine. En d'autres termes, la technologie ne doit être appliquée que si elle est juste, transparente, supervisée et centrée sur la personne.

Plus qu'une transformation technique, nous sommes confrontés à une chance historique de reconnecter la technologie et l'empathie, la science et l'écoute, les données et le but. L'intelligence artificielle n'élimine pas le besoin de contact humain – au contraire, c'est peut-être l'opportunité dont nous avions besoin pour récupérer quelque chose qui n'aurait jamais dû être manqué: le temps, la présence et la confiance.

Si nous voulons que les essais cliniques soient plus inclusifs, rapides et efficaces, il sera nécessaire d'investir dans des ponts humains: entre le chercheur et le patient, entre le programmeur et le médecin, entre les données et les histoires qu'ils représentent.

L'intelligence peut être artificielle. Mais attention, non.


* Gabriela Tannus est économiste de la santé et technicienne bénévole à l'Institut pour gagner le cancer.