Enjeux éthiques dans l’utilisation de l’intelligence artificielle dans les soins de santé

Mettre Carlos Alberto Pereira

Il ne fait aucun doute que la transformation numérique des soins de santé est là pour rester, enrichissant le diagnostic clinique du patient. Après tout, c’est grâce à la mise en œuvre de la technologie dans le secteur que l’automatisation est devenue possible – fondamentale pour une gestion opérationnelle plus efficace ; la protection et l'intégration de systèmes contenant des données sensibles sur les patients ; accès à distance à l'information et surveillance à distance ; entre les autres.

Nous pourrions passer des heures à parler des avantages de Santé 4.0 et quelle quantité de technologie, en particulier l'inclusion de l'intelligence artificielle (IA), contribue à la présence d'un excellent traitement dans les institutions.

Cependant, malgré ses nombreux avantages, il faut prêter attention aux « petits caractères » de l’IA, notamment en ce qui concerne l’éthique de son utilisation et la mesure dans laquelle le chemin indiqué par l’outil est idéal.

La conservation des informations sensibles sur les patients est l’un des plus grands défis éthiques liés à l’utilisation des IA. L'apparition d'un changement culturel et structurel dans les organisations est extrêmement importante.

Il ne suffit pas de simplement connecter un système de protection ou de saisir un mot de passe plus fort. Il est nécessaire de changer les mentalités pour que les astuces extérieures ne mettent pas le facteur humain en danger.

En outre, il existe certains préceptes défendus par l'Organisation mondiale de la santé (OMS) dans le guide des Grands Modèles Multimodaux (LMMS), publié au premier semestre de cette année, sur l'entrée de l'IA dans le secteur, et qui peuvent guider cette nouvelle voie. .

D'un point de vue éthique, l'Organisation défend six points qui sont : la protection de l'autonomie (le médecin contrôle les décisions cliniques) ; promouvoir le bien-être, la sécurité humaine et l’intérêt public (les promoteurs doivent respecter les exigences réglementaires en matière de sécurité) ; garantir la transparence et l’intelligibilité (l’IA doit être compréhensible pour les médecins) ; promouvoir la responsabilité et l’imputabilité (l’IA ne peut être utilisée que par des professionnels préalablement formés) ; assurer l’inclusion et l’équité (encourage une utilisation et un accès larges) ; et être réactif et durable (promouvoir la durabilité des systèmes de santé).

Par conséquent, compte tenu des arguments défendus par l’OMS, il est important de souligner que l’IA ne doit pas être considérée comme une « gardienne de la vérité », mais plutôt comme un autre moyen de soutenir la santé – puisqu’elle peut consulter le contenu d’ouvrages médicaux et des études de cas en millisecondes – tout comme les examens d’imagerie et de collecte. Il existe même des solutions capables de vérifier des motifs sur les images radiographiques qui ne seraient pas visibles à l'œil nu, soutenant ainsi le diagnostic préventif.

Enfin, je crois qu’il n’y aura jamais un moment dans notre histoire où l’IA pourra remplacer le médecin. Je n'ai pas peur de dire que cela n'arrivera jamais.

Après tout, peu importe à quel point l’outil génère des informations sur les décisions médicales, il n’aura jamais l’empathie et le charisme humain nécessaires à la profession. L’IA est notre alliée sur cette voie, pas notre remplaçante.


*Carlos Alberto Pereira est responsable de la stratégie chez Flowti.