Par Eduardo Cordioli
L’intelligence artificielle est passée d’une promesse futuriste à l’infrastructure invisible des soins de santé contemporains. Le défi est passé du technologique au cognitif : comprendre ce que signifie exercer l’intelligence humaine lorsque les machines apprennent également.
Pendant des années, nous avons confondu transformation numérique et informatisation. Nous remplaçons le papier par des écrans, créons des flux automatisés et célébrons le progrès. C’était nécessaire, oui, mais cela représentait aussi une prise de distance progressive par rapport à ce qui soutient les soins : la présence humaine. L’IA ouvre une autre étape, celle de l’autonomisation numérique. Empowering est un verbe ambigu : la même technologie qui multiplie les succès amplifie les erreurs. Le résultat dépend moins de l’algorithme que de la conscience de ceux qui le font fonctionner.
Envisagez le tri automatisé en cas d’urgence. Le système traite les signes vitaux, les antécédents cliniques et les plaintes en quelques secondes, en hiérarchisant les priorités. Bien encadré, il sauve des vies. Sans examen critique, il reproduit des biais : des études montrent comment les algorithmes sous-estiment les symptômes graves dans certains groupes démographiques, perpétuant ainsi les disparités dans l’accès aux soins. La frontière entre bénéfice et préjudice ne réside pas dans le code, mais dans l’attention de ceux qui interprètent ses résultats.
C’est là que la notion d’humain dans la boucle devient essentielle. Il ne s’agit pas seulement de contrôle, mais aussi d’architecture de responsabilité : maintenir l’humain dans le circuit décisionnel, garantir que l’interprétation et le jugement restent humains même lorsque l’exécution est automatique. Un article récent de Nature Medicine a montré que la fiabilité des systèmes d’IA dépend moins de la sophistication technique que de la qualité de l’interaction et de l’encadrement professionnel. Des chercheurs de l’Université de Pennsylvanie mettent en garde contre le risque inverse : celui d’une simple participation humaine formelle, dans laquelle le professionnel devient un cachet bureaucratique et perd progressivement son autonomie critique – un phénomène déjà appelé déqualification clinique.
Il existe des précédents instructifs. Lorsque les systèmes de pilotage automatique sont devenus trop sophistiqués, les pilotes ont perdu des compétences manuelles vitales – une réalité révélée lors d’accidents tels que le vol 447 d’Air France. Dans le domaine de la santé, le parallèle est inquiétant : les radiologues qui délèguent entièrement les lectures préliminaires peuvent perdre la précision diagnostique acquise au fil des années ; les infirmières qui font aveuglément confiance aux alertes automatisées ne remarquent pas de signes subtils de détérioration. L’automatisation ne peut pas signifier l’atrophie.
Éviter cette voie nécessite une nouvelle compétence : la culture numérique. Technique, mais aussi éthique. Il ne suffit pas d’avoir des experts à proximité ; vous devez en comprendre suffisamment pour délibérer clairement sur ce qu’il faut adopter et quoi déléguer. Une étude du Journal of Medical Internet Research a révélé que moins de 40 % des directeurs d’hôpitaux s’estiment capables d’interpréter les mesures de performance algorithmiques – un écart abyssal entre la prise de décision et la compréhension. La recherche sur Frontiers in Digital Health le confirme : La culture numérique reste l’un des principaux obstacles à l’intégration sûre de l’IA dans les environnements cliniques.
Développer cette compétence nécessite un investissement délibéré. Incluez dans les programmes de soins de santé non seulement l’utilisation d’outils, mais aussi la compréhension des principes fondamentaux : comment un modèle est formé, ce qui distingue l’exactitude de la précision, pourquoi les algorithmes fonctionnent bien dans les tests et échouent dans la réalité. Créer des espaces de formation continue où les professionnels peuvent remettre en question et tester les systèmes avant de les adopter. Développer des leaders capables de poser les bonnes questions : non pas « est-ce que ça marche ? », mais « pour qui ça marche ? dans quelles conditions ? avec quels risques cachés ? »
La culture numérique est avant tout une nouvelle façon de lire le monde. Reconnaissez que chaque algorithme est porteur d'une intention, que chaque donnée résulte d'un choix, que chaque automatisation traduit des valeurs. Diriger dans ce contexte signifie filtrer entre ce qui est possible et ce qui est admissible, entre efficacité et éthique, entre données brutes et sens humain.
Cette position nécessite du courage institutionnel. Refusez les solutions qui promettent des gains immédiats mais compromettent l’équité structurelle. Pratiquez la transparence sur les limites – admettez quand les systèmes se trompent, quand leurs recommandations doivent être ignorées, quand l’intuition clinique prévaut. Et cultiver des cultures organisationnelles où la remise en question de la machine n’est pas traitée comme une résistance au progrès, mais comme un exercice de responsabilité.
L’intelligence artificielle ne menace pas les humains ; elle le révèle. Cela nous oblige à réexaminer ce qui est irremplaçable : le discernement, l’empathie, la capacité à attribuer du sens. Les modèles apprennent des modèles, ils ne comprennent pas les conséquences. Ils calculent, ils ne décident pas. Dans cet intervalle se trouve ce qui nous différencie encore – et aussi l’opportunité.
Une IA bien intégrée ne remplace pas le clinicien ; il vous libère des tâches mécaniques pour que vous puissiez investir du temps dans ce que seuls les humains font : écouter des histoires de vie mêlées à la maladie, reconnaître une souffrance qui ne rentre pas dans les protocoles, prendre des décisions dans une incertitude irréductible. La question n’est pas de savoir si nous devons utiliser l’intelligence artificielle dans les soins de santé, mais comment le faire tout en préservant – et en développant – ce qui nous rend pleinement humains dans les soins.
L’avenir des soins de santé ne sera pas défini par la rapidité des algorithmes, mais par la lucidité de ceux qui les pilotent. Tenir les humains informés et cultiver la culture numérique n’est pas un choix technique. C’est un impératif civilisateur.
*Eduardo Cordioli est directeur technique d'obstétrique du Grupo Santa Joana.