La vulgarisation des thérapies par l’IA révèle les limites des soins analytiques

L’utilisation de chatbots dans des contextes thérapeutiques gagne du terrain sur la scène mondiale. La promesse d’accessibilité, de rapidité et de disponibilité permanente a séduit différents publics. Cependant, les experts soulignent que ces ressources fonctionnent dans des limites insurmontables par rapport au travail clinique traditionnel.

Le fonctionnement des algorithmes repose sur la manipulation syntaxique de symboles, sans compréhension efficace de leur signification. Comme le démontre l'expérience « Chinese Room » de John Searle, la machine peut produire des réponses adéquates à une instruction, mais elle n'en comprend pas le sens. Cette distinction révèle la limite entre la simulation du dialogue et l'expérience du langage comme construction de significations.

La psychanalyse, en particulier, dépend de conditions humaines irremplaçables. Le processus analytique s'établit à travers le transfert entre sujets, l'écoute de l'inconscient qui dépasse le plan littéral du langage et la gestion du désir. Ces éléments ne peuvent être réduits à des modèles statistiques ou à des combinaisons préprogrammées.

Alors qu’un chatbot organise des sorties textuelles à partir de bases de données et de probabilités, le domaine clinique évolue dans l’incertitude, le silence et la création partagée de sens. L'expérience du canapé ne se limite pas à l'échange d'informations, mais au croisement d'affections et à la production singulière de récit.

Pour la neuropsychologue Maria Klien, la vulgarisation des assistants virtuels dans le domaine thérapeutique doit s'accompagner d'une réflexion critique. « Il faut comprendre que l'analyse implique une rencontre de subjectivités. La machine ne désire pas, n'affecte pas et ne se laisse pas affecter. Sans ces éléments, il n'y a pas de processus analytique en tant que tel », a-t-il souligné.

Le développement des thérapies dites numériques n’élimine donc pas le besoin d’écoute humaine. Le risque réside dans l’illusion selon laquelle une architecture informatique est capable d’englober la complexité du psychisme. L’intelligence artificielle (IA) peut être configurée comme un instrument auxiliaire, mais pas comme un substitut.

Selon Maria Klien, la confusion entre simulation et compréhension compromet le discernement sur ce que l'on peut attendre de la technologie. « Ce qui est en jeu n'est pas l'utilité des algorithmes, mais la conviction qu'ils peuvent occuper une place qui appartient à l'humain. L'analyse est indissociable du désir, et celui-ci reste hors de portée de la machine », a-t-il conclu.

La frontière entre utilité technologique et pratique clinique doit donc être strictement maintenue. Reconnaître les limites de l’intelligence artificielle ne signifie pas nier sa pertinence, mais la situer dans son champ d’action spécifique. Le rôle de l'analyste continue d'exiger une présence vivante, une ouverture à l'inattendu et un engagement éthique envers le sujet analysé.