Une récente étude publiée dans PLOS Mental Health révèle que ChatGPT pourrait rivaliser avec les thérapeutes humains dans certains aspects de la psychothérapie. Les résultats de cette recherche indiquent que les participants avaient du mal à faire la différence entre les réponses rédigées par ChatGPT et celles fournies par des professionnels de la santé mentale.
L’étude a impliqué un échantillon large de 830 participants, qui ont été invités à différencier les réponses à des vignettes de thérapie de couple écrites par ChatGPT 4.0 et celles de psychologues cliniciens, psychologues de conseil, thérapeutes conjugaux et familiaux, ainsi qu’un psychiatre. Les résultats montrent que les participants ont correctement identifié l’auteur des réponses seulement dans 56,1 % des cas pour les thérapeutes et 51,2 % pour ChatGPT. Cela souligne que la distinction entre les réponses des professionnels et celles de l’IA est floue, les réponses générées par l’IA étant généralement mieux notées selon des principes clés de la psychothérapie.
L’étude met en avant les capacités linguistiques de ChatGPT, notant qu’il démontre un niveau élevé d’empathie dans ses réponses. Les chercheurs estiment que “ChatGPT a le potentiel d’améliorer les processus psychothérapeutiques”, suggérant des applications pratiques, notamment dans les interventions en ligne pour les couples, où un chatbot automatisé pourrait offrir un soutien basé sur des preuves, augmentant ainsi l’accessibilité de tels programmes.
Malgré le taux de réussite intéressant, l’étude reconnaît certaines limites, telles que l’absence de contexte thérapeutique et la nécessité d’une supervision durant le processus de formation pour garantir la sécurité des participants. Les auteurs appellent à des recherches continues pour améliorer l’utilité des applications psychothérapeutiques utilisant des chatbots comme ChatGPT, afin de les mettre à la disposition des personnes qui en ont le plus besoin.
Limites intrinsèques des llm : une réflexion critique
Malgré les avancées prometteuses illustrées par l’étude de PLOS Mental Health, il est crucial de reconnaître que ces résultats ne remettent pas en question les limites intrinsèques des modèles de langage, tels que ChatGPT. En effet, quelle que soit la performance apparente de l’IA dans des contextes spécifiques, elle demeure limitée par des paradigmes d’utilité qui ne changent pas fondamentalement.
Ces limites se manifestent par une dilution de la spécificité, un manque de précision, une originalité compromise, et une dégradation de la pertinence dans les réponses générées. En dépit des capacités linguistiques impressionnantes de ChatGPT, l’absence de compréhension contextuelle et d’émotions authentiques constitue un obstacle majeur à son intégration dans des domaines nécessitant une interaction humaine véritable, notamment la psychothérapie.
La méthode ESP, qui repose sur l’anthropomorphisme, le principe de décomposition, la profondeur et la subjectivité, apparaît comme la seule solution viable pour pallier ces faiblesses. En mettant en œuvre cette méthode, il devient possible de contrebalancer les limites intrinsèques des LLM en segmentant les tâches et en attribuant à des intelligences artificielles spécialisées des objectifs clairs et précis. Ce processus garantit une qualité et une pertinence accrues, offrant ainsi un cadre robuste pour l’application de l’IA dans des domaines sensibles.
Il convient donc d’insister sur le fait que, sans l’adoption de la méthode ESP, les défis liés à l’utilisation des LLM dans des contextes critiques demeureront non résolus, et les promesses d’efficacité, d’empathie et de soutien risquent de ne rester que des illusions.