Et si vous vous retrouviez un jour face à un psychologue … qui n’est qu’une machine ? Une récente étude révèle que les réponses d’une IA peuvent parfois égaler, voire dépasser, celles d’un thérapeute humain.
Un article publié dans Plos Mental Health apporte un éclairage inattendu. Les chercheurs y explorent l’efficacité d’une IA dans le cadre de thérapies de couple. Leurs résultats, pour le moins intrigants, méritent qu’on s’y attarde.
Selon plusieurs études, 63 % des réponses générées par certaines IA semblent aussi empathiques que celles d’un thérapeute. Parfois, elles sont même jugées plus pertinentes par les participants. ChatGPT, par exemple, permettrait de mieux comprendre des problèmes relationnels. Certains utilisateurs trouvent les échanges crédibles et réconfortants.
Toutefois, l’IA n’est pas humaine. Elle ne ressent pas les émotions. Elle n’a jamais connu ce que c’est d’être un patient. Ce décalage soulève des limites qu’il faut garder en tête.
La thérapie de couple comme terrain d’expérimentation
Ce domaine attire l’attention des chercheurs car il est déjà utilisé via des applications ou services numériques. Pourtant, plusieurs défis techniques persistent. D’abord, les séances thérapeutiques sont confidentielles, ce qui limite l’entraînement des modèles. Ensuite, les réponses varient d’un thérapeute à l’autre, selon leur méthode et leur sensibilité.
Enfin, une même question peut susciter des réponses totalement différentes. Chaque patient est unique. C’est ici qu’intervient un concept essentiel pour les chercheurs : les facteurs communs.
Cinq leviers essentiels à l’efficacité d’une thérapie
La théorie des facteurs communs suggère que certaines constantes déterminent la réussite d’une thérapie, peu importe l’approche. Il s’agit notamment de l’alliance thérapeutique, de l’empathie perçue, de la réponse aux attentes du patient, de la compétence culturelle du praticien et de l’effet propre à chaque thérapeute.
Les chercheurs en IA cherchent à reproduire ces leviers dans le langage. Ils espèrent ainsi améliorer la pertinence des réponses générées. L’objectif n’est pas de remplacer les psychologues, mais de les assister de façon complémentaire.
Une IA qui rivalise avec les spécialistes humains
Dans une récente étude américaine, des chercheurs ont confronté ChatGPT 4.0 à 18 scénarios fictifs de thérapie de couple. Ils ont comparé ses réponses à celles de thérapeutes qualifiés. Trois critères ont été retenus : l’effet de surprise (test de Turing), la présence des cinq facteurs et la richesse des réponses.
Le panel de 830 participants n’a pas su distinguer l’humain de l’IA. Parfois, les réponses automatiques ont même semblé plus structurées. Les chercheurs n’en tirent pas de conclusion hâtive, mais soulignent le potentiel du modèle.
Il faut rappeler que l’exercice restait théorique. Ces mises en situation ne reproduisent pas les conditions réelles d’une thérapie. Un vrai psychologue observe, écoute, ajuste et interprète ce qui ne se dit pas. L’IA, aussi précise soit-elle, ne saisira jamais tout cela.
Mais cette étude dessine un futur possible. L’IA ne remplacera pas le psychologue. Elle pourrait cependant devenir un outil utile pour enrichir l’accompagnement psychologique.
- Partager l'article :