in

Un psy IA ? Voici pourquoi ChatGPT ne remplacera jamais un thérapeute

Robot (chatgpt) consulte une patiente en tant que psy

Il y a des domaines dans lesquels les chatbots IA comme ChatGPT performent, comme le codage. Et il y en a d’autres qui ne sont pas du tout leur domaine d’expertise. Mais cela n’empêche pas les utilisateurs de se tourner vers ChatGPT pour la moindre de leurs questions. Comme le cas de certains utilisateurs qui osent demander à l’outil de devenir leur thérapeute. Pourtant, c’est une très mauvaise idée et il ne faut surtout pas faire de ChatGPT votre psy.

Bien sûr, ChatGPT peut fournir des réflexions à n’importe laquelle de nos questions. Mais sa réplique n’est pas toujours vraie.

Le vrai problème avec ChatGPT, c’est qu’il pourrait en pas comprendre le contexte pour générer des réponses appropriées quand on parle de santé mentale.

YouTube video

La nuance : un concept encore hors de portée pour l’IA

Les ordinateurs, en tant que programme binaire, ne connaissent que deux chiffres : le 1 et le 0. Ce qui veut dire que généralement, ils ne peuvent répondre que par oui ou par non.

Mais il y a un élément crucial de la psychologie que ces systèmes ne pourraient jamais comprendre : la nuance.

Pour Laura Brunskill, thérapeute chez Inner Works Therapy, les chatbots comme ChatGPT ne peuvent pas forcément saisir cette nuance.

Par ailleurs, ce type d’intelligence n’a pas cette capacité humaine de combler les manques d’informations avec plus de précision.

« Les réponses que génère ChatGPT en tant que psy ne constitueront jamais une thérapie. Par contre, on peut les considérer comme un soutien thérapeutique », a-t-elle ajouté.

ChatGPT ne pourra jamais reproduire certains traitements, dont l’EMDR

Pour Laura Brunskill, une chose est sûre : ChatGPT, malgré le soutien qu’il procure, ne peut pas reproduire certains traitements thérapeutiques.

À savoir l’EMDR ou la désensibilisation et retraitement par mouvements oculaires. Cette technique consiste à repenser à un évènement traumatique en déplaçant les yeux du ou de la patient(e) d’avant en arrière.

Brunskill ajoute que le travail d’un psy, le sien en tout cas, consiste également à évaluer la sécurité de ses patients en tenant compte de ses mouvements oculaires, de son rythme respiratoire, ainsi que de sa transpiration.

Or, aucun chatbot, ni ChatGPT, ni Gemini ni Claude ne dispose de cette capacité. Mais cela ne veut pas dire que l’IA est inutile en matière de thérapie.

Elle peut tout de même constituer un outil qui permet de jouer à des jeux de rôle ou à des scénarios et de clarifier certaines informations.

Il vaut mieux en pas partager vos données médicales avec ChatGPT

Au sein de l’université Western Ontario, les chercheurs se préoccupent de la capacité de ChatGPT à donner des conseils en matière de santé mentale.

C’est du moins le cas de Luke Stark, professeur adjoint à la Faculté des études de l’information et des médias, et qui étudie les impacts sociaux de l’intelligence artificielle.

YouTube video

Selon Stark, l’IA peut fournir des réponses précises et utiles pour le patient. Mais pour ce faire, il faudra lui fournir des informations confidentielles.

Chose à ne jamais faire quand on utilise un chatbot. Puisque dans certains pays, les données médicales sont soumises à des règles de confidentialités très strictes.

Les réglementations en vigueur imposent donc des restrictions particulières sur la collecte, le stockage et l’utilisation de ces données pour protéger la vie privée des patients. Or, n’étant pas considéré comme un dispositif médical, ChatGPT échappe à ces restrictions.

C’est pourquoi la meilleure décision à prendre, c’est de ne pas remplacer son psy par ChatGPT.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *