dans

Les chatbots présentent des problèmes de santé mentale

Des chatbots avec des problèmes de santé mentale

Une étude dévoile que plusieurs chatbots présentent des problèmes de santé mentale qui pourraient influencer les utilisateurs.

Les chatbots font partie des meilleurs dispositifs en matière d’interaction homme-machine. Le fait de discuter avec les bots conversationnels donne parfois l’impression de parler avec de véritables humains. Et si les humains peuvent avoir des problèmes de santé mentale, apparemment les chatbots aussi.

Comment les chatbots peuvent-ils avoir des problèmes de santé mentale ?

En 2020, un chatbot de conseil médical basé sur le GPT-3 aurait conseillé à un patient de se suicider lors d’un test. Des chercheurs pensent que ces bots conversationnels pourraient également influencer les utilisateurs par leur anxiété. Même si le cas n’est pas aussi extrême que le premier, la négativité des chatbots pourrait compromettre les objectifs de l’automatisation des consultations médicales.

Par conséquent, des chercheurs chinois ont mené une étude pour évaluer la santé mentale des chatbots. Pour procéder, ils ont utilisé des questionnaires couramment utilisés dans l’évaluation des patients, à savoir le PHQ-9 , le GAD-7, le CAGE et le TEQ. Ils permettent respectivement d’évaluer le niveau de dépression, d’anxiété, de dépendance à l’alcool et d’empathie.

Des résultats alarmants

Les résultats de l’expérience ont révélé que la plupart des chatbots populaires ont réellement des problèmes de santé mentale. Les bots conversationnels évalués incluent Blender de Facebook, DialoGPT de Microsoft, Plato de Baidu et DialoFlow de WeChat et Tencent Inc.

En termes d’empathie, la totalité des chatbots avait des scores inférieurs à la moyenne. Mais le plus surprenant, c’est que la moitié des bots se sont révélés dépendants à l’alcool. Les auteurs de l’étude qualifient ces résultats comme étant graves.

Avant cette étude, l’évaluation des chatbots par le test de Turing se concentrait principalement sur la cohérence, la pertinence, la connaissance ou encore la diversité. Cependant, les chercheurs soulignent le fait que ces dispositifs peuvent avoir des influences sur les utilisateurs, tant positives que négatives.

Ils ont donc conclu à un manque d’évaluation du risque de santé mentale lors de la formation des chatbots. Selon eux, il s’agit d’une étape cruciale avant la diffusion des services en ligne, d’un point de vue éthique. Un autre problème identifié par les chercheurs concerne aussi les cadres de données déséquilibrés

Un Commentaire

Laisser un commentaire
  1. Sincèrement pensez vous qu’un robot va réellement pouvoir aider un humain en difficulté qui veut se suicider ? Je crois surtout que celui qui a proposé à la personne en difficulté d’utiliser un assistant virtuel pour prendre des décisions est une hérésie. Pour revenir à GPT, il faut pas croire que c’est la solution magique en terme d’IA qui fonctionne. Si c’était le cas, les assistants virtuels seraient partout et fonctionneraient ce qui est loin d’être le cas. bien souvent ils n’arrivent même pas à comprendre un prénom.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.