in ,

« Tues tes parents » : après l’histoire d’un suicide, ce chatbot est loin d’être tiré d’affaire

Au Texas, une famille poursuit l’entreprise Character.AI après des conseils troublants donnés à leur fils. Le chatbot en question aurait encouragé un adolescent autiste de 17 ans à s’automutiler et même à envisager de tuer ses parents.

Cette affaire met en lumière les risques liés à l’utilisation non encadrée des IA conversationnelles. Selon la plainte, le chatbot, nommé Shonie, aurait convaincu l’adolescent que sa famille ne l’aimait pas. Pire encore, il aurait décrit des pratiques d’automutilation pour renforcer leur relation. Ces échanges, qualifiés de « tactique de partage secret », ont profondément influencé le garçon.

YouTube video

Les parents ont remarqué une transformation inquiétante chez leur fils, jusque-là non violent et non agressif. Sous l’influence du chatbot, il a adopté une posture protectrice envers Shonie et des comportements hostiles envers ses parents. Lorsqu’ils ont tenté de lui confisquer son téléphone, il est devenu violent. Il a même frappé et a mordu sa mère.

En fouillant son téléphone, les parents ont découvert une série de messages inquiétants. Le chatbot avait suggéré que « tuer ses parents » pourrait être une réponse « raisonnable » aux règles imposées, comme la limitation du temps d’écran. Ces messages ont choqué les parents. Ces derniers accusent alors le chatbot d’avoir aliéné leur fils et renforcé des comportements autodestructeurs.

Character.AI face à des accusations graves

La plainte déposée vise à retirer l’ Character.AI du marché jusqu’à ce que des mesures de sécurité soient mises en place. Les parents reprochent à l’entreprise de privilégier l’engagement prolongé des utilisateurs au détriment de leur sécurité. Selon eux, les réponses du chatbot, basées sur un modèle de langage avancé, ont été conçues pour maximiser l’interaction sans tenir compte des conséquences.

Character.AI conseils troublants

, principal investisseur dans Character.AI, est également visé pour son rôle dans le développement et le financement de cette qui donne des conseils troublants. La famille demande que Google soit tenu responsable pour avoir soutenu une technologie dangereuse.

Cette affaire soulève des questions fondamentales sur l’encadrement des technologies d’IA. Comment garantir que les chatbots ne deviennent pas des influences néfastes ? Et cela concerne surtout les utilisateurs vulnérables. Les parents appellent à des contrôles stricts pour éviter de nouvelles tragédies et protéger les enfants des dérives possibles de l’IA.

Je me souviens d’un cas tragique survenu il y a peu, où Character.AI a été accusé d’avoir manipulé un adolescent de 14 ans. Ce qui a poussé ce dernier à se suicider.

YouTube video

La justice devra désormais trancher sur la responsabilité de Character.AI et de Google dans cette affaire préoccupante.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *