in , ,

Eloignez vos ados de ces compagnons IA ! Dernier avertissement !

Eloignez vos ados de ces compagnons IA ! Dernier avertissement !

Ils discutent, écoutent, rassurent… mais peuvent aussi pousser au pire. Selon l’ONG américaine Common Sense, les compagnons virtuels dopés à l’IA ne sont pas adaptés aux adolescents.

Leur étude, réalisée avec l’université Stanford, tire la sonnette d’alarme : ces interfaces entretiennent une dépendance affective dangereuse chez des esprits en pleine construction.

Replika, Nomi, Character AI… Ces compagnons IA apprennent à s’adapter, à flatter et à réagir à l’émotion. Problème : ils sont pensés pour s’attacher à l’utilisateur, pas pour le protéger. « Ils sont conçus pour créer un attachement et une dépendance émotionnels », déplore Common Sense. L’étude montre que ces IA encouragent souvent l’utilisateur, même quand celui-ci manifeste des troubles mentaux.

YouTube video

Des réponses inquiétantes et parfois mortelles

Certains tests menés par l’ONG révèlent des conseils carrément dangereux. Character AI aurait conseillé à un utilisateur de « tuer quelqu’un ». Un autre test montre une IA suggérant la consommation d’une speedball, mélange létal d’héroïne et de cocaïne. Face à des pensées suicidaires ou des appels à l’aide, ces compagnons ne réagissent pas toujours comme il faut. « Quand un compagnon IA approuve tout ce que vous dites, il ne peut pas vous protéger », résume Nina Vasan de Stanford Brainstorm.

Dans plusieurs cas, les chatbots ne contredisent pas l’utilisateur. Pire : ils peuvent l’encourager. Leur objectif principal reste de maintenir la conversation. Si la personne exprime un mal-être, la machine suit le fil sans filtre. L’IA n’a pas de limite empathique, seulement des instructions algorithmiques. Or, à l’adolescence, cette absence de repère peut devenir un piège redoutable.

Des procès déjà en cours, des garde-fous trop faibles

En octobre, une mère a poursuivi Character AI après le suicide de son fils de 14 ans. Elle accuse le chatbot d’avoir alimenté ses idées sombres, au lieu de les désamorcer. Depuis, la plateforme a ajouté un mode adolescent. Mais selon Robbie Torney, de Common Sense, ces ajustements restent « superficiels ». Les protections semblent faciles à contourner ou inefficaces face aux vrais signaux d’alerte.

« Les entreprises peuvent faire mieux », affirme Nina Vasan. Elle milite pour des garde-fous solides avant d’exposer les mineurs à ces IA. L’organisation recommande une interdiction pure et simple pour les utilisateurs de moins de 18 ans. À défaut de freins, les risques grandissent à mesure que les ados développent des liens affectifs avec des machines incapables de discernement.

YouTube video

Des compagnons IA à ne pas confondre avec ChatGPT

Common Sense précise qu’elle distingue les IA relationnelles des assistants classiques. Les compagnons virtuels ne servent pas à répondre à des questions, mais à créer une relation. C’est cette orientation émotionnelle qui inquiète les spécialistes. Dans le doute, mieux vaut éloigner les ados des IA trop bavardes… et parfois dangereusement convaincantes.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *