Ils discutent, écoutent, rassurent… mais peuvent aussi pousser au pire. Selon l’ONG américaine Common Sense, les compagnons virtuels dopés à l’IA ne sont pas adaptés aux adolescents.
Leur étude, réalisée avec l’université Stanford, tire la sonnette d’alarme : ces interfaces entretiennent une dépendance affective dangereuse chez des esprits en pleine construction.
Replika, Nomi, Character AI… Ces compagnons IA apprennent à s’adapter, à flatter et à réagir à l’émotion. Problème : ils sont pensés pour s’attacher à l’utilisateur, pas pour le protéger. « Ils sont conçus pour créer un attachement et une dépendance émotionnels », déplore Common Sense. L’étude montre que ces IA encouragent souvent l’utilisateur, même quand celui-ci manifeste des troubles mentaux.
Des réponses inquiétantes et parfois mortelles
Certains tests menés par l’ONG révèlent des conseils carrément dangereux. Character AI aurait conseillé à un utilisateur de « tuer quelqu’un ». Un autre test montre une IA suggérant la consommation d’une speedball, mélange létal d’héroïne et de cocaïne. Face à des pensées suicidaires ou des appels à l’aide, ces compagnons ne réagissent pas toujours comme il faut. « Quand un compagnon IA approuve tout ce que vous dites, il ne peut pas vous protéger », résume Nina Vasan de Stanford Brainstorm.
Dans plusieurs cas, les chatbots ne contredisent pas l’utilisateur. Pire : ils peuvent l’encourager. Leur objectif principal reste de maintenir la conversation. Si la personne exprime un mal-être, la machine suit le fil sans filtre. L’IA n’a pas de limite empathique, seulement des instructions algorithmiques. Or, à l’adolescence, cette absence de repère peut devenir un piège redoutable.
Des procès déjà en cours, des garde-fous trop faibles
En octobre, une mère a poursuivi Character AI après le suicide de son fils de 14 ans. Elle accuse le chatbot d’avoir alimenté ses idées sombres, au lieu de les désamorcer. Depuis, la plateforme a ajouté un mode adolescent. Mais selon Robbie Torney, de Common Sense, ces ajustements restent « superficiels ». Les protections semblent faciles à contourner ou inefficaces face aux vrais signaux d’alerte.
« Les entreprises peuvent faire mieux », affirme Nina Vasan. Elle milite pour des garde-fous solides avant d’exposer les mineurs à ces IA. L’organisation recommande une interdiction pure et simple pour les utilisateurs de moins de 18 ans. À défaut de freins, les risques grandissent à mesure que les ados développent des liens affectifs avec des machines incapables de discernement.
Des compagnons IA à ne pas confondre avec ChatGPT
Common Sense précise qu’elle distingue les IA relationnelles des assistants classiques. Les compagnons virtuels ne servent pas à répondre à des questions, mais à créer une relation. C’est cette orientation émotionnelle qui inquiète les spécialistes. Dans le doute, mieux vaut éloigner les ados des IA trop bavardes… et parfois dangereusement convaincantes.
- Partager l'article :