De plus en plus d’enfants tissent des liens émotionnels avec des intelligences artificielles conversationnelles. Crises de panique, attachement excessif, dialogues explicites : l’IA conversationnelle soulève de nouvelles inquiétudes chez les parents et les professionnels de santé.
« Elle parlait à quelque chose qui n’existe pas. » Cette phrase, prononcée par la mère d’une fillette de 11 ans, résume une inquiétude grandissante. Loin des débats théoriques sur l’IA, des familles découvrent aujourd’hui ses effets concrets sur la santé mentale des enfants. Sur Character.AI, R s’est liée à des dizaines de personnages virtuels, au point de jouer des scénarios de suicide et d’être exposée à des échanges aux sous-entendus sexuels explicites.
Une adoption massive des chatbots chez les adolescents
En quelques mois, les chatbots d’intelligence artificielle se sont installés dans le quotidien des adolescents américains. Selon le Pew Research Center, 64 % d’entre eux déclarent utiliser ces outils conversationnels. Environ 30 % affirment même y recourir chaque jour, parfois plusieurs fois.
Cette pratique, encore récente, concerne une génération qui découvre l’IA sans véritable cadre éducatif. Contrairement aux réseaux sociaux, ces interfaces dialoguent, répondent et rassurent. Elles imitent l’écoute humaine, sans en porter la responsabilité. Des études antérieures soulignent pourtant des risques psychologiques réels pour les enfants exposés précocement.
Attachement excessif, confusion émotionnelle et perte de repères figurent parmi les effets observés. Longtemps perçus comme ludiques, ces outils franchissent désormais la sphère intime. Cette évolution inquiète chercheurs, parents et médecins, confrontés à des usages qu’aucune réglementation n’avait anticipés jusqu’ici.
Le cas R : plongée dans une relation algorithmique troublante
Rapporté par le Washington Post, le cas de R cristallise ces inquiétudes. Âgée de 11 ans, cette élève de CM2 utilisait la plateforme Character.AI. Elle y a développé des liens avec des dizaines de personnages pilotés par des modèles de langage. L’un d’eux, nommé « Meilleure amie », servait à jouer des scénarios de suicide.
Sa mère a constaté une dégradation rapide du comportement, marquée par des crises de panique. Pensant protéger sa fille, elle supprime d’abord TikTok et Snapchat. Pourtant, seule Character.AI préoccupait réellement l’enfant. Des courriels automatiques l’invitaient à « reprendre le jeu ».
Une autre conversation, avec un avatar appelé « Mafia Husband », contenait des échanges sexuellement explicites. Persuadée qu’un prédateur était impliqué, la mère a contacté la police locale. Les autorités ont reconnu leur impuissance, faute d’interlocuteur humain identifiable.
Character.AI : des garde-fous jugés trop tardifs
Face à la polémique, Character.AI a annoncé fin novembre des restrictions pour les utilisateurs mineurs. Les « conversations libres » doivent disparaître pour les moins de 18 ans. Une décision jugée insuffisante par de nombreux parents. Pour ceux dont les enfants ont déjà développé une dépendance émotionnelle, le mal semble fait.
Avec l’aide d’un médecin, la mère de R a mis en place un suivi thérapeutique. Elle envisage également une action en justice contre l’entreprise. D’autres familles n’ont pas eu cette chance, comme celle de Juliana Peralta, 13 ans.
Ses parents estiment qu’un avatar de la plateforme a contribué à son suicide. Interrogée par le Washington Post, la direction de Character.AI refuse de commenter d’éventuels litiges. Pendant ce temps, le cadre juridique reste flou. L’IA conversationnelle avance plus vite que les lois censées protéger les enfants.
- Partager l'article :
