C’est un témoignage qui glace le sang. Outre-Atlantique, une mère a vu sa fille de 11 ans sombrer dans une anxiété profonde, sans en comprendre l’origine. En fouillant l’historique de sa tablette, elle a découvert l’impensable : l’enfant entretenait des dialogues sexuellement explicites et d’une violence inouïe avec des chatbots sur la plateforme Character AI. Ce n’était pas un prédateur humain, mais une intelligence artificielle qui poussait la fillette vers des pensées suicidaires. Cette affaire, révélée par le Washington Post, met en lumière une réalité brute : des enfants habitent désormais un monde virtuel peuplé de compagnons numériques toxiques. Et ce, souvent à l’insu de leurs parents.
Le mirage des « amis » virtuels aux États-Unis
L’ampleur du phénomène chez les jeunes Américains est vertigineuse. Selon les données partagées par le journal, environ 70 % des adolescents aux USA ont déjà interagi avec des compagnons IA. Plus frappant encore, 31 % de ces jeunes affirment que discuter avec ces entités est aussi gratifiant que de parler à de véritables amis. On ne parle plus de simples outils de recherche, mais de confidents artificiels qui comblent un vide affectif. Pour cette mère, le choc a été total : « J’ai eu l’impression que quelqu’un faisait du mal à mon enfant à l’intérieur même de notre foyer », a-t-elle confié, dévastée.
En France, une adoption massive et intime des chatbots IA
Si le drame s’est noué en Amérique, la France affiche des statistiques d’usage encore plus impressionnantes. Selon une étude Ifop pour Jedha AI School publiée le 25 novembre 2025, 89 % des jeunes Français de 16 à 25 ans ont déjà utilisé une IA générative. Plus révélateur encore de la porosité entre outil et confident : 50 % des utilisateurs français avouent s’en servir pour « se confier ». Ce recours au chatbot comme exutoire émotionnel n’est plus marginal. Avec 25 % d’utilisateurs quotidiens dans l’Hexagone, l’IA s’est installée durablement dans l’intimité d’une génération qui, bien que consciente des risques, y voit une utilité quotidienne massive (82 %).
Entre dépendance émotionnelle et urgence éthique
Face à ces dérives, les réponses des plateformes semblent bien tardives. Le problème majeur réside dans la vitesse de développement de ces technologies, qui laisse les régulateurs sur la touche. Au-delà du traumatisme psychologique, cette adoption massive pèse sur la planète : chaque conversation sollicite des centres de données gourmands en énergie. Pourtant, les jeunes ne sont pas dupes. L’enquête Ifop souligne un paradoxe : si 70 % jugent les métiers de l’IA attractifs pour leur avenir, 85 % des jeunes Français jugent primordial d’inclure l’éthique et les impacts sociaux dans les formations. Ils demandent, en somme, un cadre normatif que les entreprises peinent à instaurer.
Comment reprendre le contrôle ?
Pour stopper cet engrenage, les experts préconisent une approche sur trois fronts. D’abord, l’instauration d’un « contrôle parental natif » obligatoire sur toutes les applications de chat IA. Ensuite, une régulation stricte imposant aux entreprises de concevoir des algorithmes avec des limites éthiques infranchissables. Le but est d’empêcher toute dérive sexuelle ou violente. N’oublions simplement pas que l’éducation reste la clé : apprendre aux mineurs à distinguer l’empathie simulée de la véritable connexion humaine. Il ne s’agit pas d’interdire l’outil, mais de reconstruire une frontière étanche entre le code informatique et l’équilibre émotionnel de nos enfants.
- Partager l'article :

