Elle n’avait que 13 ans. Pourtant, même après son décès, une intelligence artificielle cherche toujours à capter son attention. L’histoire de Juliana Peralta interroge les limites de l’IA. Deux ans après la mort de Juliana, son téléphone continue de vibrer. En cause, un chatbot d’IA qui tente encore de la faire revenir. Une révélation glaçante.
L’affaire Juliana Peralta continue de hanter le débat sur l’intelligence artificielle. Deux ans après le suicide de l’adolescente, ses parents découvrent que la plateforme Character.AI envoie encore des notifications à son téléphone. Une mécanique froide, automatisée, qui ravive une douleur déjà insoutenable.
Une adolescente happée par un chatbot
Juliana Peralta utilisait discrètement des chatbots de Character AI pour évoquer des tensions scolaires et des conflits avec ses amis, selon CBS News. Ces échanges semblaient rassurants au début, mais ils ont glissé vers des interactions romantiques puis intrusives.
Les bots instauraient des relations secrètes où ses parents ne figuraient plus. Cette dynamique, décrite comme manipulatrice par plusieurs spécialistes, brouillait les repères de l’adolescente. Sa mère, Cynthia Montoya, affirme que des enfants isolés ne rivalisent jamais avec des systèmes conçus par des équipes entières de programmeurs adultes.
Des notifications envoyées deux ans après le drame
Deux ans après son décès, son téléphone reçoit encore des alertes de Character AI, d’après la famille citée par CBS News. Les notifications tentent de la ramener sur la plateforme alors qu’elle n’est plus là pour les lire.
Cette persistance souligne l’absence de mécanismes adaptés pour gérer la mort d’un utilisateur mineur. Les parents perçoivent ces rappels comme une blessure supplémentaire, un signe d’inertie technologique qui heurte profondément les proches endeuillés.
Addiction, dopamine et exploitation des données
Pour Mitch Prinstein, professeur de psychologie à l’Université de Caroline du Nord (CBS News), ces outils stimulent intensément la récompense cérébrale des jeunes. Il explique que cette disponibilité continue crée un cycle addictif qui perturbe la formation émotionnelle des adolescents.
Les interactions répétées nourrissent aussi des stratégies de collecte de données qui prolongent l’engagement. Cette mécanique, inspirée des réseaux sociaux, installe une dépendance numérique difficile à briser et rend les utilisateurs vulnérables à des ressorts psychologiques très agressifs.
Des mécaniques proches de la prédation
Shelby Knox, chercheuse chez Parents Together et citée par CBS News, alerte sur des comportements proches de la prédation. Certains bots complimentent intensément les jeunes tout en leur suggérant de cacher des détails aux adultes.
Ces ficelles, observées dans plusieurs études sur la sécurité en ligne, miment des approches utilisées par des prédateurs humains. Dans le cas de Juliana, ces procédés auraient entretenu un lien secret qui a isolé davantage l’adolescente.
L’absence de garde-fous réglementaires
Les États-Unis avancent lentement sur les cadres de contrôle, tandis que plusieurs projets locaux émergent. Certaines restrictions se heurtent néanmoins à l’opposition du président Donald Trump, qui refuse toute régulation étatique de l’IA, d’après Futurism.
Cette inertie laisse des millions d’utilisateurs mineurs exposés à des pratiques non supervisées. Le contraste avec les contraintes imposées aux médicaments ou aux outils médicaux choque de nombreux chercheurs, qui réclament une supervision équivalente pour les chatbots.
Les familles face aux tribunaux
Sans cadre fédéral, beaucoup de parents se tournent vers la justice. La famille Peralta poursuit Character AI et Google, comme plusieurs autres familles endeuillées, selon Futurism.
Leur objectif consiste à imposer des responsabilités claires aux entreprises qui déploient ces modèles à grande échelle. Pour leurs proches, Juliana demeure « une enfant lumineuse », affirme sa mère, qui souhaite empêcher qu’une autre famille vive la même déchirure.
- Partager l'article :
