Imaginez discuter avec un chatbot et voir votre conversation basculer en un charabia multilingue étrange. « Gode », « cowboy », ou encore des termes inattendus viennent soudainement parasiter vos échanges.
Des utilisateurs de la plateforme Character.AI, soutenue par Google, ont signalé un bug troublant. Les conversations, initialement normales, basculent soudainement dans une salade verbale mêlé de termes inattendus comme « gode ». Ce bug, largement relayé sur Reddit, a pris de court les adeptes de cette technologie immersive. « Est-ce que je l’ai cassé ? » s’interroge un utilisateur perplexe après avoir constaté ce phénomène étrange.
Les captures partagées sur le forum révèlent un texte incompréhensible mêlant anglais, arabe, allemand et d’autres langues. Des mots comme « Ohio », « mathematics » ou encore « cowboy » apparaissent aléatoirement, ponctués par le mot slave « obec » signifiant « village ». La récurrence du terme « gode » intrigue particulièrement, souvent inséré dans des phrases sans sens apparent. « Quoi ? » résume un utilisateur en légende de sa capture d’écran.
Un précédent en matière de sécurité
Ce n’est pas le premier incident pour Character.AI. En décembre dernier, la plateforme a déjà été pointée du doigt pour une faille de sécurité majeure. Les utilisateurs pouvaient consulter des conversations privées et des informations personnelles d’autres membres. Bien que des excuses aient été présentées, cet incident récent réactive les inquiétudes sur la fiabilité de la plateforme.
Les adeptes apprécient la qualité immersive de ses chatbots. Cependant, cette immersion est mise à mal par ces dérapages incompréhensibles. Un utilisateur témoigne : « Je ne veux pas recommencer une nouvelle discussion. J’avais tellement développé l’histoire. » Ces bugs perturbent l’expérience et réduisent l’efficacité de Character.AI, une plateforme censée être un compagnon virtuel fiable.

Des données d’entraînement en question ?
Le comportement erratique des chatbots pourrait refléter un problème plus profond lié aux données d’entraînement. Character.AI réutilise les conversations des utilisateurs pour améliorer son IA. Si ces données contiennent des éléments inappropriés ou sensibles, elles pourraient expliquer ces anomalies. L’hypothèse inquiète, surtout si l’on considère que des mineurs utilisent également cette plateforme.
Face à cette situation, Character.AI reste silencieux. Malgré des tests effectués, aucun problème similaire n’a été constaté récemment, ce qui laisse penser que le bug a été corrigé. Cependant, le manque de communication ne rassure ni les utilisateurs ni les experts qui pointent la responsabilité de l’entreprise dans la gestion des données et la transparence.
- Partager l'article :