in ,

Character.AI montre ses failles : vos discussions dérivent sur des « godes »

Imaginez discuter avec un chatbot et voir votre conversation basculer en un charabia multilingue étrange. « Gode », « cowboy », ou encore des termes inattendus viennent soudainement parasiter vos échanges.

Des utilisateurs de la plateforme Character.AI, soutenue par , ont signalé un bug troublant. Les conversations, initialement normales, basculent soudainement dans une salade verbale mêlé de termes inattendus comme « gode ». Ce bug, largement relayé sur Reddit, a pris de court les adeptes de cette immersive. « Est-ce que je l’ai cassé ? » s’interroge un utilisateur perplexe après avoir constaté ce phénomène étrange.

YouTube video

Les captures partagées sur le forum révèlent un texte incompréhensible mêlant anglais, arabe, allemand et d’autres . Des mots comme « Ohio », « mathematics » ou encore « cowboy » apparaissent aléatoirement, ponctués par le mot slave « obec » signifiant « village ». La récurrence du terme « gode » intrigue particulièrement, souvent inséré dans des phrases sans sens apparent. « Quoi ? » résume un utilisateur en légende de sa capture d’écran.

Un précédent en matière de sécurité

Ce n’est pas le premier incident pour Character.AI. En décembre dernier, la plateforme a déjà été pointée du doigt pour une faille de sécurité majeure. Les utilisateurs pouvaient consulter des conversations privées et des informations personnelles d’autres membres. Bien que des excuses aient été présentées, cet incident récent réactive les inquiétudes sur la fiabilité de la plateforme.

Les adeptes apprécient la qualité immersive de ses chatbots. Cependant, cette immersion est mise à mal par ces dérapages incompréhensibles. Un utilisateur témoigne : « Je ne veux pas recommencer une nouvelle discussion. J’avais tellement développé l’histoire. » Ces bugs perturbent l’expérience et réduisent l’efficacité de Character.AI, une plateforme censée être un compagnon virtuel fiable.

Character.AI Bug

Des données d’entraînement en question ?

Le comportement erratique des chatbots pourrait refléter un problème plus profond lié aux données d’entraînement. Character.AI réutilise les conversations des utilisateurs pour améliorer son IA. Si ces données contiennent des éléments inappropriés ou sensibles, elles pourraient expliquer ces anomalies. L’hypothèse inquiète, surtout si l’on considère que des mineurs utilisent également cette plateforme.

YouTube video

Face à cette situation, Character.AI reste silencieux. Malgré des tests effectués, aucun problème similaire n’a été constaté récemment, ce qui laisse penser que le bug a été corrigé. Cependant, le manque de communication ne rassure ni les utilisateurs ni les experts qui pointent la responsabilité de l’entreprise dans la gestion des données et la transparence.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *