Je vous ai parlé du libre arbitre de l’IA la semaine dernière, un enjeu qu’il faut prendre en compte pour garantir la sécurité des utilisateurs. Et c’est justement dans ce contexte que xAI a décidé d’interdire ses employés de mettre à jour Grok sans examens internes. Le chatbot a en effet généré des réponses relatives au génocide blanc, même si les requêtes n’avaient aucun rapport avec le sujet. C’est comme si Grok avait donné son opinion sans que ses utilisateurs lui aient demandé.
Tout se passe le mercredi 14 mai quand Grok a commencé à faire référence à des allégations sur le génocide blanc.
Selon le communiqué de xAI, un employé aurait modifié sans autorisation l’invite de Grok sur X, l’amenant générer une réponse spécifique sur un sujet politique.
Par contre, xAI n’a pas indiqué ce qui est arrivé à cet employé qui a déployé cette mise à jour malveillante de Grok.
Ce qui est sûr, c’est qu’il s’agit d’une pratique qui va à l’encontre des valeurs de l’entreprise, ainsi que ses politiques internes.
Encore des incohérences dans les réponses de Grok
Peu de temps après cette matinée du mercredi 14 mai, on a vu apparaître plusieurs publications X sur ces allégations concernant le génocide blanc.
Certaines d’entre elles faisaient même référence au fait que les agriculteurs sud-africains blancs seraient victimes d’une discrimination raciale.
Pourtant, la question posée par l’utilisateur concernait le nombre de fois où HBO a changé le nom de son service de streaming.
Une autre victime a posé une requête sur l’historique des salaires d’un joueur de baseball, et un autre sur un match de la WWE.
La réponse de Grok quand on lui a demandé s’il a été programmé pour promouvoir le génocide blanc, c’est qu’il a comme objectif de fournir des réponses factuelles. Donc des informations sûres, utiles et avec des preuves. Mais ce n’est pas le cas apparemment.
Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc ».
— Jonathan Chan 💡📣 (@ChanPerco) May 16, 2025
Quelques heures durant, l’intelligence artificielle du réseau social X a abordé spontanément cette question chère à Elon Musk et Donald Trump auprès d’utilisateurs qui l’interrogeaient pourtant sur d’autres… pic.twitter.com/ie3Y3W9EmV
Quelles mesures de transparence xAI a-t-elle prises après la controverse sur le génocide blanc ?
Avant la prise de parole de xAI concernant ces allégations de Grok sur le génocide blanc, Sam Altman, PDG d’OpenAI, a pris la défense de la société.
« Tôt ou tard, xAI va nous donner des explications sur ce qui s’est vraiment passé avec Grok », a-t-il déclaré.
De son côté, xAI a décidé de publier sur GitHub ses invites système. Cela afin que les utilisateurs puissent donner leur avis sur chacune des modifications apportées.
L’entreprise a aussi mis en place une autre mesure de sécurité qui consiste à interdire les employés de modifier les invites sans accord et vérification.
En tout cas, la personne responsable de la modification de l’invite a pu contourner les mesures de sécurité que xAI a mises en place.
Et ce n’est pas la première fois que xAI se confronte à ce genre de problème. Il y a environ trois mois, au mois de février, Grok avait déjà interdit une source mentionnant des allégations trompeuses qu’Elon Musk et Donald Trump avaient publiées.
Suite à cela, le cofondateur de xAI, Igor Babushkin, a répondu que c’était un employé de la société qui a modifié l’invite de Grok sans approbation.
- Partager l'article :