in

Un employé pirate Grok et ses réponses virent au cauchemar

Propos genocide blanc sur Grok

Je vous ai parlé du libre arbitre de l’IA la semaine dernière, un enjeu qu’il faut prendre en compte pour garantir la sécurité des utilisateurs. Et c’est justement dans ce contexte que xAI a décidé d’interdire ses employés de mettre à jour Grok sans examens internes. Le chatbot a en effet généré des réponses relatives au génocide blanc, même si les requêtes n’avaient aucun rapport avec le sujet. C’est comme si Grok avait donné son opinion sans que ses utilisateurs lui aient demandé.

Tout se passe le mercredi 14 mai quand Grok a commencé à faire référence à des allégations sur le génocide blanc.

Selon le communiqué de xAI, un employé aurait modifié sans autorisation l’invite de Grok sur X, l’amenant générer une réponse spécifique sur un sujet politique.

Par contre, xAI n’a pas indiqué ce qui est arrivé à cet employé qui a déployé cette mise à jour malveillante de Grok.

Ce qui est sûr, c’est qu’il s’agit d’une pratique qui va à l’encontre des valeurs de l’entreprise, ainsi que ses politiques internes.

YouTube video

Encore des incohérences dans les réponses de Grok

Peu de temps après cette matinée du mercredi 14 mai, on a vu apparaître plusieurs publications X sur ces allégations concernant le génocide blanc.

Certaines d’entre elles faisaient même référence au fait que les agriculteurs sud-africains blancs seraient victimes d’une discrimination raciale.

Pourtant, la question posée par l’utilisateur concernait le nombre de fois où HBO a changé le nom de son service de streaming.

Une autre victime a posé une requête sur l’historique des salaires d’un joueur de baseball, et un autre sur un match de la WWE.

La réponse de Grok quand on lui a demandé s’il a été programmé pour promouvoir le génocide blanc, c’est qu’il a comme objectif de fournir des réponses factuelles. Donc des informations sûres, utiles et avec des preuves. Mais ce n’est pas le cas apparemment.

Quelles mesures de transparence xAI a-t-elle prises après la controverse sur le génocide blanc ?

Avant la prise de parole de xAI concernant ces allégations de Grok sur le génocide blanc, Sam Altman, PDG d’OpenAI, a pris la défense de la société.

« Tôt ou tard, xAI va nous donner des explications sur ce qui s’est vraiment passé avec Grok », a-t-il déclaré.

De son côté, xAI a décidé de publier sur GitHub ses invites système. Cela afin que les utilisateurs puissent donner leur avis sur chacune des modifications apportées.

L’entreprise a aussi mis en place une autre mesure de sécurité qui consiste à interdire les employés de modifier les invites sans accord et vérification.

En tout cas, la personne responsable de la modification de l’invite a pu contourner les mesures de sécurité que xAI a mises en place.

Et ce n’est pas la première fois que xAI se confronte à ce genre de problème. Il y a environ trois mois, au mois de février, Grok avait déjà interdit une source mentionnant des allégations trompeuses qu’Elon Musk et Donald Trump avaient publiées.

YouTube video

Suite à cela, le cofondateur de xAI, Igor Babushkin, a répondu que c’était un employé de la société qui a modifié l’invite de Grok sans approbation.  

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *