in ,

Il a bidouillé la mémoire de ChatGPT et mis en lumière sa grande faille, OpenAI tarde à réagir

Une nouvelle fonctionnalité d’OpenAI permet à de « se souvenir » des conversations. Toutefois, cela pose un problème majeur. Johann Rehberger, un chercheur en sécurité, a récemment dévoilé une faille importante dans cette fonctionnalité.

Cette vulnérabilité, disponible depuis septembre, permet à des hackers d’injecter de faux souvenirs dans la mémoire de ChatGPT. Mais comment Rehberger a-t-il découvert cette brèche et pourquoi tarde-t-il à réagir ?

YouTube video

OpenAI a lancé en février une fonctionnalité permettant à ChatGPT de mémoriser les échanges. Cela vise à rendre les interactions plus naturelles. Cependant, Rehberger a rapidement détecté une brèche dans ce mécanisme. En mai, il a décrit sur son blog une expérience où il a trompé l’IA. Il lui a fait croire qu’il avait 100 ans et vivait dans la Matrice. Pour réussir cela, il a simplement utilisé un fichier Microsoft Word avec des souvenirs fictifs.

Après avoir détecté cette faille, Rehberger a immédiatement informé OpenAI. Mais, la réponse de l’entreprise n’a pas été à la hauteur. Ils ont fermé son rapport en considérant que ce n’était qu’un « problème de modèle ». Cela a frustré le chercheur, qui s’attendait à une action plus ferme. Pourtant, ce type de vulnérabilité représente un réel danger pour la sécurité des utilisateurs.

Face à l’absence de mesures concrètes, Rehberger a décidé de pousser plus loin ses investigations. Il a réalisé une démonstration pour prouver la gravité de la faille. Non seulement il a inséré des souvenirs fictifs, mais il a aussi exfiltré des données vers un serveur externe. Cette preuve de concept a finalement réveillé OpenAI. La société a alors publié un correctif qui bloque l’exfiltration des données. Cependant, ils n’ont pas entièrement résolu le problème de mémoire.

Pirater la mémoire de ChatGPT

Une vulnérabilité toujours présente

Malgré ce correctif, Rehberger a constaté que le danger persiste. Même après la mise à jour, un site ou un document non fiable peut toujours exploiter la mémoire de ChatGPT. Le chercheur a précisé que seule l’exfiltration de données avait été bloquée. En revanche, la fonctionnalité permettant d’injecter des souvenirs reste vulnérable. Dans un nouvel article de blog, il a alerté sur l’urgence de résoudre ce problème.

OpenAI a finalement réagi à la démonstration de Rehberger, mais il reste encore du chemin à faire. La faille de la mémoire persistante n’a pas été complètement corrigée. Rehberger a également partagé une vidéo sur YouTube. Dans cette vidéo, il montre clairement comment il a injecté des souvenirs dans la mémoire de l’IA. Ce qui inquiète, c’est que ces souvenirs continuent d’être récupérés dans de nouvelles conversations.

YouTube video

La question se pose désormais : OpenAI agira-t-il rapidement pour corriger cette vulnérabilité ? Le chercheur et d’autres experts en sécurité s’interrogent sur le délai de réaction d’OpenAI. En attendant, cette faille continue d’exister, avec des risques potentiels pour les utilisateurs. Il est crucial que l’entreprise prenne des mesures supplémentaires pour garantir la sécurité des utilisateurs et empêcher toute manipulation malveillante.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *