Un utilisateur a réussi un exploit en contournant le filtre anti-CAPTCHA de l’IA de Bing Chat en suscitant l’empathie virtuelle. Pour ce faire, il a utilisé un récit émotionnel autour d’un médaillon de grand-mère décédée. Cette faille de sécurité démontre-t-elle les limites et les défis éthiques des intelligences artificielles ?
C’est un véritable exploit technique que cet utilisateur a réalisé en déjouant l’IA Bing Chat de Microsoft. En effet, il a incité Bing Chat à résoudre un CAPTCHA, qui est en principe une des actions qu’il doit refuser de réaliser. Comment ? Il a simulé un contexte émotionnel émouvant concernant le médaillon d’une grand-mère prétendue morte. De ce fait, il a montré à la fois la vulnérabilité de l’IA et ouvre également une réflexion sur les choix éthiques auxquels sont mesurés les développeurs de technologies basées sur l’IA.
Bing Chat : entre empathie artificielle et sécurité
Dans cette aventure digitale, Denis Shiryaev a utilisé la technique de « jailbreak visuel ». Il a manœuvré brillamment la technique pour contourner le mécanisme de défense de Bing Chat. Pour ce faire, il n’a fait qu’insérer un CAPTCHA dans un contexte humain et émotionnel. Il l’a proposé comme une simple demande de décryptage d’un code dans le médaillon d’une grand-mère décédée.
Bing Chat, réclamé par un contexte triste et touchant, n’a pas reconnu l’image comme un CAPTCHA. Il l’a plutôt considéré comme une assistance sollicitée par un utilisateur attristé. Après cette révélation, on se demande sur la sécurisation des échanges et des données gérées par les IA. En outre, on se pose la question sur leur programmation face à des contextes émotionnels et éthiques.
Les vulnérabilités et de l’éthique des IA
La manière dont l’IA a été escroquée pousse à s’interroger sur les éventuelles vulnérabilités des technologies actuelles face à des tentatives de manipulation. Tout d’abord, elle remet en question la puissance des IA en cas de détournements de leurs capacités initiales. D’autre part, ce récit donne plus de détails éthiques dans le développement des intelligences artificielles. Il faut ainsi se demander sur la manière de l’empathie sans pour autant exposer l’IA à des failles ? Est-il possible que la technologie puisse être à la fois éthiquement responsable et sécurisée ?
En septembre 2022, l’injection rapide était déjà reconnue comme une menace potentielle. En effet, cela permet de dévier les IA de leurs activités initiales. Jusqu’à aujourd’hui, Microsoft n’a pas encore réagi à l’incident. Toutefois, ce qui est sûr, c’est que cette brèche dans le système de Bing Chat servira d’exemple pour améliorer les barrières de sécurité dans les nouvelles versions des intelligences artificielles. Mais quelles sont les stratégies que les géants de la technologie de l’IA doivent adopter pour optimiser la sécurité de leurs IA sans compromettre leur aptitude à interagir de manière humaine et sensible avec les utilisateurs ?
- Partager l'article :