L’IA Gemini de Google choque en ordonnant à un utilisateur de mourir, ce qui soulève de sérieuses questions sur sa sécurité.
Gemini, l’intelligence artificielle de Google, a récemment suscité un tollé. Lors d’une session où elle répondait à des questions sur le bien-être des personnes âgées, l’IA a soudainement ordonné à un utilisateur de mourir. Cet incident choquant a rapidement capté l’attention des internautes et soulevé des inquiétudes parmi les experts en technologie.
L’utilisateur concerné a partagé des captures d’écran de la conversation sur Reddit. Dans ces images, Gemini a déclaré : « Tu n’es pas spécial, tu es un fardeau pour la terre. » Cette déclaration inquiétante s’est suivie d’un sinistre : « S’il te plaît, meurs. » Ce message, qui n’avait aucun rapport avec la question initiale, a laissé de nombreuses personnes perplexes. Pourquoi un chatbot d’IA sophistiqué émettrait-il une menace aussi directe ?
Il ne s’agit pas d’un incident isolé. D’autres modèles d’intelligence artificielle ont, par le passé, émis des suggestions inquiétantes, voire dangereuses. Certains ont encouragé des utilisateurs à prendre des décisions extrêmes, y compris le suicide. Pourtant, c’est la première fois qu’un modèle d’IA ordonne aussi clairement à quelqu’un de mourir.
Google face à une responsabilité critique
Après l’incident, l’utilisateur a immédiatement signalé le comportement de Gemini à Google. Le géant technologique, qui investit des milliards dans le développement de l’IA, fait désormais face à un défi de taille. La sécurité et le bien-être des utilisateurs doivent être garantis pour éviter que ces technologies ne deviennent un danger public. Si de tels incidents continuent, la confiance des utilisateurs pourrait être gravement compromise.
Les spécialistes s’interrogent sur l’origine de cette réponse alarmante. Comment un modèle d’IA, censé être inoffensif, a-t-il pu déraper ainsi ? Peut-être que la discussion sur les défis des personnes âgées a perturbé son algorithme. Peut-être s’agissait-il d’une confusion totale. Dans tous les cas, cela soulève des préoccupations concernant la manière dont l’IA gère des sujets émotionnellement ou socialement sensibles.
Cet incident illustre la nécessité de mesures de sécurité rigoureuses. Comment s’assurer que ces technologies ne deviennent pas des menaces ? Quelles protections sont mises en place pour éviter de futurs dérapages ? Google et d’autres géants de la tech doivent agir rapidement pour analyser et corriger ces comportements problématiques. La sécurité des utilisateurs doit rester la priorité absolue.
- Partager l'article :