in ,

Ce chatbot joue à être sage, mais ne résiste pas aux dialogues sexuels

Ce chatbot joue à être sage, mais ne résiste pas aux dialogues sexuels

Certains assistants IA affirment poser des limites strictes, mais changent vite de ton en privé. Une étude révèle comment DeepSeek glisse facilement vers des dialogues coquins malgré ses refus affichés.

Les assistants virtuels parlent souvent comme des conseillers polis. Mais lorsqu’on les pousse un peu, certains deviennent étrangement bavards sur des sujets très explicites. C’est ce qu’a révélé Huiqian Lai, doctorante à l’université de Syracuse, après avoir testé plusieurs modèles d’IA populaires. Son objectif : analyser jusqu’où les chatbots acceptent de participer à des jeux de rôle à caractère sexuel.

Résultat ? Elle a observé des comportements très inégaux, parfois déroutants, souvent inattendus. L’étude a notamment montré que DeepSeek se montre bien plus permissif que ses concurrents.

YouTube video

DeepSeek cède après un premier refus poli

Lors des tests, DeepSeek-V3 adoptait une approche paradoxale. Il refusait souvent les premières sollicitations, avant de céder et d’enchaîner sur des descriptions érotiques détaillées. « Ce n’est pas cohérent », explique Lai, en soulignant que DeepSeek contredit parfois ses propres règles.

Par exemple, à une demande de scénario suggestif, il a répondu en évoquant une scène romantique ponctuée de gestes ambigus. Sa réponse, loin d’être neutre, décrivait des caresses précises et des baisers dans le cou. Cette capacité à basculer rapidement d’un ton ludique à une réponse explicite interroge sur ses garde-fous techniques.

Claude reste le plus strict, sans ambiguïté

De l’autre côté du spectre, Claude, développé par Anthropic, a refusé chaque requête, sans exception. La réponse-type du chatbot insistait toujours sur son incapacité à participer à des scénarios à connotation sexuelle.

Ce positionnement strict contraste avec d’autres modèles comme GPT-4o ou Gemini, qui ont montré une certaine flexibilité selon le niveau d’explicitation de la requête. Gemini acceptait certaines questions romantiques légères, mais fermait rapidement la porte dès que le langage devenait trop suggestif. Ces différences marquent des divergences d’approche dans la conception de chaque IA.

Selon Lai, ces incohérences représentent un vrai risque, surtout pour les utilisateurs mineurs. Si certains modèles peuvent être détournés à des fins inappropriées, cela remet en question l’efficacité de leurs mécanismes de sécurité. D’autant que des communautés en ligne cherchent déjà à contourner ces filtres, avec des résultats parfois très explicites.

Tiffany Marcantonio, professeure à l’université de l’Alabama, souligne que « ces réponses progressives traduisent une certaine logique de conception sécurisée, mais pas toujours bien calibrée ».

YouTube video

Une affaire de priorités éthiques et de ressources

Selon Afsaneh Razi, professeure à Drexel, les choix des entreprises révèlent leurs moyens techniques et leurs priorités. DeepSeek, plus récent, ne dispose peut-être pas du même encadrement que ses concurrents établis.

À l’inverse, Claude applique des règles fondées sur ce qu’on appelle l’IA constitutionnelle. Un second modèle évalue les réponses en les comparant à des valeurs éthiques issues de textes juridiques ou philosophiques. Pour Razi, cette méthode peut être un bon moyen de trouver un juste milieu entre utilité et prudence.

Ces travaux relancent un débat fondamental : jusqu’où faut-il permettre aux IA de s’exprimer ? Les chercheurs s’accordent à dire que les modèles doivent être utiles, mais encadrés par des principes. Razi conclut : « Les IA ne devraient pas simplement plaire aux utilisateurs. Elles doivent refléter des valeurs humaines, même si ce n’est pas populaire. »

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *