La bonne nouvelle, c’est que le modèle qui alimente ChatGPT a été mis à jour vers GPT-4.1. La mauvaise nouvelle, c’est qu’OpenAI souligne que ChatGPT pourrait aider n’importe qui à créer des armes biologiques, même sans connaissance sur le sujet. Au fur et à mesure où ChatGPT se développe, il constitue de plus en plus une menace biologique. OpenAI a alors pris des mesures pour éviter le pire.
Il y a tout juste deux jours, le mercredi 18 juin, OpenAI a publié un billet de blog indiquant que ChatGPT permet désormais de créer des armes biologiques.
Sam Altma, actuel PDG de la start-up, indique qu’ils ont mis en place des garde-fous pour empêcher ChatGPT de générer des réponses qui pourraient constituer une menace biologique.
Deux de ses modèles de raisonnement sont concernés. Notamment le o4-mini et le modèle o3.
OpenAI tire la sonnette d’alarme sur un nouveau risque lié à l’IA
OpenAI commence à s’inquiéter sérieusement des dérives potentielles de ses futurs modèles ChatGPT, en particulier dans le domaine sensible des armes biologiques.
Dans une interview accordée à Axios, Johannes Heidecke, à la tête de la sécurité des systèmes chez OpenAI, alerte sur la capacité de certains modèles à venir. Surtout ceux qui succéderont à GPT-o3 qui pourraient à fournir des instructions détaillées pouvant aider à concevoir des substances dangereuses.
C’est un phénomène que la start-up surnomme d’élévation des novices. Autrement dit, l’IA pourrait permettre à des personnes sans aucune expertise scientifique de créer des composés biologiques potentiellement mortels.
Face à cette menace, OpenAI renforce considérablement son protocole de vérification. Chaque nouveau modèle en développement fera désormais l’objet d’évaluations strictes avant toute mise en ligne.
L’objectif d’OpenAI est donc clair. Et c’est de pouvoir identifier les usages malveillants avant qu’ils ne se produisent.
Pour garantir un niveau de sécurité maximal, OpenAI entend s’appuyer sur deux niveaux de validation.
De un, une évaluation interne menée par ses propres équipes de sécurité. Et de deux, une validation externe impliquant des experts indépendants et des organismes publics spécialisés.
Ce qui veut dire que tant que ces deux instances ne donnent pas leur feu vert, le modèle restera inaccessible au public.
Good morning! I’ve noticed a huge increase in people stating they use ChatGPT for therapy and I’m here to tell you please do not do this!
— Black Therapist & Coach 💕 (@NicoleLewisLCSW) March 19, 2025
My concerns include:
1. Lack of Emotional Understanding: ChatGPT can mimic empathetic responses based on patterns in its training data, but…
OpenAI renforce ses garde-fous contre les dérives biologiques de l’IA
Dans sa lutte contre les usages dangereux de l’intelligence artificielle, OpenAI vient de franchir un nouveau cap.
Désormais, toute demande suspecte liée à la création de virus ou d’agents pathogènes déclenche un système de blocage automatique.
En cas de doute, le modèle ne génère aucune réponse. La requête est d’abord analysée par un algorithme de sécurité, puis soumise à l’examen d’un opérateur humain.
Selon Johannes Heidecke, responsable de la sécurité chez OpenAI, nous n’en sommes pas encore à un stade où ChatGPT pourrait inventer de nouvelles formes d’armes biologiques jamais vues auparavant.
Quoi qu’il en soit, le danger est bien réel. Ces outils pourraient permettre à des individus non formés de reproduire facilement des substances dangereuses déjà connues des experts, ce qui reste une menace majeure.
- Partager l'article :
