OpenAI a changé la façon dont on appréhende l’intelligence artificielle avec ChatGPT. Et ça fait un peu plus de deux ans que l’entreprise a lancé son chatbpt IA. Aujourd’hui, on est près de 300 millions à l’utiliser par semaine. Mais ces derniers temps, OpenAI semble mettre de côté l’aspect éthique et sécurité de ses systèmes. Quitte à dire qu’OpenAI est en train de nous mettre en danger. Comme l’a indiqué un ancien chercheur de l’entreprise, Mile Brundage.
Vous vous en rappelez peut-être, mais la semaine dernière, OpenAI a publié un document mentionnant comment elle considère la sécurité et l’alignement de l’IA.
Et c’est le contenu de ce document, indiquant qu’OpenAI fait tout son possible pour atteindre l’AGI, que Brundage a critiqué.
À titre d’information, le document mentionne dans le troisième paragraphe qu’OpenAI va essayer d’atteindre cette intelligence artificielle générale étape par étape.
Il ne va donc pas faire un pas de géant. Les déploiements se feront de manière itérative. Cela dans le but d’identifier les problèmes de sécurité et tenter de les résoudre à temps. Alors qu’en disent les critiques ?
Manipulation, arnaque, désinformation, les chatbots IA deviennent de plus en plus une arme de destruction contre l’humanité
Jusqu’ici, je peux dire qu’aucune entreprise n’a encore pu résoudre les problèmes de fausses réponses venant de leurs chatbots.
Et c’est justement ce que craignent les experts. Qu’est-ce qui se passerait si un chatbot fournit des réponses inexactes quand quelqu’un demande des conseils sur sa santé ?
C’est ce qui est arrivé à Google récemment quand son assistant conversationnel a générer une réponse indiquant à l’utilisateur de manger des pierres.
Ou encore comme le cas de Whisper, un outil d’OpenAI qui met la vie de patients en danger en générant des hallucinations.
Tout cela relève de la désinformation. Ce qui veut dire que les chatbot IA tels que ChatGPT pourraient devenir une arme pour manipuler l’opinion publique et pour mener des escroqueries, ce qui est déjà le cas d’ailleurs.
Pour le cas d’OpenAI, elle a cumulé les critiques sur comment elle développe ses modèles d’IA. Ceux-ci pouvant inclure des données personnelles sensibles.
Open AI was sketchy before they started killing whistleblowers.
— Ian Carroll (@IanCarrollShow) January 5, 2025
Quick reminder who is on their board of directors.
Unsubscribe from them, stop using chat GPT. The company is controlled by some evil people. pic.twitter.com/ZxNUHYckRK
D’autres inquiétudes concernant GPT-Gov
Prenant conscience de cette mentalité d’OpenAI, j’aimerais retenir votre attention sur un chabot que l’entreprise a développé pour le gouvernement américain.
Il s’agit de ChatGPT Gov, une version dont les fonctionnalités sont similaires à celles de ChatGPT Enterprise. Notamment le partage des conversations et l’accès à une console d’administration dédiées aux équipes informatiques.
Par contre, ChatGPT suscite des interrogations sur sa capacité à protéger les données personnelles, surtout pour les populations vulnérables.
Le vrai problème avec ChatGPT, c’est qu’en contrepartie de ce chatbot, le gouvernement américain va alimenter les modèles d’OpenAI avec des informations sensibles et non accessibles au grand public.
Les critiques des chercheurs sur la mentalité d’OpenAI sont donc fondées. Alors, y a-t-il une malhonnêteté de la part d’OpenAI ?
OpenAI répond aux critiques avec un document officiel
Face toutes ces critiques, OpenAI a publié la semaine dernière le document dont je vous ai parlé tout à l’heure.
Il s’agirait apparemment de la réponse de l’entreprise face à toutes ces inquiétudes. Ledit document indique par exemple que le modèle GPT-2 a été développé de manière discontinue.
Il n’a donc pas été déployé à cause d’une préoccupation d’OpenAI sur un éventuel risque de piratage par logiciels malveillants.
Ce qui a poussé l’entreprise à adopter une autre approche, le principe du développement itératif. Pourtant, Brundage souligne que le document qu’a publié OpenAI ne fait pas référence au vrai historique du développement de l’intelligence artificielle de l’entreprise.
« Quand je travaillais encore chez OpenAI, et pendant le lancement du modèle GPT-2, l’approche qu’a adoptée l’entreprise reflétait déjà sa philosophie actuelle », a-t-il ajouté.
Ce qui veut dire que GPT-2 a été publié de manière progressive. Et chaque étape constituait une leçon pour OpenAI.
The bulk of this post is good + I applaud the folks who work on the substantive work it discusses.
— Miles Brundage (@Miles_Brundage) March 5, 2025
But I'm pretty annoyed/concerned by the "AGI in many steps rather than one giant leap" section, which rewrites the history of GPT-2 in a concerning way. https://t.co/IQOdKczJeT
Une approche risquée au détriment de la sécurité, on est tous en danger à cause d’OpenAI
Quand Brundage a analysé le document d’OpenAI, il n’a pas tardé à remettre en question l’attitude de l’entreprise face aux risques que présentent ses modèles d’IA.
Il souligne que cette approche semble imposer un fardeau de preuve problématique. Les préoccupations sont considérées comme exagérées. À moins que des preuves irréfutables de dangers immédiats ne seraient présentées.
Et selon cet ex-employé d’OpenAI, cette philosophie, bien que favorisant le déploiement rapide sans prouver le contraire, représente une approche particulièrement risquée concernant les systèmes d’intelligence artificielle.
Cette dernière critique intervient justement dans un contexte où OpenAI fait face à des examens de plus en plus minutieux, avec des allégations selon lesquelles l’organisation prioriserait le développement de modèles plus intelligents au détriment des considérations de sécurité.
- Partager l'article :