OpenAI au cœur d’un nouveau scandale : « est-ce que ChatGPT n’aurait pas vu venir cet attentat au Cybertruck de Las Vegas » ? Comment les entreprises tech peuvent rassurer l’opinion publique pour une IA sécuritaire et éthique ? Essayons d’y répondre dans ce qui suit !
Cette fois-ci, ce qui s’est passé à Vegas, n’est pas resté pas à Vegas ! En effet, l’attentat au Cybertruck piloté par ChatGPT soulève une question vitale : comment les entreprises tech, concepteurs des outils d’IA, telles qu’OpenAI, devraient-elles prévenir de tels incidents ? Certes, ChatGPT n’a joué qu’un rôle indirect à la planification de cet événement, mais cette implication a relancé les débats sur la responsabilité des géants de la tech dans la sécurisation de l’IA pour l’humanité.
L’IA, un couteau à double tranchant ?
Si vous avez eu l’occasion d’utiliser ChatGPT dans votre quotidien, vous aurez compris que cet outil ultra-puissant permet de résoudre des problèmes, mais aussi d’automatiser des tâches afin d’optimiser la productivité. Cependant, il présente également un revers. ChatGPT peut être détourné et utilisé à des fins malveillantes comme nous vient de le prouver l’affaire Livelsberger.
Le porte-parole d’OpenAI avait affirmé lors de la conférence de presse donnée après cet incident que pour fonctionner, ChatGPT se nourrit des informations déjà disponibles sur la toile. Il a été conçu pour rejeter les requêtes illégales ou à caractère dangereux, mais est-ce que cela est suffisant ?
Étant donné que les prompts utilisés par l’auteur de cet attentat concernaient la vitesse des balles et les lois locales sur les feux d’artifice, l’outil de chatbot avait du mal à discerner le bien du mal. Alors, il est tout à fait légitime qu’on se demande comment les entreprises derrières ces logiciels vont faire pour limiter les pots cassés ?
Comment prévenir les récidives comme cet attentat au Cybertruck avec ChatGPT ?
Après cet attentat à la voiture piégée, OpenAI a exprimé son regret et affirme qu’elle est prête à collaborer avec les enquêteurs. Déjà, c’est une bonne chose, mais tout le monde se demande comment éviter une récidive ou un autre détournement de l’usage de l’IA à l’encontre de l’humanité ?
On est tous bien d’accord que ChatGPT n’est pas doté d’un esprit de discernement, contrairement à un humain. Il est difficile pour lui de savoir si les questions que les utilisateurs lui posent peuvent servir à commettre des crimes ou non. Du coup, le chatbot est ainsi incapable de prévenir les autorités ou d’alerter OpenAI sur des comportements suspects.
Il faut aussi noter le manque de modération en amont. Vu que les modèles d’IA comme ChatGPT sont trop accessibles, un encadrement humain serait nécessaire pour limiter les dérives. Certes, les jailbreakers trouveront toujours les moyens de contourner les règlements, mais une modération stricte permettrait de les dissuader.
Ce que l’affaire Livelsberger nous a enseigné sur le futur de l’IA
Je dois l’avouer, l’IA est utile à l’homme, à condition qu’elle soit réglementé de la bonne manière. Il est donc plus que nécessaire de mettre en place un cadre juridique international qui permettrait de réguler son utilisation pour le bien de l’humanité.
Certes, les entreprises tech font déjà des efforts dans ce sens, si nous n’invoquons que les engagements volontaires d’OpenAI auprès de la Maison Blanche en 2024. Cependant, ces efforts restent insuffisants pour empêcher les abus sur l’utilisation de l’IA.
Je crois que pour éviter que les outils d’IA tels que ChatGPT ne soient utilisés pour planifier un attentat au Cybertruck ou pour une toute autre dérive, il est urgent de :
- Mettre en place des garde-fous plus robustes pour détecter des schémas malveillants qui se profilent. Par la suite, l’outil pourra verrouiller les requêtes automatiquement.
- Instaurer une surveillance humaine pour analyser les interactions avec les chatbots, surtout celles à haut risque.
- Travailler avec des régulateurs, des experts en sécurité et des développeurs pour prévenir les risques en amont.
Pour finir, il faut se rappeler que le rôle des entreprises tech ne se limite pas uniquement à la création d’outils dotés d’intelligence artificielle. Elles se doivent également de protéger l’humanité face aux potentiels dérives de l’IA et de leurs utilisateurs. Ce défi bien qu’urgent est assez complexe. Nous espérons toutefois qu’une solution sera mise en place pour
- Partager l'article :