Quelques jours avant la panne de ChatGPT, les experts ont trouvé une faille pouvant être exploitée pour faire du chatbot un outil plus efficace pour des attaques par déni de service distribué, connu également sous le nom d’attaques DDoS. Banjamin Flesch, un des chercheurs qui ont identifié la faille, affirme que le problème concerne plutôt les mécanismes internes de l’API de ChatGPT.
Pouvant être exploitée, cette faille fait référence à l’absence de limitation du nombre de liens pouvant être transmis via un paramètre spécifique.
Et les cybercriminels pourraient justement profiter de cette faille de ChatGPT pour une requête contenant un volume massif d’hyperliens dirigés vers une même destination.
En d’autres termes, cela signifie que ChatGPT va faire face à une surcharge au niveau de l’API. Ce qui va ensuite compromettre la disponibilité des serveurs cibles.
La solution la plus simple pour éviter les failles de chatGPT
Toujours d’après Flesch, un avis que je partage d’ailleurs, la résolution contre cette vulnérabilité de ChatGPT passerait par plusieurs mesures préventives simples.
OpenAI devrait en effet implémenter un système de contrôle plus strict. En commençant par exemple par fixer une limite pour le nombre maximal de liens pouvant être soumis.
Sinon, je trouve également que la détection et le blocage des requêtes dupliquées seraient la meilleure manière d’éviter les attaques DDoS.
Or, cette fois-ci, l’attaque ne consiste pas seulement à compromettre les capacités de ChatGPT. Mais plutôt de cibler l’infrastructure sur lequel il repose.
🚨 Une faille dans le robot d’indexation de ChatGPT pourrait permettre de lancer des attaques DDoS massives !
Un chercheur montre comment une simple requête API peut générer jusqu'à 5 000 requêtes/sec vers une cible. 🎯 #CyberSecurity #ChatGPThttps://t.co/Xslrs8qJwN— Guardia Cybersecurity School (@Guardia_School) January 24, 2025
La sécurité de l’IA est renforcée, mais… une nouvelle menace fait surface
Avant, les tentatives de détournement des intelligences artificielles génératives ont principalement concerné leurs fonctionnalités.
Les attaques prenaient cependant plusieurs formes. Notamment la création de codes malveillants, la génération de contenus frauduleux ou la production d’instructions potentiellement dangereuses.
Mais les développeurs ont progressivement renforcé leurs systèmes de protection. Ce qui a rendu ces manipulations plus complexes.
Pourtant, il s’agit d’une évolution qui a donné naissance à un nouveau type de cyberattaque : le jailbreaking.
Et ici, les hackers sont en train de rivaliser pour trouver qui pourra contourner les dispositifs de sécurité. Mais aussi les restrictions éthiques mis en place pour sécuriser les systèmes d’IA.
On ne peut donc pas dire que les chatbots que nous connaissons actuellement sont à 100 % sécurisés. Il y aura toujours des risques de piratage.
- Partager l'article :