Deux tiers des responsables de la sécurité envisagent d’interdire le code généré par l’IA. Cela s’explique par des préoccupations croissantes sur la qualité des programmes créés par ces outils.
Un rapport de Venafi révèle que 63 % d’entre eux considèrent cette option. Ils craignent que les développeurs ne vérifient pas les codes générés par l’IA avec autant de rigueur.
Le rapport indique que 92 % des décideurs interrogés s’inquiètent de l’utilisation de l’IA dans le développement. Ces craintes concernent principalement la baisse de qualité et la prolifération de codes de mauvaise qualité dans les produits. Les modèles d’IA peuvent utiliser des bibliothèques obsolètes, ce qui pose des risques.
Les développeurs pourraient devenir trop dépendants des outils d’IA. Cela signifie que la vérification rigoureuse du code serait négligée. Cette situation inquiète les responsables de la sécurité, qui craignent une baisse de la qualité et des failles de sécurité. Selon Tariq Shaukat, PDG de Sonar, ces failles sont déjà visibles.
Les développeurs se détachent de leur responsabilité
Les développeurs ne se sentent pas responsables du code généré par l’IA. Ils le considèrent comme un produit extérieur. Cela conduit à un manque de pression pour s’assurer de la perfection des programmes. Ce détachement peut provoquer des problèmes de sécurité. Les entreprises doivent donc renforcer leurs pratiques d’évaluation du code.
Venafi a interrogé 800 décideurs en matière de sécurité dans quatre pays. Le rapport indique que 83 % des organisations utilisent l’IA pour développer du code. Cela se fait malgré les inquiétudes des professionnels de la sécurité. De ce fait, la prolifération du code généré par l’IA pose des défis considérables.
Les menaces comme l’empoisonnement de l’IA ou l’évasion de modèles émergent. Les développeurs et les novices utilisent le code d’IA générative de manière incontrôlée. Kevin Bocek, directeur de l’innovation chez Venafi, souligne cette situation. Le rapport met en lumière des vulnérabilités qui doivent être maîtrisées.
Une compétition qui nécessite l’utilisation de l’IA
Malgré les risques, 72 % des entreprises estiment ne pas avoir le choix. Elles doivent continuer à utiliser l’IA pour rester compétitives. Selon Gartner, 90 % des ingénieurs en logiciels utiliseront des assistants d’ici 2028. Cela leur permettra d’augmenter leur productivité, malgré les préoccupations de sécurité.
Les équipes de sécurité peinent à suivre le rythme des développeurs ultra-productifs. Elles déclarent ne pas pouvoir contrôler l’utilisation sûre de l’IA. Elles manquent de visibilité sur son usage au sein des organisations. Près de 66 % des responsables de la sécurité estiment cette situation préoccupante.
La prolifération des codes générés par l’IA pousse les responsables à bout. Ils s’inquiètent des vulnérabilités potentielles laissées sans surveillance. 59 % des décideurs en perdent le sommeil. Ils craignent qu’un incident majeur ne provoque une réforme de la manière dont ces problèmes sont traités.
Les équipes de sécurité sont prises entre deux feux. Les développeurs utilisent l‘IA pour booster leur productivité, tandis que les attaquants profitent des failles. Kevin Bocek cite des exemples récents d’interférences dans des projets open source. Cela montre que les entreprises doivent adapter leurs stratégies de sécurité.
- Partager l'article :