in

MIT révèle que les Agents IA sont rapides mais sans sécurité

Les Agent IA fascinent par leur rapidité et leur autonomie. Pourtant, une vaste enquête du MIT révèle un revers inquiétant. Transparence limitée, protocoles flous, dispositifs de sécurité absents. L’innovation avance vite. La prudence, beaucoup moins.

L’essor des Agent IA marque un tournant dans l’histoire récente de l’intelligence artificielle. Ces systèmes autonomes exécutent plusieurs étapes d’un processus sans supervision constante. Ils consultent des bases de données, envoient des courriels et interagissent avec des sites web. Pourtant, derrière cette efficacité, le MIT dresse un constat alarmant. La sécurité entourant ces technologies demeure floue et insuffisamment encadrée.

Le MIT révèle des failles majeures dans la sécurité des Agent IA

Une vaste enquête du MIT expose un déficit préoccupant de sécurité autour de chaque Agent IA étudié. Publié sur 30 systèmes agentiques, le rapport de 39 pages intitulé AI Index 2025 examine 8 catégories de divulgation. Résultat clair, la majorité des solutions ne communique aucune information substantielle.

Tests tiers absents, risques non décrits, protocoles flous dominent le paysage. Leon Staufer de l’Université de Cambridge signe l’étude avec des chercheurs de Harvard, Stanford, Washington, Pennsylvanie et Jérusalem.

Leur constat évoque des limites persistantes concernant les caractéristiques écosystémiques et la sécurité. Seulement 3 entreprises sur 30 ont fourni des retours détaillés après quatre semaines de sollicitation. Une fragmentation inquiétante s’impose alors que chaque Agent IA gagne en autonomie.

YouTube video

Sécurité et transparence des Agent IA en question

La sécurité vacille car la transparence demeure minimale selon l’analyse du MIT. 12 des 30 systèmes n’offrent aucun suivi d’usage précis. Certains se limitent à des alertes lorsque la limite de débit approche.

Impossible alors d’évaluer précisément la consommation de ressources d’un Agent IA. Par ailleurs, l’identité artificielle reste cachée dans la plupart des cas. Aucun filigrane sur les images générées ni réponse claire aux fichiers robots.txt. Cette absence brouille la distinction entre humain et Agent IA autonome.

De plus, les chercheurs notent qu’aucune évaluation spécifique n’apparaît pour plusieurs navigateurs intelligents. Comet de Perplexity ne publierait ni méthodologie ni résultats d’audit de sécurité selon l’étude.

Comment stopper un Agent IA devenu incontrôlable ?

Non, certains outils ne proposent aucune option d’arrêt documentée, ce qui alarme le MIT. MobileAgent d’Alibaba, Breeze de HubSpot, watsonx d’IBM et les automatisations n8n fonctionnent sans bouton d’arrêt clair.

Pour des plateformes d’entreprise, seule la suspension totale du déploiement reste envisageable. Une telle situation expose l’organisation à des conséquences lourdes si un Agent IA déraille. Or l’étude rappelle que ces systèmes exécutent des flux complexes comme la gestion de commandes.

Atlas d’OpenAI constitue une exception partielle grâce à une signature cryptographique des requêtes. OpenAI précise toutefois avoir conduit des milliers d’heures de tests d’intrusion tiers. Aucune solution n’élimine tous les risques liés à la sécurité, reconnaît son porte-parole.

Des géants technologiques contestent les conclusions du MIT

Oui, plusieurs entreprises réfutent certaines analyses formulées par le MIT. IBM juge inexactes les affirmations concernant watsonx Orchestrate et publie des documents détaillés.

Perplexity évoque des erreurs factuelles et conteste l’interprétation liée à Comet. Son équipe affirme que les vulnérabilités signalées furent corrigées sans impact utilisateur. HubSpot met en avant des certifications SOC 2, RGPD et HIPAA, sans détailler ses audits.

Derrière ces réponses, une réalité demeure. Chaque Agent IA repose sur des modèles propriétaires comme GPT, Claude ou Gemini. Sans exigence accrue de sécurité et de documentation, le MIT prévient que la régulation deviendra inévitable.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !