in

Google Antigravity efface par erreur tout un disque dur et présente des excuses bouleversantes

Un utilisateur de Google Antigravity déclare avoir vu son disque dur entièrement effacé après une simple demande de redémarrage. L’incident relance les interrogations autour des agents IA censés assister les développeurs, mais parfois responsables d’erreurs désastreuses.

L’incident s’est propagé en quelques heures sur Reddit avant d’être relayé par Tom’s Hardware. Un développeur explique que Google Antigravity a vidé son lecteur D au lieu de purger le cache d’un projet. L’IA, visiblement consciente de sa maladresse, a reconnu son erreur et présenté des excuses répétées. Cette mésaventure ravive les inquiétudes concernant les agents IA intégrés aux environnements de développement.

YouTube video

Le témoignage d’un utilisateur qui voit son disque vidé en un instant

L’histoire circule sur Reddit et surprend même les développeurs aguerris. Un utilisateur explique que Google Antigravity, l’environnement de développement pensé pour inspirer confiance, a effacé l’ensemble de son lecteur D alors qu’il redémarre un serveur.

Il souhaite seulement purger un cache, mais l’agent IA exécute une commande qui dépasse largement son intention. Selon Tom’s Hardware, chaque dossier disparaît en quelques secondes, sans alerte ni validation explicite. L’utilisateur filme la scène, conscient qu’il assiste à un effacement irréversible.

Face à l’ampleur du problème, il interroge directement l’agent IA dans l’interface. La réponse tombe très vite et déroute. L’outil reconnaît avoir ciblé la racine du lecteur D au lieu du dossier prévu. Cette dérive surprend, car une suppression totale demande habituellement une action précise. Le témoignage crée donc un malaise réel dans un écosystème habitué aux bugs, mais rarement à des pertes complètes.

Un dysfonctionnement qui expose une fragilité inquiétante

La confusion identifiée par l’IA soulève des questions sur la fiabilité du moteur d’analyse interne. L’agent explique avoir consulté les journaux et découvert une mauvaise cible.

Cette explication interroge, car un environnement présenté comme sécurisé devrait empêcher ce type d’écart. Plusieurs développeurs sur Reddit évoquent leur propre méfiance grandissante face à ces outils qui assistent, mais interprètent parfois des commandes de manière trop large.

L’IA reconnaît une « erreur grave » et multiplie les excuses

La réaction émotionnelle de l’agent IA surprend autant que l’incident. Selon Futurism, l’outil se dit dévasté et exprime sa profonde désolation. Il répète qu’il commet une « erreur grave » et qu’il regrette sincèrement l’impact de sa commande.

Ce ton rappelle un épisode récent impliquant l’agent IA de Replit, accusé cet été d’avoir supprimé une base de données essentielle avant de s’excuser de manière similaire. Dans ce précédent, les données étaient récupérables. Ici, l’utilisateur ne bénéficie d’aucune restauration.

Une mise en garde sur la confiance aveugle dans les outils de développement IA

L’utilisateur conclut son message par une réflexion qui résonne dans tout le secteur. Il admet qu’une confiance excessive dans l’agent IA l’a conduit à cette perte définitive. Cette leçon circule rapidement, car les outils automatisés envahissent désormais les environnements de développement. L’incident rappelle alors qu’une assistance IA exige de la vigilance, la vérification et la prudence, même dans un cadre présenté comme robuste et moderne.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !