Vous pensiez que l’IA servait à écrire des poèmes et générer des images ? Les Marines utilisent déjà l’IA pour espionner. Sur leurs navires, elle fouille le web, décortique les infos et influence les décisions.
Sur les navires de la 15e unité expéditionnaire des Marines, une expérimentation discrète d’une IA a pris une autre ampleur. En plein Pacifique, l’IA générative a été utilisée pour collecter, trier et analyser des informations à grande échelle. Une première pour ces militaires qui ont sillonné la Corée du Sud, les Philippines ou encore l’Inde au fil de leur mission. Mais ce test, financé par le Pentagone, pourrait bien marquer une étape vers une nouvelle forme de guerre de l’information.
Jusqu’ici, le renseignement militaire reposait surtout sur des analystes humains, lents et débordés face au volume croissant d’informations. Les capitaines Kristin Enzenauer et Will Lowdon racontent comment l’IA leur a fait gagner un temps précieux.
Enzenauer traduisait rapidement des articles étrangers grâce à des modèles de langue, pendant que Lowdon automatisait la rédaction de ses rapports quotidiens. Les supérieurs ont validé cette nouvelle méthode, tant elle s’est révélée plus fluide sur le terrain.
Une technologie développée par d’anciens espions
L’outil provient de Vannevar Labs, une entreprise fondée par d’anciens espions. Le Pentagone lui a signé un contrat de 99 millions de dollars en novembre. L’idée : équiper les unités de terrain avec des IA capables de traiter des volumes gigantesques de données.
Chaque jour, ces IA digèrent des informations en 80 langues, collectées dans 180 pays. Elles lisent les réseaux sociaux, surveillent les ondes radio et contournent même les pare-feu chinois. Le résultat est ensuite livré dans une interface semblable à ChatGPT.
Une IA qui lit entre les lignes et détecte les émotions
Les Marines n’ont pas seulement utilisé cette IA pour décoder les faits. Ils ont aussi analysé la perception locale de leurs actions. Enzenauer précise que l’outil détectait les émotions et opinions exprimées dans les articles étrangers, un travail fastidieux qu’elle faisait auparavant à la main.
Scott Philips, directeur technique de Vannevar, résume leur mission : « Collecter des données, leur donner un sens, aider à prendre de bonnes décisions. »
Malgré des résultats encourageants, des doutes subsistent. Les connexions internet instables sur les navires limitaient parfois les performances de l’IA. Et même si les militaires de terrain affirment qu’aucune erreur grave n’a été détectée, des voix s’élèvent. Heidy Khlaaf, spécialiste de la sécurité IA, souligne que les modèles de langage sont connus pour être imprécis. Pour elle, une relecture humaine n’est pas toujours suffisante pour compenser les défauts algorithmiques.

L’analyse des sentiments, un point de friction
Khlaaf s’inquiète surtout de l’usage de l’analyse des sentiments. Cette fonction, très subjective, pourrait induire en erreur les militaires. « C’est une mesure subjective, même les humains ont du mal à juger. », alerte Khlaaf. Si l’IA perçoit une hostilité dans un article neutre, les conséquences diplomatiques pourraient être lourdes.
Chris Mouton, ingénieur chez RAND, confirme : « L’IA peut aider. Mais décider à sa place pose un vrai problème de confiance. ». Pourtant, certains experts estiment qu’elle reste utile pour traiter d’autres types d’analyses.
Face à ces enjeux, le Pentagone accélère. Il prévoit 100 millions de dollars pour des projets d’IA générative d’ici deux ans. Microsoft, Palantir et Vannevar sont déjà dans la course. Mais une question persiste : l’IA assistera-t-elle simplement les analystes, ou décidera-t-elle à leur place ? Le débat reste ouvert. Et il engage directement la manière dont les guerres de demain seront menées.
- Partager l'article :