L’intelligence artificielle et le big data sont aujourd’hui les nouvelles armes de l’armée américaine. Mais à cause de l’empoisonnement des données, il est tout à fait possible que les données qui servent à l’entraînement des modèles puissent être compromises.
« Jusqu’à aujourd’hui, aucune de nos données n’a été empoisonnée », a déclaré Jennifer Swanson, secrétaire adjointe de l’armée pour les données.
« En tout cas, nous avons comme objectif d’identifier les risques qui pourraient compromettre nos données », a-t-elle ajouté.
En réalité, le Pentagone forme ses algorithmes sur un très grand volume de données. Chaque équipe se doit alors de les analyser pour supprimer les données erronées.
Récemment, ChatGPT a déraillé et a commencé à fournir de fausses réponses. Pour le cas des algorithmes de l’armée, ils peuvent bel et bien faire l’objet d’une attaque.
C’est ce que l’on appelle empoisonnement de données, une situation qui pourrait détruire les IA en temps de guerre.
Les LLM altérés menacent la sécurité militaire, déclare Swanson
Swanson a fait une déclaration sans ambiguïté que tout LLM commercial actuellement en existence, qui se nourrit de données sur Internet, est désormais altéré.
« Pour être honnête, je suis davantage inquiet par ce que vous pourriez appeler l’IA classique. Ce sont ces algorithmes qui seront effectivement utilisés par nos soldats pour prendre des décisions sur le terrain de combat », ajoute-t-elle.
Toutefois, Swanson affirme que malgré l’empoisonnement de données, le Pentagone peut facilement créer de nouveaux chatbots.
Il ne s’agit donc pas de former ses LLM sur des données publiques. Mais plutôt d’effectuer la formation dans un environnement sécurisé, avec des données militaires vérifiées.
Le vrai défi du Pentagone, c’est de trouver des données propres à l’armée. Sans quoi, il ne serait pas possible de prendre des décisions en temps réel sur le champ de bataille et coordonner les opérations militaires.
Elle affirme néanmoins que les prochaines IA permettraient de planifier les frappes grâce aux services ABMS, du Projet Convergence et Overmatch.
L’armée américaine avance aveuglement face à l’empoisonnement de données
Le projet Convergence de l’armée, en retour, exploite la technologie avancée par le nouveau projet Pivot.
Swanson identifie celui-ci comme le principal programme d’intelligence artificielle du département. Autrement dit un programme qui servira de canal opérationnel ML fiable et sécurisé pour leurs initiatives.
En résumé, l’armée cherche à appliquer à l’apprentissage automatique la méthode agile de rétroaction entre la fabrication, la sécurité informatique et les activités en cours (ManufactureSécOps).
Elle adoptera cependant la même approche qu’utilisent les principaux concepteurs de logiciels pour lancer rapidement de nouvelles technologies et les mettre régulièrement à jour.
« À l’heure actuelle, nous n’avons aucune connaissance de la façon de procéder ». En réalité, elle soutient que personne ne le sait vraiment.
« Je suis inquiète de notre engagement profond dans l’IA alors que presque personne n’a des réponses claires. Jusqu’à aujourd’hui, aucune société n’a pu nous donner des réponses claires sur la façon de faire les choses », a-t-elle déclaré.
- Partager l'article :