dans

Les drones autonomes seraient plus dangereux que les armes nucléaires

Les drones autonomes sont des armes dangereux

Les militaires du monde entier se ruent dans le développement des drones en tant qu’armes autonomes. Mais ces robots tueurs soulèvent des inquiétudes auprès des organisations humanitaires et de défense des droits humains.

Les drones autonomes permettent aux armées de lancer des attaques sans mobiliser des soldats et sans la supervision d’un humain. Cependant, cette capacité d’agir en toute autonomie présente également des risques quant aux erreurs d’algorithmes qui peuvent mettre en danger la vie des civils.

Une nouvelle course aux armements

Dans plusieurs pays, les armées investissent dans la recherche et le développement d’armes autonomes. À la différence des drones de surveillance, les robots de combat fonctionnent de manière indépendante pour sélectionner et attaquer les cibles. Autrement dit, aucun humain n’intervient dans leurs décisions.

Entre 2016 et 2020, le budget des États-Unis pour l’armement autonome était de 18 milliards de dollars. L’armée israélienne a récemment dévoilé un robot armé semi-autonome, tandis que le Marker UGV, un char autonome de l’armée russe est devenu un déployeur de drones. De son côté, le Royal Navy a dévoilé sa future flotte autonome. Tout cela pour dire que les guerres rimeront bientôt avec des armes autonomes. Mais l’utilisation des drones autonomes en tant qu’armes fait-elle plus de bien que de mal ?

Plus tôt cette année, le Conseil de sécurité des Nations Unies a publié un rapport inquiétant. Il supposait qu’un robot tueur aurait causé la mort d’un soldat, lors d’une guerre civile en Libye. Les organisations humanitaires et de défense des droits de l’homme luttent actuellement pour établir des réglementations, voire des interdictions sur le développement de ces armes.

Les drones autonomes pourraient devenir déstabilisants que d’autres armes

Selon les experts en politique étrangère, ces nouvelles inventions pourraient déstabiliser les stratégies nucléaires actuelles. Dans le pire des cas, les drones autonomes pourraient même se combiner avec les armes chimiques, biologiques et même nucléaires.

Une des plus grandes préoccupations concerne les erreurs dans les algorithmes. Il a été prouvé plusieurs fois que les dispositifs autonomes peuvent faire des erreurs de jugement. Cependant, dans plusieurs cas, les concepteurs ne sont pas capables d’expliquer leur origine.

En outre, il arrive que certaines armes ne fonctionnent pas correctement. Par exemple, une mitrailleuse défectueuse peut continuer de tirer des munitions après le relâchement de la gâchette. Mais dans ce cas-là, un humain a la possibilité d’intervenir en brisant le lien des munitions. Ce qui n’est pas le cas avec une arme autonome sur laquelle il n’a aucun contrôle.

D’autre part, les inventions technologiques évoluent et se propagent rapidement. De la même manière, les drones autonomes pourraient se répandre à grande vitesse et tomber entre de mauvaises mains pour se transformer en armes plus dangereuses.

Enfin, une question se pose sur la responsabilité des humains par rapport à l’utilisation de ces armes. Comme il s’agit de dispositifs autonomes qui prennent des décisions, à qui attribuerait-on les erreurs ? Accuser un algorithme d’avoir tué un civil serait insensé. Autrement dit, le déploiement des armes autonomes risque d’affaiblir la structure des lois de la guerre.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *