OpenAI, une entreprise réputée pour son approche responsable et éthique de l’IA, a déjà affirmé qu’elle va jeter son étiquette d’organisme à but non lucratif. Mais ce qui m’a le plus intrigué, c’est sa décision d’entrer en partenariat avec une entreprise dans le seul but est de fournir à l’armée américaine des robots tueurs.
Cette société n’est autre qu’Anduril Industries, cofondée par Palmer Luckey, le fondateur d’Oculus, et qui a comme objectif principal de devenir un acteur incontournable de la défense.
Un objectif qu’elle a atteint puisqu’aujourd’hui, Anduril Industries fournit déjà des drones développés et conçus pour tuer à l’armée américaine.
L’accord de partenariat qu’elle a signée avec OpenAI vise cependant à développer des solutions d’IA visant à améliorer la sécurité nationale.
Dans le cadre de l’accord, les logiciels d’IA que va développer OpenAI seront intégrés sur Lattice, la plateforme d’Anduril.
« Nous souhaitons tout simplement protéger le personnel militaire américain »
Mercredi dernier, Sam Altman a déclaré que son entreprise développe aujourd’hui des systèmes d’IA avantageux pour un grand nombre d’individus.
Il ajoute qu’OpenAI a l’ambition de soutenir l’armée américaine, et donc les politiques du pays pour faire respecter ses valeurs démocratiques.
« Si nous avons décidé d’entrer en partenariat avec Anduril, c’est tout simplement pour que la technologie que nous développions puisse protéger le personnel militaire américain. Mais aussi pour apporter notre soutien à la communauté pour que celle-ci utilise l’IA de manière responsable. Tout cela pour dire que nous ne souhaitons que garantir la liberté. Ainsi que la sécurité de nos citoyens », a-t-il ajouté.
De son côté, Brian Schimpf, PDG d’Anduril, souligne que ce partenariat leur permettrait de tirer profit de l’expertise d’OpenAI. Cela afin de fournir des solutions sur mesure aux problèmes auxquels se confronte la défense aérienne de nombreux pays.
We’re joining forces with @OpenAI to advance AI solutions for national security.
— Anduril Industries (@anduriltech) December 4, 2024
America needs to win.
OpenAI’s models combined with Anduril’s defense systems will protect U.S. and allied military personnel from attacks by unmanned drones and improve real-time decision-making.… pic.twitter.com/fprGN05eeg
OpenAI va-t-elle vraiment apporter son soutien à ce drone tueur d’Anduril ?
Anduril propose aujourd’hui une gamme de technologies principalement axées sur la protection des forces armées américaines.
Son arsenal technologique comprend un drone controversé surnommé Bolt-M. Il s’agit d’un engin téléguidé, propulsé par un système d’IA sophistiqué.
Ce drone se distingue par sa capacité à cibler avec une précision redoutable des objectifs terrestres. Qu’ils soient immobiles ou en mouvement.
Selon les descriptions techniques de l’entreprise, le drone Bolt-M dispose d’habiletés opérationnelles uniques. Notamment la possibilité de pénétrer des infrastructures avant de déclencher une charge explosive.
Au-delà de ce système individuel, Anduril travaille également sur des technologies d’essaims de drones.
Et c’est une initiative potentiellement stratégique destinée à renforcer les capacités opérationnelles de la marine américaine.
Ça saute aux yeux ! L’éthique laisse place aux profits chez OpenAI
Deux ans après le déploiement de ChatGPT, je trouve que le parcours d’OpenAI commence à illustrer une transformation qui interroge ses principes fondateurs.
Alors que l’entreprise proclamait initialement son engagement pour un développement responsable de l’intelligence artificielle, ses projets les plus récents semblent marquer un net décrochage par rapport à ses premières ambitions qui étaient plus éthiques.
La start-up, qui s’était positionnée comme un acteur exemplaire, a progressivement abandonné les principes de prudence et de réflexion morale qui avaient caractérisé ses débuts.
Aujourd’hui, sa trajectoire laisse prévoir un glissement progressif vers des considérations plus pragmatiques et commerciales. Et cela au détriment des garde-fous qu’elle a initialement mis en place.
C’est une mutation qui, à mon avis, apparaît comme le résultat d’une transformation profonde. C’est-à-dire une transition dans laquelle les impératifs de croissance et de performance semblent avoir supplanté les préoccupations initiales relatives aux implications éthiques du développement de l’intelligence artificielle.
- Partager l'article :