Initialement, OpenAI excluait formellement l’utilisation de son intelligence artificielle à des fins militaires et en contexte de conflits. Cependant, le mercredi 10 janvier, la start-up californienne a discrètement révisé sa politique en supprimant ces restrictions. Cette modification laisse place à diverses interprétations. La société dirigée par Sam Altman autorise-t-elle à présent l’exploitation de son intelligence artificielle pour le développement d’applications militaires ?
Retrait de détails importants dans la politique d’OpenAI
Dans sa version précédente, la politique d’OpenAI stipulait clairement l’interdiction d’utiliser son intelligence artificielle d’une manière qui pourrait engendrer des dommages physiques importants. La société avait établi une liste détaillée des utilisations proscrites. Cela incluait le développement d’armes et l’usage de l’IA à des fins militaires.
Cependant, la start-up a retiré intégralement cette liste lors de la récente mise à jour. Le magazine en ligne The Intercept est le premier à relever cette modification importante dans les conditions d’utilisation fixées par la société américaine. Désormais, OpenAI se contente d’indiquer de manière générale que son intelligence artificielle ne doit pas « être utilisée pour nuire à vous-même ou à autrui ». La société ne donne comme unique exemple que l’interdiction du développement et de l’usage d’armes. La notion de création de logiciels malveillants, auparavant citée, a disparu.
Une mise à jour source d’inquiétudes et d’interrogations
Un porte-parole d’OpenAI a justifié cette mise à jour en soulignant la volonté de la société d’établir des principes universels, simples à comprendre et à appliquer. Il explique que la notion « ne pas nuire à autrui » est facilement compréhensible et couvre de nombreux contextes d’utilisation.
Cependant, des experts, comme Sarah Myers West de l’institut AI Now, expriment des inquiétudes quant à la clarté des termes utilisés. Cela suscite des questionnements sur la manière dont OpenAI envisage d’appliquer la loi. Ceci est d’autant plus important dans un contexte d’utilisation croissante de l’IA dans les conflits armés. Lors de la récente guerre à Gaza, Israël a largement exploité l’intelligence artificielle pour renforcer sa stratégie.
Il est utile de rappeler que depuis quelques mois, les utilisateurs de l’IA d’OpenAI ont la possibilité de créer leurs propres modèles de GPT. Cette récente mise à jour de sa politique d’utilisation coïncide avec le lancement de GPT-Store. Sur cette boutique en ligne, les utilisateurs peuvent monétiser des modèles d’IA personnalisés.
- Partager l'article :