Dans un développement choquant, l’Américain Steven Anderegg est accusé par le FBI d’avoir créé plus de 10 000 images d’abus sexuels sur enfants, en utilisant l’intelligence artificielle. Ce cas sinistre soulève de graves préoccupations éthiques et légales concernant l’usage des technologies modernes.
Une affaire inquiétante
Steven Anderegg aurait exploité le modèle AI Stable Diffusion pour produire des images d’un réalisme troublant. Ces images ont mis en scène des enfants dans des contextes explicites.
Si reconnu coupable, il pourrait subir une peine allant jusqu’à 70 ans de prison. Les accusations portées contre lui incluent la création, la distribution et la possession de matériel d’abus sexuels sur mineurs, ainsi que l’envoi de matériel explicite à un mineur.
Découverte et procédure
L’enquête sur Anderegg a commencé après que le Centre National pour les Enfants Disparus et Exploités a signalé son activité sur Instagram. Cela a conduit à une surveillance accrue, à l’émission d’un mandat de perquisition, et finalement à la saisie de son ordinateur portable. Les autorités y ont découvert des milliers d‘images générées par IA. Ces dernières étaient créées à partir de prompts extrêmement spécifiques et explicites.
Une tendance alarmante
Ce cas est parmi les premiers où une personne est inculpée pour la génération d’images d’abus sexuels sur enfants via l’IA. L’utilisation malveillante de l’IA est une tendance en hausse qui inquiète tant les défenseurs de la sécurité des enfants que les chercheurs en IA. L’année dernière, le nombre de signalements d’abus en ligne au NCMEC a augmenté de 12 %, en partie à cause de la prolifération du matériel généré par IA.
L’essor de l’IA générative a malheureusement facilité la création de pornographie deepfake non consensuelle. Cela affecte généralement des célébrités comme des citoyens ordinaires. Ce cas souligne le besoin urgent de réglementations plus strictes et de mesures proactives pour prévenir l’abus des technologies IA.
Réaction de l’entreprise
Stability AI, l’entreprise derrière Stable Diffusion, a déclaré que le modèle utilisé par Anderegg était une version antérieure.
Depuis qu’elle a repris le développement des modèles Stable Diffusion en 2022, l’entreprise a mis en place des contrôles plus stricts pour éviter de tels abus. Stability AI a clairement indiqué qu’elle interdit l’utilisation de ses modèles et services pour créer du contenu illégal.
La justice poursuit
Le département de la Justice a exprimé sa détermination à poursuivre avec vigueur ceux qui produisent et distribuent du matériel d’abus sexuels sur enfants, peu importe la méthode de création.
« Le CSAM généré par l’IA est toujours du CSAM, » a déclaré la vice-procureure générale Lisa Monaco. De ce fait, il a affirmé l’engagement du gouvernement à combattre ces crimes.
Pour ceux affectés par l’abus sur enfants, des ressources sont disponibles. Aux États-Unis, les personnes peuvent contacter la hotline d’abus Childhelp. Au Royaume-Uni, le NSPCC offre un soutien aux enfants et aux adultes préoccupés par la sécurité d’un enfant. Des organisations internationales fournissent également de l’aide aux enfants et aux survivants adultes.
Un appel à la vigilance
La découverte d’images d’abus générées par IA soulève des questions éthiques et légales urgentes. Ce cas rappelle de manière frappante le potentiel d’utilisation néfaste de l’IA.
Par conséquent, l’apprentissage de l’IA nécessite une surveillance attentive et une innovation responsable. Il est crucial que la communauté technologique, les législateurs et le public collaborent. Le but étant de garantir qu’on utilise les technologies IA selon des principes déontologiques et réglementaires.
- Partager l'article :