in , ,

Dérapages et intimidations en IA, les défis éthiques et législatifs s’intensifient

Dans un développement choquant, l’Américain Steven Anderegg est accusé par le FBI d’avoir créé plus de 10 000 images d’abus sexuels sur enfants, en utilisant l’. Ce cas sinistre soulève de graves préoccupations éthiques et légales concernant l’usage des technologies modernes.

YouTube video

Une affaire inquiétante

Steven Anderegg aurait exploité le modèle AI pour produire des images d’un réalisme troublant. Ces images ont mis en scène des enfants dans des contextes explicites.

Si reconnu coupable, il pourrait subir une peine allant jusqu’à 70 ans de prison. Les accusations portées contre lui incluent la création, la distribution et la possession de matériel d’abus sexuels sur mineurs, ainsi que l’envoi de matériel explicite à un mineur.

Découverte et procédure

L’enquête sur Anderegg a commencé après que le Centre National pour les Enfants Disparus et Exploités a signalé son activité sur Instagram. Cela a conduit à une surveillance accrue, à l’émission d’un mandat de perquisition, et finalement à la saisie de son ordinateur portable. Les autorités y ont découvert des milliers d‘images générées par IA. Ces dernières étaient créées à partir de prompts extrêmement spécifiques et explicites.

IA image abus

Une tendance alarmante

Ce cas est parmi les premiers où une personne est inculpée pour la génération d’images d’abus sexuels sur enfants via l’IA. L’utilisation malveillante de l’IA est une tendance en hausse qui inquiète tant les défenseurs de la sécurité des enfants que les chercheurs en IA. L’année dernière, le nombre de signalements d’abus en ligne au NCMEC a augmenté de 12 %, en partie à cause de la prolifération du matériel généré par IA.

L’essor de l’IA générative a malheureusement facilité la création de pornographie deepfake non consensuelle. Cela affecte généralement des célébrités comme des citoyens ordinaires. Ce cas souligne le besoin urgent de réglementations plus strictes et de mesures proactives pour prévenir l’abus des technologies IA.

Réaction de l’entreprise

, l’entreprise derrière Stable Diffusion, a déclaré que le modèle utilisé par Anderegg était une version antérieure.

Depuis qu’elle a repris le développement des modèles Stable Diffusion en 2022, l’entreprise a mis en place des contrôles plus stricts pour éviter de tels abus. Stability AI a clairement indiqué qu’elle interdit l’utilisation de ses modèles et services pour créer du contenu illégal.

IA image abus

La justice poursuit

Le département de la Justice a exprimé sa détermination à poursuivre avec vigueur ceux qui produisent et distribuent du matériel d’abus sexuels sur enfants, peu importe la méthode de création.

« Le CSAM généré par l’IA est toujours du CSAM, » a déclaré la vice-procureure générale Lisa Monaco. De ce fait, il a affirmé l’engagement du gouvernement à combattre ces crimes.

Pour ceux affectés par l’abus sur enfants, des ressources sont disponibles. Aux États-Unis, les personnes peuvent contacter la hotline d’abus Childhelp. Au Royaume-Uni, le NSPCC offre un soutien aux enfants et aux adultes préoccupés par la sécurité d’un enfant. Des organisations internationales fournissent également de l’aide aux enfants et aux survivants adultes.

IA image abus

Un appel à la vigilance

La découverte d’images d’abus générées par IA soulève des questions éthiques et légales urgentes. Ce cas rappelle de manière frappante le potentiel d’utilisation néfaste de l’IA.

Par conséquent, l’apprentissage de l’IA nécessite une surveillance attentive et une innovation responsable. Il est crucial que la communauté technologique, les législateurs et le public collaborent. Le but étant de garantir qu’on utilise les technologies IA selon des principes déontologiques et réglementaires.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *