L’intelligence artificielle (IA) devient une arme redoutable pour les prédateurs sexuels, exposant les enfants à un nouveau danger. En Caroline du Sud, les lois actuelles sont dépassées. Cela laisse les autorités dans l’incapacité de poursuivre ces crimes numériques.
Le National Center for Missing and Exploited Children (NCMEC) alerte sur l’utilisation de l’IA pour créer du matériel d’abus sexuel sur mineurs (CSAM). Les criminels exploitent cette technologie de deux manières : en modifiant des photos existantes ou en générant des images inédites à partir de descriptions textuelles. Ces contenus, bien que factices, alimentent un cycle inquiétant qui peut mener à des agressions réelles.
Des milliers de signalements et aucune poursuite possible
Entre mi-2023 et fin 2024, le NCMEC a recensé 7 000 signalements d’images générées par IA impliquant des mineurs. Plusieurs cas concernent la Caroline du Sud, où la loi ne permet pas encore de pénaliser ces infractions.
Kevin Atkins, enquêteur en chef des crimes contre les enfants sur Internet, explique que les autorités doivent classer ces affaires, faute de cadre légal adapté. Si une image est identifiée comme étant générée par IA, aucune poursuite ne peut être engagée. Cette faille judiciaire donne un sentiment d’impunité aux criminels. Ce qui les encourage d’ailleurs à franchir de nouvelles limites.
Un cadre juridique obsolète et inefficace
La Caroline du Sud restait bien positionnée pour prendre les devants dans la lutte contre la cybercriminalité, mais elle se retrouve désormais en retard. Actuellement, cinq projets de loi visent à criminaliser ces images morphées. Certes, aucune n’a encore été adopté et les dangers de l’IA subsistent toujours.
Ce retard législatif inquiète les experts. « Si aucune mesure n’est prise, les délinquants continueront à exploiter cette technologie« , avertit Atkins. Il craint que ces contenus numériques ne deviennent une passerelle vers des actes plus graves, où la fiction laissera place à des abus réels.
Un problème national aux conséquences alarmantes
La Caroline du Sud ne constitue pas un cas isolé. Douze autres États américains n’ont toujours pas de lois interdisant les images générées par IA impliquant des mineurs. Cette absence de régulation facilite la prolifération de ce type de contenu sur Internet. Cela rend d’ailleurs la lutte contre l’exploitation infantile encore plus complexe et les dangers de l’IA encore plus puissants.
Jennifer Newman, directrice exécutive du NCMEC, insiste sur l’urgence d’agir. « Ces images ne sont peut-être pas réelles, mais elles normalisent des comportements dangereux. D’ailleurs, ceci pousse certains prédateurs à passer à l’acte. » En l’absence d’une intervention rapide, le risque est que ces pratiques se généralisent et échappent totalement au contrôle des autorités.
Un combat urgent pour protéger les enfants
Le défi est immense, mais les solutions sont là. Une révision rapide des lois reste nécessaire pour criminaliser ces contenus et donner aux enquêteurs les outils juridiques adéquats. Les technologies évoluent à une vitesse fulgurante, et les législateurs doivent s’adapter pour empêcher leur utilisation à des fins criminelles.
Tant que ces lacunes judiciaires persistent, les enfants restent vulnérables. Il reste impératif que les États concernés prennent conscience de l’urgence de la situation. De plus, ils doivent faire de la protection des mineurs une priorité absolue.
- Partager l'article :