Les artistes disposent d’outils pour protéger leurs œuvres contre l’exploitation par les modèles d’IA. Glaze, Mist, et Anti-DreamBooth ajoutent des modifications invisibles aux pixels des images pour rendre leur interprétation difficile. Ces outils perturbent les systèmes d’apprentissage automatique en rendant le style artistique moins identifiable. Glaze, développé par l’Université de Chicago, est particulièrement populaire pour sa simplicité et son accessibilité.
Cependant, ces outils ne garantissent pas une protection totale. Les chercheurs en cybersécurité testent constamment ces solutions pour identifier leurs failles. Ainsi, ce qui fonctionne aujourd’hui pourrait ne plus être efficace demain. Les artistes doivent considérer ces outils comme une mesure temporaire et complémentaire pour préserver leur créativité face aux menaces croissantes.
Partagez vos œuvres autrement
Certaines plateformes comme DeviantArt, Flickr ou même Instagram sont devenues des cibles pour les entreprises d’IA. Ces sites hébergent des millions d’images qui peuvent être récupérées sans consentement pour former des modèles. En réponse, une alternative appelée Cara permet de partager des œuvres tout en interdisant leur utilisation par les systèmes d’apprentissage automatique.
Cara applique automatiquement des balises NoAI aux œuvres pour signaler qu’elles ne doivent pas être utilisées. Bien que cette approche repose sur la bonne volonté des entreprises d’IA, elle offre une protection supplémentaire. Les artistes peuvent également rendre leurs profils privés ou limiter l’accès à leurs œuvres, même si cela peut réduire leur visibilité auprès des clients.
Désactivez le scraping avec les lois sur la protection des données
Les lois sur la protection des données en Europe et au Royaume-Uni permettent de refuser l’utilisation de ses œuvres par les entreprises d’IA. En soumettant une demande, les artistes peuvent exiger que leurs images ne soient pas incluses dans les ensembles de données. Des outils comme Have I Been Trained aident à vérifier si des œuvres ont été récupérées sans autorisation.
Pour les œuvres identifiées, il est possible de les inscrire dans des registres tels que Do Not Train, soutenus par certaines entreprises comme Stability AI et Hugging Face. Bien que ces initiatives soient volontaires, elles montrent un premier pas vers le respect des droits des artistes. Cependant, dans les pays sans législation, ces demandes dépendent entièrement de la bonne volonté des entreprises.
Ajoutez du poison à vos créations pour l’unicité
Les chercheurs de l’Université de Chicago ont développé une autre solution innovante appelée Nightshade. Cet outil insère des modifications invisibles aux pixels des images. Cela perturbe les modèles d’IA qui tentent de les utiliser. Contrairement aux outils comme Glaze, Nightshade vise à empoisonner les systèmes. Ce faitles pousse à interpréter des objets de manière incorrecte.
Par exemple, des images de chiens peuvent ressembler à des chats, ou des sacs à main comme des grille-pain. Bien que cette méthode reste puissante, on doit la perfectionner et l’intégrer avec d’autres outils. Pour l’instant, les artistes doivent l’appliquer séparément, mais les chercheurs espèrent combiner Glaze et Nightshade dans un futur proche.
Restez maître de votre art et ne vous laissez pas faire
Protéger son travail contre l’exploitation par l’IA nécessite une combinaison d’outils et de stratégies. Bien qu’aucune solution ne soit parfaite, utiliser des plateformes comme Cara, appliquer des masques de style, ou tirer parti des lois sur la protection des données peut limiter les risques. Avec des innovations comme Nightshade, les artistes disposent désormais de moyens pour reprendre le contrôle face à cette menace croissante.
- Partager l'article :