in

Créateurs, réveillez-vous ! Voici Nightshade, l’outil qui va protéger vos œuvres contre le plagiat IA

Nightshade et Glaze contre le pagiat IA

En 2022, on a vu apparaître pour la première fois. Peu de temps après, de nouveaux modèles d’IA génératives ont vu le jour. Ce qui a vite suscité l’intérêt des travailleurs, en particulier les artistes. Aujourd’hui encore, les IA génératives telles que ChatGPT, , DALL-E, , continuent d’évoluer, atteignant des performances inégalées. Pour ces artistes justement, cela signifie que ces outils pourraient bel et bien utiliser leurs œuvres sans leur consentement. Heureusement qu’il existe un outil IA qui permet aux artistes de protéger leurs créations : .

A ce titre, Midjourney, DeviantArt, et Runaway AI font aujourd’hui l’objet d’une poursuite judiciaire pour non-respect du droit d’auteur.

Parallèlement, OpenAI a affirmé qu’il est quasiment impossible de former les modèles d’IA sans des données protégées par le droit d’auteur.

Alors ces géants de la technologies ont-ils tous bafoué ces droits pour arriver à leur fin ? Ou est-ce qu’il on eu le consentement ou l’autorisation des propriétaires ? La question reste sans réponse !

En tout cas, si vous êtes artistes, vous pouvez désormais protéger vos œuvres grâce à Nightshade, sorti il y a quelques mois.

YouTube video

Bientôt la fin du plagiat IA de vos œuvres avec Nightshade 

Nightshade a été créé par l’équipe de Shawn Shan, chercheur en à l’Université de Chicago.

Le concept vise à protéger le travail des artistes contre les modèles d’IA génératives. Il s’agit apparemment d’une version comparable à Glaze, un autre outil que Shan a créé pour protéger les œuvres des artistes.

Le principe de Glaze est d’empêcher les modèles d’IA de reproduire le style d’un artiste. Par exemple en ajoutant une couche modifiant radicalement le style artistique d’une œuvre.

L’IA à cet effet, ne pourra pas comprendre ni appliquer le style d’un œuvre auquel on a appliqué Glaze ou de NightShade.

Mais le problème, c’est que les artistes n’ont forcément pas de style signature facilement identifiable à protéger avec ce genre d’outil.

Shan indique d’ailleurs qu’un simple camouflage de style ne pourra pas réellement décourager les entreprises d’IA à copier ou à plagier l’œuvre en question.

C’est pourquoi son équipe a conçu ce nouvel outil : Nightshade, une version améliorée visant à mieux préserver les créations artistiques face aux capacités grandissantes des intelligences artificielles

L’étonnante riposte de Shan et de son équipe face aux abus des Gafam

Récemment, OpenAI a lancé Sora, son nouveau modèle d’IA génératrice de vidéo. Sauf que jusqu’à aujourd’hui, nous ne savons pas encore d’où proviennent les données d’entraînement du modèle.

Il en est de même pour les plus récents modèles générateurs de vidéos développés par les entreprises d’IA.

Face à cela, l’équipe de Shan vise à étendre les services proposés en incluant la prise en charge de la protection de vidéos des artistes offertes par Nightshade.

Bien que les outils Nightshade et Glaze procurent temporairement un certain niveau de protection aux artistes, Shawn Shan insiste sur le fait qu’ils ne représentent pas une solution durable.

En particulier face au problème de l’appropriation non consentie des œuvres pour la formation des systèmes d’IA générative.

C’est pourquoi son équipe de recherche œuvre en étroite collaboration avec les instances réglementaires compétentes.

Notamment le Bureau américain des droits d’auteur, la FTC (Federal Trade Commission) ainsi que d’autres agences aux États-Unis et au sein de l’Union européenne.

L’objectif est d’élaborer un cadre juridique plus robuste garantissant la préservation des droits des artistes sur le long terme.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *