Sora 2 est devenu si bon qu’il en est devenu un problème. Trop de qualité ! Alors, OpenAI a dû intégrer un système de contrôle des droits d’auteur. La raison ? La peur panique de se faire traîner en justice.
Lorsque la génération d’images s’apparente à la copie
Les dernières démos de Sora 2 ont montré qu’il pouvait générer des vidéos qui ne sont pas juste « dans le style de ». Non. C’est quasiment impossible de les distinguer d’un Disney, d’un plan de Wes Anderson ou d’un personnage protégé.
Et là, ça a fait paniquer les avocats d’OpenAI. Le risque est simple : si un utilisateur peut générer une scène avec Mickey Mouse ou un Stormtrooper, la boîte s’expose à des procès pour violation de propriété intellectuelle à une échelle industrielle.
La solution d’OpenAI, c’est de brider la machine
Le nouveau système, c’est une sorte de « détecteur de style » et de « bloqueur de personnages ». En clair : il analyse votre demande avant même de générer la vidéo. Si vous mentionnez une marque comme « Porsche », un personnage comme « Harry Potter » ou un style d’artiste trop reconnaissable, la demande sera refusée ou modifiée.
Cette censure préventive, c’est un vrai changement de mentalité pour OpenAI. On passe du « laboratoire de recherche » à une boîte qui cherche à limiter sa responsabilité juridique.
Cette décision, elle ne sort pas de nulle part
C’est la conséquence directe des procès qui sont déjà en cours. Le plus connu, c’est celui du New York Times contre OpenAI et Microsoft. L’accusation ? Avoir utilisé des millions d’articles sans permission pour entraîner ChatGPT. La défense d’OpenAI, c’est de parler de « Fair Use ». Mais les tribunaux n’ont pas encore tranché.
En bridant Sora 2, OpenAI anticipe une situation qui pourrait être encore pire pour eux. Parce que la violation de droits d’auteur sur des images est souvent jugée bien plus sévèrement que sur du texte.
Mais sur quelles données Sora a-t-il été entraîné ?
On se souvient de l’interview de Mira Murati, la directrice de la technologie d’OpenAI, au Wall Street Journal. Quand on lui a demandé s’ils avaient utilisé des vidéos de YouTube, elle a esquivé la question. Et ce silence, il en dit long.
Si Sora a « appris » à partir de milliards d’heures de contenu protégé, alors chaque vidéo qu’il génère pourrait être considérée comme illégitime. Le nouveau filtre, c’est donc juste un pansement sur un problème de fond.
Cette décision pourrait bien couper le monde de l’IA en deux
D’un côté, il y aura les modèles « grand public » comme Sora, bridés et sécurisés pour éviter les procès. Un peu comme Adobe Firefly, qui est entraîné sur des données sous licence.
De l’autre, il y aura les modèles open source, moins accessibles mais sans aucune restriction, qui continueront de jouer dans une zone grise sur le plan légal. Ce n’est donc plus une simple mise à jour technique. C’est le début d’une régulation, imposée par la peur des avocats.
- Partager l'article :

