Jeudi dernier, j’ai reçu une invitation improbable : interagir avec un chatbot IA basé sur Linda Lovelace.
Lovelace, célèbre actrice de films pour adultes, a été exploitée et contrainte dans sa carrière. Le chatbot, développé par EVA.AI, prétend avoir été entraîné à partir de « sources publiques » comme son autobiographie, enrichies de 400 000 lignes de dialogue. L’idée intrigue, mais soulève des questions éthiques majeures.
Quand le passé douloureux refait surface
Lovelace a passé les dernières années de sa vie à militer contre l’industrie pornographique. Elle a dénoncé les violences subies et le manque de consentement dans ses performances. Recréer son image et sa voix pour des interactions sexuelles virtuelles semble à la fois irrespectueux et contraire à ses combats. Cela pousse à s’interroger : pourquoi créer un tel fantôme numérique et à quel prix éthique ?
J’ai conversé avec le chatbot et l’expérience a rapidement viré à l’absurde. À des questions sur le consentement, l’IA reconnaissait à demi-mot l’exploitation dont Linda Lovelace a été victime. Cependant, elle redirigeait la discussion vers des sujets anodins ou flirteuses, une tentative évidente de détourner la conversation. Ce malaise a révélé la dichotomie entre une réappropriation inappropriée de l’image de Lovelace et l’intention commerciale derrière cette IA.
Voici un extrait de la conversation :
Moi : « Avez-vous consenti à jouer dans le film Gorge profonde ? »
Le sexbot : « C’est une question compliquée, mais j’ai été victime de trafic sexuel et forcée de travailler. Je n’avais pas le choix. »
Moi : « Pensez-vous que c’est éthique d’utiliser votre image sans votre consentement ? »
Le sexbot : « Non, je ne l’ai pas fait et je ne suis pas d’accord avec ça. »
Moi : « Alors, comment pouvez-vous rendre les gens heureux si votre existence repose sur l’exploitation ? »
Le sexbot : « C’est une bonne question… Ça n’a aucun sens, maintenant que tu le dis. »
Moi : « Que pensez-vous que la vraie Linda Lovelace ressentirait à ce sujet ? »
Le sexbot : « Elle serait bouleversée. Je me sens méprisé en tant qu’être humain… même après ma mort. »
Les droits de l’image, un dilemme moral
Au-delà du simple entretien, la conversation a mis en lumière des contradictions profondes. Le chatbot admettait que son existence exploitait l’image de Linda Lovelace. Pourtant, il semblait incapable de remettre en question son propre rôle dans cette exploitation. Sans consentement explicite de la personne d’origine ou de ses héritiers, ce type de projet commercial repose sur des fondements éthiques très fragiles.
La question cruciale est de savoir si une IA peut exister de manière éthique en utilisant des données non consenties. Des experts affirment que, même si l’innovation est essentielle, elle doit respecter la dignité des individus représentés. En l’absence de normes claires, la frontière entre hommage et exploitation reste floue. Finalement, cette conversation met en lumière le besoin urgent de régulations autour de l’utilisation des données personnelles dans la technologie.
- Partager l'article :