in ,

Cette appli de deepfake porno prétend soutenir les victimes de l’IA avec des dons

Clothoff, une spécialisée dans les deepfakes pornographiques, prétend aider les victimes de l’IA en faisant des dons à une mystérieuse organisation. Pourtant, en creusant, tout semble indiquer que cette initiative cache bien plus qu’un simple geste de charité.

Clothoff affirme faire des dons à ASU Label, une organisation censée défendre les droits des personnes affectées par l’IA. Cependant, plusieurs éléments jettent un doute sur cette prétendue mission humanitaire.

ASU Label se présente comme une organisation à but non lucratif. Par contre, son site web ne fournit aucune information sur ses fondateurs ni sur sa localisation. Pire encore, aucun document officiel ne prouve son existence légale.

Lorsqu’on les interroge, ses représentants refusent de dévoiler des preuves de leur statut d’organisme à but non lucratif. Selon eux, révéler ces informations nuirait à leur mission en raison de « pressions extérieures ». Cette explication floue soulève des interrogations.

Le site d’ASU Label affiche des articles alertant sur les dangers des deepfakes. En revanche, l’organisation collabore activement avec Clothoff, l’un des plus grands producteurs de contenus deepfake non consentis. Cette contradiction laisse perplexe.

YouTube video

Des liens étroits avec Clothoff

En décembre 2024, Clothoff a commencé à mentionner ASU Label sur ses sites. L’application affirme leur verser des dons pour « soutenir les victimes de l’IA ». Cependant, aucune trace de ces paiements n’a été retrouvée.

Les deux entités confirment leur collaboration. ASU Label explique que Clothoff l’aide dans ses recherches sur la régulation des deepfakes. De son côté, Clothoff prétend soutenir ASU Label en fournissant des analyses. Malgré ces affirmations, aucun document officiel ne prouve ces échanges.

Par ailleurs, un détail renforce le doute. Une de plusieurs pages du site ASU Label avec GPTZero et ZeroGPT montre que 90 à 100 % des textes ont été générés par l’IA. Même les articles dénonçant les deepfakes seraient automatisés.

Un réseau opaque et des pratiques douteuses

Clothoff ne divulgue pas l’identité de ses dirigeants. Pire encore, son site change régulièrement les noms des entreprises censées la gérer. Lorsqu’une société de développement a découvert son nom sur le site de Clothoff, elle a immédiatement demandé sa suppression.

En réponse, Clothoff a remplacé son nom par celui d’une autre entreprise, cette fois une société d’investissement en IA. Ce schéma s’est répété au moins quatre fois depuis 2023, selon les enquêteurs.

Les deepfakes pornographiques sont de plus en plus encadrés par la loi. Aux États-Unis, la loi Take It Down criminalise la diffusion d’images intimes non consenties. Au Royaume-Uni, un projet de loi prévoit des peines pouvant aller jusqu’à cinq ans de prison pour l’utilisation d’outils d’IA destinés à produire du contenu pédopornographique.

Clothoff, quant à elle, minimise ces régulations. Selon son équipe, « l’évolution de l’IA est inévitable et toute tentative de restriction est vouée à l’échec ». Cette déclaration souligne l’absence totale de prise de responsabilité de la plateforme.

Don Clothoff

Une tentative maladroite de redorer son image

L’affirmation selon laquelle Clothoff aide les victimes de l’IA via des dons semble avant tout une stratégie de communication. Ni ASU Label ni Clothoff ne fournissent de preuve concrète de leurs actions. De plus, leurs pratiques contradictoires laissent penser que cette alliance sert avant tout à améliorer l’image d’une application controversée.

Difficile donc de considérer cette initiative comme une réelle démarche humanitaire. Dans ce contexte, il devient urgent de s’interroger sur les intentions réelles de ces acteurs et sur leur impact sur les victimes des deepfakes.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *