in

Cet outil va démasquer tous les tricheurs de ChatGPT, c’est la panique !

Outil de détection d'IA ChatGPT

Nous avons eu vent du déploiement du mode vocal avance de il y a quelques jours. Mais pas plus tard qu’hier, annonce un nouvel outil de détection de contenu généré par ChatGPT. Sauf que la fonctionnalité en question a été mise en ligne il y a déjà deux ans. Il suffirait alors de l’activer pour détecter tous les faux articles publiés sur le web.

De leur côté, et ses équipes hésitent encore par rapport au déploiement de cet outil de détection de ChatGPT.

Ils redoutent cependant que le mécontentement des tricheurs, ou du moins les ChatGPT addicts, puissent retourner contre eux.

YouTube video

Tatouage de textes : la marque indélébile d’OpenAI

Contrairement à ce que l’on pourrait imaginer, il ne s’agit pas de l’outil qu’OpenAI a dévoilé il y a près d’un an.

Cette nouvelle version est plus précise et fait référence à un signe imprimé sur le texte et seul l’outil de détection peut identifier.

« Ce détecteur de textes générés par ChatGPT a un taux de précision de 99,9 %. Ce qui est largement supérieur à l’ancienne version que l’on a publiée », déclare le porte-parole d’OpenAI dans un article du Wall Street Journal.

Mais d’après les déclarations d’OpenAI, l’outil n’est pas exempt de faille. On peut facilement le contourner en reformulant à plusieurs reprises le texte fourni.

Sinon, il est également possible de prendre cet outil de détection à revers en insérant entre chaque mot un caractère spécial avant de le supprimer.

YouTube video

Alors quel intérêt de déployer un outil qui peut facilement être contourné ?

Une question de temps avant le décodage

Mis à part le contournement par reformulation, le nouvel outil de détection de ChatGPT est aussi publié pour un public plus large.

Conséquence : tôt ou tard, quelqu’un finira par décoder la technique de tatouage de texte qu’OpenAI a adoptée.

On peut d’ailleurs craindre que cet outil désavantage les personnes dont l’anglais n’est pas la langue maternelle. Un problème déjà constaté avec d’autres outils de détection de l’IA.

Peut-être qu’il faut adopter l’approche de quand elle a lancé SynthID, son système de détection de contenu IA.

YouTube video

Entre précision et prudence

Les plus grandes entreprises de innovent constamment dans la création et la diffusion en ligne de contenus générés par l’IA. C’est valable pour n’importe quel type de contenu, que ce soit du texte ou des images.

Cela dit, les méthodes qui permettent d’identifier ces contenus artificiels peinent à suivre le rythme.

Dans le milieu éducatif par exemple, ce décalage est particulièrement problématique. Les enseignants, de leur côté, éprouvent de grandes difficultés à déterminer si les travaux remis par leurs élèves sont l’œuvre de ChatGPT.

Même les outils spécialisés, comme ceux proposés par Turnitin, peuvent se tromper dans jusqu’à 15 % des cas.

L’entreprise justifie cette marge d’erreur par sa volonté de limiter les cas où un contenu authentique serait faussement identifié comme artificiel.

OpenAI face à un dilemme stratégique

Quoi qu’il en soit, l’impact de la génération de textes par intelligence artificielle dépasse le cadre éducatif.

Selon un rapport, plusieurs écrivains professionnels ont été injustement accusés d’avoir eu recours à l’IA pour accomplir leurs tâches. Ce qui a d’ailleurs mené à leur licenciement.

Or, d’après les experts, les outils de détection d’IA externes employés dans ces situations s’avèrent souvent bien moins précis que ce que prétendent leurs concepteurs.

En tout cas, OpenAI hésite encore à lancer ou non son outil de détection de contenu généré par ChatGPT.

Le géant californien craint que ses utilisateurs n’apprécient pas sa décision. Et vous, qu’en pensez-vous ? Le débat est ouvert dans les commentaires.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *