Le 6 août dernier, OpenAI envisageait de déployer un outil de détection de contenu IA, surtout ChatGPT, mais Sam Altman a hésité au moment de prendre sa décision. Aujourd’hui, les experts avances que ni les humains, ni les machines ne peuvent vraiment détecter si oui ou non, un contenu, que ce soit une image, un texte, du code, a été généré par intelligence artificielle.
Ce qui pourrait impacter négativement la communication numérique, en particulier l’interaction homme-machine.
On peut même dire au revoir à la créativité humaine si les grandes entreprises d’IA n’arrivent pas à mettre en place des mesures strictes contre la prolifération de deepfakes ou de fausses informations.
Or, jusqu’à aujourd’hui, aucun de ces acteurs n’a pu réellement relever ce défi. Adobe, par exemple, vient d’annoncer un outil de retouche d’images qui nécessiterait des mesures comme le test de Turing. Mais comment y parvenir ?
Il est de plus en plus difficile de différencier le contenu humain et celui généré par l’IA
Des évaluations ont récemment été réalisées par une équipe de chercheurs en se basant sur un test de Turing classique.
Lors des examens, ces chercheurs ont créé une simulation d’une conversation entre un interlocuteur humain et un modèle d’IA.
L’objectif était d’identifier qui est qui. Les juges humains, chargés de lire les transcriptions, n’ont pas fait mieux que le hasard pour distinguer les participants générés par l’IA.
Encore plus étonnant, les modèles d’IA comme GPT-3.5 et GPT-4, lorsqu’ils ont tenté la même tâche, ont obtenu des résultats tout aussi faibles.
Mais ce qui semble le plus intrigant, c’est que l’interlocuteur IA le plus sophistiqué était plus souvent perçu comme humain que les véritables participants humains eux-mêmes.
Conclusion : il est de plus en plus difficile de différencier un contenu humain et un celui généré par IA.
Savez-vous avec qui vous interagissez ?
Le vrai problème, c’est que les systèmes d’IA gagnent du terrain. L’espace numérique commence alors à fourmiller de modèles et d’agents d’intelligence artificielle.
Il est donc de plus en plus difficile d’identifier si nous interagissons avec un humain ou avec un robot.
C’est un cas que nous voyons fréquemment quand on fait appel à un support client. Des services qui utilisent un chatbot pour faciliter l’échange.
Il en est de même quand nous faisons nos recherches sur le web. On ne sait même plus si l’article qu’on lit a été généré par IA ou rédigé par un rédacteur humain malgré les « red flags » de l’IA.
Cela dit, ne serait-il pas primordial de trouver des méthodes de détection plus fiables. Les anciens détecteurs d’IA alimentés par IA n’ont pas fait leur preuve.
Ou est-ce que la décision la plus judicieuse, c’est d’accepter la complexité des défis auxquels nous nous confrontons ?
En tout cas, les dés sont lancés et on ne peut plus revenir en arrière. La meilleure solution serait de mettre en avant notre originalité et nos traits distinctifs. Ce sont les deux qualités que les machines n’auront jamais.
- Partager l'article :