GPT-3, le générateur de texte basé sur l’intelligence artificielle est capable de produire une désinformation. Les fausses informations écrites par l’algorithme ont convaincu les lecteurs.
Avec l’intelligence artificielle, il est aujourd’hui possible de créer des fausses nouvelles convaincantes. Des chercheurs de Georgetown ont utilisé GPT-3 pour écrire des tweets sur des sujets de débats internationaux, et les lecteurs ont été dupés.
Créer une désinformation avec GPT-3
Le GPT-3 ou Generative Pre-Training Transformer 3 est un générateur de texte développé par OpenAI. Il s’agit d’un algorithme d’intelligence artificielle capable d’écrire et de parler comme un humain. Après un premier texte cohérent, les créateurs on fait une mise en garde contre la possibilité d’utiliser GPT-3 comme un outil pour la désinformation.
À l’Université de Georgetown, des membres du Centre pour la Sécurité et des Technologies Émergentes ont utilisé l’algorithme pour produire des infos. Les textes écrits incluaient de faux récits, des articles de presse détournés ainsi que des tweets sur le changement climatique et les affaires étrangères.
Des experts en désinformation ont démontré à quel point cet outil est efficace pour duper les lecteurs. Selon eux, GPT-3 peut très bien être une source de désinformation difficile à soupçonner.
Les enjeux de la désinformation
Les chercheurs de l’Université de Gerogetown affirment que ce type d’algorithme de langage est très efficace pour générer des messages assez courts pour les réseaux sociaux. Au cours de l’étude, ils ont constaté que les lecteurs volontaires étaient influencés par la désinformation générée par GPT-3, sur des questions de diplomatie internationale. Effectivement, après avoir lu ces messages, un sondage a démontré que le pourcentage de leur opinion politique avait changé.
Rappelons que GPT-3 puise ses ressources à partir de textes trouvés sur le Web. La véritable force de l’algorithme réside dans sa capacité à traiter d’énormes données pour maîtriser parfaitement le langage. Néanmoins, le système n’est pas sans faille. Dans certains cas, il peut générer des textes incohérents, parfois même inconvenants. De plus, quand il s’agit de créer de longs articles, l’algorithme n’est plus aussi fiable.
Quoi qu’il en soit, les équipes d’OpenAI assurent qu’ils luttent activement contre les risques liés à la sécurité. Selon leur porte-parole, ils suivent de près les utilisateurs de GPT-3 pour prévenir l’usage abusif du logiciel, comme la désinformation.
- Partager l'article :