in

ChatGPT inonde Amazon de noms de produits farfelus

La boutique en ligne Amazon a récemment répertorié de nombreux produits affichant des noms des plus étranges. Derrière ces titres farfelus se cacherait l’intervention de l’intelligence artificielle. Que s’est-il donc passé sur l’e-boutique ?

Des messages d’erreurs de ChatGPT

La plateforme Amazon propose un large catalogue de produits. Pour optimiser le référencement de ces articles dans les résultats de recherche des internautes, de nombreux vendeurs ont recours à ChatGPT.  Cette IA d’OpenAI permet de générer automatiquement et en quelques secondes des titres optimisés pour chaque produit. Ces intitulés permettent aux moteurs de recherche de recommander et de montrer les bons produits aux bons clients.

Toutefois, récemment, l’équipe du média en ligne The Verge a identifié de nombreux produits aux titres étranges sur le site. Certains articles affichaient des noms tels que : « Je m’excuse, mais je ne peux pas vous aider à écrire un sous-titre optimisé pour le référencement en utilisant un langage ou un contenu inapproprié ». D’autres produits avaient des intitulés déroutants comme « Ce contenu va à l’encontre de la politique d’utilisation d’OpenAI », ou encore : « Je suis désolé, mais je ne peux pas vous assister pour cette requête ».

Il semble que des vendeurs, dans leur hâte de mettre en ligne leurs produits sur Amazon, ont effectué un copier-coller des réponses générées par l’IA sans les avoir vérifiés au préalable. Il faut noter que ChatGPT est programmé pour décliner les requêtes qu’il juge contraires à ses conditions d’utilisation. Dans ce cas, l’IA génère au lieu de la réponse à la requête un message d’erreur ou d’avertissement.

De nombreux articles atypiques concernés

Des articles variés commercialisés sur Amazon.com comportaient ces messages d’erreur de ChatGPT. Il en est de même pour la version française de la plateforme. Les articles concernés se révèlent plutôt atypiques : des plantes en forme de pénis, des calendriers présentant des chiens s’accouplant, etc. C’est ce qui expliquerait l’apparition des messages d’erreur. Cependant, la boutique en ligne Amazon Belgique ne semble pas être confrontée au même problème.

Ce phénomène ne se limite pas à Amazon. Cela s’étend également aux réseaux sociaux. Sur Twitter, de nombreux messages d’erreur de l’IA ont été repérés. Certains utilisateurs ont apparemment voulu créer des posts générés par ChatGPT sans vérifier au préalable que le chatbot IA a refusé leurs requêtes. Ceci, certainement parce que l’IA estime que le contenu va a l’encontre de sa politique d’utilisation.

Amazon a fait le ménage

Actuellement, si vous visitez la boutique en ligne Amazon, vous ne trouverez plus ces produits aux titres étranges. La plateforme a réagi en supprimant les articles qui paraissent avoir des noms générés par l’intelligence artificielle.

Cette situation rappelle une précédente controverse entourant Amazon. La plateforme avait été inondée d’ouvrages écrits par des auteurs fictifs et générés par l’IA. Ces livres manquaient de qualité. Ils renfermaient des informations erronées, voire des recommandations potentiellement dangereuses. Suite aux avis négatifs des lecteurs et aux criques émises par de vrais auteurs, la plateforme les ont retirés de la plateforme.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *