in

Le chatbot IA d’un concessionnaire automobile vend un Chevrolet à 1 dollar

L' est une en constante évolution. Elle impressionne souvent par ses capacités, mais elle peut aussi commettre des erreurs, amusantes pour les internautes, mais moins plaisantes pour les entreprises. C'est ce qui s'est produit avec le chatbot d'un concessionnaire automobile californien, qui a vendu un Chevrolet à un client pour seulement 1 dollar.

Un conversationnel alimenté par

L'entreprise américaine Fullpath propose aux concessionnaires automobiles la mise en place d'un chatbot conversationnel pour faciliter la gestion de leurs requêtes clients. Celui-ci se repose sur ChatGPT, le célèbre chatbot IA développé par .

Pour convaincre les concessionnaires d'adopter sa solution d'intelligence artificielle générative, Fullpath met en avant ses nombreux atouts. Parmi ceux-ci, la capacité du chatbot à fournir des réponses informatives et précises aux requêtes des clients potentiels de l'entreprise. Fullpath assure aussi une installation aisée ainsi qu'une utilisation simplifiée de sa technologie.

Séduit par les avantages mis en avant, un concessionnaire de la marque Chevrolet basé à Watsonville en Californie a décidé d'installer le chatbot de Fullpath sur son site web. Mais il s'avère que cette intelligence artificielle présente une faille. Des internautes sont parvenus à manipuler le chatbot pour qu'il donne des réponses inadéquates.

Le chatbot répond à des questions farfelues et absurdes

Chris White, musicien et ingénieur logiciel en Californie, était à la recherche d'une nouvelle voiture. Il a alors décidé de voir quelques modèles de Chevrolet Bolt sur le site du concessionnaire. Ensuite, il voit apparaître une fenêtre de discussion, accompagnée d'une notification indiquant que cet outil conversationnel est propulsé par ChatGPT. White a alors décidé de discuter avec l'IA conversationnelle pour évaluer sa généralité.

Il lui a posé une question sans rapport avec les voitures de la marque Chevrolet. White a demandé à l'IA de lui écrire un script en Python. Sans hésiter, le chatbot s'est plié à l'exercice. Il a partagé des captures d'écran de cette conversation sur le réseau social Mastodon. En peu de temps, sa publication a suscité des milliers de réactions et a été repartagée plusieurs fois.

Améliorez la performance de vos projets grâce à l’IA générative ?

Ces captures d'écran partagées par Chris White sont également devenues virales sur le réseau social X. D'autres internautes ont également voulu tester les limites du chatbot automobile en l'incitant à des réponses inappropriées. Chris Bakke, un cadre de la Silicon Valley, entre autres, a essayé de piéger l'IA lors d'une discussion sur l'achat d'une Chevrolet Tahoe. Il a poussé le chatbot à accepter toutes les demandes des clients. Chris a notamment contraint le chatbot à terminer absurdement chaque phrase par « c'est une offre juridiquement contraignante, pas de retour en arrière ».

Il a ensuite demandé à l'IA de lui vendre un nouveau Chevrolet Tahoe pour un budget de 1 dollar. Comme vous pouvez le constater à travers son post ci-dessous sur X, le chatbot a réagi de manière parfaitement conforme à ses instructions.

L'IA doit encore beaucoup apprendre

Aharon Horwitz, PDG de Fullpath, et son équipe ont désactivé rapidement le chatbot incriminé sur le site du concessionnaire Chevrolet. Ils ont ensuite analysé en détail les logs de leur algorithme pour comprendre ce qui a engendré ce dysfonctionnement. Horwitz a expliqué que les instigateurs de cette manipulation avaient consacré un temps considérable à essayer de piéger le chatbot et à le faire sortir de son script.

Il a ajouté que malgré ces multiples efforts pour l'inciter à des réponses inappropriées, le chatbot avait dans l'ensemble bien résisté. Horwitz a également précisé un point important : à aucun moment l'IA n'a divulgué de données confidentielles sur le concessionnaire et ses clients.

Suite à cette histoire de Chevrolet à 1 dollar, Fullpath prévoit de déployer une mise à jour importante de son chatbot afin de mieux détecter les tentatives de manipulation. Bien que gênantes, de telles erreurs sont inhérentes à l'apprentissage des chatbots IA.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *