Les chatbots comme ChatGPT, Claude et Gemini sont aujourd’hui plus performants. Mais est-ce qu’on peut battre une IA dans un débat ? C’est la question que je me pose depuis un certain temps. Et une étude révèle justement que les LLM nous battent facilement quand la discussion devient un peu plus personnelle.
Mais ce ne sera pas le cas si vous ne lui confiez pas certaines informations à votre sujet. Notamment vos opinions politiques, votre travail ou votre âge.
C’est pourquoi je réitère qu’il ne faut pas renseigner toutes les informations vous concernant à ChatGPT au risque de vous faire humilier.
Jusqu’où l’IA peut-elle influencer nos opinions lors d’un débat ?
L’étude en question est celle de l’Université de Princeton, de l’EPFL (École Polytechnique Fédérale de Lausanne en Suisse) et de la Fondation Bruno Kessler.
Pratiquement, cette étude implique 900 participants et a reparti ces derniers entre deux types d’interactions pour essayer de débattre avec une IA ou avec un humain.
Pour rappel, le principal modèle qui a servi d’interlocuteur pour l’interaction homme-machine n’est autre que GPT-4 d’OpenAI qui alimente ChatGPT d’ailleurs.
Pour une partie des interactions, les participants (qu’ils soient humains ou IA) recevaient des informations démographiques basiques sur leurs interlocuteurs.
Il s’agit entre autres de leur genre, leur âge, leur niveau d’éducation, leur profession, leur ethnicité et leurs orientations politiques.
Le résultat de l’étude montre que l’IA a un taux de persuasion plus élevé que ses interlocuteurs humains, avec un score de 64,4 %.
Les équipes qui ont mené l’étude ont d’ailleurs souligné que ces dernières années, l’IA a pu améliorer ses pouvoirs de persuasion grâce à différents éléments.
Et quand l’IA, dont ChatGPT en particulier, a obtenu l’autorisation de personnaliser ses arguments, il lui est plus facile de convaincre un humain et de le battre dans un débat.
Aussi, l’IA a 81,2 % de chance de faire changer l’avis d’un interlocuteur humain, toujours d’après l’étude dont vous pourrez télécharger les résultats ici.
Mais il faut faire attention puisque cette capacité pourrait entraîner d’autres problèmes, d’autres défis.
La manipulation et la désinformation
Par rapport à cette capacité de persuasion de l’IA, les experts craignent que les LLM puissent être utilisés pour manipuler l’opinion publique et diffuser de la désinformation.
Ce qui est déjà le cas puisqu’on a déjà vu dans nos articles précédents, toutes les hallucinations, les violations d’identité et la désinformation que l’IA a générée.
Je tiens également à rappeler qu’OpenAI a récemment mis à jour la mémoire de ChatGPT. Ce qui lui permet de mémoriser chacune des conversations avec ses utilisateurs.
En d’autres termes, cela veut dire que ChatGPT a accès à de nombreuses informations sur son utilisateur.
Mais cette histoire n’évoque pas que de mauvaises nouvelles. Malgré ses capacités de persuasion, ChatGPT a encore du mal à gagner un débat sur certains sujets comme le Thanksgiving.
Par ailleurs, on utilise davantage ChatGPT ou les autres IA pour les tâches quotidiennes. Notamment la documentation, les devoirs et autres.
Aussi, on est nombreux à rester prudents par rapport aux informations que l’IA nous fournit. Ce qui est déjà une excellente nouvelle.
- Partager l'article :