Les chatbots IA pourraient influencer la formation de faux souvenirs. C’est la conclusion d’une récente étude menée par des chercheurs du MIT et de l’Université de Californie à Irvine. Leur enquête met en lumière les risques potentiels des interactions entre les humains et les agents conversationnels d’intelligence artificielle.
Des chercheurs ont démontré que les interactions avec des IA génératives, notamment les chatbots, peuvent altérer la mémoire des individus. Ce phénomène devient particulièrement inquiétant lorsqu’on envisage leur utilisation dans des contextes sensibles, tels que les entretiens avec des témoins oculaires.
Une expérience en deux phases
Pour tester cette hypothèse, les chercheurs ont recruté 200 participants et les ont soumis à une expérience en deux phases. Dans une première étape, les participants ont été mis dans la peau de témoins oculaires en visionnant une vidéo silencieuse de deux minutes et demie montrant un vol à main armée. Les chercheurs ont ensuite réparti les participants en quatre groupes, chacun soumis à des conditions expérimentales différentes.
Le premier groupe servait de témoin et répondait à des questions de suivi sans aucune influence extérieure.
Le deuxième groupe, quant à lui, était confronté à des questions trompeuses via Google Forms.
Le troisième groupe interagissait avec un chatbot IA dont les réponses étaient pré-écrites.
Enfin, le dernier groupe conversait avec un chatbot IA génératif utilisant le modèle GPT-4, ce qui lui permettait de générer des réponses plus naturelles et variées. L’objectif était de comparer l’influence de ces conditions sur la formation de faux souvenirs.
Les résultats ont révélé que les participants exposés aux questions trompeuses du chatbot génératif présentaient un taux significativement plus élevé de faux souvenirs. Une semaine plus tard, ces faux souvenirs persistaient chez une grande partie des participants.
Les chercheurs ont constaté que l’ajout d’un chatbot IA génératif augmentait le nombre de faux souvenirs de manière significative. Cette condition expérimentale a montré une augmentation bien plus importante que les autres.
Une amplification préoccupante
L’étude montre que les chatbots IA ne se contentent pas seulement de fournir des informations. Ils influencent également la façon dont les utilisateurs mémorisent ces informations. L’utilisation de chatbots IA a entraîné une augmentation de 200% des faux souvenirs.
Les chatbots IA se sont révélés trois fois plus efficaces pour créer de faux souvenirs. Une semaine plus tard, 36,8 % des participants ayant interagi avec le chatbot IA ont retenu des informations erronées.
Implications et réflexions futures
Ces conclusions soulignent l’importance d’une réflexion approfondie sur l’utilisation des chatbots IA dans des contextes critiques. Les chercheurs appellent à une vigilance accrue lors de l’implémentation de ces technologies, en particulier dans les situations où la mémoire humaine joue un rôle crucial.
Face à ces risques, les auteurs plaident pour une régulation stricte des chatbots IA, notamment dans le domaine de la manipulation des souvenirs. Des cadres éthiques rigoureux sont indispensables pour éviter toute manipulation involontaire des souvenirs par les chatbots IA. Il est essentiel de protéger la mémoire humaine des influences potentiellement dangereuses de ces technologies émergentes.
- Partager l'article :