Est-ce que l’IA peut commettre des erreurs et dépeint des innocents en criminels ? Découvrez la vérité à travers l’histoire de Martin Bernklau, un journaliste allemand qui a été faussement jugé par l’IA.
L’IA est aujourd’hui utilisée dans différents domaines, et elle commence déjà à faire son entrée dans la justice et les enquêtes policières. En effet, certains profileurs s’en servent déjà pour mener des enquêtes et investigations criminelles. Mais, est-ce que l’IA est fiable à 100 % ? Voici des cas, non isolés, qui risquent de vous donner la chair de poule, notamment lorsque l’IA dépeint des innocents en criminels.
Lorsque l’IA hallucine ou dépeint des innocents en criminels…
Avant la mésaventure de Bernklau, des récits ont déjà démontré que certains outils IA, conçus pour fournir des informations précises et efficaces, ont déjà induit ses utilisateurs en erreurs. Celles-ci sont communément appelées « hallucinations » de l’IA. Cela se présente lorsque l’outil commet des dérapages en présentant des informations fictives comme réelles.
Martin Bernklau a découvert cette erreur choquante lorsqu’il a fait une recherche sur lui-même avec Copilot de Microsoft. À sa grande stupeur, l’outil IA le décrivait comme un criminel, mentionnant des crimes graves tels que des agressions, des évasions d’asile et même un rôle de trafiquant de drogue.
Mais pourquoi Copilot avait présenté le journaliste comme criminel ? Tout simplement parce que l’IA avait fusionné son profil personnel avec les affaires criminelles qu’il avait rapportées, associant son nom aux crimes relatés.
Le plus troublant est que Copilot a publié de fausses informations personnelles, y compris l’adresse et le numéro de téléphone de Bernklau. Les informations erronées, accessibles au public, l’exposaient à des dangers concrets et à une atteinte majeure à sa vie privée.
Cette mésaventure de Bernklau n’est pas un cas isolé. Aux États-Unis, une situation similaire a conduit un animateur radio, Mark Walters, à poursuivre OpenAI. L’outil IA avait faussement prétendu que Walters était impliqué dans des affaires d’escroquerie, des accusations complètement infondées. Le procès pourrait bien établir un précédent pour les responsabilités des entreprises d’IA en cas de diffamation.
Est-ce que l’IA et la justice pourront donc faire bon ménage ?
L’intelligence artificielle a fait des erreurs et a dépeint des innocents en criminels. Mais, ironiquement, malgré ses imperfections, l’IA dans le monde juridique est de plus en plus vulgarisée. Cela a pour but de faciliter la gestion des affaires et produire des documents légaux. En Inde, les tribunaux utilisent l’IA pour traduire les procès dans les dialectes locaux. Cela permet entre autres de simplifier la compréhension du procès par tous les intervenants.
Par contre, en Australie, des tribunaux et commissions examinent l’intégration de l’IA dans le traitement des affaires judiciaires. Cependant, Catherine Terry, avocate et présidente d’une commission sur la réforme de la justice en Australie, met en garde contre les risques d’une dépendance excessive. Elle affirme que « L’IA pourrait altérer la voix des témoins, élément essentiel de la preuve. »
C’est certainement la raison pour laquelle certains tribunaux australiens, comme ceux du Queensland et de Victoria, exigent que toute utilisation d’IA dans des documents juridiques présentés à la cour soit explicitement signalée. Mais est-ce que cela est suffisant pour limiter les cas d’hallucinations de l’IA dans les affaires judiciaires ?
Pour ma part, la mise en place d’une réglementation stricte de l’IA dans la justice est indispensable. L’utilisation de cette technologie doit être accompagnée de contrôles rigoureux. Cela évitera les erreurs coûteuses mais aussi garantira une utilisation éthique de l’IA et responsable.
- Partager l'article :