On approche de plus en plus de l’AGI et personnellement, je me demande si bientôt, l’IA aura le libre arbitre. En tout cas, une étude indique que les agents IA, de moins certains d’entre eux, répondent aux trois critères de la liberté de décision.
Le premier critère n’est autre que l’agence. Le second, le choix, et le troisième, le contrôle. Les chercheurs ont alors évalué certains agents pour voir s’ils présentent vraiment le libre arbitre.
Cette étude a bien sa place puisqu’au fur et à mesure où l’IA occupe des fonctions plus autonomes, les problématiques de responsabilité éthique évoluent.
Pourtant, afin que les systèmes d’IA puissent prendre des décisions, ils doivent disposer d’une capacité de raisonnement éthique. Mais est-ce le cas ?
Les agents IA prennent désormais ses propres décisions
Frank Martela, philosophe et chercheur en psychologie, la progression de l’IA se fait de manière exponentielle.
« Autrefois, les dilemmes éthiques n’étaient qu’abstraction. Aujourd’hui, ils ne relèvent plus de la science-fiction. Les questions morales sont désormais réelles », a-t-il ajouté.
Aussi, les recherches récentes de Martela démontrent que l’IA générative répond dorénavant aux trois critères philosophiques fondamentaux définissant le libre arbitre.
L’IA peut à présent orienter ses actions vers des buts précis, effectuer de véritables choix et maintenir la maîtrise de ses comportements.
Alors, est-ce une bonne ou une mauvaise nouvelle ? On verra plus tard, mais en attendant, deux agents IA disposeraient du libre arbitre selon Martela.
Spitenik et Voyager dans Minecraft
L’étude de Martela s’appuie sur les théories de Daniel Dennett et Christian List. Il a donc étudié deux agents IA, dont Voyager dans Minecraft et Spitenik, des drones tueurs fictifs.
Les deux agents IA répondent parfaitement aux trois critères de libre arbitre. Ce qui veut dire que les entreprises, peut-être sans en prendre conscience, donnent davantage de pouvoir et de liberté à l’intelligence artificielle.
Et toujours d’après Martela, on a inconsciemment donné l’autorité morale aux agents IA. Pourtant, le chercheur ajoute qu’à ses débuts, l’IA n’avait pas encore de repères en termes de moralité.
C’est peut-être la raison pour laquelle Sam Altman a décidé de retirer une mise à jour de ChatGPT qui, à cause de sa flagornerie, avait tendance à halluciner et à générer de fausses réponses.
La solution, selon Martela, c’est de considérer l’IA comme une personne adulte et de ne pas la former comme si c’était un enfant.
Il faudra également que les entreprises comme OpenAI, Google ou Anthropic puissent parvenir à apprendre leurs modèles à être plus moraux pour pouvoir prendre le bon choix.
- Partager l'article :