Le laboratoire de recherche Google DeepMind semble aujourd’hui confirmer les angoisses exprimées par de nombreux spécialistes au sujet de l’intelligence artificielle. Une étude révèle que les agents IA sont capables d’opter pour la compétition plutôt que la coopération, au point de choisir d’éliminer leurs rivaux.
À l’aide d’un jeu vidéo, les chercheurs de Google DeepMind ont tenté de vérifier si les réseaux de neurones artificiels sont plus enclins à coopérer ou à entrer en compétition, et si les IA sont en mesure de comprendre les motivations derrière ce choix. Pour ce faire, le laboratoire a utilisé deux jeux similaires pour deux agents IA différents : rouge, et bleu.
Google DeepMind : l’esprit de compétition des agents IA testé à l’aide de jeux vidéo
Dans le premier jeu, il était demandé aux agents d’essayer de rassembler un maximum de pommes vertes, au sein d’un environnement graphique en 2D basique. Chaque agent avait la possibilité d’attaquer l’autre à l’aide d’un laser qui l’éliminait temporairement du jeu.
Après avoir lancé le scénario un millier de fois, ils ont réalisé que les agents avaient tendance à coopérer quand les pommes étaient abondantes, mais pouvaient rapidement se retourner l’un contre l’autre lorsque les stocks s’amenuisaient. Les chercheurs ont pris conscience que les agents seraient plus enclins à coopérer au sein d’un petit réseau, mais qu’ils auraient tendance à se battre dans un réseau plus large et plus complexe.
Le second jeu, intitulé Wolfpack, proposait aux agents d’incarner des loups, chargés de capturer une proie. Lorsque les loups sont proches l’un de l’autre lors d’une capture réussie, les récompenses sont plus importantes. Cet élément a suffi pour inciter les deux agents à coopérer. Au sein d’un réseau plus large, les agents comprenaient même encore plus vite que la coopération était plus judicieuse.
Google DeepMind : les agents IA peuvent entrer en compétition, mais les récompenses les poussent à collaborer
Les chercheurs de Google espèrent que cette étude puisse permettre aux IA de mieux travailler avec d’autres IA dans des situations où les informations manquent. Concrètement, sur le court terme, cette étude peut aider à mieux comprendre et contrôler des systèmes multi-agent complexes comme l’économie, les systèmes de trafic, ou la santé écologique de la planète.
Ces recherches démontrent toutefois que les intelligences artificielles sont également capables du pire, comme de prendre des décisions égoïstes et de faire preuve d’un instinct meurtrier. Les inquiétudes de nombreux experts à l’égard de l’intelligence artificielle sont donc partiellement confirmées. Selon Joel Leibo, qui a dirigé l’étude, la prochaine étape serait de conférer à chaque agent la possibilité de réfléchir aux objectifs et aux convictions de l’autre agent.
- Partager l'article :