in ,

Google DeepMind : l’intelligence artificielle peut avoir l’instinct meurtrier

Le laboratoire de recherche semble aujourd’hui confirmer les angoisses exprimées par de nombreux spécialistes au sujet de l’. Une étude révèle que les agents IA sont capables d’opter pour la compétition plutôt que la coopération, au point de choisir d’éliminer leurs rivaux.

À l’aide d’un les chercheurs de Google DeepMind ont tenté de vérifier si les réseaux de neurones artificiels sont plus enclins à coopérer ou à entrer en compétition, et si les IA sont en mesure de comprendre les motivations derrière ce choix. Pour ce faire, le laboratoire a utilisé deux jeux similaires pour deux agents IA différents : rouge, et bleu.

Google DeepMind : l’esprit de compétition des agents IA testé à l’aide de jeux vidéo

Dans le premier jeu, il était demandé aux agents d’essayer de rassembler un maximum de pommes vertes, au sein d’un environnement graphique en 2D basique. Chaque agent avait la possibilité d’attaquer l’autre à l’aide d’un laser qui l’éliminait temporairement du jeu.

YouTube video

Après avoir lancé le scénario un millier de fois, ils ont réalisé que les agents avaient tendance à coopérer quand les pommes étaient abondantes, mais pouvaient rapidement se retourner l’un contre l’autre lorsque les stocks s’amenuisaient. Les chercheurs ont pris conscience que les agents seraient plus enclins à coopérer au sein d’un petit réseau, mais qu’ils auraient tendance à se battre dans un réseau plus large et plus complexe.

Le second jeu, intitulé Wolfpack, proposait aux agents d’incarner des loups, chargés de capturer une proie. Lorsque les loups sont proches l’un de l’autre lors d’une capture réussie, les récompenses sont plus importantes. Cet élément a suffi pour inciter les deux agents à coopérer. Au sein d’un réseau plus large, les agents comprenaient même encore plus vite que la coopération était plus judicieuse.

YouTube video

Google DeepMind : les agents IA peuvent entrer en compétition, mais les récompenses les poussent à collaborer

Les chercheurs de Google espèrent que cette étude puisse permettre aux IA de mieux travailler avec d’autres IA dans des situations où les informations manquent. Concrètement, sur le court terme, cette étude peut aider à mieux comprendre et contrôler des systèmes multi-agent complexes comme l’économie, les systèmes de trafic, ou la santé écologique de la planète.

Ces recherches démontrent toutefois que les intelligences artificielles sont également capables du pire, comme de prendre des décisions égoïstes et de faire preuve d’un instinct meurtrier. Les inquiétudes de nombreux experts à l’égard de l’intelligence artificielle sont donc partiellement confirmées. Selon Joel Leibo, qui a dirigé l’étude, la prochaine étape serait de conférer à chaque agent la possibilité de réfléchir aux objectifs et aux convictions de l’autre agent.