L’AGI, cette technologie qui vise à donner à l’IA une intelligence semblable à celle des humains, soulève d’importantes questions. Chez DeepMind, le PDG, Demis Hassabis, a rappelé la nécessité d’un organisme de supervision pour le développement de l’intelligence artificielle générale. Ce qui nous laisse cinq ans pour trouver une solution. Le cas échéant, l’AGI va provoquer l’extinction humaine.
C’est du mois ce qu’indique une étude de Google DeepMind sur les éventuels impacts de l’AGI sur l’humanité.
L’étude souligne d’ailleurs que, compte tenu des conséquences potentiellement considérables de l’AGI, celle-ci pourrait également entraîner des risques majeurs de préjudices graves.
Parmi ces dangers figurent notamment les menaces existentielles, susceptibles d’anéantir durablement l’humanité.
Pour les situations moins extrêmes, la gravité d’un préjudice ne saurait être déterminée uniquement par Google DeepMind.
Or, c’est une évaluation qui doit plutôt émaner de la société dans son ensemble, en fonction de sa perception collective du risque et de sa définition du préjudice.
Aussi, le document de recherche de DeepMind n’indique pas précisément comment l’AGI pourrait anéantir l’espèce humaine.
Le rapport inclut plutôt certaines mesures préventives que devraient imposer les entreprises d’IA pour minimiser les risques de l’AGI.
Une ONU de l’IA pour encadrer l’AGI ? La vision futuriste et inquiétante du PDG de DeepMind
Il y a deux mois, au mois de février, Demis Hassabis a fait une déclaration sur quand l’AGI pourra émerger.
Sa prédiction indique l’année 2030, voir 2035 au plus tard. Il a aussi réitéré l’urgence de mettre en place des organisations pour mieux superviser le développement de l’AGI si on veut éviter l’extinction humaine. Il pourrait d’ailleurs s’agir d’une structure internationale, de type Nations Unies ou autre.
I would trust Kevin Roose and The New York Times over Demis Hassabis, any day.
— Gary Marcus (@GaryMarcus) March 17, 2025
Kidding. Demis is far more likely to be correct (or it could take even longer to get to AGI). pic.twitter.com/zvuKsd9849
« Je défendrais l’idée d’un équivalent du CERN dédié à l’IAG. Donc d’une collaboration internationale de haut niveau centrée sur la recherche avancée. Cela dans le but de garantir la sécurité de ces avancées », a-t-il expliqué.
Il a ajouté que cette structure devrait être complétée par un organisme de surveillance, comparable à l’AIEA, chargé d’identifier et de contrôler les projets à risque.
Hassabis a également évoqué la nécessité d’un cadre de gouvernance globale, impliquant de nombreux pays, pour encadrer l’usage et la mise en œuvre de ces systèmes, à l’image d’une « ONU technologique » adaptée aux enjeux de l’intelligence artificielle.
- Partager l'article :