in

L’AGI pourrait anéantir l’humanité, cinq ans pour éviter l’extinction humaine selon Demis Hassabis

Apocalypse, extinction humaine à cause de l'AGI

L’AGI, cette technologie qui vise à donner à l’IA une intelligence semblable à celle des humains, soulève d’importantes questions. Chez DeepMind, le PDG, Demis Hassabis, a rappelé la nécessité d’un organisme de supervision pour le développement de l’intelligence artificielle générale. Ce qui nous laisse cinq ans pour trouver une solution. Le cas échéant, l’AGI va provoquer l’extinction humaine.

C’est du mois ce qu’indique une étude de Google DeepMind sur les éventuels impacts de l’AGI sur l’humanité.

L’étude souligne d’ailleurs que, compte tenu des conséquences potentiellement considérables de l’AGI, celle-ci pourrait également entraîner des risques majeurs de préjudices graves.

Parmi ces dangers figurent notamment les menaces existentielles, susceptibles d’anéantir durablement l’humanité.

YouTube video

Pour les situations moins extrêmes, la gravité d’un préjudice ne saurait être déterminée uniquement par Google DeepMind.

Or, c’est une évaluation qui doit plutôt émaner de la société dans son ensemble, en fonction de sa perception collective du risque et de sa définition du préjudice.

Aussi, le document de recherche de DeepMind n’indique pas précisément comment l’AGI pourrait anéantir l’espèce humaine.

Le rapport inclut plutôt certaines mesures préventives que devraient imposer les entreprises d’IA pour minimiser les risques de l’AGI.

Une ONU de l’IA pour encadrer l’AGI ? La vision futuriste et inquiétante du PDG de DeepMind

Il y a deux mois, au mois de février, Demis Hassabis a fait une déclaration sur quand l’AGI pourra émerger.

Sa prédiction indique l’année 2030, voir 2035 au plus tard. Il a aussi réitéré l’urgence de mettre en place des organisations pour mieux superviser le développement de l’AGI si on veut éviter l’extinction humaine. Il pourrait d’ailleurs s’agir d’une structure internationale, de type Nations Unies ou autre.

« Je défendrais l’idée d’un équivalent du CERN dédié à l’IAG. Donc d’une collaboration internationale de haut niveau centrée sur la recherche avancée. Cela dans le but de garantir la sécurité de ces avancées », a-t-il expliqué.

Il a ajouté que cette structure devrait être complétée par un organisme de surveillance, comparable à l’AIEA, chargé d’identifier et de contrôler les projets à risque.

Hassabis a également évoqué la nécessité d’un cadre de gouvernance globale, impliquant de nombreux pays, pour encadrer l’usage et la mise en œuvre de ces systèmes, à l’image d’une « ONU technologique » adaptée aux enjeux de l’intelligence artificielle.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *