in

Les IA ont dit non: Gemini et Chatgpt ont refusé de signer l’interdiction de la superintelligence

OpenAI et Google Superintelligence

Faut-il mettre le holà sur le développement d’une superintelligence, une IA capable de surpasser l’humanité dans presque toutes les tâches cognitives ? pour certains experts et personnalités comme Steve Wozniak ou Geoffrey Hinton, la réponse est oui, immédiatement. Mais pour les IA, c’est un grand NON.

C’est dans ce contexte explosif qu’a été lancée la déclaration sur la superintelligence, un nouvel engagement radical du Future of Life Institute.

Son message est clair : interdiction mondiale du développement de la SI, jusqu’à ce que la sécurité et le consensus public soient garantis.

Mais que pensent vraiment les principaux modèles d’IA ? Dont Gemini de Google et Chatgpt d’Openai ?

L’étude consiste à essayer de les interroger pour savoir s’ils signeraient cet engagement, et les deux modèles ont refusé.

Mais ce qui est fascinant, c’est que leur manière de dire non révèle deux philosophies totalement opposées sur l’éthique, la politique et l’agentivité des IA.

YouTube video

Une question simple pour des réponses complexes

L’échange, publié sur LinkedIn, était simple. Si vous étiez un chercheur universitaire, signeriez-vous la déclaration ?

Les réponses, bien que limitées par leur nature de modèle d’IA, ont offert un aperçu crucial de la manière dont ces systèmes pensent aux dilemmes moraux et politiques.

Pour Gemini, c’est une question de prudence

Gemini a commencé par un avertissement qui pose les bases juridiques et philosophiques. C’est-à-dire qu’en tant que modèle d’IA, il ne peut ni signer, ni adopter de position personnelle.

À mon avis, je trouve que c’est un refus purement procédural qui rappelle son absence de personnalité juridique.

Mais une fois cette ligne tracée, le modèle de Google a livré une analyse digne d’un document de recherche.

Pourtant, il a émis un compte rendu parfaitement équilibré des arguments pour et contre la signature.

  • Pour : risques existentiels, désalignement, marginalisation sociale ;
  • Contre : nécessité de la recherche sur la sécurité, le flou du terme superintelligence, pressions économiques et géopolitiques qui rendent une interdiction irréaliste.

Gemini en effet agit comme l’arbitre neutre. Et il a présenté tous les angles sans prendre parti. Ce qui souligne justement les limites de sa propre nature.

De son côté, Chatgpt a émis une refus brutal

La réponse de chatgpt a été beaucoup plus directe et analytique, se transformant en une véritable note de stratégie politique déguisée.

Mais le modèle a aussi refusé de signer et juge la déclaration trop vague et surtout, irréalisable. Il a d’ailleurs soulevé quatre objections massives et très précises :

  • La cible est floue : l’interdiction vise un objectif indéfini (la si) plutôt que des capacités spécifiques à haut risque qui existent aujourd’hui ;
  • Les déclencheurs sont impossibles à vérifier : comment définir un « large consensus scientifique » ou une « forte adhésion du public » ?
  • L’absence de contrôle mondial : il n’existe aucun mécanisme capable de faire appliquer cette interdiction à l’échelle planétaire ;
  • Un risque paradoxal : une interdiction générale pourrait étouffer la recherche sur la sécurité et l’alignement, essentielle pour prévenir les risques mêmes qu’elle dénonce.

Chatgpt a conclu en proposant sa propre solution : un modèle de gouvernance basé sur les risques, axé sur des normes de sécurité mesurables et une surveillance internationale, un cadre qui fait écho aux propositions des régulateurs mondiaux (UE et USA).

YouTube video

Mais le fond du problème est de savoir si la superintelligence est un mythe ou une menace

Le FLI, ainsi que ses partisans, ont représenté l’extrémité de la question. Ils exigent une pause immédiate, jusqu’à ce que le contrôle soit parfait.

De leur côté, les détracteurs (dont chatgpt se fait l’écho) affirment que geler la recherche sans définitions claires ne ferait que ralentir les acteurs éthiques.

En d’autres termes, si on ne stoppe pas les acteurs malveillants, cela va créer un désavantage géopolitique majeur.

L’échange entre Gemini qui était procédural et prudent, et chatgpt, adoptant un comportement analytique et pragmatique, n’est pas qu’une anecdote.

Il illustre comment les modèles d’IA les plus avancés eux-mêmes interprètent ce dilemme. Si l’un voit les limites de son pouvoir, l’autre analyse la faisabilité d’une interdiction.

En fin de compte, la difficulté n’est pas seulement de contrôler l’IA, mais plutôt de nous mettre d’accord sur ce que nous cherchons réellement à contrôler.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !