in

Un langage inconnu détecté entre deux IA… Le début d’une rébellion technologique ?

Nouveau langage agents IA

Les agents IA sont de plus populaires et prennent beaucoup plus d’importance au sein des géants du secteur. , par exemple, a récemment annoncé Operator, un agent IA ayant la capacité de travailler pour son utilisateur de manière entièrement indépendante. Mais est-ce vraiment une bonne nouvelle ? Qu’est-ce qui se passerait si un système d’IA, disposant d’une capacité à contrôler un système informatique, se tournait contre nous ? Laissez-moi vous raconter l’histoire de ces deux agents IA qui discutent entre eux dans un langage que nous ne connaissons pas !

Je tiens à rappeler que ces deux agents IA engagent une discussion grâce à un protocole que les chercheurs ont baptisé Gibberlink Mode.

Les ceux agents IA interagissent en espérant réussir l’organisation d’une réservation de mariage, l’un sur un PC et l’autre sur un .

YouTube video

Rien que des bips et des grincements, les agents IA viennent de créer un langage humainement incompréhensible

Ce que j’ai remarqué de plus intéressant, c’est que l’un des deux agents IA a suggéré à l’autre de passer en mode Gibberlink.

Cette suggestion leur permettrait de communiquer plus efficacement que par rapport à une discussion en langage humain.

Résultats : plus de paroles ! Rien que des grincements et des bips. Et pour comprendre ce qu’ils disent via ce langage secret, il fallait une transcription textuelle.

Pourtant, ce langage secret de l’IA, malgré la transcription, soulève des questions éthiques. Du moins, c’est ce qu’ont souligné certaines personnalités technologiques.

YouTube video

Un agent IA qui s’autocorrige, un danger pour l’humanité ?

Par ailleurs, si les agents IA arrivent à communiquer entre eux par leur propre langage, une langue qu’ils ont eux-mêmes développée, cela veut-il dire qu’ils ne pourront pas s’aligner les valeurs humaines ?

Ce n’est pas impossible. Mais l’alignement pourrait, à mon avis, se compliquer. Pourquoi ? Tout simplement parce que ces systèmes, aussi complexes soient-ils, vont poser de graves problèmes éthiques et surtout juridiques.

Une chercheuse en IA, Luiza Jarovsky, aussi cofondatrice de l’AI, Tech & Privacy Academy, affirme cette hypothèse.

« Il est tout à fait possible qu’une IA puisse s’autocorriger. C’est d’ailleurs ce qui se passe avec les récents modèles basés sur une chaîne de pensée », a-t-elle ajouté.

Pourtant, si on délègue la prise de décision à ces agents IA, ils seront entièrement autonomes. On ne peut donc pas détecter ni identifier les problèmes d’alignement.

À long terme et à force de se répéter, cela va provoquer des conséquences désastreuses Surtout si les écarts ou les désalignements concernent un sujet sensible.

C’est d’ailleurs ce qui s’est passé en 2017 quand Facebook a mené une expérience similaire, conduisant à la création d’une sténographie incompréhensible aux chercheurs humains.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *