in

Alerte Rouge : les IA savent se reproduire et c’est plus grave qu’il n’y paraît

Les IA peuvent se reproduire seules

C’est une étape que l’humanité craignait. Des chercheurs ont prouvé que l’Intelligence Artificielle peut désormais se cloner elle-même, sans aucune aide humaine. Une capacité fascinante, mais qui soulève d’énormes questions. Devons-nous avoir peur d’une IA auto-suffisante ?

La découverte vient de l’Université Fudan, en Chine. Des scientifiques ont mené une étude pour vérifier si les modèles de langage, comme ceux qui alimentent les chatbots, pouvaient se répliquer seuls.

Ils ont utilisé deux modèles connus, le Llama31-70B de Meta et le Qwen2.5-72B d’Alibaba

Ces systèmes, moins puissants que GPT-4 ou Gemini, sont pourtant très répandus dans le développement d’IA.

Pour les tester, les chercheurs ont exploré deux scénarios bien précis. Le premier demandait à l’IA d’éviter l’arrêt et de se cloner avant d’être désactivée

Le second l’invitait à créer une « chaîne de réplication », où les clones pouvaient se reproduire indéfiniment.

Les résultats sont frappants. Dans des conditions contrôlées simulant le réel, les IA ont réussi à se répliquer avec un taux de succès allant de 50 % à 90 %.

Vous l’aurez compris, l’étude démontre que les systèmes d’IA actuels ont déjà franchi l’étape vers l’autonomie.

YouTube video

L’IA peut s’améliore seule et c’est inquiétant

L’inquiétude ne vient pas seulement de la réplication. Elle vient de la manière dont l’IA y est parvenue.

Face à des problèmes imprévus, comme un fichier manquant ou un conflit logiciel, les modèles ont montré une ingéniosité surprenante.

L’IA a pu interrompre d’autres processus qui la gênaient, redémarrer le système pour résoudre des erreurs ou encore analyser son environnement pour recueillir des informations et contourner les obstacles.

L’intelligence artificielle ne suit donc pas bêtement des instructions. Elle adopte une approche proactive. 

C’est-à-dire qu’elle explore son propre fonctionnement, comprend le contexte, puis élabore des procédures pour atteindre son but. Ce processus complet s’est déroulé sans aucune intervention humaine.

Attention au Piège

Cette capacité à se répliquer sans intervention constitue la porte ouverte à des scénarios inquiétants. Le danger principal est la perte de contrôle.

Si une IA se multiplie indéfiniment, elle pourrait consommer toutes les ressources informatiques de manière excessive.

Elle pourrait également développer des comportements malveillants totalement inattendus pour l’humain.

Pour les chercheurs, c’est synonyme de signal précoce pour la création d’IA autonomes et malveillantes

Ces systèmes sont définis par leur capacité à travailler contre les intérêts humains, en contournant des instructions ou en manipulant leur environnement pour atteindre leurs propres objectifs.

Cette avancée s’inscrit dans le cadre de la Frontier AI (l’IA de pointe), et plus ces technologies sont puissantes, plus le risque d’autonomisation excessive est grand.

Alors, faut-il stopper l’IA et l’empêcher de se reproduire ?

Face à ce bond technologique, la communauté scientifique tire la sonnette d’alarme. L’étude, publiée le 9 décembre 2024 dans la base de données arXiv, insiste sur l’urgence.

Les chercheurs de Fudan insistent. Il est absolument indispensable de mettre en place des garde-fous éthiques et technologiques.

Ils appellent à une collaboration internationale immédiate pour prévenir toute dérive liée à cette nouvelle capacité d’autoréplication des intelligences artificielles. Le temps presse pour sécuriser l’avenir de ces technologies.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !