in ,

Meta écarte les experts de la validation de ses nouvelles fonctionnalités

Meta écarte les experts de la validation de ses nouvelles fonctionnalités

Meta change les règles du jeu : désormais la validation de nouvelles fonctionnalités repose principalement sur une intelligence artificielle.

Pendant des années, des équipes humaines débattaient de l’impact potentiel d’une mise à jour. Elles vérifiaient si un changement pouvait nuire à la vie privée, encourager les fausses informations ou mettre en danger les jeunes. À présent, ce travail se résume à remplir un questionnaire et à attendre une réponse automatisée.

Selon des documents internes obtenus par NPR, près de 90 % des évaluations de risques seront bientôt automatisées. L’équipe technique génère les réponses, puis le système valide ou non le lancement du projet. Autrement dit, les ingénieurs deviennent les seuls juges de l’impact éthique ou social de leurs propres produits. Avant, ce rôle appartenait à des experts spécialisés. Maintenant, ce n’est plus le cas par défaut.

Le processus gagne en rapidité. Une fois le formulaire soumis, l’IA renvoie une décision quasi instantanée. Elle signale les zones à risque et indique les exigences à respecter avant déploiement. Ce système permet de publier plus vite, ce qui plaît aux développeurs. Toutefois, plusieurs anciens employés de Meta y voient une faille sérieuse. Selon eux, certains effets indésirables pourraient passer inaperçus jusqu’à ce qu’il soit trop tard.

YouTube video

Des profils peu formés aux enjeux sociétaux

Pour Zvika Krieger, qui a travaillé chez Meta jusqu’en 2022, cette logique inquiète. D’après elle, les chefs de produit et ingénieurs ne sont ni formés ni motivés pour penser aux impacts sociétaux. On évalue leur capacité à livrer rapidement, pas leur sens des responsabilités. Résultat : on minimise facilement les risques liés à la vie privée, à la désinformation ou à la sécurité. Certains projets ne feront plus l’objet d’un contrôle extérieur, sauf demande explicite.

Les documents internes précisent que l’entreprise appliquera cette méthode même aux domaines sensibles. L’IA de Meta interviendra sur la sécurité des jeunes, la propagation de contenus trompeurs ou la gestion des données. Jusqu’ici, on a considéré ces sujets comme trop délicats pour être confiés à des algorithmes. Pourtant, Meta semble vouloir aller dans ce sens, malgré les avertissements de ses anciens cadres.

Une surveillance tardive et peu visible

Meta affirme que ces décisions sont auditées après coup. Mais cette promesse pose une autre inquiétude. Si un problème est détecté trop tard, le mal est déjà fait. Dans le nouveau modèle, l’IA juge, décide et parfois corrige ses propres erreurs. Ce fonctionnement en vase clos interroge : qui contrôle vraiment les décisions si tout repose sur l’automatisation ? Les ingénieurs sont-ils les mieux placés pour identifier les failles de leur propre système ?

YouTube video

Un tel virage pose inévitablement des questions de fond. Quand une entreprise comme Meta choisit d’automatiser la validation des nouvelles fonctionnalités, elle délègue aussi son sens des responsabilités. L’équilibre entre efficacité et précaution s’en trouve menacé. À mesure que les plateformes gagnent en vitesse, leur vigilance semble s’effacer. L’algorithme ne débat pas, ne doute pas et avance sans retour possible.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *