Meta peut désormais juger si l’outil d’IA entre vos mains est dangereux ou non grâce à son nouvel outil LLM. Vous serez obliger de revoir votre décision avant d’opter pour un outil d’IA, que ce soit dans votre vie professionnelle que personnelle !
Est-ce que nous sommes arrivés à un stade où l’IA est plus dangereuse qu’elle n’y paraît il y a quelques années ? En effet, si nous nous référons aux annonces de Mark Zuckerberg, PDG de Meta, nous ne sommes pas sans danger avec l’IA au quotidien ! Bien que Meta, la société derrière Llama, veuille rendre l’intelligence artificielle générale ou AGI accessible pour tous, la crainte d’une mauvaise surprise de la part de cette technologie reste palpable.
Quels sont les risques que l’IA pourrait représenter alors que nous sommes en plein cœur d’une course à une intelligence égale à l’homme ? Comment prévenir ces risques selon les stratégies de Meta ? Les réponses à ces questions ci-dessous !
Frontier AI Framework, l’outil de Meta pour prédire les outils d’IA dangereux ?
Meta a récemment annoncé le déploiement de Frontier AI Framework, un outil qui permet d’explorer les potentiels risques des modèles d’IA une fois déployé. Ces risques concernent entre autres la cybersécurité, les deepfakes ou encore la fabrication d’armes chimiques et biologiques. Du coup, avant de mettre le modèle d’IA à la disposition du public, l’outil va mesurer s’il est safe à l’utilisation ou non.
Cette précaution permet à Meta de prévenir les dangers éventuels d’un outil d’IA, d’autant plus que son outil de détection est accessible au grand public.Ainsi, chacun pourra apporter de sa personne afin d’anticiper et d’atténuer les menaces que peuvent représenter l’IA.
Comment fonctionne cet outil pour garantir la sécurité des utilisateurs d’IA ?
Du coup, pour détecter les IA dangereux, l’outil Frontier AI Framework de Meta va d’abord évaluer les capacités de chaque modèle d’IA. Cette étape permet entre autres de savoir si l’outil présente des capacités dangereuses telles que la conception d’armes biochimiques ou encore la génération de fausses informations.
Ensuite, il va classer les risques de élevé à critique. Pour un modèle avec un risque critique, Meta va mettre en place un plan d’actions visant à réduire le risque que représente le modèle avant même son déploiement. Si aucune solution n’est trouvée pour atténuer cette menace, le développement de l’outil sera stoppé.
Il faut aussi comprendre que Frontier AI Framework se chargera de surveiller le modèle de manière continue. Cette surveillance ne concerne pas uniquement ses performances mais aussi les risques associés à son utilisation. Cela permettrait à Meta d’ajuster ses protocoles de sécurité afin d’offrir une IA sûre et éthique aux utilisateurs.
- Partager l'article :