in

L’AI Act divulgué avant l’heure, une version du document fuite

L’intelligence artificielle n’est pas un concept récent. Mais c’est surtout sa capacité générative qui représente une nouveauté majeure. Et cette nouvelle forme d’IA progresse si rapidement qu’elle suscite des inquiétudes quant à ses potentiels dangers. En Europe, l’Union européenne a élaboré l’AI Act, un texte législatif visant à encadrer son développement. Le document devrait être soumis au vote prochainement, et une version préliminaire vient de fuiter dans la presse.

La mise en place d’une autorité de contrôle

De nombreux experts, dont Elon Musk, ont plaidé en faveur de la création d’un régulateur pour l’IA. Son rôle serait de contrôler la conception de nouvelles IA afin de s’assurer qu’elles ne présentent aucun danger. L’Europe a franchi cette étape avec l’AI Act, un texte législatif visant à encadrer l’IA tout en stimulant son développement.

Le 22 janvier 2024, les 22 pays membres de l’UE ont reçu une version non finalisée de l’AI Act. Son adoption formelle est prévue lors du Coreper le 2 février. Le document de près de 900 pages sur 4 colonnes, daté du 21 janvier, présente dans sa colonne de droite le texte approuvé.

D’après ce document, l’AI Act prévoit la création d’une nouvelle entité régulatrice. Sa mission sera d’établir des standards de référence afin de distinguer les modèles d’intelligence artificielle à risque systémique élevé des autres. Ce régulateur sera également chargé de surveiller l’émergence de nouveaux risques sociétaux pouvant découler des technologies d’IA. Il mènera aussi des enquêtes en cas d’infractions présumées aux règles établies. Cependant, le financement des coûts opérationnels du bureau et d’autres aspects restent encore à définir.

L’AI Act classe les IA en 4 catégories de risque et prévoit des sanctions

L’AI Act prévoit une classification des systèmes d’IA en quatre niveaux de risque, avec des règles plus strictes pour ceux considérés comme à haut risque. Cela concerne en particulier les IA déployées dans des secteurs sensibles comme l’éducation. Ces systèmes à haut risque seront soumis à diverses obligations spécifiques. Cette classification vise à renforcer la supervision des technologies IA ayant un impact significatif sur la société.

Le texte offre également la possibilité aux citoyens de déposer des plaintes concernant les IA problématiques. Les entités à l’origine de préjudices causés par ces IA pourraient se voir infliger des amendes. Le montant va dépendre de la nature de l’infraction : diffusion d’informations fausses ou biaisées, non-respect des obligations légales en matière d’IA, ou développement d’outils d’intelligence artificielle interdits.

La France réticente à une régulation trop stricte de l’IA

Certains pays, dont la France, l’Italie et l’Allemagne, cherchent à repousser l’adoption de l’AI Act pour obtenir des assouplissements. La France, notamment, craint une autorité de contrôle trop contraignante qui pourrait nuire à ses pépites nationales comme Mistral AI. Ces pays préféreraient la mise en place d’une autorégulation basée sur des codes de conduite. Pourtant, l’objectif de l’AI Act n’est pas de freiner l’innovation, mais de réguler l’IA de manière à garantir un développement sûr et responsable.

Lors du vote prévu le 2 février sur l’AI Act, les gouvernements européens n’auront d’autre choix que d’approuver ou de rejeter le texte dans son intégralité. Ils devront se prononcer par un vote « oui » ou « non » sur ce projet de réglementation.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *