Face au développement rapide de l’intelligence artificielle, l’Union Européenne a élaboré une loi visant à encadrer cette technologie émergente. Au terme de négociations approfondies, l’AI Act a été approuvé par les 27 États membres pour réguler les usages de l’IA.
Les réticences franco-allemandes dépassées
Présenté en avril 2021 par la Commission européenne, l’AI Act est le tout premier cadre légal au monde visant à encadrer le développement et l’utilisation des systèmes d’IA. Ce projet réglementaire a vu ses négociations s’accélérer face à l’essor fulgurant des modèles génératifs comme ChatGPT. Ces systèmes ont en effet révélé au grand public le formidable potentiel, mais aussi les dangers de cette technologie comme la diffusion deepfakes.
La France et l’Allemagne étaient initialement réfractaires à l’idée d’un cadre juridique contraignant pour l’intelligence artificielle. Ils craignaient notamment que cela pénaliserait leurs futurs champions technologiques nationaux comme la startup française Mistral. Paris et Berlin ont alors entamé des négociations pour assouplir la réglementation.
Des concessions ont pu être obtenues, notamment pour les petites et moyennes entreprises. D’après le ministre allemand du Numérique Volker Wissing, les jeunes pousses bénéficieront d’exigences allégées. Cela leur permet de préserver leur compétitivité à l’international.
Un accord confirmé à l’unanimité
En décembre 2023, les eurodéputés ainsi que les 27 États membres de l’UE ont mené des négociations sur l’AI Act. Et vendredi dernier, les pays membres de l’UE ont approuvé cette législation. Thierry Breton, le commissaire européen, a annoncé sur X que les ambassadeurs des 27 pays ont confirmé à l’unanimité cette réglementation.
Le texte de loi vise à garantir la sûreté des systèmes d’IA et leur conformité avec les droits fondamentaux et valeurs éthiques de l’UE. L’AI Act devrait ainsi favoriser le développement d’IA dignes de confiance.
Selon Breton, en adoptant cette régulation à l’unanimité, les États membres de l’Union européenne ont réussi à établir un équilibre entre la nécessité de sécuriser les systèmes d’intelligence artificielle et le souci de soutenir l’innovation dans ce domaine stratégique.
Des règles plus renforcées pour les systèmes puissants et à haut risque
L’AI Act prescrit des règles strictes encadrant l’entraînement des algorithmes. Les développeurs doivent s’assurer du respect du droit d’auteur des œuvres utilisées comme données d’apprentissage. Ils devront également indiquer de manière explicite le caractère synthétique des contenus générés (textes, images, audiovisuel) par leurs systèmes d’IA. Ceci, afin d’éviter tromperies et manipulations.
Puis, l’AI Act soumet les systèmes d’intelligence artificielle puissants à des règlements plus renforcés. Il en est de même pour les systèmes d’IA dans des domaines jugés sensibles comme la santé, le maintien de l’ordre, l’éducation, etc. Ils devront respecter des exigences accrues telle la mise en place d’une supervision humaine.
- Partager l'article :