L’Union européenne impose un premier cadre juridique à l’intelligence artificielle avec l’entrée en vigueur de l’AI Act. Dès le 2 février, certaines pratiques considérées comme risquées ou interdites seront officiellement régulées. Si les sanctions ne tomberont pas immédiatement, les entreprises doivent dès à présent anticiper leur mise en conformité. Une loi qui s’annonce comme une référence mondiale et qui redéfinit les règles du jeu pour les acteurs de l’IA.
Une première étape clé pour la régulation de l’intelligence artificielle
L’Union européenne franchit une étape décisive dans la régulation de l’intelligence artificielle. Dès le 2 février, les premières exigences de l’EU AI Act entrent en vigueur. Cette législation cible les usages de l’IA considérés comme les plus risqués pour les droits fondamentaux et les valeurs de l’Union. Les entreprises doivent s’assurer de leur conformité. À défaut, elles s’exposent à des sanctions de plus de 7 % de leur chiffre d’affaires global.
« La date limite d’application de la première loi européenne sur l’IA est enfin arrivée. Le 2 février, l’application de quelques – mais puissantes – exigences de l’IA Act de l’UE débutera. » explique Enza Iannopollo, analyste principale chez Forrester. Toutefois, les grandes sanctions ne sont pas encore d’actualité. Les autorités de contrôle ne sont pas encore pleinement opérationnelles et les détails sur l’application des sanctions restent flous. « Il n’y aura pas de grosses amendes ni de gros titres dans les prochains mois, mais ne vous y trompez pas, il s’agit d’une étape très importante » précise-t-elle.

Une influence mondiale sur la gouvernance de l’IA
L’impact de cette législation dépasse les frontières de l’Europe. L’UE définit des règles strictes pour l’utilisation de l’IA. Ce cadre influencera l’ensemble des acteurs internationaux qui exploitent ces technologies.
« La portée mondiale de la loi, les sanctions importantes en cas de non-conformité et les exigences étendues couvrant l’ensemble de la chaîne de valeur de l’IA garantissent que les organisations du monde entier qui exploitent les technologies de l’IA doivent adhérer à la réglementation », analyse Enza Iannopollo. Avec des normes strictes, l’UE impose une IA plus transparente et sécurisée. Ce cadre de régulation pourrait servir de modèle pour d’autres juridictions qui cherchent à encadrer ces technologies en pleine expansion.
Ce que les entreprises doivent anticiper
Les entreprises concernées doivent rapidement évaluer leurs systèmes d’IA et s’adapter aux nouvelles exigences. Cela implique de classer leurs cas d’usage selon les niveaux de risque établis par la loi et d’éliminer les systèmes considérés comme interdits. « Dès à présent, les entreprises doivent affiner leurs évaluations des risques pour s’assurer qu’elles classent les cas d’utilisation de l’IA conformément aux seuils de risque de la loi. Elles doivent débrancher les systèmes d’IA qui entrent dans la catégorie « interdite » et lancer leurs plans de risque opérationnel pour s’assurer qu’ils continuent à fonctionner sans heurts. » insiste l’analyste.

L’échéance du 2 août marquera une nouvelle phase d’application plus rigoureuse. Les autorités seront pleinement opérationnelles et les sanctions pourraient alors se multiplier. « C’est à ce moment-là que nous verrons beaucoup plus d’action », prévient Enza Iannopollo. L’Europe prend ainsi les devants pour encadrer une technologie en rapide évolution. Elle impose également un modèle de gouvernance susceptible d’influencer l’ensemble des acteurs mondiaux.
Article basé sur un communiqué de presse reçu par la rédaction.
- Partager l'article :