Les ratés de l’AI Act font vaciller sa mise en œuvre

Alors que l'AI Act est présenté comme la pierre angulaire de la régulation européenne de l'intelligence artificielle, sa mise en oeuvre révèle des fragilités. Alors que les grands industriels s'inquiètent de la complexification du paysage réglementaire, la société civile pointe du doigt le manque de transparence des normes mises en place. Autant de signaux qui montrent que le passage de la loi à la pratique s'annonce complexe. 

Drapeau UE
Drapeau UE

La mise en application de l'Artificial Intelligence Act (AI Act), le règlement européen encadrant l'IA, est semée d'embuches. Dernière en date : l'ouverture le 26 septembre d'une enquête par la médiatrice européenne Teresa Anjinho sur la manière dont la Commission européenne supervise l'élaboration des "normes harmonisées" d'IA par les organismes de normalisation. 

Un manque de transparence et d'inclusivité

En quelques mots, les normes harmonisées sont la voie royale pour prouver la conformité à l'AI Act par les entreprises qui y sont soumises. Une fois publiées au Journal officiel, ces normes font partie du droit de l'Union européenne. L'ONG Corporate Europe Observatory, dédiée à la surveillance du lobbying en Europe, accuse l'exécutif bruxellois de ne pas garantir le processus de normalisation conforme aux principes de transparence, d'inclusivité et de responsabilité. 

Au coeur des critiques, se trouvent la composition jugée opaque du comité technique JTC 21, dont les membres et les intérêts ne sont pas publiés, l'absence d'accès public aux documents de travail et aux comptes rendus ainsi qu'un déséquilibre des forces au profit des grandes entreprises technologiques, jugées surreprésentées face à la société civile. Autrement dit, pour l'association plaignante, la Commission - qui a pourtant l'obligation légale de surveillance en détail le travail des organismes - n'exerce pas ce rôle de manière satisfaisante. 

La Commission sommée de s'expliquer

Face à cette situation, la médiatrice a décidé l'ouverture d'une enquête et a exigé de la Commission une clarification via une série de questions. D'ici au 27 octobre 2025, l'institution doit ainsi transmettre plusieurs documents, dont les éventuelles revues intermédiaires des projets de normes IA, les règles de confidentialité appliquées par les organismes de certification ainsi que la liste nominative et les affiliations des membres du JTC 21. La Commission doit fournir ses explications complètes d'ici le 15 janvier 2026. Cette réponse sera rendue publique.

Le débat n'est pas qu'administratif. En effet, suivre les normes harmonisées donne aux entreprises une présomption de conformité au règlement. Autrement dit, elles peuvent constituer le seul chemin praticable pour commercialiser un produit ou service conforme. 

Ce n'est pas la seule critique sur le manque d'indépendance des auteurs de cette loi. Corporate Europe Observatory toujours et l'association LobbyControl ont révélé des informations selon lesquelles les grandes entreprises technologiques auraient affaibli le Code de bonnes pratiques, texte accompagnant la mise en oeuvre de l'AI Act. Google, Microsoft, Amazon, Meta ou encore OpenAI auraient pu participer à des ateliers exclusifs, sans que leurs comptes rendus aient été systématiquement partagés avec les autres participants. 

Les industriels demandent un report

Les entités concernées par cette nouvelle règlementation se montrent particulièrement réticentes. Début juillet 2025, 46 grands patrons - dont Patrick Pouyanné (TotalEnergies), Arthur Mensch (Mistral) et Alexandre Bompard (Carrefour) - ont tiré la sonnette d'alarme critiquant "des règlementations européennes peu claires, qui se chevauchent et deviennent de plus en plus complexes", mettant "en péril les ambitions de l'Europe en matière d'IA".

Des propos corroborés par Mario Draghi, à l'origine d'un rapport remis à la Commission sur la compétitivité européenne. A l'occasion des un an de la publication de ce document, le haut fonctionnaire a appelé à la suspension de l'entrée en application en août 2026 des règles relatives aux systèmes d'IA à haut risque, en particulier dans les domaines de la santé et des infrastructures critiques. Cette application différée aurait pour but de mieux comprendre "les inconvénients" de ce texte. Plus largement, Mario Draghi appelait à faire reposer l'application "sur une évaluation ex post, jugeant les modèles par leurs capacités réelles et les risques démontrés".

Les grandes entreprises technologiques, en première ligne dans l'application de l'AI Act, sont évidemment montées au créneau également. En juin, c'est la Computer & Communications Industry Association (CCIA) Europe, qui représente notamment Apple, Meta et Google, a appelé à stopper l'horloge réglementaire. L'organisation insistait qu'un moratoire temporaire permettrait de finaliser le socle juridique du texte, d'offrir aux entreprises un délai raisonnable pour se conformer ainsi que de garantir que le texte soutient réellement l'émergence d'une IA compétitive en Europe. 

Bruxelles maintient son calendrier malgré les critiques

Alors que la première salve d'obligations est entrée en vigueur le 1er août dernier pour les fournisseurs de modèles d'IA à usage général, Bruxelles compte bien continuer à dérouler son calendrier.  Par la voix de son porte-parole Thomas Regnier, l'institution a annoncé en juillet dernier de mettre en place aucune suspension temporaire. 

Du côté de la France, la mise en place de la gouvernance fut laborieuse. Après plusieurs semaines d'attente, c'est un schéma éclaté entre de nombreuses institutions qui a finalement été présenté. Pilotée par la direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes (DGCCRF) et la direction générale des Entreprises (DGE), l'organisation est répartie entre une quinzaine d'autorités déjà compétentes dans leur secteur. Un choix certes pragmatique, mais qui soulève des interrogations sur la lisibilité du dispositif pour les entreprises.

L'Union européenne essuie les plâtres de son rôle de pionnière. Première au monde à avoir adopté une loi complète encadrant l'IA, elle doit désormais traduire ses ambitions en véritables normes applicables pour le marché. Mais cette avance a un prix : tout reste à bâtir, des standards techniques à la gouvernance. Comme souvent, les premiers pas s'accompagnent de ratés. Or, la réussite dépendra de l'implication des entreprises. Sans leur participation active, l'application du texte risque de rester théorique. 

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.