Alors que le règlement sur l'intelligence artificielle (AI Act) est entré en vigueur en août dernier, le principal instrument d'application est en train d'être vidé de sa substance. C'est ce qu'il ressort d'une enquête conjointe de Corporate Europe Observatory et LobbyControl, deux ONG spécialisées dans la surveillance du lobbying, publiée fin avril 2025, qui affirme que les grandes entreprises technologiques ont réussi à affaiblir le Code de bonnes pratiques pour les fournisseurs de modèles d'intelligence artificielle à usage général présentant des risques systémiques.
En quelques mots, dans le cadre de la mise en oeuvre de l'AI Act, l'Union européenne élabore un code visant à traduire concrètement les exigences de la législation, notamment en matière de transparence, de respect du droit d'auteur et d'évaluation des risques. C'est le Bureau de l'IA qui est chargé de son pilotage et de sa rédaction avec la société civile et les entreprises technologiques.
Meta dénonce "une surenchère réglementaire"
Rapidement, le Code de bonnes pratiques est devenu la cible directe du lobbying des Big Tech. Dans un document confidentiel, révélé par l'enquête, Meta dénonçait "une surenchère réglementaire" menaçant "l'innovation de l'IA en Europe". Google, de son côté, a exprimé des "inquiétudes sur le processus". Face à cette situation, les ONG affirment que les grandes entreprises technologiques ont bénéficié d'un accès privilégié à des ateliers dédiés à la rédaction du Code.
Officiellement, le Bureau de l'IA affirme que plus de 1000 parties prenantes ont exprimé leur intérêt pour participer à des réunions, dont 400 ont été retenues, réparties dans quatre groupes. Mais, dans les faits, les fournisseurs de modèles, comme Google, Meta, Microsoft, Amazon ou OpenAI, auraient pu participer à des ateliers exclusifs. Les comptes rendus n'étaient pas systématiquement partagés avec le reste des participants.
Pendant ce temps, la société civile a dû se contenter de réunions plénières où l'interaction était limitée : impossibilité de s'exprimer directement, questions filtrées à l'avance..., raconte l'enquête. "Ils ont organisé de nombreux ateliers pour les fournisseurs de modèles, et un seul pour la société civile, à la fin, quand on nous a dit qu’il ne restait que des ajustements mineurs possibles", raconte Dinah van der Geest, de l’ONG Article 19, association britannique de défense de la liberté d'expression.
Des cabinets de conseil liés aux grandes entreprises technologiques
L'influence des grandes entreprises technologiques ne s'arrêtera pas aux réunions. Le soutien à la rédaction du Code a été confié à un consortium de consultants externes, dont Wavestone, Intellera et le Centre d’études politiques européennes (CEPS). Officiellement, ils n'ont pas de clients parmi les fournisseurs de modèles. Mais Wavestone a récemment travaillé avec Microsoft sur le déploiement de Copilot en France, selon l'enquête. L'entreprise a également reçu le prix de "Partenaire Microsoft de l'année" en fin 2024. Ces liens étroits avec les principaux fournisseurs de modèles soulèvent des questions sur les conflits d'intérêts, concluent les ONG.
Les grandes entreprises technologiques auraient également réussi à affaiblir les obligations du texte. En particulier, la taxonomie des risques, qui vise à encadrer les risques systémiques et autres risques liés à l'IA, a été une source de conflit. Elles ont fait valoir que des risques comme "la discrimination illégale à grande échelle" ne devraient pas être classés parmi les risques systémiques obligatoires, mais plutôt dans une catégorie facultative. Leur lobbying a porté ses fruits, puisque cette question a été reléguée à une évaluation moins contraignante, avec une vérification basée sur "des efforts raisonnables".
Affaiblissement des obligations relatives au droit d'auteur
Autre terrain d'affrontement : le droit d'auteur. Les Big Tech se sont opposés à des mesures strictes relative à "la diligence raisonnable en matière de droit d'auteur", en particulier pour les données provenant de tiers. Selon les documents de lobbying de Google et Microsoft, les mesures les obligeraient à "démontrer la preuve de leur conformité" et à "inverser la charge de la preuve en ce qui concerne la loi sur le droit d’auteur".
La troisième version du Code répond à ces revendications, dénonce l'enquête. L'interdiction des "utilisations du modèle portant atteinte aux droits d'auteur" a été remplacée par l'obligation "déployer des efforts raisonnables pour atténuer les risques de production de résultats portant atteinte aux droits d'auteur".
Il reste à déterminer ce que comportera la version finale du Code, qui doit être présentée d'ici août 2025, et qui pourra ensuite être approuvée, ou non, par la Commission européenne.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
