Le compte à rebours est lancé : à partir du 2 août 2025, certaines obligations de l'Artificial Intelligence Act, le règlement européen encadrant l'intelligence artificielle, entrent en application. Il s'agit, en particulier, d'un nouveau cadre pour les modèles à usage général (GPAI), c'est-à-dire des modèles qui ne sont pas conçus pour une tâche spécifique.
De nouvelles obligations
Parmi les obligations, se trouvent la fourniture d'une documentation technique aux utilisateurs pour comprendre le fonctionnement des modèles, la publication d'un résumé des contenus utilisés pour l'entraînement ainsi qu'une mise à disposition d'informations sur les performances.
Face à ce changement, le lobbying de la tech s'organise. La Computer & Communications Industry Association (CCIA) Europe, qui représente de grandes entreprises du numérique majoritairement américaines en Europe (Amazon, Apple, Meta, Google...), a appelé ce jeudi 26 juin les dirigeants européens à intervenir pour stopper temporairement l'horloge réglementaire.
Le risque d'étouffer l'innovation
"L’Europe ne peut pas prétendre diriger sur l’IA tout en gardant un pied sur le frein. Avec des éléments essentiels de l’AI Act encore absents à quelques semaines de son entrée en vigueur, nous avons besoin d’une pause pour bien faire les choses, ou nous risquons de bloquer l’innovation", a ainsi déclaré Daniel Friedlaender, chef du bureau de la CCIA Europe.
La CCIA insiste sur le fait qu'un moratoire temporaire permettrait de finaliser le socle juridique du texte, d'offrir aux entreprises un délai raisonnable pour se conformer ainsi que de garantir que le texte soutient réellement l'émergence d'une IA compétitive en Europe. Selon Boniface de Champris, responsable principal des politiques de l'association, "si l’UE veut réellement transformer sa promesse de 3400 milliards d’euros liés à l’IA en réalité, elle doit agir maintenant (...) afin de donner aux entreprises une chance équitable de se conformer et de rivaliser".
L'appel des lobbyistes intervient alors que se tient ce 26 juin une réunion des dirigeants européens pour discuter de la compétitivité de l'Union européenne.
Un texte complexe en cours de construction
Adopté formellement en mai 2024, l'AI Act est le premier texte qui encadre l'usage de l'intelligence artificielle. Il introduit un régime de régulation par les risques qui s'applique par palier. Des textes annexes sont prévus pour préciser certaines parties du texte. En février 2025, la Commission européenne a adopté des lignes directrices sur la définition des systèmes d'IA ainsi que sur les pratiques interdites.
Mais le travail est encore loin d'être terminé : la publication du code de conduite pour les modèles à usage général est en cours de rédaction. Trois projets ont été publiés (novembre 2024, décembre 2024 et mars 2025). Le dernier projet, annoncé pour mai 2025, n'a toujours pas été publié par le Bureau européen de l'IA.
Eviter des contraintes et des coûts
Les grandes entreprises ont tout intérêt à gagner du temps. En demandant une pause dans l'application de ce texte, elles cherchent à éviter des contraintes qui pourraient freiner le déploiement de leurs modèles en Europe et générer de nouveaux coûts liés à la mise en conformité.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
