Contexte
"L’intelligence artificielle est le grand mythe de notre temps", selon l’ancienne Présidente de la CNIL, Mme Isabelle Falque-Pierrotin. Ces nouvelles technologies génèrent des bouleversements multiples, notamment dans nos vies quotidiennes. L’intelligence artificielle se définit comme un "champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d'assistance ou de substitution à des activités humaines" (JO du 9 décembre 2018, Vocabulaire de l’IA).
Un ensemble de techniques permettra de créer des machines capables de prendre des décisions, et "d'adopter" des comportements humains grâce notamment à des capacités logique, d’apprentissage et de résolution de problèmes complexes. C’est surtout les IA dites génératives de contenus qui sont sous les projecteurs des médias, spécialement avec la venue de ChatGPT et Midjourney et c’est certainement cela qui a accéléré les discussions sur la proposition de règlement pour aboutir à un projet de mandat de négociation sur les premières règles internationales sur l’IA. Des amendements à la proposition de règlement ont été votés le 14 juin 2023.
Nouvelles orientations de la proposition de règlement
En amendant la proposition de la Commission européenne, les Parlementaires européens poursuivent une idée centrale qui consiste à garantir que les SIA demeurent sous le contrôle d’un être humain. De plus, ces systèmes d’IA doivent être sûrs, transparents et traçables ; ils doivent être non discriminatoires et respecter l’environnement.
Pour ce faire, il conviendra de disposer d’une définition uniforme de l’IA de sorte qu’elle respecte le principe de neutralité technologiquement, que l’on trouve dans de nombreux textes européens et internationaux (ex : CNUDCI). Ainsi, les règles qui seront applicables aux systèmes d’IA devraient le rester en dépit des évolutions technologiques. Suite aux derniers amendements du 28 juin 2023, le "système d’intelligence artificielle" devrait être défini comme "un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels;" (art. 3.1).
Modifications de la liste des risques
On rappellera que la proposition de règlement est fondée sur une approche de risques en quatre niveaux pour les fournisseurs et les utilisateurs (risque minimal ou nul, risque limité, risque élevé, risque inacceptable). Le niveau de risque inacceptable pour la sécurité des personnes est strictement interdit. Tel est le cas pour les SIA véritablement discriminatoires à l’égard des personnes : ceux qui développent des techniques subliminales ou qui sont délibérément manipulatrices, qui exploitent les vulnérabilités des personnes ou qui sont employés pour la notation sociale permettant d’établir un classement des personnes en fonction de leurs comportements sociaux, ou selon leur statut socio-économique et encore en fonction de leurs caractéristiques personnelles.
Les députés européens ont modifié la liste initiale en introduisant les SIA intrusifs et discriminatoires (ex : les Systèmes biométriques à distance en temps réel ; les systèmes de police prédictifs fondés sur le profilage ou le comportement criminel antérieur ; la récupération aveugles de données biométriques issus des réseaux sociaux ou de la vidéo-protection afin de créer des bases de données pour la reconnaissance faciale, etc.).
Les eurodéputés ont également élargi la liste des SIA à haut risque afin d’inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux et à l’environnement. De même, les SIA utilisés pour influencer les électeurs à l’occasion des campagnes électorales. Finalement, on constate que les eurodéputés ont procédés à une gradation plus fine des interdictions et des obligations des fournisseurs et des utilisateurs.
Les modèles d’IA générative
S’agissant des modèles tels que ChatGPT mis en ligne en décembre 2022, les amendements ont intégré les IA génératives entendues comme des IA, issues de modèles de fondation, spécifiquement destinées à générer, avec différents niveaux d'autonomie, du contenu tel que du texte complexe, des images, du son ou de la vidéo. Des questions renouvelées se posent en matière de droit de la protection des données personnelles, des droits de propriété intellectuelle ou encore du rapport de l’homme à la connaissance.
Le "problème" posé par ChatGPT ne réside pas uniquement dans la fraude qu’il permet eu égard aux connaissances qu’il promeut, et ce avec une exécution très rapide, mais dans la prolifération des IA très dangereuses, ce qui a conduit les parlementaires européens à proposer la création d’une instance chargée de lutter contre cette prolifération (un bureau européen de l’IA) mais aussi à mettre à la charge des fournisseurs de modèles (article 28 ter) des obligations de diligence complémentaires à celles applicables à tous les SIA à haut risque, au regard des risques additionnels attachés à ces modèles, qui s'inspirent des obligations d'identification et d'atténuation des risques pour la santé, la sécurité, les droits fondamentaux, l'environnement, la démocratie et l'État de droit, mises à la charge des très grandes plateformes au sein des articles 34 et 35 du Digital Services Act (DSA). D’autres obligations sont aussi mises à la charge de ces fournisseurs (art. 28 bis, § 4) en vue de prendre en compte des risques spécifiques d'atteinte à la liberté d'expression et à la protection des droits de propriété intellectuelle.
Ces modèles devront se conformer à des exigences de transparence, comme par exemple l’information que le contenu a été généré par un SIA. Les nouvelles règles vont promouvoir un système de bac-à-sable au sein desquels les IA seront testées avant d’être déployées.
Par ailleurs, on observera que de son côté, le Conseil de l’Europe œuvre parallèlement sur une convention-cadre relative à l’IA orientée sur les droits de l’homme, la démocratie et l’état du droit, alors que la Commission des Nations Unies pour le droit commercial international (CNUDCI) est en train de travailler sur un texte ayant trait aux contrats qui utilisent l’IA. Chacun des projets de organisations internationales a un périmètre différent, mais qui, au final, se complètent.
Eric A. Caprioli, Avocat à la Cour, Docteur en droit
Caprioli & Associés, société d’avocats membre du réseau JURISDEFI
Les avis d'experts sont publiés sous l'entière responsabilité de leurs auteurs et n'engagent en rien la rédaction.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
