Dans le cadre d’une mise à jour, initialement publiée le 18 septembre dernier, LinkedIn s’arroge le droit de collecter les données de ses utilisateurs européens. La date fatidique - le 3 novembre 2025 - est arrivée. Désormais, les informations rendues publiques sur le réseau social professionnel peuvent être utilisées pour développer ses systèmes d’intelligence artificielle générative.
Il s’agit des données disponibles sur le profil, les publications, les commentaires ainsi que les recommandations. En revanche, les messages privés ne peuvent pas être utilisés. Les utilisateurs peuvent refuser cette collecte en s’y opposant dans leurs paramètres.
Améliorer l’expérience du réseau social
L’entreprise affirme que cette nouvelle collecte a pour objectif d’améliorer “l’expérience” et de connecter “plus efficacement les membres aux opportunités”. Pour justifier ce traitement, LinkedIn invoque l’intérêt légitime, prévu par l’article 6 du Règlement général sur la protection des données (RGPD).
Comme le rappelle la Commission nationale de l’informatique et des libertés (Cnil), pour être valable, trois conditions doivent être respectées : l’intérêt poursuivi par l’organisme doit être “légitime”, l’intérêt légitime ne peut être retenu que si le traitement satisfait à la condition de “nécessité” (le responsable du traitement doit être capable de démontrer la validité du recours à cette base) et le traitement ne doit pas heurter les droits et intérêts des personnes dont les données sont traitées, compte tenu de leurs attentes raisonnables.
L’intérêt légitime, une aubaine pour les projets d’IA générative
Face à l’explosion des projets d’IA générative menés par les grandes entreprises technologiques, le Comité européen de la protection des données (European Data Protection Board, EDPB) avait rendu une décision précisant les contours du recours à l’intérêt légitime, en décembre 2024. Elle confirmait que cette base légale pouvait être utilisée pour justifier la collecte de données à des fins d’entraînement de modèles d’IA générative, sous conditions.
Or, invoquer l’intérêt légitime reste un pari risqué. Cette base n’offre pas de sécurité juridique automatique. Elle suppose que l’entité démontre que l’usage des données est nécessaire. L’intérêt doit être licite au regard du droit et il doit être déterminé de façon claire, précise et être réel.
Autre point essentiel : d’après les lignes directrices de l’EDPB du 8 octobre 2024, la notion de nécessité implique que le traitement doit être le moyen le moins intrusif pour atteindre l’intérêt légitime. S’il existe d’autres moyens raisonnables et moins intrusifs pour atteindre le même objectif, le traitement ne sera pas considéré comme nécessaire. Ce qui signifie que le réseau social professionnel doit prouver que ses modèles d’IA générative ne peuvent pas être entraînés avec des données anonymisées ou synthétiques (données artificielles créés par un algorithme à partir de modèles statistiques ou d’échantillons réels).
Les attentes raisonnables des utilisateurs
Le RGPD exige également que le traitement corresponde aux attentes raisonnables des utilisateurs. Or, si les membres d’un réseau social peuvent s’attendre à ce que leurs contenus servent à améliorer la plateforme, le fait qu’ils puissent servir à alimenter des algorithmes est moins évident.
Autrement dit, l’intérêt légitime permet d’éviter la contrainte du consentement explicite, mais provoque une certaine insécurité juridique. Pour l’instant, aucune enquête n’a été ouverte contre LinkedIn. Le sujet est tout de même surveillé de près. Le précédent de Meta, contraint de suspendre un projet équivalent après des plaintes, a marqué un tournant.
La Data Protection Commission (DPC), l’équivalent irlandais de la Cnil, avait également ouvert une enquête en avril 2025 sur l’utilisation de données publiques d’utilisateurs européens disponibles sur le réseau social X à des fins d’entraînement de la famille de LLM Grok.
Le RGPD mis à rude épreuve
Ces affaires illustrent une tendance : avec l’essor de l’IA générative, le RGPD est mis à rude épreuve. Ce texte, adopté en 2016, n’avait pas été conçu pour encadrer de tels modèles. L’enjeu n’est pas d’empêcher l’innovation mais de la rendre compatible avec le droit des données personnelles. L’Europe doit ainsi jongler entre ces deux impératifs, dans un contexte de concurrence mondiale où elle accuse déjà un retard important sur le développement de l’IA.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
