Bloqué en Italie, visé par une enquête au Canada, poursuivi pour diffamation en Australie… et désormais signalé à la Cnil. Les péripéties s’accumulent pour ChatGPT, le robot conversationnel conçu par la start-up américaine OpenAI.
Au moins deux plaintes viennent d’être déposées auprès du gendarme français des données personnelles. Elles émanent du développeur David Libeau, très actif sur les questions liées à la protection de la vie privée, et de l’avocate Zoé Vilain, également présidente de Janus International, une association de sensibilisation aux enjeux du numérique.
Absence de base légale
“L’absence apparente de base légale dans la politique de protection des données de ChatGPT est une préoccupation majeure”, explique David Libeau, sur son blog personnel. Un sentiment partagé par Zoe Villain, qui met en avant l’absence de conditions générales d’utilisation ou de politique de confidentialité, devant être acceptées par les utilisateurs.
Ce manquement est avancé par les autorités canadiennes, qui viennent de lancer des investigations. Il avait aussi été avancé fin mars par la GPDP, la Cnil italienne, pour justifier le blocage du service dans le pays. Un délai de 20 jours a été accordé à OpenAI pour prendre des mesures correctives. Passé cette date, la start-up américaine risque une amende pouvant atteindre 20 millions d’euros ou 4% de son chiffre d’affaires.
Dans sa plainte, révélée par le site L’Informé, Zoe Villain indique également que la société “n’a pas été en mesure de donner droit à [sa] demande d’accès à [ses] données personnelles dans les délais impartis, et ce sans justification”. Cela représente une violation du Règlement général sur la protection des données (RGPD).
Informations incorrectes
Troisième problème signalé à la Cnil : un défaut de loyauté. “Les informations générées par ChatGPT peuvent être incorrectes [et] peuvent nuire à la réputation des personnes ou des organisations concernées”, avance David Libeau, qui estime que le robot conversationnel doit garantir “l’exactitude et la fiabilité de ses informations générées”.
La multiplication des erreurs factuelles, inhérente au fonctionnement même de ChatGPT, est au cœur d’un potentiel procès en diffamation en Australie, où un élu local reproche au service d’affirmer qu’il a été condamné dans une affaire de corruption au sein de la banque centrale australienne.
Interrogée, la Cnil indique que son objectif sera “de clarifier le cadre légal dans les prochains mois”, soulignant “s’être rapprochée de son homologue italienne” pour discuter de ses conclusions.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
