Noyb porte plainte contre OpenAI pour mauvais traitement des données personnelles

L’association Noyb a déposé une plainte contre OpenAI auprès de l’autorité autrichienne de protection des données. Elle reproche à la start-up d'avoir fourni, via son agent conversationnel ChatGPT, certaines informations à caractère personnel inexactes, et de ne pas avoir procédé à leur correction. Selon l’association, laisser des données erronées de ce type enfreint le RGPD.

OpenAI logo
Noyb, association de protection de la vie privée, a annoncé porter plainte contre OpenAI pour avoir fourni, via son agent conversationnel ChatGPT, des informations à caractère personnel erronées.

ChatGPT hallucine, et même OpenAI ne peut l’arrêter” : Noyb, association de protection de la vie privée, annonce le 29 avril avoir porté plainte contre OpenAI auprès de l’autorité autrichienne de protection des données (DSB). En cause, l’inaction de la start-up sur la correction de certaines informations à caractère personnel fournies par son service ChatGPT.

Des données personnelles inexactes, sans rectification possible

Noyb a interrogé ChatGPT sur la date de naissance du fondateur de l’association, Max Schrems. L’agent conversationnel lui a alors donné des informations incorrectes à plusieurs reprises plutôt que d’indiquer qu’il ne disposait pas des données nécessaires. “OpenAI a refusé sa demande de rectification ou de suppression des données, expliquant qu’il n’était pas possible de corriger les données (…), ajoute Noyb. OpenAI n’a communiqué aucune information sur les données traitées, leurs sources ou leurs destinataires.”

Pour l’association, le fait de laisser des données personnelles inexactes en ligne enfreint trois articles du RGPD. L’article 5 dispose que “les données à caractères personnel doivent être exactes et, si nécessaire, tenues à jour”. L’article 16 indique que les individus ont un droit de rectification et de suppression des fausses informations en cas d’inexactitude des données personnelles. Enfin, l’article 15 prévoit que les entreprises doivent pouvoir montrer les données détenues par les individus, et les sources utilisées.

Noyb souhaite que la Cnil autrichienne inflige une amende à OpenAI

“Inventer de fausses informations est en soi assez problématique, fustige dans le communiqué Maartje de Graaf, avocate spécialisée en protection des données. Mais lorsqu’il s’agit de fausses informations sur les individus, les conséquences peuvent être graves. Les entreprises ne sont actuellement pas en mesure de faire en sorte que les chatbots comme ChatGPT soient conformes au droit de l’UE lorsqu’ils traitent des données sur des individus.”

L’association demande à la DSB d’enquêter à la fois sur le traitement des données d’OpenAI et les mesures prises pour garantir l’exactitude des données personnelles. Elle espère aussi que la start-up se conforme à la demande d’accès du plaignant et se mette en conformité avec le RGPD, et qu’elle inflige une amende pour garantir le respect de ces obligations.

ChatGPT avait déjà été interdit en Italie pendant un mois

Ces derniers mois, Noyb (none of your business) a multiplié les plaintes à l’encontre des géants de la tech. En décembre, elle a déposé plainte contre le réseau social X (ex-Twitter) pour avoir utilisé les données sensibles de ses utilisateurs, afin de diffuser une campagne publicitaire menée par la Commission européenne. Un mois plus tard, l’association a dénoncé, pour la seconde fois, les pratiques de Meta sur son abonnement permettant aux utilisateurs de naviguer sur Facebook sans publicité.

Noyb est également à l’origine de la condamnation de Meta, l’année dernière, à 1,2 milliard d’euros d’amende. L’autorité irlandaise de protection des données reprochait à la firme d’avoir transféré les données personnelles de ses clients européens vers les États-Unis.

En mars 2023, l’autorité de protection des données italienne avait annoncé la suspension de ChatGPT dans le pays pour atteinte au RGPD. Elle accusait surtout la start-up californienne de ne pas donner assez d’informations aux utilisateurs sur la manière dont les données étaient collectées, et observait une “absence de base légale justifiant la collecte et le stockage massifs de données personnelles”. L'agent conversationnel avait été à nouveau autorisé un mois plus tard, après certaines modifications par OpenAI.

Vous souhaitez être en veille sur l’actualité du secteur de l’intelligence artificielle ? Inscrivez-vous gratuitement à la newsletter IA Insider.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.