Oui ou non ? La question posée est cruciale et la réponse d'autant plus. Anthropic vient de procéder à une mise à jour de ses conditions d’utilisation pour les particuliers et de sa politique de confidentialité, dans l'objectif de "proposer des modèles d’IA encore plus performants et utiles". Seul hic : les utilisateurs doivent désormais choisir s'ils veulent ou non autoriser l’utilisation de leurs données pour améliorer Claude "et renforcer les protections contre les usages nuisibles, comme les escroqueries et les abus".
Ces mises à jour s’appliquent aux utilisateurs des offres Claude Free, Pro et Max, y compris lorsqu’ils utilisent Claude Code depuis des comptes associés à ces formules. Elles ne concernent pas les services régis par les conditions commerciales, notamment Claude for Work, Claude Gov, Claude for Education, ni l’utilisation de l'API, y compris via des tiers comme Amazon Bedrock ou Vertex AI de Google Cloud.
Des données conservées cinq ans durant
Anthropic pousse évidemment ses utilisateurs à dire oui à l'utilisation de leurs conversations avec Claude afin d'améliorer la sécurité des modèles, entre autres via le renforcement de la précision de ses systèmes de détection de contenus nuisibles. Reste que prendre les utilisateurs par les sentiments a très peu de chances d'aboutir. Car, si ces derniers finissent effectivement par dire oui, ils doivent être mis au courant d'un autre paramètre à prendre en compte dans leur décision : la start-up a décidé de prolonger la durée de conservation des données à cinq ans, si autorisation effective il y a.
Cette durée de conservation mise à jour ne s’appliquera qu’aux nouvelles conversations ou sessions de codage, est-il précisé. Si l'utilisateur décide de supprimer une conversation avec Claude, elle ne sera pas utilisée pour l’entraînement futur des modèles. La nouvelle période de conservation de cinq ans s’appliquera également aux retours soumis à l'entreprise concernant les réponses de Claude à leurs invites. Et dans le cas où l'utilisateur s'opposerait à cette utilisation, la durée de conservation actuelle de 30 jours restera en vigueur.
La date limite fixée au 28 septembre
Bien entendu, Anthropic se veut rassurant autant que possible : "Vous gardez toujours le contrôle de ce paramètre et de l’utilisation de vos données. Si vous êtes un nouvel utilisateur, vous pourrez sélectionner votre préférence lors de l’inscription. Les utilisateurs existants verront ce choix s’afficher dans une fenêtre contextuelle, comme illustré ci-dessous".
À partir d’aujourd’hui donc, les utilisateurs vont recevoir des notifications pour consulter ces mises à jour et gérer leurs paramètres. Pour ceux qui utilisent déjà Claude, la date limite pour se décider est fixée au 28 septembre 2025. "Si vous acceptez les nouvelles politiques dès maintenant, elles entreront en vigueur immédiatement. Ces mises à jour ne s’appliqueront qu’aux nouvelles conversations ou sessions de codage, ou à celles reprises après cette date. Après le 28 septembre, vous devrez faire votre choix concernant le paramètre de formation des modèles pour continuer à utiliser Claude. Vous pourrez modifier votre décision à tout moment dans vos Paramètres de confidentialité", ajoute Anthropic.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
