Google fait un pas en avant vers la transparence. La firme s'attaque aux contenus générés par l'intelligence artificielle et explique comment elle compte implémenter "la Coalition for Content Provenance and Authenticity" (C2PA) qui rassemble des acteurs technologiques à l'origine d'un marqueur invisible pour identifier la provenance des contenus.
Pour mémoire, cette initiative lancée par Adobe, Arm, la BBC, Intel, Microsoft et Truepic en 2021 a permis de mettre au point différents standards, dont la norme commune Content Credentials. En février dernier, Meta, OpenAI et Google ont annoncé rejoindre la C2PA. Aujourd'hui, la firme de Mountain View lève le voile sur les avancées faites en la matière.
Une seconde version de la norme Content Credentials prête à l'emploi
Google a notamment planché sur une seconde version de la norme Content Credentials, dite "plus sécurisée contre un plus large éventail d'attaques de falsification en raison d'exigences techniques plus strictes pour valider l'historique de la provenance du contenu". L'objectif étant de garantir que les données jointes ne sont pas altérées ou trompeuses lors de tentatives d'attaques.
Initialement, la norme propose d’intégrer un marqueur invisible à un contenu sous forme de métadonnées. Pour une image ou une vidéo, il peut s'agir du nom de l’auteur, de sa date de création, de la crédibilité de la source, mais aussi de la manière dont elle a été créée (que ce soit manuellement ou à l'aide d'un outil utilisant des techniques d'intelligence artificielle).
Une intégration dans les différents services Google
Au cours des prochains mois, Google prévoit d'intégrer cette V2 de Content Credentials dans quelques-uns de ses produits clés, incluant la Recherche et les Publicités. Concrètement, si une image contient des métadonnées C2PA, les utilisateurs pourront utiliser la fonction "À propos de cette image" pour voir si elle a été créée ou modifiée avec des outils d'IA. La fonction fournit ainsi aux utilisateurs un contexte sur les images qu'ils voient en ligne et est accessible dans Google Images, Lens et Circle to Search.
Le géant de Mountain View explore également des moyens de relayer les informations C2PA aux utilisateurs sur YouTube lorsque le contenu est capturé avec une caméra. Par exemple, si les données montrent qu'une image a été prise par un modèle d'appareil photo spécifique, la liste de confiance décrétée par la C2PA permet de valider l'exactitude de cette information.
En parallèle, Google prévoit de continuer à intégrer SynthID (le "tatouage numérique" intégré créé par les équipes DeepMind) à d’autres outils d’IA de dernière génération pour la création de contenu, notamment le texte, l’audio, l’image et la vidéo. En outre, la firme assure qu'elle continue de progresser sur le sujet dans le cadre des engagements volontaires – et non contraignants – pris à la Maison Blanche l’année dernière.
Oui à la transparence, mais seulement pour les autres
Par comparaison, d'autres entreprises qui se sont précédemment engagées sur cette voie font preuve de réticence à l'idée de dévoiler des outils liés à la transparence. Le dernier exemple en date est celui d'OpenAI : la start-up a mis au point une technique de "tatouage numérique" (watermarking) pour le texte généré par ses modèles GPT. Très fiable, celle-ci serait prête depuis un an mais l'entreprise a préféré ne pas la mettre à disposition car elle peut être facilement contournée.
Son existence a été révélée le 4 août dernier par le Wall Street Journal, puis rapidement confirmée par OpenAI. L'entreprise spécifie que son approche en la matière est prudente et réfléchie car la situation est "complexe" et "son impact sur l'écosystème dépasserait OpenAI". L'auto-régulation ne semble pas vraiment être au programme pour la start-up, particulièrement après avoir dépassé le million d'utilisateurs payants.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
