OpenAI pose un premier jalon vers une protection des artistes face à Sora 2

En lançant Sora 2, OpenAI a ouvert la porte à une multitude de risques, allant de la reproduction non autorisée d'images aux deepfakes et usurpation d'identité. Face au soulèvement de certains syndicats représentant les professionnels du divertissement, la start-up de Sam Altman a décidé de faire un pas vers eux avec la mise en place d'une politique opt-in.

OpenAI Sora 2
OpenAI Sora 2

SAG-AFTRA, le syndicat américain des acteurs et professionnels du divertissement, est parvenu à un accord avec OpenAI pour la protection de ses membres contre l'utilisation de leur voix et de leur image dans son application Sora. Il s'est fait avec la participation de l'Association of Talent Agents, de l'United Talent Agency, de la Creative Artists Agency et de l'acteur Bryan Cranston – connu pour avoir interprété les rôles de Hal dans la série télévisée Malcolm et de Walter White dans Breaking Bad.

La voix et l’image de l’acteur Bryan Cranston ont pu être générées dans certaines productions sans son consentement ni compensation lors du lancement initial de Sora 2 par OpenAI, il y a deux semaines, dans une version réservée à quelques invités, apprend-on. Ce dernier s'est tourné vers son syndicat et vers OpenAI afin de résoudre l'affaire au plus vite. Au-delà de cet exemple, bien d'autres sont très vite apparus, et OpenAI a affirmé avoir, dans la foulée, qu'il renforcerait les mesures de protection contre la réplication de la voix et de l’image lorsque les individus n’ont pas donné leur accord.

Un accord à l'amiable

Une politique d’opt-in (adhésion volontaire) pour l’utilisation de la voix ou de l’image d’un individu dans Sora 2 a ainsi été mise en place. Tous les artistes, interprètes et individus auront le droit de décider s’ils peuvent être simulés et dans quelles conditions. En outre, OpenAI s’est également engagé à répondre rapidement à toute plainte qu’elle pourrait recevoir.

Si cette issue est présentée de manière amicale, OpenAI a appliqué une technique éprouvée de la part des acteurs des nouvelles technologies en lançant une application qui donnerait évidemment lieu à d'innombrables violations. Comme le veut l'adage, "il est plus simple de demander pardon que de demander la permission."

Vers une loi de protection fédérale aux Etats-Unis

Cette initiative rejoint les principes de la loi No Fakes (Nurture Originals, Foster Art, and Keep Entertainment Safe Act) réintroduite en 2025 au Congrès américain, tant à la Chambre des représentants (H.R.2794) qu’au Sénat (S.1367). Toujours en cours d'examen, elle est conçue pour protéger les artistes et le public contre la réplication numérique non autorisée.

Plus précisément, elle cherche à créer un droit fédéral de contrôle sur les répliques numériques de la voix et de l’image, à protéger les victimes de deepfakes, et à établir des normes nationales pour éviter un patchwork de lois d’État. Elle prévoit aussi des mécanismes de retrait des contenus non autorisés similaires à ceux du Digital Millennium Copyright Act (DMCA).

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.