La Federal Trade and Commission (FTC), gendarme américain de la concurrence, a annoncé, dans un communiqué le 15 février, vouloir davantage réglementer l’usurpation d’identité, notamment générée par intelligence artificielle. Jusqu’à présent, la fraude pour ce type d’usurpation concernait seulement les agences gouvernementales et les entreprises.
Une proposition faite au regard de la prolifération des deepfakes, ces fausses représentations visuelles (image, vidéo) et sonore (voix). Dans un sondage réalisé par YouGov fin janvier, 85% des Américains se disent très ou plutôt préoccupés par la propagation de deepfakes audio et vidéo.
Agir directement sur les plateformes d’IA générative
Le gendarme de la concurrence souhaite également rendre illégal, pour les plateformes d’intelligence artificielle générative, le fait de fournir des biens ou services dont elle sait, ou a des raisons de penser, qu’ils sont utilisés pour nuire dans le cadre d’une usurpation d’identité. Une mesure d’ampleur et qui nécessite un encadrement précis, alors que certaines plateformes comme Midjourney ou Microsoft Designer ont récemment été épinglées pour avoir faciliter la création d'images illicites. La mise en application de cette règle reste toutefois soumise aux commentaires publics reçus par la FTC.
“Il est plus que jamais essentiel de protéger les Américains contre la fraude par usurpation d’identité, a déclaré Lina Khan, présidente de la FTC. Les extensions que nous proposons à la règle sur l’usurpation d’identité feraient cela, en renforçant la boîte à outils de la FTC pour lutter contre les arnaques fondées sur l’IA usurpant l’identité des individus.” La FTC a aussi finalisé la règle sur l’usurpation d’identité gouvernementale et commerciale, en se laissant la possibilité de déposer plainte directement devant les tribunaux fédéraux. L’objectif étant de forcer les fraudeurs à restituer l’argent escroqué.
L’impact de ces deux dispositions reste toutefois limité, d’une part car aucune loi fédérale n’interdit pas catégoriquement les deepfakes, et d’autre part car ces mesures restent "faibles" pour empêcher les criminels d’agir.
Propagation inquiétante du nombre de deepfakes
Ces dernières semaines, les deepfakes se sont propagés à vitesse grand V, en étant utilisés dans des domaines toujours plus larges. Fin janvier, la chanteuse Taylor Swift avait été victime de montages à caractère pornographique créés par Microsoft Designer. Au début du mois, un employé d’une entreprise dans la finance s’était fait arnaquer de 24 millions d’euros à cause d’un deepfake de son directeur financier.
Cette prolifération de fausses images très réalistes intervient dans une période de développement massif des plateformes d’IA générative texte-image, texte-audio et texte-vidéo. Après avoir lancé il y a trois ans son générateur d’images DALL-E, OpenAI vient de dévoiler Sora, un outil de génération vidéo aux performances époustouflantes.
Pour réguler au mieux la génération de deepfakes par ces plateformes, Google, Microsoft, Meta, OpenAI, Adobe et TikTok seraient en passe de signer un accord, selon un communiqué conjoint publié le 13 février. Intitulé "Tech Accord", il viserait surtout à atténuer les risques de deepfakes politiques : “Dans une année critique pour les élections mondiales, les entreprises technologiques travaillent sur un accord pour lutter contre l’utilisation trompeuse de l’IA ciblant les électeurs”, a déclaré David Cuddy, porte-parole de Microsoft. Les détails de cet accord devraient être présentés ce vendredi, lors de la conférence sur la sécurité de Munich (Allemagne).


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
