Elles étaient attendues au tournant. 20 entreprises technologiques ont annoncé lors d'une conférence sur la sécurité à Munich la création d'un accord technologique pour lutter contre l'utilisation trompeuse de l'IA lors des élections de 2024. Sans grande surprise, on retrouve parmi les signataires Adobe, Amazon, Anthropic, ARM, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap, Stability AI, TikTok, TrendMicro, TruePic et X.
Le "Tech Accord to Combat Deceptive Use of AI in 2024 Elections" comporte un ensemble d'engagements visant à déployer des technologies pour contrer les contenus nuisibles générés par l'IA et destinés à tromper les électeurs. Les signataires s'engagent à travailler en collaboration sur des outils permettant de détecter et de traiter la diffusion en ligne de ces contenus d'IA, de mener des campagnes de sensibilisation et d'assurer la transparence, entre autres.
Audios, vidéos et images générés par l'IA passés au peigne fin
Les contenus numériques visés par l'accord sont les fichiers audio, vidéo et images générés par l'IA qui imitent ou modifient de manière trompeuse l'apparence, la voix ou les actions de candidats politiques, d'agents électoraux et d'autres acteurs clés d'une élection démocratique, ou qui fournissent de fausses informations aux électeurs sur le moment, le lieu et la manière dont ils peuvent voter.
Huit engagements spécifiques ont ainsi été pris par ce consortium. Il s'agit notamment de développer et mettre en œuvre une technologie pour atténuer les risques liés au contenu électoral trompeur de l'IA, y compris des outils open source le cas échéant. Les modèles seront soumis à une évaluation afin de comprendre les risques qu'ils peuvent présenter en ce qui concerne les contenus électoraux trompeurs de l'IA. Des recherches seront également menées afin de détecter la diffusion de ce contenu sur leurs plateformes et traiter de manière appropriée ces contenus.
Plusieurs solutions mises en avant
Des techniques visant à prouver l'authenticité d'un contenu ont déjà été identifiées. Cela inclut l'ajout de métadonnées ou de "watermark" (marqueur) permettant d'avoir davantage d'informations sur la provenance et la fiabilité des fichiers. Des équipes de sécurité devraient également voir le jour au sein des différents signataires. Microsoft, par exemple, s'est déjà engagé à "supprimer et interdire ce type de contenu de LinkedIn, de notre réseau de jeux et d'autres services Microsoft pertinents, conformément à nos politiques et pratiques".
OpenAI a également pris les devants et déclaré qu'il était interdit de créer des GPT à des fins de campagne politique et de lobbying, tout comme l'utilisation de ses modèles pour alimenter des chatbots qui se font passer pour de vraies personnes, entreprises ou gouvernements, ou qui se mêlent de tout processus démocratique. Son rival Anthropic planche également sur le sujet et compte développer des mesures de protection autour de son chatbot Claude avant les élections prévues pour cette année, notamment en redirigeant les invites liées au vote hors du service.
Un besoin de transparence envers le public
En parallèle, le travail réalisé devra être communiqué de façon transparente au public, lui-même régulièrement sensibilisé sur le sujet. "Avec les élections qui se dérouleront dans le monde entier cette année, nous devons investir dans des campagnes d'éducation aux médias pour que les gens sachent qu'ils ne peuvent pas faire confiance à tout ce qu'ils voient et entendent en ligne, et qu'il existe des outils pour les aider à comprendre ce qui est vrai", commente Dana Rao, directeur juridique et directeur de la confiance chez Adobe.
2024, une année chargée en élections
Comme l'affirme Reuters, "les pays qui représentent plus de 60 % de la production économique mondiale et plus de la moitié de la population organisent des élections cette année". Ainsi, après les élections taïwanaises en janvier dernier puis le lancement des primaires républicaine et démocrate dans les différents Etats aux Etats-Unis, c'est au tour de la Russie et de l'Ukraine de se préparer à voter, suivis de la Corée du Sud, le Panama, la République dominicaine, le Mexique, et de l'Union européenne.
Le second semestre de cette année s'avère tout aussi chargé, rythmé par des élections au Rwanda, au Mozambique, en Uruguay, aux Etats-Unis puis au Ghana. D'autres pays – dont les dates ne sont pas encore connues – doivent également se préparer à des élections, à l'instar de la Croatie, la Roumanie et l'Autriche. En ce sens, il est plus que jamais nécessaire de protéger l'ensemble du processus électoral et les électeurs.
Une explosion du nombre de deepfakes
L’essor du contenu généré par l’IA a suscité de graves problèmes de désinformation liés aux élections, le nombre de deepfakes créés augmentant de 900 % d’année en année, selon les données de Clarity, une société d’apprentissage automatique. Le dernier épisode marquant en date étant celui des appels téléphoniques automatisés imitant la voix de Joe Biden. Ils avaient exhorté des électeurs démocrates à ne pas voter à la primaire pour l'élection présidentielle dans l'Etat du New Hampshire.
"Il est essentiel que nous fassions tout ce qui est en notre pouvoir pour empêcher les gens d'être trompés par du contenu généré par l'IA", estime Nick Clegg, président des affaires mondiales chez Meta. C'est pourquoi il semble plutôt sein de vouloir réunir ces entreprises afin de faire converger les efforts.
"Ce travail dépasse le cadre d'une seule entreprise et nécessitera un effort considérable de la part de l'industrie, du gouvernement et de la société civile", ajoute Nick Clegg. Si l'on peut saluer l'initiative, notons toutefois que les contours de cet accord sont assez flous. Il n'est ainsi pas précisé quel est le calendrier pour respecter ces engagements ni comment chaque entreprise les mettra en œuvre.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
