Le gouvernement américain n'achètera ou n'utilisera pas de systèmes d'IA "biaisés", promet Trump

La commande publique se doit d'être d'une neutralité idéologique exemplaire. Du moins, c'est ce que Donald Trump laisse entendre avec un vaste plan visant à prévenir des systèmes d'intelligence artificielle biaisés. Objectif : faire des Etats-Unis le numéro un en matière d'IA.

Donald Trump - plan sur la course à l'IA
Donald Trump - plan sur la course à l'IA

L'Amérique entame sa révolution de l'intelligence artificielle. Ce 23 juillet 2024, le président des Etats-Unis, Donald Trump, a signé un "executive order" (l'équivalent d'un décret présidentiel) dont le nom est pour le moins provocateur "Preventing Woke AI in the Federal Government". Cette ordonnance part d’un diagnostic politique établi par la Maison-Blanche.

Selon elle, certaines idéologies - en particulier les approches regroupées sous l'acronyme DEI (diversité, équité, inclusion) - auraient contaminé des modèles d’IA au détriment de la vérité et de l'exactitude. L'exemple mis en avant est celui de modèles qui modifieraient la race ou le sexe de personnages historiques ou refuseraient certains types d’images ou d’assertions pour des raisons idéologiques.

Exit les biais

Objectif affiché : empêcher que l’administration fédérale n’achète ou n’utilise des systèmes d’IA "biaisés". Le texte érige ainsi deux principes directeurs regroupés sous le nom de "Unbiased AI Principles", conditions sine qua non pour tout grand modèle de langage à disposition de l’État fédéral. Ces principes se veulent la boussole de la commande publique en matière d’IA.

Le premier principe est la "recherche de la vérité" : les LLM doivent répondre avec exactitude, reconnaître l’incertitude lorsque les données manquent et privilégier l’histoire et la science plutôt que des récits orientés. Le second est "l'idéological neutrality" : les modèles ne doivent pas intégrer volontairement des jugements partisans ou idéologiques, y compris ceux associés au DEI, sauf si l’utilisateur les sollicite explicitement ou y a facilement accès.

L'utilisation de l'IA au gouvernement : pas vraiment un exemple

La mise en place d'un tel programme intervient dans un contexte particulier : la Maison Blanche a multiplié les polémiques ces dernières semaines en publiant des contenus générés par l'IA pour le moins tendancieux. Donald Trump lui-même a repartagé sur son réseau Truth Social une vidéo, générée par l'IA, mettant en scène l'arrestation de Barack Obama à la Maison Blanche. Dans cette vidéo, l'ancien président américain est notamment mis à genoux puis menotté par deux agents du FBI. Le tout, sous les yeux ravis de Donald Trump.

Autre histoire, autre déboire : fin mai, le milliardaire Elon Musk et son équipe DOGE (département d'Etat pour l'efficacité gouvernementale) annonçaient étendre l'utilisation du chatbot Grok, développé par l'une des start-up de l'homme d'affaires, xAI, au sein du gouvernement fédéral américain pour analyser des données. Au-delà du fait que cela pourrait enfreindre les lois sur les conflits d’intérêts et mettre en danger des données sensibles concernant des millions d'Américains, Grok lui-même s'avère problématique.

En cause : le chatbot a partagé sur le réseau social X de très nombreux messages violents, dont un grand nombre empruntaient à une rhétorique complotiste, antisémite et même nazie. Et ce n'est pas le seul épisode, puisqu'en mai, le chatbot s'était en effet mis à disserter avec insistance sur un prétendu "génocide des Blancs" en Afrique du Sud, rejoignant une obsession largement fantasmée du milliardaire sud-africain. Alors, quid de ce type d'IA ? Exit ? Ou profitera-t-elle d'une dérogation spéciale ?

Branle-bas de combat pour adapter les contrats à ce plan

Pour mettre ces règles en musique, l’Office of Management and Budget (OMB) dispose de 120 jours pour publier des lignes directrices détaillant comment appliquer les principes. Il faudra tenir compte des limites techniques, laisser de la flexibilité d’innovation aux fournisseurs, admettre une transparence via la divulgation de prompts systèmes, d’évaluations ou de spécifications plutôt que des poids de modèles, préciser quand étendre ces exigences à d’autres IA que les LLM, et prévoir des exceptions pour les systèmes liés à la sécurité nationale.

La suite de ce labyrinthe administratif est toute aussi compliquée : une fois ces directives émises, chaque haut placé en charge d'une agence fédérale devra introduire dans les nouveaux contrats des clauses imposant le respect des principes et prévoyant que, en cas de rupture pour non-conformité après un délai de remédiation, les coûts de décommissionnement seront à la charge du fournisseur. Dans la mesure du possible, les contrats existants devront être modifiés en ce sens, et des procédures internes devront être adoptées dans les 90 jours pour vérifier la conformité des LLM utilisés.

Un ensemble de mesures qui poursuivent le travail débuté en 2020

Ce plan s'inscrit par ailleurs dans la continuité de l'Executive Order 13960 sur une IA "fiable" dans le secteur public. Pris le 3 décembre 2020, l'ordonnance "Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government" exige que les agences conçoivent, développent, acquièrent et utilisent l’IA de manière légale, fiable, transparente et respectueuse de la vie privée, des droits civils et des libertés publiques, selon un ensemble commun de principes.

Dans ce cadre, l'OMB est chargée d'émettre des lignes directrices, impose aux agences de recenser leurs cas d’usage d’IA et mobilise la GSA (General Services Administration) et l’OPM (Office of Personnel Management) pour renforcer les compétences internes nécessaires à cette gouvernance.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.