Les géants américains de la tech ont su convaincre Gavin Newsom. Dimanche 29 septembre, le gouverneur de Californie a annoncé avoir apposé son veto à un projet de réglementation de l'intelligence artificielle générative, pourtant voté à une très large majorité par les élus de l’Etat au début du mois.
“Bien qu'ayant de bonnes intentions, le projet de loi ne prend pas en compte si un système d'IA est déployé dans des environnements à haut risque, s'il implique des décisions critiques ou l'utilisation de données sensibles. Au lieu de cela, il applique des normes strictes même aux fonctions les plus basiques, tant qu'un grand système les utilise. Je ne pense pas que ce soit la meilleure approche pour protéger le public contre les véritables menaces posées par la technologie”, justifie l’ancien maire de San Francisco.
Tests de sécurité
Si Gavin Newsom estime qu’une réglementation de l’IA est indispensable, il souhaite que celle-ci se base sur des “preuves empiriques et scientifiques”. Le gouverneur se dit ainsi prêt à travailler avec le Congrès de Californie sur un nouveau projet de loi qui permettrait de “protéger contre les menaces réelles sans entraver inutilement le potentiel de cette technologie”.
Baptisée SB 1047, la législation devait s’appliquer aux modèles dont l’entraînement a coûté plus de 100 millions de dollars en ressources informatiques. Ou ceux issus d’un modèle open source et dont l’ajustement (fine tuning) a coûté plus de 10 millions. Dans les faits, seulement une poignée d’entreprises auraient été concernées.
Le texte leur imposait de mettre en place des tests de sécurité, de réaliser des audits annuels sur leurs protocoles de sécurité ou encore d’instaurer un mécanisme pour désactiver leurs modèles en cas de menaces. Il devait aussi permettre à la justice de lancer des poursuites contre des entreprises si des négligences se traduisaient par un “préjudice grave”.
Critiques de la Silicon Valley
Sous l’impulsion de la start-up Anthropic, le projet de loi avait largement été amendé. La version finale indiquait que les développeurs d’IA devaient faire preuve de “diligence raisonnable” en matière de sécurité et non plus “d’assurance raisonnable”, une définition judiciairement moins contraignante. Autre modification: les développeurs ne risquaient plus de poursuites pénales mais simplement civiles.
Pour autant, la loi suscitait une importante vague de contestations chez de nombreux acteurs de la Silicon Valley. Tous prédisaient qu’elle allait nuire à l’innovation. Et certains, comme OpenAI et Google, préconisaient des règles au niveau national… tout en sachant qu’il n’existe aucun consensus à Washington.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
