Le gouverneur de Californie, Gavin Newsom, a signé lundi la loi sur la transparence de la Frontier Artificial Intelligence Act (SB 53), établissant les premiers règlements de l’État américain pour diriger les sociétés d’IA grâce à des exigences obligatoires de transparence et de déclaration de sécurité. Le projet de loi est la première loi aux États-Unis à réglementer explicitement la sécurité des modèles puissants et d’IA frontaliers. Alors que d’autres États ont adopté des lois sur certains aspects de l’IA, SB 53 crée un cadre réglementaire distinct axé sur les développeurs de haut niveau. Le gouverneur Newsom a déclaré: «La Californie a prouvé que nous pouvons établir des réglementations pour protéger nos communautés tout en veillant à ce que l’industrie de l’IA croissante continue de prospérer. Cette législation conclue cet équilibre.» Les dispositions de la loi visent à créer un aperçu public des processus de développement de ces systèmes avancés. La loi exige que les sociétés d’IA conduisent à publier des documents publics détaillant comment ils suivent les meilleures pratiques pour créer des systèmes sûrs. Il crée également une nouvelle voie pour que les entreprises signalent de graves incidents liés à l’IA au California Office of Emergency Services. La loi renforce les protections des dénonciateurs qui soulèvent des inquiétudes concernant les risques de santé et de sécurité, protégeant les employés de représailles potentielles pour se manifester. Ce nouveau canal de rapport et les protections de dénonciation sont conçus pour accroître la responsabilité des systèmes en cours de développement. Le non-respect des mandats de la loi peut déclencher des sanctions civiles, qui seront appliquées par le bureau du procureur général de Californie. La législation a attiré des critiques intenses de groupes industriels comme la Chambre des progrès et la Consumer Technology Association. En revanche, la société d’IA Anthropic a approuvé le projet de loi. Un autre développeur majeur, Meta, l’a qualifié de «pas dans la bonne direction», signalant un degré de division de l’industrie sur les nouvelles réglementations. Même avec un certain soutien, les entreprises ont exprimé une nette préférence à la législation fédérale afin d’éviter un «patchwork» de lois étatiques par État. Dans une déclaration de LinkedIn publiée il y a plusieurs semaines, le directeur des affaires mondiales d’Openai, Chris Lehane, a écrit: «L’Amérique mène le mieux avec des règles claires et nationales, et non un patchwork de réglementations nationales ou locales. Les approches d’État par état fragmentées créent une friction, une duplication et des opportunités manquées.» Cela reflète une préoccupation plus large de l’industrie concernant la navigation sur les environnements réglementaires multiples, potentiellement conflictuels à travers le pays. Le même lundi, les sénateurs américains Josh Hawley et Richard Blumenthal ont présenté un projet de loi fédéral qui obligerait les meilleurs développeurs d’IA à «évaluer les systèmes d’IA avancés et collecter des données sur la probabilité d’incidents d’IA défavorables». La proposition créerait un programme obligatoire d’évaluation de l’intelligence artificielle avancée au sein du ministère de l’Énergie. La participation à ce programme serait obligatoire, une mesure qui fait écho à la nature obligatoire des nouvelles exigences de déclaration de la Californie. Ces actions législatives nationales coïncident avec des appels internationaux croissants à la réglementation de l’IA. À l’Assemblée générale des Nations Unies la semaine dernière, le président Donald Trump a fait remarquer que l’IA «pourrait être l’une des grandes choses de tous les temps, mais cela peut également être dangereux, mais cela peut être mis à une utilité et à un bien formidable.» Le lendemain, le président Vladimir Zelensky d’Ukraine a déclaré à l’ONU: «Nous vivons maintenant la course aux armements la plus destructrice de l’histoire humaine parce que cette fois, il comprend l’intelligence artificielle.»





