L’intelligence artificielle transforme rapidement notre façon d’interagir avec la technologie, et les grandes entreprises technologiques s’impliquent dans l’élaboration de nouvelles règles pour suivre le rythme. Des entreprises comme OpenAI, Adobe et Microsoft soutiennent un nouveau projet de loi californien qui préciserait clairement quand un contenu est créé par l’IA. Ces entreprises estiment qu’il est important que les gens sachent quand ils voient ou entendent quelque chose créé par un ordinateur, et non par un humain. Dans le même temps, Elon Musk soutient un autre projet de loi californien qui vise à assurer la sécurité de l’IA en exigeant des mesures de protection sur les grands modèles d’IA. Alors, que veulent vraiment ces entreprises et ces particuliers, et pourquoi ? Explorons les dernières avancées en matière de réglementation de l’IA et ce qu’elles signifient pour l’avenir.
Que veulent OpenAI, Adobe et Microsoft ?
Selon Techcrunchles grandes entreprises technologiques comme OpenAI, Adobeet Microsoft soutiennent désormais un projet de loi californien qui exigera des étiquettes sur le contenu généré par l’IA. Ce projet de loi, connu sous le nom de AB 3211devrait faire l’objet d’un vote final en août.
L’AB 3211 vise à clarifier les cas où des photos, des vidéos et des clips audio sont créés par l’IA. Il exigera que ces éléments générés par l’IA comportent des filigranes dans leurs métadonnées. Bien que de nombreuses entreprises d’IA utilisent déjà des filigranes, ceux-ci sont souvent cachés dans les métadonnées, ce que la plupart des gens ne vérifient pas. Le nouveau projet de loi exige également que les grandes plateformes en ligne, telles qu’Instagram et X (anciennement Twitter), affichent ces étiquettes d’une manière facile à voir et à comprendre pour tout le monde.
OpenAI, Adobe et Microsoft font partie d’un groupe appelé Coalition for Content Provenance and Authenticity. Ce groupe a contribué au développement des métadonnées C2PA, une norme largement utilisée pour l’étiquetage du contenu de l’IA. Même si un groupe commercial représentant ces entreprises s’est opposé à l’AB 3211 en avril, le qualifiant d’« impraticable » et de « trop contraignant », les récents changements apportés au projet de loi semblent avoir gagné leur soutien.
Que veut Elon Musk ?
Dans un autre domaine, mais lié à celui-ci, Elon Musk a manifesté son soutien à un autre projet de loi californien, le SB 1047. Ce projet de loi obligerait les créateurs de très grands modèles d’IA à mettre en place des mesures de protection pour empêcher leurs modèles de causer de graves dommages. Musk, qui possède une grande entreprise d’IA appelée xAIestime que le projet de loi est nécessaire et a fait valoir qu’il est important que l’IA soit réglementée comme d’autres technologies potentiellement risquées.
C’est une décision difficile et cela va contrarier certaines personnes, mais, tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l’IA.
Depuis plus de 20 ans, je milite en faveur de la réglementation de l’IA, tout comme nous réglementons tout produit/technologie qui présente un risque potentiel…
— Elon Musk (@elonmusk) 26 août 2024
Malgré le soutien d’Elon Musk, OpenAI s’est publiquement opposé au projet de loi SB 1047 et soutient plutôt un autre projet de loi. Ces mesures mettent en évidence le débat en cours sur la meilleure façon de réglementer la technologie de l’IA et de garantir son utilisation sûre et éthique. Alors que la Californie avance dans la mise en œuvre de ces nouvelles règles, l’industrie technologique surveillera de près leur impact sur l’avenir de l’IA.
Crédits de l’image en vedette : Eray Eliaçık/Bing