La loi de l’UE sur l’IA, un texte législatif révolutionnaire visant à régir l’intelligence artificielle, a été adoptée par les décideurs politiques de l’Union européenne, créant ainsi un précédent pour le cadre le plus complet à ce jour pour superviser cette technologie transformatrice.
Les discussions sur la loi européenne sur l’IA ont duré 38 heures
Ce consensus sur le Loi européenne sur l’IA a émergé à la suite de discussions approfondies, s’étalant sur près de 38 heures, entre législateurs et décideurs politiques.
« L’AI Act est une première mondiale. Un cadre juridique unique pour le développement de l’IA auquel vous pouvez faire confiance. Et pour la sécurité et les droits fondamentaux des personnes et des entreprises. Un engagement que nous avons pris dans nos orientations politiques – et que nous avons tenu. Je salue l’accord politique d’aujourd’hui», a déclaré la cheffe de l’UE, Ursula von der Leyen.
Depuis l’introduction de ChatGPT d’OpenAI l’année dernière, qui a considérablement sensibilisé le public à l’évolution rapide du secteur de l’IA, il y a eu une accélération notable des efforts visant à faire adopter la loi sur l’IA. Initialement proposée par le pouvoir exécutif de l’UE en 2021, la loi européenne sur l’IA est désormais largement considérée comme un modèle pour les gouvernements du monde entier. Il vise à exploiter les avantages potentiels de l’IA tout en atténuant divers risques, tels que la désinformation, la suppression d’emplois et la violation du droit d’auteur.
Un accord politique préliminaire sur la loi sur l’intelligence artificielle a été conclu après que les négociateurs du Parlement européen et des 27 États membres de l’UE ont résolu des désaccords substantiels sur des questions controversées, notamment l’IA générative et l’utilisation par les forces de l’ordre de la technologie de reconnaissance faciale.
Commissaire européen Thierry Breton a célébré la percée avec un « Accord! » tweet, marquant la finalisation d’un accord politique sur la loi sur l’intelligence artificielle.
Accord!#AIAct pic.twitter.com/UwNoqmEHt5
-Thierry Breton (@ThierryBreton) 8 décembre 2023
Ce sentiment a été repris par la commission parlementaire qui dirige les efforts de négociation du Parlement européen, en annonçant l’accord sur la loi européenne sur l’IA. Initialement ralentie par les débats sur la réglementation des modèles linguistiques utilisant les données en ligne et l’application de l’IA dans les opérations de police et de renseignement, la législation est désormais sur le point d’être approuvée par les États membres de l’UE et le Parlement.
La loi obligera les entreprises technologiques opérant au sein de l’UE à divulguer les données qui sous-tendent leurs systèmes d’IA et effectuer des tests rigoureux, notamment pour les usages à forts enjeux comme les véhicules autonomes et les applications de santé. Il interdit la collecte générale d’images provenant d’Internet ou de caméras de sécurité pour les bases de données de reconnaissance faciale, bien qu’il autorise la reconnaissance faciale « en temps réel » par les forces de l’ordre dans la lutte contre le terrorisme et les activités criminelles graves.
Les entreprises technologiques qui ne respectent pas la loi européenne sur l’IA seront soumises à des sanctions financières sévères, s’exposent à des amendes pouvant atteindre sept pour cent de leur chiffre d’affaires mondial. La sévérité des amendes dépendra de la nature de l’infraction et de la taille de l’entreprise. Cette législation européenne se présente comme la tentative la plus approfondie à ce jour d’établir une surveillance réglementaire de l’IA, au milieu d’un éventail croissant de lignes directrices et de réglementations à travers le monde.
Table ronde : Y aura-t-il un consensus mondial sur la réglementation de l’IA ?
À l’échelle internationale, d’autres pays progressent dans leur propre direction. Aux États-Unis, le président Joe Biden a publié un décret en octobre dernier, se concentrant sur l’influence d’IA sur sécurité nationale et questions de discrimination. Pendant ce temps, la Chine a introduit des réglementations exigeant que les technologies d’IA s’alignent sur les « valeurs fondamentales socialistes ». En revanche, des pays comme le Royaume-Uni et le Japon ont opté pour une position plus détendue et moins interventionniste à l’égard de la réglementation de l’IA.
La course pour réguler l’IA
L’UE a d’abord été à l’avant-garde de l’effort mondial visant à établir une réglementation sur l’IA, dévoilant sa version initiale en 2021. Cependant, la montée en popularité de l’IA générative a nécessité des mises à jour rapides de la proposition, qui est considérée comme une norme mondiale potentielle. Les systèmes d’IA générative, tels que ChatGPT d’OpenAI, ont captivé le public mondial grâce à leur capacité à générer du texte, des images et de la musique de type humain. Cependant, ils ont également suscité des inquiétudes quant à leur impact sur l’emploi, la vie privée, la protection des droits d’auteur et même la sécurité humaine.
En réponse, des pays comme les États-Unis, le Royaume-Uni, la Chine et des groupes internationaux, dont le G7, ont commencé à introduire leurs cadres réglementaires pour l’IA, même s’ils sont toujours à la traîne des progrès de l’Europe. La forme finale de la loi européenne sur l’IA attend l’approbation des 705 hommes politiques de l’UE avant les prochaines élections européennes. Cette étape devrait être une question de procédure.
La conception initiale de l’AI Act visait à répondre aux risques associés à diverses fonctionnalités de l’IA, en les classant de faible à inacceptable. Cependant, la portée a été élargie pour inclure des modèles fondamentaux tels que ChatGPT d’OpenAI et le chatbot Bard de Google. Ces modèles fondamentaux, cruciaux pour les services d’IA à usage général, constituaient un point de discorde majeur en Europe. Malgré la résistance, notamment de la part de la France qui prône l’autorégulation pour stimuler les entreprises européennes d’IA générative face aux principaux concurrents américains comme OpenAI, soutenu par Microsoft, un compromis provisoire a été trouvé au début des négociations.
Connus sous le nom de grands modèles de langage, ces systèmes sont formés sur de vastes ensembles de données de textes et d’images provenant d’Internet. Contrairement à l’IA traditionnelle, qui traite les données et exécute des tâches basées sur des règles prédéfinies, l’IA générative peut créer du contenu nouveau, marquant une évolution significative des capacités de l’IA.
Des changements clés en attente
La loi européenne sur l’IA devrait apporter des changements significatifs dans la réglementation de l’intelligence artificielle, en particulier au sein de l’Union européenne. Les principaux changements et impacts comprennent :
- Établit le cadre le plus complet pour la surveillance de l’IA dans l’UE, influençant les normes mondiales.
- Exige que les entreprises technologiques de l’UE divulguent les données de formation en IA et effectuent des tests rigoureux.
- Cible les applications critiques d’IA dans des domaines tels que les véhicules autonomes et les soins de santé.
- Interdit le grattage aveugle d’images pour les bases de données de reconnaissance faciale, avec des exceptions limitées pour les forces de l’ordre.
- Introduit des sanctions financières strictes en cas de non-conformité, allant jusqu’à sept pour cent du chiffre d’affaires mondial.
- Positionne l’Europe comme leader en matière de réglementation mondiale de l’IA.
- Équilibre les avantages de l’IA avec les risques tels que la désinformation, le déplacement d’emplois et la violation du droit d’auteur.
- Élargit la portée pour inclure des modèles fondamentaux tels que ChatGPT et Bard de Google, répondant aux défis de l’IA générative.
- Établit des références réglementaires pour gérer l’impact de l’IA sur l’emploi, la confidentialité et la sécurité.
Crédit image en vedette : Kerem Gülen/DALL-E 3