Les progrès rapides de la technologie de l’intelligence artificielle (IA) et son influence croissante dans de nombreux domaines de la vie ont suscité d’importantes discussions mondiales sur la gouvernance, l’éthique et les cadres réglementaires. Au premier plan de ces discussions se trouve la loi européenne sur l’IA—un cadre réglementaire pionnier qui vise à établir la norme pour ces sujets à travers l’Europe. Mais il ne s’agit pas simplement d’un autre effort de réglementation ; il représente une vision plus large pour façonner l’avenir de l’IA d’une manière qui garantit l’équité, l’inclusivité et le respect des droits de l’homme. Alors que les technologies de l’IA et leur impact continuent de s’accélérer, il devient de plus en plus clair qu’il est crucial de se conformer à ces réglementations, non seulement pour les développeurs d’IA, mais aussi pour les décideurs politiques, les entreprises et la société dans son ensemble.
Dataconomy a eu l’occasion de s’entretenir avec des dirigeants clés de l’UE et de l’ONU pour explorer plus en détail l’impact mondial de la gouvernance de l’IA. Ces entretiens ont révélé comment la réglementation et l’éthique de l’IA se développent à l’échelle mondiale, la loi européenne sur l’IA jouant un rôle essentiel. Pendant le Salon de l’Entreprise Numérique (DES) 2024 à Malaga, Wendy Hall, une Conseil consultatif de l’ONU sur l’IA membre et éminent stratège britannique en IA ; Carme Artigas, coprésidente du Conseil consultatif de l’ONU sur la gouvernance et l’inclusion de l’IA ; et Dan Nechita, chef de cabinet du député européen Dragos Tudorache et négociateur technique principal pour la loi européenne sur l’IA au nom du Parlement européen, ont partagé avec nous leurs idées exclusives sur la façon dont la gouvernance, l’éthique et la réglementation de l’IA sont façonnées en temps réel.
Combler le fossé mondial en matière d’IA
Wendy Salle, membre du Conseil consultatif de l’ONU sur l’IA et éminent stratège britannique en matière d’IA, plaide fermement en faveur d’une approche collaborative mondiale de la politique en matière d’IA. Au cours de notre discussion, Hall a souligné que même si l’IA présente de vastes opportunités, les stratégies employées par les différents pays varient considérablement. Par exemple, le Royaume-Uni a adopté une approche plus globale et plus axée sur les politiques en matière de développement de l’IA. Dès 2017, le gouvernement britannique a reconnu le potentiel de croissance économique et de création d’emplois de l’IA, positionnant ainsi le pays comme un leader en matière de gouvernance de l’IA. À une époque où le Brexit mobilisait l’attention politique, le Royaume-Uni parvenait toujours à travailler sur sa politique en matière d’IA. Hall note que l’engagement précoce du Royaume-Uni a contribué à établir sa notoriété, mais elle s’empresse de souligner que d’autres pays comme les États-Unis et la Chine ont suivi des voies très différentes.
Aux États-Unis, l’accent a été largement mis sur l’autonomisation des entreprises technologiques comme Google et OpenAI pour repousser les limites de l’IA, laissant la gouvernance entre les mains du secteur privé. À l’inverse, la Chine a adopté une approche centralisée et dirigée par l’État, ce dernier gardant le contrôle de l’orientation stratégique d’AI. Ces stratégies divergentes, explique Hall, mettent en évidence la complexité de la gouvernance mondiale de l’IA et la nécessité de politiques internationales plus cohérentes.
Pourtant, la principale préoccupation de Hall n’est pas la divergence entre ces nations leaders, mais plutôt l’accès inégal aux technologies d’IA à travers le monde. Elle souligne la nécessité d’un développement équitable de l’IA, en particulier pour les pays situés en dehors de l’Occident riche. Des régions comme le Sud globalqui manquent souvent de l’infrastructure et des ressources nécessaires pour suivre le rythme des progrès de l’IA, risquent d’être laissés pour compte. Hall estime que cette fracture pourrait aggraver les inégalités mondiales existantes à moins que des initiatives de renforcement des capacités ne soient mises en œuvre.
« Ces régions ont besoin de plus qu’un simple accès aux technologies d’IA : elles ont besoin de l’infrastructure, des talents et des données nécessaires pour développer des systèmes d’IA adaptés à leurs propres besoins », souligne Hall. Cela pourrait inclure de fournir aux pays du Sud un accès à des systèmes informatiques hautes performances, à des ensembles de données et à l’expertise technique nécessaire pour créer des modèles d’IA localement. Hall plaide en faveur d’initiatives mondiales offrant les outils et les ressources nécessaires pour que ces pays puissent participer activement à la révolution de l’IA plutôt que de devenir des consommateurs passifs de technologies développées ailleurs.
« L’IA risque d’aggraver les inégalités mondiales si nous ne garantissons pas un accès équitable aux infrastructures et aux talents nécessaires »
Hall s’inquiète particulièrement du développement rapide et incontrôlé de modèles d’IA génératifs, tels que GPT-4 d’OpenAI. Bien que ces modèles offrent des possibilités révolutionnaires, ils présentent également des risques importants sous forme de désinformation et d’utilisation abusive éthique. Hall se montre prudent quant aux conséquences involontaires de technologies aussi puissantes, notant que l’IA générative peut produire un contenu convaincant mais totalement faux si elle n’est pas soigneusement réglementée.
Elle attire l’attention sur les implications plus larges, expliquant que si les technologies d’IA antérieures, comme l’automatisation, se concentraient principalement sur l’amélioration de l’efficacité, l’IA générative a un impact direct sur la création et la diffusion des connaissances. « Nous l’avons constaté avec la désinformation en ligne : si les données entrantes sont erronées, le résultat pourrait être préjudiciable, et à une échelle que nous n’avons jamais traitée auparavant », prévient Hall. Les enjeux sont importants, en particulier lorsque les technologies de l’IA influencent les décisions dans des secteurs critiques comme la santé, le droit et la finance.
Pour Hall, la solution réside dans la promotion de partenariats mondiaux visant à créer des normes éthiques et des cadres de gouvernance solides. Elle plaide en faveur de la conclusion d’accords internationaux pour garantir que les technologies d’IA soient développées et déployées de manière responsable sans contribuer à nuire à la société. Hall souligne l’importance d’impliquer diverses parties prenantes, notamment les gouvernements, les entreprises privées et les organisations de la société civile, pour établir des réglementations qui équilibrent l’innovation et la sécurité publique.
Le point de vue de Hall souligne un point critique : l’IA pourrait exacerber les inégalités mondiales existantes et introduire de nouveaux dilemmes éthiques sans collaboration ni gouvernance partagée. L’appel de Hall au renforcement des capacités et à la surveillance éthique n’est pas seulement une recommandation : c’est une étape nécessaire pour garantir que l’IA soit développée au profit de l’humanité dans son ensemble, et pas seulement de quelques privilégiés.
Garantir une gouvernance inclusive de l’IA
Carme Artigascoprésident de l’Organe consultatif des Nations Unies sur la gouvernance et l’inclusion de l’IA, apporte une perspective critique à la conversation sur le développement mondial de l’IA, axée sur les disparités flagrantes dans la manière dont les différentes nations sont incluses dans les discussions sur la gouvernance de l’IA. Artigas souligne que les cadres actuels régissant l’IA, y compris les initiatives menées par le G7, l’UNESCO et l’OCDE, sont largement dominés par les pays les plus riches et les plus avancés technologiquement, laissant de côté les voix clés du Sud. « De nombreux pays du Sud ne sont même pas invités à la table des négociations », souligne Artigas, faisant référence aux discussions mondiales qui façonnent l’avenir de l’IA. Selon elle, cette exclusion constitue un déficit majeur de gouvernance et risque de créer une nouvelle forme de colonialisme numérique. À mesure que les technologies de l’IA progressent, les pays qui manquent de ressources ou d’influence pour participer à l’élaboration des politiques internationales en matière d’IA pourraient être encore plus laissés pour compte. Pour Artigas, ce n’est pas seulement une question d’équité : c’est un risque fondamental pour la stabilité et l’égalité mondiales.
Artigas souligne la nécessité d’un modèle de gouvernance qui dépasse les cadres traditionnels des organismes de régulation. Plutôt que de créer une nouvelle agence internationale unique pour superviser la gouvernance de l’IA, elle préconise de tirer parti des institutions existantes. « Nous n’avons pas besoin de plus d’agences ; nous avons besoin d’une meilleure coordination entre ceux qui existent déjà », explique-t-elle. Des organisations telles que le UIT (Union Internationale des Télécommunications), UNICEFet OMPI (Organisation Mondiale de la Propriété Intellectuelle) sont déjà profondément impliqués dans les questions liées à l’IA, chacun dans son secteur. Ce qui manque, c’est une approche coordonnée qui rassemble ces agences spécialisées sous une structure de gouvernance mondiale unifiée.
« Une véritable gouvernance doit aller au-delà de simples lignes directrices et inclure des mécanismes de responsabilisation »
La vision d’Artigas est celle où l’IA est gouvernée d’une manière qui respecte le droit international et les droits de l’homme et garantit que tous les pays, quel que soit leur statut technologique, aient un accès égal aux avantages que l’IA peut apporter. Cela implique de fournir les outils et les ressources nécessaires aux pays actuellement exclus des progrès de l’IA pour rattraper leur retard. Elle note que le secteur privé et le monde universitaire ont également un rôle à jouer pour contribuer à démocratiser l’accès aux technologies de l’IA.
Cependant, Artigas souligne que les lignes directrices éthiques ne suffisent pas à elles seules. Même si de nombreuses entreprises ont développé leurs cadres éthiques internes, elle affirme que ceux-ci sont souvent volontaires et inapplicables. La véritable gouvernance, affirme-t-elle, doit aller au-delà de simples lignes directrices et inclure des mécanismes de responsabilisation. Sans conséquences claires en cas de développement ou de déploiement contraire à l’éthique de l’IA, les risques d’utilisation abusive et de préjudice, en particulier pour les populations vulnérables, restent élevés.
L’une des questions clés soulevées par Artigas est le rôle de l’IA dans l’exacerbation de la fracture numérique. Si elle n’est pas correctement réglementée, l’IA pourrait renforcer davantage les inégalités existantes, les pays les plus riches acquérant davantage de puissance économique et technologique tandis que les pays les plus pauvres prenaient encore plus de retard. Pour elle, l’objectif de la gouvernance de l’IA doit être de réduire ce fossé, et non de l’élargir. « L’IA a le potentiel d’être un grand égalisateur, mais seulement si nous veillons à ce que ses bénéfices soient partagés équitablement », souligne-t-elle.
L’accent mis par Artigas sur l’inclusivité et la coordination dans la gouvernance de l’IA reflète la reconnaissance croissante du fait que l’IA est un problème mondial nécessitant des solutions mondiales. Son appel en faveur d’une approche unifiée – où les agences existantes travaillent ensemble pour gouverner l’IA – souligne la nécessité d’un système plus inclusif, éthique et responsable qui profite à l’ensemble de l’humanité, et pas seulement à quelques privilégiés.
Équilibrer innovation et réglementation
Dan Nechitachef de cabinet du député européen Dragos Tudorache et principal négociateur technique pour la loi européenne sur l’IA, apporte une perspective pragmatique mais avant-gardiste au débat sur la gouvernance de l’IA. En tant que l’une des figures clés à l’origine de la loi européenne sur l’IA, Nechita souligne l’importance d’équilibrer l’innovation avec la nécessité d’une réglementation solide pour garantir que les technologies d’IA sont développées et utilisées en toute sécurité.
Selon Nechita, le Loi européenne sur l’IA est conçu pour établir des règles claires pour les systèmes d’IA, en particulier ceux considérés comme à haut risque, tels que l’IA utilisée dans les soins de santé, l’éducation, les forces de l’ordre et d’autres secteurs critiques. « Il ne s’agit pas seulement de réglementer la technologie elle-même », explique Nechita. « Il s’agit de protéger les droits fondamentaux et de garantir que l’IA n’exacerbe pas les problèmes sociétaux existants, comme la discrimination ou les violations de la vie privée. »
L’une des caractéristiques marquantes de la loi européenne sur l’IA est l’accent mis sur la gestion des risques. Nechita explique que les systèmes d’IA sont classés en fonction du niveau de risque qu’ils présentent, les systèmes les plus risqués étant soumis aux réglementations les plus strictes. Cette approche à plusieurs niveaux permet une certaine flexibilité, permettant à l’Europe de maintenir son leadership en matière d’innovation en matière d’IA tout en garantissant que les applications les plus sensibles sont soigneusement réglementées. Pour Nechita, cet équilibre entre innovation et réglementation est crucial pour maintenir la compétitivité de l’Europe dans le paysage mondial de l’IA.
Pourtant, Nechita reconnaît que la mise en œuvre de la loi européenne sur l’IA est un processus complexe et continu. L’un des défis consiste à garantir que les 27 États membres de l’UEchacun avec ses propres priorités et stratégies nationales, adhère à un cadre réglementaire unifié. La loi européenne sur l’IA nécessite une coopération entre les gouvernements, les leaders de l’industrie et les organismes de réglementation pour garantir son succès. « Nous favorisons une boucle de rétroaction continue entre les entreprises et les régulateurs, garantissant que les systèmes d’IA évoluent en toute sécurité tout en restant conformes à l’émergence de nouvelles technologies », explique Nechita. « Nous ne nous contentons pas de donner aux entreprises un ensemble de règles et de nous en aller. Nous leur demandons de travailler avec nous en permanence, de tester leurs systèmes, de signaler les problèmes et d’assurer leur conformité.
« L’IA va transformer le monde, et nous devons l’orienter dans une direction qui profite à tous »
Nechita souligne également que la loi européenne sur l’IA ne consiste pas seulement à créer des réglementations statiques. La loi comprend des dispositions prévoyant des mises à jour et des révisions continues à mesure que les technologies d’IA évoluent. Il affirme que cette approche dynamique est essentielle car l’IA est un domaine en évolution rapide et les réglementations doivent suivre le rythme des nouveaux développements. C’est pourquoi la loi européenne sur l’IA encourage un dialogue continu entre les développeurs d’IA et les régulateurs, favorisant une relation dans laquelle l’innovation et la sécurité peuvent coexister.
Cependant, Nechita est également consciente du contexte mondial plus large. Si l’UE a adopté une position proactive en matière de réglementation de l’IA, d’autres régions, notamment les États-Unis et la Chine, ont des approches différentes. Aux États-Unis, la réglementation de l’IA est plus fragmentée, les entreprises s’autorégulant largement, tandis qu’en Chine, le développement de l’IA, contrôlé par l’État, donne la priorité aux intérêts nationaux plutôt qu’aux droits individuels. Nechita reconnaît qu’il sera difficile de parvenir à un consensus mondial sur la gouvernance de l’IA, mais il voit un potentiel de collaboration dans des domaines tels que Sécurité, durabilité et normes éthiques de l’IA.
Nechita envisage un modèle de gouvernance de l’IA qui équilibre l’innovation et la sécurité publique. Il estime que la loi européenne sur l’IA, axée sur la gestion des risques, la transparence et la collaboration continue, offre un modèle sur la manière dont d’autres régions pourraient aborder la réglementation de l’IA. Dans le même temps, il souligne la nécessité d’une coopération mondiale, notamment pour répondre aux implications éthiques et sociétales de l’IA.
Alors que la loi européenne sur l’IA continue de prendre forme, Nechita reste optimiste quant à son potentiel à établir une norme mondiale pour la gouvernance de l’IA : « L’IA va changer le monde, et nous devons nous assurer qu’elle évolue pour le mieux », conclut-il. Son approche reflète une compréhension nuancée des défis à venir et une ferme conviction dans le pouvoir de la réglementation pour guider le développement de l’IA dans une direction qui profite à la société.
Une vision unifiée pour l’avenir de l’IA
Les idées de Wendy Hall, Carme Artigas et Dan Nechita reflètent un tournant crucial dans la gouvernance de l’IA, alors que nous voyons l’IA évoluer à un rythme sans précédent. Leurs points de vue convergent vers une vérité indéniable : l’IA n’est pas seulement une avancée technologique ; c’est une force qu’il faut éviter fermement de profiter à quelques-uns au détriment du plus grand nombre.
Le besoin urgent d’un renforcement des capacités mondiales et de contrôles éthiques de l’IA est également souligné par Wendy Hall, qui nous demande de combler l’écart croissant entre les capacités dans ce domaine entre les pays développés et ceux en développement. Cependant, l’accent mis par Camre Artigas sur l’inclusivité et la responsabilité nous rappelle que l’application qui précède toute gouvernance doit être partie intégrante. La loi européenne sur l’IA est un bon exemple d’équilibre entre innovation et sécurité et, par conséquent, de la manière dont d’autres régions peuvent aborder la gouvernance de l’IA.
Ensemble, ces voix dressent un tableau global de ce qui est nécessaire pour façonner l’avenir de l’IA : se concentrer sur la collaboration, la protection des droits de l’homme et un cadre solide qui encourage l’innovation tout en protégeant les intérêts publics. C’est un chemin incroyablement difficile à parcourir, mais qui recèle également un énorme potentiel. L’avenir de l’IA, c’est maintenant, et c’est à nous de le réaliser correctement.