Le développement rapide de l’intelligence artificielle (IA) a déclenché un débat mondial sur son impact potentiel et la nécessité d’un développement responsable. Un aspect clé de cette conversation porte sur la réglementation de l’IA, les experts se demandant comment garantir que l’IA soit utilisée de manière sûre et éthique.
Une voix importante dans cette discussion est Sam Altman, PDG d’OpenAI, une société de recherche axée sur le développement d’une intelligence artificielle générale sûre et bénéfique.
Dans une récente interview en podcast, Altman a plaidé en faveur de la création d’une agence internationale chargée de surveiller et d’assurer la « sécurité raisonnable » des puissants systèmes d’IA.
Pourquoi une agence internationale ?
La proposition d’Altman de créer une agence internationale découle de sa conviction que les systèmes d’IA les plus puissants auront le potentiel de causer des dommages importants à l’échelle mondiale. Il fait valoir que les impacts négatifs d’une IA aussi avancée pourraient transcender les frontières nationales, ce qui rendrait difficile pour chaque pays de les réglementer efficacement par lui-même.
Altman, s’exprimant sur le Podcast tout-en-una exprimé son inquiétude quant à l’avenir proche, déclarant : « il viendra un moment… où les systèmes d’IA de pointe seront capables de causer des dommages mondiaux importants ».

Il envisage une agence internationale spécifiquement axée sur « l’examen des systèmes les plus puissants et la garantie de tests de sécurité raisonnables ».
Altman reconnaît toutefois la nécessité d’une approche équilibrée. Il souligne les dangers d’une « réglementation excessive », cherchant un cadre qui évite les restrictions excessives tout en atténuant les risques. Il souligne les pièges potentiels de la sous-réglementation et de la sur-réglementation.
Les lois ne peuvent pas suivre les progrès de l’IA
Cette conversation sur la réglementation de l’IA coïncide avec les efforts législatifs en cours dans le monde entier. Le L’Union européenne a récemment adopté la loi sur l’intelligence artificielle, visant à catégoriser les risques liés à l’IA et à interdire les applications inacceptables. De même, les États-Unis ont vu le président Biden signer un décret promouvant la transparence dans les modèles d’IA puissants. La Californie est également devenue un leader en matière de réglementation de l’IA, les législateurs examinant une multitude de projets de loi pertinents.
Altman soutient qu’une agence internationale offre une plus grande adaptabilité par rapport à la législation nationale. Il souligne le rythme rapide du développement de l’IA, suggérant que des lois rigides deviendraient rapidement obsolètes. Il exprime son scepticisme quant à la capacité des législateurs à élaborer des réglementations à l’épreuve du temps, déclarant : « écrit dans la loi, dans 12 mois, tout sera mal écrit. »
En termes plus simples, Altman compare la surveillance de l’IA aux réglementations sur la sécurité des avions. Il explique : « Quand une perte importante de vies humaines est une possibilité sérieuse… comme dans le cas des avions… je pense que nous sommes heureux d’avoir une sorte de cadre de test. » Son scénario idéal implique un système dans lequel les utilisateurs, comme les passagers d’avion, peuvent avoir confiance dans la sécurité de l’IA sans avoir besoin d’en comprendre les détails complexes.

Pourquoi n’existe-t-il pas encore de véritable réglementation pour l’IA ?
Malgré ces efforts continus, l’élaboration d’un cadre réglementaire véritablement efficace pour l’IA présente plusieurs défis.
Un obstacle majeur est le rythme rapide du développement de l’IA. Le domaine est en constante évolution, ce qui rend difficile pour les réglementations de suivre le rythme des progrès technologiques. Les lois rédigées aujourd’hui pourraient être insuffisantes pour faire face aux risques posés par les systèmes d’IA développés demain.
Un autre défi réside dans le complexité des systèmes d’IA. Ces systèmes peuvent être incroyablement complexes et difficiles à comprendre, même pour les experts. Cette complexité rend difficile pour les régulateurs d’identifier et d’atténuer les risques potentiels.
De plus, il y a un manque de consensus mondial sur la manière de réguler l’IA. Différents pays ont des priorités et des tolérances au risque différentes en matière de développement de l’IA. Cela rend difficile l’établissement d’un cadre international unifié.
Enfin, il y a une préoccupation concernant innovation étouffante. Des réglementations trop restrictives pourraient entraver le développement d’applications bénéfiques pour l’IA.
Trouver le bon équilibre entre sécurité, innovation et coopération internationale est essentiel pour élaborer une réglementation efficace en matière d’IA.
Crédit image en vedette: Freepik