OpenAI, Google, Microsoft et Anthropic, quatre des plus grandes entreprises d’IA, ont fondé une nouvelle association industrielle pour assurer le « développement sûr et responsable » des modèles dits « d’IA de pointe ».
Les développeurs de technologies d’IA largement utilisées, notamment OpenAI, Microsoft, Google et Anthropic, ont formé le Frontier Model Forum en réponse aux demandes croissantes de réglementation gouvernementale. Pour fournir des évaluations techniques et des benchmarks, ainsi que pour promouvoir les meilleures pratiques et normes, cette alliance s’appuie sur l’expertise de ses entreprises membres.
Bien qu’il ne compte que quatre membres pour le moment, le Frontier AI Model Forum accueille de nouveaux participants. Pour se qualifier, une entreprise doit travailler sur des modèles d’IA innovants et démontrer un « engagement fort envers la sécurité des modèles de frontière ».
Que propose le Frontier AI Model Forum ?
Au cœur de la mission du forum se trouve la discussion sur l’intelligence artificielle de pointe, ou les modèles d’intelligence artificielle et d’apprentissage automatique de pointe qui sont considérés comme suffisamment dangereux pour poser «de graves risques pour la sécurité publique». Selon Googlevoici les principaux objectifs du Frontier AI Model Forum :
- La recherche sur la sécurité de l’IA est poussée en avant pour encourager la création minutieuse de modèles de pointe, réduire les dangers potentiels et ouvrir la voie à des évaluations impartiales et standardisées des performances et de la sécurité.
- Éduquer le public sur la nature, les capacités, les limites et les effets de la technologie en déterminant les meilleures méthodes pour son développement et sa mise en œuvre responsables.
- Collaborer avec les décideurs, les universitaires, la société civile et les entreprises pour diffuser des informations sur les menaces à la confiance et à la sécurité.
- Renforcer les efforts pour créer des logiciels qui peuvent aider à résoudre certains des problèmes les plus urgents de la société, tels que le changement climatique, le diagnostic et la prévention des maladies et la cybersécurité.
Les principaux objectifs du Forum seront d’accroître la recherche sur la sécurité de l’IA, d’améliorer la communication entre les entreprises et les gouvernements et de déterminer les meilleures pratiques pour développer et mettre en œuvre des modèles d’IA. L’étude sur la sécurité de l’IA impliquera de tester et de comparer différents modèles d’IA et de publier les références dans une bibliothèque publique afin que chaque acteur majeur de l’entreprise puisse comprendre les risques et prendre des précautions.
Le Frontier Model Forum formera un conseil consultatif avec des membres d’un large éventail de disciplines et de perspectives pour aider à décider des tactiques et des objectifs. En outre, les entreprises pionnières mettront en place des cadres institutionnels facilitant la recherche d’un consensus entre toutes les parties concernées sur les questions liées au développement de l’IA.
Le Forum utilisera également les données et les ressources fournies par les universitaires, les ONG et d’autres parties intéressées. Il suivra et soutiendra les normes établies par les projets d’IA préexistants comme le Partenariat sur l’IA et MLCommons pour assurer leur mise en œuvre réussie.
Comment fonctionnera le Frontier AI Model Forum ?
Dans les mois à venir, le Frontier Model Forum formera un conseil consultatif composé de personnes ayant un large éventail d’expériences et de points de vue pour aider à orienter la stratégie et les objectifs de l’organisation.
Des dispositions institutionnelles clés, telles qu’une charte, une gouvernance et des finances, seront également établies par les entreprises fondatrices, dirigées par un groupe de travail et un conseil d’administration. Dans les semaines à venir, le forum consultera la société civile et le gouvernement sur la structure du Forum et les méthodes efficaces de collaboration.
Lorsqu’on lui en donne l’occasion, le Frontier Model Forum est impatient d’apporter son expertise aux programmes nationaux et mondiaux actuels tels que le processus du G7 d’Hiroshima, les travaux de l’OCDE sur les risques, les normes et les effets sociaux de l’intelligence artificielle, et le Conseil du commerce et de la technologie entre les États-Unis et l’UE. .
Chacune des initiatives du Forum, ou « axes de travail », visera à tirer parti des progrès déjà réalisés par le monde des affaires, le secteur à but non lucratif et le milieu universitaire. Le Forum examinera des méthodes pour s’engager et soutenir les efforts multipartites essentiels tels que le Partenariat sur l’IA et MLCommons, qui apportent tous deux des contributions importantes à l’ensemble de la communauté de l’IA.
Pour des informations plus détaillées, cliquez sur ici.
Crédit image en vedette : Unsplash