OpenAI, la société à l’origine de ChatGPT, prend des mesures pour répondre aux préoccupations concernant la sécurité et la gouvernance de l’IA.
Sam Altman, PDG a récemment annoncé qu’OpenAI travaillait avec l’US AI Safety Institute pour fournir un accès anticipé à son prochain modèle majeur d’IA générative pour les tests de sécurité.
Cette décision intervient dans un contexte d’examen croissant de l’engagement d’OpenAI en matière de sécurité de l’IA et de son influence sur l’élaboration des politiques.
quelques mises à jour rapides sur la sécurité chez openai :
Comme nous l’avons dit en juillet dernier, nous nous engageons à allouer au moins 20 % des ressources informatiques aux efforts de sécurité dans l’ensemble de l’entreprise.
notre équipe a travaillé avec l’Institut américain de sécurité de l’IA sur un accord dans lequel nous fournirions…
— Sam Altman (@sama) 1er août 2024
Collaboration avec l’Institut américain de sécurité de l’IA
L’AI Safety Institute, un organisme fédéral américain chargé d’évaluer et de gérer les risques liés aux plateformes d’IA, aura l’occasion de tester le prochain modèle d’IA d’OpenAI avant sa publication publique. Bien que les détails de l’accord soient rares, cette collaboration représente une étape importante vers une transparence accrue et une surveillance externe du développement de l’IA.
Le partenariat fait suite à un accord similaire OpenAI a été en contact avec l’organisme britannique de sécurité de l’IA en juin, ce qui suggère une tendance à l’engagement avec les entités gouvernementales sur les questions de sécurité de l’IA.

Répondre aux préoccupations en matière de sécurité
Les récentes actions d’OpenAI semblent être une réponse aux critiques concernant sa dépriorisation perçue de la recherche sur la sécurité de l’IA. L’entreprise avait précédemment dissous une unité travaillant sur les contrôles des systèmes d’IA « superintelligents », ce qui a conduit à des démissions très médiatisées et à un examen public minutieux.
Dans un effort pour rétablir la confiance, OpenAI a:
- Éliminé clauses restrictives de non-dénigrement.
- Créé une commission de sécurité.
- Engagé 20 % de ses ressources informatiques sont consacrées à la recherche en matière de sécurité.
Cependant, certains observateurs restent sceptiques, notamment après qu’OpenAI a doté sa commission de sécurité de membres de l’entreprise et réaffecté un haut responsable de la sécurité de l’IA.
Influence sur la politique de l’IA
L’engagement d’OpenAI auprès des organismes gouvernementaux et son soutien au Future of Innovation Act ont soulevé des questions quant à l’influence de l’entreprise sur l’élaboration des politiques en matière d’IA. Le moment choisi pour ces démarches, associé aux efforts accrus de lobbying d’OpenAI, a donné lieu à des spéculations sur une éventuelle capture réglementaire.
Désapprentissage des machines:L’IA peut-elle vraiment oublier ?
La position d’Altman au sein du Conseil de sécurité et de sûreté de l’intelligence artificielle du ministère américain de la Sécurité intérieure souligne encore davantage l’implication croissante de l’entreprise dans l’élaboration de la politique en matière d’IA.
Regarder vers l’avant
Alors que la technologie de l’IA continue de progresser rapidement, l’équilibre entre innovation et sécurité reste une préoccupation majeure. La collaboration d’OpenAI avec l’AI Safety Institute américain représente une étape vers un développement de l’IA plus transparent et plus responsable.
Cependant, cela met également en évidence la relation complexe entre les entreprises technologiques et les organismes de réglementation dans la définition de l’avenir de la gouvernance de l’IA.
La communauté technologique et les décideurs politiques observeront de près comment ce partenariat se déroulera et quel impact il aura sur le paysage plus large de la sécurité et de la réglementation de l’IA.
Crédit de l’image en vedette: Kim Menikh/Unsplash