Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

OpenAI évolue du statut de leader controversé à celui de défenseur de la sécurité

byEmre Çıtak
août 1, 2024
in Non classé

OpenAI, la société à l’origine de ChatGPT, prend des mesures pour répondre aux préoccupations concernant la sécurité et la gouvernance de l’IA.

Sam Altman, PDG a récemment annoncé qu’OpenAI travaillait avec l’US AI Safety Institute pour fournir un accès anticipé à son prochain modèle majeur d’IA générative pour les tests de sécurité.

Cette décision intervient dans un contexte d’examen croissant de l’engagement d’OpenAI en matière de sécurité de l’IA et de son influence sur l’élaboration des politiques.

quelques mises à jour rapides sur la sécurité chez openai :

Comme nous l’avons dit en juillet dernier, nous nous engageons à allouer au moins 20 % des ressources informatiques aux efforts de sécurité dans l’ensemble de l’entreprise.

notre équipe a travaillé avec l’Institut américain de sécurité de l’IA sur un accord dans lequel nous fournirions…

— Sam Altman (@sama) 1er août 2024

Collaboration avec l’Institut américain de sécurité de l’IA

L’AI Safety Institute, un organisme fédéral américain chargé d’évaluer et de gérer les risques liés aux plateformes d’IA, aura l’occasion de tester le prochain modèle d’IA d’OpenAI avant sa publication publique. Bien que les détails de l’accord soient rares, cette collaboration représente une étape importante vers une transparence accrue et une surveillance externe du développement de l’IA.

Le partenariat fait suite à un accord similaire OpenAI a été en contact avec l’organisme britannique de sécurité de l’IA en juin, ce qui suggère une tendance à l’engagement avec les entités gouvernementales sur les questions de sécurité de l’IA.

OpenAI Institut américain de sécurité de l'IA
Ce partenariat fait suite à un accord similaire conclu en juin avec l’organisme britannique de sécurité de l’IA (Crédit d’image)

Répondre aux préoccupations en matière de sécurité

Les récentes actions d’OpenAI semblent être une réponse aux critiques concernant sa dépriorisation perçue de la recherche sur la sécurité de l’IA. L’entreprise avait précédemment dissous une unité travaillant sur les contrôles des systèmes d’IA « superintelligents », ce qui a conduit à des démissions très médiatisées et à un examen public minutieux.

Dans un effort pour rétablir la confiance, OpenAI a:

  1. Éliminé clauses restrictives de non-dénigrement.
  2. Créé une commission de sécurité.
  3. Engagé 20 % de ses ressources informatiques sont consacrées à la recherche en matière de sécurité.

Cependant, certains observateurs restent sceptiques, notamment après qu’OpenAI a doté sa commission de sécurité de membres de l’entreprise et réaffecté un haut responsable de la sécurité de l’IA.

Influence sur la politique de l’IA

L’engagement d’OpenAI auprès des organismes gouvernementaux et son soutien au Future of Innovation Act ont soulevé des questions quant à l’influence de l’entreprise sur l’élaboration des politiques en matière d’IA. Le moment choisi pour ces démarches, associé aux efforts accrus de lobbying d’OpenAI, a donné lieu à des spéculations sur une éventuelle capture réglementaire.


Désapprentissage des machines:L’IA peut-elle vraiment oublier ?


La position d’Altman au sein du Conseil de sécurité et de sûreté de l’intelligence artificielle du ministère américain de la Sécurité intérieure souligne encore davantage l’implication croissante de l’entreprise dans l’élaboration de la politique en matière d’IA.

Regarder vers l’avant

Alors que la technologie de l’IA continue de progresser rapidement, l’équilibre entre innovation et sécurité reste une préoccupation majeure. La collaboration d’OpenAI avec l’AI Safety Institute américain représente une étape vers un développement de l’IA plus transparent et plus responsable.

Cependant, cela met également en évidence la relation complexe entre les entreprises technologiques et les organismes de réglementation dans la définition de l’avenir de la gouvernance de l’IA.

La communauté technologique et les décideurs politiques observeront de près comment ce partenariat se déroulera et quel impact il aura sur le paysage plus large de la sécurité et de la réglementation de l’IA.


Crédit de l’image en vedette: Kim Menikh/Unsplash

Related Posts

Infrastructure d’apprentissage automatique

Infrastructure d’apprentissage automatique

mai 9, 2025
Infrastructure d’apprentissage automatique

Réseaux de neurones auprès de la mémoire (Manns)

mai 9, 2025
Infrastructure d’apprentissage automatique

Apprentissage automatique dans les tests de logiciels

mai 9, 2025
Infrastructure d’apprentissage automatique

Points de contrôle de l’apprentissage automatique

mai 9, 2025
Infrastructure d’apprentissage automatique

L’apprentissage automatique en tant que service (MLAAS)

mai 9, 2025
La mise en cache implicite vise à réduire les coûts API Gemini de 75%

La mise en cache implicite vise à réduire les coûts API Gemini de 75%

mai 9, 2025

Recent Posts

  • Infrastructure d’apprentissage automatique
  • Réseaux de neurones auprès de la mémoire (Manns)
  • Apprentissage automatique dans les tests de logiciels
  • Points de contrôle de l’apprentissage automatique
  • L’apprentissage automatique en tant que service (MLAAS)

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.