Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

OpenAI évolue du statut de leader controversé à celui de défenseur de la sécurité

byEmre Çıtak
août 1, 2024
in Non classé

OpenAI, la société à l’origine de ChatGPT, prend des mesures pour répondre aux préoccupations concernant la sécurité et la gouvernance de l’IA.

Sam Altman, PDG a récemment annoncé qu’OpenAI travaillait avec l’US AI Safety Institute pour fournir un accès anticipé à son prochain modèle majeur d’IA générative pour les tests de sécurité.

Cette décision intervient dans un contexte d’examen croissant de l’engagement d’OpenAI en matière de sécurité de l’IA et de son influence sur l’élaboration des politiques.

quelques mises à jour rapides sur la sécurité chez openai :

Comme nous l’avons dit en juillet dernier, nous nous engageons à allouer au moins 20 % des ressources informatiques aux efforts de sécurité dans l’ensemble de l’entreprise.

notre équipe a travaillé avec l’Institut américain de sécurité de l’IA sur un accord dans lequel nous fournirions…

— Sam Altman (@sama) 1er août 2024

Collaboration avec l’Institut américain de sécurité de l’IA

L’AI Safety Institute, un organisme fédéral américain chargé d’évaluer et de gérer les risques liés aux plateformes d’IA, aura l’occasion de tester le prochain modèle d’IA d’OpenAI avant sa publication publique. Bien que les détails de l’accord soient rares, cette collaboration représente une étape importante vers une transparence accrue et une surveillance externe du développement de l’IA.

Le partenariat fait suite à un accord similaire OpenAI a été en contact avec l’organisme britannique de sécurité de l’IA en juin, ce qui suggère une tendance à l’engagement avec les entités gouvernementales sur les questions de sécurité de l’IA.

OpenAI Institut américain de sécurité de l'IA
Ce partenariat fait suite à un accord similaire conclu en juin avec l’organisme britannique de sécurité de l’IA (Crédit d’image)

Répondre aux préoccupations en matière de sécurité

Les récentes actions d’OpenAI semblent être une réponse aux critiques concernant sa dépriorisation perçue de la recherche sur la sécurité de l’IA. L’entreprise avait précédemment dissous une unité travaillant sur les contrôles des systèmes d’IA « superintelligents », ce qui a conduit à des démissions très médiatisées et à un examen public minutieux.

Dans un effort pour rétablir la confiance, OpenAI a:

  1. Éliminé clauses restrictives de non-dénigrement.
  2. Créé une commission de sécurité.
  3. Engagé 20 % de ses ressources informatiques sont consacrées à la recherche en matière de sécurité.

Cependant, certains observateurs restent sceptiques, notamment après qu’OpenAI a doté sa commission de sécurité de membres de l’entreprise et réaffecté un haut responsable de la sécurité de l’IA.

Influence sur la politique de l’IA

L’engagement d’OpenAI auprès des organismes gouvernementaux et son soutien au Future of Innovation Act ont soulevé des questions quant à l’influence de l’entreprise sur l’élaboration des politiques en matière d’IA. Le moment choisi pour ces démarches, associé aux efforts accrus de lobbying d’OpenAI, a donné lieu à des spéculations sur une éventuelle capture réglementaire.


Désapprentissage des machines:L’IA peut-elle vraiment oublier ?


La position d’Altman au sein du Conseil de sécurité et de sûreté de l’intelligence artificielle du ministère américain de la Sécurité intérieure souligne encore davantage l’implication croissante de l’entreprise dans l’élaboration de la politique en matière d’IA.

Regarder vers l’avant

Alors que la technologie de l’IA continue de progresser rapidement, l’équilibre entre innovation et sécurité reste une préoccupation majeure. La collaboration d’OpenAI avec l’AI Safety Institute américain représente une étape vers un développement de l’IA plus transparent et plus responsable.

Cependant, cela met également en évidence la relation complexe entre les entreprises technologiques et les organismes de réglementation dans la définition de l’avenir de la gouvernance de l’IA.

La communauté technologique et les décideurs politiques observeront de près comment ce partenariat se déroulera et quel impact il aura sur le paysage plus large de la sécurité et de la réglementation de l’IA.


Crédit de l’image en vedette: Kim Menikh/Unsplash

Related Posts

Le meilleur conseil en trading crypto : Commencer petit et apprendre au fur et à mesure

Le meilleur conseil en trading crypto : Commencer petit et apprendre au fur et à mesure

juin 16, 2025

Le pouvoir de l’intelligence artificielle dans les transactions financières

juin 16, 2025
L’impact des tissus intelligents sur les performances des vêtements tactiques

L’impact des tissus intelligents sur les performances des vêtements tactiques

mai 15, 2025
Databricks parie en grande partie sur les Postgres sans serveur avec son acquisition néon de 1 milliard de dollars

Databricks parie en grande partie sur les Postgres sans serveur avec son acquisition néon de 1 milliard de dollars

mai 15, 2025
Alphaevolve: comment la nouvelle IA de Google vise la vérité avec l’auto-correction

Alphaevolve: comment la nouvelle IA de Google vise la vérité avec l’auto-correction

mai 15, 2025
Tiktok implémente des textes ALT générés par l’AI pour une meilleure accessibilité

Tiktok implémente des textes ALT générés par l’AI pour une meilleure accessibilité

mai 15, 2025

Recent Posts

  • Le meilleur conseil en trading crypto : Commencer petit et apprendre au fur et à mesure
  • Le pouvoir de l’intelligence artificielle dans les transactions financières
  • L’impact des tissus intelligents sur les performances des vêtements tactiques
  • Databricks parie en grande partie sur les Postgres sans serveur avec son acquisition néon de 1 milliard de dollars
  • Alphaevolve: comment la nouvelle IA de Google vise la vérité avec l’auto-correction

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.