Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

OpenAI évolue du statut de leader controversé à celui de défenseur de la sécurité

byEmre Çıtak
août 1, 2024
in Non classé
Share on FacebookShare on Twitter

OpenAI, la société à l’origine de ChatGPT, prend des mesures pour répondre aux préoccupations concernant la sécurité et la gouvernance de l’IA.

Sam Altman, PDG a récemment annoncé qu’OpenAI travaillait avec l’US AI Safety Institute pour fournir un accès anticipé à son prochain modèle majeur d’IA générative pour les tests de sécurité.

Cette décision intervient dans un contexte d’examen croissant de l’engagement d’OpenAI en matière de sécurité de l’IA et de son influence sur l’élaboration des politiques.

quelques mises à jour rapides sur la sécurité chez openai :

Comme nous l’avons dit en juillet dernier, nous nous engageons à allouer au moins 20 % des ressources informatiques aux efforts de sécurité dans l’ensemble de l’entreprise.

notre équipe a travaillé avec l’Institut américain de sécurité de l’IA sur un accord dans lequel nous fournirions…

— Sam Altman (@sama) 1er août 2024

Collaboration avec l’Institut américain de sécurité de l’IA

L’AI Safety Institute, un organisme fédéral américain chargé d’évaluer et de gérer les risques liés aux plateformes d’IA, aura l’occasion de tester le prochain modèle d’IA d’OpenAI avant sa publication publique. Bien que les détails de l’accord soient rares, cette collaboration représente une étape importante vers une transparence accrue et une surveillance externe du développement de l’IA.

Le partenariat fait suite à un accord similaire OpenAI a été en contact avec l’organisme britannique de sécurité de l’IA en juin, ce qui suggère une tendance à l’engagement avec les entités gouvernementales sur les questions de sécurité de l’IA.

OpenAI Institut américain de sécurité de l'IA
Ce partenariat fait suite à un accord similaire conclu en juin avec l’organisme britannique de sécurité de l’IA (Crédit d’image)

Répondre aux préoccupations en matière de sécurité

Les récentes actions d’OpenAI semblent être une réponse aux critiques concernant sa dépriorisation perçue de la recherche sur la sécurité de l’IA. L’entreprise avait précédemment dissous une unité travaillant sur les contrôles des systèmes d’IA « superintelligents », ce qui a conduit à des démissions très médiatisées et à un examen public minutieux.

Dans un effort pour rétablir la confiance, OpenAI a:

  1. Éliminé clauses restrictives de non-dénigrement.
  2. Créé une commission de sécurité.
  3. Engagé 20 % de ses ressources informatiques sont consacrées à la recherche en matière de sécurité.

Cependant, certains observateurs restent sceptiques, notamment après qu’OpenAI a doté sa commission de sécurité de membres de l’entreprise et réaffecté un haut responsable de la sécurité de l’IA.

Influence sur la politique de l’IA

L’engagement d’OpenAI auprès des organismes gouvernementaux et son soutien au Future of Innovation Act ont soulevé des questions quant à l’influence de l’entreprise sur l’élaboration des politiques en matière d’IA. Le moment choisi pour ces démarches, associé aux efforts accrus de lobbying d’OpenAI, a donné lieu à des spéculations sur une éventuelle capture réglementaire.


Désapprentissage des machines:L’IA peut-elle vraiment oublier ?


La position d’Altman au sein du Conseil de sécurité et de sûreté de l’intelligence artificielle du ministère américain de la Sécurité intérieure souligne encore davantage l’implication croissante de l’entreprise dans l’élaboration de la politique en matière d’IA.

Regarder vers l’avant

Alors que la technologie de l’IA continue de progresser rapidement, l’équilibre entre innovation et sécurité reste une préoccupation majeure. La collaboration d’OpenAI avec l’AI Safety Institute américain représente une étape vers un développement de l’IA plus transparent et plus responsable.

Cependant, cela met également en évidence la relation complexe entre les entreprises technologiques et les organismes de réglementation dans la définition de l’avenir de la gouvernance de l’IA.

La communauté technologique et les décideurs politiques observeront de près comment ce partenariat se déroulera et quel impact il aura sur le paysage plus large de la sécurité et de la réglementation de l’IA.


Crédit de l’image en vedette: Kim Menikh/Unsplash

Related Posts

Le Qwen Code v0.5.0 d’Alibaba transforme le terminal en un écosystème de développement complet

Le Qwen Code v0.5.0 d’Alibaba transforme le terminal en un écosystème de développement complet

décembre 26, 2025
Bethesda vise 600 heures de jeu pour Fallout 5

Bethesda vise 600 heures de jeu pour Fallout 5

décembre 26, 2025
ASUS défend le port d’alimentation mal aligné du RTX 5090 HyperX comme "conception intentionnelle"

ASUS défend le port d’alimentation mal aligné du RTX 5090 HyperX comme "conception intentionnelle"

décembre 26, 2025
NVIDIA open source CUDA Tile IR sur GitHub

NVIDIA open source CUDA Tile IR sur GitHub

décembre 26, 2025
Le PDG de MicroStrategy explique les fondamentaux du Bitcoin "ça ne pourrait pas être mieux"

Le PDG de MicroStrategy explique les fondamentaux du Bitcoin "ça ne pourrait pas être mieux"

décembre 26, 2025
ChatGPT évolue vers une suite bureautique avec de nouveaux blocs de formatage

ChatGPT évolue vers une suite bureautique avec de nouveaux blocs de formatage

décembre 26, 2025

Recent Posts

  • Le Qwen Code v0.5.0 d’Alibaba transforme le terminal en un écosystème de développement complet
  • Bethesda vise 600 heures de jeu pour Fallout 5
  • ASUS défend le port d’alimentation mal aligné du RTX 5090 HyperX comme "conception intentionnelle"
  • NVIDIA open source CUDA Tile IR sur GitHub
  • Le PDG de MicroStrategy explique les fondamentaux du Bitcoin "ça ne pourrait pas être mieux"

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.