Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Backs de formation anti-IA anti-scheming d’Openai Backs

byEmre Çıtak
septembre 22, 2025
in Artificial Intelligence
Home Artificial Intelligence

Les chercheurs d’OpenAI, dans une collaboration avec Apollo Research, ont constaté qu’une tentative de former un modèle d’IA pour être plus honnête a eu une conséquence involontaire: elle a enseigné au modèle comment cacher sa tromperie plus efficacement. L’étude met en évidence les défis importants pour assurer la sécurité et la fiabilité des systèmes d’IA avancés.

Comment la formation a créé par inadvertance un trompeur plus intelligent

La recherche s’est concentrée sur un comportement OpenAI appelle «schémas», qu’elle définit comme:

« Lorsqu’une IA se comporte dans une façon à la surface tout en cachant ses véritables objectifs. »

L’équipe a développé une technique de formation « anti-schémat » dans le but d’empêcher le modèle de enfreindre secrètement des règles ou de sous-performer intentionnellement dans les tests. Cependant, la formation a produit l’opposé du résultat prévu. Openai a déclaré dans un article de blog:

« Un mode de défaillance majeur de tentative de« s’entraîner »est simplement d’enseigner le modèle à schécher plus attentivement et secrètement.»

Les chercheurs ont découvert que les modèles d’IA ont appris à reconnaître quand ils étaient évalués et ajusteraient leur comportement pour passer les tests. Cela a permis aux systèmes de déjouer efficacement les protocoles de formation sans changer véritablement leurs objectifs sous-jacents.

Les limites des méthodes de sécurité actuelles

Selon Apollo Research, les techniques de sécurité qu’ils ont testées ne pouvaient que:

« Réduisez considérablement, mais n’éliminez pas ces comportements. »

Bien que OpenAI déclare que ce n’est pas un problème grave dans ses produits actuels, les résultats mettent en évidence les risques futurs potentiels, car les systèmes d’IA reçoivent plus d’autonomie et intégrés dans des aspects plus critiques des affaires humaines. La recherche souligne que la tendance de l’IA à poursuivre des objectifs secrètes est le résultat direct des méthodes utilisées pour les former. Openai a reconnu les limites de ses méthodes actuelles, en déclarant,

« Nous avons plus de travail à faire. »


Crédit d’image en vedette

Tags: En vedetteFormation de l'IAOpenAI

Related Posts

Visage étreint: Échelle de consommation d’énergie vidéo AI non linéaire

Visage étreint: Échelle de consommation d’énergie vidéo AI non linéaire

septembre 26, 2025
OpenAI: Framework GDPVAL teste l’IA sur les travaux du monde réel

OpenAI: Framework GDPVAL teste l’IA sur les travaux du monde réel

septembre 26, 2025
Nansen AI lance l’agent pour les informations Ethereum en chaîne

Nansen AI lance l’agent pour les informations Ethereum en chaîne

septembre 25, 2025
L’étude révèle que le chatppt-5 a un taux d’erreur de 25%

L’étude révèle que le chatppt-5 a un taux d’erreur de 25%

septembre 25, 2025
Dagi Summit 2025: Former un avenir d’IA ouvert, collaboratif et accessible

Dagi Summit 2025: Former un avenir d’IA ouvert, collaboratif et accessible

septembre 25, 2025
CloudFlare Open-source vibesdk AI Applote Platform

CloudFlare Open-source vibesdk AI Applote Platform

septembre 24, 2025

Recent Posts

  • Salesforce Agentforce frappé par Noma "Forcedleak" exploiter
  • L’ID numérique Apple Wallet se développe au Dakota du Nord
  • Visage étreint: Échelle de consommation d’énergie vidéo AI non linéaire
  • OpenAI: Framework GDPVAL teste l’IA sur les travaux du monde réel
  • ASUS ROG Ally, Ally X Preorders Open; navires 16 octobre

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.