Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Le laboratoire des machines de réflexion révèle des recherches sur l’élimination de l’aléatoire dans les réponses du modèle d’IA

byKerem Gülen
septembre 11, 2025
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

Le laboratoire des machines de réflexion, soutenu par 2 milliards de dollars de financement de démarrage et doté d’anciens chercheurs d’OpenAI, a partagé ses premières informations détaillées. Le laboratoire a publié mercredi un article de blog pour examiner comment créer des modèles d’IA qui produisent des réponses plus cohérentes et reproductibles, résolvant un défi fondamental dans le développement de l’intelligence artificielle.

La cohérence des modèles d’IA cible la non-déterminisme dans les modèles de grande langue

Le billet de blog, intitulé « Vaincre le non-déterminisme dans l’inférence LLM», Vérogue pourquoi les modèles d’IA génèrent souvent des réponses variées à des questions identiques. Bien que cette variabilité ait été acceptée comme une caractéristique inhérente des modèles de gros langues, le laboratoire de réflexion considère ce non-déterminisme comme un problème solvable plutôt que comme une limitation inévitable.

L’orchestration du noyau GPU provoque une réponse aléatoire

Le chercheur Horace, il a écrit le Post, faisant valoir que le caractère aléatoire dans les modèles d’IA découle de la façon dont les noyaux GPU sont orchestrés pendant le traitement de l’inférence. Le traitement d’inférence fait référence aux étapes de calcul qui se produisent après que les utilisateurs ont soumis des requêtes, comme appuyer sur Entrée dans Chatgpt. Les noyaux GPU sont des programmes spécialisés fonctionnant sur les puces informatiques NVIDIA. Il pense que une gestion minutieuse de cette couche d’orchestration peut permettre aux modèles d’IA de générer des sorties plus prévisibles et cohérentes.

Les réponses cohérentes améliorent la formation à l’apprentissage du renforcement

Au-delà de l’amélioration de la fiabilité des applications d’entreprise et scientifiques, il suggère que les réponses reproductibles peuvent rationaliser la formation d’apprentissage par renforcement (RL). Les récompenses de renforcement récompensent les modèles AI pour les réponses correctes, mais les réponses incohérentes introduisent le bruit dans les données de formation. Des réponses plus cohérentes pourraient améliorer le processus RL, ce qui s’aligne sur les rapports précédents de l’information selon lesquels le laboratoire des machines de réflexion prévoit d’utiliser RL pour adapter les modèles d’IA à des besoins commerciaux spécifiques.

Premier lancement de produit prévu pour les mois à venir

L’ancienne directrice de la technologie d’Openai, Mira Murati, a annoncé en juillet que Thinking Machines Lab publiera son premier produit bientôt. Elle a indiqué que le produit sera « utile pour les chercheurs et les startups qui développaient des modèles personnalisés », bien que des détails spécifiques et si elle intègre les techniques de reproductibilité reste non divulguée.

L’engagement de recherche ouverte reflète l’approche ouverte précoce

Laboratoire de machines à penser a annoncé son intention de publier régulièrement des articles de blog, du code et des résultats de recherche au profit du public, mais aussi d’améliorer notre propre culture de recherche « . Le récent post lance une nouvelle série intitulée « Connexionnisme », reflétant cet engagement de transparence. Cette approche reflète l’engagement de recherche ouverte d’Openai, bien qu’Openai soit devenu moins transparent à mesure qu’il a grandi. Le blog de recherche fournit de rares informations sur les opérations de Thinking Machines Lab et indique que l’entreprise relève des défis de recherche d’IA importants tout en travaillant vers des produits qui justifient sa valorisation de 12 milliards de dollars.

Tags: En vedetteintelligence artificielleLaboratoire de machines à penser

Related Posts

Adobe lance Object Mask basé sur l'IA pour Premiere Pro

Adobe lance Object Mask basé sur l'IA pour Premiere Pro

janvier 20, 2026
Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

janvier 20, 2026
Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

janvier 20, 2026
Cibles OpenAI "adoption pratique" pour la stratégie 2026

Cibles OpenAI "adoption pratique" pour la stratégie 2026

janvier 20, 2026
Allégation : NVIDIA a donné le feu vert au téléchargement de livres piratés pour la formation en IA

Allégation : NVIDIA a donné le feu vert au téléchargement de livres piratés pour la formation en IA

janvier 20, 2026
La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

janvier 16, 2026

Recent Posts

  • Analyste Forrester : l’IA n’a pas réussi à faire avancer la productivité mondiale
  • Sequoia Capital rejoint le tour de table de 350 milliards de dollars d'Anthropic
  • TCL détiendra 51 % de la marque de téléviseurs Bravia de Sony
  • Adobe lance Object Mask basé sur l'IA pour Premiere Pro
  • Netflix passe à une offre entièrement en espèces pour Warner Bros. Discovery

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.