Le laboratoire des machines de réflexion, soutenu par 2 milliards de dollars de financement de démarrage et doté d’anciens chercheurs d’OpenAI, a partagé ses premières informations détaillées. Le laboratoire a publié mercredi un article de blog pour examiner comment créer des modèles d’IA qui produisent des réponses plus cohérentes et reproductibles, résolvant un défi fondamental dans le développement de l’intelligence artificielle.
La cohérence des modèles d’IA cible la non-déterminisme dans les modèles de grande langue
Le billet de blog, intitulé « Vaincre le non-déterminisme dans l’inférence LLM», Vérogue pourquoi les modèles d’IA génèrent souvent des réponses variées à des questions identiques. Bien que cette variabilité ait été acceptée comme une caractéristique inhérente des modèles de gros langues, le laboratoire de réflexion considère ce non-déterminisme comme un problème solvable plutôt que comme une limitation inévitable.
L’orchestration du noyau GPU provoque une réponse aléatoire
Le chercheur Horace, il a écrit le Post, faisant valoir que le caractère aléatoire dans les modèles d’IA découle de la façon dont les noyaux GPU sont orchestrés pendant le traitement de l’inférence. Le traitement d’inférence fait référence aux étapes de calcul qui se produisent après que les utilisateurs ont soumis des requêtes, comme appuyer sur Entrée dans Chatgpt. Les noyaux GPU sont des programmes spécialisés fonctionnant sur les puces informatiques NVIDIA. Il pense que une gestion minutieuse de cette couche d’orchestration peut permettre aux modèles d’IA de générer des sorties plus prévisibles et cohérentes.
Les réponses cohérentes améliorent la formation à l’apprentissage du renforcement
Au-delà de l’amélioration de la fiabilité des applications d’entreprise et scientifiques, il suggère que les réponses reproductibles peuvent rationaliser la formation d’apprentissage par renforcement (RL). Les récompenses de renforcement récompensent les modèles AI pour les réponses correctes, mais les réponses incohérentes introduisent le bruit dans les données de formation. Des réponses plus cohérentes pourraient améliorer le processus RL, ce qui s’aligne sur les rapports précédents de l’information selon lesquels le laboratoire des machines de réflexion prévoit d’utiliser RL pour adapter les modèles d’IA à des besoins commerciaux spécifiques.
Premier lancement de produit prévu pour les mois à venir
L’ancienne directrice de la technologie d’Openai, Mira Murati, a annoncé en juillet que Thinking Machines Lab publiera son premier produit bientôt. Elle a indiqué que le produit sera « utile pour les chercheurs et les startups qui développaient des modèles personnalisés », bien que des détails spécifiques et si elle intègre les techniques de reproductibilité reste non divulguée.
L’engagement de recherche ouverte reflète l’approche ouverte précoce
Laboratoire de machines à penser a annoncé son intention de publier régulièrement des articles de blog, du code et des résultats de recherche au profit du public, mais aussi d’améliorer notre propre culture de recherche « . Le récent post lance une nouvelle série intitulée « Connexionnisme », reflétant cet engagement de transparence. Cette approche reflète l’engagement de recherche ouverte d’Openai, bien qu’Openai soit devenu moins transparent à mesure qu’il a grandi. Le blog de recherche fournit de rares informations sur les opérations de Thinking Machines Lab et indique que l’entreprise relève des défis de recherche d’IA importants tout en travaillant vers des produits qui justifient sa valorisation de 12 milliards de dollars.