Nvidia annoncé de nouveaux modèles et infrastructures d’IA lundi lors de la conférence NeurIPS AI à San Diego, en Californie, pour faire progresser l’IA physique pour les robots et les véhicules autonomes qui perçoivent et interagissent avec le monde réel. L’initiative se concentre sur le développement d’une technologie de base pour la recherche sur la conduite autonome grâce à des outils open source. La société de semi-conducteurs a présenté Alpamayo-R1, décrit comme un modèle de langage de vision à raisonnement ouvert adapté à la recherche sur la conduite autonome. Nvidia le positionne comme le premier modèle d’action en langage de vision spécifiquement axé sur les applications de conduite autonome. Les modèles de langage visuel intègrent le traitement du texte et des images, permettant aux véhicules de « voir » leur environnement et de générer des décisions basées sur les entrées perceptuelles de l’environnement. Alpamayo-R1 s’appuie directement sur le modèle Cosmos-Reason de Nvidia, qui fonctionne comme un modèle de raisonnement qui délibère sur les décisions avant de générer des réponses. Cette approche fondamentale permet une prise de décision plus structurée dans des scénarios complexes. Nvidia a lancé pour la première fois la famille de modèles Cosmos plus large en janvier 2025, établissant une série d’outils d’IA conçus pour les tâches de raisonnement avancées. En août 2025, la société a élargi cette gamme avec des modèles supplémentaires pour améliorer les capacités dans les domaines physiques de l’IA. https://blogs.nvidia.com/wp-content/uploads/2025/11/ov-neurips-25-blog-corp-blog-1280×680-1.mp4
Vidéo : Nvidia
Selon un article du blog Nvidia, une technologie telle que Alpamayo-R1 joue un rôle essentiel pour les entreprises qui recherchent la conduite autonome de niveau 4. Ce niveau définit l’autonomie totale dans une zone opérationnelle désignée et dans des conditions particulières, où les véhicules fonctionnent sans intervention humaine dans ces paramètres. Les capacités de raisonnement intégrées au modèle visent à doter les véhicules autonomes du « bon sens » nécessaire pour prendre des décisions de conduite nuancées d’une manière comparable à celle des conducteurs humains. Les développeurs peuvent accéder immédiatement à Alpamayo-R1 sur des plateformes telles que GitHub et Hugging Face, facilitant ainsi une adoption et une expérimentation généralisées dans les projets de conduite autonome. En parallèle, Nvidia a publié le Cosmos Cookbook sur GitHub, comprenant des guides étape par étape, des ressources d’inférence et des flux de travail post-formation. Ces documents aident les développeurs à former et à déployer des modèles Cosmos pour des cas d’utilisation ciblés, avec une couverture s’étendant aux processus de conservation des données, aux techniques de génération de données synthétiques et aux méthodes complètes d’évaluation des modèles.





