Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Nvidia vient de dévoiler son premier modèle d’IA pour la recherche sur la conduite autonome

byEmre Çıtak
décembre 2, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Nvidia annoncé de nouveaux modèles et infrastructures d’IA lundi lors de la conférence NeurIPS AI à San Diego, en Californie, pour faire progresser l’IA physique pour les robots et les véhicules autonomes qui perçoivent et interagissent avec le monde réel. L’initiative se concentre sur le développement d’une technologie de base pour la recherche sur la conduite autonome grâce à des outils open source. La société de semi-conducteurs a présenté Alpamayo-R1, décrit comme un modèle de langage de vision à raisonnement ouvert adapté à la recherche sur la conduite autonome. Nvidia le positionne comme le premier modèle d’action en langage de vision spécifiquement axé sur les applications de conduite autonome. Les modèles de langage visuel intègrent le traitement du texte et des images, permettant aux véhicules de « voir » leur environnement et de générer des décisions basées sur les entrées perceptuelles de l’environnement. Alpamayo-R1 s’appuie directement sur le modèle Cosmos-Reason de Nvidia, qui fonctionne comme un modèle de raisonnement qui délibère sur les décisions avant de générer des réponses. Cette approche fondamentale permet une prise de décision plus structurée dans des scénarios complexes. Nvidia a lancé pour la première fois la famille de modèles Cosmos plus large en janvier 2025, établissant une série d’outils d’IA conçus pour les tâches de raisonnement avancées. En août 2025, la société a élargi cette gamme avec des modèles supplémentaires pour améliorer les capacités dans les domaines physiques de l’IA. https://blogs.nvidia.com/wp-content/uploads/2025/11/ov-neurips-25-blog-corp-blog-1280×680-1.mp4

Vidéo : Nvidia

Selon un article du blog Nvidia, une technologie telle que Alpamayo-R1 joue un rôle essentiel pour les entreprises qui recherchent la conduite autonome de niveau 4. Ce niveau définit l’autonomie totale dans une zone opérationnelle désignée et dans des conditions particulières, où les véhicules fonctionnent sans intervention humaine dans ces paramètres. Les capacités de raisonnement intégrées au modèle visent à doter les véhicules autonomes du « bon sens » nécessaire pour prendre des décisions de conduite nuancées d’une manière comparable à celle des conducteurs humains. Les développeurs peuvent accéder immédiatement à Alpamayo-R1 sur des plateformes telles que GitHub et Hugging Face, facilitant ainsi une adoption et une expérimentation généralisées dans les projets de conduite autonome. En parallèle, Nvidia a publié le Cosmos Cookbook sur GitHub, comprenant des guides étape par étape, des ressources d’inférence et des flux de travail post-formation. Ces documents aident les développeurs à former et à déployer des modèles Cosmos pour des cas d’utilisation ciblés, avec une couverture s’étendant aux processus de conservation des données, aux techniques de génération de données synthétiques et aux méthodes complètes d’évaluation des modèles.


Crédit image en vedette

Tags: En vedetteNvidia

Related Posts

Anthropic lance le bot Interviewer pour interroger les utilisateurs sur l’utilisation de l’IA

Anthropic lance le bot Interviewer pour interroger les utilisateurs sur l’utilisation de l’IA

décembre 5, 2025
Les nouveaux Kindle Scribe et Colorsoft seront lancés le 10 décembre à partir de 499 $

Les nouveaux Kindle Scribe et Colorsoft seront lancés le 10 décembre à partir de 499 $

décembre 5, 2025
Fuite : le Xiaomi 17 Ultra dispose d’une caméra périscope de 200 MP

Fuite : le Xiaomi 17 Ultra dispose d’une caméra périscope de 200 MP

décembre 5, 2025
Tests de fils "Cher algorithme" fonctionnalité pour permettre aux utilisateurs d’ajuster leurs flux

Tests de fils "Cher algorithme" fonctionnalité pour permettre aux utilisateurs d’ajuster leurs flux

décembre 5, 2025
Les téléviseurs OLED Samsung 2026 fuient avant le CES 2026

Les téléviseurs OLED Samsung 2026 fuient avant le CES 2026

décembre 5, 2025
Google déploie Gemini 3 Deep Think pour les abonnés AI Ultra

Google déploie Gemini 3 Deep Think pour les abonnés AI Ultra

décembre 5, 2025

Recent Posts

  • Anthropic lance le bot Interviewer pour interroger les utilisateurs sur l’utilisation de l’IA
  • Huawei signale une reprise avec le retour des puces 5G après 5 ans de lutte
  • Les nouveaux Kindle Scribe et Colorsoft seront lancés le 10 décembre à partir de 499 $
  • Amazon envisage de créer un réseau rival alors que les négociations sur le contrat USPS sont au point mort
  • Google fait appel à Replit pour rivaliser avec Anthropic et Cursor dans la guerre du codage d’ambiance

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.