Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Pourquoi l’accord Groq de Nvidia est si clé pour l’avenir de l’IA

byEmre Çıtak
décembre 30, 2025
in Industry
Home Industry
Share on FacebookShare on Twitter

Fabricants de puces Nvidia et Groq entré un accord de licence technologique non exclusif la semaine dernière pour accélérer et réduire le coût d’exécution de grands modèles de langage pré-entraînés à l’aide des puces d’unité de traitement linguistique de Groq. Les puces de l’unité de traitement linguistique de Groq alimentent les requêtes des chatbots en temps réel pendant la phase d’inférence des opérations d’IA, distincte du processus de formation du modèle. Ces puces permettent aux modèles d’IA de générer rapidement des réponses dans des applications telles que les chatbots. Les puces de Nvidia gèrent actuellement une grande partie de la phase de formation à l’IA dans l’industrie. L’inférence représente un goulot d’étranglement que Nvidia ne contrôle pas totalement. Les puces de Groq ciblent spécifiquement cette étape d’inférence, où les modèles d’IA appliquent les connaissances acquises lors de la formation pour produire des résultats sur de nouvelles données. Groq conçoit ses puces pour l’inférence afin de faire passer les modèles d’IA de l’expérimentation en laboratoire au déploiement pratique. L’inférence se produit après la formation, lorsque les modèles traitent des entrées invisibles pour fournir des résultats dans des scénarios réels. Les investisseurs dirigent les fonds vers les startups d’inférence pour connecter la recherche sur l’IA aux applications quotidiennes à grande échelle. Le journaliste d’Axios, Chris Metinko, a couvert cette tendance en matière d’investissement plus tôt cette année. Les capacités d’inférence améliorées permettent aux entreprises de poursuivre des projets d’IA d’entreprise supplémentaires à plus grande échelle. Ces initiatives augmentent la demande de processus de formation, ce qui à son tour augmente le besoin en puces de formation de Nvidia. Les modèles d’IA fonctionnent en deux phases : la formation et l’inférence. Pendant la formation, les modèles traitent de nombreux ensembles de données, notamment du texte, des images et des vidéos, pour construire des représentations internes des connaissances. Lors de la phase d’inférence, les modèles identifient des modèles au sein de données inédites et produisent des réponses à des invites spécifiques basées sur ces modèles. Ce processus ressemble à un étudiant qui étudie le matériel pour un examen et applique ensuite ces connaissances pendant le test. Groq originaire en 2016 sous la direction fondatrice de Jonathan Ross. La société n’a aucun lien avec le chatbot xAI d’Elon Musk nommé Grok. Jonathan Ross, le président de Groq, Sunny Madra, et certains autres employés envisagent de rejoindre Nvidia, comme indiqué sur Le site de Groq. Groq a l’intention de maintenir ses opérations indépendantes après ces transitions. L’accord constitue un « accord de licence non exclusif sur la technologie d’inférence ». Cet arrangement s’apparente à une acquisition ou à une acquisition. Stacy Rasgon a décrit la structure dans une note aux clients comme entretenant la fiction de la concurrence, selon CNBC. Les entreprises utilisent de telles structures de transaction pour naviguer dans les examens antitrust tout en obtenant du personnel spécialisé en IA.

  • Exemple Microsoft : Recrutement Mustafa Suleyman, co-fondateur de DeepMind.
  • Exemple Google : Réengagement de Noam Shazeer, co-inventeur de l’architecture Transformer au cœur des modèles GPT.

Jonathan Ross, qui rejoint désormais Nvidia, a précédemment développé l’unité de traitement tenseur de Google, connue sous le nom de TPU. Les coûts de déploiement déterminent dans quelle mesure les entreprises utilisent les modèles développés grâce à des efforts de formation préalables.


Crédit image en vedette

Tags: grognerNvidia

Related Posts

Meta rachète la société d’IA à croissance rapide Manus dans le cadre d’un accord de 2 milliards de dollars

Meta rachète la société d’IA à croissance rapide Manus dans le cadre d’un accord de 2 milliards de dollars

décembre 30, 2025
Les coûts élevés de la DDR5 poussent ASUS à augmenter la production de cartes DDR4

Les coûts élevés de la DDR5 poussent ASUS à augmenter la production de cartes DDR4

décembre 30, 2025
Un client de Tesla demande un nouveau procès suite à des restrictions de dépenses

Un client de Tesla demande un nouveau procès suite à des restrictions de dépenses

décembre 30, 2025
Xbox et PlayStation pourraient retarder le lancement en 2028 alors que les coûts des composants montent en flèche

Xbox et PlayStation pourraient retarder le lancement en 2028 alors que les coûts des composants montent en flèche

décembre 30, 2025
SoftBank acquiert DigitalBridge pour 4 milliards de dollars en espèces

SoftBank acquiert DigitalBridge pour 4 milliards de dollars en espèces

décembre 30, 2025
Samsung et SK Hynix obtiennent l’approbation des États-Unis pour leurs usines en Chine

Samsung et SK Hynix obtiennent l’approbation des États-Unis pour leurs usines en Chine

décembre 30, 2025

Recent Posts

  • Meta rachète la société d’IA à croissance rapide Manus dans le cadre d’un accord de 2 milliards de dollars
  • Gallery TV rejoint la gamme lifestyle de LG avec un service artistique exclusif
  • Pourquoi l’accord Groq de Nvidia est si clé pour l’avenir de l’IA
  • HP divulgue les moniteurs de jeu OMEN OLED avant le CES 2026
  • Les coûts élevés de la DDR5 poussent ASUS à augmenter la production de cartes DDR4

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.