L’industrie des semi-conducteurs est le théâtre d’une rivalité fascinante alors qu’Advanced Micro Devices (AMD) remet en cause la domination de NVIDIA sur le marché des accélérateurs d’IA. Avec son Instinct MI300X, AMD est sur le point de bouleverser le statu quo en proposant une alternative rentable et puissante au H100 de NVIDIA. La forte demande de puces d’IA, alimentée par la croissance explosive de l’adoption de l’IA et l’expansion des centres de données, intensifie encore cette concurrence.
Dans le domaine en évolution rapide de la technologie des puces IA, AMD fait des progrès notables pour défier la domination de NVIDIA. Alors que NVIDIA détient actuellement la part du lion du marché, estimé à plus de 80%AMD gagne progressivement du terrain, notamment dans le secteur des centres de données. Cette poussée est alimentée par une forte demande pour sa puce AI MI300X, ventes projetées atteignant le chiffre impressionnant de 4 milliards de dollars, soit environ 15 % des revenus anticipés d’AMD.
En matière de performances, les puces H100 de NVIDIA restent largement reconnues pour leurs prouesses dans les charges de travail d’IA, notamment dans le domaine de la formationCependant, le MI300X d’AMD fait ses preuves dans des tâches d’IA spécifiques, en particulier l’inférence, où certains affirment qu’il surpasse même le H100, le produit phare de NVIDIA.
En termes de partenariats industriels et d’adoption, NVIDIA bénéficie de collaborations bien établies avec les principaux fournisseurs de cloud et bénéficie d’une large acceptation dans divers secteurs. AMD noue activement des partenariatscomme son alliance avec TensorWave, pour élargir sa portée et affiner sa technologie pour les tâches centrées sur l’IA.
L’interaction dynamique entre ces deux géants promet un avenir passionnant pour le marché des puces d’IA. J’ai parlé avec Darrick Horton, PDG de Tenseur d’ondespour comprendre pourquoi il a mis tous ses œufs en matière d’IA dans le panier d’AMD.
AMD Instinct MI300X : une innovation qui change la donne ?
Le MI300X dispose d’une capacité de mémoire supérieure à celle du H100, ce qui le rend avantageux pour des tâches d’IA spécifiques, en particulier celles impliquant de grands modèles de langage. Alors que le H100 offre généralement une puissance de calcul brute supérieure, le MI300X est prometteur pour les tâches d’inférence et les tailles de lots plus importantes.
Bien que les prix exacts ne soient pas publics, le MI300X serait moins cher et offrirait potentiellement un meilleur rapport prix/performance. Cependant, la plateforme CUDA de NVIDIA bénéficie d’une adoption plus large et d’un écosystème logiciel plus mature.
« L’une des caractéristiques les plus remarquables du MI300X est son architecture mémoire supérieure », m’a expliqué Horton. « Avec jusqu’à 192 Go de mémoire HBM3 unifiée, le MI300X surpasse considérablement le H100, permettant la gestion transparente de modèles et d’ensembles de données plus volumineux directement sur l’accélérateur. Cela réduit le besoin d’accès à la mémoire hors puce, qui peut constituer un goulot d’étranglement dans les charges de travail de l’IA, ce qui conduit à des performances améliorées, des capacités de mise en cache et une latence plus faible. »
D’autres considérations qui ont conduit TensorWave à s’associer à AMD incluent l’efficacité énergétique et l’écosystème logiciel d’AMD.
« Le MI300X est conçu dans un souci d’efficacité énergétique, offrant des performances par watt exceptionnelles », a déclaré Horton. « Cela est particulièrement important à mesure que les charges de travail d’IA évoluent, permettant aux entreprises d’atteindre des performances élevées sans augmenter les coûts énergétiques. Cette efficacité est un facteur critique dans les déploiements à grande échelle, où les coûts opérationnels peuvent être une préoccupation majeure. La plateforme ROCm (Radeon Open Compute) d’AMD continue de mûrir et offre un support robuste pour les charges de travail d’IA et de HPC. nature open source de ROCm offre aux développeurs une flexibilité et la possibilité d’optimiser leurs applications pour le MI300X, ce qui est de plus en plus important à mesure que les modèles d’IA deviennent plus sophistiqués.
L’architecture hybride du MI300X combine les capacités du processeur et du processeur graphique, ce qui permet d’optimiser les performances sur différentes charges de travail et de s’adapter efficacement à plusieurs accélérateurs. Tout cela donne l’image d’une alternative convaincante à NVIDIA.
Bien entendu, AMD et NVIDIA adoptent des approches très différentes pour la construction de systèmes GPU à grande échelle. AMD privilégie la norme ouverte PCIe 5.0, qui offre une compatibilité plus large et des coûts potentiellement plus faibles, tandis que NVIDIA s’appuie sur son interconnexion NVLink à large bande passante pour améliorer les performances dans certains scénarios, mais avec des limitations potentielles en termes d’évolutivité et des coûts plus élevés.
Une mission pour démocratiser l’accès à l’IA
Le modèle de tarification de TensorWave semble viser à démocratiser l’accès à une infrastructure d’IA haute performance, et le coût inférieur de la location de GPU AMD via la plateforme peut contribuer à rendre les technologies d’IA avancées plus accessibles à un plus large éventail d’organisations.
« En matière d’achat de GPU, il ne s’agit pas d’une simple commande en un clic », a déclaré Horton. « Le processus est souvent retardé par des retards de production, ce qui rend le calendrier d’expédition imprévisible. De plus, les coûts initiaux peuvent être prohibitifs. Nous avons déjà construit nos centres de données avec des milliers de GPU MI300X, prêts à être déployés lorsque vous l’êtes. Mais supposons que vous parveniez à obtenir votre matériel. Vous êtes désormais confronté au défi de construire, de gérer et de maintenir ce matériel et l’ensemble de l’infrastructure du centre de données. Il s’agit d’un processus long et coûteux que tout le monde n’est pas équipé pour gérer. Avec notre service cloud, ces soucis disparaissent. »
Alors que NVIDIA occupe actuellement une position dominante, l’Instinct MI300X d’AMD et l’approche innovante de TensorWave sont sur le point de perturber le marché des accélérateurs d’IA.
« NVIDIA a été la force dominante sur le marché des accélérateurs d’IA, mais nous pensons qu’il est temps que cela change », a déclaré Horton. « Nous souhaitons offrir des options au marché. Nous voulons que les constructeurs se libèrent de la dépendance vis-à-vis des fournisseurs et cessent de dépendre d’outils non open source où ils sont à la merci du fournisseur. Nous croyons au choix. Nous croyons à l’optionnalité open source. Nous croyons à la démocratisation du calcul. Ces principes ont été au cœur de la conception et de l’orientation de notre cloud autour des accélérateurs AMD MI300X. »
TensorWave estime que cela est important car de plus en plus de PME et de grandes entreprises commencent à exploiter les outils d’IA de la même manière que les grandes entreprises l’ont déjà fait.
« Pensez aux cabinets comptables, aux cabinets juridiques et aux instituts de recherche », a déclaré Horton. « Ils disposent de vastes quantités de données historiques. S’ils parviennent à créer des outils d’IA capables d’apprendre à partir de ces ensembles de données, le potentiel de résultats commerciaux positifs est énorme. Cependant, pour y parvenir, vous devrez traiter de grands ensembles de données (plus de 250 000 jetons), ce qui nécessitera une mémoire et des performances matérielles importantes. Et ce n’est pas seulement théorique : les entreprises travaillent activement sur des solutions à long terme en ce moment. »
Un pari audacieux dans un jeu à enjeux élevés
TensorWave pense également qu’AMD deviendra la nouvelle norme à mesure que les LLM atteindront de nouveaux sommets, ce qui l’incite grandement à mettre toutes ses puces sur AMD (métaphore du blackjack voulue).
« Alors que les modèles d’IA continuent de croître en taille et de nécessiter davantage de mémoire, les solutions de NVIDIA ont du mal à rivaliser avec le MI300X en termes de rapport prix/performance. Prenons par exemple le modèle Llama 3.1 405B de Meta. Ce modèle peut fonctionner sur moins d’un nœud MI300X complet (8 GPU), alors qu’il nécessite environ deux nœuds avec le H100B. Nous parions gros que la communauté de l’IA est prête pour quelque chose de mieux : plus rapide, plus rentable, open source et facilement disponible. »
En doublant son investissement dans AMD, TensorWave se tourne vers l’avenir et développe de nouvelles capacités pour démocratiser davantage l’accès à la puissance de calcul.
« Nous développons des mécanismes de mise en cache évolutifs qui améliorent considérablement l’efficacité de la gestion des contextes longs », a déclaré Horton. « Cela permet aux utilisateurs d’interagir avec des chats et des documents plus volumineux avec des latences considérablement réduites, offrant des expériences plus fluides et plus réactives, même dans les applications d’IA les plus exigeantes. »
Actuellement en version bêta, TensorWave prévoit de le déployer auprès de ses utilisateurs au quatrième trimestre 2024.
Les avantages techniques du MI300X, combinés à l’accent mis par TensorWave sur la démocratisation et la rentabilité, constituent une alternative convaincante pour les entreprises à la recherche de solutions d’IA hautes performances.
Misez sur un avenir meilleur
L’alliance « voir, augmenter et appeler » entre AMD et NVIDIA favorisera sans aucun doute de nouvelles avancées dans la technologie GPU et les applications d’IA dans l’ensemble du secteur. Alors que la demande en IA continue de croître, les deux entreprises joueront un rôle crucial dans l’élaboration de l’avenir de cette technologie transformatrice.
Il reste à voir si AMD parviendra à surpasser NVIDIA. Cependant, leur présence sur le marché favorise une concurrence saine, l’innovation et, en fin de compte, profite à l’ensemble de l’écosystème de l’IA. La bataille pour la suprématie de l’IA est loin d’être terminée, et le monde entier observe avec impatience ces deux titans de la technologie continuer à repousser les limites du possible.