Arm a annoncé lundi que ses processeurs Neoverse s’intégreront aux puces IA de Nvidia via la technologie NVLink Fusion, permettant aux hyperscalers de coupler les processeurs Arm avec les unités de traitement graphique Nvidia dans des configurations d’infrastructure personnalisées. L’intégration simplifie le processus pour les clients préférant une infrastructure sur mesure, en particulier les hyperscalers, pour combiner les processeurs Neoverse basés sur Arm directement avec les GPU dominants de Nvidia. Ce développement découle de la déclaration d’Arm selon laquelle les unités centrales de traitement basées sur sa technologie se connecteront via NVLink Fusion de Nvidia. Les hyperscalers, opérateurs cloud à grande échelle, conçoivent souvent des systèmes personnalisés pour optimiser les performances et les coûts dans les centres de données prenant en charge les charges de travail d’IA. Nvidia emploie des partenariats dans le secteur technologique dans le cadre de sa position centrale dans l’industrie de l’IA. L’annonce indique que Nvidia ouvre sa plate-forme NVLink à diverses puces personnalisées, plutôt que d’obliger les clients à adopter ses propres processeurs. Nvidia commercialise actuellement Grace Blackwell, un produit d’IA qui relie plusieurs GPU à un processeur Arm de marque Nvidia. Les configurations de serveur distinctes intègrent des processeurs Intel ou Advanced Micro Devices, offrant des options pour diverses combinaisons matérielles dans les environnements IA. Microsoft, Amazon et Google développent ou déploient des processeurs basés sur Arm au sein de leurs plates-formes cloud pour améliorer le contrôle des configurations et réduire les dépenses. Ces entreprises intègrent de tels processeurs pour personnaliser les opérations des centres de données, en alignant le matériel sur les demandes de charge de travail spécifiques dans les services de cloud computing. Arm concède sous licence sa technologie de jeu d’instructions, essentielle à la création de puces compatibles, et propose des conceptions qui accélèrent le développement par les partenaires de processeurs basés sur Arm. Arm ne fabrique pas lui-même de processeurs mais permet une production rapide grâce à ces ressources. Dans le cadre de l’annonce de lundi, les puces Neoverse personnalisées intègrent un nouveau protocole pour un mouvement transparent des données entre les processeurs et les GPU, facilitant ainsi une communication efficace dans les tâches de calcul hautes performances. Dans les serveurs traditionnels, le processeur était le composant principal. L’infrastructure d’IA générative est centrée sur des puces accélératrices d’IA, principalement des GPU Nvidia, avec des configurations prenant en charge jusqu’à huit GPU associés à un seul processeur. Cette structure donne la priorité aux performances de l’accélérateur pour le traitement intensif des modèles et des données d’IA. En septembre, Nvidia a engagé 5 milliards de dollars auprès d’Intel, le principal fabricant de processeurs. Un élément central de cet investissement permet aux processeurs Intel de se connecter à la technologie NVLink de Nvidia dans les serveurs IA, élargissant ainsi les options de compatibilité. Nvidia a accepté d’acquérir Arm pour 40 milliards de dollars en 2020, mais les régulateurs américains et britanniques ont bloqué l’accord en 2022. En février, Nvidia conservait une petite participation dans Arm, détenue majoritairement par SoftBank. Plus tôt ce mois-ci, SoftBank a vendu la totalité de sa participation dans Nvidia. SoftBank soutient le projet Stargate d’OpenAI, prévu pour intégrer la technologie Arm aux côtés des puces de Nvidia et AMD.





