Lors de l’événement Advancing AI d’AMD, la PDG Lisa Su est montée sur scène pour annoncer une série d’innovations destinées aux clients IA. Des derniers processeurs EPYC de 5e génération aux accélérateurs Instinct de nouvelle génération, AMD redouble d’efforts en matière de matériel hautes performances pour les charges de travail d’IA. Ces nouvelles technologies promettent d’augmenter la puissance de traitement de l’IA et de rationaliser les charges de travail des entreprises et du cloud computing.
AMD Advancing AI 2024 en un coup d’œil
Décomposons les principales annonces du Faire progresser l’IA événement.
Processeurs EPYC de 5e génération : libérer la puissance du Zen 5
Lancement de l’événement, Lisa Su introduit Le portefeuille EPYC de 5e génération d’AMD, construit autour du tout nouveau cœur Zen 5. « Nous avons conçu Zen 5 pour qu’il soit le meilleur en termes de charges de travail de serveur », a expliqué Su, soulignant son augmentation de 177 % de l’IPC par rapport à Zen 4. Le nouveau processeur comprend jusqu’à 192 cœurs et 384 threads, repoussant les limites des performances du serveur.
L’un des points marquants était la flexibilité offerte par ces puces. Su a noté : « Nous avons réfléchi à la question du point de vue architectural : comment pouvons-nous créer le portefeuille de processeurs le plus large du secteur, couvrant à la fois les charges de travail cloud et d’entreprise ? Cet équilibre entre performances et polyvalence vise à tout gérer, des nœuds principaux d’IA aux logiciels d’entreprise exigeants.
Puces AMD Turion : évolutivité pour le cloud et l’entreprise
L’événement a également vu l’introduction des nouvelles puces Turion d’AMD, spécifiquement optimisées pour différents types de charges de travail. Su a révélé deux versions clés : une version à 128 cœurs conçue pour les applications d’entreprise évolutives et une version à 192 cœurs destinée au cloud computing évolutif. Les deux sont conçus pour des performances maximales par cœur, ce qui est crucial pour les charges de travail d’entreprise où les logiciels sont souvent concédés sous licence par cœur.
« La version à 192 cœurs est vraiment optimisée pour le cloud », a expliqué Su, soulignant que ces puces donneront aux fournisseurs de cloud la densité de calcul dont ils ont besoin. AMD a également comparé ses nouvelles puces EPYC à celles de la concurrence, montrant que l’EPYC de 5e génération offre jusqu’à 2,7 fois plus de performances que les principales alternatives.
AMD Instinct MI325X : un GPU axé sur l’IA
En ce qui concerne l’accélération de l’IA, Su annoncé l’AMD Instinct MI325X, le dernier GPU de la société axé sur l’IA. « Nous sommes leader du secteur avec 256 Go de mémoire HBM3E ultra-rapide et six téraoctets par seconde de bande passante », a déclaré Su. Le MI325X est conçu pour gérer des tâches d’IA exigeantes telles que l’IA générative, offrant des performances d’inférence 20 à 40 % supérieures et des améliorations de latence par rapport aux modèles précédents.
En plus de l’amélioration de la mémoire et des performances, AMD a conçu le MI325X en gardant à l’esprit la facilité de déploiement. « Nous avons conservé une infrastructure commune », a expliqué Su, permettant une intégration transparente avec les systèmes existants. Cela permettra aux clients d’IA d’adopter plus facilement la technologie sans remanier leurs plates-formes.
Série AMD Instinct MI350
L’événement également fourni un aperçu de l’avenir d’AMD avec la série MI350. Prévu pour un lancement au second semestre 2025, le MI350 introduit la nouvelle architecture CDNA 4 et offre un nombre impressionnant de 288 Go de mémoire HBM3E. Selon Su, CDNA 4 apportera « une augmentation générationnelle de 35 fois des performances de l’IA par rapport à CDNA 3 ».
Cette nouvelle architecture est conçue pour gérer des modèles d’IA plus grands avec une plus grande efficacité, et sa rétrocompatibilité avec les modèles Instinct précédents garantit une transition en douceur pour les clients.
ROCm 6.2 : meilleures performances pour les charges de travail d’IA
L’engagement d’AMD en faveur de l’optimisation des performances de l’IA s’étend au-delà du matériel, avec l’annonce de Su ROcm 6,2la dernière mise à jour de la pile logicielle IA d’AMD. La nouvelle version offre des performances 2,4 fois supérieures pour les charges de travail d’inférence d’IA clés et des performances 1,8 fois supérieures pour les tâches de formation d’IA. Ces améliorations proviennent des progrès des algorithmes, des optimisations de graphiques et des bibliothèques de calcul améliorées.
« Notre dernière version se concentre sur l’optimisation des performances sur les modèles propriétaires et publics », a expliqué Su, signalant les efforts d’AMD pour rester compétitif également dans le domaine des logiciels d’IA.
Crédits images : Kerem Gülen/Idéogramme