OpenAI a conclu un accord de plusieurs milliards de dollars avec le fabricant de puces Advanced Micro Devices (AMD) pour utiliser ses puces MI450 pour alimenter des produits d’IA. L’accord, issu d’un partenariat évolutif axé sur le matériel et les logiciels, renforce la position d’AMD face au leader du marché Nvidia. Un élément central de la collaboration est l’accent mis sur les logiciels, un objectif défendu en interne chez AMD. Selon ForbesVasmi Boppana, vice-président senior de l’IA chez la société de puces, a décrit la réaction constante de la PDG Lisa Su aux mises à jour sur les progrès logiciels comme : « Excellent travail. Vous devez aller plus vite. » Pour un fabricant de semi-conducteurs, ce niveau d’attention porté aux logiciels est essentiel car c’est le mécanisme qui permet d’accéder à toutes les capacités du matériel. Le logiciel optimise les performances du silicium et améliore sa fonctionnalité globale. Il fournit également les outils essentiels aux ingénieurs pour exploiter et programmer les puces physiques. Un aspect commercial important des logiciels est leur « rigidité », un terme décrivant la tendance des équipes d’ingénieurs, une fois formées sur une plate-forme logicielle spécifique, à hésiter à passer à une nouvelle en raison de la courbe d’apprentissage et des défis d’intégration associés. Selon Boppana, cette stratégie logicielle a joué un rôle déterminant dans l’obtention par AMD de l’accord avec OpenAI. L’accord précise que le créateur de ChatGPT utilisera les prochaines puces MI450 d’AMD pour prendre en charge 6 gigawatts de puissance de calcul pour son portefeuille de produits d’IA. Le montage financier du partenariat est structuré comme une transaction de plusieurs milliards de dollars. Outre l’achat de matériel, l’accord accorde à OpenAI l’option d’acheter jusqu’à 160 millions d’actions d’AMD, ce qui représente une participation d’environ 10 % dans la société. Ce partenariat constitue une évolution substantielle pour AMD, qui intensifie ses efforts pour concurrencer Nvidia, force dominante sur le marché. Puce IA marché. Les bases de cet accord étendu ont été posées en 2023, lorsque OpenAI a lancé pour la première fois l’utilisation du matériel AMD pour exécuter certains de ses modèles d’intelligence artificielle. Cet engagement initial a marqué le début d’une relation approfondie entre les deux organisations. Au cours de la période suivante, AMD a activement sollicité l’avis d’OpenAI sur la conception architecturale de ses prochaines puces MI450. Cette approche collaborative indique que l’expérience opérationnelle et les exigences techniques d’OpenAI ont directement influencé le développement du matériel de nouvelle génération d’AMD, en l’adaptant aux exigences des charges de travail d’IA à grande échelle. La collaboration s’est étendue de manière significative dans le domaine des logiciels. Boppana a déclaré : « À mesure que notre relation avec OpenAI s’approfondissait, nous avons élargi nos engagements à toutes les parties de la pile, mais certainement du côté logiciel. » Un résultat spécifique de cette coopération centrée sur les logiciels a été l’adaptation de Triton, un langage de programmation open source développé par OpenAI pour écrire du code pour les unités de traitement graphique (GPU). Avant cet effort commun, Triton était exclusivement compatible avec les GPU Nvidia. AMD a travaillé directement avec OpenAI pour activer la fonctionnalité Triton sur les propres puces d’AMD, élargissant ainsi la prise en charge matérielle du langage et rendant la plate-forme AMD plus accessible aux développeurs déjà maîtrisés dans l’environnement Triton. L’accord AMD-OpenAI se matérialise dans une période de demande presque insatiable en puissance de calcul, motivée par l’expansion rapide de l’industrie de l’IA. Cette tendance est soulignée par plusieurs initiatives d’investissement à grande échelle annoncées début 2023. L’une de ces initiatives est le projet Stargate, un projet d’investissement de 500 milliards de dollars impliquant le président Donald Trump, OpenAI, Oracle et SoftBank, visant à renforcer les centres de données et l’infrastructure d’IA basés aux États-Unis. Quelques semaines après cette annonce, Apple a déclaré son propre engagement d’une ampleur similaire, promettant 500 milliards de dollars pour des objectifs d’infrastructure connexes. Cette demande à l’échelle du secteur a propulsé Nvidia, une société autrefois principalement associée aux puces pour jeux, à une valorisation boursière de 4 500 milliards de dollars. Dans cet environnement aux enjeux élevés, OpenAI a également diversifié son sourcing matériel. À la fin du mois précédent, OpenAI a finalisé un partenariat distinct de 100 milliards de dollars avec Nvidia. Cet accord devrait fournir à OpenAI 10 gigawatts de puissance de calcul, illustrant l’ampleur des ressources requises pour développer et exploiter des systèmes d’IA avancés. Les doubles partenariats montrent qu’OpenAI construit une base matérielle vaste et variée. Aux côtés des acteurs établis, une nouvelle génération de startups de semi-conducteurs a émergé pour répondre aux besoins spécifiques de l’ère de l’IA. Des sociétés telles que Cerebras, SambaNova, Groq et d-Matrix développent des puces spécialisées conçues dès le départ pour les charges de travail d’IA. Leur stratégie consiste à proposer du matériel hautement optimisé pour ces tâches, présentant une alternative aux architectures plus générales des fabricants de puces traditionnels. Cet afflux de nouveaux concurrents reflète un mouvement plus large de l’industrie visant à créer des solutions d’intelligence artificielle plus efficaces et plus puissantes. Sid Sheth, PDG de la startup d-Matrix, a commenté la dynamique du marché, suggérant que l’ampleur du secteur de l’IA laisse la place à plusieurs fournisseurs de matériel performants. « L’opportunité est tellement grande qu’il est impossible qu’OpenAI fonctionne uniquement avec Nvidia », a déclaré Sheth à Forbes. Il a également observé un changement de comportement des clients, notant que les entreprises sont de plus en plus disposées à investir les efforts nécessaires pour intégrer différents écosystèmes matériels. « Les clients sont désormais prêts à apprendre ce qu’il faut pour travailler avec les logiciels d’AMD », a-t-il ajouté, renforçant l’idée que le marché s’ouvre à des alternatives. Pendant des années, la plate-forme logicielle propriétaire de Nvidia, CUDA, a été identifiée par les analystes du secteur comme un atout stratégique clé, créant un avantage concurrentiel significatif ou « fossé », en particulier pour la formation des modèles d’IA. Cependant, la barrière concurrentielle est considérée comme plus faible pour l’inférence, qui est le processus d’exécution de modèles déjà formés pour générer des résultats. L’inférence est une tâche informatiquement moins complexe que la formation. Le projet d’OpenAI d’utiliser les puces AMD spécifiquement pour les charges de travail d’inférence s’inscrit dans cette dynamique. « Le fossé n’est pas aussi important », a expliqué Sheth, faisant référence au marché de l’inférence. Il a expliqué que « le seuil de douleur diminue avec le temps », suggérant que les difficultés liées à l’adoption de matériel non-Nvidia diminuent. Boppana d’AMD affirme que le rythme rapide de l’innovation au sein de l’industrie de l’IA elle-même contribue à uniformiser les règles du jeu. « Si le monde était plutôt statique et n’évoluait pas, et que vous disposiez simplement de nombreux logiciels existants avec les mêmes architectures… alors, il y a certainement un grand fossé », a-t-il déclaré. Il a comparé cela à l’environnement actuel, où les progrès technologiques constants conduisent au développement de logiciels plus faciles à utiliser pour programmer des puces. « Sur une base prospective, je pense que cela va être de moins en moins important », a projeté Boppana, ce qui implique que la domination d’un écosystème logiciel unique pourrait diminuer à mesure que la technologie de l’IA mûrit. Le partenariat OpenAI place AMD dans une position radicalement différente de celle où elle se trouvait en 2014, l’année où Lisa Su a assumé le rôle de PDG. À cette époque, l’entreprise était dans une situation financière précaire, avec un cours de bourse d’environ 2 dollars et ayant subi d’importants licenciements qui ont réduit ses effectifs d’un quart. Les difficultés de l’entreprise ont été attribuées à son incapacité à pénétrer le marché en plein essor des appareils mobiles et à la baisse des ventes dans le secteur des ordinateurs personnels. Su a été chargé de concevoir un redressement de l’entreprise, qui impliquait un pivot stratégique vers le marché des centres de données et la sécurisation des activités auprès de fournisseurs de cloud hyperscale tels que Google et Amazon. Sous la direction de Su, AMD a réalisé une reprise réussie, avec un cours de ses actions récemment évalué à plus de 235 dollars et une capitalisation boursière atteignant 382 milliards de dollars. Après avoir rétabli la stabilité financière et la position concurrentielle de l’entreprise, Su s’est concentré sur le positionnement d’AMD comme un acteur formidable dans la prochaine vague technologique majeure : l’intelligence artificielle. Le nouvel objectif est de s’appuyer sur les succès des centres de données et de conquérir une part significative du marché du matériel d’IA.




