Microsoft Corp. a acquis cette année environ 485 000 puces IA « Hopper » de Nvidia, leader du marché avec une marge significative selon Temps Financier. La société vise à améliorer ses capacités d’intelligence artificielle, notamment au sein de ses services cloud Azure. Cet investissement stratégique place Microsoft devant des concurrents tels que Meta Platforms, qui a acheté 224 000 puces, et Amazon et Google, qui ont acquis respectivement 196 000 et 169 000 puces.
Microsoft acquiert 485 000 puces Nvidia AI pour booster Azure
Les analystes d’Omdia révèlent que les commandes de puces de Microsoft dépassent celles de ses concurrents les plus proches, ce qui indique sa volonté agressive de développement d’infrastructures d’IA. Microsoft cherche à développer ses services d’IA, en tirant parti des technologies d’OpenAI, dans laquelle il a investi 13 milliards de dollars. Cette année, les entreprises technologiques ont dépensé collectivement des dizaines de milliards de dollars en centres de données équipés de puces Nvidia, les prévisions suggérant des dépenses estimées à 229 milliards de dollars en serveurs en 2024. Microsoft à lui seul devrait contribuer à hauteur de 31 milliards de dollars à ce total.
La domination de Nvidia sur le marché des puces IA est évidente, la société affichant un chiffre d’affaires de 35,1 milliards de dollars pour le troisième trimestre, largement tiré par les ventes de centres de données qui représentaient 30,8 milliards de dollars. Malgré l’emprise étroite de Nvidia sur le secteur, des concurrents comme AMD font de grands progrès. Omdia rapporte que Microsoft a acheté 96 000 puces AMD MI300 tandis que Meta a acquis 173 000 des mêmes puces en coopération avec les avancées technologiques d’AMD.
La demande d’unités de traitement graphique avancées a dépassé l’offre, renforçant ainsi la position de Nvidia en tant qu’acteur clé des progrès de l’IA. Cette dynamique signifie que les acquisitions stratégiques de puces par Microsoft serviront probablement à renforcer son cadre d’IA. Cependant, même si ces puces offrent une puissance importante, des défis persistent. Nvidia a été confronté à des problèmes de surchauffe avec ses prochaines puces Blackwell AI, ce qui pourrait potentiellement avoir un impact sur les entreprises qui les déploient, notamment Microsoft et Meta.
Selon Nvidia, les startups sont l’avenir de l’IA
Malgré ces défis, Microsoft continue d’investir massivement dans le développement de son infrastructure de centre de données. Alistair Speirs, directeur principal d’Azure Global Infrastructure chez Microsoft, a souligné que la construction d’une infrastructure de centre de données efficace nécessite des investissements importants et nécessite une planification sur plusieurs années. Cette approche avant-gardiste est cruciale, d’autant plus que la concurrence s’intensifie entre les géants de la technologie comme Google, Amazon et les startups émergentes comme Anthropic et xAI.
Le développement des puces IA fait l’objet d’un examen continu, d’autant plus que les entreprises technologiques s’efforcent de réduire leur dépendance à l’égard de Nvidia. Google investit considérablement dans ses unités de traitement tensoriel (TPU), tandis que Meta a récemment déployé ses puces Meta Training et Inference Accelerator. De plus, Amazon développe ses puces Trainium et Inferentia. Amazon a annoncé son intention de créer un nouveau cluster de traitement de données comprenant des centaines de milliers de ses dernières puces Trainium pour Anthropic, démontrant ainsi son engagement en faveur de l’infrastructure d’IA.
La dépendance de Microsoft à l’égard des puces Nvidia ne l’empêche pas de développer ses propres accélérateurs d’IA, avec actuellement environ 200 000 puces Maia installées. Speirs a souligné la nécessité d’intégrer la technologie de Nvidia aux propres avancées de Microsoft pour fournir des services uniques aux clients. La création d’une infrastructure d’IA complète englobe non seulement une puissance de traitement robuste, mais également des composants de stockage et des couches logicielles intégrés, mettant en évidence les complexités de l’architecture du système.
Crédit image en vedette : Sam Torres/Unsplash