Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Nvidia pour déployer des interconnexions GPU basées sur la lumière d’ici 2026

byEmre Çıtak
août 25, 2025
in News, Tech
Home News
Share on FacebookShare on Twitter

Nvidia est planification Pour mettre en œuvre une communication basée sur la lumière entre ses GPU de l’intelligence artificielle d’ici 2026, l’utilisation de la photonique de silicium interconnects avec l’optique co-emballée (CPO) dans ses plateformes d’IA à l’échelle de rack de nouvelle génération pour atteindre des taux de transfert plus élevés à une consommation d’énergie réduite.

Lors de la conférence Hot Chips, NVIDIA a fourni plus de détails concernant ses prochaines solutions d’interconnexion photonique quantum-x et spectrum-x, décrivant leur arrivée attendue en 2026. Ces solutions représentent une évolution significative vers les interconnexions optiques pour gérer les demandes croissantes de transfert de données au sein de grands clusters AI GPU.

La chronologie de développement de Nvidia devrait refléter de près la feuille de route Coupé (moteur photonique universel compact) de TSMC, qui est structurée en trois phases distinctes. La phase initiale implique un moteur optique conçu pour les connecteurs OSFP, facilitant les transferts de données de 1,6 To / s tout en abaissant simultanément la consommation d’énergie. La deuxième phase passe à l’emballage COWOS incorporant des optiques co-emballés, atteignant ainsi des taux de transfert de données de 6,4 To / s au niveau de la carte mère. La troisième phase se concentre sur la réalisation de 12,8 To / s dans les packages de processeurs, dans le but de diminuer davantage la consommation d’énergie et la latence.

La nécessité du CPO découle des défis associés à l’interconnexion des milliers de GPU dans des grappes d’IA à grande échelle, les obligeant à fonctionner comme un système unifié. Cette architecture nécessite des modifications des configurations de réseautage traditionnelles. Plus précisément, au lieu de chaque rack ayant son propre commutateur de niveau 1 (haut de rack) connecté par des câbles de cuivre courts, les commutateurs sont déplacés à la fin de la ligne. Cette configuration établit un tissu cohérent à faible latence couvrant plusieurs racks. Cette relocalisation augmente la distance entre les serveurs et leur commutateur principal, ce qui rend les câbles de cuivre impraticables pour des vitesses élevées telles que 800 Go / s. Par conséquent, les connexions optiques deviennent essentielles pour presque tous les liens de serveur à commutation et de commutateur à interrupteur.


Nvidia conçoit une puce B30A plus lente pour nous rencontrer des restrictions


L’utilisation de modules optiques enfichables dans de tels environnements présente des limitations inhérentes. Dans ces conceptions, les signaux de données quittent le circuit intégré spécifique à l’application (ASIC), traversent la carte et les connecteurs, et sont ensuite convertis en lumière. Ce processus introduit une perte électrique significative, atteignant environ 22 décibels sur 200 Go / s canaux. La compensation pour cette perte nécessite un traitement complexe, ce qui augmente la consommation d’énergie par rapport à 30 W. Ceci, à son tour, nécessite un refroidissement supplémentaire et introduit des points de défaillance potentiels. Nvidia affirme que ces problèmes deviennent de plus en plus problématiques à mesure que l’échelle des déploiements d’IA se développe.

Le CPO atténue les inconvénients associés aux modules optiques traditionnels enfichables en intégrant le moteur de conversion optique directement le long du commutateur ASIC. Cette proximité permet au signal d’être couplé aux fibres presque immédiatement, contournant la nécessité de voyager sur des traces électriques prolongées. En conséquence, la perte électrique est réduite à 4 décibels et la consommation d’énergie du port diminue à 9W. Cet arrangement élimine également de nombreux composants qui pourraient potentiellement échouer, simplifiant la mise en œuvre des interconnexions optiques.

NVIDIA affirme que la transition des émetteurs-récepteurs conventionnels enfichable et l’intégration des moteurs optiques directement dans le silicium de commutation, facilité par la plate-forme coupé de TSMC, donne des améliorations substantielles de l’efficacité, de la fiabilité et de l’évolutivité. NVIDIA rapporte que CPO offre des avantages importants par rapport aux modules enfichables, y compris une augmentation de 3,5 fois de l’efficacité énergétique, une amélioration de 64 fois dans l’intégrité du signal, une augmentation de 10 fois la résilience due à la réduction des appareils actifs et à environ 30% de temps de déploiement plus rapides dus à des procédures de service et d’assemblage plus rapides.

NVIDIA prévoit d’introduire des plates-formes d’interconnexion optique basées sur CPO pour les technologies Ethernet et Infiniband. La société prévoit de lancer des commutateurs Quantum-X Infiniband au début de 2026. Chaque commutateur est conçu pour fournir 115 To / s de débit, accueillant 144 ports fonctionnant à 800 Go / s chacun. Le système intègre également un ASIC avec 14,4 TFLOP de traitement en réseau et prend en charge le protocole de réduction de l’agrégation hiérarchique de 4e génération de NVIDIA (Sharp), visant à réduire la latence pour les opérations collectives. Ces commutateurs utiliseront le refroidissement du liquide.

Parallèlement, Nvidia se prépare à intégrer CPO dans Ethernet via sa plate-forme photonique Spectrum-X, prévue pour la sortie dans la seconde moitié de 2026. Cette plate-forme sera basée sur le Spectrum-6 ASIC, qui alimentera deux appareils distincts: le SN6810, offrant 102,4 TB / s de la bande de bande à 48 ports à 800 gb / s, et le SN6800, qui à 48 Ports à 800 gb / s, et le SN6800, qui sur 40. TB / S et 512 ports fonctionnant au même rythme. Les deux appareils utiliseront également le refroidissement des liquides.

Nvidia envisage que ses commutateurs basés sur CPO entraîneront de nouveaux clusters d’IA conçus pour des applications d’IA génératives, qui deviennent de plus en plus grandes et complexes. En utilisant le CPO, ces grappes élimineront des milliers de composants discrets, ce qui entraînera des temps d’installation plus rapides, une entretien plus facile et une consommation d’énergie réduite par connexion. Par conséquent, les clusters utilisant la photonique quantum-x Infiniband et Spectrum-X devraient démontrer des améliorations des mesures telles que le temps de retour, la fiabilité à long terme du temps, du temps pour d’abord et globalement à long terme.

NVIDIA souligne que les optiques co-emballées ne sont pas simplement une amélioration facultative mais une exigence fondamentale pour les futurs centres de données d’IA. Cela suggère que l’entreprise a l’intention de positionner ses interconnexions optiques en tant que différenciateur clé et avantage sur les solutions d’IA à l’échelle de rack proposées par les concurrents, tels que AMD. L’acquisition par AMD d’Enosemi est pertinente dans ce contexte.

Un aspect critique de l’initiative photonique de Silicon de Nvidia est son alignement étroit sur l’évolution de la plate-forme Coupé (moteur photonique universel compact) de TSMC. Alors que la plate-forme de TSMC progresse dans les années à venir, les plateformes CPO de NVIDIA devraient s’améliorer en conséquence. La première génération de coupé de TSMC est construite en empilant un circuit intégré électronique de 65 nm (EIC) avec un circuit intégré photonique (PIC) en utilisant la technologie d’emballage SOIC-X de la société.

La feuille de route Coupé TSMC est divisée en trois étapes de développement. La génération initiale implique un moteur optique conçu pour les connecteurs OSFP, fournissant un transfert de données de 1,6 To / s tout en réduisant simultanément la consommation d’énergie. La deuxième génération intègre un emballage COWOS avec des optiques co-emballés, ce qui entraîne un taux de transfert de données de 6,4 To / s au niveau de la carte mère. La troisième génération est conçue pour atteindre 12,8 To / s dans les packages de processeurs et vise à réduire davantage la consommation d’énergie et la latence.


Crédit d’image en vedette

Tags: GPUNvidia

Related Posts

Google lance des examens pratiques SAT gratuits en Gemini avec Princeton Review

Google lance des examens pratiques SAT gratuits en Gemini avec Princeton Review

janvier 21, 2026
Lehane confirme qu'OpenAI lancera son premier matériel grand public fin 2026

Lehane confirme qu'OpenAI lancera son premier matériel grand public fin 2026

janvier 21, 2026
Adobe lance Object Mask basé sur l'IA pour Premiere Pro

Adobe lance Object Mask basé sur l'IA pour Premiere Pro

janvier 20, 2026
Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

janvier 20, 2026
Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

janvier 20, 2026
Cibles OpenAI "adoption pratique" pour la stratégie 2026

Cibles OpenAI "adoption pratique" pour la stratégie 2026

janvier 20, 2026

Recent Posts

  • Google lance des examens pratiques SAT gratuits en Gemini avec Princeton Review
  • Lehane confirme qu'OpenAI lancera son premier matériel grand public fin 2026
  • Analyste Forrester : l’IA n’a pas réussi à faire avancer la productivité mondiale
  • Sequoia Capital rejoint le tour de table de 350 milliards de dollars d'Anthropic
  • TCL détiendra 51 % de la marque de téléviseurs Bravia de Sony

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.