Meta a introduit la dernière itération de ses puces propriétaires dédiées aux tâches d’IA. Les puces Meta Training and Inference Accelerator (MTIA) v2, développées en interne, fournissent deux fois la puissance de traitement et la bande passante mémoire de leurs prédécesseurs, les puces v1.
Ces puces seront mises en œuvre dans les centres de données de Meta pour prendre en charge les applications d’IA, améliorant notamment les systèmes de recommandation d’apprentissage en profondeur qui stimulent l’engagement des utilisateurs sur ses plateformes.
Meta a souligné que ces nouvelles puces sont capables de gérer des algorithmes de classement et de recommandation à la fois simples et complexes, essentiels pour la publicité sur des plateformes comme Facebook et Instagram. Meta affirme qu’en gérant à la fois les composants matériels et logiciels, il peut surpasser les GPU commerciaux standards en termes d’efficacité.
« Nous constatons déjà les résultats positifs de ce programme car il nous permet de consacrer et d’investir dans plus de puissance de calcul pour nos charges de travail d’IA plus intensives », lit-on dans le message connexe de Meta.
Meta a lancé sa première puce propriétaire en mai dernier, spécialement conçue pour les exigences informatiques uniques de l’entreprise. À mesure que Meta intensifie son attention sur le développement de l’IA, le besoin de matériel spécialisé s’est accru. La société a récemment présenté l’infrastructure d’IA qu’elle utilise pour former ses modèles d’IA avancés, tels que Llama 3, qui repose actuellement exclusivement sur Nvidia Composants.
Selon une étude d’Omdia, Meta était l’un des principaux clients de Nvidia l’année dernière, acquérant un volume substantiel de GPU H100 pour la formation de modèles d’IA. Meta a précisé que son initiative de silicium personnalisé est conçue pour compléter, plutôt que remplacer, le matériel Nvidia déjà utilisé dans ses systèmes existants.
« Réaliser nos ambitions en matière de silicium personnalisé signifie investir non seulement dans le silicium de calcul, mais également dans la bande passante, la mise en réseau et la capacité de la mémoire, ainsi que dans d’autres systèmes matériels de nouvelle génération », a déclaré Meta.
Les puces MTIA sont prêtes à faire l’objet d’un développement supplémentaire, Meta prévoyant d’améliorer le matériel pour prendre en charge les tâches d’IA générative. L’introduction du MTIA v2 représente l’incursion la plus récente de Meta dans la technologie des puces personnalisées, reflétant une tendance plus large du secteur où les grandes entreprises technologiques élaborent leurs propres solutions matérielles.
« Nous avons actuellement plusieurs programmes en cours visant à étendre la portée de MTIA, notamment la prise en charge des charges de travail GenAI. Et nous ne sommes qu’au début de ce voyage.
-Méta
Par exemple, la semaine dernière, Google Cloud a lancé son premier processeur basé sur Arm lors de l’événement Google Cloud Next 2024. De même, Microsoft a développé ses processeurs internes Maia et Cobalt, et Amazon utilise ses familles de puces Graviton et Trainium conçues par AWS pour faciliter les applications d’IA générative.
Crédit image en vedette : Laura Ockel/Unsplash