Deepseek utilisera des puces AI Huawei au lieu de Nvidia pour la formation de petits modèles d’IA, car la société cherche à réduire sa dépendance à l’égard des processeurs NVIDIA. Le changement arrive alors que Deepseek teste de nouveaux accélérateurs GPU de l’IA de divers fabricants.
Selon, Deepseek prévoit d’adopter des puces Huawei pour ses petits modèles d’IA. Cette initiative vise à réduire la dépendance de l’entreprise à l’égard de NVIDIA. Deepseek évalue actuellement de nouveaux accélérateurs GPU d’IA de Huawei, Baidu et Cambricon pour des modèles de formation plus petits que sa version AI R2.
Deepseek a l’intention de continuer à utiliser des processeurs NVIDIA pour son modèle de langue grand R2 AI (LLM), en les considérant comme une source fiable pour ses produits actuels. La société envisageait auparavant le processeur Ascend pour son modèle de raisonnement d’IA de nouvelle génération, mais pourrait reporter ce plan.
Deepseek a rencontré des défis avec le prochain modèle R2 AI. Malgré le soutien en génie de Huawei, les problèmes de développement ont conduit au report du lancement du modèle R2 AI. Les débuts du modèle R2 AI sont maintenant attendus plus tard cette année.
Deepseek s’appuie sur les chipsets de Nvidia pour construire le modèle de raisonnement R2 plus puissant. Parallèlement, il utilisera les processeurs Huawei Ascend pour la formation et le raffinement des itérations plus petites du modèle R2. La société n’a pas précisé de débutte pour les plates-formes de consommation en utilisant la technologie LLM Huawei AI Powered.
Un porte-parole de NVIDIA a déclaré: «La concurrence est indéniablement arrivée.





