Anthropic mène une utilisation du modèle de grande langue d’entreprise avec une part de marché de 32% Selon une enquête Menlo Ventures sur 150 décideurs techniques réalisés à l’été 2025, tirés par des performances supérieures dans les applications de génération de code.
Menlo Ventures, une société de capital-risque en début de stade et un important investisseur anthropique, a rédigé le rapport analysant l’adoption de l’IA de l’entreprise. L’entreprise a investi substantiellement dans Anthropic, menant son tour de financement de la série D et participant à son financement de 3,5 milliards de dollars en série E apprécié Anthropic à 61,5 milliards de dollars. La validation indépendante de la trajectoire de croissance d’Anthropic provient du magazine AI, qui a indiqué que la société a réalisé une croissance des revenus de 1 000% sur l’autre pour atteindre 3 milliards de dollars de revenus récurrents annuels. Cela établit anthropic comme le premier fournisseur d’IA d’entreprise par le biais de sa famille de modèles Claude.
La distribution des parts de marché montre que OpenAI suit anthropic avec 25% de l’utilisation des entreprises. Google capture 20% tandis que Meta’s Llama détient 9%. Deepseek traîne considérablement avec 1% de pénétration du marché. Ces chiffres mesurent spécifiquement la mise en œuvre de l’IA de production plutôt que les allocations de dépenses. Menlo Ventures attribue l’expansion rapide du marché d’Anthropic aux capacités techniques de ses modèles Claude Sonnet et Claude Opus, qui ont démontré des avantages de performance significatifs dans les milieux d’entreprise.
La génération de code représente ce que les chercheurs ont identifié comme une «application Killer» inaugurale de l’IA, avec Claude devenant l’outil préféré des programmeurs. Claude commande une part de marché de 42% parmi les développeurs, doublant le taux d’adoption de 21% d’Openai. Les preuves concrètes de l’impact de la programmation de Claude comprennent sa transformation du copilote GitHub en un écosystème de 1,9 milliard de dollars en une seule année. La publication de Claude Sonnet 3.5 en 2024 a permis des catégories d’applications entièrement nouvelles, notamment des environnements de développement intégrés AI comme le curseur et la planche à planaire, les constructeurs d’applications tels que Lovable, Bolt et Replit, et les agents de codage d’entreprise, y compris le code Claude et toutes les mains.
Anthropic utilise l’apprentissage du renforcement avec des récompenses vérifiables pour la formation des modèles, une méthodologie utilisant des commentaires binaires où les sorties reçoivent des scores de 1 pour les réponses correctes et 0 pour les réponses incorrectes. Cette approche s’avère particulièrement efficace pour les applications de programmation où la fonctionnalité du code fournit des mesures de réussite / échec claires. La société a lancé des architectures de résolution de problèmes étape par étape où les modèles de langue utilisent des outils externes pour récupérer les données et améliorer la précision de la sortie. Cela positionne anthropique à l’avant-garde du développement des agents d’IA, permettant un raffinement de réponse itératif grâce à l’intégration des moteurs de recherche, des calculatrices, des environnements de codage et d’autres ressources via le protocole de contexte du modèle, un cadre open source permettant des connexions transparentes entre LLMS et les services de données du monde réel.
Anthropic ajoute de nouvelles limites hebdomadaires à son Claude Ai
L’analyse du marché révèle des capacités de performance plutôt que des prix des décisions d’entreprise lors de la commutation des fournisseurs de modèles de langues importants. Une entreprise de Menlo trouve des notes: «Cela crée une dynamique de marché inattendue: même si les modèles individuels baissent 10 fois, les constructeurs ne capturent pas les économies en utilisant des modèles plus anciens; ils se déplacent simplement en masse vers le plus performant.» L’entreprise observe que ce modèle de comportement persiste car les générations de modèles plus récentes démontrent des capacités considérablement améliorées par rapport aux prédécesseurs. Les entreprises priorisent les avantages opérationnels malgré les réductions des coûts des systèmes hérités.
La mise en œuvre de l’IA de l’entreprise est considérablement passée du développement expérimental au déploiement de la production. Parmi les startups de création de demandes d’IA, 74% rapportent que la plupart des charges de travail fonctionnent désormais dans des environnements de production. Les grandes entreprises suivent de près 49% indiquant que la plupart ou presque toutes les ressources informatiques prennent en charge les systèmes de production d’IA. Cette transition signale la maturation au-delà des phases initiales de formation des modèles à l’application commerciale pratique.
L’adoption du modèle de grande langue open source a baissé à 13% des charges de travail de l’IA, contre 19% six mois auparavant. Bien qu’il reste l’option open source la plus utilisée, le lama de Meta fait face à la critique parce que ses termes de licence signifient qu’il « n’est pas vraiment open source » selon le rapport. Les versions open source récentes comprennent:
- Deepseek: Modèles V3 et R1
- Graine de byédance: Modèle Doubao
- Minimax: Texte 1 modèle
- Alibaba: Modèle Qwen 3
- Moonshot Ai: Modèle kimi k2
- Z AI: Modèle GLM 4.5
Malgré l’offre d’options de personnalisation, les réductions potentielles des coûts et la flexibilité de déploiement dans des environnements privés de cloud ou de site, les modèles open source démontrent collectivement des performances inférieures par rapport aux «modèles frontaliers» propriétaires. Des barrières d’adoption supplémentaires existent pour des modèles développés par des sociétés chinoises comme Deepseek, Bytedance, Minimax, Alibaba, Moonshot AI et Z AI, alors que Western Enterprises exprime la prudence concernant leur mise en œuvre. Ces facteurs contribuent à stagnation des trajectoires d’adoption de LLM open source.





