Anthropic a terminé L’accès d’Openai à sa famille Claude de modèles d’IA, citant des violations de ses conditions de service. OpenAI aurait intégré Claude aux outils internes pour évaluer ses performances par rapport aux propres modèles d’Openai dans des catégories telles que le codage, l’écriture et la sécurité.
Un porte-parole anthropique a informé TechCrunch Ce «personnel technique d’Openai utilisait également nos outils de codage avant le lancement de GPT-5», qui constitue «une violation directe de nos conditions de service». Les termes commerciaux d’Anthropic interdisent spécifiquement aux entreprises d’utiliser Claude pour développer des services concurrents. Malgré la fin de l’accès général, Anthropic a déclaré qu’il maintiendrait l’accès d’Openai aux «buts de la comparaison et des évaluations de la sécurité».
Openai a répondu à la décision, un porte-parole caractérisant son utilisation comme «norme de l’industrie». Le porte-parole a ajouté: «Bien que nous respectons la décision d’Anthropic de couper notre accès à l’API, il est décevant étant donné que notre API reste à leur disposition.» Cette action s’aligne sur la position établie d’Anthropic sur l’accès des concurrents; Le directeur des sciences, Jared Kaplan, justifiait auparavant la coupe de Windsurf, déclarant: «Je pense qu’il serait étrange pour nous de vendre Claude à Openai.» Windsurf a ensuite été acquise par Cognition et avait été soumis à un objectif d’acquisition d’Openai.





