OpenAI a introduit son nouveau modèle de raisonnement o1 dans son API, le déployer aux développeurs sélectionnés à partir du 17 décembre 2024. Le lancement fait partie d’une mise à jour plus large qui inclut également de nouvelles fonctionnalités améliorant les fonctionnalités et la personnalisation pour les développeurs. Pour pouvoir utiliser le service, les développeurs doivent dépenser au moins 1 000 $ et conserver des comptes datant de plus de 30 jours.
« Aujourd’hui, nous introduisons des modèles plus performants, de nouveaux outils de personnalisation et des mises à niveau qui améliorent les performances, la flexibilité et la rentabilité pour les développeurs qui construisent avec l’IA. »
-OpenAI
OpenAI lance l’API o1 pour les développeurs sélectionnés
Le modèle o1 remplace le précédent o1-preview, doté de capacités qui lui permettent de vérifier les faits de ses propres réponses, un avantage que l’on ne trouve pas couramment dans les modèles d’IA. En contrepartie, le modèle de raisonnement a tendance à prendre plus de temps pour générer des réponses. Le coût du traitement avec o1 est important ; il facture aux développeurs 15 $ pour chaque 750 000 mots analysés et 60 $ pour le contenu généré, ce qui représente une multiplication par six par rapport au dernier modèle sans raisonnement, GPT-4o.
Le nouveau o1 est conçu pour améliorer les limitations antérieures, OpenAI affirmant qu’il offre « des réponses plus complètes et plus précises », en particulier pour les requêtes techniques liées à la programmation et aux affaires. Il inclut des améliorations telles qu’un paramètre d’effort de raisonnement qui permet aux développeurs de contrôler le temps de traitement des requêtes. De plus, le modèle est plus adaptable que son prédécesseur, prenant en charge des fonctions telles que les messages des développeurs pour personnaliser le comportement du chatbot et permettant des sorties structurées à l’aide d’un schéma JSON.
Pour faciliter des interactions plus dynamiques, OpenAI a amélioré ses capacités d’appel de fonctions, permettant au modèle d’utiliser des fonctions externes pré-écrites lors de la génération de réponses. Cette itération d’API nécessiterait 60 % de jetons en moins pour le traitement par rapport à o1-aperçutout en atteignant un taux de précision plus élevé, entre 25 et 35 points de pourcentage de plus sur des benchmarks tels que LiveBench et AIME.
OpenAI a également étendu ses capacités concernant les interactions en temps réel grâce à son API Realtime, prenant désormais en charge WebRTC pour une communication audio plus fluide. Cet ajout vise à simplifier l’intégration pour les développeurs, en réduisant considérablement la complexité du code d’environ 250 lignes à environ une douzaine. De plus, OpenAI a réduit le coût des jetons audio o1 de 60 % et des mini jetons de 90 % pour encourager leur utilisation par les développeurs.
« Notre intégration WebRTC est conçue pour permettre des interactions fluides et réactives dans des conditions réelles, même avec une qualité de réseau variable », a écrit OpenAI sur le blog. « Il gère l’encodage audio, le streaming, la suppression du bruit et le contrôle de la congestion. »
Une autre mise à jour importante inclut une nouvelle méthode permettant d’affiner les modèles d’IA appelée optimisation directe des préférences. Cela permet aux formateurs de modèles de fournir deux sorties et de spécifier une préférence sans avoir besoin de fournir des exemples exacts d’entrées/sorties pour chaque scénario. OpenAI affirme que cette méthode améliore la capacité du modèle à s’adapter à diverses bizarreries en termes de style de réponse, de formatage et d’utilité.
Les développeurs de langages de programmation comme Go et Java peuvent désormais accéder à de nouveaux kits de développement logiciel (SDK) conçus pour faciliter l’intégration des API. Au fur et à mesure que ces mises à jour progressent, OpenAI prévoit d’étendre l’accès et d’augmenter les limites de débit pour davantage de développeurs au-delà de la catégorie initiale de niveau 5.
Crédit image en vedette : OpenAI