Le lancement de l’API OpenAI Assistants au Jour du développement marque une avancée significative en permettant aux développeurs de créer des « expériences de type agent » au sein de leurs applications. Cette API Assistants innovante permet à la clientèle d’OpenAI de créer un « assistant » personnalisé avec des instructions distinctes, qui exploitent un spectre plus large de connaissances.
Il permet également à ces assistants d’utiliser la suite de modèles et d’outils d’IA générative d’OpenAI pour accomplir diverses tâches. Les applications potentielles de cette API sont diverses, notamment, mais sans s’y limiter, une interface en langage naturel pour l’analyse des données, une aide au codage ou un service de planification de vacances centré sur l’IA.
Comment fonctionne l’API OpenAI Assistants ?
Au cœur de la fonctionnalité de l’API OpenAI Assistants se trouve Code Interpreter, un utilitaire OpenAI robuste conçu pour créer et exécuter du code Python dans un environnement sécurisé et contrôlé. Lancée en mars pour ChatGPT, les capacités de Code Interpreter sont étendues : il peut non seulement créer des graphiques et des tableaux visuels, mais également gérer le traitement des fichiers. Cette amélioration permet aux assistants développés avec l’API Assistants d’exécuter du code de manière itérative, fournissant ainsi des solutions aux problèmes de codage et aux problèmes mathématiques.
GPT personnalisésGPT Builder, GPT Store… OpenAI a d’énormes mises à jour
L’API OpenAI Assistants est conçue pour être un outil polyvalent pour les développeurs, capable d’intégrer des sources de connaissances externes telles que des détails sur le produit ou des documents propriétaires dans les assistants conçus par les développeurs.

Ceci est rendu possible grâce à un composant de récupération qui enrichit les assistants avec des informations au-delà de celles disponibles dans les propres modèles d’OpenAI. De plus, l’API facilite l’appel de fonctions, permettant à ces assistants d’exécuter des fonctions de programmation prédéfinies et d’intégrer de manière transparente les résultats dans leurs interactions.
Actuellement en phase bêta, l’API Assistants est désormais accessible à tous les développeurs. L’utilisation est mesurée et facturée sur la base des tarifs par jeton du modèle choisi, où un « jeton » est défini comme un segment de texte, tel que le mot « fantastique » décomposé en « fan », « tas » et « tic. »
L’API Assistants d’OpenAI est devenue un outil de transformation pour les développeurs, simplifiant l’intégration de fonctionnalités de type GPT dans les applications et les services. Ce bond en avant est résumé dans l’introduction récente de l’API Code Interpreter. Conçue pour rationaliser le processus de développement, qui pouvait auparavant durer des mois et nécessiter des équipes nombreuses, l’API Assistants offre aux développeurs des fonctionnalités robustes telles que l’interprétation du code, la récupération de données et l’appel de fonctions.
GPT-4 Turbo dévoilé à l’OpenAI DevDay
Faire progresser le développement de l’IA avec des threads longs et la sécurité des données
L’API Assistants introduit également des threads persistants et infiniment longs, qui allègent le fardeau de la gestion des états des threads, permettant ainsi aux développeurs de se concentrer sur la création d’applications nuancées et sensibles au contexte. En mettant l’accent sur la sécurité des données, OpenAI garantit que les données traitées par l’API ne sont pas utilisées pour entraîner leurs modèles, offrant ainsi aux développeurs l’autonomie nécessaire pour gérer leurs données en toute confiance.
L’API reste en version bêta, accessible à tous les développeurs désireux d’explorer son potentiel. L’engagement d’OpenAI en faveur de la flexibilité et du contrôle des développeurs est évident lorsqu’on regarde vers l’avenir, avec des projets visant à permettre l’intégration d’outils de conduite d’assistant personnalisés pour fonctionner de concert avec ses fonctionnalités existantes.
Pour l’avenir, OpenAI prévoit d’étendre les capacités de personnalisation de sa plateforme. Cela permettrait aux clients d’intégrer leurs propres outils dans le cadre fourni par l’API Assistants, complétant les fonctionnalités existantes telles que l’interpréteur de code, le composant de récupération et les capacités d’appel de fonctions.
Crédit image en vedette : Andrew Neel/Unsplash