Le GPT-4 Turbo marque un mise à niveau significative du GPT-4 d’origine, offrant des capacités améliorées, une rentabilité et une fenêtre contextuelle étendue de 128 Ko. Avec cette version avancée, les utilisateurs peuvent s’attendre à des sorties de texte plus complètes et informatives, ainsi qu’à une cohérence et une cohérence améliorées du contenu généré grâce à sa capacité de mémoire accrue.
Notamment, GPT-4 Turbo offre ces fonctionnalités avancées à un coût réduit par rapport à son prédécesseur, GPT-4. Cette évolution stratégique des prix a le potentiel de démocratiser l’accès à la technologie d’IA de pointe, ouvrant la voie à un afflux d’applications et de solutions innovantes basées sur l’IA dans divers secteurs.
GPT personnalisésGPT Builder, GPT Store… OpenAI a d’énormes mises à jour
Qu’est-ce que GPT-4 Turbo a à offrir ?
Dévoilé à Journée de développement OpenAI, GPT-4 Turbo et l’API Assistants marquent un pas en avant significatif pour les développeurs désireux de créer des applications d’assistance à l’IA sur mesure. Grâce à une intégration rationalisée des objectifs et à la capacité d’utiliser divers modèles et outils, les développeurs sont désormais équipés pour créer des applications d’IA adaptées pour faciliter un éventail de tâches. Celles-ci vont des tâches banales comme la planification de réunions à des activités créatives plus complexes telles que la rédaction d’e-mails ou la génération de contenu original.
Actuellement à ses débuts, l’API Assistants est extrêmement prometteuse pour modifier notre interaction avec les outils numériques. Imaginez un avenir dans lequel les assistants IA seront étroitement intégrés au tissu de notre vie quotidienne, gérant habilement les tâches personnelles ou administrant de manière transparente les opérations commerciales.
Selon OpenAI, le modèle tarifaire de ce service innovant est extrêmement économique : 0,01 $ pour 1 000 jetons d’entrée (ce qui équivaut à environ 750 mots) et 0,03 $ pour 1 000 jetons de sortie. Ici, les « jetons » font référence à des extraits de texte. Par exemple, le mot « fantastique » est divisé en segments tels que « fan », « tas » et « tic ». Ce système basé sur des jetons s’applique à la fois aux données introduites dans le modèle et aux réponses générées par celui-ci. De plus, le coût du traitement d’image avec GPT-4 Turbo variera en fonction des dimensions de l’image, avec une image de 1 080 × 1 080 pixels coûtant 0,00765 $.
GPT-4 Turbo, tout comme ses prédécesseurs, fonctionne comme un instrument statistique sophistiqué conçu pour la prédiction de mots. En ingérant un vaste corpus de données, provenant principalement du Web, il a perfectionné ses capacités à déterminer la probabilité de séquences de mots, en tenant compte non seulement des modèles de langage mais également du contexte sémantique sous-jacent.
Alors que la formation de GPT-4 couvrait du contenu Web jusqu’en septembre 2021, GPT-4 Turbo étend son horizon de connaissances jusqu’en avril 2023. Cette extension de la connaissance temporelle garantit que les demandes concernant des événements plus récents, jusqu’à la date limite mise à jour, reçoivent une réponse améliorée. précision et pertinence.
À propos de GPT-4 Turbo avec Vision
GPT-4 Turbo avec Vision représente un saut évolutif dans la lignée GPT-4 Turbo, offrant la double capacité de générer du contenu textuel et visuel. Cette amélioration ouvre de nouveaux horizons aux développeurs, leur permettant de créer des applications d’IA qui relient de manière transparente les domaines du langage et de l’imagerie.
Dévoilé lors de l’OpenAI DevDay, GPT-4 Turbo with Vision est sur le point de catalyser la création d’une nouvelle classe d’instruments créatifs basés sur l’IA. Imaginez des suites de retouche d’images ou des plateformes de montage vidéo qui exploitent l’IA pour aider les utilisateurs à produire du contenu d’une qualité exceptionnelle avec une facilité et une rapidité sans précédent. Cette technologie témoigne de l’évolution rapide des capacités de l’IA à accroître la créativité et l’efficacité humaines.
Fenêtre contextuelle
GPT-4 Turbo marque une avancée significative dans les modèles d’IA conversationnelle avec sa fenêtre contextuelle élargie. La fenêtre contextuelle, quantifiée en jetons, est essentiellement l’étendue de texte qu’un modèle peut référencer lors de la génération de réponses. Les modèles équipés de fenêtres contextuelles plus petites souffrent souvent de pertes de mémoire à court terme, provoquant des dérives conversationnelles et parfois des discours problématiques.
Bénéficiant d’une fenêtre contextuelle de 128 000 jetons, GPT-4 Turbo établit une nouvelle norme industrielle – quadruplant celle de son prédécesseur, GPT-4, et dépassant Claude 2 d’Anthropic, qui peut accueillir jusqu’à 100 000 jetons. Pour contextualiser, 128 000 jetons équivalent à peu près à 100 000 mots ou environ 300 pages de texte, offrant un puits d’informations profond sur lequel le modèle peut s’appuyer pour une continuité de dialogue cohérente et pertinente.
De plus, GPT-4 Turbo introduit un « mode JSON » qui garantit des sorties au format JSON valide, ce qui profite grandement aux applications Web dans la transmission de données des serveurs aux clients pour l’affichage de pages Web, selon OpenAI. Des paramètres d’accompagnement sont également introduits, améliorant la capacité du modèle à fournir des complétions cohérentes et, pour des utilisations spécialisées, à enregistrer les probabilités des jetons de sortie les plus probables. Cette suite de fonctionnalités étend non seulement l’utilité de GPT-4 Turbo, mais améliore également la précision et l’applicabilité de ses sorties sur une multitude d’applications Web.
GPT-4 Turbo fonctionne mieux que nos modèles précédents sur les tâches qui nécessitent le suivi attentif des instructions, comme la génération de formats spécifiques (par exemple « toujours répondre en XML »). Et GPT-4 Turbo est plus susceptible de renvoyer les bons paramètres de fonction.
-OpenAI
Mises à jour GPT-4
OpenAI veille à ce que l’évolution de GPT-4 ne s’arrête pas avec l’avènement de GPT-4 Turbo. Dans le but de développer davantage les capacités de leur dernier modèle, ils lancent un programme expérimental pour permettre un réglage précis du GPT-4. Ce programme représente une mise à niveau du processus de réglage fin de GPT-3.5, intégrant une surveillance et un soutien améliorés de la part des équipes OpenAI pour relever les défis techniques complexes impliqués.
Les résultats préliminaires indiquent que le réglage fin de GPT-4 nécessite plus de travail pour obtenir des améliorations significatives par rapport au modèle de base par rapport aux gains substantiels réalisés avec le réglage fin de GPT-3.5.
-OpenAI.
En plus de ces améliorations de réglage, OpenAI augmente considérablement la proposition de valeur pour sa clientèle actuelle GPT-4. Ils ont annoncé un doublement de la limite tarifaire des jetons par minute pour tous les abonnés GPT-4 sans modifier la structure tarifaire existante. Les coûts continueront d’être de 0,03 $ par jeton d’entrée et de 0,06 $ par jeton de sortie pour le modèle GPT-4 standard, qui offre une fenêtre contextuelle de 8 000 jetons. Pendant ce temps, pour ceux qui utilisent la variante de fenêtre contextuelle plus étendue de 32 000 jetons de GPT-4, le taux reste à 0,06 USD par jeton d’entrée et à 0,012 USD par jeton de sortie.
Détails des tarifs GPT-4 Turbo
OpenAI DevDay a annoncé de nombreux nouveaux outils pour les utilisateurs, ainsi que de nouveaux défis liés à l’utilisation des modèles de la société d’IA.
- GPT-4 Turbo 8K :
- Prix d’entrée : 0,03 $
- Prix de sortie : 0,06 $
- GPT-4 Turbo 128K :
- Prix d’entrée : 0,01 $
- Prix de sortie : 0,03 $
- GPT-3.5 Turbo 4K :
- Prix d’entrée : 0,0015 $
- Prix de sortie : 0,002 $
- GPT-3.5 Turbo 16K :
- Prix d’entrée : 0,003 $
- Prix de sortie : 0,004 $
- GPT-3.5 Turbo réglage fin 4K et 16K :
- Entraînement: 0,008 $
- Prix d’entrée pour 4K : 0,012 $
- Prix d’entrée pour 16K : 0,003 $
Crédit image en vedette : Zac Wolff/Unsplash