Le domaine de l’intelligence artificielle continue d’évoluer avec les nouveaux modèles d’intégration OpenAI. Ils devraient redéfinir la manière dont les développeurs abordent le traitement du langage naturel. Avant d’explorer les deux modèles révolutionnaires, chacun conçu pour élever les capacités des applications d’IA, voici ce que : intégrations signifier:
Les intégrations de texte d’OpenAI servent de métrique pour évaluer la corrélation entre les chaînes de texte, trouvant des applications dans divers domaines, notamment :
- Recherche: utilisé pour classer les résultats en fonction de leur pertinence par rapport à une chaîne de requête donnée, améliorant ainsi la précision des résultats de recherche.
- Regroupement: Utilisé pour regrouper des chaînes de texte en fonction de leurs similitudes, facilitant ainsi l’organisation des informations associées.
- Recommandations: appliqué dans les systèmes de recommandation pour suggérer des éléments partageant des points communs dans leurs chaînes de texte, améliorant ainsi la personnalisation des suggestions.
- Détection d’une anomalie: Utilisé pour identifier les valeurs aberrantes avec une relation minimale, aidant à la détection de modèles irréguliers ou de points de données.
- Mesure de la diversité: Utilisé pour analyser les distributions de similarité, permettant l’évaluation de la diversité au sein d’ensembles de données ou de corpus de textes.
- Classification: Déployé dans les tâches de classification où les chaînes de texte sont classées en fonction de leur étiquette la plus similaire, rationalisant ainsi le processus d’étiquetage dans les applications d’apprentissage automatique.
Vous êtes maintenant prêt à explorer les nouveaux modèles d’intégration OpenAI !
De nouveaux modèles d’intégration OpenAI sont arrivés
L’introduction des nouveaux modèles d’intégration OpenAI marque une avancée significative dans le traitement du langage naturel, permettant aux développeurs de mieux représenter et comprendre le contenu textuel. Entrons dans les détails de ces modèles innovants : intégration de texte-3-small et intégration de texte-3-large.
intégration de texte-3-small
Ce modèle compact mais puissant présente une amélioration notable des performances par rapport à son prédécesseur, text-embedding-ada-002. Sur le benchmark de récupération multilingue (MIRACL), le score moyen est passé de 31,4 % à un impressionnant 44,0 %. De même, sur le benchmark des tâches d’anglais (MTEB), le score moyen a connu une augmentation louable, passant de 61,0 % à 62,3 %. Cependant, ce qui distingue text-embedding-3-small, ce ne sont pas seulement ses performances améliorées, mais également son prix abordable.
Référence d’évaluation | ada v2 | intégration de texte-3-small | intégration de texte-3-large |
Moyenne MIRACL | 31.4 | 44,0 | 54,9 |
Moyenne du MTEB | 61,0 | 62,3 | 64,6 |
OpenAI a considérablement réduit le prix, le rendant 5 fois plus rentable par rapport à text-embedding-ada-002, le prix pour 1 000 jetons étant passé de 0,0001 $ à 0,00002 $. Cela fait de text-embedding-3-small non seulement un choix plus efficace, mais également plus accessible pour les développeurs.
intégration de texte-3-large
Représentant la prochaine génération de modèles d’intégration, text-embedding-3-large introduit une augmentation substantielle des dimensions, prenant en charge des intégrations allant jusqu’à 3 072 dimensions. Ce modèle plus grand fournit une représentation plus détaillée et nuancée du contenu textuel. En termes de performances, text-embedding-3-large surpasse son prédécesseur dans tous les benchmarks. Sur MIRACL, le score moyen est passé de 31,4 % à un impressionnant 54,9 %, soulignant ses prouesses en matière de récupération multilingue.
ada v2 | intégration de texte-3-small | intégration de texte-3-large | ||||
Taille d’intégration | 1536 | 512 | 1536 | 256 | 1024 | 3072 |
Score MTEB moyen | 61,0 | 61,6 | 62,3 | 62,0 | 64.1 | 64,6 |
De même, sur MTEB, le score moyen est passé de 61,0 % à 64,6 %, démontrant sa supériorité dans les tâches d’anglais. Au prix de 0,00013 $ pour 1 000 jetons, text-embedding-3-large établit un équilibre entre excellence des performances et rentabilité, offrant aux développeurs une solution robuste pour les applications exigeant des intégrations de grande dimension.
Rencontrer Google Lumière IAle cousin vidéaste de Bard
Prise en charge native du raccourcissement des intégrations
Reconnaissant les divers besoins des développeurs, OpenAI introduit une prise en charge native du raccourcissement des intégrations. Cette technique innovante permet aux développeurs de personnaliser la taille d’intégration en ajustant le paramètre API de dimensions. Ce faisant, les développeurs peuvent sacrifier certaines performances pour une taille de vecteur plus petite sans compromettre les propriétés fondamentales de l’intégration. Cette flexibilité est particulièrement précieuse dans les scénarios où les systèmes ne prennent en charge que les intégrations jusqu’à une certaine taille, offrant ainsi aux développeurs un outil polyvalent pour divers scénarios d’utilisation.
En résumé, les nouveaux modèles d’intégration d’OpenAI représentent une avancée significative en termes d’efficacité, d’abordabilité et de performances. Que les développeurs optent pour la représentation compacte mais efficace de text-embedding-3-small ou pour les intégrations plus étendues et détaillées de text-embedding-3-large, ces modèles offrent aux développeurs des outils polyvalents pour extraire des informations plus approfondies à partir de données textuelles dans leur IA. applications.
Pour des informations plus détaillées sur les nouveaux modèles d’intégration OpenAI, cliquez sur ici et recevez l’annonce officielle.
Crédit image en vedette : Levart_Photographe/Unsplash