Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

GPT-5.2 compte toujours deux r dans la fraise

byKerem Gülen
décembre 15, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

ChatGPT, optimisé par le modèle GPT-5.2 d’OpenAI publié en décembre 2025, identifie de manière incorrecte deux r dans le mot fraise, qui en contient trois, car son processus de tokenisation divise le mot en st-raw-berry, avec seulement deux jetons contenant des r. Les systèmes d’IA modernes démontrent leur capacité à générer des images marketing uniques, à compiler des rapports via des navigateurs agents et à produire des chansons en tête des charts. Ces capacités mettent en évidence une formation approfondie sur de vastes ensembles de données, permettant la reconnaissance de formes pour des sorties complexes. En revanche, certaines tâches fondamentales remettent en cause ces modèles. Compter les lettres d’un seul mot constitue l’une de ces tâches, accessible sans difficulté à un enfant de sept ans. La question spécifique à l’examen demande combien de r apparaissent dans la fraise. Le mot fraise est composé des lettres fraise. L’inspection visuelle confirme trois r : un après t et deux consécutifs dans la portion de baie. Cette requête a persisté en tant que test des performances de l’IA sur plusieurs itérations du modèle. Suite à la sortie en décembre 2025 de GPT-5.2les tests ont confirmé que la réponse de ChatGPT restait à deux r. Les versions précédentes présentaient une incertitude ou un comportement erratique sur cette question. Le dernier modèle a fourni une réponse directe de deux, sans déviation. Ce résultat persiste malgré des investissements dépassant les milliards de dollars, une demande élevée en matériel, notamment l’augmentation du prix de la RAM, et une consommation mondiale d’eau importante liée aux infrastructures de formation. Le problème provient de la conception entrée-sortie tokenisée de grands modèles de langage comme ChatGPT. Le texte saisi est divisé en jetons, qui sont des morceaux tels que des mots entiers, des syllabes ou des parties de mots. Le modèle traite ces jetons plutôt que des lettres individuelles. Par conséquent, le comptage des lettres repose sur le contenu des jetons plutôt que sur une énumération précise des lettres. L’outil OpenAI Tokenizer illustre ce processus. Entrer une fraise donne trois jetons : st, cru, baie. Le premier jeton st ne contient pas de r. Le deuxième jeton brut comprend un r. La troisième baie symbolique comprend deux r mais fonctionne comme un seul jeton. Le modèle associe les r à deux jetons, ce qui conduit au décompte de deux. Ce modèle de tokenisation affecte les mots similaires. Raspberry se divise en jetons comparables, ce qui fait que ChatGPT rapporte également deux r pour ce mot. Le jeton de baie compresse plusieurs lettres en une seule unité, sous-évaluant les instances de lettres individuelles qu’il contient. ChatGPT fonctionne comme un moteur de prédiction, exploitant les modèles des données de formation pour anticiper les éléments ultérieurs. GPT-5.x intègre la méthode de tokenisation o200k_harmony, introduite avec les modèles OpenAI o4-mini et GPT-4o. Ce système mis à jour vise l’efficacité mais conserve l’écart de comptage des fraises. ChatGPT a été lancé fin 2022 au milieu de nombreux défis basés sur les jetons. Des phrases spécifiques ont déclenché des réponses excessives ou des échecs de traitement. OpenAI en a répondu à de nombreuses personnes grâce à des ajustements de formation et à des améliorations du système au cours des années suivantes. Les tests de vérification sur des problèmes classiques ont montré des améliorations. ChatGPT épelle avec précision le Mississippi, identifiant les lettres du Mississippi avec des fréquences correctes : un m, quatre i, quatre s, deux p. Il inverse également la sucette en popillol, préservant toutes les lettres dans le bon ordre. Les grands modèles de langage présentent des limites persistantes dans le comptage exact de petites quantités. Ils réussissent bien en mathématiques et en résolution de problèmes, mais échouent dans le décompte précis de lettres ou de mots dans de brèves chaînes. Un exemple historique notable concerne la chaîne solidgoldmagikarp. Dans GPT-3, cette phrase a perturbé la tokenisation, provoquant des sorties erratiques, notamment des insultes de l’utilisateur et du texte inintelligible. L’interrogation de GPT-5.2 sur solidgoldmagikarp a produit une hallucination. Le modèle l’a décrit comme une blague secrète sur Pokémon intégrée dans les référentiels GitHub par les développeurs. L’activation transformerait les avatars, les icônes du référentiel et d’autres fonctionnalités en éléments sur le thème Pokémon. Cette affirmation manque de fondement dans la réalité et reflète les effets résiduels des problèmes de tokenisation antérieurs. Des tests comparatifs sur d’autres modèles d’IA ont donné des résultats corrects pour la question de la fraise. La perplexité comptait trois r. Claude a fourni le décompte exact de trois. Grok a identifié trois R dans la fraise. Les Gémeaux ont répondu correctement avec trois. Qwen a confirmé trois r. Le copilote a également signalé trois r. Ces modèles utilisent des systèmes de tokenisation distincts, permettant une identification précise des lettres même lorsqu’ils sont alimentés par les architectures sous-jacentes d’OpenAI.


Crédit image en vedette

Tags: chatgptgpt-5.2IA ouverte

Related Posts

Le PDG de MicroStrategy explique les fondamentaux du Bitcoin "ça ne pourrait pas être mieux"

Le PDG de MicroStrategy explique les fondamentaux du Bitcoin "ça ne pourrait pas être mieux"

décembre 26, 2025
ChatGPT évolue vers une suite bureautique avec de nouveaux blocs de formatage

ChatGPT évolue vers une suite bureautique avec de nouveaux blocs de formatage

décembre 26, 2025
Google NotebookLM présente "Mode conférence" pour un apprentissage de l’IA de 30 minutes

Google NotebookLM présente "Mode conférence" pour un apprentissage de l’IA de 30 minutes

décembre 26, 2025
Surveillance des stocks : mises à jour Nvidia, Samsung, AMD et Intel (26 décembre)

Surveillance des stocks : mises à jour Nvidia, Samsung, AMD et Intel (26 décembre)

décembre 26, 2025
Un an à Tiangong : la Chine testera un séjour spatial de longue durée en 2026

Un an à Tiangong : la Chine testera un séjour spatial de longue durée en 2026

décembre 26, 2025
5 applications Mac essentielles pour transformer votre productivité en 2026

5 applications Mac essentielles pour transformer votre productivité en 2026

décembre 26, 2025

Recent Posts

  • Le PDG de MicroStrategy explique les fondamentaux du Bitcoin "ça ne pourrait pas être mieux"
  • ChatGPT évolue vers une suite bureautique avec de nouveaux blocs de formatage
  • Google NotebookLM présente "Mode conférence" pour un apprentissage de l’IA de 30 minutes
  • Surveillance des stocks : mises à jour Nvidia, Samsung, AMD et Intel (26 décembre)
  • Un an à Tiangong : la Chine testera un séjour spatial de longue durée en 2026

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.