Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

GPT-5.2 compte toujours deux r dans la fraise

byKerem Gülen
décembre 15, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

ChatGPT, optimisé par le modèle GPT-5.2 d’OpenAI publié en décembre 2025, identifie de manière incorrecte deux r dans le mot fraise, qui en contient trois, car son processus de tokenisation divise le mot en st-raw-berry, avec seulement deux jetons contenant des r. Les systèmes d’IA modernes démontrent leur capacité à générer des images marketing uniques, à compiler des rapports via des navigateurs agents et à produire des chansons en tête des charts. Ces capacités mettent en évidence une formation approfondie sur de vastes ensembles de données, permettant la reconnaissance de formes pour des sorties complexes. En revanche, certaines tâches fondamentales remettent en cause ces modèles. Compter les lettres d’un seul mot constitue l’une de ces tâches, accessible sans difficulté à un enfant de sept ans. La question spécifique à l’examen demande combien de r apparaissent dans la fraise. Le mot fraise est composé des lettres fraise. L’inspection visuelle confirme trois r : un après t et deux consécutifs dans la portion de baie. Cette requête a persisté en tant que test des performances de l’IA sur plusieurs itérations du modèle. Suite à la sortie en décembre 2025 de GPT-5.2les tests ont confirmé que la réponse de ChatGPT restait à deux r. Les versions précédentes présentaient une incertitude ou un comportement erratique sur cette question. Le dernier modèle a fourni une réponse directe de deux, sans déviation. Ce résultat persiste malgré des investissements dépassant les milliards de dollars, une demande élevée en matériel, notamment l’augmentation du prix de la RAM, et une consommation mondiale d’eau importante liée aux infrastructures de formation. Le problème provient de la conception entrée-sortie tokenisée de grands modèles de langage comme ChatGPT. Le texte saisi est divisé en jetons, qui sont des morceaux tels que des mots entiers, des syllabes ou des parties de mots. Le modèle traite ces jetons plutôt que des lettres individuelles. Par conséquent, le comptage des lettres repose sur le contenu des jetons plutôt que sur une énumération précise des lettres. L’outil OpenAI Tokenizer illustre ce processus. Entrer une fraise donne trois jetons : st, cru, baie. Le premier jeton st ne contient pas de r. Le deuxième jeton brut comprend un r. La troisième baie symbolique comprend deux r mais fonctionne comme un seul jeton. Le modèle associe les r à deux jetons, ce qui conduit au décompte de deux. Ce modèle de tokenisation affecte les mots similaires. Raspberry se divise en jetons comparables, ce qui fait que ChatGPT rapporte également deux r pour ce mot. Le jeton de baie compresse plusieurs lettres en une seule unité, sous-évaluant les instances de lettres individuelles qu’il contient. ChatGPT fonctionne comme un moteur de prédiction, exploitant les modèles des données de formation pour anticiper les éléments ultérieurs. GPT-5.x intègre la méthode de tokenisation o200k_harmony, introduite avec les modèles OpenAI o4-mini et GPT-4o. Ce système mis à jour vise l’efficacité mais conserve l’écart de comptage des fraises. ChatGPT a été lancé fin 2022 au milieu de nombreux défis basés sur les jetons. Des phrases spécifiques ont déclenché des réponses excessives ou des échecs de traitement. OpenAI en a répondu à de nombreuses personnes grâce à des ajustements de formation et à des améliorations du système au cours des années suivantes. Les tests de vérification sur des problèmes classiques ont montré des améliorations. ChatGPT épelle avec précision le Mississippi, identifiant les lettres du Mississippi avec des fréquences correctes : un m, quatre i, quatre s, deux p. Il inverse également la sucette en popillol, préservant toutes les lettres dans le bon ordre. Les grands modèles de langage présentent des limites persistantes dans le comptage exact de petites quantités. Ils réussissent bien en mathématiques et en résolution de problèmes, mais échouent dans le décompte précis de lettres ou de mots dans de brèves chaînes. Un exemple historique notable concerne la chaîne solidgoldmagikarp. Dans GPT-3, cette phrase a perturbé la tokenisation, provoquant des sorties erratiques, notamment des insultes de l’utilisateur et du texte inintelligible. L’interrogation de GPT-5.2 sur solidgoldmagikarp a produit une hallucination. Le modèle l’a décrit comme une blague secrète sur Pokémon intégrée dans les référentiels GitHub par les développeurs. L’activation transformerait les avatars, les icônes du référentiel et d’autres fonctionnalités en éléments sur le thème Pokémon. Cette affirmation manque de fondement dans la réalité et reflète les effets résiduels des problèmes de tokenisation antérieurs. Des tests comparatifs sur d’autres modèles d’IA ont donné des résultats corrects pour la question de la fraise. La perplexité comptait trois r. Claude a fourni le décompte exact de trois. Grok a identifié trois R dans la fraise. Les Gémeaux ont répondu correctement avec trois. Qwen a confirmé trois r. Le copilote a également signalé trois r. Ces modèles utilisent des systèmes de tokenisation distincts, permettant une identification précise des lettres même lorsqu’ils sont alimentés par les architectures sous-jacentes d’OpenAI.


Crédit image en vedette

Tags: chatgptgpt-5.2IA ouverte

Related Posts

Le jeu en nuage Xbox arrive sur les modèles Amazon Fire TV

Le jeu en nuage Xbox arrive sur les modèles Amazon Fire TV

décembre 26, 2025
La violation de données Aflac a touché 22,65 millions de clients

La violation de données Aflac a touché 22,65 millions de clients

décembre 26, 2025
La panne d’AWS perturbe Fortnite et Steam

La panne d’AWS perturbe Fortnite et Steam

décembre 26, 2025
Xiaomi 17 Ultra Leica Edition fera ses débuts avec un cadran d’appareil photo mécanique

Xiaomi 17 Ultra Leica Edition fera ses débuts avec un cadran d’appareil photo mécanique

décembre 26, 2025
Le robotaxis Waymo pourrait bénéficier de l’assistant embarqué Gemini AI

Le robotaxis Waymo pourrait bénéficier de l’assistant embarqué Gemini AI

décembre 26, 2025
Pourquoi NVIDIA abandonne Intel 18A pour ses puces IA de nouvelle génération

Pourquoi NVIDIA abandonne Intel 18A pour ses puces IA de nouvelle génération

décembre 25, 2025

Recent Posts

  • La publicité de vacances Porsche 2025 devient virale car elle n’utilise absolument aucune IA
  • Le jeu en nuage Xbox arrive sur les modèles Amazon Fire TV
  • La violation de données Aflac a touché 22,65 millions de clients
  • La panne d’AWS perturbe Fortnite et Steam
  • Les scientifiques découvrent plus de 17 000 nouvelles espèces

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.