Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

GPT-5.2 compte toujours deux r dans la fraise

byKerem Gülen
décembre 15, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

ChatGPT, optimisé par le modèle GPT-5.2 d’OpenAI publié en décembre 2025, identifie de manière incorrecte deux r dans le mot fraise, qui en contient trois, car son processus de tokenisation divise le mot en st-raw-berry, avec seulement deux jetons contenant des r. Les systèmes d’IA modernes démontrent leur capacité à générer des images marketing uniques, à compiler des rapports via des navigateurs agents et à produire des chansons en tête des charts. Ces capacités mettent en évidence une formation approfondie sur de vastes ensembles de données, permettant la reconnaissance de formes pour des sorties complexes. En revanche, certaines tâches fondamentales remettent en cause ces modèles. Compter les lettres d’un seul mot constitue l’une de ces tâches, accessible sans difficulté à un enfant de sept ans. La question spécifique à l’examen demande combien de r apparaissent dans la fraise. Le mot fraise est composé des lettres fraise. L’inspection visuelle confirme trois r : un après t et deux consécutifs dans la portion de baie. Cette requête a persisté en tant que test des performances de l’IA sur plusieurs itérations du modèle. Suite à la sortie en décembre 2025 de GPT-5.2les tests ont confirmé que la réponse de ChatGPT restait à deux r. Les versions précédentes présentaient une incertitude ou un comportement erratique sur cette question. Le dernier modèle a fourni une réponse directe de deux, sans déviation. Ce résultat persiste malgré des investissements dépassant les milliards de dollars, une demande élevée en matériel, notamment l’augmentation du prix de la RAM, et une consommation mondiale d’eau importante liée aux infrastructures de formation. Le problème provient de la conception entrée-sortie tokenisée de grands modèles de langage comme ChatGPT. Le texte saisi est divisé en jetons, qui sont des morceaux tels que des mots entiers, des syllabes ou des parties de mots. Le modèle traite ces jetons plutôt que des lettres individuelles. Par conséquent, le comptage des lettres repose sur le contenu des jetons plutôt que sur une énumération précise des lettres. L’outil OpenAI Tokenizer illustre ce processus. Entrer une fraise donne trois jetons : st, cru, baie. Le premier jeton st ne contient pas de r. Le deuxième jeton brut comprend un r. La troisième baie symbolique comprend deux r mais fonctionne comme un seul jeton. Le modèle associe les r à deux jetons, ce qui conduit au décompte de deux. Ce modèle de tokenisation affecte les mots similaires. Raspberry se divise en jetons comparables, ce qui fait que ChatGPT rapporte également deux r pour ce mot. Le jeton de baie compresse plusieurs lettres en une seule unité, sous-évaluant les instances de lettres individuelles qu’il contient. ChatGPT fonctionne comme un moteur de prédiction, exploitant les modèles des données de formation pour anticiper les éléments ultérieurs. GPT-5.x intègre la méthode de tokenisation o200k_harmony, introduite avec les modèles OpenAI o4-mini et GPT-4o. Ce système mis à jour vise l’efficacité mais conserve l’écart de comptage des fraises. ChatGPT a été lancé fin 2022 au milieu de nombreux défis basés sur les jetons. Des phrases spécifiques ont déclenché des réponses excessives ou des échecs de traitement. OpenAI en a répondu à de nombreuses personnes grâce à des ajustements de formation et à des améliorations du système au cours des années suivantes. Les tests de vérification sur des problèmes classiques ont montré des améliorations. ChatGPT épelle avec précision le Mississippi, identifiant les lettres du Mississippi avec des fréquences correctes : un m, quatre i, quatre s, deux p. Il inverse également la sucette en popillol, préservant toutes les lettres dans le bon ordre. Les grands modèles de langage présentent des limites persistantes dans le comptage exact de petites quantités. Ils réussissent bien en mathématiques et en résolution de problèmes, mais échouent dans le décompte précis de lettres ou de mots dans de brèves chaînes. Un exemple historique notable concerne la chaîne solidgoldmagikarp. Dans GPT-3, cette phrase a perturbé la tokenisation, provoquant des sorties erratiques, notamment des insultes de l’utilisateur et du texte inintelligible. L’interrogation de GPT-5.2 sur solidgoldmagikarp a produit une hallucination. Le modèle l’a décrit comme une blague secrète sur Pokémon intégrée dans les référentiels GitHub par les développeurs. L’activation transformerait les avatars, les icônes du référentiel et d’autres fonctionnalités en éléments sur le thème Pokémon. Cette affirmation manque de fondement dans la réalité et reflète les effets résiduels des problèmes de tokenisation antérieurs. Des tests comparatifs sur d’autres modèles d’IA ont donné des résultats corrects pour la question de la fraise. La perplexité comptait trois r. Claude a fourni le décompte exact de trois. Grok a identifié trois R dans la fraise. Les Gémeaux ont répondu correctement avec trois. Qwen a confirmé trois r. Le copilote a également signalé trois r. Ces modèles utilisent des systèmes de tokenisation distincts, permettant une identification précise des lettres même lorsqu’ils sont alimentés par les architectures sous-jacentes d’OpenAI.


Crédit image en vedette

Tags: chatgptgpt-5.2IA ouverte

Related Posts

Bluesky lance le badge Live Now et les cashtags dans une mise à jour majeure

Bluesky lance le badge Live Now et les cashtags dans une mise à jour majeure

janvier 16, 2026
Samsung réorganise Mobile Gaming Hub pour réparer la découverte de jeux cassés

Samsung réorganise Mobile Gaming Hub pour réparer la découverte de jeux cassés

janvier 16, 2026
La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

janvier 16, 2026
Capcom révèle le gameplay de Resident Evil Requiem et la date de sortie de février

Capcom révèle le gameplay de Resident Evil Requiem et la date de sortie de février

janvier 16, 2026
Paramount+ augmente les prix des abonnements et met fin aux essais gratuits pour 2026

Paramount+ augmente les prix des abonnements et met fin aux essais gratuits pour 2026

janvier 16, 2026
Le Sénat américain critique les géants de la technologie "défaut" garde-corps deepfake

Le Sénat américain critique les géants de la technologie "défaut" garde-corps deepfake

janvier 16, 2026

Recent Posts

  • Réparation de 20 $ de Verizon : comment réclamer votre crédit de panne aujourd'hui
  • Anthropic nomme Irina Ghose, vétéran de Microsoft, pour diriger l'expansion en Inde
  • Bluesky lance le badge Live Now et les cashtags dans une mise à jour majeure
  • Netflix conclut un accord mondial de 7 milliards de dollars pour une sélection de films de Sony Pictures
  • Samsung réorganise Mobile Gaming Hub pour réparer la découverte de jeux cassés

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.