Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Le chatppt-5 d’Openai a finalement obtenu le "la moitié des connaissances"

byEmre Çıtak
septembre 17, 2025
in Artificial Intelligence
Home Artificial Intelligence

Le ChatGPT-5 d’OpenAI a commencé à répondre avec « Je ne sais pas » quand il ne peut pas répondre en toute confiance à une requête, un changement significatif par rapport au comportement typique du chatbot de fournir une réponse quelle que soit sa fiabilité. La nouvelle fonctionnalité, qui a attiré l’attention après que les utilisateurs aient partagé les interactions sur les réseaux sociaux, fait partie d’un effort pour résoudre le problème de longue date de la désinformation générée par l’IA.

Aborder le problème des hallucinations de l’IA

Un défi persistant pour les modèles de grandes langues est la question des «hallucinations», où l’IA génère des informations fabriquées, telles que de fausses citations ou des études inexistantes, d’un ton confiant. Ceci est particulièrement dangereux dans des domaines comme la médecine ou le droit, où les utilisateurs peuvent agir sur des informations incorrectes sans se rendre compte qu’elle n’est pas fiable. Les utilisateurs acceptent souvent ces sorties à valeur nominale car la livraison faisant autorité de l’IA masque les détails fabriqués. La nouvelle approche de ChatGPT-5 contrecarre directement cela en optant pour l’honnêteté sur l’invention. Lorsque le modèle rencontre une requête qui ne relève pas de ses données de formation ou implique des affirmations invérifiables, elle indiquera désormais son incertitude plutôt que de générer une réponse spéculative ou incorrecte.

Comment fonctionne la fonctionnalité « Je ne sais pas »

Les modèles de grands langues comme Chatgpt ne récupèrent pas les faits d’une base de données. Au lieu de cela, ils fonctionnent en prédisant le mot suivant dans une séquence basée sur des modèles statistiques appris à partir de grandes quantités de texte. Cette méthode permet une conversation fluide et humaine mais peut également conduire à des inexactitudes à consonance plausible lorsque les données de formation sont limitées sur un sujet spécifique. OpenAI a mis en œuvre un seuil de confiance dans ChatGPT-5. Lorsque la prédiction du modèle pour une réponse tombe en dessous d’un certain score de fiabilité, cela déclenche la réponse « Je ne sais pas ». Ce mécanisme empêche le modèle de fournir une réponse grammaticalement correcte mais sans fondement. Les développeurs ont calibré ces seuils grâce à des tests approfondis pour équilibrer l’équilibre fournissant des informations utiles pour le maintien de la précision.

Construire la confiance des utilisateurs en communiquant des limitations

La nouvelle fonctionnalité est conçue pour établir la confiance des utilisateurs en rendant les limites de l’IA clairement. En signalant explicitement lorsqu’il est incertain, ChatGPT-5 encourage les utilisateurs à rechercher une vérification externe et à utiliser l’outil de manière plus critique. Cela favorise une interaction plus responsable, positionnant l’IA comme un assistant utile plutôt que comme une source d’information infaillible. Cette évolution vers une plus grande transparence s’aligne sur une tendance plus large de l’industrie, comme d’autres sociétés comme Gémeaux de Google et Claude d’Anthropic Explorent également des moyens de construire des garanties similaires dans leurs modèles d’IA. L’admission de l’incertitude reflète le fonctionnement des experts humains, qui reconnaissent souvent les limites de leurs connaissances et consultent d’autres sources. La fonctionnalité représente une étape vers des systèmes d’IA plus nuancés et responsables qui peuvent communiquer efficacement leurs limites.


Crédit d’image en vedette

Tags: chatteEn vedettegpt-5OpenAI

Related Posts

Les laboratoires AI investissent dans des environnements RL pour les agents autonomes

Les laboratoires AI investissent dans des environnements RL pour les agents autonomes

septembre 17, 2025
L’échelle AI sécurise 100 millions de dollars de contrat du pentagone pour le déploiement de la plate-forme d’IA

L’échelle AI sécurise 100 millions de dollars de contrat du pentagone pour le déploiement de la plate-forme d’IA

septembre 17, 2025
L’outil d’IA utilise des mammographies pour prédire la santé cardiaque et le risque de cancer des femmes

L’outil d’IA utilise des mammographies pour prédire la santé cardiaque et le risque de cancer des femmes

septembre 17, 2025
Google lance la plate-forme sans code Gemini Canvas AI

Google lance la plate-forme sans code Gemini Canvas AI

septembre 17, 2025
Microsoft installera Copilot sur les PC de tous depuis l’automne 2025

Microsoft installera Copilot sur les PC de tous depuis l’automne 2025

septembre 17, 2025
Les chercheurs OpenAI identifient les causes mathématiques des hallucinations de l’IA

Les chercheurs OpenAI identifient les causes mathématiques des hallucinations de l’IA

septembre 17, 2025

Recent Posts

  • Google publie VaultGemma 1B avec une confidentialité différentielle
  • Les laboratoires AI investissent dans des environnements RL pour les agents autonomes
  • L’échelle AI sécurise 100 millions de dollars de contrat du pentagone pour le déploiement de la plate-forme d’IA
  • DJI Mini 5 Pro lance avec un capteur de 1 pouce mais saute la libération officielle des États-Unis
  • L’outil d’IA utilise des mammographies pour prédire la santé cardiaque et le risque de cancer des femmes

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.