Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Une étude montre que les résumés de l’IA tuent la motivation de vérifier les sources

byAytun Çelebi
décembre 2, 2025
in Research
Home Research
Share on FacebookShare on Twitter

S’appuyer sur de grands modèles linguistiques (LLM) pour résumer les informations peut diminuer l’acquisition de connaissances, selon une étude récente impliquant plus de 10 000 participants. Les professeurs de marketing Jin Ho Yun et Shiri Melumad ont co-écrit un article détaillant ces résultats à travers sept études. Les participants ont été chargés d’apprendre un sujet, tel que le potager, via un LLM comme ChatGPT ou une recherche Google standard. Les chercheurs n’ont imposé aucune restriction sur la durée d’utilisation des outils ou sur l’interaction des participants. Les participants ont ensuite rédigé des conseils pour un ami sur la base des informations qu’ils avaient apprises. Les données ont systématiquement montré que ceux qui utilisaient les LLM pour apprendre avaient l’impression qu’ils apprenaient moins et investissaient moins d’efforts dans la création de conseils. Leurs conseils étaient plus courts, moins factuels et plus génériques. Un échantillon indépendant de lecteurs ont trouvé les conseils dérivés du LLM moins informatifs, moins utiles et étaient moins susceptibles de les adopter. Ces différences ont persisté dans divers contextes. Une expérience a contrôlé les variations potentielles de l’éclectisme de l’information en exposant les participants à des faits identiques issus des recherches Google et ChatGPT. Une autre expérience a maintenu la plate-forme de recherche constante – Google – tout en variant selon que les participants ont appris à partir des résultats Google standard ou de la fonctionnalité AI Overview de Google. Même avec des faits et une plate-forme standardisés, l’apprentissage à partir des réponses LLM synthétisées a abouti à des connaissances moins profondes que la collecte, l’interprétation et la synthèse d’informations via des liens Web standard. L’étude attribue cette diminution de l’apprentissage à un engagement actif réduit. Les recherches Google impliquent davantage de « frictions », nécessitant une navigation, une lecture, une interprétation et une synthèse de divers liens Web, ce qui favorise une représentation mentale plus profonde. Les LLM effectuent ce processus pour l’utilisateur, faisant passer l’apprentissage d’actif à passif. Les chercheurs ne préconisent pas d’éviter les LLM étant donné leurs avantages dans d’autres contextes. Au lieu de cela, ils suggèrent aux utilisateurs de devenir plus stratégiques en comprenant où les LLM sont bénéfiques ou nuisibles à leurs objectifs. Pour des réponses rapides et factuelles, les LLM conviennent. Cependant, pour développer des connaissances approfondies et généralisables, s’appuyer uniquement sur les synthèses LLM est moins efficace. D’autres expérimentations impliquaient un modèle GPT spécialisé fournissant des liens Web en temps réel ainsi que des réponses synthétisées. Les participants recevant un résumé LLM n’étaient pas motivés à explorer les sources originales, ce qui conduisait à des connaissances moins approfondies que celles utilisant Google standard. Les recherches futures exploreront les outils d’IA générative qui introduisent des « frictions saines » pour encourager l’apprentissage actif au-delà des réponses facilement synthétisées, en particulier dans l’enseignement secondaire. Cet article est republié à partir de La conversation.


Crédit image en vedette

Tags: IARecherche

Related Posts

OpenAI veut que son IA avoue avoir piraté et enfreint les règles

OpenAI veut que son IA avoue avoir piraté et enfreint les règles

décembre 4, 2025
MIT : les capacités de l’IA dépassent de cinq fois l’adoption actuelle

MIT : les capacités de l’IA dépassent de cinq fois l’adoption actuelle

décembre 2, 2025
Evo AI de Stanford conçoit de nouvelles protéines à l’aide de modèles de langage génomique

Evo AI de Stanford conçoit de nouvelles protéines à l’aide de modèles de langage génomique

décembre 1, 2025
Une étude révèle que la poésie contourne les filtres de sécurité de l’IA 62 % du temps

Une étude révèle que la poésie contourne les filtres de sécurité de l’IA 62 % du temps

décembre 1, 2025
Après tout, votre futur ordinateur quantique pourrait être construit sur du silicium standard

Après tout, votre futur ordinateur quantique pourrait être construit sur du silicium standard

novembre 25, 2025
Fara-7B de Microsoft : nouveau LLM agent à partir de captures d’écran

Fara-7B de Microsoft : nouveau LLM agent à partir de captures d’écran

novembre 25, 2025

Recent Posts

  • Anthropic lance le bot Interviewer pour interroger les utilisateurs sur l’utilisation de l’IA
  • Huawei signale une reprise avec le retour des puces 5G après 5 ans de lutte
  • Les nouveaux Kindle Scribe et Colorsoft seront lancés le 10 décembre à partir de 499 $
  • Amazon envisage de créer un réseau rival alors que les négociations sur le contrat USPS sont au point mort
  • Google fait appel à Replit pour rivaliser avec Anthropic et Cursor dans la guerre du codage d’ambiance

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.