S’appuyer sur de grands modèles linguistiques (LLM) pour résumer les informations peut diminuer l’acquisition de connaissances, selon une étude récente impliquant plus de 10 000 participants. Les professeurs de marketing Jin Ho Yun et Shiri Melumad ont co-écrit un article détaillant ces résultats à travers sept études. Les participants ont été chargés d’apprendre un sujet, tel que le potager, via un LLM comme ChatGPT ou une recherche Google standard. Les chercheurs n’ont imposé aucune restriction sur la durée d’utilisation des outils ou sur l’interaction des participants. Les participants ont ensuite rédigé des conseils pour un ami sur la base des informations qu’ils avaient apprises. Les données ont systématiquement montré que ceux qui utilisaient les LLM pour apprendre avaient l’impression qu’ils apprenaient moins et investissaient moins d’efforts dans la création de conseils. Leurs conseils étaient plus courts, moins factuels et plus génériques. Un échantillon indépendant de lecteurs ont trouvé les conseils dérivés du LLM moins informatifs, moins utiles et étaient moins susceptibles de les adopter. Ces différences ont persisté dans divers contextes. Une expérience a contrôlé les variations potentielles de l’éclectisme de l’information en exposant les participants à des faits identiques issus des recherches Google et ChatGPT. Une autre expérience a maintenu la plate-forme de recherche constante – Google – tout en variant selon que les participants ont appris à partir des résultats Google standard ou de la fonctionnalité AI Overview de Google. Même avec des faits et une plate-forme standardisés, l’apprentissage à partir des réponses LLM synthétisées a abouti à des connaissances moins profondes que la collecte, l’interprétation et la synthèse d’informations via des liens Web standard. L’étude attribue cette diminution de l’apprentissage à un engagement actif réduit. Les recherches Google impliquent davantage de « frictions », nécessitant une navigation, une lecture, une interprétation et une synthèse de divers liens Web, ce qui favorise une représentation mentale plus profonde. Les LLM effectuent ce processus pour l’utilisateur, faisant passer l’apprentissage d’actif à passif. Les chercheurs ne préconisent pas d’éviter les LLM étant donné leurs avantages dans d’autres contextes. Au lieu de cela, ils suggèrent aux utilisateurs de devenir plus stratégiques en comprenant où les LLM sont bénéfiques ou nuisibles à leurs objectifs. Pour des réponses rapides et factuelles, les LLM conviennent. Cependant, pour développer des connaissances approfondies et généralisables, s’appuyer uniquement sur les synthèses LLM est moins efficace. D’autres expérimentations impliquaient un modèle GPT spécialisé fournissant des liens Web en temps réel ainsi que des réponses synthétisées. Les participants recevant un résumé LLM n’étaient pas motivés à explorer les sources originales, ce qui conduisait à des connaissances moins approfondies que celles utilisant Google standard. Les recherches futures exploreront les outils d’IA générative qui introduisent des « frictions saines » pour encourager l’apprentissage actif au-delà des réponses facilement synthétisées, en particulier dans l’enseignement secondaire. Cet article est republié à partir de La conversation.




