Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Des chercheurs du MIT ont construit une IA qui apprend toute seule à apprendre

byKerem Gülen
octobre 20, 2025
in Research
Home Research
Share on FacebookShare on Twitter

Les grands modèles de langage comme ChatGPT ont un problème fondamental : ils sont statiques. Ils sont formés sur une montagne de données puis figés dans le temps, comme un manuel imprimé en 2023 qui ne sait rien de 2024. Désormais, les chercheurs de L’improbable laboratoire d’IA du MIT avoir open source un nouveau cadre qui pourrait changer cela. Leur article, présenté lors du récent Conférence NeurIPS 2025dévoile un système appelé Modèles de langage auto-adaptatifs (SEAL). L’idée de base est simple, mais les implications sont énormes : l’IA apprend à apprendre lui-même. Au lieu de simplement conserver passivement des informations, SEAL permet à un modèle de générer ses propres données d’entraînement de haute qualité, puis d’utiliser ces données pour mettre à jour en permanence ses propres pondérations. C’est important car il s’agit du premier véritable pas vers des robots statiques « je-sais-tout » et vers des modèles d’IA qui peuvent réellement évoluer, s’adapter et incorporer de nouvelles informations au fil du temps.

Pourquoi les modèles d’IA sont de mauvais élèves

À l’heure actuelle, si vous souhaitez qu’un LLM apprenne un nouveau fait, vous avez deux mauvaises options. Vous pouvez « insérer » les informations dans sa fenêtre contextuelle (l’invite), mais ce fait sera oublié au moment où la conversation sera réinitialisée. Ou bien, vous pouvez effectuer un recyclage massif et coûteux, ce qui revient à réimprimer une encyclopédie entière juste pour ajouter une nouvelle entrée. Aucune de ces méthodes ne constitue un véritable apprentissage. L’équipe du MIT, composée d’Adam Zweiger, Jyothish Pari et Pulkit Agrawal, a étudié la manière dont les humains apprennent. Lorsqu’un étudiant se prépare à un examen, il ne se contente pas de relire le manuel 50 fois. Un bon élève réécrit les informations, en créant des flashcards, en résumant les chapitres et en créant leurs propres notes. Ce processus de reformatage et d’assimilation des informations est ce qui les cimente dans leur cerveau. SEAL est conçu pour être ce bon élève. Il apprend à prendre le « manuel brut » de nouvelles informations et à générer ses propres « notes d’étude » – que le journal appelle « auto-éditions »-sous le format le plus efficace pour son propre apprentissage.

Alors, comment apprend-on à « étudier » ?

Il apprend par essais et erreurs, en utilisant un processus appelé apprentissage par renforcement. Considérez-le comme une IA organisant ses propres sessions d’étude.

  1. Obtenez la leçon : L’IA reçoit une nouvelle information (comme un passage de texte).
  2. Écrivez les notes : Il génère une « auto-édition » : ses propres notes synthétiques sur ces informations. Il peut s’agir d’une liste d’implications clés, d’un ensemble de paires de questions et réponses ou simplement d’un simple résumé.
  3. Répondez au quiz : L’IA est brièvement affinée sur son propres notes puis immédiatement donné un quiz pop sur les nouvelles informations.
  4. Obtenez la note : S’il réussit le quiz, il obtient une « récompense ». Ces retours positifs enseignent au modèle que les notes « d’auto-édition » qu’il vient d’écrire étaient de haute qualité et efficaces.
  5. Étudiez plus intelligemment : S’il échoue, il apprend que ses notes étaient mauvaises et essaie un format différent la prochaine fois. Au fil de milliers de boucles, l’IA ne se contente pas d’apprendre de nouveaux faits ; il apprend à apprendre de nouveaux faits plus efficacement.

Et les résultats ?

Les chercheurs ont testé SEAL dans deux domaines clés et les résultats sont frappants. Premièrement, ils ont testé sa capacité à intégrer de nouvelles connaissances. Ils ont donné au modèle des passages de texte et l’ont interrogé sur le contenu. Après s’être entraînée avec SEAL, la précision de l’IA est passée à 47,0%. Voici le kicker : ce score surpassé les données synthétiques générées par le GPT-4.1 beaucoup plus grand et plus puissantqui n’a obtenu que 46,3 %. Le modèle plus petit a littéralement appris à être « plus intelligent » que son énorme concurrent dans cette tâche spécifique. Deuxièmement, ils ont testé sa capacité à acquérir une nouvelle compétence à partir de quelques exemples seulement. Il s’agit d’un test de raisonnement abstrait notoirement difficile appelé ARC. Le travail de SEAL ne consistait pas seulement à résoudre l’énigme, mais à générer le meilleure stratégie d’apprentissage pour lui-même (par exemple, « utiliser ces augmentations de données », « définir ce taux d’apprentissage »). L’IA auto-adaptative a trouvé une stratégie réussie 72,5% du temps. Le modèle de base, sans cet auto-apprentissage, a échoué, ne réussissant que 20 % du temps.

Quel est le piège ?

Tout cela semble formidable, mais un pragmatique aurait raison de s’interroger sur les inconvénients. Les chercheurs sont transparents sur les limites.

  • Oubli catastrophique : Le modèle souffre toujours du problème classique de l’IA de « l’oubli catastrophique ». Alors qu’il prépare de nouveaux examens, il commence à oublier ce qu’il a appris pour les examens de mi-session. Apprendre un nouveau fait peut encore écraser les anciens.
  • C’est terriblement lent : Ce processus n’est pas rapide. Les chercheurs notent que la surcharge de calcul est « substantielle ». Ça prend 30 à 45 secondes juste pour noter un célibataire auto-édition pendant la boucle d’entraînement.
  • Il lui faut un corrigé : Le système actuel repose sur un « quiz » avec des réponses correctes pour fournir ce signal de récompense très important.

Malgré ces obstacles, l’équipe regarde vers l’avenir. Les experts prévoient que nous manquerons de textes générés par l’homme de haute qualité pour entraîner l’IA d’ici 2028. Lorsque nous atteindrons ce « mur de données », les progrès dépendront de la capacité d’un modèle à générer ses propres données d’entraînement de grande utilité. Cette recherche constitue une feuille de route cruciale sur la manière dont cela pourrait fonctionner, ouvrant la voie à de futurs « agents » d’IA qui ne se contenteront pas de répondre à vos questions, mais apprendront activement de leurs interactions avec le monde et deviendront chaque jour plus intelligents.


Crédit image en vedette

Tags: grands modèles de langageMIT

Related Posts

JWST identifie SN Eos : la supernova la plus lointaine jamais confirmée par spectroscopie

JWST identifie SN Eos : la supernova la plus lointaine jamais confirmée par spectroscopie

janvier 21, 2026
Miggo Security contourne les défenses de Google Gemini via les invitations de calendrier

Miggo Security contourne les défenses de Google Gemini via les invitations de calendrier

janvier 21, 2026
Analyste Forrester : l’IA n’a pas réussi à faire avancer la productivité mondiale

Analyste Forrester : l’IA n’a pas réussi à faire avancer la productivité mondiale

janvier 20, 2026
Comment l'IA a créé le malware VoidLink en seulement sept jours

Comment l'IA a créé le malware VoidLink en seulement sept jours

janvier 20, 2026
OpenAI GPT 5.2 résout le problème mathématique d'Erdő en 15 minutes

OpenAI GPT 5.2 résout le problème mathématique d'Erdő en 15 minutes

janvier 19, 2026
Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars

Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars

janvier 15, 2026

Recent Posts

  • Barret Zoph dirigera le pivot commercial agressif d'OpenAI
  • Substack s'installe dans le salon avec le lancement de l'application bêta TV
  • LiveKit est valorisé à 1 milliard de dollars en tant que moteur du mode vocal de ChatGPT
  • Vimeo commence à licencier du personnel suite à l'acquisition de Bending Spoons
  • AWS et Prime Video frappés alors qu'Amazon prépare une nouvelle vague de licenciements

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.