Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Des chercheurs du MIT ont construit une IA qui apprend toute seule à apprendre

byKerem Gülen
octobre 20, 2025
in Research
Home Research
Share on FacebookShare on Twitter

Les grands modèles de langage comme ChatGPT ont un problème fondamental : ils sont statiques. Ils sont formés sur une montagne de données puis figés dans le temps, comme un manuel imprimé en 2023 qui ne sait rien de 2024. Désormais, les chercheurs de L’improbable laboratoire d’IA du MIT avoir open source un nouveau cadre qui pourrait changer cela. Leur article, présenté lors du récent Conférence NeurIPS 2025dévoile un système appelé Modèles de langage auto-adaptatifs (SEAL). L’idée de base est simple, mais les implications sont énormes : l’IA apprend à apprendre lui-même. Au lieu de simplement conserver passivement des informations, SEAL permet à un modèle de générer ses propres données d’entraînement de haute qualité, puis d’utiliser ces données pour mettre à jour en permanence ses propres pondérations. C’est important car il s’agit du premier véritable pas vers des robots statiques « je-sais-tout » et vers des modèles d’IA qui peuvent réellement évoluer, s’adapter et incorporer de nouvelles informations au fil du temps.

Pourquoi les modèles d’IA sont de mauvais élèves

À l’heure actuelle, si vous souhaitez qu’un LLM apprenne un nouveau fait, vous avez deux mauvaises options. Vous pouvez « insérer » les informations dans sa fenêtre contextuelle (l’invite), mais ce fait sera oublié au moment où la conversation sera réinitialisée. Ou bien, vous pouvez effectuer un recyclage massif et coûteux, ce qui revient à réimprimer une encyclopédie entière juste pour ajouter une nouvelle entrée. Aucune de ces méthodes ne constitue un véritable apprentissage. L’équipe du MIT, composée d’Adam Zweiger, Jyothish Pari et Pulkit Agrawal, a étudié la manière dont les humains apprennent. Lorsqu’un étudiant se prépare à un examen, il ne se contente pas de relire le manuel 50 fois. Un bon élève réécrit les informations, en créant des flashcards, en résumant les chapitres et en créant leurs propres notes. Ce processus de reformatage et d’assimilation des informations est ce qui les cimente dans leur cerveau. SEAL est conçu pour être ce bon élève. Il apprend à prendre le « manuel brut » de nouvelles informations et à générer ses propres « notes d’étude » – que le journal appelle « auto-éditions »-sous le format le plus efficace pour son propre apprentissage.

Alors, comment apprend-on à « étudier » ?

Il apprend par essais et erreurs, en utilisant un processus appelé apprentissage par renforcement. Considérez-le comme une IA organisant ses propres sessions d’étude.

  1. Obtenez la leçon : L’IA reçoit une nouvelle information (comme un passage de texte).
  2. Écrivez les notes : Il génère une « auto-édition » : ses propres notes synthétiques sur ces informations. Il peut s’agir d’une liste d’implications clés, d’un ensemble de paires de questions et réponses ou simplement d’un simple résumé.
  3. Répondez au quiz : L’IA est brièvement affinée sur son propres notes puis immédiatement donné un quiz pop sur les nouvelles informations.
  4. Obtenez la note : S’il réussit le quiz, il obtient une « récompense ». Ces retours positifs enseignent au modèle que les notes « d’auto-édition » qu’il vient d’écrire étaient de haute qualité et efficaces.
  5. Étudiez plus intelligemment : S’il échoue, il apprend que ses notes étaient mauvaises et essaie un format différent la prochaine fois. Au fil de milliers de boucles, l’IA ne se contente pas d’apprendre de nouveaux faits ; il apprend à apprendre de nouveaux faits plus efficacement.

Et les résultats ?

Les chercheurs ont testé SEAL dans deux domaines clés et les résultats sont frappants. Premièrement, ils ont testé sa capacité à intégrer de nouvelles connaissances. Ils ont donné au modèle des passages de texte et l’ont interrogé sur le contenu. Après s’être entraînée avec SEAL, la précision de l’IA est passée à 47,0%. Voici le kicker : ce score surpassé les données synthétiques générées par le GPT-4.1 beaucoup plus grand et plus puissantqui n’a obtenu que 46,3 %. Le modèle plus petit a littéralement appris à être « plus intelligent » que son énorme concurrent dans cette tâche spécifique. Deuxièmement, ils ont testé sa capacité à acquérir une nouvelle compétence à partir de quelques exemples seulement. Il s’agit d’un test de raisonnement abstrait notoirement difficile appelé ARC. Le travail de SEAL ne consistait pas seulement à résoudre l’énigme, mais à générer le meilleure stratégie d’apprentissage pour lui-même (par exemple, « utiliser ces augmentations de données », « définir ce taux d’apprentissage »). L’IA auto-adaptative a trouvé une stratégie réussie 72,5% du temps. Le modèle de base, sans cet auto-apprentissage, a échoué, ne réussissant que 20 % du temps.

Quel est le piège ?

Tout cela semble formidable, mais un pragmatique aurait raison de s’interroger sur les inconvénients. Les chercheurs sont transparents sur les limites.

  • Oubli catastrophique : Le modèle souffre toujours du problème classique de l’IA de « l’oubli catastrophique ». Alors qu’il prépare de nouveaux examens, il commence à oublier ce qu’il a appris pour les examens de mi-session. Apprendre un nouveau fait peut encore écraser les anciens.
  • C’est terriblement lent : Ce processus n’est pas rapide. Les chercheurs notent que la surcharge de calcul est « substantielle ». Ça prend 30 à 45 secondes juste pour noter un célibataire auto-édition pendant la boucle d’entraînement.
  • Il lui faut un corrigé : Le système actuel repose sur un « quiz » avec des réponses correctes pour fournir ce signal de récompense très important.

Malgré ces obstacles, l’équipe regarde vers l’avenir. Les experts prévoient que nous manquerons de textes générés par l’homme de haute qualité pour entraîner l’IA d’ici 2028. Lorsque nous atteindrons ce « mur de données », les progrès dépendront de la capacité d’un modèle à générer ses propres données d’entraînement de grande utilité. Cette recherche constitue une feuille de route cruciale sur la manière dont cela pourrait fonctionner, ouvrant la voie à de futurs « agents » d’IA qui ne se contenteront pas de répondre à vos questions, mais apprendront activement de leurs interactions avec le monde et deviendront chaque jour plus intelligents.


Crédit image en vedette

Tags: grands modèles de langageMIT

Related Posts

Les scientifiques découvrent plus de 17 000 nouvelles espèces

Les scientifiques découvrent plus de 17 000 nouvelles espèces

décembre 26, 2025
GPT-5.2 dépasse la référence de doctorat expert avec un score scientifique de 92 %

GPT-5.2 dépasse la référence de doctorat expert avec un score scientifique de 92 %

décembre 24, 2025
Pourquoi DIG AI est l’IA malveillante la plus dangereuse de 2025

Pourquoi DIG AI est l’IA malveillante la plus dangereuse de 2025

décembre 23, 2025
Les batteries sodium-ion se rapprochent d’une charge rapide alors que les chercheurs éliminent les goulots d’étranglement ioniques

Les batteries sodium-ion se rapprochent d’une charge rapide alors que les chercheurs éliminent les goulots d’étranglement ioniques

décembre 19, 2025
Attraper le fantôme de 2 000 milliards de dollars : l’IA réécrit les règles de la criminalité financière

Attraper le fantôme de 2 000 milliards de dollars : l’IA réécrit les règles de la criminalité financière

décembre 15, 2025
Les LLM montrent des préjugés culturels distincts dans les invites en anglais et en chinois

Les LLM montrent des préjugés culturels distincts dans les invites en anglais et en chinois

décembre 15, 2025

Recent Posts

  • Google NotebookLM présente "Mode conférence" pour un apprentissage de l’IA de 30 minutes
  • Surveillance des stocks : mises à jour Nvidia, Samsung, AMD et Intel (26 décembre)
  • Un an à Tiangong : la Chine testera un séjour spatial de longue durée en 2026
  • Google licencie l’équipe senior des achats "impossible" Crise de l’approvisionnement HBM
  • 5 applications Mac essentielles pour transformer votre productivité en 2026

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.