Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Comment plusieurs modèles d’IA peuvent s’associer pour résoudre des problèmes complexes

byKerem Gülen
février 27, 2025
in Research
Home Research

Les grands modèles de langue (LLM) ont transformé la façon dont l’IA s’attaque aux problèmes de raisonnement, de la réponse aux questions mathématiques délicates au sens du langage humain ambigu. Mais il y a une prise – ces modèles ont souvent du mal lorsque le raisonnement devient trop complexe. Une seule IA peut rester coincée dans des pièges à décision locaux, manquant de meilleures solutions simplement parce qu’elle ne sait pas ce qu’elle ne sait pas.

Une équipe de chercheurs du laboratoire chinois de l’Université de Hong Kong et de Shanghai AI, dirigée par Sen Yang, Yafu Li, Wai Lam et Yu Cheng, propose une solution: Mélange de recherche-agents (MOSA). Cette méthode permet à plusieurs modèles d’IA de fonctionner ensemble, en tirant parti de leurs forces combinées pour naviguer dans des problèmes de raisonnement complexes. Au lieu de s’appuyer sur la perspective d’un seul modèle, MOSA permet à différents agents d’IA d’explorer divers chemins de raisonnement et d’affiner les réponses de l’autre.

Leurs résultats, présentés dans l’étude « Recherche collaborative multi-llm pour la résolution de problèmes complexes», Montrez que cette approche améliore considérablement la précision de l’IA dans les tâches de raisonnement mathématiques et de bon sens.

Pourquoi les modèles d’IA ont-ils du mal avec un raisonnement complexe?

À la base, le raisonnement consiste à diviser un problème en étapes plus petites et à explorer différents chemins pour trouver la meilleure solution. Des approches traditionnelles basées sur la recherche, comme Étendue-première recherche (BFS) ou Recherche en profondeur d’abord (DFS)aider AI à naviguer systématiquement ces chemins. Mais même avec des techniques avancées comme Raisonnement de la chaîne de pensées (CO)où les modèles décomposent leur processus de réflexion étape par étape, un seul LLM peut toujours être des limites:

  • Exploration limitée: Les modèles d’IA ont tendance à rester coincés dans des modèles de raisonnement familiers, ne pas explorer des solutions alternatives.
  • Ambiguïté dans la langue: Le langage naturel est intrinsèquement vague, ce qui rend difficile pour une IA d’évaluer correctement toutes les interprétations possibles.
  • Compromis entre la diversité et la précision: L’ajustement de la température d’une IA (comment il génère des réponses au hasard) aide à introduire la variété, mais elle se fait souvent au prix de la précision.

MOSA vise à résoudre ces problèmes en assemblant plusieurs modèles d’IA pour collaborer aux tâches de raisonnement, assurant une exploration plus large tout en maintenant la précision.

Comment fonctionne Mosa?

MOSA s’appuie sur une technique de recherche bien connue appelée Recherche de Monte Carlo Tree (MCTS)couramment utilisé dans les stratégies de jeu de jeu d’IA. Dans une configuration MCTS typique, une IA explore différents mouvements possibles, l’apprentissage des résultats passés pour améliorer sa prise de décision. MOSA améliore ce processus en intégrant plusieurs LLM dans la recherche, chacun agissant comme un agent de raisonnement indépendant.

Voici comment Mosa orchestre la collaboration:

  1. Exploration de recherche diversifiée: Chaque agent d’IA propose différents chemins de raisonnement possibles, augmentant la diversité des directions de recherche.
  2. Raffinement étape par étape: Les agents de l’IA analysent et affinent les étapes de raisonnement de l’autre, réduisant les erreurs.
  3. Prise de décision agrégée: Au lieu de s’appuyer sur une seule sortie d’IA, MOSA regroupe les meilleures contributions de plusieurs modèles, garantissant des conclusions plus fiables.

En utilisant plusieurs modèles avec différentes données d’entraînement et forces, MOSA empêche toute IA unique de dominer le processus de décision, en évitant les pièges à optimisation locale.

Comment Mosa bat des modèles d’IA uniques

Pour tester l’efficacité de Mosa, les chercheurs ont mené des expériences à travers quatre repères de raisonnement bien connues:

  • GSM8K (problèmes de mots mathématiques scolaires)
  • Svamp (raisonnement mathématique avec variation des structures de langues)
  • Math-500 (Un ensemble de données difficile pour les problèmes mathématiques avancés)
  • Stratégieqa (Questions de raisonnement de bon sens)

Les résultats étaient clairs: MOSA a systématiquement surpassé les deux modèles d’IA à agent unique et les lignes de base multi-agents existantes.

  • Dans Math-500l’un des ensembles de données les plus difficiles, Mosa a amélioré la précision de 1,8% sur les meilleures méthodes précédentes.
  • Lors de l’intégration de plusieurs LLM Amélioration de 1,71% dans la précision globale du raisonnement par rapport à la recherche traditionnelle à modèle unique.
  • Plus l’équipe de l’IA est diversifiée, meilleures sont les résultats, ajoutant plus de LLMS a encore augmenté les performances.

La recherche met en évidence une tendance importante: La collaboration AI est souvent plus efficace que la compétition d’IA. Tout comme les humains travaillent dans des équipes pour résoudre des problèmes complexes, les modèles d’IA peuvent se compléter les forces les uns des autres lorsqu’ils travaillent ensemble. Cela a des implications profondes pour les champs qui nécessitent un raisonnement approfondi, notamment:

  • Découverte scientifique automatisée: Les collaborations de l’IA pourraient accélérer les percées dans la science des matériaux, la découverte de médicaments et la physique.
  • Systèmes de tutorat avancé: Les approches de type MOSA pourraient rendre les assistants d’apprentissage alimentés par l’IA plus précis et plus utiles.
  • Analyse juridique et financière: L’IA multi-agents pourrait améliorer l’analyse contractuelle, les prévisions financières et l’évaluation des risques en transformant les voies de raisonnement.

L’IA peut-elle se défendre contre ses propres erreurs?

L’un des aspects les plus prometteurs de Mosa est sa capacité à attraper et à corriger les erreurs. Les modèles d’IA uniques génèrent souvent des erreurs en toute confiance, ce qui les rend difficiles à détecter. Mais avec plusieurs agents d’IA en revue les uns des autres, les erreurs deviennent moins susceptibles de passer inaperçues. L’équipe de recherche a également introduit un agrégateur neuronalune fonction d’IA qui fusionne les meilleurs aspects de différents chemins de raisonnement vers une réponse finale plus raffinée.


Crédit d’image en vedette: Anderson Rian / Unsplash

Tags: En vedetteIAMosa

Related Posts

L’IA résout enfin le puzzle le plus difficile de la biologie

L’IA résout enfin le puzzle le plus difficile de la biologie

mai 6, 2025
Le chef-d’œuvre de Raphael n’est peut-être pas tout son

Le chef-d’œuvre de Raphael n’est peut-être pas tout son

mai 5, 2025
Recherche: l’étalon-or pour l’évaluation du Genai

Recherche: l’étalon-or pour l’évaluation du Genai

mai 2, 2025
L’IA nous fait-il tous écrire la même?

L’IA nous fait-il tous écrire la même?

mai 1, 2025
GPT-4 aide les chercheurs à décoder la façon dont nous nous déplaçons réellement dans l’espace

GPT-4 aide les chercheurs à décoder la façon dont nous nous déplaçons réellement dans l’espace

mai 1, 2025
Pourquoi nous devons gouverner l’IA utilisée dans les entreprises technologiques

Pourquoi nous devons gouverner l’IA utilisée dans les entreprises technologiques

avril 29, 2025

Recent Posts

  • Brad Smith témoigne de l’application Deepseek bloquée par Microsoft pour les employés
  • Chrome déploie l’IA locale pour détecter de nouvelles escroqueries Web émergentes
  • Apprentissage automatique basé sur un modèle (MBML)
  • Traçage des performances ML
  • Apple développe de nouvelles puces pour les lunettes et les macs intelligents AI

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.