Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

L’IA peut-elle vraiment raisonner sur la cause et l’effet? Une nouvelle étude met LLMS à l’épreuve

byKerem Gülen
février 17, 2025
in Research
Home Research

Une nouvelle étude de Université de New York et Université de Tübingenconduit par Hanna M. Dettki, Brenden M. Lake, Charley M. Wu et Bob Rehderdemande si l’IA peut raisonner sur les causes comme le font les humains ou s’il s’appuie plutôt sur des modèles. Leur papier, « Les grands modèles de langage raisonne-t-il causalement comme nous? Encore mieux?», Approche quatre modèles populaires – GPT-3.5, GPT-4O, Claude-3 et Gemini-Pro – pour voir s’ils saisissent les structures causales complexes ou imitent simplement le langage humain.

Comment l’étude a testé le raisonnement causal dans l’IA

Les chercheurs ont comparé le raisonnement humain avec quatre LLMGPT-3.5, GPT-4O, CLAUDE-3 et GEMINI-PRO-en utilisant graphiques de collisionneursun test classique en inférence causale. Les participants (humains et IA) ont été invités à évaluer la probabilité d’un événement compte tenu de certaines relations causales. La question principale: les LLM raisonnent-elles de manière causale de la même manière que les humains le font ou suivent-ils une logique différente?


L’IA gère maintenant les simulations moléculaires: grâce à mdcrow


Résultats clés: l’IA peut raisonner mais pas comme les humains

Les résultats ont révélé un spectre de raisonnement causal parmi les modèles d’IA.

  • GPT-4O et Claude-3 a montré le plus raisonnement normatifce qui signifie qu’ils ont suivi la théorie des probabilités plus étroitement que les participants humains.
  • Gemini-Pro et GPT-3.5d’un autre côté, affiché plus raisonnement associatifce qui signifie qu’ils s’appuyaient davantage sur les modèles statistiques plutôt que sur une logique causale stricte.
  • Tous les modèles ont présenté des biaiss’écarter de l’indépendance attendue des causes. Cependant, Claude-3 était le moins biaiséce qui signifie qu’il adhérait le plus étroitement aux normes causales mathématiques.

Fait intéressant, Les humains appliquent souvent une heuristique qui s’écartent de la théorie des probabilités strictes – comme l’effet «expliquant», où l’observation d’une cause réduit la probabilité d’une autre. Alors que les modèles d’IA ont reconnu cet effet, leurs réponses variaient considérablement en fonction des données de formation et du contexte.

AI vs raisonnement humain: une différence fondamentale

L’une des idées les plus intrigantes de l’étude est que les LLM Ne vous contentez pas d’imiter le raisonnement humain– Ils abordent la causalité différemment. Contrairement aux humains, dont les jugements sont restés relativement stables dans différents contextes, Les modèles d’IA ont ajusté leur raisonnement en fonction de la connaissance du domaine (par exemple, économie contre sociologie).

  • GPT-4O, en particulier, a traité les liens causaux comme déterministesen supposant que certaines causes produisent toujours des effets spécifiques.
  • Les humains, en revanche, tiennent compte de l’incertitudereconnaissant que les relations causales ne sont pas toujours absolues.

Cela suggère que bien que l’IA puisse être plus précis Dans certaines tâches structurées, il manque la flexibilité de la pensée humaine lorsqu’il s’agit de situations ambiguës ou multi-causales.

Pourquoi cela compte pour l’IA dans la prise de décision

L’étude révèle une limitation importante: Les LLM peuvent ne pas généraliser les connaissances causales au-delà de leurs données de formation sans guidage solide. Cela a des implications essentielles pour le déploiement de l’IA dans la prise de décision du monde réel, des diagnostics médicaux aux prévisions économiques.

Les LLM pourraient surpasser les humains dans l’inférence basée sur les probabilités, mais leur raisonnement reste fondamentalement différent – qui manque souvent la logique intuitive et adaptative que les humains utilisent dans la résolution de problèmes quotidiens.

En d’autres termes, l’IA peut raisonner sur la causalité, mais pas tout à fait comme nous.


Crédit d’image en vedette: Kerem gülen / idéogramme

Tags: En vedetteIALLM

Related Posts

Les outils de recherche sur l’IA pourraient créer plus de problèmes qu’ils ne résolvent

Les outils de recherche sur l’IA pourraient créer plus de problèmes qu’ils ne résolvent

mai 14, 2025
Votre partenaire générateur d’IA super utile rend-il secrètement votre travail ennuyeux?

Votre partenaire générateur d’IA super utile rend-il secrètement votre travail ennuyeux?

mai 14, 2025
Adele de Microsoft veut donner à votre IA un profil cognitif

Adele de Microsoft veut donner à votre IA un profil cognitif

mai 14, 2025
Apple Research Paper dévoile Matrix3D pour la génération de contenu 3D

Apple Research Paper dévoile Matrix3D pour la génération de contenu 3D

mai 14, 2025
Recherche: l’étalon-or pour l’évaluation du Genai

Recherche: l’étalon-or pour l’évaluation du Genai

mai 12, 2025
L’IA résout enfin le puzzle le plus difficile de la biologie

L’IA résout enfin le puzzle le plus difficile de la biologie

mai 6, 2025

Recent Posts

  • L’impact des tissus intelligents sur les performances des vêtements tactiques
  • Databricks parie en grande partie sur les Postgres sans serveur avec son acquisition néon de 1 milliard de dollars
  • Alphaevolve: comment la nouvelle IA de Google vise la vérité avec l’auto-correction
  • Tiktok implémente des textes ALT générés par l’AI pour une meilleure accessibilité
  • Trump oblige Apple à repenser sa stratégie d’iPhone en Inde

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.