L’IA est bonne en reconnaissance de motifs mais lutte avec le raisonnement. Pendant ce temps, la cognition humaine est profondément enracinée dans la logique et la cohérence. Et si nous pouvions combiner le meilleur des deux mondes– La puissance de traitement brute des modèles de gros langues (LLMS) et la pensée structurée basée sur des règles de l’IA symbolique?
C’est l’objectif derrière IA neurosymboliqueune nouvelle approche qui fusionne l’apprentissage en profondeur avec l’inférence axée sur la cohérence (CDI). Les chercheurs Huntsman et Thomas proposent une méthode qui permet aux LLM Construire des relations logiques de la langue naturelle, ouvrant la porte à Meilleure prise de décision, résolution de problèmes et même raisonnement juridique axé sur l’IA.
Cette étude, « Intelligence artificielle neurosymbolique via de grands modèles de langage et une inférence axée sur la cohérence», Dirigé par Steve Huntsman et Jewell Thomas de Cynnovative, explore une nouvelle approche pour intégrer l’inférence axée sur la cohérence (CDI) avec des modèles de gros langues (LLM). En développant un algorithme qui transforme les propositions de langage naturel en graphiques de cohérence structurés, les chercheurs compatitent la capacité des modèles d’IA à reconstruire les relations logiques.
Qu’est-ce que l’inférence axée sur la cohérence?
L’inférence axée sur la cohérence (CDI) est un moyen de prendre des décisions en fonction de la façon dont un ensemble de propositions s’adapte. Au lieu d’accepter ou de rejeter simplement des faits individuels, CDI construit un graphique des relationsattribuer des poids à cohérent et contradictoire instructions.
Un graphique de cohérence relierait ces propositions et marquer leur cohérenceaidant l’IA à déterminer Quelles déclarations sont les plus susceptibles d’être vraies.
Le problème? Jusqu’à présent, ces graphiques devaient être construit manuellement– un processus minutieux et peu pratique. La nouvelle recherche propose un algorithme qui peut générer automatiquement ces graphiques de entrée en langage naturel et tester dans quelle mesure les LLM peuvent les reconstruire.
Pourquoi les petits modèles d’IA ne peuvent pas suivre les grands
Enseigner les LLM à construire des structures logiques
La méthode des chercheurs implique deux étapes clés:
- Génération de propositions: Un ensemble de déclarations est créé en langage naturel, reflétant une structure logique.
- Reconstruire les graphiques de cohérence: Les LLM sont ensuite invitées à analyser ces instructions et à reconstruire la structure du graphique sous-jacente.
En faisant cela, les modèles d’IA sont obligés de Pensez plus comme les humainsévaluant non seulement des faits individuels mais aussi Comment ils se connectent à un réseau plus large de connaissances.
L’IA peut-elle bien faire les choses?
L’étude a testé divers LLM GPT-4O et CLAUDE 3.5 à Des modèles open source comme QWEN-32B et LLAMA-3.3. Les résultats étaient Étonnamment prometteur– Certains modèles ont pu reconstruire des graphiques de cohérence avec une grande précision, même sous conditions incertaines ou ambiguës.
Fait intéressant, modèles optimisés pour le raisonnementcomme O1-MINI et QWQ-32Ba joué le meilleur. Cela suggère que les systèmes d’IA spécifiquement formés pour résolution de problèmes structurés Peut surpasser les LLM à usage général lors de la gestion des tâches de raisonnement complexes.
Au cœur de Inférence axée sur la cohérence (CDI) est l’idée que la connaissance n’est pas seulement une collection de Faits isolés– c’est un réseau de vérités interdépendantes. La méthode introduite par Huntsman et Thomas Structures Connaissances en tant que graphique de cohérenceoù:
- Nœuds représentent les propositions (par exemple, «la Haye est la capitale»).
- Bords représenter cohérence ou incohérence entre ces propositions.
Si une proposition soutient un autreil obtient un connexion positive. Si deux déclarations contredisent, ils reçoivent un connexion négative. Le but? À maximiser la cohérence en séparant déclarations vraies et fausses en différents grappes.
Le problème de trouver la partition la plus cohérente d’un graphique s’avère mathématiquement équivalent à Maxun défi de calcul bien connu. L’IA neurosymbolique s’attaque à cela en combinant la compréhension du langage naturel de LLMS avec le raisonnement graphique de CDI.
L’approche des chercheurs s’inspire de psychologie et informatique. CDI a été utilisé pour modéliser prise de décision humaineraisonnement juridique, et même Inférence causale dans la science. Mais jusqu’à présent, les graphiques CDI devaient être construits manuellement.
Pour automatiser ce processus, l’étude propose un algorithme qui:
- Transforme les propositions de langage naturel en un graphique de cohérence structuré.
- Train LLMS pour reconstruire ces graphiquestester leur capacité à identifier les relations entre les faits.
- Benchmarks Performance sur différents modèles d’IAanalysant dans quelle mesure ils préservent la cohérence logique.
Pour tester dans quelle mesure les LLM gèrent l’inférence axée sur la cohérence, les chercheurs ont généré des graphiques de cohérence synthétique et les ont alimentés dans divers modèles d’IA. Ces graphiques contenaient des déclarations cohérentes et contradictoires, ce qui remet en question les modèles d’identifier les structures logiques plutôt que de simplement régurgiter des informations.
Ils ont testé:
- Claude 3.5 et GPT-4O (LLMS commerciaux haut de gamme)
- QWQ-32B, O1-MINI et LLAMA-3 (modèles open source optimisés pour le raisonnement)
- PHI-4 et Gémeaux 1.5 / 2.0 (modèles plus petits et de taille moyenne)
Les résultats ont montré que:
- Les modèles optimisés pour le raisonnement (comme O1-MINI et QWQ-32B) ont considérablement surpassé les LLM à usage général.
- Certains modèles ont reconstruit avec succès le graphique de cohérence d’origine, même face à des informations incertaines ou ambiguës.
- Les LLM ont lutté avec des structures logiques plus complexes, en particulier lorsque plusieurs propositions étaient interdépendantes.
Cette recherche est une étape importante vers AI vraiment intelligent. Au lieu de traiter la langue comme un jeu de devinettes statistiquesinférence induite par la cohérence oblige à évaluer la cohérence logiquemenant à:
- Sorties AI plus fiables (moins d’hallucination, raisonnement plus précis)
- Meilleure explicabilité (Décisions d’IA basées sur des structures logiques explicites)
- Résolution de problèmes améliorée (applicable au droit, à la science et à la gouvernance)
Crédit d’image en vedette: Tara Winstead / Pexels