Le processus de construction d’ontologies – ces cartes structurées et interconnectées de connaissances qui alimentent tout, des moteurs de recherche au raisonnement d’IA – sont notoirement complexes. Il nécessite un mélange d’expertise du domaine, de rigueur logique et d’une compréhension presque philosophique de la façon dont les concepts sont liés. Pendant des années, les ingénieurs de l’ontologie ont lutté avec le défi de transformer les connaissances abstraites en données structurées. Maintenant, les grands modèles de langue (LLM) entrent dans le ring, affirmant qu’ils peuvent faire une grande partie du levage de choses.
Une équipe de chercheurs, dont Anna Sofia Lippolis, Mohammad Javad Saeedizade et Eva Blomqvist, a testé cette affirmation. Leur dernier étude Évalue si les modèles AI – en particulier O1-Preview, GPT-4 et Meta’s Llama 3.1 – peuvent générer des ontologies utilisables à partir de descriptions de langage naturel. Les résultats? Un mélange de promesses, de pièges et de questions philosophiques sur le rôle de l’IA dans la représentation des connaissances.
L’ingénieur ontologiques propulsé par l’IA
Traditionnellement, la création de l’ontologie s’est appuyée sur des méthodologies comme Méthontologie et Néonqui guident les ingénieurs à travers un processus complexe de définition des concepts, des relations et des contraintes. Mais même pour les experts chevronnés, ce processus prend du temps et sujette à des erreurs. Les chercheurs ont proposé une approche différente: laissez les LLM générer la fondation et permettent aux experts humains affiner les résultats.
Leur étude a introduit deux techniques d’incitation –CQBYCQ sans mémoire et Ontogenia—E conçu pour aider l’IA à générer des ontologies étape par étape. Les deux méthodes reposaient sur l’alimentation des invites structurées en IA en fonction Questions de compétence (interroge une ontologie devrait pouvoir répondre) et stories d’utilisateurs (Scénarios du monde réel que l’ontologie devrait soutenir).
Plutôt que de forcer l’IA à traiter des ontologies entières à la fois – une tâche qui conduit souvent à des sorties confuses et gonflées – ces approches ont brisé le processus en étapes modulaires, guidant les LLM à travers des constructions logiques une pièce à la fois.
Sensei: L’IA qui explore comme un enfant curieux
Dans quelle mesure l’IA a-t-elle bien fonctionné?
Les chercheurs ont testé leurs méthodes sur un ensemble de données de référence, en comparant les ontologies générées par l’IA-AI avec celles créées par des ingénieurs humains novices. L’interprète hors concours? O1-Preview d’Openaien utilisant la méthode d’incitation d’Ontogenia. Il a produit des ontologies qui n’étaient pas seulement utilisables mais, dans de nombreux cas, ont surpassé celles fabriquées par des débutants humains.
Cependant, l’étude a également mis en évidence limitations critiques. Les ontologies générées par l’AI avaient tendance à produire des éléments redondants ou incohérents – tels que définir les deux employée et EmploymentTartdate pour le même concept. Pire, les modèles ont fréquemment lutté avec les points de logique les plus fins, générant des domaines qui se chevauchent et des relations inverses incorrectes. Le modèle Llama de Meta, en particulier, a mal performé, produisant des hiérarchies enchevêtrées et des défauts structurels qui ont rendu ses ontologies difficiles à utiliser.
L’un des plus grands plats à retenir? Le contexte est important. Lorsque les LLM ont été obligées de travailler avec trop d’informations à la fois, leurs performances ont souffert. Réduire leur entrée – d’où la stratégie «sans mémoire» – a permis de réduire les sorties non pertinentes et une cohérence améliorée.
Alors, devrions-nous laisser l’IA prendre le contrôle de l’ingénierie de l’ontologie? Pas tout à fait. Bien que les LLM peuvent accélérer le processus de rédaction, l’intervention humaine reste essentielle. L’IA est excellente pour produire rapidement des connaissances structurées, mais ses sorties ont encore besoin raffinement logique et vérification sémantique– Tâches qui nécessitent une surveillance humaine.
Les chercheurs suggèrent que le véritable rôle de l’IA dans l’ingénierie de l’ontologie est celui d’un copilote plutôt qu’un remplacement. Au lieu de créer des graphiques de connaissances à partir de zéro, les LLM peuvent aider en générant des ébauches structurées, que les experts humains peuvent affiner. Les améliorations futures pourraient se concentrer sur l’intégration Mécanismes de validation de l’ontologie directement dans les flux de travail de l’IA, réduisant le besoin de corrections manuelles.
En d’autres termes, l’IA peut aider à cartographier le territoiremais les humains ont encore besoin de Vérifiez les repères.
L’étude soulève également une question plus profonde sur la capacité de l’IA à comprendre les connaissances. Un modèle peut-il vraiment «saisir» les relations ontologiques, ou joue-t-elle simplement un jeu avancé de correspondance statistique? Alors que l’IA continue d’évoluer, la ligne entre la logique humaine et le raisonnement généré par la machine est floue, mais pour l’instant, les ingénieurs humains ont toujours le dernier mot.
Les LLM peuvent générer des projets d’ontologie étonnamment de haute qualité, mais leurs résultats restent incohérents et nécessitent un raffinement humain. Si l’objectif est efficacitéL’ingénierie d’ontologie assistée par l’IA s’avère déjà utile. Si l’objectif est perfectionil y a encore un long chemin à parcourir.
Crédit d’image en vedette: Kerem Gülen / Imagen 3