Arya.ai a lancé ses applications Client et Server Apex MCP, une couche d’orchestration révolutionnaire conçue pour transformer des modèles de grande langue à usage général en experts de domaine vérifiables. La société a annoncé le lancement le 12 mai 2025 à Mumbai, en Inde et à New York.
L’introduction de ces applications aborde un problème commun avec des modèles de langues importants (LLM): hallucinations, incohérence et mauvaise fiabilité dans les tâches spécifiques au domaine. La solution d’Arya.ai implique une couche modulaire d’applications pré-formées qui enveloppent la connaissance du domaine autour de n’importe quel LLM, ce qui la rend plus fiable.
«À la base, MCP est adapté comme un moteur d’orchestration qui apporte le contexte du domaine, les hallucinations réduites et la précision aux applications axées sur Genai», a déclaré Deekshith Marla, fondatrice d’Arya.ai. «Il ne s’agit pas seulement de provoquer des plus intelligents – il s’agit de tirer une base d’expertise vérifiée et validée.»
La plate-forme Apex compatible MCP d’Arya.ai est livrée avec plus de 100 modules AI pré-construits qui autonomisent le LLM fondamental. Ces modules permettent aux équipes de composer des flux de travail dans divers domaines tels que la finance, la conformité, la confidentialité et l’expérience client. Chaque module est conçu pour gérer les tâches nuancées spécifiques au domaine comme l’analyse des états financiers, l’évaluation du crédit et la détection de la fraude des documents.
Les modules peuvent être découverts via un catalogue consultable, invoqué via JSON-RPC, et enchaîné via l’interface utilisateur sans code d’Apex. Le serveur MCP gère la découverte, l’exécution et la journalisation du module, tandis que le client MCP orchestre le prétraitement et l’intégration LLM.
La plate-forme est LLM-Agnostic, offrant aux entreprises une pleine flexibilité. Les caractéristiques clés comprennent:
- AI prêt pour l’audit: Chaque réponse de module, invite et LLM est enregistrée, garantissant la traçabilité et la conformité.
- Zéro Intégration de réécriture: Ajouter ou échanger des modules sans toucher la logique d’application.
- Composition évolutive: Créez des flux de travail puissants puissants par des modules de chaînage comme «PII Redaction → Analyse des sentiments → Résumé exécutif» en un seul flux.
Les cas d’utilisation de l’entreprise incluent les banques analysant les documents transactionnels, l’évaluation des risques et la génération de rapports sans basculer entre plusieurs applications. Les entreprises RegTech peuvent automatiser les workflows de conformité avec des sentiers d’audit complets, tandis que les équipes d’expérience client peuvent extraire des informations des commentaires et classer les problèmes de support.
Arya.ai offre un accès précoce à son bac à sable Apex + MCP, permettant aux entreprises d’expérimenter le chaînage de modules, la configuration LLM et l’orchestration via une interface utilisateur visuelle. La plate-forme permet aux équipes de construire et de tester les workflows AI enveloppés de domaine en utilisant leurs propres données, avec un contrôle complet et une traçabilité.
Pour en savoir plus ou demander une démo, visitez https://arya.ai ou contact [email protected].