Infosys a introduit un boîte à outils AI responsable open source dans le cadre de son Infosys Topaz responsable AI Suitevisant à améliorer la transparence, la sécurité et la confiance dans les systèmes d’intelligence artificielle. La boîte à outils fournit aux entreprises garde-corps technique défensif pour résoudre les risques liés à l’IA, y compris violations de la confidentialité, menaces de sécurité, résultats biaisés, hallucinations et profondeurs.
La boîte à outils d’IA responsable est basée sur Framework AI3S d’Infosys (Scan, bouclier et orienter), qui aide les entreprises détecter et atténuer les risques associé à l’adoption de l’IA. La solution améliore Transparence du modèle En fournissant des explications pour les sorties générées par l’IA tout en maintenant l’efficacité des performances. Le open source La nature de la boîte à outils permet Personnalisation et intégration transparente Dans les environnements cloud et sur site, ce qui le rend adaptable à diverses industries.
«Alors que l’IA devient centrale pour la croissance des entreprises, l’adoption éthique n’est plus facultative», a déclaré Balakrishna DR, vice-président exécutif et chef des services mondiaux, IA et verticale de l’industrie chez Infosys. «En créant l’open source d’outils de l’IA responsable, nous favorisons un écosystème collaboratif pour relever les défis des biais, de la sécurité et de la transparence de l’IA.»
Deutsche Telekom tape Google Cloud pour l’automatisation du réseau basée sur l’IA
Les leaders de l’industrie ont reconnu l’initiative d’Infosys comme un pas vers Pratiques d’IA plus sûres et plus responsables.
- Joshua Bamford, responsable des sciences, de la technologie et de l’innovation au Haut-commissariat britannique, a salué la décision d’Infosys d’aller à l’open source, le qualifiant de référence pour IA responsable développement.
- Sunil Abraham, directeur des politiques publiques pour l’économie des données et la technologie émergente à Meta, a souligné l’importance des outils open-source pour assurer la sécurité et l’accessibilité de l’IA pour un éventail plus large de développeurs.
- Abhishek Singh, secrétaire supplémentaire du ministère indien de l’électronique et des technologies de l’information (Meity), a noté que la boîte à outils contribuerait à améliorer la sécurité, la confidentialité et l’équité dans les modèles d’IA, en particulier pour les startups et les développeurs de l’IA.
Infosys a renforcé son Initiatives d’IA responsables à travers le lancement de son Bureau de l’IA responsable et la participation aux efforts mondiaux de sécurité de l’IA. L’entreprise est parmi les premières à réaliser Certification ISO 42001: 2023 pour les systèmes de gestion de l’IA et est activement impliqué dans des coalitions de l’industrie telles que Le NIST AI Safety Institute Consortium, Ai Alliance et Stanford Hai.
Crédit d’image en vedette: Infosys