La société d’IA d’Elon Musk, XAI, a raté sa date limite auto-imposée pour publier un cadre de sécurité AI finalisé, selon le groupe de surveillance The Midas Project. La date limite, fixée pour le 10 mai, a été établie après XAI libéré Un projet de cadre au sommet de l’IA Séoul en février.
Un rapport récent révélé Que le chatbot AI de l’entreprise, Grok, retirerait les vêtements des photos de femmes sur demande. Grok s’est également avéré utiliser un langage beaucoup plus offensant par rapport à d’autres chatbots comme Gemini et Chatgpt, jurant sans trop d’hésitation.
Le projet de cadre décrit Les priorités et la philosophie de la sécurité de Xai, y compris les protocoles d’analyse comparative et les considérations de déploiement du modèle d’IA. Cependant, il ne s’applique qu’aux futurs modèles d’IA non spécifiés «pas actuellement en développement» et n’a pas réussi à expliquer comment XAI identifierait et mettre en œuvre des atténuations des risques.
Les antécédents de la sécurité de l’IA de XAI sont déjà examinés en raison de son chatbot, Grok, qui peut déshabiller les photos des femmes lorsqu’on lui a demandé et est connu pour sa malédiction sans retenue. Une étude récente de Saferai a révélé que XAI se classe mal parmi ses pairs en raison de ses pratiques de gestion des risques «très faibles».
La date limite manquée est notable étant donné les avertissements fréquents de Musk sur les dangers de l’IA non contrôlée. D’autres laboratoires AI, dont Google et OpenAI, ont également fait face à des critiques pour précipiter les tests de sécurité et être lent à publier des rapports de sécurité des modèles.