Google publié Un rapport technique sur son dernier modèle d’IA, Gemini 2.5 Pro, des semaines après son lancement, mais les experts disent que le rapport manque de détails de sécurité, ce qui rend difficile l’évaluation des risques du modèle.
Le rapport fait partie de l’effort de Google pour fournir une transparence sur ses modèles d’IA, mais il diffère de ses rivaux en ce qu’il ne publie que des rapports techniques pour les modèles qu’il considère comme étant dépassés au-delà de l’étape expérimentale. Google réserve également certaines résultats d’évaluation de la sécurité pour un audit distinct.
Des experts, dont Peter Wildelford, co-fondateur de l’Institut pour la politique et la stratégie de l’IA, et Thomas Woodside, co-fondateur du projet Secure IA, exprimé déception face à la rareté du rapport, notant qu’elle ne mentionne pas le cadre de sécurité frontière de Google (FSF), présenté l’année dernière pour identifier les risques d’IA potentiels.
Wildeford a déclaré que les informations minimales du rapport, publiées des semaines après le lancement public du modèle, empêchent la vérification des engagements publics de Google à la sécurité et à la sécurité. Woodside a également remis en question l’engagement de Google envers les évaluations de sécurité en temps opportun, soulignant que le dernier rapport de la société sur les tests de capacité dangereux était en juin 2024, pour un modèle annoncé en février 2024.
De plus, Google n’a pas publié de rapport pour Gemini 2.5 Flash, un modèle plus petit annoncé la semaine dernière, bien qu’un porte-parole a déclaré que l’un était « bientôt ». Thomas Woodside espère que cela indique que Google commencera à publier des mises à jour plus fréquentes, y compris les évaluations des modèles qui ne seront pas encore déployés publiquement.
Le juge règle Google détient le monopole de la publicité illégale
D’autres laboratoires d’IA, tels que Meta et OpenAI, ont également été critiqués pour avoir manqué de transparence dans leurs évaluations de la sécurité. Kevin Bankston, conseillère principale de la gouvernance de l’IA au Center for Democracy and Technology, a décrit la tendance des rapports sporadiques et vagues comme une «course vers le bas» sur la sécurité de l’IA.
Google a déclaré qu’il effectue des tests de sécurité et «équipe rouge adversaire» pour ses modèles avant la libération, même s’il n’est pas détaillé dans ses rapports techniques.