Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Les experts disent que le rapport de sécurité Gemini 2.5 est trop mince

byKerem Gülen
avril 18, 2025
in Artificial Intelligence, News
Home Artificial Intelligence

Google publié Un rapport technique sur son dernier modèle d’IA, Gemini 2.5 Pro, des semaines après son lancement, mais les experts disent que le rapport manque de détails de sécurité, ce qui rend difficile l’évaluation des risques du modèle.

Le rapport fait partie de l’effort de Google pour fournir une transparence sur ses modèles d’IA, mais il diffère de ses rivaux en ce qu’il ne publie que des rapports techniques pour les modèles qu’il considère comme étant dépassés au-delà de l’étape expérimentale. Google réserve également certaines résultats d’évaluation de la sécurité pour un audit distinct.

Des experts, dont Peter Wildelford, co-fondateur de l’Institut pour la politique et la stratégie de l’IA, et Thomas Woodside, co-fondateur du projet Secure IA, exprimé déception face à la rareté du rapport, notant qu’elle ne mentionne pas le cadre de sécurité frontière de Google (FSF), présenté l’année dernière pour identifier les risques d’IA potentiels.

Wildeford a déclaré que les informations minimales du rapport, publiées des semaines après le lancement public du modèle, empêchent la vérification des engagements publics de Google à la sécurité et à la sécurité. Woodside a également remis en question l’engagement de Google envers les évaluations de sécurité en temps opportun, soulignant que le dernier rapport de la société sur les tests de capacité dangereux était en juin 2024, pour un modèle annoncé en février 2024.

De plus, Google n’a pas publié de rapport pour Gemini 2.5 Flash, un modèle plus petit annoncé la semaine dernière, bien qu’un porte-parole a déclaré que l’un était « bientôt ». Thomas Woodside espère que cela indique que Google commencera à publier des mises à jour plus fréquentes, y compris les évaluations des modèles qui ne seront pas encore déployés publiquement.


Le juge règle Google détient le monopole de la publicité illégale


D’autres laboratoires d’IA, tels que Meta et OpenAI, ont également été critiqués pour avoir manqué de transparence dans leurs évaluations de la sécurité. Kevin Bankston, conseillère principale de la gouvernance de l’IA au Center for Democracy and Technology, a décrit la tendance des rapports sporadiques et vagues comme une «course vers le bas» sur la sécurité de l’IA.

Google a déclaré qu’il effectue des tests de sécurité et «équipe rouge adversaire» pour ses modèles avant la libération, même s’il n’est pas détaillé dans ses rapports techniques.


Crédit d’image en vedette

Tags: GémeauxGoogleIA

Related Posts

La mise en cache implicite vise à réduire les coûts API Gemini de 75%

La mise en cache implicite vise à réduire les coûts API Gemini de 75%

mai 9, 2025
Chatgpt peut désormais analyser vos référentiels GitHub

Chatgpt peut désormais analyser vos référentiels GitHub

mai 9, 2025
Meta Threads a juste eu un peu X-ERIER

Meta Threads a juste eu un peu X-ERIER

mai 9, 2025
Ce robot Amazon a un sentiment de sensation

Ce robot Amazon a un sentiment de sensation

mai 9, 2025
Safari peut obtenir des options de recherche d’ouverture ou de perplexité AI

Safari peut obtenir des options de recherche d’ouverture ou de perplexité AI

mai 8, 2025
Les plongées à rayures dans les stablescoins déploient les principaux outils d’IA

Les plongées à rayures dans les stablescoins déploient les principaux outils d’IA

mai 8, 2025

Recent Posts

  • Les publicités NextDoor obtiennent un bouclier de sécurité alimenté en AI de IAS
  • Infrastructure d’apprentissage automatique
  • Réseaux de neurones auprès de la mémoire (Manns)
  • Apprentissage automatique dans les tests de logiciels
  • Points de contrôle de l’apprentissage automatique

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.