Google détaillé son approche de sécurité pour les fonctionnalités agentiques de son navigateur Chrome, qui peuvent effectuer des actions au nom des utilisateurs. La société avait déjà présenté ces capacités en avant-première en septembre, et un déploiement plus large aura lieu dans les mois à venir. L’entreprise a mis en œuvre des modèles d’observateurs et des mécanismes de consentement des utilisateurs pour gérer ces actions agents. Cette stratégie répond aux risques de sécurité potentiels, qui pourraient inclure la perte de données ou les implications financières associées à ces fonctionnalités. Google utilise plusieurs modèles pour surveiller les actions des agents. Il a développé un User Alignment Critic, optimisé par Gemini, qui évalue les éléments d’action générés par un modèle de planificateur pour une tâche spécifique. Si le modèle critique estime que les tâches proposées ne correspondent pas à l’objectif de l’utilisateur, il demande au modèle planificateur de réviser sa stratégie. Le modèle critique accède uniquement aux métadonnées de l’action proposée, et non au contenu Web réel. Pour empêcher les agents d’accéder à des sites Web non autorisés ou peu fiables, Google utilise des ensembles d’origines d’agents. Ces ensembles limitent les modèles à des origines désignées en lecture seule et en lecture-écriture. Les origines en lecture seule permettent à Gemini de consommer du contenu, tel que des listes de produits sur un site commercial, tout en excluant les éléments non pertinents comme les bannières publicitaires. De même, l’agent ne peut interagir qu’avec des iframes spécifiques sur une page.
Image : Google« Cette délimitation impose que seules les données provenant d’un ensemble limité d’origines soient disponibles pour l’agent, et ces données ne peuvent être transmises qu’aux origines inscriptibles », a déclaré la société dans un article de blog. « Cela limite le vecteur de menace des fuites de données d’origine croisée. Cela donne également au navigateur la possibilité d’appliquer une partie de cette séparation, par exemple en n’envoyant même pas au modèle des données qui se trouvent en dehors de l’ensemble lisible. » Google surveille également la navigation dans les pages à l’aide d’un autre modèle d’observateur, qui examine les URL. Ce mécanisme vise à empêcher la navigation vers des URL nuisibles générées par un modèle. Pour les tâches sensibles, Google nécessite l’autorisation de l’utilisateur. Lorsqu’un agent tente d’accéder à des sites contenant des informations bancaires ou médicales, il demande d’abord le consentement de l’utilisateur. Pour les sites nécessitant une connexion, Chrome demande à l’utilisateur l’autorisation d’utiliser le gestionnaire de mots de passe, garantissant ainsi que le modèle de l’agent n’accède pas aux données de mot de passe. L’entreprise demandera également l’approbation des utilisateurs avant des actions telles que réaliser un achat ou envoyer un message. De plus, Google dispose d’un classificateur à injection rapide pour empêcher les actions indésirables et teste en permanence ses capacités agents contre les attaques développées par les chercheurs. D’autres développeurs de navigateurs IA se sont également concentrés sur la sécurité ; Perplexity a publié un nouveau modèle de détection de contenu open source plus tôt ce mois-ci pour contrer les attaques par injection rapide contre les agents.





