Une étude USENIX réalisée par des chercheurs de l’University College London, de l’Université Mediterranea de Reggio de Calabre et de l’Université de Californie à Davis, trouvé que les extensions de navigateur IA populaires collectent des données utilisateur sensibles, notamment des dossiers médicaux, des informations bancaires, des numéros de sécurité sociale et des activités sur les réseaux sociaux lors de scénarios de navigation simulés dans le monde réel. Les navigateurs Web assistés par l’IA sont apparus en 2025, offrant des fonctionnalités telles que des résumés de sites Web, des recherches affinées, des chatbots et l’exécution autonome de tâches. Ces navigateurs défient les options établies comme Google Chrome, Apple Safari, Microsoft Edge et Mozilla Firefox. L’Atlas d’OpenAI, par exemple, permet aux utilisateurs d’effectuer des recherches ou d’interagir avec ChatGPT directement dans l’interface de navigation. Google Chrome contrôle environ 70 % de la base d’utilisateurs mondiale. Les navigateurs IA, notamment Comet de Perplexity, Opera Neon, Dai et ChatGPT, visent à attirer les utilisateurs grâce à des fonctionnalités avancées. Les navigateurs existants tels que Firefox intègrent des éléments d’IA pour étendre leur présence sur le marché. McKinsey & Compagnie prévoit que l’industrie des navigateurs générera 750 milliards de dollars de revenus d’ici 2028. Les navigateurs IA remplissent des fonctions au-delà de l’accès à Internet, telles que remplir des formulaires, effectuer des achats sur Amazon ou réviser des essais. Ils fonctionnent via un chatbot toujours disponible qui examine le contenu du site Web et les modes agents qui gèrent des tâches complexes. Ces processus nécessitent une analyse des pages Web ouvertes et une intégration avec les demandes antérieures, les historiques de recherche et les interactions. La plupart des navigateurs IA fonctionnent de manière autonome, sans instructions ni consentement explicites de l’utilisateur. Les extensions de navigateur servent d’interfaces pour les modèles d’IA génératifs, notamment ChatGPT d’OpenAI, Gemini de Google et Llama de Meta. Les extensions accèdent à l’interface de programmation d’application du grand modèle de langage sur le backend du navigateur pour offrir des expériences personnalisées. Pour un fonctionnement autonome, ils injectent des scripts de contenu dans les pages Web, traités par des services en arrière-plan. Cette configuration distingue les navigateurs IA des chatbots standards, qui traitent uniquement les données saisies par l’utilisateur. Les navigateurs IA extraient automatiquement les informations des sites Web visités. L’étude USENIX d’août 2025 s’est concentrée exclusivement sur les extensions de navigateur, et non sur les navigateurs à IA complète, car des produits phares comme Atlas d’OpenAI et Comet de Perplexity ont été lancés par la suite. Les exigences en matière de données sous-jacentes restent identiques pour les deux types. Présentée lors du USENIX Security Symposium 2025, l’étude a examiné des extensions telles que ChatGPT pour Google, Sider, Monica, Merlin, MaxAI, Perplexity, HARPA, TinaMind et Copilot de Microsoft. Les chercheurs ont reproduit la navigation quotidienne dans des contextes privés et publics, y compris la lecture d’actualités, le visionnage de YouTube, l’accès à de la pornographie et le remplissage de formulaires fiscaux. Les tests de confidentialité impliquaient des invites spécifiques pour identifier les données collectées. Les extensions ont capturé des images et du contenu textuel englobant les diagnostics médicaux, les numéros de sécurité sociale et les préférences des applications de rencontres. Merlin a transmis ses coordonnées bancaires et ses dossiers de santé à des destinations externes. Merlin et Sider AI ont capturé l’activité même en modes de navigation privée. L’analyse du décryptage du trafic a montré que plusieurs assistants transmettaient le contenu des pages Web à leurs serveurs et trackers tiers. Sider et TinaMind ont transmis les invites des utilisateurs et les détails d’identification tels que les adresses IP à Google Analytics, facilitant ainsi le suivi des utilisateurs sur plusieurs sites. Le Copilot de Microsoft a conservé les historiques de discussion des sessions précédentes en arrière-plan du navigateur, persistant d’une utilisation à l’autre. Google, Copilot, Monica, ChatGPT et Sider ont analysé l’activité des utilisateurs pour créer des profils basés sur l’âge, le sexe, le revenu et les intérêts, en les appliquant pour des réponses personnalisées sur plusieurs sessions. Parmi les assistants testés, Perplexity a démontré les mesures de confidentialité les plus strictes. Il n’avait pas la capacité de rappeler les interactions précédentes et ses serveurs évitaient d’accéder aux données personnelles dans les espaces de navigation privés. Perplexity traitait toujours les titres de page et les informations de localisation des utilisateurs. La transition des extensions vers les navigateurs autonomes met en évidence les problèmes persistants en matière de confidentialité. Atlas d’OpenAI et Comet de Perplexity, les principaux navigateurs d’IA, présentent des pratiques de collecte de données. OpenAI déclare qu’Atlas analyse le contenu de manière sélective, mais cette sélectivité exclut les considérations de confidentialité. Le chatbot traite toutes les images et tous les textes du site Web. Les principales fonctionnalités d’Atlas reposent sur des fonctions de mémoire facultatives qui conservent les descriptions de l’historique de navigation pour personnaliser les interactions des utilisateurs. Les utilisateurs ne peuvent pas spécifier quels éléments du site Web le navigateur récupère. La page d’aide d’OpenAI décrit les étapes d’atténuation : suppression de pages de l’interface de discussion, blocage des URL sensibles de l’accès au chatbot et effacement de l’historique de navigation. Comet de Perplexity conserve l’historique de recherche sur les appareils locaux des utilisateurs plutôt que sur les serveurs de l’entreprise. Il accède aux URL, au texte, aux images, aux requêtes de recherche, à l’historique des téléchargements et aux cookies pour prendre en charge les opérations de base. Le mode agent de Comet et l’outil de recherche personnel Memory exploitent l’historique de recherche et les préférences pour l’exécution des tâches. Le navigateur demande des autorisations pour les comptes Google, couvrant les e-mails, les contacts, les paramètres et les calendriers. Il prend en charge les intégrations opt-in avec des tiers. Les experts en sécurité conseillent de limiter la barre latérale du chatbot aux pages Web non sensibles. Perplexity fournit une explication détaillée des paramètres de données sur son site Web. Une fois stockées sur les serveurs de l’entreprise IA, les données des utilisateurs échappent au contrôle individuel. Les fournisseurs réutilisent ces données pour former de grands modèles de langage, souvent sans consentement explicite. Des pratiques similaires se produisent sur les réseaux sociaux, le commerce électronique, les moteurs de recherche et les plateformes de messagerie via des accords opaques et des opt-ins par défaut. Les navigateurs accèdent à des informations particulièrement sensibles. OpenAI a répondu à 105 demandes de données du gouvernement américain au cours du premier semestre 2025. Atlas propose deux options d’utilisation des données. La valeur par défaut « Améliorer le modèle pour tout le monde » permet à OpenAI d’incorporer des informations de page Web dans la formation ChatGPT lors des requêtes du chatbot. « Inclure la navigation Web » intègre l’historique de navigation complet dans les ensembles de données de formation. OpenAI anonymise les données avant l’utilisation du modèle, bien que les détails sur les limites de l’anonymisation restent limités. Les utilisateurs peuvent désactiver les deux paramètres. Les navigateurs IA sont confrontés à d’importantes vulnérabilités de sécurité en raison de leur conception opérationnelle. Les attaques par injection rapide permettent aux pirates d’intégrer des instructions malveillantes dans les systèmes backend. Les navigateurs IA ont du mal à les différencier des entrées légitimes, risquant ainsi d’extraire les identifiants de connexion, les coordonnées bancaires et les données personnelles. L’étude de Brave d’octobre 2025, menée par son équipe de recherche sur la confidentialité, a identifié les injections rapides comme un défi systémique pour les navigateurs IA, augmentant les risques de phishing. LayerX Security a signalé que les utilisateurs de Perplexity Comet sont confrontés à une vulnérabilité 85 % plus élevée à de telles attaques que les utilisateurs de Google Chrome. Dane Stuckey, directeur de l’information d’OpenAI, a déclaré sur X que l’injection rapide « reste un problème de sécurité frontalier et non résolu ». Le billet de blog de Perplexity appelle les sociétés d’IA à commencer à « repenser la sécurité de fond en comble ».





