Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Microsoft découvre Whisper Leak : une faille qui permet d’espionner vos discussions IA

byKerem Gülen
novembre 10, 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Microsoft a révélé une faille de confidentialité, Fuite de murmurepermettant de surveiller les connexions Internet pour déduire des sujets de conversation de chatbot IA, malgré le cryptage, affectant la confidentialité des utilisateurs. La vulnérabilité exploite le modèle de flux de données entre les utilisateurs et les services d’IA. Même si le contenu réel reste crypté, le rythme et la taille des paquets de données fournissent suffisamment d’informations pour permettre une estimation éclairée des sujets de conversation. Ce processus est analogue au discernement d’une activité à travers une fenêtre dépolie en observant des schémas de mouvement. Whisper Leak analyse à la fois la taille et le timing des paquets de données cryptés pour déduire des sujets de discussion. Les recherches menées par les experts en sécurité Microsoft Jonathan Bar Or et Geoff McDonald, ainsi que par l’équipe de recherche sur la sécurité de Microsoft Defender, indiquent que cette vulnérabilité provient du fait que les chatbots IA affichent des réponses mot par mot. Cette fonctionnalité de streaming, conçue pour un flux de conversation naturel, crée par inadvertance un risque pour la vie privée. L’attaque fonctionne en examinant la taille et le timing des paquets de données. Les entités capables de surveiller le trafic Internet, notamment les agences gouvernementales au niveau des FAI, les pirates informatiques des réseaux locaux ou les individus utilisant des réseaux Wi-Fi partagés, pourraient utiliser cette technique. Ils n’ont pas besoin de décrypter le contenu des conversations. Pour démontrer la vulnérabilité, les chercheurs de Microsoft ont formé des programmes informatiques utilisant l’IA pour reconnaître les modèles de conversation. Ces programmes ont testé les chatbots IA de Mistral, xAI, DeepSeek et OpenAI, identifiant correctement les sujets de conversation spécifiques avec plus de 98 % de précision. L’efficacité de Whisper Leak augmente avec une utilisation prolongée. À mesure qu’un attaquant rassemble davantage d’exemples de conversations spécifiques à un sujet, son logiciel de détection s’améliore. La surveillance de plusieurs conversations d’une seule personne améliore encore la précision. Microsoft a déclaré que des adversaires patients disposant de ressources suffisantes pourraient atteindre des taux de réussite supérieurs au chiffre initial de 98 %. Les principaux fournisseurs d’IA s’attaquent à ce problème. Suite au rapport de Microsoft, OpenAI, Microsoft et Mistral ont mis en œuvre une solution : ajouter du charabia aléatoire de différentes longueurs aux réponses. Ce rembourrage perturbe les schémas sur lesquels s’appuient les attaquants, neutralisant ainsi l’attaque. Cette contre-mesure est comparable à l’ajout d’électricité statique aléatoire à un signal radio. Le message reste clair pour le destinataire, mais l’analyse du modèle de transmission devient difficile en raison du bruit introduit. Pour les utilisateurs préoccupés par la confidentialité des chatbots IA, Microsoft recommande plusieurs précautions :

  • Évitez de discuter de sujets sensibles sur des réseaux Wi-Fi publics ou non fiables.
  • Utiliser un réseau privé virtuel (VPN)qui chiffre le trafic via un tunnel.
  • Vérifiez si votre service d’IA dispose de protections contre Whisper Leak; OpenAI, Microsoft et Mistral ont déployé des correctifs.
  • Envisager des alternatives à l’assistance de l’IA pour des questions extrêmement sensibles, ou reporter les discussions jusqu’à ce qu’un réseau plus sécurisé soit disponible.

Crédit image en vedette

Tags: fuite de murmureMicrosoft

Related Posts

Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

janvier 20, 2026
Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

janvier 20, 2026
Cibles OpenAI "adoption pratique" pour la stratégie 2026

Cibles OpenAI "adoption pratique" pour la stratégie 2026

janvier 20, 2026
Tesla relance le projet de supercalculateur Dojo3 alors que la puce AI5 se stabilise

Tesla relance le projet de supercalculateur Dojo3 alors que la puce AI5 se stabilise

janvier 20, 2026
Allégation : NVIDIA a donné le feu vert au téléchargement de livres piratés pour la formation en IA

Allégation : NVIDIA a donné le feu vert au téléchargement de livres piratés pour la formation en IA

janvier 20, 2026
Google Workspace ajoute l'édition de fichiers Office protégée par mot de passe

Google Workspace ajoute l'édition de fichiers Office protégée par mot de passe

janvier 20, 2026

Recent Posts

  • Netflix passe à une offre entièrement en espèces pour Warner Bros. Discovery
  • Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer
  • Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde
  • Cibles OpenAI "adoption pratique" pour la stratégie 2026
  • Comment l'IA a créé le malware VoidLink en seulement sept jours

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.