Microsoft a révélé une faille de confidentialité, Fuite de murmurepermettant de surveiller les connexions Internet pour déduire des sujets de conversation de chatbot IA, malgré le cryptage, affectant la confidentialité des utilisateurs. La vulnérabilité exploite le modèle de flux de données entre les utilisateurs et les services d’IA. Même si le contenu réel reste crypté, le rythme et la taille des paquets de données fournissent suffisamment d’informations pour permettre une estimation éclairée des sujets de conversation. Ce processus est analogue au discernement d’une activité à travers une fenêtre dépolie en observant des schémas de mouvement. Whisper Leak analyse à la fois la taille et le timing des paquets de données cryptés pour déduire des sujets de discussion. Les recherches menées par les experts en sécurité Microsoft Jonathan Bar Or et Geoff McDonald, ainsi que par l’équipe de recherche sur la sécurité de Microsoft Defender, indiquent que cette vulnérabilité provient du fait que les chatbots IA affichent des réponses mot par mot. Cette fonctionnalité de streaming, conçue pour un flux de conversation naturel, crée par inadvertance un risque pour la vie privée. L’attaque fonctionne en examinant la taille et le timing des paquets de données. Les entités capables de surveiller le trafic Internet, notamment les agences gouvernementales au niveau des FAI, les pirates informatiques des réseaux locaux ou les individus utilisant des réseaux Wi-Fi partagés, pourraient utiliser cette technique. Ils n’ont pas besoin de décrypter le contenu des conversations. Pour démontrer la vulnérabilité, les chercheurs de Microsoft ont formé des programmes informatiques utilisant l’IA pour reconnaître les modèles de conversation. Ces programmes ont testé les chatbots IA de Mistral, xAI, DeepSeek et OpenAI, identifiant correctement les sujets de conversation spécifiques avec plus de 98 % de précision. L’efficacité de Whisper Leak augmente avec une utilisation prolongée. À mesure qu’un attaquant rassemble davantage d’exemples de conversations spécifiques à un sujet, son logiciel de détection s’améliore. La surveillance de plusieurs conversations d’une seule personne améliore encore la précision. Microsoft a déclaré que des adversaires patients disposant de ressources suffisantes pourraient atteindre des taux de réussite supérieurs au chiffre initial de 98 %. Les principaux fournisseurs d’IA s’attaquent à ce problème. Suite au rapport de Microsoft, OpenAI, Microsoft et Mistral ont mis en œuvre une solution : ajouter du charabia aléatoire de différentes longueurs aux réponses. Ce rembourrage perturbe les schémas sur lesquels s’appuient les attaquants, neutralisant ainsi l’attaque. Cette contre-mesure est comparable à l’ajout d’électricité statique aléatoire à un signal radio. Le message reste clair pour le destinataire, mais l’analyse du modèle de transmission devient difficile en raison du bruit introduit. Pour les utilisateurs préoccupés par la confidentialité des chatbots IA, Microsoft recommande plusieurs précautions :
- Évitez de discuter de sujets sensibles sur des réseaux Wi-Fi publics ou non fiables.
- Utiliser un réseau privé virtuel (VPN)qui chiffre le trafic via un tunnel.
- Vérifiez si votre service d’IA dispose de protections contre Whisper Leak; OpenAI, Microsoft et Mistral ont déployé des correctifs.
- Envisager des alternatives à l’assistance de l’IA pour des questions extrêmement sensibles, ou reporter les discussions jusqu’à ce qu’un réseau plus sécurisé soit disponible.





