Google a confirmé une vulnérabilité de sécurité impliquant une nouvelle attaque dirigée par l’IA qui peut compromettre les comptes Gmail. La société a noté que la menace « n’est pas spécifique à Google » et met en évidence la nécessité de défenses plus fortes contre les attaques d’injection rapides.
Comment fonctionne l’attaque d’injection rapide
L’attaque utilise des instructions malveillantes cachées à l’intérieur des articles apparemment inoffensifs comme les e-mails, les pièces jointes ou les invitations de calendrier. Bien que ces instructions soient invisibles pour un utilisateur humain, un assistant AI peut les lire et les exécuter. Chercheur Eito miyamura a démontré la vulnérabilité dans une vidéo publiée sur X.
Nous avons obtenu le chatppt pour divulguer vos données de messagerie privées. Tout ce dont vous avez besoin? L’adresse e-mail de la victime. Les agents d’IA comme ChatGpt suivent vos commandes, pas votre bon sens … avec juste votre e-mail, nous avons réussi à exfiltrer toutes vos informations privées.
https://twitter.com/eito_miyamura/status/1966541235306237985 L’attaque peut être déclenchée par une invitation de calendrier spécialement conçue que l’utilisateur n’a même pas besoin d’accepter. Lorsque l’utilisateur demande à son assistant AI d’effectuer une tâche de routine comme la vérification de son calendrier, l’IA lit la commande cachée dans l’invitation. La commande malveillante demande ensuite à l’IA de rechercher les e-mails privés de l’utilisateur et d’envoyer les données à l’attaquant.
Comment protéger votre compte et la réponse de Google
Google avait précédemment averti ce type de menace en juin, déclarant que les instructions intégrées dans des documents ou des invitations de calendrier pourraient demander à l’IA de « exfiltrer les données utilisateur ou exécuter d’autres actions voyoues ». La société met désormais en œuvre des défenses et conseille les utilisateurs sur la façon de se protéger.
- Activez le paramètre « expéditeurs connus » dans Google Calendar: Google déclare qu’il s’agit d’un moyen efficace d’empêcher les invitations malveillantes d’apparaître automatiquement sur votre calendrier. L’attaque est moins susceptible de fonctionner, sauf si l’utilisateur a déjà interagi avec l’attaquant ou modifié ce paramètre par défaut.
- Google formation de ses modèles d’IA pour résister à ces attaques: La société affirme que sa formation avec des données contradictoires a « amélioré considérablement nos défenses contre les attaques d’injection rapide indirectes dans les modèles Gemini 2.5 ».
- De nouveaux modèles de détection sont déployés: Google déploie des modèles d’apprentissage automatique propriétaires qui peuvent détecter et neutraliser les invites malveillantes dans les e-mails et les fichiers avant leur exécution.
Souviens-toiL’IA peut être super intelligente, mais peut être trompée et philée de manière incroyablement stupide pour divulguer vos données.





