Le Threat Intelligence Group (GTIG) de Google a identifié une escalade significative de l’utilisation malveillante de l’intelligence artificielle. Les adversaires n’utilisent plus seulement l’IA pour des tâches de productivité comme la rédaction d’e-mails de phishing ; ils déploient désormais de nouveaux logiciels malveillants qui utilisent activement l’IA lors d’une attaque pour modifier dynamiquement son comportement. Cette nouvelle phase d’abus de l’IA implique ce que Google appelle l’IA « juste à temps ». Pour la première fois, GTIG a identifié des familles de logiciels malveillants qui utilisent des modèles LLM (Large Language Models) en cours d’exécution. Ces outils peuvent générer dynamiquement des scripts malveillants ou masquer leur propre code à la volée pour échapper à la détection, plutôt que de s’appuyer sur des fonctions codées en dur. Le rapport détaille plusieurs nouveaux malware familles utilisant cette technique. « PROMPTSTEAL », qui a été observé lors d’opérations actives, est un mineur de données qui interroge une API Hugging Face auprès d’un LLM pour générer des commandes Windows permettant de collecter des informations système. « QUIETVAULT », également vu dans la nature, est un voleur d’informations d’identification qui utilise les outils AI CLI installés sur la machine de la victime pour rechercher des secrets supplémentaires. Un autre malware, « FRUITSHELL », contient des invites codées en dur spécialement conçues pour contourner l’analyse des systèmes de sécurité alimentés par LLM. Google a également identifié des logiciels malveillants expérimentaux, notamment « PROMPTFLUX », un compte-gouttes qui utilise l’API Google Gemini pour réécrire à plusieurs reprises son propre code source afin de rester caché, et « PROMPTLOCK », un ransomware de preuve de concept qui génère dynamiquement des scripts malveillants lors de l’exécution. Le rapport du GTIG révèle également que les acteurs de la menace adaptent les techniques d’« ingénierie sociale » pour contourner les garde-fous de sécurité de l’IA. Google a observé des acteurs se faisant passer pour des étudiants dans un concours de « capture du drapeau » ou pour des chercheurs en cybersécurité afin de persuader Gemini de fournir des informations, telles que de l’aide au développement d’outils, qui autrement seraient bloquées. Les acteurs parrainés par l’État, notamment ceux de Corée du Nord, d’Iran et de République populaire de Chine (RPC), continuent d’utiliser l’IA comme Gemini pour améliorer toutes les étapes de leurs opérations, depuis la reconnaissance et la création de leurres de phishing jusqu’au développement d’une infrastructure de commandement et de contrôle (C2). En outre, Google note que le marché clandestin des outils d’IA illicites a mûri en 2025, offrant des outils multifonctionnels qui abaissent la barrière à l’entrée pour les attaquants moins sophistiqués. Google a déclaré qu’il perturbait activement cette activité en désactivant les projets et les comptes associés à ces acteurs. La société a souligné qu’elle améliorait continuellement ses modèles, y compris Gemini, pour les rendre moins susceptibles d’être utilisés à mauvais escient et qu’elle appliquait l’intelligence pour renforcer ses classificateurs de sécurité.





