Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Google révèle des logiciels malveillants basés sur l’IA utilisant des LLM en temps réel

byKerem Gülen
novembre 12, 2025
in Research
Home Research
Share on FacebookShare on Twitter

Le Threat Intelligence Group (GTIG) de Google a identifié une escalade significative de l’utilisation malveillante de l’intelligence artificielle. Les adversaires n’utilisent plus seulement l’IA pour des tâches de productivité comme la rédaction d’e-mails de phishing ; ils déploient désormais de nouveaux logiciels malveillants qui utilisent activement l’IA lors d’une attaque pour modifier dynamiquement son comportement. Cette nouvelle phase d’abus de l’IA implique ce que Google appelle l’IA « juste à temps ». Pour la première fois, GTIG a identifié des familles de logiciels malveillants qui utilisent des modèles LLM (Large Language Models) en cours d’exécution. Ces outils peuvent générer dynamiquement des scripts malveillants ou masquer leur propre code à la volée pour échapper à la détection, plutôt que de s’appuyer sur des fonctions codées en dur. Le rapport détaille plusieurs nouveaux malware familles utilisant cette technique. « PROMPTSTEAL », qui a été observé lors d’opérations actives, est un mineur de données qui interroge une API Hugging Face auprès d’un LLM pour générer des commandes Windows permettant de collecter des informations système. « QUIETVAULT », également vu dans la nature, est un voleur d’informations d’identification qui utilise les outils AI CLI installés sur la machine de la victime pour rechercher des secrets supplémentaires. Un autre malware, « FRUITSHELL », contient des invites codées en dur spécialement conçues pour contourner l’analyse des systèmes de sécurité alimentés par LLM. Google a également identifié des logiciels malveillants expérimentaux, notamment « PROMPTFLUX », un compte-gouttes qui utilise l’API Google Gemini pour réécrire à plusieurs reprises son propre code source afin de rester caché, et « PROMPTLOCK », un ransomware de preuve de concept qui génère dynamiquement des scripts malveillants lors de l’exécution. Le rapport du GTIG révèle également que les acteurs de la menace adaptent les techniques d’« ingénierie sociale » pour contourner les garde-fous de sécurité de l’IA. Google a observé des acteurs se faisant passer pour des étudiants dans un concours de « capture du drapeau » ou pour des chercheurs en cybersécurité afin de persuader Gemini de fournir des informations, telles que de l’aide au développement d’outils, qui autrement seraient bloquées. Les acteurs parrainés par l’État, notamment ceux de Corée du Nord, d’Iran et de République populaire de Chine (RPC), continuent d’utiliser l’IA comme Gemini pour améliorer toutes les étapes de leurs opérations, depuis la reconnaissance et la création de leurres de phishing jusqu’au développement d’une infrastructure de commandement et de contrôle (C2). En outre, Google note que le marché clandestin des outils d’IA illicites a mûri en 2025, offrant des outils multifonctionnels qui abaissent la barrière à l’entrée pour les attaquants moins sophistiqués. Google a déclaré qu’il perturbait activement cette activité en désactivant les projets et les comptes associés à ces acteurs. La société a souligné qu’elle améliorait continuellement ses modèles, y compris Gemini, pour les rendre moins susceptibles d’être utilisés à mauvais escient et qu’elle appliquait l’intelligence pour renforcer ses classificateurs de sécurité.


Crédit image en vedette

Tags: GoogleIALLMLogiciel malveillant

Related Posts

Les scientifiques découvrent plus de 17 000 nouvelles espèces

Les scientifiques découvrent plus de 17 000 nouvelles espèces

décembre 26, 2025
GPT-5.2 dépasse la référence de doctorat expert avec un score scientifique de 92 %

GPT-5.2 dépasse la référence de doctorat expert avec un score scientifique de 92 %

décembre 24, 2025
Pourquoi DIG AI est l’IA malveillante la plus dangereuse de 2025

Pourquoi DIG AI est l’IA malveillante la plus dangereuse de 2025

décembre 23, 2025
Les batteries sodium-ion se rapprochent d’une charge rapide alors que les chercheurs éliminent les goulots d’étranglement ioniques

Les batteries sodium-ion se rapprochent d’une charge rapide alors que les chercheurs éliminent les goulots d’étranglement ioniques

décembre 19, 2025
Attraper le fantôme de 2 000 milliards de dollars : l’IA réécrit les règles de la criminalité financière

Attraper le fantôme de 2 000 milliards de dollars : l’IA réécrit les règles de la criminalité financière

décembre 15, 2025
Les LLM montrent des préjugés culturels distincts dans les invites en anglais et en chinois

Les LLM montrent des préjugés culturels distincts dans les invites en anglais et en chinois

décembre 15, 2025

Recent Posts

  • Le Qwen Code v0.5.0 d’Alibaba transforme le terminal en un écosystème de développement complet
  • Bethesda vise 600 heures de jeu pour Fallout 5
  • ASUS défend le port d’alimentation mal aligné du RTX 5090 HyperX comme "conception intentionnelle"
  • NVIDIA open source CUDA Tile IR sur GitHub
  • Le PDG de MicroStrategy explique les fondamentaux du Bitcoin "ça ne pourrait pas être mieux"

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.