Un rapport alarmant de Kela Research and Strategy Ltd. documente aujourd’hui une augmentation de 200% des mentions d’outils d’intelligence artificielle malveillants dans les forums de cybercriminalité jusqu’en 2024, illustrant à quel point les cybercriminels adoptent rapidement des outils et tactiques d’IA. Les résultats ont été décrits dans le rapport sur les menaces de l’IA de Kela en 2025: comment les cybercriminels arment la technologie de l’IA.
Le rapport repose sur les données de la propre plate-forme de collecte de renseignements de Kela, qui analyse l’activité de la cybercriminalité à travers les forums Web Dark, les canaux télégrammes et par le suivi du comportement des acteurs de la menace.
Au-delà de l’augmentation des mentions d’outils d’IA malveillants, le rapport note une augmentation de 52% des discussions sur les jailbreaks de l’IA au cours de la dernière année. Les acteurs de la cybercriminalité auraient continuellement affiner les techniques de jailbreaking de l’IA pour contourner les restrictions de sécurité dans les systèmes d’IA publics.
Les acteurs de la menace distribuent et monétisent de manière proactive ce que Kela définit comme des «outils d’IA sombres», englobant des modèles jailbreakés et des applications malveillantes spécialisées, telles que Wormgpt et Fraudgpt. Ces outils sont conçus pour exécuter des actions de cybercriminalité comme le phishing, la formation de logiciels malveillants et la fraude financière – qui sont généralement effectués à grande échelle.
Les systèmes d’IA sont conçus pour éliminer les restrictions de sécurité et ajouter des fonctionnalités personnalisées, faisant baisser la barrière des attaquants inexpérimentés pour exécuter des attaques sophistiquées à grande échelle.
Dans le domaine du phishing, les experts notent que les acteurs de la menace tirent parti de l’IA génératrice pour élaborer un solide contenu d’ingénierie sociale, améliorant ces schémas avec un audio et une vidéo DeepFake. Cela améliore la capacité des cybercriminels à usurper l’identité des cadres et à induire les employés en erreur à approuver des transactions frauduleuses.
Kela a également observé que l’IA avait accéléré le développement de logiciels malveillants, permettant la création de ransomwares et d’infostateurs très évasifs. Ce développement pose des difficultés pour les méthodes traditionnelles de détection et de réponse.
«Nous assistons à un changement sismique dans le paysage cyber-menace», a déclaré Yael Kishon, leader des produits et de la recherche sur l’IA à Kela. «Les cybercriminels n’utilisent pas seulement l’IA – ils construisent des sections entières dans l’écosystème souterrain dédié à la cybercriminalité alimentée par l’IA.» Elle a souligné que «les organisations doivent adopter des défenses axées sur l’IA pour lutter contre cette menace croissante». Pour rester en avance à l’escalade des cybermenaces alimentées par l’IA, Kela conseille d’investir dans la formation des employés.
KELA recommande de surveiller les menaces et les tactiques d’IA émergentes et la mise en œuvre de mesures de sécurité alimentées par l’IA telles que l’équipe rouge basée sur l’intelligence et les émulations adversares pour les modèles d’IA génératifs.
Ce rapport indique clairement que la course aux armements entre les innovateurs de cybercriminalité et les experts en sécurité oblige un engagement nuancé et proactif. Si les organisations doivent utiliser une IA générative pour contrer une IA générative dans le phishing, tant pis, mais il est troublant à quel point les méthodes conventionnelles sont dépassées si les mauvais acteurs restent sans contrôle.
Le saut alarmant des bavardages en ligne axés sur l’IA révèle que les cybercriminels n’adoptent pas simplement l’IA mais perfectionnent leurs méthodes de piratage d’IA. C’est encore pire que l’armement du code externe, car maintenant les ennemis sont efficacement des mesures de sécurité inverse d’ingénierie. C’est un long match, mais les cybercriminels exploitent un objectif ouvert pour le moment et demandent l’action maintenant.
L’augmentation du nombre de méthodes de jailbreak citées l’emporte considérablement sur les contre-interventions.
Aidées par des outils ciblés présentant des applications sophistiquées dans des domaines tels que DeepFake Technology et le développement de logiciels malveillants, ces cybercriminels ajoutent une autre couche de complexité pour les sociétés d’application de la loi et de sécurité.
L’avertissement de Kela ne peut pas être ignoré pendant beaucoup plus longtemps où les développeurs, bons ou mauvais, se concentrent sur la création de kits d’outils pour exploiter les logiciels AI et s’attaquer aux problèmes de cybersécurité importants. Pour l’instant, l’écosystème souterrain s’est concentré sur la cybercriminalité alimentée par l’IA.
Malgré le fait que davantage de ces tactiques reposent sur l’ingénierie sociale, les employés – qui sont connus pour être le lien de cybersécurité le plus faible – n’investissent toujours pas dans des outils d’IA aussi souvent qu’ils le devraient. Ce problème sera intensifié lorsque les dirigeants de l’entreprise doivent accéder à ces mécanismes.