Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

KELA: MALICIEUX AI SCHATTER OUTBUMPS CYBERCRIRMINE SCHATTER DE 200%

byKerem Gülen
mars 27, 2025
in Cybersecurity, News
Home Cybersecurity
Share on FacebookShare on Twitter

Un rapport alarmant de Kela Research and Strategy Ltd. documente aujourd’hui une augmentation de 200% des mentions d’outils d’intelligence artificielle malveillants dans les forums de cybercriminalité jusqu’en 2024, illustrant à quel point les cybercriminels adoptent rapidement des outils et tactiques d’IA. Les résultats ont été décrits dans le rapport sur les menaces de l’IA de Kela en 2025: comment les cybercriminels arment la technologie de l’IA.

Le rapport repose sur les données de la propre plate-forme de collecte de renseignements de Kela, qui analyse l’activité de la cybercriminalité à travers les forums Web Dark, les canaux télégrammes et par le suivi du comportement des acteurs de la menace.

Au-delà de l’augmentation des mentions d’outils d’IA malveillants, le rapport note une augmentation de 52% des discussions sur les jailbreaks de l’IA au cours de la dernière année. Les acteurs de la cybercriminalité auraient continuellement affiner les techniques de jailbreaking de l’IA pour contourner les restrictions de sécurité dans les systèmes d’IA publics.

Les acteurs de la menace distribuent et monétisent de manière proactive ce que Kela définit comme des «outils d’IA sombres», englobant des modèles jailbreakés et des applications malveillantes spécialisées, telles que Wormgpt et Fraudgpt. Ces outils sont conçus pour exécuter des actions de cybercriminalité comme le phishing, la formation de logiciels malveillants et la fraude financière – qui sont généralement effectués à grande échelle.

Les systèmes d’IA sont conçus pour éliminer les restrictions de sécurité et ajouter des fonctionnalités personnalisées, faisant baisser la barrière des attaquants inexpérimentés pour exécuter des attaques sophistiquées à grande échelle.

Dans le domaine du phishing, les experts notent que les acteurs de la menace tirent parti de l’IA génératrice pour élaborer un solide contenu d’ingénierie sociale, améliorant ces schémas avec un audio et une vidéo DeepFake. Cela améliore la capacité des cybercriminels à usurper l’identité des cadres et à induire les employés en erreur à approuver des transactions frauduleuses.

Kela a également observé que l’IA avait accéléré le développement de logiciels malveillants, permettant la création de ransomwares et d’infostateurs très évasifs. Ce développement pose des difficultés pour les méthodes traditionnelles de détection et de réponse.

«Nous assistons à un changement sismique dans le paysage cyber-menace», a déclaré Yael Kishon, leader des produits et de la recherche sur l’IA à Kela. «Les cybercriminels n’utilisent pas seulement l’IA – ils construisent des sections entières dans l’écosystème souterrain dédié à la cybercriminalité alimentée par l’IA.» Elle a souligné que «les organisations doivent adopter des défenses axées sur l’IA pour lutter contre cette menace croissante». Pour rester en avance à l’escalade des cybermenaces alimentées par l’IA, Kela conseille d’investir dans la formation des employés.


Les pirates ont désormais une boîte à outils pour les violations du compte de masse: cela s’appelle Atlantis AIO


KELA recommande de surveiller les menaces et les tactiques d’IA émergentes et la mise en œuvre de mesures de sécurité alimentées par l’IA telles que l’équipe rouge basée sur l’intelligence et les émulations adversares pour les modèles d’IA génératifs.

Ce rapport indique clairement que la course aux armements entre les innovateurs de cybercriminalité et les experts en sécurité oblige un engagement nuancé et proactif. Si les organisations doivent utiliser une IA générative pour contrer une IA générative dans le phishing, tant pis, mais il est troublant à quel point les méthodes conventionnelles sont dépassées si les mauvais acteurs restent sans contrôle.

Le saut alarmant des bavardages en ligne axés sur l’IA révèle que les cybercriminels n’adoptent pas simplement l’IA mais perfectionnent leurs méthodes de piratage d’IA. C’est encore pire que l’armement du code externe, car maintenant les ennemis sont efficacement des mesures de sécurité inverse d’ingénierie. C’est un long match, mais les cybercriminels exploitent un objectif ouvert pour le moment et demandent l’action maintenant.

L’augmentation du nombre de méthodes de jailbreak citées l’emporte considérablement sur les contre-interventions.

Aidées par des outils ciblés présentant des applications sophistiquées dans des domaines tels que DeepFake Technology et le développement de logiciels malveillants, ces cybercriminels ajoutent une autre couche de complexité pour les sociétés d’application de la loi et de sécurité.

L’avertissement de Kela ne peut pas être ignoré pendant beaucoup plus longtemps où les développeurs, bons ou mauvais, se concentrent sur la création de kits d’outils pour exploiter les logiciels AI et s’attaquer aux problèmes de cybersécurité importants. Pour l’instant, l’écosystème souterrain s’est concentré sur la cybercriminalité alimentée par l’IA.

Malgré le fait que davantage de ces tactiques reposent sur l’ingénierie sociale, les employés – qui sont connus pour être le lien de cybersécurité le plus faible – n’investissent toujours pas dans des outils d’IA aussi souvent qu’ils le devraient. Ce problème sera intensifié lorsque les dirigeants de l’entreprise doivent accéder à ces mécanismes.


Crédit d’image en vedette

Tags: IAKela

Related Posts

Bluesky lance le badge Live Now et les cashtags dans une mise à jour majeure

Bluesky lance le badge Live Now et les cashtags dans une mise à jour majeure

janvier 16, 2026
Samsung réorganise Mobile Gaming Hub pour réparer la découverte de jeux cassés

Samsung réorganise Mobile Gaming Hub pour réparer la découverte de jeux cassés

janvier 16, 2026
La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

janvier 16, 2026
Capcom révèle le gameplay de Resident Evil Requiem et la date de sortie de février

Capcom révèle le gameplay de Resident Evil Requiem et la date de sortie de février

janvier 16, 2026
Paramount+ augmente les prix des abonnements et met fin aux essais gratuits pour 2026

Paramount+ augmente les prix des abonnements et met fin aux essais gratuits pour 2026

janvier 16, 2026
Le Sénat américain critique les géants de la technologie "défaut" garde-corps deepfake

Le Sénat américain critique les géants de la technologie "défaut" garde-corps deepfake

janvier 16, 2026

Recent Posts

  • Réparation de 20 $ de Verizon : comment réclamer votre crédit de panne aujourd'hui
  • Anthropic nomme Irina Ghose, vétéran de Microsoft, pour diriger l'expansion en Inde
  • Bluesky lance le badge Live Now et les cashtags dans une mise à jour majeure
  • Netflix conclut un accord mondial de 7 milliards de dollars pour une sélection de films de Sony Pictures
  • Samsung réorganise Mobile Gaming Hub pour réparer la découverte de jeux cassés

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.