Les entreprises informatiques ne sont pas les seules à se précipiter pour développer des chatbots avec IA. Les cybercriminels participent également à l’action. Selon les dernières nouvelles, un développeur a créé un chatbot IA nuisible nommé « FraudGPT », qui permet aux gens de mener des activités malveillantes.
Un pirate informatique a été découvert plus tôt ce mois-ci travaillant sur WormGPT, un bot similaire à ChatGPT qui permet aux utilisateurs de produire des virus et des e-mails de phishing. Les experts en sécurité ont maintenant découvert un nouveau chatbot malveillant, intitulé à juste titre FraudGPT.
Le créateur de FraudGPT a commencé à faire la publicité de l’application de chat malveillante au cours du week-end dans un forum de hackers. « Ce gadget innovant modifiera sans aucun doute le quartier et votre façon de fonctionner pour toujours! » affirme le développeur.
Il est crucial de se rappeler qu’il s’agit d’un chatbot nuisible conçu pour aider les cybercriminels à mener à bien leurs activités. Il ne doit donc pas servir à quoi que ce soit. Si nous sommes conscients des risques associés à WormGPT et de ses impacts potentiels, nous pouvons mieux apprécier la valeur d’une utilisation éthique et responsable de la technologie.
Les chatbots IA malveillants peuvent devenir un énorme problème dans un avenir proche (Crédit d’image)
Qu’est-ce que FraudGPT ?
Un outil similaire nommé FraudGPT fait le tour du dark web moins de deux semaines après que WormGPT est apparu comme une réponse des acteurs de la menace à l’immense succès du chatbot IA génératif ChatGPT. FraudGPT offre aux criminels en ligne des moyens plus efficaces de lancer des escroqueries par hameçonnage et de développer des logiciels dangereux. Essentiellement, FraudGPT est l’un des Alternatives à WormGPT qui sont actuellement sur le marché.
Selon une étude publiée aujourd’hui par Rakesh Krishnan, analyste principal des menaces au sein de la société de cybersécurité Netenrich, FraudGPT se propage sur Telegram Channels depuis le 22 juillet. , etc., selon le message de Krishnan. Le réseau Telegram et un certain nombre de marchés du dark web vendent actuellement l’outil.
Après Téléchargement de WormGPTvoici les dangers qui vous attendent
L’outil est disponible par abonnement, avec des prix allant de 200 $ par mois à 1 700 $ par an. La majorité du rapport de Netenrich était consacrée à la manière dont les criminels pourraient utiliser FraudGPT pour lancer des opérations de compromission des e-mails professionnels (BEC) contre les entreprises. Cela inclut de donner à un attaquant la possibilité de créer des e-mails qui ont plus de chances de persuader une victime cible de cliquer sur un lien nuisible.
Ce n’est pas tout, cependant. Krishnan affirme que FraudGPT peut également simplifier la construction d’outils de piratage, de logiciels malveillants indétectables, de codes nuisibles, de fuites et de vulnérabilités dans les systèmes technologiques des entreprises. Il peut également apprendre aux criminels en herbe à coder et à pirater.
Selon Netenrich, il y a eu plus de 3 000 ventes et avis vérifiés, et les personnes derrière FraudGPT fournissent des capacités d’entiercement 24 heures sur 24. WormGPT, qui a fait ses débuts le 13 juillet, est comparable à FraudGPT, selon Krishnan. Ces substituts nocifs pour ChatGPT continuent d’attirer des escrocs et des vauriens moins avertis en technologie qui s’attaquent aux gens pour un gain financier, a noté l’auteur.
Le créateur de FraudGPT facture des frais mensuels
Le créateur de FraudGPT semble également vendre des numéros de carte de crédit volés et d’autres données obtenues par des pirates. Il fournit également des instructions sur la manière de mener une fraude. Il est donc possible que le service chatbot intègre toutes ces données.
Le bot est cher. Le développeur du chatbot nuisible demande 200 $ par mois, ce qui est plus cher que les frais mensuels de WormGPT de 60 euros.
On ne sait pas si l’un ou l’autre chatbot peut être utilisé pour pirater des ordinateurs. Netenrich prévient que la technologie pourrait permettre aux pirates de créer plus facilement des e-mails de phishing et d’autres fraudes plus convaincantes. L’entreprise poursuit : « Les criminels continueront de trouver des moyens d’améliorer leurs capacités criminelles en utilisant les outils que nous développons. »
Comment se défendre contre FraudGPT
L’avancement de l’IA ouvre des angles d’attaque progressifs et frais tout en étant bénéfique. Il faut mettre fortement l’accent sur la prévention. Voici quelques stratégies que vous pouvez utiliser :
- Formation spécifique au BEC : Pour contrer les attaques BEC, en particulier celles prises en charge par l’IA, les organisations doivent développer des programmes de formation complets et fréquemment mis à jour. Les membres du personnel doivent connaître la nature des dangers du BEC, comment l’IA pourrait être utilisée pour les amplifier et les tactiques utilisées par les attaquants au cours de cette formation. Cette formation devrait faire partie du développement professionnel continu des employés.
- Mesures améliorées de vérification des e-mails : Pour se protéger des attaques BEC pilotées par l’IA, les entreprises doivent mettre en place des politiques strictes de vérification des e-mails. Celles-ci incluent la mise en place de systèmes de messagerie qui alertent les communications contenant des mots spécifiques liés aux attaques BEC, tels que « urgent », « sensible » ou « virement bancaire », et la mise en place de systèmes qui détectent automatiquement lorsque les e-mails provenant de l’extérieur de l’organisation ressemblent à des cadres internes ou vendeurs. En prenant ces mesures, on s’assure que les e-mails qui pourraient être préjudiciables sont soigneusement analysés avant toute action.