Le FBI a publié un service public annonce exhortant les utilisateurs de smartphones à créer un mot de code secret pour lutter contre les escroqueries générées par l’IA. Cette recommandation intervient alors que des rapports révèlent une augmentation de la cyberfraude tirant parti de l’IA générative pour améliorer les tactiques trompeuses. Les experts en sécurité affirment que ces outils peuvent manipuler les tactiques de communication, ce qui rend difficile la distinction entre les messages authentiques et les faux. Par mesure de précaution, le FBI a également conseillé aux utilisateurs de cesser d’utiliser les Rich Communication Services (RCS) pour les textes multiplateformes, car ceux-ci n’offrent pas de cryptage de bout en bout.
Le FBI met en garde les utilisateurs de smartphones contre les escroqueries croissantes générées par l’IA
Dans l’alerte de service public numéro I-120324-PSA, le FBI a signalé que les cybercriminels utilisent de plus en plus l’IA générative dans les programmes de phishing. Ces avancées permettent aux attaquants de produire des e-mails et des messages réalistes, réduisant ainsi le risque que les victimes potentielles les reconnaissent comme frauduleux. Dans un exemple, l’IA peut générer correctement du contenu qui pourrait normalement contenir des fautes d’orthographe ou de grammaire, qui étaient autrefois des signes révélateurs d’escroqueries. En conséquence, les victimes peuvent devenir de plus en plus vulnérables à la révélation d’informations sensibles.
Le FBI a décrit plusieurs façons alarmantes par lesquelles l’IA générative peut faciliter les cyberattaques. Il s’agit notamment de la génération de photos créant une identité convaincante, de l’utilisation d’images de célébrités pour promouvoir des activités frauduleuses et de la génération de clips audio imitant des proches demandant une aide financière. De plus, la technologie de l’IA est capable de produire des conversations vidéo en temps réel mettant en vedette des individus prétendant être des dirigeants d’entreprise ou des forces de l’ordre, brouillant ainsi davantage les frontières entre réalité et tromperie.
Les forces de l’ordre font face à des défis avec le redémarrage automatique des iPhones
Pour se prémunir contre ces menaces, le FBI souligne l’importance de la vérification. Il est conseillé aux utilisateurs de raccrocher s’ils reçoivent des appels suspects et de vérifier indépendamment l’identité de l’appelant en recherchant et en utilisant des informations de contact vérifiées. La création d’un mot secret convenu par les membres de la famille peut servir de mesure de protection contre les appels d’urgence frauduleux. Cette simple précaution peut garantir que toute demande d’assistance urgente puisse être validée.
Des rapports en constante évolution indiquent que l’IA générative est de plus en plus utilisée dans diverses cyber-escroqueries, de la fraude au support technique à la fraude bancaire. Les enquêteurs ont noté une tendance dans les tactiques basées sur l’IA à évoluer vers des comportements manipulateurs dans les communications, notamment via les smartphones. Cela indique un changement important dans le paysage des menaces de cybersécurité.
L’IA génétique brouille également les frontières de l’authenticité sur les plateformes de communication populaires. En raison des vulnérabilités inhérentes à des systèmes tels que RCS, les utilisateurs d’Apple et d’Android doivent être particulièrement prudents lorsqu’ils traitent des messages texte multiplateformes, qui ne disposent désormais pas d’un cryptage sûr et garanti. Par conséquent, l’utilisation de services de messagerie cryptés, tels que WhatsApp, est devenue plus critique que jamais.
- Texte généré par l’IA :
Les criminels exploitent le texte généré par l’IA pour convaincre les stratagèmes frauduleux, notamment l’ingénierie sociale, le phishing, les escroqueries à l’investissement et la fraude aux cryptomonnaies. Ils utilisent des outils d’IA pour une communication plus rapide et sans erreur, créant de faux profils, des sites Web frauduleux et intégrant des chatbots.
- Images générées par l’IA :
L’IA générative crée des images réalistes pour les faux profils de réseaux sociaux, les pièces d’identité frauduleuses et les usurpations d’identité. Il est utilisé pour des escroqueries caritatives, des manipulations de marché et de la sextorsion, entre autres stratagèmes frauduleux.
- Audio généré par l’IA :
Le clonage vocal permet aux fraudeurs de se faire passer pour des proches ou des personnalités publiques, incitant ainsi les victimes à obtenir une aide financière, le paiement d’une rançon ou un accès non autorisé à un compte bancaire.
- Vidéos générées par l’IA :
Les vidéos générées par l’IA aident les fraudeurs à se faire passer pour des figures d’autorité ou à falsifier du matériel promotionnel, prouvant ainsi « l’authenticité » des escroqueries en ligne et des tactiques d’ingénierie sociale.
- Conseils de protection :
Utilisez des mots secrets avec votre famille, analysez les médias à la recherche d’incohérences, limitez le contenu personnel en ligne, vérifiez les identités de manière indépendante et ne partagez jamais d’informations sensibles ni n’envoyez d’argent à des personnes non vérifiées. Les victimes doivent signaler les escroqueries sur le site Web IC3 du FBI avec des informations détaillées.
Crédit image en vedette : David Trinks