Ami Luttwak, technologue en chef de la société de cybersécurité Wiz, a récemment expliqué comment l’adoption rapide de l’intelligence artificielle change fondamentalement les cyberattaques. En intégrant l’IA, les entreprises créent par inadvertance de nouvelles opportunités pour les acteurs malveillants et élargissent leur surface d’attaque d’entreprise. Luttwak décrit la cybersécurité comme un «jeu d’esprit», une interaction dynamique où toute nouvelle vague technologique présente de nouvelles opportunités pour les attaquants. La prolifération actuelle de l’IA introduit de nouvelles vulnérabilités que les professionnels de la sécurité doivent courir pour comprendre.
L’intégration de l’IA crée de nouvelles vulnérabilités
Les entreprises incorporent l’IA dans leurs flux de travail via des techniques comme le « codage d’ambiance » (en utilisant des invites en langage naturel pour générer du code), le déploiement d’agents d’IA autonomes et l’adoption de nouveaux outils alimentés par l’IA. Bien que ceux-ci augmentent la productivité, chaque nouveau modèle ou nouveau outil représente un point d’entrée potentiel pour les attaquants. La vitesse du développement axé sur l’IA est un principal moteur du risque. La possibilité d’expédier du code plus rapidement peut entraîner des raccourcis, ce qui fait que les développeurs négligent les étapes de sécurité critiques telles que les avis de code rigoureux et la configuration sécurisée. Les tests effectués par Wiz sur les applications construits à l’aide du codage d’ambiance ont révélé un problème récurrent: la mise en œuvre en insécurité des systèmes d’authentification. « Les agents de codage d’ambiance font ce que vous dites, et si vous ne leur disiez pas de le construire de la manière la plus sécurisée, ce n’est pas le cas », a expliqué Luttwak. Parce que les modèles d’IA manquent de conscience de sécurité inhérente, ils produisent du code fonctionnel basé sur l’invite, qui est souvent structurellement peu sûr, sauf si le développeur spécifie explicitement les exigences de sécurité détaillées.
Les attaquants utilisent également l’IA
Les attaquants adoptent les mêmes technologies avec un enthousiasme égal. Ils utilisent un codage d’ambiance pour générer des logiciels malveillants, en utilisant des techniques basées sur des attaques de phishing et le déploiement de leurs propres agents d’IA pour automatiser les exploits. L’utilisation offensive de l’IA devient de plus en plus directe, les attaquants utilisant désormais des invites pour attaquer les propres systèmes d’IA d’une organisation. En manipulant les invites introduites dans le chatbot ou l’agent IA interne d’une entreprise, un attaquant peut inciter le système à exécuter des commandes destructrices ou à exfiltrant des données sensibles.
Attaques de chaîne d’approvisionnement et exemples du monde réel
Cette dynamique crée une forme dangereuse d’attaque de chaîne d’approvisionnement. Les outils d’IA tiers nécessitent souvent un large accès aux données de l’entreprise pour fonctionner. Si un attaquant compromet l’un de ces services, il peut hériter de ses prolongations approfondies pour pivoter profondément dans l’infrastructure du client.
- Branche dérivante: Les attaquants ont violé Drift, une startup vendant des chatbots d’IA, exposant les données Salesforce des clients d’entreprise. Ils ont utilisé des clés numériques volées pour usurper l’identité du chatbot d’IA de l’entreprise, qui avait un accès légitime aux environnements clients. Luttwak a confirmé que le code d’attaque lui-même avait été créé à l’aide du codage d’ambiance.
- Attaque de S1ingularité: Cette attaque a ciblé le système de construction NX utilisé par les développeurs JavaScript. Les attaquants ont injecté des logiciels malveillants conçus pour détecter et détourner des outils de développement alimentés en AI comme Claude et Gemini, en les utilisant pour scanner de manière autonome des systèmes compromis pour des données et des informations d’identification précieuses.
Malgré l’adoption de l’IA dans l’entreprise à ses débuts – estimée à environ 1% – Wiz observe déjà des attaques impliquées de l’IA « chaque semaine qui ont un impact sur des milliers de clients d’entreprise ».
Conseils pour les startups et les entreprises
Luttwak met en garde les entreprises contre la configuration de données critiques à de nouvelles petites entreprises SaaS qui peuvent ne pas avoir de pratiques de sécurité matures. Il soutient que les startups doivent fonctionner comme des organisations sécurisées depuis leur création. « Dès le premier jour, vous devez penser à la sécurité et à la conformité », a-t-il conseillé, recommandant que les startups embauchent un CISO même s’ils n’ont que cinq employés. L’établissement de processus sécurisés et l’obtention de la conformité comme SOC2 est beaucoup plus gérable pour une petite équipe que de la moderniser plus tard. Il a également souligné l’importance de l’architecture, conseillant des startups d’IA à la conception de systèmes qui permettent aux données des clients de rester dans l’environnement du client, atténuant considérablement le risque d’exfiltration de données.





