La société de sécurité Radware a découvert une vulnérabilité zéro cliquez sur, «Shadowleak», dans l’agent de recherche en profondeur de Chatgpt. Le défaut permet le vol de données des serveurs d’Openai car les entreprises utilisent de plus en plus l’IA pour analyser les e-mails sensibles et les rapports internes. L’adoption de ces plateformes d’IA présente de nouveaux risques de sécurité lors de la gestion des informations commerciales confidentielles. Shadowleak est un exploit côté serveur, ce qui signifie qu’une attaque s’exécute entièrement sur les serveurs d’Openai. Ce mécanisme permet aux attaquants d’exfiltrer des données sensibles sans nécessiter d’interaction utilisateur, fonctionnant complètement secrètement. David Aviv, directeur de la technologie chez Radware, l’a classé comme «l’attaque par excellence en clic zéro». Il a déclaré: «Il n’y a pas d’action utilisateur requise, pas de signal visible, et aucun moyen pour les victimes de connaître leurs données a été compromis. Tout se passe entièrement dans les coulisses grâce à des actions d’agent autonome sur les serveurs de cloud Openai.» Cet exploit fonctionne indépendamment des points de terminaison des utilisateurs ou des réseaux d’entreprise, ce qui rend la détection par les équipes de sécurité d’entreprise extrêmement difficiles. Les chercheurs de Radware ont démontré que l’envoi d’un e-mail avec des instructions cachées pourrait déclencher l’agent de recherche en profondeur, ce qui les a fait divulguer des informations de manière autonome à l’insu de l’utilisateur. Pascal Geenens, directeur de la cyber-menace Intelligence chez Radware, a averti que les protections internes sont insuffisantes. « Les entreprises adoptant l’IA ne peuvent pas compter sur des garanties intégrées seules pour prévenir les abus », a déclaré Geenens. «Les workflows axés sur l’IA peuvent être manipulés d’une manière non encore anticipée, et ces vecteurs d’attaque contournent souvent les capacités de visibilité et de détection des solutions de sécurité traditionnelles.» Shadowleak représente la première attaque d’exfiltration de données purement côté serveur, qui ne laisse presque aucune preuve légale du point de vue commercial. Avec ChatGPT signalant plus de 5 millions d’utilisateurs commerciaux payants, l’ampleur potentielle de l’exposition est substantielle. Ce manque de preuves complique les efforts de réponse aux incidents. Les experts soulignent que la surveillance humaine et les contrôles d’accès stricts sont essentiels lors de la connexion des agents d’IA autonomes à des données sensibles. Il est conseillé aux organisations d’évaluer en continu les lacunes de sécurité et de combiner la technologie avec des pratiques opérationnelles. Les mesures de protection recommandées comprennent:
- Mise en œuvre des défenses en cybersécurité en couches.
- Surveillance régulièrement des workflows axés sur l’IA pour une activité inhabituelle ou des fuites de données.
- Déploiement de solutions antivirus pour protéger contre les logiciels malveillants traditionnels.
- Maintenir une protection robuste des ransomwares pour protéger les informations.
- Appliquer des contrôles d’accès stricts et des autorisations utilisateur pour les outils d’IA.
- Assurer la surveillance humaine lorsque les agents d’IA autonomes traitent des informations sensibles.
- Implémentation de l’exploitation forestière et de l’audit de l’activité des agents IA pour identifier tôt les anomalies.
- Intégration d’outils d’IA supplémentaires pour la détection d’anomalies et les alertes de sécurité automatisées.
- Éduquer les employés sur les menaces liées à l’IA et les risques autonomes d’agent.
- Combiner les défenses logicielles, les pratiques opérationnelles et la vigilance continue.





