L’intelligence artificielle (IA) transforme rapidement de nombreux secteurs, de la santé et de la finance aux transports et au divertissement. Cependant, parallèlement à son potentiel indéniable, les inquiétudes grandissent quant aux vulnérabilités de sécurité des modèles d’IA. En réponse, un nouveau projet de loi est en cours d’examen au Sénat, visant à renforcer la sécurité de l’IA et à prévenir les violations.
Ce nouveau projet de loi sur la sécurité de l’IA, intitulé Loi sur l’intelligence artificielle sécuriséea été présenté par les sénateurs Mark Warner (D-VA) et Thom Tillis (R-NC).
La loi propose une approche à deux volets en matière de sécurité de l’IA :
- Création d’une base de données centrale pour suivre les violations de l’IA.
- Créer un centre de recherche dédié au développement de techniques de contre-IA.
Construire un réseau de détection des violations pour l’IA
L’une des principales caractéristiques de la loi sur l’intelligence artificielle sécurisée est la création d’une base de données nationale sur la sécurité de l’IA. violations. Cette base de données, supervisée par le National Institute of Standards and Technology (NIST) et la Cybersecurity and Infrastructure Security Agency (CISA), fonctionnerait comme un référentiel central pour enregistrer les incidents impliquant des systèmes d’IA compromis. La loi impose également l’inclusion des « quasi-accidents » dans la base de données, dans le but de capturer non seulement les attaques réussies, mais également les incidents évités de justesse qui peuvent offrir des informations précieuses en matière de prévention.
L’inclusion des quasi-accidents est un aspect remarquable du projet de loi. Les bases de données traditionnelles sur les failles de sécurité se concentrent souvent uniquement sur les incidents confirmés. Cependant, les quasi-accidents peuvent être tout aussi utiles pour comprendre les faiblesses potentielles de la sécurité. En capturant ces incidents rapprochés, la base de données peut fournir une image plus complète du paysage des menaces liées à l’IA, permettant aux chercheurs et aux développeurs d’identifier et de traiter les vulnérabilités avant qu’elles ne soient exploitées.
« Alors que nous continuons à saisir toutes les opportunités qu’offre l’IA, il est impératif que nous continuions à nous protéger contre les menaces posées par – et pour – cette nouvelle technologie, et le partage d’informations entre le gouvernement fédéral et le secteur privé joue un rôle crucial. »
– Le sénateur Mark Warner
Un centre dédié à la lutte contre les menaces IA
La loi sur l’intelligence artificielle sécurisée propose la création d’un centre de sécurité de l’intelligence artificielle au sein de la National Security Agency (NSA). Ce centre aurait pour mission de diriger des recherches sur «contre-IA» techniques, essentiellement des méthodes permettant de manipuler ou de perturber les systèmes d’IA. Comprendre ces techniques est crucial pour développer des défenses efficaces contre les acteurs malveillants qui pourraient chercher à exploiter les vulnérabilités de l’IA.
La loi met l’accent sur quatre principales techniques de lutte contre l’IA :
- Empoisonnement des données
- Attaques d’évasion
- Attaques basées sur la confidentialité
- Attaques d’abus
Empoisonnement des données consiste à introduire des données corrompues dans l’ensemble de données d’entraînement d’un modèle d’IA, dans le but de fausser les sorties du modèle. Attaques d’évasion impliquent de manipuler les entrées d’un système d’IA de manière à permettre à l’attaquant de contourner ses mesures de sécurité. Attaques basées sur la confidentialité exploiter les failles dans la manière dont les systèmes d’IA traitent les données personnelles. Enfin, attaques d’abus impliquent une utilisation abusive des fonctionnalités légitimes d’un système d’IA à des fins malveillantes.
En recherchant ces techniques de contre-IA, le Centre de sécurité de l’intelligence artificielle peut aider à développer des stratégies pour atténuer leur impact. Cette recherche peut éclairer la création de meilleures pratiques pour le développement, le déploiement et la maintenance de l’IA, conduisant finalement à des systèmes d’IA plus robustes et plus sécurisés.
La création d’une base de données nationale sur les violations et d’un centre de recherche dédié peut fournir des informations et des outils précieux pour créer des systèmes d’IA plus sécurisés.
Il s’agit cependant d’une question complexe pour laquelle il n’existe pas de solutions faciles.
Le développement de techniques efficaces de contre-IA peut également poser des défis, car ces méthodes pourraient potentiellement être utilisées à des fins défensives et offensives.
Le succès de la Secure Artificial Intelligence Act dépendra de sa mise en œuvre et de la collaboration continue entre les agences gouvernementales, le secteur privé et la communauté des chercheurs. À mesure que l’IA continue d’évoluer, notre approche pour la sécuriser doit également évoluer.
Le nouveau projet de loi sur la sécurité de l’IA fournit un cadre pour aller de l’avant, mais une vigilance et une adaptation continues seront nécessaires pour garantir que l’IA reste une force du bien.
Crédit image en vedette: Pawel Czerwinski/Unsplash