Selon une étude menée par Michael Walters (Gaia Lab, Nuremberg, Allemagne), Rafael Kaufmann (Primordia Co., Cascais, Portugal), le juge Sefas (Université de la Colombie-Britannique, BC, Canada) et Thomas Kopinski (Gaia Lab, Fachhochschule Sudwestfalen, Meschede, Allemagne), une nouvelle approche inspirée de la physique de la sécurité de l’IA pourrait rendre les systèmes multi-agents, tels que des véhicules autonomes – plus sûrs.
Leur papier, « Métriques de risque d’énergie gratuites pour une IA systémiquement sûre: étude multi-agents de la porte», Présente une nouvelle méthode de mesure des risques qui améliore la prise de décision dans les systèmes d’IA en prédisant les risques à l’avance et en prenant des mesures préventives.
Quel est le principe d’énergie libre (FEP) et pourquoi est-ce important?
Au cœur de leurs recherches se trouvent le Principe d’énergie libre (FEP)un concept initialement développé en physique. En termes simples, FEP aide à expliquer comment l’équilibre des systèmes Précision (énergie) et simplicité (entropie) Lorsque vous faites des prédictions.
Pensez-y comme ceci: un système d’IA essayant de naviguer dans le monde doit trouver un équilibre entre la collecte d’informations détaillées et l’action efficace. Si le système est trop complexe, il devient difficile à gérer; S’il est trop simple, il peut ignorer les risques critiques. Les auteurs utilisent ce principe pour créer un Nouvelle métrique de risque Cela évite la nécessité de grandes quantités de données ou de modèles trop compliqués, ce qui rend la sécurité de l’IA plus pratique et transparent.
L’IA apprend à conduire comme un humain – en vous regarde paniquer
L’exposition au risque cumulé (CRE) est une façon plus intelligente de mesurer le risque
Les chercheurs proposent un nouveau système de mesure des risques appelée Exposition cumulative au risque (CRE).
En quoi Cre est-elle différente?
- Contrairement aux modèles de risque traditionnelsqui s’appuie sur des modèles mondiaux étendus, Cre permet aux parties prenantes de définir ce que signifie «sûr» en spécifiant les résultats préférés.
- Cela fait Prise de décision transparente et flexiblecar le système s’adapte à différents environnements et besoins.
- Au lieu de compter sur données de capteur excessivesCRE estime le risque à travers des simulations prédictives sur de courts délais.
Cre fournit plus efficace et adaptable moyen d’évaluer les risques dans les systèmes axés sur l’IA, ce qui réduit la dépendance aux calculs à forte intensité de ressources.
Gardiens: ai qui intervient avant que les choses ne tournent mal
Pour appliquer la métrique CRE dans des scénarios du monde réel, les chercheurs introduisent gardiens—Modules qui surveillent les décisions de l’IA et interviennent lorsque cela est nécessaire.
Comment fonctionnent les gardiens?
- Dans le cas des véhicules autonomes, Les gardiens simulent constamment des scénarios futurs possibles pour déterminer le risque.
- S’ils détectent un résultat dangereux, ils Remplacez le mode de conduite actuel du véhicule et basculez-le à un comportement plus sûr.
- Cela permet aux systèmes d’IA de anticiper dangers avant de se produire plutôt que de réagir après coup.
Simulant des routes plus sûres avec des véhicules autonomes
L’étude a testé ce modèle dans un Environnement de conduite simulé. Les chercheurs ont divisé les véhicules en deux groupes:
- « Egos » – Véhicules surveillés et contrôlés par les gardiens.
- « Alters » – Véhicules de fond avec comportement de conduite fixe et prédéfini.
En ce moment simulation routièrecertains véhicules de l’ego étaient autorisés à être contrôlés par des gardiens, tandis que d’autres ne l’ont pas été.
Résultats clés:
- Même lorsque seul un petit nombre de véhicules étaient sous contrôle des gardiens, La sécurité routière globale s’est améliorée.
- Moins de collisions s’est produit, montrant qu’une intervention proactive a fait une différence mesurable.
- Véhicules entretenus vitesses élevées en cas de sécurité mais est passé à la conduite prudente lorsque les niveaux de risque ont augmenté.
Les résultats suggèrent que même adoption partielle de l’IA contrôlée par les gardiens pourrait conduire à des conditions de circulation plus sûres sans compromettre l’efficacité. Alors que l’étude s’est concentrée sur les véhicules autonomes, le Le modèle CRE et Gatekeeper pourrait s’appliquer à de nombreux autres champs dirigés par l’IA.
Les applications potentielles comprennent:
- Robotique: S’assurer que les robots alimentés par l’IA fonctionnent en toute sécurité aux côtés des humains.
- Systèmes de trading financier: Prédire les mouvements de marché à haut risque et les stratégies d’ajustement.
- Automatisation industrielle: Empêcher les machines contrôlées par l’IA de prendre des décisions dangereuses.
Crédit d’image en vedette: Kerem Gülen / Midjourney