La technologie de maison intelligente change pour toujours, et l’une de ses applications les plus percutantes est Reconnaissance de l’activité humaine (HAR). HAR permet aux systèmes intelligents de surveiller les activités quotidiennes telles que la cuisine, le sommeil ou l’exercice, fournissant un soutien essentiel dans des domaines comme les soins de santé et la vie assistée. Cependant, bien que les modèles d’apprentissage en profondeur aient une précision considérablement améliorée, ils fonctionnent souvent comme des «boîtes noires», offrant peu de transparence dans leur processus décisionnel.
Pour y remédier, les chercheurs de l’Université de Milan – Michele Fiori, Davide Mor, Gabriele Civitarais et Claudio Bettini – ont présenté Gnn-xarle premier Réseau de neurones graphiques explicable (GNN) pour la reconnaissance de l’activité de la maison intelligente. Ce modèle innovant améliore non seulement les performances de HAR, mais génère également des explications lisibles par l’homme pour ses prédictions.
La nécessité d’une IA explicable dans les maisons intelligentes
La plupart des systèmes HAR existants reposent sur des modèles d’apprentissage en profondeur tels que Réseaux de neurones convolutionnels (CNN) et réseaux de neurones récurrents (RNN). Bien que efficaces, ces modèles ont du mal à expliquer, ce qui rend difficile les utilisateurs – y compris les professionnels de la santé et les scientifiques des données – de comprendre pourquoi une activité spécifique a été détectée. AI explicable (xai) cherche à atténuer cela en fournissant des informations sur les décisions du modèle, en améliorant la confiance et la convivialité dans les applications du monde réel.
Les réseaux de neurones graphiques (GNNS) sont devenus un outil puissant pour modéliser les données des capteurs de séries chronologiques dans les maisons intelligentes, comme ils peuvent Capturez les relations spatiales et temporelles entre les lectures des capteurs. Cependant, les approches HAR à base de GNN existantes manquent d’explicabilité intégrée. C’est là que GNN-XAR se différencie, offrant une solution innovante qui combine HAR basé sur un graphique avec mécanismes d’interprétabilitéce qui en fait le premier du genre sur le terrain.
Emo-Attack: Comment les emojis peuvent tromper les modèles de langue AI
Comment fonctionne GNN-XAR
GNN-XAR présente un roman approche basée sur le graphique au traitement des données du capteur. Au lieu de traiter les lectures des capteurs comme des événements isolés, il construit des graphiques dynamiques Ce modèle de relations entre différents capteurs au fil du temps. Chaque graphique est traité à l’aide d’un Réseau de convolution graphique (GCN)qui identifie l’activité la plus probable réalisée. Pour assurer la transparence, un adapté Technique xai spécialement conçue pour GNNS met en évidence les nœuds les plus pertinents (lectures de capteurs) et les arcs (dépendances temporelles) qui ont contribué à la prédiction finale.
Le Processus de construction du graphique est une innovation clé dans GNN-XAR. Les événements du capteur – comme les détections de mouvement, l’utilisation des appareils et les ouvertures de porte – sont représentés comme des nœuds, tandis que les bords capturent leurs relations temporelles et spatiales. Le système distingue deux types de capteurs:
- Capteurs d’interaction explicites (par exemple, capteurs de porte de l’armoire), qui génèrent des événements à la fois sur et hors.
- Capteurs passifs (par exemple, des détecteurs de mouvement), où seuls les événements d’activation comptent et la durée est calculée.
Pour maintenir la structure et l’efficacité, le système introduit super-nodes ce groupe lié à des événements de capteur. Cela permet au modèle GNN de traiter les interactions de capteurs complexes tout en maintenant les calculs gérables.
Comment GNN-XAR explique ses décisions
Contrairement aux modèles traditionnels d’apprentissage en profondeur, qui ne fournissent que des sorties de classification, les utilisations GNN-XAR Gnneplaiteurune méthode XAI spécialisée adaptée aux modèles basés sur des graphiques. Cette méthode identifie les nœuds et les bords les plus importants qui ont influencé une prédiction. L’innovation clé dans GNN-XAR est son adaptation de GNNExplainer pour travailler de manière transparente avec les données de la maison intelligente, garantissant que les explications sont toutes deux précis et lisible par l’homme.
Par exemple, si le système prédit la «préparation des repas», il peut mettre en évidence des événements tels que ouvertures répétées de réfrigérateur suivie d’une activation du poêlefournissant une justification logique et compréhensible pour sa classification. Le modèle convertit ensuite cette explication en langage naturel, ce qui le rend accessible aux utilisateurs non experts.
Résultats expérimentaux
GNN-XAR a été testé sur deux ensembles de données Smart Home publics –Casas Milan et Casas Aruba—Que contiennent des données de capteurs de maisons réelles. Le modèle a été évalué contre Dexarun système HAR explicable de pointe qui utilise des méthodes basées sur CNN. Les résultats ont montré que GNN-XAR a non seulement fourni Prédictions plus précises mais aussi généré explications plus significatives par rapport aux méthodes HAR à base de XAI existantes.
Les principales conclusions comprennent:
- Précision de reconnaissance légèrement plus élevée que Dexar, en particulier pour les activités avec de fortes dépendances temporelles (par exemple, «quitter la maison»).
- Explicabilité supérieuretel que mesuré par une méthode d’évaluation à l’aide de modèles de langue importants (LLMS) pour évaluer la clarté et la pertinence des explications.
- Amélioration de la gestion des relations de capteurs complexespermettant des performances HAR plus fiables.
Crédit d’image en vedette: Ihor Saveliev / Unsplash