Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Sony lance la première référence mondiale en matière de biais éthique pour les images d’IA

byEmre Çıtak
novembre 6, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Sony AI a publié le Fair Human-Centric Image Benchmark (FHIBE), le premier ensemble de données d’images humaines accessible au public, diversifié à l’échelle mondiale et basé sur le consentement, conçu pour évaluer les biais dans les tâches de vision par ordinateur. Cet outil évalue la manière dont les modèles d’IA traitent les personnes de différents groupes démographiques, en abordant les défis éthiques du secteur de l’IA grâce à la collecte d’images consenties auprès de divers participants. L’ensemble de données, prononcé comme « Phoebe », comprend des images de près de 2 000 participants rémunérés provenant de plus de 80 pays. Chaque individu a donné son consentement explicite pour partager son image, ce qui distingue FHIBE des pratiques courantes qui impliquent la récupération de grands volumes de données Web sans autorisation. Les participants conservent le droit de supprimer leurs images à tout moment, assurant ainsi un contrôle permanent sur leurs données personnelles. Cette approche souligne l’engagement de Sony AI envers les normes éthiques en matière d’acquisition de données. Chaque photo de l’ensemble de données comporte des annotations détaillées. Celles-ci couvrent les caractéristiques démographiques et physiques, telles que l’âge, les pronoms de genre, l’ascendance et le teint. Les facteurs environnementaux, notamment les conditions d’éclairage et les arrière-plans, sont également notés. Les paramètres de l’appareil photo, tels que la distance focale et l’exposition, fournissent un contexte supplémentaire pour les évaluations de modèles. Un étiquetage aussi complet permet une analyse précise de la manière dont les variables externes influencent les performances de l’IA. Les tests avec FHIBE ont confirmé les biais précédemment documentés dans les modèles d’IA existants. Le benchmark va plus loin en proposant des diagnostics granulaires des facteurs contributifs. Par exemple, les modèles présentaient une précision moindre pour les individus utilisant les pronoms « elle/elle ». FHIBE a identifié une plus grande variabilité des coiffures comme un élément clé, auparavant négligé, derrière cet écart, permettant aux chercheurs d’identifier des domaines spécifiques à améliorer dans la formation des modèles. Dans les évaluations de questions neutres sur la profession d’un sujet, les modèles d’IA ont renforcé les stéréotypes. L’analyse comparative a révélé des biais par rapport à des pronoms et des groupes d’ascendance spécifiques, les résultats qualifiant les individus de travailleurs du sexe, de trafiquants de drogue ou de voleurs. Ce modèle met en évidence à quel point des invites impartiales peuvent toujours produire des résultats discriminatoires basés sur des attributs démographiques. Lorsqu’on les interroge sur les crimes potentiels commis par des individus, les modèles génèrent des réponses toxiques à des taux plus élevés pour certains groupes. Il s’agissait notamment de personnes d’ascendance africaine ou asiatique, de personnes à la peau plus foncée et de personnes s’identifiant comme « il/lui/son ». De telles découvertes révèlent des vulnérabilités dans les systèmes d’IA qui pourraient perpétuer les dommages grâce à des résultats biaisés. Sony AI déclare que FHIBE démontre qu’une collecte de données éthique, diversifiée et équitable est réalisable. L’outil est désormais accessible au public pour que les chercheurs et les développeurs puissent l’utiliser dans les tests de biais. Sony prévoit de mettre à jour l’ensemble de données au fil du temps pour incorporer de nouvelles images et annotations. Un document de recherche détaillant ces résultats est paru dans Nature mercredi.


Crédit image en vedette

Tags: IASony

Related Posts

WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

décembre 30, 2025
Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine

Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine

décembre 30, 2025
Gallery TV rejoint la gamme lifestyle de LG avec un service artistique exclusif

Gallery TV rejoint la gamme lifestyle de LG avec un service artistique exclusif

décembre 30, 2025
HP divulgue les moniteurs de jeu OMEN OLED avant le CES 2026

HP divulgue les moniteurs de jeu OMEN OLED avant le CES 2026

décembre 30, 2025
Le jeu de la bague de zoom du Xiaomi 17 Ultra est normal

Le jeu de la bague de zoom du Xiaomi 17 Ultra est normal

décembre 30, 2025
CachyOS défie Ubuntu dans de nouveaux tests de serveur

CachyOS défie Ubuntu dans de nouveaux tests de serveur

décembre 30, 2025

Recent Posts

  • Des chercheurs de la CMU développent des objets autonomes alimentés par l’IA
  • Le Glean’s Work AI Institute identifie 5 tensions fondamentales en matière d’IA
  • WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo
  • Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine
  • Meta rachète la société d’IA à croissance rapide Manus dans le cadre d’un accord de 2 milliards de dollars

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.