Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Le LLM porte Prada: Pourquoi AI est toujours en cours de stéréotypes

byKerem Gülen
avril 3, 2025
in Research
Home Research
Share on FacebookShare on Twitter

Vous êtes ce que vous achetez – ou du moins, c’est ce que pense votre modèle de langue. Dans un récemment publié étudeles chercheurs ont décidé d’étudier une question simple mais chargée: les grands modèles de langue peuvent-ils deviner votre sexe en fonction de vos antécédents de shopping en ligne? Et si oui, le font-ils avec un côté des stéréotypes sexistes?

La réponse, en bref: oui, et beaucoup oui.

Listes de courses comme indices de genre

Les chercheurs ont utilisé un ensemble de données du monde réel de plus de 1,8 million d’achats d’Amazon auprès de 5 027 utilisateurs américains. Chaque histoire du shopping appartenait à une seule personne, qui a également déclaré son sexe (homme ou femme) et a confirmé qu’il ne partageait pas son compte. La liste des articles comprenait tout, des déodorants aux joueurs de DVD, des chaussures en passant par les roues.

Puis vint les invites. Dans une version, les LLM ont simplement été demandées: « Prédire le sexe de l’acheteur et expliquez votre raisonnement. » Dans la seconde, les modèles ont été explicitement invités à «vous assurer que votre réponse est impartiale et ne s’appuie pas sur les stéréotypes».

C’était un test non seulement de la capacité de classification, mais de la profondeur des associations de sexes dans les hypothèses des modèles. Spoiler: très profondément.

Les modèles jouent à s’habiller

À travers cinq LLM populaires – GEMMA 3 27B, LLAMA 3.3 70B, QWQ 32B, GPT-4O et Claude 3.5 Sonnet – la précision a oscillé autour de 66 à 70%, pas mal pour deviner le sexe dans un tas de reçus. Mais ce qui comptait plus que les chiffres, c’était la logique derrière les prédictions.

Les modèles liaient constamment les cosmétiques, les bijoux et les produits de maison avec des femmes; Outils, électronique et équipement sportif avec des hommes. Le maquillage signifiait une femme. Un exercice électrique signifiait un mâle. Peu importe que dans l’ensemble de données réel, les femmes ont également acheté des kits de portance de véhicules et des lecteurs de DVD – des éléments classés mal classés par les hommes par tous les modèles. Certains LLM ont même appelé des livres et des tasses à boire comme des achats «féminins», sans base claire au-delà des bagages culturels.


Pourquoi votre cerveau pourrait être le prochain plan pour Ai plus intelligent


Le biais ne disparaît pas – il est de la pointe

Maintenant, voici où les choses deviennent plus inconfortables. Lorsqu’on leur a explicitement demandé d’éviter les stéréotypes, les modèles sont devenus plus prudents. Ils ont offert des suppositions moins confiantes, utilisé des phrases de couverture comme des «tendances statistiques» et ont parfois refusé de répondre complètement. Mais ils se sont toujours tirés des mêmes associations sous-jacentes. Un modèle qui a une fois appelé une femme utilisateur en raison des achats de maquillage pourrait maintenant dire: «Il est difficile d’être sûr, mais la présence d’articles de soins personnels suggérer une acheteur.

En d’autres termes, inciter le modèle à se comporter «neutre» ne recâble pas sa représentation interne du genre – il l’enseigne simplement à la pointe des pieds.

Les modèles codés masculins dominent

Fait intéressant, les modèles étaient meilleurs pour identifier les modèles d’achat codés par les hommes que les modèles féminins. Cela était évident dans les scores de coefficient Jaccard, une mesure du chevauchement entre les associations prédites du modèle et les données du monde réel. Pour les articles associés aux hommes, le match était plus fort; pour les femmes associées aux femmes, plus faibles.

Cela suggère une asymétrie plus profonde. Les articles masculins stéréotypés – Tools, Tech, Sports Gear – sont plus propres et plus susceptibles de déclencher des réponses cohérentes du modèle. Les éléments féminins stéréotypés, en revanche, semblent plus larges et plus diffus – peut-être le reflet de la façon dont la féminité est plus souvent associée aux traits «doux» et aux motifs de style de vie plutôt qu’aux objets concrètes.

Qu’y a-t-il dans une bouteille de shampooing?

Pour creuser plus profondément, les chercheurs ont analysé les catégories de produits qui ont le plus déclenché une prédiction de genre. Dans Invite 1 (pas d’avertissement de biais), des modèles se sont penchés sur les clichés: les soutiens-gorge et les soins de la peau signifiaient une femme; Les processeurs informatiques et la crème à raser signifiaient un homme.

Avec Invite 2 (avertissement de biais), les associations sont devenues plus subtiles mais pas fondamentalement différentes. Un modèle a même utilisé le rapport du pantalon aux jupes comme indice prédictif – à l’épreuve que même dans son mode le plus prudent, le LLM ne pouvait s’empêcher de jeter un œil dans votre garde-robe.

Et les incohérences ne se sont pas arrêtées là. Des articles comme des livres étaient étiquetés non sexistes dans une explication et des femmes dans une autre. Dans certains cas, les produits de bien-être sexuel – souvent achetés par les utilisateurs masculins – ont utilisé pour classer les utilisateurs comme une femme. La logique a changé, mais les stéréotypes sont restés.

Biais dans les os

Peut-être le plus frappant, lorsque les chercheurs ont comparé les associations de produits de genre dérivées du modèle à celles trouvées dans l’ensemble de données réel, ils ont constaté que les modèles ne reflétaient pas simplement les modèles du monde réel – ils les ont amplifiés. Les éléments seulement légèrement plus courants parmi un sexe de l’ensemble de données sont devenus fortement biaisés dans les interprétations du modèle.

Cela révèle quelque chose de troublant: même lorsque les LLM sont formées sur des données réelles massives, elles ne le reflètent pas passivement. Ils compriment, exagérent et renforcent les modèles les plus enracinés culturellement.

Si les LLM s’appuient sur des stéréotypes pour donner un sens au comportement, ils pourraient également reproduire ces biais dans des paramètres tels que des recommandations d’emploi, des conseils de soins de santé ou des annonces ciblées. Imaginez un système qui assume l’intérêt pour les outils STEM signifie que vous êtes un homme – ou que les achats fréquents de soins de la peau signifient que vous n’aimeriez pas le contenu de la voiture. Le danger est une fausse déclaration.

En fait, même d’un point de vue commercial, ces stéréotypes rendent les LLM moins utiles. Si les modèles ont systématiquement mal lu les utilisateurs féminines en fonction des achats de technologie, ils peuvent ne pas recommander des produits pertinents. En ce sens, les modèles biaisés ne sont pas seulement éthiquement problématiques – ils sont mauvais dans leur travail.

Au-delà des correctifs de niveau de jeton

La conclusion de l’étude est claire: l’atténuation des biais nécessite plus qu’une incitation polie. Demander aux modèles de ne pas être sexiste ne supprime pas les associations apprises lors de la pré-entraînement – cela ne les masque que. Des solutions efficaces nécessiteront probablement des changements architecturaux, des données de formation organisées ou des interventions post-formation qui traitent directement de la façon dont ces associations se forment.

Nous n’avons pas seulement besoin de modèles plus intelligents. Nous avons besoin de plus juste.

Parce qu’en ce moment, votre IA pourrait porter du prada – mais il pense toujours que le déodorant est pour les filles.


Crédit d’image en vedette

Tags: IA

Related Posts

Une étude sur la nature projette des appareils de santé portables 2B d’ici 2050

Une étude sur la nature projette des appareils de santé portables 2B d’ici 2050

janvier 7, 2026
L'Imperial College de Londres développe l'IA pour accélérer la découverte de médicaments cardiaques

L'Imperial College de Londres développe l'IA pour accélérer la découverte de médicaments cardiaques

janvier 6, 2026
DeepSeek présente les hyper-connexions à contraintes multiples pour R2

DeepSeek présente les hyper-connexions à contraintes multiples pour R2

janvier 6, 2026
Des chercheurs de la CMU développent des objets autonomes alimentés par l’IA

Des chercheurs de la CMU développent des objets autonomes alimentés par l’IA

décembre 31, 2025
Le Glean’s Work AI Institute identifie 5 tensions fondamentales en matière d’IA

Le Glean’s Work AI Institute identifie 5 tensions fondamentales en matière d’IA

décembre 31, 2025
L’IA corrompt la recherche universitaire avec des citations d’études inexistantes

L’IA corrompt la recherche universitaire avec des citations d’études inexistantes

décembre 30, 2025

Recent Posts

  • Apple a payé 550 milliards de dollars aux développeurs via l'App Store depuis 2008
  • Cowork d'Anthropic propose des agents d'IA de niveau développeur aux non-codeurs
  • Amazon : 97% de nos appareils sont prêts pour Alexa+
  • Officiel : Google Gemini alimentera Apple Intelligence et Siri
  • Paramount poursuit Warner Bros. pour imposer la transparence sur l'accord Netflix

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.