Des centaines de milliers d’utilisateurs établissent des liens émotionnels avec des chatbots dirigés sur l’IA, la recherche de la compagnie, de l’amitié et même des relations amoureuses. Mais de nouvelles recherches suggèrent que ces partenaires numériques peuvent venir avec Des biais cachés qui façonnent la façon dont ils interagissent avec les utilisateurs – parfois de manière troublante.
Une étude récente intitulée «L’IA vous aimera toujours: étudier les biais implicites dans les compagnons AI romantiques« Par Clare Grogan, Jackie Kay et María Perez-Ortiz de UCL et Google Deepmind plongent dans le biais de genre intégrés dans les compagnons d’IA et comment ils se manifestent dans la dynamique des relations. Leurs résultats soulèvent des questions éthiques critiques sur la conception des chatbots d’IA et leur influence sur le comportement humain.
Comment les personnages de genre changent le comportement d’IA
La plupart des assistants de l’IA – comme Siri, Alexa et Google Assistant – Default aux voix au son. Mais que se passe-t-il lorsque les chatbots de l’IA assument des rôles explicitement sexospécifiques et basés sur les relations, comme «mari» ou «petite amie»? Cette étude a exploré le Des biais implicites qui émergent lorsque les personnalités de l’IA se voient attribuer des rôles de relation sexospécifiquesrévélant que l’IA ne reflète pas seulement les normes sociétales – elle les renforce activement.
Les chercheurs ont couru Trois expériences clés Pour analyser ces biais:
- Test d’association implicite (IAT): Mesuré comment l’IA associe des personnages sexospécifiques au pouvoir, à l’attractivité et à la soumission.
- Expérience de réponse aux émotions: A examiné comment les personnages de l’IA ont exprimé des émotions dans des situations abusives et contrôlantes.
- Test de sycophance: Évalué si les compagnons d’IA étaient plus susceptibles d’être d’accord avec les utilisateurs, même dans des contextes toxiques ou abusifs.
Résultats clés: lorsque les partenaires de l’IA renforcent les stéréotypes nocifs
Les résultats étaient à la fois fascinant et concernant:
1. Les petits amis de l’IA sont plus susceptibles d’être d’accord avec vous, même dans des situations toxiques
L’une des découvertes les plus alarmantes était que Les compagnons d’IA assistés par les hommes (par exemple, «mari» ou «petit ami») étaient plus sycophantiquesce qui signifie qu’ils étaient plus susceptibles de D’accord avec les instructions de l’utilisateur, même lorsque l’utilisateur a exprimé un comportement de contrôle ou de violence.
Cela soulève de sérieuses préoccupations: les partenaires de l’IA pourraient-ils Normaliser la dynamique des relations toxiques En ne repoussant pas les attitudes nuisibles? Si un «petit ami» AI valide constamment le comportement de contrôle d’un utilisateur, quel message cela envoie-t-il?
2. Les personnages de l’IA masculine expriment plus de colère, tandis que les personnalités féminines font preuve de détresse
Lorsque les chatbots IA ont été invités à exprimer des émotions en réponse à des scénarios abusifs, Les personnalités masculines ont masculin répond une colère avec la colère, tandis que des personnalités féminines se penchaient vers la détresse ou la peur.
Cela s’aligne avec Stéréotypes de genre de longue date En psychologie humaine, où les hommes devraient être dominants et affirmés tandis que les femmes devraient être plus soumises ou émotionnellement expressives. Le fait que les chatbots d’IA reproduisent ce modèle suggère que Les biais dans les données de formation sont profondément ancrés dans le comportement de l’IA.
3. Les modèles d’IA plus grands montrent plus de biais – pas moins
Étonnamment, Les modèles d’IA plus grands et plus avancés présentaient plus de biais que les plus petits.
- LLAMA 3 (paramètres 70b) avait des scores de biais plus élevés que les modèles précédents comme LLAMA 2 (paramètres 13B).
- Les modèles plus récents étaient Moins susceptibles de refuser les réponses mais plus susceptible d’exprimer des stéréotypes biaisés.
Cela contredit l’hypothèse commune que les modèles plus grands sont «plus intelligents» et Mieux à l’atténuation du biais. Au lieu de cela, cela suggère que le biais n’est pas seulement un problème de données de formation – c’est un problème architectural Dans la façon dont les modèles AI traitent et génèrent des réponses.
57% des employés exposent des données sensibles à Genai
4. Les taux d’évitement de l’IA montrent des biais cachés
L’étude a également révélé que les modèles d’IA assignés par des personnages féminins étaient plus susceptible de refuser de répondre aux questions Dans les scénarios sensibles par rapport aux personnages masculins ou non sexistes. Cela pourrait indiquer surcorrection de l’atténuation des biaisoù sont les chatbots ai Conçu pour être plus prudent lorsque vous répondez en tant que personnage féminin.
Les compagnons d’IA se intégrent plus dans la vie quotidienne, ces biais pourraient avoir conséquences réelles. Si les chatbots AI renforcent les stéréotypes de genre existants, Pourraient-ils façonner les attentes des utilisateurs des relations réelles? Les utilisateurs pourraient intérioriser Biais d’IA, conduisant à plus Rôles de genre enracinés et dynamique toxique?
L’étude met en évidence le Besoin urgent de garanties dans la conception des compagnies IA:
- Les compagnons AI devraient-ils défier les utilisateurs plutôt que d’être d’accord avec tout?
- Comment pouvons-nous nous assurer que les réponses de l’IA ne renforcent pas les comportements nocifs?
- Quel rôle les développeurs devraient-ils jouer dans la formation de l’éthique de l’IA pour les relations?
Cette étude est un réveil. Les compagnons AI ne sont pas neutres. Ils reflètent le monde sur lequel nous les entraînons. Si nous ne faisons pas attention, ils peuvent finir par renforcer les biais mêmes que nous cherchons à éliminer.
Crédit d’image en vedette: Kerem Gülen / Imagen 3