Une nouvelle étude publiée dans Comportement humain remet en question l’hypothèse dominante selon laquelle l’intelligence artificielle générative se comporte de manière cohérente dans différentes langues, révélant à la place que les grands modèles linguistiques (LLM) présentent des tendances culturelles distinctes selon qu’ils sont demandés en anglais ou en chinois. Les chercheurs Jackson G. Lu et Lu Doris Zhang ont examiné deux modèles majeurs, GPT d’OpenAI et ERNIE de Baidu, et ont découvert que le langage de l’invite modifie efficacement la « personnalité culturelle » de l’IA, influençant la façon dont elle interprète les informations, évalue les options et formule des recommandations stratégiques.
La recherche a utilisé des cadres de psychologie culturelle pour mesurer deux concepts principaux : l’orientation sociale et le style cognitif. Lorsqu’ils étaient interrogés en anglais, les deux modèles affichaient une orientation sociale « indépendante », valorisant l’autonomie et l’autonomie, ainsi qu’un style cognitif « analytique », caractérisé par un recours à la logique formelle et au raisonnement basé sur des règles. À l’inverse, lorsqu’ils sont sollicités en chinois, les modèles ont évolué vers une orientation « interdépendante » mettant l’accent sur l’harmonie sociale et la conformité, parallèlement à un style cognitif « holistique » qui donne la priorité au contexte et aux relations plutôt qu’aux objets focaux.
Ces divergences se sont manifestées dans des scénarios commerciaux pratiques. Par exemple, lorsqu’on lui demande d’expliquer le comportement d’une personne, les invites en anglais conduisent l’IA à attribuer des actions à la personnalité de l’individu, tandis que les invites en chinois aboutissent à des attributions basées sur le contexte social. Dans une tâche de marketing, les modèles ont préféré les slogans mettant l’accent sur le bien-être individuel lorsqu’ils étaient interrogés en anglais, mais ont favorisé ceux mettant l’accent sur le bien-être collectif lorsqu’ils étaient interrogés en chinois. L’étude note que la simple traduction d’une campagne générée en anglais pour un marché chinois pourrait donc entraîner une inadéquation culturelle qui ferait échouer le message.
Toutefois, les chercheurs ont constaté que ces biais ne sont pas immuables. En utilisant des « invites culturelles » – comme demander explicitement à l’IA d’adopter le point de vue d’une personne moyenne vivant en Chine – les utilisateurs pourraient recalibrer les réponses anglaises du modèle pour imiter les modèles interdépendants et holistiques habituellement observés dans les réponses chinoises. Pour gérer ces préjugés cachés, les auteurs conseillent aux dirigeants organisationnels de traiter le choix de la langue comme une décision stratégique, d’aligner les langues d’invite sur le contexte culturel du public cible et d’utiliser les incitations culturelles pour guider le raisonnement de l’IA vers des informations plus appropriées.





