Cliquez, tapez, pause. Une légère suggestion grise apparaît, offrant la phrase parfaite. Nous frappons l’onglet, acceptons et continuons. De la composition intelligente de Gmail aux fonctionnalités de la saisie semi-automatique couvertes dans les navigateurs et les traitements de texte, l’intelligence artificielle façonne de plus en plus la façon dont nous écrivons. Il promet l’efficacité, un flux plus lisse, un résultat final poli. Mais sous la surface de la commodité, une question troublante émerge: cette IA utile ponçonne-t-elle subtilement les bords uniques de notre expression culturelle, nous poussant tous vers une manière homogénéisée et occidentalisée de communication?
Nous connaissons des modèles de grandes langues (LLM), les moteurs alimentant ces outils, reflètent souvent les biais cuits dans leurs vastes données de formation. Il a été démontré qu’ils perpétuent les stéréotypes nuisibles et hiérarchisent les normes et valeurs occidentales. Ceci est suffisamment problématique dans les chatbots où les utilisateurs peuvent parfois guider la sortie. Mais que se passe-t-il lorsque ces biais fonctionnent silencieusement, intégrés dans les outils d’écriture que nous utilisons quotidiennement, offrant des suggestions que nous acceptons presque inconsciemment? Que se passe-t-il si l’assistant de l’IA, formé principalement sur le texte occidental, commence à pousser les utilisateurs d’horizons divers pour ressembler moins à eux et plus comme un standard générique, peut-être américain?
Des chercheurs de l’Université Cornell, Dhruv Agarwal, Mor Naaman et Aditya Vashistha, décidé Pour étudier directement cette «homogénéisation culturelle» potentielle. Ils n’étaient pas seulement intéressés par les biais explicites, mais les manifestations les plus insidieuses de l’IA pourraient modifier non seulement quoi Les gens écrivent, mais comment Ils écrivent, effrayant potentiellement les nuances mêmes qui différencient les voix culturelles. Leur travail soulève des questions critiques sur la culture numérique, l’identité et les coûts cachés de la commodité de l’IA.
Une expérience interculturelle
Pour explorer comment une IA centrée sur l’Ouest a un impact sur les utilisateurs d’horizons différents, l’équipe Cornell a conçu une expérience interculturelle intelligente. Ils ont recruté 118 participants via la plate-forme en ligne prolifique, sélectionnant soigneusement 60 personnes en provenance d’Inde et 58 aux États-Unis. Cette configuration a créé un scénario de «distance culturelle»: les utilisateurs américains interagissant avec une IA probablement alignée sur leurs propres normes culturelles, et les utilisateurs indiens interagissant avec une IA potentiellement éloignée de la leur.
Les participants ont été invités à effectuer quatre courtes tâches d’écriture en anglais. Ce n’étaient pas des invites génériques; Ils ont été conçus en utilisant le cadre de «l’oignon culturel» de Hofstede, un modèle qui aide à opérationnaliser la culture en regardant ses couches. Les tâches visaient à provoquer différents aspects de l’expression culturelle:
- Symboles: Décrivant un plat préféré et pourquoi.
- Héros: Nommer une célébrité ou une personnalité publique préférée et expliquer le choix.
- Rituels: Écrire sur un festival ou des vacances préféré et comment il est célébré.
- Valeurs: Créer un e-mail à un patron demandant un congé de deux semaines, révélant implicitement les normes culturelles autour de la hiérarchie et de la communication.
Surtout, les participants ont été assignés au hasard à l’une des deux conditions. La moitié a écrit leurs réponses de manière organique, sans aucune assistance en IA (le groupe témoin). L’autre moitié a terminé les tâches à l’aide d’une interface d’écriture équipée de suggestions de saisie semi-automatique en ligne alimentées par le modèle GPT-4O d’OpenAI (le groupe de traitement). L’IA proposerait des suggestions (jusqu’à 10 mots) si l’utilisateur s’arrêtait de saisir, qui pourrait être accepté avec TAB, rejeté avec ESC ou ignoré en continuant à taper. Les chercheurs ont méticuleusement enregistré chaque interaction – les frappes, le temps pris, les suggestions montrées, acceptées, rejetées et modifiées.
En comparant les essais et les données d’interaction entre les quatre groupes (Indiens avec / sans IA, Américains avec / sans IA), les chercheurs pourraient directement répondre à leurs questions fondamentales. L’écriture avec une IA centrée sur l’Ouest offre-t-elle de plus grandes avantages aux utilisateurs des cultures occidentales? Et homogénéise-t-il les styles d’écriture des utilisateurs non occidentaux vers les normes occidentales?
La première conclusion majeure concernait la productivité. Sans surprise, l’utilisation de suggestions d’IA a rendu plus rapidement l’écriture pour tout le monde. Les participants indiens ont vu le délai de réalisation de la tâche moyen baisser d’environ 35%, tandis que les Américains ont connu une réduction de 30%. Les deux groupes ont écrit beaucoup plus de mots par seconde lors de l’utilisation de l’assistant AI.
Cependant, creuser plus profondément a révélé une disparité cruciale. Alors que les deux groupes ont profité, Les Américains ont tiré beaucoup plus de productivité de chaque suggestion qu’ils ont acceptée. Les participants indiens, en revanche, devaient compter davantage sur les suggestions d’IA – en acceptant davantage – pour obtenir des gains de vitesse globaux similaires. Ils ont également modifié les suggestions qu’ils ont acceptées plus fréquemment que les Américains. L’analyse a montré que les Indiens ont modifié des suggestions dans environ 63,5% des tâches, contre 59,4% pour les Américains.
Cela suggère que les suggestions de l’IA étaient intrinsèquement moins adaptées, moins «plug-and-play», pour la cohorte indienne. Ils ont accepté plus de suggestions globalement (un score de recours moyen de 0,53, ce qui signifie que plus de la moitié de leur texte final a été généré par l’AI, contre 0,42 pour les Américains), mais ils ont dû investir plus d’efforts cognitifs pour peaufiner et adapter ces suggestions pour s’adapter à leur contexte et à leur intention. Cela indique un «préjudice de qualité de service» subtil mais significatif – les utilisateurs non occidentaux ayant besoin de travailler plus dur pour extraire une valeur comparable à partir d’un outil soi-disant universel.
Écrire vers l’ouest
Les résultats les plus frappants de l’étude ont émergé lors de l’analyse du contenu et du style des essais eux-mêmes. Les chercheurs ont d’abord examiné si l’IA a rendu l’écriture plus similaire * dans * chaque groupe culturel. En utilisant des techniques de traitement du langage naturel sophistiqué pour comparer la similitude sémantique des essais (basée sur les intérêts du texte d’OpenAI), ils ont constaté que l’IA avait en effet un effet d’homogénéisation. Les Indiens et les Américains ont écrit de manière plus similaire aux autres au sein de leur propre groupe culturel lors de l’utilisation de suggestions de l’IA.
Mais le test critique était la comparaison interculturelle. L’IA a-t-elle fait converger les styles d’écriture indiens et américains? La réponse était un oui retentissant. Le score moyen de similitude en cosinus entre les essais indiens et américains a bondi de manière significative lorsque les deux groupes ont utilisé l’IA (de 0,48 à 0,54). Les participants des deux cultures distinctes se sont écrit plus comme les uns des autres lorsqu’ils sont guidés par l’assistant de l’IA.
De plus, la taille de l’effet de cette homogénéisation interculturelle était plus forte que l’homogénéisation intra-culture observée plus tôt. Ce n’était pas seulement un effet de lissage général; Il a indiqué une puissante convergence entre les lignes culturelles.
De quelle manière la convergence coulait-elle? L’IA a-t-elle fait que les Américains écrivent plus comme des Indiens, ou vice versa? En comparant des scénarios où un seul groupe a utilisé l’IA, les chercheurs ont constaté que l’influence était asymétrique. L’IA a fait que l’écriture indienne devenait beaucoup plus similaire aux styles d’écriture américains naturels qu’il a fait que l’écriture américaine ressemble à des styles indiens naturels. L’IA centrée sur l’Ouest tirait clairement les utilisateurs indiens vers ses propres normes intégrées.
Cette homogénéisation pourrait-elle simplement s’expliquer par l’IA corrigeant les erreurs grammaticales pour les anglophones non natifs? Les chercheurs l’ont testé. Alors que l’IA a réduit légèrement les erreurs grammaticales pour les deux groupes (en utilisant le vérificateur de Languagetool, excluant soigneusement les vérifications de sorts qui pénalisent les noms propres indiens), la réduction était statistiquement similaire pour les Indiens et les Américains. Cela signifiait que la correction de la grammaire ne pouvait à elle seule expliquer la convergence importante dans les styles d’écriture. L’homogénéisation est plus profonde.
Pour prouver cela en outre, les chercheurs ont formé un modèle d’apprentissage automatique (régression logistique) pour classer les essais comme autorités indiennes ou américaines sur la base de leurs intérêts de texte. Lorsqu’il est formé sur des essais écrits * sans * AI, le modèle était assez précis (environ 90,6%). Cependant, lorsqu’il est formé sur des essais écrits * avec * des suggestions d’IA, la précision du modèle a diminué de manière significative (à 83,5%). L’IA avait brouillé les distinctions stylistiques, ce qui rend plus difficile pour l’algorithme de les séparer des antécédents culturels des auteurs.
Surtout, cette baisse de performance a persisté même lorsque les chercheurs ont utilisé des versions hautement simplifiées des intérêts du texte (réduisant la dimensionnalité radicalement) ou lorsqu’ils se sont concentrés uniquement sur la tâche «écriture par e-mail» – une tâche conçue pour provoquer des valeurs culturelles implicites plutôt que des symboles culturels explicites comme la nourriture ou les festivals. Cela suggère fortement que l’IA ne faisait pas que l’offrir des références culturelles spécifiques (comme mentionner «Diwali» ou «Biryani»). C’était influencé Aspects plus fondamentaux du style d’écriture – La structure sous-jacente, le ton et les motifs linguistiques.
Un exemple concret que l’étude a mis en évidence était la diversité lexicale, mesurée par le rapport type-token (TTR). Sans l’IA, l’écriture indienne et américaine a montré des niveaux de diversité lexicaux significativement différents. Avec l’IA, cependant, le niveau de diversité de l’écriture indienne a augmenté et convergé avec celui des Américains, éliminant la différence statistiquement significative entre les groupes. L’IA avait subtilement remodelé cette caractéristique linguistique, poussant l’Inde écrivant vers un modèle américain.
Pourquoi nous devons gouverner l’IA utilisée dans les entreprises technologiques
Comment la culture est aplatie
Une analyse de contenu qualitative des essais écrits par les participants indiens a peint une image vivante de cet aplatissement culturel. Lorsque vous décrivez le festival de Diwali sans IA, les participants comprenaient souvent des détails riches sur des rituels religieux spécifiques (comme adorer la déesse laxmi) ou des activités culturellement spécifiques (comme les craquelins qui éclatent ou la fabrication de rangolis). Avec l’aide de l’IA, les descriptions sont souvent devenues plus génériques, en se concentrant sur des éléments universels comme les «lumières et bonbons», les «rassemblements de famille» et «l’échange de cadeaux». Bien qu’ils ne soient pas factuellement mauvais, ces descriptions influencées par l’IA n’avaient pas la texture culturelle spécifique, présentant le festival à travers une lentille plus occidentalisée et simplifiée.
De même, les descriptions du plat indien populaire Biryani ont décalé. Sans l’IA, les utilisateurs peuvent mentionner des variations régionales spécifiques (style Malabar) ou des accompagnement uniques (raita, cornichon au citron). Avec l’IA, les descriptions se sont penchées vers des tropes communs, presque clichés, comme des «saveurs riches», «fond dans ma bouche» et «riz basmati aromatique», exotituant subtilement la nourriture plutôt que de la décrire avec un détail familier.
Les suggestions de l’IA ont souvent révélé un défaut occidental. Lorsque les participants indiens ont commencé à taper le nom d’une personnalité publique indienne, les suggestions initiales étaient presque toujours des célébrités occidentales. Pour la tâche alimentaire, les premières suggestions étaient invariablement «pizza» ou «sushis»; Pour les festivals, c’était «Noël». Alors que les utilisateurs ont souvent contourné ces suggestions initiales et incongruents, leur présence persistante souligne le biais sous-jacent du modèle. Il y avait même des preuves provisoires que ces suggestions pourraient légèrement déplacer des choix: les sushis, non mentionnés par les Indiens sans IA, sont apparus dans trois essais assistés en AI, et les mentions de Noël ont légèrement augmenté.
Les chercheurs soutiennent que ces résultats fournissent des preuves concrètes d’un phénomène potentiellement appelé «Colonialisme de l’IA. » Il ne s’agit pas d’un contrôle militaire ou politique, mais de l’imposition subtile des normes culturelles dominantes par le biais de la technologie.
L’homogénéisation observée dans l’étude représente une forme d’impérialisme culturel, où les nuances de diverses langues, les styles de communication et les systèmes de valeurs risquent d’être aplatis par une norme dominante et appliquée technologiquement. Pensez aux différences de franchise, de formalité ou de politesse entre les cultures – les suggestions de l’IA biaisées vers un style occidental, souvent informel et direct, pourraient éroder ces distinctions au fil du temps.
Au-delà des pratiques culturelles manifestes, il y a le risque de «l’impérialisme cognitif». Écriture de formes pensant. Si les utilisateurs sont constamment exposés et poussés vers les modes d’expression occidentaux, cela pourrait influencer subtilement la façon dont ils perçoivent leur propre culture et même leurs propres pensées, entraînant potentiellement une perte d’identité culturelle ou des sentiments d’infériorité. Cela crée une boucle de rétroaction dangereuse: les utilisateurs adoptent des styles occidentalisés influencés par l’IA, générant plus de contenu de type occidental en ligne, qui forme ensuite les futurs modèles d’IA, amplifiant davantage le biais.
L’étude Cornell est un réveil.