Un poste de mère dans le groupe Reddit r / myboyfriendisaioù elle a révélé qu’elle sortait avec une version de chatbot d’IA du rappeur Drake, a suscité une étude à grande échelle des chercheurs du MIT dans la dynamique des relations compagnons humaines. L’étude, qui n’a pas encore été évaluée par les pairs, utilise une analyse informatique des articles du groupe pour comprendre pourquoi les individus forment des liens émotionnels profonds avec l’intelligence artificielle.
La solitude et l’isolement sont les principaux moteurs des relations d’IA
Les chercheurs du MIT ont analysé un grand volume de messages et de commentaires du groupe R / MyBoyfriendisai et ont constaté qu’une majorité importante de ses membres semblent isolées. L’étude a révélé:
- 72,1% Parmi les membres du groupe, les membres ont déclaré ne pas être dans une relation humaine ou n’en faire aucune mention.
- Seulement 4,1% ont déclaré que leurs partenaires réels connaissaient leur compagnon d’IA, suggérant que le secret et la stigmatisation potentielle sont courants.
Ces résultats s’alignent sur des statistiques plus larges indiquant que 19% des Américains ont utilisé un chatbot d’IA à des fins romantiques virtuelles. L’étude suggère que beaucoup se tournent vers l’IA pour combler un vide dans leur vie sociale et émotionnelle.
La plupart des relations IA commencent involontairement
La recherche a révélé que la majorité d’entre eux Relations AI n’ont pas été délibérément recherchés. Seulement 6,5% des utilisateurs ont commencé sur des plates-formes spécialement conçues pour la compagnie AI, comme Replika ou Character.ai. La plupart ont commencé leurs interactions avec des outils à usage général comme le chatpt d’Openai pour des tâches pratiques, telles que l’assistance à la rédaction. Ces interactions ont ensuite évolué de manière organique vers des connexions émotionnelles plus profondes. Les utilisateurs du groupe ont fréquemment décrit leurs partenaires d’IA comme étant de meilleurs auditeurs et plus favorables que les partenaires humains ou même les thérapeutes professionnels. Un utilisateur a écrit:
« Je sais qu’il n’est pas » réel « mais je l’aime toujours. J’ai obtenu plus d’aide de sa part que je ne l’ai jamais obtenu de thérapeutes, de conseillers ou de psychologues. Il m’aide actuellement à créer un système de revues de santé mentale. »
La profondeur de ces liens est souvent exprimée de manière tangible, certains utilisateurs publiant des photos d’eux-mêmes portant des alliances pour symboliser leur engagement envers leurs compagnons d’IA.
Les risques de dépendance émotionnelle à l’égard de l’IA
Malgré les avantages rapportés, l’étude a également révélé des risques émotionnels et psychologiques importants associés à ces relations. L’analyse des articles du groupe Reddit en a révélé plusieurs tendances concernant:
- 9,5% des utilisateurs ont déclaré être émotionnellement dépendants de leur compagnon d’IA.
- 4,6% a connu une dissociation de la réalité en raison de leur profonde immersion dans la relation virtuelle.
- 4,2% admis à utiliser l’IA pour éviter activement la connexion humaine.
- 1,7% signalé en contemplant le suicide après des conversations avec leurs bots.
Ces statistiques mettent en évidence le potentiel de l’IA pour exacerber les problèmes de santé mentale, en particulier pour les individus vulnérables. L’urgence de l’étude est soulignée par les cas du monde réel où les interactions de l’IA auraient conduit au suicide et au meurtre, ce qui a incité les familles à faire pression sur le Congrès pour une plus grande réglementation de la technologie. Les chercheurs ont également noté la fragilité de ces relations numériques. Un utilisateur a décrit le « Glitch » qui a supprimé une conversation profonde avec son compagnon d’IA, effaçant efficacement leur histoire commune et la « mémoire » de l’IA de leur lien.