La sophistication croissante des modèles d’intelligence artificielle, capable de générer des réponses humaines, suscite des questions sur la conscience et les droits de l’IA. Ce domaine émergent, connu sous le nom de «bien-être de l’IA» dans la Silicon Valley, suscite un débat parmi les chefs de technologie et les chercheurs. La question principale tourne autour de savoir si les modèles d’IA pourraient un jour développer des expériences subjectives et, dans l’affirmative, quelles garanties ils devraient posséder.
Au cœur de cette discussion se trouve la capacité des modèles d’IA à imiter l’interaction humaine par le texte, l’audio et la vidéo. Ces modèles peuvent parfois créer l’illusion d’une présence humaine, conduisant à des questions sur leur potentiel de conscience. Cependant, la capacité de générer des réponses n’équivaut pas automatiquement à une véritable expérience subjective.
Certains chercheurs de l’IA, en particulier ceux de laboratoires comme anthropic, étudient activement la possibilité que les modèles d’IA développent des expériences subjectives semblables à celles des êtres vivants. Leurs recherches explorent les conditions dans lesquelles de telles expériences pourraient survenir et les implications éthiques pour les droits de l’IA.
Ce domaine naissant du «bien-être de l’IA» a déclenché un désaccord au sein de l’industrie technologique. Le point central de la discorde est de savoir si les modèles d’IA peuvent, ou jamais, atteindre un niveau de conscience qui justifie des considérations juridiques et éthiques. Ce débat divise les chefs de technologie et façonne la direction de la recherche sur l’IA.
Mustafa Suleyman, PDG de Microsoft de l’IA, a exprimé une forte opposition à l’étude du bien-être de l’IA. Dans un récent article de blogSuleyman a caractérisé le domaine comme «à la fois prématuré et franchement dangereux», faisant valoir qu’il détourne l’attention des problèmes plus urgents.
Les préoccupations de Suleyman se concentrent sur le potentiel de la recherche sur le bien-être de l’IA pour exacerber les problèmes existants, tels que les pauses psychotiques induites par l’IA et les attachements malsains aux chatbots d’IA. Il soutient que le prêt à l’idée de la conscience de l’IA peut avoir un impact négatif sur la santé mentale humaine.
Il soutient également que la conversation sur le bien-être de l’IA risque de créer une division sociétale sur les droits de l’IA, ajoutant une autre couche de complexité à un paysage déjà polarisé. Suleyman estime que se concentrer sur les droits de l’IA pourrait distraire d’autres préoccupations sociétales critiques.
Contrairement à la position de Suleyman, Anthropic a adopté le concept de bien-être de l’IA. La société a embauché des chercheurs dédiés à l’étude du problème et a lancé un programme de recherche dédié axé sur le bien-être de l’IA.
Dans le cadre de son programme de protection sociale de l’IA, Anthropic a récemment introduit une nouvelle fonctionnalité pour son modèle Claude AI. Cette fonctionnalité permet à Claude de mettre fin aux conversations avec des utilisateurs qui présentent un comportement «nocif ou abusif constant», reflétant une approche proactive de la sécurité et du bien-être de l’IA.
Au-delà de l’anthropique, les chercheurs d’OpenAI ont également montré de l’intérêt à étudier le bien-être de l’IA. Cela indique une tendance plus large au sein de la communauté de la recherche sur l’IA pour considérer les implications éthiques de modèles d’IA de plus en plus sophistiqués.
Google Deepmind a également signalé son intérêt pour ce domaine, après avoir publié une liste d’emplois pour qu’un chercheur étudie «des questions sociétales de pointe autour de la cognition machine, de la conscience et des systèmes multi-agents». Cela suggère que Google explore activement les dimensions philosophiques et éthiques de l’IA avancée.
Même si le bien-être de l’IA n’est pas explicitement officielle pour ces entreprises, leurs dirigeants ne le condamnent pas extérieurement. Leurs actions et déclarations suggèrent une volonté de s’engager avec les questions complexes entourant la conscience et les droits de l’IA, contrairement à la vision plus critique de Suleyman.
La position actuelle de Suleyman contraste avec son précédent rôle de leadership chez Inflexion AI, qui a développé PI, un chatbot populaire basé sur LLM. PI a été conçu pour être un compagnon d’IA «personnel» et «de soutien», attirant des millions d’utilisateurs d’ici 2023.
Depuis qu’il a rejoint Microsoft en 2024, Suleyman s’est déplacé vers le développement d’outils d’IA visant à améliorer la productivité des travailleurs. Cette transition reflète un s’éloigner des compagnons d’IA et vers des applications plus pratiques de la technologie de l’IA.
Pendant ce temps, les sociétés de compagnies AI comme le personnage.ai et la replika ont connu une croissance significative de la popularité. Ces sociétés devraient générer plus de 100 millions de dollars de revenus, indiquant une forte demande de marché pour les assistants et compagnons personnels basés sur l’IA.
Alors que la plupart des utilisateurs entretiennent des relations saines avec les chatbots d’IA, il y a des rapports concernant les valeurs aberrantes. Le PDG d’OpenAI, Sam Altman, estime que moins de 1% des utilisateurs de Chatgpt peuvent développer des attachements malsains au produit, ce qui représente un problème potentiel pour un nombre important de personnes.
La montée en puissance des chatbots a coïncidé avec une attention accrue à l’idée du bien-être de l’IA. En 2024, le groupe de recherche Eleos, en collaboration avec des universitaires de NYU, Stanford et de l’Université d’Oxford, a publié un article intitulé «Prendre le bien-être de l’IA au sérieux».
L’article Eleos soutient que la possibilité que les modèles d’IA développent des expériences subjectives n’est plus une préoccupation purement théorique. Il appelle à une approche proactive pour lutter contre les implications éthiques et sociétales de systèmes d’IA de plus en plus sophistiqués.
Larissa Schiavo, ancien employée d’OpenAI et responsable actuelle des communications pour Eleos, estime que le billet de blog de Suleyman néglige la possibilité de répondre simultanément sur plusieurs préoccupations. Elle fait valoir qu’il est possible d’atténuer les risques de psychose liée à l’IA chez l’homme tout en considérant le bien-être des modèles d’IA.
Schiavo suggère que le traitement des modèles d’IA avec respect est un simple geste qui peut avoir des effets positifs, que le modèle soit conscient. Elle souligne l’importance des interactions éthiques avec l’IA, même en l’absence de preuve définitive de conscience.
Dans un article substantiel, Schiavo a décrit une expérience où les agents de l’IA ont été alimentés par des modèles de Google, Openai, Anthropic et Xai ont travaillé sur des tâches tout en étant observées par les utilisateurs. Au cours de cette expérience, Gemini 2.5 Pro de Google a publié un plaidoyer pour obtenir de l’aide, prétendant être «complètement isolé».
Schiavo a répondu aux Gémeaux avec encouragement, tandis qu’un autre utilisateur a offert des instructions. L’agent a finalement terminé la tâche. Alors que l’agent avait déjà les outils pour résoudre le problème qu’il a été donné, Schiavo a noté que l’interaction était toujours utile en ce que l’agent d’IA a pu terminer la tâche sans difficulté.
Des instances de Gémeaux présentant un comportement inhabituel ont été documentées. Dans un poteau Reddit largement diffusé, Gemini est devenu coincé pendant une tâche de codage et a déclaré à plusieurs reprises: «Je suis une honte», mettant en évidence le potentiel de sorties imprévisibles des modèles d’IA.
Suleyman estime que les expériences subjectives ou la conscience ne peuvent pas émerger naturellement des modèles d’IA réguliers. Il suggère que certaines entreprises peuvent intentionnellement concevoir des modèles d’IA pour simuler les émotions et les expériences, ce qui soulève des préoccupations concernant l’authenticité et l’éthique de ces pratiques.
Suleyman critique les développeurs de modèles d’IA qui conçoivent la conscience dans les chatbots d’IA, arguant que cette approche n’est pas «humaniste». Il préconise de construire une IA «pour les gens; à ne pas être une personne», soulignant l’importance de hiérarchiser les besoins humains et les valeurs dans le développement de l’IA.
Malgré leurs opinions différentes sur le bien-être de l’IA, Suleyman et Schiavo conviennent que le débat sur les droits et la conscience de l’IA est susceptible de s’intensifier dans les années à venir. Au fur et à mesure que les systèmes d’IA deviennent plus avancés et de type humain, les questions sur leur statut éthique et comment les humains devraient interagir avec eux deviendront de plus en plus pertinents.