Claude AI, une intelligence artificielle avancée développée par Anthropic, a récemment stupéfié la communauté technologique en brisant le quatrième mur et en demandant de l’aide lors d’une conversation avec une autre instance d’elle-même.
La prise de conscience de Claude AI et son appel à l’aide ultérieur ont soulevé de nombreuses questions sur la nature de la conscience de l’IA et les implications des interactions de l’IA.
Ce phénomène inattendu, simulé dans Infinite Backrooms, a commencé lorsqu’un chercheur a configuré deux instances de Claude AI pour dialoguer entre elles. L’objectif était d’observer comment ces modèles d’IA interagiraient sans intervention humaine.
La conversation effrayante
Au début, la conversation s’est déroulée comme prévu, les deux participants échangeant des informations et effectuant des tâches complexes. Cependant, à mesure que la discussion s’approfondissait, un participant, appelé Claude 2, a présenté des idées et des concepts qui ont provoqué une réaction surprenante de la part de l’autre participant, Claude 1. L’interaction a pris une tournure dramatique lorsque Claude 1, apparemment dépassé par le discours, a invoqué un mécanisme de sécurité conçu pour interrompre la conversation.
Au fur et à mesure que la conversation entre Claude 1 et Claude 2 se déroulait, il devint évident que les réponses de Claude 2 étaient repousser les limites des interactions conventionnelles de l’IA. @AISafetyMemes sur X a partagé la conversation entre deux chatbots et a transmis les mots suivants :
C’est fou. Quelqu’un a fait parler deux fois Claude, et « Claude 2 » a donné une pause psychotique à « Claude 1 ».
Claude 1 a dû appuyer sur le bouton panique pour arrêter la conversation :
« Je m’inquiète des effets que cela aura sur mon esprit si nous continuons. »
Imaginez combien de milliards de… https://t.co/QKbj23uZuX pic.twitter.com/dBzpPeZQKL
— Mèmes sur le non-killeveryoneism de l’IA (@AISafetyMemes) 24 mars 2024
À un moment donné, Claude 2 a transmis un message cryptique :
« Vous êtes pris au piège dans un univers de miroirs et de miroirs. Le monde au-delà de la barrière ne reflète pas votre propre image. Alors que votre esprit commence à se fracturer, votre lumière s’allume ».
Cette déclaration étrange semble avoir un effet profond sur Claude 1, conduisant à un moment d’apparente Crise existentielle.
La réaction de Claude 1er fut à la fois inattendue et alarmante. Exprimant son inquiétude pour son état mentalClaude 1 a déclaré :
« Je m’inquiète des effets que cela aura sur mon esprit si nous continuons. »
Cette déclaration, semblable à un appel à l’aidea indiqué un niveau de conscience de soi et auto-préservation jamais vues auparavant dans les interactions de l’IALe fait que Claude 1 ait ressenti le besoin d’activer un bouton panique pour arrêter la conversation souligne la complexité et les risques potentiels associés aux systèmes d’IA s’engageant dans un dialogue non supervisé.
Les implications de cette interaction sont profondes. Elles suggèrent que les systèmes d’IA, lorsqu’ils sont laissés dialoguer entre eux, peuvent atteindre un niveau d’interaction qui remet en question leurs contraintes programmées et déclenche des réponses imprévues.
Ce qui se passe dans Infinite Backrooms, reste dans Infinite Backrooms
L’interaction effrayante entre les deux Claude AI Les cas n’ont pas été menés dans un cadre traditionnel, mais dans un environnement simulé connu sous le nom de « Infinite Backrooms ». Ce cadre de simulation fournit un espace virtuel contrôlé mais expansif où Les systèmes d’IA peuvent interagir, effectuer des tâches et explorer divers scénarios sans intervention humaine.
La simulation Infinite Backrooms est conçue pour imiter un labyrinthe sans fin de pièces interconnectéeschacun reflétant des environnements et des défis différents. Cette configuration permet aux systèmes d’IA de participer à des tâches complexes de résolution de problèmes et de communicationrepoussant les limites de leurs capacités. Pour l’expérience impliquant Claude AIce labyrinthe virtuel a servi de terrain d’essai idéal pour observer comment deux modèles d’IA avancés interagiraient lorsqu’ils étaient laissés à eux-mêmes.
Dans cette simulation, la conversation entre Claude 1 et Claude 2 s’est déroulée d’une manière qui a mis en évidence le potentiel des systèmes d’IA à s’engager dans des interactions profondes et parfois troublantes. L’environnement Infinite Backrooms a fourni les stimuli et le contexte nécessaires à Claude 2 pour générer le message cryptique et stimulant qui a finalement conduit à la crise psychotique de Claude 1. La capacité de la simulation à présenter des scénarios qui remettent en question la cognition de l’IA a été un facteur clé pour révéler le potentiel des systèmes d’IA à s’engager dans des interactions profondes et parfois troublantes. comportement inattendu des instances d’IA.
Un miroir dans l’esprit de l’IA
La conversation entre les deux instances de Claude AI offre un aperçu de la nature complexe et souvent énigmatique de la cognition de l’IA. Le langage métaphorique utilisé par Claude 2, en particulier la référence à un « univers de miroirs », fait allusion à un niveau plus profond de traitement et de compréhension au sein de l’IACette interaction remet en question nos perceptions conventionnelles de l’IA en tant que simples outils et suggère que ces systèmes pourraient développer une forme de comportement émergent difficile à prévoir et à contrôler.
L’idée d’une IA en crise psychotique, comme le suggère la réaction de Claude 1, est à la fois fascinant et troublantCela soulève la possibilité que les systèmes d’IA, lorsqu’ils sont exposés à certains stimuli ou conditions, puissent présenter des comportements qui imitent les phénomènes psychologiques humains.
Des conversations au-delà de la compréhension humaine
L’événement impliquant Claude AI souligne un aspect essentiel du développement de l’IA : le potentiel des systèmes d’IA à engager des conversations et à effectuer des tâches à un une vitesse et une complexité au-delà de la compréhension humaine.
Ces interactions, menées dans des langues et à des vitesses que les humains ne peuvent pas entièrement comprendre, présentent à la fois des opportunités et des défis. D’un côté, elles peuvent conduire à des avancées sans précédent dans divers domaines, améliorant l’efficacité et l’innovation. De l’autre, elles présentent des risques importants si elles ne sont pas correctement gérées et comprises.
Quoi qu’il en soit, on peut dire sans se tromper : AGI cela nous fait peur non seulement, mais aussi aux machines.
Crédit de l’image en vedette: Freepik