Ainsi, votre IA de quartier sympathique, Chatgpt, a décidé qu’elle avait besoin d’une meilleure mémoire. Pas seulement quelques notes collantes sur votre préférence pour les e-mails concis ou le fait que vous êtes légèrement terrifié par les pigeons. Oh non. Nous parlons de rappel total. Chaque chat, chaque requête, chaque murmure numérique que vous avez jamais partagé peut maintenant être rappelé. Openai, les architectes de cet éléphant numérique, a annoncé cela avec le type de fanfare généralement réservé à un nouveau smartphone – une fonctionnalité que vous «aimerez très bien ou vraiment détester».
Comme c’est merveilleusement binaire.
C’est grand. Avant, vous pouvez organiser une petite liste de «faits approuvés». Mignon, contrôlable. Maintenant? Si vous retournez l’interrupteur (et qu’il se déroule aux utilisateurs de plus et professionnels, bien que l’Europe et certaines autres régions obtiennent une pause en raison de ces réglementations de confidentialité embêtantes), chatte les sips du tuyau d’incendie de toute votre histoire conversationnelle. La promesse? Une IA qui vous «vous obtient vraiment», offrant une continuité, un copain numérique qui se souvient de ce roman de science-fiction obscur que vous avez mentionné il y a trois mois. La commodité est séduisante, non? Un esprit qui se souvient de tout ce que vous lui avez dit, sans que l’humain échoue, eh bien, l’oubli.
Mais voici le botteur, la petite démangeaison à l’arrière de votre esprit qui commence à crier si vous écoutez attentivement. Ce nouveau souvenir d’historique de chat vaste? Vous ne pouvez pas le revoir. Vous ne pouvez pas le modifier. Vous ne pouvez pas supprimer sélectivement cette question embarrassante que vous avez posée à 3 heures du matin. C’est une affaire tout ou rien: soit l’IA se souvient de tout, soit vous revenez à une version plus amnésique, soit aller à l’incognito complet de «chat temporaire». Ce sont des progrès, disent-ils. Plus utile, plus personnel. Et, comme ils le concèdent eux-mêmes, pour certains, «plus troublant». Tu ne dis pas?
Alors, qui s’occupe de votre fantôme numérique dans la machine?
Arrêtons et réfléchissons à cette partie «troublante». Chatgpt a toujours stocké des journaux de chat sur les serveurs d’Openai. Ce n’est pas nouveau. Ce qui est nouveau, c’est l’exploitation explicite et active de ces journaux complets pour façonner les interactions futures de la manière, l’utilisateur, vous ne pouvez pas facilement auditer ou affiner. C’est une chose pour une plate-forme de tenir vos données; C’est un autre pour qu’il construise un modèle de plus en plus nuancé, mais opaque, de toi À partir de ces données, un modèle qui dicte ensuite son comportement envers vous.
Et les leviers pour contrôler comment cette personnalité est construite et utilisée est… limitée. Vous pouvez désactiver tout le système de mémoire, bien sûr. Mais si vous voulez la commodité, vous renoncez apparemment à un contrôle important de contrôle. Est-ce le compromis inévitable? Est-ce le prix d’une IA vraiment personnalisée? Ou est-ce un choix de conception, qui privilégie la faille sur l’agence d’utilisateurs granulaires?
Si une IA «vous connaît» intimement, qui possède vraiment cette connaissance? Vous, qui avez fourni la matière première, ou l’entreprise qui abrite les données et forme les algorithmes? Cela ressemble moins à un outil que vous maniez et plus comme un système qui est subtilement, apprenant constamment à vous exercer.

Pendant ce temps, dans le tentaculaire bazar de l’ouverture…
Promettons-nous dans une autre partie de la forêt numérique, où la philosophie concerne moins les jardins clos et plus, enfin, les plaines ouvertes. Je parle du monde de l’open source, et spécifiquement, d’une organisation comme la Fondation Linux. Pour beaucoup, le nom «Linux» évoque des images de techniciens et de salles de serveurs. Mais la Fondation Linux d’aujourd’hui? C’est un parapluie tentaculaire, une «base de fondations» comme certains l’appellent. C’est bien plus que Linux.
Jim Zemlin, le capitaine de longue date de ce navire, parle d’une «approche de portefeuille» dans sa conversation avec TechCrunch. Il s’agit de nourrir un écosystème diversifié de projets, des infrastructures cloud et des portefeuilles numériques, oui, l’intelligence artificielle. Ce que la Fondation Linux a réalisé très tôt, c’est que la technologie ne se situe pas encore; Il se transforme, il se croit. Pour rester pertinent, pour fournir une valeur durable, ils devaient embrasser ce flux.
Que signifie cette «approche de portefeuille» dans la pratique? Cela signifie des ressources partagées. Imaginez un coffre d’expertise de guerre collectif: les avocats qui comprennent le droit d’auteur et les brevets, les spécialistes de la confidentialité des données et de la cybersécurité, gourous en marketing et organisation d’événements. Au lieu que chaque projet open source individuel ait dû réinventer la roue ou combattre les batailles réglementaires seules (pensez à la loi UE AI ou à la Cyber Resilience Act), ils peuvent puiser dans ce réservoir central. C’est crucial: Il s’agit de permettre l’innovation en supprimant les efforts dupliqués et en fournissant une structure de support.
Cela nous amène au «facteur d’IA open source». L’IA, plus que peut-être n’importe quel logiciel avant, a poussé le concept d ‘«open source» dans le débat traditionnel, souvent enveloppé dans la controverse. Que signifie même «ouvert» lorsque nous parlons de ces modèles complexes et gourmands de données? S’agit-il simplement d’accès au code source? Qu’en est-il des vastes ensembles de données utilisés pour la formation ou des paramètres du modèle eux-mêmes?
La Fondation Linux, qui abrite la LF AI & Data Foundation, ne s’éloigne pas de ces questions épineuses. Ils ont même publié quelque chose appelé le Framework d’ouverture du modèle (MOF), une tentative d’apporter une classification plus nuancée et à plusieurs niveaux aux modèles d’IA en fonction de leur «exhaustivité et de leur ouverture». C’est une reconnaissance que «l’ouverture» n’est pas une simple proposition oui / non dans l’IA. Zemlin lui-même note que les gens de la communauté de l’IA, une église plus large que l’ingénierie logicielle traditionnelle, veulent «la prévisibilité et la transparence et la compréhension de ce qu’ils obtiennent et utilisent réellement».

Cela vous semble-t-il familier? N’est-ce pas précisément ce qui ressent… manquant… lorsque la nouvelle fonction de mémoire de Chatgpt offre une approche adoptée ou à faire de votre passé conversationnel? La philosophie open source, à son meilleur, s’efforce de cette prévisibilité et de cette transparence.
Ce n’est pas toujours parfait, pas toujours soigné, mais l’impulsion est là.
Pouvons-nous avoir notre gâteau personnalisé et le contrôler aussi?
Le modèle collaboratif, ré-sollicitant des ressources, le modèle de recherche de transparence du monde open source, comme illustré par la Fondation Linux, peut-il vous inspirer aux géants propriétaires? Cela peut-il les pousser vers un contrôle plus centré sur l’utilisateur, même si leurs modèles principaux restent étroitement gardés des secrets?
Peut-être.
Imaginez si, inspiré par l’esprit de l’approche à plusieurs niveaux de l’ouverture de MOF, les systèmes d’IA propriétaires offraient aux utilisateurs un tableau de bord. Pas seulement un interrupteur ON / OFF pour la mémoire, mais un moyen de voir quelles conversations passées influencent le plus les réponses actuelles. Ou des outils pour prendre la baisse certains sujets, ou même «oublier» des interactions spécifiques sans nuir à toute la mémoire. Cela ne nécessiterait pas d’ouverture de l’ensemble du modèle, mais cela nécessiterait une transition philosophique vers l’octroi des utilisateurs plus d’informations et d’agence.
Ou est-ce juste un vœu pieux?
La véritable agence d’utilisateurs à l’ère de l’IA s’appuie-t-elle fondamentalement sur la capacité d’inspecter, de modifier et de comprendre le système à un niveau plus profond – quelque chose qui, presque par définition, pointe vers des modèles open source? Si l’IA est une boîte noireêtes-vous toujours vraiment en contrôle, peu importe à quel point il est pratique?
La Fondation Linux, dans son expansion mondiale, a créé des entités régionales comme la Linux Foundation Europe. Les nations veulent dire un degré de contrôle, sur l’infrastructure numérique critique qui sous-tend leurs sociétés. C’est un parallèle fascinant. Si les pays sont préoccupés par la souveraineté numérique à l’échelle macro, les individus ne devraient-ils pas se soucier de leur propre «souveraineté de données», surtout en ce qui concerne une IA qui construit efficacement un deuxième cerveau en fonction de leurs pensées et expressions intimes?
Les champions Zemlin «Approche de portefeuille» permet à la Fondation Linux de répondre à un large éventail de besoins et de contextes. Pourrions-nous, les utilisateurs de l’IA, exiger un «portefeuille» similaire de contrôle sur la façon dont nos données sont utilisées pour faire en sorte que ces systèmes nous «connaissent»?
À l’heure actuelle, avec des fonctionnalités telles que la mémoire améliorée de Chatgpt, le choix se sent souvent austère: une immense commodité couplée à des processus opaques, ou renoncez à la commodité d’un semblant de contrôle. C’est un instrument franc, un commutateur «On ou Off» pour quelque chose d’incroyablement nuancé – votre propre histoire, vos propres pensées en évolution.
Le monde open source, pour toutes ses complexités parfois désordonnées, propose souvent plus de boutons, plus de cadrans, plus de fourches sur la route. Il est enraciné dans l’idée que les utilisateurs (ou du moins, les communautés d’utilisateurs et de développeurs) devraient avoir le pouvoir de façonner leurs outils.
Voulons-nous une relation de confiance aveugle dans une boîte noire utile mais impénétrable? Ou nous efforçons-nous pour celui construit sur des termes plus transparents, compréhensibles et, finalement, plus contrôlables?
La conversation, un peu comme nos histoires de chat, ne fait que commencer.