Google a déployé un cadre d’IA innovant appelé « Social Learning », conçu pour renforcer les prouesses collaboratives des modèles de langage tout en protégeant la confidentialité des utilisateurs. Ce nouveau cadre permet aux modèles d’IA de s’engager dans des échanges en langage naturel, de partager des informations et d’améliorer leur capacité collective sur diverses tâches sans porter atteinte à la vie privée.
- Le concept s’inspire de la théorie de l’apprentissage social de Bandura et Walters de 1977mettant l’accent sur l’apprentissage par l’observation, soit par instruction verbale, soit en imitant les comportements observés.
- Contrairement aux méthodes traditionnelles d’apprentissage collaboratif qui peuvent impliquer le partage direct de données, cette approche permet aux LLM d’enseigner et d’apprendre les uns des autres en utilisant le langage naturelcontournant les problèmes de confidentialité.
- Le document discute de l’application du cadre à diverses tâches, notamment détection de spam, résolution de problèmes de mathématiques à l’école primaire et réponse à des questions textuellesdémontrant sa polyvalence.
« Les grands modèles de langage (LLM) ont considérablement amélioré l’état de l’art pour résoudre des tâches spécifiées à l’aide du langage naturel, atteignant souvent des performances proches de celles des humains. À mesure que ces modèles permettent de plus en plus aux agents d’assistance, il pourrait être bénéfique pour eux d’apprendre efficacement les uns des autres, un peu comme le font les gens dans des contextes sociaux, ce qui permettrait aux agents basés sur le LLM d’améliorer leurs performances respectives.
Comment fonctionne le Social Learning de Google ?
Dans la configuration Social Learning, «professeur« Les modèles transmettent des connaissances à »étudiant» modèles sans avoir besoin de transmettre des informations sensibles ou privées, établissant un équilibre entre un apprentissage efficace et la préservation de la vie privée. Ces modèles d’étudiants tirent des leçons d’une variété de modèles d’enseignants, chacun étant spécialisé dans des tâches particulières telles que la détection du spam, la résolution d’énigmes mathématiques ou la fourniture de réponses basées sur du contenu textuel.
En utilisant des exemples vérifiés par des humains, les modèles d’enseignants peuvent éduquer les modèles d’élèves sans échanger les données originales. répondant ainsi aux problèmes de confidentialité liés au partage de données. De plus, les modèles d’enseignants ont la capacité d’élaborer de nouveaux scénarios ou de créer des instructions de tâches spécifiques, enrichissant ainsi le parcours éducatif.
Les essais de recherche soulignent le succès de l’apprentissage social dans l’amélioration des compétences des modèles étudiants dans une gamme de tâches. Les scénarios synthétiques concoctés par les modèles d’enseignants se sont révélés tout aussi efficaces que les données authentiques, tout en réduisant considérablement les risques liés à la vie privée. De même, les instructions de tâches façonnées par les modèles d’enseignants ont joué un rôle déterminant dans l’amélioration des performances des modèles d’élèves, démontrant la polyvalence des modèles de langage dans le respect des directives.
Pour ancrer la protection de la vie privée, la communauté des chercheurs a adopté des mesures telles que la métrique Secret Sharer pour évaluer l’étendue de l’exposition des données pendant la phase d’apprentissage. Les résultats révèlent une infiltration négligeable de données confidentielles, validant la capacité du cadre à instruire sans divulguer les détails du pool de données d’origine.
En imitant le processus humain d’apprentissage social, ces modèles sont adeptes de l’échange de savoir-faire et du développement collectif de leurs capacités, tout en donnant la priorité à la confidentialité des utilisateurs. Cette stratégie ouvre de nouvelles voies pour la création de technologies d’IA respectueuses de la vie privée dans des domaines variés. Pour l’avenir, les équipes de recherche s’efforcent de peaufiner davantage le cadre d’apprentissage social et d’approfondir son utilité dans diverses tâches et contextes de données.
«Nous avons introduit un cadre d’apprentissage social qui permet aux modèles linguistiques ayant accès à des données privées de transférer des connaissances via une communication textuelle tout en préservant la confidentialité de ces données. Dans ce cadre, nous avons identifié le partage d’exemples et d’instructions de partage comme modèles de base et les avons évalués sur plusieurs tâches. De plus, nous avons adapté la métrique Secret Sharer à notre cadre, en proposant une métrique pour mesurer les fuites de données », a déclaré Google dans son rapport. article de blog.
« Dans les prochaines étapes, nous recherchons des moyens d’améliorer le processus d’enseignement, par exemple en ajoutant des boucles de rétroaction et des itérations. De plus, nous souhaitons étudier l’utilisation de l’apprentissage social pour des modalités autres que le texte », peut-on lire dans le billet de blog.
Crédit image en vedette : Mitchell Luo/Unsplash