Trois nouvelles études réalisées par des institutions de premier plan, dont l’Université hébraïque, Google Research et Caltech, ont jeté un nouvel éclairage sur la relation entre l’intelligence artificielle et le cerveau humain. La recherche suggère que les modèles d’IA traitent le langage d’une manière qui ressemble étonnamment à l’activité neuronale biologique, tout en influençant simultanément la façon dont les humains parlent dans le monde réel. Ces recherches utilisent des cadres d’apprentissage en profondeur et une analyse linguistique pour explorer comment l’IA s’aligne sur le fonctionnement cérébral, comment elle modifie notre vocabulaire et comment elle peut aider à simuler les neurones biologiques.
Le cerveau construit du sens comme un LLM
Une équipe dirigée par le Dr Ariel Goldstein de l’Université hébraïque, en collaboration avec Google Research et Princeton, a utilisé l’électrocorticographie (ECoG) pour enregistrer l’activité électrique directe du cerveau des participants écoutant un podcast de 30 minutes. Ils ont comparé ces signaux à l’architecture en couches de grands modèles de langage (LLM) comme GPT-2 et Lama 2. Le étude trouvé un alignement remarquable :
- Premières couches : Les réponses neuronales initiales du cerveau correspondaient aux couches superficielles des modèles d’IA, qui gèrent les éléments linguistiques de base.
- Couches profondes : Les réponses neuronales ultérieures, en particulier dans la zone de Broca, se sont alignées sur des couches d’IA plus profondes qui traitent un contexte et une signification complexes.
« Ce qui nous a le plus surpris, c’est à quel point le déploiement temporel du sens dans le cerveau correspond à la séquence de transformations au sein de grands modèles de langage », a déclaré Goldstein. Cela suggère que malgré leurs structures différentes, le cerveau humain et les modèles d’IA construisent le sens progressivement, couche par couche. Pour soutenir de nouvelles découvertes, l’équipe a rendu public l’ensemble des données complètes des enregistrements neuronaux, permettant aux scientifiques du monde entier de tester des théories alternatives du traitement du langage.
« Lexical Seepage » : l’IA change notre façon de parler
Dans une enquête distincte, le linguiste Tom Juzek de la Florida State University a analysé 22 millions de mots provenant de podcasts non scénarisés pour mesurer l’impact de l’IA sur la parole humaine. En comparant les données avant et après la sortie de ChatGPT en 2022, l’étude a identifié un phénomène que Juzek appelle « infiltration lexicale ». La recherche a révélé une augmentation soudaine du nombre de mots spécifiques couramment générés par l’IA, alors que leurs synonymes ne montraient pas d’augmentation similaire. Ces mots incluent :
- « Creuser » (pour enquêter en profondeur)
- « Méticuleux » (montrant une attention particulière aux détails)
- « Recueillir » (à rassembler ou à collectionner)
- « Se vanter » (faisant référence à la possession d’une fonctionnalité)
« L’IA peut littéralement nous mettre des mots dans la bouche, car une exposition répétée amène les gens à intérioriser et à réutiliser des mots à la mode qu’ils n’auraient peut-être pas choisis naturellement. »
Contrairement à l’argot qui se propage socialement, ce changement provient de résultats algorithmiques trouvés dans les textes et les articles. L’analyse soulève des questions sur la standardisation potentielle de la parole humaine et l’aplatissement des dialectes régionaux sous l’influence d’une terminologie uniforme de l’IA.
NOBLE : simuler les neurones 4 200 fois plus rapidement
Au Conférence NeurIPSdes scientifiques de Caltech et Cedars-Sinai ont présenté NOBLE (Neural Operator with Biologically-informed Latent Embeddings). Ce nouveau cadre d’apprentissage profond peut générer des modèles virtuels de neurones cérébraux 4 200 fois plus rapidement que les méthodes traditionnelles. Alors que les solveurs traditionnels utilisent des équations différentielles complexes qui nécessitent une puissance de calcul importante, NOBLE utilise des opérateurs neuronaux pour reproduire le comportement de neurones biologiques réels, y compris leurs taux de déclenchement et leurs réponses aux stimuli. Cette vitesse permet aux chercheurs d’adapter les simulations à des circuits cérébraux plus vastes impliquant des millions de cellules interconnectées. Le cadre vise à accélérer la recherche sur les troubles cérébraux comme l’épilepsie et la maladie d’Alzheimer en permettant aux scientifiques de tester rapidement des hypothèses sans s’appuyer uniquement sur des expériences limitées sur des animaux ou des humains.





