Mardi, un lettre ouverte » a été publié par un groupe d’employés actuels et anciens de grandes sociétés d’intelligence artificielle, soulignant l’absence de surveillance de la sécurité au sein du secteur et plaidant pour une protection plus renforcée des lanceurs d’alerte.
Les initiés d’OpenAI et de Google soulignent les dangers de l’IA et appellent au changement
Cette lettre, prônant un « droit d’alerte sur l’intelligence artificielle », s’impose comme l’une des préoccupations les plus publiquement exprimées concernant les risques liés à l’IA par les initiés de ce secteur typiquement secret. Parmi les signataires figurent onze salariés actuels et anciens d’OpenAI, ainsi que deux salariés actuels ou anciens de Google DeepMind, dont l’un avait également travaillé chez Anthropic.
« Les sociétés d’IA possèdent d’importantes informations non publiques sur les capacités et les limites de leurs systèmes, l’adéquation de leurs mesures de protection et les niveaux de risque de différents types de dommages. Cependant, ils n’ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas qu’on puisse compter sur eux pour le partager volontairement », peut-on lire dans la lettre.
OpenAI, en réponse, a défendu ses pratiques, soulignant qu’elle dispose de mécanismes tels qu’une ligne d’information pour signaler les problèmes au sein de l’entreprise et affirmant que les nouvelles technologies ne sont pas publiées tant que des garanties appropriées ne sont pas en place. Google n’a toutefois pas fait de commentaire dans l’immédiat.

« Nous sommes fiers de notre expérience en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et croyons en notre approche scientifique de la gestion des risques. Nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde », a déclaré un communiqué. OpenAI a déclaré le porte-parole.
Les inquiétudes concernant les dangers potentiels de l’intelligence artificielle sont présentes depuis des décennies. Cependant, l’expansion rapide de l’IA ces dernières années a accru ces craintes et a obligé les régulateurs à avoir du mal à suivre le rythme des progrès technologiques. Alors que les entreprises d’IA se sont publiquement engagées à développer des technologies de manière responsable, les chercheurs et les employés ont tiré la sonnette d’alarme sur le manque de surveillance, soulignant que les outils d’IA peuvent amplifier les problèmes sociaux existants ou en introduire de nouveaux.
La lettre des employés actuels et anciens des sociétés d’IA, initialement rapportée par le New York Times, plaide en faveur d’une protection plus renforcée pour les travailleurs des entreprises d’IA avancées qui soulèvent des problèmes de sécurité. Il recommande le respect de quatre principes axés sur la transparence et la responsabilité, notamment l’engagement de ne pas obliger les employés à signer des accords de non-dénigrement qui les empêchent de discuter des risques liés à l’IA, et la mise en place d’un système permettant aux employés de partager anonymement leurs préoccupations avec les membres du conseil d’administration.

« Tant qu’il n’y aura pas de surveillance efficace de la part du gouvernement sur ces sociétés, les employés actuels et anciens feront partie des rares personnes qui peuvent les tenir responsables devant le public. Pourtant, de larges accords de confidentialité nous empêchent d’exprimer nos préoccupations, sauf auprès des entreprises mêmes qui ne parviennent pas à résoudre ces problèmes », peut-on lire dans la lettre.
Des entreprises comme OpenAI auraient pris des mesures strictes pour empêcher les employés de discuter ouvertement de leur travail. Selon un Voix rapport de la semaine dernière, OpenAI exigeait que les employés qui partaient signent des accords de non-dénigrement et de non-divulgation très restrictifs, sous peine de perdre leurs capitaux acquis. En réponse à cette réaction négative, le PDG d’OpenAI, Sam Altman, a présenté des excuses et a promis de réviser les procédures de départ de l’entreprise.
La lettre ouverte fait suite à la récente démission de deux employés éminents d’OpenAI : le co-fondateur Ilya Sutskever et l’éminent chercheur en sécurité Jan Leike. Après son départ, Leike a critiqué OpenAI, affirmant que l’entreprise avait déplacé son attention de la sécurité vers la recherche de « produits brillants ».
Un problème persistant
Cette récente lettre ouverte des employés de l’industrie de l’IA n’est pas un incident isolé. En mars 2023, le Le Future of Life Institute a publié une lettre similaire, signé par environ 1 000 experts en IA et responsables technologiques, dont des personnalités notables comme Elon Musk et Steve Wozniak. Cette lettre antérieure exhortait les laboratoires d’IA à suspendre le développement de systèmes d’IA avancés au-delà du GPT-4, citant des « risques profonds » pour la société humaine. Il a appelé à un arrêt public et vérifiable de la formation de ces systèmes pendant au moins six mois, impliquant tous les acteurs publics.
Le groupe a souligné que les systèmes d’IA dotés d’une intelligence humaine-compétitive présentent des dangers importants pour la société et l’humanité, comme le soutiennent des recherches approfondies et le reconnaissent les principaux laboratoires d’IA. Ils ont averti que ces systèmes d’IA avancés pourraient provoquer un changement monumental dans l’histoire de la vie sur Terre, nécessitant une planification et une gestion minutieuses et dotées de ressources suffisantes. Cependant, ils ont fait valoir qu’une telle surveillance méticuleuse fait défaut, les laboratoires d’IA se précipitant plutôt pour créer des esprits numériques de plus en plus puissants qui échappent à la compréhension, à la prédiction ou au contrôle fiable de leurs créateurs. En 2023, Geoffrey Hinton, surnommé le parrain de l’intelligence artificielle, avait quitté Google et exprimé ses regrets quant à ses contributions au développement de l’IA. Hinton, qui a aidé à lancer des systèmes d’IA comme ChatGPT, avait mis en garde contre les risques importants posés par les chatbots IA.
Les inquiétudes croissantes et les appels à l’action émanant de la communauté de l’IA soulignent le besoin urgent de mesures de sécurité robustes et de pratiques de développement transparentes et responsables dans le domaine en évolution rapide de l’intelligence artificielle.
Crédit image en vedette : Google DeepMind/Unsplash