Une nouvelle phase des efforts de l’administration Trump pour réduire la taille de la fonction publique est en cours, en se concentrant sur l’utilisation de l’IA génératrice pour automatiser les tâches de travail précédemment gérées par des employés fédéraux. La General Services Administration (GSA) teste un chatbot avec 1 500 membres du personnel et peut étendre son utilisation à plus de 10 000 travailleurs gérant plus de 100 milliards de dollars de contrats et de services, selon Câblé.
GSA teste un chatbot AI pour automatiser les tâches fédérales au milieu de la réduction des effectifs
Le leadership GSA encadre le bot en tant qu’outil d’amélioration de la productivité. Thomas Shedd, directeur des services de transformation technologique (TTS) à GSA, a souligné lors d’une récente réunion de main-d’œuvre que l’agence poursuit une «stratégie IA-First». Il a déclaré: «À mesure que nous diminuons [the] Taille globale du gouvernement fédéral… il y a encore une tonne de programmes qui doivent exister, ce qui est une énorme opportunité pour la technologie et l’automatisation de s’imposer en force. » Shedd a également mentionné l’introduction des «agents de codage» à travers le gouvernement, se référant aux programmes d’IA capables d’écrire et d’employer du code.
L’initiative Chatbot a commencé pendant le terme du président Joe Biden avec une petite équipe de technologie GSA appelée 10X, qui l’a initialement conçu comme une plate-forme de test d’IA, pas comme un outil de productivité. Cependant, Alliés de Doge, le ministère de l’efficacité du gouvernement, a fait pression pour son développement et son déploiement accélérés au milieu des licenciements fédéraux de masse. Le programme, précédemment connu sous le nom de «GSAI» et maintenant appelé «GSA Chat», est conçu pour aider à la rédaction de courriels, à écrire du code et à d’autres fonctions. Il sera finalement disponible pour d’autres agences gouvernementales, potentiellement sous le nom de «ai.gov».
Zach Whitman, le chef de l’IA de GSA, a décrit le chatbot comme un moyen pour les employés fédéraux de travailler «plus efficacement et efficacement». L’interface ressemble à celle de Chatgpt, où les utilisateurs soumettent des invites et reçoivent des réponses. Le système utilise actuellement des modèles sous licence de Meta et Anthropic. Bien que les téléchargements de documents ne soient pas encore autorisés, les plans suggèrent que cette fonctionnalité pourrait être disponible à l’avenir. Les employés de la GSA prévoient en utilisant le chatbot pour diverses tâches, notamment la planification de projet à grande échelle et l’analyse des référentiels fédéraux de données.
Le porte-parole de la GSA, Powell, a confirmé que l’agence examine ses ressources informatiques et effectuait des tests pour vérifier l’efficacité et la fiabilité des outils disponibles. Cependant, les experts indiquent que l’introduction du chatbot peut refléter une tendance plus large plutôt que de changer considérablement les opérations gouvernementales. Des rapports ont fait surface que les conseillers Doge ont exploité l’IA pour analyser les dépenses des agences pour les coupes et décider de la rétention d’emploi à travers le gouvernement.
Lors d’une récente réunion du TTS, Shedd prévoyait que la division rétrécirait bientôt «au moins 50%». De plus, les utilisations potentielles de l’IA s’étendent aux applications sensibles, telles que l’évaluation des publications sur les réseaux sociaux des détenteurs de visa des étudiants par le Département d’État pour identifier les liens avec des groupes terroristes désignés.
La mise en œuvre de l’IA génératrice comporte des risques établis, notamment des biais, des inexactitudes factuelles, des coûts élevés et un fonctionnement interne complexe. GSA a reconnu ces problèmes lors de l’initialisation du travail sur le chatbot l’été dernier, établissant le «10x Sandbox AI» pour explorer les applications d’IA en toute sécurité et de manière rentable. Cependant, les motivations à libérer le chatbot peuvent rapidement ignorer les préoccupations potentielles concernant ses applications. Un ancien employé de la GSA a noté les risques associés au fait de s’appuyer sur l’IA pour l’analyse de la fraude, soulignant le potentiel de faux positifs. Les avertissements concernant des questions telles que «les hallucinations» et les réponses biaisées sont incluses dans une page d’aide pour les premiers utilisateurs, mais les méthodes d’application restent non spécifiées.
Les agences fédérales ont testé une IA générative pendant des mois, la GSA contracte auparavant Google pour évaluer le potentiel de l’IA pour améliorer la productivité et la collaboration. D’autres agences, comme les départements de la sécurité intérieure, de la santé et des services sociaux et des anciens combattants, exploraient également les outils d’IA avant l’inauguration. Malgré cela, le déploiement particulier du chatbot n’a peut-être pas été inévitable dans sa forme actuelle.
L’administration de Biden avait poursuivi une approche prudente de l’IA, mettant l’accent sur les tests rigoureux et la transparence grâce à un décret. Cependant, l’abrogation de cette ordonnance le premier jour du pouvoir de Trump a marqué un changement dans la position réglementaire, permettant potentiellement aux agences fédérales d’utiliser des applications plus spéculatives de la technologie de l’IA.
Crédit d’image en vedette: Katie Moum / Unsplash