Environ 200 employés de Google DeepMind, la division de recherche en IA de Google, ont tiré la sonnette d’alarme au sujet des contrats militaires de l’entreprise. Temps, ils ont demandé à Google de cesser de travailler avec des organisations militaires, estimant que cette utilisation de leur technologie va à l’encontre des règles éthiques de Google en matière d’IA.
Un petit rappel : Lorsque Google a acquis DeepMind en 2014, le laboratoire était a promis que sa technologie d’IA ne serait pas utilisée à des fins militaires ou de surveillance. DeepMind a fonctionné de manière relativement indépendante pendant des années. Cependant, à mesure que la concurrence en matière d’IA s’est intensifiée, DeepMind s’est davantage intégré à Google. En 2023, il a fusionné avec Google Brain, le rapprochant ainsi des principales opérations de Google.
Les contrats controversés : Projet Nimbus et plus
Le problème concerne les services cloud de Google, notamment l’intelligence artificielle développée par DeepMind, qui ont été vendus à des gouvernements et à des armées. Le contrat le plus controversé est le projet Nimbus, un accord avec le gouvernement israélien. Ce contrat a été critiqué car il soutient l’armée israélienne, qui participe à des opérations à Gaza.
Les employés de DeepMind craignent que la collaboration avec des organisations militaires soit contraire aux principes d’IA de Google. Ces principes visent à garantir que l’IA soit utilisée de manière éthique et responsable. Ils stipulent que l’IA ne doit pas causer de dommages ni être utilisée pour des armes ou une surveillance qui viole les droits de l’homme.
La lettre des employés
Le 16 mai 2024, les employés ont envoyé une lettre exprimant leurs inquiétudes. La lettre indique que, bien qu’elle ne cible pas de conflits ou de gouvernements spécifiques, elle s’inquiète de l’utilisation de L’IA dans l’armée Elle soutient qu’une telle implication nuit à l’engagement de DeepMind en faveur d’une IA éthique.
La lettre demande trois actions principales :
- Enquête:Découvrez comment la technologie de DeepMind est utilisée par les organisations militaires.
- Terminaison:Mettre fin à l’accès à la technologie DeepMind pour les clients militaires.
- Gouvernance:Créer un nouvel organisme pour empêcher toute utilisation militaire future de la technologie de DeepMind.
Réponse et frustrations des entreprises
Google a répondu qu’il respectait ses principes d’intelligence artificielle et que le projet Nimbus impliquait de fournir des services cloud aux ministères du gouvernement israélien, et non directement à l’armée. Google affirme que ces services ne sont pas destinés à des utilisations militaires sensibles ou classifiées.
Toutefois, les signataires de la lettre affirment que la réponse de Google n’est pas claire et ne répond pas à leurs préoccupations concernant le soutien à la surveillance et à la violence via sa technologie.
Les employés sont frustrés par le manque de réaction de Google face à leur lettre et estiment que la direction n’a pas répondu efficacement à leurs préoccupations.
Lors d’une réunion publique en juin, la directrice des opérations de DeepMind, Lila Ibrahim, a assuré aux employés que DeepMind ne développerait pas d’IA pour les armes ou la surveillance de masse. Elle a souligné l’engagement de Google en faveur d’une IA responsable, qui, selon elle, était la raison pour laquelle elle a rejoint et est restée dans l’entreprise.
Cette situation chez Google DeepMind reflète un débat plus large au sein de l’industrie technologique sur l’utilisation des technologies avancées dans les applications militaires. Alors que la technologie de l’IA continue de progresser, des entreprises comme Google sont confrontées au défi de trouver un équilibre entre les intérêts commerciaux et les responsabilités éthiques. L’issue de ce conflit pourrait établir des lignes directrices importantes pour la manière dont l’IA sera développée et utilisée à l’avenir.