Google a mis à jour ses directives éthiques mardi, supprimant ses engagements à ne pas appliquer la technologie de l’intelligence artificielle (IA) aux armes ou à la surveillance. La version précédente des principes de l’IA de l’entreprise comprenait des interdictions de poursuivre les technologies susceptibles de causer des dommages globaux, y compris ceux utilisés pour les armes et la surveillance.
Google révise les directives de l’IA et ouvre la porte aux applications militaires
Dans un article de blog Par Demis Hassabis, chef de l’IA de Google, et James Manyika, vice-président directeur de la technologie et de la société, les dirigeants ont expliqué que la croissance de la technologie de l’IA a nécessité des ajustements aux principes. Ils ont souligné l’importance de diriger les pays démocratiques dans le développement de l’IA et la nécessité de servir les clients du gouvernement et de la sécurité nationale. «Nous pensons que les démocraties devraient diriger dans le développement de l’IA, guidé par des valeurs fondamentales comme la liberté, l’égalité et le respect des droits de l’homme», ont-ils déclaré. De plus, ils ont plaidé pour une collaboration entre les entreprises et les gouvernements partageant ces valeurs pour créer une IA qui protège les gens et soutient la sécurité nationale.
Les principes de l’IA révisés comprennent désormais des éléments de surveillance humaine et de mécanismes de rétroaction pour garantir la conformité au droit international et aux normes des droits de l’homme. Ils mettent également en évidence un engagement à tester la technologie pour atténuer les effets nocifs involontaires.
Ce changement contraste avec la position antérieure de Google, qui en avait fait une valeur aberrante parmi les principaux développeurs de l’IA. Des entreprises telles que Openai et Anthropic ont établi Des partenariats avec des entreprises militaires pour participer à la technologie de défense, tandis que Google avait précédemment opté pour des efforts similaires en raison des manifestations des employés. Google a initialement présenté ses principes d’IA en 2018 après l’opposition du personnel concernant son implication dans le projet du Pentagone Maven.
Dans un contexte plus large, la relation entre le secteur de la technologie américaine et le ministère de la Défense est le resserrement, avec l’IA de plus en plus importante pour les opérations militaires. Michael Horowitz, professeur de sciences politiques à l’Université de Pennsylvanie, a fait remarquer qu’il était judicieux que Google mette à jour ses politiques pour refléter ce paysage en évolution. Parallèlement, Lilly Irani, professeur à l’Université de Californie à San Diego, a suggéré que les déclarations exécutives reflètent des modèles en cours qui ont émergé au fil du temps.
L’ancien PDG de Google, Eric Schmidt, a précédemment exprimé ses préoccupations quant aux États-Unis qui ont dépassé l’IA par la Chine, soulignant la dynamique géopolitique autour du développement de l’IA. La récente mise à jour intervient au milieu des tensions, car la rivalité technologique américaine-chinoise s’intensifie. Suite à l’annonce de nouveaux tarifs de l’administration Trump, Pékin a lancé une enquête antitrust sur Google.
Les protestations internes concernant les contrats de cloud computing de Google avec Israël ont soulevé des préoccupations éthiques parmi les employés, citant des implications potentielles pour la population palestinienne. Les rapports révèlent que Google a accordé au ministère israélien de la Défense un accès accru à ses outils d’IA à la suite des attaques du Hamas le 7 octobre 2023.
Crédit d’image en vedette: Kerem gülen / idéogramme