OpenAI a annoncé un partenariat avec l’entrepreneur de défense Anduril pour améliorer les systèmes militaires de lutte contre les avions sans pilote. Cette collaboration marque un changement significatif dans la position antérieure d’OpenAI sur l’implication militaire, dans un contexte d’inquiétudes croissantes concernant l’utilisation de l’IA dans la guerre. L’alliance vise à tirer parti de l’IA avancée pour améliorer les capacités de détection et de réponse aux menaces en temps réel pour les missions de sécurité nationale américaines.
OpenAI s’associe à Anduril pour améliorer les systèmes de lutte contre les drones
L’objectif du partenariat réside dans le développement de modèles d’IA capables de synthétiser rapidement des données sensibles au temps pour aider les opérateurs humains à évaluer les menaces aériennes. Selon OpenAI, cette initiative vise à protéger le personnel militaire américain des attaques de drones tout en maintenant son engagement envers sa mission de ne pas causer de dommages. Sam Altman, PDG d’OpenAI, a déclaré : « OpenAI développe l’IA pour qu’elle profite au plus grand nombre et soutient les efforts menés par les États-Unis pour garantir que la technologie respecte les valeurs démocratiques. »
Ce partenariat marque la première collaboration d’OpenAI avec un sous-traitant de la défense, suite à une décision prise plus tôt cette année de lever l’interdiction de l’utilisation militaire de ses outils. Auparavant, les politiques d’OpenAI interdisaient explicitement l’utilisation de sa technologie à des fins militaires, y compris le développement d’armes. Cependant, récemment, la société a révisé ses lignes directrices, supprimant la terminologie liée à l’usage militaire, même si la prudence reste de mise alors qu’elle continue d’affirmer l’importance de ne pas utiliser ses systèmes d’IA pour causer des dommages.
Anduril, co-fondé par Palmer Luckey, est aurait évalué à environ 14 milliards de dollars et a obtenu un contrat de 200 millions de dollars avec le Corps des Marines spécifiquement pour les systèmes de lutte contre les drones. Cette décision d’OpenAI s’aligne sur une tendance plus large dans l’industrie technologique, alors que plusieurs entreprises d’IA ont recherché des partenariats avec des entrepreneurs de la défense. Anthropic, soutenu par Amazon, a notamment formé une alliance similaire avec Palantir pour soutenir les agences américaines de renseignement et de défense.
Les critiques de cette collaboration techno-militaire expriment leurs inquiétudes quant aux implications éthiques, car de nombreux employés du secteur technologique ont protesté contre les contrats militaires dans le passé. Les travailleurs d’entreprises comme Google et Microsoft ont exprimé de fortes objections aux projets utilisant la technologie à des fins militaires, suscitant un débat public sur le rôle de la technologie dans la guerre.
Malgré les préoccupations éthiques, le partenariat entre OpenAI et Anduril vise à renforcer les capacités militaires, en se concentrant sur l’amélioration de la connaissance de la situation en cas de menaces potentielles. La collaboration vise à réduire le fardeau des opérateurs humains, en leur permettant de prendre plus rapidement des décisions éclairées. Les détails de la manière dont ce partenariat se déroulera sont encore en cours d’élaboration, et il reste à voir comment les deux parties envisagent de relever les défis inhérents.
L’IA recherchera des armes dans les métros de New York
Inquiétudes concernant les partenariats militaires
L’évolution d’OpenAI vers une collaboration avec des sous-traitants de la défense soulève d’importantes questions concernant la responsabilité dans l’utilisation des technologies d’IA. Comme indiqué, de nombreux employés de l’industrie technologique se sont opposés à tout engagement dans le cadre de contrats militaires, soulignant la nécessité de transparence quant à la manière dont les technologies d’IA pourraient être appliquées sur le champ de bataille.
En janvier, OpenAI a discrètement modifié ses politiques d’utilisation, qui interdisaient auparavant les applications militaires de ses modèles d’IA. Cette décision a coïncidé avec l’implication croissante d’OpenAI dans des projets avec le ministère américain de la Défense, visant à déployer des systèmes d’IA à des fins notamment de cybersécurité. L’évolution continue de ces partenariats reflète une tendance plus large parmi les entreprises technologiques à réévaluer leurs positions sur les contrats militaires.
Reconnaissant l’importance d’une utilisation responsable de l’IA, OpenAI a réitéré son engagement à garantir que ses technologies soient utilisées de manière éthique, en déclarant spécifiquement que le partenariat est conçu pour protéger le personnel militaire et renforcer les mesures de sécurité nationale. Cependant, le scepticisme persiste quant à la mesure dans laquelle les systèmes basés sur l’IA pourraient conduire à une réduction de la surveillance humaine dans les processus décisionnels critiques.