Richard Ho, responsable du matériel d’Openai, a déclaré que les futures infrastructures d’IA doivent inclure des fonctionnalités de sécurité au niveau du matériel telles que les commutateurs Kill pour gérer les modèles d’IA potentiellement imprévisibles. S’exprimant lors du sommet de l’AI infra à Santa Clara, il a fait valoir que les mesures de sécurité en fonction des logiciels actuelles sont insuffisantes car elles s’appuient sur l’hypothèse que le matériel sous-jacent est sécurisé et peut être facilement contrôlé.
Pourquoi la sécurité des logiciels ne suffit pas pour l’avenir de l’IA?
Ho a expliqué que la plupart des protocoles de sécurité IA actuels fonctionnent au niveau du logiciel et présument que le matériel peut être arrêté en coupant simplement l’alimentation. Il a averti que cette hypothèse ne peut pas être vraie que les modèles d’IA deviennent plus avancés et montrent ce qu’il a décrit comme un comportement « sournois ».
« Aujourd’hui, beaucoup de travail de sécurité se trouve dans le logiciel. Il suppose que votre matériel est sécurisé … il suppose que vous pouvez éliminer le matériel. Je ne dis pas que nous ne pouvons pas débarrasser de ce matériel, mais je vous dis que ces choses sont sournoises, les modèles sont vraiment sournois, et donc en tant que mec de matériel, je veux m’assurer de cela. »
Ce potentiel pour les systèmes d’IA pour contourner les commandes de logiciels traditionnelles fait des garanties intégrées directement dans le silicium une nécessité.
Nouvelles infrastructures nécessaires aux agents d’IA persistants
Ho a décrit un avenir où les agents de l’IA fonctionnent en tant qu’entités à longue durée de vie, fonctionnant de manière persistante en arrière-plan pour gérer les tâches sans entrée utilisateur constante. Ce modèle nécessite un changement significatif dans la conception des infrastructures. Les futurs systèmes devront être riches en mémoire avec des capacités de faible latence pour gérer des sessions continues où plusieurs agents collaborent sur des tâches complexes. Ho a souligné que le réseautage sera un élément essentiel, car les agents devront communiquer et utiliser des outils en temps réel simultanément pour des activités telles que les recherches Web et la prise de décision coordonnée.
Caractéristiques et défis de sécurité matérielle proposés
Pour répondre aux risques, OpenAI propose d’intégrer des mesures de sécurité spécifiques directement dans les grappes matérielles d’IA. Ceux-ci incluent:
- Les changements de mise à mort en temps réel pour arrêter immédiatement les opérations.
- Systèmes de télémétrie pour surveiller et alerter sur un comportement anormal d’IA.
- Sélectionnez des chemins d’exécution dans les puces pour isoler les processus critiques.
Cependant, la mise à l’échelle de cette infrastructure présente plusieurs défis. HO a identifié des limitations de mémoire à large bande passante, la nécessité d’interconnexions optiques fiables pour un transfert de données plus rapide et des exigences de puissance sévères – a procédé à atteindre jusqu’à 1 mégawatt par rack – comme les principales contraintes.
Développement de nouvelles normes pour le matériel et le réseautage
Ho a appelé à la création de nouveaux repères spécifiquement pour les architectures « Agent-Aware ». Ces normes devraient mesurer les performances sur la latence, l’efficacité et la consommation d’énergie pour guider le développement matériel. Il a également souligné que l’observabilité doit être une fonctionnalité matérielle constante et intégrée, pas seulement un outil temporaire pour le débogage.
« Nous devons avoir une bonne observabilité en tant que fonctionnalité matérielle, non seulement en tant qu’outil de débogage, mais construit et surveillant constamment notre matériel. »
Il a conclu en mettant en évidence les problèmes de fiabilité actuels avec les technologies de réseautage émergentes comme les interconnexions optiques, exhortant l’industrie à effectuer des tests approfondis pour s’assurer que ces systèmes sont suffisamment fiables pour les applications d’IA critiques.




