L’énergie est électrique à Las Vegas comme AWS re:Inventer 2025 est actuellement en plein essor, et les annonces qui émanent des keynotes remodèlent immédiatement l’avenir du cloud et de la technologie d’entreprise. Cette année, l’accent s’est cristallisé autour de l’IA autonome, des infrastructures de nouvelle génération et des partenariats stratégiques.
Extension de la famille de modèles Amazon Nova et introduction de Nova Forge
Amazon est en expansion significative sa famille de modèles propriétaires Nova AI avec le déploiement du Amazone Nova 2 modèles. Ces nouveaux modèles sont conçus pour offrir un rapport qualité-prix de pointe pour diverses tâches et sont disponibles via Amazon Bedrock.
Les nouveaux modèles comprennent :
-
Nova 2 Lite: Un modèle de raisonnement rapide et rentable pour les tâches quotidiennes telles que les chatbots du service client et le traitement des documents. Il prend en charge une fenêtre contextuelle d’un million de jetons et est disponible pour la personnalisation via un réglage fin supervisé (SFT).
-
Nova 2 Pro: le modèle le plus intelligent d’AWS, disponible en version préliminaire, conçu pour des tâches agentiques très complexes en plusieurs étapes telles que le raisonnement vidéo et les migrations logicielles.
-
Nova 2 Sonique: Un nouveau modèle parole-parole pour l’IA conversationnelle.
-
Nova 2 Omni: Un modèle de raisonnement et de génération multimodal qui traite et génère du texte, des images, des vidéos et de la parole.
Parallèlement aux modèles, AWS a introduit Forge Novaun service pionnier de « formation ouverte ». Nova Forge permet aux organisations de créer leurs propres modèles de frontière personnalisés et exclusifs, appelés « Novellas », en mélangeant leurs propres données avec les données de formation et les points de contrôle d’origine de Nova. Ce service est conçu pour atténuer oubli catastrophiqueun risque où les modèles oublient les capacités fondamentales après avoir été affinés avec de nouvelles données après la formation.
AWS introduit des agents frontaliers autonomes
AWS évolue vers une nouvelle classe de solutions puissantes, agents d’IA autonomes conçus pour fonctionner pendant des heures, voire des jours, sans intervention humaine constante, les positionnant comme une extension de l’équipe de développement logiciel d’un client. Ces agents maintiennent un contexte persistant au fil des sessions, ce qui signifie qu’ils ne manquent pas de mémoire et n’oublient pas les instructions passées.
Trois premiers « agents frontaliers » ont été introduits :
-
Agent autonome Kiro: Agit en tant que développeur virtuel auquel on peut confier une tâche complexe à partir d’un backlog. Il détermine de manière indépendante comment effectuer le travail, en s’étendant sur plusieurs référentiels, et crée des demandes d’extraction vérifiées. Il apprend comment une équipe aime travailler et approfondit continuellement sa compréhension de la base de code et des normes au fil du temps. Par exemple, Matt Garman, PDG d’AWS, a décrit la mission de Kiro de mettre à jour une bibliothèque de codes critique utilisée par 15 microservices en une seule invite.
-
Agent de sécurité AWS: travaille de manière indépendante pour identifier les problèmes de sécurité au fur et à mesure que le code est écrit, le teste et propose des correctifs, transformant ainsi les tests d’intrusion d’un processus lent et manuel en une fonctionnalité à la demande.
-
Agent AWS DevOps: automatise les tâches opérationnelles, telles que tester un nouveau code pour détecter des problèmes de performances ou de compatibilité avec d’autres logiciels et environnements, aidant ainsi à identifier les causes profondes des problèmes de performances de manière autonome.
Le lancement de Trainium3 UltraServers pour la formation en IA
Pour prendre en charge l’échelle massive requise pour la formation de modèles d’IA de nouvelle génération, AWS déployé le Ultraserveurs Amazon EC2 Trn3. Ces systèmes sont alimentés par le nouveau Puce Trainium3construit sur la première solution d’AWS 3 nm Silicium IA.
Spécifications clés des UltraServers Trn3 :
-
Ils livrent jusqu’à Des performances 4,4 fois supérieures et plus 4x meilleures performances/watt par rapport aux précédents UltraServers Trn2.
-
Un seul UltraServer peut héberger jusqu’à 144 jetons Trainium3fournissant jusqu’à 362 PFLOP MXFP8 de calcul.
-
Le système propose jusqu’à 20,7 To de HBM3e (mémoire à large bande passante) et 706 To/s bande passante mémoire globale.
-
La puce Trainium3 serait 40 % plus économe en énergie que la génération précédente.
-
Pour l’avenir, AWS a également dévoilé la feuille de route pour Trainium4qui soutiendra NVLink Fusion de Nvidia technologie d’interconnexion, permettant l’interopérabilité avec les GPU Nvidia.
Nouveaux plans d’économies de bases de données basés sur l’IA
AWS présente Plans d’épargne de base de donnéesun nouveau modèle de consommation destiné à aider les clients à maintenir la rentabilité tout en conservant la flexibilité de leurs services de base de données et de leurs options de déploiement.
De plus, de nouvelles fonctionnalités pour Amazon RDS pour SQL Server et Oracle ont été déployées, notamment Prise en charge de Developer Edition pour SQL Server et le soutien à Instances M7i/R7i avec des processeurs optimisés. Les options de stockage pour ces services s’étendent également pour prendre en charge jusqu’à 256 Tio.
Annonce d’AWS AI Factories pour l’IA souveraine sur site
AWS introduit une nouvelle offre appelée Usines d’IA AWS pour répondre aux besoins des entreprises et des gouvernements ayant des exigences strictes en matière de souveraineté des données et de réglementation. Ce produit permet à ces clients d’exécuter tous les systèmes d’IA d’AWS, y compris les services de calcul, de stockage et d’IA comme Bedrock et SageMaker, au sein de leurs propres centres de données existants.
AWS AI Factories est une collaboration avec Nvidia et peut être équipé des derniers GPU Blackwell de Nvidia ou des nouvelles puces Trainium3 d’Amazon. Le service est conçu pour fonctionner comme une région AWS privée, offrant un accès sécurisé et à faible latence à l’infrastructure d’IA tout en garantissant que les données restent sur site. AWS gère le déploiement et la gestion de l’infrastructure intégrée.
Améliorations apportées à Amazon Bedrock AgentCore pour le développement d’agents
Amazon Bedrock AgentCore, la plateforme de création et de déploiement d’applications d’IA générative, reçu de nouvelles fonctionnalités majeures visant à aider les développeurs à créer et à faire évoluer des agents d’IA prêts pour la production avec un meilleur contrôle.
-
Politique dans AgentCore: permet aux développeurs de définir des limites pour les actions des agents en utilisant le langage naturel, permettant ainsi une gouvernance plus forte. Par exemple, une limite pourrait être définie afin que l’agent puisse automatiquement émettre des remboursements jusqu’à concurrence de 100 $ mais doit amener un humain dans la boucle pour quelque chose de plus grand.
-
Évaluations d’AgentCore: Une suite de 13 systèmes d’évaluation prédéfinis pour surveiller le comportement des agents en fonction de facteurs tels que l’exactitude, la sécurité et la précision de la sélection des outils.
-
Mémoire AgentCore: introduit une nouvelle fonctionnalité épisodique, aidant les agents à développer un journal d’informations sur les utilisateurs au fil du temps (comme les préférences de vol ou d’hôtel) pour éclairer les décisions futures.
AWS Interconnect : Multicloud en partenariat avec Google Cloud
Dans le cadre d’un développement multicloud important, AWS a déployé AWS Interconnect – multicloud en partenariat avec Google Cloud, en tirant parti de l’interconnexion Cross-Cloud de Google. Ce nouveau service de mise en réseau est conçu pour permettre aux clients d’établir des connexions privées à large bande passante entre les deux plates-formes cloud rivales avec des niveaux élevés d’automatisation.
La solution permet aux clients de fournir une bande passante dédiée à la demande et d’établir une connectivité dans minutesplutôt que des semaines. Le partenariat repose sur un projet développé conjointement spécification ouverte pour l’interopérabilité des réseaux et est conçu pour une résilience élevée en tirant parti de la quad-redondance et du cryptage MACsec pour une sécurité renforcée.
Amazon commence à tester les livraisons « ultra-rapides » en 30 minutes
Amazone annoncé le lancement d’une nouvelle option de livraison « ultra-rapide » dans certaines zones de Seattle et Philadelphielivraison prometteuse en 30 minutes ou moins pour une gamme d’articles, notamment des produits d’épicerie, des cosmétiques, des appareils électroniques et des produits essentiels.
Ce nouveau service, appelé Amazon maintenantest intégré à l’application et au site Web principaux d’Amazon.
-
Membres principaux pouvez accéder à cette option moyennant des frais de livraison à partir de 3,99 $ par commande.
-
Membres non-Prime payer 13,99 $.
-
UN 1,99 $ des frais de petit panier s’appliquent aux commandes sous 15 $.
Pour atteindre cette vitesse, Amazon utilise des installations de traitement des commandes plus petites et spécialisées, stratégiquement placées à proximité des lieux où vivent et travaillent les clients, réduisant ainsi la distance de déplacement des partenaires de livraison. Ce projet pilote national fait suite au lancement en octobre d’une initiative similaire aux Émirats arabes unis, où l’entreprise propose des livraisons en 15 minutes.




