Luma AI, une société soutenue par a16z et spécialisée dans la vidéo IA et les modèles 3D, libéré Ray3 Modify, un nouveau modèle qui permet aux utilisateurs de modifier des séquences existantes à l’aide d’images de référence de personnages tout en préservant les performances d’origine. Les utilisateurs fournissent des images de début et de fin pour générer des séquences de transition, répondant ainsi aux défis de préservation des studios de création. Ray3 Modify résout les problèmes liés au maintien des performances humaines lors de l’édition ou de la génération d’effets basée sur l’IA. Le modèle adhère étroitement aux images d’entrée, permettant aux studios d’employer des acteurs humains dans des productions créatives ou de marque. Il conserve spécifiquement le mouvement, le timing, la ligne des yeux et la transmission émotionnelle d’origine de l’acteur tout en transformant la scène. Les utilisateurs saisissent une référence de personnage pour modifier l’apparence de l’acteur humain en le personnage spécifié dans la séquence. Ce processus préserve les détails tels que les costumes, la ressemblance et l’identité tout au long du tournage. De telles capacités garantissent des éléments visuels cohérents d’une séquence à l’autre sans tournage supplémentaire. Les créateurs fournissent également des images de référence de début et de fin pour produire des segments vidéo avec Ray3 Modify. Cette fonctionnalité aide à diriger des transitions fluides ou à spécifier les mouvements et les comportements des personnages. La continuité entre les scènes reste intacte, supportant des structures narratives complexes dans les projets vidéo. Amit Jain, co-fondateur et PDG de Luma AI, a déclaré : « Les modèles vidéo génératifs sont incroyablement expressifs mais également difficiles à contrôler. Aujourd’hui, nous sommes ravis de présenter Ray3 Modify qui mélange le monde réel avec l’expressivité de l’IA tout en donnant un contrôle total aux créatifs. Cela signifie que les équipes créatives peuvent capturer des performances avec une caméra, puis les modifier immédiatement pour se trouver dans n’importe quel endroit imaginable, changer de costume ou même revenir en arrière et reprendre la scène avec l’IA, sans recréer le tournage physique. » https://www.youtube.com/watch?v=4s-wRxtSKC0 Le modèle s’intègre directement à la plateforme Dream Machine de Luma, le rendant immédiatement accessible aux utilisateurs. Luma se positionne face à des concurrents tels que Runway et Kling dans le domaine de la génération vidéo IA. La société a introduit ses premières capacités de modification vidéo en juin 2025. Cette version fait suite à un cycle de financement de 900 millions de dollars annoncé en novembre, dirigé par Humain, une société d’IA détenue par le Fonds d’investissement public d’Arabie Saoudite. Les investisseurs existants a16z, Amplify Partners et Matrix Partners ont rejoint le cycle, fournissant un capital substantiel pour l’expansion. https://static.cdn-luma.com/files/sanity/c9df5066-d549-4793-9dbb-fdff8ae16fba.mp4
Vidéo : Luma
Luma prévoit de construire un cluster d’IA 2GW en Arabie Saoudite en collaboration avec Humain. Cette initiative d’infrastructure prend en charge la mise à l’échelle des ressources informatiques pour les opérations avancées de modélisation vidéo et 3D d’IA.





