Runway, la startup AI, a annoncé son dernier modèle vidéo AI, Gen-4conçu pour générer des scènes et des personnages cohérents sur plusieurs plans, relevant un défi commun dans les vidéos générées par l’IA.
Piste états Sur X, Gen-4 offre aux utilisateurs plus de «continuité et de contrôle» pour la narration.
Le modèle de synthèse vidéo Gen-4, qui se déroule actuellement aux utilisateurs payants et en entreprise, permet la création de caractères et d’objets à travers des prises de vue en utilisant une image de référence unique et des descriptions de la composition souhaitée, générant des sorties cohérentes sous plusieurs angles.
Pour démontrer ses capacités, Runway a publié une vidéo présentant une femme conservant son apparence à travers divers tirs, contextes et conditions d’éclairage. Cette version suit le générateur de vidéos Alpha Gen-3 de Runway, qui a étendu les longueurs vidéo mais a également été confrontée à la controverse en raison de la formation signalée sur les vidéos YouTube grattées et les films piratés.