论文
链接:DragNUWA: Fine-grained Control in Video Generation by Integrating Text, Image, and Trajectory
代码
:https://github.com/ProjectNUWA/DragNUWA
中国科学技术大学+微软亚洲研究院 在 NUWA多模态模型、 Stable Video Diffusion 、UniMatch基础上提出的可控视频合成方法
提出了同时(simultaneously )引入文本、图像和轨迹信息,从语义(semantic)、空间(spatial)和时间角度(temporal perspectives) 对视频内容进行·细粒度控制
(fine-grained control)。。
为了解决当前研究中开放域轨迹控制
(open-domain trajectory control )限制的问题,我们提出了三个方面的轨迹建模
一个轨迹采样器
(TS,a Trajectory Sampler):保证任意轨迹
(arbitrary trajectories,)的开放域控制
一个多尺度融合
(MF,a Multiscale Fusion):不同细粒度(granularities)的控制轨迹
自适应训练策略
(AT, Adaptive Training): 生成一致的
(consistent)的视频。
DragNUWA训练流程概述。DragNUWA支持三种可选输入:文本p、图像s和轨迹g,并专注于从三个方面设计轨迹。首先,轨迹采样器(TS)从开放域视频流中动态采样轨迹。其次,多尺度融合(MF)将轨迹与UNet架构的每个块中的文本和图像深度集成。最后,自适应训练(AT)将模型从光流条件调整为用户友好的轨迹。最终,DragNUWA能够处理具有多个对象及其复杂轨迹的开放域视频。
知识储备
)NUWA
: 神经视觉世界创造的视觉合成预训练模型 Visual Synthesis Pre-training for Neural visUal World Make-A-Video
:Meta AI 提出一种直接将文本到图像 (T2I) 生成的巨大最新进展转换为文本到视频 (T2V) 的方法 :Text-to-Video Generation without Text-Video DataImagen Video
: Imagen video: High ?video generation with diffusion modelsGEN1
: Runway : 基于扩散模型的结构和内容引导视频合成 Structure and Content-Guided Video Synthesis with Diffusion ModelsNeural visUal World creAtion
)Neural visual World creation (神经视觉世界创造)
视觉多模态预训练框架
一种统一的多模态预训练模型
N?UWA,该模型可以为各种视觉合成任务
生成新的或操作现有的视觉数据(即图像和视频)。为了同时覆盖不同场景的语言、图像和视频,设计了一个 3D 变压器编码器-解码器框架,该框架不仅可以将视频作为 3D 数据处理,还可以将文本和图像分别调整为 1D 和 2D 数据。还提出了一种 3D 近邻注意 (3DNA) 机制来考虑视觉数据的性质并降低计算复杂度。
本文提出了一种基于视频扩散模型级联的以文本情境来生成视频的系统,即用图像增强技术来生成视频——Imagen Video。 给定一个文本提示符(a text prompt),Imagen Video 使用基本视频生成模型和一系列时空交织的视频超分模型,来生成高清视频。我们描述了如何将该系统扩展为一个高清晰度的 text2video模型,包括设计决策,如在一定的分辨率下,时空超分模型的全卷积层的选择,和扩散模型(Diffusion Model)的v-parameterization的选择。此外,我们确认并迁移了一些研究成果,从以前基于diffusion的图像生成工作,到我们视频生成设置。 最终,我们将渐进式蒸馏(progressive distillation)运用至我们的视频生成模型中,用免分类(classier-free) 的引导函数来引导生成快速、高品质的样本。我们发现 Imagen Video 不仅能够生成高保真度的视频,并且具有高度的可控性,了解世界常识(world knowledge)。它能够生成不同艺术风格、能够理解3D对象的视频和文本动画。
主要借鉴于 Stable Video Diffusion
?、 Hugging Face、 ? UniMatch
一个统一的模型对三种运动和3D感知的任务:(流量、立体和深度估计获得):