DragNUWA:通过集成文本、图像和轨迹对视频生成进行细粒度控制
论文地址:https://arxiv.org/abs/2308.08089
DragNUWA 使用户能够直接操纵图像中的背景或对象,模型将这些动作无缝地转换为相机运动或对象运动,生成相应的视频。
DragNUWA,一个开放域的视频生成模型。为了解决现有作品中控制粒度不足的问题,我们同时引入文本、图像和轨迹信息,从语义、空间和时间的角度对视频内容进行细粒度的控制。为解决目前研究中的有限开放域射控问题,我们模型的轨迹有三个方面:一个轨迹采样器(TS),使开放域控制的任意轨迹,多尺度融合(MF)控制在不同粒度的轨迹,和自适应训练
(AT)策略,以产生一致的视频轨迹。
这里是引用
以拖动(drag)的方式给出运动轨迹,DragNUWA 是一个集成了文本、图像和轨迹控制的系统,可以从语义、空间和时间的角度实现可控的视频生成。
该研究认为文本、图像、轨迹这三种类型的控制是缺一不可的,因为它们各自有助于从语义、空间和时间角度控制视频内容。如下图 1 所示,仅文本和图像的组合不足以传达视频中存在的复杂运动细节,这可以用轨迹信息来补充;仅图像和轨迹组合无法充分表征视频中的未来物体,文本控制可以弥补这一点;在表达抽象概念时,仅依赖轨迹和文本可能会导致歧义,图像控制可以提供必要的区别。
有以拖动(drag)的方式给出运动轨迹、「变换」静态景物图像的相机位置和角度等各种使用方式
仓库地址:https://github.com/ProjectNUWA/DragNUWA