Talk|南洋理工大学王谭:DisCo-基于解耦控制的现实人物舞蹈生成及相关工作梳理

发布时间:2024年01月12日

本期为TechBeat人工智能社区563线上Talk。

北京时间1月11(周四)20:00,南洋理工大学博士生王谭的Talk已准时在TechBeat人工智能社区开播!

他与大家分享的主题是:?DisCo-基于解耦控制的现实人物舞蹈生成及相关工作梳理,介绍了他的团队在人物动作迁移(human motion transfer)、人物图片/视频生成等相关工作所做的研究。

Talk·信息

主题:DisCo-基于解耦控制的现实人物舞蹈生成及相关工作梳理

嘉宾:南洋理工大学博士生?王谭

时间:北京时间?1月11日(周四)20:00

地点:TechBeat人工智能社区

点击下方链接,即可观看视频!

TechBeatTechBeat是荟聚全球华人AI精英的成长社区,每周上新来自顶尖大厂、明星创业公司、国际顶级高校相关专业在读博士的最新研究工作。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。icon-default.png?t=N7T8https://www.techbeat.net/talk-info?id=842

Talk·介绍

最近一年,随着Pika,Stable Video Diffusion等视频生成模型的大举发展,以人为中心的人物视频生成得到越来越多的关注。本Talk中,讲者将以热门人物舞蹈生成工作DisCo (23年6月发布)为锚点,梳理前后一系列(前至2019年火热的GAN时代,后到最新的23年12月ArXiv工作如Animate Anyone, MagicAnimate等)的人物动作迁移 (human motion?transfer) 、人物图片/视频生成相关工作,快速获取此领域的核心研究问题以及最新进展。

Talk大纲

1、背景 - 从“人物动作迁移”到“人物舞蹈生成”

2、关键动机 - 现实世界中的人物舞蹈生成有哪些问题

3、方法(点)- 基于解耦框架设计的现实人物舞蹈生成

4、方法(由点及面)- 系列后续工作梳理对比

5、实验结果及总结

Talk·预习资料

Image

项目链接:

https://disco-dance.github.io/

论文链接:

https://arxiv.org/abs/2307.00040

代码链接:

https://github.com/Wangt-CN/DisCo

Talk·提问交流

在Talk界面下的【交流区】参与互动!留下你的打call🤟和问题🙋,和更多小伙伴们共同讨论,被讲者直接翻牌解答!

你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!

Talk·嘉宾介绍

Image

王谭

南洋理工大学博士生

南洋理工大学四年级博士生,曾获Google PhD Fellowship 2022, 研究兴趣主要集中在视觉语言学习,生成模型及可信学习。工作发表于CVPR, ICCV, ECCV, NeurIPS等计算机视觉与机器学习顶级会议。

个人主页:?https://www.techbeat.net/grzytrkj?id=36864


关于TechBeat人工智能社区

TechBeat(www.techbeat.net)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。

我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。

期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>TechBeat,一个荟聚全球华人AI精英的学习成长社区

文章来源:https://blog.csdn.net/hanseywho/article/details/135504901
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。