AIHub 1月2日消息,来自美国得克萨斯大学奥斯汀分校和Meta生成式AI团队的研究人员在arXiv平台上发表一篇论文,提出了一个一致的视频生成视频(V2V)合成框架FlowVid,通过利用空间条件和源视频中的时间光流信息,实现了合成的高度一致性。给定输入视频和文本提示词,FlowVid就能合成时间一致的视频。
FlowVid支持多种视频编辑功能,包括改变视频的风格、换掉视频里的某个物体和局部编辑等。
根据论文,V2V模型FlowVid具有高灵活性、高效率、高质量等优势,生成一段30 FPS、512 × 512分辨率的4秒视频仅需1.5分钟。
FlowVid相关资源地址:
- 项目地址:https://jeff-liangf.github.io/projects/flowvid/
- 论文:https://arxiv.org/abs/2312.17681
- GitHub:https://github.com/Jeff-LiangF/FlowVid
©版权声明:如无特殊说明,本站所有内容均为AIHub.cn原创发布和所有。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。否则,我站将依法保留追究相关法律责任的权利。