阿里巴巴推出开放式全能视频大模型,助力视频创作与编辑
发布时间:2025-05-15 08:55:53 | 责任编辑:张毅 | 浏览量:49 次
5月14日晚,阿里巴巴正式推出了通义万相 Wan2.1-VACE,这是当前行业中功能最为全面的视频生成与编辑模型。该模型的亮点在于它具备多种强大的能力,可以同时实现文生视频、图像参考视频生成、视频重绘、局部编辑、背景延展和时长延展等多项基础生成和编辑功能。这一开创性的产品标志着视频制作的门槛进一步降低,使更多的创作者能够轻松上手。
此次开源的模型分为两个版本,分别为1.3B 和14B,其中1.3B 版本特别设计为能够在消费级显卡上流畅运行,意味着即使是普通用户也能体验到高端的视频编辑功能。开发者们可以通过 GitHub、Huggingface 及魔搭社区轻松下载和体验这款模型,感受其强大的视频生成能力。此外,阿里巴巴还计划逐步将该模型上线到通义万相官网和阿里云百炼,进一步拓展其应用范围。
图源备注:图片由AI生成
值得注意的是,随着视频内容的日益普及,优质的创作工具显得愈发重要。通义万相 Wan2.1-VACE 将为视频创作者提供一个统一的平台,无论是制作短视频还是进行专业的影视编辑,都能得到很好的支持。这意味着,更多的创作者无论背景如何,都能在这一平台上释放他们的创意,实现多元化的内容输出。
在技术方面,通义万相 Wan2.1-VACE 采用了最前沿的人工智能技术,确保其在处理复杂的视频生成和编辑任务时能够保持高效和高质量。阿里巴巴的这一举措不仅展示了其在人工智能领域的深厚实力,也为视频内容创作提供了新的可能性和想象空间,推动了整个行业的进步。
阿里巴巴此次开源的全能视频大模型无疑将对视频创作领域产生深远影响,激励更多的创新与创作,助力视频内容的多样化发展。
阿里巴巴于2025年5月14日正式开源了其最新的全能视频大模型——通义万相Wan2.1-VACE。这是目前业界功能最为全面的视频生成与编辑模型,具备以下特点:
功能强大
通义万相Wan2.1-VACE能够同时支持多种视频生成和编辑能力:
- 文生视频:用户只需输入文本描述,模型即可生成相应视频。
- 图像参考视频生成:基于输入的图像生成视频。
- 视频重绘与局部编辑:可对已有视频进行重绘或对特定部分进行编辑。
- 视频背景与时长延展:支持调整视频背景或延长视频时长。
技术规格与运行环境
通义万相Wan2.1-VACE提供1.3B和14B两个版本:
- 1.3B版本:可在消费级显卡上运行,降低了硬件门槛。
- 14B版本:适用于对视频质量要求较高的场景。
行业影响
该模型的开源极大地降低了视频创作的技术门槛,使得更多普通用户能够参与到高质量视频创作中。无论是短视频博主、教育工作者还是企业营销人员,都可以借助这一模型轻松实现创意。此外,其开源也推动了视频创作行业的技术革新。
下载与使用
开发者可以在GitHub、Hugging Face及魔搭社区下载体验该模型。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。