巨人网络推出三大Muli-Modal模型:视频畸变消除,歌声转换达成“真实歌曲可用”
发布时间:2025-11-27 14:15:21 | 责任编辑:张毅 | 浏览量:3 次
巨人网络AI Lab 近日联合清华大学 SATLab、西北工业大学,重磅推出了三项音视频领域的多模态生成技术成果:音乐驱动的视频生成模型 YingVideo-MV、零样本歌声转换模型 YingMusic-SVC 与歌声合成模型 YingMusic-Singer。
这些体现了团队在音视频多模态生成技术上的最新进展,并将陆续在 GitHub、HuggingFace 等平台开源。其中,YingVideo-MV 模型实现仅凭“一段音乐加一张人物图像”即可生成音乐视频片段,它能够通过对音乐的节奏、情绪和内容结构进行多模态分析,确保镜头运动与音乐高度同步,并具备推、拉、摇、移等镜头语言,同时利用长时序一致性机制有效缓解长视频中常见的人物“畸变”和“跳帧”现象。
在音频生成方面,YingMusic-SVC 主打**“真实歌曲可用”**的零样本歌声转换能力,通过针对真实音乐场景的优化,有效抑制了伴奏、和声和混响的干扰,显著降低了破音与高音失真风险,为高质量的音乐再创作提供了稳定的技术支撑。
而 YingMusic-Singer 歌声合成模型则支持在给定旋律下输入任意歌词,即可生成发音清晰、旋律稳定的自然歌声,其主要特点在于能够灵活适应不同长度的歌词,并支持零样本音色克隆,大幅提升了 AI 演唱在创作中的灵活度与实用性,有效降低了音乐创作的门槛。
这是一篇关于巨人网络发布三大 Muli-Modal 模型:消除视频畸变,歌声转换实现“真实歌曲可用”的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
