首页 > 快讯 > 清华大学与字节跳动联合推出开源的先进多模态框架HuMo

清华大学与字节跳动联合推出开源的先进多模态框架HuMo

发布时间:2025-09-12 17:32:47 | 责任编辑:吴昊 | 浏览量:8 次

字节跳动的智能创作团队与清华大学联合推出了一款名为 HuMo 的开源框架,旨在推动人体视频生成(HCVG,Human-Centric Video Generation)领域的进步。HuMo 框架具备强大的多模态输入处理能力,可以同时利用文本、图像和音频三种信息,协同生成高质量视频。
HuMo 的名称 “Human-Modal” 恰如其分地反映了其聚焦人类及其活动的理念。这个框架的成功之处在于它构建了一个高质量的数据集,并创新性地采用了渐进式训练方法。这种训练方式使得 HuMo 能够在各项子任务中超过现有的专业化方法,生成清晰度高达480P 和720P 的视频,最长可达97帧,以25帧每秒的速度输出可控的人物视频。
框架的核心优势在于其创新的数据处理流程、灵活的推理策略以及渐进式的多模态训练方式。这些技术的结合,不仅提高了生成视频的质量,还提升了处理速度,使得 HuMo 在实际应用中表现得更加出色。
对于开发者和研究人员来说,HuMo 不仅是一种新的工具,更是一种灵活的解决方案,能够满足不同场景下的需求。项目的开源地址也让更多的人可以参与到这项技术的研究与应用中,为未来的多模态视频生成探索新的可能。
论文地址:https://arxiv.org/pdf/2509.08519

清华大学与字节跳动联合推出开源的先进多模态框架HuMo

这是一篇关于字节跳动与清华大学携手开源前沿多模态框架HuMo的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐