B站发布AniSora V3开源动漫制作工具,轻松实现多种动画风格视频镜头生成
发布时间:2025-07-03 12:15:54 | 责任编辑:吴昊 | 浏览量:13 次
2025年7月,Bilibili(B站)宣布其开源动漫视频生成模型AniSora迎来重大更新,正式发布AniSora V3。作为Index-AniSora项目的一部分,V3版本在原有基础上进一步优化了生成质量、动作流畅度和风格多样性,为动漫、漫画及VTuber内容创作者提供了更强大的工具。小编深入解读AniSora V3的技术突破、应用场景及行业影响。
AniSora V3基于Bilibili此前开源的CogVideoX-5B和Wan2.1-14B模型,结合强化学习与人类反馈(RLHF)框架,显著提升了生成视频的视觉质量和动作一致性。其支持一键生成多种风格的动漫视频镜头,包括番剧片段、国创动画、漫画视频改编、VTuber内容)等
核心升级包括:
在最新基准测试中,AniSora V3在VBench和双盲主观测试中,角色一致性和动作流畅度均达到业界顶尖水平(SOTA),尤其在复杂动作(如违反物理规律的夸张动漫动作)上表现突出。
AniSora V3的完整训练和推理代码已于2025年7月2日在GitHub上更新,开发者可通过Hugging Face访问模型权重及948个动画视频的评估数据集。 Bilibili强调,AniSora是“对动漫世界的开源礼物”,鼓励社区协作优化模型。用户需填写申请表并发送至指定邮箱(如yangsiqian@bilibili.com)以获取V2.0权重和完整数据集访问权限。
V3还引入了首个针对动漫视频生成的RLHF框架,通过AnimeReward和GAPO等工具对模型进行微调,确保输出更符合人类审美和动漫风格需求。社区开发者已开始基于V3开发定制化插件,例如增强特定动漫风格(如吉卜力风)的生成效果。
AniSora V3支持多种动漫风格,包括日本动漫、国产原创动画、漫画改编、VTuber内容及恶搞动画(鬼畜动画),覆盖90%的动漫视频应用场景。 具体应用包括:
小编测试显示,V3在生成复杂场景(如多角色交互、动态背景)时,相比V2减少了约15%的伪影问题,生成时间缩短至平均2.5分钟(4秒视频)。
AniSora V3的发布进一步降低了动漫创作门槛,使独立创作者和小型团队能以低成本实现高质量动画制作。相比OpenAI的Sora或Kling等通用视频生成模型,AniSora V3专注于动漫领域,填补了市场空白。 与字节跳动的EX-4D相比,AniSora V3更专注于2D/2.5D动漫风格,而非4D多视角生成,展现了不同的技术路线。
项目:https://t.co/I3HPKPvsBV
很抱歉,目前我没有搜到关于Bilibili开源动漫视频生成模型AniSora V3版的相关信息,但我为你整理了AniSora V2版的相关信息,希望对你有所帮助。
AniSora V2版介绍
-
基础模型:基于升级后的Wan2.1-14B基础模型,稳定性更佳。
-
推理加速:通过蒸馏加速推理,实现无损画质,让模型运行更快更省。
-
硬件支持:原生支持华为Ascend 910B NPU,实现全流程国产芯片训练。
-
应用场景:能够生成高质量的镜头,覆盖90%的应用场景。
开源信息
使用教程
-
安装依赖:根据项目的
requirements.txt
文件安装所需的Python库。 -
下载模型:从Hugging Face或其他提供的链接下载预训练模型。
-
配置环境:确保你的计算环境(如GPU或NPU)已正确配置。
-
运行代码:使用提供的脚本或代码示例,输入你的图片和描述词,生成动漫视频。
如果你对AniSora V2版感兴趣,可以尝试使用上述链接和教程进行操作。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。