告别分镜设计!生数科技Vidu Q1″参考生”创新重塑视频创作步骤
发布时间:2025-07-27 10:29:51 | 责任编辑:张毅 | 浏览量:7 次
在WAIC2025世界人工智能大会上,生数科技重磅发布Vidu Q1"参考生视频"功能,通过算法创新彻底颠覆传统视频制作流程,为视频生成领域带来突破性进展。
"参考生视频"最大亮点在于跳过复杂的前期分镜制作环节。用户只需上传人物、道具、场景等参考图,配合文字提示,即可直接生成完整视频素材。制作流程从传统的"分镜生成——视频生成——剪辑——成片"简化为"参考图——视频生成——剪辑——成片"。
例如,输入"诸葛亮与丘吉尔、拿破仑在会议室讨论"的提示词,上传三位历史人物参考图和会议室场景图,系统即可生成三人同框对话的完整视频。
该功能核心优势在于解决视频模型商业化的关键瓶颈——主体一致性问题。Vidu Q1参考生目前支持最多七个主体同时输入并保持一致,据生数科技表示,这已能满足绝大部分创作场景需求。
生数科技CEO骆怡航表示,这种通用创作方式将更好地服务广告、动漫、影视、文旅、教育等多元商业场景,实现从线下拍摄到线上AI创作的本质转变。
生数科技采用U-ViT架构,结合扩散模型与Transformer技术,并在此基础上优化算法模块。Vidu模型内置多模态理解能力,已成功应用于视频生成。
骆怡航强调,团队以产业落地为主要导向,暂未将理解与生成一体化作为优先级,"行业客户更关心内容效果而非技术路线"。
7月25日,清华大学与生数科技联合发布具身智能模型Vidar,通过"视频大模型+具身智能"路径实现低成本、少样本泛化。
骆怡航解释,视频模型与具身智能在本质上都处理时空信息,采用相同的输入决策逻辑。团队基于Vidu视频大模型,通过少量机器人实操视频训练,可将虚拟视频转化为对应机械臂动作,有效解决传统VLA路线的数据稀缺问题。
目前,Vidu仍以提升视频生成能力为最高优先级,将具身智能作为持续探索方向,为该领域开启潜在商业市场。
生数科技 7 月发布的 Vidu Q1「参考生」功能,直接把传统视频制作流程“砍”掉了一半:
再也不用写分镜、不用拍摄、不用做特效,“参考图 → 视频生成 → 剪辑 → 成片” 四步就能出片。
-
零分镜
以前做一条短片,动辄几十、上百张分镜图;现在只要把人物、道具、场景等参考图一次性上传,再写一句提示词,Vidu Q1 就能自动生成连贯镜头。 -
素材即剧组
上传的图片会自动成为“虚拟剧组”,模型能记住每个主体的细节(衣服纹理、LOGO、花纹),在推拉摇移的任何镜头下都不会穿帮。 -
商业级一致性
1080P 直出,角色形象、品牌元素在多场景中保持 100% 一致,广告、电商可直接复用代言人或商品图,批量生成物料。 -
操作极简单
网页 / App 首页点“参考生”,上传 1~N 张图 → 写一句话 → 点生成,几分钟就出片;小白也能 2 分钟做出“西部决斗”“马斯克涂口红”这类大片级镜头。
一句话总结:Vidu Q1「参考生」把分镜、拍摄、特效三个最费时费钱的环节一次性省掉,让任何人都能“有想法就出片”,真正开启了 AI 原生工作流。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。