苹果推出 STARFlow-V 视频模型,独家采用“归一化流”,实现长达30秒的画面稳定
发布时间:2025-12-08 10:47:26 | 责任编辑:字母汇 | 浏览量:3 次
苹果公司正式发布了其全新的视频生成模型 STARFlow-V,该模型在底层技术上与当前主流的Sora、Veo和Runway等竞争对手完全不同。STARFlow-V 放弃了业界主流的扩散模型(Diffusion Model),转而采用**“归一化流”(Normalizing Flow)**技术,旨在解决长视频片段生成中的稳定性和错误累积问题。
扩散模型通过多步迭代去除噪声来生成视频,而STARFlow-V的核心“归一化流”技术,则直接学习随机噪声和复杂视频数据之间的数学变换。这一根本性差异带来了几大优势:
训练效率:训练过程只需一次完成,无需多次小迭代,提高了效率。
生成速度:训练完成后可直接生成视频,无需迭代计算,生成速度得到显著提升。
错误减少:减少了逐步生成过程中常见的错误。
苹果表示,STARFlow-V是首个在视觉质量和速度上能与扩散模型相媲美的同类技术。通过并行处理和重用先前帧数据,其生成五秒视频的速度比初始版本提高了约15倍。
双架构应对长视频挑战
生成长序列是当前视频AI技术的难题,因逐帧生成容易导致误差累积。STARFlow-V采用双架构方法来缓解这一问题:
一个组件管理跨帧的时间序列(运动一致性)。
另一个组件优化单个帧内的细节(画面质量)。
通过这种设计,STARFlow-V在长达30秒的演示片段中保持了稳定性,而竞争对手如NOVA和Self-Forcing在几秒后便开始出现模糊或色彩失真。
多功能性与性能表现
该模型无需修改即可处理多种任务,包括:
文本转视频(Text-to-Video)。
图像转视频(Image-to-Video),将输入图像作为起始帧。
视频编辑,允许用户添加或删除对象。
在VBench基准测试中,STARFlow-V获得了79.7分。虽然落后于Veo3(85.06) 和 HunyuanVideo (83.24) 等顶尖扩散模型,但它明显优于其他自回归模型,尤其在空间关系和人体表征方面表现出色。
尽管技术创新显著,STARFlow-V仍存在局限:分辨率相对较低(640×480,16帧/秒),且目前无法在标准显卡上实时使用。
更关键的是,该模型在物理模拟方面存在明显的缺陷,例如“章鱼穿过玻璃”和“石头凭空出现”等现象。
苹果承认这些限制,并计划在未来工作中专注于加快计算速度、缩小模型规模,以及使用更注重物理精确性的训练数据。相关代码已在GitHub上发布,模型权重将随后在Hugging Face上公布。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
