革新视频渲染:NVIDIA 推出 Cosmos DiffusionRenderer 技术
发布时间:2025-08-04 12:48:14 | 责任编辑:吴昊 | 浏览量:8 次
NVIDIA 近期推出了 Cosmos DiffusionRenderer,这是一个旨在实现高质量图像和视频重光源及去光源的新型视频扩散框架。此技术是 NVIDIA 原有 DiffusionRenderer 方法的一次重大更新,通过改进的数据策划流程,实现了更高质量的渲染效果。
为了使用 Cosmos DiffusionRenderer,用户需要满足一些基本的安装要求,包括 Python3.10以及配备至少16GB 显存的 NVIDIA GPU。推荐使用至少24GB 显存的显卡。此外,还需要安装 NVIDIA 驱动和 CUDA12.0或更高版本,并确保有至少70GB 的空闲磁盘空间。
用户可以通过创建一个名为 “cosmos-predict1” 的 conda 环境,并安装相关依赖包来进行设置。安装完成后,用户还需要下载模型权重,这些权重可以从 Hugging Face 获取。下载后,用户可以开始进行推断,利用 DiffusionRenderer 对图像进行去光源和重光源处理。
在图像推断中,用户可以利用已训练的逆渲染模型,从输入图像中提取出基础颜色、法线、深度等 G 缓冲区信息。通过命令行的操作,用户能够轻松处理位于特定文件夹中的图像,并将结果保存到指定的输出文件夹。
在完成逆渲染后,用户可以使用前向渲染器来对图像进行重光源处理。此时,用户可以选择自定义的环境光照地图来进行渲染,产生不同的重光源效果。
如果用户希望处理视频,也可以先将视频中的帧提取出来,然后依次对每一帧进行逆渲染和重光源处理。整个过程支持多个环境光源的选择,并能生成相应的重光源视频。
Cosmos DiffusionRenderer 不仅为用户提供了极大的灵活性和创造性,还显著提升了渲染质量。此技术的推出标志着视频渲染技术的又一重大进展,未来有望在各种视觉效果创作中发挥重要作用。
项目:https://github.com/nv-tlabs/cosmos1-diffusion-renderer
划重点:
🌟 此技术是 NVIDIA 原有 DiffusionRenderer 的重大升级,提供更高质量的图像和视频渲染。
💻 用户需安装 Python3.10和至少16GB 显存的 NVIDIA GPU,并创建相关的 conda 环境。
🎥 支持对图像和视频进行去光源及重光源处理,并能使用多种环境光照地图进行渲染。
NVIDIA 发布 Cosmos DiffusionRenderer:革命性视频渲染技术
NVIDIA 近期推出了 Cosmos DiffusionRenderer,这是对原有 DiffusionRenderer 的重大升级,通过改进数据策划流程,实现更高质量的图像和视频去光源与重光源渲染。DiffusionRenderer 是一项神经渲染技术,首次将逆渲染(从视频提取几何、材质等属性)与前向渲染(基于新光照生成逼真视频)统一在一个框架中,使视频编辑(如将白天转为夜晚、调整光照和材质、插入物体)变得简单且逼真,无需传统 3D 建模。
该技术已集成到 NVIDIA Cosmos Predict-1 世界基础模型中,进一步优化了时间一致性和渲染质量。其应用广泛,包括广告、影视、游戏开发及智能汽车和机器人的合成数据生成。用户可通过 Python3.10、配备至少 16GB 显存的 NVIDIA GPU(推荐 24GB)及相关依赖包使用该技术,并通过命令行操作处理图像或视频帧,实现重光源和去光源处理。
Cosmos DiffusionRenderer 的发布标志着视频渲染技术的重要进展,为创作者和开发者提供了强大工具,进一步推动了 AI 驱动内容创作的潜力。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。