3D生成大模型Seed 3D 1.0由字节跳动Seed团队正式发布
发布时间:2025-10-23 14:58:02 | 责任编辑:张毅 | 浏览量:6 次
字节跳动Seed团队近日宣布推出3D生成大模型Seed3D1.0,该模型能够从单张图像端到端地生成高质量仿真级3D模型,包括精细几何、真实纹理和基于物理渲染(PBR)材质。这一创新成果有望为具身智能的发展提供强大的世界模拟器支持,解决当前技术在物理交互能力和内容多样性方面的瓶颈问题。
在研发过程中,Seed团队收集并处理了大规模的高质量3D数据,构建了完整的三阶段数据处理管线,将海量异构的原始3D数据转化为高质量训练集。Seed3D1.0采用基于Diffusion Transformer架构的模型,通过端到端的技术路线,实现从单张图像到仿真级3D模型的快速生成。该模型在几何生成方面表现出色,能够精确构建结构细节并保证物理完整性;在纹理贴图生成上,通过多模态Diffusion Transformer架构,确保不同视角间的一致性;在PBR材质生成上,采用估计方法框架,提升了材质估计的准确性。
Seed3D1.0的生成能力在多项对比评估中展现出显著优势。在几何生成方面,1.5B参数的Seed3D1.0超过了业界3B参数的模型,能够更准确地还原复杂物体的精细特征。在纹理材质生成方面,Seed3D1.0在参考图像保持性方面表现优秀,特别是在精细文本生成和人物生成上优势明显。人工评测结果显示,Seed3D1.0在几何质量、材质纹理、视觉清晰度及细节丰富度等多个维度均获得较好的评分。
Seed3D1.0不仅能够生成单一物体的3D模型,还可通过分步生成策略构建完整的3D场景。生成的3D模型能够无缝导入Isaac Sim等仿真引擎,仅需少量适配工作即可支持具身智能大模型训练。这一能力为机器人训练提供了多样化的操作场景,实现了交互式学习,并为视觉-语言-行动模型构建了全面的评估基准。
尽管Seed3D1.0在三维模型和场景生成中展现了良好性能,但Seed团队也意识到,要基于3D生成大模型搭建世界模型仍面临生成精度、泛化性需进一步提升等挑战。未来,团队将尝试引入多模态大语言模型(MLLM)来提升3D生成的质量和鲁棒性,并推动3D生成模型在世界模拟器中的大规模应用。
项目主页:
https://seed.bytedance.com/seed3d
体验入口:
https://console.volcengine.com/ark/region:ark+cn-beijing/experience/vision?modelId=doubao-seed3d-1-0-250928&tab=Gen3D
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。