快速3D化:苹果开源SHARP模型,仅需1秒,平面照片即刻变成三维空间体验
发布时间:2025-12-18 10:38:40 | 责任编辑:张毅 | 浏览量:6 次
在3D 内容创作领域,苹果公司近日投下了一枚“深水炸弹”。据科技媒体9to5Mac 披露,苹果正式开源了一款名为SHARP的新型 AI 模型。这项技术最令人惊叹之处在于,它打破了传统3D 重建动辄数小时的耗时瓶颈,仅需不到一秒钟,就能将一张普通的2D 照片转化为具有真实物理比例的3D 场景。
根据苹果发布的最新论文《一秒内实现清晰的单目视图合成》,SHARP的核心秘密在于采用了先进的“3D 高斯泼溅”技术(3D Gaussian Splatting)。不同于以往需要从成百上千个角度拍摄照片才能建模的复杂流程,SHARP 凭借海量数据的深度训练,已经掌握了通用的空间几何规律。这意味着,它只需通过神经网络的一次快速“扫描”,就能直接预测出数百万个带有光影信息的“高斯球”位置,瞬间完成建模。
在成像质量上,SHARP同样刷新了行业标杆。测试数据显示,其生成的3D 视图在纹理细节和结构还原度上大幅领先于此前业内最强的模型,能够支持极其真实的相机移动模拟。
目前,苹果已将SHARP的完整代码及资源发布在 GitHub 平台供全球开发者下载。尽管该模型目前主要侧重于原图视角附近的重建,无法完全“脑补”背后的盲区,但其带来的近乎实时的转换体验,无疑将为移动端3D 创作和空间计算应用开启全新的可能。
划重点:
⚡ 速度实现量级突破:SHARP模型将2D 转3D 的处理速度提升了三个数量级,实现了不到一秒的近乎实时转换体验。
🌐 领先的3D 生成技术:基于3D 高斯泼溅技术,模型通过单次神经网络前馈即可预测数百万个3D 点位,精准还原真实物理比例。
🔓 全面开源生态:苹果已在 GitHub 开源SHARP的代码与资源,旨在加速全球开发者在空间计算和3D 内容领域的创新。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
