Meta SAM 3D,单图快速生成可交互三维模型
Meta 开源 SAM 3D 技术,能够实现单图生成可交互 3D 模型的功能,该技术能够在短时间内从单一图片创建出高质量的 3D 模型,用户可以通过这些模型进行交互操作,这一创新技术的开源,将极大地推动 3D 模型制作的发展,降低制作成本,提高制作效率,为开发者提供更加便捷高效的建模工具。


Meta AI 推出 Segment Anything 系列新成员 SAM3D,包含 SAM3D Objects 与 SAM3D Body 两套预训练模型:前者适用于通用物体和场景的三维重建,后者专注于人像建模。两种模型均仅需输入一张2D图像,即可生成具备完整纹理、材质及几何一致性的高质量3D资产,在真实场景图像上的表现显著超越当前主流的 NeRF 与 Gaussian Splatting 方法。
SAM3D 的核心技术在于“空间位置-语义”联合编码机制,为每个像素预测对应的3D坐标与表面法向量,确保输出结果符合物理规律,可直接应用于 AR/VR、机器人感知以及影视特效制作等场景。Meta 已全面开源模型权重、推理代码及评测基准,并在 Facebook Marketplace 中推出“View in Room”功能,允许用户将商品的3D模型实时投射到自家环境中进行预览。
根据官方测试数据,SAM3D Objects 在公开数据集上的 Chamfer Distance 指标下降28%,法向一致性提升19%;SAM3D Body 在 AGORA-3D 基准测试中 MPJPE 指标优于现有最优单图方法14%,并支持一键对接 Mixamo 骨骼系统实现动画驱动。
Meta 表示,该模型已集成至 Quest3 及 Horizon Worlds 创作平台,开发者可通过 Edits 与 Vibes 应用调用相关 API,按每生成一个模型 0.02 美元计费。预计于2026年第一季度发布支持移动端实时推理的 SDK。
源码地址:点击下载
<< 上一篇
下一篇 >>
网友留言(0 条)