Meta 公布开源项目 Spatial Lingo,启用用户与虚拟角色在现实环境中互动
发布时间:2026-01-08 12:09:17 | 责任编辑:张毅 | 浏览量:11 次
近日,Meta 公司在其 GitHub 平台上推出了一款名为 Spatial Lingo 的开源 Unity 应用,旨在帮助用户通过现实世界中的物体识别来练习语言。这款应用基于 Meta 的多种软件开发工具包(SDK),为用户提供了一种新颖而富有趣味的语言学习体验。
Spatial Lingo 应用的核心理念是通过引导用户用目标语言识别和描述周围环境中的物体,提升其语言能力。用户将在名为 Golly Gosh 的虚拟角色的引导下,利用身边熟悉的物品进行词汇练习。该应用支持手部追踪与控制器操作,增强了用户的沉浸感。
项目的设计旨在为 Unity 开发者提供对 Meta 多种功能的理解和开发模板。通过使用透视相机 API(PCA)、语音 SDK、混合现实实用工具包(MRUK)等,开发者可以创建更加丰富的混合现实体验。Spatial Lingo 的主场景和多个示例场景展示了如何实现这些功能,包括健身房场景、词云场景和相机图像场景。
为了使用 Spatial Lingo,开发者需确保其安装了 Unity6000.0.51f1或更高版本,并配置相应的 Llama API 密钥。项目还特别强调了安全性,提醒开发者不要在应用中嵌入 API 密钥,以防其被提取。
Spatial Lingo 的多项功能使其成为语言学习的强大工具。应用能够识别用户环境中的物体,并基于此生成动态的语言课程。随着用户不断构建其语言树,系统将自动生成与物体相关的动词和形容词,从而丰富课程内容。此外,应用还具备语音合成和转录功能,支持多种语言,进一步提升了互动性。
该项目不仅是 Meta 在教育领域的一次尝试,也为开发者提供了一个良好的开源示例,展示了如何将混合现实技术与语言学习相结合。开发者们可以在 GitHub 上访问 Spatial Lingo,获取源代码和相关文档,进一步探索其潜力。
地址:https://github.com/oculus-samples/Unity-SpatialLingo
这是一篇关于Meta 推出开源应用 Spatial Lingo,让用户在真实场景中对话虚拟角色的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
