首款自动驾驶推理模型由英伟达推出,展望下一代AI核心
发布时间:2025-12-02 11:12:20 | 责任编辑:张毅 | 浏览量:1 次
芯片巨头英伟达周一在加州圣地亚哥举行的 NeurIPS 人工智能大会上宣布了新的基础设施和人工智能模型,此举旨在加速构建物理人工智能(Physical AI)的基础技术,该领域包括能够感知现实世界并与之互动的机器人和自动驾驶汽车。
英伟达发布了 Alpamayo-R1,这是一款专用于自动驾驶研究的开放式推理视觉语言模型(VLAM)。该公司声称,这是首个专注于自动驾驶的视觉语言动作模型。视觉语言模型能够同时处理文本和图像,使车辆能够“看到”周围环境,并根据感知信息做出决策。
Alpamayo-R1基于英伟达的 Cosmos-Reason 模型,该推理模型能够在做出响应之前进行“思考”和决策。英伟达表示,像 Alpamayo-R1这样的技术对于旨在实现 L4级完全自动驾驶的公司至关重要,并希望这种推理模型能赋予自动驾驶汽车“常识”,使其能够更好地处理复杂的驾驶决策,更像人类驾驶员。
这款新模型已在 GitHub 和 Hugging Face 平台开放。
除了新的视觉模型,英伟达还在 GitHub 上线了一套新的分步指南、推理资源和训练后工作流程,统称为 Cosmos Cookbook。这套指南涵盖了数据整理、合成数据生成和模型评估等方面,旨在帮助开发者更好地使用和训练 Cosmos 模型,以满足其特定的应用场景需求。
此次发布正值英伟达全力推进物理人工智能领域之际,将其视为其先进 AI GPU 的新应用方向。
英伟达联合创始人兼首席执行官黄仁勋曾多次强调,下一波人工智能浪潮将是物理人工智能。英伟达首席科学家比尔·戴利也表达了类似观点,并着重强调了物理人工智能在机器人领域的应用。戴利此前表示:“我认为最终机器人将在世界上扮演举足轻重的角色,而我们希望最终能够制造出所有机器人的大脑。要做到这一点,我们需要开始研发关键技术。”
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
