英伟达发射“物理 AI”重磅:发布开源自动驾驶推理框架Alpamayo-R1,使车辆先“思考”后加速
发布时间:2025-12-02 10:46:59 | 责任编辑:吴昊 | 浏览量:1 次
加州圣迭戈电——在NeurIPS2025现场,英伟达发布首款面向L4级自动驾驶的推理视觉语言动作模型Alpamayo-R1,并同步上线GitHub与Hugging Face。新模型基于今年8月推出的Cosmos-Reason系列,可一次性处理摄像头、激光雷达与文本指令,先内部推理再输出驾驶决策,官方称其给车辆注入“人类常识”。
Alpamayo-R1亮点一览:
- 统一架构:视觉+语言+动作三模态端到端训练,避免分模块误差叠加
- 推理链路:Cosmos思维链让模型对“前车急刹、行人横穿”等场景进行多步推演,再输出加速/制动/转向信号
- 即开即用:权重、推理脚本与评估工具一并打包进“Cosmos Cookbook”,开发者可按需微调
英伟达首席科学家Bill Dally表示,机器人与自动驾驶将是下一波AI浪潮的核心,“我们要做所有机器人的大脑”。伴随新模型发布,公司同时推出数据合成、模型评测与后训练全流程指南,鼓励车企与Robotaxi团队在限定区域快速验证L4功能。
分析师认为,开源推理模型可显著降低车厂自研门槛,但能否通过功能安全认证、满足车规级实时要求,仍是Alpamayo-R1商业化前必须跨过的门槛。
这是一篇关于英伟达扔下“物理 AI”重弹:开源自动驾驶推理模型Alpamayo-R1,让车辆先“思考”再踩油门的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
