小米开源 VLA 大模型后训练全流程,实现亚毫米级精准对位
发布时间:2026-04-27 18:01:46 | 责任编辑:张毅 | 浏览量:4 次
小米近期宣布正式开源其视觉-语言-动作(VLA)大模型 Xiaomi-Robotics-0的真机后训练全流程。这一举措标志着小米在具身智能领域迈出重要一步,旨在让机器人能够更快速地通过少量数据掌握复杂的操作技能。
二十小时练就“穿针引线”
基于预训练基座,研发团队仅利用约20小时的任务数据进行真机后训练,便让机器人掌握了将耳机精准收纳进盒的高难度动作。该过程不仅要求极高的空间感知精度,还需克服极低表面粗糙度带来的位移干扰。
模型必须在亚毫米级的公差范围内完成对位,并能实时修正动作偏差。这种“连续丝滑”的执行能力,证明了 Xiaomi-Robotics-0在处理高精度装配任务时的卓越潜力。
开源生态推动生产力进化
为了让该模型真正成为“开箱即用”的工具,小米此次不仅开放了模型权重,还公布了技术报告与源代码。这种全链条的开源模式,极大降低了开发者进入具身智能领域的门槛。
此前,该模型在国际权威平台上已表现出色,位列全球下载榜前列。随着后训练流程的公开,全球开发者将能共同优化机器人的感知与执行逻辑,加速 AI 机器人走进现实生产生活的进程。
项目网站:https://robotics.xiaomi.com/xiaomi-robotics-0.html
开源代码:https://github.com/XiaomiRobotics/Xiaomi-Robotics-0
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
