字节跳动发布GR-3 VLA通用机器人模型,实现高精准度操作支持
发布时间:2025-07-22 14:22:10 | 责任编辑:吴昊 | 浏览量:20 次
近日,字节跳动Seed团队正式推出全新Vision-Language-Action Model(VLA)模型GR-3,该模型在机器人操作领域展现出突破性能力,不仅能理解包含抽象概念的语言指令,还可精准操作柔性物体,并具备快速迁移至新任务、认识新物体的泛化能力。这一成果被视为迈向通用机器人“大脑”的重要进展。
传统机器人操作模型往往依赖大量机器人轨迹数据进行训练,导致迁移至新任务时成本高、效率低。GR-3则通过少量人类数据即可实现高效微调,其核心突破在于采用Mixture-of-Transformers(MoT)网络结构,将视觉-语言模块与动作生成模块整合为40亿参数的端到端模型。其中,动作生成模块通过Diffusion Transformer(DiT)结合Flow-Matching技术生成动作,并引入归一化的RMSNorm设计,显著增强了动态指令跟随能力。这一结构使GR-3能像人类一样,直接根据摄像头画面与语言指令规划连续动作,例如在听到“收拾餐桌”后,自动完成“打包剩菜→收拾餐具→倒垃圾”的全流程。
训练数据层面,GR-3突破了单一数据源的局限,通过三合一数据训练法实现能力跃升:其一,利用遥操作机器人收集的高质量真机数据,确保基础操作能力;其二,通过用户授权的VR设备采集人类轨迹数据,使新任务学习效率提升近一倍(450条/小时 vs 传统250条/小时);其三,融合公开可用的图文数据,让模型理解“大”“小”“左右”等抽象概念,并识别未见过物体的特征。这种多样性数据融合策略,使GR-3在未见过的物体抓取任务中成功率较基准模型提升17.8%,仅需10条人类轨迹数据即可将新物体操作成功率从60%提升至80%以上。
为验证模型性能,团队在通用拾取放置、长程餐桌清理、柔性衣物操作三大任务中展开系统性测试。在通用拾取放置任务中,GR-3在训练过的场景里指令遵循率和成功率分别达98.1%和96.3%,在新环境(卧室书桌、超市柜台等)中性能几乎无衰减,且能精准处理“把雪碧旁边的可乐放进盘子”等涉及空间关系的复杂指令。长程餐桌清理任务中,GR-3可自主完成多步骤操作,平均完成度超95%,并能严格跟随分步指令,面对无效指令时准确判断不动作。柔性衣物操作测试显示,GR-3在挂衣服任务中完成度达86.7%,即使面对短袖等未见过的衣物款式或混乱摆放状态,仍能稳定完成任务。
与硬件的协同创新是GR-3的另一亮点。团队研发的通用双臂移动机器人ByteMini作为载体,配备22个全身自由度与独特手腕球角设计,结合全身运动控制(WBC)系统,实现狭小空间内的精细操作与平滑轨迹生成。例如,抓取纸杯时能自动调整力度避免捏碎,机械臂可像人类手腕般灵活转动。多摄像头布局(2个手腕摄像头看细节、头部摄像头看全局)则确保“眼观六路”的感知能力。
尽管GR-3在泛化性与操作精度上已超越业界此前可测试的VLA头部模型π0,但团队仍计划通过扩大模型规模、增加训练数据量(如更多物体的视觉语言数据、复杂任务机器人数据)进一步提升泛化能力。同时,引入强化学习(RL)方法突破模仿学习局限,使机器人在遇到物体滑落等突发情况时能自主调整策略,增强抗干扰能力。
字节跳动Seed团队表示,GR-3的研发旨在解决传统机器人“听不懂抽象指令”“不适应环境变化”“做不好长程任务”的三大瓶颈。未来,团队将持续探索大模型与机器人技术的深度融合,推动通用机器人“大脑”走进日常生活,成为帮助人类处理各类事务的智能助手。这一成果不仅为机器人学习领域提供了新范式,更让“机器人全能助手”的愿景更近一步。
ArXiv:https://arxiv.org/abs/2507.15493
项目主页:https://seed.bytedance.com/GR3
7 月 22 日,字节跳动 Seed 团队推出全新 Vision-Language-Action Model(VLA)模型 GR-3,该模型具备泛化到新物体和新环境的能力,能理解包含抽象概念的语言指令,还能精细操作柔性物体。与此前需大量机器人轨迹训练的 VLA 模型不同,GR-3 通过少量人类数据即可高效微调,快速低成本迁移至新任务并认识新物体。得益于改进的模型结构,GR-3 能有效处理长程任务,并支持高灵巧度操作,包括双手协同操作、柔性物体操作及融合底盘移动的全身操作等。
为实现这些能力,GR-3 采用了多样的训练方法,包括遥操作机器人收集的高质量真机数据、用户授权提供的基于 VR 设备的人类轨迹数据以及公开的大规模视觉语言数据联合训练。同时,字节跳动 Seed 团队还开发了通用双臂移动机器人 ByteMini,该机器人配备 22 个全身自由度及独特手腕球角设计,搭载 GR-3 模型后可在真实环境中高效处理复杂任务。测试显示,GR-3 在跟随语言指令、泛化到未见物体及处理复杂任务等方面表现优于业界头部模型 π0。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。