Jan-v2-VL-Max由Jan团队亮相!这一30B参数的多模态模型专注于长期Agent任务,其长序列执行能力稳定超越Gemini 2.5 Pro水平
发布时间:2025-12-24 14:33:49 | 责任编辑:张毅 | 浏览量:34 次
在AI智能体(Agent)向复杂、多步任务演进的关键阶段,开源社区迎来一员新锐猛将。Jan团队今日正式发布 Jan-v2-VL-Max——一款300亿参数的多模态大模型,专为长周期、高稳定性自动化执行场景打造,在关键指标上已超越谷歌Gemini2.5Pro与DeepSeek R1,为开源Agent生态注入强劲动力。
聚焦“误差累积”难题,专治多步执行“失焦”
当前多模态Agent在执行长序列操作(如自动化UI操作、跨应用任务流)时,常因中间步骤微小偏差导致后续任务全面偏离,即“误差累积”问题。Jan-v2-VL-Max针对性引入 LoRA-based RLVR(Reinforced Long-horizon Vision-Language Reasoning)技术,在保持Qwen3-VL-30B基座能力的同时,显著提升推理链的一致性与抗干扰能力,确保任务在数十步操作后仍精准执行。
“幻象递减回报”测试登顶,定义Agent新基准
该模型在全新评测基准 “幻象递减回报”(Hallucination-Decay Return, HDR)中表现突出。该基准专门衡量Agent在任务长度延伸过程中,因幻觉或逻辑断裂导致回报率下降的速度。Jan-v2-VL-Max在长序列任务中维持高回报稳定性,超越Gemini2.5Pro与DeepSeek R1,验证其在真实自动化场景中的可靠性。
即开即用,支持本地高效部署
为降低使用门槛,Jan团队提供:
- 网页端直接交互界面,用户可上传图像、输入指令,测试多步自动化流程;
- vLLM优化本地部署方案,支持在消费级GPU上高效运行,便于开发者集成至自研Agent系统。
开源社区的“长思考”突破
Jan-v2-VL-Max虽在长序列执行上相较基座模型仅实现“小幅提升”,但在Agent领域,每1%的稳定性提升都意味着可用性质变。这一成果标志着开源社区正从“单步响应”迈向“长程规划”,为UI自动化、机器人控制、多工具协同等高价值场景提供可落地的开源基座。
小编认为,当大模型竞争从“谁更聪明”转向“谁更可靠”,Jan团队此次聚焦执行稳定性的技术路径,恰逢其时。在Agent即将成为AI主交互范式的浪潮下,Jan-v2-VL-Max或将成为开发者构建“永不掉链子”智能体的关键拼图。
这是一篇关于Jan团队发布Jan-v2-VL-Max!30B多模态模型专攻长周期Agent任务,长序列执行稳超Gemini 2.5 Pro的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
