首页 > 快讯 > 蚂蚁集团更新百灵大模型系列,Ling-2.6-flash已正式开源

蚂蚁集团更新百灵大模型系列,Ling-2.6-flash已正式开源

发布时间:2026-04-29 12:10:42 | 责任编辑:吴昊 | 浏览量:2 次

蚂蚁集团旗下的百灵大模型系列于今日迎来重要更新,Ling-2.6-flash正式向全球开发者开放。为了适配差异化的硬件环境并降低部署门槛,该模型同步推出了 BF16、FP8以及 INT4等多个精度版本,旨在为开发者提供更具弹性的推理选择。
作为一款总参数量达到104B、激活参数量为7.4B 的 Instruct 模型,Ling-2.6-flash在正式官宣前,曾以“Elephant Alpha”的匿名身份在 OpenRouter 平台先行测试。在为期两周的试运行中,研发团队吸收了大量真实反馈,对模型进行了针对性优化,显著增强了中英文自然切换的流畅度,并使其在主流编程框架中的适配表现更加出色。
Ling-2.6-flash的核心竞争力集中体现在其独特的架构设计与极高的运行效率上:
混合线性架构: 通过底层的计算优化,模型展现了极佳的推理速度。在4卡 H20环境下,其推理速度最高可达340tokens/s。在 Prefill(预填充)吞吐指标上,更是达到了 Nemotron-3-Super 的2.2倍,大幅缩短了响应延迟。
出色的“智效比”: 研发团队在训练过程中对 Token 效率进行了深度校准。评测数据显示,完成同等质量的任务,Ling-2.6-flash仅需消耗约15M tokens,这一数值仅为同类竞品的十分之一,极大地降低了商用成本。
针对当前大模型应用最广泛的 Agent(智能体)场景,Ling-2.6-flash进行了专项强化。无论是在复杂的工具调用、逻辑多步规划,还是最终的任务执行力上,该模型都表现稳健。在 BFCL-V4、SWE-bench 等多项行业主流评测中,即便面对激活参数规模更大的模型,Ling-2.6-flash依然能够维持相近甚至达到行业顶尖(SOTA)的水平。
目前,开发者已可通过 Hugging Face 和 ModelScope(魔搭社区)获取该模型的开源资源,进一步探索其在各类行业应用中的潜力。

蚂蚁集团更新百灵大模型系列,Ling-2.6-flash已正式开源

这是一篇关于蚂蚁集团百灵大模型系列更新 Ling-2.6-flash正式开源的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐