首页 > 快讯 > 蚂蚁百灵团队推出硅基流动Ling-flash-2.0,提升推理速度至新高点

蚂蚁百灵团队推出硅基流动Ling-flash-2.0,提升推理速度至新高点

发布时间:2025-09-18 11:46:22 | 责任编辑:吴昊 | 浏览量:1 次

近日,硅基流动大模型服务平台正式上线了蚂蚁集团百灵团队最新开源的 Ling-flash-2.0,这是该平台上线的第130个模型。
Ling-flash-2.0是一款基于 MoE 架构的大型语言模型,拥有100亿参数,并且在激活时仅使用6.1亿参数(非嵌入激活4.8亿)。经过20TB 以上高质量语料的预训练、监督微调和多阶段强化学习,该模型在激活6亿以上参数的情况下,展现出了媲美40亿参数 Dense 模型的卓越性能。
Ling-flash-2.0在复杂推理、代码生成和前端研发等领域表现出色,能够支持最大128K 的上下文长度,给用户提供更强大的文本处理能力。其定价也相对亲民,输入为每百万个 Token1元,输出为每百万个 Token4元。同时,国内和国际站的新用户可分别获得14元或1美元的使用体验赠金。
Ling-flash-2.0在性能上具有明显优势。与40亿参数以下的 Dense 模型(如 Qwen3-32B-Non-Thinking 和 Seed-OSS-36B-Instruct)以及更大激活参数的 MoE 模型(如 Hunyuan-A13B-Instruct 和 GPT-OSS-120B/low)相比,Ling-flash-2.0展现了更强的复杂推理能力。尤其在创作类任务中,该模型同样具有很强的竞争力。
此外,Ling-flash-2.0的架构经过精心设计,能够实现极速推理。在 Ling Scaling Laws 的指导下,Ling2.0采用了1/32激活比例的 MoE 架构,并在多个细节上进行了优化,这使得小激活的 MoE 模型能够获得相当于 Dense 架构的性能优势。通过 H20进行部署时,Ling-flash-2.0的输出速度可达到每秒200多个 Token,相比36B 的 Dense 模型提升了3倍以上的速度。
硅基流动平台致力于为开发者提供快速、经济、可靠的大模型 API 服务。除了 Ling-flash-2.0,平台上还汇聚了多种语言、图像、音频、视频等模型,满足开发者不同的需求。开发者可以在平台上自由对比和组合各类模型,轻松调用高效的 API,助力生成式 AI 应用的最佳实践。
国内站在线体验
https://cloud.siliconflow.cn/models
国际站在线体验
https://cloud.siliconflow.com/models
划重点:
🌟 Ling-flash-2.0是基于 MoE 架构的100亿参数语言模型,具备强大的复杂推理能力。
⚡ 模型支持最大128K 的上下文长度,提供极速推理体验,输出速度可达每秒200+Token。
💰 新用户可在国内和国际站获得使用体验赠金,硅基流动平台提供多种大模型服务,助力开发者创新。

蚂蚁百灵团队推出硅基流动Ling-flash-2.0,提升推理速度至新高点

这是一篇关于硅基流动上线蚂蚁百灵团队 Ling-flash-2.0,推理速度再创新高的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐