颠覆百亿规模巨兽!2.6B参数Liquid AI新实验模型LFM2-2.6B-Exp震撼面世
发布时间:2025-12-26 15:03:37 | 责任编辑:吴昊 | 浏览量:5 次
圣诞节当天,知名边缘AI初创公司Liquid AI正式发布了其最新实验性模型LFM2-2.6B-Exp,这一仅有2.6B(26亿)参数的小型开源模型,在多项关键基准测试中表现出色,尤其在指令跟随能力上超越了参数量高达数百亿的DeepSeek R1-0528,引发业界广泛热议,被誉为“最强3B级模型”。
模型背景:纯强化学习驱动的实验突破
LFM2-2.6B-Exp基于Liquid AI第二代Liquid Foundation Models(LFM2)系列的2.6B基础模型,通过纯强化学习(RL)方式进行后训练优化,无需监督微调暖启动或大型教师模型蒸馏。该模型继承了LFM2的混合架构优势,结合短程门控卷积和分组查询注意力(GQA),支持32K上下文长度,专为边缘设备(如手机、笔记本、物联网设备)设计,实现高效本地部署。
Liquid AI强调,该实验检查点主要针对指令跟随、知识问答和数学推理等领域进行优化,适用于代理工作流、RAG检索、数据提取、创意写作和多轮对话等场景。
性能亮点:小身材爆发大能量
在最新基准测试中,LFM2-2.6B-Exp展现出惊人表现:
- IFBench(指令跟随基准):得分大幅领先同级模型,甚至超越参数量263倍的DeepSeek R1-0528。
- GPQA(研究生级知识问答):达到约42%,远超传统3B模型。
- IFEval(指令严格遵循):超过88%,击败众多10B+参数模型。
- GSM8K(数学推理):得分高达82%以上,优于Llama3.23B和Gemma3系列。
此外,该模型在CPU上的预填充和解码速度是竞品的2倍,内存占用极低,支持bfloat16量化,真正实现“手机级PhD推理”。
开源意义:加速边缘AI普及
LFM2-2.6B-Exp已完全开源,模型权重上传至Hugging Face平台,开发者可免费下载并集成到本地应用中。这不仅证明了强化学习在小模型上的巨大潜力,也进一步推动了边缘AI生态发展,让高性能AI从云端走向人人可及的设备端。
小编点评 LFM2-2.6B-Exp的发布标志着小型模型时代加速到来:无需巨量参数,通过智能训练范式即可实现前沿性能。对于追求隐私、低延迟和低成本的开发者与企业,这款模型无疑是当前最佳选择之一。未来,随着RL技术和混合架构的持续迭代,3B级开源模型或将接近AGI水平,并在任何设备上流畅运行。感兴趣的读者可立即前往Hugging Face下载体验,开启边缘智能新篇章。
地址:https://huggingface.co/LiquidAI/LFM2-2.6B-Exp
这是一篇关于2.6B参数碾压百亿级巨兽!Liquid AI最新实验性模型LFM2-2.6B-Exp发布的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
