首页 > 快讯 > Liquid AI推出LFM2-8B-A1B:80亿参数启用15亿,实现相当于40亿参数AI在手机上的运行速度!

Liquid AI推出LFM2-8B-A1B:80亿参数启用15亿,实现相当于40亿参数AI在手机上的运行速度!

发布时间:2025-10-11 14:14:34 | 责任编辑:张毅 | 浏览量:8 次

高效MoE架构重塑边缘AILiquid AI推出的LFM2-8B-A1B是其LFM2系列的首个混合专家(Mixture-of-Experts, MoE)模型,总参数规模达8.3B,但每token仅激活约1.5B参数。这种稀疏激活机制在保持高表示能力的同时,大幅降低计算负载,使其适用于资源受限的设备端场景。不同于传统云端MoE模型,该设计针对实时交互优化,挑战了“小规模MoE不高效”的行业认知。
模型基于LFM2混合骨干架构,包括18个门控短卷积块和6个分组查询注意力(GQA)块。除前两层保持稠密以确保稳定性外,其余层均集成稀疏MoE前馈网络。每层配备32个专家,仅激活top-4专家,并采用归一化sigmoid路由器结合自适应偏置,实现负载均衡。支持32K上下文长度,兼容英文、阿拉伯文、中文、法文、德文、日文、韩文和西班牙文等多语言。
训练与性能:12T令牌铸就3-4B级能力LFM2-8B-A1B通过约12T令牌的预训练实现,包括55%英文、25%多语言和20%代码数据分布。随后采用Liquid Preference Alignment(长度归一化DPO/APO-Zero融合)进行后训练,使用混合BF16/FP8精度,提升训练效率3倍以上。在基准测试中,该模型展现出超越同规模竞争者的实力:
整体而言,其输出质量媲美3-4B稠密模型,在多轮对话、创意写作、RAG检索增强生成和工具调用等任务中表现出色。部署与集成:5倍加速,适配主流框架LFM2-8B-A1B在CPU和GPU上的推理速度显著领先。
在AMD Ryzen AI9HX370和三星Galaxy S24Ultra等设备上,使用int4量化与int8动态激活的自定义XNNPACK MoE内核,其解码吞吐量比Qwen3-1.7B、IBM Granite4.0等快达5倍。GPU端集成vLLM,支持FlashInfer和CUDA-graph编译,实现单请求与在线批处理的高效运行。
量化变体已优化至高配手机/平板/笔记本:Q4_0约4.7GB,F16约16.7GB。支持框架包括llama.cpp(需b6709+版本支持lfm2moe)、ExecuTorch(移动/嵌入式CPU)和vLLM(GPU)。此外,提供Hugging Face上的GGUF量化文件及Colab微调笔记本,便于开发者快速上手。模型已在Liquid Playground上线测试。
开源与影响:推动设备端AI普惠化LFM2-8B-A1B采用LFM Open License v1.0(基于Apache2.0)开源,权重与技术细节现已上传Hugging Face(LiquidAI/LFM2-8B-A1B)。这一发布不仅降低了AI部署门槛,还为边缘计算注入新活力——从隐私保护的实时聊天到嵌入式智能系统,均可受益。小编 观点:在云AI成本飙升的当下,LFM2-8B-A1B等高效模型正加速“AI下沉”趋势。
项目:https://huggingface.co/LiquidAI/LFM2-8B-A1B

Liquid AI推出LFM2-8B-A1B:80亿参数启用15亿,实现相当于40亿参数AI在手机上的运行速度!

这是一篇关于Liquid AI发布 LFM2-8B-A1B:8B 参数仅激活1.5B,手机上跑出4B级AI速度!的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐