Liquid AI 推出 LFM2.5:专为边缘设备设计的紧凑型 AI 模型系列
发布时间:2026-01-08 08:27:51 | 责任编辑:张毅 | 浏览量:25 次
Liquid AI 最近推出了 LFM2.5,这是一个新一代的小型基础模型家族,基于 LFM2架构,专注于边缘设备和本地部署。该模型家族包括 LFM2.5-1.2B-Base 和 LFM2.5-1.2B-Instruct,同时扩展了日语、视觉语言和音频语言的变种。这些模型以开源权重形式发布在 Hugging Face 上,并通过 LEAP 平台进行展示。
LFM2.5保留了针对 CPU 和 NPU 设计的混合 LFM2架构,旨在实现快速且内存高效的推理。该模型的预训练阶段将参数扩展至1.2亿,训练数据从10万亿个 tokens 扩展至28万亿个 tokens。随后,指令变体模型还进行了监督微调、偏好对齐和大规模多阶段强化学习,专注于指令跟随、工具使用、数学和知识推理。
在文本模型性能方面,LFM2.5-1.2B-Instruct 是主要的通用文本模型。Liquid AI 团队在 GPQA、MMLU Pro、IFEval、IFBench 等多个基准上报告了表现,模型在 GPQA 上达到了38.89,在 MMLU Pro 上达到了44.35。这些分数明显高于其他同类开源模型,如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。
此外,LFM2.5-1.2B-JP 是专门为日语优化的文本模型,针对日语的 JMMLU、M-IFEval 和 GSM8K 等任务进行了优化。这个检查点在日语任务上超越了一般指令模型,并在这些本地基准测试中与其他小型多语言模型相竞争。
在多模态边缘工作负载方面,LFM2.5-VL-1.6B 是该系列更新的视觉语言模型,结合了图像理解的视觉模块。该模型经过调优,支持文档理解、用户界面读取和多图像推理等实际应用,能够在边缘环境中高效运行。
LFM2.5-Audio-1.5B 是一个原生音频语言模型,支持文本和音频输入输出,采用了一种新的音频反 tokenizer,其速度比之前的方案快八倍,适用于实时语音到语音的对话代理和自动语音识别等任务。
https://www.liquid.ai/blog/introducing-lfm2-5-the-next-generation-of-on-device-ai
划重点:
🌟 LFM2.5是一款基于 LFM2架构的小型基础模型家族,支持多种变种,包括文本、视觉语言和音频语言。
📈 该模型在多个基准测试中表现优异,尤其是在 GPQA 和 MMLU Pro 上超越了同类模型。
🌐 LFM2.5系列涵盖多模态和区域优化,提供强大的边缘计算能力,适用于多种实际应用场景。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
