面壁智能震撼推出MiniCPM-V4.5:4.1亿参数性能超越GPT-4.1-mini,手机运行无压力
发布时间:2025-08-26 12:51:25 | 责任编辑:张毅 | 浏览量:695 次
面壁智能(FaceWall Intelligence)携手清华大学NLP实验室,正式发布其最新端侧多模态大模型 MiniCPM-V4.5,标志着边缘AI技术迈向全新高度。
作为MiniCPM系列的最新力作,该模型以卓越的性能、高效的部署能力和广泛的应用场景,再次刷新了业界对端侧多模态模型的期待。以下,小编为您详细解析这一突破性技术。
MiniCPM-V4.5基于SigLIP2-400M视觉模块与MiniCPM4-3B语言模型构建,总参数量仅为 4.1亿,却在多项基准测试中展现出惊艳表现。据官方数据,MiniCPM-V4.5在OpenCompass综合评估中取得 69.0的平均得分,超越了GPT-4.1-mini(20250414版本,64.5分)以及Qwen2.5-VL-3B-Instruct(64.5分),成为端侧多模态模型的性能标杆。相比前代MiniCPM-V2.6(8.1亿参数,65.2分),新模型在参数量大幅减少的同时,性能提升显著,充分体现了面壁智能在模型压缩与优化上的深厚技术积累。
MiniCPM-V4.5支持 单图、多图及视频理解,并在高分辨率图像处理、OCR(光学字符识别)以及多语言支持方面表现出色。
MiniCPM-V4.5在效率方面堪称典范。得益于其 高 token 密度(处理180万像素图像仅需640个视觉token,较多数模型减少75%),模型在推理速度、首token延迟、内存占用和功耗上均有显著优化。测试显示,MiniCPM-V4.5在 iPhone16Pro Max 上实现 首token延迟低于2秒,解码速度超过 17token/s,无明显发热问题。这使得模型能够轻松部署于智能手机、平板电脑等边缘设备,满足移动、离线和隐私保护场景的需求。
此外,MiniCPM-V4.5支持多种部署方式,包括 llama.cpp、Ollama、vLLM 和 SGLang,并提供iOS应用支持,极大降低了开发者的使用门槛。
面壁智能延续其开放源代码的传统,MiniCPM-V4.5遵循 Apache2.0许可证,向学术研究人员完全开源,商业用户通过简单注册即可免费使用。这一举措进一步降低了多模态AI的进入壁垒,推动了学术研究与商业应用的双向发展。截至目前,MiniCPM系列已在GitHub和HuggingFace上累计获得 超百万次下载,成为边缘AI领域的标杆模型。
MiniCPM-V4.5的发布不仅展示了面壁智能在多模态大模型领域的领先地位,也为边缘AI的普及化应用指明了方向。从实时视频分析到智能文档处理,再到多语言交互,MiniCPM-V4.5的广泛适用性为教育、医疗、内容创作等行业带来了新的可能性。
小编认为,随着端侧计算能力的快速提升和模型效率的持续优化,MiniCPM-V4.5有望成为边缘设备上媲美云端AI的“新常态”。
项目:https://huggingface.co/openbmb/MiniCPM-V-4_5
。
核心亮点速览
-
模型规模:仅 4.1B 参数,为 GPT-4.1-mini 的约 1/10(GPT-4.1-mini 未公开参数,但 GPT-4o 系列普遍在 100B 以上)
。
-
性能表现:在 OpenCompass 多模态综合评测中,以 69.0 分 的成绩领先 GPT-4.1-mini(<69.0 分)、Qwen2.5-VL-3B(64.5 分)及 InternVL2.5-8B 等模型
。
-
端侧部署:针对手机等终端设备优化,实测在 iPhone 16 Pro Max 上:
-
首 token 延迟 <2 秒,
-
解码速度 >17 tokens/s,
-
内存占用低,长时间运行无发热降频
。
-
-
开源生态:
-
模型权重:已开源于 Hugging Face 和 GitHub。
-
iOS 应用:同步开源了适配 iPhone 和 iPad 的本地应用,支持图像理解、多轮对话,完全脱离云端运行
。
-
-
应用场景:支持单图描述、多图关联分析、视频问答等任务,OCR 精度达 180 万像素解析级,可处理复杂图表、票据等文档
。
结论
。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。