开源领域迎来重磅新品!Mistral Small 4 正式登场:三重优势,更强性能更节俭?
发布时间:2026-03-17 18:18:16 | 责任编辑:张毅 | 浏览量:1 次
在开源大模型赛道,Mistral AI再次向行业展示了什么叫“效率至上”。今日,该公司宣布在 Apache2.0许可下正式开源其 Small 系列的最新力作——Mistral Small4,并同步宣布加入英伟达新成立的 Nemotron 联盟,成为创始成员之一。
这并非一次简单的常规升级。Mistral Small4 被官方定义为首款“三位一体”的多功能模型。它完美整合了 Mistral 家族此前引以为傲的三大旗舰能力:
Magistral: 卓越的逻辑推理能力。
Pixtral: 强大的原生多模态处理能力(支持图像输入)。
Devstral: 专业的智能体编码能力。
这意味着开发者无需再在“快指令模型”、“重推理引擎”或“多模态助手”之间做选择题,一个模型就能搞定所有场景。
在技术规格上,Mistral Small4 采用了精密的 128专家混合(MoE)架构。尽管总参数量达到了1190亿,但通过优化,每个 Token 仅激活4个专家(约60亿个活动参数),在保证性能的同时极大降低了算力开销。此外,256k 的超长上下文窗口,让它在处理长文档分析和复杂对话时游刃有余。
值得关注的是,该模型引入了“可配置推理强度”功能。用户可以在追求低延迟的快速响应和深度思考的推理输出之间自由切换。实测数据统计显示:
在延迟优化模式下,端到端完成时间减少了 40%。
在吞吐量优化模式下,每秒请求数(RPS)相比前代产品提升了 3倍。
从代码补全到视觉分析,Mistral Small4 的开源无疑为全球开发者提供了一个更灵活、更高效的“全能底座”。当顶尖推理能力与原生多模态合二为一,开源社区的创新天花板或将被再次拉高。
这是一篇关于开源界再迎王炸!Mistral Small 4 正式发布:三位一体,不仅更强还更省?的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
