Mistral AI推出Mistral 3开源模型系列:具备128K上下文支持,可在单个A100上运行,价格为GPT-4o的一半
发布时间:2025-12-03 10:49:41 | 责任编辑:张毅 | 浏览量:6 次
法国独角兽 Mistral AI 于12月2日推出 Mistral3系列模型,包括3B、8B、14B 三个小型密集模型及迄今最强的 Mistral Large3,覆盖从边缘设备到企业级推理的全场景需求。新模型沿用 Apache2.0开源协议,权重已同步上传至 Hugging Face 与 GitHub,允许商业免费使用。
Mistral3系列在保持前代低延迟优势的同时,将上下文长度扩展至128K,并在 MMLU、HumanEval、MT-Bench 等主流基准中与 Llama3.1同规格模型打平或小幅领先。公司表示,通过“滑动窗口注意力 + 分组查询注意力”混合设计,14B 版本在单张 A100即可完成128K 全上下文推理,批量场景下吞吐量提升42%,为学术研究、商业分析、教育内容生成等应用提供更高性价比。
Mistral AI 联合创始人兼首席科学家 Guillaume Lample 指出:“我们的使命是让高性能 AI 摆脱供应商锁定。开发者无需巨额预算,也能获得与闭源方案媲美的效果。”目前,Mistral Large3已在公司官方平台 Le Platforme 上线 API,定价为每百万 token 输入0.8美元、输出2.4美元,约为 GPT-4o 的一半,并支持微调与私有部署。行业分析认为,借助欧洲 GDPR 合规优势及开放权重策略,Mistral3有望进一步蚕食中小企业与公共部门市场,推动 AI 基础设施“多极化”竞争。
这是一篇关于Mistral AI发布Mistral 3系列开源模型:128K上下文、单A100可跑,定价对标 GPT-4o 一半的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
