MiniMax发布M2推理大模型:配备2300亿参数及100 token/s速度,旨在打造智能Agent
发布时间:2025-10-28 09:37:15 | 责任编辑:张毅 | 浏览量:22 次
在大模型竞赛从“拼参数”转向“拼效率”的关键节点,MiniMax于10月27日发布新一代开源推理模型M2,以精准的工程取舍,锚定智能Agent这一下一代AI应用的核心战场。
M2采用混合专家架构(Mixture-of-Experts, MoE),总参数量达2300亿,但每次推理仅激活100亿参数,实现高达每秒100个token的输出速度——这一性能指标使其在实时交互场景中具备显著优势。尤为关键的是,M2专为智能Agent设计,强化了在行为决策、多轮任务规划与环境交互中的推理连贯性与响应效率,为构建真正自主的AI智能体提供底层引擎。
值得注意的是,相比前代M1模型,M2在上下文窗口上做出战略调整:从M1支持的100万token大幅缩减至20.48万token。这一变化并非技术倒退,而是MiniMax在长文本处理、推理速度与部署成本之间做出的务实权衡。M1虽以“百万上下文”创下纪录,但高资源消耗限制了实际落地;而M2则聚焦高频、高响应的Agent任务,在保证足够上下文长度的同时,大幅提升吞吐效率与经济性。
作为开源模型,M2进一步降低了开发者构建定制化智能体的门槛。无论是打造具备复杂任务链的虚拟助手、自动化工作流机器人,还是嵌入企业系统的决策Agent,开发者均可基于M2快速迭代,灵活调优。
MiniMax明确将M2定位为“Agent时代的推理基座”。在AI正从“问答工具”迈向“行动代理”的浪潮中,M2的推出不仅是一次模型升级,更是对下一代AI应用范式的押注——当智能体需要快速思考、持续行动、高效交互,速度与成本,或许比上下文长度更为关键。
这是一篇关于MiniMax推M2推理大模型:2300亿参数、100 token/s,专为智能Agent而生的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
