首页 > 快讯 > 全新MiMo-V2-Flash大模型由小米推出,加快推动AGI进程与MoE技术革新

全新MiMo-V2-Flash大模型由小米推出,加快推动AGI进程与MoE技术革新

发布时间:2025-12-17 15:02:49 | 责任编辑:张毅 | 浏览量:4 次

在今天的2025小米人车家全生态合作伙伴大会上,小米新任 Xiaomi MiMO 大模型负责人罗福莉首次亮相,正式发布了最新的 MoE(Mixture of Experts)大模型 ——MiMo-V2-Flash。这一全新的模型被认为是小米在实现人工通用智能(AGI)目标上的第二步。
罗福莉在社交媒体上详细介绍了 MiMo-V2-Flash 的技术架构。该模型采用了 Hybrid SWA 架构,这种设计既简单又优雅,并且在长上下文推理方面,表现明显优于其他线性注意力变体。值得一提的是,窗口大小128被认为是最佳选择,过大的窗口反而会降低模型性能。同时,固定的 KV 缓存设计提高了与现有基础设施的兼容性。
此外,罗福莉还谈到了一项关键技术 —— 多标记预测(MTP)。通过采用 MTP,模型在高效的强化学习(RL)中取得了显著的提升。即使在第一层以外,MTP 也只需要少量微调,就能实现较高的接受长度。三层 MTP 在编程任务中的表现更是突出,实现了接受长度大于3,并且速度提升约2.5倍,这有效解决了小批量 On-Policy RL 中的 GPU 空转问题。
在后训练阶段,小米采用了 Thinking Machine 提出的 On-Policy Distillation,旨在融合多个 RL 模型。通过这一方法,小米成功地在传统的 SFT 和 RL 流程中,计算量仅为其1/50的情况下达到了教师模型的性能。这一过程显示出学生模型不断进化的潜力,最终形成自我强化的闭环。
罗福莉表示,团队在短短几个月内将这些理念转化为可上线的生产系统,展现了非凡的效率与创造力。
划重点:
🌟 MiMo-V2-Flash 是小米在实现 AGI 目标的第二步,具备先进的 MoE 架构。
⚡ 采用的多标记预测技术显著提升了模型性能与速度。
💡 后训练阶段融合多个 RL 模型,展现出强大的自我强化能力。

全新MiMo-V2-Flash大模型由小米推出,加快推动AGI进程与MoE技术革新

这是一篇关于小米发布新一代 MoE 大模型 MiMo-V2-Flash,助力 AGI 发展的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐