华为发布盘古7B密集与72B混合专家版开源模型
发布时间:2025-06-30 10:36:43 | 责任编辑:吴昊 | 浏览量:6 次
6月30日,华为于正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE720亿参数的混合专家模型,以及基于升腾的模型推理技术。
此次开源举措,是华为践行升腾生态战略的关键一步,旨在推动大模型技术的研究与创新发展,加速人工智能在各行业的应用并创造价值。
目前,盘古Pro MoE72B模型权重、基础推理代码,以及基于升腾的超大规模MoE模型推理代码,均已正式上线开源平台。盘古7B相关模型权重与推理代码也将在近期上线。
华为诚邀全球开发者、企业伙伴及研究人员下载使用相关资源,并反馈使用意见,共同完善相关技术。有需求者可访问https://gitcode.com/ascend-tribe进行了解。
2025年6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。
开源内容
-
盘古Pro MoE 72B模型:其模型权重和基础推理代码已正式上线开源平台。该模型在昇腾300I Duo和800I A2上可实现更优的专家负载分布与计算效率。
-
基于昇腾的超大规模MoE模型推理代码:也已正式上线开源平台。
-
盘古7B模型:其相关模型权重与推理代码将于近期上线开源平台。
开源意义
华为表示,此次开源是践行昇腾生态战略的又一关键举措,旨在推动大模型技术的研究与创新发展,加速人工智能在千行百业的应用与价值创造。
开源平台
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。