AMD 强劲升级!借助锐龙 AI Max+ 395 实现本地运行 1280 亿参数大模型的愿景!
发布时间:2025-07-30 15:19:10 | 责任编辑:张毅 | 浏览量:24 次
在科技飞速发展的今天,AMD 再一次引领潮流,推出了基于 Zen5架构的锐龙 AI Max+395。这款处理器不仅是行业的佼佼者,更是首个能够在本地运行700亿参数 AI 大模型的平台。而现在,AMD 宣布重磅升级,锐龙 AI Max+395可以支持本地运行高达1280亿参数的大模型,进一步拓展了其在 AI 领域的应用潜力。
为了实现这样的性能,锐龙 AI Max+395依旧需要搭配128GB 的统一内存,其中96GB 必须被分配作为显存。此外,该处理器还要求在 Vulkan llama.cpp 环境下运行,这为开发者提供了更大的灵活性。新的升级使得锐龙 AI Max+395成为第一个能够运行1090亿参数的 Meta Llama4Sout 大模型的平台,该模型体积达66GB,支持多种高级功能如 Vision 和 MCP。
这次升级的核心在于混合专家(MoE)模式,这种模式每次仅激活模型的一部分,从而在保持性能的同时大幅降低资源消耗。锐龙 AI Max+395在实际测试中可以实现每秒15Tokens 的处理速度,表现相当出色。同时,它还支持68GB 体积、1230亿参数的 Mistral Large 模型,以及其他多个小型模型,如18GB、300亿参数的 Qwen3A3B 和17GB、270亿参数的 Google Gemma。
更为惊人的是,锐龙 AI Max+395在上下文处理上也有了质的飞跃,最大支持256000Tokens 的上下文长度,让其能够处理和分析更为复杂的数据资料。虽然一般的非大规模模型在32000Tokens 的上下文下已足够,但此次升级后的处理器带来了更多可能性,往日需要高端设备才能实现的超大规模上下文,如今也能在 AMD 的产品中轻松实现。
价格方面,搭载锐龙 AI Max+395及128GB 内存的迷你 AI 工作站,现已降至1.3万元左右,性价比显著提升,极大地降低了高端 AI 应用的门槛。
AMD 锐龙 AI Max+ 395 处理器重磅升级,成为全球首个可在本地运行 1280 亿参数大模型的平台,需搭配 128GB 统一内存并分配 96GB 作为显存,在 Vulkan llama.cpp 环境下,可流畅运行 Meta 的 Llama 4 Scout 109B(激活参数 17B)和 Mistral Large 123B 等模型,实测每秒可达 15 tokens,同时支持高达 256000 的上下文长度,为消费级硬件在 AI 推理能力上树立新标杆。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。