AMD与高通声明其设备兼容GPT-OSS系列开源模型
发布时间:2025-08-07 10:32:03 | 责任编辑:张毅 | 浏览量:9 次
近日,AMD 与高通联合宣布,旗下硬件正式支持 OpenAI 推出的 gpt-oss 系列开放推理模型,标志着边缘计算和 AI 的结合迈出了重要一步。OpenAI 新发布的 gpt-oss 系列包括两个模型:参数较少的 gpt-oss-20b 和更复杂的 gpt-oss-120b。前者可以在配备16GB 内存的设备上流畅运行,而后者则能在单个80GB 显卡上高效执行。
AMD 自豪地宣布,锐龙 AI Max+395处理器成为全球首款能够运行 gpt-oss-120b 模型的消费级 AI PC 处理器。为了适应这一强大的模型,AMD 采用了 GGML 框架和 MXFP4格式,使得 gpt-oss-120b 在使用大约61GB 显存时得以顺畅运行。此外,"Strix Halo" 平台通过128GB 的统一内存,能够将96GB 分配给 GPU,从而满足运行需求。
在性能方面,锐龙 AI Max+395在运行 gpt-oss-120b 时可以实现每秒30个 Token 的输出速度,并且支持 MCP 模型上下文协议。这意味着用户在处理复杂任务时可以享受到更快的响应速度和更高的效率。
高通则表示,经过早期测试,gpt-oss-20b 模型在其骁龙平台上展现出色的思维链推理能力。开发者可以通过 Hugging Face 和 Ollama 等知名平台,在搭载骁龙芯片的设备上轻松访问这一模型,从而充分发挥其强大功能。
这一合作不仅展示了 AMD 与高通在 AI 领域的前瞻性视野,也为边缘计算和人工智能的未来发展铺平了道路。随着 gpt-oss 模型的广泛应用,我们可以期待更加智能化的设备和更灵活的 AI 应用场景。
是的,AMD 和高通已经正式宣布旗下硬件支持 OpenAI 最新推出的 gpt-oss 系列开放推理模型。
具体支持情况如下:
-
AMD:
-
锐龙 AI Max+ 395 处理器支持运行参数规模更大的 gpt-oss-120b 模型,官方称其是全球首款能运行该模型的消费级 AI PC 处理器,推理速度可达 30 Token/s。
-
Radeon RX 9070 16GB 显卡则针对 gpt-oss-20b 模型进行了优化,具备出色的首 Token 输出时间与推理吞吐量表现。
-
-
高通:
-
旗舰级 骁龙平台 宣布支持 gpt-oss-20b 模型,高通表示该模型在端侧可实现优秀的思维链推理表现,开发者可通过 Hugging Face 和 Ollama 等平台在骁龙设备上直接调用该模型。
-
此次 AMD 和高通的迅速响应,被视为对英伟达 AI 市场主导地位的一次挑战,也预示着 AI 推理能力正向更广泛的消费级设备和边缘计算场景扩展。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。