高通发布声明:OpenAI 最新开源的gpt-oss-20b模型支持在骁龙设备上本地执行
发布时间:2025-08-12 10:46:24 | 责任编辑:吴昊 | 浏览量:8 次
近日,OpenAI 推出了其最新的开源模型 gpt-oss-20b,这是一款拥有200亿参数的语言模型。该模型在多个常见基准测试中与 OpenAI 的 o3-mini 模型取得了相似的表现,显示出其强大的推理能力。值得注意的是,高通公司在这一发布中宣布,gpt-oss-20b 是首个可以在搭载骁龙平台的终端设备上运行的开源推理模型。
此前,OpenAI 的复杂模型主要依赖于云端进行部署,用户需要依赖网络连接来获取服务。而现在,通过与高通的合作,gpt-oss-20b 模型可以直接在骁龙旗舰处理器的终端上进行本地推理。这意味着,用户在使用 AI 助手时将不再受限于网络速度,能够享受到更快的响应时间和更好的隐私保护。
高通表示,通过提前获取 gpt-oss-20b 模型,并与 Qualcomm AI Stack 进行集成测试,验证了该模型在终端设备上的卓越性能。此举标志着 AI 技术的一个重要转折点,预示着复杂的助手式推理将不再仅限于云端,而是能够实现本地处理。这一进展不仅提升了用户体验,也为开发者和合作伙伴提供了新的可能性。
对于开发者来说,gpt-oss-20b 将通过 Hugging Face 和 Ollama 等主流平台提供下载,便于在搭载骁龙平台的终端上进行应用。用户可以轻松地在 Ollama 平台上体验到该模型的 Turbo 模式,探索更多功能,而无需复杂的配置。此外,高通还计划在 Qualcomm AI Hub 上发布更多的部署细节,以帮助开发者更好地利用这一新模型。
随着 gpt-oss-20b 的发布,未来的 AI 生态系统将变得更加成熟,合作伙伴和开发者能够借助骁龙处理器,实时利用 OpenAI 的创新成果,推动更多智能应用的发展。
划重点:
🌟 OpenAI 推出的新开源模型 gpt-oss-20b 可以在骁龙终端本地运行。
⚡️ 该模型提供更快的响应时间和更好的隐私保护,减少对网络的依赖。
🚀 开发者可通过主流平台下载使用 gpt-oss-20b,并探索其更多功能。
高通宣布:OpenAI 于 8 月 6 日推出其最小开源模型 gpt-oss-20b(200 亿参数),在常见基准测试中与 OpenAI o3-mini 模型表现类似,高通今日宣布其为 首个可在搭载骁龙平台的终端侧运行的开源推理模型(此前 OpenAI 复杂模型仅限云端部署,此次是首次支持终端侧推理)。通过高通 AI 引擎和 Qualcomm AI Stack 的集成测试,该模型可直接在搭载骁龙旗舰处理器的终端上进行思维链推理,完全在终端侧实现复杂推理。
这一突破标志着 AI 未来方向,即丰富复杂的助手式推理将在本地实现,展现了 AI 生态系统的成熟性,开发者可通过 Hugging Face 和 Ollama 等平台获取模型,并在骁龙平台上部署,无需额外配置,还可使用网页搜索等功能。更多部署详情将在 Qualcomm AI Hub 公布。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。