暂停广泛采用谷歌 TPU 芯片,OpenAI 仍视英伟达和 AMD 为关键供应商
发布时间:2025-07-03 10:36:22 | 责任编辑:吴昊 | 浏览量:6 次
OpenAI 最近宣布,尽管在初期阶段进行了测试,但不会大规模采用谷歌的 TPU 芯片。TPU(张量处理单元)是谷歌专为机器学习任务设计的定制化 ASIC 芯片,旨在加速神经网络的训练与推理。TPU 采用数据流驱动架构,能够实现高效的矩阵乘法流水线计算,从而减少内存访问延迟。
OpenAI 表示将继续依赖英伟达的 GPU 和 AMD 的 AI 加速器来支持其模型的训练与推理。这是因为这两家公司的产品已经经过验证,并且 OpenAI 与它们之间已经建立了供应协议。虽然有媒体报道称 OpenAI 在某些任务中开始使用谷歌的 AI 芯片,但知情人士指出,这些仅是较低性能的 TPU,而谷歌最新、专为其 Gemini 大语言模型设计的芯片仍将继续自用。
OpenAI 与谷歌云的合作满足了其对基础设施的更广泛需求,但公司明确表示,在短期内不会将大量算力转移至 TPU 平台。投资者和分析师之前将潜在的 TPU 合作视为 OpenAI 在寻找英伟达替代方案的信号,摩根士丹利的策略师甚至认为,这一举动将能有效验证谷歌硬件在市场中的竞争力。
然而,OpenAI 的表态反映出其与现有芯片合作伙伴之间的紧密关系,以及超大规模部署新硬件的复杂性。在人工智能算力需求持续激增的背景下,OpenAI 似乎更倾向于在现有的 GPU-TPU 混合测试基础上逐步扩展,而不是全面转向 TPU 架构。这一芯片路线图向市场传递了信息,表明英伟达和 AMD 仍将是 OpenAI 的核心供应商,可能会限制谷歌在 AI 硬件市场的增长空间,尽管其 TPU 技术持续进步。
未来,投资者将密切关注 OpenAI 下一次基础设施更新及谷歌云财报,以捕捉 TPU 使用率变化或新供应商多元化的迹象。
划重点:
🌟 OpenAI 暂停大规模使用谷歌 TPU 芯片,继续依赖英伟达和 AMD。
📈 TPU 芯片经过初步测试,尚无规模化部署计划。
🔍 投资者将关注 OpenAI 基础设施更新及谷歌云财报,以了解 TPU 使用情况。
以下是关于OpenAI暂停大规模使用谷歌TPU芯片,英伟达与AMD仍为其核心供应商的相关情况:
OpenAI暂停大规模使用谷歌TPU芯片
-
测试情况:OpenAI证实正在试用谷歌的部分张量处理单元,但仅是低阶版本TPU,谷歌最先进的芯片仍保留自用。
-
暂停原因:OpenAI表示其现有的芯片合作伙伴具有较高的黏性,超大规模部署新硬件存在复杂性。在AI算力需求持续激增的背景下,OpenAI更倾向于在现有GPU-TPU混合测试基础上逐步扩展,而非全面转向TPU架构。
-
市场影响:此举凸显了英伟达和AMD在AI芯片领域的稳固地位,可能限制谷歌AI硬件市场份额的增长空间。
英伟达与AMD仍是核心供应商
-
性能与协议优势:OpenAI将继续依赖英伟达GPU和AMD AI加速器来支持其模型训练与推理工作,原因是这两家芯片厂商的产品“性能经过验证”且“已有供应协议”。
-
市场主导地位:尽管面临产能约束挑战,英伟达仍将保持GPU市场主导地位。AMD作为重要的AI芯片供应商,也在不断拓展其在AI领域的市场份额。
-
未来展望:英伟达和AMD凭借其成熟的技术和可靠的产品,在未来一段时间内仍将为OpenAI提供核心的算力支持。
背景信息
-
谷歌TPU芯片:TPU是谷歌专门为机器学习任务设计的定制化ASIC芯片,旨在加速神经网络的训练与推理。采用数据流驱动架构,实现高效的矩阵乘法流水线计算,减少内存访问延迟。
-
OpenAI芯片需求:随着AI技术的快速发展,OpenAI对算力的需求不断增加。为了满足其庞大的模型训练和推理任务,OpenAI需要强大的芯片支持。
-
供应商多元化趋势:虽然OpenAI目前暂停大规模使用谷歌TPU芯片,但其曾尝试通过租用TPU来降低推理计算成本,这表明OpenAI在寻求芯片供应商多元化,以降低对单一供应商的依赖。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。