Kimi开放平台宣布价格调整:模型推理服务与上下文缓存双双降价
发布时间:2025-04-07 17:10:54 | 责任编辑:字母汇 | 浏览量:8 次
4月7日,Kimi开放平台正式发布公告,宣布基于Moonshot AI一年来的技术积累和性能优化,对平台提供的模型推理服务价格进行调整,同时大幅下调上下文缓存价格。这一举措标志着Kimi开放平台在提升技术能力的同时,进一步优化用户体验,推动人工智能服务的普及与应用。
据Kimi开放平台官方介绍,此次价格调整得益于Moonshot AI在过去一年中在模型训练、推理加速及资源利用率优化方面的显著突破。通过持续的技术迭代,平台不仅提升了模型的处理效率和性能,还降低了运营成本。官方表示,这些成果让Kimi有能力将更多实惠回馈给用户,进一步降低企业与开发者接入大模型服务的门槛。
从调整内容来看,模型推理服务的价格普遍下调,降幅根据不同模型规格和使用场景有所差异。与此同时,上下文缓存价格也迎来显著下调,这一调整尤为引人注目,因为Kimi平台以超长上下文处理能力著称,此举将进一步提升用户在处理长文本任务时的成本效益。
Kimi开放平台自推出以来,以支持超长上下文输入(最高达200万字)为核心竞争力,广泛应用于文档分析、文献综述、代码复现等场景。此次上下文缓存价格的下调,意味着用户在处理复杂任务时将享受更低的成本。例如,对于需要频繁调用长文本数据的企业用户或开发者来说,这不仅能减少费用支出,还能提升开发效率。
一位长期使用Kimi API的开发者表示:“上下文缓存价格下调对我们来说是个大利好。之前处理大篇幅文档时成本较高,现在可以用更低的预算完成更多任务,性价比大幅提升。

Kimi开放平台于2025年4月7日宣布对模型推理服务和上下文缓存价格进行调整,此次降价基于Moonshot AI的技术优化和成本降低。以下是主要调整内容:
1. 模型推理服务降价
- kimi-latest-8k模型:输入价格从 12元/百万tokens 降至 2元/百万tokens,输出价格调整为 10元/百万tokens。
- 自动计费机制:
kimi-latest
模型会根据请求的上下文长度自动选择 8k/32k/128k 版本进行计费。
2. 上下文缓存存储费调整
- 此前(2024年8月),Kimi开放平台曾将上下文缓存存储费从 10元/1M tokens/min 降至 5元/1M tokens/min。
- 本次调整进一步优化了缓存定价,但具体降幅未在最新公告中详细说明。
3. 降价原因
- 技术优化:Moonshot AI 通过一年的技术积累,降低了推理成本并提升了推理速度,使得价格调整成为可能。
- 用户体验提升:更低的成本和更快的响应速度旨在为用户提供更流畅的AI服务体验。
4. 行业影响
- 此次降价可能进一步推动AI开放平台的市场竞争,促使更多企业采用Kimi的模型服务。
- 长期来看,技术优化带来的成本下降可能会成为行业趋势,推动AI服务的普及。
此次价格调整自 2025年4月7日0点 起生效。如需更详细的定价方案,可参考Kimi开放平台的官方公告。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。