DeepSeek-V4预览版正式发布:1M 超长上下文进入全员普惠时代
发布时间:2026-04-24 17:06:11 | 责任编辑:张毅 | 浏览量:11 次
《DeepSeek-V4预览版正式发布:1M 超长上下文进入全员普惠时代》相关软件官网
深度求索(DeepSeek)今日宣布其全新系列模型DeepSeek-V4预览版本正式上线并同步开源。该系列模型通过结构创新,实现了1M(一百万字)超长上下文能力的标准化,在 Agent 协作、世界知识及逻辑推理性能上均达到国内及开源领域的领先水平。
DeepSeek-V4根据应用需求分为两个规格:
DeepSeek-V4-Pro(1.6T参数,激活49B): 性能直击顶级闭源模型。在 Agentic Coding 评测中达到开源最佳水平,交付质量接近 Opus4.6;在数学、STEM 及竞赛代码测评中,超越所有公开评测的开源模型,展现出世界顶级的推理性能。
DeepSeek-V4-Flash(284B参数,激活13B): 主打极致性价比。虽然世界知识储备略逊于 Pro 版,但在简单任务的推理能力和 Agent 表现上与 Pro 版旗鼓相当,能提供更快捷、经济的 API 服务。
DeepSeek-V4开创性地采用了 DSA 稀疏注意力机制。通过在 Token 维度进行压缩,模型大幅降低了超长上下文对计算量和显存的需求。这意味着1M 上下文将成为 DeepSeek 所有官方服务的标配,解决了长文本处理高昂成本的行业痛点。
针对当前主流的 Agent 产品(如 Claude Code、CodeBuddy 等),DeepSeek-V4进行了专项优化。模型支持非思考模式与思考模式,并在 API 中开放了 reasoning_effort 参数,允许用户根据任务复杂度调节思考强度(high/max),显著提升了在代码生成和文档处理等复杂场景下的表现。
目前,用户可通过官网或官方 App 体验最新模型,API 亦已同步更新。值得注意的是,旧有的 deepseek-chat 与 deepseek-reasoner 模型名将于三个月后(2026年7月24日)停用。
开源链接: 已在Hugging Face与魔搭社区上线。
技术报告: 同步披露于Hugging Face仓库中。
此次DeepSeek-V4的发布,不仅验证了开源模型在长上下文与 Agent 能力上追赶顶级闭源模型的可行性,更通过技术架构的突破,为 AGI 的普惠化进程提供了坚实的底座支持。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
