
导语: 就在今天(2026年4月24日),深度求索(DeepSeek)正式放出了全新一代大模型系列 —— DeepSeek-V4 的预览版,并宣布同步开源。本次 V4 版本的最大亮点在于全系标配 1M(一百万)超长上下文,并在 Agent 能力、世界知识和推理性能上实现了对开源领域的全面引领,甚至在多项指标上直逼世界顶尖闭源模型。
对于广大开发者和企业而言,这意味着我们拥有了一个能力更强、上下文更长,且极具性价比的开源底座。
本次发布的 DeepSeek-V4 按照参数规模和适用场景,分为 Pro 和 Flash 两个版本:
这是 V4 系列的满血版本,专为复杂任务和强推理场景设计:
相较于 Pro 版本,Flash 版本的参数和激活量更小,专为速度和经济性而生:
一直以来,超长上下文带来的算力和显存压力是开发者落地的最大痛点。DeepSeek-V4 此次开创了一种全新的注意力机制:
通过在 Token 维度进行深度压缩,并结合创新的 DSA 稀疏注意力(DeepSeek Sparse Attention) 机制,V4 在实现了全球领先的长上下文能力的同时,大幅降低了对计算和显存的需求。
得益于这项技术突破,1M 上下文不再是昂贵的“高配”,而是成为了 DeepSeek 所有官方服务的标准配置。
针对开发者关心的 API 接入和模型迁移,DeepSeek 官方给出了详细的说明:
1. 接口全面兼容
目前 DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,依旧保持友好度,同时支持 OpenAI ChatCompletions 接口与 Anthropic 接口,Base URL 保持不变。
2. 模型名称变更
调用时,只需将 model 参数修改为:
deepseek-v4-prodeepseek-v4-flash3. 思考模式(Thinking Mode)调优
两个模型均支持非思考模式与思考模式。在思考模式下,支持通过新增的 reasoning_effort 参数来设置思考强度(可选 high 或 max)。
💡 最佳实践: 在构建复杂的 Agent 场景时,强烈建议开启思考模式,并将强度设为
max。
4. ⚠️ 旧版 API 下线预警
请注意,旧有的模型名称 deepseek-chat 与 deepseek-reasoner 将于 三个月后(2026年7月24日) 彻底停止使用。
当前过渡期内,这两个旧名称将分别自动指向 deepseek-v4-flash 的非思考模式与思考模式。建议开发者尽快修改代码中的模型路由。
5. Agent 框架深度适配
V4 针对主流 Agent 产品进行了底层优化,如果你是 Claude Code、OpenClaw、OpenCode、CodeBuddy 的用户,接入 V4 后将在代码生成和文档撰写任务上获得显著的体验提升。
对于喜欢本地部署和微调的极客开发者,官方已经放出了权重文件和详细的技术报告:
从 V2 的 MoE 架构惊艳亮相,到 V3 的全面强化,再到今天 V4 带来的百万上下文与顶级 Agent 能力,DeepSeek 一直在践行其“率道而行,端然正己”的开源精神。
各位开发者,你们准备好把项目接入百万上下文的 V4 了吗?欢迎在评论区分享你的实测体验和压测数据!
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。