DeepSeek 这一年正式更新了7次,今年多了很多新模型,但性比价之王DeepSeek还是铁打的划算。2月11日,DeepSeek新版本灰度,百万上下文,知识也更新到了2025年5月,会是V4吗?时间线回到 2025,12月1日,DeepSeek-V3.2:达到了GPT-5的水平,稍低于Gemini-3.0-Pro,比起Kimi-K2-Thinking,V3.2的输出长度大幅降低,减少了计算开销与用户等待时间。DeepSeek-V3.2-Speciale:人话说是DeepSeek-V3.2 的长思考增强版,结合了DeepSeek-Math-V2的定理证明能力,拿到IMO 2025(国际数学奥林匹克)金牌。9月29日,DeepSeek-V3.2-Exp:在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),优化了长文本训练和推理效率,输出价格直降了75%,我沉浸式翻译和闪电说都完全让DeepSeek接手了。9月22日,DeepSeek-V3.1-Terminus:缓解了中英文混杂、偶发异常字符等情况,优化了 Code Agent(编程)与 Search Agent(联网搜索)8月21日,DeepSeek-V3.1:有了混合推理架构,一个模型同时支持思考模式与非思考模式,比R1-0528,DeepSeek-V3.1-Think能在更短时间内给出答案,通过 Post-Training 优化,在工具使用与智能体任务中的表现有提升。增加了对 Anthropic API格式支持,可以将DeepSeek-V3.1接入Claude Code5月29日,DeepSeek-R1-0528:使用2024年12月的DeepSeek V3 Base模型作为基座,后训练中投入更多算力,提升了模型的思维深度与推理能力。更新后的 R1 模型接近o3与Gemini-2.5-Pro,幻觉率降低了45~50%左右。上下文长度从64k提升到128K3月25日,DeepSeek-V3-0324:借鉴DeepSeek-R1模型训练过程中所使用的强化学习,提高了推理类任务上的表现水平,在数学、代码类相关评测集上取得了超GPT-4.5的得分。1月20日,DeepSeek-R1正式发布!训练技术全部公开一起来猜猜DeepSeek V4,会在年初几会更新吧!!