首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >DeepSeek 正式发布 V3.2:不卷参数卷架构,这一年究竟在憋什么大招?

DeepSeek 正式发布 V3.2:不卷参数卷架构,这一年究竟在憋什么大招?

作者头像
不二小段
发布2026-04-09 19:05:26
发布2026-04-09 19:05:26
1610
举报
文章被收录于专栏:不二小段不二小段

摘要

  • Agent 能力进化:V3.2 支持在思维链思考过程中动态调用工具,实现“边想边做”,大幅提升了复杂任务的泛化能力。
  • 挑战 SOTA 推理:DeepSeek-V3.2-Speciale 模型融合 DeepSeek-Math-V2 的定理证明能力,专攻逻辑极限,数学能力硬刚闭源的 Gemini 3 Pro(但推理成本较高)。

已经进 12 月了,再过一段时间就是 DeepSeek V3 发布一周年了,我还挺期待 DeepSeek 今年圣诞节再搞波大的,求求了!只要有 V4,我什么都会做的!V3.5 也行啊!

有人可能会觉得,月初才发 V3.2,元旦前估计就这了。这就是不懂 DeepSeek,我个人觉得 DeepSeek 圣诞节搞事的可能性依然很大。

先回顾一下 DeepSeek 一年来的发布:

  • 2024/12/10:发布 DeepSeek V2.5
  • 2024/12/26:发布 DeepSeek V3(间隔半个月):初见端倪
  • 2025/1/20:发布 DeepSeek R1(间隔不到一个月):改写历史
  • 2025/3/24:发布 DeepSeek-V3-0324(顺便一提:我自己今年消耗 token 最多应该就是 DeepSeek V3-0324,一方面是懒得改 API,一方面是够用)
  • 2025/5/28:发布 DeepSeek-R1-0528
  • 2025/8/21:发布 DeepSeek V3.1:混合推理,不再发布单独的推理模型
  • 2025/9/22:发布 DeepSeek-V3.1-Terminus:修复 V3.1 版本中的异常字符问题
  • 2025/9/29:发布 DeepSeek-V3.2-Exp(间隔一周):引入 DSA 稀疏注意力机制,在不影响输出效果的前提下大幅降价
  • 2025/10/23:发布 DeepSeek-OCR
  • 2025/11/27:发布 DeepSeek-Math-V2
  • 2025/12/1:发布 DeepSeek V3.2 正式版和 DeepSeek-V3.2-Speciale

看上去,DeepSeek 似乎花了一整年的时间,只从 V3 走到了 V3.2,但实际上,DeepSeek 这一年来就是在做一件事情:如何在不增加模型规模的前提下,通过架构优化和强化学习,不断提升模型的**「思考密度」、「执行效率」和「Agent 能力」**,同时降低模型的推理成本。

DeepSeek 是缺人力物力财力数据去训 T 级参数规模的模型吗?我觉得不是。单纯就是发展路线的选择,我相信 DeepSeek 用一年时间,已经把 V3 的基模调出花了。

说实话,这种不为外部环境所动,坚持自我路线的节奏,太稳了,太可怕了。因为高速发展的创新产业,拼的就是机会成本,毕竟团队的人财物力都是有限的,可以探索的方向也是有限的。

从这种角度上讲,大家觉得,DeepSeek 是发 V4 更恐怖,还是发 V3.3、3.4…3.9…3.99 更恐怖呢?

DeepSeek 现在就给我这种,厚积薄发练内功的感觉。

想想,Ilya 前几天说 Scale 时代快结束了,要回归 Research 时代。有没有一种可能…DeepSeek 一直在 Research,没有 Scale 呢?(这里指参数量级,推理还是 scale 了的)

当别家粗放地把参数卷到碰数据墙,卷到了边际效应递减,单纯增加参数量带来的性能提升越来越小时,DeepSeek 搁这里精耕细作。

换句话说:671B 都这样了,1T 参数还不起飞咯?!

V3.1 到 V3.2 的演进之路

扯远了,回归 DeepSeek V3.2。V3.2 不是独立的,是 V3.1 以来的延续。

  • V3.1 比较好理解,就是混合推理;
  • V3.2-Exp 主要是 DSA(稀疏注意力机制)。为了验证 DSA 的有效性,团队特意将 V3.2-Exp 的训练设置与 V3.1-Terminus 进行了严格对齐。在各领域的公开评测集上,DeepSeek-V3.2-Exp 的表现与 V3.1-Terminus 基本持平。也就是说,V3.2-Exp 几乎实现**「无损压缩」**。模型在变快、变省资源的同时,智商并没有下降。
  • V3.2-Exp 解决了「效率」问题,V3.2 继续提升 Agent 和推理能力的改进版。

其次,就是工具使用融入思考过程,实现「思考-调用-再思考」。

这种能力不是凭空而来的。DeepSeek 在技术报告中透露,他们提出了一种大规模 Agent 训练数据合成方法。他们构造了 1800+ 个环境85,000+ 条复杂指令。这些任务具有一个鲜明的特征:「难解答,易验证」。这正是强化学习最喜欢的场景。通过这种大规模的合成数据训练,模型在并未针对特定工具进行特训的情况下,展现出了极强的泛化能力。

DeepSeek-V3.2-Speciale:为推理极限而生

至于 DeepSeek-V3.2-Speciale,这个版本并不适合普通用户使用,它依然是一个「偏科生」,一个为了解题而生的长思考增强版,一个探索推理极限的特别版本。

Speciale 版本结合了 DeepSeek-Math-V2 的定理证明能力,通过数学竞赛的测评,在处理高度抽象的逻辑符号和严谨证明方面,已经达到了人类顶尖选手的水平。

尽管有代价:Speciale 模型在处理任务时,会消耗显著更多的 Token。

小结

总之,V3.2 依然是一个扎实而稳步推进的更新版本,Agent 能力、推理能力都有极大提升。

对于开发者和企业用户来说,DeepSeek V3.2 的发布释放了一个信号:开源模型对闭源模型的追赶速度并没有放缓,反而会因为架构创新而变得更具性价比。

Agent 的 token 消耗量是巨大的,所以当模型能力持平而 Agent 大量落地的时候,谁更有性价比就会成为决定因素。别忘了,DeepSeek 是第一个发起模型价格战的鲶鱼,显然已经抢先占领了有利地形。

对了,梁文锋曾经说过:

数学和代码是 AGI 天然的试验场,有点像围棋,是一个封闭的、可验证的系统,有可能通过自我学习就能实现很高的智能。

Math-V2、Speciale 已经来了,Coder 还会远吗?V4 还会远吗?我充满期待。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-12-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 摘要
  • V3.1 到 V3.2 的演进之路
  • DeepSeek-V3.2-Speciale:为推理极限而生
  • 小结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档