

已经进 12 月了,再过一段时间就是 DeepSeek V3 发布一周年了,我还挺期待 DeepSeek 今年圣诞节再搞波大的,求求了!只要有 V4,我什么都会做的!V3.5 也行啊!
有人可能会觉得,月初才发 V3.2,元旦前估计就这了。这就是不懂 DeepSeek,我个人觉得 DeepSeek 圣诞节搞事的可能性依然很大。
先回顾一下 DeepSeek 一年来的发布:
看上去,DeepSeek 似乎花了一整年的时间,只从 V3 走到了 V3.2,但实际上,DeepSeek 这一年来就是在做一件事情:如何在不增加模型规模的前提下,通过架构优化和强化学习,不断提升模型的**「思考密度」、「执行效率」和「Agent 能力」**,同时降低模型的推理成本。
DeepSeek 是缺人力物力财力数据去训 T 级参数规模的模型吗?我觉得不是。单纯就是发展路线的选择,我相信 DeepSeek 用一年时间,已经把 V3 的基模调出花了。
说实话,这种不为外部环境所动,坚持自我路线的节奏,太稳了,太可怕了。因为高速发展的创新产业,拼的就是机会成本,毕竟团队的人财物力都是有限的,可以探索的方向也是有限的。
从这种角度上讲,大家觉得,DeepSeek 是发 V4 更恐怖,还是发 V3.3、3.4…3.9…3.99 更恐怖呢?
DeepSeek 现在就给我这种,厚积薄发练内功的感觉。
想想,Ilya 前几天说 Scale 时代快结束了,要回归 Research 时代。有没有一种可能…DeepSeek 一直在 Research,没有 Scale 呢?(这里指参数量级,推理还是 scale 了的)
当别家粗放地把参数卷到碰数据墙,卷到了边际效应递减,单纯增加参数量带来的性能提升越来越小时,DeepSeek 搁这里精耕细作。
换句话说:671B 都这样了,1T 参数还不起飞咯?!
扯远了,回归 DeepSeek V3.2。V3.2 不是独立的,是 V3.1 以来的延续。

其次,就是工具使用融入思考过程,实现「思考-调用-再思考」。

这种能力不是凭空而来的。DeepSeek 在技术报告中透露,他们提出了一种大规模 Agent 训练数据合成方法。他们构造了 1800+ 个环境 和 85,000+ 条复杂指令。这些任务具有一个鲜明的特征:「难解答,易验证」。这正是强化学习最喜欢的场景。通过这种大规模的合成数据训练,模型在并未针对特定工具进行特训的情况下,展现出了极强的泛化能力。
至于 DeepSeek-V3.2-Speciale,这个版本并不适合普通用户使用,它依然是一个「偏科生」,一个为了解题而生的长思考增强版,一个探索推理极限的特别版本。
Speciale 版本结合了 DeepSeek-Math-V2 的定理证明能力,通过数学竞赛的测评,在处理高度抽象的逻辑符号和严谨证明方面,已经达到了人类顶尖选手的水平。

尽管有代价:Speciale 模型在处理任务时,会消耗显著更多的 Token。
总之,V3.2 依然是一个扎实而稳步推进的更新版本,Agent 能力、推理能力都有极大提升。
对于开发者和企业用户来说,DeepSeek V3.2 的发布释放了一个信号:开源模型对闭源模型的追赶速度并没有放缓,反而会因为架构创新而变得更具性价比。
Agent 的 token 消耗量是巨大的,所以当模型能力持平而 Agent 大量落地的时候,谁更有性价比就会成为决定因素。别忘了,DeepSeek 是第一个发起模型价格战的鲶鱼,显然已经抢先占领了有利地形。
对了,梁文锋曾经说过:
数学和代码是 AGI 天然的试验场,有点像围棋,是一个封闭的、可验证的系统,有可能通过自我学习就能实现很高的智能。
Math-V2、Speciale 已经来了,Coder 还会远吗?V4 还会远吗?我充满期待。