
这篇研究做了一件大家一直想做但没人真的做的事:用新的测量方法,实测 AI 到底在对哪些工作产生影响。不是预测,是真实数据。
我认真读了一遍,发现结果和大多数"AI替代程序员"的焦虑文有挺大不同。

Anthropic 这篇研究有个挺聪明的地方:他们不把整个职业当作研究单元,而是把工作任务拆开来看。
很少有工作是"被 AI 完全取代"的。更常见的情况是:某些任务 AI 能做,某些不行,然后这个比例决定了你这份工作受多大影响。
他们的发现大概是这样:
信息处理类任务受影响最大。 写代码、整理文档、回邮件、做数据分析——这些任务里,AI 已经开始真正改变工作方式。
但"影响最大"不等于"被取代"。研究里有一个说法让我印象深刻:AI 目前更像是在"重新分配工作",而不是"减少工作"。
会用 AI 的人效率变高,接到更多的活;不会用的人,则面临实质性的竞争压力。
这不是什么令人安慰的结论,但至少是诚实的。
另一个有意思的发现:受 AI 影响越大的任务,往往是那些"结果可以被快速验证"的任务。写一段代码,跑一下测试,对不对马上知道。AI 在这类任务上进步飞快,因为反馈循环短、容易迭代。
需要跟人打交道、理解模糊需求、在复杂语境里做判断——这些任务,AI 目前改变得没那么快。这不是永久性的差距,但目前来看是真实的。
有人注册了 406.fail 这个域名,提出了一个叫"406 Not Acceptable"的草案协议。
熟悉 HTTP 的同学知道,406 是服务器拒绝请求的状态码,意思是"你发来的东西我不接受"。这个协议把这个逻辑搬到了 GitHub 的 PR 流程里:
如果判定一个 Pull Request 是 AI 批量生成的低质量提交,维护者有权用"406"标准拒绝,并且不需要给出详细反馈。
一个维护者的评论让我觉得挺真实的,他说这几个月 AI 生成的 PR 数量增加了大概 10 倍,但真正有价值的 PR 并没有增加。维护者的时间是有限的,但现在每天要审大量用 AI 生成的改动——看起来像在做贡献,实际上基本是噪音。

这就是那种双面感:AI 在帮助人"生产更多",但"更多"并不等于"更好"。
很多人用 vibe coding 的方式打开了一个新世界:不用很懂代码,也能生成看起来能跑的东西,然后发个 PR"贡献"一下。这很好,但当这变成一种批量行为,维护者承受的是真实的成本。
406 协议很聪明的地方在于:它不是在歧视 AI,也不是在歧视新手。它只是在说——你提交的东西,我评估过没有足够的价值,所以我拒绝,我不欠你一个详细解释。
这个边界,在 AI 之前本来也应该存在,只是以前没那么多人需要明确说出来。
这两件事都在说同一件事,只是角度不同。
Anthropic 的研究说:AI 在影响工作,但不是用"消灭岗位"的方式,而是用"重新定义谁更有价值"的方式。
406.fail 的故事说:AI 生成的代码洪流正在逼出一个新的质量门槛,不思考、只靠量堆的工作方式越来越没有出路。
两者都指向同一个结论:AI 没有取消"好工作"的意义,反而让"好工作"和"看起来像工作"的差距变得更明显了。
说白了,以前你可以靠量混:多提几个 PR,多发几封邮件,没人会太仔细看。现在 AI 让"量"本身不值钱了。
答案没什么神秘的,不是"学会用 AI",因为那已经是基本门槛了。而是两件更难的事:
一、能判断 AI 生成的代码是否真的好。 会用 Copilot/Cursor 不是技能,能看出 AI 生成的代码有什么问题才是技能。很多 bug 不是 AI 写出来的,而是人没有仔细看就合进去的。
二、做 AI 不擅长的部分。 理解用户需求、系统设计、在模糊需求下做决策、跟业务方沟通——这些任务在 Anthropic 的研究里受 AI 影响最小。不是 AI 永远做不到,而是目前来看,这是最后被动到的一批。
我觉得 Anthropic 这篇研究最值得认真对待的地方,不是那些具体数字,而是它提供了一个更诚实的框架:不要问"AI会不会取代程序员",而是问"我做的哪些工作正在受影响,哪些还没有"。
然后针对性地想清楚自己怎么办。