如果你的全部价值就是那一套方法论,那你本来就是在做一件可替代的事。
有个产品经理,把自己摸索了三年才总结出来的项目推动方法论,封装成了一个 .skill 文件,发到了社区。
结果几千人下载。
有人直接用这套方法论替代了他的岗位——不是用AI复制了他的产出,而是用AI学会了他做事的方式,然后把他开掉了。
这个故事听起来很吓人。但我仔细想了想,发现里面藏着一个被大多数人忽略的反转:
真正被替代的,是那个可以轻易被封装成 .skill 的能力。
而那些封装不进去的东西,AI碰都碰不到。
Anthropic(Claude的母公司)今年提过一个概念叫 Skills over Agents——停止构建Agent,转向构建Skills。他们发现AI Agent虽然强大,但缺乏领域专业知识,需要人类专家的经验来补充。
这个思路很聪明。但它同时也在告诉我们一件事:Skill是可以被封装的,那些能被封装的经验,正在被替代。
问题是——什么封装不进去?
AI在有明确目标、有充足数据的任务上表现远超人类。但现实不是这样的。
举个例子:一个做了十五年的投资合伙人,他最核心的能力不是看报表——那个AI做比他好十倍。他的能力是:面对一个创始人说完"我要做的事听起来不可能",他能在十五分钟内判断这个人是疯子还是天才。
这种判断依赖的是海量隐性知识——见过足够多的人、倒过足够多的霉、踩过足够多的坑,然后在大脑里形成了一套无法言说的判断框架。
这种东西封装不成 .skill。
每天在你工作中,一定有一些"说不上来为什么,但我就是觉得该这么做"的时刻。那些时刻,就是你的判断力在发挥作用。把它记下来,你会发现——这恰恰是AI最缺的东西。
AI擅长在框架内生成大量变体。但决定什么是好的、什么值得做、什么方向是对的——这是AI做不到的。
Karpathy说过一句话:在AI Agent时代,代码会被Idea取代。
意思是,未来真正有价值的不再是"你会不会写代码",而是"你想做什么,为什么想做,做出来是什么感觉"。
这个"想做什么"的能力,不在AI的能力范围内。
我有个朋友在VC工作,她说过一个观察:基金投后做得最好的那几个项目,创始人和投资人之间都有一个共同点——在某个时刻,创始人打过电话,不是汇报进展,是真的睡不着,问她该怎么办。
这种事AI处理不了。不是技术问题,是存在性问题。人在脆弱的时候,需要的是另一个人的确认。
你和客户、同事、团队之间的关系质量,在AI时代是真正的护城河。
有人做了一个定价决策:本来收365元的产品,卖得挺好,但他决定停掉,最低调到2980元。已经付费的15个人,免费升级。
按商业逻辑,这叫"把钱往外推"。
按价值观逻辑,这叫"我觉得帮出结果比收更多钱重要"。
AI没有价值观,只有模式。它不知道什么时候该停,什么时候该坚持,什么时候该放弃短期利益换长期信任。
价值观从哪里来?从痛苦中来,从选择中来,从失败中来,从被人伤害过又伤害过别人中来。这些经历无法被训练出来,无法被数据化。
第一,把经验从"流程"升级成"判断框架"。
每周挑一件你做过的重要决策,写一页纸记录判断逻辑。三个月后回看,你会发现有些判断今天你不会做了——那部分可以交给AI;有些依然不确定——那部分就是你需要继续积累的。
第二,每天先想"做什么",再想"怎么做"。
遇到任何任务,先花五分钟想"为什么做这个,不做那个行不行"。然后让AI帮你执行,你保留决策权。
第三,每周至少一次,把和某人的互动从"任务"变成"对话"。
你和客户、同事、团队之间的关系质量,在AI时代是真正的护城河。
第四,建一个自己的知识体系,但不是为了AI,是为了自己。
在构建过程中,你会被迫把隐性知识变成显性知识。你会发现有些你以为你知道的事,其实说不清楚——这些地方,恰恰是你真正需要积累的地方。
回到开头那个产品经理。他把自己的方法论做成了 .skill,然后发现自己被替代了。
但这个故事真正的问题不是"Skill太可怕了",而是:如果你的全部价值就是那一套方法论,那你本来就是在做一件可替代的事。
真正要问的不是"AI怎么把我的经验偷走了",而是:
"除了那些经验,我还有什么是AI拿不走的?"
人应该站在判断的那一边。
那是AI到不了的地方。