
这两个月,我看到一个很有意思的变化。
不是大家都在往上升配,而是一些 AI 重度用户,开始反过来算账:我到底有没有必要,默认开着最贵的模型过日子?
OpenClaw 社区有人做实验:把 MiniMax M2.7 扔进 OpenClaw,去跑 Executive Assistant、笔记整理、Markdown 整理这类工作流,发现体验好得有点离谱,尤其是考虑到价格以后。
MiniMax 这类模型,已经足够吃下 80% 的日常杂活;但复杂自动化、稳定性要求高、一步错可能整段跑歪的任务,前沿模型还是更稳。
这也是我觉得真正有意思的地方:
假设“token free” 了,你会如何重新思考 AI 工作流
如果只写成“MiniMax 很便宜”,这事其实没什么意思。
真正重要的是,它便宜到什么程度,会改变你的使用习惯。
OpenRouter 的 models API 里,minimax/minimax-m2.7 现在的价格大概是输入 0.30 / 1M tokens,输出 1.20 / 1M tokens,上下文 204,800。你拿它去对比 anthropic/claude-opus-4,后者输入大概 15 / 1M,输出约 75 / 1M。就算对比 claude-sonnet-4,也还是贵一个数量级。
这意味着什么?
意味着以前你会犹豫的很多动作,现在可以直接交给模型先跑一遍。
比如:
这些任务的共同点不是“难”,而是“烦”。
它们通常不值得你自己手工做,但如果每次都开最贵模型,又会让你潜意识里变得保守:能不能少调一次?这个任务值不值得?要不我自己顺手弄了?
而一旦默认层变便宜,整个工作流心态会变。你不再把模型当成一个需要慎重按下的按钮,而是把它当成一个常驻的执行层。
这才是 MiniMax 这类模型真正改变工作流的地方。
可以现象下 token free的生活:
比如整理、转写、归档、摘要、格式统一、信息抽取、批量改写。
这一层最适合便宜模型。
因为这里真正需要的,不是巅峰智力,而是:
MiniMax 在 OpenClaw 这次被夸,基本就是卡在这一层上。它不是把 Opus 最擅长的部分打掉了,而是把“本来不值得开 Opus 的那一堆工作”接过去了。
比如重要邮件草拟、对外文案润色、方案整理、较复杂的信息整合、轻量研究。
这一层我更倾向于用中高端模型,比如 Sonnet 这一类。原因很简单:
比如重大决策、复杂研究、需要多步验证的推理、对事实可信度要求很高的输出。
这一层就别省了。
复杂研究还是更信 Opus。因为这类任务最贵的不是 token,而是错一次的代价。
你让便宜模型帮你整理笔记,出点小错,最多是改两分钟。
但你让它替你完成关键研究判断、复杂自动化规划、重要结论输出,一旦跑偏,后面浪费掉的时间远比省下来的钱多。
因为 agent 并不是只做“最难那一下”。
一个完整工作流里,真正占次数最多的,往往是大量低价值但必要的步骤:读文件、改格式、写草稿、清上下文、汇总分支结果、生成中间稿、做第一轮归纳。
这些步骤如果全都用最贵模型,工作流会天然变得奢侈,也变得克制。你会不自觉地收缩自动化范围。
但如果默认模型是一层便宜、长上下文、足够听话的底座,事情就不一样了。
你会开始愿意让 agent:
这其实就是一个很成熟的软件思路:把昂贵资源留给真正稀缺的环节。
AI 工作流以前一直容易走向一个误区:只盯着“最强模型能不能解决问题”。
现在更值得问的问题变成了:
这个任务,到底值不值得用最强模型来解决?然后让我肆无忌惮的使用token
这两个问题看起来很像,背后是完全不同的产品观。
如果你不是天天跑 benchmark,只是想把 AI 真正接进工作里,我更建议直接照这套方式来。
把便宜、长上下文、输出还不错的模型设成默认层。
它负责:
核心标准只有一句:便宜到你愿意默认一直开着。
当任务开始涉及表达质量、外部沟通、复杂整合时,再升级。
比如:
这层的目标不是最强,而是稳妥地接住关键场景。
只在下面几种情况开:
说白了,Opus 这类模型最适合做的,不是全天候扫地,而是当最后那个需要压住质量波动的人。
这不是 MiniMax 单点赢了谁。
这是整个 AI 工作流在变成熟。
以后真正拉开差距的,可能不再是谁总在用最贵模型,而是谁更早学会了:
什么任务交给便宜模型跑量,什么任务交给高端模型兜底。
这套能力一旦搭起来,AI 才会从“偶尔帮忙”变成“真的接管工作流的一部分”。
你现在会怎么分配自己的模型层级?哪些活你愿意交给便宜模型,哪些活你一定要最强模型上?评论区聊聊。