
你知道电费什么时候开始便宜的吗?
不是有人突然把电价打下来了,而是整个电网体系越来越成熟,发电的发电,输电的输电,每一环都只干自己最擅长的事。
AI也是这么回事。
前两天刷到Sam Altman在OpenAI内部讲话:到2027年底,GPT-4这个级别的智能,成本会降到现在的1%。
我专门去查了一下。2023年初用GPT-4,类似问题是180美元。现在多少钱?不到1美元。
这才两年。
然后他说2027年还要再降100倍。
我当时的反应是:??? 但仔细一想,好像又在理的。
很多人第一反应:显卡是不是便宜了?
是,也不是。
真正的原因是:AI这行也开始搞"分工"了。
你可以理解为以前是个小作坊,从挖矿到炼钢到做家具,全自己来。现在变成现代化工厂了,每个人只做自己最擅长的一段。
这就跟开餐馆一个道理。
以前一个厨子既要买菜、又要炒菜、又要端盘子,累半死还赚不到钱。
现在呢?有人专门种菜,有人专门送菜,有人专门炒菜,有人专门送外卖。分工一细,效率上去了,成本自然就下来了。
AI也是一样的道理。
训练模型和回答问题,是两个完全不同的环节。
训练需要大力出奇迹,一堆显卡往死里堆算力。这块确实还是英伟达的天下,黄仁勋躺着赚钱。
但回答问题不一样。你问AI一个问题,它思考一下给你答案。这个过程需要法拉利吗?不需要,一个五菱宏光就够了。
所以专门做"五菱宏光"的芯片出来了。
这些芯片不想着"全能",就一个目标:又快又便宜。
成本,自然就下来了。
一个世界里,AI便宜到几乎不要钱。
每个人都能用。写个文案让AI帮你改,做个PPT让AI帮你弄,写代码卡住了让AI续上。就像现在用电一样自然。
这块市场,谷歌、各种推理芯片会杀成一片。英伟达反而没什么存在感。
另一个世界里,还是在烧钱。
训练几十万亿参数的超级模型,做最前沿的科学研究,探索人类认知的边界——这块还是英伟达的天下,黄仁勋依然坐着铁王座。
这两个世界,会一直并行存在。
普通人用AI,价格趋近于零。顶级玩家烧钱搞AGI,门槛越来越高。
说白了就是:穷人的AI和富人的AI,会变成两个东西。
说实话,关系挺大的。
以前我觉得AI是极客的玩具,是大公司的专利。现在看来,真不是。
Sam Altman提了一个场景:永远在线的AI。
你的AI 24小时后台运行,了解你的一切,帮你处理琐碎的事。
夸张点说,以后每个人都能有个"私人助理",而且是24小时不睡觉那种。帮你回消息、帮你整理资料、帮你写周报。
这不是科幻,2027年可能就实现了。
AI不会取代人。但会用AI的人,确实会取代不会用AI的人。
这句话说多了像鸡汤,但道理是这么个道理。
100倍的成本下降意味着:AI会像电一样流进每个人的生活。你不需要会编程,不需要懂技术,只需要会用。
早点开始,总没坏处。
有收获的点个赞。
转发给朋友一起聊聊,也挺不错。