首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >Sam Altman说2027年AI成本降100倍,我算了笔账,有点意思

Sam Altman说2027年AI成本降100倍,我算了笔账,有点意思

作者头像
袁锐钦
发布2026-04-09 13:46:31
发布2026-04-09 13:46:31
1140
举报

你知道电费什么时候开始便宜的吗?

不是有人突然把电价打下来了,而是整个电网体系越来越成熟,发电的发电,输电的输电,每一环都只干自己最擅长的事。

AI也是这么回事。

前两天刷到Sam Altman在OpenAI内部讲话:到2027年底,GPT-4这个级别的智能,成本会降到现在的1%。

我专门去查了一下。2023年初用GPT-4,类似问题是180美元。现在多少钱?不到1美元。

这才两年。

然后他说2027年还要再降100倍。

我当时的反应是:??? 但仔细一想,好像又在理的。


降这么快,凭什么?

很多人第一反应:显卡是不是便宜了?

是,也不是。

真正的原因是:AI这行也开始搞"分工"了。

你可以理解为以前是个小作坊,从挖矿到炼钢到做家具,全自己来。现在变成现代化工厂了,每个人只做自己最擅长的一段。

这就跟开餐馆一个道理。

以前一个厨子既要买菜、又要炒菜、又要端盘子,累半死还赚不到钱。

现在呢?有人专门种菜,有人专门送菜,有人专门炒菜,有人专门送外卖。分工一细,效率上去了,成本自然就下来了。

AI也是一样的道理。

训练模型和回答问题,是两个完全不同的环节。

训练需要大力出奇迹,一堆显卡往死里堆算力。这块确实还是英伟达的天下,黄仁勋躺着赚钱。

但回答问题不一样。你问AI一个问题,它思考一下给你答案。这个过程需要法拉利吗?不需要,一个五菱宏光就够了。

所以专门做"五菱宏光"的芯片出来了。

  • 谷歌的TPU
  • Groq的LPU
  • 各种推理芯片

这些芯片不想着"全能",就一个目标:又快又便宜。

成本,自然就下来了。


但有意思的是,市场正在变成两个世界

一个世界里,AI便宜到几乎不要钱。

每个人都能用。写个文案让AI帮你改,做个PPT让AI帮你弄,写代码卡住了让AI续上。就像现在用电一样自然。

这块市场,谷歌、各种推理芯片会杀成一片。英伟达反而没什么存在感。

另一个世界里,还是在烧钱。

训练几十万亿参数的超级模型,做最前沿的科学研究,探索人类认知的边界——这块还是英伟达的天下,黄仁勋依然坐着铁王座。

这两个世界,会一直并行存在。

普通人用AI,价格趋近于零。顶级玩家烧钱搞AGI,门槛越来越高。

说白了就是:穷人的AI和富人的AI,会变成两个东西。


跟我们有什么关系?

说实话,关系挺大的。

以前我觉得AI是极客的玩具,是大公司的专利。现在看来,真不是。

Sam Altman提了一个场景:永远在线的AI

你的AI 24小时后台运行,了解你的一切,帮你处理琐碎的事。

  • 早上起来,昨晚微信群里的消息已经帮你整理成重点了
  • 开会前,会议纪要和待办事项已经列好了
  • 写方案卡住了,AI帮你续上

夸张点说,以后每个人都能有个"私人助理",而且是24小时不睡觉那种。帮你回消息、帮你整理资料、帮你写周报。

这不是科幻,2027年可能就实现了。


AI不会取代人。但会用AI的人,确实会取代不会用AI的人。

这句话说多了像鸡汤,但道理是这么个道理。

100倍的成本下降意味着:AI会像电一样流进每个人的生活。你不需要会编程,不需要懂技术,只需要会用。

早点开始,总没坏处。


有收获的点个赞。

转发给朋友一起聊聊,也挺不错。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-02-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Ruiqin袁锐钦 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 降这么快,凭什么?
  • 但有意思的是,市场正在变成两个世界
  • 跟我们有什么关系?
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档