
对于 OpenAI 最新发布的 GPT-5,大多数老用户其实是有点失望的。
一方面,它并不是大家预想中的 AGI 奇点,另一方面,GPT-5 在某些复杂任务上,响应速度和「思考深度」似乎并不如之前的模型。更不要说还有一大批用户在呼吁 GPT-4o 的回归。
不过,也有人认为,抛开模型性能的讨论,GPT-5 代表了一次更深层的变革。
这并非一次单纯的技术升级,而是一次经济学意义上的发布会。
说出这句话的,是以深度和精准著称的半导体分析机构 SemiAnalysis 的创始人 Dylan Patel。

在最近的一场与 a16z 的播客里,Dylan 讨论了 OpenAI 的商业布局、英伟达的护城河,以及各大科技巨头的下一步发展方向。
这不只是对 GPT-5 模型的复盘,更是关于 AI 基础设施、芯片格局与下一代商业模式演进的思考。
尽管许多用户都在抱怨 GPT-5,但实际上,GPT-5 的模型能力并没有退步,而是有意地进行了策略转向——「路由器」(Router)模式。
Dylan 指出,这标志着 OpenAI 的关注点,正从单一模型的 SOTA 追求,转向为构建一个成本与效果动态平衡的智能系统。

这个「模型选择路由器」更像一个智能调度中心:当你提出问题时,它会先判断复杂度和潜在价值,再决定调用何种模型与投入多少算力。打个比方:
Mini 模型,来降低算力成本。「OpenAI 终于找到了商业化的圣杯」,Dylan 解释道。
一直以来,AI 模型的变现并不容易。广告会破坏体验,订阅又难以覆盖庞大的免费用户,更难按用户创造的价值差异化定价。
现在,路由器提供了新的做法。
对于免费用户,OpenAI 不再「一刀切」地提供高成本服务。若某次查询呈现出明确的商业意图——例如购物、法律咨询、旅行规划等——路由器会优先调用更强的模型与 Agent 功能,因为这类「算力投入」更有机会带来可观的交易回报。
设想一下:如果电商平台的相当一部分流量经由 ChatGPT 导入,而 OpenAI 过去很难分享这部分价值,那么在路由与智能体能力更加完善后,这种局面有望被改写。
这个「路由器时刻」意味着 AI 正从技术展示走向闭环经营。它意味着,未来评价一个模型/系统的标准,不仅是 MMLU 或其它榜单,更看重它能否达成成本—性能的帕累托前沿(Pareto Front)最优曲线。

未来,真正的护城河,可能不是某个单点模型的能力峰值,而是在不同任务间动态调配算力、用最低成本创造最大价值的系统能力。
谈及 AI 硬件,英伟达绕不过去。其市值一度登顶,成为名副其实的「AI 卖铲人」。一个核心问题是:英伟达的领先优势可持续吗?护城河究竟有多深?
Dylan 的判断是:很深,而且远不止于芯片本身。
他提出了一个「5 倍定律」:一家 AI 芯片初创公司,若要在特定工作负载上与英伟达竞争,硬件能效需要达到英伟达的 5 倍,才可能在系统层面对冲其综合优势。

为什么是 5 倍?因为英伟达的优势是多层叠加的:
CUDA 已成事实标准。大量开发者、库与工具围绕其生态构建。迁移成本高。英伟达还通过开源 Triton、TensorRT-LLM 等工具,不断把推理层软件「商品化」,压缩单纯提供推理 API 的服务空间。「你不能只做一件与英伟达一样的事,然后期待做得更好。AMD 就是最好的例子。」Dylan 指出。即便在某些技术点(如 3D 堆叠)上更早,仍难撼动英伟达的系统级领先。
因此,挑战者必须在某个维度实现「跨代式」跃迁。但这一赌注周期长、风险高:当新芯片流片时,模型范式可能已换代。
Google、Amazon 和 Meta,这三家公司正在以前所未有的规模和速度,扩大其自研 AI 芯片的订单。

Dylan 认为,这是对英伟达最大的单一威胁。这些巨头拥有「专属客户」——也就是它们自己。它们不需要考虑对外销售的利润,其核心目标是压缩内部的利润空间。
通过自研芯片,它们可以把原本付给外部供应商的利润,转化为自身的成本优势。
「如果 AI 的终局更趋集中化,定制芯片的回报会更高。」Dylan 的判断相对明确。
他还抛出一个激进建议:「Google 可以考虑对外销售 TPU。」
在他看来,若配合组织与商业模式的重构,把 TPU 作为独立业务推动,其潜在增量价值或许会非常可观。
受出口管制影响,英伟达无法向中国提供最先进芯片,只能供应受限规格的产品(如 H20)。这在客观上推动了本土 AI 芯片的投入与替代,其中华为等厂商的进展受到关注。
Dylan 提到一个业内观察:据称中国部分地区对能效不达标的方案持谨慎态度,部署审批更加严格。这既是产业政策取向,也反映了当地在 AI 基建上的现实考虑。
他认为,中美 AI 的瓶颈并不相同:
不过,这些约束也在被绕开。一些企业通过在海外(如新加坡)租赁数据中心、购买云服务,仍有机会获得更先进的算力资源。
芯片限制使博弈更复杂:英伟达一方面需要遵守法规,另一方面又试图通过软件生态的输出来维系其在中国市场的影响力,以遏制华为软件生态的成长。
我们正在直面愈发突出的电力危机。
Dylan 指出,当前限制 AI 扩张的核心矛盾,正从制造环节转向数据中心基础设施,尤其是电力供给。
据业内交流反馈,谷歌、Meta 等公司都有相当一部分芯片处于等待上电与部署的状态,其背后的共同原因是:可用的数据中心与电力配套不足。
在美国,获得一个新的电网连接许可、建设相应的变电站,可能需要数年时间。
这催生了一个奇特的现象:AI 公司开始疯狂收购加密货币矿场。
CoreWeave、Oracle 甚至 Google,都在收购或投资那些濒临破产的矿企。他们看中的不是比特币,而是这些矿场已经建好的、拥有大功率电力接入的数据中心。
这场「电力争夺战」也彻底改变了数据中心建设的经济学。

Dylan 分享了一组数据:一个 Blackwell GPU 集群的总拥有成本 (TCO) 中,约 80% 是资本支出(GPU、网络、服务器等),而只有 20% 是运营支出(主要是电力和冷却)。
实际上,时间的价值远远超过了电费的价值。
「Elon Musk (特斯拉) 的做法看起来很傻,但他做对了。」 Dylan 举例说。
特斯拉为了加速其数据中心的上线,没有选择最经济的冷却方案,而是购买了昂贵的移动式冷却设备。这让数据中心提前了三个月投入使用。对于 AI 训练而言,这三个月的时间价值,远远超过了多付出的那点设备成本。
「只要能让我的 GPU 尽快跑起来,我愿意为电力和冷却支付 50% 的溢价。」这已成为行业共识。
在对话的最后,Dylan Patel 也为几位科技巨头的 CEO 给出了他的建议:
从 OpenAI 的「模型选择路由器」到超越英伟达的「5 倍定律」,从巨头「定制芯片」到全球面临的「电力瓶颈」,Dylan Patel 帮助我们分析了当前 AI 浪潮的水下部分。
AI 模型的竞争已经不再是单纯的参数和榜单分数之争,而是进入了更复杂的深水区。
这场竞争更加关注经济效率、供应链、基础设施,以及在下一代计算平台变革中,谁能定义规则并构建生态。
未来胜出的将是那些不仅能训练出强大模型,还能打通从沙子(芯片)到电力(数据中心)再到服务(商业模式)的全栈能力玩家。
当模型的单点性能逐渐趋于收敛,真正的较量,将在系统工程与商业落地上分出高下。