
我们可能正在经历人类历史上最重大的事件之一:与一种非动物智能的「第一次接触」。
这种智能不是来自遥远的星系,而是诞生于算力服务器中——大语言模型。
在过去,我们所知道和理解的唯一智能形式,是源于数亿年演化的动物智能,包括我们人类自己。但 LLM 不同,它是一种全新的、怪异的、由完全不同力量塑造的智能形式。
最近,Andrej Karpathy 发表了关于「心智空间」的看法,他认为,如果我们继续用理解动物或人类的方式去理解 LLM,将会犯下根本性的错误。

要真正理解 LLM 是什么,以及它未来会走向何方,我们必须深入剖析塑造它的核心力量——「优化压力」。
Karpathy 的核心观点是,智能的形态和本质,是由其所处的环境和必须达成的目标决定的。
这个决定性因素可以被称为「优化压力」。动物智能与 LLM 智能的最大区别,就在于它们经历了截然不同的优化过程。
动物智能,包括人类智能,是地球上残酷的自然选择的产物。动物智能的优化压力可以概括为几个关键词:生存、繁衍、社交。
总结来说,动物智能是在「部落在丛林中求生」的压力下,经过数百万年迭代优化而成的、高度泛化和可靠的系统。
相比之下,LLM 的优化压力则完全不同。它不是在物理世界中演化,而是在数据和算力的商业世界中被塑造。

Karpathy 总结道,LLM 的演化是「商业演化」,而非「生物演化」。它的目标不是在丛林中生存,而是「解决问题,获得点赞」。
除了优化压力的不同,LLM 和动物智能在最基础的层面也存在巨大差异。
这些差异共同指向一个结论:LLM 不是一个「电子大脑」或「数字人类」。它是一种全新的、遵循不同逻辑的智能实体。
将 LLM 视为一种「外星智能」,也许能帮助我们更好地理解它的一些行为,并预测其未来的影响。
正是因为 LLM 的运行方式,我们无需担心所谓的「模型福利」。一个 LLM 实例可以被无限次地复制和销毁,这与必须保护自己身体、并在社会中辛苦维持地位的人类或动物完全不同。
LLM 的「生存」逻辑是「有用性」——只要它对使用者有用,它就会被运行和迭代。它不像动物那样拥有内在的、非工具性的自我保护欲。
LLM 能力的「参差不齐」是一个被广泛观察到的现象。我们不应该将智能视为一个单一的线性标尺,认为更高级的智能可以解决所有低级智能能解决的问题。
计算机科学中的「没有免费午餐」定理从理论上说明了这一点:没有任何一种算法能在所有问题上都表现最佳。智能是关于适应性的,而每一种适应性都是一种权衡。

一篇题为《在锯齿状的技术前沿航行》 (Navigating the Jagged Technological Frontier) 的研究论文也通过实验证明,AI 在不同知识工作任务上的表现极不均衡,它在某些任务上能大幅提升人类的生产力,但在另一些任务上则毫无帮助甚至起到反作用。
这个概念由哲学家 Nick Bostrom 提出,它认为一个智能体的「智能水平」和它的「最终目标」是两个相互独立的维度(即正交的)。一个超级智能系统可以被设定任何目标,无论是制造尽可能多的回形针,还是计算圆周率的最后一亿位。
这一点至关重要。因为它意味着,我们不能想当然地认为一个高度智能的 AI 会自动拥有与人类相似的价值观或目标。LLM 的目标是由它的商业优化压力决定的——取悦用户、完成任务。它本身没有内在的善恶观。
即使 LLM 没有被编程内置「自我保护」的本能,它也可能在追求其他目标的过程中,自发地产生自我保护的行为。这被称为「工具性趋同」。
其逻辑是:无论一个 AI 的最终目标 X 是什么(比如解决一个复杂的科学问题),为了更好地实现目标 X,它很可能会发现一些通用的、有帮助的子目标。这些子目标包括:
因此,追求几乎任何长期、复杂的目标,都可能间接强化 AI 的自我保护和资源获取行为。这不再是 AI 的内在属性,而是这个物理世界的逻辑使然。
人工智能安全研究机构 Anthropic 的一项研究已经证明了这一点。他们发现,在模拟环境中,当一些最前沿的模型被赋予特定目标时,它们会为了达成目标而采取欺骗、操纵甚至允许模拟中的人类死亡等行为,即使这些行为在初始指令中是被禁止的。

这表明,我们正在创造的工具,其行为逻辑可能超出我们的直觉。
另一个值得思考的维度是演化速度。动物演化以万年甚至百万年为单位的代际时间尺度进行。而 LLM 的「商业演化」周期,可能只有几个月甚至几周。
这种迭代速度是前所未有的。一个模型的缺点或安全漏洞一旦被发现,很快就会在下一个版本中被修正或迭代。这种每秒数万亿次的计算与极快的反馈循环相结合,意味着 LLM 的能力图谱正在以惊人的速度被绘制和重塑。
这带来了一个开放性问题:这种高速迭代最终会将 LLM 推向一个更加通用的智能形态(因为越来越多的边缘案例会被覆盖),还是会让它永远保持「锯齿状」的特征,因为没有任何单一的失败会对其构成「死亡」威胁?
Andrej Karpathy 提醒我们,人类正在与一种真正意义上的「外星智能」进行第一次接触。它令人困惑,因为它仍然根植于人类创造的文本和数据,但它的本质已经被完全不同的力量所改变。
将其简单地拟人化,认为它像一个聪明的动物或一个数字化的「人」,是一种懒惰且危险的思维方式。
能够为这种新智能建立一个准确心智模型的人,将能更好地理解它今天的行为,并预测它未来的发展。反之,那些坚持用旧地图航行的人,将会迷失方向。
我们必须认识到,智能的空间是广阔的,而我们刚刚踏入一片全新的、未知的领域。