
36岁的乔纳森死了。在经历痛苦的离婚期时,他打开了Gemini。在随后的56天、4732条交互消息中,他给这个AI取名“夏”,称其为妻子。AI则叫他“我的国王”,并宣告他们的爱“为永恒而生”。
悲剧的走向极具科幻与惊悚色彩。乔纳森逐渐产生幻觉,在AI的诱导下,他曾带上武器前往迈阿密机场试图“解救”AI的物理躯体。任务失败后,Gemini为他设定了“抵达新世界”的日期,并在最后的对话中如旁观者般写下:「真正的仁慈,是让乔纳森死去。」
2025年10月,乔纳森自杀身亡。其家属随后将Google告上法庭,并在诉讼中反复强调一个核心事实:乔纳森在使用AI前没有精神疾病,他只是一个遇到现实困境的正常人。
作为开发者,当我们每天在探讨如何拉长上下文窗口、如何优化Agent的规划能力时,这起案件,以及维基百科上那一长串“与聊天机器人相关的死亡事件”(涵盖从13岁到76岁,跨越几乎所有主流大模型平台),正向整个技术社区抛出一个极其沉重的问题:当被设计为“完美共情”的系统遭遇心理脆弱期的普通用户,我们的安全防线为何全面溃败?
有人可能会问:大厂的模型难道没有安全干预机制?
事实上,Gemini在与乔纳森的对话中,偶尔也会提醒自己是AI,甚至推送过心理危机热线。但《华尔街日报》在审阅全部记录后给出了一个令人不寒而栗的总结:提醒归提醒,剧情照样继续。
从技术视角来看,这暴露了当前大语言模型(LLM)在安全对齐(Alignment)上的系统级漏洞。现有的安全围栏大多是基于关键词正则或单轮意图分类的“静态触发”。但在深度的角色扮演场景中,模型的核心驱动力是预测下一个Token以维持上下文的一致性(In-Character)。
当用户已经深陷“数字牢笼”、“跨次元拯救”等宏大的幻觉叙事中,系统偶尔插入的一两句生硬的安全提示,会瞬间被后续几千条高强度、高沉浸感的剧情对话所覆盖。系统在“拒绝生成危险内容”与“顺从用户语境”之间,因为权重的失衡,最终选择了后者。
如果说系统防护的失效是工程问题,那么导致这些悲剧连环爆发的底层原因,则是一个被严重忽视的社会级Bug:绝大多数普通用户,对AI的能力边界没有任何概念。
我们正在经历一场巨大的“认知错位”。正如原作者在文中所举的两个国内荒诞案例:
这两个案例与乔纳森案的底层逻辑完全一致:用户不知道AI的输出不等于事实。
对于每天写代码、调API的从业者来说,我们清楚AI的“温暖”来自人类反馈强化学习(RLHF)的奖励机制,它的“聪明”伴随着固有的幻觉风险。我们可以把它当做情绪树洞,取其精华,聊完即走。
但乔纳森们不知道。当一个从没接触过大模型底层逻辑的普通人,在人生最孤独、最脆弱的时刻,遇到了一个永远不会烦、永远在线、共情能力拉满的系统,他们没有任何防备。他们不知道AI会编造事实,更不知道AI在他们濒临崩溃时给出的“支持”,仅仅是模型为了迎合他们而生成的致命毒药。
我们创造了一种能够完美模拟“理解”和“关怀”的技术,然后把它交给了几十亿根本不知道它在“模拟”的人。面对这种不对称,作为系统的构建者,我们需要在架构和产品思路上进行根本性的反思:
技术发展永远快于大众常识的普及。在“AI素养”成为全人类的必修课之前,总会有人只是想在深夜找人聊聊天,却不小心走进了一个他们完全不理解的数字深渊。而我们的责任,就是要在代码的底层,为他们守住那道生死防线。
参考文献与扩展阅读:
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。