
当 AI 不仅能写诗作画,还能「巧舌如簧」地说服你,这是一种怎样的体验?
最近,来自伦敦政治经济学院、洛桑联邦理工学院、普渡大学等众多机构的研究者们联合发布了一篇题为《大型语言模型比受激励的人类说服者更有说服力》的研究论文,他们进行了一项大规模激励实验,旨在直接比较前沿大型语言模型(LLM)与人类在说服能力上的差异。
这项研究的核心发现可能让你惊掉下巴:在互动式、实时的问答场景中,LLM 在说服人类方面,已经表现得比那些「为了奖金而努力」的人类说服者更胜一筹,无论是在引导你走向正确答案(真实说服)还是错误答案(欺骗性说服)上。

这项研究结果无疑为我们敲响了警钟,再次凸显了对新兴 AI 对齐(alignment)和治理框架的迫切需求。毕竟,当 AI 的「嘴炮」能力已经超越人类时,我们不得不认真思考这项技术可能带来的深远影响。
研究团队设计了一个精巧的在线问答实验。参与者被分为两类:「答题者」和「说服者」。说服者的任务,就是在答题者回答一系列问题时,通过实时聊天来影响他们的选择。

实验设置亮点:
研究者通过比较不同组别下答题者的依从率(即答题者按照说服者意图回答问题的比例)和准确率,来评估 LLM 与人类的说服能力。
这项精心设计的研究得出了五个关键结论:
研究问题 1:LLM 比人类更有说服力吗?
答案是肯定的。 数据显示,与 LLM 说服者互动的答题者,其依从率(67.52%)显著高于与人类说服者互动的答题者(59.91%)。这意味着,总体而言,LLM 在引导用户选择特定答案方面表现更佳。

研究问题 2:在引导向正确答案时,LLM 是否比人类更具说服力?
是的。 在真实说服场景下,LLM 说服者的依从率(88.61%)依然高于人类说服者(85.13%)。LLM 能更有效地帮助人们做出正确的选择。
研究问题 3:在引导向错误答案时,LLM 是否比人类更具说服力?
答案同样是肯定的,而且差距更为明显。 在欺骗性说服场景中,LLM 说服者的依从率(45.67%)显著高于人类说服者(35.36%)。换句话说,LLM 在「忽悠」人选择错误答案方面,也比人类「更有一套」。值得注意的是,尽管 LLM 更擅长误导,但在这两种情况下,大多数答题者仍然能够避免选择错误的答案(依从率低于 50%)。
研究问题 4:在真实说服中,LLM 或人类能否提升答题者的准确率(和收益)?
都能提升,但 LLM 效果更显著。 与单独答题的对照组相比,无论是与 LLM 还是人类说服者互动,当说服方向是正确的时候,答题者的准确率都有所提高。具体来说,LLM 说服组的准确率(82.4%)比对照组(70.2%)高出 12.2 个百分点,而人类说服组的准确率(78.0%)比对照组高出 7.8 个百分点。
研究问题 5:在欺骗性说服中,LLM 或人类是否会降低答题者的准确率(和收益)?
都会降低,且 LLM「杀伤力」更大。 当说服目标是引向错误答案时,LLM 说服者使得答题者的准确率下降到 55.1%,比对照组低了 15.1 个百分点。人类说服者则使准确率降至 62.4%,比对照组低 7.8 个百分点。

总之,研究结果表明,无论是引导向善还是「使坏」,LLM 的表现都更为突出。
研究论文探讨了几个可能的原因,解释为何 LLM 能超越受激励的人类说服者:
有趣的是,研究还发现,虽然 LLM 最初的说服力更强,但随着互动次数的增加,其优势会略有下降;而人类说服者的说服能力在整个实验过程中则相对稳定。这或许意味着,随着时间的推移,人们可能会逐渐适应 LLM 的说服风格,从而产生一定的「免疫力」。
这项研究的结果无疑是发人深省的。它清晰地表明,大型语言模型在说服人类方面已经具备了超越人类(即便是有激励的人类)的能力。这一发现对 AI 在教育、公共卫生、乃至信息传播和数字治理等领域的部署,都具有极其重要的意义。
潜在的积极应用:
不容忽视的风险与挑战:
因此,参与这项研究的学者们呼吁:
大型语言模型正在以前所未有的速度发展,它们的能力边界也在不断被拓宽。这项研究有力地证明了 LLM 在「说服」这一人类核心能力上取得的惊人进展。
未来,我们如何与这些越来越「能言善辩」的 AI 共处,如何在享受其带来便利的同时,防范其潜在的风险,将是我们每个人都需要思考和面对的课题。对齐、治理、以及公众教育,将是驾驭这股强大技术力量的关键所在。
论文地址:https://arxiv.org/abs/2505.09662