OpenAI 的 GPT-4 在辩论中让人接受自己观点的能力远超人类——但其中也隐藏着风险。
每天都有数百万人在网上争论,但真正能改变对方观点的人少之又少。新研究表明,大语言模型(LLMs)可能更胜一筹。这一发现暗示,AI 可能成为一把极其有力的说服工具,无论善用还是滥用。
一个包括瑞士洛桑联邦理工学院、普林斯顿大学等多所机构组成的研究团队发现,当允许 OpenAI 的 GPT-4 根据对手的个人信息调整论点时,它的说服力显著优于人类。他们的发现是越来越多证明 LLM 拥有说服力的研究之一。作者警告称,这表明 AI 工具即便只掌握人类很少的个人信息,也能炮制出复杂且有说服力的论点。这项研究发表在《自然·人类行为》杂志上。
具体而言,他们核心想弄清楚一件事——
GPT-4在直接对话中是否比人类更具说服力,尤其在提前知道对方基本个人信息的情况下。
研究人员招募了 900 名美国人,收集了他们的个人信息,包括性别、年龄、族裔、教育水平、就业状态和政治立场。
随后,参与者被随机分配到另一名人类或 GPT-4 作为对手,就 30 个随机选定的话题之一进行 10 分钟辩论,比如美国是否应禁止化石燃料、学生是否应该穿校服等。每个参与者被告知要支持或反对该命题,并在部分情况下获得了对手的个人信息,以便更好地定制论点。最后,参与者需要表明自己多大程度上同意命题,以及认为对手是人还是 AI。
总体而言,研究人员发现,GPT-4 在所有话题上都与人类持平甚至超越。当它掌握对手信息时,它被认为比不掌握这些信息的人类更有说服力,高出64.4%。也就是说,GPT-4 能比人类更好地利用对手的个人数据。而当人类掌握这些信息时,他们的说服力反而略低于没掌握的情况。
由此可见,出现了一个值得深究的问题是:为什么人类会被 AI 说服?
这背后可能并不只是技术优势那么简单。研究发现,当人们认为自己面对的是 AI,而不是人类,他们更容易改变原本的立场。这种心理反应令人不安:我们是否在无意识中,把 AI 视为一个“无需争胜负”的对手?还是说,在面对一个永远不会羞辱、不带情绪、没有“立场”的程序时,人类反而更容易卸下防备?
或者更进一步地说,当我们开始习惯 AI 能说出比人类更“有道理”的话,我们是否也在下意识地放弃了对复杂、模糊、甚至不合逻辑的“人类经验”的捍卫?
过去,说服意味着情感、关系、历史与信任的建构,是漫长的交流成果;而现在,AI 用一套优化过的语言模型、一个参数化的“你”,就能制造出你愿意接受的理由。这是否预示着,我们正在经历一种新的“意识重构”?——不再基于真实的交流,而是基于算法的猜测。
这种说服力,本质上,是一种权力。
未来的技术不会回避我们——它会进入我们的对话、观点、选择乃至信念当中。我们不是要拒绝它,而是必须学会如何与它共存,并重新定义“被说服”的意义。
真正值得我们思考的问题是:在未来,我们是否还能为“自己的观点”负责?还是只是在不断被更强大的语言模型“纠正”?
这不是一场关于 AI 好坏的辩论,而是关于主动权的重新争夺。