根据一项本周发表于Science的新研究证明,与训练有素的人工智能(AI)聊天机器人进行个体对话可以减少人们(即使是那些老顽固)对阴谋论的相信。
这些发现挑战了这种信念(阴谋论)无法改变的观点,指出了一种全新的对抗错误信息的工具。
研究作者写道:“与‘掉入阴谋论兔子洞’的人无法沟通几乎已成为了不言而喻的事实。与这种悲观论点相反,我们经研究证明,与生成式AI模型进行相对简短的对话可以大幅且持久减少人们对阴谋论的相信,即使在那些有着根深蒂固信念的人身上也是如此。”
阴谋论者——相信某个神秘但具备影响力且恶意的组织,应该对某个事件或现象负有责任。以冥顽不化闻名。该群体对民主社会构成严重威胁。
然而,尽管阴谋论难以置信,但全球有很大一部分人已经开始相信它们。据估计,仅在美国就有多达半数人是阴谋论者。
尽管存在明显的反证,这些人仍然坚信阴谋论,其动机通常被解释成,为满足心理需求的社会-心理过程以及维持个性和群体成员身份。目前在现有相信者中揭穿阴谋论的干预措施基本无效。
本研究作者Thomas Costello和同事研究了GPT-4 Turbo等大型语言模型(LLM)是否能够利用其巨大的信息获取能力,以及使用直接针对相信者提出的对具体证据的定制反驳来有效地揭穿阴谋论。
在一系列涵盖2190名相信阴谋论者的实验中,参与者与LLM进行了几次个性化互动,分享了他们的阴谋论信仰以及他们认为的支持这些信仰的证据。
LLM也会类似地通过定制的、事实的和基于证据的反驳直接驳斥这些说法。
一位受雇评估GPT-4 Turbo所作声明准确性的专业核查员报告称,在这些声明中,99.2%被评为“真实”,0.8%被评为“误导”,0被评为“虚假”;并且没有发现任何声明包含自由派或保守派偏见。
Costello等人发现,这些由人工智能驱动的对话能使参与者被误导的信念平均减少20%。这种效应持续了至少2个月,并且在各种不相关的阴谋论以及各个人口统计类别中均被观察到。
据作者表示,这些发现挑战了这样一种观念,即某人一旦采信了阴谋论,证据和论据就无效了。他们还质疑了社会-心理学理论,该理论将心理需求和动机作为阴谋论信念的主要驱动因素。
领域内学者Bence Bago和Jean-François Bonnefon在相关的Perspective文章中写道:“无论好坏,人工智能必定会深刻地改变我们的文化。尽管被广泛批评为错误信息的增力因素,但Costello等人的研究展示了生成式人工智能说服力的一个潜在的正面应用。”
参考:本论文中引用的聊天机器人版本可在此网站浏览https://www.debunkbot.com/conspiracies点分享点收藏