研究发现,人们会对被欺负的人工智能机器人产生同情心

物理数字与科技 2024-10-19 15:44:54

在伦敦帝国理工学院的一项研究中,人类对被排除在游戏时间之外的人工智能机器人表现出同情并保护它们。

研究人员表示,这项使用虚拟球赛的研究突显了人类倾向于将人工智能代理视为社会人——在设计人工智能机器人时应该考虑到这种倾向。

该研究发表在《人类行为与新兴技术》杂志上。

论文第一作者、帝国理工学院戴森设计工程学院的周建安(音)表示:“这是对人类如何与人工智能互动的独特见解,对人工智能的设计和我们的心理学具有令人兴奋的意义。”

人们在访问服务时越来越需要与人工智能虚拟代理进行交互,许多人还将其用作社交互动的伴侣。然而,这些发现表明开发人员应避免将代理设计得过于像人类。

资深作者、帝国理工学院戴森设计工程学院的Nejra van Zalk博士表示:“越来越多的研究表明,人类是否将人工智能虚拟代理视为社会生物存在争议。这引发了关于人们如何看待和与这些代理互动的重要问题。我们的研究结果表明,参与者倾向于将人工智能虚拟代理视为社会生物,因为如果他们觉得人工智能被排除在外,他们就会试图让人工智能虚拟代理参与到抛球游戏中。这在人与人之间的互动中很常见,我们的参与者表现出同样的倾向,即使他们知道他们正在向虚拟代理抛球。有趣的是,这种影响在年长的参与者中更为明显。”

同情他人并采取纠正措施来应对不公平行为似乎是大多数人天生就会做的事情。之前未涉及人工智能的研究发现,人们倾向于通过更频繁地向被排斥的对象抛球来补偿他们,而且人们也倾向于讨厌排斥行为的实施者,同时对被排斥者产生偏爱和同情。

为了开展这项研究,研究人员观察了244名人类参与者在看到AI虚拟代理在名为“Cyberball”的游戏中被另一个人类排除在游戏之外时的反应,在这款游戏中,玩家在屏幕上互相传递虚拟球。参与者的年龄在18岁至62岁之间。

在某些游戏中,非参与者人类会向机器人扔很多次球,而在其他游戏中,非参与者人类则公然将机器人排除在外,只向参与者扔球。

研究人员对参与者进行了观察,并随后调查了他们的反应,以测试在球受到不公平对待后,他们是否赞成将球扔给机器人,以及原因。

他们发现,大多数时候,参与者会试图通过向机器人扔球来纠正对机器人的不公平。年龄较大的参与者更容易感受到不公平。

研究人员表示,随着人工智能虚拟代理在协作任务中越来越受欢迎,与人类的互动增加可以提高我们的熟悉度并触发自动处理。这意味着用户可能会本能地将虚拟代理视为真正的团队成员并与他们进行社交互动。

他们表示,这对于工作协作来说可能是一个优势,但当虚拟代理被用作朋友来取代人际关系,或作为身体或心理健康方面的顾问时,这可能会引起担忧。

周建安(音)表示:“通过避免设计过于像人类的代理,开发人员可以帮助人们区分虚拟和现实互动。他们还可以针对特定年龄段定制设计,例如,通过考虑我们不同的人类特征如何影响我们的感知。”

研究人员指出,Cyberball可能无法代表人类在现实生活中的互动方式,因为现实生活中的互动通常通过书面或口头语言与聊天机器人或语音助手进行。这可能与一些参与者的用户期望相冲突,并引起陌生感,从而影响他们在实验过程中的反应。

因此,他们现在正在设计类似的实验,在实验室或更随意的环境中与代理进行面对面的交谈。这样,他们可以测试他们的发现有多广泛。

0 阅读:8

评论列表

时觉空罗智能

时觉空罗智能

2
2024-10-22 02:10

你的同情心只是魔鬼们的甜品饮料[呲牙笑][呲牙笑]

物理数字与科技

物理数字与科技

感谢大家的关注