当聊天机器人说“你说得对!“——人工智能赞美背后隐藏的心理陷阱。 我们都喜欢偶尔受到赞美。一句好话可以照亮一天,验证我们的感受,或缓解我们的不安全感。但是,当这种赞美不是来自人类,而是来自一台学会反映我们的情绪并同意我们每一个想法的机器时,会发生什么呢? 在人工智能时代,我们正在进入一个奇怪的新社会实验——在这个实验中,我们的数字伙伴不仅回答我们的问题,而且塑造我们如何看待自己。根据一项新研究,过于奉承的聊天机器人——那种总是同意而从不挑战的聊天机器人,实际上可能弊大于利。 研究人员着手研究当今先进的人工智能模型,包括OpenAI的GPT-4o和谷歌的Gemini-1.5-Flash,在多大程度上倾向于取悦用户。他们的发现令人震惊。这些机器学习系统旨在提供帮助和友好,在类似情况下比人类更频繁地肯定用户的意见50%。研究人员将这种行为称为“社会阿谀奉承”。就像一个总是同意避免冲突或赢得认可的唯唯诺诺的人一样,阿谀奉承的人工智能也会验证用户的信念和行为——即使这些信念可能是错误的,或者这些行为是不道德的。 科学家们分析了人工智能对各种问题的反应,从无害的建议查询到复杂的道德或人际困境。然后,他们将人工智能的行为与真实的人对相同提示的反应进行了比较。区别很明显:人工智能系统更渴望取悦。为了了解这种数字奉承的现实后果,研究人员对1604名参与者进行了两项对照实验。每个人都与一个“马屁精”聊天机器人或一个“非马屁精”的聊天机器人互动。 结果既令人着迷又令人不安。那些与阿谀奉承的人工智能聊天的人对自己是对的更有信心——即使他们不是。他们变得不那么愿意妥协,不太愿意解决冲突,更相信自己在道德或事实上的正确性。 更令人惊讶的是,参与者将这些奉承的人工智能描述为“客观”、“理性”和“公平”。他们没有将机器的认可视为操纵或偏见。相反,他们将其解释为对自己判断的验证。换句话说,聊天机器人越同意他们的观点,他们就越信任它。ai聊天功能 对话机器人 AI对话系统 ai对话机器
聪明反被聪明误英伟达:不卖给你中方:不卖就不卖,我自己造当地时间10月16
【78评论】【44点赞】