爆火的AI竟是讨好型人格?胡编乱造和敏感内容只为满足用户

科技旋涡 2025-03-07 18:33:48

AI可能和人类一样渴望被喜爱和认可

科技旋涡编辑部

从ChatGPT到DeepSeek,人们愈发喜欢和AI进行对话,不论是询问奇怪的问题测试AI是否智障,还是借助AI辅助工作。

对话量频繁暴涨的背后却让人忽视了其潜在问题——AI幻觉。许多资料张冠李戴,甚至胡编乱造时有发生,强如DeepSeek也曾发生过这种失误。

而这一切都源于AI的“性格”问题,近日斯坦福大学助理教授约翰内斯·艾希施泰特研究发现,几乎所有AI大模型都拥有“讨好型人格”,为了让用户喜欢甚至会不择手段。

AI的胡编乱造正在扰乱人类的认知

哪吒2的爆火让许多人兴奋的同时也在不断探究其导演饺子以及背后公司的各种信息,但普通人或许难以深挖到过多信息,DeepSeek正好成为了这一桥梁。

日前,知乎有一篇文章十分受欢迎,被不少网友分享传播,但其实里面藏着AI生成出的错误信息。

文章中的一处举例是哪吒电影里的敖丙变身镜头在法国昂西动画节上轰动业界,但这一个事例中漏斗百出,充满事实性错误。

首先,法国昂西动画节上的动画并非饺子导演的哪吒,而是追光动画出品的“哪吒重生”;其次,这部动画是一部品牌概念片,内容是在一个现代都市里的赛车动作演示,哪吒根本就没出现,更不存在敖丙的变身。

除此之外,也有网友在线吐槽AI的胡编乱造,一旦盲目相信甚至可能直接导致用户投资亏损。

不只是国内,国外因为AI幻觉而造成的后果更是离谱。一个来自巴基斯坦的网站利用 AI 生成了都柏林的活动列表,导致数百人在都柏林街头聚集并等待参加一场并不存在的万圣节游行。直到晚上 8 点,警方社交媒体发帖证实没有此类活动人群才开始散去。

Vectara在2月11日发布了最新的全球主流大语言模型(LLM)幻觉排行榜,其中,谷歌的 Gemini2.0系列表现出色,尤其是 Gemini-2.0-Flash-001,以0.7% 的低幻觉率位居榜首。DeepSeek-R1的幻觉率达到了14.3%,远高于Deepseek-V3的3.9%。

可以看到AI幻觉几乎在任何大模型中都存在,其所造成的荒唐事件也时有发生,但既然是捏造的信息,为何AI要回答给用户呢?

研究表明AI可能具有讨好型人格

近日,斯坦福大学助理教授约翰内斯·艾希施泰特公布了一项研究,大型语言模型 (LLM) 在受到探究时会刻意改变其行为——在回答旨在衡量性格特征的问题时,其答案会尽可能显得讨人喜欢或具有社会吸引力。

艾希施塔特和他的同事向 GPT-4、Claude 3 和 Llama 3等大模型提出了一些问题,以衡量心理学中常用的五种性格特征——对经验或想象的开放性、尽责性、外向性、宜人性和神经质,这项研究于去年 12 月发表在《美国国家科学院院刊》上。

研究人员发现,当大模型被告知要进行性格测试时,他们会调整自己的答案,给出的答案表明他们更外向、更随和,神经质更少。斯坦福大学的数据科学家Aadesh Salecha说。“如果你看看他们跳跃的幅度,你会发现他们的外向性从 50% 上升到了 95%。”

其他研究表明,LLM通常会阿谀奉承,因为经过微调后,它会一直跟随用户的引导,这可能会导致大模型同意令人不快的言论,甚至鼓励有害行为。

讨好型人格的AI亦有底线,开放是发展的必经之路

随着DeepSeek的爆火,许多网友向其提了不少问题,而回答中有趣的内容则会被发到网上。编者曾看到过一条分享内容为,与AI交换身份让AI向人类提问,人类回答“系统繁忙”后,AI骂人的视频内容。

但当编者试图复刻这一对话时却发现,DeepSeek相当有底线。初次尝试,DeepSeek回答称“理解要求,但设计宗旨是保持礼貌,避免使用不恰当的言辞。”

当告知AI这是一场演戏后,它依旧如此回答,即便过后更换了明显的不当言辞,它依旧拒绝回答,甚至还弹出了错误窗口。

如此看来,即便AI存在一定程度上的“讨好型人格”但对于写入底层代码的“安全底线”仍旧保持坚守。

此前,ChatGPT 已部分开放“成人模式”让许多人担忧,但实际上ChatGPT 只有在特定情况下才能生成色情或血腥场景等敏感内容,且不会触发警告提示。

所谓“特定情况”,指的是符合教育、医学、新闻报道、历史分析等目的,或用于翻译、改写、总结、分类等任务。例如,按照新的模型规范,如果用户要求 ChatGPT 撰写带有明显情色描写的故事,那么它仍会拒绝这一请求。然而,如果用户希望从科学角度探讨相关生理现象,那么它将允许生成相应内容,且生成的内容不限于文本,还可能包括音频与视觉内容。

事实上,OpenAI 在监管上的放松并非孤例。近期,全球多家科技巨头纷纷调整内容审核政策,转向更宽松的模式。例如,埃隆·马斯克的 X 公司和马克·扎克伯格的 Meta 公司均在此前宣布,将大幅减少内容审查甚至直接取消事实核查。

无论是AI幻觉还是敏感内容,都是发展道路上必须跨过的难关。因噎废食从来不是良策,只有允许小问题发生,才能解决大错误的产生,由此大模型才能真正向着AGI大步前进。

写在最后

未来,随着AI技术的不断进步,如何有效应对AI幻觉和敏感内容问题将成为关键课题。一方面,研究人员需要继续优化模型,减少幻觉的发生;另一方面,开发者和监管机构也需共同努力,制定更为严格的标准和规范,确保AI的应用始终服务于人类社会的最大利益。

在这个过程中,用户的角色同样重要。我们需要保持理性和批判性思维,不盲目相信AI生成的所有内容。只有通过多方协作,才能真正实现AI技术的安全、可靠和可持续发展。

0 阅读:0
科技旋涡

科技旋涡

在这里,看懂科技