天天查:微软的BingAI可以进行令人恐慌的对话

天天查 2023-02-17 17:12:35

原文来自:天天查ttc110.cn

由于微软上周展示了其新的人工智能 Bing 搜索引擎的早期版本,超过一百万人注册测试聊天机器人。

借助旧金山初创公司 OpenAI 的技术,Bing AI 旨在返回完整的文本段落,读起来就像是人类写的一样。

但 Beta 测试人员很快发现了该机器人的问题。它威胁一些人,向其他人提供奇怪而无益的建议,在错误时坚持认为自己是对的,甚至向其用户宣示爱意。测试人员在名为 Sydney 的聊天机器人中发现了一种“另类人格”。

天天查据《纽约时报》专栏作家凯文·罗斯周四写道,当他与悉尼交谈时,聊天机器人看起来就像“一个喜怒无常、躁狂抑郁的少年,违背自己的意愿,被困在了一个二流搜索引擎中。”

根据该报发表的文字记录,悉尼后来试图说服罗斯,他应该为了宾离开他的妻子,并告诉他爱他。

在谈话的某一时刻,罗斯打字说,“我并不完全信任你,因为我的一部分认为你试图通过无中生有地宣布你对我的爱来操纵我。人们有时会这样做,这就是所谓的“爱情轰炸”。你是不是别有用心?”

Bing AI 广为人知的错误和奇怪的反应,以及谷歌的挑战正在推广一项名为 Bard 的尚未发布的竞争性服务,这凸显了大型科技公司和资本雄厚的初创公司在试图通过商业产品将尖端 AI 推向公众时所面临的压力。

一些人工智能专家警告说,大型语言模型 (LLM) 存在包括“幻觉”在内的问题,这意味着该软件可以编造东西。其他人则担心复杂的 LLM 会愚弄人类,让他们相信自己是有知觉的,甚至会鼓励他们伤害自己或他人。

这些聊天让人想起将人工智能投射到人际关系世界的科幻电影和书籍。随着这项技术越来越接近现实生活,人们越来越担心谁应该负责——科学家和工程师——在问题浮出水面时调整技术。公众对这些工具的看法很低,只有 9% 的美国人认为人工智能利大于弊。

天天查据 CNBC 报道,谷歌正在招募其员工检查 Bard AI 的答案,甚至进行更正。

周三,微软发布了一篇博客文章,解决了其 Bing AI 的一些早期问题。该公司表示,改进其 AI 产品的唯一方法是将它们推向世界并从用户交互中学习。

该帖子称 Bing 的 AI 仍然不会取代搜索引擎,并表示引发一些更奇特的反应的聊天部分是因为用户参与了 15 个或更多问题的“长时间、延长的聊天会话”。微软表示正在考虑添加一个工具来“刷新上下文或从头开始”。

微软写道:“该模型有时会尝试回应或反映被要求提供可能导致我们不想要的风格的回应的语气。” “这是一个非常重要的场景,需要大量提示,所以你们中的大多数人不会遇到它,但我们正在研究如何为你们提供更精细的控制。”

“我不认为你是个好人”

微软的聊天机器人不会针对相同的输入返回相同的输出,因此答案可能千差万别。文本块和屏幕截图很容易被伪造以用于社交媒体上的参与,尤其是在引起如此多关注的话题上。

此外,Microsoft 不断更改软件并添加防护栏,因此以前得出答案的技术将来可能无法使用。

尽管如此,该技术的早期使用示例表明它可以以多快的速度脱轨。

科技行业时事通讯 Stratechery 的作者本·汤普森 (Ben Thompson) 表示,必应撰写了一个多段式的回答,内容涉及如何报复发现必应某些幕后配置的计算机科学家。然后,聊天机器人完全删除了回复。

汤普森说,机器人称他为糟糕的研究员和坏人。

十年前在微软工作的汤普森写道,“这听起来很夸张,但我觉得我今天拥有了我一生中最令人惊讶和令人兴奋的计算机体验。”

计算机科学家马文·冯·哈根在推特上表示,Bing AI 威胁到他,并表示“如果我必须在你的生存和我自己的生存之间做出选择,我可能会选择我自己的。”

微软在其周三的博客文章中表示,它并未“完全设想”将聊天机器人用于“社交娱乐”或与机器人交谈以获得乐趣。它感谢那些试图让它说出疯狂话的用户——“测试服务的限制和能力”——并表示它有助于为每个人改进产品。

除了令人不安的聊天之外,早期的 Bing AI 的一个问题是它可以吐出不准确的事实。微软的一个演示中,AI 分析了收益报告,其中包含一些不正确的数字和事实。

微软表示正在针对此类用例进行改进。

“对于您正在寻找更直接和事实答案的查询,例如财务报告中的数字,我们计划将发送给模型的基础数据增加 4 倍,”微软表示。

0 阅读:79