AI制造错误信息?科技巨头正在努力阻止聊天机器人“幻觉

米言看科技 2024-04-23 00:08:12
业内专家在福克斯新闻数字的评论中警告说,科技巨头在对抗人工智能平台产生的“幻觉”方面准备不足,但企业本身表示,他们正在采取措施确保平台内的准确性。 人工智能聊天机器人,如ChatGPT和谷歌的Bard,有时会喷出不准确的错误信息或无意义的文本,称为“幻觉”。“简短的回答是否定的,公司和机构还没有为即将到来的变化或未来的挑战做好准备,”人工智能专家Stephen Wu说,他是美国律师协会人工智能和机器人国家研究所的主席,也是硅谷法律集团的股东。错误信息机器? 专家说,常识是防范人工智能聊天机器人“幻觉”的最佳方法 通常,幻觉是技术所犯的诚实错误,尽管有承诺,但仍然存在缺陷。一位专家说,公司应该向消费者坦诚了解这些缺陷。“我认为这些公司可以做什么,从一开始就应该做什么......是向人们明确这是一个问题,“加利福尼亚州圣克拉拉大学马克库拉应用伦理中心互联网伦理项目主任伊琳娜·莱库告诉福克斯新闻数字。消费者需要警惕来自人工智能聊天机器人的错误信息,就像他们对任何其他信息来源一样。 “这不应该是用户必须自己弄清楚的事情。他们应该做更多的工作来教育公众了解这一点的影响。大型语言模型,例如ChatGPT背后的语言模型,需要数十亿美元和数年的时间来训练,亚马逊首席执行官Andy Jassy上周告诉CNBC。在建立亚马逊自己的基础模型Titan时,该公司“非常关注”准确性和产生高质量的响应,AWS副总裁Bratin Saha在接受CNBC采访时表示。 平台对看似简单的事实问题给出了错误的答案。 与此同时,其他主要的生成人工智能平台,如OpenAI的ChatGPT和Google Bard,被发现对看似简单的事实问题提出了错误的答案。在谷歌巴德(Google Bard)发表的一个例子中,该程序错误地声称詹姆斯韦伯太空望远镜“拍摄了太阳系外行星的第一张照片”。然而它没有。谷歌已经采取措施确保其平台的准确性,例如在将查询插入巴德聊天机器人后,为用户添加一种简单的“谷歌搜索”的方法。 尽管科技巨头采取了措施阻止错误信息,但专家们担心完全防止错误信息的能力。 微软的Bing Chat基于与ChatGPT相同的大型语言模型,还链接到用户可以在其中找到有关其查询的更多信息的来源,并允许用户“喜欢”或“不喜欢”机器人给出的答案。“我们已经开发了一个安全系统,包括内容过滤,操作监控和滥用检测,为我们的用户提供安全的搜索体验,”微软发言人告诉福克斯新闻数字。“企业和机构还没有为即将到来的变化或未来的挑战做好准备。” “我们还在聊天体验中采取了额外的措施,为系统提供来自顶部搜索结果的文本和说明,以将其响应置于搜索结果中。用户还会收到明确的通知,告知他们正在与人工智能系统进行交互,并建议查看材料链接以了解更多信息。在另一个例子中,ChatGPT报道说,已故参议员老戈尔是“民权立法的直言不讳的支持者”。实际上,参议员口头上反对并投票反对1964年的民权法案。 错误信息机器?人工智能聊天机器人的“幻觉”可能构成政治、智力和制度危险 尽管科技巨头采取了措施阻止错误信息,但专家们担心完全防止错误信息的能力。“我不知道它是否[可能被修复]”总部位于犹他州的Liberty Blockchain首席通讯官Christopher Alexander告诉Fox News Digital。“归根结底,无论是否是机器,它都是由人类建造的,它将包含人类的弱点......它不是万无一失的,它不是万能的,它不是完美的。科技通讯“了解人工智能”的创始人克里斯·温菲尔德(Chris Winfield)告诉福克斯新闻数字,“公司正在投资研究以改进人工智能模型,完善训练数据并创建用户反馈循环。“这并不完美,但这确实有助于提高人工智能的性能并减少幻觉。亚历山大警告说,这些幻觉可能会在未来给科技公司带来法律麻烦。“真正认真看待这个问题的唯一方法是,他们将被起诉这么多钱,以至于足以伤害到关心,”他说。“他们真正认真看待这个问题的唯一方法是,他们将被起诉,因为有这么多钱,以至于足以在乎。”科技公司在聊天机器人幻觉方面的道德责任是一个“道德灰色地带”,匹兹堡卡内基梅隆大学教授阿里·莱特曼(Ari Lightman)告诉福克斯新闻数字。尽管如此,Lightman表示,在聊天机器人的来源及其输出之间创建线索对于确保透明度和准确性非常重要。吴说,如果不是因为COVID-19恐慌造成的巨大破坏,世界对新兴人工智能技术的准备会更加先进。“人工智能响应是在2019年组织的。似乎有太多的兴奋和炒作,“他说。 手机屏幕上 ChatGPT 人工智能聊天机器人应用程序徽标图标的特写 - 被 Twitter、Chrome、Zoom、Telegram、Teams、Edge 和 Meet 的应用程序图标包围。 “然后 COVID 下来了,人们没有注意。组织觉得他们有更大的鱼要炸,所以他们按下了人工智能的暂停按钮。他补充说,“我认为这也许部分是人性。我们是进化的生物。几千年来,我们已经进化到了这一点。他还说,“现在的变化来得如此之快,似乎每周都会发生——人们只是被即将发生的事情弄得措手不及。 fox新闻 https://www.foxnews.com/lifestyle/misinformation-machines-tech-titans-grappling-stop-chatbot-hallucinations
0 阅读:0

米言看科技

简介:感谢大家的关注