AI幻觉及应对之策

米言看科技 2024-04-20 01:39:52
人工智能幻觉是如何以及为什么发生的? AI 模型(尤其是生成式 AI 模型和 LLM)可以处理的数据和查询的复杂性不断提高,生成智能响应、图像、音频和其他输出,这些输出通常与用户的请求和期望保持一致。然而,人工智能模型并不是万无一失的。由于为市场准备这些模型时需要大量的训练数据、复杂的算法和其他不透明的因素,许多人工智能平台都遇到了“幻觉”并提供错误信息的问题。例如,ChatGPT 试图将“Lojban”——一种假语言——翻译成英语,结果有点搞笑。 目前尚不清楚人工智能幻觉是如何以及为什么发生的,这也是它们成为这样一个问题的部分原因。当幻觉发生时,用户并不总是能够识别幻觉,人工智能开发人员通常无法确定哪些异常、训练问题或其他因素可能导致这种结果。 训练现代神经网络和大型人工智能模型的算法非常复杂,旨在模仿人脑。这使他们能够处理更复杂和多方面的用户请求,但也赋予了他们一定程度的独立性和看似自主性,这使得他们更难理解他们如何做出某些决定。 虽然目前似乎无法消除 AI 幻觉,尤其是在更复杂的 AI 模型中,但这些是导致 AI 幻觉的一些最常见问题:训练数据不完整。有偏差的训练数据。过度拟合和缺乏上下文。模型参数不明确或大小不合适。提示不明确。 人工智能幻觉可能引起的问题:AI 幻觉可能会给您的组织、数据和客户带来许多不同的问题。这些只是基于幻觉输出可能出现的几个问题: 决策和诊断不准确:人工智能实例可能会自信地做出不准确的事实陈述,导致医护人员、保险提供商和其他专业人员做出不准确的决定或诊断,从而对其他人和/或他们的声誉产生负面影响。例如,根据收到的有关患者血糖水平的查询,当患者的血液检查未表明存在这种健康问题时,AI 模型可能会诊断出糖尿病患者。 歧视性、冒犯性、有害或其他古怪的输出:无论是有偏见的训练数据的结果,还是基本原理完全模糊不清,人工智能模型都可能突然开始产生有害的刻板印象、粗鲁甚至威胁性的输出。虽然这些古怪的输出通常很容易被发现,但它们可能会导致一系列问题,包括冒犯最终用户。 用于分析和其他业务决策的不可靠数据:人工智能模型并不总是完美的数字,但一些人工智能模型没有说明何时无法得出正确答案,而是产生了幻觉并产生了不准确的数据结果。如果业务用户不小心,他们可能会在做出重要决策时不知不觉地依赖这些不准确的业务分析数据。 道德和法律问题:人工智能幻觉可能会暴露私人数据或其他敏感信息,从而导致网络安全和法律问题。此外,冒犯性或歧视性言论可能会导致托管此 AI 平台的组织陷入道德困境。 与全球新闻和时事相关的错误信息:当用户使用 AI 平台进行事实核查时,尤其是对于实时新闻和正在进行的时事,具体取决于问题的措辞方式以及 AI 模型训练的最新性和全面性,该模型可能会自信地产生错误信息,用户可能会在没有意识到其不准确的情况下传播这些信息。 用户体验差:如果 AI 模型经常产生令人反感、不完整、不准确或其他令人困惑的内容,用户可能会感到沮丧并选择停止使用该模型和/或切换到竞争对手。这可能会疏远您的核心受众,并限制建立更多用户受众的机会。 AI 幻觉是 AI 模型产生完全意想不到的输出的实例,它可能是消极的和令人反感的,非常不准确的,幽默的,或者只是创造性的和不寻常的。人工智能幻觉本身并不是有害的——事实上,在某些创造性和艺术背景下,它们可能非常有趣——但它们是没有事实或逻辑基础的陈述,不应该被这样对待。人工智能幻觉并不总是一件消极的事情,只要你知道你在处理什么;某些人工智能幻觉,尤其是音频和视觉幻觉,可以为创造性的头脑风暴和项目开发带来有趣的元素。 一些人工智能幻觉很容易被发现,而另一些可能更微妙,不会被发现。如果用户在发生 AI 幻觉时未能识别它并将此输出作为事实,则可能导致一系列问题。请注意:这些技术并不关注用户可能投入到这些模型面向消费者的方面的实际输入。但是,如果您是希望优化 AI 结果并避免幻觉反应的消费者,这里有一些快速提示:提交清晰而有针对性的提示,坚持一个核心主题;如果您的问题有多个部分,您可以随时跟进单独的查询。确保为 AI 提供足够的上下文信息,以提供准确且全面的响应。避免在提示中使用首字母缩略词、俚语和其他令人困惑的语言。通过您自己的研究验证 AI 输出。注意;在许多情况下,人工智能幻觉会用奇怪或古怪的语言或图像来表达自己。现在,让我们仔细看看技术领导者和组织如何在他们开发和管理的 AI 模型中预防、检测和减轻 AI 幻觉: 1) 清理和准备训练数据以获得更好的结果:适当清理和准备训练数据以进行 AI 模型开发和微调是避免 AI 幻觉的最佳步骤之一。全面的数据准备过程可以提高您正在使用的数据的质量,并为您提供时间和测试空间来识别和消除数据集中的问题,包括某些可能导致幻觉的偏见。数据预处理、规范化、异常检测和其他大数据准备工作应从一开始就完成,并在每次更新训练数据或重新训练模型时以某种形式完成。特别是对于再训练,再次进行数据准备可确保模型没有学习或保留任何会反馈到训练数据中并导致未来更深层次问题的行为。 2)设计具有可解释性和可解释性的模型:许多企业正在转向的大型 AI 模型具有强大的功能,但也可能变得信息和训练如此密集,以至于即使是他们的开发人员也难以解释和解释这些模型在做什么。当模型开始产生幻觉或不准确的信息时,可解释性和可解释性的问题变得最为明显。在这种情况下,模型开发人员并不总是确定是什么导致了问题或他们如何解决问题,这可能会导致公司内部和最终用户感到沮丧。为了从一开始就消除一些疑虑和困惑,请计划设计具有可解释性和可解释性的 AI 模型,将专注于这两个优先事项的功能整合到您的蓝图设计中。在构建自己的模型时,记录您的流程,在关键利益相关者之间保持透明度,并选择易于解释和解释的架构格式,无论数据和用户期望如何增长。一种在可解释性、可解释性和整体准确性方面效果很好的架构类型是集成模型;这种类型的 AI/ML 方法从多个模型中提取预测结果,并将它们聚合在一起,以获得更准确、更全面和更透明的输出。 3) 测试模型和训练数据以解决性能问题:在部署 AI 模型之前,甚至在部署之后,团队都应花费大量时间测试 AI 模型以及任何训练数据或算法,以了解实际场景中可能出现的性能问题。全面的测试不仅应涵盖更常见的查询和输入格式,还应涵盖边缘情况和复杂查询。测试您的 AI 如何响应各种可能的输入,可以预测模型在不同用例中的表现。它还使您的团队有机会在最终用户对不准确或幻觉的结果感到沮丧之前改进数据和模型架构。如果您正在使用的 AI 模型可以接受不同格式的数据,请务必使用字母数字和音频或视觉数据输入对其进行测试。此外,请考虑完成对抗性测试,以故意尝试误导模型并确定它是否上钩。其中许多测试都可以通过正确的工具实现自动化。 4) 纳入人性化质量保证管理:多种数据质量、AI 管理和模型监视工具可以帮助组织维护高质量的 AI 模型,以提供最佳输出。然而,这些工具并不总是检测更晦涩或微妙的 AI 幻觉的最佳选择;在这些情况和许多其他情况下,最好包括一个可以协助 AI 质量保证管理的人类团队。使用人机交互审查格式可以帮助发现机器可能遗漏的奇怪之处,还可以为您的 AI 开发人员提供关于如何进行改进的真实建议。处理此类工作的个人应该在人工智能/技术技能和经验、客户服务经验甚至合规经验之间取得健康的平衡。这种混合背景将为他们提供识别问题并为最终用户创造更好结果所需的知识。 5)定期收集用户反馈:特别是一旦 AI 模型已经投入使用,当涉及到 AI 幻觉和其他性能异常时,用户本身就是您最好的信息来源。如果建立了适当的反馈渠道,用户可以将模型输出出错的真实场景通知模型开发人员和 AI 供应商。有了这些特定的知识,开发人员可以识别一次性结果和趋势错误,然后,他们可以利用这些知识来改进模型的训练数据,并在平台的未来迭代中对类似查询的响应。 6) 与道德和透明的供应商合作:无论您是 AI 开发人员还是使用 AI 技术的企业,与其他强调透明且合规的数据收集、模型训练、模型设计和模型部署实践的道德供应商合作都很重要。这将确保您了解您使用的模型是如何训练的,以及采取了哪些保护措施来保护用户数据并防止产生幻觉的结果。理想情况下,您需要与能够清楚地阐明他们为实现道德成果所做的工作并生产平衡准确性和可扩展性的产品的供应商合作。 7) 随时间推移监控和更新模型 AI 模型在不断更新和改进时效果最佳。这些改进应根据用户反馈、团队的研究、更大行业的趋势以及质量管理和监控工具收集的任何性能数据进行。从所有这些角度定期监控 AI 模型性能,并致力于根据这些分析改进模型,可以帮助您避免将来出现以前的幻觉场景和其他性能问题。 最大的人工智能创新者认识到人工智能幻觉会带来真正的问题,并正在采取重大措施来抵消幻觉和错误信息,但人工智能模型偶尔会继续产生幻觉内容。无论您是 AI 开发人员还是企业用户,重要的是要认识到这些幻觉正在发生,但幸运的是,您可以采取一些措施来更好地识别幻觉并纠正随之而来的负面结果。它需要全面的培训和测试、监控和质量管理工具、训练有素的内部团队以及强调持续反馈循环和改进的过程的正确组合。通过实施此策略,您的团队可以更好地解决和减轻 AI 幻觉,以免它们导致组织的网络安全、合规性和声誉问题。
0 阅读:0

米言看科技

简介:感谢大家的关注