揭示大型语言模型中思维链提示的力量

智能真的很好说 2024-03-16 13:16:44

本文深入探讨了思维链 (CoT) 提示的概念,这是一种增强大型语言模型 (LLM) 推理能力的技术。它讨论了 CoT 提示背后的原理、其应用及其对 LLM 性能的影响。

图片由作者使用 Midjourney 创建

引入思维链提示

大型语言模型 (LLM) 彻底改变了人工智能领域,在自然语言理解和生成方面提供了前所未有的能力。然而,他们执行复杂推理任务的能力一直是深入研究的主题。在这方面显示出前景的一种技术是思维链 (CoT) 提示。本文探讨了 CoT 提示的复杂性及其对 LLM 未来的影响。

正如最近的一篇论文中介绍的那样,CoT 提示是一种鼓励 LLM 解释其推理过程的方法。这是通过为模型提供几个示例来实现的,其中明确概述了推理过程。然后,LLM 在回答提示时应遵循类似的推理过程。已发现这种技术可以显着提高模型在需要复杂推理的任务上的性能。

CoT 提示的主要优势之一是它能够提高 LLM 在需要算术、常识和符号推理的任务上的性能。该技术已被证明可以提高性能,特别是对于大约 1000 亿个参数的模型。然而,已经发现较小的模型会产生不合逻辑的思维链,导致准确性低于标准提示。

了解思维链提示

CoT 提示的核心是引导 LLM 一步一步地思考。这是通过为模型提供概述推理过程的几个示例来实现的。然后,模型在回答提示时应遵循类似的思维链。这种方法对于需要一系列推理步骤才能生成响应的复杂任务特别有效。

下面是一个示例 CoT 提示(摘自这篇关于机器学习精通的文章),使用少量策略:

问:乔有 20 个鸡蛋。他又买了 2 盒鸡蛋。每个纸箱包含 12 个鸡蛋。乔现在有多少个鸡蛋?答:Joe 从 20 个鸡蛋开始。2 箱 12 个鸡蛋是 24 个鸡蛋。20 + 24 = 44。因此,乔有 44 个鸡蛋,答案是 44。

问:农夫约翰有93只鸡。如果他把 20 只卖给了 Farmer Bill,又买了两倍的鸡,那么 Farmer John 现在有多少只鸡?

ChatGPT的回应:

答:农夫约翰把 20 只鸡卖给了农夫比尔,所以他只剩下 93 – 20 = 73 只鸡。然后他买了两倍于他卖的鸡,所以他买了 2 * 20 = 40 只鸡。把这些新买的鸡加到他剩下的棍子上,农民约翰现在有 73 + 40 = 113 只鸡。

CoT 提示也可用于零样本设置。这涉及在原始提示中添加一个短语,例如“让我们一步一步地思考”,该短语也可以与小样本提示一起使用。已发现这种简单的添加可以有效地提高模型在提示中没有太多示例可以使用的任务上的性能。

自动化思维链提示

虽然 CoT 提示可能很有效,但它通常涉及手工制作示例,这可能很耗时,并可能导致次优解决方案。为了解决这个问题,研究人员提出了一种称为自动思维链(Auto-CoT)的方法。这种方法利用 LLM 自动生成用于演示的推理链,从而消除了手动工作的需要。

Auto-CoT 包括两个主要阶段:问题聚类和演示抽样。在问题聚类阶段,给定数据集中的问题被划分为几个聚类。在演示抽样阶段,从每个集群中选择一个具有代表性的问题,并使用带有简单启发式的 Zero-Shot-CoT 生成其推理链。此过程鼓励模型使用简单而准确的演示。

Auto-CoT 流程:

问题聚类:将给定数据集的问题划分为几个聚类演示抽样:从每个集群中选择一个具有代表性的问题,并使用带有简单启发式的 Zero-Shot-CoT 生成其推理链局限性和未来方向

虽然 CoT 提示已显示出前景,但它并非没有局限性。首先,它只有在与大约 1000 亿个参数的模型一起使用时才能提高性能。较小的模型往往会产生不合逻辑的思维链,导致准确性低于标准提示。此外,CoT 提示的性能提升通常与模型的大小成正比。

尽管存在这些局限性,但CoT提示代表了在寻求增强LLM推理能力方面迈出的重要一步。 未来的研究可能会集中在改进这种技术,并探索使其在更广泛的任务和模型大小中更有效的方法。

结论

思维链提示代表了人工智能领域的重大进步,特别是在增强大型语言模型的推理能力方面。通过鼓励这些模型解释其推理过程,CoT 提示在提高需要算术、常识和符号推理的复杂任务的性能方面显示出了希望。虽然该技术有其局限性,但它为 LLM 的未来开辟了令人兴奋的可能性。

随着我们继续推动 LLM 可以实现的界限,像 CoT 提示这样的技术将发挥至关重要的作用。通过使这些模型能够一步一步地思考并解释它们的推理,我们不仅可以提高它们在复杂任务中的表现,还可以获得对其内部运作的宝贵见解。完全推理 LLM 的旅程仍然很长,但有了像 CoT 提示这样的技术,我们肯定走在正确的道路上。

Matthew Mayo(@mattmayo13 岁)是一名数据科学家,也是开创性的在线数据科学和机器学习资源 KDnuggets 的主编。他的兴趣在于自然语言处理、算法设计和优化、无监督学习、神经网络和机器学习的自动化方法。Matthew拥有计算机科学硕士学位和数据挖掘研究生文凭。可以通过 kdnuggets[dot]com 的 editor1 与他联系。

原文标题:Unraveling the Power of Chain-of-Thought Prompting in Large Language Models

原文链接:https://www.kdnuggets.com/2023/07/power-chain-thought-prompting-large-language-models.html

原文作者:Matthew Mayo

编译:LCR

0 阅读:0

智能真的很好说

简介:感谢大家的关注