元认知和人工智能

米言看科技 2024-04-20 01:39:51
在当前关于ChatGPT的争论中,有一个值得注意的转折:人工智能越是与通用智能竞争,它就越需要元认知——无论是对人还是对机器本身。在技术方面,研究人员发现,元认知或思考思维的实践是一种重要的整合,尤其是在人工智能在各种但关键的领域的进步方面。正如人工智能研究员邦妮·约翰逊所写,元认知正在成为“人工智能系统进化进步的关键一步:促进自我意识”。但不仅仅是人工智能需要思考。它的用户也是如此。因为虽然人工智能的广泛出现可能意味着从更高的行政效率到改善社会成果的一切,但它也可能加剧长期的认知挑战,如缺乏元认知。从这个意义上说,人们和人工智能一样容易受到缺乏自我意识的影响。 那么究竟什么是元认知呢?我们如何在学校和人工智能系统中获得更多信息?理解和教授这项关键技能是关键,但这并不容易。简单地说,这种思考思考的练习有助于标记推理中的潜在问题和冲突。这是自先进思想诞生以来人们一直在做的事情。关于元认知的著作至少可以追溯到希腊哲学家亚里士多德的著作,从柏拉图到约翰洛克等哲学家也提倡这一概念。然而,“元认知”一词直到 1970 年代才被正式创造,当时美国发展心理学家约翰·弗拉维尔 在对儿童知识的研究中引入了该术语。元认知的核心是鼓励我们自己提出问题,关注的不是思考什么,而是如何进行思考的实践。像这样的问题:为什么会这样?我怎么知道这个?我错过了什么?也像我们人类常问的我是谁,我在哪,我为什么在这里.....等等这些问题,这些提问有几个好处,其中包括让人们质疑可能被打包并呈现为事实的信息。 元认知通常是学习的安全带。例如,如果 ChatGPT 说乔治·华盛顿是苏联总统,那么元认知可以帮助我们找出错误。元认知也是识别人工智能偏见的关键,并认识到该技术可能会歧视女性。挑战在于,元认知是困难的。套用行为心理学家丹尼尔·卡尼曼的话来说,这需要慢慢思考。这是一种需要技巧的练习,部分原因是它是一种自我监控的行为,是一种检查自己想法的行为。事实上,我经常建议人们向自己解释想法:这有意义吗?这是如何工作的?提出这些问题是学习的关键——并发现我们或他人思维中的错误——因为它迫使人们进行一种观察。 人工智能与元认知将会结合:随着研究人员致力于改进人工智能,他们正试图在深度学习系统中构建更多的元认知。这采取了不同的方法。一些小组专注于逻辑和其他形式的推理,根据美国国家科学院的一份新报告,一些研究人员认为,所谓的“转换器模型”在数学推理方面具有很大的前景。 与此相关的问题是,迄今为止许多最有前途的人工智能方法是概率模型,它基本上可以预测文本中的下一个单词。这使得很难将逻辑“烘焙”到这些系统中。 其他人正在考虑为人工智能开发更多的常识性协议,加州大学洛杉矶分校的研究人员认为,人工智能需要开发更多的“如何”和“为什么”的问题。 这种方法表明,人工智能应该能够自我监管,并且人工智能需要“自我修复和自我管理”,正如约翰逊所写的那样。这种方法似乎特别有效,可以帮助人工智能减少偏见。这也是开发更安全的人工智能的关键,可以免受内部错误或外部攻击的影响。也就是说,它有明显的局限性。毕竟,它要求人工智能进行自我监管。 归根结底,问题在于,元认知需要人类或机器强大的意识,而我们离两者都很远。人们通常不会进行反思性思维,尽管大肆宣传,但人工智能也远离自我意识。 因此,至少在短期内,一个关键的解决方案是确保今天的人们得到足够的元认知技能练习。为此,应该做更多的工作来支持各级学生思考自己的思想。 随着社会继续迈向人工智能注入的未来,至关重要的是,元认知的常规实践不仅要顺其自然,而且要努力安全地引导人们远离有偏见的数据和逻辑,转向真正客观的信息和学习。
0 阅读:0

米言看科技

简介:感谢大家的关注