据报道,OpenAI在“推理”人工智能领域取得重大突破

黑客部落 2024-07-13 13:22:38

根据新的分类标准,Level 2的人工智能能够执行“人类级别的问题解决方案”。

据一位与彭博社交谈的OpenAI发言人透露,OpenAI最近公布了一个五级系统,以此来衡量其在开发通用人工智能(AGI)方面的进展。

该公司在周二的全员大会上与员工分享了这一新的分类体系,目的是提供一个清晰的框架,帮助理解AI的进步。然而,这个系统描述的技术目前还只存在于假设中,尚未实现,或许最合理的解读是,这是一种营销策略,旨在吸引投资资金。

OpenAI之前曾表明,通用人工智能(AGI)——这是一个模糊的术语,指代一种假设的概念,意味着无需专门训练就能像人类一样执行新颖任务的AI系统——目前是公司的首要目标。

追求能够取代人类完成大部分脑力工作的技术,驱动了围绕该公司的持续炒作,尽管这样的技术可能会对社会造成巨大冲击。

OpenAI的首席执行官萨姆·奥特曼(Sam Altman)此前曾表示他相信AGI可能在本世纪内实现,而CEO的公开言论很大程度上涉及公司(以及社会整体)如何应对AGI可能带来的破坏。

基于此,建立一个等级系统来沟通在通往AGI的路上内部达成的AI里程碑,是有道理的。

OpenAI计划与投资者分享的五个级别,范围涵盖了从现有AI能力到能管理整个组织的系统。公司认为其技术(如支持ChatGPT的GPT-4)目前处于第一级,涵盖可以进行对话互动的AI。

不过,据报道,OpenAI的高管告诉员工,他们即将达到第二级,称为“推理者”。彭博社列出OpenAI的五个“人工智能阶段”如下:

第一级:聊天机器人,具有对话语言的AI

第二级:推理者,人类级别的问题解决

第三级:代理人,可以采取行动的系统

第四级:创新者,能辅助发明创造的AI

第五级:组织者,能做组织工作量的AI

据报道,第二级的AI系统将能够具备与拥有博士学位的人类相当的基本问题解决能力,但没有外部工具的辅助。根据熟悉讨论的人士向彭博社透露,在全员会议上,OpenAI领导层展示了使用GPT-4模型的研究项目,研究人员认为其显示了接近人类推理能力的迹象。

OpenAI分类的较高级别描述了越来越强大的假设性AI能力。第三级的“代理人”可以在任务上自主工作数天。第四级系统将产生创新性的发明。顶点,第五级,则设想AI管理整个组织。这套分类系统仍在发展中。

OpenAI计划收集来自员工、投资者和董事会成员的反馈,可能会随时间调整这些级别。Ars Technica询问了OpenAI关于排名系统和彭博社报道的准确性,公司的一位发言人在回应中表示“无话可说”。

量化AI能力的问题

OpenAI并非唯一尝试量化AI能力水平的公司。正如彭博社所指出的,OpenAI的系统感觉类似于汽车制造商制定的自动驾驶水平。而在2023年11月,Google DeepMind的研究人员提出了他们自己的评估AI进步的五级框架,这表明其他AI实验室也在试图找出如何对尚未存在的事物进行分级的方法。

OpenAI的分类系统在某种程度上类似于Anthropic的“AI安全级别”(ASLs),后者由Claude AI助手的制造商在2023年9月首次发布。两个系统都试图对AI能力进行分类,尽管它们关注的侧重点不同。

Anthropic的ASLs更加明确地聚焦于安全性和灾难性风险(例如ASL-2指的是“显示出危险能力早期迹象的系统”),而OpenAI的级别则追踪一般性能力。

然而,任何AI分类系统都会引发疑问,即是否有可能有意义地量化AI的进步,以及什么构成了进步(或者在Anthropic的例子中,什么构成“危险”的AI系统)。迄今为止,科技行业有过夸大AI能力的历史,而像OpenAI这样的线性进展模型可能加剧不切实际的期望。

目前,在AI研究界并没有共识关于如何衡量向AGI发展的进度,甚至AGI是否是一个明确定义或可达成的目标都存在争议。因此,OpenAI的五级系统很可能应该被视为一种沟通工具,用以吸引投资者,展现公司的雄心壮志,而不是科学的或技术意义上的进度测量指标。

这种分类方式反映了OpenAI对于未来AI能力的一种愿景,以及如何逐步实现这一愿景的设想。然而,它也暗示了在追求AGI的过程中,存在着定义上的模糊性和目标的不确定性。由于AI领域的快速发展和不断变化的特性,任何试图将进步固定在特定框架内的尝试都可能遇到挑战。

因此,虽然OpenAI的五级系统可能有助于投资者和公众理解公司的长远规划,但它不应被视为衡量AI实际进展的硬性标准。

在AI研究和开发的领域,真正的进步往往体现在技术的实际应用、对社会的贡献以及对伦理和安全考量的深度理解上,而这些往往难以用简单的等级系统来完全概括。

1 阅读:26

黑客部落

简介:计算机安全技术分享,网络安全攻防技术分享