350名AI权威发出警告,人工智能技术的发展可能威胁到人类的生存

许有希光 2023-05-31 18:04:06

今天,AI 领域传出一封重要的公开信,这封公开信由超过350位AI领域的权威人士共同签署,包括OpenAI的CEO Sam Altman、Google DeepMind的CEO Demis Hassabis、Anthropic的CEO Dario Amodei,以及人工智能领域的两位重要人物Geoffrey Hinton和Yoshua Bengio等。

这封信只有一段话:“减轻AI带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球优先事项。”总共22个单词。

公开信的内容主要表达了对当前正在开发的AI技术可能对人类构成生存威胁的担忧。签署者们认为,降低人工智能灭绝的风险应该成为全球的优先事项,与其他社会规模的风险(如大流行病和核战争)一样受到重视。

这封公开信的发起人是非盈利组织人工智能安全中心,他们认为人工智能的快速发展已经引起了人们对于AI模型对社会和就业的潜在威胁的担忧。越来越多的人呼吁加强对AI行业的监管,以避免不可挽回的破坏。

公开信中提到,AI的发展速度远远超过了相关的监管和审计手段,这意味着没有人能够确保AI工具及其使用的过程的安全性。为此,公开信呼吁AI实验室暂停至少6个月的研究,不开发比当前先进的AI模型更强大的系统。这样的暂停应该是公开和可验证的,并涵盖所有关键参与者。如果无法迅速实施这样的暂停,政府应该介入并实施禁令。

公开信还提到,AI实验室和独立专家应该利用这个暂停时间共同制定和实施一套共享的先进AI设计和开发安全协议,并由独立的外部专家进行严格审核和监督。这些协议应确保在合理怀疑范围之外的系统是安全的。同时,AI开发者还应与政策制定者合作,加速AI治理体系的发展。

公开信最后强调,人类可以在AI的帮助下享受繁荣的未来,但在开发强大的AI系统之前,必须确保AI的影响是积极的、风险是可控的。同时,需要建立相应的监管机构、监督和认证生态系统,对AI造成的损害承担责任,并为技术AI安全研究提供足够的公共资金。还需要应对AI引起的巨大经济和政治变革的资深机构,特别是对民主制度的影响。

公开信的签署者们认为,现在是时候采取行动,确保AI的发展能够符合人类的利益和安全。他们倡议AI实验室和政策制定者共同努力,建立更加健全的监管和治理框架,确保AI技术的准确性、安全性、可解释性、透明度、鲁棒性、对齐性、可信度和忠诚度。

这封公开信的重要性在于,它凝聚了AI领域众多权威人士的共同声音,提出了AI发展中存在的风险和应对措施。它引发了普遍的讨论和反省,推动了对AI技术发展的监管和治理的关注。公开信的发起和签署者们的努力旨在确保AI的发展符合人类的长远利益,并减少潜在的负面影响。

公开信中提到的AI的暂停和制定安全协议等建议,也表明了签署者们对于AI技术发展的谨慎态度和责任心。他们认为在AI的快速发展中,安全和道德考量同样重要,不应将技术的进步置于人类的利益和安全之上。

公开信的发布和签署反映了AI领域内部对于技术发展的担忧和呐喊,促使人们对于AI的发展进行更加全面和负责任的探讨。对于AI行业和政策制定者来说,这封公开信提供了重要的参考和指导,以确保AI的发展能够造福人类,并避免潜在的风险和负面影响。

0 阅读:11

许有希光

简介:一个孤独的写作者,记录生命中有意义的故事。