《纽约时报》在2024年7月4日报道,OpenAI在2023年初遭受了一次未公开的安全事件。据《纽约时报》报道,攻击者并未侵入存放和构建人工智能系统的服务器,但窃取了员工论坛上的讨论内容。OpenAI并未公开披露这一事件,也没有通知FBI,理由是没有客户或合作伙伴的信息被盗,且该事件被认为对国家安全不构成威胁。该公司认为这次攻击是由一个与任何外国政府没有已知关联的个人所为。
然而,这一事件引发了OpenAI内部员工对安全问题处理程度的讨论。据《纽约时报》报道,OpenAI技术项目经理Leopold Aschenbrenner专注于确保未来人工智能技术不会造成严重伤害。
今年早些时候,Aschenbrenner被解雇,官方给出的理由是他泄露了信息。然而,Aschenbrenner在与Dwarkesh Patel的播客(2024年6月4日)中给出了不同的说法:“OpenAI向员工声称我因泄露信息而被解雇。我和其他人要求他们说明泄露了什么信息。他们的全部回应是:去年的某个时候,我撰写了一份关于准备、安全和未来通往AGI道路上所需安全措施的头脑风暴文档。我将这份文档分享给了三位外部研究人员,征求反馈意见。这就是所谓的‘泄露’...在我分享之前,我检查了文档中是否有敏感信息。内部版本提到了一个未来的集群,我在外部版本中删除了这部分内容。”
显然,OpenAI内部存在着很多关于公司运营方式、应当如何运营以及发展方向的不同观点。人们的主要担忧并非针对OpenGPT(生成式人工智能),而是针对AGI(通用人工智能)的未来。前者主要转化其从互联网上学习到的知识,而后者具备原创推理能力。生成式人工智能不被视为对国家安全的威胁,尽管它可能加剧现有网络攻击的规模和复杂度。
然而,AGI则是另一回事。它将能够在网络空间、动能战场和情报领域开发出新的威胁。OpenAI、DeepMind、Anthropic等领先的人工智能公司和技术都在竞相成为第一个推向市场的AGI。对于2023年OpenAI遭受的安全事件的担忧在于,它可能显示出公司在安全准备方面的不足,这在未来可能会真正危及国家安全。
Aschenbrenner表示:“很多戏剧性事件来源于OpenAI真的相信他们正在构建AGI。这不仅仅是营销宣传。”他补充道:“让人们感到困扰的是,一方面相信AGI,另一方面却没有认真对待一些其他含义。这项技术将非常强大,既有利也有弊。这涉及到国家安全问题。
随着我们越来越接近开发AGI,网络威胁将从犯罪分子转向精英级国家攻击者,而我们一次又一次地看到,我们的安全措施不足以抵御他们。基于OpenAI相对不严重的安全事件(我们假设情况并没有比公司告知员工的更糟),Aschenbrenner提出了关于安全的普遍而真实的担忧,而为此,他似乎被解雇了。
这一事件凸显了OpenAI内部对于安全问题的不同看法和担忧。Aschenbrenner的担忧反映了对于AGI技术潜在影响的深刻认识,以及对于保护机密信息和国家安全责任的重视。然而,他的离职引发了对于公司文化和内部沟通的质疑,以及是否足够重视安全问题和员工的合理关切。
随着AGI的发展,确保安全和保护机密信息变得更加紧迫。Aschenbrenner的观点强调了在追求技术创新的同时,必须充分考虑安全风险和潜在后果。这不仅仅是一个技术问题,还涉及到政策制定、伦理考量和国际合作等多个层面。
对于OpenAI和其他从事AGI研发的公司而言,加强内部安全措施、建立透明的沟通渠道以及培养安全意识文化至关重要。这包括定期进行安全培训、实施严格的数据保护政策、加强与政府和监管机构的合作,以及积极参与国际安全标准和规范的制定。
此外,社会各界也应关注AGI技术的发展和潜在风险,倡导建立多边框架和国际共识,以确保技术进步服务于人类福祉,而不是成为安全威胁的源头。通过共同努力,我们可以促进科技创新与安全治理的平衡发展,为未来的AGI时代奠定坚实的基础。
然而,Aschenbrenner的离职事件提醒我们,即使在领先的科技公司内部,安全问题和不同意见的表达仍然面临着挑战。为了构建一个更加安全和负责任的科技生态系统,我们需要持续推动开放对话、包容性文化和透明度,以确保技术进步的同时,保护个人隐私、数据安全和国家安全。