当理想遭遇现实:前OpenAI科学家宫斗失败后的反击,安全超级智能

测试不缺高科技 2024-06-22 14:31:02

伊尔亚·苏茨克维(Ilya Sutskever),OpenAI离职的公司联合创始人、曾经的首席科学家,于美国当地时间6月19日,宣布成立“安全超级智能”(Safe Superintelligence)公司,该公司的目标是创造一个安全的超级智能。

核心是:把安全放在第一。换句话说,为了确保安全,不惜自缚手脚、增加成本。

其实,这不是他第一次想要这么干,当初在OpenAI的时候,就打算这么干。但是老大奥特曼和他意见不一致,想要尽可能的推动AI发展,至于安全嘛,只能作为顺带的。

于是,他在董事会发起了对老大的突袭,并且取得了暂时性的成功,顺带把二把手也搞下来了。这场宫斗曾经轰动一时。但结果是,投资者和用户大部分站在奥特曼这边,然后奥特曼回归,他自己却出局了。

这次他独自创业,是一种信仰的延续,也是一种反击。卷土重来的他,目标直指人工智能安全的无人区,试图打造一个既强大又安全的超级智能。这份坚持,无疑展现了他对科技伦理的深刻理解和对人类未来的深切关怀。

然而,理想丰满,现实骨感。人工智能安全,听起来高尚而必要,实则在市场洪流中显得有些“曲高和寡”。普通用户关心的是便利与效率,投资者追求的是回报与增长,而这些往往与高昂的安全研发投入背道而驰。在自由竞争的市场经济下,一个被重重安全枷锁绑定的产品,如何与那些灵活多变、成本更低的竞争者相抗衡?

从技术角度审视,作为前OpenAI的首席科学家,他在技术实现上的能力毋庸置疑。然而,技术创新并非万能钥匙,资金链的持续供给和市场的接受度才是真正的考验。一个旨在保护全人类的超级智能,其研发和维护成本之巨,足以让任何私人企业望而却步。谁来为这份宏大的愿景买单?是政府、慈善家,还是那些对安全有着同样紧迫需求的国际组织?

更深层次的问题在于,单打独斗能否改变整个行业的游戏规则?假设一家公司独自实现了最高级别的安全标准,但若其他竞争对手继续以速度和功能为先,这场安全革命恐怕只会沦为一场孤独的战斗。除非,出现一种集体觉醒,各大AI巨头如OpenAI、谷歌等纷纷响应,共同提升安全门槛,但这又何尝不是对自身利益的一次重大牺牲?

最后,政策的角色不容忽视。在全球范围内,唯有美国政府拥有足够的影响力推动这样的变革,但前提是,是否愿意为了长远的人类福祉,牺牲短期的经济利益,对本国AI产业施加严格的监管和引导?这不仅是对政府智慧的考验,也是对整个社会价值观的拷问。

归根结底,这位前OpenAI科学家的壮志雄心,是一场理想与现实的艰难博弈。在追求科技进步的道路上,我们是否愿意为安全支付额外的成本,又是否能形成共识,共同守护这个智能时代的未来?让我们拭目以待,同时,也让我们在社交媒体上,为这一话题贡献自己的思考,让讨论的火花照亮前行的道路。

了解更多:bugzero.cn

0 阅读:0

测试不缺高科技

简介:感谢大家的关注