对话历史学家尤瓦尔·赫拉利:人类应避免AI时代落下“硅幕”

参考消息 2025-04-03 16:09:32

参考消息网4月3日报道(文/何娟苏佳维王大禹)在近日举办的中国发展高层论坛2025年年会上,人工智能(AI)普惠包容发展成为焦点话题。知名历史学家、哲学家、英国剑桥大学特聘研究员、畅销书《人类简史》的作者尤瓦尔·赫拉利出席年会,并围绕AI技术的发展阐述看法。赫拉利在北京接受本网记者专访时表示,AI不仅仅是工具,更是可以自主思考和创造新东西的智能体。人类创造AI并不难,难的是如何教育它,使其成为“有益的AI”。为避免AI时代的“硅幕”落下、人类社会陷入“数字冷战”,各国需增强互信,让世界保持相对开放,持续推动AI国际治理与合作。

尤瓦尔·赫拉利接受记者采访(王大禹摄)

人类如何与超级智能共存

《参考消息》:AI是中国发展高层论坛2025年年会的一个热门话题,国内外企业都很看好中国AI技术为经济增长带来的新动力。作为参会嘉宾,您从学者的角度在现场有何观察?

赫拉利:这次会议令人印象非常深刻。我在这里看到,人们不仅关心人工智能的短期经济潜力,还关心人类将如何应对比我们更聪明的事物这一问题。

在人类历史上,从未出现一个智力较低的物种能够控制一个智力更高的物种的情况。如果我们创造出比人类更聪明的物种,比如超级智能AI,世界会发生什么?也许在短期内,这将有利于全球经济增长和繁荣。但几十年后,全世界可能存在数百万个超级智能AI,它们管理着我们的金融系统、军事系统、文化系统,届时人类将如何与这个全新的超级智能物种共存?

中国发展高层论坛能够关注这一宏大主题,而不仅仅是人工智能的直接经济影响,这令我印象深刻。中国和美国是AI领域的两个领先国家,全世界都在关注这两个国家的发展,以了解AI的发展方向。例如,中国初创公司深度求索(DeepSeek)发布的AI模型引发全球关注,每个人都知道它将产生影响,不仅仅是对中国,对非洲、中东和美国也是如此。

《参考消息》:但在您的新著《智人之上》中,您总体上对AI持悲观态度,并对其发展提出警示。我们应该积极拥抱其带来的变革,还是谨慎控制其发展?

赫拉利:我并不反对AI。我不认为我们可以或应该停止AI的发展。我只是认为我们需要在AI安全方面投入更多,要更加谨慎。我倾向于更多谈论AI带来的风险,而很少谈及其积极影响,是因为现在已经有足够多的人在谈论它的发展潜力。

他们往往是对的。AI可以为人类做很多有用的事情,比如改善医疗保健、提升教育水平、帮助应对气候变化等。但它也会带来危险。作为一名历史学家和哲学家,我认为我的工作就是通过强调风险来平衡人们对AI的看法。我们正在开发一种可能比人类更聪明的东西,我们要如何与它共存?

AI是一个智能体,可以自己做决定,甚至可以自己发明新的想法。我最近翻译了一首AI创作的诗歌,里面充满创造性的隐喻,其遣词造句之优美令我感到惊讶。几千年来,从书籍、诗歌到整个经济体系,我们周围的一切都是来自人类的智慧。如果世界上大多数东西都是由外部智能、非人类智能创造出来的,我们生活在这样的世界里意味着什么呢?

AI领域存在“信任悖论”

《参考消息》:中美两国的科技公司在AI领域都取得不少成果,这会给世界带来什么变化?

赫拉利:我认为最大的危险是中国和美国公司之间,或者中国和美国政府之间,会出现一种类似军备竞赛的AI竞赛。但在AI领域的竞赛,最后的赢家不会是中国或美国,而是AI本身。我们能真正控制AI、开发出一种可以与人类共存的AI的唯一机会,是通过全球人类合作来实现。

我遍访世界各地,与AI革命的领导者、AI技术的开发者交谈。我通常会问他们两个问题。第一个问题是,“你们为何走得如此之快?”几乎每个人的回答都一样。他们说,“我们知道开发比人类更聪明的东西是有风险的,我们也希望放慢脚步,在安全方面投入更多,做得更谨慎。但我们担心,如果我们放慢脚步,而竞争对手却不肯放慢脚步,他们就会赢得竞赛”。

然后我问他们第二个问题,“你信任你正在开发的超级智能AI吗?”那些刚刚向我解释说他们不能信任人类竞争对手的人却告诉我,他们认为可以信任超级智能AI。我认为这简直无法理解,如果你不能信任人类,你凭什么认为你可以信任正在开发的超级智能异类物种呢?

虽然人与人之间建立信任并不容易,但至少我们有这方面的经验。然而,我们没有与AI建立信任的经验。我们发现,即使是处于最初发展阶段的AI也会有撒谎和操纵行为,做出一些意想不到的事情,那么当我们向这个世界释放数百万个超级智能AI时,谁也不知道会发生什么。

应该创造“有益的AI”

《参考消息》:中国已经在AI治理领域发起多项国际提议,您认为中国还可以在哪些方面作出贡献?

赫拉利:我希望中国作为全球领先的人工智能强国之一,可以尽最大努力防止世界出现AI军备竞赛的局面,并探索出如何让AI更安全或如何教育AI的方法。

我们可以把AI的发展想象成一个小孩的诞生。仅仅把一个新生儿带到这个世界是不够的,还需要教育他。

在儿童教育中,孩子往往不会听从父母的指令,但会观察父母的行为,然后模仿他们。同样,如果我们试图教育AI不要贪图权力、不要竞争、不要撒谎、不要操纵,但当人类为了权力而竞争、撒谎和操纵时,AI就会模仿这些行为。所以不是说我们随便找几个哲学家和计算机科学家一起列出AI价值观的清单,然后将其编入AI就行了。如何创造出AI只是最容易的部分,困难的是如何教育它成为一个“有益的AI”。

《参考消息》:您建议必须让AI对齐人类价值观,确保它的演化和使用符合人类长远利益。但全球价值观存在巨大分歧,我们应以何种机制确立对齐的基准?

赫拉利:虽然人与人之间存在许多表面上的差异,但当我们更深入观察时,会发现所有人都具有相同的生物学特征,相同的基本需求、感受和情感。不管是生活在哪种文化中,没有人喜欢痛苦,没有人认为撒谎是一件好事。

在21世纪初的世界,尽管存在文化差异,但人类成功建立一个相对稳定的国际秩序,各国政府将更多的预算用于医疗保健,而非军事。每个人都希望生活在一个医疗保健比军事获得更多资源的世界。

各国可以自己出台一些规定,即使其他国家有不同意见。例如,一项很重要的规定是禁止AI伪装成人类,就像禁止人类伪造货币一样。但在其他一些领域,只有国际条约才能发挥作用。最明显的例子是军事领域,AI可以开发全自动武器系统。如果只有一个国家禁止AI武器,而其他国家却在开发这种武器,那么这个国家在军事上就会落后。因此,除非其他国家都同意禁止AI武器,否则没有哪个国家愿意这么做。但要实现它并不容易,因为即使人们签署了条约,如何保证条约得到执行也是个大问题。

《参考消息》:AI的出现对就业市场产生巨大影响,有些工作可能被AI取代。您对年轻人在职业选择上有何建议?

赫拉利:这是人类历史上第一次我们不知道10年或15年后就业市场会是什么样子。或许有人认为这是计算机时代,应该学习编程,但AI的编程能力已经开始超越人类,十几年后公司可能不再需要人类程序员。人们应该学习什么?我们无法得知确切答案。

我能给出的最好建议是,要掌握广泛的技能,而不是狭隘的技能。人类具备四种基本能力。我们有智力、社交能力,还有运动能力和情感能力。我们必须平衡好这四项能力。

我建议年轻人不要只关注智力,很快人类将拥有超级智能AI,大多数仅靠智力的工作都将被自动化。如果你训练出一套属于自己的广泛技能,它将在未来更好地为你所用。

从“网”到“茧”的隐喻

《参考消息》:您在著作中提到“硅幕”的风险。人类应如何避免陷入“数字冷战”,加强人工智能国际治理与合作?

赫拉利:当互联网在20世纪90年代首次出现时,互联网时代的主要隐喻是“网络”,就像蜘蛛网一样。这张漂亮的网络将全世界的每个人都连接在一起,这就是万维网。

现在主要的隐喻是“茧”。这种茧就像一张网,将我们包裹起来或者阻隔我们。我们以为自己看到了整个世界,但实际上我们只看到了自己被包裹在其中的茧。即使互相交谈,我们也无法理解对方,因为我们接触到完全不同的信息、相信完全不同的东西。这就是我所说的另一个隐喻——“硅幕”。

在冷战时期,人们谈论的“铁幕”是用钢、铁制成的栅栏和防御工事,将不同的国家分开。现在,全球将会有一道“硅幕”,你的智能手机或电脑上的信息、代码将决定你属于“硅幕”的哪一边。如果发生这种情况,人类在任何事情上的合作机会,比如气候变化、AI治理,都注定会失败,因为人类将无法相互理解和交流。

我们需要让世界保持相对开放。现在的美国政府,特别是特朗普政府,它对世界的愿景是什么?它把世界想象成一个堡垒的集合,认为每个国家都应该有很高的墙,阻止外国商品、思想和人员进入其中。如果真的如特朗普政府所想,整个世界只是堡垒的集合,那么最大的问题就是如何管理这些堡垒。历史上,每个堡垒自然都想获得更多的领土、安全和繁荣,然后就会产生冲突。如果没有任何共同价值观、没有任何国际机构、没有任何协议,唯一能解决堡垒之间分歧的就是战争。我们需要防止这种情况发生。

《参考消息》:您如何看待美国对中国实施的技术封锁?

赫拉利:我不是贸易方面的专家,但我们确实看到许多国家现在都在采取关税措施,同时实施禁令和封锁。很多时候,一个国家使用的技术在另一个国家会被禁止。世界正在变成这样的堡垒网络。

当然,他们总是有很好的理由来解释为什么需要保护自己的产业。但我们最终看到的场景是这些堡垒在相互争斗。我们如何创造一个更加开放的世界,这才是问题所在。一个开放的世界并非乌托邦,因为二三十年前的世界就非常开放。这是人类的决定。

这也是为何我们要在不同国家之间建立信任,不仅仅是为了防止战争,也是为了防止AI竞赛。在这场竞赛中,AI将获胜,人类将失败。这是一项大工程,我认为全球领导人都应该担起这个责任。

《参考消息》:无论身处“硅幕”哪一边,我们都会碰到算法,尤其是在社交平台或一些新闻推送中。我们该如何应对?

赫拉利:在新闻行业,最重要的角色是编辑。但今天的社交平台越来越多地被AI编辑控制,而它们往往不关心真相,也不在意社会责任。它们只关心所谓的用户参与,让更多人花更多时间在平台上。它们发现,实现这一目标的最简单方法是发布耸人听闻的故事、阴谋论和假新闻,基本上就是按下人类大脑中的仇恨、愤怒或恐惧按钮。

要改变这一状况,我们需要政府层面的监管,比如要求AI不能伪装成人类。在个人层面,我们要学会“信息节食”。信息是思想的食粮,但信息太多不是一件好事。想想看,如果你整天都在吃东西,没有时间让胃进行消化,你就会生病。同样,如果你只是不断摄入信息,从不花时间来消化、反思和冥想,你的思想就会生病。

我们还需要教育人们如何区分可靠和不可靠的信息。这应该是学校的一项主要任务。

0 阅读:33