在这周瑞士洛桑联邦理工学院的讲堂中,著名计算机科学家丹尼尔·胡滕洛赫尔(Daniel Huttenlocher)发表一场引人瞩目的人工智能演讲。胡滕洛赫尔的学术背景令人印象深刻:他在密歇根大学完成本科学业后,赴麻省理工学院(MIT)攻读博士学位,师从一位在计算机视觉和神经科学交叉领域颇负盛名的专家。
如今,胡滕洛赫尔不仅是MIT的教授,还担任着重要的行政职务。自2019年起,他开始领导MIT新成立的苏世民计算机学院(Schwarzman College of Computing),成为该学院的首任院长。除了学术成就,他还与已故的美国前国务卿亨利·基辛格(Henry Kissinger)和前谷歌CEO埃里克·施密特(Eric Schmidt)合著了《人工智能时代:我们人类的未来》(The Age of AI: And Our Human Future)一书。这本自2021年出版的著作在社会各界引起了广泛反响。
胡滕洛赫尔在演讲中特别强调的一点——如果你最近看了关于OpenAI最新发布的技术,Sam Altman(OpenAI CEO)可能会说这些东西像是人类理性,但它不是。这是一种全新的智能,非常强大,提供了一种全新的理解世界的方式,这是一个极其深刻的变化。尤其在当今人工智能迅猛发展的背景下,他的演讲无疑为我们提供了关于人工智能未来发展的深刻启示。
演讲内容谢谢。不过我还是要说两句关于这本书的合作创作。其实如果不是因为新冠疫情,这本书也不会诞生。纽约是一个极其多样化的地方,汇聚了各行各业的人们。我与埃里克·施密特(Eric Schmidt)是在康奈尔科技项目中结识的,后来我们都在不同的场合认识了亨利·基辛格(Henry Kissinger),于是我们开始讨论关于人工智能的广泛问题。如果不是因为疫情,我们的讨论可能不会有什么成果。这大概是2016到2017年左右的事情。后来我于2019年回到MIT,成立了苏世民计算学院,六个月后疫情爆发,我们就被困在家里,于是开始在Zoom上花了大量时间共同写书。三位作者都写了书中的重要部分,有些你以为是我写的内容,实际上是我的合作者写的。
一、人工智能是什么?好吧,今天的演讲不是技术性讲座,其实这是一个两部分的讲座,第一部分与这本书中提到的‘人工智能与我们人类的未来’主题有关。然后,我还想谈谈我们在MIT的工作,因为它与人工智能的广泛研究紧密相关。我们经常使用‘人工智能’这个词,但它到底是什么?你可以这样定义:人工智能是一种技术,用于进行决策、预测、推荐以及生成内容。但是,实际上早已有各种决策和预测的软件,例如数学建模和天气预报等。因此,我认为今天的人工智能更多是指一种不需要人类精确指令就能完成任务的技术。
人工智能的一个有趣现象是,现在我们不再直接教机器如何做任务,而是教它如何学习做任务。我们提升到了一个新的‘元’层次。然而,这一转变产生了具有三种特性的系统:不精确、自适应和自发性,这些特性是我们以前不认为技术会具有的。过去的计算机如此精确,以至于有点滑稽,而现在它们的不精确反而让我们联想到人类。为了更好地说明,我想大致介绍一下机器学习。对于在座的机器学习专家来说,希望你们觉得有趣。大多数模型今天是所谓的深度神经网络,拥有数十亿个参数。通过自适应地调整这些权重参数来提高某种性能指标,这就是学习过程。我们有一些监督学习的形式,我喜欢把它比作人类的课堂学习,老师是监督者。在机器学习中,这意味着数据由人类或专家标注。还有无监督学习,这张图片非常有意,它显示的是无监督学习的混乱结果,类似于没有老师的课堂。最后是自监督学习的‘魔力’,这是过去五到八年间机器学习领域最惊人的进展之一,除了深度学习外,自监督学习技术也极具威力,比如大语言模型、自动编码器等。
训练好这些模型后,接下来是推理过程。我们可以用它们进行分类,我通常会使用计算机视觉的例子,因为这是我的技术背景。你向这些大模型展示一张图片,它就能生成一个标签。还有一个有趣的现象是,与传统的机器学习相比,这些模型还可以反向操作——你给它一个标签,它能生成相应的内容。由此产生了现在席卷全球的生成式人工智能浪潮。
我将人工智能比作一个‘哈哈镜’,你是否曾在游乐场里看到那种扭曲现实的镜子?它给我们一个经过扭曲的世界观。我认为,当人们思考人工智能和机器学习时,总有人觉得它是好的或坏的。实际上,它既不是好也不是坏。事实上,技术本身是一把双刃剑——它既有好的方面,也有坏的方面。因此,我们在使用人工智能时需要格外注意,尤其是它的训练方式。你常常听到人们在讨论人工智能时谈论错误和偏见。所以,的确,这些模型可以产生某些问题,比如错误和偏见,这是事实,也很重要。但是,解决方案不是不去训练或使用这些模型。实际上,如果训练得当并正确使用,这些模型能够做出比人类更好、更公正的决策,而不仅仅是引入错误和偏见。最近几年,有许多研究表明,比如在美国司法系统的预审拘留、医疗决策等领域,适当结构化的机器学习使用可以带来更好的结果。这不仅仅关乎训练,还取决于如何使用它们。
二、与机器合作的正确方式?这也是今天演讲的一个重要主题。当你以协作的方式使用这些技术时,结果与将它们视为专家的情况大不相同。最近有一些很好的研究,包括我的一些MIT同事马尔齐亚·吉米(Marzia GMI)等人,研究了临床环境中的协作决策,结果显示比医生单独决策更好。
关于人类身份问题,这就是为什么我觉得我不是哲学家比较幸运,虽然我在大学学过一些哲学(我不确定这是否让我更危险)。当我们思考如何理解世界时,即便在今天这个前人工智能时代,这一理解方式已经延续了500年左右。我们依赖于人类理性和信仰。然而,人工智能带来了第三种方式,这既不是人类理性,也不是信仰。我特别强调这一点——如果你最近看了关于OpenAI最新发布的技术,Sam Altman(OpenAI CEO)可能会说这些东西像是人类理性,但它不是。这是一种全新的智能,非常强大,提供了一种全新的理解世界的方式,这是一个极其深刻的变化。这引发了关于我们作为人的身份的根本问题。我们一直习惯于认为自己是地球上唯一的智能生物(如果你相信外星智慧的话,那另当别论)。尽管还有其他智能生物,但人类的智能水平与众不同。这让我们感到不安,也让我们很难区分什么是真正的风险,什么只是让我们不安的东西。
其中一个让人感到不安的问题是,人工智能越来越像人类,但它其实不是。首先,正如我刚才所说的,这是一种不同的智能,不是人类的智能。其次,让我们成为人类的不仅仅是理性,还有更多的东西,比如价值观、动机、道德、判断力等等。而这些,人工智能都不具备。它可以模拟这些特性,让它看起来好像具备了这些,但实际上并没有。
我和一个20多岁的亲戚讨论过一个问题:我们可能都生活在一个模拟世界里。但无论如何,我不打算深入探讨这个问题。很容易陷入这种思维陷阱,认为人工智能比它实际表现出来的要复杂。虽然让人工智能与人类价值观对齐是一个值得称赞的目标,但这还不够。实际上,这可能会让我们更倾向于将人工智能视为人类,特别是在与聊天机器人互动时,我们都见过这种情况,过度信任聊天机器人。至于人类的能动性,这也是我们作为人类身份的一个根本属性。人工智能可以启迪和赋能人类,也可以误导和削弱人类。这并不是什么新鲜事,至少在过去150年(可能更久),机械化就已经具备了这种双重性。在装配线上工作是相对削弱人类能动性的,除非你拿到了一份丰厚的薪水,但工作本身是削弱性的;而当你使用个人电动工具时,那就大大提升了你的能动性。
三、人工智能在思考?然而,人工智能的问题更加根本,因为它关乎我们如何思考和理解世界。举个例子,驾驶导航软件:它可以为个人驾驶员提供赋能,也可以削弱司机的能动性,因为后者通常被期望遵循AI规划的路线,而不是做自己的决策。人类可以选择忽略导航建议,但很多时候,AI比你更了解情况,所以你还是会选择跟随它。同样的技术,仅仅是使用方式不同,就会产生完全不同的结果。有一件事让我深受启发,也是我在写书时希望我们能多加思考的。从1960年起,J.C.R. Licklider就写了一篇论文《人机共生》。我有幸在研究生阶段认识他,那时他还在世。不过我可不是1960年的研究生,我还没那么老。但实际上,这件事的核心在于,人类与智能机器协作在一起,应该能比任何一方单独行动取得更好的成果。然而,在过去75年里,我们在机器智能领域所做的几乎一切,都是在优化另一条路径——替代人类。我们一直在复制人类智能,既然已经复制了,为什么不直接替代呢?而不是专注于人类与智能机器如何在协作中做得更好。这是源自图灵的‘模仿游戏’视角,即通过模仿人类来评估智能机器。因此,协作而非替代的重点在一些高影响力的领域中尤为重要,比如我们之前提到的那些领域。
到目前为止,我一直在试图让大家有一个共同的基础,因为在场有人工智能专家,也有非专家。我们讨论了人工智能对个人的意义,现在我想稍微转换一下话题,谈谈人工智能与社会的关系。这是一个常见的情景:你在新闻、网络和各个地方看到的那些关于人工智能的故事,往往趋向于要么是反乌托邦,要么是乌托邦式的预测,这些标题非常吸引眼球。但现实通常既不是这样,也不是那样。过去几年,我有机会与一些撰写好莱坞式人工智能故事的人交流,他们讲述的那些人工智能接管世界的故事。我问他们,为什么我们要把这些故事讲给大家听?他们说,‘哦,我们需要一个好的冲突。人类伤害人工智能的故事不够有趣,所以必须是人工智能伤害人类的故事。’
最近,我和一些MIT的同事花了相当多的时间与那些正在研究如何在大众写作、电影等领域描述人工智能的人进行交流,同时也花了很多时间与那些制定人工智能政策的人打交道。我们都带有一种科幻小说般的看法,趋向于反乌托邦或乌托邦,但现实不会是其中任何一种。每一项新技术最初看起来都像魔法,这就是新技术的魅力所在。人工智能确实与以往技术有些不同,但我们需要对它有更深刻和细腻的理解,因为它涉及到对人类本质的挑战。我们的整个社会都是基于人类彼此互动的,如果人工智能挑战了‘什么是人类’这个根本问题,它对社会的影响尤为重要。因此,我们在考虑人工智能对社会的影响时,必须建立起结合社会和技术方面的理解。这并不容易实现,因为现实世界中的结果往往是由许多小的、独立的或有时是大型的开发、部署和政策决策共同促成的。因此,最重要的是,我们需要有一个共享的理解,以指导有效的激励措施,并让这些激励措施推动个别公司、政府和个人的决策。
四、‘叉子与烤面包机’是什么?在这一过程中,最大的难题之一是,建立共享的理解和共同的规范比技术发展要慢得多,因为你必须改变人们的思维方式,开发框架。我认为大多数人工智能专家都不知道如何以这种方式谈论人工智能。或许有一个类比可以帮助我们思考这个问题:我和一些合作伙伴开始称之为‘叉子与烤面包机’的问题。我敢说在座的各位都知道,将叉子插入烤面包机是不安全的,这是一种在几乎所有文化中都非常普遍的规范。然而,早期的烤面包机并不是这样,它们的设计很容易让人用叉子去触碰带电的部件而导致触电。早期的技术非常原始,很容易被误用。你本不应该触电,但当时几乎没有防护措施。
因此,如果我们要评估责任问题——用户责任?供应商或制造商的责任?我们需要这些规范,并且需要相关的防护措施来帮助执行这些规范。现代烤面包机通常都会将带电部件包裹起来,以避免触电。因此,我们通过建立规范、最佳实践和防护措施,然后从中衍生出公认的法律责任。随着人工智能的快速发展,我们面临的挑战是如何在这个过程中做到这一点。目前有两种极端的观点:一种是试图在完全理解之前就先制定规则,另一种则认为这些规则很愚蠢,因此所有规则都不应该存在。这两种观点都是不合逻辑的。
我们现在所面临的问题就是‘叉子与烤面包机’问题。还有一个有趣的现象,科技行业对软件缺陷的责任问题往往采取一种不负责任的态度。用户需要点击那些冗长的终端用户许可协议(EULA),而几乎没有人会真的阅读它们。但是,当ChatGPT和其他首批生成式人工智能工具开始广泛发布时,发生了一件非常有趣的事。大公司拒绝使用它们,而这些大公司本应是主要的付费客户。他们认为,如果他们的员工必须去核查AI生成的内容,确保它不会侵犯他人的版权,那还不如直接让员工自己动手。因此,所有的大型生成式人工智能供应商现在都为付费客户提供某种形式的版权侵权赔偿。而对于免费用户,这部分责任则由用户自己承担。这是科技行业的一场‘海啸’式的变革,他们开始为某些结果承担财务责任。
所以,也许随着机器学习和人工智能的发展,科技公司将采取不同的态度。我不确定这是否只是一个特例,还是一场变革,但这是一个非常值得注意的现象。‘叉子与烤面包机’的问题就是这样。人工智能系统目前很难被适当监管,每个人都在谈论这些系统的‘黑箱’特性。我们需要改进其可解释性,但我甚至都没法在这里把这个概念放进演讲内容里。我甚至不认为‘可解释性’是正确的词汇。或许应该是‘可理解性’——我们如何真正理解它们在做什么?这可能是本质上的限制。你无法进入我的大脑,弄清楚我为什么会说某些话或做出某些行为。你可以根据我过去的行为或言论来推测,但我们并不期望人类的智能和行为是透明的,事实上它们并不是。
回到演讲的开头,我们谈到机器学习生成的结果看起来更像人类生成的,而不像机器生成的。这或许意味着这些东西与我们已知的技术完全不同,因为我们无法真正解释它们的工作原理。这不是像‘国家运输安全委员会’调查飞机坠毁时那样,可以通过一年的调查说出某个螺栓出了问题。与其说这是调查机械故障,不如说更像是做神经外科手术,或者是使用功能性磁共振成像(fMRI)来试图弄清某人为什么做某件事。因此,这些应用程序的安全性与传统技术的安全性不同,有时甚至连开发者也面临这样的问题。这不仅仅是那些外部人员无法理解开发团队或公司正在做什么的问题。我们在开发这种软件时,实际上是在开发一种学习的方法。我们并不确切知道它学到了什么,我们只能知道我们希望通过这些方法得到的结果,然后通过一些测试来验证它们是否一致。所以,下次当有人告诉你他们想要‘可解释的人工智能’时,我建议你稍微多想一下。
五、从人工智能中学习哪些知识?好吧,现在来说点积极的方面——人们从人工智能中学习。这对我来说是个巨大的‘哇’时刻。实际上,AlphaZero学习如何下棋时就是一个例子。计算机下棋程序已经存在了几十年,它们都能打败人类,但方式机械而枯燥,没有任何一个国际象棋专家对其感兴趣。然而,AlphaZero是通过自我对弈而不是借鉴人类的棋局来学习,它实际上发展出了一些与人类完全不同的策略和战术。这些新方法改变了人类下棋的方式,现在的大师级棋手与AlphaZero出现之前的下棋方式已经大不相同。
想象一下这种强大的学习能力,能够发现一些东西,然后改变人类对这些东西的思考方式。将这种学习能力应用于科学或工程发现的领域,我认为这正是我们目前所处的位置。我还没看到在发现领域有像国际象棋领域那样强大的东西,毕竟游戏比真实系统要简单得多,但也有一些非常惊人的进展,我接下来会谈到。同样重要的是要记住,模拟和从自然界直接学习是机器学习的重要组成部分,它不仅仅是关于人类数据。你看,现在的生成式人工智能热潮,它吸收了所有关于人类和人类生产的内容,但另外两个类别至少同样有趣。因此,我认为在接下来的十年里,我们将会迎来一场真正的革命,它将帮助我们以全新的方式理解我们已经理解的事物。例如,我们已经知道如何下国际象棋,但现在的国际象棋专家对这项运动有了不同的理解。
对于教学领域,我有一个大的保留。我并不认为生成式人工智能将迅速变革教学。教育技术历史上曾有许多所谓的‘革命性’技术,最终都未能真正改变教学。如果它真的能够带来改变,那当然很好,但我更看好它在科学发现领域的潜力。在科学发现方面,许多领域的科学已经发展到了一个阶段,我们所研究和理解的系统规模和复杂性都非常庞大,以至于人类很难完全掌握。这正是‘Licklider’式的‘人机协作’能够带来巨大机会的领域。在材料科学等领域,过去几年我看到了一些非常有趣的工作,特别是在图神经网络(Graph Neural Networks)方面。这种网络比传统的深度神经网络结构更复杂,能够捕捉到分子和材料中对称性的规律,而这些规律是不可违背的。通过这种结构,你可以在不同层次和不同尺度上捕捉分子约束。这正是人类难以应对的问题,因为我们很难同时处理跨度数个数量级的事物。
在化学和化学工程领域,最近有很多有趣的工作。比如,关于化学发现的机器学习研究取得了不少进展,但其中的‘潜规则’是,许多这些分子结构让任何化学家看了都会觉得好笑。虽然这些分子结构看起来具备所设计的特性,但实际上没有人会真正尝试合成它们。最终,如果要使用这些化合物,你必须能够合成它们。而一旦考虑到合成过程,问题的复杂性就会急剧增加,因为你不仅要探索巨大的发现空间,还要同时考虑合成的可能性。这些都是科学家与机器学习算法紧密合作的领域,并不是简单地让算法自行运行。这些项目都是科学家与机器学习算法协同合作的结果。我们还面临着气候和环境方面的巨大挑战,虽然在材料科学或化学科学领域已经看到了明显的成果,但在生物多样性、能源系统以及如何大规模理解地球等领域,现在也有很多有趣的研究在进行。我们在全球范围内部署了大量传感器,但要在这些规模下整合数据,仍然很难得到有意义的结果。
接下来我想深入探讨另一个科学领域,那就是蛋白质折叠。这是一个非常引人注目的例子。2021年,也就是三年前,Science杂志将AlphaFold和同期开发的其他技术(如RosettaFold)用于从氨基酸序列预测任何蛋白质结构的应用,评为年度突破。这一发现对生命科学的变革远超预期。现在,生成式人工智能的影响至少与之同样深远,因为当我们关注功能和调控问题时,这些问题在蛋白质的系统运作中至少与结构同样重要。蛋白质的结构来自诸如冷冻电子显微术和X射线晶体学等技术,这些技术在研究结构时将蛋白质‘冻结’。然而在实际功能和理解中,这些蛋白质并非完全僵硬。这也是元基因组学的一个有趣领域,元基因组学类似于‘蛋白质混合物’,试图理解其中的复杂关系。让我举个小例子来说明这些基因组语言模型与AlphaFold等结构预测算法的区别。AlphaFold这样的结构预测算法非常强大且实用,但它们要求进行多序列比对。虽然不需要知道蛋白质的具体结构,但你必须将氨基酸序列与已知蛋白质进行比对,才能获得预测结果。然而在元基因组学领域,你面对的是一堆氨基酸序列,这些序列的长度各不相同,彼此之间的关系完全不清楚。在这种情况下,基因组语言模型可以在没有比对的前提下恢复序列信息。
好了,回到开头提到的两个部分。第一部分是关于如何以比我几年前作为技术人员时更广泛的方式思考人工智能,这是在与基辛格和施密特合作撰写那本书时开始的。很多这些问题也推动了我们在MIT的工作。我在几十年前获得了MIT的博士学位,已经有35年了,实际上可能更长,毕竟我是在40年前进入MIT的。那么,为什么我要回到MIT呢?通常说‘倒退’不是件好事,但MIT做出了承诺,决定应对计算机领域的迅猛发展和变化速度。事实上,人工智能在2018年就已经与之前几十年的发展大不相同,而到了2024年,变化更是巨大。我们面临着学生和雇主的强烈需求,其中一个关键问题是,这不仅仅关乎编程,还涉及到问题的提出和解决。我成长的年代,没人知道计算机科学家是什么,更没人知道计算机视觉是什么。我总是需要解释这些领域,而如今每个人都觉得他们知道计算机科学家是什么,但他们认为那只是‘程序员’。
六、MIT如何应对人工智能浪潮?我不确定哪种情况更糟——那些倾向于未来的公司知道他们不再只雇佣程序员,大多数计算机科学家也明白这一点。这非常重要,尤其是在社交、伦理和政策方面与技术研究相结合时变得尤为重要。几乎每个学科的研究都在被算法和人工智能所改变,但计算本身的变化速度非常快。比如,我们去年刚刚在MIT的电气工程与计算机科学(EECS)系推出了新的‘人工智能与决策’本科专业,和电子工程与计算机科学专业一起运作。然而,像计算科学与工程、运筹学、统计学这些曾经彼此独立的学科,现在因为机器学习的影响,它们之间的界限已经模糊了。苏世民计算学院(College of Computing)的建立正是为了应对这个新兴的时代。
在任何组织中,如果没有新的资源,想要推动变革几乎是不可能的,在学术界尤为如此。因为每个教职都像是‘所有人都知道它归谁所有’,即使实际上并不完全属于某一个人。每个教职都有多个‘所有者’,比如不同的部门或团队。所以,我们新增了50个教职岗位,虽然占我们1000个教职的比例只有5%,但这已经是一个巨大的增长。新增教职一半是‘核心教职’,主要分布在电气工程与计算机科学系(EECS)和新成立的‘人工智能与决策’专业。另一半则是‘共享职位’,这些职位设在计算领域之外的部门,但涉及计算和相关学科的交叉研究。在我来到MIT的五年里,我们已经招聘了48名新教职,使用了50个新增职位中的33个,剩下的15个职位则是我们在此期间原本计划的招聘。这意味着我们在此期间三分之二的招聘都属于扩展计划。但最让我兴奋的是,这48名新教职中有一半是专注于计算和其他学科交叉研究的。
我们主要关注的领域包括:算法与社会,涉及政治科学、哲学、经济学、管理学院的教职;计算与人类体验,更多与人文学科、艺术和社会科学相关;科学发现,刚才提到的内容;计算与气候,包含科学发现但更加专注于特定领域;健康与生命科学;计算制造与量子计算。这些都是在计算与其他学科交界处工作的研究方向,大约三分之二的研究与人工智能相关,这并不令人意外。
我认为其中非常重要的一部分是,如何让机器更像是我们的合作伙伴与伙伴,如何促进在最棘手的问题上获得新的见解、发现和创新,同时我们也需要让自己更加关注人工智能带来的正面和负面影响。这并不是我们擅长的事情,也许人工智能可以帮助我们做到,同时关注事情的积极和消极两面。我们倾向于走极端,认为人工智能要么很可怕,会毁灭我们,要么非常棒,能拯救世界。但我们必须同时保持对这两者的关注。
非常感谢大家!