我从每天阅读的文章中,选择一些有深度,有价值的内容分享给大家。我非常希望,和大家一起从更高、更广的角度来看待一些热点问题。
这篇文章代表西方,尤其是美国精英阶层对于AI未来发展的主流观点。这种观点可能并不公正,而且可以说是充满意识形态和偏见,但是它同时也是真实,直接和明确的。
这篇专栏文章的作者Niall Ferguson是斯坦福大学胡佛研究所的Milbank家族高级研究员,弗格森还是Greenmantle咨询公司、FourWinds Research研究公司、Hunting Tower风险投资合伙公司的创始人,以及Chimerica Media制片公司的电影制作人。他最近的畅销著作是《末日:灾难的政治学》。
专栏文章的原标题是——“从深度伪造到J备竞赛,AI政治已经到来”。
全文整理和翻译,分享给大家。
大型语言模型只会变得更加狡猾,而且任何形式的监管都不太可能控制住这些机器。
两周前,我提出了并尝试回答了六个关于人工智能革命带来的经济和金融后果的问题。今天,我有更多的问题——八个——关于政治和地缘政治的问题。这些问题更难回答。
1、AI会对2024年的选举产生不利影响吗?
看起来非常有可能。
因为与其他国家相比,美国选举活动的竞选预算要大得多,每一项新的通讯技术都会被政治企业家迅速采用。考虑一下谷歌在2012年为奥巴马总统的竞选活动提供了什么?或者Facebook广告在2016年为特朗普竞选活动提供了什么?在2020年,硅谷通过所谓的内容审H帮助了乔·拜登。
大型语言模型(LLMs),如OpenAI的GPT-4,具有巨大的政治潜力。它们可以在很少人类监督的情况下生成大量看似合理的内容。这包括假冒的电话和视频片段。我们已经看到了新罕布什尔州初选中第一个假冒的自动电话(模仿拜登的声音)。
很难相信政治上使用AI会简单地被禁止。
但是,大规模部署它的意味着什么?最近的研究表明,即使是开源的、不如GPT-3先进的LLMs,也能生成内容,让调查受访者将其与《纽约时报》上同一主题的材料视为同等可信。一项实验性研究表明,AI系统可以用假选民反馈压倒立法者或政府机构。
还有一些调查显示,即使选民被提示要意识到深度伪造的存在,他们在识别深度伪造方面也不会变得更好——但他们确实对真实视频失去了信任。
所有这些都可能意味着选举将产生额外的公众压力,要求进行监管,尤其是如果一个竞选活动被认为以恶劣的方式使用AI的话。
2、美国的监管会限制AI吗?
去年10月,拜登发布了一项行政命令,详细阐述了其政府对AI监管的优先事项。
在其较为严厉的安全条款中,该命令援引了1950年的《国防生产法》,要求开发可能威胁国家安全的先进AI系统的公司必须通知联邦政府,并报告安全测试的结果,或者进行所谓的“红队”测试。这一要求只适用于非常大的系统(训练运行超过10的26次方数学运算)。
该行政命令并未像OpenAI首席执行官Sam Altman等人提出的那样,对公司建立AI模型的责任进行监管或要求许可。Altman在五月向国会作证时呼吁成立一个新的联邦机构来许可AI公司并监督审计。这是不太可能的。
因此,该行政命令的可执行性和实施将主要取决于联邦机构的执法和制定规则,以及司法审查和科技公司遵守新规定的意愿。
联邦贸易委员会主席Lina Khan去年五月在《纽约时报》上写道,她的机构已经对一系列AI相关问题拥有管辖权,包括竞争和消费者保护。她的文章提出了三个焦点问题:反垄断、欺诈和滥用以及劳动歧视。去年七月,FTC启动了一项调查,以确定OpenAI是否涉及“不公平或欺诈性”的隐私和数据安全行为。
在国会中,迄今为止最连贯的提案是康涅狄格州民主党参议员Rich Blumenthal和密苏里州共和党参议员Josh Hawley发起的《美国AI法案》。
Hawley-Blumenthal法案将澄清《通信法》第230条——互联网历史上的关键立法——“不适用于AI”,这意味着公司将对传播有害的AI生成内容承担责任。该法案还将要求AI开发者和提供者向用户披露他们正在与AI系统互动;创建保护儿童的规则;让消费者控制他们的个人数据在AI系统中的使用;要求对AI生成的深度伪造进行水印标记;并限制向C国转移AI技术。
这项立法会通过吗?可能不会。国会在监管新技术方面有着非常缓慢的记录。从铁路的发明到第一部联邦法规的出台,间隔了62年。电话是33年;无线电15年;互联网13年。核能是个例外:滞后时间仅为四年。
3、欧洲能在AI监管方面取得成功吗?
欧洲委员会一如既往地希望在AI监管方面引领世界。其AI法案将对数据质量、监督和披露要求进行规范,将于今年晚些时候正式采纳,大部分规定将于2026年生效。
AI法案根据AI系统可能对人类健康、安全和基本权利构成的威胁,将AI系统分为四个级别。每个级别面临不同的监管要求。
被视为“高风险”的AI系统包括关键基础设施运营、教育培训、边境检查和执法等。低风险AI系统的例子包括垃圾邮件过滤器,它们只需遵守自愿的行为准则。最后,“透明度风险”AI系统,涉及与用户的互动(例如聊天机器人),需要披露它们的内容是由机器生成的。
欧洲人希望重复他们在在线隐私方面通过《通用数据保护条例》(GDPR)所取得的成就。自2018年以来,许多非欧盟国家在其国内市场采用了严格的欧洲监管规范,纯粹是因为他们想要将产品销售到欧盟市场。自那时起,GDPR监管机构已经征收了45亿欧元的罚款,尽管美国的大型科技公司通过诉讼进行了反击。
然而,我怀疑欧洲人将无法为AI监管设定标准。2021年,华盛顿和布鲁塞尔成立了贸易和技术委员会。在这个框架内,他们试图就AI监管的“自愿行为准则”达成一致,但失败了。欧洲的大问题是,除了法国的Hugging Face这个显著的例外,它几乎没有大型AI公司。
4、全球治理体系是否有前景?
DeepMind的联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman,2014年被谷歌收购)和欧亚集团的伊恩·布雷默(Ian Bremmer)去年提出了一个雄心勃勃的国际“技术审慎”制度蓝图,以监管这项技术。他们以全球金融机构如金融稳定委员会、国际清算银行和国际货币基金组织所扮演的宏观审慎角色为模型。
我仍然不确信人工智能能像金融那样被监管。然而,布雷默-苏莱曼模型还有另外两个要素。其中一个是类似于政府间气候变化专门委员会的机构,以确保我们对人工智能的影响进行定期和严格的评估。另一个是“华盛顿和BJ应该致力于创造共同点,甚至由第三方提出和监管的界限。
一个理想的全球治理体系将会构建国家间的协调,以阻止某些非友好国家开发或获取尖端的人工智能模型。执法将通过一个针对GPU(最复杂的半导体,主要由Nvidia设计,由TW半导体制造公司制造)的全球出口控制制度和一个针对云计算的全球客户协议来执行。
这样的体系已经在建设中。然而,由于地缘政治原因,它针对的是C国。由于C国是另一个人工智能超级大国,这似乎没有太多意义。亨利·基辛格在他生命的最后一年,试图建立一个有意义的中美人工智能用于JS的控制对话,我怀疑这一倡议在他去世后不会持续太久。
历史和最近的事件表明,在短期内甚至中期,全球人工智能治理制度是完全不可能的。我们离人工智能限制谈判的想法还有很长的路要走。因此,JB竞赛将以目前的速度继续进行。
5、中国能否迎头赶上?
回到2021年,由前谷歌CEO埃里克·施密特主持的一个委员会发布了一份报告,预测“中国可能超过美国成为世界人工智能超级大国”。然而,这种情况似乎并未发生。中国最大的大型语言模型(LLMs)不如美国领导者。
为什么中国落后?简单答案是,它无法自行制造最先进的半导体,而美国能够限制其对TSMC生产的芯片以及荷兰公司ASML生产的复杂芯片制造机器的获取。根据我的同事克里斯·米勒(Chris Miller)的书《芯片战争》(Chip War),“在C国运行人工智能工作负载的服务器中,高达95%的GPU由英伟达(Nvidia)生产”。中国可以自行生产不那么花哨的芯片——例如,运行电动汽车的芯片。但不是AI芯片。
这是否意味着“科技战争”——从唐纳德·特朗普总统的政府开始针对华为和中兴,到2022年10月商务部对所有中国公司施加的限制——已经赢了?不要急。的确,中国在人工智能支出和AI公司形成方面落后于美国。但它在机器人领域领先。并且它正在努力寻找方法来突破限制。英伟达对中国对其芯片的巨大需求也并非漠不关心。近年来,来自中国的收入占这家公司总收入的五分之一到四分之一。《经济学人》不是唯一在想是否有通过新加坡“运送”英伟达芯片的。
的确,美国继续是AI人才的主导市场。但最新版的MacroPolo研究——研究了顶级AI研究人员的职业生涯,即那些在2022年12月的NeurIPS会议上被接受论文的人员——表明北京正在迎头赶上。中国是大量顶级AI研究人员开始他们学术生涯的地方,2022年的比例高达47%,而在2019年仅为29%。自2019年以来,美国在AI就业方面的主导地位已经削弱,从65%下降到57%。
6、人工智能真的是新的曼哈顿计划吗?
我的科技大亨朋友Vinod Khosla和Marc Andreessen上个月关于AI进行了一次有趣的讨论。他们都是著名的风险投资家。但Khosla是OpenAI的支持者,也赞成Altman关于监管的观点;而Andreessen则更倾向于看到开源模型的繁荣。
“你会开源曼哈顿计划吗?”在X(之前称为Twitter)上的一次交流中,Khosla这样问道。
“这对国家安全来说更为严重。我们正处于与C国的科技经济战中,而AI是我们必须赢得的战争。这正是爱国主义的真谛,而不仅仅是口号。”
正如我所说,AI与核裂变之间的类比远非完美。核能在全球电力生产中的份额从1996年的15.5%下降到了2022年的8.6%,部分原因是对少数核事故的政治反应过度,这些事故对人类健康和环境的影响微乎其微。实际上,核电发电量在2006年达到了顶峰。
在考虑AI的可能用途时,我们应该记住,作为一个物种,我们有着自己的行为记录。是的,AI可以被用于各种美好的用途。医学科学的可能性特别令人兴奋。但核裂变的历史表明,我们将至少投入同样多的努力来发展AI的破坏潜力。这一点在乌克兰显而易见,那里的无人机战争正逐渐从远程人类操作系统过渡到AI驱动的自主系统。
7、人工智能世界将需要多少能源?
核裂变与人工智能之间的一个重大区别在于,人工智能只消耗能源。但需要多少呢?一些危言耸听的评论家预测,到2030年,人工智能可能需要接近全球电力发电量的四分之一。然而,我读过的最准确的分析(由Dylan Patel、Daniel Nishball和Jeremie Eliahou Ontiveros为SemiAnalysis撰写)得出的结论是,“到2030年,人工智能将推动数据中心使用全球能源发电的4.5%。”
(注:SemiAnalysis是一家独立的研究和分析公司,专注于半导体和人工智能行业。)
这仍然是一个很大的数字。而且,由于大量的人工智能活动集中在美国,数据中心的“关键”IT容量将需要从2023年到2027年增加三倍,从占美国电力发电的4.5%增长到14.6%。
最近几周,美国主流媒体开始意识到这意味着什么,尤其是对于减少天然气发电份额并增加“可再生”能源发电份额的梦想。
可是,这个梦想已经破灭了。
8、人工智能对未来WAR的意义是什么?
在安德森的AI论文《为什么AI将拯救世界》中,最有争议的断言是他的声明:“当WAR不得不发生时,AI将通过大幅降低战时死亡率来改善WAR”,因为AI将帮助政治家和指挥官“做出更好的战略和战术决策,最小化风险、错误和不必要的流血事件。”
我强烈怀疑情况会恰恰相反。在即将到来的WAR中,武装部队的死亡率将会非常高,正是因为AI将使导弹和其他武器的精确度大大提高。这在乌克兰已经变得很明显,那里的无人机战争正逐渐从远程人工驾驶系统过渡到AI驱动的自主系统。
我们这个时代的核心问题应该是显而易见的。美国在没有完全考虑清楚的情况下,实际上将最先进的半导体制造外包给了一个岛屿。TSMC——生产超过90%的GPU,但其市盈率仅为14.3的主要原因是其脆弱的位置。
引用《华尔街日报》的话,“美中因岛屿问题发生WAR几乎肯定会导致TSMC的晶圆厂被毁。这将使全球芯片供应链倒退五到十年,从而破坏AI热潮。”再引用克里斯·米勒的话,“如果TW的晶圆厂停工,我们明年的计算能力将减少37%。”即使 “只是”封锁TW,“由于政府配给能源,TSMC的芯片生产将停止。”
如果美国能在本土建立自己的TSMC版本,那将是非常好的。这就是激励补贴众多的CHIPS法案的梦想。
我只能说,我并不抱太大期望。