2024年8月28日,美国加利福尼亚州的一项提案《前沿人工智能模型安全创新法案》(以下简称SB1047)在州议会获得通过。接下来,加州州长加文·纽瑟姆(GavinNewsom)必须在9月30日之前就是否签署这项法案做出决定。
因此,加利福尼亚可能成为美国第一个针对大型人工智能模型制定全面安全措施的州。
SB1047初步克服了来自诸多科技公司及加州众议院民主党的强烈抵制,对人工智能模型实施美国首个安全标准——要求最先进的人工智能模型进行安全测试,并采取适当的保护措施和政策,以防止严重的危害;同时建立了一个国家实体来监督这些模型的发展,并赋予州检察长向开发商提起诉讼的权力。
美国加州拥有《福布斯》全球50强人工智能公司中的32家,此外根据Crunchbase的数据,2023年全球超过50%的人工智能风险投资资金都流向了总部位于美国加州的公司,美国加州无疑是全球人工智能创新和发展最主要的中心。目前美国国会层面尚未建立人工智能监管的联邦框架,因此SB1047如能通过,其影响可能会远远超出加州的边界,导致“萨克拉门托效应”——即对美国甚至全球的科技行业政策产生重大影响,类似于“布鲁塞尔效应”。
一、加州提案——美国AI监管博弈的缩影
美国加州的SB1047是由担任旧金山州参议员的民主党人斯科特·维纳(ScottWiener)提出的。它之所以被提出,是因为美国在国会层面对AI监管仍存在严重分歧,一时僵持不下。虽然前议长南希•佩洛西、旧金山湾区众议员佐伊·洛夫格伦和罗·卡纳都建议加州应该将人工智能监管权交给联邦政府,但维纳及其他支持提案的议员认为,加州需要打破“国会的不作为”。
而美国国会之所以在AI监管领域停滞不前,一方面是因为,人工智能行业的科技公司和投资者投入的数千万美元游说资金效果开始显露出来——美国科技公司让立法者开始相信,人工智能的先进性对美国来说并不可怕,从大国竞争和商业的角度来看,严格的安全规则可能会限制美国的创新,并将使美国的人工智能优势拱手让给中国。
美国两党人工智能小组的一位参议员托德·杨近期曾表示,国会中的许多人已经放弃了曾经对这项技术快速发展的恐惧态度,并认为“对这些(AI)模型了解得越多,他们就越相信我们政府已经采取的措施大体上是适当的”。
从另一方面来讲,对于以大量金钱为后盾的争论双方来说——一方警告说人工智能对人类构成生存风险,另一方则警告不要制定减缓其对国家安全产生变革性影响的规则——人工智能导致世界毁灭性的危害尚无实证,国会因此对于“试图阻止的威胁或危害是什么”并没有定见,因此无法确定其政策的优先事项。
这一“哲学式争论”和博弈难题,在加州SB1047讨论中有同样的体现,也凸显了科技界内部对人工智能的未来及其威胁的复杂分歧。
二、围绕SB1047的争论问题
1、责任归属——开发者无法承担的责任?
根据SB1047,AI开发人员将承担技术被他人滥用所导致的责任。开发者不仅需要创建一个“终止开关”——模型出现问题时将其关闭,他们还必须保证不会开发具有“危险能力”的模型,例如制造生物武器或核武器或协助网络安全攻击。如果他们不遵守规定并且他们的模型被用于威胁公共安全,他们将面临加州检察长的诉讼。
武器制造商不会因违法的枪击事件而被追究责任,社交媒体公司仰赖“避风港原则”而对平台内容免责。如果SB1047要求开发人员对技术的不可预见的使用负责,那么该法案监管的就是“技术”本身,而非“技术的使用”。
加州计算机和通信行业协会(CCIA)州政策主管KharaBoender就因此公开反对该法案,她认为,一方面在事实上,这一归责方式让开发者“难以承担”;另一方面,追究滥用技术的不良行为者的责任,才是法律的应有之义。
正如对SB1048的支持者所言,对能源网的恶意攻击或针对人类灭绝的流氓算法,最有能力了解这些技术的开发者们,当然应当采取安全保障措施。但当立法者将人工智能伦理要求开发者的“审慎”倡议转化为法律义务时,就会产生上述这类义务在归因和设置方面的“错位”感——不施加义务就担心失控,追究责任又显得过重或不合理。这也是当下我们对人工智能技术理解以及立法技术还不够成熟的表现。
2、用投资金额来设定阈值的合理性
SB1047要求使用成本至少为1亿美元并使用10^26次浮点运算(衡量系统强大计算能力的指标——拜登在2023年行政命令中使用的计算基准相同)训练的人工智能模型的开发人员遵守并披露安全计划(SSP),以防止他们的模型造成“严重伤害”,即造成大规模人员伤亡或超过5亿美元的物质损失。据称,目前还没有人工智能模型达到这一门槛。
门槛的划定,一直是法律专家热议的话题之一。无论这个门槛基于什么标准、定在什么范围,都不可避免地会出现一个“过时”的问题。如果SB1047成为法律,行业规模和投资金额可能在其生效期间发生巨大变化,这一门槛很可能会将大量公司囊括进来,而并非像提案者维纳议员所说,只会影响“最大的人工智能开发商”。
虽然从理论上,计算资源越大的人工智能模型,其能力及可能造成的危害也越大;但反过来,SB1047主要针对的是能够制造大规模杀伤性武器和具有网络攻击能力的人工智能,这类风险类型和性质与开发成本并不一定是绝对挂钩的关系。科技发展的规律就通常是,做好事和坏事的成本都会越来越低,不久的将来(或许包括现阶段)专门用于武器的人工智能也许并不需要那么大的成本。而根据修正案,成本低于1000万美元的微调开源模型将不受该法案的约束,这对开源社区和初创公司来说可能是个好消息,但对于立法者来说,其防范极端风险的立法目的却未必能够因此而达成。
3、自治vs监管
谷歌等大公司声称,他们在完善产品时都采取了内部保护措施,并表示最好允许这种自我监管。2023年7月,在美国白宫的倡议和引导下,亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI等7家美国科技公司签署了一份题为《确保安全、有保障、值得信赖的人工智能》的文件,以确保“人工智能技术的安全、可靠和透明的开发”。
但是维纳等立法者认为,政府必须进行干预,规定一种负责任的平衡。他表示,当科技公司承诺其技术安全,但却拒绝政府监督其安全测试时,这种“自我监管”是否可靠地承受利润激励的压力而得以实现,是值得怀疑的。
因此,SB1047还特别包含了“为员工提供举报人保护”的条款,禁止所涉模型的开发者阻止员工向司法部长或劳工专员披露信息,或对披露信息的员工进行报复。
2024年6月,美国领先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的一群现任和前任员工公开发表了一封信,指出人工智能公司优先考虑经济利益、逃避监管,不仅向公众隐瞒先进人工智能的危险,而且禁止其员工自由发表言论。这封信背后的组织声称,由于人工智能公司不需要向政府披露太多信息,因此他们系统的真正能力仍是一个“秘密”。
这显然是立法者担忧的根源所在。
三、美国和欧盟监管联动:萨克拉门托效应“补充”了布鲁塞尔效应
欧盟和美国的战略在基于风险的方法上具有概念上的一致性,就值得信赖的人工智能的关键原则达成了一致,并认可国际标准的重要作用——这主要归功于欧盟-美国贸易与技术委员会(TTC)在人工智能领域取得的初步成功。
然而,欧美人工智能风险管理制度的具体内容差异大于相似之处。总体而言,欧盟的方法比美国具有更为集中的协调和全面的监管覆盖范围。加州的SB1047如果通过,将缩小欧美监管的这一差异,增加其协同效应。
具体来说,如果SB1047对在该州开展业务的人工智能公司产生了合规成本,这些公司在遵守欧盟《人工智能法》的成本增幅就会更低。
此外,欧盟委员会人工智能办公室目前正在牵头一个多利益相关方进程,制定通用人工智能实践准则,详细说明在欧盟运营的开发商必须采取哪些措施才能遵守该法规。从文本对比来看,SB1047的透明度要求比欧盟《人工智能法》规定得更详细。欧盟委员会官员明确表示,欧盟正在密切关注加州的立法动态,并愿意“交换意见”。欧盟的专家称,欧盟《人工智能法》的实施可以、且应当从SB1047中汲取灵感,并以此为参照。
四、展望
加州州议会和参议院的民主党优势很大,州长加文·纽瑟姆(GavinNewsom)也是民主党人。没有党派僵局,加州通过法律法规比党派竞争更激烈的地方更容易,也因此不像美国国会那样受到僵局和两极分化的影响。
但是SB1047的前景仍旧不太明朗。加州众议院虽然以41:9的投票结果通过了该法案,但是其中许多民主党人没有投票,而且包括前议长南希•佩洛西和美国商会在内的国会民主党人倾向于联邦立法,并敦促州长纽瑟姆在该法案被提交到他的审议时予以否决。
纽瑟姆本人也是一位科技友好型州长,在9月他将面临科技界游说的巨大压力。要知道,在SB1047法案分析文件的附录中,明确支持该法案的机构有43家,但反对法案的有159家。