随着人工智能(AI)技术的迅猛发展,其在为人类带来巨大便利的同时,也潜藏着不容忽视的风险。为了对AI进行有效管控,美国加州推出了《前沿人工智能模型安全创新法案》。这一法案旨在为AI模型设立安全标准,明确责任划分,以预防AI滥用可能带来的灾难性后果。然而,这一法案却在学术界和产业界引发了巨大的争议。
学者担忧:创新受阻,开源受损
包括知名AI专家李飞飞和吴恩达在内的一些学者和产业界人士对这一法案表示了强烈的反对。他们认为,这一法案的实施可能会严重阻碍AI技术的创新,并对开源社区和学术研究的发展造成损害。
李飞飞在社交媒体上表示,尽管这个法案的动机是好的,但其实施可能会对人工智能学术界和开源社区造成严重的伤害。她强调,在制定AI政策时,应当优先考虑鼓励创新,并减少可能带来的负面影响。
吴恩达则担心,这一法案可能会使AI大模型的构建者和开源社区的开发者承担不应有的责任,导致他们在开发过程中更加谨小慎微,从而扼杀了创造性。
支持声音:有效监管,避免错误
然而,也有人对这一法案表示支持。一些计算机科学家和法律学者,如图灵奖得主杰弗里·辛顿,就认为这个法案是必要的。他们认为,如果这个法案被废除,将会导致一个历史性的错误。而且,这个法案仅仅是对AI技术进行有效监管的一个最低要求。
法案细节:安全测试与紧急关闭
这一法案有一个特别的要求,即当AI模型的算力达到一定水平,且训练成本超过1亿美元时,开发人员必须进行安全测试,以降低AI技术可能造成的灾难性后果。此外,当发现AI有危险行为发生时,法案还要求开发人员能够随时关闭运行程序。
产业界反响:利益受损,创新受阻
除了学术界,这一法案对产业界的影响也甚大。因为涉及到投资者的利益,产业界反对这一法案的声音也很大。他们担心,这一法案不仅会阻碍创新,还可能导致投资错位和资源分散。科技巨头们更是认为,这一法案的定义不清晰,可能会阻碍开发商向公众提供AI大模型,从而破坏依赖开放进行创新的生态系统。
赞成和反对这一法案的人各有各的道理,但双方何时能够达成协议,可能还需要长时间的讨论。随着AI技术的发展,如何在鼓励创新与进行有效管控之间找到平衡,将是一个长期而复杂的议题。我们期待在未来的讨论中,能够找到一个既能保障AI技术安全发展,又能充分激发创新活力的解决方案。