人工智能:全球监管的兴起与挑战
Henri Verdier
法国欧洲和外交部数字事务大使、法国巴黎数字角竞争力集群(Cap Digital)创始人
近年来,人工智能(AI)的迅猛发展引发了关于其监管的广泛讨论。AI技术虽然带来了巨大的潜力和机遇,但也伴随着诸多风险,对AI的监管提出了严峻考验。尤其在欧洲,已开始深入探讨伦理框架,以规范AI的应用。那么,面对AI带来的多重挑战和机遇,我们应如何平衡创新与监管?在全球层面上,哪些具体措施能有效保障AI的安全和公平使用?
AI技术前景广阔,但在使用过程中也存在一些隐患,如深度伪造、侵犯人权和操纵舆论等。
这种不断发展的多功能工具正在引发全球对共同治理框架的深刻反思。
新的AI技术越来越多地侵犯用户隐私和知识产权,因此需要共同治理。
在法律上,欧洲有权力禁止某些AI技术的发展。但如果其他大国继续推进这些技术,而欧洲选择停止,可能会导致欧洲变得脆弱和落后。
2025年,法国将主办一次重要的国际AI峰会,推动全球在AI治理方面取得实质性进展。
虽然技术发展日新月异,但从长远来看,有望基于一些强有力的准则对AI进行监管。
01
AI的监管需要考虑哪些问题?
有很多问题需要考虑。首先,公众普遍担忧AI可能获得自主性并威胁人类生存,这种恐惧被某些言论放大。然而,对于目前开发的AI模型来说,这种极端情况的发生概率相对较低。其次,我们面临着寡头垄断的风险,这涉及到对少数几家技术巨头的过度依赖。此外,AI的发展也带来了侵犯人权的潜在风险。历史上,一些最为极端和危险的行为往往局限于强国和军队的范畴。然而,随着AI技术的普及,这些行为的门槛被降低,使得它们变得更加普遍和容易实施。同样,尽管AI技术能够带来诸如检测癌症等积极影响,但同样可能被用于限制人们的自由,例如通过监控系统阻止某些人进入公共场所。AI的多功能性带来了前所未有的挑战。它既能够助力人类,也可能被用于恶意目的,如制造深度伪造内容、攻击关键基础设施或操纵公众舆论。此外,AI的发展还可能在知识产权保护、公共领域、隐私权和就业市场等方面引发一系列社会经济问题。这些挑战,叠加人们对于充分利用AI带来的巨大潜力和无限前景的渴望,正在推动全球范围内对共同治理框架的深入探讨和思考。
02
您认为AI领域最大的风险是什么?
在我看来,AI领域最大的风险在于垄断。这不仅是一个经济问题,更是一个关乎民主的问题。我们面临的一个主要危险是,全球经济、社会和媒体可能变得极度依赖那些我们难以监管的少数大型垄断企业。基于这一分析,我正在积极倡导保护数字公共领域和推动开源软件的发展。我们需要确保存在一些高质量、免费可用的AI模型,让每个人都能公平地受益于AI的成果。目前,市场上已经出现了一些优秀的开源解决方案。然而,问题在于:我们是否愿意投入足够的公共资金来培养这些模型,确保它们能够惠及每个人?在我看来,这正是问题的核心。我们需要确保有足够的资源用于公共利益,确保创新无需征得纷繁许可,自由进行。
03
国际社会是否特别关注与AI相关的特定风险?
国际社会确实对AI带来的某些风险表现出了特别的关注。其中,AI的间接影响尤为值得注意,因为这些技术可能会从根本上改变我们对隐私的保护方式。目前,个人数据保护的基本原则是保护个人的隐私和安全。然而,AI的引入,尤其是预测模型的应用,使得我们能够基于大量甚至全部个人信息来了解一个人。这些模型能够综合考虑个人的年龄、居住地、工作地点等因素,从而准确预测出他们罹患某种疾病的风险,或者对某部电影的喜好。此外,AI在知识产权领域也引发了国际间的广泛讨论。例如,AI现在已经能模仿出已故的美国涂鸦艺术家Keith Haring风格的画作并进行销售,这无疑给艺术家的遗产受益人带来了挑战。
04
我们是否真正意识到了国际监管的必要性?
十年前,我们对于社交网络的监管还持有一种默契的放任态度。然而,如今这些公司的市值已经飙升至万亿美元级别,要改变它们的发展轨迹变得极其困难。这一历史教训促使大多数发达国家开始自我反省,决心不再重蹈覆辙。他们认识到,这一次必须采取行动,确保监管措施能够跟上时代的步伐。但这种认识并不意味着他们已经掌握了完美的解决方案。事实上,人们开始逐渐意识到,有效的监管必须建立在国际框架之上。数字世界几乎没有边界限制,你可以在A国注册公司,并在B国开展业务。显然,国际社会正在积极应对上述主要问题:生存性风险、经济主权问题和恶意行为者。
05
国际层面是监管AI的唯一相关层面吗?
并非如此。除了国际层面,地区层面同样扮演着至关重要的角色。以欧洲为例,该地区已经深刻地认识到,仅仅依赖国家层面的监管来应对数字技术的所有用途远远不够,特别是对于那些具有全球影响力的科技巨头。当欧洲开始构建自己的监管框架时,这些科技巨头就会开始与欧洲进行谈判。然而,这种做法也可能带来一些紧张关系,因为它可能会引发基于域外管辖权的国际秩序问题。我们并不希望鼓励这种基于单边行动的国际秩序。因此,国际层面已经成为公认的、思考数字世界的正确尺度,这一点已经深入人心,不再受到质疑。
在法律上,欧洲有权力禁止某些AI技术的发展。但同时,我们也担心,如果其他大国继续推进这些技术,而欧洲选择停止,可能会导致我们变得脆弱和落后。这就需要在支持创新和保障公民安全之间找到平衡。这也是为什么越来越多的人倾向于集体决策的原因。鉴于这些技术的发展速度如此之快,它们创造的力量如此之大,我们不希望单方面地放弃这些技术的发展,而是倡导国际合作。
06
在制定和实施AI监管框架方面,欧洲已经取得了哪些进展?
我们已经全面展开了对伦理框架的讨论。商业领袖、民间组织、学术界专家、联合国、七国集团(G7)、经济合作与发展组织(OECD)等众多机构和论坛都在积极参与这一讨论,这也成为了法国提出的AI全球伙伴关系倡议的重要组成部分。此外,各国大使馆也在通过外交途径推动这一议程,互联网治理论坛(Internet Governance Forum)和年度人权峰会(RightsCon)等重要国际会议上,AI的伦理和监管问题都成为了热议的焦点。在这一过程中,各种想法和观点正在逐步被接受和确立。我们正在努力界定协议所依赖的核心概念,并围绕一些基本原则形成初步共识。例如,我们正在强调不应使用任何违背人权的技术;技术的发展和应用必须符合用户的利益;必须确保在模型训练过程中采取了充分的预防措施,以消除潜在的偏见;以及透明度的重要性,以便专家能够对算法模型进行有效的审核和评估。随着这些共识的形成,我们正在进入寻找具体条约和协议的阶段。
关于民主框架的讨论正在激烈进行。我们面临着一个根本性的问题:如何确保这些科技公司不会滥用其影响力操纵我们?我们是否拥有足够的知情权,去了解AI系统在训练过程中使用了哪些数据?这是我们作为社会必须共同面对和解决的问题。去年的世界峰会上,英国主导了一场深入的讨论,聚焦面对生存风险时的安全概念。目前,讨论的焦点正在逐渐转向未来的工作形态和知识产权等更广泛的领域。值得关注的是,2025年,法国将主办一场重要的国际AI峰会。这一盛事预计将成为推动这些问题解决的重要平台。
07
对AI的反思是否与技术发展保持同步?
许多人认为,我们对AI的反思并没有跟上技术的快速发展。我个人认为,建立在坚实原则上的法规至关重要。例如,《世界人权宣言》所阐述的原则至今仍有深远意义,即便技术已经发生了翻天覆地的变化。从1978年的《数据保护法》到今天的《通用数据保护条例》(GDPR),我们可以看到,尽管法律文本在不断更新,但保护用户数据的核心原则并未过时。如果我们能够明确一些强有力的原则,便有望制定出能够经受时间考验的文本。我相信,我们可以通过现有的一些文本,如GDPR、媒体和内容出版商的责任等,来规范AI的发展。由此可见,制定一个全新的框架并非必须。
作者
Sirine Azououai
编辑
Meister Xia