关于人工智能监管环境

智能真的很好说 2024-05-16 10:06:40

本文探讨了不断发展的人工智能监管环境和欧盟法案法律的基本方面,这对于理解其影响至关重要。

图片来自Canva

人工智能正在加速发展,虽然可能性是压倒性的,但至少可以说,随之而来的风险也是如此,例如偏见、数据隐私、安全等。理想的方法是通过设计将道德和负责任的指导方针嵌入到人工智能中。它应该系统地构建,以过滤风险,只传递技术利益。

引用 Salesforce:

“设计伦理是将我们的道德和人道使用指导原则嵌入设计和开发中的有意过程”。

但是,说起来容易做起来难。即使是开发人员也发现破译人工智能算法的复杂性具有挑战性,尤其是新兴功能。

“根据深度检查,”如果 LLM 中的能力在模型开发过程中没有明确训练或预期,但随着模型规模和复杂性的增加而出现,则被认为是紧急的“。

鉴于开发人员需要帮助来理解算法的内部结构以及他们的行为和预测背后的原因,期望当局在短时间内理解并对其进行监管是过分的。

此外,对于每个人来说,跟上最新发展的步伐同样具有挑战性,撇开及时理解它以制定合适的护栏不谈。

欧盟人工智能法案

这让我们讨论欧盟 (EU) 人工智能法案——这是一项历史性举措,涵盖了一套全面的规则,以促进值得信赖的人工智能。

图片来自Canva

该法律框架旨在“确保高度保护健康、安全、基本权利、民主和法治以及环境免受人工智能系统的有害影响,同时支持创新和改善内部市场的运作。

欧盟以引领数据保护而闻名,之前和现在都引入了《通用数据保护条例》(GDPR),并通过《人工智能法案》对人工智能进行监管。

时间线

为了争论为什么需要很长时间才能制定法规,让我们看一下人工智能法案的时间表,该法案最初由欧盟委员会于 21 年 4 月提出,后来由欧洲理事会于 22 年 12 月通过。欧盟委员会、理事会和议会这三个立法机构之间的三方对话已于 3 月 24 日以欧盟法案的实施而告终,预计将于 2024 年 5 月生效。

关注谁?

对于其管辖范围内的组织,该法案不仅适用于欧盟内部的开发人员,也适用于向欧盟用户提供其人工智能系统的全球供应商。

风险分级

虽然所有风险都不尽相同,但该法案包括一种基于风险的方法,根据申请对个人健康和安全或基本权利的影响,将申请分为四类——不可接受、高、有限和最小。

风险分级意味着随着应用风险的增加,法规变得更加严格,需要加强监督。它禁止具有不可接受风险的应用程序,例如社交评分和生物识别监控。

不可接受的风险和高风险的人工智能系统将在法规生效后六个月和三十六个月内生效。

透明度

首先,定义人工智能系统的构成至关重要。保持得太宽松会使广泛的传统软件系统也受到限制,从而影响创新,而保持得太紧可能会发生失误。

例如,通用生成式人工智能应用程序或基础模型必须提供必要的披露,例如训练数据,以确保遵守该法案。日益强大的模型将需要更多的细节,例如模型评估、评估和缓解系统性风险以及事件报告。

在 AI 生成的内容和交互中,最终用户很难理解他们何时看到 AI 生成的响应。因此,当结果不是人为生成或包含人造图像、音频或视频时,必须通知用户。

监管还是不监管?

像人工智能这样的技术,特别是GenAI,超越了国界,有可能改变当今企业的运营方式。《人工智能法案》的出台时机是恰当的,并且与生成式人工智能时代的到来相吻合,而生成式人工智能时代往往会加剧风险。

凭借集体的脑力和智慧,确保人工智能安全应该被列入每个组织的议程。虽然其他国家正在考虑是否引入有关人工智能风险的新法规,或者修改现有法规以使其适应来自先进人工智能系统的新挑战,但《人工智能法案》是管理人工智能的黄金标准。它为其他国家树立了道路,可以效仿并合作将人工智能用于正确使用。

监管环境面临着引领各国之间科技竞赛的挑战,并且通常被视为获得全球主导地位的障碍。

然而,如果应该有一场比赛,那么很高兴看到我们正在竞争,让人工智能对每个人都更安全,并诉诸道德的黄金标准来推出世界上最值得信赖的人工智能。

Vidhi Chugh 是一位人工智能战略家和数字化转型领导者,致力于产品、科学和工程的交叉领域,以构建可扩展的机器学习系统。她是一位屡获殊荣的创新领袖、作家和国际演讲者。她的使命是使机器学习民主化,并打破行话,让每个人都成为这一转型的一部分。

原文标题:All About the AI Regulatory Landscape

原文链接:https://www.kdnuggets.com/all-about-the-ai-regulatory-landscape

作者:Vidhi Chugh

编译:LCR

0 阅读:0

智能真的很好说

简介:感谢大家的关注