人工智能逐渐取代人类,引发的风险有哪些?
Véronique Steyer
巴黎综合理工大学创新与创业管理系助理教授
Milie Taing
Lili.ai公司创始人、CEO
人工智能正在诸多领域得到广泛的应用,在人工智能给社会带来重大发展机遇的同时,各种风险和挑战也随之而至。如何规范人工智能的发展?是否需要建立相应的法律法规进行监管?
AI日趋广泛的应用会引发一些实际问题,甚至道德问题。
AI的使用者必须区分可解释性的概念与问责制的概念。可解释性,指理解算法的工作原理。问责制则是指如果使用AI造成了实际损害或损失,设计者和使用者各应承担的责任比例。
2023年,欧盟将提出一项法规草案,对AI的风险等级进行分类。
人工智能(AI)可以将人类从耗时和重复的任务中解放出来,将精力用于附加值更高的工作。
由于法国开展大型海外工程项目具有先进的经验,积累了海量数据,所以有必要投资于工程管理类AI的开发。
计算机系统越来越多地参与日常决策,AI是其中的佼佼者,可以接管以前由人类完成的工作。但是,如果不知道其中的工作原理,又怎么能信任它们呢?面对生死攸关的决定, AI的决策是否可靠?
01
利用法律法规规范人工智能
巴黎综合理工学院创新与创业管理系助理教授Véronique Steyer多年来一直致力于AI的可解释性问题研究。她指出有必要区分可解释性的概念与问责制的概念。可解释性,指理解算法的工作原理,以提高其可靠性并诊断其中的缺陷。问责制则是指如果使用AI造成了实际损害或损失,设计者和使用者各应承担的责任比例。
现有的AI解读工具通常注重于可解释性而非问责制——利用这些工具,可以观测到系统的运作,但不能理解运作的规律,看不出结果是根据哪些标准做出的。解读工具只适合衡量AI的效率,无法评判AI生成的结论是否合理。
因此,Steyer认为有必要建立AI监管框架。在医疗行业,法国的公共卫生法规已经规定:“医用AI算法的设计者……要确保其程序的工作原理可向用户进行解释”(2021第1017号法律,颁布于2021年 8月2日)。这一规定具体针对用于疾病诊断(包括癌症)的AI。这种AI的使用者必须是经过相关培训的专业医师——既会使用程序,又熟悉诊断标准。不然,患者怎么知道有没有被误诊?
今年,欧洲正在制定一项法规草案,将对AI进行风险等级分类,并要求设计者提供可解释性的认证。但是,开发AI该有什么门槛,如何防止互联网巨头企业垄断AI?Steyer指出:“我们还远远没有办法回答这些棘手的问题。目前许多开发AI的公司仍然对可解释性的概念缺乏认识。”
02
利用人工智能分担耗时工作
与此同时,人工智能正在诸多领域中得到广泛应用。巴黎综合理工学院校友Milie Taing于2016年就读期间创办了人工智能技术企业Lili.ai。Taing曾在加拿大大型工程公司SNC-兰万灵担任了八年的项目经理,负责成本控制。工作期间,她遇上了几个进度严重滞后的重大项目,必须从项目过往记录中寻找问题根源。
梳理清楚项目期间发生的延期事件及其时间、原因,意味着回溯整整18年的电子邮件、邮件附件、会议纪要等数据。数据异质性高,散落在上千个邮箱里,时间跨度十几年,无法进行人工分析。大型建筑项目如果不对此类数据进行整理归档,会带来沉重的额外成本,甚至会导致项目破产。受此现象启发,Taing与数据科学家和技术开发人员建立了合作关系,开发出一款用于历史文件挖掘的人工智能软件。
Taing解释道:“我们的算法会逐一打开与项目相关的所有文档,以便了解项目的来龙去脉,然后提取所有句子和关键词,并赋予标签,类似Twitter或者微博的话题标签。”这些标签构成了高效文献检索的基础。为了预防项目未来可能会出现的延期事件,Taing的团队还对一百多个可能会拖延进度、增加成本的事件进行了建模。
法国许多家大型企业都开始使用Lili.ai,比如巴黎大区快速地铁公司(Société du Grand Paris)、法国电力集团、法国核能巨头Orano等。Taing不认为AI会让项目经理失业。“人工智能的作用是‘防患于未然’,帮助人类尽早发现问题,合理管控。”AI能将人类从耗时、重复性的工作中解放出来,将精力用于附加值更高的工作。
“AI能将人类从耗时、重复性的工作中解放出来,将精力用于附加值更高的工作。”
这是否意味着如果项目失败,AI会让有责任、有过失的人无处可藏?Steyer说:“其实,参与项目的人一般会对项目抱有强烈的认同感。如果透露邮件记录能防止成本上升、时间拖延,员工们肯定乐意。虽然从法律上讲,员工邮件往来的记录属于公司,但我们在软件中包含了选项丰富的过滤功能,员工可以自主选择导出到Lili.ai平台上的通讯记录。”
03
人工智能赛道上,法国队领先
Milie Taing表示,由于法国开展大型海外工程项目具有先进的经验,积累了海量数据,所以应该投资于工程管理类AI的开发。但是,法国的AI面部识别技术逊色于亚洲,因为此类技术涉及的数据采集违背了法国的社会道德准则。
Steyer指出:“所有技术都有一套隐含逻辑:允许什么、禁止什么、赋予人类哪些角色,以及它所承载的价值观。例如,在20世纪50年代,加利福尼亚州修建了一条通往海滩的道路,为了防止穷人来海滩,横跨道路的桥梁故意建得很低,以阻止公交车通过。因此,我认为,不仅要了解一个系统是如何工作的,还要了解AI系统中被悄悄嵌入了什么样的社会价值观,这一点非常重要。”
目前,使用最广泛的AI是聊天机器人,虽然不足以威胁到人类,但是如果今天我们用惯了这些聊天机器人,明天可能就会放松了对更复杂AI的警惕。
作者
Marina Julienne
编辑
Meister Xia