人工智能(AI)正在引领一场科技革命,新近揭晓的2024年诺贝尔奖就有两项授予了AI研究者。然而,当AI如潮水般涌入人类社会时,首位图灵奖、诺贝尔物理学奖双料得主杰弗里·辛顿不断提醒人们要“小心AI”。
应该想办法让AI负起责任,还是对其危害进行预防,怎样使其更安全地融入人类社会?日前在沪举行的“中国科学院学部科技伦理研讨会”上,来自全球多个国家的科学伦理专家提出,随着人工智能对社会生活的渗透,对于AI的治理应从过去简单的预防性思维转向全生命周期的治理。
AI时代警惕“信息流行病”
根据世界卫生组织统计,包括禽流感、新冠等流行病在内,本世纪人类共经历过8次突发公共卫生事件。随着AI时代的到来,中国科学院院士、中国科学院微生物研究所研究员高福提醒,一种“信息流行病”正在悄然出现。
AI会有幻觉、会撒谎,当它的应用越加广泛、深入,它所带来的信息“污染”危害就会越大。高福提到了今年诺贝尔物理学奖揭晓之后,网上流行的一个段子:有人从诺贝尔奖官方网站上下载了今年诺贝尔物理学奖得主约翰·霍普菲尔德和杰弗里·辛顿的照片发给ChatGPT,要它指出图片存在什么问题。得到的回答是:物理学奖不太可能颁给霍普菲尔德和辛顿,认为这“可能是某种误传或艺术性的表达”。
“很显然,当人们轻信AI,就容易被其误导。”高福曾让学生检查5篇论文,发现其中有4篇来自“AI制造”——如果不加控制,这将在未来给社会带来混乱。他认为,未来防控病毒大流行,更要同步防控“信息病毒”。
人类与AI哪个更聪明?人类能否管束住AI?高福认为,人类需要用智慧与道德,构建起有效的治理体系。
基于过往经验,能否阻止未来风险
“AI会替代医生吗?”这是一个很多人关心的问题。杰弗里·辛顿曾在10年前就曾认为可以停止培养放射科医生。“但现在看来,这显然是错的。”英国爱丁堡大学科学技术与创新研究中心主任罗宾·威廉姆斯说,现状是医生与AI在读片中各展所长,使疾病的影像诊断更加有效。
如今,AI已经在不少医疗领域崭露头角。过去,在探讨AI的医学伦理时,经常使用的是预防性思路,即把一切可能的危害消除在起始萌芽中。但罗宾提出了一点疑问:人们在作出“有害”或“无害”的判断时,往往基于过往经验和模型,这究竟能否阻止未来的风险?他认为,还是要在实践中摸索AI与现有劳动流程的融合之道,比如癌症筛查如何设置AI模型灵敏度才能避免假阳性、面临医生短缺危机可否用大模型提升医疗效率,以及如何确保不负责任的算法被及时排除。
“大家都想完全控制新工具,但实际上是不可能的。”罗宾认为,未来AI医学伦理的探讨应贯穿于技术发展和应用的全生命周期,一方面可让患者用上更新更优的模型,一方面也可随时调整伦理规范。
爱丽丝的岔路口,要给核心问题留时间
“当大家都在探讨周边应用的伦理问题时,一些伦理的核心问题反而未曾被思考清晰。”加拿大皇家学会院士、加拿大达尔豪斯大学生物伦理与哲学弗朗索瓦丝·贝利斯教授提到,当应用“跑得飞快”之时,更要给核心问题留出探讨的时间和空间。
比AI伦理更困扰人类的是关于人类进化的问题。曾经,能否对人类生殖细胞进行基因编辑引发过激烈的伦理争论,目前绝大多数国家都选择对此按“暂停键”。可是,审慎选择路径尝试的声音也在不断冒头,甚至随着生命科技发展,类似意图控制人类演化进程、创造一个全新的人类基因等更激进的想法也在出现。
在弗朗索瓦丝看来,其实更关键核心的伦理问题应是:我们是想要活得更好,还是要创造“更好的人”,“更好”又该如何定义?她觉得,面对这一问题,人类更像《爱丽丝漫游仙境》中走到十字路口的小女孩,“慢下来,想清楚”比茫然走下去更重要。