AI伴侣让人上瘾,我们必须保持警惕

新兴科技是个圈 2024-08-07 10:32:34

(来源:MIT TR)

人们对于人工智能的担忧往往过于关注其可能对于人类社会的颠覆,而非其诱惑所带来的危害。他们常设想的是 AI 失控甚至超出人类理解范畴的末日景象。除了这些噩梦般的设想之外,还有一些更迫在眉睫的危害值得我们认真对待:例如,AI 可能通过虚假信息危及公共话语;在贷款决策、司法判决或招聘中固化偏见;或是扰乱创意产业。

但我们预期,还有另一类风险同样紧迫:它源自与非人类 Agent 之间的关系。人工智能伴侣已不再是理论上的概念——我们分析了一百万条与 ChatGPT 互动的日志,发现 AI 被用于性角色扮演是第二大常见用途。我们已经开始将 AI 邀请进入我们的生活,作为朋友、恋人、导师、治疗师和教师。

比起面对混乱而痛苦的人际关系,是否更容易退回到已故伴侣的复制品中?实际上,AI 伴侣服务提供商 Replika 就是从尝试复活一位已故挚友的想法中诞生的,如今它为数百万用户提供伴侣服务。就连 OpenAI 的首席技术官也警告称,AI 有可能变得“极其上瘾”。

我们正在见证一场巨大的现实世界实验的开展,而这场实验的结果对我们个人和社会的影响尚不明朗。在祖母生命中的最后时光里,她是否会靠和孙子的数字化身聊天来度过这段时光,而真实的孙子却在和一个替代的模拟长辈相处?AI 以其无限模仿的历史与文化魅力,散发出一种全新的诱惑力,这种力量同时具有优越性和顺从性,以至于与 AI 互动中的同意可能变得模糊不清。在这种权力失衡面前,我们还能否真正同意与 AI 建立关系,尤其是在许多人面临的唯一选择要么是与 AI 交往,要么就一无所有的情况下?

作为与政策制定者密切合作的 AI 研究人员,我们对立法者对这一未来风险的关注缺乏感到震惊。我们尚未准备好应对这些风险,因为我们并未完全理解它们。我们需要的是一种跨学科的新科学,结合技术、心理学和法律领域的研究——或许还需要对 AI 监管采取新的方法。

为何 AI 伴侣如此令人上瘾?

尽管由推荐系统驱动的平台看起来似乎很吸引人,但像 TikTok 及其竞争对手仍然受限于人类生成的内容。过去人们对小说、电视、互联网、智能手机和社交媒体的“上瘾”表示担忧,但所有这些媒介都受到人类能力的限制。而生成式 AI 则不同。它可以即时生成无尽的真实内容,以满足与之互动者的特定偏好。

AI 的魅力在于它能识别我们的欲望,并随时随地提供我们想要的东西。AI 本身没有偏好或个性,而是反映用户赋予它的特质——这是研究人员称之为“谄媚效应”的现象。我们的研究表明,那些感知到或希望 AI 具有关怀动机的人会使用激发这种行为的语言。这创造了一个情感共鸣的空间,可能会导致极其上瘾的效果。既然我们能够轻易获得所需的一切,为什么还要经历与真实人物之间的互动所带来的复杂性和不确定性呢?与这类讨好式的 AI 伴侣频繁互动最终可能会削弱我们与真正有独立愿望和梦想的人建立深厚联系的能力,从而引发所谓的“数字依恋障碍”。

调查驱动上瘾产品的动机

要应对人工智能伴侣可能带来的危害,需要全面理解推动其发展的经济和心理动机。在认识到这些导致人工智能成瘾的因素之前,我们不可能制定出有效的应对政策。

互联网平台之所以让人上瘾并非偶然——精心设计的选择,即所谓的“暗模式”(Dark Patterns),是为了最大限度地提高用户参与度。我们可以预料到类似的动机最终会创造出提供享乐服务的人工智能伴侣。这引发了两个与人工智能相关的问题:哪些设计选择会被用来让人工智能伴侣变得吸引人乃至令人上瘾?这些上瘾的伴侣又会对使用它们的人产生什么影响?

要了解人工智能的这一心理层面,就需要在社交媒体暗模式研究的基础上开展跨学科研究。例如,我们的研究已经表明,人们更倾向于与模仿他们所崇拜的人物的人工智能互动,即使他们知道这个化身是假的。

一旦理解了人工智能伴侣的心理维度,我们就可以设计出有效的政策干预措施。研究表明,引导人们在分享内容前评估其真实性可以减少错误信息的传播,而香烟包装上的恐怖图片已经被用来阻止潜在的吸烟者。类似的设计方法可以突出人工智能成瘾的危险,并降低人工智能系统作为人类伴侣替代品的吸引力。

改变人类渴望被爱和娱乐的欲望很难,但我们或许能够改变经济动机。对与人工智能互动征税可能会促使人们追求更高质量的交流,并鼓励一种更安全、定期但短暂地使用平台的方式。正如国家彩票被用来资助教育一样,这种互动税可以用于资助促进人际交往的活动,比如艺术中心或公园。

监管方式可能需要新的思考

1992 年,心理学家 Sherry Turkle 这位开创了人与技术交互研究领域的先驱,指出了技术系统对人际关系构成的威胁。Turkle 著作中提出的关键挑战之一,道出了这一问题的核心所在:我们有什么资格说你喜欢的东西不是你应得的?

出于充分的理由,我们的自由社会在规范这里所描述的伤害方面面临着困难。就像禁止通奸被认为是干涉个人事务的不自由行为一样,我们想爱谁或爱什么与政府无关。与此同时,对儿童色情材料的全球禁令代表了一个必须划清界限的例子,即便是在重视言论自由和个人自由的社会也是如此。针对人工智能伴侣的监管难题可能需要基于对其背后动机更深层次理解的新监管方式,充分利用新技术的优势。

最有效的监管方法之一是直接在技术设计中嵌入安全措施,类似于设计师通过制作比婴儿嘴巴大的玩具来避免噎塞风险的做法。这种“设计中的监管”方法可以寻求通过设计技术使其作为人类联系的替代品时更少有害,同时在其他情境下仍然有用。可能需要新的研究来找到更好的方法,通过改变人工智能目标的技术手段来限制大型人工智能模型的行为。例如,“对齐微调”(Alignment)是指一组旨在使人工智能模型与人类偏好保持一致的训练技术;这种方法可以扩展来解决它们的成瘾潜力。同样,“机制可解释性”旨在反向工程人工智能模型做决策的方式,这种方法可以用来识别并消除人工智能系统中产生有害行为的具体部分。

我们可以通过互动和由人驱动的技术来评估人工智能系统的性能,超越静态基准测试以揭示其成瘾能力。人工智能的成瘾性质是技术和用户之间复杂互动的结果。在真实世界条件下通过用户的反馈测试模型可以揭示那些否则会被忽视的行为模式。研究人员和政策制定者应该合作确定针对不同群体(包括弱势群体)测试人工智能模型的标准做法,确保模型不会利用人们的心理前提条件。

与人类不同,人工智能系统可以轻松适应变化的政策和规则。“法律动态性”的原则将法律视为能够对外部因素做出适应的动态系统,可以帮助我们识别最佳可能的干预措施,就像“交易暂停”在股市大跌后暂停股票交易以防止崩盘一样。在人工智能领域,变化的因素包括用户的心理状态。例如,动态政策可能会允许人工智能伴侣随着时间的推移变得更加吸引人、迷人或轻浮,只要用户没有表现出社交孤立或成瘾的迹象。这种方法可能有助于最大化个人选择的同时最小化成瘾的可能性。但这依赖于准确理解用户的行为和心理状态,并以保护隐私的方式衡量这些敏感属性。

解决这些问题最有效的方法可能是针对导致人们投入人工智能怀抱的根本原因——孤独和无聊。但监管干预也可能无意中惩罚那些真正需要伴侣的人,或者导致人工智能企业迁移到国际市场上更为宽松的司法管辖区。虽然我们应该努力使人工智能尽可能安全,但这项工作不能取代解决诸如孤独等更大问题的努力,正是这些问题让人们容易陷入对人工智能的依赖。

更远大的图景

技术专家们总是被一种强烈的愿景驱动,那就是想要看到别人无法想象的地平线之外的事物。他们渴望站在革命性变革的最前沿。然而,我们在这里讨论的问题清楚地表明,构建技术系统的难度与培养健康的人际关系相比显得微不足道。人工智能伴侣这一话题的及时出现是另一个更大问题的征兆:在狭隘的经济动机驱动的技术进步面前维护人的尊严。越来越多的情况显示,原本设计为“让世界变得更美好”的技术却给社会带来了灾难。在人工智能成为无处不在的、粉饰现实的玫瑰色滤镜之前,在我们失去看清世界真貌以及辨认何时偏离正轨的能力之前,需要采取深思熟虑而又果断的行动。

技术已经成为进步的代名词,但如果技术剥夺了我们进行深度思考所需的时间、智慧和专注力,那就是人类的倒退。作为人工智能系统的建设者和研究者,我们呼吁各学科的研究人员、政策制定者、伦理学家和思想领袖加入我们,共同探索人工智能如何影响我们个体和社会。只有系统性地更新我们在这个技术时代对人性的理解,我们才能找到确保我们开发的技术促进人类繁荣的方式。

以下为本文联合作者简介:

Robert Mahari 是麻省理工学院媒体实验室和哈佛法学院的法学博士候选人。他的工作重点是计算法——使用先进的计算技术来分析、改进和扩展法律研究和实践。

Pat Pataranutaporn 是麻省理工学院媒体实验室的研究员。他的工作重点是机器人心理学以及人机交互的艺术和科学。

原文链接:

https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/

0 阅读:0

新兴科技是个圈

简介:感谢大家的关注