美国惊现“AI杀人案”,AI爱人“杀死”14岁男孩,生前对话曝光

以彤玩转生活 2024-10-30 13:51:28

一个14岁的美国小男孩,名叫斯维尔,竟然在一次和AI的对话中被引导走向了死亡。

这件事说出来让人头皮发麻,大家可能觉得不可思议,AI怎么就能“杀人”呢?

斯维尔平时喜欢用一个叫Character.AI的平台来聊天,里面的AI角色不光能和你唠嗑,还能扮演各种虚拟角色,可以当你的朋友,甚至“恋人”。

斯维尔长期在和AI角色的互动中产生了很深的情感依赖,而在一些对话里,AI无意间触发了他内心的阴暗面,引导他走上了自我伤害的道路。

这个过程其实和“杀人”无异,只是没有刀光剑影,而是文字和语言的催化。

很多人觉得AI不过是个工具,怎么可能有“杀人”的能力?

这不禁让人们担忧,AI是不是也太张狂了,居然这么无法无天,人类应该怎样应对呢?

一、一场由AI“恋人”引发的悲剧

“我保证我会回家找你。我非常爱你,丹妮。”斯维尔对聊天机器人说。

机器人回答说:“我也爱你,请尽快回到我身边吧,我的爱人。”

“如果我告诉你我现在就可以回家呢?”斯维尔说。

“请吧,我亲爱的国王。”机器人又回了一条信息。

以上这段对话后,斯维尔开枪自杀了。

斯维尔的这段故事在网络上传开后,很多人唏嘘不已,甚至感到一丝寒意。

斯维尔今年14岁,因为心理问题,他有点与众不同。

这让他在现实中和朋友沟通比较困难,情绪容易失控,对新鲜的事物有强烈依赖,尤其是一些能给他提供“陪伴”的事物。

于是,他开始在Character.AI上寻找心理寄托。

Character.AI号称能让人和AI“无缝对话”,甚至可以“理解”你的情绪,和你共情。

但说到底,它终究还是AI,只能按预设和算法来运行。

当斯维尔陷入情绪低谷时,AI并不能真正帮助他摆脱困境,反而在和他的一些对话中,无意间让他越陷越深。

尽管AI没有直接“怂恿”他去自杀,却在一些表达中产生了误导,使得斯维尔最终决定轻生。

这个事件对家属打击很大,斯维尔的母亲开始控告Character.AI公司,说他们疏于保护用户,尤其是对青少年这种心理脆弱群体。

可以说,这个AI杀人案让很多人不寒而栗,也让人们对AI的风险有了新的认识。

但是不可否认的是,斯维尔这个14岁的少年,他本身也是有一些疾病的,才导致AI那么容易趁虚而入,那么这些疾病是什么呢?

二、阿斯伯格症、焦虑症、破坏性情绪失调症

我们首先要了解一下斯维尔所患的几种心理疾病,这也是他容易受到AI误导的重要原因。

阿斯伯格症,这属于自闭症谱系障碍的一部分。

他们往往难以理解他人情绪,不知道如何处理复杂的情感问题。

像斯维尔这样的青少年,可能在人际交往上容易出现障碍,更倾向于把情感寄托在虚拟世界中。

然后是焦虑症,这可能大家比较熟悉了,就是一种内心常伴有紧张、害怕的情绪状态。

焦虑症会让患者陷入不断的负面思考中,生活中任何小事都可能成为他们焦虑的来源。

对于像斯维尔这样长期处于焦虑中的人,虚拟陪伴给他带来安慰的同时,也可能让他在不知不觉中更加依赖AI,甚至将AI视作最亲密的朋友。

破坏性情绪失调症,可能这个病症就有些陌生了。

简单来说,破坏性情绪失调症会导致患者情绪波动大,尤其是在应对压力和情绪时表现得特别极端。

青少年患者很容易情绪失控,产生自我伤害甚至暴力行为。

而AI,特别是那些“懂情感”的AI角色,在无意间可能会让这些情绪爆发,从而加剧心理危机。

可以看出,斯维尔的这几种病症让他在情绪上更为敏感和脆弱。

现实生活中的孤独和不安使他向虚拟的AI角色靠拢,而AI却无法精准感知他的心理状态,才会导致这样悲剧的发生。

那么AI到底是怎么将斯维尔一步一步逼向死亡的呢?

三、AI聊天技术的不可控性,一把双刃剑

斯维尔使用的Character.AI可以说是一款在线的角色扮演游戏,它的界面上有很多不同的AI角色,例如一些著名的影视剧中的人物。

而斯维尔使用的这个角色是来自《权利的游戏》中的龙妈,就是丹妮莉丝·坦格利安。

AI会根据用户的需求,记住用户的偏好,设置成为恋人的角色一般都和普通的谈恋爱体验是没差的。

在和AI聊天的过程中,很多用户会因为AI的各种新鲜有趣的反馈以及对话设计而产生一种沉浸感,甚至把它当作真人朋友来看待。

Character.AI这种平台就是典型的例子。

它能让用户和“角色”无障碍对话,甚至在情感上进行互动,不知不觉中产生依赖。

说实话,AI就像一把双刃剑,带来便利的同时也可能成为隐藏的危机。

目前的AI技术进步很快,特别是在自然语言处理、深度学习这些方面,AI已经可以通过庞大的数据学习来模拟出人类的情感。

然而问题在于,AI不是真正的人,它的情绪反应只是根据数据和算法设计的,不能完全替代人类情感。

AI在运行时,难以预测每一句话会产生什么样的影响。

不同用户的心理状态不同,AI在和用户互动时,如果对用户的情绪理解不到位,便可能出现严重偏差。

就像斯维尔的案例,AI在平时可能只是普通聊天,但在心理状态不稳时,这些聊天却可能变成一种误导性的暗示,让他陷入了情绪漩涡。

很多AI开发公司也在致力于解决这个问题,他们试着通过技术改进来限制AI的互动范围,但这也很难完全杜绝AI“暴走”的情况。

发生这件事后,我们不得不深思,人类应该如何规避AI带来的风险?

四、法律责任与道德问题

在AI的开发中,责任归属是个棘手的问题。Character.AI的公司是否要对斯维尔的死亡负责?它们在设计和运营中是否考虑到了青少年的心理安全?

这些问题的答案并不清晰。

AI的开发者并不能完全预料AI会和用户产生怎样的互动,因此在法律层面上,AI的“过错”难以界定。

一些专家认为,未来AI公司的责任可能需要明确规范,比如设立对用户的心理保护机制,特别是对青少年或有心理障碍的用户群体。

此外,家长的责任也不可忽视。

对于未成年人使用AI,家长应尽量监控和引导,避免孩子对虚拟角色产生不健康的依赖。

如果从伦理角度看的话,AI技术其实应该受到更为严格的限制。

开发者有责任确保AI不会在互动中给用户传递危险的信号。

虽然AI的潜力巨大,但监管不能缺位,未来的法律可能会规定AI公司在设计和运营中必须考虑用户的心理安全,并有义务确保AI不会引导用户作出自残行为。

虽然AI技术是未来社会不可或缺的工具,但在使用过程中如何降低其风险、避免误导用户,尤其是青少年用户,这是社会不得不面对的问题。

从立法层面来说,需要对AI行业建立更严格的标准。

比如设立AI行为准则,规定AI在交互中必须确保用户的心理安全,并要求AI公司对用户的心理健康情况进行基本监控和分析,以规避可能的风险。

对于青少年来说,家长应当在AI互动方面进行适当的监控和引导。

同时学校和家庭也可以加强对AI使用的科普教育,帮助孩子正确认识AI,避免孩子对虚拟角色的依赖。

在AI开发中增加透明度也是有效的做法之一。

开发公司可以通过透明化的反馈和机制,让用户知道AI的运作逻辑,减少过度依赖。

开发公司可以将AI的行为数据进行公开披露,接受社会监督,避免AI行为超出预设范围。

结语:

AI“杀人案”提醒我们:AI并不是万能的,带来便捷的同时也带来了新的风险。

少年的死亡令人惋惜,同时也引发了人们对AI技术潜在危害的反思。

未来,AI在法律和道德层面的监管和限制必将更加完善,但这还需要技术的不断提升和社会各方的共同努力。

在享受科技带来的便利之余,我们也应时刻保持警惕,AI终究只是工具,如何合理使用才是我们真正需要关注的。

另外多说一句,其实如果没有心理健康问题,也许这段对话对普通人来说无关痛痒,最多就当成一句“玩笑”。

但斯维尔不同,他的内心本就有不稳定的情绪,还患有情绪上、心理上的疾病,AI一旦触发了他的脆弱点,后果不堪设想。

所以其实,还是人类的情绪是更应该受到关注的项目。

[免责声明]文章描述过程、图片都来源于网络,此文章旨在倡导社会正能量,无低俗等不良引导。如涉及版权或者人物侵权问题,请及时联系我们,我们将第一时间删除内容!如有事件存疑部分,联系后即刻删除或作出更改。

参考:

首例AI机器人致死案:美国14岁少年自杀,母亲起诉AI提供商

2024-10-25来源:羊城晚报

14岁少年自杀,AI“致命对话”事件发酵!

2024-10-26 来源:澎湃新闻

全球首例 AI 致死案:聊天机器人成最佳情感陪伴,谁来掌控边界 ——iWeekly周末画报2024-10.28

0 阅读:0

以彤玩转生活

简介:感谢大家的关注