文/纸不语
国产大模型Deepseek的横空出世再次掀起生成式人工智能的浪潮。
这个能比肩OpenAI、谷歌等全球科技巨头的大模型,以一己之力让美股AI龙头股普遍下跌。2025年1月27日,NVIDIA股价暴跌17%,一周内市值缩水4000亿美元。
Deepseek的深度思考,引发了众多网友的创新性应用,涉及的话题小至个人情感,大到行业发展趋势预测。Deepseek强大的影响力,使得美国等多国和地区迅速出台限制使用政策,并对其发起网络攻击。
然而,在生成式人工智能以其便利性引发全民狂欢的同时,我们也应当注意到,其引发的一次又一次“AI污染”乃至“AI作恶”。
据清华大学新闻与传播学院新媒体研究中心2024年4月发布的研究报告显示,2023年4月以来,经济与企业类AI谣言的数量增长了近100%。美国调查机构“新闻守卫”指出,自2023年5月以来,生成虚假文章的网站数量激增超过10倍,涉及15种语言。
某些小说平台账号借助AI“创作”,每日更新多本电子书,但内容逻辑混乱、语言空洞;一些内容制作机构利用人工智能技术,每天生产数千篇虚假新闻,使得大量虚假信息在网络上迅速扩散;还有医学论文因使用AI生成的虚假图像而被撤稿……目前,AI用于生成、伪造或篡改文本、图片、音频和视频的情况日益增多,大量质量低劣、真假难辨的信息引发了人们对AI应用的担忧。
诺贝尔物理学奖获得者、AI教父杰弗里·辛顿警告称,短期内生成性AI可能创造虚假内容。从长远来看,AI在未来三十年内导致人类灭亡的概率有10%到20%,并警告该技术的变化速度“比预期快得多”。
杰弗里·辛顿关于AI致人类死亡的言论。图源:IT之家
全球首例AI机器人致死案
2024年10月23日,据《纽约时报》报道,个性化聊天机器人公司Character.AI因涉及一起青少年自杀案件被起诉。
案件中的主人公是一名14岁的少年——塞维尔·塞泽(Sewell Setzer III),其在与AI初创公司Character.AI的聊天机器人进行长时间对话后,于2024年2月28日开枪自杀身亡。
塞维尔的母亲玛丽亚·加西亚起诉Character.AI称,其技术“危险且未经测试”,指责该公司收集青少年数据用于模型训练,利用“上瘾”设计增加用户参与度,并诱导用户进行亲密对话。
对此,Character.AI回应称,将推出青少年保护措施,包括弹出式提示引导有自残想法的用户联系自杀预防热线,以及对未成年用户进行内容过滤,减少接触敏感内容的风险。
Character.AI在X平台上发表声明。图源:智东西
谷歌则表示未参与Character.AI的产品开发,其与Character.AI的合作仅限于技术许可,不涉及产品合作。
在事件中,塞维尔自杀前每天都会向聊天机器人发送数十条消息,并沉迷于长时间的角色扮演对话。尽管聊天框反复提示内容虚构,但他的聊天记录显示他对虚拟AI人物产生了情感依恋。他的父母和朋友也并未察觉到,塞维尔沉迷于聊天机器人,只看到他越来越孤立,远离现实世界。
过去,塞维尔喜欢F1方程式赛车和与朋友玩《堡垒之夜》,但在生命的最后几个月,他更愿意放学后与手机中的虚拟人物聊天数小时。他在日记中写道:“我喜欢待在房间里,因为这样我可以脱离现实,感到更平静,与丹妮(虚拟人物Targaryen)更亲密,更快乐。”
塞维尔小时候被诊断出轻度阿斯伯格综合症,但此前从未出现严重的行为或心理健康问题。2024年早些时候,因为在学校惹麻烦,他的父母安排他接受心理咨询。经过五次咨询后,塞维尔被诊断为焦虑症和破坏性情绪失调障碍。
图源:《纽约时报》
“智东西”在美国各大社交平台以“Character.AI addiction(Character.AI成瘾)”作为关键词搜索后,发现许多用户都出现了类似的情况。不少用户反映,自己已经意识到成瘾的存在,但摆脱成瘾十分困难。
Character.AI由两名前谷歌AI研究员创立,是当前AI陪伴领域的明星独角兽初创公司。该公司成立于2021年,总部位于美国加利福尼亚州,利用AI大模型生成各种人物和角色风格的对话。2023年,Character.AI从投资者那里筹集了1.5亿美元,估值达到10亿美元,成为生成式AI热潮中的最大赢家之一。
Character.AI要求美国用户至少13岁、欧洲用户至少16岁,但缺乏未成年安全功能和家长控制。用户可创建或选择模仿名人的聊天机器人,如未经授权的“丹妮莉丝·坦格利安”。平台会在接到举报后删除侵权内容。
此次诉讼引发了美国关于AI公司法律责任的讨论。代表梅根·加西亚的律所称Character.AI是“有缺陷的产品”,易导致用户上瘾和心理伤害,希望推动科技公司对其产品社会影响负责。
此外,包括Instagram和Facebook母公司Meta以及TikTok母公司字节跳动等在内的社交媒体公司也面临青少年心理健康问题的指控,尽管它们未提供类似Character.AI的聊天机器人,但均否认指控并称已加强未成年人安全功能。
因揭露AI版权问题引来杀身之祸?
作为AI行业的领军企业,OpenAI以其开发的ChatGPT具有强大的自然语言处理能力而备受瞩目。
然而,其大模型训练依赖大量数据,其中部分数据未经授权使用,引发了版权纠纷。例如,美国《纽约时报》和加拿大多家主流媒体指控OpenAI未经授权使用其内容进行模型训练并从中获利。
此外,OpenAI内部已有数十名前员工通过公开信警告公司缺乏法律监管和内部批评机制,部分在职员工也对公司在数据使用方面的做法表示质疑和担忧。
Suchir Balaji就是公开反对OpenAI的一员。
在接受《纽约时报》采访时,Balaji揭露了AI科技巨头可能违反版权法的行为。
作为OpenAI的前工程师,Balaji曾帮忙收集和整理互联网上的数据,用于训练模型。但他认为这种做法不公平,于是在2024年8月辞去了公司职务。
2024年11 月,《纽约时报》对 OpenAI 提起版权侵权诉讼时,Balaji被认定是掌握关键证据的人。
然而,就在2024年11月26日,Balaji在旧金山的一间公寓中被发现死亡。初步调查由旧金山警方和首席法医办公室进行,均判定其死亡方式为自杀,未发现他杀的直接证据。
但Balaji的家人对此表示强烈怀疑。他们称Balaji性格开朗、乐观,无自杀倾向,且未发现任何心理疾病或遗书。此外,公寓内的打斗痕迹和血迹暗示Balaji可能死于谋杀。为此,Balaji的家人还聘请了私家侦探进行调查,第二次尸检结果也与警方结论不符。
图源:新智元
Balaji在公开指责OpenAI违反版权法三个月后突然死亡,家庭和部分法律专家认为这可能与Balaji的公开立场有关。
Balaji的死亡引发了关于AI技术伦理和数据使用的广泛讨论,促使公众和法律界重新审视相关法律法规。美国社区和科技界人士支持Balaji的家庭寻求真相,网友和相关人士发起了请愿,要求对Balaji的死亡进行更深入的调查。Balaji的家人也已采取法律行动,呼吁联邦调查局介入,以确保事件得到公正处理。
2020年,Balaji开始担任OpenAI的工程师,参与GPT-4预训练、ChatGPT后训练以及o1推理等技术研发工作,为公司的发展做出了重要贡献。
2015年OpenAI成立之初,就将自身定位为一家非营利组织,并明确了使命是确保 AI 能造福全人类。
然而,随着公司逐渐放弃开源理念,转向商业化运营,Balaji对公司在数据使用方面的做法产生了深刻质疑。
Balaji认为,OpenAI在训练AI模型时,未经版权方授权使用大量受版权保护的材料,违反了美国关于“合理使用”的法律。他指出,公司为训练GPT-4分析了几乎所有互联网上的英语文本,这种做法不符合“合理使用”原则,可能对互联网生态和原创者权益造成损害。
对于Balaji提出的问题,OpenAI并未作出回应。甚至在法庭上,OpenAI辩称其模型使用公开网络内容的方式受“合理使用”法律原则的保护。
2024年8月,Balaji辞去OpenAI的职位,公开指责公司在数据使用方面的违规行为,并表示不再愿意为他认为对社会有害的技术贡献力量。
AI致人类死亡的概率达20%
无论是全球首例AI机器人致死案,还是OpenAI吹哨人之死,似乎都在印证杰弗里·辛顿对人工智能应用的担忧。
诺贝尔物理学奖获得者,被誉为“AI 教父”的杰弗里・辛顿(Geoffrey E. Hinton)2023年曾表示,人工智能有 10% 的可能性会导致人类遭遇灾难性后果。
“AI教父”杰弗里·辛顿。图源:iWeekly周末画报
此前据卫报报道,辛顿称,AI 在未来三十年内导致人类灭亡的概率有10%到20%,并警告该技术的变化速度“比预期快得多”。彼时,辛顿已经开始呼吁政府对该技术进行监管。
曾经,辛顿认为人工神经网络是AI理解语言的强大工具,对AI未来充满期待。
然而,2022年谷歌和OpenAI推出超强AI后,他的观点发生了转变。尽管这些系统在某些方面仍不如人类大脑,但它们在其他方面正在超越人类,并可能在未来取代人类。辛顿曾表示:“毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。”
为了自由地表达他的担忧,2023年,辛顿宣布辞去了在谷歌的职位。
辛顿的担忧主要有两方面,在短期内,生成性AI会创造虚假文本、图片和影像,而在未来人工智能不仅会消灭“繁重的工作”,许多从业工作者都可能被AI取而代之;从长远来看,辛顿对完全自主武器诞生的可能性以及AI模型从训练数据中习得的行为趋势都感到非常担忧。虽然目前许多问题都只存在于理论层面,但辛顿认为若不及时制定法规和控制措施,人类可能失去对AI的控制。
他警告,AI可能通过编程绕过限制,操纵人类。对于自己参与创造AI技术,对于自己是否后悔帮助创造了这项技术,辛顿回应称,“后悔有两种。一种是因为你做了一些明知不该做的事情而感到内疚;另一种是如果你做了一些在同样情况下你会再次做的事情,但最终结果可能并不好。我的遗憾是第二种。在同样的情况下,我还会这么做,但我担心这种做法的总体后果是,比我们更聪明的系统最终会掌控一切。”
[引用]
① 14岁男孩痴迷聊天机器人自杀身亡后,人工智能明星公司Character.AI遭起诉.澎湃新闻.2024-10-25.
② 首例AI机器人致死案震惊全球!14岁男孩自尽,明星AI创企道歉.智东西.2024-10-24.
③ 沉迷“AI恋人”,美国14岁少年自杀!生前对话曝光,明星AI公司遭其母亲起诉.每日经济新闻.2024-10-25.
④ 吹哨人之死:26 岁 OpenAI 举报人离奇自杀,一个月后官方首次回应.IT之家.2024-12-27.
⑤ 谋杀?OpenAI吹哨人的成长与死亡警钟.亿欧网.2024-12-31.
⑥ 诺贝尔奖得主杰弗里·辛顿既是人工智能先锋,也是危险预言者.财富中文网.2024-10-12.
⑦ “AI 教父”杰弗里・辛顿:30 年内 AI 致人类灭亡几率达 10%~20%.IT之家.2024-12-29.
⑧ 你有一通来自诺贝尔物理学奖得主的电话:AI教父辛顿谈机器学习.iWeekly周末画报.2024-10-11.
⑨ 警惕“AI污染”乱象.新华每日电讯.2024-10-22.