ChatGPT生成诽谤性虚假谋杀信息,OpenAI在欧洲遭隐私投诉

IT之家 2025-03-20 15:32:56

IT之家3月20日消息,近日,人工智能公司OpenAI旗下的热门聊天机器人ChatGPT因生成虚假信息而面临又一起隐私投诉。此次事件发生在欧洲,由隐私权益倡导组织Noyb支持挪威一名个人发起,该个人发现ChatGPT生成了虚假信息,声称他因谋杀两名子女并企图杀害第三名子女而被定罪。这一事件引发了对OpenAI是否违反欧盟《通用数据保护条例》(GDPR)的质疑。

IT之家注意到,此前关于ChatGPT生成错误个人信息的投诉,通常涉及错误的出生日期或不准确的传记细节等。然而,此次事件的严重性在于,ChatGPT生成了极具诽谤性的虚假信息,这不仅对个人名誉造成严重损害,也引发了对AI技术在数据准确性方面的担忧。根据GDPR,欧洲公民有权要求数据控制者更正关于他们的错误个人信息。然而,目前OpenAI并未提供一种机制,让个人能够纠正AI生成的关于他们的错误信息,通常只是选择屏蔽相关提示的回应。

Noyb指出,GDPR明确规定个人信息必须准确无误。Noyb的数据保护律师JoakimSöderberg表示:“如果信息不准确,用户有权要求更正,以反映事实真相。仅仅在ChatGPT的界面底部显示一条小字声明,提醒用户该聊天机器人可能会出错,显然是不够的。你不能一边传播虚假信息,一边在最后加上一条小字声明说你所说的一切可能并不属实。”

违反GDPR的行为可能会带来高达全球年营业额4%的罚款。此外,执法行动还可能迫使AI产品进行调整。

Noyb此次对ChatGPT的新投诉似乎旨在唤醒隐私监管机构,使其重视“幻觉”AI可能带来的危险。Noyb与TechCrunch分享了一张截图,显示ChatGPT在回答“ArveHjalmarHolmen是谁?”这一问题时,生成了一个虚假的悲剧故事,声称Holmen因谋杀自己的两个儿子而被判处21年监禁。尽管Holmen确实有三个孩子,ChatGPT也正确地给出了孩子们的性别和他所在的城市,但AI却凭空捏造了如此可怕的虚假内容。

Noyb的一位发言人表示,他们无法确定为什么ChatGPT会为这个人生成如此具体但虚假的历史。该发言人称,他们进行了研究,以确保这不是与其他人的混淆,并查阅了报纸档案,但未能找到AI为何会编造儿童谋杀案的原因。大型语言模型(如ChatGPT的基础模型)本质上是进行大规模的下一个词预测,因此可以推测,用于训练该工具的数据集中包含了许多关于杀婴的故事。

无论原因是什么,这种输出显然是不可接受的。Noyb认为,这种行为违反了欧盟的数据保护规则。尽管OpenAI在屏幕底部显示了一个小字声明,称“ChatGPT可能会出错,请核实重要信息”,但Noyb认为,这并不能免除AI开发者在GDPR下的责任,即不应首先生成关于人们的严重虚假信息。

尽管此次GDPR投诉涉及的是一个特定个人,但Noyb指出,ChatGPT还存在其他制造法律上有问题的信息的实例,例如一名澳大利亚上校声称自己被卷入贿赂和腐败丑闻,还有一名德国记者被错误地称为儿童虐待者,这表明这一问题并非个例。

值得注意的是,在对ChatGPT的基础AI模型进行更新后,Noyb表示该聊天机器人已停止生成关于Holmen的危险虚假信息。但Noyb和Holmen仍然担心,关于他的错误和诽谤性信息可能仍然保留在AI模型中。

Noyb已向挪威数据保护机构对OpenAI提起投诉,并希望该监管机构决定其有能力进行调查,因为Noyb将投诉目标对准了OpenAI的美国实体,认为其爱尔兰办公室并非唯一负责影响欧洲人的产品决策的主体。

然而,此前Noyb支持的另一项针对OpenAI的GDPR投诉,于2024年4月在奥地利提起,却被监管机构转交给了爱尔兰的DPC,原因是OpenAI在当年早些时候将其爱尔兰分公司指定为向区域用户提供ChatGPT服务的提供商。

爱尔兰数据保护委员会助理首席通讯官RisteardByrne在被问及ChatGPT“幻觉”调查的最新进展时表示:“在2024年9月收到奥地利监管机构转交的投诉后,DPC已正式开始处理该投诉,目前仍在进行中。”他并未透露DPC对ChatGPT“幻觉”问题的调查预计何时结束。

0 阅读:12
IT之家

IT之家

爱科技,爱这里 - 前沿科技人气平台