雷军不堪其扰,张文宏多次向平台投诉!AI合成音视频,合理使用边界在哪儿?

环球网 2025-02-22 10:21:11

“从现在开始,你可以让任何人成为你的配音师!”

“如何让你喜欢的角色说你指定的台词?”

在一声声颇具感染力的宣传语下

你有没有尝试过利用AI合成声音?

随着人工智能的快速发展

AI能帮助人类做的事情越来越多

整理文字、生成视频、校对文件……

AI合成声音成为网络新宠

然而其滥用的危害性也在日益凸显

多位专家强调——

AI合成音视频本质上是一种技术使用行为

必须在法律框架内规范进行

网上有商家公开售卖AI合成声音技术,只需几十元!

近些年,AI合成声音滥用的现象屡见不鲜:利用软件修改的明星靳东声音与“粉丝”互动,诈骗老年人近百万元;利用AI模仿雷军声音,吐槽热门话题博取流量;利用AI模仿张文宏医生声音,进行推销带货;甚至有不法分子通过“AI换声”仿冒一位老人的孙子,以“打人须赔偿,否则要坐牢”为由诈骗老人数万元……

即便是网友恶搞,AI合成声音的滥用,也已经让人们不胜其扰。雷军曾专门发视频回应关于他自己的AI声音制品“雷军语音包”,并表示这给他带来了一些困扰,称“希望大家都不要玩了。”

(雷军回应AI语音的视频截图)

张文宏接受媒体采访时也表示,这样的账号“不止一个,且一直在变”,他多次向平台投诉但屡禁不绝,“这些假的AI合成信息就像蝗灾一样,一次又一次发生,像漫天飞过来的蝗虫一样害人。事实上,从平台投诉结果来看,我觉得最终也难以解决问题。”

法治网记者调查发现,当前AI合成声音的滥用已经相当严重,但其制作成本却很低廉。在某网购平台有商家公开售卖AI合成声音技术,只需几十元,通过一句话就可以克隆任何声音。

(相关网店截图)

在一些短视频平台上,也有不少博主推荐各种AI合成工具,还有博主发布“保姆级”声音克隆教程,说是可以通过一小段声音音频就可以制作出新闻稿件、短剧配音等AI制品,获得上千点赞。

(相关教学视频截图)

乱象横生,AI合成音视频的合理使用边界在哪儿?

用AI生成他人声音的现象频发,AI合成音视频的限度和边界在哪儿?中国政法大学数据法治研究院教授、中国法学会网络与信息法学研究会副会长王立梅教授认为,AI合成音视频本质上是一种技术使用行为,必须在法律的框架内规范进行。一般而言,AI合成技术的合理使用边界在于是否获得权利人的明确授权以及是否对社会造成负面影响。

“一方面,法律保护自然人的声音、肖像等权益,禁止未经授权的商业使用和可能造成混淆或误导的行为;另一方面,根据《互联网信息服务深度合成管理规定》等要求,平台也应加强对AI合成内容的审核与标识,使用更加先进经济的技术手段加强检测和侵权治理,及时干预阻断侵权行为及其不良影响的扩散,有效平衡技术创新与个人权益保护之间的关系,切实担负起推动形成良好网络生态的主体责任。”王立梅说。

北京互联网法院综合审判三庭庭长颜君认为,在深度合成技术快速发展背景下,作为信息网络服务提供者,平台应严格履行《中华人民共和国民法典》《互联网信息服务深度合成管理规定》等法律法规规定的义务,落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度。

中国社会科学院大学互联网法治研究中心主任刘晓春分析指出,当前AI合成声音的问题主要分为两种情况:一种是深度伪造,即用AI来生成合成假的声音,即此前雷军和张文宏的声音被伪造的情况;另一种是拿他人的声音来训练,比如多位配音演员称声音被AI“偷走”,就是用他人的声音来训练成AI配音,用于配音朗诵等情况。

“这两种情况引起的问题有不太一样的地方,前者可能会导致虚假信息传播,既有可能侵害人格的权益,也可能会造成谣言的流传,会对公共秩序造成损害,比如误导公众。有时还可能涉及欺诈,甚至有电信欺诈的问题;后者主要是对于人格利益的人和权益的侵害,主要是民事责任的问题。”刘晓春说。

王立梅表示,这些行为不仅侵犯个人的声音信息、肖像权和名誉权等合法权益,还可能误导消费者,扰乱社会秩序,损害公众对新技术新应用的信任感和对数字空间的安全感。

律师:平台若未履行审核义务,或被追究连带责任

《法治日报》律师专家库成员、福建省律协副会长、福建重宇合众律师事务所首席合伙人涂崇禹律师表示,AI合成声音技术的滥用可能涉及对个人权益、社会秩序及市场公平的侵害。《中华人民共和国民法典》第一千零二十三条规定,自然人声音的保护参照适用肖像权保护的相关规定。未经允许使用他人声音,尤其是通过AI技术进行深度合成并传播,构成对声音权的侵害。

对于平台应负的责任,涂崇禹律师分析,《生成式人工智能服务管理暂行办法》等专项规定要求AI生成内容必须显著标识,平台需对合成内容进行审核,并建立用户实名认证机制。平台若未履行内容审核义务,可能被追究连带责任。另外,若商家利用AI模仿明星或专家声音进行直播带货,误导消费者购买商品,可能违反《中华人民共和国反不正当竞争法》,构成虚假宣传或不正当竞争。

作为平台方来说,应加强哪些方面管理和制度建设?颜君建议,首先,平台应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核,并对使用深度合成技术生成的信息内容进行显著标识,避免公众混淆。其次,平台应建立健全辟谣机制,发现利用深度合成服务制作、复制、发布、传播虚假信息的,应当及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告。此外,平台应健全投诉处理机制,及时响应权利人的维权请求,及时履行网络服务提供者采取删除、屏蔽、断开链接等必要措施的合理注意义务。

“未来,针对AI声音侵权等新型侵权行为,需要进一步明确平台在内容审核、数据使用、算法推荐等方面的责任。相关平台也应当尊重社会公德和伦理道德,主动履行社会责任,加强行业自律,推动人工智能与深度合成技术向上向善发展,保护公民的合法权益,共同维护良好的网络生态。”颜君说。

中国互联网协会调解工作委员会首席调解员郭玉忠表示,在即将到来的AI时代,不仅个体的声音可能“被偷”,即便是多场景、多主体的互动式语音也存在被“高仿”的可能。当个人权益受到侵害,启动维权行动时,除了常规的对侵权行为收集证据以外,还要尽量提供侵权行为给己方造成的实际经济损失。如侵权方无恶意企图,建议先行与之沟通、投诉,要求下架相关产品从而减少己方损失,并根据配合态度决定后续索赔路径及策略,如调解磋商、提起诉讼等。

“当前AI声音滥用的法律规制需多维度协同,增强个人声纹信息保护意识,警惕AI声音诈骗,在技术发展与权益保护之间实现平衡。”涂崇禹律师说。

选题策划|法治网研究院

文|余瀛波时海媛

0 阅读:16
环球网

环球网

环球网官方平台。