近年来,随着人工智能技术的飞速发展,AI换脸技术逐渐成为公众关注的热点。
这项技术能够将一个人的脸部特征与另一个人的脸部进行合成,创造出几乎无法用肉眼分辨真假的视频或图片。然而,技术的普及和应用也带来了诸多问题和风险,尤其是在直播带货、社交媒体等领域,AI换脸被不法分子用于欺诈和侵权,引发了广泛的社会关注和讨论。
AI换脸技术的门槛并不高。根据北京社科院副研究员王鹏的说法,简单的AI换脸技术难度并不高,具有一定技术水平的团队和小公司依托开源软件就可以实现基础性的AI换脸。而一些精细化、与微表情密切相关的换脸,则需要具有一定的算力需求。这意味着,在直播中使用AI换脸软件的成本并不高,这也导致在社交媒体上、直播中出现了很多欺诈行为,侵犯了消费者的合法权益。
AI换脸技术存在诸多风险与困扰,换脸视频碰瓷他人的现象也屡屡引发关注。例如,前段时间,“张文宏医生带货蛋白棒”的消息让不少人信以为真,部分商家通过AI换脸、合成人声等技术手段,将张文宏的面容与声音移花接木用于直播带货,引得当事人不得不出面辟谣和谴责。
这种利用AI技术直接参与犯罪的案例屡见不鲜,犯罪分子利用AI换脸、换声,冒充他人进行诈骗,也有人利用AI窃取他人隐私。奇安信集团发布的《2024年人工智能安全报告》显示,基于AI的深度伪造欺诈在2023年激增30倍。
尽管AI换脸技术已经比较成熟,甚至能够实现视频通话的实时换脸,虽然单凭肉眼很难分辨,不过只要稍加留心,AI换脸还是有明显破绽的。漏洞就在面部轮廓和光线上。中国网络空间安全协会人工智能安全治理专业委员会委员张博表示,视频通话时,要仔细观察对方的面部轮廓是否存在异常模糊情况、光线是否正常。必要时可以要求对方快速大幅度地抬头、点头、转头,然后在这个过程中仔细观察面部轮廓是否有异常模糊。
早期的换脸软件一般通过使用机器学习模型,将图片或视频合并叠加到源图片或视频上,借助神经网络技术进行大样本学习,并与声音、表情和动作合成。当前的AI换脸属于深度伪造的AI技术的衍生应用。随着生成式人工智能的发展,AI技术使用难度进一步降低,不少新兴APP和主流视频软件上都增加了类似功能,普及率大大提升,越发难辨真假。
面对AI换脸技术带来的挑战,我们需要从多渠道进行规范。首先,政府应加强对AI技术的监管,出台相关法规,明确界定合法使用和非法滥用的界限。其次,企业应承担起社会责任,加强对AI换脸技术的审核和管理,防止其被用于非法目的。同时,公众也应提高警惕,学会识别AI换脸的破绽,保护自身权益不受侵害。
AI换脸技术的发展为我们带来了前所未有的便利,但也带来了诸多挑战和风险。只有通过政府、企业和公众的共同努力,才能有效应对这些挑战,确保AI换脸技术的健康有序发展。