文|鳄娱海棠
编辑|鸣乔
前言
我们常说“眼见为实”,这一古老的观念一度成为我们判断真假的依据。
在科技迅猛发展的今天,这种信条已不再是铁律,特别是当我们面对新型诈骗手段时,曾经牢固的安全感正在被一层层科技的迷雾所吞噬。
你是否想过,有一天,当你眼睁睁看着亲朋好友的面孔,接到求助电话时,可能并不是他们本人,而是高科技背后的虚拟“替身”?
这不仅是科幻片中的情节,更是正在现实中悄然发生的骗局。
今天,我们就来聊聊这一新型的诈骗手段——AI换脸。
它依托强大的人工智能技术,通过改变我们的外貌和声音,成功“冒充”熟悉的人,骗取你的信任和钱财。
令人震惊的是,这种骗局的成功率已经接近100%,几乎没有人能够逃脱其诱惑。
在这种新型诈骗中,骗子无需长时间的接触或复杂的操作,只需一张清晰的照片或一段语音,就可以通过AI换脸技术生成一段几乎以假乱真的视频和语音。
你或许还在疑惑:这是真的吗?是的,AI换脸与AI拟声技术的结合,让骗子几乎可以“复生”任何一个人,从你的亲朋好友到公众人物,甚至是你心爱的明星。
骗子利用这些技术,将你熟悉的面孔和声音加以模拟,创造出逼真的“虚拟替身”。当你接到一通“亲友”打来的电话,或者是看到他们通过视频求助时,视频中的人和声音让你根本无法分辨真假。
这时,骗子趁机编造一段感人的理由,借钱或索要帮助,迅速就能把你心中的防线攻破。
2023年5月,福州一位企业老板郭先生就在这样的骗局中受害。
他接到了好友通过微信视频发来的求助,视频中的好友看起来非常焦急,告诉他自己在外地竞标,需要一笔高额的保证金,但由于种种原因,必须通过郭先生的公司账户转账。
郭先生心生疑虑后,依旧通过电话确认了一下,但由于视频、声音都和真实的朋友一模一样,他完全没有防备,轻信了骗子的说辞。
结果,郭先生毫不犹豫地将430万元转账到了对方提供的账户。
当他再拨打自己朋友的电话时,却发现对方根本没有借钱的需求,才意识到自己被骗了。
让他震惊的是,那段视频、语音全都是AI技术生成的,骗子只需通过简单的技术手段,就能完美模拟出他的朋友的面孔和声音。
随着人工智能技术的成熟,AI换脸、AI拟声技术不断进化,它们不仅能够轻松模仿面部表情、声音语调,甚至可以精确到眨眼、嘴唇动作等细微之处。
对于许多普通人来说,这种仿真度几乎无法分辨,尤其是老年人等群体,容易被虚假的声音和视频所迷惑。
更有甚者,一些诈骗者通过收集公众人物的肖像和声音,制作出假的“明星”视频,轻易地欺骗粉丝或观众,从而达到非法获利的目的。
数据显示,老年人群体在面对AI合成的音视频时,识别能力显著低于其他群体,某次针对老年人的测试中,10位老人几乎无法分辨出谁是“真人”,谁是AI生成的声音。
骗子正是利用这一点,通过模拟家人或朋友的声音与面孔,诱导老人转账或泄露个人信息,许多老人并未接触过现代的AI技术,更加难以想象其“真实感”。
面对这一新型诈骗手段,我们如何做到“防患未然”,保护自己的财产安全呢?
首先,无论是面对熟悉的亲朋好友,还是突然出现的陌生人,我们都应保持警惕,特别是在涉及到转账、汇款等操作时。
即使视频中的人看起来是真实的,也不要急于做出反应。一定要通过其他可靠的方式核实对方身份,如直接拨打电话、通过其他通讯工具联系确认。
AI换脸虽然技术高超,但并不是完美无缺,仔细观察视频中的细节,譬如眼睛的眨动频率、嘴部的运动等,通常会暴露出一些技术漏洞。
尤其是老年人在这一方面存在较大的辨识困难,因此,更需要多方面的防范措施。
在接到陌生电话时,尽量避免主动开口。因为一旦你说话,骗子就有机会获取你的声音信息,用于后续生成AI合成语音,对亲朋好友进行诈骗。
你应该始终保持冷静,确认对方身份后再做回应。
如果家中有老人,一定要定期给他们普及防诈骗知识,特别是关于AI换脸和AI拟声技术的识别方法。
及时了解老人的财务状况,提醒他们不要随意透露个人信息和进行转账。
随着技术的飞速发展,我们每个人都应该增强自己的技术防范意识。
学会分辨真实与虚假,利用社交平台的隐私设置,避免泄露自己的过多个人信息,尤其是面部照片和语音。
结语
无论是AI换脸、AI拟声,还是其他新型诈骗手段,这些技术背后所隐藏的风险正在迅速渗透到我们生活的各个角落。
科技的确给我们带来了许多便利,但同样的,它也让骗子们有了新的作案工具。
因此,保持警惕、提高识别能力是我们每个人的责任,尤其是要关心家中的老人,确保他们在信息化时代中不成为诈骗的牺牲品。
大家一定要转告身边的人,尤其是年长的亲友,防范AI换脸等新型诈骗,让我们共同保护好自己和家人的财产安全,远离这类科技骗局的陷阱!
参考信源:大众日报 2024-12-13 “眼见不一定为实”!警惕AI换脸、智能变声等新型诈骗手段
光明网 2023-5-24 警惕!成功率近100%的新骗局全国多地频发,有人10分钟被骗430万